Vorlesungsskript zum zweiten Teil der Analysis 2: Analysis in mehreren Veränderlichen Prof. Dr. Helge Glöckner Vorwort. In der Vorlesung “Analysis 2” im Sommersemester 2014 an der Universität Paderborn wurde zunächst die Analysis für Funktionen einer Variablen abgeschlossen. Das folgende Skript ist dem zweiten Teil der Analysis 2 gewidmet, dem Studium von mehrerer Variablen (Stoff ab 20.5.2014). Für den ersten Teil der Analysis 2 (über Funktionen einer Variablen) verweise ich auf das Ihnen zugängliche Vorlesungsskript zur Analysis 1 von Prof. Dr. Karl-Hermann Neeb (Universität Erlangen). In Teil 1 behandelte Themen: • Treppenfunktionen und Riemann-integrierbare Funktionen, Definition und Eigenschaften des Riemann-Integrals • Stammfunktionen und uneigentliches Integral, Hauptsatz der Integral- und Differentialrechnung, (verallgemeinerter) Mittelwertsatz • Substitutionsregel, partielle Integration, Integration rationaler Funktionen durch Partialbruchzerlegung • Uneigentliche Integrale und Majorantenkriterium; Integralvergleichskriterium für Reihen • Taylorentwicklung für Funktionen einer Variablen • punktweise und gleichmäßige Konvergenz von Funktionenfolgen, Supremumsnorm, Weierstraßscher Konvergenzsatz, Stetigkeit von Grenzfunktionen, Vertauschen von Integralen und Grenzwerten, Vertauschen von Ableitungen und Grenzwerten, Potenzreihen können gliedweise abgeleitet werden 1 Vorschau auf Teil 2: • Normen auf Rn und Topologie, Stetigkeit für Funktionen mehrerer Variablen Begriff des Banachraums • Abschluss, Inneres und Rand einer Teilmenge • Kompaktheit und Anwendungen • Wege, Wegintegrale und Bogenlänge • Differenzierbarkeit für Funktionen mehrerer Variablen. Ableitung, Gradient, Kettenregel, partielle Ableitungen und Richtungsableitungen • Höhere Ableitungen, Hessematrix • Taylorentwicklung für Funktionen mehrerer Variablen • Lokale Extrema für Funktionen mehrerer Variablen • Vektorfelder und Existenz von Potentialfunktionen • Parameter-abhängige Integrale • Satz über die Umkehrfunktion, implizite Funktionen, Banachscher Fixpunktsatz • Anwendungen der Sätze über die Umkehrfunktion und über implizite Funktionen 2 Nachtrag: Lipschitz-Stetigkeit Es ist nützlich, vorab einen weiteren Stetigkeitsbegriff zu diskutieren. Definition. Es seien (X, dX ) und (Y, dY ) metrische Räume. Eine Abbildung f : X → Y heißt Lipschitz-stetig, wenn ein L ∈ [0, ∞[ existiert derart, dass (∀x, y ∈ X) dY (f (x), f (y)) ≤ L dX (x, y). Lemma. Ist f : X → Y Lipschitz-stetig, so ist f gleichmäßig stetig (insb. also stetig). Beweis. Ist ε > 0 gegeben, so setzen wir δ := dX (x, y) < δ gilt dann ε . L+1 dY (f (x), f (y)) ≤ L dX (x, y) ≤ Lδ = L Für alle x, y ∈ X mit ε < ε. L+1 2 Also ist f gleichmäßig stetig. 3 1 Normen und die Topologie des Rn Auf R haben wir den Betrag |.| : R → [0, ∞[, x 7→ |x| zur Verfügung und betrachten üblicherweise die Metrik d : R × R → [0, ∞[, d(x, y) := |x − y|. Analog auf C. Entsprechend wollen wir nun auf Rn Metriken d betrachten, die nur von der Differenz x − y zweier Punkte abhängen. Sie werden von der Form d(x, y) := kx − yk sein mit einer sogenannten“Norm” k.k auf Rn (die ähnliche Eigenschaften wie der Betrag hat). Definition 1.1 Es sei E ein (reeller) Vektorraum. Eine Abbildung k.k : E → [0, ∞[, x 7→ kxk heißt Norm, wenn gilt: Definitheit. Für alle x ∈ E \ {0} ist kxk > 0. Subadditivität. Für alle x, y ∈ E ist kx + yk ≤ kxk + kyk. Positive Homogenität. Für alle t ∈ R und x ∈ E ist ktxk = |t| · kxk. Für den Nullvektor 0 ∈ E gilt stets k0k = 0, denn aufgrund der positiven Homogenität ist k0k = k0 · 0k = |0| · k0k = 0 · k0k = 0 (wobei die linke Null stets 0 ∈ R meint). Ist E ein Vektorraum und k.k eine Norm auf E, so nennt man das Paar (E, k.k) einen normierten Raum. Satz 1.2 Ist (E, k.k) ein normierter Raum, so ist d : E × E → [0, ∞[, d(x, y) := kx − yk eine Metrik auf E. 4 Wir versehen E stets mit dieser Metrik, wenn nichts anderes gesagt wird. Beweis. Für x, y ∈ E ist 0 = d(x, y) = kx − yk genau dann, wenn x − y = 0, also x = y. Sind x, y, z ∈ E, so gilt d(x, z) = kx − zk = kx − y + y − zk ≤ kx − yk + ky − zk = d(x, y) + d(y, z) unter Benutzung der Subadditivität. Also erfüllt d die Dreiecksungleichung. Schließlich gilt d(y, x) = ky − xk = k(−1)(x − y)k = |−1| · kx − yk = 1 · d(x, y) = d(x, y), d.h. d ist symmetrisch. 2 Beispiele 1.3 (a) Die euklidische Norm ist die Abbildung q n k.k2 : R → [0, ∞[, kxk2 := x21 + · · · + x2n für x = (x1 , . . . , xn ). Die zugehörige Metrik d : Rn × Rn → [0, ∞[, d(x, y) := kx − yk2 = p (x1 − y1 )2 + · · · + (xn − yn )2 heißt euklidischer Abstand. In Ebene und Raum ist also kx − yk2 der übliche, aus der Schule bekannte Abstand der Vektoren x und y. (b) Die Abbildung k.k∞ : Rn → [0, ∞[, kxk∞ := max{|x1 |, . . . , |xn |} heißt Maximum-Norm. Der zugehörige Abstand ist für x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) gegeben durch kx − yk∞ = max{|x1 − y1 |, . . . , |xn − yn |}. Dies ist also das Maximum der Abstände der einzelnen Komponenten. Für Rechnungen ist dieser Abstand oft bequemer als der euklidische. (c) Die Abbildung k.k1 : Rn → [0, ∞[, kxk1 := |x1 | + · · · + |xn | heißt 1-Norm. Der zugehörige Abstand ist für x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) gegeben durch kx − yk1 = |x1 − y1 | + · · · + |xn − yn |. 5 Satz 1.4 Die euklidische Norm, die 1-Norm und die Maximum-Norm sind Normen auf Rn . Beweis. Seien x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) aus Rn und t ∈ R. Maximum-Norm: Definitheit. Es ist 0 = kxk∞ = max{|x1 |, . . . , |xn |} genau dann, wenn |x1 | = · · · = |xn | = 0, also x = 0. Subadditivität. Für jedes k ∈ {1, . . . , k} ist |xk + yk | ≤ |xk | + |yk | ≤ kxk∞ + kyk∞ . Bilden des Maximums über alle k liefert kx + yk∞ ≤ kxk∞ + kyk∞ . Positive Homogenität. Es ist ktxk∞ = max{|tx1 |, . . . , |txn |} = max{|t| · tx1 |, . . . , |t| · |xn |} = |t| max{|x1 |, . . . , |xn |} = |t| · kxk∞ . Euklidische Norm: p Definitheit: Es ist 0 = kxk2 = x21 + · · · + x2n genau dann, wenn x1 = · · · = xn = 0, also x = 0. Subadditivität: Als Hilfsmittel benutzen wir das Skalarprodukt auf Rn , hx, yi := n X xk yk ∈ R. k=1 Dieses erfüllt hy, xi = hx, yi und ist für festes x linear in y. Dann ist also p kxk2 = hx, xi. Nach der (aus der Linearen Algebra bekannten) Cauchy-Schwarzschen Ungleichung gilt |hx, yi| ≤ kxk2 kyk2 . Somit ist (kx + yk2 )2 = hx + y, x + yi = hx, xi + hx, yi + hy, xi + hy, yi = (kxk2 )2 + 2hx, yi + (kyk2 )2 ≤ (kxk2 )2 + 2kxk2 kyk2 + (kyk2 )2 = (kxk2 + kyk2 )2 . 6 Da die Quadratwurzel eine monoton wachsende Funktion ist, bleibt die vorige Ungleichung bestehen, wenn wir die Wurzel ziehen: kx + yk2 ≤ kxk2 + kyk2 . Positive Homogenität: Es ist ktxk2 q p 2 2 = (tx1 ) + · · · + (txn ) = t2 x21 + · · · + t2 x2n q √ q 2 2 2 = t (x1 + · · · + xn ) = t2 x21 + · · · + x2n = |t| · kxk2 . 1-Norm: Die 1-Norm wird in der Übung diskutiert. 2 Definition 1.5 Sei (E, k.k) ein normierter Raum. Für x ∈ E und r > 0 definieren wir die offene Kugel um x vom Radius r als Br (x) := Brk.k (x) := {y ∈ E : ky − xk < r} und die entsprechende abgeschlossene Kugel als k.k B r (x) := B r (x) := {y ∈ E : ky − xk ≤ r}. Dies sind also genau die in der Analysis 1 kennen gelernten Kugeln im metrischen Raum (E, d) mit d(x, y) := kx − yk. Bemerkung 1.6 Kugeln bzgl. der euklidischen Norm in Rn sind übliche Kugeln, p Brk.k2 (x) = {y ∈ Rn : (y1 − x1 )2 + · · · + (yn − xn )2 < r}. k.k Für n = 2 ist insbesondere B1 2 (0) die offene Einheitskreisscheibe. Im Fall der Maximum-Norm ist r > ky − xk∞ = max{|y1 − x1 |, . . . , |yn − xn |} genau dann, wenn |yk − xk | < r für k ∈ {1, . . . , n}, also yk ∈ ]xk − r, xk + r[. Somit ist Brk.k∞ (x) = ]x1 − r, x1 + r[× · · · × ]xn − r, xn + r[ ein Würfel im Rn . Für n = 2 ist insbesondere k.k∞ B1 (0) = ]−1, 1[ × ]−1, 1[ 7 (ein Quadrat). k.k Im Falle der 1-Norm ist im Zweidimensionalen Br 1 (x) das Quadrat mit den Eckpunkten (x1 − r, x2 ), (x1 , x2 − r), (x1 + r, x2 ), (x1 , x2 + r) (Skizze siehe Vorlesung). Zur Vereinfachung stellen wir zunächst fest, dass Brk.k1 (x) = x + Brk.k1 (0), d.h. die Kugel um x entsteht durch Verschieben aus der Kugel um 0 (Begründung: k.k Es ist y = x+(y −x) und y −x ist genau dann in Br 1 (0), wenn ky −xk1 < r, k.k also wenn y ∈ Br 1 (x). Ist nun (x1 , x2 ) ∈ R2 , etwa im ersten Quadranten k.k (also x1 , x2 ≥ 0), so ist (x1 , x2 ) ∈ Br 1 (0) genau dann, wenn r > |x1 | + |x2 | = x1 + x2 , d.h. (x1 , x2 ) liegen im von der x-Achse, y-Achse und der Geraden x1 + x2 = r eingeschlossenen Gebiet (ausschließlich der Geraden). Analog in den anderen Quadranten. B1 (0) nennt man übrigens auch die (offene) Einheitskugel. Die vorigen Beispiele von Kugeln sind konvex, d.h. mit je zwei Punkten enthalten sie auch deren Verbindungsstrecke. Dies ist ein allgemeines Phänomen. Definition 1.7 Es sei E ein reeller Vektorraum. Eine Teilmenge M ⊆ E heißt konvex, wenn für alle x, y ∈ M ihre Verbindungsstrecke {x + t(y − x) : t ∈ [0, 1]} in M liegt, d.h. (∀t ∈ [0, 1]) (1 − t)x + ty ∈ M. Satz 1.8 Für jeden normierten Raum (E, k.k), x ∈ E und r > 0 sind die k.k k.k Kugeln Br (x) und B r (x) konvexe Teilmengen von E. k.k Beweis. Seien y, z ∈ Br (x) und t ∈ [0, 1]. Ist t = 0 oder t = 1, so ist (1 − t)y + tz ∈ {y, z}, also in der Kugel. Nun sei t ∈ ]0, 1[. Dann ist auch 1 − t > 0 und folglich (1 − t)ky − xk < (1 − t)r und tkz − xk < tr. Subadditivität und positive Homogenität liefern nun k(1 − t)y + tz − xk = ≤ = = k(1 − t)y + tz − (1 − t)x + txk k(1 − t)(y − x)k + kt(z − x)k |1 − t| · ky − xk + |t| · kz − xk (1 − t)ky − xk + tkz − xk < (1 − t)r + tr = r. 8 k.k Also ist (1 − t)y + tz ∈ Br (x). k.k Entsprechend erhalten wir für y, z ∈ Br (x) und t ∈ [0, 1], dass k(1−t)y+tz−xk ≤ k(1−t)(y−x)k+kt(z−x)k = |1−t|·ky−xk+|t|·kz−xk = k.k (1 − t)ky − xk + tkz − xk ≤ (1 − t)r + tr = r. Also (1 − t)y + tz ∈ B r (x). 2 Bemerkung 1.9 Sei (E, k.k) ein normierter Raum (z.B. Rn mit k.k∞ ). Da d(x, y) = kx − yk eine Metrik ist, können wir nicht nur von Kugeln in E reden, sondern auch von offenen und von abgeschlossenen Mengen, wie in jedem metrischen Raum (siehe Analysis 1). Zur Erinnerung: Eine Teilmenge k.k V ⊆ E heißt offen, wenn es zu jedem x ∈ V ein r > 0 gibt mit Br (x) ⊆ V . Eine Teilmenge A ⊆ E heißt abgeschlossen, wenn E \ A offen ist. Wir wissen aus der Analysis 1, dass A genau dann abgeschlossen ist, wenn lim an ∈ A n→∞ für jede Folge (an )n∈N in A, die in E konvergiert. Bemerkung 1.10 Im Moment nehmen wir auf Rn immer die Maximumnorm. Wir werden später sehen, dass alle Normen auf Rn in gewissem Sinne “äquivalent” sind: insb. definieren sie alle die gleiche Topologie auf Rn . Daher ist die Wahl der Norm auf Rn egal für alle Fragen der Konvergenz oder Stetigkeit. Bemerkung 1.11 Wir kennen Stetigkeit von Abbildungen zwischen metrischen Räumen (und allgemeiner Stetigkeit von Abbildungen zwischen topologischen Räumen) aus der Analysis 1.1 Seien (E, k.kE ) und (F, k.kF ) normierte Räume (z.B. E = Rm und F = Rn ) und f : E → F eine Abbildung. Da wir mit den Metriken kx − ykE bzw. kx − ykF arbeiten, ist eine Funktion f: E →F genau dann stetig an der Stelle x, wenn (∀ε > 0) (∃δ > 0) (∀y ∈ E) ky − xkE < δ ⇒ kf (y) − f (x)kF < ε. 1 Quereinsteiger in die Analysis 2 könnten erste Grundlagen zu Metriken und Topologien z.B. auch nachlesen auf den ersten Seiten von O. Forsters “Analysis 2”, Vieweg Verlag. 9 Allgemeiner ist eine Abbildung f : U → F auf einer Teilmenge U ⊆ E (bzgl. der induzierten Metrik U × U → [0, ∞[, (x, y) 7→ ky − xkE ) an einer Stelle x ∈ U genau dann stetig, wenn (∀ε > 0) (∃δ > 0) (∀y ∈ U ) ky − xkE < δ ⇒ kf (y) − f (x)kF < ε. Beispiel 1.12 Für jedes k ∈ {1, . . . , n} ist die Projektion πk : Rn → R, (x1 , . . . , xn ) 7→ xk Lipschitz-stetig (siehe Seite 3) und somit (sogar gleichmäßig) stetig. Für x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) in Rn ist nämlich |πk (x)−πk (y)| = |xk −yk | ≤ max{|xj −yj | : j = 1, . . . , n} = kx−yk∞ = Lkx−yk∞ mit L := 1. Beispiel 1.13 Die Funktion f : R2 → R, (x, y) 7→ x2 ist stetig, denn f = q ◦ π1 mit der stetigen Projektion π1 : R2 → R und der stetigen Polynomfunktion q : R → R, q(y) := y 2 . Beispiel 1.14 Für jeden normierten Raum (E, k.k) ist die Norm k.k : E → [0, ∞[⊆ R Lipschitz-stetig und somit stetig. Für x, y ∈ E ist nämlich kxk = kx − y + yk ≤ kx − yk + kyk wegen der Subadditivität und somit kxk − kyk ≤ kx − yk. Vertauschen der Rollen von x und y liefert −(kxk − kyk) = kyk − kxk ≤ ky − xk = kx − yk. Also ist kxk − kyk ≤ kx − yk = Lkx − yk mit L = 1. Satz 1.15 Es sei X ein metrischer (oder topologischer) Raum und x ∈ X. Eine Abbildung f = (f1 , . . . , fn ) : X → Rn ist genau dann stetig an der Stelle x, wenn all ihre Komponenten f1 , . . . , fk : X → R an der Stelle x stetig sind. 10 Beweis. Ist f = (f1 , . . . , fn ) stetig an der Stelle x, so auch die Komposition fk = πk ◦ f , da πk nach Beispiel 1.12 stetig ist. Seien umgekehrt f1 . . . , fn an der Stelle x stetig. Damit f an der Stelle x stetig ist, müssen wir zeigen, dass es für jedes ε > 0 eine Umgebung W von x in X gibt derart, dass (∀y ∈ W ) kf (y) − f (x)k∞ < ε. Da fk stetig ist an der Stelle x, gibt es eine Umgebung Wk von x in X mit (∀y ∈ Wk ) |fk (y) − fk (x)| < ε. T Dann ist W := nk=1 Wk eine Umgebung von x und für alle y ∈ W ist auch y ∈ Wk für alle k, somit |fk (y) − fk (x)| < ε. Somit auch kf (y) − f (x)k∞ = max{|fk (y) − fk (x)| : k ∈ {1, . . . , n}} < ε. 2 Beispiel 1.16 Die Funktion f : R2 → R2 , f (x, y) := (y 3 , sin(x)) ist stetig, denn man sieht wie im vorigen Beispiel, dass beide Komponenten stetig sind. Die Addition eines Vektorraums ist ein Beispiel einer Abbildung α : E × E → E. Solche Abbildungen treten also sehr natürlich auf. Ist E normiert, so brauchen wir noch eine Norm auf dem Produkt E × E auf der linken Seite, um von Stetigkeit von α sprechen zu können. Satz 1.17 Sind (E, k.kE ) und (F, k.kF ) normierte Räume, so ist k.k : E × F → [0, ∞[, k(x, y)k := max{kxkE , kykF } eine Norm auf E × F . Wir versehen das Produkt immer mit dieser Norm und der zugehörigen Metrik und Topologie, wenn nichts anderes gesagt wird. Ist E = Rn sowie F = Rm und ist k.kE und k.kF die jeweilige MaximumNorm, so ist Rn × Rm ∼ = Rn+m und k(x, y)k = max{kxk∞ , kyk∞ } = max{|x1 |, . . . , |xn |, |y1 |, . . . , |ym |}, also k(x, y)k = k(x, y)k∞ . 11 Satz 1.18 Für jeden normierten Raum (E, k.k) sind die folgenden Abbildungen stetig: (a) Für festes t ∈ R die Homothetie ht : E → E, x 7→ tx; (b) Für festes x ∈ E die Translation tx : E → E, y 7→ y + x; (c) Die Addition α : E × E → E, α(x, y) := x + y (d) Die Multiplikation µ mit Skalaren, µ : R × E → E, µ(t, x) := tx. Beweis. (a) Es ist kht (x) − ht (y)k = ktx − tyk = kt(x − y)k = |t| · kx − yk unter Benutzung der positiven Homogenität, also ht Lipschitz-stetig mit Lipschitzkonstante L = |t|. Insbesondere ist ht stetig. (b) Es ist ktx (y) − tx (z)k = k(x + y) − (x + z)k = ky − zk ≤ Lky − zk mit L = 1, d.h. tx ist Lipschitz-stetig mit Lipschitzkonstante L = 1. (c) Es ist kx + yk ≤ kxk + kyk ≤ 2 max{kxk, kyk} = 2k(x, y)k. Also ist α Lipschitz-stetig mit Lipschitzkonstante 2, insbesondere also stetig. (d) Es sei (x, t) ∈ R × E und ε > 0. Für alle (y, s) ∈ R × E mit ε |s − t| ≤ min 1, 2(kxk + 1) und ky − xk ≤ ε 2(|t| + 1) gilt dann |s| = |s − t + t| ≤ |s − t| + |t| ≤ |t| + 1 und ktx − syk = k((t − s)x + s(x − y)k ≤ k(t − s)xk + ks(y − x)k = |t − s| · kxk + |s| · ky − xk ε ε ≤ kxk + (|t| + 1) = ε. 2(kxk + 1) 2(|t| + 1) 2 Also ist µ an der Stelle (t, x) stetig. Ist t 6= 0, so ist ht ◦ ht−1 = ht−1 ◦ ht = idE . Also ist ht : E → E eine stetige invertierbare Abbildung mit stetiger Umkehrfunktion, ein sogenannter Homöomorphismus. Hierbei heißt eine Abbildung f: X →Y 12 zwischen topologischen Räumen ein Homöomorphismus, wenn f stetig ist, invertierbar und die Umkehrfunktion f −1 : Y → X ebenfalls stetig ist. Wegen tx ◦t−x = t−x ◦tx = idE ist auch tx : E → E stets ein Homöomorphismus. Folgerung 1.19 Es sei X ein topologischer Raum, x ∈ X und f : X → R, g : X → Rn und h : X → Rn Abbildungen, die an der Stelle x stetig sind. Dann sind auch die folgenden Funktionen an der Stelle x stetig: (a) g + h : X → Rn , y 7→ g(y) + h(y); (b) f · g : X → Rn , y 7→ f (y)g(y). (c) g f : X → Rn , y 7→ 1 g(y), f (y) wenn f (X) ⊆ R \ {0}. Beweis. (a) und (b): Mit den stetigen Abbildungen α : Rn × Rn → Rn und µ : R × Rn → Rn aus Satz 1.18 ist g + h = α ◦ (g, h), wobei (g, h) an der Stelle x stetige reellwertige Komponenten hat und somit an der Stelle x stetig ist. Da α stetig ist, ist die Komposition g + h = α ◦ (g, h) an der Stelle x stetig. Weiter ist f · g = µ ◦ (f, g), wobei (f, g) an der Stelle x stetige reellwertige Komponenten hat und somit an der Stelle x stetig ist. Da µ stetig ist, ist die Komposition f · g = µ ◦ (f, g) an der Stelle x stetig. (c) Die Funktion f ist stetig an der Stelle x als Funktion nach R und ihr Bild f (X) liegt in der Teilmenge R× . Aus der Analysis 1 wissen wir, dass f dann auch stetig an der Stelle x ist als Funktion nach R× , versehen mit × der induzierten Topologie (oder induzierten Metrik), d.h. f |R : X → R× ist stetig an der Stelle x. Nun ist η : R× → R, t 7→ 1 t × stetig. Also ist f1 = η ◦ (f |R ) stetig an der Stelle x. Nach (b) ist dann auch g = f1 · g an der Stelle x stetig. 2 f Beispiel 1.20 Wir wissen bereits, dass alle Projektionen πk : Rn → R stetig sind. Monome (und reelle Vielfache solcher) sind Produkte aus solchen Projektionen, also stetig nach Satz 1.19 (b). nach Satz 1.19 (a) sind dann auch Summen solcher Ausdrücke (also beliebige Polynomfunktionen Rn → R) stetig. 13 Beispiel 1.21 Die Abbildung R2 → R2 , (x, y) 7→ (x cos(y), sin(x + y)) ist stetig, weil sie über Produkte, Kompositionen und Anwenden stetiger Funktionen aus π1 und π2 aufgebaut ist. Folgen in Rn konvergieren genau dann, wenn sie komponentenweise konvergieren: Satz 1.22 Es sei (xm )m∈N eine Folge von Punkten xm ∈ Rn , wobei xm = (xm,1 , . . . , xm,n ). Sei weiter y = (y1 , . . . , yn ) in Rn . Dann sind äquivalent: (a) xm → y in (Rn , k.k∞ ) für m → ∞; (b) Für jedes k ∈ {1, . . . , n} gilt xm,k → yk in R für m → ∞. Beweis. Für jedes k ∈ {1, . . . , n} ist die Projektion πk : Rn → R auf die k-te Komponente stetig (siehe Beispiel 1.12). Da stetige Funktionen mit Grenzwerten vertauschen, folgt aus xm → y also xm,k = πk (xm ) → πk (y) = yk für m → ∞. Gelte umgekehrt lim xm,k = yk m→∞ für alle k ∈ {1, . . . , n}. Zu ε > 0 gibt es dann also ein Nk ∈ N mit (∀m ≥ Nk ) |xm,k − yk | < ε. Setzen wir N := max{N1 , . . . , Nn }, so gilt für alle m ≥ N insb. m ≥ Nk für alle k, somit ist |xm,k − yk | < ε für alle k, somit kxm − yk∞ = max{|xm,1 − y1 |, . . . , |xm,n − yn |} < ε. 2 Also xm → y in Rm . Definition 1.23 Es seien X1 , . . . , Xn topologische Räume und O die Menge aller Teilmengen V ⊆ X1 × · · · × X n 14 mit folgender Eigenschaft: Für jedes x = (x1 , . . . , xn ) ∈ V existieren offene Umgebungen Wk von xk in Xk für k ∈ {1, . . . , n} derart, dass W1 × · · · × Wn ⊆ V. Dann ist O eine Topologie auf X1 × · · · × Xn (wie wir gleich nachprüfen), genannt die Produkttopologie. Per Definition ist jedes Produkt W1 × · · · × Wn aus offenen Mengen Wk ⊆ Xk in O (also offen in X1 × · · · × Xn ); solche Produkte nennt man auch “offene Kästchen.” Weiter gehört per Definition eine Teilmenge V ⊆ X1 × · · · × Xn genau dann zu O (ist also offen in X1 × · · · × Xn ), wenn sie eine Vereinigung offener Kästchen ist. O ist eine Topologie auf X1 ×· · ·×Xn : Da Xk offen in Xk ist, ist X1 ×· · ·×Xn ein offenes Kästchen, also in O. Weiter ist ∅ in O, denn es gibt kein x, für das man etwas nachprüfen müsste. Ist (Vj )j∈J eine Familie von Mengen Vj ∈ O, so ist S S jedes Vj eine Vereinigung offener Kästchen, also auch j∈J Vj . Somit ist j∈J Vj ∈ O. Sind schließlich V, W ∈ O, so ist V ∩ W ∈ O: Ist nämlich x ∈ V ∩ W , so gibt es offene Kästchen V1 × · · · × Vn ⊆ V und W1 × · · · × Wn ⊆ W , die x enthalten. Dann ist (V1 ∩ W1 ) × · · · × (Vn ∩ Wn ) ein offenes Kästchen, das x enthält und (V1 ∩ W1 ) × · · · × (Vn ∩ Wn ) = (V1 × · · · × Vn ) ∩ (W1 × · · · × Wn ) ⊆ V ∩ W. Lemma 1.24 Sind X1 , . . . , Xn Hausdorffsche topologische Räume, so ist auch X := X1 × · · · × Xn mit der Produkttopologie Hausdorffsch. Beweis. Sind x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) zwei verschiedene Elemente von X, so ist xk 6= yk für ein k ∈ {1, . . . , n}. Da Xk Hausdorffsch ist, gibt es offene Umgebungen V von xk und W von yk in Xk mit V ∩ W = ∅. Dann sind die offenen Kästchen X1 × · · · × Xk−1 × V × Xk+1 × · · · Xn und X1 × · · · × Xk−1 × W × Xk+1 × · · · Xn offene Umgebungen von x bzw. y in X, deren Schnitt ebenfalls leer ist. 15 2 Satz 1.25 (Rn , k.k∞ ) trägt die Produkttopologie von R × · · · × R (mit n Faktoren). Beweis. Sei O die Produkttopologie und T die zur Metrik d(x, y) = kx−yk∞ gehörige Topologie auf Rn . Es sei V ∈ T eine in Rn offene Menge bzgl. d. Für jedes x = (x1 , . . . , xn ) ∈ V gibt es dann ein ε > 0 mit Bεk.k∞ (x) = ]x1 − ε, x1 + ε[ × · · · × ]xn − ε, xn + ε[ ⊆ V. Da das auftretende Produkt ein offenes Kästchen in Rn ist, ist V offen in der Produkttopologie, also V ∈ O. Somit T ⊆ O. Sei umgekehrt V ∈ O, also V eine Teilmenge von Rn , die in der Produkttopologie offen ist. Zu x = (x1 , . . . , xn ) ∈ V gibt es dann offene Teilmengen V1 , . . . , Vn ⊆ R mit x ∈ V1 × · · · × Vn ⊆ V. Da Vk eine offene Umgebung von xk in R ist, gibt es ein εk > 0 mit ]xk − εk , xk + ε[ ⊆ Vk . Sei ε := min{ε1 , . . . , εn }. Dann ist ]xk − ε, xk + ε[ ⊆ ]xk − εk , xk + ε[ ⊆ Vk für alle k ∈ {1, . . . , n} und somit Bεk.k∞ (x) = ]x1 − ε, x1 + ε[ × · · · × ]xn − ε, xn + ε[ ⊆ V1 × · · · × Vn ⊆ V. Also ist V offen bzgl. k.k∞ , d.h. V ∈ T . Somit O ⊆ T . da die umgekehrte Inklusion bereits gezeigt wurde, folgt O = T . 2 Die Produkttopologie hat ähnliche Eigenschaften, wie wir sie oben für Rn bereits nachgerechnet haben. Zum Beispiel gilt: Satz 1.26 Es seien X und Y1 , . . . , Yn topologische Räume und x ∈ X. Versieht man Y := Y1 × · · · × Yn mit der Produkttopologie, so sind die Projektionen πk : Y → Yk , (y1 , . . . , yn ) 7→ yk stetig. Weiter ist eine Abbildung f = (f1 , . . . , fn ) : X → Y1 × · · · × Yn genau dann stetig an der Stelle x, wenn jede der Komponenten fk : X → Yk an der Stelle x stetig ist. 16 Beweis. Die Projektionen πk : Y → Yk , (y1 , . . . , yn ) 7→ yk sind stetig, denn für jede offene Menge V ⊆ Yk ist πk−1 (V ) = {(y1 , . . . , yn ) ∈ Y : yk ∈ V } = Y1 × · · · × Yk−1 × V × Yk+1 × · · · × Yn ein offenes Kästchen und somit offen. Ist also f stetig an der Stelle x, so auch fk = πk ◦ f . Seien umgekehrt f1 , . . . , fn an der Stelle x stetig und V ⊆ Y eine offene Umgebung von f (x). Damit f stetig ist, müssen wir zeigen, dass f −1 (V ) eine Umgebung von x ist. Per Definition der Produkttopologie enthält V ein offenes Kästchen W = W1 × · · · × Wn mit offenen Mengen Wk ⊆ Yk , so dass f (x) ∈ W . Da fk : X → Yk stetig ist an der Stelle x, ist fk−1 (Wk ) eine Umgebung von x. Nun gilt aber f −1 (V ) ⊇ f −1 (W ) = {x ∈ X : f (x) ∈ W } = {x ∈ X : (f1 (x), . . . , fn (x)) ∈ W1 × · · · × Wn } = {x ∈ X : (∀k ∈ {1, . . . , n}) fk (x) ∈ Wk } n \ = fk−1 (Wk ). k=1 T Als Durchschnitt endlich vieler Umgebungen ist nk=1 fk−1 (Wk ) eine Umgebung von x und somit auch f −1 (V ) (wie benötigt). 2 Beispiel 1.27 Sind X und Y topologische Räume, so ist für jedes feste x ∈ Y die Abbildung ιx : Y → X × Y, y 7→ (x, y) stetig, denn ihre zweite Komponente ist idY , ihre erste Komponente konstant (und konstante Abbildungen sind immer stetig). Ist also f : X × Y → Z eine stetige Abbildung in einen topologischen Raum Z, so ist auch für jedes x ∈ X die durch Festhalten der ersten Variablen erhaltene “partielle Abbildung” Y → Z, y 7→ f (x, y) stetig, denn diese ist die Komposition f ◦ ιx . 17 Bemerkung 1.28 Seien (E, k.kE ) und (F, k.kF ) normierte Räume und k(x, y)k := max{kxkE , kykF } für x ∈ E, y ∈ F . Aus der Definition der Norm als ein Maximum folgt, dass die Kugeln von der Gestalt Bεk.k (x, y) = Bεk.kE (x) × Bεk.kF (y) sind, für alle ε > 0 und x ∈ E, y ∈ F . Analog zum Beweis von Satz 1.222 und Satz 1.253 zeigt man: (a) Eine Folge (xm , ym )m∈N in E × F konvergiert genau dann gegen (x, y) in (E × F, k.k), wenn xn → x in (E, k.kE ) und yn → y in (F, k.kF ). (b) Die durch die Norm k.k auf E × F definierte Topologie ist die Produkttopologie. Definition 1.29 Ein normierter Raum (E, k, k) heißt Banachraum, wenn E bezüglich der zugehörigen Metrik d : E × E → [0, ∞[, d(x, y) := kx − yk vollständig ist. Zum Beispiel ist (R, |.|) ein Banachraum (denn die Vollständigkeit wurde in Analysis 1 bewiesen). Definition P 1.30 Eine Reihe in einem normierten Raum (E, k.k) ist eine Folge ( nk=1 ak )n∈N von Anfangssummen mit Summanden ak ∈ E. Die Reihe heißt konvergent, wenn der Limes lim n X n→∞ ak k=1 der Anfangssummen in E existiert; in diesem Fall schreiben wir auch für diesen Limes. Die Reihe heißt absolut konvergent, wenn ∞ X kan k < ∞. n=1 2 3 Dort ersetze man |.| durch k.kE und k.kF . k.k k.k Aus den ε-Umgebungen ]xk − ε, xk + ε[ wird nun Bε E (x) und Bε F (y). 18 P∞ n=1 an Satz 1.31 Ein normierter Raum (E, k.k) ist genau dann ein Banachraum, wenn in E jede absolut konvergente Reihe konvergiert. P Beweis. Sei zunächst (E, k.k) ein Banachraum und an ∈ E mit ∞ n=1 kan k < ∞. Für ε > 0 existiert dann ein N ∈ N derart, dass für alle n ≥ N ∞ n ∞ X X X ε> kak k − kak k = kak k. k=1 k=1 k=n+1 Für alle n, m ≥ N , mit n ≥ m etwa, gilt dann n n m n ∞ X X X X X ak − ak = ak ≤ kak k ≤ kak k < ε. k=1 k=1 k=m+1 k=m+1 k=m+1 P Also ist ( nk=1 ak )n∈N eine Cauchyfolge in E und somit konvergent. Sei umgekehrt jede absolut konvergente Reihe in E konvergent und (xn )n∈N eine Cauchyfolge in E. Wir brauchen nur zu zeigen, dass die Cauchyfolge eine konvergente Teilfolge besitzt - die Cauchyfolge konvergiert dann ebenfalls gegen den Grenzwert der Teilfolge (siehe Analysis 1). Nun finden wir nacheinander N1 < N2 < · · · derart, dass (∀n, m ≥ Nk ) kxn − xm k ≤ 2−k . Somit ist (xNk )k∈N eine Teilfolge derart, dass kxNi − xNj k ≤ 2−k für alle i, j ≥ k. Nach Ersetzen von (xn )n∈N durch die Teilfolge (xNk )k∈N dürfen wir also annehmen, dass (∀i, j ≥ k) kxi − xj k ≤ 2−k . Insbesondere ist also kxk+1 − xk k ≤ 2−k und somit ∞ X kxk+1 − xk k ≤ ∞ X 2−k < ∞ k=1 k=1 (Abschätzung durch geometrische Reihe). Per Voraussetzung existiert also ∞ X (xn+1 − xn ) = lim n→∞ n=1 Also konvergiert auch x1 + auch die Folge (xn )n∈N . Pn k=1 (xk+1 19 n X (xk+1 − xk ). k=1 − xk ) = xn+1 für n → ∞ und somit 2 Definition 1.32 Ist X eine nicht-leere Menge, so bezeichnet `∞ (X) die Menge aller beschränkten Funktionen f : X → R. Dies ist ein Untervektorraum des Vektorraums RX aller Funktionen von X nach R. Aus dem Abschnitt über Konvergenz von Funktionenfolgen kennen wir die Supremumsnorm k.k∞ : `∞ (X) → [0, ∞[, kf k∞ := sup{|f (x)| : x ∈ X}. Ist X = N, so schreibt man auch einfach `∞ := `∞ (N). Also ist `∞ die Menge aller beschränkten reellen Folgen. Lemma 1.33 k.k∞ ist eine Norm auf `∞ (X). Beweis. Definitheit. Es ist 0 = kf k∞ = sup{|f (x)| : x ∈ X} genau dann, wenn |f (x)| = 0 für alle x ∈ X, also x = 0. Subadditivität. Seien f, g ∈ `∞ (X). Für jedes x ∈ X ist |f (x) + g(x)| ≤ |f (x)| + |g(x)| ≤ kf k∞ + kgk∞ . Bilden des Supremums über alle x liefert kf + gk∞ = sup{|f (x) + g(x)| : x ∈ X} ≤ kf k∞ + kgk∞ . Positive Homogenität. Es ist ktf k∞ = sup{|tf (x)| : x ∈ X} = sup{|t| · |f (x)| : x ∈ X} = |t| sup{|f (x)| : x ∈ X} = |t| · kf k∞ . 2 Folgerungen zu Satz 1.31: Folgerung 1.34 Für jede nicht-leere Menge X ist (`∞ (X), k.k∞ ) ein Banachraum. P∞ ∞ Beweis. Sind f ∈ ` (X) mit n n=1 kfn k∞ < ∞, so konvergiert die FunkP∞ tionenreihe n=0 fn nach dem Konvergenzsatz von Weierstraß gleichmäßig gegenP eine beschränkte Funktion f . Dann ist also f ∈ `∞ (X) und es gilt P 2 kf − nk=1 fk k∞ → 0, somit nk=1 fk → f in (`1 (X), k.k∞ ). Folgerung 1.35 (Rn , k.k∞ ) ist ein Banachraum für jedes n ∈ N. Beweis. (a) Dies ist ein Spezialfall von Folgerung 1.34, da Rn = R{1,2,...,n} und die Maximums-Norm hier gleich der Supremums-Norm ist. 20 (b) Alternativer, direkter Beweis: Sei (xm )m∈N eine Cauchy-Folge in Rn , mit xm = (xm,1 , . . . , xm,n ) ∈ Rn . Gegeben ε > 0 existiert ein N ∈ N derart, dass (∀m, ` ≥ N ) kxm − x` k∞ < ε. Für jedes k ∈ {1, . . . , n} ist dann |xm,k − x`,k | ≤ kxm − x` k∞ < ε, d.h. (xm,k )m∈N ist eine Cauchy-Folge in R und somit konvergent gegen ein yk ∈ R. Setzen wir y := (y1 , . . . , yn ), so konvergiert also xm komponentenweise gegen y und mit Satz 1.22 folgt lim xm = y m→∞ 2 in (Rn , k.k∞ ). Ist X ein topologischer Raum, so ist die Menge BC(X) aller beschränkten, stetigen Funktionen f : X → R offenbar ein Untervektorraum von `∞ (X). Folgerung 1.36 Für jeden topologischen Raum X ist BC(X) abgeschlossen in `∞ (X). Also ist BC(X) ein Banachraum bzgl. der Supremums-Norm. Beweis. Ist f ∈ `∞ (X) derart, dass fn → f bzgl. k.k∞ für eine Folge (fn )n∈N in BC(X), so gilt kf −fn k∞ → 0, also fn → f gleichmäßig. Als gleichmäßiger Grenzwert stetiger Funktionn ist f stetig. Also ist f ∈ BC(X). Somit ist BC(X) abgeschlossen und somit nach dem folgenden Satz vollständig, also ein Banachraum. 2 Satz 1.37 Ist (X, d) ein vollständiger metrischer Raum, so ist auch jede abgeschlossene Teilmenge A ⊆ X vollständig (bzgl. der induzierten Metrik dA : A × A → [0, ∞[, dA (x, y) := d(x, y) für x, y ∈ A). Beweis. Ist (xn )n∈N eine Cauchyfolge in A, so gibt es zu jedem ε > 0 ein N ∈ N derart, dass für alle n, m ≥ N ε > dA (xn , xm ) = d(xn , xm ). Also ist (xn )n∈N auch eine Cauchyfolge in X und somit konvergent gegen ein x ∈ X, da X vollständig ist. Weil A abgeschlossen ist und alle xn in A liegen, folgt x = lim xn ∈ A. n→∞ 21 Weiter gilt dA (x, xn ) = d(x, xn ) → 0 für n → ∞, also xn → x in (A, dA ). Somit ist (A, dA ) vollständig. 2 Beispiel 1.38 Man schreibt C[a, b] := C([a, b], R) für die Menge aller stetigen reellwertigen4 Funktionen f : [a, b] → R auf dem abgeschlossenen Intervall [a, b]. Da jede solche Funktion f : [a, b] → R nach dem Satz vom Maximum der Analysis ein Maximum und ein Minimum annimmt und somit beschränkt ist, ist C[a, b] = BC([0, 1]). Nach Folgerung 1.36 ist C[a, b] mit der Supremums-Norm also ein Banachraum. Bemerkung 1.39 Der Banachraum (C[a, b], k.k∞ ) ist von großer Wichtigkeit für die Analysis. Zum Beispiel werden wir in der Reellen Analysis diesen Banachraum (und seine Vollständigkeit) benutzen, um die Existenz von Lösungen von Differentialgleichungen zu beweisen. Satz 1.40 Sind (E, k.k) und (F, k.kF ) normierte Räume und ist A : E → F eine lineare Abbildung,5 so definiert man die Operator-Norm von A als kAkop := sup{kAxkF : x ∈ E mit kxkE ≤ 1} ∈ [0, ∞]. Die folgenden Aussagen sind äquivalent: (a) A : E → F ist stetig an der Stelle 0; (b) A : E → F ist stetig; (c) A ist ein sogenannter beschränkter linearer Operator, d.h. kAkop < ∞. In diesem Fall ist A Lipschitz-stetig, insb. also gleichmäßig stetig. Weiter gilt (∀x ∈ E) kAxkF ≤ kAkop kxkE . (1) 4 Das Symbol C[a, b] wird manchmal auch für die stetigen komplexwertigen Funktionen benutzt. 5 Also A(tx + sy) = tA(x) + sA(y) für alle x, y ∈ E, t, s ∈ R. 22 Beweis. (b)⇒(a) ist trivial. (a)⇒(b): Gegeben ε > 0 existiert ein δ > 0 derart, dass (∀y ∈ E) kykE < δ ⇒ kAykF < ε. Für x ∈ E und alle y ∈ E mit ky − xk < δ gilt dann kA(y) − A(x)kF = kA(y − x)kF < ε. Also ist A an der Stelle x stetig. (a)⇒(c): Ist A stetig in 0, so gibt es ein δ > 0 derart, dass kAxkF ≤ 1 für alle x ∈ E mit kxkE ≤ δ. Für alle x ∈ E mit kxkE ≤ 1 ist kδxkE = δkxkE ≤ δ, somit 1 1 kAxkF = kAδxkF ≤ , δ δ 1 somit kAkop = sup{kAxkF : kxkE ≤ 1} ≤ δ < ∞. (c)⇒(a): Wir überlegen zunächst, dass aus (c) die Abschätzung (1) folgt. Ist x = 0, so ist (1) klar. Ist x 6= 0, so ist wegen der positiven Homogenität 1 1 kxkE x = kxkE kxkE = 1 ≤ 1, E somit 1 x ≤ kxkE kAkop . kAxkF = kxkE A kxkE F Also gilt (1). Ersetzen wir dort x durch x − y, so sehen wir, dass (∀x, y ∈ E) kAx − AykF = kA(x − y)kF ≤ kAkop kx − ykE . Also ist A Lipschitz-stetig mit Lipschitzkonstante L = k.kop . 2 Beispiele 1.41 (a) πk : Rn → R ist stetig mit kπk kop = 1. (b) Es sei C[0, 1] der Raum der stetigen reellwertigen Funktionen auf [0, 1] und C 1 [0, 1] der Raum der C 1 -Funktionen. Versehen wir beide Räume mit der Maximumnorm, so ist der Ableitungsoperator D : C 1 [0, 1] → C 0 [0, 1] unstetig. Sei nämlich fn (t) := sin(nt) für n ∈ N, t ∈ [0, 1]. Dann ist kfn k∞ = 1 aber wegen fn0 (t) = n cos(nt) kDfn k = kfn0 k = n für alle n ∈ N, somit kDkop ≥ n für jedes n und somit kDkop = ∞. 23 Satz 1.42 Jede lineare Abbildung A : Rm → Rn ist stetig. Jede bilineare Abbildung β : Rm × Rn → R` ist stetig.6 Beweis. Es seien e1 = (1, 0, · · · , 0), . . ., em = (0, . . . , 0, 1) die StandardPm m Basisvektoren des R . Für x = (x1 , . . . , xm ) = k=1 xk ek ist Ax = A m X xk e k = k=1 m X xk A(ek ). k=1 Diese Abbildung ist in jeder Komponente ein Polynom, somit stetig. Seien f1 , . . . , fn die Standard-Basisvektoren für Rn . Analog ist β(x, y) = m X n X xi yj β(ei , fj ) i=1 j=1 in jeder Komponente ein Polynom, somit stetig. 2 Sind (E, k.kE ) und (F, k.kF ) normierte Räume, so schreiben wir L(E, F ) für die Menge aller stetigen linearen Abbildungen (beschränkten linearen Operatoren) A : E → F . Man kürzt weiter ab: Satz 1.43 Sind (E, k.kE ) und (F, k.kF ) normierte Räume, so ist L(E, F ) ein Untervektorraum des Vektorraums F E aller Abbildungen von E nach F . Weiter ist L(E, F ) mit k.kop ein normierter Raum. Beweis. Sind A, B ∈ L(E, F ) und t ∈ R, so ist k(A + tB)xkF = kAx + tBxkF ≤ kAxk + |t| · kBxkF ≤ kAkop + tkBkop für alle x ∈ E mit kxkE ≤ 1. Also ist A + tB ein beschränkter Operator (somit L(E, F ) ein Untervektorraum von F E ) und kA+tBk = sup{k(A+tB)xkF : x ∈ E mit kxkE ≤ 1} ≤ kAkop +|t|·kBkop . (2) Nehmen wir t = 1, so zeigt (2) die Subadditivität von k.kop . 6 Sind E1 , E2 und F reelle Vektorräume, so nennt man eine Abbildung β : E1 × E2 → F bilinear, wenn β(x, .) : E2 → F , y 7→ β(x, y) linear ist für jedes x ∈ E1 und β(., y) : E1 → F , x 7→ β(x, y) linear ist für jedes y ∈ E2 . Also β(x1 + x2 , y) = β(x1 , y) + β(x2 , y), β(x, y1 + y2 ) = β(x, y1 ) + β(x, y2 ) und β(tx, y) = tβ(x, y) = β(x, ty). 24 Definitheit: Ist A 6= 0, so existiert ein x ∈ E mit Ax 6= 0. Dann ist x 6= 0, und nach Ersetzen von x durch den normierten Vektor kxk1 E x dürfen wir annehmen, dass x normiert ist, also kxkE = 1. Dann ist kxkE ≤ 1, somit kAkop = sup{kAykF : y ∈ E mit kykE ≤ 1} ≥ kAxkF > 0. Positive Homogenität: ktAkop = |t| · kAkop ist klar, wenn t = 0. Ist t 6= 0, so haben wir nach (2) ktAkop ≤ |t| · kAkop . Andererseits liefert (2), mit tA statt A und 1t statt t: 1 ≤ 1 ktAkop . (tA) kAkop = t |t| op Wir multiplizieren beide Seiten mit |t| und schließen, dass ktAkop ≥ |t|·kAkop gilt und somit ktAkop = |t| · kAkop . 2 Satz 1.44 Ist (F, k.kF ) ein Banachraum, so ist auch L(E, F ) mit k.kop ein Banachraum. Beweis. Nach dem vorigen Satz wissen wir schon, dass (L(E, F ), k.kop ) ein normierter Raum ist. Um die Vollständigkeit nachzuweisen, sei (An )n∈N eine Cauchy-Folge in L(E, F ). Für jedes ε > 0 gibt es also ein N ∈ N derart, dass (∀n, m ≥ N ) kAn − Am kop ) ≤ ε. (3) Für festes x ∈ E folgt aus (3): (∀n, m ≥ N ) kAn x − Am xkF ≤ kAn − Am kop kxkE ≤ εkxkE . (4) Also ist (An x)n∈N eine Cauchy-Folge in F und somit konvergent. Wir definieren Ax := lim An x n→∞ und erhalten so eine Abbildung A : E → F , x 7→ Ax. Für x, y ∈ E und t ∈ R gilt7 A(x+ty) = lim An (x+ty) = lim (An x+tAn y) = lim An x+t lim An y = Ax+tAy n→∞ n→∞ n→∞ 7 n→∞ weil An linear ist und die Addition E × E → E und Skalarmultiplikation R × E → E stetig (also mit Grenzwerten vertauscht werden können). 25 und somit ist A linear. Lassen wir n → ∞ in (4), so erhalten wir (∀m ≥ N )(∀x ∈ E) kAx − Am xkF ≤ εkxkE . (5) Insbesondere gilt für alle x ∈ E mit kxkE ≤ 1: kAxkF = kAx−AN x+AN xkF ≤ kAx−AN xkF +kAN xkE ≤ εkxkE +kAN kop kxk≤ ε+kAN kop . Bilden des Supremums über all diese x liefert kAN kop ≤ ε + kAN kop < ∞. Also ist A ∈ L(E, F ). Bilden wir in (5) das Supremum über alle x ∈ E mit kxkE ≤ 1, so folgt (∀m ≥ N ) kA − Am kop ≤ ε. 2 Also gilt An → A für n → ∞. Bemerkung 1.45 Sind E1 , E2 und E3 normierte Räume, A ∈ L(E2 , E3 ) und B ∈ L(E1 , E2 ), so ist A ◦ B : E1 → E3 stetig und linear, also A ◦ B ∈ L(E1 , E3 ). In der Übung rechnen wir nach, dass kA ◦ Bkop ≤ kAkop kBkop . (6) Weiter gilt für E 6= {0} stets k idE kop = 1 (ist E = {0}, so ist k idE kop = 0). Beispiel 1.46 (Matrixexponentialfunktion). Ist (E, k.k) ein Banach-Raum und A ∈ L(E) := L(E, E), so definieren wir eA ∈ L(E) via ∞ X 1 k e := A . k! k=0 A Wir müssen uns überzeugen, dass die Reihe konvergiert. Da nach dem vorigen Satz L(E) ein Banach-Raum ist, brauchen wir nach Satz 1.31 nur 26 die absolute Konvergenz der Reihe zu zeigen. Mit kA0 kop = k idE kop ≤ 1 und kAk kop ≤ kAkkop ist jedoch ∞ ∞ X 1 k X 1 A kAkkop = ekAkop < ∞ k! k! op k=0 k=0 und somit die absolute Konvergenz der Reihe nachgewiesen. Ist E = Rn , so können wir L(E) mit dem Raum Mn (R) der (n × n)-Matrizen identifizieren (siehe Lineare Algebra 1) und haben nach dem Vorigen eine Matrix-Exponentialfunktion zur Verfügung: Für A ∈ Mn (R) haben wir die Matrix ∞ X 1 k A e := A ∈ Mn (R). k! k=0 Die Matrix-Exponentialfunktion wird in der Vorlesung “Reelle Analysis” eine Rolle spielen. Wir werden sehen, dass für A ∈ Mn (R) und y0 ∈ Rn die Differentialgleichung φ0 (t) = Aφ(t) φ(0) = y0 genau eine Lösung φ : R → Rn , t 7→ φ(t) besitzt, nämlich φ(t) = etA y0 . Anhang zu Kapitel 1: Mehr zur Stetigkeit bilinearer Abbildungen In der Übung zeigen wir den folgenden Satz: Satz 1.47 Es seien (E1 , k.k1 ), (E2 , k.k2 ) und (F, k.kF ) normierte Räume. Für eine bilineare Abbildung β : E1 × E2 → F sind äquivalent: (a) β ist stetig. (b) β ist stetig in (0, 0). (c) Es ist kβkop := sup{kβ(x, y)kF : (x, y) ∈ E1 × E2 mit kxk1 ≤ 1 und kyk2 ≤ 1} < ∞. 27 In diesem Fall gilt (∀x ∈ E1 )(∀y ∈ E2 ) kβ(x, y)kF ≤ kβkop kxk1 kyk2 . (7) Die folgenden Beispiele können Sie erst einmal überspringen. Beispiele 1.48 (a) Sind (E, k.kE ) und (F, k.kF ) normierte Räume, so ist die Auswertungsabbildung ε : L(E, F ) × E → F, ε(A, x) := A(x) bilinear. Nach (1) gilt für alle A ∈ L(E, F ) mit kAkop ≤ 1 und alle x ∈ E mit kxkE ≤ 1 kε(A, x)kF = kA(x)kF ≤ kAkop kxkE ≤ 1. Bilden des Supremums über all diese (A, x) liefert kεkop ≤ 1. Insbesondere is ε stetig. (b) Es seien (E1 , k.k1 ), (E2 , k.k2 ) und (F, k.kF ) normierte Räume. Dann ist die Kompositionsabbildung Γ : L(E2 , E3 ) × L(E1 , E2 ) → L(E1 , E3 ), Γ(A, B) := A ◦ B bilinear. Nach (6) gilt kΓ(A, B)kop = kA ◦ Bkop ≤ kAkop kBkop ≤ 1 für alle (A, B) ∈ L(E2 , E3 ) × L(E1 , E2 ) mit kAkop ≤ 1 und kBkop ≤ 1. Die bilineare Abbildung Γ ist also stetig mit kΓkop ≤ 1. 28 2 Abschluss, Inneres und Rand einer Teilmenge Im Falle von Funktionen einer Variablen war es oft ausreichend, Funktionen auf recht einfachen Teilmengen von R zu betrachten, den Intervallen. Typische Definitionsbereiche von Funktionen mehrerer Variablen können komplizierter sein. Dies motiviert, Teilmengen M ⊆ Rn besser verstehen zu wollen. Beispielsweise haben die Randpunkte a und b eines Intervalls [a, b] mitunter eine besondere Rolle gespielt. Somit wollen wir auch bei Teilmengen M ⊆ Rn von Randpunkten reden können. Da dies keine zusätzlichen Schwierigkeiten verursacht, diskutieren wir alle Begriffe allgemeiner für Teilmengen metrischer (oder topologischer Räume). Definition 2.1 Es sei X ein topologischer Raum (z.B. ein metrischer Raum, z.B. Rn ) und M ⊆ X eine Teilmenge. (a) Das Innere M 0 von M ist definiert als [ M 0 := V, V ⊆X offen mit V ⊆M die Vereinigung aller in M enthaltenen offenen Teilmengen von X. Da Vereinigungen offener Mengen offen sind, ist M 0 offen. Also ist M 0 die größte in M enthaltene offene Menge (d.h. M 0 ist eine offene Menge, die in M enthalten ist; und es ist V ⊆ M 0 für jede offene Menge V mit V ⊆ M ). Manche Autoren schreiben auch int(M ) statt M 0 . (b) Der Abschluss M von M ist definiert als \ M := A, A⊆X abgeschlossen mit M ⊆A der Durchschnitt aller abgeschlossenen Teilmengen A von X, welche A enthalten.8 Da Durchschnitte abgeschlossener Mengen abgeschlossen sind, ist M abgeschlossen. Also ist M die kleinste abgeschlossene Teilmenge von X, welche M enthält.9 8 Eine solche Menge A gibt es immer, nämlich A = X. D.h. M ist eine abgeschlossene Menge, die M enthält; und es ist M ⊆ A für jede abgeschlossene Menge A mit M ⊆ A. 9 29 (c) Der Rand von M ist definiert als die Menge ∂M aller x ∈ X derart, dass jede Umgebung V von x sowohl einen Punkt aus M wie auch einen nicht zu M gehörenden Punkt enthält, also V ∩ M 6= ∅ und V ∩ (X \ M ) 6= ∅. Die folgenden zwei Sätze helfen uns, Inneres, Abschluss und Rand besser zu verstehen und zu berechnen. Wir benutzen die Notation · C=A∪B für eine disjunkte Vereinigung, d.h. C = A ∪ B mit A ∩ B = ∅. Satz 2.2 Es sei X ein topologischer Raum und M ⊆ X eine Teilmenge. Dann gilt: (a) M 0 ist die Menge aller x ∈ M , für welche M eine Umgebung von x in X ist. (b) M ist die Menge aller x ∈ X derart, dass V ∩ M 6= ∅ für jede offene Umgebung V von x. (c) ∂M ist in M enthalten. · (d) Es ist M = M 0 ∪ ∂M . Insb. ist ∂M abgeschlossen. (e) M is genau dann abgeschlossen, wenn M = M . (f) M ist genau dann offen, wenn M = M 0 . Beweis. (a) Sei V := {x ∈ M : M ist Umgebung von x in X}. Da M 0 offen ist, ist M 0 eine Umgebung von jedem x ∈ M 0 (und es ist dann x ∈ M 0 ⊆ M ). Somit M 0 ⊆ V . Umgekehrt ist aber V in M enthalten und wir zeigen, dass V offen ist; somit ist V ⊆ M 0 per Definition des Inneren und somit V = M 0 . Sei nämlich x ∈ V . Per Definition von V ist dann M eine Umgebung von x, es gibt also eine offene Teilmenge Wx von X mit x ∈ Wx ⊆ M . Dann ist M eine S Umgebung von jedem y ∈ Wx , also y ∈ V , also Wx ⊆ V . Somit ist V = x∈V Wx offen als Vereinigung offener Mengen. (b) Wir erinnern daran, dass die Aussage (nicht A) ⇔ (nicht B) äquivalent ist zur Aussage A ⇔ B. Wir brauchen daher nur erstere zu zeigen. Sei x ∈ X. Existiert eine offene Umgebung V von x mit V ∩ M = ∅, so ist X \ V eine 30 abgeschlossene Teilmenge von X mit M ⊆ X \ V , somit M ⊆ X \ V , somit x 6∈ M (da x ∈ V ). Ist umgekehrt x ∈ X \ M =: W , so ist W eine offene Umgebung von x mit W ∩ M = ∅. (c) Sei x ∈ ∂M . Per Definition des Randes enthält dann jede Umgebung von x ein Element aus M und somit ist x ∈ M , nach (b). Also ∂M ⊆ M . (d) Sei x ∈ M . Nach (b) hat dann jede Umgebung von x nichtleere Schnitt mit M . Nun gibt es entweder eine Umgebung V von x in X mit V ⊆ M (in welchem Fall x ∈ M 0 ), oder es ist V ∩ (X \ M ) 6= ∅ für alle Umgebungen V von x in X. Da auch V ∩ M 6= ∅ wie vorab festgestellt, ist dann x ∈ ∂M . (e) und (f) werden in der Übung diskutiert. 2 Satz 2.3 Es sei (X, d) ein metrischer Raum mit offenen Kugeln Br (x) und M ⊆ X eine Teilmenge. Dann gilt: (a) M 0 ist die Menge aller x ∈ M , für welche ein ε > 0 existiert mit Bε (x) ⊆ M. (b) Der Abschluss M ist die Menge aller x ∈ X derart, dass x = lim xn n→∞ in X für eine Folge (xn )n∈N in M . Beweis. (a) x ∈ M 0 ist nach Satz 2.2 (a) dazu äquivalent, dass M eine Umgebung von x ist. Dies ist genau dann der Fall, wenn Bε (x) ⊆ M für ein ε > 0. (b) Ist x ∈ M , so existiert nach Satz 2.2 (b) für jedes n ∈ N ein xn ∈ B1/n (x) ∩ M . Wegen d(x, xn ) < 1/n → 0 gilt xn → x für n → ∞. Ist umgekehrt x ∈ X und x = lim xn n→∞ mit Elementen xn ∈ M , so existiert für jede Umgebung V von x in X (die ja eine geeignete ε-Umgebung enthält) ein N ∈ N derart, dass (∀n ≥ N ) xn ∈ V. Insbesondere ist xN ∈ V ∩ M , also V ∩ M 6= ∅ und somit x ∈ M (nach Satz 2.2 (b)). 2 31 Beispiele 2.4 (a) Seien a < b in R. dann ist [a, b[0 = ]a, b[ [a, b[ = [a, b] ∂[a, b[ = {a, b}. (b) Sei (E, k.k) ein normierter Raum. Für Kugeln bzgl. k.k gilt dann Br (0) = B r (0), B r (0)0 = Br (0) und ∂Br (0) = ∂B r (0) = {x ∈ E : kxk = r} (Vorlesung: Skizze für euklidische Norm auf R2 und für Maximumnorm auf R2 ). Beweis: Weil k.kE stetig ist und [0, r] ⊆ R abgeschlossen, ist B r (0) = k.k−1 ([0, r]) abgeschlossen (wie jedes Urbild einer abgeschlossenen Menge unter einer stetigen Funktion, siehe Analysis 1). Ist x ∈ B r (0), so ist kxk ≤ r, somit (1− k1 )kxk < r, somit (1− k1 )x ∈ Br (0). Nun gilt aber (1− k1 , x) → (1, x) in R × Rn (da dies komponentenweise gilt) und somit 1− 1 x → 1x = x k für k → ∞ wegen der Stetigkeit der Multiplikation R × e → E mit Skalaren. Also ist x ∈ Br (0), somit Br (0) = Br (0). Die weiteren Aussagen werden in der Übung nachgerechnet. (c) Q = R, denn für jede reelle Zahl x existiert10 eine Folge (qn )n∈N rationaler Zahlen mit qn → x. Definition 2.5 Eine Teilmenge M eines topologischen Raums X heißt dicht (in X), wenn M = X. Beispiel 2.6 Q ist dicht in R, da Q = R. Stetige Funktionen sind durch ihre Werte auf dichten Teilmengen festgelegt: 10 Z.B. die endlichen Dezimalbrüche qn der Darstellung von x als unendlicher Dezimalbruch, mit n Stellen hinter dem Komma. 32 Satz 2.7 Es seien f : X → Y und g : X → Y Funktionen zwischen metrischen Räumen. Ist f |M = g|M für eine dichte Teilmenge M ⊆ X, so ist f = g. Analoges gilt, wenn allgemeiner X ein topologischer Raum ist und Y ein Hausdorffscher11 topologischer Raum. Beweis. Seien zunächst X und Y metrische Räume. Für jedes x ∈ X = M existiert eine Folge (xn )n∈N mit xn → x. Dann ist f (xn ) = g(xn ) für alle n ∈ N. Da f und g stetig sind, folgt f (x) = lim f (xn ) = lim g(xn ) = g(x). n→∞ n→∞ Den allgemeinen Fall kann man durch einen Widerspruchsbeweis zeigen (den wir in der Vorlesung überspringen). Angenommen, f (x) 6= g(x) für ein x ∈ X. Weil f |M = g|M , folgt x 6∈ M . Also ist x ∈ X \ M = M \ M ⊆ M \ M 0 = ∂M. Da Y Hausdorffsch ist, gibt es offene Umgebungen V von f (x) und W von g(x) mit V ∩ W = ∅. (8) Dann ist f −1 (V ) ∩ g −1 (W ) eine offene Menge, die x enthält. Da x ∈ ∂M , existiert ein y ∈ f −1 (V ) ∩ g −1 (W ), (9) das zudem in M ist. Da y ∈ M , ist f (y) = g(y). Nach (9) ist also f (y) = g(y) ∈ V ∩ W. 2 Dies widerspricht (8). Wir erwähnen eine typische Anwendung (die im Folgenden aber nicht weiter benutzt wird): Beispiel 2.8 Wir zeigen, dass jeder stetige Gruppen-Homomomorphismus f : (Rn , +) → (Rm , +) 11 D.h. zu zwei verschiedenen Punkten y1 6= y2 in Y existieren stets disjunkte Umgebungen (siehe Analysis 1). 33 eine reell-lineare Abbildung ist. Dass f ein Gruppen-Homomorphismus ist, bedeutet, dass (∀x, y ∈ Rn ) f (x + y) = f (x) + f (y). (10) Zu zeigen ist, dass automatisch auch (∀y ∈ Rn )(∀t ∈ R) f (ty) = tf (y). (11) Zunächst folgt aus (10), dass f (kx) = kf (x) (12) für alle x ∈ Rn und k ∈ N bzw. k ∈ Z (die Rechnung kennt man aus Algebra, Linearer Algebra, oder den ersten Wochen der Analysis 1). Ist y ∈ Rn und k ∈ N, so liefert (12) mit x := k1 y: 1 f (y) = kf y . k Multiplikation mit 1/k liefert f 1 y k = 1 f (y). k (13) Wir halten nun z ∈ Rn fest. Ist q ∈ Q, so schreiben wir q = m mit m ∈ Z, k k ∈ N. Mit (12) und (13) erhalten wir 1 1 1 f (qz) = f mz = f (mz) = mf (z) = qf (z). k k k Es ist also (∀q ∈ Q) f (qz) = qf (z). (14) Setzen wir g(t) := f (tz) und h(t) := tf (z) für t ∈ R, so erhalten wir stetige Funktionen g : R → Rm und h : R → Rm (denn f und die Multiplikation in Rn bzw. Rm mit Skalaren ist stetig). Nach (14) gilt g|Q = h|Q . Da g und h stetig sind und Q in R dicht ist, folgt mit Satz 2.7, dass g = h. Also ist f (tz) = g(t) = h(t) = tf (z) für alle t ∈ R. Bemerkung 2.9 Sei X ein topologischer Raum. Eine Teilmenge M ⊆ X ist genau dann dicht in X, wenn V ∩ M 6= ∅ für jede offene, nicht-leere Teilmenge V ⊆ X. (Beweis: Übung). 34 3 Kompaktheit und Anwendungen In der Analysis 1 haben beschränkte, abgeschlossene Teilmengen K ⊆ R eine besondere Rolle gespielt (insb. K = [a, b]). Zum Beispiel hatten wir gesehen, dass jede stetige Funktion f: K →R auf solch einer Menge ein Maximum annimmt. Es wurde auch gezeigt: Ist solch ein f stetig und injektiv, so ist die auf dem Bild f (K) ⊆ R definierte Umkehrabbildung f −1 : f (K) → K ⊆ R automatisch stetig. In diesem Kapitel verallgemeinern wir solche Ergebnisse weiter (insbesondere auf Teilmengen des Rn ). Wir werden sehen, dass die sogenannte Kompaktheit der obigen Mengen K hinter den beschriebenen Phänomenen steckt. Bemerkung 3.1 Bevor ich die etwas gewöhnungsbedürftige Definition von kompakten Mengen gebe, sage ich Ihnen schon einmal, welche Teilmengen des Rn schließlich kompakt sein werden. Wir werden sehen: Für eine Teilmenge K ⊆ Rn sind die folgenden drei Bedingungen äquivalent: (a) K ist kompakt; (b) K ist abgeschlossen in Rn und beschränkt;12 (c) Jede Folge (xm )m∈N in K hat eine Teilfolge, die gegen ein x ∈ K konvergiert. Zum Beispiel sind abgeschlossene Kugeln bezüglich der Maximum-Norm, B r (x) ⊆ Rn , stets abgeschlossen (wie schon gezeigt) und beschränkt,13 somit kompakt. Als Hilfsmittel zur Definition kompakter Mengen benötigen wir sogenannte offene Überdeckungen. 12 Eine Teilmenge M ⊆ Rn heißt beschränkt, wenn sup{kxk∞ : x ∈ M } < ∞. Weil kyk∞ = kx + (y − x)k∞ ≤ kxk∞ + ky − xk∞ ≤ kxk∞ + r für alle y in B r (x), ist das Supremum über alle y kleiner gleich kxk∞ + r < ∞. 13 35 Definition 3.2 Eine Familie (Vj )j∈J von Teilmengen eines topologischen Raums X heißt offene Überdeckung von X, wenn jedes Vj eine offene Teilmenge von X ist und [ X= Vj . (15) j∈J Beispiele 3.3 (a) Die Intervalle ]n − 1, n + 1[ bilden für n ∈ Z eine offene Überdeckung von R. (b) Auch die Intervalle ]−n, n[ bilden eine offene Überdeckung von R, für n ∈ N. In der folgenden Definition denken wir (wie immer) insbesondere an einen metrischen Raum K oder eine Teilmenge K ⊆ Rn . Definition 3.4 Ein Hausdorffscher topologischer Raum K heißt kompakt, wenn jede offene Überdeckung von K eine endliche Teilüberdeckung besitzt. Damit ist gemeint: Für jede offene Überdeckung (Vj )j∈J von K existiert eine endliche Teilmenge F ⊆ J, so dass [ Vj , K= j∈F also (Vj )j∈F eine offene Überdeckung von K ist. Bemerkung 3.5 Verzichtet man auf die Hausdorffeigenschaft und verlangt nur die endliche Überdeckungseigenschaft, so wird K quasikompakt genannt. Wir gehen auf diesen allgemeineren Begriff nicht näher ein. Beispiel 3.6 R ist nicht kompakt, denn die offenen Überdeckungen aus den Beispielen 3.3 haben keine endlichen Teilüberdeckungen. Beispiel 3.7 Es sei K = {x1 , . . . , xm } ein Hausdorffscher topologischer Raum, der aus endlich vielen Elementen besteht. Dann ist K kompakt. Ist nämlich (Vj )j∈J eine offene Überdeckung von K, so gibt es für jedes k ∈ {1, . . . , m} ein jk ∈ J mit xk ∈ Vjk . Dann ist K= m [ Vjk = [ j∈F k=1 mit F := {j1 , . . . , jm }. 36 Vj Bemerkung 3.8 Zur Erinnerung: Jede Teilmenge K eines metrischen Raums (X, d) ist ein metrischer Raum mit der induzierten Metrik dK : K × K → [0, ∞[, dK (x, y) := d(x, y) für x, y ∈ K. Es sei O die durch die Metrik d auf X definierte Topologie (die Menge aller offenen Mengen). Aus der Analysis 1 wissen wir: Die durch die Metrik dK auf K definierte Topologie OK stimmt mit der von (X, O) auf K induzierten Topologie überein, d.h. OK = {K ∩ V : V ∈ O} besteht genau aus den “relativ offenen” Mengen (den Durchschnitten von K mit offenen Mengen in X). Definition 3.9 Eine Teilmenge K von Rn wird kompakt genannt, wenn sie mit der induzierten Topologie (die durch die induzierte Metrik beschrieben wird) ein kompakter topologischer Raum ist. Entsprechend für Teilmengen K eines Hausdorffschen topologischen Raums X. Beispiel 3.10 Wir versehen [0, 1] ⊆ R mit der induzierten Metrik (und Topologie). Für [0, 1] und n ∈ N bilden die relativ offenen Mengen 1 1 [0, 1] ∩ x − , x + n n für x ∈ [0, 1] eine offene überdeckung von [0, 1]. Diese besitzt die endliche Teilüberdeckung k − 1 k + 1 , [0, 1] ∩ n n mit k ∈ {0, . . . , n}. Lemma 3.11 Ist X ein Hausdorffscher topologischer Raum und K ⊆ X eine Teilmenge, so sind äquivalent: (a) K ist kompakt als topologischer Raum (mit der induzierten Topologie), d.h. ist (Vj )j∈J eine Familie von relativ offenen Mengen Vj in K mit [ K= Vj , j∈J so gibt es eine endliche Teilmenge F ⊆ J mit K = 37 S j∈F Vj . (b) Für jede Familie (Wj )j∈J von offenen Teilmengen Wj von X mit [ K⊆ Wj j∈J so gibt es eine endliche Teilmenge F ⊆ J mit K ⊆ S j∈F Wj . Abweichend von der obigen Terminologie werden auch solche Familien (Wj )j∈J “offene Überdeckungen” genannt; aus dem Zusammenhang ist klar, was gemeint ist. Beweis. S (a)⇒(b): Ist (Wj )j∈J eine Familie offener Teilmengen von X mit K ⊆ j∈J Wj , so sind Vj := K ∩ Wj relativ offene Teilmengen von K mit [ j∈J Vj = [ (K ∩ Wj ) = K ∩ j∈J [ Wj = K. j∈J S Per Voraussetzung gibt es eine endliche Teilmenge F ⊆ J mit K = j∈F Vj . S Da Vj = K ∩ Wj ⊆ Wj , folgt K ⊆ j∈F Wj . (b)⇒(a): Ist (Vj )j∈J eine Familie relativ offener Teilmengen von K mit S K = j∈J Vj , so existieren offene Teilmengen Wj ⊆ X mit Vj = K ∩ Wj . Da Vj ⊆ Wj , ist [ K⊆ Wj j∈J und per Voraussetzung existiert eine endliche Teilmenge F ⊆ J derart, dass [ Wj . K⊆ j∈F Somit ist K=K∩ [ j∈F Wj = \ (K ∩ Wj ) = j∈F [ Vj j∈F 2 und K als kompakt erkannt. Beispiel 3.12 Es sei (xm )m∈N eine konvergente Folge in R (oder einem topologischen Raum X) mit Grenzwert x. Dann ist die Menge K := {xm : m ∈ N} ∪ {x} 38 kompakt. S [Beweis: Sei (Vj )j∈J eine Familie offener Teilmengen von X mit K ⊆ j∈J Vj . Dann existiert ein j0 ∈ J mit x ∈ Vj0 . Weil Vj0 eine Umgebung von x ist und xm → x für m → ∞, existiert ein m0 ∈ N mit (∀m ≥ m0 ) xm ∈ Vj0 . Für jedes m ∈ {1, . . . , m0 − 1} finden wir ein jm ∈ J mit xm ∈ Vjm . Dann ist K⊆ m[ 0 −1 Vjm , j=0 denn x und die xm mit m ≥ m0 liegen in Vj0 , die verbleibenden x1 , . . . , xm0 −1 in Vj1 ∪ · · · ∪ Vjm0 −1 ]. Satz 3.13 Ist X ein Hausdorffscher topologischer Raum und K ⊆ X eine kompakte Teilmenge, so ist K abgeschlossen in X. Insbesondere ist jede kompakte Teilmenge von Rn abgeschlossen. Beweis. K ist abgeschlossen, wenn K = K (d.h. die Menge K stimmt mit ihrem Abschluss überein). Wäre letzteres falsch, so ist K eine echte Teilmenge von K und somit existiert ein y ∈ K \ K. Da X Hausdorffsch ist, existieren für jedes x ∈ K offene Umgebungen Px von x und Qx von y in X mit Px ∩ Qx = ∅. S Dann ist K ⊆ x∈K Px und somit existiert (nach Lemma 3.11 (b)) eine endliche Teilmenge F ⊆ K mit [ K⊆ Px . x∈F T Die Menge Q := x∈F Qx ist eine offene Umgebung von y als Durchschnitt endlich vieler offener Umgebungen. Nun gilt aber [ [ [ [ Q∩K ⊆Q∩ Px = (Q ∩ Px ) ⊆ (Qx ∩ Px ) = ∅ = ∅, x∈F x∈F x∈F x∈F also Q ∩ K = ∅. Wegen Satz 2.2 (b) widerspricht dies der Voraussetzung y ∈ K. 2 39 Satz 3.14 Ist K ein kompakter topologischer Raum, so ist eine Teilmenge A ⊆ K genau dann kompakt, wenn A abgeschlossen ist. Beweis. Als kompakter Raum ist K Hausdorffsch. Ist also A kompakt, so ist A in K nach Satz 3.13 abgeschlossen. Ist umgekehrt A abgeschlossen und ist (Wj )j∈J eine Familie von offenen Teilmengen von K mit [ A⊆ Wj , j∈J so ist K \ A offen in K (als Komplement einer abgeschlossenen Menge) und [ K = (K \ A) ∪ Wj . j∈J Wegen der Kompaktheit von K existiert eine endliche Teilmenge F ⊆ J derart, dass [ K = (K \ A) ∪ Wj . j∈F Somit ist A⊆ [ Wj j∈F 2 und A als kompakt erkannt. Satz 3.15 Ist K ein kompakter topologischer Raum und f : K → Y eine stetige Abbildung in einen Hausdorffschen topologischen Raum Y , so ist f (K) kompakt. Weiter ist f (A) kompakt (und somit in Y abgeschlossen) für jede abgeschlossene Teilmenge A ⊆ K. Beweis. Ist (Wj )j∈J eine Familie offener Teilmengen von Y mit [ f (K) ⊆ Wj , j∈J so sind die Urbilder f −1 (Wj ) offen in X (weil f stetig ist) und ! [ [ K ⊆ f −1 (f (K)) ⊆ f −1 Wj = f −1 (Wj ). j∈J 40 j∈J Da K kompakt ist, gibt es eine endliche Teilmenge F ⊆ J mit [ K⊆ f −1 (Wj ). j∈F Es folgt ! f (K) ⊆ f [ f −1 (Wj ) = j∈F [ f (f −1 (Wj )) ⊆ j∈F [ Wj . j∈F Also ist f (K) kompakt. Ist A ⊆ K abgeschlossen, so ist A kompakt (nach Satz 3.14), somit f (A) kompakt (nach dem bereits Gezeigten), somit f (A) in Y abgeschlossen (nach Satz 3.13). 2 Satz 3.16 (Satz über die Umkehrfunktion) Ist K ein kompakter topologischer Raum, Y ein Hausdorffscher topologischer Raum und f : K → Y eine bijektive stetige Abbildung, so ist f ein Homöomorphismus, d.h. auch f −1 : Y → K ist stetig. Beweis. Wir haben zu zeigen, dass die Abbildung f −1 : Y → K stetig ist. Aus der Analysis 1 wissen wir, dass dies genau dann der Fall ist, wenn das Urbild (f −1 )−1 (A) in Y abgeschlossen ist für jede abgeschlossene Menge A ⊆ K. Nun gilt aber (f −1 )−1 (A) = {y ∈ Y : f −1 (y) ∈ A} = f (A), und all diese Bilder sind tatsächlich abgeschlossen, wie am Ende von Satz 3.15 festgestellt. 2 Folgerung 3.17 Ist K ein kompakter topologischer Raum und f: K →Y 41 eine injektive stetige Abbildung in einen Hausdorffschen topologischen Raum Y , so ist f eine topologische Einbettung,14 d.h. die Koeinschränkung f |f (K) : K → f (K), x 7→ f (x) ist ein Homöomorphismus, wenn man f (K) mit der von Y induzierten Topologie versieht. Beweis. Wir wenden den vorigen Satz auf die stetige bijektive Abbildung f |f (K) : K → f (K) an. 2 Die folgende Beobachtung ist manchmal nützlich und ermöglicht hier eine weitere Folgerung aus Satz 3.16. Lemma 3.18 Es sei X eine Menge. Für Topologien O und O0 auf X sind äquivalent: (a) O = O0 ; (b) Die Abbildung f : (X, O) → (X, O0 ), x 7→ x ist ein Homöomorphismus. Beweis. (a)⇒(b): Ist O = O0 und V ∈ O0 , so ist f −1 (V ) = V ∈ O0 = O, also f stetig. Ein analoges Argument zeigt, dass f −1 : (X, O0 ) → (X, O), x 7→ x stetig ist. (b)⇒(a): Ist f stetig und V ∈ O0 , so ist V = f −1 (V ) ∈ O, also O0 ⊆ O. Ist auch f −1 stetig, so zeigt ein analoges Argument, dass O ⊆ O0 . Also ist O = O0 . 2 Die Topologie auf einem kompakten topologischen Raum kann nicht echt vergröbert werden, ohne die Hausdorffeigenschaft zu verlieren: Folgerung 3.19 Es sei (K, O) ein topologischer Raum und O0 eine Hausdorffsche Topologie auf K, die gröber als O ist (d.h. O0 ⊆ O). Dann ist O = O0 . Beweis. Wir betrachten f : (K, O) → (K, O0 ), x 7→ x. Für alle V ∈ O0 ist f −1 (V ) = V ∈ O0 ⊆ O, also f stetig. Da f bijektiv ist, (K, O) kompakt und (K, O0 ) Hausdorffsch, ist der Satz über die Umkehrfunktion anwendbar: f ist also ein Homöomorphismus und somit O = O0 nach Lemma 3.18. 2 14 Andere Bezeichnung: Ein Homöomorphismus aufs Bild. 42 Lemma 3.20 Ist (E, k.k) ein normierter Raum und K ⊆ E eine kompakte Teilmenge, so ist diese beschränkt, d.h. sup{kxk : x ∈ K} < ∞. Beweis. Die Kugeln Br (0) bezüglich k.k sind offen und [ K⊆E= Br (0). r>0 Wegen der Kompaktheit existieren also r1 , . . . , rm > 0 mit K⊆ m [ Brk (0). k=1 Setzen wir r := max{r1 , . . . , rm }, so ist K ⊆ sup{kxk : x ∈ K} ≤ r. Sm k=1 Brk (0) = Br (0), also 2 Satz 3.21 (Satz vom Maximum) Es sei K ein nicht-leerer kompakter topologischer Raum (z.B. eine kompakte Teilmenge K ⊆ Rn ) und f : K → R eine stetige Funktion. Dann nimmt f ein Maximum und ein Minimum an, d.h. es existieren Elemente x∗ , x∗ ∈ K derart, dass f (x∗ ) = min{f (x) : x ∈ K} und f (x∗ ) = max{f (x) : x ∈ K}. Beweis. Nach Satz 3.15 ist die Teilmenge f (K) ⊆ R kompakt, also abgeschlossen (nach Satz 3.13) und beschränkt (nach Lemma 3.20). Wie in der Analysis 1 gezeigt, hat die Menge f (K) ⊆ R daher ein Maximum und ein Minimum, was den Beweis beendet.15 2 Satz 3.22 (Satz von Bolzano-Weierstraß) Ein metrischer Raum (K, d) ist genau dann kompakt, wenn jede Folge in K eine konvergente Teilfolge hat. Um den Satz zu beweisen, erinnern wir an ein Resultat aus der Analysis 1: 15 Sie können zB. meinen dortigen Satz vom Maximum auf die stetige Funktion f (K) → R, t 7→ t anwenden. 43 Lemma 3.23 Es sei (X, d) ein metrischer Raum, x ∈ X und (xn )n∈N eine Folge in X. Dann sind äquivalent: (a) Es existiert eine Teilfolge (xnk )k∈N mit lim xnk = x. k→∞ (b) Für jedes ε > 0 und jedes N ∈ N existiert ein n ≥ N mit xn ∈ Bε (x). 2 Ist eine der äquivalenten Eigenschaften erfüllt, so haben wir x einen Häufungspunkt der Folge (xn )n∈N genannt.16 Beweis von Satz 3.22. Wir zeigen zunächst: Ist K kompakt, so hat jede Folge in K eine konvergente Teilfolge. Und zwar per Kontraposition. Angenommen also, es gibt eine Folge (xn )n∈N in K, die keine konvergente Teilfolge hat. Dann hat (xn )n∈N keinen Häufungspunkt, nach Lemma 3.23 (b) existieren also zu jedem x ∈ K ein εx > 0 und Nx ∈ N derart, dass (∀n ≥ Nx ) xn 6∈ Bεx (x). S S Es ist K = x∈K Bεx (x). Wäre K kompakt, so müsste K = x∈F Bεx (x) gelten mit einer endlichen Teilmenge F ⊆ K. Sei N := max{Nx : x ∈ F } ∈ N. Für alle S n ≥ N gilt für jedes x ∈ F dann n ≥ Nx , somit xn 6∈ Bεx (x). Also ist xn 6∈ x∈F Bεx (x) = K, Widerspruch. Somit ist K doch nicht kompakt. Sei umgekehrt angenommen, dass jede Folge in K eine konvergente Teilfolge besitzt. Sei (Vj )j∈J eine offene Überdeckung von K. Wenn (Vj )j∈J keine endliche Teilüberdeckung hätte, könnten wir wie folgt verfahren: Wir wählen x1 ∈ K und m(1) ∈ N minimal derart, dass B1/m(1) (x1 ) ⊆ Vj(1) für ein j(1) ∈ J. Sind x1 , . . . , xn−1 ∈ K, m(1), . . . , m(n − 1) ∈ N und j(1), . . . , j(n − 1) ∈ J bereits gefunden, so sei xn ∈ K \ n−1 [ Vj(i) i=1 n−1 (wobei diese Menge nicht leer ist, weil sonst (Vj(i) )i=1 eine endliche Teilüberdeckung für K wäre) und wir wählen m(n) ∈ N minimal derart, dass 16 Im Lemma ist natürlich Bε (x) = {y ∈ X : d(x, y) < ε}. 44 B1/m(n) (xn ) ⊆ Vj(n) für ein j(n) ∈ J. Per Voraussetzung hat (xn )n∈N eine konvergente Teilfolge (xnk )k∈N . Sei x = lim xnk . k→∞ Dann ist x ∈ Vj für ein j ∈ J und es existiert ein m ∈ N derart, dass B1/m (x) ⊆ Vj . Da xnk → x, existiert ein N ∈ N derart, dass (∀k ≥ N ) d(x, xnk ) < 1 . 4m Für alle k ≥ N gilt nach der Dreiecksungleichung B 1 2m (xnk ) ⊆ B 1 1 + 4m 2m (x) ⊆ B 1 (x) ⊆ Vj . m Wegen der Minimalität von m(nk ) ist also m(nk ) ≤ 2m 1 1 und somit m(n ≥ 2m . Nun ist d(xnk , xnk+1 ) ≤ d(xnk , x) + d(x, xnk+1 ) ≤ k) 1 1 1 1 + 4m = 2m ≤ m(nk ) , also xnk+1 ∈ B1/m(nk ) (xnk ) ⊆ Vj(nk ) . Per Konstruktion 4m ist aber nk+1 −1 [ xnk+1 6∈ Vj(i) , i=1 Widerspruch. Also muss (Vj )j∈J doch eine endliche Teilüberdeckung haben und somit K kompakt sein. 2 Satz 3.24 (Satz von Heine-Borel) Eine Teilmenge K ⊆ Rn ist genau dann kompakt, wenn sie beschränkt und abgeschlossen ist. Beweis. Ist K kompakt, so ist K nach Satz 3.13 abgeschlossen und nach Lemma 3.20 beschränkt. Ist umgekehrt K abgeschlossen und beschränkt, so gibt es wegen der Beschränktheit ein r > 0 mit K ⊆ B r (0) = [−r, r] × · · · × [−r, r] (wobei B r (0) die Kugel bezüglich der Maximums-Norm ist). Können wir zeigen, dass [−r, r]n = [−r, r] × · · · × [−r, r] 45 in der von Rn induzierten Topologie kompakt ist, so ist auch die abgeschlossene Teilmenge K von [−r, r]n kompakt, nach Satz 3.14. Nach dem obigen Satz von Bolzano-Weierstraß brauchen wir nur zu zeigen, dass jede Folge (xm )m∈N in [−r, r]n (mit xm = (xm,1 , . . . , xm,n ) etwa) eine konvergente Teilfolge hat. Nach der Fassung des Satzes von Bolzano-Weierstraß aus der Analysis 1 hat jede Folge in [−r, r] eine konvergente Teilfolge, d.h. (xm,1 )m∈N hat eine konvergente Teilfolge (xmk ,1 )k∈N . Nach Ersetzen von (xm )m∈N durch (xmk )k∈N dürfen wir annehmen, dass xm,1 konvergiert für m → ∞. Mit dem gleichen Argument können wir (xm )m∈N nacheinander durch Teilfolgen ersetzen, für welche die zweite, dritte und schließlich n-te Komponente konvergiert. Also hat (xm )m∈N eine Teilfolge (xmk )k∈N derart, dass jede Komponente xmk ,j ∈ R konvergiert für k → ∞, etwa gegen yj ∈ R. Setzen wir y = (y1 , . . . , yn ), so gilt dann xmk → y für k → ∞ nach Satz 1.22, d.h. (xm )m∈N hat eine konvergente Teilfolge. Also ist [−r, r]n kompakt und somit auch K. 2 Wie im vorigen Beweis sieht man, dass das Produkt K1 ×· · ·×Kn von endlich vielen metrischen Räumen kompakt ist, denn für jede Folge (xm )m∈N ∈ K1 × · · · × Kn können wir nacheinander in den Komponenten zu Teilfolgen übergehen und so nach n Schritten eine konvergente Teilfolge von (xm )m∈N erhalten. Wir erwähnen, dass ein analoges Resultat für beliebige kompakte topologische Räume gilt. Da uns im Moment vor allem metrische Räume interessieren, überspringen wir den Beweis in der Vorlesung: Satz 3.25 (Produkte kompakter Räume) Sind K1 , . . . , Kn kompakte topologische Räume, so ist auch K1 × · · · × Kn kompakt. Beweis. Sei zunächst n = 2. Ist (Vj )j∈J eine offene Überdeckung von K1 × K2 , so existiert für jedes (x, y) ∈ K1 × K2 ein jx,y ∈ J mit (x, y) ∈ Vjx,y . Die Definition der Produkttopologie liefert offene Mengen Px,y ⊆ K1 und Qx,y ⊆ K2 mit (x, y) ∈ Px,y × Qx,y ⊆ Vjx,y . Für festes y ∈ K2 ist (Px,y )x∈K1 eine offene Überdeckung von K1 . Da K1 kompakt ist, existiert eine endliche Teilmenge Fy ⊆ K1 mit [ K1 = Px,y . x∈Fy Dann ist Qy := T x∈Fy Qx,y eine offene Umgebung von y derart, dass Px,y × Qy ⊂ Px,y × Qx,y ⊆ Vjx,y 46 für alle x ∈ Fy . Da K2 kompakt ist und (Qy )y∈K2 eine offene Überdeckung von K2 , existiert eine endliche Teilmenge F ⊆ K2 derart, dass [ K2 = Qy . y∈F Dann ist K1 × K2 = [ [ [ (K1 × Qy ) = (Px,y × Qy ) ⊆ y∈Qy x∈Fy y∈F [ [ Vjx,y , y∈Qy x∈Fy S S also K1 × K2 = y∈Qy x∈Fy Vjx,y , d.h. die Mengen Vjx,y mit y ∈ F und x ∈ Fy bilden eine endliche Teilüberdeckung für K1 × K2 . Somit ist K1 × K2 kompakt. Induktionsschritt n − 1 → n: Seien n ≥ 3 und K1 , . . . , Kn kompakt. Per Induktionsvoraussetzung ist dann K := K1 × · · · Kn−1 kompakt und nach dem Fall n = 2 ist folglich K × Kn = (K1 × · · · × Kn−1 ) × Kn kompakt. Nun ist K1 × · · · × Kn Hausdorffsch und die Abbildung f : K × Kn → K1 × · · · × Kn , ((x1 , . . . , xn−1 ), xn ) → (x1 , . . . , xn ) ist bijektiv und stetig, denn ihre j-te Komponente für j ∈ {1, . . . , n − 1} ist πj ◦ pr1 mit den stetigen Projektionen πj : K → Kj und pr1 : K × Kn → K; die n-te Komponente ist die stetige Projektion pr2 : K × Kn → Kn . Nach Satz 3.15 ist K1 × · · · × Kn = f (K × Kn ) kompakt. 2 Bemerkung 3.26 Der vorige Satz ist ein Spezialfall des sogenannten Satzes von Tychonoff, der besagt, dass für eine geeignete Produkttopologie das Produkt Y Kj = {(xj )j∈J : (∀j ∈ J) xj ∈ Kj } j∈J einer beliebigen Familie (Kj )j∈J kompakter Räume stets kompakt ist (auch für unendliche Indexmengen J).17 Dies ist ein mächtiger Satz mit vielen Anwendungen in der Analysis, den Sie in meinen weiterführenden Veranstaltungen kennen lernen können. 17 Und allgemeiner Produkte von Familien quasikompakter Räume quasikompakt sind. 47 Die folgende Beobachtung wird gleich nützlich sein: Lemma 3.27 Es seien (E, k.kE ) und (F, k.kF ) normierte Räume. Für eine lineare Abbildung λ : E → F sind dann äquivalent: (a) λ ist stetig; (b) Es existiert ein a ∈ [0, ∞[ derart, dass (∀x ∈ E) kλ(x)kF ≤ akxkE . (16) In diesem Fall ist kλkop ≤ a. Beweis. (a)⇒(b): Wir wissen bereits, dass aus (a) folgt, dass kλ(x)kF ≤ kλkop kxkE für alle x ∈ E. Also gilt (16) mit a := kλkop . (b)⇒(a): Ist x ∈ E mit kxkE ≤ 1, so folgt aus (16), dass kλ(x)kF ≤ akxkE ≤ a. Bilden des Supremums über all diese x liefert kλkop ≤ a < ∞. Somit ist λ eine beschränkte lineare Abbildung und somit stetig. 2 Definition 3.28 Zwei Normen k.k und k.k0 auf einem reellen Vektorraum E werden äquivalent genannt, wenn es reelle Konstanten a, b > 0 gibt derart, dass (∀x ∈ E) akxk0 ≤ kxk ≤ bkxk0 . (17) Lemma 3.29 Zwei Normen k.k und k.k0 auf einem reellen Vektorraum E sind genau dann äquivalent, wenn sie die gleiche Topologie auf E definieren. Beweis. Wir betrachten die identische Abbildung f : E → E, x 7→ x als Abbildung von (E, k.k0 ) nach (E, k.k). Nach Lemma 3.18 sind die durch k.k0 und k.k auf E definierten Topologien genau dann gleich, wenn f ein Homöomorphismus ist, also die linearen Abbildungen f : (E, k.k0 ) → (E, k.k), x 7→ x und f −1 : (E, k.k) → (E, k.k0 ), 48 x 7→ x stetig sind. Nach Lemma 3.27 gilt letzteres genau dann, wenn reelle Zahlen b, c ≥ 0 existieren derart, dass (∀x ∈ E) kxk = kf (x)k ≤ bkxk0 (18) (∀x ∈ E) kxk0 = kf −1 (x)k0 ≤ ckxk. (19) und Nach Vergrößern dürfen wir immer b, c > 0 annehmen; mit a = (19) äquivalent zu (∀x ∈ E) akxk0 ≤ kxk. 1 c ist dann (20) Nun ist aber (19) zusammen mit (20) äquivalent ist zu (17) und somit zur Äquivalenz der Normen k.k und k.k0 . Der Beweis ist beendet. 2 Satz 3.30 Alle Normen auf Rn sind zueinander äquivalent. Somit definiert jede Norm auf Rn die gleiche Topologie auf Rn . Beweis. Es ist klar, das Äquivalenz von Normen (oder alternativ: die gleiche Topologie zu definieren) eine Äquivalenzrelation auf der Menge aller Normen auf Rn ist. Wir brauchen daher nur zu zeigen, dass jede Norm k.k : Rn → [0, ∞[ zur Maximum-Norm k.k∞ : Rn → [0, ∞[, kxk∞ := max{|x1 |, . . . , |xn |} (für x = (x1 , . . . , xn ) ∈ Rn ) äquivalent ist. Mit den Standard-Einheitsvektoren e1 = (1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1) erhalten wir mit Subadditivität und positiver Homogenität von k.k zunächst n n n n X X X X |xk |·kek k ≤ max{|x1 |, . . . , |xn |}kek k = bkxk∞ kxk ek k = kxk = xk e k ≤ k=1 k=1 k=1 k=1 für alle x = (x1 , . . . , xn ) ∈ Rn , mit b := n X kek k. k=1 Also gilt (∀x ∈ Rn ) kxk ≤ bkxk∞ . 49 (21) Nach Lemma 3.27 ist die lineare Abbildung f : Rn → Rn , x 7→ x also stetig als Abbildung von (Rn , k.k∞ ) nach (Rn , k.k). Nun ist die Menge S := {x ∈ Rn : kxk∞ = 1} = k.k−1 ∞ ({1}) in (Rn , k.k∞ ) abgeschlossen (da die Norm k.k∞ stetig ist und S das Urbild der einpunktigen (also abgeschlossenen) Menge {1} ⊆ R unter der stetigen Abbildung k.k∞ ist). Da S per Definition auch beschränkt ist, ist S kompakt. Nach dem Satz vom Maximum nimmt somit die stetige Abbildung k.k ◦ f |S : S → R, x 7→ kf (x)k = kxk ein Minimum auf S an. Sei a := min{kxk : x ∈ S}. Da x 6= 0 für alle x ∈ S (weil kxk∞ = 1), ist kxk > 0. Somit ist a > 0. Für x = 0 ist kxk ≥ akxk∞ trivial. Weiter gilt für alle x ∈ Rn mit x 6= 0: 1 1 = kxk∞ x x kxk = kxk ∞ kxk∞ ≥ akxk∞ , kxk∞ weil kxk1 ∞ x∞ = kxk1 ∞ kxk∞ = 1 und somit kxk1 ∞ x ∈ S. Also gilt (∀x ∈ Rn ) akxk∞ ≤ kxk. Wegen (21) und (22) sind k.k und k.k∞ äquivalent. (22) 2 Satz 3.31 (Lemma von Wallace) Es seien X1 und X2 Hausdorffsche topologische Räume, K1 ⊆ X1 und K2 ⊆ X2 kompakte Teilmengen und V ⊆ X1 × X2 eine offene Menge derart, dass K1 × K2 ⊆ V. Dann existieren offene Teilmengen V1 ⊆ X1 und V2 ⊆ X2 derart, dass K1 × K2 ⊆ V1 × V2 ⊆ V. 50 Beweis. Für jedes x ∈ K1 und y ∈ K2 ist (x, y) ∈ V . Da V offen in der Produkttopologie ist, gibt es also offene Mengen Px,y ⊆ X1 und Qx,y ⊆ X2 derart, dass (x, y) ∈ Px,y × Qx,y ⊆ V. Halte y ∈ K2 fest. Da K1 kompakt ist und [ K1 ⊆ Px,y , x∈K1 gibt es eine endliche Teilmenge Fy ⊆ K1 derart, dass [ K1 ⊆ Px,y =: Py . x∈Fy Als endlicher Durchschnitt offener Umgebungen ist dann \ Qx,y Qy := x∈Fy eine offene Umgebung von y in X2 . Weiter gilt [ [ (Px,y × Qx,y ) ⊆ V. (Px,y × Qy ) ⊆ K1 × {y} ⊆ Py × Qy = x∈Fy x∈Fy Da K2 kompakt ist und [ K2 ⊆ Qy , y∈K2 gibt es eine endliche Teilmenge F ⊆ K2 derart, dass [ K2 ⊆ Qy =: V2 . y∈F Die Menge V2 ⊆ X2 ist offen und enthält K2 . Weiter ist \ V1 := Py y∈F eine offene Teilmenge von X1 , die K1 enthält, denn V1 ist der Durchschnitt von endlich vielen Mengen mit diesen Eigenschaften. Wir schließen, dass [ [ [ K1 × K2 ⊆ V1 × V2 = V1 × Qy = (V1 × Qy ) ⊆ (Py × Qy ) ⊆ V. y∈F y∈F 51 y∈F Also haben V1 und V2 die gewünschten Eigenschaften. 2 Als eine erste Anwendung des Wallaceschen Lemmas konstruieren wir sogenannte “gleichmäßige” Umgebungen um kompakte Teilmengen: Folgerung 3.32 Es sei E ein normierter Raum, K ⊆ E kompakt und V ⊆ E eine offene Teilmenge mit K ⊆ V . Dann existiert ein ε > 0 derart, dass [ K + Bε (0) = Bε (x) ⊆ V. x∈K Beweis. Die Addition α : E × E → E, α(x, y) := x + y ist stetig und α(K × {0}) = K + {0} = K ⊆ V , somit K × {0} ⊆ α−1 (V ). Hierbei ist α−1 (V ) offen in E × E als Urbild der offenen Menge V ⊆ E unter der stetigen Abbildung α. Weiter sind K und {0} in E kompakt. Nach dem Wallaceschen Lemma existieren also offene Mengen V1 , V2 ⊆ E derart, dass K ⊆ V1 , {0} ⊆ V2 und V1 × V2 ⊆ α−1 (V ). Da V2 ⊆ E eine offene Menge ist, die 0 enthält, gibt es ein ε > 0 mit Bε (0) ⊆ V2 . Dann ist K × Bε (0) ⊆ V1 × V2 ⊆ α−1 (V ) und somit K S + Bε (0) = α(K × Bε (0)) ⊆ V . Da x + Bε (0) = Bε (x), ist 2 K + Bε (0) = x∈K Bε (x), was den Beweis beendet. Bemerkung 3.33 Allgemeiner kann man ohne das Wallacesche Lemma, mit einem direkten (etwas längeren) Argument zeigen: Es sei (X, d) ein metrischer Raum, K ⊆ X kompakt und V ⊆ X eine offene Teilmenge mit K ⊆ V . Dann existiert ein ε > 0 derart, dass [ Bε (x) ⊆ V. x∈K 52 Den Abstand zweier Teilmengen A, B ⊆ X definiert man als dist(A, B) := inf{d(x, y) : x ∈ A, y ∈ B} ∈ [0, ∞]. In der obigen Situation ist stets dist(K, ∂V ) > 0 (d.h. K hat positiven Abstand vom Rand von V ), denn für alle x ∈ K und y ∈ ∂V ist y ∈ X \ V (da V = V 0 ), somit y 6∈ Bε (x) und somit d(x, y) ≥ ε. Folglich dist(K, ∂V ) = inf{d(x, y) : x ∈ K, y ∈ ∂V } ≥ ε > 0. Satz 3.34 (Stetigkeit parameter-abhängiger Integrale) Es seien a < b reelle Zahlen, X ein Hausdorffscher topologischer Raum (z.B. eine Teilmenge X ⊆ Rn ) und f : X × [a, b] → R eine stetige Funktion. Dann ist auch die Funktion Z b g : X → R, g(x) := f (x, t) dt a stetig. Beweis. Um zu sehen, dass g an einerR gegebenen Stelle x ∈ X stetig ist, sei b W ⊆ R eine Umgebung von g(x) = a f (x, t) dt. Dann existiert ein ε > 0 ε . Die Funktion mit [g(x) − ε, g(x) + ε] ⊆ W . Wir setzen θ := b−a h : X × [a, b] → R, h(y, t) := f (y, t) − f (x, t) ist stetig18 und es ist h(x, t) = 0 für alle t ∈ [a, b]. Somit ist {x} × [a, b] ⊆ h−1 (0) ⊆ h−1 (]−θ, θ[), wobei h−1 (]−θ, θ[) wegen der Stetigkeit von h offen ist. Nun ist die einpunktige Menge {x} ⊆ X kompakt (siehe Beispiel 3.7) und auch [a, b] ist kompakt. Nach dem Wallaceschen Lemma gibt es also offene Mengen V1 ⊆ X und V2 ⊆ [a, b] mit {x} × [a, b] ⊆ V1 × V2 ⊆ f −1 (]−θ, θ[). 18 Die Funktion X × [a, b] → R, (y, t) 7→ f (x, t) ist stetig, denn sie ist die Komposition der Projektion π2 : X × [a, b] → [a, b], (y, t) 7→ t und der “partiellen Abbildung” [a, b] → R, t 7→ f (x, t), die nach Beispiel 1.27 stetig ist. 53 Dann ist [a, b] ⊆ V2 ⊆ [a, b] und somit V2 = [a, b], also V1 × [a, b] ⊆ h−1 (]−θ, θ[) und daher h(y, t) ∈ ]−θ, θ[ für alle y ∈ V1 und t ∈ [a, b]. Also ist (∀y ∈ V1 , t ∈ [a, b]) |f (y, t) − f (x, t)| = |h(y, t)| < θ. Es folgt |g(y) − g(x)| = = ≤ ≤ Z b Z b f (x, t) dt f (y, t) dt − a Za b (f (y, t) − f (x, t)) dt a Z b |f (y, t) − f (x, t)| dt a Z b θ dt = (b − a)θ = ε a für alle y ∈ V1 , somit g(y) ∈ [g(x) − ε, g(x) + ε] ⊆ W für alle y ∈ V1 . Also ist g an der Stelle x stetig. 2 Anhang zu Kapitel 3: Weitere Folgerungen aus Kompaktheit Die folgenden zwei Standard-Resultate werden in der Vorlesung zunächst übersprungen. Sobald/falls wir sie benötigen, kommen wir darauf zurück. Satz 3.35 (Lebesguesches Lemma) Es sei (K, d) ein kompakter metrischer Raum und (Vj )j∈J eine offene Überdeckung von K. Dann existiert eine reelle Zahl δ > 0 derart, dass (∀x ∈ K)(∃j ∈ J) Bδ (x) ⊆ Vj , wobei Bδ (x) := {y ∈ K : d(x, y) < δ}. Ein δ > 0 mit der vorigen Eigenschaft wird auch ein Lebesguesches Delta genannt. Beweis. Für jedes x ∈ K existiert ein j(x) ∈ J derart, dass x ∈ Vj(x) . Da die Menge Vj(x) offen ist, existiert ein ε(x) > 0 derart, dass Bε(x) (x) ⊆ Vj(x) . 54 (23) Weil (Bε(x)/2 (x))x∈K eine offene Überdeckung von K ist und K kompakt, existiert eine endliche Teilmenge F ⊆ K derart, dass [ K= Bε(x)/2 (x). (24) x∈F Wir setzen δ := min{ε(x)/2 : x ∈ F }. Für jedes y ∈ K existiert nach (24) ein x ∈ F derart, dass y ∈ Bε(x)/2 (x). Da δ ≤ ε(x)/2, ist für alle z ∈ Bδ (y) ε(x) ε(x) ε(x) +δ ≤ + = ε, 2 2 2 und somit Bδ (y) ⊆ Vj(x) . d(x, z) ≤ d(x, y) + d(y, z) < also z ∈ Bε(x) (x) ⊆ Vj(x) 2 Satz 3.36 Es seien (K, dK ) und (Y, dY ) metrische Räume. Ist K kompakt, so ist jede stetige Abbildung f : K → Y gleichmäßig stetig, d.h. (∀ε > 0)(∃δ > 0)(∀y, z ∈ K) dK (y, z) < δ ⇒ dY (f (y), f (z)) < ε. Beweis. Sei ε > 0. Da f stetig ist, ist f an jeder Stelle x ∈ K stetig und somit hat x eine offene Umgebung Vx ⊆ K derart, dass ε (∀y ∈ Vx ) dY (f (y), f (x)) < . 2 Nach der Dreiecksungleichung gilt dann also ε ε (∀y, z ∈ Vx ) dY (f (y), f (z)) ≤ dY (f (y), f (x)) + dY (f (x), f (z)) < + = ε. 2 2 (25) Nach dem Lebesgueschen Lemma existiert ein Lebesguesches Delta δ > 0 für die offene Überdeckung (Vx )x∈K von K. Sind y, z ∈ K mit dK (y, z) < δ, so ist z ∈ Bδ (y). (26) Per Definition des Lebesgueschen Deltas existiert ein x ∈ K mit Bδ (y) ⊆ Vx . Nach (26) sind dann y, z ∈ Vx und somit gilt nach (25): dY (f (y), f (z)) < ε, was den Beweis der gleichmäßigen Stetigkeit beendet. 55 2 4 Weglänge und Wegintegrale In diesem Kapitel betrachten wir Wege (Kurven) in Rn . Wir berechnen die Weglänge von Kurven und lernen zwei wichtige Arten von Wegintegralen kennen (die auch in physikalischen Anwendungen häufig gebraucht werden). Definition 4.1 Ein Weg in Rn ist eine stetige Abbildung γ : [a, b] → Rn mit a < b in R. Dann ist also γ = (γ1 , . . . , γn ) mit den stetigen Komponenten γ1 , . . . , γn ) : [a, b] → R. Sind γ1 , . . . , γn sogar C k für ein k ∈ N0 ∪ {∞}, so wird γ ein C k -Weg genannt. Ist γ stetig und gibt es a = t0 < t1 < · · · < tm = b derart, dass γ|[tj−1 ,tj ] ein C k -Weg ist für alle j ∈ {1, . . . , m}, so wird γ stückweise C k genannt. Bemerkung 4.2 Man beachte, dass ein Weg γ = (γ1 , . . . , γn ) : [a, b] → Rn genau dann an einer Stelle t ∈ [a, b] differenzierbar ist, also der Grenzwert γ 0 (t) = lim s→t 1 (γ(s) − γ(t)) s−t (mit s ∈ [a, b]\{t}) existiert, wenn jede der Komponenten γ1 , . . . , γn : [a, b] → R in t differenzierbar ist, und es gilt dann γ 0 (t) = (γ10 (t), . . . , γn0 (t)). Für jede Folge (sk )k∈N in [a, b] \ {t} existiert nämlich 1 (γ(sk ) − γ(t)) k→∞ sk − t lim nach Satz 1.22 genau dann, wenn all die Komponenten 1 (γj (sk ) − γj (t)), k→∞ sk − t lim j ∈ {1, . . . , n}. konvergieren, und hat als Komponenten dann die Grenzwerte γ10 (t), . . ., γn0 (t) der Komponenten. Weiter ist γ 0 = (γ10 , . . . , γn0 ) genau dann stetig, wenn all die Komponenten es sind. Wir können somit auch kürzer sagen: γ ist C 1 , wenn γ überall differenzierbar ist und γ 0 : [a, b] → Rn stetig ist. 56 Beispiele 4.3 (a) Für α > 0 hat die Abbildung γ : [0, α] → R2 , γ(t) := (cos t, sin t) beliebig oft differenzierbare Komponenten, ist also ein C ∞ -Weg in R2 (der den Einheitskreis im Gegenuhrzeigersinn umläuft). (b) Für a < b ist γ : [0, α] → R3 , γ(t) := (cos t, sin t, t) ein C ∞ -Weg in R3 , der ein Stück einer Schraubenlinie (Korkenzieher) durchläuft. (c) Sind x0 , x1 , . . . , xm ∈ Rn und a = t0 < t1 < · · · < tm = b, so sei γ : [a, b] → Rn der Weg, welcher auf dem Intervall [tj−1 , tj ] affin-linear von xj−1 nach xj läuft, also γ(t) := xj−1 + t − tj−1 (xj − xj−1 ) tj − tj−1 für j ∈ {1, . . . , m}, t ∈ [tj−1 , tj ]. Dann ist γ : [a, b] → Rn ein Weg, welcher stückweise C 1 ist. Der Weg verbindet geradlinig die gegebenen Punkte, es handelt sich um einen sogenannten Polygonzug. 4.4 Es ist naheliegend, die Weglänge eines Polygonzugs (wie gerade betrachtet) als m X kxj − xj−1 k2 j=1 zu definieren. Definition 4.5 Ist γ : [a, b] → Rn ein Weg und Z = {t0 , t1 , . . . , tm } eine Zerlegung von [a, b] (also a = t0 < t1 < · · · < tm = b), so sei LZ (γ) die Länge des Polygonzugs durch die Punkte γ(t0 ), . . . , γ(tm ), also LZ (γ) := m X kγ(tj ) − γ(tj−1 )k2 . j=1 Die Weglänge L(γ) von γ ist definiert als das Supremum L(γ) := sup LZ (γ) ∈ [0, ∞], Z wobei Z alle Zerlegungen des Intervalls [a, b] durchläuft. Ist L(γ) < ∞, so wird γ rektifizierbar genannt. 57 Wir werden bald sehen, dass jeder C 1 -Weg rektifizierbar ist und seine Weglänge in Form eines geeigneten Integrals berechnet werden kann. Lemma 4.6 Es sei γ : [a, b] → Rn ein Weg. Ist Z = {t0 , . . . , tm } eine Zerlegung von [a, b] und Z 0 eine Verfeinerung von Z, so ist LZ (γ) ≤ LZ 0 (γ). Beweis. Die Verfeinerung Z 0 geht aus Z hervor, indem wir endlich oft je einen Zwischenpunkt hinzunehmen. Es genügt zu zeigen, dass sich die Weglänge in jedem dieser Schritte nicht verkleinert. Wir dürfen daher ohne Beschränkung der Allgemeinheit annehmen, dass Z 0 = Z ∪ {s} mit einem s ∈ [a, b] \ Z. Es gibt genau ein k ∈ {1, . . . , m} derart, dass tk−1 < s < tk . Nach der Dreieicksungleichung ist kγ(tk ) − γ(tk−1 )k2 ≤ kγ(tk ) − γ(s)k2 + kγ(s) − γ(tk−1 )k2 , somit LZ (γ) = k−1 X kγ(tj ) − γ(tj−1 )k2 + kγ(tk ) − γ(tk−1 )k2 j=1 m X + kγ(tj ) − γ(tj−1 )k2 j=k+1 ≤ k−1 X kγ(tj ) − γ(tj−1 )k2 + kγ(tk ) − γ(s)k2 j=1 +kγ(s) − γ(tk−1 )k2 + m X kγ(tj ) − γ(tj−1 )k2 j=k+1 = LZ 0 (γ). 2 58 Lemma 4.7 Sind a < b < c reelle Zahlen und γ : [a, c] → Rn ein Weg, so ist L(γ) = L(γ|[a,b] ) + L(γ|[b,c] ). (27) Insbesondere ist γ genau dann rektifizierbar, wenn beide Teilwege γ|[a,b] und γ|[b,c] rektifizierbar sind. Beweis. Wir stellen zunächst eine Vorüberlegung an. Ist Z = {t0 , . . . , tm } eine Zerlegung von [a, c] derart, dass b = tk für ein k ∈ {1, . . . , m − 1}, so ist Z 0 = {t0 , . . . , tk } eine Zerlegung von [a, b] und Z 00 = {tk , . . . , tm } eine Zerlegung von [b, c]. Weiter gilt LZ (γ) = LZ 0 (γ[a,b] ) + LZ 00 (γ|[b,c] ), denn es ist LZ (γ) = m X kγ(tj ) − γ(tj−1 )k2 j=1 = k X kγ(tj ) − γ(tj−1 )k2 + j=1 m X kγ(tj ) − γ(tj−1 )k2 j=k+1 = LZ 0 (γ[a,b] ) + LZ 00 (γ|[b,c] ). Seien nun (Zi )i∈N , (Zi0 )i∈N und (Zi00 )i∈N Folgen von Zerlegungen von [a, c], [a, b] bzw. [b, c] derart, dass LZi (γ) → L(γ), LZi0 (γ) → L(γ|[a,b] ) und LZi00 (γ) → L(γ|[b,c] ) für i → ∞. Es ist Yj := Zj ∪ Zj0 ∪ Zj00 eine Verfeinerung von Zj . Weiter ist Yj0 := Yj ∩[a, b] eine Verfeinerung von Zj0 und Yj00 := Yj ∩[b, c] eine Verfeinerung von Zj00 . Somit ist LYj (γ) ≥ LZj (γ), folglich LYj (γ) dem Supremum L(γ) näher. Also gilt erst recht LYi (γ) → L(γ) und ebenso LYi0 (γ) → L(γ|[a,b] ) und LYi00 (γ) → L(γ|[b,c] ). Da Yi = Yi0 ∪ Yi00 , ist jedoch nach der Vorüberlegung LYi (γ) = LYi0 (γ|[a,b] ) + LYi00 (γ|[b,c] ) Durch Grenzübergang i → ∞ folgt nun (27) aus (28). 59 (28) 2 Bemerkung 4.8 Ist γ : [a, b] → Rn ein Polygonzug, so stimmt übrigens die in Definition 4.5 als ein Supremum definierte Weglänge mit der in 4.4 betrachteten überein.19 Es genügt, dies für affin-lineare Wege γ zu beweisen, da wir durch wiederholte Anwendung von Lemma 4.7 die Weglänge eines Polygonzugs als Summe der Längen von affin-linearen Teilwegen schreiben können. Sei etwa γ(t) = x + t−a (y − x) für t ∈ [a, b] b−a mit x, y ∈ Rn und Z = {t0 , t1 , . . . , tm } eine Zerlegung von [a, b]. Dann ist γ(tj ) − γ(tj−1 ) = x + tj − a tj−1 − a tj − tj−1 (y − x) − x − (y − x) = (y − x) b−a b−a b−a für j ∈ {1, . . . , m}, somit m X m X tj − tj−1 LZ (γ) = kγ(tj ) − γ(tj−1 )k2 = b − a (y − x) 2 j=1 j=1 Pm b−a j=1 (tj − tj−1 ) = ky − xk2 = ky − xk2 = ky − xk2 . b−a b−a Es ist also LZ (γ) = ky − xk2 für alle Zerlegungen Z und somit auch L(γ) = supZ LZ (γ) = ky − xk2 . Definition 4.9 Wir definieren das vektorwertige Integral einer vektorwertigen stetigen Funktion (also eines Weges) γ = (γ1 , . . . , γn ) : [a, b] → Rn als Z b Z b Z b γ(t) dt := γ1 (t) dt, . . . , γn (t) dt . a a a Es ist nützlich, dass auch hier eine Fassung des Hauptsatzes der Integralrechnung gilt: Lemma 4.10 Für jeden C 1 -Weg γ : [a, b] → Rn gilt Z b γ 0 (t) dt = γ(b) − γ(a). a 19 In der Vorlesung überspringen wir den folgenden Beweis. 60 Beweis. In der Tat ist Z b Z b Z b Z b 0 0 0 0 γ (t) dt = (γ1 (t), . . . , γn (t)) dt = ( γ1 (t) dt, . . . , γn0 (t) dt) a a a a = (γ1 (b) − γ1 (a), . . . , γn (b) − γn (a)) = γ(b) − γ(a). 2 Die folgende Integralabschatzung ist oft nützlich. Lemma 4.11 (Integralabschätzung) Für jeden Weg γ : [a, b] → Rn und jede Norm k.k : Rn → [0, ∞[ gilt Z b Z b γ(t) dt kγ(t)k dt. (29) ≤ a a Beweis. Wir betrachten zunächst nur die Maximum-Norm. In diesem Fall ist in der Tat Z b Z b Z b γ (t) dt γ(t) dt = γ (t) dt, . . . , n 1 a a a ∞ ∞ Z b = max γj (t) dt j=1,...,n a Z b Z b ≤ max |γj (t)| dt ≤ kγ(t)k∞ dt. j=1,...,n a | {z } a ≤kγ(t)k∞ Um die UngleichungR auch für allgemeine Normen zu bekommen, approxb imieren wir Integrale a γ(t) dt durch sogenannte Riemannsche Summen S(γ, Z). Für eine Zerlegung Z = {t0 , t1 , . . . , tm } von [a, b] ist20 S(γ, Z) := m X (tj − tj−1 )γ(tj−1 ). j=1 20 Wir werten hier γ jeweils am linken Intervallende Pm tj−1 von [tj−1 , tj ] aus. Allgemeiner werden in der Literatur Riemannsche Summen j=1 (tj − tj−1 )γ(bj ) mit einer “Belegung” (b1 , . . . , bm ) von beliebig ausgewählten Zwischenstellen bj ∈ [tj−1 , tj ] betrachtet - was für unsere Zwecke aber unnötig allgemein wäre. 61 Die Norm der vorigen Riemannschen Summe lässt sich wie folgt durch eine Riemannsche Summe der Funktion21 kγk : [a, b] → [0, ∞[, t 7→ kγ(t)k abschätzen: m m X X |tj − tj−1 | ·kγ(tj−1 )k = S(kγk, Z). kS(γ, Z)k = (tj − tj−1 )γ(tj−1 ) ≤ | {z } j=1 j=1 =tj −tj−1 (30) Hierbei wurden die Subadditivität und positive Homogenität der Norm benutzt. Wir definieren die Maschenweite ∆(Z) (oder Feinheit) der Zerlegung Z als das Maximum der Längen der Teilintervalle, max (tj − tj−1 ). ∆(Z) := j∈{1,...,m} Dann gilt Z b γ(t) dt für k → ∞, S(γ, Zk ) → (31) a für jede Folge (Zk )k∈N von Zerlegungen Zk von [a, b] mit Maschenweite ∆(Zk ) → 0. Als stetige Funktion auf einem kompakten Intervall ist γ automatisch gleichmäßig stetig (siehe Analysis 1 oder der obige Satz 3.36). Also existiert zu ε > 0 ein δ > 0 derart, dass (∀s, t ∈ [a, b]) |s − t| ≤ δ ⇒ kγ(s) − γ(t)k∞ ≤ ε. Sei nun k so groß, dass ∆(Zk ) ≤ δ. Schreibe Zk = {t0 , t1 , . . . , tm }. Sind s, t ∈ [tj−1 , tj ] für ein j, so ist dann |s − t| ≤ ∆(Zk ) ≤ δ und somit kγ(s) − γ(t)k∞ ≤ ε. Insbesondere ist (∀j ∈ {1, . . . , m})(∀t ∈ [tj−1 , tj ]) kγ(t) − γ(tj−1 )k∞ ≤ ε. 21 k.k ◦ γ wäre eine korrektere, aber längliche Notation. 62 (32) Wir erhalten Z b γ(t) dt − S(γ, Z ) k a = ∞ = ≤ ≤ m Z m X tj X γ(t) dt − (tj − tj−1 )γ(tj−1 ) | {z } j=1 j=1 tj−1 Rt = t j γ(tj−1 ) dt j−1 ∞ m Z tj X (γ(t) − γ(tj−1 ) dt j=1 tj−1 ∞ m Z tj X (γ(t) − γ(tj−1 ) dt tj−1 j=1 ∞ m Z tj X kγ(t) − γ(tj−1 )k∞ dt {z } tj−1 | j=1 ≤ ≤ε m Z X j=1 tj ε dt = tj−1 m X (tj − tj−1 )ε = (b − a)ε, j=1 wobei die Subadditivität der Norm benutzt wurde, dann die gerade bewiesene Integralabschätzung und schließlich (32). Somit ist (31) gezeigt. Ist nun k.k eine beliebige Norm auf Rn , so haben wir nach (30) kS(γ, Zk )k ≤ S(kγk, Zk ). Da S(γ, Zk ) → Rb a (33) γ(t) dt nach dem Vorigen und k.k stetig ist, gilt Z b kS(kγk, Zk )k → γ(t) dt a für k → ∞. Weiter gilt S(kγk, Zk ) → Grenzübergang k → ∞ aus (33). Rb a kγ(t)k dt. Also folgt (29) durch 2 Lemma 4.12 Ist k.k : Rn → [0, ∞[ eine Norm, γ : [a, b] → Rn ein Weg und θ ≥ 0 derart, dass kγ 0 (t) − γ 0 (a)k ≤ θ so ist für alle t ∈ [a, b], Z b 0 kγ(b) − γ(a)k − ≤ 2(b − a)θ. kγ (t)k dt a 63 (34) Rb γ 0 (t) dt und Z b Z b 0 0 kγ 0 (a)k dt, γ (a) dt kγ (a)(b − a)k = = Beweis. Da γ(b) − γ(a) = a a a ist Z b 0 kγ(b) − γ(a)k − kγ (t)k dt Z b a Z b Z b Z b 0 0 0 0 γ (t) dt − γ (a) dt + kγ (a)k dt − kγ (t)k dt = a a a Za b Z b γ 0 (t) dt − γ 0 (a) dt (35) ≤ a a Z b Z b 0 0 + kγ (a)k dt − kγ (t)k dt. (36) a a Weil Normen nach Beispiel 1.14 stets Lipschitzstetig sind mit Konstante 1, also kyk − kxk ≤ ky − xk, können wir den Summanden in (35) nach oben abschätzen durch Z b Z b Z b 0 0 γ (t) dt − γ (a) dt = (γ 0 (t) − γ 0 (a)) dt a a a Z b kγ 0 (t) − γ 0 (a)k dt ≤ (b − a)θ (37) ≤ | {z } a ≤θ (wobei das erste Ungleichungszeichen auf der üblichen Integralabschätzung beruht). Im Summanden in (36) fassen wir die Integranden zusammen, wenden die übliche Integralabschätzung an und benutzen die Lipschitzstetigkeit der Norm: Z b Z b 0 0 0 kγ (a)k − kγ 0 (t)k dt kγ (a)k − kγ (t)k dt ≤ a a Z b ≤ kγ 0 (a) − γ 0 (t)k dt ≤ (b − a)θ. (38) a Setzen wir die Abschätzungen (37) und (38) in (35) bzw. (36) ein, so ergibt sich (34). 2 64 Satz 4.13 Jeder C 1 -Weg γ : [a, b] → Rn ist rektifizierbar, mit Weglänge b Z kγ 0 (t)k2 dt. L(γ) = (39) a Gleiches gilt für stückweise C 1 -Wege, wenn man Z b 0 kγ (t)k2 dt := a m Z X j=1 tj kγ 0 (t)k2 dt tj−1 definiert mit einer Zerlegung Z = {t0 , t1 , . . . , tm } von [a, b] derart, dass γ|[tj−1 ,tj ] ein C 1 -Weg ist für alle j ∈ {1, . . . , m}. Beweis. Wegen Lemma 4.7 genügt es, die Aussage für C 1 -Wege zu beweisen. Da die stetige Funktion γ 0 : [a, b] → Rn , t 7→ γ 0 (t) wegen der Kompaktheit von [a, b] gleichmäßig stetig ist, gibt es für jedes k ∈ N ein δk > 0 derart, dass 1 (∀s, t ∈ [a, b]) |s − t| ≤ δk ⇒ kγ 0 (s) − γ 0 (t)k2 ≤ . k Wir wählen nun eine Folge (Zk )k∈N von Zerlegungen Zk von [a, b] derart, dass LZk (γ) → L(γ) für k → ∞. Indem wir Zk notfalls verfeinern (z.B. mit einer genügend engen äquidistanten Zerlegung vereinigen), dürfen wir annehmen, dass ∆(Zk ) ≤ δk (40) für alle k. Für festes k schreiben wir Zk = {t0 , t1 , . . . , tm }. Für jedes j ∈ {1, . . . , m} und t ∈ [tj−1 , tj ] gilt |t − tj−1 | ≤ tj − tj−1 ≤ ∆(Zk ) ≤ δk , somit kγ 0 (t) − γ 0 (tj−1 )k2 ≤ 65 1 . k Dies ermöglicht uns, Lemma 4.12 auf γ|[tj−1 ,tj ] anzuwenden, mit θ = k1 . Somit gilt Z b m Z tj m X X 0 0 kγ (t)k2 dt − kγ(tj ) − γ(tj−1 )k2 kγ (t)k2 dt − LZk (γ) = a j=1 tj−1 j=1 m Z tj X 0 ≤ kγ (t)k2 dt − kγ(tj ) − γ(tj−1 )k2 tj−1 j=1 m X m 1 2X ≤ 2(tj − tj−1 ) = 2(tj − tj−1 ) k k j=1 j=1 = 2 2(b − a) (tm − t0 ) = →0 k k für k → ∞. Also gilt sowohl LZk (γ) → L(γ) also auch LZk (γ) → für k → ∞, und somit folgt (39). Rb a kγ 0 (t)k2 dt 2 Beispiel 4.14 Wir betrachten (wie in Beispiel 4.3 (a)) für α > 0 den C ∞ Weg γ : [0, α] → R2 , γ(t) := (cos t, sin t), der den Kreisbogen von γ(0) = (1, 0) bis γ(α) = (cos α, sin α) im Gegenuhrzeigersinn durchläuft. Nach Satz 4.13 hat γ die Weglänge Z α Z α Z αp 0 (− sin t)2 + (cos t)2 dt L(γ) = kγ (t)k2 dt = k(− sin t, cos t)k2 dt = {z } 0 0 0 | =1 Z α = 1 dt = α. 0 Mit anderen Worten, wir können die Zahl α wirklich als eine Bogenlänge interpretieren, nämlich als die Länge des durch den Weg γ parametrisierten Kreisbogens von (1, 0) bis (cos α, sin α). Beim Umparametrisieren ändert sich die Länge von Wegen nicht: Satz 4.15 Ist γ : [a, b] → Rn ein Weg und φ : [c, d] → [a, b] ein Homöomorphismus, so ist L(γ) = L(γ ◦ φ). 66 Beweis. Wir wissen aus der Analysis 1, dass die bijektive stetige Abbildung φ : [c, d] → [a, b] entweder streng monoton wachsend oder streng monoton fallend ist. Ist Z = {t0 , t1 , . . . , tm } eine Zerlegung von [c, d] so ist φ(Z) = {φ(t0 ), φ(t1 ), . . . , φ(tm )} eine Zerlegung von [a, b]. Ist Φ streng monoton wachsend, so ist a = φ(t0 ) < φ(t1 ) < · · · < φ(tm ) = b und Lφ(Z) (γ) = m X kγ(φ(tj )) − γ(φ(tj−1 ))k2 = LZ (γ ◦ φ). j=1 Ist φ streng monoton fallend, so ist b = φ(t0 ) > φ(t1 ) > · · · > φ(tm ) = a, also a = φ(tm ) < φ(tm−1 ) < · · · < φ(t0 ) = b die aufsteigende Anordnung der Punkte der Zerlegung φ(Z), somit ebenfalls Lφ(Z) (γ) = m X kγ(φ(tj ))−γ(φ(tj−1 ))k2 = j=1 m X kγ(φ(tj−1 ))−γ(φ(tj ))k2 = LZ (γ◦φ). j=1 Sei nun Z die Menge aller Zerlegungen von [a, b] und Z 0 die Menge aller Zerlegungen von [c, d]. Dann ist Z 0 → Z, Z 7→ φ(Z) eine bijektive Abbildung (mit Umkehrabbildung Z 7→ φ−1 (Z)), insbesondere also surjektiv. Es folgt L(γ) = sup LZ (γ) = sup Lφ(Z) (γ) = sup LZ (γ ◦ φ) = L(γ ◦ φ). Z∈Z Z∈Z 0 Z∈Z 0 2 Die Existenz einer schönen Umparametrisierung (wie im vorigen Satz) ist häufig automatisch: Satz 4.16 Sind γ : [a, b] → Rn und η : [c, d] → Rn injektive Wege22 mit gleichem Bild, also γ([a, b]) = η([c, d]), so gibt es einen Homöomorphismus φ : [c, d] → [a, b] derart, dass η = γ ◦ φ. 22 Injektive Wege nennt man traditionell auch “doppelpunktfreie Wege.” 67 Insbesondere gilt L(γ) = L(η), d.h. die Bogenlänge L(Γ) := L(γ) der Menge (“Kurve”) Γ := γ([a, b]) ist wohldefiniert, unabhängig von der gewählten Parametrisierung γ. Beweis. Sei Γ := γ([a, b]) = η([c, d]). Da [c, d] kompakt ist und η|Γ : [c, d] → Γ, t 7→ η(t) stetig und bijektiv, ist η|Γ nach Satz dem Satz über die Umkehrfunktion (Satz 3.16) ein Homöomorphismus. Ebenso ist γ|Γ : [a, b] → Γ ein Homöomorphismus. Also ist auch (γ|Γ )−1 : Γ → [a, b] ein Homöomorphismus und somit auch die Komposition φ := (γ|Γ )−1 ◦ η|Γ : [c, d] → [a, b]. Sei ι : Γ → Rn die Inklusion. Per Konstruktion ist γ ◦ φ = ι ◦ γ|Γ ◦ φ = ι ◦ γ|Γ ◦ (γ|Γ )−1 ◦ η|Γ = ι ◦ η|Γ = η. Die übrigen Aussagen folgen nun aus Satz 4.15. 2 Beispiel 4.17 Gegeben α ∈ ]0, 2π[ ist der Weg γ : [0, α] → R2 , γ(t) := (cos t, sin t) injektiv. Somit können wir dem Kreisbogen Γ := γ([0, α]) die Bogenlänge L(Γ) := L(γ) = α zuordnen und wissen, dass wir für jede andere injektive Parametrisierung η des Kreisbogens23 die gleiche Bogenlänge erhalten. Diese ist eine Eigenschaft von Γ allein, unabhängig von der Parametrisierung. Definition 4.18 [Wegintegrale erster Art] Ist ein Weg γ : [a, b] → Rn stückweise C 1 und f : γ([a, b]) → R stetig, so definieren Z Z f := γ 23 Z.B. η(t) = (1 − t, Z b f ds := γ f (γ(t))kγ 0 (t)k2 dt. a p 1 − (1 − t)2 ) falls α ≤ π. 68 Ist γ nicht C 1 , so ist hierbei Z b m Z X 0 f (γ(t))kγ (t)k2 dt := a tj f (γ(t))kγ 0 (t)k2 dt, tj−1 j=1 wobei Z = {t0 , t1 , . . . , tm } eine Zerlegung von [a, b] ist derart, dass γ|[tj−1 ,tj ] ein C 1 -Weg ist für alle j ∈ {1, . . . , m}. Beispiel 4.19 Die Kurve γ = (γ1 , γ2 , γ3 ) : [a, b] → R3 beschreibe einen Draht im Raum, welcher an der Stelle γ(t) = x die Massendichte ρ(x) besitzt (im Sinne von Masse pro Weglänge).24 Dann ist Z m= ρ γ die Masse des Drahts. Sein Schwerpunkt ist x = (x1 , x2 , x3 ) mit 1 xk = m Z 1 prk ·ρ = m γ Z γk (t)ρ(γ(t))kγ 0 (t)k2 dt [a,b] für k ∈ {1, 2, 3}. Ist ρ konstant, so ist m = ρ · L(γ) und Z 1 xk = γk (t)kγ 0 (t)k2 dt. L(γ) [a,b] Definition 4.20 [Wegintegrale zweiter Art] Ist ein Weg γ : [a, b] → Rn stückweise C 1 und F : γ([a, b]) → Rn stetig,25 so definieren wir Z Z Z b hF, d~si := F · d~s := hF (γ(t)), γ 0 (t)i dt γ γ a 24 Ist der Draht an verschiedenen Stellen unterschiedlich gezogen worden oder verrostet, braucht ρ nicht konstant sein. 25 Wir benutzen die selbe Notation auch, wenn F auf einer größeren Teilmenge von Rn (z.B. auf ganz Rn ) definiert ist. 69 mit dem Skalarprodukt hx, yi := x · y := n X xk yk k=1 für x = (x1 . . . . , xn ) und y = (y1 , . . . , yn ) in Rn . Ist γ nicht C 1 , so ist hierbei Z b m Z tj X 0 hF (γ(t)), γ (t)i dt := hF (γ(t)), γ 0 (t)i dt a tj−1 j=1 wobei Z = {t0 , t1 , . . . , tm } eine Zerlegung von [a, b] ist derart, dass γ|[tj−1 ,tj ] ein C 1 -Weg ist für alle j ∈ {1, . . . , m}. Beispiel 4.21 Es sei F : R3 → R3 ein stetiges Kraftfeld, also F (x) ∈ R3 ein Kraftvektor, der an der Stelle x ∈ R3 auf ein Teilchen wirkt. Sei γ(t) ∈ R3 die Position des Teilchens zur Zeit t. Die bei der Bewegung des Teilchens längs einer C 1 -Kurve γ : [a, b] → R3 aufgewandte Energie (geleistete Arbeit) ist dann Z E = − F · d~s. γ n Satz 4.22 Es sei γ : [a, b] → R ein C 1 -Weg und φ : [c, d] → [a, b] eine bijektive C 1 -Funktion. Für alle stetigen Funktionen f : γ([a, b]) → R und F : γ([a, b]) → Rn gilt dann Z Z f f= γ◦φ γ und Z Z hF, d~si, hF, d~si = ± γ◦φ γ wobei das positive Vorzeichen zu wählen ist, wenn φ streng monoton wachsend ist; ist φ streng monoton fallend, so tritt das Minuszeichen auf. Beweis. Ist φ streng monoton wachsend, so ist überall φ0 (t) ≥ 0. Weiter ist φ(c) = a, φ(d) = b und die Substitution u = φ(t) liefert Z Z d Z d 0 f (γ(φ(t)))|φ0 (t)| kγ 0 (φ(t))k2 dt f = f (γ(φ(t)))k(γ ◦ φ) (t)k2 dt = γ◦φ c c Z d 0 = Z 0 φ(d) f (γ(φ(t)))φ (t)kγ (φ(t))k2 dt = c Z = a φ(c) b f (γ(u))kγ 0 (u)k2 du = Z f. γ 70 f (γ(u))kγ 0 (u)k2 du Ebenso ist dann Z Z d hF (γ(φ(t))), γ 0 (φ(t))φ0 (t)i dt hF, d~si = c γ◦φ Z d hF (γ(φ(t))), γ 0 (φ(t))iφ0 (t) dt = c Z = b hF (γ(u)), γ 0 (u)iφ0 (t) du Za hF, d~si. = γ Ist γ streng monoton fallend, so ist überall γ(t) ≤ 0, weiter γ(c) = b und γ(d) = a. Wir erhalten Z Z d Z d 0 f = f (γ(φ(t)))k(γ ◦ φ) (t)k2 dt = f (γ(φ(t)))|φ0 (t)| kγ 0 (φ(t))k2 dt γ◦φ c c Z d 0 Z 0 φ(d) f (γ(u))kγ 0 (u)k2 du f (γ(φ(t)))φ (t)kγ (φ(t))k2 dt = − = − φ(c) c Z = − a Z 0 0 a Z Z f (γ(u))kγ (u)k2 du = f (γ(u))kγ (u)k2 du = b und Z b f γ d hF (γ(φ(t))), γ 0 (φ(t))φ0 (t)i dt hF, d~si = c γ◦φ Z d hF (γ(φ(t))), γ 0 (φ(t))iφ0 (t) dt = c Z a 0 0 hF (γ(u)), γ (u)iφ (t) du = − bZ = − hF, d~si. = Z b hF (γ(u)), γ 0 (u)iφ0 (t) du a γ 2 5 Partielle Differenzierbarkeit ∂f einer Funktion f in In diesem Abschnitt lernen wir partielle Ableitungen ∂x i mehreren Variablen kennen, d.h. Ableitungen nach einer der Variablen (hier 71 der i-ten) bei festgehaltenen übrigen Variablen. Dies führt uns weiter zu stetig partiell differenzierbaren Funktionen und k mal stetig partiell differenzierbaren Funktionen. Im Folgenden bezeichnen e1 = (1, 0, . . . , 0), . . ., em = (0, 0, . . . , 1) die StandardBasisvektoren von Rm . Definition 5.1 Es sei U ⊆ Rm offen. Ist f : Rm → Rn eine Funktion, i ∈ {1, . . . , m} und x ∈ U , so nennen wir Di f (x) := ∂f (x) 1 ∂f (x) := := lim (f (x + tei ) − f (x)) t→0 t ∂xi ∂xi die partielle Ableitung von f nach der i-ten Variablen an der Stelle x, wenn der Grenzwert existiert. Bemerkung 5.2 (a) Eine weitere Schreibweise für die partielle Ableitung (die ich nicht benutze) ist fxi . (b) Im Falle einer Funktion (x, y) 7→ f (x, y) schreibt man auch ∂f und ∂x ∂f statt D1 f und D2 f . Entsprechend bei anderen Buchstaben für die ∂y Komponenten. ∂f Bemerkung 5.3 Wollen wir (zum Beispiel) ∂x (x) in einem festen Punkt 1 m x = (x1 , . . . , xm ) ∈ R berechnen, so können wir die folgende Funktion einer Variablen betrachten, γ : V → Rn , γ(t) := f (t, x2 , . . . , xm ), die auf der Menge V := {t ∈ R : (t, x2 , . . . , xm ) ∈ U } definiert ist. Die Menge V enthält t = x1 und ist offen in R (denn U ist offen und V = h−1 (U ) mit der stetigen Abbildung h : R → Rm , t 7→ (t, x2 , . . . , xm )). Dann ist 1 1 ∂f dγ (x1 ) = lim (γ(x1 + t) − γ(x1 )) = lim (f (x + te1 ) − f (x)) = (x), t→0 t t→0 t dt ∂x1 wann immer der Grenzwert existiert. Also: 72 ∂f (x), indem wir alle Variablen außer Wir erhalten die partielle Ableitung ∂x 1 der ersten konstant halten und die so erhaltene Funktion der einen Variablen x1 nach x1 ableiten. Letztere Ableitung kann komponentenweise berechnet werden (vgl. die Diskussion von Wegen und ihren Ableitungen im vorigen Kapitel), d.h. ist f = (f1 , . . . , fn ), so ist ∂f ∂fn ∂f 1 (x) = (x), . . . , (x) . ∂xi ∂xi ∂xi Beispiele 5.4 (a) Für f : R2 → R, f (x, y) := x + y 2 + 1 erhalten wir die partielle Ableitung nach x, indem wir bei festem y wie in Analysis 1 nach x ableiten ∂f ∂ (x, y) = (x + y 2 + 1) = 1. ∂x ∂x Die partielle Ableitung nach y erhalten wir, indem wir x festhalten und nach y ableiten: ∂ ∂f (x, y) (x + y 2 + 1) = 2y. ∂y ∂y (b) f : R2 → R3 , f (x, y) = (x + y, xy, 1 + xey ) hat die partiellen Ableitungen ∂f (x, y) = (1, y, ey ) ∂x ∂f (x, y) = (1, x, xey ). ∂y (c) Jede konstante Funktion U → Rn , x 7→ c auf einer offenen Menge U ⊆ Rm ∂c ist überall partiell differenzierbar, mit ∂x (x) = 0. i (d) Die partiellen Ableitungen der Funktion pri : R → R, (x1 , . . . , xm ) 7→ xi sind ∂ pri ∂xi 1 wenn i = j; (x) = (x) = 0 wenn i 6= j. ∂xj ∂xj Es ist also ∂ pri (x) ∂xj = δi,j durch das sogenannte “Kroneckersche delta” gegeben. Definition 5.5 Eine Abbildung f : U → Rn auf einer offenen Menge U ⊆ Rm heißt stetig partiell differenzierbar (kurz partiell C 1 ), wenn f stetig ist, 73 für alle i ∈ {1, . . . , m} die partielle Ableitung existiert und die Abbildung ∂F : U → Rn , ∂xi x 7→ ∂F (x) ∂xi an jeder Stelle x ∈ U ∂F (x) ∂xi stetig ist. Beispiele 5.6 All die Beispiele aus 5.4 sind partiell C 1 , denn sie sind stetig, all ihre partiellen Ableitungen existieren und die obigen Formeln zeigen, dass diese auch stetig sind. Bemerkung 5.7 Ist U ⊆ Rm offen, f : U → Rn überall nach der ersten ∂f Variablen partiell differenzierbar und ∂x : U → Rn stetig, so ist für festes 1 x = (x1 , . . . , xm ) ∈ U die Funktion γ : V → Rn , γ(t) := f (t, x2 , . . . , xn ) von t ∈ V ⊆ R (wie in der vorigen Bemerkung) überall differenzierbar und γ 0 (t) = ∂f (t, x2 , . . . , xm ) ∂x1 (41) stetig in t. Für alle s, t ∈ V , deren Verbindungsstrecke ganz in V liegt, ist nach dem Hauptsatz der Integral- und Differentialrechnung also Z s Z 1 0 γ(s) − γ(t) = γ (r) dr = γ 0 (t + u(s − t))(s − t) du, t 0 wobei noch r = t + u(s − t) mit u ∈ [0, 1] und dr = (s − t)du substituiert wurde. Setzen wir (41) und die Definition von γ in die vorige Gleichung ein, so erhalten wir f (s, x2 , . . . , xm ) − f (t, x2 , . . . , xm ) Z s ∂f = (r, x2 , . . . , xm ) dr t ∂x1 Z 1 ∂f = (s − t) (t + u(s − t), x2 , . . . , xm ) du. 0 ∂x1 (42) Ableitungen nach Parametern und Integration können vertauscht werden, man kann “unter dem Integralzeichen ableiten”: 74 Satz 5.8 (Differenzierbarkeit parameterabhängiger Integrale) Es seien I ⊆ R offen, a < b reelle Zahlen und f : I × [a, b] → Rn , eine stetige Funktion derart, dass Dann ist (s, t) 7→ f (s, t) ∂f ∂s g : I → Rn , : I × [a, b] → R existiert und stetig ist. Z b g(s) := f (s, t) dt a 1 eine C -Funktion und dg (s) = ds Also d ds Rb a f (s, t) dt = b Z a ∂f (s, t) dt. ∂s (43) Rb ∂f (s, t) dt. a ∂s Beweis. Wir dürfen annehmen, dass I ein Intervall ist. Durch Betrachtung der einzelnen Komponenten dürfen wir außerdem annehmen, dass n = 1 ist, somit f und g reellwertige Funktionen sind. Gegeben r, s ∈ I mit r 6= s ist Z b Z b g(r) − g(s) 1 f (s, t) dt f (r, t) dt − = r−s r−s a a Z b f (r, t) − f (s, t) = dt r−s a Z b Z 1 ∂f (s + σ(r − s), t) dσ dt, (44) = a 0 ∂s wobei Bemerkung 5.7 auf die letzte Gleichheit führt. Da die Funktion I × [a, b] × [0, 1] → R, (r, t, σ) 7→ ∂f (s + σ(r − s), t) ∂s stetig ist, ist nach Satz 3.34 (über die Stetigkeit parameterabhängiger Integrale) die Funktion Z 1 ∂f h : I × [a, b] → R, h(r, t) := (s + σ(r − s), t) dσ 0 ∂s stetig. Diese erfüllt Z 1 Z 1 ∂f ∂f ∂f h(s, t) = (s + σ(s − s), t) dσ = (s, t) dσ = (s, t). | {z } ∂s 0 ∂s 0 ∂s =0 75 (45) Nochmalige Anwendung des Satzes liefert die Stetigkeit der Abbildung Z b Z b Z 1 ∂f (s + σ(r − s), t) dσ dt. ∆ : I → R, ∆(r) := h(r, t) dt = a a 0 ∂s Diese erfüllt wegen (45) Z b Z h(s, t) dt = ∆(s) = a a b ∂f (s, t) dt. ∂s (46) Nun gilt nach (44) für r ∈ I \ {s} Z b g(r) − g(s) ∂f = ∆(r) → ∆(s) = (s, t) dt r−s a ∂s für r → s, wobei die Stetigkeit von ∆ benutzt wurde und dann (46). Also gilt (43). 2 Analoges gilt, wenn I ein (nicht notwendig offenes) nicht-entartetes Intervall ist. Beispiel 5.9 Wir wollen das Integral Z 1 xex dx 0 berechnen, ohne partielle Integration zu benutzen. Hierzu beachten wir, dass ∂ x xe = ∂t etx . Die Funktion t=1 f (tx) = etx f : ]0, ∞[ ×[0, 1] → R, erfüllt Z 1 Z f (t, x) dx = 0 0 1 1 e dx = etx t tx ∂f (t, x) ∂t 1 = 0 et − 1 , t ∂ tx ist stetig und hat die partielle Ableitung = ∂t e = xetx , welche stetig in (t, x) ist. Nach Satz 5.8 gilt also Z 1 Z 1 ∂ x xe dx = etx dx 0 0 ∂t t=1 Z 1 d = etx dx dt t=1 0 d et − 1 = dt t=1 t et et − 1 − = = e − (e − 1) = 1. t t2 t=1 76 Definition 5.10 Sei U ⊆ Rm offen und 2 ≤ k ∈ N. Rekursiv definieren wir: Eine Funktion f : U → R heißt kmal stetig partiell differenzierbar (kurz: partiell C k ), wenn f partiell C 1 und für alle i ∈ {1, . . . , m} die partielle Ableitung ∂f :U →R ∂xi partiell C k−1 ist. Bemerkung 5.11 (a) Also ist f genau dann partiell C k , wenn f stetig ist, für alle j ∈ N mit j ≤ k und i1 , . . . , ij ∈ {1, . . . , m} die partielle Ableitung ∂ ∂ ∂j f (x) := f (x) ··· ∂xij · · · ∂xi1 ∂xij ∂xi1 für alle x ∈ U existiert und ∂j f : U → Rm ∂xij · · · ∂xi1 stetig ist. (b) Da wir partielle Ableitungen komponentenweise ausrechnen können, ist f = (f1 , . . . , fn ) genau dann partiell C k , wenn jede der Komponenten f1 , . . . , fn : U → R partiell C k ist. Weiter ist ∂ j f1 ∂ j fn ∂j f = ,... ∂xij · · · ∂xi1 ∂xij · · · ∂xi1 ∂xij · · · ∂xi1 2 f (c) Statt ∂x∂i ∂x schreibt man i holungen). (d) Für ∂j f ∂xij ···∂xi1 ∂2f ∂x2i (und entsprechend bei mehrfachen Wieder- gibt es auch die Notation fxi1 xi2 ···xij (die ich aber nicht be- nutzen werde). Beispiel 5.12 Die Funktion f : R2 → R, f (x, y) := x2 y 3 ist partiell C 2 , denn f ist stetig und hat die partiellen Ableitungen ∂f (x, y) = 2xy 3 ∂x und 77 ∂f (x, y) = 3x2 y 2 ∂y erster Ordnung und die partiellen Ableitungen ∂ 2f (x, y) = 2y 3 , 2 ∂x ∂ 2f (x, y) = 6x2 y, 2 ∂y ∂ 2f (x, y) = 6xy 2 und ∂y∂x zweiter Ordnung, die alle stetig sind. ∂ 2f (x, y) = 6xy 2 ∂x∂y Wir beobachten, dass ∂ 2f ∂ 2f (x, y) = 6xy 2 = (x, y) ∂y∂x ∂x∂y im vorigen Beispiel. Das ist kein Zufall: Bei der Bildung höherer partieller Ableitungen kommt es auf die Reihenfolge nicht an (wie jetzt gezeigt wird). Satz 5.13 Ist U ⊆ Rm offen und f : U → R partiell C 2 , so gilt für alle i, j ∈ {1, . . . , m} (∀x ∈ U ) ∂ 2f ∂ 2f (x) = (x). ∂xi xj ∂xj xi Beweis. Der Fall i = j ist trivial. Wir dürfen also annehmen, dass i 6= j und (notfalls nach Umbenennen) das i < j. Da U offen ist, gibt es zu y ∈ U ein k.k k.k r > 0 derart, dass B2r ∞ (y) ⊆ U . Wir dürfen annehmen, dass U = B2r ∞ (y). Da wir zur Berechnung der partiellen Ableitung alle Variablen außer der iten und jten sowieso festhalten, dürfen wir annehmen, dass m = 2 ist, i = 1 und j = 2. Nach 5.7 haben wir Z 1 1 ∂f (x1 + ut, x2 ) du (f (x1 + t, x2 ) − f (x1 , x2 )) = t 0 ∂x1 k.k∞ für (x1 , x2 ) ∈ Br Funktion (y) und t ∈ ]−r, r[ \{0}. Für festes t und x1 ist die h : ]y2 − r, y2 + r[×[0, 1] → Rn , h(x2 , u) := ∂f (x1 + ut, x2 ) ∂x1 stetig und besitzt die partielle Ableitung ∂h ∂ 2f (x2 , u) = (x1 + ut, x2 ). ∂x2 ∂x2 ∂x1 78 Mit Satz 5.8 folgt 1 t ∂f ∂f (x1 + t, x2 ) − (x1 , x2 ) ∂x2 ∂x2 Z 1 ∂f ∂ (x1 + ut, x2 ) du = ∂x2 0 ∂x1 Z 1 ∂ 2f = (x1 + ut, x2 ) du 0 ∂x2 ∂x1 Wir betrachten nun die stetige Funktion g : ]−r, r[ ×[0, 1] → Rn , Dann ist g(0, u) = unabhängig von u, also Z 1 Z g(0, u) du = 0 0 1 g(t, u) := ∂ 2f (x1 + ut, x2 ). ∂x2 ∂x1 ∂ 2f (x1 , x2 ) ∂x2 ∂x1 ∂ 2f ∂ 2f (x1 , x2 ) du = (x1 , x2 ). ∂x2 ∂x1 ∂x2 ∂x1 Nach dem Vorigen gilt für t ∈ ]−r, r[ \{0}: 1 ∂f ∂f (x1 + t, x2 ) − (x1 , x2 ) t ∂x2 ∂x2 Z 1 Z 1 = g(t, u) du → g(0, u) du 0 (47) 0 ∂ 2f = (x1 , x2 ) ∂x2 ∂x1 nach dem Satz über die Stetigkeit Parameter-abhängiger Integrale. Nun konvergieren die Differenzenquotienten in (47) für t → 0 aber auch gegen ∂2f (x1 , x2 ). Die zwei Grenzwerte sind gleich und somit ist ∂x1 ∂x2 ∂ 2f ∂ 2f (x1 , x2 ) = (x1 , x2 ) ∂x2 ∂x1 ∂x1 ∂x2 2 bewiesen. 79 Definition 5.14 Gegeben m ∈ N nennen wir ein m-Tupel α = (α1 , . . . , αm ) ∈ (N0 )m von Zahlen α1 , . . . , αm ∈ N0 einen Multiindex. Die Länge (oder Ordnung) eines Multiindex α ist |α| := α1 + · · · + αm . Ist U ⊆ Rm offen und f : U → Rn partiell C k , so definieren wir ∂ αf ∂ αm ∂ α1 · · · := f. ∂xα ∂xα1 1 ∂xαmm Für x = (x1 , . . . , xm ) ∈ Rm definieren wir xα := xα1 1 xα2 2 · · · xαmm als das gezeigte Produkt von Potenzen der Komponenten (Monom). Eine beliebige Polynomfunktion f : Rm → R lässt sich dann also schreiben in der Form X f (x) = aα x α |α|≤` mit einem ` ∈ N0 und Koeffizienten aα ∈ R. Die Summation ist über alle Multiindizes α ∈ Nm 0 mit |α| ≤ `. Sind α = (α, . . . , αm ) und β = (β1 , . . . , βm ) m Multiindizes in N0 , so schreiben wir β ≤ α, wenn βj ≤ αj für alle j ∈ {1, . . . , m}. Wir definieren α! := α1 ! · · · αm !. Ist β ≤ α, so schreiben wir zudem α α1 αm := ··· . β β1 βm Bemerkung 5.15 Für U wie oben und r ∈ N0 schreiben wir C r (U, Rn ) für den Vektorraum alle Funktionen f : U → Rm , die partiell C r sind.26 Für r ∈ N und i ∈ {1, . . . , m} können wir die Abbildung ∂ : C r (U, Rn ) → C r−1 (U, Rn ), ∂xi 26 f 7→ ∂f ∂xi Mit C 0 -Funktionen meinen wir stetige Funktionen, und setzen 80 ∂0f ∂x0 := f . betrachten. Dies ist ein Beispiel eines sogenannten Differentialoperators, der einer Funktion (in diesem Fall) eine ihrer partiellen Ableitungen zuordnet. Die Notation ist nützlich im folgenden Beweis (der in der Vorlesung übersprungen und Ihnen als Übung anvertraut wurde). Folgerung 5.16 Es sei U ⊆ Rm offen und f : U → Rm partiell C k . Ist ` ∈ N mit ` ≤ k und sind i1 , . . . , i` ∈ {1, . . . , m}, so gilt ∂ `f ∂ `f = ∂xi1 · · · ∂xi` ∂xiσ(1) · · · ∂xiσ(`) für jede Permutation σ : {1, . . . , `} → {1, . . . , `}. Beweis. Für j ∈ {1, . . . , m} sei αj die Anzahl der a ∈ {1, . . . , `} mit ia = j. Wir setzen α = (α1 , . . . , αm ). Dann ist αj auch gleich der Zahl der a ∈ {1, . . . , `} mit iσ(a) = j. Es genügt daher zu zeigen, dass ∂ ∂ αf ∂ ··· f= . ∂xi1 ∂xi` ∂xα (48) Wir zeigen (48) per Induktion nach |α| = `. Für ` = 1 ist nichts zu zeigen (es gibt dann nur die identische Abbildung als Permutation). Wir setzen β := (β1 , . . . , βm ), wobei βj die Zahl der a ≥ 2 mit ia = j ist. Da |β| = ` − 1, gilt per Induktion dann ∂ ∂ ∂β f . ··· f= ∂xi2 ∂xi` ∂xβ Nach dem Satz von Schwarz können wir ∂ ∂x1 ∂ ∂ ∂xi1 von links nach rechts nacheinan- der mit (β1 mal), . . ., ∂xi −1 (βi1 −1 mal) vertauschen, ohne die partielle 1 Ableitung zu ändern, und erhalten ∂ ∂ ∂ ∂ ∂β f ··· f = ∂x1 ∂xi2 ∂xi` ∂x1 ∂xβ ∂ ∂ β1 ∂ βi1 −1 ∂ βi1 ∂ βm = · · · f · · · β β ∂xi1 ∂xβ1 1 ∂xβmm ∂x i1 −1 ∂x i1 i1 −1 = ∂1β ∂xβ1 1 α ··· ∂ f = , ∂xα 81 i1 βi1 −1 βi 1 i1 −1 i1 ∂ ∂ ∂ βm · · · f β β ∂xβmm ∂x i1 −1 ∂xi1 ∂x i1 ∂ 2 da α = β + ei1 . Satz 5.17 Es seien U ⊆ Rm offen und f : U → R, g, h : U → Rn partiell C k und λ, µ ∈ R. Dann gilt: (a) Die Linearkombination λg + µh ist partiell C k , mit ∂α ∂ αg ∂ αh (λg + µh) = λ α = µ α ∂xα ∂x ∂x (49) für alle α ∈ Nm 0 mit |α| ≤ k. (b) Das Produkt f g : U → Rn , x 7→ f (x)g(x) ist partiell C k und ∂ α (f g) X α ∂ β f ∂ α−β g = β ∂xα ∂xβ ∂xα−β β≤α (50) m für alle α ∈ Nm 0 mit |α| ≤ k, wobei die Summation über alle β ∈ N0 mit β ≤ α erfolgt. So sieht also die Leibnizregel aus im Falle von Funktionen mehrerer Variablen. Beweis. (a) Für Funktionen einer Variablen kennen wie dies aus Analysis 1. Sind g und h partiell C 1 , so existiert nach Bemerkung 5.3 jede partielle Ableitung von λg + µh erster Ordnung und es ist ∂g ∂h ∂ (λg + µh) = λ =µ . ∂xi ∂xi ∂xi (51) Als Linearkombination stetiger Funktionen ist ∂x∂ i (λg + µh) stetig. Also ist λg + µh partiell C 1 . Für einen Induktionsbeweis nehmen wir an, dass k ≥ 2 und die Aussage bereits für k − 1 statt k gilt. Per Induktionsannahme ist ∂x∂ i (λg + µh) wegen der Summengestalt aus (51) partiell C k−1 , somit λg + µh partiell C k . Per Induktionsannahme gilt weiter (49) für alle α = (α1 , . . . , αm ) ∈ Nm 0 mit |α| ≤ k − 1. Ist |α| = k, so gibt es ein i ∈ {1, . . . , m} mit αi > 0 (und wir wählen i kleinstmöglich). Somit ist auch β := α − ei ∈ Nm 0 . Per Induktionannahme gilt bereits ∂β ∂β g ∂β h (λg + µh) = λ = µ . ∂xβ ∂xβ ∂xβ 82 Leiten wir beide Seiten nochmals partiell nach xi ab, so ergibt sich (49) für α. (b) Da sich partielle Ableitungen komponentenweise berechnen lassen, dürfen wir n = 1 annehmen, d.h. f und g sind reellwertige Funktionen. Sei α = (α1 , . . . , αm ) ∈ Nm 0 . Da sich partielle Ableitungen nach xm als gewöhnliche Ableitungen bei festgehaltenen übrigen Variablen interpretieren lassen (siehe Bemerkung 5.3), liefert die gewöhnliche Leibnizregel der Analysis 1: αm X ∂ αm αm ∂ βm f ∂ αm −βm g . (52) (f g) = βm ∂xαmm ∂xβmm ∂xαmm −βm βm =0 Wir zeigen nun nacheinander für j = m, j = m − 1, . . ., j = 1, dass αj αm X X ∂ αj ∂ αm αj αm (f g) = ··· ··· α ··· βj βm ∂xαmm ∂xj j βj =0 βm =0 ! ! ∂ βm ∂ αm −βm ∂ βj ∂ αj −βj · · · βm f · · · αm −βm g . (53) · β α −β ∂xm ∂xm ∂xj j ∂xj j j Gelingt dies, so haben wir insbesondere für j = 1 α1 αm X X ∂ αm ∂ α1 α1 αm · · · αm (f g) = ··· ··· β1 βm ∂xα1 1 ∂xm β1 =0 βm =0 α1 −β1 β1 ∂ ∂ ∂ βm ∂ αm −βm · · · · βm f · · · αm −βm g . ∂xβ1 1 ∂xm ∂xα1 1 −β1 ∂xm Dies ist genau (50). Da alle partiellen Ableitungen bis zur Ordnung k existieren und durch (50) gegeben (und somit stetig) sind, ist f g eine C k Funktion und der Beweis beendet. lediglich (53) ist noch zu begründen. Für j = m wurde die Formel in (52) bereits gezeigt. Gilt die Formel für j +1 statt j, so können wir wie beim Beweis von (52) alle Variablen außer xj festhalten in αj+1 αm X X ∂ αm ∂ αj+1 αj+1 αm (f g) = ··· ··· αj+1 · · · βj+1 βm ∂xαmm ∂xj+1 βj+1 =0 βm =0 ! ! βj+1 βm αj+1 −βj+1 αm −βm ∂ ∂ ∂ ∂ · · · βm f · · · αm −βm g · βj+1 αj+1 −βj+1 ∂xm ∂xm ∂xj+1 ∂xj+1 83 und αj mal nach xj ableiten. Mit der Leibnizregel für Funktionen einer Variablen erhalten wir daraus (53) für das gegebene j. 2 P α Beispiel 5.18 Polynomfunktionen p : Rm → R, p(x) = |α|≤` aα x sind partiell C k für alle k ∈ N (also partiell C ∞ ). Zum Beweis beobachten wir ∂c zunächst, dass die partiellen Ableitungen ∂x = 0 einer konstanten Funktion i k−1 wieder konstant sind, also partiell C per Induktion, somit die konstante ∂ prj k Funktion x 7→ c partiell C . Da ∂xi = δi,j konstant und somit C k−1 ist, ist weiter prj : Rm → R, x 7→ xj partiell C k und somit auch jedes Monom q : x 7→ xα nach Satz 5.17 (b), weil ja q = prα1 1 · . . . · prαmm . Nun ist aber eine allgemeine Polynomfunktion p eine Linearkombination von Monomen xα , somit partiell C k nach Satz 5.17 (a). Der folgende Satz wir im nächsten Kapitel bewiesen. Mit unseren momentanen Begriffen wäre das sehr mühsam. Einfacher ist es, dort mit einem Begriff von totalen (statt nur partiellen) Ableitungen zu arbeiten. Satz 5.19 Es seien U ⊆ Rm und V ⊆ Rn offen und f : V → R` sowie g = (g1 , . . . , gn ) : U → Rn stetig partiell differenzierbare Funktionen derart, dass g(U ) ⊆ V . Dann ist auch die Komposition f ◦ g : U → R` , x 7→ f (g(x)) stetig partiell differenzierbar, und für alle i ∈ {1, . . . , m und x ∈ U gilt n X ∂f ∂g ∂(f ◦ g) (x) = (g(x)) (x) ∂xi ∂xj ∂xj j=1 (wobei wir uns der schöneren Schreibweise wegen erlauben, Vektoren von rechts mit Skalaren zu multiplizieren). Folgerung 5.20 Sind f und g partiell C k in der Situation von Satz 5.19, so ist auch f ◦ g partiell C k . Beweis. Wir beweisen die Aussage per Induktion nach k ∈ N. Für k = 1 gilt sie nach Satz 5.19. Ist k ≥ 2 und gilt die Aussage für k − 1 statt k, so ist f ◦ g nach Satz 5.19 partiell C 1 und n ∂g ∂(f ◦ g) X ∂f = ◦g ∂xi ∂xj ∂xj j=1 84 (54) für alle i ∈ {1, . . . , m}. Da g und ∂f ∂xj partiell C k−1 sind, ist ∂f ◦g ∂xj nach Induktionsannahme partiell C k−1 . Nach Satz 5.17 (b) ist nun auch ∂g ∂f k−1 ◦ g ∂xj partiell C und also auch die Summe (54), nach Satz 5.17 (a). ∂xj 2 Beispiel 5.21 Jede rationale Funktion in mehreren Variablen ist partiell C ∞ . Seien nämlich p, q : Rn → R Polynomfunktionen mit q 6= 0. Dann ist U := {x ∈ Rn : q(x) 6= 0} = q −1 (R \ {0}) eine offene Teilmenge von Rn . Da die Funktion ι : R \ {0} → R, y 7→ 1 y C ∞ ist (wie wir aus der Analysis 1 wissen) und somit (was bei Funktionen einer Variablen das gleiche ist) partiell C ∞ , ist nach der Kettenregel die Funktion 1 ι ◦ q|U : U → R, x 7→ q(x) partiell C ∞ . Also ist auch das Produkt U → R, x 7→ p(x) 1 = p(x) q(x) q(x) partiell C ∞ , nach Satz 5.17. Beispiel 5.22 Den Raum Mn (R) = Rn×m der reellen (n × n)-Matrizen können wir mit Rnm identifizieren, indem wir die Matrixeinträge in einer festen Reihenfolge auflisten. Mit dieser Identifizierung gilt: Die Menge GLn (R) aller invertierbaren (n × n)-Matrizen ist offen in Mn (R) und die Abbildung η : GLn (R) → Mn (R), A 7→ A−1 , die einer invertierbaren Matrix ihre Inverse zuordnet, ist partiell C ∞ . 85 Die Determinante det : Mn (R) → R ist nämlich ein Polynom in den Matrixeinträgen, somit stetig und folglich ist GLn (R) = {A ∈ Mn (R) : det(A) 6= 0} = det−1 (R \ {0}) offen in Mn (R). Die Abbildung η ist partiell C ∞ , wenn jede ihrer Komponenten es ist. Nun kann jedoch ein gegebener Matrixeintrag der inversen Matrix A−1 nach der Cramerschen Regel ausgedrückt werden als Quotient zweier Determinanten von Matrizen gebildet aus Einträgen von A (und Einsen und Nullen und Vorzeichen); er ist somit eine rationale Funktion in A und somit partiell C ∞ nach dem vorigen Beispiel. Es ist nicht sehr natürlich, lediglich (für partielle Ableitungen) in Richtung der Koordinatenachsen abzuleiten. Allgemeiner kann man auch Richtungsableitungen in anderen Richtungen betrachten. Definition 5.23 Es sei U ⊆ Rm offen und f : U → Rm eine Funktion. Sei x ∈ U und y ∈ Rm . Wir definieren die Richtungsableitung (Dy f )(x) von f an der Stelle x in Richtung y als 1 (Dy f )(x) := lim (f (x + ty) − f (x)) ∈ Rn t→0 t (mit t 6= 0), wann immer der Grenzwert existiert. Analog kann man (Dy f )(x) ∈ F definieren, wenn Rm und Rn durch normierte Räume (E, k.kE ) und (F, k.kF ) ersetzt werden. Die folgende Beobachtung erleichtert uns spter einmal einen Beweis. Bemerkung 5.24 In der Definition 5.5 stetig partiell differenzierbarer Abbildungen hätten wir die Stetigkeit von f nicht verlangen müssen, diese folgt aus den anderen Annahmen. Genauer: Ist U ⊆ Rm offen und f : U → Rn eine Abbildung derart, dass die partiellen ∂f : U → Rn für alle i ∈ {1, . . . , m} existieren und stetig sind, Ableitungen ∂x i so ist auch f stetig und somit f partiell C 1 . Wir könnten dies jetzt per Hand nachrechnen, jedoch folgt die Aussage auch aus späteren Resultaten (und dann können Sie hierher noch einmal zurückkehren). Aus den Voraussetzungen folgt nämlich, dass f an jeder Stelle total differenzierbar ist (für diesen Beweisteil von Satz 6.12 wird die Stetigkeit von f nicht benutzt) und somit stetig, nach Bemerkung 6.2 (c). 86 6 Differenzierbarkeit In diesem Kapitel lernen wir einen sehr natürlichen, Koordinaten-unabhängigen Ableitungsbegriff (der totalen Ableitung) kennen. Die Kettenregel ist für diesen einfach zu beweisen. Jenseits von Funktionen mehrerer reeller Variablen können sogar Abbildungen zwischen offenen Teilmengen von normierten Räumen behandelt werden. Im endlich-dimensionalen Fall stellen wir die Verbindung zu partiellen Ableitungen her. Eine zentrale Grundidee der Differentialrechung für Funktionen einer Variablen war, eine Funktion f um eine Stelle x durch eine affin-lineare Funktion (die Tangente an den Graphen von f ) zu approximieren. Wir haben gesehen, dass die Differenzierbarkeit von f in x äquivalent ist zur Existenz einer affin-linearen Approximation von f um x. Im Falle von Funktionen mehrerer Variablen benutzen wir letztere als Definition von Differenzierbarkeit: Definition 6.1 Es seien (E, k.kE ) und (F.k.kF ) normierte Räume,27 U ⊆ E eine offene Menge, f : U → F eine Abbildung und x ∈ U . Ist A : E → F eine stetige lineare Abbildung (also A ∈ L(E, F )), so gilt (∀y ∈ U ) f (y) = f (x) + A(y − x) + R(y) (55) mit R(y) := f (y) − f (x) − A(y − x). Dann ist also R(x) = 0. Kann A ∈ L(E, F ) so gewählt werden, dass28 R(y) = 0 in F , y→x ky − xkE lim (56) so nennen wir f (total) differenzierbar an der Stelle x. Bemerkung 6.2 (a) Die Bedingung (56) bedeutet, dass lim y→x kR(y)kF = 0. ky − xkE (57) In der Literatur gibt es hierfür auch die Kurzschreibweise R(y) = o(ky − xk) (Landausches klein-o-Symbol). 27 28 Zum Beispiel E = Rm und F = Rn . Für y 6= x. 87 (b) Ist f an der Stelle x differenzierbar, so ist A ∈ L(E, F ) durch (55) und (56) eindeutig festgelegt, denn wir zeigen, dass für alle u ∈ E 1 A(u) = lim (f (x + tu) − f (x)) = (Du f )(x) t→0 t (58) gleich der Richtungsableitung von f in x in der Richtung u ist. Dies ist klar, wenn u = 0 (dann ist A(u) = 0 = (D0 f )(x)). Ist u 6= 0, so gilt R(tu) 1 kR(x + tu)kF (f (x + tu) − f (x)) − A(u) = t = kukE t ktukE F F kR(x + tu)kF = kukE →0 k(x + tu) − xkE für t → 0 (nach (a)), somit (wie benötigt) 1t (f (x + tu) − f (x)) → A(u). Fortan – nachdem die Eindeutigkeit geklärt ist – schreiben wir f 0 (x) := A. Dann ist also f 0 (x) die eindeutige stetige lineare Abbildung E → F mit f (y) = f (x) + f 0 (x)(y − x) + R(y) (59) und (56). Wir nennen die lineare Abbildung f 0 (x) : E → F die (totale) Ableitung von f an der Stelle x. Weiter nennen wir die Funktion E → F, y 7→ f (x) + f 0 (x)(y − x) die affin-lineare Approximation von f um die Stelle x. Aus (58) wird die wichtige und nützliche Formel (∀u ∈ E) f 0 (x)(u) = (Du f )(x). (60) (c) Ist f an der Stelle x total differenzierbar, so ist f an der Stelle x stetig. Denn für y → x mit y 6= x gilt kf (y) − f (x)kF = kf 0 (x)(y − x) + R(y)kF ≤ kf 0 (x)(y − x)kF + kR(y)kF kR(y)kF →0 ≤ kf 0 (x)kop ky − xkE + ky − xkE ky − xkE (da alle drei Bestandteile gegen 0 gehen, siehe (a)). 88 (d) Ist E = Rm und F = Rn , so ist f = (f1 , . . . , fn ) und wir erhalten wir nach (60) für den Standard-Einheitsvektor ej von Rm ∂f1 (x) ∂xj ∂f .. f 0 (x)(ej ) = (Dej f )(x) = (x) = . . ∂xj ∂fn (x) ∂xj Die lineare Abbildung f 0 (x) : Rm → Rn entspricht bezüglich den StandardBasen also der (n × m)-Matrix ∂f1 ∂f1 ∂f1 (x) ∂x (x) · · · ∂x (x) ∂x1 m 2 ∂f2 (x) ∂f2 (x) · · · ∂f2 (x) ∂x2 ∂xm Jf (x) := ∂x1. , .. .. .. . . ∂fn (x) ∂x1 ∂fn (x) ∂x2 ··· ∂fn (x) ∂xm der sogenannten Jacobi-Matrix. Schreibt man Vektoren aus Rm und Rn als Spaltenvektoren, so wird aus (59) f (y) = f (x) + Jf (x)(y − x) + R(y), wobei die Matrix und der Spaltenvektor in der üblichen Art und Weise multipliziert werden. (e) Ist f : U → F an jeder Stelle x ∈ U differenzierbar und die Abbildung f 0 : U → (L(E, F ), k.kop ), x 7→ f 0 (x) stetig, so nennen wir f stetig differenzierbar oder (kurz) eine C 1 -Funktion. Beispiele 6.3 (a) Jede konstante Funktion f : E → F zwischen normierten Räumen ist an jeder Stelle x ∈ E differenzierbar mit f 0 (x) = 0, denn es ist f (y) = c = f (x) = f (x) + 0(y − x) + R(y) mit R(y) = 0. Da die konstante Funktion f 0 : E → L(E, F ), ist, ist f stetig differenzierbar. x 7→ 0 stetig (b) Jede stetige lineare Abbildung λ : E → F zwischen normierten Räumen ist an jeder Stelle x ∈ E differenzierbar mit λ0 (x) = λ, denn wegen der Linearität ist λ(y) = λ(x) + λ(y − x) = λ(x) + λ(y − x) + R(y) 89 mit R(y) = 0. Da die konstante Funktion λ0 : E → L(E, F ), x 7→ λ stetig ist, ist λ stetig differenzierbar. (c) Seien (E1 , k.k1 ), (E2 , k.k2 ) und (F, k.kF ) normierte Räume und β : E1 × E2 → F, (x1 , x2 ) 7→ β(x1 , x2 ) eine stetige bilineare Abbildung. Dann ist β an jeder Stelle x = (x1 , x2 ) differenzierbar, denn für alle y = (y1 , y2 ) ∈ E1 × E2 gilt β(y) = β(y1 , y2 ) = β(x1 + (y1 − x1 ), x2 + (y2 − x2 )) = β(x1 , x2 ) + β(x1 , y2 − y1 ) + β(y1 − x1 , x2 ) + β(y1 − x1 , y2 − x2 ) = β(x) + A(y − x) + R(y) mit der linearen Abbildung A : E1 × E2 → F, z = (z1 , z2 ) → β(x1 , z2 ) + β(z1 , x2 ) und R(y) := β(y1 − x1 , y2 − x1 ). Die lineare Abbildung A ist stetig, da kA(z)kF ≤ kβ(x1 , z2 )kF + kβ(z1 , x2 )kF ≤ kβkop kx1 k1 kz2 k2 + kβkop kz1 k1 kx2 k2 ≤ kβkop (kx1 k1 + kx2 k2 ) max{kz1 k1 , kz2 k2 } = Ckzk (61) mit C := kβkop (kx1 k1 + kx2 k2 ) und kzk := max{kz1 k1 , kz2 k2 }. Weiter gilt kR(y)kF ky − xk kβkop ky1 − x1 k1 ky2 − x2 k2 ky − xk kβkop ky − xk2 ≤ = kβkop ky − xk → 0 ky − xk ≤ für y → x. Also ist β an der Stelle x differenzierbar mit β 0 (x) = A, d.h. es ist β 0 (x)(z) = β(x1 , z1 ) + β(z1 , x2 ). Da β bilinear ist, ist β 0 (x)(z) linear in x (wie die vorige Formel zeigt), also β 0 : E1 × E2 → L(E1 , ×E2 , F ), x 7→ β 0 (x) eine lineare Abbildung. Diese ist stetig, denn nach (61) ist kβ 0 (x)kop ≤ kβkop (kx1 k1 + kx2 k2 ) ≤ 2kβkop kxk und somit kβ 0 kop ≤ 2kβkop . Also ist β stetig differenzierbar. 90 Bemerkung 6.4 Ist eine reellwertige Funtion f : U → R an der Stelle x ∈ ∂f ∂f (x) . . . ∂x (x)) eine (1×n)-Matrix, U ⊆ Rn differenzierbar, so ist Jf (x) = ( ∂x n 1 die wir mit dem sogenannten Gradienten (grad f )(x) := (∇f )(x) := ∂f ∂x1 (x), . . . , ∂f (x) ∈ Rn ∂xn identifizieren können.29 Der Gradient zeigt in die Richtung des steilsten Anstiegs. Satz 6.5 Es sei U ⊆ Rn offen und f : U → R eine Funktion, die an der Stelle x ∈ U differenzierbar ist, mit ∇f (x) 6= 0. Die Richtungsableitung Du f (x) in Richtung eines auf kuk2 = 1 normierten Vektors ist genau dann maximal, wenn 1 u= ∇f (x). k∇f (x)k2 In Gegenrichtung wird die Richtungsableitung minimal. Beweis. Die Richtungsableitung ist Du f (x) = f 0 (x)(u) = Jf (x)u = h∇f (x), ui. Nach der Cauchy-Schwarzschen Ungleichung ist |Du f (x)| = |h∇f (x), ui| ≤ k∇f (x)k2 kuk2 = k∇f (x)k2 wobei Gleichheit genau dann gilt, wenn u und ∇f (x) kollinear sind. Ist u = k∇f (x)k−1 2 ∇f (x), so ist ∇f (x), ui = k∇f (x)k2 der maximale Wert und für u = −k∇f (x)k−1 2 ∇f (x) erhalten wir das Minimum h∇f (x), ui = −k∇f (x)k2 . 2 29 Das Symbol ∇ wird ”Nabla” ausgesprochen. 91 Satz 6.6 Es seien (X, k.kX ), (Y, k.kY ) und (Z, k.kZ ) normierte Räume, U ⊆ X und V ⊆ Y offene Mengen und x ∈ U . Ist g : U → Y eine an der Stelle x differenzierbare Funktion mit g(U ) ⊆ V und f : V → Z, y 7→ f (y) an der Stelle g(x) differenzierbar, so ist f ◦ g : U → Z, y 7→ f (g(y)) an der Stelle x differenzierbar und (f ◦ g)0 (x) = f 0 (g(x)) ◦ g 0 (x). (62) Beweis. Wir können den Beweis der Kettenregel aus Analysis 1 wörtlich wiederholen, es ist lediglich überall der Betrag |.| durch die entsprechende Norm k.kX , k.kY bzw. k.kZ zu ersetzen. Sollten Sie nicht in meiner Analysis 1 gewesen sein, so können Sie den Beweis zum Beispiel in Otto Forsters Buch “Analysis 2” nachlesen. 2 Beispiel 6.7 Wenn X = Rn , Y = Rm , Z = R` , so entspricht g 0 (x) der Matrix Jg (x) und f 0 (g(x)) der Matrix Jf (g(x)). Aus der linearen Algebra wissen wir, dass die Komposition linearer Abbildungen dem Matrixprodukt entspricht. Aus (62) ergibt sich also die Formel Jf ◦g (x) = Jg(x) (f )Jf (x) für die Jacobimatrizen, wobei auf der rechten Seite das Matrixprodukt verwendet wird. Bemerkung 6.8 Ist X = Rm in der Situation von Satz 6.6, so erhalten mit Bemerkung 6.2 (d) und Satz 6.6 ∂g ∂(f ◦ g) (x) = (f ◦ g)0 (x)(ei ) = f 0 (g(x))(g 0 (x)(ei )) = f 0 (g(x)) (x) ∂xi ∂xi mit den Standard-Basivektoren e1 , . . . , em für Rm , also ∂g ∂(f ◦ g) (x) = f 0 (g(x)) (x) . ∂xi ∂xi (63) P Ist zudem Y = Rn , so schreiben wir g = (g1 , . . . , gn ), also g(x) = nj=1 gj (x)ej (wobei jetzt e1 , . . . , en die Standard-Basisvektoren für Rn sind). Dann ist n ∂g ∂g ∂gn X ∂gj 1 (x) = (x), . . . , (x) = (x)ej ∂xi ∂xi ∂xi ∂xi j=1 92 und wir erhalten durch Einsetzen in (63) n ∂g X ∂(f ◦ g) ∂gj 0 0 (x) = f (g(x)) (x) = f (g(x)) (x)ej ∂xi ∂xi ∂xi j=1 = n X ∂gj j=1 ∂xi (x) f 0 (g(x))(ej ) . | {z } ∂f (g(x)) = ∂y j Also gilt n n X ∂gj X ∂f ∂(f ◦ g) ∂f ∂gj (x) = (x) (g(x)) = (g(x)) (x) ∂xi ∂xi ∂yj ∂yj ∂xi j=1 j=1 (64) (wobei wir uns für die Endformel gestatten, Vektoren von Rechts mit Skalaren zu multiplizieren). Definition 6.9 Es seien (E, k.kE ) und (F, k.kF ) normierte Räume und U ⊆ E eine offene Menge. Eine Abbildung f: U →F wird stetig differenzierbar (oder kurz: C 1 ) genannt, wenn f an jeder Stelle x ∈ U differenzierbar (somit insbesondere f stetig) ist und die Abbildung f 0 : U → (L(E, F ), k.kop ), x 7→ f 0 (x) stetig ist. Ist f stetig, so nennen wir f eine C 0 -Abbildung. Rekursiv nennen wir f eine C k -Abbildung (für eine natürliche Zahl k ≥ 2) wenn f eine C 1 Funktion und f 0 : U → (L(E, F ).k.kop ) eine C k−1 -Funktion ist. Wir nennen f eine C ∞ -Funktion oder glatt, wenn f eine C k -Funktion ist für alle k ∈ N0 . Beispiele 6.10 (a) Jede konstante Abbildung f : E → F zwischen normierten Räumen ist glatt, denn f ist C k für alle k ∈ N0 per Induktion: k = 0: Als konstante Funktion ist f stetig, also C 0 . Sei nun k ≥ 1. Nach Beispiel (6.3) (a) ist f an jeder Stelle x differenzierbar, mit f 0 (x) = 0. Als konstante Funktion ist f 0 stetig, somit f eine C 1 -Funktion. Per Induktionsvoraussetzung ist die konstante Funktion f 0 eine C k−1 -Funktion, somit f eine C k -Funktion. 93 (b) Jede stetige lineare Abbildung λ : E → F zwischen normierten Räumen ist glatt. Nach Beispiel 6.3) (b) ist λ an jeder Stelle x ∈ E differenzierbar, mit λ0 (x) = λ. Als konstante Funktion ist λ0 stetig, somit λ eine C 1 -Funktion. Da nach (a) die konstante Funktion λ0 glatt ist und somit C k für alle k ∈ N0 , ist λ eine C k+1 -Funktion für alle k ∈ N0 und somit glatt. (c) Jede stetige bilineare Abbildung β : E1 ×E2 → F zwischen normierten Räumen ist glatt. Wir haben in Beispiel 6.3 (c) nämlich schon gesehen, dass β an jeder Stelle differenzierbar und β 0 eine stetige lineare Abbildung ist und somit glatt nach (b). Wie in (b) schließen wir, dass β glatt ist. Lemma 6.11 Es seien E, F1 und F2 normierte Räume, U ⊆ E offen, k ∈ N0 und λ : F1 → F2 eine bijektive stetige lineare Abbildung mit stetiger Umkehrfunktion. Dann gilt: Eine Abbildung f : U → F1 ist genau dann C k , wenn λ ◦ f eine C k -Abbildung ist. Beweis. Da wir λ◦f und λ−1 die Rollen von f und λ spielen können, genügt es zu zeigen: Ist f eine C k -Abbildung, so ist auch λ ◦ f eine C k -Abbildung. Für k = 0 ist dies klar, denn ist f stetig, so auch λ ◦ f . Ist nun k ≥ 1 und gilt die Aussage für k − 1 statt k, so sei f eine C k -Funktion. Da λ eine C 1 -Funktion mit λ0 (y) = λ (für alle y ∈ E1 ) ist, ist nach der Kettenregel λ ◦ f an jeder Stelle x ∈ U differenzierbar mit (λ ◦ f )0 (x) = λ0 (f (x)) ◦ f 0 (x) = λ ◦ f 0 (x) = λ∗ (f 0 (x)) = (λ∗ ◦ f 0 )(x) mit der Abbildung λ∗ : L(E, F1 ) → L(E, F2 ) A 7→ λ ◦ A. Man beachte, dass λ∗ linear ist. Weiter ist kλ∗ (A)kop = kλ ◦ Akop ≤ kλkop kAkop ≤ kλkop für alle A ∈ L(E, F1 ) with kAkop ≤ 1, somit kλ∗ kop ≤ kλkop < ∞ und somit die lineare Abbildung λ∗ stetig. Da f 0 eine C k−1 -Abbildung und λ∗ stetig linear ist, ist per Induktionsvoraussetzung (λ ◦ f )0 = λ∗ ◦ f 0 94 eine C k−1 -Abbildung (also insbesondere stetig). Somit ist λ ◦ f eine C 1 Funktion und (λ ◦ f )0 eine C k−1 -Funktion, folglich λ ◦ f eine C k -Funktion. 2 Satz 6.12 Es sei U ⊆ Rm offen, k ∈ N0 und f = (F1 , . . . , fn ) : U → Rn eine Abbildung. Dann sind äquivalent: (a) f ist C k ; (b) f ist partiell C k . Beweis. Der Beweis ist per Induktion nach k ∈ N0 . Für k = 0 bedeutet C 0 und partiell C 0 beides das gleiche, nämlich Stetigkeit von f . Sei nun k ≥ 1 und gelte die Aussage für k − 1 an Stelle von k. Ist f eine C k -Abbildung, so ist insbesondere f eine C 1 -Abbildung und somit existieren die partiellen ∂fi (x) für alle i ∈ {1, . . . , n}, j ∈ {1, . . . , m} und x ∈ U (siehe Ableitungen ∂x j obige Diskussion der Jacobi-Matrix). Wir können mittels der Standardbasen L(Rm , Rn ) mit Rn×m identifizieren und somit (indem wir die Matrixeinträge in einer festen Reihenfolge auflisten) mit Rnm . Sei λ : L(Rm , Rn ) → Rnm der so erhaltene Isomorphismus von Vektorräumen. Da alle Normen auf endlich-dimensionalen Vetorräumen äquivalent sind, sind λ und λ−1 stetig.30 Da nun f 0 eine C k−1 -Abbildung ist, ist λ ◦ f 0 eine C k−1 -Abbildung (nach dem vorigen Lemma), also partiell C k−1 (per Induktionsannahme) und somit sind alle Komponenten von λ ◦ f 0 partiell C k−1 . Dies sind genau die Funktionen ∂fi . Insbesondere sind diese stetig, also ist f partiell C 1 und alle partiellen ∂xj Ableitungen sind partiell C k−1 , womit f partiell C k ist. Ist umgekehrt f partiell C k mit k ≥ 1 und x = (x1 , . . . , xm ) ∈ U , so gibt es (da U offen ist und alle partiellen Ableitungen stetig) zu ε > 0 ein δ > 0 derart, dass die Kugel Bδ (x) := {y ∈ Rm : ky − xk∞ < δ} in U enthalten ist und ∂f ∂f (y) − (x) < ε ∂xj ∂xj ∞ 30 x 7→ kλ−1 (x)kop ist äquivalent zu k.k∞ auf Rnm . Also gibt es C1 , C2 > 0 mit C1 kλ−1 (x)kop ≤ kxk∞ ≤ C2 kλ−1 (x)kop . Daraus folgt kλ−1 kop ≤ C1−1 < ∞ und (indem wir x = λ(y) einsetzen) kλ(y)k∞ ≤ C2 kykop und somit kλkop ≤ C2 < ∞. 95 für alle y ∈ Bδ (x) und j ∈ {1, . . . , m}. Für alle y = (y1 , . . . , ym ) ∈ Bδ (x) haben wir f (y) = f (x) + = f (x) + m X j=1 m X (f (y1 , . . . , yk , xj+1 , . . . , xm ) − f (y1 , . . . , yj−1 , xj , . . . , xm )) Z (yj − xj ) 0 j=1 1 ∂f (y1 , . . . , yj−1 , xj + t(yj − xj ), xj+1 , . . . , xm ) dt, ∂xj wobei Bemerkung 5.7 benutzt wurde. Sei nun A : Rm → Rn die lineare Abbildung u1 m X ∂f .. u = . 7→ uj (x). ∂xj j=1 um Für y wie zuvor ist dann f (y) = f (x) + A(y − x) + R(y) mit R(y) := f (y) − f (x) − A(y − x) Z 1 m X ∂f = (yj − xj ) (y1 , . . . , yj−1 , xj + t(yj − xj ), xj+1 , . . . , xm ) dt ∂x j 0 j=1 − m X (yj − xj ) j=1 ∂f (x), ∂xj was sich zusammenfassen lässt in der Form Z 1 m X ∂f ∂f (yj −xj ) (y1 , . . . , yj−1 , xj + t(yj − xj ), xj+1 , . . . , xm ) − (x) dt. ∂xj ∂xj 0 j=1 Somit ist Z 1 m X ∂f kR(y)k∞ |yj − xj | ∂f ≤ (y1 , . . . , yj−1 , xj + t(yj − xj ), xj+1 , . . . , xm ) − (x) dt ky − xk∞ ky − xk ∂x ∂x ∞ j j 0 ∞ j=1 | {z } | {z } ≤1 ≤ε ≤ mε. 96 Wir haben gezeigt, dass R(y) = 0. y→x ky − xk∞ lim Also ist f an der Stelle x total differenzierbar mit f 0 (x) = A. Da (λ ◦ f 0 )(x) i die Komponenten ∂f (x) hat und diese partiell C k−1 sind, ist λ ◦ f 0 partiell xj C k−1 , also C k−1 per Induktionsvoraussetzung. Nach Lemma 6.11 ist dann auch f 0 eine C k−1 -Abbildung, insbesondere also stetig. Somit ist f eine C 1 -Abbildung derart, dass f 0 eine C k−1 -Abbildung ist und somit ist f eine C k -Abbildung. 2 Beweis der Kettenregel aus dem vorigen Kapitel (Satz 5.19). Sind f und g partiell C 1 , so sind sie nach Satz 6.12 auch C 1 . Nach der Kettenregel ist f ◦ g somit C 1 und nach Satz 6.12 folglich partiell C 1 . Schließlich gilt nach (64) die gewünschte Formel für die partiellen Ableitungen von f ◦ g. 2 Bemerkung 6.13 Solange wir nur im Endlich-Dimensionalen arbeiten (also Abbildungen zwischen offenen Mengen in Rm und Rn betrachten) werden wir im folgenden meist nicht mehr zwischen C k -Funktionen unterscheiden und Funktionen, die partiell C k sind (da beide Eigenschaften äquivalent sind, nach Satz 6.12). Bemerkung 6.14 Sind U ⊆ R und V ⊆ Rn offen, γ = (γ1 , . . . , γn ) : U → Rn , t 7→ γ(t) stetig differenzierbar mit γ(U ) ⊆ V und ist f : V → Z, y 7→ f (y) eine stetig differenzierbare Funktion in einen normierten Raum Z, so ist γ eine Funktion einer rellen Variablen t = x1 und aus (64) wird n X ∂f γj d(f ◦ γ) (t) = (γ(t)) (t). dt ∂yj dt j=1 (65) Diese Formel gilt auch dann, wenn U ⊆ R ein nicht offenes nicht entartetes Intervall und γ ein C 1 -Weg ist. Wir machen uns dies klar, wenn U = [a, b]. Wir finden ein ε > 0 derart, dass γ(b) + s dγ (b) ∈ V dt 97 für alle s ∈ [0, ε[, denn diese Funktion ist stetig in s und V offen in Rn . Nach (a) ∈ V für alle s ∈ ]−ε, 0]. Dann Verkleinern von ε > 0 gilt zudem γ(a) + s dγ dt ist η : ]a − ε, b + ε[ → Rn , dγ γ(a) + (t − a) dt (a) wenn t ≤ a γ(t) wenn t ∈ [a, b] η(t) := dγ γ(b) + (t − b) dt (b) wenn t ≥ b ein C 1 -Weg (wobei benutzt wird, dass an den Schnittstellen a und b die rechts- und linksseitige Ableitung gleich, somit Differenzierbarkeit gegeben ist). Die Kettenregel lässt sich auf f ◦ η anwenden und wir erhalten für alle t ∈ ]a − ε, b + ε[ nach (65) n X ∂f dηj d(f ◦ η) (t) = (η(t)) (t). dt ∂y dt j j=1 Ist t ∈ [a, b], so ist η(t) = γ(t) und wird also (65) für f ◦ γ. dηj (t) dt = dγj (t); dt aus der vorigen Formel Bemerkung 6.15 Ist U ⊆ R ein offenes Intervall und γ : U → Rn ein C 1 Weg, so habe wir zwei Bedeutungen für γ 0 (t): Zunächst haben wir wie im Kapitel über Wege den Tangentenvektor γ 0 (t) = 1 dγ (t) = lim (γ(s) − γ(t)) ∈ Rn s→t dt s−t (mit s 6= t), für den wir im weiteren Verlauf der Bemerkung zur besseren Unterscheidung dγ (t) schreiben. Zum anderen haben wir die totale Ableitung dt γ 0 (t) ∈ L(R, Rn ), die also eine lineare Abbildung γ 0 : R → Rn ist. Was haben die beiden miteinander zu tun? Nun, nach Bemerkung 6.2 (d) gilt für die Funktion γ der einen Variablen x1 = t: ∂γ dγ (t) = (t) = γ 0 (t)(e1 ) = γ 0 (t)(1) dt ∂x1 mit dem Standard-Baisvektor e1 = 1 für R = R1 . Es ist also dγ dγ (t) = γ 0 (t)(1) und γ 0 (t)(s) = s (t), dt dt 98 weil aufgrund der Linearität γ 0 (t)(s) = γ 0 (t)(s · 1) = sγ 0 (t)(1) = s dγ (t). dt n n Identifiziert man L(R, R ) mit R via A 7→ A(1), so wird also γ 0 (t) mit dγ (t) identifiziert. Es wird stets aus dem Zusammendt hang klar sein, welche der zwei Bedeutungen von γ 0 (t) gemeint ist. 7 Taylorentwicklung und lokale Extrema ... für Funktionen mehrerer Variablen. Das Skript-Kapitel wird später ergänzt. Das Thema wird natürlich in jedem Analysis-Buch behandelt. Das Nötigste finden Sie zB in O. Forsters Analysis 2. 8 Vektorfelder und Potentialfunktionen Der Gradient ∇φ einer C 1 -Funktion φ : U → R auf einer offenen Menge U ⊆ Rn ist ein Vektorfeld auf U , d.h. jedem x ∈ U wird ein Vektor in Rn zugeordnet, nämlich ∇φ(x) ∈ Rn . In diesem Kapitel beschftigen wir uns mit der fr Anwendungen wichtigen Frage, welche Vektorfelder F : U → Rn Gradientenvektorfelder sind, d.h. wann wie oben eine C 1 -Funktion φ : U → R existiert (eine sogenannte Potentialfunktion) mit F = ∇φ. Definition 8.1 Sei U ⊆ Rn offen. Ein stetiges Vektorfeld auf U ist eine stetige Funktion F = (F1 , . . . , Fn ) : U → Rn stetig. Jedem Punkt x ∈ U wird also ein Vektor F (x) = (F1 (x), . . . , Fn (x)) ∈ Rn zugeordnet, der stetig von x abhängt. Ist F wie zuvor eine C k -Funktion, so nennt man F ein C k Vektorfeld auf U . Die Komponenten F1 , . . . , Fn : U → R sind dann also C k . Beispiele 8.2 F (x) := x definiert ein Vektorfeld auf Rn , das C ∞ (also glatt) 1 x wird ein glattes Vektorfeld auf Rn \ {0} definiert. ist. Durch F (x) := kxk 2 Wegintegrale über Gradientenvektorfelder sind sehr leicht berechenbar: Lemma 8.3 Es sei U ⊆ Rn offen, φ : U → R eine C 1 -Funktion und γ : [a, b] → U ein Weg, der stückweise C 1 ist. Dann ist Z h∇φ, dsi = φ(b) − φ(a). (66) γ 99 Beweis. Es sei a = t0 < t1 < · · · < tm = b eine Zerlegung von [a, b] derart, dass γ|[tj−1 ,tj ] ein C 1 -Weg ist für alle j ∈ {1, . . . , m}. Dann gilt Z n X dγk ∂φ (γ(t)) (t) dt tj−1 k=1 ∂xk Z tj d = (φ ◦ γ)(t) dt tj−a dt tj dγ h∇φ(γ(t)), (t)i dt = dt tj−1 Z tj t = [φ ◦ γ]tjj−1 = φ(γ(tj )) − φ(γ(tj−1 )), wobei das zweite Gleichheitszeichen auf Bemerkung 6.14 beruht und dann das Integral mit dem Hauptsatz der Differential- und Integralrechnung berechnet wurde (beachte φ ◦ γ ist Stammfunktion für dtd (φ ◦ γ)). Wir schließen, dass Z m Z tj X dγ h∇φ(γ(t)), (t)i dt h∇φ, dsi = dt γ j=1 tj−1 = m X φ(γ(tj )) − φ(γ(tj−1 )) j=1 = φ(γ(b)) − φ(γ(a)), 2 wie benötigt. Eine Teilmenge U ⊆ Rn heißt sternförmig, wenn es einen Punkt z ∈ U gibt, dessen Verbindungsstrecke mit jedem Punkt x ∈ U in U liegt, d.h. (∀x ∈ U ) (∀t ∈ [0, 1]) z + t(x − z) ∈ U. Zum Beispiel ist jede konvexe Menge (also insb. jede Kugel, jeder Quader und ganz Rn ) sternförmig. Die Menge R2 \ {(x, 0) : x ≤ 0} (skizzieren!) ist sternförmig (mit z = (1, 0)), aber nicht konvex. Der folgende Satz ist das Hauptziel dieses Kapitels. Satz 8.4 Für ein stetiges Vektorfeld F = (F1 , . . . , Fn ) : U → Rn auf einer offenen, nicht-leeren Menge U ⊆ Rn sind die folgenden drei Bedingungen äquivalent: 100 (a) F ist ein Gradientenvektorfeld, d.h. es gibt eine C 1 -Funktion φ : U → R mit F = ∇φ. (b) Alle Wegintegrale über F längs geschlossenen Wegen verschwinden. Genauer: Für jeden Weg γ : [a, b] → U , der geschlossen31 und stückweise C 1 ist, gilt Z hF, dsi = 0. γ (c) Wegintegrale über F hängen nur vom Anfangs- und Endpunkt ab. Genauer: Sind γ : [a, b] → U and η : [c, d] → U stückweise C 1 -Wege mit γ(a) = η(c) und γ(b) = η(d), so ist Z Z hF, dsi = hF, dsi. γ η Ist F ein C 1 -Vektorfeld, so folgt aus (a) die folgende Integrabilitätsbedingung: (d) ∂Fi ∂xj = ∂Fj ∂xi für alle i, j ∈ {1, . . . , n}. Ist U sternförmig, so sind (a) und (d) äquivalent. Beweis. (a)⇒(b): Ist F = ∇φ und γ : [a, b] → U ein geschlossener Weg, der stückweise C 1 ist, so gilt nach dem vorigen Lemma Z hF, dsi = φ(γ(b)) − φ(γ(a)) = 0 γ (weil γ(a) = γ(b)). (b)⇒(c) Sind γ und η wie im Satz beschrieben, so erhalten wir einen geschlossenen stückweise stetig differenzierbaren Weg θ, indem wir zuerst γ durchlaufen und dann η rückwärts. In Formeln definieren wir den Weg θ : [a, b + d − c] → U via γ(t) wenn t ∈ [a, b]; θ(t) := η(d − (t − b)) wenn t ∈ [b, b + (d − c)]. Dann gilt Z Z 0 = hF, dsi = θ 31 θ|[a,b] Z Z hF, dsi + hF, dsi = θ|[b,b+(d−c)] also γ(a) = γ(b) 101 Z hF, dsi − γ hF, dsi, η wobei für die letzte Gleichheit Satz 4.22 benutzt wurde. Die zwei fraglichen Wegintegrale sind also gleich. (c)⇒(a) Wir werden im Anschluss an den Beweis zeigen, dass sich U S stets als eine Vereinigung U = j∈J Uj offener Mengen Uj ⊆ Rn schreiben lässt, die paarweise disjunkt sind (also Ui ∩ Uj = ∅ für i 6= j in J) und derart, dass zu allen x, y ∈ Uj eine stückweise stetig differenzierbarer Weg γ : [a, b] → Uj von x nach y existiert (also mit γ(a) = x und γ(b) = y). Es genügt, zu zeigen, dass auf jeder der Mengen Uj eine Potentialfunktion φj existiert; dann ist φ : U → R, φ(x) := φj (x) für x ∈ Uj eine C 1 -Funktion mit ∇φ = F . Nach Ersetzen von U durch Uj dürfen wir also annehmen, dass sich alle x, y ∈ U durch einen stückweise C 1 -Weg in U verbinden lassen. Wir halten einen Punkt z ∈ U fest und definieren Z hF, dsi, φ(x) := γx ∂φ für wobei γx ein Weg von z nach x in U ist. Wir zeigen nun, dass ∂x i alle i ∈ {1, . . . , n} existiert und mit Fi übereinstimmt (insb. also stetig ist). Nach Bemerkung 5.24 ist dann φ eine C 1 -Funktion, und nach dem Vorigen ist ∇φ = F . Gegeben i wie zuvor und x ∈ U existiert ein ε > 0 derart, dass k.k∞ ⊆ U . Wir setzen y := x − εei (mit dem i-ten Standard-Einheitsvektor B2ε(x) ei ) und wählen einen stückweise C 1 -Weg γy : [a, b] → U von z nach y. Für s ∈ ]0, 2ε[ ist dann ηs : [a, b + s] → U , γy (t) wenn t ∈ [a, b] ηs (t) := y + (t − b)ei wenn t ∈ [b, b + s] ein stückweise C 1 -Weg von z nach y + sei , also nach x + (s − ε)ei (was gleich x ist an der Stelle s = ε). Also ist Z φ(x + (s − ε)ei ) = φ(y + sei ) = hF, dsi Z Z ηs b+s hF, dsi + = γy hF (y + (t − b)ei ), ei i dt b Z b+s Fi (y + (t − b)ei ). = φ(y) + b 102 Die rechte Seite kann nach s abgeleitet werden und liefert (nach dem Hauptsatz der Integral- und Differentialrechnung) den Integranden an der Stelle b + s, es ist also ∂φ (x + (s − ε)ei ) = Fi (y + (b + s − b)ei ) = Fi (y + sei ) = Fi (x + (s − ε)ei ). ∂xi ∂φ Für s := b + ε erhalten wir ∂x (x) = Fi (x). i 1 (a)⇒(d): Ist F ein C -Vektorfeld und F = ∇φ mit einer C 1 -Funktion ∂φ = Fi eine C 1 -Funktion für alle i ∈ {1, . . . , n} und somit φ eine φ, so ist ∂x i C 2 -Funktion. Nach dem Satz von Schwarz ist somit ∂Fj ∂ 2φ ∂ 2φ ∂Fi = = = . ∂xi ∂xi ∂xj ∂xj ∂xi ∂xj (d)⇒(a), wenn U sternförmig ist: Es sei z ∈ U ein Punkt derart, dass γx (t) := z + t(x − z) ∈ U für alle x ∈ U und alle t ∈ [0, 1]. dann ist γx ein C 1 -Weg von z nach x in U , mit γx0 (t) = x − z. Wir definieren mit selbigem Z Z 1 Z 1X n φ(x) := hF, dsi = hF (z+t(x−z), x−zi dt = Fj (z+t(x−z))(xj −zj ). γx 0 0 j=1 Da der Integrand eine C 1 -Funktion von (z, t) ist, ist φ (als Konsequenz aus dem Satz über parameterabhängige Integrale, Satz 5.8) stetig differenzierbar und wir können die partiellen Ableitungen ins Integral ziehen. Dies ergibt Z 1X n ∂φ ∂ (x) = Fj (z + t(x − z))(xj − zj ) ∂xi 0 j=1 ∂xi Z 1X n ∂(xj − zj ) = t(Di Fj )(z + t(x − z))(xj − zj ) + Fj (z + t(x − z)) dt ∂xi 0 j=1 | {z } =δij Z 1 Fi (z + t(x − z)) + t = 0 n X (Dj Fi )(z + t(x − z))(xj − zj ) dt j=1 {z | } ∂ = ∂t tFi (z+t(x−z)) = [tFi (z + t(x − z))]t=1 t=0 = Fi (x), wie benötigt. Beachten Sie, das für das dritte Gleichheitszeichen die Integrabilitätsbedingung Di Fj = Dj Fi benutzt wurde. 2 103 Bemerkung 8.5 Die Rotation (engl.: curl) eines C 1 -Vektorfelds F = (F1 , F2 , F3 ) : U → R3 auf einer offenen Menge U ⊆ R3 ist das durch ∂F3 rot F (x) := (∇ × F )(x) := (x) − − − ∂x2 ∂F1 (x) ∂x3 ∂F2 (x) ∂x1 ∂F2 (x) ∂x3 ∂F3 (x) ∂x1 ∂F1 (x) ∂x2 für x ∈ U definierte Vektorfeld rot F : U → R3 . Die Integrabilitätsbedingung aus Satz 8.4 (d) ist zu rot F = 0 äquivalent. Ist also U sternförmig, so ist ein C 1 -Vektorfeld F : U → R3 genau dann ein Gradientenvektorfeld, wenn rot F = 0. Für ebensolches F definiert man weiter seine Divergenz als die durch (div F )(x) := (∇ · F )(x) := ∂F2 ∂F3 ∂F1 (x) + (x) + (x) ∂x1 ∂x2 ∂x3 gegebene Funktion div F : U → R. Für jede C 2 -Funktion φ : U → R auf der offenen Menge U ⊆ R3 ist nach der Integrabilitätsbedigung rot(grad φ) = ∇ × (∇φ) = 0. Man kann auch ∆φ := div(grad φ) = ∇ · (∇φ) = ∂ 2φ ∂ 2φ ∂ 2φ + + ∂x21 ∂x22 ∂x23 bilden. Die Abbildung ∆ : φ 7→ ∆φ wird Laplace-Operator genannt. Um die im Beweis des Satzes gemachten Behauptungen zu begrnden, beschftigen wir uns kurz mit Wegkomponenten und Wegzusammenhang. Das Thema wird in der Vorlesung Funktionentheorie weiter vertieft und dort sehr oft eine Rolle spielen. Definition 8.6 Ein topologischer Raum X heißt wegzusammenhängend, wenn sich alle x, y ∈ X in X durch einen Weg verbinden lassen. d.h. es existiert ein Weg γ : [a, b] → X mit Anfangspunkt γ(a) = x und Endpunkt γ(b) = y. 104 Jede konvexe MengeX ⊆ Rn ist wegzusammenhängend, denn man kann den geradlinigen Weg [0, 1] → X, t 7→ x + t(y − x) benutzen. Auch sternförmige Mengen X ⊆ Rn (in denen sich ein z mit allen Punkten geradlinig verbinden lässt) sind wegzusammenhängend, den wir können x, y ∈ X durch den Polygonzug verbinden, der zuerst geradlinig von x nach z läuft, dann geradlinig von z nach y. Im vorigen Beweis wurden die folgenden zwei Lemmata benutzt. Lemma 8.7 Ist U ⊆ Rn eine offene, wegzusammenhängende Menge,32 so gibt es für alle x, y ∈ U einen Weg γ : [a, b] → U von x nach y, der stückweise C 1 ist. Beweis. Seien x, y ∈ U . Da U wegzusammenhängend ist, gibt es einen Weg η : [a, b] → U mit η(a) = x und η(b) = y. Dann ist η([a, b]) kompakt als Bild einer kompakten Menge unter einer stetigen Abbildung. Da U offen ist und η([a, b]) ⊆ U , gibt es nach dem Satz über gleichmäßige Umgebungen also ein ε > 0 derart, dass (∀t ∈ [a, b]) Bε (η(t)) ⊆ U (wobei Kugeln bzgl. k.k∞ gemeint sind). Da η nach Satz 3.36 gleichmäßig stetig ist, gibt es ein δ > 0 derart, dass (∀s, t ∈ [a, b]) |t − s| < ε ⇒ kη(t) − η(s)k∞ < ε. (67) Wir wählen eine Zerlegung a = t0 < t1 < · · · < tm = b von [a, b] derart, dass tj − tj−1 < δ für alle j ∈ {1, . . . , m}. Nach (67) ist kη(tj ) − η(tj−1 )k∞ < ε, also k(s(η(tj ) − η(tj−1 ))k∞ = skη(tj ) − η(tj−1 )k∞ < ε für alle s ∈ [0, 1] und somit η(tj−1 ) + s(η(tj ) − η(tj−1 )) ∈ Bε (η(tj−1 )) ⊆ U. Setzen wir γ(t) := η(tj−1 ) + 32 t − tj−1 (η(tj ) − η(tj−1 )) tj − tj−1 Es soll U also mit der induzierten Topologie wegzusammenhängend sein. 105 für j ∈ {1, . . . , m} und t ∈ [tj−1 , tj ], so ist also γ(t) ∈ U für alle t ∈ [a, b] und somit ist der Polygonzug γ : [a, b] → U ein stückweiser C 1 -Weg mit γ(a) = x und γ(b) = y. 2 Leider sind viele sehr natürliche offene Mengen U ⊆ Rn nicht wegzusammenhängend. Beispielsweise ist R \ {0} ⊆ R nicht wegzusammenhängend,33 denn es gibt keinen Weg γ in R \ {0 von −1 nach 1. Jedoch ist R \ {0} immerhin die disjunkte Vereinigung zweier offener wegzusammenhängender Mengen, nämlich R \ {0} = ]−∞, 0[ ∪ ]0, ∞[. Wir zeigen nun, dass Entsprechendes bei allen offenen Mengen U ⊆ Rn möglich ist. Als Hilfmittel definieren wir: Definition 8.8 Es sei X ein topologischer Raum. Wir nennen x, y ∈ X verbindbar und schreiben x ∼ y, wenn sich x und y in X durch einen stetigen Weg verbinden lassen, d.h. es existiert ein Weg γ : [a, b] → X mit γ(a) = x und γ(b) = y. Dann gilt: Lemma 8.9 Für jeden topologischen Raum X gilt: (a) Die Verbindbarkeitsrelation ∼ ist eine Äquivalenzrelation auf X. (b) Die Äquivalenzklassen [x] := {y ∈ X : y ∼ x} sind wegzusammenhn̈gend. Man nennt diese die Wegkomponenten von X. (c) Die Wegkomponenten bilden eine Partition von X, d.h. X ist die Vereinigung der Wegkomponenten, diese sind nicht leer und für alle x, z ∈ X gilt: [x] = [z] oder [x] ∩ [z] = ∅. (d) Ist X eine offene Teilmenge von Rn , so sind auch alle Wegkomponenten von X offen in Rn . Bezeichnet X/ ∼ die Menge aller Wegkomponenten, so ist also X die disjunkte Vereinigung [ X= C C∈X/∼ 33 Ist γ : [a, b] → R stetig mit γ(a) = −1 und γ(b) = 1, so gibt es nach dem Zwischenwertsatz der Analysis 1 ein t ∈ [a, b] mit γ(t) = 0. Also ist γ kein Weg in R \ {0}. 106 von offenen, wegzusammenhängenden Mengen C (wobei C = [x] für ein x ∈ X). Beweis. (a) Reflexivität: Für jedes x ∈ X ist der konstante Weg [0, 1] → X, t 7→ x ein Weg von x nach x, somit x ∼ x. Transitivität: Gilt x ∼ y und y ∼ z, so gibt es einen Weg γ : [a, b]toX von x nach y und einen Weg η : [c, d] → X von y nach z. Dann ist ζ : [a, b + (d − c)] → X, γ(t) wenn t ∈ [a, b], ζ(t) := η(c + (t − b)) wenn t ∈ [b, b + (d − c)] ein Weg von x nach z, somit x ∼ z. Symmetrie: Ist x ∼ y, so gibt es einen Weg γ : [a, b] → X von x nach y. Dann ist η : [a, b] → X, η(t) := γ(b − (t − a)) ein Weg von y nach x, also y ∼ x. (b) Sind y, z ∈ [x], so gilt y ∼ x und z ∼ x, somit y ∼ z (nach (a)) und folglich gibt es einen Weg γ : [a, b] → X von y nach z. Für jedes s ∈ ]a, b] ist γ|[a,s] ein Weg von y nach γ(s) in X, somit γ(s) ∈ [y] = [x]. Also ist γ([a, b]) ⊆ [x] und wir können γ als einen Weg von y nach z in [x] betrachten. Somit ist [x] wegzusammenhängend. (c) Dies gilt für jede Äquivalenzrelation und sollte Ihnen bekannt sein. (d) Sei x ∈ X. Ist y ∈ [x], so gibt es (weil X ⊆ Rn offen ist) ein ε > 0 mit Bε (y) ⊆ X (wobei die Kugel bezüglich k.k∞ in Rn gemeint ist). Die Kugel Bε (y) ist konvex, also jedes z ∈ Bε (y) innerhalb Bε (y) (und somit innerhalb X) mit y durch einen Weg verbindbar. Es ist also Bε (y) ⊆ [y] = [x] und somit ist [x] offen. Alles andere wurde bereits gezeigt. 2 9 Die Sätze über die Umkehrfunktion und implizite Funktionen Das Kapitel wird später ergänzt. Das Nötigste dazu finden Sie in allen Analysis-Büchern, zB in O. Forsters ”Analysis 2”. 107