1 S. Hilger, Analysis 3 Skript zur Vorlesung Analysis 3 (Wintersemester 2008/09) Dieses Geheft enthält in kompakter Form die wesentlichen Inhalte, wie sie in der Vorlesung ,,Analysis 3” vorgestellt werden. Es ist zum Gebrauch neben der Vorlesung gedacht und erhebt nicht den Anspruch, ,,in sich selbst verständlich” oder vollständig zu sein. S. Hilger 2 S. Hilger, Analysis 3 Inhaltsverzeichnis 16 Extrema unter Nebenbedingungen 4 17 Kurven im Rw 9 17.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 17.2 Bogenlänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 18 Taylor–Approximation für reellwertige Funktionen 18.1 Taylorpolynome . . . . . . . . . . . . . . . . . . . . . 18.2 Gradient und Hesse’sche Matrix . . . . . . . . . . . . 18.3 Extrema reellwertiger Funktionen . . . . . . . . . . . 18.4 Sattelpunkte reellwertiger Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Der Approximationssatz von Stone–Weierstraß 15 17 17 20 22 24 20 Integration im Rd 29 d 20.1 Integration über Quadern des R . . . . . . . . . . . . . . . . . . . . . . . 30 20.2 Vertauschbarkeit in der Integrationsreihenfolge . . . . . . . . . . . . . . . . 31 21 Die 21.1 21.2 21.3 21.4 Transformationsformel Integration von stetigen Funktionen mit kompaktem Träger . Vorbereitung: Zerlegung der Eins . . . . . . . . . . . . . . . Vorbereitung: Die Primitiv–Zerlegung . . . . . . . . . . . . . Die Transformationsformel . . . . . . . . . . . . . . . . . . . 22 Integral für C ↑ –Funktionen 22.1 C ↑ –Funktionen . . . . . . . . . . . . . . . 22.2 Integral für C ↑ –Funktionen . . . . . . . . 22.3 Transformationsformel für C ↑ –Funktionen 22.4 Integral für C ↓ –Funktionen . . . . . . . . 22.5 Volumen kompakter Mengen im Rd . . . . . . . . 23 Differentialformen 23.1 Die freie Erzeugung V eines Vektorraums . . 23.2 Die äußere Algebra Rn . . . . . . . . . . 23.3 Differentialformen . . . . . . . . . . . . . . 23.4 Äußere Ableitung einer Differentialformen 23.5 Zurückziehen einer Differentialform . . . . 24 Simplexe und Ketten 24.1 p–Einheitspolyeder . . . . . . . 24.2 p–Simplexe . . . . . . . . . . . 24.3 p–Ketten . . . . . . . . . . . . . 24.4 Der Seit–Operator . . . . . . . 24.5 Der Rand–Operator . . . . . . . 24.6 Vorwärtsschieben einer p–Kette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 33 34 36 40 . . . . . 43 43 47 50 54 55 . . . . . 61 61 63 67 69 72 . . . . . . 77 77 78 78 79 83 85 3 S. Hilger, Analysis 3 25 Der 25.1 25.2 25.3 25.4 Satz von Stokes Integration über den Einheitspolyeder . . . . . . . Integration von p–Formen über p–Ketten . . . . . Der Satz von Stokes . . . . . . . . . . . . . . . . Spezialfälle des Satzes von Stokes: Vektoranalysis 25.4.1 Der Satz von Stokes bei Kurvenintegralen 25.4.2 Der Green’sche Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Lebesgue’sche Integration 26.1 Ober- und Unterintegral für beliebige Funktionen . . . . . . . . 26.2 Integrierbare Funktionen . . . . . . . . . . . . . . . . . . . . . . 26.3 Die Konvergenzsätze von Levi und Lebesgue . . . . . . . . . . . 26.4 Nullmengen und Fast–Überall–Eigenschaften . . . . . . . . . . . 26.4.1 Klassen von fast–überall definierten Funktionen . . . . . 26.4.2 Satz von Levi über die Integration einer Funktionenreihe 26.5 Der Banachraum L1 (Rd ) . . . . . . . . . . . . . . . . . . . . . . 26.6 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26.7 Verallgemeinerung auf lokalkompakte Räume . . . . . . . . . . . 26.7.1 Ausgangspunkt . . . . . . . . . . . . . . . . . . . . . . . 26.7.2 Verallgemeinerung auf lokalkompakte Räume . . . . . . . 26.7.3 Beispiel: X = N . . . . . . . . . . . . . . . . . . . . . . . 26.7.4 Beispiel: Das Dirac–Funktional . . . . . . . . . . . . . . 26.8 Verallgemeinerung auf Maßräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 86 87 90 94 94 96 . . . . . . . . . . . . . . 99 99 104 112 117 120 122 123 126 127 127 127 127 128 128 4 S. Hilger, Analysis 3 16 Extrema unter Nebenbedingungen Definition Es sei X Teilmenge von Rd (oder eines allgemeineren metrischen Raumes) und f : X → R eine reellwertige Funktion, a ∈ X. (1) Der Punkt (a, f (a)) des Graphen heißt wie in der ersten Spalte angegeben, wenn es ein ε > 0 gibt, so dass die Bedingung der zweiten Spalte gilt: lokales Maximum lokales Minimum strenges lokales Maximum strenges lokales Minimum f (x) ≤ f (a) f (x) ≥ f (a) f (x) < f (a) f (x) > f (a) für für für für alle alle alle alle x ∈ Uε (a) ∩ X x ∈ Uε (a) ∩ X x ∈ Uε (a) ∩ X mit x 6= a x ∈ Uε (a) ∩ X mit x 6= a (2) Der Punkt (a, f (a)) des Graphen heißt wie in der ersten Spalte angegeben, wenn die Bedingung der zweiten Spalte erfüllt ist: globales Maximum globales Minimum strenges globales Maximum strenges globales Minimum f (x) ≤ f (a) f (x) ≥ f (a) f (x) < f (a) f (x) > f (a) für für für für alle alle alle alle x∈X x∈X x ∈ X mit x 6= a x ∈ X mit x 6= a (3) Man spricht jeweils von einem Extremum, wenn es sich um ein Maximum oder Minimum handelt. (4) In diesem Zusammenhang heißt a auch Stelle des Maximums, Minimums oder Extremums und f (a) der Wert des Maximums, Minimums oder Extremums. Satz 1 Es sei a ∈ X ein innerer Punkt. Ist die Funktion f : X → R in a differenzierbar und hat sie dort ein Extremum, so gilt f 0 (a) = 0 0 · · · 0 . Beweis Es sei j ∈ {1, . . . , d} fest gewählt. Da a ein innerer Punkt ist, gibt es ein δ > 0, so dass die partielle Funktion ]aj − δ, aj + δ[, → R f (a1 , . . . , aj−1 , · , aj+1 , . . . , ad ) : x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ad ) ↑ j wohl–definiert ist. Sie hat ein Extremum bei aj , deshalb ist aufgrund von Satz 84/AYS01 ∂j f (a) = 0. Da dies für alle j ∈ {1, . . . , d} gilt, ist aufgrund von Satz ?? f 0 (a) = ∂1 f (a) ∂2 f (a) · · · ∂d f (a) = 0 0 · · · 0 . 5 S. Hilger, Analysis 3 Satz 2 (Extrema unter Nebenbedingungen / Spezialfall) Es sei X ⊆ Rd offen, die Funktion f : X → R sei stetig differenzierbar. Es sei h : X → R eine weitere stetig differenzierbare Funktion, die über XN := {x ∈ X|h(x) = 0} (N für Nullniveau oder Nebenbedingung) eine Teilmenge von X, dann die Einschränkung von f XN → R fN : x 7→ f (x) definiert. Es seien für eine Stelle a ∈ XN die folgenden Aussagen gegeben: • fN habe (als Funktion auf XN ) in a ein lokales Extremum. • Es sei h0 (a) 6= 0. Dann gibt es ein λ ∈ R, so dass f 0 (a) = λ h0 (a), die beiden Zeilenvektoren sind linear abhängig. Bemerkungen 1) Dieser Satz kann auf eine höhere Zahl von Nebenbedingungen verallgemeinert werden. 2) Die Zahl λ heißt ein Lagrange’scher Multiplikator. 3) Der Sachverhalt, das die Funktion fN : XN → R in a ein Extremum aufweist, wird auch dadurch beschrieben, dass f in a ein Extremum unter der Nebenbedingung h = 0 hat. Beweis (1) Wegen h0 (a) 6= 0 ist eine der partiellen Ableitungen ∂k h(a) 6= 0. Wir nehmen o.B.d.A. an, dass k = d. e Ye mit (2) Wir wählen offene Mengen X, e ⊆ Rd−1 , e a := (a1 , . . . , ad−1 ) ∈ X eb := ad ∈ Ye ⊆ R, e × Ye ⊆ X X und wenden den Satz 70/AYS01 (ImFT) über implizite Funktionen auf die eingeschränkte Funktion e × Ye → R X e h: (e x, ye) 7→ h(e x, ye) an der Stelle a = (e a, eb) an. Die beiden Voraussetzungen aus dem Satz (ImFT) h(e a, eb) = h(a) = 0, D2 h(e a, eb) = ∂d h(a) 6= 0 (=⇒ invertierbar). Es existieren also offene Mengen U, V mit e × Ye ⊆ X (e a, eb) ∈ U × V ⊆ X 6 S. Hilger, Analysis 3 und eine stetig differenzierbare Abbildung g : U → V , so dass h(e x, ye) = 0 ⇐⇒ ye = g(e x) für alle x e ∈ U. Wir notieren aus Satz 70/AYS02 (ImFT) den Ausdruck für die Ableitung im Punkt e a∈U g 0 (e a) = −[D2 h(e a, g(e a))]−1 D1 h(e a, g(e a)). Mit Hilfe dieser Funktion g können wir die eingeschränkte Definitionsmenge XN von fN umparametrisieren: U → R F : x e 7→ fN (e x, g(e x)) = f (e x, g(e x)). Da die Funktion fN bei a ein Extremum besitzt, hat F im Punkt e a eines. Die Ableitung von F in e a muss Null sein: 0 = F 0 (e a) | {z } 1×(d−1) = D1 f (e a, g(e a)) + D2 f (e a, g(e a)) g 0 (e a) | {z } | {z } | {z } 1×(d−1) 1×1 1×(d−1) = D1 f (e a, g(e a)) − D2 f (e a, g(e a)) · [D2 h(e a, g(e a))]−1 D1 h(e a, g(e a)). | {z } =:λ Geeignet zusammengefasst bedeutet dies aber: D1 f (e a, g(e a)) = λ · D1 h(e a, g(e a)) D2 f (e a, g(e a)) = λ · D2 h(e a, g(e a)) und deshalb — unter Beachtung von a = (e a, g(e a)) — f 0 (a) = D1 f (a) D2 f (a) = λ · D1 h(a) D2 h(a) = λ · h0 (a). Die für ein Extremum notwendige Bedingung des Satzes führt insgesamt auf ein Gleichungssystem ∂1 f (a) = λ · ∂1 h(a) .. . ∂d f (a) = λ · ∂d h(a) h(a) = 0 mit d + 1 Gleichungen für die d + 1 Unbekannten a1 , a2 , . . . , ad und λ. Da dieses Gleichungssystem im allgemeinen nichtlinear ist, kann es unter Umständen nicht einfach algorithmisch gelöst werden. Beispiel: 7 S. Hilger, Analysis 3 Satz 3 (Extrema unter Nebenbedingungen /Verallgemeinerung) Es sei Z ⊆ Rd offen, die Funktion f : Z → R sei stetig differenzierbar. Es sei h : Z → Rw , w ≤ d, eine weitere stetig differenzierbare Funktion, die über ZN := {x ∈ Z|h(x) = 0} (N für Null– oder Nebenbedingung) eine Teilmenge von Z definiert. Die Funktion f kann auf ZN eingeschränkt werden: ZN → R fN : x 7→ f (x). Es seien für eine Stelle c ∈ ZN die folgenden Aussagen erfüllt: • fN habe (als Funktion auf ZN ) in c ein lokales Extremum. • Die Matrix h0 (c) ∈ Rw×d habe Vollrang w, d.h. es gibt w linear unabhängige Spaltenvektoren. Dann gibt es einen Zeilenvektor λ = λ1 · · · λw ∈ Rw , so dass f 0 (c) = |{z} λ · h0 (c) . | {z } |{z} 1×d 1×w w×d Anders ausgedrückt: Die Ableitung von f in c ist eine Linearkombination der Ableitungen der Koordinatenfunktionen von h in c. Bemerkungen 1) Man veranschauliche sich diesen Satz zunächst einmal für den Fall w = 1. 2) Die Zahlen λ1 , . . . , λw heißen Lagrange’sche Multiplikatoren. 3) Der Sachverhalt, dass die Funktion fN : ZN → R in c ein Extremum aufweist, wird auch dadurch beschrieben, dass f in c ein Extremum unter der Nebenbedingung h = 0 hat. 4) Anstelle von einer Nebenbedingung h = 0 spricht man oft von den w Nebenbedingungen: h1 (x) = 0 .. . hw (x) = 0. Beweis (1) Wir können o.B.d.A. annehmen, dass c ∈ X × Y = Z mit offenen Mengen X ⊆ Rd−w , Y ⊆ Rw . Im folgenden beziehen sich die Ableitungssymbole D1 und D2 auf diese beiden Mengen. (2) Zusätzlich können wir aufgrund der Vollrangbedingung annehmen, dass der Anteil D2 h(c) in Dh(c) = D1 h(c) D2 h(c) | {z } | {z } | {z } w×d w×(d−w) w×w 8 S. Hilger, Analysis 3 invertierbar ist. Anderenfalls nummerieren wir die Variablen in X × Y um. (3) Wir wenden den Satz 70/AYS02 (ImFT) über implizite Funktionen auf die Funktion h : X × Y → Rw an der Stelle c = (a, b) an. Es existieren also offene Mengen U, V mit (a, b) ∈ U × V ⊆ X × Y ⊆ Z und eine stetig differenzierbare Abbildung g : U → V , so dass ⇐⇒ h(x, y) = 0 für alle x ∈ U. y = g(x) Wir notieren aus dem Satz (ImFT) den Ausdruck für die Ableitung im Punkt a ∈ U g 0 (a) = − [D2 h(a, g(a))]−1 · D1 h(a, g(a)) . | {z } | {z } | {z } w×w w×(d−w) (∗) w×(d−w) Mit Hilfe dieser Funktion g können wir die Definitionsmenge ZN der Funktion fN in einer Umgebung von a ,,mit weniger Koordinaten aus U schreiben”, es entsteht die Funktion U → R F : x 7→ fN (x, g(x)) = f (x, g(x)). Da die Funktion fN bei c ein Extremum besitzt, hat F im Punkt a eines. Die Ableitung von F in a muss Null sein: 0 = F 0 (a) | {z } 1×(d−w) = D1 f (a, g(a)) + D2 f (a, g(a)) g 0 (a) | {z } | {z } | {z } 1×(d−w) 1×w w×(d−w) =:λ z }| { = D1 f (a, g(a)) − D2 f (a, g(a)) · [D2 h(a, g(a))]−1 · D1 h(a, g(a)) . {z } | {z } | {z } | {z } | (∗) 1×(d−w) 1×w w×w w×(d−w) Geeignet zusammengefasst bedeutet dies aber: D1 f (a, g(a)) = λ · D1 h(a, g(a)) D2 f (a, g(a)) = λ · D2 h(a, g(a)) und deshalb — unter Beachtung von c = (a, g(a)) — f 0 (c) = D1 f (c) D2 f (c) = λ · D1 h(c) D2 h(c) = λ · h0 (c). Die für ein Extremum notwendige Bedingung des Satzes führt insgesamt auf ein Gleichungssystem ∂1 f (a) = .. . ∂d f (a) = h1 (a) = .. . hw (a) = λ1 · ∂1 h1 (a) + . . . + λw · ∂1 hw (a) λ1 · ∂d h1 (a) + . . . + λw · ∂d hw (a) 0 0 mit d + w Gleichungen für die d + w Unbekannten a1 , a2 , . . . , ad und λ1 , . . . , λw . Da dieses Gleichungssystem im allgemeinen nichtlinear ist, kann es unter Umständen nicht einfach algorithmisch gelöst werden. S. Hilger, Analysis 3 17 17.1 9 Kurven im Rw Definitionen und Beispiele Definition (1) Es sei J ein Intervall. Eine stetige Abbildung J → Rw γ: t 7→ γ(t) = (γ1 (t), . . . , γw (t)) heißt Kurve im Rw . Eine Kurve wird also durch w stetige Funktionen, die Koordinatenfunktionen, γi : J → R beschrieben. In diesem Zusammenhang heißt die Definitionsmenge auch Parameterbereich, die Bildmenge n o γ(J) = γ(t) t ∈ J ⊆ Rw heißt Spur der Kurve. Oft kommt es vor (beachte aber genau den Unterschied), dass zwischen Kurve (Abbildung) und Spur (Menge) nicht klar unterschieden wird. Physikalische Vorstellung: Die Variable t wird als Zeit aufgefasst. Die Funktion γ gibt den Ort (im Rw ) eines (punktförmig gedachten) Teilchens zum Zeitpunkt t an. (2) Erinnerung: Die Kurve γ heißt (stetig) differenzierbar (in t), wenn alle Koordinatenfunktionen (stetig) differenzierbar (in t) sind. (3) Ist eine Kurve in τ ∈ J differenzierbar, so heißt der Vektor γ 0 (τ ) := (γ10 (τ ), . . . , γw0 (τ )) der Tangentenvektor an die Kurve γ zum Parameterwert τ . Die Gerade {γ(τ ) + sγ 0 (τ )|s ∈ R} heißt die Tangente an die Kurve γ zum Parameterwert τ — oder (nicht ganz eindeutig:) im Punkt γ(τ ). (4) Eine differenzierbare Kurve γ heißt regulär, wenn γ 0 (t) 6= 0 für alle t ∈ J. Sie heißt singulär für τ ∈ J, falls γ 0 (τ ) = 0. Ist γ : [c, d] → Rw eine Kurve und ϑ : [c2 , d2 ] → [c, d] eine streng monoton steigende (oder fallende) surjektive Abbildung, so ist [c2 , d2 ] → Rw γ◦ϑ: s 7→ γ(ϑ(s)) eine Kurve mit der gleichen Spur wie γ. Mit Hilfe von ϑ wurde der Parameter t in den Parameter s transformiert. Die Abbildung ϑ heißt in diesem Zusammenhang eine (orientierungserhaltende bzw. orientierungsumkehrende) Parametertransformation. Beispiele (1) Sind a, b zwei positive Zahlen, so wird durch die Abbildung R → R2 γ: t 7→ (a · cos t, b · sin t) 10 S. Hilger, Analysis 3 eine Ellipse mit dem Ursprung als Mittelpunkt und den beiden Halbachsen a und b beschrieben. Für r := a = b ergibt sich eine Kreislinie zum Radius r. (2) Die Kurve [−1, 1] → R2 √ γ: t 7→ (t, 1 − t2 ) beschreibt (ebenfalls) einen Halbkreisbogen. Die Spur stimmt mit der der auf [− π2 , + π2 ] eingeschränkten Kurve (1) überein. (2) Die Abbildung R → R3 γ: t 7→ (cos t, sin t, t) beschreibt eine Schraubenlinie im R3 . (3) Ist f : J → Rv eine stetige Funktion, so kann der Graph als Kurve im Rv+1 R → Rv+1 γf : t 7→ (t, f (t)) aufgefasst werden. Beachte dabei den Spezialfall v = 1. 17.2 Bogenlänge Wir betrachten jetzt Kurven γ, die ein kompaktes Intervall J = [c, d] als Parameterbereich haben. Für eine vorgegebene Zerlegung Z (vgl. AYS02) c = t0 < t1 < . . . < tn = d des Intervalls können wir die Gesamtlänge des die Punkte γ(t0 ), γ(t1 ), ... γ(tn ) verbindenden Polygonzugs (Vereinigung der Verbindungsstrecken) im Rw berechnen: L(γ, Z) := kγ(t1 ) − γ(t0 )k + kγ(t2 ) − γ(t1 )k + . . . + kγ(tn ) − γ(tn−1 )k. Gehen wir zu einer Verfeinerung Ze von Z über so gilt wegen der Dreiecksungleichung: e L(γ, Z) ≤ L(γ, Z). Definition Als Länge der Kurve definieren wir die Obergrenze all dieser Längen: L(γ) := sup{L(γ, Z)}. Z Ist L(γ) < ∞, so heißt die Kurve γ rektifizierbar. In diese Definition gehen • nur Punkte γ(ti ) auf der Spur von γ in einer bestimmten Reihenfolge, • nicht aber die Kurve als Abbildung γ : [c, d] → R ein. Das bedeutet, dass die Definition unabhängig von einer Parametertransformation ist. Eigentlich müsste man das präziser beschreiben und beweisen. 11 S. Hilger, Analysis 3 Satz 4 (i) Es gibt stetige Kurven (mit kompaktem Parameterbereich), die nicht rektifizierbar sind. (ii) Ist die Kurve γ : [c, d] → Rw stetig differenzierbar, so ist γ rektifizierbar und es gilt: Z L(γ) = d d Z 0 p kγ (t)k dt = c [γ10 (t)]2 + [γ20 (t)]2 + . . . + [γw0 (t)]2 dt. c Beweis Zu (i): Als Beispiel nehmen wir die auf [0, 1] definierte Kurve im R2 : t , falls t > 0, t sin( πt − π2 ) γ(t) = 0 , sonst. 0 Wir wählen eine feste gerade natürliche Zahl n und dann eine Zerlegung Zn gemäß der zweiten Zeile der folgenden Tabelle i 0 1 2 ... n−3 n−2 n−1 n ti 0 1 n 1 n−1 ... 1 4 1 3 1 2 1 1 sin( πt − π2 ) / −1 +1 ... −1 +1 −1 +1 ... 1 4 −1 4 0 γ(ti ) ! 0 1 n −1 n ! 1 n−1 +1 n−1 ! ! 1 3 +1 3 ! 1 2 −1 2 ! 1 1 +1 1 ! 1 n−i+1 für i ≥ 1. Für i ≥ 2 ist q kγ(ti ) − γ(ti−1 )k = (ti − ti−1 )2 + (ti + ti−1 )2 ≥ ti + ti−1 ≥ 2ti−1 mit ti := Es ergibt sich als Länge des zugehörigen Polygonzugs: L(γ, Zn ) = n X kγ(ti ) − γ(ti−1 )k ≥ i=1 n X 2 ti−1 = i=1 n X i=1 2 = n−i+1 1 1 1 = 2[ + + . . . + ]. n n−1 2 Sie wächst für n → ∞ gegen ∞. Zu (ii): Es sei ein (beliebig kleines) ε > 0 vorgegeben. Schritt 1: Die Funktionen γj0 sind stetig, also mit Satz 54(ii) (AYS02) sogar gleichmäßig stetig. Daher gibt es ein δ > 0, so dass für alle j = 1, . . . , w kγj0 (t) − γj0 (s)k ≤ ε , w(d − c) wenn nur |t − s| < δ. 12 S. Hilger, Analysis 3 Schritt 2: Wir zeigen: Hat eine Zerlegung Z : c = t0 < t1 < . . . < tn = d von [c, d] eine Körnigkeit < δ, d.h. ti − ti−1 < δ für alle i = 1, . . . , n, so gilt Z L(γ, Z) − c d kγ 0 (t)k dt ≤ ε. Es sei nun i eine der Nummern aus der Zerlegung Z. Gemäß Mittelwertsatz der Integralrechnung (Satz 15(iv)/AYS02) — t 7→ kγ 0 (t)k ist stetig — gibt es ein τ ∈ [ti−1 , ti ] , so dass Z ti kγ 0 (t)k dt = kγ 0 (τ )k · [ti − ti−1 ]. ti−1 Gemäß Mittelwertsatz der Differentialrechnung (Satz 88/AYS01) gibt es für jede Koordinatennummer j ∈ {1, . . . , w} eine Stelle τj ∈ [ti−1 , ti ], so dass |γj (ti ) − γj (ti−1 )| = γj0 (τj ) · [ti − ti−1 ]. Zusammen gilt dann, wenn wir noch zweimal die Dreiecksungleichung anwenden Z ti 0 kγ (t)k dt = kγ(ti ) − γ(ti−1 )k − ti−1 0 0 0 0 0 0 k(γ (τ ), γ (τ ), . . . , γ (τ ))k − k(γ (τ ), γ (τ ), . . . , γ (τ ))k 1 1 2 2 · [ti − ti−1 ] ≤ w w 1 2 w k((γ10 (τ1 ) − γ10 (τ ), γ20 (τ2 ) − γ20 (τ ), . . . , γw0 (τw ) − γw0 (τ ))k · [ti − ti−1 ] ≤ w X |γj0 (τj ) − γj0 (τ )| · [ti − ti−1 ] ≤ j=1 w X j=1 ε ε · [ti − ti−1 ] = · [ti − ti−1 ]. w(d − c) d−c Summieren wir über alle Teilintervalle der Zerlegung Z, so ergibt sich: Z d kγ 0 (t)k dt = L(γ, Z) − c Z n h X kγ(ti ) − γ(ti−1 )k − ti−1 i=1 n X i=1 ti i kγ (t)k dt ≤ 0 ε ε · [ti − ti−1 ] = · (d − c) = ε. d−c d−c Schritt 3: Es sei jetzt Z 0 eine beliebige Zerlegung von [c, d]. Dann gibt es eine Verfeinerung Z mit einer Körnigkeit < δ und wir erhalten: Z d 0 L(γ, Z ) ≤ L(γ, Z) ≤ kγ 0 (t)k dt + ε. c 13 S. Hilger, Analysis 3 Es folgt, da Z 0 völlig beliebig war: Z d kγ 0 (t)k dt + ε. L(γ) ≤ c Andererseits ist Z L(γ) ≥ L(γ, Z) ≥ d kγ 0 (t)k dt − ε. c In einem geschrieben ist dies: Z d Z 0 kγ (t)k dt − ε ≤ L(γ) ≤ c d kγ 0 (t)k dt + ε. c Da ε > 0 beliebig war, folgt die Behauptung des Satzes. Bemerkung Ist ϑ : [c2 , d2 ] → [c, d] eine stetig differenzierbare streng monoton steigende (bzw. fallende) Abbildung, also eine Parametertransformation, so gilt mit der Kettenregel (KR) und der Substitutionsregel (Satz 20/AYS02) Z d2 Z d2 KR 0 k(γ ◦ ϑ) (s)k ds = k(γ 0 (ϑ(s)) · ϑ0 (s)k ds = c2 ( c2 R d2 c2 R d2 − c2 k(γ 0 (ϑ(s))k · ϑ0 (s) ds, 0 0 k(γ (ϑ(s))k · ϑ (s) ds, (falls ϑ steigend) ) SR Z = (falls ϑ fallend ) d kγ 0 (t)k dt. c Damit wird auf andere Weise bestätigt, dass die Länge einer stetig differenzierbaren Kurve γ unabhängig von der konkreten Parameterdarstellung ist. Korollar 5 Die Graph–Kurve γf einer stetig differenzierbaren Funktion f : [c, d] → Rv hat die Länge Z dp L(γf ) = 1 + kf 0 (t)k2 dt. c Im Fall v = 1 gilt dann Z dp 1 + [f 0 (t)]2 dt. L(γf ) = c 14 S. Hilger, Analysis 3 Beispiele (1) Die Länge der Kreislinie [0, 2π] → R2 γ: t 7→ (r cos t, r sin t) (vgl. Beispiel 1 oben) ist Z 2π p L(γ) = (−r sin t)2 + (r cos t)2 dt = 2π r. 0 (2) Wir betrachten die Kurve, die ein Randpunkt auf der Umfangslinie eines auf der x–Achse nach rechts abrollenden Einheitskreises während einer Umdrehung beschreibt. Zeichnung Die Kurve ist gegeben durch die Funktion [0, 2π] → R t cos( π2 − t) t + sin t γ , t 7→ + = π 1 sin( 2 − t) 1 + cos t was wir noch erläutern wollen: t • Der erste Vektor beschreibt die Position des Mittelpunktes zur Zeit t. Beim 1 Start befindet sich der Mittelpunkt auf der Höhe 1 über dem Nullpunkt der x–Achse. cos( π2 − t) • Der zweite Vektor beschreibt die Position des Randpunktes relativ sin( π2 − t) zum Mittelpunkt. Beim Start (t = 0) befindet sich der Randpunkt in der 12–Uhr– Position. Die Variable t geht über ein Minuszeichen ein, da das Rad eine Rechts– Drehung (mathematisch negativ) ausführt. • Das Intervall [0, 2π] beschreibt aufgrund der 2π–Periodizität genau eine Volldrehung. Dabei bewegt sich auch der Mittelpunkt um die Strecke 2π weiter. Für die Länge der Kurve ergibt sich jetzt Z 2π Z 2π p 0 [1 + cos t]2 + [sin t]2 dt L(γ) = kγ (t)k dt = 0 0 Z 2π Z 2π r √ t t = 2 + 2 cos t dt = 2 + 2(cos2 − sin2 ) dt 2 2 0 0 Z 2π r Z 2π Z π t t t = 4 cos2 ( ) dt = 2 | cos( )| dt = 4 cos( ) dt 2 2 2 0 0 0 Z π π h i s= 2 2 = 8 cos s ds = 8 sin s = 8. 0 s=0 Der Randpunkt legt also während einer Umdrehung den 8–fachen Radius zurück. 15 S. Hilger, Analysis 3 18 Taylor–Approximation für reellwertige Funktionen Wir führen zunächst einige Bezeichnungen ein. Für ein d–Tupel p = (p1 , . . . , pd ) ∈ (N0 )d seien |p| p! ∂p xp := := := := p 1 + . . . + pd p1 ! · . . . · pd ! ∂1p1 · . . . · ∂dpd xp11 · . . . · xpdd Satz 6 Es sei X ⊆ Rd offen und konvex. Ein Punkt a ∈ X und ein Vektor b ∈ Rd mit a + b ∈ X seien fixiert. Ist dann f : X → R eine C n –Funktion, so ist die Funktion [0, 1] → R g: t 7→ f (a + tb) ebenfalls C n (in den Randpunkten einseitig). Für die n–te Ableitung gilt X n! g (n) (t) = (∂ p f )(a + tb)bp . p! |p|=n Beweis (1) Wir werden die umfassendere Aussage X g (n) (t) = (∂in . . . ∂i1 f )(a + tb)bin . . . bi1 (i1 ,...,in )∈{1,...,d}n X n! (∂ p f )(a + tb)bp p! = |p|=n beweisen, die erste Gleichheit per Induktion über n ∈ N, die zweite mit einer kombinatorischen Überlegung. (2) Zum Induktionsbeweis. Für n = 1 ist dies einfach die Kettenregel: d f (a1 + tb1 , . . . , ad + tbd ) g 0 (t) = dt d X X = (∂i f )(a + tb)bi = (∂i f )(a + tb)bi i=1 i∈{1,...,d} Ist dann die Aussage für n ∈ N bewiesen, so gilt — wieder mit der Kettenregel — i X dh n+1 g (t) = (∂in . . . ∂i1 f )(a + tb)bin . . . bi1 dt n (i1 ,...,in )∈{1,...,d} = d h X j=1 = d h X (i1 ,...,in )∈{1,...,d}n X ∂j i (∂in . . . ∂i1 f )(a + tb)bin . . . bi1 bin+1 (i1 ,...,in )∈{1,...,d}n in+1 =1 = i (∂in . . . ∂i1 f )(a + tb)bin . . . bi1 bj X ∂j X (i1 ,...,in+1 )∈{1,...,d}n+1 (∂in+1 . . . ∂i1 f )(a + tb)bin+1 . . . bi1 . 16 S. Hilger, Analysis 3 (3) Für ein fest gegebenes d–Tupel p = (p1 , . . . , pd ) mit Länge |p| = n treten in der oberen Summe bei Schritt (1) insgesamt n! n! n = = p! p 1 ! · · · pd ! p1 · · · pd Summanden auf, deren zugehöriges Index–n–Tupel (i1 , . . . , in ) die Zahlen j ∈ {1, . . . , d} genau pj –mal enthält. Aufgrund der Vertauschbarkeit der partiellen Ableitungen sind diese Summanden aber alle gleich (∂in . . . ∂i1 f )(a + tb)bin . . . bi1 = (∂ p f )(a + tb)bp . Deshalb können sie bei der Summation zusammengefasst werden. Satz 7 (Taylor–Approximation (mehrdimensional)) Es sei X ⊆ Rd offen und konvex, a ∈ X. (i) Ist f : X → R eine Funktion in C n+1 (X), so gibt zu jedem x ∈ X ein ξ ∈ [0, 1] mit X X (x − a)p (x − a)p p p + . f (x) = (∂ f )(a + ξ(x − a)) (∂ f )(a) p! p! |p|=n+1 0≤|p|≤n {z } | rn+1 (x) (ii) Dabei ist • limx→a rn+1 (x) kx−akn = 0. Beweis Wir führen die Aussage mit Hilfe der Funktion [0, 1] → R g: t 7→ f (a + t(x − a)) auf die entsprechende Aussage über die 1–dimensionale Taylor–Approximation zurück. Gemäß Satz 35(ii) (AYS02) über die 1–dimensionale Taylor–Approximation gibt es ein ξ ∈ [0, 1], so dass n X g (n+1) (ξ) g (k) (0) + f (x) = g(1) = k! (n + 1)! k=0 z }| { z }| { n X p p X X (x − a) (x − a) = (∂ p f )(a) + (∂ p f )(a + ξ(x − a)) p! p! k=0 |p|=k = X |p|=n+1 p (∂ p f )(a) 0≤|p|≤n X (x − a) (x − a)p + (∂ p f )(a + ξ(x − a)) p! p! |p|=n+1 Zu (ii): Es ist rn+1 (x) n x→a kx − ak X (x − a)p p = lim (∂ f )(a + ξ(x − a)) • p! · kx − akn x→a |p|=n+1 p p X 1 x 1 − a1 1 x d − ad d p = lim (∂ f )(a + ξ(x − a)) · ··· · ·kx − ak • {z } kx − ak p! | kx − ak x→a |p|=n+1 | {z } stetig lim • ≤1 17 S. Hilger, Analysis 3 18.1 Taylorpolynome Der Satz bietet — wie im 1–dimensionalen Fall — den Anlass, einige spezielle Begriffe einzuführen: • Der Ausdruck X (∂ p f )(a) 0≤|p|≤n (x − a)p p! heißt das Taylorpolynom n–ten Grades mit Entwicklungsstelle a. Es handelt sich um ein Polynom n–ten Grades in den d Variablen (x−a)1 , . . . , (x−a)d ∈ R. Vorgegeben ist dabei eine Abbildung f , die an der Stelle a ∈ X n–mal (total) differenzierbar ist. • Die Differenz rn+1 (x) zwischen Funktion und zugeordnetem Taylorpolynom n–ten Grades wird wieder als (Taylor–)Restglied (n + 1)–ter Ordnung bezeichnet. Es gilt dann f (x) = X (∂ p f )(a) 0≤|p|≤n (x − a)p + rn+1 (x). p! Es gilt offenbar: rn (x) − rn+1 (x) = X (∂ p f )(a) |p|=n 18.2 (x − a)p . p! Gradient und Hesse’sche Matrix Wir berechnen etwas genauer die Taylorpolynome bis Grad 2. Für n = 0 ist p = (0, . . . , 0) also X (x − a)p (∂ p f )(a) = f (a). p! |p|=0 Die d–Tupel p mit Länge 1 haben die Form p = (0, . . . , 0, 1, 0, . . . , 0). Damit ist das Taylorpolynom für n = 1 gegeben durch X (∂ p f )(a) |p|=1 (x − a)p = ∂1 f (a) · (x1 − a1 ) + . . . + ∂d f (a) · (xd − ad ) p! ∂1 f (a) · · · ∂d f (a) · (x − a). = Definition Schreibt man den in der letzten Zeile auftretenden Zeilenvektor um in einen Spaltenvektor, so entsteht der Gradient von f an der Stelle a: ∂1 f (a) .. grad f (a) = ∇f (a) = . . ∂d f (a) Man nennt den Operator ∇ den Nabla–Operator (Nabla (gr): Harfe). 18 S. Hilger, Analysis 3 Bemerkung: Die ,,Umschreibung” eines Zeilenvektors in einen Spaltenvektor ist aus Sicht der multilinearen Algebra, die genau das Transformationsverhalten von Tensoren (,,höherstufigen Vektoren”) bei Basistransformationen im unterliegenden Vektorraum in den Blick nimmt, eigentlich unzulässig. Erst, wenn diese Umschreibung als ein Übergang von einer Linearform (= Zeilenvektor) zum dualen (Spalten–)Vektor bzgl. des kanonischen Skalarprodukts h· , · i im Rd interpretiert wird, ist wieder ,,fester Grund” erreicht. Es gilt dann für einen Vektor y ∈ Rd ∂1 f (a) .. ∂1 f (a) · · · ∂d f (a) · y = h , yi . . {z } | ∂d f (a) Matrix–Produkt | {z } Skalar–Produkt Im Fall |p| = 2 treten zwei Typen von d–Tupeln auf, nämlich die mit 2 an einer Stelle (p! = 2) und die mit 1 an zwei Stellen (p! = 1). Es ist dann X d d X X (xi − ai )2 (x − a)p 2 = (∂i f )(a) + (∂i ∂j f )(a)(xi − ai )(xj − aj ) (∂ f )(a) p! 2 i=1 i,j=1;i<j p |p|=2 d 1X = (∂i ∂j f )(a)(xi − ai )(xj − aj ) 2 i,j=1 Die soeben beschriebene Gestalt der zweiten Ableitung ist Anlass für eine weitere Definition: Definition Ist die Funktion f : X → R in einer Umgebung von a ∈ X zweimal stetig differenzierbar, so heißt die symmetrische d × d–Matrix 2 ∂1 f (a) ∂1 ∂2 f (a) · · · ∂1 ∂d f (a) .. . ∂2 ∂1 f (a) ∂22 f (a) Hess f (a) = ∂i ∂j f (a) ij = . . . .. .. .. 2 ∂d ∂1 f (a) ··· · · · ∂d f (a) die Hesse’sche Matrix von f im Punkt a. Bemerkung: Nur wenn die Bild–Zeilen–Vektoren der ersten Ableitungsfunktion von f — mit Hilfe des kanonischen Skalarprodukts — in Spaltenvektoren umgewandelt werden, ( nat 1×d dual d×1 ∼ 0 X → R ' R = Rd f : x 7→ grad f (x), kann die Hesse’sche Matrix als zweite Ableitung X → Rd×d 00 0 0 f = (f ) : x 7→ Hess f (x) von f aufgefasst werden. 19 S. Hilger, Analysis 3 Wir übernehmen aus der Linearen Algebra: Hilfssatz 8 Für eine reelle symmetrische d×d–Matrix A sind die folgenden vier Aussagen äquivalent: (i) (Definition) A ist positiv definit. (ii) Für eine beliebigen Vektor x ∈ Rd \ {0} gilt: xT A x > 0 (iii) Die Determinanten der (symmetrischen) Untermatrizen von A a11 · · · a1j .. .. , . . aj1 · · · ajj j = 1, . . . , d, (also: von links oben her) sind positiv. Bildlich: Die Einträge (und Blöcke) in den Diagonalen dominieren die Einträge (und Blöcke) außerhalb der Diagonalen. (iv) Alle d Eigenwerte (A ist diagonalisierbar) sind reell und positiv. Entsprechende Listen äquivalenter Aussagen gibt es für die Eigenschaften • ,,negativ definit”, • ,,positiv semidefinit”, • ,,negativ semidefinit”. Die reelle symmetrische d × d–Matrix A heißt indefinit, wenn es zwei Vektoren x, y ∈ Rd gibt, so dass xT Ax > 0, y T Ay < 0. 20 S. Hilger, Analysis 3 18.3 Extrema reellwertiger Funktionen Satz 9 Es sei a ∈ X ein innerer Punkt. Ist die Funktion f : X → R in a differenzierbar und hat sie dort ein Extremum, so gilt f 0 (a) = 0 0 · · · 0 . Beweis Es sei j ∈ {1, . . . , d} fest gewählt. Da a ein innerer Punkt ist, gibt es ein δ > 0, so dass die partielle Funktion ]aj − δ, aj + δ[, → R f (a1 , . . . , aj−1 , · , aj+1 , . . . , ad ) : x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ad ) ↑ j wohl–definiert ist. Sie hat ein Extremum bei aj , deshalb ist aufgrund von Satz 84/AYS01 ∂j f (a) = 0. Da dies für alle j ∈ {1, . . . , d} gilt, ist aufgrund von Satz 75/AYS02 f 0 (a) = ∂1 f (a) ∂2 f (a) · · · ∂d f (a) = 0 0 · · · 0 . Satz 10 (Extrema — Hinreichende Bedingungen) Es sei X ⊆ Rd offen, a ∈ X. Die Funktion f : X → R sei in C 2 (X), es sei f 0 (a) = 0. (i) Ist Hess f (a) positiv definit, so hat f in a ein strenges lokales Minimum. (ii) Ist Hess f (a) negativ definit, so hat f in a ein strenges lokales Maximum. Beweis Wir müssen nur (i) zeigen und können dabei a = 0 voraussetzen. (1) Nach Satz 7 ist f (x) = f (0) + 1 T x · Hess f (0) · x + r3 (x), 2 wobei r3 (x) = 0. 2 x→0 kxk lim • (2) Die (d − 1)–dimensionale Sphäre S = {x ∈ Rd |kxk = 1} im Rd ist kompakt, die stetige Abbildung S → R+ x 7→ xT · Hess f (0) · x nimmt deshalb auf S ihr Minimum an. Der Minimumswert M muss, da S abgeschlossen ist, positiv sein: M > 0. 21 S. Hilger, Analysis 3 (3) Für x 6= 0 zunächst gilt die Abschätzung, xT · Hess f (0) · x = xT x · Hess f (0) · · kxk2 ≥ M · kxk2 , kxk kxk die dann insgesamt auch für x = 0 zutrifft. (4) Aufgrund der in (1) zitierten Abschätzung lässt sich ein δ > 0 finden, so dass |r3 (x)| ≤ M · kxk2 4 für kxk < δ. Es folgt dann für diese x f (x) = f (0) + 1 T M x · Hess f (0) · x + r3 (x) ≥ f (0) + kxk2 , {z } | {z } 2 | 4 ≥M kxk2 f hat also ein strenges Minimum in 0. ≥− M kxk2 4 22 S. Hilger, Analysis 3 18.4 Sattelpunkte reellwertiger Funktionen In diesem Abschnitt sei X ⊆ R2 eine offene Teilmenge der Ebene. Definition Man sagt, die Funktion f : X → R hat bei a einen (strengen) Sattelpunkt, wenn es zwei reguläre Kurven α, β : ] − ε, +ε[ → X mit α(0) = β(0) = a gibt, so dass • die zusammengesetzte Funktion f ◦ α : ] − ε, +ε[ → R bei 0 ein strenges Maximum hat, • die zusammengesetzte Funktion f ◦ β : ] − ε, +ε[ → R bei 0 ein strenges Minimum hat, • die beiden Vektoren α0 (0), β 0 (0) linear unabhängig in R2 sind. Die dritte Bedingung ist nicht automatisch durch die ersten beiden erfüllt, wie man erwarten könnte. Als Beispiel diene f (x1 , x2 ) = −x61 + x21 · x2 Die Kurven α(t) = t 0 β(t) = t t2 0 0 haben beide den Tangentialvektor α (0) = β (0) = (f ◦ α)(t) = −t6 6 1 0 und es gilt (Maximum) 4 4 2 (f ◦ β)(t) = −t + t = t (1 − t ) = > 0, = 0, falls 0 < |t| < 1, falls t = 0. (Minimum) Zeichnung Satz 11 Hat die Funktion f : X → R bei a einen (strengen) Sattelpunkt und ist sie da differenzierbar, so ist die Ableitung Null: Df (a) = 0 0 . Beweis Es seien α, β die beiden Kurven, die die Sattelpunkteigenschaft hervorbringen. Aufgrund der Kettenregel Satz 59 (AYS02) ist das folgende 2 × 2–Gleichungssystem für ∂f ∂f 0 die beiden Koordinaten in dem Zeilenvektor f (a) = ∂x1 (a) ∂x2 (a) erfüllt: ∂1 f (a) · α10 (0) + ∂2 f (a) · α20 (0) = f 0 (α(0)) · α0 (0) = (f ◦ α)0 (0) = 0 KR ∂1 f (a) · β10 (0) + ∂2 f (a) · β20 (0) = f 0 (β(0)) · β 0 (0) = (f ◦ β)0 (0) = 0 KR Dass der jeweils letzte Ausdruck verschwindet, liegt daran, dass die Funktionen f ◦ α und f ◦ β in 0 jeweils ein Extremum haben. Da die beiden Vektoren α0 (0), β 0 (0) linear unabhängig in R2 sind, hat das LGS eine eindeutige Lösung, nämlich ∂f ∂f (a) (a) 0 0 Df (a) = ∂x = . ∂x 1 2 S. Hilger, Analysis 3 23 Satz 12 (Sattelpunkt — Hinreichende Bedingung) Es sei X ⊆ R2 offen, a ∈ X. Die Funktion f : X → R sei in C 2 (X), es sei f 0 (a) = 0. Ist Hess f (a) indefinit, so hat f in a einen Sattelpunkt. Beweis Wir können uns wieder auf den Fall a = 0 beschränken. Da Hess f (a) indefinit ist, gibt es einen Vektor y ∈ R2 mit y T · Hess f (a) · y > 0. Das aber bedeutet, dass die Funktion ] − δ, δ[ → R f |<y> : t 7→ f (ty) eine verschwindende erste und eine positive zweite Ableitung hat. Es existiert also eine Kurve mit Minimum. Analog existiert eine Kurve mit Maximum. 24 S. Hilger, Analysis 3 19 Der Approximationssatz von Stone–Weierstraß Definition Wir sagen, eine Menge X sei kompakt (oder ein kompakter Raum), wenn sie ein topologischer Raum (beispielsweise definiert durch eine Metrik) ist, bzgl. der X selbst kompakt ist. Wir betrachten in diesem Abschnitt für einen kompakten Raum X den Funktionen– Vektorraum (K ∈ {R, C}) n o C(X, K) := f : X → K stetig . Da stetige Funktionen auf kompakten Mengen beschränkt sind, ist die Supremumsnorm kf k := sup{|f (x)|} x∈X auf diesem Vektorraum definiert. Er wird zu einem vollständig metrischen Raum. Wir können die topologischen Begriffe aus Kapitel ???? anwenden. Satz 13 (Dini) Es sei X ein kompakter metrischer Raum. Es seien fn , f : X → R, n ∈ N, stetige Funktionen. Dann gilt die Implikation (fn ) punktweise monoton (fn ) punktweise konvergent gegen f =⇒ (fn ) gleichmäßig konvergent. f stetig Beweis (1) O.B.d.A. ist (fn ) monoton wachsend. Es sei f die (punktweise) Grenzfunktion und ε > 0 vorgegeben. Wir betrachten zunächst ein beliebiges, festes a ∈ X. (2) Es gibt ein Na ∈ N, so dass ε für alle n ≥ Na . |fn (a) − f (a)| ≤ 3 (3) Es gibt weiter eine Umgebung Ua von a, so dass aufgrund der Stetigkeit der beiden Funktionen fNa und f für alle x ∈ Ua ε |fNa (x) − fNa (a)| ≤ 3 ε |f (x) − f (a)| ≤ , 3 demzufolge auch |fNa (x) − f (x)| ≤ ε, gilt. (4) Jetzt wähle man endlich viele Stellen a1 , . . . , am ∈ X, so dass X ⊆ Sm i=1 Uai und setze N := max{Nai |i = 1, . . . , m}. (5) Ist nun x ∈ X beliebig, so gibt es ein j ∈ {1, . . . , m}, so dass x ∈ Uaj . Es gilt dann für alle n ≥ N aufgrund der Monotonie von (fn ) 0 ≤ f (x) − fn (x) ≤ f (x) − fN (x) ≤ f (x) − fNj (x) ≤ ε. 25 S. Hilger, Analysis 3 Es sei wieder K = R oder K = C. Definition Ist auf einem K–Vektorraum V eine Multiplikation, d.h. eine K–bilineare Abbildung V ×V → V · (v, ve) 7→ v · ve erklärt, so spricht man von einer K–Algebra. Es ist nicht einheitlich geregelt, ob der Begriff der Algebra beinhaltet, das für die Multiplikation das Assoziativgesetz gilt. Für uns sei dies aber der Fall. Die Algebra heißt kommutativ, wenn zusätzlich für diese Multiplikation das Kommutativgesetz gilt. Beispiele (1) R ist eine kommutative R–Algebra, C ist eine kommutative C–Algebra und eine kommutative R–Algebra. (2) Die Menge aller (quadratischen) (d × d)–Matrizen mit Einträgen aus K bildet eine K–Algebra, die für d ≥ 2 nicht kommutativ ist. (3) Die Menge der Funktionen f : X → K mit einer beliebigen Menge X als Definitionsmenge bildet eine kommutative K–Algebra, sie wird mit F(X, K) bezeichnet. Die Teilmenge der beschränkten Funktionen auf X bildet eine Unteralgebra B(X, K) von F(X, K). (4) Ist auf X eine Metrik (oder Topologie) erklärt, so bildet die Menge der stetigen Funktionen ebenfalls eine Unteralgebra C(X, K) von F(X, K). Weiter ist dann die Menge der stetigen beschränkten Funktionen eine weitere Unteralgebra BC(X, K). Beachte, dass für kompaktes X gilt: C(X, K) = BC(X, K). Definition Wir nennen eine Unteralgebra ( = Teilmenge, die eine Algebra ist) A(X, K) von F(X, K) eine Trenn–Algebra, wenn sie die folgenden Trennungs–Eigenschaften aufweist: • Die Algebra A(X, K) trenne die Stellen: Zu je zwei verschiedenen Stellen x, x e∈X existiere (mindestens) eine Funktion f ∈ A, so dass f (x) 6= f (e x). • Die Algebra A(X, K) trenne die Werte: Zu jeder Stelle x ∈ X gebe es zwei Funktionen f und fe, so dass f (x) 6= fe(x). 26 S. Hilger, Analysis 3 Satz 14 (Approximationssatz von Stone–Weierstraß) Es sei X eine kompakte Menge, K = R, und A(X, R) eine Trenn–Algebra von stetigen reellwertigen Funktionen. Dann gilt für den Abschluss von A(X, R): A(X, R) = C(X, R) Mit anderen Worten: Zu jeder stetigen Funktion f : X → R gibt es eine Folge von Funktionen (fn )n∈N in A(X, R), die gleichmäßig gegen f konvergiert. Wir zeigen diesen Satz mit einer Kaskade von Hilfssätzen. Sätzchen 15 Zu beliebigen a, b ∈ X, a 6= b, und α, β ∈ K gibt es (mindestens) eine Funktion f ∈ A, so dass f (a) = α, f (b) = β. Beweis Der Beweis wird zeigen, dass die Voraussetzungen K = R und X kompakt hier nicht benötigt werden. Gemäß Definition des Begriffs der ,,Trenn–Algebra” gibt es zu a, b ∈ X fünf Funktionen e, ga , ha , gb , hb ∈ A(X, K), so dass e(a) 6= e(b), ga (a) 6= ha (a), gb (b) 6= hb (b). Man sieht dann leicht, dass die Funktion f ∈ A(X, K), definiert durch f (x) := α [e(x) − e(a)] · [gb (x) − hb (x)] [e(x) − e(b)] · [ga (x) − ha (x)] +β , [e(a) − e(b)] · [ga (a) − ha (a)] [e(b) − e(a)] · [gb (b) − hb (b)] die Aussage des Sätzchens erfüllt. Frage: Warum braucht man die Faktoren mit g und h? Antwort: Es ist keineswegs klar, dass die konstanten Funktionen, hier in der Algebra A(X, K) enthalten sind. e(b) e(a)−e(b) bzw. e(a) e(b)−e(a) Hilfssatz 16 Es existiert eine monoton wachsende√Folge (pn ) von Polynomen pn : [0, 1] → R, die gleichmäßig gegen die Wurzelfunktion x konvergiert. Beweis (1) Wir definieren diese Folge rekursiv durch p1 ≡ 0, pn+1 (x) := pn (x) + x − p2n (x) 2 und zeigen per Induktion √ (2) 0 ≤ pn (x) ≤ x für alle x ∈ [0, 1]. Für die Durchführung des Induktionsschritts beachte man einfach √ √ √ √ x − p2n (x) x + pn (x) x − pn+1 (x) = x − pn (x) + = x − pn (x) · 1 − . 2 2 | {z } | {z } ≥0 ∈ [0,1] 27 S. Hilger, Analysis 3 Man ersieht aus dieser Identität auch, dass (pn ) monoton wachsend ist. (3) Für jedes x ∈ [0, 1] ist die Folge (pn (x)) monoton wachsend und (nach oben) beschränkt, sie besitzt demzufolge einen Grenzwert f (x). Durch Grenzübergang in der Re√ 2 kursionsformel sieht man f (x) = x, wegen f (x) ≥ 0 muss f (x) = x sein. (4) Der Satz 13 von Dini zeigt abschließend, dass die Konvergenz gleichmäßig ist. Hilfssatz 17 Ist f ∈ A(X, R), so ist |f | ∈ A(X, R). Beweis Zum Beweis definieren wir die Funktionen gn (x) := kf k · pn (( fkf(x)k )2 ), sie gehören alle zu A(X, R). Gemäß vorigem Hilfssatz besteht gleichmäßige Konvergenz der Folge p pn (y 2 ) −→ y 2 = |y| auf [0, 1], deshalb dann auch die der Folge gn (x) = kf k · pn ( f (x) kf k 2 s ) −→ kf k · f (x) kf k 2 = |f (x)|. Hilfssatz 18 Ist f ∈ A(X, R), so ist |f | ∈ A(X, R). Beweis Es gibt eine Folge (fn ) ⊆ A(X, R), die gleichmäßig gegen f konvergiert. Die Folge (|fn |) ⊆ A(X, R) konvergiert gleichmäßig gegen |f |. Da A(X, R) abgeschlossen ist, ist |f | ∈ A(X, R). Hilfssatz 19 Zu je zwei Funktionen f, g ∈ A(X, R) gehören auch die beiden Funktionen max(f, g) und min(f, g) (punktweise definiert) zu A(X, R). Beweis Dies folgt aus den Identitäten: max(f, g) = f + g + |f − g| , 2 min(f, g) = f + g − |f − g| . 2 Hilfssatz 20 Zu zwei stetigen Funktionen f ⊥ : X → R (bottom) und f > : X → R (top) mit f ⊥ (x) < f > (x), x ∈ X, gibt es eine Funktion g in A(X, R), so dass f ⊥ (x) < g(x) < f > (x), x ∈ X. 28 S. Hilger, Analysis 3 Beweis (1) Es seien a, b zwei (nicht notwendig verschiedene) Stellen in X. Es gibt dann gemäß Sätzchen 15 eine Funktion gab ∈ A(X, R), so dass f ⊥ (a) < gab (a), gab (b) < f > (b). (2) Wir halten jetzt ein beliebiges a ∈ X fest. Zu jedem b ∈ X gibt es dann eine offene Umgebung Ub von b, so dass gab (x) < f > (x), x ∈ Ub . Da X kompakt ist, gibt es endlich viele i = 1, . . . , m, so dass m [ X⊆ Ubi . i=1 Wir definieren die Funktion ga durch ga (x) := min {gab1 (x), . . . , gabm (x)}. i∈{1,...,m} Sie hat die folgenden beiden Eigenschaften: f ⊥ (a) < ga (a), ga (x) < f > (x), x ∈ X. Die erste ist klar wegen f ⊥ (a) < gabi (x) für alle i = 1, . . . , m. Zum Nachweis der zweiten betrachte man ein festes x ∈ X, suche sich das i mit x ∈ Ubi und erhält dann ga (x) ≤ gabi (x) < f > (x). Weiter gibt es jetzt zu jedem a ∈ X, da ga und f ⊥ stetig sind, eine Umgebung Va von a, so dass f ⊥ (x) < ga (x), x ∈ Va . Da X kompakt ist, gibt es endlich viele j = 1, . . . , j, so dass X⊆ j [ Ubj . j=1 Wir definieren die Funktion g durch g(x) := max {ga1 (x), . . . , gaj (x)}. j∈{1,...,j} Sie hat die folgenden beiden Eigenschaften: f ⊥ (x) < g(x) < f > (x), x ∈ X. Die zweite Ungleichung ist klar wegen gaj (x) < f > (x) für alle j = 1, . . . , j. Zum Nachweis der zweiten betrachte man ein festes x ∈ X, suche sich das j mit x ∈ Uaj und erhält dann f ⊥ (x) < gaj (x) ≤ g(x). Beweis des Satzes von Stone–Weierstrass. Es sei also f stetig und ε > 0 vorgegeben. Setze im letzten Hilfssatz f ⊥ = f − ε, f > = f + ε. Es existiert dann eine Funktion g ∈ A(X, R) mit f − ε < g < f + ε, was die Abschätzung kf − gk < ε nach sich zieht. S. Hilger, Analysis 3 20 29 Integration im Rd Der mehrdimensionalen Integralrechnung liegt zunächst das Vorhaben zugrunde, im ,,im Rd ” definierte reellwertige Funktionen f über Teilmengen X von Rd zu integrieren und ihnen eine reelle Zahl, das Integral Z f ∈R X zuzuordnen. Es stellt sich dabei heraus, dass dieses Vorhaben erheblich anspruchsvoller — und deshalb wieder sehr viel interessanter — im Vergleich zu seiner eindimensionalen Entsprechung ist. Dem Vorhaben unterliegt stark die Klärung, welche ,,spezielleren und verallgemeinernden” mathematischen Objekte die Rolle der Teilmengen X und der Funktionen f einnehmen. Anstelle der Teilmengen X werden wir es zu tun haben mit: D Quadern, kompakten Trägern, Mengensimplexen, V (orientierten) Simplexen und Ketten, L messbaren und L–integrierbaren Mengen. Anstelle der Funktionen f werden wir begegnen: D stetigen Funktionen, V differenzierbaren Funktionen, Differentialformen, L messbaren und L–integrierbaren Funktionen. Die drei Kürzel bedeuten dabei: D Definition: Eine erste einfache Definition des mehrdimensionalen Integrals mittels mehrfacher eindimensionaler Integration ist für Quader und stetige Funktionen angebbar. Zur Ausschaltung des Einwands, dass diese Definition von der Reihenfolge der Einzel–Integrationen abhängig sein könnte, muss der in sich gewichtige Satz von Stone–Weierstraß bereitgestellt werden. V Vektoranalysis: Sie beschäftigt sich mit der Verallgemeinerung der Substitutionsregel und des HDI für den höher–dimensionalen Kontext. Am Ende stehen die Transformationsformel und der Satz von Stokes. L Lebesgue–Theorie: Hier begibt man sich auf die Suche nach möglichst großen Klassen von Mengen und Funktionen, für die das Integral sinnvoll definiert werden kann. Der gewichtigere Aspekt dabei ist, dass diese Klassen mathematisch sehr geschmeidig werden: – Die Klasse der L–integrierbaren Funktionen bildet einen vollständig normierten Vektorraum. – Das System aller messbaren Mengen bildet eine sogenannte σ–Algebra, das heißt das Komplemente, abzählbare Vereinigungen und Schnitte messbarer Mengen wieder messbar sind. 30 S. Hilger, Analysis 3 Integration über Quadern des Rd 20.1 Definition Es sei Q = [a1 , b1 ] × . . . × [ak , bk ] × [ak+1 , bk+1 ] × . . . × [ad , bd ] ⊆ Rd , | {z } =:Qd−k ein achsenparalleler kompakter Quader und % : Q → R eine stetige Funktion. Wir definieren rekursiv für k = 0, . . . , d die Funktionen Qd → R (I0 %) : x 7→ %(x) ( (Ik %) : Qd−k → R Rb x 7→ akk (Ik−1 %)(xk , . . . , xd−k+1 ) dxk . Die Funktion Ik % entsteht also dadurch, dass • bzgl. der ersten k Variablen, x1 , . . . , xk • über die Intervalle [a1 , b1 ], . . . [ak , bk ] • bei festgehaltenen restlichen Variablen xk+1 , . . . , xd eindimensional integriert wird. Wir bereits mehrfach aufgetreten, ist bei einer rekursiven Definition eine Pünktchen–Schreibweise viel suggestiver: Z bk Z b1 (Ik %)(xk+1 , . . . , xd ) = ··· %(x1 , . . . , xk , xk+1 , . . . , xd ) dx1 · · · dxk . | {z } | {z } ak a1 integriert fixiert Dieser Iterationsprozess ist wohldefiniert, da jeweils mit Ik % auch Ik+1 % wieder eine stetige Funktion mit kompaktem Träger ist (Beweis in der Übung). (3) Nach d–maliger Integration entsteht die Zahl Z b1 Z Z bd %(x) dx := Id % = ··· %(x1 , . . . , xd ) dx1 · · · dxd . Q ad a1 Sie wird das Integral von % über den Quader Q genannt. 31 S. Hilger, Analysis 3 20.2 Vertauschbarkeit in der Integrationsreihenfolge Satz 21 (Vertauschbarkeit in der Integrationsreihenfolge) Es sei π : {1, . . . , d} → {1, . . . , d} eine bijektive Abbildung (Permutation). Dann gilt für stetiges % : Q → R: Z Z bπ(d) Z bπ(1) (i) %(x) dx = ··· %(x1 , . . . , xd ) dxπ(1) . . . dxπ(d) . Q aπ(d) aπ(1) Bei der Definition des Integrals kommt es also auf die Reihenfolge der einzelnen Integrationen nicht an. Z b1 Z Z bd %(xπ(1) , . . . , xπ(d) ) dx1 . . . dxd . ··· (ii) %(x) dx = ad Q a1 Im Integranden können die Variablen beliebig vertauscht werden. Beweis (0) Es genügt offensichtlich, die Formel (i) für d = 2 und den Fall, zu beweisen, dass π die beiden Koordinaten 1 und 2 vertauscht. Es sei ein Quader Q = [a1 , b1 ] × [a2 , b2 ] gegeben. (1) Wir nehmen zunächst an, dass die stetige Funktion % als Summe von Zweierprodukten von stetigen Funktionen geschrieben werden kann, die nur von jeweils einer Koordinate abhängen: %(x1 , x2 ) = n X σj (x1 ) · τj (x2 ) (∗) j=1 Dann gilt (sehr ausführlich) Z b2 Z b1 n Z X %(x1 , x2 ) dx1 dx2 = a2 a1 = = = = b2 j=1 a2 n Z b1 X j=1 a1 n Z b1 X j=1 a1 n Z b1 X Z b1 b1 σj (x1 ) · τj (x2 ) dx1 dx2 j=1 a2 n Z b2 X j=1 Z a1 Z a1 Z b1 σj (x1 ) dx1 · τj (x2 ) dx2 a1 Z b2 σj (x1 ) dx1 · τj (x2 ) dx2 a2 Z b2 σj (x1 ) · τj (x2 ) dx2 dx1 a2 Z b2 σj (x1 ) · τj (x2 ) dx2 dx1 a2 b2 = %(x1 , x2 ) dx2 dx1 a1 a2 32 S. Hilger, Analysis 3 (2) Es sei jetzt % : Q → R eine beliebige stetige Funktion und ein ε > 0 vorgegeben. Alle Funktionen % : Q → R der Form (∗) bilden eine PR–Trenn–Algebra. Aufgrund des Satzes von Stone–Weierstraß 14 gibt es eine Funktion nj=1 σj (x1 )·τj (x2 ) in dieser Trenn– Algebra mit sup{|%(x1 , x2 ) − x∈Q n X σj (x1 ) · τj (x2 )|} ≤ j=1 ε . 2(b2 − a2 )(b1 − a1 ) Aufgrund des Abschätzungssatzes der Integralrechnung gilt Z Z n b2 b1 X [%(x1 , x2 ) − σj (x1 ) · τj (x2 )] dx1 dx2 ≤ a2 a1 j=1 Z Z n b1 b2 X [%(x1 , x2 ) − σj (x1 ) · τj (x2 )] dx2 dx1 ≤ a1 a2 j=1 und deshalb weiter Z b2 Z b1 Z %(x1 , x2 ) dx1 dx2 − a2 a1 b1 a1 Z b2 a2 ε 2 ε 2 %(x1 , x2 ) dx2 dx1 ≤ ε. Da ε beliebig war, stimmen die beiden Integrale überein. (3) Die Aussage unter (ii) folgt aus der ersten (i) durch Anwendung auf die Permutation π −1 und anschließende Umbenennung der Variablen: Z Z b −1 Z b −1 π (d) π (1) %(x) dx = ··· %(x1 , . . . , xd ) dxπ−1 (1) . . . dxπ−1 (d) Q aπ−1 (d) Z bd aπ−1 (1) Z b1 ··· = ad %(xπ(1) , . . . , xπ(d) ) dx1 . . . dxd . a1 33 S. Hilger, Analysis 3 21 21.1 Die Transformationsformel Integration von stetigen Funktionen mit kompaktem Träger Definition Ist M ein metrischer Raum und % : M → R eine Funktion, so nennt man die abgeschlossene Teilmenge supp % := {x ∈ M |%(x) 6= 0} den Träger (support) der Funktion %. Der Vektorraum der stetigen Funktionen % : M → R mit kompaktem Träger wird mit Cc (M, R) (c = compact) bezeichnet. In nicht wenigen Teilen der Analysis spielen die Funktionen mit kompaktem Träger eine wichtige Rolle. Definition Es sei % ∈ Cc (Rd , R). Dann gibt es einen achsenparallelen kompakten Quader Q mit supp % ⊆ Q. R Offenbar ist das Integral Q %(x) dx von der Auswahl des Quaders Q ⊇ supp % unabhängig, deshalb definiert man das Integral (schlechthin) der stetigen Funktion mit kompaktem Träger % durch: Z Z Z %(x) dx = %(x) dx := %(x) dx. Rd Q Die Zusatznotation, dass über die Menge Rd integriert wird, wird wann immer möglich, weggelassen. Damit sind wir einem abstrakteren Integrationsbegriff ein Stück näher gekommen insofern, als die Abhängigkeit der Integration von einem ,,Integrationsbereich” verschwunden ist. Ein beträchtlicher Teil des Lebesgue–Programms besteht darin, den kleinen Fundus der Kompakt–Träger–stetigen Funktionen drastisch zu erweitern. Dies geschieht dadurch, dass Funktionen mit schwächeren Eigenschaften geeignet durch Funktionen aus Cc (Rd , R) approximiert werden. Bevor wir dieses Programm durchführen, werden wir erst die Transformationsformel beweisen. Für deren Beweis in Abschnitt 21.4 sind einige Vorbereitungen nötig, die zunächst gar keinen Bezug zur Integration erkennen lassen und teilweise für sich selbst interessant sind. 34 S. Hilger, Analysis 3 21.2 Vorbereitung: Zerlegung der Eins Satz 22 (C ∞ –Zerlegung der Eins) Es sei U eine offene Überdeckung der kompakten Menge K ⊆ Rd . Dann gibt es endlich viele C ∞ –Funktionen d R → [0, 1] ψj : , j = 1, . . . , n x 7→ ψj (x) mit folgenden Eigenschaften • Zu jedem j = 1, . . . , n gibt es ein U ∈ U, so dass • Es ist ψ1 (x) + . . . + ψn (x) = 1 supp ψj ⊆ U . für alle x ∈ K. Man sagt, dass die Funktionen ψj eine der Überdeckung U unterliegende C ∞ –Zerlegung der Eins bilden. Beweis (1) Es sei zunächst ein a ∈ K festgehalten. Dazu gibt es ein Ua ∈ U und weiter offene Kugeln Va , Wa mit Mittelpunkt a und Radien ra < Ra , so dass a ∈ Va ⊆ Wa ⊆ Wa ⊆ Ua . Die C ∞ –Funktion d R → [0, 1] ωa : x 7→ Ω−Ra ,−ra ,+ra ,+Ra ( kxk ) (vgl. Sätzchen 18, AYS02) hat auf Va den konstanten Wert 1, außerhalb von Wa den konstanten Wert 0 und dazwischen nehmen sie Werte zwischen 0 und 1 an. (2) Da K kompakt ist, existiert zu der offenen Überdeckung V := {Va |a ∈ K} eine endliche Teilüberdeckung V 0 = {Vaj |j = 1, . . . , n} von V für K. (3) Wir definieren die Funktionen ψ1 , . . . , ψn durch ψj := [1 − ωa1 ] · . . . · [1 − ωaj−1 ] · ωaj (Für j = 1 fallen die Faktoren in eckigen Klammern einfach weg). (4) Es bleiben noch die im Satz angegebenen Eigenschaften zu überprüfen: Da alle Funktionen ωj Werte zwischen 0 und 1 annehmen, gilt dies auch für die Funktionen ψj . Es ist weiter zu sehen, dass supp ψj ⊆ supp ωaj ⊆ Uaj . (5) Als nächstes beweist man leicht per Induktion über j = 1, . . . , n, dass ψ1 + . . . + ψj = 1 − [1 − ωa1 ] · . . . · [1 − ωaj ]. 35 S. Hilger, Analysis 3 (6) Betrachtet man nun ein beliebiges x ∈ K, so ist es in einer offenen Kugel Vaj ∈ V 0 enthalten. Es gilt dann ωaj (x) = 1, deshalb ψ1 (x) + . . . + ψn (x) = 1 − [1 − ωa1 (x)] · . . . · [1 − ωaj (x)] · . . . · [1 − ωan (x)] = 1. | {z } =0 36 S. Hilger, Analysis 3 21.3 Vorbereitung: Die Primitiv–Zerlegung Definition Es sei X ⊆ Rd offen. Die Abbildung g : X → Rd heißt primitiv (auf X), wenn es ein k ∈ {1, . . . , d} und eine Abbildung γ : X → R gibt, so dass x1 .. . xk−1 g(x) = γ(x) xk+1 . .. xd geschrieben werden kann. Definition Eine Matrix der Form Qjk = 1 .. . 1 0 .. . .. . .. . ··· 1 ··· ··· 1 .. . ··· ··· 1 .. . .. . . 1 .. ··· 0 1 .. . 1 heißt Flip. Die beiden Koordinatennummern j und k sind durch das Auftreten von Nullen in der Diagonalen definiert. Man mache sich klar, dass ein Flip genau die zu diesen beiden Koordinatennummern gehörigen Komponenten eines Vektors im Rd vertauscht. Satz 23 (Primitiv–Zerlegung) Es sei 0 ∈ X und ϑ : X → Rd eine stetig differenzierbare Abbildung mit ϑ(0) = 0, ϑ0 (0) invertierbar. Dann gibt es eine Umgebung U von 0, so dass ϑ auf U als Produkt zweier Abbildungen ϑ=P ◦Θ geschrieben werden kann, wobei • Θ : U → Rd ein Produkt von d primitiven C 1 –Funktionen • P eine d × d–Permutationsmatrix ist. und 37 S. Hilger, Analysis 3 Beweis (1) Wir beweisen per Induktion über j = 1, . . . , d die folgenden Aussagen: (Aj ) : Es existieren • zwei Umgebungen Uj , Vj ⊆ X von 0, • eine Funktion gj : Uj → Vj die ein Produkt von j − 1 primitiven C 1 –Funktionen ist, und gj (0) = 0 erfüllt, • eine C 1 –Funktion ϑj : Vj → Rd mit (ϑj )1 (x) = x1 .. . (∗) (ϑj )j−1 (x) = xj−1 , • eine Permutationsmatrix Pj , so dass ϑ = Pj ◦ ϑj ◦ gj auf Uj . Diese Gleichung impliziert, dass die Jacobi–Matrizen von ϑj und gj in 0 invertierbar sind. (2) Zum Induktionsanfang j = 1 setzt man V1 g1 ϑ1 P1 := = = = U1 = X idX ϑ I (Einheitsmatrix) Es ist leicht zu sehen, dass die Aussage (A1 ) erfüllt ist, die Aussage (∗) ist dabei ,,inhaltslos”. (3) Die Aussage (Ad ) beinhaltet den Satz, es hat dann nämlich ϑ die Darstellung ϑ = Pd ◦ ϑd ◦ gd auf Ud wobei Pd eine Permutationsmatrix, gd ein Produkt von d − 1 primitiven C 1 –Abbildungen und ϑd selbst eine primitive C 1 –Abbildung ist. (4) Wir müssen den Induktionsschritt durchführen, es sei also (Aj ) für j ≤ d − 1 erfüllt. Wir betrachten die j–te Spalte in der Jacobi–Matrix ϑ0j (0): • Aufgrund von (∗) sind die oberen j − 1 Einträge in dieser Spalte gleich Null. • Die Spalte als ganzes ist aufgrund der Invertierbarkeit der Matrix ungleich Null. 38 S. Hilger, Analysis 3 • Also gibt es ein k mit j ≤ k ≤ d, so dass an der Position (j, k) der Matrix ein Eintrag ungleich Null ist: ∂j (ϑj )k (0) 6= 0. (5) Wir definieren die Funktion Vj → Rd y1 .. . yj−1 hj+1 : y 7→ (ϑj )k (y) yj+1 .. . yd . Gemäß dem Satz über inverse Funktionen existieren Null–Umgebungen Wj+1 ⊆ Vj , Vj+1 := hj+1 (Wj+1 ), so dass nach Einschränkung die Funktion hj+1 : Wj+1 → Vj+1 bijektiv wird mit der primitiven C 1 –Umkehrfunktion Vj+1 → Wj+1 x1 .. . x j−1 −1 hj+1 : −1 x 7→ (hj+1 )j (x) . xj+1 . .. xd (6) Wir definieren weiter die Null–Umgebungen und Funktionen Uj+1 gj+1 ϑj+1 := := := gj−1 (Wj+1 ) hj+1 ◦ gj : Uj+1 → Vj+1 d Qj+1 ◦ ϑj ◦ h−1 j+1 : Vj+1 → R Dabei sei Qj+1 die Permutationsmatrix, die die Zeilen k und j eines Vektors aus Rd vertauscht, im Fall k = j die Einheitsmatrix. Beachte Q2j+1 = I. (7) Es ist dann nach Induktionsvoraussetzung ϑ = Pj ◦ ϑj ◦ gj = Pj ◦ Qj+1 ◦ Qj+1 ◦ ϑj ◦ h−1 j+1 ◦ hj+1 ◦ gj = Pj ◦ Qj+1 ◦ϑj+1 ◦ hj+1 ◦ gj | {z } | {z } =:Pj+1 =:gj+1 39 S. Hilger, Analysis 3 und gj+1 ein Produkt von j primitiven Funktionen. (8) Es muss noch die Eigenschaft (∗) für j +1 bewiesen werden. Dazu sei x ∈ Vj+1 beliebig. Dazu gibt es ein y ∈ Wj+1 mit x = hj+1 (y). Es folgt dann ϑj+1 (x) = ϑj+1 ◦ hj+1 (y) = Qj+1 ◦ ϑj (y) y1 y1 .. .. . . yj−1 yj−1 (ϑj )j (y) (ϑj )k (y) (ϑ ) (y) = (ϑj )j+1 (y) = Qj+1 j j+1 .. .. . . (ϑ ) (y) (ϑ ) (y) j j j k . .. .. . (ϑj )d (y) x1 .. . xj−1 xj = (ϑj )j+1 (y) .. . (ϑ ) (y) j j .. . (ϑj )d (y) (ϑj )d (y) . 40 S. Hilger, Analysis 3 21.4 Die Transformationsformel Satz 24 (Transformationsformel) Es seien X, Y ⊆ Rd offen und ϑ : X → Y eine bijektive C 1 –Abbildung, wobei ϑ0 (x) invertierbar ist für alle x ∈ X. Weiter sei % : Y → R eine stetige Funktion mit kompaktem Träger in Y . Dann gilt: Z Z %(y) dy = %(ϑ(x)) · | det ϑ0 (x)| dx. Beweis (1) Wir überlegen zunächst: Ist die Aussage für zwei Abbildungen g : X → Z und h : Z → Y richtig, so gilt sie auch für ϑ = h ◦ g : X → Y . Es ist nämlich Z Z %(y) dy = %(h(z)) · | det h0 (z)| dz {z } | =:e %(z) Z = %(h(g(x))) · | det h0 (g(x))| ·| det g 0 (x)| dx {z } | =:e %(g(x)) (Kettenregel und Determinanten–Multiplikations–Satz) Z = %(ϑ(x)) · | det ϑ0 (x)| dx (2) Wir zeigen die Aussage zunächst für den Fall, dass • Y konvex ist und • ϑ eine primitive bijektive C 1 –Abbildung X → Y ist, wobei ϑ0 (x) invertierbar ist für alle x ∈ X. (Zur Einpassung der Notation benennen wir diese Abbildung in g um.) Aufgrund des Satzes 21 über die Vertauschbarkeit in der Integrationsreihenfolge können wir annehmen, dass die Funktion γ in der ersten Koordinate von g auftritt, die Funktion g also die Form y1 γ(x1 , . . . , xd ) y2 x2 . . . .. . = g(x) = . . . .. .. yd xd hat. Da Y konvex ist, ist auch das Bild X = γ −1 (Y ) unter der stetigen Abbildung konvex. (3) Es existieren kompakte achsenparallele Quader QY = [a1 , b1 ] × [a2 , b2 ] × · · · × [ad , bd ] QX = [α1 , β1 ] × [a2 , b2 ] × · · · × [ad , bd ], so dass supp % ⊆ QY , γ −1 (supp %) ⊆ QX . 41 S. Hilger, Analysis 3 (4) Wegen ∂1 γ(x) ∂2 γ(x) 0 1 .. . 0 .. .. . . 0 0 det g 0 (x) = det ··· 0 .. . .. . ··· · · · ∂d γ(x) ··· 0 .. .. . . .. . 0 0 1 = ∂1 γ(x) muss ∂1 γ 6= 0 auf X sein. Aufgrund des Zwischenwertsatzes und der Konvexität von X muss ∂1 γ konstantes Vorzeichen haben. (5) Für festes ye = (y2 , . . . , yd ) ∈ Rd−1 sei das Intervall [α(e y ), β(e y )] = := γ −1 (· , ye)([min(supp %), max(supp %)]) ⊆ [α1 , β1 ] definiert. Die auf ihm definierte Abbildung [α(e y ), β(e y )] → [a1 , b1 ] γye : x1 7→ γ(x1 , ye) ist streng monoton. (6) Es gilt nun Z %(y) dy Z bd Z b2 "Z ··· = ad # b1 %(y1 , . . . , yd ) dy1 dy2 · · · dyd a2 a1 (1–dimensionale Substitutionsregel) Z bd Z b2 "Z ··· = ad a2 # β(e y) α(e y) %(γ(x1 , ye), ye) |∂1 γ(x1 , ye)| dx1 dy2 · · · dyd (Umbenennung der Integrationsvariablen), x e=y e Z bd Z b2 "Z ··· = ad a2 # β(e x) α(e x) %(γ(x1 , x e), x e) |∂1 γ(x1 , x e)| dx1 dx2 · · · dxd (Ausweitung der Integrationsgrenzen, da Integrand Null auf den Erweiterungsintervallen) Z bd b2 "Z ad Z a2 # β ··· = = Z α %(γ(x), x e)|∂1 γ(x1 , x e)| dx1 dx2 · · · dxd %(g(x))| det g 0 (x)| dx. 42 S. Hilger, Analysis 3 (3) Wir zeigen die Aussage als nächstes für den Fall, dass Y eine beliebige offene Menge und g : X → Y eine primitive bijektive C 1 –Abbildung ist. Zu jedem z ∈ supp % gibt es einen offenen achsenparallelen Quader Qz mit z ∈ Qz ⊆ Y . Alle diese Quader bilden eine offene Überdeckung der kompakten Menge supp %. Es gibt also eine unterliegende C ∞ –Zerlegung der Eins, das sind endlich viele C ∞ –Funktionen d R → [0, 1] ψj : y 7→ ψj (y) mit folgenden Eigenschaften • Zu jedem j = 1, . . . , n gibt es ein z ∈ supp %, so dass • Es ist ψ1 (y) + . . . + ψn (y) = 1 supp ψj ⊆ Qz . für alle y ∈ supp %. Die Abbildung % kann jetzt als Summe %(y) = %(y)ψ1 (y) + . . . + %(y)ψn (y) von n Funktionen % · ψj mit Träger jeweils in einem Qz geschrieben werden. Deshalb ist die Aussage (3) auf die Aussage in Schritt (2) zurückgeführt. (4) Ist nun ϑ : X → Y eine beliebige C 1 –Abbildung, so gibt es gemäß dem Satz 23 über die Primitiv–Zerlegung eine Permutationsmatrix P und eine C 1 –Abbildung Θ, die das Produkt von d primitiven Abbildungen ist, so dass ϑ = P ◦ Θ. Da der Satz für jede einzelne dieser Abbildungen richtig ist, gilt er auch für ϑ. 43 S. Hilger, Analysis 3 22 22.1 Integral für C ↑–Funktionen C ↑ –Funktionen Wir werden in diesem Abschnitt Funktionen mit Werten in der erweitere Zahlengerade R = R ∪ {−∞, +∞} zu betrachten haben. Auf dieser Menge sind eine Ordnung und eine Metrik definiert. Die auf R definieren Grundrechenarten können als stetige Operationen teilweise auf die erweitere Zahlengerade fortgesetzt werden: • Die Addition ist auf R × R \ {(−∞, +∞), (+∞, −∞)} wohldefiniert. • Die Multiplikation ist auf R × R \ {(0, −∞), (0, +∞), (−∞, 0), (+∞, 0)} wohldefiniert. • Die Inversenbildung x 7→ 1 x ist auf R \ {0} wohldefiniert. • Die auf das Intervall ]0, +∞] eingeschränkte Inversenbildung kann stetig auf [0, +∞] fortgesetzt werden durch die Festsetzung 01 = +∞. Beachte, dass die Körpergesetze nicht uneingeschränkt gültig sind. Definition Eine Funktion % : Rd → R heißt in a ∈ Rd unterhalbstetig (oder von unten halbstetig), wenn es zu jedem ε > 0 ein δ > 0 existiert, so dass %(a) − ε < %(x) für alle x mit kx − ak < δ. Eine Funktion % : Rd → R heißt unterhalbstetig (schlechthin), wenn sie in jedem a ∈ Rd unterhalbstetig ist. Beispiele 1. Stetige Funktionen sind unterhalbstetig. 2. Ist Y ⊆ Rd eine Teilmenge, so heißt d R → R 1, χY : x 7→ 0, falls x ∈ Y, falls x ∈ / Y. die Indikatorfunktion von Y . Eine Indikatorfunktion ist genau dann unterhalbstetig, wenn die zugehörige Teilmenge offen ist. 44 S. Hilger, Analysis 3 Satz 25 (und Definition) Wir definieren eine Teilmenge C ↑ (Rd ) von Funktionen Rd → R durch die folgenden äquivalenten Aussagen: (A) (Definition) % ∈ C ↑ (Rd ). (B) Es gibt eine monoton steigende Folge (%k )k∈N mit %k ∈ Cc (Rd ) für alle k, die punktweise gegen % konvergiert. (C) % ist unterhalbstetig, nimmt den Wert −∞ nicht an. Weiter gibt es eine kompakte Teilmenge K ⊆ Rd , so dass {x ∈ Rd |%(x) < 0} ⊆ K. (D) % ist unterhalbstetig und besitzt eine Minorante %e ∈ Cc (Rd ). Beweis Forster 3, Seite 41 oder Dieudonne II, Satz 12.7.8, Seite 31. 45 S. Hilger, Analysis 3 Die Menge C ↑ (Rd ) ist kein Vektorraum von Funktionen, es treten aber viele andere ,,Abschluss–Eigenschaften” in Erscheinung. Satz 26 (i) Es seien %, %e ∈ C ↑ (Rd ), α ∈ R+ 0 . Dann gehören auch die Funktionen α%, min{%, %e}, % + %e, max{%, %e} zu C ↑ (Rd ). (ii) Es sei (%k )k∈I eine Familie von Funktionen aus C ↑ (Rd ). Dann gehört auch die Funktion % := sup{%k |k ∈ I} zu C ↑ (Rd ). (iii) Es sei (%k )k∈N eine Folge in C ↑ (Rd ) mit %k ≥ 0 für alle k ∈ N. Dann gehört auch die Funktion ∞ X %k k=1 zu C ↑ (Rd ). (iv) Es sei % ∈ C ↑ (Rd ) und a ∈ Rd . Dann gehören die partiellen Funktionen %(· · · , a` , · · ·) : Rd−1 → R y 7→ %(y1 , . . . , yk−1 , a` , yk , . . . , yd−1 ) zu C ↑ (Rd−1 ). Beweis (i) Sind (%k )k∈N und (e %k )k∈N zugehörigen monoton steigenden punktweise konvergenten Folgen in Cc (Rd ), so haben die Folgen (α%k ), (%k + %ek ), (min{%k , %ek }), (max{%k , %ek }) die gleichen Eigenschaften und konvergieren gegen die im Satz angegebenen Funktionen. (ii) Es seien a ∈ Rd und ε > 0 fixiert. Wegen %(a) = sup{%k (a)|k ∈ I} gibt es ein k ∈ I, so dass %k (a) > %(a) − ε. Da %k unterhalbstetig ist, gibt es ein δ > 0, so dass %(x) ≥ %k (x) > %(a) − ε für alle x mit kx − ak < δ. S. Hilger, Analysis 3 46 Also ist % unterhalbstetig. Weiter ist {x ∈ Rd |%(x) < 0} ⊆ {x ∈ Rd |%k (x) < 0} in einer kompakten Menge enthalten. (iii) Die durch die Reihe definierte Funktion ist Supremum der Partialsummen, von denen wir aufgrund von (i) wissen, dass sie zu C ↑ (Rd ) gehören. (iv) Es sei wieder (%k )k∈N eine monoton steigende Folge in Cc (Rd ), die punktweise gegen % konvergiert. Dann ist die Folge d−1 R → R %k (· · · , a` , · · ·) : y 7→ %k (y1 , . . . , yk−1 , a` , yk , . . . , yd−1 ) der zugehörigen partiellen Funktionen eine monoton steigende Folge in Cc (Rd−1 ), die punktweise gegen die im Satz angegebene partielle Funktion konvergiert. 47 S. Hilger, Analysis 3 22.2 Integral für C ↑ –Funktionen Definition Ist % : Rd → R eine Funktion in C ↑ (Rd ), so definieren wir Z ↑ Z ↑ Z %(x) dx = %(x) dx := lim %k (x) dx, k→∞ Rd Rd wobei (%k )k∈N irgendeine monoton steigende Folge von Funktionen in Cc (Rd ) ist, die die gegebene Funktion % als punktweisen Grenzwert besitzt. Diese Definition muss noch etwas kommentiert werden: • Die Zusatzinformation, dass über die Menge Rd integriert wird, wird wann immer möglich, weggelassen. • Beachte, dass die Zahlenfolge auf der rechten Seite monoton wachsend ist und daher ihr Grenzwert in R ∪ {+∞} eindeutig festgelegt ist. • Der folgende Satz wird aufzeigen, dass die Definition des Integrals unabhängig von der ausgewählten Folge (%k )k∈N in Cc (Rd ) ist. • Insbesondere ist dann gesichert, dass für Funktionen % ∈ Cc (Rd ) die ursprüngliche Definition des Integrals mit der aktuellen übereinstimmt. Satz 27 Es seien (%k )k∈N und (e %k )k∈N zwei monoton steigende Folgen von Funktionen in Cc (Rd ) mit lim %k (x) = %(x) = lim %ek (x). k→∞ k→∞ Dann gilt Z lim k→∞ Z %k (x) dx = ↑ Z %(x) dx = lim k→∞ %ek (x) dx. Beweis (1) In Abhängigkeit von (k, `) ∈ N × N definieren wir die Funktionen rk` := min{%k , %e` } ∈ Cc (Rd ) und denken uns diese Funktionen in einer ,,unendlichen Tabelle” angeordnet: k→∞ r11 r12 r21 r22 r31 r32 .. .. . . rk1 rk2 .. .. . . r13 · · · r1` r23 · · · r2` r33 · · · r3` .. .. . . rk3 · · · rk` .. .. . . ↓ %e1 ↓ %e3 ↓ %e2 ↓ · · · %e` `→∞ · · · −→ %1 · · · −→ %2 · · · −→ %3 .. . · · · −→ %k .. . ↓ · · · −→ 48 S. Hilger, Analysis 3 (2) Wir betrachten beispielsweise die k–te Zeile. Die in ihr enthaltene Funktionenfolge ist monoton steigend und konvergiert punktweise gegen %k , was durch lim rk` (x) = `→∞ lim min{%k (x), %e` (x)} = min{ lim %k (x), %e` (x)} `→∞ `→∞ = min{%k (x), %e(x)} = %k (x). begründet ist. (3) Wegen rk1 ≤ rk` ≤ %k gilt supp rk` ⊆ supp rk1 ∪ supp %k für alle k ∈ N, so dass alle Funktionen in der k–ten Zeile einen Träger haben, der in der gleichen kompakten Menge enthalten ist. Aufgrund des Satzes von Dini liegt gleichmäßige Konvergenz ist. (4) Insgesamt können wir jetzt abschätzen Z Z Z rk` ≤e %` glm K %k (x) dx = lim rk` (x) dx ≤ lim %e` (x) dx. `→∞ `→∞ (6) Beim Grenzübergang k → ∞ auf der linken Seite bleibt die Abschätzung erhalten: Z Z lim %k (x) dx ≤ lim %e` (x) dx. k→∞ `→∞ (7) Führt man die genau gleichen Überlegungen bei Vertauschung von Zeilen und Spalten innerhalb der obigen Tabelle durch, so gelangt man analog zu der Abschätzung Z Z lim %e` (x) dx ≤ lim %k (x) dx, `→∞ k→∞ wodurch der Satz gezeigt ist. 49 S. Hilger, Analysis 3 Satz 28 (Eigenschaften des C ↑ –Integrals) (i) Für %, %e ∈ C ↑ (Rd ) gilt: Z % ≤ %e =⇒ ↑ Z ↑ %(x) dx ≤ %e(x) dx. (ii) Es seien %, %e ∈ C ↑ (Rd ), α ∈ R+ 0 . Dann gilt: Z ↑ Z ↑ α · %(x) dx = α · %(x) dx Z ↑ Z ↑ Z [%(x) + %e(x)] dx = %(x) dx + ↑ %e(x) dx (iii) Es sei (%k )k∈I eine monoton wachsende Folge von Funktionen aus C ↑ (Rd ). Dann gilt Z ↑ Z ↑ sup %k (x) dx = sup %k (x) dx. k∈N k∈N (iv) Es sei (%k )k∈N eine Folge in C ↑ (Rd ) mit %k ≥ 0 für alle k ∈ N. Dann ist Z ↑ ∞ Z ∞ X X %k (x)] dx = [ ↑ %k (x) dx. k=1 k=1 (v) (Satz von Fubini in C ↑ ) Es sei % ∈ C ↑ (Rd ). Dann gilt für ` ∈ {1, . . . , d} Z ↑ Z ↑ Z ↑ %(x) dx = %(y1 , . . . , y`−1 , x` , y` , . . . , yd−1 ) dx` dy Rd Rd−1 R Insbesondere kann die mehrdimensionale Integration als Abfolge von eindimensionalen Integrationen ausgeführt werden. Beweis (i) Sind (%k ) und (e %k ) zugehörige Folgen in Cc (Rd ), so konvergieren auch die beiden monoton steigenden Folgen min{%k , %ek } → % max{%k , %ek } → %e. Wegen Z Rd Z min{%k , %ek }(x) dx ≤ Rd max{%k , %ek }(x) dx folgt die Behauptung nach Grenzübergang k → ∞. (ii) kann leicht auf zugehörige Folgen in Cc (Rd ) zurückgeführt werden. (iii) Dieudonne II, Satz 13.5.2, Seite 111. (iv) folgt aus (ii). Oder: Forster 3, Seite 42. (v) Forster 3, Seite 43. 50 S. Hilger, Analysis 3 22.3 Transformationsformel für C ↑ –Funktionen Hilfssatz 29 Es sei X ⊆ Rd offen und K ⊆ X kompakt. (i) Dann gibt es eine C ∞ –Funktion Ψ : Rd → [0, 1] mit Ψ(x) = 1, 0, falls x ∈ K, falls x ∈ Rd \ X. (ii) Es sei % ∈ C ↑ (Rd ) mit supp % ⊆ X. Dann gibt es eine monoton steigende Folge (%k )k∈N in Cc (Rd ) mit lim %k = % punktweise und supp %k ⊆ X für alle k ∈ N. Beweis (1) Wähle für jedes y ∈ K eine offene Umgebung Uy mit y ∈ Uy ⊆ X. (2) Es gibt dann eine der Überdeckung {Uy |y ∈ K} von K unterliegende C ∞ –Zerlegung der Eins, bestehend aus n Funktionen ψ1 , . . . , ψn mit supp ψj ⊆ X und ψ1 + . . . + ψn ≡ 1 auf K. (3) Setze einfach Ψ := ψ1 + . . . + ψn . (4) Zur Aussage (ii): Es gibt eine Folge (e %k )k∈N ∈ Cc (Rd ), die monoton steigend punktweise % approximiert. Setze einfach %k := Ψ · %ek . Satz 30 (Transformationsformel für C ↑ (Rd )) Es seien X, Y ⊆ Rd offen und ϑ : X → Y eine bijektive C 1 –Abbildung, wobei ϑ0 (x) invertierbar ist für alle x ∈ X. Weiter sei % : Y → R eine C ↑ –Funktion mit Träger in Y . Dann ist die Funktion d R → R %(ϑ(x)), %◦ϑ: x 7→ 0, falls x ∈ X, sonst . ebenfalls in C ↑ (Rd ) enthalten. Es gilt Z ↑ Z ↑ %(y) dy = %(ϑ(x)) · | det ϑ0 (x)| dx. Beweis Wähle eine approximierende Folge (%k ) für % gemäß dem vorhergehenden Hilfssatz. Es gilt dann Z ↑ Z ↑ %k (y) dy %(y) dy = lim k→∞ Z ↑ Z ↑ S 24 0 = lim %k (ϑ(x)) · | det ϑ (x)| dx = %(ϑ(x)) · | det ϑ0 (x)| dx. k→∞ 51 S. Hilger, Analysis 3 Hilfssatz 31 (aus der linearen Algebra) Die beiden folgenden Aussagen über eine Abbildung ϑ : Rd → Rd sind äquivalent: (A) Der Abstand zweier beliebiger Vektoren x, y ∈ Rd wird durch ϑ nicht verändert: kϑ(x) − ϑ(y)k = kx − yk für alle x, y ∈ Rd . (B) ϑ hat die Form ϑ(x) = Ax + b, wobei A eine orthogonale d × d–Matrix (AT = A−1 ) und b ein Vektor des Rd ist. Beweis (1) Wir beschäftigen uns zunächst mit der einfacheren Richtung (B) =⇒ (A): Hier ist einfach k(Ax + b) − (Ay + b)k2 = kA(x − y)k2 = hA(x − y), A(x − y)i T = [A(x − y)]T A(x − y) = (x − y)T A | {zA}(x − y) =I T 2 = (x − y) (x − y) = kx − yk . (2) Jetzt sei (A) erfüllt. Wir zeigen der Reihe nach, dass die durch A(x) := ϑ(x) − ϑ(0) auf Rd definierte Abbildung • ebenfalls eine Isometrie und normerhaltend ist, • das Skalarprodukt invariant lässt, • linear ist, • orthogonal ist. Der erste Punkt ist trivial. (3) Für zwei Vektoren x, y ∈ Rd gilt: kx − yk2 = hx − y, x − yi = hx, xi − 2hx, yi + hy, yi = kxk2 − 2hx, yi + kyk2 = kxk2 − 2hx, yi + kyk2 kA(x) − A(y)k2 = hA(x) − A(y), A(x) − A(y)i = hA(x), A(x)i − 2hA(x), A(y)i + hA(y), A(y)i = kA(x)k2 − 2hA(x), A(y)i + kAk2 . Da A eine Isometrie und normerhaltend ist, folgt die Übereinstimmung der beiden Skalarprodukte in den jeweils letzten Zeilen: hA(x), A(y)i = hx, yi für alle x, y ∈ Rd . 52 S. Hilger, Analysis 3 (4) Weiter ist für beliebige x, y ∈ Rd und α, β ∈ R kA(αx + βy) − [αA(x) + βA(y)]k2 = hA(αx + βy) − [αA(x) + βA(y)], A(αx + βy) − [αA(x) + βA(y)]i = hA(αx + βy), A(αx + βy)i − 2hA(αx + βy), [αA(x) + βA(y)]i + hαA(x) + βA(y), αA(x) + βA(y)i = hA(αx + βy), A(αx + βy)i − 2αhA(αx + βy), A(x)i − 2βhA(αx + βy), A(y)i + α2 hA(x), A(x)i + 2αβhA(x), A(y)i + β 2 hA(y), A(y)i (Schritt 3: Invarianz des Skalarprodukts) = hαx + βy, αx + βyi − 2αhαx + βy, xi − 2βhαx + βy, yi + α2 hx, xi + 2αβhx, yi + β 2 hy, yi = 0. Daraus folgt, dass A linear ist. (5) Nun ist für alle x, y ∈ Rd wegen hx, yi = hAx, Ayi = xT AT Ay AT A = I. Daraus folgt dann mit b := ϑ(0), dass ϑ(x) = Ax + ϑ(0) = Ax + b. 53 S. Hilger, Analysis 3 Korollar 32 Es sei ϑ : Rd → Rd eine Isometrie, das heißt eine affine Abbildung x 7→ Ax + b mit einer orthogonalen Matrix A. Dann gilt für % ∈ C ↑ (Rd ) Z ↑ Z ↑ %(ϑ(x)) dx. %(y) dy = Beweis Es ist det ϑ0 (x) = A für alle x ∈ Rd . Wegen AT A = I ist (det A)2 = det AT · det A = det(AT · A) = det I = 1, woraus | det ϑ0 (x)| = | det A| = 1 folgt. Die Aussage folgt dann mit Satz 30 bzw. der dualen Aussage. 54 S. Hilger, Analysis 3 22.4 Integral für C ↓ –Funktionen Die Definitionen aus den letzten beiden Abschnitten können komplett dualisiert werden. Wir stellen die wesentlichen Punkte nochmal kurz heraus: Satz 33 (und Definition) Wir definieren eine Teilmenge C ↓ (Rd ) von Funktionen Rd → R durch die folgenden äquivalenten Aussagen: (A) (Definition) % ∈ C ↓ (Rd ). (B) Es gibt eine monoton fallende Folge (%k )k∈N mit %k ∈ Cc (Rd ) für alle k, die punktweise gegen % konvergiert. (C) % ist oberhalbstetig, nimmt den Wert +∞ nicht an. Weiter gibt es eine kompakte Teilmenge K ⊆ Rd , so dass {x ∈ Rd |%(x) > 0} ⊆ K. (D) % ist oberhalbstetig und besitzt eine Majorante %e ∈ Cc (Rd ). (E) −% ∈ C ↑ (Rd ). Beachte, dass C ↑ (Rd ) ∩ C ↓ (Rd ) = Cc (Rd ). Definition Ist % : Rd → R eine Funktion in C ↓ (Rd ), so definieren wir Z ↑ Z ↓ Z ↓ (−%)(x) dx oder — äquivalent: %(x) dx := − %(x) dx = Rd Z = lim %k (x) dx, k→∞ wobei (%k )k∈N irgendeine monoton fallende Folge von Funktionen in Cc (Rd ) ist, die die gegebene Funktion % als punktweisen Grenzwert besitzt. Für eine Indikatorfunktion χY einer Teilmenge Y ⊆ Rd kann man jetzt die folgenden Äquivalenzen aufschreiben: χY unterhalbstetig χY ∈ C ↑ (Rd ) χY oberhalbstetig χY ∈ C ↓ (Rd ) ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ Y Y Y Y offen offen abgeschlossen kompakt Die hier angesprochene merkwürdige Unsymmetrie kommt daher, dass die charakteristische Funktion nicht einer Dualisierung (durch Multiplikation mit −1) unterzogen wird. 55 S. Hilger, Analysis 3 Volumen kompakter Mengen im Rd 22.5 Definition Ist K ⊆ Rd kompakt, so definieren wir das (d–dimensionale) Volumen dieser Teilmenge durch Z ↓ χK (x) dx. vol(K) = vold (K) := Die Definition ist mathematisch umsetzbar, da χK ∈ C ↓ (Rd ). Der folgende Satz listet gleich die grundlegenden Eigenschaften dieses Volumen–Begriffs auf. Satz 34 (Eigenschaften des Volumens) (i) Es sei d = m + n. Die beiden Mengen Km ⊆ Rm , Kn ⊆ Rn seien kompakt. Dann gilt: volm+n (Km × Kn ) = volm (Km ) · voln (Kn ). (ii) (Prinzip von Cavalieri) Für eine kompakte Menge K ⊆ Rd definieren wir die (d−1)–dimensionalen ,,Schnitte” Ky := {(x1 , . . . , xd−1 ) ∈ Rd−1 |(x1 , . . . , xd−1 , y) ∈ K}. Dann gilt: Z ↓ vold (K) = vold−1 (Ky ) dy. R Beachte dabei, dass der Integrand außerhalb eines kompakten Intervalls Null ist. (iii) Das Volumen eines kompakten achsenparallelen Quaders ist vold ([a1 , b1 ] × . . . × [ad , bd ]) = (b1 − a1 ) · . . . · (bd − ad ) (iv) Ist ϑ: Rd → Rd x 7→ Ax + b eine affine Abbildung, so gilt für das Volumen einer kompakten Menge K ⊆ Rd vold (ϑ(K)) = | det A| · vold (K). (v) Beachte bei (iv) die Spezialfälle: ϑ Isometrie ⇐⇒ A orthogonal =⇒ vold (ϑ(K)) = vold (K). ϑ Homothetie ⇐⇒ A = α idRd =⇒ vold (ϑ(K)) = αd · vold (K). 56 S. Hilger, Analysis 3 d Beweis (i) Wir schreiben einen Vektor x ∈ R als x = y z mit y ∈ Rm , z ∈ Rn . Es gilt dann Z ↓ volm+n (Km × Kn ) = χKm ×Kn (x) dx Rd (Satz von Fubini) Z ↓ Z ↓ χKm ×Kn (y, z) dy dz = Rn Z ↓ Rm Z ↓ Rn Z ↓ Rm Z ↓ Rn Z ↓ χKm (y) dy · χKn (z) dz Z ↓ χKn (z) dz χKm (y) dy · χKm (y) · χKn (z) dy dz = = = Rm Rn Rm = volm (Km ) · voln (Kn ). (ii) Es ist einfach Z ↓ vold (K) = Rd Z ↓ χK (x1 , . . . , xd−1 , xd ) dx {z } |{z} | z Z y ↓ χK (z, y) dz dy = R Z ↓ Rd−1 Z ↓ R Z ↓ Rd−1 χKy (z) dz dy = vold−1 (Ky ) dy. R (iii) Für den 1–dimensionalen Quader [a1 , b1 ] gilt Z ↓ vol([a1 , b1 ]) = χ[a1 ,b1 ] (x) dx = b1 − a1 . R Für die letzte dieser Gleichungen muss man noch überlegen, dass die C ↓ –Funktion χ[a1 ,b1 ] von oben punktweise durch die Trapezfunktionen in Cc (Rd ) 1, falls x ∈ [a1 , b1 ], 0, falls x ∈ ] − ∞, a1 − k1 ] ∪ ]b1 + k1 , +∞[, %k (x) = dazwischen affin interpoliert, approximiert werden. Die Integrale konvergieren selbstverständlich gegen b1 − a1 . Für die höherdimensionale Erweiterung führe man Induktion über die Dimension durch. Beim Induktionsschritt kommt Teil (i) zur Anwendung. (iv) Ist A invertierbar, so folgt dies mit der Transformationsformel (für C ↓ –Funktionen): Z ↓ vold (ϑ(K)) = χϑ(K) (x) dx 57 S. Hilger, Analysis 3 Z ↓ Z ↓ χK (ϑ−1 (x)) dx = χK (ϑ−1 (ϑ(x))) · | det A| dx Z ↓ = | det A| · χK (x) dx = = | det A| · vold (K). Im Fall, dass A nicht–invertierbar ist, nehmen wir (O.B.d.A.) an, dass b = 0. Es gibt eine invertierbare lineare Abbildung (Matrix) B ∈ Rd×d , so dass das Bild BA(K) in der (d − 1)–dimensionalen Hyperebene {x ∈ Rd |xd = 0} enthalten ist. Für jedes ε > 0 kann diese Bildmenge in einem Quader [a1 , b1 ] × . . . × [ad−1 , bd−1 ] × [−ε, +ε] eingeschlossen werden. Da das Volumen dieser Quader durch Verkleinern von ε beliebig klein gemacht werden kann, muss vold (BA(K)) = 0 gelten. Dann gilt aber auch vold (A(K)) = vold (B −1 BA(K)) = | det B −1 | · vold (BA(K)) = 0 = | det A| · vold (K). Beispiele 1. Die d Vektoren a1 , . . . , ad ∈ Rd spannen — per definitionem — ein Parallelepiped (auch: Parallelotop) P = [0, 1] a1 + [0, 1] a2 + . . . + [0, 1] ad auf. Da es sich um dabei um das Bild des Einheitswürfels [0, 1]d unter der durch die Matrix A= a1 · · · ad , mit den Spaltenvektoren a1 , . . . , ad definierten Abbildung handelt, gilt vol(P ) = vol(A([0, 1]d )) = | det A| vol([0, 1]d ) = | det A|. 2. Für eine kompakte Menge K ⊆ Rd−1 definieren wir den Zylinder über K durch cyl(K) := {x ∈ Rd |(x1 , . . . , xd−1 ) ∈ K, xd ∈ [0, 1]} Es gilt offenbar vold (cyl(K)) = vold−1 (K). 58 S. Hilger, Analysis 3 3. Für eine kompakte Menge K ⊆ Rd−1 definieren wir den Kegel über K durch cone(K) := {((1 − y)x1 , . . . , (1 − y)xd−1 , y) ∈ Rd |(x1 , . . . , xd−1 ) ∈ K, y ∈ [0, 1]} Für die Schnittmengen der Kegel gilt vold−1 ((cone(K))y ) = (1 − y)d−1 vold−1 (K), y ∈ [0, 1], deshalb Z 1 Z 1 (1 − y)d−1 · vold−1 (K) dy 0 Z 1 Z0 1 d−1 (1 − y) dy · vold−1 (K) = z d−1 dz · vold−1 (K) = vold (cyl(K)) = vold−1 ((cone(K))y ) dy = 0 1 = · vold−1 (K). d 0 59 S. Hilger, Analysis 3 Zunächst Formeln zur Vorbereitung: Formeln 35 Wir betrachten für n ∈ N0 das bestimmte Integral Z +1 p Z +π Z π 2 2 n−1 n 2 ( 1−y ) (i) an := dy = cos x dx = 2 sinn x dx. − π2 −1 0 (ii) Es gilt die Rekursionsformel a0 = π, a1 = 2, an = n−1 an−2 , n n ≥ 2. (iii) Es gilt die Rekursionsformel an · an−1 = a0 = π, 2π , n n ≥ 1. (iv) Es gilt explizit an = Q n2 π · k=1 = π · 12 · 34 · 56 · . . . · n−1 , n falls n ≥ 2, gerade, 2k k=1 2k+1 = 2 · 23 · 45 · 67 · . . . · n−1 , n falls n ≥ 3, ungerade. Q n−1 2 2· 2k−1 2k (v) Das Wallis’sche Produkt konvergiert und hat den Wert ∞ Y π 4k 2 = . 2 4k − 1 2 k=1 Beweis (i) Die erste Umformung beruht auf der Substitution y = sin x. (ii) Wir zeigen die Rekursionsformel für n ≥ 2 mit partieller Integration: Z + π2 Z n + π2 cos x dx = − π2 = cosn−1 x · cos x dx − π2 h n−1 cos x sin x Z = (n − 1) + π2 i+ π2 − π2 − n−2 cos − π2 Z + π2 (n − 1) cosn−2 x(− sin x) · sin x dx − π2 Z x dx + (n − 1) + π2 cosn x dx − π2 Addieren des letzten Terms auf beiden Seiten liefert die Rekursionsformel. (iii) Wir führen den Beweis mittels Induktion über n ∈ N. Zunächst ist a1 · a0 = 2π = 2π , 1 dann weiter an+1 · an = n n−1 2π 2π IndV n − 1 an−1 · an−2 = · = . n+1 n n+1 n−1 n+1 60 S. Hilger, Analysis 3 (iv) folgt durch Anwendung von (iii). (v) Die Folge (an )n∈N ist monoton fallend. Aufgrund von 1 ≥ ist limn→∞ an+1 an+2 n + 1 n→∞ ≥ = −→ 1 an an n+2 an+1 an = 1. Daraus folgt für ` ∈ N und n := 2` n ` Y 2 Y 4k 2 4k 2 = = 2−1 2−1 4k 4k k=1 k=1 Q (n+1)−1 2 k=1 Q n 2 k=1 2k 2k+1 2k−1 2k = an+1 2 an π n→∞ −→ π . 2 4. Wir betrachten für d ≥ 2 die d–dimensionale Einheitskugel n o d Bd = x ∈ R kxk ≤ 1 . Da die Schnittmengen gegeben sind durch o ( n p x ∈ Rd−1 kxk ≤ 1 − y 2 , (Bd )y = ∅, falls |y| ≤ 1, falls |y| > 1, ergibt sich Z vold (Bd ) +1 = Z −1 +1 Z = | −1 = F 35(iii) = +1 vold−1 ((Bd )y ) dy = p ( 1 − y 2 )d−1 vold−1 (Bd−1 ) dy −1 p ( 1 − y 2 )d−1 dy ·vold−1 (Bd−1 ) {z } =ad ad · ad−1 · vold−2 (Bd−2 ) 2π · vold−2 (Bd−2 ). d Beachtet man jetzt als Induktionsanfang die Identitäten vol1 (B1 ) = 2, vol2 (B2 ) = π, so erhält man schließlich für alle d ∈ N d π2 d , falls d gerade π2 ( d2 )! vold (Bd ) = = . d−1 2 d+1 Γ(1 + d2 ) 2 ·π 2 , falls d ungerade 1·3·...·d Es wurde dabei noch bemerkt, dass dieser Wert mit Hilfe der Γ–Funktion ausgedrückt werden kann. 61 S. Hilger, Analysis 3 23 23.1 Differentialformen Die freie Erzeugung eines Vektorraums Es sei X irgendeine Menge, man denke da etwa an die Mengen {♣, ♥, ♠, ♦}, {1, . . . , d}, N, R, C([0, 1], Y ), (Y metrischer Raum) Man sei sich bewusst, dass auf der Menge a priori keinerlei algebraische Struktur gegeben ist. Es kommt in der Mathematik immer wieder vor, dass man die Elemente dieser Menge ,,formal linear kombinieren” will, das heißt, man will Ausdrücke der Form α1 x1 + α2 x2 + . . . + α` x` mit reellen Zahlen α` (oder Zahlen eines anderen Körpers) und den Elementen aus X als Vektoren bilden. Wie aber sollen skalare Vervielfachung und Multiplikation von Elementen irgendeiner Menge zu verstehen sein? Diese Frage kann der Mathematiker mit dem folgenden etwas abstrakt–algebraischen Trick beantworten, den wir in mehreren Schritten darlegen 1. Es sei F fin (X, R) die Menge aller Abbildungen f: X → R x 7→ f (x), die nur für endlich (finit) viele Argumente aus X ungleich Null sind. 2. Unter punktweiser Addition und skalarer Multiplikation wird diese Menge zu einem R–Vektorraum, man nennt ihn den von der Menge X frei erzeugten R–Vektorraum. Er wird beispielsweise mit RX := F fin (X, R) bezeichnet. 3. Für jedes x ∈ X sei ex ∈ RX definiert als die Abbildung mit ex (y) = 1, 0, if y = x, if y = 6 x. 4. Aufgrund der Finit–Eigenschaft kann jede Abbildung (= Vektor) aus RX eindeutig als endliche Linearkombination der Vektoren ex , x ∈ X, geschrieben werden. Das bedeutet, dass die Menge {ex |x ∈ X} eine Basis von RX ist, wir nennen sie die kanonische Basis. Damit ist die Dimension von RX gleich der Mächtigkeit von X. 5. Zum Schluss schreibt man statt des Basis–Vektors ex einfach x und kann so — wie eingangs gewünscht — die Elemente von X innerhalb von RX formal linear kombinieren. X kann dabei als Teilmenge (sogar Basis) aufgefasst werden. Die vereinfachte Schreibweise mit x statt ex hat aber ihre eigenen Tücken. 62 S. Hilger, Analysis 3 So hat eine eventuell schon vorhandene Addition oder skalare Multiplikation in X nichts mit der Addition oder skalaren Multiplikation in RX zu tun. So kann man in N zwei Elemente m, n addieren. Das Ergebnis m + n stimmt aber nicht mit dem zugehörigen Vektor in RN überein: em + en 6= em+n . e ⊆ X eine Teilmenge, so ist RX e ein Unterraum von RX. Um das einzusehen, muss Ist X b bzw. X als Basen in den zugehörigen Vektorräumen denken. man sich nur wieder X Ist X = X1 ∪ X2 ∪ . . . ∪ X` eine Zerlegung (disjunkte Vereinigung) der Menge X, so gilt für die zugehörigen frei erzeugten Vektorräume RX = RX1 ⊕ RX2 ⊕ . . . ⊕ RX` . Beispiele (1) Der R–Vektorraum R{♣, ♥, ♠, ♦} enthält als Vektoren die formalen Linearkombinationen α ♣ + β ♥ + γ ♠ + δ ♦. Dieser Vektorraum ist isomorph zum R4 . (2) Es ist allgemein R{1, . . . , d} ' Rd . (3) Ist X = N, so erhält man als RN den R–Vektorraum der finiten Folgen, das sind die Folgen, die nur endlich viele Folgenglieder ungleich Null haben. Dieser Vektorraum ist (vektorraum–)isomorph zum Vektorraum aller reellen Polynome. (4) Ist X = C([0, 1], M ) die Menge der Wege in einem metrischen Raum, so kann man in F fin (C([0, 1], M )) diese Wege formal addieren und skalar vervielfachen. Beachte nochmal, dass nicht einfach die Bildwerte in M addiert bzw. skalar vervielfacht werden. 63 S. Hilger, Analysis 3 23.2 Die äußere Algebra V Rn a) Wir betrachten im folgenden den Vektorraum Rn der n–Tupel von reellen Zahlen. Die kanonischen Basis–Vektoren notieren wir in diesem Kapitel mit hochgestellten Indices als e1 = (1, 0, . . . , 0)T , ... en = (0, . . . 0, 1)T , ein Vektor v ∈ Rn hat dann eine Basisentwicklung der Form v= n X vk ek . k=1 Diese Konvention hat einen tieferen Grund, der mit dem ,,Transformationsverhalten” der unten einzuführenden Differentialformen zu tun hat. In der multilinearen Algebra, Tensoranalysis und Differentialgeometrie wird regelrecht ein Kalkül um die hoch- und tiefgestellten Indices aufgebaut. Dieser wird uns aber nicht beschäftigen. b) Es sei also nochmal n ∈ N und 0 ≤ p ≤ n. Wir können p verschiedenen Zahlen zwischen 1 und n eineindeutig einen (wachsenden) p–Index i1 i2 . . . ip = (i1 , i2 , . . . , ip ) mit i1 < i2 < . . . < ip zuordnen. Für p = 0 sei der 0–Index eine ,,Leerstelle” t. Es ist nützlich, im Auge zu behalten, dass zwischen wachsenden p–Indices und p– Teilmengen {i1 , i2 , . . . , ip } ⊆ {1, . . . , n} eine bijektive Zuordnung besteht. Die leere Menge ist dem 0–Index zugeordnet. n Wir bezeichnen die Menge aller wachsenden p–Indices mit I (p) und setzen noch n I (•) := n [ n I (p) , (disjunkte Vereinigung) p=0 Der Anknüpfungspunkt für die Auswahl der seltsamen Bezeichnung sind die Mächtigkeiten: n n (p) (•) n I = , (∗) I = 2 n p c) Wir erzeugen jetzt frei die endlich–dimensionalen R–Vektorräume ^ n n n p n R := RI (p) = F fin (I (p) , R) = F(I (p) , R) ^ n n n Rn := RI (•) = F fin (I (•) , R) = F(I (•) , R) V Die Elemente im Vektorraum p Rn heißen auch kurz p–Vektoren, die Funktionen n I (p) → R J e : 1, falls I = J, J I 7→ δI := 0, falls I 6= J, n bilden, wenn J die Menge I (p) aller wachsenden Indices durchläuft, die kanonische Basis. 64 S. Hilger, Analysis 3 Wie in Bemerkung (5) des letzten Abschnitts beschrieben ist ^ ^ ^ ^ Rn = 0 Rn ⊕ 1 Rn ⊕ . . . ⊕ n Rn . Die Aussagen (∗) über die Mächtigkeiten der Indexmengen sind zugleich Aussagen über die Dimensionen V V dim( p Rn ) = np , dim( Rn ) = 2n . Nach diesen abstrakten Vorgaben lernen wir ein Beispiel kennen. Wir nehmen n = 4 und 4 stellen die p–Indices und p–Basisvektoren in einer Tabelle zusammen: Die Mengen I (p) enthalten jeweils die folgenden wachsenden p–Indices 4 4 p Indices aus I (p) in Tupel–Schreibweise Indices aus I (p) in Mengen–Schreibweise Zugeordnete Basisvektoren Vp dim( R4 ) 0 t ∅ et 1 1 1, 2, 3, 4 {1}, {2}, {3}, {4} e1 , e2 , e3 , e4 4 2 12, 13, 14, 23, 24, 34 {12}, {13}, {14}, {23}, {24}, {34} e12 , e13 , e14 , e23 , e24 , e34 6 3 123, 124, 134, 234 {123}, {124}, {134}, {234} e123 , e124 , e134 , e234 4 4 1234 {1234} e1234 1 Man überzeugt sich davon, dass V V dim( p R4 ) = p4 , dim( R4 ) = 16. n) Der besondere Clou an dem Vektorraum sante Multiplikation ^ ^ ^ ∧: Rn × Rn → Rn , V Rn ist jetzt, dass man in ihm eine interes- einführen kann. Man spricht vom Keil–Produkt bzw. der äußeren Multiplikation. Dies geschieht in mehreren Schritten: • Für einen wachsenden p–Index I = i1 . . . ip und einen wachsenden q–Index J = j1 . . . jq , die als Mengen disjunkt sind, sei I|J der wachsende (p + q)–Index, der der Vereinigung I ∪ J zugeordnet ist. • Dabei sei εIJ die Anzahl der Paarvertauschungen, die die Reihenfolge richtigstellen: i1 . . . ip j1 . . . jq −→ k1 . . . . . . kp+q . Die Zahl (−1)εI|J ist dann das Signum dieser Permutation. • Für einen p–Basisvektor eI und einen q–Basisvektor eJ definieren wir jetzt das äußere Produkt durch (−1)εI|J · eI|J , falls I und J als Mengen disjunkt sind, I J e ∧ e := 0, anderenfalls. 65 S. Hilger, Analysis 3 • Zwei beliebige Vektoren v, w besitzen die Basisentwicklungen v= X vI eI , w= n X wJ eJ , n I∈I (•) J∈I (•) das äußere Produkt dieser beiden Vektoren wird einfach mit Hilfe der Distributiv– Forderung auf das der Basisvektoren zurückgeführt: v∧w = ( X vI eI ) ∧ ( n I∈I (•) := X X wJ eJ , ) n J∈I (•) vI · wJ · eI ∧ eJ n I,J∈I (•) X = vI · wJ · εI|J · eI|J n I,J∈I (•) Satz 36 Die Menge Gesetze: V Rn ist eine R–Algebra, denn es gelten für u, v, w ∈ V Rn die (u ∧ v) ∧ w = u ∧ (v ∧ w) (Assoziativgesetz) (u + v) ∧ w = (u ∧ w) + (v ∧ w) u ∧ (v + w) = (u ∧ v) + (u ∧ w) (Distributivgesetze) Die Algebra ist (für n ≥ 2) nicht kommutativ, sondern ,,superkommutativ”. Für einen p–Vektor v und einen q–Vektor w gilt v ∧ w = (−1)pq w ∧ v. Das Minuszeichen tritt also genau dann auf, wenn p und q ungerade sind. Bemerkungen (1) Wir nehmen noch Notiz von einer Besonderheit. Es ist für alle v ∈ V n R et ∧ v = v ∧ et = v Deshalb kann der Vektor et mit der Zahl 1 und der ,,Operator” αet ∧ · mit der skalaren Multiplikation α· identifiziert werden. Statt des Vektors et schreibt man einfach die Zahl 1. (2) Jeder Basis–p–Vektor kann als Produkt von Basis–1–Vektoren geschrieben werden: ei1 ...ip = ei1 ∧ . . . ∧ eip . (3) Wir testen das Distributivgesetz an drei Vektoren u = 2 − 3e1 − 4e2 + 3e14 + e1234 v = 8 + 3e1 + 2e4 + 3e234 − 2e1234 w = −e2 + e23 66 S. Hilger, Analysis 3 Es ist dann u+v u∧w v∧w (u + v) ∧ w = = = = 10 − 4e2 + 2e4 + 3e14 + 3e234 − e1234 −2e2 + 2e23 + 3e12 − 3e123 + 3e124 + 3e1234 −8e2 + 8e23 − 3e12 + 3e123 + 2e24 + 2e234 −10e2 + 10e23 + 2e24 + 2e234 + 3e124 + 3e1234 67 S. Hilger, Analysis 3 23.3 Differentialformen Es sei jetzt X ⊆ Rn eine offene Teilmenge. Definition Eine Abbildung n I (p) × X → R ω: (i , . . . , i , x) 7→ ωi1 ...ip (x) = ωI (x) |1 {z }p =I heißt eine Differentialform der Ordnung p oder kürzer eine p–Form in X. Bemerkungen (1) Eine genauere Betrachtung dieser Definition für p = 0 zeigt auf, dass eine 0–Form einfach eine Abbildung ω : X → R ist. (2) Für p > n oder p < 0 ist eine p–Form ω per definitionem gleich der Null–Abbildung. n (3) Für festes (i1 , . . . , ip ) ∈ I (p) ist ωi1 ...ip : X → R eine reellwertige Funktion auf X. Die n Differentialform ω heißt von der Klasse C j , wenn alle Funktionen ω , I ∈ I (p) , von dieser I Klasse sind. Wir werden im folgenden nur Differentialformen betrachten, die mindestens stetig differenzierbar sind. Die Menge aller stetig differenzierbaren p–Formen in X wird mit Ωp (X) bezeichnet. S Weiter sei Ω(X) := np=0 Ωp (X). ?????????? Direkte Summe n (4) Für festes x ∈ X ist die Abbildung ω(x) : I (p) → R ein Element des Vektorraums V p n R . Damit sind die Rechenoperationen aus diesem Vektorraum, also Addition, skalare Multiplikation und äußere Multiplikation von Differentialformen durch punktweise Ausführung definiert: Für zwei Differentialformen ω, η ist (αω + βη)(x) (ω ∧ η)(x) := := α(ω(x)) + β(η(x)) (ω(x)) ∧ (η(x)) Beachte, dass die äußere Multiplikation mit einer 0–Form η gleich der skalaren Multiplikation mit der Funktion η ist. n (5) Für jedes feste j ∈ {1, . . . , n} = I (1) sei die (kanonische) Basis–1–Form dxj dadurch definiert, dass sie (bzgl. x)–konstant gleich dem kanonischen Basisvektor ej ∈ Rn ist, anders formuliert: n I (1) × X → R j dx : 1, falls i = j, (i, x) 7→ δij = 0, falls i 6= j. Wir können damit gleich ein erstes Sätzchen formulieren: 68 S. Hilger, Analysis 3 Sätzchen 37 Jede p–Differentialform ω ∈ Ωp (X) lässt sich eindeutig in der Form X X ω= . . ∧ dxi}p = ωi1 ...ip |dxi1 ∧ .{z ωI dxI n n =:dxI I∈I (p) I∈I (p) darstellen. Das bedeutet insbesondere, dass sich jede Differentialform aus 0–Formen und Basis–1– Formen mit Hilfe von Summation und äußerer Multiplikation (inklusive skalarer Multiplikation) aufbauen lässt. n Beweis FürV festes x ∈ X ist ω(x) eine Abbildung I (p) → R, damit ein Vektor im Vektorraum p Rn . Dieser Vektor besitzt eine Basisentwicklung X X ωI (x)eI ω(x) = . . ∧ ei}p = ωi1 ...ip (x) e|i1 ∧ .{z n n =eI I∈I (p) I∈I (p) V mit den Koeffizienten ωI (x) ∈ R und den Basisvektoren eI ∈ p Rn . Betrachtet man diese Gleichung wieder als eine für Funktionen auf X, so lautet sie X X ω= ωI dxI ωi1 ...ip |dxi1 ∧ .{z . . ∧ dxi}p = n n =:dxI I∈I (p) I∈I (p) mit den Funktionen ωI : X → R als Funktions–Koeffizienten und den konstanten Basis–1–Formen dxj (x) = ej für alle x ∈ X. (6) Beachte, dass die Menge Ω0 (X) = C 1 (X, R) der Funktions–Koeffizienten keinen Körper bildet, da die multiplikative Invertierbarkeit nicht gewährleistet ist. Deshalb ist Ωp (X) auch kein Ω0 (X)–Vektorraum mit den C 1 –Funktionen X → R als ,,Skalaren”. Es ist vielmehr so, dass Ωp (X) ein Ω0 (X)–Modul mit dem Ring Ω0 (X) als Skalarenmenge ist. (7) In dem Sätzchen haben wir zugleich die sogenannten (kanonischen) Basis–p–Formen dxI definiert. Für festes x ∈ X gilt dxI (x) = eI , sie sind also gar nicht von x abhängig. In Bezug auf die Abhängigkeit vom p–Index I gilt ( dxI )J = δIJ . Wir geben die Basis–p–Formen im R4 für p = 1, . . . , 4 an: p=0: p=1: p=2: p=3: p=4: 1 dx1 , dx2 , dx3 , dx4 dx12 , dx13 , dx14 , dx23 , dx24 , dx34 dx123 , dx124 , dx134 , dx234 dx1234 (8) Beachte, dass das dx zunächst ein ,,Zwei–Buchstaben–Symbol” ist. Wir werden im nächsten Abschnitt 23.4 sehen, dass — zumindest bei den 1–Formen dxi — das Symbol n als ein mathematischer Operator aufgefasst werden kann. Wir notieren als Beispiel eine Differentialform im R4 : ω(x) = (x21 + 2x2 x4 ) dx1 − esin(x2 x3 ) dx4 + cos(x1 + x3 · x24 ) dx124 69 S. Hilger, Analysis 3 23.4 Äußere Ableitung einer Differentialformen Definition Es sei X ⊆ Rn eine offene Menge und Ω(X) die Algebra der stetig differenzierbaren Differentialformen auf X. Wir definieren einen R–linearen Operator d : Ω(X) → Ω(X) dadurch, dass wir seine Wirkung auf eine Differentialform X ω= ωI dxI n I∈I (p) durch die Wirkung auf die Summanden der rechten Seite festlegen: I d(ωI dx ) := n X ∂k ωI dxk ∧ dxI . k=1 Für jedes k ∈ {1, . . . , n} wird also die ,,Koeffizienten–Funktion” ωI partiell nach der k– ten Variablen differenziert, die Differentialform dxI von links mit dxk multipliziert, dann über alle k addiert. Man nennt d die äußere oder Cartan–Ableitung. Wir zeigen dies an einigen Beispielklassen und Beispielen auf: • p=0 Ist ω : X → R eine C 1 –Funktion (0–Form) auf X, so gilt dω = ∂1 ω dx1 + . . . + ∂n ω dxn . Wählt man dabei als Funktion die Koordinatenfunktion n R → R x 7→ x` , so erhält man als äußere Ableitung d(x` ) = ∂1 (x` ) dx1 + . . . + ∂n (x` ) dxn = dx` . Diese Beobachtung rechtfertigt im Nachhinein die seltsame Zwei–Buchstaben– Notation für die Basis–1–Formen. • p = n: Für eine n–Form ω = ω1...n (x) dx1...n gilt dω(x) = ∂1 ω1...n dx1 ∧ dx1...n + . . . + ∂n ω1...n dxn ∧ dx1...n = 0. • n = 2, p = 1 Die 1–Form ω = ω1 dx1 + ω2 dx2 besitzt als äußere Ableitung die 2–Form dω = ∂1 ω1 dx1 ∧ dx1 + ∂2 ω1 dx2 ∧ dx1 + ∂1 ω2 dx1 ∧ dx2 + ∂2 ω2 dx2 ∧ dx2 = [∂1 ω2 − ∂2 ω1 ] dx1 ∧ dx2 70 S. Hilger, Analysis 3 • p=n−1 Die äußere Ableitung einer (n − 1)–Form ω ω = ω23...n dx23...n + ω13...n dx13...n + . . . + ω12...n−1 dx12...n−1 ist dω = ∂1 ω23...n dx1...n − ∂2 ω13...n dx1...n ± . . . + (−1)n−1 ∂n ω12...n−1 dx1...n = [∂1 ω23...n − ∂2 ω13...n ± . . . + (−1)n−1 ∂n ω12...n−1 ] dx1...n . • n = 3, p = 2 Schreibt man im Fall n = 3 eine 2–Form als ω = α1 dx2 ∧ dx3 + α2 dx3 ∧ dx1 + α3 dx1 ∧ dx2 , so ist dω = [∂1 α1 + ∂2 α2 + ∂3 α3 ] dx123 . Der in der eckigen Klammer auftretende Ausdruck ist eng mit einem Differentialoperator namens ,,div” (Divergenz) verknüpft. • n = 3, p = 1 Die 1–Form ω = ω1 dx1 + ω2 dx2 + ω3 dx3 besitzt als äußere Ableitung die 2–Form dω = ∂1 ω1 dx1 ∧ dx1 + ∂2 ω1 dx2 ∧ dx1 + ∂3 ω1 dx3 ∧ dx1 + ∂1 ω2 dx1 ∧ dx2 + ∂2 ω2 dx2 ∧ dx2 + ∂3 ω2 dx3 ∧ dx2 + ∂1 ω3 dx1 ∧ dx3 + ∂2 ω3 dx2 ∧ dx3 + ∂3 ω3 dx3 ∧ dx3 = [∂2 ω3 − ∂3 ω2 ] dx2 ∧ dx3 + [∂3 ω1 − ∂1 ω3 ] dx3 ∧ dx1 + [∂1 ω2 − ∂2 ω1 ] dx1 ∧ dx2 Diese Formel weist — nicht ganz zufällig — Ähnlichkeiten mit dem Vektorprodukt im R3 auf. Wir werden später sehen, dass der d–Operator mit einem Differentialoperator names ,,rot” (Rotation, engl.: curl) zusammenhängt. 71 S. Hilger, Analysis 3 Satz 38 (Äußere–Produkt–Regel) Für ω ∈ Ωp (X), η ∈ Ω(X) gilt d(ω ∧ η) = dω ∧ η + (−1)p ω ∧ dη. Beweis Aufgrund des Distributivgesetzes für ∧ genügt es, diese Behauptung für eine p–Form ω = ωI dxI und eine q–Form η = ηJ dxJ zu beweisen. Äußerst ausführlich rechnen wir nach: d(ω ∧ η) = d(ωI dxI ∧ ηJ dxJ ) = d(ωI · ηJ dxI ∧ dxJ ) (Definition äußere Ableitung) n X = ∂k (ωI · ηJ ) dxk ∧ dxI ∧ dxJ (Leibniz–Produktregel für Funktionen) k=1 = n X (∂k ωI · ηJ + ωI · ∂k ηJ ) dxk ∧ dxI ∧ dxJ k=1 n X = (∂k ωI · ηJ ) dxk ∧ dxI ∧ dxJ + (ωI · ∂k ηJ ) dxk ∧ dxI ∧ dxJ = k=1 n X n X (−1)p (ωI · dxI ) ∧ (∂k ηJ dxk ∧ dxJ ) (∂k ωI ) dx ∧ dx ∧ (ηJ dx ) + k I J k=1 k=1 " # " n # n X X k I J I p k J = (∂k ωI ) dx ∧ dx ∧ (ηJ dx ) + (ωI · dx ) (−1) ∧ (∂k ηJ dx ∧ dx ) k=1 k=1 p = dω ∧ η + (−1) ω ∧ dη. Satz 39 Ist ω eine Differentialform der Klasse C 2 , so gilt ddω = 0. Beweis Die Behauptung muss wieder nur für eine Differentialform ω der Form ω = ωI dxI gezeigt werden. Dafür ist ! n n X n X X k I ddω = d ∂k ωI dx ∧ dx = ∂j ∂k ωI dxj ∧ dxk ∧ dxI . {z } | k=1 j=1 k=1 wjk Es ist wegen der Vertauschbarkeit der partiellen Ableitungen und der Superkommutativität des Keilprodukts wjk = ∂j ∂k ωI dxj ∧ dxk ∧ dxI = −∂k ∂j ωI dxk ∧ dxj ∧ dxI = −wkj , insbesondere ist wjj = 0. Das aber bedeutet, dass die obige Summation aller Einträge der schiefsymmetrischen n × n–Matrix W = (wjk ) Null ergibt. 72 S. Hilger, Analysis 3 23.5 Zurückziehen einer Differentialform Es sei X ⊆ Rn , Y ⊆ Rw offene Teilmengen und f : X → Y eine C 1 –Abbildung. Ist ω eine Differentialform auf Y , so kann ihr mittels f eine Differentialform f ∗ ω auf X, wie im Diagramm f: f∗ : X→Y Ω(Y ) → Ω(X). verdeutlicht, zugeordnet werden. Definition Ist X ω(y) = ωi1 ...ip (y) dy i1 ∧ . . . ∧ y ip | {z } n I ( ) dy p I∈I eine p–Differentialform auf Y , so ist X f ∗ ω(x) := ωi1 ...ip (f (x)) df i1 ∧ . . . ∧ df ip {z } | n =:df I I∈I ( p ) die auf X mittels f zurückgezogene p–Differentialform. Im englischen spricht man vom “pullback ”. Dabei sind die 1–Formen df j , j = 1, . . . , w die 1–Formen auf X, die durch äußere Ableitung (totales Differential) der Koordinatenfunktionen f j entstehen: j df = n X ∂k f j dxk , j = 1, . . . , w. k=1 Ganz allgemein ist die Zurückholung einer p–Form gegeben durch X X X f∗ : ωI dy I 7→ det(f 0 )IJ (x) · ωI (f (x)) dxJ w w n I∈I ( p ) I∈I ( p ) J∈I ( p ) Dabei ist (f 0 )JI die aus der Ableitung f 0 von f durch die p–Indices I (Spalten) und J (Zeilen) ausgewählte (p × p)–Untermatrix. Für einige spezielle Fälle wollen wir die zurückgeholten Formen explizit berechnen: Sätzchen 40 Es seien X, Y, f wie oben. (i) Für eine 0–Form (= Funktion) ω gilt: f ∗ ω = ω ◦ f. (ii) Für eine Basis–1–Form dy j gilt: ∗ j f ( dy ) = df j = n X k=1 ∂k f j dxk . 73 S. Hilger, Analysis 3 (iii) Die Dimensionen von X und Y seien gleich: n = w. Dann gilt für die Standard–n– Form f ∗ ( dy 1 ∧ . . . ∧ dy n ) = (det f 0 ) dx1 ∧ . . . ∧ dxn . Die Determinante der n × n–Jacobimatrix f 0 tritt als zusätzlicher Faktor auf. Übung: Berechne den pullback einer n − 1–Form. Beweis Wir wiederholen die Definition der zurückgeholten Koordinatenfunktionen j df = n X ∂k f j dxk , j = 1, . . . , n. k=1 Es ist dann f ∗ ( dy 1 ∧ . . . ∧ dy n ) = = df 1 ∧ . . . ∧ df n n n X X 1 k1 ( ∂k1 f dx ) ∧ . . . ∧ ( ∂kn f n dxkn ) k1 =1 = n X ··· k1 =1 (∗) = kn =1 X n X ∂k1 f 1 · · · ∂kn f n dxk1 ∧ . . . ∧ dxkn kn =1 ∂k1 f 1 · · · ∂kn f n dxk1 ∧ . . . ∧ dxkn K∈Πn (∗∗) = X ∂k1 f 1 · · · ∂kn f n sgn(k1 . . . kn ) dx1 ∧ . . . ∧ dxn K∈Πn | {z =det Df } Wir erläutern noch die gekennzeichnete Umformung: In der zweiten Zeile wird über alle n– Tupel (k1 , . . . , kn ) von Zahlen aus {1, . . . , n} summiert. Da aber der Faktor dxk1 ∧. . .∧ dxkn gleich Null wird, sobald zwei dieser Indices übereinstimmen, wird faktisch nur über alle Permutationen K = (k1 , . . . , kn ) von (1, . . . , n) summiert. Mit sgn(k1 . . . kn ) haben wir das Signum der Permutation bezeichnet, die das Tupel (k1 , . . . , kn ) in das Tupel (1, . . . , n) überführt. Zum Schluss überzeugt man sich, dass oberhalb der geschweiften Klammer exakt der die Determinante definierende Ausdruck auftritt. 74 S. Hilger, Analysis 3 Satz 41 Es seien wie zuvor X ⊆ Rn , Y ⊆ Rw offene Teilmengen und f : X → Y eine C 1 –Abbildung. Für ω, η ∈ Ω(Y ) und α, β ∈ R gilt dann: (i) f ∗ (αω + βη) = αf ∗ ω + βf ∗ η (ii) f ∗ (ω ∧ η) = f ∗ ω ∧ f ∗ η (iii) d(f ∗ ω) = f ∗ (dω) (Hier muss f ∈ C 2 vorausgesetzt werden). Beweis Die in (i) aufgeschriebene Linearität ist direkt aus der Definition zu entnehmen. Der Beweis von (ii) besteht in einem einfachen Nachrechnen bei etwas Schreibaufwand. n Die Summationen erstrecken sich jeweils über alle Indices aus I ( • ) . η ω z zX }| }| { { X X ∗ I J f ([ ωI (y) dy ] ∧ [ ηJ (y) dy ]) = f ∗ ( ωI (y)ηJ (y) dy I ∧ dy J ) = I f ∗( X J I,J ωI (y)ηJ (y) εI|J dy I|J ) = I,J X X ωI (f (x))ηJ (f (x)) εI|J df I|J = I,J X X ωI (f (x))ηJ (f (x)) df ∧ df = [ ωI (f (x)) df I ] ∧ [ ηJ (f (x)) df J ]. I J I,J |I {z f ∗ω } |J {z f ∗η } Für (iii) führen wir nacheinander drei Schritte durch. (1) Wir beschäftigen uns zunächst mit 0–Formen (= Funktionen) ω, es gilt dann aufgrund der Kettenregel für f ∗ ω ∈ Ω(X) ∗ d(f ω)(x) = = n X ∂k (ω ◦ f )(x) dxk k=1 n X w X (Kettenregel) ∂j ω(f (x))∂k f j (x) dxk k=1 j=1 = w X ∂j ω(f (x)) j=1 = w X n X ∂k f j (x) dxk k=1 ∂j ω(f (x)) df j j=1 = f∗ w X ∂j ω dy j (x) j=1 ∗ = f (dω)(x). (2) Als nächstes betrachten wir eine Basis–p–Form dy I = dy i1 ∧ . . . ∧ dy ip ∈ Ωp (Y ). Für sie gilt f ∗ (dy I ) = df i1 ∧ . . . ∧ df ip 75 S. Hilger, Analysis 3 und deshalb aufgrund der Äußere–Produkt–Regel aus Satz 38 und Satz 39 (es fließt die C 2 –Voraussetzung ein) d(f ∗ (dy I )) = d df i1 ∧ . . . ∧ df ip = 0 (3) Ist jetzt ω allgemeiner eine p–Form der Gestalt ω = ωI dxI , so ist aufgrund der Vorarbeiten d(f ∗ ω) = (ii) d(f ∗ (ωI dy I )) = d(f ∗ (ωI ∧ dy I )) = d(f ∗ ωI ∧ f ∗ (dy I )) = d(f ∗ ωI ) ∧ f ∗ (dy I ) + f ∗ ωI ∧ d(f ∗ (dy I )) (2) = d(f ∗ ωI ) ∧ f ∗ (dy I ) = (1) f ∗ (dωI ) ∧ f ∗ (dy I ) = f ∗ (dωI ∧ dy I ) = f ∗ (dω) S. 38 = (ii) 76 S. Hilger, Analysis 3 Satz 42 Es seien X ⊆ Rn , Y ⊆ Rm und Z ⊆ Rw offene Mengen. Weiter seien die C 1 –Abbildungen f : X → Y , g : Y → Z gegeben. Ist ω ∈ Ωp (Z) eine p–Differentialform, so gilt in Ωp (X) die Identität f ∗ (g ∗ ω) = (g ◦ f )∗ ω. Im Diagramm veranschaulicht ist dies: f X ...................................... Ωp (X) f∗ ...................................... g Y Z ...................................... g∗ Ωp (Y ) ...................................... Ωp (Z) Beweis Aufgrund von Sätzchen 37 und Satz 41(ii) genügt es, die obige Aussage für 0–Formen und für Basis–1–Formen ω ∈ Ω(Z) zu beweisen. Für Funktionen ω ∈ Ω0 (Z) ist aber einfach f ∗ (g ∗ ω) = (g ∗ ω) ◦ f = (ω ◦ g) ◦ f = ω ◦ (g ◦ f ) = (g ◦ f )∗ ω. Für eine Basis–1–Formen dz j ∈ Ω1 (Z) gilt ∗ ∗ ∗ j ∗ j f (g dz )(x) = f ( dg )(x) = f ( n X ∂` g j dy ` )(x) `=1 df ` (x) = n X ∂` g j (f (x)) = }| { ∂k f ` (x) dxk k=1 `=1 = z n X n n X X ∂` g j (f (x)) ∂k f ` (x) dxk (Kettenregel) k=1 `=1 n X ∂k (g j ◦ f )(x) dxk k=1 = n X ∂k ((g ◦ f )j )(x) dxk k=1 = (g ◦ f )∗ dz j 77 S. Hilger, Analysis 3 24 24.1 Simplexe und Ketten p–Einheitspolyeder Für ein fixiertes p ∈ N0 bezeichnen wir mit e0 = 0, e1 , . . . , e p den Nullvektor und die kanonischen Einheitsvektoren im Rp . Wir nennen diese Vektoren im folgenden kurz Eckvektoren. Definition Die Teilmenge Ep = {u ∈ Rp |u1 , . . . , up ≥ 0, u1 + . . . + up ≤ 1} im Rp heißt der p–dimensionale Einheitspolyeder oder kurz p–Einheitspolyeder. Wir werden diesen Begriff des öfteren mit EP abkürzen. Es handelt sich um die konvexe Hülle ( = Schnitt aller konvexen Obermengen) der Menge der p + 1 Eckvektoren {e0 , e1 , . . . , ep } ⊆ Rp . In der Literatur werden diese Einheitspolyeder durchwegs Einheitssimplexe genannt, wir wollen von diesem Sprachgebrauch absehen, da das Wort ,,Simplex” bald für weitere mathematische Objekte benutzt werden wird. • Für p = 0 ist dies der Nullpunkt im E0 = {0} = R0 . • Für p = 1 ist dies das Einheitsintervall E1 = [0, 1] ⊆ R1 . • Für p = 2 ist dies das durch die drei Eckpunkte (0, 0)T , (1, 0)T , (0, 1)T festgelegte halbierte Einheitsquadrat im R2 . • Für p = 3 ist dies der durch die Eckpunkte (0, 0, 0)T , (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T definierte Tetraeder im R3 . r r ........................................................................ ..... ............... ....................... ............................... ....................................... ............................................... ....................................................... ............................................................... ........................................................................ ............................................................................... ...................................................................................... ............................................................................................... ....................................................................................................... ............................................................................................................... ..................................................................................................................... p=0 p=1 p=2 r r r r r .. ................ ..................... ........................................... . .................................................. ......................................................... ..................................................... ............................................................................................... . ............................................................................................. ................................................................................................... ...................................................................................... .................................................................................................................................................... . ....................................................................................................................................... ............................................................................................................................................... ..................................................................................................................... ........................................................................................................................................................................................................................ . ................................................................................................................................... ............................................................................................................. .................................................................... ..................................................................................... . .......................... ................................ .............. r r p=3 r 78 S. Hilger, Analysis 3 24.2 p–Simplexe Vereinbarung: Es seien Y ⊆ Rp , X ⊆ Rn beliebige (nicht notwendig offene) Teilmengen. Eine Abbildung f : Y → X heißt stetig differenzierbar bzw. von der Klasse C 1 , wenn es • eine offene Menge Ye mit Y ⊆ Ye ⊆ Rp , e mit X ⊆ X e ⊆ Rn • eine Menge X und e • eine C 1 –Abbildung fe : Ye → X gibt, so dass die Abbildung f erweitert wird: fe(y) = f (y) für alle y ∈ Ye . Definition Es sei p ∈ N0 und Ep der p–dimensionale Einheitspolyeder. X ⊆ Rn bezeichne eine offene Teilmenge. (1) Eine C 1 – Abbildung σ : Ep → X heißt einfach ein p–Simplex (in X) mit Parameterbereich Ep . (2) Die Menge aller p–Simplexe in X bezeichnen wir mit Σp (X). Beachte, dass ein p–Simplex eine Abbildung nach X, nicht eine Teilmenge von X, ist. Die Bildmenge eines p–Simplex kann durchaus ,,niedrigdimensional” oder selbstdurchdringend sein. Beachte weiter, dass ein 0–Simplex eine Abbildung {0} → Rn , also einfach die Auswahl eines (Bild–)Punktes aus X ist. Zeichnungen 24.3 p–Ketten Definition Es sei X ⊆ Rn offen. (1) Eine p–Kette in X ist eine formale Linearkombination von p–Simplexen in X, das heißt ein Ausdruck der Form m X ψ = α1 σ1 + α2 σ2 + . . . + αm σm = α` σ` `=1 mit reellen Zahlen α` und p–Simplexen σ` : Ep → X, ` = 1, . . . , m. Addition und skalare Vervielfachung sind im Sinne von Abschnitt 23.1 zu verstehen, es geht nicht um die punktweise Ausführung in der Wertemenge X der Simplexe. (2) Die Menge aller p–Ketten in X wird mit Ψp (X) := RΣp (X) bezeichnet. Beachte wieder, dass eine 0–Kette eine Linearkombination von 0–Simplexen, also letztlich eine Linearkombination von Punkten aus X ist. Zeichnungen 79 S. Hilger, Analysis 3 24.4 Der Seit–Operator Wir wollen für Simplexe und Ketten zunächst einen Seit–Operator (engl.: face operator) und dann im nächsten Abschnitt einen Rand–Operator (border operator) definieren. Die Definition des Seit–Operators wird über mehrere Zwischenschritte aufgebaut, wir wollen uns zunächst einen Überblick verschaffen. (0) Es sei p ∈ N0 fixiert. Wir betrachten zusätzlich eine Zahl q mit 0 ≤ q ≤ p und dann einen wachsenden (q + 1)–Index p+1 I = i0 i1 . . . iq ∈ I (q+1) mit Elementen i` ∈ {0, . . . , p} für ` = 0, . . . , q. Wir können einem solchen Index verschiedene Abbildungen zuordnen, die wir zunächst in der folgenden Tabelle auflisten und dann weiter erläutern. Mengentyp Mengenebene Elementebene J ·I (1) endlich I : {0, 1, . . . , q} → {0, 1, . . . , p} ` 7→ i` J ◦I (2) Vektorraum seI : Rq → Rp e` 7→ ei` seJ ◦ seI (3) EP sI : Eq → Ep e` 7→ ei` sJ ◦ sI (4) Simplex δeI : Σp (X) → Σq (X) δeI ◦ δeJ (5) Kette δI : Ψp (X) → Ψq (X) σ 7→ σ ◦ sI Pk Pk `=1 α` σ` 7→ `=1 α` (σ` ◦ sI ) δI ◦ δJ (1) Zunächst kann ein wachsender (q + 1)–Index I = i0 . . . iq als eine streng monoton wachsende Abbildung I: {0, 1, . . . , q} → {0, 1, . . . , p} ` 7→ i` aufgefasst werden. Das bedeutet auch, dass man zwei Indices I = i0 . . . iq : {0, . . . , q} → {0, . . . , p} und J = j0 . . . jp : {0, . . . , p} → {0, . . . , r} hintereinander ausführen kann. Wir nennen die durch (J ◦ I)(`) = J(I(`)) = J(i` ) = ji` für ` = 0, . . . , q. gebildete Abbildung einfach das Produkt J · I der Indices J und I und bezeichnen sie durch J · I := J ◦ I = ji0 . . . jiq . (2) In Abhängigkeit von dem wachsenden (q + 1)–Index I = i0 . . . iq definieren wir eine q–Standard–Affin–Abbildung seI : Rq → Rp 80 S. Hilger, Analysis 3 durch u1 seI ... = u1 ei1 + . . . + uq eiq + (1 − u1 − u2 − · · · − uq )ei0 . uq u1 ei1 − ei0 , ei2 − ei0 · · · eiq − ei0 ... + ei0 = uq Man sieht leicht, dass diese Abbildung auf die Eckvektoren wirkt durch seI : Rq 3 e` 7→ ei` ∈ Rp , ` = 0, . . . , q. Daraus ist auch zu ersehen, dass durch die affine Abbildung umgekehrt der Index I eindeutig bestimmt ist. Sind zwei Indices I und J gegeben, so ist dem Produkt auch die Hintereinanderausführung der affinen Abbildungen zugeordnet: seJ·I = seJ ◦ seI . (3) Die Abbildung seI kann auf den Einheitspolyeder Eq ⊆ Rq eingeschränkt werden, tatsächlich ist Eq → Ep sI : x 7→ seI (x) wohldefiniert. Das Bild unter seI des q–Einheitspolyeder Eq ist, wie man sofort sieht, im p–Einheitspolyeder Ep enthalten. Wir nennen die Abbildung sI bzw. ihr Bild sI (Eq ) den affinen q–Seit–Polyeder des EP Ep (zum (q + 1)–Index I). Wir betonen noch einmal die Korrespondenz: p+1 (q + 1)–Index in I (q+1) ∼ q–Seit–Polyeder des p–Einheitspolyeder. Zeichnungen für p = 3 und q = 0, 1, 2. Beispiele: Wir notieren die Spezialfälle für kleine und große q: q= 0 Für einen 1–Index i, i ∈ {0, . . . , p}, ist die Abbildung si : {0} → Ep gegeben durch si (0) = ei . Die Abbildung sucht einfach den i–ten Eckvektor des p–Einheitspolyeders Ep heraus. 81 S. Hilger, Analysis 3 q= 1 Zum 2–Index i0 i1 gehört der affine 1–Seit–Polyeder si0 i1 : E1 → Ep . Die Werte an den beiden Endpunkten des Intervalls E1 = [0, 1] sind si0 i1 (0) = ei0 , si0 i1 (1) = ei1 . Ein 1–Seit–Polyeder ist also einfach die (orientierte) Verbindungsstrecke zwischen zwei Eckvektoren, er bildet eine Kante. q = p − 1 Für einen p–Index 0 . . . rb . . . p mit 1 ≤ r ≤ p (der Hut–Operator bedeutet: Weglassen!) ist der zugehörige (p − 1)–Seit–Polyeder s0...br...p : Ep−1 → Ep gegeben durch u1 . .. u1 ur−1 .. s0...br...p . = 0 ← r–te Zeile. ur up−1 . .. up−1 Das Bild in Ep ist der (p − 1)–Seit–Polyeder, der genau den Eckpunkt er nicht enthält. Für den p–Index 1 . . . p (0 wird also weggelassen) ist der zugehörige (p − 1)– Seit–Polyeder s1...p : Ep−1 → Ep gegeben durch 1 − u1 − . . . − up−1 u1 u1 .. s1...p . = .. . up−1 up−1 q = p Der (einzig mögliche) p–Seit–Polyeder gehört zum (p + 1)–Index 0 . . . p, es handelt sich um die Abbildung s01...p = idEp . Der Seit–Polyeder von Ep ist der Einheitspolyeder Ep selbst. Beispielsweise sind einige Seit–Polyeder von E3 gegeben durch s01 (u) s12 (u) s13 (u) s23 (u) s123 (u1 , u2 ) = = = = = (e1 − e0 )u + e0 = (1 − u)e0 + ue1 , u ∈ [0, 1] (e2 − e1 )u + e1 = (1 − u)e1 + ue2 , u ∈ [0, 1] (e3 − e1 )u + e1 = (1 − u)e1 + ue3 , u ∈ [0, 1] (e3 − e2 )u + e2 = (1 − u)e2 + ue3 , u ∈ [0, 1] (e2 − e1 , e3 − e1 )u + e1 = (1 − u1 − u2 )e1 + u1 e2 + u2 e3 , (u1 , u2 ) ∈ E2 . (4) Jedem p–Simplex σ : Ep → X kann mit Hilfe des (q + 1)–Index I = i0 . . . iq ein q–Simplex zugeordnet werden, nämlich durch die Rechts–Hintereinanderausführung mit Hilfe des affinen Simplex sI . Man erhält also eine Abbildung Σp (X) → Σq (X) δeI : σ 7→ σ ◦ sI , 82 S. Hilger, Analysis 3 die wir den Seit–Operator (zum Index I) nennen. Im Diagramm: E........q......................s............I..................................................s........................I..........(Eq ) σ X ........................................................................... .... ................ ..00 ...................00 ....................20 ...................03 .................................................................................................................................................................................................................................................................................................................... Wir überlegen noch sorgfältig, welche Abbildung dem Produkt J · I zweier wachsender Indices J und I zugeordnet ist. Es ist für σ ∈ Σp (X): δeJ·I (σ) := σ ◦ sJ·I = σ ◦ (sJ ◦ sI ) = (σ ◦ sJ ) ◦ sI = δeI (σ ◦ sJ ) = δeI (δeJ (σ)), also δeJ·I = δeI ◦ δeJ . Für den Spezialfall q = 0 und den Index I = i ∈ {0, . . . , p} erhalten wir als Abbildung δeI = δei : Σp (X) → Σ0 (X) σ 7→ σ ◦ si : {0} 7→ σ(ei ). (5) Den Seit–Operator δeI kann man sofort für Ketten erweitern, indem man man ihn termweise für die Summanden in der Kette anwendet: Ψ (X) → Ψq (X) Pm Pm Pm p δI : e ψ = `=1 α` σ` 7→ `=1 α` (σ` ◦ sI ) `=1 α` (δI σ` ) = Es gilt dann selbstverständlich auch δJ·I = δI ◦ δJ . 83 S. Hilger, Analysis 3 24.5 Der Rand–Operator Es sei p ∈ N0 fest gegeben. Wir betrachten für ein festes r ∈ {0, . . . , p} den wachsenden p–Index p+1 p 0 . . . rb . . . p ∈ I ( ) der genau alle Zahlen zwischen 0 und p (in aufsteigender Reihenfolge) mit Ausnahme von r enthält. Für p = 0 und den 1–Index i ist rb = bi der leere 0–Index. Diesem p–Index ist gemäß letztem Abschnitt der affine (p − 1)–Seit–Polyeder s0...br...p : Ep−1 → Ep , zugeordnet, der den (p − 1)–Einheitspolyeder Ep−1 genau auf die (p − 1)–dimensionale Seitenfläche s0...br...p (Ep−1 ) von Ep mit den Eckvektoren e0 , e1 , . . . , ebr , . . . , ep (eben unter Auslassung des Eckvektors er ) abbildet. Entsprechend ist diesem p–Index auch der Seit–Operator Σp → Σp−1 δe0...br...p : σ ◦ s0...p 7→ σ ◦ s0...br...p zugeordnet, der einen p–Simplex σ = σ ◦s0...p : Ep → X auf den (p−1)–Simplex σ ◦s0...br...p abbildet. Im Diagramm veranschaulicht ist dies: r...p ............ X....... Ep−1 ................s.........0...b r...p (Ep−1 ) ..σ ........................ s0...b .............................. ...................................................................... .. ................. .. ............ .......................................................................................... ... Die Menge in der Mitte ist der (p − 1)–dimensionale Seit–Polyeder, der bei Weglassen des Eckvektors eir entsteht. Entsprechend wirkt der Seit–Operator auch durch termweise Anwendung auf p–Ketten: Ψp → Ψp−1 Pm δ0...br...p : Pm e r...p σ` ) `=1 α` (δ0...b `=1 α` σ` 7→ Definition Der Rand–Operator ∂ : Ψp (X) → Ψp−1 (X) ist definiert als die alternierende Summe aller Seit–Operatoren: ∂ := p X (−1)r δ0...br...p = δ1...p − δ02...p + δ013...p ± . . . + (−1)p δ0...p−1 . r=0 Die Wirkung auf eine p–Kette ψ = ∂ψ = p X r=0 Pm `=1 α` σ` ist also p m X X r (−1) δ0...br...p ψ. = (−1) α` (σ` ◦ s0...br...p ). r r=0 `=1 Für p = 0 ergänzen wir die Definition dadurch, dass wir ∂ = 0 auf Ψ0 (X) setzen. Bemerkungen (1) Diese Definition des Rand–Operators ist der Grund dafür, dass man statt einzelner p–Simplexe ganze p–Ketten von Simplexen betrachtet. (2) Es wäre auch möglich, schon vorher (bzgl. der Tabelle auf Seite 79) Seit– und Rand– Operatoren für Ketten von Indices oder von affinen Simplexen einzuführen und in diesem abstrakteren Rahmen den folgenden Satz zu beweisen. 84 S. Hilger, Analysis 3 Satz 43 Es sei p ∈ N0 , X ⊆ Rn offen und ψ ∈ Ψp (X) eine p–Kette. Dann gilt: ∂ ∂ ψ = 0. Beweis Für p ≤ 1 ist die Aussage trivial, so dass wir p ≥ 2 annehmen. Da die Rand–Operatoren termweise auf die Simplex–Summanden einer p–Kette wirken, können wir annehmen, dass die p–Kette ψ gleich einem p–Simplex σ ∈ Σp (X) ist. Es gilt dann p p X X r (−1)r (σ ◦ s0...br...p ). (−1) δ0...br...p (σ) = ∂σ = r=0 r=0 Wendet man dann den Seit–Operator δ0...bt...p−1 auf den (p − 1)–Simplex σ ◦ s0...br...p an, so erhält man σ ◦ s0...bt...br...p , falls t < r, δ0...bt...p−1 (σ ◦ s0...br...p ) = σ ◦ s0...br...p ◦ s0...bt...p−1 = σ ◦ s0...br...[ falls t ≥ r. t+1...p , Wendet man den Rand–Operator ein zweites mal an, so erhält man ! p X (−1)r (σ ◦ s0...br...p ) ∂∂σ = ∂ r=0 p = X (−1)r ∂ (σ ◦ s0...br...p ) r=0 p X = (−1)r r=0 p # (−1)t (σ ◦ s0...br...p ◦ s0...bt...p−1 ) t=0 X = (−1)r r=0 " r−1 X # p−1 X (−1)t (σ ◦ s0...bt...br...p ) + (−1)t (σ ◦ s0...br...[ t+1...p ) t=0 p X = (−1)r = " p−1 X r=0 p r−1 X X " r−1 X t=r p (−1)t (σ ◦ s0...bt...br...p ) + t=0 (−1)r+t (σ ◦ s0...bt...br...p ) + r=0 t=0 p # X (−1)t−1 (σ ◦ s0...br...bt...p ) t=r+1 p X X (−1)r+t−1 (σ ◦ s0...br...bt...p ) r=0 t=r+1 Für je zwei Zahlen m, n ∈ {0, . . . , p} mit m < n tritt der Summand σ ◦ s0...m...b b n...p in dieser Summe zweimal auf, nämlich . . . • genau einmal in der Doppelsumme links mit dem Summationsindexpaar (m, n) = (t, r), • genau einmal in der Doppelsumme rechts mit dem Summationsindexpaar (m, n) = (r, t). Da diese beiden Summanden unterschiedliches Vorzeichen haben, heben sie sich weg. Andere Summanden treten gar nicht auf, also ist die Gesamt–Summe Null. 85 S. Hilger, Analysis 3 24.6 Vorwärtsschieben einer p–Kette Eine vergleichsweise einfache, aber etwas abstrakt anmutende Definition ist die folgende Definition Es seien X ⊆ Rn , Y ⊆ Rm offen und f : X → Y eine C 1 –Abbildung. Ist σ : Ep → X ein p–Simplex in X, so heißt die Abbildung f∗ σ := f ◦ σ : Ep → Y der mittels f nach Y vorwärtsgeschobene p–Simplex (in Y ). Im englischen spricht man vom “pushforward ”. Dies kann sofort wieder für p–Ketten erweitert werden, indem man das Vorwärtsschieben termweise anwendet: m m X X f∗ ( α` σ` ) := α` (f∗ σ` ). `=1 `=1 Es ist unmittelbar klar, dass für zwei C 1 –Abbildungen f : X → Y und g : Y → Z gilt: (g ◦ f )∗ = g∗ f∗ . Der Rand–Operator und das Vorwärtsschieben passen in folgendem Sinne zusammen: Sätzchen 44 Es seien X, Y und f : X → Y wie oben. Dann gilt für eine p–Kette ψ ∈ Ψp (X) f∗ (∂ψ) = ∂(f∗ ψ). Beweis Da beide Operatoren termweise auf die p–Simplexe in der p–Kette wirken, genügt es, die Beziehung für einen p–Simplex σ : Ep → X zu durchzurechnen, was wir (sehr) ausführlich tun: p p X X r f∗ (∂σ) = f∗ [ (−1) (σ ◦ s0...br...p )] = (−1)r f∗ (σ ◦ s0...br...p ) r=0 = p X (−1)r (f ◦ σ ◦ s0...br...p ) = r=0 r=0 p X (−1)r (f ◦ σ) ◦ s0...br...p r=0 = ∂(f ◦ σ) = ∂(f∗ σ) 86 S. Hilger, Analysis 3 25 25.1 Der Satz von Stokes Integration über den Einheitspolyeder Es sei Ep wieder der p–Einheitssimplex. Eine stetige Abbildung % : Ep → R kann durch Multiplikation mit der Indikator–Funktion χEp sinnvoll zu einer Abbildung auf ganz Rp fortgesetzt werden: p R → R %(u), falls u ∈ Ep , % · χEp : x 7→ 0, sonst. Da diese Funktion in C ↓ (Rp ) enthalten ist, ist das Integral Z ↓ Z %(u) · χEp (u) du %(u) du := Rp 1 Ep Z Z 1−up Z 1−u3 −...−up Z 0 0 1−u2 −...−up %(u1 , . . . , up ) du1 · · · dup . ··· = 0 0 wohldefiniert. Der Ausdruck in der unteren Zeile ergibt sich aus der Definition der Einheitspolyeder in Verbindung mit dem Satz 28(iv) von Fubini. 87 S. Hilger, Analysis 3 25.2 Integration von p–Formen über p–Ketten p–Formen und p–Ketten gehen über die folgende fundamentale Definition eine weittragende und tiefliegende Verbindung ein. Definition (1) Es sei zunächst σ ein p–Simplex und eine p–Form ω = ωI dxI in der offenen Menge X ⊆ Rn . Die Zahl Z Z Z I ω = ωI dx := σ σ ωI (σ(u)) · det σ 0I (u) du1 . . . dup Ep heißt das Integral der p–Form ω über dem p–Simplex σ. Dabei ist die Determinante unter dem Integral auf der rechten Seite die der p × p– Jacobimatrix ∂1 σ i1 (u) · · · ∂p σ i1 (u) σ i1 .. .. σ 0I = D ... (u) = . . . ∂p σ ip (u) · · · ∂p σ ip (u) σ ip (2) Das Integral lässt sich auf ,,natürliche Weise” auf p–Ketten ψ= m X α` σ ` `=1 und p–Formen der Gestalt X ω= ωI dxI n I∈I (p) erweitern, indem man die Bilinearität fordert: Z Z m X X ω := α` ωI dxI ψ σ` n `=1 I∈I (p) (3) Es ist insgesamt eine Abbildung Z Ψp (X) × Ωp (X) → R R : (ψ, ω) 7→ ψ ω entstanden. Sie heißt das Integral der p–Form ω über die p–Kette ψ. Beispiel: Ein 1–Simplex ist eine stetig differenzierbare Kurve γ : [0, 1] → X. Ist weiter ω = ωi dxi eine 1–Form in X, so ergibt sich als Integral Z Z ω= ωi (γ(u))(γ i )0 (u) du. γ [0,1] Das Integral heißt in diesem Fall auch Kurvenintegral. 88 S. Hilger, Analysis 3 Dass die obige technische Definition eines Integrals, insbesondere der zusätzliche Determinantenfaktor im Integranden, sinnvoll ist, stellt das folgende Sätzchen heraus: Sätzchen 45 (Umparametrisierung Einheitspolyeder) Es sei ϑ : Ep → Ep ein orientierungserhaltender C 1 –Diffeomorphismus des p–Einheitspolyeders. Orientierungserhaltung bedeutet dabei, dass die Determinante der Ableitung durchwegs positiv ist: det ϑ0 (x) > 0 für alle x ∈ Ep . Dann gilt für einen p–Simplex σ und eine p–Form ω Z Z ω= ω, σ σ◦ϑ d.h. der Wert des Integrals ändert sich bei einer orientierungserhaltenden Umparametrisierung des Simplex nicht. Beweis Es genügt, den Fall ω = ωI dxI für einen fest gegebenen p–Index I zu betrachten. Dafür gilt mit der Transformationsformel Satz 30 — dualisiert für C ↓ –Funktionen — Z Z ω := ωI (σ(ϑ(u))) det((σ ◦ ϑ)I )0 (u) du σ◦ϑ E Z p = ωI (σ(ϑ(u))) det σ 0I (ϑ(u)) det ϑ0 (u) du E Z p = ωI (σ(ϑ(u))) det σ 0I (ϑ(u)) | det ϑ0 (u)| du E Z p S 30 = ωI (σ(v)) det σ 0I (v) dv E Z p =: ω σ 89 S. Hilger, Analysis 3 Satz 46 Es seien X ⊆ Rn , Y ⊆ Rm offen, f : X → Y eine C 1 –Abbildung. Ist ψ eine p–Kette in X und ω eine p–Form in Y , so gilt Z Z ω= f ∗ ω, etwas formaler: (f∗ ψ, ω) = (ψ, f ∗ ω). f∗ ψ ψ Beweis (1) Wir beweisen zunächst die folgende Aussage: Ist σ : Ep → X ein p–Simplex in X und s0...p : Ep → Rp der ,,identische” (kanonische) p–Simplex (bzw. Seit–Operator) im Rp , so gilt Z Z ω= σ ∗ ω. σ s0...p Beachte dabei, dass σ auf eine offene Umgebung von Ep stetig differenzierbar fortgesetzt werden kann und deshalb der Pullback wohldefiniert ist. Es genügt wiederum, den Fall ω = ωI dxI für einen fest gegebenen p–Index I zu betrachten. Mit Sätzchen 40 erhalten wir Z Z ω := ωI (σ(u)) det σ 0I (u) du σ E Z p =: (ωI ◦ σ) det σ 0I du1 ∧ . . . ∧ dup s Z 0...p S 40 = (ωI ◦ σ) dσ i1 ∧ . . . ∧ dσ ip s Z 0...p = σ ∗ ω. s0...p (2) Als nächstes gilt mit Satz 42: Z Z Z (1) ∗ ω= (f∗ σ) ω = f∗ σ s0...p s0...p ∗ S 42 Z (f ◦ σ) ω = ∗ ∗ (1) Z σ f ω= s0...p f ∗ ω. σ (3) Durch Linearkombination erhält man die Erweiterung von Simplexen σ auf Ketten ψ. 90 S. Hilger, Analysis 3 25.3 Der Satz von Stokes Satz 47 (Stokes) Ist ψ eine p–Kette in X der Klasse C 2 und ω eine (p − 1)–Form der Klasse C 1 in X ⊆ Rn , so gilt: Z Z dω = ω oder formaler: (ψ, dω) = (∂ψ, ω). ψ ∂ψ Beweis Der Beweis ist ein Lehrstück in Bezug auf die ,,Reduktion auf den einfachsten Fall”. Dies geschieht in mehreren Schritten. (1) Wegen der Linearität bzgl. der Ketten genügt es, die Formel Z Z dω = ω σ ∂σ für einen p–Simplex σ : Ep → X der Klasse C 2 zu beweisen. (2) Mit den jeweils angegebenen Sätzen gilt Z Z Z Z (∗) S 41(iii) S 46 ∗ dω = dω = σ (d ω) = d (σ ∗ ω) σ σ s s s0...p Z Z 0...p Z ∗ 0...p Z (∗) S 46 S 44 ω = σ∗ω ω = ω = σ∗ (∂s0...p ) ∂(σ∗ s0...p ) ∂σ ∂s0...p Beachte für (∗) jeweils, dass σ auf eine offene Umgebung Y von Ep stetig differenzierbar fortgesetzt werden kann und deshalb der Pullback–Operator σ ∗ wohldefiniert ist. Das bedeutet, dass wir die Formel in (1) nur für den Simplex s0...p = idEp — und beliebige (p − 1)–Formen η in Y ⊆ Rp — beweisen müssen: Z Z dη = η. s0...p ∂s0...p (3) Eine beliebige (p − 1)–Form η in Y wiederum hat die Darstellung η= p X η1...br...p dy 1...t...p . b t=1 Es genügt also, den Stokes’schen Satz für eine (p − 1)–Form λ zu zeigen, die — bei ab jetzt fixiertem t ∈ {1, . . . , p} — die Gestalt λ dy 1...t...p b eines solchen Summanden hat. λ ist dabei eine C 1 –Funktion Y → R. Es muss jetzt also die Formel Z Z b 1...b t...p d (λ dy )= λ dy 1...t...p s0...p ∂s0...p gezeigt werden. (4) Gemäß Definition des Integrals und der äußeren Ableitung ist die linke Seite gleich Z Z Z 1...b t...p t−1 1...p t−1 d (λ dy )= (−1) ∂t λ dy = (−1) ∂t λ(u) du. s0...p s0...p Ep 91 S. Hilger, Analysis 3 (5) Um die rechte Seite der Formel in (3) zu berechnen, nehmen wir uns den Rand von s0...p vor. Es ist ∂s0...p p X (−1)r s0...br...p , = r=0 demzufolge Z λ dy 1...b t...p Z p X r (−1) = ∂s0...p = Ep−1 b s0...b r ...p r=0 Z λ dy 1...t...p " p # X b 1... t ...p (−1)r λ(s0...br...p (v)) det(s0...br...p )0 (v) dv. r=0 Als Parametervariable in Ep−1 benutzen wir hier v = (v1 , . . . , vp−1 ). (6) Um die auftretenden Determinanten auszurechnen, betrachten wir die zugehörigen affinen (p − 1)–Simplexe s0...br...p : Ep−1 → Ep , die wir bereits in Abschnitt 24.4 angegeben haben. Es ist 1 − (v1 + . . . + vp−1 ) v1 .. , falls r = 0, . vp−1 v1 v1 .. s0...br...p . = ... vp−1 v r−1 0 r–te Zeile → , falls 1 ≤ r ≤ p. vr .. . vp−1 Die Ableitungen dieser Abbildungen 1 0 (s0...br...p )0 = . .. 0 r–te Zeile → 0 0 .. . . .. 0 sind die (konstanten) p × (p − 1)–Matrizen: −1 1 −1 0 . 0 1 .. . ··· 0 . . ··· ··· .. . .. .. . . . .. ··· 0 1 ··· ··· 0 ··· ··· 0 ··· ··· ··· 0 .. . ··· ··· 0 0 1 .. . ··· ··· ··· .. . .. . 0 ··· −1 0 .. . 0 1 0 .. . .. . ··· ··· 0 ··· ··· 0 0 ··· 0 . .. . . . . .. .. . . .. 0 ··· 0 1 , falls r = 0, , falls 1 ≤ r ≤ p. 92 S. Hilger, Analysis 3 t...p Da s1... r...p durch Streichung der t–ten Zeile hervorgehende 0...b r...p : Ep−1 → Ep−1 die aus s0...b Abbildung ist, ist dies entsprechend auch für die Ableitung der Fall. b t...p 0 (s1... 0...b r...p ) ist die (p − 1) × (p − 1)–Matrix, die aus der zugehörigen p × (p − 1)–Matrix (s0...br...p )0 durch Streichung der t–ten Zeile hervorgeht. Wir wollen jeweils die Determinanten berechnen. b Für r = 0 und t = 1 ist die entstehende Matrix die (p − 1) × (p − 1)–Einheitsmatrix, deshalb det(sb12......p )0 = 1. 01......p b Für r = 0 und t > 1 entwickle man die Determinante nach der ersten Zeile. Es ist dann, wie ein genaueres Hinsehen zeigt, nur der t–te Summand ungleich Null, es ergibt sich t...p 0 det(sb1... ) = (−1)t−1 , 01......p b da die zugehörige Unterdeterminante die der (p − 2) × (p − 2)–Einheitsmatrix ist. Für r > 0 enthält die entstehende Matrix immer eine Null–Zeile, außer wenn r = t ist. Es gilt also in diesem Fall: 1, falls r = t, 1...b t...p 0 det(s0...br...p ) = 0, falls r = 1, . . . , b t, . . . , p. (7) In dem Ausdruck von Schritt (5) treten damit tatsächlich nur die Summanden für r = 0 und r = t auf: Z b λ dy 1...t...p ∂s Z 0...p = (−1)t−1 λ(s1...p (v)) + (−1)t λ(s0...bt...p (v)) dv Ep−1 Der Vergleich mit (4) zeigt nun, dass wir noch beweisen müssen: Z Z ∂t λ(u) du = λ(s1...p (v)) − λ(s0...bt...p (v)) dv Ep Ep−1 (8) Wir rechnen das Integral links — unter Vertauschung der Integrationsreihenfolge — aus: Z ∂t λ(u) du Ep 1 Z 1−up Z Z ··· = 0 Z 0 1 Z 1−up 0 Z 1−u1 −...−ubt −...−up ct . . . dup ∂t λ(u) dut du1 . . . du 0 Z ··· = 1−u2 −...−ubt −...−up 0 1−u2 −...−ubt −...−up 0 h0 λ(u1 , . . . , ut−1 , 1 − u1 − . . . − ubt − . . . − up , ut+1 , . . . , up ) − i ct . . . dup λ(u1 , . . . , ut−1 , 0, ut+1 , . . . , up ) du1 . . . du 93 S. Hilger, Analysis 3 (Umbenennung: (u2 , . . . , ut−1 , ut+1 , . . . , up ) = (v2 , . . . , vt−1 , vt , . . . , vp−1 )) Z 1 1−vp−1 Z Z 1−v2 −...−vp−1 ··· 0 h0 λ(u1 , v2 , . . . , vt−1 , 1 − u1 − v2 − . . . − vp−1 , vt , . . . , vp−1 ) − i λ(u1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) du1 dv2 . . . dvp−1 = 0 = (∗) Für die beiden Anteile gilt Z Z 1 Z 1−vp−1 ··· Z 1−v2 −...−vp−1 0 0 0 0 1−v3 −...−vp−1 λ(u1 , v2 , . . . , vt−1 , 1 − u1 − v2 − . . . − vp−1 , vt , . . . , vp−1 ) du1 dv2 . . . dvp−1 (Substitution: v1 = 1 − u1 − v2 − . . . − vp−1 ) | {z } fixiert Z 1 1−vp−1 Z Z 1−v3 −...−vp−1 Z 0 ··· = 0 0 1−v2 −...−vp−1 0 λ(1 − v1 − . . . − vp−1 , v2 , . . . , vt−1 , v1 , vt , . . . , vp−1 )(−1) dv1 . . . dvp−1 Z 1 1−vp−1 Z Z 1−v3 −...−vp−1 Z 1−v2 −...−vp−1 ··· = 0 0 0 0 λ(1 − v1 − . . . − vp−1 , v2 , . . . , vt−1 , v1 , vt , . . . , vp−1 ) dv1 . . . dvp−1 Z = λ(s1...p (v)) dv. Ep−1 bzw. Z 1 1−vp−1 Z Z 1−v2 −...−vp−1 ··· 0 0 λ(u1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) du1 dv2 . . . dvp−1 0 (Umbenennung: v1 = u1 ) Z 1 1−vp−1 Z Z 1−v2 −...−vp−1 ··· = Z0 0 = Ep−1 λ(v1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) dv1 . . . dvp−1 0 λ(s0...bt...p (v)) dv, so dass wir den Ausdruck (∗) weiterführen können zu Z Z (∗) = λ(s1...p (v)) dv − λ(s0...bt...p (v)) dv, Ep−1 und damit stimmt’s. Ep−1 94 S. Hilger, Analysis 3 25.4 Spezialfälle des Satzes von Stokes: Vektoranalysis n = 1, p = 1 Die 0–Form ω ist eine Funktion x 7→ ω(x). Die 1–Form dω ist gegeben durch dω = ω 0 (x) dx. Es sei σ der 1–Simplex der kanonischen Einbettung E1 = [0, 1] → R σ: x 7→ x. Der Rand von σ ist gegeben durch die 0–Kette 1 X ∂σ = (−1)r (σ ◦ s0br1 ) = σ ◦ s1 − σ ◦ s0 , r=0 wobei σ ◦ sj : {0} → R der 0–Simplex ist, dessen Bildpunkt j ∈ R ist. Die beiden Ausdrücke im Satz von Stokes Z Z ω dω = ∂σ σ werten wir jetzt aus: Z Z 1 dω = ω 0 (u) du = ω(1) − ω(0) Z0 Zσ ω = ω = ω(σ(1)) − ω(σ(0)) = ω(1) − ω(0). σ◦s1 −σ◦s0 ∂σ In diesem Fall ist der Satz von Stokes also einfach der HDI. 25.4.1 Der Satz von Stokes bei Kurvenintegralen n beliebig, p = 1 Die 0–Form ω ist eine Funktion x 7→ ω(x). Die 1–Form dω ist gegeben durch dω = ∂1 ω dx1 + . . . + ∂n ω dxn . Es sei γ ein 1–Simplex, das ist eine (stetig differenzierbare) Kurve E1 = [0, 1] → Rn γ: x 7→ γ(x). Der Rand von γ ist gegeben durch die 0–Kette ∂γ = 1 X (−1)r (γ ◦ s0br1 ) = γ ◦ s1 − γ ◦ s0 , r=0 wobei für j = 0, 1 der 0–Simplex γ ◦ sj : {0} → Rn dadurch gegeben ist, dass dessen Bildpunkt γ(j) ∈ Rn ist. 95 S. Hilger, Analysis 3 Die beiden Ausdrücke im Satz von Stokes Z Z dω = ω γ ∂γ werten wir jetzt aus: Z Z dω = ∂1 ω dx1 + . . . + ∂n ω dxn γ γ Z 1 = 1 0 n 0 ∂1 ω(γ(u)) · (γ ) (u) + . . . + ∂n ω(γ(u)) · (γ ) (u) du 0 Z = 1 (ω ◦ γ)0 (u) du = ω(γ(1)) − ω(γ(0)) Z0 Z ω = ω(γ(1)) − ω(γ(0)). ω = ∂γ γ◦s1 −γ◦s0 Physikalisch steckt der folgende Sachverhalt dahinter: • Die 1–Form ω mit n Komponenten wird als ein Feld (Gravitationsfeld, Gefälle, el. Feld,. . . ) interpretiert. • Die (mechanische, elektrische) Arbeit, die bei der Bewegung längs einer Kurve γ : [0, 1] → X in diesem Kraftfeld verrichtet werden muss, ist definiert durch Z W (γ, ω) := ω. γ • Ein solches Feld ω heißt konservativ, wenn es eine Funktion (das Höhenprofil, Potential ) f : X → R gibt, so dass ω = df . • Der Satz von Stokes besagt nun, dass die zu verrichtende Arbeit in einem konservativen Kraftfeld nur vom Potential an Anfangs- und Endpunkt der Kurve abhängt: Z W (γ, ω) = Z ω= γ Z f = f (γ(1)) − f (γ(0)). df = γ ∂γ • Insbesondere bei der Bewegung entlang einer geschossenen Kurve (γ(1) = γ(0)) ist die zu verrichtende Arbeit Null. 96 S. Hilger, Analysis 3 25.4.2 Der Green’sche Satz Zur Vorbereitung stellen wir eine Überlegung für die Integration über 2–Ketten an. Es sei X ⊆ Rn offen und ψ eine ,,rechteckparametrisierte” 2–Kette in X. Das bedeutet, dass die folgende Situation, veranschaulicht in der Zeichnung unterhalb, erfüllt ist: • Es existiert ein kompaktes achsenparalleles Rechteck R = [a1 , b1 ] × [a2 , b2 ] ⊆ R2 , • es existiert eine C 1 –Abbildung ψR : R → X, • es existieren zwei affine orientierungserhaltende Abbildungen α1 , α2 : E2 → R, deren Bilder in folgendem Sinn eine Zerlegung des Rechtecks R ergeben: (α1 (E2 ))◦ ∩ (α2 (E2 ))◦ = ∅. R = α1 (E2 ) ∪ α2 (E2 ), Wir wollen dabei noch annehmen, dass α1 (0) = (a1 , a2 ), α2 (0) = (b1 , b2 ). • Die gegebene Kette hat die Form ψ = ψR ◦ α1 + ψR ◦ α2 . ....... ... ...... ... ....... ..... ... ..... .. ..... ... ..... ..... ... ..... ... ..... ..... ..... ..... .. E2 ..... ... ... ......................................................... α2 ...................................................................................................................................................... ............ + ....... ... ...... .. ....... ... ..... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ..... ... E ..... 2 ... ... .......................................................... R ........................................................................................................................................ .. . .... ... .... ........... ...... ... ... ...... α (E ) ... .... ...... 2 2 ...... .. ... ...... ... ... ...... ... ... ...... ...... ... ... ...... ... ... ...... ...... ... ... ...... ... ... ...... ...... ... ... ...... ... ... ...... . ... ... . ...... α1 (E2 ) . ...... ... ...... .... ... ...... .. ....... .. ............................................................................................................................. ψR ............................................................. α1 ............. ................................................................................................ X Für die Berechnung des Integrals einer 2–Form η = ηI dxI kann man dann wie folgt vorgehen: Z Z Z η = η+ η ψ ψR ◦α1 ψR ◦α2 Z = ηI (ψR (α1 (u))) det((ψR ◦ α1 )I )0 (u) du1 du2 + E2 Z ηI (ψR (α2 (u))) det((ψR ◦ α2 )I )0 (u) du1 du2 = E2 Z = ηI (ψR (α1 (u))) det(ψRI )0 (u) det α1 du1 du2 + E2 Z ηI (ψR (α2 (u))) det(ψRI )0 (u) det α2 du1 du2 = E2 Z = ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 + R1 Z ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 = R2 Z = ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 R Z b2 Z b1 = ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 . a2 a1 97 S. Hilger, Analysis 3 Man kann also die Simplex–Form–Integration als Mengen–Funktions–Integration über das Rechteck R ausführen Wir können auch noch den Rand von ψ berechnen. Er ist gegeben durch ∂ψ = ∂(ψR ◦ α1 ) + ∂(ψR ◦ α2 ) = ψR ◦ α1 ◦ s12 − ψR ◦ α1 ◦ s02 + ψR ◦ α1 ◦ s01 + ψR ◦ α2 ◦ s12 − ψR ◦ α2 ◦ s02 + ψR ◦ α2 ◦ s01 Bei der Integration einer 1–Form ω = ωi dxi über diesen Rand heben sich die beiden Diagonal–(s12 –)Anteile auf, so dass Z Z Z Z Z ω = ω+ ω+ ω+ ω, ψR ◦γ1 ∂ψ ψR ◦γ2 ψR ◦γ3 ψR ◦γ4 wobei γ` : [0, 1] → R die vier den Rechteckrand parametrisierenden affinen Kurven sind. Für das erste dieser Kurvenintegrale — es betrifft die untere Rechtecksseite — gilt dann Z Z 1 i ωi dx = ωi (ψR (γ1 (u))) det(ψRi ◦ γ1 )0 (u) du ψR ◦γ1 0 Z b1 = a1 b1 Z = ωi (ψR (v)) det(ψRi )0 (v) dv ωi (ψR (v))(ψRi )0 (v) dv. a1 n = 2, p = 2 Es sei ψ eine 2–Kette mit den Simplexen σ ein 2–Simplex, das ist eine (stetig differenzierbare) Abbildung E2 → R2 σ: x 7→ σ(x). Der Rand von σ ist gegeben durch die 1–Kette ∂σ = 2 X r=0 (−1)r (σ ◦ s0br2 ) = σ ◦ s12 − σ ◦ s02 + σ ◦ s01 . 98 S. Hilger, Analysis 3 Der Satz von Stokes wird überführt in den Satz 48 (Satz von Green) (i) Es sei ω = ω1 dx1 + ω2 dx2 eine 1–Form im R2 , ψ eine 2–Kette aus 2–Simplexen σ : E2 → R2 . Dann gilt: Z 1 2 Z (∂1 ω2 − ∂2 ω1 ) dx ∧ dx = ψ ω1 dx1 + ω2 dx2 . ∂ψ (ii) Ist der Simplex σ : E2 → σ(E2 ) ein C 1 –Diffeomorphismus, so gilt 1 vol2 (σ(E2 )) = · 2 Z (x1 dx2 − x2 dx1 ). ∂σ Beweis (i) Hier ist nur zu bemerken, dass für das totale Differential der 1–Form ω gilt: dω = (∂1 ω2 − ∂2 ω1 ) dx1 ∧ dx2 . Es sei noch ergänzt, dass der Rand eines 2–Simplexes σ : E2 → R2 gegeben ist durch ∂σ = 2 X (−1)r (σ ◦ s0br2 ) = σ ◦ s12 − σ ◦ s02 + σ ◦ s01 . r=0 (ii) Setzt man in (i) speziell ω1 (x1 , x2 ) = − x22 , ω2 (x1 , x2 ) = x21 , so kann man mit der Transformationsformel Satz 30/dualisiert schließen: Z Z Z 0 vol2 (σ(E2 )) = dx1 dx2 = det(σ )(u) du1 du2 = dx1 ∧ dx2 σ(E ) E2 σ Z 2 Z = (∂1 ω2 − ∂2 ω2 ) dx1 ∧ dx2 = ω1 dx1 + ω2 dx2 σ Z ∂σ 1 (x1 dx2 − x2 dx1 ). · = 2 ∂σ S. Hilger, Analysis 3 26 26.1 99 Lebesgue’sche Integration Ober- und Unterintegral für beliebige Funktionen Wir bezeichnen die Menge aller Funktionen f : Rd → R ∪ {−∞, +∞} mit F(Rd ). Definition Für eine beliebige Funktion f ∈ F(Rd ) definieren wir das Ober- und Unterintegral durch Z ⇑ Z ⇑ nZ ↑ o ↑ d f (x) dx = f (x) dx := inf ϕ(x) dx ϕ ∈ C (R ), ϕ ≥ f ∈ R ∪ {+∞} Rd Z ⇓ Z ⇓ nZ ↓ o f (x) dx := sup f (x) dx = ψ(x) dx ψ ∈ C ↓ (Rd ), ψ ≤ f Rd Z ⇑ (−f )(x) dx ∈ R ∪ {−∞}. = − Sätzchen 49 Es sei f ∈ F(Rd ). R⇑ (i) Gilt für das Oberintegral f (x) dx > −∞, so ist diese Zahl eindeutig durch die folgende Aussage festgelegt: Zu jedem ε > 0 gibt es eine Funktion ϕ ∈ C ↑ (Rd ), so dass Z ↑ Z ⇑ f ≤ ϕ, ϕ(x) dx ≤ f (x) dx + ε. R⇓ (ii) Gilt für das Unterintegral f (x) dx < +∞, so ist diese Zahl eindeutig durch die folgende Aussage festgelegt: Zu jedem ε > 0 gibt es eine Funktion ψ ∈ C ↓ (Rd ), so dass Z ⇓ Z ↓ f (x) dx − ε. ψ(x) dx ≥ f ≥ ψ, Beweis Berücksichtigt man die im nächsten Satz formulierte Eigenschaft (i), so beinhaltet das Sätzchen eine Umschreibung der Definition. 100 S. Hilger, Analysis 3 Satz 50 (Eigenschaften von ⇑– und ⇓–Integral) (i) Für zwei Funktionen f, g ∈ F(Rd ) mit f ≤ g gilt Z ⇑ Z ⇑ f (x) dx ≤ Z ⇓ g(x) dx Z f (x) dx ≤ ⇓ g(x) dx (ii) Für α > 0 und f ∈ F(Rd ) gilt Z ⇑ ⇑ Z (αf )(x) dx = α Z f (x) dx ⇓ ⇓ Z f (x) dx. (αf )(x) dx = α (iii) Sind für f, g ∈ F(Rd ) die jeweils unterhalb der geschweiften Klammern angebrachten Bedingungen erfüllt, so gilt Z ⇑ Z (f + g) (x) dx ≤ | {z } wohldefiniert Z ⇓ wohldefiniert Z ⇑ f (x) dx + {z } | | g(x) dx {z } >−∞ Z (f + g) (x) dx ≥ | {z } ⇑ ⇓ Z f (x) dx + {z } | | <+∞ >−∞ ⇓ g(x) dx . {z } <+∞ (iv) Für eine monoton wachsende Folge (fk )k∈N ⊆ F(Rd ) gilt Z ⇑ Z ⇑ fk (x) dx. (sup fk )(x) dx = sup k∈N k∈N Für eine monoton fallende Folge (fk )k∈N ⊆ F(Rd ) gilt Z ⇓ Z (inf fk )(x) dx = inf k∈N k∈N ⇓ fk (x) dx. Beweis Wir zeigen alle Behauptungen jeweils nur für das Oberintegral. Die dualen Aussagen für das Unterintegral ergeben sich dann aus der Gleichheit Z ⇓ Z ⇑ f (x) dx = − (−f )(x) dx. (i) ist direkt aus der Definition des Oberintegrals ersichtlich. (ii) Es sei ε > 0 vorgegeben. Gemäß Sätzchen 49(i) gibt es eine Funktion ϕ ∈ C ↑ (Rd ) mit Z ↑ Z ⇑ ε f ≤ϕ und ϕ(x) dx ≤ f (x) dx + . α 101 S. Hilger, Analysis 3 Es folgt weiter mit (i) und Satz 28(ii) Z ⇑ Z (i) αf ≤ αϕ, αf (x) dx ≤ ↑ Z αϕ(x) dx = α ↑ Z ⇑ ϕ(x) dx ≤ α f (x) dx + ε. Da ε > 0 beliebig war, folgt: Z ⇑ Z ⇑ αf (x) dx ≤ α f (x) dx. Diese Abschätzung wenden wir wie folgt in (∗) nochmals an Z ⇑ Z ⇑ Z ⇑ Z (∗) −1 −1 α f (x) dx = α α αf (x) dx ≤ αα αf (x) dx = ⇑ αf (x) dx und erhalten die umgekehrte Richtung. (iii) Zu einem vorgegebenen ε > 0 gibt es Funktionen fe, ge ∈ C ↑ (Rd ), so dass Z ⇑ Z ↑ ε e e f (x) dx + f (x) dx ≤ f ≤ f, 2 Z ⇑ Z ↑ ε g(x) dx + ge(x) dx ≤ g ≤ ge, 2 Daraus folgt dann Z Z ↑ Z ↑ Z ⇑ e e f (x) dx + (f + ge)(x) dx ≤ (f + g)(x) dx ≤ Z ⇑ Z ⇑ ≤ f (x) dx + g(x) dx + ε, ↑ ge(x) dx da ε > 0 beliebig war, die Behauptung. (iv) beweisen wir in einer Abfolge mehrerer Schritte. (1) Zunächst können wir folgern: fk ≤ supk∈N fk R⇑ =⇒ fk (x) dx ≤ supk∈N fk (x) dx R⇑ R⇑ =⇒ supk∈N fk (x) dx ≤ supk∈N fk (x) dx, R⇑ so dass noch die umgekehrte R ⇑ Richtung gezeigt werden muss. Dafür können wir O.B.d.A. annehmen, dass supk∈N fk (x) dx < +∞. (2) Es sei ε > 0 vorgegeben. Zu jedem k ∈ N existiert ein ϕk ∈ C ↑ (Rd ), so dass Z ⇑ Z ↑ Z ⇑ ε fk ≤ ϕk und fk (x) dx ≤ ϕk (x) dx ≤ fk (x) dx + k . 2 (3) Wir definieren die monoton wachsende Funktionenfolge (ϕ ek ) ⊆ C ↑ (Rd ) durch ϕ ek := max{ϕ1 , . . . , ϕk }. 102 S. Hilger, Analysis 3 und konstatieren, dass Z fk ≤ ϕ ek ⇑ ↑ Z fk (x) dx ≤ und Z ⇑ ϕ ek (x) dx ≤ k X ε fk (x) dx + , 2` `=1 die wir im nächsten Schritt per Induktion über k beweisen. (4) Für k = 1 stimmt dies mit der entsprechenden Ungleichung weiter oben überein. Für den Induktionsschluss k 7→ k + 1 müssen wir etwas weiter ausholen. Zunächst ist fk ≤ ϕk ≤ max{ϕ1 , . . . , ϕk } = ϕ ek deshalb fk ≤ min{ϕk+1 , ϕ ek } ∈ C ↑ (Rd ). fk ≤ fk+1 ≤ ϕk+1 Es gilt dann Z ⇑ Z fk (x) dx + ↑ Z ⇑ ϕ ek+1 (x) dx ≤ ↑ Z min{ϕk+1 , ϕ ek }(x) dx + Z ↑ ϕ ek+1 (x) dx Z ↑ min{ϕk+1 , ϕ ek }(x) dx + max{ϕk+1 , ϕ ek }(x) dx Z ↑ Z ↑ = ϕk+1 (x) dx + ϕ ek (x) dx = und dann weiter Z Z ↑ ϕ ek+1 (x) dx ≤ ↑ Z ↑ Z ϕ ek (x) dx − {z ϕk+1 (x) dx + | IndV in (3) ⇑ fk (x) dx } (2) z Z }| ⇑ ≤ fk+1 (x) dx + Z ⇑ ≤ ε { 2k+1 k X ε + 2` `=1 k+1 X ε fk+1 (x) dx + . 2` `=1 (5) Wir definieren jetzt f := sup fk , k∈N ϕ e := sup ϕ ek . k∈N Es ist dann ϕ e ∈ C ↑ (Rd ), ferner wegen fk ≤ ϕ e für alle k f ≤ ϕ, e R↑ R⇑ wegen ϕ ek (x) dx ≤ f (x) dx + ε für alle k und Satz 28(iii) auch Z ↑ Z ↑ Z ⇑ S28(iii) ϕ(x) e dx = sup ϕ ek (x) dx ≤ f (x) dx + ε. k∈N Da ε > 0 beliebig war, ist die Aussage bewiesen. 103 S. Hilger, Analysis 3 Satz 51 (Beziehung zwischen ⇑–Integral und ⇓–Integral) (i) Für eine Funktion f ∈ F(Rd ) gilt Z ⇓ Z ⇑ f (x) dx ≤ f (x) dx. (ii) Für eine Funktion f ∈ C ↑ (Rd ) gilt Z ↑ Z ⇑ Z ⇓ f (x) dx. f (x) dx = f (x) dx = (iii) Für eine Funktion f ∈ C ↓ (Rd ) gilt Z ↓ Z f (x) dx = ⇓ Z f (x) dx = ⇑ f (x) dx. Beweis Es seien ψ ∈ C ↓ (Rd ), ϕ ∈ C ↑ (Rd ) mit ψ ≤ f ≤ ϕ. Dann ist −ψ ∈ C ↑ (Rd ) und es gilt Z ↓ Z ↑ Z ↑ Z ↑ Z ↑ S 28(i) ψ(x) dx = − (−ψ)(x) dx = ϕ(x) dx − (ϕ − ψ)(x) dx ≤ ϕ(x) dx. Durch Übergang zu sup auf der linken Seite und inf auf der rechten Seite gelangt man zu der im Satz angegebenen Abschätzung. (ii) Zu f ∈ C ↑ (Rd ) gibt es eine Folge (fk )k∈N in Cc (Rd ) ⊆ C ↓ (Rd ), die punktweise monoton steigend gegen f konvergiert. Dann gilt (sehr ausführlich) Z ↑ Z ⇑ f (x) dx f (x) dx = Z Z ↓ = sup{ fk (x) dx} = sup{ fk (x) dx} k∈N k∈N o nZ ↓ ↓ d ≤ sup ψ(x) dx ψ ∈ C (R ), ψ ≤ f Z ⇓ Z ⇑ (i) = f (x) dx ≤ f (x) dx (iii) Durch Dualisierung dieser Ungleichungskette erhält man für den anderen Fall f ∈ C ↓ (Rd ) Z ⇓ Z ⇑ f (x) dx ≥ f (x) dx. 104 S. Hilger, Analysis 3 26.2 Integrierbare Funktionen Zur Veranschaulichung . . . . . ................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. . . . . . −∞ R↓ R⇓ ψ(x) dx R⇑ f (x) dx f (x) dx R↑ ϕ(x) dx +∞ Definition Es sei eine Funktion f ∈ F(Rd ) gegeben. Die folgenden drei Aussagen sind äquivalent: (A) (Definition) Die Funktion f ∈ F(Rd ) heißt integrierbar. (B) Die drei Bedingungen Z ⇓ −∞ < Z ⇑ f (x) dx = Rd f (x) dx < +∞ Rd sind erfüllt. (C) Zu jedem ε > 0 gibt es zwei Funktionen ψ ∈ C ↓ (Rd ), ϕ ∈ C ↑ (Rd ), so dass ψ≤f ≤ϕ Z Z ↓ ψ(x) dx ≤ −∞ < Z ↑ ( ϕ − ψ )(x) dx ≤ ε | {z } ↑ ϕ(x) dx < +∞ ∈ C ↑ (Rd ) int Wir bezeichnen mit F (Rd ) die Menge der integrierbaren Funktionen Rd → R. Für int f ∈ F (Rd ) heißt Z Z Z ⇓ Z ⇑ f (x) dx = f (x) dx := f (x) dx = f (x) dx Rd Rd Rd das (Lebesgue–)Integral von f . Die Äquivalenz der beiden Aussagen (B) und (C) folgt direkt aus den Definitionen von Ober- und Unterintegral im letzten Abschnitt. Zur Unterscheidung von anderen Integralbegriffen spricht man manchmal auch von Lebesgue–Integrierbarkeit oder L–Integrierbarkeit. 105 S. Hilger, Analysis 3 Wir wollen als erstes die Verträglichkeit mit früheren Integralbegriffen absichern. Sätzchen 52 In jedem der folgenden Fälle ist die Funktion f : Rd → R integrierbar. Das (neue) Integral stimmt mit dem jeweils früher definierten Integral überein. Z ↑ ↑ d (i) f ∈ C (R ) und f (x) dx < +∞. ↓ d (ii) f ∈ C (R ) und Z ↓ f (x) dx > −∞. (iii) f ∈ Cc (Rd ). Beweis Satzes 51 verwiesen. (iii) folgt aus der Tatsache, R Für (i) sei auf die Aussage (ii) des d dass f (x) dx endlich ist für f ∈ Cc (R ). 106 S. Hilger, Analysis 3 Satz 53 (i) Die Funktion f ∈ F(Rd ) ist genau dann integrierbar, wenn es eine Folge (fn )n∈N ⊆ Cc (Rd ) gibt mit Z ⇑ |f − fn |(x) dx = 0. lim n→∞ (ii) Ist (fn )n∈N ⊆ Cc (Rd ) eine Folge gemäß (i), so existiert der folgende Grenzwert Z lim n→∞ Z fn (x) dx = f (x) dx. und hat den angegebenen Wert. Beweis (1) Zu (i)=⇒: Gemäß Bedingung (C) in der vorherigen Definition gibt es für n ∈ N zwei Funktionen ψn ∈ C ↓ (Rd ), ϕn ∈ C ↑ (Rd ) mit ψn ≤ f ≤ ϕn Z ↑ Z ↓ ϕn (x) dx < +∞ ψn (x) dx ≤ −∞ < Z ↑ 1 . (ϕn − ψn )(x) dx ≤ 2n Für festes n ∈ N wird das Integral der Funktion ϕn ∈ C ↑ (Rd ) durch die Integrale der Funktionen einer punktweise monoton steigenden Folge (gk,n )k∈N ⊆ Cc (Rd ) approximiert. Deshalb gibt es einen Index kn , so dass Z Z ↑ 1 ϕn (x) dx − gkn ,n (x) dx ≤ . 2n Wir definieren die im Satz angefragte Folge durch fn := gkn ,n . Es folgt weiter Z ↑ Z (ϕn − fn )(x) dx = Z = Z = ↑ Z ϕn (x) dx + ↑ ↑ (−fn )(x) dx Z ϕn (x) dx + ↑ (−fn )(x) dx Z ϕn (x) dx − fn (x) dx ≤ 1 . 2n Wegen |f − fn | ≤ |f − ϕn | + |ϕn − fn | = (ϕn − f ) + (ϕn − fn ) ≤ (ϕn − ψn ) + (ϕn − fn ) 107 S. Hilger, Analysis 3 ist dann Z ⇑ Z ⇑ |f − fn |(x) dx ≤ Z ⇑ (ϕn − ψn )(x) dx + Z = ↑ (ϕn − fn )(x) dx Z (ϕn − ψn )(x) dx + ↑ (ϕn − fn )(x) dx ≤ 1 . n (2) Für den Beweis der umgekehrten Richtung in (i) sei ε > 0 vorgegeben. Innerhalb der angegebenen Folge gibt es eine Funktion fn ∈ Cc (Rd ), so dass Z ⇑ ε |f − fn |(x) dx ≤ 4 und deshalb (Definition des ⇑–Integrals) weiter eine Funktion hn ∈ C ↑ (Rd ) mit Z ↑ ε |f − fn | ≤ hn und hn (x) dx ≤ . 2 Mit den Funktionen ψn := fn − hn ∈ C ↓ (Rd ) ϕn := fn + hn ∈ C ↑ (Rd ) gilt dann weiter Z ψn ≤ f ≤ ϕn ↑ Z (ϕn − ψn )(x) dx = und ↑ 2 hn (x) dx ≤ ε. Schließlich ist mit Satz 28(ii) Z ↓ Z ↓ Z ↓ (−hn )(x) dx > −∞ fn (x) dx + ψn (x) dx = Z ↑ Z ↑ Z ↑ ϕn (x) dx = fn (x) dx + hn (x) dx < +∞. (3) Es bleibt noch (ii) zu zeigen: Z Z f (x) dx − fn (x) dx = (Satz 50(iii)) Z Z f (x) dx + (−fn )(x) dx Z ⇓ Z ⇓ = f (x) dx + (−fn )(x) dx Z ⇓ Z ⇓ ≤ (f − fn )(x) dx ≤ |f − fn |(x) dx Z ⇑ ≤ |f − fn |(x) dx. Diese Abschätzungskette erscheint sehr aufwändig. Beachte aber, dass die Linearität des Integrals noch nicht zur Verfügung steht. 108 S. Hilger, Analysis 3 int Satz 54 Es seien f, g ∈ F (Rd ). (i) Ist f ≤ g, so gilt Z Z f (x) dx ≤ g(x) dx. (ii) Für α ∈ R ist die Funktion α f , falls sie wohldefiniert ist, integrierbar und es gilt: Z Z (αf )(x) dx = α f (x) dx. (iii) Die Funktion f + g ist, falls sie wohldefiniert ist, integrierbar und es gilt Z Z (f + g)(x) dx = Z f (x) dx + g(x) dx Es sei jetzt zusätzlich f (durch eine endliche Schranke) beschränkt, also kf k∞ < ∞. (iv) Die Funktion f · g ist, falls sie wohldefiniert ist, integrierbar. (v) Für p ≥ 1 ist |f |p integrierbar. Beweis Der Beweis kann leicht mit Hilfe des letzten Satzes auf die entsprechenden Eigenschaften des Integrals für Funktionen aus Cc (Rd ) zurückgeführt werden. Wir wollen den Beweis aber direkt aus den Eigenschaften von Ober- und Unterintegral ableiten. (i) und (iii) ergeben sich sofort aus den entsprechenden Aussagen des Satzes 50. Für (ii) und α > 0 die Aussage aus Satz 50(ii) zu entnehmen. Für α < 0 muss man ausführlicher auf derselben Grundlage argumentieren: Z ⇑ Z ⇑ Z ⇑ (αf )(x) dx = (−α)(−f )(x) dx = (−α) (−f )(x) dx Z ⇑ Z ⇓ Z = α[− (−f )(x) dx] = α f (x) dx = α f (x) dx. In gleicher Weise zeigt man Z ⇓ Z (αf )(x) dx = α f (x) dx. Für (iv) und (v) benutzen wir die Charakterisierung der Integrierbarkeit in Satz 53(i). (1) Zu vorgegebenem ε > 0 existiert eine Funktion ge ∈ Cc (Rd ) mit Z ⇑ ε |g − ge|(x) dx ≤ 2(kf k∞ + 1) (Die Addition der Zahl 1 dient nur dazu, den Nenner vom Verschwinden abzuhalten.) 109 S. Hilger, Analysis 3 (2) Es existiert dann weiter eine Funktion fe ∈ Cc (Rd ) mit Z ⇑ ε |f − fe|(x) dx ≤ 2(ke g k∞ + 1) (3) Abschließend ist dann Z Z ⇑ |f g − fege|(x) dx = Z ≤ Z ≤ ≤ (v) sei zur Übung überlassen. ⇑ |f (g − ge) + (f − fe)e g |(x) dx ⇑ e kf k∞ |g − ge| + ke g k∞ |f − f | (x) dx Z ⇑ ⇑ kf k∞ |g − ge|(x) dx + ke g k∞ |f − fe|(x) dx ε ε + = ε. 2 2 110 S. Hilger, Analysis 3 Es sei f ∈ F(Rd ) eine Funktion. Wir erinnern an die Definitionen und Beziehungen f+ f− f |f | := := = = max{f, 0} − min{f, 0} f+ − f− f+ + f− , die auch in Bezug auf die Werte ±∞ wohldefiniert sind. Satz 55 Es seien f, g ∈ F(Rd ). (i) Ist die Funktion f integrierbar, so sind die Funktionen f+ , f− , |f | integrierbar. Es gilt dann Z Z f (x) dx ≤ |f |(x) dx. (ii) Sind f und g integrierbar, so sind auch die Funktionen min{f, g}, max{f, g} integrierbar. (iii) Sind zwei der drei Funktionen f+ , f− , |f | integrierbar, so ist auch f integrierbar. Beweis (i) Gemäß Satz 53 gibt es zu vorgegebenem ε > 0 eine Funktion fe ∈ Cc (Rd ), so dass Z ⇑ |f − fe|(x) dx ≤ ε. Rd Die Funktion fe+ ist ebenfalls in Cc (Rd ) enthalten, es gilt dabei |f+ − fe+ | ≤ |f − fe| und deshalb weiter Z ⇑ Z e |f+ − f+ |(x) dx ≤ Rd ⇑ |f − fe|(x) dx ≤ ε. Rd Für die beiden anderen Funktionen f− und |f | kann man diese Überlegung ganz genauso durchführen. Aufgrund von −|f | ≤ f ≤ |f | ist mit Satz 54 Z Z Z Z − |f |(x) dx = (−|f |)(x) dx ≤ f (x) dx ≤ |f |(x) dx. 111 S. Hilger, Analysis 3 (ii) Es gilt f + g − |f − g| 2 f + g + |f + g| max{f, g} = 2 min{f, g} = (iii) Es seien f+ , f− integrierbar und ε > 0 vorgegeben. Es gibt gemäß Satz 53 zwei Funktionen fep , fen ∈ Cc (Rd ) mit Z ⇑ Z ⇑ ε ε e |f+ − fp |(x) dx ≤ , |f− − fen |(x) dx ≤ . 2 2 Daraus folgt aber Z ⇑ Z |f − (fep − fen )|(x) dx = Z ≤ ⇑ |(f+ − f− ) − (fep − fen )|(x) dx Z ⇑ ⇑ e |f+ − fp |(x) dx + |fen − f− |(x) dx ≤ ε, wobei fep − fen ∈ Cc (Rd ). Also ist f integrierbar. Die beiden anderen Fälle ergeben sich durch Verwendung der Beziehungen f = 2f+ − |f | bzw. f = |f | − 2f− . 112 S. Hilger, Analysis 3 26.3 Die Konvergenzsätze von Levi und Lebesgue Die herausragende Bedeutung des Lebesgue’schen Integrationsbegriffs kommt in den Sätzen dieses Abschnitts zum Ausdruck. Im anfänglichen Satz von Levi wird der theoretische Gehalt des Lebesgue–Integrals auf den Punkt gebracht: Der ,,Integrationsoperator”, der einer Funktion eine reelle Zahl zuordnet, ist mit einem punktweisen Grenzprozess, der ,,Supremumsbildung bei Monotonie”, vertauschbar. Es bleibt dann einigen mathematischen Techniken überlassen, diesen Satz auf andere punktweise Grenzwertprozesse wie sup (ohne Monotonie), inf, lim inf, lim sup, lim, ∞ X zu übertragen. Satz 56 (Monotone Konvergenz, Beppo Levi) int Es sei (fk )k∈N ⊆ F (Rd ) eine monoton wachsende Folge integrierbarer Funktionen. Dann gilt die Implikation Z sup fk (x) dx < +∞ =⇒ sup fk ist integrierbar mit k∈N Zk∈N Z (sup fk )(x) dx = sup fk (x) dx. k∈N k∈N Beweis Wir setzen zunächst f := supk∈N fk . Zu einem vorgegebenem ε > 0 existiert gemäß Satz 50(iv) ein k ∈ N, so dass Z ⇑ Z ⇑ Z ⇑ S 50(iii) (f − fk )(x) dx ≤ f (x) dx + (−fk )(x) dx Z ⇑ Z ⇑ ε S 54(ii) = f (x) dx − fk (x) dx ≤ . 2 Dazu existiert nach Satz 53 wiederum eine Funktion fe ∈ Cc (Rd ) mit Z ε |fk − fe|(x) dx ≤ . 2 Insgesamt gilt dann Z ⇑ Z |f − fe|(x) dx ≤ ⇑ Z |f − fk |(x) dx + ⇑ |fk − fe|(x) dx ≤ ε, nach Satz 53 ist f integrierbar mit dem angegebenen Integral. 113 S. Hilger, Analysis 3 int Satz 57 Es sei (fk )k∈N ⊆ F (Rd ) eine beliebige Folge integrierbarer Funktionen. Dann gelten die Äquivalenzen Z ⇑ d g(x) dx < +∞ ⇐⇒ sup fk ist integrierbar. Es ex. g ∈ F(R ) mit sup fk ≤ g , k∈N k∈N Z ⇓ Es ex. g ∈ F(Rd ) mit inf fk ≥ g , g(x) dx > −∞ ⇐⇒ inf fk ist integrierbar. k∈N k∈N Beweis Die Rechts–Richtung ist trivial, da man einfach g = supk∈N |fk | wählen kann. Für die Links–Richtung definieren wir die Hilfsfolge von integrierbaren Funktionen gk := max fn . 1≤n≤k Es ist dann sup fk = sup gk k∈N k∈N und für alle k ∈ N Z Z Z Z ⇑ ( max fn )(x) dx ≤ gk (x) dx = ( max fn )(x) dx = 1≤n≤k Insgesamt haben wir Z Z sup gk (x) dx ≤ 1≤n≤k ⇑ g(x) dx, ⇑ g(x) dx < +∞, k∈N so dass die Behauptung aus dem Satz von Levi folgt. Die zweite Aussage wird dual bewiesen. 114 S. Hilger, Analysis 3 Satz 58 Es sei (fk )k∈N eine Folge von integrierbaren Funktionen mit der Eigenschaft, dass eine Funktion g existiert mit Z ⇑ g(x) dx < +∞. |fk | ≤ g für alle k ∈ N, Dann gilt: (i) Die Funktion lim inf k→∞ fk ist integrierbar mit Z Z (lim inf fk )(x) dx ≤ lim inf k→∞ fk (x) dx. k→∞ (ii) Die Funktion lim supk→∞ fk ist integrierbar mit Z Z fk (x) dx ≤ lim sup (lim sup fk )(x) dx. k→∞ k→∞ Beweis (1) Es genügt, die Behauptung (i) zu zeigen. Wir definieren zunächst für festes n ∈ N die Funktion gn := inf fk , k≥n sie ist gemäß der zweiten Aussage in Satz 57 integrierbar. (2) Wegen Z Z gn (x) dx ≤ fk (x) dx für alle k ≥ n gilt für alle n, k ∈ N mit k ≥ n Z Z Z gn (x) dx ≤ inf fk (x) dx ≤ k≥n ⇑ g(x) dx < +∞ (∗). (3) Damit erfüllt die monoton wachsende Folge (gn ) die Voraussetzungen des Satzes von Levi, es ist also lim inf fk = sup inf fk = sup gn k→∞ n∈N k≥n n∈N integrierbar und es gilt Z Z Z Levi (lim inf fk )(x) dx = (sup gn )(x) dx = sup gn (x) dx k→∞ n∈N n∈N Z Z (∗) ≤ sup inf fk (x) dx = lim inf fk (x) dx. n∈N k≥n k→∞ 115 S. Hilger, Analysis 3 Satz 59 (Majorisierte Konvergenz, Henri Lebesgue) Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, die punktweise konvergiert. Es gebe weiter eine Funktion g mit Z ⇑ g(x) dx < +∞. |fk | ≤ g für alle k ∈ N, Dann ist die Grenzfunktion limk→∞ fk integrierbar mit Z Z ( lim fk )(x) dx = lim fk (x) dx. k→∞ k→∞ Beweis Aufgrund der Voraussetzung der punktweisen Konvergenz gilt lim inf fk = lim fk = lim sup fk , k→∞ k→∞ k→∞ so dass aus dem letzten Satz die Integrierbarkeit von limk→∞ fk und dann Ungleichungskette Z Z Z Z ( lim fk )(x) dx ≤ lim inf fk (x) dx ≤ lim sup fk (x) dx ≤ ( lim fk )(x) dx. k→∞ k→∞ k→∞ k→∞ entnommen werden kann. Es folgt Z Z lim fk (x) dx = ( lim fk )(x) dx. k→∞ k→∞ 116 S. Hilger, Analysis 3 Korollar 60 (Gliedweise Integration einer Funktionenreihe) Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, so dass P • die Funktionenreihe ∞ und k=1 fk punktweise konvergiert P R |fk |(x) dx konvergiert. • die (Zahlen–)Reihe ∞ k=1 P∞ Dann ist die Grenzfunktion k=1 fk integrierbar mit Z X ∞ ∞ Z X ( fk )(x) dx = fk (x) dx. k=1 k=1 Satz 65 wird aufzeigen, dass die erste Voraussetzung dieses Korollars ,,fast” aus der zweiten folgt. Beweis fk ist integrierbar für alle k ∈ N. =⇒ =⇒ |fk | ist integrierbar für alle k ∈ N. n X |fk | ist integrierbar für alle n ∈ N. k=1 S56,B.Levi =⇒ F := ∞ X |fk | ist integrierbar. k=1 Es gilt weiter für alle n ∈ N n n X X |fk | (x) ≤ F (x) fk (x) ≤ k=1 k=1 es ist also F eine integrierbare Majorante für die Partialsummenfolge ( Pn k=1 fk )n∈N . Der Satz 59 von der majorisierten Konvergenz liefert nun die Aussage, dass f integrierbar ist mit Z ∞ Z X f (x) dx = fk (x) dx. k=1 117 S. Hilger, Analysis 3 26.4 Nullmengen und Fast–Überall–Eigenschaften Definition Es sei N eine Teilmenge von Rd und χN die zugehörige Indikatorfunktion. Die folgenden Aussagen sind äquivalent: (A) N heißt Nullmenge. R⇑ (B) Es ist χN (x) dx = 0. Sätzchen 61 (i) Eine Teilmenge einer Nullmenge ist eine Nullmenge. (ii) Die Vereinigung von abzählbar vielen Nullmengen ist eine Nullmenge. Beweis Die erste Aussage ist trivial. S (ii) Es sei N = `∈N N` eine abzählbare Vereinigung von (Null–)Mengen. Setzt man für k∈N ek := N1 ∪ . . . ∪ Nk , N so ist zunächst wegen χNek ≤ χN1 + . . . + χNk ek eine Nullmenge. Da die Folge (χ e )k∈N monoton und aufgrund von Satz 50(i),(iii) auch N Nk wachsend ist, gilt Mit Satz 50(iv) Z ⇑ Z ⇑ Z ⇑ χNek (x) dx = 0. sup χNek (x) dx = sup χN (x) dx = 0≤ k∈N k∈N Korollar 62 (i) Ist eine Teilmenge N ⊆ Rd (höchstens) abzählbar, so ist sie eine Nullmenge. (ii) Q ist eine Nullmenge. (iii) R ist überabzählbar. (iv) Es gibt überabzählbare Nullmengen in R. Beweis (i) Aufgrund von Satz 61(i) können wir uns auf den Fall zurückziehen, dass N = {a} genau ein Element enthält. Es gibt zu jedem ε > 0 einen kompakten Quader Q = N + [−ε, +ε]d , so dass Z ⇑ Z ⇑ 0 ≤ χN (x) dx ≤ χQ (x) dx = vol(Q) = (2ε)d . Also ist R⇑ χN (x) dx = 0. (ii) ist ein Spezialfall von (i). (iii) Wäre R abzählbar, so ergäbe sich mit Z ⇑ Z 1 = vol([0, 1]) = χ[0,1] (x) dx ≤ ⇑ χR (x) dx = 0 ein Widerspruch. (iv) Als Beispiel dient das Cantor’sche Diskontinuum D ⊆ R. Wir führen es nicht aus. 118 S. Hilger, Analysis 3 Definition Es sei A(x), x ∈ Rd , eine Aussagenschar. Man sagt, A(x) gilt fast–überall (f.ü.) oder modulo Nullmenge, wenn es eine Nullmenge N ⊆ Rd gibt, so dass A(x) für alle x ∈ Rd \ N gilt. Beachte, dass diese Eigenschaft ,,fast–überall” aufgrund von Korollar 62 die Eigenschaften ,,bis auf endlich viele” oder ,,bis auf abzählbar viele” umfasst, nicht aber mit diesen übereinstimmt. Satz 63 Für eine Abbildung f ∈ F(Rd ) gelten die Aussagen: R⇑ (i) |f |(x) dx = 0 ⇐⇒ f (x) = 0 fast–überall. R⇑ (ii) f (x) dx < ∞ =⇒ f (x) < ∞ fast–überall. R⇓ (iii) f (x) dx > −∞ =⇒ f (x) > −∞ fast–überall. Beweis (i) Wir definieren 1 M` := {x ∈ Rd ||f (x)| ≥ }. ` M := {x ∈ Rd |f (x) 6= 0}, ,,=⇒” Für x ∈ Rd gelten die Äquivalenzen 1 ` 1 |f (x)| ≥ ` |f (x)| < ⇐⇒ x∈ / M` ⇐⇒ χM` (x) = 0 ⇐⇒ x ∈ M` ⇐⇒ χM` (x) = 1, wir erhalten deshalb χM` ≤ ` · |f |. Dann sind aber aufgrund von Z ⇑ Z ⇑ Z χM` (x) dx ≤ ` |f |(x) dx ≤ ` ⇑ |f |(x) dx = 0 die Mengen M` Nullmengen. Dann ist auch deren Vereinigung M = menge. ,,⇐=” Es ist |f | ≤ 0, +∞, falls f (x) = 0 falls f (x) 6= 0 und deshalb Z ⇑ Z |f |(x) dx ≤ ⇑ `∈N M` eine Null- = sup {` · χM } `∈N Z sup{` · χM }(x) dx ≤ sup{ `∈N S ⇑ ` · χM (x) dx} = 0. `∈N (ii) Aufgrund der Definition des Oberintegrals existiert eine Funktion fe ∈ C ↑ (Rd ), so dass Z ⇑ e f ≤ f, fe(x) dx < +∞. 119 S. Hilger, Analysis 3 Daher genügt es den Fall f ∈ C ↑ (Rd ) zu betrachten. Gemäß Definition von C ↑ (Rd ) gibt es e e eine Funktion fe ∈ Cc (Rd ) mit f − fe ≥ 0, weswegen wir f ≥ 0 annehmen können. Ist jetzt M := {x ∈ Rd |f (x) = +∞}, so gilt für alle n ∈ N n · χM ≤ f, deshalb Z ⇑ n· Z χM (x) dx = Daraus folgt R⇑ ⇑ Z n · χM (x) dx ≤ ⇑ f (x) dx < +∞. χM (x) dx = 0. Satz 64 Für zwei Funktionen f, g ∈ F(Rd ) gilt: R⇑ R⇑ f (x) dx = g(x) dx f (x) = g(x) fast–überall =⇒ R⇓ R⇓ f (x) dx = g(x) dx Beweis Wir beweisen nur die obere Aussage und definieren dazu die Nullmenge N := {x ∈ Rd |f (x) 6= g(x)} und die Funktion auf Rd ∞, falls x ∈ N, χ eN (x) := 0, falls x ∈ Rd \ N. Für alle ϕ ∈ C ↑ (Rd ) gilt dann, Z ϕ+χ eN wohldefiniert ⇑ ϕ(x) dx > −∞, da eine Minorante in Cc (Rd ) existiert. Ist zusätzlich ϕ ≥ f , so gilt außerdem g ≤ϕ+χ eN und deshalb Z Z ⇑ Z ⇑ Z ⇑ (ϕ + χ eN )(x) dx ≤ ϕ(x) dx + g(x) dx ≤ Z ⇑ Z ↑ ϕ(x) dx. ϕ(x) dx = = ⇑ χ eN (x) dx Geht man in dieser Ungleichung zum Infimum bzgl. aller ϕ ∈ C ↑ (Rd ), ϕ ≥ f über, so erhält man gemäß Definition des Oberintegrals Z ⇑ Z ⇑ g(x) dx ≤ f (x) dx. Da in dieser Argumentation die beiden Funktionen f und g nicht gegeneinander ausgezeichnet waren, gilt auch die umgekehrte Richtung Z ⇑ Z ⇑ f (x) dx ≤ g(x) dx. 120 S. Hilger, Analysis 3 26.4.1 Klassen von fast–überall definierten Funktionen Definition 1. Eine auf einer Teilmenge D ⊆ Rd definierte Funktion f : D → R heißt fast–überall definiert, wenn Rd \ D eine Nullmenge ist. e 2. Zwei fast–überall definierte Funktionen f und fe mit Definitionsmengen D bzw. D d heißen fast–überall gleich, wenn es eine Nullmenge N ⊆ R gibt, so dass e Rd \ N ⊆ D ∩ D und f (x) = g(x) für x ∈ Rd \ N. 3. Die Fast–überall–Gleichheit ist eine Äquivalenzrelation auf der Menge aller fast– überall–definierten Funktionen. Wir nennen die Äquivalenzklassen einfach Funktionsklassen. 4. Wir bezeichnen die zu einer fast–überall definierten Funktion f gehörige Funktionsklasse mit [f ]. Für die Menge der Funktionsklassen wird das Symbol F (Rd ) eingeführt. 5. Die Halbordnungsrelation ≤ für Funktionen überträgt sich auf Funktionsklassen, indem man setzt [f ] ≤ [fe] ⇐⇒ f (x) ≤ fe(x) f.ü. 6. Die punktweisen Grenzprozesse sup, inf , k∈N k∈N lim sup, k→∞ lim inf , k→∞ lim k→∞ für Folgen übertragen sich auf die Funktionsklassen, indem man sie ,,fast–überall” durchführt. Wesentlich hierbei ist die Aussage aus Satz 61(ii), dass abzählbare Vereinigungen von Nullmengen wieder Nullmengen sind. 7. Wir definieren auf der Menge der fast–überall definierten Funktionen die Operatoren Z ⇑ : F (Rd ) → R R⇑ [f ] 7→ fb(x) dx, Z ⇓ : F (Rd ) → R R⇓ [f ] 7→ fb(x) dx, wobei fb irgendeine Funktion aus der Funktionsklasse [f ] mit Definitionsmenge Rd ist. Aufgrund von Satz 64 sind die zugewiesenen Werte unabhängig von der konkreten Auswahl fb ∈ [f ]. 8. Die Konvergenzsätze von Levi und Lebesgue aus Abschnitt 26.3 können auf Funktionsklassen übertragen werden. Die jeweiligen Voraussetzungen an die Folgen von Funktionen werden zu Voraussetzungen an Folgen von Funktionsklassen, sie beziehen sich also auf ,,Fast–Überall–Eigenschaften”. 121 S. Hilger, Analysis 3 9. Es ist in der mathematischen Literatur weithin üblich, in Bezug auf die Symbolik zwischen Funktionen und Funktionsklassen nicht klar zu unterscheiden. So wird eine Funktionsklasse [f ] ∈ F (Rd ) oft einfach mit f bezeichnet. 10. Man muss sich jedoch sorgfältig vergegenwärtigen, dass die Funktionsklassen keine Funktionen mehr sind und deshalb Operationen bzw. Begriffe wie beispielsweise • Auswertung an einer Stelle oder • Einschränkung auf eine beliebige Teilmenge • Stetigkeit, Differenzierbarkeit (abgesehen von der Theorie der ,,Sobolew– Räume”) nicht mehr definiert sind. 122 S. Hilger, Analysis 3 26.4.2 Satz von Levi über die Integration einer Funktionenreihe Die Aussage des Satzes 63(ii), dass ein endlicher Integralwert die Fast–Überall–Endlichkeit nach sich zieht, ermöglicht die Aufhebung der ersten Voraussetzung im Satz 60 über die Integrierbarkeit einer Funktionenreihe. Wir formulieren den resultierenden (zweiten) Satz von Levi. Satz 65 (Gliedweise Integration einer Funktionenreihe, Beppo Levi) Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, so dass P R |fk |(x) dx konvergiert. • die (Zahlen–)Reihe ∞ k=1 P Dann ist die Grenzfunktion ∞ k=1 fk fast–überall–definiert und integrierbar. Es gilt Z X ∞ ∞ Z X fk (x) dx = fk (x) dx. k=1 k=1 Beweis fk ist integrierbar für alle k ∈ N. =⇒ =⇒ |fk | ist integrierbar für alle k ∈ N. n X |fk | ist integrierbar für alle n ∈ N. k=1 S56,B.Levi =⇒ F := ∞ X |fk | ist integrierbar. k=1 S 63(ii) =⇒ Der Grenzwert F (x) = ∞ X |fk |(x) existiert und ist fast–überall endlich. k=1 =⇒ Die Grenzfunktionf (x) := ∞ X fk (x) ist fast–überall definiert. k=1 Es gilt weiter für alle n ∈ N n n X X fk (x) ≤ |fk | (x) ≤ F (x) k=1 fast–überall, k=1 P so dass F eine integrierbare Majorante für die Partialsummenfolge ( nk=1 fk )n∈N ist. Der Satz 59 von der majorisierten Konvergenz liefert nun die Aussage, dass f integrierbar ist mit Z ∞ Z X f (x) dx = fk (x) dx. k=1 123 S. Hilger, Analysis 3 26.5 Der Banachraum L1 (Rd ) Es sei wieder F (Rd ) die Menge der Funktionsklassen von fast–überall definierten Funktionen auf Rd . 1. Ist eine Funktion f ∈ [f ] ∈ F (Rd ) integrierbar, so sind auch alle anderen Funktionen fe ∈ [f ] integrierbar. Man kann daher von der Integrierbarkeit der Funktionsklasse sprechen. 2. Aufgrund von Satz 64 kann die Integration von Funktionsklassen durchgeführt werden: Z F (Rd ) → R R : [f ] 7→ fb(x) dx, wobei fb irgendeine Funktion aus [f ] mit Definitionsmenge Rd ist. 3. Aufgrund von Satz 63(ii),(iii) nehmen alle Funktionen innerhalb einer integrierbaren Funktionsklasse [f ] die Werte −∞ und +∞ nur auf einer Nullmenge an. Bei Ersetzung dieser Funktionswerte durch endliche Werte bleibt die Funktion in der ursprünglichen Funktionsklasse, so dass bei integrierbaren Funktion(sklass)en der Kontext von ±∞–Werten ohne Belang ist. 4. Wir bezeichnen die Menge der integrierbaren Funktionsklassen mit L(Rd ) = L1 (Rd ). 5. Auf L1 (Rd ) ist die Struktur eines R–Vektorraums erklärt: Linearkombinationen werden einfach für Vertreter–Funktionen in der Klasse, die die Werte ±∞ nicht annehmen, durchgeführt. Die Linearkombination der Funktionsklasse ist — als Funktionsklasse — dann von der Auswahl der Vertreter–Funktionen unabhängig. Die Funktionsklasse [0], die die Funktion 0 enthält, wird zum Nullvektor 0 dieses Vektorraums. Satz 66 Das auf L1 (Rd ) erklärte Funktional 1 d + L (R ) → R R0 k· kL1 : f 7→ |f |(x) dx ist eine Norm, d.h.: Für f, g ∈ L1 (Rd ) und α ∈ R gelten die Aussagen kαf kL1 = |α| · kf kL1 kf + gkL1 ≤ kf kL1 + kgkL1 kf kL1 = 0 ⇐⇒ f =0 (als Funktionsklasse!) Beweis Zum Beweis sei einfach auf die Definition der Integrierbarkeit und auf die Sätze 54 bzw. 63 verwiesen. 124 S. Hilger, Analysis 3 Satz 67 Der normierte Vektorraum L1 (Rd ) ist vollständig. d.h. jede Cauchy–Folge in L1 (Rd ) hat einen Grenzwert in L1 (Rd ). Genauer: Es sei (fk )k∈N eine Folge von integrierbaren Funktionen mit der Eigenschaft, dass die Folge ([fk ])k∈N der zugehörigen Äquivalenzklassen in L1 (Rd ) eine Cauchy–Folge ist. Dann gilt (i) Es gibt eine Teilfolge (fk` )`∈N , die fast–überall punktweise gegen eine Grenzfunktion f konvergiert. (ii) Die Klasse [f ], die zur Grenzfunktion f dieser Teilfolge gehört, ist in L1 (Rd ) enthalten. (iii) Es gilt dabei lim kf − fk kL1 = 0. k→∞ (iv) Ist (fek` )`∈N eine weitere Teilfolge, die gemäß (i) fast–überall punktweise konvergiert, so gehört ihre Grenzfunktion zur gleichen Klasse [f ] in L1 (Rd ). Beweis (1) Wir definieren die Teilfolgen–Auswahl–Funktion ` 7→ k` rekursiv durch die Bedingungen 1 . 2` Dies ist aufgrund der Cauchy–Voraussetzung möglich. k1 := 1, kfk`+1 − fk` kL1 ≤ (2) Für ordnen der Teilfolge (fk` )`∈N wie folgt eine Teleskopreihe fk1 + ∞ X (fk`+1 − fk` ) = fk1 + (fk2 − fk1 ) + (fk3 − fk2 ) + (fk4 − fk3 ) + . . . `=1 von Funktionen zu. Für die Glieder dieser Reihe gilt Z Z (fk − fk )(x) dx ≤ |(fk − fk )|(x) dx = kfk − fk kL1 ≤ 1 , `+1 ` `+1 ` `+1 ` 2` so dass die Voraussetzung des Satzes 65 erfüllt ist. Die Grenzfunktion f existiert fast– überall, sie definiert eine Funktionsklasse [f ] in L1 (Rd ). Es gilt: Z Z Z ∞ Z X fk` (x) dx. f (x) dx = fk1 (x) dx + (fk`+1 − fk` )(x) dx = lim `=1 `→∞ (3) Es sei ε > 0 vorgegeben. Aufgrund der Cauchy–Voraussetzung existiert zunächst ein K ∈ N, so dass für alle k, j ≥ K gilt ε kfk − fj kL1 ≤ für alle k, j ≥ K. 2 Es existiert dann weiter ein L ∈ N mit kL ≥ K, so dass ∞ X 1 ε ≤ ` 2 2 `=L 125 S. Hilger, Analysis 3 und deshalb kf − fkL kL1 = k ∞ X (fk`+1 − fk` )kL1 ≤ `=L ∞ X k(fk`+1 − fk` )kL1 ≤ `=L ∞ X ε 1 . ≤ ` 2 2 `=L Für ein beliebiges k ≥ K gilt dann ε kf − fk kL1 ≤ kf − fkL kL1 + kfkL − fk kL1 ≤ . 2 Das ist die Aussage (iii). (4) Würde die zweite Teilfolge eine Grenzfunktion g mit [g] 6= [f ] haben, so würde dies wegen k→∞ kf − gkL1 ≤ kf − fk kL1 + kfk − gkL1 −→ 0 einen Widerspruch bedeuten. Sätzchen 68 Das Integral auf L1 (Rd ) ist stetig. Dies folgt einfach aus der Abschätzung Z Z Z Z f (x) dx − fe(x) dx = (f − fe)(x) dx ≤ f − fe (x) dx = kf − fekL1 . 126 S. Hilger, Analysis 3 26.6 Überblick Eigenschaft f ≤ g =⇒ S(f ) ≤ S(g) R (Cc , ) √ S(αf ) = αS(f ), α ∈ R+ S(αf ) = αS(f ), α ∈ R √ R↑ R↓ R⇑ R⇓ R R int R (C ↑ , ) (C ↓ , ) (F, ) (F, ) (F , ) (L, ) (L, ) √ √ √ √ √ √ √ √ √ √ √ √ − − − √ − √ ( ) √ √ √ ( ) √ √ √ √ √ √ √ √ √ √ S(f + g) ≤ S(f ) + S(g) S(f + g) ≥ S(f ) + S(g) S(f + g) = S(f ) + S(g) − √ √ √ √ − S(sup fn ) = sup S(fn ) − S(inf fn ) = inf S(fn ) − √ − − − − − − − − − − − − −→ Vektorraum Banachraum − √ − √ − √ − − √ − √ 127 S. Hilger, Analysis 3 26.7 Verallgemeinerung auf lokalkompakte Räume Das dargelegte Konzept der Erweiterung Z Z d 1 d C(R ), −→ L (R ), kann wesentlich verallgemeinert werden. 26.7.1 Ausgangspunkt Wir schildern die wesentlichen Daten des Ausgangspunkts: Rd Es wurden nur topologische Begriffe verwendet: offene, abgeschlossene, kompakte Teilmengen. Die Vektorraumstruktur war unerheblich, sie spielte nur für die Transformationsformel, entfernt für den Satz von Fubini eine Rolle. Cc Die wesentlichen Features dieser Menge waren: – R–Vektorraum – Sie ist abgeschlossen gegen Betragsbildung (bzw. sup / inf Bildung) – Halbordnung f ≤ g R ⇐⇒ f (x) ≤ g(x)∀x ∈ Rd Die wesentlichen Eigenschaften des Integrals als Abbildung Cc (Rd ) → R waren: – Linearität, – Monotonie – Respektierung des sms–Supremums. 26.7.2 Verallgemeinerung auf lokalkompakte Räume Bei der Konstruktion des Lebesgue–Integrals kann die Menge Rd durch einen beliebigen lokalkompakten Raum X ersetzt werden. Definition (1) Ein topologischer Raum X heißt Hausdorff’sch, wenn es zu zwei verschiedenen Punkten x, y ∈ X disjunkte offene Umgebungen Ux und Uy gibt. (2) Ein topologischer Raum heißt lokalkompakt, wenn er Hausdorff’sch ist und jeder Punkt x ∈ X eine kompakte Umgebung besitzt. 26.7.3 Beispiel: X = N X = N ist mit der diskreten Topologie versehen. • Alle Teilmengen sind offen. • Alle Teilmengen sind abgeschlossen. • Die kompakten Mengen sind genau die endlichen Teilmengen. • Eine Funktion X → R ist einfach eine reelle Folge. 128 S. Hilger, Analysis 3 • Cc (X) umfasst genau die Folgen, deren Glieder fast alle Null sind. • Das Integral auf C(X) ist einfach die Summe der Glieder der Folge. Diese Zahl ist endlich, da die Summe endlich ist. • C ↑ (N) ist die Menge der Folgen N → R ∪ {+∞}, die nur endlich viele negative Glieder haben. • L1 (N) ist die Menge der Folgen, die bei Aufsummation zu absolut konvergenten Reihen werden. • Der Satz von Lebesgue über die majorisierte Konvergenz ist gerade das Majoranten– Kriterium. 26.7.4 Beispiel: Das Dirac–Funktional Es sei X = Rn . Wir definieren die Linearform C(X) → R ε0 : f 7→ f (0) Sie heißt Dirac’sches Maß auf X. 26.8 Verallgemeinerung auf Maßräume Es sei jetzt X eine beliebige Menge, auf der eine σ–Algebra erklärt ist. Definition (1) Es sei X eine Menge. Ein System S von Teilmengen heißt σ–Algebra auf X, wenn die folgenden Axiome erfüllt sind: • X ∈ S. • A∈S =⇒ X \ A ∈ S. • (Ak )k∈N Folge von Teilmengen aus S =⇒ S k∈N Ak ∈ S. X — oder besser das Paar (X, S) heißt dann auch Meßraum, die Teilmengen aus der σ–Algebra heißen meßbar. (2) Eine Abbildung f : X → Y zwischen zwei Meßräumen (X, SX ) und (Y, SY ) heißt meßbar, wenn das Urbild einer meßbaren Menge aus SY eine meßbare Menge aus SX ist. (3) Eine Abbildung µ : S → R heißt Maß auf einem Meßraum (X, SX ), wenn sie die Kolmogoroff–Axiome erfüllt: • µ(∅) = 0. • µ(A) ≥ 0 für alle A ∈ S. 129 S. Hilger, Analysis 3 • Für eine Folge (Ak )k∈N von paarweise disjunkten Mengen aus S ist die σ–Additivität erfüllt: ! ∞ [ X µ Ak = µ(Ak ). k∈N k=1 Das Tripel (X, S, µ) heißt dann Maßraum. Beispiel: Auf Rd ist eine kanonische σ–Algebra gegeben: Es ist die kleinste σ–Algebra, die alle offenen und abgeschlossenen Teilmengen umfasst. Gibt es im Rd nicht–meßbare Teilmengen? Ist jetzt ein Maßraum (X, S, Rd ) gegeben, so kann man eine Integrationstheorie — ähnlich wie oben aufbauen: • Man startet mit dem Vektorraum E(X) der Elementarfunktionen (∼ Treppenfunktionen), das sind Linearkombinationen von charakteristischen Funktionen für meßbare Mengen: m X αi ∈ R, αi χAi , Ai meßbar. i=1 • Man schaut sich dann den Raum E ∗ (X) an, er umfasst alle Funktionen X → R ∪ {+∞}, die sich als punktweiser Limes streng monoton steigender Folgen von Elementarfunktionen ergeben. Es stellt sich heraus, dass E ∗ alle meßbaren Funktionen X → [0, ∞] umfasst. Als Integral für Funktionen aus E ∗ definiert man (wieder) das Supremum der Integrale der Folgenglieder. • Die Menge L1 (X) der Lebesgue–integrierbaren Funktionen umfasst dann genau die Funktionen X → R, die meßbar sind und für die der Positiv- und der Negativteil f + := sup{f, 0}, f − := − inf{f, 0} jeweils ein endliches Integral hat. Als Integral definiert man die Differenz Z Z f := f + − inf f − .