Analysis 3

Werbung
1
S. Hilger, Analysis 3
Skript zur Vorlesung
Analysis 3
(Wintersemester 2008/09)
Dieses Geheft enthält in kompakter Form die wesentlichen Inhalte, wie sie in der Vorlesung
,,Analysis 3” vorgestellt werden.
Es ist zum Gebrauch neben der Vorlesung gedacht und erhebt nicht den Anspruch, ,,in
sich selbst verständlich” oder vollständig zu sein.
S. Hilger
2
S. Hilger, Analysis 3
Inhaltsverzeichnis
16 Extrema unter Nebenbedingungen
4
17 Kurven im Rw
9
17.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
17.2 Bogenlänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
18 Taylor–Approximation für reellwertige Funktionen
18.1 Taylorpolynome . . . . . . . . . . . . . . . . . . . . .
18.2 Gradient und Hesse’sche Matrix . . . . . . . . . . . .
18.3 Extrema reellwertiger Funktionen . . . . . . . . . . .
18.4 Sattelpunkte reellwertiger Funktionen . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19 Der Approximationssatz von Stone–Weierstraß
15
17
17
20
22
24
20 Integration im Rd
29
d
20.1 Integration über Quadern des R . . . . . . . . . . . . . . . . . . . . . . . 30
20.2 Vertauschbarkeit in der Integrationsreihenfolge . . . . . . . . . . . . . . . . 31
21 Die
21.1
21.2
21.3
21.4
Transformationsformel
Integration von stetigen Funktionen mit kompaktem Träger .
Vorbereitung: Zerlegung der Eins . . . . . . . . . . . . . . .
Vorbereitung: Die Primitiv–Zerlegung . . . . . . . . . . . . .
Die Transformationsformel . . . . . . . . . . . . . . . . . . .
22 Integral für C ↑ –Funktionen
22.1 C ↑ –Funktionen . . . . . . . . . . . . . . .
22.2 Integral für C ↑ –Funktionen . . . . . . . .
22.3 Transformationsformel für C ↑ –Funktionen
22.4 Integral für C ↓ –Funktionen . . . . . . . .
22.5 Volumen kompakter Mengen im Rd . . .
.
.
.
.
.
23 Differentialformen
23.1 Die freie Erzeugung V
eines Vektorraums . .
23.2 Die äußere Algebra Rn . . . . . . . . . .
23.3 Differentialformen . . . . . . . . . . . . . .
23.4 Äußere Ableitung einer Differentialformen
23.5 Zurückziehen einer Differentialform . . . .
24 Simplexe und Ketten
24.1 p–Einheitspolyeder . . . . . . .
24.2 p–Simplexe . . . . . . . . . . .
24.3 p–Ketten . . . . . . . . . . . . .
24.4 Der Seit–Operator . . . . . . .
24.5 Der Rand–Operator . . . . . . .
24.6 Vorwärtsschieben einer p–Kette
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
34
36
40
.
.
.
.
.
43
43
47
50
54
55
.
.
.
.
.
61
61
63
67
69
72
.
.
.
.
.
.
77
77
78
78
79
83
85
3
S. Hilger, Analysis 3
25 Der
25.1
25.2
25.3
25.4
Satz von Stokes
Integration über den Einheitspolyeder . . . . . . .
Integration von p–Formen über p–Ketten . . . . .
Der Satz von Stokes . . . . . . . . . . . . . . . .
Spezialfälle des Satzes von Stokes: Vektoranalysis
25.4.1 Der Satz von Stokes bei Kurvenintegralen
25.4.2 Der Green’sche Satz . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26 Lebesgue’sche Integration
26.1 Ober- und Unterintegral für beliebige Funktionen . . . . . . . .
26.2 Integrierbare Funktionen . . . . . . . . . . . . . . . . . . . . . .
26.3 Die Konvergenzsätze von Levi und Lebesgue . . . . . . . . . . .
26.4 Nullmengen und Fast–Überall–Eigenschaften . . . . . . . . . . .
26.4.1 Klassen von fast–überall definierten Funktionen . . . . .
26.4.2 Satz von Levi über die Integration einer Funktionenreihe
26.5 Der Banachraum L1 (Rd ) . . . . . . . . . . . . . . . . . . . . . .
26.6 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26.7 Verallgemeinerung auf lokalkompakte Räume . . . . . . . . . . .
26.7.1 Ausgangspunkt . . . . . . . . . . . . . . . . . . . . . . .
26.7.2 Verallgemeinerung auf lokalkompakte Räume . . . . . . .
26.7.3 Beispiel: X = N . . . . . . . . . . . . . . . . . . . . . . .
26.7.4 Beispiel: Das Dirac–Funktional . . . . . . . . . . . . . .
26.8 Verallgemeinerung auf Maßräume . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
86
86
87
90
94
94
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
99
104
112
117
120
122
123
126
127
127
127
127
128
128
4
S. Hilger, Analysis 3
16
Extrema unter Nebenbedingungen
Definition Es sei X Teilmenge von Rd (oder eines allgemeineren metrischen Raumes)
und f : X → R eine reellwertige Funktion, a ∈ X.
(1) Der Punkt (a, f (a)) des Graphen heißt wie in der ersten Spalte angegeben, wenn es
ein ε > 0 gibt, so dass die Bedingung der zweiten Spalte gilt:
lokales Maximum
lokales Minimum
strenges lokales Maximum
strenges lokales Minimum
f (x) ≤ f (a)
f (x) ≥ f (a)
f (x) < f (a)
f (x) > f (a)
für
für
für
für
alle
alle
alle
alle
x ∈ Uε (a) ∩ X
x ∈ Uε (a) ∩ X
x ∈ Uε (a) ∩ X mit x 6= a
x ∈ Uε (a) ∩ X mit x 6= a
(2) Der Punkt (a, f (a)) des Graphen heißt wie in der ersten Spalte angegeben, wenn die
Bedingung der zweiten Spalte erfüllt ist:
globales Maximum
globales Minimum
strenges globales Maximum
strenges globales Minimum
f (x) ≤ f (a)
f (x) ≥ f (a)
f (x) < f (a)
f (x) > f (a)
für
für
für
für
alle
alle
alle
alle
x∈X
x∈X
x ∈ X mit x 6= a
x ∈ X mit x 6= a
(3) Man spricht jeweils von einem Extremum, wenn es sich um ein Maximum oder Minimum handelt.
(4) In diesem Zusammenhang heißt a auch Stelle des Maximums, Minimums oder Extremums und f (a) der Wert des Maximums, Minimums oder Extremums.
Satz 1 Es sei a ∈ X ein innerer Punkt. Ist die Funktion f : X → R in a differenzierbar
und hat sie dort ein Extremum, so gilt
f 0 (a) = 0 0 · · · 0 .
Beweis Es sei j ∈ {1, . . . , d} fest gewählt. Da a ein innerer Punkt ist, gibt es ein δ > 0,
so dass die partielle Funktion
]aj − δ, aj + δ[, → R
f (a1 , . . . , aj−1 , · , aj+1 , . . . , ad ) :
x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ad )
↑
j
wohl–definiert ist. Sie hat ein Extremum bei aj , deshalb ist aufgrund von Satz 84/AYS01
∂j f (a) = 0. Da dies für alle j ∈ {1, . . . , d} gilt, ist aufgrund von Satz ??
f 0 (a) = ∂1 f (a) ∂2 f (a) · · · ∂d f (a) = 0 0 · · · 0 .
5
S. Hilger, Analysis 3
Satz 2 (Extrema unter Nebenbedingungen / Spezialfall) Es sei X ⊆ Rd offen,
die Funktion f : X → R sei stetig differenzierbar.
Es sei h : X → R eine weitere stetig differenzierbare Funktion, die über
XN := {x ∈ X|h(x) = 0}
(N für Nullniveau oder Nebenbedingung) eine Teilmenge von X, dann die Einschränkung
von f
XN → R
fN :
x 7→ f (x)
definiert.
Es seien für eine Stelle a ∈ XN die folgenden Aussagen gegeben:
• fN habe (als Funktion auf XN ) in a ein lokales Extremum.
• Es sei h0 (a) 6= 0.
Dann gibt es ein λ ∈ R, so dass
f 0 (a) = λ h0 (a),
die beiden Zeilenvektoren sind linear abhängig.
Bemerkungen
1) Dieser Satz kann auf eine höhere Zahl von Nebenbedingungen verallgemeinert werden.
2) Die Zahl λ heißt ein Lagrange’scher Multiplikator.
3) Der Sachverhalt, das die Funktion fN : XN → R in a ein Extremum aufweist, wird
auch dadurch beschrieben, dass f in a ein Extremum unter der Nebenbedingung h = 0
hat.
Beweis (1) Wegen h0 (a) 6= 0 ist eine der partiellen Ableitungen ∂k h(a) 6= 0. Wir nehmen
o.B.d.A. an, dass k = d.
e Ye mit
(2) Wir wählen offene Mengen X,
e ⊆ Rd−1 ,
e
a := (a1 , . . . , ad−1 ) ∈ X
eb := ad ∈ Ye ⊆ R,
e × Ye ⊆ X
X
und wenden den Satz 70/AYS01 (ImFT) über implizite Funktionen auf die eingeschränkte
Funktion
e × Ye → R
X
e
h:
(e
x, ye) 7→ h(e
x, ye)
an der Stelle a = (e
a, eb) an. Die beiden Voraussetzungen aus dem Satz (ImFT)
h(e
a, eb) = h(a) = 0,
D2 h(e
a, eb) = ∂d h(a) 6= 0 (=⇒ invertierbar).
Es existieren also offene Mengen U, V mit
e × Ye ⊆ X
(e
a, eb) ∈ U × V ⊆ X
6
S. Hilger, Analysis 3
und eine stetig differenzierbare Abbildung g : U → V , so dass
h(e
x, ye) = 0
⇐⇒
ye = g(e
x)
für alle x
e ∈ U.
Wir notieren aus Satz 70/AYS02 (ImFT) den Ausdruck für die Ableitung im Punkt e
a∈U
g 0 (e
a) = −[D2 h(e
a, g(e
a))]−1 D1 h(e
a, g(e
a)).
Mit Hilfe dieser Funktion g können wir die eingeschränkte Definitionsmenge XN von fN
umparametrisieren:
U → R
F :
x
e 7→ fN (e
x, g(e
x)) = f (e
x, g(e
x)).
Da die Funktion fN bei a ein Extremum besitzt, hat F im Punkt e
a eines. Die Ableitung
von F in e
a muss Null sein:
0 = F 0 (e
a)
| {z }
1×(d−1)
= D1 f (e
a, g(e
a)) + D2 f (e
a, g(e
a)) g 0 (e
a)
|
{z
} |
{z
} | {z }
1×(d−1)
1×1
1×(d−1)
= D1 f (e
a, g(e
a)) − D2 f (e
a, g(e
a)) · [D2 h(e
a, g(e
a))]−1 D1 h(e
a, g(e
a)).
|
{z
}
=:λ
Geeignet zusammengefasst bedeutet dies aber:
D1 f (e
a, g(e
a)) = λ · D1 h(e
a, g(e
a))
D2 f (e
a, g(e
a)) = λ · D2 h(e
a, g(e
a))
und deshalb — unter Beachtung von a = (e
a, g(e
a)) —
f 0 (a) = D1 f (a) D2 f (a) = λ · D1 h(a) D2 h(a) = λ · h0 (a).
Die für ein Extremum notwendige Bedingung des Satzes führt insgesamt auf ein Gleichungssystem
∂1 f (a) = λ · ∂1 h(a)
..
.
∂d f (a) = λ · ∂d h(a)
h(a) = 0
mit d + 1 Gleichungen für die d + 1 Unbekannten a1 , a2 , . . . , ad und λ.
Da dieses Gleichungssystem im allgemeinen nichtlinear ist, kann es unter Umständen nicht
einfach algorithmisch gelöst werden.
Beispiel:
7
S. Hilger, Analysis 3
Satz 3 (Extrema unter Nebenbedingungen /Verallgemeinerung)
Es sei Z ⊆ Rd offen, die Funktion f : Z → R sei stetig differenzierbar.
Es sei h : Z → Rw , w ≤ d, eine weitere stetig differenzierbare Funktion, die über
ZN := {x ∈ Z|h(x) = 0}
(N für Null– oder Nebenbedingung) eine Teilmenge von Z definiert. Die Funktion f kann
auf ZN eingeschränkt werden:
ZN → R
fN :
x 7→ f (x).
Es seien für eine Stelle c ∈ ZN die folgenden Aussagen erfüllt:
• fN habe (als Funktion auf ZN ) in c ein lokales Extremum.
• Die Matrix h0 (c) ∈ Rw×d habe Vollrang w, d.h. es gibt w linear unabhängige Spaltenvektoren.
Dann gibt es einen Zeilenvektor λ = λ1 · · · λw ∈ Rw , so dass
f 0 (c) = |{z}
λ · h0 (c) .
| {z }
|{z}
1×d
1×w
w×d
Anders ausgedrückt: Die Ableitung von f in c ist eine Linearkombination der Ableitungen
der Koordinatenfunktionen von h in c.
Bemerkungen
1) Man veranschauliche sich diesen Satz zunächst einmal für den Fall w = 1.
2) Die Zahlen λ1 , . . . , λw heißen Lagrange’sche Multiplikatoren.
3) Der Sachverhalt, dass die Funktion fN : ZN → R in c ein Extremum aufweist, wird
auch dadurch beschrieben, dass f in c ein Extremum unter der Nebenbedingung h = 0 hat.
4) Anstelle von einer Nebenbedingung h = 0 spricht man oft von den w Nebenbedingungen:
h1 (x) = 0
..
.
hw (x) = 0.
Beweis (1) Wir können o.B.d.A. annehmen, dass c ∈ X × Y = Z mit offenen Mengen
X ⊆ Rd−w , Y ⊆ Rw . Im folgenden beziehen sich die Ableitungssymbole D1 und D2 auf
diese beiden Mengen.
(2) Zusätzlich können wir aufgrund der Vollrangbedingung annehmen, dass der Anteil
D2 h(c) in
Dh(c) = D1 h(c) D2 h(c)
| {z } | {z }
| {z }
w×d
w×(d−w)
w×w
8
S. Hilger, Analysis 3
invertierbar ist. Anderenfalls nummerieren wir die Variablen in X × Y um.
(3) Wir wenden den Satz 70/AYS02 (ImFT) über implizite Funktionen auf die Funktion
h : X × Y → Rw an der Stelle c = (a, b) an.
Es existieren also offene Mengen U, V mit
(a, b) ∈ U × V ⊆ X × Y ⊆ Z
und eine stetig differenzierbare Abbildung g : U → V , so dass
⇐⇒
h(x, y) = 0
für alle x ∈ U.
y = g(x)
Wir notieren aus dem Satz (ImFT) den Ausdruck für die Ableitung im Punkt a ∈ U
g 0 (a) = − [D2 h(a, g(a))]−1 · D1 h(a, g(a)) .
| {z }
|
{z
} |
{z
}
w×w
w×(d−w)
(∗)
w×(d−w)
Mit Hilfe dieser Funktion g können wir die Definitionsmenge ZN der Funktion fN in einer
Umgebung von a ,,mit weniger Koordinaten aus U schreiben”, es entsteht die Funktion
U → R
F :
x 7→ fN (x, g(x)) = f (x, g(x)).
Da die Funktion fN bei c ein Extremum besitzt, hat F im Punkt a eines. Die Ableitung
von F in a muss Null sein:
0 = F 0 (a)
| {z }
1×(d−w)
= D1 f (a, g(a)) + D2 f (a, g(a)) g 0 (a)
|
{z
} |
{z
} | {z }
1×(d−w)
1×w
w×(d−w)
=:λ
z
}|
{
= D1 f (a, g(a)) − D2 f (a, g(a)) · [D2 h(a, g(a))]−1 · D1 h(a, g(a)) .
{z
} |
{z
} |
{z
} |
{z
}
|
(∗)
1×(d−w)
1×w
w×w
w×(d−w)
Geeignet zusammengefasst bedeutet dies aber:
D1 f (a, g(a)) = λ · D1 h(a, g(a))
D2 f (a, g(a)) = λ · D2 h(a, g(a))
und deshalb — unter Beachtung von c = (a, g(a)) —
f 0 (c) = D1 f (c) D2 f (c) = λ · D1 h(c) D2 h(c) = λ · h0 (c).
Die für ein Extremum notwendige Bedingung des Satzes führt insgesamt auf ein Gleichungssystem
∂1 f (a) =
..
.
∂d f (a) =
h1 (a) =
..
.
hw (a) =
λ1 · ∂1 h1 (a) + . . . + λw · ∂1 hw (a)
λ1 · ∂d h1 (a) + . . . + λw · ∂d hw (a)
0
0
mit d + w Gleichungen für die d + w Unbekannten a1 , a2 , . . . , ad und λ1 , . . . , λw .
Da dieses Gleichungssystem im allgemeinen nichtlinear ist, kann es unter Umständen nicht
einfach algorithmisch gelöst werden.
S. Hilger, Analysis 3
17
17.1
9
Kurven im Rw
Definitionen und Beispiele
Definition (1) Es sei J ein Intervall. Eine stetige Abbildung
J → Rw
γ:
t 7→ γ(t) = (γ1 (t), . . . , γw (t))
heißt Kurve im Rw . Eine Kurve wird also durch w stetige Funktionen, die Koordinatenfunktionen, γi : J → R beschrieben.
In diesem Zusammenhang heißt die Definitionsmenge auch Parameterbereich, die Bildmenge
n
o
γ(J) = γ(t) t ∈ J ⊆ Rw
heißt Spur der Kurve. Oft kommt es vor (beachte aber genau den Unterschied), dass
zwischen Kurve (Abbildung) und Spur (Menge) nicht klar unterschieden wird.
Physikalische Vorstellung: Die Variable t wird als Zeit aufgefasst. Die Funktion γ gibt den
Ort (im Rw ) eines (punktförmig gedachten) Teilchens zum Zeitpunkt t an.
(2) Erinnerung: Die Kurve γ heißt (stetig) differenzierbar (in t), wenn alle Koordinatenfunktionen (stetig) differenzierbar (in t) sind.
(3) Ist eine Kurve in τ ∈ J differenzierbar, so heißt der Vektor
γ 0 (τ ) := (γ10 (τ ), . . . , γw0 (τ ))
der Tangentenvektor an die Kurve γ zum Parameterwert τ . Die Gerade
{γ(τ ) + sγ 0 (τ )|s ∈ R}
heißt die Tangente an die Kurve γ zum Parameterwert τ — oder (nicht ganz eindeutig:)
im Punkt γ(τ ).
(4) Eine differenzierbare Kurve γ heißt regulär, wenn γ 0 (t) 6= 0 für alle t ∈ J. Sie heißt
singulär für τ ∈ J, falls γ 0 (τ ) = 0.
Ist γ : [c, d] → Rw eine Kurve und ϑ : [c2 , d2 ] → [c, d] eine streng monoton steigende (oder
fallende) surjektive Abbildung, so ist
[c2 , d2 ] → Rw
γ◦ϑ:
s 7→ γ(ϑ(s))
eine Kurve mit der gleichen Spur wie γ. Mit Hilfe von ϑ wurde der Parameter t in den
Parameter s transformiert. Die Abbildung ϑ heißt in diesem Zusammenhang eine (orientierungserhaltende bzw. orientierungsumkehrende) Parametertransformation.
Beispiele (1) Sind a, b zwei positive Zahlen, so wird durch die Abbildung
R → R2
γ:
t 7→ (a · cos t, b · sin t)
10
S. Hilger, Analysis 3
eine Ellipse mit dem Ursprung als Mittelpunkt und den beiden Halbachsen a und b
beschrieben. Für r := a = b ergibt sich eine Kreislinie zum Radius r.
(2) Die Kurve
[−1, 1] → R2 √
γ:
t 7→ (t, 1 − t2 )
beschreibt (ebenfalls) einen Halbkreisbogen. Die Spur stimmt mit der der auf [− π2 , + π2 ]
eingeschränkten Kurve (1) überein.
(2) Die Abbildung
R → R3
γ:
t 7→ (cos t, sin t, t)
beschreibt eine Schraubenlinie im R3 .
(3) Ist f : J → Rv eine stetige Funktion, so kann der Graph als Kurve im Rv+1
R → Rv+1
γf :
t 7→ (t, f (t))
aufgefasst werden. Beachte dabei den Spezialfall v = 1.
17.2
Bogenlänge
Wir betrachten jetzt Kurven γ, die ein kompaktes Intervall J = [c, d] als Parameterbereich
haben.
Für eine vorgegebene Zerlegung Z (vgl. AYS02)
c = t0 < t1 < . . . < tn = d
des Intervalls können wir die Gesamtlänge des die Punkte
γ(t0 ),
γ(t1 ),
...
γ(tn )
verbindenden Polygonzugs (Vereinigung der Verbindungsstrecken) im Rw berechnen:
L(γ, Z) := kγ(t1 ) − γ(t0 )k + kγ(t2 ) − γ(t1 )k + . . . + kγ(tn ) − γ(tn−1 )k.
Gehen wir zu einer Verfeinerung Ze von Z über so gilt wegen der Dreiecksungleichung:
e
L(γ, Z) ≤ L(γ, Z).
Definition Als Länge der Kurve definieren wir die Obergrenze all dieser Längen:
L(γ) := sup{L(γ, Z)}.
Z
Ist L(γ) < ∞, so heißt die Kurve γ rektifizierbar.
In diese Definition gehen
• nur Punkte γ(ti ) auf der Spur von γ in einer bestimmten Reihenfolge,
• nicht aber die Kurve als Abbildung γ : [c, d] → R
ein. Das bedeutet, dass die Definition unabhängig von einer Parametertransformation ist.
Eigentlich müsste man das präziser beschreiben und beweisen.
11
S. Hilger, Analysis 3
Satz 4
(i) Es gibt stetige Kurven (mit kompaktem Parameterbereich), die nicht rektifizierbar
sind.
(ii) Ist die Kurve γ : [c, d] → Rw stetig differenzierbar, so ist γ rektifizierbar und es gilt:
Z
L(γ) =
d
d
Z
0
p
kγ (t)k dt =
c
[γ10 (t)]2 + [γ20 (t)]2 + . . . + [γw0 (t)]2 dt.
c
Beweis Zu (i): Als Beispiel nehmen wir die auf [0, 1] definierte Kurve im R2 :
 t


, falls t > 0,

t sin( πt − π2 )
γ(t) =

0


, sonst.
0
Wir wählen eine feste gerade natürliche Zahl n und dann eine Zerlegung Zn gemäß der
zweiten Zeile der folgenden Tabelle
i
0
1
2
...
n−3
n−2
n−1
n
ti
0
1
n
1
n−1
...
1
4
1
3
1
2
1
1
sin( πt − π2 )
/
−1
+1
...
−1
+1
−1
+1
...
1
4
−1
4
0
γ(ti )
!
0
1
n
−1
n
!
1
n−1
+1
n−1
!
!
1
3
+1
3
!
1
2
−1
2
!
1
1
+1
1
!
1
n−i+1
für i ≥ 1. Für i ≥ 2 ist
q
kγ(ti ) − γ(ti−1 )k = (ti − ti−1 )2 + (ti + ti−1 )2 ≥ ti + ti−1 ≥ 2ti−1
mit ti :=
Es ergibt sich als Länge des zugehörigen Polygonzugs:
L(γ, Zn ) =
n
X
kγ(ti ) − γ(ti−1 )k ≥
i=1
n
X
2 ti−1 =
i=1
n
X
i=1
2
=
n−i+1
1
1
1
= 2[ +
+ . . . + ].
n n−1
2
Sie wächst für n → ∞ gegen ∞.
Zu (ii): Es sei ein (beliebig kleines) ε > 0 vorgegeben.
Schritt 1: Die Funktionen γj0 sind stetig, also mit Satz 54(ii) (AYS02) sogar gleichmäßig
stetig. Daher gibt es ein δ > 0, so dass für alle j = 1, . . . , w
kγj0 (t) − γj0 (s)k ≤
ε
,
w(d − c)
wenn nur |t − s| < δ.
12
S. Hilger, Analysis 3
Schritt 2: Wir zeigen: Hat eine Zerlegung
Z : c = t0 < t1 < . . . < tn = d
von [c, d] eine Körnigkeit < δ, d.h.
ti − ti−1 < δ
für alle i = 1, . . . , n,
so gilt
Z
L(γ, Z) −
c
d
kγ 0 (t)k dt ≤ ε.
Es sei nun i eine der Nummern aus der Zerlegung Z. Gemäß Mittelwertsatz der Integralrechnung (Satz 15(iv)/AYS02) — t 7→ kγ 0 (t)k ist stetig — gibt es ein τ ∈ [ti−1 , ti ] , so
dass
Z ti
kγ 0 (t)k dt = kγ 0 (τ )k · [ti − ti−1 ].
ti−1
Gemäß Mittelwertsatz der Differentialrechnung (Satz 88/AYS01) gibt es für jede Koordinatennummer j ∈ {1, . . . , w} eine Stelle τj ∈ [ti−1 , ti ], so dass
|γj (ti ) − γj (ti−1 )| = γj0 (τj ) · [ti − ti−1 ].
Zusammen gilt dann, wenn wir noch zweimal die Dreiecksungleichung anwenden
Z ti
0
kγ (t)k dt =
kγ(ti ) − γ(ti−1 )k −
ti−1
0
0
0
0
0
0
k(γ
(τ
),
γ
(τ
),
.
.
.
,
γ
(τ
))k
−
k(γ
(τ
),
γ
(τ
),
.
.
.
,
γ
(τ
))k
1 1 2 2
· [ti − ti−1 ] ≤
w w
1
2
w
k((γ10 (τ1 ) − γ10 (τ ), γ20 (τ2 ) − γ20 (τ ), . . . , γw0 (τw ) − γw0 (τ ))k · [ti − ti−1 ] ≤
w
X
|γj0 (τj ) − γj0 (τ )| · [ti − ti−1 ] ≤
j=1
w
X
j=1
ε
ε
· [ti − ti−1 ] =
· [ti − ti−1 ].
w(d − c)
d−c
Summieren wir über alle Teilintervalle der Zerlegung Z, so ergibt sich:
Z d
kγ 0 (t)k dt =
L(γ, Z) −
c
Z
n h
X
kγ(ti ) − γ(ti−1 )k −
ti−1
i=1
n
X
i=1
ti
i
kγ (t)k dt ≤
0
ε
ε
· [ti − ti−1 ] =
· (d − c) = ε.
d−c
d−c
Schritt 3: Es sei jetzt Z 0 eine beliebige Zerlegung von [c, d]. Dann gibt es eine Verfeinerung
Z mit einer Körnigkeit < δ und wir erhalten:
Z d
0
L(γ, Z ) ≤ L(γ, Z) ≤
kγ 0 (t)k dt + ε.
c
13
S. Hilger, Analysis 3
Es folgt, da Z 0 völlig beliebig war:
Z d
kγ 0 (t)k dt + ε.
L(γ) ≤
c
Andererseits ist
Z
L(γ) ≥ L(γ, Z) ≥
d
kγ 0 (t)k dt − ε.
c
In einem geschrieben ist dies:
Z d
Z
0
kγ (t)k dt − ε ≤ L(γ) ≤
c
d
kγ 0 (t)k dt + ε.
c
Da ε > 0 beliebig war, folgt die Behauptung des Satzes.
Bemerkung Ist ϑ : [c2 , d2 ] → [c, d] eine stetig differenzierbare streng monoton steigende
(bzw. fallende) Abbildung, also eine Parametertransformation, so gilt mit der Kettenregel
(KR) und der Substitutionsregel (Satz 20/AYS02)
Z d2
Z d2
KR
0
k(γ ◦ ϑ) (s)k ds =
k(γ 0 (ϑ(s)) · ϑ0 (s)k ds =
c2
(
c2
R d2
c2
R d2
− c2
k(γ 0 (ϑ(s))k · ϑ0 (s) ds,
0
0
k(γ (ϑ(s))k · ϑ (s) ds,
(falls ϑ steigend)
)
SR
Z
=
(falls ϑ fallend )
d
kγ 0 (t)k dt.
c
Damit wird auf andere Weise bestätigt, dass die Länge einer stetig differenzierbaren Kurve
γ unabhängig von der konkreten Parameterdarstellung ist.
Korollar 5 Die Graph–Kurve γf einer stetig differenzierbaren Funktion f : [c, d] → Rv
hat die Länge
Z dp
L(γf ) =
1 + kf 0 (t)k2 dt.
c
Im Fall v = 1 gilt dann
Z dp
1 + [f 0 (t)]2 dt.
L(γf ) =
c
14
S. Hilger, Analysis 3
Beispiele (1) Die Länge der Kreislinie
[0, 2π] → R2
γ:
t 7→ (r cos t, r sin t)
(vgl. Beispiel 1 oben) ist
Z 2π p
L(γ) =
(−r sin t)2 + (r cos t)2 dt = 2π r.
0
(2) Wir betrachten die Kurve, die ein Randpunkt auf der Umfangslinie eines auf der
x–Achse nach rechts abrollenden Einheitskreises während einer Umdrehung beschreibt.
Zeichnung
Die Kurve ist gegeben durch die Funktion

 [0, 2π] → R
t
cos( π2 − t)
t + sin t
γ
,
t 7→
+
=

π
1
sin( 2 − t)
1 + cos t
was wir noch erläutern wollen:
t
• Der erste Vektor
beschreibt die Position des Mittelpunktes zur Zeit t. Beim
1
Start befindet sich der Mittelpunkt auf der Höhe 1 über dem Nullpunkt der x–Achse.
cos( π2 − t)
• Der zweite Vektor
beschreibt die Position des Randpunktes relativ
sin( π2 − t)
zum Mittelpunkt. Beim Start (t = 0) befindet sich der Randpunkt in der 12–Uhr–
Position. Die Variable t geht über ein Minuszeichen ein, da das Rad eine Rechts–
Drehung (mathematisch negativ) ausführt.
• Das Intervall [0, 2π] beschreibt aufgrund der 2π–Periodizität genau eine Volldrehung.
Dabei bewegt sich auch der Mittelpunkt um die Strecke 2π weiter.
Für die Länge der Kurve ergibt sich jetzt
Z 2π
Z 2π p
0
[1 + cos t]2 + [sin t]2 dt
L(γ) =
kγ (t)k dt =
0
0
Z 2π
Z 2π r
√
t
t
=
2 + 2 cos t dt =
2 + 2(cos2 − sin2 ) dt
2
2
0
0
Z 2π r
Z 2π
Z π
t
t
t
=
4 cos2 ( ) dt =
2 | cos( )| dt = 4
cos( ) dt
2
2
2
0
0
0
Z π
π
h
i
s= 2
2
= 8
cos s ds = 8 sin s
= 8.
0
s=0
Der Randpunkt legt also während einer Umdrehung den 8–fachen Radius zurück.
15
S. Hilger, Analysis 3
18
Taylor–Approximation für reellwertige Funktionen
Wir führen zunächst einige Bezeichnungen ein. Für ein d–Tupel p = (p1 , . . . , pd ) ∈ (N0 )d
seien
|p|
p!
∂p
xp
:=
:=
:=
:=
p 1 + . . . + pd
p1 ! · . . . · pd !
∂1p1 · . . . · ∂dpd
xp11 · . . . · xpdd
Satz 6 Es sei X ⊆ Rd offen und konvex. Ein Punkt a ∈ X und ein Vektor b ∈ Rd mit
a + b ∈ X seien fixiert.
Ist dann f : X → R eine C n –Funktion, so ist die Funktion
[0, 1] → R
g:
t 7→ f (a + tb)
ebenfalls C n (in den Randpunkten einseitig). Für die n–te Ableitung gilt
X n!
g (n) (t) =
(∂ p f )(a + tb)bp .
p!
|p|=n
Beweis (1) Wir werden die umfassendere Aussage
X
g (n) (t) =
(∂in . . . ∂i1 f )(a + tb)bin . . . bi1
(i1 ,...,in )∈{1,...,d}n
X n!
(∂ p f )(a + tb)bp
p!
=
|p|=n
beweisen, die erste Gleichheit per Induktion über n ∈ N, die zweite mit einer kombinatorischen Überlegung.
(2) Zum Induktionsbeweis. Für n = 1 ist dies einfach die Kettenregel:
d
f (a1 + tb1 , . . . , ad + tbd )
g 0 (t) =
dt
d
X
X
=
(∂i f )(a + tb)bi =
(∂i f )(a + tb)bi
i=1
i∈{1,...,d}
Ist dann die Aussage für n ∈ N bewiesen, so gilt — wieder mit der Kettenregel —
i
X
dh
n+1
g (t) =
(∂in . . . ∂i1 f )(a + tb)bin . . . bi1
dt
n
(i1 ,...,in )∈{1,...,d}
=
d h
X
j=1
=
d
h
X
(i1 ,...,in )∈{1,...,d}n
X
∂j
i
(∂in . . . ∂i1 f )(a + tb)bin . . . bi1 bin+1
(i1 ,...,in )∈{1,...,d}n
in+1 =1
=
i
(∂in . . . ∂i1 f )(a + tb)bin . . . bi1 bj
X
∂j
X
(i1 ,...,in+1
)∈{1,...,d}n+1
(∂in+1 . . . ∂i1 f )(a + tb)bin+1 . . . bi1 .
16
S. Hilger, Analysis 3
(3) Für ein fest gegebenes d–Tupel p = (p1 , . . . , pd ) mit Länge |p| = n treten in der oberen
Summe bei Schritt (1) insgesamt
n!
n!
n
=
=
p!
p 1 ! · · · pd !
p1 · · · pd
Summanden auf, deren zugehöriges Index–n–Tupel (i1 , . . . , in ) die Zahlen j ∈ {1, . . . , d}
genau pj –mal enthält.
Aufgrund der Vertauschbarkeit der partiellen Ableitungen sind diese Summanden aber
alle gleich
(∂in . . . ∂i1 f )(a + tb)bin . . . bi1 = (∂ p f )(a + tb)bp .
Deshalb können sie bei der Summation zusammengefasst werden.
Satz 7 (Taylor–Approximation (mehrdimensional)) Es sei X ⊆ Rd offen und konvex, a ∈ X.
(i) Ist f : X → R eine Funktion in C n+1 (X), so gibt zu jedem x ∈ X ein ξ ∈ [0, 1] mit
X
X
(x − a)p
(x − a)p
p
p
+
.
f (x) =
(∂ f )(a + ξ(x − a))
(∂ f )(a)
p!
p!
|p|=n+1
0≤|p|≤n
{z
}
|
rn+1 (x)
(ii) Dabei ist
•
limx→a
rn+1 (x)
kx−akn
= 0.
Beweis Wir führen die Aussage mit Hilfe der Funktion
[0, 1] → R
g:
t 7→ f (a + t(x − a))
auf die entsprechende Aussage über die 1–dimensionale Taylor–Approximation zurück.
Gemäß Satz 35(ii) (AYS02) über die 1–dimensionale Taylor–Approximation gibt es ein
ξ ∈ [0, 1], so dass
n
X
g (n+1) (ξ)
g (k) (0)
+
f (x) = g(1) =
k!
(n + 1)!
k=0
z
}|
{ z
}|
{
n X
p
p
X
X
(x
−
a)
(x
−
a)
=
(∂ p f )(a)
+
(∂ p f )(a + ξ(x − a))
p!
p!
k=0
|p|=k
=
X
|p|=n+1
p
(∂ p f )(a)
0≤|p|≤n
X
(x − a)
(x − a)p
+
(∂ p f )(a + ξ(x − a))
p!
p!
|p|=n+1
Zu (ii): Es ist
rn+1 (x)
n
x→a kx − ak
X
(x − a)p
p
= lim
(∂
f
)(a
+
ξ(x
−
a))
•
p! · kx − akn
x→a
|p|=n+1
p
p
X 1
x 1 − a1 1
x d − ad d
p
= lim
(∂ f )(a + ξ(x − a))
· ··· ·
·kx − ak
•
{z
} kx − ak
p! |
kx − ak
x→a
|p|=n+1
|
{z
}
stetig
lim
•
≤1
17
S. Hilger, Analysis 3
18.1
Taylorpolynome
Der Satz bietet — wie im 1–dimensionalen Fall — den Anlass, einige spezielle Begriffe
einzuführen:
• Der Ausdruck
X
(∂ p f )(a)
0≤|p|≤n
(x − a)p
p!
heißt das Taylorpolynom n–ten Grades mit Entwicklungsstelle a. Es handelt sich um
ein Polynom n–ten Grades in den d Variablen (x−a)1 , . . . , (x−a)d ∈ R. Vorgegeben
ist dabei eine Abbildung f , die an der Stelle a ∈ X n–mal (total) differenzierbar ist.
• Die Differenz rn+1 (x) zwischen Funktion und zugeordnetem Taylorpolynom n–ten
Grades wird wieder als (Taylor–)Restglied (n + 1)–ter Ordnung bezeichnet. Es gilt
dann
f (x) =
X
(∂ p f )(a)
0≤|p|≤n
(x − a)p
+ rn+1 (x).
p!
Es gilt offenbar:
rn (x) − rn+1 (x) =
X
(∂ p f )(a)
|p|=n
18.2
(x − a)p
.
p!
Gradient und Hesse’sche Matrix
Wir berechnen etwas genauer die Taylorpolynome bis Grad 2. Für n = 0 ist p = (0, . . . , 0)
also
X
(x − a)p
(∂ p f )(a)
= f (a).
p!
|p|=0
Die d–Tupel p mit Länge 1 haben die Form p = (0, . . . , 0, 1, 0, . . . , 0). Damit ist das
Taylorpolynom für n = 1 gegeben durch
X
(∂ p f )(a)
|p|=1
(x − a)p
= ∂1 f (a) · (x1 − a1 ) + . . . + ∂d f (a) · (xd − ad )
p!
∂1 f (a) · · · ∂d f (a) · (x − a).
=
Definition Schreibt man den in der letzten Zeile auftretenden Zeilenvektor um in einen
Spaltenvektor, so entsteht der Gradient von f an der Stelle a:


∂1 f (a)


..
grad f (a) = ∇f (a) = 
.
.
∂d f (a)
Man nennt den Operator ∇ den Nabla–Operator (Nabla (gr): Harfe).
18
S. Hilger, Analysis 3
Bemerkung: Die ,,Umschreibung” eines Zeilenvektors in einen Spaltenvektor ist aus Sicht
der multilinearen Algebra, die genau das Transformationsverhalten von Tensoren (,,höherstufigen Vektoren”) bei Basistransformationen im unterliegenden Vektorraum in den Blick
nimmt, eigentlich unzulässig. Erst, wenn diese Umschreibung als ein Übergang von einer
Linearform (= Zeilenvektor) zum dualen (Spalten–)Vektor bzgl. des kanonischen Skalarprodukts h· , · i im Rd interpretiert wird, ist wieder ,,fester Grund” erreicht. Es gilt
dann für einen Vektor y ∈ Rd


∂1 f (a)


..
∂1 f (a) · · · ∂d f (a) · y = h 
 , yi .
.
{z
}
|
∂d f (a)
Matrix–Produkt
|
{z
}
Skalar–Produkt
Im Fall |p| = 2 treten zwei Typen von d–Tupeln auf, nämlich die mit 2 an einer Stelle
(p! = 2) und die mit 1 an zwei Stellen (p! = 1). Es ist dann
X
d
d
X
X
(xi − ai )2
(x − a)p
2
=
(∂i f )(a)
+
(∂i ∂j f )(a)(xi − ai )(xj − aj )
(∂ f )(a)
p!
2
i=1
i,j=1;i<j
p
|p|=2
d
1X
=
(∂i ∂j f )(a)(xi − ai )(xj − aj )
2 i,j=1
Die soeben beschriebene Gestalt der zweiten Ableitung ist Anlass für eine weitere Definition:
Definition Ist die Funktion f : X → R in einer Umgebung von a ∈ X zweimal stetig
differenzierbar, so heißt die symmetrische d × d–Matrix

 2
∂1 f (a) ∂1 ∂2 f (a) · · · ∂1 ∂d f (a)
..


.

 ∂2 ∂1 f (a) ∂22 f (a)
Hess f (a) = ∂i ∂j f (a) ij = 

.
.
.
..
..
..


2
∂d ∂1 f (a)
···
· · · ∂d f (a)
die Hesse’sche Matrix von f im Punkt a.
Bemerkung: Nur wenn die Bild–Zeilen–Vektoren der ersten Ableitungsfunktion von f —
mit Hilfe des kanonischen Skalarprodukts — in Spaltenvektoren umgewandelt werden,
(
nat
1×d dual
d×1 ∼
0
X
→
R
'
R
= Rd
f :
x 7→ grad f (x),
kann die Hesse’sche Matrix als zweite Ableitung
X → Rd×d
00
0 0
f = (f ) :
x 7→ Hess f (x)
von f aufgefasst werden.
19
S. Hilger, Analysis 3
Wir übernehmen aus der Linearen Algebra:
Hilfssatz 8 Für eine reelle symmetrische d×d–Matrix A sind die folgenden vier Aussagen
äquivalent:
(i) (Definition) A ist positiv definit.
(ii) Für eine beliebigen Vektor x ∈ Rd \ {0} gilt:
xT A x > 0
(iii) Die Determinanten der (symmetrischen) Untermatrizen von A


a11 · · · a1j
 ..
..  ,
 .
. 
aj1 · · · ajj
j = 1, . . . , d,
(also: von links oben her) sind positiv.
Bildlich: Die Einträge (und Blöcke) in den Diagonalen dominieren die Einträge
(und Blöcke) außerhalb der Diagonalen.
(iv) Alle d Eigenwerte (A ist diagonalisierbar) sind reell und positiv.
Entsprechende Listen äquivalenter Aussagen gibt es für die Eigenschaften
• ,,negativ definit”,
• ,,positiv semidefinit”,
• ,,negativ semidefinit”.
Die reelle symmetrische d × d–Matrix A heißt indefinit, wenn es zwei Vektoren x, y ∈ Rd
gibt, so dass
xT Ax > 0,
y T Ay < 0.
20
S. Hilger, Analysis 3
18.3
Extrema reellwertiger Funktionen
Satz 9 Es sei a ∈ X ein innerer Punkt. Ist die Funktion f : X → R in a differenzierbar
und hat sie dort ein Extremum, so gilt
f 0 (a) = 0 0 · · · 0 .
Beweis Es sei j ∈ {1, . . . , d} fest gewählt. Da a ein innerer Punkt ist, gibt es ein δ > 0,
so dass die partielle Funktion
]aj − δ, aj + δ[, → R
f (a1 , . . . , aj−1 , · , aj+1 , . . . , ad ) :
x 7→ f (a1 , . . . , aj−1 , x, aj+1 , . . . , ad )
↑
j
wohl–definiert ist. Sie hat ein Extremum bei aj , deshalb ist aufgrund von Satz 84/AYS01
∂j f (a) = 0. Da dies für alle j ∈ {1, . . . , d} gilt, ist aufgrund von Satz 75/AYS02
f 0 (a) = ∂1 f (a) ∂2 f (a) · · · ∂d f (a) = 0 0 · · · 0 .
Satz 10 (Extrema — Hinreichende Bedingungen) Es sei X ⊆ Rd offen, a ∈ X.
Die Funktion f : X → R sei in C 2 (X), es sei f 0 (a) = 0.
(i) Ist Hess f (a) positiv definit, so hat f in a ein strenges lokales Minimum.
(ii) Ist Hess f (a) negativ definit, so hat f in a ein strenges lokales Maximum.
Beweis
Wir müssen nur (i) zeigen und können dabei a = 0 voraussetzen.
(1) Nach Satz 7 ist
f (x) = f (0) +
1 T
x · Hess f (0) · x + r3 (x),
2
wobei
r3 (x)
= 0.
2
x→0 kxk
lim
•
(2) Die (d − 1)–dimensionale Sphäre
S = {x ∈ Rd |kxk = 1}
im Rd ist kompakt, die stetige Abbildung
S → R+
x 7→ xT · Hess f (0) · x
nimmt deshalb auf S ihr Minimum an. Der Minimumswert M muss, da S abgeschlossen
ist, positiv sein: M > 0.
21
S. Hilger, Analysis 3
(3) Für x 6= 0 zunächst gilt die Abschätzung,
xT · Hess f (0) · x =
xT
x
· Hess f (0) ·
· kxk2 ≥ M · kxk2 ,
kxk
kxk
die dann insgesamt auch für x = 0 zutrifft.
(4) Aufgrund der in (1) zitierten Abschätzung lässt sich ein δ > 0 finden, so dass
|r3 (x)| ≤
M
· kxk2
4
für kxk < δ.
Es folgt dann für diese x
f (x) = f (0) +
1 T
M
x · Hess f (0) · x + r3 (x) ≥ f (0) + kxk2 ,
{z
}
| {z }
2 |
4
≥M kxk2
f hat also ein strenges Minimum in 0.
≥− M
kxk2
4
22
S. Hilger, Analysis 3
18.4
Sattelpunkte reellwertiger Funktionen
In diesem Abschnitt sei X ⊆ R2 eine offene Teilmenge der Ebene.
Definition Man sagt, die Funktion f : X → R hat bei a einen (strengen) Sattelpunkt,
wenn es zwei reguläre Kurven
α, β : ] − ε, +ε[ → X
mit α(0) = β(0) = a
gibt, so dass
• die zusammengesetzte Funktion f ◦ α : ] − ε, +ε[ → R bei 0 ein strenges Maximum
hat,
• die zusammengesetzte Funktion f ◦ β : ] − ε, +ε[ → R bei 0 ein strenges Minimum
hat,
• die beiden Vektoren α0 (0), β 0 (0) linear unabhängig in R2 sind.
Die dritte Bedingung ist nicht automatisch durch die ersten beiden erfüllt, wie man erwarten könnte. Als Beispiel diene
f (x1 , x2 ) = −x61 + x21 · x2
Die Kurven
α(t) =
t
0
β(t) =
t
t2
0
0
haben beide den Tangentialvektor α (0) = β (0) =
(f ◦ α)(t) = −t6
6
1
0
und es gilt
(Maximum)
4
4
2
(f ◦ β)(t) = −t + t = t (1 − t ) =
> 0,
= 0,
falls 0 < |t| < 1,
falls t = 0.
(Minimum)
Zeichnung
Satz 11 Hat die Funktion f : X → R bei a einen (strengen) Sattelpunkt und ist sie da
differenzierbar, so ist die Ableitung Null:
Df (a) = 0 0 .
Beweis Es seien α, β die beiden Kurven, die die Sattelpunkteigenschaft hervorbringen.
Aufgrund der Kettenregel Satz 59 (AYS02) ist das folgende
2 × 2–Gleichungssystem
für
∂f
∂f
0
die beiden Koordinaten in dem Zeilenvektor f (a) = ∂x1 (a) ∂x2 (a) erfüllt:
∂1 f (a) · α10 (0) + ∂2 f (a) · α20 (0) = f 0 (α(0)) · α0 (0) = (f ◦ α)0 (0) = 0
KR
∂1 f (a) · β10 (0) + ∂2 f (a) · β20 (0) = f 0 (β(0)) · β 0 (0) = (f ◦ β)0 (0) = 0
KR
Dass der jeweils letzte Ausdruck verschwindet, liegt daran, dass die Funktionen f ◦ α
und f ◦ β in 0 jeweils ein Extremum haben. Da die beiden Vektoren α0 (0), β 0 (0) linear
unabhängig in R2 sind, hat das LGS eine eindeutige Lösung, nämlich
∂f
∂f
(a)
(a)
0
0
Df (a) = ∂x
=
.
∂x
1
2
S. Hilger, Analysis 3
23
Satz 12 (Sattelpunkt — Hinreichende Bedingung) Es sei X ⊆ R2 offen, a ∈ X.
Die Funktion f : X → R sei in C 2 (X), es sei f 0 (a) = 0. Ist Hess f (a) indefinit, so hat f
in a einen Sattelpunkt.
Beweis Wir können uns wieder auf den Fall a = 0 beschränken.
Da Hess f (a) indefinit ist, gibt es einen Vektor y ∈ R2 mit
y T · Hess f (a) · y > 0.
Das aber bedeutet, dass die Funktion
] − δ, δ[ → R
f |<y> :
t 7→ f (ty)
eine verschwindende erste und eine positive zweite Ableitung hat. Es existiert also eine
Kurve mit Minimum.
Analog existiert eine Kurve mit Maximum.
24
S. Hilger, Analysis 3
19
Der Approximationssatz von Stone–Weierstraß
Definition Wir sagen, eine Menge X sei kompakt (oder ein kompakter Raum), wenn sie
ein topologischer Raum (beispielsweise definiert durch eine Metrik) ist, bzgl. der X selbst
kompakt ist.
Wir betrachten in diesem Abschnitt für einen kompakten Raum X den Funktionen–
Vektorraum (K ∈ {R, C})
n
o
C(X, K) :=
f : X → K stetig .
Da stetige Funktionen auf kompakten Mengen beschränkt sind, ist die Supremumsnorm
kf k := sup{|f (x)|}
x∈X
auf diesem Vektorraum definiert. Er wird zu einem vollständig metrischen Raum. Wir
können die topologischen Begriffe aus Kapitel ???? anwenden.
Satz 13 (Dini) Es sei X ein kompakter metrischer Raum.
Es seien fn , f : X → R, n ∈ N, stetige Funktionen. Dann gilt die Implikation

(fn ) punktweise monoton

(fn ) punktweise konvergent gegen f
=⇒ (fn ) gleichmäßig konvergent.

f stetig
Beweis (1) O.B.d.A. ist (fn ) monoton wachsend. Es sei f die (punktweise) Grenzfunktion
und ε > 0 vorgegeben. Wir betrachten zunächst ein beliebiges, festes a ∈ X.
(2) Es gibt ein Na ∈ N, so dass
ε
für alle n ≥ Na .
|fn (a) − f (a)| ≤
3
(3) Es gibt weiter eine Umgebung Ua von a, so dass aufgrund der Stetigkeit der beiden
Funktionen fNa und f für alle x ∈ Ua
ε
|fNa (x) − fNa (a)| ≤
3
ε
|f (x) − f (a)| ≤ ,
3
demzufolge auch
|fNa (x) − f (x)| ≤ ε,
gilt.
(4) Jetzt wähle man endlich viele Stellen a1 , . . . , am ∈ X, so dass X ⊆
Sm
i=1
Uai und setze
N := max{Nai |i = 1, . . . , m}.
(5) Ist nun x ∈ X beliebig, so gibt es ein j ∈ {1, . . . , m}, so dass x ∈ Uaj . Es gilt dann
für alle n ≥ N aufgrund der Monotonie von (fn )
0 ≤ f (x) − fn (x) ≤ f (x) − fN (x) ≤ f (x) − fNj (x) ≤ ε.
25
S. Hilger, Analysis 3
Es sei wieder K = R oder K = C.
Definition Ist auf einem K–Vektorraum V eine Multiplikation, d.h. eine K–bilineare
Abbildung
V ×V → V
·
(v, ve) 7→ v · ve
erklärt, so spricht man von einer K–Algebra.
Es ist nicht einheitlich geregelt, ob der Begriff der Algebra beinhaltet, das für die Multiplikation das Assoziativgesetz gilt. Für uns sei dies aber der Fall.
Die Algebra heißt kommutativ, wenn zusätzlich für diese Multiplikation das Kommutativgesetz gilt.
Beispiele (1) R ist eine kommutative R–Algebra, C ist eine kommutative C–Algebra
und eine kommutative R–Algebra.
(2) Die Menge aller (quadratischen) (d × d)–Matrizen mit Einträgen aus K bildet eine
K–Algebra, die für d ≥ 2 nicht kommutativ ist.
(3) Die Menge der Funktionen f : X → K mit einer beliebigen Menge X als Definitionsmenge bildet eine kommutative K–Algebra, sie wird mit F(X, K) bezeichnet. Die
Teilmenge der beschränkten Funktionen auf X bildet eine Unteralgebra B(X, K) von
F(X, K).
(4) Ist auf X eine Metrik (oder Topologie) erklärt, so bildet die Menge der stetigen
Funktionen ebenfalls eine Unteralgebra C(X, K) von F(X, K). Weiter ist dann die Menge
der stetigen beschränkten Funktionen eine weitere Unteralgebra BC(X, K).
Beachte, dass für kompaktes X gilt: C(X, K) = BC(X, K).
Definition Wir nennen eine Unteralgebra ( = Teilmenge, die eine Algebra ist) A(X, K)
von F(X, K) eine Trenn–Algebra, wenn sie die folgenden Trennungs–Eigenschaften aufweist:
• Die Algebra A(X, K) trenne die Stellen: Zu je zwei verschiedenen Stellen x, x
e∈X
existiere (mindestens) eine Funktion f ∈ A, so dass
f (x) 6= f (e
x).
• Die Algebra A(X, K) trenne die Werte: Zu jeder Stelle x ∈ X gebe es zwei Funktionen f und fe, so dass
f (x) 6= fe(x).
26
S. Hilger, Analysis 3
Satz 14 (Approximationssatz von Stone–Weierstraß) Es sei X eine kompakte
Menge, K = R, und A(X, R) eine Trenn–Algebra von stetigen reellwertigen Funktionen.
Dann gilt für den Abschluss von A(X, R):
A(X, R) = C(X, R)
Mit anderen Worten: Zu jeder stetigen Funktion f : X → R gibt es eine Folge von
Funktionen (fn )n∈N in A(X, R), die gleichmäßig gegen f konvergiert.
Wir zeigen diesen Satz mit einer Kaskade von Hilfssätzen.
Sätzchen 15 Zu beliebigen a, b ∈ X, a 6= b, und α, β ∈ K gibt es (mindestens) eine
Funktion f ∈ A, so dass
f (a) = α,
f (b) = β.
Beweis Der Beweis wird zeigen, dass die Voraussetzungen K = R und X kompakt hier
nicht benötigt werden.
Gemäß Definition des Begriffs der ,,Trenn–Algebra” gibt es zu a, b ∈ X fünf Funktionen
e, ga , ha , gb , hb ∈ A(X, K), so dass
e(a) 6= e(b),
ga (a) 6= ha (a),
gb (b) 6= hb (b).
Man sieht dann leicht, dass die Funktion f ∈ A(X, K), definiert durch
f (x) := α
[e(x) − e(a)] · [gb (x) − hb (x)]
[e(x) − e(b)] · [ga (x) − ha (x)]
+β
,
[e(a) − e(b)] · [ga (a) − ha (a)]
[e(b) − e(a)] · [gb (b) − hb (b)]
die Aussage des Sätzchens erfüllt.
Frage: Warum braucht man die Faktoren mit g und h?
Antwort: Es ist keineswegs klar, dass die konstanten Funktionen, hier
in der Algebra A(X, K) enthalten sind.
e(b)
e(a)−e(b)
bzw.
e(a)
e(b)−e(a)
Hilfssatz 16 Es existiert eine monoton wachsende√Folge (pn ) von Polynomen pn :
[0, 1] → R, die gleichmäßig gegen die Wurzelfunktion x konvergiert.
Beweis (1) Wir definieren diese Folge rekursiv durch
p1 ≡ 0,
pn+1 (x) := pn (x) +
x − p2n (x)
2
und zeigen per Induktion
√
(2) 0 ≤ pn (x) ≤ x für alle x ∈ [0, 1].
Für die Durchführung des Induktionsschritts beachte man einfach
√
√
√
√
x − p2n (x)
x + pn (x)
x − pn+1 (x) =
x − pn (x) +
=
x − pn (x) · 1 −
.
2
2
|
{z
}
|
{z
}
≥0
∈ [0,1]
27
S. Hilger, Analysis 3
Man ersieht aus dieser Identität auch, dass (pn ) monoton wachsend ist.
(3) Für jedes x ∈ [0, 1] ist die Folge (pn (x)) monoton wachsend und (nach oben) beschränkt, sie besitzt demzufolge einen Grenzwert f (x). Durch Grenzübergang
in der Re√
2
kursionsformel sieht man f (x) = x, wegen f (x) ≥ 0 muss f (x) = x sein.
(4) Der Satz 13 von Dini zeigt abschließend, dass die Konvergenz gleichmäßig ist.
Hilfssatz 17 Ist f ∈ A(X, R), so ist |f | ∈ A(X, R).
Beweis Zum Beweis definieren wir die Funktionen
gn (x) := kf k · pn (( fkf(x)k )2 ),
sie gehören alle zu A(X, R). Gemäß vorigem Hilfssatz besteht gleichmäßige Konvergenz
der Folge
p
pn (y 2 ) −→ y 2 = |y| auf [0, 1],
deshalb dann auch die der Folge
gn (x) = kf k · pn (
f (x)
kf k
2
s
) −→ kf k ·
f (x)
kf k
2
= |f (x)|.
Hilfssatz 18 Ist f ∈ A(X, R), so ist |f | ∈ A(X, R).
Beweis Es gibt eine Folge (fn ) ⊆ A(X, R), die gleichmäßig gegen f konvergiert. Die
Folge (|fn |) ⊆ A(X, R) konvergiert gleichmäßig gegen |f |. Da A(X, R) abgeschlossen ist,
ist |f | ∈ A(X, R).
Hilfssatz 19 Zu je zwei Funktionen f, g ∈ A(X, R) gehören auch die beiden Funktionen
max(f, g)
und
min(f, g)
(punktweise definiert)
zu A(X, R).
Beweis Dies folgt aus den Identitäten:
max(f, g) =
f + g + |f − g|
,
2
min(f, g) =
f + g − |f − g|
.
2
Hilfssatz 20 Zu zwei stetigen Funktionen f ⊥ : X → R (bottom) und f > : X → R (top)
mit
f ⊥ (x) < f > (x),
x ∈ X,
gibt es eine Funktion g in A(X, R), so dass
f ⊥ (x) < g(x) < f > (x),
x ∈ X.
28
S. Hilger, Analysis 3
Beweis (1) Es seien a, b zwei (nicht notwendig verschiedene) Stellen in X. Es gibt dann
gemäß Sätzchen 15 eine Funktion gab ∈ A(X, R), so dass
f ⊥ (a) < gab (a),
gab (b) < f > (b).
(2) Wir halten jetzt ein beliebiges a ∈ X fest. Zu jedem b ∈ X gibt es dann eine offene
Umgebung Ub von b, so dass
gab (x) < f > (x),
x ∈ Ub .
Da X kompakt ist, gibt es endlich viele i = 1, . . . , m, so dass
m
[
X⊆
Ubi .
i=1
Wir definieren die Funktion ga durch
ga (x) :=
min {gab1 (x), . . . , gabm (x)}.
i∈{1,...,m}
Sie hat die folgenden beiden Eigenschaften:
f ⊥ (a) < ga (a),
ga (x) < f > (x),
x ∈ X.
Die erste ist klar wegen f ⊥ (a) < gabi (x) für alle i = 1, . . . , m. Zum Nachweis der zweiten
betrachte man ein festes x ∈ X, suche sich das i mit x ∈ Ubi und erhält dann ga (x) ≤
gabi (x) < f > (x).
Weiter gibt es jetzt zu jedem a ∈ X, da ga und f ⊥ stetig sind, eine Umgebung Va von a,
so dass
f ⊥ (x) < ga (x),
x ∈ Va .
Da X kompakt ist, gibt es endlich viele j = 1, . . . , j, so dass
X⊆
j
[
Ubj .
j=1
Wir definieren die Funktion g durch
g(x) :=
max {ga1 (x), . . . , gaj (x)}.
j∈{1,...,j}
Sie hat die folgenden beiden Eigenschaften:
f ⊥ (x) < g(x) < f > (x),
x ∈ X.
Die zweite Ungleichung ist klar wegen gaj (x) < f > (x) für alle j = 1, . . . , j. Zum Nachweis
der zweiten betrachte man ein festes x ∈ X, suche sich das j mit x ∈ Uaj und erhält dann
f ⊥ (x) < gaj (x) ≤ g(x).
Beweis des Satzes von Stone–Weierstrass. Es sei also f stetig und ε > 0 vorgegeben.
Setze im letzten Hilfssatz
f ⊥ = f − ε,
f > = f + ε.
Es existiert dann eine Funktion g ∈ A(X, R) mit
f − ε < g < f + ε,
was die Abschätzung kf − gk < ε nach sich zieht.
S. Hilger, Analysis 3
20
29
Integration im Rd
Der mehrdimensionalen Integralrechnung liegt zunächst das Vorhaben zugrunde, im ,,im
Rd ” definierte reellwertige Funktionen f über Teilmengen X von Rd zu integrieren und
ihnen eine reelle Zahl, das Integral
Z
f ∈R
X
zuzuordnen.
Es stellt sich dabei heraus, dass dieses Vorhaben erheblich anspruchsvoller — und deshalb
wieder sehr viel interessanter — im Vergleich zu seiner eindimensionalen Entsprechung
ist.
Dem Vorhaben unterliegt stark die Klärung, welche ,,spezielleren und verallgemeinernden”
mathematischen Objekte die Rolle der Teilmengen X und der Funktionen f einnehmen.
Anstelle der Teilmengen X werden wir es zu tun haben mit:
D Quadern, kompakten Trägern, Mengensimplexen,
V (orientierten) Simplexen und Ketten,
L messbaren und L–integrierbaren Mengen.
Anstelle der Funktionen f werden wir begegnen:
D stetigen Funktionen,
V differenzierbaren Funktionen, Differentialformen,
L messbaren und L–integrierbaren Funktionen.
Die drei Kürzel bedeuten dabei:
D Definition: Eine erste einfache Definition des mehrdimensionalen Integrals mittels
mehrfacher eindimensionaler Integration ist für Quader und stetige Funktionen angebbar. Zur Ausschaltung des Einwands, dass diese Definition von der Reihenfolge
der Einzel–Integrationen abhängig sein könnte, muss der in sich gewichtige Satz von
Stone–Weierstraß bereitgestellt werden.
V Vektoranalysis: Sie beschäftigt sich mit der Verallgemeinerung der Substitutionsregel und des HDI für den höher–dimensionalen Kontext. Am Ende stehen die Transformationsformel und der Satz von Stokes.
L Lebesgue–Theorie: Hier begibt man sich auf die Suche nach möglichst großen Klassen von Mengen und Funktionen, für die das Integral sinnvoll definiert werden kann.
Der gewichtigere Aspekt dabei ist, dass diese Klassen mathematisch sehr geschmeidig werden:
– Die Klasse der L–integrierbaren Funktionen bildet einen vollständig normierten
Vektorraum.
– Das System aller messbaren Mengen bildet eine sogenannte σ–Algebra, das
heißt das Komplemente, abzählbare Vereinigungen und Schnitte messbarer
Mengen wieder messbar sind.
30
S. Hilger, Analysis 3
Integration über Quadern des Rd
20.1
Definition Es sei
Q = [a1 , b1 ] × . . . × [ak , bk ] × [ak+1 , bk+1 ] × . . . × [ad , bd ] ⊆ Rd ,
|
{z
}
=:Qd−k
ein achsenparalleler kompakter Quader und % : Q → R eine stetige Funktion.
Wir definieren rekursiv für k = 0, . . . , d die Funktionen
Qd → R
(I0 %) :
x 7→ %(x)
(
(Ik %) :
Qd−k → R
Rb
x 7→ akk (Ik−1 %)(xk , . . . , xd−k+1 ) dxk .
Die Funktion Ik % entsteht also dadurch, dass
• bzgl. der ersten k Variablen, x1 , . . . , xk
• über die Intervalle [a1 , b1 ], . . . [ak , bk ]
• bei festgehaltenen restlichen Variablen xk+1 , . . . , xd
eindimensional integriert wird. Wir bereits mehrfach aufgetreten, ist bei einer rekursiven
Definition eine Pünktchen–Schreibweise viel suggestiver:
Z bk
Z b1
(Ik %)(xk+1 , . . . , xd ) =
···
%(x1 , . . . , xk , xk+1 , . . . , xd ) dx1 · · · dxk .
| {z } |
{z
}
ak
a1
integriert
fixiert
Dieser Iterationsprozess ist wohldefiniert, da jeweils mit Ik % auch Ik+1 % wieder eine stetige
Funktion mit kompaktem Träger ist (Beweis in der Übung).
(3) Nach d–maliger Integration entsteht die Zahl
Z b1
Z
Z bd
%(x) dx := Id % =
···
%(x1 , . . . , xd ) dx1 · · · dxd .
Q
ad
a1
Sie wird das Integral von % über den Quader Q genannt.
31
S. Hilger, Analysis 3
20.2
Vertauschbarkeit in der Integrationsreihenfolge
Satz 21 (Vertauschbarkeit in der Integrationsreihenfolge)
Es sei π : {1, . . . , d} → {1, . . . , d} eine bijektive Abbildung (Permutation). Dann gilt für
stetiges % : Q → R:
Z
Z bπ(d)
Z bπ(1)
(i)
%(x) dx =
···
%(x1 , . . . , xd ) dxπ(1) . . . dxπ(d) .
Q
aπ(d)
aπ(1)
Bei der Definition des Integrals kommt es also auf die Reihenfolge der einzelnen
Integrationen nicht an.
Z b1
Z
Z bd
%(xπ(1) , . . . , xπ(d) ) dx1 . . . dxd .
···
(ii)
%(x) dx =
ad
Q
a1
Im Integranden können die Variablen beliebig vertauscht werden.
Beweis
(0) Es genügt offensichtlich, die Formel (i) für d = 2 und den Fall, zu beweisen, dass π
die beiden Koordinaten 1 und 2 vertauscht.
Es sei ein Quader Q = [a1 , b1 ] × [a2 , b2 ] gegeben.
(1) Wir nehmen zunächst an, dass die stetige Funktion % als Summe von Zweierprodukten
von stetigen Funktionen geschrieben werden kann, die nur von jeweils einer Koordinate
abhängen:
%(x1 , x2 ) =
n
X
σj (x1 ) · τj (x2 )
(∗)
j=1
Dann gilt (sehr ausführlich)
Z b2 Z b1
n Z
X
%(x1 , x2 ) dx1 dx2 =
a2
a1
=
=
=
=
b2
j=1 a2
n Z b1
X
j=1 a1
n Z b1
X
j=1 a1
n Z b1
X
Z
b1
b1
σj (x1 ) · τj (x2 ) dx1 dx2
j=1 a2
n Z b2
X
j=1
Z
a1
Z
a1
Z
b1
σj (x1 ) dx1 · τj (x2 ) dx2
a1
Z
b2
σj (x1 ) dx1 ·
τj (x2 ) dx2
a2
Z
b2
σj (x1 ) ·
τj (x2 ) dx2 dx1
a2
Z
b2
σj (x1 ) · τj (x2 ) dx2 dx1
a2
b2
=
%(x1 , x2 ) dx2 dx1
a1
a2
32
S. Hilger, Analysis 3
(2) Es sei jetzt % : Q → R eine beliebige stetige Funktion und ein ε > 0 vorgegeben.
Alle Funktionen % : Q → R der Form (∗) bilden eine
PR–Trenn–Algebra. Aufgrund des
Satzes von Stone–Weierstraß 14 gibt es eine Funktion nj=1 σj (x1 )·τj (x2 ) in dieser Trenn–
Algebra mit
sup{|%(x1 , x2 ) −
x∈Q
n
X
σj (x1 ) · τj (x2 )|} ≤
j=1
ε
.
2(b2 − a2 )(b1 − a1 )
Aufgrund des Abschätzungssatzes der Integralrechnung gilt
Z Z
n
b2 b1
X
[%(x1 , x2 ) −
σj (x1 ) · τj (x2 )] dx1 dx2 ≤
a2 a1
j=1
Z Z
n
b1 b2
X
[%(x1 , x2 ) −
σj (x1 ) · τj (x2 )] dx2 dx1 ≤
a1 a2
j=1
und deshalb weiter
Z b2 Z b1
Z
%(x1 , x2 ) dx1 dx2 −
a2
a1
b1
a1
Z
b2
a2
ε
2
ε
2
%(x1 , x2 ) dx2 dx1 ≤ ε.
Da ε beliebig war, stimmen die beiden Integrale überein.
(3) Die Aussage unter (ii) folgt aus der ersten (i) durch Anwendung auf die Permutation
π −1 und anschließende Umbenennung der Variablen:
Z
Z b −1
Z b −1
π
(d)
π
(1)
%(x) dx =
···
%(x1 , . . . , xd ) dxπ−1 (1) . . . dxπ−1 (d)
Q
aπ−1 (d)
Z
bd
aπ−1 (1)
Z
b1
···
=
ad
%(xπ(1) , . . . , xπ(d) ) dx1 . . . dxd .
a1
33
S. Hilger, Analysis 3
21
21.1
Die Transformationsformel
Integration von stetigen Funktionen mit kompaktem
Träger
Definition Ist M ein metrischer Raum und % : M → R eine Funktion, so nennt man die
abgeschlossene Teilmenge
supp % := {x ∈ M |%(x) 6= 0}
den Träger (support) der Funktion %.
Der Vektorraum der stetigen Funktionen % : M → R mit kompaktem Träger wird mit
Cc (M, R) (c = compact) bezeichnet.
In nicht wenigen Teilen der Analysis spielen die Funktionen mit kompaktem Träger eine
wichtige Rolle.
Definition Es sei % ∈ Cc (Rd , R). Dann gibt es einen achsenparallelen kompakten Quader
Q mit
supp % ⊆ Q.
R
Offenbar ist das Integral Q %(x) dx von der Auswahl des Quaders Q ⊇ supp % unabhängig,
deshalb definiert man das Integral (schlechthin) der stetigen Funktion mit kompaktem
Träger % durch:
Z
Z
Z
%(x) dx =
%(x) dx :=
%(x) dx.
Rd
Q
Die Zusatznotation, dass über die Menge Rd integriert wird, wird wann immer möglich,
weggelassen.
Damit sind wir einem abstrakteren Integrationsbegriff ein Stück näher gekommen insofern, als die Abhängigkeit der Integration von einem ,,Integrationsbereich” verschwunden
ist. Ein beträchtlicher Teil des Lebesgue–Programms besteht darin, den kleinen Fundus
der Kompakt–Träger–stetigen Funktionen drastisch zu erweitern. Dies geschieht dadurch,
dass Funktionen mit schwächeren Eigenschaften geeignet durch Funktionen aus Cc (Rd , R)
approximiert werden. Bevor wir dieses Programm durchführen, werden wir erst die Transformationsformel beweisen.
Für deren Beweis in Abschnitt 21.4 sind einige Vorbereitungen nötig, die zunächst gar
keinen Bezug zur Integration erkennen lassen und teilweise für sich selbst interessant sind.
34
S. Hilger, Analysis 3
21.2
Vorbereitung: Zerlegung der Eins
Satz 22 (C ∞ –Zerlegung der Eins) Es sei U eine offene Überdeckung der kompakten
Menge K ⊆ Rd . Dann gibt es endlich viele C ∞ –Funktionen
d
R → [0, 1]
ψj :
,
j = 1, . . . , n
x 7→ ψj (x)
mit folgenden Eigenschaften
• Zu jedem j = 1, . . . , n gibt es ein U ∈ U, so dass
• Es ist
ψ1 (x) + . . . + ψn (x) = 1
supp ψj ⊆ U .
für alle x ∈ K.
Man sagt, dass die Funktionen ψj eine der Überdeckung U unterliegende C ∞ –Zerlegung
der Eins bilden.
Beweis
(1) Es sei zunächst ein a ∈ K festgehalten.
Dazu gibt es ein Ua ∈ U und weiter offene Kugeln Va , Wa mit Mittelpunkt a und Radien
ra < Ra , so dass
a ∈ Va ⊆ Wa ⊆ Wa ⊆ Ua .
Die C ∞ –Funktion
d
R → [0, 1]
ωa :
x 7→ Ω−Ra ,−ra ,+ra ,+Ra ( kxk )
(vgl. Sätzchen 18, AYS02) hat auf Va den konstanten Wert 1, außerhalb von Wa den
konstanten Wert 0 und dazwischen nehmen sie Werte zwischen 0 und 1 an.
(2) Da K kompakt ist, existiert zu der offenen Überdeckung
V := {Va |a ∈ K}
eine endliche Teilüberdeckung
V 0 = {Vaj |j = 1, . . . , n}
von V für K.
(3) Wir definieren die Funktionen ψ1 , . . . , ψn durch
ψj
:=
[1 − ωa1 ] · . . . · [1 − ωaj−1 ] · ωaj
(Für j = 1 fallen die Faktoren in eckigen Klammern einfach weg).
(4) Es bleiben noch die im Satz angegebenen Eigenschaften zu überprüfen:
Da alle Funktionen ωj Werte zwischen 0 und 1 annehmen, gilt dies auch für die Funktionen
ψj . Es ist weiter zu sehen, dass
supp ψj ⊆ supp ωaj ⊆ Uaj .
(5) Als nächstes beweist man leicht per Induktion über j = 1, . . . , n, dass
ψ1 + . . . + ψj = 1 − [1 − ωa1 ] · . . . · [1 − ωaj ].
35
S. Hilger, Analysis 3
(6) Betrachtet man nun ein beliebiges x ∈ K, so ist es in einer offenen Kugel Vaj ∈ V 0
enthalten. Es gilt dann
ωaj (x) = 1,
deshalb
ψ1 (x) + . . . + ψn (x) = 1 − [1 − ωa1 (x)] · . . . · [1 − ωaj (x)] · . . . · [1 − ωan (x)] = 1.
|
{z
}
=0
36
S. Hilger, Analysis 3
21.3
Vorbereitung: Die Primitiv–Zerlegung
Definition Es sei X ⊆ Rd offen. Die Abbildung g : X → Rd heißt primitiv (auf X),
wenn es ein k ∈ {1, . . . , d} und eine Abbildung γ : X → R gibt, so dass


x1
 .. 
 . 


 xk−1 


g(x) =  γ(x) 


 xk+1 
 . 
 .. 
xd
geschrieben werden kann.
Definition Eine Matrix der Form

Qjk =
1


















































..
.
1
0
..
.
..
.
..
.
···
1
···
···
1
..
.
···
··· 1
..
.
..
.
.
1 ..
··· 0
1
..
.
1

















































heißt Flip. Die beiden Koordinatennummern j und k sind durch das Auftreten von Nullen
in der Diagonalen definiert. Man mache sich klar, dass ein Flip genau die zu diesen beiden
Koordinatennummern gehörigen Komponenten eines Vektors im Rd vertauscht.
Satz 23 (Primitiv–Zerlegung)
Es sei 0 ∈ X und ϑ : X → Rd eine stetig differenzierbare Abbildung mit
ϑ(0) = 0,
ϑ0 (0) invertierbar.
Dann gibt es eine Umgebung U von 0, so dass ϑ auf U als Produkt zweier Abbildungen
ϑ=P ◦Θ
geschrieben werden kann, wobei
• Θ : U → Rd ein Produkt von d primitiven C 1 –Funktionen
• P eine d × d–Permutationsmatrix
ist.
und
37
S. Hilger, Analysis 3
Beweis
(1) Wir beweisen per Induktion über j = 1, . . . , d die folgenden Aussagen:
(Aj ) :

Es existieren






• zwei Umgebungen Uj , Vj ⊆ X von 0,







• eine Funktion gj : Uj → Vj die ein Produkt von




j − 1 primitiven C 1 –Funktionen ist, und gj (0) = 0




erfüllt,







• eine C 1 –Funktion ϑj : Vj → Rd mit








(ϑj )1 (x) = x1

..
.
(∗)





(ϑj )j−1 (x) = xj−1 ,










• eine Permutationsmatrix Pj ,






so dass







ϑ = Pj ◦ ϑj ◦ gj
auf Uj .








 Diese Gleichung impliziert, dass die Jacobi–Matrizen
von ϑj und gj in 0 invertierbar sind.
(2) Zum Induktionsanfang j = 1 setzt man
V1
g1
ϑ1
P1
:=
=
=
=
U1 = X
idX
ϑ
I
(Einheitsmatrix)
Es ist leicht zu sehen, dass die Aussage (A1 ) erfüllt ist, die Aussage (∗) ist dabei ,,inhaltslos”.
(3) Die Aussage (Ad ) beinhaltet den Satz, es hat dann nämlich ϑ die Darstellung
ϑ = Pd ◦ ϑd ◦ gd
auf Ud
wobei Pd eine Permutationsmatrix, gd ein Produkt von d − 1 primitiven C 1 –Abbildungen
und ϑd selbst eine primitive C 1 –Abbildung ist.
(4) Wir müssen den Induktionsschritt durchführen, es sei also (Aj ) für j ≤ d − 1 erfüllt.
Wir betrachten die j–te Spalte in der Jacobi–Matrix ϑ0j (0):
• Aufgrund von (∗) sind die oberen j − 1 Einträge in dieser Spalte gleich Null.
• Die Spalte als ganzes ist aufgrund der Invertierbarkeit der Matrix ungleich Null.
38
S. Hilger, Analysis 3
• Also gibt es ein k mit j ≤ k ≤ d, so dass an der Position (j, k) der Matrix ein
Eintrag ungleich Null ist:
∂j (ϑj )k (0) 6= 0.
(5) Wir definieren die Funktion

Vj → Rd





y1



..



.





 yj−1
hj+1 :

y 7→  (ϑj )k (y)






 yj+1




..



.


yd






.




Gemäß dem Satz über inverse Funktionen existieren Null–Umgebungen
Wj+1 ⊆ Vj ,
Vj+1 := hj+1 (Wj+1 ),
so dass nach Einschränkung die Funktion
hj+1 : Wj+1 → Vj+1
bijektiv wird mit der primitiven C 1 –Umkehrfunktion

Vj+1 → Wj+1






x1



..




.







x


j−1
−1
hj+1 :
 −1

x 7→  (hj+1 )j (x)  .






xj+1








.



..



xd
(6) Wir definieren weiter die Null–Umgebungen und Funktionen
Uj+1
gj+1
ϑj+1
:=
:=
:=
gj−1 (Wj+1 )
hj+1 ◦ gj : Uj+1 → Vj+1
d
Qj+1 ◦ ϑj ◦ h−1
j+1 : Vj+1 → R
Dabei sei Qj+1 die Permutationsmatrix, die die Zeilen k und j eines Vektors aus Rd
vertauscht, im Fall k = j die Einheitsmatrix. Beachte Q2j+1 = I.
(7) Es ist dann nach Induktionsvoraussetzung
ϑ = Pj ◦ ϑj ◦ gj
= Pj ◦ Qj+1 ◦ Qj+1 ◦ ϑj ◦ h−1
j+1 ◦ hj+1 ◦ gj
= Pj ◦ Qj+1 ◦ϑj+1 ◦ hj+1 ◦ gj
| {z }
| {z }
=:Pj+1
=:gj+1
39
S. Hilger, Analysis 3
und gj+1 ein Produkt von j primitiven Funktionen.
(8) Es muss noch die Eigenschaft (∗) für j +1 bewiesen werden. Dazu sei x ∈ Vj+1 beliebig.
Dazu gibt es ein y ∈ Wj+1 mit x = hj+1 (y). Es folgt dann
ϑj+1 (x) = ϑj+1 ◦ hj+1 (y) = Qj+1 ◦ ϑj (y)

 
y1
y1
..
..

 
 

.
.

 

 
yj−1
yj−1

 
 (ϑj )j (y)   (ϑj )k (y)

 
(ϑ ) (y)  =  (ϑj )j+1 (y)
= Qj+1 
 j j+1
 
..
..

 
.
.

 
 (ϑ ) (y)   (ϑ ) (y)

 
j j
j k

 
.
..
..

 
.
(ϑj )d (y)


x1
..
.
 
 
 
 
xj−1
 
 
xj
 
 =  (ϑj )j+1 (y)
 
..
 
.
 
  (ϑ ) (y)
 
j j
 
..
 
.
(ϑj )d (y)
(ϑj )d (y)








.







40
S. Hilger, Analysis 3
21.4
Die Transformationsformel
Satz 24 (Transformationsformel) Es seien X, Y ⊆ Rd offen und ϑ : X → Y eine
bijektive C 1 –Abbildung, wobei ϑ0 (x) invertierbar ist für alle x ∈ X. Weiter sei % : Y → R
eine stetige Funktion mit kompaktem Träger in Y .
Dann gilt:
Z
Z
%(y) dy = %(ϑ(x)) · | det ϑ0 (x)| dx.
Beweis
(1) Wir überlegen zunächst: Ist die Aussage für zwei Abbildungen g : X → Z und
h : Z → Y richtig, so gilt sie auch für ϑ = h ◦ g : X → Y . Es ist nämlich
Z
Z
%(y) dy =
%(h(z)) · | det h0 (z)| dz
{z
}
|
=:e
%(z)
Z
=
%(h(g(x))) · | det h0 (g(x))| ·| det g 0 (x)| dx
{z
}
|
=:e
%(g(x))
(Kettenregel und Determinanten–Multiplikations–Satz)
Z
=
%(ϑ(x)) · | det ϑ0 (x)| dx
(2) Wir zeigen die Aussage zunächst für den Fall, dass
• Y konvex ist
und
• ϑ eine primitive bijektive C 1 –Abbildung X → Y ist, wobei ϑ0 (x) invertierbar ist für
alle x ∈ X. (Zur Einpassung der Notation benennen wir diese Abbildung in g um.)
Aufgrund des Satzes 21 über die Vertauschbarkeit in der Integrationsreihenfolge können
wir annehmen, dass die Funktion γ in der ersten Koordinate von g auftritt, die Funktion
g also die Form




y1
γ(x1 , . . . , xd )
 y2 


x2
 . 


.
 . 


..
 .  = g(x) = 
.
 . 


.
..
 .. 


yd
xd
hat. Da Y konvex ist, ist auch das Bild X = γ −1 (Y ) unter der stetigen Abbildung konvex.
(3) Es existieren kompakte achsenparallele Quader
QY = [a1 , b1 ] × [a2 , b2 ] × · · · × [ad , bd ]
QX = [α1 , β1 ] × [a2 , b2 ] × · · · × [ad , bd ],
so dass
supp % ⊆ QY ,
γ −1 (supp %) ⊆ QX .
41
S. Hilger, Analysis 3
(4) Wegen

∂1 γ(x) ∂2 γ(x)
0
1
..
.
0
..
..
.
.
0
0



det g 0 (x) = det 


···
0
..
.
..
.
···
· · · ∂d γ(x)
···
0
..
..
.
.
..
.
0
0
1




 = ∂1 γ(x)


muss ∂1 γ 6= 0 auf X sein. Aufgrund des Zwischenwertsatzes und der Konvexität von X
muss ∂1 γ konstantes Vorzeichen haben.
(5) Für festes ye = (y2 , . . . , yd ) ∈ Rd−1 sei das Intervall
[α(e
y ), β(e
y )] = := γ −1 (· , ye)([min(supp %), max(supp %)]) ⊆ [α1 , β1 ]
definiert. Die auf ihm definierte Abbildung
[α(e
y ), β(e
y )] → [a1 , b1 ]
γye :
x1 7→ γ(x1 , ye)
ist streng monoton.
(6) Es gilt nun
Z
%(y) dy
Z
bd
Z
b2
"Z
···
=
ad
#
b1
%(y1 , . . . , yd ) dy1 dy2 · · · dyd
a2
a1
(1–dimensionale Substitutionsregel)
Z
bd
Z
b2
"Z
···
=
ad
a2
#
β(e
y)
α(e
y)
%(γ(x1 , ye), ye) |∂1 γ(x1 , ye)| dx1 dy2 · · · dyd
(Umbenennung der Integrationsvariablen), x
e=y
e
Z
bd
Z
b2
"Z
···
=
ad
a2
#
β(e
x)
α(e
x)
%(γ(x1 , x
e), x
e) |∂1 γ(x1 , x
e)| dx1 dx2 · · · dxd
(Ausweitung der Integrationsgrenzen, da Integrand Null auf den Erweiterungsintervallen)
Z
bd
b2
"Z
ad
Z
a2
#
β
···
=
=
Z
α
%(γ(x), x
e)|∂1 γ(x1 , x
e)| dx1 dx2 · · · dxd
%(g(x))| det g 0 (x)| dx.
42
S. Hilger, Analysis 3
(3) Wir zeigen die Aussage als nächstes für den Fall, dass Y eine beliebige offene Menge
und g : X → Y eine primitive bijektive C 1 –Abbildung ist.
Zu jedem z ∈ supp % gibt es einen offenen achsenparallelen Quader Qz mit z ∈ Qz ⊆ Y .
Alle diese Quader bilden eine offene Überdeckung der kompakten Menge supp %. Es gibt
also eine unterliegende C ∞ –Zerlegung der Eins, das sind endlich viele C ∞ –Funktionen
d
R → [0, 1]
ψj :
y 7→ ψj (y)
mit folgenden Eigenschaften
• Zu jedem j = 1, . . . , n gibt es ein z ∈ supp %, so dass
• Es ist
ψ1 (y) + . . . + ψn (y) = 1
supp ψj ⊆ Qz .
für alle y ∈ supp %.
Die Abbildung % kann jetzt als Summe
%(y) = %(y)ψ1 (y) + . . . + %(y)ψn (y)
von n Funktionen % · ψj mit Träger jeweils in einem Qz geschrieben werden.
Deshalb ist die Aussage (3) auf die Aussage in Schritt (2) zurückgeführt.
(4) Ist nun ϑ : X → Y eine beliebige C 1 –Abbildung, so gibt es gemäß dem Satz 23 über
die Primitiv–Zerlegung eine Permutationsmatrix P und eine C 1 –Abbildung Θ, die das
Produkt von d primitiven Abbildungen ist, so dass ϑ = P ◦ Θ. Da der Satz für jede
einzelne dieser Abbildungen richtig ist, gilt er auch für ϑ.
43
S. Hilger, Analysis 3
22
22.1
Integral für C ↑–Funktionen
C ↑ –Funktionen
Wir werden in diesem Abschnitt Funktionen mit Werten in der erweitere Zahlengerade
R = R ∪ {−∞, +∞} zu betrachten haben. Auf dieser Menge sind eine Ordnung und eine
Metrik definiert.
Die auf R definieren Grundrechenarten können als stetige Operationen teilweise auf die
erweitere Zahlengerade fortgesetzt werden:
• Die Addition ist auf R × R \ {(−∞, +∞), (+∞, −∞)} wohldefiniert.
• Die Multiplikation ist auf R × R \ {(0, −∞), (0, +∞), (−∞, 0), (+∞, 0)} wohldefiniert.
• Die Inversenbildung x 7→
1
x
ist auf R \ {0} wohldefiniert.
• Die auf das Intervall ]0, +∞] eingeschränkte Inversenbildung kann stetig auf [0, +∞]
fortgesetzt werden durch die Festsetzung 01 = +∞.
Beachte, dass die Körpergesetze nicht uneingeschränkt gültig sind.
Definition Eine Funktion % : Rd → R heißt in a ∈ Rd unterhalbstetig (oder von unten
halbstetig), wenn es zu jedem ε > 0 ein δ > 0 existiert, so dass
%(a) − ε < %(x)
für alle x mit kx − ak < δ.
Eine Funktion % : Rd → R heißt unterhalbstetig (schlechthin), wenn sie in jedem a ∈ Rd
unterhalbstetig ist.
Beispiele
1. Stetige Funktionen sind unterhalbstetig.
2. Ist Y ⊆ Rd eine Teilmenge, so heißt
 d
 R → R
1,
χY :
 x 7→
0,
falls x ∈ Y,
falls x ∈
/ Y.
die Indikatorfunktion von Y .
Eine Indikatorfunktion ist genau dann unterhalbstetig, wenn die zugehörige Teilmenge offen ist.
44
S. Hilger, Analysis 3
Satz 25 (und Definition) Wir definieren eine Teilmenge C ↑ (Rd ) von Funktionen Rd →
R durch die folgenden äquivalenten Aussagen:
(A) (Definition) % ∈ C ↑ (Rd ).
(B) Es gibt eine monoton steigende Folge (%k )k∈N mit %k ∈ Cc (Rd ) für alle k, die punktweise gegen % konvergiert.
(C) % ist unterhalbstetig, nimmt den Wert −∞ nicht an. Weiter gibt es eine kompakte
Teilmenge K ⊆ Rd , so dass
{x ∈ Rd |%(x) < 0} ⊆ K.
(D) % ist unterhalbstetig und besitzt eine Minorante %e ∈ Cc (Rd ).
Beweis Forster 3, Seite 41 oder Dieudonne II, Satz 12.7.8, Seite 31.
45
S. Hilger, Analysis 3
Die Menge C ↑ (Rd ) ist kein Vektorraum von Funktionen, es treten aber viele andere
,,Abschluss–Eigenschaften” in Erscheinung.
Satz 26
(i) Es seien %, %e ∈ C ↑ (Rd ), α ∈ R+
0 . Dann gehören auch die Funktionen
α%,
min{%, %e},
% + %e,
max{%, %e}
zu C ↑ (Rd ).
(ii) Es sei (%k )k∈I eine Familie von Funktionen aus C ↑ (Rd ). Dann gehört auch die Funktion
% := sup{%k |k ∈ I}
zu C ↑ (Rd ).
(iii) Es sei (%k )k∈N eine Folge in C ↑ (Rd ) mit %k ≥ 0 für alle k ∈ N. Dann gehört auch
die Funktion
∞
X
%k
k=1
zu C ↑ (Rd ).
(iv) Es sei % ∈ C ↑ (Rd ) und a ∈ Rd . Dann gehören die partiellen Funktionen
%(· · · , a` , · · ·) :
Rd−1 → R
y 7→ %(y1 , . . . , yk−1 , a` , yk , . . . , yd−1 )
zu C ↑ (Rd−1 ).
Beweis (i) Sind (%k )k∈N und (e
%k )k∈N zugehörigen monoton steigenden punktweise konvergenten Folgen in Cc (Rd ), so haben die Folgen
(α%k ),
(%k + %ek ),
(min{%k , %ek }),
(max{%k , %ek })
die gleichen Eigenschaften und konvergieren gegen die im Satz angegebenen Funktionen.
(ii) Es seien a ∈ Rd und ε > 0 fixiert. Wegen %(a) = sup{%k (a)|k ∈ I} gibt es ein k ∈ I,
so dass
%k (a) > %(a) − ε.
Da %k unterhalbstetig ist, gibt es ein δ > 0, so dass
%(x) ≥ %k (x) > %(a) − ε
für alle x mit
kx − ak < δ.
S. Hilger, Analysis 3
46
Also ist % unterhalbstetig. Weiter ist
{x ∈ Rd |%(x) < 0} ⊆ {x ∈ Rd |%k (x) < 0}
in einer kompakten Menge enthalten.
(iii) Die durch die Reihe definierte Funktion ist Supremum der Partialsummen, von denen
wir aufgrund von (i) wissen, dass sie zu C ↑ (Rd ) gehören.
(iv) Es sei wieder (%k )k∈N eine monoton steigende Folge in Cc (Rd ), die punktweise gegen
% konvergiert. Dann ist die Folge
d−1
R
→ R
%k (· · · , a` , · · ·) :
y 7→ %k (y1 , . . . , yk−1 , a` , yk , . . . , yd−1 )
der zugehörigen partiellen Funktionen eine monoton steigende Folge in Cc (Rd−1 ), die
punktweise gegen die im Satz angegebene partielle Funktion konvergiert.
47
S. Hilger, Analysis 3
22.2
Integral für C ↑ –Funktionen
Definition Ist % : Rd → R eine Funktion in C ↑ (Rd ), so definieren wir
Z ↑
Z ↑
Z
%(x) dx =
%(x) dx := lim
%k (x) dx,
k→∞
Rd
Rd
wobei (%k )k∈N irgendeine monoton steigende Folge von Funktionen in Cc (Rd ) ist, die die
gegebene Funktion % als punktweisen Grenzwert besitzt.
Diese Definition muss noch etwas kommentiert werden:
• Die Zusatzinformation, dass über die Menge Rd integriert wird, wird wann immer
möglich, weggelassen.
• Beachte, dass die Zahlenfolge auf der rechten Seite monoton wachsend ist und daher
ihr Grenzwert in R ∪ {+∞} eindeutig festgelegt ist.
• Der folgende Satz wird aufzeigen, dass die Definition des Integrals unabhängig von
der ausgewählten Folge (%k )k∈N in Cc (Rd ) ist.
• Insbesondere ist dann gesichert, dass für Funktionen % ∈ Cc (Rd ) die ursprüngliche
Definition des Integrals mit der aktuellen übereinstimmt.
Satz 27 Es seien (%k )k∈N und (e
%k )k∈N zwei monoton steigende Folgen von Funktionen in
Cc (Rd ) mit
lim %k (x) = %(x) = lim %ek (x).
k→∞
k→∞
Dann gilt
Z
lim
k→∞
Z
%k (x) dx =
↑
Z
%(x) dx = lim
k→∞
%ek (x) dx.
Beweis
(1) In Abhängigkeit von (k, `) ∈ N × N definieren wir die Funktionen
rk` := min{%k , %e` } ∈ Cc (Rd )
und denken uns diese Funktionen in einer ,,unendlichen Tabelle” angeordnet:
k→∞
r11 r12
r21 r22
r31 r32
..
..
.
.
rk1 rk2
..
..
.
.
r13 · · · r1`
r23 · · · r2`
r33 · · · r3`
..
..
.
.
rk3 · · · rk`
..
..
.
.
↓
%e1
↓
%e3
↓
%e2
↓
· · · %e`
`→∞
· · · −→ %1
· · · −→ %2
· · · −→ %3
..
.
· · · −→ %k
..
.
↓
· · · −→
48
S. Hilger, Analysis 3
(2) Wir betrachten beispielsweise die k–te Zeile. Die in ihr enthaltene Funktionenfolge ist
monoton steigend und konvergiert punktweise gegen %k , was durch
lim rk` (x) =
`→∞
lim min{%k (x), %e` (x)} = min{ lim %k (x), %e` (x)}
`→∞
`→∞
= min{%k (x), %e(x)} = %k (x).
begründet ist.
(3) Wegen
rk1 ≤ rk` ≤ %k
gilt
supp rk` ⊆ supp rk1 ∪ supp %k
für alle k ∈ N,
so dass alle Funktionen in der k–ten Zeile einen Träger haben, der in der gleichen kompakten Menge enthalten ist. Aufgrund des Satzes von Dini liegt gleichmäßige Konvergenz
ist.
(4) Insgesamt können wir jetzt abschätzen
Z
Z
Z
rk` ≤e
%`
glm K
%k (x) dx = lim
rk` (x) dx ≤ lim
%e` (x) dx.
`→∞
`→∞
(6) Beim Grenzübergang k → ∞ auf der linken Seite bleibt die Abschätzung erhalten:
Z
Z
lim
%k (x) dx ≤ lim
%e` (x) dx.
k→∞
`→∞
(7) Führt man die genau gleichen Überlegungen bei Vertauschung von Zeilen und Spalten
innerhalb der obigen Tabelle durch, so gelangt man analog zu der Abschätzung
Z
Z
lim
%e` (x) dx ≤ lim
%k (x) dx,
`→∞
k→∞
wodurch der Satz gezeigt ist.
49
S. Hilger, Analysis 3
Satz 28 (Eigenschaften des C ↑ –Integrals)
(i) Für %, %e ∈ C ↑ (Rd ) gilt:
Z
% ≤ %e =⇒
↑
Z
↑
%(x) dx ≤
%e(x) dx.
(ii) Es seien %, %e ∈ C ↑ (Rd ), α ∈ R+
0 . Dann gilt:
Z ↑
Z ↑
α · %(x) dx = α ·
%(x) dx
Z ↑
Z ↑
Z
[%(x) + %e(x)] dx =
%(x) dx +
↑
%e(x) dx
(iii) Es sei (%k )k∈I eine monoton wachsende Folge von Funktionen aus C ↑ (Rd ). Dann gilt
Z ↑
Z ↑
sup %k (x) dx = sup
%k (x) dx.
k∈N
k∈N
(iv) Es sei (%k )k∈N eine Folge in C ↑ (Rd ) mit %k ≥ 0 für alle k ∈ N. Dann ist
Z
↑
∞ Z
∞
X
X
%k (x)] dx =
[
↑
%k (x) dx.
k=1
k=1
(v) (Satz von Fubini in C ↑ )
Es sei % ∈ C ↑ (Rd ). Dann gilt für ` ∈ {1, . . . , d}
Z ↑
Z ↑ Z ↑
%(x) dx =
%(y1 , . . . , y`−1 , x` , y` , . . . , yd−1 ) dx` dy
Rd
Rd−1
R
Insbesondere kann die mehrdimensionale Integration als Abfolge von eindimensionalen Integrationen ausgeführt werden.
Beweis
(i) Sind (%k ) und (e
%k ) zugehörige Folgen in Cc (Rd ), so konvergieren auch die beiden monoton steigenden Folgen
min{%k , %ek } → %
max{%k , %ek } → %e.
Wegen
Z
Rd
Z
min{%k , %ek }(x) dx ≤
Rd
max{%k , %ek }(x) dx
folgt die Behauptung nach Grenzübergang k → ∞.
(ii) kann leicht auf zugehörige Folgen in Cc (Rd ) zurückgeführt werden.
(iii) Dieudonne II, Satz 13.5.2, Seite 111.
(iv) folgt aus (ii). Oder: Forster 3, Seite 42.
(v) Forster 3, Seite 43.
50
S. Hilger, Analysis 3
22.3
Transformationsformel für C ↑ –Funktionen
Hilfssatz 29 Es sei X ⊆ Rd offen und K ⊆ X kompakt.
(i) Dann gibt es eine C ∞ –Funktion Ψ : Rd → [0, 1] mit
Ψ(x) =
1,
0,
falls x ∈ K,
falls x ∈ Rd \ X.
(ii) Es sei % ∈ C ↑ (Rd ) mit supp % ⊆ X. Dann gibt es eine monoton steigende Folge
(%k )k∈N in Cc (Rd ) mit lim %k = % punktweise und
supp %k ⊆ X
für alle k ∈ N.
Beweis
(1) Wähle für jedes y ∈ K eine offene Umgebung Uy mit y ∈ Uy ⊆ X.
(2) Es gibt dann eine der Überdeckung {Uy |y ∈ K} von K unterliegende C ∞ –Zerlegung
der Eins, bestehend aus n Funktionen ψ1 , . . . , ψn mit supp ψj ⊆ X und ψ1 + . . . + ψn ≡ 1
auf K.
(3) Setze einfach Ψ := ψ1 + . . . + ψn .
(4) Zur Aussage (ii): Es gibt eine Folge (e
%k )k∈N ∈ Cc (Rd ), die monoton steigend punktweise
% approximiert. Setze einfach
%k := Ψ · %ek .
Satz 30 (Transformationsformel für C ↑ (Rd )) Es seien X, Y ⊆ Rd offen und ϑ : X →
Y eine bijektive C 1 –Abbildung, wobei ϑ0 (x) invertierbar ist für alle x ∈ X. Weiter sei
% : Y → R eine C ↑ –Funktion mit Träger in Y .
Dann ist die Funktion
 d
 R → R
%(ϑ(x)),
%◦ϑ:
 x 7→
0,
falls x ∈ X,
sonst .
ebenfalls in C ↑ (Rd ) enthalten. Es gilt
Z ↑
Z ↑
%(y) dy =
%(ϑ(x)) · | det ϑ0 (x)| dx.
Beweis Wähle eine approximierende Folge (%k ) für % gemäß dem vorhergehenden Hilfssatz. Es gilt dann
Z ↑
Z ↑
%k (y) dy
%(y) dy = lim
k→∞
Z ↑
Z ↑
S 24
0
= lim
%k (ϑ(x)) · | det ϑ (x)| dx =
%(ϑ(x)) · | det ϑ0 (x)| dx.
k→∞
51
S. Hilger, Analysis 3
Hilfssatz 31 (aus der linearen Algebra) Die beiden folgenden Aussagen über eine
Abbildung ϑ : Rd → Rd sind äquivalent:
(A) Der Abstand zweier beliebiger Vektoren x, y ∈ Rd wird durch ϑ nicht verändert:
kϑ(x) − ϑ(y)k = kx − yk
für alle x, y ∈ Rd .
(B) ϑ hat die Form
ϑ(x) = Ax + b,
wobei A eine orthogonale d × d–Matrix (AT = A−1 ) und b ein Vektor des Rd ist.
Beweis
(1) Wir beschäftigen uns zunächst mit der einfacheren Richtung (B) =⇒ (A): Hier ist
einfach
k(Ax + b) − (Ay + b)k2 = kA(x − y)k2 = hA(x − y), A(x − y)i
T
= [A(x − y)]T A(x − y) = (x − y)T A
| {zA}(x − y)
=I
T
2
= (x − y) (x − y) = kx − yk .
(2) Jetzt sei (A) erfüllt. Wir zeigen der Reihe nach, dass die durch
A(x) := ϑ(x) − ϑ(0)
auf Rd definierte Abbildung
• ebenfalls eine Isometrie und normerhaltend ist,
• das Skalarprodukt invariant lässt,
• linear ist,
• orthogonal ist.
Der erste Punkt ist trivial.
(3) Für zwei Vektoren x, y ∈ Rd gilt:
kx − yk2 = hx − y, x − yi = hx, xi − 2hx, yi + hy, yi
= kxk2 − 2hx, yi + kyk2
= kxk2 − 2hx, yi + kyk2
kA(x) − A(y)k2 = hA(x) − A(y), A(x) − A(y)i
= hA(x), A(x)i − 2hA(x), A(y)i + hA(y), A(y)i
= kA(x)k2 − 2hA(x), A(y)i + kAk2 .
Da A eine Isometrie und normerhaltend ist, folgt die Übereinstimmung der beiden Skalarprodukte in den jeweils letzten Zeilen:
hA(x), A(y)i = hx, yi
für alle x, y ∈ Rd .
52
S. Hilger, Analysis 3
(4) Weiter ist für beliebige x, y ∈ Rd und α, β ∈ R
kA(αx + βy) − [αA(x) + βA(y)]k2
= hA(αx + βy) − [αA(x) + βA(y)], A(αx + βy) − [αA(x) + βA(y)]i
= hA(αx + βy), A(αx + βy)i
− 2hA(αx + βy), [αA(x) + βA(y)]i
+ hαA(x) + βA(y), αA(x) + βA(y)i
= hA(αx + βy), A(αx + βy)i
− 2αhA(αx + βy), A(x)i − 2βhA(αx + βy), A(y)i
+ α2 hA(x), A(x)i + 2αβhA(x), A(y)i + β 2 hA(y), A(y)i
(Schritt 3: Invarianz des Skalarprodukts)
= hαx + βy, αx + βyi
− 2αhαx + βy, xi − 2βhαx + βy, yi
+ α2 hx, xi + 2αβhx, yi + β 2 hy, yi
= 0.
Daraus folgt, dass A linear ist.
(5) Nun ist für alle x, y ∈ Rd wegen
hx, yi = hAx, Ayi = xT AT Ay
AT A = I. Daraus folgt dann mit b := ϑ(0), dass ϑ(x) = Ax + ϑ(0) = Ax + b.
53
S. Hilger, Analysis 3
Korollar 32 Es sei ϑ : Rd → Rd eine Isometrie, das heißt eine affine Abbildung x 7→
Ax + b mit einer orthogonalen Matrix A.
Dann gilt für % ∈ C ↑ (Rd )
Z ↑
Z ↑
%(ϑ(x)) dx.
%(y) dy =
Beweis Es ist
det ϑ0 (x) = A
für alle x ∈ Rd .
Wegen AT A = I ist
(det A)2 = det AT · det A = det(AT · A) = det I = 1,
woraus | det ϑ0 (x)| = | det A| = 1 folgt. Die Aussage folgt dann mit Satz 30 bzw. der
dualen Aussage.
54
S. Hilger, Analysis 3
22.4
Integral für C ↓ –Funktionen
Die Definitionen aus den letzten beiden Abschnitten können komplett dualisiert werden.
Wir stellen die wesentlichen Punkte nochmal kurz heraus:
Satz 33 (und Definition) Wir definieren eine Teilmenge C ↓ (Rd ) von Funktionen Rd →
R durch die folgenden äquivalenten Aussagen:
(A) (Definition) % ∈ C ↓ (Rd ).
(B) Es gibt eine monoton fallende Folge (%k )k∈N mit %k ∈ Cc (Rd ) für alle k, die punktweise gegen % konvergiert.
(C) % ist oberhalbstetig, nimmt den Wert +∞ nicht an. Weiter gibt es eine kompakte
Teilmenge K ⊆ Rd , so dass
{x ∈ Rd |%(x) > 0} ⊆ K.
(D) % ist oberhalbstetig und besitzt eine Majorante %e ∈ Cc (Rd ).
(E) −% ∈ C ↑ (Rd ).
Beachte, dass C ↑ (Rd ) ∩ C ↓ (Rd ) = Cc (Rd ).
Definition Ist % : Rd → R eine Funktion in C ↓ (Rd ), so definieren wir
Z ↑
Z ↓
Z ↓
(−%)(x) dx
oder — äquivalent:
%(x) dx := −
%(x) dx =
Rd
Z
= lim
%k (x) dx,
k→∞
wobei (%k )k∈N irgendeine monoton fallende Folge von Funktionen in Cc (Rd ) ist, die die
gegebene Funktion % als punktweisen Grenzwert besitzt.
Für eine Indikatorfunktion χY einer Teilmenge Y ⊆ Rd kann man jetzt die folgenden
Äquivalenzen aufschreiben:
χY unterhalbstetig
χY ∈ C ↑ (Rd )
χY oberhalbstetig
χY ∈ C ↓ (Rd )
⇐⇒
⇐⇒
⇐⇒
⇐⇒
Y
Y
Y
Y
offen
offen
abgeschlossen
kompakt
Die hier angesprochene merkwürdige Unsymmetrie kommt daher, dass die charakteristische Funktion nicht einer Dualisierung (durch Multiplikation mit −1) unterzogen wird.
55
S. Hilger, Analysis 3
Volumen kompakter Mengen im Rd
22.5
Definition Ist K ⊆ Rd kompakt, so definieren wir das (d–dimensionale) Volumen dieser
Teilmenge durch
Z ↓
χK (x) dx.
vol(K) = vold (K) :=
Die Definition ist mathematisch umsetzbar, da χK ∈ C ↓ (Rd ).
Der folgende Satz listet gleich die grundlegenden Eigenschaften dieses Volumen–Begriffs
auf.
Satz 34 (Eigenschaften des Volumens)
(i) Es sei d = m + n. Die beiden Mengen Km ⊆ Rm , Kn ⊆ Rn seien kompakt. Dann
gilt:
volm+n (Km × Kn ) = volm (Km ) · voln (Kn ).
(ii) (Prinzip von Cavalieri)
Für eine kompakte Menge K ⊆ Rd definieren wir die (d−1)–dimensionalen ,,Schnitte”
Ky := {(x1 , . . . , xd−1 ) ∈ Rd−1 |(x1 , . . . , xd−1 , y) ∈ K}.
Dann gilt:
Z
↓
vold (K) =
vold−1 (Ky ) dy.
R
Beachte dabei, dass der Integrand außerhalb eines kompakten Intervalls Null ist.
(iii) Das Volumen eines kompakten achsenparallelen Quaders ist
vold ([a1 , b1 ] × . . . × [ad , bd ]) = (b1 − a1 ) · . . . · (bd − ad )
(iv) Ist
ϑ:
Rd → Rd
x 7→ Ax + b
eine affine Abbildung, so gilt für das Volumen einer kompakten Menge K ⊆ Rd
vold (ϑ(K)) = | det A| · vold (K).
(v) Beachte bei (iv) die Spezialfälle:
ϑ Isometrie ⇐⇒ A orthogonal =⇒ vold (ϑ(K)) = vold (K).
ϑ Homothetie ⇐⇒ A = α idRd =⇒ vold (ϑ(K)) = αd · vold (K).
56
S. Hilger, Analysis 3
d
Beweis (i) Wir schreiben einen Vektor x ∈ R als x =
y
z
mit y ∈ Rm , z ∈ Rn . Es
gilt dann
Z
↓
volm+n (Km × Kn ) =
χKm ×Kn (x) dx
Rd
(Satz von Fubini)
Z
↓
Z
↓
χKm ×Kn (y, z) dy dz
=
Rn
Z ↓
Rm
Z ↓
Rn
Z ↓
Rm
Z ↓
Rn
Z ↓
χKm (y) dy · χKn (z) dz
Z ↓
χKn (z) dz
χKm (y) dy ·
χKm (y) · χKn (z) dy dz
=
=
=
Rm
Rn
Rm
= volm (Km ) · voln (Kn ).
(ii) Es ist einfach
Z
↓
vold (K) =
Rd
Z
↓
χK (x1 , . . . , xd−1 , xd ) dx
{z
} |{z}
|
z
Z
y
↓
χK (z, y) dz dy
=
R
Z ↓
Rd−1
Z ↓
R
Z ↓
Rd−1
χKy (z) dz dy
=
vold−1 (Ky ) dy.
R
(iii) Für den 1–dimensionalen Quader [a1 , b1 ] gilt
Z ↓
vol([a1 , b1 ]) =
χ[a1 ,b1 ] (x) dx = b1 − a1 .
R
Für die letzte dieser Gleichungen muss man noch überlegen, dass die C ↓ –Funktion χ[a1 ,b1 ]
von oben punktweise durch die Trapezfunktionen in Cc (Rd )

 1, falls x ∈ [a1 , b1 ],
0, falls x ∈ ] − ∞, a1 − k1 ] ∪ ]b1 + k1 , +∞[,
%k (x) =

dazwischen affin interpoliert,
approximiert werden. Die Integrale konvergieren selbstverständlich gegen b1 − a1 .
Für die höherdimensionale Erweiterung führe man Induktion über die Dimension durch.
Beim Induktionsschritt kommt Teil (i) zur Anwendung.
(iv) Ist A invertierbar, so folgt dies mit der Transformationsformel (für C ↓ –Funktionen):
Z ↓
vold (ϑ(K)) =
χϑ(K) (x) dx
57
S. Hilger, Analysis 3
Z
↓
Z
↓
χK (ϑ−1 (x)) dx
=
χK (ϑ−1 (ϑ(x))) · | det A| dx
Z ↓
= | det A| ·
χK (x) dx
=
= | det A| · vold (K).
Im Fall, dass A nicht–invertierbar ist, nehmen wir (O.B.d.A.) an, dass b = 0. Es gibt
eine invertierbare lineare Abbildung (Matrix) B ∈ Rd×d , so dass das Bild BA(K) in der
(d − 1)–dimensionalen Hyperebene {x ∈ Rd |xd = 0} enthalten ist. Für jedes ε > 0 kann
diese Bildmenge in einem Quader
[a1 , b1 ] × . . . × [ad−1 , bd−1 ] × [−ε, +ε]
eingeschlossen werden. Da das Volumen dieser Quader durch Verkleinern von ε beliebig
klein gemacht werden kann, muss
vold (BA(K)) = 0
gelten. Dann gilt aber auch
vold (A(K)) = vold (B −1 BA(K)) = | det B −1 | · vold (BA(K)) = 0 = | det A| · vold (K).
Beispiele
1. Die d Vektoren a1 , . . . , ad ∈ Rd spannen — per definitionem — ein Parallelepiped
(auch: Parallelotop)
P = [0, 1] a1 + [0, 1] a2 + . . . + [0, 1] ad
auf. Da es sich um dabei um das Bild des Einheitswürfels [0, 1]d unter der durch die
Matrix
A=
a1 · · · ad
,
mit den Spaltenvektoren a1 , . . . , ad definierten Abbildung handelt, gilt
vol(P ) = vol(A([0, 1]d )) = | det A| vol([0, 1]d ) = | det A|.
2. Für eine kompakte Menge K ⊆ Rd−1 definieren wir den Zylinder über K durch
cyl(K)
:=
{x ∈ Rd |(x1 , . . . , xd−1 ) ∈ K, xd ∈ [0, 1]}
Es gilt offenbar
vold (cyl(K)) = vold−1 (K).
58
S. Hilger, Analysis 3
3. Für eine kompakte Menge K ⊆ Rd−1 definieren wir den Kegel über K durch
cone(K) := {((1 − y)x1 , . . . , (1 − y)xd−1 , y) ∈ Rd |(x1 , . . . , xd−1 ) ∈ K, y ∈ [0, 1]}
Für die Schnittmengen der Kegel gilt
vold−1 ((cone(K))y ) = (1 − y)d−1 vold−1 (K),
y ∈ [0, 1],
deshalb
Z
1
Z
1
(1 − y)d−1 · vold−1 (K) dy
0
Z 1
Z0 1
d−1
(1 − y) dy · vold−1 (K) =
z d−1 dz · vold−1 (K)
=
vold (cyl(K)) =
vold−1 ((cone(K))y ) dy =
0
1
=
· vold−1 (K).
d
0
59
S. Hilger, Analysis 3
Zunächst Formeln zur Vorbereitung:
Formeln 35 Wir betrachten für n ∈ N0 das bestimmte Integral
Z +1 p
Z +π
Z π
2
2
n−1
n
2
( 1−y )
(i) an :=
dy =
cos x dx = 2
sinn x dx.
− π2
−1
0
(ii) Es gilt die Rekursionsformel
a0 = π,
a1 = 2,
an =
n−1
an−2 ,
n
n ≥ 2.
(iii) Es gilt die Rekursionsformel
an · an−1 =
a0 = π,
2π
,
n
n ≥ 1.
(iv) Es gilt explizit
an =

Q n2
 π · k=1
= π · 12 · 34 · 56 · . . . ·
n−1
,
n
falls n ≥ 2, gerade,
2k
k=1 2k+1
= 2 · 23 · 45 · 67 · . . . ·
n−1
,
n
falls n ≥ 3, ungerade.
Q n−1
2
2·

2k−1
2k
(v) Das Wallis’sche Produkt konvergiert und hat den Wert
∞
Y
π
4k 2
=
.
2
4k
−
1
2
k=1
Beweis (i) Die erste Umformung beruht auf der Substitution y = sin x.
(ii) Wir zeigen die Rekursionsformel für n ≥ 2 mit partieller Integration:
Z
+ π2
Z
n
+ π2
cos x dx =
− π2
=
cosn−1 x · cos x dx
− π2
h
n−1
cos
x sin x
Z
= (n − 1)
+ π2
i+ π2
− π2
−
n−2
cos
− π2
Z
+ π2
(n − 1) cosn−2 x(− sin x) · sin x dx
− π2
Z
x dx + (n − 1)
+ π2
cosn x dx
− π2
Addieren des letzten Terms auf beiden Seiten liefert die Rekursionsformel.
(iii) Wir führen den Beweis mittels Induktion über n ∈ N. Zunächst ist
a1 · a0 = 2π =
2π
,
1
dann weiter
an+1 · an =
n
n−1
2π
2π
IndV n − 1
an−1 ·
an−2 =
·
=
.
n+1
n
n+1 n−1
n+1
60
S. Hilger, Analysis 3
(iv) folgt durch Anwendung von (iii).
(v) Die Folge (an )n∈N ist monoton fallend. Aufgrund von
1 ≥
ist limn→∞
an+1
an+2
n + 1 n→∞
≥
=
−→ 1
an
an
n+2
an+1
an
= 1. Daraus folgt für ` ∈ N und n := 2`
n
`
Y
2
Y
4k 2
4k 2
=
=
2−1
2−1
4k
4k
k=1
k=1
Q (n+1)−1
2
k=1
Q
n
2
k=1
2k
2k+1
2k−1
2k
=
an+1
2
an
π
n→∞
−→
π
.
2
4. Wir betrachten für d ≥ 2 die d–dimensionale Einheitskugel
n
o
d
Bd = x ∈ R kxk ≤ 1 .
Da die Schnittmengen gegeben sind durch
o
( n
p
x ∈ Rd−1 kxk ≤ 1 − y 2 ,
(Bd )y =
∅,
falls |y| ≤ 1,
falls |y| > 1,
ergibt sich
Z
vold (Bd )
+1
=
Z
−1
+1
Z
=
| −1
=
F 35(iii)
=
+1
vold−1 ((Bd )y ) dy =
p
( 1 − y 2 )d−1 vold−1 (Bd−1 ) dy
−1
p
( 1 − y 2 )d−1 dy ·vold−1 (Bd−1 )
{z
}
=ad
ad · ad−1 · vold−2 (Bd−2 )
2π
· vold−2 (Bd−2 ).
d
Beachtet man jetzt als Induktionsanfang die Identitäten
vol1 (B1 ) = 2,
vol2 (B2 ) = π,
so erhält man schließlich für alle d ∈ N


d
π2
d


,
falls
d
gerade
π2
( d2 )!
vold (Bd ) =
=
.
d−1
 2 d+1

Γ(1 + d2 )
2 ·π 2
, falls d ungerade
1·3·...·d
Es wurde dabei noch bemerkt, dass dieser Wert mit Hilfe der Γ–Funktion ausgedrückt werden kann.
61
S. Hilger, Analysis 3
23
23.1
Differentialformen
Die freie Erzeugung eines Vektorraums
Es sei X irgendeine Menge, man denke da etwa an die Mengen
{♣, ♥, ♠, ♦},
{1, . . . , d},
N,
R,
C([0, 1], Y ), (Y metrischer Raum)
Man sei sich bewusst, dass auf der Menge a priori keinerlei algebraische Struktur gegeben
ist. Es kommt in der Mathematik immer wieder vor, dass man die Elemente dieser Menge
,,formal linear kombinieren” will, das heißt, man will Ausdrücke der Form
α1 x1 + α2 x2 + . . . + α` x`
mit reellen Zahlen α` (oder Zahlen eines anderen Körpers) und den Elementen aus X als
Vektoren bilden. Wie aber sollen skalare Vervielfachung und Multiplikation von Elementen irgendeiner Menge zu verstehen sein? Diese Frage kann der Mathematiker mit dem
folgenden etwas abstrakt–algebraischen Trick beantworten, den wir in mehreren Schritten
darlegen
1. Es sei F fin (X, R) die Menge aller Abbildungen
f:
X → R
x 7→ f (x),
die nur für endlich (finit) viele Argumente aus X ungleich Null sind.
2. Unter punktweiser Addition und skalarer Multiplikation wird diese Menge zu einem
R–Vektorraum, man nennt ihn den von der Menge X frei erzeugten R–Vektorraum.
Er wird beispielsweise mit
RX := F fin (X, R)
bezeichnet.
3. Für jedes x ∈ X sei ex ∈ RX definiert als die Abbildung mit
ex (y) =
1,
0,
if y = x,
if y =
6 x.
4. Aufgrund der Finit–Eigenschaft kann jede Abbildung (= Vektor) aus RX eindeutig
als endliche Linearkombination der Vektoren ex , x ∈ X, geschrieben werden. Das
bedeutet, dass die Menge {ex |x ∈ X} eine Basis von RX ist, wir nennen sie die
kanonische Basis. Damit ist die Dimension von RX gleich der Mächtigkeit von X.
5. Zum Schluss schreibt man statt des Basis–Vektors ex einfach x und kann so —
wie eingangs gewünscht — die Elemente von X innerhalb von RX formal linear
kombinieren. X kann dabei als Teilmenge (sogar Basis) aufgefasst werden.
Die vereinfachte Schreibweise mit x statt ex hat aber ihre eigenen Tücken.
62
S. Hilger, Analysis 3
So hat eine eventuell schon vorhandene Addition oder skalare Multiplikation in X
nichts mit der Addition oder skalaren Multiplikation in RX zu tun. So kann man
in N zwei Elemente m, n addieren. Das Ergebnis m + n stimmt aber nicht mit dem
zugehörigen Vektor in RN überein:
em + en 6= em+n .
e ⊆ X eine Teilmenge, so ist RX
e ein Unterraum von RX. Um das einzusehen, muss
Ist X
b bzw. X als Basen in den zugehörigen Vektorräumen denken.
man sich nur wieder X
Ist X = X1 ∪ X2 ∪ . . . ∪ X` eine Zerlegung (disjunkte Vereinigung) der Menge X, so gilt
für die zugehörigen frei erzeugten Vektorräume
RX = RX1 ⊕ RX2 ⊕ . . . ⊕ RX` .
Beispiele
(1) Der R–Vektorraum R{♣, ♥, ♠, ♦} enthält als Vektoren die formalen Linearkombinationen
α ♣ + β ♥ + γ ♠ + δ ♦.
Dieser Vektorraum ist isomorph zum R4 .
(2) Es ist allgemein R{1, . . . , d} ' Rd .
(3) Ist X = N, so erhält man als RN den R–Vektorraum der finiten Folgen, das sind die
Folgen, die nur endlich viele Folgenglieder ungleich Null haben. Dieser Vektorraum ist
(vektorraum–)isomorph zum Vektorraum aller reellen Polynome.
(4) Ist X = C([0, 1], M ) die Menge der Wege in einem metrischen Raum, so kann man in
F fin (C([0, 1], M )) diese Wege formal addieren und skalar vervielfachen. Beachte nochmal,
dass nicht einfach die Bildwerte in M addiert bzw. skalar vervielfacht werden.
63
S. Hilger, Analysis 3
23.2
Die äußere Algebra
V
Rn
a) Wir betrachten im folgenden den Vektorraum Rn der n–Tupel von reellen Zahlen. Die
kanonischen Basis–Vektoren notieren wir in diesem Kapitel mit hochgestellten Indices als
e1 = (1, 0, . . . , 0)T ,
...
en = (0, . . . 0, 1)T ,
ein Vektor v ∈ Rn hat dann eine Basisentwicklung der Form
v=
n
X
vk ek .
k=1
Diese Konvention hat einen tieferen Grund, der mit dem ,,Transformationsverhalten”
der unten einzuführenden Differentialformen zu tun hat. In der multilinearen Algebra,
Tensoranalysis und Differentialgeometrie wird regelrecht ein Kalkül um die hoch- und
tiefgestellten Indices aufgebaut. Dieser wird uns aber nicht beschäftigen.
b) Es sei also nochmal n ∈ N und 0 ≤ p ≤ n. Wir können p verschiedenen Zahlen zwischen
1 und n eineindeutig einen (wachsenden) p–Index
i1 i2 . . . ip = (i1 , i2 , . . . , ip )
mit
i1 < i2 < . . . < ip
zuordnen. Für p = 0 sei der 0–Index eine ,,Leerstelle” t.
Es ist nützlich, im Auge zu behalten, dass zwischen wachsenden p–Indices und p–
Teilmengen
{i1 , i2 , . . . , ip } ⊆ {1, . . . , n}
eine bijektive Zuordnung besteht. Die leere Menge ist dem 0–Index zugeordnet.
n
Wir bezeichnen die Menge aller wachsenden p–Indices mit I (p) und setzen noch
n
I (•) :=
n
[
n
I (p) ,
(disjunkte Vereinigung)
p=0
Der Anknüpfungspunkt für die Auswahl der seltsamen Bezeichnung sind die Mächtigkeiten:
n n (p) (•) n
I
=
,
(∗)
I = 2 n
p
c) Wir erzeugen jetzt frei die endlich–dimensionalen R–Vektorräume
^
n
n
n
p n
R
:= RI (p) = F fin (I (p) , R) = F(I (p) , R)
^
n
n
n
Rn := RI (•) = F fin (I (•) , R) = F(I (•) , R)
V
Die Elemente im Vektorraum p Rn heißen auch kurz p–Vektoren, die Funktionen
 n
 I (p) → R
J
e :
1, falls I = J,
J

I 7→ δI :=
0, falls I 6= J,
n
bilden, wenn J die Menge I (p) aller wachsenden Indices durchläuft, die kanonische Basis.
64
S. Hilger, Analysis 3
Wie in Bemerkung (5) des letzten Abschnitts beschrieben ist
^
^
^
^
Rn = 0 Rn ⊕ 1 Rn ⊕ . . . ⊕ n Rn .
Die Aussagen (∗) über die Mächtigkeiten der Indexmengen sind zugleich Aussagen über
die Dimensionen
V
V
dim( p Rn ) = np ,
dim( Rn ) = 2n .
Nach diesen abstrakten Vorgaben lernen wir ein Beispiel kennen. Wir nehmen n = 4 und
4
stellen die p–Indices und p–Basisvektoren in einer Tabelle zusammen: Die Mengen I (p)
enthalten jeweils die folgenden wachsenden p–Indices
4
4
p
Indices aus I (p) in
Tupel–Schreibweise
Indices aus I (p) in
Mengen–Schreibweise
Zugeordnete
Basisvektoren
Vp
dim( R4 )
0
t
∅
et
1
1
1, 2, 3, 4
{1}, {2}, {3}, {4}
e1 , e2 , e3 , e4
4
2
12, 13, 14, 23, 24, 34
{12}, {13}, {14}, {23}, {24}, {34}
e12 , e13 , e14 , e23 , e24 , e34
6
3
123, 124, 134, 234
{123}, {124}, {134}, {234}
e123 , e124 , e134 , e234
4
4
1234
{1234}
e1234
1
Man überzeugt sich davon, dass
V
V
dim( p R4 ) = p4 ,
dim( R4 ) = 16.
n) Der besondere Clou an dem Vektorraum
sante Multiplikation
^
^
^
∧:
Rn × Rn →
Rn ,
V
Rn ist jetzt, dass man in ihm eine interes-
einführen kann. Man spricht vom Keil–Produkt bzw. der äußeren Multiplikation.
Dies geschieht in mehreren Schritten:
• Für einen wachsenden p–Index I = i1 . . . ip und einen wachsenden q–Index J =
j1 . . . jq , die als Mengen disjunkt sind, sei I|J der wachsende (p + q)–Index, der der
Vereinigung I ∪ J zugeordnet ist.
• Dabei sei εIJ die Anzahl der Paarvertauschungen, die die Reihenfolge richtigstellen:
i1 . . . ip j1 . . . jq
−→
k1 . . . . . . kp+q .
Die Zahl (−1)εI|J ist dann das Signum dieser Permutation.
• Für einen p–Basisvektor eI und einen q–Basisvektor eJ definieren wir jetzt das äußere
Produkt durch
(−1)εI|J · eI|J , falls I und J als Mengen disjunkt sind,
I
J
e ∧ e :=
0, anderenfalls.
65
S. Hilger, Analysis 3
• Zwei beliebige Vektoren v, w besitzen die Basisentwicklungen
v=
X
vI eI ,
w=
n
X
wJ eJ ,
n
I∈I (•)
J∈I (•)
das äußere Produkt dieser beiden Vektoren wird einfach mit Hilfe der Distributiv–
Forderung auf das der Basisvektoren zurückgeführt:
v∧w
=
(
X
vI eI ) ∧ (
n
I∈I (•)
:=
X
X
wJ eJ , )
n
J∈I (•)
vI · wJ · eI ∧ eJ
n
I,J∈I (•)
X
=
vI · wJ · εI|J · eI|J
n
I,J∈I (•)
Satz 36 Die Menge
Gesetze:
V
Rn ist eine R–Algebra, denn es gelten für u, v, w ∈
V
Rn die
(u ∧ v) ∧ w = u ∧ (v ∧ w)
(Assoziativgesetz)
(u + v) ∧ w = (u ∧ w) + (v ∧ w)
u ∧ (v + w) = (u ∧ v) + (u ∧ w)
(Distributivgesetze)
Die Algebra ist (für n ≥ 2) nicht kommutativ, sondern ,,superkommutativ”. Für einen
p–Vektor v und einen q–Vektor w gilt
v ∧ w = (−1)pq w ∧ v.
Das Minuszeichen tritt also genau dann auf, wenn p und q ungerade sind.
Bemerkungen
(1) Wir nehmen noch Notiz von einer Besonderheit. Es ist für alle v ∈
V n
R
et ∧ v = v ∧ et = v
Deshalb kann der Vektor et mit der Zahl 1 und der ,,Operator” αet ∧ · mit der skalaren
Multiplikation α· identifiziert werden. Statt des Vektors et schreibt man einfach die Zahl
1.
(2) Jeder Basis–p–Vektor kann als Produkt von Basis–1–Vektoren geschrieben werden:
ei1 ...ip = ei1 ∧ . . . ∧ eip .
(3) Wir testen das Distributivgesetz an drei Vektoren
u = 2 − 3e1 − 4e2 + 3e14 + e1234
v = 8 + 3e1 + 2e4 + 3e234 − 2e1234
w = −e2 + e23
66
S. Hilger, Analysis 3
Es ist dann
u+v
u∧w
v∧w
(u + v) ∧ w
=
=
=
=
10 − 4e2 + 2e4 + 3e14 + 3e234 − e1234
−2e2 + 2e23 + 3e12 − 3e123 + 3e124 + 3e1234
−8e2 + 8e23 − 3e12 + 3e123 + 2e24 + 2e234
−10e2 + 10e23 + 2e24 + 2e234 + 3e124 + 3e1234
67
S. Hilger, Analysis 3
23.3
Differentialformen
Es sei jetzt X ⊆ Rn eine offene Teilmenge.
Definition Eine Abbildung

n

I (p) × X → R
ω:
(i , . . . , i , x) 7→ ωi1 ...ip (x) = ωI (x)
 |1 {z }p
=I
heißt eine Differentialform der Ordnung p oder kürzer eine p–Form in X.
Bemerkungen
(1) Eine genauere Betrachtung dieser Definition für p = 0 zeigt auf, dass eine 0–Form
einfach eine Abbildung ω : X → R ist.
(2) Für p > n oder p < 0 ist eine p–Form ω per definitionem gleich der Null–Abbildung.
n
(3) Für festes (i1 , . . . , ip ) ∈ I (p) ist ωi1 ...ip : X → R eine reellwertige Funktion auf X. Die
n
Differentialform ω heißt von der Klasse C j , wenn alle Funktionen ω , I ∈ I (p) , von dieser
I
Klasse sind. Wir werden im folgenden nur Differentialformen betrachten, die mindestens
stetig differenzierbar sind.
Die Menge aller stetig differenzierbaren p–Formen in X wird mit Ωp (X) bezeichnet.
S
Weiter sei Ω(X) := np=0 Ωp (X). ?????????? Direkte Summe
n
(4) Für festes x ∈ X ist die Abbildung ω(x) : I (p) → R ein Element des Vektorraums
V
p n
R . Damit sind die Rechenoperationen aus diesem Vektorraum, also Addition, skalare Multiplikation und äußere Multiplikation von Differentialformen durch punktweise
Ausführung definiert: Für zwei Differentialformen ω, η ist
(αω + βη)(x)
(ω ∧ η)(x)
:=
:=
α(ω(x)) + β(η(x))
(ω(x)) ∧ (η(x))
Beachte, dass die äußere Multiplikation mit einer 0–Form η gleich der skalaren Multiplikation mit der Funktion η ist.
n
(5) Für jedes feste j ∈ {1, . . . , n} = I (1) sei die (kanonische) Basis–1–Form dxj dadurch
definiert, dass sie (bzgl. x)–konstant gleich dem kanonischen Basisvektor ej ∈ Rn ist,
anders formuliert:
 n
 I (1) × X → R j
dx :
1, falls i = j,

(i, x) 7→ δij =
0, falls i 6= j.
Wir können damit gleich ein erstes Sätzchen formulieren:
68
S. Hilger, Analysis 3
Sätzchen 37 Jede p–Differentialform ω ∈ Ωp (X) lässt sich eindeutig in der Form
X
X
ω=
. . ∧ dxi}p =
ωi1 ...ip |dxi1 ∧ .{z
ωI dxI
n
n
=:dxI
I∈I (p)
I∈I (p)
darstellen.
Das bedeutet insbesondere, dass sich jede Differentialform aus 0–Formen und Basis–1–
Formen mit Hilfe von Summation und äußerer Multiplikation (inklusive skalarer Multiplikation) aufbauen lässt.
n
Beweis FürV festes x ∈ X ist ω(x) eine Abbildung I (p) → R, damit ein Vektor im
Vektorraum p Rn . Dieser Vektor besitzt eine Basisentwicklung
X
X
ωI (x)eI
ω(x) =
. . ∧ ei}p =
ωi1 ...ip (x) e|i1 ∧ .{z
n
n
=eI
I∈I (p)
I∈I (p)
V
mit den Koeffizienten ωI (x) ∈ R und den Basisvektoren eI ∈ p Rn .
Betrachtet man diese Gleichung wieder als eine für Funktionen auf X, so lautet sie
X
X
ω=
ωI dxI
ωi1 ...ip |dxi1 ∧ .{z
. . ∧ dxi}p =
n
n
=:dxI
I∈I (p)
I∈I (p)
mit den Funktionen ωI : X → R als Funktions–Koeffizienten und den konstanten
Basis–1–Formen
dxj (x) = ej
für alle x ∈ X.
(6) Beachte, dass die Menge Ω0 (X) = C 1 (X, R) der Funktions–Koeffizienten keinen Körper
bildet, da die multiplikative Invertierbarkeit nicht gewährleistet ist. Deshalb ist Ωp (X)
auch kein Ω0 (X)–Vektorraum mit den C 1 –Funktionen X → R als ,,Skalaren”. Es ist
vielmehr so, dass Ωp (X) ein Ω0 (X)–Modul mit dem Ring Ω0 (X) als Skalarenmenge ist.
(7) In dem Sätzchen haben wir zugleich die sogenannten (kanonischen) Basis–p–Formen
dxI definiert. Für festes x ∈ X gilt dxI (x) = eI , sie sind also gar nicht von x abhängig.
In Bezug auf die Abhängigkeit vom p–Index I gilt
( dxI )J = δIJ .
Wir geben die Basis–p–Formen im R4 für p = 1, . . . , 4 an:
p=0:
p=1:
p=2:
p=3:
p=4:
1
dx1 , dx2 , dx3 , dx4
dx12 , dx13 , dx14 , dx23 , dx24 , dx34
dx123 , dx124 , dx134 , dx234
dx1234
(8) Beachte, dass das dx zunächst ein ,,Zwei–Buchstaben–Symbol” ist. Wir werden im
nächsten Abschnitt 23.4 sehen, dass — zumindest bei den 1–Formen dxi — das Symbol
n als ein mathematischer Operator aufgefasst werden kann.
Wir notieren als Beispiel eine Differentialform im R4 :
ω(x) = (x21 + 2x2 x4 ) dx1 − esin(x2 x3 ) dx4 + cos(x1 + x3 · x24 ) dx124
69
S. Hilger, Analysis 3
23.4
Äußere Ableitung einer Differentialformen
Definition Es sei X ⊆ Rn eine offene Menge und Ω(X) die Algebra der stetig
differenzierbaren Differentialformen auf X. Wir definieren einen R–linearen Operator
d : Ω(X) → Ω(X) dadurch, dass wir seine Wirkung auf eine Differentialform
X
ω=
ωI dxI
n
I∈I (p)
durch die Wirkung auf die Summanden der rechten Seite festlegen:
I
d(ωI dx ) :=
n
X
∂k ωI dxk ∧ dxI .
k=1
Für jedes k ∈ {1, . . . , n} wird also die ,,Koeffizienten–Funktion” ωI partiell nach der k–
ten Variablen differenziert, die Differentialform dxI von links mit dxk multipliziert, dann
über alle k addiert.
Man nennt d die äußere oder Cartan–Ableitung.
Wir zeigen dies an einigen Beispielklassen und Beispielen auf:
• p=0
Ist ω : X → R eine C 1 –Funktion (0–Form) auf X, so gilt
dω = ∂1 ω dx1 + . . . + ∂n ω dxn .
Wählt man dabei als Funktion die Koordinatenfunktion
n
R → R
x 7→ x` ,
so erhält man als äußere Ableitung
d(x` ) = ∂1 (x` ) dx1 + . . . + ∂n (x` ) dxn = dx` .
Diese Beobachtung rechtfertigt im Nachhinein die seltsame Zwei–Buchstaben–
Notation für die Basis–1–Formen.
• p = n: Für eine n–Form ω = ω1...n (x) dx1...n gilt
dω(x) = ∂1 ω1...n dx1 ∧ dx1...n + . . . + ∂n ω1...n dxn ∧ dx1...n = 0.
• n = 2, p = 1
Die 1–Form ω = ω1 dx1 + ω2 dx2 besitzt als äußere Ableitung die 2–Form
dω = ∂1 ω1 dx1 ∧ dx1 + ∂2 ω1 dx2 ∧ dx1 +
∂1 ω2 dx1 ∧ dx2 + ∂2 ω2 dx2 ∧ dx2
= [∂1 ω2 − ∂2 ω1 ] dx1 ∧ dx2
70
S. Hilger, Analysis 3
• p=n−1
Die äußere Ableitung einer (n − 1)–Form ω
ω = ω23...n dx23...n + ω13...n dx13...n + . . . + ω12...n−1 dx12...n−1
ist
dω = ∂1 ω23...n dx1...n − ∂2 ω13...n dx1...n ± . . . + (−1)n−1 ∂n ω12...n−1 dx1...n
= [∂1 ω23...n − ∂2 ω13...n ± . . . + (−1)n−1 ∂n ω12...n−1 ] dx1...n .
• n = 3, p = 2
Schreibt man im Fall n = 3 eine 2–Form als
ω = α1 dx2 ∧ dx3 + α2 dx3 ∧ dx1 + α3 dx1 ∧ dx2 ,
so ist
dω = [∂1 α1 + ∂2 α2 + ∂3 α3 ] dx123 .
Der in der eckigen Klammer auftretende Ausdruck ist eng mit einem Differentialoperator namens ,,div” (Divergenz) verknüpft.
• n = 3, p = 1
Die 1–Form ω = ω1 dx1 + ω2 dx2 + ω3 dx3 besitzt als äußere Ableitung die 2–Form
dω = ∂1 ω1 dx1 ∧ dx1 + ∂2 ω1 dx2 ∧ dx1 + ∂3 ω1 dx3 ∧ dx1 +
∂1 ω2 dx1 ∧ dx2 + ∂2 ω2 dx2 ∧ dx2 + ∂3 ω2 dx3 ∧ dx2 +
∂1 ω3 dx1 ∧ dx3 + ∂2 ω3 dx2 ∧ dx3 + ∂3 ω3 dx3 ∧ dx3
= [∂2 ω3 − ∂3 ω2 ] dx2 ∧ dx3 +
[∂3 ω1 − ∂1 ω3 ] dx3 ∧ dx1 +
[∂1 ω2 − ∂2 ω1 ] dx1 ∧ dx2
Diese Formel weist — nicht ganz zufällig — Ähnlichkeiten mit dem Vektorprodukt
im R3 auf. Wir werden später sehen, dass der d–Operator mit einem Differentialoperator names ,,rot” (Rotation, engl.: curl) zusammenhängt.
71
S. Hilger, Analysis 3
Satz 38 (Äußere–Produkt–Regel) Für ω ∈ Ωp (X), η ∈ Ω(X) gilt
d(ω ∧ η) = dω ∧ η + (−1)p ω ∧ dη.
Beweis Aufgrund des Distributivgesetzes für ∧ genügt es, diese Behauptung für eine
p–Form ω = ωI dxI und eine q–Form η = ηJ dxJ zu beweisen.
Äußerst ausführlich rechnen wir nach:
d(ω ∧ η) = d(ωI dxI ∧ ηJ dxJ )
= d(ωI · ηJ dxI ∧ dxJ )
(Definition äußere Ableitung)
n
X
=
∂k (ωI · ηJ ) dxk ∧ dxI ∧ dxJ
(Leibniz–Produktregel für Funktionen)
k=1
=
n
X
(∂k ωI · ηJ + ωI · ∂k ηJ ) dxk ∧ dxI ∧ dxJ
k=1
n
X
=
(∂k ωI · ηJ ) dxk ∧ dxI ∧ dxJ + (ωI · ∂k ηJ ) dxk ∧ dxI ∧ dxJ
=
k=1
n
X
n
X
(−1)p (ωI · dxI ) ∧ (∂k ηJ dxk ∧ dxJ )
(∂k ωI ) dx ∧ dx ∧ (ηJ dx ) +
k
I
J
k=1
k=1
"
#
" n
#
n
X
X
k
I
J
I
p
k
J
=
(∂k ωI ) dx ∧ dx ∧ (ηJ dx ) + (ωI · dx )
(−1) ∧ (∂k ηJ dx ∧ dx )
k=1
k=1
p
= dω ∧ η + (−1) ω ∧ dη.
Satz 39 Ist ω eine Differentialform der Klasse C 2 , so gilt ddω = 0.
Beweis Die Behauptung muss wieder nur für eine Differentialform ω der Form ω = ωI dxI
gezeigt werden. Dafür ist
!
n
n X
n
X
X
k
I
ddω = d
∂k ωI dx ∧ dx =
∂j ∂k ωI dxj ∧ dxk ∧ dxI .
{z
}
|
k=1
j=1 k=1
wjk
Es ist wegen der Vertauschbarkeit der partiellen Ableitungen und der Superkommutativität des Keilprodukts
wjk = ∂j ∂k ωI dxj ∧ dxk ∧ dxI = −∂k ∂j ωI dxk ∧ dxj ∧ dxI = −wkj ,
insbesondere ist wjj = 0. Das aber bedeutet, dass die obige Summation aller Einträge der
schiefsymmetrischen n × n–Matrix W = (wjk ) Null ergibt.
72
S. Hilger, Analysis 3
23.5
Zurückziehen einer Differentialform
Es sei X ⊆ Rn , Y ⊆ Rw offene Teilmengen und f : X → Y eine C 1 –Abbildung.
Ist ω eine Differentialform auf Y , so kann ihr mittels f eine Differentialform f ∗ ω auf X,
wie im Diagramm
f:
f∗ :
X→Y
Ω(Y ) → Ω(X).
verdeutlicht, zugeordnet werden.
Definition Ist
X
ω(y) =
ωi1 ...ip (y) dy i1 ∧ . . . ∧ y ip
|
{z
}
n
I
(
)
dy
p
I∈I
eine p–Differentialform auf Y , so ist
X
f ∗ ω(x) :=
ωi1 ...ip (f (x)) df i1 ∧ . . . ∧ df ip
{z
}
|
n
=:df I
I∈I ( p )
die auf X mittels f zurückgezogene p–Differentialform. Im englischen spricht man vom
“pullback ”.
Dabei sind die 1–Formen df j , j = 1, . . . , w die 1–Formen auf X, die durch äußere Ableitung
(totales Differential) der Koordinatenfunktionen f j entstehen:
j
df =
n
X
∂k f j dxk ,
j = 1, . . . , w.
k=1
Ganz allgemein ist die Zurückholung einer p–Form gegeben durch
X
X X
f∗ :
ωI dy I
7→
det(f 0 )IJ (x) · ωI (f (x)) dxJ
w
w
n
I∈I ( p )
I∈I ( p ) J∈I ( p )
Dabei ist (f 0 )JI die aus der Ableitung f 0 von f durch die p–Indices I (Spalten) und J
(Zeilen) ausgewählte (p × p)–Untermatrix.
Für einige spezielle Fälle wollen wir die zurückgeholten Formen explizit berechnen:
Sätzchen 40 Es seien X, Y, f wie oben.
(i) Für eine 0–Form (= Funktion) ω gilt:
f ∗ ω = ω ◦ f.
(ii) Für eine Basis–1–Form dy j gilt:
∗
j
f ( dy ) = df
j
=
n
X
k=1
∂k f j dxk .
73
S. Hilger, Analysis 3
(iii) Die Dimensionen von X und Y seien gleich: n = w. Dann gilt für die Standard–n–
Form
f ∗ ( dy 1 ∧ . . . ∧ dy n ) = (det f 0 ) dx1 ∧ . . . ∧ dxn .
Die Determinante der n × n–Jacobimatrix f 0 tritt als zusätzlicher Faktor auf.
Übung: Berechne den pullback einer n − 1–Form.
Beweis Wir wiederholen die Definition der zurückgeholten Koordinatenfunktionen
j
df =
n
X
∂k f j dxk ,
j = 1, . . . , n.
k=1
Es ist dann
f ∗ ( dy 1 ∧ . . . ∧ dy n )
=
=
df 1 ∧ . . . ∧ df n
n
n
X
X
1
k1
(
∂k1 f dx ) ∧ . . . ∧ (
∂kn f n dxkn )
k1 =1
=
n
X
···
k1 =1
(∗)
=
kn =1
X
n
X
∂k1 f 1 · · · ∂kn f n dxk1 ∧ . . . ∧ dxkn
kn =1
∂k1 f 1 · · · ∂kn f n dxk1 ∧ . . . ∧ dxkn
K∈Πn
(∗∗)
=
X
∂k1 f 1 · · · ∂kn f n sgn(k1 . . . kn ) dx1 ∧ . . . ∧ dxn
K∈Πn
|
{z
=det Df
}
Wir erläutern noch die gekennzeichnete Umformung: In der zweiten Zeile wird über alle n–
Tupel (k1 , . . . , kn ) von Zahlen aus {1, . . . , n} summiert. Da aber der Faktor dxk1 ∧. . .∧ dxkn
gleich Null wird, sobald zwei dieser Indices übereinstimmen, wird faktisch nur über alle
Permutationen K = (k1 , . . . , kn ) von (1, . . . , n) summiert.
Mit sgn(k1 . . . kn ) haben wir das Signum der Permutation bezeichnet, die das Tupel
(k1 , . . . , kn ) in das Tupel (1, . . . , n) überführt.
Zum Schluss überzeugt man sich, dass oberhalb der geschweiften Klammer exakt der die
Determinante definierende Ausdruck auftritt.
74
S. Hilger, Analysis 3
Satz 41 Es seien wie zuvor X ⊆ Rn , Y ⊆ Rw offene Teilmengen und f : X → Y eine
C 1 –Abbildung.
Für ω, η ∈ Ω(Y ) und α, β ∈ R gilt dann:
(i) f ∗ (αω + βη) = αf ∗ ω + βf ∗ η
(ii) f ∗ (ω ∧ η) = f ∗ ω ∧ f ∗ η
(iii) d(f ∗ ω) = f ∗ (dω)
(Hier muss f ∈ C 2 vorausgesetzt werden).
Beweis Die in (i) aufgeschriebene Linearität ist direkt aus der Definition zu entnehmen.
Der Beweis von (ii) besteht in einem einfachen Nachrechnen bei etwas Schreibaufwand.
n
Die Summationen erstrecken sich jeweils über alle Indices aus I ( • ) .
η
ω
z
zX }|
}|
{
{
X
X
∗
I
J
f ([
ωI (y) dy ] ∧ [
ηJ (y) dy ]) = f ∗ (
ωI (y)ηJ (y) dy I ∧ dy J ) =
I
f ∗(
X
J
I,J
ωI (y)ηJ (y) εI|J dy I|J ) =
I,J
X
X
ωI (f (x))ηJ (f (x)) εI|J df I|J =
I,J
X
X
ωI (f (x))ηJ (f (x)) df ∧ df = [
ωI (f (x)) df I ] ∧ [
ηJ (f (x)) df J ].
I
J
I,J
|I
{z
f ∗ω
}
|J
{z
f ∗η
}
Für (iii) führen wir nacheinander drei Schritte durch.
(1) Wir beschäftigen uns zunächst mit 0–Formen (= Funktionen) ω, es gilt dann aufgrund
der Kettenregel für f ∗ ω ∈ Ω(X)
∗
d(f ω)(x) =
=
n
X
∂k (ω ◦ f )(x) dxk
k=1
n X
w
X
(Kettenregel)
∂j ω(f (x))∂k f j (x) dxk
k=1 j=1
=
w
X
∂j ω(f (x))
j=1
=
w
X
n
X
∂k f j (x) dxk
k=1
∂j ω(f (x)) df j
j=1
= f∗
w
X
∂j ω dy j (x)
j=1
∗
= f (dω)(x).
(2) Als nächstes betrachten wir eine Basis–p–Form
dy I = dy i1 ∧ . . . ∧ dy ip ∈ Ωp (Y ).
Für sie gilt
f ∗ (dy I ) = df i1 ∧ . . . ∧ df ip
75
S. Hilger, Analysis 3
und deshalb aufgrund der Äußere–Produkt–Regel aus Satz 38 und Satz 39 (es fließt die
C 2 –Voraussetzung ein)
d(f ∗ (dy I )) = d df i1 ∧ . . . ∧ df ip = 0
(3) Ist jetzt ω allgemeiner eine p–Form der Gestalt ω = ωI dxI , so ist aufgrund der
Vorarbeiten
d(f ∗ ω)
=
(ii)
d(f ∗ (ωI dy I )) = d(f ∗ (ωI ∧ dy I )) = d(f ∗ ωI ∧ f ∗ (dy I ))
=
d(f ∗ ωI ) ∧ f ∗ (dy I ) + f ∗ ωI ∧ d(f ∗ (dy I ))
(2)
=
d(f ∗ ωI ) ∧ f ∗ (dy I ) =
(1)
f ∗ (dωI ) ∧ f ∗ (dy I ) = f ∗ (dωI ∧ dy I ) = f ∗ (dω)
S. 38
=
(ii)
76
S. Hilger, Analysis 3
Satz 42 Es seien X ⊆ Rn , Y ⊆ Rm und Z ⊆ Rw offene Mengen. Weiter seien die
C 1 –Abbildungen f : X → Y , g : Y → Z gegeben.
Ist ω ∈ Ωp (Z) eine p–Differentialform, so gilt in Ωp (X) die Identität
f ∗ (g ∗ ω) = (g ◦ f )∗ ω.
Im Diagramm veranschaulicht ist dies:
f
X
......................................
Ωp (X)
f∗
......................................
g
Y
Z
......................................
g∗
Ωp (Y )
......................................
Ωp (Z)
Beweis Aufgrund von Sätzchen 37 und Satz 41(ii) genügt es, die obige Aussage für
0–Formen und für Basis–1–Formen ω ∈ Ω(Z) zu beweisen. Für Funktionen ω ∈ Ω0 (Z) ist
aber einfach
f ∗ (g ∗ ω) = (g ∗ ω) ◦ f = (ω ◦ g) ◦ f = ω ◦ (g ◦ f ) = (g ◦ f )∗ ω.
Für eine Basis–1–Formen dz j ∈ Ω1 (Z) gilt
∗
∗
∗
j
∗
j
f (g dz )(x) = f ( dg )(x) = f (
n
X
∂` g j dy ` )(x)
`=1
df ` (x)
=
n
X
∂` g j (f (x))
=
}|
{
∂k f ` (x) dxk
k=1
`=1
=
z
n
X
n
n X
X
∂` g j (f (x)) ∂k f ` (x) dxk
(Kettenregel)
k=1 `=1
n
X
∂k (g j ◦ f )(x) dxk
k=1
=
n
X
∂k ((g ◦ f )j )(x) dxk
k=1
= (g ◦ f )∗ dz j
77
S. Hilger, Analysis 3
24
24.1
Simplexe und Ketten
p–Einheitspolyeder
Für ein fixiertes p ∈ N0 bezeichnen wir mit
e0 = 0,
e1 , . . . , e p
den Nullvektor und die kanonischen Einheitsvektoren im Rp . Wir nennen diese Vektoren
im folgenden kurz Eckvektoren.
Definition Die Teilmenge
Ep = {u ∈ Rp |u1 , . . . , up ≥ 0, u1 + . . . + up ≤ 1}
im Rp heißt der p–dimensionale Einheitspolyeder oder kurz p–Einheitspolyeder. Wir werden diesen Begriff des öfteren mit EP abkürzen.
Es handelt sich um die konvexe Hülle ( = Schnitt aller konvexen Obermengen) der Menge
der p + 1 Eckvektoren {e0 , e1 , . . . , ep } ⊆ Rp .
In der Literatur werden diese Einheitspolyeder durchwegs Einheitssimplexe genannt, wir
wollen von diesem Sprachgebrauch absehen, da das Wort ,,Simplex” bald für weitere
mathematische Objekte benutzt werden wird.
• Für p = 0 ist dies der Nullpunkt im E0 = {0} = R0 .
• Für p = 1 ist dies das Einheitsintervall E1 = [0, 1] ⊆ R1 .
• Für p = 2 ist dies das durch die drei Eckpunkte (0, 0)T , (1, 0)T , (0, 1)T festgelegte
halbierte Einheitsquadrat im R2 .
• Für p = 3 ist dies der durch die Eckpunkte (0, 0, 0)T , (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
definierte Tetraeder im R3 .
r
r
........................................................................
.....
...............
.......................
...............................
.......................................
...............................................
.......................................................
...............................................................
........................................................................
...............................................................................
......................................................................................
...............................................................................................
.......................................................................................................
...............................................................................................................
.....................................................................................................................
p=0
p=1
p=2
r
r
r
r
r
..
................
.....................
...........................................
.
..................................................
.........................................................
.....................................................
...............................................................................................
.
.............................................................................................
...................................................................................................
......................................................................................
....................................................................................................................................................
.
.......................................................................................................................................
...............................................................................................................................................
.....................................................................................................................
........................................................................................................................................................................................................................
.
...................................................................................................................................
.............................................................................................................
....................................................................
.....................................................................................
.
..........................
................................
..............
r
r
p=3
r
78
S. Hilger, Analysis 3
24.2
p–Simplexe
Vereinbarung: Es seien Y ⊆ Rp , X ⊆ Rn beliebige (nicht notwendig offene) Teilmengen.
Eine Abbildung f : Y → X heißt stetig differenzierbar bzw. von der Klasse C 1 , wenn es
• eine offene Menge Ye mit Y ⊆ Ye ⊆ Rp ,
e mit X ⊆ X
e ⊆ Rn
• eine Menge X
und
e
• eine C 1 –Abbildung fe : Ye → X
gibt, so dass die Abbildung f erweitert wird: fe(y) = f (y) für alle y ∈ Ye .
Definition Es sei p ∈ N0 und Ep der p–dimensionale Einheitspolyeder. X ⊆ Rn bezeichne
eine offene Teilmenge.
(1) Eine C 1 – Abbildung σ : Ep → X heißt einfach ein p–Simplex (in X) mit Parameterbereich Ep .
(2) Die Menge aller p–Simplexe in X bezeichnen wir mit Σp (X).
Beachte, dass ein p–Simplex eine Abbildung nach X, nicht eine Teilmenge von X, ist.
Die Bildmenge eines p–Simplex kann durchaus ,,niedrigdimensional” oder selbstdurchdringend sein.
Beachte weiter, dass ein 0–Simplex eine Abbildung {0} → Rn , also einfach die Auswahl
eines (Bild–)Punktes aus X ist.
Zeichnungen
24.3
p–Ketten
Definition Es sei X ⊆ Rn offen.
(1) Eine p–Kette in X ist eine formale Linearkombination von p–Simplexen in X, das
heißt ein Ausdruck der Form
m
X
ψ = α1 σ1 + α2 σ2 + . . . + αm σm =
α` σ`
`=1
mit reellen Zahlen α` und p–Simplexen σ` : Ep → X, ` = 1, . . . , m.
Addition und skalare Vervielfachung sind im Sinne von Abschnitt 23.1 zu verstehen, es
geht nicht um die punktweise Ausführung in der Wertemenge X der Simplexe.
(2) Die Menge aller p–Ketten in X wird mit
Ψp (X) := RΣp (X)
bezeichnet.
Beachte wieder, dass eine 0–Kette eine Linearkombination von 0–Simplexen, also letztlich
eine Linearkombination von Punkten aus X ist.
Zeichnungen
79
S. Hilger, Analysis 3
24.4
Der Seit–Operator
Wir wollen für Simplexe und Ketten zunächst einen Seit–Operator (engl.: face operator)
und dann im nächsten Abschnitt einen Rand–Operator (border operator) definieren.
Die Definition des Seit–Operators wird über mehrere Zwischenschritte aufgebaut, wir
wollen uns zunächst einen Überblick verschaffen.
(0) Es sei p ∈ N0 fixiert. Wir betrachten zusätzlich eine Zahl q mit 0 ≤ q ≤ p und dann
einen wachsenden (q + 1)–Index
p+1
I = i0 i1 . . . iq ∈ I (q+1) mit Elementen i` ∈ {0, . . . , p} für ` = 0, . . . , q.
Wir können einem solchen Index verschiedene Abbildungen zuordnen, die wir
zunächst in der folgenden Tabelle auflisten und dann weiter erläutern.
Mengentyp
Mengenebene
Elementebene
J ·I
(1)
endlich
I : {0, 1, . . . , q} → {0, 1, . . . , p}
` 7→ i`
J ◦I
(2)
Vektorraum
seI : Rq → Rp
e` 7→ ei`
seJ ◦ seI
(3)
EP
sI : Eq → Ep
e` 7→ ei`
sJ ◦ sI
(4)
Simplex
δeI : Σp (X) → Σq (X)
δeI ◦ δeJ
(5)
Kette
δI : Ψp (X) → Ψq (X)
σ 7→ σ ◦ sI
Pk
Pk
`=1 α` σ` 7→
`=1 α` (σ` ◦ sI )
δI ◦ δJ
(1) Zunächst kann ein wachsender (q + 1)–Index I = i0 . . . iq als eine streng monoton
wachsende Abbildung
I:
{0, 1, . . . , q} → {0, 1, . . . , p}
` 7→ i`
aufgefasst werden. Das bedeutet auch, dass man zwei Indices
I = i0 . . . iq : {0, . . . , q} → {0, . . . , p}
und
J = j0 . . . jp : {0, . . . , p} → {0, . . . , r}
hintereinander ausführen kann. Wir nennen die durch
(J ◦ I)(`) = J(I(`)) = J(i` ) = ji`
für ` = 0, . . . , q.
gebildete Abbildung einfach das Produkt J · I der Indices J und I und bezeichnen
sie durch
J · I := J ◦ I = ji0 . . . jiq .
(2) In Abhängigkeit von dem wachsenden (q + 1)–Index I = i0 . . . iq definieren wir eine
q–Standard–Affin–Abbildung
seI : Rq → Rp
80
S. Hilger, Analysis 3
durch


u1


seI  ...  = u1 ei1 + . . . + uq eiq + (1 − u1 − u2 − · · · − uq )ei0 .
uq


u1


ei1 − ei0 , ei2 − ei0 · · · eiq − ei0  ...  + ei0
=
uq
Man sieht leicht, dass diese Abbildung auf die Eckvektoren wirkt durch
seI : Rq 3 e` 7→ ei` ∈ Rp ,
` = 0, . . . , q.
Daraus ist auch zu ersehen, dass durch die affine Abbildung umgekehrt der Index I
eindeutig bestimmt ist.
Sind zwei Indices I und J gegeben, so ist dem Produkt auch die Hintereinanderausführung der affinen Abbildungen zugeordnet:
seJ·I = seJ ◦ seI .
(3) Die Abbildung seI kann auf den Einheitspolyeder Eq ⊆ Rq eingeschränkt werden,
tatsächlich ist
Eq → Ep
sI :
x 7→ seI (x)
wohldefiniert. Das Bild unter seI des q–Einheitspolyeder Eq ist, wie man sofort sieht,
im p–Einheitspolyeder Ep enthalten. Wir nennen die Abbildung sI bzw. ihr Bild
sI (Eq ) den affinen q–Seit–Polyeder des EP Ep (zum (q + 1)–Index I). Wir betonen
noch einmal die Korrespondenz:
p+1
(q + 1)–Index in I (q+1)
∼ q–Seit–Polyeder des p–Einheitspolyeder.
Zeichnungen für p = 3 und q = 0, 1, 2.
Beispiele: Wir notieren die Spezialfälle für kleine und große q:
q= 0 Für einen 1–Index i, i ∈ {0, . . . , p}, ist die Abbildung si : {0} → Ep gegeben
durch
si (0) = ei .
Die Abbildung sucht einfach den i–ten Eckvektor des p–Einheitspolyeders Ep
heraus.
81
S. Hilger, Analysis 3
q= 1 Zum 2–Index i0 i1 gehört der affine 1–Seit–Polyeder si0 i1 : E1 → Ep . Die Werte
an den beiden Endpunkten des Intervalls E1 = [0, 1] sind
si0 i1 (0) = ei0 ,
si0 i1 (1) = ei1 .
Ein 1–Seit–Polyeder ist also einfach die (orientierte) Verbindungsstrecke zwischen zwei Eckvektoren, er bildet eine Kante.
q = p − 1 Für einen p–Index 0 . . . rb . . . p mit 1 ≤ r ≤ p (der Hut–Operator bedeutet: Weglassen!) ist der zugehörige (p − 1)–Seit–Polyeder s0...br...p : Ep−1 → Ep gegeben
durch


u1
 . 

  .. 


u1
 ur−1 
 ..  

s0...br...p  .  =  0  ← r–te Zeile.


 ur 
up−1
 . 
 .. 
up−1
Das Bild in Ep ist der (p − 1)–Seit–Polyeder, der genau den Eckpunkt er nicht
enthält.
Für den p–Index 1 . . . p (0 wird also weggelassen) ist der zugehörige (p − 1)–
Seit–Polyeder s1...p : Ep−1 → Ep gegeben durch




1 − u1 − . . . − up−1
u1


u1
 ..  

s1...p  .  = 

..


.
up−1
up−1
q = p Der (einzig mögliche) p–Seit–Polyeder gehört zum (p + 1)–Index 0 . . . p, es handelt sich um die Abbildung s01...p = idEp . Der Seit–Polyeder von Ep ist der
Einheitspolyeder Ep selbst.
Beispielsweise sind einige Seit–Polyeder von E3 gegeben durch
s01 (u)
s12 (u)
s13 (u)
s23 (u)
s123 (u1 , u2 )
=
=
=
=
=
(e1 − e0 )u + e0 = (1 − u)e0 + ue1 ,
u ∈ [0, 1]
(e2 − e1 )u + e1 = (1 − u)e1 + ue2 ,
u ∈ [0, 1]
(e3 − e1 )u + e1 = (1 − u)e1 + ue3 ,
u ∈ [0, 1]
(e3 − e2 )u + e2 = (1 − u)e2 + ue3 ,
u ∈ [0, 1]
(e2 − e1 , e3 − e1 )u + e1 = (1 − u1 − u2 )e1 + u1 e2 + u2 e3 ,
(u1 , u2 ) ∈ E2 .
(4) Jedem p–Simplex σ : Ep → X kann mit Hilfe des (q + 1)–Index I = i0 . . . iq ein
q–Simplex zugeordnet werden, nämlich durch die Rechts–Hintereinanderausführung
mit Hilfe des affinen Simplex sI . Man erhält also eine Abbildung
Σp (X) → Σq (X)
δeI :
σ 7→ σ ◦ sI ,
82
S. Hilger, Analysis 3
die wir den Seit–Operator (zum Index I) nennen. Im Diagramm:
E........q......................s............I..................................................s........................I..........(Eq )
σ X
...........................................................................
....
................
..00
...................00
....................20
...................03
....................................................................................................................................................................................................................................................................................................................
Wir überlegen noch sorgfältig, welche Abbildung dem Produkt J · I zweier wachsender Indices J und I zugeordnet ist. Es ist für σ ∈ Σp (X):
δeJ·I (σ) := σ ◦ sJ·I = σ ◦ (sJ ◦ sI ) = (σ ◦ sJ ) ◦ sI = δeI (σ ◦ sJ ) = δeI (δeJ (σ)),
also
δeJ·I = δeI ◦ δeJ .
Für den Spezialfall q = 0 und den Index I = i ∈ {0, . . . , p} erhalten wir als Abbildung
δeI = δei :
Σp (X) → Σ0 (X)
σ 7→ σ ◦ si : {0} 7→ σ(ei ).
(5) Den Seit–Operator δeI kann man sofort für Ketten erweitern, indem man man ihn
termweise für die Summanden in der Kette anwendet:
Ψ (X) → Ψq (X)
Pm
Pm
Pm p
δI :
e
ψ = `=1 α` σ` 7→
`=1 α` (σ` ◦ sI )
`=1 α` (δI σ` ) =
Es gilt dann selbstverständlich auch
δJ·I = δI ◦ δJ .
83
S. Hilger, Analysis 3
24.5
Der Rand–Operator
Es sei p ∈ N0 fest gegeben. Wir betrachten für ein festes r ∈ {0, . . . , p} den wachsenden
p–Index
p+1
p
0 . . . rb . . . p ∈ I (
)
der genau alle Zahlen zwischen 0 und p (in aufsteigender Reihenfolge) mit Ausnahme
von r enthält. Für p = 0 und den 1–Index i ist rb = bi der leere 0–Index.
Diesem p–Index ist gemäß letztem Abschnitt der affine (p − 1)–Seit–Polyeder
s0...br...p : Ep−1 → Ep ,
zugeordnet, der den (p − 1)–Einheitspolyeder Ep−1 genau auf die (p − 1)–dimensionale
Seitenfläche s0...br...p (Ep−1 ) von Ep mit den Eckvektoren e0 , e1 , . . . , ebr , . . . , ep (eben unter
Auslassung des Eckvektors er ) abbildet.
Entsprechend ist diesem p–Index auch der Seit–Operator
Σp → Σp−1
δe0...br...p :
σ ◦ s0...p 7→ σ ◦ s0...br...p
zugeordnet, der einen p–Simplex σ = σ ◦s0...p : Ep → X auf den (p−1)–Simplex σ ◦s0...br...p
abbildet. Im Diagramm veranschaulicht ist dies:
r...p
............
X.......
Ep−1 ................s.........0...b
r...p (Ep−1 ) ..σ
........................ s0...b
..............................
......................................................................
.. .................
..
............
..........................................................................................
...
Die Menge in der Mitte ist der (p − 1)–dimensionale Seit–Polyeder, der bei Weglassen des
Eckvektors eir entsteht.
Entsprechend wirkt der Seit–Operator auch durch termweise Anwendung auf p–Ketten:
Ψp → Ψp−1
Pm
δ0...br...p : Pm
e r...p σ` )
`=1 α` (δ0...b
`=1 α` σ` 7→
Definition Der Rand–Operator ∂ : Ψp (X) → Ψp−1 (X) ist definiert als die alternierende
Summe aller Seit–Operatoren:
∂ :=
p
X
(−1)r δ0...br...p = δ1...p − δ02...p + δ013...p ± . . . + (−1)p δ0...p−1 .
r=0
Die Wirkung auf eine p–Kette ψ =
∂ψ =
p
X
r=0
Pm
`=1
α` σ` ist also
p
m
X
X
r
(−1) δ0...br...p ψ. =
(−1)
α` (σ` ◦ s0...br...p ).
r
r=0
`=1
Für p = 0 ergänzen wir die Definition dadurch, dass wir ∂ = 0 auf Ψ0 (X) setzen.
Bemerkungen (1) Diese Definition des Rand–Operators ist der Grund dafür, dass man
statt einzelner p–Simplexe ganze p–Ketten von Simplexen betrachtet.
(2) Es wäre auch möglich, schon vorher (bzgl. der Tabelle auf Seite 79) Seit– und Rand–
Operatoren für Ketten von Indices oder von affinen Simplexen einzuführen und in diesem
abstrakteren Rahmen den folgenden Satz zu beweisen.
84
S. Hilger, Analysis 3
Satz 43 Es sei p ∈ N0 , X ⊆ Rn offen und ψ ∈ Ψp (X) eine p–Kette. Dann gilt:
∂ ∂ ψ = 0.
Beweis Für p ≤ 1 ist die Aussage trivial, so dass wir p ≥ 2 annehmen.
Da die Rand–Operatoren termweise auf die Simplex–Summanden einer p–Kette wirken,
können wir annehmen, dass die p–Kette ψ gleich einem p–Simplex σ ∈ Σp (X) ist.
Es gilt dann
p
p
X
X
r
(−1)r (σ ◦ s0...br...p ).
(−1) δ0...br...p (σ) =
∂σ =
r=0
r=0
Wendet man dann den Seit–Operator δ0...bt...p−1 auf den (p − 1)–Simplex σ ◦ s0...br...p an, so
erhält man
σ ◦ s0...bt...br...p , falls t < r,
δ0...bt...p−1 (σ ◦ s0...br...p ) = σ ◦ s0...br...p ◦ s0...bt...p−1 =
σ ◦ s0...br...[
falls t ≥ r.
t+1...p ,
Wendet man den Rand–Operator ein zweites mal an, so erhält man
!
p
X
(−1)r (σ ◦ s0...br...p )
∂∂σ = ∂
r=0
p
=
X
(−1)r ∂ (σ ◦ s0...br...p )
r=0
p
X
=
(−1)r
r=0
p
#
(−1)t (σ ◦ s0...br...p ◦ s0...bt...p−1 )
t=0
X
=
(−1)r
r=0
" r−1
X
#
p−1
X
(−1)t (σ ◦ s0...bt...br...p ) +
(−1)t (σ ◦ s0...br...[
t+1...p )
t=0
p
X
=
(−1)r
=
" p−1
X
r=0
p
r−1
X
X
" r−1
X
t=r
p
(−1)t (σ ◦ s0...bt...br...p ) +
t=0
(−1)r+t (σ ◦ s0...bt...br...p ) +
r=0
t=0
p
#
X
(−1)t−1 (σ ◦ s0...br...bt...p )
t=r+1
p
X X
(−1)r+t−1 (σ ◦ s0...br...bt...p )
r=0 t=r+1
Für je zwei Zahlen m, n ∈ {0, . . . , p} mit m < n tritt der Summand σ ◦ s0...m...b
b n...p in dieser
Summe zweimal auf, nämlich . . .
• genau einmal in der Doppelsumme links mit dem
Summationsindexpaar (m, n) = (t, r),
• genau einmal in der Doppelsumme rechts mit dem
Summationsindexpaar (m, n) = (r, t).
Da diese beiden Summanden unterschiedliches Vorzeichen haben, heben sie sich weg.
Andere Summanden treten gar nicht auf, also ist die Gesamt–Summe Null.
85
S. Hilger, Analysis 3
24.6
Vorwärtsschieben einer p–Kette
Eine vergleichsweise einfache, aber etwas abstrakt anmutende Definition ist die folgende
Definition Es seien X ⊆ Rn , Y ⊆ Rm offen und f : X → Y eine C 1 –Abbildung.
Ist σ : Ep → X ein p–Simplex in X, so heißt die Abbildung
f∗ σ := f ◦ σ : Ep → Y
der mittels f nach Y vorwärtsgeschobene p–Simplex (in Y ). Im englischen spricht man
vom “pushforward ”.
Dies kann sofort wieder für p–Ketten erweitert werden, indem man das Vorwärtsschieben
termweise anwendet:
m
m
X
X
f∗ (
α` σ` ) :=
α` (f∗ σ` ).
`=1
`=1
Es ist unmittelbar klar, dass für zwei C 1 –Abbildungen f : X → Y und g : Y → Z gilt:
(g ◦ f )∗ = g∗ f∗ .
Der Rand–Operator und das Vorwärtsschieben passen in folgendem Sinne zusammen:
Sätzchen 44 Es seien X, Y und f : X → Y wie oben. Dann gilt für eine p–Kette
ψ ∈ Ψp (X)
f∗ (∂ψ) = ∂(f∗ ψ).
Beweis Da beide Operatoren termweise auf die p–Simplexe in der p–Kette wirken, genügt
es, die Beziehung für einen p–Simplex σ : Ep → X zu durchzurechnen, was wir (sehr)
ausführlich tun:
p
p
X
X
r
f∗ (∂σ) = f∗ [ (−1) (σ ◦ s0...br...p )] =
(−1)r f∗ (σ ◦ s0...br...p )
r=0
=
p
X
(−1)r (f ◦ σ ◦ s0...br...p ) =
r=0
r=0
p
X
(−1)r (f ◦ σ) ◦ s0...br...p
r=0
= ∂(f ◦ σ) = ∂(f∗ σ)
86
S. Hilger, Analysis 3
25
25.1
Der Satz von Stokes
Integration über den Einheitspolyeder
Es sei Ep wieder der p–Einheitssimplex. Eine stetige Abbildung % : Ep → R kann durch
Multiplikation mit der Indikator–Funktion χEp sinnvoll zu einer Abbildung auf ganz Rp
fortgesetzt werden:
 p
 R → R
%(u), falls u ∈ Ep ,
% · χEp :
 x 7→
0, sonst.
Da diese Funktion in C ↓ (Rp ) enthalten ist, ist das Integral
Z ↓
Z
%(u) · χEp (u) du
%(u) du :=
Rp
1
Ep
Z
Z
1−up
Z
1−u3 −...−up
Z
0
0
1−u2 −...−up
%(u1 , . . . , up ) du1 · · · dup .
···
=
0
0
wohldefiniert. Der Ausdruck in der unteren Zeile ergibt sich aus der Definition der Einheitspolyeder in Verbindung mit dem Satz 28(iv) von Fubini.
87
S. Hilger, Analysis 3
25.2
Integration von p–Formen über p–Ketten
p–Formen und p–Ketten gehen über die folgende fundamentale Definition eine weittragende und tiefliegende Verbindung ein.
Definition
(1) Es sei zunächst σ ein p–Simplex und eine p–Form ω = ωI dxI in der offenen Menge
X ⊆ Rn .
Die Zahl
Z
Z
Z
I
ω = ωI dx :=
σ
σ
ωI (σ(u)) · det σ 0I (u) du1 . . . dup
Ep
heißt das Integral der p–Form ω über dem p–Simplex σ.
Dabei ist die Determinante unter dem Integral auf der rechten Seite die der p × p–
Jacobimatrix




∂1 σ i1 (u) · · · ∂p σ i1 (u)
σ i1




..
..
σ 0I = D  ...  (u) = 
.
.
.
∂p σ ip (u) · · · ∂p σ ip (u)
σ ip
(2) Das Integral lässt sich auf ,,natürliche Weise” auf p–Ketten
ψ=
m
X
α` σ `
`=1
und p–Formen der Gestalt
X
ω=
ωI dxI
n
I∈I (p)
erweitern, indem man die Bilinearität fordert:
Z
Z
m
X
X
ω :=
α`
ωI dxI
ψ
σ`
n
`=1
I∈I (p)
(3) Es ist insgesamt eine Abbildung
Z Ψp (X) × Ωp (X) → R
R
:
(ψ, ω) 7→ ψ ω
entstanden. Sie heißt das Integral der p–Form ω über die p–Kette ψ.
Beispiel: Ein 1–Simplex ist eine stetig differenzierbare Kurve γ : [0, 1] → X. Ist weiter
ω = ωi dxi eine 1–Form in X, so ergibt sich als Integral
Z
Z
ω=
ωi (γ(u))(γ i )0 (u) du.
γ
[0,1]
Das Integral heißt in diesem Fall auch Kurvenintegral.
88
S. Hilger, Analysis 3
Dass die obige technische Definition eines Integrals, insbesondere der zusätzliche Determinantenfaktor im Integranden, sinnvoll ist, stellt das folgende Sätzchen heraus:
Sätzchen 45 (Umparametrisierung Einheitspolyeder) Es sei ϑ : Ep → Ep ein orientierungserhaltender C 1 –Diffeomorphismus des p–Einheitspolyeders.
Orientierungserhaltung bedeutet dabei, dass die Determinante der Ableitung durchwegs
positiv ist: det ϑ0 (x) > 0 für alle x ∈ Ep .
Dann gilt für einen p–Simplex σ und eine p–Form ω
Z
Z
ω=
ω,
σ
σ◦ϑ
d.h. der Wert des Integrals ändert sich bei einer orientierungserhaltenden Umparametrisierung des Simplex nicht.
Beweis Es genügt, den Fall ω = ωI dxI für einen fest gegebenen p–Index I zu betrachten.
Dafür gilt mit der Transformationsformel Satz 30 — dualisiert für C ↓ –Funktionen —
Z
Z
ω :=
ωI (σ(ϑ(u))) det((σ ◦ ϑ)I )0 (u) du
σ◦ϑ
E
Z p
=
ωI (σ(ϑ(u))) det σ 0I (ϑ(u)) det ϑ0 (u) du
E
Z p
=
ωI (σ(ϑ(u))) det σ 0I (ϑ(u)) | det ϑ0 (u)| du
E
Z p
S 30
=
ωI (σ(v)) det σ 0I (v) dv
E
Z p
=:
ω
σ
89
S. Hilger, Analysis 3
Satz 46 Es seien X ⊆ Rn , Y ⊆ Rm offen, f : X → Y eine C 1 –Abbildung.
Ist ψ eine p–Kette in X und ω eine p–Form in Y , so gilt
Z
Z
ω=
f ∗ ω,
etwas formaler: (f∗ ψ, ω) = (ψ, f ∗ ω).
f∗ ψ
ψ
Beweis (1) Wir beweisen zunächst die folgende Aussage:
Ist σ : Ep → X ein p–Simplex in X und s0...p : Ep → Rp der ,,identische” (kanonische)
p–Simplex (bzw. Seit–Operator) im Rp , so gilt
Z
Z
ω=
σ ∗ ω.
σ
s0...p
Beachte dabei, dass σ auf eine offene Umgebung von Ep stetig differenzierbar fortgesetzt
werden kann und deshalb der Pullback wohldefiniert ist.
Es genügt wiederum, den Fall ω = ωI dxI für einen fest gegebenen p–Index I zu betrachten.
Mit Sätzchen 40 erhalten wir
Z
Z
ω :=
ωI (σ(u)) det σ 0I (u) du
σ
E
Z p
=:
(ωI ◦ σ) det σ 0I du1 ∧ . . . ∧ dup
s
Z 0...p
S 40
=
(ωI ◦ σ) dσ i1 ∧ . . . ∧ dσ ip
s
Z 0...p
=
σ ∗ ω.
s0...p
(2) Als nächstes gilt mit Satz 42:
Z
Z
Z
(1)
∗
ω=
(f∗ σ) ω =
f∗ σ
s0...p
s0...p
∗
S 42
Z
(f ◦ σ) ω =
∗ ∗
(1)
Z
σ f ω=
s0...p
f ∗ ω.
σ
(3) Durch Linearkombination erhält man die Erweiterung von Simplexen σ auf Ketten ψ.
90
S. Hilger, Analysis 3
25.3
Der Satz von Stokes
Satz 47 (Stokes) Ist ψ eine p–Kette in X der Klasse C 2 und ω eine (p − 1)–Form der
Klasse C 1 in X ⊆ Rn , so gilt:
Z
Z
dω =
ω
oder formaler: (ψ, dω) = (∂ψ, ω).
ψ
∂ψ
Beweis Der Beweis ist ein Lehrstück in Bezug auf die ,,Reduktion auf den einfachsten
Fall”. Dies geschieht in mehreren Schritten.
(1) Wegen der Linearität bzgl. der Ketten genügt es, die Formel
Z
Z
dω =
ω
σ
∂σ
für einen p–Simplex σ : Ep → X der Klasse C 2 zu beweisen.
(2) Mit den jeweils angegebenen Sätzen gilt
Z
Z
Z
Z
(∗)
S 41(iii)
S 46
∗
dω =
dω =
σ (d ω) =
d (σ ∗ ω)
σ
σ s
s
s0...p
Z
Z 0...p
Z ∗ 0...p
Z
(∗)
S 46
S 44
ω =
σ∗ω
ω =
ω =
σ∗ (∂s0...p )
∂(σ∗ s0...p )
∂σ
∂s0...p
Beachte für (∗) jeweils, dass σ auf eine offene Umgebung Y von Ep stetig differenzierbar
fortgesetzt werden kann und deshalb der Pullback–Operator σ ∗ wohldefiniert ist.
Das bedeutet, dass wir die Formel in (1) nur für den Simplex s0...p = idEp — und beliebige
(p − 1)–Formen η in Y ⊆ Rp — beweisen müssen:
Z
Z
dη =
η.
s0...p
∂s0...p
(3) Eine beliebige (p − 1)–Form η in Y wiederum hat die Darstellung
η=
p
X
η1...br...p dy 1...t...p .
b
t=1
Es genügt also, den Stokes’schen Satz für eine (p − 1)–Form λ zu zeigen, die — bei ab
jetzt fixiertem t ∈ {1, . . . , p} — die Gestalt
λ dy 1...t...p
b
eines solchen Summanden hat. λ ist dabei eine C 1 –Funktion Y → R. Es muss jetzt also
die Formel
Z
Z
b
1...b
t...p
d (λ dy
)=
λ dy 1...t...p
s0...p
∂s0...p
gezeigt werden.
(4) Gemäß Definition des Integrals und der äußeren Ableitung ist die linke Seite gleich
Z
Z
Z
1...b
t...p
t−1
1...p
t−1
d (λ dy
)=
(−1) ∂t λ dy
= (−1)
∂t λ(u) du.
s0...p
s0...p
Ep
91
S. Hilger, Analysis 3
(5) Um die rechte Seite der Formel in (3) zu berechnen, nehmen wir uns den Rand von
s0...p vor. Es ist
∂s0...p
p
X
(−1)r s0...br...p ,
=
r=0
demzufolge
Z
λ dy
1...b
t...p
Z
p
X
r
(−1)
=
∂s0...p
=
Ep−1
b
s0...b
r ...p
r=0
Z
λ dy 1...t...p
"
p
#
X
b
1...
t
...p
(−1)r λ(s0...br...p (v)) det(s0...br...p )0 (v) dv.
r=0
Als Parametervariable in Ep−1 benutzen wir hier v = (v1 , . . . , vp−1 ).
(6) Um die auftretenden Determinanten auszurechnen, betrachten wir die zugehörigen
affinen (p − 1)–Simplexe s0...br...p : Ep−1 → Ep , die wir bereits in Abschnitt 24.4 angegeben
haben. Es ist
 

1 − (v1 + . . . + vp−1 )



v1





..

 , falls r = 0,


.



vp−1


 





v1

v1
 .. 
s0...br...p  .  =
 ... 







vp−1
v

r−1

 0 


r–te Zeile → 
 , falls 1 ≤ r ≤ p.


 vr 






.. 



.


vp−1
Die Ableitungen dieser Abbildungen
























1




 0
(s0...br...p )0 =
 .


 ..





 0




r–te Zeile →  0



 0





 ..


 .


 .


 ..



0
sind die (konstanten) p × (p − 1)–Matrizen:


−1
1
−1
0
.
0
1
..
.
···


 0
 .
 .
··· ···
..
.
.. ..
.
.
. ..
··· 0
1
··· ··· 0
··· ··· 0
···
···
···
0
..
.
···
···
0
0
1
..
.
···
···
···
..
.
..
.
0
···
−1
0
..
.
0
1
0
..
.
..
.
··· ··· 0
··· ··· 0
0 ··· 0
.
..
.
. . . ..
..
.
. .. 0
··· 0 1


,


falls r = 0,








,






falls 1 ≤ r ≤ p.
92
S. Hilger, Analysis 3
t...p
Da s1...
r...p durch Streichung der t–ten Zeile hervorgehende
0...b
r...p : Ep−1 → Ep−1 die aus s0...b
Abbildung ist, ist dies entsprechend auch für die Ableitung der Fall.
b
t...p 0
(s1...
0...b
r...p ) ist die (p − 1) × (p − 1)–Matrix, die aus der zugehörigen p × (p − 1)–Matrix
(s0...br...p )0 durch Streichung der t–ten Zeile hervorgeht. Wir wollen jeweils die Determinanten berechnen.
b
Für r = 0 und t = 1 ist die entstehende Matrix die (p − 1) × (p − 1)–Einheitsmatrix,
deshalb
det(sb12......p
)0 = 1.
01......p
b
Für r = 0 und t > 1 entwickle man die Determinante nach der ersten Zeile. Es ist dann,
wie ein genaueres Hinsehen zeigt, nur der t–te Summand ungleich Null, es ergibt sich
t...p 0
det(sb1...
) = (−1)t−1 ,
01......p
b
da die zugehörige Unterdeterminante die der (p − 2) × (p − 2)–Einheitsmatrix ist.
Für r > 0 enthält die entstehende Matrix immer eine Null–Zeile, außer wenn r = t ist. Es
gilt also in diesem Fall:
1, falls r = t,
1...b
t...p 0
det(s0...br...p ) =
0, falls r = 1, . . . , b
t, . . . , p.
(7) In dem Ausdruck von Schritt (5) treten damit tatsächlich nur die Summanden für
r = 0 und r = t auf:
Z
b
λ dy 1...t...p
∂s
Z 0...p
=
(−1)t−1 λ(s1...p (v)) + (−1)t λ(s0...bt...p (v)) dv
Ep−1
Der Vergleich mit (4) zeigt nun, dass wir noch beweisen müssen:
Z
Z
∂t λ(u) du =
λ(s1...p (v)) − λ(s0...bt...p (v)) dv
Ep
Ep−1
(8) Wir rechnen das Integral links — unter Vertauschung der Integrationsreihenfolge —
aus:
Z
∂t λ(u) du
Ep
1 Z 1−up
Z
Z
···
=
0
Z
0
1
Z
1−up
0
Z
1−u1 −...−ubt −...−up
ct . . . dup
∂t λ(u) dut du1 . . . du
0
Z
···
=
1−u2 −...−ubt −...−up
0
1−u2 −...−ubt −...−up
0
h0
λ(u1 , . . . , ut−1 , 1 − u1 − . . . − ubt − . . . − up , ut+1 , . . . , up ) −
i
ct . . . dup
λ(u1 , . . . , ut−1 , 0, ut+1 , . . . , up ) du1 . . . du
93
S. Hilger, Analysis 3
(Umbenennung: (u2 , . . . , ut−1 , ut+1 , . . . , up ) = (v2 , . . . , vt−1 , vt , . . . , vp−1 ))
Z
1
1−vp−1
Z
Z
1−v2 −...−vp−1
···
0
h0
λ(u1 , v2 , . . . , vt−1 , 1 − u1 − v2 − . . . − vp−1 , vt , . . . , vp−1 ) −
i
λ(u1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) du1 dv2 . . . dvp−1
=
0
= (∗)
Für die beiden Anteile gilt
Z
Z 1 Z 1−vp−1
···
Z
1−v2 −...−vp−1
0
0
0
0
1−v3 −...−vp−1
λ(u1 , v2 , . . . , vt−1 , 1 − u1 − v2 − . . . − vp−1 , vt , . . . , vp−1 ) du1 dv2 . . . dvp−1
(Substitution: v1 = 1 − u1 − v2 − . . . − vp−1 )
|
{z
}
fixiert
Z
1
1−vp−1
Z
Z
1−v3 −...−vp−1
Z
0
···
=
0
0
1−v2 −...−vp−1
0
λ(1 − v1 − . . . − vp−1 , v2 , . . . , vt−1 , v1 , vt , . . . , vp−1 )(−1) dv1 . . . dvp−1
Z
1
1−vp−1
Z
Z
1−v3 −...−vp−1
Z
1−v2 −...−vp−1
···
=
0
0
0
0
λ(1 − v1 − . . . − vp−1 , v2 , . . . , vt−1 , v1 , vt , . . . , vp−1 ) dv1 . . . dvp−1
Z
=
λ(s1...p (v)) dv.
Ep−1
bzw.
Z
1
1−vp−1
Z
Z
1−v2 −...−vp−1
···
0
0
λ(u1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) du1 dv2 . . . dvp−1
0
(Umbenennung: v1 = u1 )
Z
1
1−vp−1
Z
Z
1−v2 −...−vp−1
···
=
Z0
0
=
Ep−1
λ(v1 , v2 , . . . , vt−1 , 0, vt , . . . , vp−1 ) dv1 . . . dvp−1
0
λ(s0...bt...p (v)) dv,
so dass wir den Ausdruck (∗) weiterführen können zu
Z
Z
(∗) =
λ(s1...p (v)) dv −
λ(s0...bt...p (v)) dv,
Ep−1
und damit stimmt’s.
Ep−1
94
S. Hilger, Analysis 3
25.4
Spezialfälle des Satzes von Stokes: Vektoranalysis
n = 1, p = 1
Die 0–Form ω ist eine Funktion x 7→ ω(x).
Die 1–Form dω ist gegeben durch dω = ω 0 (x) dx.
Es sei σ der 1–Simplex der kanonischen Einbettung
E1 = [0, 1] → R
σ:
x 7→ x.
Der Rand von σ ist gegeben durch die 0–Kette
1
X
∂σ =
(−1)r (σ ◦ s0br1 ) = σ ◦ s1 − σ ◦ s0 ,
r=0
wobei σ ◦ sj : {0} → R der 0–Simplex ist, dessen Bildpunkt j ∈ R ist.
Die beiden Ausdrücke im Satz von Stokes
Z
Z
ω
dω =
∂σ
σ
werten wir jetzt aus:
Z
Z 1
dω =
ω 0 (u) du = ω(1) − ω(0)
Z0
Zσ
ω =
ω = ω(σ(1)) − ω(σ(0)) = ω(1) − ω(0).
σ◦s1 −σ◦s0
∂σ
In diesem Fall ist der Satz von Stokes also einfach der HDI.
25.4.1
Der Satz von Stokes bei Kurvenintegralen
n beliebig, p = 1
Die 0–Form ω ist eine Funktion x 7→ ω(x).
Die 1–Form dω ist gegeben durch dω = ∂1 ω dx1 + . . . + ∂n ω dxn .
Es sei γ ein 1–Simplex, das ist eine (stetig differenzierbare) Kurve
E1 = [0, 1] → Rn
γ:
x 7→ γ(x).
Der Rand von γ ist gegeben durch die 0–Kette
∂γ =
1
X
(−1)r (γ ◦ s0br1 ) = γ ◦ s1 − γ ◦ s0 ,
r=0
wobei für j = 0, 1 der 0–Simplex γ ◦ sj : {0} → Rn dadurch gegeben ist, dass dessen
Bildpunkt γ(j) ∈ Rn ist.
95
S. Hilger, Analysis 3
Die beiden Ausdrücke im Satz von Stokes
Z
Z
dω =
ω
γ
∂γ
werten wir jetzt aus:
Z Z
dω =
∂1 ω dx1 + . . . + ∂n ω dxn
γ
γ
Z
1
=
1 0
n 0
∂1 ω(γ(u)) · (γ ) (u) + . . . + ∂n ω(γ(u)) · (γ ) (u) du
0
Z
=
1
(ω ◦ γ)0 (u) du = ω(γ(1)) − ω(γ(0))
Z0
Z
ω = ω(γ(1)) − ω(γ(0)).
ω =
∂γ
γ◦s1 −γ◦s0
Physikalisch steckt der folgende Sachverhalt dahinter:
• Die 1–Form ω mit n Komponenten wird als ein Feld (Gravitationsfeld, Gefälle, el.
Feld,. . . ) interpretiert.
• Die (mechanische, elektrische) Arbeit, die bei der Bewegung längs einer Kurve γ :
[0, 1] → X in diesem Kraftfeld verrichtet werden muss, ist definiert durch
Z
W (γ, ω) :=
ω.
γ
• Ein solches Feld ω heißt konservativ, wenn es eine Funktion (das Höhenprofil, Potential ) f : X → R gibt, so dass ω = df .
• Der Satz von Stokes besagt nun, dass die zu verrichtende Arbeit in einem konservativen Kraftfeld nur vom Potential an Anfangs- und Endpunkt der Kurve abhängt:
Z
W (γ, ω) =
Z
ω=
γ
Z
f = f (γ(1)) − f (γ(0)).
df =
γ
∂γ
• Insbesondere bei der Bewegung entlang einer geschossenen Kurve (γ(1) = γ(0)) ist
die zu verrichtende Arbeit Null.
96
S. Hilger, Analysis 3
25.4.2
Der Green’sche Satz
Zur Vorbereitung stellen wir eine Überlegung für die Integration über 2–Ketten an.
Es sei X ⊆ Rn offen und ψ eine ,,rechteckparametrisierte” 2–Kette in X. Das bedeutet,
dass die folgende Situation, veranschaulicht in der Zeichnung unterhalb, erfüllt ist:
• Es existiert ein kompaktes achsenparalleles Rechteck R = [a1 , b1 ] × [a2 , b2 ] ⊆ R2 ,
• es existiert eine C 1 –Abbildung ψR : R → X,
• es existieren zwei affine orientierungserhaltende Abbildungen α1 , α2 : E2 → R, deren
Bilder in folgendem Sinn eine Zerlegung des Rechtecks R ergeben:
(α1 (E2 ))◦ ∩ (α2 (E2 ))◦ = ∅.
R = α1 (E2 ) ∪ α2 (E2 ),
Wir wollen dabei noch annehmen, dass α1 (0) = (a1 , a2 ), α2 (0) = (b1 , b2 ).
• Die gegebene Kette hat die Form ψ = ψR ◦ α1 + ψR ◦ α2 .
.......
... ......
... .......
.....
...
.....
..
.....
...
.....
.....
...
.....
...
.....
.....
.....
.....
.. E2
.....
...
...
.........................................................
α2
......................................................................................................................................................
............
+
.......
... ......
.. .......
...
.....
.....
...
.....
...
.....
.....
...
.....
...
.....
...
.....
.....
... E
.....
2
...
...
..........................................................
R
........................................................................................................................................
..
. ....
...
.... ...........
......
...
...
......
α
(E
)
...
....
......
2
2
......
..
...
......
...
...
......
...
...
......
......
...
...
......
...
...
......
......
...
...
......
...
...
......
......
...
...
......
...
...
......
.
...
...
.
......
α1 (E2 )
.
......
...
...... ....
...
...... ..
.......
..
.............................................................................................................................
ψR
.............................................................
α1
.............
................................................................................................
X
Für die Berechnung des Integrals einer 2–Form η = ηI dxI kann man dann wie folgt
vorgehen:
Z
Z
Z
η =
η+
η
ψ
ψR ◦α1
ψR ◦α2
Z
=
ηI (ψR (α1 (u))) det((ψR ◦ α1 )I )0 (u) du1 du2 +
E2
Z
ηI (ψR (α2 (u))) det((ψR ◦ α2 )I )0 (u) du1 du2 =
E2
Z
=
ηI (ψR (α1 (u))) det(ψRI )0 (u) det α1 du1 du2 +
E2
Z
ηI (ψR (α2 (u))) det(ψRI )0 (u) det α2 du1 du2 =
E2
Z
=
ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 +
R1
Z
ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 =
R2
Z
=
ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2
R
Z b2 Z b1
=
ηI (ψR (v)) det(ψRI )0 (v) dv1 dv2 .
a2
a1
97
S. Hilger, Analysis 3
Man kann also die Simplex–Form–Integration als Mengen–Funktions–Integration über das
Rechteck R ausführen
Wir können auch noch den Rand von ψ berechnen. Er ist gegeben durch
∂ψ = ∂(ψR ◦ α1 ) + ∂(ψR ◦ α2 )
= ψR ◦ α1 ◦ s12 − ψR ◦ α1 ◦ s02 + ψR ◦ α1 ◦ s01 +
ψR ◦ α2 ◦ s12 − ψR ◦ α2 ◦ s02 + ψR ◦ α2 ◦ s01
Bei der Integration einer 1–Form ω = ωi dxi über diesen Rand heben sich die beiden
Diagonal–(s12 –)Anteile auf, so dass
Z
Z
Z
Z
Z
ω =
ω+
ω+
ω+
ω,
ψR ◦γ1
∂ψ
ψR ◦γ2
ψR ◦γ3
ψR ◦γ4
wobei γ` : [0, 1] → R die vier den Rechteckrand parametrisierenden affinen Kurven sind.
Für das erste dieser Kurvenintegrale — es betrifft die untere Rechtecksseite — gilt dann
Z
Z 1
i
ωi dx =
ωi (ψR (γ1 (u))) det(ψRi ◦ γ1 )0 (u) du
ψR ◦γ1
0
Z
b1
=
a1
b1
Z
=
ωi (ψR (v)) det(ψRi )0 (v) dv
ωi (ψR (v))(ψRi )0 (v) dv.
a1
n = 2, p = 2
Es sei ψ eine 2–Kette mit den Simplexen σ ein 2–Simplex, das ist eine (stetig differenzierbare) Abbildung
E2 → R2
σ:
x 7→ σ(x).
Der Rand von σ ist gegeben durch die 1–Kette
∂σ =
2
X
r=0
(−1)r (σ ◦ s0br2 ) = σ ◦ s12 − σ ◦ s02 + σ ◦ s01 .
98
S. Hilger, Analysis 3
Der Satz von Stokes wird überführt in den
Satz 48 (Satz von Green)
(i) Es sei ω = ω1 dx1 + ω2 dx2 eine 1–Form im R2 , ψ eine 2–Kette aus 2–Simplexen
σ : E2 → R2 . Dann gilt:
Z
1
2
Z
(∂1 ω2 − ∂2 ω1 ) dx ∧ dx =
ψ
ω1 dx1 + ω2 dx2 .
∂ψ
(ii) Ist der Simplex σ : E2 → σ(E2 ) ein C 1 –Diffeomorphismus, so gilt
1
vol2 (σ(E2 )) =
·
2
Z
(x1 dx2 − x2 dx1 ).
∂σ
Beweis (i) Hier ist nur zu bemerken, dass für das totale Differential der 1–Form ω gilt:
dω = (∂1 ω2 − ∂2 ω1 ) dx1 ∧ dx2 .
Es sei noch ergänzt, dass der Rand eines 2–Simplexes σ : E2 → R2 gegeben ist durch
∂σ =
2
X
(−1)r (σ ◦ s0br2 ) = σ ◦ s12 − σ ◦ s02 + σ ◦ s01 .
r=0
(ii) Setzt man in (i) speziell ω1 (x1 , x2 ) = − x22 , ω2 (x1 , x2 ) = x21 , so kann man mit der
Transformationsformel Satz 30/dualisiert schließen:
Z
Z
Z
0
vol2 (σ(E2 )) =
dx1 dx2 =
det(σ )(u) du1 du2 =
dx1 ∧ dx2
σ(E )
E2
σ
Z 2
Z
=
(∂1 ω2 − ∂2 ω2 ) dx1 ∧ dx2 =
ω1 dx1 + ω2 dx2
σ Z
∂σ
1
(x1 dx2 − x2 dx1 ).
·
=
2 ∂σ
S. Hilger, Analysis 3
26
26.1
99
Lebesgue’sche Integration
Ober- und Unterintegral für beliebige Funktionen
Wir bezeichnen die Menge aller Funktionen f : Rd → R ∪ {−∞, +∞} mit F(Rd ).
Definition
Für eine beliebige Funktion f ∈ F(Rd ) definieren wir das Ober- und Unterintegral durch
Z ⇑
Z ⇑
nZ ↑
o
↑
d
f (x) dx =
f (x) dx := inf
ϕ(x) dx ϕ ∈ C (R ), ϕ ≥ f ∈ R ∪ {+∞}
Rd
Z ⇓
Z ⇓
nZ ↓
o
f (x) dx := sup
f (x) dx =
ψ(x) dx ψ ∈ C ↓ (Rd ), ψ ≤ f
Rd
Z ⇑
(−f )(x) dx
∈ R ∪ {−∞}.
= −
Sätzchen 49 Es sei f ∈ F(Rd ).
R⇑
(i) Gilt für das Oberintegral
f (x) dx > −∞, so ist diese Zahl eindeutig durch die
folgende Aussage festgelegt:
Zu jedem ε > 0 gibt es eine Funktion ϕ ∈ C ↑ (Rd ), so dass
Z ↑
Z ⇑
f ≤ ϕ,
ϕ(x) dx ≤
f (x) dx + ε.
R⇓
(ii) Gilt für das Unterintegral
f (x) dx < +∞, so ist diese Zahl eindeutig durch die
folgende Aussage festgelegt:
Zu jedem ε > 0 gibt es eine Funktion ψ ∈ C ↓ (Rd ), so dass
Z ⇓
Z ↓
f (x) dx − ε.
ψ(x) dx ≥
f ≥ ψ,
Beweis Berücksichtigt man die im nächsten Satz formulierte Eigenschaft (i), so beinhaltet das Sätzchen eine Umschreibung der Definition.
100
S. Hilger, Analysis 3
Satz 50 (Eigenschaften von ⇑– und ⇓–Integral)
(i) Für zwei Funktionen f, g ∈ F(Rd ) mit f ≤ g gilt
Z
⇑
Z
⇑
f (x) dx ≤
Z
⇓
g(x) dx
Z
f (x) dx ≤
⇓
g(x) dx
(ii) Für α > 0 und f ∈ F(Rd ) gilt
Z
⇑
⇑
Z
(αf )(x) dx = α
Z
f (x) dx
⇓
⇓
Z
f (x) dx.
(αf )(x) dx = α
(iii) Sind für f, g ∈ F(Rd ) die jeweils unterhalb der geschweiften Klammern angebrachten Bedingungen erfüllt, so gilt
Z
⇑
Z
(f + g) (x) dx ≤
| {z }
wohldefiniert
Z
⇓
wohldefiniert
Z
⇑
f (x) dx +
{z } |
|
g(x) dx
{z }
>−∞
Z
(f + g) (x) dx ≥
| {z }
⇑
⇓
Z
f (x) dx +
{z } |
|
<+∞
>−∞
⇓
g(x) dx .
{z }
<+∞
(iv) Für eine monoton wachsende Folge (fk )k∈N ⊆ F(Rd ) gilt
Z
⇑
Z
⇑
fk (x) dx.
(sup fk )(x) dx = sup
k∈N
k∈N
Für eine monoton fallende Folge (fk )k∈N ⊆ F(Rd ) gilt
Z
⇓
Z
(inf fk )(x) dx = inf
k∈N
k∈N
⇓
fk (x) dx.
Beweis Wir zeigen alle Behauptungen jeweils nur für das Oberintegral. Die dualen
Aussagen für das Unterintegral ergeben sich dann aus der Gleichheit
Z ⇓
Z ⇑
f (x) dx = −
(−f )(x) dx.
(i) ist direkt aus der Definition des Oberintegrals ersichtlich.
(ii) Es sei ε > 0 vorgegeben. Gemäß Sätzchen 49(i) gibt es eine Funktion ϕ ∈ C ↑ (Rd ) mit
Z ↑
Z ⇑
ε
f ≤ϕ
und
ϕ(x) dx ≤
f (x) dx + .
α
101
S. Hilger, Analysis 3
Es folgt weiter mit (i) und Satz 28(ii)
Z ⇑
Z
(i)
αf ≤ αϕ,
αf (x) dx ≤
↑
Z
αϕ(x) dx = α
↑
Z
⇑
ϕ(x) dx ≤ α
f (x) dx + ε.
Da ε > 0 beliebig war, folgt:
Z ⇑
Z ⇑
αf (x) dx ≤ α
f (x) dx.
Diese Abschätzung wenden wir wie folgt in (∗) nochmals an
Z ⇑
Z ⇑
Z ⇑
Z
(∗)
−1
−1
α
f (x) dx = α
α αf (x) dx ≤ αα
αf (x) dx =
⇑
αf (x) dx
und erhalten die umgekehrte Richtung.
(iii) Zu einem vorgegebenen ε > 0 gibt es Funktionen fe, ge ∈ C ↑ (Rd ), so dass
Z ⇑
Z ↑
ε
e
e
f (x) dx +
f (x) dx ≤
f ≤ f,
2
Z ⇑
Z ↑
ε
g(x) dx +
ge(x) dx ≤
g ≤ ge,
2
Daraus folgt dann
Z
Z ↑
Z ↑
Z ⇑
e
e
f (x) dx +
(f + ge)(x) dx ≤
(f + g)(x) dx ≤
Z ⇑
Z ⇑
≤
f (x) dx +
g(x) dx + ε,
↑
ge(x) dx
da ε > 0 beliebig war, die Behauptung.
(iv) beweisen wir in einer Abfolge mehrerer Schritte.
(1) Zunächst können wir folgern:
fk ≤ supk∈N fk
R⇑
=⇒
fk (x) dx ≤
supk∈N fk (x) dx
R⇑
R⇑
=⇒ supk∈N
fk (x) dx ≤
supk∈N fk (x) dx,
R⇑
so dass noch die umgekehrte
R ⇑ Richtung gezeigt werden muss. Dafür können wir O.B.d.A.
annehmen, dass supk∈N
fk (x) dx < +∞.
(2) Es sei ε > 0 vorgegeben. Zu jedem k ∈ N existiert ein ϕk ∈ C ↑ (Rd ), so dass
Z ⇑
Z ↑
Z ⇑
ε
fk ≤ ϕk und
fk (x) dx ≤
ϕk (x) dx ≤
fk (x) dx + k .
2
(3) Wir definieren die monoton wachsende Funktionenfolge (ϕ
ek ) ⊆ C ↑ (Rd ) durch
ϕ
ek := max{ϕ1 , . . . , ϕk }.
102
S. Hilger, Analysis 3
und konstatieren, dass
Z
fk ≤ ϕ
ek
⇑
↑
Z
fk (x) dx ≤
und
Z
⇑
ϕ
ek (x) dx ≤
k
X
ε
fk (x) dx +
,
2`
`=1
die wir im nächsten Schritt per Induktion über k beweisen.
(4) Für k = 1 stimmt dies mit der entsprechenden Ungleichung weiter oben überein.
Für den Induktionsschluss k 7→ k + 1 müssen wir etwas weiter ausholen. Zunächst ist
fk ≤ ϕk ≤ max{ϕ1 , . . . , ϕk } = ϕ
ek
deshalb fk ≤ min{ϕk+1 , ϕ
ek } ∈ C ↑ (Rd ).
fk ≤ fk+1 ≤ ϕk+1
Es gilt dann
Z ⇑
Z
fk (x) dx +
↑
Z
⇑
ϕ
ek+1 (x) dx ≤
↑
Z
min{ϕk+1 , ϕ
ek }(x) dx +
Z
↑
ϕ
ek+1 (x) dx
Z
↑
min{ϕk+1 , ϕ
ek }(x) dx +
max{ϕk+1 , ϕ
ek }(x) dx
Z ↑
Z ↑
=
ϕk+1 (x) dx +
ϕ
ek (x) dx
=
und dann weiter
Z
Z ↑
ϕ
ek+1 (x) dx ≤
↑
Z
↑
Z
ϕ
ek (x) dx −
{z
ϕk+1 (x) dx +
|
IndV in (3)
⇑
fk (x) dx
}
(2)
z
Z
}|
⇑
≤
fk+1 (x) dx +
Z
⇑
≤
ε
{
2k+1
k
X
ε
+
2`
`=1
k+1
X
ε
fk+1 (x) dx +
.
2`
`=1
(5) Wir definieren jetzt
f := sup fk ,
k∈N
ϕ
e := sup ϕ
ek .
k∈N
Es ist dann ϕ
e ∈ C ↑ (Rd ), ferner wegen fk ≤ ϕ
e für alle k
f ≤ ϕ,
e
R↑
R⇑
wegen
ϕ
ek (x) dx ≤
f (x) dx + ε für alle k und Satz 28(iii) auch
Z ↑
Z ↑
Z ⇑
S28(iii)
ϕ(x)
e dx = sup
ϕ
ek (x) dx ≤
f (x) dx + ε.
k∈N
Da ε > 0 beliebig war, ist die Aussage bewiesen.
103
S. Hilger, Analysis 3
Satz 51 (Beziehung zwischen ⇑–Integral und ⇓–Integral)
(i) Für eine Funktion f ∈ F(Rd ) gilt
Z
⇓
Z
⇑
f (x) dx ≤
f (x) dx.
(ii) Für eine Funktion f ∈ C ↑ (Rd ) gilt
Z
↑
Z
⇑
Z
⇓
f (x) dx.
f (x) dx =
f (x) dx =
(iii) Für eine Funktion f ∈ C ↓ (Rd ) gilt
Z
↓
Z
f (x) dx =
⇓
Z
f (x) dx =
⇑
f (x) dx.
Beweis Es seien ψ ∈ C ↓ (Rd ), ϕ ∈ C ↑ (Rd ) mit ψ ≤ f ≤ ϕ. Dann ist −ψ ∈ C ↑ (Rd ) und es
gilt
Z ↓
Z ↑
Z ↑
Z ↑
Z ↑
S 28(i)
ψ(x) dx = −
(−ψ)(x) dx =
ϕ(x) dx −
(ϕ − ψ)(x) dx ≤
ϕ(x) dx.
Durch Übergang zu sup auf der linken Seite und inf auf der rechten Seite gelangt man zu
der im Satz angegebenen Abschätzung.
(ii) Zu f ∈ C ↑ (Rd ) gibt es eine Folge (fk )k∈N in Cc (Rd ) ⊆ C ↓ (Rd ), die punktweise monoton
steigend gegen f konvergiert. Dann gilt (sehr ausführlich)
Z ↑
Z ⇑
f (x) dx
f (x) dx =
Z
Z ↓
= sup{ fk (x) dx} = sup{
fk (x) dx}
k∈N
k∈N
o
nZ ↓
↓
d
≤ sup
ψ(x) dx ψ ∈ C (R ), ψ ≤ f
Z ⇓
Z ⇑
(i)
=
f (x) dx ≤
f (x) dx
(iii) Durch Dualisierung dieser Ungleichungskette erhält man für den anderen Fall f ∈
C ↓ (Rd )
Z ⇓
Z ⇑
f (x) dx ≥
f (x) dx.
104
S. Hilger, Analysis 3
26.2
Integrierbare Funktionen
Zur Veranschaulichung
.
.
.
.
.
.................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.
.
.
.
.
−∞
R↓
R⇓
ψ(x) dx
R⇑
f (x) dx
f (x) dx
R↑
ϕ(x) dx
+∞
Definition Es sei eine Funktion f ∈ F(Rd ) gegeben. Die folgenden drei Aussagen sind
äquivalent:
(A) (Definition) Die Funktion f ∈ F(Rd ) heißt integrierbar.
(B) Die drei Bedingungen
Z
⇓
−∞ <
Z
⇑
f (x) dx =
Rd
f (x) dx < +∞
Rd
sind erfüllt.
(C) Zu jedem ε > 0 gibt es zwei Funktionen ψ ∈ C ↓ (Rd ), ϕ ∈ C ↑ (Rd ), so dass
ψ≤f ≤ϕ
Z
Z ↓
ψ(x) dx ≤
−∞ <
Z ↑
( ϕ − ψ )(x) dx ≤ ε
| {z }
↑
ϕ(x) dx < +∞
∈ C ↑ (Rd )
int
Wir bezeichnen mit F (Rd ) die Menge der integrierbaren Funktionen Rd → R. Für
int
f ∈ F (Rd ) heißt
Z
Z
Z ⇓
Z ⇑
f (x) dx =
f (x) dx :=
f (x) dx =
f (x) dx
Rd
Rd
Rd
das (Lebesgue–)Integral von f .
Die Äquivalenz der beiden Aussagen (B) und (C) folgt direkt aus den Definitionen von
Ober- und Unterintegral im letzten Abschnitt.
Zur Unterscheidung von anderen Integralbegriffen spricht man manchmal auch von
Lebesgue–Integrierbarkeit oder L–Integrierbarkeit.
105
S. Hilger, Analysis 3
Wir wollen als erstes die Verträglichkeit mit früheren Integralbegriffen absichern.
Sätzchen 52
In jedem der folgenden Fälle ist die Funktion f : Rd → R integrierbar. Das (neue) Integral
stimmt mit dem jeweils früher definierten Integral überein.
Z ↑
↑
d
(i) f ∈ C (R ) und
f (x) dx < +∞.
↓
d
(ii) f ∈ C (R ) und
Z
↓
f (x) dx > −∞.
(iii) f ∈ Cc (Rd ).
Beweis
Satzes 51 verwiesen. (iii) folgt aus der Tatsache,
R Für (i) sei auf die Aussage (ii) des
d
dass f (x) dx endlich ist für f ∈ Cc (R ).
106
S. Hilger, Analysis 3
Satz 53
(i) Die Funktion f ∈ F(Rd ) ist genau dann integrierbar, wenn es eine Folge (fn )n∈N ⊆
Cc (Rd ) gibt mit
Z
⇑
|f − fn |(x) dx = 0.
lim
n→∞
(ii) Ist (fn )n∈N ⊆ Cc (Rd ) eine Folge gemäß (i), so existiert der folgende Grenzwert
Z
lim
n→∞
Z
fn (x) dx =
f (x) dx.
und hat den angegebenen Wert.
Beweis
(1) Zu (i)=⇒: Gemäß Bedingung (C) in der vorherigen Definition gibt es für n ∈ N zwei
Funktionen ψn ∈ C ↓ (Rd ), ϕn ∈ C ↑ (Rd ) mit
ψn ≤ f ≤ ϕn
Z ↑
Z ↓
ϕn (x) dx < +∞
ψn (x) dx ≤
−∞ <
Z ↑
1
.
(ϕn − ψn )(x) dx ≤
2n
Für festes n ∈ N wird das Integral der Funktion ϕn ∈ C ↑ (Rd ) durch die Integrale der
Funktionen einer punktweise monoton steigenden Folge (gk,n )k∈N ⊆ Cc (Rd ) approximiert.
Deshalb gibt es einen Index kn , so dass
Z
Z ↑
1
ϕn (x) dx − gkn ,n (x) dx ≤
.
2n
Wir definieren die im Satz angefragte Folge durch
fn := gkn ,n .
Es folgt weiter
Z ↑
Z
(ϕn − fn )(x) dx =
Z
=
Z
=
↑
Z
ϕn (x) dx +
↑
↑
(−fn )(x) dx
Z
ϕn (x) dx +
↑
(−fn )(x) dx
Z
ϕn (x) dx −
fn (x) dx ≤
1
.
2n
Wegen
|f − fn | ≤ |f − ϕn | + |ϕn − fn | = (ϕn − f ) + (ϕn − fn ) ≤ (ϕn − ψn ) + (ϕn − fn )
107
S. Hilger, Analysis 3
ist dann
Z ⇑
Z
⇑
|f − fn |(x) dx ≤
Z
⇑
(ϕn − ψn )(x) dx +
Z
=
↑
(ϕn − fn )(x) dx
Z
(ϕn − ψn )(x) dx +
↑
(ϕn − fn )(x) dx ≤
1
.
n
(2) Für den Beweis der umgekehrten Richtung in (i) sei ε > 0 vorgegeben. Innerhalb der
angegebenen Folge gibt es eine Funktion fn ∈ Cc (Rd ), so dass
Z ⇑
ε
|f − fn |(x) dx ≤
4
und deshalb (Definition des ⇑–Integrals) weiter eine Funktion hn ∈ C ↑ (Rd ) mit
Z ↑
ε
|f − fn | ≤ hn
und
hn (x) dx ≤ .
2
Mit den Funktionen
ψn := fn − hn ∈ C ↓ (Rd )
ϕn := fn + hn ∈ C ↑ (Rd )
gilt dann weiter
Z
ψn ≤ f ≤ ϕn
↑
Z
(ϕn − ψn )(x) dx =
und
↑
2 hn (x) dx ≤ ε.
Schließlich ist mit Satz 28(ii)
Z ↓
Z ↓
Z ↓
(−hn )(x) dx > −∞
fn (x) dx +
ψn (x) dx =
Z ↑
Z ↑
Z ↑
ϕn (x) dx =
fn (x) dx +
hn (x) dx < +∞.
(3) Es bleibt noch (ii) zu zeigen:
Z
Z
f (x) dx − fn (x) dx =
(Satz 50(iii))
Z
Z
f (x) dx + (−fn )(x) dx
Z ⇓
Z ⇓
= f (x) dx +
(−fn )(x) dx
Z ⇓
Z ⇓
≤ (f − fn )(x) dx ≤
|f − fn |(x) dx
Z ⇑
≤
|f − fn |(x) dx.
Diese Abschätzungskette erscheint sehr aufwändig. Beachte aber, dass die Linearität des
Integrals noch nicht zur Verfügung steht.
108
S. Hilger, Analysis 3
int
Satz 54 Es seien f, g ∈ F (Rd ).
(i) Ist f ≤ g, so gilt
Z
Z
f (x) dx ≤
g(x) dx.
(ii) Für α ∈ R ist die Funktion α f , falls sie wohldefiniert ist, integrierbar und es gilt:
Z
Z
(αf )(x) dx = α
f (x) dx.
(iii) Die Funktion f + g ist, falls sie wohldefiniert ist, integrierbar und es gilt
Z
Z
(f + g)(x) dx =
Z
f (x) dx +
g(x) dx
Es sei jetzt zusätzlich f (durch eine endliche Schranke) beschränkt, also kf k∞ < ∞.
(iv) Die Funktion f · g ist, falls sie wohldefiniert ist, integrierbar.
(v) Für p ≥ 1 ist |f |p integrierbar.
Beweis Der Beweis kann leicht mit Hilfe des letzten Satzes auf die entsprechenden
Eigenschaften des Integrals für Funktionen aus Cc (Rd ) zurückgeführt werden. Wir wollen
den Beweis aber direkt aus den Eigenschaften von Ober- und Unterintegral ableiten.
(i) und (iii) ergeben sich sofort aus den entsprechenden Aussagen des Satzes 50. Für (ii)
und α > 0 die Aussage aus Satz 50(ii) zu entnehmen. Für α < 0 muss man ausführlicher
auf derselben Grundlage argumentieren:
Z ⇑
Z ⇑
Z ⇑
(αf )(x) dx =
(−α)(−f )(x) dx = (−α)
(−f )(x) dx
Z ⇑
Z ⇓
Z
= α[−
(−f )(x) dx] = α
f (x) dx = α
f (x) dx.
In gleicher Weise zeigt man
Z ⇓
Z
(αf )(x) dx = α
f (x) dx.
Für (iv) und (v) benutzen wir die Charakterisierung der Integrierbarkeit in Satz 53(i).
(1) Zu vorgegebenem ε > 0 existiert eine Funktion ge ∈ Cc (Rd ) mit
Z ⇑
ε
|g − ge|(x) dx ≤
2(kf k∞ + 1)
(Die Addition der Zahl 1 dient nur dazu, den Nenner vom Verschwinden abzuhalten.)
109
S. Hilger, Analysis 3
(2) Es existiert dann weiter eine Funktion fe ∈ Cc (Rd ) mit
Z ⇑
ε
|f − fe|(x) dx ≤
2(ke
g k∞ + 1)
(3) Abschließend ist dann
Z
Z ⇑
|f g − fege|(x) dx =
Z
≤
Z
≤
≤
(v) sei zur Übung überlassen.
⇑
|f (g − ge) + (f − fe)e
g |(x) dx
⇑
e
kf k∞ |g − ge| + ke
g k∞ |f − f | (x) dx
Z ⇑
⇑
kf k∞ |g − ge|(x) dx +
ke
g k∞ |f − fe|(x) dx
ε ε
+ = ε.
2 2
110
S. Hilger, Analysis 3
Es sei f ∈ F(Rd ) eine Funktion. Wir erinnern an die Definitionen und Beziehungen
f+
f−
f
|f |
:=
:=
=
=
max{f, 0}
− min{f, 0}
f+ − f−
f+ + f− ,
die auch in Bezug auf die Werte ±∞ wohldefiniert sind.
Satz 55 Es seien f, g ∈ F(Rd ).
(i) Ist die Funktion f integrierbar, so sind die Funktionen f+ , f− , |f | integrierbar. Es
gilt dann
Z
Z
f (x) dx ≤ |f |(x) dx.
(ii) Sind f und g integrierbar, so sind auch die Funktionen
min{f, g},
max{f, g}
integrierbar.
(iii) Sind zwei der drei Funktionen f+ , f− , |f | integrierbar, so ist auch f integrierbar.
Beweis (i) Gemäß Satz 53 gibt es zu vorgegebenem ε > 0 eine Funktion fe ∈ Cc (Rd ), so
dass
Z ⇑
|f − fe|(x) dx ≤ ε.
Rd
Die Funktion fe+ ist ebenfalls in Cc (Rd ) enthalten, es gilt dabei
|f+ − fe+ | ≤ |f − fe|
und deshalb weiter
Z ⇑
Z
e
|f+ − f+ |(x) dx ≤
Rd
⇑
|f − fe|(x) dx ≤ ε.
Rd
Für die beiden anderen Funktionen f− und |f | kann man diese Überlegung ganz genauso
durchführen.
Aufgrund von
−|f | ≤ f ≤ |f |
ist mit Satz 54
Z
Z
Z
Z
− |f |(x) dx = (−|f |)(x) dx ≤ f (x) dx ≤ |f |(x) dx.
111
S. Hilger, Analysis 3
(ii) Es gilt
f + g − |f − g|
2
f + g + |f + g|
max{f, g} =
2
min{f, g} =
(iii) Es seien f+ , f− integrierbar und ε > 0 vorgegeben. Es gibt gemäß Satz 53 zwei
Funktionen fep , fen ∈ Cc (Rd ) mit
Z ⇑
Z ⇑
ε
ε
e
|f+ − fp |(x) dx ≤ ,
|f− − fen |(x) dx ≤ .
2
2
Daraus folgt aber
Z ⇑
Z
|f − (fep − fen )|(x) dx =
Z
≤
⇑
|(f+ − f− ) − (fep − fen )|(x) dx
Z ⇑
⇑
e
|f+ − fp |(x) dx +
|fen − f− |(x) dx ≤ ε,
wobei fep − fen ∈ Cc (Rd ). Also ist f integrierbar.
Die beiden anderen Fälle ergeben sich durch Verwendung der Beziehungen
f = 2f+ − |f |
bzw.
f = |f | − 2f− .
112
S. Hilger, Analysis 3
26.3
Die Konvergenzsätze von Levi und Lebesgue
Die herausragende Bedeutung des Lebesgue’schen Integrationsbegriffs kommt in den
Sätzen dieses Abschnitts zum Ausdruck.
Im anfänglichen Satz von Levi wird der theoretische Gehalt des Lebesgue–Integrals auf
den Punkt gebracht: Der ,,Integrationsoperator”, der einer Funktion eine reelle Zahl zuordnet, ist mit einem punktweisen Grenzprozess, der ,,Supremumsbildung bei Monotonie”,
vertauschbar.
Es bleibt dann einigen mathematischen Techniken überlassen, diesen Satz auf andere
punktweise Grenzwertprozesse wie
sup (ohne Monotonie),
inf,
lim inf,
lim sup,
lim,
∞
X
zu übertragen.
Satz 56 (Monotone Konvergenz, Beppo Levi)
int
Es sei (fk )k∈N ⊆ F (Rd ) eine monoton wachsende Folge integrierbarer Funktionen.
Dann gilt die Implikation
Z
sup fk (x) dx < +∞
=⇒
sup fk ist integrierbar mit
k∈N
Zk∈N
Z
(sup fk )(x) dx = sup fk (x) dx.
k∈N
k∈N
Beweis Wir setzen zunächst f := supk∈N fk .
Zu einem vorgegebenem ε > 0 existiert gemäß Satz 50(iv) ein k ∈ N, so dass
Z ⇑
Z ⇑
Z ⇑
S 50(iii)
(f − fk )(x) dx ≤
f (x) dx +
(−fk )(x) dx
Z ⇑
Z ⇑
ε
S 54(ii)
=
f (x) dx −
fk (x) dx ≤ .
2
Dazu existiert nach Satz 53 wiederum eine Funktion fe ∈ Cc (Rd ) mit
Z
ε
|fk − fe|(x) dx ≤ .
2
Insgesamt gilt dann
Z ⇑
Z
|f − fe|(x) dx ≤
⇑
Z
|f − fk |(x) dx +
⇑
|fk − fe|(x) dx ≤ ε,
nach Satz 53 ist f integrierbar mit dem angegebenen Integral.
113
S. Hilger, Analysis 3
int
Satz 57 Es sei (fk )k∈N ⊆ F (Rd ) eine beliebige Folge integrierbarer Funktionen.
Dann gelten die Äquivalenzen
Z ⇑
d
g(x) dx < +∞ ⇐⇒ sup fk ist integrierbar.
Es ex. g ∈ F(R ) mit sup fk ≤ g ,
k∈N
k∈N
Z ⇓
Es ex. g ∈ F(Rd ) mit inf fk ≥ g ,
g(x) dx > −∞ ⇐⇒ inf fk ist integrierbar.
k∈N
k∈N
Beweis Die Rechts–Richtung ist trivial, da man einfach g = supk∈N |fk | wählen kann.
Für die Links–Richtung definieren wir die Hilfsfolge von integrierbaren Funktionen
gk := max fn .
1≤n≤k
Es ist dann
sup fk = sup gk
k∈N
k∈N
und für alle k ∈ N
Z
Z
Z
Z ⇑
( max fn )(x) dx ≤
gk (x) dx = ( max fn )(x) dx =
1≤n≤k
Insgesamt haben wir
Z
Z
sup gk (x) dx ≤
1≤n≤k
⇑
g(x) dx,
⇑
g(x) dx < +∞,
k∈N
so dass die Behauptung aus dem Satz von Levi folgt.
Die zweite Aussage wird dual bewiesen.
114
S. Hilger, Analysis 3
Satz 58 Es sei (fk )k∈N eine Folge von integrierbaren Funktionen mit der Eigenschaft,
dass eine Funktion g existiert mit
Z ⇑
g(x) dx < +∞.
|fk | ≤ g für alle k ∈ N,
Dann gilt:
(i) Die Funktion lim inf k→∞ fk ist integrierbar mit
Z
Z
(lim inf fk )(x) dx ≤ lim inf
k→∞
fk (x) dx.
k→∞
(ii) Die Funktion lim supk→∞ fk ist integrierbar mit
Z
Z
fk (x) dx ≤
lim sup
(lim sup fk )(x) dx.
k→∞
k→∞
Beweis (1) Es genügt, die Behauptung (i) zu zeigen. Wir definieren zunächst für festes
n ∈ N die Funktion
gn := inf fk ,
k≥n
sie ist gemäß der zweiten Aussage in Satz 57 integrierbar.
(2) Wegen
Z
Z
gn (x) dx ≤
fk (x) dx für alle k ≥ n
gilt für alle n, k ∈ N mit k ≥ n
Z
Z
Z
gn (x) dx ≤ inf fk (x) dx ≤
k≥n
⇑
g(x) dx < +∞
(∗).
(3) Damit erfüllt die monoton wachsende Folge (gn ) die Voraussetzungen des Satzes von
Levi, es ist also
lim inf fk = sup inf fk = sup gn
k→∞
n∈N k≥n
n∈N
integrierbar und es gilt
Z
Z
Z
Levi
(lim inf fk )(x) dx =
(sup gn )(x) dx = sup gn (x) dx
k→∞
n∈N
n∈N
Z
Z
(∗)
≤ sup inf fk (x) dx = lim inf fk (x) dx.
n∈N k≥n
k→∞
115
S. Hilger, Analysis 3
Satz 59 (Majorisierte Konvergenz, Henri Lebesgue)
Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, die punktweise konvergiert.
Es gebe weiter eine Funktion g mit
Z ⇑
g(x) dx < +∞.
|fk | ≤ g für alle k ∈ N,
Dann ist die Grenzfunktion limk→∞ fk integrierbar mit
Z
Z
( lim fk )(x) dx = lim
fk (x) dx.
k→∞
k→∞
Beweis Aufgrund der Voraussetzung der punktweisen Konvergenz gilt
lim inf fk = lim fk = lim sup fk ,
k→∞
k→∞
k→∞
so dass aus dem letzten Satz die Integrierbarkeit von limk→∞ fk und dann Ungleichungskette
Z
Z
Z
Z
( lim fk )(x) dx ≤ lim inf fk (x) dx ≤ lim sup fk (x) dx ≤ ( lim fk )(x) dx.
k→∞
k→∞
k→∞
k→∞
entnommen werden kann. Es folgt
Z
Z
lim
fk (x) dx = ( lim fk )(x) dx.
k→∞
k→∞
116
S. Hilger, Analysis 3
Korollar 60 (Gliedweise Integration einer Funktionenreihe)
Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, so dass
P
• die Funktionenreihe ∞
und
k=1 fk punktweise konvergiert
P R
|fk |(x) dx konvergiert.
• die (Zahlen–)Reihe ∞
k=1
P∞
Dann ist die Grenzfunktion k=1 fk integrierbar mit
Z X
∞
∞ Z
X
(
fk )(x) dx =
fk (x) dx.
k=1
k=1
Satz 65 wird aufzeigen, dass die erste Voraussetzung dieses Korollars ,,fast” aus der zweiten folgt.
Beweis
fk ist integrierbar für alle k ∈ N.
=⇒
=⇒
|fk | ist integrierbar für alle k ∈ N.
n
X
|fk | ist integrierbar für alle n ∈ N.
k=1
S56,B.Levi
=⇒
F :=
∞
X
|fk | ist integrierbar.
k=1
Es gilt weiter für alle n ∈ N
n
n
X
X
|fk | (x) ≤ F (x)
fk (x) ≤
k=1
k=1
es ist also F eine integrierbare Majorante für die Partialsummenfolge (
Pn
k=1
fk )n∈N .
Der Satz 59 von der majorisierten Konvergenz liefert nun die Aussage, dass f integrierbar
ist mit
Z
∞ Z
X
f (x) dx =
fk (x) dx.
k=1
117
S. Hilger, Analysis 3
26.4
Nullmengen und Fast–Überall–Eigenschaften
Definition Es sei N eine Teilmenge von Rd und χN die zugehörige Indikatorfunktion.
Die folgenden Aussagen sind äquivalent:
(A) N heißt Nullmenge.
R⇑
(B) Es ist
χN (x) dx = 0.
Sätzchen 61
(i) Eine Teilmenge einer Nullmenge ist eine Nullmenge.
(ii) Die Vereinigung von abzählbar vielen Nullmengen ist eine Nullmenge.
Beweis Die erste Aussage ist trivial.
S
(ii) Es sei N = `∈N N` eine abzählbare Vereinigung von (Null–)Mengen. Setzt man für
k∈N
ek := N1 ∪ . . . ∪ Nk ,
N
so ist zunächst wegen
χNek ≤ χN1 + . . . + χNk
ek eine Nullmenge. Da die Folge (χ e )k∈N monoton
und aufgrund von Satz 50(i),(iii) auch N
Nk
wachsend ist, gilt Mit Satz 50(iv)
Z ⇑
Z ⇑
Z ⇑
χNek (x) dx = 0.
sup χNek (x) dx = sup
χN (x) dx =
0≤
k∈N
k∈N
Korollar 62
(i) Ist eine Teilmenge N ⊆ Rd (höchstens) abzählbar, so ist sie eine Nullmenge.
(ii) Q ist eine Nullmenge.
(iii) R ist überabzählbar.
(iv) Es gibt überabzählbare Nullmengen in R.
Beweis (i) Aufgrund von Satz 61(i) können wir uns auf den Fall zurückziehen, dass
N = {a} genau ein Element enthält. Es gibt zu jedem ε > 0 einen kompakten Quader
Q = N + [−ε, +ε]d , so dass
Z ⇑
Z ⇑
0 ≤
χN (x) dx ≤
χQ (x) dx = vol(Q) = (2ε)d .
Also ist
R⇑
χN (x) dx = 0.
(ii) ist ein Spezialfall von (i).
(iii) Wäre R abzählbar, so ergäbe sich mit
Z ⇑
Z
1 = vol([0, 1]) =
χ[0,1] (x) dx ≤
⇑
χR (x) dx = 0
ein Widerspruch.
(iv) Als Beispiel dient das Cantor’sche Diskontinuum D ⊆ R. Wir führen es nicht aus. 118
S. Hilger, Analysis 3
Definition Es sei A(x), x ∈ Rd , eine Aussagenschar. Man sagt,
A(x) gilt fast–überall (f.ü.) oder modulo Nullmenge,
wenn es eine Nullmenge N ⊆ Rd gibt, so dass A(x) für alle x ∈ Rd \ N gilt.
Beachte, dass diese Eigenschaft ,,fast–überall” aufgrund von Korollar 62 die Eigenschaften
,,bis auf endlich viele” oder ,,bis auf abzählbar viele” umfasst, nicht aber mit diesen
übereinstimmt.
Satz 63 Für eine Abbildung f ∈ F(Rd ) gelten die Aussagen:
R⇑
(i)
|f |(x) dx = 0
⇐⇒
f (x) = 0 fast–überall.
R⇑
(ii)
f (x) dx < ∞
=⇒ f (x) < ∞ fast–überall.
R⇓
(iii)
f (x) dx > −∞ =⇒ f (x) > −∞ fast–überall.
Beweis (i) Wir definieren
1
M` := {x ∈ Rd ||f (x)| ≥ }.
`
M := {x ∈ Rd |f (x) 6= 0},
,,=⇒” Für x ∈ Rd gelten die Äquivalenzen
1
`
1
|f (x)| ≥
`
|f (x)| <
⇐⇒
x∈
/ M`
⇐⇒
χM` (x) = 0
⇐⇒
x ∈ M`
⇐⇒
χM` (x) = 1,
wir erhalten deshalb
χM` ≤ ` · |f |.
Dann sind aber aufgrund von
Z ⇑
Z ⇑
Z
χM` (x) dx ≤
` |f |(x) dx ≤ `
⇑
|f |(x) dx = 0
die Mengen M` Nullmengen. Dann ist auch deren Vereinigung M =
menge.
,,⇐=” Es ist
|f | ≤
0,
+∞,
falls f (x) = 0
falls f (x) 6= 0
und deshalb
Z ⇑
Z
|f |(x) dx ≤
⇑
`∈N
M` eine Null-
= sup {` · χM }
`∈N
Z
sup{` · χM }(x) dx ≤ sup{
`∈N
S
⇑
` · χM (x) dx} = 0.
`∈N
(ii) Aufgrund der Definition des Oberintegrals existiert eine Funktion fe ∈ C ↑ (Rd ), so dass
Z ⇑
e
f ≤ f,
fe(x) dx < +∞.
119
S. Hilger, Analysis 3
Daher genügt es den Fall f ∈ C ↑ (Rd ) zu betrachten. Gemäß Definition von C ↑ (Rd ) gibt es
e
e
eine Funktion fe ∈ Cc (Rd ) mit f − fe ≥ 0, weswegen wir f ≥ 0 annehmen können.
Ist jetzt
M := {x ∈ Rd |f (x) = +∞},
so gilt für alle n ∈ N
n · χM ≤ f,
deshalb
Z
⇑
n·
Z
χM (x) dx =
Daraus folgt
R⇑
⇑
Z
n · χM (x) dx ≤
⇑
f (x) dx < +∞.
χM (x) dx = 0.
Satz 64 Für zwei Funktionen f, g ∈ F(Rd ) gilt:
 R⇑
R⇑

f (x) dx =
g(x) dx
f (x) = g(x) fast–überall
=⇒
R⇓
 R⇓
f (x) dx =
g(x) dx
Beweis Wir beweisen nur die obere Aussage und definieren dazu die Nullmenge
N
:=
{x ∈ Rd |f (x) 6= g(x)}
und die Funktion auf Rd
∞, falls x ∈ N,
χ
eN (x) :=
0, falls x ∈ Rd \ N.
Für alle ϕ ∈ C ↑ (Rd ) gilt dann,
Z
ϕ+χ
eN wohldefiniert
⇑
ϕ(x) dx > −∞,
da eine Minorante in Cc (Rd ) existiert. Ist zusätzlich ϕ ≥ f , so gilt außerdem
g ≤ϕ+χ
eN
und deshalb
Z
Z ⇑
Z ⇑
Z ⇑
(ϕ + χ
eN )(x) dx ≤
ϕ(x) dx +
g(x) dx ≤
Z ⇑
Z ↑
ϕ(x) dx.
ϕ(x) dx =
=
⇑
χ
eN (x) dx
Geht man in dieser Ungleichung zum Infimum bzgl. aller ϕ ∈ C ↑ (Rd ), ϕ ≥ f über, so
erhält man gemäß Definition des Oberintegrals
Z ⇑
Z ⇑
g(x) dx ≤
f (x) dx.
Da in dieser Argumentation die beiden Funktionen f und g nicht gegeneinander ausgezeichnet waren, gilt auch die umgekehrte Richtung
Z ⇑
Z ⇑
f (x) dx ≤
g(x) dx.
120
S. Hilger, Analysis 3
26.4.1
Klassen von fast–überall definierten Funktionen
Definition
1. Eine auf einer Teilmenge D ⊆ Rd definierte Funktion f : D → R heißt fast–überall
definiert, wenn Rd \ D eine Nullmenge ist.
e
2. Zwei fast–überall definierte Funktionen f und fe mit Definitionsmengen D bzw. D
d
heißen fast–überall gleich, wenn es eine Nullmenge N ⊆ R gibt, so dass
e
Rd \ N ⊆ D ∩ D
und
f (x) = g(x) für x ∈ Rd \ N.
3. Die Fast–überall–Gleichheit ist eine Äquivalenzrelation auf der Menge aller fast–
überall–definierten Funktionen. Wir nennen die Äquivalenzklassen einfach Funktionsklassen.
4. Wir bezeichnen die zu einer fast–überall definierten Funktion f gehörige Funktionsklasse mit [f ]. Für die Menge der Funktionsklassen wird das Symbol F (Rd )
eingeführt.
5. Die Halbordnungsrelation ≤ für Funktionen überträgt sich auf Funktionsklassen,
indem man setzt
[f ] ≤ [fe]
⇐⇒
f (x) ≤ fe(x) f.ü.
6. Die punktweisen Grenzprozesse
sup,
inf ,
k∈N
k∈N
lim sup,
k→∞
lim inf ,
k→∞
lim
k→∞
für Folgen übertragen sich auf die Funktionsklassen, indem man sie ,,fast–überall”
durchführt. Wesentlich hierbei ist die Aussage aus Satz 61(ii), dass abzählbare Vereinigungen von Nullmengen wieder Nullmengen sind.
7. Wir definieren auf der Menge der fast–überall definierten Funktionen die Operatoren
Z
⇑
:
F (Rd ) → R
R⇑
[f ] 7→
fb(x) dx,
Z
⇓
:
F (Rd ) → R
R⇓
[f ] 7→
fb(x) dx,
wobei fb irgendeine Funktion aus der Funktionsklasse [f ] mit Definitionsmenge Rd
ist. Aufgrund von Satz 64 sind die zugewiesenen Werte unabhängig von der konkreten Auswahl fb ∈ [f ].
8. Die Konvergenzsätze von Levi und Lebesgue aus Abschnitt 26.3 können auf Funktionsklassen übertragen werden. Die jeweiligen Voraussetzungen an die Folgen von
Funktionen werden zu Voraussetzungen an Folgen von Funktionsklassen, sie beziehen sich also auf ,,Fast–Überall–Eigenschaften”.
121
S. Hilger, Analysis 3
9. Es ist in der mathematischen Literatur weithin üblich, in Bezug auf die Symbolik
zwischen Funktionen und Funktionsklassen nicht klar zu unterscheiden. So wird eine
Funktionsklasse [f ] ∈ F (Rd ) oft einfach mit f bezeichnet.
10. Man muss sich jedoch sorgfältig vergegenwärtigen, dass die Funktionsklassen keine
Funktionen mehr sind und deshalb Operationen bzw. Begriffe wie beispielsweise
• Auswertung an einer Stelle
oder
• Einschränkung auf eine beliebige Teilmenge
• Stetigkeit, Differenzierbarkeit (abgesehen von der Theorie der ,,Sobolew–
Räume”)
nicht mehr definiert sind.
122
S. Hilger, Analysis 3
26.4.2
Satz von Levi über die Integration einer Funktionenreihe
Die Aussage des Satzes 63(ii), dass ein endlicher Integralwert die Fast–Überall–Endlichkeit
nach sich zieht, ermöglicht die Aufhebung der ersten Voraussetzung im Satz 60 über die
Integrierbarkeit einer Funktionenreihe. Wir formulieren den resultierenden (zweiten) Satz
von Levi.
Satz 65 (Gliedweise Integration einer Funktionenreihe, Beppo Levi)
Es sei (fk )k∈N eine Folge von integrierbaren Funktionen, so dass
P R
|fk |(x) dx konvergiert.
• die (Zahlen–)Reihe ∞
k=1
P
Dann ist die Grenzfunktion ∞
k=1 fk fast–überall–definiert und integrierbar. Es gilt
Z X
∞
∞ Z
X
fk (x) dx =
fk (x) dx.
k=1
k=1
Beweis
fk ist integrierbar für alle k ∈ N.
=⇒
=⇒
|fk | ist integrierbar für alle k ∈ N.
n
X
|fk | ist integrierbar für alle n ∈ N.
k=1
S56,B.Levi
=⇒
F :=
∞
X
|fk | ist integrierbar.
k=1
S 63(ii)
=⇒
Der Grenzwert F (x) =
∞
X
|fk |(x) existiert und ist fast–überall endlich.
k=1
=⇒
Die Grenzfunktionf (x) :=
∞
X
fk (x) ist fast–überall definiert.
k=1
Es gilt weiter für alle n ∈ N
n
n
X
X
fk (x) ≤
|fk | (x) ≤ F (x)
k=1
fast–überall,
k=1
P
so dass F eine integrierbare Majorante für die Partialsummenfolge ( nk=1 fk )n∈N ist.
Der Satz 59 von der majorisierten Konvergenz liefert nun die Aussage, dass f integrierbar
ist mit
Z
∞ Z
X
f (x) dx =
fk (x) dx.
k=1
123
S. Hilger, Analysis 3
26.5
Der Banachraum L1 (Rd )
Es sei wieder F (Rd ) die Menge der Funktionsklassen von fast–überall definierten Funktionen auf Rd .
1. Ist eine Funktion f ∈ [f ] ∈ F (Rd ) integrierbar, so sind auch alle anderen Funktionen
fe ∈ [f ] integrierbar. Man kann daher von der Integrierbarkeit der Funktionsklasse
sprechen.
2. Aufgrund von Satz 64 kann die Integration von Funktionsklassen durchgeführt werden:
Z F (Rd ) → R
R
:
[f ] 7→
fb(x) dx,
wobei fb irgendeine Funktion aus [f ] mit Definitionsmenge Rd ist.
3. Aufgrund von Satz 63(ii),(iii) nehmen alle Funktionen innerhalb einer integrierbaren Funktionsklasse [f ] die Werte −∞ und +∞ nur auf einer Nullmenge an. Bei
Ersetzung dieser Funktionswerte durch endliche Werte bleibt die Funktion in der
ursprünglichen Funktionsklasse, so dass bei integrierbaren Funktion(sklass)en der
Kontext von ±∞–Werten ohne Belang ist.
4. Wir bezeichnen die Menge der integrierbaren Funktionsklassen mit L(Rd ) = L1 (Rd ).
5. Auf L1 (Rd ) ist die Struktur eines R–Vektorraums erklärt: Linearkombinationen werden einfach für Vertreter–Funktionen in der Klasse, die die Werte ±∞ nicht annehmen, durchgeführt. Die Linearkombination der Funktionsklasse ist — als Funktionsklasse — dann von der Auswahl der Vertreter–Funktionen unabhängig. Die Funktionsklasse [0], die die Funktion 0 enthält, wird zum Nullvektor 0 dieses Vektorraums.
Satz 66 Das auf L1 (Rd ) erklärte Funktional
1 d
+
L (R ) → R
R0
k· kL1 :
f 7→
|f |(x) dx
ist eine Norm, d.h.:
Für f, g ∈ L1 (Rd ) und α ∈ R gelten die Aussagen
kαf kL1 = |α| · kf kL1
kf + gkL1 ≤ kf kL1 + kgkL1
kf kL1 = 0
⇐⇒
f =0
(als Funktionsklasse!)
Beweis Zum Beweis sei einfach auf die Definition der Integrierbarkeit und auf die Sätze
54 bzw. 63 verwiesen.
124
S. Hilger, Analysis 3
Satz 67
Der normierte Vektorraum L1 (Rd ) ist vollständig. d.h. jede Cauchy–Folge in L1 (Rd ) hat
einen Grenzwert in L1 (Rd ).
Genauer: Es sei (fk )k∈N eine Folge von integrierbaren Funktionen mit der Eigenschaft,
dass die Folge ([fk ])k∈N der zugehörigen Äquivalenzklassen in L1 (Rd ) eine Cauchy–Folge
ist.
Dann gilt
(i) Es gibt eine Teilfolge (fk` )`∈N , die fast–überall punktweise gegen eine Grenzfunktion
f konvergiert.
(ii) Die Klasse [f ], die zur Grenzfunktion f dieser Teilfolge gehört, ist in L1 (Rd ) enthalten.
(iii) Es gilt dabei lim kf − fk kL1 = 0.
k→∞
(iv) Ist (fek` )`∈N eine weitere Teilfolge, die gemäß (i) fast–überall punktweise konvergiert,
so gehört ihre Grenzfunktion zur gleichen Klasse [f ] in L1 (Rd ).
Beweis (1) Wir definieren die Teilfolgen–Auswahl–Funktion ` 7→ k` rekursiv durch die
Bedingungen
1
.
2`
Dies ist aufgrund der Cauchy–Voraussetzung möglich.
k1 := 1,
kfk`+1 − fk` kL1 ≤
(2) Für ordnen der Teilfolge (fk` )`∈N wie folgt eine Teleskopreihe
fk1 +
∞
X
(fk`+1 − fk` ) = fk1 + (fk2 − fk1 ) + (fk3 − fk2 ) + (fk4 − fk3 ) + . . .
`=1
von Funktionen zu. Für die Glieder dieser Reihe gilt
Z
Z
(fk − fk )(x) dx ≤ |(fk − fk )|(x) dx = kfk − fk kL1 ≤ 1 ,
`+1
`
`+1
`
`+1
`
2`
so dass die Voraussetzung des Satzes 65 erfüllt ist. Die Grenzfunktion f existiert fast–
überall, sie definiert eine Funktionsklasse [f ] in L1 (Rd ). Es gilt:
Z
Z
Z
∞ Z
X
fk` (x) dx.
f (x) dx = fk1 (x) dx +
(fk`+1 − fk` )(x) dx = lim
`=1
`→∞
(3) Es sei ε > 0 vorgegeben. Aufgrund der Cauchy–Voraussetzung existiert zunächst ein
K ∈ N, so dass für alle k, j ≥ K gilt
ε
kfk − fj kL1 ≤
für alle k, j ≥ K.
2
Es existiert dann weiter ein L ∈ N mit kL ≥ K, so dass
∞
X
1
ε
≤
`
2
2
`=L
125
S. Hilger, Analysis 3
und deshalb
kf − fkL kL1 = k
∞
X
(fk`+1 − fk` )kL1 ≤
`=L
∞
X
k(fk`+1 − fk` )kL1 ≤
`=L
∞
X
ε
1
.
≤
`
2
2
`=L
Für ein beliebiges k ≥ K gilt dann
ε
kf − fk kL1 ≤ kf − fkL kL1 + kfkL − fk kL1 ≤ .
2
Das ist die Aussage (iii).
(4) Würde die zweite Teilfolge eine Grenzfunktion g mit [g] 6= [f ] haben, so würde dies
wegen
k→∞
kf − gkL1 ≤ kf − fk kL1 + kfk − gkL1 −→ 0
einen Widerspruch bedeuten.
Sätzchen 68 Das Integral auf L1 (Rd ) ist stetig.
Dies folgt einfach aus der Abschätzung
Z Z
Z
Z
f (x) dx − fe(x) dx = (f − fe)(x) dx ≤ f − fe (x) dx = kf − fekL1 .
126
S. Hilger, Analysis 3
26.6
Überblick
Eigenschaft
f ≤ g =⇒ S(f ) ≤ S(g)
R
(Cc , )
√
S(αf ) = αS(f ), α ∈ R+
S(αf ) = αS(f ), α ∈ R
√
R↑
R↓
R⇑
R⇓
R
R
int R
(C ↑ , ) (C ↓ , ) (F, ) (F, ) (F , ) (L, ) (L, )
√
√
√
√
√
√
√
√
√
√
√
√
−
−
−
√
−
√
( )
√
√
√
( )
√
√
√
√
√
√
√
√
√
√
S(f + g) ≤ S(f ) + S(g)
S(f + g) ≥ S(f ) + S(g)
S(f + g) = S(f ) + S(g)
−
√
√
√
√
−
S(sup fn ) = sup S(fn )
−
S(inf fn ) = inf S(fn )
−
√
−
−
−
−
−
−
−
−
−
−
−
−
−→ Vektorraum
Banachraum
−
√
−
√
−
√
−
−
√
−
√
127
S. Hilger, Analysis 3
26.7
Verallgemeinerung auf lokalkompakte Räume
Das dargelegte Konzept der Erweiterung
Z
Z
d
1
d
C(R ),
−→ L (R ),
kann wesentlich verallgemeinert werden.
26.7.1
Ausgangspunkt
Wir schildern die wesentlichen Daten des Ausgangspunkts:
Rd Es wurden nur topologische Begriffe verwendet: offene, abgeschlossene, kompakte
Teilmengen.
Die Vektorraumstruktur war unerheblich, sie spielte nur für die Transformationsformel, entfernt für den Satz von Fubini eine Rolle.
Cc Die wesentlichen Features dieser Menge waren:
– R–Vektorraum
– Sie ist abgeschlossen gegen Betragsbildung (bzw. sup / inf Bildung)
– Halbordnung f ≤ g
R
⇐⇒
f (x) ≤ g(x)∀x ∈ Rd
Die wesentlichen Eigenschaften des Integrals als Abbildung Cc (Rd ) → R waren:
– Linearität,
– Monotonie
– Respektierung des sms–Supremums.
26.7.2
Verallgemeinerung auf lokalkompakte Räume
Bei der Konstruktion des Lebesgue–Integrals kann die Menge Rd durch einen beliebigen
lokalkompakten Raum X ersetzt werden.
Definition (1) Ein topologischer Raum X heißt Hausdorff’sch, wenn es zu zwei verschiedenen Punkten x, y ∈ X disjunkte offene Umgebungen Ux und Uy gibt.
(2) Ein topologischer Raum heißt lokalkompakt, wenn er Hausdorff’sch ist und jeder Punkt
x ∈ X eine kompakte Umgebung besitzt.
26.7.3
Beispiel: X = N
X = N ist mit der diskreten Topologie versehen.
• Alle Teilmengen sind offen.
• Alle Teilmengen sind abgeschlossen.
• Die kompakten Mengen sind genau die endlichen Teilmengen.
• Eine Funktion X → R ist einfach eine reelle Folge.
128
S. Hilger, Analysis 3
• Cc (X) umfasst genau die Folgen, deren Glieder fast alle Null sind.
• Das Integral auf C(X) ist einfach die Summe der Glieder der Folge. Diese Zahl ist
endlich, da die Summe endlich ist.
• C ↑ (N) ist die Menge der Folgen N → R ∪ {+∞}, die nur endlich viele negative
Glieder haben.
• L1 (N) ist die Menge der Folgen, die bei Aufsummation zu absolut konvergenten
Reihen werden.
• Der Satz von Lebesgue über die majorisierte Konvergenz ist gerade das Majoranten–
Kriterium.
26.7.4
Beispiel: Das Dirac–Funktional
Es sei X = Rn . Wir definieren die Linearform
C(X) → R
ε0 :
f 7→ f (0)
Sie heißt Dirac’sches Maß auf X.
26.8
Verallgemeinerung auf Maßräume
Es sei jetzt X eine beliebige Menge, auf der eine σ–Algebra erklärt ist.
Definition
(1) Es sei X eine Menge. Ein System S von Teilmengen heißt σ–Algebra auf X, wenn die
folgenden Axiome erfüllt sind:
• X ∈ S.
• A∈S
=⇒
X \ A ∈ S.
• (Ak )k∈N Folge von Teilmengen aus S
=⇒
S
k∈N
Ak ∈ S.
X — oder besser das Paar (X, S) heißt dann auch Meßraum, die Teilmengen aus der
σ–Algebra heißen meßbar.
(2) Eine Abbildung f : X → Y zwischen zwei Meßräumen (X, SX ) und (Y, SY ) heißt
meßbar, wenn das Urbild einer meßbaren Menge aus SY eine meßbare Menge aus SX ist.
(3) Eine Abbildung µ : S → R heißt Maß auf einem Meßraum (X, SX ), wenn sie die
Kolmogoroff–Axiome erfüllt:
• µ(∅) = 0.
• µ(A) ≥ 0 für alle A ∈ S.
129
S. Hilger, Analysis 3
• Für eine Folge (Ak )k∈N von paarweise disjunkten Mengen aus S ist die σ–Additivität
erfüllt:
!
∞
[
X
µ
Ak =
µ(Ak ).
k∈N
k=1
Das Tripel (X, S, µ) heißt dann Maßraum.
Beispiel: Auf Rd ist eine kanonische σ–Algebra gegeben: Es ist die kleinste σ–Algebra, die
alle offenen und abgeschlossenen Teilmengen umfasst.
Gibt es im Rd nicht–meßbare Teilmengen?
Ist jetzt ein Maßraum (X, S, Rd ) gegeben, so kann man eine Integrationstheorie — ähnlich
wie oben aufbauen:
• Man startet mit dem Vektorraum E(X) der Elementarfunktionen (∼ Treppenfunktionen), das sind Linearkombinationen von charakteristischen Funktionen für meßbare Mengen:
m
X
αi ∈ R,
αi χAi ,
Ai meßbar.
i=1
• Man schaut sich dann den Raum E ∗ (X) an, er umfasst alle Funktionen X →
R ∪ {+∞}, die sich als punktweiser Limes streng monoton steigender Folgen von
Elementarfunktionen ergeben.
Es stellt sich heraus, dass E ∗ alle meßbaren Funktionen X → [0, ∞] umfasst.
Als Integral für Funktionen aus E ∗ definiert man (wieder) das Supremum der Integrale der Folgenglieder.
• Die Menge L1 (X) der Lebesgue–integrierbaren Funktionen umfasst dann genau die
Funktionen X → R, die meßbar sind und für die der Positiv- und der Negativteil
f + := sup{f, 0},
f − := − inf{f, 0}
jeweils ein endliches Integral hat.
Als Integral definiert man die Differenz
Z
Z
f
:=
f + − inf f − .
Herunterladen