Analysis III (WS 2000/01)

Werbung
Analysis III (WS 2000/01)
R. Schneider
Teil 1: Vektoranalysis und Integration von Differentialformen
1
Kurven und Bogenlänge
1
2
Kurvenintegrale
7
3
Flächen und Oberflächenintegrale
19
4
Elemente der Vektoranalysis
24
5
Hilfsmittel aus der multilinearen Algebra
41
6
Differentialformen und äußere Ableitung
49
7
Integration von Differentialformen
59
8
Differenzierbare Untermannigfaltigkeiten
68
9
Der Satz von Stokes auf Mannigfaltigkeiten
79
Teil 2: Allgemeine Maß- und Integrationstheorie
10
Einleitung
84
11
Mengensysteme
89
12
Mengenfunktionen
97
13
Konstruktion und Fortsetzung von Maßen
104
14
Spezielle Maße
113
15
Signierte Maße
131
16
Meßbare Funktionen
135
17
Integration
139
18
Konvergenzsätze für das Integral
150
19
Der Satz von Radon-Nikodym
152
20
Produktmaße
156
1
Teil 1: Vektoranalysis und Integration von Differentialformen
Der erste Teil dieser Vorlesung behandelt die Integration auf Mannigfaltigkeiten
und führt insbesondere zur Integralformel von Stokes, durch die die klassischen
Integralsätze der Vektoranalysis gemeinsam verallgemeinert werden. Die ersten
vier Abschnitte dienen der Motivation und Vorbereitung auf anschaulicher und
elementarer Basis.
1
Kurven und Bogenlänge
Im folgenden wollen wir die anschauliche geometrische Vorstellung, die man mit
der Bezeichnung Kurve“ verbindet, präzisieren und insbesondere die Länge von
”
Kurven behandeln. Zunächst eine heuristische Motivation:
Ein Massenpunkt, der sich im physikalischen Raum bewegt, beschreibt dabei eine
gewisse Bahnkurve“. Wir versuchen, aus dieser Vorstellung den Begriff der Kur”
”
ve“ zu abstrahieren. Es wäre nun keine gute Definition, als Kurve“ des Massen”
punktes einfach die Menge der überstrichenen Punkte des Raumes zu definieren,
denn ein und dieselbe Punktmenge kann in sehr verschiedener Weise durchlaufen werden. Bedenkt man, daß die Koordinaten des sich bewegenden Punktes
Funktionen der Zeit sind, so liegt es nahe, die Bahn des Punktes zu definieren
als eine Abbildung eines gewissen Intervalls in den Raum. Natürlicherweise wird
man diese Abbildung als stetig oder sogar als differenzierbar annehmen. Aber
das würde auch nicht die geometrische (im Gegensatz zur physikalischen) Vorstellung von einer Bahnkurve erfassen, da hier noch eingeht, wie der Punkt die
Bahn“ durchläuft; der zeitliche Bewegungsablauf interessiert aber geometrisch
”
nicht. Vielmehr wird man zwei Bahnen, die sich nur durch verschiedene Durchlaufgeschwindigkeiten (als Funktionen der Zeit) unterscheiden, als geometrisch
nicht verschieden ansehen wollen. Diese Überlegungen führen zu den folgenden
Begriffsbildungen.
(1.1) Definition. Sei n ≥ 2 und r ∈ N0 . Eine parametrisierte Kurve der Klasse
C r im Rn ist eine Abbildung X : [a, b] → Rn der Klasse C r von einem Intervall
[a, b] ⊂ R in den Rn . Sie heißt regulär, wenn r ≥ 1 und X überall vom Rang 1
ist.
Im Gegensatz zu den früheren Betrachtungen über allgemeine differenzierbare
Abbildungen haben wir hier einen abgeschlossenen Definitionsbereich zugrundegelegt. Das erfordert keine neuen Definitionen für Differenzierbarkeit etc., da für
die Koordinatenfunktionen einer parametrisierten Kurve Differenzierbarkeit wie
in An. I erklärt ist.
2
1 KURVEN UND BOGENLÄNGE
Bemerkung. Das Differential der parametrisierten Kurve X der Klasse C 1 an
der Stelle t ist die Abbildung
DXt : R →
Rn
h 7→ X 0 (t)h,
wo X 0 (t) die Ableitung (der Tangentenvektor) von X in t ist (siehe An.II.8).
Regulär ist die parametrisierte Kurve X also genau dann, wenn X 0 (t) 6= 0 ist für
alle t ∈ [a, b].
(1.2) Definition. Eine Parametertransformation der Klasse C r (r ≥ 0) ist eine
streng monotone, bijektive Abbildung τ : [a, b] → [a, b] der Klasse C r mit τ 0 (t) 6= 0
für alle t ∈ [a, b] im Fall r ≥ 1. Sie heißt orientierungstreu, wenn sie wachsend
ist.
Sei X : [a, b] → Rn eine parametrisierte Kurve der Klasse C r und τ : [a, b] →
[a, b] eine Parametertransformation der Klasse C r . Dann ist auch X := X ◦ τ
0
eine parametrisierte Kurve der Klasse C r . Im Fall r ≥ 1 ist wegen X (t) =
X 0 (τ (t))τ 0 (t) mit X auch X regulär.
(1.3) Definition. Die parametrisierten Kurven X : [a, b] → Rn und X : [a, b] →
Rn der Klasse C r heißen (orientierungstreu) C r -äquivalent, wenn es eine (orientierungstreue) Parametertransformation τ : [a, b] → [a, b] der Klasse C r mit
X = X ◦ τ gibt.
Daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu beweisen.
(1.4) Definition. Eine (orientierte) Kurve der Klasse C r im Rn ist eine (orientierungstreue) C r -Äquivalenzklasse von parametrisierten Kurven der Klasse C r .
Jeder Repräsentant einer Kurve heißt Parameterdarstellung oder Parametrisierung der Kurve. Eine Kurve der Klasse C 1 heißt regulär, wenn sie eine reguläre
Parametrisierung besitzt. Das Bild einer Parametrisierung (das offenbar nur von
der Kurve abhängt) heißt Spur der Kurve.
Beispiel.
X : [0, π] →
t
R2
7→ (cos t, sin t)
ist eine parametrisierte Kurve der Klasse C ∞ , und
R2
√
7
→
(−t, 1 − t2 )
X : [−1, 1] →
t
3
ist eine parametrisierte Kurve der Klasse C 0 (sie ist nicht von der Klasse C 1 ). X
und X sind orientierungstreu C 0 -äquivalent: Durch
τ : [0, π] → [−1, 1]
t
7→ − cos t
ist eine orientierungstreue Parametertransformation τ der Klasse C 0 mit X =
X ◦ τ gegeben. X und X sind also verschiedene Parameterdarstellungen einer
orientierten Kurve der Klasse C 0 . Die Spur dieser Kurve ist der Halbkreis
{(x1 , x2 ) ∈ R2 : x21 + x22 = 1, x2 ≥ 0}.
X ist auch eine Parameterdarstellung einer Kurve der Klasse C ∞ .
Bemerkung. Parametrisierte Kurven der Klasse C 0 , also stetige parametrisierte
Kurven, die durch (1.1) mitdefiniert werden, sind noch so allgemein, daß sie keineswegs der anschaulichen Vorstellung von der Bahn eines bewegten Punktes“
”
adäquat zu sein brauchen. So gibt es beispielshalber eine stetige parametrisierte
Kurve, deren Spur ein ganzes Dreieck ausfüllt! (Zur Konstruktion von solchen
sogenannten Peanokurven“ sehe man z.B. v. Mangoldt-Knopp II, §143). Ins”
besondere braucht eine stetige Kurve nicht eine irgendwie vernünftig definierte
Länge“ zu besitzen, was man andererseits von einem mathematischen Gebilde,
”
das die Bahn eines Punktes beschreiben soll, verlangen wird.
Wir wollen jetzt solche Kurven betrachten, denen man eine Länge zuschreiben
kann. Das kann man in einer von der Anschauung her nahegelegten Weise insbesondere bei solchen Kurven, deren Spur ein Streckenzug ist, indem man die
Länge der Strecke [X, Y ] durch kX − Y k erklärt und die Länge eines Streckenzuges durch die Summe der Längen der Einzelstrecken. Hierauf kann man nun
die Erklärung des allgemeinen Längenbegriffs zurückführen, indem man der Spur
einer allgemeinen Kurve Streckenzüge einbeschreibt“ und die Länge der Kurve
”
erklärt als das Supremum der Längen aller einbeschriebenen Streckenzüge, falls
dieses endlich ist. Dieses anschaulich plausible Vorgehen wird folgendermaßen
präzisiert.
(1.5) Definition. Sei X : [a, b] → Rn eine parametrisierte Kurve der Klasse C 0 .
Zu jeder Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] sei
L(X, Z) :=
k
X
kX(ti ) − X(ti−1 )k.
i=1
Ist
L(X) := sup{L(X, Z) : Z Zerlegung von [a, b]} < ∞,
so heißt X rektifizierbar und L(X) die Länge von X.
4
1 KURVEN UND BOGENLÄNGE
Man kann leicht zeigen, daß für C 0 -äquivalente parametrisierte Kurven X, X stets
L(X) = L(X) ist. Man kann daher die Länge einer Kurve als die Länge einer
beliebigen Parameterdarstellung definieren. Wir wollen uns aber nicht weiter mit
allgemeinen rektifizierbaren Kurven befassen, sondern unter stärkeren Voraussetzungen die Rektifizierbarkeit zeigen und eine Berechnungsmöglichkeit für die
Länge aufweisen.
Wir benötigen einen Hilfssatz. Ist F : [a, b] → Rn stetig und F (t) =
(f1 (t), . . . , fn (t)), so schreiben wir

Zb
Zb
F (t) dt := 
a

Zb
f1 (t) dt, . . . ,
a
fn (t) dt .
a
(1.6) Hilfssatz. Für stetiges F : [a, b] → Rn gilt
b
Z
Zb
F (t) dt ≤ kF (t)k dt
a
a
Beweis. Ist Z : a = t0 < t1 . . . < tk = b eine Zerlegung von [a, b], so gilt
k
!
k
X
X
f1 (ti )(ti − ti−1 ), . . . ,
fn (ti )(ti − ti−1 ) i=1
i=1
k
k
X
X
= F (ti )(ti − ti−1 ) ≤
kF (ti )k(ti − ti−1 ).
i=1
i=1
Lassen wir nun Z eine Folge von Zerlegungen durchlaufen derart, daß die maximale Teilintervall-Länge eine Nullfolge ist, so ergibt sich die Behauptung, da
das Integral einer stetigen Funktion nach Definition der Limes der Integrale jeder
gleichmäßig gegen die Funktion konvergierenden Folge von Treppenfunktionen
ist.
(1.7) Satz. Jede parametrisierte Kurve X : [a, b] → Rn der Klasse C 1 ist rektifizierbar und hat die Länge
Zb
L(X) =
a
kX 0 (t)k dt.
5
Beweis. Setze
Rb
kX 0 (t)k dt =: S. Unter Verwendung von (1.6) ergibt sich für jede
a
Zerlegung Z : a = t0 < t1 < . . . < tk = b von [a, b] die Abschätzung
t
Zi
k
k
X
X
0
L(X, Z) =
kX(ti ) − X(ti−1 )k =
X (t) dt
i=1
i=1 ti−1
≤
Zti
k
X
Zb
0
kX (t)k dt =
i=1 t
i−1
kX 0 (t)k dt = S.
a
Also ist X rektifizierbar und L(X) ≤ S.
Zu einer Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] setzen wir
S(X, Z) :=
k
X
kX 0 (ti )k(ti − ti−1 ).
i=1
Sei ∈ R+ gegeben. Sei X(t) = (x1 (t), . . . , xn (t)). Da x0j auf [a, b] gleichmäßig
stetig ist, existiert ein δ ∈ R+ mit
|x0j (t1 ) − x0j (t2 )| < √
2 n(b − a)
für alle t1 , t2 ∈ [a, b]
mit |t1 − t2 | < δ
(j = 1, . . . , n). Es gibt eine Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls
[a, b] mit ti − ti−1 < δ (i = 1, . . . , k) und mit |S − S(X, Z)| < 2 . Dies folgt aus
der Definition des Integrals, indem man die gleichmäßig stetige Funktion t 7→
kX 0 (t)k (t ∈ [a, b]) durch eine passende Folge von Treppenfunktionen gleichmäßig
approximiert. Nach dem Mittelwertsatz der Differentialrechnung gilt
L(X, Z) =
k
X
kX(ti ) − X(ti−1 )k
i=1
=
k
n
X
X
i=1
=
|xj (ti ) − xj (ti−1 )|2
j=1
k
n
X
X
i=1
!1/2
! 12
|x0j (τij )|2
(ti − ti−1 )
j=1
mit passenden τij ∈ (ti−1 , ti ). Es folgt
! 21
k X
X
n
|S(X, Z) − L(X, Z)| ≤
|x0j (ti )|2
−
i=1
j=1
! 21 |x0j (τij )|2 (ti − ti−1 )
j=1
n
X
6
1 KURVEN UND BOGENLÄNGE
≤
k
n
X
X
i=1
! 21
|x0j (ti ) − x0j (τij )|2
(ti − ti−1 ) <
j=1
2
(hier wurde die Ungleichung |kAk − kBk| ≤ kA − Bk benutzt), also
|S − L(X, Z)| ≤ |S − S(X, Z)| + |S(X, Z) − L(X, Z)| < .
Da es zu jedem ∈ R+ ein derartiges L(X, Z) gibt, folgt L(X) = supZ L(X, Z) ≥
S und damit die Behauptung L(X) = S.
Ist nun X̃ eine Kurve der Klasse C 1 , so erklärt man als Länge der Kurve X̃ die Länge einer Parametrisierung von X̃. Diese Definition ist sinnvoll,
d.h. unabhängig von der Wahl der Parametrisierung: Seien X : [a, b] → Rn ,
X : [a, b] → Rn Parameterdarstellungen von X̃. Dann gibt es eine Parametertransformation τ : [a, b] → [a, b] der Klasse C 1 mit X = X ◦ τ . Es folgt
Zb
Zb
0
kX (t)k dt =
a
kX 0 (τ (t))k|τ 0 (t)|dt
a
=





Rb
a



kX 0 (t)k dt, falls τ 0 > 0 

Ra



−
kX 0 (t)k dt, falls τ 0 < 0

b
Zb
=




kX 0 (t)k dt.
a
Unter Verwendung der Länge (auch Bogenlänge genannt) kann man aus der Vielzahl der Parameterdarstellungen einer regulären Kurve eine bestimmte aussondern, die oft von Nutzen ist:
(1.8) Satz und Definition. Sei X̃ eine reguläre Kurve der Klasse C r (r ≥ 1)
im Rn von der Länge L. Dann gibt es eine Parametrisierung X : [0, L] → Rn
(der Klasse C r ) von X̃ mit
kX 0 (s)k = 1
für alle s ∈ [0, L].
Sie heißt natürliche Parameterdarstellung oder Parametrisierung durch die Bogenlänge.
Für s ∈ (0, L) hat also die parametrisierte Kurve X|[0, s] die Länge s; daher rührt
die Bezeichnung Parametrisierung durch die Bogenlänge“.
”
Beweis. Sei F : [a, b] → Rn eine reguläre Parameterdarstellung von X̃. Setze
Zt
σ(t) :=
a
kF 0 (x)k dx
für t ∈ [a, b].
7
Dann ist σ : [a, b] → [0, L] eine differenzierbare Abbildung mit
σ 0 (t) = kF 0 (t)k > 0,
also eine Parametertransformation, und zwar von der Klasse C r , wenn F von der
Klasse C r ist. Setzen wir X := F ◦σ −1 , also X ◦σ = F , so ist nach der Kettenregel
kX 0 (σ(t))k|σ 0 (t)| = kF 0 (t)k = σ 0 (t) > 0
für t ∈ [a, b],
also kX 0 (s)k = 1 für s ∈ [0, L].
Zum Beispiel ist die Standard-Parametrisierung der Einheitskreislinie,
X(t) := (cos t, sin t),
t ∈ [0, 2π],
wegen X 0 (t) = (− sin t, cos t), kX 0 (t)k = 1, gerade die Parametrisierung durch die
Bogenlänge.
Dies liefert uns insbesondere die bekannte anschauliche Deutung von Winkeln.
Früher hatten wir den Winkel zwischen zwei Einheitsvektoren U, V definiert als
die eindeutig betsimmte Zahl ϕ ∈ [0, π] mit
cos ϕ = hU, V i.
Jetzt sehen wir, daß ϕ die Länge des Einheitskreisbogens
{(cos t, sin t) : 0 ≤ t ≤ ϕ}
zwischen den Vektoren U = (1, 0) und V = (cos ϕ, sin ϕ) ist.
2
Kurvenintegrale
Den Begriff der Kurve haben wir abstrahiert aus der physikalisch-anschaulichen
Vorstellung von der Bahn eines bewegten Punktes. Wird ein Punkt bewegt durch
das Vorhandensein einer Kraft, etwa ein Massenpunkt im Gravitationsfeld oder
ein geladener Punkt im elektrischen Feld, so leistet das Kraftfeld eine Arbeit.
Die Bestimmung dieser Arbeit führt unmittelbar auf den Begriff des Kurvenin”
tegrals“, wie wir nun erläutern wollen.
Wird ein Punkt durch eine konstante Kraft vom Betrag K um eine gerade Strecke
der Länge s in Richtung der Kraft verschoben, so leistet die Kraft die Arbeit Ks.
Ist die Richtung der Kraft verschieden von der Bewegungsrichtung, so ist K zu
ersetzen durch die Komponente des Kraftvektors in Richtung der Bewegung. Gibt
also der Vektor V die Kraft an und ist X der Anfangs- und Y der Endpunkt der
Verschiebungsstrecke, so ergibt sich die Arbeit zu
kV ks cos ϕ = hV, Y − Xi,
8
2 KURVENINTEGRALE
wo ϕ der Winkel zwischen V und Y − X ist. Nun wird der Kraftvektor im allgemeinen von Punkt zu Punkt verschieden sein; jedem Punkt ist ein Kraftvektor
zugeordnet, aber i.a. nicht jedem Punkt derselbe. Das Kraftfeld“ wird also be”
schrieben durch eine Abbildung V : R3 → R3 (wobei die Argumente von V als
Punkte und die Bilder als Vektoren zu interpretieren sind). Es ergibt sich die
Frage, welche Arbeit dieses Kraftfeld leistet, wenn ein Punkt von X nach Y verschoben wird, und zwar nicht notwendig auf der Verbindungsstrecke, sondern
längs einer gegebenen Kurve mit Anfangspunkt X und Endpunkt Y .
Es liegt nahe, ähnlich wie bei der Präzisierung des anschaulich gegebenen Begriffs
der Länge, die Kurve zu approximieren“ durch einbeschriebene Streckenzüge.
”
Wenn die einzelnen Strecken sehr klein sind und das Kraftfeld als stetig vorausgesetzt wird, ist es plausibel, längs einer solchen Strecke den Kraftvektor als konstant (und zwar gleich dem Wert in einem beliebig gewählten Punkt der Strecke)
anzunehmen und die Arbeit, die das Kraftfeld bei Verschiebung längs des Kurvenstücks vom Anfangs- bis zum Endpunkt der Stecke leistet, anzunähern durch
den oben gegebenen Ausdruck. Durch Aufsummierung über alle Einzelstrecken
erhält man einen Wert, den man als Näherungswert der gesuchten Arbeit bei
der Verschiebung längs der ganzen Kurve ansehen wird. Man wird hoffen, daß
bei fortgesetzter Verfeinerung der Approximation durch Streckenzüge die Näherungswerte gegen eine Zahl konvergieren, die nur von der Kurve und dem Kraftfeld abhängt und die man dann als die gesuchte Arbeit ansehen kann. Wir wollen
nun diese heuristischen Überlegungen präzisieren.
Sei M ⊂ Rn offen. Eine Abbildung V : M → Rn wird im folgenden auch als
Vektorfeld bezeichnet. Da wir vereinbart haben, bei der Behandlung des Rn keinen Unterschied zwischen Punkten“ und Vektoren zu machen, ist diese neue
”
Bezeichnung eigentlich nicht notwendig. Sie wird jedoch (in bestimmten Zusammenhängen) aus folgenden Gründen benutzt: Beim weiteren Ausbau der Analysis ergibt sich die Notwendigkeit, den Rn durch andere Räume, differenzierbare
”
Mannigfaltigkeiten“, zu ersetzen. Sie sind im allgemeinen keine Vektorräume,
aber jedem ihrer Punkte ist ein Vektorraum von sogenannten Tangentialvektoren
zugeordnet. Ein Vektorfeld ordnet dann jedem Punkt der Mannigfaltigkeit einen
Tangentialvektor in diesem Punkt zu; ein solches Vektorfeld ist also etwas anderes
als eine Abbildung in die Mannigfaltigkeit selbst. Bei unserer Betrachtungsweise
soll die Bezeichnung Vektorfeld“ auch die (physikalisch motivierte) anschauliche
”
Vorstellung fördern: Es hilft der Anschauung, sich im Falle eines Vektorfeldes
V : M → Rn zu jedem Punkt X ∈ M den Vektor V (X) als im Punkt X an”
geheftet“ vorzustellen. [Genauer könnten wir unter einem Tangentialvektor in X
ein Paar (X, V ) mit V ∈ Rn verstehen. Die Tangentialvektoren in X bilden dann
einen zu Rn kanonisch isomorphen Vektorraum, den Tangentialraum in X, aber
Tangentialräume in verschiedenen Punkten sind verschieden.]
Sei nun V : M → Rn ein stetiges Vektorfeld. Sei K eine orientierte Kurve im
9
Rn , deren Spur in M enthalten sei. Wir wählen eine Parameterdarstellung F :
[a, b] → Rn von K. Ist Z : a = t0 < t1 < . . . < tk = b eine Zerlegung von [a, b], so
nennen wir die Zahl
η(Z) := max{ti − ti−1 : i = 1, . . . , k}
den Feinheitsgrad von Z. Ist A := (τ1 , . . . , τk ) ein k-Tupel mit τi ∈ [ti−1 , ti ]
(i = 1, . . . , k), so sagen wir, A sei eine zu Z gehörige Zwischenpunktfolge. Durch
S(V, F, Z, A) :=
k
X
hV (F (τi )), F (ti ) − F (ti−1 )i
i=1
ist jetzt offenbar ein Näherungsausdruck der oben beschriebenen Art gegeben.
Man kann nun folgendes beweisen:
Sei K rektifizierbar und V stetig. Sei (Zk )k∈N eine Folge von Zerlegungen des
Intervalls [a, b] mit η(Zk ) → 0 für k → ∞; sei Ak eine zu Zk gehörige Zwischenpunktfolge (k ∈ N). Dann existiert
Z
lim S(V, F, Zk , Ak ) =: hV, dF i,
k→∞
K
und dieser Grenzwert ist unabhängig von der Wahl der Parameterdarstellung F
sowie von der Auswahl der Folgen (Zk )k∈N und (Ak )k∈N .
R
Man bezeichnet die so definierte Zahl K hV, dF i als das Kurvenintegral (oder
Linienintegral) des Vektorfeldes V längs der orientierten Kurve K.
Wir wollen den obigen Satz, der sich auf allgemeine rektifizierbare Kurven bezieht,
hier nicht beweisen; gut handhabbar wird das Kurvenintegral ohnehin erst, wenn
man speziellere Kurven zugrundelegt. Man kann nämlich zeigen, daß für eine
Parameterdarstellung F : [a, b] → Rn der Klasse C 1 die Gleichung
Zb
Z
hV, dF i =
K
hV (F (t)), F 0 (t)i dt
a
besteht. Rechts steht hier jetzt ein gewöhnliches Integral einer stetigen Funktion
über ein Intervall. Wir wollen auch dieses Ergebnis hier nicht beweisen, sondern
alles Bisherige nur als Motivation betrachten und nun das Kurvenintegral für eine
spezielle Klasse rektifizierbarer Kurven definieren durch den obigen Ausdruck.
(2.1) Definition. Eine stückweise glatte, orientierte Kurve im Rn ist eine orientierte Kurve K der Klasse C 0 im Rn , zu der es eine Parameterdarstellung
F : [a, b] → Rn und eine Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] gibt derart, daß jede Einschränkung F |[ti−1 , ti ] von der Klasse C 1 ist
(i = 1, . . . , k). Eine solche Parameterdarstellung wird stückweise glatt genannt.
10
2 KURVENINTEGRALE
(2.2) Definition und Behauptung. Sei V : M → Rn ein stetiges Vektorfeld
und K eine stückweise glatte, orientierte Kurve im Rn mit Spur in M . Sei F :
[a, b] → Rn eine stückweise glatte Parameterdarstellung von K. Dann hängt die
Zahl
Z
Zb
hV, dF i := hV (F (t)), F 0 (t)i dt
a
K
nicht von der Wahl der Parameterdarstellung ab. Sie wird als das Kurvenintegral
von V längs K bezeichnet.
Das rechts stehende Integral, dessen Integrand an endlich vielen Stellen nicht
erklärt ist, ist natürlich zu verstehen als die Summe
k Zti
X
hV (F (t)), F 0 (t)i dt,
i=1 t
i−1
wo F |[ti−1 , ti ] von der Klasse C 1 ist. – Die Unabhängigkeit von der Wahl der Parameterdarstellung ist leicht zu sehen: Sei F : [a, b] → Rn eine weitere stückweise
glatte Parametrisierung von K. Nehmen wir zunächst an, F und F seien von
der Klasse C 1 . Dann gibt es eine Parametertransformation τ : [a, b] → [a, b] der
Klasse C 1 mit τ 0 > 0 und F = F ◦ τ . Es folgt
Zb
Zb
0
hV (F (t)), F (t)i dt =
a
hV (F (τ (t))), F 0 (τ (t))iτ 0 (t) dt
a
Zb
=
hV (F (s)), F 0 (s)i ds,
a
wobei die Kettenregel und die Substitutionsregel benutzt wurden. Bei nur stückweise glatten Parameterdarstellungen wendet man dieselbe Schlußweise auf die
einzelnen Teilintervalle an.
Bemerkung. Man beachte, daß das Kurvenintegral (im Gegensatz zur Bogenlänge) von der Orientierung der Kurve abhängt. Ist K eine orientierte Kurve
und F : [a, b] → Rn eine Parameterdarstellung von K, so wird mit
τ : [a, b] →
t
[a, b]
7→ b − (t − a)
durch F ∗ := F ◦τ eine Parameterdarstellung einer orientierten Kurve K ∗ gegeben,
die nicht von der Wahl der Parametrisierung F abhängt. Man sagt, daß K ∗ aus
11
K durch Umkehrung der Orientierung hervorgeht. Offenbar gilt nun
Z
Z
∗
hV, dF i = − hV, dF i,
K∗
K
was angesichts der einleitend erläuterten physikalischen Bedeutung auch völlig
plausibel ist.
R
Bemerkung. Für das Integral K hV, dF i findet man auch oft die Schreibweise
Z
(v1 dx1 + . . . + vn dxn )
K
(wobei V = (v1 , . . . , vn ) ist). Sie ist insbesondere dann angebracht, wenn man
dem Ausdruck v1 dx1 + . . . + vn dxn einen selbständigen Sinn gegeben hat (Differentialform vom Grad 1). Solange man das aber nicht exakt getan hat, sollte
man diese Schreibweise nicht benutzen.
Bemerkung. Ist die orientierte Kurve K von der Klasse C 1 und regulär und ist
F ihre Parametrisierung durch die Bogenlänge (Def. (1.8)), so gilt
kF 0 (s)k = 1
für s ∈ [0, L(K)].
F 0 (s) ist also in diesem Fall ein Vektor der Länge 1; er heißt Tangenteneinheitsvektor der Kurve K (zum Parameterwert s). Er ist – anschaulich gesprochen –
tangential zur Spur der Kurve K gerichtet. Das Skalarprodukt hV (F (s)), F 0 (s)i
bedeutet daher die Komponente des Vektors V (F (s)) in Richtung des Tangenteneinheitsvektors F 0 (s); man nennt sie auch Tangentialkomponente“ und be”
zeichnet sie z.B. mit Vt (s). Das Kurvenintegral schreibt sich dann in der Form
L(K)
Z
Z
hV, dF i =
Vt (s) ds.
0
K
Wir kommen nun zu einer wichtigen Begriffsbildung. Sei M ⊂ Rn offen und
V : M → Rn ein stetiges Vektorfeld. Die für das Kurvenintegral
Z
hV, dF i
K
mögliche physikalische Deutung (Arbeit des Kraftfeldes“ V bei Verschiebung
”
eines Punktes längs K) legt die Frage nahe, wie das Vektorfeld V beschaffen sein
muß, damit der Wert des Kurvenintegrals nur vom Anfangs- und Endpunkt der
12
2 KURVENINTEGRALE
orientierten Kurve K, aber nicht vom Verlauf der Kurve K abhängt (natürlich soll
die Spur der Kurve stets im Definitionsbereich des Vektorfeldes liegen). Ist diese
sogenannte Wegunabhängigkeit gegeben, so hängt bei festgehaltenem Anfangspunkt X die für die Verschiebung in einen Punkt Y erforderliche Arbeit nur von
Y und nicht von der dorthin führenden Kurve ab. Ordnet man dem Punkt Y den
Wert dieser Arbeit zu, so hat man dadurch auf M eine reellwertige Funktion, die
Potentialdifferenz“ zu X, erklärt. Man sagt dann, das Vektorfeld V besitze ein
”
Potential“ oder sei konservativ“ (= bewahrend; da bei Verschiebung längs ei”
”
ner zum Anfangspunkt zurückkehrenden Kurve keine Energie verlorengeht). Das
Vektorfeld V erweist sich dann einfach als Gradientenfeld des Potentials. Unter
zusätzlichen Voraussetzungen läßt sich ein nachprüfbares Kriterium dafür herleiten, ob ein Vektorfeld ein Gradientenfeld ist. Dies wollen wir nun im Einzelnen
untersuchen.
Der zugrundegelegte Definitionsbereich M soll im folgenden immer ein Gebiet
sein, das heißt offen und zusammenhängend. Diese Voraussetzung ist hier sehr
natürlich: Ist M nicht zusammenhängend, so gibt es Punkte X, Y ∈ M , die
nicht durch eine Kurve in M verbindbar sind; es ist dann also sinnlos, die Frage
nach der Wegunabhängigkeit von Kurvenintegralen zu stellen. Ist andererseits M
zusammenhängend und offen, so lassen sich je zwei Punkte in M sogar durch
einen Polygonzug in M verbinden.
(2.3) Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn ein stetiges Vektorfeld. Wir sagen, daß für V die Kurvenintegrale wegunabhängig sind, wenn für
alle X, Y ∈ M gilt, daß für jede stückweise glatte, orientierte Kurve K in M mit
Anfangspunkt X und Endpunkt Y das Kurvenintegral
Z
hV, dF i
K
denselben Wert hat.
Wir präzisieren nun den oben angedeuteten Zusammenhang zwischen Wegunabhängigkeit und Gradientenfeldern.
(2.4) Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn stetig. Das Vektorfeld
V heißt Gradientenfeld, wenn es eine stetig differenzierbare Funktion f : M → R
mit
∇f (X) = V (X)
für alle X ∈ M
gibt. Die Funktion f heißt dann eine Stammfunktion oder ein Potential des Vektorfeldes V .
Ein Potential ist im wesentlichen eindeutig bestimmt:
13
(2.5) Satz. Sei M ⊂ Rn ein Gebiet und V : M → Rn stetig. Sind f und g zwei
Stammfunktionen des Vektorfeldes V, so ist f − g konstant.
Beweis. Sind f und g Stammfunktionen von V , so ist ∇(f −g) = 0. Nach An.II.9.7
ist f − g differenzierbar, und es ist D(f − g)X = 0 für alle X ∈ M . Nach An.II.8.7
ist f − g konstant.
Als erstes Ergebnis über die Wegunabhängigkeit von Kurvenintegralen haben wir:
(2.6) Satz. Sei M ⊂ Rn ein Gebiet und V : M → Rn ein stetiges Vektorfeld.
Genau dann sind für V die Kurvenintegrale wegunabhängig, wenn V ein Gradientenfeld ist.
Ist f eine Stammfunktion von V, so gilt
Z
hV, dF i = f (Y ) − f (X)
K
für jede stückweise glatte orientierte Kurve in M mit Anfangspunkt X und Endpunkt Y.
Beweis. Zunächst sei V ein Gradientenfeld und f eine Stammfunktion von V . Sei
F : [a, b] → Rn eine Parameterdarstellung einer orientierten Kurve K der Klasse
C 1 mit Spur in M . Dann ergibt sich unter Verwendung der Kettenregel
Zb
Z
hV, dF i =
hV (F (t)), F 0 (t)i dt
a
K
Zb
=
h∇f (F (t)), F 0 (t)i dt
a
Zb
=
(f ◦ F )0 (t) dt
a
= (f ◦ F )(b) − (f ◦ F )(a) = f (Y ) − f (X),
wenn X und Y Anfangs- bzw. Endpunkt der orientierten Kurve K sind. Dieses
Ergebnis überträgt sich sofort auf stückweise glatte orientierte Kurven.
Nun sei umgekehrt vorausgesetzt, daß für V die Kurvenintegrale wegunabhängig
sind. Wähle X0 ∈ M . Für X ∈ M wähle eine stückweise glatte, orientierte Kurve
14
2 KURVENINTEGRALE
K in M mit Anfangspunkt X0 und Endpunkt X (die Existenz solcher Kurven
folgt aus dem Beweis von An.II.8.7) und setze
Z
f (X) := hV, dF i.
K
Wegen der vorausgesetzten Wegunabhängigkeit der Kurvenintegrale ist diese Definition möglich.
Für X ∈ M sei nun K eine stückweise glatte, orientierte Kurve in M mit Anfangspunkt X0 und Endpunkt X, sei F : [a, b] → Rn eine stückweise glatte Parameterdarstellung von K. Sei i ∈ {1, . . . , n}, sei h ∈ R+ so klein, daß X + tEi ∈ M
für t ∈ [0, h] gilt. Setzen wir
(
F (t)
für a ≤ t ≤ b,
F (t) :=
X + (t − b)Ei für b ≤ t ≤ b + h,
so ist F eine stückweise glatte Parameterdarstellung einer orientierten Kurve K
in M mit Anfangspunkt X0 und Endpunkt X + hEi . Also gilt
Z
Z
hV, dF i − hV, dF i
f (X + hEi ) − f (X) =
K
K
Zb+h
0
=
hV (F (t)), F (t)i dt
b
Zb+h
=
hV (X + (t − b)Ei ), Ei i dt.
b
Nach dem Hauptsatz der Differential- und Integralrechnung ist die rechte Seite
nach h differenzierbar, und an der Stelle h = 0 erhält man
∂i f (X) = hV (X), Ei i = vi (X);
also ist ∇f (X) = V (X).
Satz (2.6) ist insofern noch nicht sonderlich nützlich, als man einem Vektorfeld ja
nicht unmittelbar ansehen kann, ob es ein Gradientenfeld ist. Ein handliches Kriterium läßt sich erst aufstellen, wenn man das Vektorfeld als stetig differenzierbar
voraussetzt:
(2.7) Satz und Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn stetig
differenzierbar. Ist V = (v1 , . . . , vn ) ein Gradientenfeld, so gilt
∂j vi = ∂i vj
für i, j = 1, . . . , n.
15
Diese Gleichungen heißen die Integrabilitätsbedingungen für das Vektorfeld V .
Beweis. Da V ein Gradientenfeld ist, existiert eine stetig differenzierbare Funktion
f : M → R mit ∇f (X) = V (X), also mit ∂i f (X) = vi (X) für i = 1, . . . , n
(X ∈ M ). Da die Funktionen v1 , . . . , vn nach Voraussetzung stetig differenzierbar
sind, ist f zweimal stetig differenzierbar; nach An.II.10.1 gilt also ∂j vi = ∂j ∂i f =
∂i ∂j f = ∂i vj .
Es ist eine wichtige Frage, inwieweit sich Satz (2.7) umkehren läßt, wann also ein
stetig differenzierbares Vektorfeld, das den Integrabilitätsbedingungen genügt, ein
Gradientenfeld ist und damit ein Potential besitzt. Hier spielt eine gewisse topologische Eigenschaft des zugrundeliegenden Gebietes eine Rolle. Zunächst wollen
wir zeigen, daß für ein Vektorfeld, das die Integrabilitätsbedingungen erfüllt, zumindest lokal stets die Kurvenintegrale wegunabhängig sind, d.h. für alle Kurven,
die ganz innerhalb einer geeigneten Umgebung eines gegebenen Punktes verlaufen. Dies ergibt sich aus dem allgemeineren Satz (2.9).
(2.8) Definition. Die Menge M ⊂ Rn heißt sternförmig, wenn es einen Punkt
X0 ∈ M gibt mit [X0 , Y ] ⊂ M für alle Y ∈ M .
(2.9) Satz. Sei M ⊂ Rn offen und sternförmig, sei V : M → Rn ein stetig differenzierbares Vektorfeld, das die Integrabilitätsbedingungen erfüllt. Dann existiert
eine stetig differenzierbare Funktion f : M → R mit ∇f = V .
Beweis. Nach Voraussetzung gibt es einen Punkt X0 ∈ M mit X0 +t(X −X0 ) ∈ M
für X ∈ M und 0 ≤ t ≤ 1. Für X ∈ M können wir also
Z1
hV (X0 + t(X − X0 )), X − X0 i dt
f (X) :=
0
definieren. Unter Verwendung des Hauptsatzes ergibt sich mit
V = (v1 , . . . , vn ),
X = (x1 , . . . , xn ),
X0 = (x01 , . . . , x0n )
bei Benutzung der Integrabilitätsbedingungen für i = 1, . . . , n (die nachfolgende
Vertauschung von Differentiation und Integration ist erlaubt nach An.I.23.2)
Z1
∂i f (X) =
∂i
0
n
X
vr (X0 + t(X − X0 ))(xr − x(0)
r ) dt
r=1
Z1 "
vi (X0 + t(X − X0 )) +
=
0
n
X
r=1
#
∂i vr (X0 + t(X − X0 ))t(xr − x(0)
r ) dt
16
2 KURVENINTEGRALE
Z1 "
vi (X0 + t(X − X0 )) +
=
#
∂r vi (X0 + t(X − X0 ))t(xr − x(0)
r ) dt
r=1
0
Z1
=
n
X
[tvi (X0 + t(X − X0 ))]0 dt
0
= [tvi (X0 + t(X − X0 ))]10
= vi (X),
also ∇f (X) = V (X).
Beispiel. Sei M = R2 \ {0} und V : M → R2 erklärt durch
−y
x
V (x, y) :=
,
,
(x, y) ∈ M.
x2 + y 2 x2 + y 2
Es gilt
y 2 − x2
= ∂1 v2 (x, y);
(x2 + y 2 )2
die Integrabilitätsbedingungen sind also erfüllt. Die Kurvenintegrale sind aber
nicht wegunabhängig: Durch
∂2 v1 (x, y) =
F : [0, 2π] →
t
R2
7→ (cos t, sin t)
ist eine Parametrisierung einer orientierten Kurve K in M gegeben. Wären für
das Vektorfeld V die Kurvenintegrale wegunabhängig, so wäre nach (2.6) (mit
einer Stammfunktion f )
Z
hV, dF i = f (1, 0) − f (1, 0) = 0.
K
Es ist aber
Z
K
Z2π
Z2π
0
hV, dF i = hV (F (t)), F (t)i =
1 dt = 2π 6= 0.
0
0
Nach (2.9) besitzt das Vektorfeld V lokal ein Potential; dieses ist (bis auf eine
additive Konstante) gegeben durch
(
y
für x 6= 0,
arctan x
f (x, y) =
arccot x
für y 6= 0.
y
17
Man rechnet leicht nach, daß in der Tat ∇f = V ist. Geometrisch bedeutet
f (x, y) den Winkel zwischen E1 und X = (x, y). Offenbar besitzt V kein auf ganz
M erklärtes, stetiges Potential. An diesem Beispiel sieht man besonders deutlich,
wie es kommen kann, daß zwar lokal ein Potential existiert, aber nicht global, d.h.
auf dem ganzen Definitionsgebiet des Vektorfeldes. [Das vorstehende Beispiel hat
folgende physikalische Bedeutung: Im R3 stellen wir uns die z-Achse als (unendlich dünnen, unendlich langen) elektrischen Leiter vor, durch den ein konstanter
elektrischer Strom (in Richtung wachsender z) fließt. Das Magnetfeld dieses Stromes wird dann (bis auf die physikalische Dimension und einen konstanten Faktor)
gegeben durch
x
−y
,
,0
für (x, y) 6= (0, 0).
V (x, y, z) =
x2 + y 2 x2 + y 2
Die Feldlinien“ sind also (orientierte) Kreise in Ebenen parallel zur x, y-Ebene
”
mit Mittelpunkt auf der z-Achse. Daß das Feld auf der z-Achse selbst nicht erklärt werden kann, ist darauf zurückzuführen, daß der Leiter als unendlich dünn“
”
angenommen worden ist, weshalb dann die Stromdichte als unendlich groß anzunehmen ist; das ist natürlich eine unrealistische Idealisierung.]
Wir wollen nun eine Klasse von Gebieten beschreiben, für die sich aus dem Erfülltsein der Integrabilitätsbedingungen für ein Vektorfeld die Existenz eines Potentials folgern läßt. Zunächst zeigen wir, daß für ein Vektorfeld, das den Integrabilitätsbedingungen genügt, die Kurvenintegrale längs zwei Kurven mit gleichem
Anfangs- und Endpunkt jedenfalls dann übereinstimmen, wenn die eine Kurve in
die andere innerhalb des zugrundeliegenden Gebietes stetig deformiert werden
”
kann“.
(2.10) Definition. Sei M ⊂ Rn ein Gebiet, seien K, K zwei stückweise glatte,
orientierte Kurven in M mit gleichem Anfangspunkt X und gleichem Endpunkt
Y . Man sagt, die Kurve K sei innerhalb M stetig deformierbar in die Kurve K,
wenn es eine stetige Abbildung
F : [a, b] × [0, 1] → Rn
gibt mit folgenden Eigenschaften: Für jedes λ ∈ [0, 1] ist die durch Fλ (t) :=
F (t, λ) (t ∈ [a, b]) erklärte Abbildung Fλ : [a, b] → Rn eine stückweise glatte
parametrisierte Kurve in M mit Fλ (a) = X und Fλ (b) = Y ; F0 ist eine Parameterdarstellung von K und F1 eine Parameterdarstellung von K.
Die Abbildung F heißt dann eine Deformationsschar von K in K.
(2.11) Satz. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn ein stetig differenzierbares
Vektorfeld, das den Integrabilitätsbedingungen genügt. Seien K, K zwei stückweise
18
2 KURVENINTEGRALE
glatte orientierte Kurven in M mit Anfangspunkt X und Endpunkt Y . Ist die
Kurve K innerhalb M stetig deformierbar in die Kurve K, so gilt
Z
Z
hV, dF i = hV, dF i.
K
K
Beweis. Sei F : [a, b] × [0, 1] → Rn eine Deformationsschar von K in K. Da
[a, b] × [0, 1] kompakt ist, ist nach An.II.5.4 die Menge
A := {F (t, λ) : t ∈ [a, b], λ ∈ [0, 1]}
kompakt; wegen A ⊂ M und der Offenheit von M gibt es daher ein ∈ R+ mit
U (Z, ) ⊂ M für alle Z ∈ A. Nach An.II.5.6 ist F gleichmäßig stetig; daher gibt
es ein δ ∈ R+ mit
(∗) kF (t1 , λ1 ) − F (t2 , λ2 )k < für alle t1 , t2 ∈ [a, b], λ1 , λ2 ∈ [0, 1]
mit |t1 − t2 | < δ und |λ1 − λ2 | < δ.
Wähle
a = t0 < t1 < . . . < tr = b
mit tj − tj−1 < δ,
mit λi − λi−1 < δ.
0 = λ0 < λ1 < . . . < λs = 1
Für j = 1, . . . , r, i = 0, . . . , s sei Ki die orientierte Kurve mit der Parameterdarstellung Fλi und Kij die orientierte Kurve mit der Parameterdarstellung
Fλi : [tj−1 , tj ]. Ferner sei Sij die wie üblich parametrisierte orientierte Kurve,
deren Spur die Verbindungsstrecke von F (tj , λi ) nach F (tj , λi+1 ) ist.
Für festes i, j liegen die Kurven Si,j−1 , Sij , Kij , Ki+1,j wegen der Ungleichung
(∗) alle in der offenen Kugel U (F (tj−1 , λi ), ) ⊂ M . Da nach (2.9) innerhalb
dieser Kugel das Vektorfeld V ein Potential besitzt, sind dort die Kurvenintegrale
wegunabhängig. Daher ergibt sich (in leicht verständlicher Symbolik) für i =
0, . . . , s − 1


Z
Z
Z
Z
Z
Z
Z
r
r
r
X
X
 X
=
=
+
− =
=

j=1 K
ij
Ki
(man beachte
R
Si0
=
R
j=1
Si,j−1
Ki+1,j
j=1 K
i+1,j
Sij
= 0). Also ist
Sir
Z
Z
=
K
Z
=
K0
Z
= ... =
K1
Z
.
=
Ks
K
Ki+1
19
(2.12) Definition. Ein Gebiet M ⊂ Rn heißt einfach zusammenhängend, wenn
je zwei stückweise glatte, orientierte Kurven in M mit denselben Anfangs- und
Endpunkten innerhalb M stetig ineinander deformierbar sind.
Damit können wir nun den folgenden Hauptsatz über Kurvenintegrale“ formu”
lieren:
(2.13) Satz. Sei M ⊂ Rn ein einfach zusammenhängendes Gebiet. Dann ist jedes
stetig differenzierbare Vektorfeld V : M → Rn , das den Integrabilitätsbedingungen
genügt, ein Gradientenfeld.
3
Flächen und Oberflächenintegrale
In ähnlicher Weise wie wir Kurven, Bogenlänge und Kurvenintegrale verwendet
haben, werden wir im nächsten Abschnitt Flächen, Flächeninhalte und Oberflächenintegrale benutzen. Diese Begriffe sollen nun für den dreidimensionalen
Raum erklärt werden.
Was man unter einer Fläche im Raum verstehen wird, ist anschaulich plausibel;
eine exakte Definition erfordert allerdings etwas Aufwand, wie schon bei den
Kurven.
(3.1) Definition. Sei r ∈ N. Eine parametrisierte Fläche der Klasse C r im R3
ist eine Abbildung
X : U → R3
der Klasse C r vom Rang 2, wobei U ⊂ R2 ein Gebiet ist.
Nach An.II.11.6 ist eine solche Abbildung lokal injektiv. Wir bezeichnen U als
das Parametergebiet der Fläche und schreiben die Punkte von U in der Form
u = (u1 , u2 ). Ferner schreiben wir, wie stets, X(u) = (x1 (u), x2 (u), x3 (u)).
Daß die Abbildung X vom Rang 2 ist, bedeutet, daß ihre Funktionalmatrix


∂1 x1 ∂2 x1
JX =  ∂1 x2 ∂2 x2 
∂1 x3 ∂2 x3
überall vom Rang 2 ist. Die Vektoren
X1 := ∂1 X = (∂1 x1 , ∂1 x2 , ∂1 x3 )
X2 := ∂2 X = (∂2 x1 , ∂2 x2 , ∂2 x3 )
20
3 FLÄCHEN UND OBERFLÄCHENINTEGRALE
sind also in jedem Punkt u ∈ U linear unabhängig. Sie spannen daher einen
zweidimensionalen linearen Unterraum von R3 auf; er heißt Tangentialraum der
parametrisierten Fläche in u. Die dazu parallele Ebene durch X(u) nennen wir
die Tangentialebene der parametrisierten Fläche in u.
Den zum Tangentialraum orthogonalen Einheitsvektor
N :=
X1 × X2
kX1 × X2 k
nennen wir den Normaleneinheitsvektor. Hier bezeichnet X1 × X2 das Vektorprodukt der Vektoren X1 und X2 . Es ist bekanntlich erklärt durch
A × B := (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 )
für A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ) ∈ R3 . Man kann sich die Definition gut merken
mit der symbolischen Schreibweise


E1 E2 E3
A × B = det  a1 a2 a3  .
b1 b2 b3
Dabei ist (E1 , E2 , E3 ) die Standardbasis, und die Determinante ist formal nach
der ersten Zeile zu entwickeln (gemäß dem Laplaceschen Entwicklungssatz).
(3.2) Definition. Ein Diffeomorphismus τ : U → U (U, U ⊂ R2 Gebiete) der
Klasse C r mit überall positiver Funktionaldeterminante heißt Parametertransformation der Klasse C r .
Zwei parametrisierte Flächen X : U → R3 und X : U → R3 der Klasse C r heißen
C r -äquivalent, wenn es eine Parametertransformation τ : U → U der Klasse C r
mit X = X ◦ τ gibt.
Daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu sehen.
(3.3) Definition. Eine orientierte Fläche der Klasse C r im R3 ist eine C r -Äquivalenzklasse von parametrisierten Flächen der Klasse C r . Jeder Repräsentant
einer Fläche heißt Parametrisierung der Fläche.
Wir betrachten also, anders als bei den Kurven, nur orientierte Flächen. Daher
sind im folgenden, auch wenn wir kurz von Flächen“ sprechen, stets orientierte
”
Flächen gemeint.
Wir kommen nun zum Flächeninhalt. Er muß zunächst definiert werden. In anschaulich naheliegender Weise kann man den Begriff des Flächeninhalts auf den
21
Volumenbegriff zurückführen nach der folgenden Idee. Es sei X : U → R3 eine
parametrisierte Fläche der Klasse C 2 . Wir betrachten für h > 0 die Punktmenge
Mh := Y ∈ R3 : Y = X(u1 , u2 ) + λN (u1 , u2 ), (u1 , u2 ) ∈ U, −h < λ < h
und bezeichnen ihr (als endlich vorausgesetztes) Volumen mit Vh . Wenn der
1
Vh existiert, wollen wir ihn als Flächeninhalt der Fläche anGrenzwert limh→0 2h
sehen (man kann sich dann leicht überzeugen, daß der Flächeninhalt bei einer
Parametertransformation ungeändert bleibt).
Berechnung von Vh : Wir erhalten Mh als Bild des Gebietes
M := U × (−h, h) ⊂ R3
unter der Abbildung Y : M → R3 , die durch
Y (u1 , u2 , λ) := X(u1 , u2 ) + λN (u1 , u2 ),
(u1 , u2 ) ∈ U, −h < λ < h
definiert ist. Wir berechnen ihre Funktionaldeterminante. Dabei benutzen wir die
Abkürzung


a1 b 1 c 1 a1 b 1 c 1
det  a2 b2 c2  =: a2 b2 c2 =: |A, B, C|
a3 b 3 c 3 a3 b 3 c 3
für A = (a1 , a2 , a3 ) etc. Dann ist mit Xi := ∂i X, Ni := ∂i N
det JY
= |∂1 Y, ∂2 Y, ∂3 Y | = |X1 + λN1 , X2 + λN2 , N |
= |X1 , X2 , N | + λ(|X1 , N2 , N | + |N1 , X2 , N |) + λ2 |N1 , N2 , N |.
Es ist
|X1 , X2 , N | = hX1 × X2 , N i = kX1 × X2 k > 0.
Für λ = 0 ist die Funktionaldeterminante also positiv. Wir wollen nun annehmen, daß U und h so klein gewählt sind, daß sie überall positiv ist und daß
die Abbildung Y auch global injektiv ist. Nach der Transformationsformel für
Gebietsintegrale und dem Satz von Fubini gilt dann
Z
Z
Vh = µ(Mh ) =
1 = | det JY |
Y (M )
M
Zh Z Z
|X1 + λN1 , X2 + λN2 , N | du1 du2 dλ
=
−h
U
Z Z
= 2h
U
|X1 , X2 , N | du1 du2 + h2 (·).
22
3 FLÄCHEN UND OBERFLÄCHENINTEGRALE
Also gilt
1
lim Vh =
h→0 2h
Z Z
|X1 , X2 , N | du1 du2 .
U
Damit ist unsere heuristische Überlegung beendet und wir definieren:
(3.4) Definition. Der Flächeninhalt der Fläche mit der Parameterdarstellung
X : U → R3 der Klasse C 1 ist
Z Z
|X1 , X2 , N | du1 du2 .
U
Man kann nun nachrechnen, daß dies in der Tat nur von der Fläche und nicht
von der gewählten Parametrisierung abhängt (Übungsaufgabe).
Wir schieben eine Bemerkung über die Gramsche Determinante det(hAi , Aj i)i,j
eines Vektor-Tripels (A1 , A2 , A3 ) ein. Sei Ai = (ai1, ai2 , ai3 ). Dann ist (mit dem
Kronecker-Symbol δrs )
X
δrs air ajs .
hAi , Aj i =
r,s
Die Matrix
(hAi , Aj i)3i,j=1
ist als das Matrizenprodukt der drei Matrizen
(air )3i,r=1 , (δrs )3r,s=1 , (ajs )3s,j=1 .
Nach dem Determinanten-Multiplikationssatz ist daher
det(hAi , Aj i)i,j = |A1 , A2 , A3 |2 .
Speziell für das Tripel (X1 , X2 , N ) folgt wegen hN, Xi i = 0 und hN, N i = 1 die
Gleichung
p
kX1 × X2 k = |X1 , X2 , N | = hX1 , X1 ihX2 , X2 i − hX1 , X2 i2 .
Eine in der Differentialgeometrie übliche Bezeichnungsweise ist
hXi , Xj i =: gij
für i, j = 1, 2.
Damit ist also der Flächeninhalt der parametrisierten Fläche X gegeben durch
Z Z q
2
g11 g22 − g12
du1 du2 .
U
Wir geben noch eine ausführliche Schreibweise unter Verwendung der Koordinatenfunktionen an. Mit X = (x, y, z) gilt
E1
E
E
2
3
∂x
∂y
∂z
∂(y,
z)
∂(z,
x)
∂(x,
y)
X1 × X2 = ∂u1
∂u1
∂u1 = ∂(u , u ) , ∂(u , u ) , ∂(u , u )
1
2
1
2
1
2
∂x
∂y
∂z ∂u2
∂u2
∂u2
23
mit einer früher eingeführten Bezeichnung für Funktionaldeterminanten, also
s
2 2 2
Z Z
∂(y, z)
∂(z, x)
∂(x, y)
F =
+
+
du1 du2 .
∂(u1 , u2 )
∂(u1 , u2 )
∂(u1 , u2 )
U
Läßt sich das Bild der Fläche als Graph einer Funktion f darstellen, so ergibt
sich die folgende Vereinfachung. Wir können die durch
(u1 , u2 ) ∈ U
X(u1 , u2 ) := (u1 , u2 , f (u1 , u2 )),
gegebene Parametrisierung wählen und erhalten
E1
E
E
2
3
∂f ∂f
∂f
0
X1 × X2 = 1
∂u1 = − ∂u , − ∂u , 1 ,
1
2
∂f 0
1
∂u2
also
s
Z Z
1+
F =
U
∂f
∂u1
2
+
∂f
∂u2
2
du1 du2 .
Man verwendet meist die Abkürzung
Z
Z Z
|X1 , X2 , N | du1 du2 =: dO,
U
F
wenn F die durch X parametrisierte Fläche bezeichnet.
Nun können wir Oberflächenintegrale definieren. Ist g eine z.B. stetige Funktion,
deren Definitionsbereich das Bild (die Spur“) der betrachteten Fläche enthält,
”
so definiert man das Oberflächenintegral von g durch
Z
Z Z
g dO :=
g ◦ X|X1 , X2 , N | du1 du2 .
F
U
Für die Vektoranalysis besonders wichtig ist der folgende Spezialfall. Sei V ein
z.B. stetiges Vektorfeld im R3 , dessen Definitionsbereich die Spur der betrachteten
Fläche enthält. Man kann dann in jedem Punkt der Fläche das Skalarprodukt
hV, N i =: Vn
mit dem Normaleneinheitsvektor N der Fläche, die Normalkomponente des Vektorfeldes, bilden. Das Oberflächenintegral
Z
Z
Vn dO = hV, N i dO
24
4 ELEMENTE DER VEKTORANALYSIS
nennt man dann auch das Flächenintegral des Vektorfeldes längs der Fläche. Wegen
X1 × X2
N=
kX1 × X2 k
ist
hV, N i =
also
|V, X1 , X2 |
|X1 , X2 , V |
=
,
kX1 × X2 k
|X1 , X2 , N |
Z
Z Z
|X1 , X2 , V | du1 du2
Vn dO =
(wobei genauer eigentlich V ◦ X zu schreiben wäre).
Den rechts stehenden Ausdruck können wir zur praktischen Berechnung auch
noch etwas umformen. Mit
X = (x, y, z),
V = (v1 , v2 , v3 )
ist
|V, X1 , X2 | = hV, X1 × X2 i
∂ y ∂2 y
= v1 1
∂1 z ∂2 z
= v1
+ v2 ∂1 z ∂2 z
∂1 x ∂2 x
+ v3 ∂1 x ∂2 x
∂1 y ∂2 y
∂(y, z)
∂(z, x)
∂(x, y)
+ v2
+ v3
.
∂(u1 , u2 )
∂(u1 , u2 )
∂(u1 , u2 )
Es ist also
Z
Z Z ∂(y, z)
∂(z, x)
∂(x, y)
Vn dO =
v1
+ v2
+ v3
du1 du2 .
∂(u1 , u2 )
∂(u1 , u2 )
∂(u1 , u2 )
Ähnlich wie bei Kurvenintegralen führt man hierfür die abkürzende Schreibweise
Z
(v1 dydz + v2 dzdx + v3 dxdy)
ein, die sich aber erst dann empfiehlt, wenn man dem Ausdruck nach dem Integralzeichen einen selbständigen Sinn gegeben hat.
4
Elemente der Vektoranalysis
Dieser Abschnitt soll mit weiteren Begriffsbildungen und Grundtatsachen der
klassischen Vektoranalysis bekannt machen. Insbesondere sollen die Integralsätze
25
im R2 und im R3 erläutert werden. Diese Überlegungen sind durch physikalische Aufgabenstellungen motiviert, die wir jedoch nur kurz andeuten können.
Insgesamt werden die Ausführungen in diesem Abschnitt eher heuristisch sein
und weitgehend auf Beweise verzichten. Es soll die anschauliche Grundlage gelegt werden für die Präzisierungen und Verallgemeinerungen in den nachfolgenden
Abschnitten.
Einige der nachfolgenden Definitionen sind notwendigerweise zunächst recht formal, da wir auf die physikalischen Ursprünge nur andeutungsweise eingehen
können. Eine inhaltlich plausible Erklärung ist zum Teil erst später nach der
Behandlung von Integralsätzen möglich.
(4.1) Definition. Sei M ⊂ R3 offen, sei V : M → R3 ein stetig differenzierbares
Vektorfeld, V = (v1 , v2 , v3 ). Das durch
rot V := (∂2 v3 − ∂3 v2 , ∂3 v1 − ∂1 v3 , ∂1 v2 − ∂2 v1 )
erklärte stetige Vektorfeld rot V : M → R3 heißt Rotation von V . Gilt rot V (X) =
0 für alle X ∈ M , so heißt das Vektorfeld V wirbelfrei.
Diese Begriffsbildung ist physikalisch motiviert, was aber, wie gesagt, an dieser
Stelle nicht erläutert werden soll. Hier stellen wir nur fest, daß die Gleichung
rot V = 0 lediglich eine andere Ausdrucksweise dafür ist, daß das Vektorfeld V
die Integrabilitätsbedingungen erfüllt. Aussagen aus §2 lassen sich für n = 3 jetzt
also auch so formulieren:
(4.2) Satz. Sei M ⊂ R3 offen. Für jede zweimal stetig differenzierbare Funktion
f : M → R gilt
rot ∇f = 0.
Mit anderen Worten: Jedes stetig differenzierbare Gradientenfeld ist wirbelfrei.
Jedes stetig differenzierbare wirbelfreie Vektorfeld in einem einfach zusammenhängenden Gebiet ist ein Gradientenfeld, d.h. besitzt ein Potential.
Wirbelfrei sind z.B. die in der Elektrostatik auftretenden Felder. Ein solches Feld
ist bestimmt durch die Verteilung der elektrischen Ladung; deren (etwa als stetig
angenommene) Dichte läßt sich (bis auf einen konstanten Faktor) als Divergenz“
”
des Feldes berechnen nach der folgenden Vorschrift:
(4.3) Definition. Sei M ⊂ R3 offen, sei V : M → R3 ein stetig differenzierbares
Vektorfeld, V = (v1 , v2 , v3 ). Die durch
div V := ∂1 v1 + ∂2 v2 + ∂3 v3
erklärte stetige Funktion div V : M → R heißt die Divergenz des Vektorfeldes V .
Gilt div V (X) = 0 für alle X ∈ M , so heißt das Vektorfeld V quellenfrei.
26
4 ELEMENTE DER VEKTORANALYSIS
Will man das elektrische Feld einer gegebenen Ladungsverteilung ermitteln, so
hat man die folgende Aufgabe zu lösen, die man als Bestimmung eines wirbelfreien
Vektorfeldes aus seinen Quellen bezeichnet:
Sei M ⊂ R3 ein Gebiet und ρ : M → R eine stetige Funktion. Gesucht ist ein
stetig differenzierbares Vektorfeld V : M → R3 mit
div V = ρ,
rot V = 0.
Wenn V existiert, ist V lokal ein Gradientenfeld, d.h. es existiert zumindest lokal
eine Funktion f der Klasse C 1 mit
∇f = V ;
insbesondere ist f von der Klasse C 2 . Die Gleichung div V = ρ ergibt für f die
Bedingung
div ∇f = ρ.
Es ist (in den benutzten Standard-Koordinaten)
div ∇f = ∂1 ∂1 f + ∂2 ∂2 f + ∂3 ∂3 f =: ∆f.
Der hiermit erklärte Differentialoperator ∆ = div ∇ heißt Laplace-Operator.
Man wird also versuchen, eine zweimal stetig differenzierbare Funktion f : M →
R zu finden, die der partiellen Differentialgleichung
∆f = ρ
genügt. Ist f eine Lösung, so genügt das durch V := ∇f definierte Vektorfeld
den geforderten Bedingungen.
Die obige Gleichung heißt Poissonsche Gleichung“, im Fall ρ = 0 auch La”
”
placesche Gleichung“ oder Potentialgleichung“. Die Lösungen der Laplaceschen
”
Gleichung heißen harmonische Funktionen“.
”
Das Problem der Bestimmung eines wirbelfreien Vektorfeldes aus seinen Quellen
ist also zurückgeführt auf das Problem, eine (bzw. die) Lösung der Poissonschen
Gleichung zu finden. Von der Problemstellung her werden dieser Lösung meist
noch zusätzliche Bedingungen (z.B. Randbedingungen“) auferlegt. Auf die Fra”
ge nach Existenz und Eindeutigkeit einer Lösung können wir hier aber nicht
eingehen.
Will man z.B. das Magnetfeld eines elektrischen Stromes (mit hier als stetig vorausgesetzter Stromdichte) ermitteln, so hat man die folgende Aufgabe zu lösen,
die man als Bestimmung eines quellenfreien Vektorfeldes aus seinen Wirbeln bezeichnet:
27
Sei M ⊂ R3 ein Gebiet und W : M → R3 ein stetig differenzierbares Vektorfeld.
Gesucht ist ein stetig differenzierbares Vektorfeld V : M → R3 mit
div V = 0,
rot V = W.
Dabei kann W nicht beliebig vorgegeben sein, denn es gilt, wie man sofort nachrechnet, das folgende Gegenstück zum ersten Teil von Satz (4.2):
(4.4) Satz. Für jedes zweimal stetig differenzierbare Vektorfeld V : M → R3 gilt
div rot V = 0.
Mit anderen Worten: Jedes (stetig differenzierbare) Rotationsfeld ist quellenfrei.
In der obigen Aufgabe muß also div W = 0 vorausgesetzt werden.
Wir zeigen nun zunächst als Gegenstück zum zweiten Teil von Satz (4.2), daß man
in geeigneten Gebieten jedes quellenfreie Vektorfeld als Rotation eines anderen
Vektorfeldes darstellen kann.
(4.5)
M →
0), so
A:M
Satz und Definition. Sei M ⊂ R3 ein sternförmiges Gebiet und V :
R3 ein stetig differenzierbares Vektorfeld. Ist V quellenfrei (d.h. div V =
ist V ein Rotationsfeld, d.h. es gibt ein stetig differenzierbares Vektorfeld
→ R3 mit
V = rot A.
A heißt auch Vektorpotential von V . Ein (stetig differenzierbares) Vektorfeld B :
M → R3 ist genau dann auch ein Vektorpotential von V , wenn A − B ein (stetig
differenzierbares) Gradientenfeld ist.
Beweis. O.B.d.A. sei M sternförmig bezüglich 0. Wir können dann
Z1
ui (X) :=
vi (tX)t dt,
X ∈ M, i = 1, 2, 3
0
setzen und A : M → R3 definieren durch
A(X) := (u2 x3 − u3 x2 , u3 x1 − u1 x3 , u1 x2 − u2 x1 )
(ui jeweils an der Stelle X). Das Vektorfeld A ist stetig differenzierbar. Wir
rechnen nach, daß in der Tat
rot A = V
28
4 ELEMENTE DER VEKTORANALYSIS
gilt. Es genügt, etwa hrot A, E1 i = v1 (X) nachzuweisen. Wir erhalten (an der
Stelle X)
hrot A, E1 i =
=
∂
∂
(u1 x2 − u2 x1 ) −
(u3 x1 − u1 x3 )
∂x2
∂x3
∂u1
∂u2
∂u3
∂u1
x 2 + u1 −
x1 −
x1 +
x3 + u1 .
∂x2
∂x2
∂x3
∂x3
Nun gilt
∂u1 ∂u2 ∂u3
+
+
=
∂x1 ∂x2 ∂x3
Z1
div V (tX)t2 dt = 0,
0
also ergibt sich
hrot A, E1 i
=
∂u1
∂u1
∂u1
x1 +
x2 +
x3 + 2u1
∂x1
∂x2
∂x3
Z1 =
Z1
∂v1
∂v1
∂v1
2
(tX)x1 +
(tX)x2 +
(tX)x3 t dt + 2 v1 (tX)tdt
∂x1
∂x2
∂x3
0
0
Z1
=
[v1 (tX)t2 ]0 dt = [v1 (tX)t2 ]10 = v1 (X).
0
Damit ist gezeigt, daß A ein Vektorpotential von V ist. Ist B : M → R3 ein stetig
differenzierbares Vektorfeld der Form B = A − ∇f , so ist nach (4.2)
rot B = rot A − rot ∇f = V,
d.h. B ist ebenfalls ein Vektorpotential von V . Umgekehrt folgt aus V = rot B
die Gleichung rot(A − B) = 0, nach (4.2) ist also A − B ein Gradientenfeld.
Bemerkung. Auch in Satz (4.5) ist eine Voraussetzung an das Gebiet M nicht
entbehrlich. Sei M = R3 \ {0}, und sei V : M → R3 erklärt durch
V (X) := kXk−3 X.
Man berechnet div V = 0. Es läßt sich aber zeigen, daß es kein stetig differenzierbares Vektorfeld A : M → R3 geben kann mit V = rot A. Der Beweis ist analog
zu dem auf S. 39, aber mit einem Flächenintegral“ anstelle eines Kurveninte”
grals; er läßt sich daher an dieser Stelle nicht führen. – Es sei darauf hingewiesen,
29
daß das Gebiet M einfach zusammenhängend ist. Die richtige“ topologische Be”
dingung, die in Satz (4.5) an das Gebiet M zu stellen ist, ist also eine andere als
die bei der Wegunabhängigkeit von Kurvenintegralen.
Bemerkung. Die auffällige Analogie zwischen Satz (4.2) einerseits und den
Sätzen (4.4) und (4.5) andererseits kommt nicht von ungefähr. Beide Sachverhalte sind Spezialfälle eines allgemeineren Satzes. Solche Zusammenhänge werden
durch die übliche Terminologie der klassischen Vektoranalysis eher verschleiert.
Die mathematische Natur der betrachteten Objekte wird klarer und die angewendeten Operationen werden durchschaubarer in dem später zu entwickelnden
Differentialformenkalkül.
Nun wollen wir noch kurz die vor Satz (4.4) gestellte Aufgabe weiter betrachten.
Gegeben ist also ein stetig differenzierbares Vektorfeld W : M → R3 mit div W =
0. Gesucht ist ein stetig differenzierbares Vektorfeld V : M → R3 mit
div V = 0,
rot V = W.
Wenn V existiert, so läßt sich V (zumindest lokal) nach (4.5) als Rotation eines
anderen Vektorfeldes darstellen. Wir versuchen daher, ein zweimal stetig differenzierbares Vektorfeld A : M → R3 zu bestimmen mit
rot A = V.
Da A nur bis auf ein Gradientenfeld bestimmt ist, können wir zusätzlich annehmen, daß
div A = 0
ist (diese Annahme wird später durch den Erfolg gerechtfertigt). Die Bedingung
rot V = W ergibt für A die Bedingung
rot rot A = W.
Eine elementare Rechnung liefert
rot rot A = ∇div A − ∆A,
wobei
∆A := (∆a1 , ∆a2 , ∆a3 )
gesetzt ist. Da wir div A = 0 angenommen hatten, muß also
∆A = −W
sein. Für jede Koordinatenfunktion von A ist also eine Poissonsche Gleichung zu
lösen. Weiter soll das Problem an dieser Stelle nicht verfolgt werden; es kam uns
lediglich darauf an, die Aussage von Satz (4.5) herauszustellen.
30
4 ELEMENTE DER VEKTORANALYSIS
Die vorhergehenden Überlegungen können unter einem gemeinsamen Aspekt gesehen werden: Man betrachtet Felder“ (skalare, also Funktionen, vektorielle,
”
eigentlich auch andere, denn die Rotation ist im Grunde kein Vektorfeld) und
Differentiationsprozesse, die aus Feldern andere Felder machen (Gradient, Rotation, Divergenz). Wichtige Fragen bezogen sich auf die Umkehrbarkeit: Wann ist
ein Vektorfeld Gradient einer Funktion, wann Rotation eines anderen Vektorfeldes? Notwendig waren gewisse Integrabilitätsbedingungen (Wirbelfreiheit, Quellenfreiheit). Die Verfolgung dieser Fragestellungen erfordert weitere Integralsätze
der Vektoranalysis, die wir nun zunächst heuristisch erläutern wollen.
Die Integralsätze von Gauss, Green, Stokes (heuristisch)
Im folgenden sollen die sogenannten Integralsätze der Vektoranalysis vorgestellt
werden, und zwar physikalisch motiviert, ohne exakte Formulierungen und Beweise. Diese werden in einem späteren Stadium in allgemeinerem Rahmen gegeben.
Da die folgenden Betrachtungen nur als Motivation dienen, berufen wir uns ungeniert auf die Anschauung.
Wir betrachten eine ebene stationäre Strömung einer inkompressiblen Flüssigkeit. Stationär“ heißt, daß der Bewegungszustand an jeder Stelle unabhängig
”
von der Zeit ist, also durch ein zeitlich konstantes Vektorfeld V = (v1 , v2 ), das
Geschwindigkeitsfeld, charakterisiert wird. Es sei ein ebenes Gebiet G mit zusammenhängender Randkurve ∂G gegeben. Wir stellen uns die Frage: Wieviel
Flüssigkeit kommt in der Zeiteinheit aus dem Gebiet heraus? Dabei ist erlaubt,
daß innerhalb des Gebietes Flüssigkeit entsteht ( Quellen“) oder verschwindet
”
( Senken“), aber die Flüssigkeit kann nicht zusammengedrückt werden. Was also
”
in der Zeiteinheit innerhalb des Gebietes an Flüssigkeit entsteht, muß in gleicher
Menge durch den Rand hinausströmen.
Wir betrachten ein kleines“ Randstückchen und machen (da alles sehr klein ist)
”
die vereinfachenden Annahmen:
(a) Das Randstück ist gerade und hat die Länge ∆s,
(b) längs des Randstücks ist V konstant.
Die Flüssigkeitsmenge, die längs dieses Randstücks in der Zeiteinheit aufgrund
der Strömung (mit konstantem Geschwindigkeitsfeld) aus dem Gebiet heraustritt,
läßt sich offenbar ausdrücken durch
hV, N i∆s,
wobei N den ins Äußere von G weisenden Normaleneinheitsvektor von ∂G bezeichnet. Was insgesamt aus dem Gebiet heraustritt (die Gesamtergiebigkeit“),
”
erhält man durch Summierung“, also durch das Integral
”
Z
hV, N i ds,
31
wo über die durch die Bogenlänge parametrisierte Randkurve integriert wird.
Wir wollen nun die Gesamtergiebigkeit noch auf eine andere Weise bestimmen.
Wir stellen uns dazu vor, das Gebiet G sei aus kleinen Rechtecken zusammengesetzt. Wir bestimmen zunächst die Ergiebigkeit für ein einzelnes Rechteck R mit
den Eckpunkten (x, y), (x + h, y), (x, y + k), (x + h, y + k) mit h, k > 0.
Gemäß der Zerlegung V = v1 E1 + v2 E2 können wir die Strömung auffassen als
Überlagerung von zwei Strömungen in den Koordinatenrichtungen. Wir betrachten zunächst die Strömung in Richtung der x-Achse und machen die vereinfachende Annahme, v1 sei auf den Vertikalen konstant. Als Ergiebigkeit der Strömung
in Richtung der x-Achse für das Rechteck R ergibt sich dann
kv1 (x + h, y) − kv1 (x, y).
Analog ergibt sich für die Ergiebigkeit der Strömung in Richtung der y-Achse
hv2 (x, y + k) − hv2 (x, y).
Die Ergiebigkeit der Gesamtströmung für das Rechteck ist also
v1 (x + h, y) − v1 (x, y) v2 (x, y + k) − v2 (x, y)
+
hk.
h
k
Wir bezeichnen den Faktor in Klammern (also Ergiebigkeit dividiert durch
Flächeninhalt) als die mittlere Ergiebigkeit. Durch den Grenzübergang h →
0, k → 0 erhalten wir jetzt als die mittlere Ergiebigkeit im Punkt (x, y) den
Wert
∂1 v1 + ∂2 v2 = div V.
Um nun aus der in jedem Punkt bekannten mittleren Ergiebigkeit die Gesamtergiebigkeit zu bekommen, zerlegen wir G in kleine Rechtecke und nehmen in jedem
Rechteck die mittlere Ergiebigkeit als konstant an. Durch Multiplikation mit dem
Flächeninhalt erhalten wir die Ergiebigkeit des Rechtecks, durch Summation über
alle Rechtecke sodann einen Näherungsausdruck für die Ergiebigkeit von G. Für
immer feiner werdende Rechteckszerlegungen konvergieren diese Näherungsausdrücke gegen das Integral
Z
div V,
G
das also einen zweiten Ausdruck für die Ergiebigkeit von G darstellt.
Damit haben wir heuristisch das Ergebnis
Z
Z
div V = hV, N i ds
G
∂G
32
4 ELEMENTE DER VEKTORANALYSIS
erhalten. Diese Formel heißt Integralsatz von Gauß oder Divergenzsatz in der
Ebene; sie wird aber auch nach Green benannt. Sie läßt sich (unter geeigneten
analytischen Voraussetzungen) exakt beweisen, was wir jetzt aber nicht tun wollen. Wir wollen jedoch noch andere übliche Schreibweisen erläutern.
Zunächst muß noch etwas über das Integral
Z
hV, N i ds
∂G
gesagt werden. Dies ist so zu verstehen, daß die Randkurve durch die Bogenlänge
parametrisiert ist. Wir setzen also voraus, daß es eine stückweise glatte parametrisierte Kurve
F : [0, L] → R2
gibt mit
kF 0 (s)k = 1,
s ∈ [0, L]
derart, daß F (0) = F (L) ist, F |[0, L) injektiv und die Spur von F der Rand ∂G
von G ist. Nach Definition ist dann
ZL
Z
hV, N i ds =
∂G
hV (F (s)), N (s)i ds.
0
Dabei soll N (s) der äußere Normaleneinheitsvektor im Punkt F (s) sein, also der
Einheitsvektor, der senkrecht zum Tangentenvektor F 0 (s) steht und ins Äußere
des Gebietes G weist. Diese zunächst noch anschauliche Vorschrift läßt sich auch
präzisieren, was wir aber hier noch nicht tun wollen. Wir ziehen es vielmehr
vor, das obige Integral als Kurvenintegral aufzufassen. Hierzu dient die folgende
Überlegung.
K sei die durch F gegebene orientierte Kurve. Wir bezeichnen die Koordinatenfunktionen von F mit x und y, also
F (s) = (x(s), y(s)).
Dann ist
F 0 (s) = (x0 (s), y 0 (s))
der Tangenteneinheitsvektor. Die dazu senkrechten Einheitsvektoren sind gegeben durch
±(y 0 (s), −x0 (s)).
Einer von ihnen weist ins Äußere von G, dies sei
N (s) = (y 0 (s), −x0 (s)).
33
Hierdurch ist eine Orientierung der Kurve K festgelegt.
Mit den eingeführten Bezeichnungen ist nun
hV, N i = h(v1 , v2 ), (y 0 , −x0 )i = v1 y 0 − v2 x0 ,
also
ZL Z
hV, N i ds =
dx
dy
−v2
+ v1
ds
ds
ds.
0
Hierfür schreibt man abkürzend auch
Z
(−v2 dx + v1 dy).
K
Dies ist nichts anderes als das Kurvenintegral
Z
hV ⊥ , dF i mit V ⊥ := (−v2 , v1 ).
K
Hiermit sind nun wenigstens die im Gaußschen Integralsatz auftretenden Integrale
hinreichend erklärt. Neben der Schreibweise
Z
Z
div V = hV, N i ds
G
∂G
haben wir jetzt auch die Schreibweise
Z Z Z
∂v1 ∂v2
+
dxdy = (−v2 dx + v1 dy),
∂x
∂y
G
∂G
wobei die getroffene Vereinbarung über die Orientierung der Randkurve zu beachten ist. In einer in der klassischen Analysis üblichen Formulierung würde man
−v2 = P,
v1 = Q
setzen; der Integralsatz lautet dann
Z Z Z
∂Q ∂P
−
dxdy = (P dx + Q dy).
∂x
∂y
G
∂G
Eine in der Physik beliebte Formulierung verwendet die Bezeichnung
hV, N i =: Vn ,
34
4 ELEMENTE DER VEKTORANALYSIS
Vn heißt die Normalkomponente“ von V . Man kann dann
”
Z
Z
div V = Vn ds
G
∂G
schreiben. Das rechte Integral nennt man auch den Fluß“ des Vektorfeldes V
”
bezüglich G.
Es ist auch noch eine andere physikalische Interpretation des Gaußschen Integralsatzes in der Ebene möglich. Hierzu betrachtet man die Tangentialkomponente“
”
hV, T i =: Vt ,
T Tangenteneinheitsvektor,
und bezeichnet dann das Integral
Z
Vt ds
∂G
als die Zirkulation“ des Vektorfeldes bezüglich G oder auch als die Wirbelstärke
”
längs ∂G. Unter Verwendung des Gaußschen Integralsatzes läßt sie sich auch in
ein Gebietsintegral umformen: Es ist
Vt = hV, T i = h(v1 , v2 ), (x0 , y 0 )i = v1 x0 + v2 y 0 ,
also
Z
Z Z Z
Vt ds =
∂G
(v1 dx + v2 dy) =
∂v2 ∂v1
−
∂x
∂y
dxdy.
G
∂G
Man nennt daher
rot V := ∂1 v2 − ∂2 v1
die spezifische Zirkulation“ oder Rotation (auch: Wirbeldichte) des Vektorfeldes.
”
Wir haben also die Formel
Z
Z
rot V = Vt ds,
G
∂G
die auch als Integralsatz von Stokes in der Ebene bezeichnet wird.
Bemerkung. Für das ebene Vektorfeld V haben wir jetzt definiert:
div V
:= ∂1 v1 + ∂2 v2
rot V
:= −∂2 v1 + ∂1 v2 .
Wie im R3 nennt man das Feld V quellenfrei, wenn div V = 0 ist, und wirbelfrei,
wenn rot V = 0 ist. Quellenfreiheit bedeutet nach dem Gaußschen Integralsatz,
35
daß für jede geschlossene Kurve der Fluß verschwindet; Wirbelfreiheit bedeutet
nach dem Stokesschen Integralsatz, daß für jede geschlossene Kurve die Zirkulation verschwindet. Ist V sowohl quellenfrei als auch wirbelfrei, so genügen seine
Koordinaten den partiellen Differentialgleichungen
∂1 v1 = −∂2 v2
∂2 v1 = ∂1 v2 .
Dies sind für die Funktionen v1 , −v2 die Cauchy-Riemannschen Differentialgleichungen, die in der Funktionentheorie eine wesentliche Rolle spielen. Es ergibt sich also ein enger Zusammenhang zwischen quellen- und wirbelfreien ebenen Strömungen und der Theorie der holomorphen Funktionen einer komplexen
Veränderlichen.
Integralsätze vom Typ des Gaußschen oder Stokesschen in der Ebene gibt es
auch im R3 . Wir wollen diese Sätze hier formulieren. Wie in der Ebene gestatten
sie es, Zirkulation bzw. Fluß eines Vektorfeldes umzuformen in ein Integral über
ein höherdimensionales Gebilde. Betrachten wir zunächst die Zirkulation. Sei V :
M → R3 ein stetig differenzierbares Vektorfeld. Es sei eine geschlossene orientierte
C 1 -Kurve K mit Spur in M gegeben. Die Zirkulation des Vektorfeldes V längs
K ist dann definiert durch
Z
Z
Vt ds = hV, dF i.
K
Wir stellen uns nun vor, in die Kurve sei eine Fläche eingespannt. Dann kann man
sich unter Verwendung des Stokesschen Satzes in der Ebene heuristisch klarmachen, daß es möglich sein muß, die Zirkulation durch ein Integral über die Fläche
auszudrücken. Wir wollen sogleich das Ergebnis in einer genaueren Formulierung
angeben.
Sei U ⊂ R2 ein Gebiet und X : U → R3 eine parametrisierte Fläche der Klasse
C 1 . Sei G ein Gebiet mit G ∪ ∂G ⊂ U . Über den Rand ∂G machen wir dieselbe
Voraussetzung wie beim Gaußschen Integralsatz in der Ebene: Er sei die Spur
einer einfach geschlossenen parametrisierten Kurve F der Klasse C 1 , die so orientiert sei, daß ihr Normalenvektor ins Äußere von G weist. Dann ist X ◦ F =: F̃
eine Parametrisierung einer orientierten Kurve K der Klasse C 1 im R3 . Der Satz
von Stokes im Raum
besagt nun, daß die Zirkulation von V längs K, also das
R
Kurvenintegral K hV, dF̃ i, sich in ein Flächenintegral umrechnen läßt:
Z
Z
hV, dF̃ i.
(rot V )n dO =
S
K
36
4 ELEMENTE DER VEKTORANALYSIS
Hier ist S die durch X|G parametrisierte Fläche, und es ist die Vereinbarung zu
beachten, die wir über die Orientierung der Randkurve getroffen haben.
Mit den abgekürzten Bezeichnungsweisen für Kurven- und Flächenintegrale lautet
diese Formel
Z
[(∂2 v3 − ∂3 v2 ) dydz + (∂3 v1 − ∂1 v3 ) dzdx + (∂1 v2 − ∂2 v1 ) dxdy]
S
Z
(v1 dx + v2 dy + v3 dz).
=
K
Hier ist, anschaulich formuliert, links über die Fläche und rechts über den Rand
der Fläche zu integrieren, wobei die Orientierungsvorschrift zu beachten ist.
Betrachten wir nun den Fluß des Vektorfeldes V . Hierzu sei G ein räumliches
Gebiet mit Rand ∂G. Ähnlich wie in der Ebene müssen wir die Voraussetzung
treffen, daß ∂G lokal als Spur von parametrisierten Flächen darstellbar ist. Hierzu
werden aber mehrere parametrisierte Flächen erforderlich sein. Da dies später in
allgemeinerem Rahmen präzisiert wird, wollen wir uns jetzt mit der Andeutung
begnügen, daß man durch passende Überdeckungen mit Flächenstücken auch
geschlossene Flächen im Raum definieren kann und Flächenintegrale über sie
erklären kann. Der Gaußsche Integralsatz im Raum besagt dann
Z
Z
div V = Vn dO.
G
∂G
Mit der abgekürzten Bezeichnungsweise schreibt sich das
Z
Z
(∂1 v1 + ∂2 v2 + ∂3 v3 ) dxdydz = (v1 dydz + v2 dzdx + v3 dxdy).
G
∂G
Wir wollen nun heuristisch andeuten, wie die behandelten Grundtatsachen der
klassischen Vektoranalysis einheitlicher, durchsichtiger und allgemeiner behandelt
werden können mit dem im folgenden zu entwickelnden Differentialformenkalkül.
Wir beschränken uns hier jetzt auf den dreidimensionalen Raum R3 und stellen
zunächst noch einmal die betrachteten Integralsätze zusammen. Hierzu gehört
auch der elementare Satz (2.6). Er besagt: Ist f eine Stammfunktion des Vektorfeldes V , also V = ∇f , so gilt für das Kurvenintegral über eine orientierte Kurve
K mit Anfangspunkt A und Endpunkt E:
Z
hV, dXi = f (E) − f (A).
K
37
In anderer Schreibweise und wegen V = ∇f , also vi = fi := ∂i f , lautet das auch
Z
(f1 dx + f2 dy + f3 dz) = f (E) − f (A).
(1)
K
Sodann hatten wir den Satz von Stokes im Raum:
Z
Z
(rot V )n dO = hV, dXi.
G
∂G
Links steht ein Oberflächenintegral über eine orientierte Fläche G, rechts ein Kurvenintegral über ihre orientierte Randkurve ∂G. In anderer Schreibweise lautet
diese Formel:
Z
[(∂2 v3 − ∂3 v2 ) dydz + (∂3 v1 − ∂1 v3 ) dzdx + (∂1 v2 − ∂2 v1 ) dxdy]
G
Z
=
(v1 dx + v2 dy + v3 dz)
(2)
∂G
Schließlich haben wir den Gaußschen Integralsatz im Raum:
Z
Z
div V = Vn dO.
G
∂G
Links steht ein Integral über ein orientiertes räumliches Gebiet G, rechts ein
Oberflächenintegral über seine orientierte Randfläche ∂G. In anderer Schreibweise:
Z
Z
(∂1 v1 + ∂2 v2 + ∂3 v3 ) dxdydz = (v1 dydz + v2 dzdx + v3 dxdy).
(3)
G
∂G
Man sollte beachten, daß Formel (1) durchaus analog zu (2) und (3) ist: Links
steht ein Integral über eine orientierte Kurve, und die rechte Seite f (E) − f (A)
läßt sich auffassen als Integral“ der Funktion f über den orientierten Rand der
”
Kurve, der aus dem geordneten Punktepaar (A, E) besteht.
Eine grundlegende Idee des Differentialformenkalküls ist es nun, den in (1), (2),
(3) rechts von den Integralzeichen stehenden Gebilden eine selbständige Existenz
zu geben, eben als Differentialformen“. Später wird man
”
v1 dx + v2 dy + v3 dz
eine Differentialform vom Grad 1
v1 dydz + v2 dzdx + v3 dxdy
eine Differentialform vom Grad 2
f dxdydz
eine Differentialform vom Grad 3
38
4 ELEMENTE DER VEKTORANALYSIS
nennen, und zwar auf M , wenn v1 , v2 , v3 , f auf dem Gebiet M ⊂ R3 definiert sind.
Ferner nennt man eine reelle Funktion auf M dann auch eine Differentialform vom
Grad 0.
Wie soll die Definition einer Differentialform vom Grad p nun zweckmäßig erfolgen?
Für den Fall p = 1 ist dies im wesentlichen schon aus Analysis II bekannt; wir
erinnern kurz daran. Eine Funktion f : M → R heißt bekanntlich in einem Punkt
X ∈ M (total) differenzierbar, wenn es eine lineare Abbildung L : R3 → R gibt
mit
f (X + H) − f (X) − L(H)
= 0.
lim
H→0
kHk
L ist dann eindeutig bestimmt und heißt das Differential von f in X; die übliche
Bezeichnung ist L = DfX . Dabei ist DfX eine lineare Abbildung von R3 nach
R, also ein Element des Dualraumes (R3 )∗ (dies ist der Vektorraum der linearen
Funktionale auf dem Vektorraum R3 ). Ist f in jedem Punkt von M differenzierbar,
so kann man die Abbildung
df : M → (R3 )∗
X 7→ DfX
erklären, das Differential von f . Insbesondere hat die erste Koordinatenfunktion
X = (x, y, z) 7→ x ein Differential, es wird üblicherweise mit dx bezeichnet; analog
sind dy und dz definiert. Sind v1 , v2 , v3 reelle Funktionen auf M , so ist
ω := v1 dx + v2 dy + v3 dz
auf M (punktweise) wohldefiniert, da (R3 )∗ ein reeller Vektorraum ist. Man nennt
ω eineDifferentialform vom Grad 1 auf M ; das ist also eine Abbildung von M in
(R3 )∗ . Insbesondere ist das Differential df der Funktion f eine solche Differentialform. Mit H = (h1 , h2 , h3 ) und fi := ∂i f gilt
df (X)(H) = DfX (H) = DfX (h1 E1 + h2 E2 + h3 E3 )
= h1 DfX (E1 ) + h2 DfX (E2 ) + h3 DfX (E3 )
= f1 (X)h1 + f2 (X)h2 + f3 (X)h3
= (f1 (X)dx + f2 (X)dy + f3 (X)dz)(H),
also
df = f1 dx + f2 dy + f3 dz.
Aber natürlich ist nicht jede Differentialform v1 dx + v2 dy + v3 dz das Differential
einer Funktion.
39
Wie kann man nun z.B. v3 dxdy sinnvoll erklären? Dazu muß man offenbar eine Multiplikation von Differentialformen vom Grad 1 definieren. Sinnvoll“ heißt
”
insbesondere, daß später ein Oberflächenintegral vom Typ (3), rechts, mit den
richtigen Eigenschaften erklärt werden kann. Dieses ändert bei Umorientierung
von ∂G sein Vorzeichen. Da Vertauschung von zwei Koordinaten die Orientierung
einer Fläche umkehrt, wird die gewünschte spätere Deutung der Integrale in (1) –
(3) als Integrale von Differentialformen nur dann konsistent, wenn dydx = −dxdy
ist. Die Multiplikation von Differentialformen muß daher als alternierendes (antikommutatives) Produkt erklärt werden. In §5 werden wir eine solche alternierende
Multiplikation von Kovektoren einführen.
Der nächste Schritt wird dann darin bestehen, einen Differentiationsprozeß für
Differentialformen zu erklären. Dies ist die sogenannte äußere Differentiation, die
die Bildung des Differentials einer (differenzierbaren) Funktion verallgemeinert.
Für eine (differenzierbare) Differentialform vom Grad 0, also eine differenzierbare
Funktion f auf einem Gebiet M , ist die äußere Ableitung df gerade das Differential, also eine Differentialform vom Grad 1. Allgemein wird die äußere Ableitung
dω einer (differenzierbaren) Differentialform ω vom Grad p eine solche vom Grad
p + 1 sein.
Es bestehen dann enge Zusammenhänge mit den Differentiationsprozessen ∇,
rot, div der Vektoranalysis. Sei V : M → R3 ein Vektorfeld der Klasse C 1 . Wir
ordnen ihm zwei Differentialformen (V ), ((V )) vom Grad 1 bzw. 2 zu durch die
Definitionen
(V ) := v1 dx + v2 dy + v3 dz
((V )) := v1 dydz + v2 dzdx + v3 dxdy.
Dann wird sich zeigen, daß die äußeren Ableitungen dieser Differentialformen
gegeben sind durch
d(V ) = ((rot V ))
d((V )) = div V dxdydz.
Ferner gilt für eine differenzierbare Funktion f
df = (∇f ).
Unter geeigneten Differenzierbarkeitsvoraussetzungen gilt
rot ∇f = 0.
Das schreibt sich jetzt als
ddf = d(∇f ) = ((rot∇f )) = 0.
40
4 ELEMENTE DER VEKTORANALYSIS
Ferner gilt
div rot V = 0,
und dies ergibt jetzt
dd(V ) = d((rot V )) = div rot V dxdydz = 0.
Dies sind nur zwei Spezialfälle eines allgemeinen Sachverhalts: Für die zweimalige
äußere Ableitung einer Differentialform ω (der Klasse C 2 ) gilt nämlich stets ddω =
0.
Wir hatten schon erwähnt, daß nicht jede Differentialform vom Grad 1 das Differential einer Funktion ist. Allgemein kann man fragen, ob es zu einer gegebenen Differentialform η vom Grad p + 1 eine Differentialform ω vom Grad p mit
η = dω gibt. Nach der vorstehenden Bemerkung ist (immer unter passenden Differenzierbarkeitsvoraussetzungen) jedenfalls notwendig, daß dη = 0 ist. Inwieweit
diese Integrabilitätsbedingung“ auch hinreichend ist, ist eine interessante Frage,
”
von der wir auch schon Spezialfälle behandelt haben, nämlich die Sätze (4.2) und
(4.5).
Schließlich bemerken wir, daß wir mit den oben eingeführten Bezeichnungen die
Integralsätze neu und prägnant schreiben können. Formel (3) läßt sich nämlich
jetzt einfach schreiben als
Z
Z
d((V )) = ((V )).
G
∂G
Es ist üblich, hier nur ein Integralzeichen zu schreiben. Allgemein wird später
die Integration einer Differentialform vom Grad p über eine orientierte Mannig”
faltigkeit“ der Dimension p erklärt werden, und in diesem Sinne sind die beiden
Integrale zu verstehen.
Der Integralsatz (2) schreibt sich jetzt einfach in der Form
Z
Z
d(V ) = (V ),
G
∂G
und auch (1) ist von dieser Form, nämlich
Z
Z
df =
f.
G
∂G
Alle drei Integralsätze sind in der Tat Spezialfälle eines einzigen, nämlich der
Formel
Z
Z
dω = ω.
G
∂G
41
Sie gilt für (differenzierbare) Differentialformen ω vom Grad p, wobei das linke
Integral über eine (p + 1)-dimensionale orientierte Mannigfaltigkeit“ im Rn und
”
das rechts stehende über deren orientierten (p-dimensionalen) Rand erstreckt ist.
Dies ist der allgemeine Satz von Stokes, dessen Beweis das Ziel des ersten Teils
dieser Vorlesung ist.
Der Satz von Stokes,
Z
Z
dω =
G
ω,
∂G
ist nicht nur wegen seiner einfachen äußeren Form bemerkenswert. Gegeben sind
hier zwei ganz verschiedene mathematische Objekte, die Differentialform ω und
die Mannigfaltigkeit G. Auf der linken Seite wird auf die Differentialform ω eine
analytische Operation angewendet, nämlich die äußere Differentiation. Auf der
rechten Seite wird auf die Mannigfaltigkeit G eine topologische Operation angewendet, nämlich die Randbildung. Die Gleichheit beider Seiten drückt einen
erstaunlichen Zusammenhang zwischen Analysis und Topologie aus.
Um das damit skizzierte Programm durchzuführen, sollen, wie gesagt, zunächst
in §5 die erforderlichen Betrachtungen der multilinearen Algebra angestellt werden; hier wird also die alternierende Multiplikation von Kovektoren erklärt. In
§6 werden dann Differentialformen und die äußere Differentiation eingeführt. Integration von Differentialformen und eine erste Version des Satzes von Stokes
folgen in §7; danach geschieht die Ausdehnung auf Untermannigfaltigkeiten.
5
Hilfsmittel aus der multilinearen Algebra
Im folgenden sind V, W reelle Vektorräume, und für p ∈ N bezeichnet V p :=
V × . . . × V (p Faktoren) das kartesische Produkt.
(5.1) Definition und Behauptung. Ein p-Tensor über V ist eine multilineare
(d.h. in jedem Argument lineare) Abbildung
T : V p → R.
Die Menge T p (V ) aller p-Tensoren über V ist mit den Operationen
(S + T )(v1 , . . . , vp ) := S(v1 , . . . , vp ) + T (v1 , . . . , vp )
(λS)(v1 , . . . , vp ) := λS(v1 , . . . , vp )
ein reeller Vektorraum. Wir setzen T 0 (V ) := R.
Die Behauptung ist trivial.
42
5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA
Bemerkung. Aus der Linearen Algebra ist der Dualraum V ∗ bekannt, der Vektorraum aller linearen Funktionale auf V . Es ist also V ∗ = T 1 (V ) und somit
T p (V ) eine Verallgemeinerung des Dualraums.
(5.2) Definition und Behauptung. Für S ∈ T p (V ), T ∈ T q (V ) ist das Tensorprodukt S ⊗ T erklärt durch
S ⊗ T (v1 , . . . , vp , vp+1 , . . . , vp+q ) := S(v1 , . . . , vp )T (vp+1 , . . . , vp+q )
für (v1 , . . . , vp+q ) ∈ V p+q . Es ist S ⊗ T ∈ T p+q (V ).
Die Behauptung ist trivial.
(5.3) Satz. Für S, Si ∈ T p (V ), T, Ti ∈ T q (V ), U ∈ T r (V ) und λ ∈ R gilt
(a) (S1 + S2 ) ⊗ T = S1 ⊗ T + S2 ⊗ T ,
(b) S ⊗ (T1 + T2 ) = S ⊗ T1 + S ⊗ T2 ,
(c) (λS) ⊗ T = S ⊗ (λT ) = λ(S ⊗ T ),
(d) (S ⊗ T ) ⊗ U = S ⊗ (T ⊗ U ).
Der Beweis ist sehr einfach. Wegen (d) dürfen wir (S ⊗ T ) ⊗ U =: S ⊗ T ⊗ U
schreiben, analog für mehr Faktoren.
(5.4) Definition und Behauptung. Sei f : V → W eine lineare Abbildung.
Die Abbildung f ∗ : T p (W ) → T p (V ) werde definiert durch
(f ∗ T )(v1 , . . . , vp ) := T (f (v1 ), . . . , f (vp ))
für (v1 , . . . , vp ) ∈ V p , T ∈ T p (W ).
Dann ist f ∗ linear.
Der Beweis ist trivial. Es ist zu beachten, daß f ∗ von p abhängt, was aber in der
Bezeichnung nicht zum Ausdruck kommt.
(5.5) Definition und Behauptung. Ein p-Tensor ω ∈ T p (V ) (p ≥ 2) heißt
alternierend, wenn
ω(v1 , . . . , vi , . . . , vj , . . . , vp ) = −ω(v1 , . . . , vj , . . . , vi , . . . , vp )
für i 6= j
für v1 , . . . , vp ∈ V gilt. Sei Ωp (V ) die Menge aller alternierenden p-Tensoren;
außerdem sei Ω0 (V ) := R und Ω1 (V ) := T 1 (V ). Dann ist Ωp (V ) ein linearer
Unterraum von T p (V ); seine Elemente heißen auch p-Kovektoren über V .
Der Beweis der Behauptung ist trivial.
43
Zur Erinnerung. Sp sei die Gruppe der Permutationen (bijektiven Abbildungen auf sich) der Menge {1, . . . , p}. Sie hat p! Elemente. Mit (i, j) ∈ Sp sei die
Permutation bezeichnet, die i und j vertauscht und die übrigen Zahlen fest läßt
(i 6= j). Jede solche Permutation heißt Transposition. Jedes σ ∈ Sp (p > 1)
läßt sich als Produkt von Transpositionen schreiben. Ob die Anzahl der dabei
verwendeten Transpositionen gerade oder ungerade ist, hängt nur von σ ab. Im
ersten Fall nennt man σ gerade und setzt sgn σ = 1, im zweiten Fall nennt man
σ ungerade und setzt sgn σ = −1. Die Abbildung sgn ist ein Homomorphismus
von Sp in die multiplikative Gruppe {−1, 1}.
(5.6) Definition. Für T ∈ T p (V ) sei
Alt (T )(v1 , . . . , vp ) :=
1 X
sgn σ T (vσ(1) , . . . , vσ(p) ).
p! σ∈S
p
(5.7) Satz. Es gilt
(a) T ∈ T p (V ) ⇒ Alt (T ) ∈ Ωp (V ),
(b) ω ∈ Ωp (V ) ⇒ Alt (ω) = ω.
Beweis. (a) Sei i 6= j (fest), (i, j) ∈ Sp die zugehörige Transposition und σ 0 :=
σ(i, j) für σ ∈ Sp . Dann ist
Alt (T )(v1 , . . . , vj , . . . , vi , . . . , vp )
1 X
sgn σ T (vσ(1) , . . . , vσ(j) , . . . , vσ(i) , . . . , vσ(p) )
=
p! σ∈S
p
=
1 X
sgn σ T (vσ0 (1) , . . . , vσ0 (i) , . . . , vσ0 (j) , . . . , vσ0 (p) )
p! σ∈S
p
=
1 X
(−sgn σ 0 ) T (vσ0 (1) , . . . , vσ0 (i) , . . . , vσ0 (j) , . . . , vσ0 (p) )
p! σ0 ∈S
p
= −Alt (T )(v1 , . . . , vi , . . . , vj , . . . , vp ).
(b) Für ω ∈ Ωp (V ) und σ := (i, j) gilt
ω(vσ(1) , . . . , vσ(p) ) = −ω(v1 , . . . , vp ) = sgn σ ω(v1 , . . . , vp ).
Da jede Permutation Produkt von Transpositionen ist (und da sgn multiplikativ
ist), gilt diese Gleichung für jede Permutation σ. Also ist
1 X
Alt (ω)(v1 , . . . , vp ) =
sgn σ ω(vσ(1) , . . . , vσ(p) )
p! σ∈S
p
44
5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA

=

1 
1 ω(v1 , . . . , vp ) = ω(v1 , . . . , vp ).
p! σ∈S
X
p
Bemerkung. Für jedes p ist Alt : T p (V ) → Ωp (V ) eine lineare Abbildung, und
zwar wegen (5.7b) eine Projektion.
(5.8) Definition und Behauptung. Für ω ∈ Ωp (V ), η ∈ Ωq (V ) ist das alternierende (oder äußere) Produkt ω ∧ η erklärt durch
ω ∧ η :=
(p + q)!
Alt (ω ⊗ η).
p!q!
Es ist ω ∧ η ∈ Ωp+q (V ).
Die Behauptung folgt aus (5.2) und (5.7).
(5.9) Satz. Für ω, ωi ∈ Ωp (V ), η, ηi ∈ Ωq (V ), λ ∈ R gilt
(a) (ω1 + ω2 ) ∧ η = ω1 ∧ η + ω2 ∧ η,
(b) ω ∧ (η1 + η2 ) = ω ∧ η1 + ω ∧ η2 ,
(c) (λω) ∧ η = ω ∧ (λη) = λ(ω ∧ η),
(d) ω ∧ η = (−1)pq η ∧ ω.
(e) Für jede lineare Abbildung f : W → V gilt
f ∗ (ω ∧ η) = f ∗ (ω) ∧ f ∗ (η).
Beweis. (a), (b), (c), (e) sind trivial; (d) als Übungsaufgabe.
Der nächste Hilfssatz dient zum Nachweis des Assoziativgesetzes für die äußere
Multiplikation.
(5.10) Hilfssatz. Es gilt:
(a) Für S ∈ T p (V ), T ∈ T q (V ) mit Alt (S) = 0 ist
Alt (S ⊗ T ) = Alt (T ⊗ S) = 0.
(b) Für ω ∈ Ωp (V ), η ∈ Ωq (V ), θ ∈ Ωr (V ) ist
Alt (Alt (ω ⊗ η) ⊗ θ) = Alt (ω ⊗ η ⊗ θ) = Alt (ω ⊗ Alt (η ⊗ θ)).
45
Beweis. (a) Sei G ⊂ Sp+q die Untergruppe aller Permutationen von {1, . . . , p+q},
die p + 1, . . . , p + q festlassen, und sei τ G eine Linksnebenklasse. Setze vτ (i) =: wi
für i = 1, . . . , p + q. Dann gilt
X
sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) )
σ∈τ G
=
X
sgn (τ σ 0 ) S(vτ (σ0 (1)) , . . . , vτ (σ0 (p)) )T (vτ (σ0 (p+1)) , . . . , vτ (σ0 (p+q)) )
σ 0 ∈G
!
= sgn τ
X
0
sgn σ S(wσ0 (1) , . . . , wσ0 (p) ) T (wp+1 , . . . , wp+q )
σ 0 ∈G
= sgn τ (p!Alt (S)(w1 , . . . , wp )) T (wp+1 , . . . , wp+q )
= 0.
Da die Linksnebenklassen von G eine disjunkte Zerlegung von Sp+q bilden, folgt
(p + q)!Alt (S ⊗ T )(v1 , . . . , vp+q )
X
sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) )
=
σ∈Sp+q
X
X
Linksneben−
klassen τ G
σ∈τ G
=
sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) )
= 0.
Analog folgt Alt (T ⊗ S) = 0.
(b) Es ist
Alt (Alt (ω ⊗ η) ⊗ θ) − Alt (ω ⊗ η ⊗ θ)
= Alt (Alt (ω ⊗ η) ⊗ θ − (ω ⊗ η) ⊗ θ)
= Alt ([Alt (ω ⊗ η) − (ω ⊗ η)] ⊗ θ)
= 0
nach (a), denn es ist Alt (Alt (ω ⊗ η) − (ω ⊗ η)) = 0.
(5.11) Satz. Für ω ∈ Ωp (V ), η ∈ Ωq (V ), θ ∈ Ωr (V ) gilt
(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ)
Beweis. Es ist
(ω ∧ η) ∧ θ =
(p + q + r)!
Alt ((ω ∧ η) ⊗ θ)
(p + q)!r!
46
5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA
(p + q + r)!
=
Alt
(p + q)!r!
=
(p + q)!
Alt (ω ⊗ η) ⊗ θ
p!q!
(p + q + r)!
Alt (ω ⊗ η ⊗ θ)
p!q!r!
nach (5.10b). Analog ergibt sich derselbe Ausdruck für ω ∧ (η ∧ θ).
Natürlich schreibt man jetzt (ω ∧ η) ∧ θ =: ω ∧ η ∧ θ und läßt auch bei mehr als
drei Faktoren die Klammern weg. Die im obigen Beweis gezeigte Gleichung
ω∧η∧θ =
(p + q + r)!
Alt (ω ⊗ η ⊗ θ)
p!q!r!
überträgt sich natürlich sofort auf mehr als zwei Faktoren. Insbesondere gilt für
ω1 , . . . , ωp ∈ Ω1 (V )
(= V ∗ )
Alt (ω1 ⊗ . . . ⊗ ωp ) =
1
ω1 ∧ . . . ∧ ωp .
p!
Voraussetzung. Von jetzt an habe V die Dimension n.
Zur Erinnerung. Sei (e1 , . . . , en ) eine Basis von V . Erklärt man ϕi ∈ V ∗ durch
(
1
für i = j
ϕi (ej ) := δij =
0
für i 6= j
für j = 1, . . . , n und lineare Erweiterung, also
!
n
n
X
X
ϕi
aj ej =
aj ϕi (ej ) = ai ,
j=1
j=1
so ist (ϕ1 , . . . , ϕn ) eine Basis des Dualraumes
V ∗ . Sie heißt die zu (e1 , . . . , en )
P
duale Basis. Für f ∈ V ∗ und beliebige v = ai ei ∈ V gilt
!
n
X
X
X
X
f (v) = f
ai ei =
ai f (ei ) =
f (ei )ϕi (v) =
f (ei )ϕi (v),
i=1
also ist
f=
n
X
f (ei )ϕi .
i=1
Wir wollen dieses Vorgehen ausdehnen, um eine Basis von Ωp (V ) anzugeben.
47
(5.12) Satz. Sei (e1 , . . . , en ) eine Basis von V und (ϕ1 , . . . , ϕn ) die duale Basis.
Dann ist die Menge
B := ϕi1 ∧ . . . ∧ ϕip : 1 ≤ i1 < i2 < . . . < ip ≤ n
eine Basis von Ωp (V ); sie heißt die Standardbasis. Insbesondere ist also
n
p
dim Ω (V ) =
.
p
Beweis. Zunächst sei T ∈ T p (V ). Sei v1 , . . . , vp ∈ V , in Basisdarstellung
vi =
n
X
aij ej ,
i = 1, . . . , p.
j=1
Dann ist

T (v1 , . . . , vp ) = T 
n
X
a1i1 ei1 , . . . ,
i1 =1
n
X
=
n
X

apip eip 
ip =1
a1i1 · · · apip T (ei1 , . . . , eip ).
i1 ,...,ip =1
Nun ist
ϕi1 ⊗ . . . ⊗ ϕip (v1 , . . . , vp ) = ϕi1 (v1 ) · · · ϕip (vp )
= a1i1 · · · apip ,
also ist
T =
n
X
T (ei1 , . . . , eip )ϕi1 ⊗ . . . ⊗ ϕip .
i1 ,...,ip =1
Jetzt sei speziell T = ω ∈ Ωp (V ). Dann ist
ω = Alt (ω) =
n
X
ω(ei1 , . . . , eip )Alt (ϕi1 ⊗ . . . ⊗ ϕip )
i1 ,...,ip =1
n
1 X
ω(ei1 , . . . , eip )ϕi1 ∧ . . . ∧ ϕip .
=
p! i ,...,i =1
1
p
Nun ist ϕi1 ∧ . . . ∧ ϕip alternierend. Kommen unter i1 , . . . , ip zwei gleiche Indizes
vor, so ist also
ϕi1 ∧ . . . ∧ ϕip = 0.
48
5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA
Andernfalls gibt es eine Permutation σ ∈ Sp mit
1 ≤ iσ(1) < iσ(2) < . . . < iσ(p) ≤ n
und
ϕi1 ∧ . . . ∧ ϕip = ±ϕiσ(1) ∧ . . . ∧ ϕiσ(p) .
Damit ist gezeigt, daß B ein Erzeugendensystem von Ωp (V ) ist. Es bleibt die
lineare Unabhängigkeit zu zeigen. Angenommen also, es ist
X
ai1 ...ip ϕi1 ∧ . . . ∧ ϕip = 0.
1≤i1 <...<ip ≤n
Sei 1 ≤ j1 < . . . < jp ≤ n. Es ist
ϕi1 ∧ . . . ∧ ϕip (ej1 , . . . , ejp )
= p!Alt (ϕi1 ⊗ . . . ⊗ ϕip )(ej1 , . . . , ejp )
X
=
sgn σ ϕi1 (ejσ(1) ) · · · ϕip (ejσ(p) ).
σ∈Sp
Hier ist
(
ϕi1 (ejσ(1) ) · · · ϕip (ejσ(p) ) =
0
(
=
1, wenn i1 = jσ(1) , . . . , ip = jσ(p)
sonst
1, wenn i1 = j1 , . . . , ip = jp
0
sonst,
da die Indizes i und j der Größe nach geordnet sind. Es folgt
X
0=
ai1 ...ip ϕi1 ∧ . . . ∧ ϕip (ej1 , . . . , ejp ) = aj1 ...jp
1≤i1 <...<ip ≤n
und daraus die Behauptung.
Als Folgerung halten wir insbesondere fest:
Ωp (V ) = {0}
für p > n
und
dim Ωn (V ) = 1.
(5.13)
Satz. Sei (e1 , . . . , en ) eine Basis von V , sei ω ∈ Ωn (V ), sei vi =
Pn
j=1 aij ej für i = 1, . . . , n. Dann ist
ω(v1 , . . . , vn ) = det(aij )ni,j=1 ω(e1 , . . . , en ).
49
Beweis. Für vi =
Pn
j=1
aij ej , i = 1, . . . , n, definiere
η(v1 , . . . , vn ) := det(aij )ni,j=1 .
Aus den bekannten Eigenschaften der Determinantenfunktion folgt η ∈ Ωn (V );
wegen dim Ωn (V ) = 1 ist also
ω = λη
mit einem λ ∈ R, und es ist
ω(e1 , . . . , en ) = λη(e1 , . . . , en ) = λ.
Vereinbarung. Wir werden im folgenden gelegentlich die Abkürzung
X
X
ai1 ...ip ϕi1 ∧ . . . ∧ ϕip =:
aI ϕ I
1≤i1 <...<ip ≤n
I∈Mpn
benutzen. Dabei durchläuft der Multi-Index I die Menge Mpn aller der Größe nach
geordneten p-Tupel von Zahlen aus {1, . . . , n}.
6
Differentialformen und äußere Ableitung
(6.1) Definition. Sei M ⊂ Rn , sei p ∈ N0 . Eine Differentialform vom Grad p
(kurz: p-Form) auf M ist eine Abbildung von M in Ωp (Rn ).
Eine Differentialform vom Grad 0 ist danach also einfach eine reellwertige Funktion.
Sei ω eine p-Form auf M . Für X ∈ M ist ω(X) ∈ Ωp (Rn ), also ω(X) ein
p-Kovektor über Rn . Statt ω(X) schreiben wir häufig ωX . Die für alternierende Tensoren erklärten algebraischen Operationen können in der üblichen Weise
(nämlich punktweise) für Differentialformen erklärt werden:
(6.2) Definition. Seien ωi , ω, η Differentialformen auf M (ω1 , ω2 vom selben
Grad). Dann werden die Differentialformen ω1 + ω2 , f ω (für Funktionen f : M →
R), ω ∧ η erklärt durch
(ω1 + ω2 )(X) := ω1 (X) + ω2 (X),
(f ω)(X) := f (X)ω(X) =: (f ∧ ω)(X)
(ω ∧ η)(X) := ω(X) ∧ η(X).
Spezielle 1-Formen sind uns bereits bekannt. Sei M ⊂ Rn offen und f : M → R
eine differenzierbare Funktion. In jedem Punkt X ∈ M ist also das Differential
50
6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG
DfX erklärt. Es ist nach Definition die eindeutig bestimmte lineare Abbildung
DfX : Rn → R mit
f (X + H) − f (X) − DfX (H)
= 0.
H→0
kHk
lim
Für reellwertige Funktionen schreiben wir im folgenden dfX statt DfX . Für jedes
X ist dfX also eine lineare Abbildung von Rn in R, somit ein Element von Ω1 (Rn ).
Also ist das Differential df von f , das ist die Abbildung
df : M → Ω1 (Rn ),
X 7→
dfX
eine Differentialform vom Grad 1 auf M .
Es ist üblich, das Differential der i-ten Projektion
Rn
pi :
→ R
(x1 , . . . , xn ) 7→ xi
mit dxi zu bezeichnen (i = 1, . . . , n) (wir verwenden hier also jetzt obere Indizes).
Dann sind also dx1 , . . . , dxn Differentialformen vom Grad 1 auf Rn . Trivialerweise
ist dxi (X) = pi für alle X ∈ Rn und daher
(dxi )X (Ej ) = δij .
Somit ist ((dx1 )X , . . . , (dxn )X ) die duale Basis zur Standardbasis (E1 , . . . , En )
von Rn . Gemäß Satz (5.12) erhalten wir damit zu jedem X ∈ Rn eine Basis von
Ωp (Rn ) und können ωX für gegebene p-Formen ω in dieser Basis ausdrücken:
(6.3) Definition und Behauptung. Sei ω eine Differentialform vom Grad p
auf M . Dann gibt es Funktionen
ai1 ...ip : M → R,
1 ≤ i1 < . . . < ip = n,
die Koordinatenfunktionen von ω, mit
X
ωX =
ai1 ...ip (X)(dxi1 )X ∧ . . . ∧ (dxip )X
für X ∈ M,
1≤i1 <...<ip ≤n
abgekürzt
ω=
X
1≤i1 <...<ip ≤n
ai1 ...ip dxi1 ∧ . . . ∧ dxip =
X
aI dxI .
I∈Mpn
Ist M offen, so heißt die Form ω von der Klasse C r (r ∈ N0 ), wenn ihre Koordinatenfunktionen von der Klasse C r sind.
51
Bemerkung. Mit den Bezeichnungen aus (6.3) gilt nach dem Beweis von (5.12)
ai1 ...ip (X) = ωX (Ei1 , . . . , Eip ).
Ist speziell f eine differenzierbare Funktion, so ergibt sich für die 1-Form df die
Darstellung
n
n
X
X
df =
df (Ei )dxi =
(∂i f )dxi .
i=1
i=1
In Definition (5.4) hatten wir jeder linearen Abbildung L : V → W für jedes
p ∈ N eine lineare Abbildung L∗ : T p (W ) → T p (V ) zugeordnet durch
(L∗ T )(v1 , . . . , vp ) := T (L(v1 ), . . . , L(vp )).
Für p = 0 soll dabei L∗ definitionsgemäß die Identität auf R sein.
Sei nun M ⊂ Rn offen und F : M → Rk eine differenzierbare Abbildung. Für
jedes X ∈ M ist dann das Differential DFX : Rn → Rk eine lineare Abbildung,
also ist insbesondere für jedes p eine lineare Abbildung
(DFX )∗ : Ωp (Rk ) → Ωp (Rn )
erklärt. Hierdurch wird jeder p-Form auf F (M ) eine p-Form auf M zugeordnet:
(6.4) Definition. Sei M ⊂ Rn offen und F : M → Rk eine differenzierbare
Abbildung. Für eine p-Form ω auf F (M ) ist die p-Form F ∗ ω auf M erklärt durch
(F ∗ ω)X := (DFX )∗ ωF (X)
für X ∈ M.
Man sagt, F ∗ ω entstehe aus ω durch Zurückholen mittels der Abbildung F .
Bemerkung. Für p = 0 ist definitionsgemäß L∗ die Identität auf R, also F ∗ ω =
ω ◦ F.
(6.5) Satz. Sei M ⊂ Rn offen und F : M → Rk eine differenzierbare Abbildung,
sei F = (f1 , . . . , fk ), sei dy i das i-te Koordinatendifferential auf Rk . Dann gilt
für p-Formen ωi , ω, Funktionen g und q-Formen η auf F (M )
(a) F ∗ dy i = dfi für i = 1, . . . , k,
(b) F ∗ (ω1 + ω2 ) = F ∗ ω1 + F ∗ ω2 ,
(c) F ∗ (gω) = (g ◦ F )F ∗ ω,
(d) F ∗ (ω ∧ η) = F ∗ ω ∧ F ∗ η.
52
6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG
(e) Sei ferner N ⊂ Rk offen, F (M ) ⊂ N und G : N → Rm differenzierbar. Für
jede p-Form ω auf (G ◦ F )∗ gilt dann
(G ◦ F )∗ ω = F ∗ G∗ ω.
Beweis. (b) und (c) sind trivial, (d) folgt aus Satz (5.9e). (a): Für H ∈ Rn gilt,
wenn (E10 , . . . , Ek0 ) die Standardbasis von Rk bezeichnet,
(F ∗ dy i )X (H) = (DFX )∗ (dy i )F (X) (H)
= (dy i )F (X) (DFX (H))
= (dy i )F (X)
k
X
nach Def. von L∗
!
(Dfj )X (H)Ej0
(An.II(9.8))
j=1
= (Dfi )X (H),
also F ∗ dy i = Dfi = dfi . Beweis von (e): Die entsprechende Eigenschaft für lineare
Abbildungen (vgl. (5.4)) ist klar; die Behauptung folgt nach (6.4) dann aus der
Kettenregel D(G ◦ F )X = DGF (X) ◦ DFX .
Bemerkung. Nach (6.5) ist also
X
X
F∗
ai1 ...ip dy i1 ∧ . . . ∧ dy ip =
(ai1 ...ip ◦ F ) dfi1 ∧ . . . ∧ dfip .
Hier kann man
dfi =
n
X
(∂j fi )dxj
j=1
∗
einsetzen und dann F (·) durch die Standardbasis ausdrücken.
Für n-Formen ω wollen wir F ∗ ω für spätere Anwendung explizit ausrechnen:
(6.6) Satz. Sei M ⊂ Rn offen und F : M → Rn differenzierbar. Dann ist
F ∗ (adx1 ∧ . . . ∧ dxn ) = (a ◦ F )(det JF )dx1 ∧ . . . ∧ dxn .
Beweis. Nach (6.5c) ist
F ∗ (adx1 ∧ . . . ∧ dxn ) = (a ◦ F )F ∗ (dx1 ∧ . . . ∧ dxn ),
und es ist (die Argumente X, F (X) werden weggelassen)
F ∗ (dx1 ∧ . . . ∧ dxn )(E1 , . . . , En )
= (dx1 ∧ . . . ∧ dxn )(DF (E1 ), . . . , DF (En ))
= (dx1 ∧ . . . ∧ dxn )
n
X
i=1
(∂1 fi )Ei , . . . ,
n
X
!
(∂n fi )Ei
i=1
= det(∂i fj )ni,j=1 dx1 ∧ . . . ∧ dxn (E1 , . . . , En )
53
nach Satz (5.13), also
F ∗ (dx1 ∧ . . . ∧ dxn ) = (det JF )dx1 ∧ . . . ∧ dxn .
Grundlegend für alles weitere ist der jetzt zu erklärende Differentiationsprozeß
für Differentialformen.
(6.7) Definition. Sei M ⊂ Rn offen und
X
X
ω=
ai1 ...ip dxi1 ∧ . . . ∧ dxip =
aI dxI
I∈Mpn
1≤i1 <...<ip ≤n
eine Differentialform vom Grad p der Klasse C 1 auf M . Die äußere Ableitung oder
das äußere Differential von ω ist die (p + 1)-Form
X
X
dω :=
daI ∧ dxI
dai1 ...ip ∧ dxi1 ∧ . . . ∧ dxip =
I∈Mpn
1≤i1 <...<ip ≤n
=
X
n
X
(∂j ai1 ...ip )dxj ∧ dxi1 ∧ . . . ∧ dxip .
1≤i1 <...<ip ≤n j=1
Bemerkung. Für eine 0-Form f (Funktion) ist df bereits definiert; es ist
df =
n
X
(∂j f )dxj ;
j=1
das ist also konsistent mit der obigen Definition.
Wir stellen nun die Rechenregeln für die äußere Ableitung zusammen.
(6.8) Satz. Seien ωi , ω p-Formen, η eine q-Form auf M , jeweils von der Klasse
C 1 . Dann gilt
(a) d(ω1 + ω2 ) = dω1 + dω2 ,
(b) d(ω ∧ η) = dω ∧ η + (−1)p ω ∧ dη,
(c) Ist ω von der Klasse C 2 , so gilt ddω = 0.
(d) Ist F : M → Rk eine Abbildung der Klasse C 2 und ω eine p-Form der Klasse
C 1 auf (einer offenen Obermenge von) F (M ), so gilt
F ∗ dω = dF ∗ ω.
Beweis. (a) ist trivial.
54
6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG
(b) Sei zunächst f eine differenzierbare Funktion auf M . Sei I ∈ Mpn , J ∈ Mqn .
Dann gilt
(∗)
d(f dxI ∧ dxJ ) = df ∧ dxI ∧ dxJ .
In der Tat: Kommen in I und J zwei gleiche Indizes vor, so sind beide Seiten
gleich 0. Andernfalls ist
dxI ∧ dxJ = (−1)m dxk1 ∧ . . . ∧ dxkp+q
mit einer Zahl m und mit
1 ≤ k1 < k2 < . . . < kp+q ≤ n.
Daraus folgt (∗).
Nun sei
ω =
X
X
ai1 ...ip dxi1 ∧ . . . ∧ dxip =
aI dxI
I∈Mpn
η =
X
X
bj1 ...jq dxj1 ∧ . . . ∧ dxjq =
bJ dxJ ,
J∈Mqn
also
d(ω ∧ η) =
X
d(aI bJ dxI ∧ dxJ )
I,J
nach (a). Nun gilt
d(aI bJ dxI ∧ dxJ )
= d(aI bJ ) ∧ dxI ∧ dxJ
nach (∗)
= (bJ daI + aI dbJ ) ∧ dxI ∧ dxJ
nach der gewöhnlichen Produktregel
= (daI ∧ dxI ) ∧ (bJ dxJ ) + dbJ ∧ (aI dxI ) ∧ dxJ
= daI ∧ dxI ∧ bJ dxJ + (−1)p aI dxI ∧ dbJ ∧ dxJ
nach (5.9d). Es folgt
d(ω ∧ η)
!
=
X
daI ∧ dxI
!
∧
X
I
= dω ∧ η + (−1)p ω ∧ dη.
J
bJ dxJ
!
+ (−1)p
X
I
aI dxI
!
∧
X
J
dbJ ∧ dxJ
55
(c) Für eine Funktion f der Klasse C 2 gilt
df =
n
X
(∂i f )dxi ,
i=1
also
ddf =
n
X
d(∂i f ) ∧ dxi
i=1
=
n
n
X
X
i=1
=
X
!
(∂j ∂i f )dxj
∧ dxi
j=1
(∂i ∂j f − ∂j ∂i f ) dxi ∧ dxj
i<j
= 0.
Unter Verwendung von (a) und (b) folgt für ω =
X
dω =
daI ∧ dxI ,
P
I
aI dxI
I∈Mpn
ddω =
X
ddaI ∧ dxI − daI ∧ ddxI
I∈Mpn
= 0.
(d) Sei F : M → Rk eine 2-mal stetig differenzierbare Abbildung und ω eine
p-Form auf F (M ). Seien f1 , . . . , fk die Koordinatenfunktionen von F . Zunächst
sei p = 0, also ω eine Funktion g. Dann ist
!
k
X
F ∗ dg = F ∗
(∂j g)dy j
j=1
=
k
X
(∂j g) ◦ F dfj
nach (6.5)
j=1
=
k
X
(∂j g) ◦ F
j=1
=
(∂i fj )dxi
i=1
n
k
X
X
i=1
n
X
j=1
!
(∂j g) ◦ F ∂i fj
dxi
56
6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG
=
n
X
∂i (g ◦ F ) dxi
(Kettenregel)
i=1
= d(g ◦ F ) = dF ∗ g.
Nun sei k ∈ N0 und die Behauptung bewiesen für alle k-Formen. Es genügt dann,
sie für alle (k + 1)-Formen der Gestalt ω ∧ dy i zu beweisen. Es ist
F ∗ d(ω ∧ dy i ) = F ∗ (dω ∧ dy i + (−1)k ω ∧ ddy i )
nach (b)
= F ∗ (dω ∧ dy i )
nach (c)
= F ∗ dω ∧ F ∗ dy i
nach (6.5d)
= dF ∗ ω ∧ F ∗ dy i
nach Ind.-Annahme
Andererseits ist
dF ∗ (ω ∧ dy i ) = d(F ∗ ω ∧ F ∗ dy i )
nach (6.5d)
= dF ∗ ω ∧ F ∗ dy i + (−1)k F ∗ ω ∧ dF ∗ dy i
= dF ∗ ω ∧ F ∗ dy i + (−1)k F ∗ ω ∧ ddfi
= dF ∗ ω ∧ F ∗ dy i .
Unter Verwendung der äußeren Ableitung lassen sich die Operationen der klassischen Vektoranalysis übersichtlich ausdrücken: Sei V : M → R3 ein Vektorfeld
der Klasse C 2 . Wir ordnen ihm zwei Differentialformen (V ), ((V )) zu durch die
Vorschrift
(V ) := v1 dx1 + v2 dx2 + v3 dx3 ,
((V )) := v1 dx2 ∧ dx3 + v2 dx3 ∧ dx1 + v3 dx1 ∧ dx2 .
Dann rechnet man leicht nach, daß
d(V ) = ((rot V )),
d((V )) = div V dx1 ∧ dx2 ∧ dx3
ist. Ferner gilt für eine Funktion f der Klasse C 2
df = (∇f ).
Mit diesen Bezeichnungen ergibt sich nun aus (6.7c)
0 = dd(V ) = d((rot V )) = (div rotV ) dx1 ∧ dx2 ∧ dx3 ,
57
also div rot V = 0, wie bekannt nach Satz (4.4). Ferner ist
0 = ddf = d(∇f ) = ((rot∇f ))
und somit rot ∇f = 0, wie bekannt nach Satz (4.2).
Die den Sätzen (4.2) (zweiter Teil) und (4.5) zugrundeliegenden Fragestellungen
legen nun die folgende Verallgemeinerung nahe. Gegeben sei eine p-Form ω der
Klasse C 1 auf M . Ist sie als äußere Ableitung einer (p − 1)-Form der Klasse C 2
darstellbar? Wenn ω = dη ist, muß jedenfalls dω = ddη = 0 sein. Die Bedingung
dω = 0 ist also eine notwendige Integrabilitätsbedingung. Satz (4.2) (für ω =
(V ), p = 1) und Satz (4.5) (für ω = ((V )), p = 2) besagen insbesondere, daß
die Bedingung jedenfalls dann hinreichend ist, wenn M sternförmig ist. Dies läßt
sich verallgemeinern. Zunächst eine Definition.
(6.9) Definition. Sei M ⊂ Rn ein Gebiet und ω eine p-Form (p ≥ 1) der Klasse
C 1 auf M . Die Form ω heißt geschlossen, wenn dω = 0 ist, und exakt, wenn es
eine (p − 1)-Form η der Klasse C 1 gibt mit ω = dη.
Jede exakte Form (der Klasse C 1 ) ist also geschlossen, aber nicht umgekehrt, wie
aus früheren Beispielen bekannt ist. Jedoch gilt:
(6.10) Satz (Lemma von Poincaré). Sei M ⊂ Rn ein sternförmiges Gebiet. Dann
ist jede geschlossene p-Form der Klasse C 1 auf M exakt.
Beweis. O.B.d.A. sei M sternförmig bezüglich 0. Für jede stetige p-Form ω auf
M mit der Darstellung
X
ai1 ...ip dxi1 ∧ . . . ∧ dxip
ω=
i1 <...<ip
definieren wir eine (p − 1)-Form Iω auf M durch
(Iω)X :=
 1

Z
p
X
X
d
ik ∧ . . . ∧ dxip .
 ai1 ...ip (tX)tp−1 dt
(−1)k−1 xik dxi1 ∧ . . . ∧ dx
i1 <...<ip
k=1
0
Dabei ist X = (x1 , . . . , xn ) gesetzt. Das Zeichen b bedeutet, daß dxik weggelassen
werden soll. Nun sei ω eine p-Form der Klasse C 1 auf M . Wir berechnen d(Iω)
und I(dω). Es ist
 1

Z
X
 ai1 ...ip (tX)tp−1 dt dxi1 ∧ . . . ∧ dxip
d(Iω)X = p
i1 <...<ip
0
58
6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG
p
X X
+
(−1)k−1
n
X
Z1

j=1
i1 <...<ip k=1


∂j ai1 ...ip (tX)tp dt xik
0
d
ik ∧ . . . ∧ dxip .
dxj ∧ dxi1 ∧ . . . ∧ dx
Andererseits ist
n
X X
dω =
∂j ai1 ...ip dxj ∧ dxi1 ∧ . . . ∧ dxip
i1 <...<ip j=1
und daher [dies erfordert eine elementare, aber umständlich aufzuschreibende
Zusatzüberlegung: j muß jeweils in i1 < . . . < ip eingereiht werden, bevor I
gebildet wird]
n
X X
I(dω)X =

Z1

i1 <...<ip j=1
n
X X
−

∂j ai1 ...ip (tX)tp dt xj dxi1 ∧ . . . ∧ dxip
0

p
∂j ai1 ...ip (tX)t dt

i1 <...<ip j=1

Z1
p
X
(−1)k−1 xik
k=1
0
d
ik ∧ . . . ∧ dxip .
dxj ∧ dxi1 ∧ . . . ∧ dx
Es folgt
d(Iω)X + I(dω)X
  1

 1

Z
Z
n
X
X
p  ai1 ...ip (tX)tp−1 dt +
 ∂j ai1 ...ip (tX)tp xj dt
=
i1 <...<ip
0
j=1
0
dxi1 ∧ . . . ∧ dxip
 1

Z
X
 d ai1 ...ip (tX)tp dt dxi1 ∧ . . . ∧ dxip
=
dt
i <...<i
p
1
=
X
0
ai1 ...ip (X) dxi1 ∧ . . . ∧ dxip
i1 <...<ip
= ωX .
Also ist d(Iω) + I(dω) = ω. Wegen dω = 0 folgt d(Iω) = ω.
59
7
Integration von Differentialformen
In den Ausführungen zur klassischen Vektoranalysis haben wir Kurven- und
Oberflächenintegrale von Vektorfeldern betrachtet. Die wahre Natur“ dieser In”
tegrale tritt deutlicher hervor, wenn wir sie jetzt als Integrale von 1-Formen
bzw. 2-Formen interpretieren. Allgemein wird es unser Ziel sein, Integrale von
p-Formen über p-dimensionale Untermannigfaltigkeiten des Rn zu erklären und
hierfür den Satz von Stokes, die elegante Zusammenfassung und Verallgemeinerung der Integralsätze der Vektoranalysis, zu beweisen. Zunächst orientieren wir
uns am Beispiel der parametrisierten Kurven oder Flächen; es ist zweckmäßig
(und ausreichend), hier auch für p > 1 nur spezielle Parameterbereiche zu betrachten, nämlich (abgeschlossene) Würfel.
Für p ∈ N ist
[0, 1]p := {(x1 , . . . , xp ) ∈ Rp : 0 ≤ xi ≤ 1 für i = 1, . . . , p}
das p-fache kartesische Produkt des abgeschlossenen Einheitsintervalls. Ferner sei
[0, 1]0 := {0} vereinbart.
(7.1) Definition. Sei ω eine stetige p-Form auf [0, 1]p , also
ω = f dx1 ∧ . . . ∧ dxp
mit einer stetigen Funktion f auf [0, 1]p . Man definiert
Z
Z
ω :=
f.
[0,1]p
[0,1]p
Mit anderen Worten, es ist (nach dem Satz von Fubini)
Z
[0,1]p
f dx1 ∧ . . . ∧ dxp =
Z1
Z1
···
0
f (x1 , . . . , xp ) dx1 · · · dxp .
0
Wir müssen nun geeignete Integrationsbereiche für p-Formen im Rn erklären.
Später werden als solche Integrationsbereiche p-dimensionale Untermannigfaltigkeiten zulässig sein. Zuvor ist jedoch die folgende Begriffsbildung nützlich, die
man als Verallgemeinerung der parametrisierten Flächen ansehen kann.
(7.2) Definition. Sei M ⊂ Rn . Ein singulärer p-Würfel in M ist eine zweimal
stetig differenzierbare Abbildung
c : [0, 1]p → M.
60
7 INTEGRATION VON DIFFERENTIALFORMEN
Eine Abbildung mit nicht offenem Definitionsbereich soll dabei differenzierbar
heißen, wenn sie Einschränkung einer differenzierbaren Abbildung mit offenem
Definitionsbereich ist.
Ein singulärer 0-Würfel ist eine Abbildung c : {0} → M , also eindeutig bestimmt
durch den Bildpunkt. Ein singulärer 1-Würfel ist nichts anderes als eine parametrisierte Kurve der Klasse C 2 (mit speziellem Parameterintervall). Sie braucht
aber nicht regulär zu sein, d.h. es wird nicht gefordert, daß c von maximalem
Rang ist. Ein singulärer 2-Würfel ist also im allgemeinen keine parametrisierte
Fläche. Insbesondere ist zugelassen, daß c nicht lokal injektiv ist, zum Beispiel
kann c konstant sein. Hierher rührt die Bezeichnung singulär“. Im übrigen ist
”
die Bezeichnung singulärer Würfel“ recht unglücklich, aber üblich.
”
Jetzt erklären wir, wie p-Formen über singuläre p-Würfel integriert werden
können.
(7.3) Definition. Sei M ⊂ Rn offen, ω eine stetige p-Form auf M und c ein
singulärer p-Würfel in M . Dann definiert man
Z
Z
ω :=
c∗ ω
für p ≥ 1
c
und
[0,1]p
Z
ω := ω(c(0))
für p = 0.
c
Das so definierte Integral ist parameterinvariant im folgenden Sinne:
(7.4) Satz. Ist τ : [0, 1]p → [0, 1]p eine bijektive Abbildung der Klasse C 2 mit
det Jτ ≥ 0 und sind ω und c wie oben, so gilt
Z
Z
ω = ω.
c
c◦τ
Beweis: Übungsaufgabe.
Wir wollen uns die Definition (7.3) in den Fällen p = 1 und p = 2, n = 3 genauer
ansehen. Im Einklang mit der früheren Bezeichnungsweise sei F : [0, 1] → Rn ein
singulärer 1-Würfel, also eine parametrisierte Kurve der Klasse C 2 . Ferner sei
ω = v1 dx1 + . . . + vn dxn
61
eine stetige 1-Form auf Rn . Nach Definition (7.3) ist
Z
Z
1
n
v1 dx + . . . + vn dx =
F ∗ ω.
F
[0,1]
Die zurückgeholte Form F ∗ ω ist eine 1-Form auf [0, 1]. Bezeichnen wir das (einzige) Koordinatendifferential in R1 mit dt1 , so ist mit F = (f1 , . . . , fn ) nach (6.5)
F ∗ ω = F ∗ (v1 dx1 + . . . + vn dxn )
= (v1 ◦ F )df1 + . . . + (vn ◦ F )dfn
= [(v1 ◦ F )f10 + . . . + (vn ◦ F )fn0 ]dt1
= hV ◦ F, F 0 idt1 ,
wenn V := (v1 , . . . , vn ) gesetzt wird. Nach Def. (7.1) ist also
Z
Z
Z1
hV ◦ F, F i =
ω=
F
0
[0,1]
hV (F (t)), F 0 (t)i dt.
0
Das ist also gerade das Kurvenintegral des Vektorfeldes (v1 , . . . , vn ) längs der
durch F definierten Kurve.
Sei nun F : [0, 1]2 → R3 ein singulärer 2-Würfel im R3 . Sei
ω = v1 dx2 ∧ dx3 + v2 dx3 ∧ dx1 + v3 dx1 ∧ dx2
eine stetige 2-Form auf R3 . Nach Definition (7.3) ist
Z
Z
2
3
3
1
1
2
v1 dx ∧ dx + v2 dx ∧ dx + v3 dx ∧ dx =
F ∗ ω.
F
[0,1]2
Die zurückgeholte Form F ∗ ω ist eine 2-Form auf [0, 1]2 . Bezeichnen wir die Koordinatendifferentiale in R2 mit du1 , du2 , so ist mit F = (f1 , f2 , f3 ) nach (6.5)
F ∗ ω = (v1 ◦ F )df2 ∧ df3 + (v2 ◦ F )df3 ∧ df1 + (v3 ◦ F )df1 ∧ df2
= (v1 ◦ F )[∂1 f2 du1 + ∂2 f2 du2 ] ∧ [∂1 f3 du1 + ∂2 f3 du2 ] + . . .
= (v1 ◦ F )(∂1 f2 · ∂2 f3 − ∂1 f3 · ∂2 f2 )du1 ∧ du2 + . . .
∂(f3 , f1 )
∂(f1 , f2 )
∂(f2 , f3 )
+ v2 ◦ F
+ v3 ◦ F
du1 ∧ du2 .
= v1 ◦ F
∂(u1 , u2 )
∂(u1 , u2 )
∂(u1 , u2 )
62
7 INTEGRATION VON DIFFERENTIALFORMEN
Nach Definition (7.1) ist also
Z
Z
2
3
3
1
1
2
v1 dx ∧ dx + v2 dx ∧ dx + v3 dx ∧ dx = ω
F
F
Z1 Z1 =
0
∂(f2 , f3 )
∂(f3 , f1 )
∂(f1 , f2 )
v1 ◦ F
+ v2 ◦ F
+ v3 ◦ F
∂(u1 , u2 )
∂(u1 , u2 )
∂(u1 , u2 )
du1 du2 .
0
Dies ist genauRdas Integral, das wir in Abschnitt 4 im Fall einer parametrisierten
Fläche F mit Vn dO bezeichnet hatten.
Wir hatten diese Oberflächenintegrale in Abschnitt 4 benötigt, um die Integralsätze der klassischen Vektoranalysis formulieren zu können. Dort war von einem
Vektorfeld V in R3 die Rede. Einem solchen Vektorfeld hatten wir später die
Differentialformen (V ) und ((V )) zugeordnet. Es zeigt sich jetzt, daß in diesen
Integralformeln in den Integranden gerade die äußeren Differentiale d(V ) und
d((V )) auftreten. Wir wollen daher jetzt in dem hier zugrundegelegten Rahmen
versuchen, das Integral
Z
dω
c
für eine (p − 1)-Form ω und einen singulären p-Würfel c umzuformen in ein
Randintegral“.
”
Wir stehen also jetzt vor der folgenden Frage: Um eine Integrationstheorie der
Differentialformen zu entwickeln, müssen wir passende Integrationsbereiche“ de”
finieren, und zwar sollen p-Formen integriert werden können über p-dimensionale
”
Integrationsbereiche“. Für solche Integrationsbereiche muß jeweils ein Rand“
”
erklärt werden; der Rand eines p-dimensionalen Integrationsbereiches soll ein
(p − 1)-dimensionaler Integrationsbereich sein. Eine derartige Erklärung von Integrationsbereichen ist auf verschiedene Weisen möglich. Nachdem wir hier bereits singuläre p-Würfel als zulässige Integrationsbereiche zugrundegelegt haben,
verläuft die weitere Entwicklung mehr oder weniger zwangsläufig. Eine andere
Integrationstheorie für Differentialformen werden wir im nächsten Abschnitt behandeln.
Zunächst muß jetzt der Rand eines singulären Würfels in geeigneter Weise erklärt
werden. Zur Motivation der hier erforderlichen Definition betrachten wir zunächst
einen einfachen Fall.
Sei
ω = f dx1 + gdx2
eine stetig differenzierbare 1-Form auf [0, 1]2 . Dann ist
dω = df ∧ dx1 + dg ∧ dx2 = (∂1 g − ∂2 f )dx1 ∧ dx2 .
63
Wir wollen integrieren über den trivialen“ singulären 2-Würfel
”
I 2 : [0, 1]2 → R2 .
X
7→
X
Dann ist
Z
Z
dω =
I2
Z
2∗
Z
I dω =
[0,1]2
(∂1 g − ∂2 f )
dω =
[0,1]2
[0,1]2
Z1 Z1
(∂1 g(x, y) − ∂2 f (x, y)) dxdy
=
0
0




Z1 Z1
Z1 Z1
 ∂1 g(x, y)dx dy −  ∂2 f (x, y)dy  dx
=
Z1
Z1
[g(1, y) − g(0, y)]dy −
=
0
0
0
0
0
[f (x, 1) − f (x, 0)] dx.
0
Die rechts stehenden Integrale lassen sich als Integrale der 1-Form ω über singuläre 1-Würfel darstellen. Wir definieren
R2
2
: [0, 1] →
I1,0
t
7→ (0, t)
2
: [0, 1] →
I2,1
7→ (1, t)
Z
2∗
I2,1
ω
ω=
2
I2,1
[0,1]
Z1
Z
=
f (t, 1) dt =
f (x, 1) dx,
0
[0,1]
analog in den anderen Fällen. Es ergibt sich

Z

Z

dω = − 
I2
ω−
2
I1,0

Z
2
I1,1

Z
Z
ω−
 
ω + 
2
I2,0
R2
7→ (t, 1)
t
Dann ist zum Beispiel
Z
R2
7→ (t, 0)
t
R2
2
I1,1
: [0, 1] →
t
2
: [0, 1] →
I2,0
2
I2,1

ω .
64
7 INTEGRATION VON DIFFERENTIALFORMEN
Unser Wunsch ist nun, für den singulären Würfel I 2 einen Rand“ ∂I 2 so zu
”
erklären, daß die rechte Seite sich in der Form
Z
ω
∂I 2
schreiben läßt. Es drängt sich auf, ∂I 2 als die formale Linearkombination“ von
”
singulären 1-Würfeln
2
2
2
2
∂I 2 := − I1,0
− I1,1
+ I2,0
− I2,1
zu definieren und das Integral über solche Linearkombinationen einfach durch
lineare Erweiterung zu erklären. Diese Methode führt in der Tat allgemein zum
Ziel, wie wir nach Definition (7.5) sehen werden.
Zunächst eine einfache algebraische Bemerkung. Sei A eine nichtleere Menge und
F(A) := {f : A → Z : f (x) 6= 0 für höchstens endlich viele x ∈ A}.
Für f, g ∈ F(A) wird wie üblich
(f ± g)(x) := f (x) ± g(x)
für alle x ∈ A
erklärt. Dann ist F(A) eine abelsche Gruppe, die von A erzeugte freie abelsche
Gruppe. Definieren wir für x ∈ A die Funktion x ∈ F(A) durch
(
1
für y = x,
x(y) :=
0
für y 6= x,
so gilt für jedes f ∈ F(A)
f=
X
f (x)x
x∈A
(nur endlich viele Summanden sind 6= 0). Statt x schreibt man einfach x, dann
ist also jedes Element von F(A) von der Form
X
nx x
x∈A
mit ganzen Zahlen nx , von denen nur endlich viele 6= 0 sind. Die Elemente von
F(A) werden daher auch als die formalen Linearkombinationen (mit ganzzahligen
Koeffizienten) der Elemente von A bezeichnet. Offenbar gilt
X
X
X
nx x +
mx x =
(nx + mx )x.
(7.5) Definition. Sei M ⊂ Rn , p ∈ N0 . Sei Kp (M ) die von der Menge der singulären p-Würfel in M erzeugte freie abelsche Gruppe. Die Elemente von Kp (M )
65
(also die endlichen Linearkombinationen von singulären p-Würfeln in M mit ganzzahligen Koeffizienten) heißen p-Ketten in M .
P
Das Integral der stetigen p-Form ω auf M über die p-Kette c = ai ci (c1 , . . . , ck
singuläre p-Würfel) wird definiert durch
Z
X Z
ω :=
ai ω.
c
ci
Jetzt müssen wir den Rand einer p-Kette definieren. Das oben durchgeführte
Beispiel weist darauf hin, wie der Rand des trivialen 2-Würfels I 2 zu erklären
ist. Weiterführung dieser Überlegungen zeigt, daß es nur eine sinnvolle Art und
Weise gibt, den Rand einer p-Kette zu erklären.
(7.6) Definition. Der singuläre p-Würfel I p : [0, 1]p → Rp sei erklärt durch
p
I p (X) = X für X ∈ [0, 1]p , und die singulären (p − 1)-Würfel Ii,0
: [0, 1]p−1 → Rp
p
p−1
p
→ R für p ≥ 2 und i ∈ {1, . . . , p} durch
und Ii,1 : [0, 1]
p
Ii,0
(X) := (x1 , . . . , xi−1 , 0, xi , . . . , xp−1 )
p
Ii,1
(X) := (x1 , . . . , xi−1 , 1, xi , . . . , xp−1 )
1
1
für X ∈ [0, 1]p−1 ; ferner sei I1,0
(0) := 0 und I1,1
(0) := 1. Der Rand des singulären
p-Würfels c ist erklärt durch
∂c :=
p
X
p
p
(−1)i [c ◦ Ii,0
− c ◦ Ii,1
]
i=1
und der Rand der p-Kette
P
ai ci durch
X
X
∂
ai ci :=
ai ∂ci .
Bemerkung. Es gilt ∂∂c = 0 für jede Kette c. Das wird hier nicht bewiesen,
weil es im folgenden nicht benötigt wird (aber ein Spezialfall kommt in einer
Übungsaufgabe vor).
Nun können wir einen interessanten Zusammenhang zwischen Randbildung von
Ketten und äußerer Differentiation von Differentialformen herstellen.
(7.7) Satz von Stokes (erste Version). Sei M ⊂ Rn offen, p ∈ N, ω eine
(p − 1)-Form der Klasse C 1 auf M und c eine p-Kette in M . Dann gilt
Z
Z
dω = ω.
c
∂c
66
7 INTEGRATION VON DIFFERENTIALFORMEN
Beweis. Wir betrachten zunächst den Fall p = 1. Dann ist ω = f , eine Funktion.
Sei c ein singulärer 1-Würfel in M . Es ist df = f1 dx1 + . . . + fn dxn und daher
(wie bereits nach (7.4) berechnet)
Z1
Z
df =
c
hgrad f (c(t)), c0 (t)i dt
0
Z1
=
(f ◦ c)0 (t) dt = (f ◦ c)(1) − (f ◦ c)(0).
0
Andererseits ist
Z
Z
Z
f+
f =
1
−c◦I1,0
∂c
f
1
c◦I1,1
1
1
= −f ((c ◦ I1,0
)(0)) + f ((c ◦ I1,1
)(0))
= −f (c(0)) + f (c(1)) = (f ◦ c)(1) − (f ◦ c)(0).
Die Ausdehnung auf 1-Ketten erfolgt durch Linearität.
Jetzt sei p ≥ 2. Wir betrachten zuerst den folgenden Spezialfall: n = p, c = I p
und
ci ∧ . . . ∧ dxp
ω = f dx1 ∧ . . . ∧ dx
(auf einer offenen Obermenge von [0, 1]p ) für ein i ∈ {1, . . . , p}. Dann gilt
dω = (−1)i−1 ∂i f dx1 ∧ . . . ∧ dxp
und daher
Z
Z
Z
i−1
dω =
dω = (−1)
∂i f
Ip
[0,1]p
= (−1)i−1
i−1
Z1
[0,1]p
Z1
...
0
Z1
Z1
···
0
Z1

ci · · · dxp
∂i f (x1 , . . . , xp )dxi  dx1 · · · dx

0
= (−1)

0
[f (x1 , . . . , xi−1 , 1, xi , . . . , xp ) − f (x1 , . . . , xi−1 , 0, xi , . . . , xp )]
0
ci · · · dxp .
dx1 · · · dx
67
Andererseits ist nach (7.5) und (7.6)

p
Z
ω=
X

(−1)j 
j=1
∂I p
Nun ist

Z
Z
ω−
p
Ij,0
Z
Z
p
Ij,1
p∗
Ij,0
ω
ω=
p
Ij,0

ω .
[0,1]p−1
p
und, wenn wir Ij,0
= (g1 , . . . , gp ) setzen,
p∗
p
ci ∧ . . . ∧ dgp .
Ij,0
ω = (f ◦ Ij,0
) dg1 ∧ . . . ∧ dg
p
Nach Definition von Ij,0
ist, wenn wir die Koordinatendifferentiale in Rp−1 mit
du1 , . . . , dup−1 bezeichnen,
 k
du
für k = 1, . . . , j − 1,


0
für k = j,
dgk =

 k−1
du
für k = j + 1, . . . , p,
also an der Stelle U = (u1 , . . . , up−1 )
(
0 für j 6= i,
p∗
ω U=
Ij,0
f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) du1 ∧ . . . ∧ dup−1 .
Es folgt
Z
p
Ij,0


 0 für j 6= i,
ω=
R1
R1

 . . . f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) du1 · · · dup−1 für j = i.
0
0
Ein analoger Ausdruck ergibt sich für
R
ω und damit
p
Ij,1
Z
∂I p
ω = (−1)i
Z1
Z1
···
0
[f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) −
0
f (u1 , . . . , ui−1 , 1, ui , . . . , up−1 )] du1 · · · dup−1 .
Somit ist
Z
Z
dω =
Ip
ω.
∂I p
(4)
68
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
Da jede (p − 1)-Form auf [0, 1]p Summe von (p − 1)-Formen der Gestalt
ci ∧ . . . ∧ dxp
f dx1 ∧ . . . ∧ dx
ist, gilt (4) für jede (p − 1)-Form ω der Klasse C 1 auf [0, 1]p .
Nun sei c ein beliebiger singulärer p-Würfel in M ⊂ Rn und ω eine stetig differenzierbare (p − 1)-Form auf M . Dann gilt
Z
Z
Z
Z
Z
∗
∗
∗
c∗ ω
(5)
dω =
c dω = c dω = dc ω =
nach (4). Andererseits ist
Z
Z
ω=
p
c◦Ii,0
Ip
Ip
[0,1]p
c
(c ◦
p ∗
Ii,0
)ω
Z
=
[0,1]p−1
∂I p
p∗ ∗
Ii,0
(c ω)
Z
c∗ ω,
=
p
Ii,0
[0,1]p−1
p
. Es folgt
und eine analoge Gleichung gilt für das Integral von ω über c ◦ Ii,1




Z
Z
Z
Z
Z
Z
p
p
X
 X
i
i
∗
∗ 
ω =
(−1) 
ω−
ω =
(−1) 
c ω − c ω =
c∗ ω,
∂c
i=1
p
c◦Ii,0
also
i=1
p
c◦Ii,1
Z
Ist schließlich c =
∂I p
ω.
∂c
P
ai ci eine p-Kette in M , so folgt
Z
Z
X Z
X Z
dω =
ai
dω =
ai dω = ω.
c
8
p
Ii,1
Z
dω =
c
p
Ii,0
ci
∂ci
∂c
Differenzierbare Untermannigfaltigkeiten
Die Integration von Differentialformen über singuläre Ketten ergibt zwar eine
elegante Theorie, in der der Satz von Stokes gilt und die interessante Querverbindungen zur algebraischen Topologie eröffnet, aber für manche Anwendungen (z.B.
die Integralsätze der klassischen Vektoranalysis) möchte man als Integrationsbereiche lieber geeignete Punktmengen des Rn haben. Als passende p-dimensionale
Integrationsbereiche für p-Formen können die p-dimensionalen differenzierbaren
Untermannigfaltigkeiten des Rn dienen. Sie sollen nun eingeführt werden.
69
Bezeichnungen. Differenzierbar“ ohne Zusatz soll im folgenden immer be”
”
liebig oft differenzierbar“ heißen. Unter Diffeomorphismen sind immer solche der
Klasse C ∞ verstanden. Dies geschieht zur Vereinfachung.
Wir setzen
Rnk := {X ∈ Rn : xk+1 = . . . = xn = 0},
Hkn := {X ∈ Rn : x1 ≥ 0, xk+1 = . . . = xn = 0},
H n := {X ∈ Rn : x1 ≥ 0}.
(8.1) Definition. Sei M ⊂ Rn , k ∈ N0 . M heißt k-dimensionale Mannigfaltigkeit
im Rn , wenn für jeden Punkt X ∈ M gilt: Es gibt eine offene Umgebung U von
X, eine offene Menge V ⊂ Rn und einen Diffeomorphismus h : U → V mit den
folgenden Eigenschaften: Entweder ist
(a) h(U ∩ M ) = V ∩ Rnk
oder
(b) h(U ∩ M ) = V ∩ Hkn , und die erste Koordinate von h(X) ist 0.
Gilt (a), so heißt X innerer Punkt von M ; gilt (b), so heißt X Randpunkt von M .
Achtung! Die Begriffe innerer Punkt“ und Randpunkt“ werden hier in ande”
”
rem Sinn gebraucht als in Analysis II.
Ein innerer Punkt einer Mannigfaltigkeit kann nicht zugleich Randpunkt sein:
Angenommen, es gäbe Diffeomorphismen
h1 : U1 → V1
und
h2 : U2 → V2
mit
h1 (U1 ∩ M ) = V1 ∩ Rnk
und
h2 (U2 ∩ M ) = V2 ∩ Hkn
und derart, daß die erste Koordinate von h2 (X) gleich 0 ist. Dann ist
n
h2 ◦ h−1
1 : h1 (U1 ∩ U2 ) → R
eine differenzierbare Abbildung mit nirgends verschwindender Funktionaldeterminante. Sie bildet die in Rnk (nach An.II.(11.2)) offene Menge
h1 (U1 ∩ U2 ) ∩ Rnk
ab auf eine Menge in Rnk , die in Rnk nicht offen ist. Dies widerspricht dem Satz
von der Umkehrabbildung (An.II.(11.2)).
70
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
Bezeichnung. ∂M sei die Menge der Randpunkte der Mannigfaltigkeit M . M
heißt unberandet, wenn ∂M = ∅ ist, und geschlossen, wenn M unberandet und
kompakt ist.
(8.2) Satz. Ist M eine k-dimensionale Mannigfaltigkeit im Rn (k ≥ 1), so ist
∂M eine (k − 1)-dimensionale unberandete Mannigfaltigkeit.
Beweis. Übungsaufgabe
Der folgende Satz zeigt, daß sich Mannigfaltigkeiten lokal als höherdimensionale
Verallgemeinerungen von injektiven parametrisierten Flächen darstellen lassen.
(8.3) Satz und Definition. Sei M eine k-dimensionale Mannigfaltigkeit in Rn .
Dann gibt es zu jedem X ∈ M eine offene Umgebung U von X, eine offene Menge
W ⊂ Rk , falls X ∈
/ ∂M , bzw. eine relativ offene Menge W ⊂ H k , falls X ∈
∂M , und eine injektive, differenzierbare Abbildung F : W → Rn mit folgenden
Eigenschaften:
(a) F (W ) = M ∩ U und X = F (Z) mit z1 = 0 im Fall X ∈ ∂M ,
(b) F −1 : F (W ) → W ist stetig,
(c) DFZ ist vom Rang k für alle Z ∈ W .
Jede solche Abbildung F wird als ein Koordinatensystem (der Mannigfaltigkeit
M ) um X bezeichnet.
Beweis. Sei X ∈ M . Zunächst sei X ∈
/ ∂M . Nach Definition (8.1) gibt es eine offene Umgebung U von X, eine offene Menge V ⊂ Rn und einen Diffeomorphismus
h : U → V mit h(U ∩ M ) = V ∩ Rnk . Setze
W := {Z ∈ Rk : (z1 , . . . , zk , 0, . . . , 0) ∈ V }
| {z }
n−k
und definiere F : W → Rn durch
F (Z) := h−1 (z1 , . . . , zk , 0, . . . , 0).
Offenbar gilt F (W ) = M ∩ U . Mit h ist auch F −1 stetig. Definiere H : U → Rk
durch
H(Y ) = (h1 (Y ), . . . , hk (Y )), wobei h = (h1 , . . . , hn ).
Für alle Z ∈ W gilt H(F (Z)) = Z, also
DHF (Z) ◦ DFZ = Identität auf Rk ,
daher ist DFZ vom Rang k.
71
Im Fall X ∈ ∂M schließt man völlig analog.
Der Satz läßt sich umkehren:
(8.4) Satz. Sei M ⊂ Rn . Wenn zu jedem X ∈ M eine offene Umgebung U von
X, eine offene Menge W ⊂ Rk oder eine relativ offene Menge W ⊂ H k und eine
injektive differenzierbare Abbildung F : W → Rn mit den Eigenschaften (a), (b),
(c) aus Satz (8.3) existieren, dann ist M eine k-dimensionale Mannigfaltigkeit.
Beweis. Sei X ∈ M . Wir nehmen zunächst an, daß es eine offene Menge W ⊂ Rk
und eine Abbildung F : W → Rn mit den Eigenschaften aus (8.3) gibt. Sei
X = F (Z). Aus dem Satz über lokal injektive Abbildungen (An.II.(11.6)) folgt:
Es gibt eine offene Umgebung W1 von Z in W , eine offene Umgebung W2 von 0
in Rn−k , eine offene Umgebung U1 von F (Z) in Rn und einen Diffeomorphismus
g : W1 × W2 → U1 mit g(Y, 0) = F (Y ) für Y ∈ W1 .
Sei h : U1 → W1 ×W2 die Umkehrabbildung von g. Da F −1 stetig ist, ist F (W1 ) =
U2 ∩ F (W ) mit einer offenen Menge U2 ⊂ Rn . Setze
U0 := U ∩ U1 ∩ U2
und V := g −1 (U0 ).
Dann ist
h(U0 ∩ M ) = V ∩ Rnk .
Im Fall einer relativ offenen Menge W ⊂ H k schließt man analog.
(8.5) Satz. Sei M eine k-dimensionale Mannigfaltigkeit in Rn , seien F1 : W1 →
Rn , F2 : W2 → Rn Koordinatensysteme um einen Punkt von M . Dann ist die
Abbildung
F2−1 ◦ F1 : F1−1 (F2 (W2 )) → Rk
differenzierbar und vom Rang k.
Beweis. Sei Y ∈ F1−1 (F2 (W2 )) und X = F1 (Y ). Nach den Beweisen der Sätze
(8.4) und (8.3) existiert in einer Umgebung von X ein Diffeomorphismus H mit
F2−1 (F1 (Z)) = H(F1 (Z))
für Z ∈ F1−1 (F2 (W20 )),
wo W20 eine passende Umgebung von F2−1 (X) ist. Da F1 und H differenzierbar
sind, ist F2−1 ◦F1 differenzierbar. Analog ist F1−1 ◦F2 = (F2−1 ◦F1 )−1 differenzierbar
(im Definitionsbereich). Daraus folgt, daß das Differential von F2−1 ◦ F1 an der
Stelle Y bijektiv ist.
Bemerkung. Man kann Satz (8.5) als Ausgangspunkt nehmen für die Definition
einer abstrakten differenzierbaren Mannigfaltigkeit.
72
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
(8.6) Definition und Behauptung. Sei M eine k-dimensionale Mannigfaltigkeit in Rn , X ∈ M und F : W → Rn ein Koordinatensystem um X. Dann ist der
k-dimensionale Unterraum
T MX := DFF −1 (X) (Rk ) ⊂ Rn
unabhängig vom Koordinatensystem. Er heißt der Tangentialraum von M in X.
Beweis. Sei F : W → Rn ein zweites Koordinatensystem um X. Nach Satz (8.5)
ist (Differentiale jeweils an der richtigen Stelle zu nehmen)
D(F −1 ◦ F ) : Rk → Rk
bijektiv; wegen F ◦ (F −1 ◦ F ) = F (auf dem Definitionsbereich) ist also
DF (Rk ) = DF ◦ D(F −1 ◦ F )(Rk ) = DF (Rk ).
Wir verallgemeinern jetzt den Begriff der Differentialform.
(8.7) Definition. Sei M eine Mannigfaltigkeit in Rn , sei p ∈ N0 . Eine Differentialform vom Grad p (kurz: p-Form) auf M ist eine Abbildung, die jedem X ∈ M
ein Element von Ωp (T MX ) zuordnet.
Sei M ⊂ A, A ⊂ Rn offen, und ω eine p-Form auf A. Zu jedem X ∈ M ist
ωX ∈ Ωp (Rn ), also
n
ωX : R
. . × Rn} → R
| × .{z
p-mal
eine alternierende multilineare Abbildung. Diese Abbildung können wir einschränken auf T MX × . . . × T MX . Somit induziert jede p-Form auf A auch eine
p-Form auf M .
Sei nun ω eine p-Form auf der k-dimensionalen Mannigfaltigkeit M , sei X ∈ M
und F : W → Rn ein Koordinatensystem um X, sei Z ∈ W der Punkt mit
F (Z) = X. Das Differential DFZ bildet Rk auf T MX ab; daher ist die Abbildung
(DFZ )∗ : Ωp (T MX ) → Ωp (Rk )
erklärt. Wir können also wie in Definition (6.4) eine p-Form F ∗ ω auf W definieren
durch
(F ∗ ω)Z := (DFZ )∗ ωX .
F ∗ ω ist natürlich nur auf W definiert. Sei nun F : W → Rn ein weiteres Koordinatensystem um X, sei F (Z) = X. Nach (8.5) ist die Abbildung
G := F −1 ◦ F
73
in einer Umgebung von Z ein Diffeomorphismus. Es ist F = F ◦ G und daher
∗
(F ω)Z = (DF Z )∗ ωX
= [DFZ ◦ DGZ ]∗ ωX
= DG∗Z ((DFZ )∗ ωX )
= (DGZ )∗ (F ∗ ω)Z ,
also
∗
F ω = G∗ (F ∗ ω)
im gemeinsamen Definitionsbereich. Hieraus folgt insbesondere, daß mit F ∗ ω auch
∗
F ω differenzierbar ist. Wir definieren daher:
(8.8) Definition. Die p-Form ω auf der Mannigfaltigkeit M heißt differenzierbar, wenn für jedes Koordinatensystem F der Mannigfaltigkeit die Form F ∗ ω
differenzierbar ist.
(8.9) Satz und Definition. Sei M eine k-dimensionale Mannigfaltigkeit in
Rn und ω eine differenzierbare p-Form auf M . Es gibt eine eindeutig bestimmte
(p + 1)-Form dω auf M , genannt das äußere Differential von ω, mit
F ∗ (dω) = d(F ∗ ω)
für jedes Koordinatensystem F der Mannigfaltigkeit M .
Beweis. Sei F : W → Rn ein Koordinatensystem um den Punkt X ∈ M , sei
X = F (Z). Zu irgend p + 1 Vektoren Y1 , . . . , Yp+1 ∈ T MX gibt es eindeutig
bestimmte Vektoren V1 , . . . , Vp+1 ∈ Rk mit
DFZ (Vi ) = Yi ,
i = 1, . . . , p + 1.
Angenommen, die Existenz von dω sei bereits gezeigt. Dann folgt
(dω)X (Y1 , . . . , Yp+1 )
= (dω)X (DFZ (V1 ), . . . , DFZ (Vp+1 ))
= (DFZ )∗ (dω)X (V1 , . . . , Vp+1 )
= F ∗ (dω)Z (V1 , . . . , Vp+1 )
= d(F ∗ ω)Z (V1 , . . . , Vp+1 ).
Damit ist gezeigt, daß dω eindeutig bestimmt ist. Umgekehrt definieren wir nun
(dω)X (Y1 , . . . , Yp+1 ) := d(F ∗ ω)Z (V1 , . . . , Vp+1 ).
74
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
Man rechnet nach (Übungsaufgabe), daß der so definierte (p + 1)-Kovektor (dω)X
nicht von der Wahl des Koordinatensystems F abhängt. Es wird also auf diese
Weise eine (p + 1)-Form auf M definiert, die das Gewünschte leistet.
Orientierung
Die Formulierung des Satzes von Stokes für Mannigfaltigkeiten erfordert den Begriff der Orientierung.
Sei zunächst V ein n-dimensionaler reeller Vektorraum. Seien (e1 , . . . , en ) und
(e1 , . . . , en ) zwei geordnete Basen. Dann gibt es einen eindeutig bestimmten Endomorphismus L : V → V mit L(ei ) = ei (i = 1, . . . , n). Sei ∆ die Determinante
dieses Endomorphismus. Man nennt (e1 , . . . , en ) und (e1 , . . . , en ) äquivalent, wenn
∆ > 0 ist (daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu sehen).
Die Äquivalenzklasse der Basis (e1 , . . . , en ) sei mit
[e1 , . . . , en ]
bezeichnet. Trivialerweise gibt es genau zwei Äquivalenzklassen. Die Äquivalenzklasse, die von [e1 , . . . , en ] verschieden ist, sei mit −[e1 , . . . , en ] bezeichnet. Eine
Orientierung auf V ist eine Äquivalenzklasse von geordneten Basen.
(8.10) Definition. Sei M eine k-dimensionale Mannigfaltigkeit in Rn . Eine Orientierung auf M ist eine Abbildung o, die jedem Punkt X ∈ M eine Orientierung
oX des Tangentialraumes T MX zuordnet, so daß folgendes gilt: Für jedes Koordinatensystem F : W → Rn mit zusammenhängendem W gilt
entweder
[DFZ (E1 ), . . . , DFZ (Ek )] = oF (Z)
für alle Z ∈ W
oder
[DFZ (E1 ), . . . , DFZ (Ek )] = −oF (Z)
für alle Z ∈ W.
Im ersten Fall heißt F orientierungstreu, im zweiten Fall orientierungsumkehrend.
Ist o eine Orientierung auf M , so heißt das Paar (M, o) orientierte Mannigfaltigkeit.
Das bekannte Möbiusband, realisiert als zweidimensionale Mannigfaltigkeit im
R3 , ist ein Beispiel für eine Mannigfaltigkeit, auf der keine Orientierung existiert.
Für orientierungstreue Koordinatensysteme läßt sich die Verträglichkeitsbe”
dingung“ (8.5) verschärfen:
(8.11) Satz. Sei (M, o) eine k-dimensionale orientierte Mannigfaltigkeit im Rn ,
seien F, F zwei orientierungstreue Koordinatensysteme um X, sei F (Z) = X =
F (Z). Dann ist
−1
det D(F ◦ F )Z > 0.
75
Beweis. Nach Voraussetzung gilt
[DFZ (E1 ), . . . , DFZ (Ek )] = oX = [DF Z (E1 ), . . . , DF Z (Ek )].
Da zwei äquivalente Basen bei Ausübung eines Automorphismus äquivalent bleiben, folgt
[D(F
−1
◦ F )Z (E1 ), . . . , D(F
−1
◦ F )Z (Ek )] = [E1 , . . . , Ek ],
woraus die Behauptung folgt.
Nach Satz (8.2) ist der Rand ∂M einer k-dimensionalen Mannigfaltigkeit M eine
(k − 1)-dimensionale Mannigfaltigkeit. Jede Orientierung auf M induziert eine
Orientierung auf ∂M :
(8.12) Satz und Definition. Sei (M, o) eine k-dimensionale orientierte Mannigfaltigkeit im Rn . Dann gibt es eine (eindeutig bestimmte) Orientierung o0 auf
∂M mit folgender Eigenschaft:
Für X ∈ ∂M , jedes Koordinatensystem F : W → Rn von M um X und für alle
Vektoren Y1 , . . . , Yk−1 ∈ T ∂MX mit
[DFZ (−E1 ), Y1 , . . . , Yk−1 ] = oX
für Z = F −1 (X) gilt
[Y1 , . . . , Yk−1 ] = o0X .
o0 heißt die von o induzierte Orientierung.
Beweis. Sei X ∈ ∂M und F ein Koordinatensystem von M um X. Sei
(Y1 , . . . , Yk−1 ) eine Basis von T ∂MX . Dann ist (DFZ (−E1 ), Y1 , . . . , Yk−1 ) eine
Basis von T MX . Wir können (evt. nach Ersetzung von Y1 durch −Y1 ) annehmen,
daß
[DFZ (−E1 ), Y1 , . . . , Yk−1 ] = oX
ist. Wir definieren dann eine Orientierung o0x des Tangentialraumes T ∂MX durch
o0X := [Y1 , . . . , Yk−1 ].
Es ist leicht zu sehen, daß die rechte Seite nicht von der Wahl der Vektoren
Y1 , . . . , Yk−1 abhängt.
Nun bildet das Differential DFZ den Unterraum {U ∈ Rk : u1 = 0} auf den Tangentialraum T ∂MX ab. Daher können wir für Y1 , . . . , Yk−1 speziell die Vektoren
DFZ (E2 ), . . . , DFZ (Ek ) wählen. Es gilt also (mit (F ) = 1 oder −1)
o0X = (F )[DFZ (E2 ), . . . , DFZ (Ek )],
76
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
wenn
oX = (F )[DFZ (−E1 ), DFZ (E2 ), . . . , DFZ (Ek )]
ist. Hieraus und aus (8.11) läßt sich folgern, daß die Definition von o0X nicht
von der Wahl des Koordinatensystems F abhängt. Ist W 0 := F −1 (∂M ) zusammenhängend, so ist (F ) konstant auf W 0 , da o eine Orientierung auf M ist. Es
folgt, daß auch o0 eine Orientierung auf ∂M ist.
Ist (M, o) eine orientierte Mannigfaltigkeit, so ist es üblich, auch einfach M als
orientierte Mannigfaltigkeit zu bezeichnen.
Zerlegung der Eins
In der Theorie der differenzierbaren Mannigfaltigkeiten befindet man sich oft
in einer Situation, die man ganz vage etwa folgendermaßen beschreiben kann:
Man kann ein Objekt lokal (meist im Bild eines Koordinatensystems) definieren
und will dann die lokal definierten Objekte glatt zusammensetzen“ zu einem
”
global (d.h. auf der ganzen Mannigfaltigkeit) definierten Objekt. Ein typisches
Beispiel hierfür ist die Erklärung des Integrals einer Differentialform auf einer
Mannigfaltigkeit, die in §9 gegeben wird. Man bedient sich hierzu eines hübschen
Kunstgriffs, der sogenannten Zerlegung der Eins“. Wir stellen in Satz (8.15) den
”
Spezialfall dieses Hilfsmittels bereit, der in §9 benötigt wird.
(8.13) Hilfssatz. Sei U ⊂ Rn offen und C ⊂ U eine kompakte Teilmenge. Dann
gibt es eine kompakte Teilmenge D ⊂ U mit C ⊂ Do (Inneres von D).
Beweis. Zu jedem X ∈ C existiert wegen der Offenheit von U ein aX > 0, so daß
der abgeschlossene Würfel
W (X, aX ) := {Y ∈ Rn : kY − Xkmax ≤ aX }
in U enthalten ist. Das System {W o (X, aX ) : X ∈ C} ist eine offene Überdeckung
von C, enthält also wegen der Kompaktheit von C eine endliche Teilüberdeckung
{W o (Xi , aXi ) : i = 1, . . . , m}. Die Menge
D :=
m
[
W (Xi , aXi )
i=1
leistet das Gewünschte.
(8.14) Hilfssatz. Sei U ⊂ Rn offen und C ⊂ U eine kompakte Teilmenge.
Dann gibt es eine kompakte Teilmenge D ⊂ U und eine differenzierbare Funktion
ϕ : Rn → [0, 1] mit
(
1 für X ∈ C,
ϕ(X) =
0 für X ∈ Rn \ D.
77
Beweis. Zunächst sei f : R → R definiert durch
(
−2
−2
für x ∈ (−1, 1),
e−(x−1) e−(x+1)
f (x) :=
0
für x ∈ Rn \ (−1, 1).
Dann ist f (x) > 0 für x ∈ (−1, 1) und f (x) = 0 sonst. Man rechnet (unter
Verwendung der Regel von de l’Hospital) leicht nach, daß f (beliebig oft) differenzierbar ist.
Für Z ∈ Rn und a > 0 sei jetzt g : Rn → R definiert durch
x1 − z1
xn − zn
···f
.
g(X) := f
a
a
Dann ist g differenzierbar, und es gilt g(X) > 0 für X ∈ W o (Z, a) und g(X) = 0
für X ∈ Rn \ W o (Z, a).
Nun seien das System {W (Xi , aXi ) : i = 1, . . . , m} und die Menge D wie im
Beweis von Hilfssatz (8.13) erklärt. Zu i ∈ {1, . . . , m} sei gi die Funktion, die zu
Xi , aXi so erklärt ist wie oben g zu Z, a. Definiere ψ : Rn → R durch
ψ(X) :=
m
X
gi (X).
i=1
Dann ist ψ differenzierbar. Zu X ∈ C existiert ein j ∈ {1, . . . , m} mit X ∈
W o (Xj , aXj ), also mit ψ(X) ≥ gj (X) > 0. Für X ∈ Rn \ D gilt X ∈
/ W (Xi , aXi ),
also gi (X) = 0, für i = 1, . . . , m und daher ψ(X) = 0.
Da ψ auf der kompakten Menge C ein Minimum annimmt und dieses positiv sein
muß, gibt es ein > 0 mit ψ(X) ≥ für X ∈ C.
Es gibt eine differenzierbare Funktion f : R → R mit f (x) > 0 für x ∈ (0, ) und
f (X) = 0 sonst. Setze
Zx Z
h(x) := f
f
0
für x ∈ R.
0
Dann ist h : R → [0, 1] differenzierbar, und es gilt h(x) = 0 für x ≤ 0 und
h(x) = 1 für x ≥ .
Nun setze ϕ := h ◦ ψ. Dann ist ϕ : Rn → [0, 1] differenzierbar, und es gilt
ϕ(X) = 1 für X ∈ C und ϕ(X) = 0 für X ∈ Rn \ D.
(8.15) Satz. Sei M ⊂ Rn kompakt und {U1 , . . . , Um } eine offene Überdeckung
von M . Dann gibt es differenzierbare reelle Funktionen ϕ1 , . . . , ϕm auf Rn mit
folgenden Eigenschaften:
78
8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN
(a) 0 ≤ ϕi ≤ 1 (i = 1, . . . , m),
P
(b) m
für alle X ∈ M ,
i=1 ϕi (X) = 1
(c) Es gibt eine kompakte Menge Ai ⊂ Ui mit ϕi (X) = 0 für X ∈ Rn \ Ai
(i = 1, . . . , m).
Beweis. Wir zeigen zuerst: Für k ∈ {0, . . . , m} gibt es kompakte Mengen Di ⊂ Ui
(i = 1, . . . , k) mit
M ⊂ D1o ∪ . . . ∪ Dko ∪ Uk+1 ∪ . . . ∪ Um.
Beweis durch Induktion: Für k = 0 lautet die Behauptung M ⊂ U1 ∪ . . . ∪ Um ,
sie ist nach Voraussetzung erfüllt. Sei die Existenz von D1 , . . . , Dk schon gezeigt.
Setze
Ck+1 := M \ (D1o ∪ . . . ∪ Dko ∪ Uk+2 ∪ . . . ∪ Um ).
Dann ist Ck+1 eine kompakte Teilmenge von Uk+1 . Nach Hilfssatz (8.13) gibt es
o
. Es gilt also
eine kompakte Teilmenge Dk+1 ⊂ Uk+1 mit Ck+1 ⊂ Dk+1
o
M ⊂ D1o ∪ . . . ∪ Dk+1
∪ Uk+1 ∪ . . . ∪ Um ,
womit der Induktionsbeweis beendet ist.
Insbesondere gilt jetzt
o
M ⊂ D1o ∪ . . . ∪ Dm
=: U.
Sei i ∈ {1, . . . , m}. Nach Hilfssatz (8.14) gibt es eine kompakte Teilmenge Ai ⊂ Ui
und eine differenzierbare Funktion ψi : Rn → [0, 1] mit ψi (X) = 1 für X ∈ Di
und ψi (X) = 0 für X ∈ Rn \ Ai .
Zu X ∈ U gibt es ein j ∈ {1, . . . , m} mit X ∈ Djo , also ψj (X) > 0, folglich ist
ψ1 (X) + . . . + ψm (X) > 0. Nach (8.14) gibt es eine abgeschlossene Teilmenge
A ⊂ U und eine differenzierbare Funktion f : Rn → [0, 1] mit f (X) = 1 für
X ∈ M und f (X) = 0 für X ∈ Rn \ A. Setze
ϕi (X) :=


f (X)
 0
ψi (X)
ψ1 (X) + . . . + ψm (X)
für X ∈ U,
für X ∈ Rn \ U.
Die Funktionen ϕ1 , . . . , ϕm leisten offenbar das Gewünschte.
Das in Satz (8.15) konstruierte Funktionensystem {ϕ1 , . . . , ϕm } nennt man eine
der Überdeckung {U1 , . . . , Um } untergeordnete Zerlegung der Eins.
79
9
Der Satz von Stokes auf Mannigfaltigkeiten
In diesem Abschnitt ist M eine gegebene k-dimensionale orientierte Mannigfaltigkeit im Rn . Alle auftretenden Differentialformen werden (mindestens) als stetig
vorausgesetzt.
(9.1) Definition. Für eine p-Form ω auf M und einen singulären p-Würfel c in
M ist
Z
Z
ω :=
c∗ ω.
[0,1]p
c
(9.2) Definition. Sei c : [0, 1]k → M ein singulärer k-Würfel in M . c heißt
orientierungstreu, wenn es ein orientierungstreues Koordinatensystem F : W →
Rn von M gibt mit c = F |[0, 1]k .
(9.3) Hilfssatz. Seien c1 , c2 : [0, 1]k → M orientierungstreue singuläre k-Würfel
in M . Sei ω eine k-Form auf M mit ωX = 0 für X ∈
/ c1 ([0, 1]k ) ∩ c2 ([0, 1]k ) =: B.
Dann ist
Z
Z
ω = ω.
c1
c2
−1
Beweis. Setze c∗2 ω =: f dx1 ∧ . . . ∧ dxk und c−1
2 ◦ c1 =: G (definiert auf c1 (B)).
Dann ist
∗
∗ ∗
∗
1
k
c∗1 ω = [c2 ◦ (c−1
2 ◦ c1 )] ω = G c2 ω = G (f dx ∧ . . . ∧ dx )
= (f ◦ G)(det JG)dx1 ∧ . . . ∧ dxk
nach (6.6)
= (f ◦ G)| det JG|dx1 ∧ . . . ∧ dxk ,
denn nach (8.11) ist
det JG = det D(c−1
2 ◦ c1 ) > 0.
Nach dem Transformationssatz für Gebietsintegrale (angewandt auf das Innere
von c−1
1 (B)) folgt
Z
Z
Z
Z
∗
c2 ω =
f=
(f ◦ G)| det JG| =
c∗1 ω,
c−1
2 (B)
c−1
2 (B)
c−1
1 (B)
c−1
1 (B)
also (da ω außerhalb B verschwindet)
Z
Z
Z
Z
∗
∗
ω=
c1 ω =
c1 ω =
c1
[0,1]k
c−1
1 (B)
c−1
2 (B)
c∗2 ω
Z
=
[0,1]k
c∗2 ω
Z
=
ω.
c2
80
9 DER SATZ VON STOKES AUF MANNIGFALTIGKEITEN
Jetzt kann man definieren:
(9.4) Definition. Sei c ein orientierungstreuer singulärer k-Würfel in M und ω
eine k-Form auf M mit ωX = 0 für X ∈
/ c([0, 1]k ). Dann sei
Z
Z
ω := ω.
c
M
Satz (9.3) zeigt gerade, daß diese Definition sinnvoll ist, d.h. daß
c abhängt.
R
M
ω nicht von
Bemerkung. Der singuläre k-Würfel c in M heißt orientierungsumkehrend, wenn
es ein orientierungsumkehrendes Koordinatensystem F : W → Rn gibt mit c =
F |[0, 1]k . Ist dies der Fall und ist ω eine k-Form auf M , die außerhalb c([0, 1]k )
verschwindet, so ist
Z
Z
ω=−
c
ω.
M
Zum Beweis sei
F̃ (x1 , . . . , xk ) := F (x1 , . . . , xk−1 , 1 − xk )
und c̃ := F̃ |[0, 1]k
gesetzt. Dann ist F̃ und damit c̃ orientierungstreu, also
Z
Z
ω = ω,
c̃
M
und wie im Beweis von (9.3) folgt
R
c̃
ω=−
R
c
ω.
(9.5) Definition. Sei c ein singulärer k-Würfel in M . c heiße normal, wenn c
orientierungstreu ist und wenn
c([0, 1]k ) ∩ ∂M = ∅ oder
k
= c ◦ I1,0
([0, 1]k−1 )
k
siehe (7.6)).
ist. (Zur Definition von I1,0
(9.6) Hilfssatz. Sei M kompakt. Dann gibt es eine offene Überdeckung
{U1 , . . . , Um } von M derart, daß zu jedem i ∈ {1, . . . , m} ein normaler k-Würfel
ci existiert mit
Ui ∩ M ⊂ ci ([0, 1]k ).
81
Beweis. Zu X ∈ M existiert nach (8.3) ein Koordinatensystem F : W → Rn um
X. O.B.d.A. kann angenommen werden, daß F orientierungstreu ist, ferner daß
[0, 1]k ⊂ W und
(
falls X ∈
/ ∂M,
F ( 21 , . . . , 12 ),
X=
F (0, 21 , . . . , 12 ), falls X ∈ ∂M
ist. Die Einschränkung c := F |[0, 1]k ist dann ein normaler k-Würfel. Da F −1
stetig ist, gibt es eine offene Umgebung UX von X mit F −1 (UX ∩M ) ⊂ [0, 1]k , also
mit UX ∩ M ⊂ c([0, 1]k ). Das System {UX : X ∈ M } ist eine offene Überdeckung
von M , enthält also wegen der Kompaktheit von M eine endliche Teilüberdeckung
von M . Hieraus folgt die Behauptung.
(9.7) Definition und Behauptung. Sei M kompakt und ω eine k-Form auf M .
Sei {U1 , . . . , Um } eine Überdeckung von M wie in (9.6) und hierzu {ϕ1 , . . . , ϕm }
eine der Überdeckung untergeordnete Zerlegung der Eins gemäß Satz (8.15). Dann
definiert man
Z
m Z
X
ω :=
ϕi ω.
i=1 M
M
Die rechte Seite hängt nicht von der Wahl der Überdeckung und der Zerlegung
der Eins ab.
R
Beweis. Zunächst ist klar, daß M ϕi ω definiert ist: Zu Ui existiert nach (9.6) ein
normaler k-Würfel ci mit Ui ∩ M ⊂ ci ([0, 1]k ). Die Funktion ϕi und damit die
Form ϕi ω verschwindet außerhalb Ui , also erst recht außerhalb ci ([0, 1]k ). Man
kann also Definition (9.4) verwenden.
Ist {ψ1 , . . . , ψr } eine andere Zerlegung der Eins mit den entsprechenden Eigenschaften, so ist
XZ
XXZ
XXZ
XZ
ϕi ω =
ϕi ψj ω =
ϕi ψj ω =
ψj ω.
i
M
i
j
j
M
i
M
j
M
(9.8) Satz von Stokes. Sei (M, o) eine kompakte orientierte k-dimensionale
Mannigfaltigkeit und ω eine (k − 1)-Form der Klasse C 1 auf M . Der Rand ∂M
sei mit der induzierten Orientierung o0 versehen. Dann gilt
Z
Z
dω =
ω.
M
∂M
82
9 DER SATZ VON STOKES AUF MANNIGFALTIGKEITEN
Beweis. Zunächst sei c ein normaler k-Würfel in M , und ω verschwinde außerhalb
von c([0, 1]k ). Dann gilt
R
R
dω = dω
nach Def. (9.4)
c
M
R
=
c∗ dω
nach Def. (9.1)
dc∗ ω
nach Satz (6.8)
[0,1]k
R
=
[0,1]k
=
R
dc∗ ω
nach Def. (7.3)
Ik
=
c∗ ω
R
nach (7.7) (Satz von Stokes für Ketten)
∂I k
=
R
ω
wie im Beweis von (7.7) gezeigt.
∂c
1. Fall: c([0, 1]k ) ∩ ∂M = ∅.
k
([0, 1]k−1 ) (i = 1, . . . , k, α = 0, 1), denn jeder
Dann gilt ωX = 0 für X ∈ c ◦ Ii,α
solche Punkt X ist Häufungspunkt von Punkten Y ∈ M mit ωY = 0. Also gilt
Z
Z
ω=0=
ω wegen ωX = 0 für X ∈ ∂M.
∂c
∂M
k
([0, 1]k−1 ).
2. Fall: c([0, 1]k ) ∩ ∂M = c ◦ I1,0
Dann gilt
Z
ω=
∂c
k
X
i=1


i
Z
Z
ω−

(−1) 
k
c◦Ii,0
k
c◦Ii,1
Z

ω = −
ω.
k
c◦I1,0
Daß die übrigen Integrale verschwinden, folgt dabei wie im ersten Fall. Da c ein
normaler k-Würfel ist, gibt es ein orientierungstreues Koordinatensystem F :
W → Rn mit c = F |[0, 1]k . Da Fall 2 vorliegt, ist dabei W eine relativ offene
Teilmenge von H k . Definiere
W 0 := {(x1 , . . . , xk−1 ) ∈ Rk−1 : (0, x1 , . . . , xk−1 ) ∈ W }
und F 0 (x1 , . . . , xk−1 ) := F (0, x1 , . . . , xk−1 ) für (x1 , . . . , xk−1 ) ∈ W 0 . Dann ist F 0
k
ein Koordinatensystem der Mannigfaltigkeit ∂M mit F 0 |[0, 1]k−1 = c ◦ I1,0
.
83
Für Z ∈ W mit z1 = 0 gilt
[DFZ (E1 ), . . . , DFZ (Ek )] = oF (Z) ,
da F orientierungstreu ist. Nach Definition (8.12) gilt daher für die induzierte
Orientierung o0 von M
o0F (Z) = −[DFZ (E2 ), . . . , DFZ (Ek )].
Hieraus folgt, daß F 0 orientierungsumkehrend ist. Aus der Bemerkung nach (9.4)
folgt jetzt
Z
Z
−
ω=
ω.
k
c◦I1,0
In beiden Fällen ist also
∂M
Z
Z
dω =
M
ω.
∂M
Nun sei ω eine beliebige (k − 1)-Form der Klasse C 1 auf M . Wähle eine offene
Überdeckung {U1 , . . . , Um } von M und zugehörige normale k-Würfel c1 , . . . , cm
gemäß Hilfssatz (9.6). Zu {U1 , . . . , Um } sei {ϕ1 , . . . , ϕm } eine Zerlegung der Eins
gemäß (8.15).
Für jedes i ∈ {1, . . . , m} verschwindet die Form ϕi ω außerhalb ci . Nach dem
bereits Gezeigten gilt also
Z
Z
d(ϕi ω) =
ϕi ω.
M
Wegen
m
X
Pm
i=1
ϕi = 1 auf M ist
d(ϕi ω) =
i=1
∂M
m
X
(dϕi ∧ ω + ϕi dω) = d
i=1
m
X
!
ϕi
∧ω+
m
X
i=1
ϕi dω =
i=1
m
X
i=1
und daher
Z
dω =
M
m Z
X
i=1 M
ϕi dω =
m Z
X
i=1 M
d(ϕi ω) =
m Z
X
i=1
∂M
Z
ϕi ω =
ω.
∂M
ϕi dω
84
10 EINLEITUNG
Teil 2: Allgemeine Maß- und Integrationstheorie
Maß- und Integrationstheorie ist ein zentrales Gebiet der Analysis mit vielfältigen Anwendungen auch in anderen Gebieten. Zum Beispiel erweist sie sich als
unentbehrliches Hilfsmittel der Wahrscheinlichkeitstheorie. Im zweiten Teil dieser Vorlesung soll eine Einführung in die abstrakte Maß- und Integrationstheorie
gegeben werden. In Analysis II haben wir das Lebesguesche Integral auf dem
Rn behandelt und anschließend daraus das Lebesguesche Maß hergeleitet. Hier
werden wir umgekehrt vorgehen, das heißt zuerst Maßtheorie betreiben und auf
dieser Grundlage dann Integration behandeln. Ein wesentlicherer Unterschied
besteht darin, daß wir abstrakt vorgehen, also keine spezielle Struktur wie den
euklidischen Raum zugrunde legen. In dieser Allgemeinheit wird die Maß- und
Integrationstheorie in den Anwendungen benötigt.
10
Einleitung
Zur Einleitung soll etwas zur anschaulichen Vorgeschichte der Maßtheorie gesagt
werden, insbesondere zur Inhaltsmessung in euklidischen Räumen. Unter dem
n-dimensionalen euklidischen Raum verstehen wir dabei den reellen Vektorraum
Rn , versehen mit dem Standard-Skalarprodukt und der davon induzierten Metrik.
Aus der alltäglichen Erfahrung gewinnt man die Überzeugung, daß beschränkte
räumliche Gebiete einen wohldefinierten Rauminhalt (Volumen) haben, ebenso
beschränkte ebene Gebiete einen Flächeninhalt. In den Anfängen der Mathematik war dabei die Existenz des Flächeninhaltes, zum Beispiel eines Kreises, gar
kein als solches empfundenes Problem, lediglich die explizite oder angenäherte
Berechnung war Gegenstand der Erörterung. Heute sind wir uns natürlich klar
darüber, daß Mathematik nicht direkte Aussagen über die Realität machen kann,
sondern nur Schlußfolgerungen innerhalb eines mathematischen Modells für gewisse Aspekte der Realität ziehen kann. Dann müssen aber auch Begriffe, die
intuitiv vorgegeben sind und deren Existenz man für evident halten möchte, innerhalb des gewählten mathematischen Modells definiert werden. Insbesondere
müssen wir innerhalb des üblichen elementaren Modells für den Anschauungsraum, nämlich des euklidischen Raumes R3 oder der Ebene R2 , die Begriffe
Volumen und Flächeninhalt erklären. Die dabei auftretende Problematik wollen wir nun erläutern. Betrachten wir zunächst den Fall der Ebene. Für gewisse
beschränkte Teilmengen der Ebene soll ein Flächeninhalt erklärt werden. Wir
müssen uns zunächst klar machen, welche Eigenschaften wir von einem mathematischen Flächeninhaltsbegriff erwarten. Nun verbindet man mit dem intuitiven Begriff des Flächeninhaltes natürlich gewisse Vorstellungen. Zunächst soll
sich der Flächeninhalt bei Bewegungen nicht ändern; kongruente Gebiete sollen
also denselben Flächeninhalt haben. Wenn wir eine ebene Figur zerschneiden,
85
soll sich der Flächeninhalt additiv aus den Flächeninhalten der Einzelteile zusammensetzen. Wenn also der Flächeninhalt F für zwei disjunkte Mengen A, B
erklärt ist, so werden wir den Flächeninhalt von A ∪ B erklären wollen durch
F (A ∪ B) = F (A) + F (B). Dies kann man natürlich sofort auf endliche Vereinigungen ausdehnen. Wir sagen hierfür auch, der Flächeninhalt sei additiv. Für die
weitere Diskussion wollen wir (nur für die Zwecke dieser Einleitung) unter einem
Inhaltssystem (in R2 ) ein Paar (S, F ) verstehen mit folgenden Eigenschaften: S
ist ein System beschränkter Teilmengen der Ebene, mit A, B ∈ S gilt A ∪ B ∈ S;
ferner ist F : S → R+ eine Funktion mit F (A ∪ B) = F (A) + F (B) für A, B ∈ S
mit A ∩ B = ∅. Ist A ∈ S und β eine Bewegung der Ebene, so soll βA ∈ S
und F (βA) = F (A) gelten. Außerdem soll S das Einheitsquadrat W enthalten
und F (W ) = 1 gelten. Völlig analog erklärt man natürlich Inhaltssysteme im
n-dimensionalen euklidischen Raum.
Nun sind natürlich möglichst große Inhaltssysteme gesucht, da man möglichst
vielen Mengen einen Inhalt zuordnen möchte. Kann man vielleicht sogar erreichen, daß S alle beschränkten Teilmengen des Raumes enthält (oder sogar alle
Teilmengen, wenn man für die Inhaltsfunktion F auch den Wert ∞ zuläßt)? Das
ist zumindest für den R3 nicht der Fall, wie der folgende merkwürdige Satz zeigt:
Satz (Banach-Tarski 1924, Sierpinski, R.M. Robinson). Es seien K und K 0 zwei
disjunkte Kugeln mit gleichem Radius im R3 . Dann gibt es eine Zerlegung von K
in 5 paarweise disjunkte Teilmengen,
K=
s
[
Ai ,
Ai ∩ Aj = ∅
für i 6= j,
i=1
und Bewegungen β1 , . . . , β5 des R3 mit
5
[
βi Ai = K ∪ K 0 .
i=1
Es kann also auf keine Weise möglich sein, den hierbei auftretenden Teilmengen
Ai ein bewegungsinvariantes Volumen zuzusprechen. Wir sehen hieran (und auch
an anderen ähnlichen Aussagen), daß man nicht hoffen kann, Flächeninhalt und
Volumen für alle beschränkten Teilmengen sinnvoll zu definieren.
Es ergibt sich also die Frage, welchen Mengen man sinnvollerweise einen Flächeninhalt bzw. ein Volumen zuordnen kann und wie man das bewerkstelligen kann.
Betrachten wir kurz eine elementare Möglichkeit. Schon die alten Griechen hatten zur Flächeninhaltsbestimmung (Berechnung, nicht Definition) von gewissen
krummlinig berandeteten Figuren ein Ausschöpfungsverfahren“ entwickelt, das
”
vor allem mit den Namen Eudoxos (5. Jhd. v. Chr.) und Archimedes (3. Jhd. v.
86
10 EINLEITUNG
Chr.) verknüpft ist. Wir wollen den Grundgedanken gleich in etwas modernerer
Fassung präzisieren und für unsere Zwecke nutzbar machen.
Für ein Rechteck R in der Ebene erklären wir den Flächeninhalt F (R) als das
Produkt der Kantenlängen. Wir sagen, eine Punktmenge A ⊂ R2 sei eine Elementarfigur, wenn es achsenparallele Rechtecke R1 , . . . , Rk gibt mit A = R1 ∪ . . . ∪ Rk
und (Ri ∩Rj )o = ∅ (i 6= j). Dürfen wir dann F (A) := F (R1 )+. . .+F (Rk ) setzen?
Die Darstellung von A als disjunkte Vereinigung von Rechtecken ist ja nicht eindeutig. Man kann
P aber leicht zeigen (und wir werden es später allgemeiner tun),
daß die Summe
F (Ri ) nicht von der speziellen Darstellung abhängt. Damit ist
F für alle Elementarfiguren erklärt.
Definition. Sei A ⊂ R2 eine beschränkte Teilmenge. A heißt Jordan-meßbar,
wenn zu jedem ∈ R+ Elementarfiguren B, C existieren mit
B⊂A⊂C
und F (C) − F (B) < .
Ist A Jordan-meßbar, so ist
sup{F (B) : B ⊂ A, B Elementarfigur}
= inf{F (C) : C ⊃ A, C Elementarfigur},
und diese Zahl nennt man den Peano-Jordan-Inhalt von A.
Wir wollen den Peano-Jordan-Inhalt von A ebenfalls mit F (A) bezeichnen. Ist
nun S das System aller Jordan-meßbaren Teilmengen von R2 und F der so fortgesetzte Inhalt, so kann man zeigen, daß (S, F ) in der Tat ein Inhaltssystem ist.
Völlig analog kann man im Rn vorgehen.
Mit dem so erreichten Inhaltssystem könnte man nun eigentlich zufrieden sein,
denn die im täglichen Leben“ vorkommenden Figuren oder Raumteile werden
”
sicher alle Peano-Jordan-meßbar sein. Es gibt aber gewichtige mathematische
Gründe, hiermit nicht zufrieden zu sein. Ein erster ist der folgende. Betrachten
wir etwa die Punktmenge
M = {(x, y) ∈ R2 : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x, y ∈ Q}.
Sie ist offenbar nicht Jordan-meßbar. Andererseits ist sie abzählbar, also nur eine
kleine“ Teilmenge des Einheitsquadrates W , so daß also W \ M eigentlich noch
”
den Inhalt 1 haben sollte. Hier zeigt sich ein entscheidender Mangel
Skdes PeanoJordanschen Inhaltssystems (S, F ). Mit A1 , . . . , Ak ∈ S gilt zwar i=1 Ai ∈ S,
aber dies läßt sich nicht auf abzählbar unendlich viele Mengen ausdehnen, wie
das Beispiel M zeigt. An vielen und wesentlichen Stellen der Mathematik hat sich
gezeigt, daß man mit einem Inhaltssystem (S, F ) nur dann gut arbeiten kann,
wenn sogar die folgende Bedingung erfüllt ist:
[
Ai ∈ S (i ∈ N) ⇒
Ai ∈ S,
i∈N
87
!
Ai ∈ S (i ∈ N), Ai ∩ Aj = ∅ (i 6= j) ⇒ F
[
i∈N
Ai
=
X
F (Ai ).
(6)
i∈N
Wir wollen dann (wieder nur für die Zwecke der Einleitung) (S, F ) ein Maßsystem
nennen. Die Frage ist nun, ob man das Peano-Jordansche Inhaltssystem weiter
fortsetzen kann zu einem Maßsystem. Das ist in der Tat der Fall; das Lebesguesche Maß, definiert auf dem System der Lebesgue-meßbaren Mengen, leistet das
Gewünschte, wie wir aus Analysis II wissen.
Die obige Eigenschaft (6) nennt man auch σ-Additivität. Diese σ-Additivität
hebt die Maßtheorie heraus aus der elementaren Inhaltstheorie. Festhalten für
die späteren Entwicklungen wollen wir die grundsätzliche Bedeutung des Fortsetzungsproblems.
Flächeninhalt und Volumen und ihre Fortsetzungen sind die anschaulichsten und
klassischen Beispiele für Maße. Aber schon die geometrische Anschauung liefert
weitere Beispiele, die den Aufbau einer allgemeineren Theorie der Maße wünschbar erscheinen lassen. Denken wir etwa an die Notwendigkeit, Oberflächen von
krumm berandeten Raumteilen zu messen. Für hinreichend glatte Flächen liefert
die mehrdimensionale Analysis bzw. Differentialgeometrie eine plausible Berechnungsvorschrift, aber die Frage, wie allgemein Teilmengen des R3 sein dürfen,
damit man ihnen in sinnvoller Weise einen zweidimensionalen Flächeninhalt zuordnen kann, bedarf zu ihrer Beantwortung einer weitentwickelten Maßtheorie.
Analog kann man natürlich fragen, welchen Punktmengen man ein vernünftiges eindimensionales Maß zuschreiben kann. Man kann aber noch weiter gehen.
Manchmal stößt man auf Punktmengen, sogenannte Fraktale, denen man nur mit
einer feineren Skala von Dimensions- und Maßbegriffen eine Größe“ zuordnen
”
kann. Betrachten wir etwa das Cantorsche Diskontinuum. Es ist eine überabzählbare Teilmenge des Intervalls [0, 1], aber insofern eine kleine Teilmenge, als sie
eindimensionales Lebesgue-Maß 0 hat. Man kann sie trotzdem noch näher ausmessen, indem man sogenannte Hausdorff-Maße der Dimension α, 0 ≤ α ≤ 1,
einführt. Es zeigt sich dann, daß das Cantorsche Diskontinuum in der Dimension
ln 2/ ln 3 ein Maß hat, das weder 0 noch ∞ ist.
Die bisher geschilderten Vorbilder für Maße waren aus der geometrischen Anschauung entlehnt. Weitere Beispiele liefert die physikalische Anschauung. Denken wir etwa an Massenverteilungen. Der Physiker kennt (bzw. denkt sich) sowohl
punktförmige als auch kontinuierliche Massenverteilungen (ohne daß wir das hier
präzisieren wollen). Auch Verteilungen elektrischer Ladungen sind hier zu nennen;
in der Physik ist man genötigt, sich auch flächenhafte oder linienhafte Ladungsverteilungen vorzustellen. Im Gegensatz zu Rauminhalten und Massen können
Ladungen auch negative Werte annehmen. Mit all diesen Verteilungen verbindet man die Vorstellung, daß zu jedem vernünftigen“ beschränkten Raumteil A
”
wohldefiniert ist, wieviel Masse oder Ladung auf ihn entfällt; dieser Anteil sei mit
m(A) bezeichnet. Ferner verbindet man die Vorstellung der Additivität damit.
88
10 EINLEITUNG
Wir stehen also wie beim Inhaltsproblem wieder vor der Frage, wie allgemein
ein Raumteil A sein darf, damit m(A) erklärt werden kann. Im Gegensatz zum
Rauminhalt müssen wir jetzt u.a. auch m({x}) 6= 0 zulassen für Punkte x ∈ R3 .
Interessanterweise wird man aber auch von ganz anderen Überlegungen ausgehend zu einer ähnlichen mathematischen Situation geführt, nämlich bei der Konstruktion eines mathematischen Modells zur Beschreibung von zufälligen Ereignissen und ihren Wahrscheinlichkeiten. Zur Erläuterung stellen wir uns einen
Versuch vor, bei dem sich verschiedene, aber im einzelnen nicht vorhersagbare
Versuchsergebnisse einstellen können (z.B. Werfen eines Würfels, zufälliges Herausgreifen von 1000 Personen aus einer Bevölkerung). Die Gesamtheit der möglichen Versuchsergebnisse denken wir uns durch eine Menge Ω repräsentiert. Wir
interessieren uns nun für Ereignisse“, von denen nach Kenntnis des Versuchs”
ergebnisses feststehen soll, ob sie eingetreten sind oder nicht (z.B.: Würfel zeigt
gerade Augenzahl; von den 1000 Personen sind mindestens 300 größer als 1,70 m).
Wir können ein solches Ereignis repräsentieren durch die Menge A ⊂ Ω aller Versuchsergebnisse, bei deren Eintreten das fragliche Ereignis eingetreten ist. Unser
mathematisches Modell besteht also bis jetzt aus einer Menge Ω (von Versuchs”
ergebnissen“) und einem System A von Teilmengen von Ω, die wir Ereignisse“
”
nennen. Daß bei Vorliegen des Versuchsergebnisses ω das Ereignis A eingetreten
ist, wird wiedergegeben durch die Relation ω ∈ A. Von einem Ereignis werden wir
immer dann sprechen wollen, wenn nach jedem Versuchsergebnis feststeht, ob das
Ereignis eingetreten ist. Mit dieser Vereinbarung können wir aber aus gegebenen
Ereignissen durch logische Operationen neue Ereignisse bilden: Sind A und B
Ereignisse, so ist auch A und B“ ein Ereignis (es tritt genau dann ein, wenn A
”
und B eintreten), ebenso ist A oder B“ ein Ereignis (es tritt genau dann ein,
”
wenn mindestens eines der Ereignisse A oder B eintritt), schließlich kann man
das komplementäre Ereignis nicht A“ erklären (es tritt genau dann ein, wenn
”
A nicht eintritt). In unserem obigen mengentheoretischen Modell müssen wir A
”
und B“ offenbar durch A ∩ B, A oder B“ durch A ∪ B und nicht A“ durch
”
”
Ac := Ω \ A wiedergeben. Wir können auch vom sicheren Ereignis“, das immer
”
eintritt, sprechen und ihm die Menge Ω selbst zuordnen, sowie vom unmöglichen Ereignis, das durch die leere Menge ∅ repräsentiert wird. In unserem Modell
fordern wir daher von der Ereignismenge A:
(1) Ω ∈ A,
(2) Ac ∈ A für alle A ∈ A,
(3) A ∪ B ∈ A für alle A, B ∈ A.
Die Forderungen A ∩ B ∈ A und ∅ ∈ A sind aus (1), (2), (3) herleitbar. Ein
System A ⊂ P(Ω) (Potenzmenge von Ω) mit diesen Eigenschaften nennt man
eine Algebra in Ω.
89
Jedem Ereignis, also jedem Element A der Algebra A, soll nun eine Wahrschein”
lichkeit“ µ(A) zugeordnet werden. Dies soll so geschehen, daß die Wahrscheinlichkeit eines Ereignisses seine relative Häufigkeit bei einer großen Zahl von Wiederholungen des Versuches annähernd wiedergibt. Hierdurch wird es nahegelegt,
unter einer Wahrscheinlichkeit eine reellwertige Funktion µ auf A zu verstehen,
die folgende Eigenschaften hat:
(1) µ(A) ≥ 0 für alle A ∈ A,
(2) µ(Ω) = 1,
(3) µ(A ∪ B) = µ(A) + µ(B) für alle A, B ∈ A mit A ∩ B = ∅.
Wir sind also zu einer ähnlichen abstrakten Situation gelangt wie früher bei den
Inhaltssystemen oder bei Massen- oder Ladungsverteilungen (abgesehen davon,
daß jetzt die Forderung µ(Ω) = 1 hinzukommt).
Bei der mathematischen Ausgestaltung des bislang entwickelten Modells zeigt
sich jedoch, daß es noch nicht genügend leistungsfähig ist. Betrachten wir zum
Beispiel eine (theoretisch unendliche) Folge von unabhängig wiederholten Würfen
mit einem fairen Würfel. Wir werden aufgrund praktischer Erfahrungen erwarten,
daß der Anteil der gewürfelten Sechsen mit fortschreitendem Würfeln sich immer
mehr dem Wert 61 nähert. In dem mathematischen Modell, das unsere unendliche
Versuchsfolge beschreiben soll, müßte dies ein beweisbarer Satz sein (bei passender Konvergenzdefinition); andernfalls wäre die Modellbildung als unzulänglich
zu verwerfen. Derartige Aussagen (sogenannte Gesetze der großen Zahlen“) las”
sen sich in der Tat beweisen, jedoch erst, wenn man die obigen Forderungen
durch die folgenden schärferen ersetzt: Für
S∞jede Folge (Ai )i∈N mit Ai ∈ A und
Ai ∩ Aj = ∅ für i 6= j (i, j ∈ N) soll auch i=1 Ai ∈ A sein und
!
∞
∞
[
X
µ
Ai =
µ(Ai )
i=1
i=1
gelten. Das ist also wieder die Forderung der σ-Additivität, und das System A
heißt jetzt eine σ-Algebra. Damit sind wir auch bei der endgültigen Erklärung eines Maßes angelangt. Man versteht hierunter eine nichtnegative, σ-additive Funktion (mit Werten in R ∪ {∞}) auf einer σ-Algebra von Teilmengen einer Menge.
11
Mengensysteme
In diesem Abschnitt müssen wir zunächst die Mengensysteme betrachten, die als
Definitionsbereiche von Maßen in Frage kommen. Zu Beginn stellen wir einige Bezeichnungen zusammen und erinnern an einige Konventionen der Mengensprechweise.
90
11 MENGENSYSTEME
Statt Menge“ benutzen wir synonym auch die Bezeichnung System“, und zwar
”
”
vorwiegend dann, wenn die Elemente selbst Mengen sind.
Im folgenden wird häufig eine feste Grundmenge“ gegeben sein, die wir dann
”
meist mit Ω bezeichnen. P(Ω) ist die Potenzmenge, also das System aller Teilmengen von Ω. Manche Definitionen beziehen sich auf die Grundmenge Ω, ohne
daß dies in der Bezeichnung zum Ausdruck kommt. Zum Beispiel ist für A ⊂ Ω
mit
Ac := Ω \ A := {x ∈ Ω : x ∈
/ A}
das Komplement von A bezüglich Ω bezeichnet. Wir erinnern an die für jede
Familie (Ai )i∈I (I eine Indexmenge) von Teilmengen Ai ⊂ Ω gültigen Regeln
!c
!c
[
\
\
[
Ai =
Aci ,
Ai =
Aci
i∈I
i∈I
i∈I
i∈I
(Regeln von de Morgan).
Für Mengen A, B ist
A4B := (A \ B) ∪ (B \ A)
die symmetrische Differenz ; sie besteht also aus allen Elementen, die zu genau
einer der Mengen A, B gehören.
Sehr häufig werden wir Folgen (An )n∈N in P(Ω), also Folgen von Teilmengen von
Ω, zu betrachten haben. Eine solche Folge nennen wir disjunkt, wenn
An ∩ Am = ∅
für n 6= m (n, m ∈ N)
gilt; sie heißt monoton, wenn sie entweder zunehmend (wachsend) ist, d.h. wenn
A1 ⊂ A2 ⊂ . . .
gilt, oder abnehmend (fallend) ist, d.h. wenn
A1 ⊃ A2 ⊃ . . .
gilt ( zunehmend“ und abnehmend“ sind also im schwachen Sinne gemeint, d.h.
”
”
es darf auch An+1 = An sein). Die Abkürzung
An ↑ A
bedeutet, daß die Folge (An )n∈N zunehmend ist und daß
∞
[
An = A
n=1
ist. Entsprechend bedeutet
An ↓ A,
91
daß (An )n∈N eine abnehmende Folge ist mit
∞
\
An = A.
n=1
Aus An ↑ A folgt Acn ↓ Ac und umgekehrt.
Für eine beliebige Folge (An )n∈N in P(Ω) definiert man
lim sup An := {x : x ∈ An für unendlich viele n ∈ N}.
n→∞
Offenbar ist
lim sup An =
n→∞
∞ [
∞
\
Ak .
n=1 k=n
Ferner definiert man
lim inf An := {x : x ∈ An für fast alle n ∈ N}.
n→∞
Fast alle“ bedeutet dabei: alle bis auf endlich viele“. Offenbar ist
”
”
∞ \
∞
[
lim inf An =
Ak .
n→∞
n=1 k=n
Es gilt
(lim sup An )c = lim inf Acn ,
n→∞
n→∞
(lim inf An )c = lim sup Acn ,
n→∞
n→∞
lim inf An ⊂ lim sup An .
n→∞
n→∞
Im folgenden werden wir die Angabe n → ∞ gelegentlich fortlassen. Gilt
lim inf An = lim sup An =: A,
n→∞
n→∞
so schreibt man hierfür
lim An = A.
n→∞
(Man beachte, daß sich dieser Limes nicht auf eine Metrik oder Topologie bezieht.)
Insbesondere gilt
lim An = A,
n→∞
falls An ↑ A oder An ↓ A gilt.
92
11 MENGENSYSTEME
Nach diesen Vorbemerkungen kommen wir zu den grundlegenden Definitionen
der Maßtheorie. Wie einleitend plausibel zu machen versucht wurde, nimmt man
als Definitionsbereich eines Maßes sinnvollerweise ein System von Mengen, das
abgeschlossen ist gegenüber gewissen Mengenoperationen. Mit diesen Mengensystemen, den σ-Algebren, und anderen hilfsweise eingeführten Systemen befassen
wir uns in diesem Abschnitt.
(11.1) Def. Sei Ω eine nichtleere Menge und A ⊂ P(Ω) ein System von Teilmengen von Ω.
A heißt ein Ring (in Ω), wenn gilt:
(a) ∅ ∈ A,
(b) ∀A, B ∈ A : A \ B ∈ A,
(c) ∀A, B ∈ A : A ∪ B ∈ A.
A heißt eine Algebra in Ω, wenn gilt:
(d) Ω ∈ A,
(e) ∀A ∈ A : Ac ∈ A,
(f) ∀A, B ∈ A : A ∪ B ∈ A.
A heißt eine σ-Algebra in Ω, wenn (d) und (e) gelten sowie
S
(f0 ) Für jede Folge (An )n∈N in A ist ∞
n=1 An ∈ A.
Ist A eine σ-Algebra in Ω, so wird das Paar (Ω, A) als meßbarer Raum oder
Meßraum bezeichnet.
Hinweis. In anderen Gebieten der Mathematik treten die Begriffe Ring“ und
”
Algebra“ mit anderen Bedeutungen auf. Dies kann aber nicht zu Verwechslungen
”
führen. – Leider sind gerade in der Maßtheorie in der Literatur uneinheitliche
Bezeichnungsweisen üblich. Beispielshalber findet man statt (σ-)Algebra“ auch
”
die Bezeichnung (σ-)Körper“.
”
Bemerkungen zur Definition (11.1). Aus (b) folgt A ∩ B = A \ (A \ B) ∈ A
für A, B ∈ A. Durch Induktion folgt, daß jeder Ring abgeschlossen ist gegenüber
der Bildung endlicher Vereinigungen und Durchschnitte. Jede Algebra ist auch
ein Ring, denn es gilt A \ B = (Ac ∪ B)c . Ein Ring A in Ω ist genau dann eine
Algebra, wenn Ω ∈ A gilt. Für jede Folge (An )n∈N in einer σ-Algebra gilt wegen
(e) und (f0 ) auch
∞
\
An ∈ A.
n=1
Eine σ-Algebra ist also abgeschlossen gegenüber der Bildung abzählbarer Vereinigungen und Durchschnitte.
93
Beispiele. Das System aller endlichen Teilmengen einer Menge in Ω ist ein Ring.
Ist Ω0 ⊂ Ω, so ist jede Algebra in Ω0 ein Ring in Ω. Beispiele für σ-Algebren in Ω
sind P(Ω), {∅, Ω}, {∅, A, Ac , Ω} für eine beliebige Teilmenge A ⊂ Ω, ferner
{A ⊂ Ω : A oder Ac ist abzählbar}
( abzählbar“ heißt: endlich (evtl. leer) oder abzählbar unendlich). Das System
”
{A ⊂ Ω : A oder Ac ist endlich}
ist eine Algebra, aber bei unendlichem Ω keine σ-Algebra.
Grundlegend wichtig für alles Weitere ist der Begriff der σ-Algebra. Aus technischen Gründen führen wir gleich zwei weitere Typen von Mengensystemen ein,
die aber nur gelegentlich benutzt werden.
(11.2) Def. Ein Teilsystem M ⊂ P(Ω) heißt monotones System, wenn gilt:
(a) M =
6 ∅,
(b) für jede monotone Folge (An )n∈N in M gilt limn→∞ An ∈ M.
Ein Teilsystem D ⊂ P(Ω) heißt Dynkin-System, wenn gilt
(c) Ω ∈ D,
(d) für A, B ∈ D mit A ⊂ B gilt B \ A ∈ D,
S
(e) für jede disjunkte Folge (An )n∈N in D gilt ∞
n=1 An ∈ D.
Bemerkungen zur Definition (11.2). Jede σ-Algebra ist ein monotones System
und ein Dynkin-System. Eine Algebra, die ein monotones System ist, ist eine σAlgebra (denn ist (An )n∈N eine Folge in der Algebra A, so ist (A1 ∪ . . . ∪ An )n∈N
eine monotone Folge in A). Ein monotones System, das abgeschlossen ist unter
endlichen Durchschnitten, ist eine σ-Algebra:
(11.3) Def. Ein Teilsystem S ⊂ P(Ω) heißt durchschnittsstabil (∩-stabil), wenn
mit A, B ∈ S stets auch A ∩ B ∈ S gilt.
(11.4) Satz. Jedes ∩-stabile Dynkin-System ist eine σ-Algebra.
Beweis. Sei D ⊂ P(Ω) ein ∩-stabiles Dynkin-System. Wegen (11.2) (c), (d) gilt
auch (11.1) (d), (e). Für A, B ∈ D gilt
A ∩ (B \ (A ∩ B)) = ∅.
Da D ∩-stabil ist, ist A ∩ B ∈ D. Da ∅ ∈ D ist, gilt nach (11.2) (e)
A ∪ B = A ∪ (B \ (A ∩ B)) ∈ D.
94
11 MENGENSYSTEME
Daher liegt auch die Vereinigung endlich vieler Elemente aus D in D. Sei jetzt
(An )n∈N eine Folge in D. Dann ist (Bn+1 \ Bn )n∈N mit B0 := ∅ und Bn :=
A1 ∪ . . . ∪ An (n ∈ N) eine disjunkte Folge in D mit
∞
[
An =
n=1
∞
[
(Bn+1 \ Bn ) ∈ D.
n=0
Es gilt also auch (11.1) (f0 ).
Der folgende Satz beschreibt eine naheliegende und wichtige Weise, Mengensysteme der definierten Typen zu erzeugen.
(11.5) Satz und Def. Sei E ⊂ P(Ω). Der Durchschnitt aller Ringe (Algebren, σAlgebren, monotonen Systeme, Dynkin-Systeme) in Ω, die E enthalten, ist selbst
ein Ring (bzw. eine Algebra, u.s.w.) in Ω. Er (sie, es) heißt der von E in Ω
erzeugte Ring (bzw. die von E in Ω erzeugte Algebra, u.s.w.) und wird mit R(E)
(bzw. Ã(E), A(E), M(E), D(E)) bezeichnet. E heißt ein Erzeugendensystem von
R(E) (bzw. Ã(E) u.s.w.)
Man beachte, daß P(Ω) jedenfalls ein E enthaltendes System von jedem der angegebenen Typen ist; daher ist das von E erzeugte entsprechende System in jedem
der Fälle erklärt. Die Behauptung des Satzes ist trivial.
Besonders häufig wird im folgenden die Bildung von A(E), also der kleinsten E
enthaltenden σ-Algebra, vorkommen. Zuvor wollen wir bemerken, daß sich die
Elemente der erzeugten Algebra Ã(E) leicht konstruktiv angeben lassen:
(11.6) Satz. Sei E ⊂ P(Ω) ein nichtleeres Teilsystem. Dann ist


S
A = ni=1 Ai mit n ∈ N, Ai ∩ Aj = ∅ für i 6= j, 

.
Ã(E) = A ⊂ Ω : mit Ai = Ai1 ∩ . . . ∩ Aiki , ki ∈ N, und


Aij ∈ E oder Acij ∈ E
Beweis. Bezeichnen wir die rechts stehende Menge mit C, so gilt jedenfalls C ⊂
Ã(E), denn Ã(E) enthält E und ist eine Algebra. Wir zeigen, daß C eine Algebra
ist; wegen E ⊂ C muß dann Ã(E) ⊂ C und damit Ã(E) = C gelten.
S
S
Trivialerweise ist Ω ∈ C. Seien A, B ∈ C, und seien A = ni=1 Ai , B = m
j=1 Bj
Darstellungen der angegebenen Art. Dann ist
A∩B =
n [
m
[
i=1 j=1
(Ai ∩ Bj ) ∈ C.
95
Ferner gilt
Ac =
n
\
Aci
i=1
mit
Aci = Aci1 ∪ . . . ∪ Aciki
= Aci1 ∪ (Aci2 ∩ Ai1 ) ∪ (Aci3 ∩ Ai1 ∩ Ai2 ) ∪ . . .
∈ C,
nach dem vorstehend Bewiesenen (und Induktion) also Ac ∈ C. Aus beiden Ergebnissen folgt mit A, B ∈ C auch A ∪ B ∈ C.
Wir können das Ergebnis noch etwas anders formulieren. Hierzu bezeichnen wir
zu einem gegebenen Mengensystem E ⊂ P(Ω) mit CE das System der Mengen
in E und ihrer Komplemente, mit DE das System aller endlichen Durchschnitte
von Mengen aus E, und mit V E das System aller endlichen Vereinigungen von
Mengen aus E. Dann besagt also Satz (11.6) (in schärferer Form), daß
Ã(E) = V DCE
ist.
Nun darf man sich aber nicht verleiten lassen, Ähnliches von der erzeugten σAlgebra A(E) anzunehmen. Man könnte denken, daß man sie analog erhält, wenn
man statt der endlichen Operationen abzählbare nimmt. Bezeichnen wir diese
mit Dσ , Vσ , so kann man natürlich Vσ Dσ CE bilden. Dies ist aber i.a. keine σAlgebra (man kann nicht zeigen, daß es gegen Komplementbildung abgeschlossen
ist), d.h. das System CVσ Dσ CE wird i.a. echt größer sein. Jetzt kann man weiter Vσ Dσ CVσ Dσ CE bilden. Aber auch das ist i.a. noch keine σ-Algebra. Ist es
möglich, dieses Verfahren fortgesetzt zu wiederholen, so daß man schließlich“
”
zur erzeugten σ-Algebra gelangt? Bei richtiger Interpretation von schließlich“
”
trifft das zu, aber man benötigt dazu die Theorie der Ordinalzahlen und transfinite Induktion.
Jedenfalls ist diese transfinite Konstruktion“ der erzeugten σ-Algebra i.a. nicht
”
zweckmäßig, um A(E) in den Griff zu bekommen. Dies hat zur Folge, daß man
bei Beweisen über σ-Algebren häufig indirekte Schlußweisen benutzen muß, die
wir etwa folgendermaßen erläutern können: Sei E ⊂ P(Ω) gegeben. Die Elemente
von E mögen eine Eigenschaft X haben, und es sei der Nachweis verlangt, daß
auch die Elemente der erzeugten σ-Algebra A(E) die Eigenschaft X haben. Da
man die Elemente von A(E) wegen des oben geschilderten Dilemmas nicht direkt
beschreiben kann, kann man nicht direkt die Eigenschaft X an ihnen nachprüfen.
Häufig ist aber die folgende Schlußweise möglich. Man setzt
AX := {A ∈ A(E) : A hat die Eigenschaft X}.
96
11 MENGENSYSTEME
Nach Voraussetzung ist E ⊂ AX . Gelingt nun der Nachweis, daß AX eine σAlgebra ist, so folgt A(E) ⊂ AX , da A(E) die kleinste E enthaltende σ-Algebra
ist. Jedes Element von A(E) hat also die Eigenschaft X.
Bei der Durchführung dieser Schlußweise wie auch in anderen Fällen steht man
vor dem Problem, von einem Mengensystem zeigen zu müssen, daß es eine σAlgebra ist. Zur Erleichterung dieses Nachweises (aber auch für andere Zwecke)
haben sich die oben definierten Mengensysteme anderer Art bewährt. Der folgende Satz zeigt, daß man in manchen Fällen statt der von einem System E erzeugten
σ-Algebra nur das von E erzeugte monotone System oder Dynkin-System zu untersuchen braucht. Das kann unter Umständen einfacher sein.
(11.7) Satz. Für ∅ =
6 E ⊂ P(Ω) gilt
(a) Ist E eine Algebra, so ist A(E) = M(E).
(b) Ist E ∩-stabil, so ist A(E) = D(E).
Beweis. (a) Sei E eine Algebra in Ω. Da A(E) ein monotones System ist, gilt
M(E) ⊂ A(E). Wir zeigen, daß M(E) eine σ-Algebra ist; dann gilt also auch
A(E) ⊂ M(E).
Für A ∈ M(E) setzen wir
MA := {B ∈ M(E) : A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E)}.
Man weist leicht nach, daß MA ein monotones System ist. Sei A ∈ E. Da E eine
Algebra ist, gilt E ⊂ MA , also M(E) ⊂ MA . Sei B ∈ M(E). Gilt A ∈ E, so
ist B ∈ MA , wie eben gezeigt, also A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E) und somit
A ∈ MB . Es ist also E ⊂ MB und daher M(E) ⊂ MB . Damit ist gezeigt: Für
beliebige A, B ∈ M(E) gilt A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E). Daraus folgt, daß
M(E) eine Algebra und somit als monotones System eine σ-Algebra ist.
(b) Sei E ein ∩-stabiles System in Ω. Da A(E) ein Dynkin-System ist, gilt D(E) ⊂
A(E). Wir zeigen, daß D(E) eine σ-Algebra ist; dann gilt also auch A(E) ⊂ D(E).
Nach (11.4) genügt hierzu der Nachweis, daß D(E) ∩-stabil ist.
Für A ∈ D(E) setzen wir
DA := {B ∈ D(E) : B ∩ A ∈ D(E)}.
Man weist leicht nach, daß DA ein Dynkin-System ist. Sei A ∈ E. Da E ∩-stabil
ist, gilt E ⊂ DA , also D(E) ⊂ DA . Sei B ∈ D(E). Gilt A ∈ E, so ist B ∈ DA , wie
eben gezeigt, also B ∩A ∈ D(E) und somit A ∈ DB . Es ist also E ⊂ DB und daher
D(E) ⊂ DB . Damit ist gezeigt: Für beliebige A, B ∈ D(E) gilt A ∩ B ∈ D(E).
97
12
Mengenfunktionen
Hauptgegenstand dieses Abschnittes ist die Einführung von Maßen. Schon die
Erörterung des Volumens in der Einleitung legt nahe, daß man zur Vermeidung
lästiger Ausnahmen als Wert eines Maßes auch ∞ zulassen sollte. Hierzu werden
die Ordnung der reellen Zahlen und gewisse Rechenoperationen passend ausgedehnt. Die erforderlichen Definitionen wollen wir zunächst zusammenstellen.
Mit R wird die Menge (und der Körper) der reellen Zahlen bezeichnet. Wir setzen
R := R∪{∞, −∞}, wo ∞ und −∞ beliebige Symbole (aber keine reellen Zahlen)
sind. Man definiert nun für alle x ∈ R:
−∞ < x < ∞,
| − ∞| = |∞| = ∞,
∞ + ∞ = ∞ + x = x + ∞ = ∞,
−∞ − ∞ = −∞ + (−∞) = x − ∞ = −∞ + x = −∞,

für x > 0,
 ∞
0
für x = 0,
x·∞=∞·x=

−∞ für x < 0,

für x > 0,
 −∞
0
für x = 0,
x · (−∞) = (−∞) · x =

∞
für x < 0.
Auf die in der Maßtheorie zweckmäßige Festsetzung 0 · ∞ = 0 sei besonders
hingewiesen. Sodann sei noch
∞ · ∞ = ∞,
(−∞) · ∞ = ∞(−∞) = −∞,
(−∞)(−∞) = ∞
gesetzt. Man beachte, daß ∞ − ∞“ nicht definiert ist.
”
R mit diesen Festsetzungen wird als das erweiterte System der reellen Zahlen bezeichnet. Eine Funktion mit Werten in R wird auch numerische Funktion genannt.
Limesbildungen sind im folgenden stets in R zu verstehen.
Nun definieren wir die Eigenschaften von Mengenfunktionen, die für das Folgende
grundlegend sind. Ω sei eine gegebene nichtleere Menge.
(12.1) Def. Sei µ eine numerische Funktion auf einem System S ⊂ P(Ω). Die
Funktion µ heißt additiv, wenn gilt:
(a) µ nimmt höchstens einen der Werte ∞, −∞ an,
S
(b) für je endlich viele paarweise disjunkte Mengen A1 , . . . , An ∈ S mit ni=1 Ai ∈
S gilt
!
n
n
[
X
Ai =
µ(Ai ).
µ
i=1
i=1
98
12 MENGENFUNKTIONEN
µ heißt σ-additiv, wenn (a) gilt und
S
(b0 ) für jede disjunkte Folge (Ai )i∈N in S mit ∞
i=1 Ai ∈ S gilt
!
∞
∞
[
X
µ
Ai =
µ(Ai ).
i=1
i=1
µ heißt endlich, wenn |µ(A)| < ∞ ist für alle A ∈ S.
µ heißt σ-endlich, wenn eine Folge (En )n∈N in S existiert mit
∞
[
und |µ(En )| < ∞ für n ∈ N.
En = Ω
n=1
Erläuterung. Die Schreibweise
µ
∞
[
!
Ai
i=1
=
∞
X
µ(Ai )
i=1
bedarf einer Interpretation. Ist µ(Ai ) ∈ R für alle i ∈ N, so ist gemeint, daß
die Reihe konvergieren oder bestimmt divergieren soll; im letzteren Fall ist nach
Definition
∞
X
µ(Ai ) = ∞
bzw. − ∞.
i=1
Gilt nicht µ(Ai ) ∈ R für alle i ∈ N, so nimmt µ(Ai ) für gewisse i auch einen der
Werte ∞, −∞ an, aber nach (a) nur einen dieser Werte, etwa ∞. In diesem Fall
wird
X
µ(Ai ) 6= −∞
i∈N
µ(Ai )∈R
gefordert und
P
i∈N
µ(Ai ) := ∞ gesetzt.
Die folgende Definition ist durch die Beispiele und anschließenden Betrachtungen
der Einleitung motiviert und vorbereitet worden.
(12.2) Def. Sei R ein Ring in Ω und µ eine numerische Funktion auf R.
µ heißt Inhalt auf R, wenn gilt:
µ(∅) = 0, µ(A) ≥ 0 für A ∈ R, µ ist additiv.
µ heißt Maß auf R, wenn gilt:
µ(∅) = 0, µ(A) ≥ 0 für A ∈ R, µ ist σ-additiv.
99
µ heißt signiertes Maß auf R, wenn gilt:
µ(∅) = 0, µ ist σ-additiv.
Hinweis. Manche Autoren sprechen nur dann von einem Maß, wenn der Definitionsbereich eine σ-Algebra ist, und nennen die hier als Maß“ bezeichnete
”
Mengenfunktion ein Prämaß. Diese Unterscheidung erscheint uns aber unnötig.
Wir treffen jedoch die folgende Vereinbarung.
(12.3) Def. Ein Maßraum ist ein Tripel (Ω, A, µ), wo Ω eine nichtleere Menge,
A eine σ-Algebra in Ω und µ ein Maß auf A ist. Ein Maßraum (Ω, A, µ) mit
µ(Ω) = 1 heißt Wahrscheinlichkeitsraum, und µ heißt in diesem Fall ein Wahrscheinlichkeitsmaß.
Beispiele
(a) Sei Ω unendlich. Auf der Algebra {A ⊂ Ω : A oder Ac endlich} wird durch
(
0, wenn A endlich,
µ(A) :=
∞, wenn Ac endlich,
ein Inhalt definiert, der im Fall einer abzählbar unendlichen Menge Ω kein Maß
ist.
(b) Sei Ω überabzählbar. Auf der σ-Algebra {A ⊂ Ω : A oder Ac abzählbar} wird
durch
(
0, wenn A abzählbar,
µ(A) :=
∞, wenn Ac abzählbar,
ein Maß erklärt.
(c) Sei R ein beliebiger Ring in Ω. Für x ∈ Ω wird durch
(
1, wenn x ∈ A,
µx :=
0, wenn x ∈
/A
ein Maß µx erklärt ( Punktmasse in x“). Ferner wird durch
”
(
Elementzahl von A, wenn A endlich,
µ(A) :=
∞ sonst
ein Maß, das sogenannte Zählmaß“, erklärt.
”
Für verschiedentliche Anwendung notieren wir einige einfache Folgerungen aus
den Axiomen.
100
12 MENGENFUNKTIONEN
(12.4) Satz. Sei µ ein Inhalt auf dem Ring R. Dann gilt für A, B, Ai ∈ R
(a) µ(A ∪ B) + µ(A ∩ B) = µ(A) + µ(B),
(b) A ⊂ B ⇒ µ(A) ≤ µ(B),
(c) A ⊂ B und µ(A) < ∞ ⇒ µ(B \ A) = µ(B) − µ(A),
S
P
(d) µ( ni=1 Ai ) ≤ ni=1 µ(Ai ),
S
(e) Ist µ ein Maß und ∞
i=1 Ai ∈ R, so gilt
!
∞
∞
[
X
µ
Ai ≤
µ(Ai ).
i=1
i=1
Beweis. Es ist A ∪ B = A ∪ (B \ A) und B = (A ∩ B) ∪ (B \ A), also µ(A ∪ B) =
µ(A) + µ(B \ A) und µ(B) = µ(A ∩ B) + µ(B \ A). Addition ergibt
µ(A ∪ B) + µ(A ∩ B) + µ(B \ A) = µ(A) + µ(B) + µ(B \ A).
Ist µ(B \ A) < ∞, so folgt (a). Ist µ(B \ A) = ∞, so ist auch µ(A ∪ B) = ∞ und
µ(B) = ∞, also gilt (a) auch in diesem Fall.
Ist A ⊂ B, so ist µ(B) = µ(A) + µ(B \ A). Wegen µ ≥ 0 folgt (b), und im Fall
µ(A) < ∞ ergibt sich (c).
Setze B1 := A1 , Bi := Ai \ (A1 ∪ . . . ∪ Ai−1 ) für i = 2, 3, . . . Dann gilt
!
!
n
n
n
n
[
[
X
X
µ
Ai = µ
Bi =
µ(Bi ) ≤
µ(Ai )
i=1
i=1
i=1
i=1
wegen Bi ∩ BS
j = ∅ für i 6= j, Bi ⊂ Ai und (b); das ist die Behauptung (d). Ist µ
ein Maß und ∞
i=1 Ai ∈ R, so folgt analog
!
!
∞
∞
∞
∞
[
[
X
X
µ
Ai = µ
Bi =
µ(Bi ) ≤
µ(Ai ).
i=1
i=1
i=1
i=1
Soll man von einer nichtnegativen Mengenfunktion die σ-Additivität nachweisen,
so kann es unter Umständen einfacher sein, anders formulierte, aber äquivalente
Eigenschaften nachzuweisen. Zur Formulierung solcher gleichwertigen Eigenschaften sind die folgenden Bezeichnungen zweckmäßig.
(12.5) Def. Sei µ eine nichtnegative numerische Funktion auf einem Ring R. Die
Funktion µ heißt
(a) stetig von unten, wenn für jede Folge (An )n∈N in R mit An ↑ A ∈ R gilt
lim µ(An ) = µ(A),
n→∞
101
(b) stetig von oben, wenn für jede Folge (An )n∈N in R mit An ↓ A ∈ R und
µ(An ) < ∞ für n ∈ N gilt
lim µ(An ) = µ(A),
n→∞
(c) ∅-stetig, wenn für jede Folge (An )n∈N in R mit An ↓ ∅ und µ(An ) < ∞ für
n ∈ N gilt
lim µ(An ) = 0.
n→∞
(12.6) Satz. Für einen Inhalt µ auf einem Ring R gelten folgende Implikationen:
µ ist σ-additiv ⇔ µ ist stetig von unten
⇒ µ ist stetig von oben ⇔ µ ist ∅-stetig .
Ist µ endlich, so sind die angegebenen Bedingungen äquivalent.
Beweis. Sei µ σ-additiv. Sei (An )n∈N eine Folge in R mit An ↑ A ∈ R. Setze
Bn := An S
\ An−1 für n ∈ N (mit A0 := ∅); dann ist (Bn )n∈N eine disjunkte Folge
in R mit Bn = A. Daher gilt
µ(A) =
∞
X
µ(Bi ) = lim
i=1
n→∞
n
X
µ(Bi ) = lim µ(An ),
i=1
n→∞
also ist µ stetig von unten.
S
Sei µ stetig von unten. Ist (An )n∈N eine disjunkte Folge in R mit A := An ∈ R,
so ist (Bn )n∈N mit Bn := A1 ∪ . . . ∪ An eine Folge in R mit Bn ↑ A, also gilt
µ(A) = lim µ(Bn ) = lim
n→∞
n→∞
n
X
n=1
µ(Ai ) =
∞
X
µ(Ai ),
i=1
somit ist µ σ-additiv.
Sei µ stetig von unten. Sei (An )n∈N eine Folge in R mit An ↓ A und µ(An ) < ∞
für n ∈ N. Nach (12.4) (c) gilt dann µ(A1 \ An ) = µ(A1 ) − µ(An ). Wegen An ↓ A
gilt A1 \ An ↑ A1 \ A und daher
µ(A1 \ A) = lim µ(A1 \ An ) = µ(A1 ) − lim µ(An ),
also
lim µ(An ) = µ(A1 ) − µ(A1 \ A) = µ(A1 ) − [µ(A1 ) − µ(A)] = µ(A)
wegen A ⊂ A1 und µ(A1 ) < ∞. Also ist µ stetig von oben.
Die letzte Äquivalenz in der Behauptung von (12.6) ist trivial.
102
12 MENGENFUNKTIONEN
Jetzt sei µ als endlich vorausgesetzt, und µ sei ∅-stetig. Sei (An )n∈N eine Folge in
R mit An ↑ A ∈ R. Dann gilt A \ An ↓ ∅. Da µ endlich ist, folgt
0 = lim µ(A \ An ) = lim[µ(A) − µ(An )],
also lim µ(An ) = µ(A). Somit ist µ stetig von unten.
Satz (12.6) enthält eine Stetigkeitseigenschaft von Maßen hinsichtlich monotoner Mengenfolgen. Für nicht notwendig monotone Folgen lassen sich noch die
folgenden Aussagen machen.
(12.7) Satz. Sei µ ein Maß auf einer σ-Algebra A in Ω, sei (An )n∈N eine Folge
in A. Dann gilt:
(a) µ(lim inf An ) ≤ lim inf µ(An ),
(b) µ(lim sup An ) ≥ lim sup µ(An ), falls µ endlich,
(c) Ist µ endlich und existiert lim An , so gilt
µ(lim An ) = lim µ(An ).
Beweis. (a) Nach Definition ist
lim inf Am =
m→∞
∞
[
Bn
mit Bn :=
n=1
∞
\
Ak für n ∈ N,
k=n
also Bn ∈ A und Bn ↑ lim inf m→∞ Am . Da µ nach (12.6) stetig von unten ist, gilt
µ(lim inf An ) = lim µ(Bn ) = lim inf µ(Bn )
≤ lim inf µ(An )
wegen Bn ⊂ An .
(b) Nach Definition ist
lim sup Am =
m→∞
∞
\
Bn
mit Bn :=
n=1
∞
[
Ak
für n ∈ N,
k=n
also Bn ∈ A und Bn ↓ lim supm→∞ Am . Da µ nach (12.6) stetig von oben ist und
nach Voraussetzung µ(Bn ) < ∞ gilt, folgt
µ(lim sup An ) = lim µ(Bn ) = lim sup µ(Bn )
≥ lim sup µ(An )
wegen An ⊂ Bn .
103
(c) Gilt lim inf An = lim sup An , so folgt für endliches µ aus (a) und (b):
lim sup µ(An ) ≤ µ(lim sup An ) = µ(lim An )
= µ(lim inf An ) ≤ lim inf µ(An ) ≤ lim sup µ(An ),
also lim inf µ(An ) = lim sup µ(An ), d.h. lim µ(An ) existiert, und es gilt
lim µ(An ) = µ(lim An ).
Zum Abschluß dieses Abschnitts behandeln wir einen ersten (einfachen) Fortsetzungssatz für Maße. Zunächst eine auch später wichtige Definition.
(12.8) Def. Sei µ ein Maß auf der σ-Algebra A. Eine Menge N ∈ A mit µ(N ) = 0
heißt µ-Nullmenge.
Wenn man bei der Bildung des Maßbegriffs davon ausgeht, daß ein Maß gewissen anschaulichen Vorstellungen entsprechen soll, wird man die folgende Aussage für plausibel halten: Jede Teilmenge einer µ-Nullmenge ist ebenfalls eine
”
µ-Nullmenge“. Im allgemeinen ist diese Aussage aber sinnlos, da für eine Teilmenge einer µ-Nullmenge das Maß µ gar nicht erklärt zu sein braucht, d.h. die
Teilmenge braucht nicht in der zugrundeliegenden σ-Algebra enthalten zu sein.
Dieser Schönheitsfehler läßt sich aber durch eine Erweiterung der σ-Algebra und
des Maßes leicht beheben, wie Satz (12.10) zeigt.
(12.9) Def. Sei µ ein Maß auf dem meßbaren Raum (Ω, A). Das Maß µ und der
Maßraum (Ω, A, µ) heißen vollständig, und die σ-Algebra A heißt µ-vollständig,
wenn gilt:
A ∈ A, µ(A) = 0, B ⊂ A ⇒ B ∈ A.
(12.10) Satz und Def. Sei µ ein Maß auf dem meßbaren Raum (Ω, A). Dann
ist
 := {A ∪ N : A ∈ A, N ⊂ M für ein M ∈ A mit µ(M ) = 0}
eine σ-Algebra, und durch
µ̂(A ∪ N ) := µ(A)
für A ∪ N ∈ Â
(A und N wie oben) wird ein vollständiges Maß µ̂ definiert. Das Maß µ̂ heißt die
Vervollständigung von µ, ebenso heißt der Maßraum (Ω, Â, µ̂) die Vervollständigung von (Ω, A, µ), und  heißt die µ-Vervollständigung von A.
Beweis. Ω ∈ Â ist trivial. Sei B ∈ Â, also B = A∪N mit geeignetem A ∈ A, N ⊂
M mit M ∈ A und µ(M ) = 0. Wegen B c = Ac ∩ N c = (A ∪ M )c ∪ (M \ (A ∪ N ))
und (A ∪ M )c ∈ A, M \ (A ∪ N ) ⊂ M folgt B c ∈ Â.
104
13 KONSTRUKTION UND FORTSETZUNG VON MASSEN
Sei Bi ∈ Â, also Bi = Ai ∪ Ni mit Ai ∈ A, Ni ⊂ Mi ∈ A und µ(Mi ) = 0 (i ∈ N).
Dann ist
!
!
∞
∞
∞
[
[
[
Bi =
Ai ∪
Ni
i=1
und
∞
[
i=1
Ai ∈ A,
i=1
∞
[
Ni ⊂
i=1
Da µ ein Maß ist, ist µ(M ) = 0. Somit ist
i=1
∞
[
Mi =: M ∈ A.
i=1
S
Bi ∈ Â, also ist  eine σ-Algebra.
Es ist zu zeigen, daß die Definition µ̂(A ∪ N ) := µ(A) sinnvoll ist. Sei also die
Menge B ∈ Â dargestellt in den Formen B = A1 ∪ N1 = A2 ∪ N2 mit Ai ∈ A,
Ni ⊂ Mi ∈ A und µ(Mi ) = 0 (i = 1, 2). Dann gilt
A1 \ (A1 ∩ A2 ) ⊂ N2 ⊂ M2 ,
also µ(A1 ) = µ(A1 ∩ A2 ). Analog folgt µ(A2 ) = µ(A1 ∩ A2 ), also µ(A1 ) = µ(A2 ).
Die Definition µ̂(A1 ∪N1 ) := µ(A1 ) hängt also nicht von der speziellen Darstellung
der Menge A1 ∪ N1 ab.
Daß µ̂ ein vollständiges Maß ist, ist leicht zu sehen.
13
Konstruktion und Fortsetzung von Maßen
Bisher verfügen wir noch über keine Möglichkeit, nichttriviale Beispiele von Maßen zu konstruieren. In konkreten Anwendungen steht man häufig vor dem Problem, eine gegebene Mengenfunktion mit einfach strukturiertem Definitionsbereich so fortsetzen zu sollen, daß ein Maß auf einer σ-Algebra entsteht. Typisch
hierfür ist das in der Einleitung erläuterte Problem, einen möglichst weitreichenden Flächeninhaltsbegriff in der Ebene einzuführen. Zunächst war es für endliche
Vereinigungen von Rechtecken klar, wie dies zu geschehen hat. Mit den Definitionen der vorigen Abschnitte können wir die Situation folgendermaßen beschreiben.
Das System der endlichen Vereinigungen von (halboffenen) Rechtecken bildet
einen Ring R in E 2 , und der hierauf erklärte Flächeninhalt F ist ein Inhalt im
Sinne von Def. (2.2). Man möchte diesen Flächeninhalt fortsetzen auf ein umfassenderes Mengensystem, um möglichst viele Mengen ausmessen zu können.
Mathematisch ergiebig wird eine solche Fortsetzung erst, wenn sie σ-additiv und
ihr Definitionsbereich eine σ-Algebra ist. Die in der Einleitung erläuterte, sehr
plausible Fortsetzung, die nach Eudoxos oder Jordan benannt wird, leistet dies
nicht: die Vereinigung von abzählbar vielen Jordan-meßbaren Mengen braucht
nicht Jordan-meßbar zu sein. Ist es möglich, F fortzusetzen zu einem Maß auf einer σ-Algebra in E 2 , die die Elementarfiguren umfaßt? Das Hauptergebnis dieses
105
Abschnitts ist ein allgemeiner Satz, aus dem sich dann in §14 in der Tat die Fortsetzbarkeit von F auf die vom Ring R der Elementarfiguren erzeugte σ-Algebra
A(R) zeigen läßt.
Die Grundidee dieser Fortsetzung wollen wir kurz an eben diesem Beispiel des
Flächeninhalts erläutern. Bei der Eudoxos-Erweiterung approximiert man eine
Menge, deren Flächeninhalt man definieren möchte, von außen und innen durch
Elemente von R, für die der Flächeninhalt bereits erklärt ist. Das führt aber
schon bei relativ einfachen Mengen auf Schwierigkeiten: Sei M die Menge der
Punkte im Einheitsquadrat, die rationale Koordinaten haben. Für jedes Element
A ∈ R mit A ⊃ M gilt F (A) ≥ 1, und für jedes Element A ∈ R mit A ⊂ M
gilt F (A) = 0. Man geht deshalb bei der jetzt zu besprechenden Erweiterung so
vor, daß man nur von außen approximiert. Da man aber auf σ-Additivität abzielt,
läßt man Überdeckungen der fraglichen Menge M durch abzählbar viele Elemente
von R zu und bildet für jede solche Überdeckung die (möglicherweise unendliche) Summe der Flächeninhalte der überdeckenden Mengen. Das Infimum aller
so erreichbaren Summen kann man der Menge M als verallgemeinerten Inhalt“
”
zuordnen. Wenn ∞ als Wert mit zugelassen wird, wird auf diese Weise sogar jeder
Menge aus P(E 2 ) ein verallgemeinerter Inhalt zugeordnet. Dieser ist allerdings
nicht σ-additiv, sondern nur σ-subadditiv, d.h. es gilt statt der Gleichung, die die
σ-Additivität ausdrücken würde, nur eine Ungleichung. Um weiterzukommen, bedurfte es eines genialen Einfalls, und diesen hatte C. Carathéodory. Man kann
nämlich durch eine einfache, aber wirkungsvolle Meßbarkeitsdefinition ein den
Ring R umfassendes Teilsystem von P(E 2 ) aussondern, das sich als σ-Algebra
erweist und auf dem der verallgemeinerte Inhalt ein Maß ist. Dieses Fortsetzungsverfahren von Carathéodory läßt sich in sehr allgemeiner Weise durchführen, und
es liefert dann nichttriviale und nützliche Beispiele von Maßen auf σ-Algebren.
Die σ-subadditiven Mengenfunktionen, die bei dieser Methode zunächst auftreten, nennt man äußere Maße“, und diese müssen wir zunächst studieren.
”
(13.1) Def. Ein äußeres Maß auf der Menge Ω ist eine numerische Funktion µ∗
auf der Potenzmenge P(Ω) mit folgenden Eigenschaften:
(a) µ∗ (∅) = 0,
(b) A, B ∈ P(Ω), A ⊂ B ⇒ µ∗ (A) ≤ µ∗ (B)
(Monotonie),
(c) für jede Folge (An )n∈N in P(Ω) gilt
!
∞
∞
[
X
∗
An ≤
µ∗ (An )
µ
n=1
(σ-Subadditivität).
Aus (a) und (b) folgt µ∗ ≥ 0.
n=1
106
13 KONSTRUKTION UND FORTSETZUNG VON MASSEN
Beispiele. (a) µ∗ (∅) = 0, µ∗ (A) = 1 sonst; (b) µ∗ (A) = 0, wenn A abzählbar ist,
∞ sonst.
Ein äußeres Maß ist im allgemeinen nicht einmal additiv, also sicher kein Maß.
Die Nützlichkeit der äußeren Maße beruht darauf, daß sich durch Einschränkung
auf ein geeignetes Teilsystem von P(Ω) ein Maß ergibt. Dieses Teilsystem wird
unter Verwendung des folgenden Begriffes definiert.
(13.2) Def. Sei µ∗ ein äußeres Maß auf der Menge Ω. Eine Menge A ⊂ Ω heißt
µ∗ -meßbar, wenn für jede Menge M ⊂ Ω gilt
µ∗ (M ) = µ∗ (M ∩ A) + µ∗ (M ∩ Ac ).
Bemerkung. A ⊂ Ω ist bereits dann µ∗ -meßbar, wenn nur gefordert wird, daß
für alle M ⊂ Ω
µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac )
gilt. Die entgegengesetzte Ungleichung gilt nämlich stets wegen (13.1)(c).
Die µ∗ -meßbaren Teilmengen sind also dadurch charakterisiert, daß sie jede andere Menge hinsichtlich µ∗ additiv aufspalten“. Die Einführung dieser zunächst
”
vielleicht eigenartig erscheinenden Begriffsbildung wird gerechtfertigt durch den
folgenden Satz.
(13.3) Satz. Sei µ∗ ein äußeres Maß auf der Menge Ω. Das System A∗ aller
µ∗ -meßbaren Teilmengen von Ω ist eine σ-Algebra in Ω, und die Einschränkung
µ∗ |A∗ ist ein vollständiges Maß.
Beweis. Trivialerweise ist Ω ∈ A∗ , und mit A ∈ A∗ ist auch Ac ∈ A∗ . Seien nun
zunächst A, B ∈ A. Für M ⊂ Ω gilt
µ∗ (M ) = µ∗ (M ∩ A) + µ∗ (M ∩ Ac ),
da A ∈ A∗ ,
µ∗ (M ∩ A) = µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c ),
da B ∈ A∗ ,
µ∗ (M ∩ Ac ) = µ∗ (M ∩ Ac ∩ B) + µ∗ (M ∩ Ac ∩ B c ),
da B ∈ A∗ .
Einsetzen der beiden letzten Gleichungen in die erste ergibt
µ∗ (M ) = µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c )
+µ∗ (M ∩ Ac ∩ B) + µ∗ (M ∩ Ac ∩ B c ).
Hier ersetzen wir M durch M ∩ (A ∪ B) und erhalten
µ∗ (M ∩ (A ∪ B))
= µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c ) + µ∗ (M ∩ Ac ∩ B).
(7)
107
Einsetzen in die vorhergehende Gleichung ergibt
µ∗ (M ) = µ∗ (M ∩ (A ∪ B)) + µ∗ (M ∩ (A ∪ B)c ),
also A ∪ B ∈ A∗ . Somit ist A∗ eine Algebra.
Zum Nachweis, S
daß A∗ eine σ-Algebra ist, sei zunächst (An )n∈N eine disjunkte
Folge in A∗ , sei An =: A. Sei M ⊂ Ω. Die Gleichung (7) ergibt wegen A1 ∩A2 =
∅
µ∗ (M ∩ (A1 ∪ A2 )) = µ∗ (M ∩ A1 ) + µ∗ (M ∩ A2 ).
Durch vollständige Induktion zeigt man für n ∈ N
!
n
n
[
X
∗
µ M∩
Ai =
µ∗ (M ∩ Ai ).
i=1
Zur Abkürzung sei
also
Sn
i=1
i=1
Ai =: Bn gesetzt. Da A∗ eine Algebra ist, gilt Bn ∈ A∗ ,
µ∗ (M ) = µ∗ (M ∩ Bn ) + µ∗ (M ∩ Bnc )
n
X
≥
µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac )
i=1
wegen Bn ⊂ A und (13.1)(b). Da dies für alle n ∈ N gilt, folgt
∞
X
µ∗ (M ) ≥
µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac )
(8)
i=1
≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac )
nach (13.1)(c). Daraus folgt A ∈ A∗ .
Ist nun (An )n∈N eine beliebige Folge in A∗ , so können wir
Cn := An \ (A1 ∪ . . . ∪ An−1 )
S
S
setzen; dann ist (Cn )n∈N eine disjunkte Folge in A∗ mit Cn = An . Es folgt
S
An ∈ A∗ . Somit ist A∗ eine σ-Algebra.
S
Nun sei wieder (An )n∈N eine disjunkte Folge in A∗ , sei An =: A. Da in (8) das
Gleichheitszeichen gilt, ist
∞
X
µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac ) = µ∗ (M ).
i=1
Speziell für M = A ergibt sich
∞
X
i=1
µ∗ (Ai ) = µ∗ (A),
108
13 KONSTRUKTION UND FORTSETZUNG VON MASSEN
also ist die Einschränkung µ∗ |A∗ σ-additiv und somit ein Maß.
Sei A ⊂ Ω und µ∗ (A) = 0. Sei M ⊂ Ω. Wegen M ∩ A ⊂ A und (13.1)(b) gilt
µ∗ (M ∩ A) = 0, deshalb und wegen M ∩ Ac ⊂ M gilt
µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ),
also A ∈ A∗ . Jede Menge A mit µ∗ (A) = 0 ist also µ∗ -meßbar. Hieraus folgt
insbesondere die Vollständigkeit von µ∗ |A∗ .
Satz (13.3) zeigt, wie man von einem äußeren Maß zu einem Maß gelangt. Es
fragt sich, wie man überhaupt nichttriviale Beispiele für äußere Maße bekommt.
Eine solche Konstruktion hatten wir am Anfang dieses Abschnittes heuristisch
erläutert. Sie läßt sich in sehr allgemeiner Form durchführen, wie der folgende
Satz zeigt.
(13.4) Satz und Def. Sei ∅ ∈ C ⊂ P(Ω) und τ eine nichtnegative numerische
Funktion auf C mit τ (∅) = 0. Wird
)
(∞
∞
[
X
Cn
τ ∗ (M ) := inf
τ (Cn ) : (Cn )n∈N Folge in C mit M ⊂
n=1
n=1
für M ⊂ Ω gesetzt, falls es Folgen der verlangten Art gibt, und andernfalls
τ ∗ (M ) := ∞, so ist τ ∗ ein äußeres Maß auf Ω. Es heißt das durch (C, τ ) induzierte äußere Maß.
Beweis. Direkt aus der Definition folgen die Eigenschaften (13.1)(a) (beachte
∅ ∈ C und τ (∅) = 0) und (b). Zum Nachweis von (c) sei (An )n∈N eine Folge in
P(Ω). O.B.d.A. sei τ ∗ (An ) < ∞ für n ∈ N (andernfalls ist nichts zu beweisen).
Sei ∈ R+ . Für n ∈ N existiert nach Definition von τ ∗ eine Folge (Cni )i∈N in C
mit
∞
∞
[
X
An ⊂
Cni und
τ (Cni ) ≤ τ ∗ (An ) + n .
2
i=1
i=1
Wegen
[
n∈N
und
∞ X
∞
X
[[
An ⊂
Cni
n∈N i∈N
τ (Cni ) ≤
n=1 i=1
∞
X
τ ∗ (An ) + n=1
∞
X
1
2n
n=1
folgt
τ
∗
∞
[
n=1
!
An
≤
∞
X
n=1
τ ∗ (An ) + .
109
Da ∈ R+ beliebig war, folgt (c).
Wir beweisen zunächst einen Zusatz zu Satz (13.4), der später nützlich sein wird,
um die Struktur der τ ∗ -meßbaren Teilmengen genauer zu beschreiben. Zu einem
Mengensystem C bezeichnen wir mit Cσδ das System aller Mengen der Form
∞ [
∞
\
Cnm
n=1 m=1
mit Cnm ∈ C.
(13.5) Satz. Sei (C, τ ) wie in (13.4) und τ ∗ das durch (C, τ ) induzierte äußere
Maß auf Ω. Dann gibt es zu jeder Menge M ⊂ Ω mit τ ∗ (M ) < ∞ eine Menge
C ∈ Cσδ mit
M ⊂ C und τ ∗ (M ) = τ ∗ (C).
Beweis. Sei M ⊂ Ω und τ ∗ (M ) < ∞. Zu jedem n ∈ N gibt es in C eine Folge
(Cni )i∈N mit
M⊂
∞
[
Cni =: Cn
∞
X
und
i=1
τ (Cni ) ≤ τ ∗ (M ) +
i=1
Es gilt
∗
τ (Cn ) ≤
∞
X
τ (Cni ) ≤ τ ∗ (M ) +
i=1
Setze
C :=
∞
\
1
.
n
1
.
n
Cn ,
n=1
dann ist C ∈ Cσδ und M ⊂ C, also τ ∗ (M ) ≤ τ ∗ (C).
Andererseits ist
τ ∗ (C) ≤ τ ∗ (Cn ) ≤ τ ∗ (M ) +
1
n
für alle n ∈ N und daher τ ∗ (C) ≤ τ ∗ (M ).
Da das System C und die Funktion τ in Satz (13.4) weitgehend willkürlich sind,
haben wir eine große Vielfalt von Möglichkeiten, äußere Maße auf einer Menge
Ω zu konstruieren, und jedes solche äußere Maß liefert nach Satz (13.3) ein Maß
auf einer σ-Algebra A in Ω. Allerdings ist zu diesem Zeitpunkt noch nicht klar,
wie groß überhaupt die σ-Algebra A der µ∗ -meßbaren Teilmengen ist. Es ist
nicht ausgeschlossen, daß A nur die Mengen ∅ und Ω enthält. Nützlich wird das
110
13 KONSTRUKTION UND FORTSETZUNG VON MASSEN
Konstruktionsprinzip für Maße, das durch die Sätze (13.3) und (13.4) gegeben ist,
also nur in solchen Situationen sein, in denen weitere Informationen über C und
τ zur Verfügung stehen. Eine erste wichtige Anwendung ist der folgende Satz.
(13.6) Satz (Maßerweiterungssatz). Jedes Maß µ auf einem Ring R in Ω läßt
sich fortsetzen zu einem Maß auf der von R in Ω erzeugten σ-Algebra.
Genauer: Ist µ∗ das durch (R, µ) auf Ω induzierte äußere Maß und A∗ die σAlgebra der µ∗ -meßbaren Teilmengen, so gilt A(R) ⊂ A∗ und µ∗ |R = µ.
Beweis. Sei µ∗ das durch (R, µ) induzierte äußere Maß auf Ω. Wir zeigen, daß R
in der σ-Algebra A∗ aller µ∗ -meßbaren Teilmengen von Ω enthalten ist. Sei also
A ∈ R. Wir müssen zeigen, daß A eine µ∗ -meßbare Menge ist, also
µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac )
für alle M ⊂ Ω erfüllt. Ist µ∗ (M ) = ∞, soSist nichts zu zeigen. Sei also µ∗ (M ) <
∞. Sei (Bn )n∈N eine Folge in R mit M ⊂ Bn . Wegen der Additivität von µ gilt
∞
X
µ(Bn ) =
n=1
∞
X
µ(Bn ∩ A) +
n=1
Wegen
M ∩A⊂
∞
[
∞
X
µ(Bn ∩ Ac ).
n=1
(Bn ∩ A),
c
M ∩A ⊂
∞
[
(Bn ∩ Ac )
n=1
n=1
und
Bn ∩ A ∈ R,
folgt
∞
X
Bn ∩ Ac ∈ R
µ(Bn ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ).
n=1
Da dies für jede bei der Definition von µ∗ (M ) zulässige Folge (Bn )n∈N gilt, folgt
µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ).
Damit ist A ∈ A∗ gezeigt.
Wegen R ⊂ A∗ gilt auch A(R) ⊂ A∗ . Die Einschränkung µ∗ |A∗ ist nach (13.3)
ein Maß, daher ist auch die Einschränkung µ∗ |A(R) ein Maß. [Bis hier wurde nur
endliche Additivität von µ benutzt.]
∗
Es bleibt zu zeigen, daß µ∗ |R = µ ist. Sei A ∈ R. Nach der Definition
S von µ gilt
∗
µ (A) ≤ µ(A). Ist andererseits (Bn )n∈N eine Folge in R mit A ⊂ n∈N Bn , so gilt
nach (2.4)(e) (angewendet mit Ai := A ∩ Bi )
µ(A) ≤
∞
X
i=1
µ(A ∩ Bi ) ≤
∞
X
i=1
µ(Bi );
111
daraus folgt µ(A) ≤ µ∗ (A). Also ist µ(A) = µ∗ (A) für A ∈ R.
Beim Beweis des vorstehenden Maßerweiterungssatzes fällt auf, daß wir erst ein
Maß auf der σ-Algebra A∗ der µ∗ -meßbaren Teilmengen erhalten und dieses dann
auf die von R erzeugte σ-Algebra A(R) eingeschränkt haben. Es fragt sich, was
diese beiden σ-Algebren miteinander zu tun haben. Falls das Ausgangsmaß µ
auf R σ-endlich ist, läßt sich diese Frage beantworten: A∗ ist einfach die µ∗ Vervollständigung von A(R). Im σ-endlichen Fall ist es darüber hinaus möglich,
die Struktur der µ∗ -meßbaren Teilmengen genauer zu beschreiben.
(13.7) Satz. Seien µ ein σ-endliches Maß auf dem Ring R in Ω, µ∗ das durch
(R, µ) auf Ω induzierte äußere Maß und A∗ die σ-Algebra der µ∗ -meßbaren Teilmengen. Dann ist jede Menge M ∈ A∗ von der Form M = A \ B mit A ∈ Rσδ ,
B ∈ A∗ und µ∗ (B) = 0.
Insbesondere ist das Maß µ∗ |A∗ die Vervollständigung des Maßes µ∗ |A(R).
S
Beweis. Nach Voraussetzung gibt es in R eine Folge (Ei )i∈N mit Ω = i∈N Ei und
µ(Ei ) < ∞ für i ∈ N. Sei M ∈ A∗ . Zu i ∈ N und n ∈ N gibt es in R eine Folge
(Anij )j∈N mit
∞
[
M ∩ Ei ⊂
Anij =: Ani
j=1
und
µ∗ (Ani ) ≤ µ∗ (M ∩ Ei ) +
1
.
n2i
(vgl. Beweis von Satz (13.5)). Setze
An :=
∞
[
Ani .
i=1
Dann gilt M ⊂ An und An \ M ⊂
∗
µ (An \ M ) ≤
∞
X
S∞
i=1 (Ani
\ (M ∩ Ei )), also
µ∗ (Ani \ (M ∩ Ei ))
i=1
=
∞
X
[µ∗ (Ani ) − µ∗ (M ∩ Ei )]
i=1
∞
X
1
1
= .
≤
i
n2
n
i=1
da Ani , M, Ei ∈ A∗
und µ∗ (M ∩ Ei ) ≤
µ∗ (Ei ) = µ(Ei ) < ∞
112
13 KONSTRUKTION UND FORTSETZUNG VON MASSEN
T
Setze A := ∞
n=1 An . Dann gilt M ⊂ A und A ∈ Rσδ . Für jedes n ∈ N gilt
A \ M ⊂ An \ M , also
µ∗ (A \ M ) ≤ µ∗ (An \ M ) ≤
1
n
und daher µ∗ (A \ M ) = 0. Die Menge B := A \ M leistet also das Gewünschte.
Sei nun (Ω, Â, µ̂) die Vervollständigung des Maßraums (Ω, A(R), µ∗ |A(R)). Da
µ∗ |A∗ nach Satz (13.3) vollständig ist, gilt  ⊂ A∗ und µ̂ = µ∗ |Â. Andererseits
gibt es für M ∈ A∗ eine Darstellung M = A \ B mit A ∈ Rσδ ⊂ A(R) und
µ∗ (B) = 0. Nach Satz (13.5) gibt es eine Menge C ∈ Rσδ ⊂ A(R) mit B ⊂ C
und µ∗ (C) = µ∗ (B) = 0. Es folgt B ∈ Â und somit M ∈ Â. Es ist also A∗ = Â
und daher (Ω, A∗ , µ∗ |A∗ ) = (Ω, Â, µ̂).
Nach dem Maßerweiterungssatz (13.6) läßt sich jedes Maß µ auf einem Ring R
fortsetzen zu einem Maß auf der von R erzeugten σ-Algebra. Diese Fortsetzung
ist im allgemeinen nicht eindeutig bestimmt, wie das folgende Beispiel zeigt. Sei
Ω eine überabzählbare Menge, sei
R := {A ⊂ Ω : A abzählbar},
A := {A ⊂ Ω : A oder Ac abzählbar},
µ1 (A) := 0 für A ∈ A,
(
0,
wenn A abzählbar,
µ2 (A) :=
∞, wenn Ac abzählbar.
A∈A
Dann ist R ein Ring, A die von R erzeugte σ-Algebra, µ1 und µ2 sind verschiedene
Maße auf A mit µ1 |R = µ2 |R.
Für σ-endliche Maße ist die Fortsetzung jedoch eindeutig bestimmt. Dies ergibt sich aus dem folgenden allgemeineren Eindeutigkeitssatz für Maße, der von
selbständigem Interesse ist. Er zeigt insbesondere, daß ein endliches Maß durch
seine Werte auf einem ∩-stabilen Erzeugendensystem der zugrundeliegenden σAlgebra eindeutig bestimmt ist.
(13.8) Satz. Seien µ1 , µ2 Maße auf dem meßbaren Raum (Ω, A), sei E ein ∩stabiles Erzeugendensystem von A. Es gebe eine Folge (En )n∈N in E mit En ↑ Ω
und µi (En ) < ∞ für n ∈ N und i = 1, 2. Gilt
µ1 (E) = µ2 (E)
dann ist µ1 = µ2 .
für alle E ∈ E,
113
Beweis. Sei E ∈ E eine Menge mit µ1 (E) = µ2 (E) < ∞. Setze
DE := {A ∈ A : µ1 (A ∩ E) = µ2 (A ∩ E)}.
Da E ∩-stabil ist, gilt E ⊂ DE . Wir zeigen, daß DE ein Dynkin-System ist.
Trivialerweise gilt Ω ∈ DE . Sei A, B ∈ DE und A ⊂ B. Dann ist
µ1 ((B \ A) ∩ E) = µ1 ((B ∩ E) \ (A ∩ E))
= µ1 (B ∩ E) − µ1 (A ∩ E)
nach (2.4) (c)
= µ2 (B ∩ E) − µ2 (A ∩ E)
= µ2 ((B \ A) ∩ E),
also B \ A ∈ DE . Sei (An )n∈N eine disjunkte Folge in DE . Dann ist
!
!
[
X
X
[
µ1
An ∩ E =
µ1 (An ∩ E) =
µ2 (An ∩ E) = µ2
An ∩ E ,
n∈N
also
S
n∈N
n∈N
n∈N
n∈N
An ∈ DE . Somit ist DE ein Dynkin-System.
Nach Satz (1.7)(b) ist jetzt A = A(E) = D(E) ⊂ DE , also gilt µ1 (A ∩ E) =
µ2 (A ∩ E) für alle A ∈ A. Dies gilt insbesondere für E = En und n ∈ N, wenn
(En )n∈N die im Satz vorausgesetzte Folge ist. Für beliebiges A ∈ A folgt daher
wegen A ∩ En ↑ A und Satz (2.6)
µ1 (A) = lim µ1 (A ∩ En ) = lim µ2 (A ∩ En ) = µ2 (A).
n→∞
n→∞
Jetzt können wir den Maßerweiterungssatz durch eine Eindeutigkeitsaussage
ergänzen:
(13.9) Satz. Sei µ ein σ-endliches Maß auf dem Ring R in Ω. Dann ist die
Fortsetzung von µ zu einem Maß auf A(R) eindeutig bestimmt.
Beweis. Dies folgt aus Satz (13.8), wenn man E = R wählt. Da das
S Maß µ als
σ-endlich vorausgesetzt ist, gibt es in R eine Folge (An )n∈N mit n∈N An = Ω
und µ(An ) < ∞. Man setze dann En := A1 ∪ . . . ∪ An .
14
Spezielle Maße
Die allgemeinen Konstruktions- und Fortsetzungsprinzipien aus §13 sollen nun
verwendet werden, um einige in den Anwendungen wichtige konkrete Maße einzuführen. Vor allem sind wir jetzt in der Lage, entsprechend den als Ausgangspunkt dienenden heuristischen Erläuterungen das elementare Volumen zu einem
114
14 SPEZIELLE MASSE
Maß fortzusetzen. Wir erhalten so erneut das bereits aus Analysis II bekannte Lebesguesche Maß. Dieser andere Zugang wird aber trotzdem in allen Einzelheiten
ausgeführt; er liefert uns auch zusätzliche Informationen über das Lebesguesche
Maß.
Das Lebesguesche Maß
Anders als früher bezeichnen wir Elemente des Rn jetzt mit kleinen Buchstaben.
Auf Rn führen wir (zur Vereinfachung der Schreibweise) die Relationen ≤, < ein
durch
a ≤ b : ⇔ αi ≤ βi
für i = 1, . . . , n
a < b : ⇔ αi < βi
für i = 1, . . . , n
für a = (α1 , . . . , αn ), b = (β1 , . . . , βn ) ∈ Rn . Für a, b ∈ Rn setzen wir
[a, b) := {x ∈ Rn : a ≤ x < b}
und nennen [a, b) ein nach rechts halboffenes Intervall, kurz ein Intervall.
(14.1) Satz und Def. Die Menge F n aller endlichen Vereinigungen von Intervallen in Rn ist ein Ring. Seine Elemente heißen (n-dimensionale) elementare
Figuren. Jede elementare Figur ist als endliche disjunkte Vereinigung von Intervallen darstellbar.
Beweis. Trivialerweise gilt ∅ ∈ F n und mit A, B ∈ F n auch A ∪ B ∈ F n .
Seien A = [a, b), B = [c, d) zwei halboffene Intervalle. Mit x = (ξ1 , . . . , ξn ),
c = (γ1 , . . . , γn ) u.s.w. gilt
A\B =
n
[
{x ∈ Rn : a ≤ x < b, γi ≤ ξi < δi (i = 1, . . . , k − 1), ξk < γk }
k=1
∪
n
[
{x ∈ Rn : a ≤ x < b, γi ≤ ξi < δi (i = 1, . . . , k − 1), δk ≤ ξk },
k=1
womit A\B als (sogar disjunkte) endliche Vereinigung von Intervallen dargestellt
ist.
Seien A, B ∈ F n . Dann gibt es Darstellungen
A = ∪Ai , B = ∪Bj mit endlich
S
vielen Intervallen Ai , Bj . Aus A ∩ B = i,j (Ai ∩ Bj ) folgt A ∩ B ∈ F n , da Ai ∩ Bj
ein Intervall ist. Ferner gilt
[\
A\B =
(Ai \ Bj ).
i
j
115
Wie oben gezeigt, gilt Ai \ Bj ∈ F n , also auch
A \ B ∈ F n . Somit ist F n ein Ring.
T
j (Ai
\ Bj ) ∈ F n und daher
Es bleibt zu zeigen, daß jede elementareSFigur als disjunkte endliche Vereinigung
von Intervallen darstellbar ist. Sei A = i Ai ∈ F n mit endlich vielen Intervallen
A1 , . . . , Am . Dann ist
A=
m
[
[Ak \ (A1 ∪ . . . ∪ Ak−1 )],
k=1
wo rechts eine disjunkte Vereinigung steht, und
Ak \ (A1 ∪ . . . ∪ Ak−1 ) =
k−1
\
(Ak \ Ai )
i=1
ist als disjunkte Vereinigung von Intervallen schreibbar, da dies für jedes Ak \ Ai
zutrifft.
(14.2) Satz und Def. Sei B n die vom Ring F n der elementaren Figuren in Rn
erzeugte σ-Algebra. B n ist zugleich die vom System der offenen Mengen des Rn
erzeugte σ-Algebra. Die Elemente von B n heißen Borelmengen des Rn .
Beweis. Sei On das System der offenen Mengen des Rn . Für a, b ∈ Rn sei (a, b) :=
{x ∈ Rn : a < x < b}. Dann gilt mit e := (1, . . . , 1) ∈ Rn
∞ \
1
[a, b) =
a − e, b ∈ A(On ),
k
k=1
also B n = A(F n ) ⊂ A(On ). Für jede offene Menge M ∈ On gilt
[
M=
{[a, b) : [a, b) ⊂ M ; a, b rational} ,
wobei a = (α1 , . . . , αn ) rational heißt, wenn α1 , . . . , αn rationale Zahlen sind. Da
rechts eine abzählbare Vereinigung steht, ist M ∈ B n . Es folgt A(On ) ⊂ Bn .
Auf F n erklären wir nun den elementaren Inhalt.
(14.3) Satz und Def. Für a = (α1 , . . . , αn ), b = (β1 , . . . , βn ) ∈ Rn mit a < b ist
das Volumen des Intervalls [a, b) erklärt durch
λ([a, b)) := (β1 − α1 ) · · · (βn − αn ).
Ist A ∈ F n eine elementare Figur, so sei
λ(A) :=
k
X
j=1
λ(Aj )
116
14 SPEZIELLE MASSE
S
gesetzt, wenn A = kj=1 Aj ist und A1 , . . . , Ak paarweise disjunkte Intervalle sind;
ferner sei λ(∅) := 0. Dadurch wird ein Maß λ auf dem Ring F n erklärt.
Beweis. Zunächst ist zu zeigen, daß die Definition von λ auf F n sinnvoll ist. Für
γ ∈ R und i ∈ {1, . . . , n} sei
Hi− (γ) := {x = (ξ1 , . . . , ξn ) ∈ Rn : ξi < γ},
Hi+ (γ) := {x = (ξ1 , . . . , ξn ) ∈ Rn : γ ≤ ξi }
gesetzt. Für ein Intervall [a, b) gilt dann
λ([a, b)) = λ([a, b) ∩ Hi− (γ)) + λ([a, b) ∩ Hi+ (γ)).
(9)
O.B.d.A. sei nämlich αi < γ < βi , dann ist
λ([a, b) ∩ Hi− (γ)) = (β1 − α1 ) · · · (γ − αi ) · · · (βn − αn ),
und eine analoge Darstellung für λ([a, b)∩Hi+ (γ)) gibt nach Addition das Ergebnis
(9).
S
Sei A ein Intervall und A = kj=1 Aj mit nichtleeren, paarweise disjunkten Intervallen A1 , . . . , Ak . Wir behaupten, daß
λ(A) =
k
X
λ(Aj )
j=1
gilt, und beweisen dies durch Induktion nach k. Für k = 1 ist nichts zu zeigen. Sei
k ≥ 2 und die Behauptung bereits bewiesen für alle Darstellungen von Intervallen
in der angegebenen Art mit weniger als k nichtleeren Teilintervallen. Sei Aj =
[aj , bj ) für j = 1, . . . , k. Wegen A1 ∩ A2 = ∅ existiert ein i ∈ {1, . . . , n} mit
βi1 ≤ αi2 oder βi2 ≤ αi1 . Sei etwa βi1 ≤ αi2 , und sei H ± := Hi± (βi1 ) gesetzt. Dann
gilt
[a1 , b1 ) ∩ H + = ∅ und [a2 , b2 ) ∩ H − = ∅,
also Aj ∩ H + 6= ∅ höchstens für k − 1 Indizes j ∈ {1, . . . , k}, analog Aj ∩ H − 6= ∅
höchstens für k − 1 Indizes. Nach Induktionsannahme und der Gleichung (9) ist
daher
λ(A) = λ(A ∩ H − ) + λ(A ∩ H + )
!
!
[
[
= λ
(Aj ∩ H − ) + λ
(Aj ∩ H + )
j
=
X
j
λ(Aj ∩ H − ) +
j
X
j
λ(Aj ∩ H + ) =
X
j
λ(Aj ).
117
Damit ist der Induktionsbeweis beendet.
S
Nun sei A ∈ F n beliebig. Nach Satz (14.1) gibt es eine Darstellung A = ki=1 Ai
mit paarweise disjunkten Intervallen Ai . Zum Nachweis, daß die Definition
λ(A) :=
k
X
λ(Ai )
i=1
sinnvoll ist, also nicht von
S der speziellen Darstellung abhängt, nehmen wir eine
zweite Darstellung A = m
j=1 Bj mit disjunkten Intervallen Bj an. Es gilt
Ai =
[
(Ai ∩ Bj ),
Bj =
[
j
(Ai ∩ Bj ),
i
also ergibt sich unter Verwendung des vorher Bewiesenen
!
X
X X
λ(Ai ) =
λ(Ai ∩ Bj )
i
i
j
!
=
X X
j
λ(Ai ∩ Bj )
=
X
i
λ(Bj ).
j
Die Definition von λ(A) ist also sinnvoll. Daß λ ein (endlicher) Inhalt auf F n ist,
ist klar.
Es bleibt zu zeigen, daß λ ein Maß ist. Sei (Ai )i∈N eine disjunkte Folge in F n mit
S
n
i∈N Ai =: A ∈ F . Nach Satz (12.4)(b) gilt
λ(A) ≥ λ
k
[
!
Ai
i=1
für k ∈ N, also ist
λ(A) ≥
=
k
X
λ(Ai )
i=1
∞
X
λ(Ai ).
i=1
Folgende Hilfsbehauptung ist leicht zu zeigen. Zu C ∈ F n und > 0 gibt es
B1 , B2 ∈ F n mit
B 1 ⊂ C ⊂ B2o
und
λ(B2 ) − < λ(C) < λ(B1 ) + ,
wo − und o die abgeschlossene Hülle bzw. den offenen Kern bezeichnen. Diese Behauptung ist klar, wenn C ein Intervall ist, und sie läßt sich leicht auf elementare
Figuren ausdehnen.
118
14 SPEZIELLE MASSE
Nun sei > 0 vorgegeben. Es gibt ein B ∈ F n mit B ⊂ A und λ(A) < λ(B) + ;
ferner gibt es zu jedem i ∈ N ein Bi ∈ F n mit Ai ⊂ Bio und λ(Bi ) − 2−i <
λ(Ai ). Das System {Bio : i ∈ N} ist eine offene Überdeckung der abgeschlossenen,
beschränkten Menge B. Nach dem Überdeckungssatz von Heine-Borel existiert
eine Zahl k mit
k
k
[
[
o
Bi ⊂
Bi .
B⊂B⊂
i=1
i=1
Nach Satz (12.4) folgt
λ(B) ≤ λ
k
[
!
Bi
i=1
also
λ(A) − <
k
X
i=1
≤
k
X
λ(Bi ),
i=1
k
∞
X
X
λ(Ai ) +
<
λ(Ai ) + .
2i
i=1
i=1
Da > 0 beliebig war, folgt
λ(A) ≤
∞
X
λ(Ai )
i=1
und damit die σ-Additivität von λ.
Wir haben also jetzt ein Maß auf einem Ring und können somit den Maßerweiterungssatz (13.6) anwenden. Dementsprechend bilden wir das von (F n , λ) auf
Rn induzierte äußere Maß λ∗ und die σ-Algebra Ln der λ∗ -meßbaren Teilmengen.
Nach Satz (13.6) ist die von F n erzeugte σ-Algebra B n der Borelmengen enthalten in Ln , und λ∗ stimmt auf F n mit dem Volumen λ überein. Es ist üblich, auch
das Maß λ∗ |Ln mit λ zu bezeichnen.
(14.4) Def. Sei λ das in Def. (14.3) erklärte elementare Volumen auf dem Ring
F n der elementaren Figuren. Das durch (F n , λ) induzierte äußere Maß λ∗ auf
Rn heißt das (n-dimensionale) äußere Lebesguesche Maß. Die λ∗ -meßbaren Teilmengen von Rn heißen Lebesgue-meßbar. Die (ebenfalls mit λ bezeichnete) Einschränkung von λ∗ auf die σ-Algebra Ln der Lebesgue-meßbaren Teilmengen heißt
(n-dimensionales) Lebesguesches Maß.
Das elementare Volumen λ auf F n ist offenbar σ-endlich. Nach Satz (13.7) ist
daher λ auf Ln die Vervollständigung der Einschränkung λ|Bn . Jede Lebesguemeßbare Menge M ist also von der Form B ∪ N , wo B eine Borelmenge und N
eine Menge mit λ∗ (N ) = 0, also eine Lebesgue-meßbare Menge mit λ(N ) = 0
(eine Lebesgue-Nullmenge) ist. Diese Aussage wird in Satz (14.7) verschärft. Nach
Satz (13.9) ist λ|B n die einzige Fortsetzung des elementaren Volumens zu einem
119
Maß auf den Borelmengen, und das Lebesgue-Maß ist daher auch die einzige
Fortsetzung zu einem vollständigen Maß auf den Lebesgue-meßbaren Mengen.
Der hier vorkommende wichtige Begriff der Lebesgue-Nullmenge (meist kurz
Nullmenge“) soll noch einmal besonders herausgestellt werden:
”
(14.5) Satz und Def. Für eine Menge M ⊂ Rn sind die folgenden Aussagen
äquivalent:
(a) Zu jedemP
> 0 existiert eine Folge (Ri )i∈N von Intervallen in Rn mit M ⊂
S
i∈N Ri und
i∈N λ(Ri ) < ,
(b) λ∗ (M ) = 0,
(c) M ist Lebesgue-meßbar und λ(M ) = 0.
Eine Menge M mit dieser Eigenschaft heißt Lebesgue-Nullmenge.
Was hier behauptet wird, ist schon alles bekannt: (a) ⇔ (b) folgt aus der Definition des induzierten äußeren Maßes, und in Satz (13.3) wurde gezeigt, daß
jede Menge M mit λ∗ (M ) = 0 auch λ∗ -meßbar ist; aus (b) folgt also (c). Die
Implikation (c) ⇒ (b) ist klar.
Obwohl Lebesgue-meßbare Mengen recht kompliziert sein können, sind die Werte
des Lebesgue-Maßes schon bestimmt durch die Werte auf topologisch einfachen
Mengen, nämlich offenen oder kompakten Mengen. Der folgende Satz bringt die
sogenannte Regularität des Lebesgue-Maßes zum Ausdruck.
(14.6) Satz. Für jede Lebesgue-meßbare Menge A ∈ Ln gilt
(a) λ(A) = inf{λ(U ) : A ⊂ U, U offen},
(b) λ(A) = sup{λ(K) : K ⊂ A, K kompakt}.
Beweis. (a) Im Fall λ(A) = ∞ ist nichts zu zeigen, sei also λ(A) < ∞. Trivialerweise ist λ(A) ≤ inf{λ(U ) : A ⊂ U, U offen}.
Sei > 0. Nach Definition des Lebesgue-Maßes existiert eine Folge (Fj )j∈N von
elementaren Figuren mit
[
X
A⊂
Fj und
λ(Fj ) < λ(A) + .
j∈N
j∈N
Jedes Fj ist disjunkte Vereinigung von endlich vielen Intervallen. Wir können
jedes dieser Intervalle in ein offenes Intervall einschließen derart, daß für die
erhaltene Folge (Ri )i∈N der offenen Intervalle
[
X
A⊂
Ri und
λ(Ri ) < λ(A) + 2
i∈N
i∈N
120
14 SPEZIELLE MASSE
gilt. Setze U :=
S
i∈N
Ri . Dann ist U offen, A ⊂ U und
λ(U ) ≤
X
λ(Ri ) < λ(A) + 2.
i∈N
Da > 0 beliebig war, folgt (a).
(b) Zunächst sei A beschränkt. Sei C eine kompakte Menge mit A ⊂ C. Sei > 0.
Nach (a) existiert eine offene Menge U mit
C \A⊂U
und
λ(U ) < λ(C \ A) + = λ(C) − λ(A) + .
Setze K := C \ U . Dann ist K kompakt, K ⊂ A, und es gilt
λ(K) = λ(C) − λ(U ∩ C) ≥ λ(C) − λ(U ) > λ(A) − .
Daraus folgt (b) für beschränktes A.
Sei A unbeschränkt und b eine beliebige Zahl mit b < λ(A). Für
Aj := A ∩ {x ∈ Rn : kxk ≤ j}
gilt Aj ↑ A, also λ(A) = limj→∞ λ(Aj ). Daher existiert ein m mit λ(Am ) > b.
Nach dem bereits Gezeigten gibt es eine kompakte Menge K mit K ⊂ Am ⊂ A
und λ(K) > b. Daraus folgt die Behauptung (b).
Wir können das Ergebnis benutzen, um die oben erwähnte Beschreibung der
Lebesgue-meßbaren Mengen zu präzisieren. Eine Menge M ⊂ Rn heißt Fσ -Menge,
wenn sie als Vereinigung einer Folge abgeschlossener Mengen darstellbar ist. Jede
Fσ -Menge ist also eine Borelmenge, aber von sehr spezieller Art.
(14.7) Satz. Eine Menge M ⊂ Rn ist genau dann Lebesgue-meßbar, wenn sie
von der Form
M =F ∪N
mit einer Fσ -Menge F und einer Lebesgue-Nullmenge N ist.
Beweis. Daß jede Menge dieser Form Lebesgue-meßbar ist, ist klar, da F ∈ B n gilt
und λ vollständig ist. Umgekehrt sei M ∈ Ln und zunächst λ(M ) < ∞. Zu i ∈ N
existiert nach
S Satz (14.6) eine kompakte Menge Ki ⊂ M mit λ(M \ Ki ) < 1/i.
Setze F := i∈N Ki und N := M \ F . Dann ist F eine Fσ -Menge und
λ(N ) = λ(M \ F ) ≤ λ(M \ Ki ) <
für alle i, somit λ(N ) = 0.
1
i
121
Die Ausdehnung auf Mengen mit λ(M ) = ∞ kann wie im Beweis von Satz (14.6)
geschehen.
Bemerkung. Unter Verwendung des Auswahlaxioms kann man zeigen, daß
es Teilmengen von R gibt, die nicht Lebesgue-meßbar sind. Ferner kann man
Lebesgue-meßbare Mengen konstruieren, die keine Borelmengen sind.
Das Lebesguesche Maß hat eine wichtige Invarianzeigenschaft, und es ist auch
dadurch gekennzeichnet.
(14.8) Def. Eine Funktion ϕ auf einem System S ⊂ P(Rn ) heißt translationsinvariant (bewegungsinvariant), wenn für jede Translation (bzw. Bewegung)
f : Rn → Rn und alle S ∈ S gilt: f (S) ∈ S und ϕ(f (S)) = ϕ(S).
Wir bemerken zunächst, daß der Begriff der Borelmenge bewegungsinvariant ist,
d.h. mit B ∈ B n und einer Bewegung β des Rn gilt auch βB ∈ B n . Bilden wir
nämlich β −1 B n := {β −1 B : B ∈ B n }, so ist β −1 B n offenbar eine σ-Algebra, die die
offenen Mengen enthält, also ist B n ⊂ β −1 B n . Jede Menge B ∈ B n ist also von der
Form B = β −1 A mit A ∈ B n , somit ist βB = A ∈ B n . Ist ferner M eine LebesgueNullmenge, so ist leicht zu zeigen, daß auch βM eine Lebesgue-Nullmenge ist.
[In (14.5)(a) kann man sich auf rationale Intervalle beschränken und daher auf
achsenparallele Würfel. Ist W ⊂ Rn ein achsenparalleler Würfel der Kantenlänge
n
a und β eine Bewegung des
√ R , so ist βW enthalten in einem achsenparallelen
Würfel der Kantenlänge a n.] Es folgt, daß für jede Lebesgue-meßbare Menge
M und jede Bewegung β auch βM Lebesgue-meßbar ist. Da sich das elementare
Volumen von Intervallen bei Translationen nicht ändert, ist leicht einzusehen, daß
das Lebesguesche Maß translationsinvariant ist. Durch diese Eigenschaft ist es im
wesentlichen gekennzeichnet, wie der folgende Satz zeigt. Wir setzen Wk := [0, k1 e)
mit e := (1, . . . , 1) ∈ Rn .
(14.9) Satz. Ist µ ein translationsinvariantes Maß auf B n mit µ(W1 ) < ∞, so
gilt µ(B) = cλ(B) für B ∈ B n , wo c = µ(W1 ) ist.
Beweis. Setze µ(W1 ) =: c. Sei k ∈ N. Der Würfel W1 ist disjunkte Vereinigung
von k n Würfeln, von denen jeder durch eine Translation aus Wk hervorgeht. Es
ist also
k n µ(Wk ) = µ(W1 ) = cλ(W1 ) = ck n λ(Wk ),
denn nach Definition ist λ(W1 ) = 1, und λ ist auf den Intervallen translationsinvariant. Also ist µ(Wk ) = cλ(Wk ). Jedes halboffene Intervall [a, b) mit rationalen
a, b ist für geeignetes k ∈ N disjunkte Vereinigung von Würfeln, die durch Translation aus Wk hervorgehen. Daraus folgt µ([a, b)) = cλ([a, b)). Da das System aller
Intervalle [a, b) mit rationalen a, b offenbar ein ∩-stabiles Erzeugendensystem von
B n ist, folgt die Behauptung µ = cλ aus Satz (13.8).
122
14 SPEZIELLE MASSE
Der Nachweis, daß λ auch bewegungsinvariant ist, läßt sich nicht unmittelbar so
führen wie der Nachweis der Translationsinvarianz, denn das Bild eines Intervalls
unter einer Bewegung ist i.a. kein Intervall (Intervalle sind bei uns achsenparal”
lel“!). Wir können aber folgendermaßen schließen. Sei β eine Bewegung des Rn .
Wir setzen µ(B) := λ(βB) für B ∈ B n . Dann ist sofort zu sehen, daß µ ein translationsinvariantes Maß auf B n ist mit µ(W1 ) < ∞. Nach Satz (14.9) gibt es also
eine Konstante c ≥ 0 mit µ(B) = cλ(B) für B ∈ B n . Wählen wir für B eine Kugel, so folgt c = 1. Da das System der Lebesgue-Nullmengen bewegungsinvariant
ist, folgt die Bewegungsinvarianz des Lebesgue-Maßes.
Lebesgue-Stieltjes-Maße
Die Konstruktion des Lebesgueschen Maßes läßt sich verallgemeinern und liefert
dann die sogenannten Lebesgue-Stieltjes-Maße. Wir wollen hiervon nur kurz den
eindimensionalen Fall behandeln. Man geht dabei aus von einer monoton nicht
abnehmenden, linksseitig stetigen Funktion F : R → R. Eine solche Funktion
heißt in diesem Zusammenhang auch maßerzeugende Funktion. Für jedes halboffene Intervall [a, b) ⊂ R setzen wir
µ([a, b)) := F (b) − F (a).
Auf dem Ring F 1 aller endlichen Vereinigungen von halboffenen Intervallen wird
durch die Festsetzung
k
X
µ(A) :=
µ([ai , bi )),
i=1
1
wenn A ∈ F die disjunkte Vereinigung der Intervalle [ai , bi ) (i = 1, . . . , k) ist,
ein Inhalt µ erklärt (vgl. Beweis von Satz (14.3)). Wir zeigen, daß µ ein Maß auf
F 1 ist. Dies kann genau wie im Beweis von Satz (14.3) geschehen, wenn wir die
folgende Hilfsbehauptung zeigen: Zu C ∈ F 1 und ∈ R+ gibt es B1 , B2 ∈ F 1
mit B 1 ⊂ C ⊂ B2o und µ(B2 ) − < µ(C) < µ(B1 ) + . Es genügt offenbar, dies
für den Fall eines Intervalls C = [a, b) zu zeigen (a, b ∈ R, a < b). Da nun F als
linksseitig stetig vorausgesetzt ist, gibt es zu gegebenem ∈ R+ Zahlen a0 , b0 ∈ R
mit a0 < a und a < b0 < b, so daß F (a0 ) > F (a) − und F (b0 ) > F (b) − gilt. Die
Intervalle B1 := [a, b0 ) und B2 := [a0 , b) leisten dann offenbar das Gewünschte. Da
also µ ein (offenbar σ-endliches) Maß auf F 1 ist, existiert nach den Sätzen (13.6)
und (13.9) genau eine Fortsetzung von µ zu einem Maß auf der von F 1 erzeugten
σ-Algebra, also B 1 . Die Fortsetzung sei ebenfalls mit µ bezeichnet. Man nennt µ
das von F erzeugte Lebesgue-Stieltjes-Maß und F eine maßerzeugende Funktion
von µ.
Sei umgekehrt µ ein Maß auf B 1 mit µ([a, b)) < ∞ für alle beschränkten Intervalle
[a, b). Setzt man
(
µ([0, x))
für x ≥ 0,
F (x) :=
−µ([x, 0))
für x < 0,
123
so ist F eine maßerzeugende Funktion mit F (0) = 0 und µ das von ihr erzeugte Lebesgue-Stieltjes-Maß. Jede andere maßerzeugende Funktion, die ebenfalls µ erzeugt, unterscheidet sich von F offenbar nur um eine additive Konstante. Bei endlichen Maßen ist es üblich, diese Konstante durch die Forderung
limx→−∞ F (x) = 0 eindeutig festzulegen. In diesem Fall ist also der Zusammenhang zwischen µ und F gegeben durch
F (x) := µ((−∞, x))
für x ∈ R.
Ist µ ein Wahrscheinlichkeitsmaß, so nennt man die so definierte Funktion F die
Verteilungsfunktion von µ.
Maße auf metrischen Räumen
Das Lebesguesche Maß auf dem Rn ist eine Verallgemeinerung des Volumens. Es
ist daher geeignet zur Ausmessung von Mengen, die in gewissem Sinne (ohne daß
wir das näher präzisieren wollen) n-dimensional sind. Niederdimensionale Gebilde
wie Kurven oder Flächen sind dagegen Lebesgue-Nullmengen. In diesem Unterabschnitt wollen wir eine Klasse von Maßen behandeln, die zur Ausmessung auch
solcher Mengen geeignet sind. Die Konstruktion dieser Maße läßt sich allgemein
in metrischen Räumen durchführen.
Wir setzen daher jetzt voraus, daß auf der Grundmenge Ω eine Metrik ρ gegeben
ist. In Analogie zum Rn (mit der Standardmetrik) verstehen wir unter Borelmengen des metrischen Raumes (Ω, ρ) die Elemente der vom System der offenen
Mengen erzeugten σ-Algebra. Ferner sei erinnert an die Definition
ρ(A, B) := inf{ρ(a, b) : a ∈ A, b ∈ B}
für A, B ⊂ Ω. Wir schreiben ρ({x}, B) =: ρ(x, B).
In §13 haben wir ein allgemeines Konstruktionsprinzip für Maße beschrieben:
Satz (13.4) liefert eine große Klasse von äußeren Maßen, und nach Satz (13.3)
ist für jedes äußere Maß µ∗ auf Ω die Menge der µ∗ -meßbaren Teilmengen von
Ω eine σ-Algebra und die Einschränkung von µ∗ auf diese σ-Algebra ein Maß.
Nützlich wird das Ergebnis dieser Konstruktion allerdings nur sein können, wenn
sich hinreichend viele Mengen als µ∗ -meßbar erweisen. Man kann jedoch leicht
Beispiele äußerer Maße µ∗ auf Ω angeben, für die nur ∅ und Ω meßbar sind. Im
Falle eines metrischen Raumes gibt es nun eine einfache Zusatzbedingung, die
sicherstellt, daß mindestens alle Borelmengen meßbar sind (Satz (14.12)).
(14.10) Def. Sei (Ω, ρ) ein metrischer Raum. Ein äußeres Maß µ∗ auf Ω heißt
metrisches äußeres Maß, wenn für alle Paare A, B ⊂ Ω mit ρ(A, B) > 0 die
Gleichung
µ∗ (A ∪ B) = µ∗ (A) + µ∗ (B)
124
14 SPEZIELLE MASSE
gilt.
(14.11) Hilfssatz. Sei (Ω, ρ) ein metrischer Raum und µ∗ ein metrisches äußeres
Maß auf Ω. Sei G ⊂ Ω offen und A ⊂ G. Wird
1
c
An := x ∈ A : ρ(x, G ) ≥
für n ∈ N
n
gesetzt, so ist
lim µ∗ (An ) = µ∗ (A).
n→∞
Beweis. Da G offen ist, liegt jeder Punkt von A in An für genügend großes n, also
gilt An ↑ A. Wegen der Monotonie von µ∗ existiert limn→∞ µ∗ (An ) (in R), und es
gilt
lim µ∗ (An ) ≤ µ∗ (A).
n→∞
Zum Beweis der entgegengesetzten Ungleichung setze Bn := An+1 \ An für n ∈ N,
dann gilt für n ∈ N
A = A2n ∪
∞
[
Bk = A2n ∪
k=2n
also
µ∗ (A) ≤ µ∗ (A2n ) +
∞
[
B2k ∪
k=n
∞
X
k=n
µ∗ (B2k ) +
∞
[
B2k+1 ,
k=n
∞
X
µ∗ (B2k+1 ).
k=n
Konvergieren beide Summen für n → ∞ gegen 0, so folgt
µ∗ (A) ≤ lim µ∗ (A2n ) = lim µ∗ (An ),
n→∞
n→∞
wie gewünscht. Andernfalls konvergiert eine der Summen, etwa die erste, nicht
gegen 0, also ist
∞
X
µ∗ (B2k ) = ∞.
k=1
Nach Definition der Mengen An gilt
ρ(B2k , B2k+2 ) ≥
1
1
−
> 0.
2k + 1 2k + 2
Sei nämlich x ∈ B2k , y ∈ B2k+2 , z ∈ Gc . Dann ist ρ(x, y) ≥ ρ(x, z) − ρ(y, z).
Wegen x ∈ A2k+1 ist ρ(x, z) ≥ 1/(2k +1); wegen y ∈
/ A2k+2 ist ρ(y, z) < 1/(2k +2)
c
für geeignetes z ∈ G .
Es folgt
µ∗ (B2k ∪ B2k+2 ) = µ∗ (B2k ) + µ∗ (B2k+2 )
125
für k ∈ N. Durch Induktion folgt
∗
µ (A2n ) ≥ µ
∗
n−1
[
!
B2k
=
k=1
n−1
X
µ∗ (B2k ) → ∞
für n → ∞,
k=1
also
lim µ∗ (An ) = ∞.
n→∞
Die Ungleichung
µ∗ (A) ≤ lim µ∗ (An )
n→∞
gilt also auch in diesem Fall.
(14.12) Satz. Sei (Ω, ρ) ein metrischer Raum und µ∗ ein metrisches äußeres
Maß auf Ω. Dann ist jede Borelmenge in Ω µ∗ -meßbar.
Beweis. Zunächst sei F ⊂ Ω abgeschlossen. Sei M ⊂ Ω beliebig. Dann ist M ∩
F c ⊂ F c und F c offen; nach Satz (14.11) gibt es also eine Folge (An )n∈N von
Teilmengen von M ∩ F c mit
ρ(An , F ) ≥
1
n
für n ∈ N
und
lim µ∗ (An ) = µ∗ (M ∩ F c ).
n→∞
Es folgt
µ∗ (M ) ≥ µ∗ ((M ∩ F ) ∪ An ) = µ∗ (M ∩ F ) + µ∗ (An )
für alle n ∈ N und daher
µ∗ (M ) ≥ µ∗ (M ∩ F ) + µ∗ (M ∩ F c ).
Somit ist F eine µ∗ -meßbare Menge.
Die σ-Algebra der µ∗ -meßbaren Mengen enthält also die von den abgeschlossenen
Mengen erzeugte σ-Algebra, und dies ist die σ-Algebra der Borelmengen.
Wir gehen nun daran, auf einem metrischen Raum spezielle metrische äußere
Maße zu konstruieren; dies liefert nach dem Vorstehenden Maße auf den Borelmengen.
Das System der offenen Mengen des metrischen Raumes (Ω, ρ) werde mit O
bezeichnet. Für A ⊂ Ω bezeichne
d(A) := sup{ρ(a, b) : a, b ∈ A}
126
14 SPEZIELLE MASSE
den Durchmesser von A (mit d(∅) := 0). Für δ ∈ R+ setzen wir
Oδ := {G ∈ O : d(G) ≤ δ}.
(14.13) Satz und Def. Sei p ∈ R+ . Für G ∈ O sei
τ (G) := d(G)p .
Für δ ∈ R+ sei µpδ das gemäß Satz und Def. (13.4) durch (Oδ , τ ) auf Ω induzierte
äußere Maß. Dann ist durch
µp (M ) := sup µpδ (M )
für M ⊂ Ω
δ>0
auf Ω ein metrisches äußeres Maß µp gegeben. Es heißt das p-dimensionale
Hausdorff-Maß auf (Ω, ρ).
Bemerkung. Die Definition läßt sich folgendermaßen kurz zusammenfassen.
Nach Satz (13.4) ist
(∞
)
∞
X
[
p
µδ (M ) := inf
d(Gi )p : Gi ⊂ Ω offen, d(Gi ) ≤ δ, M ⊂
Gi .
i=1
i=1
Offenbar gilt
µpδ (M ) ≥ µpδ0 (M )
für δ ≤ δ 0 .
Daher können wir auch schreiben
nX
[ o
p
p
µ (M ) = lim inf
d(Gi ) : Gi ∈ O, d(Gi ) ≤ δ, M ⊂
Gi .
δ→0+
Beweis von Satz (14.13). Nach Satz (13.4) ist µpδ ein äußeres Maß auf Ω. Aus
µp = lim µpδ
δ→0+
folgt sofort, daß µp die Eigenschaften (13.1)(a),(b) hat. Sei (An )n∈N eine Folge in
P(Ω). Wegen (13.1)(c) für µpδ und der Monotonie von µpδ in δ folgt
!
∞
∞
∞
[
X
X
p
p
µδ
An ≤
µδ (An ) ≤
µp (An )
n=1
n=1
n=1
für alle δ > 0, also
µ
p
∞
[
n=1
!
An
= lim
δ→0+
µpδ
∞
[
n=1
!
An
≤
∞
X
n=1
µp (An ).
127
Somit ist µp ein äußeres Maß.
Seien A, B ⊂ Ω Mengen mit ρ(A, B) > 0. Ist µp (A ∪ B) = ∞, so ist wegen
µp (A ∪ B) ≤ µp (A) + µp (B) die Gleichung µp (A ∪ B) = µp (A) + µp (B) erfüllt. Sei
also µp (A ∪ B) < ∞. Sei δ ∈ R+ . Wegen µpδ (A ∪ B) < ∞ gibt es zu gegebenem
∈ R+ eine Folge (Gδk )k∈N in Oδ mit
A∪B ⊂
∞
[
Gδk
∞
X
und
k=1
d(Gδk )p ≤ µpδ (A ∪ B) + .
k=1
Sei nun δ < ρ(A, B). Dann kann keine Menge Gδk sowohl Punkte aus A als
auch Punkte aus B enthalten. Von den Mengen Gδk , die zur Überdeckung von A
gebraucht werden, wird also keine zur Überdeckung von B benötigt. Daher ist
µpδ (A)
+
µpδ (B)
≤
∞
X
d(Gδk )p ≤ µpδ (A ∪ B) + .
k=1
Da ∈ R+ beliebig war, folgt
µpδ (A ∪ B) ≥ µpδ (A) + µpδ (B).
Da dies für 0 < δ < ρ(A, B) gilt, folgt
µp (A ∪ B) ≥ µp (A) + µp (B).
Da µp ein äußeres Maß ist, gilt hier das Gleichheitszeichen. Somit ist µp ein
metrisches äußeres Maß.
(14.14) Satz und Def. Für p ∈ R+ sei µp das p-dimensionale Hausdorff-Maß
auf (Ω, ρ). Zu jeder Menge M ⊂ Ω gibt es ein eindeutig bestimmtes α ∈ R+ ∪
{0, ∞} mit
µp (M ) = ∞
für 0 < p < α,
µp (M ) = 0
für α < p < ∞.
α heißt die Hausdorff-Dimension von M .
Beweis. Sei zunächst µp (M ) < ∞ und q > p. Sei δ ∈
R+ . Wegen
µpδ (M ) ≤
S
P
p
µp (M ) < ∞ existieren Mengen Gi ∈ Oδ mit M ⊂ i Gi und
i d(Gi ) <
µp (M ) + 1. Es ist
X
X
X
d(Gi )q =
d(Gi )p d(Gi )q−p ≤ δ q−p
d(Gi )p < δ q−p (µp (M ) + 1),
also ist µqδ (M ) ≤ δ q−p (µp (M ) + 1). Da dies für alle δ ∈ R+ gilt, folgt
µq (M ) = lim µqδ (M ) = 0.
δ→0+
128
14 SPEZIELLE MASSE
Nun setze
α := inf{p ∈ R+ : µp (M ) = 0}.
Sei α < q < ∞. Nach Definition von α gibt es ein p mit α < p < q und µp (M ) = 0.
Wie oben gezeigt, gilt µq (M ) = 0. Sei 0 < q < α. Angenommen, µq (M ) < ∞.
Für q < p < α gilt nach Obigem µp (M ) = 0, entgegen der Definition von α. Also
ist µq (M ) = ∞.
Von besonderer Bedeutung sind die Hausdorff-Maße im euklidischen Raum Rn
(versehen mit der Standard-Metrik). In diesem Fall wollen wir Hδp , Hp statt µpδ ,
µp schreiben. Über Mengen M ⊂ Rn mit ganzzahliger Hausdorff-Dimension k
und 0 < Hk (M ) < ∞ gibt es eine tiefe und reichhaltige Strukturtheorie. Mengen
mit nichtganzzahliger Hausdorff-Dimension werden als Fraktale bezeichnet.
Wir beschließen dieses Kapitel mit einem Vergleich des n-dimensionalen Hausdorffmaßes Hn mit dem n-dimensionalen Lebesguemaß λ. Schränken wir zunächst
beide auf die σ-Algebra der Borelmengen ein, so können wir wegen Satz (14.9)
sofort sagen, daß
Hn (B) = cλ(B)
für B ∈ B n
mit einer Konstanten c gelten muß. Aus der Konstruktion des Hausdorffmaßes
folgt nämlich unmittelbar, daß Hn translationsinvariant ist und auf beschränkten
Mengen endlich. Wir zeigen in Satz (14.17), daß die Konstante c gegeben ist durch
c=
2n
.
κn
Dabei ist
κn = λ(B(1)),
wobei allgemein
B(r) := {x ∈ Rn : kxk ≤ r}
eine Kugel vom Radius r sei. Es ist
n
π2
κn =
,
Γ(1 + n2 )
wie in Analysis II (§13) berechnet wurde. Ferner ist λ(Br ) = κn rn , denn allgemein
gilt λ(αA) = αn λ(A), wie leicht der Definition des Lebesguemaßes zu entnehmen
ist; ebenso gilt Hp (αA) = αp Hp (A).
Wir benötigen zwei Hilfssätze.
(14.15) Hilfssatz. Ist U ⊂ Rn eine offene Menge und δ > 0, so gibt es eine
disjunkte Folge (Bi )i∈N abgeschlossener Kugeln mit
!
[
[
Bi ⊂ U, d(Bi ) < δ, λ U \
Bi = 0.
i∈N
i∈N
129
Beweis. Wir können λ(U ) < ∞ annehmen, denn daraus folgt leicht das allgemeine
Resultat. Zunächst stellen wir U als Vereinigung von abzählbar vielen Würfeln Wj
vom Durchmesser < δ dar, die paarweise keine inneren Punkte gemeinsam haben.
Im Inneren von Wj wählen wir eine Kugel Bj vom Radius > 31 Kantenlänge von
Wj , dann ist
κn
λ(Bj ) > n λ(Wj ).
3
Es folgt
!
!
[
[
X
λ U\
Bj
= λ
[Wj \ Bj ] =
[λ(Wj ) − λ(Bj )]
j∈N
j∈N
<
j∈N
h
κn κn i λ(Wj ) 1 − n = 1 − n λ(U ).
3
3
j∈N
X
S
Da U1 := U \ j∈N Bj offen ist, können wir hierauf dasselbe Verfahren anwenden,
also in U1 eine disjunkte Folge von Kugeln Cj vom Durchmesser < δ finden mit
!
[
κn λ U1 \ Cj < 1 − n λ(U1 ).
3
j
Dann ist
!!
λ U\
[
j
Bj ∪
[
j
Cj
κn 2
< 1 − n λ(U ).
3
Fortsetzung des Verfahrens (rekursive Definition) liefert die gewünschte Folge.
(14.16) Hilfssatz. Für beliebige Teilmengen A ⊂ Rn gilt die isodiametrische
Ungleichung
κn
λ∗ (A) ≤ n d(A)n .
2
Beweis. Wir skizzieren den Beweis nur. Er verwendet ein geometrisches Verfahren, die Steinersche Symmetrisierung. Zunächst dürfen wir annehmen, daß A
beschränkt ist, da sonst nichts zu zeigen ist. Sodann dürfen wir voraussetzen,
daß A abgeschlossen und konvex ist, da beim Übergang zur abgeschlossenen konvexen Hülle der Durchmesser sich nicht ändert und das äußere Lebesgue-Maß
nicht kleiner wird. Sei nun H eine Hyperebene im Rn . Für jede Gerade G senkrecht zu H werde die Strecke G ∩ A in G so verschoben, daß ihr Mittelpunkt
auf H zu liegen kommt. Die Vereinigung aller so erhaltenen Strecken werde mit
SH A bezeichnet. Man sagt, SH A gehe durch Steiner-Symmetrisierung an H aus
A hervor. Man kann leicht zeigen, daß SH A wieder abgeschlossen und konvex
ist und daß d(SH A) ≤ d(A) ist. Ferner gilt λ(SH A) = λ(A). Das wird sich
130
14 SPEZIELLE MASSE
später in der Integrationstheorie aus dem Satz von Fubini ergeben (bzw. ist aus
Analysis II bekannt). Es seien nun H1 , . . . , Hn die Koordinatenhyperebenen, also
Hi = {(ξ1 , . . . , ξn ) ∈ Rn : ξi = 0}. Die Menge A0 := SH1 · · · SHn A ist symmmetrisch zu jeder Koordinatenhyperebene und daher zentralsymmetrisch bezüglich
0. Es folgt, daß A0 enthalten ist in der Kugel B um 0 mit Radius d(A0 )/2, und
das ergibt
κn
λ(A) = λ(A0 ) ≤ λ(B) = κn (d(A0 )/2)n ≤ n d(A)n .
2
Die Gleichheit von Hn und cλ auf Ln läßt sich nun ohne Verwendung von Satz
(14.9) zeigen, und zwar in schärferer Form:
(14.17) Satz. Für beliebige A ⊂ Rn und δ > 0 gilt
Hδn (A) =
2n ∗
λ (A)
κn
(wo λ∗ das äußere Lebesguesche Maß bezeichnet).
Beweis. Sei δ > 0 gegeben. Zunächst sei I ⊂ Rn ein Intervall. Wir wählen
gemäßSHilfssatz (14.15) eine Folge (Bj )j∈N paarweise disjunkter Kugeln in I mit
λ(I \ j Bj ) = 0 und d(Bj ) < δ. Sei rj der Radius von Bj . Für jede LebesgueNullmenge N gilt auch Hδn (N ) = 0, wie leicht aus der Definition von Hδn zu
folgern ist. Daher ergibt sich
!
X
[
d(Bj )n (nach Def. von Hδn )
Hδn (I) = Hδn
Bj ≤
j∈N
=
2n X
2n X
κn rjn =
λ(Bj )
κn j∈N
κn j∈N
2n
=
λ
κn
=
j∈N
!
[
Bj
j∈N
2n
λ(I).
κn
Sei jetzt A ⊂ Rn beliebig. Zu > 0 existiert nach Definition
des äußeren
S
Lebesgue-Maßes eine Folge (Ik )k∈N von Intervallen mit A ⊂ k Ik und
X
k
λ(Ik ) ≤ λ∗ (A) + .
131
Es folgt
!
Hδn (A)
≤
Hδn
[
Ik
≤
X
k
Hδn (Ik )
k
2n ∗
2n X
(λ (A) + ).
λ(Ik ) ≤
≤
κn k
κn
Da > 0 beliebig war, folgt Hδn (A) ≤ (2n /κn )λ∗ (A). Zum Beweis der entgegengesetzten Ungleichung
sei (Gi )i∈N eine Folge offener Mengen vom Durchmesser < δ
S
mit A ⊂ i Gi . Dann ist nach Hilfssatz (14.16)
X
d(Gi )n ≥
i
2n ∗
2n X
λ (A).
λ(Gi ) ≥
κn i
κn
Also ist (nach Def. von Hδn (A))
Hδn (A) ≥
2n ∗
λ (A).
κn
Daraus folgt die Behauptung.
15
Signierte Maße
In der heuristischen Einleitung, die die Notwendigkeit eines Maßbegriffes motivieren sollte, haben wir als physikalische Vorbilder hierfür neben Massenverteilungen
auch Verteilungen elektrischer Ladungen erwähnt. Diese können positiv und negativ sein; die mathematische Präzisierung kann also nicht ein Maß sein, sondern
nur ein signiertes Maß (siehe Def. (12.2)). Daß wir bisher nur Maße betrachtet
haben, ist insofern gerechtfertigt, als man die Behandlung von signierten Maßen
vollständig auf diejenige von Maßen zurückführen kann. Jedes signierte Maß läßt
sich nämlich, wie wir jetzt zeigen wollen, als Differenz zweier Maße schreiben,
von denen wenigstens eines endlich ist.
(15.1) Def. Sei µ ein signiertes Maß auf dem meßbaren Raum (Ω, A). Eine
Menge A ⊂ Ω heißt positiv (negativ) bezüglich µ, wenn A ∈ A ist und für alle
B ∈ A mit B ⊂ A die Ungleichung µ(B) ≥ 0 (bzw. µ(B) ≤ 0) gilt.
(15.2) Satz und Def. (Zerlegungssatz von Jordan-Hahn) Sei µ ein signiertes
Maß auf dem meßbaren Raum (Ω, A).
(a) Es gibt eine Zerlegung Ω = P ∪ N mit P ∩ N = ∅, wo P positiv und N negativ
(bezüglich µ) ist (Hahn-Zerlegung von Ω)
(b) Durch µ+ (A) := µ(A ∩ P ), µ− (A) := −µ(A ∩ N ) für A ∈ A werden Maße
µ+ (Positivteil von µ) und µ− (Negativteil von µ) erklärt; wenigstens eins von
ihnen ist endlich, und es gilt µ = µ+ − µ− (Jordan-Zerlegung von µ). Das Maß
132
15 SIGNIERTE MASSE
|µ| := µ+ + µ− heißt Variationsmaß von µ.
(c) Es gilt
µ+ (A) = sup{µ(B) : B ∈ A, B ⊂ A},
µ− (A) = sup{−µ(B) : B ∈ A, B ⊂ A}
für alle A ∈ A.
Beweis. Das signierte Maß µ nimmt einen der Werte ∞, −∞ nicht an, o.B.d.A.
den Wert ∞.
1. Behauptung. Die Vereinigung einer Folge positiver Mengen ist positiv.
S
Beweis. Sei An eine positive Menge (n ∈ N) und A := n∈N An . Für B ∈ A mit
B ⊂ A setze
Bn := (B ∩ An ) \ (A1 ∪ . . . ∪ An−1 ).
Da An positiv
P µ(Bn ) ≥ 0. Da (Bn )n∈N eine disjunkte Folge ist, folgt
S ist, gilt
µ(B) = µ( n Bn ) = n µ(Bn ) ≥ 0. /.
Nun enthält Ω wenigstens eine positive Teilmenge, zum Beispiel ∅. Wir können
daher
α := sup{µ(A) : A ⊂ Ω positiv}
bilden. Es gibt
S in Ω eine Folge (An )n∈N positiver Mengen mit α = limn→∞ µ(An ).
Setze P := n∈N An . Nach der 1. Behauptung ist P eine positive Menge, also ist
α ≥ µ(P ). Wegen P \An ⊂ P ist µ(P \An ) ≥ 0, also µ(P ) = µ(An )+µ(P \An ) ≥
µ(An ) für n ∈ N und daher µ(P ) ≥ α. Es folgt µ(P ) = α, insbesondere α < ∞.
2. Behauptung. N := P c ist eine negative Menge.
Beweis. Zunächst bemerken wir: N enthält keine positive Menge A mit µ(A) > 0.
Wäre nämlich A ⊂ N eine positive Menge mit µ(A) > 0, dann wäre P ∪ A eine
positive Menge mit µ(P ∪ A) = µ(P ) + µ(A) > α, entgegen der Definition von α.
Angenommen, N wäre keine negative Menge. Dann enthält N eine Menge E0 ∈ A
mit µ(E0 ) > 0. Da E0 keine positive Menge ist, enthält E0 eine Menge E1 ∈ A mit
µ(E1 ) < 0. Sei n1 ∈ N die kleinste Zahl, für die eine solche Menge E1 existiert mit
µ(E1 ) < (−1/n1 ). Wir definieren nk und Ek rekursiv: Sind ni , Ei für 1 ≤ i ≤ k −1
schon definiert, so sei nk ∈ N die kleinste Zahl, für die es eine Menge Ek ∈ A
gibt mit
k−1
[
1
Ek ⊂ E0 \
Ei und µ(Ek ) < −
nk
i=1
133
S
Ek existiert, weil E0 \ k−1
i=1 Ei positives Maß hat, also nach Vorbemerkung keine
positive Menge ist. Setze
∞
[
A := E0 \
Ek ,
k=1
dann gilt
∞
X
∞
X
1
.
µ(E0 ) = µ(A) +
µ(Ek ) < µ(A) −
n
k
k=1
k=1
P∞
Wegen µ(E0 ) > 0 folgt k=1 (1/nk ) < ∞, also nk → ∞, und µ(A) > 0.
Sei B ∈ A eine Menge mit B ⊂ A. Nach Definition der Zahlen nk muß µ(B) ≥
−1/(nk − 1) für alle k ∈ N sein, wegen nk → ∞ folgt also µ(B) ≥ 0. Somit ist
A eine positive Teilmenge von N mit µ(A) > 0, was nicht sein kann. Aus dem
Widerspruch folgt die 2. Behauptung. /.
Nun sei für A ∈ A
µ+ (A) := sup{µ(B) : B ∈ A, B ⊂ A},
µ− (A) := sup{−µ(B) : B ∈ A, B ⊂ A}.
3. Behauptung. Für A ∈ A gilt µ+ (A) = µ(A ∩ P ) und µ− (A) = −µ(A ∩ N ).
Beweis. Für B ∈ A mit B ⊂ A gilt
µ(B) = µ(B ∩ P ) + µ(B ∩ N ) ≤ µ(B ∩ P )
≤ µ(B ∩ P ) + µ((A \ B) ∩ P ) = µ(A ∩ P ),
folglich ist µ+ (A) ≤ µ(A ∩ P ). Andererseits ist µ(A ∩ P ) ≤ µ+ (A) nach Definition
von µ+ . Die zweite Gleichung ergibt sich analog. /.
Die restlichen Behauptungen von Satz (15.2) sind jetzt klar: Aus µ+ (A) = µ(A ∩
P ) ≥ 0 ist klar, daß µ+ ein Maß ist, analog ist µ− ein Maß. Für A ∈ A gilt
µ(A) = µ(A ∩ P ) + µ(A ∩ N ) = µ+ (A) − µ− (A). Wegen µ(P ) < ∞ ist µ+ (A) < ∞
für alle A ∈ A.
Die Zerlegung des signierten Maßes µ in der Form µ = µ+ − µ− mit Maßen µ+ ,
µ− ist nicht eindeutig bestimmt, denn für jedes endliche Maß ν auf derselben
σ-Algebra gilt µ+ − µ− = (µ+ + ν) − (µ− + ν). Eindeutigkeit ergibt sich jedoch
unter einer zusätzlichen Bedingung.
(15.3) Def. Zwei signierte Maße ν1 , ν2 auf einem meßbaren Raum (Ω, A) heißen
zueinander singulär (Schreibweise ν1 ⊥ ν2 ), wenn es eine Menge A ∈ A gibt mit
|ν1 |(A) = |ν2 |(Ac ) = 0.
134
15 SIGNIERTE MASSE
Bemerkung. Gilt ν1 ⊥ ν2 und ist A wie in Def. (15.3), so ist ν1 (B ∩ A) = 0
für alle B ∈ A, also ν1 (B) = ν1 (B ∩ Ac ). Man sagt hierfür auch, ν1 sei auf Ac
konzentriert. Es ist also ν1 auf einer |ν2 |-Nullmenge konzentriert und umgekehrt.
(15.4) Satz. Für das signierte Maß µ auf dem meßbaren Raum (Ω, A) gibt es
genau eine Zerlegung µ = µ+ − µ− mit zueinander singulären Maßen µ+ , µ− .
Beweis. Sind P, N, µ+ , µ− wie in Satz (15.2), so ist µ+ (N ) = µ− (P ) = 0, also
µ+ ⊥ µ− . Seien ν + , ν − zueinander singuläre Maße auf A mit µ = ν + − ν − . Es
gibt eine Menge A ∈ A mit ν + (A) = ν − (Ac ) = 0. Für jede Menge B ∈ A mit
B ⊂ Ac gilt ν − (B) = 0, also µ(B) = ν + (B) ≥ 0. Somit ist Ac eine positive
Menge. Analog ist A eine negative Menge, also Ω = Ac ∪ A eine Hahn-Zerlegung
bezüglich µ von Ω.
Sei nun B ∈ A eine Menge mit B ⊂ P ∩ A. Wegen B ⊂ P ist µ(B) ≥ 0, wegen
B ⊂ A ist µ(B) ≤ 0, also ist µ(B) = 0. Analog folgt µ(B) = 0 für B ⊂ N ∩ Ac .
Für B ∈ A folgt jetzt
µ+ (B) = µ(B ∩ P )
= µ(B ∩ P ∩ Ac ) + µ(B ∩ P ∩ A)
= µ(B ∩ P ∩ Ac )
= µ(B ∩ P ∩ Ac ) + µ(B ∩ N ∩ Ac )
= µ(B ∩ Ac )
= ν + (B ∩ Ac ) − ν − (B ∩ Ac )
= ν + (B ∩ Ac )
= ν + (B ∩ Ac ) + ν + (B ∩ A)
= ν + (B),
nach Def. von µ+
wie eben gezeigt
wie eben gezeigt
wegen µ = ν + − ν −
wegen ν − (Ac ) = 0
wegen ν + (A) = 0
also ist µ+ = ν + und damit auch µ− = ν − .
Wir schließen noch einige Bemerkungen über das Variationsmaß an. Es sei µ ein
signiertes Maß auf (Ω, A). Für A ∈ A gilt
|µ(A)| = |µ+ (A) − µ− (A)| ≤ µ+ (A) + µ− (A) = |µ|(A),
also |µ(A)| ≤ |µ|(A). Das Variationsmaß |µ| kann auch gekennzeichnet werden
als das kleinste Maß mit dieser Eigenschaft. Sei nämlich ν ein Maß auf (Ω, A)
mit |µ(A)| ≤ ν(A) für alle A ∈ A. Dann gilt
|µ|(A) = µ(A ∩ P ) − µ(A ∩ N )
= |µ(A ∩ P )| + |µ(A ∩ N )| ≤ ν(A ∩ P ) + ν(A ∩ N )
= ν(A),
also |µ| ≤ ν.
135
Für ein endliches signiertes Maß µ auf (Ω, A) definiert man
kµk := |µ|(Ω);
kµk heißt die Totalvariation von µ. Die endlichen signierten Maße auf (Ω, A)
bilden (mit Addition und Multiplikation mit reellen Zahlen wie üblich) einen
reellen Vektorraum M (Ω, A, R). Durch k · k ist auf diesem Vektorraum eine Norm
gegeben, und der Vektorraum ist damit vollständig, also ein Banachraum.
Ein komplexes Maß auf (Ω, A) ist eine Funktion µ : A → C, die µ(∅) = 0 erfüllt
und σ-additiv ist, also
!
∞
∞
[
X
µ
An =
µ(An )
n=1
n=1
für jede disjunkte Folge (An )n∈N in A erfüllt.
Jedes komplexe Maß µ auf (Ω, A) kann natürlich in der Form
√
µ = µ0 + iµ00
(i = −1)
geschrieben werden mit endlichen signierten Maßen µ0 , µ00 . Das Variationsmaß |µ|
von µ wird erklärt durch
|µ|(A) :=
)
( n
n
[
X
Aj , Aj ∩ Ak = ∅ für j 6= k .
sup
|µ(Aj )| n ∈ N, Aj ∈ A, A =
j=1
j=1
Die Totalvariation kµk := |µ|(Ω) führt ebenfalls zu einem Banachraum.
16
Meßbare Funktionen
In diesem Abschnitt behandeln wir eine wichtige Ergänzung zum Begriff des
meßbaren Raumes. Maße kommen dabei nur am Rande vor. In Analogie zu den
stetigen Abbildungen zwischen topologischen Räumen betrachtet man Abbildungen zwischen meßbaren Räumen, die die auf den Räumen gegebenen Strukturen,
also die σ-Algebren, in besonderer Weise respektieren.
(16.1) Def. Seien (Ω, A), (Ω0 , A0 ) meßbare Räume. Eine Abbildung f : Ω → Ω0
heißt (A, A0 )-meßbar (kurz meßbar, wenn A und A0 aus dem Zusammenhang klar
sind), wenn
f −1 (A0 ) ∈ A
für alle A0 ∈ A0
gilt, wenn also das Urbild jeder A0 -meßbaren Menge A-meßbar ist. (Die Elemente
einer σ-Algebra A nennt man auch A-meßbar.)
136
16 MESSBARE FUNKTIONEN
Zur Nachprüfung der Meßbarkeit kann man sich auf ein Erzeugendensystem von
A0 beschränken:
(16.2) Satz. (Bezeichnungen wie in (16.1)). Ist E 0 ein Erzeugendensystem von
A0 , so ist f genau dann meßbar, wenn f −1 (E 0 ) ∈ A für alle E 0 ∈ E 0 gilt.
Beweis. Daß die Bedingung f −1 (E 0 ) ∈ A für E 0 ∈ E 0 notwendig ist für die Meßbarkeit, ist trivial. Sei sie umgekehrt erfüllt. Setze
à := {A0 ⊂ Ω0 : f −1 (A0 ) ∈ A}.
Da f −1 vertauschbar ist mit der Bildung von Vereinigungen, Durchschnitten und
Komplementen, ist sofort zu sehen, daß Ã eine σ-Algebra in Ω0 ist. Wegen E 0 ⊂ Ã
folgt A0 = A(E 0 ) ⊂ Ã; für A0 ∈ A0 gilt also f −1 (A0 ) ∈ A. Somit ist f meßbar.
Beispiel. Jede stetige Abbildung f : Rn → Rm ist (B n , B m )-meßbar. Denn für
eine stetige Abbildung ist das Urbild jeder offenen Menge des Rm offen in Rn ,
also Element von B n , und nach Satz (4.2) wird B m von den offenen Teilmengen
von Rm erzeugt.
(16.3) Satz. Die Hintereinanderschaltung (Komposition) von meßbaren Abbildungen ist meßbar.
Beweis. Dies folgt sofort wegen (g ◦ f )−1 (A) = f −1 (g −1 (A)).
Man beachte, daß der Begriff meßbare Abbildung“ nichts mit etwa gegebenen
”
Maßen zu tun hat, sondern sich allein auf die im Bildraum und Urbildraum gegebenen σ-Algebren bezieht. Ist jedoch auf dem Urbildraum ein Maß gegeben, so
wird durch eine meßbare Abbildung in natürlicher Weise auch auf dem Bildraum
ein Maß induziert:
(16.4) Satz und Def. Seien (Ω, A), (Ω0 , A0 ) meßbare Räume, sei f : Ω → Ω0
eine meßbare Abbildung und µ ein Maß auf A. Dann wird durch
µ0 (A0 ) := µ(f −1 (A0 ))
für A0 ∈ A0
ein Maß auf A0 definiert. Es heißt das Bildmaß von µ unter f und wird auch mit
f (µ) bezeichnet.
Beweis. Da f meßbar ist, ist f −1 (A0 ) ∈ A für alle A0 ∈ A0 , die Definition ist
also möglich. Sei (A0n )n∈N eine disjunkte Folge in A0 . Dann ist (f −1 (A0n ))n∈N eine
disjunkte Folge in A, und es ergibt sich
!
!!
!
[
[
[
= µ f −1
=µ
µ0
A0n
A0n
f −1 (A0n )
n∈N
n∈N
n∈N
137
=
X
µ(f −1 (A0n )) =
n∈N
X
µ0 (A0n ).
n∈N
Also ist µ0 σ-additiv. Die anderen Eigenschaften eines Maßes sind trivialerweise
erfüllt.
Etwas ausführlicher betrachten wir nun den besonders wichtigen Fall meßbarer
Abbildungen in das erweiterte System R der reellen Zahlen, also meßbare numerische Funktionen, bezogen auf die folgendermaßen erklärten Borelmengen in
R.
(16.5) Satz und Def. Eine Menge B ⊂ R heißt Borelmenge in R, wenn B \
1
{−∞, ∞} eine Borelmenge in R ist. Die σ-Algebra B der Borelmengen in R
wird erzeugt von dem System
E = {[α, ∞] : α ∈ R}
(mit [α, ∞] := {x ∈ R : α ≤ x ≤ ∞}).
1
Beweis. Daß B eine σ-Algebra ist, ist klar. Sei A die von E in R erzeugte σ1
1
Algebra. Wegen E ⊂ B gilt A ⊂ B . Für α, β ∈ R, α < β, gilt [α, β) =
[α, ∞] \ [β, ∞] ∈ A. Da A ∩ R := {U ∩ R : U ∈ A} eine σ-Algebra in R ist, folgt
B 1 ⊂ A ∩ R. Es gilt
{∞} =
∞
\
[n, ∞] ∈ A,
{−∞} =
∞
\
[−∞, −n) =
n=1
n=1
∞
\
[−n, ∞]c ∈ A.
n=1
1
Ist B ∈ B , so folgt B \ {−∞, ∞} ∈ A ∩ R ⊂ A und daher B ∈ A. Also ist
1
1
B ⊂ A und damit B = A.
(16.6) Def. Sei (Ω, A) ein meßbarer Raum. Eine numerische Funktion f : Ω → R,
1
die (A, B )-meßbar ist, wird als A-meßbar (häufig auch nur als meßbar) bezeichnet. Die B n -meßbaren numerischen Funktionen auf Rn heißen Borel-meßbar.
Sind f, g numerische Funktionen auf der Menge Ω (oder g eine reelle Zahl) und ist
R eine zweistellige Relation auf R (z.B. =, ≤, >), so schreiben wir zur Abkürzung
{f Rg} := {x ∈ Ω : f (x)Rg(x)}.
In den folgenden Sätzen liege stets ein fester meßbarer Raum (Ω, A) zugrunde.
(16.7) Satz. Die numerische Funktion f auf Ω ist genau dann A-meßbar, wenn
eine der folgenden Bedingungen für alle α ∈ R erfüllt ist:
{f ≥ α} ∈ A,
{f > α} ∈ A,
{f ≤ α} ∈ A,
{f < α} ∈ A.
138
16 MESSBARE FUNKTIONEN
Beweis. Wegen
∀ α ∈ R : {f ≥ α} ∈ A
∞ [
1
∈A
⇒ ∀ α ∈ R : {f > α} =
f ≥α+
n
n=1
⇒ ∀ α ∈ R : {f ≤ α} = {f > α}c ∈ A
∞ [
1
⇒ ∀ α ∈ R : {f < α} =
f ≤α−
∈A
n
n=1
⇒ ∀ α ∈ R : {f ≥ α} = {f < α}c ∈ A
sind die vier im Satz angegebenen Bedingungen jedenfalls äquivalent. Nun gilt
{f ≥ α} = f −1 ([α, ∞]), und das System {[α, ∞] : α ∈ R} ist nach Satz (16.5)
1
ein Erzeugendensystem von B . Die Behauptung folgt also aus Satz (16.2).
(16.8) Satz. Sind f, g A-meßbare numerische Funktionen auf Ω, so gilt
{f < g}, {f ≤ g}, {f = g}, {f 6= g} ∈ A.
Beweis. Es gilt
{f < g} =
[
({f < α} ∩ {α < g}),
α∈Q
und nach Satz (16.7) ist {f < α} ∩ {α < g} ∈ A; also folgt {f < g} ∈ A.
Damit gilt auch {f ≤ g} = {g < f }c ∈ A, {f = g} = {f ≤ g} ∩ {g ≤ f } ∈ A,
{f 6= g} = {f = g}c ∈ A.
Zum Schluß zeigen wir nun, daß die üblichen Operationen der Analysis nicht aus
der Menge der meßbaren Funktionen hinausführen. Wir setzen
f + := max(f, 0)
(Positivteil von f )
f − := − min(f, 0)
(Negativteil von f )
(16.9) Satz. Seien f, g, fn (n ∈ N) A-meßbare numerische Funktionen auf Ω.
Dann sind die folgenden Funktionen A-meßbar:
f ±g
(falls definiert), f g, |f |, f + , f −
sup fn , inf fn , lim sup fn , lim inf fn
n∈N
lim fn
n→∞
n∈N
n→∞
(falls vorhanden).
n→∞
139
Beweis. Im folgenden wird ohne weitere Erwähnung mehrfach Satz (16.7) und
Satz (16.8) benutzt. Wegen
{sup fn ≤ α} =
∞
\
{fn ≤ α},
{inf fn ≥ α} =
n=1
∞
\
{fn ≥ α}
n=1
sind sup fn und inf fn meßbar. Daher sind auch
lim sup fn = inf (sup fn ),
n→∞
k
n≥k
lim inf fn = sup(inf fn )
n→∞
k
n≥k
und folglich, falls vorhanden, lim fn meßbar. Insbesondere sind max(f, g) und
min(f, g) und damit auch f + = max(f, 0) meßbar. Für β ∈ R ist wegen {−f +β ≤
α} = {f ≥ β − α} auch −f + β meßbar, insbesondere also −f . Folglich sind f − =
− min(f, 0) und |f | = max(f, −f ) meßbar. Wegen {f + g ≤ α} = {g ≤ −f + α}
ist f + g meßbar und folglich auch f − g. Um zu zeigen, daß f g meßbar ist,
nehmen wir zunächst f ≥ 0, g ≥ 0 an. Sei α ∈ R. Für α ≤ 0 gilt {f g < α} = ∅,
und für α > 0 ist
[ α
,
{f g < α} = {f = 0} ∪ {g = 0} ∪
{f < ρ} ∩ g <
ρ
+
ρ∈Q
wo Q+ die Menge der positiven rationalen Zahlen bezeichnet. Also ist f g meßbar.
Für allgemeine f, g folgt aus
(f g)+ = f + g + + f − g − ,
(f g)− = f + g − + f − g +
und dem bereits Bewiesenen die Meßbarkeit von (f g)+ und (f g)− und damit
auch die von f g = (f g)+ − (f g)− .
17
Integration
Im folgenden sei, wenn nichts anderes gesagt ist, stets ein fester Maßraum
(Ω, A, µ) gegeben. Wir wollen hierfür eine Integrationstheorie entwickeln, die das
aus der Analysis-Vorlesung bekannte Lebesgue-Integral verallgemeinert.
Wie in Def. (16.6) vereinbart, wird eine numerische Funktion f auf Ω kurz als
1
meßbar bezeichnet, wenn sie (A, B )-meßbar ist. Nach Satz (16.7) ist f genau
dann meßbar, wenn z.B. {f ≤ α} := {x ∈ Ω : f (x) ≤ α} ∈ A für alle α ∈ R
gilt. Für die Untersuchung und Handhabung meßbarer Funktionen ist nützlich,
daß sie sich durch Grenzübergang aus besonders einfachen meßbaren Funktionen gewinnen lassen, nämlich solchen, die nur endlich viele verschiedene Werte
annehmen.
140
17 INTEGRATION
(17.1) Def. Eine Elementarfunktion auf (Ω, A) ist eine nichtnegative meßbare
reelle Funktion auf Ω, die nur endlich viele verschiedene Werte annimmt.
Ist A ∈ A, so ist die durch
(
1A (x) :=
1 für x ∈ A,
0 für x ∈ Ac .
definierte Indikatorfunktion 1A von A eine Elementarfunktion. Jede Elementarfunktion ist nichtnegative Linearkombination von Indikatorfunktionen: Ist
nämlich e eine Elementarfunktion und sind α1 , . . . , αn ihre verschiedenen Werte,
so ist die Menge Ai := {e = αi } meßbar, damit ist auch 1Ai meßbar, und offenbar
gilt
n
X
e=
αi 1Ai .
i=1
Diese (wegen der Voraussetzung αi 6= αj für i 6= j) eindeutig bestimmte Darstellung von e soll als natürliche Darstellung von e bezeichnet werden.
(17.2) Satz. Sei f eine nichtnegative meßbare numerische Funktion auf Ω. Dann
gibt es eine Folge (en )n∈N von Elementarfunktionen auf Ω mit
0 ≤ e1 ≤ e2 ≤ . . .
und
f = lim en .
n→∞
Beweis. Für n ∈ N setze
i
i
n
: i ∈ {0, 1, . . . , n2 } und n ≤ f (x) ,
en (x) := max
2n
2
x ∈ Ω.
Wegen

 Ω, wenn α ≥ n,
S {en ≤ α} =
, wenn α < n,
f < i+1
 i
2n
2n
≤α
ist en meßbar und somit eine Elementarfunktion. Nach Konstruktion gilt en+1 ≥
en und lim en = f .
Bemerkung. Man beachte, daß die angegebene Folge (en )n∈N sogar gleichmäßig
gegen f konvergiert, falls f beschränkt ist.
Die Definition des Integrals geschieht nun in drei Schritten.
(17.3) Def. (1) Das Integral einer Elementarfunktion e auf Ω mit der natürlichen
Darstellung
n
X
e=
αi 1Ai
i=1
141
ist definiert durch
Z
e dµ :=
n
X
αi µ(Ai ).
i=1
(2) Das Integral einer nichtnegativen meßbaren numerischen Funktion f auf Ω ist
definiert durch
Z
Z
f dµ := sup
e dµ : e ≤ f, e Elementarfunktion .
+
−
(3) Sei f eine meßbare
R +numerische Funktion
R − auf Ω, seien f , f ihr Positiv- bzw.
Negativteil. Falls f dµ < ∞ und f dµ < ∞ ist, wird f als integrierbar
bezeichnet und
Z
Z
Z
+
f dµ := f dµ − f − dµ
definiert.
Bemerkung. Die Definition (2) ist konsistent, d.h. wenn f eine Elementarfunktion ist, so ergeben die Definitionen (1) und (2) denselben Integralwert. Das wird
sofort klar, wenn (17.4)(c) für Elementarfunktionen bewiesen ist. Trivialerweise ist auch (3) mit den vorhergehenden Definitionen konsistent, denn im Fall
f ≥ 0 ist f − = 0 und f = f + . Man beachte, daß für eine nichtnegative meßbare
Funktion das Integral auch dann definiert ist, wenn sie nicht integrierbar ist.
Bemerkung. In der Definition (17.3)(1) kann es vorkommen, daß αi = 0 und
µ(Ai ) = ∞ ist. Es sei daran erinnert, daß dann vereinbarungsgemäß αi µi (Ai ) = 0
ist.
Bemerkung. Statt Integral“ und integrierbar“ müßten wir genauer µ”
”
”
Integral“ und µ-integrierbar“ sagen. Das soll aber nur geschehen, wenn andern”
falls Mißverständnisse zu befürchten sind.
Wir müssen nun zunächst zeigen, daß das Integral (d.h. die Abbildung, die gewissen Funktionen ihr Integral zuordnet) ein monotones lineares Funktional ist.
Es handelt sich also um den Nachweis der folgenden Eigenschaften.
(17.4) Integraleigenschaften.
R
R
(a) αf dµ = α f dµ (α ∈ R),
R
R
R
(b) (f + g) dµ = f dµ + g dµ,
R
R
(c) f ≤ g ⇒ f dµ ≤ g dµ.
Entsprechend der dreiteiligen Definition (17.3) geschieht der Beweis in drei Schritten.
142
17 INTEGRATION
(17.5) Satz. (17.4) gilt für Elementarfunktionen f, g und für α ≥ 0.
Beweis. Eigenschaft (17.4)(a) gilt trivialerweise. Seien
f=
n
X
αi 1Ai ,
g=
i=1
m
X
βj 1Bj ,
f +g =
j=1
p
X
γk 1Ck
k=1
die natürlichen Darstellungen. Wegen
[
Ck =
(Ai ∩ Bj )
(i,j)∈Vk
mit Vk := {(i, j) ∈ {1, . . . , n} × {1, . . . , m} : αi + βj = γk } gilt


Z
X
X
[
γk µ(Ck ) =
γk µ 
(f + g) dµ =
(Ai ∩ Bj )
k
k
=
X
=
X
=
X
X
γk
k
µ(Ai ∩ Bj ) =
XX
(i,j)∈Vk
αi
X
i
µ(Ai ∩ Bj ) +
X
j
i
j
βj
X
j
αi µ(Ai ) +
X
i
(αi + βj )µ(Ai ∩ Bj )
µ(Ai ∩ Bj )
i
βj µ(Bj )
j
Z
=
(i,j)∈Vk
Z
f dµ +
g dµ,
also (17.4)(b). Gilt f ≤ g, so ist auch g − f eine Elementarfunktion, folglich ist
Z
Z
Z
Z
Z
g dµ = [(g − f ) + f ] dµ = (g − f ) dµ + f dµ ≥ f dµ,
denn das Integral einer Elementarfunktion ist nach Definition nichtnegativ.
Bemerkung. Jetzt folgt für eine Elementarfunktion
e=
n
X
αi 1Ai
i=1
die Gleichung
Z
e dµ =
n
X
i=1
Z
αi
1Ai dµ =
n
X
i=1
αi µ(Ai )
143
auch dann, wenn die angegebene Darstellung von e nicht die natürliche ist.
Um die Additivitätseigenschaft (17.4)(b) für nichtnegative meßbare Funktionen
zeigen zu können, schieben wir zunächst den folgenden Satz ein, der zu den fundamentalen Aussagen der hier entwickelten Integrationstheorie gehört.
(17.6) Satz. (Satz von Beppo Levi oder Satz von der monotonen Konvergenz)
Ist (fn )n∈N eine Folge meßbarer Funktionen auf Ω mit 0 ≤ f1 ≤ f2 ≤ . . ., so gilt
Z
Z
lim
fn dµ =
lim fn dµ.
n→∞
n→∞
Beweis. Die Grenzfunktion
f := lim fn
n→∞
existiert jedenfalls,
R da die Folge (fn )n∈N monoton ist. NachR Satz (16.9) ist f
meßbar, also ist f dµ gemäß (17.3)(2) definiert. Die Folge ( fn dµ)n∈N ist
R nach
Definition des Integrals und nach (17.5) monoton, also existiert limn→∞ fn dµ
in R.
Da (17.4)(c) für Elementarfunktionen gilt, gilt es nach Def. (17.3)(2) auch für
nichtnegative meßbare Funktionen. Wegen 0 ≤ fn ≤ f ist also jedenfalls
Z
Z
lim
fn dµ ≤ f dµ.
n→∞
Sei
Pme eine Elementarfunktion mit e ≤ f und der natürlichen Darstellung e =
i=1 αi 1Ai ; sei 0 < γ < 1. Für En := {fn ≥ γe} gilt En ∈ A (nach Satz (16.8)),
ferner En ↑ Ω für n → ∞. Unter Verwendung von (17.4)(c) für nichtnegative
Funktionen und (17.4)(a,b) für Elementarfunktionen erhält man
Z
Z
Z
fn dµ ≥
fn 1En dµ ≥ γe1En dµ
Z
=
γ
m
X
αi 1Ai 1En dµ = γ
i=1
= γ
m
X
m
X
Z
αi
1Ai ∩En dµ
i=1
αi µ(Ai ∩ En ).
i=1
Da das Maß µ nach Satz (12.6) von unten stetig ist, gilt
lim µ(Ai ∩ En ) = µ(Ai )
n→∞
(i = 1, . . . , m),
144
17 INTEGRATION
also
Z
fn dµ ≥ γ
lim
n→∞
m
X
αi lim µ(Ai ∩ En )
n→∞
i=1
= γ
m
X
Z
αi µ(Ai ) = γ
e dµ.
i=1
R
R
Da γ < 1 beliebig war, folgt lim fn dµ ≥ e dµ, also
Z
Z
lim
fn dµ ≥ f dµ
n→∞
und damit die Behauptung von Satz (17.6).
(17.7) Satz. (17.4) gilt für nichtnegative meßbare Funktionen f, g und für alle
α ≥ 0.
Beweis. Die Behauptungen (17.4)(a) (für α ≥ 0) und (c) ergeben sich unmittelbar aus der Definition des Integrals und den entsprechenden, bereits bewiesenen Aussagen für Elementarfunktionen. Nach Satz (17.2) gibt es Folgen (en )n∈N ,
(e0n )n∈N von Elementarfunktionen mit 0 ≤ e1 ≤ e2 ≤ . . ., 0 ≤ e01 ≤ e02 ≤ . . . und
f = lim en , g = lim e0n . Aus 0 ≤ e1 + e01 ≤ e2 + e02 ≤ . . . und lim(en + e0n ) = f + g
folgt nach Satz (17.6)
Z
Z
Z
0
(f + g) dµ =
lim(en + en ) dµ = lim (en + e0n ) dµ
Z
= lim
Z
en dµ +
Z
=
Z
lim en dµ +
Z
=
e0n
Z
Z
dµ = lim en dµ + lim e0n dµ
lim e0n dµ
Z
f dµ +
g dµ.
(17.8) Satz. Seien f, g integrierbare Funktionen derart, daß f + g erklärt ist; sei
α ∈ R. Dann sind αf und f + g integrierbar, und es gilt (17.4).
Beweis. Ist α ≥ 0, so ist (αf )+ = αf + und (αf )− = αf − , also sind (αf )+ und
(αf )− integrierbar, und es gilt
Z
Z
Z
Z
Z
+
−
+
αf dµ =
(αf ) dµ − (αf ) dµ = α f dµ − α f − dµ
Z
= α
f dµ.
145
Im Fall α < 0 ist (αf )+ = −αf − und (αf )− = −αf + , und man kann analog wie
oben schließen.
Wegen (f + g)+ ≤ f + + g + und (f + g)− ≤ f − + g − gilt nach Satz (17.7)
Z
Z
Z
+
+
(f + g) dµ ≤
f dµ + g + dµ < ∞,
Z
Z
−
(f + g) dµ ≤
Z
−
f dµ +
g − dµ < ∞,
also ist f + g integrierbar. Ferner ist
(f + g)+ − (f + g)− = f + g = f + − f − + g + − g − ,
also
(f + g)+ + f − + g − = (f + g)− + f + + g + .
Nach Satz (17.7) folgt
Z
Z
Z
Z
Z
Z
+
−
−
−
+
(f + g) dµ + f dµ + g dµ = (f + g) dµ + f dµ + g + dµ.
Da hier alle Integrale endlich sind, folgt
Z
Z
Z
+
(f + g) dµ =
(f + g) dµ − (f + g)− dµ
Z
f dµ −
=
Z
=
Z
+
−
f dµ +
Z
+
Z
g dµ −
g − dµ
Z
f dµ +
g dµ.
R
R
Ist f ≤ g, so ist (g − f )+ = g − f , also (g − f ) dµ = (g − f )+ dµ ≥ 0.
Im folgenden Satz sind einige einfache Bemerkungen über integrierbare Funktionen zusammengestellt, die häufig benutzt werden.
(17.9) Satz. Für meßbare numerische Funktionen f, g auf Ω gilt
(a) f integrierbar ⇒ |f | integrierbar,
(b) |f | ≤ g und g integrierbar ⇒ f integrierbar,
(c) f, g integrierbar ⇒ max{f, g} und min{f, g} integrierbar,
R
R
(d) f integrierbar ⇒ | f dµ| ≤ |f | dµ.
Beweis. Meßbarkeit folgt jeweils aus Satz (16.9). – (a) ist klar wegen |f | = f + +
f − . – (b) ist klar wegen (17.4)(c). – (c) ist klar wegen | max{f, g}| ≤ |f | +
146
17 INTEGRATION
R
R +
R −
R +
|g|,
|
min{f,
g}|
≤
|f
|
+
|g|.
–
(d)
|
f
dµ|
=
|
f
dµ
−
f
dµ|
≤
|
f dµ| +
R
R
R
| f − dµ| = (f + + f − )dµ = |f |dµ.
Unter einer µ-Nullmenge verstehen wir im folgenden eine Menge A ∈ A mit
µ(A) = 0. Von einer Eigenschaft, die die Punkte von Ω haben können, sagen wir,
sie gelte µ-fast überall, wenn die Menge aller x ∈ Ω, die die Eigenschaft nicht
haben, eine µ-Nullmenge ist. Es folgen einige häufig benutzte fast überall“”
Aussagen über Integrale.
(17.10) Satz. Seien f, g meßbare nichtnegative oder integrierbare Funktionen auf
Ω. Dann gilt:
(a) f integrierbar ⇒ f ist µ-fast überall endlich,
R
R
(b) f = g µ-fast überall ⇒ f dµ = g dµ,
R
(c) f ≥ 0 und f dµ = 0 ⇒ f = 0 µ-fast überall.
Beweis. (a)
R Mit A := {|f
R | = ∞} gilt für n ∈ N die Ungleichung n1A ≤ |f |, also
nµ(A) = n1A dµ ≤ |f | dµ < ∞, wenn f und damit |f | integrierbar ist. Da
n ∈ N beliebig ist, folgt µ(A) = 0.
(b)
R Nach Voraussetzung gibt es eine µ-Nullmenge N mit f 1N c = g1N c . Es ist
f 1N dµ = 0. Dies folgt aus der Integraldefinition (schrittweise). Also ist
Z
Z
f dµ =
Z
(f 1
Nc
+ f 1N ) dµ =
Z
=
f 1N c dµ + 0
Z
g1
Nc
dµ + 0 =
Z
(g1
Nc
+ g1N ) dµ =
gdµ.
(c) Setze An := {f > n1 } für n ∈ N. Aus
1
µ(An ) =
n
Z
1
1A dµ ≤
n n
Z
f dµ = 0
folgt
!
µ({f > 0}) = µ
[
n∈N
An
≤
X
µ(An ) = 0.
n∈N
Bislang haben wir nur Integrale über ganz Ω betrachtet. Man kann aber auch
Integrale über meßbare Teilmengen von Ω erklären in der folgenden naheliegenden
Weise. Implizit haben wir solche Integrale schon benutzt.
147
(17.11) Def. und Beh. Sei f eine meßbare nichtnegative oder integrierbare
Funktion auf Ω, sei A ∈ A. Man schreibt
Z
Z
f dµ := f 1A dµ
A
und nennt
R
A
f dµ das Integral von f über A. Ist f integrierbar, so auch f 1A .
Was hier behauptet wird, ist klar.
(17.12) Satz und Def. Sei f eine meßbare nichtnegative oder integrierbare
Funktion auf Ω. Durch
Z
für A ∈ A
ν(A) := f dµ
A
wird auf A ein signiertes Maß ν definiert. Es wird als das unbestimmte µ-Integral
von f bezeichnet.
Sei f ≥ 0. Für jede meßbare nichtnegative oder ν-integrierbare Funktion g auf Ω
gilt
Z
Z
g dν = gf dµ.
Beweis. Zunächst sei f ≥ 0. Trivialerweise
gilt ν(∅) = 0 undP
ν ≥ 0. Sei (Ai )i∈N
S∞
eine disjunkte Folge in A und i=1 Ai =: A. Dann gilt 1A = ∞
i=1 1Ai . Mit dem
Satz (17.6) von der monotonen Konvergenz folgt
Z
ν(A) =
f 1A dµ =
Z X
∞
i=1
f 1Ai dµ =
∞ Z
X
f 1Ai dµ =
i=1
∞
X
ν(Ai ).
i=1
Also ist ν σ-additiv und damit ein Maß. Nimmt f auch negative Werte an, so sei
Z
Z
+
+
−
ν (A) := f dµ,
ν (A) := f − dµ
für A ∈ A
A
A
gesetzt. Hier ist ν − endlich, folglich ist ν = ν + − ν − ein signiertes Maß.
P
Jetzt sei wieder f ≥ 0, also ν ein Maß. Ist e = ni=1 αi 1Ai eine Elementarfunktion,
so gilt
!
Z
Z
Z X
Z
n
n
n
X
X
e dν =
αi ν(Ai ) =
αi f 1Ai dµ =
αi 1Ai f dµ = ef dµ.
i=1
i=1
i=1
148
17 INTEGRATION
Sei g ≥ 0 eine meßbare Funktion. Nach Hilfssatz (17.2) gibt es eine Folge (en )n∈N
von Elementarfunktionen auf Ω mit 0 ≤ e1 ≤ e2 ≤ . . . und lim en = g. Wegen
Satz (17.6) folgt also
Z
Z
Z
Z
g dν =
lim en dν = lim en dν = lim en f dµ
Z
=
Z
lim en f dµ =
gf dµ.
R +
R
Sei
jetzt
g
eine
ν-integrierbare
Funktion,
also
g
dν
<
∞.
Dann
ist
(gf )+ dµ =
R +
R +
R
R
R
−
−
−
R g f dµ =R +g dν <R ∞− und (gf
R )+ dµ =R −g f dµ R= g dν < ∞, woraus
gf dµ = g f dµ − g f dµ = g dν − g dν = g dν folgt.
(17.13) Satz. Sei f eine integrierbare Funktion auf Ω. Gilt
Z
f dµ ≥ 0
für alle A ∈ A,
A
so ist f ≥ 0 µ-fast überall.
Beweis. Mit B := {f < 0} gilt
Z
0 ≤ f dµ ≤ 0,
Z
also
B
Z
f dµ =
f 1B dµ = 0.
B
Nach Satz (17.10)(c) folgt f 1B = 0 µ-fast überall, also µ(B) = 0 und somit f ≥ 0
µ-fast überall.
Neben dem Maßraum (Ω, A, µ) sei jetzt noch ein meßbarer Raum (Ω0 , A0 ) gegeben. Für eine meßbare Abbildung T : Ω → Ω0 hatten wir in (16.4) das Bildmaß
T (µ) erklärt durch T (µ)(A0 ) := µ(T −1 (A0 )) für A0 ∈ A0 . Für die zugehörigen
Integrale ergibt sich jetzt der folgende Transformationssatz.
(17.14) Satz. (Transformationssatz) Seien (Ω, A, µ) ein Maßraum, (Ω0 , A0 ) ein
meßbarer Raum und T : Ω → Ω0 eine (A, A0 )-meßbare Abbildung. Sei f 0 eine
A0 -meßbare numerische Funktion auf Ω0 . Die Funktion f 0 ist genau dann T (µ)integrierbar, wenn f 0 ◦ T µ-integrierbar ist. In diesem Fall oder wenn f 0 ≥ 0 ist,
gilt
Z
Z
0
f dT (µ) = f 0 ◦ T dµ.
Beweis. Nach Satz (16.3) ist f 0 ◦ T meßbar. Ist e0 =
funktion auf (Ω0 , A0 ), so gilt offenbar
0
e ◦T =
n
X
i=1
αi 1Ai
Pn
i=1
αi 1A0i eine Elementar-
mit Ai = T −1 (A0i ),
149
und e0 ◦ T ist eine Elementarfunktion auf (Ω, A). Daher gilt
Z
n
X
0
e ◦ T dµ =
αi µ(Ai ) =
i=1
n
X
=
n
X
αi µ(T −1 (A0i ))
i=1
αi T (µ)(A0i )
Z
=
e0 dT (µ).
i=1
Sei f 0 ≥ 0. Da es nach Hilfssatz (17.2) eine Folge (e0n )n∈N von Elementarfunktionen
auf (Ω0 , A0 ) mit 0 ≤ e01 ≤ e02 ≤ . . . und lim e0n = f 0 gibt und da dann auch
0 ≤ e01 ◦ T ≤ e02 ◦ T ≤ . . . und lim(e0n ◦ T ) = f 0 ◦ T gilt, folgt nach Satz (17.6)
Z
Z
0
f ◦ T dµ =
lim(e0n
Z
= lim
e0n
Z
◦ T ) dµ = lim
Z
dT (µ) =
e0n ◦ T dµ
lim e0n
Z
dT (µ) =
f 0 dT (µ).
Nun sei f 0 eine beliebige A-meßbare numerische Funktion. Nach dem bereits
Bewiesenen gilt
Z
f
0+
f
0−
Z
Z
dT (µ) =
f
0+
f
0−
Z
dT (µ) =
Z
(f 0 ◦ T )+ dµ,
Z
(f 0 ◦ T )− dµ.
◦ T dµ =
◦ T dµ =
Damit ergeben sich die restlichen Behauptungen.
Bemerkung. Sei F : R → R eine maßerzeugende Funktion, also eine monoton nicht abnehmende, linksseitig stetige Funktion. Sei µ das von F erzeugte
Lebesgue-Stieltjes-Maß, also (siehe §14) das eindeutig bestimmte Maß auf B 1 mit
µ([a, b)) = F (b) − F (a)
für a, b ∈ R, a < b.
Ist g : R → R eine µ-integrierbare Funktion, so schreibt man auch
Z
Z
g dµ =:
g dF
und nennt dies das Lebesgue-Stieltjes-Integral der Funktion g bezüglich der maßerzeugenden Funktion F .
150
18
18 KONVERGENZSÄTZE FÜR DAS INTEGRAL
Konvergenzsätze für das Integral
Bei der praktischen Handhabung des in §17 definierten Integrals machen sich
seine analytischen Eigenschaften sehr angenehm bemerkbar. Dies zeigt schon der
bereits mehrfach benutzte Satz (17.6) von der monotonen Konvergenz. Das folgende Resultat läßt sich als Ausdehnung dieses Satzes auf nicht notwendig monotone Folgen ansehen. Dann brauchen die Grenzwerte nicht mehr zu existieren;
immerhin gilt aber noch folgende Ungleichung.
(18.1) Satz. (Lemma von Fatou) Für jede Folge (fn )n∈N nichtnegativer meßbarer
Funktionen auf Ω gilt
Z
Z
(lim inf fn ) dµ ≤ lim inf fn dµ.
n→∞
n→∞
Beweis. Mit hn := inf k≥n fk gilt
lim inf fn = lim hn .
n→∞
n→∞
Nach Satz (16.9) ist hn meßbar, und es gilt 0 ≤ h1 ≤ h2 ≤ . . . sowie hn ≤ fn für
n ∈ N. Aus Satz (17.6) folgt also
Z
Z
Z
(lim inf fn ) dµ =
lim hn dµ = lim
hn dµ
n→∞
n→∞
n→∞
Z
= lim inf
n→∞
Z
hn dµ ≤ lim inf
n→∞
fn dµ.
Beispiel. In Satz (18.1) kann die Voraussetzung nichtnegativ“ nicht ersetzt
werR
”
den durch integrierbar“ (nicht einmal, wenn die Folgen (fn )n∈N und ( fn dµ)n∈N
”
konvergieren): Sei (Ω, A, µ) = (R, B 1 , λ),
(
−1 für x ∈ [n, n + 1],
fn (x) :=
0 für x ∈ R \ [n, n + 1].
Dann ist
Z
Z
lim fn dµ = 0 > −1 = lim
n→∞
n→∞
Das folgende Resultat ist das wichtigste dieses Typs.
fn dµ.
151
(18.2) Satz. (Konvergenzsatz von Lebesgue, Satz von der majorisierten Konvergenz). Sei (fn )n∈N eine fast überall konvergente Folge meßbarer numerischer
Funktionen auf Ω. Es gebe eine integrierbare Funktion g auf Ω mit
|fn | ≤ g
fast überall
(n ∈ N).
Dann gibt es eine integrierbare Funktion f auf Ω mit
f = lim fn
fast überall
n→∞
und
Z
lim
n→∞
Z
fn dµ =
f dµ.
Beweis. Nach Voraussetzung gibt es eine µ-Nullmenge N0 , so daß limn→∞ fn (x)
für x ∈ Ω\N0 existiert. Ferner gibt es für n ∈ N eine Nullmenge Nn mit |fn (x)| ≤
g(x) für alle x ∈ Ω \ Nn . Da g integrierbar ist, gibt es nach Satz (8.10) eine
Nullmenge
N∞ mit g(x) < ∞ für alle x ∈ Ω \ N∞ . Die Menge N := N0 ∪ N∞ ∪
S
n∈N Nn ist eine Nullmenge.
Setzen wir f n := fn 1Ω\N , so ist f n meßbar, und die Folge (f n )n∈N ist überall
konvergent, also wird durch
f := lim f n
n→∞
eine meßbare Funktion f definiert. Die Funktion g := g1Ω\N ist integrierbar und
erfüllt |f n | ≤ g und g < ∞ auf ganz Ω. Es bedeutet daher keine Beschränkung
der Allgemeinheit, im Satz von vornherein
|fn | ≤ g,
lim fn = f,
n→∞
g<∞
auf ganz Ω
anzunehmen.
Wegen |fn | ≤ g ist fn integrierbar, ferner folgt |f | ≤ g, also ist f integrierbar.
Wegen −fn ≤ g ist g + fn ≥ 0, nach Satz (18.1) folgt also
Z
Z
Z
Z
(g + f ) dµ = lim(g + fn ) dµ = lim inf(g + fn ) dµ ≤ lim inf (g + fn ) dµ,
somit
Z
Z
f dµ ≤ lim inf
fn dµ.
Wegen fn ≤ g ist g − fn ≥ 0, analog wie oben folgt also
Z
Z
Z
(−f ) dµ ≤ lim inf (−fn ) dµ = − lim sup fn dµ.
152
19 DER SATZ VON RADON-NIKODYM
Aus
Z
Z
f dµ ≤ lim inf
folgt
R
f dµ = lim
R
Z
fn dµ ≤ lim sup
Z
fn dµ ≤
f dµ
fn dµ.
Das Beispiel nach Satz (18.1) zeigt, daß die Voraussetzung |fn | ≤ g mit integrierbarem g nicht ersetzt werden kann durch die Voraussetzung, daß alle fn
integrierbar sind.
19
Der Satz von Radon-Nikodym
Ist (Ω, A, µ) ein Maßraum und f eine meßbare nichtnegative oder integrierbare
Funktion auf Ω, so wird laut Satz (17.12) durch
Z
ν(A) := f dµ
für A ∈ A
(10)
A
ein signiertes Maß ν auf A definiert. Eine solche Darstellung eines signierten
Maßes ν vermittels einer Funktion f kann insbesondere dann von Vorteil sein,
wenn das Maß µ als wohlbekannt anzusehen ist (wie z.B. das Lebesgue-Maß auf
Rn ). Wenn der Zusammenhang (10) zwischen ν und µ besteht, sagt man auch, daß
ν bezüglich µ die Dichte f besitzt. Das Ziel dieses Abschnitts ist die Beantwortung
der Frage, wie man von einem signierten Maß ν feststellen kann, ob es bezüglich
eines gegebenen Maßes µ eine Dichte besitzt, also als unbestimmtes µ-Integral
einer meßbaren Funktion darstellbar ist. Gilt (10) und Rist N eine µ-Nullmenge,
so muß jedenfalls auch ν(N ) = 0 gelten (wegen ν(N ) = f 1N dµ, f 1N = 0 µ-fast
überall und Satz (17.10)). Wir werden zeigen, daß diese notwendige Bedingung
auch hinreichend ist, falls µ und ν als σ-endlich vorausgesetzt werden.
Ist ν ein signiertes Maß, so versteht man unter einer ν-Nullmenge eine |ν|Nullmenge (eine Menge A ∈ A mit ν(A) = 0 ist also im allgemeinen noch keine
ν-Nullmenge!).
(19.1) Def. Sei (Ω, A, µ) ein Maßraum und ν ein signiertes Maß auf A. Dann
heißt ν absolut stetig bezüglich µ (kurz: µ-stetig; Schreibweise: ν µ), wenn jede
µ-Nullmenge auch eine ν-Nullmenge ist.
Wir betrachten zunächst den Fall, daß auch ν ein Maß ist.
(19.2) Satz und Def. (Radon-Nikodym) Seien µ und ν zwei σ-endliche Maße
auf der σ-Algebra A in Ω. Ist ν absolut stetig bezüglich µ, so gibt es eine meßbare
153
nichtnegative reellwertige Funktion f auf Ω mit
Z
für A ∈ A.
ν(A) = f dµ
A
Jede solche Funktion f wird als Radon-Nikodymsche Ableitung oder Dichte von ν
bezüglich µ bezeichnet. Ist f 0 eine weitere derartige Funktion, so gilt µ-fast überall
f = f 0.
Bemerkung. Die Voraussetzung, daß auch ν ein σ-endliches Maß ist, kann entbehrt werden, wenn man in der Formulierung des Satzes von Radon-Nikodym
reellwertige“ durch numerische“ ersetzt. Wir wollen das hier aber nicht zeigen.
”
”
Beweis von (19.2). 1. Schritt: µ und ν seien endliche Maße.
RSei F die Menge aller meßbaren reellwertigen Funktionen f ≥ 0 auf Ω mit
f dµ ≤ ν(A) für alle A ∈ A (es ist F =
6 ∅ wegen 0 ∈ F). Setze
A
Z
f dµ : f ∈ F .
α := sup
R
Es gibt eine Folge (fn )n∈N in F mit limn→∞ fn dµ = α. Für n ∈ N sei gn :=
max{f1 , . . . , fn }. Für A ∈ A setzen wir induktiv
Ak := {gn = fk } ∩ A ∩ Ac1 ∩ . . . ∩ Ack−1 ,
k = 1, . . . , n,
dann folgt
Z
gn dµ =
n Z
X
k=1
A
fk dµ ≤
Ak
n
X
ν(Ak ) = ν(A).
k=1
Wegen 0 ≤ g1 ≤ g2 ≤ . . . folgt nach Satz (17.6) für die numerische Funktion
f := limn→∞ gn
Z
Z
f dµ = lim
gn dµ ≤ ν(A),
n→∞
A
also f ∈ F und daher
Z
A
R
f dµ ≤ α. Aus
Z
Z
f dµ = lim gn dµ ≥ lim fn dµ = α
R
R
folgt f dµ = α. Wegen f dµ ≤ ν(Ω) < ∞ ist f nach Satz (17.10) µ-fast überall
endlich, o.B.d.A. sei f überall endlich.
Wir behaupten, daß
Z
ν(A) =
f dµ
A
für alle A ∈ A
154
19 DER SATZ VON RADON-NIKODYM
gilt. Angenommen, das wäre falsch. Durch
Z
λ(A) := ν(A) − f dµ
für A ∈ A
A
wird dann ein Maß λ mit λ(Ω) > 0 erklärt. Für geeignetes m ∈ R+ gilt µ(Ω) −
mλ(Ω) < 0. Sei Ω = P ∪ N , P ∩ N = ∅ eine Hahn-Zerlegung von Ω bezüglich des
signierten Maßes µ − mλ (vgl. Satz (15.2)). Wäre µ(N ) = 0, so wäre ν(N ) = 0
wegen ν µ, also λ(N ) = 0 und daher
0 ≤ (µ − mλ)(P ) = (µ − mλ)(Ω) < 0;
aus diesem Widerspruch folgt µ(N ) > 0. Setze h := m1 1N . Für A ∈ A gilt
(µ − mλ)(A ∩ N ) ≤ 0, da N eine negative Menge bezüglich µ − mλ ist, also ist
Z
Z
1
h dµ = µ(A ∩ N ) ≤ λ(A ∩ N ) ≤ λ(A) = ν(A) − f dµ,
m
A
A
R
(f + h) dµ ≤ ν(A) und somit f + h ∈ F. Andererseits ist
Z
Z
1
(f + h) dµ = f dµ + µ(N ) > α,
m
R
was der Definition von α widerspricht. Damit ist ν(A) = A f dµ für alle A ∈ A
gezeigt.
also
A
2. Schritt: µ und ν seien σ-endliche Maße.
S
Es gibt dann eine disjunkte Folge (An )n∈N in A mit n∈N An = Ω, µ(An ) < ∞,
ν(An ) < ∞. Setze µn (A) := µ(A ∩ An ) und νn (A) := ν(A ∩ An ) für A ∈ A. Dann
sind µn und νn endliche Maße auf A mit νn µn . Nach dem 1. Schritt gibt es
eine meßbare reellwertige Funktion fn ≥ 0 auf Ω mit
Z
ν(A ∩ An ) =
fn dµ
für A ∈ A.
A∩An
Setze f (x) := fn (x) für x ∈ An , dann ist f ≥ 0 meßbar und reellwertig, und für
A ∈ A gilt
Z
X
X Z
X Z
ν(A) =
ν(A ∩ An ) =
fn dµ =
f dµ = f dµ.
A∩An
A∩An
A
Damit ist die Existenzaussage von Satz (19.2) nachgewiesen. Zum Beweis der
Eindeutigkeit f.ü. seien f, f 0 zwei meßbare Funktionen mit
Z
Z
ν(A) = f dµ = f 0 dµ
für A ∈ A.
A
A
155
Ist ν endlich,
so sind f und f 0 µ-integrierbar, also ist h := f −f 0 integrierbar, und
R
es gilt A h dµ = 0 für alle A ∈ A. Aus Satz (17.13) folgt h = 0 µ-fast überall.
S
Ist ν nur σ-endlich, so gibt es eine disjunkte Folge (An )n∈N in A mit An = Ω
und ν(An ) < ∞. Aus
Z
Z
f 0 dµ
für A ∈ A
f dµ =
ν(A ∩ An ) =
A∩An
A∩An
folgt nach dem Vorstehenden, daß f |An = f 0 |An µ-fast überall auf An gilt. Daraus
folgt f = f 0 µ-fast überall.
Es liegt nahe, daß man den Satz von Radon-Nikodym auf signierte Maße ausdehnen kann. Wir beschränken uns dabei auf endliche signierte Maße. Eine Ausdehnung auf σ-endliche signierte
Maße
R
R + ist möglich,
R − wenn man den Integralbegriff so
verallgemeinert, daß f dµ = f dµ − f dµ auch dann definiert wird, wenn
nur eines der rechts stehenden Integrale endlich ist.
(19.3) Satz. (Radon-Nikodym) Seien µ ein σ-endliches Maß und ν ein endliches
signiertes Maß auf dem meßbaren Raum (Ω, A). Gilt ν µ, so gibt es eine µintegrierbare Funktion f auf Ω mit
Z
ν(A) = f dµ
für A ∈ A.
A
Beweis. Sei ν = ν + − ν − die Jordan-Zerlegung von ν gemäß Satz (15.2). Dann
sind ν + und ν − endliche Maße. Offenbar gilt ν + µ und ν − µ (beachte die
Darstellung ν + (A) = ν(A ∩ P ) etc.). Nach Satz (19.2) existieren meßbare reelle
Funktionen f1 ≥ 0, f2 ≥ 0 auf Ω mit
Z
Z
+
−
ν (A) = f1 dµ,
ν (A) = f2 dµ
für A ∈ A.
A
A
Da ν + und ν − endlich sind, sind f1 , f2 µ-integrierbar, also ist f := f1 −f2 ebenfalls
µ-integrierbar, und es gilt
Z
Z
Z
f dµ = f1 dµ − f2 dµ = ν + (A) − ν − (A) = ν(A)
A
A
A
für alle A ∈ A.
Im Satz von Radon-Nikodym tritt die wesentliche Voraussetzung auf, daß das
signierte Maß ν bezüglich des Maßes µ absolut stetig ist. Die Anwendbarkeit
156
20 PRODUKTMASSE
dieses Satzes wird erweitert durch den Nachweis, daß man jedes σ-endliche signierte Maß eindeutig darstellen kann als Summe eines µ-stetigen Maßes und
eines µ-singulären Maßes (vgl. Def. (15.3)).
(19.4) Satz. (Zerlegungssatz von Lebesgue) Seien µ ein σ-endliches Maß und
ν ein σ-endliches signiertes Maß auf der σ-Algebra A. Dann gibt es eindeutig
bestimmte signierte Maße ν1 , ν2 auf A mit ν1 µ, ν2 ⊥ µ und ν = ν1 + ν2 .
Beweis. Zunächst sei ν als σ-endliches Maß vorausgesetzt. Setze λ := µ + ν,
dann ist auch λ ein σ-endliches Maß. Wegen µ λ gibt es nach Satz (19.2) eine
meßbare Funktion f ≥ 0 auf Ω mit
Z
µ(A) = f dλ
für A ∈ A.
A
Setze B := {f > 0} und
ν1 (A) := ν(A ∩ B),
ν2 (A) := ν(A ∩ B c )
für A ∈ A.
Dann sind ν1 , ν2 Maße mit ν1 + ν2 = ν.
R
Sei A ∈ A und µ(A) = 0. Wegen A f dλ = 0 und f ≥ 0 gilt f = 0 λ-fast überall
auf A. Wegen f > 0 auf A∩B muß λ(A∩B) = 0 und daher ν1 (A) = ν(A∩B) = 0
sein. Somit ist ν1 µ.
R
Wegen ν2 (B) = 0 und µ(B c ) = B c 0 dλ = 0 ist ν2 ⊥ µ.
Ist ν ein σ-endliches signiertes Maß, so kann man das bereits Bewiesene auf
die σ-endlichen Maße ν + und ν − anwenden und erhält durch Subtraktion das
gewünschte Resultat (Differenzen von µ-stetigen bzw. µ-singulären Maßen haben
offenbar die gleichen Eigenschaften).
Zum Nachweis der Eindeutigkeit nehmen wir ν = ν1 + ν2 = ν10 + ν20 mit ν1 µ,
ν10 µ, ν2 ⊥ µ, ν20 ⊥ µ an. Zunächst sei ν als endlich vorausgesetzt. Es folgt
ϕ := ν1 − ν10 µ und ϕ = ν20 − ν2 ⊥ µ, daraus folgt ϕ = 0: Ist nämlich B ∈ A
eine Menge mit |ϕ|(B) = µ(B c ) = 0, so gilt für A ∈ A
ϕ(A) = ϕ(A ∩ B) + ϕ(A ∩ B c ) = 0.
Die Eindeutigkeit für σ-endliches ν folgt jetzt in der gewohnten Weise.
20
Produktmaße
In Analysis II lernt wurde bereits die Bedeutung des Satzes von Fubini herausgestellt. Er ermöglicht es, Integrale über den Raum Rn , den man als Produkt
157
von Rk und Rn−k darstellt, durch sukzessive Integrationen über Rk und Rn−k zu
berechnen. In der allgemeinen Integrationstheorie gilt ein entsprechender Satz:
Zu zwei gegebenen σ-endlichen Maßräumen kann man einen Produkt-Maßraum
so erklären, daß die formal gleichlautende Verallgemeinerung des Satzes von Fubini gilt. Gegenüber dem klassischen Spezialfall, wo ja der Produktraum von
vornherein gegeben ist, verschieben sich jetzt aber die Akzente insofern, als im
allgemeinen Fall gerade die Existenz des Produktmaßes mit den gewünschten
Eigenschaften die wesentliche Aussage ist. Produkte von Maßräumen spielen insbesondere in der Wahrscheinlichkeitstheorie eine wesentliche Rolle, und dort ist
man auch genötigt, Produkte von unendlich vielen Wahrscheinlichkeitsräumen zu
bilden.
Zunächst betrachten wir das in naheliegender Weise erklärte Produkt von zwei
meßbaren Räumen und einige damit zusammenhängende Begriffsbildungen.
(20.1) Def. Seien (Ω1 , A1 ), (Ω2 , A2 ) meßbare Räume. Die von dem System
{A × B : A ∈ A1 , B ∈ A2 }
in Ω1 × Ω2 erzeugte σ-Algebra heißt das Produkt der σ-Algebren A1 und A2 ; sie
wird mit A1 ⊗ A2 bezeichnet. Der meßbare Raum (Ω1 × Ω2 , A1 ⊗ A2 ) heißt das
Produkt der meßbaren Räume (Ω1 , A1 ), (Ω2 , A2 ).
(20.2) Def. (Vor. und Bez. wie in (20.1)). Für E ⊂ Ω1 × Ω2 und x ∈ Ω1 wird
Ex := {y ∈ Ω2 : (x, y) ∈ E}
gesetzt; jede solche Menge heißt ein Ω1 -Schnitt von E. Analog ist
E y := {x ∈ Ω1 : (x, y) ∈ E}
mit y ∈ Ω2 ein Ω2 -Schnitt von E. Für eine Funktion f auf E und für x ∈ Ω1 wird
fx (y) := f (x, y)
für y ∈ Ex
gesetzt; jede solche Funktion heißt ein Ω1 -Schnitt von f . Analog ist durch
f y (x) := f (x, y)
für x ∈ E y
mit y ∈ Ω2 ein Ω2 -Schnitt f y von f erklärt.
(20.3) Satz. Seien (Ω1 , A1 ), (Ω2 , A2 ) meßbare Räume, sei E ⊂ Ω1 × Ω2 eine
A1 ⊗ A2 -meßbare Teilmenge und f eine A1 ⊗ A2 -meßbare Funktion auf Ω1 × Ω2 .
Dann gilt:
(a) Für jedes x ∈ Ω1 ist Ex eine A2 -meßbare Teilmenge (analog ist jedes E y eine
158
20 PRODUKTMASSE
A1 -meßbare Menge). Kurz: Jeder Schnitt einer meßbaren Menge ist meßbar.
(b) Für jedes x ∈ Ω1 ist fx eine A2 -meßbare Funktion (analog ist jedes f y eine
A1 -meßbare Funktion). Kurz: Jeder Schnitt einer meßbaren Funktion ist meßbar.
Beweis. (a) Sei E das System aller Teilmengen E von Ω1 ×Ω2 , für die jeder Schnitt
meßbar ist. Ist A ∈ A1 und B ∈ A2 , so ist jeder Schnitt von A × B trivialerweise
meßbar; also enthält E ein Erzeugendensystem
S
S der σ-Algebra A1 ⊗ A2 . Beachtet
c
c
man, daß (E )x = (Ex ) und ( Ei )x = (Ei )x für E, Ei ⊂ Ω1 × Ω2 , x ∈ Ω1
und analoge Gleichungen für Ω2 -Schnitte gelten, so zeigt man leicht, daß E eine
σ-Algebra ist. Somit gilt A1 ⊗ A2 ⊂ E, woraus die Behauptung (b) folgt.
(b) Für α ∈ R gilt y ∈ {fx ≤ α} ⇔ fx (y) ≤ α ⇔ f (x, y) ≤ α ⇔ (x, y) ∈ {f ≤
α} ⇔ y ∈ {f ≤ α}x , also {fx ≤ α} = {f ≤ α}x . Aus Teil (a) folgt jetzt die
Behauptung.
Der nächste Satz ist die entscheidende Grundlage für die Konstruktion des Produktmaßes und für den Beweis des Satzes von Fubini.
(20.4) Satz. Seien (Ωi , Ai , µi ) (i = 1, 2) σ-endliche Maßräume. Für eine meßbare Menge E ⊂ Ω1 × Ω2 sei
fE1 (x) := µ2 (Ex )
für x ∈ Ω1 ,
fE2 (y) := µ1 (E y )
für y ∈ Ω2
gesetzt. Dann sind fE1 und fE2 meßbar, und es gilt
Z
fE1
Z
dµ1 =
fE2 dµ2 .
Beweis. Zunächst setzen wir voraus, daß µ1 und µ2 endlich sind. Es sei M das
System
Teilmengen E ⊂ Ω1 × Ω2 , für die fE1 , fE2 meßbar sind
R 1aller meßbaren
R 2
und fE dµ1 = fE dµ2 gilt. Ferner sei E das System aller endlichen disjunkten
Vereinigungen von Mengen der Form A × B mit A ∈ A1 , B ∈ A2 . Wir zeigen:
(a) M ist ein monotones System,
(b) E ⊂ M,
(c) E ist eine Algebra.
Die von E erzeugte σ-Algebra, also A1 ⊗ A2 , ist dann nach Satz (11.7)(a) gleich
dem von E erzeugten monotonen System, also in M enthalten. Jede A1 ⊗ A2 meßbare Menge E gehört somit zu M, wie im Satz behauptet.
159
Beweis von (a): Sei (En )n∈N eine monotone Folge in M, gelte zunächst En ↑
E. Für x ∈ Ω1 gilt auch Enx ↑ Ex (wobei Enx := (En )x gesetzt ist). Unter
Verwendung von Satz (12.6) ergibt sich
[
Enx
fE1 (x) = µ2 (Ex ) = µ2
= lim µ2 (Enx ) = lim fE1 n (x),
analog fE2 = lim fE2 n . Somit sind fE1 und fE2 meßbar, und es gilt
Z
Z
Z
Z
1
1
1
lim fEn dµ1 = lim fEn dµ1 = lim fE2 n dµ2
fE dµ1 =
Z
=
lim fE2 n
Z
dµ2 =
fE2 dµ2 .
Dabei wurde etwa der Satz (17.6) von der monotonen Konvergenz benutzt. Im Fall
En ↓ E schließt man analog, wobei die Endlichkeit von µi zu beachten ist. Statt
des Satzes von der monotonen Konvergenz kann man wegen 0 ≤ fE1 n ≤ µ2 (Ω2 )
und 0 ≤ fE2 n ≤ µ1 (Ω1 ) den Konvergenzsatz (18.2) von Lebesgue anwenden. In
jedem Fall ergibt sich also E ∈ M und damit die Behauptung (a).
Beweis von (b): Sei E = A × B mit A ∈ A1 , B ∈ A2 . Dann
ist fE1 = µ2 (B)1A und
R
fRE2 = µ1 (A)1B ; also sind fE1 und fE2 meßbar, und es gilt fE1 dµ1 = µ2 (B)µ1 (A) =
fE2 dµ2 . Somit ist E ∈ M. Sind E1 , E2 ∈ M disjunkt, so gilt fEi 1 ∪E2 = fEi 1 +fEi 2 ,
woraus E1 ∪ E2 ∈ M folgt.
Beweis von (c): Es gilt Ω1 × Ω2 ∈ E. Für A1 , A2 ∈ A1 und B1 , B2 ∈ A2 ist
(A1 × B1 ) \ (A2 × B2 ) = [(A1 ∩ A2 ) × (B1 \ B2 )] ∪ [(A1 \ A2 ) × B1 ] ∈ E,
denn die Vereinigung ist disjunkt. Insbesondere ist E abgeschlossen gegen Komplementbildung. Ferner ist E abgeschlossen gegenüber der Bildung von endlichen
disjunkten Vereinigungen und von Differenzen, also auch gegenüber der Bildung
von beliebigen endlichen Vereinigungen. Somit ist E eine Algebra.
Die Behauptung des Satzes ist also bewiesen unter der Voraussetzung, daß µ1 und
µ2 endlich sind. Wird nurSσ-Endlichkeit vorausgesetzt, so gibt es eine zunehmende
i
i
Folge (Ain )n∈N in Ωi mit ∞
n=1 An = Ωi und µi (An ) < ∞ für n ∈ N (i = 1, 2). Für
eine meßbare Menge E ⊂ Ω1 × Ω2 setzen wir E ∩ (A1n × A2n ) =: En . Dann gilt
fEi = lim fEi n ,
n→∞
und die Folge (fEi n )n∈N ist monoton nicht abnehmend. Wendet man das bereits Bewiesene auf die endlichen Maßräume (Ωi , Ai , µi Ain ) an (wobei (µi Ain )(A) :=
160
20 PRODUKTMASSE
i
i
µ
n ) ist),
R so2 erhält man die Meßbarkeit von fEn (i = 1, i2) und die Gleichung
R i (A∩A
1
R fE1 n dµ1 =R 2fEn dµ2 . Daraus folgt die Meßbarkeit von fE und die Gleichung
fE dµ1 = fE dµ2 .
Für das µ-Integral einer Funktion f auf dem Maßraum (Ω, A, µ) schreiben wir
statt
Z
Z
Z
f dµ auch
f (x) dµ(x) oder
f (x)µ(dx).
Ist z.B. f : Ω × M → R (M eine Menge) eine Funktion derart, daß für ein
y ∈ M das Integral der Funktion f (·, y) : Ω → R existiert, so schreiben wir dieses
Integral in der Form
Z
Z
f (x, y) dµ(x) = f (x, y)µ(dx).
Nachdem Satz (20.4) zur Verfügung steht, liegt die Konstruktion eines Produktmaßes jetzt nahe, vor allem wenn man sich als heuristische Hilfe noch das sogenannte Cavalierische Prinzip“ ins Gedächtnis ruft.
”
(20.5) Satz und Def. Seien (Ωi , Ai , µi ) (i = 1, 2) σ-endliche Maßräume. Dann
gibt es genau ein Maß ν auf A1 ⊗ A2 mit
ν(A × B) = µ1 (A)µ2 (B)
für alle A ∈ A1 , B ∈ A2 .
Es wird gegeben durch
Z
Z
ν(E) := µ2 (Ex ) dµ1 (x) = µ1 (E y ) dµ2 (y)
für E ∈ A1 ⊗ A2 .
Das Maß ν ist σ-endlich; es wird mit µ1 ⊗µ2 bezeichnet und heißt das Produktmaß
der Maße µ1 und µ2 . Der Maßraum
(Ω1 × Ω2 , A1 ⊗ A2 , µ1 ⊗ µ2 )
heißt das Produkt der gegebenen Maßräume.
Beweis. Die Eindeutigkeit von ν folgt aus Satz (13.8): Man wähle E := {A × B :
A ∈ A1 , B ∈ A2 } – das ist ein ∩-stabiles Erzeugendensystem von A1 ⊗ A2 –
und beachte die σ-Endlichkeit von µ1 , µ2 . Daß ν wie angegeben definiert werden
kann, folgt aus Satz (20.4). Die σ-Additivität der so erklärten Mengenfunktion ν
folgt aus Satz (17.6), also ist ν ein Maß, das offenbar ν(A × B) = µ1 (A)µ2 (B)
für A ∈ A1 , B ∈ A2 erfüllt und σ-endlich ist.
Bemerkung. Bezeichnet B k die σ-Algebra der Borelmengen in Rk und β k das kdimensionale Borel-Lebesguesche Maß (das Lebesgue-Maß, eingeschränkt auf B k ),
161
so gilt offenbar B 1 ⊗B1 = B 2 und β 1 ⊗β 1 = β 2 . Anders liegen die Dinge, wenn wir
die Vervollständigungen (Rk , Lk , λk ) der Maßräume (Rk , B k , β k ) betrachten: Es ist
L1 ⊗L1 6= L2 . Ist nämlich A ⊂ R eine nicht Lebesgue-meßbare Teilmenge, so kann
A × {o} wegen Satz (20.3)(a) keine L1 ⊗ L1 -meßbare Teilmenge von R × R = R2
sein. Als Teilmenge der λ2 -Nullmenge R × {o} ist A × {o} aber L2 -meßbar. Es
zeigt sich, daß erst die Vervollständigung des Maßraumes (R×R, L1 ⊗L1 , λ1 ⊗λ1 )
den Maßraum (R2 , L2 , λ2 ) ergibt.
Für das durch (20.5) definierte Produktmaß gilt nun der Satz von Fubini in der
aus Analysis II im Spezialfall bekannten Form. Wir geben zwei Versionen an, eine
für nichtnegative meßbare Funktionen und eine für integrierbare Funktionen.
(20.6) Satz. (Fubini) Seien (Ωi , Ai , µi ) σ-endliche Maßräume (i = 1, 2). Sei f
eine numerische Funktion auf Ω1 × Ω2 .
(a) Die Funktion f sei nichtnegativ und A1 ⊗ A2 -meßbar. Dann ist die Funktion
Z
x 7→ f (x, y) dµ2 (y)
(x ∈ Ω1 )
A1 -meßbar, die Funktion
Z
y 7→
f (x, y) dµ1 (x)
(y ∈ Ω2 )
ist A2 -meßbar, und es gilt
Z
Z Z
Z Z
f dµ1 ⊗ µ2 =
f (x, y) dµ2 (y) dµ1 (x) =
f (x, y) dµ1 (x) dµ2 (y).
(b) Die Funktion f sei µ1 ⊗µ2 -integrierbar. Dann ist fx µ2 -integrierbar für µ1 -fast
alle x ∈ Ω1 , und f y ist µ1 -integrierbar für µ2 -fast alle y ∈ Ω2 ; die (fast überall
definierten) Funktionen
Z
Z
x 7→ f (x, y) dµ2 (y)
und
y 7→ f (x, y) dµ1 (x)
sind integrierbar, und es gilt
Z
Z Z
Z Z
f dµ1 ⊗ µ2 =
f (x, y) dµ2 (y) dµ1 (x) =
f (x, y) dµ1 (x) dµ2 (y).
Bemerkung. Hier kommen fast überall definierte Funktionen vor. Unter einer
fast überall auf dem Maßraum (Ω, A, µ) definierten Funktion versteht man eine
Funktion f : Ω \ N → R, wo N eine µ-Nullmenge ist. Für eine solche Funktion
kann man etwa
(
f (x) für x ∈ Ω \ N,
f˜(x) :=
0
für x ∈ N
162
20 PRODUKTMASSE
setzen und nennt dann f meßbar (integrierbar), wenn f˜ meßbar (integrierbar) ist.
Man schreibt
Z
Z
f dµ := f˜ dµ,
falls das rechte Integral existiert.
Beweis von SatzP(20.6). Zur Abkürzung sei A1 ⊗ A2 =: A undPµ1 ⊗ µ2 =: µ
gesetzt. Ist f =
αi 1Ei eine A-Elementarfunktion, so ist fx =
αi 1Eix (denn
1Ei (x, y) = 1 ⇔ (x, y) ∈ Ei ⇔ y ∈ Eix ⇔ 1Eix (y) = 1), also
Z
X
f (x, y) dµ2 (y) =
αi µ2 (Eix ).
Aus Satz (20.4) folgt die behauptete Meßbarkeit, ferner folgt nach Satz (20.5)
Z
Z Z
X
X Z
f dµ =
αi µ(Ei ) =
αi µ2 (Eix ) dµ1 (x) =
f (x, y) dµ2 (y) dµ1 (x).
R
Analog ergibt sich die Meßbarkeit von y 7→ f (x, y) dµ1 (x) und die Gleichung
Z
Z Z
f dµ =
f (x, y) dµ1 (x) dµ2 (y).
Ist f ≥ 0 und meßbar, so gibt es nach Hilfssatz (17.2) eine Folge (en )n∈N von
A-Elementarfunktionen
mit 0 ≤ e1 ≤ e2 ≤ . . . und lim en = f . Setzen wir
R
gn (x) := en (x, y) dµ2 (y), so ist gn A1 -meßbar, und es gilt 0 ≤ g1 ≤ g2 ≤ . . .
Nach dem Satz (17.6) von der monotonen Konvergenz folgt
Z
Z
lim gn (x) = lim en (x, y) dµ2 (y) = f (x, y) dµ2 (y).
R
Also ist die Funktion x 7→ f (x, y) dµ2 (y) A1 -meßbar, und nach dem bereits
Bewiesenen und Satz (17.6) folgt
Z
Z
Z Z
f dµ = lim en dµ = lim
en (x, y) dµ2 (y) dµ1 (x)
Z
= lim
Z
gn (x) dµ1 (x) =
lim gn (x) dµ1 (x)
Z Z
=
f (x, y) dµ2 (y) dµ1 (x).
Analog ergibt sich
Z
Z Z
f dµ =
f (x, y) dµ1 (x) dµ2 (y).
163
Damit ist (a) bewiesen.
Jetzt sei f eine µ-integrierbare Funktion auf Ω. Nach Teil (a) gilt
Z Z
Z
|f (x, y)|dµ2 (y) dµ1 (x) = |f | dµ < ∞.
R
Nach Satz (17.10) gilt |f (x, y)| dµ2 (y) < ∞ für µ1 -fast alle x ∈ Ω1 ; für fast alle
x ist also die Funktion fx µ2 -integrierbar. Die Funktion
Z
Z
Z
+
x 7→ f (x, y) dµ2 (y) = f (x, y) dµ2 (y) − f − (x, y) dµ2 (y)
ist also fast überall definiert, und nach (a) ist sie A1 -meßbar. Aus (a) folgt wegen
Z
Z
+
f dµ1 ⊗ µ2 < ∞,
f − dµ1 ⊗ µ2 < ∞,
daß diese Funktion µ1 -integrierbar ist und daß
Z
Z
Z
+
f dµ1 ⊗ µ2 =
f dµ1 ⊗ µ2 − f − dµ1 ⊗ µ2
Z Z
Z Z
+
f (x, y) dµ2 (y) dµ1 (x) −
=
f − (x, y) dµ2 (y) dµ1 (x)
Z Z
=
f (x, y) dµ2 (y) dµ1 (x)
gilt. Die restlichen Behauptungen ergeben sich analog.
Die Verallgemeinerung der vorstehenden Betrachtungen auf Produkte von endlich
vielen σ-endlichen Maßräumen bietet keine Schwierigkeiten. Zunächst vereinbart
man bekanntlich, die Produkte
(Ω1 × . . . × Ωn−1 ) × Ωn
und
Ω 1 × . . . × Ωn
zu identifizieren vermöge der bijektiven Abbildung
((x1 , . . . , xn−1 ), xn ) 7→ (x1 , . . . , xn );
analog für Ω1 × (Ω2 × . . . × Ωn ). Man kann also überhaupt jede Beklammerung
weglassen; die Bildung des Produktes von Mengen ist somit assoziativ.
Ist Ai eine σ-Algebra in Ωi (i = 1, . . . , n), so erklärt man das Produkt
n
O
i=1
Ai = A1 ⊗ . . . ⊗ An
164
20 PRODUKTMASSE
als die vom System {A1 × . . . × An : Ai ∈ Ai , i = 1, . . . , n} in Ω1 × . . . × Ωn
erzeugte σ-Algebra. Daß auch diese Produktbildung assoziativ ist, muß allerdings
bewiesen werden. Es ergibt sich aus folgendem Hilfssatz.
(20.7) Hilfssatz. Sei Ai eine σ-Algebra in Ωi und Ei ein Erzeugendensystem
von Ai mit Ωi ∈ Ei (i = 1, . . . , n). Dann wird A1 ⊗ . . . ⊗ An bereits vom System
E := {E1 × . . . × En : Ei ∈ Ei , i = 1, . . . , n}
erzeugt.
Beweis. Sei A(E) die von E in Ω1 ×. . .×Ωn erzeugte σ-Algebra. Für i ∈ {1, . . . , n}
ist das System
{A ⊂ Ωi : Ω1 × . . . × Ωi−1 × A × Ωi+1 × . . . × Ωn ∈ A(E)}
offenbar eine σ-Algebra in Ωi , die Ei und folglich Ai enthält. Ist also Ai ∈ Ai
(i = 1, . . . , n), so ist
A 1 × . . . × An =
n
\
(Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn ) ∈ A(E),
i=1
woraus die Behauptung folgt.
Jetzt ist klar, daß z.B.
(A1 ⊗ . . . ⊗ An−1 ) ⊗ An = A1 ⊗ . . . ⊗ An
ist, denn beide σ-Algebren werden von den Mengen der Form
(A1 × . . . × An−1 ) × An = A1 × . . . × An
mit Ai ∈ Ai
erzeugt.
Sind jetzt (Ωi , Ai , µi ) (i = 1, . . . , n) σ-endliche Maßräume, so kann man die Existenz genau eines Maßes ν auf A1 ⊗ . . . ⊗ An mit
ν(A1 × . . . × An ) = µ1 (A1 ) · · · µn (An )
für Ai ∈ Ai (i = 1, . . . , n)
nachweisen, indem man Satz (20.5) und vollständige Induktion benutzt; man
schreibt
n
O
ν = µ1 ⊗ . . . ⊗ µn =
µi
i=1
und nennt dieses Maß das Produktmaß von µ1 , . . . , µn . Aus der Eindeutigkeit von
Produktmaßen folgert man leicht die Assoziativität dieser Produktbildung.
165
Die Verallgemeinerung des Satzes von Fubini liegt auf der Hand.
Unendliche Produkte
Es ist insbesondere in der Wahrscheinlichkeitstheorie erforderlich, auch Produkte
von unendlich vielen Maßen zu bilden. Für den Fall von abzählbar vielen Wahrscheinlichkeitsmaßen wollen wir die Konstruktion hier durchführen.
Ist (Ωi )i∈N eine Folge von Mengen, so erklärt man das kartesische Produkt
Y
Ωi
oder
∞
Y
Ωi
i=1
i∈N
als die Menge aller Folgen (xi )i∈N mit xi ∈ Ωi für alle i ∈ N. Analog wird natürlich
∞
Y
Ωi
i=k
erklärt. Man nennt xi die i-te Koordinate von (xi )i∈N und die Abbildung
Y
Ωj → Ωi
pi :
j∈N
(xj )j∈N 7→ xi
die Projektion auf den i-ten Faktor. Wie üblich identifiziert man das endliche
Produkt
∞
∞
Y
Y
Ω 1 × . . . × Ωn ×
Ωi mit
Ωi .
i=n+1
i=1
Die Bezeichnung fast alle i ∈ N“ heißt im folgenden: alle i ∈ N bis auf endlich
”
viele.
(20.8) Def. Sei (Ωi , Ai )i∈N eine Folge meßbarer Räume und Ω =
Teilmenge von Ω der Form
A1 × . . . × An ×
∞
Y
Ωi
mit n ∈ N
Q
i∈N
Ωi . Jede
und Ai ∈ Ai (i = 1, . . . , n)
i=n+1
heißt meßbares Rechteck. Die vom System der meßbaren Rechtecke in Ω erzeugte
σ-Algebra A heißt Produkt-σ-Algebra der Folge (Ai )i∈N und wird mit
O
Ai
i∈N
bezeichnet. Der meßbare Raum (Ω, A) heißt das Produkt der Folge (Ωi , Ai )i∈N .
166
20 PRODUKTMASSE
N
Bemerkung. Die Produkt-σ-Algebra i∈N Ai ist offenbar die kleinste σ-Algebra
A in Ω, für die jede Projektion pk eine (A, Ak )-meßbare Abbildung ist (k ∈ N).
(20.9) Hilfssatz (Vor. wieNin (20.8)). Ist Ei ein Erzeugendensystem von Ai mit
Ωi ∈ Ei für i ∈ N, so wird i∈N Ai bereits vom System
(
)
Y
E :=
Ei : Ei ∈ Ei (i ∈ N) und Ei = Ωi für fast alle i ∈ N
i∈N
erzeugt.
Beweis (im wesentlichen eine Wiederholung des Beweises von (20.7)). Für i ∈ N
setze
(
)
∞
Y
Ci := A ⊂ Ωi : Ω1 × . . . × Ωi−1 × A ×
Ωj ∈ A(E) ;
j=i+1
dann ist Ci offenbar eine σ-Algebra in Ωi , die Ei und folglich Ai enthält. Ist also
n ∈ N und Ai ∈ Ai (i = 1, . . . , n), so ist
∞
Y
A1 × . . . × An ×
Ωj
j=n+1
=
n
\
Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn ×
i=1
∞
Y
!
Ωj
∈ A(E).
j=n+1
A(E)
enthält also alle meßbaren Rechtecke und damit die Produkt-σ-Algebra
N
i∈N Ai .
(20.10) Def. und Beh. Sei (Ωi , Ai )i∈N eine Folge meßbarer Räume und (Ω, A)
ihr Produkt. Jede Menge Z ⊂ Ω der Form
Z =A×
∞
Y
Ωj
mit n ∈ N und A ∈ A1 ⊗ . . . ⊗ An
j=n+1
heißt meßbarer Zylinder. Das System Z aller meßbaren Zylinder ist eine Algebra
in Ω; es ist A(Z) = A.
Beweis der Behauptung. Wegen
(A1 ⊗ . . . ⊗ An ) ⊗
∞
O
j=n+1
Aj =
∞
O
Aj = A
j=1
(wie aus Hilfssatz (20.9) folgt) ist Z ⊂ A, also A(Z) ⊂ A. Jedes meßbare Rechteck ist ein meßbarer Zylinder, also gilt auch A ⊂ A(Z). Daß Z eine Algebra ist,
ist leicht zu sehen.
167
Nun betrachten wir abzählbare Produkte von Maßräumen, beschränken uns dabei
jedoch auf den Fall der Wahrscheinlichkeitsräume.
(20.11) Satz und Def. Sei (Ωi , Ai , µi )i∈N eine Folge von Wahrscheinlichkeitsräumen, sei (Ω, A) das Produkt der Folge (Ωi , Ai )i∈N . Dann gibt es auf A genau
ein Wahrscheinlichkeitsmaß µ derart, daß jede Menge der Form
∞
Y
B = A1 × . . . × An ×
mit n ∈ N und Ai ∈ Ai (i = 1, . . . , n)
Ωj
j=n+1
das Maß
µ(B) = µ1 (A1 ) · · · µn (An )
hat. Man nennt µ das Produktmaß
N der Folge (µi )i∈N von Wahrscheinlichkeitsmaßen und bezeichnet es mit
i∈N µi . Der Wahrscheinlichkeitsraum (Ω, A, µ)
heißt der Produktraum der Folge (Ωi , Ai , µi )i∈N von Wahrscheinlichkeitsräumen.
Beweis. Zur Abkürzung setzen wir
∞
Y
Ωi =: Ω
i=n+1
(n)
,
∞
O
Ai =: A(n)
für n ∈ N.
i=n+1
Auf dem System Z der meßbaren Zylinder in Ω erklären wir eine Funktion µ
durch
µ(A × Ω(n) ) := (µ1 ⊗ . . . ⊗ µn )(A),
wobei A ∈ A1 ⊗ . . . ⊗ An ist. Die Definition ist sinnvoll: Ist
A × Ω(n) = B × Ω(m)
mit B ∈ A1 ⊗ . . . ⊗ Am
und o.B.d.A. n < m, so ist
A × Ωn+1 × . . . × Ωm × Ω(m) = B × Ω(m) ,
also A × Ωn+1 × . . . × Ωm = B und daher
(µ1 ⊗ . . . ⊗ µm )(B) = (µ1 ⊗ . . . ⊗ µn )(A)µn+1 (Ωn+1 ) · · · µm (Ωm )
= (µ1 ⊗ . . . ⊗ µn )(A).
Die damit erklärte Mengenfunktion µ erfüllt µ(Ω) = 1, ferner ist sie nichtnegativ
und additiv. Wir zeigen jetzt, daß sie sogar σ-additiv ist.
Für jedes n ∈ N können wir dieselbe Betrachtung auch für die Folge
(Ωi , Ai , µi )∞
i=n+1 durchführen. Das Analogon der Algebra Z bzw. der Mengenfunktion µ bezeichnen wir dann mit Z (n) bzw. µ(n) .
168
20 PRODUKTMASSE
Für (x1 , . . . , xn ) ∈ Ω1 × . . . × Ωn und B ⊂ Ω sei
(n)
B(x1 , . . . , xn ) := (xi )∞
∈
Ω
:
(x
)
∈
B
;
i
i∈N
i=n+1
das ist also ein Ω1 × . . . × Ωn -Schnitt von B.
Sei nun Z ∈ Z, und zwar
Z = A × Ω(m)
mit A ∈ A1 ⊗ . . . ⊗ Am ,
o.B.d.A. mit m > 1. Setzen wir
A(x1 ) := {(x2 , . . . , xm ) ∈ Ω2 × . . . × Ωm : (x1 , . . . , xm ) ∈ A}
(das ist also ein Ω1 -Schnitt, bezogen auf den Raum Ω1 ×. . .×Ωm ), so gilt offenbar
Z(x1 ) = A(x1 ) × Ω(m) .
Nach Satz (20.3) (a) ist A(x1 ) ∈ A2 ⊗ . . . ⊗ Am , also ist Z(x1 ) ∈ Z (1) , und es gilt
µ(1) (Z(x1 )) = (µ2 ⊗ . . . ⊗ µm )(A(x1 )).
Nach der Definition (20.5) des Produktmaßes gilt
Z
(µ1 ⊗ . . . ⊗ µm )(A) = (µ2 ⊗ . . . ⊗ µm )(A(x1 )) dµ1 (x1 ),
also ist
Z
µ(Z) =
µ(1) (Z(x1 )) dµ1 (x1 )
(11)
Nun können wir zeigen, daß µ auf Z σ-additiv ist. Nach Satz (12.6) genügt dazu
der Nachweis der ∅-Stetigkeit von µ.
Angenommen, µ wäre nicht ∅-stetig. Dann gibt es eine abnehmende Folge (Zn )n∈N
in Z mit Zn ↓ ∅ und ein ∈ R+ mit µ(Zn ) ≥ für alle n ∈ N. Wir behaupten
zunächst, daß es Punkte xi ∈ Ωi (i ∈ N) gibt mit
µ(k) (Zn (x1 , . . . , xk )) ≥
Zum Beweis sei
2k
für n, k ∈ N.
n
o
Fn := x1 ∈ Ω1 : µ(1) (Zn (x1 )) ≥
2
gesetzt. Nach (11) ist
Z
≤ µ(Zn ) =
(1)
Z
µ (Zn (x1 )) dµ1 (x1 ) +
Fn
≤ µ1 (Fn ) + µ1 (Fnc ) ≤ µ1 (Fn ) + ,
2
2
Fnc
µ(1) (Zn (x1 )) dµ1 (x1 )
169
also µ1 (Fn ) ≥ /2. Da (Fn )n∈N eine abnehmende Folge in A1 ist, kann wegen
T der ∅Stetigkeit von µ1 nicht Fn ↓ ∅ gelten; also existiert ein x1 ∈ Ω1 mit x1 ∈ n∈N Fn ,
also mit
für alle n ∈ N.
µ(1) (Zn (x1 )) ≥
2
Nun ist (Zn (x1 ))n∈N eine abnehmende Folge in Z (1) mit µ(1) (Zn (x1 )) ≥ /2 für alle
n ∈ N. Die Schlußweise läßt sich also wiederholen (mit Ω(1) , Z (1) , µ(1) , Zn (x1 ), /2
anstelle von Ω, Z, µ, Zn , ). Man erhält einen Punkt x2 ∈ Ω2 mit
µ(2) (Zn (x1 , x2 )) ≥
4
für alle n ∈ N.
So fortfahrend, erhält man x1 , x2 , . . . wie gewünscht.
Nun behaupten wir, daß
(xi )i∈N ∈
\
Zn
n∈N
gilt. In der Tat, für n ∈ N ist
Zn = A × Ω(k)
mit A ∈ A1 ⊗ . . . ⊗ Ak
mit geeignetem k (abhängig von n). Wegen µ(k) (Zn (x1 , . . . , xk )) > 0 ist
(k)
mit
Zn (x1 , . . . , xk ) 6= ∅, also existiert (xi )∞
i=k+1 ∈ Ω
(x1 , . . . , xk , xk+1 , xk+2 , . . .) ∈ Zn .
(k)
Somit ist (x
T1 , . . . , xk ) ∈ A und daher (xi )i∈N ∈ A × Ω = Zn , wie behauptet.
Damit ist n∈N Zn 6= ∅ gezeigt, im Widerspruch zu Zn ↓ ∅.
Die Mengenfunktion µ ist somit ein Maß auf der Algebra Z. Aus dem Maßerweiterungssatz (13.5) folgt die Existenz eines Maßes µ̃ auf der von Z in Ω erzeugten
σ-Algebra, also nach (20.10) auf A, mit µ̃|Z = µ. Offenbar ist µ̃ das gesuchte
Produktmaß. Die Eindeutigkeit folgt aus Satz (13.9), da die meßbaren Rechtecke
ein ∩-stabiles Erzeugendensystem von A bilden.
Herunterladen