Analysis III (WS 2000/01) R. Schneider Teil 1: Vektoranalysis und Integration von Differentialformen 1 Kurven und Bogenlänge 1 2 Kurvenintegrale 7 3 Flächen und Oberflächenintegrale 19 4 Elemente der Vektoranalysis 24 5 Hilfsmittel aus der multilinearen Algebra 41 6 Differentialformen und äußere Ableitung 49 7 Integration von Differentialformen 59 8 Differenzierbare Untermannigfaltigkeiten 68 9 Der Satz von Stokes auf Mannigfaltigkeiten 79 Teil 2: Allgemeine Maß- und Integrationstheorie 10 Einleitung 84 11 Mengensysteme 89 12 Mengenfunktionen 97 13 Konstruktion und Fortsetzung von Maßen 104 14 Spezielle Maße 113 15 Signierte Maße 131 16 Meßbare Funktionen 135 17 Integration 139 18 Konvergenzsätze für das Integral 150 19 Der Satz von Radon-Nikodym 152 20 Produktmaße 156 1 Teil 1: Vektoranalysis und Integration von Differentialformen Der erste Teil dieser Vorlesung behandelt die Integration auf Mannigfaltigkeiten und führt insbesondere zur Integralformel von Stokes, durch die die klassischen Integralsätze der Vektoranalysis gemeinsam verallgemeinert werden. Die ersten vier Abschnitte dienen der Motivation und Vorbereitung auf anschaulicher und elementarer Basis. 1 Kurven und Bogenlänge Im folgenden wollen wir die anschauliche geometrische Vorstellung, die man mit der Bezeichnung Kurve“ verbindet, präzisieren und insbesondere die Länge von ” Kurven behandeln. Zunächst eine heuristische Motivation: Ein Massenpunkt, der sich im physikalischen Raum bewegt, beschreibt dabei eine gewisse Bahnkurve“. Wir versuchen, aus dieser Vorstellung den Begriff der Kur” ” ve“ zu abstrahieren. Es wäre nun keine gute Definition, als Kurve“ des Massen” punktes einfach die Menge der überstrichenen Punkte des Raumes zu definieren, denn ein und dieselbe Punktmenge kann in sehr verschiedener Weise durchlaufen werden. Bedenkt man, daß die Koordinaten des sich bewegenden Punktes Funktionen der Zeit sind, so liegt es nahe, die Bahn des Punktes zu definieren als eine Abbildung eines gewissen Intervalls in den Raum. Natürlicherweise wird man diese Abbildung als stetig oder sogar als differenzierbar annehmen. Aber das würde auch nicht die geometrische (im Gegensatz zur physikalischen) Vorstellung von einer Bahnkurve erfassen, da hier noch eingeht, wie der Punkt die Bahn“ durchläuft; der zeitliche Bewegungsablauf interessiert aber geometrisch ” nicht. Vielmehr wird man zwei Bahnen, die sich nur durch verschiedene Durchlaufgeschwindigkeiten (als Funktionen der Zeit) unterscheiden, als geometrisch nicht verschieden ansehen wollen. Diese Überlegungen führen zu den folgenden Begriffsbildungen. (1.1) Definition. Sei n ≥ 2 und r ∈ N0 . Eine parametrisierte Kurve der Klasse C r im Rn ist eine Abbildung X : [a, b] → Rn der Klasse C r von einem Intervall [a, b] ⊂ R in den Rn . Sie heißt regulär, wenn r ≥ 1 und X überall vom Rang 1 ist. Im Gegensatz zu den früheren Betrachtungen über allgemeine differenzierbare Abbildungen haben wir hier einen abgeschlossenen Definitionsbereich zugrundegelegt. Das erfordert keine neuen Definitionen für Differenzierbarkeit etc., da für die Koordinatenfunktionen einer parametrisierten Kurve Differenzierbarkeit wie in An. I erklärt ist. 2 1 KURVEN UND BOGENLÄNGE Bemerkung. Das Differential der parametrisierten Kurve X der Klasse C 1 an der Stelle t ist die Abbildung DXt : R → Rn h 7→ X 0 (t)h, wo X 0 (t) die Ableitung (der Tangentenvektor) von X in t ist (siehe An.II.8). Regulär ist die parametrisierte Kurve X also genau dann, wenn X 0 (t) 6= 0 ist für alle t ∈ [a, b]. (1.2) Definition. Eine Parametertransformation der Klasse C r (r ≥ 0) ist eine streng monotone, bijektive Abbildung τ : [a, b] → [a, b] der Klasse C r mit τ 0 (t) 6= 0 für alle t ∈ [a, b] im Fall r ≥ 1. Sie heißt orientierungstreu, wenn sie wachsend ist. Sei X : [a, b] → Rn eine parametrisierte Kurve der Klasse C r und τ : [a, b] → [a, b] eine Parametertransformation der Klasse C r . Dann ist auch X := X ◦ τ 0 eine parametrisierte Kurve der Klasse C r . Im Fall r ≥ 1 ist wegen X (t) = X 0 (τ (t))τ 0 (t) mit X auch X regulär. (1.3) Definition. Die parametrisierten Kurven X : [a, b] → Rn und X : [a, b] → Rn der Klasse C r heißen (orientierungstreu) C r -äquivalent, wenn es eine (orientierungstreue) Parametertransformation τ : [a, b] → [a, b] der Klasse C r mit X = X ◦ τ gibt. Daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu beweisen. (1.4) Definition. Eine (orientierte) Kurve der Klasse C r im Rn ist eine (orientierungstreue) C r -Äquivalenzklasse von parametrisierten Kurven der Klasse C r . Jeder Repräsentant einer Kurve heißt Parameterdarstellung oder Parametrisierung der Kurve. Eine Kurve der Klasse C 1 heißt regulär, wenn sie eine reguläre Parametrisierung besitzt. Das Bild einer Parametrisierung (das offenbar nur von der Kurve abhängt) heißt Spur der Kurve. Beispiel. X : [0, π] → t R2 7→ (cos t, sin t) ist eine parametrisierte Kurve der Klasse C ∞ , und R2 √ 7 → (−t, 1 − t2 ) X : [−1, 1] → t 3 ist eine parametrisierte Kurve der Klasse C 0 (sie ist nicht von der Klasse C 1 ). X und X sind orientierungstreu C 0 -äquivalent: Durch τ : [0, π] → [−1, 1] t 7→ − cos t ist eine orientierungstreue Parametertransformation τ der Klasse C 0 mit X = X ◦ τ gegeben. X und X sind also verschiedene Parameterdarstellungen einer orientierten Kurve der Klasse C 0 . Die Spur dieser Kurve ist der Halbkreis {(x1 , x2 ) ∈ R2 : x21 + x22 = 1, x2 ≥ 0}. X ist auch eine Parameterdarstellung einer Kurve der Klasse C ∞ . Bemerkung. Parametrisierte Kurven der Klasse C 0 , also stetige parametrisierte Kurven, die durch (1.1) mitdefiniert werden, sind noch so allgemein, daß sie keineswegs der anschaulichen Vorstellung von der Bahn eines bewegten Punktes“ ” adäquat zu sein brauchen. So gibt es beispielshalber eine stetige parametrisierte Kurve, deren Spur ein ganzes Dreieck ausfüllt! (Zur Konstruktion von solchen sogenannten Peanokurven“ sehe man z.B. v. Mangoldt-Knopp II, §143). Ins” besondere braucht eine stetige Kurve nicht eine irgendwie vernünftig definierte Länge“ zu besitzen, was man andererseits von einem mathematischen Gebilde, ” das die Bahn eines Punktes beschreiben soll, verlangen wird. Wir wollen jetzt solche Kurven betrachten, denen man eine Länge zuschreiben kann. Das kann man in einer von der Anschauung her nahegelegten Weise insbesondere bei solchen Kurven, deren Spur ein Streckenzug ist, indem man die Länge der Strecke [X, Y ] durch kX − Y k erklärt und die Länge eines Streckenzuges durch die Summe der Längen der Einzelstrecken. Hierauf kann man nun die Erklärung des allgemeinen Längenbegriffs zurückführen, indem man der Spur einer allgemeinen Kurve Streckenzüge einbeschreibt“ und die Länge der Kurve ” erklärt als das Supremum der Längen aller einbeschriebenen Streckenzüge, falls dieses endlich ist. Dieses anschaulich plausible Vorgehen wird folgendermaßen präzisiert. (1.5) Definition. Sei X : [a, b] → Rn eine parametrisierte Kurve der Klasse C 0 . Zu jeder Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] sei L(X, Z) := k X kX(ti ) − X(ti−1 )k. i=1 Ist L(X) := sup{L(X, Z) : Z Zerlegung von [a, b]} < ∞, so heißt X rektifizierbar und L(X) die Länge von X. 4 1 KURVEN UND BOGENLÄNGE Man kann leicht zeigen, daß für C 0 -äquivalente parametrisierte Kurven X, X stets L(X) = L(X) ist. Man kann daher die Länge einer Kurve als die Länge einer beliebigen Parameterdarstellung definieren. Wir wollen uns aber nicht weiter mit allgemeinen rektifizierbaren Kurven befassen, sondern unter stärkeren Voraussetzungen die Rektifizierbarkeit zeigen und eine Berechnungsmöglichkeit für die Länge aufweisen. Wir benötigen einen Hilfssatz. Ist F : [a, b] → Rn stetig und F (t) = (f1 (t), . . . , fn (t)), so schreiben wir Zb Zb F (t) dt := a Zb f1 (t) dt, . . . , a fn (t) dt . a (1.6) Hilfssatz. Für stetiges F : [a, b] → Rn gilt b Z Zb F (t) dt ≤ kF (t)k dt a a Beweis. Ist Z : a = t0 < t1 . . . < tk = b eine Zerlegung von [a, b], so gilt k ! k X X f1 (ti )(ti − ti−1 ), . . . , fn (ti )(ti − ti−1 ) i=1 i=1 k k X X = F (ti )(ti − ti−1 ) ≤ kF (ti )k(ti − ti−1 ). i=1 i=1 Lassen wir nun Z eine Folge von Zerlegungen durchlaufen derart, daß die maximale Teilintervall-Länge eine Nullfolge ist, so ergibt sich die Behauptung, da das Integral einer stetigen Funktion nach Definition der Limes der Integrale jeder gleichmäßig gegen die Funktion konvergierenden Folge von Treppenfunktionen ist. (1.7) Satz. Jede parametrisierte Kurve X : [a, b] → Rn der Klasse C 1 ist rektifizierbar und hat die Länge Zb L(X) = a kX 0 (t)k dt. 5 Beweis. Setze Rb kX 0 (t)k dt =: S. Unter Verwendung von (1.6) ergibt sich für jede a Zerlegung Z : a = t0 < t1 < . . . < tk = b von [a, b] die Abschätzung t Zi k k X X 0 L(X, Z) = kX(ti ) − X(ti−1 )k = X (t) dt i=1 i=1 ti−1 ≤ Zti k X Zb 0 kX (t)k dt = i=1 t i−1 kX 0 (t)k dt = S. a Also ist X rektifizierbar und L(X) ≤ S. Zu einer Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] setzen wir S(X, Z) := k X kX 0 (ti )k(ti − ti−1 ). i=1 Sei ∈ R+ gegeben. Sei X(t) = (x1 (t), . . . , xn (t)). Da x0j auf [a, b] gleichmäßig stetig ist, existiert ein δ ∈ R+ mit |x0j (t1 ) − x0j (t2 )| < √ 2 n(b − a) für alle t1 , t2 ∈ [a, b] mit |t1 − t2 | < δ (j = 1, . . . , n). Es gibt eine Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] mit ti − ti−1 < δ (i = 1, . . . , k) und mit |S − S(X, Z)| < 2 . Dies folgt aus der Definition des Integrals, indem man die gleichmäßig stetige Funktion t 7→ kX 0 (t)k (t ∈ [a, b]) durch eine passende Folge von Treppenfunktionen gleichmäßig approximiert. Nach dem Mittelwertsatz der Differentialrechnung gilt L(X, Z) = k X kX(ti ) − X(ti−1 )k i=1 = k n X X i=1 = |xj (ti ) − xj (ti−1 )|2 j=1 k n X X i=1 !1/2 ! 12 |x0j (τij )|2 (ti − ti−1 ) j=1 mit passenden τij ∈ (ti−1 , ti ). Es folgt ! 21 k X X n |S(X, Z) − L(X, Z)| ≤ |x0j (ti )|2 − i=1 j=1 ! 21 |x0j (τij )|2 (ti − ti−1 ) j=1 n X 6 1 KURVEN UND BOGENLÄNGE ≤ k n X X i=1 ! 21 |x0j (ti ) − x0j (τij )|2 (ti − ti−1 ) < j=1 2 (hier wurde die Ungleichung |kAk − kBk| ≤ kA − Bk benutzt), also |S − L(X, Z)| ≤ |S − S(X, Z)| + |S(X, Z) − L(X, Z)| < . Da es zu jedem ∈ R+ ein derartiges L(X, Z) gibt, folgt L(X) = supZ L(X, Z) ≥ S und damit die Behauptung L(X) = S. Ist nun X̃ eine Kurve der Klasse C 1 , so erklärt man als Länge der Kurve X̃ die Länge einer Parametrisierung von X̃. Diese Definition ist sinnvoll, d.h. unabhängig von der Wahl der Parametrisierung: Seien X : [a, b] → Rn , X : [a, b] → Rn Parameterdarstellungen von X̃. Dann gibt es eine Parametertransformation τ : [a, b] → [a, b] der Klasse C 1 mit X = X ◦ τ . Es folgt Zb Zb 0 kX (t)k dt = a kX 0 (τ (t))k|τ 0 (t)|dt a = Rb a kX 0 (t)k dt, falls τ 0 > 0 Ra − kX 0 (t)k dt, falls τ 0 < 0 b Zb = kX 0 (t)k dt. a Unter Verwendung der Länge (auch Bogenlänge genannt) kann man aus der Vielzahl der Parameterdarstellungen einer regulären Kurve eine bestimmte aussondern, die oft von Nutzen ist: (1.8) Satz und Definition. Sei X̃ eine reguläre Kurve der Klasse C r (r ≥ 1) im Rn von der Länge L. Dann gibt es eine Parametrisierung X : [0, L] → Rn (der Klasse C r ) von X̃ mit kX 0 (s)k = 1 für alle s ∈ [0, L]. Sie heißt natürliche Parameterdarstellung oder Parametrisierung durch die Bogenlänge. Für s ∈ (0, L) hat also die parametrisierte Kurve X|[0, s] die Länge s; daher rührt die Bezeichnung Parametrisierung durch die Bogenlänge“. ” Beweis. Sei F : [a, b] → Rn eine reguläre Parameterdarstellung von X̃. Setze Zt σ(t) := a kF 0 (x)k dx für t ∈ [a, b]. 7 Dann ist σ : [a, b] → [0, L] eine differenzierbare Abbildung mit σ 0 (t) = kF 0 (t)k > 0, also eine Parametertransformation, und zwar von der Klasse C r , wenn F von der Klasse C r ist. Setzen wir X := F ◦σ −1 , also X ◦σ = F , so ist nach der Kettenregel kX 0 (σ(t))k|σ 0 (t)| = kF 0 (t)k = σ 0 (t) > 0 für t ∈ [a, b], also kX 0 (s)k = 1 für s ∈ [0, L]. Zum Beispiel ist die Standard-Parametrisierung der Einheitskreislinie, X(t) := (cos t, sin t), t ∈ [0, 2π], wegen X 0 (t) = (− sin t, cos t), kX 0 (t)k = 1, gerade die Parametrisierung durch die Bogenlänge. Dies liefert uns insbesondere die bekannte anschauliche Deutung von Winkeln. Früher hatten wir den Winkel zwischen zwei Einheitsvektoren U, V definiert als die eindeutig betsimmte Zahl ϕ ∈ [0, π] mit cos ϕ = hU, V i. Jetzt sehen wir, daß ϕ die Länge des Einheitskreisbogens {(cos t, sin t) : 0 ≤ t ≤ ϕ} zwischen den Vektoren U = (1, 0) und V = (cos ϕ, sin ϕ) ist. 2 Kurvenintegrale Den Begriff der Kurve haben wir abstrahiert aus der physikalisch-anschaulichen Vorstellung von der Bahn eines bewegten Punktes. Wird ein Punkt bewegt durch das Vorhandensein einer Kraft, etwa ein Massenpunkt im Gravitationsfeld oder ein geladener Punkt im elektrischen Feld, so leistet das Kraftfeld eine Arbeit. Die Bestimmung dieser Arbeit führt unmittelbar auf den Begriff des Kurvenin” tegrals“, wie wir nun erläutern wollen. Wird ein Punkt durch eine konstante Kraft vom Betrag K um eine gerade Strecke der Länge s in Richtung der Kraft verschoben, so leistet die Kraft die Arbeit Ks. Ist die Richtung der Kraft verschieden von der Bewegungsrichtung, so ist K zu ersetzen durch die Komponente des Kraftvektors in Richtung der Bewegung. Gibt also der Vektor V die Kraft an und ist X der Anfangs- und Y der Endpunkt der Verschiebungsstrecke, so ergibt sich die Arbeit zu kV ks cos ϕ = hV, Y − Xi, 8 2 KURVENINTEGRALE wo ϕ der Winkel zwischen V und Y − X ist. Nun wird der Kraftvektor im allgemeinen von Punkt zu Punkt verschieden sein; jedem Punkt ist ein Kraftvektor zugeordnet, aber i.a. nicht jedem Punkt derselbe. Das Kraftfeld“ wird also be” schrieben durch eine Abbildung V : R3 → R3 (wobei die Argumente von V als Punkte und die Bilder als Vektoren zu interpretieren sind). Es ergibt sich die Frage, welche Arbeit dieses Kraftfeld leistet, wenn ein Punkt von X nach Y verschoben wird, und zwar nicht notwendig auf der Verbindungsstrecke, sondern längs einer gegebenen Kurve mit Anfangspunkt X und Endpunkt Y . Es liegt nahe, ähnlich wie bei der Präzisierung des anschaulich gegebenen Begriffs der Länge, die Kurve zu approximieren“ durch einbeschriebene Streckenzüge. ” Wenn die einzelnen Strecken sehr klein sind und das Kraftfeld als stetig vorausgesetzt wird, ist es plausibel, längs einer solchen Strecke den Kraftvektor als konstant (und zwar gleich dem Wert in einem beliebig gewählten Punkt der Strecke) anzunehmen und die Arbeit, die das Kraftfeld bei Verschiebung längs des Kurvenstücks vom Anfangs- bis zum Endpunkt der Stecke leistet, anzunähern durch den oben gegebenen Ausdruck. Durch Aufsummierung über alle Einzelstrecken erhält man einen Wert, den man als Näherungswert der gesuchten Arbeit bei der Verschiebung längs der ganzen Kurve ansehen wird. Man wird hoffen, daß bei fortgesetzter Verfeinerung der Approximation durch Streckenzüge die Näherungswerte gegen eine Zahl konvergieren, die nur von der Kurve und dem Kraftfeld abhängt und die man dann als die gesuchte Arbeit ansehen kann. Wir wollen nun diese heuristischen Überlegungen präzisieren. Sei M ⊂ Rn offen. Eine Abbildung V : M → Rn wird im folgenden auch als Vektorfeld bezeichnet. Da wir vereinbart haben, bei der Behandlung des Rn keinen Unterschied zwischen Punkten“ und Vektoren zu machen, ist diese neue ” Bezeichnung eigentlich nicht notwendig. Sie wird jedoch (in bestimmten Zusammenhängen) aus folgenden Gründen benutzt: Beim weiteren Ausbau der Analysis ergibt sich die Notwendigkeit, den Rn durch andere Räume, differenzierbare ” Mannigfaltigkeiten“, zu ersetzen. Sie sind im allgemeinen keine Vektorräume, aber jedem ihrer Punkte ist ein Vektorraum von sogenannten Tangentialvektoren zugeordnet. Ein Vektorfeld ordnet dann jedem Punkt der Mannigfaltigkeit einen Tangentialvektor in diesem Punkt zu; ein solches Vektorfeld ist also etwas anderes als eine Abbildung in die Mannigfaltigkeit selbst. Bei unserer Betrachtungsweise soll die Bezeichnung Vektorfeld“ auch die (physikalisch motivierte) anschauliche ” Vorstellung fördern: Es hilft der Anschauung, sich im Falle eines Vektorfeldes V : M → Rn zu jedem Punkt X ∈ M den Vektor V (X) als im Punkt X an” geheftet“ vorzustellen. [Genauer könnten wir unter einem Tangentialvektor in X ein Paar (X, V ) mit V ∈ Rn verstehen. Die Tangentialvektoren in X bilden dann einen zu Rn kanonisch isomorphen Vektorraum, den Tangentialraum in X, aber Tangentialräume in verschiedenen Punkten sind verschieden.] Sei nun V : M → Rn ein stetiges Vektorfeld. Sei K eine orientierte Kurve im 9 Rn , deren Spur in M enthalten sei. Wir wählen eine Parameterdarstellung F : [a, b] → Rn von K. Ist Z : a = t0 < t1 < . . . < tk = b eine Zerlegung von [a, b], so nennen wir die Zahl η(Z) := max{ti − ti−1 : i = 1, . . . , k} den Feinheitsgrad von Z. Ist A := (τ1 , . . . , τk ) ein k-Tupel mit τi ∈ [ti−1 , ti ] (i = 1, . . . , k), so sagen wir, A sei eine zu Z gehörige Zwischenpunktfolge. Durch S(V, F, Z, A) := k X hV (F (τi )), F (ti ) − F (ti−1 )i i=1 ist jetzt offenbar ein Näherungsausdruck der oben beschriebenen Art gegeben. Man kann nun folgendes beweisen: Sei K rektifizierbar und V stetig. Sei (Zk )k∈N eine Folge von Zerlegungen des Intervalls [a, b] mit η(Zk ) → 0 für k → ∞; sei Ak eine zu Zk gehörige Zwischenpunktfolge (k ∈ N). Dann existiert Z lim S(V, F, Zk , Ak ) =: hV, dF i, k→∞ K und dieser Grenzwert ist unabhängig von der Wahl der Parameterdarstellung F sowie von der Auswahl der Folgen (Zk )k∈N und (Ak )k∈N . R Man bezeichnet die so definierte Zahl K hV, dF i als das Kurvenintegral (oder Linienintegral) des Vektorfeldes V längs der orientierten Kurve K. Wir wollen den obigen Satz, der sich auf allgemeine rektifizierbare Kurven bezieht, hier nicht beweisen; gut handhabbar wird das Kurvenintegral ohnehin erst, wenn man speziellere Kurven zugrundelegt. Man kann nämlich zeigen, daß für eine Parameterdarstellung F : [a, b] → Rn der Klasse C 1 die Gleichung Zb Z hV, dF i = K hV (F (t)), F 0 (t)i dt a besteht. Rechts steht hier jetzt ein gewöhnliches Integral einer stetigen Funktion über ein Intervall. Wir wollen auch dieses Ergebnis hier nicht beweisen, sondern alles Bisherige nur als Motivation betrachten und nun das Kurvenintegral für eine spezielle Klasse rektifizierbarer Kurven definieren durch den obigen Ausdruck. (2.1) Definition. Eine stückweise glatte, orientierte Kurve im Rn ist eine orientierte Kurve K der Klasse C 0 im Rn , zu der es eine Parameterdarstellung F : [a, b] → Rn und eine Zerlegung Z : a = t0 < t1 < . . . < tk = b des Intervalls [a, b] gibt derart, daß jede Einschränkung F |[ti−1 , ti ] von der Klasse C 1 ist (i = 1, . . . , k). Eine solche Parameterdarstellung wird stückweise glatt genannt. 10 2 KURVENINTEGRALE (2.2) Definition und Behauptung. Sei V : M → Rn ein stetiges Vektorfeld und K eine stückweise glatte, orientierte Kurve im Rn mit Spur in M . Sei F : [a, b] → Rn eine stückweise glatte Parameterdarstellung von K. Dann hängt die Zahl Z Zb hV, dF i := hV (F (t)), F 0 (t)i dt a K nicht von der Wahl der Parameterdarstellung ab. Sie wird als das Kurvenintegral von V längs K bezeichnet. Das rechts stehende Integral, dessen Integrand an endlich vielen Stellen nicht erklärt ist, ist natürlich zu verstehen als die Summe k Zti X hV (F (t)), F 0 (t)i dt, i=1 t i−1 wo F |[ti−1 , ti ] von der Klasse C 1 ist. – Die Unabhängigkeit von der Wahl der Parameterdarstellung ist leicht zu sehen: Sei F : [a, b] → Rn eine weitere stückweise glatte Parametrisierung von K. Nehmen wir zunächst an, F und F seien von der Klasse C 1 . Dann gibt es eine Parametertransformation τ : [a, b] → [a, b] der Klasse C 1 mit τ 0 > 0 und F = F ◦ τ . Es folgt Zb Zb 0 hV (F (t)), F (t)i dt = a hV (F (τ (t))), F 0 (τ (t))iτ 0 (t) dt a Zb = hV (F (s)), F 0 (s)i ds, a wobei die Kettenregel und die Substitutionsregel benutzt wurden. Bei nur stückweise glatten Parameterdarstellungen wendet man dieselbe Schlußweise auf die einzelnen Teilintervalle an. Bemerkung. Man beachte, daß das Kurvenintegral (im Gegensatz zur Bogenlänge) von der Orientierung der Kurve abhängt. Ist K eine orientierte Kurve und F : [a, b] → Rn eine Parameterdarstellung von K, so wird mit τ : [a, b] → t [a, b] 7→ b − (t − a) durch F ∗ := F ◦τ eine Parameterdarstellung einer orientierten Kurve K ∗ gegeben, die nicht von der Wahl der Parametrisierung F abhängt. Man sagt, daß K ∗ aus 11 K durch Umkehrung der Orientierung hervorgeht. Offenbar gilt nun Z Z ∗ hV, dF i = − hV, dF i, K∗ K was angesichts der einleitend erläuterten physikalischen Bedeutung auch völlig plausibel ist. R Bemerkung. Für das Integral K hV, dF i findet man auch oft die Schreibweise Z (v1 dx1 + . . . + vn dxn ) K (wobei V = (v1 , . . . , vn ) ist). Sie ist insbesondere dann angebracht, wenn man dem Ausdruck v1 dx1 + . . . + vn dxn einen selbständigen Sinn gegeben hat (Differentialform vom Grad 1). Solange man das aber nicht exakt getan hat, sollte man diese Schreibweise nicht benutzen. Bemerkung. Ist die orientierte Kurve K von der Klasse C 1 und regulär und ist F ihre Parametrisierung durch die Bogenlänge (Def. (1.8)), so gilt kF 0 (s)k = 1 für s ∈ [0, L(K)]. F 0 (s) ist also in diesem Fall ein Vektor der Länge 1; er heißt Tangenteneinheitsvektor der Kurve K (zum Parameterwert s). Er ist – anschaulich gesprochen – tangential zur Spur der Kurve K gerichtet. Das Skalarprodukt hV (F (s)), F 0 (s)i bedeutet daher die Komponente des Vektors V (F (s)) in Richtung des Tangenteneinheitsvektors F 0 (s); man nennt sie auch Tangentialkomponente“ und be” zeichnet sie z.B. mit Vt (s). Das Kurvenintegral schreibt sich dann in der Form L(K) Z Z hV, dF i = Vt (s) ds. 0 K Wir kommen nun zu einer wichtigen Begriffsbildung. Sei M ⊂ Rn offen und V : M → Rn ein stetiges Vektorfeld. Die für das Kurvenintegral Z hV, dF i K mögliche physikalische Deutung (Arbeit des Kraftfeldes“ V bei Verschiebung ” eines Punktes längs K) legt die Frage nahe, wie das Vektorfeld V beschaffen sein muß, damit der Wert des Kurvenintegrals nur vom Anfangs- und Endpunkt der 12 2 KURVENINTEGRALE orientierten Kurve K, aber nicht vom Verlauf der Kurve K abhängt (natürlich soll die Spur der Kurve stets im Definitionsbereich des Vektorfeldes liegen). Ist diese sogenannte Wegunabhängigkeit gegeben, so hängt bei festgehaltenem Anfangspunkt X die für die Verschiebung in einen Punkt Y erforderliche Arbeit nur von Y und nicht von der dorthin führenden Kurve ab. Ordnet man dem Punkt Y den Wert dieser Arbeit zu, so hat man dadurch auf M eine reellwertige Funktion, die Potentialdifferenz“ zu X, erklärt. Man sagt dann, das Vektorfeld V besitze ein ” Potential“ oder sei konservativ“ (= bewahrend; da bei Verschiebung längs ei” ” ner zum Anfangspunkt zurückkehrenden Kurve keine Energie verlorengeht). Das Vektorfeld V erweist sich dann einfach als Gradientenfeld des Potentials. Unter zusätzlichen Voraussetzungen läßt sich ein nachprüfbares Kriterium dafür herleiten, ob ein Vektorfeld ein Gradientenfeld ist. Dies wollen wir nun im Einzelnen untersuchen. Der zugrundegelegte Definitionsbereich M soll im folgenden immer ein Gebiet sein, das heißt offen und zusammenhängend. Diese Voraussetzung ist hier sehr natürlich: Ist M nicht zusammenhängend, so gibt es Punkte X, Y ∈ M , die nicht durch eine Kurve in M verbindbar sind; es ist dann also sinnlos, die Frage nach der Wegunabhängigkeit von Kurvenintegralen zu stellen. Ist andererseits M zusammenhängend und offen, so lassen sich je zwei Punkte in M sogar durch einen Polygonzug in M verbinden. (2.3) Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn ein stetiges Vektorfeld. Wir sagen, daß für V die Kurvenintegrale wegunabhängig sind, wenn für alle X, Y ∈ M gilt, daß für jede stückweise glatte, orientierte Kurve K in M mit Anfangspunkt X und Endpunkt Y das Kurvenintegral Z hV, dF i K denselben Wert hat. Wir präzisieren nun den oben angedeuteten Zusammenhang zwischen Wegunabhängigkeit und Gradientenfeldern. (2.4) Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn stetig. Das Vektorfeld V heißt Gradientenfeld, wenn es eine stetig differenzierbare Funktion f : M → R mit ∇f (X) = V (X) für alle X ∈ M gibt. Die Funktion f heißt dann eine Stammfunktion oder ein Potential des Vektorfeldes V . Ein Potential ist im wesentlichen eindeutig bestimmt: 13 (2.5) Satz. Sei M ⊂ Rn ein Gebiet und V : M → Rn stetig. Sind f und g zwei Stammfunktionen des Vektorfeldes V, so ist f − g konstant. Beweis. Sind f und g Stammfunktionen von V , so ist ∇(f −g) = 0. Nach An.II.9.7 ist f − g differenzierbar, und es ist D(f − g)X = 0 für alle X ∈ M . Nach An.II.8.7 ist f − g konstant. Als erstes Ergebnis über die Wegunabhängigkeit von Kurvenintegralen haben wir: (2.6) Satz. Sei M ⊂ Rn ein Gebiet und V : M → Rn ein stetiges Vektorfeld. Genau dann sind für V die Kurvenintegrale wegunabhängig, wenn V ein Gradientenfeld ist. Ist f eine Stammfunktion von V, so gilt Z hV, dF i = f (Y ) − f (X) K für jede stückweise glatte orientierte Kurve in M mit Anfangspunkt X und Endpunkt Y. Beweis. Zunächst sei V ein Gradientenfeld und f eine Stammfunktion von V . Sei F : [a, b] → Rn eine Parameterdarstellung einer orientierten Kurve K der Klasse C 1 mit Spur in M . Dann ergibt sich unter Verwendung der Kettenregel Zb Z hV, dF i = hV (F (t)), F 0 (t)i dt a K Zb = h∇f (F (t)), F 0 (t)i dt a Zb = (f ◦ F )0 (t) dt a = (f ◦ F )(b) − (f ◦ F )(a) = f (Y ) − f (X), wenn X und Y Anfangs- bzw. Endpunkt der orientierten Kurve K sind. Dieses Ergebnis überträgt sich sofort auf stückweise glatte orientierte Kurven. Nun sei umgekehrt vorausgesetzt, daß für V die Kurvenintegrale wegunabhängig sind. Wähle X0 ∈ M . Für X ∈ M wähle eine stückweise glatte, orientierte Kurve 14 2 KURVENINTEGRALE K in M mit Anfangspunkt X0 und Endpunkt X (die Existenz solcher Kurven folgt aus dem Beweis von An.II.8.7) und setze Z f (X) := hV, dF i. K Wegen der vorausgesetzten Wegunabhängigkeit der Kurvenintegrale ist diese Definition möglich. Für X ∈ M sei nun K eine stückweise glatte, orientierte Kurve in M mit Anfangspunkt X0 und Endpunkt X, sei F : [a, b] → Rn eine stückweise glatte Parameterdarstellung von K. Sei i ∈ {1, . . . , n}, sei h ∈ R+ so klein, daß X + tEi ∈ M für t ∈ [0, h] gilt. Setzen wir ( F (t) für a ≤ t ≤ b, F (t) := X + (t − b)Ei für b ≤ t ≤ b + h, so ist F eine stückweise glatte Parameterdarstellung einer orientierten Kurve K in M mit Anfangspunkt X0 und Endpunkt X + hEi . Also gilt Z Z hV, dF i − hV, dF i f (X + hEi ) − f (X) = K K Zb+h 0 = hV (F (t)), F (t)i dt b Zb+h = hV (X + (t − b)Ei ), Ei i dt. b Nach dem Hauptsatz der Differential- und Integralrechnung ist die rechte Seite nach h differenzierbar, und an der Stelle h = 0 erhält man ∂i f (X) = hV (X), Ei i = vi (X); also ist ∇f (X) = V (X). Satz (2.6) ist insofern noch nicht sonderlich nützlich, als man einem Vektorfeld ja nicht unmittelbar ansehen kann, ob es ein Gradientenfeld ist. Ein handliches Kriterium läßt sich erst aufstellen, wenn man das Vektorfeld als stetig differenzierbar voraussetzt: (2.7) Satz und Definition. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn stetig differenzierbar. Ist V = (v1 , . . . , vn ) ein Gradientenfeld, so gilt ∂j vi = ∂i vj für i, j = 1, . . . , n. 15 Diese Gleichungen heißen die Integrabilitätsbedingungen für das Vektorfeld V . Beweis. Da V ein Gradientenfeld ist, existiert eine stetig differenzierbare Funktion f : M → R mit ∇f (X) = V (X), also mit ∂i f (X) = vi (X) für i = 1, . . . , n (X ∈ M ). Da die Funktionen v1 , . . . , vn nach Voraussetzung stetig differenzierbar sind, ist f zweimal stetig differenzierbar; nach An.II.10.1 gilt also ∂j vi = ∂j ∂i f = ∂i ∂j f = ∂i vj . Es ist eine wichtige Frage, inwieweit sich Satz (2.7) umkehren läßt, wann also ein stetig differenzierbares Vektorfeld, das den Integrabilitätsbedingungen genügt, ein Gradientenfeld ist und damit ein Potential besitzt. Hier spielt eine gewisse topologische Eigenschaft des zugrundeliegenden Gebietes eine Rolle. Zunächst wollen wir zeigen, daß für ein Vektorfeld, das die Integrabilitätsbedingungen erfüllt, zumindest lokal stets die Kurvenintegrale wegunabhängig sind, d.h. für alle Kurven, die ganz innerhalb einer geeigneten Umgebung eines gegebenen Punktes verlaufen. Dies ergibt sich aus dem allgemeineren Satz (2.9). (2.8) Definition. Die Menge M ⊂ Rn heißt sternförmig, wenn es einen Punkt X0 ∈ M gibt mit [X0 , Y ] ⊂ M für alle Y ∈ M . (2.9) Satz. Sei M ⊂ Rn offen und sternförmig, sei V : M → Rn ein stetig differenzierbares Vektorfeld, das die Integrabilitätsbedingungen erfüllt. Dann existiert eine stetig differenzierbare Funktion f : M → R mit ∇f = V . Beweis. Nach Voraussetzung gibt es einen Punkt X0 ∈ M mit X0 +t(X −X0 ) ∈ M für X ∈ M und 0 ≤ t ≤ 1. Für X ∈ M können wir also Z1 hV (X0 + t(X − X0 )), X − X0 i dt f (X) := 0 definieren. Unter Verwendung des Hauptsatzes ergibt sich mit V = (v1 , . . . , vn ), X = (x1 , . . . , xn ), X0 = (x01 , . . . , x0n ) bei Benutzung der Integrabilitätsbedingungen für i = 1, . . . , n (die nachfolgende Vertauschung von Differentiation und Integration ist erlaubt nach An.I.23.2) Z1 ∂i f (X) = ∂i 0 n X vr (X0 + t(X − X0 ))(xr − x(0) r ) dt r=1 Z1 " vi (X0 + t(X − X0 )) + = 0 n X r=1 # ∂i vr (X0 + t(X − X0 ))t(xr − x(0) r ) dt 16 2 KURVENINTEGRALE Z1 " vi (X0 + t(X − X0 )) + = # ∂r vi (X0 + t(X − X0 ))t(xr − x(0) r ) dt r=1 0 Z1 = n X [tvi (X0 + t(X − X0 ))]0 dt 0 = [tvi (X0 + t(X − X0 ))]10 = vi (X), also ∇f (X) = V (X). Beispiel. Sei M = R2 \ {0} und V : M → R2 erklärt durch −y x V (x, y) := , , (x, y) ∈ M. x2 + y 2 x2 + y 2 Es gilt y 2 − x2 = ∂1 v2 (x, y); (x2 + y 2 )2 die Integrabilitätsbedingungen sind also erfüllt. Die Kurvenintegrale sind aber nicht wegunabhängig: Durch ∂2 v1 (x, y) = F : [0, 2π] → t R2 7→ (cos t, sin t) ist eine Parametrisierung einer orientierten Kurve K in M gegeben. Wären für das Vektorfeld V die Kurvenintegrale wegunabhängig, so wäre nach (2.6) (mit einer Stammfunktion f ) Z hV, dF i = f (1, 0) − f (1, 0) = 0. K Es ist aber Z K Z2π Z2π 0 hV, dF i = hV (F (t)), F (t)i = 1 dt = 2π 6= 0. 0 0 Nach (2.9) besitzt das Vektorfeld V lokal ein Potential; dieses ist (bis auf eine additive Konstante) gegeben durch ( y für x 6= 0, arctan x f (x, y) = arccot x für y 6= 0. y 17 Man rechnet leicht nach, daß in der Tat ∇f = V ist. Geometrisch bedeutet f (x, y) den Winkel zwischen E1 und X = (x, y). Offenbar besitzt V kein auf ganz M erklärtes, stetiges Potential. An diesem Beispiel sieht man besonders deutlich, wie es kommen kann, daß zwar lokal ein Potential existiert, aber nicht global, d.h. auf dem ganzen Definitionsgebiet des Vektorfeldes. [Das vorstehende Beispiel hat folgende physikalische Bedeutung: Im R3 stellen wir uns die z-Achse als (unendlich dünnen, unendlich langen) elektrischen Leiter vor, durch den ein konstanter elektrischer Strom (in Richtung wachsender z) fließt. Das Magnetfeld dieses Stromes wird dann (bis auf die physikalische Dimension und einen konstanten Faktor) gegeben durch x −y , ,0 für (x, y) 6= (0, 0). V (x, y, z) = x2 + y 2 x2 + y 2 Die Feldlinien“ sind also (orientierte) Kreise in Ebenen parallel zur x, y-Ebene ” mit Mittelpunkt auf der z-Achse. Daß das Feld auf der z-Achse selbst nicht erklärt werden kann, ist darauf zurückzuführen, daß der Leiter als unendlich dünn“ ” angenommen worden ist, weshalb dann die Stromdichte als unendlich groß anzunehmen ist; das ist natürlich eine unrealistische Idealisierung.] Wir wollen nun eine Klasse von Gebieten beschreiben, für die sich aus dem Erfülltsein der Integrabilitätsbedingungen für ein Vektorfeld die Existenz eines Potentials folgern läßt. Zunächst zeigen wir, daß für ein Vektorfeld, das den Integrabilitätsbedingungen genügt, die Kurvenintegrale längs zwei Kurven mit gleichem Anfangs- und Endpunkt jedenfalls dann übereinstimmen, wenn die eine Kurve in die andere innerhalb des zugrundeliegenden Gebietes stetig deformiert werden ” kann“. (2.10) Definition. Sei M ⊂ Rn ein Gebiet, seien K, K zwei stückweise glatte, orientierte Kurven in M mit gleichem Anfangspunkt X und gleichem Endpunkt Y . Man sagt, die Kurve K sei innerhalb M stetig deformierbar in die Kurve K, wenn es eine stetige Abbildung F : [a, b] × [0, 1] → Rn gibt mit folgenden Eigenschaften: Für jedes λ ∈ [0, 1] ist die durch Fλ (t) := F (t, λ) (t ∈ [a, b]) erklärte Abbildung Fλ : [a, b] → Rn eine stückweise glatte parametrisierte Kurve in M mit Fλ (a) = X und Fλ (b) = Y ; F0 ist eine Parameterdarstellung von K und F1 eine Parameterdarstellung von K. Die Abbildung F heißt dann eine Deformationsschar von K in K. (2.11) Satz. Sei M ⊂ Rn ein Gebiet, sei V : M → Rn ein stetig differenzierbares Vektorfeld, das den Integrabilitätsbedingungen genügt. Seien K, K zwei stückweise 18 2 KURVENINTEGRALE glatte orientierte Kurven in M mit Anfangspunkt X und Endpunkt Y . Ist die Kurve K innerhalb M stetig deformierbar in die Kurve K, so gilt Z Z hV, dF i = hV, dF i. K K Beweis. Sei F : [a, b] × [0, 1] → Rn eine Deformationsschar von K in K. Da [a, b] × [0, 1] kompakt ist, ist nach An.II.5.4 die Menge A := {F (t, λ) : t ∈ [a, b], λ ∈ [0, 1]} kompakt; wegen A ⊂ M und der Offenheit von M gibt es daher ein ∈ R+ mit U (Z, ) ⊂ M für alle Z ∈ A. Nach An.II.5.6 ist F gleichmäßig stetig; daher gibt es ein δ ∈ R+ mit (∗) kF (t1 , λ1 ) − F (t2 , λ2 )k < für alle t1 , t2 ∈ [a, b], λ1 , λ2 ∈ [0, 1] mit |t1 − t2 | < δ und |λ1 − λ2 | < δ. Wähle a = t0 < t1 < . . . < tr = b mit tj − tj−1 < δ, mit λi − λi−1 < δ. 0 = λ0 < λ1 < . . . < λs = 1 Für j = 1, . . . , r, i = 0, . . . , s sei Ki die orientierte Kurve mit der Parameterdarstellung Fλi und Kij die orientierte Kurve mit der Parameterdarstellung Fλi : [tj−1 , tj ]. Ferner sei Sij die wie üblich parametrisierte orientierte Kurve, deren Spur die Verbindungsstrecke von F (tj , λi ) nach F (tj , λi+1 ) ist. Für festes i, j liegen die Kurven Si,j−1 , Sij , Kij , Ki+1,j wegen der Ungleichung (∗) alle in der offenen Kugel U (F (tj−1 , λi ), ) ⊂ M . Da nach (2.9) innerhalb dieser Kugel das Vektorfeld V ein Potential besitzt, sind dort die Kurvenintegrale wegunabhängig. Daher ergibt sich (in leicht verständlicher Symbolik) für i = 0, . . . , s − 1 Z Z Z Z Z Z Z r r r X X X = = + − = = j=1 K ij Ki (man beachte R Si0 = R j=1 Si,j−1 Ki+1,j j=1 K i+1,j Sij = 0). Also ist Sir Z Z = K Z = K0 Z = ... = K1 Z . = Ks K Ki+1 19 (2.12) Definition. Ein Gebiet M ⊂ Rn heißt einfach zusammenhängend, wenn je zwei stückweise glatte, orientierte Kurven in M mit denselben Anfangs- und Endpunkten innerhalb M stetig ineinander deformierbar sind. Damit können wir nun den folgenden Hauptsatz über Kurvenintegrale“ formu” lieren: (2.13) Satz. Sei M ⊂ Rn ein einfach zusammenhängendes Gebiet. Dann ist jedes stetig differenzierbare Vektorfeld V : M → Rn , das den Integrabilitätsbedingungen genügt, ein Gradientenfeld. 3 Flächen und Oberflächenintegrale In ähnlicher Weise wie wir Kurven, Bogenlänge und Kurvenintegrale verwendet haben, werden wir im nächsten Abschnitt Flächen, Flächeninhalte und Oberflächenintegrale benutzen. Diese Begriffe sollen nun für den dreidimensionalen Raum erklärt werden. Was man unter einer Fläche im Raum verstehen wird, ist anschaulich plausibel; eine exakte Definition erfordert allerdings etwas Aufwand, wie schon bei den Kurven. (3.1) Definition. Sei r ∈ N. Eine parametrisierte Fläche der Klasse C r im R3 ist eine Abbildung X : U → R3 der Klasse C r vom Rang 2, wobei U ⊂ R2 ein Gebiet ist. Nach An.II.11.6 ist eine solche Abbildung lokal injektiv. Wir bezeichnen U als das Parametergebiet der Fläche und schreiben die Punkte von U in der Form u = (u1 , u2 ). Ferner schreiben wir, wie stets, X(u) = (x1 (u), x2 (u), x3 (u)). Daß die Abbildung X vom Rang 2 ist, bedeutet, daß ihre Funktionalmatrix ∂1 x1 ∂2 x1 JX = ∂1 x2 ∂2 x2 ∂1 x3 ∂2 x3 überall vom Rang 2 ist. Die Vektoren X1 := ∂1 X = (∂1 x1 , ∂1 x2 , ∂1 x3 ) X2 := ∂2 X = (∂2 x1 , ∂2 x2 , ∂2 x3 ) 20 3 FLÄCHEN UND OBERFLÄCHENINTEGRALE sind also in jedem Punkt u ∈ U linear unabhängig. Sie spannen daher einen zweidimensionalen linearen Unterraum von R3 auf; er heißt Tangentialraum der parametrisierten Fläche in u. Die dazu parallele Ebene durch X(u) nennen wir die Tangentialebene der parametrisierten Fläche in u. Den zum Tangentialraum orthogonalen Einheitsvektor N := X1 × X2 kX1 × X2 k nennen wir den Normaleneinheitsvektor. Hier bezeichnet X1 × X2 das Vektorprodukt der Vektoren X1 und X2 . Es ist bekanntlich erklärt durch A × B := (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ) für A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ) ∈ R3 . Man kann sich die Definition gut merken mit der symbolischen Schreibweise E1 E2 E3 A × B = det a1 a2 a3 . b1 b2 b3 Dabei ist (E1 , E2 , E3 ) die Standardbasis, und die Determinante ist formal nach der ersten Zeile zu entwickeln (gemäß dem Laplaceschen Entwicklungssatz). (3.2) Definition. Ein Diffeomorphismus τ : U → U (U, U ⊂ R2 Gebiete) der Klasse C r mit überall positiver Funktionaldeterminante heißt Parametertransformation der Klasse C r . Zwei parametrisierte Flächen X : U → R3 und X : U → R3 der Klasse C r heißen C r -äquivalent, wenn es eine Parametertransformation τ : U → U der Klasse C r mit X = X ◦ τ gibt. Daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu sehen. (3.3) Definition. Eine orientierte Fläche der Klasse C r im R3 ist eine C r -Äquivalenzklasse von parametrisierten Flächen der Klasse C r . Jeder Repräsentant einer Fläche heißt Parametrisierung der Fläche. Wir betrachten also, anders als bei den Kurven, nur orientierte Flächen. Daher sind im folgenden, auch wenn wir kurz von Flächen“ sprechen, stets orientierte ” Flächen gemeint. Wir kommen nun zum Flächeninhalt. Er muß zunächst definiert werden. In anschaulich naheliegender Weise kann man den Begriff des Flächeninhalts auf den 21 Volumenbegriff zurückführen nach der folgenden Idee. Es sei X : U → R3 eine parametrisierte Fläche der Klasse C 2 . Wir betrachten für h > 0 die Punktmenge Mh := Y ∈ R3 : Y = X(u1 , u2 ) + λN (u1 , u2 ), (u1 , u2 ) ∈ U, −h < λ < h und bezeichnen ihr (als endlich vorausgesetztes) Volumen mit Vh . Wenn der 1 Vh existiert, wollen wir ihn als Flächeninhalt der Fläche anGrenzwert limh→0 2h sehen (man kann sich dann leicht überzeugen, daß der Flächeninhalt bei einer Parametertransformation ungeändert bleibt). Berechnung von Vh : Wir erhalten Mh als Bild des Gebietes M := U × (−h, h) ⊂ R3 unter der Abbildung Y : M → R3 , die durch Y (u1 , u2 , λ) := X(u1 , u2 ) + λN (u1 , u2 ), (u1 , u2 ) ∈ U, −h < λ < h definiert ist. Wir berechnen ihre Funktionaldeterminante. Dabei benutzen wir die Abkürzung a1 b 1 c 1 a1 b 1 c 1 det a2 b2 c2 =: a2 b2 c2 =: |A, B, C| a3 b 3 c 3 a3 b 3 c 3 für A = (a1 , a2 , a3 ) etc. Dann ist mit Xi := ∂i X, Ni := ∂i N det JY = |∂1 Y, ∂2 Y, ∂3 Y | = |X1 + λN1 , X2 + λN2 , N | = |X1 , X2 , N | + λ(|X1 , N2 , N | + |N1 , X2 , N |) + λ2 |N1 , N2 , N |. Es ist |X1 , X2 , N | = hX1 × X2 , N i = kX1 × X2 k > 0. Für λ = 0 ist die Funktionaldeterminante also positiv. Wir wollen nun annehmen, daß U und h so klein gewählt sind, daß sie überall positiv ist und daß die Abbildung Y auch global injektiv ist. Nach der Transformationsformel für Gebietsintegrale und dem Satz von Fubini gilt dann Z Z Vh = µ(Mh ) = 1 = | det JY | Y (M ) M Zh Z Z |X1 + λN1 , X2 + λN2 , N | du1 du2 dλ = −h U Z Z = 2h U |X1 , X2 , N | du1 du2 + h2 (·). 22 3 FLÄCHEN UND OBERFLÄCHENINTEGRALE Also gilt 1 lim Vh = h→0 2h Z Z |X1 , X2 , N | du1 du2 . U Damit ist unsere heuristische Überlegung beendet und wir definieren: (3.4) Definition. Der Flächeninhalt der Fläche mit der Parameterdarstellung X : U → R3 der Klasse C 1 ist Z Z |X1 , X2 , N | du1 du2 . U Man kann nun nachrechnen, daß dies in der Tat nur von der Fläche und nicht von der gewählten Parametrisierung abhängt (Übungsaufgabe). Wir schieben eine Bemerkung über die Gramsche Determinante det(hAi , Aj i)i,j eines Vektor-Tripels (A1 , A2 , A3 ) ein. Sei Ai = (ai1, ai2 , ai3 ). Dann ist (mit dem Kronecker-Symbol δrs ) X δrs air ajs . hAi , Aj i = r,s Die Matrix (hAi , Aj i)3i,j=1 ist als das Matrizenprodukt der drei Matrizen (air )3i,r=1 , (δrs )3r,s=1 , (ajs )3s,j=1 . Nach dem Determinanten-Multiplikationssatz ist daher det(hAi , Aj i)i,j = |A1 , A2 , A3 |2 . Speziell für das Tripel (X1 , X2 , N ) folgt wegen hN, Xi i = 0 und hN, N i = 1 die Gleichung p kX1 × X2 k = |X1 , X2 , N | = hX1 , X1 ihX2 , X2 i − hX1 , X2 i2 . Eine in der Differentialgeometrie übliche Bezeichnungsweise ist hXi , Xj i =: gij für i, j = 1, 2. Damit ist also der Flächeninhalt der parametrisierten Fläche X gegeben durch Z Z q 2 g11 g22 − g12 du1 du2 . U Wir geben noch eine ausführliche Schreibweise unter Verwendung der Koordinatenfunktionen an. Mit X = (x, y, z) gilt E1 E E 2 3 ∂x ∂y ∂z ∂(y, z) ∂(z, x) ∂(x, y) X1 × X2 = ∂u1 ∂u1 ∂u1 = ∂(u , u ) , ∂(u , u ) , ∂(u , u ) 1 2 1 2 1 2 ∂x ∂y ∂z ∂u2 ∂u2 ∂u2 23 mit einer früher eingeführten Bezeichnung für Funktionaldeterminanten, also s 2 2 2 Z Z ∂(y, z) ∂(z, x) ∂(x, y) F = + + du1 du2 . ∂(u1 , u2 ) ∂(u1 , u2 ) ∂(u1 , u2 ) U Läßt sich das Bild der Fläche als Graph einer Funktion f darstellen, so ergibt sich die folgende Vereinfachung. Wir können die durch (u1 , u2 ) ∈ U X(u1 , u2 ) := (u1 , u2 , f (u1 , u2 )), gegebene Parametrisierung wählen und erhalten E1 E E 2 3 ∂f ∂f ∂f 0 X1 × X2 = 1 ∂u1 = − ∂u , − ∂u , 1 , 1 2 ∂f 0 1 ∂u2 also s Z Z 1+ F = U ∂f ∂u1 2 + ∂f ∂u2 2 du1 du2 . Man verwendet meist die Abkürzung Z Z Z |X1 , X2 , N | du1 du2 =: dO, U F wenn F die durch X parametrisierte Fläche bezeichnet. Nun können wir Oberflächenintegrale definieren. Ist g eine z.B. stetige Funktion, deren Definitionsbereich das Bild (die Spur“) der betrachteten Fläche enthält, ” so definiert man das Oberflächenintegral von g durch Z Z Z g dO := g ◦ X|X1 , X2 , N | du1 du2 . F U Für die Vektoranalysis besonders wichtig ist der folgende Spezialfall. Sei V ein z.B. stetiges Vektorfeld im R3 , dessen Definitionsbereich die Spur der betrachteten Fläche enthält. Man kann dann in jedem Punkt der Fläche das Skalarprodukt hV, N i =: Vn mit dem Normaleneinheitsvektor N der Fläche, die Normalkomponente des Vektorfeldes, bilden. Das Oberflächenintegral Z Z Vn dO = hV, N i dO 24 4 ELEMENTE DER VEKTORANALYSIS nennt man dann auch das Flächenintegral des Vektorfeldes längs der Fläche. Wegen X1 × X2 N= kX1 × X2 k ist hV, N i = also |V, X1 , X2 | |X1 , X2 , V | = , kX1 × X2 k |X1 , X2 , N | Z Z Z |X1 , X2 , V | du1 du2 Vn dO = (wobei genauer eigentlich V ◦ X zu schreiben wäre). Den rechts stehenden Ausdruck können wir zur praktischen Berechnung auch noch etwas umformen. Mit X = (x, y, z), V = (v1 , v2 , v3 ) ist |V, X1 , X2 | = hV, X1 × X2 i ∂ y ∂2 y = v1 1 ∂1 z ∂2 z = v1 + v2 ∂1 z ∂2 z ∂1 x ∂2 x + v3 ∂1 x ∂2 x ∂1 y ∂2 y ∂(y, z) ∂(z, x) ∂(x, y) + v2 + v3 . ∂(u1 , u2 ) ∂(u1 , u2 ) ∂(u1 , u2 ) Es ist also Z Z Z ∂(y, z) ∂(z, x) ∂(x, y) Vn dO = v1 + v2 + v3 du1 du2 . ∂(u1 , u2 ) ∂(u1 , u2 ) ∂(u1 , u2 ) Ähnlich wie bei Kurvenintegralen führt man hierfür die abkürzende Schreibweise Z (v1 dydz + v2 dzdx + v3 dxdy) ein, die sich aber erst dann empfiehlt, wenn man dem Ausdruck nach dem Integralzeichen einen selbständigen Sinn gegeben hat. 4 Elemente der Vektoranalysis Dieser Abschnitt soll mit weiteren Begriffsbildungen und Grundtatsachen der klassischen Vektoranalysis bekannt machen. Insbesondere sollen die Integralsätze 25 im R2 und im R3 erläutert werden. Diese Überlegungen sind durch physikalische Aufgabenstellungen motiviert, die wir jedoch nur kurz andeuten können. Insgesamt werden die Ausführungen in diesem Abschnitt eher heuristisch sein und weitgehend auf Beweise verzichten. Es soll die anschauliche Grundlage gelegt werden für die Präzisierungen und Verallgemeinerungen in den nachfolgenden Abschnitten. Einige der nachfolgenden Definitionen sind notwendigerweise zunächst recht formal, da wir auf die physikalischen Ursprünge nur andeutungsweise eingehen können. Eine inhaltlich plausible Erklärung ist zum Teil erst später nach der Behandlung von Integralsätzen möglich. (4.1) Definition. Sei M ⊂ R3 offen, sei V : M → R3 ein stetig differenzierbares Vektorfeld, V = (v1 , v2 , v3 ). Das durch rot V := (∂2 v3 − ∂3 v2 , ∂3 v1 − ∂1 v3 , ∂1 v2 − ∂2 v1 ) erklärte stetige Vektorfeld rot V : M → R3 heißt Rotation von V . Gilt rot V (X) = 0 für alle X ∈ M , so heißt das Vektorfeld V wirbelfrei. Diese Begriffsbildung ist physikalisch motiviert, was aber, wie gesagt, an dieser Stelle nicht erläutert werden soll. Hier stellen wir nur fest, daß die Gleichung rot V = 0 lediglich eine andere Ausdrucksweise dafür ist, daß das Vektorfeld V die Integrabilitätsbedingungen erfüllt. Aussagen aus §2 lassen sich für n = 3 jetzt also auch so formulieren: (4.2) Satz. Sei M ⊂ R3 offen. Für jede zweimal stetig differenzierbare Funktion f : M → R gilt rot ∇f = 0. Mit anderen Worten: Jedes stetig differenzierbare Gradientenfeld ist wirbelfrei. Jedes stetig differenzierbare wirbelfreie Vektorfeld in einem einfach zusammenhängenden Gebiet ist ein Gradientenfeld, d.h. besitzt ein Potential. Wirbelfrei sind z.B. die in der Elektrostatik auftretenden Felder. Ein solches Feld ist bestimmt durch die Verteilung der elektrischen Ladung; deren (etwa als stetig angenommene) Dichte läßt sich (bis auf einen konstanten Faktor) als Divergenz“ ” des Feldes berechnen nach der folgenden Vorschrift: (4.3) Definition. Sei M ⊂ R3 offen, sei V : M → R3 ein stetig differenzierbares Vektorfeld, V = (v1 , v2 , v3 ). Die durch div V := ∂1 v1 + ∂2 v2 + ∂3 v3 erklärte stetige Funktion div V : M → R heißt die Divergenz des Vektorfeldes V . Gilt div V (X) = 0 für alle X ∈ M , so heißt das Vektorfeld V quellenfrei. 26 4 ELEMENTE DER VEKTORANALYSIS Will man das elektrische Feld einer gegebenen Ladungsverteilung ermitteln, so hat man die folgende Aufgabe zu lösen, die man als Bestimmung eines wirbelfreien Vektorfeldes aus seinen Quellen bezeichnet: Sei M ⊂ R3 ein Gebiet und ρ : M → R eine stetige Funktion. Gesucht ist ein stetig differenzierbares Vektorfeld V : M → R3 mit div V = ρ, rot V = 0. Wenn V existiert, ist V lokal ein Gradientenfeld, d.h. es existiert zumindest lokal eine Funktion f der Klasse C 1 mit ∇f = V ; insbesondere ist f von der Klasse C 2 . Die Gleichung div V = ρ ergibt für f die Bedingung div ∇f = ρ. Es ist (in den benutzten Standard-Koordinaten) div ∇f = ∂1 ∂1 f + ∂2 ∂2 f + ∂3 ∂3 f =: ∆f. Der hiermit erklärte Differentialoperator ∆ = div ∇ heißt Laplace-Operator. Man wird also versuchen, eine zweimal stetig differenzierbare Funktion f : M → R zu finden, die der partiellen Differentialgleichung ∆f = ρ genügt. Ist f eine Lösung, so genügt das durch V := ∇f definierte Vektorfeld den geforderten Bedingungen. Die obige Gleichung heißt Poissonsche Gleichung“, im Fall ρ = 0 auch La” ” placesche Gleichung“ oder Potentialgleichung“. Die Lösungen der Laplaceschen ” Gleichung heißen harmonische Funktionen“. ” Das Problem der Bestimmung eines wirbelfreien Vektorfeldes aus seinen Quellen ist also zurückgeführt auf das Problem, eine (bzw. die) Lösung der Poissonschen Gleichung zu finden. Von der Problemstellung her werden dieser Lösung meist noch zusätzliche Bedingungen (z.B. Randbedingungen“) auferlegt. Auf die Fra” ge nach Existenz und Eindeutigkeit einer Lösung können wir hier aber nicht eingehen. Will man z.B. das Magnetfeld eines elektrischen Stromes (mit hier als stetig vorausgesetzter Stromdichte) ermitteln, so hat man die folgende Aufgabe zu lösen, die man als Bestimmung eines quellenfreien Vektorfeldes aus seinen Wirbeln bezeichnet: 27 Sei M ⊂ R3 ein Gebiet und W : M → R3 ein stetig differenzierbares Vektorfeld. Gesucht ist ein stetig differenzierbares Vektorfeld V : M → R3 mit div V = 0, rot V = W. Dabei kann W nicht beliebig vorgegeben sein, denn es gilt, wie man sofort nachrechnet, das folgende Gegenstück zum ersten Teil von Satz (4.2): (4.4) Satz. Für jedes zweimal stetig differenzierbare Vektorfeld V : M → R3 gilt div rot V = 0. Mit anderen Worten: Jedes (stetig differenzierbare) Rotationsfeld ist quellenfrei. In der obigen Aufgabe muß also div W = 0 vorausgesetzt werden. Wir zeigen nun zunächst als Gegenstück zum zweiten Teil von Satz (4.2), daß man in geeigneten Gebieten jedes quellenfreie Vektorfeld als Rotation eines anderen Vektorfeldes darstellen kann. (4.5) M → 0), so A:M Satz und Definition. Sei M ⊂ R3 ein sternförmiges Gebiet und V : R3 ein stetig differenzierbares Vektorfeld. Ist V quellenfrei (d.h. div V = ist V ein Rotationsfeld, d.h. es gibt ein stetig differenzierbares Vektorfeld → R3 mit V = rot A. A heißt auch Vektorpotential von V . Ein (stetig differenzierbares) Vektorfeld B : M → R3 ist genau dann auch ein Vektorpotential von V , wenn A − B ein (stetig differenzierbares) Gradientenfeld ist. Beweis. O.B.d.A. sei M sternförmig bezüglich 0. Wir können dann Z1 ui (X) := vi (tX)t dt, X ∈ M, i = 1, 2, 3 0 setzen und A : M → R3 definieren durch A(X) := (u2 x3 − u3 x2 , u3 x1 − u1 x3 , u1 x2 − u2 x1 ) (ui jeweils an der Stelle X). Das Vektorfeld A ist stetig differenzierbar. Wir rechnen nach, daß in der Tat rot A = V 28 4 ELEMENTE DER VEKTORANALYSIS gilt. Es genügt, etwa hrot A, E1 i = v1 (X) nachzuweisen. Wir erhalten (an der Stelle X) hrot A, E1 i = = ∂ ∂ (u1 x2 − u2 x1 ) − (u3 x1 − u1 x3 ) ∂x2 ∂x3 ∂u1 ∂u2 ∂u3 ∂u1 x 2 + u1 − x1 − x1 + x3 + u1 . ∂x2 ∂x2 ∂x3 ∂x3 Nun gilt ∂u1 ∂u2 ∂u3 + + = ∂x1 ∂x2 ∂x3 Z1 div V (tX)t2 dt = 0, 0 also ergibt sich hrot A, E1 i = ∂u1 ∂u1 ∂u1 x1 + x2 + x3 + 2u1 ∂x1 ∂x2 ∂x3 Z1 = Z1 ∂v1 ∂v1 ∂v1 2 (tX)x1 + (tX)x2 + (tX)x3 t dt + 2 v1 (tX)tdt ∂x1 ∂x2 ∂x3 0 0 Z1 = [v1 (tX)t2 ]0 dt = [v1 (tX)t2 ]10 = v1 (X). 0 Damit ist gezeigt, daß A ein Vektorpotential von V ist. Ist B : M → R3 ein stetig differenzierbares Vektorfeld der Form B = A − ∇f , so ist nach (4.2) rot B = rot A − rot ∇f = V, d.h. B ist ebenfalls ein Vektorpotential von V . Umgekehrt folgt aus V = rot B die Gleichung rot(A − B) = 0, nach (4.2) ist also A − B ein Gradientenfeld. Bemerkung. Auch in Satz (4.5) ist eine Voraussetzung an das Gebiet M nicht entbehrlich. Sei M = R3 \ {0}, und sei V : M → R3 erklärt durch V (X) := kXk−3 X. Man berechnet div V = 0. Es läßt sich aber zeigen, daß es kein stetig differenzierbares Vektorfeld A : M → R3 geben kann mit V = rot A. Der Beweis ist analog zu dem auf S. 39, aber mit einem Flächenintegral“ anstelle eines Kurveninte” grals; er läßt sich daher an dieser Stelle nicht führen. – Es sei darauf hingewiesen, 29 daß das Gebiet M einfach zusammenhängend ist. Die richtige“ topologische Be” dingung, die in Satz (4.5) an das Gebiet M zu stellen ist, ist also eine andere als die bei der Wegunabhängigkeit von Kurvenintegralen. Bemerkung. Die auffällige Analogie zwischen Satz (4.2) einerseits und den Sätzen (4.4) und (4.5) andererseits kommt nicht von ungefähr. Beide Sachverhalte sind Spezialfälle eines allgemeineren Satzes. Solche Zusammenhänge werden durch die übliche Terminologie der klassischen Vektoranalysis eher verschleiert. Die mathematische Natur der betrachteten Objekte wird klarer und die angewendeten Operationen werden durchschaubarer in dem später zu entwickelnden Differentialformenkalkül. Nun wollen wir noch kurz die vor Satz (4.4) gestellte Aufgabe weiter betrachten. Gegeben ist also ein stetig differenzierbares Vektorfeld W : M → R3 mit div W = 0. Gesucht ist ein stetig differenzierbares Vektorfeld V : M → R3 mit div V = 0, rot V = W. Wenn V existiert, so läßt sich V (zumindest lokal) nach (4.5) als Rotation eines anderen Vektorfeldes darstellen. Wir versuchen daher, ein zweimal stetig differenzierbares Vektorfeld A : M → R3 zu bestimmen mit rot A = V. Da A nur bis auf ein Gradientenfeld bestimmt ist, können wir zusätzlich annehmen, daß div A = 0 ist (diese Annahme wird später durch den Erfolg gerechtfertigt). Die Bedingung rot V = W ergibt für A die Bedingung rot rot A = W. Eine elementare Rechnung liefert rot rot A = ∇div A − ∆A, wobei ∆A := (∆a1 , ∆a2 , ∆a3 ) gesetzt ist. Da wir div A = 0 angenommen hatten, muß also ∆A = −W sein. Für jede Koordinatenfunktion von A ist also eine Poissonsche Gleichung zu lösen. Weiter soll das Problem an dieser Stelle nicht verfolgt werden; es kam uns lediglich darauf an, die Aussage von Satz (4.5) herauszustellen. 30 4 ELEMENTE DER VEKTORANALYSIS Die vorhergehenden Überlegungen können unter einem gemeinsamen Aspekt gesehen werden: Man betrachtet Felder“ (skalare, also Funktionen, vektorielle, ” eigentlich auch andere, denn die Rotation ist im Grunde kein Vektorfeld) und Differentiationsprozesse, die aus Feldern andere Felder machen (Gradient, Rotation, Divergenz). Wichtige Fragen bezogen sich auf die Umkehrbarkeit: Wann ist ein Vektorfeld Gradient einer Funktion, wann Rotation eines anderen Vektorfeldes? Notwendig waren gewisse Integrabilitätsbedingungen (Wirbelfreiheit, Quellenfreiheit). Die Verfolgung dieser Fragestellungen erfordert weitere Integralsätze der Vektoranalysis, die wir nun zunächst heuristisch erläutern wollen. Die Integralsätze von Gauss, Green, Stokes (heuristisch) Im folgenden sollen die sogenannten Integralsätze der Vektoranalysis vorgestellt werden, und zwar physikalisch motiviert, ohne exakte Formulierungen und Beweise. Diese werden in einem späteren Stadium in allgemeinerem Rahmen gegeben. Da die folgenden Betrachtungen nur als Motivation dienen, berufen wir uns ungeniert auf die Anschauung. Wir betrachten eine ebene stationäre Strömung einer inkompressiblen Flüssigkeit. Stationär“ heißt, daß der Bewegungszustand an jeder Stelle unabhängig ” von der Zeit ist, also durch ein zeitlich konstantes Vektorfeld V = (v1 , v2 ), das Geschwindigkeitsfeld, charakterisiert wird. Es sei ein ebenes Gebiet G mit zusammenhängender Randkurve ∂G gegeben. Wir stellen uns die Frage: Wieviel Flüssigkeit kommt in der Zeiteinheit aus dem Gebiet heraus? Dabei ist erlaubt, daß innerhalb des Gebietes Flüssigkeit entsteht ( Quellen“) oder verschwindet ” ( Senken“), aber die Flüssigkeit kann nicht zusammengedrückt werden. Was also ” in der Zeiteinheit innerhalb des Gebietes an Flüssigkeit entsteht, muß in gleicher Menge durch den Rand hinausströmen. Wir betrachten ein kleines“ Randstückchen und machen (da alles sehr klein ist) ” die vereinfachenden Annahmen: (a) Das Randstück ist gerade und hat die Länge ∆s, (b) längs des Randstücks ist V konstant. Die Flüssigkeitsmenge, die längs dieses Randstücks in der Zeiteinheit aufgrund der Strömung (mit konstantem Geschwindigkeitsfeld) aus dem Gebiet heraustritt, läßt sich offenbar ausdrücken durch hV, N i∆s, wobei N den ins Äußere von G weisenden Normaleneinheitsvektor von ∂G bezeichnet. Was insgesamt aus dem Gebiet heraustritt (die Gesamtergiebigkeit“), ” erhält man durch Summierung“, also durch das Integral ” Z hV, N i ds, 31 wo über die durch die Bogenlänge parametrisierte Randkurve integriert wird. Wir wollen nun die Gesamtergiebigkeit noch auf eine andere Weise bestimmen. Wir stellen uns dazu vor, das Gebiet G sei aus kleinen Rechtecken zusammengesetzt. Wir bestimmen zunächst die Ergiebigkeit für ein einzelnes Rechteck R mit den Eckpunkten (x, y), (x + h, y), (x, y + k), (x + h, y + k) mit h, k > 0. Gemäß der Zerlegung V = v1 E1 + v2 E2 können wir die Strömung auffassen als Überlagerung von zwei Strömungen in den Koordinatenrichtungen. Wir betrachten zunächst die Strömung in Richtung der x-Achse und machen die vereinfachende Annahme, v1 sei auf den Vertikalen konstant. Als Ergiebigkeit der Strömung in Richtung der x-Achse für das Rechteck R ergibt sich dann kv1 (x + h, y) − kv1 (x, y). Analog ergibt sich für die Ergiebigkeit der Strömung in Richtung der y-Achse hv2 (x, y + k) − hv2 (x, y). Die Ergiebigkeit der Gesamtströmung für das Rechteck ist also v1 (x + h, y) − v1 (x, y) v2 (x, y + k) − v2 (x, y) + hk. h k Wir bezeichnen den Faktor in Klammern (also Ergiebigkeit dividiert durch Flächeninhalt) als die mittlere Ergiebigkeit. Durch den Grenzübergang h → 0, k → 0 erhalten wir jetzt als die mittlere Ergiebigkeit im Punkt (x, y) den Wert ∂1 v1 + ∂2 v2 = div V. Um nun aus der in jedem Punkt bekannten mittleren Ergiebigkeit die Gesamtergiebigkeit zu bekommen, zerlegen wir G in kleine Rechtecke und nehmen in jedem Rechteck die mittlere Ergiebigkeit als konstant an. Durch Multiplikation mit dem Flächeninhalt erhalten wir die Ergiebigkeit des Rechtecks, durch Summation über alle Rechtecke sodann einen Näherungsausdruck für die Ergiebigkeit von G. Für immer feiner werdende Rechteckszerlegungen konvergieren diese Näherungsausdrücke gegen das Integral Z div V, G das also einen zweiten Ausdruck für die Ergiebigkeit von G darstellt. Damit haben wir heuristisch das Ergebnis Z Z div V = hV, N i ds G ∂G 32 4 ELEMENTE DER VEKTORANALYSIS erhalten. Diese Formel heißt Integralsatz von Gauß oder Divergenzsatz in der Ebene; sie wird aber auch nach Green benannt. Sie läßt sich (unter geeigneten analytischen Voraussetzungen) exakt beweisen, was wir jetzt aber nicht tun wollen. Wir wollen jedoch noch andere übliche Schreibweisen erläutern. Zunächst muß noch etwas über das Integral Z hV, N i ds ∂G gesagt werden. Dies ist so zu verstehen, daß die Randkurve durch die Bogenlänge parametrisiert ist. Wir setzen also voraus, daß es eine stückweise glatte parametrisierte Kurve F : [0, L] → R2 gibt mit kF 0 (s)k = 1, s ∈ [0, L] derart, daß F (0) = F (L) ist, F |[0, L) injektiv und die Spur von F der Rand ∂G von G ist. Nach Definition ist dann ZL Z hV, N i ds = ∂G hV (F (s)), N (s)i ds. 0 Dabei soll N (s) der äußere Normaleneinheitsvektor im Punkt F (s) sein, also der Einheitsvektor, der senkrecht zum Tangentenvektor F 0 (s) steht und ins Äußere des Gebietes G weist. Diese zunächst noch anschauliche Vorschrift läßt sich auch präzisieren, was wir aber hier noch nicht tun wollen. Wir ziehen es vielmehr vor, das obige Integral als Kurvenintegral aufzufassen. Hierzu dient die folgende Überlegung. K sei die durch F gegebene orientierte Kurve. Wir bezeichnen die Koordinatenfunktionen von F mit x und y, also F (s) = (x(s), y(s)). Dann ist F 0 (s) = (x0 (s), y 0 (s)) der Tangenteneinheitsvektor. Die dazu senkrechten Einheitsvektoren sind gegeben durch ±(y 0 (s), −x0 (s)). Einer von ihnen weist ins Äußere von G, dies sei N (s) = (y 0 (s), −x0 (s)). 33 Hierdurch ist eine Orientierung der Kurve K festgelegt. Mit den eingeführten Bezeichnungen ist nun hV, N i = h(v1 , v2 ), (y 0 , −x0 )i = v1 y 0 − v2 x0 , also ZL Z hV, N i ds = dx dy −v2 + v1 ds ds ds. 0 Hierfür schreibt man abkürzend auch Z (−v2 dx + v1 dy). K Dies ist nichts anderes als das Kurvenintegral Z hV ⊥ , dF i mit V ⊥ := (−v2 , v1 ). K Hiermit sind nun wenigstens die im Gaußschen Integralsatz auftretenden Integrale hinreichend erklärt. Neben der Schreibweise Z Z div V = hV, N i ds G ∂G haben wir jetzt auch die Schreibweise Z Z Z ∂v1 ∂v2 + dxdy = (−v2 dx + v1 dy), ∂x ∂y G ∂G wobei die getroffene Vereinbarung über die Orientierung der Randkurve zu beachten ist. In einer in der klassischen Analysis üblichen Formulierung würde man −v2 = P, v1 = Q setzen; der Integralsatz lautet dann Z Z Z ∂Q ∂P − dxdy = (P dx + Q dy). ∂x ∂y G ∂G Eine in der Physik beliebte Formulierung verwendet die Bezeichnung hV, N i =: Vn , 34 4 ELEMENTE DER VEKTORANALYSIS Vn heißt die Normalkomponente“ von V . Man kann dann ” Z Z div V = Vn ds G ∂G schreiben. Das rechte Integral nennt man auch den Fluß“ des Vektorfeldes V ” bezüglich G. Es ist auch noch eine andere physikalische Interpretation des Gaußschen Integralsatzes in der Ebene möglich. Hierzu betrachtet man die Tangentialkomponente“ ” hV, T i =: Vt , T Tangenteneinheitsvektor, und bezeichnet dann das Integral Z Vt ds ∂G als die Zirkulation“ des Vektorfeldes bezüglich G oder auch als die Wirbelstärke ” längs ∂G. Unter Verwendung des Gaußschen Integralsatzes läßt sie sich auch in ein Gebietsintegral umformen: Es ist Vt = hV, T i = h(v1 , v2 ), (x0 , y 0 )i = v1 x0 + v2 y 0 , also Z Z Z Z Vt ds = ∂G (v1 dx + v2 dy) = ∂v2 ∂v1 − ∂x ∂y dxdy. G ∂G Man nennt daher rot V := ∂1 v2 − ∂2 v1 die spezifische Zirkulation“ oder Rotation (auch: Wirbeldichte) des Vektorfeldes. ” Wir haben also die Formel Z Z rot V = Vt ds, G ∂G die auch als Integralsatz von Stokes in der Ebene bezeichnet wird. Bemerkung. Für das ebene Vektorfeld V haben wir jetzt definiert: div V := ∂1 v1 + ∂2 v2 rot V := −∂2 v1 + ∂1 v2 . Wie im R3 nennt man das Feld V quellenfrei, wenn div V = 0 ist, und wirbelfrei, wenn rot V = 0 ist. Quellenfreiheit bedeutet nach dem Gaußschen Integralsatz, 35 daß für jede geschlossene Kurve der Fluß verschwindet; Wirbelfreiheit bedeutet nach dem Stokesschen Integralsatz, daß für jede geschlossene Kurve die Zirkulation verschwindet. Ist V sowohl quellenfrei als auch wirbelfrei, so genügen seine Koordinaten den partiellen Differentialgleichungen ∂1 v1 = −∂2 v2 ∂2 v1 = ∂1 v2 . Dies sind für die Funktionen v1 , −v2 die Cauchy-Riemannschen Differentialgleichungen, die in der Funktionentheorie eine wesentliche Rolle spielen. Es ergibt sich also ein enger Zusammenhang zwischen quellen- und wirbelfreien ebenen Strömungen und der Theorie der holomorphen Funktionen einer komplexen Veränderlichen. Integralsätze vom Typ des Gaußschen oder Stokesschen in der Ebene gibt es auch im R3 . Wir wollen diese Sätze hier formulieren. Wie in der Ebene gestatten sie es, Zirkulation bzw. Fluß eines Vektorfeldes umzuformen in ein Integral über ein höherdimensionales Gebilde. Betrachten wir zunächst die Zirkulation. Sei V : M → R3 ein stetig differenzierbares Vektorfeld. Es sei eine geschlossene orientierte C 1 -Kurve K mit Spur in M gegeben. Die Zirkulation des Vektorfeldes V längs K ist dann definiert durch Z Z Vt ds = hV, dF i. K Wir stellen uns nun vor, in die Kurve sei eine Fläche eingespannt. Dann kann man sich unter Verwendung des Stokesschen Satzes in der Ebene heuristisch klarmachen, daß es möglich sein muß, die Zirkulation durch ein Integral über die Fläche auszudrücken. Wir wollen sogleich das Ergebnis in einer genaueren Formulierung angeben. Sei U ⊂ R2 ein Gebiet und X : U → R3 eine parametrisierte Fläche der Klasse C 1 . Sei G ein Gebiet mit G ∪ ∂G ⊂ U . Über den Rand ∂G machen wir dieselbe Voraussetzung wie beim Gaußschen Integralsatz in der Ebene: Er sei die Spur einer einfach geschlossenen parametrisierten Kurve F der Klasse C 1 , die so orientiert sei, daß ihr Normalenvektor ins Äußere von G weist. Dann ist X ◦ F =: F̃ eine Parametrisierung einer orientierten Kurve K der Klasse C 1 im R3 . Der Satz von Stokes im Raum besagt nun, daß die Zirkulation von V längs K, also das R Kurvenintegral K hV, dF̃ i, sich in ein Flächenintegral umrechnen läßt: Z Z hV, dF̃ i. (rot V )n dO = S K 36 4 ELEMENTE DER VEKTORANALYSIS Hier ist S die durch X|G parametrisierte Fläche, und es ist die Vereinbarung zu beachten, die wir über die Orientierung der Randkurve getroffen haben. Mit den abgekürzten Bezeichnungsweisen für Kurven- und Flächenintegrale lautet diese Formel Z [(∂2 v3 − ∂3 v2 ) dydz + (∂3 v1 − ∂1 v3 ) dzdx + (∂1 v2 − ∂2 v1 ) dxdy] S Z (v1 dx + v2 dy + v3 dz). = K Hier ist, anschaulich formuliert, links über die Fläche und rechts über den Rand der Fläche zu integrieren, wobei die Orientierungsvorschrift zu beachten ist. Betrachten wir nun den Fluß des Vektorfeldes V . Hierzu sei G ein räumliches Gebiet mit Rand ∂G. Ähnlich wie in der Ebene müssen wir die Voraussetzung treffen, daß ∂G lokal als Spur von parametrisierten Flächen darstellbar ist. Hierzu werden aber mehrere parametrisierte Flächen erforderlich sein. Da dies später in allgemeinerem Rahmen präzisiert wird, wollen wir uns jetzt mit der Andeutung begnügen, daß man durch passende Überdeckungen mit Flächenstücken auch geschlossene Flächen im Raum definieren kann und Flächenintegrale über sie erklären kann. Der Gaußsche Integralsatz im Raum besagt dann Z Z div V = Vn dO. G ∂G Mit der abgekürzten Bezeichnungsweise schreibt sich das Z Z (∂1 v1 + ∂2 v2 + ∂3 v3 ) dxdydz = (v1 dydz + v2 dzdx + v3 dxdy). G ∂G Wir wollen nun heuristisch andeuten, wie die behandelten Grundtatsachen der klassischen Vektoranalysis einheitlicher, durchsichtiger und allgemeiner behandelt werden können mit dem im folgenden zu entwickelnden Differentialformenkalkül. Wir beschränken uns hier jetzt auf den dreidimensionalen Raum R3 und stellen zunächst noch einmal die betrachteten Integralsätze zusammen. Hierzu gehört auch der elementare Satz (2.6). Er besagt: Ist f eine Stammfunktion des Vektorfeldes V , also V = ∇f , so gilt für das Kurvenintegral über eine orientierte Kurve K mit Anfangspunkt A und Endpunkt E: Z hV, dXi = f (E) − f (A). K 37 In anderer Schreibweise und wegen V = ∇f , also vi = fi := ∂i f , lautet das auch Z (f1 dx + f2 dy + f3 dz) = f (E) − f (A). (1) K Sodann hatten wir den Satz von Stokes im Raum: Z Z (rot V )n dO = hV, dXi. G ∂G Links steht ein Oberflächenintegral über eine orientierte Fläche G, rechts ein Kurvenintegral über ihre orientierte Randkurve ∂G. In anderer Schreibweise lautet diese Formel: Z [(∂2 v3 − ∂3 v2 ) dydz + (∂3 v1 − ∂1 v3 ) dzdx + (∂1 v2 − ∂2 v1 ) dxdy] G Z = (v1 dx + v2 dy + v3 dz) (2) ∂G Schließlich haben wir den Gaußschen Integralsatz im Raum: Z Z div V = Vn dO. G ∂G Links steht ein Integral über ein orientiertes räumliches Gebiet G, rechts ein Oberflächenintegral über seine orientierte Randfläche ∂G. In anderer Schreibweise: Z Z (∂1 v1 + ∂2 v2 + ∂3 v3 ) dxdydz = (v1 dydz + v2 dzdx + v3 dxdy). (3) G ∂G Man sollte beachten, daß Formel (1) durchaus analog zu (2) und (3) ist: Links steht ein Integral über eine orientierte Kurve, und die rechte Seite f (E) − f (A) läßt sich auffassen als Integral“ der Funktion f über den orientierten Rand der ” Kurve, der aus dem geordneten Punktepaar (A, E) besteht. Eine grundlegende Idee des Differentialformenkalküls ist es nun, den in (1), (2), (3) rechts von den Integralzeichen stehenden Gebilden eine selbständige Existenz zu geben, eben als Differentialformen“. Später wird man ” v1 dx + v2 dy + v3 dz eine Differentialform vom Grad 1 v1 dydz + v2 dzdx + v3 dxdy eine Differentialform vom Grad 2 f dxdydz eine Differentialform vom Grad 3 38 4 ELEMENTE DER VEKTORANALYSIS nennen, und zwar auf M , wenn v1 , v2 , v3 , f auf dem Gebiet M ⊂ R3 definiert sind. Ferner nennt man eine reelle Funktion auf M dann auch eine Differentialform vom Grad 0. Wie soll die Definition einer Differentialform vom Grad p nun zweckmäßig erfolgen? Für den Fall p = 1 ist dies im wesentlichen schon aus Analysis II bekannt; wir erinnern kurz daran. Eine Funktion f : M → R heißt bekanntlich in einem Punkt X ∈ M (total) differenzierbar, wenn es eine lineare Abbildung L : R3 → R gibt mit f (X + H) − f (X) − L(H) = 0. lim H→0 kHk L ist dann eindeutig bestimmt und heißt das Differential von f in X; die übliche Bezeichnung ist L = DfX . Dabei ist DfX eine lineare Abbildung von R3 nach R, also ein Element des Dualraumes (R3 )∗ (dies ist der Vektorraum der linearen Funktionale auf dem Vektorraum R3 ). Ist f in jedem Punkt von M differenzierbar, so kann man die Abbildung df : M → (R3 )∗ X 7→ DfX erklären, das Differential von f . Insbesondere hat die erste Koordinatenfunktion X = (x, y, z) 7→ x ein Differential, es wird üblicherweise mit dx bezeichnet; analog sind dy und dz definiert. Sind v1 , v2 , v3 reelle Funktionen auf M , so ist ω := v1 dx + v2 dy + v3 dz auf M (punktweise) wohldefiniert, da (R3 )∗ ein reeller Vektorraum ist. Man nennt ω eineDifferentialform vom Grad 1 auf M ; das ist also eine Abbildung von M in (R3 )∗ . Insbesondere ist das Differential df der Funktion f eine solche Differentialform. Mit H = (h1 , h2 , h3 ) und fi := ∂i f gilt df (X)(H) = DfX (H) = DfX (h1 E1 + h2 E2 + h3 E3 ) = h1 DfX (E1 ) + h2 DfX (E2 ) + h3 DfX (E3 ) = f1 (X)h1 + f2 (X)h2 + f3 (X)h3 = (f1 (X)dx + f2 (X)dy + f3 (X)dz)(H), also df = f1 dx + f2 dy + f3 dz. Aber natürlich ist nicht jede Differentialform v1 dx + v2 dy + v3 dz das Differential einer Funktion. 39 Wie kann man nun z.B. v3 dxdy sinnvoll erklären? Dazu muß man offenbar eine Multiplikation von Differentialformen vom Grad 1 definieren. Sinnvoll“ heißt ” insbesondere, daß später ein Oberflächenintegral vom Typ (3), rechts, mit den richtigen Eigenschaften erklärt werden kann. Dieses ändert bei Umorientierung von ∂G sein Vorzeichen. Da Vertauschung von zwei Koordinaten die Orientierung einer Fläche umkehrt, wird die gewünschte spätere Deutung der Integrale in (1) – (3) als Integrale von Differentialformen nur dann konsistent, wenn dydx = −dxdy ist. Die Multiplikation von Differentialformen muß daher als alternierendes (antikommutatives) Produkt erklärt werden. In §5 werden wir eine solche alternierende Multiplikation von Kovektoren einführen. Der nächste Schritt wird dann darin bestehen, einen Differentiationsprozeß für Differentialformen zu erklären. Dies ist die sogenannte äußere Differentiation, die die Bildung des Differentials einer (differenzierbaren) Funktion verallgemeinert. Für eine (differenzierbare) Differentialform vom Grad 0, also eine differenzierbare Funktion f auf einem Gebiet M , ist die äußere Ableitung df gerade das Differential, also eine Differentialform vom Grad 1. Allgemein wird die äußere Ableitung dω einer (differenzierbaren) Differentialform ω vom Grad p eine solche vom Grad p + 1 sein. Es bestehen dann enge Zusammenhänge mit den Differentiationsprozessen ∇, rot, div der Vektoranalysis. Sei V : M → R3 ein Vektorfeld der Klasse C 1 . Wir ordnen ihm zwei Differentialformen (V ), ((V )) vom Grad 1 bzw. 2 zu durch die Definitionen (V ) := v1 dx + v2 dy + v3 dz ((V )) := v1 dydz + v2 dzdx + v3 dxdy. Dann wird sich zeigen, daß die äußeren Ableitungen dieser Differentialformen gegeben sind durch d(V ) = ((rot V )) d((V )) = div V dxdydz. Ferner gilt für eine differenzierbare Funktion f df = (∇f ). Unter geeigneten Differenzierbarkeitsvoraussetzungen gilt rot ∇f = 0. Das schreibt sich jetzt als ddf = d(∇f ) = ((rot∇f )) = 0. 40 4 ELEMENTE DER VEKTORANALYSIS Ferner gilt div rot V = 0, und dies ergibt jetzt dd(V ) = d((rot V )) = div rot V dxdydz = 0. Dies sind nur zwei Spezialfälle eines allgemeinen Sachverhalts: Für die zweimalige äußere Ableitung einer Differentialform ω (der Klasse C 2 ) gilt nämlich stets ddω = 0. Wir hatten schon erwähnt, daß nicht jede Differentialform vom Grad 1 das Differential einer Funktion ist. Allgemein kann man fragen, ob es zu einer gegebenen Differentialform η vom Grad p + 1 eine Differentialform ω vom Grad p mit η = dω gibt. Nach der vorstehenden Bemerkung ist (immer unter passenden Differenzierbarkeitsvoraussetzungen) jedenfalls notwendig, daß dη = 0 ist. Inwieweit diese Integrabilitätsbedingung“ auch hinreichend ist, ist eine interessante Frage, ” von der wir auch schon Spezialfälle behandelt haben, nämlich die Sätze (4.2) und (4.5). Schließlich bemerken wir, daß wir mit den oben eingeführten Bezeichnungen die Integralsätze neu und prägnant schreiben können. Formel (3) läßt sich nämlich jetzt einfach schreiben als Z Z d((V )) = ((V )). G ∂G Es ist üblich, hier nur ein Integralzeichen zu schreiben. Allgemein wird später die Integration einer Differentialform vom Grad p über eine orientierte Mannig” faltigkeit“ der Dimension p erklärt werden, und in diesem Sinne sind die beiden Integrale zu verstehen. Der Integralsatz (2) schreibt sich jetzt einfach in der Form Z Z d(V ) = (V ), G ∂G und auch (1) ist von dieser Form, nämlich Z Z df = f. G ∂G Alle drei Integralsätze sind in der Tat Spezialfälle eines einzigen, nämlich der Formel Z Z dω = ω. G ∂G 41 Sie gilt für (differenzierbare) Differentialformen ω vom Grad p, wobei das linke Integral über eine (p + 1)-dimensionale orientierte Mannigfaltigkeit“ im Rn und ” das rechts stehende über deren orientierten (p-dimensionalen) Rand erstreckt ist. Dies ist der allgemeine Satz von Stokes, dessen Beweis das Ziel des ersten Teils dieser Vorlesung ist. Der Satz von Stokes, Z Z dω = G ω, ∂G ist nicht nur wegen seiner einfachen äußeren Form bemerkenswert. Gegeben sind hier zwei ganz verschiedene mathematische Objekte, die Differentialform ω und die Mannigfaltigkeit G. Auf der linken Seite wird auf die Differentialform ω eine analytische Operation angewendet, nämlich die äußere Differentiation. Auf der rechten Seite wird auf die Mannigfaltigkeit G eine topologische Operation angewendet, nämlich die Randbildung. Die Gleichheit beider Seiten drückt einen erstaunlichen Zusammenhang zwischen Analysis und Topologie aus. Um das damit skizzierte Programm durchzuführen, sollen, wie gesagt, zunächst in §5 die erforderlichen Betrachtungen der multilinearen Algebra angestellt werden; hier wird also die alternierende Multiplikation von Kovektoren erklärt. In §6 werden dann Differentialformen und die äußere Differentiation eingeführt. Integration von Differentialformen und eine erste Version des Satzes von Stokes folgen in §7; danach geschieht die Ausdehnung auf Untermannigfaltigkeiten. 5 Hilfsmittel aus der multilinearen Algebra Im folgenden sind V, W reelle Vektorräume, und für p ∈ N bezeichnet V p := V × . . . × V (p Faktoren) das kartesische Produkt. (5.1) Definition und Behauptung. Ein p-Tensor über V ist eine multilineare (d.h. in jedem Argument lineare) Abbildung T : V p → R. Die Menge T p (V ) aller p-Tensoren über V ist mit den Operationen (S + T )(v1 , . . . , vp ) := S(v1 , . . . , vp ) + T (v1 , . . . , vp ) (λS)(v1 , . . . , vp ) := λS(v1 , . . . , vp ) ein reeller Vektorraum. Wir setzen T 0 (V ) := R. Die Behauptung ist trivial. 42 5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA Bemerkung. Aus der Linearen Algebra ist der Dualraum V ∗ bekannt, der Vektorraum aller linearen Funktionale auf V . Es ist also V ∗ = T 1 (V ) und somit T p (V ) eine Verallgemeinerung des Dualraums. (5.2) Definition und Behauptung. Für S ∈ T p (V ), T ∈ T q (V ) ist das Tensorprodukt S ⊗ T erklärt durch S ⊗ T (v1 , . . . , vp , vp+1 , . . . , vp+q ) := S(v1 , . . . , vp )T (vp+1 , . . . , vp+q ) für (v1 , . . . , vp+q ) ∈ V p+q . Es ist S ⊗ T ∈ T p+q (V ). Die Behauptung ist trivial. (5.3) Satz. Für S, Si ∈ T p (V ), T, Ti ∈ T q (V ), U ∈ T r (V ) und λ ∈ R gilt (a) (S1 + S2 ) ⊗ T = S1 ⊗ T + S2 ⊗ T , (b) S ⊗ (T1 + T2 ) = S ⊗ T1 + S ⊗ T2 , (c) (λS) ⊗ T = S ⊗ (λT ) = λ(S ⊗ T ), (d) (S ⊗ T ) ⊗ U = S ⊗ (T ⊗ U ). Der Beweis ist sehr einfach. Wegen (d) dürfen wir (S ⊗ T ) ⊗ U =: S ⊗ T ⊗ U schreiben, analog für mehr Faktoren. (5.4) Definition und Behauptung. Sei f : V → W eine lineare Abbildung. Die Abbildung f ∗ : T p (W ) → T p (V ) werde definiert durch (f ∗ T )(v1 , . . . , vp ) := T (f (v1 ), . . . , f (vp )) für (v1 , . . . , vp ) ∈ V p , T ∈ T p (W ). Dann ist f ∗ linear. Der Beweis ist trivial. Es ist zu beachten, daß f ∗ von p abhängt, was aber in der Bezeichnung nicht zum Ausdruck kommt. (5.5) Definition und Behauptung. Ein p-Tensor ω ∈ T p (V ) (p ≥ 2) heißt alternierend, wenn ω(v1 , . . . , vi , . . . , vj , . . . , vp ) = −ω(v1 , . . . , vj , . . . , vi , . . . , vp ) für i 6= j für v1 , . . . , vp ∈ V gilt. Sei Ωp (V ) die Menge aller alternierenden p-Tensoren; außerdem sei Ω0 (V ) := R und Ω1 (V ) := T 1 (V ). Dann ist Ωp (V ) ein linearer Unterraum von T p (V ); seine Elemente heißen auch p-Kovektoren über V . Der Beweis der Behauptung ist trivial. 43 Zur Erinnerung. Sp sei die Gruppe der Permutationen (bijektiven Abbildungen auf sich) der Menge {1, . . . , p}. Sie hat p! Elemente. Mit (i, j) ∈ Sp sei die Permutation bezeichnet, die i und j vertauscht und die übrigen Zahlen fest läßt (i 6= j). Jede solche Permutation heißt Transposition. Jedes σ ∈ Sp (p > 1) läßt sich als Produkt von Transpositionen schreiben. Ob die Anzahl der dabei verwendeten Transpositionen gerade oder ungerade ist, hängt nur von σ ab. Im ersten Fall nennt man σ gerade und setzt sgn σ = 1, im zweiten Fall nennt man σ ungerade und setzt sgn σ = −1. Die Abbildung sgn ist ein Homomorphismus von Sp in die multiplikative Gruppe {−1, 1}. (5.6) Definition. Für T ∈ T p (V ) sei Alt (T )(v1 , . . . , vp ) := 1 X sgn σ T (vσ(1) , . . . , vσ(p) ). p! σ∈S p (5.7) Satz. Es gilt (a) T ∈ T p (V ) ⇒ Alt (T ) ∈ Ωp (V ), (b) ω ∈ Ωp (V ) ⇒ Alt (ω) = ω. Beweis. (a) Sei i 6= j (fest), (i, j) ∈ Sp die zugehörige Transposition und σ 0 := σ(i, j) für σ ∈ Sp . Dann ist Alt (T )(v1 , . . . , vj , . . . , vi , . . . , vp ) 1 X sgn σ T (vσ(1) , . . . , vσ(j) , . . . , vσ(i) , . . . , vσ(p) ) = p! σ∈S p = 1 X sgn σ T (vσ0 (1) , . . . , vσ0 (i) , . . . , vσ0 (j) , . . . , vσ0 (p) ) p! σ∈S p = 1 X (−sgn σ 0 ) T (vσ0 (1) , . . . , vσ0 (i) , . . . , vσ0 (j) , . . . , vσ0 (p) ) p! σ0 ∈S p = −Alt (T )(v1 , . . . , vi , . . . , vj , . . . , vp ). (b) Für ω ∈ Ωp (V ) und σ := (i, j) gilt ω(vσ(1) , . . . , vσ(p) ) = −ω(v1 , . . . , vp ) = sgn σ ω(v1 , . . . , vp ). Da jede Permutation Produkt von Transpositionen ist (und da sgn multiplikativ ist), gilt diese Gleichung für jede Permutation σ. Also ist 1 X Alt (ω)(v1 , . . . , vp ) = sgn σ ω(vσ(1) , . . . , vσ(p) ) p! σ∈S p 44 5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA = 1 1 ω(v1 , . . . , vp ) = ω(v1 , . . . , vp ). p! σ∈S X p Bemerkung. Für jedes p ist Alt : T p (V ) → Ωp (V ) eine lineare Abbildung, und zwar wegen (5.7b) eine Projektion. (5.8) Definition und Behauptung. Für ω ∈ Ωp (V ), η ∈ Ωq (V ) ist das alternierende (oder äußere) Produkt ω ∧ η erklärt durch ω ∧ η := (p + q)! Alt (ω ⊗ η). p!q! Es ist ω ∧ η ∈ Ωp+q (V ). Die Behauptung folgt aus (5.2) und (5.7). (5.9) Satz. Für ω, ωi ∈ Ωp (V ), η, ηi ∈ Ωq (V ), λ ∈ R gilt (a) (ω1 + ω2 ) ∧ η = ω1 ∧ η + ω2 ∧ η, (b) ω ∧ (η1 + η2 ) = ω ∧ η1 + ω ∧ η2 , (c) (λω) ∧ η = ω ∧ (λη) = λ(ω ∧ η), (d) ω ∧ η = (−1)pq η ∧ ω. (e) Für jede lineare Abbildung f : W → V gilt f ∗ (ω ∧ η) = f ∗ (ω) ∧ f ∗ (η). Beweis. (a), (b), (c), (e) sind trivial; (d) als Übungsaufgabe. Der nächste Hilfssatz dient zum Nachweis des Assoziativgesetzes für die äußere Multiplikation. (5.10) Hilfssatz. Es gilt: (a) Für S ∈ T p (V ), T ∈ T q (V ) mit Alt (S) = 0 ist Alt (S ⊗ T ) = Alt (T ⊗ S) = 0. (b) Für ω ∈ Ωp (V ), η ∈ Ωq (V ), θ ∈ Ωr (V ) ist Alt (Alt (ω ⊗ η) ⊗ θ) = Alt (ω ⊗ η ⊗ θ) = Alt (ω ⊗ Alt (η ⊗ θ)). 45 Beweis. (a) Sei G ⊂ Sp+q die Untergruppe aller Permutationen von {1, . . . , p+q}, die p + 1, . . . , p + q festlassen, und sei τ G eine Linksnebenklasse. Setze vτ (i) =: wi für i = 1, . . . , p + q. Dann gilt X sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) ) σ∈τ G = X sgn (τ σ 0 ) S(vτ (σ0 (1)) , . . . , vτ (σ0 (p)) )T (vτ (σ0 (p+1)) , . . . , vτ (σ0 (p+q)) ) σ 0 ∈G ! = sgn τ X 0 sgn σ S(wσ0 (1) , . . . , wσ0 (p) ) T (wp+1 , . . . , wp+q ) σ 0 ∈G = sgn τ (p!Alt (S)(w1 , . . . , wp )) T (wp+1 , . . . , wp+q ) = 0. Da die Linksnebenklassen von G eine disjunkte Zerlegung von Sp+q bilden, folgt (p + q)!Alt (S ⊗ T )(v1 , . . . , vp+q ) X sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) ) = σ∈Sp+q X X Linksneben− klassen τ G σ∈τ G = sgn σ S(vσ(1) , . . . , vσ(p) )T (vσ(p+1) , . . . , vσ(p+q) ) = 0. Analog folgt Alt (T ⊗ S) = 0. (b) Es ist Alt (Alt (ω ⊗ η) ⊗ θ) − Alt (ω ⊗ η ⊗ θ) = Alt (Alt (ω ⊗ η) ⊗ θ − (ω ⊗ η) ⊗ θ) = Alt ([Alt (ω ⊗ η) − (ω ⊗ η)] ⊗ θ) = 0 nach (a), denn es ist Alt (Alt (ω ⊗ η) − (ω ⊗ η)) = 0. (5.11) Satz. Für ω ∈ Ωp (V ), η ∈ Ωq (V ), θ ∈ Ωr (V ) gilt (ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) Beweis. Es ist (ω ∧ η) ∧ θ = (p + q + r)! Alt ((ω ∧ η) ⊗ θ) (p + q)!r! 46 5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA (p + q + r)! = Alt (p + q)!r! = (p + q)! Alt (ω ⊗ η) ⊗ θ p!q! (p + q + r)! Alt (ω ⊗ η ⊗ θ) p!q!r! nach (5.10b). Analog ergibt sich derselbe Ausdruck für ω ∧ (η ∧ θ). Natürlich schreibt man jetzt (ω ∧ η) ∧ θ =: ω ∧ η ∧ θ und läßt auch bei mehr als drei Faktoren die Klammern weg. Die im obigen Beweis gezeigte Gleichung ω∧η∧θ = (p + q + r)! Alt (ω ⊗ η ⊗ θ) p!q!r! überträgt sich natürlich sofort auf mehr als zwei Faktoren. Insbesondere gilt für ω1 , . . . , ωp ∈ Ω1 (V ) (= V ∗ ) Alt (ω1 ⊗ . . . ⊗ ωp ) = 1 ω1 ∧ . . . ∧ ωp . p! Voraussetzung. Von jetzt an habe V die Dimension n. Zur Erinnerung. Sei (e1 , . . . , en ) eine Basis von V . Erklärt man ϕi ∈ V ∗ durch ( 1 für i = j ϕi (ej ) := δij = 0 für i 6= j für j = 1, . . . , n und lineare Erweiterung, also ! n n X X ϕi aj ej = aj ϕi (ej ) = ai , j=1 j=1 so ist (ϕ1 , . . . , ϕn ) eine Basis des Dualraumes V ∗ . Sie heißt die zu (e1 , . . . , en ) P duale Basis. Für f ∈ V ∗ und beliebige v = ai ei ∈ V gilt ! n X X X X f (v) = f ai ei = ai f (ei ) = f (ei )ϕi (v) = f (ei )ϕi (v), i=1 also ist f= n X f (ei )ϕi . i=1 Wir wollen dieses Vorgehen ausdehnen, um eine Basis von Ωp (V ) anzugeben. 47 (5.12) Satz. Sei (e1 , . . . , en ) eine Basis von V und (ϕ1 , . . . , ϕn ) die duale Basis. Dann ist die Menge B := ϕi1 ∧ . . . ∧ ϕip : 1 ≤ i1 < i2 < . . . < ip ≤ n eine Basis von Ωp (V ); sie heißt die Standardbasis. Insbesondere ist also n p dim Ω (V ) = . p Beweis. Zunächst sei T ∈ T p (V ). Sei v1 , . . . , vp ∈ V , in Basisdarstellung vi = n X aij ej , i = 1, . . . , p. j=1 Dann ist T (v1 , . . . , vp ) = T n X a1i1 ei1 , . . . , i1 =1 n X = n X apip eip ip =1 a1i1 · · · apip T (ei1 , . . . , eip ). i1 ,...,ip =1 Nun ist ϕi1 ⊗ . . . ⊗ ϕip (v1 , . . . , vp ) = ϕi1 (v1 ) · · · ϕip (vp ) = a1i1 · · · apip , also ist T = n X T (ei1 , . . . , eip )ϕi1 ⊗ . . . ⊗ ϕip . i1 ,...,ip =1 Jetzt sei speziell T = ω ∈ Ωp (V ). Dann ist ω = Alt (ω) = n X ω(ei1 , . . . , eip )Alt (ϕi1 ⊗ . . . ⊗ ϕip ) i1 ,...,ip =1 n 1 X ω(ei1 , . . . , eip )ϕi1 ∧ . . . ∧ ϕip . = p! i ,...,i =1 1 p Nun ist ϕi1 ∧ . . . ∧ ϕip alternierend. Kommen unter i1 , . . . , ip zwei gleiche Indizes vor, so ist also ϕi1 ∧ . . . ∧ ϕip = 0. 48 5 HILFSMITTEL AUS DER MULTILINEAREN ALGEBRA Andernfalls gibt es eine Permutation σ ∈ Sp mit 1 ≤ iσ(1) < iσ(2) < . . . < iσ(p) ≤ n und ϕi1 ∧ . . . ∧ ϕip = ±ϕiσ(1) ∧ . . . ∧ ϕiσ(p) . Damit ist gezeigt, daß B ein Erzeugendensystem von Ωp (V ) ist. Es bleibt die lineare Unabhängigkeit zu zeigen. Angenommen also, es ist X ai1 ...ip ϕi1 ∧ . . . ∧ ϕip = 0. 1≤i1 <...<ip ≤n Sei 1 ≤ j1 < . . . < jp ≤ n. Es ist ϕi1 ∧ . . . ∧ ϕip (ej1 , . . . , ejp ) = p!Alt (ϕi1 ⊗ . . . ⊗ ϕip )(ej1 , . . . , ejp ) X = sgn σ ϕi1 (ejσ(1) ) · · · ϕip (ejσ(p) ). σ∈Sp Hier ist ( ϕi1 (ejσ(1) ) · · · ϕip (ejσ(p) ) = 0 ( = 1, wenn i1 = jσ(1) , . . . , ip = jσ(p) sonst 1, wenn i1 = j1 , . . . , ip = jp 0 sonst, da die Indizes i und j der Größe nach geordnet sind. Es folgt X 0= ai1 ...ip ϕi1 ∧ . . . ∧ ϕip (ej1 , . . . , ejp ) = aj1 ...jp 1≤i1 <...<ip ≤n und daraus die Behauptung. Als Folgerung halten wir insbesondere fest: Ωp (V ) = {0} für p > n und dim Ωn (V ) = 1. (5.13) Satz. Sei (e1 , . . . , en ) eine Basis von V , sei ω ∈ Ωn (V ), sei vi = Pn j=1 aij ej für i = 1, . . . , n. Dann ist ω(v1 , . . . , vn ) = det(aij )ni,j=1 ω(e1 , . . . , en ). 49 Beweis. Für vi = Pn j=1 aij ej , i = 1, . . . , n, definiere η(v1 , . . . , vn ) := det(aij )ni,j=1 . Aus den bekannten Eigenschaften der Determinantenfunktion folgt η ∈ Ωn (V ); wegen dim Ωn (V ) = 1 ist also ω = λη mit einem λ ∈ R, und es ist ω(e1 , . . . , en ) = λη(e1 , . . . , en ) = λ. Vereinbarung. Wir werden im folgenden gelegentlich die Abkürzung X X ai1 ...ip ϕi1 ∧ . . . ∧ ϕip =: aI ϕ I 1≤i1 <...<ip ≤n I∈Mpn benutzen. Dabei durchläuft der Multi-Index I die Menge Mpn aller der Größe nach geordneten p-Tupel von Zahlen aus {1, . . . , n}. 6 Differentialformen und äußere Ableitung (6.1) Definition. Sei M ⊂ Rn , sei p ∈ N0 . Eine Differentialform vom Grad p (kurz: p-Form) auf M ist eine Abbildung von M in Ωp (Rn ). Eine Differentialform vom Grad 0 ist danach also einfach eine reellwertige Funktion. Sei ω eine p-Form auf M . Für X ∈ M ist ω(X) ∈ Ωp (Rn ), also ω(X) ein p-Kovektor über Rn . Statt ω(X) schreiben wir häufig ωX . Die für alternierende Tensoren erklärten algebraischen Operationen können in der üblichen Weise (nämlich punktweise) für Differentialformen erklärt werden: (6.2) Definition. Seien ωi , ω, η Differentialformen auf M (ω1 , ω2 vom selben Grad). Dann werden die Differentialformen ω1 + ω2 , f ω (für Funktionen f : M → R), ω ∧ η erklärt durch (ω1 + ω2 )(X) := ω1 (X) + ω2 (X), (f ω)(X) := f (X)ω(X) =: (f ∧ ω)(X) (ω ∧ η)(X) := ω(X) ∧ η(X). Spezielle 1-Formen sind uns bereits bekannt. Sei M ⊂ Rn offen und f : M → R eine differenzierbare Funktion. In jedem Punkt X ∈ M ist also das Differential 50 6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG DfX erklärt. Es ist nach Definition die eindeutig bestimmte lineare Abbildung DfX : Rn → R mit f (X + H) − f (X) − DfX (H) = 0. H→0 kHk lim Für reellwertige Funktionen schreiben wir im folgenden dfX statt DfX . Für jedes X ist dfX also eine lineare Abbildung von Rn in R, somit ein Element von Ω1 (Rn ). Also ist das Differential df von f , das ist die Abbildung df : M → Ω1 (Rn ), X 7→ dfX eine Differentialform vom Grad 1 auf M . Es ist üblich, das Differential der i-ten Projektion Rn pi : → R (x1 , . . . , xn ) 7→ xi mit dxi zu bezeichnen (i = 1, . . . , n) (wir verwenden hier also jetzt obere Indizes). Dann sind also dx1 , . . . , dxn Differentialformen vom Grad 1 auf Rn . Trivialerweise ist dxi (X) = pi für alle X ∈ Rn und daher (dxi )X (Ej ) = δij . Somit ist ((dx1 )X , . . . , (dxn )X ) die duale Basis zur Standardbasis (E1 , . . . , En ) von Rn . Gemäß Satz (5.12) erhalten wir damit zu jedem X ∈ Rn eine Basis von Ωp (Rn ) und können ωX für gegebene p-Formen ω in dieser Basis ausdrücken: (6.3) Definition und Behauptung. Sei ω eine Differentialform vom Grad p auf M . Dann gibt es Funktionen ai1 ...ip : M → R, 1 ≤ i1 < . . . < ip = n, die Koordinatenfunktionen von ω, mit X ωX = ai1 ...ip (X)(dxi1 )X ∧ . . . ∧ (dxip )X für X ∈ M, 1≤i1 <...<ip ≤n abgekürzt ω= X 1≤i1 <...<ip ≤n ai1 ...ip dxi1 ∧ . . . ∧ dxip = X aI dxI . I∈Mpn Ist M offen, so heißt die Form ω von der Klasse C r (r ∈ N0 ), wenn ihre Koordinatenfunktionen von der Klasse C r sind. 51 Bemerkung. Mit den Bezeichnungen aus (6.3) gilt nach dem Beweis von (5.12) ai1 ...ip (X) = ωX (Ei1 , . . . , Eip ). Ist speziell f eine differenzierbare Funktion, so ergibt sich für die 1-Form df die Darstellung n n X X df = df (Ei )dxi = (∂i f )dxi . i=1 i=1 In Definition (5.4) hatten wir jeder linearen Abbildung L : V → W für jedes p ∈ N eine lineare Abbildung L∗ : T p (W ) → T p (V ) zugeordnet durch (L∗ T )(v1 , . . . , vp ) := T (L(v1 ), . . . , L(vp )). Für p = 0 soll dabei L∗ definitionsgemäß die Identität auf R sein. Sei nun M ⊂ Rn offen und F : M → Rk eine differenzierbare Abbildung. Für jedes X ∈ M ist dann das Differential DFX : Rn → Rk eine lineare Abbildung, also ist insbesondere für jedes p eine lineare Abbildung (DFX )∗ : Ωp (Rk ) → Ωp (Rn ) erklärt. Hierdurch wird jeder p-Form auf F (M ) eine p-Form auf M zugeordnet: (6.4) Definition. Sei M ⊂ Rn offen und F : M → Rk eine differenzierbare Abbildung. Für eine p-Form ω auf F (M ) ist die p-Form F ∗ ω auf M erklärt durch (F ∗ ω)X := (DFX )∗ ωF (X) für X ∈ M. Man sagt, F ∗ ω entstehe aus ω durch Zurückholen mittels der Abbildung F . Bemerkung. Für p = 0 ist definitionsgemäß L∗ die Identität auf R, also F ∗ ω = ω ◦ F. (6.5) Satz. Sei M ⊂ Rn offen und F : M → Rk eine differenzierbare Abbildung, sei F = (f1 , . . . , fk ), sei dy i das i-te Koordinatendifferential auf Rk . Dann gilt für p-Formen ωi , ω, Funktionen g und q-Formen η auf F (M ) (a) F ∗ dy i = dfi für i = 1, . . . , k, (b) F ∗ (ω1 + ω2 ) = F ∗ ω1 + F ∗ ω2 , (c) F ∗ (gω) = (g ◦ F )F ∗ ω, (d) F ∗ (ω ∧ η) = F ∗ ω ∧ F ∗ η. 52 6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG (e) Sei ferner N ⊂ Rk offen, F (M ) ⊂ N und G : N → Rm differenzierbar. Für jede p-Form ω auf (G ◦ F )∗ gilt dann (G ◦ F )∗ ω = F ∗ G∗ ω. Beweis. (b) und (c) sind trivial, (d) folgt aus Satz (5.9e). (a): Für H ∈ Rn gilt, wenn (E10 , . . . , Ek0 ) die Standardbasis von Rk bezeichnet, (F ∗ dy i )X (H) = (DFX )∗ (dy i )F (X) (H) = (dy i )F (X) (DFX (H)) = (dy i )F (X) k X nach Def. von L∗ ! (Dfj )X (H)Ej0 (An.II(9.8)) j=1 = (Dfi )X (H), also F ∗ dy i = Dfi = dfi . Beweis von (e): Die entsprechende Eigenschaft für lineare Abbildungen (vgl. (5.4)) ist klar; die Behauptung folgt nach (6.4) dann aus der Kettenregel D(G ◦ F )X = DGF (X) ◦ DFX . Bemerkung. Nach (6.5) ist also X X F∗ ai1 ...ip dy i1 ∧ . . . ∧ dy ip = (ai1 ...ip ◦ F ) dfi1 ∧ . . . ∧ dfip . Hier kann man dfi = n X (∂j fi )dxj j=1 ∗ einsetzen und dann F (·) durch die Standardbasis ausdrücken. Für n-Formen ω wollen wir F ∗ ω für spätere Anwendung explizit ausrechnen: (6.6) Satz. Sei M ⊂ Rn offen und F : M → Rn differenzierbar. Dann ist F ∗ (adx1 ∧ . . . ∧ dxn ) = (a ◦ F )(det JF )dx1 ∧ . . . ∧ dxn . Beweis. Nach (6.5c) ist F ∗ (adx1 ∧ . . . ∧ dxn ) = (a ◦ F )F ∗ (dx1 ∧ . . . ∧ dxn ), und es ist (die Argumente X, F (X) werden weggelassen) F ∗ (dx1 ∧ . . . ∧ dxn )(E1 , . . . , En ) = (dx1 ∧ . . . ∧ dxn )(DF (E1 ), . . . , DF (En )) = (dx1 ∧ . . . ∧ dxn ) n X i=1 (∂1 fi )Ei , . . . , n X ! (∂n fi )Ei i=1 = det(∂i fj )ni,j=1 dx1 ∧ . . . ∧ dxn (E1 , . . . , En ) 53 nach Satz (5.13), also F ∗ (dx1 ∧ . . . ∧ dxn ) = (det JF )dx1 ∧ . . . ∧ dxn . Grundlegend für alles weitere ist der jetzt zu erklärende Differentiationsprozeß für Differentialformen. (6.7) Definition. Sei M ⊂ Rn offen und X X ω= ai1 ...ip dxi1 ∧ . . . ∧ dxip = aI dxI I∈Mpn 1≤i1 <...<ip ≤n eine Differentialform vom Grad p der Klasse C 1 auf M . Die äußere Ableitung oder das äußere Differential von ω ist die (p + 1)-Form X X dω := daI ∧ dxI dai1 ...ip ∧ dxi1 ∧ . . . ∧ dxip = I∈Mpn 1≤i1 <...<ip ≤n = X n X (∂j ai1 ...ip )dxj ∧ dxi1 ∧ . . . ∧ dxip . 1≤i1 <...<ip ≤n j=1 Bemerkung. Für eine 0-Form f (Funktion) ist df bereits definiert; es ist df = n X (∂j f )dxj ; j=1 das ist also konsistent mit der obigen Definition. Wir stellen nun die Rechenregeln für die äußere Ableitung zusammen. (6.8) Satz. Seien ωi , ω p-Formen, η eine q-Form auf M , jeweils von der Klasse C 1 . Dann gilt (a) d(ω1 + ω2 ) = dω1 + dω2 , (b) d(ω ∧ η) = dω ∧ η + (−1)p ω ∧ dη, (c) Ist ω von der Klasse C 2 , so gilt ddω = 0. (d) Ist F : M → Rk eine Abbildung der Klasse C 2 und ω eine p-Form der Klasse C 1 auf (einer offenen Obermenge von) F (M ), so gilt F ∗ dω = dF ∗ ω. Beweis. (a) ist trivial. 54 6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG (b) Sei zunächst f eine differenzierbare Funktion auf M . Sei I ∈ Mpn , J ∈ Mqn . Dann gilt (∗) d(f dxI ∧ dxJ ) = df ∧ dxI ∧ dxJ . In der Tat: Kommen in I und J zwei gleiche Indizes vor, so sind beide Seiten gleich 0. Andernfalls ist dxI ∧ dxJ = (−1)m dxk1 ∧ . . . ∧ dxkp+q mit einer Zahl m und mit 1 ≤ k1 < k2 < . . . < kp+q ≤ n. Daraus folgt (∗). Nun sei ω = X X ai1 ...ip dxi1 ∧ . . . ∧ dxip = aI dxI I∈Mpn η = X X bj1 ...jq dxj1 ∧ . . . ∧ dxjq = bJ dxJ , J∈Mqn also d(ω ∧ η) = X d(aI bJ dxI ∧ dxJ ) I,J nach (a). Nun gilt d(aI bJ dxI ∧ dxJ ) = d(aI bJ ) ∧ dxI ∧ dxJ nach (∗) = (bJ daI + aI dbJ ) ∧ dxI ∧ dxJ nach der gewöhnlichen Produktregel = (daI ∧ dxI ) ∧ (bJ dxJ ) + dbJ ∧ (aI dxI ) ∧ dxJ = daI ∧ dxI ∧ bJ dxJ + (−1)p aI dxI ∧ dbJ ∧ dxJ nach (5.9d). Es folgt d(ω ∧ η) ! = X daI ∧ dxI ! ∧ X I = dω ∧ η + (−1)p ω ∧ dη. J bJ dxJ ! + (−1)p X I aI dxI ! ∧ X J dbJ ∧ dxJ 55 (c) Für eine Funktion f der Klasse C 2 gilt df = n X (∂i f )dxi , i=1 also ddf = n X d(∂i f ) ∧ dxi i=1 = n n X X i=1 = X ! (∂j ∂i f )dxj ∧ dxi j=1 (∂i ∂j f − ∂j ∂i f ) dxi ∧ dxj i<j = 0. Unter Verwendung von (a) und (b) folgt für ω = X dω = daI ∧ dxI , P I aI dxI I∈Mpn ddω = X ddaI ∧ dxI − daI ∧ ddxI I∈Mpn = 0. (d) Sei F : M → Rk eine 2-mal stetig differenzierbare Abbildung und ω eine p-Form auf F (M ). Seien f1 , . . . , fk die Koordinatenfunktionen von F . Zunächst sei p = 0, also ω eine Funktion g. Dann ist ! k X F ∗ dg = F ∗ (∂j g)dy j j=1 = k X (∂j g) ◦ F dfj nach (6.5) j=1 = k X (∂j g) ◦ F j=1 = (∂i fj )dxi i=1 n k X X i=1 n X j=1 ! (∂j g) ◦ F ∂i fj dxi 56 6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG = n X ∂i (g ◦ F ) dxi (Kettenregel) i=1 = d(g ◦ F ) = dF ∗ g. Nun sei k ∈ N0 und die Behauptung bewiesen für alle k-Formen. Es genügt dann, sie für alle (k + 1)-Formen der Gestalt ω ∧ dy i zu beweisen. Es ist F ∗ d(ω ∧ dy i ) = F ∗ (dω ∧ dy i + (−1)k ω ∧ ddy i ) nach (b) = F ∗ (dω ∧ dy i ) nach (c) = F ∗ dω ∧ F ∗ dy i nach (6.5d) = dF ∗ ω ∧ F ∗ dy i nach Ind.-Annahme Andererseits ist dF ∗ (ω ∧ dy i ) = d(F ∗ ω ∧ F ∗ dy i ) nach (6.5d) = dF ∗ ω ∧ F ∗ dy i + (−1)k F ∗ ω ∧ dF ∗ dy i = dF ∗ ω ∧ F ∗ dy i + (−1)k F ∗ ω ∧ ddfi = dF ∗ ω ∧ F ∗ dy i . Unter Verwendung der äußeren Ableitung lassen sich die Operationen der klassischen Vektoranalysis übersichtlich ausdrücken: Sei V : M → R3 ein Vektorfeld der Klasse C 2 . Wir ordnen ihm zwei Differentialformen (V ), ((V )) zu durch die Vorschrift (V ) := v1 dx1 + v2 dx2 + v3 dx3 , ((V )) := v1 dx2 ∧ dx3 + v2 dx3 ∧ dx1 + v3 dx1 ∧ dx2 . Dann rechnet man leicht nach, daß d(V ) = ((rot V )), d((V )) = div V dx1 ∧ dx2 ∧ dx3 ist. Ferner gilt für eine Funktion f der Klasse C 2 df = (∇f ). Mit diesen Bezeichnungen ergibt sich nun aus (6.7c) 0 = dd(V ) = d((rot V )) = (div rotV ) dx1 ∧ dx2 ∧ dx3 , 57 also div rot V = 0, wie bekannt nach Satz (4.4). Ferner ist 0 = ddf = d(∇f ) = ((rot∇f )) und somit rot ∇f = 0, wie bekannt nach Satz (4.2). Die den Sätzen (4.2) (zweiter Teil) und (4.5) zugrundeliegenden Fragestellungen legen nun die folgende Verallgemeinerung nahe. Gegeben sei eine p-Form ω der Klasse C 1 auf M . Ist sie als äußere Ableitung einer (p − 1)-Form der Klasse C 2 darstellbar? Wenn ω = dη ist, muß jedenfalls dω = ddη = 0 sein. Die Bedingung dω = 0 ist also eine notwendige Integrabilitätsbedingung. Satz (4.2) (für ω = (V ), p = 1) und Satz (4.5) (für ω = ((V )), p = 2) besagen insbesondere, daß die Bedingung jedenfalls dann hinreichend ist, wenn M sternförmig ist. Dies läßt sich verallgemeinern. Zunächst eine Definition. (6.9) Definition. Sei M ⊂ Rn ein Gebiet und ω eine p-Form (p ≥ 1) der Klasse C 1 auf M . Die Form ω heißt geschlossen, wenn dω = 0 ist, und exakt, wenn es eine (p − 1)-Form η der Klasse C 1 gibt mit ω = dη. Jede exakte Form (der Klasse C 1 ) ist also geschlossen, aber nicht umgekehrt, wie aus früheren Beispielen bekannt ist. Jedoch gilt: (6.10) Satz (Lemma von Poincaré). Sei M ⊂ Rn ein sternförmiges Gebiet. Dann ist jede geschlossene p-Form der Klasse C 1 auf M exakt. Beweis. O.B.d.A. sei M sternförmig bezüglich 0. Für jede stetige p-Form ω auf M mit der Darstellung X ai1 ...ip dxi1 ∧ . . . ∧ dxip ω= i1 <...<ip definieren wir eine (p − 1)-Form Iω auf M durch (Iω)X := 1 Z p X X d ik ∧ . . . ∧ dxip . ai1 ...ip (tX)tp−1 dt (−1)k−1 xik dxi1 ∧ . . . ∧ dx i1 <...<ip k=1 0 Dabei ist X = (x1 , . . . , xn ) gesetzt. Das Zeichen b bedeutet, daß dxik weggelassen werden soll. Nun sei ω eine p-Form der Klasse C 1 auf M . Wir berechnen d(Iω) und I(dω). Es ist 1 Z X ai1 ...ip (tX)tp−1 dt dxi1 ∧ . . . ∧ dxip d(Iω)X = p i1 <...<ip 0 58 6 DIFFERENTIALFORMEN UND ÄUSSERE ABLEITUNG p X X + (−1)k−1 n X Z1 j=1 i1 <...<ip k=1 ∂j ai1 ...ip (tX)tp dt xik 0 d ik ∧ . . . ∧ dxip . dxj ∧ dxi1 ∧ . . . ∧ dx Andererseits ist n X X dω = ∂j ai1 ...ip dxj ∧ dxi1 ∧ . . . ∧ dxip i1 <...<ip j=1 und daher [dies erfordert eine elementare, aber umständlich aufzuschreibende Zusatzüberlegung: j muß jeweils in i1 < . . . < ip eingereiht werden, bevor I gebildet wird] n X X I(dω)X = Z1 i1 <...<ip j=1 n X X − ∂j ai1 ...ip (tX)tp dt xj dxi1 ∧ . . . ∧ dxip 0 p ∂j ai1 ...ip (tX)t dt i1 <...<ip j=1 Z1 p X (−1)k−1 xik k=1 0 d ik ∧ . . . ∧ dxip . dxj ∧ dxi1 ∧ . . . ∧ dx Es folgt d(Iω)X + I(dω)X 1 1 Z Z n X X p ai1 ...ip (tX)tp−1 dt + ∂j ai1 ...ip (tX)tp xj dt = i1 <...<ip 0 j=1 0 dxi1 ∧ . . . ∧ dxip 1 Z X d ai1 ...ip (tX)tp dt dxi1 ∧ . . . ∧ dxip = dt i <...<i p 1 = X 0 ai1 ...ip (X) dxi1 ∧ . . . ∧ dxip i1 <...<ip = ωX . Also ist d(Iω) + I(dω) = ω. Wegen dω = 0 folgt d(Iω) = ω. 59 7 Integration von Differentialformen In den Ausführungen zur klassischen Vektoranalysis haben wir Kurven- und Oberflächenintegrale von Vektorfeldern betrachtet. Die wahre Natur“ dieser In” tegrale tritt deutlicher hervor, wenn wir sie jetzt als Integrale von 1-Formen bzw. 2-Formen interpretieren. Allgemein wird es unser Ziel sein, Integrale von p-Formen über p-dimensionale Untermannigfaltigkeiten des Rn zu erklären und hierfür den Satz von Stokes, die elegante Zusammenfassung und Verallgemeinerung der Integralsätze der Vektoranalysis, zu beweisen. Zunächst orientieren wir uns am Beispiel der parametrisierten Kurven oder Flächen; es ist zweckmäßig (und ausreichend), hier auch für p > 1 nur spezielle Parameterbereiche zu betrachten, nämlich (abgeschlossene) Würfel. Für p ∈ N ist [0, 1]p := {(x1 , . . . , xp ) ∈ Rp : 0 ≤ xi ≤ 1 für i = 1, . . . , p} das p-fache kartesische Produkt des abgeschlossenen Einheitsintervalls. Ferner sei [0, 1]0 := {0} vereinbart. (7.1) Definition. Sei ω eine stetige p-Form auf [0, 1]p , also ω = f dx1 ∧ . . . ∧ dxp mit einer stetigen Funktion f auf [0, 1]p . Man definiert Z Z ω := f. [0,1]p [0,1]p Mit anderen Worten, es ist (nach dem Satz von Fubini) Z [0,1]p f dx1 ∧ . . . ∧ dxp = Z1 Z1 ··· 0 f (x1 , . . . , xp ) dx1 · · · dxp . 0 Wir müssen nun geeignete Integrationsbereiche für p-Formen im Rn erklären. Später werden als solche Integrationsbereiche p-dimensionale Untermannigfaltigkeiten zulässig sein. Zuvor ist jedoch die folgende Begriffsbildung nützlich, die man als Verallgemeinerung der parametrisierten Flächen ansehen kann. (7.2) Definition. Sei M ⊂ Rn . Ein singulärer p-Würfel in M ist eine zweimal stetig differenzierbare Abbildung c : [0, 1]p → M. 60 7 INTEGRATION VON DIFFERENTIALFORMEN Eine Abbildung mit nicht offenem Definitionsbereich soll dabei differenzierbar heißen, wenn sie Einschränkung einer differenzierbaren Abbildung mit offenem Definitionsbereich ist. Ein singulärer 0-Würfel ist eine Abbildung c : {0} → M , also eindeutig bestimmt durch den Bildpunkt. Ein singulärer 1-Würfel ist nichts anderes als eine parametrisierte Kurve der Klasse C 2 (mit speziellem Parameterintervall). Sie braucht aber nicht regulär zu sein, d.h. es wird nicht gefordert, daß c von maximalem Rang ist. Ein singulärer 2-Würfel ist also im allgemeinen keine parametrisierte Fläche. Insbesondere ist zugelassen, daß c nicht lokal injektiv ist, zum Beispiel kann c konstant sein. Hierher rührt die Bezeichnung singulär“. Im übrigen ist ” die Bezeichnung singulärer Würfel“ recht unglücklich, aber üblich. ” Jetzt erklären wir, wie p-Formen über singuläre p-Würfel integriert werden können. (7.3) Definition. Sei M ⊂ Rn offen, ω eine stetige p-Form auf M und c ein singulärer p-Würfel in M . Dann definiert man Z Z ω := c∗ ω für p ≥ 1 c und [0,1]p Z ω := ω(c(0)) für p = 0. c Das so definierte Integral ist parameterinvariant im folgenden Sinne: (7.4) Satz. Ist τ : [0, 1]p → [0, 1]p eine bijektive Abbildung der Klasse C 2 mit det Jτ ≥ 0 und sind ω und c wie oben, so gilt Z Z ω = ω. c c◦τ Beweis: Übungsaufgabe. Wir wollen uns die Definition (7.3) in den Fällen p = 1 und p = 2, n = 3 genauer ansehen. Im Einklang mit der früheren Bezeichnungsweise sei F : [0, 1] → Rn ein singulärer 1-Würfel, also eine parametrisierte Kurve der Klasse C 2 . Ferner sei ω = v1 dx1 + . . . + vn dxn 61 eine stetige 1-Form auf Rn . Nach Definition (7.3) ist Z Z 1 n v1 dx + . . . + vn dx = F ∗ ω. F [0,1] Die zurückgeholte Form F ∗ ω ist eine 1-Form auf [0, 1]. Bezeichnen wir das (einzige) Koordinatendifferential in R1 mit dt1 , so ist mit F = (f1 , . . . , fn ) nach (6.5) F ∗ ω = F ∗ (v1 dx1 + . . . + vn dxn ) = (v1 ◦ F )df1 + . . . + (vn ◦ F )dfn = [(v1 ◦ F )f10 + . . . + (vn ◦ F )fn0 ]dt1 = hV ◦ F, F 0 idt1 , wenn V := (v1 , . . . , vn ) gesetzt wird. Nach Def. (7.1) ist also Z Z Z1 hV ◦ F, F i = ω= F 0 [0,1] hV (F (t)), F 0 (t)i dt. 0 Das ist also gerade das Kurvenintegral des Vektorfeldes (v1 , . . . , vn ) längs der durch F definierten Kurve. Sei nun F : [0, 1]2 → R3 ein singulärer 2-Würfel im R3 . Sei ω = v1 dx2 ∧ dx3 + v2 dx3 ∧ dx1 + v3 dx1 ∧ dx2 eine stetige 2-Form auf R3 . Nach Definition (7.3) ist Z Z 2 3 3 1 1 2 v1 dx ∧ dx + v2 dx ∧ dx + v3 dx ∧ dx = F ∗ ω. F [0,1]2 Die zurückgeholte Form F ∗ ω ist eine 2-Form auf [0, 1]2 . Bezeichnen wir die Koordinatendifferentiale in R2 mit du1 , du2 , so ist mit F = (f1 , f2 , f3 ) nach (6.5) F ∗ ω = (v1 ◦ F )df2 ∧ df3 + (v2 ◦ F )df3 ∧ df1 + (v3 ◦ F )df1 ∧ df2 = (v1 ◦ F )[∂1 f2 du1 + ∂2 f2 du2 ] ∧ [∂1 f3 du1 + ∂2 f3 du2 ] + . . . = (v1 ◦ F )(∂1 f2 · ∂2 f3 − ∂1 f3 · ∂2 f2 )du1 ∧ du2 + . . . ∂(f3 , f1 ) ∂(f1 , f2 ) ∂(f2 , f3 ) + v2 ◦ F + v3 ◦ F du1 ∧ du2 . = v1 ◦ F ∂(u1 , u2 ) ∂(u1 , u2 ) ∂(u1 , u2 ) 62 7 INTEGRATION VON DIFFERENTIALFORMEN Nach Definition (7.1) ist also Z Z 2 3 3 1 1 2 v1 dx ∧ dx + v2 dx ∧ dx + v3 dx ∧ dx = ω F F Z1 Z1 = 0 ∂(f2 , f3 ) ∂(f3 , f1 ) ∂(f1 , f2 ) v1 ◦ F + v2 ◦ F + v3 ◦ F ∂(u1 , u2 ) ∂(u1 , u2 ) ∂(u1 , u2 ) du1 du2 . 0 Dies ist genauRdas Integral, das wir in Abschnitt 4 im Fall einer parametrisierten Fläche F mit Vn dO bezeichnet hatten. Wir hatten diese Oberflächenintegrale in Abschnitt 4 benötigt, um die Integralsätze der klassischen Vektoranalysis formulieren zu können. Dort war von einem Vektorfeld V in R3 die Rede. Einem solchen Vektorfeld hatten wir später die Differentialformen (V ) und ((V )) zugeordnet. Es zeigt sich jetzt, daß in diesen Integralformeln in den Integranden gerade die äußeren Differentiale d(V ) und d((V )) auftreten. Wir wollen daher jetzt in dem hier zugrundegelegten Rahmen versuchen, das Integral Z dω c für eine (p − 1)-Form ω und einen singulären p-Würfel c umzuformen in ein Randintegral“. ” Wir stehen also jetzt vor der folgenden Frage: Um eine Integrationstheorie der Differentialformen zu entwickeln, müssen wir passende Integrationsbereiche“ de” finieren, und zwar sollen p-Formen integriert werden können über p-dimensionale ” Integrationsbereiche“. Für solche Integrationsbereiche muß jeweils ein Rand“ ” erklärt werden; der Rand eines p-dimensionalen Integrationsbereiches soll ein (p − 1)-dimensionaler Integrationsbereich sein. Eine derartige Erklärung von Integrationsbereichen ist auf verschiedene Weisen möglich. Nachdem wir hier bereits singuläre p-Würfel als zulässige Integrationsbereiche zugrundegelegt haben, verläuft die weitere Entwicklung mehr oder weniger zwangsläufig. Eine andere Integrationstheorie für Differentialformen werden wir im nächsten Abschnitt behandeln. Zunächst muß jetzt der Rand eines singulären Würfels in geeigneter Weise erklärt werden. Zur Motivation der hier erforderlichen Definition betrachten wir zunächst einen einfachen Fall. Sei ω = f dx1 + gdx2 eine stetig differenzierbare 1-Form auf [0, 1]2 . Dann ist dω = df ∧ dx1 + dg ∧ dx2 = (∂1 g − ∂2 f )dx1 ∧ dx2 . 63 Wir wollen integrieren über den trivialen“ singulären 2-Würfel ” I 2 : [0, 1]2 → R2 . X 7→ X Dann ist Z Z dω = I2 Z 2∗ Z I dω = [0,1]2 (∂1 g − ∂2 f ) dω = [0,1]2 [0,1]2 Z1 Z1 (∂1 g(x, y) − ∂2 f (x, y)) dxdy = 0 0 Z1 Z1 Z1 Z1 ∂1 g(x, y)dx dy − ∂2 f (x, y)dy dx = Z1 Z1 [g(1, y) − g(0, y)]dy − = 0 0 0 0 0 [f (x, 1) − f (x, 0)] dx. 0 Die rechts stehenden Integrale lassen sich als Integrale der 1-Form ω über singuläre 1-Würfel darstellen. Wir definieren R2 2 : [0, 1] → I1,0 t 7→ (0, t) 2 : [0, 1] → I2,1 7→ (1, t) Z 2∗ I2,1 ω ω= 2 I2,1 [0,1] Z1 Z = f (t, 1) dt = f (x, 1) dx, 0 [0,1] analog in den anderen Fällen. Es ergibt sich Z Z dω = − I2 ω− 2 I1,0 Z 2 I1,1 Z Z ω− ω + 2 I2,0 R2 7→ (t, 1) t Dann ist zum Beispiel Z R2 7→ (t, 0) t R2 2 I1,1 : [0, 1] → t 2 : [0, 1] → I2,0 2 I2,1 ω . 64 7 INTEGRATION VON DIFFERENTIALFORMEN Unser Wunsch ist nun, für den singulären Würfel I 2 einen Rand“ ∂I 2 so zu ” erklären, daß die rechte Seite sich in der Form Z ω ∂I 2 schreiben läßt. Es drängt sich auf, ∂I 2 als die formale Linearkombination“ von ” singulären 1-Würfeln 2 2 2 2 ∂I 2 := − I1,0 − I1,1 + I2,0 − I2,1 zu definieren und das Integral über solche Linearkombinationen einfach durch lineare Erweiterung zu erklären. Diese Methode führt in der Tat allgemein zum Ziel, wie wir nach Definition (7.5) sehen werden. Zunächst eine einfache algebraische Bemerkung. Sei A eine nichtleere Menge und F(A) := {f : A → Z : f (x) 6= 0 für höchstens endlich viele x ∈ A}. Für f, g ∈ F(A) wird wie üblich (f ± g)(x) := f (x) ± g(x) für alle x ∈ A erklärt. Dann ist F(A) eine abelsche Gruppe, die von A erzeugte freie abelsche Gruppe. Definieren wir für x ∈ A die Funktion x ∈ F(A) durch ( 1 für y = x, x(y) := 0 für y 6= x, so gilt für jedes f ∈ F(A) f= X f (x)x x∈A (nur endlich viele Summanden sind 6= 0). Statt x schreibt man einfach x, dann ist also jedes Element von F(A) von der Form X nx x x∈A mit ganzen Zahlen nx , von denen nur endlich viele 6= 0 sind. Die Elemente von F(A) werden daher auch als die formalen Linearkombinationen (mit ganzzahligen Koeffizienten) der Elemente von A bezeichnet. Offenbar gilt X X X nx x + mx x = (nx + mx )x. (7.5) Definition. Sei M ⊂ Rn , p ∈ N0 . Sei Kp (M ) die von der Menge der singulären p-Würfel in M erzeugte freie abelsche Gruppe. Die Elemente von Kp (M ) 65 (also die endlichen Linearkombinationen von singulären p-Würfeln in M mit ganzzahligen Koeffizienten) heißen p-Ketten in M . P Das Integral der stetigen p-Form ω auf M über die p-Kette c = ai ci (c1 , . . . , ck singuläre p-Würfel) wird definiert durch Z X Z ω := ai ω. c ci Jetzt müssen wir den Rand einer p-Kette definieren. Das oben durchgeführte Beispiel weist darauf hin, wie der Rand des trivialen 2-Würfels I 2 zu erklären ist. Weiterführung dieser Überlegungen zeigt, daß es nur eine sinnvolle Art und Weise gibt, den Rand einer p-Kette zu erklären. (7.6) Definition. Der singuläre p-Würfel I p : [0, 1]p → Rp sei erklärt durch p I p (X) = X für X ∈ [0, 1]p , und die singulären (p − 1)-Würfel Ii,0 : [0, 1]p−1 → Rp p p−1 p → R für p ≥ 2 und i ∈ {1, . . . , p} durch und Ii,1 : [0, 1] p Ii,0 (X) := (x1 , . . . , xi−1 , 0, xi , . . . , xp−1 ) p Ii,1 (X) := (x1 , . . . , xi−1 , 1, xi , . . . , xp−1 ) 1 1 für X ∈ [0, 1]p−1 ; ferner sei I1,0 (0) := 0 und I1,1 (0) := 1. Der Rand des singulären p-Würfels c ist erklärt durch ∂c := p X p p (−1)i [c ◦ Ii,0 − c ◦ Ii,1 ] i=1 und der Rand der p-Kette P ai ci durch X X ∂ ai ci := ai ∂ci . Bemerkung. Es gilt ∂∂c = 0 für jede Kette c. Das wird hier nicht bewiesen, weil es im folgenden nicht benötigt wird (aber ein Spezialfall kommt in einer Übungsaufgabe vor). Nun können wir einen interessanten Zusammenhang zwischen Randbildung von Ketten und äußerer Differentiation von Differentialformen herstellen. (7.7) Satz von Stokes (erste Version). Sei M ⊂ Rn offen, p ∈ N, ω eine (p − 1)-Form der Klasse C 1 auf M und c eine p-Kette in M . Dann gilt Z Z dω = ω. c ∂c 66 7 INTEGRATION VON DIFFERENTIALFORMEN Beweis. Wir betrachten zunächst den Fall p = 1. Dann ist ω = f , eine Funktion. Sei c ein singulärer 1-Würfel in M . Es ist df = f1 dx1 + . . . + fn dxn und daher (wie bereits nach (7.4) berechnet) Z1 Z df = c hgrad f (c(t)), c0 (t)i dt 0 Z1 = (f ◦ c)0 (t) dt = (f ◦ c)(1) − (f ◦ c)(0). 0 Andererseits ist Z Z Z f+ f = 1 −c◦I1,0 ∂c f 1 c◦I1,1 1 1 = −f ((c ◦ I1,0 )(0)) + f ((c ◦ I1,1 )(0)) = −f (c(0)) + f (c(1)) = (f ◦ c)(1) − (f ◦ c)(0). Die Ausdehnung auf 1-Ketten erfolgt durch Linearität. Jetzt sei p ≥ 2. Wir betrachten zuerst den folgenden Spezialfall: n = p, c = I p und ci ∧ . . . ∧ dxp ω = f dx1 ∧ . . . ∧ dx (auf einer offenen Obermenge von [0, 1]p ) für ein i ∈ {1, . . . , p}. Dann gilt dω = (−1)i−1 ∂i f dx1 ∧ . . . ∧ dxp und daher Z Z Z i−1 dω = dω = (−1) ∂i f Ip [0,1]p = (−1)i−1 i−1 Z1 [0,1]p Z1 ... 0 Z1 Z1 ··· 0 Z1 ci · · · dxp ∂i f (x1 , . . . , xp )dxi dx1 · · · dx 0 = (−1) 0 [f (x1 , . . . , xi−1 , 1, xi , . . . , xp ) − f (x1 , . . . , xi−1 , 0, xi , . . . , xp )] 0 ci · · · dxp . dx1 · · · dx 67 Andererseits ist nach (7.5) und (7.6) p Z ω= X (−1)j j=1 ∂I p Nun ist Z Z ω− p Ij,0 Z Z p Ij,1 p∗ Ij,0 ω ω= p Ij,0 ω . [0,1]p−1 p und, wenn wir Ij,0 = (g1 , . . . , gp ) setzen, p∗ p ci ∧ . . . ∧ dgp . Ij,0 ω = (f ◦ Ij,0 ) dg1 ∧ . . . ∧ dg p Nach Definition von Ij,0 ist, wenn wir die Koordinatendifferentiale in Rp−1 mit du1 , . . . , dup−1 bezeichnen, k du für k = 1, . . . , j − 1, 0 für k = j, dgk = k−1 du für k = j + 1, . . . , p, also an der Stelle U = (u1 , . . . , up−1 ) ( 0 für j 6= i, p∗ ω U= Ij,0 f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) du1 ∧ . . . ∧ dup−1 . Es folgt Z p Ij,0 0 für j 6= i, ω= R1 R1 . . . f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) du1 · · · dup−1 für j = i. 0 0 Ein analoger Ausdruck ergibt sich für R ω und damit p Ij,1 Z ∂I p ω = (−1)i Z1 Z1 ··· 0 [f (u1 , . . . , ui−1 , 0, ui , . . . , up−1 ) − 0 f (u1 , . . . , ui−1 , 1, ui , . . . , up−1 )] du1 · · · dup−1 . Somit ist Z Z dω = Ip ω. ∂I p (4) 68 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN Da jede (p − 1)-Form auf [0, 1]p Summe von (p − 1)-Formen der Gestalt ci ∧ . . . ∧ dxp f dx1 ∧ . . . ∧ dx ist, gilt (4) für jede (p − 1)-Form ω der Klasse C 1 auf [0, 1]p . Nun sei c ein beliebiger singulärer p-Würfel in M ⊂ Rn und ω eine stetig differenzierbare (p − 1)-Form auf M . Dann gilt Z Z Z Z Z ∗ ∗ ∗ c∗ ω (5) dω = c dω = c dω = dc ω = nach (4). Andererseits ist Z Z ω= p c◦Ii,0 Ip Ip [0,1]p c (c ◦ p ∗ Ii,0 )ω Z = [0,1]p−1 ∂I p p∗ ∗ Ii,0 (c ω) Z c∗ ω, = p Ii,0 [0,1]p−1 p . Es folgt und eine analoge Gleichung gilt für das Integral von ω über c ◦ Ii,1 Z Z Z Z Z Z p p X X i i ∗ ∗ ω = (−1) ω− ω = (−1) c ω − c ω = c∗ ω, ∂c i=1 p c◦Ii,0 also i=1 p c◦Ii,1 Z Ist schließlich c = ∂I p ω. ∂c P ai ci eine p-Kette in M , so folgt Z Z X Z X Z dω = ai dω = ai dω = ω. c 8 p Ii,1 Z dω = c p Ii,0 ci ∂ci ∂c Differenzierbare Untermannigfaltigkeiten Die Integration von Differentialformen über singuläre Ketten ergibt zwar eine elegante Theorie, in der der Satz von Stokes gilt und die interessante Querverbindungen zur algebraischen Topologie eröffnet, aber für manche Anwendungen (z.B. die Integralsätze der klassischen Vektoranalysis) möchte man als Integrationsbereiche lieber geeignete Punktmengen des Rn haben. Als passende p-dimensionale Integrationsbereiche für p-Formen können die p-dimensionalen differenzierbaren Untermannigfaltigkeiten des Rn dienen. Sie sollen nun eingeführt werden. 69 Bezeichnungen. Differenzierbar“ ohne Zusatz soll im folgenden immer be” ” liebig oft differenzierbar“ heißen. Unter Diffeomorphismen sind immer solche der Klasse C ∞ verstanden. Dies geschieht zur Vereinfachung. Wir setzen Rnk := {X ∈ Rn : xk+1 = . . . = xn = 0}, Hkn := {X ∈ Rn : x1 ≥ 0, xk+1 = . . . = xn = 0}, H n := {X ∈ Rn : x1 ≥ 0}. (8.1) Definition. Sei M ⊂ Rn , k ∈ N0 . M heißt k-dimensionale Mannigfaltigkeit im Rn , wenn für jeden Punkt X ∈ M gilt: Es gibt eine offene Umgebung U von X, eine offene Menge V ⊂ Rn und einen Diffeomorphismus h : U → V mit den folgenden Eigenschaften: Entweder ist (a) h(U ∩ M ) = V ∩ Rnk oder (b) h(U ∩ M ) = V ∩ Hkn , und die erste Koordinate von h(X) ist 0. Gilt (a), so heißt X innerer Punkt von M ; gilt (b), so heißt X Randpunkt von M . Achtung! Die Begriffe innerer Punkt“ und Randpunkt“ werden hier in ande” ” rem Sinn gebraucht als in Analysis II. Ein innerer Punkt einer Mannigfaltigkeit kann nicht zugleich Randpunkt sein: Angenommen, es gäbe Diffeomorphismen h1 : U1 → V1 und h2 : U2 → V2 mit h1 (U1 ∩ M ) = V1 ∩ Rnk und h2 (U2 ∩ M ) = V2 ∩ Hkn und derart, daß die erste Koordinate von h2 (X) gleich 0 ist. Dann ist n h2 ◦ h−1 1 : h1 (U1 ∩ U2 ) → R eine differenzierbare Abbildung mit nirgends verschwindender Funktionaldeterminante. Sie bildet die in Rnk (nach An.II.(11.2)) offene Menge h1 (U1 ∩ U2 ) ∩ Rnk ab auf eine Menge in Rnk , die in Rnk nicht offen ist. Dies widerspricht dem Satz von der Umkehrabbildung (An.II.(11.2)). 70 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN Bezeichnung. ∂M sei die Menge der Randpunkte der Mannigfaltigkeit M . M heißt unberandet, wenn ∂M = ∅ ist, und geschlossen, wenn M unberandet und kompakt ist. (8.2) Satz. Ist M eine k-dimensionale Mannigfaltigkeit im Rn (k ≥ 1), so ist ∂M eine (k − 1)-dimensionale unberandete Mannigfaltigkeit. Beweis. Übungsaufgabe Der folgende Satz zeigt, daß sich Mannigfaltigkeiten lokal als höherdimensionale Verallgemeinerungen von injektiven parametrisierten Flächen darstellen lassen. (8.3) Satz und Definition. Sei M eine k-dimensionale Mannigfaltigkeit in Rn . Dann gibt es zu jedem X ∈ M eine offene Umgebung U von X, eine offene Menge W ⊂ Rk , falls X ∈ / ∂M , bzw. eine relativ offene Menge W ⊂ H k , falls X ∈ ∂M , und eine injektive, differenzierbare Abbildung F : W → Rn mit folgenden Eigenschaften: (a) F (W ) = M ∩ U und X = F (Z) mit z1 = 0 im Fall X ∈ ∂M , (b) F −1 : F (W ) → W ist stetig, (c) DFZ ist vom Rang k für alle Z ∈ W . Jede solche Abbildung F wird als ein Koordinatensystem (der Mannigfaltigkeit M ) um X bezeichnet. Beweis. Sei X ∈ M . Zunächst sei X ∈ / ∂M . Nach Definition (8.1) gibt es eine offene Umgebung U von X, eine offene Menge V ⊂ Rn und einen Diffeomorphismus h : U → V mit h(U ∩ M ) = V ∩ Rnk . Setze W := {Z ∈ Rk : (z1 , . . . , zk , 0, . . . , 0) ∈ V } | {z } n−k und definiere F : W → Rn durch F (Z) := h−1 (z1 , . . . , zk , 0, . . . , 0). Offenbar gilt F (W ) = M ∩ U . Mit h ist auch F −1 stetig. Definiere H : U → Rk durch H(Y ) = (h1 (Y ), . . . , hk (Y )), wobei h = (h1 , . . . , hn ). Für alle Z ∈ W gilt H(F (Z)) = Z, also DHF (Z) ◦ DFZ = Identität auf Rk , daher ist DFZ vom Rang k. 71 Im Fall X ∈ ∂M schließt man völlig analog. Der Satz läßt sich umkehren: (8.4) Satz. Sei M ⊂ Rn . Wenn zu jedem X ∈ M eine offene Umgebung U von X, eine offene Menge W ⊂ Rk oder eine relativ offene Menge W ⊂ H k und eine injektive differenzierbare Abbildung F : W → Rn mit den Eigenschaften (a), (b), (c) aus Satz (8.3) existieren, dann ist M eine k-dimensionale Mannigfaltigkeit. Beweis. Sei X ∈ M . Wir nehmen zunächst an, daß es eine offene Menge W ⊂ Rk und eine Abbildung F : W → Rn mit den Eigenschaften aus (8.3) gibt. Sei X = F (Z). Aus dem Satz über lokal injektive Abbildungen (An.II.(11.6)) folgt: Es gibt eine offene Umgebung W1 von Z in W , eine offene Umgebung W2 von 0 in Rn−k , eine offene Umgebung U1 von F (Z) in Rn und einen Diffeomorphismus g : W1 × W2 → U1 mit g(Y, 0) = F (Y ) für Y ∈ W1 . Sei h : U1 → W1 ×W2 die Umkehrabbildung von g. Da F −1 stetig ist, ist F (W1 ) = U2 ∩ F (W ) mit einer offenen Menge U2 ⊂ Rn . Setze U0 := U ∩ U1 ∩ U2 und V := g −1 (U0 ). Dann ist h(U0 ∩ M ) = V ∩ Rnk . Im Fall einer relativ offenen Menge W ⊂ H k schließt man analog. (8.5) Satz. Sei M eine k-dimensionale Mannigfaltigkeit in Rn , seien F1 : W1 → Rn , F2 : W2 → Rn Koordinatensysteme um einen Punkt von M . Dann ist die Abbildung F2−1 ◦ F1 : F1−1 (F2 (W2 )) → Rk differenzierbar und vom Rang k. Beweis. Sei Y ∈ F1−1 (F2 (W2 )) und X = F1 (Y ). Nach den Beweisen der Sätze (8.4) und (8.3) existiert in einer Umgebung von X ein Diffeomorphismus H mit F2−1 (F1 (Z)) = H(F1 (Z)) für Z ∈ F1−1 (F2 (W20 )), wo W20 eine passende Umgebung von F2−1 (X) ist. Da F1 und H differenzierbar sind, ist F2−1 ◦F1 differenzierbar. Analog ist F1−1 ◦F2 = (F2−1 ◦F1 )−1 differenzierbar (im Definitionsbereich). Daraus folgt, daß das Differential von F2−1 ◦ F1 an der Stelle Y bijektiv ist. Bemerkung. Man kann Satz (8.5) als Ausgangspunkt nehmen für die Definition einer abstrakten differenzierbaren Mannigfaltigkeit. 72 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN (8.6) Definition und Behauptung. Sei M eine k-dimensionale Mannigfaltigkeit in Rn , X ∈ M und F : W → Rn ein Koordinatensystem um X. Dann ist der k-dimensionale Unterraum T MX := DFF −1 (X) (Rk ) ⊂ Rn unabhängig vom Koordinatensystem. Er heißt der Tangentialraum von M in X. Beweis. Sei F : W → Rn ein zweites Koordinatensystem um X. Nach Satz (8.5) ist (Differentiale jeweils an der richtigen Stelle zu nehmen) D(F −1 ◦ F ) : Rk → Rk bijektiv; wegen F ◦ (F −1 ◦ F ) = F (auf dem Definitionsbereich) ist also DF (Rk ) = DF ◦ D(F −1 ◦ F )(Rk ) = DF (Rk ). Wir verallgemeinern jetzt den Begriff der Differentialform. (8.7) Definition. Sei M eine Mannigfaltigkeit in Rn , sei p ∈ N0 . Eine Differentialform vom Grad p (kurz: p-Form) auf M ist eine Abbildung, die jedem X ∈ M ein Element von Ωp (T MX ) zuordnet. Sei M ⊂ A, A ⊂ Rn offen, und ω eine p-Form auf A. Zu jedem X ∈ M ist ωX ∈ Ωp (Rn ), also n ωX : R . . × Rn} → R | × .{z p-mal eine alternierende multilineare Abbildung. Diese Abbildung können wir einschränken auf T MX × . . . × T MX . Somit induziert jede p-Form auf A auch eine p-Form auf M . Sei nun ω eine p-Form auf der k-dimensionalen Mannigfaltigkeit M , sei X ∈ M und F : W → Rn ein Koordinatensystem um X, sei Z ∈ W der Punkt mit F (Z) = X. Das Differential DFZ bildet Rk auf T MX ab; daher ist die Abbildung (DFZ )∗ : Ωp (T MX ) → Ωp (Rk ) erklärt. Wir können also wie in Definition (6.4) eine p-Form F ∗ ω auf W definieren durch (F ∗ ω)Z := (DFZ )∗ ωX . F ∗ ω ist natürlich nur auf W definiert. Sei nun F : W → Rn ein weiteres Koordinatensystem um X, sei F (Z) = X. Nach (8.5) ist die Abbildung G := F −1 ◦ F 73 in einer Umgebung von Z ein Diffeomorphismus. Es ist F = F ◦ G und daher ∗ (F ω)Z = (DF Z )∗ ωX = [DFZ ◦ DGZ ]∗ ωX = DG∗Z ((DFZ )∗ ωX ) = (DGZ )∗ (F ∗ ω)Z , also ∗ F ω = G∗ (F ∗ ω) im gemeinsamen Definitionsbereich. Hieraus folgt insbesondere, daß mit F ∗ ω auch ∗ F ω differenzierbar ist. Wir definieren daher: (8.8) Definition. Die p-Form ω auf der Mannigfaltigkeit M heißt differenzierbar, wenn für jedes Koordinatensystem F der Mannigfaltigkeit die Form F ∗ ω differenzierbar ist. (8.9) Satz und Definition. Sei M eine k-dimensionale Mannigfaltigkeit in Rn und ω eine differenzierbare p-Form auf M . Es gibt eine eindeutig bestimmte (p + 1)-Form dω auf M , genannt das äußere Differential von ω, mit F ∗ (dω) = d(F ∗ ω) für jedes Koordinatensystem F der Mannigfaltigkeit M . Beweis. Sei F : W → Rn ein Koordinatensystem um den Punkt X ∈ M , sei X = F (Z). Zu irgend p + 1 Vektoren Y1 , . . . , Yp+1 ∈ T MX gibt es eindeutig bestimmte Vektoren V1 , . . . , Vp+1 ∈ Rk mit DFZ (Vi ) = Yi , i = 1, . . . , p + 1. Angenommen, die Existenz von dω sei bereits gezeigt. Dann folgt (dω)X (Y1 , . . . , Yp+1 ) = (dω)X (DFZ (V1 ), . . . , DFZ (Vp+1 )) = (DFZ )∗ (dω)X (V1 , . . . , Vp+1 ) = F ∗ (dω)Z (V1 , . . . , Vp+1 ) = d(F ∗ ω)Z (V1 , . . . , Vp+1 ). Damit ist gezeigt, daß dω eindeutig bestimmt ist. Umgekehrt definieren wir nun (dω)X (Y1 , . . . , Yp+1 ) := d(F ∗ ω)Z (V1 , . . . , Vp+1 ). 74 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN Man rechnet nach (Übungsaufgabe), daß der so definierte (p + 1)-Kovektor (dω)X nicht von der Wahl des Koordinatensystems F abhängt. Es wird also auf diese Weise eine (p + 1)-Form auf M definiert, die das Gewünschte leistet. Orientierung Die Formulierung des Satzes von Stokes für Mannigfaltigkeiten erfordert den Begriff der Orientierung. Sei zunächst V ein n-dimensionaler reeller Vektorraum. Seien (e1 , . . . , en ) und (e1 , . . . , en ) zwei geordnete Basen. Dann gibt es einen eindeutig bestimmten Endomorphismus L : V → V mit L(ei ) = ei (i = 1, . . . , n). Sei ∆ die Determinante dieses Endomorphismus. Man nennt (e1 , . . . , en ) und (e1 , . . . , en ) äquivalent, wenn ∆ > 0 ist (daß in der Tat eine Äquivalenzrelation vorliegt, ist leicht zu sehen). Die Äquivalenzklasse der Basis (e1 , . . . , en ) sei mit [e1 , . . . , en ] bezeichnet. Trivialerweise gibt es genau zwei Äquivalenzklassen. Die Äquivalenzklasse, die von [e1 , . . . , en ] verschieden ist, sei mit −[e1 , . . . , en ] bezeichnet. Eine Orientierung auf V ist eine Äquivalenzklasse von geordneten Basen. (8.10) Definition. Sei M eine k-dimensionale Mannigfaltigkeit in Rn . Eine Orientierung auf M ist eine Abbildung o, die jedem Punkt X ∈ M eine Orientierung oX des Tangentialraumes T MX zuordnet, so daß folgendes gilt: Für jedes Koordinatensystem F : W → Rn mit zusammenhängendem W gilt entweder [DFZ (E1 ), . . . , DFZ (Ek )] = oF (Z) für alle Z ∈ W oder [DFZ (E1 ), . . . , DFZ (Ek )] = −oF (Z) für alle Z ∈ W. Im ersten Fall heißt F orientierungstreu, im zweiten Fall orientierungsumkehrend. Ist o eine Orientierung auf M , so heißt das Paar (M, o) orientierte Mannigfaltigkeit. Das bekannte Möbiusband, realisiert als zweidimensionale Mannigfaltigkeit im R3 , ist ein Beispiel für eine Mannigfaltigkeit, auf der keine Orientierung existiert. Für orientierungstreue Koordinatensysteme läßt sich die Verträglichkeitsbe” dingung“ (8.5) verschärfen: (8.11) Satz. Sei (M, o) eine k-dimensionale orientierte Mannigfaltigkeit im Rn , seien F, F zwei orientierungstreue Koordinatensysteme um X, sei F (Z) = X = F (Z). Dann ist −1 det D(F ◦ F )Z > 0. 75 Beweis. Nach Voraussetzung gilt [DFZ (E1 ), . . . , DFZ (Ek )] = oX = [DF Z (E1 ), . . . , DF Z (Ek )]. Da zwei äquivalente Basen bei Ausübung eines Automorphismus äquivalent bleiben, folgt [D(F −1 ◦ F )Z (E1 ), . . . , D(F −1 ◦ F )Z (Ek )] = [E1 , . . . , Ek ], woraus die Behauptung folgt. Nach Satz (8.2) ist der Rand ∂M einer k-dimensionalen Mannigfaltigkeit M eine (k − 1)-dimensionale Mannigfaltigkeit. Jede Orientierung auf M induziert eine Orientierung auf ∂M : (8.12) Satz und Definition. Sei (M, o) eine k-dimensionale orientierte Mannigfaltigkeit im Rn . Dann gibt es eine (eindeutig bestimmte) Orientierung o0 auf ∂M mit folgender Eigenschaft: Für X ∈ ∂M , jedes Koordinatensystem F : W → Rn von M um X und für alle Vektoren Y1 , . . . , Yk−1 ∈ T ∂MX mit [DFZ (−E1 ), Y1 , . . . , Yk−1 ] = oX für Z = F −1 (X) gilt [Y1 , . . . , Yk−1 ] = o0X . o0 heißt die von o induzierte Orientierung. Beweis. Sei X ∈ ∂M und F ein Koordinatensystem von M um X. Sei (Y1 , . . . , Yk−1 ) eine Basis von T ∂MX . Dann ist (DFZ (−E1 ), Y1 , . . . , Yk−1 ) eine Basis von T MX . Wir können (evt. nach Ersetzung von Y1 durch −Y1 ) annehmen, daß [DFZ (−E1 ), Y1 , . . . , Yk−1 ] = oX ist. Wir definieren dann eine Orientierung o0x des Tangentialraumes T ∂MX durch o0X := [Y1 , . . . , Yk−1 ]. Es ist leicht zu sehen, daß die rechte Seite nicht von der Wahl der Vektoren Y1 , . . . , Yk−1 abhängt. Nun bildet das Differential DFZ den Unterraum {U ∈ Rk : u1 = 0} auf den Tangentialraum T ∂MX ab. Daher können wir für Y1 , . . . , Yk−1 speziell die Vektoren DFZ (E2 ), . . . , DFZ (Ek ) wählen. Es gilt also (mit (F ) = 1 oder −1) o0X = (F )[DFZ (E2 ), . . . , DFZ (Ek )], 76 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN wenn oX = (F )[DFZ (−E1 ), DFZ (E2 ), . . . , DFZ (Ek )] ist. Hieraus und aus (8.11) läßt sich folgern, daß die Definition von o0X nicht von der Wahl des Koordinatensystems F abhängt. Ist W 0 := F −1 (∂M ) zusammenhängend, so ist (F ) konstant auf W 0 , da o eine Orientierung auf M ist. Es folgt, daß auch o0 eine Orientierung auf ∂M ist. Ist (M, o) eine orientierte Mannigfaltigkeit, so ist es üblich, auch einfach M als orientierte Mannigfaltigkeit zu bezeichnen. Zerlegung der Eins In der Theorie der differenzierbaren Mannigfaltigkeiten befindet man sich oft in einer Situation, die man ganz vage etwa folgendermaßen beschreiben kann: Man kann ein Objekt lokal (meist im Bild eines Koordinatensystems) definieren und will dann die lokal definierten Objekte glatt zusammensetzen“ zu einem ” global (d.h. auf der ganzen Mannigfaltigkeit) definierten Objekt. Ein typisches Beispiel hierfür ist die Erklärung des Integrals einer Differentialform auf einer Mannigfaltigkeit, die in §9 gegeben wird. Man bedient sich hierzu eines hübschen Kunstgriffs, der sogenannten Zerlegung der Eins“. Wir stellen in Satz (8.15) den ” Spezialfall dieses Hilfsmittels bereit, der in §9 benötigt wird. (8.13) Hilfssatz. Sei U ⊂ Rn offen und C ⊂ U eine kompakte Teilmenge. Dann gibt es eine kompakte Teilmenge D ⊂ U mit C ⊂ Do (Inneres von D). Beweis. Zu jedem X ∈ C existiert wegen der Offenheit von U ein aX > 0, so daß der abgeschlossene Würfel W (X, aX ) := {Y ∈ Rn : kY − Xkmax ≤ aX } in U enthalten ist. Das System {W o (X, aX ) : X ∈ C} ist eine offene Überdeckung von C, enthält also wegen der Kompaktheit von C eine endliche Teilüberdeckung {W o (Xi , aXi ) : i = 1, . . . , m}. Die Menge D := m [ W (Xi , aXi ) i=1 leistet das Gewünschte. (8.14) Hilfssatz. Sei U ⊂ Rn offen und C ⊂ U eine kompakte Teilmenge. Dann gibt es eine kompakte Teilmenge D ⊂ U und eine differenzierbare Funktion ϕ : Rn → [0, 1] mit ( 1 für X ∈ C, ϕ(X) = 0 für X ∈ Rn \ D. 77 Beweis. Zunächst sei f : R → R definiert durch ( −2 −2 für x ∈ (−1, 1), e−(x−1) e−(x+1) f (x) := 0 für x ∈ Rn \ (−1, 1). Dann ist f (x) > 0 für x ∈ (−1, 1) und f (x) = 0 sonst. Man rechnet (unter Verwendung der Regel von de l’Hospital) leicht nach, daß f (beliebig oft) differenzierbar ist. Für Z ∈ Rn und a > 0 sei jetzt g : Rn → R definiert durch x1 − z1 xn − zn ···f . g(X) := f a a Dann ist g differenzierbar, und es gilt g(X) > 0 für X ∈ W o (Z, a) und g(X) = 0 für X ∈ Rn \ W o (Z, a). Nun seien das System {W (Xi , aXi ) : i = 1, . . . , m} und die Menge D wie im Beweis von Hilfssatz (8.13) erklärt. Zu i ∈ {1, . . . , m} sei gi die Funktion, die zu Xi , aXi so erklärt ist wie oben g zu Z, a. Definiere ψ : Rn → R durch ψ(X) := m X gi (X). i=1 Dann ist ψ differenzierbar. Zu X ∈ C existiert ein j ∈ {1, . . . , m} mit X ∈ W o (Xj , aXj ), also mit ψ(X) ≥ gj (X) > 0. Für X ∈ Rn \ D gilt X ∈ / W (Xi , aXi ), also gi (X) = 0, für i = 1, . . . , m und daher ψ(X) = 0. Da ψ auf der kompakten Menge C ein Minimum annimmt und dieses positiv sein muß, gibt es ein > 0 mit ψ(X) ≥ für X ∈ C. Es gibt eine differenzierbare Funktion f : R → R mit f (x) > 0 für x ∈ (0, ) und f (X) = 0 sonst. Setze Zx Z h(x) := f f 0 für x ∈ R. 0 Dann ist h : R → [0, 1] differenzierbar, und es gilt h(x) = 0 für x ≤ 0 und h(x) = 1 für x ≥ . Nun setze ϕ := h ◦ ψ. Dann ist ϕ : Rn → [0, 1] differenzierbar, und es gilt ϕ(X) = 1 für X ∈ C und ϕ(X) = 0 für X ∈ Rn \ D. (8.15) Satz. Sei M ⊂ Rn kompakt und {U1 , . . . , Um } eine offene Überdeckung von M . Dann gibt es differenzierbare reelle Funktionen ϕ1 , . . . , ϕm auf Rn mit folgenden Eigenschaften: 78 8 DIFFERENZIERBARE UNTERMANNIGFALTIGKEITEN (a) 0 ≤ ϕi ≤ 1 (i = 1, . . . , m), P (b) m für alle X ∈ M , i=1 ϕi (X) = 1 (c) Es gibt eine kompakte Menge Ai ⊂ Ui mit ϕi (X) = 0 für X ∈ Rn \ Ai (i = 1, . . . , m). Beweis. Wir zeigen zuerst: Für k ∈ {0, . . . , m} gibt es kompakte Mengen Di ⊂ Ui (i = 1, . . . , k) mit M ⊂ D1o ∪ . . . ∪ Dko ∪ Uk+1 ∪ . . . ∪ Um. Beweis durch Induktion: Für k = 0 lautet die Behauptung M ⊂ U1 ∪ . . . ∪ Um , sie ist nach Voraussetzung erfüllt. Sei die Existenz von D1 , . . . , Dk schon gezeigt. Setze Ck+1 := M \ (D1o ∪ . . . ∪ Dko ∪ Uk+2 ∪ . . . ∪ Um ). Dann ist Ck+1 eine kompakte Teilmenge von Uk+1 . Nach Hilfssatz (8.13) gibt es o . Es gilt also eine kompakte Teilmenge Dk+1 ⊂ Uk+1 mit Ck+1 ⊂ Dk+1 o M ⊂ D1o ∪ . . . ∪ Dk+1 ∪ Uk+1 ∪ . . . ∪ Um , womit der Induktionsbeweis beendet ist. Insbesondere gilt jetzt o M ⊂ D1o ∪ . . . ∪ Dm =: U. Sei i ∈ {1, . . . , m}. Nach Hilfssatz (8.14) gibt es eine kompakte Teilmenge Ai ⊂ Ui und eine differenzierbare Funktion ψi : Rn → [0, 1] mit ψi (X) = 1 für X ∈ Di und ψi (X) = 0 für X ∈ Rn \ Ai . Zu X ∈ U gibt es ein j ∈ {1, . . . , m} mit X ∈ Djo , also ψj (X) > 0, folglich ist ψ1 (X) + . . . + ψm (X) > 0. Nach (8.14) gibt es eine abgeschlossene Teilmenge A ⊂ U und eine differenzierbare Funktion f : Rn → [0, 1] mit f (X) = 1 für X ∈ M und f (X) = 0 für X ∈ Rn \ A. Setze ϕi (X) := f (X) 0 ψi (X) ψ1 (X) + . . . + ψm (X) für X ∈ U, für X ∈ Rn \ U. Die Funktionen ϕ1 , . . . , ϕm leisten offenbar das Gewünschte. Das in Satz (8.15) konstruierte Funktionensystem {ϕ1 , . . . , ϕm } nennt man eine der Überdeckung {U1 , . . . , Um } untergeordnete Zerlegung der Eins. 79 9 Der Satz von Stokes auf Mannigfaltigkeiten In diesem Abschnitt ist M eine gegebene k-dimensionale orientierte Mannigfaltigkeit im Rn . Alle auftretenden Differentialformen werden (mindestens) als stetig vorausgesetzt. (9.1) Definition. Für eine p-Form ω auf M und einen singulären p-Würfel c in M ist Z Z ω := c∗ ω. [0,1]p c (9.2) Definition. Sei c : [0, 1]k → M ein singulärer k-Würfel in M . c heißt orientierungstreu, wenn es ein orientierungstreues Koordinatensystem F : W → Rn von M gibt mit c = F |[0, 1]k . (9.3) Hilfssatz. Seien c1 , c2 : [0, 1]k → M orientierungstreue singuläre k-Würfel in M . Sei ω eine k-Form auf M mit ωX = 0 für X ∈ / c1 ([0, 1]k ) ∩ c2 ([0, 1]k ) =: B. Dann ist Z Z ω = ω. c1 c2 −1 Beweis. Setze c∗2 ω =: f dx1 ∧ . . . ∧ dxk und c−1 2 ◦ c1 =: G (definiert auf c1 (B)). Dann ist ∗ ∗ ∗ ∗ 1 k c∗1 ω = [c2 ◦ (c−1 2 ◦ c1 )] ω = G c2 ω = G (f dx ∧ . . . ∧ dx ) = (f ◦ G)(det JG)dx1 ∧ . . . ∧ dxk nach (6.6) = (f ◦ G)| det JG|dx1 ∧ . . . ∧ dxk , denn nach (8.11) ist det JG = det D(c−1 2 ◦ c1 ) > 0. Nach dem Transformationssatz für Gebietsintegrale (angewandt auf das Innere von c−1 1 (B)) folgt Z Z Z Z ∗ c2 ω = f= (f ◦ G)| det JG| = c∗1 ω, c−1 2 (B) c−1 2 (B) c−1 1 (B) c−1 1 (B) also (da ω außerhalb B verschwindet) Z Z Z Z ∗ ∗ ω= c1 ω = c1 ω = c1 [0,1]k c−1 1 (B) c−1 2 (B) c∗2 ω Z = [0,1]k c∗2 ω Z = ω. c2 80 9 DER SATZ VON STOKES AUF MANNIGFALTIGKEITEN Jetzt kann man definieren: (9.4) Definition. Sei c ein orientierungstreuer singulärer k-Würfel in M und ω eine k-Form auf M mit ωX = 0 für X ∈ / c([0, 1]k ). Dann sei Z Z ω := ω. c M Satz (9.3) zeigt gerade, daß diese Definition sinnvoll ist, d.h. daß c abhängt. R M ω nicht von Bemerkung. Der singuläre k-Würfel c in M heißt orientierungsumkehrend, wenn es ein orientierungsumkehrendes Koordinatensystem F : W → Rn gibt mit c = F |[0, 1]k . Ist dies der Fall und ist ω eine k-Form auf M , die außerhalb c([0, 1]k ) verschwindet, so ist Z Z ω=− c ω. M Zum Beweis sei F̃ (x1 , . . . , xk ) := F (x1 , . . . , xk−1 , 1 − xk ) und c̃ := F̃ |[0, 1]k gesetzt. Dann ist F̃ und damit c̃ orientierungstreu, also Z Z ω = ω, c̃ M und wie im Beweis von (9.3) folgt R c̃ ω=− R c ω. (9.5) Definition. Sei c ein singulärer k-Würfel in M . c heiße normal, wenn c orientierungstreu ist und wenn c([0, 1]k ) ∩ ∂M = ∅ oder k = c ◦ I1,0 ([0, 1]k−1 ) k siehe (7.6)). ist. (Zur Definition von I1,0 (9.6) Hilfssatz. Sei M kompakt. Dann gibt es eine offene Überdeckung {U1 , . . . , Um } von M derart, daß zu jedem i ∈ {1, . . . , m} ein normaler k-Würfel ci existiert mit Ui ∩ M ⊂ ci ([0, 1]k ). 81 Beweis. Zu X ∈ M existiert nach (8.3) ein Koordinatensystem F : W → Rn um X. O.B.d.A. kann angenommen werden, daß F orientierungstreu ist, ferner daß [0, 1]k ⊂ W und ( falls X ∈ / ∂M, F ( 21 , . . . , 12 ), X= F (0, 21 , . . . , 12 ), falls X ∈ ∂M ist. Die Einschränkung c := F |[0, 1]k ist dann ein normaler k-Würfel. Da F −1 stetig ist, gibt es eine offene Umgebung UX von X mit F −1 (UX ∩M ) ⊂ [0, 1]k , also mit UX ∩ M ⊂ c([0, 1]k ). Das System {UX : X ∈ M } ist eine offene Überdeckung von M , enthält also wegen der Kompaktheit von M eine endliche Teilüberdeckung von M . Hieraus folgt die Behauptung. (9.7) Definition und Behauptung. Sei M kompakt und ω eine k-Form auf M . Sei {U1 , . . . , Um } eine Überdeckung von M wie in (9.6) und hierzu {ϕ1 , . . . , ϕm } eine der Überdeckung untergeordnete Zerlegung der Eins gemäß Satz (8.15). Dann definiert man Z m Z X ω := ϕi ω. i=1 M M Die rechte Seite hängt nicht von der Wahl der Überdeckung und der Zerlegung der Eins ab. R Beweis. Zunächst ist klar, daß M ϕi ω definiert ist: Zu Ui existiert nach (9.6) ein normaler k-Würfel ci mit Ui ∩ M ⊂ ci ([0, 1]k ). Die Funktion ϕi und damit die Form ϕi ω verschwindet außerhalb Ui , also erst recht außerhalb ci ([0, 1]k ). Man kann also Definition (9.4) verwenden. Ist {ψ1 , . . . , ψr } eine andere Zerlegung der Eins mit den entsprechenden Eigenschaften, so ist XZ XXZ XXZ XZ ϕi ω = ϕi ψj ω = ϕi ψj ω = ψj ω. i M i j j M i M j M (9.8) Satz von Stokes. Sei (M, o) eine kompakte orientierte k-dimensionale Mannigfaltigkeit und ω eine (k − 1)-Form der Klasse C 1 auf M . Der Rand ∂M sei mit der induzierten Orientierung o0 versehen. Dann gilt Z Z dω = ω. M ∂M 82 9 DER SATZ VON STOKES AUF MANNIGFALTIGKEITEN Beweis. Zunächst sei c ein normaler k-Würfel in M , und ω verschwinde außerhalb von c([0, 1]k ). Dann gilt R R dω = dω nach Def. (9.4) c M R = c∗ dω nach Def. (9.1) dc∗ ω nach Satz (6.8) [0,1]k R = [0,1]k = R dc∗ ω nach Def. (7.3) Ik = c∗ ω R nach (7.7) (Satz von Stokes für Ketten) ∂I k = R ω wie im Beweis von (7.7) gezeigt. ∂c 1. Fall: c([0, 1]k ) ∩ ∂M = ∅. k ([0, 1]k−1 ) (i = 1, . . . , k, α = 0, 1), denn jeder Dann gilt ωX = 0 für X ∈ c ◦ Ii,α solche Punkt X ist Häufungspunkt von Punkten Y ∈ M mit ωY = 0. Also gilt Z Z ω=0= ω wegen ωX = 0 für X ∈ ∂M. ∂c ∂M k ([0, 1]k−1 ). 2. Fall: c([0, 1]k ) ∩ ∂M = c ◦ I1,0 Dann gilt Z ω= ∂c k X i=1 i Z Z ω− (−1) k c◦Ii,0 k c◦Ii,1 Z ω = − ω. k c◦I1,0 Daß die übrigen Integrale verschwinden, folgt dabei wie im ersten Fall. Da c ein normaler k-Würfel ist, gibt es ein orientierungstreues Koordinatensystem F : W → Rn mit c = F |[0, 1]k . Da Fall 2 vorliegt, ist dabei W eine relativ offene Teilmenge von H k . Definiere W 0 := {(x1 , . . . , xk−1 ) ∈ Rk−1 : (0, x1 , . . . , xk−1 ) ∈ W } und F 0 (x1 , . . . , xk−1 ) := F (0, x1 , . . . , xk−1 ) für (x1 , . . . , xk−1 ) ∈ W 0 . Dann ist F 0 k ein Koordinatensystem der Mannigfaltigkeit ∂M mit F 0 |[0, 1]k−1 = c ◦ I1,0 . 83 Für Z ∈ W mit z1 = 0 gilt [DFZ (E1 ), . . . , DFZ (Ek )] = oF (Z) , da F orientierungstreu ist. Nach Definition (8.12) gilt daher für die induzierte Orientierung o0 von M o0F (Z) = −[DFZ (E2 ), . . . , DFZ (Ek )]. Hieraus folgt, daß F 0 orientierungsumkehrend ist. Aus der Bemerkung nach (9.4) folgt jetzt Z Z − ω= ω. k c◦I1,0 In beiden Fällen ist also ∂M Z Z dω = M ω. ∂M Nun sei ω eine beliebige (k − 1)-Form der Klasse C 1 auf M . Wähle eine offene Überdeckung {U1 , . . . , Um } von M und zugehörige normale k-Würfel c1 , . . . , cm gemäß Hilfssatz (9.6). Zu {U1 , . . . , Um } sei {ϕ1 , . . . , ϕm } eine Zerlegung der Eins gemäß (8.15). Für jedes i ∈ {1, . . . , m} verschwindet die Form ϕi ω außerhalb ci . Nach dem bereits Gezeigten gilt also Z Z d(ϕi ω) = ϕi ω. M Wegen m X Pm i=1 ϕi = 1 auf M ist d(ϕi ω) = i=1 ∂M m X (dϕi ∧ ω + ϕi dω) = d i=1 m X ! ϕi ∧ω+ m X i=1 ϕi dω = i=1 m X i=1 und daher Z dω = M m Z X i=1 M ϕi dω = m Z X i=1 M d(ϕi ω) = m Z X i=1 ∂M Z ϕi ω = ω. ∂M ϕi dω 84 10 EINLEITUNG Teil 2: Allgemeine Maß- und Integrationstheorie Maß- und Integrationstheorie ist ein zentrales Gebiet der Analysis mit vielfältigen Anwendungen auch in anderen Gebieten. Zum Beispiel erweist sie sich als unentbehrliches Hilfsmittel der Wahrscheinlichkeitstheorie. Im zweiten Teil dieser Vorlesung soll eine Einführung in die abstrakte Maß- und Integrationstheorie gegeben werden. In Analysis II haben wir das Lebesguesche Integral auf dem Rn behandelt und anschließend daraus das Lebesguesche Maß hergeleitet. Hier werden wir umgekehrt vorgehen, das heißt zuerst Maßtheorie betreiben und auf dieser Grundlage dann Integration behandeln. Ein wesentlicherer Unterschied besteht darin, daß wir abstrakt vorgehen, also keine spezielle Struktur wie den euklidischen Raum zugrunde legen. In dieser Allgemeinheit wird die Maß- und Integrationstheorie in den Anwendungen benötigt. 10 Einleitung Zur Einleitung soll etwas zur anschaulichen Vorgeschichte der Maßtheorie gesagt werden, insbesondere zur Inhaltsmessung in euklidischen Räumen. Unter dem n-dimensionalen euklidischen Raum verstehen wir dabei den reellen Vektorraum Rn , versehen mit dem Standard-Skalarprodukt und der davon induzierten Metrik. Aus der alltäglichen Erfahrung gewinnt man die Überzeugung, daß beschränkte räumliche Gebiete einen wohldefinierten Rauminhalt (Volumen) haben, ebenso beschränkte ebene Gebiete einen Flächeninhalt. In den Anfängen der Mathematik war dabei die Existenz des Flächeninhaltes, zum Beispiel eines Kreises, gar kein als solches empfundenes Problem, lediglich die explizite oder angenäherte Berechnung war Gegenstand der Erörterung. Heute sind wir uns natürlich klar darüber, daß Mathematik nicht direkte Aussagen über die Realität machen kann, sondern nur Schlußfolgerungen innerhalb eines mathematischen Modells für gewisse Aspekte der Realität ziehen kann. Dann müssen aber auch Begriffe, die intuitiv vorgegeben sind und deren Existenz man für evident halten möchte, innerhalb des gewählten mathematischen Modells definiert werden. Insbesondere müssen wir innerhalb des üblichen elementaren Modells für den Anschauungsraum, nämlich des euklidischen Raumes R3 oder der Ebene R2 , die Begriffe Volumen und Flächeninhalt erklären. Die dabei auftretende Problematik wollen wir nun erläutern. Betrachten wir zunächst den Fall der Ebene. Für gewisse beschränkte Teilmengen der Ebene soll ein Flächeninhalt erklärt werden. Wir müssen uns zunächst klar machen, welche Eigenschaften wir von einem mathematischen Flächeninhaltsbegriff erwarten. Nun verbindet man mit dem intuitiven Begriff des Flächeninhaltes natürlich gewisse Vorstellungen. Zunächst soll sich der Flächeninhalt bei Bewegungen nicht ändern; kongruente Gebiete sollen also denselben Flächeninhalt haben. Wenn wir eine ebene Figur zerschneiden, 85 soll sich der Flächeninhalt additiv aus den Flächeninhalten der Einzelteile zusammensetzen. Wenn also der Flächeninhalt F für zwei disjunkte Mengen A, B erklärt ist, so werden wir den Flächeninhalt von A ∪ B erklären wollen durch F (A ∪ B) = F (A) + F (B). Dies kann man natürlich sofort auf endliche Vereinigungen ausdehnen. Wir sagen hierfür auch, der Flächeninhalt sei additiv. Für die weitere Diskussion wollen wir (nur für die Zwecke dieser Einleitung) unter einem Inhaltssystem (in R2 ) ein Paar (S, F ) verstehen mit folgenden Eigenschaften: S ist ein System beschränkter Teilmengen der Ebene, mit A, B ∈ S gilt A ∪ B ∈ S; ferner ist F : S → R+ eine Funktion mit F (A ∪ B) = F (A) + F (B) für A, B ∈ S mit A ∩ B = ∅. Ist A ∈ S und β eine Bewegung der Ebene, so soll βA ∈ S und F (βA) = F (A) gelten. Außerdem soll S das Einheitsquadrat W enthalten und F (W ) = 1 gelten. Völlig analog erklärt man natürlich Inhaltssysteme im n-dimensionalen euklidischen Raum. Nun sind natürlich möglichst große Inhaltssysteme gesucht, da man möglichst vielen Mengen einen Inhalt zuordnen möchte. Kann man vielleicht sogar erreichen, daß S alle beschränkten Teilmengen des Raumes enthält (oder sogar alle Teilmengen, wenn man für die Inhaltsfunktion F auch den Wert ∞ zuläßt)? Das ist zumindest für den R3 nicht der Fall, wie der folgende merkwürdige Satz zeigt: Satz (Banach-Tarski 1924, Sierpinski, R.M. Robinson). Es seien K und K 0 zwei disjunkte Kugeln mit gleichem Radius im R3 . Dann gibt es eine Zerlegung von K in 5 paarweise disjunkte Teilmengen, K= s [ Ai , Ai ∩ Aj = ∅ für i 6= j, i=1 und Bewegungen β1 , . . . , β5 des R3 mit 5 [ βi Ai = K ∪ K 0 . i=1 Es kann also auf keine Weise möglich sein, den hierbei auftretenden Teilmengen Ai ein bewegungsinvariantes Volumen zuzusprechen. Wir sehen hieran (und auch an anderen ähnlichen Aussagen), daß man nicht hoffen kann, Flächeninhalt und Volumen für alle beschränkten Teilmengen sinnvoll zu definieren. Es ergibt sich also die Frage, welchen Mengen man sinnvollerweise einen Flächeninhalt bzw. ein Volumen zuordnen kann und wie man das bewerkstelligen kann. Betrachten wir kurz eine elementare Möglichkeit. Schon die alten Griechen hatten zur Flächeninhaltsbestimmung (Berechnung, nicht Definition) von gewissen krummlinig berandeteten Figuren ein Ausschöpfungsverfahren“ entwickelt, das ” vor allem mit den Namen Eudoxos (5. Jhd. v. Chr.) und Archimedes (3. Jhd. v. 86 10 EINLEITUNG Chr.) verknüpft ist. Wir wollen den Grundgedanken gleich in etwas modernerer Fassung präzisieren und für unsere Zwecke nutzbar machen. Für ein Rechteck R in der Ebene erklären wir den Flächeninhalt F (R) als das Produkt der Kantenlängen. Wir sagen, eine Punktmenge A ⊂ R2 sei eine Elementarfigur, wenn es achsenparallele Rechtecke R1 , . . . , Rk gibt mit A = R1 ∪ . . . ∪ Rk und (Ri ∩Rj )o = ∅ (i 6= j). Dürfen wir dann F (A) := F (R1 )+. . .+F (Rk ) setzen? Die Darstellung von A als disjunkte Vereinigung von Rechtecken ist ja nicht eindeutig. Man kann P aber leicht zeigen (und wir werden es später allgemeiner tun), daß die Summe F (Ri ) nicht von der speziellen Darstellung abhängt. Damit ist F für alle Elementarfiguren erklärt. Definition. Sei A ⊂ R2 eine beschränkte Teilmenge. A heißt Jordan-meßbar, wenn zu jedem ∈ R+ Elementarfiguren B, C existieren mit B⊂A⊂C und F (C) − F (B) < . Ist A Jordan-meßbar, so ist sup{F (B) : B ⊂ A, B Elementarfigur} = inf{F (C) : C ⊃ A, C Elementarfigur}, und diese Zahl nennt man den Peano-Jordan-Inhalt von A. Wir wollen den Peano-Jordan-Inhalt von A ebenfalls mit F (A) bezeichnen. Ist nun S das System aller Jordan-meßbaren Teilmengen von R2 und F der so fortgesetzte Inhalt, so kann man zeigen, daß (S, F ) in der Tat ein Inhaltssystem ist. Völlig analog kann man im Rn vorgehen. Mit dem so erreichten Inhaltssystem könnte man nun eigentlich zufrieden sein, denn die im täglichen Leben“ vorkommenden Figuren oder Raumteile werden ” sicher alle Peano-Jordan-meßbar sein. Es gibt aber gewichtige mathematische Gründe, hiermit nicht zufrieden zu sein. Ein erster ist der folgende. Betrachten wir etwa die Punktmenge M = {(x, y) ∈ R2 : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x, y ∈ Q}. Sie ist offenbar nicht Jordan-meßbar. Andererseits ist sie abzählbar, also nur eine kleine“ Teilmenge des Einheitsquadrates W , so daß also W \ M eigentlich noch ” den Inhalt 1 haben sollte. Hier zeigt sich ein entscheidender Mangel Skdes PeanoJordanschen Inhaltssystems (S, F ). Mit A1 , . . . , Ak ∈ S gilt zwar i=1 Ai ∈ S, aber dies läßt sich nicht auf abzählbar unendlich viele Mengen ausdehnen, wie das Beispiel M zeigt. An vielen und wesentlichen Stellen der Mathematik hat sich gezeigt, daß man mit einem Inhaltssystem (S, F ) nur dann gut arbeiten kann, wenn sogar die folgende Bedingung erfüllt ist: [ Ai ∈ S (i ∈ N) ⇒ Ai ∈ S, i∈N 87 ! Ai ∈ S (i ∈ N), Ai ∩ Aj = ∅ (i 6= j) ⇒ F [ i∈N Ai = X F (Ai ). (6) i∈N Wir wollen dann (wieder nur für die Zwecke der Einleitung) (S, F ) ein Maßsystem nennen. Die Frage ist nun, ob man das Peano-Jordansche Inhaltssystem weiter fortsetzen kann zu einem Maßsystem. Das ist in der Tat der Fall; das Lebesguesche Maß, definiert auf dem System der Lebesgue-meßbaren Mengen, leistet das Gewünschte, wie wir aus Analysis II wissen. Die obige Eigenschaft (6) nennt man auch σ-Additivität. Diese σ-Additivität hebt die Maßtheorie heraus aus der elementaren Inhaltstheorie. Festhalten für die späteren Entwicklungen wollen wir die grundsätzliche Bedeutung des Fortsetzungsproblems. Flächeninhalt und Volumen und ihre Fortsetzungen sind die anschaulichsten und klassischen Beispiele für Maße. Aber schon die geometrische Anschauung liefert weitere Beispiele, die den Aufbau einer allgemeineren Theorie der Maße wünschbar erscheinen lassen. Denken wir etwa an die Notwendigkeit, Oberflächen von krumm berandeten Raumteilen zu messen. Für hinreichend glatte Flächen liefert die mehrdimensionale Analysis bzw. Differentialgeometrie eine plausible Berechnungsvorschrift, aber die Frage, wie allgemein Teilmengen des R3 sein dürfen, damit man ihnen in sinnvoller Weise einen zweidimensionalen Flächeninhalt zuordnen kann, bedarf zu ihrer Beantwortung einer weitentwickelten Maßtheorie. Analog kann man natürlich fragen, welchen Punktmengen man ein vernünftiges eindimensionales Maß zuschreiben kann. Man kann aber noch weiter gehen. Manchmal stößt man auf Punktmengen, sogenannte Fraktale, denen man nur mit einer feineren Skala von Dimensions- und Maßbegriffen eine Größe“ zuordnen ” kann. Betrachten wir etwa das Cantorsche Diskontinuum. Es ist eine überabzählbare Teilmenge des Intervalls [0, 1], aber insofern eine kleine Teilmenge, als sie eindimensionales Lebesgue-Maß 0 hat. Man kann sie trotzdem noch näher ausmessen, indem man sogenannte Hausdorff-Maße der Dimension α, 0 ≤ α ≤ 1, einführt. Es zeigt sich dann, daß das Cantorsche Diskontinuum in der Dimension ln 2/ ln 3 ein Maß hat, das weder 0 noch ∞ ist. Die bisher geschilderten Vorbilder für Maße waren aus der geometrischen Anschauung entlehnt. Weitere Beispiele liefert die physikalische Anschauung. Denken wir etwa an Massenverteilungen. Der Physiker kennt (bzw. denkt sich) sowohl punktförmige als auch kontinuierliche Massenverteilungen (ohne daß wir das hier präzisieren wollen). Auch Verteilungen elektrischer Ladungen sind hier zu nennen; in der Physik ist man genötigt, sich auch flächenhafte oder linienhafte Ladungsverteilungen vorzustellen. Im Gegensatz zu Rauminhalten und Massen können Ladungen auch negative Werte annehmen. Mit all diesen Verteilungen verbindet man die Vorstellung, daß zu jedem vernünftigen“ beschränkten Raumteil A ” wohldefiniert ist, wieviel Masse oder Ladung auf ihn entfällt; dieser Anteil sei mit m(A) bezeichnet. Ferner verbindet man die Vorstellung der Additivität damit. 88 10 EINLEITUNG Wir stehen also wie beim Inhaltsproblem wieder vor der Frage, wie allgemein ein Raumteil A sein darf, damit m(A) erklärt werden kann. Im Gegensatz zum Rauminhalt müssen wir jetzt u.a. auch m({x}) 6= 0 zulassen für Punkte x ∈ R3 . Interessanterweise wird man aber auch von ganz anderen Überlegungen ausgehend zu einer ähnlichen mathematischen Situation geführt, nämlich bei der Konstruktion eines mathematischen Modells zur Beschreibung von zufälligen Ereignissen und ihren Wahrscheinlichkeiten. Zur Erläuterung stellen wir uns einen Versuch vor, bei dem sich verschiedene, aber im einzelnen nicht vorhersagbare Versuchsergebnisse einstellen können (z.B. Werfen eines Würfels, zufälliges Herausgreifen von 1000 Personen aus einer Bevölkerung). Die Gesamtheit der möglichen Versuchsergebnisse denken wir uns durch eine Menge Ω repräsentiert. Wir interessieren uns nun für Ereignisse“, von denen nach Kenntnis des Versuchs” ergebnisses feststehen soll, ob sie eingetreten sind oder nicht (z.B.: Würfel zeigt gerade Augenzahl; von den 1000 Personen sind mindestens 300 größer als 1,70 m). Wir können ein solches Ereignis repräsentieren durch die Menge A ⊂ Ω aller Versuchsergebnisse, bei deren Eintreten das fragliche Ereignis eingetreten ist. Unser mathematisches Modell besteht also bis jetzt aus einer Menge Ω (von Versuchs” ergebnissen“) und einem System A von Teilmengen von Ω, die wir Ereignisse“ ” nennen. Daß bei Vorliegen des Versuchsergebnisses ω das Ereignis A eingetreten ist, wird wiedergegeben durch die Relation ω ∈ A. Von einem Ereignis werden wir immer dann sprechen wollen, wenn nach jedem Versuchsergebnis feststeht, ob das Ereignis eingetreten ist. Mit dieser Vereinbarung können wir aber aus gegebenen Ereignissen durch logische Operationen neue Ereignisse bilden: Sind A und B Ereignisse, so ist auch A und B“ ein Ereignis (es tritt genau dann ein, wenn A ” und B eintreten), ebenso ist A oder B“ ein Ereignis (es tritt genau dann ein, ” wenn mindestens eines der Ereignisse A oder B eintritt), schließlich kann man das komplementäre Ereignis nicht A“ erklären (es tritt genau dann ein, wenn ” A nicht eintritt). In unserem obigen mengentheoretischen Modell müssen wir A ” und B“ offenbar durch A ∩ B, A oder B“ durch A ∪ B und nicht A“ durch ” ” Ac := Ω \ A wiedergeben. Wir können auch vom sicheren Ereignis“, das immer ” eintritt, sprechen und ihm die Menge Ω selbst zuordnen, sowie vom unmöglichen Ereignis, das durch die leere Menge ∅ repräsentiert wird. In unserem Modell fordern wir daher von der Ereignismenge A: (1) Ω ∈ A, (2) Ac ∈ A für alle A ∈ A, (3) A ∪ B ∈ A für alle A, B ∈ A. Die Forderungen A ∩ B ∈ A und ∅ ∈ A sind aus (1), (2), (3) herleitbar. Ein System A ⊂ P(Ω) (Potenzmenge von Ω) mit diesen Eigenschaften nennt man eine Algebra in Ω. 89 Jedem Ereignis, also jedem Element A der Algebra A, soll nun eine Wahrschein” lichkeit“ µ(A) zugeordnet werden. Dies soll so geschehen, daß die Wahrscheinlichkeit eines Ereignisses seine relative Häufigkeit bei einer großen Zahl von Wiederholungen des Versuches annähernd wiedergibt. Hierdurch wird es nahegelegt, unter einer Wahrscheinlichkeit eine reellwertige Funktion µ auf A zu verstehen, die folgende Eigenschaften hat: (1) µ(A) ≥ 0 für alle A ∈ A, (2) µ(Ω) = 1, (3) µ(A ∪ B) = µ(A) + µ(B) für alle A, B ∈ A mit A ∩ B = ∅. Wir sind also zu einer ähnlichen abstrakten Situation gelangt wie früher bei den Inhaltssystemen oder bei Massen- oder Ladungsverteilungen (abgesehen davon, daß jetzt die Forderung µ(Ω) = 1 hinzukommt). Bei der mathematischen Ausgestaltung des bislang entwickelten Modells zeigt sich jedoch, daß es noch nicht genügend leistungsfähig ist. Betrachten wir zum Beispiel eine (theoretisch unendliche) Folge von unabhängig wiederholten Würfen mit einem fairen Würfel. Wir werden aufgrund praktischer Erfahrungen erwarten, daß der Anteil der gewürfelten Sechsen mit fortschreitendem Würfeln sich immer mehr dem Wert 61 nähert. In dem mathematischen Modell, das unsere unendliche Versuchsfolge beschreiben soll, müßte dies ein beweisbarer Satz sein (bei passender Konvergenzdefinition); andernfalls wäre die Modellbildung als unzulänglich zu verwerfen. Derartige Aussagen (sogenannte Gesetze der großen Zahlen“) las” sen sich in der Tat beweisen, jedoch erst, wenn man die obigen Forderungen durch die folgenden schärferen ersetzt: Für S∞jede Folge (Ai )i∈N mit Ai ∈ A und Ai ∩ Aj = ∅ für i 6= j (i, j ∈ N) soll auch i=1 Ai ∈ A sein und ! ∞ ∞ [ X µ Ai = µ(Ai ) i=1 i=1 gelten. Das ist also wieder die Forderung der σ-Additivität, und das System A heißt jetzt eine σ-Algebra. Damit sind wir auch bei der endgültigen Erklärung eines Maßes angelangt. Man versteht hierunter eine nichtnegative, σ-additive Funktion (mit Werten in R ∪ {∞}) auf einer σ-Algebra von Teilmengen einer Menge. 11 Mengensysteme In diesem Abschnitt müssen wir zunächst die Mengensysteme betrachten, die als Definitionsbereiche von Maßen in Frage kommen. Zu Beginn stellen wir einige Bezeichnungen zusammen und erinnern an einige Konventionen der Mengensprechweise. 90 11 MENGENSYSTEME Statt Menge“ benutzen wir synonym auch die Bezeichnung System“, und zwar ” ” vorwiegend dann, wenn die Elemente selbst Mengen sind. Im folgenden wird häufig eine feste Grundmenge“ gegeben sein, die wir dann ” meist mit Ω bezeichnen. P(Ω) ist die Potenzmenge, also das System aller Teilmengen von Ω. Manche Definitionen beziehen sich auf die Grundmenge Ω, ohne daß dies in der Bezeichnung zum Ausdruck kommt. Zum Beispiel ist für A ⊂ Ω mit Ac := Ω \ A := {x ∈ Ω : x ∈ / A} das Komplement von A bezüglich Ω bezeichnet. Wir erinnern an die für jede Familie (Ai )i∈I (I eine Indexmenge) von Teilmengen Ai ⊂ Ω gültigen Regeln !c !c [ \ \ [ Ai = Aci , Ai = Aci i∈I i∈I i∈I i∈I (Regeln von de Morgan). Für Mengen A, B ist A4B := (A \ B) ∪ (B \ A) die symmetrische Differenz ; sie besteht also aus allen Elementen, die zu genau einer der Mengen A, B gehören. Sehr häufig werden wir Folgen (An )n∈N in P(Ω), also Folgen von Teilmengen von Ω, zu betrachten haben. Eine solche Folge nennen wir disjunkt, wenn An ∩ Am = ∅ für n 6= m (n, m ∈ N) gilt; sie heißt monoton, wenn sie entweder zunehmend (wachsend) ist, d.h. wenn A1 ⊂ A2 ⊂ . . . gilt, oder abnehmend (fallend) ist, d.h. wenn A1 ⊃ A2 ⊃ . . . gilt ( zunehmend“ und abnehmend“ sind also im schwachen Sinne gemeint, d.h. ” ” es darf auch An+1 = An sein). Die Abkürzung An ↑ A bedeutet, daß die Folge (An )n∈N zunehmend ist und daß ∞ [ An = A n=1 ist. Entsprechend bedeutet An ↓ A, 91 daß (An )n∈N eine abnehmende Folge ist mit ∞ \ An = A. n=1 Aus An ↑ A folgt Acn ↓ Ac und umgekehrt. Für eine beliebige Folge (An )n∈N in P(Ω) definiert man lim sup An := {x : x ∈ An für unendlich viele n ∈ N}. n→∞ Offenbar ist lim sup An = n→∞ ∞ [ ∞ \ Ak . n=1 k=n Ferner definiert man lim inf An := {x : x ∈ An für fast alle n ∈ N}. n→∞ Fast alle“ bedeutet dabei: alle bis auf endlich viele“. Offenbar ist ” ” ∞ \ ∞ [ lim inf An = Ak . n→∞ n=1 k=n Es gilt (lim sup An )c = lim inf Acn , n→∞ n→∞ (lim inf An )c = lim sup Acn , n→∞ n→∞ lim inf An ⊂ lim sup An . n→∞ n→∞ Im folgenden werden wir die Angabe n → ∞ gelegentlich fortlassen. Gilt lim inf An = lim sup An =: A, n→∞ n→∞ so schreibt man hierfür lim An = A. n→∞ (Man beachte, daß sich dieser Limes nicht auf eine Metrik oder Topologie bezieht.) Insbesondere gilt lim An = A, n→∞ falls An ↑ A oder An ↓ A gilt. 92 11 MENGENSYSTEME Nach diesen Vorbemerkungen kommen wir zu den grundlegenden Definitionen der Maßtheorie. Wie einleitend plausibel zu machen versucht wurde, nimmt man als Definitionsbereich eines Maßes sinnvollerweise ein System von Mengen, das abgeschlossen ist gegenüber gewissen Mengenoperationen. Mit diesen Mengensystemen, den σ-Algebren, und anderen hilfsweise eingeführten Systemen befassen wir uns in diesem Abschnitt. (11.1) Def. Sei Ω eine nichtleere Menge und A ⊂ P(Ω) ein System von Teilmengen von Ω. A heißt ein Ring (in Ω), wenn gilt: (a) ∅ ∈ A, (b) ∀A, B ∈ A : A \ B ∈ A, (c) ∀A, B ∈ A : A ∪ B ∈ A. A heißt eine Algebra in Ω, wenn gilt: (d) Ω ∈ A, (e) ∀A ∈ A : Ac ∈ A, (f) ∀A, B ∈ A : A ∪ B ∈ A. A heißt eine σ-Algebra in Ω, wenn (d) und (e) gelten sowie S (f0 ) Für jede Folge (An )n∈N in A ist ∞ n=1 An ∈ A. Ist A eine σ-Algebra in Ω, so wird das Paar (Ω, A) als meßbarer Raum oder Meßraum bezeichnet. Hinweis. In anderen Gebieten der Mathematik treten die Begriffe Ring“ und ” Algebra“ mit anderen Bedeutungen auf. Dies kann aber nicht zu Verwechslungen ” führen. – Leider sind gerade in der Maßtheorie in der Literatur uneinheitliche Bezeichnungsweisen üblich. Beispielshalber findet man statt (σ-)Algebra“ auch ” die Bezeichnung (σ-)Körper“. ” Bemerkungen zur Definition (11.1). Aus (b) folgt A ∩ B = A \ (A \ B) ∈ A für A, B ∈ A. Durch Induktion folgt, daß jeder Ring abgeschlossen ist gegenüber der Bildung endlicher Vereinigungen und Durchschnitte. Jede Algebra ist auch ein Ring, denn es gilt A \ B = (Ac ∪ B)c . Ein Ring A in Ω ist genau dann eine Algebra, wenn Ω ∈ A gilt. Für jede Folge (An )n∈N in einer σ-Algebra gilt wegen (e) und (f0 ) auch ∞ \ An ∈ A. n=1 Eine σ-Algebra ist also abgeschlossen gegenüber der Bildung abzählbarer Vereinigungen und Durchschnitte. 93 Beispiele. Das System aller endlichen Teilmengen einer Menge in Ω ist ein Ring. Ist Ω0 ⊂ Ω, so ist jede Algebra in Ω0 ein Ring in Ω. Beispiele für σ-Algebren in Ω sind P(Ω), {∅, Ω}, {∅, A, Ac , Ω} für eine beliebige Teilmenge A ⊂ Ω, ferner {A ⊂ Ω : A oder Ac ist abzählbar} ( abzählbar“ heißt: endlich (evtl. leer) oder abzählbar unendlich). Das System ” {A ⊂ Ω : A oder Ac ist endlich} ist eine Algebra, aber bei unendlichem Ω keine σ-Algebra. Grundlegend wichtig für alles Weitere ist der Begriff der σ-Algebra. Aus technischen Gründen führen wir gleich zwei weitere Typen von Mengensystemen ein, die aber nur gelegentlich benutzt werden. (11.2) Def. Ein Teilsystem M ⊂ P(Ω) heißt monotones System, wenn gilt: (a) M = 6 ∅, (b) für jede monotone Folge (An )n∈N in M gilt limn→∞ An ∈ M. Ein Teilsystem D ⊂ P(Ω) heißt Dynkin-System, wenn gilt (c) Ω ∈ D, (d) für A, B ∈ D mit A ⊂ B gilt B \ A ∈ D, S (e) für jede disjunkte Folge (An )n∈N in D gilt ∞ n=1 An ∈ D. Bemerkungen zur Definition (11.2). Jede σ-Algebra ist ein monotones System und ein Dynkin-System. Eine Algebra, die ein monotones System ist, ist eine σAlgebra (denn ist (An )n∈N eine Folge in der Algebra A, so ist (A1 ∪ . . . ∪ An )n∈N eine monotone Folge in A). Ein monotones System, das abgeschlossen ist unter endlichen Durchschnitten, ist eine σ-Algebra: (11.3) Def. Ein Teilsystem S ⊂ P(Ω) heißt durchschnittsstabil (∩-stabil), wenn mit A, B ∈ S stets auch A ∩ B ∈ S gilt. (11.4) Satz. Jedes ∩-stabile Dynkin-System ist eine σ-Algebra. Beweis. Sei D ⊂ P(Ω) ein ∩-stabiles Dynkin-System. Wegen (11.2) (c), (d) gilt auch (11.1) (d), (e). Für A, B ∈ D gilt A ∩ (B \ (A ∩ B)) = ∅. Da D ∩-stabil ist, ist A ∩ B ∈ D. Da ∅ ∈ D ist, gilt nach (11.2) (e) A ∪ B = A ∪ (B \ (A ∩ B)) ∈ D. 94 11 MENGENSYSTEME Daher liegt auch die Vereinigung endlich vieler Elemente aus D in D. Sei jetzt (An )n∈N eine Folge in D. Dann ist (Bn+1 \ Bn )n∈N mit B0 := ∅ und Bn := A1 ∪ . . . ∪ An (n ∈ N) eine disjunkte Folge in D mit ∞ [ An = n=1 ∞ [ (Bn+1 \ Bn ) ∈ D. n=0 Es gilt also auch (11.1) (f0 ). Der folgende Satz beschreibt eine naheliegende und wichtige Weise, Mengensysteme der definierten Typen zu erzeugen. (11.5) Satz und Def. Sei E ⊂ P(Ω). Der Durchschnitt aller Ringe (Algebren, σAlgebren, monotonen Systeme, Dynkin-Systeme) in Ω, die E enthalten, ist selbst ein Ring (bzw. eine Algebra, u.s.w.) in Ω. Er (sie, es) heißt der von E in Ω erzeugte Ring (bzw. die von E in Ω erzeugte Algebra, u.s.w.) und wird mit R(E) (bzw. Ã(E), A(E), M(E), D(E)) bezeichnet. E heißt ein Erzeugendensystem von R(E) (bzw. Ã(E) u.s.w.) Man beachte, daß P(Ω) jedenfalls ein E enthaltendes System von jedem der angegebenen Typen ist; daher ist das von E erzeugte entsprechende System in jedem der Fälle erklärt. Die Behauptung des Satzes ist trivial. Besonders häufig wird im folgenden die Bildung von A(E), also der kleinsten E enthaltenden σ-Algebra, vorkommen. Zuvor wollen wir bemerken, daß sich die Elemente der erzeugten Algebra Ã(E) leicht konstruktiv angeben lassen: (11.6) Satz. Sei E ⊂ P(Ω) ein nichtleeres Teilsystem. Dann ist S A = ni=1 Ai mit n ∈ N, Ai ∩ Aj = ∅ für i 6= j, . Ã(E) = A ⊂ Ω : mit Ai = Ai1 ∩ . . . ∩ Aiki , ki ∈ N, und Aij ∈ E oder Acij ∈ E Beweis. Bezeichnen wir die rechts stehende Menge mit C, so gilt jedenfalls C ⊂ Ã(E), denn Ã(E) enthält E und ist eine Algebra. Wir zeigen, daß C eine Algebra ist; wegen E ⊂ C muß dann Ã(E) ⊂ C und damit Ã(E) = C gelten. S S Trivialerweise ist Ω ∈ C. Seien A, B ∈ C, und seien A = ni=1 Ai , B = m j=1 Bj Darstellungen der angegebenen Art. Dann ist A∩B = n [ m [ i=1 j=1 (Ai ∩ Bj ) ∈ C. 95 Ferner gilt Ac = n \ Aci i=1 mit Aci = Aci1 ∪ . . . ∪ Aciki = Aci1 ∪ (Aci2 ∩ Ai1 ) ∪ (Aci3 ∩ Ai1 ∩ Ai2 ) ∪ . . . ∈ C, nach dem vorstehend Bewiesenen (und Induktion) also Ac ∈ C. Aus beiden Ergebnissen folgt mit A, B ∈ C auch A ∪ B ∈ C. Wir können das Ergebnis noch etwas anders formulieren. Hierzu bezeichnen wir zu einem gegebenen Mengensystem E ⊂ P(Ω) mit CE das System der Mengen in E und ihrer Komplemente, mit DE das System aller endlichen Durchschnitte von Mengen aus E, und mit V E das System aller endlichen Vereinigungen von Mengen aus E. Dann besagt also Satz (11.6) (in schärferer Form), daß Ã(E) = V DCE ist. Nun darf man sich aber nicht verleiten lassen, Ähnliches von der erzeugten σAlgebra A(E) anzunehmen. Man könnte denken, daß man sie analog erhält, wenn man statt der endlichen Operationen abzählbare nimmt. Bezeichnen wir diese mit Dσ , Vσ , so kann man natürlich Vσ Dσ CE bilden. Dies ist aber i.a. keine σAlgebra (man kann nicht zeigen, daß es gegen Komplementbildung abgeschlossen ist), d.h. das System CVσ Dσ CE wird i.a. echt größer sein. Jetzt kann man weiter Vσ Dσ CVσ Dσ CE bilden. Aber auch das ist i.a. noch keine σ-Algebra. Ist es möglich, dieses Verfahren fortgesetzt zu wiederholen, so daß man schließlich“ ” zur erzeugten σ-Algebra gelangt? Bei richtiger Interpretation von schließlich“ ” trifft das zu, aber man benötigt dazu die Theorie der Ordinalzahlen und transfinite Induktion. Jedenfalls ist diese transfinite Konstruktion“ der erzeugten σ-Algebra i.a. nicht ” zweckmäßig, um A(E) in den Griff zu bekommen. Dies hat zur Folge, daß man bei Beweisen über σ-Algebren häufig indirekte Schlußweisen benutzen muß, die wir etwa folgendermaßen erläutern können: Sei E ⊂ P(Ω) gegeben. Die Elemente von E mögen eine Eigenschaft X haben, und es sei der Nachweis verlangt, daß auch die Elemente der erzeugten σ-Algebra A(E) die Eigenschaft X haben. Da man die Elemente von A(E) wegen des oben geschilderten Dilemmas nicht direkt beschreiben kann, kann man nicht direkt die Eigenschaft X an ihnen nachprüfen. Häufig ist aber die folgende Schlußweise möglich. Man setzt AX := {A ∈ A(E) : A hat die Eigenschaft X}. 96 11 MENGENSYSTEME Nach Voraussetzung ist E ⊂ AX . Gelingt nun der Nachweis, daß AX eine σAlgebra ist, so folgt A(E) ⊂ AX , da A(E) die kleinste E enthaltende σ-Algebra ist. Jedes Element von A(E) hat also die Eigenschaft X. Bei der Durchführung dieser Schlußweise wie auch in anderen Fällen steht man vor dem Problem, von einem Mengensystem zeigen zu müssen, daß es eine σAlgebra ist. Zur Erleichterung dieses Nachweises (aber auch für andere Zwecke) haben sich die oben definierten Mengensysteme anderer Art bewährt. Der folgende Satz zeigt, daß man in manchen Fällen statt der von einem System E erzeugten σ-Algebra nur das von E erzeugte monotone System oder Dynkin-System zu untersuchen braucht. Das kann unter Umständen einfacher sein. (11.7) Satz. Für ∅ = 6 E ⊂ P(Ω) gilt (a) Ist E eine Algebra, so ist A(E) = M(E). (b) Ist E ∩-stabil, so ist A(E) = D(E). Beweis. (a) Sei E eine Algebra in Ω. Da A(E) ein monotones System ist, gilt M(E) ⊂ A(E). Wir zeigen, daß M(E) eine σ-Algebra ist; dann gilt also auch A(E) ⊂ M(E). Für A ∈ M(E) setzen wir MA := {B ∈ M(E) : A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E)}. Man weist leicht nach, daß MA ein monotones System ist. Sei A ∈ E. Da E eine Algebra ist, gilt E ⊂ MA , also M(E) ⊂ MA . Sei B ∈ M(E). Gilt A ∈ E, so ist B ∈ MA , wie eben gezeigt, also A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E) und somit A ∈ MB . Es ist also E ⊂ MB und daher M(E) ⊂ MB . Damit ist gezeigt: Für beliebige A, B ∈ M(E) gilt A ∩ B, A ∩ B c , Ac ∩ B ∈ M(E). Daraus folgt, daß M(E) eine Algebra und somit als monotones System eine σ-Algebra ist. (b) Sei E ein ∩-stabiles System in Ω. Da A(E) ein Dynkin-System ist, gilt D(E) ⊂ A(E). Wir zeigen, daß D(E) eine σ-Algebra ist; dann gilt also auch A(E) ⊂ D(E). Nach (11.4) genügt hierzu der Nachweis, daß D(E) ∩-stabil ist. Für A ∈ D(E) setzen wir DA := {B ∈ D(E) : B ∩ A ∈ D(E)}. Man weist leicht nach, daß DA ein Dynkin-System ist. Sei A ∈ E. Da E ∩-stabil ist, gilt E ⊂ DA , also D(E) ⊂ DA . Sei B ∈ D(E). Gilt A ∈ E, so ist B ∈ DA , wie eben gezeigt, also B ∩A ∈ D(E) und somit A ∈ DB . Es ist also E ⊂ DB und daher D(E) ⊂ DB . Damit ist gezeigt: Für beliebige A, B ∈ D(E) gilt A ∩ B ∈ D(E). 97 12 Mengenfunktionen Hauptgegenstand dieses Abschnittes ist die Einführung von Maßen. Schon die Erörterung des Volumens in der Einleitung legt nahe, daß man zur Vermeidung lästiger Ausnahmen als Wert eines Maßes auch ∞ zulassen sollte. Hierzu werden die Ordnung der reellen Zahlen und gewisse Rechenoperationen passend ausgedehnt. Die erforderlichen Definitionen wollen wir zunächst zusammenstellen. Mit R wird die Menge (und der Körper) der reellen Zahlen bezeichnet. Wir setzen R := R∪{∞, −∞}, wo ∞ und −∞ beliebige Symbole (aber keine reellen Zahlen) sind. Man definiert nun für alle x ∈ R: −∞ < x < ∞, | − ∞| = |∞| = ∞, ∞ + ∞ = ∞ + x = x + ∞ = ∞, −∞ − ∞ = −∞ + (−∞) = x − ∞ = −∞ + x = −∞, für x > 0, ∞ 0 für x = 0, x·∞=∞·x= −∞ für x < 0, für x > 0, −∞ 0 für x = 0, x · (−∞) = (−∞) · x = ∞ für x < 0. Auf die in der Maßtheorie zweckmäßige Festsetzung 0 · ∞ = 0 sei besonders hingewiesen. Sodann sei noch ∞ · ∞ = ∞, (−∞) · ∞ = ∞(−∞) = −∞, (−∞)(−∞) = ∞ gesetzt. Man beachte, daß ∞ − ∞“ nicht definiert ist. ” R mit diesen Festsetzungen wird als das erweiterte System der reellen Zahlen bezeichnet. Eine Funktion mit Werten in R wird auch numerische Funktion genannt. Limesbildungen sind im folgenden stets in R zu verstehen. Nun definieren wir die Eigenschaften von Mengenfunktionen, die für das Folgende grundlegend sind. Ω sei eine gegebene nichtleere Menge. (12.1) Def. Sei µ eine numerische Funktion auf einem System S ⊂ P(Ω). Die Funktion µ heißt additiv, wenn gilt: (a) µ nimmt höchstens einen der Werte ∞, −∞ an, S (b) für je endlich viele paarweise disjunkte Mengen A1 , . . . , An ∈ S mit ni=1 Ai ∈ S gilt ! n n [ X Ai = µ(Ai ). µ i=1 i=1 98 12 MENGENFUNKTIONEN µ heißt σ-additiv, wenn (a) gilt und S (b0 ) für jede disjunkte Folge (Ai )i∈N in S mit ∞ i=1 Ai ∈ S gilt ! ∞ ∞ [ X µ Ai = µ(Ai ). i=1 i=1 µ heißt endlich, wenn |µ(A)| < ∞ ist für alle A ∈ S. µ heißt σ-endlich, wenn eine Folge (En )n∈N in S existiert mit ∞ [ und |µ(En )| < ∞ für n ∈ N. En = Ω n=1 Erläuterung. Die Schreibweise µ ∞ [ ! Ai i=1 = ∞ X µ(Ai ) i=1 bedarf einer Interpretation. Ist µ(Ai ) ∈ R für alle i ∈ N, so ist gemeint, daß die Reihe konvergieren oder bestimmt divergieren soll; im letzteren Fall ist nach Definition ∞ X µ(Ai ) = ∞ bzw. − ∞. i=1 Gilt nicht µ(Ai ) ∈ R für alle i ∈ N, so nimmt µ(Ai ) für gewisse i auch einen der Werte ∞, −∞ an, aber nach (a) nur einen dieser Werte, etwa ∞. In diesem Fall wird X µ(Ai ) 6= −∞ i∈N µ(Ai )∈R gefordert und P i∈N µ(Ai ) := ∞ gesetzt. Die folgende Definition ist durch die Beispiele und anschließenden Betrachtungen der Einleitung motiviert und vorbereitet worden. (12.2) Def. Sei R ein Ring in Ω und µ eine numerische Funktion auf R. µ heißt Inhalt auf R, wenn gilt: µ(∅) = 0, µ(A) ≥ 0 für A ∈ R, µ ist additiv. µ heißt Maß auf R, wenn gilt: µ(∅) = 0, µ(A) ≥ 0 für A ∈ R, µ ist σ-additiv. 99 µ heißt signiertes Maß auf R, wenn gilt: µ(∅) = 0, µ ist σ-additiv. Hinweis. Manche Autoren sprechen nur dann von einem Maß, wenn der Definitionsbereich eine σ-Algebra ist, und nennen die hier als Maß“ bezeichnete ” Mengenfunktion ein Prämaß. Diese Unterscheidung erscheint uns aber unnötig. Wir treffen jedoch die folgende Vereinbarung. (12.3) Def. Ein Maßraum ist ein Tripel (Ω, A, µ), wo Ω eine nichtleere Menge, A eine σ-Algebra in Ω und µ ein Maß auf A ist. Ein Maßraum (Ω, A, µ) mit µ(Ω) = 1 heißt Wahrscheinlichkeitsraum, und µ heißt in diesem Fall ein Wahrscheinlichkeitsmaß. Beispiele (a) Sei Ω unendlich. Auf der Algebra {A ⊂ Ω : A oder Ac endlich} wird durch ( 0, wenn A endlich, µ(A) := ∞, wenn Ac endlich, ein Inhalt definiert, der im Fall einer abzählbar unendlichen Menge Ω kein Maß ist. (b) Sei Ω überabzählbar. Auf der σ-Algebra {A ⊂ Ω : A oder Ac abzählbar} wird durch ( 0, wenn A abzählbar, µ(A) := ∞, wenn Ac abzählbar, ein Maß erklärt. (c) Sei R ein beliebiger Ring in Ω. Für x ∈ Ω wird durch ( 1, wenn x ∈ A, µx := 0, wenn x ∈ /A ein Maß µx erklärt ( Punktmasse in x“). Ferner wird durch ” ( Elementzahl von A, wenn A endlich, µ(A) := ∞ sonst ein Maß, das sogenannte Zählmaß“, erklärt. ” Für verschiedentliche Anwendung notieren wir einige einfache Folgerungen aus den Axiomen. 100 12 MENGENFUNKTIONEN (12.4) Satz. Sei µ ein Inhalt auf dem Ring R. Dann gilt für A, B, Ai ∈ R (a) µ(A ∪ B) + µ(A ∩ B) = µ(A) + µ(B), (b) A ⊂ B ⇒ µ(A) ≤ µ(B), (c) A ⊂ B und µ(A) < ∞ ⇒ µ(B \ A) = µ(B) − µ(A), S P (d) µ( ni=1 Ai ) ≤ ni=1 µ(Ai ), S (e) Ist µ ein Maß und ∞ i=1 Ai ∈ R, so gilt ! ∞ ∞ [ X µ Ai ≤ µ(Ai ). i=1 i=1 Beweis. Es ist A ∪ B = A ∪ (B \ A) und B = (A ∩ B) ∪ (B \ A), also µ(A ∪ B) = µ(A) + µ(B \ A) und µ(B) = µ(A ∩ B) + µ(B \ A). Addition ergibt µ(A ∪ B) + µ(A ∩ B) + µ(B \ A) = µ(A) + µ(B) + µ(B \ A). Ist µ(B \ A) < ∞, so folgt (a). Ist µ(B \ A) = ∞, so ist auch µ(A ∪ B) = ∞ und µ(B) = ∞, also gilt (a) auch in diesem Fall. Ist A ⊂ B, so ist µ(B) = µ(A) + µ(B \ A). Wegen µ ≥ 0 folgt (b), und im Fall µ(A) < ∞ ergibt sich (c). Setze B1 := A1 , Bi := Ai \ (A1 ∪ . . . ∪ Ai−1 ) für i = 2, 3, . . . Dann gilt ! ! n n n n [ [ X X µ Ai = µ Bi = µ(Bi ) ≤ µ(Ai ) i=1 i=1 i=1 i=1 wegen Bi ∩ BS j = ∅ für i 6= j, Bi ⊂ Ai und (b); das ist die Behauptung (d). Ist µ ein Maß und ∞ i=1 Ai ∈ R, so folgt analog ! ! ∞ ∞ ∞ ∞ [ [ X X µ Ai = µ Bi = µ(Bi ) ≤ µ(Ai ). i=1 i=1 i=1 i=1 Soll man von einer nichtnegativen Mengenfunktion die σ-Additivität nachweisen, so kann es unter Umständen einfacher sein, anders formulierte, aber äquivalente Eigenschaften nachzuweisen. Zur Formulierung solcher gleichwertigen Eigenschaften sind die folgenden Bezeichnungen zweckmäßig. (12.5) Def. Sei µ eine nichtnegative numerische Funktion auf einem Ring R. Die Funktion µ heißt (a) stetig von unten, wenn für jede Folge (An )n∈N in R mit An ↑ A ∈ R gilt lim µ(An ) = µ(A), n→∞ 101 (b) stetig von oben, wenn für jede Folge (An )n∈N in R mit An ↓ A ∈ R und µ(An ) < ∞ für n ∈ N gilt lim µ(An ) = µ(A), n→∞ (c) ∅-stetig, wenn für jede Folge (An )n∈N in R mit An ↓ ∅ und µ(An ) < ∞ für n ∈ N gilt lim µ(An ) = 0. n→∞ (12.6) Satz. Für einen Inhalt µ auf einem Ring R gelten folgende Implikationen: µ ist σ-additiv ⇔ µ ist stetig von unten ⇒ µ ist stetig von oben ⇔ µ ist ∅-stetig . Ist µ endlich, so sind die angegebenen Bedingungen äquivalent. Beweis. Sei µ σ-additiv. Sei (An )n∈N eine Folge in R mit An ↑ A ∈ R. Setze Bn := An S \ An−1 für n ∈ N (mit A0 := ∅); dann ist (Bn )n∈N eine disjunkte Folge in R mit Bn = A. Daher gilt µ(A) = ∞ X µ(Bi ) = lim i=1 n→∞ n X µ(Bi ) = lim µ(An ), i=1 n→∞ also ist µ stetig von unten. S Sei µ stetig von unten. Ist (An )n∈N eine disjunkte Folge in R mit A := An ∈ R, so ist (Bn )n∈N mit Bn := A1 ∪ . . . ∪ An eine Folge in R mit Bn ↑ A, also gilt µ(A) = lim µ(Bn ) = lim n→∞ n→∞ n X n=1 µ(Ai ) = ∞ X µ(Ai ), i=1 somit ist µ σ-additiv. Sei µ stetig von unten. Sei (An )n∈N eine Folge in R mit An ↓ A und µ(An ) < ∞ für n ∈ N. Nach (12.4) (c) gilt dann µ(A1 \ An ) = µ(A1 ) − µ(An ). Wegen An ↓ A gilt A1 \ An ↑ A1 \ A und daher µ(A1 \ A) = lim µ(A1 \ An ) = µ(A1 ) − lim µ(An ), also lim µ(An ) = µ(A1 ) − µ(A1 \ A) = µ(A1 ) − [µ(A1 ) − µ(A)] = µ(A) wegen A ⊂ A1 und µ(A1 ) < ∞. Also ist µ stetig von oben. Die letzte Äquivalenz in der Behauptung von (12.6) ist trivial. 102 12 MENGENFUNKTIONEN Jetzt sei µ als endlich vorausgesetzt, und µ sei ∅-stetig. Sei (An )n∈N eine Folge in R mit An ↑ A ∈ R. Dann gilt A \ An ↓ ∅. Da µ endlich ist, folgt 0 = lim µ(A \ An ) = lim[µ(A) − µ(An )], also lim µ(An ) = µ(A). Somit ist µ stetig von unten. Satz (12.6) enthält eine Stetigkeitseigenschaft von Maßen hinsichtlich monotoner Mengenfolgen. Für nicht notwendig monotone Folgen lassen sich noch die folgenden Aussagen machen. (12.7) Satz. Sei µ ein Maß auf einer σ-Algebra A in Ω, sei (An )n∈N eine Folge in A. Dann gilt: (a) µ(lim inf An ) ≤ lim inf µ(An ), (b) µ(lim sup An ) ≥ lim sup µ(An ), falls µ endlich, (c) Ist µ endlich und existiert lim An , so gilt µ(lim An ) = lim µ(An ). Beweis. (a) Nach Definition ist lim inf Am = m→∞ ∞ [ Bn mit Bn := n=1 ∞ \ Ak für n ∈ N, k=n also Bn ∈ A und Bn ↑ lim inf m→∞ Am . Da µ nach (12.6) stetig von unten ist, gilt µ(lim inf An ) = lim µ(Bn ) = lim inf µ(Bn ) ≤ lim inf µ(An ) wegen Bn ⊂ An . (b) Nach Definition ist lim sup Am = m→∞ ∞ \ Bn mit Bn := n=1 ∞ [ Ak für n ∈ N, k=n also Bn ∈ A und Bn ↓ lim supm→∞ Am . Da µ nach (12.6) stetig von oben ist und nach Voraussetzung µ(Bn ) < ∞ gilt, folgt µ(lim sup An ) = lim µ(Bn ) = lim sup µ(Bn ) ≥ lim sup µ(An ) wegen An ⊂ Bn . 103 (c) Gilt lim inf An = lim sup An , so folgt für endliches µ aus (a) und (b): lim sup µ(An ) ≤ µ(lim sup An ) = µ(lim An ) = µ(lim inf An ) ≤ lim inf µ(An ) ≤ lim sup µ(An ), also lim inf µ(An ) = lim sup µ(An ), d.h. lim µ(An ) existiert, und es gilt lim µ(An ) = µ(lim An ). Zum Abschluß dieses Abschnitts behandeln wir einen ersten (einfachen) Fortsetzungssatz für Maße. Zunächst eine auch später wichtige Definition. (12.8) Def. Sei µ ein Maß auf der σ-Algebra A. Eine Menge N ∈ A mit µ(N ) = 0 heißt µ-Nullmenge. Wenn man bei der Bildung des Maßbegriffs davon ausgeht, daß ein Maß gewissen anschaulichen Vorstellungen entsprechen soll, wird man die folgende Aussage für plausibel halten: Jede Teilmenge einer µ-Nullmenge ist ebenfalls eine ” µ-Nullmenge“. Im allgemeinen ist diese Aussage aber sinnlos, da für eine Teilmenge einer µ-Nullmenge das Maß µ gar nicht erklärt zu sein braucht, d.h. die Teilmenge braucht nicht in der zugrundeliegenden σ-Algebra enthalten zu sein. Dieser Schönheitsfehler läßt sich aber durch eine Erweiterung der σ-Algebra und des Maßes leicht beheben, wie Satz (12.10) zeigt. (12.9) Def. Sei µ ein Maß auf dem meßbaren Raum (Ω, A). Das Maß µ und der Maßraum (Ω, A, µ) heißen vollständig, und die σ-Algebra A heißt µ-vollständig, wenn gilt: A ∈ A, µ(A) = 0, B ⊂ A ⇒ B ∈ A. (12.10) Satz und Def. Sei µ ein Maß auf dem meßbaren Raum (Ω, A). Dann ist  := {A ∪ N : A ∈ A, N ⊂ M für ein M ∈ A mit µ(M ) = 0} eine σ-Algebra, und durch µ̂(A ∪ N ) := µ(A) für A ∪ N ∈  (A und N wie oben) wird ein vollständiges Maß µ̂ definiert. Das Maß µ̂ heißt die Vervollständigung von µ, ebenso heißt der Maßraum (Ω, Â, µ̂) die Vervollständigung von (Ω, A, µ), und  heißt die µ-Vervollständigung von A. Beweis. Ω ∈  ist trivial. Sei B ∈ Â, also B = A∪N mit geeignetem A ∈ A, N ⊂ M mit M ∈ A und µ(M ) = 0. Wegen B c = Ac ∩ N c = (A ∪ M )c ∪ (M \ (A ∪ N )) und (A ∪ M )c ∈ A, M \ (A ∪ N ) ⊂ M folgt B c ∈ Â. 104 13 KONSTRUKTION UND FORTSETZUNG VON MASSEN Sei Bi ∈ Â, also Bi = Ai ∪ Ni mit Ai ∈ A, Ni ⊂ Mi ∈ A und µ(Mi ) = 0 (i ∈ N). Dann ist ! ! ∞ ∞ ∞ [ [ [ Bi = Ai ∪ Ni i=1 und ∞ [ i=1 Ai ∈ A, i=1 ∞ [ Ni ⊂ i=1 Da µ ein Maß ist, ist µ(M ) = 0. Somit ist i=1 ∞ [ Mi =: M ∈ A. i=1 S Bi ∈ Â, also ist  eine σ-Algebra. Es ist zu zeigen, daß die Definition µ̂(A ∪ N ) := µ(A) sinnvoll ist. Sei also die Menge B ∈  dargestellt in den Formen B = A1 ∪ N1 = A2 ∪ N2 mit Ai ∈ A, Ni ⊂ Mi ∈ A und µ(Mi ) = 0 (i = 1, 2). Dann gilt A1 \ (A1 ∩ A2 ) ⊂ N2 ⊂ M2 , also µ(A1 ) = µ(A1 ∩ A2 ). Analog folgt µ(A2 ) = µ(A1 ∩ A2 ), also µ(A1 ) = µ(A2 ). Die Definition µ̂(A1 ∪N1 ) := µ(A1 ) hängt also nicht von der speziellen Darstellung der Menge A1 ∪ N1 ab. Daß µ̂ ein vollständiges Maß ist, ist leicht zu sehen. 13 Konstruktion und Fortsetzung von Maßen Bisher verfügen wir noch über keine Möglichkeit, nichttriviale Beispiele von Maßen zu konstruieren. In konkreten Anwendungen steht man häufig vor dem Problem, eine gegebene Mengenfunktion mit einfach strukturiertem Definitionsbereich so fortsetzen zu sollen, daß ein Maß auf einer σ-Algebra entsteht. Typisch hierfür ist das in der Einleitung erläuterte Problem, einen möglichst weitreichenden Flächeninhaltsbegriff in der Ebene einzuführen. Zunächst war es für endliche Vereinigungen von Rechtecken klar, wie dies zu geschehen hat. Mit den Definitionen der vorigen Abschnitte können wir die Situation folgendermaßen beschreiben. Das System der endlichen Vereinigungen von (halboffenen) Rechtecken bildet einen Ring R in E 2 , und der hierauf erklärte Flächeninhalt F ist ein Inhalt im Sinne von Def. (2.2). Man möchte diesen Flächeninhalt fortsetzen auf ein umfassenderes Mengensystem, um möglichst viele Mengen ausmessen zu können. Mathematisch ergiebig wird eine solche Fortsetzung erst, wenn sie σ-additiv und ihr Definitionsbereich eine σ-Algebra ist. Die in der Einleitung erläuterte, sehr plausible Fortsetzung, die nach Eudoxos oder Jordan benannt wird, leistet dies nicht: die Vereinigung von abzählbar vielen Jordan-meßbaren Mengen braucht nicht Jordan-meßbar zu sein. Ist es möglich, F fortzusetzen zu einem Maß auf einer σ-Algebra in E 2 , die die Elementarfiguren umfaßt? Das Hauptergebnis dieses 105 Abschnitts ist ein allgemeiner Satz, aus dem sich dann in §14 in der Tat die Fortsetzbarkeit von F auf die vom Ring R der Elementarfiguren erzeugte σ-Algebra A(R) zeigen läßt. Die Grundidee dieser Fortsetzung wollen wir kurz an eben diesem Beispiel des Flächeninhalts erläutern. Bei der Eudoxos-Erweiterung approximiert man eine Menge, deren Flächeninhalt man definieren möchte, von außen und innen durch Elemente von R, für die der Flächeninhalt bereits erklärt ist. Das führt aber schon bei relativ einfachen Mengen auf Schwierigkeiten: Sei M die Menge der Punkte im Einheitsquadrat, die rationale Koordinaten haben. Für jedes Element A ∈ R mit A ⊃ M gilt F (A) ≥ 1, und für jedes Element A ∈ R mit A ⊂ M gilt F (A) = 0. Man geht deshalb bei der jetzt zu besprechenden Erweiterung so vor, daß man nur von außen approximiert. Da man aber auf σ-Additivität abzielt, läßt man Überdeckungen der fraglichen Menge M durch abzählbar viele Elemente von R zu und bildet für jede solche Überdeckung die (möglicherweise unendliche) Summe der Flächeninhalte der überdeckenden Mengen. Das Infimum aller so erreichbaren Summen kann man der Menge M als verallgemeinerten Inhalt“ ” zuordnen. Wenn ∞ als Wert mit zugelassen wird, wird auf diese Weise sogar jeder Menge aus P(E 2 ) ein verallgemeinerter Inhalt zugeordnet. Dieser ist allerdings nicht σ-additiv, sondern nur σ-subadditiv, d.h. es gilt statt der Gleichung, die die σ-Additivität ausdrücken würde, nur eine Ungleichung. Um weiterzukommen, bedurfte es eines genialen Einfalls, und diesen hatte C. Carathéodory. Man kann nämlich durch eine einfache, aber wirkungsvolle Meßbarkeitsdefinition ein den Ring R umfassendes Teilsystem von P(E 2 ) aussondern, das sich als σ-Algebra erweist und auf dem der verallgemeinerte Inhalt ein Maß ist. Dieses Fortsetzungsverfahren von Carathéodory läßt sich in sehr allgemeiner Weise durchführen, und es liefert dann nichttriviale und nützliche Beispiele von Maßen auf σ-Algebren. Die σ-subadditiven Mengenfunktionen, die bei dieser Methode zunächst auftreten, nennt man äußere Maße“, und diese müssen wir zunächst studieren. ” (13.1) Def. Ein äußeres Maß auf der Menge Ω ist eine numerische Funktion µ∗ auf der Potenzmenge P(Ω) mit folgenden Eigenschaften: (a) µ∗ (∅) = 0, (b) A, B ∈ P(Ω), A ⊂ B ⇒ µ∗ (A) ≤ µ∗ (B) (Monotonie), (c) für jede Folge (An )n∈N in P(Ω) gilt ! ∞ ∞ [ X ∗ An ≤ µ∗ (An ) µ n=1 (σ-Subadditivität). Aus (a) und (b) folgt µ∗ ≥ 0. n=1 106 13 KONSTRUKTION UND FORTSETZUNG VON MASSEN Beispiele. (a) µ∗ (∅) = 0, µ∗ (A) = 1 sonst; (b) µ∗ (A) = 0, wenn A abzählbar ist, ∞ sonst. Ein äußeres Maß ist im allgemeinen nicht einmal additiv, also sicher kein Maß. Die Nützlichkeit der äußeren Maße beruht darauf, daß sich durch Einschränkung auf ein geeignetes Teilsystem von P(Ω) ein Maß ergibt. Dieses Teilsystem wird unter Verwendung des folgenden Begriffes definiert. (13.2) Def. Sei µ∗ ein äußeres Maß auf der Menge Ω. Eine Menge A ⊂ Ω heißt µ∗ -meßbar, wenn für jede Menge M ⊂ Ω gilt µ∗ (M ) = µ∗ (M ∩ A) + µ∗ (M ∩ Ac ). Bemerkung. A ⊂ Ω ist bereits dann µ∗ -meßbar, wenn nur gefordert wird, daß für alle M ⊂ Ω µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ) gilt. Die entgegengesetzte Ungleichung gilt nämlich stets wegen (13.1)(c). Die µ∗ -meßbaren Teilmengen sind also dadurch charakterisiert, daß sie jede andere Menge hinsichtlich µ∗ additiv aufspalten“. Die Einführung dieser zunächst ” vielleicht eigenartig erscheinenden Begriffsbildung wird gerechtfertigt durch den folgenden Satz. (13.3) Satz. Sei µ∗ ein äußeres Maß auf der Menge Ω. Das System A∗ aller µ∗ -meßbaren Teilmengen von Ω ist eine σ-Algebra in Ω, und die Einschränkung µ∗ |A∗ ist ein vollständiges Maß. Beweis. Trivialerweise ist Ω ∈ A∗ , und mit A ∈ A∗ ist auch Ac ∈ A∗ . Seien nun zunächst A, B ∈ A. Für M ⊂ Ω gilt µ∗ (M ) = µ∗ (M ∩ A) + µ∗ (M ∩ Ac ), da A ∈ A∗ , µ∗ (M ∩ A) = µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c ), da B ∈ A∗ , µ∗ (M ∩ Ac ) = µ∗ (M ∩ Ac ∩ B) + µ∗ (M ∩ Ac ∩ B c ), da B ∈ A∗ . Einsetzen der beiden letzten Gleichungen in die erste ergibt µ∗ (M ) = µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c ) +µ∗ (M ∩ Ac ∩ B) + µ∗ (M ∩ Ac ∩ B c ). Hier ersetzen wir M durch M ∩ (A ∪ B) und erhalten µ∗ (M ∩ (A ∪ B)) = µ∗ (M ∩ A ∩ B) + µ∗ (M ∩ A ∩ B c ) + µ∗ (M ∩ Ac ∩ B). (7) 107 Einsetzen in die vorhergehende Gleichung ergibt µ∗ (M ) = µ∗ (M ∩ (A ∪ B)) + µ∗ (M ∩ (A ∪ B)c ), also A ∪ B ∈ A∗ . Somit ist A∗ eine Algebra. Zum Nachweis, S daß A∗ eine σ-Algebra ist, sei zunächst (An )n∈N eine disjunkte Folge in A∗ , sei An =: A. Sei M ⊂ Ω. Die Gleichung (7) ergibt wegen A1 ∩A2 = ∅ µ∗ (M ∩ (A1 ∪ A2 )) = µ∗ (M ∩ A1 ) + µ∗ (M ∩ A2 ). Durch vollständige Induktion zeigt man für n ∈ N ! n n [ X ∗ µ M∩ Ai = µ∗ (M ∩ Ai ). i=1 Zur Abkürzung sei also Sn i=1 i=1 Ai =: Bn gesetzt. Da A∗ eine Algebra ist, gilt Bn ∈ A∗ , µ∗ (M ) = µ∗ (M ∩ Bn ) + µ∗ (M ∩ Bnc ) n X ≥ µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac ) i=1 wegen Bn ⊂ A und (13.1)(b). Da dies für alle n ∈ N gilt, folgt ∞ X µ∗ (M ) ≥ µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac ) (8) i=1 ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ) nach (13.1)(c). Daraus folgt A ∈ A∗ . Ist nun (An )n∈N eine beliebige Folge in A∗ , so können wir Cn := An \ (A1 ∪ . . . ∪ An−1 ) S S setzen; dann ist (Cn )n∈N eine disjunkte Folge in A∗ mit Cn = An . Es folgt S An ∈ A∗ . Somit ist A∗ eine σ-Algebra. S Nun sei wieder (An )n∈N eine disjunkte Folge in A∗ , sei An =: A. Da in (8) das Gleichheitszeichen gilt, ist ∞ X µ∗ (M ∩ Ai ) + µ∗ (M ∩ Ac ) = µ∗ (M ). i=1 Speziell für M = A ergibt sich ∞ X i=1 µ∗ (Ai ) = µ∗ (A), 108 13 KONSTRUKTION UND FORTSETZUNG VON MASSEN also ist die Einschränkung µ∗ |A∗ σ-additiv und somit ein Maß. Sei A ⊂ Ω und µ∗ (A) = 0. Sei M ⊂ Ω. Wegen M ∩ A ⊂ A und (13.1)(b) gilt µ∗ (M ∩ A) = 0, deshalb und wegen M ∩ Ac ⊂ M gilt µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ), also A ∈ A∗ . Jede Menge A mit µ∗ (A) = 0 ist also µ∗ -meßbar. Hieraus folgt insbesondere die Vollständigkeit von µ∗ |A∗ . Satz (13.3) zeigt, wie man von einem äußeren Maß zu einem Maß gelangt. Es fragt sich, wie man überhaupt nichttriviale Beispiele für äußere Maße bekommt. Eine solche Konstruktion hatten wir am Anfang dieses Abschnittes heuristisch erläutert. Sie läßt sich in sehr allgemeiner Form durchführen, wie der folgende Satz zeigt. (13.4) Satz und Def. Sei ∅ ∈ C ⊂ P(Ω) und τ eine nichtnegative numerische Funktion auf C mit τ (∅) = 0. Wird ) (∞ ∞ [ X Cn τ ∗ (M ) := inf τ (Cn ) : (Cn )n∈N Folge in C mit M ⊂ n=1 n=1 für M ⊂ Ω gesetzt, falls es Folgen der verlangten Art gibt, und andernfalls τ ∗ (M ) := ∞, so ist τ ∗ ein äußeres Maß auf Ω. Es heißt das durch (C, τ ) induzierte äußere Maß. Beweis. Direkt aus der Definition folgen die Eigenschaften (13.1)(a) (beachte ∅ ∈ C und τ (∅) = 0) und (b). Zum Nachweis von (c) sei (An )n∈N eine Folge in P(Ω). O.B.d.A. sei τ ∗ (An ) < ∞ für n ∈ N (andernfalls ist nichts zu beweisen). Sei ∈ R+ . Für n ∈ N existiert nach Definition von τ ∗ eine Folge (Cni )i∈N in C mit ∞ ∞ [ X An ⊂ Cni und τ (Cni ) ≤ τ ∗ (An ) + n . 2 i=1 i=1 Wegen [ n∈N und ∞ X ∞ X [[ An ⊂ Cni n∈N i∈N τ (Cni ) ≤ n=1 i=1 ∞ X τ ∗ (An ) + n=1 ∞ X 1 2n n=1 folgt τ ∗ ∞ [ n=1 ! An ≤ ∞ X n=1 τ ∗ (An ) + . 109 Da ∈ R+ beliebig war, folgt (c). Wir beweisen zunächst einen Zusatz zu Satz (13.4), der später nützlich sein wird, um die Struktur der τ ∗ -meßbaren Teilmengen genauer zu beschreiben. Zu einem Mengensystem C bezeichnen wir mit Cσδ das System aller Mengen der Form ∞ [ ∞ \ Cnm n=1 m=1 mit Cnm ∈ C. (13.5) Satz. Sei (C, τ ) wie in (13.4) und τ ∗ das durch (C, τ ) induzierte äußere Maß auf Ω. Dann gibt es zu jeder Menge M ⊂ Ω mit τ ∗ (M ) < ∞ eine Menge C ∈ Cσδ mit M ⊂ C und τ ∗ (M ) = τ ∗ (C). Beweis. Sei M ⊂ Ω und τ ∗ (M ) < ∞. Zu jedem n ∈ N gibt es in C eine Folge (Cni )i∈N mit M⊂ ∞ [ Cni =: Cn ∞ X und i=1 τ (Cni ) ≤ τ ∗ (M ) + i=1 Es gilt ∗ τ (Cn ) ≤ ∞ X τ (Cni ) ≤ τ ∗ (M ) + i=1 Setze C := ∞ \ 1 . n 1 . n Cn , n=1 dann ist C ∈ Cσδ und M ⊂ C, also τ ∗ (M ) ≤ τ ∗ (C). Andererseits ist τ ∗ (C) ≤ τ ∗ (Cn ) ≤ τ ∗ (M ) + 1 n für alle n ∈ N und daher τ ∗ (C) ≤ τ ∗ (M ). Da das System C und die Funktion τ in Satz (13.4) weitgehend willkürlich sind, haben wir eine große Vielfalt von Möglichkeiten, äußere Maße auf einer Menge Ω zu konstruieren, und jedes solche äußere Maß liefert nach Satz (13.3) ein Maß auf einer σ-Algebra A in Ω. Allerdings ist zu diesem Zeitpunkt noch nicht klar, wie groß überhaupt die σ-Algebra A der µ∗ -meßbaren Teilmengen ist. Es ist nicht ausgeschlossen, daß A nur die Mengen ∅ und Ω enthält. Nützlich wird das 110 13 KONSTRUKTION UND FORTSETZUNG VON MASSEN Konstruktionsprinzip für Maße, das durch die Sätze (13.3) und (13.4) gegeben ist, also nur in solchen Situationen sein, in denen weitere Informationen über C und τ zur Verfügung stehen. Eine erste wichtige Anwendung ist der folgende Satz. (13.6) Satz (Maßerweiterungssatz). Jedes Maß µ auf einem Ring R in Ω läßt sich fortsetzen zu einem Maß auf der von R in Ω erzeugten σ-Algebra. Genauer: Ist µ∗ das durch (R, µ) auf Ω induzierte äußere Maß und A∗ die σAlgebra der µ∗ -meßbaren Teilmengen, so gilt A(R) ⊂ A∗ und µ∗ |R = µ. Beweis. Sei µ∗ das durch (R, µ) induzierte äußere Maß auf Ω. Wir zeigen, daß R in der σ-Algebra A∗ aller µ∗ -meßbaren Teilmengen von Ω enthalten ist. Sei also A ∈ R. Wir müssen zeigen, daß A eine µ∗ -meßbare Menge ist, also µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ) für alle M ⊂ Ω erfüllt. Ist µ∗ (M ) = ∞, soSist nichts zu zeigen. Sei also µ∗ (M ) < ∞. Sei (Bn )n∈N eine Folge in R mit M ⊂ Bn . Wegen der Additivität von µ gilt ∞ X µ(Bn ) = n=1 ∞ X µ(Bn ∩ A) + n=1 Wegen M ∩A⊂ ∞ [ ∞ X µ(Bn ∩ Ac ). n=1 (Bn ∩ A), c M ∩A ⊂ ∞ [ (Bn ∩ Ac ) n=1 n=1 und Bn ∩ A ∈ R, folgt ∞ X Bn ∩ Ac ∈ R µ(Bn ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ). n=1 Da dies für jede bei der Definition von µ∗ (M ) zulässige Folge (Bn )n∈N gilt, folgt µ∗ (M ) ≥ µ∗ (M ∩ A) + µ∗ (M ∩ Ac ). Damit ist A ∈ A∗ gezeigt. Wegen R ⊂ A∗ gilt auch A(R) ⊂ A∗ . Die Einschränkung µ∗ |A∗ ist nach (13.3) ein Maß, daher ist auch die Einschränkung µ∗ |A(R) ein Maß. [Bis hier wurde nur endliche Additivität von µ benutzt.] ∗ Es bleibt zu zeigen, daß µ∗ |R = µ ist. Sei A ∈ R. Nach der Definition S von µ gilt ∗ µ (A) ≤ µ(A). Ist andererseits (Bn )n∈N eine Folge in R mit A ⊂ n∈N Bn , so gilt nach (2.4)(e) (angewendet mit Ai := A ∩ Bi ) µ(A) ≤ ∞ X i=1 µ(A ∩ Bi ) ≤ ∞ X i=1 µ(Bi ); 111 daraus folgt µ(A) ≤ µ∗ (A). Also ist µ(A) = µ∗ (A) für A ∈ R. Beim Beweis des vorstehenden Maßerweiterungssatzes fällt auf, daß wir erst ein Maß auf der σ-Algebra A∗ der µ∗ -meßbaren Teilmengen erhalten und dieses dann auf die von R erzeugte σ-Algebra A(R) eingeschränkt haben. Es fragt sich, was diese beiden σ-Algebren miteinander zu tun haben. Falls das Ausgangsmaß µ auf R σ-endlich ist, läßt sich diese Frage beantworten: A∗ ist einfach die µ∗ Vervollständigung von A(R). Im σ-endlichen Fall ist es darüber hinaus möglich, die Struktur der µ∗ -meßbaren Teilmengen genauer zu beschreiben. (13.7) Satz. Seien µ ein σ-endliches Maß auf dem Ring R in Ω, µ∗ das durch (R, µ) auf Ω induzierte äußere Maß und A∗ die σ-Algebra der µ∗ -meßbaren Teilmengen. Dann ist jede Menge M ∈ A∗ von der Form M = A \ B mit A ∈ Rσδ , B ∈ A∗ und µ∗ (B) = 0. Insbesondere ist das Maß µ∗ |A∗ die Vervollständigung des Maßes µ∗ |A(R). S Beweis. Nach Voraussetzung gibt es in R eine Folge (Ei )i∈N mit Ω = i∈N Ei und µ(Ei ) < ∞ für i ∈ N. Sei M ∈ A∗ . Zu i ∈ N und n ∈ N gibt es in R eine Folge (Anij )j∈N mit ∞ [ M ∩ Ei ⊂ Anij =: Ani j=1 und µ∗ (Ani ) ≤ µ∗ (M ∩ Ei ) + 1 . n2i (vgl. Beweis von Satz (13.5)). Setze An := ∞ [ Ani . i=1 Dann gilt M ⊂ An und An \ M ⊂ ∗ µ (An \ M ) ≤ ∞ X S∞ i=1 (Ani \ (M ∩ Ei )), also µ∗ (Ani \ (M ∩ Ei )) i=1 = ∞ X [µ∗ (Ani ) − µ∗ (M ∩ Ei )] i=1 ∞ X 1 1 = . ≤ i n2 n i=1 da Ani , M, Ei ∈ A∗ und µ∗ (M ∩ Ei ) ≤ µ∗ (Ei ) = µ(Ei ) < ∞ 112 13 KONSTRUKTION UND FORTSETZUNG VON MASSEN T Setze A := ∞ n=1 An . Dann gilt M ⊂ A und A ∈ Rσδ . Für jedes n ∈ N gilt A \ M ⊂ An \ M , also µ∗ (A \ M ) ≤ µ∗ (An \ M ) ≤ 1 n und daher µ∗ (A \ M ) = 0. Die Menge B := A \ M leistet also das Gewünschte. Sei nun (Ω, Â, µ̂) die Vervollständigung des Maßraums (Ω, A(R), µ∗ |A(R)). Da µ∗ |A∗ nach Satz (13.3) vollständig ist, gilt  ⊂ A∗ und µ̂ = µ∗ |Â. Andererseits gibt es für M ∈ A∗ eine Darstellung M = A \ B mit A ∈ Rσδ ⊂ A(R) und µ∗ (B) = 0. Nach Satz (13.5) gibt es eine Menge C ∈ Rσδ ⊂ A(R) mit B ⊂ C und µ∗ (C) = µ∗ (B) = 0. Es folgt B ∈  und somit M ∈ Â. Es ist also A∗ =  und daher (Ω, A∗ , µ∗ |A∗ ) = (Ω, Â, µ̂). Nach dem Maßerweiterungssatz (13.6) läßt sich jedes Maß µ auf einem Ring R fortsetzen zu einem Maß auf der von R erzeugten σ-Algebra. Diese Fortsetzung ist im allgemeinen nicht eindeutig bestimmt, wie das folgende Beispiel zeigt. Sei Ω eine überabzählbare Menge, sei R := {A ⊂ Ω : A abzählbar}, A := {A ⊂ Ω : A oder Ac abzählbar}, µ1 (A) := 0 für A ∈ A, ( 0, wenn A abzählbar, µ2 (A) := ∞, wenn Ac abzählbar. A∈A Dann ist R ein Ring, A die von R erzeugte σ-Algebra, µ1 und µ2 sind verschiedene Maße auf A mit µ1 |R = µ2 |R. Für σ-endliche Maße ist die Fortsetzung jedoch eindeutig bestimmt. Dies ergibt sich aus dem folgenden allgemeineren Eindeutigkeitssatz für Maße, der von selbständigem Interesse ist. Er zeigt insbesondere, daß ein endliches Maß durch seine Werte auf einem ∩-stabilen Erzeugendensystem der zugrundeliegenden σAlgebra eindeutig bestimmt ist. (13.8) Satz. Seien µ1 , µ2 Maße auf dem meßbaren Raum (Ω, A), sei E ein ∩stabiles Erzeugendensystem von A. Es gebe eine Folge (En )n∈N in E mit En ↑ Ω und µi (En ) < ∞ für n ∈ N und i = 1, 2. Gilt µ1 (E) = µ2 (E) dann ist µ1 = µ2 . für alle E ∈ E, 113 Beweis. Sei E ∈ E eine Menge mit µ1 (E) = µ2 (E) < ∞. Setze DE := {A ∈ A : µ1 (A ∩ E) = µ2 (A ∩ E)}. Da E ∩-stabil ist, gilt E ⊂ DE . Wir zeigen, daß DE ein Dynkin-System ist. Trivialerweise gilt Ω ∈ DE . Sei A, B ∈ DE und A ⊂ B. Dann ist µ1 ((B \ A) ∩ E) = µ1 ((B ∩ E) \ (A ∩ E)) = µ1 (B ∩ E) − µ1 (A ∩ E) nach (2.4) (c) = µ2 (B ∩ E) − µ2 (A ∩ E) = µ2 ((B \ A) ∩ E), also B \ A ∈ DE . Sei (An )n∈N eine disjunkte Folge in DE . Dann ist ! ! [ X X [ µ1 An ∩ E = µ1 (An ∩ E) = µ2 (An ∩ E) = µ2 An ∩ E , n∈N also S n∈N n∈N n∈N n∈N An ∈ DE . Somit ist DE ein Dynkin-System. Nach Satz (1.7)(b) ist jetzt A = A(E) = D(E) ⊂ DE , also gilt µ1 (A ∩ E) = µ2 (A ∩ E) für alle A ∈ A. Dies gilt insbesondere für E = En und n ∈ N, wenn (En )n∈N die im Satz vorausgesetzte Folge ist. Für beliebiges A ∈ A folgt daher wegen A ∩ En ↑ A und Satz (2.6) µ1 (A) = lim µ1 (A ∩ En ) = lim µ2 (A ∩ En ) = µ2 (A). n→∞ n→∞ Jetzt können wir den Maßerweiterungssatz durch eine Eindeutigkeitsaussage ergänzen: (13.9) Satz. Sei µ ein σ-endliches Maß auf dem Ring R in Ω. Dann ist die Fortsetzung von µ zu einem Maß auf A(R) eindeutig bestimmt. Beweis. Dies folgt aus Satz (13.8), wenn man E = R wählt. Da das S Maß µ als σ-endlich vorausgesetzt ist, gibt es in R eine Folge (An )n∈N mit n∈N An = Ω und µ(An ) < ∞. Man setze dann En := A1 ∪ . . . ∪ An . 14 Spezielle Maße Die allgemeinen Konstruktions- und Fortsetzungsprinzipien aus §13 sollen nun verwendet werden, um einige in den Anwendungen wichtige konkrete Maße einzuführen. Vor allem sind wir jetzt in der Lage, entsprechend den als Ausgangspunkt dienenden heuristischen Erläuterungen das elementare Volumen zu einem 114 14 SPEZIELLE MASSE Maß fortzusetzen. Wir erhalten so erneut das bereits aus Analysis II bekannte Lebesguesche Maß. Dieser andere Zugang wird aber trotzdem in allen Einzelheiten ausgeführt; er liefert uns auch zusätzliche Informationen über das Lebesguesche Maß. Das Lebesguesche Maß Anders als früher bezeichnen wir Elemente des Rn jetzt mit kleinen Buchstaben. Auf Rn führen wir (zur Vereinfachung der Schreibweise) die Relationen ≤, < ein durch a ≤ b : ⇔ αi ≤ βi für i = 1, . . . , n a < b : ⇔ αi < βi für i = 1, . . . , n für a = (α1 , . . . , αn ), b = (β1 , . . . , βn ) ∈ Rn . Für a, b ∈ Rn setzen wir [a, b) := {x ∈ Rn : a ≤ x < b} und nennen [a, b) ein nach rechts halboffenes Intervall, kurz ein Intervall. (14.1) Satz und Def. Die Menge F n aller endlichen Vereinigungen von Intervallen in Rn ist ein Ring. Seine Elemente heißen (n-dimensionale) elementare Figuren. Jede elementare Figur ist als endliche disjunkte Vereinigung von Intervallen darstellbar. Beweis. Trivialerweise gilt ∅ ∈ F n und mit A, B ∈ F n auch A ∪ B ∈ F n . Seien A = [a, b), B = [c, d) zwei halboffene Intervalle. Mit x = (ξ1 , . . . , ξn ), c = (γ1 , . . . , γn ) u.s.w. gilt A\B = n [ {x ∈ Rn : a ≤ x < b, γi ≤ ξi < δi (i = 1, . . . , k − 1), ξk < γk } k=1 ∪ n [ {x ∈ Rn : a ≤ x < b, γi ≤ ξi < δi (i = 1, . . . , k − 1), δk ≤ ξk }, k=1 womit A\B als (sogar disjunkte) endliche Vereinigung von Intervallen dargestellt ist. Seien A, B ∈ F n . Dann gibt es Darstellungen A = ∪Ai , B = ∪Bj mit endlich S vielen Intervallen Ai , Bj . Aus A ∩ B = i,j (Ai ∩ Bj ) folgt A ∩ B ∈ F n , da Ai ∩ Bj ein Intervall ist. Ferner gilt [\ A\B = (Ai \ Bj ). i j 115 Wie oben gezeigt, gilt Ai \ Bj ∈ F n , also auch A \ B ∈ F n . Somit ist F n ein Ring. T j (Ai \ Bj ) ∈ F n und daher Es bleibt zu zeigen, daß jede elementareSFigur als disjunkte endliche Vereinigung von Intervallen darstellbar ist. Sei A = i Ai ∈ F n mit endlich vielen Intervallen A1 , . . . , Am . Dann ist A= m [ [Ak \ (A1 ∪ . . . ∪ Ak−1 )], k=1 wo rechts eine disjunkte Vereinigung steht, und Ak \ (A1 ∪ . . . ∪ Ak−1 ) = k−1 \ (Ak \ Ai ) i=1 ist als disjunkte Vereinigung von Intervallen schreibbar, da dies für jedes Ak \ Ai zutrifft. (14.2) Satz und Def. Sei B n die vom Ring F n der elementaren Figuren in Rn erzeugte σ-Algebra. B n ist zugleich die vom System der offenen Mengen des Rn erzeugte σ-Algebra. Die Elemente von B n heißen Borelmengen des Rn . Beweis. Sei On das System der offenen Mengen des Rn . Für a, b ∈ Rn sei (a, b) := {x ∈ Rn : a < x < b}. Dann gilt mit e := (1, . . . , 1) ∈ Rn ∞ \ 1 [a, b) = a − e, b ∈ A(On ), k k=1 also B n = A(F n ) ⊂ A(On ). Für jede offene Menge M ∈ On gilt [ M= {[a, b) : [a, b) ⊂ M ; a, b rational} , wobei a = (α1 , . . . , αn ) rational heißt, wenn α1 , . . . , αn rationale Zahlen sind. Da rechts eine abzählbare Vereinigung steht, ist M ∈ B n . Es folgt A(On ) ⊂ Bn . Auf F n erklären wir nun den elementaren Inhalt. (14.3) Satz und Def. Für a = (α1 , . . . , αn ), b = (β1 , . . . , βn ) ∈ Rn mit a < b ist das Volumen des Intervalls [a, b) erklärt durch λ([a, b)) := (β1 − α1 ) · · · (βn − αn ). Ist A ∈ F n eine elementare Figur, so sei λ(A) := k X j=1 λ(Aj ) 116 14 SPEZIELLE MASSE S gesetzt, wenn A = kj=1 Aj ist und A1 , . . . , Ak paarweise disjunkte Intervalle sind; ferner sei λ(∅) := 0. Dadurch wird ein Maß λ auf dem Ring F n erklärt. Beweis. Zunächst ist zu zeigen, daß die Definition von λ auf F n sinnvoll ist. Für γ ∈ R und i ∈ {1, . . . , n} sei Hi− (γ) := {x = (ξ1 , . . . , ξn ) ∈ Rn : ξi < γ}, Hi+ (γ) := {x = (ξ1 , . . . , ξn ) ∈ Rn : γ ≤ ξi } gesetzt. Für ein Intervall [a, b) gilt dann λ([a, b)) = λ([a, b) ∩ Hi− (γ)) + λ([a, b) ∩ Hi+ (γ)). (9) O.B.d.A. sei nämlich αi < γ < βi , dann ist λ([a, b) ∩ Hi− (γ)) = (β1 − α1 ) · · · (γ − αi ) · · · (βn − αn ), und eine analoge Darstellung für λ([a, b)∩Hi+ (γ)) gibt nach Addition das Ergebnis (9). S Sei A ein Intervall und A = kj=1 Aj mit nichtleeren, paarweise disjunkten Intervallen A1 , . . . , Ak . Wir behaupten, daß λ(A) = k X λ(Aj ) j=1 gilt, und beweisen dies durch Induktion nach k. Für k = 1 ist nichts zu zeigen. Sei k ≥ 2 und die Behauptung bereits bewiesen für alle Darstellungen von Intervallen in der angegebenen Art mit weniger als k nichtleeren Teilintervallen. Sei Aj = [aj , bj ) für j = 1, . . . , k. Wegen A1 ∩ A2 = ∅ existiert ein i ∈ {1, . . . , n} mit βi1 ≤ αi2 oder βi2 ≤ αi1 . Sei etwa βi1 ≤ αi2 , und sei H ± := Hi± (βi1 ) gesetzt. Dann gilt [a1 , b1 ) ∩ H + = ∅ und [a2 , b2 ) ∩ H − = ∅, also Aj ∩ H + 6= ∅ höchstens für k − 1 Indizes j ∈ {1, . . . , k}, analog Aj ∩ H − 6= ∅ höchstens für k − 1 Indizes. Nach Induktionsannahme und der Gleichung (9) ist daher λ(A) = λ(A ∩ H − ) + λ(A ∩ H + ) ! ! [ [ = λ (Aj ∩ H − ) + λ (Aj ∩ H + ) j = X j λ(Aj ∩ H − ) + j X j λ(Aj ∩ H + ) = X j λ(Aj ). 117 Damit ist der Induktionsbeweis beendet. S Nun sei A ∈ F n beliebig. Nach Satz (14.1) gibt es eine Darstellung A = ki=1 Ai mit paarweise disjunkten Intervallen Ai . Zum Nachweis, daß die Definition λ(A) := k X λ(Ai ) i=1 sinnvoll ist, also nicht von S der speziellen Darstellung abhängt, nehmen wir eine zweite Darstellung A = m j=1 Bj mit disjunkten Intervallen Bj an. Es gilt Ai = [ (Ai ∩ Bj ), Bj = [ j (Ai ∩ Bj ), i also ergibt sich unter Verwendung des vorher Bewiesenen ! X X X λ(Ai ) = λ(Ai ∩ Bj ) i i j ! = X X j λ(Ai ∩ Bj ) = X i λ(Bj ). j Die Definition von λ(A) ist also sinnvoll. Daß λ ein (endlicher) Inhalt auf F n ist, ist klar. Es bleibt zu zeigen, daß λ ein Maß ist. Sei (Ai )i∈N eine disjunkte Folge in F n mit S n i∈N Ai =: A ∈ F . Nach Satz (12.4)(b) gilt λ(A) ≥ λ k [ ! Ai i=1 für k ∈ N, also ist λ(A) ≥ = k X λ(Ai ) i=1 ∞ X λ(Ai ). i=1 Folgende Hilfsbehauptung ist leicht zu zeigen. Zu C ∈ F n und > 0 gibt es B1 , B2 ∈ F n mit B 1 ⊂ C ⊂ B2o und λ(B2 ) − < λ(C) < λ(B1 ) + , wo − und o die abgeschlossene Hülle bzw. den offenen Kern bezeichnen. Diese Behauptung ist klar, wenn C ein Intervall ist, und sie läßt sich leicht auf elementare Figuren ausdehnen. 118 14 SPEZIELLE MASSE Nun sei > 0 vorgegeben. Es gibt ein B ∈ F n mit B ⊂ A und λ(A) < λ(B) + ; ferner gibt es zu jedem i ∈ N ein Bi ∈ F n mit Ai ⊂ Bio und λ(Bi ) − 2−i < λ(Ai ). Das System {Bio : i ∈ N} ist eine offene Überdeckung der abgeschlossenen, beschränkten Menge B. Nach dem Überdeckungssatz von Heine-Borel existiert eine Zahl k mit k k [ [ o Bi ⊂ Bi . B⊂B⊂ i=1 i=1 Nach Satz (12.4) folgt λ(B) ≤ λ k [ ! Bi i=1 also λ(A) − < k X i=1 ≤ k X λ(Bi ), i=1 k ∞ X X λ(Ai ) + < λ(Ai ) + . 2i i=1 i=1 Da > 0 beliebig war, folgt λ(A) ≤ ∞ X λ(Ai ) i=1 und damit die σ-Additivität von λ. Wir haben also jetzt ein Maß auf einem Ring und können somit den Maßerweiterungssatz (13.6) anwenden. Dementsprechend bilden wir das von (F n , λ) auf Rn induzierte äußere Maß λ∗ und die σ-Algebra Ln der λ∗ -meßbaren Teilmengen. Nach Satz (13.6) ist die von F n erzeugte σ-Algebra B n der Borelmengen enthalten in Ln , und λ∗ stimmt auf F n mit dem Volumen λ überein. Es ist üblich, auch das Maß λ∗ |Ln mit λ zu bezeichnen. (14.4) Def. Sei λ das in Def. (14.3) erklärte elementare Volumen auf dem Ring F n der elementaren Figuren. Das durch (F n , λ) induzierte äußere Maß λ∗ auf Rn heißt das (n-dimensionale) äußere Lebesguesche Maß. Die λ∗ -meßbaren Teilmengen von Rn heißen Lebesgue-meßbar. Die (ebenfalls mit λ bezeichnete) Einschränkung von λ∗ auf die σ-Algebra Ln der Lebesgue-meßbaren Teilmengen heißt (n-dimensionales) Lebesguesches Maß. Das elementare Volumen λ auf F n ist offenbar σ-endlich. Nach Satz (13.7) ist daher λ auf Ln die Vervollständigung der Einschränkung λ|Bn . Jede Lebesguemeßbare Menge M ist also von der Form B ∪ N , wo B eine Borelmenge und N eine Menge mit λ∗ (N ) = 0, also eine Lebesgue-meßbare Menge mit λ(N ) = 0 (eine Lebesgue-Nullmenge) ist. Diese Aussage wird in Satz (14.7) verschärft. Nach Satz (13.9) ist λ|B n die einzige Fortsetzung des elementaren Volumens zu einem 119 Maß auf den Borelmengen, und das Lebesgue-Maß ist daher auch die einzige Fortsetzung zu einem vollständigen Maß auf den Lebesgue-meßbaren Mengen. Der hier vorkommende wichtige Begriff der Lebesgue-Nullmenge (meist kurz Nullmenge“) soll noch einmal besonders herausgestellt werden: ” (14.5) Satz und Def. Für eine Menge M ⊂ Rn sind die folgenden Aussagen äquivalent: (a) Zu jedemP > 0 existiert eine Folge (Ri )i∈N von Intervallen in Rn mit M ⊂ S i∈N Ri und i∈N λ(Ri ) < , (b) λ∗ (M ) = 0, (c) M ist Lebesgue-meßbar und λ(M ) = 0. Eine Menge M mit dieser Eigenschaft heißt Lebesgue-Nullmenge. Was hier behauptet wird, ist schon alles bekannt: (a) ⇔ (b) folgt aus der Definition des induzierten äußeren Maßes, und in Satz (13.3) wurde gezeigt, daß jede Menge M mit λ∗ (M ) = 0 auch λ∗ -meßbar ist; aus (b) folgt also (c). Die Implikation (c) ⇒ (b) ist klar. Obwohl Lebesgue-meßbare Mengen recht kompliziert sein können, sind die Werte des Lebesgue-Maßes schon bestimmt durch die Werte auf topologisch einfachen Mengen, nämlich offenen oder kompakten Mengen. Der folgende Satz bringt die sogenannte Regularität des Lebesgue-Maßes zum Ausdruck. (14.6) Satz. Für jede Lebesgue-meßbare Menge A ∈ Ln gilt (a) λ(A) = inf{λ(U ) : A ⊂ U, U offen}, (b) λ(A) = sup{λ(K) : K ⊂ A, K kompakt}. Beweis. (a) Im Fall λ(A) = ∞ ist nichts zu zeigen, sei also λ(A) < ∞. Trivialerweise ist λ(A) ≤ inf{λ(U ) : A ⊂ U, U offen}. Sei > 0. Nach Definition des Lebesgue-Maßes existiert eine Folge (Fj )j∈N von elementaren Figuren mit [ X A⊂ Fj und λ(Fj ) < λ(A) + . j∈N j∈N Jedes Fj ist disjunkte Vereinigung von endlich vielen Intervallen. Wir können jedes dieser Intervalle in ein offenes Intervall einschließen derart, daß für die erhaltene Folge (Ri )i∈N der offenen Intervalle [ X A⊂ Ri und λ(Ri ) < λ(A) + 2 i∈N i∈N 120 14 SPEZIELLE MASSE gilt. Setze U := S i∈N Ri . Dann ist U offen, A ⊂ U und λ(U ) ≤ X λ(Ri ) < λ(A) + 2. i∈N Da > 0 beliebig war, folgt (a). (b) Zunächst sei A beschränkt. Sei C eine kompakte Menge mit A ⊂ C. Sei > 0. Nach (a) existiert eine offene Menge U mit C \A⊂U und λ(U ) < λ(C \ A) + = λ(C) − λ(A) + . Setze K := C \ U . Dann ist K kompakt, K ⊂ A, und es gilt λ(K) = λ(C) − λ(U ∩ C) ≥ λ(C) − λ(U ) > λ(A) − . Daraus folgt (b) für beschränktes A. Sei A unbeschränkt und b eine beliebige Zahl mit b < λ(A). Für Aj := A ∩ {x ∈ Rn : kxk ≤ j} gilt Aj ↑ A, also λ(A) = limj→∞ λ(Aj ). Daher existiert ein m mit λ(Am ) > b. Nach dem bereits Gezeigten gibt es eine kompakte Menge K mit K ⊂ Am ⊂ A und λ(K) > b. Daraus folgt die Behauptung (b). Wir können das Ergebnis benutzen, um die oben erwähnte Beschreibung der Lebesgue-meßbaren Mengen zu präzisieren. Eine Menge M ⊂ Rn heißt Fσ -Menge, wenn sie als Vereinigung einer Folge abgeschlossener Mengen darstellbar ist. Jede Fσ -Menge ist also eine Borelmenge, aber von sehr spezieller Art. (14.7) Satz. Eine Menge M ⊂ Rn ist genau dann Lebesgue-meßbar, wenn sie von der Form M =F ∪N mit einer Fσ -Menge F und einer Lebesgue-Nullmenge N ist. Beweis. Daß jede Menge dieser Form Lebesgue-meßbar ist, ist klar, da F ∈ B n gilt und λ vollständig ist. Umgekehrt sei M ∈ Ln und zunächst λ(M ) < ∞. Zu i ∈ N existiert nach S Satz (14.6) eine kompakte Menge Ki ⊂ M mit λ(M \ Ki ) < 1/i. Setze F := i∈N Ki und N := M \ F . Dann ist F eine Fσ -Menge und λ(N ) = λ(M \ F ) ≤ λ(M \ Ki ) < für alle i, somit λ(N ) = 0. 1 i 121 Die Ausdehnung auf Mengen mit λ(M ) = ∞ kann wie im Beweis von Satz (14.6) geschehen. Bemerkung. Unter Verwendung des Auswahlaxioms kann man zeigen, daß es Teilmengen von R gibt, die nicht Lebesgue-meßbar sind. Ferner kann man Lebesgue-meßbare Mengen konstruieren, die keine Borelmengen sind. Das Lebesguesche Maß hat eine wichtige Invarianzeigenschaft, und es ist auch dadurch gekennzeichnet. (14.8) Def. Eine Funktion ϕ auf einem System S ⊂ P(Rn ) heißt translationsinvariant (bewegungsinvariant), wenn für jede Translation (bzw. Bewegung) f : Rn → Rn und alle S ∈ S gilt: f (S) ∈ S und ϕ(f (S)) = ϕ(S). Wir bemerken zunächst, daß der Begriff der Borelmenge bewegungsinvariant ist, d.h. mit B ∈ B n und einer Bewegung β des Rn gilt auch βB ∈ B n . Bilden wir nämlich β −1 B n := {β −1 B : B ∈ B n }, so ist β −1 B n offenbar eine σ-Algebra, die die offenen Mengen enthält, also ist B n ⊂ β −1 B n . Jede Menge B ∈ B n ist also von der Form B = β −1 A mit A ∈ B n , somit ist βB = A ∈ B n . Ist ferner M eine LebesgueNullmenge, so ist leicht zu zeigen, daß auch βM eine Lebesgue-Nullmenge ist. [In (14.5)(a) kann man sich auf rationale Intervalle beschränken und daher auf achsenparallele Würfel. Ist W ⊂ Rn ein achsenparalleler Würfel der Kantenlänge n a und β eine Bewegung des √ R , so ist βW enthalten in einem achsenparallelen Würfel der Kantenlänge a n.] Es folgt, daß für jede Lebesgue-meßbare Menge M und jede Bewegung β auch βM Lebesgue-meßbar ist. Da sich das elementare Volumen von Intervallen bei Translationen nicht ändert, ist leicht einzusehen, daß das Lebesguesche Maß translationsinvariant ist. Durch diese Eigenschaft ist es im wesentlichen gekennzeichnet, wie der folgende Satz zeigt. Wir setzen Wk := [0, k1 e) mit e := (1, . . . , 1) ∈ Rn . (14.9) Satz. Ist µ ein translationsinvariantes Maß auf B n mit µ(W1 ) < ∞, so gilt µ(B) = cλ(B) für B ∈ B n , wo c = µ(W1 ) ist. Beweis. Setze µ(W1 ) =: c. Sei k ∈ N. Der Würfel W1 ist disjunkte Vereinigung von k n Würfeln, von denen jeder durch eine Translation aus Wk hervorgeht. Es ist also k n µ(Wk ) = µ(W1 ) = cλ(W1 ) = ck n λ(Wk ), denn nach Definition ist λ(W1 ) = 1, und λ ist auf den Intervallen translationsinvariant. Also ist µ(Wk ) = cλ(Wk ). Jedes halboffene Intervall [a, b) mit rationalen a, b ist für geeignetes k ∈ N disjunkte Vereinigung von Würfeln, die durch Translation aus Wk hervorgehen. Daraus folgt µ([a, b)) = cλ([a, b)). Da das System aller Intervalle [a, b) mit rationalen a, b offenbar ein ∩-stabiles Erzeugendensystem von B n ist, folgt die Behauptung µ = cλ aus Satz (13.8). 122 14 SPEZIELLE MASSE Der Nachweis, daß λ auch bewegungsinvariant ist, läßt sich nicht unmittelbar so führen wie der Nachweis der Translationsinvarianz, denn das Bild eines Intervalls unter einer Bewegung ist i.a. kein Intervall (Intervalle sind bei uns achsenparal” lel“!). Wir können aber folgendermaßen schließen. Sei β eine Bewegung des Rn . Wir setzen µ(B) := λ(βB) für B ∈ B n . Dann ist sofort zu sehen, daß µ ein translationsinvariantes Maß auf B n ist mit µ(W1 ) < ∞. Nach Satz (14.9) gibt es also eine Konstante c ≥ 0 mit µ(B) = cλ(B) für B ∈ B n . Wählen wir für B eine Kugel, so folgt c = 1. Da das System der Lebesgue-Nullmengen bewegungsinvariant ist, folgt die Bewegungsinvarianz des Lebesgue-Maßes. Lebesgue-Stieltjes-Maße Die Konstruktion des Lebesgueschen Maßes läßt sich verallgemeinern und liefert dann die sogenannten Lebesgue-Stieltjes-Maße. Wir wollen hiervon nur kurz den eindimensionalen Fall behandeln. Man geht dabei aus von einer monoton nicht abnehmenden, linksseitig stetigen Funktion F : R → R. Eine solche Funktion heißt in diesem Zusammenhang auch maßerzeugende Funktion. Für jedes halboffene Intervall [a, b) ⊂ R setzen wir µ([a, b)) := F (b) − F (a). Auf dem Ring F 1 aller endlichen Vereinigungen von halboffenen Intervallen wird durch die Festsetzung k X µ(A) := µ([ai , bi )), i=1 1 wenn A ∈ F die disjunkte Vereinigung der Intervalle [ai , bi ) (i = 1, . . . , k) ist, ein Inhalt µ erklärt (vgl. Beweis von Satz (14.3)). Wir zeigen, daß µ ein Maß auf F 1 ist. Dies kann genau wie im Beweis von Satz (14.3) geschehen, wenn wir die folgende Hilfsbehauptung zeigen: Zu C ∈ F 1 und ∈ R+ gibt es B1 , B2 ∈ F 1 mit B 1 ⊂ C ⊂ B2o und µ(B2 ) − < µ(C) < µ(B1 ) + . Es genügt offenbar, dies für den Fall eines Intervalls C = [a, b) zu zeigen (a, b ∈ R, a < b). Da nun F als linksseitig stetig vorausgesetzt ist, gibt es zu gegebenem ∈ R+ Zahlen a0 , b0 ∈ R mit a0 < a und a < b0 < b, so daß F (a0 ) > F (a) − und F (b0 ) > F (b) − gilt. Die Intervalle B1 := [a, b0 ) und B2 := [a0 , b) leisten dann offenbar das Gewünschte. Da also µ ein (offenbar σ-endliches) Maß auf F 1 ist, existiert nach den Sätzen (13.6) und (13.9) genau eine Fortsetzung von µ zu einem Maß auf der von F 1 erzeugten σ-Algebra, also B 1 . Die Fortsetzung sei ebenfalls mit µ bezeichnet. Man nennt µ das von F erzeugte Lebesgue-Stieltjes-Maß und F eine maßerzeugende Funktion von µ. Sei umgekehrt µ ein Maß auf B 1 mit µ([a, b)) < ∞ für alle beschränkten Intervalle [a, b). Setzt man ( µ([0, x)) für x ≥ 0, F (x) := −µ([x, 0)) für x < 0, 123 so ist F eine maßerzeugende Funktion mit F (0) = 0 und µ das von ihr erzeugte Lebesgue-Stieltjes-Maß. Jede andere maßerzeugende Funktion, die ebenfalls µ erzeugt, unterscheidet sich von F offenbar nur um eine additive Konstante. Bei endlichen Maßen ist es üblich, diese Konstante durch die Forderung limx→−∞ F (x) = 0 eindeutig festzulegen. In diesem Fall ist also der Zusammenhang zwischen µ und F gegeben durch F (x) := µ((−∞, x)) für x ∈ R. Ist µ ein Wahrscheinlichkeitsmaß, so nennt man die so definierte Funktion F die Verteilungsfunktion von µ. Maße auf metrischen Räumen Das Lebesguesche Maß auf dem Rn ist eine Verallgemeinerung des Volumens. Es ist daher geeignet zur Ausmessung von Mengen, die in gewissem Sinne (ohne daß wir das näher präzisieren wollen) n-dimensional sind. Niederdimensionale Gebilde wie Kurven oder Flächen sind dagegen Lebesgue-Nullmengen. In diesem Unterabschnitt wollen wir eine Klasse von Maßen behandeln, die zur Ausmessung auch solcher Mengen geeignet sind. Die Konstruktion dieser Maße läßt sich allgemein in metrischen Räumen durchführen. Wir setzen daher jetzt voraus, daß auf der Grundmenge Ω eine Metrik ρ gegeben ist. In Analogie zum Rn (mit der Standardmetrik) verstehen wir unter Borelmengen des metrischen Raumes (Ω, ρ) die Elemente der vom System der offenen Mengen erzeugten σ-Algebra. Ferner sei erinnert an die Definition ρ(A, B) := inf{ρ(a, b) : a ∈ A, b ∈ B} für A, B ⊂ Ω. Wir schreiben ρ({x}, B) =: ρ(x, B). In §13 haben wir ein allgemeines Konstruktionsprinzip für Maße beschrieben: Satz (13.4) liefert eine große Klasse von äußeren Maßen, und nach Satz (13.3) ist für jedes äußere Maß µ∗ auf Ω die Menge der µ∗ -meßbaren Teilmengen von Ω eine σ-Algebra und die Einschränkung von µ∗ auf diese σ-Algebra ein Maß. Nützlich wird das Ergebnis dieser Konstruktion allerdings nur sein können, wenn sich hinreichend viele Mengen als µ∗ -meßbar erweisen. Man kann jedoch leicht Beispiele äußerer Maße µ∗ auf Ω angeben, für die nur ∅ und Ω meßbar sind. Im Falle eines metrischen Raumes gibt es nun eine einfache Zusatzbedingung, die sicherstellt, daß mindestens alle Borelmengen meßbar sind (Satz (14.12)). (14.10) Def. Sei (Ω, ρ) ein metrischer Raum. Ein äußeres Maß µ∗ auf Ω heißt metrisches äußeres Maß, wenn für alle Paare A, B ⊂ Ω mit ρ(A, B) > 0 die Gleichung µ∗ (A ∪ B) = µ∗ (A) + µ∗ (B) 124 14 SPEZIELLE MASSE gilt. (14.11) Hilfssatz. Sei (Ω, ρ) ein metrischer Raum und µ∗ ein metrisches äußeres Maß auf Ω. Sei G ⊂ Ω offen und A ⊂ G. Wird 1 c An := x ∈ A : ρ(x, G ) ≥ für n ∈ N n gesetzt, so ist lim µ∗ (An ) = µ∗ (A). n→∞ Beweis. Da G offen ist, liegt jeder Punkt von A in An für genügend großes n, also gilt An ↑ A. Wegen der Monotonie von µ∗ existiert limn→∞ µ∗ (An ) (in R), und es gilt lim µ∗ (An ) ≤ µ∗ (A). n→∞ Zum Beweis der entgegengesetzten Ungleichung setze Bn := An+1 \ An für n ∈ N, dann gilt für n ∈ N A = A2n ∪ ∞ [ Bk = A2n ∪ k=2n also µ∗ (A) ≤ µ∗ (A2n ) + ∞ [ B2k ∪ k=n ∞ X k=n µ∗ (B2k ) + ∞ [ B2k+1 , k=n ∞ X µ∗ (B2k+1 ). k=n Konvergieren beide Summen für n → ∞ gegen 0, so folgt µ∗ (A) ≤ lim µ∗ (A2n ) = lim µ∗ (An ), n→∞ n→∞ wie gewünscht. Andernfalls konvergiert eine der Summen, etwa die erste, nicht gegen 0, also ist ∞ X µ∗ (B2k ) = ∞. k=1 Nach Definition der Mengen An gilt ρ(B2k , B2k+2 ) ≥ 1 1 − > 0. 2k + 1 2k + 2 Sei nämlich x ∈ B2k , y ∈ B2k+2 , z ∈ Gc . Dann ist ρ(x, y) ≥ ρ(x, z) − ρ(y, z). Wegen x ∈ A2k+1 ist ρ(x, z) ≥ 1/(2k +1); wegen y ∈ / A2k+2 ist ρ(y, z) < 1/(2k +2) c für geeignetes z ∈ G . Es folgt µ∗ (B2k ∪ B2k+2 ) = µ∗ (B2k ) + µ∗ (B2k+2 ) 125 für k ∈ N. Durch Induktion folgt ∗ µ (A2n ) ≥ µ ∗ n−1 [ ! B2k = k=1 n−1 X µ∗ (B2k ) → ∞ für n → ∞, k=1 also lim µ∗ (An ) = ∞. n→∞ Die Ungleichung µ∗ (A) ≤ lim µ∗ (An ) n→∞ gilt also auch in diesem Fall. (14.12) Satz. Sei (Ω, ρ) ein metrischer Raum und µ∗ ein metrisches äußeres Maß auf Ω. Dann ist jede Borelmenge in Ω µ∗ -meßbar. Beweis. Zunächst sei F ⊂ Ω abgeschlossen. Sei M ⊂ Ω beliebig. Dann ist M ∩ F c ⊂ F c und F c offen; nach Satz (14.11) gibt es also eine Folge (An )n∈N von Teilmengen von M ∩ F c mit ρ(An , F ) ≥ 1 n für n ∈ N und lim µ∗ (An ) = µ∗ (M ∩ F c ). n→∞ Es folgt µ∗ (M ) ≥ µ∗ ((M ∩ F ) ∪ An ) = µ∗ (M ∩ F ) + µ∗ (An ) für alle n ∈ N und daher µ∗ (M ) ≥ µ∗ (M ∩ F ) + µ∗ (M ∩ F c ). Somit ist F eine µ∗ -meßbare Menge. Die σ-Algebra der µ∗ -meßbaren Mengen enthält also die von den abgeschlossenen Mengen erzeugte σ-Algebra, und dies ist die σ-Algebra der Borelmengen. Wir gehen nun daran, auf einem metrischen Raum spezielle metrische äußere Maße zu konstruieren; dies liefert nach dem Vorstehenden Maße auf den Borelmengen. Das System der offenen Mengen des metrischen Raumes (Ω, ρ) werde mit O bezeichnet. Für A ⊂ Ω bezeichne d(A) := sup{ρ(a, b) : a, b ∈ A} 126 14 SPEZIELLE MASSE den Durchmesser von A (mit d(∅) := 0). Für δ ∈ R+ setzen wir Oδ := {G ∈ O : d(G) ≤ δ}. (14.13) Satz und Def. Sei p ∈ R+ . Für G ∈ O sei τ (G) := d(G)p . Für δ ∈ R+ sei µpδ das gemäß Satz und Def. (13.4) durch (Oδ , τ ) auf Ω induzierte äußere Maß. Dann ist durch µp (M ) := sup µpδ (M ) für M ⊂ Ω δ>0 auf Ω ein metrisches äußeres Maß µp gegeben. Es heißt das p-dimensionale Hausdorff-Maß auf (Ω, ρ). Bemerkung. Die Definition läßt sich folgendermaßen kurz zusammenfassen. Nach Satz (13.4) ist (∞ ) ∞ X [ p µδ (M ) := inf d(Gi )p : Gi ⊂ Ω offen, d(Gi ) ≤ δ, M ⊂ Gi . i=1 i=1 Offenbar gilt µpδ (M ) ≥ µpδ0 (M ) für δ ≤ δ 0 . Daher können wir auch schreiben nX [ o p p µ (M ) = lim inf d(Gi ) : Gi ∈ O, d(Gi ) ≤ δ, M ⊂ Gi . δ→0+ Beweis von Satz (14.13). Nach Satz (13.4) ist µpδ ein äußeres Maß auf Ω. Aus µp = lim µpδ δ→0+ folgt sofort, daß µp die Eigenschaften (13.1)(a),(b) hat. Sei (An )n∈N eine Folge in P(Ω). Wegen (13.1)(c) für µpδ und der Monotonie von µpδ in δ folgt ! ∞ ∞ ∞ [ X X p p µδ An ≤ µδ (An ) ≤ µp (An ) n=1 n=1 n=1 für alle δ > 0, also µ p ∞ [ n=1 ! An = lim δ→0+ µpδ ∞ [ n=1 ! An ≤ ∞ X n=1 µp (An ). 127 Somit ist µp ein äußeres Maß. Seien A, B ⊂ Ω Mengen mit ρ(A, B) > 0. Ist µp (A ∪ B) = ∞, so ist wegen µp (A ∪ B) ≤ µp (A) + µp (B) die Gleichung µp (A ∪ B) = µp (A) + µp (B) erfüllt. Sei also µp (A ∪ B) < ∞. Sei δ ∈ R+ . Wegen µpδ (A ∪ B) < ∞ gibt es zu gegebenem ∈ R+ eine Folge (Gδk )k∈N in Oδ mit A∪B ⊂ ∞ [ Gδk ∞ X und k=1 d(Gδk )p ≤ µpδ (A ∪ B) + . k=1 Sei nun δ < ρ(A, B). Dann kann keine Menge Gδk sowohl Punkte aus A als auch Punkte aus B enthalten. Von den Mengen Gδk , die zur Überdeckung von A gebraucht werden, wird also keine zur Überdeckung von B benötigt. Daher ist µpδ (A) + µpδ (B) ≤ ∞ X d(Gδk )p ≤ µpδ (A ∪ B) + . k=1 Da ∈ R+ beliebig war, folgt µpδ (A ∪ B) ≥ µpδ (A) + µpδ (B). Da dies für 0 < δ < ρ(A, B) gilt, folgt µp (A ∪ B) ≥ µp (A) + µp (B). Da µp ein äußeres Maß ist, gilt hier das Gleichheitszeichen. Somit ist µp ein metrisches äußeres Maß. (14.14) Satz und Def. Für p ∈ R+ sei µp das p-dimensionale Hausdorff-Maß auf (Ω, ρ). Zu jeder Menge M ⊂ Ω gibt es ein eindeutig bestimmtes α ∈ R+ ∪ {0, ∞} mit µp (M ) = ∞ für 0 < p < α, µp (M ) = 0 für α < p < ∞. α heißt die Hausdorff-Dimension von M . Beweis. Sei zunächst µp (M ) < ∞ und q > p. Sei δ ∈ R+ . Wegen µpδ (M ) ≤ S P p µp (M ) < ∞ existieren Mengen Gi ∈ Oδ mit M ⊂ i Gi und i d(Gi ) < µp (M ) + 1. Es ist X X X d(Gi )q = d(Gi )p d(Gi )q−p ≤ δ q−p d(Gi )p < δ q−p (µp (M ) + 1), also ist µqδ (M ) ≤ δ q−p (µp (M ) + 1). Da dies für alle δ ∈ R+ gilt, folgt µq (M ) = lim µqδ (M ) = 0. δ→0+ 128 14 SPEZIELLE MASSE Nun setze α := inf{p ∈ R+ : µp (M ) = 0}. Sei α < q < ∞. Nach Definition von α gibt es ein p mit α < p < q und µp (M ) = 0. Wie oben gezeigt, gilt µq (M ) = 0. Sei 0 < q < α. Angenommen, µq (M ) < ∞. Für q < p < α gilt nach Obigem µp (M ) = 0, entgegen der Definition von α. Also ist µq (M ) = ∞. Von besonderer Bedeutung sind die Hausdorff-Maße im euklidischen Raum Rn (versehen mit der Standard-Metrik). In diesem Fall wollen wir Hδp , Hp statt µpδ , µp schreiben. Über Mengen M ⊂ Rn mit ganzzahliger Hausdorff-Dimension k und 0 < Hk (M ) < ∞ gibt es eine tiefe und reichhaltige Strukturtheorie. Mengen mit nichtganzzahliger Hausdorff-Dimension werden als Fraktale bezeichnet. Wir beschließen dieses Kapitel mit einem Vergleich des n-dimensionalen Hausdorffmaßes Hn mit dem n-dimensionalen Lebesguemaß λ. Schränken wir zunächst beide auf die σ-Algebra der Borelmengen ein, so können wir wegen Satz (14.9) sofort sagen, daß Hn (B) = cλ(B) für B ∈ B n mit einer Konstanten c gelten muß. Aus der Konstruktion des Hausdorffmaßes folgt nämlich unmittelbar, daß Hn translationsinvariant ist und auf beschränkten Mengen endlich. Wir zeigen in Satz (14.17), daß die Konstante c gegeben ist durch c= 2n . κn Dabei ist κn = λ(B(1)), wobei allgemein B(r) := {x ∈ Rn : kxk ≤ r} eine Kugel vom Radius r sei. Es ist n π2 κn = , Γ(1 + n2 ) wie in Analysis II (§13) berechnet wurde. Ferner ist λ(Br ) = κn rn , denn allgemein gilt λ(αA) = αn λ(A), wie leicht der Definition des Lebesguemaßes zu entnehmen ist; ebenso gilt Hp (αA) = αp Hp (A). Wir benötigen zwei Hilfssätze. (14.15) Hilfssatz. Ist U ⊂ Rn eine offene Menge und δ > 0, so gibt es eine disjunkte Folge (Bi )i∈N abgeschlossener Kugeln mit ! [ [ Bi ⊂ U, d(Bi ) < δ, λ U \ Bi = 0. i∈N i∈N 129 Beweis. Wir können λ(U ) < ∞ annehmen, denn daraus folgt leicht das allgemeine Resultat. Zunächst stellen wir U als Vereinigung von abzählbar vielen Würfeln Wj vom Durchmesser < δ dar, die paarweise keine inneren Punkte gemeinsam haben. Im Inneren von Wj wählen wir eine Kugel Bj vom Radius > 31 Kantenlänge von Wj , dann ist κn λ(Bj ) > n λ(Wj ). 3 Es folgt ! ! [ [ X λ U\ Bj = λ [Wj \ Bj ] = [λ(Wj ) − λ(Bj )] j∈N j∈N < j∈N h κn κn i λ(Wj ) 1 − n = 1 − n λ(U ). 3 3 j∈N X S Da U1 := U \ j∈N Bj offen ist, können wir hierauf dasselbe Verfahren anwenden, also in U1 eine disjunkte Folge von Kugeln Cj vom Durchmesser < δ finden mit ! [ κn λ U1 \ Cj < 1 − n λ(U1 ). 3 j Dann ist !! λ U\ [ j Bj ∪ [ j Cj κn 2 < 1 − n λ(U ). 3 Fortsetzung des Verfahrens (rekursive Definition) liefert die gewünschte Folge. (14.16) Hilfssatz. Für beliebige Teilmengen A ⊂ Rn gilt die isodiametrische Ungleichung κn λ∗ (A) ≤ n d(A)n . 2 Beweis. Wir skizzieren den Beweis nur. Er verwendet ein geometrisches Verfahren, die Steinersche Symmetrisierung. Zunächst dürfen wir annehmen, daß A beschränkt ist, da sonst nichts zu zeigen ist. Sodann dürfen wir voraussetzen, daß A abgeschlossen und konvex ist, da beim Übergang zur abgeschlossenen konvexen Hülle der Durchmesser sich nicht ändert und das äußere Lebesgue-Maß nicht kleiner wird. Sei nun H eine Hyperebene im Rn . Für jede Gerade G senkrecht zu H werde die Strecke G ∩ A in G so verschoben, daß ihr Mittelpunkt auf H zu liegen kommt. Die Vereinigung aller so erhaltenen Strecken werde mit SH A bezeichnet. Man sagt, SH A gehe durch Steiner-Symmetrisierung an H aus A hervor. Man kann leicht zeigen, daß SH A wieder abgeschlossen und konvex ist und daß d(SH A) ≤ d(A) ist. Ferner gilt λ(SH A) = λ(A). Das wird sich 130 14 SPEZIELLE MASSE später in der Integrationstheorie aus dem Satz von Fubini ergeben (bzw. ist aus Analysis II bekannt). Es seien nun H1 , . . . , Hn die Koordinatenhyperebenen, also Hi = {(ξ1 , . . . , ξn ) ∈ Rn : ξi = 0}. Die Menge A0 := SH1 · · · SHn A ist symmmetrisch zu jeder Koordinatenhyperebene und daher zentralsymmetrisch bezüglich 0. Es folgt, daß A0 enthalten ist in der Kugel B um 0 mit Radius d(A0 )/2, und das ergibt κn λ(A) = λ(A0 ) ≤ λ(B) = κn (d(A0 )/2)n ≤ n d(A)n . 2 Die Gleichheit von Hn und cλ auf Ln läßt sich nun ohne Verwendung von Satz (14.9) zeigen, und zwar in schärferer Form: (14.17) Satz. Für beliebige A ⊂ Rn und δ > 0 gilt Hδn (A) = 2n ∗ λ (A) κn (wo λ∗ das äußere Lebesguesche Maß bezeichnet). Beweis. Sei δ > 0 gegeben. Zunächst sei I ⊂ Rn ein Intervall. Wir wählen gemäßSHilfssatz (14.15) eine Folge (Bj )j∈N paarweise disjunkter Kugeln in I mit λ(I \ j Bj ) = 0 und d(Bj ) < δ. Sei rj der Radius von Bj . Für jede LebesgueNullmenge N gilt auch Hδn (N ) = 0, wie leicht aus der Definition von Hδn zu folgern ist. Daher ergibt sich ! X [ d(Bj )n (nach Def. von Hδn ) Hδn (I) = Hδn Bj ≤ j∈N = 2n X 2n X κn rjn = λ(Bj ) κn j∈N κn j∈N 2n = λ κn = j∈N ! [ Bj j∈N 2n λ(I). κn Sei jetzt A ⊂ Rn beliebig. Zu > 0 existiert nach Definition des äußeren S Lebesgue-Maßes eine Folge (Ik )k∈N von Intervallen mit A ⊂ k Ik und X k λ(Ik ) ≤ λ∗ (A) + . 131 Es folgt ! Hδn (A) ≤ Hδn [ Ik ≤ X k Hδn (Ik ) k 2n ∗ 2n X (λ (A) + ). λ(Ik ) ≤ ≤ κn k κn Da > 0 beliebig war, folgt Hδn (A) ≤ (2n /κn )λ∗ (A). Zum Beweis der entgegengesetzten Ungleichung sei (Gi )i∈N eine Folge offener Mengen vom Durchmesser < δ S mit A ⊂ i Gi . Dann ist nach Hilfssatz (14.16) X d(Gi )n ≥ i 2n ∗ 2n X λ (A). λ(Gi ) ≥ κn i κn Also ist (nach Def. von Hδn (A)) Hδn (A) ≥ 2n ∗ λ (A). κn Daraus folgt die Behauptung. 15 Signierte Maße In der heuristischen Einleitung, die die Notwendigkeit eines Maßbegriffes motivieren sollte, haben wir als physikalische Vorbilder hierfür neben Massenverteilungen auch Verteilungen elektrischer Ladungen erwähnt. Diese können positiv und negativ sein; die mathematische Präzisierung kann also nicht ein Maß sein, sondern nur ein signiertes Maß (siehe Def. (12.2)). Daß wir bisher nur Maße betrachtet haben, ist insofern gerechtfertigt, als man die Behandlung von signierten Maßen vollständig auf diejenige von Maßen zurückführen kann. Jedes signierte Maß läßt sich nämlich, wie wir jetzt zeigen wollen, als Differenz zweier Maße schreiben, von denen wenigstens eines endlich ist. (15.1) Def. Sei µ ein signiertes Maß auf dem meßbaren Raum (Ω, A). Eine Menge A ⊂ Ω heißt positiv (negativ) bezüglich µ, wenn A ∈ A ist und für alle B ∈ A mit B ⊂ A die Ungleichung µ(B) ≥ 0 (bzw. µ(B) ≤ 0) gilt. (15.2) Satz und Def. (Zerlegungssatz von Jordan-Hahn) Sei µ ein signiertes Maß auf dem meßbaren Raum (Ω, A). (a) Es gibt eine Zerlegung Ω = P ∪ N mit P ∩ N = ∅, wo P positiv und N negativ (bezüglich µ) ist (Hahn-Zerlegung von Ω) (b) Durch µ+ (A) := µ(A ∩ P ), µ− (A) := −µ(A ∩ N ) für A ∈ A werden Maße µ+ (Positivteil von µ) und µ− (Negativteil von µ) erklärt; wenigstens eins von ihnen ist endlich, und es gilt µ = µ+ − µ− (Jordan-Zerlegung von µ). Das Maß 132 15 SIGNIERTE MASSE |µ| := µ+ + µ− heißt Variationsmaß von µ. (c) Es gilt µ+ (A) = sup{µ(B) : B ∈ A, B ⊂ A}, µ− (A) = sup{−µ(B) : B ∈ A, B ⊂ A} für alle A ∈ A. Beweis. Das signierte Maß µ nimmt einen der Werte ∞, −∞ nicht an, o.B.d.A. den Wert ∞. 1. Behauptung. Die Vereinigung einer Folge positiver Mengen ist positiv. S Beweis. Sei An eine positive Menge (n ∈ N) und A := n∈N An . Für B ∈ A mit B ⊂ A setze Bn := (B ∩ An ) \ (A1 ∪ . . . ∪ An−1 ). Da An positiv P µ(Bn ) ≥ 0. Da (Bn )n∈N eine disjunkte Folge ist, folgt S ist, gilt µ(B) = µ( n Bn ) = n µ(Bn ) ≥ 0. /. Nun enthält Ω wenigstens eine positive Teilmenge, zum Beispiel ∅. Wir können daher α := sup{µ(A) : A ⊂ Ω positiv} bilden. Es gibt S in Ω eine Folge (An )n∈N positiver Mengen mit α = limn→∞ µ(An ). Setze P := n∈N An . Nach der 1. Behauptung ist P eine positive Menge, also ist α ≥ µ(P ). Wegen P \An ⊂ P ist µ(P \An ) ≥ 0, also µ(P ) = µ(An )+µ(P \An ) ≥ µ(An ) für n ∈ N und daher µ(P ) ≥ α. Es folgt µ(P ) = α, insbesondere α < ∞. 2. Behauptung. N := P c ist eine negative Menge. Beweis. Zunächst bemerken wir: N enthält keine positive Menge A mit µ(A) > 0. Wäre nämlich A ⊂ N eine positive Menge mit µ(A) > 0, dann wäre P ∪ A eine positive Menge mit µ(P ∪ A) = µ(P ) + µ(A) > α, entgegen der Definition von α. Angenommen, N wäre keine negative Menge. Dann enthält N eine Menge E0 ∈ A mit µ(E0 ) > 0. Da E0 keine positive Menge ist, enthält E0 eine Menge E1 ∈ A mit µ(E1 ) < 0. Sei n1 ∈ N die kleinste Zahl, für die eine solche Menge E1 existiert mit µ(E1 ) < (−1/n1 ). Wir definieren nk und Ek rekursiv: Sind ni , Ei für 1 ≤ i ≤ k −1 schon definiert, so sei nk ∈ N die kleinste Zahl, für die es eine Menge Ek ∈ A gibt mit k−1 [ 1 Ek ⊂ E0 \ Ei und µ(Ek ) < − nk i=1 133 S Ek existiert, weil E0 \ k−1 i=1 Ei positives Maß hat, also nach Vorbemerkung keine positive Menge ist. Setze ∞ [ A := E0 \ Ek , k=1 dann gilt ∞ X ∞ X 1 . µ(E0 ) = µ(A) + µ(Ek ) < µ(A) − n k k=1 k=1 P∞ Wegen µ(E0 ) > 0 folgt k=1 (1/nk ) < ∞, also nk → ∞, und µ(A) > 0. Sei B ∈ A eine Menge mit B ⊂ A. Nach Definition der Zahlen nk muß µ(B) ≥ −1/(nk − 1) für alle k ∈ N sein, wegen nk → ∞ folgt also µ(B) ≥ 0. Somit ist A eine positive Teilmenge von N mit µ(A) > 0, was nicht sein kann. Aus dem Widerspruch folgt die 2. Behauptung. /. Nun sei für A ∈ A µ+ (A) := sup{µ(B) : B ∈ A, B ⊂ A}, µ− (A) := sup{−µ(B) : B ∈ A, B ⊂ A}. 3. Behauptung. Für A ∈ A gilt µ+ (A) = µ(A ∩ P ) und µ− (A) = −µ(A ∩ N ). Beweis. Für B ∈ A mit B ⊂ A gilt µ(B) = µ(B ∩ P ) + µ(B ∩ N ) ≤ µ(B ∩ P ) ≤ µ(B ∩ P ) + µ((A \ B) ∩ P ) = µ(A ∩ P ), folglich ist µ+ (A) ≤ µ(A ∩ P ). Andererseits ist µ(A ∩ P ) ≤ µ+ (A) nach Definition von µ+ . Die zweite Gleichung ergibt sich analog. /. Die restlichen Behauptungen von Satz (15.2) sind jetzt klar: Aus µ+ (A) = µ(A ∩ P ) ≥ 0 ist klar, daß µ+ ein Maß ist, analog ist µ− ein Maß. Für A ∈ A gilt µ(A) = µ(A ∩ P ) + µ(A ∩ N ) = µ+ (A) − µ− (A). Wegen µ(P ) < ∞ ist µ+ (A) < ∞ für alle A ∈ A. Die Zerlegung des signierten Maßes µ in der Form µ = µ+ − µ− mit Maßen µ+ , µ− ist nicht eindeutig bestimmt, denn für jedes endliche Maß ν auf derselben σ-Algebra gilt µ+ − µ− = (µ+ + ν) − (µ− + ν). Eindeutigkeit ergibt sich jedoch unter einer zusätzlichen Bedingung. (15.3) Def. Zwei signierte Maße ν1 , ν2 auf einem meßbaren Raum (Ω, A) heißen zueinander singulär (Schreibweise ν1 ⊥ ν2 ), wenn es eine Menge A ∈ A gibt mit |ν1 |(A) = |ν2 |(Ac ) = 0. 134 15 SIGNIERTE MASSE Bemerkung. Gilt ν1 ⊥ ν2 und ist A wie in Def. (15.3), so ist ν1 (B ∩ A) = 0 für alle B ∈ A, also ν1 (B) = ν1 (B ∩ Ac ). Man sagt hierfür auch, ν1 sei auf Ac konzentriert. Es ist also ν1 auf einer |ν2 |-Nullmenge konzentriert und umgekehrt. (15.4) Satz. Für das signierte Maß µ auf dem meßbaren Raum (Ω, A) gibt es genau eine Zerlegung µ = µ+ − µ− mit zueinander singulären Maßen µ+ , µ− . Beweis. Sind P, N, µ+ , µ− wie in Satz (15.2), so ist µ+ (N ) = µ− (P ) = 0, also µ+ ⊥ µ− . Seien ν + , ν − zueinander singuläre Maße auf A mit µ = ν + − ν − . Es gibt eine Menge A ∈ A mit ν + (A) = ν − (Ac ) = 0. Für jede Menge B ∈ A mit B ⊂ Ac gilt ν − (B) = 0, also µ(B) = ν + (B) ≥ 0. Somit ist Ac eine positive Menge. Analog ist A eine negative Menge, also Ω = Ac ∪ A eine Hahn-Zerlegung bezüglich µ von Ω. Sei nun B ∈ A eine Menge mit B ⊂ P ∩ A. Wegen B ⊂ P ist µ(B) ≥ 0, wegen B ⊂ A ist µ(B) ≤ 0, also ist µ(B) = 0. Analog folgt µ(B) = 0 für B ⊂ N ∩ Ac . Für B ∈ A folgt jetzt µ+ (B) = µ(B ∩ P ) = µ(B ∩ P ∩ Ac ) + µ(B ∩ P ∩ A) = µ(B ∩ P ∩ Ac ) = µ(B ∩ P ∩ Ac ) + µ(B ∩ N ∩ Ac ) = µ(B ∩ Ac ) = ν + (B ∩ Ac ) − ν − (B ∩ Ac ) = ν + (B ∩ Ac ) = ν + (B ∩ Ac ) + ν + (B ∩ A) = ν + (B), nach Def. von µ+ wie eben gezeigt wie eben gezeigt wegen µ = ν + − ν − wegen ν − (Ac ) = 0 wegen ν + (A) = 0 also ist µ+ = ν + und damit auch µ− = ν − . Wir schließen noch einige Bemerkungen über das Variationsmaß an. Es sei µ ein signiertes Maß auf (Ω, A). Für A ∈ A gilt |µ(A)| = |µ+ (A) − µ− (A)| ≤ µ+ (A) + µ− (A) = |µ|(A), also |µ(A)| ≤ |µ|(A). Das Variationsmaß |µ| kann auch gekennzeichnet werden als das kleinste Maß mit dieser Eigenschaft. Sei nämlich ν ein Maß auf (Ω, A) mit |µ(A)| ≤ ν(A) für alle A ∈ A. Dann gilt |µ|(A) = µ(A ∩ P ) − µ(A ∩ N ) = |µ(A ∩ P )| + |µ(A ∩ N )| ≤ ν(A ∩ P ) + ν(A ∩ N ) = ν(A), also |µ| ≤ ν. 135 Für ein endliches signiertes Maß µ auf (Ω, A) definiert man kµk := |µ|(Ω); kµk heißt die Totalvariation von µ. Die endlichen signierten Maße auf (Ω, A) bilden (mit Addition und Multiplikation mit reellen Zahlen wie üblich) einen reellen Vektorraum M (Ω, A, R). Durch k · k ist auf diesem Vektorraum eine Norm gegeben, und der Vektorraum ist damit vollständig, also ein Banachraum. Ein komplexes Maß auf (Ω, A) ist eine Funktion µ : A → C, die µ(∅) = 0 erfüllt und σ-additiv ist, also ! ∞ ∞ [ X µ An = µ(An ) n=1 n=1 für jede disjunkte Folge (An )n∈N in A erfüllt. Jedes komplexe Maß µ auf (Ω, A) kann natürlich in der Form √ µ = µ0 + iµ00 (i = −1) geschrieben werden mit endlichen signierten Maßen µ0 , µ00 . Das Variationsmaß |µ| von µ wird erklärt durch |µ|(A) := ) ( n n [ X Aj , Aj ∩ Ak = ∅ für j 6= k . sup |µ(Aj )| n ∈ N, Aj ∈ A, A = j=1 j=1 Die Totalvariation kµk := |µ|(Ω) führt ebenfalls zu einem Banachraum. 16 Meßbare Funktionen In diesem Abschnitt behandeln wir eine wichtige Ergänzung zum Begriff des meßbaren Raumes. Maße kommen dabei nur am Rande vor. In Analogie zu den stetigen Abbildungen zwischen topologischen Räumen betrachtet man Abbildungen zwischen meßbaren Räumen, die die auf den Räumen gegebenen Strukturen, also die σ-Algebren, in besonderer Weise respektieren. (16.1) Def. Seien (Ω, A), (Ω0 , A0 ) meßbare Räume. Eine Abbildung f : Ω → Ω0 heißt (A, A0 )-meßbar (kurz meßbar, wenn A und A0 aus dem Zusammenhang klar sind), wenn f −1 (A0 ) ∈ A für alle A0 ∈ A0 gilt, wenn also das Urbild jeder A0 -meßbaren Menge A-meßbar ist. (Die Elemente einer σ-Algebra A nennt man auch A-meßbar.) 136 16 MESSBARE FUNKTIONEN Zur Nachprüfung der Meßbarkeit kann man sich auf ein Erzeugendensystem von A0 beschränken: (16.2) Satz. (Bezeichnungen wie in (16.1)). Ist E 0 ein Erzeugendensystem von A0 , so ist f genau dann meßbar, wenn f −1 (E 0 ) ∈ A für alle E 0 ∈ E 0 gilt. Beweis. Daß die Bedingung f −1 (E 0 ) ∈ A für E 0 ∈ E 0 notwendig ist für die Meßbarkeit, ist trivial. Sei sie umgekehrt erfüllt. Setze à := {A0 ⊂ Ω0 : f −1 (A0 ) ∈ A}. Da f −1 vertauschbar ist mit der Bildung von Vereinigungen, Durchschnitten und Komplementen, ist sofort zu sehen, daß Ã eine σ-Algebra in Ω0 ist. Wegen E 0 ⊂ à folgt A0 = A(E 0 ) ⊂ Ã; für A0 ∈ A0 gilt also f −1 (A0 ) ∈ A. Somit ist f meßbar. Beispiel. Jede stetige Abbildung f : Rn → Rm ist (B n , B m )-meßbar. Denn für eine stetige Abbildung ist das Urbild jeder offenen Menge des Rm offen in Rn , also Element von B n , und nach Satz (4.2) wird B m von den offenen Teilmengen von Rm erzeugt. (16.3) Satz. Die Hintereinanderschaltung (Komposition) von meßbaren Abbildungen ist meßbar. Beweis. Dies folgt sofort wegen (g ◦ f )−1 (A) = f −1 (g −1 (A)). Man beachte, daß der Begriff meßbare Abbildung“ nichts mit etwa gegebenen ” Maßen zu tun hat, sondern sich allein auf die im Bildraum und Urbildraum gegebenen σ-Algebren bezieht. Ist jedoch auf dem Urbildraum ein Maß gegeben, so wird durch eine meßbare Abbildung in natürlicher Weise auch auf dem Bildraum ein Maß induziert: (16.4) Satz und Def. Seien (Ω, A), (Ω0 , A0 ) meßbare Räume, sei f : Ω → Ω0 eine meßbare Abbildung und µ ein Maß auf A. Dann wird durch µ0 (A0 ) := µ(f −1 (A0 )) für A0 ∈ A0 ein Maß auf A0 definiert. Es heißt das Bildmaß von µ unter f und wird auch mit f (µ) bezeichnet. Beweis. Da f meßbar ist, ist f −1 (A0 ) ∈ A für alle A0 ∈ A0 , die Definition ist also möglich. Sei (A0n )n∈N eine disjunkte Folge in A0 . Dann ist (f −1 (A0n ))n∈N eine disjunkte Folge in A, und es ergibt sich ! !! ! [ [ [ = µ f −1 =µ µ0 A0n A0n f −1 (A0n ) n∈N n∈N n∈N 137 = X µ(f −1 (A0n )) = n∈N X µ0 (A0n ). n∈N Also ist µ0 σ-additiv. Die anderen Eigenschaften eines Maßes sind trivialerweise erfüllt. Etwas ausführlicher betrachten wir nun den besonders wichtigen Fall meßbarer Abbildungen in das erweiterte System R der reellen Zahlen, also meßbare numerische Funktionen, bezogen auf die folgendermaßen erklärten Borelmengen in R. (16.5) Satz und Def. Eine Menge B ⊂ R heißt Borelmenge in R, wenn B \ 1 {−∞, ∞} eine Borelmenge in R ist. Die σ-Algebra B der Borelmengen in R wird erzeugt von dem System E = {[α, ∞] : α ∈ R} (mit [α, ∞] := {x ∈ R : α ≤ x ≤ ∞}). 1 Beweis. Daß B eine σ-Algebra ist, ist klar. Sei A die von E in R erzeugte σ1 1 Algebra. Wegen E ⊂ B gilt A ⊂ B . Für α, β ∈ R, α < β, gilt [α, β) = [α, ∞] \ [β, ∞] ∈ A. Da A ∩ R := {U ∩ R : U ∈ A} eine σ-Algebra in R ist, folgt B 1 ⊂ A ∩ R. Es gilt {∞} = ∞ \ [n, ∞] ∈ A, {−∞} = ∞ \ [−∞, −n) = n=1 n=1 ∞ \ [−n, ∞]c ∈ A. n=1 1 Ist B ∈ B , so folgt B \ {−∞, ∞} ∈ A ∩ R ⊂ A und daher B ∈ A. Also ist 1 1 B ⊂ A und damit B = A. (16.6) Def. Sei (Ω, A) ein meßbarer Raum. Eine numerische Funktion f : Ω → R, 1 die (A, B )-meßbar ist, wird als A-meßbar (häufig auch nur als meßbar) bezeichnet. Die B n -meßbaren numerischen Funktionen auf Rn heißen Borel-meßbar. Sind f, g numerische Funktionen auf der Menge Ω (oder g eine reelle Zahl) und ist R eine zweistellige Relation auf R (z.B. =, ≤, >), so schreiben wir zur Abkürzung {f Rg} := {x ∈ Ω : f (x)Rg(x)}. In den folgenden Sätzen liege stets ein fester meßbarer Raum (Ω, A) zugrunde. (16.7) Satz. Die numerische Funktion f auf Ω ist genau dann A-meßbar, wenn eine der folgenden Bedingungen für alle α ∈ R erfüllt ist: {f ≥ α} ∈ A, {f > α} ∈ A, {f ≤ α} ∈ A, {f < α} ∈ A. 138 16 MESSBARE FUNKTIONEN Beweis. Wegen ∀ α ∈ R : {f ≥ α} ∈ A ∞ [ 1 ∈A ⇒ ∀ α ∈ R : {f > α} = f ≥α+ n n=1 ⇒ ∀ α ∈ R : {f ≤ α} = {f > α}c ∈ A ∞ [ 1 ⇒ ∀ α ∈ R : {f < α} = f ≤α− ∈A n n=1 ⇒ ∀ α ∈ R : {f ≥ α} = {f < α}c ∈ A sind die vier im Satz angegebenen Bedingungen jedenfalls äquivalent. Nun gilt {f ≥ α} = f −1 ([α, ∞]), und das System {[α, ∞] : α ∈ R} ist nach Satz (16.5) 1 ein Erzeugendensystem von B . Die Behauptung folgt also aus Satz (16.2). (16.8) Satz. Sind f, g A-meßbare numerische Funktionen auf Ω, so gilt {f < g}, {f ≤ g}, {f = g}, {f 6= g} ∈ A. Beweis. Es gilt {f < g} = [ ({f < α} ∩ {α < g}), α∈Q und nach Satz (16.7) ist {f < α} ∩ {α < g} ∈ A; also folgt {f < g} ∈ A. Damit gilt auch {f ≤ g} = {g < f }c ∈ A, {f = g} = {f ≤ g} ∩ {g ≤ f } ∈ A, {f 6= g} = {f = g}c ∈ A. Zum Schluß zeigen wir nun, daß die üblichen Operationen der Analysis nicht aus der Menge der meßbaren Funktionen hinausführen. Wir setzen f + := max(f, 0) (Positivteil von f ) f − := − min(f, 0) (Negativteil von f ) (16.9) Satz. Seien f, g, fn (n ∈ N) A-meßbare numerische Funktionen auf Ω. Dann sind die folgenden Funktionen A-meßbar: f ±g (falls definiert), f g, |f |, f + , f − sup fn , inf fn , lim sup fn , lim inf fn n∈N lim fn n→∞ n∈N n→∞ (falls vorhanden). n→∞ 139 Beweis. Im folgenden wird ohne weitere Erwähnung mehrfach Satz (16.7) und Satz (16.8) benutzt. Wegen {sup fn ≤ α} = ∞ \ {fn ≤ α}, {inf fn ≥ α} = n=1 ∞ \ {fn ≥ α} n=1 sind sup fn und inf fn meßbar. Daher sind auch lim sup fn = inf (sup fn ), n→∞ k n≥k lim inf fn = sup(inf fn ) n→∞ k n≥k und folglich, falls vorhanden, lim fn meßbar. Insbesondere sind max(f, g) und min(f, g) und damit auch f + = max(f, 0) meßbar. Für β ∈ R ist wegen {−f +β ≤ α} = {f ≥ β − α} auch −f + β meßbar, insbesondere also −f . Folglich sind f − = − min(f, 0) und |f | = max(f, −f ) meßbar. Wegen {f + g ≤ α} = {g ≤ −f + α} ist f + g meßbar und folglich auch f − g. Um zu zeigen, daß f g meßbar ist, nehmen wir zunächst f ≥ 0, g ≥ 0 an. Sei α ∈ R. Für α ≤ 0 gilt {f g < α} = ∅, und für α > 0 ist [ α , {f g < α} = {f = 0} ∪ {g = 0} ∪ {f < ρ} ∩ g < ρ + ρ∈Q wo Q+ die Menge der positiven rationalen Zahlen bezeichnet. Also ist f g meßbar. Für allgemeine f, g folgt aus (f g)+ = f + g + + f − g − , (f g)− = f + g − + f − g + und dem bereits Bewiesenen die Meßbarkeit von (f g)+ und (f g)− und damit auch die von f g = (f g)+ − (f g)− . 17 Integration Im folgenden sei, wenn nichts anderes gesagt ist, stets ein fester Maßraum (Ω, A, µ) gegeben. Wir wollen hierfür eine Integrationstheorie entwickeln, die das aus der Analysis-Vorlesung bekannte Lebesgue-Integral verallgemeinert. Wie in Def. (16.6) vereinbart, wird eine numerische Funktion f auf Ω kurz als 1 meßbar bezeichnet, wenn sie (A, B )-meßbar ist. Nach Satz (16.7) ist f genau dann meßbar, wenn z.B. {f ≤ α} := {x ∈ Ω : f (x) ≤ α} ∈ A für alle α ∈ R gilt. Für die Untersuchung und Handhabung meßbarer Funktionen ist nützlich, daß sie sich durch Grenzübergang aus besonders einfachen meßbaren Funktionen gewinnen lassen, nämlich solchen, die nur endlich viele verschiedene Werte annehmen. 140 17 INTEGRATION (17.1) Def. Eine Elementarfunktion auf (Ω, A) ist eine nichtnegative meßbare reelle Funktion auf Ω, die nur endlich viele verschiedene Werte annimmt. Ist A ∈ A, so ist die durch ( 1A (x) := 1 für x ∈ A, 0 für x ∈ Ac . definierte Indikatorfunktion 1A von A eine Elementarfunktion. Jede Elementarfunktion ist nichtnegative Linearkombination von Indikatorfunktionen: Ist nämlich e eine Elementarfunktion und sind α1 , . . . , αn ihre verschiedenen Werte, so ist die Menge Ai := {e = αi } meßbar, damit ist auch 1Ai meßbar, und offenbar gilt n X e= αi 1Ai . i=1 Diese (wegen der Voraussetzung αi 6= αj für i 6= j) eindeutig bestimmte Darstellung von e soll als natürliche Darstellung von e bezeichnet werden. (17.2) Satz. Sei f eine nichtnegative meßbare numerische Funktion auf Ω. Dann gibt es eine Folge (en )n∈N von Elementarfunktionen auf Ω mit 0 ≤ e1 ≤ e2 ≤ . . . und f = lim en . n→∞ Beweis. Für n ∈ N setze i i n : i ∈ {0, 1, . . . , n2 } und n ≤ f (x) , en (x) := max 2n 2 x ∈ Ω. Wegen Ω, wenn α ≥ n, S {en ≤ α} = , wenn α < n, f < i+1 i 2n 2n ≤α ist en meßbar und somit eine Elementarfunktion. Nach Konstruktion gilt en+1 ≥ en und lim en = f . Bemerkung. Man beachte, daß die angegebene Folge (en )n∈N sogar gleichmäßig gegen f konvergiert, falls f beschränkt ist. Die Definition des Integrals geschieht nun in drei Schritten. (17.3) Def. (1) Das Integral einer Elementarfunktion e auf Ω mit der natürlichen Darstellung n X e= αi 1Ai i=1 141 ist definiert durch Z e dµ := n X αi µ(Ai ). i=1 (2) Das Integral einer nichtnegativen meßbaren numerischen Funktion f auf Ω ist definiert durch Z Z f dµ := sup e dµ : e ≤ f, e Elementarfunktion . + − (3) Sei f eine meßbare R +numerische Funktion R − auf Ω, seien f , f ihr Positiv- bzw. Negativteil. Falls f dµ < ∞ und f dµ < ∞ ist, wird f als integrierbar bezeichnet und Z Z Z + f dµ := f dµ − f − dµ definiert. Bemerkung. Die Definition (2) ist konsistent, d.h. wenn f eine Elementarfunktion ist, so ergeben die Definitionen (1) und (2) denselben Integralwert. Das wird sofort klar, wenn (17.4)(c) für Elementarfunktionen bewiesen ist. Trivialerweise ist auch (3) mit den vorhergehenden Definitionen konsistent, denn im Fall f ≥ 0 ist f − = 0 und f = f + . Man beachte, daß für eine nichtnegative meßbare Funktion das Integral auch dann definiert ist, wenn sie nicht integrierbar ist. Bemerkung. In der Definition (17.3)(1) kann es vorkommen, daß αi = 0 und µ(Ai ) = ∞ ist. Es sei daran erinnert, daß dann vereinbarungsgemäß αi µi (Ai ) = 0 ist. Bemerkung. Statt Integral“ und integrierbar“ müßten wir genauer µ” ” ” Integral“ und µ-integrierbar“ sagen. Das soll aber nur geschehen, wenn andern” falls Mißverständnisse zu befürchten sind. Wir müssen nun zunächst zeigen, daß das Integral (d.h. die Abbildung, die gewissen Funktionen ihr Integral zuordnet) ein monotones lineares Funktional ist. Es handelt sich also um den Nachweis der folgenden Eigenschaften. (17.4) Integraleigenschaften. R R (a) αf dµ = α f dµ (α ∈ R), R R R (b) (f + g) dµ = f dµ + g dµ, R R (c) f ≤ g ⇒ f dµ ≤ g dµ. Entsprechend der dreiteiligen Definition (17.3) geschieht der Beweis in drei Schritten. 142 17 INTEGRATION (17.5) Satz. (17.4) gilt für Elementarfunktionen f, g und für α ≥ 0. Beweis. Eigenschaft (17.4)(a) gilt trivialerweise. Seien f= n X αi 1Ai , g= i=1 m X βj 1Bj , f +g = j=1 p X γk 1Ck k=1 die natürlichen Darstellungen. Wegen [ Ck = (Ai ∩ Bj ) (i,j)∈Vk mit Vk := {(i, j) ∈ {1, . . . , n} × {1, . . . , m} : αi + βj = γk } gilt Z X X [ γk µ(Ck ) = γk µ (f + g) dµ = (Ai ∩ Bj ) k k = X = X = X X γk k µ(Ai ∩ Bj ) = XX (i,j)∈Vk αi X i µ(Ai ∩ Bj ) + X j i j βj X j αi µ(Ai ) + X i (αi + βj )µ(Ai ∩ Bj ) µ(Ai ∩ Bj ) i βj µ(Bj ) j Z = (i,j)∈Vk Z f dµ + g dµ, also (17.4)(b). Gilt f ≤ g, so ist auch g − f eine Elementarfunktion, folglich ist Z Z Z Z Z g dµ = [(g − f ) + f ] dµ = (g − f ) dµ + f dµ ≥ f dµ, denn das Integral einer Elementarfunktion ist nach Definition nichtnegativ. Bemerkung. Jetzt folgt für eine Elementarfunktion e= n X αi 1Ai i=1 die Gleichung Z e dµ = n X i=1 Z αi 1Ai dµ = n X i=1 αi µ(Ai ) 143 auch dann, wenn die angegebene Darstellung von e nicht die natürliche ist. Um die Additivitätseigenschaft (17.4)(b) für nichtnegative meßbare Funktionen zeigen zu können, schieben wir zunächst den folgenden Satz ein, der zu den fundamentalen Aussagen der hier entwickelten Integrationstheorie gehört. (17.6) Satz. (Satz von Beppo Levi oder Satz von der monotonen Konvergenz) Ist (fn )n∈N eine Folge meßbarer Funktionen auf Ω mit 0 ≤ f1 ≤ f2 ≤ . . ., so gilt Z Z lim fn dµ = lim fn dµ. n→∞ n→∞ Beweis. Die Grenzfunktion f := lim fn n→∞ existiert jedenfalls, R da die Folge (fn )n∈N monoton ist. NachR Satz (16.9) ist f meßbar, also ist f dµ gemäß (17.3)(2) definiert. Die Folge ( fn dµ)n∈N ist R nach Definition des Integrals und nach (17.5) monoton, also existiert limn→∞ fn dµ in R. Da (17.4)(c) für Elementarfunktionen gilt, gilt es nach Def. (17.3)(2) auch für nichtnegative meßbare Funktionen. Wegen 0 ≤ fn ≤ f ist also jedenfalls Z Z lim fn dµ ≤ f dµ. n→∞ Sei Pme eine Elementarfunktion mit e ≤ f und der natürlichen Darstellung e = i=1 αi 1Ai ; sei 0 < γ < 1. Für En := {fn ≥ γe} gilt En ∈ A (nach Satz (16.8)), ferner En ↑ Ω für n → ∞. Unter Verwendung von (17.4)(c) für nichtnegative Funktionen und (17.4)(a,b) für Elementarfunktionen erhält man Z Z Z fn dµ ≥ fn 1En dµ ≥ γe1En dµ Z = γ m X αi 1Ai 1En dµ = γ i=1 = γ m X m X Z αi 1Ai ∩En dµ i=1 αi µ(Ai ∩ En ). i=1 Da das Maß µ nach Satz (12.6) von unten stetig ist, gilt lim µ(Ai ∩ En ) = µ(Ai ) n→∞ (i = 1, . . . , m), 144 17 INTEGRATION also Z fn dµ ≥ γ lim n→∞ m X αi lim µ(Ai ∩ En ) n→∞ i=1 = γ m X Z αi µ(Ai ) = γ e dµ. i=1 R R Da γ < 1 beliebig war, folgt lim fn dµ ≥ e dµ, also Z Z lim fn dµ ≥ f dµ n→∞ und damit die Behauptung von Satz (17.6). (17.7) Satz. (17.4) gilt für nichtnegative meßbare Funktionen f, g und für alle α ≥ 0. Beweis. Die Behauptungen (17.4)(a) (für α ≥ 0) und (c) ergeben sich unmittelbar aus der Definition des Integrals und den entsprechenden, bereits bewiesenen Aussagen für Elementarfunktionen. Nach Satz (17.2) gibt es Folgen (en )n∈N , (e0n )n∈N von Elementarfunktionen mit 0 ≤ e1 ≤ e2 ≤ . . ., 0 ≤ e01 ≤ e02 ≤ . . . und f = lim en , g = lim e0n . Aus 0 ≤ e1 + e01 ≤ e2 + e02 ≤ . . . und lim(en + e0n ) = f + g folgt nach Satz (17.6) Z Z Z 0 (f + g) dµ = lim(en + en ) dµ = lim (en + e0n ) dµ Z = lim Z en dµ + Z = Z lim en dµ + Z = e0n Z Z dµ = lim en dµ + lim e0n dµ lim e0n dµ Z f dµ + g dµ. (17.8) Satz. Seien f, g integrierbare Funktionen derart, daß f + g erklärt ist; sei α ∈ R. Dann sind αf und f + g integrierbar, und es gilt (17.4). Beweis. Ist α ≥ 0, so ist (αf )+ = αf + und (αf )− = αf − , also sind (αf )+ und (αf )− integrierbar, und es gilt Z Z Z Z Z + − + αf dµ = (αf ) dµ − (αf ) dµ = α f dµ − α f − dµ Z = α f dµ. 145 Im Fall α < 0 ist (αf )+ = −αf − und (αf )− = −αf + , und man kann analog wie oben schließen. Wegen (f + g)+ ≤ f + + g + und (f + g)− ≤ f − + g − gilt nach Satz (17.7) Z Z Z + + (f + g) dµ ≤ f dµ + g + dµ < ∞, Z Z − (f + g) dµ ≤ Z − f dµ + g − dµ < ∞, also ist f + g integrierbar. Ferner ist (f + g)+ − (f + g)− = f + g = f + − f − + g + − g − , also (f + g)+ + f − + g − = (f + g)− + f + + g + . Nach Satz (17.7) folgt Z Z Z Z Z Z + − − − + (f + g) dµ + f dµ + g dµ = (f + g) dµ + f dµ + g + dµ. Da hier alle Integrale endlich sind, folgt Z Z Z + (f + g) dµ = (f + g) dµ − (f + g)− dµ Z f dµ − = Z = Z + − f dµ + Z + Z g dµ − g − dµ Z f dµ + g dµ. R R Ist f ≤ g, so ist (g − f )+ = g − f , also (g − f ) dµ = (g − f )+ dµ ≥ 0. Im folgenden Satz sind einige einfache Bemerkungen über integrierbare Funktionen zusammengestellt, die häufig benutzt werden. (17.9) Satz. Für meßbare numerische Funktionen f, g auf Ω gilt (a) f integrierbar ⇒ |f | integrierbar, (b) |f | ≤ g und g integrierbar ⇒ f integrierbar, (c) f, g integrierbar ⇒ max{f, g} und min{f, g} integrierbar, R R (d) f integrierbar ⇒ | f dµ| ≤ |f | dµ. Beweis. Meßbarkeit folgt jeweils aus Satz (16.9). – (a) ist klar wegen |f | = f + + f − . – (b) ist klar wegen (17.4)(c). – (c) ist klar wegen | max{f, g}| ≤ |f | + 146 17 INTEGRATION R R + R − R + |g|, | min{f, g}| ≤ |f | + |g|. – (d) | f dµ| = | f dµ − f dµ| ≤ | f dµ| + R R R | f − dµ| = (f + + f − )dµ = |f |dµ. Unter einer µ-Nullmenge verstehen wir im folgenden eine Menge A ∈ A mit µ(A) = 0. Von einer Eigenschaft, die die Punkte von Ω haben können, sagen wir, sie gelte µ-fast überall, wenn die Menge aller x ∈ Ω, die die Eigenschaft nicht haben, eine µ-Nullmenge ist. Es folgen einige häufig benutzte fast überall“” Aussagen über Integrale. (17.10) Satz. Seien f, g meßbare nichtnegative oder integrierbare Funktionen auf Ω. Dann gilt: (a) f integrierbar ⇒ f ist µ-fast überall endlich, R R (b) f = g µ-fast überall ⇒ f dµ = g dµ, R (c) f ≥ 0 und f dµ = 0 ⇒ f = 0 µ-fast überall. Beweis. (a) R Mit A := {|f R | = ∞} gilt für n ∈ N die Ungleichung n1A ≤ |f |, also nµ(A) = n1A dµ ≤ |f | dµ < ∞, wenn f und damit |f | integrierbar ist. Da n ∈ N beliebig ist, folgt µ(A) = 0. (b) R Nach Voraussetzung gibt es eine µ-Nullmenge N mit f 1N c = g1N c . Es ist f 1N dµ = 0. Dies folgt aus der Integraldefinition (schrittweise). Also ist Z Z f dµ = Z (f 1 Nc + f 1N ) dµ = Z = f 1N c dµ + 0 Z g1 Nc dµ + 0 = Z (g1 Nc + g1N ) dµ = gdµ. (c) Setze An := {f > n1 } für n ∈ N. Aus 1 µ(An ) = n Z 1 1A dµ ≤ n n Z f dµ = 0 folgt ! µ({f > 0}) = µ [ n∈N An ≤ X µ(An ) = 0. n∈N Bislang haben wir nur Integrale über ganz Ω betrachtet. Man kann aber auch Integrale über meßbare Teilmengen von Ω erklären in der folgenden naheliegenden Weise. Implizit haben wir solche Integrale schon benutzt. 147 (17.11) Def. und Beh. Sei f eine meßbare nichtnegative oder integrierbare Funktion auf Ω, sei A ∈ A. Man schreibt Z Z f dµ := f 1A dµ A und nennt R A f dµ das Integral von f über A. Ist f integrierbar, so auch f 1A . Was hier behauptet wird, ist klar. (17.12) Satz und Def. Sei f eine meßbare nichtnegative oder integrierbare Funktion auf Ω. Durch Z für A ∈ A ν(A) := f dµ A wird auf A ein signiertes Maß ν definiert. Es wird als das unbestimmte µ-Integral von f bezeichnet. Sei f ≥ 0. Für jede meßbare nichtnegative oder ν-integrierbare Funktion g auf Ω gilt Z Z g dν = gf dµ. Beweis. Zunächst sei f ≥ 0. Trivialerweise gilt ν(∅) = 0 undP ν ≥ 0. Sei (Ai )i∈N S∞ eine disjunkte Folge in A und i=1 Ai =: A. Dann gilt 1A = ∞ i=1 1Ai . Mit dem Satz (17.6) von der monotonen Konvergenz folgt Z ν(A) = f 1A dµ = Z X ∞ i=1 f 1Ai dµ = ∞ Z X f 1Ai dµ = i=1 ∞ X ν(Ai ). i=1 Also ist ν σ-additiv und damit ein Maß. Nimmt f auch negative Werte an, so sei Z Z + + − ν (A) := f dµ, ν (A) := f − dµ für A ∈ A A A gesetzt. Hier ist ν − endlich, folglich ist ν = ν + − ν − ein signiertes Maß. P Jetzt sei wieder f ≥ 0, also ν ein Maß. Ist e = ni=1 αi 1Ai eine Elementarfunktion, so gilt ! Z Z Z X Z n n n X X e dν = αi ν(Ai ) = αi f 1Ai dµ = αi 1Ai f dµ = ef dµ. i=1 i=1 i=1 148 17 INTEGRATION Sei g ≥ 0 eine meßbare Funktion. Nach Hilfssatz (17.2) gibt es eine Folge (en )n∈N von Elementarfunktionen auf Ω mit 0 ≤ e1 ≤ e2 ≤ . . . und lim en = g. Wegen Satz (17.6) folgt also Z Z Z Z g dν = lim en dν = lim en dν = lim en f dµ Z = Z lim en f dµ = gf dµ. R + R Sei jetzt g eine ν-integrierbare Funktion, also g dν < ∞. Dann ist (gf )+ dµ = R + R + R R R − − − R g f dµ =R +g dν <R ∞− und (gf R )+ dµ =R −g f dµ R= g dν < ∞, woraus gf dµ = g f dµ − g f dµ = g dν − g dν = g dν folgt. (17.13) Satz. Sei f eine integrierbare Funktion auf Ω. Gilt Z f dµ ≥ 0 für alle A ∈ A, A so ist f ≥ 0 µ-fast überall. Beweis. Mit B := {f < 0} gilt Z 0 ≤ f dµ ≤ 0, Z also B Z f dµ = f 1B dµ = 0. B Nach Satz (17.10)(c) folgt f 1B = 0 µ-fast überall, also µ(B) = 0 und somit f ≥ 0 µ-fast überall. Neben dem Maßraum (Ω, A, µ) sei jetzt noch ein meßbarer Raum (Ω0 , A0 ) gegeben. Für eine meßbare Abbildung T : Ω → Ω0 hatten wir in (16.4) das Bildmaß T (µ) erklärt durch T (µ)(A0 ) := µ(T −1 (A0 )) für A0 ∈ A0 . Für die zugehörigen Integrale ergibt sich jetzt der folgende Transformationssatz. (17.14) Satz. (Transformationssatz) Seien (Ω, A, µ) ein Maßraum, (Ω0 , A0 ) ein meßbarer Raum und T : Ω → Ω0 eine (A, A0 )-meßbare Abbildung. Sei f 0 eine A0 -meßbare numerische Funktion auf Ω0 . Die Funktion f 0 ist genau dann T (µ)integrierbar, wenn f 0 ◦ T µ-integrierbar ist. In diesem Fall oder wenn f 0 ≥ 0 ist, gilt Z Z 0 f dT (µ) = f 0 ◦ T dµ. Beweis. Nach Satz (16.3) ist f 0 ◦ T meßbar. Ist e0 = funktion auf (Ω0 , A0 ), so gilt offenbar 0 e ◦T = n X i=1 αi 1Ai Pn i=1 αi 1A0i eine Elementar- mit Ai = T −1 (A0i ), 149 und e0 ◦ T ist eine Elementarfunktion auf (Ω, A). Daher gilt Z n X 0 e ◦ T dµ = αi µ(Ai ) = i=1 n X = n X αi µ(T −1 (A0i )) i=1 αi T (µ)(A0i ) Z = e0 dT (µ). i=1 Sei f 0 ≥ 0. Da es nach Hilfssatz (17.2) eine Folge (e0n )n∈N von Elementarfunktionen auf (Ω0 , A0 ) mit 0 ≤ e01 ≤ e02 ≤ . . . und lim e0n = f 0 gibt und da dann auch 0 ≤ e01 ◦ T ≤ e02 ◦ T ≤ . . . und lim(e0n ◦ T ) = f 0 ◦ T gilt, folgt nach Satz (17.6) Z Z 0 f ◦ T dµ = lim(e0n Z = lim e0n Z ◦ T ) dµ = lim Z dT (µ) = e0n ◦ T dµ lim e0n Z dT (µ) = f 0 dT (µ). Nun sei f 0 eine beliebige A-meßbare numerische Funktion. Nach dem bereits Bewiesenen gilt Z f 0+ f 0− Z Z dT (µ) = f 0+ f 0− Z dT (µ) = Z (f 0 ◦ T )+ dµ, Z (f 0 ◦ T )− dµ. ◦ T dµ = ◦ T dµ = Damit ergeben sich die restlichen Behauptungen. Bemerkung. Sei F : R → R eine maßerzeugende Funktion, also eine monoton nicht abnehmende, linksseitig stetige Funktion. Sei µ das von F erzeugte Lebesgue-Stieltjes-Maß, also (siehe §14) das eindeutig bestimmte Maß auf B 1 mit µ([a, b)) = F (b) − F (a) für a, b ∈ R, a < b. Ist g : R → R eine µ-integrierbare Funktion, so schreibt man auch Z Z g dµ =: g dF und nennt dies das Lebesgue-Stieltjes-Integral der Funktion g bezüglich der maßerzeugenden Funktion F . 150 18 18 KONVERGENZSÄTZE FÜR DAS INTEGRAL Konvergenzsätze für das Integral Bei der praktischen Handhabung des in §17 definierten Integrals machen sich seine analytischen Eigenschaften sehr angenehm bemerkbar. Dies zeigt schon der bereits mehrfach benutzte Satz (17.6) von der monotonen Konvergenz. Das folgende Resultat läßt sich als Ausdehnung dieses Satzes auf nicht notwendig monotone Folgen ansehen. Dann brauchen die Grenzwerte nicht mehr zu existieren; immerhin gilt aber noch folgende Ungleichung. (18.1) Satz. (Lemma von Fatou) Für jede Folge (fn )n∈N nichtnegativer meßbarer Funktionen auf Ω gilt Z Z (lim inf fn ) dµ ≤ lim inf fn dµ. n→∞ n→∞ Beweis. Mit hn := inf k≥n fk gilt lim inf fn = lim hn . n→∞ n→∞ Nach Satz (16.9) ist hn meßbar, und es gilt 0 ≤ h1 ≤ h2 ≤ . . . sowie hn ≤ fn für n ∈ N. Aus Satz (17.6) folgt also Z Z Z (lim inf fn ) dµ = lim hn dµ = lim hn dµ n→∞ n→∞ n→∞ Z = lim inf n→∞ Z hn dµ ≤ lim inf n→∞ fn dµ. Beispiel. In Satz (18.1) kann die Voraussetzung nichtnegativ“ nicht ersetzt werR ” den durch integrierbar“ (nicht einmal, wenn die Folgen (fn )n∈N und ( fn dµ)n∈N ” konvergieren): Sei (Ω, A, µ) = (R, B 1 , λ), ( −1 für x ∈ [n, n + 1], fn (x) := 0 für x ∈ R \ [n, n + 1]. Dann ist Z Z lim fn dµ = 0 > −1 = lim n→∞ n→∞ Das folgende Resultat ist das wichtigste dieses Typs. fn dµ. 151 (18.2) Satz. (Konvergenzsatz von Lebesgue, Satz von der majorisierten Konvergenz). Sei (fn )n∈N eine fast überall konvergente Folge meßbarer numerischer Funktionen auf Ω. Es gebe eine integrierbare Funktion g auf Ω mit |fn | ≤ g fast überall (n ∈ N). Dann gibt es eine integrierbare Funktion f auf Ω mit f = lim fn fast überall n→∞ und Z lim n→∞ Z fn dµ = f dµ. Beweis. Nach Voraussetzung gibt es eine µ-Nullmenge N0 , so daß limn→∞ fn (x) für x ∈ Ω\N0 existiert. Ferner gibt es für n ∈ N eine Nullmenge Nn mit |fn (x)| ≤ g(x) für alle x ∈ Ω \ Nn . Da g integrierbar ist, gibt es nach Satz (8.10) eine Nullmenge N∞ mit g(x) < ∞ für alle x ∈ Ω \ N∞ . Die Menge N := N0 ∪ N∞ ∪ S n∈N Nn ist eine Nullmenge. Setzen wir f n := fn 1Ω\N , so ist f n meßbar, und die Folge (f n )n∈N ist überall konvergent, also wird durch f := lim f n n→∞ eine meßbare Funktion f definiert. Die Funktion g := g1Ω\N ist integrierbar und erfüllt |f n | ≤ g und g < ∞ auf ganz Ω. Es bedeutet daher keine Beschränkung der Allgemeinheit, im Satz von vornherein |fn | ≤ g, lim fn = f, n→∞ g<∞ auf ganz Ω anzunehmen. Wegen |fn | ≤ g ist fn integrierbar, ferner folgt |f | ≤ g, also ist f integrierbar. Wegen −fn ≤ g ist g + fn ≥ 0, nach Satz (18.1) folgt also Z Z Z Z (g + f ) dµ = lim(g + fn ) dµ = lim inf(g + fn ) dµ ≤ lim inf (g + fn ) dµ, somit Z Z f dµ ≤ lim inf fn dµ. Wegen fn ≤ g ist g − fn ≥ 0, analog wie oben folgt also Z Z Z (−f ) dµ ≤ lim inf (−fn ) dµ = − lim sup fn dµ. 152 19 DER SATZ VON RADON-NIKODYM Aus Z Z f dµ ≤ lim inf folgt R f dµ = lim R Z fn dµ ≤ lim sup Z fn dµ ≤ f dµ fn dµ. Das Beispiel nach Satz (18.1) zeigt, daß die Voraussetzung |fn | ≤ g mit integrierbarem g nicht ersetzt werden kann durch die Voraussetzung, daß alle fn integrierbar sind. 19 Der Satz von Radon-Nikodym Ist (Ω, A, µ) ein Maßraum und f eine meßbare nichtnegative oder integrierbare Funktion auf Ω, so wird laut Satz (17.12) durch Z ν(A) := f dµ für A ∈ A (10) A ein signiertes Maß ν auf A definiert. Eine solche Darstellung eines signierten Maßes ν vermittels einer Funktion f kann insbesondere dann von Vorteil sein, wenn das Maß µ als wohlbekannt anzusehen ist (wie z.B. das Lebesgue-Maß auf Rn ). Wenn der Zusammenhang (10) zwischen ν und µ besteht, sagt man auch, daß ν bezüglich µ die Dichte f besitzt. Das Ziel dieses Abschnitts ist die Beantwortung der Frage, wie man von einem signierten Maß ν feststellen kann, ob es bezüglich eines gegebenen Maßes µ eine Dichte besitzt, also als unbestimmtes µ-Integral einer meßbaren Funktion darstellbar ist. Gilt (10) und Rist N eine µ-Nullmenge, so muß jedenfalls auch ν(N ) = 0 gelten (wegen ν(N ) = f 1N dµ, f 1N = 0 µ-fast überall und Satz (17.10)). Wir werden zeigen, daß diese notwendige Bedingung auch hinreichend ist, falls µ und ν als σ-endlich vorausgesetzt werden. Ist ν ein signiertes Maß, so versteht man unter einer ν-Nullmenge eine |ν|Nullmenge (eine Menge A ∈ A mit ν(A) = 0 ist also im allgemeinen noch keine ν-Nullmenge!). (19.1) Def. Sei (Ω, A, µ) ein Maßraum und ν ein signiertes Maß auf A. Dann heißt ν absolut stetig bezüglich µ (kurz: µ-stetig; Schreibweise: ν µ), wenn jede µ-Nullmenge auch eine ν-Nullmenge ist. Wir betrachten zunächst den Fall, daß auch ν ein Maß ist. (19.2) Satz und Def. (Radon-Nikodym) Seien µ und ν zwei σ-endliche Maße auf der σ-Algebra A in Ω. Ist ν absolut stetig bezüglich µ, so gibt es eine meßbare 153 nichtnegative reellwertige Funktion f auf Ω mit Z für A ∈ A. ν(A) = f dµ A Jede solche Funktion f wird als Radon-Nikodymsche Ableitung oder Dichte von ν bezüglich µ bezeichnet. Ist f 0 eine weitere derartige Funktion, so gilt µ-fast überall f = f 0. Bemerkung. Die Voraussetzung, daß auch ν ein σ-endliches Maß ist, kann entbehrt werden, wenn man in der Formulierung des Satzes von Radon-Nikodym reellwertige“ durch numerische“ ersetzt. Wir wollen das hier aber nicht zeigen. ” ” Beweis von (19.2). 1. Schritt: µ und ν seien endliche Maße. RSei F die Menge aller meßbaren reellwertigen Funktionen f ≥ 0 auf Ω mit f dµ ≤ ν(A) für alle A ∈ A (es ist F = 6 ∅ wegen 0 ∈ F). Setze A Z f dµ : f ∈ F . α := sup R Es gibt eine Folge (fn )n∈N in F mit limn→∞ fn dµ = α. Für n ∈ N sei gn := max{f1 , . . . , fn }. Für A ∈ A setzen wir induktiv Ak := {gn = fk } ∩ A ∩ Ac1 ∩ . . . ∩ Ack−1 , k = 1, . . . , n, dann folgt Z gn dµ = n Z X k=1 A fk dµ ≤ Ak n X ν(Ak ) = ν(A). k=1 Wegen 0 ≤ g1 ≤ g2 ≤ . . . folgt nach Satz (17.6) für die numerische Funktion f := limn→∞ gn Z Z f dµ = lim gn dµ ≤ ν(A), n→∞ A also f ∈ F und daher Z A R f dµ ≤ α. Aus Z Z f dµ = lim gn dµ ≥ lim fn dµ = α R R folgt f dµ = α. Wegen f dµ ≤ ν(Ω) < ∞ ist f nach Satz (17.10) µ-fast überall endlich, o.B.d.A. sei f überall endlich. Wir behaupten, daß Z ν(A) = f dµ A für alle A ∈ A 154 19 DER SATZ VON RADON-NIKODYM gilt. Angenommen, das wäre falsch. Durch Z λ(A) := ν(A) − f dµ für A ∈ A A wird dann ein Maß λ mit λ(Ω) > 0 erklärt. Für geeignetes m ∈ R+ gilt µ(Ω) − mλ(Ω) < 0. Sei Ω = P ∪ N , P ∩ N = ∅ eine Hahn-Zerlegung von Ω bezüglich des signierten Maßes µ − mλ (vgl. Satz (15.2)). Wäre µ(N ) = 0, so wäre ν(N ) = 0 wegen ν µ, also λ(N ) = 0 und daher 0 ≤ (µ − mλ)(P ) = (µ − mλ)(Ω) < 0; aus diesem Widerspruch folgt µ(N ) > 0. Setze h := m1 1N . Für A ∈ A gilt (µ − mλ)(A ∩ N ) ≤ 0, da N eine negative Menge bezüglich µ − mλ ist, also ist Z Z 1 h dµ = µ(A ∩ N ) ≤ λ(A ∩ N ) ≤ λ(A) = ν(A) − f dµ, m A A R (f + h) dµ ≤ ν(A) und somit f + h ∈ F. Andererseits ist Z Z 1 (f + h) dµ = f dµ + µ(N ) > α, m R was der Definition von α widerspricht. Damit ist ν(A) = A f dµ für alle A ∈ A gezeigt. also A 2. Schritt: µ und ν seien σ-endliche Maße. S Es gibt dann eine disjunkte Folge (An )n∈N in A mit n∈N An = Ω, µ(An ) < ∞, ν(An ) < ∞. Setze µn (A) := µ(A ∩ An ) und νn (A) := ν(A ∩ An ) für A ∈ A. Dann sind µn und νn endliche Maße auf A mit νn µn . Nach dem 1. Schritt gibt es eine meßbare reellwertige Funktion fn ≥ 0 auf Ω mit Z ν(A ∩ An ) = fn dµ für A ∈ A. A∩An Setze f (x) := fn (x) für x ∈ An , dann ist f ≥ 0 meßbar und reellwertig, und für A ∈ A gilt Z X X Z X Z ν(A) = ν(A ∩ An ) = fn dµ = f dµ = f dµ. A∩An A∩An A Damit ist die Existenzaussage von Satz (19.2) nachgewiesen. Zum Beweis der Eindeutigkeit f.ü. seien f, f 0 zwei meßbare Funktionen mit Z Z ν(A) = f dµ = f 0 dµ für A ∈ A. A A 155 Ist ν endlich, so sind f und f 0 µ-integrierbar, also ist h := f −f 0 integrierbar, und R es gilt A h dµ = 0 für alle A ∈ A. Aus Satz (17.13) folgt h = 0 µ-fast überall. S Ist ν nur σ-endlich, so gibt es eine disjunkte Folge (An )n∈N in A mit An = Ω und ν(An ) < ∞. Aus Z Z f 0 dµ für A ∈ A f dµ = ν(A ∩ An ) = A∩An A∩An folgt nach dem Vorstehenden, daß f |An = f 0 |An µ-fast überall auf An gilt. Daraus folgt f = f 0 µ-fast überall. Es liegt nahe, daß man den Satz von Radon-Nikodym auf signierte Maße ausdehnen kann. Wir beschränken uns dabei auf endliche signierte Maße. Eine Ausdehnung auf σ-endliche signierte Maße R R + ist möglich, R − wenn man den Integralbegriff so verallgemeinert, daß f dµ = f dµ − f dµ auch dann definiert wird, wenn nur eines der rechts stehenden Integrale endlich ist. (19.3) Satz. (Radon-Nikodym) Seien µ ein σ-endliches Maß und ν ein endliches signiertes Maß auf dem meßbaren Raum (Ω, A). Gilt ν µ, so gibt es eine µintegrierbare Funktion f auf Ω mit Z ν(A) = f dµ für A ∈ A. A Beweis. Sei ν = ν + − ν − die Jordan-Zerlegung von ν gemäß Satz (15.2). Dann sind ν + und ν − endliche Maße. Offenbar gilt ν + µ und ν − µ (beachte die Darstellung ν + (A) = ν(A ∩ P ) etc.). Nach Satz (19.2) existieren meßbare reelle Funktionen f1 ≥ 0, f2 ≥ 0 auf Ω mit Z Z + − ν (A) = f1 dµ, ν (A) = f2 dµ für A ∈ A. A A Da ν + und ν − endlich sind, sind f1 , f2 µ-integrierbar, also ist f := f1 −f2 ebenfalls µ-integrierbar, und es gilt Z Z Z f dµ = f1 dµ − f2 dµ = ν + (A) − ν − (A) = ν(A) A A A für alle A ∈ A. Im Satz von Radon-Nikodym tritt die wesentliche Voraussetzung auf, daß das signierte Maß ν bezüglich des Maßes µ absolut stetig ist. Die Anwendbarkeit 156 20 PRODUKTMASSE dieses Satzes wird erweitert durch den Nachweis, daß man jedes σ-endliche signierte Maß eindeutig darstellen kann als Summe eines µ-stetigen Maßes und eines µ-singulären Maßes (vgl. Def. (15.3)). (19.4) Satz. (Zerlegungssatz von Lebesgue) Seien µ ein σ-endliches Maß und ν ein σ-endliches signiertes Maß auf der σ-Algebra A. Dann gibt es eindeutig bestimmte signierte Maße ν1 , ν2 auf A mit ν1 µ, ν2 ⊥ µ und ν = ν1 + ν2 . Beweis. Zunächst sei ν als σ-endliches Maß vorausgesetzt. Setze λ := µ + ν, dann ist auch λ ein σ-endliches Maß. Wegen µ λ gibt es nach Satz (19.2) eine meßbare Funktion f ≥ 0 auf Ω mit Z µ(A) = f dλ für A ∈ A. A Setze B := {f > 0} und ν1 (A) := ν(A ∩ B), ν2 (A) := ν(A ∩ B c ) für A ∈ A. Dann sind ν1 , ν2 Maße mit ν1 + ν2 = ν. R Sei A ∈ A und µ(A) = 0. Wegen A f dλ = 0 und f ≥ 0 gilt f = 0 λ-fast überall auf A. Wegen f > 0 auf A∩B muß λ(A∩B) = 0 und daher ν1 (A) = ν(A∩B) = 0 sein. Somit ist ν1 µ. R Wegen ν2 (B) = 0 und µ(B c ) = B c 0 dλ = 0 ist ν2 ⊥ µ. Ist ν ein σ-endliches signiertes Maß, so kann man das bereits Bewiesene auf die σ-endlichen Maße ν + und ν − anwenden und erhält durch Subtraktion das gewünschte Resultat (Differenzen von µ-stetigen bzw. µ-singulären Maßen haben offenbar die gleichen Eigenschaften). Zum Nachweis der Eindeutigkeit nehmen wir ν = ν1 + ν2 = ν10 + ν20 mit ν1 µ, ν10 µ, ν2 ⊥ µ, ν20 ⊥ µ an. Zunächst sei ν als endlich vorausgesetzt. Es folgt ϕ := ν1 − ν10 µ und ϕ = ν20 − ν2 ⊥ µ, daraus folgt ϕ = 0: Ist nämlich B ∈ A eine Menge mit |ϕ|(B) = µ(B c ) = 0, so gilt für A ∈ A ϕ(A) = ϕ(A ∩ B) + ϕ(A ∩ B c ) = 0. Die Eindeutigkeit für σ-endliches ν folgt jetzt in der gewohnten Weise. 20 Produktmaße In Analysis II lernt wurde bereits die Bedeutung des Satzes von Fubini herausgestellt. Er ermöglicht es, Integrale über den Raum Rn , den man als Produkt 157 von Rk und Rn−k darstellt, durch sukzessive Integrationen über Rk und Rn−k zu berechnen. In der allgemeinen Integrationstheorie gilt ein entsprechender Satz: Zu zwei gegebenen σ-endlichen Maßräumen kann man einen Produkt-Maßraum so erklären, daß die formal gleichlautende Verallgemeinerung des Satzes von Fubini gilt. Gegenüber dem klassischen Spezialfall, wo ja der Produktraum von vornherein gegeben ist, verschieben sich jetzt aber die Akzente insofern, als im allgemeinen Fall gerade die Existenz des Produktmaßes mit den gewünschten Eigenschaften die wesentliche Aussage ist. Produkte von Maßräumen spielen insbesondere in der Wahrscheinlichkeitstheorie eine wesentliche Rolle, und dort ist man auch genötigt, Produkte von unendlich vielen Wahrscheinlichkeitsräumen zu bilden. Zunächst betrachten wir das in naheliegender Weise erklärte Produkt von zwei meßbaren Räumen und einige damit zusammenhängende Begriffsbildungen. (20.1) Def. Seien (Ω1 , A1 ), (Ω2 , A2 ) meßbare Räume. Die von dem System {A × B : A ∈ A1 , B ∈ A2 } in Ω1 × Ω2 erzeugte σ-Algebra heißt das Produkt der σ-Algebren A1 und A2 ; sie wird mit A1 ⊗ A2 bezeichnet. Der meßbare Raum (Ω1 × Ω2 , A1 ⊗ A2 ) heißt das Produkt der meßbaren Räume (Ω1 , A1 ), (Ω2 , A2 ). (20.2) Def. (Vor. und Bez. wie in (20.1)). Für E ⊂ Ω1 × Ω2 und x ∈ Ω1 wird Ex := {y ∈ Ω2 : (x, y) ∈ E} gesetzt; jede solche Menge heißt ein Ω1 -Schnitt von E. Analog ist E y := {x ∈ Ω1 : (x, y) ∈ E} mit y ∈ Ω2 ein Ω2 -Schnitt von E. Für eine Funktion f auf E und für x ∈ Ω1 wird fx (y) := f (x, y) für y ∈ Ex gesetzt; jede solche Funktion heißt ein Ω1 -Schnitt von f . Analog ist durch f y (x) := f (x, y) für x ∈ E y mit y ∈ Ω2 ein Ω2 -Schnitt f y von f erklärt. (20.3) Satz. Seien (Ω1 , A1 ), (Ω2 , A2 ) meßbare Räume, sei E ⊂ Ω1 × Ω2 eine A1 ⊗ A2 -meßbare Teilmenge und f eine A1 ⊗ A2 -meßbare Funktion auf Ω1 × Ω2 . Dann gilt: (a) Für jedes x ∈ Ω1 ist Ex eine A2 -meßbare Teilmenge (analog ist jedes E y eine 158 20 PRODUKTMASSE A1 -meßbare Menge). Kurz: Jeder Schnitt einer meßbaren Menge ist meßbar. (b) Für jedes x ∈ Ω1 ist fx eine A2 -meßbare Funktion (analog ist jedes f y eine A1 -meßbare Funktion). Kurz: Jeder Schnitt einer meßbaren Funktion ist meßbar. Beweis. (a) Sei E das System aller Teilmengen E von Ω1 ×Ω2 , für die jeder Schnitt meßbar ist. Ist A ∈ A1 und B ∈ A2 , so ist jeder Schnitt von A × B trivialerweise meßbar; also enthält E ein Erzeugendensystem S S der σ-Algebra A1 ⊗ A2 . Beachtet c c man, daß (E )x = (Ex ) und ( Ei )x = (Ei )x für E, Ei ⊂ Ω1 × Ω2 , x ∈ Ω1 und analoge Gleichungen für Ω2 -Schnitte gelten, so zeigt man leicht, daß E eine σ-Algebra ist. Somit gilt A1 ⊗ A2 ⊂ E, woraus die Behauptung (b) folgt. (b) Für α ∈ R gilt y ∈ {fx ≤ α} ⇔ fx (y) ≤ α ⇔ f (x, y) ≤ α ⇔ (x, y) ∈ {f ≤ α} ⇔ y ∈ {f ≤ α}x , also {fx ≤ α} = {f ≤ α}x . Aus Teil (a) folgt jetzt die Behauptung. Der nächste Satz ist die entscheidende Grundlage für die Konstruktion des Produktmaßes und für den Beweis des Satzes von Fubini. (20.4) Satz. Seien (Ωi , Ai , µi ) (i = 1, 2) σ-endliche Maßräume. Für eine meßbare Menge E ⊂ Ω1 × Ω2 sei fE1 (x) := µ2 (Ex ) für x ∈ Ω1 , fE2 (y) := µ1 (E y ) für y ∈ Ω2 gesetzt. Dann sind fE1 und fE2 meßbar, und es gilt Z fE1 Z dµ1 = fE2 dµ2 . Beweis. Zunächst setzen wir voraus, daß µ1 und µ2 endlich sind. Es sei M das System Teilmengen E ⊂ Ω1 × Ω2 , für die fE1 , fE2 meßbar sind R 1aller meßbaren R 2 und fE dµ1 = fE dµ2 gilt. Ferner sei E das System aller endlichen disjunkten Vereinigungen von Mengen der Form A × B mit A ∈ A1 , B ∈ A2 . Wir zeigen: (a) M ist ein monotones System, (b) E ⊂ M, (c) E ist eine Algebra. Die von E erzeugte σ-Algebra, also A1 ⊗ A2 , ist dann nach Satz (11.7)(a) gleich dem von E erzeugten monotonen System, also in M enthalten. Jede A1 ⊗ A2 meßbare Menge E gehört somit zu M, wie im Satz behauptet. 159 Beweis von (a): Sei (En )n∈N eine monotone Folge in M, gelte zunächst En ↑ E. Für x ∈ Ω1 gilt auch Enx ↑ Ex (wobei Enx := (En )x gesetzt ist). Unter Verwendung von Satz (12.6) ergibt sich [ Enx fE1 (x) = µ2 (Ex ) = µ2 = lim µ2 (Enx ) = lim fE1 n (x), analog fE2 = lim fE2 n . Somit sind fE1 und fE2 meßbar, und es gilt Z Z Z Z 1 1 1 lim fEn dµ1 = lim fEn dµ1 = lim fE2 n dµ2 fE dµ1 = Z = lim fE2 n Z dµ2 = fE2 dµ2 . Dabei wurde etwa der Satz (17.6) von der monotonen Konvergenz benutzt. Im Fall En ↓ E schließt man analog, wobei die Endlichkeit von µi zu beachten ist. Statt des Satzes von der monotonen Konvergenz kann man wegen 0 ≤ fE1 n ≤ µ2 (Ω2 ) und 0 ≤ fE2 n ≤ µ1 (Ω1 ) den Konvergenzsatz (18.2) von Lebesgue anwenden. In jedem Fall ergibt sich also E ∈ M und damit die Behauptung (a). Beweis von (b): Sei E = A × B mit A ∈ A1 , B ∈ A2 . Dann ist fE1 = µ2 (B)1A und R fRE2 = µ1 (A)1B ; also sind fE1 und fE2 meßbar, und es gilt fE1 dµ1 = µ2 (B)µ1 (A) = fE2 dµ2 . Somit ist E ∈ M. Sind E1 , E2 ∈ M disjunkt, so gilt fEi 1 ∪E2 = fEi 1 +fEi 2 , woraus E1 ∪ E2 ∈ M folgt. Beweis von (c): Es gilt Ω1 × Ω2 ∈ E. Für A1 , A2 ∈ A1 und B1 , B2 ∈ A2 ist (A1 × B1 ) \ (A2 × B2 ) = [(A1 ∩ A2 ) × (B1 \ B2 )] ∪ [(A1 \ A2 ) × B1 ] ∈ E, denn die Vereinigung ist disjunkt. Insbesondere ist E abgeschlossen gegen Komplementbildung. Ferner ist E abgeschlossen gegenüber der Bildung von endlichen disjunkten Vereinigungen und von Differenzen, also auch gegenüber der Bildung von beliebigen endlichen Vereinigungen. Somit ist E eine Algebra. Die Behauptung des Satzes ist also bewiesen unter der Voraussetzung, daß µ1 und µ2 endlich sind. Wird nurSσ-Endlichkeit vorausgesetzt, so gibt es eine zunehmende i i Folge (Ain )n∈N in Ωi mit ∞ n=1 An = Ωi und µi (An ) < ∞ für n ∈ N (i = 1, 2). Für eine meßbare Menge E ⊂ Ω1 × Ω2 setzen wir E ∩ (A1n × A2n ) =: En . Dann gilt fEi = lim fEi n , n→∞ und die Folge (fEi n )n∈N ist monoton nicht abnehmend. Wendet man das bereits Bewiesene auf die endlichen Maßräume (Ωi , Ai , µi Ain ) an (wobei (µi Ain )(A) := 160 20 PRODUKTMASSE i i µ n ) ist), R so2 erhält man die Meßbarkeit von fEn (i = 1, i2) und die Gleichung R i (A∩A 1 R fE1 n dµ1 =R 2fEn dµ2 . Daraus folgt die Meßbarkeit von fE und die Gleichung fE dµ1 = fE dµ2 . Für das µ-Integral einer Funktion f auf dem Maßraum (Ω, A, µ) schreiben wir statt Z Z Z f dµ auch f (x) dµ(x) oder f (x)µ(dx). Ist z.B. f : Ω × M → R (M eine Menge) eine Funktion derart, daß für ein y ∈ M das Integral der Funktion f (·, y) : Ω → R existiert, so schreiben wir dieses Integral in der Form Z Z f (x, y) dµ(x) = f (x, y)µ(dx). Nachdem Satz (20.4) zur Verfügung steht, liegt die Konstruktion eines Produktmaßes jetzt nahe, vor allem wenn man sich als heuristische Hilfe noch das sogenannte Cavalierische Prinzip“ ins Gedächtnis ruft. ” (20.5) Satz und Def. Seien (Ωi , Ai , µi ) (i = 1, 2) σ-endliche Maßräume. Dann gibt es genau ein Maß ν auf A1 ⊗ A2 mit ν(A × B) = µ1 (A)µ2 (B) für alle A ∈ A1 , B ∈ A2 . Es wird gegeben durch Z Z ν(E) := µ2 (Ex ) dµ1 (x) = µ1 (E y ) dµ2 (y) für E ∈ A1 ⊗ A2 . Das Maß ν ist σ-endlich; es wird mit µ1 ⊗µ2 bezeichnet und heißt das Produktmaß der Maße µ1 und µ2 . Der Maßraum (Ω1 × Ω2 , A1 ⊗ A2 , µ1 ⊗ µ2 ) heißt das Produkt der gegebenen Maßräume. Beweis. Die Eindeutigkeit von ν folgt aus Satz (13.8): Man wähle E := {A × B : A ∈ A1 , B ∈ A2 } – das ist ein ∩-stabiles Erzeugendensystem von A1 ⊗ A2 – und beachte die σ-Endlichkeit von µ1 , µ2 . Daß ν wie angegeben definiert werden kann, folgt aus Satz (20.4). Die σ-Additivität der so erklärten Mengenfunktion ν folgt aus Satz (17.6), also ist ν ein Maß, das offenbar ν(A × B) = µ1 (A)µ2 (B) für A ∈ A1 , B ∈ A2 erfüllt und σ-endlich ist. Bemerkung. Bezeichnet B k die σ-Algebra der Borelmengen in Rk und β k das kdimensionale Borel-Lebesguesche Maß (das Lebesgue-Maß, eingeschränkt auf B k ), 161 so gilt offenbar B 1 ⊗B1 = B 2 und β 1 ⊗β 1 = β 2 . Anders liegen die Dinge, wenn wir die Vervollständigungen (Rk , Lk , λk ) der Maßräume (Rk , B k , β k ) betrachten: Es ist L1 ⊗L1 6= L2 . Ist nämlich A ⊂ R eine nicht Lebesgue-meßbare Teilmenge, so kann A × {o} wegen Satz (20.3)(a) keine L1 ⊗ L1 -meßbare Teilmenge von R × R = R2 sein. Als Teilmenge der λ2 -Nullmenge R × {o} ist A × {o} aber L2 -meßbar. Es zeigt sich, daß erst die Vervollständigung des Maßraumes (R×R, L1 ⊗L1 , λ1 ⊗λ1 ) den Maßraum (R2 , L2 , λ2 ) ergibt. Für das durch (20.5) definierte Produktmaß gilt nun der Satz von Fubini in der aus Analysis II im Spezialfall bekannten Form. Wir geben zwei Versionen an, eine für nichtnegative meßbare Funktionen und eine für integrierbare Funktionen. (20.6) Satz. (Fubini) Seien (Ωi , Ai , µi ) σ-endliche Maßräume (i = 1, 2). Sei f eine numerische Funktion auf Ω1 × Ω2 . (a) Die Funktion f sei nichtnegativ und A1 ⊗ A2 -meßbar. Dann ist die Funktion Z x 7→ f (x, y) dµ2 (y) (x ∈ Ω1 ) A1 -meßbar, die Funktion Z y 7→ f (x, y) dµ1 (x) (y ∈ Ω2 ) ist A2 -meßbar, und es gilt Z Z Z Z Z f dµ1 ⊗ µ2 = f (x, y) dµ2 (y) dµ1 (x) = f (x, y) dµ1 (x) dµ2 (y). (b) Die Funktion f sei µ1 ⊗µ2 -integrierbar. Dann ist fx µ2 -integrierbar für µ1 -fast alle x ∈ Ω1 , und f y ist µ1 -integrierbar für µ2 -fast alle y ∈ Ω2 ; die (fast überall definierten) Funktionen Z Z x 7→ f (x, y) dµ2 (y) und y 7→ f (x, y) dµ1 (x) sind integrierbar, und es gilt Z Z Z Z Z f dµ1 ⊗ µ2 = f (x, y) dµ2 (y) dµ1 (x) = f (x, y) dµ1 (x) dµ2 (y). Bemerkung. Hier kommen fast überall definierte Funktionen vor. Unter einer fast überall auf dem Maßraum (Ω, A, µ) definierten Funktion versteht man eine Funktion f : Ω \ N → R, wo N eine µ-Nullmenge ist. Für eine solche Funktion kann man etwa ( f (x) für x ∈ Ω \ N, f˜(x) := 0 für x ∈ N 162 20 PRODUKTMASSE setzen und nennt dann f meßbar (integrierbar), wenn f˜ meßbar (integrierbar) ist. Man schreibt Z Z f dµ := f˜ dµ, falls das rechte Integral existiert. Beweis von SatzP(20.6). Zur Abkürzung sei A1 ⊗ A2 =: A undPµ1 ⊗ µ2 =: µ gesetzt. Ist f = αi 1Ei eine A-Elementarfunktion, so ist fx = αi 1Eix (denn 1Ei (x, y) = 1 ⇔ (x, y) ∈ Ei ⇔ y ∈ Eix ⇔ 1Eix (y) = 1), also Z X f (x, y) dµ2 (y) = αi µ2 (Eix ). Aus Satz (20.4) folgt die behauptete Meßbarkeit, ferner folgt nach Satz (20.5) Z Z Z X X Z f dµ = αi µ(Ei ) = αi µ2 (Eix ) dµ1 (x) = f (x, y) dµ2 (y) dµ1 (x). R Analog ergibt sich die Meßbarkeit von y 7→ f (x, y) dµ1 (x) und die Gleichung Z Z Z f dµ = f (x, y) dµ1 (x) dµ2 (y). Ist f ≥ 0 und meßbar, so gibt es nach Hilfssatz (17.2) eine Folge (en )n∈N von A-Elementarfunktionen mit 0 ≤ e1 ≤ e2 ≤ . . . und lim en = f . Setzen wir R gn (x) := en (x, y) dµ2 (y), so ist gn A1 -meßbar, und es gilt 0 ≤ g1 ≤ g2 ≤ . . . Nach dem Satz (17.6) von der monotonen Konvergenz folgt Z Z lim gn (x) = lim en (x, y) dµ2 (y) = f (x, y) dµ2 (y). R Also ist die Funktion x 7→ f (x, y) dµ2 (y) A1 -meßbar, und nach dem bereits Bewiesenen und Satz (17.6) folgt Z Z Z Z f dµ = lim en dµ = lim en (x, y) dµ2 (y) dµ1 (x) Z = lim Z gn (x) dµ1 (x) = lim gn (x) dµ1 (x) Z Z = f (x, y) dµ2 (y) dµ1 (x). Analog ergibt sich Z Z Z f dµ = f (x, y) dµ1 (x) dµ2 (y). 163 Damit ist (a) bewiesen. Jetzt sei f eine µ-integrierbare Funktion auf Ω. Nach Teil (a) gilt Z Z Z |f (x, y)|dµ2 (y) dµ1 (x) = |f | dµ < ∞. R Nach Satz (17.10) gilt |f (x, y)| dµ2 (y) < ∞ für µ1 -fast alle x ∈ Ω1 ; für fast alle x ist also die Funktion fx µ2 -integrierbar. Die Funktion Z Z Z + x 7→ f (x, y) dµ2 (y) = f (x, y) dµ2 (y) − f − (x, y) dµ2 (y) ist also fast überall definiert, und nach (a) ist sie A1 -meßbar. Aus (a) folgt wegen Z Z + f dµ1 ⊗ µ2 < ∞, f − dµ1 ⊗ µ2 < ∞, daß diese Funktion µ1 -integrierbar ist und daß Z Z Z + f dµ1 ⊗ µ2 = f dµ1 ⊗ µ2 − f − dµ1 ⊗ µ2 Z Z Z Z + f (x, y) dµ2 (y) dµ1 (x) − = f − (x, y) dµ2 (y) dµ1 (x) Z Z = f (x, y) dµ2 (y) dµ1 (x) gilt. Die restlichen Behauptungen ergeben sich analog. Die Verallgemeinerung der vorstehenden Betrachtungen auf Produkte von endlich vielen σ-endlichen Maßräumen bietet keine Schwierigkeiten. Zunächst vereinbart man bekanntlich, die Produkte (Ω1 × . . . × Ωn−1 ) × Ωn und Ω 1 × . . . × Ωn zu identifizieren vermöge der bijektiven Abbildung ((x1 , . . . , xn−1 ), xn ) 7→ (x1 , . . . , xn ); analog für Ω1 × (Ω2 × . . . × Ωn ). Man kann also überhaupt jede Beklammerung weglassen; die Bildung des Produktes von Mengen ist somit assoziativ. Ist Ai eine σ-Algebra in Ωi (i = 1, . . . , n), so erklärt man das Produkt n O i=1 Ai = A1 ⊗ . . . ⊗ An 164 20 PRODUKTMASSE als die vom System {A1 × . . . × An : Ai ∈ Ai , i = 1, . . . , n} in Ω1 × . . . × Ωn erzeugte σ-Algebra. Daß auch diese Produktbildung assoziativ ist, muß allerdings bewiesen werden. Es ergibt sich aus folgendem Hilfssatz. (20.7) Hilfssatz. Sei Ai eine σ-Algebra in Ωi und Ei ein Erzeugendensystem von Ai mit Ωi ∈ Ei (i = 1, . . . , n). Dann wird A1 ⊗ . . . ⊗ An bereits vom System E := {E1 × . . . × En : Ei ∈ Ei , i = 1, . . . , n} erzeugt. Beweis. Sei A(E) die von E in Ω1 ×. . .×Ωn erzeugte σ-Algebra. Für i ∈ {1, . . . , n} ist das System {A ⊂ Ωi : Ω1 × . . . × Ωi−1 × A × Ωi+1 × . . . × Ωn ∈ A(E)} offenbar eine σ-Algebra in Ωi , die Ei und folglich Ai enthält. Ist also Ai ∈ Ai (i = 1, . . . , n), so ist A 1 × . . . × An = n \ (Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn ) ∈ A(E), i=1 woraus die Behauptung folgt. Jetzt ist klar, daß z.B. (A1 ⊗ . . . ⊗ An−1 ) ⊗ An = A1 ⊗ . . . ⊗ An ist, denn beide σ-Algebren werden von den Mengen der Form (A1 × . . . × An−1 ) × An = A1 × . . . × An mit Ai ∈ Ai erzeugt. Sind jetzt (Ωi , Ai , µi ) (i = 1, . . . , n) σ-endliche Maßräume, so kann man die Existenz genau eines Maßes ν auf A1 ⊗ . . . ⊗ An mit ν(A1 × . . . × An ) = µ1 (A1 ) · · · µn (An ) für Ai ∈ Ai (i = 1, . . . , n) nachweisen, indem man Satz (20.5) und vollständige Induktion benutzt; man schreibt n O ν = µ1 ⊗ . . . ⊗ µn = µi i=1 und nennt dieses Maß das Produktmaß von µ1 , . . . , µn . Aus der Eindeutigkeit von Produktmaßen folgert man leicht die Assoziativität dieser Produktbildung. 165 Die Verallgemeinerung des Satzes von Fubini liegt auf der Hand. Unendliche Produkte Es ist insbesondere in der Wahrscheinlichkeitstheorie erforderlich, auch Produkte von unendlich vielen Maßen zu bilden. Für den Fall von abzählbar vielen Wahrscheinlichkeitsmaßen wollen wir die Konstruktion hier durchführen. Ist (Ωi )i∈N eine Folge von Mengen, so erklärt man das kartesische Produkt Y Ωi oder ∞ Y Ωi i=1 i∈N als die Menge aller Folgen (xi )i∈N mit xi ∈ Ωi für alle i ∈ N. Analog wird natürlich ∞ Y Ωi i=k erklärt. Man nennt xi die i-te Koordinate von (xi )i∈N und die Abbildung Y Ωj → Ωi pi : j∈N (xj )j∈N 7→ xi die Projektion auf den i-ten Faktor. Wie üblich identifiziert man das endliche Produkt ∞ ∞ Y Y Ω 1 × . . . × Ωn × Ωi mit Ωi . i=n+1 i=1 Die Bezeichnung fast alle i ∈ N“ heißt im folgenden: alle i ∈ N bis auf endlich ” viele. (20.8) Def. Sei (Ωi , Ai )i∈N eine Folge meßbarer Räume und Ω = Teilmenge von Ω der Form A1 × . . . × An × ∞ Y Ωi mit n ∈ N Q i∈N Ωi . Jede und Ai ∈ Ai (i = 1, . . . , n) i=n+1 heißt meßbares Rechteck. Die vom System der meßbaren Rechtecke in Ω erzeugte σ-Algebra A heißt Produkt-σ-Algebra der Folge (Ai )i∈N und wird mit O Ai i∈N bezeichnet. Der meßbare Raum (Ω, A) heißt das Produkt der Folge (Ωi , Ai )i∈N . 166 20 PRODUKTMASSE N Bemerkung. Die Produkt-σ-Algebra i∈N Ai ist offenbar die kleinste σ-Algebra A in Ω, für die jede Projektion pk eine (A, Ak )-meßbare Abbildung ist (k ∈ N). (20.9) Hilfssatz (Vor. wieNin (20.8)). Ist Ei ein Erzeugendensystem von Ai mit Ωi ∈ Ei für i ∈ N, so wird i∈N Ai bereits vom System ( ) Y E := Ei : Ei ∈ Ei (i ∈ N) und Ei = Ωi für fast alle i ∈ N i∈N erzeugt. Beweis (im wesentlichen eine Wiederholung des Beweises von (20.7)). Für i ∈ N setze ( ) ∞ Y Ci := A ⊂ Ωi : Ω1 × . . . × Ωi−1 × A × Ωj ∈ A(E) ; j=i+1 dann ist Ci offenbar eine σ-Algebra in Ωi , die Ei und folglich Ai enthält. Ist also n ∈ N und Ai ∈ Ai (i = 1, . . . , n), so ist ∞ Y A1 × . . . × An × Ωj j=n+1 = n \ Ω1 × . . . × Ωi−1 × Ai × Ωi+1 × . . . × Ωn × i=1 ∞ Y ! Ωj ∈ A(E). j=n+1 A(E) enthält also alle meßbaren Rechtecke und damit die Produkt-σ-Algebra N i∈N Ai . (20.10) Def. und Beh. Sei (Ωi , Ai )i∈N eine Folge meßbarer Räume und (Ω, A) ihr Produkt. Jede Menge Z ⊂ Ω der Form Z =A× ∞ Y Ωj mit n ∈ N und A ∈ A1 ⊗ . . . ⊗ An j=n+1 heißt meßbarer Zylinder. Das System Z aller meßbaren Zylinder ist eine Algebra in Ω; es ist A(Z) = A. Beweis der Behauptung. Wegen (A1 ⊗ . . . ⊗ An ) ⊗ ∞ O j=n+1 Aj = ∞ O Aj = A j=1 (wie aus Hilfssatz (20.9) folgt) ist Z ⊂ A, also A(Z) ⊂ A. Jedes meßbare Rechteck ist ein meßbarer Zylinder, also gilt auch A ⊂ A(Z). Daß Z eine Algebra ist, ist leicht zu sehen. 167 Nun betrachten wir abzählbare Produkte von Maßräumen, beschränken uns dabei jedoch auf den Fall der Wahrscheinlichkeitsräume. (20.11) Satz und Def. Sei (Ωi , Ai , µi )i∈N eine Folge von Wahrscheinlichkeitsräumen, sei (Ω, A) das Produkt der Folge (Ωi , Ai )i∈N . Dann gibt es auf A genau ein Wahrscheinlichkeitsmaß µ derart, daß jede Menge der Form ∞ Y B = A1 × . . . × An × mit n ∈ N und Ai ∈ Ai (i = 1, . . . , n) Ωj j=n+1 das Maß µ(B) = µ1 (A1 ) · · · µn (An ) hat. Man nennt µ das Produktmaß N der Folge (µi )i∈N von Wahrscheinlichkeitsmaßen und bezeichnet es mit i∈N µi . Der Wahrscheinlichkeitsraum (Ω, A, µ) heißt der Produktraum der Folge (Ωi , Ai , µi )i∈N von Wahrscheinlichkeitsräumen. Beweis. Zur Abkürzung setzen wir ∞ Y Ωi =: Ω i=n+1 (n) , ∞ O Ai =: A(n) für n ∈ N. i=n+1 Auf dem System Z der meßbaren Zylinder in Ω erklären wir eine Funktion µ durch µ(A × Ω(n) ) := (µ1 ⊗ . . . ⊗ µn )(A), wobei A ∈ A1 ⊗ . . . ⊗ An ist. Die Definition ist sinnvoll: Ist A × Ω(n) = B × Ω(m) mit B ∈ A1 ⊗ . . . ⊗ Am und o.B.d.A. n < m, so ist A × Ωn+1 × . . . × Ωm × Ω(m) = B × Ω(m) , also A × Ωn+1 × . . . × Ωm = B und daher (µ1 ⊗ . . . ⊗ µm )(B) = (µ1 ⊗ . . . ⊗ µn )(A)µn+1 (Ωn+1 ) · · · µm (Ωm ) = (µ1 ⊗ . . . ⊗ µn )(A). Die damit erklärte Mengenfunktion µ erfüllt µ(Ω) = 1, ferner ist sie nichtnegativ und additiv. Wir zeigen jetzt, daß sie sogar σ-additiv ist. Für jedes n ∈ N können wir dieselbe Betrachtung auch für die Folge (Ωi , Ai , µi )∞ i=n+1 durchführen. Das Analogon der Algebra Z bzw. der Mengenfunktion µ bezeichnen wir dann mit Z (n) bzw. µ(n) . 168 20 PRODUKTMASSE Für (x1 , . . . , xn ) ∈ Ω1 × . . . × Ωn und B ⊂ Ω sei (n) B(x1 , . . . , xn ) := (xi )∞ ∈ Ω : (x ) ∈ B ; i i∈N i=n+1 das ist also ein Ω1 × . . . × Ωn -Schnitt von B. Sei nun Z ∈ Z, und zwar Z = A × Ω(m) mit A ∈ A1 ⊗ . . . ⊗ Am , o.B.d.A. mit m > 1. Setzen wir A(x1 ) := {(x2 , . . . , xm ) ∈ Ω2 × . . . × Ωm : (x1 , . . . , xm ) ∈ A} (das ist also ein Ω1 -Schnitt, bezogen auf den Raum Ω1 ×. . .×Ωm ), so gilt offenbar Z(x1 ) = A(x1 ) × Ω(m) . Nach Satz (20.3) (a) ist A(x1 ) ∈ A2 ⊗ . . . ⊗ Am , also ist Z(x1 ) ∈ Z (1) , und es gilt µ(1) (Z(x1 )) = (µ2 ⊗ . . . ⊗ µm )(A(x1 )). Nach der Definition (20.5) des Produktmaßes gilt Z (µ1 ⊗ . . . ⊗ µm )(A) = (µ2 ⊗ . . . ⊗ µm )(A(x1 )) dµ1 (x1 ), also ist Z µ(Z) = µ(1) (Z(x1 )) dµ1 (x1 ) (11) Nun können wir zeigen, daß µ auf Z σ-additiv ist. Nach Satz (12.6) genügt dazu der Nachweis der ∅-Stetigkeit von µ. Angenommen, µ wäre nicht ∅-stetig. Dann gibt es eine abnehmende Folge (Zn )n∈N in Z mit Zn ↓ ∅ und ein ∈ R+ mit µ(Zn ) ≥ für alle n ∈ N. Wir behaupten zunächst, daß es Punkte xi ∈ Ωi (i ∈ N) gibt mit µ(k) (Zn (x1 , . . . , xk )) ≥ Zum Beweis sei 2k für n, k ∈ N. n o Fn := x1 ∈ Ω1 : µ(1) (Zn (x1 )) ≥ 2 gesetzt. Nach (11) ist Z ≤ µ(Zn ) = (1) Z µ (Zn (x1 )) dµ1 (x1 ) + Fn ≤ µ1 (Fn ) + µ1 (Fnc ) ≤ µ1 (Fn ) + , 2 2 Fnc µ(1) (Zn (x1 )) dµ1 (x1 ) 169 also µ1 (Fn ) ≥ /2. Da (Fn )n∈N eine abnehmende Folge in A1 ist, kann wegen T der ∅Stetigkeit von µ1 nicht Fn ↓ ∅ gelten; also existiert ein x1 ∈ Ω1 mit x1 ∈ n∈N Fn , also mit für alle n ∈ N. µ(1) (Zn (x1 )) ≥ 2 Nun ist (Zn (x1 ))n∈N eine abnehmende Folge in Z (1) mit µ(1) (Zn (x1 )) ≥ /2 für alle n ∈ N. Die Schlußweise läßt sich also wiederholen (mit Ω(1) , Z (1) , µ(1) , Zn (x1 ), /2 anstelle von Ω, Z, µ, Zn , ). Man erhält einen Punkt x2 ∈ Ω2 mit µ(2) (Zn (x1 , x2 )) ≥ 4 für alle n ∈ N. So fortfahrend, erhält man x1 , x2 , . . . wie gewünscht. Nun behaupten wir, daß (xi )i∈N ∈ \ Zn n∈N gilt. In der Tat, für n ∈ N ist Zn = A × Ω(k) mit A ∈ A1 ⊗ . . . ⊗ Ak mit geeignetem k (abhängig von n). Wegen µ(k) (Zn (x1 , . . . , xk )) > 0 ist (k) mit Zn (x1 , . . . , xk ) 6= ∅, also existiert (xi )∞ i=k+1 ∈ Ω (x1 , . . . , xk , xk+1 , xk+2 , . . .) ∈ Zn . (k) Somit ist (x T1 , . . . , xk ) ∈ A und daher (xi )i∈N ∈ A × Ω = Zn , wie behauptet. Damit ist n∈N Zn 6= ∅ gezeigt, im Widerspruch zu Zn ↓ ∅. Die Mengenfunktion µ ist somit ein Maß auf der Algebra Z. Aus dem Maßerweiterungssatz (13.5) folgt die Existenz eines Maßes µ̃ auf der von Z in Ω erzeugten σ-Algebra, also nach (20.10) auf A, mit µ̃|Z = µ. Offenbar ist µ̃ das gesuchte Produktmaß. Die Eindeutigkeit folgt aus Satz (13.9), da die meßbaren Rechtecke ein ∩-stabiles Erzeugendensystem von A bilden.