File - Physik Skripte

Werbung
Skript zu den Vorlesungen
Analysis I (MIA)
und
Analysis II (MIIA)
Neubearbeitung eines Skripts von
Prof.Dr. U.Oppel
Sommersemester 2005
Wintersemster 2005/2006
Ludwig-Maximilians-Universität München
Institut für Mathematik
Vorlesungen gehalten von Prof.Dr. U.Oppel
Skript bearbeitet und getippt von:
Martin Slawski
Fehler, die bestimmt noch zahlreich vorhanden sind, bitte an:
[email protected]
Inhaltsverzeichnis
§0
§1
§2
§3
§4
§5
Etwas Logik
S. 6 – 11
Stichwörter:
Aussagenlogik, Wahrheitstafeln
Quantorenlogik
Theorien, mathematische Theorie, Axiomatisierung
S. 6 – 8
S. 8 – 10
S. 10 – 11
Natürliche Zahlen und vollständige Induktion
S. 12 – 15
Peano-Axiome
Vollständige Induktion
S. 13
S. 14 – 15
Mengen, Abbildungen und Ordnungen
S. 16 – 23
Zermelo-Fränkel Axiomensystem
Relationen, Korrespondenzen
Ordnungen
Supremum und Infimum
Abbildungen
S. 17
S. 19
S. 20
S. 21
S. 22 – 23
Die reellen Zahlen
S. 24 - 34
Axiomatische Einführung der reellen Zahlen
Folgerungen aus den Axiomen
Endliche Summen und Produkte
Potenzen
Fakultät, Binomialentwicklung
Ungleichung von Bernoulli
Eigenschaften von ⋅
S. 24 – 26
S. 25 – 27
S. 27
S. 28
S. 29
S. 30
S. 30 – 31
Ungleichung von Cauchy
Satz von Archimedes, Archimedisches Axiom
Wurzeln
S. 31
S. 32
S. 33 – 34
Folgen und Reihen
S.35 - 50
Iterationsverfahren für die Berechnung von ⋅
Folgenkonvergenz, elementare Eigenschaften
Häufungspunkte, limes inferior und superior
Satz von Bolzano – Weierstraß
Cauchyfolgen
geometrische Reihe
harmonische Reihe
Konvergenzkriterien für Reihen
S. 36
S. 38 – 39
S. 41 - 42
S. 41
S. 41 – 42
S. 44
S. 44
S. 47 – 50
stetige Funktionen auf
S. 51 – 59
topologische Grundbegriffe
ε − δ Kriterium, Folgenstetigkeit
Zwischenwertsatz, Intervallschachtelungsverfahren
gleichm. Stetigkeit, Folgenkompaktheit, Vollständigkeit
Satz von Heine – Borel
S. 51 - 52
S. 53
S. 54
S. 55
S. 56
punktw. und gleichm. Konvergenz von Funktionenfolgen S. 57 – 59
Satz von Dini
S. 58
Weierstraßscher Approximationssatz
S. 59
§6
§7
§8
§9
Potenzreihen
S. 60 – 72
allgemeine Eigenschaften
Konvergenzradius
Satz von Abel
Exponential- und Logarithmusfunktion
Trigonometrische Funktionen
S. 60 – 63
S. 60
S. 62
S. 63 – 67
S. 68 – 72
Differentiation
S. 73 – 79
Differentiationsregeln
Mittelwertsätze
Taylorformel
S. 75 – 76
S. 77 – 78
S. 79
Einige Anwendungen der Differentialrechnung S. 80 – 85
lokale Extrema
physikalische Anwendungen
Regel von de L’Hospital
S. 80
S. 81 – 83
S. 84 – 85
Das Riemann-Integral
S. 86 – 93
Riemannsche Summen
Elementare Eigenschaften
Hauptsatz der Integralrechnung
Integrationsregeln
Mittelwertsätze
Uneigentliche Riemann-Integrierbarkeit
S. 86 – 87
S. 87 – 88
S. 89 – 90
S. 90 – 91
S. 92
S. 92 – 93
§10
Anwendungen der Differential- und Integralrechnung S. 94 – 98
§11
Taylor- und Fourierreihen
§12
§13
S. 99 – 111
Vertauschung von Limes und Differentiation/Integration S. 99 – 101
Taylorreihen
Fourierreihen
Satz von Féjer
Abtasttheorem
S. 101 – 103
S. 103 – 111
S. 109
S. 111
Komplexe Zahlen
S. 112 – 115
Fundamentalsatz der Algebra
Gaußsche Ebene
S. 114
S. 114- 115
Metrische und normierte Räume
S. 116 – 123
Metriken, metrische Räume
Folgenkonvergenz, Stetigkeit
Hausdorffsche Trennungseigenschaft
Cauchyfolgen, Vollständigkeit
S. 116 – 120
S. 116
S. 117
S. 118 - 119
Kompaktheit
S. 119
gleichm. Stetigkeit, gleichm. Konvergenz v. Abbildungen S. 120
normierte Räume, Banach – Räume
S. 120 – 122
Satz von Weierstraß, Satz von Heine – Borel
S. 123
§14
partielle Differentiation
S.124 – 135
Gradient, Nabla – Operator
Vektorfelder, Divergenz, Rotation
Laplace – Operator
physikalische Anwendungen
S. 128
S. 128
S. 128
S. 130 – 135
totale Differentiation
S. 136 – 142
lokale Lipschitz-Stetigkeit
Jacobi – Matrix
Kettenregel
Mittelwertsatz
Taylorformel
Hesse – Matrix
S. 137
S. 138
S. 138 – 139
S. 139
S. 140 – 141
S. 142
Anwendung: lokale Extrema
S. 143 – 150
Positive Definitheit, Hurwitz-Kriterium
S. 146
§17
Satz über implizite Funktionen
S. 151 – 153
§18
Optimierung unter Nebenbedingungen
S. 154 – 156
Lagrange-Verfahren
S. 154 – 156
M1
S. 157 – 160
§15
§16
§19
Mengensysteme
Mengenalgebren, σ - Algebren und ihre Erzeuger
σ - Algebra der Borelschen Teilmengen
Messräume und messbare Abbildungen
Dynkinsysteme
S. 157 – 158
S. 158
S. 159
S. 160
§20
M2
Inhalte und Maße
S. 161 – 164
§21
M3
Fortsetzung von Maßen
S. 165 – 168
§22
§23
Nullmengen und Vollständigkeit
äußeres Maß
Carathéodory – Fortsetzung
S. 165 – 166
S. 166 – 167
S. 167 – 168
M4
Das Lebesguesche Maß
S. 169 - 172
M5
Messbare Funktionen
Approximation durch Treppenfunktionen
S. 173 – 176
S. 175 – 176
§24
M6
Das µ - Integral
Elementare Funktionen
Nichtnegative Funktionen
Satz der isotonen Konvergenz I, B.Levi
µ - Integrierbarkeit
Fast überall bestehende Eigenschaften
§25
§26
§27
§28
S. 177 – 183
S. 177 – 179
S. 179 – 181
S. 180
S. 181 – 183
S. 183
zu M6 Bildmaße und Integraltransformationssatz S. 184
M7
Integralkonvergenzsätze
S. 185 – 188
Satz der monotonen Konvergenz II, B.Levi
Lemma von Fatou
Satz der majorisierten Konvergenz I, Lebesgue
Stetigkeit des Parameterintegrals
Vertauschbarkeit v. Differentiation und Integration
S. 186
S. 186
S. 186
S. 187
S. 188
L p - Räume
S. 189 – 192
p - Norm
Höldersche Ungleichung
Minkowskische Ungleichung
Konvergenz im p - ten Mittel
Satz der majorisierten Konvergenz II, Lebesgue
Satz von Fischer – Riesz
S. 189 – 190
S. 189
S. 190
S. 190
S. 192
S. 192
Markov-Kerne und der verallg. Satz von Fubini
S. 194 – 197
Produktmengenalgebren, Produkt- σ -Algebren
Markov-Kerne
verallg. Satz von Fubini
Satz von Fubini
Literaturverzeichnis
S. 194
S. 195
S. 196
S. 197
S. 197
§0 Etwas Logik
Aussage:
entweder wahr (w) oder falsch (f)
(zweiwertige Logik ; tertium non datur)
Grobschema: Subjekt – Prädikat – Objekt
Sprache:
natürliche und künstliche Regelung zur Bildung von Aussagen;
zugelassene Subjekte, Prädikate und Objekte;
logische Struktur: nicht, und, oder, dann, genau dann; für alle,
es existiert,…
a)
Aussagenlogik
Seien P, Q und R (Bezeichnungen für irgendwelche) Aussagen (in einer Sprache):
Folgende Verbindungsregeln sollen gelten:
J1)
„nicht P“ (in Zeichen: ¬ P) Negation von P
Negation
Regel: ¬ P ist genau dann wahr, wenn P falsch ist.
Tafel:
J2)
P
¬P
w
f
Konjunktion:
f
w
„P und Q“ (in Zeichen: P ∧ Q) Konjunktion von P und Q
Regel: P ∧ Q ist genau dann wahr, wenn P wahr und Q wahr ist.
Tafel:
P
Q
P∧Q
J3)
w
w
w
Adjunktion:
w
f
f
f
w
f
f
f
f
„P oder Q“ (in Zeichen: P ∨ Q) Adjunktion von P und Q
Regel: P ∨ Q ist genau dann wahr, wenn P oder Q wahr ist.
Tafel:
P
Q
P∧Q
w
w
w
w
f
w
f
w
w
f
f
f
J4)
Subjunktion (Implikation):
„wenn P, dann Q“ (in Zeichen: P ⇒ Q)
Implikation von P nach Q; aus P folgt Q; P hinreichend für Q
Regel: „P ⇒ Q“ ist genau dann wahr, wenn P falsch ist oder wenn P wahr und Q
wahr ist.
Tafel:
P
Q
P⇒Q
w
w
w
w
f
f
f
w
w
f
f
w
P: Prämisse, Hypothese, Voraussetzung, hinreichende Bedingung für Q
Q: Konklusion, Behauptung, notwendige Bedingung für P
J5
Bijunktion: „P genau dann, wenn Q“ (in Zeichen: P ⇔ Q)
Äquivalenz von P und Q; P dann und nur dann, wenn Q;
P notwendige und hinreichende Bedingung für Q.
Regel: „P ⇔ Q“ ist genau dann wahr, wenn (P wahr und Q wahr) oder (P falsch und
Q falsch)
Tafel:
P
Q
P⇔Q
w
w
w
w
f
f
f
w
f
f
f
w
Klammern: zum Zusammenfassen von Aussagen;
sparen:
Junktoren ⇔, ⇒, ∨, ∧, ¬ von links nach rechts zunehmende Bindungsstärke
Aus J1 – J5 können (z.B. formal mit Tafeln) folgende Tautologien (synonym: allgemeingültige Aussagen, aussagenlogische Sätze) abgeleitet werden:
Satz vom ausgeschlossenen Dritten:
Satz vom Widerspruch:
Satz von der doppelten Verneinung:
Gesetze von de Morgan:
Kontrapositionsgesetz:
Gesetz zum modus ponens:
Idempotenz:
Kommutativgesetze:
Assoziativgesetze:
P ∨ ( ¬P )
¬( P ∧ ¬P )
¬(¬P ) ⇔ P
¬( P ∧ Q ) ⇔ ¬P ∨ ¬Q
¬( P ∨ Q ) ⇔ ¬P ∧ ¬Q
( P ⇒ Q ) ⇔ (¬Q ⇒ ¬P )
P ∧ ( P ⇒ Q) ⇒ Q
P∧P⇔ P
P∨P ⇔ P
P ∧Q ⇔ Q ∧ P
P ∨Q ⇔ Q ∨ P
P ∧ (Q ∧ R ) ⇔ ( P ∧ Q ) ∧ R
P ∨ (Q ∨ R ) ⇔ ( P ∨ Q ) ∨ R
P ∧ (Q ∨ R ) ⇔ ( P ∧ Q ) ∨ ( P ∧ R )
P ∨ (Q ∧ R ) ⇔ ( P ∨ Q ) ∧ ( P ∨ R )
(( P ⇒ Q ) ∧ (Q ⇒ R )) ⇒ ( P ⇒ R )
Distributivgesetze:
Transitiviät der Subjunktion:
Beispiele von Ableitungen von Tautologien mittels Tafeln:
1)
2)
P
w
¬P
f
P ∨ ( ¬ P) w
f
w
w
P
¬P
P ∧ ( ¬ P)
¬ (P ∧ ( ¬ P))
w
f
f
w
f
w
f
w
P
¬P
¬ ( ¬ P)
¬ ( ¬ P) ⇔ P
w
f
w
w
f
w
f
w
3)
4)
P
Q
P⇒Q
¬Q
¬P
( ¬ Q) ⇒ ( ¬ P)
(P ⇒ Q) ⇔
( ¬ Q) ⇒ ( ¬ P)
b)
w
w
w
f
f
w
w
Quantorenlogik
w
f
f
w
f
f
w
f
w
w
f
w
w
w
f
f
w
w
w
w
w
(Kurzfassung)
Jede Sprache hat Namen für die in dieser Sprache zugelassenen Objekte unseres
Denkens:
Bonn ist ein Dorf.
5 ist eine Primzahl.
6 multipliziert mit 11 ergibt 66.
Aussageformen mit Variablen:
x ist ein Dorf.
x ist eine Primzah.
x multipliziert mit y ergibt z .
Variable x, y , z sind Zeichen in Aussageteilen, die durch dafür zugelassene Namen
a, b, c ersetzt werden sollen, z.B.
Aussageform P( x, y , z ) →→→ Substitution von Namen →→→ Aussage P( a, b, c )
Quantifizierung der erlaubten Substitution in einer Aussageform:
In Zeichen: ∀x gilt P( x ) .
a) Für alle x gilt P( x ) .
b) Es existiert (mindestens) ein x , für das P( x ) gilt.
In Zeichen: ∃ x mit P( x )
c) Es existiert genau ein x , für das P( x ) gilt.
In Zeichen: ∃1 x mit P( x )
d) Es existiert kein x , für das P( x ) gilt.
In Zeichen:
∃ x mit P( x )
Gemischte Quantierungen:
1) Für alle x existiert ein y mit P( x, y ) .
In Zeichen: ∀x ∃ y mit P( x, y ) .
2) Es existiert ein x , so dass P( x, y ) für alle y gilt:
In Zeichen: ∃ x ∀y gilt P( x, y ) .
3)………………
Dabei sind Formulierungen „es gilt P“ oder „mit P“ äquivalent zu „P ist wahr“.
Beispiel:
a und b seien alle zur Substitution zugelassene Namen.
Dann gilt („offensichtlich“):
i ) P ( a ) ⇒ P ( a ) ∨ P (b)
ii ) P( a ) ∧ P(b) ⇒ P( a )
iii ) ∀x gilt P( x ) :⇔ P( a ) ∧ P(b)
iv ) ∃ x mit P( x ) :⇔ P ( a ) ∨ P(b)
Wenn man die durch iii) und iv) definierten quantifizierten Aussagen verneint, so
erhält man mit den de Morgan’schen Gesetzen:
¬(∀x gilt P( x )) ⇔ ¬( P (a ) ∧ P (b)) ⇔ ¬P( a ) ∨ ¬P(b) ⇔ ∃ x mit (¬P( x ))
¬(∃ x mit P( x )) ⇔ ¬( P (a ) ∨ P(b)) ⇔ ¬P( a ) ∧ ¬P(b) ⇔ ∀x gilt (¬P( x ))
Auch für „beliebig viele“ zugelassene Aussagen sollen diese Regeln gelten:
Implikationsregeln:
a zugelassen ∧ ∀x gilt P( x ) ⇒ P( a ) gilt
a zugelassen ∧ P( a ) gilt ⇒ ∃ x mit P( x )
Verneinungsregeln:
¬(∀x gilt P( x )) ⇔ ∃ x mit (¬P( x ))
¬(∃ x mit ( P ( x )) ⇔ ∀x gilt (¬P ( x ))
Daraus werden weitere Denkregeln durch Verbindung von quantifizierten und unquantifizierten (aussagenlogischen) Denkregeln abgeleitet. Dies führt stufenweise zu
immer komplexeren Regeln.
c) Theorien
Identitätsbegriff: (Leibniz)
Zwei Objekte x und y unseres Denkens sind – im Rahmen einer Betrachtungsweise –
identisch
(in Zeichen: x = y ),
wenn - im Rahmen dieser Betrachtungsweise – für x jede Aussage wahr ist, die für y
wahr ist und für y jede Aussage wahr ist, die für x wahr ist.
Der Identitätsbegriff „hat“ die folgenden Eigenschaften:
∀x ist x = x
∀x ∀y mit y = x gilt x = y
∀x ∀y ∀z mit x = y ∧ y = z gilt x = z
(Reflexivität)
(Symmetrie)
(Transitivität)
Bisher haben wir nur Regeln zur Verbindung von Aussagen behandelt, nichts aber
über deren Inhalte gesagt.
Theorie:
Inhalte von Aussagen werden in einer Theorie betrachtet.
Begriffe in Aussagen werden inhaltlich präzisiert und durch logische Regeln
relativiert.
primitive Begriffe: wenige, intuitiv verständlich
definierte Begriffe: durch eine logische Aussage A über primitive oder bereits
definierte Begriffe wird ein neuer Begriff B definiert.
In Zeichen: B :⇔ A oder B := A
mathematische Theorie:
Axiome:
(möglichst wenige) Aussagen über primitive Begriffe, die als
wahr betrachtet werden.
Sätze:
Aus Axiomen mit Hilfe von logischen Regeln abgeleitete
Aussagen. (Satz synonym mit Theorem)
Beweise:
diese Ableitungen
Ziel:
Eine mathematische Theorie soll möglichst widerspruchsfrei
sein. Verschiedene mathematische Theorien sollen (im
hierarchischen Sinne) möglichst verträglich sein.
Mathematisierung einer nichtmathematischen Theorie:
1) Experiment:
Untersuchung eines Phänomens oder eines Prozesses deterministischer oder
stochastischer Art.
z.B.:
Bewegung eines Pendels;
Untersuchung eines Spektrums;
Zuverlässigkeit eines Kernkraftwerkes;
biologische Evolution;
Aktienkursverlauf;
Märkte; etc.
Diese Untersuchung geschieht üblicherweise mit einer fachspezifischen Theorie.
2) Axiomatisierung
Interpretation fachlicher Begriffe durch mathematische Begriffe.
z.B.:
Geschwindigkeit als Ableitung des Ortes nach der Zeit;
Spektrallinie als Eigenwert eines Differentialoperators;
zufällige Ereignisse als Mengen und Wahrscheinlichkeiten als
σ − additive Mengenfunktion;
Mutation und Selektion als Übergangswahrscheinlichkeiten;
Kursverlauf als Zeitreihe oder Markov-Prozess;
Marktgleichgewicht als Martingale;
Die Relationen dieser Begriffe werden durch Axiome beschrieben.
3) Anwendung (anderer) mathematischer Theorien darauf.
4) Ergebnisse in Form mathematischer Sätze
5) Interpretation der aus der mathematischen Theorie gewonnen Sätze:
zur Weiterentwicklung der fachspez. Theorie, stets begleitet von fachl. Kritik.
§1
Natürliche Zahlen und vollständige Induktion
Zahlbegriff mindestens seit der Jungsteinzeit:
für kultische und praktische Zwecke
afrikanische Buschmänner:
Eins (a), zwei (oa), drei = viele (oaa), vier (oa oa)
Sumerer, Inder, Babylonier:
für kaufmännische, architektonische und kultisch-astrologische Zwecke;
Sechsersystem
Ägypter:
auch zur Landvermessung
Griechen:
auch für naturwissenschaftliche Untersuchungen;
Aristoteles, Diophant, Pythagoras, Thales, Archimedes, Euklid
und viele andere.
Römer:
I, II, III, IV, V, VI, VII, VIII,IX, X, XI, XII,…,L,...,C,...,M
Kalender; Abacus (Rechenbrett).
Germanen: “Zahl”= Einschnitt im Kerbholz
Maya und Azteken:
für astrologische und dynastische Zwecke;
Zwanzigersystem; Brüche, negative Zahlen
Araber:
Muhammed Alchwarizmi (820, Rechenbuch; vgl. „Algorithmus“)
Dezimalpositionssystem, Null;
→ Kloster Salem.
Indisch-arabisches Dezimalpositionssystem seit dem 8.Jahrhundert in Europa.
Adam Riese: Rechenbücher 1518, 1525 und 1530; Stellenrechnen.
Zahlsysteme:
2 (Computer); 5 und 10 (Hand);
6 und 60 (Babylonisch und Zeit- und Winkelsystem)
12 (z.B. Dutzend); 20 (Maya und Azteken)
Kronecker (1823):
„Die natürlichen Zahlen sind vom lieben Gott gemacht.“
Dedekind, Frege und Russell:
Die natürlichen Zahlen sind Menschenwerk und ein Teil der Logik.
Peano (1889):
Axiomatische Theorie der natürlichen Zahlen.
Axiomatische Theorie der natürlichen Zahlen
undefinierte Begriffe:
natürliche Zahl,
Eins (in Zeichen: 1)
Nachfolgerbeziehung: x ist Nachfolger von y ; in Zeichen x = y + .
Gleichheit
Axiome P1 – P5:
P1:
Eins ist eine natürliche Zahl.
P2:
Zu jeder natürlichen Zahl y existiert genau eine natürliche Zahl x , welche
Nachfolger von y ist.
P3:
Für jede natürliche Zahl ist ihr Nachfolger ungleich Eins.
P4:
Ungleiche natürliche Zahlen haben ungleiche Nachfolger.
P5:
(Induktionsaxiom)
Für jede Aussageform P( x ) für natürliche Zahlen gilt:
Gilt P(1) und folgt P( x + ) aus P( x ) , so gilt P ( y ) für jede natürliche Zahl y .
Definition:
2 := 1+ , 3 := 2 + , 4 := 3+ ,......
Definition der Addition:
(rekursiv mit P5)
1 + 1:= 1+ ( = 2),
x + 1:= x + ,
x + y + := ( x + y ) +
Definition der Multiplikation:
(rekursiv mit P5)
x ⋅ 1:= x
x ⋅ y + := ( x ⋅ y ) + x
Definition der Ordnung:
" x ist kleiner als y " genau dann, wenn eine natürliche Zahl z existiert
mit x + z = y. [in Zeichen: x < y :⇔ ∃ z nat. Zahl mit x + z = y ]
Definition der Halbordnung:
x ≤ y :⇔ x = y oder x < y
Damit kann man (mit etwas Mühe) beweisen:
Satz 1.1:
Seien x, y und z natürliche Zahlen. Dann gilt:
a) x + y = y + x
(Kommutativität der Addition)
b) ( x + y ) + z = x + ( y + z )
(Assoziativität der Addition)
c) x ⋅ y = y ⋅ x
(Kommutativität der Multiplikation)
d) ( x ⋅ y ) ⋅ z = x ⋅ ( y ⋅ z )
(Assoziativität der Multiplikation)
e) x ⋅ ( y + z ) = x ⋅ y + x ⋅ z
(Distributivität)
f) Aus x < y folgt x + z < y + z.
[in Zeichen: x < y ⇒ x + z < y + z ]
g) x < y ⇒ x ⋅ z < y ⋅ z
(hier ist z eine natürliche Zahl !)
Anderer Zugang zu den natürlichen Zahlen:
Im Rahmen der Mengenlehre kann man natürliche Zahlen so definieren, dass man
die (hier postulierten) Eigenschaften P1 – P5 als Satz erhält.
Auch Addition und Multiplikation kann man in diesem Rahmen so definieren, dass
man den obigen Satz erhält.
Man kann dann (und erst dann) von der Menge
der natürlichen Zahlen sprechen.
Die Methode des Beweises durch vollständige Induktion
„Nach Adam Riese“ (1518) gilt für jede natürliche Zahl:
n
∑k =
k =1
n( n + 1)
2
n
bei ∑ k := 1 + 2 + 3 + ... + n
k =1
Eine Verfikation dieser Formel ist nur für einige n möglich, nie aber für alle:
n
n
∑k
k =1
1
2
3
4
….
1
3
6
10
n(n + 1)
2
1
3
6
10
w
w
w
w
Beweis durch vollständige Induktion:
P(n ) =
Aussageform:
"
n
∑k =
k =1
n( n + 1) "
zugelassen für jede natürliche Zahl n.
2
Wir wollen zeigen, dass P( n ) für alle natürlichen Zahlen n wahr ist.
P(1) ist wahr. (vgl. oben)
Induktionsanfang:
Induktionsvoraussetzung:
P(n) sei wahr für n.
Nach Axiom P5 ist zu zeigen, dass dann auch P(n+1) wahr ist.
(Es ist n + = n + 1 der Nachfolger von n .)
Induktionsschluss von n auf n + 1 :
n +1
n
k =1
k =1
∑ k = ∑ k + (n + 1)
Induktionsvoraussetzung
=
n( n + 1)
⎛ n ⎞ ( n + 1)( n + 2)
+ ( n + 1) = ( n + 1) ⎜ 1 + ⎟ =
2
2
⎝ 2⎠
Also ist P(n+1) wahr.
Nach dem Induktionsaxiom gilt:
P(n) ist wahr für alle natürlichen Zahlen n.
Achtung:
Beim Beweis durch vollständige Induktion den Induktionsanfang nicht
vergessen !
Warnung:
Es existieren Aussageformen P( n ) für natürliche Zahlen n mit der Eigenschaft:
( P(n) ⇒ P(n + 1) ) ⇒
∀n natürliche Zahl gilt P( n )
In Worten: Aus " P( n ) ⇒ P( n + 1)" folgt nicht, dass P( n ) für jede natürliche Zahl
n gilt.
Beispiel:
P( n ) := " n + 1 < n "
§2
Mengen, Abbildungen und Ordnungen
2.1 Zur Mengenlehre
Georg Cantor (1848 – 1915):
Arbeiten: 1874 (Crelle’s Journal), 1895 und 1897 (Math. Annalen)
Cantors Definition der Menge:
Unter einer „Menge“ verstehen wir jede Zusammenfasssung M von bestimmten
wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens.
Antinomien:
Cantor (1895):
Burali – Forti:
Russell (1901):
populär:
Menge aller Ordinalzahlen; Menge aller Mengen
…
Menge A der Mengen x , die nicht Element von sich sind.
Allmacht, Barbier
Auswege:
1) Russell 1908 und Russell – Whitehead: Typentheorie
(Präzisierung der Sprache, stufenweise Mengenbildung)
2) Zermelo (1908); Hausdorff (1914); Fränkel (1919):
axiomatische Mengenlehre
3) von Neumann (1925); Bernays (1937); Gödel (1940); Bernays – Fränkel (1958):
endliches Axiomensystem (Klassen: Mengen und Untermengen)
Grundsätzlich:
Bis heute kein Beweis der Widerspruchsfreiheit von 2) und 3)
Nur „relative Widerspruchsfreiheit“: z.B. Gödel (1940)
Im Folgenden:
a) Sehr naiver Zugang zur Mengenlehre.
b) Naiver Zugang zur Mengenlehre (nur in den Übungen ausführlicher):
Axiomensystem von Zermelo – Fränkel
Die Begriffe „Menge“ und „Element“ werden nicht definiert.
Die Beziehung dieser undefinierten Begriffe wird beschrieben.
Sehr naiver Zugang zur Mengenlehre
Undefinierte Begriffe:
Menge
Elementbeziehung:
x ist Element der Menge A ; in Zeichen: x ∈ A
Gleichheit:
A ist gleich B ; in Zeichen: A = B
reflexiv ( A = A) , transitiv ( A = B und B = C ⇒ A = C )
und symmetrisch ( A = B ⇒ B = A)
ZF1: Extensionalitätsaxiom
Zwei Mengen sind genau dann gleich, wenn sie dieselben Elemente haben.
ZF 2: Aussonderungsaxiom
Zu jeder Menge A und zu jeder Aussageform P( x ) gibt es eine Menge B , deren
Elemente genau jene y aus A sind, für die P( y ) wahr ist.
ZF3: Paarbildungsaxiom
Zu je zwei Mengen gibt es stets eine Menge, die jene beiden als Elemente enthält.
ZF4: Vereinigunsaxiom
Zu jeder Menge A gibt es eine Menge B , die für jedes Element z von A , welches
eine Menge ist, jedes Element x von z enthält.
Definition:
Seien A und B Mengen. A heißt Teilmenge von B (in Zeichen: A ⊂ B ), wenn
jedes Element von A Element von B ist.
Satz 2.1.1:
Seien A, B und C Mengen. Dann gilt (für die Teilmengenrelation " ⊂ ") :
a) A ⊂ A
(Reflexivität)
b) Ist A ⊂ B und B ⊂ C , so ist A ⊂ C.
(Transitivität)
c) Ist A ⊂ B und B ⊂ A, so ist A = B.
(Antisymmetrie)
Definition:
Die Menge, die keine Elemente enthält, heißt die leere Menge (Nullmenge).
Sie wird mit ∅ bezeichnet.
Definition:
Sei A eine Menge von Mengen (d.h. jedes Element von A ist eine Menge).
Dann heißt die Menge C , die jedes Element enhält, das mindestens zu einer Menge
A aus A gehört, die Vereinigung von A .
∪A := ∪ A := {x : ∃ A ∈ A mit x ∈ A} := C
A∈A
Definition:
Seien A und B Mengen. Dann heißen:
a) A ∪ B := {x : x ∈ A oder x ∈ B} die Vereinigung von A und B.
b) A ∩ B := {x : x ∈ A und x ∈ B} der Durchschnitt von A und B.
c) A\B := {x : x ∈ A und x ∉ B} das Komplement von B bezüglich A.
d) Bei A ∩ B = ∅ heißen A und B diskunkt.
Warnung:
A\B im Allgemeinen ungleich B \A.
Zeichnungen:
Satz 2.1.2:
Seien A, B und C Mengen. Dann gilt:
a) A ∪ ∅ = A
b) A ∩ ∅ = ∅
A∪ B = B ∪ A
A ∪ ( B ∪ C ) = ( A ∪ B) ∪ C
A∪ A = A
A ⊂ B ⇔ A∪ B = B
c) Distributivgesetze:
A ∩ ( B ∪ C ) = ( A ∩ B) ∪ ( A ∩ C )
A ∪ ( B ∩ C ) = ( A ∪ B) ∩ ( A ∪ C )
d) De Morgan'sche Gesetze:
A\( B ∪ C ) = ( A\B ) ∩ ( A\C )
A\( B ∩ C ) = ( A\B ) ∪ ( A\C )
A∩ B = B ∩ A
A ∩ ( B ∩ C ) = ( A ∩ B) ∩ C
A∩ A = A
A ⊂ B ⇔ A∩ B = A
Definition.
Sei A ≠ ∅ eine Menge von Mengen und ∪ A die Vereinigung von A.
∩A :=
∩ := {x ∈ ∪A : ∀A ∈ A ist x ∈ A} heißt der Durchschnitt von A.
A∈A
2.2.
Produktmengen, Relationen und Abbildungen
Definition:
Seien A und B Mengen und a ∈ A und b ∈ B.
a) {a, b} heißt das ungeordnete Paar von a und b.
b) ( a, b ) := {{a}, {a, b}} heißt das geordnete Paar mit der 1. Koordinate a
und der 2. Koordinate b.
c) A × B := {z : ∃ a ∈ A ∃ b ∈ B mit z = ( a, b)}
={( a, b) : a ∈ A und b ∈ B} heißt das Produkt der Mengen A und B.
Anmerkung:
In der Sprache der Mengenlehre sind „rechts“ und „links“ nicht zugelassen. Das
wird durch die obige Methode „ersetzt“. Diese „aufwendige“ Methode kann man
dann aber sofort wieder vergessen und mit „rechts“ und „links“ operieren.
Definition:
Seien A und B Mengen und ( a, b) ∈ A × B und (α , β ) ∈ A × B. Dann gilt:
( a, b) = (α , β ) ⇔ a = α und b = β
Definition:
Seien X und Y Mengen und Q ⊂ X × Y . Q heißt Relation von X nach Y .
Eine Relation Q von X nach Y heißt Korrespondenz von X nach Y , wenn gilt:
∀x ∈ X ist {( z, y ) ∈ Q : z = x} ≠ ∅
Eine Teilmenge R von X × X heißt Relation in X .
Eine Relation R in X heißt:
reflexiv: ⇔ ∀x ∈ X ist ( x, x ) ∈ R
symmetrisch: ⇔ ∀x ∈ X ∀y ∈ X mit ( x, y ) ∈
ist ( y, x ) ∈ R
antisymmetrisch: ⇔ ∀x ∈ X ∀y ∈ X mit ( x, y ) ∈
und ( y , x ) ∈ R ist x = y.
transitiv: ⇔ ∀x ∈ X ∀y ∈ X ∀z ∈ X mit ( x, y ) ∈ R und ( y , z ) ∈ R ist ( x, z ) ∈ R.
Beispiele 1:
a) X := Menge der natürliche Zahlen , R := {( x, y ) | x ≤ y; x, y nat. Zahlen} =
={(1,1) ,(1, 2), (1,3),...,(2, 2),...} heißt ≤ -Relation
b) X := Menge aller Menschen, R := {( x, y ) : x ist Vater von y}
Zeichnungen: Relation und Korrespondenz
Definition:
Sei X eine Menge und R eine Relation in X .
a) R heißt Ordnung (synonym: teilweise Ordnung; Halbordnung) auf X ,
wenn R reflexiv, transitiv und antisymmetrisch ist.
b) Sei R eine Ordnung auf X . Wir schreiben:
x ≤ y :⇔ ( x, y ) ∈ R
x < y :⇔ ( x, y ) ∈ R und x ≠ y
Wir sagen: X ist bezüglich R (oder: ≤ ) geordnet (auch: teilweise geordnet,
halbgeordnet).
c) Eine Ordnung auf X heißt total (synonym: linear; vollständig), wenn gilt:
∀x ∈ X ∀y ∈ X ist ( x, y ) ∈ R oder ( y , x ) ∈ R.
d) Sei X geordnet bezüglich ≤, y ∈ X und A ⊂ X .
y kleinstes Element in A :⇔ y ∈ A und ∀x ∈ A ist y ≤ x.
y größtes Element in A :⇔ y ∈ A und ∀x ∈ A ist x ≤ y.
y untere Schranke von A :⇔ ∀x ∈ A ist y ≤ x.
y obere Schranke von A :⇔ ∀x ∈ A ist x ≤ y.
Satz 2.2.1:
Sei X teilweise geordnet und A ⊂ X .
Dann gibt es höchstens ein kleinstes bzw. größtes Element in A.
Definition:
Sei X bzgl. ≤ teilweise geordnet, A ⊂ X und y ∈ X .
a) y heißt Supremum (synonym: kleinste obere Schranke) von A
[in Zeichen: y = sup A], wenn gilt:
i ) ∀x ∈ A ist x ≤ y
ii ) ∀z ∈ X mit x ≤ z ∀x ∈ A ist y ≤ z
b) y heißt Infimum (synonym: größte untere Schranke) von A
[in Zeichen: y = inf A], wenn gilt:
i ) ∀x ∈ A ist y ≤ x
ii ) ∀z ∈ X mit z ≤ x ∀x ∈ A ist z ≤ y
Warnung: Weder sup A noch inf A brauchen zu existieren.
{
A := x ∈
}
: − 2 < x < 2 hat Supremum und Infimum in .
Aber: B := A ∩
hat kein Supremum/Infimum in
.
Satz 2.2.2:
Sei X eine teilweise geordnete Menge und A ⊂ X . Dann gilt:
a) Es gibt höchstens ein Supremum bzw. Infimum von A.
b) Falls sup A bzw. inf A existiert, ist sup A bzw. inf A das kleinste
bzw. das größte Elemente in der Menge der oberen bzw. unteren
Schranken von A.
Definition:
Seien X und Y Mengen.
Eine Menge f mit f ⊂ X × Y heißt Abbildung von X nach Y
[in Zeichen: f : X → Y mit x
f ( x )], wenn gilt:
Für jedes x ∈ X existiert genau ein y ∈ Y mit ( x, y ) ∈ f .
X heißt der Definitionsbereich und Y der Wertebereich von f .
Seien x ∈ X und y ∈ Y mit ( x, y ) ∈ f . (Dann ist y durch x und f eindeutig bestimmt.)
f ( x ) := y heißt der Wert von f in x (oder: an der Stelle x ).
Für A ⊂ X heißt f [ A] := f ( A) := { f ( x ) : x ∈ A} das Bild von A unter f .
Für B ⊂ Y heißt f −1 ( B ) := {x ∈ X : f ( x ) ∈ B} das Urbild von B unter f .
Anmerkung:
Wenn man f als „Zuordnung“ interpretiert:
graph( f ) := f heißt der Graph von f
Unter dem Graphen von f „versteht“ man dann das „Bild“ , das die Teilmenge f
in der Produktmenge X × Y „darstellt“.
Definition:
Seien X und Y Mengen und f : X → Y mit x
f ( x ) eine Abbildung.
a) f surjektiv :⇔ f ( X ) = Y
b) f injektiv :⇔ ∀x1 ∈ X ∀x2 ∈ X mit f ( x1 ) = f ( x2 ) ist x1 = x2
c) f bijektiv :⇔ f surjektiv und injektiv
Beispiele:
a) f :
→
mit x
x 3 ist bijektiv
b) f :
→
mit x
x 3 ist injektiv, nicht aber surjektiv
c) + :
×
→
mit ( x, y )
d) f :
×
→
×
x + y ist surjektiv, aber nicht injektiv
mit ( x, y )
1 ⎞
⎛
ist injektiv, aber nicht surjektiv
⎜ y,
x ⎟
⎝ 1+ e ⎠
Zeichnungen: surjektiv(links); injektiv (Mitte); bijektiv (rechts)
Bemerkung:
Seien f : X → Y mit x
f ( x ) und Y0 → Z mit y
und f ( X ) ⊂ Y0 . Dann ist g f : X → Z mit x
g ( y ) Abbildungen
g f ( x ) := g ( f ( x )) eine
Abbildung von X nach Z .
Definition:
g f : X → Z aus der vorangehenden Bemerkung heißt Hintereinanderschaltung (Komposition) von f und g.
Definition:
Seien f : X → Y und g : Y → X Abbildungen.
g heißt inverse Abbildung (Umkehrabbildung) zu f , wenn gilt:
∀x ∈ X ist g ( f ( x )) = x und ∀y ∈ Y ist f ( g ( y )) = y.
Definition:
Seien X bzw. Y bezüglich ≤ X bzw. ≤Y teilweise geordnet und
f : X → Y eine Abbildung. Dann heißt f : X → Y (bzgl. ≤ X und ≤Y ):
a) isoton: (synonym: monoton wachsend)
:⇔ ∀x1 ∈ X ∀x2 ∈ X mit x1 ≤ X x2 ist f ( x1 ) ≤Y f ( x2 )
b) antiton: (synonym: monoton fallend)
:⇔ ∀x1 ∈ X ∀x2 ∈ X mit x1 ≤ X x2 ist f ( x2 ) ≤Y f ( x1 )
c) streng isoton: (synonym: streng monoton wachsend)
:⇔ ∀x1 ∈ X ∀x2 ∈ X mit x1 ≤ X x2 ist f ( x1 ) <Y f ( x2 )
d) streng antiton: (synonym: streng monoton fallend)
:⇔ ∀x1 ∈ X ∀x2 ∈ X mit x1 ≤ X x2 ist f ( x2 ) <Y f ( x1 )
Satz:
Die Kompostion zweier (streng) isotoner (bzw. (streng) antitoner) Abbildungen ist
(streng) isoton (bzw. (streng) antiton).
§3
Die reellen Zahlen
Man kann axiomatisch fordern oder mit viel Mühe (ausgehend von der
Mengenlehre) beweisen, dass gilt:
Es existiert eine Menge ℝ, welche die Menge der reellen Zahlen genannt wird und es
existieren die Abbildungen
Addition
+ : ℝ × ℝ → ℝ mit ( x, y )
Multiplikation . : ℝ × ℝ → ℝ mit ( x, y )
Eigenschaften:
x + y und
xy mit im Folgenden angegebenen
ℝA1: (Assoziativität der Add.): x + ( y + z ) = ( x + y ) + z
ℝA2: (Kommutativität der Add.): x + y = y + x
ℝA3: (Nullelement): ∃0 ∈ ℝ mit x + 0 = x
∀x, y , z ∈ ℝ
∀x , y ∈ ℝ
∀x ∈ ℝ
ℝA4: (inverses Element der Add.) ∀x ∈ ℝ ∃y ∈ ℝ mit x + y = 0
Definition:
Seien x, y ∈ ℝ mit . x + y = 0 . Dann heißt − x := y das Negative von x. x + z und
x − z := x + ( − z ) bei z ∈ ℝ heißen Summe bzw. Differenz von x und z.
ℝM1: (Assoziativität der Mult.): x ( yz ) = ( xy ) z
ℝM2: (Kommutativität der Mult.): xy = yx
ℝM3: (Einselement): ∃1 ∈ ℝ mit 1x = x
∀x, y , z ∈ ℝ.
∀x, y ∈ ℝ.
∀x ∈ ℝ.
ℝM4: (inverses Element der Mult.): ∀x ∈ ℝ \ {0} ∃z ∈ ℝ mit xz = 1
Definition:
Seien x ∈ ℝ \ {0} und z ∈ ℝ mit xz=1. Dann heißt x −1 := z das Inverse von x .
Für y ∈ ℝ sei yx −1 := yz .
ℝD: (Distributivgesetz): x ( y + z ) = xy + xz
∀x, y , z ∈ ℝ.
Anmerkung:
ℝA1-ℝA4, ℝM1-ℝM4 und ℝD machen (ℝ,+,.) zu einem kommutativen Körper.
ℝA1-ℝA4 machen (ℝ,+) , ℝM1-ℝM4 machen (ℝ,.) zu kommutativen Gruppen.
ℝO1: (Existenz positiver reeller Zahlen): ∃ ℝ+ ⊂ ℝ ∀x ∈ ℝ \ {0} gilt entweder
x ∈ ℝ+ oder − x ∈ ℝ+.
ℝO2: ∀x, y ∈ ℝ+ gilt x + y ∈ ℝ+ und xy ∈ ℝ+.
Definition:
a) ℝ+ aus ℝO1heißt die Menge der positiven reellen Zahlen.
b) ℝ0+:=ℝ+ ∪ {0} heißt die Menge der nichtnegativen reellen Zahlen.
c) Seien x, y ∈ ℝ. x ≤ y :⇔ y − x ∈ ℝ0+
x < y :⇔ y − x ∈ ℝ+
( ≤ definiert eine lineare Ordnung auf ℝ)
d) Sei M ⊂ ℝ.
M nach oben beschränkt: ⇔ ∃c ∈ ℝ ∀x ∈ M gilt x ≤ c
M nach unten beschränkt: ⇔ ∃c ∈ ℝ ∀x ∈ M gilt c ≤ x
M beschränkt: ⇔ M nach oben und nach unten beschränkt.
ℝV (Vollständigkeit): ∀∅ ≠ M ⊂ ℝ mit M nach oben beschränkt ∃c ∈ ℝ mit
∀x ∈ M ist x ≤ c und ∀y ∈ ℝ mit x ≤ y ∀x ∈ M gilt c ≤ y. (d.h. jede nichtleere und
nach oben beschränkte Teilmenge von ℝ besitzt in ℝ eine kleinste obere Schranke
(Supremum))
Anmerkung:
Alle obigen Axiome zusammen machen (ℝ,+,. , ≤) zu einem vollständigen
angeordneten kommutativen Körper.
Aus ℝA1-ℝA4 folgt:
Satz 1:
a) Das Nullelement ist eindeutig bestimmt: Ist y ∈ ℝ und gilt x + y = x für alle
x ∈ ℝ, so ist y = 0 .
b) Für jedes x ∈ ℝ ist − x eindeutig bestimmt. Sind y, z ∈ ℝ und
x+ y=0= x+z
⇒y=z
c) 0 = −0
d) ∀y, z ∈ ℝ ∃1 x ∈ ℝ mit x + y = z . Es ist x = z − y .
e) ∀x ∈ ℝ ist − ( − x ) = x
f) ∀x, y ∈ ℝ ist − ( x + y ) = − x − y .
Aus ℝA1-ℝA4, ℝM1-ℝM4 und ℝD folgt:
Satz 2:
a) Das Einselement ist eindeutig bestimmt:
Ist y ∈ ℝ und gilt xy = x für alle x ∈ ℝ, so ist y = 1.
b) Für jedes x ∈ ℝ \ {0} ist das Inverse x −1 eindeutig bestimmt:
Sind y, z ∈ ℝ und xy = 1 = xz
⇒ y=z.
c) Es gibt einen kommutativen Körper, der nur zwei Elemente enthält.
d) ∀y ∈ ℝ \ {0} ∀z ∈ ℝ ∃1 x ∈ ℝ mit xy = z. Es ist x = zy −1
e) ∀x, y , z ∈ ℝ ist ( x + y ) z = xz + yz .
f) ∀x ∈ ℝ ist x ⋅ 0 = 0 .
g) ∀x, y ∈ ℝ mit xy = 0 ist ( x = 0) ∨ ( y = 0)
h) ∀x, y ∈ ℝ ist ( − x ) y = −( xy ) .
i) ∀x ∈ ℝ ist ( −1) x = − x
j) ∀x, y ∈ ℝ ist ( − x )( − y ) = xy
k) ∀x ∈ ℝ \ {0} ist ( x −1 ) −1 = x
l) ∀x, y ∈ ℝ \ {0} ist ( xy ) −1 = x −1 y −1 .
Definition:
ℕ:= ∩ A bei A:={ A ∈ ℝ: 1 ∈ A und ∀x ∈ A ist x + 1 ∈ A }
ℤ:=ℕ ∪ {0} ∪ {-n: n∈ ℕ} Menge der ganzen Zahlen
ℕ0:= ℕ ∪ {0} Menge der nichtnegativen Zahlen.
ℚ:={ xy −1 : x ∈ ℤ und y ∈ ℤ \ {0}} Menge der rationalen Zahlen
ℚ+:=ℝ+ ∩ ℚ
I:= ℝ\ℚ Menge der irrationalen Zahlen
Offensichtlich gilt:
Satz 3:
a) ℕ = {1, 2, 3, …} ⊂ ℝ+ ist die Menge der natürlichen Zahlen.
b) 1, 0 ∈ ℕ0 ⊂ ℚ ⊂ ℝ.
Bemerkung 1:
Das oben definierte ℕ erfüllt mit 1 als Einselement und der Nachfolgerdefinition
x + := x + 1 die Axiome P1 – P5 von Peano und ist darum zu ℕ aus §1 isomorph. Wir
verwenden darum die gleiche Bezeichnung und nennen diese Menge ℕ die Menge
der natürlichen Zahlen. Streng genommen haben wir ein neues Modell der
natürlichen Zahlen.
Definition: (endliche Summen und Produkte)
Bei n ∈ ℕ und xi ∈ ℝ für i ∈ ℕ:={ k ∈ ℕ: 1 ≤ k ≤ n } definieren wir rekursiv:
1)
0
∑x
i
:= 0 ,
i =1
1
∑x
i
i =1
Außerdem sei
0
∏ xi := 1 ,
i =1
n −1
n
∑x
i =1
i
:= ∑ xi + xn für n ≥ 1
i =1
n
∑ xi := ∑ xi .
i∈N
2)
:= x1 und
1
i =1
∏ xi = 1 und
i =1
⎛ n −1 ⎞
x
:
=
⎜ ∏ xi ⎟ xn für n ≥ 1
∏
i
i =1
⎝ i =1 ⎠
n
Durch vollständige Induktion beweist man mit ℝA1-ℝA4, ℝM1-ℝM4 und ℝD,
dass gilt:
Satz 4 :
Seien n, m ∈ ℕ mit m < n, xi ∈ ℝ für i ∈ ℕ:={ k ∈ ℕ: 1 ≤ k ≤ n } und p: ℕ → ℕ eine
bijektive Abbildung. Dann gilt:
a) Allgemeine Assoziativgesetze:
n
n −m
m
∑x = ∑x + ∑x
i =1
i
i =1
n
i
i =1
m +i
n −m
m
∏x =∏x +∏x
i
i =1
b) Allgemeine Kommutativgesetze:
i
i =1
n
n
i =1
i =1
n
n
i =1
i =1
i =1
∑ xi = ∑ x p ( i )
∏ xi = ∏ x p ( i )
m +i
c) Allgemeines Distributivgesetz:
m
n −m
m n −m
i =1
j =1
i =1 j =1
∑ xi ∑ x m + j = ∑ ∑ xi x m + j
Folgerung:
Seien n, m ∈ ℕ und xij ∈ ℝ für i = 1,..., m und j = 1,..., n . Dann gilt:
⎞ n ⎛ m
⎛ n
⎞
⎟
⎜
x
∑
⎜ ∑ ij ⎟ = ∑ ⎜ ∑ xij ⎟ und
i =1 ⎝ j =1
⎠ j =1 ⎝ i =1 ⎠
m
n
⎞
⎛ n
⎞
⎛ m
⎟
⎜
x
=
∏
⎜ ∏ ij ⎟ ∏ ⎜ ∏ xij ⎟ .
i =1 ⎝ j =1
⎠ j =1 ⎝ i =1 ⎠
m
Definition: (Potenzen)
Bei n ∈ ℕ und x ∈ ℝ seien x 0 := 1,
x n = ∏ xi bei xi := x und x − n := (x n ) bei x ≠ 0 .
n
−1
i =1
Durch vollständige Induktion zeigt man folgende Rechenregeln für Potenzen:
Satz 5:
Seien n, m ∈ ℤ und x, y ∈ ℝ \ {0}. Dann gilt:
a) x n x m = x n + m b) (x n ) = x nm c) x n y n = ( xy ) .
m
n
Definition:
a) Sei X eine Menge, Y ⊂ ℝ und f: X → Y eine Abbildung. Dann heißt f: X → Y
eine (reellwertige) Funktion.
b) Für n ∈ ℕ0 heißt die Funktion ℝ → ℝ mit x
durch (0,0) .
x n die Parabel n-ter Ordnung
c) Für n ∈ ℕ heißt die Funktion ℝ \ {0} → ℝ mit x
Ordnung (mit Pol (0,0) ).
x − n die Hyperbel n-ter
Definition:
n
a) Für n ∈ ℕ0 werde n!:= ∏ i als n-Fakultät bezeichnet.
i =1
n
⎛ x⎞
( x − i + 1)
b) Für x ∈ ℝ und n ∈ ℕ0 werde ⎜⎜ ⎟⎟ := ∏
als „x über n“ bezeichnet.
i
i =1
⎝n⎠
Durch vollständige Definition beweist man damit folgende Rechenregeln:
Satz 6:
Seien n, m ∈ ℕ0 und x, y ∈ x ∈ ℝ. Dann gilt:
n!
⎧
⎪ ( m! ( n − m )! ) für 0 ≤ m ≤ n
⎛n⎞ ⎪
a) ⎜⎜ ⎟⎟ = ⎨
⎝m⎠ ⎪
0 für m > n
⎪
⎩
⎛ x + 1⎞ ⎛ x ⎞ ⎛ x ⎞
b) ⎜⎜
⎟⎟
⎟⎟ = ⎜⎜ ⎟⎟ + ⎜⎜
⎝ n + 1⎠ ⎝ n ⎠ ⎝ n + 1⎠
n
⎛n⎞
c) Binomialentwicklung: ( x + y ) n = ∑ ⎜⎜ ⎟⎟ x i y n −i
i =0 ⎝ i ⎠
Aus ℝO1-ℝO2 folgen:
Satz 7:
Für x, y , a, b, ξ ,ν ∈ ℝ gilt:
a) x ∈ ℝ+ ⇔ 0 < x ⇔ − x < 0
b) Transitivität: x < y und y < z ⇒ x < z
x ≤ y und y ≤ z ⇒ x ≤ z
c) Reflexivität: x ≤ x
d) Antisymmetrie: x ≤ y und y ≤ x ⇒ x = y
e) Translationsinvarianz: x < y
⇒ x+a ≤ y+a
f) x < y und ξ < ν ⇒ x + ξ < y + ν .
g) Linearität: x ≤ y oder y ≤ x
h) x < y und a ∈ ℝ+ ⇒ xa < ya
i) x < y und − a ∈ ℝ+ ⇒ xa > ya
j) ………
k) x ≠ 0 ⇔ 0 < x 2
l) 0 < x ⇔ 0 < x −1
m) x < 0 ⇔ x −1 < 0
n) ……….
o) ……….
p) x = x 2 ⇔ ( x = 1) ∨ ( x = 0)
q) ……….
r) Ungleichung von Bernoulli:
(1 + x ) n ≥ 1 + nx bei x ≥ −1
Definition:
a) Für x, y ∈ ℝ sei max( x, y ) := sup{x, y} und min( x, y ) := inf {x, y}
b) Für x ∈ ℝ sei x + := max(0, x ) der Positivteil,
x − := max(0,− x ) der Negativteil und
x := max( x + , x − ) der Absolutbetrag von x.
c) Die Funktion
⋅
:ℝ → ℝ mit x
Es gilt der Satz:
Satz 8:
Seien x, y ∈ ℝ. Dann gilt:
a) x , x + , x − ∈ ℝ0+ und x = x + − x −
b) x = 0 ⇔ x = 0
c) − x = x
d) xy = x ⋅ y
e) postiv homogen: αx = α x bei α ∈ ℝ0+
f) xy −1 = x ⋅ y
−1
bei y ≠ 0
x heißt Betragsfunktion.
x+ y ≤ x + y
g) Dreiecksungleichung:
h) x − y ≤ x + y und x
−
y ≤ x+ y
i)
1
(x + y + x − y )
2
1
min( x, y ) = ( x + y − x − y )
2
max( x, y ) =
j) x ≤ y ⇔ − y ≤ x ≤ y
x < y ⇔−y <x< y
Satz 9:
Für n ∈ ℕ und xi , y i ∈ ℝ für i = 1,..., n gilt:
a) Verallgemeinerte Dreiecksungleichung:
n
n
∑ xi ≤ ∑ x i
i =1
2
b) Ungleichung von Cauchy:
i =1
2
⎛ n
⎞
⎛ n ⎞ ⎛ n ⎞
⎜ ∑ xi y i ⎟ ≤ ⎜ ∑ x i ⎟ ⎜ ∑ y i ⎟
⎝ i =1
⎠
⎝ i =1 ⎠ ⎝ i =1 ⎠
2
Definition:
⎧1
⎪
Für x ∈ ℝ sei sign( x ) := ⎨ 0
⎪− 1
⎩
für 0 < x
für
für
Die Funktion sign: ℝ → ℝ mit x
x=0
x<0
sign( x ) heißt die Vorzeichenfunktion.
Satz 10:
Seien x, y ∈ ℝ. Dann gilt:
a) x = x ⋅ sign(x )
b) sign( xy ) = sign( x ) ⋅ sign( y )
Satz 11:
a) Wohlordnung von ℕ:
Jede nichtleere Teilmenge M von ℕ besitzt ein minimales Element, d.h. ℕ ist
bezüglich ≤ wohlgeordnet.
b) Äquivalenz der Wohlordnung und des Induktionsaxioms:
Axiom P5 und die Wohlordnung von ℕ bezüglich ≤ sind äquivalent.
Aus ℝV und den vorangehenden Axiomen und Sätzen folgt:
Satz 12:
a) ℝV ⇔
∀∅ ≠ M ⊂ ℝ nach unten beschränkt ∃ inf M ∈ ℝ
b) M ⊂ ℝ nach oben beschränkt ⇔ {− x : x ∈ M } nach unten beschränkt
c) ∀∅ ≠ M ⊂ ℤ nach oben beschränkt [bzw. nach unten] beschränkt ∃x ∈ M maximal
[bzw. minimal]
d) ∀x ∈ ℝ ist { y ∈ ℝ: y < x } ≠ ∅
⎫
⎧1
e) 0 = inf ℝ0+=inf ℝ+ = inf ⎨ : n ∈ ℕ ⎬
⎩n
⎭
f) Satz von Archimedes:
∀x ∈ ℝ ∃n ∈ ℕ mit x < n (also: ℝ und ℕ sind nicht nach oben beschränkt)
g) Archimedisches Axiom:
∀x, y ∈ ℝ+ ∃n ∈ ℕ mit nx > y
h) b ∈ ℝ mit b > 1 ⇒
∀z ∈ ℝ+ ∃n ∈ ℕ mit z < b n
i) a ∈ ℝ mit 0 < a < 1
⇒ ∀ε ∈ ℝ+ ∃n ∈ ℕ mit a n < ε
j) ∀x, y ∈ ℝ mit x < y ∃z ∈ ℚ mit x < z < y
k) ∀x ∈ ℝ ist sup { z ∈ ℚ: z ≤ x }= x = inf { z ∈ ℚ: x ≤ z }
Bemerkung 2:
Wegen Satz b.12 (b,c, und f) gilt:
Definition:
∀x ∈ ℝ ∃1 z ∈ ℤ mit z ≤ x < z + 1
Für x ∈ ℝ sei entier ( x ) := [ x ] := sup { z ∈ ℤ: z ≤ x }.
Die Abbildung entier: ℝ → ℤ mit x
entier( x ) heißt die entier-Funktion.
Zeichnung:
Bemerkung 3:
Sei y ∈ . Nach Satz b.7.k hat die Gleichung x ² = y höchstens dann eine Lösung x in
, wenn y ≥ 0 ist.
Satz 13: (Existenz und Eindeutigkeit der Quadratwurzel)
∀y ∈
+
0
+
0
∃1 x ∈
mit x ² = y
Definition:
1
x aus Satz b.13 heißt die positive Quadratwurzel von y und wird mit
bezeichnet.
Satz 14:
Für x, y ∈
+
0
x, y ∈
a) 0 ≤ x < y ⇔ x <
( x)
−1
b)
x −1 =
c)
xy = x ⋅ y
+
0
gilt:
y
y
y oder y 2
2 ∈ I=
d)
\
Satz 15 (Existenz und Eindeutigkeit der m-ten Wurzel):
∀m ∈
+
0
∀y ∈
∃1 x ∈
+
0
mit x m = y .
Definition:
und x, y ∈
Seien m ∈
+
0
mit x m = y .
1
m
y := y m heißt die m-te Wurzel von y .
Satz 16:
Für n, m ∈
und x, y ∈
+
0
a) 0 ≤ x < y ⇔ m x < m y
( x)
−1
b)
m
x -1 =
c)
m
xy = m x ⋅ m y
1
m
1
⎛ 1 ⎞n
d) ⎜ x m ⎟ = x nm
⎝ ⎠
bei x > 0
gilt:
§4
Folgen und Reihen
Die wichtigsten Eigenschaften der natürlichen, rationalen und reellen Zahlen sind im
§1 und im §3 zusammengestellt.
Seien
:= {1, 2,3,...} die Menge der natürlichen Zahlen
0
:=
∪ {0}
die Menge der reellen Zahlen mit der üblichen Addition und Multiplikation
≤
die "übliche" Ordnung auf
+
0
(d.h. x ≤ y ⇔ y − x ∈
+
0
+
)
:= {x ∈
: x ≥ 0} die Menge der nichtnegativen reellen Zahlen
:= {x ∈
: x > 0} die Menge der positiven reellen Zahlen
x der "übliche" Betrag von x ∈ , d.h.
+
0
x := x bei x ∈
Es ist
x ≥0
⋅
:
und x := − x sonst.
→
mit x
x eine Abbildung. Sie hat folgende Eigenschaften:
∀x ∈
x =0⇔ x=0
αx = α ⋅ x
∀α ∈
+
0
∀x ∈
x+ y ≤ x + y
und
(positiv homogen)
(Dreiecksungleichung)
x − y ≤ x+ y ,
x − y ≤ x+ y
1
(x + y + x − y )
2
1
min( x, y ) = ( x + y − x − y ) und
2
x ≤ y ⇔− y ≤x≤ y
∀x , y ∈
max( x, y ) =
:=
∪ {+∞, −∞} mit − ∞ < x < +∞
∀x ∈
Definition:
Sei X eine Menge, die Menge der natürlichen Zahlen und
X : → X mit n
xn := X( n ) eine Abbildung.
X heißt Folge in X und wird auch mit ( xn : n ∈
xn heißt das n-te Glied der Folge X .
)
oder kürzer ( xn ) bezeichnet.
Das Bild X (
) von
unter X wird auch mit {xn : n ∈
} bezeichnet.
Beispiel 1: Iterationsverfahren für die Berechnung von
x0 := a mit a ∈
+
Es gilt: xn → y
Sei y = 4;
y für y ∈
+
.
⎛
y⎞
⎜ xn + x ⎟
n ⎠
und xn +1 := ⎝
für n ∈
2
für n → +∞ ; y = lim xn .
n →∞
y =2
1. a = 1
x0 = 1
x1 =
1⎛
4⎞ 5
⎜ x0 + ⎟ =
x0 ⎠ 2
2⎝
1⎛
4⎞
⎜ x1 + ⎟ = 2,05
x1 ⎠
2⎝
5281
x3 = ... =
= ... = 2,006097
1640
x4 = ................... = 2,0000005
x2 =
....
xn = 2
2. a = 2 als Beginn: x0 = x1 = ... = xn = 2
3. a = 20 : x0 = 20, x1 = 10,1, x2 = 5, 2480135,
x3 = 3,0051058, x4 = 2,168, x5 = 2,006, x6 = 2, 0000010
Beispiel 2: Approximative Bestimmung von krummlinig begrenzten Flächen durch
Bildung von Unter- und Obersummen.
Beispiel 3: Geometrische Reihe
für n ∈
n
0
sei sn := ∑ 2 − k ; die sn bilden eine Folge:
k =0
s0 = 1
s3 = 1 +
s1 = 1 +
1 1 1 15
+ + =
2 4 8 8
s4 = ...
1 3
=
2 2
s2 = 1 +
1 1 7
+ =
2 4 4
Verschiedene Interpretationen:
1) Population nimmt bei jeder (Wachstums-)periode um 2 − k zu.
Frage: Wie verhält sich das Wachstum dieser Population ?
2) Schrittweite 2 − k . Wie weit kommt man ?
Durch vollständige Induktion: sn = 2 − 2 − n
Wohin strebt sn ?
2 n → 0, sn = 2 − 2 n → 2
→0
Sei nun X mit einer Halbordnung versehen; ( X , ≤). Für
x, y ∈ X mit x ≤ y schreiben wir auch y ≥ x . Auf und betrachten wir immer die
übliche Ordnung; d.h. :
n ≤ m :⇔ m − n ∈ 0 bzw.
( m − n ) ∈ +0
n < m :⇔ m − n ∈
bzw.
(m − n) ∈
+
Definition:
Seien ( X , ≤ ) halbgeordnet und X := ( xn : n ∈
:⇔
:⇔
:⇔
:⇔
:⇔
beschränkt
isoton
streng isoton
antiton
streng antiton
) eine Folge in X. Dann heißt X
∃y , z ∈ X mit y ≤ xn ≤ z ∀n ∈
xn ≤ xn +1 ∀n ∈
xn < xn +1
∀n ∈
xn ≥ xn +1 ∀n ∈
xn > xn +1 ∀n ∈
(vgl. §3)
Beispiele 4:
Sei X := ( xn : n ∈
1) Sei
bzw.
) eine Folge in X .
die Menge der reellen Zahlen bzw. rationalen Zahlen
Bei X :=
heißt X eine Folge von reellen Zahlen.
Bei X :=
heißt X eine Folge von rationalen Zahlen.
Wegen
2)
⊂
nennen wir eine Folge in
ist die Menge aller Abbildungen f :
Bei X :=
auch eine Folge in .
→ .
ist X eine Folge von Abbildungen xn :
→
mit t → xn (t ).
Definition:
Seien X := ( xn : n ∈
) eine Folge und
k:
→
mit n → k ( n )
eine streng isotone Abbildung. Dann heißt die Folge
→ X mit n → X ( k ( n ) ) eine Teilfolge von X und wird mit
X k:
(x
k (n)
:n∈
§4.a
) oder ( x
kn
) bezeichnet.
:n∈
Folgen in
Im folgenden seien X := ( xn : n ∈
Beispiele a.1 :
1) z ∈ mit ( xn : n ∈
) und y := ( yn : n ∈ ) Folgen in
) , xn := z ∀n ∈
konstante Folge
2) xn := n, n ∈
⎧ z für n gerade
alternierende Folge
3) z ∈ , xn := ⎨
⎩ − z für n ungerade
4) xn :=
1
Nullfolge
n
5) xn := 2n ; xn := 2 − n
Definition:
a)
( xn : n ∈ ) konvergiert gegen x ∈
, in Zeichen:
xn → x für n → ∞
x = lim xn ,
x = lim xn
n →∞
:⇔
∀ε ∈
n∈
+
∃m ∈
mit n ≥ m gilt xn − x < ε
∀n ∈
b) ( xn : n ∈
) konvergiert in
c) ( xn : n ∈
) divergiert
(synonym: Grenzwert) von
e) ( xn : n ∈
mit y = lim xn
n →∞
( xn : n ∈ ) konvergiert nicht in
:⇔
d) Es konvergiere ( xn : n ∈
:⇔ ∃y ∈
) gegen x ∈
( xn : n ∈ )
) heißt Nullfolge
. Dann heißt x Limes
:⇔ ( xn : n ∈
) konvergiert gegen 0
und x, y ∈ .
Satz a.1:
Der Limes einer konvergenten Folge in
ist eindeutig bestimmt.
Beispiele a.2:
1) xn := z ∀n ∈ ; ( xn ) → z
2) xn := n divergiert
3) xn := ( −1) n +1 ⋅ z divergiert, falls z ≠ 0
1
→ 0 (Nullfolge)
n
5) xn := 2 − n → 0 (Nullfolge)
4) xn :=
6) xn := 2n divergiert
yn := ( −1) n +1 ⋅ 2 − n → 0 alternierende Nullfolge
7) yn := x2 n +1 Teilfolge von ( x n ) mit xn := ( −1)
n +1
⋅z
yn → z , aber xn → z
Satz a.2:
a) x = lim xn ⇔ lim xn − x = 0
n →∞
n →∞
b) 0= lim yn und ∃m ∈
∀n ∈
n →∞
mit n ≥ m gilt xn − x ≤ yn
⇒ x = lim xn
n →∞
c) x = lim xn
⇒
n →∞
x = lim xn
n →∞
⇐
d) x = lim xn und y= lim yn und ∃m ∈
n →∞
n →∞
∀n ∈
mit n ≥ m gilt xn ≤ yn
⇒ x≤ y
⇐
e) x = lim xn und y= lim yn und α ,β ∈
n →∞
n →∞
⇒ α x + β y = lim (α xn + β yn )
n →∞
⇐
f) 0 ≠ x = lim xn ⇒ ∃m ∈
n →∞
⇒ ∀n ∈
∀n ∈
mit n ≥ m gilt xn ≥
1
x
2
mit n ≥ m existiert xn −1
g) x = lim xn und xn −1 und x −1 existieren ⇒ x −1 = lim xn −1
n →∞
n →∞
Warnung:
Aus xn < yn ∀n ∈
folgt nicht lim xn < lim yn :
n →∞
n →∞
1
.
n
xn < yn ∀n ∈ , aber lim xn = lim yn = 0
Sei z.B. xn := 0 ∀n ∈
und yn :=
n →∞
n →∞
Satz a.3:
a) ( xn : n ∈
⇒ { xn : n ∈
) isoton [bzw. antiton]
} nach unten [bzw. nach oben] beschränkt
Warnung: isoton ⇒ nach oben beschränkt
b) ( xn : n ∈
⇒ ( xn y n : n ∈
c) ( xn : n ∈
)
beschränkt und ( yn : n ∈
) Nullfolge
) Nullfolge
) konvergent
⇒ ( xn : n ∈
) beschränkt
⇐
d) x = lim xn und y = lim yn ⇒ xy = lim xn yn
n →∞
n →∞
n →∞
⇐
y
y
= lim n
x n→∞ xn
e) xn ≠ 0 ≠ x = lim xn und y = lim yn ⇒
n →∞
n →∞
⇐
(
f) xkn : n ∈
) Teilfolge von ( x
n
) und
: n∈
( )
i) ( xn ) nach oben beschränkt ⇒ xkn nach oben beschränkt
⇐
( )
ii) ( xn ) nach unten beschränkt ⇒ xkn nach unten beschränkt
⇐
iii) ( xn ) konvergent ⇒
( x ) konvergent
kn
⇐
iv) ( xn ) konvergent gegen x ⇒
( x ) konvergent gegen x
kn
⇐
g) ( xn : n ∈
) Nullfolge mit xn ≠ 0
⇒
⇐
(x
−1
n
: n∈
) nicht beschränkt
Satz a.4
Sei ( xn : n ∈
)
isoton [bzw. antiton] und nach oben [bzw. nach unten] beschränkt.
Dann gilt:
a) ( xn : n ∈
b)
) ist konvergent in
lim xn = sup {xn : n ∈ } [bzw. inf {xn : n ∈ }]
n →∞
Warnung: „Isoton“ und „nach oben/unten beschränkt“ sind wesentlich in Satz a.4.
Definition:
x ∈ heißt Häufungspunkt der Folge ( xn : n ∈
:⇔ ∀ε ∈
+
∀n ∈
∃m ∈
)
mit m ≥ n und xm − x < ε
Satz a.5:
a) x Häufungspunkt von ( xn : n ∈
(
n →∞
⇔
xn
) mit x = lim
k →∞
x ist einziger Häufungspunkt von ( xn : n ∈ )
∃ Teilfolge xnk : n ∈
b) x = lim xn ⇒
) von ( x
)
n
:n∈
k
⇐
Beispiele a.3:
1) xn := n kein Häufungspunkt
2) xn := ( −1) n -1,+1 Häufungspunkte
1
-1,+1 Häufungspunkte
n
1
4) x2 n := n und x2 n +1 =
0 einziger Häufungspunkt
n
5) Diagonalabzählungsverfahren von
3) xn := ( −1) n +
Satz a.6 (Bolzano-Weierstraß)
Jede beschränkte Folge in
hat mindestens einen Häufungspunkt.
Definition:
( xn : n ∈ ) heißt Cauchyfolge : ⇔
∀ε ∈
+
∃k ∈
∀n ∈
mit n ≥ k ∀m ∈
mit m ≥ k gilt xn − xm < ε
Satz a.7:
a) ( xn : n ∈
) konvergiert in ⇒ ( xn : n ∈ ) ist Cauchyfolge
) Cauchyfolge ⇒ ( xn : n ∈ ) beschränkt
b) ( xn : n ∈
Satz a.8: (Cauchysches Konvergenzkriterium)
( xn : n ∈ ) konvergiert in
⇔
( xn : n ∈ )
ist Cauchyfolge
Definition:
( xn : n ∈ ) konvergiert uneigentlich gegen +∞ bzw. -∞
[in Zeichen: lim xn = +∞ bzw. − ∞ ) :⇔
n →∞
∀z ∈
∃m ∈
∀n ∈
mit n ≥ m gilt z < xn [bzw. xn < z ]
Beispiele a.4:
1) xn := n lim xn = +∞
n →∞
2) xn := − n lim xn = −∞
n →∞
Definition:
a) x := lim sup xn := lim xn := lim ( sup {xk : n ≤ k ∈
n∈
n →∞
n →∞
x heißt limes superior von ( xn : n ∈
)
b) y := lim inf xn := lim xn := lim ( inf {xk : n ≤ k ∈
n∈
n →∞
n →∞
y heißt limes inferior von ( xn : n ∈
Anmerkung: lim ( sup {xk : n ≤ k ∈
n →∞
})
})
)
}) = inf {sup {xk : n ≤ k ∈ } : n ∈ }
Beispiele a.5:
1
n
1) xn := ( −1) + ; -1= lim inf ( xn ) , +1 = lim sup ( xn )
n
2) xn := n; lim sup ( xn ) =lim inf ( xn ) = lim ( xn ) = +∞
3) x = lim ( xn ) ⇒ lim inf ( xn ) = lim sup ( xn )
⇐
1
1
1
4) x1 := 1 + ; x2 := 0; x3 := −1 + ; x4 := 1 + usw.
1
3
4
{-1,0,1} sind Häufungspunke ( xn ) ; lim inf xn = −1; lim sup = 1
Satz a.9:
a) lim sup xn ∈
und lim inf xn ∈
n∈
n∈
sind eindeutig bestimmt.
b) lim inf xn = − lim sup ( − xn )
n∈
n∈
c) x = lim sup xn und x ∈
⇔
n∈
∀ε ∈
+
∃m ∈
∀n ∈
mit n ≥ m gilt xn < x + ε und
∀ε ∈
+
∀m ∈
∃n ∈
mit n ≥ m gilt x − ε < xn und
d) Ist lim sup xn ∈
n∈
bzw. lim inf xn ∈ , so ist ( xn : n ∈
n∈
) nach oben
bzw. nach unten beschränkt und
lim sup xn der größte und lim inf xn der kleinste Häufungspunkt von ( xn : n ∈
n∈
n∈
)
e) lim inf xn + lim inf yn ≤ lim inf ( xn + yn ) ≤ lim inf xn + lim sup yn ≤ lim sup ( xn + yn )
n∈
n∈
n∈
n∈
n∈
n∈
≤ lim sup xn + lim sup yn
n∈
n∈
§4.b
Reihen
Definition:
Sei ( xn : n ∈
) eine Folge reeller Zahlen
n
heißt sn := ∑ xi die n-te Partialsumme zu ( xn : n ∈
a) Bei n ∈
)
i =1
b) Die Folge ( sn : n ∈
)
heißt die Folge der Partialsummen zu ( xn : n ∈
) gebildete Reihe und wird auch mit ∑ ( xn : n ∈ )
c) Es konvergiere ∑ ( xn : n ∈ ) in oder uneigentlich gegen + ∞ oder
)
oder auch
die von ( xn : n ∈
− ∞. Dann heißt
∞
∑ xn := ∑ xn := lim sn die Summe dieser Reihe.
n∈
n =1
n∈
Beispiele b.1:
1) Jede endliche Summe kann als "unendliche Summe" einer Reihe dargestellt werden.
2) Jede Folge reeller Zahlen kann als Reihe dargestellt werden.
3) xn := 0 ∀n ∈
4) a ∈
+
⇒
∑x
n∈
n
und a ≤ xn ∀n ∈
=0
n
⇒ n ⋅ a ≤ sn := ∑ xi ⇒ ∑ xn = +∞
i =1
n∈
+
5) a ∈
und − a ≥ xn ∀n ∈
6) xn := ( −1)
n
⇒
∑(x
n∈
n
:n∈
⇒
∑x
n∈
n
= −∞
) divergiert (d.h. konvergiert nicht in
),
konvergiert nicht uneigentlich
n
1
1
1
n
=... ⇒ sn := ∑ xi =
7) xn :=
= −
n +1
n ( n + 1) n n + 1
i =1
8) geometrische Reihe:
⎧ ( q − q n +1 )
⎪
ist ∑ xi = ⎨ (1 − q )
i =1
⎪
n
⎩
bei q ≠ 1
n
Bei xn = q n mit q ∈
bei q=1
Also gilt:
i) Bei q < 1 ist
∑q
n
=
n∈
ii) Bei q ≥ 1 ist
∑q
n∈
iii) Bei q ≤ −1 ist
n
q
1− q
= +∞
∑q
n
divergent und nicht uneigentlich konvergent
n∈
Satz b.1:
a)
∑(x
n
: n ∈ ) konvergiert in
⇒ ( xn : n ∈ ) ist eine Nullfolge
⇐ (z.B
1
∑ n , vgl. Beispiel 2)
n∈
b) Sei k ∈ . Dann gilt:
∑(x
∑(x
n
: n ∈ ) konvergiert in
bzw. uneigentlich ⇔
: n ∈ ) konvergiert in
n+k
bzw. uneigentlich
∑ ( x : n ∈ ) und∑ ( y : n ∈ ) konvergieren in
⇒ ∑ (α x + β y : n ∈ ) konvergiert in und
∑ (α x + β y : n ∈ ) = α ∑ x + β ∑ y
c)
n
n∈
n
n
n
n
n
d) Bei xn ≥ 0 ∀n ∈
∑(x
e)
n
∑(x
n
n∈
n
und α ,β ∈
n
n∈
gilt:
∑(x
: n ∈ ) konvergiert in
⇔
: n ∈ ) konvergiert in
⇒ 0 = lim
Beispiel b.2: Harmonische Reihe
n
: n ∈ ) nach oben beschränkt
n∈
1
∑ n = +∞
n∈
∞
∑x
k =n
k
:= lim
n∈
∞
∑x
k∈
n + k −1
Definition:
a)
∑(x
: n ∈ ) konvergiert absolut ⇔
n
b) Sei τ :
→
∑ (x
n
n
: n ∈ ) konvergiert in
eine bijektive Abbildung. Dann heißt
Umordnung von
c)
∑( x
∑(x
n
∑ ( xτ
(n)
: n ∈ ) eine
: n ∈ ).
: n ∈ ) konvergiert unbedingt: ⇔ Jede Umordnung von
∑ (x
n
:n∈ )
konvergiert in .
Beispiele b.3:
( −1) n
gilt:
n
Bei xn :=
1)
∑ (x : n ∈
ii) ∑ (x : n ∈
i)
) konvergiert nicht absolut (vgl. harmonische Reihe)
n
) konvergiert in
n
2) Bei − 1 < q < 1 ist
∑ (q
n
(vgl. unten: alternierende harm. Reihe)
: n ∈ ) absolut konvergent.
Satz b.2:
⎛ n
⎞
(
x
:
n
)
konvergiert
absolut
sup
∈
⇔
∑ n
⎜ ∑ xi : n ∈ ⎟ < ∞
⎝ i =1
⎠
b) Kommutativgesetz für Reihen: ∑ (xn : n ∈ ) konvergiert absolut ⇒
a)
∑x = ∑x
n∈
n
n∈
+
n
− ∑ xn = ∑ xτ ( n ) für jede Umordnung
−
n∈
n∈
c) Assoziativgesetz für Reihen:
∑ (x
n
: n ∈ ) konvergiert absolut und
= ∪ N k mit N k ∩ N1 = ∅ für
k∈
k ≠ 1 (N k paarweise disjunkt) ⇒
∑x
n∈N k
n
ist nach Satz b.2.b wohldefinierbar und aus
∑ x =∑ ∑ x
n∈
n
k∈
n∈N k
undr
n
d) Dreiecksungleichung für Reihen:
k
k
n =1
n =1
∑ xn ≤ ∑ xn ≤ ∑ xn ∀k ∈ ;
falls
∑ (x
n
n∈
: n ∈ ) konvergiert, gilt: ∑ xn ≤ ∑ xn = ∑ xn + + ∑ xn −
n∈
n∈
n∈
n∈
∑( x
e) Sind
∑(x
∑
n ,m∈
n
) und ∑ ( yn : n ∈ ) absolut konvergent, so ist
:n∈
⋅ y m : n, m ∈ ) im Sinne von Satz b.2.b wohldefiniert und es gilt:
n
⎛
⎞⎛
⎞
xn y m = ⎜ ∑ x n ⎟ ⎜ ∑ y m ⎟
⎝ n∈
⎠ ⎝ m∈
⎠
Warnung: In Satz b.2.b und c ist „absolut“ wesentlich.
Folgerung b.2.1:
∑( x
Seien
n
:n∈
)
∑( y
und
n
)
:n∈
n → ϕ ( n ) := (ϕ1 ( n ), ϕ 2 ( n ) ) und ψ :
absolut konvergent und ϕ :
→
→
×
mit
mit ψ ( n ) := (ψ 1 ( n ),ψ 2 (n ) ) bijektive
×
Abbildungen. Dann gilt :
∑ ( xϕ
yϕ2 ( n ) : n ∈
1(n)
) und ∑ ( x
y
ψ1 ( n ) ψ 2 ( n )
) konvergieren absolut in
:n∈
⎛
⎞⎛
⎞
⎜ ∑ xn ⎟ ⎜ ∑ yn ⎟ = ∑ xϕ1 ( n ) yϕ2 ( n ) = ∑ xψ1 ( n ) yψ 2 ( n ) = : ∑ xn ym =:∑
n∈
n∈
⎝ n∈
⎠ ⎝ n∈
⎠ n∈
( n ,m )∈ ×
∑x
m∈
n
und
ym
Satz b.3 (Riemann)
a)
∑( x
n
∀a , b ∈
∑( x
mit a ≤ b ∃ eine Umordnung ∑ ( xτ
:n∈
) konvergiert in
und
n
n
) divergiert. Dann:
: n ∈ ) von ∑ ( x : n ∈ )
:n∈
(n)
n
n
mit a = lim inf ∑ xτ ( i ) und b = lim sup ∑ xτ ( i )
n∈
b)
∑( x
n
n∈
i =1
:n∈
i =1
) konvergiert absolut
⇔ ∑ ( xn : n ∈
) konvergiert unbedingt
Satz b.4 (Cauchy-Produkt von Reihen)
∑ ( xn : n ∈
n
0 ) und ∑ ( yn : n ∈
Dann konvergiert
∑(z
n
:n∈
0 ) konvergieren absolut und zn :=∑ xn − k yk
k =0
⎛
0
n∈
Warnung: „absolut“ in Satz b.4 ist wesentlich.
Schema: ….
⎞⎛
⎞
) absolut und ∑ zn = ⎜ ∑ xn ⎟ ⎜ ∑ yn ⎟
0
⎝ n∈
0
⎠ ⎝ n∈
0
⎠
für n ∈
0
.
§4.c Konvergenzkriterien für Reihen
Satz c.1: (Cauchykriterium)
∑ ( xn : n ∈
⎛ n
⎞
⇔ ⎜ ∑ xi : n ∈ ⎟ ist eine Cauchyfolge
⎝ i =1
⎠
) konvergiert in
Satz c.2: (Vergleichskriterium)
a) Majorantenkriterium
xn ≤ yn für schließlich alle n ∈
⇒ ∑ ( xn : n ∈
und
∑( y
n
) konvergiert in
:n∈
) konvergiert (auch: absolut) in
b) 0 ≤ yn ≤ xn für (schließlich) alle n ∈
und
∑y
n∈
⇒ ∑ xn = +∞
n
= +∞
n∈
Beispiele c.1:
mit k ≥ 2 und xn := n − k gilt:
Bei k ∈
Denn: 0 ≤ xn = n − k ≤ n −2 ≤
∑ (n
-k
: n ∈ ) konvergiert in .
2
und Beispiel b.1.7 nach Satz c.2.a
n( n + 1)
Satz c.3 (Leibniz-Kriterium für alternierende Reihen)
( xn : n ∈ ) antitone Nullfolge und xn ≥ 0
⇒
∑ (( -1)
n
xn : n ∈
) konvergiert in
Warnung: „antiton“ und xn ≥ 0 wesentlich. Beispiel: xn := ( −1)
n
Beispiel c.2: alternierende harmonische Reihe
xn := ( −1)
später:
n −1
1
⇒
n
∑ ( −1)
n∈
n −1
∑( x
n
:n∈
1
= ln(2)
n
) konvergiert in
(nicht absolut)
1
n
Satz c.4 (Wurzelkriterium)
a) ∃q ∈
mit 0 < q < 1 ∃m ∈
⇒ ∑ ( xn : n ∈
b) ∃m ∈
∀n ∈
mit n ≥ m gilt
n
xn ≤ q
) konvergiert (auch: absolut) in
∀n ∈
mit n ≥ m gilt
n
xn ≥ 1 ⇒
∑( x
n
:n∈
) divergiert
Beispiele c.3:
Bei p ∈ , q ∈
∑( x
n
und xn := n p q n gilt:
) konvergiert, falls eine der folgenden Bedingungen erfüllt ist:
:n∈
i) q < 1. Denn:
p
n
xn = n n q . Wg. lim n n = 1 gilt:
n →∞
Also ist
n
xn ≤ q (1 + ε ), ∀ε > 0 ∀n ≥ N ε ∈ .
xn ≤ a für ein a ∈ ( 0,1) . Mit dem Wurzelkriterium folgt, dass
n
∑( x
n
:n∈
konvergiert
ii) q = −1 und p ≤ −1
Sei xn = ( −1) n p . Aus dem Leibniz-Kriterium für alternierende Reihen folgt, dass
n
∑( x
n
) konvergiert, falls p ≤ −1.
:n∈
iii) q = 1 und p ≤ −2
Mit dem Majorantenkriterium: z.Z. ist nur die Kovergenz für p = −2.
1
. Nach Beispiel c.1 konvergiert ∑ ( xn : n ∈
n2
Sei also xn :=
Ansonsten divergiert
∑( x
n
:n∈
).
).
Satz c.5 (Quotientenkriterium)
a) ∃q ∈
mit 0 < q < 1 ∃m ∈
xn +1
≤q ⇒
xn
b) ∃m ∈
∑( x
∀n ∈
⇒ ∑ ( xn : n ∈
n
:n∈
∀n ∈
mit n ≥ m bei xn ≠ 0 und
) konvergiert (auch: absolut) in
mit n ≥ m bei xn ≠ 0 und
) divergiert
xn +1
>1
xn
)
Beispiel c.4:
Bei c ∈
mit 1 < c , k ∈
nk
und xn := n gilt mit dem Quotientenkriterium:
c
xn +1
( n + 1) k c n
1 ⎛ n +1⎞
1
=
⋅ k = ⎜
⎟ →
n +1
xn
c
n
c⎝ n ⎠
c
k
Beispiel c.5:
⎛αn
⎞
∑ ⎜ n ! : n ∈ ⎟ konvergiert in
⎝
⎠
mit Quotientenkriterium:
Die Exponentialreihe
∀α ∈ .
α = 0 : trivial
α ≠ 0:
α n +1
⋅
n!
( n + 1)! α
n
=a
1
n →∞
⎯⎯⎯
→0
n +1
Definition:
Für α ∈
sei exp(α ) := ∑
α n −1
∞
αn
α2
α3
=∑
= 1+ α +
+
+ ...
( n − 1)! n =0 n !
2
6
→ mit α → exp(α ) heißt die Exponentialfunktion.
n∈
Die Abbildung exp :
Graph der Exponentialfunktion:
n
⎛ 1⎞
Bemerkung c.1: lim ⎜ 1 + ⎟ = exp(1) =: e (e ≈ 2.718281...)
n →∞
⎝ n⎠
vgl. auch §6 (Potenzreihen)
Satz c.6 (Verdichtungskriterium)
Seien ( xn : n ∈
)
⎧ f ( n + 1)
⎫
a) inf ⎨
: n ∈ ⎬ > 1 und
⎩ f (n)
⎭
⇒
∑ ( f (n) x
f (n)
:n∈
∑(x
∑ ( f (n) x
f (n)
:n∈
n
und f :
→
streng isoton. Dann gilt:
: n ∈ ) konvergiert in
) konvergiert in
⎧ f ( n + 1)
⎫
b) sup ⎨
: n ∈ ⎬ < ∞ und
⎩ f (n)
⎭
⇒
+
0
antiton mit xn ∈
∑(x
n
: n ∈ ) divergiert
) divergiert
Folgerung c.6.1: (Cauchysches Verdichtungskriterium)
Sei ( xn : n ∈
)
eine antitone (oder isotone) Folge mit xn ∈
Dann hat die Reihe
∑ (2
n
x2 n : n ∈
)
∑( x
n
:n∈
+
0
.
) das gleiche Konvergenzverhalten wie die Reihe
Beispiele c.6:
1) Bei 2 ≤ p ∈
2) Bei p, q ∈
∑( x
n
:n∈
und xn := n
und xn := n
−
) konvergiert
q
p
−
n
p
gilt:
∑( x
gilt:
⇔ q> p
n
:n∈
) konvergiert in
.
§5 Stetige Funktionen auf
§5.a Offene und abgeschlossene Mengen in
Seien
die Menge der reellen Zahlen,
∪ {−∞, +∞} ,
:=
+
:= {x ∈
: x > 0} und
+
0
:= {x ∈
: x ≥ 0}
die Menge der rationalen Zahlen
⋅
→
:
+
0
die Betragsfunktion
Definition:
und ε ∈
a) Seien x ∈
+
. Dann heißen
K ( x, ε ) := ( x − ε , x + ε ) := { y ∈
: x − ε < y < x + ε } = {y ∈
: x − y < ε}
die offene ε -Umgebung von x und
K ( x, ε ) := [ x − ε , x + ε ] := { y ∈
: x − ε ≤ y ≤ x + ε } = {y ∈
: x − y ≤ ε}
die abgeschlossene ε -Umgebung von x
und ε x ∈
b) Seien T ⊂
+
∀x ∈ T . Dann heißt
G := ∪ ( x − ε x , x + ε x ) eine offene Teilmenge von .
x∈T
c) Sei G ⊂
eine offene Teilmenge von
(kurz: offen in
A := \G eine abgeschlossene Teilmenge von
d) Seien a, b ∈
( a , b ) := {x ∈
Bei a, b ∈
). Dann heißt
(kurz: abgeschlossen in
).
mit a < b. Dann heißt
: a < x < b} ein offenes Intervall von .
heißt
[a , b] := {x ∈ : a ≤ x ≤ b} ein abgeschlossenes Intervall in .
Bei a ∈ ∪ {−∞} und b ∈ heißt
( a , b] := {x ∈ : a < x ≤ b} ein links offenes und rechts abgeschlossenes Intervall in
[b , a ) analog
Bemerkung a.1:
Seien a, b ∈
mit a < b. Dann gilt:
a) ( a , b ) ist offen
[a , b]
ist abgeschlossen (bei a, b ∈ ).
;
b)
und ∅ sind offen und abgeschlossen.
und ∀y ∈ D ∃ε y ∈
c) ∃ D ⊂ ( a , b) ∩
+
+
:=
∩
mit ( a , b) =
∪(y −ε
y∈D
y
, y +εy )
Da die Menge der rationalen Zahlen abzählbar ist (mit dem Diagonalverfahren kann
man zeigen, dass eine surjektive Abbildung f : → existiert), ist damit jedes
offene Intervall und damit auch jede offene Teilmenge als eine Vereinigung einer
Menge von abzählbar vielen Intervallen mit rationalen Endpunkten darstellbar.
ist die Menge der Intervalle mit abzählbaren
Wegen der Abzählbarkeit von
Endpunkten selbst abzählbar.
d) b = sup [a , b] = sup ( a , b ) = sup [a , b ) = sup ( a , b]
a = inf [a , b] = inf ( a , b ) = inf [a , b ) = inf ( a , b]
Definition:
Seien X ⊂ . Dann heißt
{
X := x ∈
: ∃ Folge ( xn : n ∈
) in X
}
mit x = lim xn der Abschluss von X
n∈
oder die abgeschlossene Hülle von X .
Anmerkung:
1) X ⊂ X
2) X ist abgeschlossen; vgl. Satz c.1.a unten
3) X ist die kleinste abgeschlossene Teilmenge von
4) X = \G mit G =
{
∪ (y −ε
y∈H
bei H = y ∈
: ∃ε y ∈
+
y
, y +εy )
mit ( y − ε y , y + ε y ) ⊂ \X
5) Aus der Definition von X folgt sofort:
X = {x ∈
: ∀ε ∈
+
∃ xε mit xε ∈ K ( x, ε )} =
⎧
⎛ 1 ⎞⎫
= ⎨ x ∈ : ∀n ∈ ∃ xn ∈ X mit xn ∈ K ⎜ x, ⎟ ⎬ =
⎝ n ⎠⎭
⎩
= Menge aller Limites von Folgen in X =
= Menge aller Häufungspunkte von Folgen in X
}
, die X enthält.
§5.b Stetige reelle Funktionen
Definition:
Seien X ⊂ und x ∈ X .
a) Eine Abbildung f : X →
heißt reelle Funktion mit dem Definitionsbereich X
und dem Wertebereich f ( X ) := { f ( x ) : x ∈ X },
b) Eine Funktion f : X →
∀ε ∈
+
∃δ ∈
c) f : X →
+
heißt stetig in x :⇔
∀y ∈ X mit y - x < δ gilt f ( y ) − f ( x ) < ε .
heißt stetig auf X :⇔ f : X →
d) Eine stetige Funktion auf
ist stetig in y ∀y ∈ X
heißt (überall) stetig.
Satz b.1 (Stetigkeit = Folgenstetigkeit)
Seien X ⊂
a) f : X →
, x ∈ X und f : X →
eine Funktion. Dann sind äquivalent:
ist stetig in x.
b) ∀ Folge ( xn : n ∈
)
in X mit x = lim xn ist f ( x ) = lim f ( xn )
n∈
n∈
Beispiele b.1: stetige und unstetige Funktionen
1) Stetige Funktionen
a) konstante Funktion:
∋x
c mit c ∈
b) identische Funktion:
∋x
id ( x ) := x
c) Betragsfunktion:
∋x
x
d) Parabelfunktion:
∋x
x n mit n ∈
e) Hyperbelfunktion: \{0} ∋ x
fest.
fest
x − n mit n ∈
n
f) Wurzelfunktion: +0 ∋ x
x mit n ∈
g) Exponentialfunktion: ∋ x exp( x )
fest
fest
(vgl. §6 Potenzreihen)
h) Sinus, Cosinus, Tangens: ...
(vgl. §6 Potenzreihen)
i) Arcsin, Arccos, Arctan: ...
(vgl. §6 Potenzreihen)
j) Sägezahnfunktion: ...
2) Unstetige Funktionen:
a) Vorzeichenfunktion:
∋x
sign( x )
Unstetig in 0; sonst stetig.
b) Entier-Funktion:
∋x
entier ( x )
Unstetig in jedem z ∈ ; sonst stetig.
c) Indikatorfunktionen von Intervallen: 1[a ,b] ,1( a ,b] ,1( a ,b ) ,1[a ,b )
⎧1 für a ≤ x ≤ b
1[a ,b] ( x ) := ⎨
sonst
⎩0
unstetig in a und b ; sonst stetig
mit
∋x
d) Treppenfunktionen:
n
∑α
∋x
i =1
e) Indikatorfunktion von
Jedes x ∈
f)
∋x
∋x
:
i
1Ci bei αi ∈
und Ci ⊂
⎧ 1 für x ∈
1 ( x ) := ⎨
sonst
⎩0
ist Unstetigkeitsstelle.
id ( x ) 1 ( x ) : stetig in 0; unstetig sonst.
Satz b.2: (Zwischenwertsatz)
Seien a, b ∈
mit a < b und f : [a , b ] →
stetig mit (o.E.d.A) f ( a ) < f (b).
Dann gilt: ∀y ∈ ( f ( a ) , f (b) ) ∃x ∈ ( a , b ) mit f ( x ) = y.
Warnung: Die Stetigkeit in Satz b.2 ist wesentlich.
Beispiele b.2:
1) f : [1/2 , 1] : [0 , 1] →
2) f : [a , b] →
nicht stetig; f
stetig ⇒ f
([0 , 1]) = {0 , 1}
([ a , b ]) ⊂ [ f ( a ) , f ( b) ] ;
Skizze zu 2) : rot [f(a) , f(b)]; blau: f([a,b])
Bemerkung:
Intervallschachtelungsmethode des Beweises von Satz b.2 liefert approximatives
Verfahren zur Lösung von Gleichungen y = f ( x ) bei stetigem f.
Satz b.3:
a) Seien x0 ∈ X ⊂
∃ε ∈
+
und f : X →
stetig mit f ( x0 ) > 0. Dann gilt:
∀x ∈ K ( x0 ; ε ) ∩ X gilt f ( x ) > 0
,α∈
b) Seien x0 ∈ X ⊂
f +g:X →
mit x
f ⋅g: X →
stetig in x0 . Dann gilt:
+ g ) ( x ) := f ( x ) + g ( x ) ist stetig in x0 ,
( f ⋅ g ) ( x ) :=
mit x
αf :X →
(f
und f , g : X →
f ( x ) ⋅ g ( x ) ist stetig in x0
α f ( x ) := α f ( x ) ist stetig in x0
mit x
und bei Y := {x ∈ X : g ( x ) ≠ 0} und x0 ∈ Y ist
f
:Y →
g
⎛ f ⎞
f ( x)
⎜ g ⎟ ( x ) := g ( x ) stetig in x0 .
⎝ ⎠
und g : Y → stetig mit f ( x ) ⊂ Y . Dann ist auch die Funktion
mit x
c) Seien f : X →
g f :X →
mit x
g f ( x ) = g ( f ( x )) stetig.
Definition:
g f aus Satz b.3.c heißt die Hintereinanderschaltung oder die Kompositon von f und g .
Warnung: Die Stetigkeit von f ist wesentlich in Satz b.3.a.
∋x
Beispiel b.3:
g ( x ) := − x + 1{0} ( x )
§5.c Gleichmäßig stetige Funktionen, Vollständigkeit und
Folgenkompaktheit
Definition:
Sei X ⊂ .
a) f : X →
∀ε ∈
+
heißt gleichmäßig stetig (in X ) : ⇔
∃δ ∈
+
∀x, y ∈ X mit x - y < δ gilt f ( x ) − f ( y ) < ε
b) X heißt folgenkompakt : ⇔
Jede Folge ( xn : n ∈
) in X
hat eine gegen ein x ∈ X konvergente Teilfolge.
c) X heißt vollständig : ⇔
Jede Cauchyfolge ( xn : n ∈
)
in X konvergiert gegen ein x ∈ X .
Beispiele c.1:
1)
∋x
x gleichmäßig stetig.
2)
∋x
x 2 nicht gleichmäßig stetig auf
+
0
∋x
x gleichmäßig stetig
; [-2 , 2] ∋ x
x 2 gleichmäßig stetig
3)
vollständig;
∃ ( qn ) ∈
4)
und
∩ [ −2 , 3] nicht vollständig:
mit qn → 2 ∉
und
nicht folgenkompakt;
[−2 , 3] folgenkompakt z.B. nach Bolzano-Weierstraß (oder Heine-Borel).
5) Bei xn → x für n → ∞ ist X := {xn : n ∈ } ∪ {x}
abgeschlossen, beschränkt, vollständig, folgenkompakt.
Satz c.1:
Sei X ⊂ . Dann gilt:
a) X abgeschlossen in
⇔ ∀ Folge ( xn : n ∈
) in X
mit lim xn = x ∈
n∈
ist x ∈ X , d.h. X = X .
b) X vollständig ⇔ X abgeschlossen in
c) Satz von Heine-Borel:
X folgenkompakt ⇔ X abgeschlossen in
und beschränkt
⇔ X vollständig und beschränkt
Satz c.2:
Seien ∅ ≠ X ⊂
a) f : X →
folgenkompakt und f : X →
stetig. Dann gilt:
ist gleichmäßig stetig.
b) ∃xM ∈ X und ∃xm ∈ X mit
f ( xM ) = sup { f ( x ) : x ∈ X } = max { f ( x ) : x ∈ X } = max f ( x )
x∈X
f ( xm ) = inf { f ( x ) : x ∈ X } = min { f ( x ) : x ∈ X } = min f ( x )
x∈X
c) f ( X ) ist folgenkompakt
Definition:
In der Situation von Satz c.2.b heißt xM eine Maximalstelle und xm eine
Minimalstelle von f.
Beispiele c.2:
1) id :
→
( 0 , 1) ∋ x
( 0 , 1] ∋ x
stetig, id ( ) nicht beschränkt
x stetig, beschränkt, keine Maximal- und Minimalstelle
x stetig, beschränkt, keine Minimalstelle, Maximalstelle 1
⎡− 2 ,
⎣
2)
+
2 ⎤⎦ ∩
∋x
x stetig, beschränkt, keine Maximal- und Minimalstelle
1
stetig, nicht beschränkt, keine Maximal- und Minimalstelle
x
= (0 , + ∞ ) ∋ x
1
stetig, nicht beschränkt, keine Maximalstelle, Minimalstelle 1
x
⎧0 bei x = 0
⎪
3) [0 , 1] ∋ x
nicht stetig, unbeschränkt, Minimalstelle 0, keine Maximalstelle
⎨1
sonst
⎪⎩ x
4) ∋ x
x gleichmäßig stetig, unbeschränkt, keine Maximal- und Minimalstelle
( 0 , 1] ∋ x
5)
x 2 nicht gleichmäßig stetig; [0 , 1] ∋ x
∋x
x 2 gleichmäßig stetig
§5.d Gleichmäßige Konvergenz
Definition:
Seien X ⊂ ,
a)
( fn : n ∈ )
eine Folge von Funktionen f n : X →
( f n : n ∈ ) konvergiert punktweise gegen
∀x ∈ X ist f ( x ) = lim f n ( x ), d.h. ∀x ∈ X ∀ε ∈
n∈
b)
( f n : n ∈ ) konvergiert gleichmäßig gegen
∀ε ∈
∃mε ∈
+
( ∀ε ∈
+
∀n ∈
∃mε ∈
∀n ∈
und f : X →
eine Funktion
pktw
f (i.Z.: f = lim f n , f n → f , f n ⎯⎯⎯
→ f ) :⇔
n∈
+
∃mx ,ε ∈
f (i.Z.: f n
∀n ∈
→
→
mit n ≥ mε gilt f n − f < ε
glm
f , f n ⎯⎯→
f ) :⇔
mit n ≥ mε ∀x ∈ X gilt f n − f < ε
mit n ≥ mε gilt sup { f n ( x ) − f ( x ) : x ∈ X } < ε )
Skizze:
Anmerkungen:
glm
pktw
1) f n ⎯⎯→
f ⇒ f n ⎯⎯⎯
→f
2) Für jedes x ∈ X existiere lim f n in . Bei f ( x ) : lim f n ( x ) ist
n∈
f :X →
mit x
n∈
f ( x ) dann eine Funktion; vgl. §4, Satz a.1 (Eindeutigkeit des Limes)
Beispiele d.1:
x
und f ( x ) := x ∀x ∈ X .
n
f n und f stetig; f n konvergiert punktweise, aber nicht gleichmäßig gegen f .
1) X :=
und f n ( x ) := x +
2) Y := [0 , 1] (oder: Y := ( 0 , 1)) und f n und f wie oben;
g n := f n | Y und g := f | Y die Einschränkung auf Y .
( g n : n ∈ ) konvergiert gleichmäßig (und damit auch punktweise) gegen g
1
⎧
⎪1 − nx für 0 ≤ x ≤
f n stetig auf X ; f unstetig in 0;
3) X := [0 , 1] ; f := 1{0} und f n ( x ) := ⎨
n
⎪⎩ 0
sonst
( f n : n ∈ ) konvergiert punktweise, aber nicht gleichmäßig gegen f .
Satz d.1:
Sei ( f n : n ∈
) eine Folge von Funktionen mit X ⊂
a) ∃ f : X →
∀ε ∈
+
glm
und f n ⎯⎯→
f ⇔
∃m ∈
∀k , l ∈
mit k , l ≥ m ∀x ∈ X gilt f k ( x ) − f l ( x ) < ε
glm
b) f n ⎯⎯→
f und f n : X →
⇒ f :X →
. Dann gilt:
stetig [in x ∈ X ] für alle n ∈
stetig [in x ∈ X ]
Satz d.2: (Dini)
Sei X ⊂
folgenkompakt und seien f n : X →
Weiter sei für jedes x ∈ X die Folge ( f n ( x ) : n ∈
und f : X →
stetig.
f n ( x ).
) isoton und f ( x ) = lim
n∈
glm
Dann gilt: f n ⎯⎯→
f
Warnung:
Jede der Voraussetzungen „ X folgenkompakt“ und „ f stetig“ in Satz d.2 ist
wesentlich.
Beispiele d.2:
1) X =
nicht folgenkompakt: Beispiel d.1.1
2) f := 1{0} nicht stetig: Beispiel d.1.3
Satz d.3 (Weierstraßscher Approximationssatz)
Sei X := [a , b] mit a, b ∈
f :X →
∀n ∈
und a < b (also ein folgenkompaktes Intervall) und
stetig. Dann gilt:
∃ Polynom pn : X →
mit sup { f ( x ) − pn ( x ) : x ∈ X } <
1
.
n
glm
f
Es gilt also: pn ⎯⎯→
Warnung: Die (Folgen-)Kompaktheit von X in Satz d.3 ist wesentlich.
Beispiele d.3:
1) Bei X :=
gilt für jedes Polynom p :
→
mit x
lim p( x ) ∈ {-∞, +∞} bei n ≥ 1 und an ≠ 0 oder p ( x )=α ∈
p( x ) := a0 + a1 x + ... + an x n nämlich
x →∞
∀x ∈
bei n = 0 .
Es gibt aber nichtkonstante stetige Funktionen (z.B. sin(x)). Also ist bei X := nicht
jede stetige Funktion durch eine Folge von Polynomen gleichmäßig approximierbar
(wohl aber punktweise).
1
stetig auf X .
x
Jedes Polynom p auf X ist stetig zu einem Polynom p auf [0 , 1] fortsetzbar.
2) Bei X := ( 0 , 1) ist f : X →
mit x
f ( x ) :=
Es ist p auf [0 , 1] und damit p auf ( 0 , 1) beschränkt.
Wegen f ( x ) → +∞ für x → 0 ist f auf X nicht durch Polynome gleichmäßig approximierbar.
Hinweis:
vgl. §11 Taylor- und Fourierreihen, Satz von Fejér:
Approximation stetiger (period.) Funktionen durch gemittelte FourierPartialsummen = Approximation durch „trigonometrische Polynome“.
Weierstraßscher Approximationssatz folgt z.B. aus dem Satz von Fejér.
§6 Potenzreihen
§6.a Allgemeine Eigenschaften
Für eine Folge ( an : n ∈
0
) reeller Zahlen an ∈
n
sn := ∑ ai und die Reihe ∑ ( an : n ∈
i =0
0
seien die Partialsummen
) := ( sn : n ∈
0
)
und gegebenenfalls
∑a
n∈
n
:= lim sn .
n →∞
0
Definition:
Sei ( an : n ∈
0
) eine Folge reeller Zahlen.
∑a x
∋x
a) Die Abbildung
n∈
n
n
:= ∑ ( an x n : n ∈
0
)
∈
0
0
heißt die zu dieser Folge von Koeffizienten an gehörige (formale) Potenzreihe.
∑ ( a x : n ∈ ) in
wird ihre Summe auch mit ∑ a x ( ∈ :=
Falls für x ∈
die Reihe
oder uneigentlich konvergiert,
n
0
n
∪ {−∞, +∞}) bezeichnet.
n
Bei K : K ( an : n ∈
∑a x
K∋x
n∈
0
) := { y ∈
∈
n
n
n∈
n
0
: ∑ ( an y n : n ∈
0
)
konvergiert in
} heißt die Abbildung
die zu dieser Folge gehörige konvergente Potenzreihe mit dem
0
Konvergenzbereich K .
1
1
:= +∞ und := 0 heißt r := r ( an : n ∈
0
∞
b) Bei
0
) := lim sup n
n →∞
1
an
der zugehörige Konvergenzradius.
Beispiele a.0:
1) an := 0 für n ∈
0
: r = ∞; zugehörige Potenzreihe ist Polynom
2) an := 1 ∀n ∈
0
3) Für x := 0 ist
∑a x
: r =1; zugehörige Potenzreihe ist die geometrische Reihe
n
n∈
n
= a0
0
Satz a.1: (Hadamard)
Sei
∑a x
n∈
n
eine Potenzreihe mit dem Konvergenzradius r. Dann:
0
∑ (a x
b) ∑ ( a x
a)
n
n
n
n
n
:n∈
0
:n∈
0
) konvergiert absolut für
) divergiert für x > r.
x < r.
Warnung: Für x = + r oder x = − r ist im allgemeinen keine Konvergenzaussage
möglich.
Beispiele a.1:
1)
∑x
n∈
n
1
∑n
2)
hat den Konvergenzbereich -1 < x < +1
0
n∈
x n hat den Konvergenzbereich 1 ≤ x < +1
0
1
3)
∑n
n∈
x n hat den Konvergenzbereich 1 ≤ x ≤ +1
2
0
Satz a.2:
Sei
∑a x
n∈
eine Potenzreihe mit dem Konvergenzradius r. Dann:
n
n
0
a) Bei an ≠ 0 für alle n ∈
lim inf
n →∞
0
gilt:
an
a
≤ r ≤ lim sup n
an +1
an +1
n →∞
b) Gleichmäßige Konvergenz:
Für x < r ist
∑a x
n∈
n
n
∈
und für alle 0 ≤ ρ < r gilt:
0
⎧⎪
⎫⎪
lim sup ⎨ ∑ an x n − ∑ an x n : x ≤ ρ ⎬ = 0
m→∞
n∈ 0
⎩⎪ n =0
⎭⎪
c) Stetigkeit:
m
Die Funktion f : ( − r , r ) →
mit x
f ( x ) :=
∑a x
n∈
n
n
ist stetig.
0
Beispiele a.2:
1) exp( x ) :=
∑
n∈
0
xn
hat den Konvergenzradius r = ∞
n!
2) Warnung:
Im allgemeinen liegt in ( − r , r ) keine gleichmäßige Konvergenz vor, d.h ρ < r in
Satz a.2.b ist wesentlich.
Beispiel:
Für ∑ x n ist r = 1.
n∈
0
⎧
⎫
sup ⎨ ∑ x n : x < 1⎬ = ∞
⎩ n =m +1
⎭
∞
3) Wegen 1) und Satz a.2.c ist exp :
→
stetig.
Satz a.3
∑a x
Seien
n∈
und
n
n
∑b x
n∈
0
Potenzreihen mit dem Konvergenzradius r bzw R. Dann gilt:
n
n
0
a) Identitätssatz:
Sei ( xk : k ∈
)
∑a x
0 = lim xk und
k →∞
mit 0 < xk < min( r , R ),
eine Folge in
n∈
n
n k
= ∑ bn xk n für alle k ∈ .
n∈
0
0
Dann ist an = bn für alle n ∈
0
.
b) Cauchy-Produkt:
n
Bei cn := ∑ al bn −1 für n ∈
0
l =0
und
∑c x
n∈
n
n
0
konvergiert
∑c x
n∈
n
n
für x < min( r, R )
0
⎛
⎞⎛
⎞
= ⎜ ∑ an x n ⎟ ⎜ ∑ bn x n ⎟
⎝ n∈ 0
⎠ ⎝ n∈ 0
⎠
Beispiele a.3:
Für x < 1 ist
⎛
⎞⎛
⎞
1
n
=
x
x
⎜
⎟
⎜
∑
∑
n
n ⎟ = ∑ ( n + 1) x
2
(1- x )
⎝ n∈ 0 ⎠ ⎝ n∈ 0 ⎠ n∈ 0
Satz 4: (Abel)
Sei
∑a x
n∈
n
n
0
eine Potenzreihe mit dem Konvergenzradius 0 < r < ∞. Dann gilt:
∑ (a r
= ∑a r
a) Konvergiert
lim ∑ an x n
x ↑r
n∈
0
n
x ↓− r
∑a x
n∈
n
n
0
:n∈
0
) in
, so gilt:
n
n∈
n
0
∑ ( a (−r)
= ∑ a (−r)
b) Konvergiert
lim
n
n
n
:n∈
0
) in
, so gilt:
n
n∈
n
0
Warnung:
Aus der Existenz von lim ∑ an x n folgt nicht die Konvergenz von
x ↑r
n∈
∑(a r
n
0
Beispiel: an := ( −1) . Nach Satz a.2.a ist r = 1.
n
∑(a r
n
n
:n∈
0
) divergiert, aber: ∑ ( −1)
n∈
0
n
xn =
1
1
x →1
⎯⎯⎯
→
1+ x
2
n
:n∈
0
).
Beispiele a.4:
1
, vgl. Beispiel a.1.2: konvergiert für − 1 ≤ x < 1;
n
1
1 n
n
x nach Satz a.4.b
( −1) = lim
∑
∑
x ↓−1
n∈ n
n∈ n
1
1
x := +1: ∑ = +∞ ; lim ∑ x n = ?
x ↑1
n∈ n
n∈ n
an :=
§6.b Exponential- und Logarithmusfunktion
Wir betrachten im folgenden eine spezielle Potenzreihe, nämlich die
Exponentialfunktion (vgl. §4.c und §6.a) exp :
→
mit x
exp( x ) :=
∑
n∈
0
xn
und
n!
deren Umkehrfunktion, die Logarithmusfunktion.
Satz b.1:
a) exp hat den Konvergenzradius r = ∞.
b) exp :
→
ist stetig.
c) exp( x + y ) = exp( x ) ⋅ exp( y ) ∀x, y ∈
d) 1 + x ≤ exp( x ) ∀x ∈
e) exp :
→
ist streng isoton und damit injektiv.
f) lim exp( x ) = 0 und exp(0) = 1 und lim exp( x ) = +∞
x →−∞
g) exp( ) =
x →+∞
+
(und damit ist exp( x ) > 0 ∀x ∈ ).
exp( x )
= +∞ ∀n ∈ (d.h. exp wächst schneller als jede Potenzfunktion)
x →+∞
xn
i) exp : → ist streng konvex, d.h. ∀x, y ∈ ∀ϑ ∈ mit 0 < ϑ < 1 ist
h) lim
exp(ϑ x + (1 − ϑ ) y ) < ϑ exp( x ) + (1 − ϑ ) exp( y )
Zeichnung:
Definition
Die Umkehrfunktion (vgl. §2.2 und Satz b.1.e und b.1.g oben)
log : + → mit x log( x ) der Exponentialfunktion heißt die (natürliche)
Logarithmusfunktion. ln x := ln( x ) := log( x ) heißt der natürliche Logarithmus von
x∈ +.
+
Anmerkung: exp(log( y )) = y ∀y ∈
und x = log(exp( x )) ∀x ∈
Satz b.2:
a) log :
+
→
ist stetig.
b) log( xy ) = log( x ) + log( y ) ∀x, y ∈
c) log( x ) ≤ x -1 ∀x ∈
d) log :
+
→
+
(vgl. Rechenschieber)
+
ist streng isoton, injektiv und surjektiv.
e) lim log( x ) = −∞ und log(1) = 0 und lim log( x ) = +∞.
x →0
x →+∞
⎛
x ⎞
f) lim ⎜
⎟ = +∞ , d.h. log wächst langsamer als jede n-te Wurzel
x →+∞ log( x )
⎝
⎠
+
→ ist streng konkav; d.h. ∀x, y ∈ + ∀ϑ ∈ mit 0 < ϑ < 1 ist
g) log :
n
log(ϑ x + (1 − ϑ ) y ) > ϑ log( x ) + ϑ log( y )
Zeichnung:
Anmerkung: (Spiegelung an Hauptdiagonale D := {( x, y ) ∈
graph(log) = ∏( graph(exp)) bei ∏ :
2
→
2
mit ( x, y )
2
: x = y}
∏ ( x, y ) := ( y , x )
Satz b.3 (Charakterisierungen)
⇒ ∃α ∈
b) g :
+
→
a) f :
+
stetig [monoton] und f ( x + y ) = f ( x ) ⋅ f ( y ) ∀x, y ∈
mit f ( x ) = exp(α x ) ∀x ∈ .
→
⇒ ∃β ∈
stetig [monoton] und g ( xy ) = g ( x ) + g ( y ) ∀x, y ∈
mit g ( x ) = β log( x ) ∀x ∈
+
+
.
Definition: e := exp(1) (e heißt Eulersche Zahl. e ≈ 2.71828183...)
Satz b.4:
∞
1
⎛ 1⎞
a) e := exp(1) := ∑ = lim ⎜ 1 + ⎟
n →∞
⎝ n⎠
n =0 n !
b) Restgliedabschätzung:
n
∞
m
1
1 1 1
= e−∑ < ⋅
∀m ∈
m m!
n = m +1 n !
n =0 n !
c) e ∈ \ , d.h. e ist irrational
0<
∑
Definition:
Sei a ∈ + .
a) Für x ∈
sei a x := expa ( x ) := exp( x ⋅ log( a )).
Es heißen a die Basis und x der Exponent von a x .
b) Die Funktion expa :
+
→
mit x
expa ( x ) heißt die Exponentialfunktion zur Basis a.
Satz b.5.
a) Verträglichkeit (vgl. §3.b): Für n ∈
gilt:
n
n
i =1
i =1
x n := exp( n ⋅ log( x )) = ∏ exp(log( xi )) = ∏ xi bei xi := x
⎛1
⎞
x := exp ⎜ ⋅ log( x ) ⎟ = n exp(log( x )) = n x
⎝n
⎠
0
x
b) a = 1 und 1 = 1 ∀a ∈ + und ∀x ∈
1
n
c) exp( x ) = e x = expe ( x ) ∀x ∈
d) ( a x ) = exp( y ⋅ log(a x )) = exp( y ⋅ log(exp( x ⋅ log( a )))) = exp( yx ⋅ log( a )) = a xy
y
( x ⋅ log( a )) n
∀x ∈
n!
n =0
∞
e) expa ( x ) = exp( x ⋅ log( a )) = ∑
f) Für a ∈
1) expa :
+
→
gilt:
ist stetig.
2) expa ( x + y ) = expa ( x ) ⋅ expa ( y ) ∀x, y ∈
3) expa :
→
⎧ isoton für 1 < a
ist streng ⎨
⎩antiton für a < 1
∀a ∈
+
⎧ 0 für 1 < a
4) lim expa ( x ) = ⎨
x →−∞
⎩+∞ für a < 1
expa (0) = 1
⎧+∞ für 1 < a
lim expa ( x ) = ⎨
x →+∞
⎩ 0 für a < 1
Zeichnung:
e := exp(1)
und
log(e) = 1
e x = exp( x ) = exp( x ⋅ log( e)) = expe ( x )
2 x := exp2 ( x ) := exp( x ⋅ log(2))
10 x := exp10 ( x ) := exp( x ⋅ log(10))
1x = 1
∀x ∈
⎛ 1⎞
0.1x := exp0.1 ( x ) := exp( x ⋅ log ⎜ ⎟) = exp( − x ⋅ log(10))
⎝ 10 ⎠
x
⎛1⎞
⎛1⎞
⎜ ⎟ = exp 1 ( x ) := exp( x ⋅ log ⎜ ⎟) = exp( − x )
⎝e⎠
⎝e⎠
e
⎛1⎞
0.5x := exp0.5 ( x ) := exp( x ⋅ log ⎜ ⎟) = exp( − x ⋅ log(2))
⎝2⎠
Definition:
Die Umkehrfunktion log a :
expa :
→
+
+
→
mit x
log a ( x ) der Exponentialfunktion
zur Basis a heißt die Logarithmusfunktion zur Basis a.
log a ( x ) Logarithmus von x zur Basis a.
ln( x ) := log( x ) = log e ( x ); lg( x ) := log10 ( x )
Vorsicht: Uneinheitlicher Gebrauch dieser Bezeichnungen !
Manchmal z.B. auch log( x ) := log 2 ( x ) oder log( x ) := lg( x ).
Bemerkung: log a ( x ) =
Zeichnung:
log( x )
log(a )
§6.c Trigonometrische Funktionen
2 n +1
x
gilt: ∑
≤ exp( x )
n∈ 0 (2 n + 1)!
Für x ∈
2n
x
≤ exp( x )
∑
n∈ 0 (2n )!
Definition:
a) Für x ∈
∑ ( −1)n
heißt sin( x ) :=
n∈
sin :
→
mit x
b) Für x ∈
sin( x ) heißt die Sinusfunktion.
heißt cos( x ) :=
∑ ( −1)n
n∈
cos :
→
0
x 2 n +1
der Sinus von x;
(2n + 1)!
0
x 2n
der Kosinus von x;
(2n )!
cos( x ) heißt die Kosinusfunktion.
mit x
Satz c.1:
a) sin und cos haben den Konvergenzradius r = +∞.
→
b) sin :
und cos :
→
sind stetig.
c) sin(0) = 0 und cos(0) = 1
d) sin( − x ) = − sin( x ) und cos( − x ) = cos( x ) ∀x ∈
sin( x )
1 − cos( x ) 1
= 1 und lim
=
0 ≠ x →0
0≠ x →0
x
x2
2
f) Additionssatz:
e) lim
sin( x + y ) = cos( x ) ⋅ sin( y ) + sin( x ) ⋅ cos( y )
cos( x + y ) = cos( x ) ⋅ cos( y ) − sin( x ) ⋅ sin( y ) ∀x, y ∈
g) (Pythagoras, Winkelinterpretation):
( sin( x ) )
2
+ ( cos( x ) ) = 1 ∀x ∈
2
h) sin( x ) ≤ 1 und cos( x ) ≤ 1
i) Restgliedabschätzung: Für x ≤ 1 und m ∈
ist
x 2 n +1
1
sin( x ) − ∑ ( −1)
≤
(2n + 1)! (2m + 2)(2m + 2)!
n =0
m
n
m
cos( x ) − ∑ ( −1) n
n =0
x2n
1
≤
(2n )! 2m(2m)!
j) ∃y ∈ ( 0 , 2 ) mit cos( y ) = 0
Definition:
⎧
π := inf ⎨ x ∈
⎩
+
⎛ x ⎞⎫
: cos ⎜ ⎟ ⎬ heißt die Kreiszahl.
⎝ 2 ⎠⎭
Anmerkung:
⎛π ⎞
cos ⎜ ⎟ = 0 und π ≈ 3.141592653... ∈ \
⎝2⎠
Satz c.2:
⎡ π π⎤
a) sin : ⎢ − , ⎥ →
⎣ 2 2⎦
ist streng isoton
π⎞
π⎞
⎛
⎛
b) sin ⎜ x + ⎟ = cos( x ) und cos ⎜ x + ⎟ = − sin( x ) ∀x ∈
2⎠
2⎠
⎝
⎝
c) sin( x + π ) = − sin( x ) und cos( x + π ) = − cos( x ) ∀x ∈
d) sin( x + 2π ) = sin( x ) und cos( x + 2π ) = cos( x )
e) {x ∈
{x ∈
: sin( x ) = 0} = {zπ : z ∈
} und
⎧⎛
⎫
1⎞
: cos( x ) = 0} = ⎨⎜ z + ⎟ π : z ∈ ⎬
2⎠
⎩⎝
⎭
Zeichnung:
∀x ∈
Definition:\
a) Für x ∈ T := \{ y ∈
tan( x ) :=
⎫
1⎞
⎛
: y ≠ ⎜ z + ⎟ π mit z ∈ ⎬ heißt
2⎠
⎝
⎭
sin( x )
der Tangens von x; tan : T →
cos( x )
b) Für x ∈ C := \{ y ∈
cot( x ) :=
⎧
: cos( y ) = 0} = ⎨ y ∈
⎩
: sin( y ) = 0} = { y ∈
a) tan : T →
ist stetig.
b) tan(0) = 0 und tan( x + π ) = tan( x ) ∀x ∈ T
tan( x ) heißt die Tangensfunktion.
: y ≠ zπ mit z ∈
cos( x )
der Kotangens von x; cot : C →
sin( x )
Satz c.3:
mit x
mit x
} heißt
cot( x ) heißt die Kotangensfunktion.
⎛ π π⎞
c) tan : ⎜ − , ⎟ → ist streng isoton.
⎝ 2 2⎠
tan( x ) = +∞
d) limπ tan( x ) = −∞ und lim
π
x ↓−
2
x↑
2
Zeichnung:
Anmerkung: (etwas Latein)
a) sinus: Rundung, Bogen,…
b) co- abgeleitet von „cum“, vgl.: Komilitone, Kooperation,…;
c) tangere: berühren
(vgl. Tangente (an einen Kreis))
d) arcus: Bogen, Kreisbogen (vgl.Architekt; tectum: Dach)
Definition:
⎡ π π⎤
⎡ π π⎤
a) arcsin : [ −1 , 1] → ⎢ − , ⎥ sei die Umkehrfunktion zu sin : ⎢ − , ⎥ → [ −1 , 1].
⎣ 2 2⎦
⎣ 2 2⎦
Sie heißt (die) Arcussinusfunktion.
b) arccos : [ −1 , 1] → [0 , π ] sei die Umkehrfunktion zu cos : [0 , π ] → [ −1 , 1].
Sie heißt (die) Arcuscosinusfunktion.
⎛ π π⎞
⎛ π π⎞
→ ⎜ − , ⎟ sei die Umkehrfunktion zu tan : ⎜ − , ⎟ → .
⎝ 2 2⎠
⎝ 2 2⎠
Sie heißt (die) Arcustangensfunktion.
c) arctan :
d) arc cot :
→ ( 0 , π ) sei die Umkehrfunktion zu cot : ( 0 , π ) → .
Sie heißt (die) Arcuscotangensfunktion.
Zeichnung:
§7 Differentiation
Definition:
Seien x ∈ E ⊂ D ⊂
und g : D →
, a ∈ , ( xn : n ∈
) eine gegen x konvergente Folge in D
eine Funktion mit lim g ( xn ) = a.
n →∞
lim g ( y ) = a : ⇔ Für jede gegen x konvergente Folge ( yn : n ∈
y→ x
y∈E
) in E gilt:
lim g ( yn ) = a
n →∞
Bei E := { y ∈ D : x < y} bzw. E := { y ∈ D : y < x} schreiben wir:
lim g ( y ) bzw. lim g ( y ) anstelle von lim g ( y ).
y↓ x
( y∈D )
y↑ x
( y∈D )
y→ x
y∈E
Definition:
Seien D ⊂
und f : D →
wenn f '( x ) :=
eine Funktion. f heißt differenzierbar in x ∈ D,
df
f ( x) − f ( y )
( x ) := f ( x ) := lim
in
y→ x
dx
x
−
y
y∈D \{x}
⋅
existiert.
f '( x ) heißt dann der Differentialquotient oder die Ableitung von f in x.
f ( x) − f ( y )
heißt Differenzenquotient.
x− y
f heißt differenzierbar in D , wenn f differenzierbar ist für jedes x ∈ D.
Sei f in D differenzierbar und f ' : D →
mit x
Anstelle von f '( z ) bei z ∈ D schreiben wir auch
f '( x ) die Ableitung von f .
df
df
d
( z ) und anstelle von f ' auch
oder
f.
dx
dx
dx
Skizze zum Differenzenquotient:
f ( x) − f ( y )
Steigung der Sekante durch
x− y
( x, f ( x )), (y , f ( y )) . Bei y → x wird
Sekante zur Tangente. Bei Existenz ist die
Funktion in x differenzierbar.
Satz 1:
Seien x ∈ D ⊂
und f : D → . Dann gilt:
a) f ist differenzierbar in x ⇒ f ist stetig in x
⇐
b) f ist differenzierbar in x ⇔
lim
0≠ h →0
c) f ist differenzierbar in x ⇔ ∃ c ∈
f ( x + h) − f ( x)
existiert in .
h
und ∃ ϕ : D →
mit lim
y→ x
y∈D \{x}
ϕ ( y)
y−x
=0
und f ( y ) = f ( x ) + c( y − x ) + ϕ ( y ) ∀y ∈ D
Interpretation: „f ist in x linear approximierbar“
„f’(x) Steigung der Tangente in (x,f(x))“
Beispiele 1:
→
1) f :
2) f :
3) f :
4)
5)
6)
7)
f
f
f
f
:
:
:
:
→
mit x
f ( x ) := ax + b mit a, b ∈ . f '( x ) = a ∀x ∈
f ( x ) := x 2 . f '( x ) = 2 x ∀x ∈
1
1
\{0} → mit x
f ( x ) := . f '( x ) = − 2 ∀x ∈ \{0}
x
x
f ( x ) := exp( x ). f '( x ) = exp( x ) ∀x ∈
→ mit x
→ mit x
f ( x ) := sin( x ). f '( x ) = cos( x ) ∀x ∈
→ mit x
f ( x ) := cos( x ). f '( x ) = − sin( x ) ∀x ∈
→ mit x
f ( x ) := 1[0 , 1] ( x ). f nicht differenzierbar in x = 0 und x = 1;
mit x
wohl aber dort von rechts und von links differenzierbar. Für x ∉ {0,1} ist
f differenzierbar mit f '( x ) = 0
8) f :
→
mit x
f ( x ) := x . f ist nicht differenzierbar in x = 0;
wohl aber in x = 0 von rechts und von links differenzierbar.
f ist in x ∈ \{0} differenzierbar mit f '( x ) = sign( x ).
Definition:
Seien x ∈ D ⊂
f + ' ( x ) := lim
y↓ x
und f : D → . f heißt von rechts bzw. von links differenzierbar in x, wenn
f ( x) − f ( y )
f ( x) − f ( y )
bzw. f − ' ( x ) := lim
in
y↑ x
x− y
x− y
existieren.
f + ' ( x ) bzw. f − ' ( x ) heißen rechtsseitige Ableitung bzw. linksseitige Ableitung von f in x.
Anmerkung:
f differenzierbar in x ∈ D ⊂
⇔ f + ' ( x ) := lim
y↓ x
f ( x) − f ( y )
f ( x) − f ( y)
und f − ' ( x ) := lim
y↑ x
x− y
x− y
existieren in
und f + ' ( x ) = f − ' ( x )
Genauer: Falls f in x von links differenzierbar bzw. von rechts differenzierbar bzw.
differenzierbar ist, sind f + ' ( x ) bzw. f − ' ( x ) bzw. f '( x ) reelle Zahlen. (Dann existieren
Folgen ( xn : n ∈
) mit xn ↑ x bzw. ( yn : n ∈ ) mit yn ↓ x bzw. zn → x
in D). Im Falle
der Differenzierbarkeit von f gilt dann: f '( x ) = f + '( x ) oder f '( x ) = f − '( x ) .
Ist f in x von links und rechts differenzierbar und gilt f + ' ( x ) = f − ' ( x ) , so ist f in x
auch differenzierbar und f '( x ) = f + ' ( x ) = f − ' ( x ) .
Satz 2:
Seien x ∈ D ⊂
Dann gilt:
, f :D→
und g : D →
in x differenzierbar und α ,β ∈ .
a) f + g , α f und f ⋅ g sind in x differenzierbar
f
: D → in x differenzierbar
g
c) Linearität der Differentiation: (α f + β g ) '( x ) = α ⋅ f '( x ) + β ⋅ g '( x )
b) Bei g ( y ) ≠ 0 ∀y ∈ D ist
d) Produktregel: (f ⋅ g ) '( x ) = f '( x ) ⋅ g ( x ) + f ( x ) ⋅ g '( x )
⎛ f ⎞
f '( x ) ⋅ g ( x ) − f ( x ) ⋅ g '( x )
e) Quotientenregel: ⎜ ⎟ ( x ) =
2
( g ( x) )
⎝g⎠
Beispiele 2:
1) f :
→
mit x
2) f : \{0} →
f ( x ) := x n bei n ∈ . f '( x ) = n ⋅ x n −1 ∀x ∈
mit x
π
⎧
3) f : \ ⎨( 2 z + 1) : z ∈
2
⎩
1
f '( x ) =
∀x ∈
cos2 ( x )
4) f : \{zπ : z ∈
f '( x ) = −
}→
f ( x ) := x
⎫
⎬→
⎭
−n
bei n ∈ . f '( x ) = − n ⋅ x
(Aus Satz 2.d, vollst. Induktion)
− ( n +1)
∀x ∈
(Aus Satz 2.e, vollst. Ind.)
f ( x ) := tan( x ).
mit x
π
sin( x )
⎧
⎫
\ ⎨( 2 z + 1) : z ∈ ⎬ ( tan( x ) =
, Satz 2.e)
2
cos( x )
⎩
⎭
mit x
f ( x ) := cot( x )
1
∀x ∈ \{zπ : z ∈
sin 2 ( x )
}
Satz 3: (Ableitung der Umkehrfunktion)
Seien D ⊂ , E ⊂ , f : D → E eine bijektive Funktion und ϕ : E → D mit
ϕ (y ) := f −1 ({ y}) deren Umkehrfunktion. Dann gilt:
Ist f in x ∈ D differenzierbar mit f '( x ) ≠ 0 und ist ϕ : E → D in y := f ( x ) stetig,
so ist ϕ in y differenzierbar und
⎛
⎞
⎜ dϕ
⎟
dϕ
1
1
1
ϕ '( y ) = ⎜
( y) =
( f ( x )) =
=
=
⎟
df
df
dy
⎜ dy
( x)
(ϕ ( y )) ⎟ f '(ϕ ( y ))
dx
dx
⎝
⎠
dx
1
Salopp:
=
dy dy
dx
Beispiele 3:
+
→
mit y log( y ) ist die Umkehrfunktion von exp :
1
d log
Sie ist stetig und
( y) =
∀y ∈ +
dy
y
1) log :
⎡ π π ⎤
2) arcsin : [ −1 , 1] → ⎢ − ,
mit y
2 ⎥⎦
⎣ 2
⎡ π π ⎤
sin : ⎢ − ,
→ [ −1 , 1] mit x
2 ⎥⎦
⎣ 2
3) arccos : [ −1 , 1] → [0 , π
cos : [0 , π
4) arctan :
] → [−1 , 1] mit x
.
d arcsin
1
( y) =
dy
(1 − y 2 )
arccos( y ) ist die Umkehrfunktion von
cos( x ). Sie ist stetig und
⎛ π π⎞
→ ⎜ − , ⎟ mit y
2⎠
⎝ 2
+
arcsin( y ) ist die Umkehrfunktion von
sin( x ). Sie ist stetig und
] mit y
→
d arccos
1
( y) = −
dy
(1 − y 2 )
arctan( y ) ist die Umkehrfunktion von
d arctan
1
⎛ π π⎞
tan : ⎜ − , ⎟ → mit x tan( x ). Sie ist stetig und
( y) =
dy
2⎠
1 + y2
⎝ 2
5) arc cot : → ( 0 , π ) mit y arc cot( y ) ist die Umkehrfunktion von
cot : ( 0 , π ) →
mit x
cot( x ). Sie ist stetig und
d arc cot
1
( y) = −
dy
1 + y2
Satz 4: (Kettenregel)
Seien f : D →
und g : E →
Funktionen mit f ( D ) ⊂ E.
Ist f in x ∈ D und g in y := f ( x ) ∈ E differenzierbar, so ist g f : D →
in x differenzierbar und
d (g f )
df
⎛ dg
⎞
( x ) = ⎜ ( f ( x )) ⋅ ( x ) ⎟ = g '( f ( x )) ⋅ f '( x )
dx
dx
dx
⎝
⎠
Beispiele 4:
1) Sei g :
→
differenzierbar in x ∈ . Dann ist bei a, b ∈
und f :
→
f ( x ) := ax + b die Funktion g f : → mit x
g f ( x ) := g ( f ( x ))
dg f
dg ( ax + b)
dg
differenzierbar in x ∈ und
( x) =
( x ) = a ( ax + b)
dx
dx
dx
dxα
xα := exp(α ⋅ log( x )) ∈ . Dann ist
( x ) = α xα −1
2) Bei α ∈ sei + ∋ x
dx
mit x
Satz 5:
Seien a, b ∈
mit a < b.
a) Notwendige Bedingung für Extremwertstelle:
Die Funktion f : ( a , b ) →
besitze eine Maximal- (bzw. Minimal-)stelle x0 ∈ ( a , b ) .
Ist f differenzierbar, so gilt: f '( x ) = 0
b) Satz von Rolle:
Sei f : [a , b] →
eine stetige Funktion mit f ( a ) = 0 = f (b)
Ist f in jedem x ∈ ( a , b ) differenzierbar, so gibt es ein x0 ∈ ( a , b ) mit f '( x0 ) = 0
Geometrische Interpretation:
c) Erster Mittelwertsatz der Differentialrechnung:
Ist f : [a , b] →
stetig und in jedem x ∈ ( a , b ) differenzierbar, so
existiert ein x0 ∈ ( a , b ) mit f '( x0 ) =
Geometrische Interpretation:
f ( b) − f ( a )
b−a
d) Zweiter Mittelwertsatz der Differentialrechnung:
Sind f : [a , b] →
und g : [a , b] →
stetige Funktionen, die beide
in jedem x ∈ ( a , b ) differenzierbar sind, so existiert ein x0 ∈ ( a , b )
mit ( f (b) − f ( a ) ) ⋅ g '( x0 ) = ( g (b) − g ( a ) ) ⋅ f '( x0 ) und bei g '( x0 ) ≠ 0
dann auch
f (b) − f ( a ) f '( x0 )
=
.
g (b) − g ( a ) g '( x0 )
Warnung zu Satz 5.a:
1) " ( a , b ) " im Satz 5.a ist wesentlich. Beispiel: [0 , 1] ∋ x
f ( x ) := x
f hat Maximalstelle 1; f ist in [0 , 1] differenzierbar; aber f '( x ) = 1 ∀x ∈ [0 , 1] .
2) "f '( x0 ) = 0" ist nur eine notwendige, nicht aber eine hinreichende Bedingung für eine
Extremalstelle. Beispiel: ( −1 , 1) ∋ x
f ( x ) := x 3. f '(0) = 0, aber x = 0 keine Extremalstelle.
Definition:
Seien x ∈ D, f : D →
und f (0) ( x ) := f ( x )
df
( x ).
dx
Existiert f (1) ( y ) für alle y ∈ ( x − ε , x + ε ) mit ε ∈
Ist f in x differenzierbar, so sei f (1) ( x ) :=
+
, so kann man den Differenzenquotienten
f (1) ( x ) − f (1) ( y )
d2 f
f (1) ( x ) − f (1) ( y )
betrachten. Existiert f (2) ( x ) := f ''( x ) := 2 := lim
, so heißt
x ≠ y→ x
x− y
dx
x− y
f zweimal in x differenzierbar und f (2) ( x ) die zweite Ableitung von f in x.
(Interpretation: Änderung der Steigung f ' von f in x )
Analog sei für k ≥ 2 induktiv definiert:
f ( k ) ( x ) :=
dk f
f ( k −1) ( x ) − f ( k −1) ( y )
(
x
)
:
=
lim
(im Fall der Existenz)
x ≠ y→ x
dx k
x− y
die k-te Ableitung von f in x; f ( k ) heißt dann k-te Ableitung von f .
Definition:
Eine Funktion f : D →
f
(k )
heißt k-mal differenzierbar, wenn die k-te Ableitung
von f für alle x ∈ D existiert. Sie heißt k-mal stetig differenzierbar in D , wenn
zusätzlich die k-te Ableitung f ( k ) : D →
stetig ist.
Motivation: …..
Polynome – Potenzreihen – Approximation stetiger oder differenzierbarer
Funktionen durch Polynome: Satz von Weierstraß (§5) – Taylorreihen (§11) –
Fourierreihen (§11)
Satz 6: (Taylorformel)
Sei f : [a , b] →
n-mal stetig differenzierbar und in ( a , b ) n+1-mal differenzierbar.
Weiter seien x0 ∈ [a , b] und h ∈ \{0} mit (x0 + h ) ∈ [a , b]. Dann ist
⎛ n f (ν ) ( x0 ) ν ⎞
f ( x0 + h ) = ⎜ ∑
h ⎟+R
⎝ ν =0 ν !
⎠
wobei das Restglied R folgende Gestalt hat:
a) Cauchy: ∃ γ ∈
+
b) Lagrange: ∃ λ ∈
(1 − γ ) n f ( n +1) ( x0 + γ h ) n +1
h
n!
f ( n +1) ( x0 + λ h ) n +1
h
mit 0 < λ < 1 und R =
( n + 1)!
mit 0 < γ < 1 und R =
+
c) Taylor-Schlömilch:
Sei g : [a , b] →
stetig und in ( a , b ) differenzierbar mit
g ( x0 ) ≠ g ( x0 + h ) und g '( x0 ) ≠ 0 ∀x mit x0 < x < x0 + h.
Dann existiert ein ϑ ∈
+
mit 0 < ϑ < 1 und R =
g ( x0 + h ) − g ( x0 ) (1 − ϑ ) n n ( n +1)
⋅
h f
( x0 + ϑ h )
g '( x0 + ϑ h )
n!
Anmerkung: γ , λ und ϑ hängen auch von h ab !
Zeichnung: Taylorentwicklung der Exponentialfunktion im Entwicklungspunkt 0 bis
einschließlich fünfter Ordnung
§8 Einige Anwendungen der Differentialrechnung
a) Extrema
Aus dem ersten Mittelwertsatz der Differentialrechnung (Satz 5.b in §7) folgt:
Satz a.1:
Seien I ⊂
stetig. Im Inneren I (= ( a , b )
ein beliebiges Intervall und f : I →
mit geeigneten a , b ∈ ) von I sei f differenzierbar. Dann gilt:
a) f '( x ) ≥ 0 ∀x ∈ I
⇒ f ist isoton auf I
b) f '( x ) ≤ 0 ∀x ∈ I
Weiter gilt:
⇒ f ist antiton auf I
α ) f '( x ) > 0 ∀x ∈ I ⇒ f ist streng isoton auf I
β ) f '( x ) < 0 ∀x ∈ I ⇒ f ist streng antiton auf I
Nach Satz 5.a in §7 ist f '( x0 ) = 0 notwendig für eine lokale Extremalstelle x0 ∈ ( a , b )
einer differenzierbaren Funktion f : ( a , b ) →
. Diese Bedingung ist aber nicht
hinreichend (vgl. f ( x ) := x ); Warnung zu Satz 5.a in §7). Es muss geprüft werden, ob
für eine differenzierbare Funktion f : ( a , b ) → mit f '( x0 ) = 0 auch wirklich eine
3
Extremalstelle vorliegt. Der nachfolgende Satz folgt aus Satz a.1:
Satz a.2:
Seien x0 ∈ ( a , b ) , ε ∈
+
, f : ( x0 − ε , x0 + ε ) →
differenzierbar und f '( x0 ) = 0.
Dann gilt:
a) f '( x ) > 0 ∀x mit x0 − ε < x < x0 und f '( x ) < 0 ∀x mit x0 < x < x0 + ε
⇒ x0 ist eine lokale Maximalstelle
b) f '( x ) < 0 ∀x mit x0 − ε < x < x0 und f '( x ) > 0 ∀x mit x0 < x < x0 + ε
⇒ x0 ist eine lokale Minimalstelle
Existiert f '' und ist f '' stetig, so gilt:
c) f ''( x0 ) < 0
⇒ x0 ist eine lokale Maximalstelle
d) f ''( x0 ) > 0
⇒ x0 ist eine lokale Minimalstelle
Warnung:
Die obigen Bedingungen sind nur hinreichend, nicht aber notwendig.
Beispiel: f : → mit x
f ( x ) := x 4 ; f hat Minimalstelle x0 = 0.
aber: f ''( x0 ) = 0.
b) Einige physikalische Anwendungen:
I) Ableitung des Brechungsgesetzes und des Reflexionsgesetzes aus dem
Fermatschen Prinzip
Fermatsches Prinzip: (Pierre de Fermat, 1601-1665)
Ein Lichstrahl, der von einem Punkt P1 zu einem Punkt P2 geht (oder unter
bestimmten Nebenbedingungen gehen soll), schlägt immer den Weg ein, der die
kürzeste oder die längste Zeit erfordert; im allgemeinen ist das erstere der Fall.
1) Ableitung des Reflexionsgesetzes:
Ein Lichtstrahl soll von P1 := ( 0 , h1 ) nach P2 := ( a , h2 ) gelangen, indem er zuerst an
der x − Achse reflektiert wird.
Zeichnung:
α := Einfallswinkel (Winkel vom Strahl zum Lot der Reflexionsgerade)
β := Ausfallswinkel
x := x − Koordinate des Reflexionspunktes P := ( x,0)
Annahme:
Von P1 nach P und von P nach P2 verläuft der Strahl in einem Medium mit
übereinstimmender und konstanter Lichtgeschwindigkeit c .
Die Länge des Weges von P1 nach P und von P nach P2 ist
L( x ) := x 2 + h12 +
( (a − x )
2
+ h2 2 )
Wird die Länge des Weges extremal, so wird auch die benötigte Zeit extremal. Nach
dem Fermat’schen Prinzip wird gesucht: x0 ∈ mit L( x0 ) extremal.
Der direkte Weg von P1 nach P2 wäre zeitmaximal. Aber hier soll der Strahl an der
x − Achse reflektiert werden. Offensichtlich kann L( x ) beliebig groß werden. Also
ist hier eine Extremalstelle der differenzierbaren Funktion L : → mit x
L( x )
stets eine Minimalstelle.
L '( x ) :=
(x
x
2
+h
2
1
)
−
a−x
( (a − x )
2
+ h2 2 )
.
Nach Satz 5.a in §7 muss für eine Extremalstelle x0 gelten:
x0
a − x0
Also:
.
(*)
=
2
2
2
2
( x0 + h1 ) ( (a − x0 ) + h2 )
Es ist weiter:
sin(α ) =
(x
0
x0
2
+h
2
1
)
und sin( β ) =
a − x0
( (a − x )
0
2
L '( x0 ) = 0
+ h2 2 )
Damit folgt aus (*) dann: sin(α ) = sin( β ) . Wegen
L( x ) ≥ L(ξ ) für x0 ∉ [0 , a ] und ξ ∈ [0 , a ] gilt: 0 ≤ α , β ≤
Damit folgt aus sin(α ) = sin( β ) auch α = β .
π
2
.
Reflexionsgesetz:
Bei der Reflexion ist der Einfallswinkel α gleich dem Ausfallswinkel β .
2) Ableitung des Brechungsgesetzes:
Ein Lichtstrahl soll von P1 := ( 0 , h1 ) nach P2 := ( a , h2 ) gelangen, indem er zunächst
von P1 nach P := ( x,0) in der oberen Halbebene in einem Medium konstanter
Lichtgeschwindigkeit c1 und dann von P nach P2 in der unteren Halbebene in
einem Medium konstanter Lichtgeschwindigkeit c2 verläuft.
Zeichnung:
α := Einfallswinkel (Winkel von Strahl zum Lot zur Trennungsgerade)
β := Ausfallswinkel
x := x − Koordinate des Reflexionspunktes P := ( x,0)
Die Zeit, die der Lichtstrahl von P1 nach P und dann von P nach P2 benötigt, ist
( a − x ) 2 + h2 2 )
(
( x 2 + h12 )
+
T ( x ) :=
c1
c2
Nach dem Fermatschen Prinzip wird gesucht: x0 ∈
mit T ( x0 ) extremal.
Auch hier ist eine Extremalstelle stets eine Minimalstelle.
x
a−x
.
T '( x ) =
−
2
2
⎡c ( (a − x )2 + h 2 ) ⎤
c1 ( x + h1 )
2
⎣⎢ 2
⎦⎥
)
(
Nach Satz 5.a in §7 muss für eine Extremalstelle x0 gelten: T '( x0 ) = 0 ;
1
1
Also: sin(α ) = sin( β )
c1
c2
Brechungsgesetz: (1621; Willebrordus Snellius 1580-1626)
Das Verhältnis des Sinus des Einfallswinkels α zum Sinus des Ausfallswinkels
c
sin(α ) c1
β ist konstant, nämlich 1 ; d.h.
=
c2
sin( β ) c2
II) Ableitung des Wienschen Verschiebungsgesetzes aus dem Planckschen
Strahlungsgesetz
Plancksche Strahlungsgesetz:
(1900; Max Planck, 1858-1947; Nobelpreis für Physik 1918)
Das Emissionsvermögen eines schwarzen Körpers wird durch
2c 2 h
gegeben, wobei
E (λ ) =
⎛ ch ⎞ ⎞
5⎛
λ ⎜ exp ⎜
⎟ − 1⎟
⎝ k λT ⎠ ⎠
⎝
λ die Wellenlänge
T die absolute Temperatur des Körpers
c die Lichtgeschwindigkeit im Vakuum
h das Plancksche Wirkungsquantum ( = 6,625 10-34 J s )
k die Boltzmann-Konstante (=1,3804 10−23 J / K )
ist.
Frage: Bei welcher Wellenlänge λ0 ist bei (festem T ) das Emissionsvermögen
maximal ?
Nach Satz 5.a in §7 muss für eine Maximalstelle λ0 der differenzierbaren Funktion
E:
+
→
gelten: E '(λ0 ) = 0
(
E '(λ ) = ... = −2ch 2 ( − x exp( x ) + 5 ( exp( x ) − 1) ) λ 6 ( exp( x ) − 1)
bei x :=
ch
k λT
)
2 −1
Man erhält als einzige positive Nullstelle von E '(λ ) z.B. mit Hilfe des
ch
Intervallschachtelungsverfahren λ0 ≈
kT ⋅ 4,9651
ch
und damit λ0T ≈
= konst ∈
k ⋅ 4,9651
Dies ist das Wiensche Verschiebungsgesetz (1893/1894).
(Wilhelm Wien, 1864-1928; Nobelpreis für Physik 1911; LMU München).
c) Regel von L’Hospital
Seien I ⊂ ein Intervall und a ∈ I .
Gegeben: f : I → und g : I → mit lim f ( x ) = 0 = lim g ( x )
x →a
x →a
f ( x)
= ?!
Gesucht: lim
x →a g ( x )
Satz c.1 (G.F.A Marquis de L’Hospital; 1641-1704)
Seien I := ( a , b ) ⊂
mit a, b ∈
:=
∪ {−∞, +∞} und
f : I → und g : I → differenzierbar mit g '( x ) ≠ 0 ∀x ∈ I
Außerdem gelte eine der folgenden Eigenschaften:
i ) lim f ( x ) = lim g ( x ) = 0
x ↓a
x ↓a
ii ) lim g ( x ) = +∞ oder = −∞
x ↓a
Dann gilt: lim
x ↓a
f ( x)
f '( x )
= lim
, falls der rechte Limes existiert.
x
↓
a
g ( x)
g '( x )
Analoges gilt für x ↑ b.
Anmerkung: Eventuelle mehrfache Hintereinanderschaltung der Regel von
L’Hospital.
Warnung:
Die Regel von L’Hospital führt nicht immer zum Erfolg, wenn
lim f ( x ) = +∞ = lim g ( x ). Beispiele:
x →a
x →a
x
e
ex
=
lim
=?
x →∞ e 2 x
x →∞ 2e x
Satz c.1
1) lim
e x − e− x
e x + e− x
=
lim
=?
x →∞ e x + e − x
x →∞ e x − e − x
Satz c.1
2) lim
Beispiele c.1:
exp(α x )
log(α x ) β
= +∞
=0
5) Bei α ,β > 0 gilt: lim
x →∞
x →∞
x
xα
exp(α x )
= +∞
2) Bei α ,β > 0 gilt: lim
6) lim+ x x = 1
β
x →∞
x →0
x
3) Sei α > 0 und p ( x ) ein Polynom: lim p ( x ) exp( −α x ) = 0
1) Bei α > 0 gilt: lim
x →∞
log(α x )
=0
x →∞
xα
(1 − cos( x )) 1
9) lim
=
x →0
2
x2
4) Bei α > 0 gilt: lim
sin( x )
=1
x →0
x
(1 − cos( x ))
8) lim
=0
x →0
x
7) lim
§9 Das Riemann-Integral
(Bernhard Riemann; 1826-1866)
Definition:
mit a < b und f : [a , b] →
Seien a, b ∈
eine beschränkte Funktion.
und a =: x0 < x1 < ... < xn −1 < xn := b heißt Z := {x0 ,..., xn }
a) Bei n ∈
eine Zerlegung von [a , b] der Feinheit ε (Z) := max {xi − xi −1 : i = 1,...n}.
Bei ξi ∈ [ xi −1 , xi ] nennen wir ξZ := (ξ1 ,..., ξn ) einen Z-Vektor.
n
b) Bei Z und ξZ wie oben heißt R( f , Z, ξZ ) := ∑ f (ξi )( xi − xi −1 ) eine
i =1
Riemann-Summe der Feinheit ε (Z) zu Z und ξZ .
c) f heißt Riemann-integriebar über [a , b] , wenn gilt:
Es existiert ein α ∈ , so dass für jede Folge ( Z n : n ∈
(
)
von Zerlegungen
Z n von [a , b] mit lim ε (Z n ) = 0 und für jede Folge ξZ n : n ∈
n →∞
Z n -Vektoren ξZ n gilt:
) von
α = lim R( f , Z, ξZ ).
n →∞
b
Ist f Riemann-integrierbar, so heißt
∫ f ( x)dx := α das Riemann-Integral
a
von f über [a , b].
Beispiele 1:
n
1) Riemann-integrierbar: f1 := 1[a , b] und f 2 := ∑1[ai
i =1
, bi ]
2) nicht Riemann-integrierbar: f 3 := 1[a , b] 1
Bemerkung:
Seien a, b ∈
mit a < b und f : [a , b] →
beschränkt. Weiter sei Z ( a , b )
die Menge aller Zerlegungen von [a , b].
a) Für die Riemannsche Obersumme:
n
R( f ; Z) := ∑ sup { f (ξ ) : ξ ∈ [ xi −1 , xi ]} ⋅ ( xi − xi −1 )
i =1
und die Riemannsche Untersumme
n
R( f ; Z) := ∑ inf { f (ξ ) : ξ ∈ [ xi −1 , xi ]} ⋅ ( xi − xi −1 )
i =1
und die Riemannsche Summe R( f , Z, ξZ ) zu einer Zerlegung Z := {x0 ,..., xn }
aus Z ( a , b ) gilt:
R( f ; Z) ≤ R ( f , Z, ξZ ) ≤ R ( f ; Z).
b
b) Für das Riemann-Oberintegral
∫
∗
{
}
f ( x )dx := inf R( f , Z) : Z ∈ Z ( a , b )
a
b
∫
und das Riemann-Unterintegral
∗
f ( x )dx := sup {R( f , Z) : Z ∈ Z ( a , b )}
a
b
ist
∫
b
∗
f ( x )dx ≤ ∫ ∗ f ( x )dx.
a
a
b
c) f ist Riemann-integriebar
⇔
∫
b
∗
f ( x )dx = ∫ ∗ f ( x )dx
a
a
⇔ ∀ε > 0 ∃ Z ∈ Z ( a , b ) mit R( f , Z) − R( f , Z) < ε
⇔ ∀ε > 0 ∃ δ ∀Z ∈ Z ( a , b ) mit ε (Z) < δ ist R( f , Z) − R( f , Z) < ε .
Zeichnung:
Satz 1:
Seien f : [a , b] →
und g : [a , b ] → . Dann gilt:
a) Linearität: α , β ∈
und f , g Riemann-integrierbar ⇒
b
b
a
a
∫ (α f ( x ) + β g ( x ) ) dx = α ∫ f ( x )dx
b) Monotonie:
b
∫
a
b
+ β ∫ g ( x )dx
a
f , g Riemann-integrierbar und f ( x ) ≤ g ( x ) ∀x ∈ [a , b] ⇒
b
f ( x )dx ≤
∫ g ( x )dx
a
⇒ f + , f − , f sind R-integrierbar und
c) f ist R-integrierbar
b
−
+
∫ − f ( x )dx ≤ ∫ f ( x )dx ≤ ∫ f ( x )dx und
b
b
∫
a
a
a
a
d) f , g sind R-integrierbar
b
b
f ( x )dx ≤ ∫ f ( x ) dx
a
⇒ f ⋅ g ist R-integrierbar
e) f ist R-integrierbar und g ( x ) = f ( x ) ∀x ∈ [a , b] \{x1 ,..., xm } mit m ∈
b
b
a
a
⇒ g ist R-integrierbar und ∫ g ( x )dx =∫ f ( x )dx
f) f : [a , b] →
mit m ∈ )
ist beschränkt und stückweise stetig (d.h. stetig für x ∈ [a , b] \{x1 ,..., xm }
⇒ f ist R-integrierbar
g) f : [a , b] ist monoton ⇒ f ist R-integrierbar
Warnungen:
1) f Riemann-integrierbar ⇒ f ist Riemann-integrierbar
Beispiel: f := 1[a , b] (1 − 1
2)
\
b
b
b
a
a
a
)
∫ f ( x ) g ( x )dx ≠ ∫ f ( x )dx ⋅∫ g ( x )dx
im allg.
Beispiel: a := 0, b := 2 , f ( x ) := g ( x ) := 1
3) " m ∈ " in e) ist wesentlich.
Beispiel: f := 0 und g := 1 ;
:= {qn : n ∈
} Abzählung
Beispiele 2:
b
a
b
a
a
n
i
n( n + 1) b2
⎛ i ⎞ ⎛ i ⋅ b (i − 1) ⋅ b ⎞
2
2
x
dx
=
lim
b
⋅
−
=
b
lim
=
b
lim
=
∑
∑
⎜
⎟⎜
⎟
2
∫0
n →∞
n →∞
n →∞
n ⎠⎝ n
n
2n 2
2
⎠
i =1 ⎝
i =1 n
b
2)
b
∫ 1[α ,β ] ( x)dx = ∫ 1(α ,β ] ( x)dx = ∫ 1(α ,β ) ( x)dx
1)
n
1 n 2
( n 2 + n )(2n + 1) b3
⎛ b⋅i ⎞ b
3
3
=
3) ∫ x = lim ∑ ⎜ 2 ⎟ ⋅ = b lim 3 ∑ i = b lim
n →∞
n →∞ n
n →∞
6n 3
3
i =1 ⎝ n ⎠ n
i =1
0
b
n
2
Definition:
a
b
b
a
∫ f ( x )dx = − ∫ f ( x )dx
a
und
∫ f ( x )dx := 0
a
Satz 2:
a) Sind 0 ≤ α , β ≤ b und f R-integrierbar über [a , b] , so ist f
R-integrierbar über Teilintervalle von [a , b] und
b
∫
a
α
β
b
a
α
β
f ( x )dx = ∫ f ( x )dx + ∫ f ( x )dx + ∫ f ( x )dx
b) Sind a ≤ α n ≤ β n ≤ b mit a = lim α n und b = lim β n und f beschränkt
n →∞
n →∞
und über [α n , β n ] R-integrierbar für jedes n ∈ . Dann gilt:
f über [a , b] R-integrierbar und
βn
b
∫ f ( x)dx = limα∫
a
n →∞
n
f ( x )dx
Satz 3:
Seien I ⊂
ein (offenes, halboffenes oder abgeschlossenes) Intervall und
eine Funktion, die über jedem Intervall [a , b] ⊂ I R-integrierbar ist.
f :I →
x
Weiter seien x0 ∈ I und F : I →
mit x
F ( x ) :=
∫ f (ξ ) dξ . Dann gilt:
x0
a) F : I →
ist stetig.
b) Haupsatz der Integralrechnung:
Ist f stetig in x ∈ I , so ist F differenzierbar in x und F '( x ) = f ( x )
Warnung:
"f stetig in x " in Satz 3.b ist wesentlich.
Beispiel 3:
Bei a := x0 := 0, b := 2, f := 1[1 , 2] ist F = ( x − 1)1[1 , 2] in 1 nicht differenzierbar.
Definition:
Sind I und f wie in Satz 3 und G : I → auf I differenzierbar und G '( x ) = f ( x ) ∀x ∈ I ,
so heißt G eine Stammfunktion von f auf I .
Satz 4:
Mit I und f wie in Satz 3 gilt:
a) Ist F : I →
so gilt:
eine Stammfunktion von f und G : I →
G ist eine Stammfunktion von f
b) Ist f : I →
stetig und F : I →
⇔ ∃ c∈
eine Funktion,
mit F ( x ) − G ( x ) = c ∀x ∈ I
eine Stammfunktion von f , so gilt:
b
∫ f ( x)dx = F (b) − F (a ) =: F ( x)]
b
a
∀a, b ∈ I
a
Definition:
Seien I und f wie oben.
∫ f ( x)dx := I( f ) := {F : I →
mit F '( x ) = f ( x ) ∀x ∈ I }
heißt das unbestimmte Integral von f über I .
Salopp :
∫ f ( x )dx = F
mit F ∈ I( f ).
Anmerkung:
α ∫ f ( x )dx +β ∫ f ( x )dx := {α F + β G : F ' = f , G ' = g } = ∫ (α f ( x ) + β g ( x ) ) dx
Beispiel 4:
2)
1
∫x
α∈ :
mit α ≤ -2 :
α∈ \ :
⎧
⎪
⎨α ∈
⎪
⎩
xα +1
1) ∫ x dx =
α +1
α
I=
I = ( −∞, 0) oder I = (0, +∞ )
I = = (0, +∞ )
dx = log ( x ) bei I = ( −∞,0) oder I = (0, +∞ )
3) ∫ sin( x ) dx = − cos( x ) bei I =
4) ∫ cos( x ) dx = sin( x )
1
5)
∫
6)
∫ 1+ x
7)
∫ cos ( x )
dx = arcsin( x ) bei I = ( −1 , 1)
(1 − x 2 )
1
2
bei I =
dx = arctan( x ) bei I =
1
2
3π
⎛π
⎞
+ kπ ⎟ mit k ∈
dx = tan( x ) bei I = ⎜ + kπ ,
2
⎝2
⎠
8) ∫ exp( x ) dx = exp( x ) bei I =
Satz 5: (Substitutionsregel)
Seien I ⊂
ein (beliebiges) Intervall und f : I →
stetig. Weiter seien
a , b ∈ I mit a < b und ϕ : [a , b] → I eine stetig differenzierbare Funktion.
b
∫
Dann gilt:
f (ϕ (t )) ϕ '(t ) dt =
ϕ (b)
∫
ϕ
f ( x )dx
(a )
a
Salopp : f ϕ dϕ = f dx; x = ϕ (t ) und dx = ϕ '(t ) dt
Beispiele 5:
b+c
b
1)
∫
f (t + c ) dt =
b
∫
f ( x )dx
a +c
a
2)
∫
bc
f ( ct ) dc =
a
1
f ( x )dx
c ac∫
b2
b
1
3) ∫ t f (t ) = ∫ f ( x )dx
2 a2
a
2
b
4)
∫
a
b
5)
∫
a
t
(1 − t )
2
dt = − (1 − b2 ) + (1 − a 2 )
x
2
⎛
dx = ⎜ 2 ( x − 1) +
3
( x − 1)
⎝
(
( x − 1) )
bei − 1 < a < b < +1
3
b
⎞⎤
⎟⎥
⎠⎦a
6) Bei ϕ : [a , b] →
stetig differenzierbar mit ϕ (t ) ≠ 0 ∀t ∈ [a , b] gilt:
b
ϕ '(t )
⎤
dt
=
log
(
t
)
ϕ
(
)
∫a ϕ (t )
⎦a
b
⎛ π π⎞
bei [a , b] ⊂ ⎜ − , ⎟
⎝ 2 2⎠
b
7) ∫ tan(t ) dt = log(cos(t ))]a
b
a
Satz 6:
(partielle Integration)
Seien f : [a , b] →
b
∫
und g : [a , b] →
stetig differenzierbar. Dann:
b
f ( x ) g '( x ) dx = f ( x ) g ( x )]a −
∫ g ( x ) f '( x) dx
b
a
a
Beispiele 6:
b
1 ⎛
1 ⎞⎤
1) ∫ x log( x ) = x 2 ⎜ log( x ) − ⎟ ⎥
2 ⎝
2 ⎠⎦a
a
b
für [a , b] ⊂
+
e
2) J n := ∫ ( log( x ) ) dx = e − n ⋅ J n −1
für n ∈
n
bei J 0 := e − 1
1
b
3) ∫ log( x ) dx = x ( log( x ) − 1)⎤⎦ a
b
für a, b > 0
a
x
1
dx = log(1 + x 2 )
2
1+ x
2
1
2
∫ arctan( x) dx = x arctan( x) − 2 log(1 + x )
x
dx = − (1 − x 2 )
5) ∫ x arcsin( x ) dx = ∫
2
(1 − x )
4)
∫x
arctan( x ) dx = ∫
∫ arcsin( x ) dx = x
arcsin( x ) + (1 − x 2 )
Satz 7: (Partialbruchzerlegung)
Zerlegung rationaler Funktionen, d.h. Funktionen der Form
p( x )
für q( x ) ≠ 0; p, q sind Polynome
r( x) =
q( x )
Jede rationale Funktion lässt sich in Haupteile und einen Polynomrest zerlegen.
Jede rationale Funktion mit reellen Koeffizienten kann mittels rationaler Funktionen
sowie des Logarithmus und des Arcustangens integriert werden.
Weiterführende Literatur: Königsberger, Analysis I, S.35ff. und S.204
Heuser, Lehrbuch der Analysis, S.398ff.
Erwe, Differential- und Integralrechnung I
Satz 8:
(Mittelwertsätze der Integralrechnung)
Seien a, b ∈
mit a < b. Dann gilt:
a) Erster Mittelwertsatz:
f : [a , b] →
stetig ⇒ ∃ x0 ∈ ( a , b ) mit
b
∫ f ( x )dx = f ( x ) ⋅ (b − a )
0
a
Zeichnung:
b) Erweiterter erster Mittelwertsatz:
f : [a , b] →
stetig und g : [a , b] →
⇒ ∃ x0 ∈ [a , b] (bzw. x0 ∈ ( a , b )) mit
+
0
R-integriebar (bzw. stetig)
b
b
∫ f ( x) g ( x) dx = f ( x )∫ g ( x) dx
0
a
a
c) Zweiter Mittelwertsatz:
f : [a , b] →
Dann gilt:
monoton und stetig differenzierbar und g : [a , b] →
∃ x0 ∈ ( a , b ) mit
b
∫
+
0
x0
b
a
x0
stetig.
f ( x ) g ( x ) dx = f (a ) ⋅ ∫ g ( x )dx + f (b) ∫ g ( x )dx
a
Warnungen und Beispiele:
1) In Satz 8.a ist "f stetig" wesentlich
Beispiel: a := 0, b := 1, f := 1[0,5 ; 1]
2) In Satz 8.b ist "g ([a , b]) ⊂
+
0
(oder:
−
0
) wesentlich.
3) In Satz 8.c ist "f monoton" wesentlich.
Beispiel: a := −1, b := +1, f ( x ) := − x 2 + 1, g := 1
4) In Satz 8.c ist "g stetig" wesentlich.
Definition:
Sei I ein beliebiges Intervall, also I = ( a , b] oder I = [a , b ) usw. mit − ∞ ≤ a < b ≤ +∞.
Weiter sei f : I →
eine Funktion, die auf jedem Intervall [α , β ] ⊂ I mit α , β ∈
Riemann-integrierbar ist.
Dann heißt f uneigentlich Riemann-quasi-integrierbar über I , wenn gilt:
∃γ∈
∪ {−∞, +∞} ∀ (α n : n ∈
:=
∀ ( βn : n ∈
) Folge in
) Folge in
mit a ≤ α n und a = lim α n
n →∞
mit β n ≤ b und b = lim β n
n →∞
βn
gilt:
γ = lim ∫ f ( x )dx.
n →∞
αn
b
In diesem Fall heißt
∫ f ( x )dx := γ
das uneigentliche Riemann-Integral von f über I .
a
Ist γ ∈ , so heißt f über I uneigentlich Riemann-integrierbar und
b
∫ f ( x )dx konvergent.
a
Anmerkung: vgl. Satz 2.b.
Beispiele 9:
⎧
⎪ +∞ bei σ = −1
1
⎪⎪
1) ∫ xσ dx = ⎨ +∞ bei σ < −1
0
⎪ 1
⎪
bei σ > −1
⎪⎩ (σ + 1)
1
3)
∫
0
1
4)
∫
0
+∞
5)
1
dx = 2
1− x
1
(1 − x ) 2
1
∫ 1+ x
-∞
⎧
⎪ +∞ bei σ = −1
+∞
⎪⎪
2) ∫ xσ dx = ⎨ +∞ bei σ > −1
1
⎪
1
⎪−
bei σ < −1
⎪⎩ (σ + 1)
2
dx =
dx = π
π
2
1
und
∫
0
1
(1 − x ) 2
=
π
2
§10 Anwendungen der Differential- und Integralrechnung
1) Aufstellung von Differenzengleichungen
2) Differentialgleichung aus Differenzengleichung durch Grenzübergang
3) Lösung der Differentialgleichung und deren Eindeutigkeit
Beispiel A1:
Der radioaktive Zerfall
Es soll ein Gesetz für den Zerfall radioaktiver Substanzen gefunden werden.
1) Aufstellen der Differenzengleichung
Sei Q (t ) die Masse des zur Zeit t vorhandenen radioaktiven Stoffes. Wir vergleichen
dazu Q (t ) mit Q (τ ) mit t < τ für ein kleines Zeitintervall τ − t .
Beobachtungen zeigen:
Die zwischen den Zeitpunkten t und τ zerfallende Masse des Stoffes Q (t ) − Q (τ ) ist
für kleines τ − t annähernd proportional zu Q (t ) und τ -t.
Der Proportionalitätsfaktor sei λ ; es ist λ > 0 stoffspezifisch. Also:
Q (t ) − Q (τ ) = λ ⋅ Q (t ) ⋅ (τ − t )
oder:
(Q (t ) − Q (τ ) ) ≈ −λQ (t )
(*)
(τ − t )
Eine solche Gleichung nennt man Differenzengleichung, vgl. Differenzenquotient.
2) Ableitung einer Differentialgleichung aus einer Differenzengleichung durch
Grenzübergang:
Falls Q in t differenzierbar ist – und dies nehmen wir hier an !! – ergibt sich bei
τ → t aus (*):
Q '(t ) = −λQ (t )
(**)
Eine solche Gleichung nennt man eine Differentialgleichung. (**) ist die
Differentialgleichung des radioaktiven Zerfalls.
Gesucht ist eine oder alle differenzierbaren Funktionen, die die Gleichung (**)
erfüllen.
3) Lösung der Differentialgleichung:
Oft gibt es verschiedene Methoden, eine solche Differentialgleichung zu lösen.
Manchmal – eventuell unter zusätzlichen Annahmen – ist ihre Lösung eindeutig
bestimmt.
a) Lösung durch Antidifferenzieren:
Man suche oder errate eine Funktion Q , die (**) erfüllt. Für die Exponentialfunktion
d exp(α t )
∋ t exp(α t ) mit α ∈ gilt nach §7:
= α exp(α t ).
dt
Bei Q1 (t ) := exp( −λ t ) gilt darum: Q1 '(t ) = −λQ1 (t ).
Also ist Q1 eine Lösung von (**). Mit Q1 ist aber auch Qa (t ) := a ⋅ Q1 (t ) eine Lösung
von (**) für jedes a ∈ :
Qa '(t ) = a ⋅ Q1 '(t ) = a ⋅ ( −λQ1 (t ) ) = −λQa (t ).
b) Lösung durch Trennen der Variablen und Integrieren:
dQ (t )
folgt aus (**) etwas salopp:
dt
dQ = −λQ dt
oder wegen Q > 0 :
1
dQ = −λ dt
(„Trennung der Variablen“)
Q
Durch Integration erhält man daraus:
1
(***)
∫ Q dQ = ∫ −λ dt
Mit Beispiel 4.2 bzw. 2.1 in §9 erhält man:
1
∫ Q dQ = log(Q ) + CL und
Bei Q '(t ) =
∫ −λ dt = −λt + C
R
mit CL , CR ∈
damit folgt aus (***):
log(Q ) = −λ t + C0 mit C0 ∈
oder:
Qc (t ) = exp( −λ t + C0 ) = C exp( −λ t ) bei C := exp(C0 )
Dass diese „Rechnung“ tatsächlich für jedes C ∈ zu einer Lösung QC von (**) führt,
überprüft man durch Nachrechnen, d.h. Differenzieren.
c) Eindeutigkeit der Lösung bei dem Anfangswert Q (0) := A :
Wenn wir annehmen, dass zur Zeit t = 0 der radioaktive Stoff die Masse
Q (0) := A mit A > 0 hatte, bleibt von all den obigen Lösungen von (**) – wegen
exp( −λ ⋅ 0) = 1 nur die Lösung Q A (t ) = A ⋅ exp( −λ t ).
Da wir angenommen haben, dass Q differenzierbar ist, ist Q auch stetig für jede
Lösung von (**). Wegen der Gestalt von (**) ist dann auch Q '(t ) stetig.
Nach dem Haupsatz der Differential- und Integralrechnung (Satz 3 und 4 in §9) hat
jede Stammfunktion Q von Q ' die Gestalt
Q(t ) = Q (t ) + D mit D ∈ .
Damit ist die Lösung (****) von (**) mit Q (0) = A und Q '(t ) = C ⋅ exp( −λ t ) eindeutig
bestimmt
Es könnte allerdings sein, dass es neben der Lösung (****) von (**) mit Q (0) = A noch
weitere Lösungen von (**)
mit Q (0) = A, aber mit Q '(t ) ≠ C ⋅ exp( −λ t ) gibt. Wir werden aber später sehen (z.B.
Satz von Picard-Lindelöf), dass dies nicht der Fall ist.
Also ist (****) die durch die Anfangsbedingung Q (0) = A eindeutig bestimmte
Massengleichung des radioaktiven Zerfalls.
Beispiele A2:
Die barometrische Höhenformel
Es soll ein möglichst einfaches Gesetz für den Verlauf des Druckes in der
Atmosphäre gefunden werden.
1) Aufstellen der Differenzengleichung:
Bei einer Beschränkung auf ein kleines Beobachtungsgebiet können wir annehmen:
Ist x die Höhe (über dem Meeresspiegel in cm ), so gilt:
p = p( x ) , d.h. der Druck hängt nur von der Höhe ab.
ρ = ρ ( x ) , d.h. die spezifische Dichte hängt nur von der Höhe ab.
V = V ( x ) , d.h. das spezifische Volumen hängt nur von der Höhe ab.
T = T ( x ) , d.h. die Temperatur hängt nur von der Höhe ab.
Sei 0 ≤ ξ < x. Es folgt aus der Physik:
Ist G (ξ , x ) das Gewicht einer vertikalen Luftsäule vom Querschnitt 1 cm 2 zwischen
den Höhen ξ und x, so gilt:
G (ξ , x ) = p(ξ ) − p( x ). Ist x − ξ „klein“, so ist ρ ( y ) in dieser Luftsäule annähernd
gleich ρ ( x ) . Also gilt: G (ξ , x ) = g ⋅ ρ ( x ) ⋅ ( x − ξ ) und damit:
p(ξ ) − p( x ) ≈ g ⋅ ρ ( x ) ⋅ ( x − ξ ), wobei
g = g ( x ) die (von der Höhe) unabhängige) Erdbeschleunigung ist.
Damit gilt:
( p(ξ ) − p( x ) ) = − g ⋅ ρ ( x )
(+)
(ξ − x )
barometrische Differenzengleichung
2) Ableitung einer Differentialgleichung aus der Differenzengleichung durch
Grenzübergang:
Falls p in x differenzierbar ist – und dies nehmen wir an !!- so ergibt sich bei ξ → x
aus (+):
p '( x ) = − g ⋅ ρ ( x )
(++)
barometrische Differentialgleichung
Weitere „physikalische“ Annahmen:
Wir betrachten die Luft als ideales Gas.
Ist M ihr Molekulargewicht und
R eine Konstante ( R = 8,31... J K −1 mol −1 , Gaskonstante) ,
so folgt aus der theoretischen Physik:
p( x ) R ⋅ T ( x )
p( x ) ⋅V ( x ) =
=
ρ ( x)
M
Damit folgt aus (++):
g⋅M
p '( x ) = −
( R ⋅ T ( x) )
(+++)
barometrische Differentialgleichung für ein ideales Gas
Aus (++) und aus (+++) kann p( x ) bestimmt werden und zwar eindeutig bei
gegebener Anfangsbedingung. Wir stellen später Lösungsverfahren für solche
Differentialgleichungen bereit. Zur Vereinfachung machen wir jetzt die zusätzliche
Annahme:
T ( x ) = T ∈ , d.h. die Temperatur ist unabhängig von der Höhe x.
Dann erhalten wir aus (+++) die uns (aus Beispiel A1) bekannte Differentialgleichung
g⋅M
p( x )
(#)
R ⋅T
barometrische Differentialgleichung für ein ideales Gas bei konstanter Temperatur
p '( x ) = −
3) Lösung der Differentialgleichung (#):
a) Lösung durch Antidifferenzieren oder Trennung der Variablen:
Wie in Beispiel A1 erhalten wir:
⎛ g⋅M ⋅x⎞
pa ( x ) = a ⋅ exp ⎜ −
⎟
R ⋅T ⎠
⎝
ist für jedes a ∈ eine Lösung von (#)
b) Eindeutigkeit der Lösung bei Anfangswert p(0) = A :
Wie in Beispiel A1 folgt:
pa ( x ) wie oben sind alle Lösungen von (#).
Unter der zusätzlichen Annahme: p(0) = A mit A aus
Beispiel A1:
folgt wieder wie in
⎛ g⋅M ⋅x⎞
⎛ g⋅M ⋅x⎞
p A ( x ) := A ⋅ exp ⎜ −
⎟ = p(0) ⋅ exp ⎜ −
⎟
R ⋅T ⎠
R ⋅T ⎠
⎝
⎝
eindeutig bestimmte Lösung von (#) mit dem Anfangswert p(0) = A
barometrische Höhenformel für ein ideales Gas bei konstanter Temperatur
Beispiel A3: Die Abkühlung eines heißen Körpes
Beispiel A4: Eine Populationsgleichung
Beispiel A5: Die chemische Reaktion erster Ordnung
Beispiel A6: Die chemische Reaktion zweiter Ordnung
§11 Taylor- und Fourierreihen
a) Vertauschung von Limesbildung und Differentiation bzw. Integration bei
Funktionenfolgen
Erinnerung an Beispiel d.1 in §5:
1
⎧
⎪1 − nx für 0 ≤ x ≤
X := [0 , 1] ; f := 1{0} und f n ( x ) := ⎨
n
⎪⎩ 0
sonst
( f n : n ∈ ) konvergiert punktweise, aber nicht gleichmäßig gegen f .
f n stetig auf X ∀n ∈ ; aber: f unstetig in 0;
Erinnerung an Satz d.1 in §5:
glm
Bei f n ⎯⎯→
f und f n stetig ∀n ∈
⇒ f stetig
Beispiel a.1:
sin( nx )
glm
⎯⎯→
f ( x ) = 0 ∀x ∈ ;
n
f n und f stetig differenzierbar auf ; f n = cos( nx ); aber: 1 = lim f n '(0) ≠ f '(0) = 0
f n ( x ) :=
n →∞
Beispiele a.2:
pktw
→ f ( x ) = 0 ∀x ∈ [0 , 1] ; f n und f Riemann-integrierbar;
1) f n ( x ) := n ⋅ 1[0, 1/ n] ( x ) ⎯⎯⎯
1
aber:
∫f
1
n
( x ) dx = 1 ≠ 0 = ∫ f ( x )dx
0
0
1
⎧ 2
⎪ n x für 0 ≤ x ≤ n
⎪
1
2
⎪
2) g n : [0,1] → mit g n ( x ) ⎨2n − n 2 für < x ≤
n
n
⎪
0 sonst
⎪
⎪⎩
pktw
→ g ( x ) = 0 ∀x ∈ ; g n R-integrierbar über [0 , 1];
stetig mit g n ( x ) ⎯⎯⎯
1
1
0
0
aber: ∫ g n ( x ) dx = 1 ≠0 = ∫ g ( x )dx
3) hn , h :
→
mit hn ( x ) :=
+∞
glm
hn ⎯⎯→
h; aber:
∫
−∞
1
1 ( x ) und h( x ) = 0 ∀x ∈ ; hn , h uneigentlich R-integrierbar über
n [0,n]
1
hn ( x ) = 1 ≠ 0 = ∫ h( x )dx
0
;
∩ [0,1] = {qn : n ∈
4) Seien
n
} eine Abzählung und kn ( x ) := ∑1{q }
i =1
i
kn ( x ) → k ( x ) := 1 ( x ) ∀x ∈ [0,1]; kn R-integrierbar, nicht k .
Satz a.1.
Seien a, b ∈ , f n : [a , b ] →
stetig für alle n ∈
Es konvergiere die Folge ( f n : n ∈
und f : [a, b] →
) gleichmäßig gegen f
eine Funktion.
auf [a , b].
Dann gilt:
a) f ist stetig und damit Riemann-integrierbar
b
∫
b)
b
f ( x )dx = lim ∫ f n ( x ) dx
n →∞
a
a
Beispiele a.3:
n
1) g n ( x ) := ∑
i =0
∞
xi
xi
glm
⎯⎯→
exp( x ) := ∑ auf [a, b] mit a, b ∈ ;
i!
i =0 i !
b
b
∫ gn ( x) dx →
∫ exp( x) dx
a
a
2) analog wie in 1) sin( x ) und cos( x ); vgl. §6
Beispiele a.4:
glm
"f n ⎯⎯→
f " in Satz a.1 hinreichend, aber nicht notwendig:
f n ( x ) := x n und f ( x ) := 1{1} ( x ) mit x ∈ [0,1].
Satz a.2:
Seien a, b ∈
und ( f n : n ∈
)
eine Folge von auf [a, b] stetig differenzierbaren Funktionen
f n : [a, b] → .
Es existiere ein x0 ∈ [a, b] , für welches die Folge
( f n ( x0 ) : n ∈ ) in
konvergiert.
Außerdem existiere eine Funktion g : [a, b] → , so dass die Folge ( f n ' : n ∈
) der Ableitungen
f n ' von f n gleichmäßig auf [a, b] gegen g konvergiert.
Dann gilt:
a) Es existiert eine Funktion f : [a, b] → , so dass ( f n : n ∈
b) f : [a, b] →
ist auf [a, b] stetig differenzierbar und
f '( x ) = lim f n '( x ) für alle x ∈ [a, b]
n →∞
glm
f
) ⎯⎯→
auf [a, b].
Beispiele a.5:
∞
xi
xi
glm
1) f n ( x ) := ∑
⎯⎯→ exp( x ) := ∑ auf [a, b] mit a, b ∈ ;
i =0 i !
i =0 i !
n
x i −1
glm
= f n −1 ( x ) ⎯⎯→
exp( x ) auf [a, b] ;
f n '( x ) := ∑
i =1 (i − 1)!
also nach Satz a.2: exp'( x ) = lim f n '( x ) = exp( x ) (vgl. §7)
n
n →∞
2) analog mit sin( x ) und cos( x ); vgl. §6
Folgerung a.2.1:
∞
Sei f ( x ) := ∑ an ( x − x0 ) n eine Potenzreihe mit Konvergenzradius r > 0.
n =0
∞
f '( x ) = ∑ n an ( x − x0 ) n −1 für alle x ∈ ( x0 − r, x0 + r ) .
Dann gilt:
n =1
Folgerung a.2.2:
∞
Sei r > 0 und f ( x ) := ∑ an ( x − x0 ) n konvergiere in I := ( x0 − r, x0 + r ) .
n =0
Dann ist f : I →
beliebig oft differenzierbar und an =
1 (n)
f ( x0 ) für alle n ∈ .
n!
Beispiel a.6:
∞
Für x < 1 gilt:
∞
∑n x
n =1
n
=x
∞
∑ nx
n −1
= x⋅
n =1
d ∑ xn
n =0
dx
⎛ 1 ⎞
d⎜
⎟
x
1− x ⎠
= x⋅ ⎝
=
dx
(1 − x ) 2
b) Taylorreihen
Erinnerung an Taylorentwicklungen in §7 (Satz 6)
Satz b.1 (Taylorentwicklung mit Integralrestglied):
Seien I ⊂
ein beliebiges Intervall und f : I →
differenzierbare Funktion. Für x, x0 ∈ I gilt dann:
n
f ( x) = ∑
i =0
f ( i ) ( x0 )
( x − x0 )i + Rn +1 ( x; x0 )
i!
x
1
mit Rn +1 := ∫ ( x − t ) n f ( n +1) (t ) dt
n ! x0
eine ( n + 1) -mal stetig
Folgerung b.1.1:
( n + 1) -mal stetig differenzierbar mit f n +1 ( x ) = 0 für alle x ∈ I .
Sei f : I →
k
Dann ist f ein Polynom p( x ) := ∑
i =0
f ( i ) ( x0 )
( x − x0 )i vom Grad k ≤ n.
i!
: = ai ( x0 )
Folgerung b.1.2:
Sei f : I →
(n + 1) -mal stetig differenzierbar in x0 ∈ I . Dann existiert
eine Funktion ρ : I →
mit
n
lim ρ ( x ) = 0 und f ( x ) = ∑
x → x0
i =0
f ( i ) ( x0 )
( xi − x0 ) + ρ ( x ) ∀x ∈ I .
i!
Definition:
Seien I ⊂
ein Intervall, x0 ∈ I und f : I →
in x0 beliebig oft (stetig)
differenzierbar.
∞
f ( n ) ( x0 )
a) Die Potenzreihe ∑
( x − x0 ) n heißt die Taylorreihe zu f in x0
n!
n =0
oder auch die Taylorentwicklung von f in x0 .
b) Wir sagen "f lässt sich als Taylorreihe um x0 in I darstellen", wenn gilt:
∞
f ( x) = ∑
n =0
f ( n ) ( x0 )
( x − x0 ) n ∀x ∈ I .
n!
Beispiele b.1:
1) f Potenzreihe. Dann ist die zu f gehörige Taylorreihe die Funktion f selbst.
2) Eine Taylorreihe zu f konvergiert nicht notwendig gegen f .
⎧ − x12
⎪
Beispiel: Sei f : → die Funktion f ( x ) := ⎨e , falls x ≠ 0
⎪⎩ 0,
falls x = 0
f ist beliebig oft differenzierbar und f ( n ) (0) = 0 ∀n ∈
Die Taylorreihe zu f im Entwicklungspunkt 0 ist identisch Null.
aber: f ( x ) ≠ 0 für alle x ∈ \{0}.
Beispiele b.2:
∞
xn
1) exp( x ) = ∑
Taylorreihe zu exp( x ) um 0; f ( n ) (0) = exp(0) = 1
n =0 n !
2) sin und cos analog
∞
3) ln(1 + x ) = ∑ ( −1) n +1
n =1
∞
4) arctan( x ) = ∑ ( −1)
n
n =0
xn
n
für x ∈ ( −1 , 1]
x 2 n +1
für x ∈ [ −1 , 1]
2n + 1
5) Binomische Reihe:
Für α ∈
n
⎛α ⎞
(α − k + 1)
sei ⎜ ⎟ := ∏
k
⎝ n ⎠ k =1
∞
⎛α ⎞
(1 + x )α = ∑ ⎜ ⎟ x n
n =0 ⎝ n ⎠
für x ∈ ( −1 , 1)
Satz b.2:
Seien I ⊂
ein Intervall, x0 ∈ I , f : I →
beliebig oft differenzierbar
und Rn ( x; x0 ) das Restglied aus der Taylorentwicklung zu f (z.B. aus
Satz b.1). Dann gilt:
a) f lässt sich genau dann in I als Taylorreihe um x0 darstellen, wenn gilt:
lim Rn ( x, x0 ) = 0 ∀x ∈ I
n →∞
b) Existiert ein γ ∈
mit sup sup f ( n ) ( x ) ≤ γ , so lässt sich f in I als
n∈
0
x∈I
Taylorreihe um x0 darstellen.
c) Fourierreihen
Seien X eine Menge, N :=
oder N :=
gn : X → .
0
und ( g n : n ∈
fn
eine Folge von Funktionen
∑ ( g ( x ) : n ∈ N ) , d.h. die Folge
( x ) := ∑ g ( x ).
Für jedes x ∈ X betrachten wird die Reihe
( f n ( x ) : n ∈ N ) der Partialsummen
)
n
i∈N
i≤n
n
Definition:
a) Die Abbildung X ∋ x
∑ ( g ( x ) : n ∈ N ) heißt die zu ( g
n
n
:n∈N)
gehörige (formale) Funktionenreihe.
Falls für x ∈ X die Reihe ∑ ( g n ( x ) : n ∈ N ) in
wird ihre Summe mit
oder uneigentlich konvergiert,
∑ g ( x ) bezeichnet.
n∈N
n
b) Die Abbildung K := {x ∈ X : ∑ ( g n ( x ) : n ∈ N ) konvergiert in
} ∋ x ∑ g ( x)
n∈N
n
heißt die zu ( g n : n ∈ N ) gehörige konvergente Funktionenreihe mit dem Konvergenzbereich K .
Definition:
) Folgen reeller Zahlen und X := [0, 2π ]
. Die Funktionenreihe ∑ ( g n : n ∈ 0 ) mit
Seien ( an : n ∈
oder X : =
0
) und ( bn : n ∈
0
g n ( x ) := an cos( nx ) + bn sin(nx )
heißt trigonometrische Reihe auf X ; an und bn heißen die Koeffizienten
dieser trigonometrischen Reihe. (b0 := 0 o.E.d.A)
Bild 1: Sinuskurven
Bild 2: Kosinuskurven
Es ist
2π
2π
0
0
∫ cos(nx ) dx = ∫ sin(nx ) dx = 0 für n ∈
cos( nx ) = cos( n ( x + 2kπ )) und sin( nx ) = sin( n ( x + 2kπ )) ∀n ∈
0
∀k ∈
Interpretation:
an und bn beschreibt die „Amplitude“ des „Schwingungsanteils“
cos( nx ) bzw. sin(nx ) und n die „Frequenz“.
Eine „beliebige Schwingung“ kann als Superposition von Kosinus- und SinusSchwingungen „gedacht“ werden.
Mechanische, elektrische und elektromanische Schwingungen; Wärmeleitung;
Zeitreihen.
Beziehung zu Taylorreihen und komplexen Polynomen (vgl. auch §12, komplexe
Zahlen) über die Darstellung eine komplexen Zahl
z = z exp(i φz ) = z (cos(φz ) + i sin(φz ))
bei φz := arg( z )
und ihrer Potenzen z n = z exp(i n φz ) = z (cos( n ⋅ φz ) + i sin( n ⋅ φz ))
n
n
Später: Die trigonometrischen Funktionen sin( nx ) und cos(mx ) bilden ein
vollständiges Orthonormalsystem im Hilbertraum der (Äquivalenz der)
quadratintegrierbaren Funktionen. Die Partialsummen von trigonometrischen
Reihen werden auch trigonometrische Polynome genannt.
Satz c.1:
Sei
∑(g
( an : n ∈
n
) eine trigonometrische Reihe auf mit den Koeffizientenfolgen
0 ) und ( bn : n ∈
0 ) und dem Konvergenzbereich K .
:n∈
0
Weiter seien f : K →
f ( x ) :=
mit x
∑ g ( x ) und
n∈
f :X →
n
0
n
f n ( x ) := ∑ gi ( x )
mit x
i =0
Dann gilt:
a) Mit x ∈ K ist auch x + k 2π ∈ K für alle k ∈ .
b) f ( x ) = f ( x + k 2π ) für alle k ∈ .
c) Konvergiert
∑( a
n
+ bn : n ∈
0
) in
, so ist K =
und
∑(g
n
:n∈
konvergiert gleichmäßig gegen f .
d) Konvergiert
i) f : I →
∑(g
n
:n∈
0
) gleichmäßig auf I ⊂
ist stetig.
b
b
ii ) Bei I := [a, b] ist lim ∫ f n ( x ) dx = ∫ f ( x ) dx
n →∞
a
iii ) Bei I := [0, 2π ] ist a0 =
e) Für n, m ∈
0
a
1
2π
2π
∫
f ( x ) dx
0
gilt:
⎧ 2π bei n = m = 0
⎪
∫0 cos(mx ) cos(nx ) dx = ⎨ π bei n = m ≠ 0
⎪0
bei n ≠ m
⎩
2π
2π
∫ cos(mx ) sin(nx ) dx = 0
0
⎧ 0 bei n = m = 0
⎪
∫0 sin(mx ) sin(nx ) dx = ⎨π bei n = m ≠ 0
⎪0
bei n ≠ m
⎩
2π
gegen f , so gilt:
0
)
Die Orthogonalitätsrelationen aus Satz c.1.e zeigt man am einfachsten über:
1
1
cos x = ( eix + e − ix ), sin x = (eix − e − ix )
2
2i
Satz c.2: (Riemann)
und f : [a, b] →
Seien a, b ∈
Riemann-integrierbar. Dann gilt (bei z ∈ ):
b
lim
z →∞
∫
b
∫ f ( x ) sin( zx ) dx
f ( x ) cos( zx ) dx = 0 = lim
z →∞
a
a
Definition:
Sei f : [0, 2π ] →
a0 :=
an :=
2π
1
2π
1
π
Riemann-integrierbar. Dann heißen
∫
f ( x ) dx und b0 := 0,
0
2π
∫
f ( x ) cos( nx ) dx und bn :=
0
1
π
die Fourierkoeffizienten von f und
2π
∫
f ( x ) sin( nx ) dx für n ∈
0
∑(g
n
:n∈
0
)
mit g n ( x ) = an cos( nx ) + bn sin( nx )
die formale Fourierreihe zu f .
Bemerkung:
In der komplexen Darstellung lautet die Fourierreihe zu einer Funktion f :
mit Periode 2π , welche stückweise stetig differenzierbar ist:
f ( x) =
k =+∞
∑ ck eikx := lim
k =−∞
n →∞
k =n
∑ ck eikx mit den Koeffizienten ck :=
k =− n
Fragen: 1) Für welche x konvergiert die Fourierreihe
1
2π
∑( g
n
2π
∫
→
f (t ) e − ikt dt
0
:n∈
0
) zu
f ?
∞
2) Wann ist f ( x ) = ∑ g n ( x ) ?
n =0
3) Wie schnell ist die Konvergenz ?
Beispiele und Warnungen:
1) Es existiert eine konvergente trigonometrische Reihe, die nicht Fourierreihe einer
Riemann-integrierbaren Funktion ist.
2) Es existiert eine stetige Funktion f , deren Fourierreihe für „viele“ x nicht gegen
f ( x ) konvergiert.
Satz c.3: (Dirichlet)
Sei f :
Riemann-integrierbar auf [0, 2π ] und periodisch mit der Periode 2π .
→
( fn : n ∈
Weiter sei
Dann gilt für x ∈
π
a) f n ( x ) =
2
2
π∫
0
) die Folge der Partialsummen der Fourierreihe zu
f.
:
( f ( x + 2t ) +
f ( x − 2t ) )
2
0
K n (t ) dt ,
π
⎧ sin((2n + 1)t )
für 0 < t ≤
⎪
sin(t )
2
wobei K n (t ) := ⎨
⎪
2n + 1
für t = 0
⎩
der Dirichlet'sche Kern heißt.
b) Darstellung des Restes:
Fn ( x ) := f n ( x ) − f ( x ) =
1
π
2π
∫ ( f ( x + 2t ) + f ( x − 2t ) − 2 f ( x) ) K (t ) dt
n
0
π
c) lim f n ( x ) = γ ∈
n →∞
⇔ lim
n →∞
1
π
2
∫ ( f ( x + 2t ) + f ( x − 2t ) − 2 f ( x ) ) K ( t ) = 0
n
0
Anmerkung:
π
sin((2n + 1)t )
t →0
1)
⎯⎯⎯
→ 2n + 1
sin(t )
2
2) ∫ K n (t ) dt =
0
π
2
Satz c.4:
→
Seien f :
Riemann-integrierbar über [0, 2π ] und periodisch mit der Periode 2π
und x0 ∈ [0, 2π ] derart, dass in
folgende Limites existieren:
f ( x0 + ) := lim f ( x ) (rechtsseitiger Limes)
x ↓ x0
f ( x0 − ) := lim f ( x ) (linksseitiger Limes)
x ↑ x0
f + '( x0 + ) := lim
f ( x ) - f ( x0 + )
(rechtsseitige verallgemeinerte Ableitung)
x − x0
f − '( x0 − ) := lim
f ( x ) - f ( x0 − )
(linksseitige verallgemeinerte Ableitung)
x − x0
x ↓ x0
x ↑ x0
Dann gilt:
f ( x0 + ) + f ( x0 − )
2
+
−
b) Ist zusätzlich f in x0 stetig (also f ( x0 ) = f ( x0 )), so konvergiert
a) Die Fourierreihe zu f konvergiert in x0 gegen
die Fourierreihe zu f in x0 gegen f ( x0 ).
Beispiel:
Man betrachte die periodische Funktion f :
→
⎧ 1 für 0 ≤ x < π
mit f ( x ) := ⎨
⎩ −1 für π ≤ x < 2π
Bilder:
Als Fourier-Partialsummen zu f ergeben sich:
4⎛
sin 3x ⎞
4⎛
sin 3x sin 5 x ⎞
+
⎜ sin x +
⎟ ; S5 ( x ) = ⎜ sin x +
⎟;
3 ⎠
3
5 ⎠
π
π⎝
π⎝
4⎛
sin 3x sin 5 x sin 7 x ⎞
S7 ( x ) = ⎜ sin x +
+
+
⎟
3
5
7 ⎠
π⎝
4
S1 ( x ) =
sin x; S3 ( x ) =
Satz c.5
Sei f :
→
periodisch mit der Periode 2π . Dann gilt:
a) Sind x0 ∈ , f Riemann-integrierbar in [0, 2π ] und
π
2
J := ∫
0
f ( x0 + 2t ) + f ( x0 + 2t ) − 2 f ( x0 )
dt < ∞
t
so konvergiert die Fourierreihe zu f in x0 und hat die Summe f ( x0 ).
b) Hölder-Bedingung:
Existieren α ∈ ( 0,1) und γ ∈
f ( x ) − f ( x ') < γ x − x '
α
zu f mit
∀x , x ' ∈
mit x − x ' < π
so konvergiert die Fourierreihe zu f in jedem Punkt x0 ∈
und hat die Summe f ( x0 )
Anmerkung:
Selbst für stetiges f : [0, 2π ] →
braucht die Folge ( f n : n ∈
0
) der Partialsummen
der Fourierreihe zu f nicht gegen f ( x ) in x zu konvergieren, falls sie überhaupt
1 n −1
konvergiert. Aber die Mittel hn := ∑ f i tun dies – und zwar gleichmäßig, wie der
n i =0
folgende Satz zeigt.
Satz c.6 :
Sei f :
(Fejér)
→
stetig und periodisch mit der Periode 2π .
Weiter sei ( f n : n ∈
0
) die Folge der Partialsummen der Fourierreihe zu
f.
Dann gilt:
1 n −1
lim sup f ( x ) − ∑ f i = 0
n →∞ x∈
n i =0
Anmerkung.
⎧ ⎛ sin(nt ) ⎞ 2
π
⎪
Für den Fejér-Kern Fn (t ) := ⎨ ⎜⎝ sin(t ) ⎟⎠ für 0 < t ≤
2
⎪ 2
⎩ n für t = 0
gilt:
π
2
∫ F (t ) dt =
n
0
nπ
2
t →0
und Fn (t ) ⎯⎯⎯
→ n2
Folgerung c.6.1:
Mit dem Satz von Fejér, der Darstellung der trigonometrischen Funktionen als
Potenzreihen und dem Satz über die gleichmäßige (vgl. §6) kann man den Satz von
Weierstraß über die gleichmäßige Approximation von stetigen Funktionen durch
Polynome (vgl. §5) beweisen.
**********************************************************************************************
Warnung: (du Bois-Reymond, 1872)
Die Fourierreihe zu einer stetigen Funktionen kann divergieren.
Beispiel:
(Fejér)
q
3
3
sin( kx )
und f := ∑ α k t pk ,qk mit pk := 2k +1 , qk := 2k
k
k =1
k∈
Bei t p ,q ( x ) := 2sin( px )∑
und α k :=
1
ist f stetig, aber die Fourierreihe zu f konvergiert nicht in 0.
k2
Zum Beweis vgl. z.B. Edwards, Vol.I, S.161 f.; Zygmund, Vol.I, S.298ff.;
Dort auch weitere Beispiele und Sätze:
i) Es existiert eine stetige Funktion, deren Fourierreihe überall konvergiert, nicht aber
gleichmäßig.
ii) Ist f stetig (und damit über [0, 2π ] quadratintegrierbar), so folgt aus dem unten
zitierten Satz von Carleson, dass die Fourierreihe zu f fast überall gegen f
konvergiert.
iii) Es existiert eine stetige Funktion derart, dass jede Teilfolge der Folge der
Partialsummen der Fourierreihe zu f an irgendeinem Punkt divergiert.
(Men’show, 1947)
Aus Folgerung 6.1 (und dem Dichtliegen von C [0, 2π ] in L2 [0, 2π ] ) folgt:
Satz c.7 (vollständiges Orthonormalsystem)
⎧ 1
⎫ ⎧ 1
⎫ ⎧ 1 ⎫
cos( n ⋅) : n ∈ ⎬ ∪ ⎨
sin( n ⋅) : n ∈ ⎬ ∪ ⎨
B := ⎨
⎬ ist ein vollständiges Ortho⎩ π
⎭ ⎩ π
⎭ ⎩ 2π ⎭
normalsystem in C [0, 2π ] und damit auch in L2 [0, 2π ] mit f , g := ∫ f ( x ) ⋅ g ( x ) dx .
Wegen der (abstrakten) Fourierreihenentwicklung in Prähilberträumen bezüglich
vollständiger Orthonormalsysteme folgt damit:
Satz c.8 (Quadratmittelkonvergenz der Fourierreihe)
Ist f : [0, 2π ] →
quadratintegrierbar, so konvergiert die Fourierreihe zu f
im quadratischen Mittel gegen f .
Satz c.9 (Carleson, 1966)
Ist f : [0, 2π ] →
quadratintegrierbar, so konvergiert die Fourierreihe zu f
fast überall gegen f .
Warnung: (Kolmogorov, 1926)
Es existiert eine integrierbare Funktion f : [0, 2π ] →
, deren Fourierreihe überall
divergiert. (Konstruktiv schwieriger Beweis; vgl. z.B. Bary, S.455-464 oder
Zygmund, I, S.310 ff.)
****************************************************************************************
Satz c.10:
(Abtasttheorem; Whittaker – Kotelnikov – Nyquist – Shannon)
Sei f : [0, 2π ] →
mit x
n
f ( x ) := ∑ ( ak cos( kx ) + bk sin( kx ) ) bei n ∈ .
k =0
Dann ist f durch seine Werte an 2n + 1 verschiedenen Stellen x ∈ [0, 2π )
eindeutig bestimmt.
Definition:
a) n in Satz c.10 heißt Grenzfrequenz.
2π
b) Sei N ∈ und x N :=
. Dann heißt {k xN : k = 0,1,... N − 1} eine (gleichabständige)
N
Abstastung von [0, 2π ] der Länge x N .
N heißt Abtastfrequenz dieser Abtastung.
Anmerkung:
Satz c.10 sagt, dass ein trigonometrisches Polynom mit der Grenzfrequenz n durch
eine Abtastung mit einer Abtastfrequenz N eindeutig bestimmt ist, die mehr als
zweimal so groß ist wie seine Grenzfrequenz: N ≥ 2n + 1 .
§12 Die komplexen Zahlen
Sei ( , +, ⋅) der Körper der reellen Zahlen mit der gewöhnlichen Addition „+“ und
der gewöhnlichen Multiplikation „ ⋅ “, der Null 0 und der Eins 1 .
Problem: x 2 + 1 = 0 hat keine Lösung in .
Lösung: Konstruktion der komplexen Zahlen.
Definition:
:=
a)
b) + :
c) ⋅ :
= {( x, y ) : x ∈
×
×
×
→
→
und y ∈
}
heißt die Menge der komplexen Zahlen.
mit ( x1 , y1 ) + ( x2 , y2 ) := ( x1 + x2 , y1 + y2 ) heißt die Addition komplexer Zahlen.
mit ( x1 , y1 ) ⋅ ( x2 , y2 ) := ( x1 ⋅ x2 − y1 ⋅ y2 , x1 ⋅ y2 + x2 ⋅ y1 ) heißt die Multiplikation
komplexer Zahlen.
Anmerkung:
Die Additionen + : × → und + : × → sind vorläufig ganz verschieden; vgl.
Satz 2 samt Anmerkung. Gleiches gilt für die Multiplikationen.
Satz 1: ( ( , +, ⋅) ist ein kommutativer Körper)
Sei ( , +, ⋅) mit , + und ⋅ wie oben. Dann sind + :
⋅ : × → Abbildungen und es gilt:
×
→
und
a) ( , + ) ist eine kommutative Gruppe; d.h. es gelten A1 - A4 analog
zu A1 - A4 in §3. Null (= das neutrale Element bzgl. + ) ist (0,0).
b) ( \{(0,0)}, ⋅) ist eine kommutative Gruppe; d.h. es gelten M1 - M4
analog zu M1 - M4 in §3. Die Eins (=das neutrale Element bzgl. ⋅) ist (1,0).
c) Es gilt das Distributivgesetz; d.h. es gilt D analog zu D in §3.
Definition:
a) ( , +, ⋅) heißt der Körper der komplexen Zahlen.
0 := (0,0) heißt die komplexe Null.
1 := (1,0) heißt die komplexe Eins.
z := ( x, y ) ∈
heißt komplexe Zahl.
b) Sei z := ( x, y ) ∈ . Dann heißen
Re( z ) := Re z := x der Realteil und Im( z ) := Im z := y der Imaginärteil von z,
⎛ x
−y ⎞
− z := ( − x, − y ) das Negative und z −1 := ⎜ 2
, 2
bei z ≠ 0 das Inverse von z.
2
2 ⎟
⎝x +y x +y ⎠
Satz 2: (Einbettung von ( , +, ⋅) in ( , +, ⋅) )
Sei ( , +, ⋅) der Körper der reellen Zahlen und ( , +, ⋅) der Körper der komplexen Zahlen.
Die Abbildung ϕ : ( , +, ⋅) → ( , +, ⋅) mit x
ϕ ( x ) := ( x,0) ist injektiv. Für sie gilt.
a) ϕ ( x1 + x2 ) = ϕ ( x1 ) + ϕ ( x2 ) ∀x1 , x2 ∈
b) ϕ ( x1 ⋅ x2 ) = ϕ ( x1 ) ⋅ ϕ ( x2 ) ∀x1 , x2 ∈
c) ϕ (0) = 0 = 0 und ϕ (1) = (1,0) = 1
Anmerkung:
1) ϕ : ( , + ) → ( , + ) und ϕ : ( \{0}, ⋅) → ( \{0}, ⋅) sind Gruppenhomomorphismen.
2) ϕ : ( , +, ⋅) → ( , +, ⋅) ist ein Körperhomomorphismus.
3) Wir identifizieren ( , +, ⋅) mit (ϕ ( ), +, ⋅) und fassen
als Teilmenge von
und ( , +, ⋅) als Unterkörper von ( , +, ⋅) auf.
Definition:
a) Sei i := (0,1).
b) Für x, y ∈
seien iy := (0, y ), x + iy := ( x, y ) und ( x,0).
c) Endliche Summen und Produkte und Potenzen seien für komplexe
Zahlen analog definiert für reelle Zahlen.
d) z := ( x, y ) ∈ \
:⇔ z ∈ \ϕ ( ) = {( x1 , y1 ) ∈
: y1 ≠ 0}
Satz 3:
a) i ∈ \
und i 2 = (0,1) ⋅ (0,1) = ( −1,0) = ϕ ( −1) = −1 , d.h. i =: −1.
b) z = Re( z ) + i ⋅ Im( z ) = x + iy ∀z = ( x, y ) ∈
Definition:
Seien z = ( x, y ) ∈
mit x, y ∈
und z = x + iy.
α sei die nichtnegative Wurzel der nichtnegativen reellen Zahl α .
a) z := x − iy = ( x, − y ) heißt die zu z konjugierte komplexe Zahl.
b) z := ( x 2 + y 2 ) heißt der Betrag (die Länge, Norm) von z.
c)
⋅ :
→
+
0
mit z → z heißt die Betragsfunktion.
Satz 4:
Sei z = x + iy ∈
mit x, y ∈
und ϕ :
→
gemäß Satz 2. Dann gilt:
a) z = z ⇔ Im( z ) = 0 ⇔ z ∈ ϕ ( ) ≅
b) z ⋅ z = ( x + iy ) ⋅ ( x − iy ) = ( x 2 − i 2 y 2 ,0) = ϕ ( x 2 + y 2 ) = z und z = z .
2
c) Bei α ∈
und az := (α x, α y ) = ϕ (α ) ⋅ z gilt: α z = α z , d.h. ⋅ :
→
+
0
ist postiv homogen.
d) Dreiecksungleichung: z1 + z2 ≤ z1 + z2 ∀z1 , z2 ∈ .
e) z1 ⋅ z2 = z1 ⋅ z2 ∀z1 , z2 ∈ .
Hinweis auf den Fundamentalsatz der Algebra:
Eine Aussageform für z ∈
der Art
n
P( z ) := ∑ ak z k mit n ∈ , ak ∈
k =0
heißt Polynom über
für k = 0,.., n und an ≠ 0
vom Grad n mit den Koeffizienten ak ∈ .
Fundamentalsatz der Algebra (Gauß, 1799):
Jedes Polynom P( z ) über
d.h. ∃ z ∈
vom Grad n ≥ 1 hat mindestens eine Nullstelle in
;
mit P( z ) = 0.
(verschiedene Beweise: z.B. mit Hilfe der Funktionentheorie; vgl. auch Gerd Fischer ,
Lineare Algebra, S.217 f.)
Graphische Darstellung der komplexen Zahlen: Gaußsche Ebene
Zeichnung:
z := ( x, y ) ∈
Addition komlexer Zahlen: Vektoraddition
=
×
als Vektor der Länge z
arg( z ) := Winkel zwischen der x − Achse und der Gerade von 0 nach z
Re( z ) = x = z cos(arg( z )) und Im( z ) = y = z sin(arg( z ))
z = z cos(arg( z )) + i z sin(arg( z ))
Bei eiα := exp(iα ) := (cos(α ),sin(α )) = cos(α ) + i ⋅ sin(α ) für α ∈
z = z ei arg( z )
Multiplikation mit einer komplexen Zahl z :
Drehung um arg( z ) und Streckung um z .
Zeichnung:
gilt:
§13 Metrische und normierte Räume
a) Metriken und Normen
Definition:
Sei X eine Menge und d : X × X →
+
0
eine Abbildung mit
M1) d ( x, y ) = d ( y , x ) ∀x, y ∈ X
(Symmetrie)
M2) d ( x, y ) ≤ d ( x, z ) + d ( z, y ) ∀x, y , z ∈ X
(Dreiecksungleichung)
M3) d ( x, y ) = 0 ⇔ x = y
(Trennung)
d heißt Metrik auf X (oder: Distanzfunktion); ( X , d ) heißt metrischer Raum.
Beispiele a.1:
⎧ 0 bei x = y
1) diskrete Metrik: X bel. Menge und d ( x, y ) := ⎨
⎩1 bei x ≠ y
2) gewöhnliche Metrik (Betragsmetrik) auf : X := und d ( x, y ) := x − y
3) euklidische Metrik auf
n
: n ∈ ; X :=
4) Tschebyscheff-Metrik: n ∈ ; X :=
n
n
, x := ( x1 ,..., xn ) ∈
; x, y ∈
n
n
⎛ n
⎞
und d ( x, y ) := ⎜ ∑ ( xi − yi ) 2 ⎟
⎝ i =1
⎠
und d ( x, y ) := max { xi − yi : i = 1,.., n}
Definition:
Seien ( X , d ) ein metrischer Raum, x ∈ X und ε ∈
+
.
a) K d ( x, ε ) := K ( x, ε ) := { y ∈ X : d ( x, y ) < ε } heißt offene d − Kugel um x mit Radius ε .
K d ( x, ε ) := K ( x, ε ) := { y ∈ X : d ( x, y ) ≤ ε } heißt abgeschlossene d − Kugel um x mit Radius ε .
b) Eine Folge ( xn : n ∈
) konvergiert in ( X , d ) gegen x ∈ X
d
in Zeichen: x = d − lim xn ; x = d − lim xn ; xn ⎯⎯⎯
→ x , wenn gilt:
n →∞
n →∞
∀ε ∈
+
∃N∈
mit d ( x, xn ) < ε ∀n ≥ N
c) Sei auch (Y , δ ) ein metrischer Raum. Dann heißt: f : ( X , d ) → (Y , δ ) stetig in x ∈ X ,
wenn f ( x ) = δ − lim f ( xn ) aus x = d − lim xn folgt.
f heißt stetig, wenn f stetig in x ∈ X ist für jedes x ∈ X .
d) Sei Y ⊂ X . Dann heißt Y abgeschlossen in ( X , d ), wenn gilt:
∀ ( xn : n ∈
) Folge in Y
mit x = d − lim xn ist x ∈ Y .
Y heißt offen, wenn X \Y abgeschlossen ist.
Beispiele a.2:
1) euklidische Metrik auf n :
n = 1 : offene Kugel ↔ offenes Intervall
geschlossene Kugel ↔ geschlossenes Intervall
n = 2 : offene Kugel ↔ offener Kreis
geschlossene Kugel ↔ geschlossener Kreis
n = 3 : offene Kugel ↔ offene Kugel im Sinne der analyt. Geometrie
geschlossene Kugel ↔ geschlossene Kugel im Sinne der analyt. Geometrie
2) Tschebyscheff-Metrik auf
n
:
n = 1 : offene Kugel ↔ offenes Intervall
geschlossene Kugel ↔ geschlossenes Intervall
n = 2 : offene Kugel ↔ offenes Quadrat
geschlossene Kugel ↔ abgeschlossenes Quadrat
n = 3 : offene Kugel ↔ offener Würfel
geschlossene Kugel ↔ abgeschlossener Würfel
Zeichnung:
1
p -Normen für p = 1, 2, ∞ im
unten, „Normen“) für x ∈
n
2
⎛ n
p ⎞p
mit x p := ⎜ ∑ xi ⎟ und x
⎝ i =1
⎠
.
Satz a.1:
Sei ( X , d ) ein metrischer Raum. Dann gilt:
a) x ∈ K d ( x, ε ) ∀x ∈ X ∀ε ∈
+
b) {x} = ∩ K d ( x;1/ n ) = ∩ K d ( x;1/ n ) ∀x ∈ X
n∈
n∈
c) Hausdorffsche Trennungseigenschaft:
∀x, y ∈ X mit x ≠ y ∃ ε ∈
+
mit K d ( x; ε ) ∩ K d ( y; ε ) = ∅
∞
:= max { x1 ,..., xn } (vgl.
d) Eindeutigkeit des Limes:
x = d - lim xn = y ⇒ x = y
e) Sei auch (Y , δ ) ein metrischer Raum und f : ( X , d ) → (Y , δ ) stetig.
Ist GY eine offene Teilmenge von (Y , δ ), so ist f −1 (GY ) eine offene Teilmenge von ( X , d ).
Ist AY eine abgeschlossene Teilmenge von (Y , δ ) , so ist f −1 ( AY ) eine abgeschlossene
Teilmenge von ( X , d ).
+
0
f) Für jedes x ∈ X ist d ( x, ⋅) : X
stetig und damit K d ( x; ε ) in ( X , d ) offen und K d ( x, ε )
abgeschlossen.
g) Seien ( X , d X ),(Y , dY ) und ( Z , d Z ) metrische Räume und f : ( X , d X ) → (Y , dY )
und g : (Y , dY ) → ( Z , d Z ) stetig. Dann ist auch g f : ( X , d X ) → ( Z , d Z ) stetig.
Definition:
Sei ( X , d ) ein metrischer Raum.
a) Eine Folge ( xn : n ∈
∀ε ∈
+
) in X
heißt d − Cauchyfolge, wenn gilt:
mit d ( xn , xm ) < ε ∀n, m > N .
∃N∈
b) ( X , d ) heißt vollständig, wenn jede d − Cauchyfolge in ( X , d ) gegen ein x ∈ X konvergiert.
Beispiele a.3:
1)
ist mit der Betragsmetrik (=euklidische Metrik=Tschebyscheff-Metrik) vollständig.
Vgl. §4, Satz a.8.
2)
ist mit der Betragsmetrik nicht vollständig.
3)
ist mit der Arcustangens-Metrik d :
×
→
mit ( x, y )
d ( x, y ) := arctan x − arctan y
nicht vollständig.
Satz a.2:
Seien ( X , d ) ein metrischer Raum, Y ⊂ X und dY : Y × Y →
mit ( y1 , y2 )
+
0
dY ( y1 , y2 ) := d ( y1 , y2 ) die Einschränkung von d auf Y .
Dann gilt:
a) (Y , dY ) ist ein metrischer Raum.
b) Jede gegen ein x ∈ X in ( X , d ) konvergente Folge ( xn : n ∈
ist eine d − Cauchyfolge.
) in X
c) Ist (Y , dY ) vollständig, so ist Y abgeschlossen in ( X , d ).
d) Ist ( X , d ) vollständig und Y in ( X , d ) abgeschlossen, so ist (Y , dY ) vollständig.
Definition:
Sei ( X , d ) ein metrischer Raum. Eine Menge Z ⊂ X heißt folgenkompakt in ( X , d ) ,
wenn jede Folge ( xn : n ∈
) in Z
eine gegen ein z ∈ Z in ( X , d ) konvergente
Teilfolge hat.
Definition:
Sei ( X , d ) ein metrischer Raum, Z ⊂ X .
a) Unter einer offenen Überdeckung von Z versteht man eine Familie (U i )i∈I
von offenen Teilmengen U i ⊂ X mit Z ⊂ ∪U i .
i∈I
Dabei ist I eine endliche oder unendliche Indexmenge.
b) Z ⊂ X heißt kompakt, wenn es zu jeder offenen Überdeckung (U i )i∈I von Z
eine endliche Teilmenge J ⊂ I von indizes gibt, so dass Z ⊂ ∪ U j .
j∈J
Bemerkung:
Sei ( X , d ) ein metrischer Raum.
Dann sind für jede Teilmenge Z ⊂ X folgende Eigenschaften äquivalent:
i) Z ist folgenkompakt, d.h. jede Folge ( xn : n ∈
) besitzt eine gegen ein
z ∈ Z konvergente Teilfolge.
ii) Z hat die offene Überdeckungseigenschaft, d.h. aus Z ⊂ ∪U i , wobei I
i∈I
eine beliebige Indexmenge und U i ⊂ X ∀i ∈ I offen ist, folgt, dass eine endliche
eine endliche Indexmenge J ⊂ I mit Z ⊂ ∪ U j existiert.
j∈J
iii) Z hat die endliche Durchschnittseigenschaft, d.h. aus ∩ Z i = ∅,
i∈I
wobei I eine beliebige Indexmenge und Z i ⊂ Z ∀i ∈ I abgeschlossen im metrischen Raum
( Z , d ) ist, folgt, dass eine endliche Indexmenge J ⊂ I mit ∩ Z j = ∅ existiert.
j∈I
Satz a.3:
Sei ( X , d ) ein metrischer Raum, Y ⊂ X und dY : Y × Y →
+
0
die Einschränkung
von d auf Y . Dann gilt:
Ist Y folgenkompakt in ( X , d ), so ist Y abgeschlossen in ( X , d ) und (Y , dY ) vollständig.
Definition:
Seien ( X , d ) und (Y , δ ) metrische Räume.
a) Eine Abbildung f : ( X , d ) → (Y , δ ) heißt gleichmäßig stetig, wenn gilt:
∀ε ∈
+
∃ η∈
+
∀x1 , x2 ∈ X mit d ( x1 , x2 ) < η gilt δ ( f ( x1 ), f ( x2 )) < ε .
b) Sei Z eine Menge. Eine Folge ( f n : n ∈
) von Abbildungen
f n : Z → (Y , δ )
konvergiert gleichmäßig gegen eine Abbildung gegen eine Abbildung
f : Z → (Y , δ ) , wenn gilt:
lim sup {δ ( f n ( z ), f ( z )) : z ∈ Z } = 0
n →∞
Satz a.4:
Seien ( X , d ) und (Y , δ ) metrische Räume, ∅ ≠ X folgenkompakt und
f : ( X , d ) → (Y , δ ) stetig. Dann gilt:
a) f : ( X , d ) → (Y , δ ) ist gleichmäßig stetig.
b) f ( X ) ist folgenkompakt in (Y , δ ).
c) Ist Y =
und δ die gewöhnliche Betragsmetrik, so gilt:
Es existieren xm , xM ∈ X mit f ( xm ) = inf { f ( x ) : x ∈ X } und f ( xM ) = sup { f ( x ) : x ∈ X }
Satz a.5:
Seien ( X , d ) und (Y , δ ) metrische Räume und ( f n : n ∈
)
eine Folge von stetigen Abbildungen
f n : ( X , d ) → (Y , δ ) , die gleichmäßig gegen eine Abbildung f : X → Y konvergieren. Dann ist
f : ( X , d ) → (Y , δ ) stetig.
Definition:
a) Sei K gleich
oder . (Skalarenkörper)
b) Sei X ein K -linearer Raum (d.h. ein Vektorraum über K ).
Eine Abbildung
N1) α x = α
⋅ :X →
+
0
mit x
x ∀α ∈ K ∀x ∈ X
N2) x + y ≤ x + y
∀x , y ∈ X
N3) x = 0 ⇔ x = 0
c) Sei X ein K -linearer Raum und
x heißt Norm auf X , wenn gilt.
(positiv homogen)
(Dreiecksungleichung)
(Trennung)
⋅ :X →
Dann heißt ( X , ⋅ ) ein normierter Raum.
+
0
eine Norm auf X .
d) Sei ( X , ⋅ ) ein normierter Raum. Eine Menge Z ⊂ X bzw. eine
eine Funktion f : Y → X mit f (Y ) = Z heißen normbeschränkt, wenn
sup { z : z ∈ Z } < ∞.
Beispiele a.4 normierte Räume:
1)
mit dem Betrag
2)
mit dem
-Betrag
1
3)
n
4)
n
⎛ n
⎞2
mit der euklidischen Norm x := ⎜ ∑ xi 2 ⎟ für x := ( x1 ,..., xn ) ∈ n
⎝ i =1 ⎠
mit der Tschebyscheff-Norm x ∞ := max { xi : i = 1,..., n} für x := ( x1 ,..., xn ) ∈
5) Sei X eine Menge, (Y , ⋅ ) ein normierter
n
-linearer Raum,
⋅ -beschränkten Funktionen f : X → Y . F ist mit der punkt-
F die Menge der
weisen Addition ( f + g )( x ) := f ( x ) + g ( x ) und der punktweisen Skalarenmultiplikation (α f )( x ) := α f ( x ) ein
-linearer Raum. Mit der Tschebyscheff-Norm
f := sup { f ( x ) : x ∈ X } ist F ein normierter Raum.
Definition:
Sei ( X , ⋅ ) ein K -linearer Raum.
⋅
induziert eine Metrik
d ( x, y ) := x − y auf X .
( X , ⋅ ) heißt Banachraum wenn ( X , d ) vollständig ist.
Anmerkung:
d ( x, y ) := x − y = ( x + z ) − ( y + z ) ist translationsinvariant.
Beispiele a.5: Banach-Räume
1)
mit dem Betrag
2)
mit dem
3)
n
mit der euklidischen norm
4)
n
mit der Tschebyscheff-Norm
-Betrag
5) X Menge, (Y , ⋅ ) ein Banach-Raum, F Menge der
⋅ -beschränkten Funktionen f : X → Y .
mit der Tschebyscheff-Norm ist F ein Banach-Raum.
b) Der euklidische Raum
Seien k ∈
als
und
k
k
:= {( x1 ,..., xk ) : xi ∈
-linearer Raum:
für i = 1,..., k }.
k
ist auffassbar
α x := (α x1 ,..., α xk ) bei α ∈
und x := ( x1 ,..., xk ) ∈
x + y := ( x1 + y1 ,..., xk + yk ) bei x, y ∈
Eine algebraische Basis des
k
k
-linearen Raumes ist z.B.
(1,0,...,0); (0,1,0,...,0);....;(0,...,0,1). Seine algebraische Dimension ist k .
Auf dem
-linearen Raum
kann man mehrere Normen betrachten, z.B. die
k
:= max { xi : i = 1,..., k }
Tschebyscheff-Norm:
x
euklidische Norm:
⎛ k
⎞2
x := ⎜ ∑ xi 2 ⎟
⎝ i =1 ⎠
L1 -Norm:
x 1 := ∑ xi
∞
1
k
für x := ( x1 ,..., xk ) ∈
i =1
k
.
Diese Normen induzieren translationsinvariante Metriken, nämlich die
Tschebyscheff-Metrik:
D ( x, y ) := x − y
euklidische Metrik:
d ( x, y ) := d k ( x − y ) := x − y
L1 -Metrik:
δ ( x, y ) := x − y 1
∞
Anmerkung: Offensichtlich sind all diese Metriken äquivalent.
Konventionen:
a) Im folgenden werden wir auf
mit
⋅
k
( - wenn nichts anderes gesagt wird - )
stets die euklidische Norm bezeichnen und die dadurch induzierte
euklidische Metrik d bezeichnen.
b) Für eine in (
k
, d ) gegen ein x ∈
k
konvergente Folge ( xn : n ∈
) schreiben
wir x = lim xn anstelle von x = d − lim xn .
c) Die gewöhnliche Metrik auf
k
soll die euklidische Metrik d sein.
Unter einer Cauchyfolge verstehen wir immer eine d − Cauchyfolge
und unter vollständig stets d − vollständig.
d) Eine Abbildung f :
wenn f : (
k
, dk ) → (
→
k
l
l
(mit l ∈ ) heiße stetig bzw. gleichmäßig stetig,
, δ l ) stetig bzw. f : (
k
, dk ) → (
ist, wobei d k bzw. δ l die euklidische Metrik auf
k
l
, δ l ) gleichmäßig stetig
bzw.
l
ist.
Satz b.1:
Seien ( xn : n ∈
) eine Folge in
x := ( x1 ,..., xk ) ∈
a) lim xn = x
n →∞
) Cauchyfolge
Definition:
mit xn := ( x1n ,..., xkn ) ∈
k
und
. Dann gilt:
⇔ lim xin = xi
n →∞
b) ( xn ∈
k
k
k
C(
,
l
⇔
∀i = 1,..., k
(x
) := { f :
n
i
: n∈
k
→
) Cauchyfolge
l
∀i = 1,..., k
stetig}
Satz b.2:
Mit der punktweisen Skalrenmultiplikation und der punktweisen Addition
(vgl. Beispiel a.5.6) ist C(
k
,
l
) ein
-linearer Raum.
Definition:
a) X ⊂
b) x ∈
k
k
heißt beschränkt, wenn sup { x : x ∈ X } < ∞.
heißt Häufungspunkt einer Folge ( xn : n ∈
wenn gilt: ∀ε ∈
+
∀N ∈
) in
k
,
∃ n > N mit xn ∈ K ( x; ε ).
Satz b.3:
a) Sei ( xn : n ∈
) eine gegen ein x ∈ k konvergente Folge in
Dann ist {xn : n ∈ } ∪ {x} folgenkompakt.
b)
k
k
.
ist vollständig.
c) Satz von Weierstraß:
Ist X ⊂
k
beschränkt, so besitzt jede Folge ( xn : n ∈
einen Häufungspunkt x ∈
k
)
mindestens
.
d) Satz von Heine-Borel:
X⊂
k
folgenkompakt ⇔ X beschränkt und abgeschlossen
§14 Partielle Differentiation
Sei k ∈ und k aufgefasst als -linearer Raum.
⎛ x1 ⎞
x := ⎜⎜ ⎟⎟ ∈ k als Spaltenvektor (d.h. k -zeilige und 1-spaltige Matrix).
⎜x ⎟
⎝ k⎠
Eine algebraische Basis von k ist
⎛1⎞
⎛ 0⎞
⎜ 0⎟
⎜ ⎟
⎜
⎟
, e := ..., .................., ek := ⎜ ⎟
e1 :=
⎜ ⎟ 2
⎜ 0⎟
⎜ ⎟
⎜ ⎟
⎝ 0⎠
⎝ 1⎠
k
Also ist x = ∑ xi ei ; xi ist die i − te Koordinate von x; xi ∈ .
i =1
Schreibweise für Matrizen, vgl. Vorlesung M I B:
x T := ( x1 ,..., xk ) ist die Transponierte zu x.
k
×
k
∋ ( x, y )
k
x, y := x T y := ∑ xi yi euklidisches Skalarprodukt.
i =1
Bei x, y ∈
k
mit y ≠ 0 ist G ( x; y ) := {x + ty : t ∈
} die Gerade durch
x in Richtung y
und G ( x; y) ∋ z = x + ty t ∈ eine bijektive und stetige Abbildung, deren
Umkehrabbildung auch stetig ist.
Allgemeine Voraussetzung: Sei G ⊂ k offen und f : G →
Bez.: f heißt auch Funktion von k Variablen.
Anmerkung: x ∈ G und G offen
⇒ ∃ εy ∈
+
eine Abbildung.
mit x + ty ∈ G ∀ t < ε y
Definition:
a) Seien x ∈ G und y ∈
k
. Dann heißt bei x + ty ∈ G und t ≠ 0
f ( x + ty ) − f ( x )
Differenzenquotient.
t
Im Falle seiner Existenz heißt
∂f
f ( x + ty) − f ( x )
( x ) := D ( f , x, y ) := lim
Differentialquotient oder
t
0
≠
→
0
∂y
t
partielle Ableitung von f in Richtung y.
b) Bei i ∈ {1,..., k } heißt (im Falle seiner Existenz) D ( f , x; ei ) die
partielle Ableitung von f in x nach xi . Es sind die folgenden Schreibweisen üblich:
∂f
( x ) := f xi ( x ) := Dxi f ( x ) := Di f ( x ) := D ( f , x; ei )
∂xi
c) f : G →
heißt partiell differenzierbar, wenn gilt:
∂f
( x ) existiert ∀x ∈ G ∀i ∈ {1,..., k }
∂xi
d) f : G →
f :G →
∂f
:G →
∂xi
heißt stetig partiell differenzierbar, wenn gilt:
ist partiell diffferenzierbar und
mit x
∂f
( x ) ist stetig für i = 1,..., k
∂xi
Interpretation der partiellen Ableitung:
1) partielles Differenzieren bzgl. der i -ten Koordinatenrichtung xi “=“ gewöhnliches
Differenzieren bzgl. der i -ten Koordinate xi und Festhalten der anderen
Koordinaten.
2) D( f ; x, y ) = „Steigung“ von f in x in Richtung y.
z.B. 2 : grafische Darstellung durch Niveaulinien N f (α ) = {z ∈ G : f ( z ) = α }
Satz 1:
Für die partielle Differentiation nach xi ( i fest) gelten die Regeln für die
eindimensionale Differentiation aus §7 (Differentiation), z.B. die Produkt-,
Quotienten- und Kettenregel.
Dabei werden xi als eindimensionale Variable und x j für j ≠ i als Konstante
betrachtet.
Beispiele 1:
1) f ( x ) := γ ∈
∀x ∈ G
D ( f , x ; y ) = 0 ∀ x ∈ G ∀y ∈ k
2) k = 2 und f ( x1 , x2 ) := f1 ( x1 ) f 2 ( x2 ) mit f1 :
→
differenzierbar.
∂f
df
= f 2 ( x2 ) ⋅ 1 ( x1 ) ∀x := ( x1 , x2 ) ∈ G
∂xi
dx1
3) f :
k
→
mit x
x . Dann:
∂f
x
( x) = i
∂xi
x
Zeichnungen zu 3): Bei k = 2 . Niveaulinien sind Sphären
4) Bei k ≥ 2 sei f :
k
→
mit x := ( x1 ,..., xk )T
f ( x ) mit f (0) := 0
k
f ( x ) :=
∏x
i
i =1
x
2k
ist überall partiell differenzierbar nach xi für i = 1,.., k
⎧ ∏ x j 2k ⋅ xi 2 ∏ x j
j ≠i
∂f ⎪⎪ j ≠i 2 k −
für x ≠ 0
2 k +2
=⎨ x
mit
x
∂xi ⎪
⎪⎩0
für x = 0
Aber f ist nicht stetig in 0 := (0,...,0)T .
Partielle Ableitungen sind unbeschränkt.
Warnung: Bei k ≥ 2 folgt aus " f partiell differenzierbar" nicht, dass f stetig ist.
Definition:
a) Induktiv definiert man:
f :G →
1- mal partiell differenzierbar :⇔ f partiell differenzierbar
Sei n ≥ 2 : f : G →
n − mal partiell differenzierbar :⇔
∀ (i1 ,..., in −1 ) ∈ {1,..., k }
n −1
ist f ( i1 ,...,in −1 ) : G →
partiell differenzierbar, wobei
n −1
f ( i ,...,i
1
n −1
( x ) := Di n -1 ( Din -2 (...( Di1 f )...))( x ) =: ∏ Di j f
)
j =1
b) analog: n -mal stetig differenzierbar
c) Folgende Schreibweisen sind üblich:
n
n
∂n f
:= ∏ Dxi f := f xi ,..., xi := ∏ Di j f
j
n
1
∂xin ...∂xi1
j =1
j =1
gemischte partielle Ableitungen
n
∂n f
:
=
Di j f
∏
∂xi n
j =1
bei i j = i für j = 1,.., n
n − te partielle Ableitung nach xi
Beispiel 2: ( f zweimal partiell differenzierbar, aber nicht stetig p. differenzierbar)
Bei k = 2, G :=
2
⎧ x1 ⋅ x2
T
⎪ x 2 + x 2 für ( x1 , x2 ) ≠ 0
und f ( x1 , x2 ) := ⎨ 1
2
⎪0
für ( x1 , x2 )T = 0
⎩
ist f überall zweimal differenzierbar, aber in (0,0)T sind die gemischten zweiten
Ableitungen nicht stetig.
Satz 2:
Seien x ∈ G, f : G →
so dass
partiell differenzierbar und es existiere ein ε ∈
∂f
∂f
,...,
auf K ( x; ε ) beschränkt sind.
∂x1
∂xk
Dann ist f in x stetig.
Satz 3:
Sei f : G →
zweimal stetig partiell differenzierbar. Dann gilt:
∂2 f
∂2 f
=
∀x ∈ G ∀i, j ∈ {1,..., k }
∂xi ∂x j ∂x j ∂xi
+
,
Folgerung 3.1:
Sei f : G →
n − mal stetig differenzierbar. Dann gilt:
n
n
j =1
j =1
∏ Di j f ( x) =∏ Dπ (i j ) f ( x ) ∀x ∈ G ∀π ∈ S(n)
S( n ) := {γ : {1,..., n} → {1,..., n} bijektiv}; π ∈ S( n ) Permutation.
Definition:
a) Sei f : G →
partiell differenzierbar.
grad f ( x ) := ( D1 f ( x ),..., Dk f ( x )) Gradient von f in x
∇f := grad f : G →
k
mit x
grad f ( x ) Gradient von f
∇ := ( D1 ,..., Dk ) Nabla-Operator
T
b) Eine Abbildung V : G →
k
mit x
V ( x ) heißt Vektorfeld.
V ( x ) = (v1 ( x ),..., vk ( x ))T stets mit vi := pri V : G →
c) Ein Vektorfeld V : G →
mit x
k
k
.
V ( x ) := ( v1 ( x ),..., vk ( x ))T heißt
partiell differenzierbar, wenn vi partiell differenzierbar ist für jedes i ∈ {1,..., k }
d) Sei V : G →
k
mit x
V ( x ) := ( v1 ( x ),..., vk ( x ))T ein partiell differenzierbares Vektorfeld.
k
div V ( x ) := ∑ Di vi ( x ) Divergenz von V in x
i =1
k
∇,V := ∑ Di vi ( x ) : G →
Divergenz von V
i =1
e) Sei V : G →
3
wie in d).
rot V ( x ) = ( D2v3 − D3v2 , D3v1 − D1v3 , D1v2 − D2v1 )T
Rotation von V in x.
∇ × V := rot V : G →
f) Sei f : G →
k
mit x
rot V ( x ) Rotationsfeld von V .
zweimal stetig partiell differenzierbar.
k
k
i =1
i =1
∆ f ( x ) := ∑ Di Di f ( x ) = ∑
∆ Laplace-Operator
∂2 f
( x)
∂xi 2
g) Sei f : G →
zweimal stetig partiell differenzierbar und g : G →
eine (z.B. stetige) Abbildung.
∆ f = 0 Potentialgleichung; eine Lösung heißt harmonische Funktion.
∆ f = g Poisson-Gleichung
h) Sei I ⊂
ein Intervall und u : G × I →
mit ( x, t )
u( x, t ). Für jedes t ∈ I sei
u( ⋅ , t ) : G →
zweimal stetig partiell differenzierbar und für jedes x ∈ G sei
u( x, ⋅ ) : I →
nach t einmal bzw. zweimal stetig differenzierbar.
1 ∂u
=∆u
Wellengleichung
c 2 ∂t 2
1 ∂u
=∆u
Wärmeleitungsgleichung
k ∂t
(c ∼ Wellenausbreitungsgeschwindigkeit; k ∼ Temperaturleitfähigkeit)
2
Satz 4:
a) Sind f : G →
und g : G →
partiell differenzierbar, so gilt:
grad ( f ⋅ g ) = g ⋅ grad f + f ⋅ grad g
b) Sind f : U →
(total) differenzierbar und g : G → U ⊂
k
partiell differenzierbar, so gilt:
∂f g
∂g
= f '( g ( x ))
( x ) und grad ( f g ) ( x ) = f '( g ( x )) grad g ( x )
∂xi
∂xi
c) Sei f : G →
partiell differenzierbar in Richtung y für alle y ∈
(Dies ist der Fall, wenn f total differenzierbar ist.) Für y ∈
k
k
.
und x ∈ G gilt dann:
∂f
( x ) = grad f ( x ), y und damit wegen der Schwarzschen Ungleichung:
∂y
∂f
( x ) ≤ grad f bei y ≤ 1
∂y
d) Sind f : G →
partiell differenzierbar und V : G →
k
ein partiell
differenzierbares Vektorfeld, so gilt:
div ( f V ) = grad f , V + f div V
e) Ist f : G →
zweimal stetig partiell differenzierbar, so gilt:
∆ f = div grad f
f) Bei k = 3 und f wie in e) gilt:
rot ( grad f ) = 0
Beispiel 3:
T
⎛ x
x ⎞
x ist grad ( x ) = ⎜ 1 ,..., k ⎟
1) Für G := \ 0 ∋ x
x ⎠
⎝ x
2) Sei G wie in 1) und f : U → differenzierbar mit U ⊂
k
{}
offen. Dann:
T
⎛ x
x ⎞
grad f ( x ) = f ' ( x ) ⋅ ⎜ 1 ,..., k ⎟
x ⎠
⎝ x
x
k −1
3) Sei G wie in 1). Dann: div
=
x
x
Laplace-Operator angewandt auf rotationsymmetrische Funktion;
Newtonsches und logarithmisches Potential
Beispiel 4:
Seien G :=
k
{}
\ 0 , U := \{0} und f : U →
zweimal stetig differenzierbar.
( x ) eine rotationsymmetrische Funktion.
x
Nach Beispiel 3.2 ist grad g ( x ) = f ' ( x ) ⋅
.
x
Dann ist g : G →
g ( x ) := f
mit x
Damit gilt nach Satz 4.e und 4.d, der Produktregel und Beispiel 3.3:
∆f
( x ) = f '' ( x ) + k x− 1 ⋅ f ' ( x )
Bei f ( z ) :=
∆
1
x
k −2
1
z
k −2
und k ≥ 3 bzw. f ( z ) := ln( z ) und k = 2 ergibt sich:
=0
Newtonsches Potential
∆ ln ( x ) = 0
Logarithmisches Potential
Beispiel 5:
Schwingende Seite
Anwendung der Methode der Fourierreihen und der Methode der Trennung der
Variablen zur Lösung einer „eindimensionalen“ Wellengleichung mit „Rand- und
Anfangsbedingungen“ :
Physikalische Situation:
Eine in der x − y -Ebene schwingende homogene Saite ist eingespannt in (0,0) und
(π ,0) . y := u ( x, t ) sei die Auslenkung der Saite an der Stelle x zur Zeit t .
Aus der Physik (z.B. Gerthsen: Physik. Seite 105 f) folgt:
(1)
2
∂ 2u
2 ∂ u
a
=
∂t 2
∂x 2
bei a ∈
„Wellengleichung“
Anmerkung: u( x, t ) = 0 ∀x, t ist eine triviale Lösung von (1).
Die Einspannung der Saite bewirkt :
(2)
u(0, t ) = 0
(3)
u(π , t ) = 0
∀t ∈
+
0
∀t ∈
+
0
„Randbedingungen“
Wir betrachten eine Saite, die am Anfang (t = 0) ausgelenkt wird gemäß:
(4)
u( x,0) = f ( x ) bei f : [0, π ] →
vorgegeben
und bei t = 0 aus der Ruhelage losgelassen wird :
(5)
∂u
( x,0) = 0
∂t
∀x ∈ [0, π ]
(4) und (5) heißen „Anfangsbedingungen“
Mathematisches Problem:
Gesucht ist eine zweimal stetig partiell differenzierbare Funktion, die (1) - (5) erfüllt.
a) Methode der Trennung der Variablen :
u ( x, t ) = X ( x ) ⋅ T (t )
Ansatz:
mit X : [0, π ] →
∀x ∈ [0, π ] ∀t ∈
und T :
+
0
→
+
0
zweimal differenzierbar
Durch Einsetzen in (1) erhält man :
X ( x ) = A cos( µ x ) + B sin( µ x )
T (t ) = C cos( µ at ) + D sin( µ at ) mit A, B, C , D ∈
Aus den Randbedingungen (2) und (3) folgt:
A = 0 und µ ∈
Aus der Anfangsbedingung (5) folgt :
D=0
Die Bedingungen (1) – (3) und (5) werden folgenden Funktionen erfüllt :
u( x, t ) = γ sin( µ x ) cos( µ at )
mit γ ∈
und µ ∈
b) Linearkombinationen und gleichmäßige Konvergenz :
Wegen der Linearität von (1) – (3) und (5) erfüllt dann auch
n
un ( x, t ) := ∑ γ i sin( µi x ) cos( µ at )
i =1
mit γ i ∈ , µi ∈ , n ∈
diese Bedingungen. Wegen der gleichmäßigen Konvergenz der zweiten partiellen
Ableitungen (nach t bzw. x ) bei ∑ γ n µi 2 < ∞ ist nach Satz a.2 in §11 (Taylor- und
n∈
Fourierreihen) dann auch u( x, t ) := lim un ( x, t ) zweimal stetig partiell differenzierbar.
n →∞
Wegen der Linearität von (1) - (3) und (5) ist dann auch
u ( x, t ) eine Lösung von (1) – (3) und (5).
c) Anfangsbedingung und Fourierreihenentwicklung von f :
Aus der Anfangsbedingung (4) folgt für die Lösung
u( x, t ) := ∑ γ n sin( µn x ) cos( µn at )
(#)
mit
n∈
∑γ
n∈
n
µi 2 < ∞, γ n ∈ , µn ∈
von (1) – (3) und (5) dann:
u( x, 0) = ∑ γ n sin( µn x ) = f ( x ) ∀x ∈ [0, π ]
n∈
Für ein f dieser Gestalt ist also ein derartiges u eine Lösung von (1) – (5).
Ist f „geeignet gutartig“ im Sinne der Sätze c.4 oder c.5 in §11, so lässt sich f als
Fourierreihe entwickeln. Da f (0) = 0 und f (π ) = 0 wegen (2) – (4) ist, hat die
Fourierreihe zu f die Gestalt :
f ( x ) = ∑ γ n sin( nx )
n∈
Ist
∑γ
n∈
n
< ∞ und
∑γ
n∈
n
n 2 < ∞, so ist u ( x, t ) := ∑ γ n sin(nx ) cos( n at )
n∈
eine Lösung von (1)-(5). Man kann die Eindeutigkeit der Lösung des Problems (1) –
(5) zeigen
Anmerkung:
µ∈
sind die „Eigenwerte“ des Problems (1) – (3) und (5),
sin( µ x ) cos( µ at ) in (#) sind die „Eigenschwingungen des Problems.
sin( x ) cos( at ) zu µ = 1 heißt „Grundschwingung“.
sin(2 x ) cos(2at ) zu µ =2 heißt „erste Oktav“..
Für µ ≥ 4 heißen sin( µ x ) cos( µ at ) „höhere harmonische Schwingungen“ oder
„Obertöne“.
= Menge der Eigenwerte heißt das „Spektrum“.
beschreibt die „Eigenfrequenzen“.
µ∈
Beispiel 6: Wärmeleitung in einem Stab
Wiederum Anwendung der Methode der Fourierreihen und der Methode der
Trennung der Variablen zur Lösung einer „eindimensionalen“ WärmeleitungsGleichung mit „Rand- und Anfangsbedingungen“:
Physikalische Situation:
Ein homogener Stab ist zwischen x = 0 und x = π eingespannt.
Er sei völlig isoliert im Bereich 0 < x < π und an den Endpunkten x = 0 und x = π
auf konstanter Temperatur (z.B. = 0 ) gehalten.
u ( x, t ) sei die Temperatur an der Stelle x zur Zeit t
0 ≤ x ≤ π und t ∈
+
0
Aus der physikalischen Theorie der Wärmeleitung folgt :
(1)
∂u
∂ 2u
= a2 2
∂t
∂x
bei a ∈
„Wärmeleitungsgleichung“
Das betrachtete System hat die Randbedingungen :
(2)
u(0, t ) = 0
(3)
u(π , t ) = 0
∀t ∈
+
0
∀t ∈
+
0
„Randbedingungen“
Außerdem soll der Stab am Anfang ( t = 0 ) eine vorgegebene Wärme f ( x ) am Ort x
zur Zeit t = 0 haben, was zu der Anfangsbedingung
(4)
u ( x, 0) = f ( x )
bei f : [0, π ] →
mit f (0) = 0 = f (π ) vorgegeben
Mathematisches Problem:
Gesucht ist einmal stetig nach t und zweimal stetig nach x partiell differenzierbare
Funktion u : [0, π ] × +0 → mit ( x, t ) u( x, t ), die die Bedingungen (1) – (4) erfüllt.
Wie im Beispiel 5 wird f als „geeignet gutartig“ vorausgesetzt. Wie im Beispiel 5
gelangt man auch hier mit der Methode der Trennung der Variablen zur Lösung:
u ( x, t ) = X ( x ) T (t )
Ansatz:
mit X : [0, π ] →
und T :
+
0
→
∀x ∈ [0, π ] und ∀t ∈
+
0
zweimal differenzierbar
einmal differenzierbar
X '' T '
= 2 =: −λ 2 mit λ ∈
X
aT
Analog wie im Beispiel 5 zeigt man damit:
ergibt:
Jede nichttriviale Lösung von (1) in faktorisierter Form, welche (2) und (3) erfüllt, hat
die Form:
γ sin(nx ) exp( − n 2 a 2t )
mit γ ∈
und n ∈
Mit den gleichen Konvergenzüberlegungen und mit (4) zeigt man:
Ist f „geeignet gutartig“ (wie in Beispiel 5 präzisiert), so existiert eine Lösung
u( x, t ) := ∑ γ n sin( nx ) exp( − n 2 a 2t ) des Problems (1) – (4), wobei γ n die Fouriern∈
koeffizienten zu u( x, 0) = f ( x ) = ∑ γ n sin( nx ) sind.
n∈
Beispiel 7:
Wärmeleitung – Gaußverteilung
⎛− x 2⎞
Sei k ∈ und u : ×
→ mit ( x, t ) u( x, t ) := t exp ⎜
⎟
⎜ 4t ⎟
⎝
⎠
Dann ist u (und α ⋅ u für α ∈ ) eine Lösung der Wärmeleitungsgleichung:
k
d.h.
∂u
= ∆x u
∂t
+
0
−
k
2
Beweis:
⎛ x 2 ⎞ −k x 2
⎛ x2⎞
k − k2 − 1
∂ u( x, t )
2
=− t
⋅ exp ⎜ −
exp ⎜ −
⎟+t
⎟
2
⎜ 4t ⎟
⎜ 4t ⎟
t
∂t
2
4
⎝
⎠
⎝
⎠
⎛ x2⎞ ⎛ 1
1 − k2 − 1
2
⎞
x −k⎟
= t
exp ⎜ −
⎟ ⎜
⎜ 4t ⎟ ⎝ 2t
2
⎠
⎝
⎠
∂ x
Sei i = {1,..., k }. Beachte x = x + ... + xk , also
∂xi
2
2
1
2
2
= 2 xi
⎛ x2⎞
⎛ x2⎞
1 − k2 − 1
∂ u( x, t ) − k2 ⎛ xi ⎞
⋅ xi ⋅ exp ⎜ −
= t ⎜ − ⎟ exp ⎜ −
⎟=− t
⎟
⎜ 4t ⎟
⎜ 4t ⎟
∂xi
2
⎝ 2t ⎠
⎝
⎠
⎝
⎠
⎛ x2⎞
⎛ x 2 ⎞⎤
∂ 2 u ( x, t )
1 − k2 − 1 ⎡
⎛ xi ⎞
=− t
⎢ exp ⎜ −
exp ⎜ −
⎟+ x −
⎟⎥
⎜ 4t ⎟ i ⎝⎜ 2t ⎠⎟
⎜ 4t ⎟ ⎥
∂xi 2
2
⎢⎣
⎝
⎠
⎝
⎠⎦
⎛ x 2 ⎞⎡ 1 2 ⎤
1 − k2 − 1
= t
x − 1⎥
exp ⎜ −
⎟
⎜ 4t ⎟ ⎢⎣ 2t i
2
⎦
⎝
⎠
k
∆ x u( x, t ) = ∑
i =1
∂ u ( x, t ) 1
= t
∂xi 2
2
2
k
− −1
2
⎡
⎤
k
k
⎢
⎥
⎛ x ⎞ 1
exp ⎜ −
⎟ ⋅ ⎢ ∑ xi 2 − ∑1⎥ q.e.d.
⎜ 4t ⎟ ⎢ 2t i =1
i =1 ⎥
⎝
⎠
2
k ⎥
⎢⎣
x
⎦
2
§15 Totale Differentiation
Es gelten die Voraussetzungen und Bezeichnungen von §14; insbesondere ist k ∈ ,
∂f
G ⊂ k offen, f : G → k und Di f := Dxi f :=
.
∂xi
k
Es ist x, y := x, y k := ∑ xi yi das Skalarprodukt von x := ( x1 ,..., xk )T ∈
k
und
i =1
y := ( y1 ,..., yk )T ∈
k
und x := ( x, x
)
1
2
die Norm von x.
Definition:
Sei f : G →
k
eine Funktion und x ∈ G. Dann heißt f (total) differenzierbar in x , wenn gilt:
∃ c ∈ k und ∃ Funktion ϕ : U →
i) ϕ ( x ) = lim ϕ ( y ) = 0
mit x ∈ U ⊂ G offen mit
y→ x
ii)
f ( y ) = f ( x ) + c , y - x + y - x ϕ ( y ) ∀y ∈ U
Anmerkung: vgl.Satz 1.c in §7
f ( x ) + c, y − x
a) f wird approximiert durch die affine Funktion y
b) Die Funktion
k
∋y
ist linear und stetig mit λ ( x ) = 0
λ ( y ) := c, y − x k ∈
Darum sind dann auch
k +1
∋ z := ( y , r ) π 1k ( z ) := y ∈
k
k +1
∋ z := ( y , r )
γ ( z ) := λ (π 1k ( z )) := λ ( y ) ∈
k +1
∋ z := ( y , r )
π k +1 ( z ) := r ∈
und
∋ z := ( y , r ) ε ( z ) := π k +1 ( z ) − λ (π 1k ( z )) ∈
stetige lineare Funktionen;
k +1
also existiert ein z ∈
{z ∈
{z ∈
in
k +1
k +1
k +1
k +1
mit ε ( z ) = z, z
k +1
: ε ( z ) = 0} ist eine Hyperebene in
: ε ( z ) = f ( x )} = {( y , f ( x ) + λ ( y ) ) ∈
für alle z ∈
k +1
.
k +1
k +1
: y∈
k
} ist eine affine Hyperebene
.
{( y, f ( x) + c, y − x ) ∈
( x, f ( x )) an Fläche {( y , f ( y ) ) ∈
c) k = 2 :
3
3
: y∈
: y∈
2
2
}
} ist die Tangentialebene im Punkt
Beispiel 1:
Partiell differenzierbare, aber nicht stetige, nicht stetig partiell differenzierbare und
nicht total differenzierbare Funktion:
2
∋ ( x, y )
xy
⎧
für ( x, y ) ≠ (0,0)
⎪ 2
f ( x, y ) := ⎨ x + y 2
⎪0
für ( x, y ) = (0,0)
⎩
Satz 1:
Ist f : G →
(total) differenzierbar, so gilt:
a) Es existieren alle partiellen Ableitungen von f in x.
Bei ci := Di f ( x ) erfüllt c := ( c1 ,..., ck )T die Eigenschaft der Definition.
Es ist c = grad f ( x )
b) f ist in jeder Richtung y ∈
k
differenzierbar und es gilt:
∂f
( x ) = grad f ( x ), y
∂y
c) Lokale Lipschitz-Stetigkeit:
∃ x ∈ U ⊂ G offen und ∃ γ ∈
+
f ( x ) − f ( y ) ≤ γ x − y ∀y ∈ U
Satz 2:
Ist f : G →
in x ∈ G (total) differenzierbar, so ist f stetig in x.
Satz 3:
Ist f : G →
partiell differenzierbar und sind alle partiellen Ableitungen Di f ( x ) in x stetig,
so ist f in x (total) differenzierbar.
Definition:
Seien k , l ∈ , x0 ∈ G ⊂
x
offen. Weiter sei V : G →
k
l
ein Vektorfeld mit
V ( x ) := ( v1 ( x ), vl ( x ))T .
Dann heißt V (total) differenzierbar in x0 ∈ G , wenn alle vi : G →
in x0
(total) differenzierbar sind.
Satz 4:
Seien k , l ∈ , x ∈ G ⊂
ξ
k
offen. Weiter sei V : G →
l
ein Vektorefeld mit
V (ξ ) := ( v1 (ξ ),..., vl (ξ ))T . Dann gilt:
a) V (total) differenzierbar in x ⇔
∃ l × k Matrix A := ( aij ) und eine Abbildung Φ : U →
U von x in G mit lim Φ ( y ) = Φ ( x ) = 0 und
y→ x
V ( y ) = V ( x ) + A( y − x ) + y − x Φ ( y ) ∀y ∈ U
l
in einer offenen Umgebung
b) Ist V = ( v1 ,..., vl )T (total) differenzierbar in x, so gilt:
Zu vi ∃ x ∈ U i ⊂ G offen, c ( i ) ∈
k
und ϕi : U i →
geeignet mit
vi ( y ) = vi ( x ) + c ( i ) , y − x + y − x ϕ i ( y ) ∀y ∈ U i
∀y ∈ U := ∩U i ∀i ∈ {1,..., l } und für A = ( aij ) und Φ aus a) gilt:
l
i =1
( a ) = D v ( x ) und Φ = (ϕ ,...,ϕ )
ij
1
j i
l
(i ist Zeilenindex; j ist Spaltenindex)
Definition:
Sei V :
k
⊃G→
l
mit x := ( x1 ,..., xk )
V ( x ) := ( v1 ( x ),..., vl ( x ))T
(total) differenzierbar. Dann heißt:
dV
∂ ( v1 ,..., vl )
( x ) := D V ( x ) := J V ( x ) :=
:= ( Di v j ( x ) )i =1,...,l
dx
∂ ( x1 ,..., xk )
j =1,...,k
die Jacobische Funktionalmatrix; sie wird auch als das (totale) Differential von V in x
bezeichnet.
(i ist Zeilenindex; j ist Spaltenindex)
Bei k = l heißt die Determinante det ( JV ( x ) ) von JV ( x ) die Jacobische Funktionaldeterminante.
Beispiel 2: Polarkoordinatentransformationen; vgl. Übungen
Satz 5:
(Kettenregel)
Seien k , l , m ∈ , U ⊂
f :V →
m
k
und V ⊂
l
. Weiter seien g : U →
l
und
Abbildungen mit g (U ) ⊂ V .
Ist g in x ∈ U und f in y := g ( x ) differenzierbar, so ist f g : U →
differenzierbar und es gilt:
dg
df g
df
( x) =
( g ( x )) ⋅ ( x )
dx
dx
dy
wobei " ⋅ " die Matrizenmultiplikation ist.
m
in x
Folgerung 5.1:
Sei m = 1 und g : U →
l
mit x
g ( x ) := ( g1 ( x ),..., gl ( x ))T und f : V →
mit g (U ) ⊂ V wie oben.
Ist g in x ∈ U und f in y := g ( x ) differenzierbar, so ist h := f g : U →
differenzierbar und es gilt:
in x
l
∂g j
dh
∂f
( x ) und
( x) = ∑
( g ( x ))
∂xi
∂xi
j =1 ∂y j
⎛ ∂h
⎞
dh
∂h
( x) = ⎜
( x ),...,
( x) ⎟
dx
∂xk
⎝ ∂x1
⎠
Satz 6: (Mittelwertsatz)
Seien G ⊂
k
offen und x, y ∈ G und es liege die Verbindungsstrecke
xy := {x + α ( y − x ) : 0 ≤ α ≤ 1} von x nach y ganz in G. Dann gilt:
in ganz G differenzierbar, so existiert ein ϑ ∈ ( 0,1) mit
a) Ist f : G →
f ( y ) − f ( x ) = grad ( f ( x + ϑ ( y − x )), y − x
und es ist
1
∫ grad ( f ( x + α ( y − x)) dα , y − x
f ( y ) − f ( x) =
0
b) Ist F : G →
l
mit x
F ( x ) := ( f1 ( x ),..., f l ( x ))T in ganz G differenzierbar, so ist
1
dF
( x + α ( y − x )) dα ⋅ ( y − x )
dx
0
F ( y) − F ( x) = ∫
Dabei werden Integrale über matrix-wertige Funktionen:
t → A(t ) := ( aij (t ) )i =1,...,l komponentenweise verstanden:
j =1,...,k
⎛1
⎞
A
(
t
)
dt
=
⎜ ∫ aij (t ) dt ⎟
∫0
l
⎝0
⎠ij==1,...,
1,...,k
1
Definition:
Seien G ⊂
k
und n ∈ . Die Abbildung f : G →
heißt n -mal stetig differenzierbar
[in x ∈ G ], wenn sie n − mal stetig partiell differenzierbar [in x ∈ G ] ist.
Anmerkung: vgl. Satz 1.a und Satz 3.
Bemerkung:
f :G →
ist genau dann 1 − mal stetig differenzierbar, wenn für jedes y ∈
die Richtungsableitung
k
∂f
existiert und stetig ist.
∂y
Erinnerung an Taylorformel (Satz 6.b in §7): ….
Satz 7:
(Taylorformel)
Seien G ⊂
k
offen, x := ( x1 ,..., xk )T und y := ( y1 ,..., yk )T aus G mit x ≠ y
und xy := {x + t ( y − x ) : 0 ≤ t ≤ 1} ⊂ G.
a) Bei ϕ : [0,1] →
mit t
ϕ (t ) := f ( x + t ( y − x )) gilt:
ϕ (0) = f ( x ) und ϕ (1) = f ( y ).
b) Ist f : G →
(n + 1) − mal stetig differenzierbar, so ist ϕ : [0,1] →
( n + 1) − mal stetig differenzierbar und es gilt nach der Taylorformel (§7, Satz 6.b):
Es existiert ein ϑ ∈ ( 0,1) mit
1
ϕ (ν ) (0) ν
1 +
ϕ ( n +1) (ϑ ) 1n +1
( n + 1)!
ν!
ν =1
n
(T1) ϕ (1) = ϕ (0) + ∑
c) Für s ∈ [0,1] und 1 ≤ ν ≤ n + 1 ist
ϕ (ν ) ( s ) =
∑
ν
( i1 ,...,iν )∈{1,...,k }
=
∂ν f ( x + s( y − x ))
∂xi1 ...∂xiν
⎛ ν
Dxi
∑ ν ⎜∏
µ
=
µ
1
( i1 ,...,iν )∈{1,...,k } ⎝
⎞
f ⎟( x + s( y − x ))
⎠
ν
(y
∏
µ
=1
iµ
− xiµ )
iµ
− xiµ )
ν
(y
∏
µ
=1
=: [( y − x ) ⋅ grad f ] ( x + s( y − x )) und damit
ν
n
(T2) f ( y ) = f ( x ) + ∑
ν =1
[( y − x ) ⋅ grad f ]ν ( x ) + [( y − x ) ⋅ grad f ]n+1
ν!
( n + 1)!
( x +ϑ ( y − x ))
Definition:
Seien k ∈
und z := ( z1 ,..., zk )T ∈
k
k
k
. Für α := (α1 ,..., α k ) ∈
k
k
0
seien
k
α := ∑ αi , α !:=∏ (α i !) , zα := ∏ ziα und Dα := ∏ ( Dx )α bei ( Dx )α := Dx ...Dx =
i
i =1
Anmerkung:……
i =1
i =1
i
i =1
i
i
i
i
αi − mal
i
∂ αi
∂xiαi
Folgerung 7.1:
Mit den Voraussetzungen und Bezeichnungen von Satz 7 gilt:
ν! α
ν
ϕ (ν ) ( s ) =
D f ( x + s( y − x )) ⋅ ( y − x )α = [( y − x ) ⋅ grad f ] ( x + s( y − x ))
∑
α∈ 0k mit α =ν α !
und damit
n
(T3) f ( y ) = f ( x ) + ∑
ν =1
α∈
∑
k
0
mit α =ν
Dα f ( x )
⋅ ( y − x )α +
α!
α∈
∑
k
0
mit α =ν
Dα f ( x + ϑ ( y − x ))
⋅ ( y − x )α
α!
Spezialfälle: n = 1 und n = 2
Rechenbeispiel:
Berechnen Sie für
x− y
die Taylorentwicklung im Punkt (1,1)
x+ y
bis einschließlich der Glieder 2.Ordnung.
f : ( 0, ∞ ) × ( 0, ∞ ) →
mit f ( x, y ) =
Es gibt ein ϑ ∈ ( 0,1) , so dass ( x, y ) ∈ ( 0, ∞ ) × ( 0, ∞ )
2
f ( x, y ) = f (1,1) + ∑
∑
ν =1 (α1 ,α 2 )∈ 0 ×
mit α1 +α 2 =ν
0
⎞
1
∂α1 ⎛ ∂α2
f (1,1) ⎟ ⋅ ( x − 1)α1 ( y − 1)α2 +
α1 ⎜
α2
α1 !α 2 ! ∂x ⎝ ∂y
⎠
g ( x, y )
+
∑
(α1 ,α 2 )∈ 0 ×
mit α1 +α 2 =3
0
∂α1
1
α1 !α 2 ! ∂xα1
⎛ ∂α2 ⎛ ⎛ 1⎞
⎛ x − 1⎞ ⎞ ⎞
α1
α2
⎜⎜ α2 f ⎜ ⎜ ⎟ + ϑ ⎜
⎟ ⎟ ⎟⎟ ( x − 1) ( y − 1)
−
1
1
y
∂
y
⎝
⎠⎠⎠
⎝⎝ ⎠
⎝
∂f
∂f
∂2 f
1 ∂2 f
2
g ( x, y ) =
(1,1) ( x -1) + (1,1) ( x -1) + ⋅ 2 (1,1) ( x -1) +
(1,1) ( x − 1)( y − 1) +
∂x
∂y
∂x∂y
2 ∂x
1 ∂2 f
+ ⋅ 2 (1,1) ( y -1) 2
2 ∂y
mit
∂f
2y
( x, y ) =
∂x
( x + y )2
∂2 f
−4 y
( x, y ) =
2
∂x
( x + y )3
∂f
−2 x
( x, y ) =
∂y
( x + y )2
∂2 f
2( x − y )
( x, y ) =
∂x∂y
( x + y )3
Auswertung dieser Funktionen an (1,1) führt zu:
g ( x, y ) = x − y −
1 2 1 2
x + y
4
4
∂2 f
4x
( x, y ) =
2
∂y
( x + y )3
Definition:
H f , x := ( hij )i =1,...,k bei hij :=
j =1,...,k
Anmerkung:
∂2 f
( x ) Hesse'sche Matrix von f in x.
∂xi ∂x j
∂2 f
( yi − xi )( y j − x j ) = H f , x ( y − x ),( y − x )
∑
i =1 ∂xi ∂x j
k
j =1
§16 Anwendung: lokale Extrema
Der Einfachheit wegen: k = 2
⎛ x⎞
ξ := ( x, y )T := ⎜ ⎟ , η := (u, v )T ∈
⎝ y⎠
2
Spaltenvektoren mit x, y , u, v ∈
und
1
euklidischer Norm ξ := ( x 2 + y 2 ) 2 und euklidischem Skalarprodukt ξ ,η := ξ Tη = xu + yv.
Totale Differenzierbarkeit:
Seien G ⊂
×
offen, η := (u, v )T ∈ G und f : G →
mit ξ := ( x, y )T
eine reelwertige Funktion auf der offenen Teilmenge G von
f (ξ )
× .
Dann heißt f in η (total) differenzierbar, wenn gilt:
Es existieren eine (kleine) Umgebung U von 0 := (0,0)T ∈ × , eine (durch eine
zweizeilige und einspaltige 2 × 1 Matrix mit reellen Koeffizienten bi darstellbare)
lineare Abbildung B : × → und eine Funktion ψ :U → mit
ψ (ξ )
→ 0 für 0 ≠ ξ ∈ U und ξ → 0 und (D1)
ξ
f (η + ξ ) = f (η ) + B(ξ ) + ψ (ξ )
(D2)
Anmerkungen:
a) Für ξ ≠ 0 ist ξ ≠ 0
b) Uη := η + U := {η + ξ : ξ ∈ U } ist eine Umgebung von η .
c) {ξ ∈
×
: ξ < ε } offene Kreisscheibe um 0 mit Radius ε ist für jedes ε > 0 eine
Umgebung von 0 .
d) Wir schreiben hier der Bequemlichkeit halber Vektoren als transponierte Zeilenvektoren.
e) Eine 2 × 1 Matrix B mit reellen Koeffizienten ist ein Vektor
β := (b1 , b2 )T ∈ × . Es ist also B = β = (b1 , b2 )T .
f) (D1) bedeutet:
Für alle ε > 0 existiert ein δ > 0 mit
ψ (ξ )
< ε für ξ ∈ U mit ξ ≠ 0 und ξ < δ .
ξ
g) Vergleich mit §15 (mit x, y und c statt den dortigen x, y und c ):
k = 2, x = η , y = η + ξ , c, y − x = B (ξ ) und ϕ (y) y − x = ψ (ξ )
Interpretation:
Der Graph der Funktion f ist eine (eventuell gekrümmte) „Fläche“ über dem
Definitionsbereich G von f .
Die Funktion g : Uη →
mit ξ
g (ξ ) := f (η ) + B(ξ − η ) stellt eine Tangentialebene an
die durch f definierte Fläche im „Punkt f (η ) über η “ (genauer: in
( η , f (η ) ∈ ( × ) × )) dar.
g ist ein Polynom ersten Grades in x und y mit einem konstanten Term f (η ) .
Totale Differenzierbarkeit von f in einem Punkt η bedeutet, dass die durch f
definierte Fläche im Punkt f (η ) auf der Fläche (über η ) lokal durch eine Ebene
approximiert werden kann. Diese approximierende ebene Fläche wird die durch g
beschriebene affine Ebene gegeben.
Die Funktion ψ beschreibt den Fehler der Approximation von f in der Umgebung
Uη von η durch g . Die Bedingung (D1) sagt, dass dieser Fehler schneller als ξ
gegen Null geht.
Für ξ := 0 ist B (ξ ) = 0 und damit g (η ) = f (η ). Wegen (D2) ist dann auch ψ (ξ ) = 0.
Die lokale Approximation einer total differenzierbaren Funktion auf (einer
Teilmenge von) × durch eine Ebene entspricht der lokalen Approximation einer
differenzierbaren Funktion auf
durch eine Gerade. Eine Gerade wird durch ein
Polynom ersten Grades beschrieben.
Differenzierbarkeit hat etwas mit Glattheit zu tun. Ist eine Funktion sogar zweifach
differenzierbar, so ist sie noch glatter. Je glatter eine Funktion ist, desto besser lässt
sie sich durch Polynome approximieren.
Eine zweimal differenzierbare Funktion auf kann man nicht nur durch eine
Gerade, sondern durch eine Parabel (Polynom zweiten Grades) lokal approximieren.
Diese lokale Approximation mit einer Parabel kann besser gemacht werden, d.h. der
Fehler kann kleiner sein, also schneller gegen Null gehen.
Die approximierende Parabel kann man mit Hilfe der Taylorentwicklung (für
Funktionen auf ) finden.
Analog ist das für auf
×
definierte Funktionen; vgl. Hilfssatz 2.
Extremwerte:
Eine notwendige Bedingung dafür, dass x lokaler Extremwert einer differenzierbaren reelwertigen Funktion g : U → auf einer offenen Teilmenge U von
ist, ist das Verschwinden der Ableitung in x , d.h. g '( x ) = 0 . Diese Bedingung ist aber
bekanntlich nicht hinreichend. Ist g sogar zweimal stetig differenzierbar, so kann
man durch Ausrechnen der zweiten Ableitung von g in x feststellen, ob g in x ein
lokales Maximum (bei g ''( x ) < 0 ) oder ein lokales Minimum (bei g ''( x ) > 0 ) hat.
(Bei g ''( x ) = 0 ) ist keine Aussage über Extrema möglich: g ( x ) := ± x 4 hat in 0
Minimum bzw. Maximum; g ( x ) := x 3 hat in 0 einen Wendepunkt und kein
Extremum.
Ganz analog ist dies bei einer reellwertigen Funktion f auf einer offenen Teilmenge
U von
k
. Auch hier sei der Einfachheit wegen wieder k = 2.
Sei U ⊂ × offen und f : U → eine Funktion. Die Funktion f hat in ξ ∈ U ein
lokales Maximum, wenn eine offene Umgebung V mit ξ ∈V ⊂ U existiert mit
f (ξ ) ≥ f (η ) für alle η ∈V . Analog ist ein lokales Minimum definiert.
Hat f in ξ ∈ U ein solches lokales Extremum und gilt “ f (ξ ) = f (η ) nur für η = ξ für
alle η ∈ W für eine offene Umgebung W mit ξ ∈ W ⊂ V “, so hat f in ξ ein isoliertes
lokales Extremum.
Zunächst gilt in Verallgemeinerung von Satz a.2., Teil a und b in §8 bei (partieller)
Differenzierbarkeit von f über eine notwendige Bedingung für ein Extremum
von f :
Satz 1:
Sei U ⊂
×
offen und f : U →
(nur) partiell differenzierbar.
Hat f in ξ ∈ U ein lokales Extremum, so gilt:
grad f (ξ ) = 0
Beweis:
Zunächst existiert wegen der Offenheit von U ein ε > 0 mit K (ξ ; ε ) ⊂ U .
Wegen der partiellen Differenzierbarkeit von f ist für i = 1, 2 und den i − ten
Einheitsvektor ei dann
gi : ( −ε , +ε ) →
mit t
gi (t ) := f (ξ + t ei ) differenzierbar und (*) gi '(0) = Di f (ξ ).
Hat f in ξ ein lokales Extremum, so hat gi in 0 ein lokales Extremum.
Nach Satz a.2 in §8 gilt dann gi '(0) = 0
Also gilt wegen (*): grad f (ξ ) = 0 .
Diese notwendige Bedingung für ein lokales Extremum wird in enger Analogie zum
Fall von auf definierten Funktionen auch im Fall von den hier betrachteten
Funktionen von mehreren Veränderlichen ergänzt durch ein hinreichendes Kriterium. Wie im Satz a.2, Teil c und d, in §8 wird auch hier dazu im nachfolgenden
Satz 2 die zweimalige (stetige totale) Differenzierbarkeit gebraucht.
Seien G ⊂
f :G →
×
offen und
mit ξ := ( x, y )T
f (ξ ) zweimal stetig differenzierbar.
Die partiellen Ableitungen von f nach x bzw. nach y in ξ := ( x, y )T werden mit
f x (ξ ) bzw. f y (ξ ) bezeichnet.
Da f zweimal stetig differenzierbar ist, ist f in ξ ∈ G zweimal stetig partiell differenzierbar
und es gilt f xy (ξ ) = f yx (ξ ) für alle ξ ∈ G.
(1)
⎛ f xx (ξ )
H f ,ξ := Hess f (ξ ) := ⎜
⎝ f yx (ξ )
(2)
f xy (ξ ) ⎞
die Hessesche Matrix von f in ξ .
f yy (ξ ) ⎟⎠
Wegen (1) ist die Hessesche Matrix von f in ξ symmetrisch für alle ξ ∈ G .
Eine 2 × 2 − Matrix A mit reellen Koeffizienten aij für i, j = 1, 2 heißt symmetrisch,
wenn gilt: aij = a ji für i, j = 1, 2.
Eine symmetrische 2 × 2 − Matrix A mit reellen Koeffizienten aij für i, j = 1, 2 heißt
positiv definit (bzw. negativ definit), wenn gilt:
ξ , A(ξ ) > 0 (bzw. ξ , A(ξ ) < 0) für alle ξ ∈ × mit ξ ≠ 0.
Dabei ist A(ξ ) := Aξ := ( a11 x + a12 y , a21 x + a22 y )T ∈ ×
(Die Multiplikation der 2 × 2 − Matrix A und der 2 × 1 − Matrix ξ ist wie üblich als
„Addition: Zeile mal Spalte“ auszuführen.)
Eine solche Matrix A heißt indefinit, wenn gilt:
A ist nicht positiv definit und nicht negativ definit; d.h.
∃ ξ ∈ × mit ξ , A(ξ ) > 0 und ∃ η ∈ × mit η , A(η ) < 0
Hilfssatz 1:
Eine symmetrische reelle 2 × 2 − Matrix A ist genau dann positiv definit, wenn eine
der folgenden Eigenschaften gilt:
a) Alle (wegen der Symmetrie bekanntlich reelle) Eigenwerte λ1 und λ2 von A
sind positiv.
(4)
b) Hurwitz-Kriterium:
a11 > 0 und det A > 0, wobei det A = a11a22 − a12a21
(5)
Beweis: a) z.B. G.Fischer, Lineare Algebra, Kor.6.7.2, S.214
a) und b): F.E.Hohn, Elementary Matrix Algebra, Sec. 9.14, S.256 ff.
Hilfssatz 2:
Für eine zweimal stetig differenzierbare Funktion f existiert zu jedem η ∈ G
eine (kleine) Umgebung U von 0 = (0,0)T ∈
ϕ :U →
mit
×
und eine Funktion
ϕ (ξ )
→ 0 für ξ ≠ (0,0)T und ξ → 0
2
ξ
(6)
und
1
ξ , A(ξ ) + ϕ (ξ )
2
wobei α := grad f (η ) := ( f x (η ), f y (η )) ∈ ×
f (η + ξ ) = f (η ) + α , ξ +
(7)
der Gradient von f in η und
A := Hess f (η ) die Hessesche Matrix von f in η sind.
Dieser Hilfssatz folgt aus der Taylor-Entwicklung von f um η (Satz 7, §15).
Interpretation:
α im Hilfssatz 2 ist das B aus der Definition der totalen Differenzierbarkeit.
Das ψ aus der Definition der totalen Differenzierbarkeit ist hier wählbar als:
1
ψ (ξ ) = ξ , A(ξ ) + ϕ (ξ )
2
Durch Ausrechnen erkennt man:
1
ξ := ( x, y )T
P(ξ ) := f (η ) + α , ξ + ξ , A(ξ ) ist ein Polynom zweiten Grades in
2
x und y. P beschreibt eine zweidimensionale Parabelfläche, die im Punkt f (η ) über
η die durch f gegebene Fläche „tangential“ berührt.
Die Aussage (7) des Hilfssatzes 2 besagt, dass die zweimal stetig differenzierbare
Funktion f in η durch das Polynom P (mit einem konstanten Term f (η ) )
approximiert wird.
Die Approximation von f in η durch P hat den Fehler ϕ aus (6) im Hilfssatz 2.
Dieser Fehler geht schneller als ξ
2
gegen Null. Damit geht dieser Fehler schneller
gegen Null als der Fehler ψ in der Definition der totalen Differenzierbarkeit, der nur
schneller als ξ gegen Null geht.
Der mit Hilfe der zweiten partiellen Ableitungen gebildete Term
1
ξ := ( x, y )T
ξ , A(ξ ) bringt also eine (lokale) Verbesserung der Approximation
2
von f in η.
Mit dem auf der Taylorentwicklung beruhenden Hilfssatz 2 und einigen weiteren
(im Beweis hervorgehobenen) Sätzen kann man nun den folgenden Satz beweisen:
Satz 2:
Seien G ⊂
×
offen, f : G →
zweimal stetig differenzierbar, η ∈ G und
grad f (η ) = 0. Dann gilt:
a) Ist Hess f (η ) positiv definit (bzw. negativ definit), so hat f in η ein
isoliertes lokales Minimum (bzw. Maximum)
b) Ist Hess f (η ) indefinit, so besitzt f in η kein lokales Extremum.
Beweis von a):
Wegen grad f (η ) = (0,0)T = 0 gilt grad f (η ), ξ = 0 und damit nach dem
Hilfssatz 2 mit den dortigen Bezeichnungen:
Es existieren eine Umgebung U von 0 = (0,0)T und eine Funktion
ϕ :U →
mit
ϕ (ξ )
→ 0 für ξ ≠ (0,0)T und ξ → 0
2
ξ
f (η + ξ ) = f (η ) +
(6*) und
1
ξ , A(ξ ) + ϕ (ξ )
2
(7*)
Wegen (6*) gilt:
Zu jedem ε > 0 exisitiert ein δ > 0 mit ϕ (ξ ) ≤ ε ξ
2
für ξ < δ . (8)
Sei A := Hess f (η ) positiv definit. Wir zeigen nun die Existenz eines
lokalen Minimums. (Andernfalls betrachte man die Funktion − f
anstelle der Funktion f . Ein Minimum für − f ist ein Maximum für f .
Hess ( − f )(η ) = − Hess f (η ).)
1) Die Sphäre S := {ξ ∈
×
: ξ = 1} mit Radius 1 um 0 in
×
ist abgeschlossen und beschränkt und damit nach dem Satz von Heine-Borel
(Satz b.3.d, §13) auch (folgen-)kompakt.
Auf einer (folgen-)kompakten Menge nimmt jede stetige reelle Funktion ihr
Minimum (und ihr Maximum) an (Satz a.4.c, §13). Da die Funktion:
S ∋ξ
ξ , A(ξ ) ∈
wegen ξ , A(ξ ) = x ( a11 x + a12 y ) + y ( a21 x + a22 y ) mit ξ := ( x, y )T
stetig ist, nimmt diese auf S ihr Minimum an, d.h.
es existiert ein κ ∈ S mit c := κ , A(κ ) = inf { ξ , A(ξ ) : ξ ∈ S }. (9)
Da A positiv definit und 0 := (0,0)T ∉ S , ist ξ , A(ξ ) > 0 für alle ξ ∈ S .
Wegen (9) gilt dann:
c>0
(10)
2) Wir zeigen: ξ , A(ξ ) ≥ c ξ
2
für alle ξ ∈
×
(11)
Fall: "ξ = (0,0)T " klar (beide Seiten von (11) sind 0)
Fall: "ξ ≠ (0,0)T " : (Dann ist ξ ≠ 0)
Seien k :=
1
ξ
und σ := kξ . Dann ist σ ∈ S . Wegen (10) und (9) gilt dann:
σ , A(σ ) ≥ c
Damit folgt (A ist linear, ...,... ist bilinear):
σ , A(σ ) = kξ , k A(ξ ) = k 2 ξ , A(ξ ) =
1
ξ
2
ξ , A(ξ )
Also gilt (11).
c
3) Wir setzen nun ε := . Dann folgt aus (8) die Existenz eines δ > 0 mit
4
c 2
ϕ (ξ ) ≤ ξ für ξ mit ξ < δ
4
Aus (7*) und (11) folgt:
f (η + ξ ) ≥ f (η ) +
c
ξ
4
2
Wegen c > 0 nach 1) und ξ
2
c
ξ
4
(12)
≥ 0 ist auch
f (η + ξ ) > f (η ) für alle ξ mit 0 ≤ ξ < δ
2
≥ 0 und damit
4) Aus (12) in 3) folgt, dass f in η ein isoliertes lokales Minimum hat; q.e.d.
Beweis von b):
Sei A := Hess f (η ) indefinit. Zu zeigen:
∀ε > 0 ∃ ξ , ζ ∈
×
mit ξ − η < ε und ζ − ξ < ε und f (ξ ) < f (η ) < f (ζ )
Aus A indefinit folgt: ∃ 0 ≠ κ ∈
×
mit κ , A(κ ) =: α > 0
Wegen (7*) gilt dann:
1
tκ , A(tκ ) + ϕ (tκ ) ∀t ∈
2
t2
= f (η ) + α
+ ϕ (tκ )
2
f (η + tκ ) = f (η ) +
Wegen (6*) oder (8) gilt für t genügend klein: ϕ (tκ ) ≤ α
t2
2
Also: f (η + tκ ) > f (η ) ∀ 0 < t < δ
Ebenso:
Aus A indefinit folgt: ∃ 0 ≠ λ ∈
×
mit λ , A(λ ) =: β < 0
Und damit: f (η + tλ ) < f (η ) ∀ 0 < t < δ
q.e.d
Rechenbeispiele:
a) Paraboloid f ( x, y ) := C + x 2 + y 2 ;
f x ( x, y ) = 2 x , f y ( x, y ) = 2 y;
also: grad f ( x, y ) = ( f x ( x, y ), f y ( x, y ))T = 0 ⇒ x = 0, y = 0
f xx ( x, y ) = 2, f xy ( x, y ) = 0 = f yx ( x, y ), f yy ( x, y ) = 2;
also: Hess f (0,0) hat nur den (zweifachen) positiven Eigenwert 2
(auch: det ( Hess f (0, 0)) = 4);
Hess f (0,0) ist positiv definit; also (lokales) Minimum in (0,0).
b) f ( x, y ) := x 2 + y 2 − xy − 2 x + y :
f x ( x, y ) = 2 x − y − 2, f y ( x, y ) = 2 y − x +
also: grad f ( x, y ) = 0 ⇒ x = 1, y = 0;
f xx ( x, y ) = 2, f xy ( x, y ) = −1 = f yx ( x, y ), f yy ( x, y ) = 2
Hurwitz-Kriterium: f xx (1,0) > 0, det( Hess f (1,0)) = 3;
Hess f (1,0) ist positiv definit, also lokales Minimum in (1,0).
c) f ( x, y ) := x 2 + y 2 + xy − 2 x + y :
f x ( x, y ) = 2 x + y − 2, f y ( x, y ) = 2 y + x + 1
also: grad f ( x, y ) = 0 ⇒ x = 5 / 3, y = −4 / 3;
f xx ( x, y ) = 2, f xy ( x, y ) = 1 = f yx ( x, y ), f yy ( x, y ) = 2
Hurwitz-Kriterium: f xx (1,0) > 0, det( Hess f (1,0)) = 3;
Hess f (5 / 3, −4 / 3) ist positiv definit, also lokales Minimum in (5 / 3, −4 / 3).
d) Sattelfläche f ( x, y ) := C + x 2 − y 2 :
f x ( x , y ) = 2 x , f y ( x , y ) = −2 y ;
also: grad f ( x, y ) = 0 ⇒ x = 0, y = 0;
f xx ( x, y ) = 2, f xy ( x, y ) = 0 = f yx ( x, y ), f yy ( x, y ) = −2
also: Hess f (0,0) hat positiven und negativen Eigenwert: 2, −2
(auch: det( Hess f (0,0) = −4);
Hess f (0,0) ist indefinit, also kein Extremum in (0,0).
Zeichnungen: (a)
(b)
(c)
(d)
§17 Satz über implizite Funktionen
Seien k , l ∈ , x ∈ U ⊂
k
, y ∈V ⊂
l
und f : U × V →
und f i : U × V →
Es geht im folgenden um Gleichungen
f ( x, y ) = 0
oder um Systeme von Gleichungen
f1 ( x , y ) = 0
f l ( x, y ) = 0
und ihre Lösbarkeit; d.h. es geht um Fragen der Art:
1) Existieren ( x, y ) ∈ U × V mit f ( x, y ) = 0 ?
2) Existiert zu jedem x ∈ U ein y ∈V mit f ( x, y ) = 0 ?
3) Unter welchen Bedingungen existiert zu jedem x ∈ U genau ein y ∈V
(oder aus V ⊂ V mit f ( x, y ) = 0); d.h. wann existiert eine Abbildung
g : U → V mit f ( x, g ( x )) = 0 ?
und um Eigenschaften solcher "Lösungsfunktionen g " :
4) Eindeutigkeit
5) Stetigkeit
6) Differenzierbarkeit
Zeichnung:
Beispiel 1:
f ( x, y ) := Ax − y = 0 mit x ∈ k , A l × k -Matrix, y ∈
a) Rang von A gleich l und k = l :
Für jedes y ∈
l
genau eine Lösung x.
b) Rang von A kleiner l und k = l
für y ∈ A(
k
) viele Lösungen; sonst: keine
c) Rang von A gleich l und l < k : .....
l
für i = 1,..., l Funktionen.
Beispiel 2:
f ( x, y ) := x − e y = 0
+
a) Für jedes x ∈
lösbar.
b) Für kein x ∈ \
+
in
lösbar.
Beispiel 3:
a) f1 ( x, y ) := x 2 + y 2 − 1 = 0; f 2 ( x, y ) := 2 x 2 + 2 y 2 − 3 = 0
Keine Lösung in
× .
b) f ( x, y ) := x 2 + 1 = 0
Keine Lösung in
× .
Beispiel 4:
f ( x, y ) := x 4 − y 2 = 0
a) Für x = 0 nur Lösung y = 0.
b) Für x ∈ \{0} : Lösungen sind z.B. g1 ( x ) := x 2 , g 2 ( x ) := − x 2 , g 3 ( x ) := x x , g 4 ( x ) := − x x
und stückweise Kombinationen dieser Funktionen.
Satz 1: (Hauptsatz über implizite Funktionen)
Seien x ∈ U ⊂
F : U ×V →
l
k
und y ∈V ⊂
mit ( x, y )
l
mit U ⊂
k
und V ⊂
l
offen und
F ( x, y ) := ( f1 ( x, y ),..., f l ( x, y ))T
mit folgenden Eigenschaften:
i ) F ist stetig differenzierbar
ii ) F ( x, y ) = 0
⎛ ∂f
⎞
ist invertierbar.
iii ) A := ⎜ i ( x, y ) ⎟
⎜ ∂y j
⎟i =1,...,l
⎝
⎠ j =1,...,l
Dann ist die Gleichung F ( x, y ) = 0 lokal in x nach y auflösbar, d.h.
∃ x ∈ U1 ⊂ U offen und y ∈V1 ⊂ V offen und ∃ stetige Abbildung
g : U1 → V1 mit F ( x, g ( x )) = 0 ∀x ∈ U1.
Zusätzlich können U1 und V1 so gewählt werden, dass gilt:
Ist ( x, y ) ∈ U1 × V1 mit F ( x, y ) = 0, so ist y = g ( x ).
Zeichnung:
Zusatz zu Satz 1:
In der Situation von Satz 1 gilt:
a) Es existieren eine offene Menge U 0 mit x ∈ U 0 ⊂ U1 und eine offene Menge V0
⎛ ∂f
⎞
mit y ∈V0 ⊂ V1 mit g (U 0 ) ⊂ V0 und det ⎜ i ( x, y ) ⎟
≠ 0 ∀x ∈ U 0 ∀y ∈V0
⎜ ∂y j
⎟i =1,...,l
⎝
⎠ j =1,...,l
b) g aus Satz 1 ist stetig differenzierbar in U 0 und es gilt:
-1
⎛
⎞
⎛ ∂f i
⎞
dg
⎜
⎟ ⋅ ⎛ ∂f i ( x, g ( x )) ⎞
( x) = − ⎜
( x, g ( x )) ⎟
⎜ ⎜ ∂y j
⎟i =1,...,l ⎟ ⎜⎜ ∂x j
⎟⎟i =1,...,l
dx
⎜⎝
⎠ j =1,...,l ⎟ ⎝
⎠ j =1,...,k
⎝
⎠
−1
⎛ ∂F
⎞
⎛ ∂F
⎞
( x, g ( x )) ⎟ ⋅ ⎜
( x, g ( x )) ⎟
=: − ⎜
⎝ ∂x
⎠
⎝ ∂y
⎠
Definition:
Für F : U × V →
l
in der Situation von Satz 1 seien
∂F ⎛ ∂f i ⎞
∂F ⎛ ∂f i ⎞
:= ⎜
und
:= ⎜
⎟
⎟
∂x ⎜⎝ ∂x j ⎟⎠i =1,...,l
∂y ⎜⎝ ∂y j ⎟⎠i =1,...,l
j =1,...,k
j =1,...,l
Anwendungen:
lokale Umkehrbarkeit
Lagrange-Multiplikatoren
Optimierung unter Nebenbedingungen
§18 Optimierung unter Nebenbedingungen
Seien k ∈ , G ⊂
g:G →
m
und f : G →
k
eine Funktion. Weiter seien m ∈
{
}
und
eine Funktion und N := x ∈ G : g( x ) = 0 .
Definition:
a) f hat in y ∈ G ein lokales Maximum unter der Nebenbedingung g = 0, wenn gilt:
∃ y ∈ N und ∃ U ⊂
k
offen mit y ∈ U ⊂ G und f ( x ) ≤ f ( y ) ∀x ∈ U ∩ N
b) analog: lokales Minimum unter Nebenbedingungen; Extremum
Satz 1: (Lagrange – Multiplikatoren)
Seien k ∈ , y ∈ G ⊂
g:G →
m
mit x
k
offen , m ≤ k , f : G →
g( x ) := ( g1 ( x ),..., g m ( x ))T ∈
differenzierbar und
m
stetig differenzierbar.
dg
die Jacobische Funktionalmatrix zu g. Dann gilt:
dx
Besitzt f in y ein lokales Extremum unter der Nebenbedingung g = 0
Weiter sei
⎛ dg
⎞
und ist rg ⎜ ( y ) ⎟ = m, so existiert ein λ := (λ1 ,..., λm ) ∈
⎝ dx
⎠
m
∂g
∂f
( y ) + ∑ λµ µ ( y ) = 0 für κ = 1,..., k
∂xκ
∂xκ
µ =1
m
mit
Bezeichnung: λ1 ,..., λm heißen Lagrange – Multiplikatoren
Spezialfall: m = 1; grad f ( y ) = −λ grad g( y )
Langrange – Verfahren zur Optimierung unter Nebenbedingungen:
1) Sei ( x, λ ) := ( x1 ,..., xk ,λ1 ,..., λm )T ∈
k +m
eine Lösung des Gleichungssystems
m
∂g
∂f
( x ) + ∑ λµ µ ( x ) = 0 für κ = 1,..., k
∂xκ
∂xκ
µ =1
g µ ( x ) = 0 für µ = 1,..., m
Nach Satz 1 ist dann x ein Kandidat für ein lokales Extremum von f
⎛ dg
⎞
unter der Nebenbedingung g = 0, wenn rg ⎜ ( x ) ⎟ = m ist.
⎝ dx
⎠
Für alle solche x prüfe man, ob ein lokales Extremum vorliegt.
⎛ dg
⎞
mit rg ⎜ ( x ) ⎟ < m und
⎝ dx
⎠
prüfe, ob für ein jedes dieser ein lokales Extremum unter der Nebenbedingung
2) Schließlich bestimme man alle die x ∈
k
g = 0 vorliegt.
Anmerkung 1:
Man erhält das obige Gleichungssystem, wenn man die Funktion
m
F ( x, λ ) := f ( x ) + ∑ λµ g µ ( x )
µ =1
nach x1 ,..., xk , λ1 ,..., λm partiell differenziert und gleich 0 setzt.
Anmerkung 2:
Lässt sich das Gleichungssystem
g( x ) = 0, d.h. g µ ( x ) = 0 für µ = 1,..., m
mit ϕ1 ,..., ϕ m z.B. global nach x auflösen (vgl. Beweis von Satz 1), so lässt sich das
Problem der Optimierung von f unter der Nebenbedingung g = 0 auf das
gewöhnliche Optimierungsproblem (ohne Nebenbedingung; vgl. §16) für
h : k −m ⊃ Gz ∋ z := ( xk −m ,..., xk ) h( z ) := f (ϕ1 ( z ),..., ϕ m ( z ), z )
reduzieren und mit den Methoden von §16 lösen.
Beispiel 1: (Optimierung mit Lagrange – Verfahren; beachte Anmerkung 2)
k = 3 und m = 1:
Bestimme denjenigen Punkt auf der Ebene E := {( x1 , x2 , x3 ) ∈
3
: x1 + x2 = x3} , der vom
Punkt (1,0,0) den geringsten Abstand hat.
Das führt zur Aufgabe der Minimierung von
f : 3 → mit f ( x1 , x2 , x3 ) := ( x1 − 1) 2 + x2 2 + x32
unter der Nebenbedingung g ( x1 , x2 , x3 ) := x1 + x2 − x3 = 0 (#)
Zunächst gilt:
Es gibt kein lokales oder globales Maximum.
Es gibt eine globale Minimalstelle von f unter der Nebenbedingung (#).
(Dies folgt aus der Stetigkeit von f und aus der Kompaktheit der nichtleeren Menge
E ∩ {( x1 , x2 , x3 ) ∈
3
: ( x1 − 1) 2 + x2 2 + x32 ≤ 100}. )
⎛ dg
⎞
Es ist rg ⎜ ( y ) ⎟ = m = 1 für alle y ∈
⎝ dx
⎠
3
.
Lösung von
∂f
∂g
( x) + λ
( x ) = 0 für κ = 1, 2,3
∂xκ
∂xκ
g ( x) = 0
d.h. 2( x1 − 1) + λ = 0
2 x2 + λ = 0
2 x3 − λ = 0
x1 + x2 − x3 = 0
ergibt als Kandidat für eine Extremalstelle unter der Nebenbedingung
2
1
1
x1 = , x2 = − , x3 =
3
3
3
⎛ 2 1 1⎞
Also ist ⎜ , − , ⎟ die globale Minimalstelle und damit der gesuchte Punkt.
⎝ 3 3 3⎠
§19 M1 Mengensysteme
Sei Ω eine Menge und A eine Teilmenge der Potenzmenge P(Ω) von Ω .
Für A ∈ P(Ω) sei A := Ω\A
a) Mengenalgebren und σ − Algebren
Definition:
a) A heißt Mengenalgebra über Ω , wenn gilt:
i) A ≠ ∅
ii ) A ∈ A ⇒ A ∈ A
iii ) A, B ∈ A ⇒ A ∪ B ∈ A
b) A heißt σ − Algebra über Ω , wenn gilt:
i) A ≠ ∅
ii ) A ∈ A ⇒ A ∈ A
iii ) An ∈ A für n ∈
⇒
∪ A ∈A
n∈
n
c) A heißt ∩ −stabil, wenn gilt: A, B ∈ A ⇒ A ∩ B ∈ A
Anmerkung a.1:
1) A Mengenalgebra ⇒ ∅, Ω ∈ A
2) A σ − Algebra
⇒ A Mengenalgebra
⇐
Beispiel:
{
}
Ω := , A := A ⊂ Ω : A oder A endlich ist eine Mengenalgebra, aber keine σ − Algebra:
Setze An := {2n, n ∈
}; An ∈ A für alle n ∈
, aber
3) P(Ω) und {∅, Ω} sind σ − Algebren.
{
∪ A ∉A
n∈
n
}
4) A ∈ A ⇒ ∅, A, A,Ω kleinste σ − Algebra, die A enthält.
5) A Mengenalgebra, Ai ∈ A für i = 1,..., n ⇒
n
i
i =1
6) A σ − Algebra, Ai ∈ A für i ∈
⇒ analog.
n
∪ A ∈ A, ∩ A ∈ A
i
i =1
Bemerkung a.1:
Zu A ⊂ P(Ω) existiert eine kleinste Mengenalgebra B mit A ⊂ B
und eine kleinste σ − Algebra C mit A ⊂ C.
A
A := B = {D : D ⊂ P(Ω) Mengenalgebra mit A ⊂ B}
σ
A := B A := C = {D : D ⊂ P(Ω) σ − Algebra mit A ⊂ C}
Definition:
A
A bzw. σ A heißt die von A erzeugte Mengen- bzw. σ − Algebra.
A heißt ihr Erzeuger.
σ
Anmerkung a.2:
( A) =
A
σ
A=
A
( A ) ;....
σ
Bemerkung a.2:
{
}
Seien E ⊂ P(Ω) und E 1 := A ⊂ Ω : A ∈ E oder A ∈ E und
⎧m
⎫
E 2 := ⎨∩ Aµ : m ∈ , Aµ ∈ E 1 für 1 ≤ µ ≤ m ⎬
⎩ µ =1
⎭
⎧n
⎫
Dann ist A E = ⎨∪ Aν : n ∈ , Aν ∈ E 2 für 1 ≤ ν ≤ n ⎬
⎩ν =1
⎭
Anmerkung a.3:
Ein ähnliches Konstruktionsverfahren ist für σ E nur mittels transfiniter Induktion
möglich.
Definition:
Sei n ∈
und G die Menge der offenen Teilmengen von
Dann heißt B n := B(
n
) :=
σ
n
.
G die σ − Algebra der Borelschen Teilmengen von
Bemerkung 3:
Sei n = 1 und F die Menge der abgeschlossenen Teilmengen von . Weiter seien
H l := {( a, b] : a, b ∈
Dann gilt: B 1 =
σ
}, H
F=
r
σ
:= {[a , b ) : a, b ∈
Hl =
σ
Hr =
σ
} und H
Hl
l
:= {[a, b ) : a , b ∈
}.
n
.
Definition:
Seien ( X , A) und (Y , B) Messräume und f : X → Y eine Abbildung.
f : ( X , A) → (Y , B) heißt messbar, wenn gilt: f −1 (B) := { f −1 ( B ) : B ∈ B} ⊂ A.
Lemma:
Seien f : X → Y eine Abbildung und E ⊂ P(Y ). Dann gilt: f −1 ( σ E) = σ ( f −1 (E)).
Anmerkung a.4:
Es sei f : X → Y eine Abbildung , A eine σ − Algebra über X und B eine σ − Algebra über Y .
a) f −1 (B) := { f −1 ( B ) : B ∈ B} ist eine σ − Algebra.
b) f (A) := { f ( A) : A ∈ A} ist i.a. keine σ − Algebra.
c) C := {B ⊂ Y : f −1 ( B ) ∈ A} ist eine σ − Algebra.
d) Ist X = Y und A = B und f eine bijektive Abbildung, so ist i.A. A ≠ f (A) ≠ f −1 (A) ≠ A.
Satz a.1:
Seien Y eine Menge, (( X i , A i ) : i ∈ I ) eine nichtleere Menge von Messräumen und
f i : X i → Y und gi : Y → X i Abbildungen für i ∈ I . Dann gilt:
a) Es gibt genau eine größte σ − Algebra F über Y derart, dass
f i : ( X i , A i ) → (Y , F) für jedes i ∈ I messbar ist.
Es gilt: F = ∩ Fi bei Fi := {B ⊂ Y : f i −1 ( B ) ∈ A i }
i∈I
F heißt Final-σ − Algebra bzgl. ( f i : ( X i , A i ) → Y : i ∈ I ).
b) Sei F wie in a), ( Z , Z) ein Messraum und h : Y → Z eine Abbildung. Dann:
h : (Y , F) → ( Z , Z) messbar ⇔ h f i : ( X i , A i ) → ( Z , Z) messbar ∀i ∈ I .
c) Es gibt eine kleinste σ − Algebra I über Y derart, dass gi : (Y , I ) → ( X i , A i )
für jedes i ∈ I messbar ist.
σ
⎛
⎞
−1
⎜ ∪ gi (A i ) ⎟ .
⎝ i∈I
⎠
I heißt die Initial-σ − Algebra bzgl. ( gi : Y → ( X i , A i ) : i ∈ I ).
Es gilt: I =
d) Seien I wie in c), ( Z , Z) ein Messraum und k : Z → Y eine Abbildung. Dann:
k : ( Z , Z) → (Y , I ) messbar ⇔ gi k : ( Z , Z) → ( X i , A i ) messbar ∀i ∈ I .
σ
⎛
⎞
e) Bei I wie in c) gilt: ∀K ∈ I ∃ I K ⊂ I abzählbar mit K ∈ ⎜ ∪ gi −1 (A i ) ⎟
⎝ i∈I K
⎠
b) Dynkinsysteme
Definition:
Sei D ⊂ P(Ω). D heißt ein Dynkinsystem über Ω , wenn gilt:
D1) Ω ∈ D
D2) D, E ∈ D und D ⊂ E ⇒ E \D ∈ D
D3) Dn ∈ D für n ∈
und Dn ∩ Dm = ∅ für n ≠ m ⇒
∪D
n
n∈
Anmerkung b.1:
1. Ein Mengensystem D ⊂ P(Ω) mit den Eigenschaften D1) und D3) ist genau dann
ein Dynkinsystem, wenn es die Eigenschaft
D2*) D ∈ D ⇒ D ∈ D
besitzt.
....
Bemerkung b.1:
1) Ein Dynkinsystem D ist genau dann eine σ − Algebra, wenn gilt:
D, E ∈ D ⇒ D ∩ E ∈ D (d.h. D ist endlich durchschnittstabil)
2) Sei E ⊂ P(Ω). Dann existiert ein kleinstes Dynkinsystem D über Ω mit D ⊃ E.
Es gilt:
∩{F :
F ist Dynkinsystem mit F ⊃ E}
Definition:
Seien E ⊂ P(Ω) und D das kleinste Dynkinsystem mit D ⊃ E.
D
E := D
heißt das von E erzeugte Dynkinsystem. E heißt der Erzeuger des Dynkinsystems
Satz b.1:
Seien E ⊂ P(Ω) endlich durchschnittstabil. Dann gilt:
σ
E = D E.
D
E.
§20 M2 Inhalte und Maße
Seien A eine Mengenalgebra über Ω und
+
0
:= {x ∈
: x ≥ 0} ∪ {∞} mit α + ∞ := ∞ für α ∈
Definition:
+
0
a) µ : A →
heißt (endlich additiver) Inhalt, wenn gilt:
i ) µ (∅ ) = 0
ii ) µ ( A ∪ B ) = µ ( A) + µ ( B ) für A, B ∈ A mit A ∩ B = ∅.
+
0
b) Sei µ : A →
⎛
⎞
⎝ n∈
⎠
ein Inhalt. µ heißt σ − additiv, wenn gilt:
µ ⎜ ∪ An ⎟ = ∑ µ ( An ) für An ∈ A mit An ∩ Am = ∅ für n ≠ m und
n∈
+
0
c) µ : A →
d) Sei µ : A →
∪ A ∈A
n
n∈
heißt Maß, wenn A eine σ − Algebra und µ ein σ − additiver Inhalt ist.
+
0
ein Inhalt. µ heißt unendlich, finit bzw. normiert, wenn
µ (Ω) = ∞, µ (Ω) < ∞ bzw. µ (Ω) = 1 ist.
e) Ein Inhalt µ : A →
∪A
n
+
0
heißt σ − finit, wenn eine Folge ( An : n ∈
) existiert mit An ∈ A,
= Ω und µ ( An ) < ∞ für n ∈ .
n∈
f) Anstelle von µ : A →
g) Ist µ : A →
+
0
+
0
schreiben wir auch µ | A.
ein Maß auf der σ − Algebra A , so heißt (Ω, A, µ ) ein Maßraum.
Beispiele: 1)-6)
2) Sei A eine σ − Algebra über X , x ∈ X .
⎧0, falls x ∉ A
⎩1, falls x ∈ A
µ ( A) := ⎨
für A ∈ A
ist ein (normiertes) Maß. µ heißt das in x konzentrierte und normierte
Dirac-Maß.
3) Sei A eine σ − Algebra über X .
⎧Anzahl der Elemente von A, falls A endlich
mit µ ( A) := ⎨
+∞, falls A unendlich
⎩
ist ein σ − additives Maß. Bei A := P( X ) : µ σ − finit (bzw. finit) :⇔
µ:A→
+
0
X hat höchstens abzählbar viele Elemente
(bzw. endlich viele Elemente)
µ heißt Zählmaß.
+
0
.
4) X :=
{
und A := A ⊂
}
: A oder A abzählbar
A ist eine σ − Algebra.
µ:A→
+
0
mit µ ( A) := 0 bei A abzählbar und µ ( A) = 1 bei A abzählbar ist ein
(normiertes) Maß.
5) X :=
{
und A := A ⊂
: A oder A endlich
}
A ist eine Mengenalgebra, aber keine σ − Algebra.
µ:A→
+
0
mit µ ( A) := 0 bei A endlich und µ ( A) = 1 bei A endlich ist ein
(normierter) Inhalt, additiv, aber nicht σ − additiv:
An := {n},
∪A
n
=
⎛
⎞
; 0 = ∑ µ ( An ) ≠ µ ⎜ ∪ An ⎟ = µ ( X ) = 1
n∈
⎝ n∈
⎠
⎧0 für A = ∅
mit µ ( A) := ⎨
⎩ +∞ sonst
∈ A ; µ ( An ) = 0
n∈
6) X Menge, µ : P( X ) →
+
0
µ ist ein Maß auf P( X ). Bei X ≠ ∅ : µ nicht σ − finit.
Bemerkung 1:
Seien µ : A →
+
0
ein Inhalt, n ∈
und A, An , B ∈ A. Dann gilt:
1) µ ( A) + µ ( B ) = µ ( A ∪ B ) + µ ( A ∩ B )
2) Isotonie: A ⊂ B ⇒ µ ( A) ≤ µ ( B )
3) Subtraktivität: A ⊂ B und µ ( A) < ∞ ⇒ µ ( B \A) = µ ( B ) − µ ( A).
⎛ n
⎞ n
4) Subadditivität: µ ⎜ ∑ Aν ⎟ ≤ ∑ µ ( Aν )
⎝ ν =1 ⎠ ν =1
5) Bei An ∩ Am = ∅ für n ≠ m und
6) Ist µ σ − additiv, so gilt bei
⎛
⎞
∪ A ∈ A gilt: ∑ µ ( A ) ≤ µ ⎜ ∪ A ⎟
n
n∈
∪ A ∈ A auch:
n
n∈
⎛
n
⎝ n∈
n
⎠
⎞
µ ⎜ ∪ An ⎟ ≤ ∑ µ ( An )
⎝ n∈
⎠ n∈
7) Ist ( µn : n ∈ ) eine Folge von Inhalten µn | A und (α n : n ∈ ) eine Folge in
n∈
+
0
, so ist auch µ := ∑ α n µn ein Inhalt auf A.
n∈
Bemerkung 2:
Sei µ|A ein Inhalt. Dann gilt:
a) µ|A σ − additiv ⇔ µ|A σ − subadditiv, d.h.
⎛
⎞
⎝ n∈
⇔
⎠
⎛
⎞
⎝ n∈
⎠
µ ⎜ ∪ An ⎟ = ∑ µ ( An ) für An ∈ A mit An ∩ Am = ∅ für n ≠ m und
n∈
µ ⎜ ∪ An ⎟ ≤ ∑ µ ( An ) für An ∈ A und
n∈
∪ A ∈A
n∈
n
∪ A ∈A
n∈
n
⎛
⎞
⇒ µ ⎜ ∪ An ⎟ ≤ ∑ µ ( An )
n∈
⎝ n∈
⎠ n∈
vgl. Beispiel 5 zu Inhalten und Maßen.
b) Warnung:
∪ A ∈A
n
Satz 1:
Für einen Inhalt µ | A auf einer Mengenalgebra A betrachte man die folgenden
Eigenschaften:
S ↑) Stetigkeit von unten:
∀ Folge ( An : n ∈ ) in A mit An ⊂ An +1 und
∪ A ∈ A gilt:
n
n∈
⎛
⎞
lim µ ( An ) = µ ⎜ ∪ An ⎟
n →∞
⎝ n∈
⎠
S ↓) Stetigkeit von oben:
∀ Folge ( An : n ∈ ) in A mit An ⊃ An +1 , µ ( An ) < ∞ und
∩ A ∈ A gilt:
n∈
n
⎛
⎞
lim µ ( An ) = µ ⎜ ∩ An ⎟
n →∞
⎝ n∈
⎠
∅S ) Nullstetigkeit:
∀ Folge ( An : n ∈ ) in A mit An ⊃ An +1 , µ ( An ) < ∞ und
∩A
n∈
lim µ ( An ) = 0
n →∞
Dann gilt:
a) µ σ − additiv ⇔ S ↑)
b) S ↑) ⇒ S ↓) ⇒ ∅S )
c) Ist µ finit, so gilt: µ σ − additiv ⇔ S ↑) ⇔ S ↓) ⇔ ∅S )
n
= ∅ gilt:
Warnung:
" µ ( An ) < ∞ " in S ↓) und ∅ S ) ist wesentlich.
{
Beispiel: X := , A := A ⊂
: A oder A endlich
}
Mengenalgebra
µ | A Zählmaß. An := \{1,..., n} ⊃ An +1 ⊃ ... und
∩A
n
n∈
⎛
⎞
lim µ ( An ) = +∞ ≠ 0 = µ ⎜ ∩ An ⎟
n →∞
⎠
⎝ n∈
Warnung:
" µ finit" in c ) ist wesentlich.
Beispiel eines ∅ -stetigen und nicht σ − additiven Inhalts:
X :=
{
}
und A := A ⊂ X : A oder A endlich und
⎧ 0 für A endlich
µ ( A) := ⎨
⎩+∞ für A endlich
=∅
§21 M3 Fortsetzung von Maßen
Sei X eine Menge („Grundmenge“). Es gelten die Bezeichnungen der §§ M1, M2.
Ziel:
1) Fortsetzung von einem (σ − additiven ) Inhalt µ | A zu einem Maß µ | B A.
2) Vervollständigung von µ.
Methode: Carathéodory, Uni München.
Bemerkung 1:
Seien A eine Mengenalgebra über X und µ|A ein Inhalt. Weiter seien B
eine σ − Algebra über X mit A ⊂ B und µ | B mit µ ( A) = µ ( A) ∀A ∈ A.
Dann ist µ|A σ − additiv.
Anmerkung 1:
X := {1, 2}; A := {∅, X } ; µ (∅ ) := 0 ; µ ( X ) := 1
A = A A = σ A ≠ P( X )
µ1 ({1}) := 1 =: µ2 ({2}) , µ1 ({2}) := 0 =: µ2 ({1})
Für i = 1, 2 µi | P( X ) Maße mit µ1 ≠ µ2 ; µi | A = µ | A
Definition:
Sei ( X , B, µ ) ein Maßraum.
a) B ∈ B heißt eine µ − B Nullmenge :⇔ µ ( B ) = 0
b) N ∈ P( X ) heißt eine µ − Nullmenge :⇔ ∃ B ∈ B mit N ⊂ B und µ ( B ) = 0.
c) N( µ ) := {N ∈ P( X ) : N µ − Nullmenge}
d) µ | B heißt vollständig :⇔ N( µ ) ⊂ B
( X , B, µ ) heißt vollständig :⇔ µ | B ist vollständig
Anmerkung 2:
1) i.A. N( µ ) ⊄ B
2) Sei µ := δ x | B das in x konzentrierte und normierte Dirac-Maß.
Bei x ∈ B ist N( µ ) = { A ∈ P( X ) : x ∉ A} und σ (B ∪ N( µ )) = P( X ).
δ x | B (für jedes B) auf P( X ) eindeutig fortsetzbar.
3) Bei µ ( B ) := 0 für B = ∅ und µ ( B ) := ∞ für B ≠ ∅ ist N( µ ) = ∅
σ
(B ∪ N( µ )) = B ⊃ N( µ )
4) Eine abzählbare Vereinigung von µ -Nullmengen ist wieder eine µ -Nullmenge.
Satz 1: (Vervollständigung eines Maßes)
Sei µ | B ein Maß. Dann gilt:
1) B (B ∪ N( µ )) = {B ∪ N : B ∈ B und N ∈ N( µ ) mit B ∩ N = ∅} =: B
µ
2) µ : B →
+
0
µ
µ (C ) := µ ( B ) ist ein vollständiges Maß.
mit C := B ∪ N
µ
µ
µ
3) Für jedes Maß ν|B mit ν ( B ) = µ ( B ) ∀B ∈ B ist ν|B = µ | B .
Definition:
µ
µ
Seien µ | B ein Maß und B und µ | B wie in Satz 1. Dann heißt B
µ
µ
die Vervollständigung von B bzgl. µ und µ | B die Vervollständigung von µ.
Definition:
Die Abbildung λ : P( X ) →
+
0
heißt äußeres Maß, wenn gilt:
äm1) λ (∅) = 0
äm2) σ − Subadditivität:
λ ( A) ≤ ∑ λ ( An ) ∀ A, An ∈P( X ) mit A ⊂ ∪ An
n∈
n∈
äm3) Isotonie: λ ( A) ≤ λ ( B ) für A ⊂ B
Definition:
Sei λ : P( X ) →
+
0
ein äußeres Maß.
a) M ∈ P( X ) heißt λ − messbar :⇔ λ ( A) = λ ( A ∩ M ) + λ ( A ∩ M ) ∀A ∈ P( X )
b) L(λ ) := {M ∈ P( X ) : M λ − messbar}
Definition:
Sei µ : A →
mit B
+
0
ein Inhalt. Dann heißt die Abbildung µ ∗ : P( X ) →
⎧
+
0
⎫
µ ∗ ( B ) := inf ⎨ ∑ µ ( An ) : An ∈ A, B ⊂ ∪ An ⎬ das äußere µ − Maß.
⎩ n∈
n∈
⎭
Anmerkung 3:
Sei µ|A ein Inhalt. Dann:
1) A Mengenalgebra ⇒ B ⊂ X ∈ A ⇒ inf aus Definition stets definiert, 0 ≤ µ ∗ ≤ ∞
2) Bemerkung 1.5 aus M2:
⎛
n∈
µ ∗ ( A) ≤ µ ( A) ∀A ∈ A
⎞
∑ µ ( A ) ≤ µ ⎜ ∪ A ⎟ bei A
n
⎝ n∈
n
⎠
n
disjunkt,
∪A
n∈
n
in A (Subadditivität)
Bemerkung 2:
a) Ist µ | A ein Inhalt, so ist das äußere µ − Maß µ ∗ : P( X ) →
+
0
ein äußeres Maß mit A ⊂ L( µ ∗ ) und µ ∗ ( A) ≤ µ ( A) ∀A ∈ A.
b) Ist µ | A ein σ − additiver Inhalt, so gilt: µ ∗ ( A) = µ ( A) ∀A ∈ A.
c) Ist µ | A ein Maß, so gilt: µ ∗ ( B ) = inf {µ ( A) : B ⊂ A ∈ A}
Satz 2: (Carathéodory-Vervollständigung)
Sei λ : P( X ) →
+
0
ein äußeres Maß und L(λ ) die Menge der λ − messbaren
Teilmengen von X . Dann gilt:
a) L(λ ) ist eine σ − Algebra.
b) Die Einschränkung λ : L(λ ) →
+
0
mit A
λ ( A) := λ ( A) von λ | P( X )
auf L(λ ) ist ein vollständiges Maß.
Satz 3 (Fortsetzung; Carathéodory)
Seien µ | A ein σ − additiver Inhalt und B := B A. Dann existiert mindestens
ein Maß µ | B mit µ ( A) = µ ( A) ∀A ∈ A.
Satz 4: (Eindeutigkeit)
Seien µ|B und ν|B Maße und E ein durchschnittstabiler Erzeuger von B.
Weiter sei ( En : n ∈
) eine Folge in E mit En ⊂ En+1 ∀n ∈
und
∪E
n
= X.
n∈
Schließlich sei µ ( E ) = ν ( E ) ∀E ∈ E und µ ( En ) < ∞ ∀n ∈ .
Dann gilt: µ ( B ) = ν ( B ) ∀B ∈ B.
Anmerkung: Aus µ ( En ) < ∞ und X = ∪ En folgt : µ und ν sind σ − finit.
n∈
Warnung: " En ⊂ En +1 ∀n ∈
Beispiel:
und
∪E
n∈
n
= X " ist wesentlich.
B := {∅, X } , E := {∅} ∩ −stabiler Erzeuger von B := σ E
µ ( X ) := 1 , ν ( X ) := 2 : ν = 2 µ ≠ µ .
aber: ν (∅ ) = 0 = µ (∅), d.h. µ ( E ) = ν ( E ) ∀E ∈ E
Warnung: " µ ( En ) < ∞ ∀n ∈ " ist wesentlich.
Beispiel: X :=
, µ | P( X ) Zählmaß
ν := 2 µ ≠ µ ; E := {E (k ) : k ∈
mit En := E(1) =
∀n ∈
} mit E (k ) :=
\{1,..., k } ∩ -stabiler Erzeuger von P( X )
; µ ( E ) = ∞ = ν ( E ) ∀E ∈ E. Es gilt nicht: µ ( En ) < ∞
Warnung: Satz 4 gilt nicht mit " ≤ " anstelle von " = ".
Satz 5: (Maßerweiterungssatz)
Seien µ|A ein σ − finiter und σ − additiver Inhalt und B := B A. Dann gilt:
a) Es existiert genau ein Maß µ | B mit µ ( A) = µ ( A) ∀A ∈ A.
∗
b) Für das äußere µ − Maß µ ∗ | P( X ) und das äußere µ − Maß µ | P( X ) gilt
∗
∗
µ ∗ ( B ) = µ ( B ) ∀B ∈ P( X ) und damit L( µ ∗ ) = L( µ ).
c) Sei µ : L( µ ∗ ) →
+
0
die Einschränkung von µ ∗ | P( X ) auf L( µ ∗ ). Dann:
µ
µ | L( µ ∗ ) ist die Vervollständigung von µ | B und B = L( µ ∗ ).
Warnung: Die Voraussetzung " σ − finit " in Satz 5.a und 5.c ist wesentlich.
§22 M4 Das Lebesguesche Maß
a) Das eindimensionale Lebesgue – Borel - Maß
Sei T die (vom Betrag induzierte) gewöhnliche Topologie auf . Weiter sei
B 1 := B( ) := σ T erzeugte σ − Algebra; sie heißt die σ − Algebra der
Borelschen Teilmengen von .
Anmerkung 1:
a) G ∈ T
⇒ ∃ abzählbar viele disjunkte offene Intervalle I n := (α n , β n )
mit α n , β n ∈
:=
∪ {±∞} bei α n ≤ β n und G = ∪ I n
n∈
b) Zu (α , β ) ∃ α n mit (α , β ) = ∪ [α n , β ).
n∈
Seien I := {[α , β ) : α , β ∈
λI : I →
+
0
mit α ≤ β } und
mit I := [α , β )
λI ( I ) := β − α
Bemerkung a.1:
a) λI ist endlich additiv.
b) I ist bezüglich endlicher Durchschnitte stabil.
c) I ist Erzeuger von B 1.
{
Seien I ∞ := (α , β ) : α , β ∈
} ∪ {[α , β ] : α , β ∈ } ∪ I
G := A I ∞ die von I ∞ erzeugte Mengenalgebra.
Bemerkung a.2:
⎧n
⎫
a) G = A I ∞ = ⎨∪ I i : n ∈ , I i ∈ I ∞ paarweise disjunkt ⎬ und σ G = σ I = B 1
⎩ i =1
⎭
b) λG : G →
+
0
n
mit G=∪ I i
i =1
n
λG (G ) := ∑ ( β i − α i )
i =1
mit I i := (αi , β i ) , I i := [αi , β i ) oder I i := [α i , β i ] mit den üblichen Konventionen
(d.h. β − ( −∞) := +∞ etc.) ist endlich additiv, also ein Inhalt.
c) λG | G ist σ − finit.
Ziel:
Wir zeigen, dass λG | G σ − additiv ist. (vgl. Satz a.1)
Nach dem Maßerweiterungssatz lässt sich dann der σ − finite und σ − additive
Inhalt λG | G zu genau einem Maß λ | B 1 fortsetzen.
λ | B 1 lässt sich nach dem Vervollständigungssatz zu genau einem Maß λ | L fortλ
setzen, wobei L := B1 die Vervollständigung von B 1 bezüglich λ ist.
Definition:
Nach dem oben Gesagten und dem nachfolgenden Satz a.1 existenten und eindeutig
bestimmten Fortsetzungen λ : B 1 → +0 und λ : L → +0 heißen das eindimensionale
Lebesgue-Borel-Maß bzw. das Lebesguesche Maß; L heißt die σ − Algebra der
Lebesgueschen Teilmengen von .
Weg:
1) Wir zerlegen λG | G in eine Summe von abzählbar vielen endlichen Inhalten λz .
2) Wir zeigen, dass jeder dieser endlichen Inhalte λz σ − additiv ist.
Dies geschieht durch den Nachweis der Nullstetigkeit; dazu:
α ) Approximation durch Kompakta von innen.
β ) Nullstetigkeit mit endlicher Durchschnittseigenschaft.
Bemerkung a.3:
a) Bei z ∈
und λz : G →
+
0
mit G
λz (G ) := λG ( G ∩ [ z, z + 1) )
ist λz ein endlich additiver und finiter Inhalt.
b) Sind die Inhalte λz alle σ − additiv, so ist auch λ := ∑ λz | G σ − additiv.
z∈
Außerdem gilt: λ | G = λG | G.
c) Bei Tz :
→
mit x
Tz ( x ) := x + z ist λz (G ) = λ0 Tz −1 (G ) := λ0 (Tz −1 (G ))
∀G ∈ G.
d) Für jedes I ∈ I ∞ und jedes ε > 0 existiert ein Kompaktum I 0 ∈ I ∞ mit
I 0 ⊂ I ∩ [0,1) und λ0 ( I \I 0 ) ≤ ε .
e) Da eine endliche Vereinigung von Kompakta kompakt ist, gilt:
∀G ∈ G ∀ε > 0 ∃ K ∈ G kompakt mit K ⊂ G ∩ [0,1) und λ0 (G \K ) ≤ ε .
Satz a.1:
λ0 | G ist σ − additiv (und damit auch λG | G).
Wir betrachten nun einige Eigenschaften des Lebesgue-Borelschen Maßes:
Satz a.2: Ist A ⊂
abzählbar, so ist A ∈ B 1 und λ ( A) = 0.
Warnung: Cantorsches Diskontinuum D ist überabzählbar und λ ( D ) = 0
Anmerkung 2:
1) card (B 1 ) = card ( )
2) L ⊃ B 1 und L ≠ B 1
3) B ∈ L ⇔ λ∗ ( B ) = λ ∗ ( B )
Satz a.3:
Seien α , β ∈
mit α ≠ 0 und T :
→
mit x
T ( x ) := α x + β . Dann gilt:
−1
1) T ( B ) ∈ B 1 ⇔ B ∈ B 1 ⇔ T ( B ) ∈ B 1
2) λ (T ( B )) = α λ ( B ) ∀B ∈ B 1
3) Aus 1) und 2) und der Definition von λ ∗ und λ∗ folgt:
α ) T −1 ( L) ∈ L ⇔ L ∈ L ⇔ T ( L) ∈ L
β ) λ∗ (T ( A)) = α λ∗ ( A) und λ ∗ (T ( A)) = α λ ∗ ( A) ∀A ∈ P( )
speziell: λ (T ( A)) = α λ ( A) ∀A ∈ L
Anmerkung 3:
1) Translationsinvarianz und σ − Finitheit von λ und λ .
2) Haarsches Maß
3) Zählmaß translationsinvariant, aber nicht σ − finit.
Problem: L = P( ) oder L ≠ P( ) ?
Antwort: Hängt von den Axiomen der Mengenlehre ab.
Literaturhinweise:
Keisler-Tarski: Fundamenta Mathematicae L III (1964)
Solovay: Annals of Mathematics 92 (1970)
Benedetto: Real Variable and Integration. Teubner: Stuttgart, 1976
Satz a.4: (Vitali, 1905)
In einem Zermelo-Fränkel-Modell der Mengenlehre mit dem Auswahlaxiom gilt:
L ≠ P( ) .
Beispiel: (Sierpinski, 1920)
Bemerkung a.4:
a) ∀L ∈ L mit λ ( L) > 0 und ∀α mit 0 ≤ α < 1 ∃ ∅ ≠ G ∈ T mit λ ( L ∩ G ) ≥ αλ (G )
b) ∀L ∈ L mit λ ( L) > 0 ∃ G ∈ T mit 0 ∈ G und G ⊂ L − L := {x − y : x, y ∈ L}
Satz a.5:
Seien x ∈ \
und Ax := { y + zx : y , z ∈
}. Dann ist Ax
dicht in .
§23 M5 Messbare Funktionen
Seien ( X , A ) ein Messraum, A := X \A für A ⊂ X , n ∈ , bzw. n versehen mit der
gewöhnlichen Topologie T bzw. T n und B n := ( n , T n ) die von T n erzeugte
σ − Algebra der Borelschen Teilmengen von (
T bzw. T
n
n
,T
n
).
ist die Menge der offenen Teilmengen von
bzw.
n
und damit die
Menge der Vereinigung von offenen Intervallen bzw. Kugeln.
:=
Weiter seien
∪ {−∞, +∞} und B1 :=
B
( B ∪ {{−∞},{+∞}}) die σ − Algebra der
1
Borelschen Teilmengen von
(z.B. aufgefasst als Zweipunktkompaktifizierung).
Erinnerung: (§19 M1)
1) ϕ : ( X , A ) → (Y , B) messbar: ⇔ ϕ −1 (B) := {ϕ −1 ( B ) : B ∈ B} ⊂ A
2) ϕ : ( X , A ) → (Y , B) und ψ : (Y , B) → ( Z , C) messbar ⇒ ψ ϕ : ( X , A ) → ( Z , C) messbar
3) Sei ϕ : X → Y eine Abbildung und E ⊂ P(Y ). Nach Lemma 1, §19 M1:
σ
(ϕ −1 (E)) = ϕ −1 (σ E)
Definition:
a) Eine messbare Abbildung f : ( X , A ) → ( , B 1 ) heißt messbare (reelle)
Funktion. Wir schreiben dann kürzer: f : ( X , A ) →
messbar.
b) Eine messbare Abbildung f : ( X , A ) → ( , B1 ) heißt messbare numerische
Funktion. Wir schreiben dann kürzer: f : ( X , A ) →
c) Sei B ∈ P( X ). Die Abbildung 1B : X →
mit x
messbar.
⎧1 für x ∈ B
1B ( x ) := ⎨
⎩0 für x ∉ B
heißt die Indikatorfunktion der Menge B.
Bemerkung 1:
Seien A, B, Ai ∈ P( X ). Dann gilt:
1) A ⊂ B ⇔ 1A ≤ 1B
2) 1X \A = 1 − 1A
3) 1 A = sup1Ai
∪ i i∈I
4) 1 A = inf 1Ai
∩ i i∈I
i∈I
{
5) 1A−1 (B 1 ) = ∅, A, A, X
}
i∈I
6) 1A : ( X , A ) → ( , B 1 ) messbar ⇔ A ∈ A
Bemerkung 2:
Folgende Aussagen sind äquivalent:
1) f : ( X , A ) →
(∼)
ist eine messbare (numerische) Funktion
2) {x ∈ X : f ( x ) ≥ α } ∈ A ∀α ∈
3) {x ∈ X : f ( x ) > α } ∈ A ∀α ∈
4) {x ∈ X : f ( x ) ≤ α } ∈ A ∀α ∈
5) {x ∈ X : f ( x ) < α } ∈ A ∀α ∈
Satz 1:
Seien f , g : ( X , A ) →
a)
messbare numerische Funktionen und α ∈ . Dann:
{x ∈ X : f ( x ) ≥ g ( x )}∈ A
{x ∈ X : f ( x ) > g ( x )}∈ A
{x ∈ X : f ( x ) = g ( x )}∈ A
{x ∈ X : f ( x ) ≠ g ( x )}∈ A
b) Falls die numerischen Funktionen f + g , f − g , α f , f ⋅ g ,
f
g
1
1
1
:= 0 =:
, 0 ⋅ ( ±∞) := 0, := ∞ )
∞
−∞
0
wohldefiniert sind, sind auch diese messbare numerische Funktionen.
(punktweise definiert; z.B. mit den Konventionen
Anmerkung:
Sei F( X , A ) die Menge der reellen messbaren Funktionen f : ( X , A ) → .
Versehen mit der punktweisen Addition und der punktweisen Skalarenmultiplikation ist F( X , A ) ein reeller Vektorraum.
Satz 2:
Sei ( f n : n ∈
) eine Folge messbarer numerischer Funktionen
fn : ( X , A) → .
Dann sind auch die (punktweise definierten) numerischen Funktionen
sup f n , inf f n , lim sup f n und lim inf f n messbare numerische Funktionen auf ( X , A ).
n∈
n∈
n∈
Existiert lim in
n∈
n∈
für jedes x ∈ X , so ist auch diese Funktion messbar.
Warnung: Dies braucht nicht bei überabzählbaren Familien ( f i : i ∈ I ) zu gelten.
Beispiel: X := [0,1] ; A := { A ⊂ X : A oder X \A abzählbar}
1{x} : ( X , A ) →
messbar für alle x ∈ X . Aber: sup 1{x} = 1[0,1/ 2] nicht messbar.
x∈[ 0,1/ 2]
Anmerkung und Definition:
F( X , A ) ist ein Vektorverband, d.h. mit f , g ∈ F( X , A ) ist auch sup( f , g ) und inf( f , g )
in F( X , A ).
f + := sup( f ,0) Positivteil, f − := − inf( f ,0) Negativteil und f := f + +f − Betrag von f .
f messbar ⇒ f + , f − , f messbar.
Warnung: Mit f braucht nicht auch f messbar zu sein.
Satz 3:
Sei ( f n : n ∈
) eine Folge messbarer numerischer Funktionen
fn : ( X , A) → .
Dann gilt:
{x ∈ X : lim f n ( x ) = +∞}∈ A
{x ∈ X : lim f n ( x ) = −∞}∈ A
{x ∈ X : lim f n ( x ) existiert in }∈ A
{x ∈ X : lim f n ( x ) existiert nicht in }∈ A
{x ∈ X : lim f ( x) existiert in }∈ A
{x ∈ X : lim f ( x) existiert nicht in }∈ A
n
n
Bezeichnung:
{ f > α } := {x ∈ X : f ( x ) > α }, { f
≠ g } := {x ∈ X : f ( x ) ≠ g ( x )},
{ f ∈ B} := {x ∈ X : f ( x ) ∈ B} etc.
Satz 4:
Sei f : ( X , A ) →
eine messbare numerische Funktion. Dann gilt:
a) Punktweise Approximation durch endliche Treppenfunktionen:
Bei f n := − n 1{ f <− n} + Rn− + Rn+ + n 1{n ≤ f } mit
−
n
R :=
n 2n
k
∑−2
k =1
n
1 − k / 2n ≤ f <− ( k −1) / 2n
{
}
k −1
1 ( k −1) / 2n ≤ f <k / 2n
n
{
}
k =1 2
gilt: lim f n ( x ) = f ( x ) ∀x ∈ X und f n ( X ) ⊂
Rn+ :=
n 2
n
∑
n∈
Ist f ( X ) ⊂
+
0
∀n ∈ .
, so gilt f n ( x ) ≤ f n +1 ( x ) ≤ f ( x ) ∀x ∈ X ∀n ∈ .
Ist f beschränkt, so gilt lim sup f n ( x ) − f ( x ) = 0
n∈
x∈X
b) Gleichmäßige Approximation durch unendliche Treppenfunktionen:
Bei g n := −∞ 1{ f =−∞} + Rn−,∞ + Rn+,∞ + ∞ 1{ f =+∞} mit
∞
Rn−,∞ := ∑ −
k =1
k
1 n
n
2n {− k / 2 ≤ f <− ( k −1) / 2 }
k −1
1 ( k −1) / 2n ≤ f <k / 2n
n
{
}
k =1 2
∞
Rn+,∞ := ∑
gilt: lim sup g n ( x ) − f ( x ) = 0 und
n∈
x∈X
g n ( x ) ≤ g n +1 ( x ) ≤ f ( x ) ∀x ∈ X ∀n ∈ .
Ist f ( X ) ⊂ , so ist auch g n ( x ) ⊂ .
§24 M6 Das µ - Integral
a) Das µ - Integral von elementaren Funktionen
Seien X eine Menge, A eine Mengenalgebra über X und µ | A ein Inhalt.
Definition:
a) Bei n ∈
u: X →
und α i ∈
und Ai ∈ A für i = 1,..., n heißt die Abbildung
n
u ( x ) := ∑ αi 1Ai ( x )
mit x
i =1
eine elementare Funktion (Treppenfunktion) auf ( X , A ).
n
b) Bei u wie in a) mit Ai ∩ Aj = ∅ für i ≠ j und X = ∪ Ai heißt u eine
i =1
eine elementare Funktion in Normalform.
c) E := E ( X , A ) := Menge der elementaren Funktion auf ( X , A ).
d) E + := E + ( X , A ) := {u ∈ E ( X , A ) : u ≥ 0}
Beispiele a.1:
1) X := [0,1] und A := B 1 ∩ [0,1] := {B ∩ [0,1] : B ∈ B 1}
⎧1 für x ∈ ∩ [0,1]
mit u( x ) := ⎨
sonst
⎩0
v ( x ) := 1 ∩[0,1] + 0 ⋅ 1[0,1]\ Normalform von u ; u und v elementare Funktionen.
u: X →
2) X und A wie oben. v : X →
mit x
v ( x ) := x ist keine elementare Funktion.
Anmerkung a.1:
1) u ∈ E ( X , A ) ⇒ u( X ) endlich und u( x ) =
∑
α∈u ( X )
α1{u =α } Normalform.
2) ( X , A ) Messraum, also A eine σ − Algebra. u ∈ ( X , A ) ⇒ u ∈ F( X , A )
Menge der messbaren reellen Funktionen auf ( X , A ).
Bemerkung a.1:
Seien u, v ∈ E ( X , A ) und α ∈ . Dann gilt:
1) α ⋅ u ∈ E ( X , A )
2) u + v ∈ E ( X , A )
3) u ⋅ v ∈ E ( X , A )
4) sup(u, v ) ∈ E ( X , A )
+
−
5) inf(u, v ) ∈ E ( X , A )
6) u := sup(u,0), u := − inf(u,0), u := u + + u − ∈ E ( X , A )
Bemerkung a.1*:
Mit der punktweisen Skalarenmultiplikation, Addition und Halbordnung ist E ( X , A )
ein -linearer Vektorverband.
Bemerkung a.2:
m
n
i =1
j =1
Für zwei Normalformen u = ∑ αi 1Ai = ∑ β j 1B j einer elementaren Funktion
m
n
∑α µ ( A ) = ∑ β µ ( B )
u ∈ E + ( X , A ) gilt:
i =1
i
i
j =1
j
j
Definition:
m
a) Für u ∈ E + ( X , A ) in der Normalform u = ∑ α i 1Ai heißt
i =1
∫
m
X
u d µ := ∑ α i µ ( Ai ) das µ − Integral von u über X .
i =1
b) Bei u ∈ E ( X , A ) mit
und
∫
X
∫
X
u + d µ < ∞ und
∫
X
u − d µ < ∞ heißt u µ -integrabel
u d µ := ∫ u + d µ − ∫ u − d µ das µ − Integral von u über X .
X
X
c) I ( X , A, µ ) := {u ∈ E ( X , A ) : u ist µ − integrabel}
Bemerkung a.3:
Seien u, v ∈ E + ( X , A ), α ∈
+
0
und A ∈ A. Dann gilt:
∫ 1 d µ = µ ( A) und 1 ist genau dann µ − integrabel, wenn µ ( A) < ∞
2) ∫ α u d µ = α ∫ u d µ
3) ∫ (u + v ) d µ = ∫ u d µ + ∫ v d µ
4) u ≤ v ⇒ ∫ u d µ ≤ ∫ v d µ
1)
X
A
A
X
X
X
X
X
X
X
Bemerkung a.3.1:
m
Ist u = ∑ αi 1Ai eine beliebige Darstellung eines u ∈ E + ( X , A ), so gilt:
i =1
∫
m
X
u d µ = ∑ αi µ ( Ai )
i =1
Bemerkung a.3*:
Mit der punktweisen Skalarenmultiplikation, Addition und Halbordnung ist
I ( X , A, µ ) ein - linearer Vektorverband.
Die Abbildung I : I ( X , A, µ ) →
I (u ) := ∫ u d µ ist eine positive Linear-
mit u
X
form.
Bemerkung a.4:
µ
Seien ( X , A, µ ) ein Maßraum und ( X , A , µ ) seine Vervollständigung. Dann:
∀u ∈ I ( X , A , µ ) ∃ u1 , u2 ∈ I ( X , A, µ ) mit u1 ≤ u ≤ u2 , µ ({u1 ≠ u2 }) = 0 und
µ
∫
X
u1 d µ = ∫ u d µ = ∫ u2 d µ.
X
X
b) Das µ-Integral nichtnegativer messbarer Funktionen
Sei ( X , A, µ ) ein Maßraum. Es gelten die Konventionen:
0 ⋅ ( ±∞) := 0; α + ( ±∞) := ±∞ ∀α ∈ ; α ⋅ ( ±∞ ) := ±∞ ∀α ∈ + .
Anmerkung b.1:
1) ( un : n ∈
) Folge in E + ( X , A ) und v ∈ E + ( X , A ) mit un ≤ v, so gilt:
sup ∫ un d µ ≤ ∫ v d µ.
n∈
X
X
+
+
0
2) Bei un ∈ E ( X , A ) ist sup un : ( X , A ) →
n∈
messbar.
3) ...
Bemerkung b.1:
Sei ( un : n ∈
) eine isotone Folge in E + ( X , A ). Dann gilt:
1) sup ∫ un d µ = lim ∫ un d µ
n∈
n∈
X
X
∫
2) Für v ∈ E + ( X , A ) mit v ≤ sup un gilt:
n∈
3) Für zwei isotone Folgen ( un : n ∈
)
X
v d µ ≤ sup ∫ un d µ
n∈
und ( vn : n ∈
sup un ≤ sup vn gilt: sup ∫ un d µ ≤ sup ∫ vn d µ.
n∈
n∈
Anmerkung b.2:…
n∈
X
n∈
X
X
) in E + ( X , A ) mit
Definition:
E := E ( X , A; ) := {sup un : un ∈ E + ( X , A ) mit un ≤ un +1 ∀n ∈
+∗
+∗
F := F + ( X , A; ) := { f : ( X , A ) →
+
+
0
}
messbar}
Anmerkung b.3:
1) E +∗ ( X , A; ) = F + ( X , A; ) ⊃ E + ( X , A )
2) Bei un ∈ E +∗ ( X , A; ) ist sup un ∈ E +∗ ( X , A; )
n∈
Definition:
Für f ∈ E +∗ ( X , A; ) mit f = sup un bei un ∈ E + ( X , A ) bei un ≤ un +1 ∀n ∈
n∈
heißt
∫
X
f d µ := sup ∫ un d µ das µ − Integral von f über X .
X
n∈
Bemerkung b.2:
Für f , g ∈ E +∗ ( X , A; ) und α ∈
+
0
gilt:
1) α f ∈ E +∗ ( X , A; )
2) f + g ∈ E +∗ ( X , A; )
3) sup( f , g ) ∈ E +∗ ( X , A; )
4) inf( f , g ) ∈ E +∗ ( X , A; )
Bemerkung b.3:
Für f , g ∈ E +∗ ( X , A; ) und α ∈
+
0
gilt:
∫ α f dµ = α∫ f dµ
2) ∫ ( f + g ) d µ = ∫ f d µ + ∫ g d µ
3) f ≤ g ⇒ ∫ f d µ ≤ ∫ g d µ
1)
X
X
X
X
X
X
X
Bemerkung b.3*:
Die Abbildung I ∗ : E +∗ ( X , A; ) →
mit f
I ∗ ( f ) := ∫ f d µ ist positiv-homogen,
X
additiv und isoton.
Satz b.1:
(isotone Konvergenz I; B.Levi)
Sei ( f n : n ∈
) eine Folge in E +∗ ( X , A;
∫
n∈
sup f n d µ = sup ∫ f n d µ
X n∈
X
) mit f n ≤ f n +1 ∀n ∈ . Dann gilt:
Anmerkung: hier ist sup f n = lim f n
n∈
n∈
Warnung:
∫
f n ≥ f n +1 ⇒
inf f n d µ = inf ∫ f n d µ
X n∈
n∈
X
Beispiel: X := , A := P( ), µ | P( ) := Zählmaß; f n := 1{m∈
∫
X
f n d µ = µ ({m ∈
: m ≥ n}) = +∞, aber
∫
:m ≥ n}
≥ f n +1 → f ≡ 0
inf f n d µ = ∫ f d µ = 0
X n∈
X
Folgerung b.1.1:
Sei ( f n : n ∈
∑∫
n∈
X
) eine Folge in E +∗ ( X , A;
fn d µ = ∫
X
∑f
n∈
n
). Dann gilt:
dµ
c) Die µ-Integrierbarkeit und elementare Eigenschaften des µ-Integrals
Sei ( X , A, µ ) ein Maßraum. Sei f : X → eine numerische Funktion. Dann heißt
f + := sup(0, f ) der Positivteil,
f − := − inf( f ,0) = ( − f ) + der Negativteil und
f := f + + f − der Betrag von f .
Es ist f + ≥ 0, f − ≥ 0 und f = f + − f − . Für f ≥ 0 ist f + = f und f − = 0.
Definition:
a) Eine messbare numerische Funktion f : ( X , A ) →
∫
(µ -integrabel), wenn gilt:
X
f + d µ < ∞ und
∫
X
f − d µ < ∞.
b) Eine messbare numerische Funktion f : ( X , A ) →
∫
wenn gilt:
X
f + d µ < ∞ oder
∫
X
heißt µ -integrierbar
heißt µ -quasi-integrierbar,
f − d µ < ∞.
c) Ist f µ -integrierbar oder µ -quasi-integrierbar, so heißt:
∫
X
f d µ := ∫ f + d µ − ∫ f − d µ das µ -Integral von f über X
X
X
(gegebenenfalls mit ( +∞) − α := +∞ und α − ( +∞ ) := −∞ für α ∈ ).
Wir sagen, dass das µ -Integral eigentlich bzw. uneigentlich existiert,
wenn
∫
X
f dµ ∈
bzw.
Andere Schreibweise:
∫
X
∫
X
f d µ ∈ {−∞, +∞} ist.
f ( x ) µ ( dx ) := ∫ f d µ
X
d) L 1 := L 1 ( µ ) := L 1 ( X , A, µ ) := { f : ( X , A ) →
µ -integrierbar}
Satz c.1:
Sei f : ( X , A ) → eine messbare numerische Funktion.
Dann sind folgende Aussagen äquivalent:
1) f ist µ -integrierbar
2) f + und f − sind µ -integrierbar.
3) Es existieren µ -integrierbare numerische Funktionen u, v ≥ 0 mit f = u − v
4) Es existiert eine µ -integrierbare Funktion g mit f ≤ g.
5) f ist µ -integrierbar.
Satz c.2:
Seien f , g : ( X , A ) →
µ -integrierbare messbare numerische Funktionen und α ∈ . Dann:
1) α f , sup( f , g ), inf( f , g ) und f + g (falls definiert; eventuell mit Konvention)
sind µ -integrierbar.
∫
3) ∫
2)
X
α f dµ = α∫ f dµ
X
( f + g) d µ = ∫ f d µ + ∫ g d µ
X
X
∫
dµ ≤ ∫
4) f ≤ g ⇒
5)
∫
X
f
X
X
f dµ ≤ ∫ g dµ
X
X
f dµ
Satz c.2*:
Mit der punktweisen Skalarenmultiplikation, Addition und Halbordnung ist
L 1 ( X , µ , A ) ein - linearer Vektorverband.
Die Abbildung I µ : L 1 ( X , A, µ ) →
mit f
I µ ( f ) := ∫ f d µ ist eine positive (d.h.
X
isotone) Linearform.
Bemerkung c.1: Ist f : ( X , A ) →
µ -integrierbar, so gilt µ ({ f = ∞}) = 0.
Definition:
Seien f : ( X , A ) → eine messbare numerische Funktion und A ∈ A.
f heißt µ -integrierbar über A bzw. µ -quasiintegrierbar über A, wenn 1A f
µ -integrierbar bzw. µ -quasiintegrierbar ist. Dann sei
Anmerkung: ….
∫
A
f d µ := ∫ 1A f d µ.
X
Bemerkung c.2:
Bei n ∈
n
und Ai ∈ A mit Ai ∩ Aj = ∅ für i ≠ j gilt für B := ∪ Ai
i =1
n
∫
und µ -quasi-integrierbares f :
B
f dµ = ∑∫ f dµ
Ai
i =1
Definition:
Eine durch eine Menge A ∈ A beschriebene Eigenschaft P gilt µ -fast überall
(kurz: µ -f.ü.), wenn µ ( X \A) = 0 gilt.
Eine Eigenschaft P ist durch A beschreibbar, wenn A = {x ∈ X : P( x ) ist wahr}.
Bemerkung c.3:
Seien f , g : ( X , A ) →
messbare numerische Funktionen und A ∈ A. Dann:
a) Bei f = g µ -fast überall ist f genau dann µ -(quasi-)-integrierbar über A,
wenn g µ -(quasi-)-integrierbar über A ist.
Im Falle der Existenz gilt dann:
∫
A
f dµ = ∫ g dµ
A
b) Bei f ≤ g µ -fast überall gilt für µ -quasi-integrierbares f und g :
∫
A
f dµ ≤ ∫ g dµ
A
c) Ist g µ -integrierbar über A und f ≤ g µ -fast überall, so ist auch f
µ -integrierbar über A und
∫
A
f d µ ≤ ∫ g d µ.
A
Bemerkung c.4:
Seien f , g : ( X , A ) →
messbare numerische Funktionen und A ∈ A. Dann:
a) f = 0 µ -fast überall ⇒
⇐
∫
X
f dµ = 0
b) Bei f ≥ 0 µ -fast überall gilt:
c) f = 0 µ -f.ü. ⇔
∫
A
∫
X
f d µ = 0 ⇒ f = 0 µ -f.ü.
f d µ = 0 ∀A ∈ A
d) Sind f und g µ -integrierbar, so gilt:
f = g µ -f.ü. ⇔
∫
A
f d µ = ∫ g d µ ∀A ∈ A.
A
e) Sind f und g µ -quasi-integrierbar und gilt
so braucht nicht f = g µ -f.ü. zu gelten.
∫
A
f d µ = ∫ g d µ ∀A ∈ A ,
A
Bemerkung c.5:
Sei f µ -integrierbar und A := {x ∈ X : f ( x ) ≠ 0}. Dann ist das Maß µ A : A →
mit B
+
0
µ A ( B ) := µ ( A ∩ B ) σ − finit.
§25 Zu M6, §24: §24.d Bildmaße und Integraltransformationen
Seien ( X , A ) und (Y , B) Messräume und T : ( X , A ) → (Y , B) eine messbare Abbildung.
d) Bildmaße und Einschränkungen von Maßen.
Bemerkung d.1:
Sei µ : A →
mit B
+
0
ein Maß. Dann ist auch µ T −1 : B →
µ T −1 ( B ) := µ (T −1 ( B )) ein Maß. Ist µ : A →
so braucht µ T : B →
−1
+
0
+
0
+
0
σ − finit,
nicht auch σ − finit zu sein.
Definition:
In der Situation von Bemerkung d.1 heißt µ T −1 : B →
µ bezüglich T .
+
0
das Bildmaß von
Satz d.1: (Integraltransformationssatz)
Seien ( X , A, µ ) ein Maßraum, T : ( X , A ) → (Y , B) eine messbare Abbildung
und f : (Y , B) →
eine messbare numerische Funktion. Dann gilt:
a) Ist f nichtnegativ, so gilt:
∫
B
f d µ T −1 = ∫
T −1 ( B )
f T d µ ∀B ∈ B.
b) f ist genau dann µ T −1 integrierbar, wenn f T µ -integrierbar ist.
Ist dies der Fall, so gilt:
∫
B
f d µ T −1 = ∫
T −1 ( B )
f T d µ ∀B ∈ B.
§26 M7 Integralkonvergenzsätze
(Teil 1)
Seien ( X , A, µ ) ein Maßraum und f n , f , h : ( X , A ) →
Funktionen.
Frage: Wann folgt aus " f n → f " auch
∫
X
messbare numerische
fn d µ → ∫ f d µ ?
X
Beispiel 1:
X := , A := P( ), µ | A mit µ ({x}) := 2 − x ∀x ∈ X .
Es ist µ ( X )
=
geometr.Reihe
1 (normiertes Maß). Sei f n := 2n 1{n} und f ≡ 0;
pktw.
f n ( x ) ⎯⎯⎯
→ f ( x ) = 0 ∀x ∈ X , aber
∫
X
f n d µ = 2n ⋅ µ ({n}) = 1 ⎯⎯
→ ∫ f dµ = 0
X
Bemerkung:
Seien ( X , A, µ ) ein finiter Maßraum (d.h. µ ( X ) < ∞) und ( f n : n ∈
) eine
gleichmäßig gegen f konvergente Folge von µ -integrierbaren Funktionen f n .
Dann ist auch f µ -integrierbar und lim ∫ f n d µ = ∫ f d µ.
n →∞
X
X
Warnung:
Ist ( X , A, µ ) nicht finit, so gilt die Behauptung aus Bemerkung 1 i.A. nicht.
Beispiel 2:
a) X :=
, A := P( ) und µ|A mit µ ({x}) := 2 + x ∀x ∈ X .
n
g n := 1{n}; f n := ∑ 2 −ν gν und f := ∑ g n ⋅ 2 − n ; 0 ≤ f n ∈ E + ( X , A ) und f = lim f n = sup f n
0 ≤ ∑2
ν =1
gn < ∑ 2
−n
n∈
aber:
b) X :=
aber:
∫
−n
n∈
X
fn d µ=
n∈
n∈
< ∞ ⇒ f n ⎯⎯⎯
→f
glm .
n
∑
∫
ν
=1
X
2 −ν gν d µ = n und
∫
X
f d µ = sup ∫ f n d µ = +∞
, A := P( ) und µ|A Zählmaß, f n :=
∫
X
f n d µ = +∞ ⎯⎯
→ ∫ f d µ = 0.
genauso bei g n :=
Anmerkung: …
X
1
⋅1
n {1,...,n}
n∈
X
1
glm .
1 , f :≡ 0 ; f n ⎯⎯⎯
→f
n
n∈
Satz 1:
(monotone Konvergenz; B.Levi)
Es konvergiere die Folge ( f n : n ∈
f n ≤ f n +1 für n ∈
) µ − fast überall gegen
und es existiere ein k ∈
mit
∫
X
f bei
f k - d µ < ∞.
Dann gilt: lim ∫ f n d µ = ∫ f d µ
n →∞
X
X
Warnung:
“isoton“ ist wesentlich; bei antitoner Folge braucht die Aussage des Satzes nicht zu
gelten.
Folgerung 1.1:
Bei f n ≥ 0 µ -fast überall für alle n ∈
∫ ∑f
X
n∈
n
gilt:
d µ = ∑ ∫ f n d µ.
n∈
X
Folgerung 1.2:
Seien f ≥ 0 µ -f.ü., An ∈ A mit An ∩ Am für n ≠ m und A := ∪ An
n∈
Dann gilt:
∫
A
f d µ = ∑ ∫ f d µ.
n∈
An
Lemma von Fatou:
Bei f n ≥ 0 µ -f.ü. ∀n ∈
∫
gilt:
lim inf f n d µ ≤ lim inf ∫ f n d µ.
X n →∞
Satz 2:
n →∞
X
(majorisierte Konvergenz I, Lebesgue)
Es existiere ein µ − integrierbares h mit f n ≤ h µ -f.ü. ∀n ∈ . Dann gilt:
a) lim inf f n und lim sup f n sind µ -integrierbar.
n →∞
b)
∫
n →∞
lim inf f n d µ ≤ lim inf ∫ f n d µ ≤ lim sup ∫ f n d µ ≤ ∫ lim sup f n d µ.
X n →∞
n →∞
X
c) Es konvergiere die Folge ( f n : n ∈
n →∞
X n →∞
X
) µ -fast überall gegen
[oder nach Maß µ -( n.M .i.) für i ∈ {1, 2,3}].
f
Dann ist f µ -integrierbar und lim ∫ f n d µ = ∫ f d µ.
n →∞
X
X
Anmerkung: …
Warnung: " f n ≤ h " und "h µ -integrierbar" sind wesentlich.
Folgerung 2.1:
Seien f µ -integrierbar, An ∈ A mit An ∩ Am für n ≠ m und A := ∪ An .
n∈
Dann gilt:
∫
A
f d µ = ∑ ∫ f n d µ.
n∈
An
Folgerung 2.2:
Sei
∑
n∈
f n µ -integrierbar (d.h. wegen Folgerung 1.1
Dann ist auch
∑f
n∈
n
µ -integrierbar und
∑∫
n∈
X
∑∫
n∈
f n d µ =∫
X
X
f n d µ < ∞).
∑f
n∈
n
d µ.
Bemerkung 2: ( σ − Additivität des µ -Integrals )
Seien f µ -quasi-integrierbar, An ∈ A mit An ∩ Am für n ≠ m und A := ∪ An .
n∈
Dann gilt:
∫
A
f d µ = ∑ ∫ f n d µ.
n∈
An
Folgerung 2.3: (Stetigkeit des Parameterintegrals)
Sei T eine Menge mit Folgenkonvergenz und t0 ∈ T .
Weiter sei f : X × T →
i ) f (⋅, t ) : ( X , A ) →
bei ( x, t )
f ( x, t ) eine Abbildung mit
messbar ∀t ∈ T
ii ) ∃ g ∈ L 1 ( X , A, µ ) mit f (⋅, t ) ≤ g µ -f.ü. ∀t ∈ T
iii ) ∃ N ∈ A mit µ ( N ) = 0, so dass f ( x, ⋅) : T →
folgenstetig ist ∀x ∈ X \N
Dann ist für jedes A ∈ A die Abbildung
IA : T →
mit t
I A (t ) := ∫ f ( x, t ) µ ( dx ) folgenstetig in t0 .
A
Folgerung 2.4: (Vertauschbarkeit von Differentiation und Integration)
Seien T ⊂
mit t0 ∈ T und f : X × T →
mit ( x, t ) → f ( x, t ) eine Abbildung mit
i ) f (⋅, t ) ∈ L 1 ( X , A, µ ) ∀t ∈ T .
∂f
( x, t0 ) existiert ∀x ∈ X \N .
∂t
und ∃ h ∈ L 1 ( X , A, µ ) mit einer der beiden Eigenschaften:
ii ) ∃ N ∈ A mit µ ( N ) = 0, so dass
iii ) ∃ ε ∈
(∗)
+
f (⋅, t ) − f (⋅, t0 )
≤ h µ -f.ü. ∀t0 ≠ t ∈ [t0 − ε , t0 + ε ] ∩ T
t − t0
∂f
∂f
(⋅, t ) und
(⋅, t ) ≤ h µ -f.ü. ∀t ∈ [t0 − ε , t0 + ε ] und [t0 − ε , t0 + ε ] ⊂ T
∂t
∂t
(d.h. T bei t0 lokal ein Intervall).
(∗∗) ∃
Dann ist für jedes A ∈ A die Abbildung
ϕA : T →
ϕ A (t ) := ∫ f ( x, t ) µ (dx ) in t0 nach t differenzierbar
mit t
A
(gegebenfalls einseitig) und es gilt:
d
∂f
f ( x, t0 ) µ ( dx ) = ∫
( x, t0 ) µ ( dx )
∫
A ∂t
dt A
d
∂f
Beispiel: für
f ( x, t ) dx ≠ ∫ ( x, t ) d x
∫
dt 0
∂t
0
1
1
X := [0,1] , A := B 1 ∩ [0,1] , µ = λ[0,1] Lebesguesches Maß.
f ( x, t ) :=
⎛ t2 ⎞
t3
exp
⎜ − ⎟ für x ∈ ( 0,1] und := 0 für x = 0 ∀t ∈ .
x2
⎝ x⎠
Erfüllt i ) und ii ) von Folgerung 2.4:
1
integrierbar: ϕ X (t ) = ∫
i ) f (⋅, t ) ∀t ∈
0
1
⎛ t 2 ⎞⎤
f ( x, t ) = t exp ⎜ − ⎟ ⎥ = t exp( −t 2 )
⎝ x ⎠⎦0
ii ) f ( x, ⋅) ∀x ∈ [0,1] differenzierbar nach t :
t2
Für x ≠ 0 :
t4
− 3
⎛ t2 ⎞ 2
∂f
( x, t ) = exp ⎜ − ⎟ (3 x − 2 x )
∂t
⎝ x⎠
auf ⎡⎣0,1⎤⎦ integrierbar
Für x = 0 :
∂f
(0, t ) = 0 ∀t ∈
∂t
; auf [0,1] integrierbar
2
dϕ X
(t ) = e − t (1 − 2t 2 )
dt
1
1
dϕ
∂f
Aber: ∫ ( x,0) dx = ∫ 0 dx = 0 ≠ 1 = X (0)
dt
∂t
0
0
ϕ X auf
differenzierbar:
§27 M8 L p − und Lp - Räume
Sei ( X , A, µ ) ein Maßraum.
Bemerkung 1:
Sei f : ( X , A ) →
1) f
p
und f
p
eine messbare numerische Funktion und p ∈
sind messbar; f
+
. Dann gilt:
ist µ -quasi-integrierbar.
p
2) Ist f µ -integrierbar, so braucht f
p
und damit f
p
nicht integrierbar zu sein.
Beispiel 1:
Sei 1 < p < ∞, X := ; A := P( X ); µ ({n}) := n − p −1; f ( n ) = n.
∫
Dann:
Aber:
∫
f d µ = ∑ n ⋅ n − p −1 = ∑ n − p < ∞, wg. 1 < p.
X
X
n∈
f
p
n∈
dµ = ∑n ⋅n
p
− p −1
n∈
= ∑ n −1 = ∞ (harmonische Reihe).
n∈
Definition:
Sei f : ( X , A ) →
f
p
(∫
:=
X
f
p
dµ
eine messbare numerische Funktion und p ∈ . Es sei
)
1/ p
bei ∞ p := ∞ und ∞1/ p := ∞.
Beispiel 2:
p∈
+
. X := {1, 2}; A := P( X ); µ ({1}) = 0, µ ({2}) = 1
f ( x ) := x und g ≡ 2. Dann: f − g
p
= 0; aber: f ≠ g
Satz 1:
Seien f , g : ( X , A ) →
messbare numerische Funktionen und p ∈ .
Dann gilt:
a) 0 ≤ f
p
≤∞
b) positiv homogen: α f
p
=α⋅ f
p
∀α ∈ .
c) Höldersche Ungleichung:
Bei 1 < p < ∞ und q ∈
f g1≤ f
p
g
q
mit
1 1
+ = 1 gilt:
p q
d) Minkowskische Ungleichung:
Bei 1 ≤ p < ∞ und (µ -fast) überall definiertem f + g gilt:
f +g
p
e) Seien f
≤ f
p
p
+ g
p
< ∞ und g
< ∞. Bei 1 ≤ p < ∞ gilt:
p
sup( f , g ) p < ∞ und inf( f , g ) p < ∞.
Insbesondere gilt:
f
p
f+
<∞ ⇔
p
< ∞ und f −
p
<∞
Zusatz zu Satz 1:
1 1
+ = 1 (und damit q < 0) gilt:
p q
1) "umgedrehte Ungleichung von Hölder":
Für 0 < p < 1 und q ∈
mit
Für f ∈ L p + ( X , A, µ ) := {h ∈ L p ( X , A, µ ) : h ≥ 0 µ -f.ü.} und g ∈ L q + ( X , A, µ )
mit g
q
≠ 0 gilt:
f g1≥ f
p
g
q
2) "umgedrehte Ungleichung von Minkowski":
Für f ∈ L p + ( X , A, µ ) und q ∈ L p + ( X , A, µ ) gilt:
f +g ≥ f
p
+ g
p
Definition 2:
Sei 1 ≤ p ∈
+
a) Eine messbare Funktion f : ( X , A ) →
f
p
mit f
p
< ∞ heißt p -fach µ -integrierbar.
heißt "p -Norm" von f .
b) L p ( X , A, µ ) := L p ( µ ) := { f : ( X , A ) →
p -fach µ -integrierbar}
Satz 1*:
Mit der punktweisen Skalarenmultiplikation und Addition und mit der
Halbnorm
⋅
p
ist L p ( X , A, µ ) für 1 ≤ p ein
-linearer halbnormierter
Vektorverband.
Definition 3:
a) Die Konvergenz in L p ( X , A, µ ) heißt Konvergenz im p − ten Mittel.
b) Bei p = 2 : f ∈ L 2 ( X , A, µ ) heißt quadratisch integrierbar bezüglich µ .
Die Konvergenz heißt Quadratmittelkonvergenz.
Bemerkung 2:
1) Seien p, q ∈ \{0}. Dann gilt:
1 1
+ = 1 ⇔ p + q = pq ⇔ p = pq − q ⇔ ( p − 1)( q − 1) = 1
p q
1 1
2) Für 1 < p < ∞ und q ∈ + mit + = 1 folgt:
p q
f
p −1
q
=
(f
)
1/ q
q ( p −1)
1
=
(f )
3) Bei p = 2 folgt q = 2 aus
1/ q
p
1
1 1
+ = 1. Dann: Hölder = Cauchy-Schwarz.
p q
Satz 2:
1 1
+ = 1.
p q
Bei f ∈ L p ( X , A, µ ) und g ∈ L q ( X , A, µ ) ist f ⋅ g ∈ L 1 ( X , A, µ )
+
a) Seien 1 < p < ∞ und q ∈
und
b) Bei µ ( X ) < ∞ und 1 ≤ p ≤ r < ∞ gilt:
L 1 ( X , A, µ ) ⊃ L p ( X , A, µ ) ⊃ L r ( X , A, µ )
+
c) Seien p ∈
, f ∈ L p ( X , A, µ ) und g : ( X , A ) →
beschränkt. Dann ist
f ⋅ g ∈ L p ( X , A, µ ).
Warnung:
Bei µ ( X ) = ∞ und 1 ≤ p < ∞ folgt im allgemeinen werder L 1 ( µ ) ⊃ L p ( µ )
noch L 1 ( µ ) ⊂ L p ( µ ).
Beispiel :
X := ; A := P( ); µ ({n}) :=
Dann:
Aber:
∫
∫
X
f dµ = ∑
n∈
1
1
; f (n) =
n
n
1 1
1
⋅
= ∑ = +∞; f ∉ L 1 ( X , A, µ )
n n n∈ n
p
X
f
p
⎛ 1 ⎞ 1
⎛ 1 ⎞
dµ = ∑⎜
= ∑⎜
⎟ ⋅
⎟
n⎠
n n∈ ⎝ n ⎠
n∈ ⎝
p +1
< ∞ wg. p > 1 und
p +1
> 1.
2
Bemerkung 3:
Sei ν : A →
+
0
ein weiteres Maß. Dann gilt: L 1 ( µ + ν ) = L 1 ( µ ) ∩ L 1 (ν ).
Satz 3: (majorisierte Konvergenz II, Lebesgue)
Seien 1 ≤ p < ∞,
( f n : n ∈ ) eine µ -fast-überall konvergente Folge von
messbaren Funktionen f n : ( X , A ) →
und g ∈ L p ( X , A, µ ) mit f n ≤ g
µ -f.ü. ∀n ∈ . Dann gilt:
1) f n ∈ L p ( X , A, µ ) und ∃ f ∈ L p ( X , A, µ ) mit f n → f µ -f.ü.
2) f n − f
p
→ 0 für n → ∞.
Bemerkung 4:
Für 1 ≤ p < ∞ und 0 ≤ g n ∈ L p ( X , A, µ ) ist
∑g
n∈
≤ ∑ gn p .
n
p
n∈
Satz 4: (Fischer – Riesz)
(
Seien 1 ≤ p < ∞ und ( f n : n ∈ ) eine Cauchyfolge in L p ( X , A, µ ), ⋅
Dann gilt:
a) ∃ f ∈ L p ( X , A, µ ) mit f n − f
p
b) ∃ Teilfolge ( f m : m ∈ M ) von
(
→ 0 für n → ∞
( f n : n ∈ ) mit
Insbesondere ist L p ( X , A, µ ), ⋅
Warnung:
1) f n − f
p
→ 0 ⇒ f n → f µ -f.ü.
2) f n → f µ -f.ü. ⇒
fn − f
p
→0
p
f m ⎯⎯⎯
→ f µ -f.ü.
m∈M
) vollständig.
p
).
Beispiele:
1) X := [0,1] ; A := B 1 ∩ [0,1] ; µ := λ[0,1] ; f n := 1An (mit An wie in Zeichnung unten )
∫
X
f n d µ = λ ( An ) → 0
also (Stetigkeit der Wurzelfunktion):
fn
p
→0
aber: f n → f ≡ 0.
2) X , A, µ wie oben, f n := n ⋅ 1( 0,1/ n] ; f n → f ≡ 0 ( µ -f.ü.)
∫
X
f n d µ = 1 ∀n ∈ , also:
fn − f
p
→ 0.
Zeichnung:
Satz 5:
Seien 1 ≤ p < ∞, µ ( X ) < ∞ und f n , f ∈ L p ( X , A, µ ) mit f n − f
Dann gilt: f n , f ∈ L 1 ( X , A, µ ) und
fn − f
1
→ 0.
Warnung:
" µ ( X ) < ∞ " ist wesentlich in Satz 5. Beispiel !
p
→ 0.
§28 M9 Markov-Kerne und der verallgemeinerte Satz von Fubini
Seien
die Menge der reellen Zahlen,
:=
∪ {+∞, −∞} und B (bzw. B) die
σ − Algebra der Borelschen Teilmengen von bzw.
σ − Algebra ist, die alle offenen Intervalle enthält.
, welches die kleinste
Weiter seien Ω eine nichtleere Menge, K eine σ − Algebra auf Ω , p : K → [0,1] ein
normiertes Maß.
Schließlich seine für i = 1, 2 :
Ωi eine nichtleere Menge,
pri : Ω1 × Ω 2 → Ωi mit ω := (ω1 , ω2 )
Ω1 × Ω 2 auf Ωi ,
K i eine σ − Algebra auf Ω und
pri := ωi die kanonische Projektion von
⎛ 2
⎞
K 1 ⊗ K 2 :=σ ⎜ ∪ pri −1 (K i ) ⎟ die Produkt- σ − Algebra auf Ω1 × Ω 2 , welche von den
⎝ i =1
⎠
messbaren Rechtecken K1 × K 2 mit Ki ∈ K i erzeugt wird.
⎛ 2
⎞
K 1 ⊠ K 2 die Produktmengenalgebra auf Ω1 × Ω 2 , welche von ⎜ ∪ pri −1 (K i ) ⎟ erzeugt
⎝ i =1
⎠
wird.
Bemerkung 1:
⎧n
K 1 ⊠ K 2 = ⎨∪ A1ν × A2ν : Aiν ∈ K i , ( A1ν × A2ν ) ∩ ( A1µ × A2 µ ) = ∅ für ν ≠ µ
⎩ν =1
⎧ n µν
= ⎨∪∪ ( A1ν × A2 µ ) : Aik ∈ K i ; Aiκ ∩ Aiλ = ∅ für κ ≠ λ ; µν ≤ n ∈
⎩ν =1 µ =1
⎫
⎬
⎭
⎫
⎬
⎭
Definition 1:
a) Seien A eine Teilmenge von Ω1 × Ω 2 und ω1 ∈ Ω1.
Die Menge Aω1 := {ω2 ∈ Ω2 : (ω1 , ω2 ) ∈ A} heißt der ω1 − Schnitt von A.
b) Seien f : Ω1 × Ω 2 →
eine Abbildung und ω1 ∈ Ω1.
Die Abbildung fω1 : Ω 2 →
mit ω2
f (ω1 , ω2 ) heißt der ω1 − Schnitt von f .
Zeichnung:
Satz 1:
Seien A ∈ K 1 ⊗ K 2 , ω1 ∈ Ω1 und f : (Ω1 × Ω 2 , K 1 ⊗ K 2 ) → ( , B) messbar. Dann gilt:
a) Aω1∈K 2
b) fω1 : (Ω 2 , K 2 ) → ( , B) ist messbar.
Definition 2:
Die Abbildung P : Ω1 × K 2 → [0,1] heißt Markov-Kern (oder: Übergangswahrscheinlichkeit) von (Ω1 , K 1 ) nach (Ω 2 , K 2 ) wenn gilt:
i ) P(ω1 , ⋅) : K 2 → [0,1] ist ein normiertes Maß für jedes ω1 ∈ Ω1.
ii ) P(⋅ , K 2 ) : (Ω1 , K 1 ) → [0,1] ist messbar für jedes K 2 ∈ K 2 .
Beispiele:
a) Seien (Ω1 , K 1 ) ein Messraum und (Ω1 , K 2 , p2 ) ein normierter Maßraum.
Dann ist: P : Ω1 × K 2 → [0,1] mit (ω1 , K 2 )
P(ω1 , K 2 ) := p2 ( K 2 ) ein Markov-
Kern, der nicht von ω1 abhängt.
b) Seien Ωi := {1,..., ni }, K i := P(Ωi ), a : Ω1 → Ω 2 eine Abbildung und
p1 : K 1 → [0,1] ein normiertes Maß mit p1 ({ω1}) > 0 für alle ω1 ∈ Ω1.
Auf folgende Weise können wir einen Markov-Kern definieren:
p1 ( a −1 ( K 2 ) ∩ {ω1})
P(ω1 , K 2 ) :=
= p1 ( a −1 ( K 2 ) | {ω1}) .
p1 ({ω1})
Interpretation:
P(ω1 , K 2 ) ist die Wahrscheinlichkeit, von ω1 nach K 2 durch die Abbildung a zu
gelangen.
Satz 2:
(Verallgemeinerter Satz von Fubini)
Seien P : Ω1 × K 2 → [0,1] ein Markov-Kern von (Ω1 , K 1 ) nach (Ω 2 , K 2 ),
f : (Ω1 × Ω1 , K 1 ⊗ K 2 ) → ( , B) eine messbare Funktion mit f + := max( f ,0)
und p : K 1 → [0,1] ein normiertes Maß. Dann gilt:
a) Es existiert genau ein normiertes Maß P : K 1 ⊗ K 2 → [0,1] mit
P( K1 × K 2 ) = ∫ P(ω1 , K 2 ) p( d ω1 ) für alle K1 ∈ K 1 und K 2 ∈ K 2 .
K1
b) g : (Ω1 , K 1 ) → ( , B) mit ω1
g (ω1 ) := ∫ ( f + )ω1 (ω2 ) P(ω1 , d ω2 )
Ω2
ist messbar.
c)
∫
Ω1 ×Ω 2
f + dP= ∫
Ω1
g (ω1 ) p( d ω1 )
(beide Integrale sind gleichzeitig endlich oder unendlich)
Wenn f bezüglich P integrierbar ist, so gilt:
d) Es existiert ein N ∈ K 1 mit p( N ) = 0, so dass
h : (Ω1 , K 1 ) → ( , B) mit ω1
0 für ω1 ∈ N
⎧⎪
h(ω1 ) := ⎨
⎪⎩ ∫Ω2 fω1 (ω2 ) P(ω1 , d ω2 ) sonst
eine messbare Funktion ist.
e)
∫
Ω1 ×Ω 2
f dP =
∫
Ω1
h(ω1 ) p(d ω1 )
Anmerkung:
Anstelle von
∫
K1
P(⋅ , K 2 ) dp
∫
K1
P(ω1 , K 2 ) p ( d ω1 ) benutzen wir auch die folgende Notation:
Bemerkung 2:
Sei G eine Mengenalgebra über Ω und E ⊂ G mit
i ) A, B ∈ E ⇒ A ∩ B ∈ E
⎧n
⎫
ii ) G = ⎨∪ Ai : n ∈ , Ai ∩ Aj = ∅ für i ≠ j, Ai ∈ E ⎬
⎩ i =1
⎭
und µ : E →
+
0
additiv. Dann:
∃1 Inhalt µ : G →
+
0
mit µ ( E ) = µ ( E ) ∀E ∈ E; µ ist endlich.
Korollar 2.1:
Seien (Ω1 , K 1 , µ1 ) und (Ω 2 , K 2 , µ2 ) σ − finite Maßräume. Dann existiert genau ein Maß
µ : K1 ⊗ K 2 →
+
0
mit µ ( K1 × K 2 ) = µ1 ( K1 ) ⋅ µ2 ( K 2 ) ∀K1 ∈ K 1 ∀K 2 ∈ K 2
Definition:
Das Maß µ | K 1 ⊗ K 2 aus Korollar 2.1 wird das Produktmaß der Maße
µ1 | K 1 und µ2 | K 2 genannt und mit µ1 × µ2 oder µ1 ⊗ µ2 bezeichnet.
Warnung:
" σ − finit " in Korollar 2.1 ist wesentlich. (Sonst mit anderen Methode nur noch
Existenz, aber keine Eindeutigkeit.)
Korollar 2.2: (Satz von Fubini)
Seien (Ω1 , K 1 , µ1 ) und (Ω 2 , K 2 , µ2 ) σ − finite Maßräume und f : Ω1 × Ω 2 →
eine µ1 ⊗ µ2 − integrierbare Funktion. Dann gilt:
a) Für µ2 -fast alle ω2 ∈ Ω 2 ist fω1 : Ω 2 →
bzgl. µ2 integrierbar.
Analog: fω2
b) Die µ1 -fast überall definierte Funktion ω1
∫
Ω2
f (ω1 , ω2 ) µ2 ( d ω2 ) ist
bzgl. µ1 integrierbar. Ebenso: 1 ↔ 2.
c) Es gilt:
∫
Ω1 ×Ω 2
f d µ1 ⊗ µ2 = ∫
∫
Ω1 Ω 2
f (ω1 , ω2 ) µ2 ( d ω2 ) µ1 ( d ω1 ) = ∫
Ω2
∫
Ω1
f (ω1 , ω2 ) µ1 ( d ω1 ) µ2 ( d ω2 )
Literaturverzeichnis
[1] Otto Forster: Analysis I. vieweg. 5.Auflage, 1999.
[2] Otto Forster: Analysis II. vieweg. 5.Auflage, 1984
[3] Konrad Königsberger: Analysis I.
[4] Erik Ekström: Kurzgefasste Lösungen zu den Übungen in Analysis I.
Mathematisches Institut Uni München, 2005
[5] Heinz Bauer: Maß- und Integrationstheorie. De Gruyter, 1990
Herunterladen