Analysis I - Universität Stuttgart

Werbung
Analysis I
Universität Stuttgart, WS 2015/16
M. Griesemer
Inhaltsverzeichnis
0 Grundlagen
0.1 Aussagen und Mengen . . . . . .
0.2 Abbildungen . . . . . . . . . . . .
0.3 Relationen . . . . . . . . . . . . .
0.4 Der Körper der reellen Zahlen . .
0.5 Der Körper der komplexen Zahlen
1 Die
1.1
1.2
1.3
1.4
1.5
Reellen Zahlen
Anordnung der reellen Zahlen
Das Vollständigkeitsaxiom . .
Natürlichen Zahlen, Induktion
Ganze und rationale Zahlen .
Mächtigkeit von R . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . .
. . . . . . . . .
und Rekursion
. . . . . . . . .
. . . . . . . . .
2 Zahlenfolgen
2.1 Konvergenz . . . . . . . . . . . . . .
2.2 Monotone Folgen und Wurzeln . . . .
2.3 Der Satz von Bolzano und Weierstraß
2.4 Das Cauchy-Kriterium . . . . . . . .
2.5 Uneigentliche Konvergenz . . . . . .
2.6 Limes Superior und Limes Inferior . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Reihen
3.1 Definition und Beispiele . . . . . . . . . . . . . . . . .
3.2 Reihen mit nichtnegativen Gliedern und Dezimalbrüche
3.3 Absolute Konvergenz . . . . . . . . . . . . . . . . . . .
3.4 Bedingte Konvergenz . . . . . . . . . . . . . . . . . . .
3.5 Umordnung von Reihen . . . . . . . . . . . . . . . . .
3.6 Die Exponentialfunktion . . . . . . . . . . . . . . . . .
3.7 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
9
10
13
.
.
.
.
.
17
17
18
19
21
22
.
.
.
.
.
.
23
23
25
26
27
27
28
.
.
.
.
.
.
.
30
30
32
33
34
34
35
37
2
4 Stetige Funktionen
4.1 Definition und Beispiele . . . . .
4.2 Rechnen mit stetigen Funktionen
4.3 Stetige Funktionen auf Intervallen
4.4 Grenzwerte von Funktionen . . .
4.5 Die Logarithmusfunktion . . . . .
4.6 Hyperbolische Funktionen . . . .
4.7 Trigonometrische Funktionen . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Differentialrechnung
5.1 Begriff der Ableitung . . . . . . . . . . .
5.2 Ableitungsregeln . . . . . . . . . . . . .
5.3 Maxima und Minima . . . . . . . . . . .
5.4 Der Mittelwertsatz . . . . . . . . . . . .
5.5 Unstetigkeiten der Ableitung sind zweiter
5.6 Ableitungen höherer Ordnung . . . . . .
5.7 Die Taylorsche Formel . . . . . . . . . .
5.8 Konvexe Funktionen . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
Art
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
40
41
42
46
48
50
.
.
.
.
.
.
.
.
54
54
55
58
59
62
63
65
69
3
0
0.1
Grundlagen
Aussagen und Mengen
Gesetze der Logik und Beweismethoden
Zweck dieses Kapitels ist die Präzisierung der Umgangssprache und die Herleitung
logischer Gesetze.
Eine Aussage ist ein Satz, in Worten oder Zeichen, welcher zweifelsfrei als
wahr oder falsch deklariert werden kann; nicht beides zugleich und es gibt auch
nichts drittes. Eine Aussageform ist ein Satz in Worten oder Zeichen, welcher
mindestens eine Variable enthält und für jede zuläßige Belegung der Variablen
zu einer Aussage wird.
Aussagen und Aussageformen können modifiziert oder verknüpft werden durch
folgende Operationen:
¬A : nicht A
A ∨ B : A oder B
A ∧ B : A und B
A, B sind hier Platzhalter für Aussagen oder Aussageformen. Der Wahrheitswert
der neuen Aussage hängt nur vom Wahrheitswert der Teilaussage (A, B) ab, und
ist durch folgende Tabelle definiert. 0 steht für falsch; 1 steht für wahr.
A ¬A
0
1
1
0
A
0
0
1
1
B
0
1
0
1
∧
0
0
0
1
∨
0
1
1
1
Zwei Aussageformen heißen äquivalent, in Zeichen A ⇔ B, falls A genau
dann wahr ist wenn B wahr ist. Die Aussageform A impliziert die Aussageform
B, in Zeichen A ⇒ B (“aus A folgt B”) falls B immer wahr ist, wenn A wahr ist.
Satz 0.1.1. Es gelten die Kommutativ-, Assoziativ- und Distributivgesetze:
A∧B ⇔ B∧A
A∨B ⇔ B∨A
(A ∧ B) ∧ C ⇔ A ∧ (B ∧ C)
(A ∨ B) ∨ C ⇔ A ∨ (B ∨ C)
A ∧ (B ∨ C) ⇔ (A ∧ B) ∨ (A ∧ C)
A ∨ (B ∧ C) ⇔ (A ∨ B) ∧ (A ∨ C).
4
Satz 0.1.2 (De Morgansche Regeln).
¬(A ∧ B) ⇔ (¬A ∨ ¬B)
¬(A ∨ B) ⇔ (¬A ∧ ¬B).
Axiome sind Aussagen die gemäß Vereinbarung wahr sind, Lemma, Satz,
Theorem und Korollar bezeichnen wahre Aussagen die mit Hilfe von logischen
Gesetzen, Rechnungen etc. (Beweis) aus den Axiomen folgen.
Elementarer Beweistechniken
• Der direkte Beweis von B hat die Struktur A ⇒ B,
• der indirekter Beweis beruht auf dem Kontrapositionsgesetz, wonach A ⇒
B gleichbedeutend ist mit ¬B ⇒ ¬A,
• der Widerspruchsbeweis hat die Struktur ¬B ⇒ (C ∧ ¬C).
Existenz- und Allquantor
A(x) bezeichne eine Aussageform. Die neuen Aussagen
∀x A(x)
:
“für alle x gilt A(x)”,
∃x A(x)
:
“es existiert ein x so dass A(x) gilt”,
sind per Definition genau dann wahr, wenn A(x) wahr ist für alle x, bzw. wenn
V
(mind.) ein x existiert, so dass A(x) wahr ist. Andere Notationen für ∀, ∃ sind ,
W
. Die de Morganschen Regeln für diese Quantoren lauten (Axiom)
¬ ∀x A(x) ⇔ ∃x ¬A(x),
¬ ∃x A(x) ⇔ ∀x ¬A(x).
Mengen
Eine Menge M ist eine Zusammenfassung von Objekten m, genannt Elemente
von M , zu einem Ganzen. Man schreibt m ∈ M für die Aussage “m ist Element
von M ”, kurz “m in M ”, und man schreibt m 6∈ M , sprich “m nicht in M ”, für
die Negation davon. Auch die leere Menge ∅, welche per Definition kein einziges
Element enthält, ist eine Menge.
Mengen können durch Aufzählung aller Elemente beschrieben werden oder
auch durch eine Aussageform. Ist A(x) eine Aussageform, welche für alle x einer
Grundmenge X definiert ist, dann bezeichnet
A = {x ∈ X|A(x)}
5
die Menge aller x in X, für welche A(x) wahr ist. Wichtige Menge mit festen
Namen sind
N := {1, 2, . . .}
Menge der natürlichen Zahlen
Z := {0, ±1, ±2, . . .}
Menge der ganzen Zahlen
Q := {m/n|(m ∈ Z) ∧ (n ∈ N)}
Menge der rationalen Zahlen
R := Menge der reellen Zahlen
C := Menge der komplexen Zahlen.
Man sagt “A ist Teilmenge von B” und schreibt A ⊂ B, wenn jedes Element
von A auch eine Element von B ist. D.h.,
A ⊂ B ⇔ (x ∈ A ⇒ x ∈ B)
Insbesondere gilt für jede Menge A, dass ∅ ⊂ A und A ⊂ A. Man schreibt A = B,
wenn A ⊂ B und B ⊂ A. D.h.,
A = B ⇔ (x ∈ A ⇔ x ∈ B)
Weiter definiert man für beliebige Mengen A und B
A ∩ B := {x|(x ∈ A) ∧ (x ∈ B)}
Durchschnitt
A ∪ B := {x|(x ∈ A) ∨ (x ∈ B)}
Vereinigung
A\B := {x ∈ A|x 6∈ B}
Differenz
Zwei Mengen mit leerem Durchschnitt heißen disjunkt. Falls A Teilmenge einer
Grundmenge X ist, über welche kein Zweifel besteht, dann heißt
Ac := X\A
das Komplement von A.
Satz 0.1.3. Durchschnitt und Vereinigung von Mengen sind kommutativ und
assoziativ. Weiter gelten für beliebige Mengen A, B, C die Distributivgesetze:
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
Sei I eine beliebige Indexmenge, endlich oder unendlich, und für jedes i ∈ I
sei Ai ein Menge. Man spricht dann von der Familie (Ai )i∈I von Mengen und
definiert
[
Ai := {x|∃i∈I (x ∈ Ai )}
i∈I
\
i∈I
Ai := {x|∀i∈I (x ∈ Ai )}
6
Satz 0.1.4. Für beliebige Mengen B, (Ai )i∈I gilt
B\
[
Ai =
\
i∈I
i∈I
\
Ai =
[
B\
i∈I
B\Ai
B\Ai
i∈I
Die Menge aller Teilmengen einer Menge A heißt Potenzmenge von A und
wird mit P(A) bezeichnet. Das kartesische Produkt zweier Mengen A und B
ist die Menge
A × B := {(a, b)|a ∈ A ∧ b ∈ B}
der geordneten Paare (a, b). Im allgemeinen A × B 6= B × A. Weiter definiert man
A1 × A2 × · · · An := {(a1 , a2 . . . , an )|ai ∈ Ai }
Rn := R × . . . × R
n Faktoren
Operationen auf Mengen und Aussagen
Jeder Verknüpfung (oder Relation) von Aussagen entspricht eine Verknüpfung
(Relation) von Mengen:
X\A = {x ∈ X | ¬(x ∈ A)}
0.2
\ : ¬
A ∪ B = {x | (x ∈ A) ∨ (x ∈ B)}
∪ : ∨
A ∩ B = {x | (x ∈ A) ∧ (x ∈ B)}
∩ : ∧
A ⊂ B ⇔ (x ∈ A ⇒ x ∈ B)
⊂ :⇒
A = B ⇔ (x ∈ A ⇔ x ∈ B)
= :⇔
Abbildungen
Seien A, B beliebige Mengen. Eine Abbildung (oder Funktion) f von A nach
B, in Zeichen
f :A→B
ist eine Vorschrift, welche jedem Element a ∈ A eindeutig ein Element b ∈ B
zuordnet. Man schreibt b = f (a) oder f : a 7→ b.
7
Bezeichnungen
f:
f (a) :
Name der Abbildung,
Bild von a (Wert von f an der Stelle a),
a:
Urbild von b = f (a),
A:
Definitionsbereich von f ,
B:
Wertebereich,
f (A) := {f (a)|a ∈ A} Bild von (A unter) f .
Bemerkungen:
1. Ein Bildpunkt b ∈ B kann mehr als ein Urbild haben!
2. Zwei Abbildungen f : A → B, g : C → D sind nur dann gleich, in Zeichen
f = g wenn A = C, B = D und f (a) = g(a) für alle a ∈ A.
3. Abbildungen in einen Zahlenbereich, z.B. B = R, werden in der Regel als
Funktionen bezeichnet.
Der Graph von f ist die Menge
Γ(f ) := {(a, b) ∈ A × B|b = f (a)}
Eine Teilmenge G ⊂ (A × B) ist genau dann der Graph einer Abbildung wenn zu
jedem a ∈ A genau ein b ∈ B existiert mit (a, b) ∈ G. Dann wird durch f (a) := b
eine Abbildung definiert mit Γ(f ) = G. Man kann diese Charakterisierung von
Abbildungen durch ihre Graphen als Definition des Konzepts einer Abbildung
verwenden und so die nicht erklärten Begriffe “Vorschrift” und “Zuordnung” vermeiden.
Standardabbildungen
1) idA : A → A ist die Identität idA (a) = a.
2) Sei M ⊂ A. Die Abbildung
χM : A → {0, 1},
χM (a) =
(
1 a∈M
0 b∈
/M
heißt charakteristische Funktion von M .
3) Ist f : A → B eine Abbildung und M ⊂ A, dann wird durch f M : M →
B, a 7→ f (a) eine neue Abbildung definiert. Sie heißt Einschränkung von
f auf M . Bezeichnung f |M oder f M .
8
4) Eine Abbildung f : {1, . . . , n} → X, X beliebig, heißt n-Tupel. f ist
vollständig bestimmt durch die n Werte xk := f (k), k = 1, . . . , n. D.h. durch
(x1 , . . . , xn ) ∈ X n . X n kann man also auffassen als Menge der Abbildungen
von {1, . . . , n} nach X.
5) Eine Abbildung f : N → X, X beliebig, heißt Folge in X. Man schreibt fk
statt f (k) und
(fk )k∈N , (fk )k≥1 , (fk ) oder (f1 , f2 , f3 , . . .)
statt f : N → X.
Komposition von Abbildungen
Die Komposition (Zusammensetzung, Verknüpfung) von zwei Abbildungen f :
A → B und g : B → C ist die Abbildung
g ◦ f : A → C,
(g ◦ f )(a) := g(f (a)).
Satz 0.2.1. Die Verknüpfung von Abbildungen ist assoziativ. D.h. wenn f : A →
B, g : B → C und h : C → D, dann
(h ◦ g) ◦ f = h ◦ (g ◦ f ).
Eine Abbildung f : A → B heißt injektiv, wenn
f (a) = f (b)
⇒
a = b,
d.h. wenn jeder Punkt in B höchstens ein Urbild hat. Äquivalent dazu ist a 6=
b ⇒ f (a) 6= f (b). Die Abbildung f heißt surjektiv falls f (A) = B und sie heißt
bijektiv, wenn sie injektiv und surjektiv ist.
Ist f : A → B bijektiv, so kann man eine Umkehrabbildung f −1 : B → A
(Inverse von f ) definieren durch
f −1 (b) = a
⇔
f (a) = b
es gilt dann f −1 (f (a)) = a für alle a ∈ A und f (f −1 (b)) = b für alle b ∈ B. D.h.
f −1 ◦ f = idA ,
f ◦ f −1 = idB .
Es gilt Γ(f −1 ) = {(b, a)|(a, b) ∈ Γ(f )}.
Satz 0.2.2. Für jede Abbildung f : A → B (A, B 6= ∅) gilt
(a) f ist genau dann injektiv, wenn eine Abbildung g : B → A existiert mit
g ◦ f = idA ,
(Linksinverse)
9
(a) f ist genau dann surjektiv, wenn eine Abbildung h : B → A existiert mit
f ◦ h = idB ,
(Rechtsinverse)
(c) f ist genau dann bijektiv, wenn Abbildungen g, h : B → A existieren mit
g ◦ f = idA ,
f ◦ h = idB .
Dann ist g = h = f −1 .
Satz 0.2.3. Sind f : A → B und g : B → C bijektiv, so ist auch g ◦ f bijektiv
und es gilt
(g ◦ f )−1 = f −1 ◦ g −1 .
Abbildungen von Mengen
Ist f : A → B eine Abbildung, bijektiv oder nicht, und U ⊂ A, V ⊂ B, dann
definiert man
f (U ) := {f (a)|a ∈ U } Bild von U,
f
0.3
−1
(V ) := {a ∈ A|f (a) ∈ V } Urbild von V.
Relationen
Eine Relation auf einer Menge A ist eine Teilmenge R von A×A. Statt (a, b) ∈ R
schreibt man z.B. a ∼R b.
Beispiel: Die Zeichen =, <, >, ≤, ≥ definieren Relationen auf R.
Eine Relation ∼ auf einer Menge A heißt Äquivalenzrelation, falls für alle
a, b, c ∈ A
(a) a ∼ a
(reflexiv )
(b) a ∼ b ⇒ b ∼ a
(symmetrisch)
(c) (a ∼ b) ∧ (b ∼ c) ⇒ a ∼ c
(transitiv )
Die Menge
[a] := {b ∈ A|b ∼ a}
heißt Äquivalenzklasse von a.
Beispiel: Es gibt eine Landverbindung von A nach B definiert eine Äquivalenzrelation zwischen Orten auf der Erde. Die entsprechenden Äquivalenzklassen heißen,
je nach Größe, Inseln, Kontinente oder Erdteile.
10
Satz 0.3.1. Sei ∼ eine Äquivalenzrelation auf der Menge A. Dann gilt
[
A=
[a],
a∈A
wobei für alle a, b ∈ A entweder [a] = [b] oder [a] ∩ [b] = ∅. D.h. ∼ induziert eine
Zerlegung von A in paarweise disjunkte Äquivalenzklassen.
Nach diesem Satz erzeugt jedes Element b ∈ [a] dieselbe Äquivalenzklasse wie
a:
[b] = [a]
und heißt daher Repräsentant von [a].
Ist ∼ eine Äquivalenzrelation auf A, dann ist
A/ ∼:= {[a]|a ∈ A}
(sprich “A modulo ∼”) die Menge der Äquivalenzklassen.
0.4
Der Körper der reellen Zahlen
Mit den natürliche Zahlen sind wir aus der Schule vertraut und aus N können
wir N0 , Z und Q aufbauen. Aber was sind reelle Zahlen wie z.B.
√
2 = 1.4142135 . . . ,
gelten für diese die gleichen Rechenregeln wie für die rationalen Zahlen? Wenn ja,
woher wissen wir das? Anschaulich entspricht jede reelle Zahl einem Punkt auf
der Zahlengeraden. Man kann nun einen Körper konstruieren der Q enthält und
die gewünschten Eigenschaften (Anordnung und Vollständigkeit) hat, vergleiche
dazu die Bücher von Amann u. Escher, Rudin und Pöschel. Wir ersparen uns das
in dieser Vorlesung, und beschreiben stattdessen R durch eine Liste von Axiomen,
aus welchen wir die gewünschten Eigenschaften herleiten können.
Die Menge der reellen Zahlen hat
• eine algebraische Struktur (Körper)
• eine Ordnungsstruktur (a ≤ b),
• und sie ist vollständig (Existenz des Supremum).
Die algebraische Struktur wird durch die Körperaxiome beschrieben. Ein Körper
ist eine nichtleere Menge K zusammen mit zwei Abbildungen
+ : K × K → K,
(a, b) 7→ a + b
· : K × K → K,
(a, b) 7→ a · b
(Addition und Multiplikation), welche die folgenden Axiome erfüllen:
11
(A1) Die Addition ist assoziativ und kommutativ: (a + b) + c = a + (b + c) und
a + b = b + a.
(A2) Es gibt ein Element 0 ∈ K (neutrales Element der Addition), so dass a+0 =
a für alle für alle a ∈ K.
(A3) Zu jedem a ∈ K gibt es ein b ∈ K (Inverse von a bezüglich Addition), so
dass a + b = 0.
(M1) Die Multiplikation ist assoziativ und kommutativ: (a · b) · c = a · (b · c) und
a · b = b · a.
(M2) Es gibt ein Element 1 ∈ K, 1 6= 0 (neutrales Element der Multiplikation),
so dass a · 1 = a für alle a ∈ K.
(M3) Zu jedem a ∈ K, a 6= 0 gibt es ein b ∈ K, so dass a · b = 1 (Inverse bezüglich
Multiplikation).
(D) Für alle a, b, c ∈ K gilt a · (b + c) = a · b + a · c.
Bemerkungen:
1. Die neutralen Elemente bezüglich Addition und Multiplikation sind eindeutig bestimmt (→ Lineare Algebra).
2. Die inversen Elemente bezüglich Addition und Multiplikation sind eindeutig
bestimmt.
Man schreibt −a für die additive Inverse von a und a−1 für die Inverse
bezüglich Multiplikation. Außerdem
a − b := a + (−b),
a
:= a · b−1 .
b
Satz 0.4.1. In einem Körper K gilt:
(a)
a + x = b hat die eindeutige Lösung x = b − a.
(b)
a · x = b hat für a 6= 0 die eindeutige Lösung x = ab .
Satz 0.4.2. In einem Körper K gilt:
(a)
−(−a) = a, (a−1 )−1 = a,
(b)
(−a) + (−b) = −(a + b), (a−1 ) · (b−1 ) = (a · b)−1 ,
(c)
a · 0 = 0, a · (−1) = −a,
12
(d)
(−1) · (−1) = 1, (−a)−1 = −(a−1 ),
(e)
a · b = 0 ⇒ a = 0 oder b = 0.
Aus den Axiomen und obigem Satz folgt:
a c
ad + bc
a c
ac
a · b−1
ad
+ =
,
· = ,
.
=
−1
b d
bd
b d
bd
c·d
bc
falls bd 6= 0, bzw. b, c, d 6= 0.
Man fordert von den reellen Zahlen zusätzlich, dass sie angeordnet und
vollständig sind. Das bedeutet, dass eine eine totale Ordnung “≤” existiert mit
b > a ⇔ b − a > 0 und a, b > 0 ⇒ a · b > 0, und dass jede nichtleere, nach oben
beschränkte Teilmenge ein Supremum in R hat (vgl. Analysis, Kapitel 1). Man
kann zeigen, dass es bis auf Isomorphie genau einen angeordneten, vollständigen
Körper gibt. Er wird mit R bezeichnet. Man definiert dann die natürlichen Zahlen
durch
2 := 1 + 1, 3 := 2 + 1, etc.
und bekommt so N, dann Z und Q. Mit Hilfe der Vollständigkeit werden wir
zeigen, dass zu jeder Zahl a > 0 genau eine Zahl b > 0 existiert mit b2 = a. b
√
heißt Wurzel von a und wird mit a bezeichnet. Der Betrag |a| von a ∈ R ist
definiert durch
(
a
für a ≥ 0
|a| :=
−a für a < 0.
√
Es gilt |a| = a2 .
Die erweiterte Zahlengerade
In der Analysis arbeitet man manchmal mit der erweiterten reellen Zahlengeraden
R̄ := R ∪ {−∞, ∞}.
Vereinbarungsgemäß ist für alle x ∈ R
−∞ < x < ∞,
−∞ < ∞.
Man kann auch Addition und Multiplikation teilweise ausdehnen auf R̄ indem
man für alle a ∈ R definiert:
∞ + a = ∞,
∞ · a = ∞,
−∞ + a = −∞,
falls a > 0,
∞ · a = −∞,
a
= 0,
±∞
∞+∞ = ∞
falls a < 0,
∞ · ∞ = ∞,
−∞ · ∞ = −∞.
13
Außerdem sei die Addition und die Multiplikation auch auf R̄ kommutativ. Ausdrücke wie ∞ · 0, ∞ − ∞, ∞/∞ bleiben undefiniert; die erweiterte Zahlengerade
R̄ ist kein Körper und ±∞ sind keine reellen Zahlen!
Intervalle
Eine Teilmenge I ⊂ R heißt Intervall, wenn für alle a, b ∈ I, c ∈ R gilt
a < c < b ⇒ c ∈ I.
Es gibt abgeschlossene Intervalle
[a, b] := {x|a ≤ x ≤ b},
a, b ∈ R,
(a, b) := {x|a < x < b},
a, b ∈ R,
offene Intervalle
halboffene Intervalle
(a, b] = {x|a < x ≤ b},
[a, b) = {x|a ≤ x < b},
und unbeschränkte Intervalle
(−∞, b] = {x|x ≤ b},
(−∞, b) = {x|x < b},
[a, ∞) = {x|a ≤ x},
(a, ∞) = {x|a < x},
(−∞, ∞) = R.
0.5
Der Körper der komplexen Zahlen
Die Menge R × R versehen mit der Addition
(a, b) + (c, d) = (a + c, b + d)
und der Multiplikation
(a, b) · (c, d) = (ac − bd, ad + bc)
wird mit C bezeichnet. Die Elemente von C heißen komplexe Zahlen.
Satz 0.5.1. C ist ein Körper und R ⊂ C.
14
Bemerkung: Mit R ⊂ C ist gemeint, dass die Elemente (a, 0) ∈ C mit reellen
Zahlen identifiziert werden können. Es gilt nämlich
(a, 0) + (c, 0) = (a + c, 0)
(a, 0) · (c, 0) = (ac, 0).
Wir schreiben im Folgenden a statt (a, 0) und i := (0, 1) für die imaginäre
Einheit. Es gilt
(a, b) = a + ib,
i2 = −1.
Die reelle Zahl a heißt Realteil von z = a + ib, a = Re(z), und b heißt Imaginärteil, b = Im(z). Weiter ist
z̄ := a − ib
die zu z = a + ib konjugiert komplexe Zahl.
Satz 0.5.2. In C gilt
(i)
(ii)
z̄¯ = z,
z + w = z̄ + w̄,
z · w = z̄ · w̄,
(iii)
Re(z) = 12 (z + z̄),
(iv)
z∈R
(v)
z = a + ib
⇔
Im(z) =
1
(z
2i
− z̄),
z = z̄,
⇒
z̄ · z = a2 + b2 .
Betrag und Argument
Der Betrag |z| einer komplexen Zahl z = a + ib ist definiert durch
√
√
|z| := z̄z = a2 + b2 .
Als Anwendungsbeispiel für den Betrag berechnen wir die Inverse z −1 einer komplexen Zahl z = a + ib 6= 0:
1
z̄
z̄
a − ib
=
= 2 = 2
,
z
z z̄
|z|
a + b2
vgl. Beweis von Satz 0.5.1.
Satz 0.5.3. In C gilt
(i)
(ii)
|z| ≥ 0 und (|z| = 0 ⇔ z = 0),
|z · w| = |z||w|,
15
(iii)
|z + w| ≤ |z| + |w| (Dreiecksungleichung),
(iv)
| Re z|, | Im z| ≤ |z| ≤ | Re z| + | Im z|.
Korollar 0.5.4. In C gilt:
(i) |
Pn
k=1 zk | ≤
Pn
k=1
|zk |,
(ii) |z| − |w| ≤ |z − w|.
Bemerkung. Ist z 6= 0 dann hat z/|z| den Betrag 1 und ist somit von der Form
cos ϕ + i sin ϕ mit eindeutig bestimmtem Winkel ϕ ∈ [0, 2π). – Wir setzen hier
Schulwissen über sin und cos voraus. – Somit bekommen wir die Polardarstellung
z = |z|(cos ϕ + i sin ϕ)
(1)
einer komplexen Zahl. Der Winkel ϕ heißt Argument von z und ist nur bis auf
ein ganzzahliges Vielfaches von 2π bestimmt. Falls w = |w|(cos ψ + i sin ψ) dann
erhalten wir aus den Additionstheoremen für cos und sin
z · w = |z||w|(cos(ϕ + ψ) + i sin(ϕ + ψ)).
(2)
D.h. bei der Multiplikation von komplexen Zahlen werden die Beträge multipliziert und die Argumente (Winkel) werden addiert. Es ist im Sinn eines axiomatischen Aufbaus der Analysis, wenn wir die Gleichungen (1) und (2) erst verwenden
werden, wenn das erwähnte Schulwissen aus den Axiomen der reellen Zahlen und
noch folgenden Definitionen hergeleitet ist.
Fundamentalsatz der Algebra
Wir definieren ganzzahlige Potenzen einer komplexen Zahl z ∈ C rekursiv durch
z 0 := 1;
z n+1 := z n · z;
z −n := (z −1 )n , z 6= 0;
für n ∈ N. Insbesondere 00 = 1.
Satz 0.5.5. In C \ {0} gilt für alle n, m ∈ Z
(i) (z · w)n = z n · wn ,
(ii) z n · z m = z n+m ,
(iii) (z n )m = z nm .
(z −1 )n = (z n )−1 ,
16
Satz 0.5.6 (Binomische Formel). Für alle n ∈ N und alle z, w ∈ C gilt
n
(z + w) =
n X
n
k=0
k
z k wn−k ,
wobei
n!
n
:=
,
k
k!(n − k)!
k ∈ {0, . . . , n},
die Binomialkoeffizienten sind. 0! = 1, (n + 1)! = (n + 1)n!.
Bemerkung: Der Beweis wird per Induktion in n geführt und beruht auf der
Rekursionsformel
n
n
n+1
+
=
,
k
k+1
k+1
die dem Pascalschen Dreieck zu Grunde liegt.
Theorem 0.5.7 (Fundamentalsatz der Algebra). Jede Gleichung
z n + an−1 z n−1 + . . . + a1 z + a0 = 0,
n≥1
mit komplexen Koeffizienten a0 , . . . , an−1 hat mindestens eine Lösung.
Die Lösung(en) im Fall n = 2 werden wir in den Übungen bestimmen, aber die
Existenz der Lösung im Fall n > 2 werden wir erst viel später beweisen können.
17
1
Die Reellen Zahlen
1.1
Anordnung der reellen Zahlen
Ein Körper heißt angeordnet, wenn:
1. er total geordnet ist, das heißt, wenn es eine Relation ≤ gibt so dass für
alle a, b, c ∈ K
(a) a ≤ a (reflexiv)
(b) (a ≤ b) ∧ (b ≤ a) ⇒ a = b (antisymmetrisch)
(c) (a ≤ b) ∧ (b ≤ c) ⇒ a ≤ c (transitiv)
(d) (a ≤ b) ∨ (b ≤ a) (total)
2. die Relation ≤ mit der Körperstruktur verträglich ist:
(a) b > a ⇔ b − a > 0
(b) a > 0, b > 0 ⇒ a · b > 0,
Def.
wobei a > b ⇐⇒ (a ≥ b) ∧ (a 6= b).
Die Körper Q, R sind angeordnet. Der Körper C der komplexen Zahlen lässt sich
nicht anordnen, denn sonst wäre, nach Satz 1.1.1, −1 = i2 > 0 im Widerspruch
zu 1 > 0 und −1 < 0.
In einem angeordneten Körper gilt das Trichotomiegesetz: für alle a, b ∈ K
gilt entweder
a < b, a = b oder a > b.
Satz 1.1.1. In einem angeordneten Körper gilt:
1)
a < b und b < c ⇒ a < c
2)
a<b⇒ a+c<b+c
3)
a < b ⇒ −a > −b
4)
a < b und c > 0 ⇒ ac < bc
a < b und c < 0 ⇒ ac > bc
5)
a 6= 0 ⇒ a2 > 0, insbesondere 1 = 1 · 1 > 0
6)
a > 0 ⇒ a−1 > 0 und a < 0 ⇒ a−1 < 0
7)
0 < a < b impliziert
b
1
1
a
< 1 < und > .
b
a
a
b
18
8)
a < b und c < d ⇒ a + c < b + d
9)
0 < a < b und 0 < c < d ⇒ ac < bd
a < b und 0 < λ < 1 ⇒ a < λa + (1 − λ)b < b.
10)
In einem angeordneten Körper ist der Betrag |a| eines Elements a definiert
durch
(
a
für a ≥ 0
|a| :=
−a für a < 0.
Satz 1.1.2. Für den Betrag in einem angeordneten Körper gilt
1)
| − a| = |a| und −|a| ≤ a ≤ |a|
2)
|a| ≥ 0 und |a| = 0 ⇔ a = 0
3)
|ab| = |a| · |b|
4)
|a + b| ≤ |a| + |b|
|a|
−
|b|
≤ |a − b|.
5)
1.2
Das Vollständigkeitsaxiom
Sei K ein angeordneter Körper. Eine Teilmenge A ⊂ K heißt nach oben beschränkt, wenn es eine Zahl t ∈ K gibt mit
x ∈ A ⇒ x ≤ t.
Jede Zahl t mit dieser Eigenschaft heißt obere Schranke von A. Falls eine
kleinste obere Schranke existiert, dann wird sie Supremum von A genannt und
mit sup A bezeichnet.
Bemerkungen:
1) Das Supremum von A, falls es existiert, kann in A oder in K \ A liegen.
Wenn es in A liegt, dann wird es auch Maximum von A genannt und mit
max A bezeichnet.
2) Wenn t < sup A dann existiert ein a ∈ A mit a > t. Sonst wäre t eine
obere Schranke von A im Widerspruch dazu dass sup A die kleinste obere
Schranke ist.
Die Begriffe nach unten beschränkt, und untere Schranke werden analog
definiert. Die größte untere Schranke von A ⊂ K, falls sie existiert, heißt Infimum von A und wird mit inf A bezeichnet. Wenn inf A ∈ A, dann spricht man
19
vom Minimum von A und schreibt min A. A ⊂ K ist genau dann nach unten
beschränkt wenn −A = {−a|a ∈ A} nach oben beschränkt ist und
inf A = − sup(−A).
A ⊂ K heißt beschränkt, wenn A nach oben und nach unten beschränkt ist.
Ein angeordneter Körper heißt vollständig, falls jede nicht leere, nach oben
beschränkte Menge ein Supremum hat.
Satz 1.2.1. Sind K1 und K2 vollständige, angeordnete Körper, dann gibt es ein
bijektive Abbildung ϕ : K1 → K2 mit
ϕ(a + b) = ϕ(a) + ϕ(b),
und
ϕ(a · b) = ϕ(a) · ϕ(b),
a < b ⇒ ϕ(a) < ϕ(b),
für alle a, b ∈ K1 .
Nach Satz 1.2.1 sind K1 und K2 als angeordnete Körper nicht unterscheidbar: a und ϕ(a) sind nur verschiedene Namen für dasselbe Objekt. Wir setzen
im folgenden voraus, dass es einen vollständigen, angeordnete Körper gibt und
bezeichnen ihn mit R. Die Elemente von R heißen reelle Zahlen. Man definiert
R+ := {x ∈ R|x > 0}
R− := {x ∈ R|x < 0}.
Die natürlichen, die ganzen und die rationalen Zahlen werden wir als Teilmengen
von R definieren. Zum Beweis der Existenz von R würde man den umgekehrten
Weg beschreiten: ausgehend von N würde man zuerst Z, dann Q und schließlich
R konstruieren (siehe: Rudin; Amann/Escher).
Satz 1.2.2. Zu jeder reellen Zahl a > 0 existiert genau eine reelle Zahl w > 0
√
mit w2 = a. w heißt Wurzel von a und wird mit a bezeichnet.
√
Bemerkung: Für jede reelle Zahl a gilt a2 = |a|.
1.3
Natürlichen Zahlen, Induktion und Rekursion
Eine Teilmenge M ⊂ R heißt induktiv, wenn 1 ∈ M und
x ∈ M ⇒ x + 1 ∈ M.
Wir definieren N als die kleinste induktive Teilmenge von R, d.h.
\
N :=
M.
M ⊂R,induktiv
Die Elemente von N heißen natürliche Zahlen.
Aus der Definition von N folgt unmittelbar das Induktionsprinzip:
20
Satz 1.3.1. Falls M ⊂ N, 1 ∈ M und n ∈ M ⇒ n + 1 ∈ M , dann ist M = N.
Satz 1.3.2. Für alle n, m ∈ N gilt
(i) n ≥ 1,
(ii) n + m ∈ N, n · m ∈ N,
(iii) n = 1 oder n − 1 ∈ N,
(iv) m < n ⇒ n − m ∈ N,
(v) n < m ≤ n + 1 ⇒ m = n + 1.
Satz 1.3.3. Jede nichtleere Teilmenge M ⊂ N hat ein kleinstes Element. D.h. es
gibt m ∈ M mit m ≤ k für alle k ∈ M .
Das Prinzip von Archimedes
Satz 1.3.4. N ist in R nach oben unbeschränkt.
Korollar 1.3.5. Zu jeder reellen Zahl ε > 0 existiert ein n ∈ N mit 1/n < ε.
• In jedem angeordneten Körper K lässt sich N definieren. K heißt archimedisch angeordnet, wenn N in ihm unbeschränkt ist. R ist also ein
archimedisch angeordneter Körper. Es gibt angeordnete Körper, die nicht
archimedisch angeordnet sind!
• Das Vollständigkeitsaxiom, in der Form der Existenz des Sumpremums impliziert die archimedische Anordnung von R. Definiert man Vollständigkeit via Intervallschachtellungen oder Konvergenz von Cauchy-Folgen, dann
muss archimedische Anordnung als zusätzliches Axiom gefordert werden.
Induktion
Satz 1.3.6. Sei A(n) eine Aussageform, welche für alle n ∈ N definiert ist, und
es gelte:
(i) A(1) ist wahr (Verankerung),
(ii) aus A(n) folgt A(n + 1). (Induktionsschritt)
Dann gilt A(n) für alle n.
Bemerkung: Man kann die Verankerung auch bei einem beliebigen n0 ∈ N machen
und bekommt dann, dass A(n) für alle n ≥ n0 gilt.
21
Satz 1.3.7. Für alle n ∈ N und alle x ≥ −1 gilt die Bernoullische Ungleichung:
(1 + x)n ≥ 1 + nx.
Satz 1.3.8. Sei A(n) eine Aussageform, welche für alle n ∈ N definiert ist, und
ausserdem gelte:
(i) A(1) ist wahr,
(ii) sind A(1), . . . , A(n) wahr, dann auch A(n + 1).
Dann gilt A(n) für alle n ∈ N.
Summen- und Produktzeichen
Endliche Summen und Produkte von Elementen eines Körper
n
X
k=1
n
Y
ak := a1 + a2 + . . . + an ,
ak := a1 · a2 · . . . · an .
k=1
werden rekursiv definiert. Z.B. ist
P1
k=1
ak := a1 und
Pn
k=1
ak =
Pn−1
k=1
ak + an .
Satz 1.3.9. Für alle ai , bk , λ eines Körpers gilt:
(a)
n
X
ak +
k=1
n
X
bk =
k=1
n
X
(ak + bk ),
k=1
λ
n
X
ak =
k=1
n
X
λak ,
k=1
(b)
n
n
n
Y
Y
Y
(ak bk ),
ai
bk =
(c)
n
m
n X
m
m X
n
X
X
X
X
ai
bk =
ai b k =
ai b k .
i=1
i=1
k=1
k=1
k=1
i=1
k=1
k=1
i=1
Die Existenz und Eindeutigkeit von rekursiv definierten Folgen zeigt man per
Induktion. Siehe Pöschel, Kap.3.1, Satz 15 oder Ammann, Escher, Kap. I.5, Satz
5.11.
1.4
Ganze und rationale Zahlen
Die Menge Z der ganzen Zahlen und die Menge Q der rationalen Zahlen sind
definiert durch
Z := {m − n|m, n ∈ N},
Q := {m/n|m ∈ Z und n ∈ N}.
Z ist ein kommutativer Ring mit Eins, d.h. es gelten in Z alle Körperaxiome
ausser M3. Q ist ein angeordneter Körper.
22
Satz 1.4.1. Jede nichtleere, nach unten beschränkte Teilmenge von Z hat ein
Minimum.
Satz 1.4.2. Zu jedem Paar reeller Zahlen a < b gibt es eine rationale Zahl q mit
a < q < b.
Bemerkung. Man sagt, die rationalen Zahlen liegen dicht in R.
1.5
Mächtigkeit von R
Zwei Mengen A, B heißen gleichmächtig, in Zeichen A ∼ B, wenn es eine bijektive Abbildung φ : A → B gibt, oder A = B = ∅. Eine Menge A heißt
endlich falls ein n ∈ N existiert mit A ∼ {1, . . . , n} (oder A = ∅). Die Zahl n ist
dann eindeutig bestimmt. Eine Menge A heißt abzählbar, falls sie endlich oder
gleichmächtig wie N ist (abzählbar unendlich). A heißt überabzählbar, wenn A
nicht abzählbar ist.
Satz 1.5.1. Eine Menge A ist genau dann abzählbar, wenn sie gleichmächtig ist
wie eine Teilmenge von N.
Satz 1.5.2.
a) Jede Teilmenge einer abzählbaren Menge ist abzählbar.
b) Sind A, B abzählbar, so ist auch A × B abzählbar.
c) Ist (Ak )k≥1 eine abzählbare Familie von abzählbaren Mengen, so ist auch
S
k≥1 Ak abzählbar.
Satz 1.5.3. Die Menge Q ist abzählbar.
Theorem 1.5.4. Die Menge R ist überabzählbar.
Nach Theorem 1.5.4 ist auch die Menge der irrationalen Zahlen R\Q überabzählbar, denn sonst wäre R = (R \ Q) ∪ Q abzählbar nach Satz 1.5.2 (c).
23
2
2.1
Zahlenfolgen
Konvergenz
Eine Folge (zn )n≥1 komplexer Zahlen (zn ) ist eine Abbildung
z : N → C,
n 7→ zn .
Die Zahlen zn heißen Glieder der Folge (zn ). Auch eine Abbildung z : {k, k +
1, . . .} → C, k ∈ Z, heißt Folge. Der Folgendindex muss also nicht bei 1 beginnen.
Die Zahlenfolge (zn ) konvergiert gegen z ∈ C, in Zeichen
lim zn = z
n→∞
oder zn → z
(n → ∞),
falls zu jedem ε > 0 eine natürliche Zahl Nε existiert, so dass
n ≥ Nε ⇒ |zn − z| < ε.
(3)
Die Zahl z heißt Limes oder Grenzwert der Folge (zn ). Eine Folge (zn )
heißt konvergent falls ein z ∈ C existiert mit limn→∞ zn = z. Sonst heißt sie
divergent. Die Menge
Bε (z) := w ∈ C : |w − z| < ε
heißt ε-Umgebung von z. Die Aussage, dass ein Nε ∈ N existiert, so dass (3)
gilt, ist offenbar gleichbedeutend damit, dass zn ∈ Bε (z) für alle n ∈ N bis auf
endlich viele. Für letzteres ist die Sprechweise für fast alle n ∈ N üblich. Also gilt
(
Jede ε-Umgebung von z enthält
lim zn = z ⇔
n→∞
fast alle Glieder der Folge.
Divergenz bedeutet, dass keine Zahl z ∈ C Grenzwert der Folge ist, wobei
zn 6→ z äquivalent dazu ist, dass ein ε > 0 existiert mit zn ∈
/ Bε (z) für unendlich
viele Glieder der Folge. Die Folge (zn ) ist also genau dann divergent, wenn zu
jedem z ∈ C eine ε-Umgebung existiert, welche unendlich viele Glieder der Folge
im Komplement hat. Für eine reelle Zahlenfolge (xn )n≥1 und a ∈ R ist |xn −a| < ε
gleichbedeutend mit
a − ε < xn < a + ε.
Eine Folge (zn ) heißt Nullfolge wenn limn→∞ zn = 0. Sie heißt beschränkt,
wenn ein R > 0 existiert, so dass |zn | ≤ R für alle n.
Satz 2.1.1.
(1) Der Grenzwert einer Folge ist eindeutig.
24
(2) Die Aussagen limn→∞ zn = z, limn→∞ (zn − z) = 0 und limn→∞ |zn − z| = 0
sind äquivalent.
(3) zn → z genau dann wenn Re zn → Re z und Im zn → Im z.
(4) Aus limn→∞ zn = z folgt limn→∞ |zn | = |z| und dass (zn ) beschränkt ist.
Satz 2.1.2.
(i) Falls limn→∞ an = 0 und |zn | ≤ an für fast alle n, dann limn→∞ zn = 0.
(ii) Ist (zn ) eine Nullfolge und (wn ) beschränkt, dann ist (zn wn ) eine Nullfolge.
Satz 2.1.3. Falls limn→∞ zn = z und limn→∞ wn = w, dann gilt
(a) limn→∞ (zn + wn ) = z + w,
(b) limn→∞ (zn · wn ) = z · w,
(c) Falls w 6= 0, dann wn 6= 0 für fast alle n und limn→∞
zn
z
= .
wn
w
Satz 2.1.4. Seien (an ), (bn ), (cn ) reelle Zahlenfolgen.
(a) Falls an ≤ bn , für fast alle n, an → a und bn → b, dann gilt a ≤ b.
(b) Falls an ≤ bn ≤ cn für fast alle n und limn→∞ an = L = limn→∞ cn , dann
ist (bn ) konvergent mit Grenzwert L.
Bemerkung: Wenn in Teil (a) die strikte Ungleichung an < bn angenommen wir,
dann folgt trotzdem im Allgemeinen nur a ≤ b. Beispiel: an = 0 und bn = 1/n.
Satz 2.1.5 (Wichtige Grenzwerte).
(a) |z| < 1 ⇒ limn→∞ z n = 0,
(b) |z| < 1 und p ∈ N ⇒ limn→∞ np z n = 0,
√
(c) limn→∞ n n = 1,
√
(d) a > 0 ⇒ limn→∞ n a = 1.
Bemerkung: Existenz der n-ten Wurzel
wird im nächsten Kapitel bewiesen und
√
√
n
n
die Monotonie 0 < a < b ⇒ a < b beweisen wir in den Aufgaben.
40
30
20
10
20
40
60
Graph der Folge
80
n2 (0.9)n
100
25
2.2
Monotone Folgen und Wurzeln
In diesem Abschnitt sind alle Folgen reellwertig. Eine Folge (an ) reeller Zahlen
heißt
a) monoton wachsend falls an ≤ an+1 für alle n,
b) monoton fallend falls an ≥ an+1 für alle n,
c) monoton, wenn sie monoton wachsend oder monoton fallend ist.
Gilt die strikte Ungleichung in (a) oder (b), dann spricht man von einer streng
monoton wachsenden, bzw. von einer streng monoton fallenden Folge.
Theorem 2.2.1. Jede beschränkte, monotone Folge (an ) ist konvergent und zwar
gilt
a) limn→∞ an = sup{an |n ∈ N}, wenn (an ) monoton wachsend ist,
b) limn→∞ an = inf{an |n ∈ N}, wenn (an ) monoton fallend ist.
Als Anwendung von Theorem 2.2.1 betrachten wir die Folge (sn ) mit
n
X
1
1
1
sn :=
= 1 + 1 + + ... + .
k!
2!
n!
k=0
Sie ist monoton wachsend und beschränkt, denn
n
n
n X
X
X
1
1
1
1
1
sn − 2 =
≤
=
−
= 1 − < 1.
k!
(k − 1)k
k−1 k
n
k=2
k=2
k=2
Somit existiert
n
∞
X
X
1
1
e :=
:= lim
k→∞
k!
k!
k=0
k=0
und es gilt 2 < e ≤ 3. e heißt Eulersche Zahl.
Satz 2.2.2 (Existenz von Wurzeln). Sei k ≥ 2 eine natürliche Zahl. Zu jeder
reellen Zahl a > 0 gibt es eine eindeutig bestimmte Zahl x > 0 mit xk = a. x
√
heißt k-te Wurzel von a, und wird mit k a bezeichnet. Für jeden Startwert x1 > 0
konvergiert die rekursiv definierte Folge
1
a
xn+1 :=
(k − 1)xn + k−1
(4)
k
xn
gegen
√
k
a und zwar monoton fallend für n ≥ 2.
26
√
√
Berechnung von 3: Zur Berechnung von 3 benutzen wir die Folge (xn )
definiert durch x1 = 2 und
1
3
xn+1 =
xn +
.
2
xn
Es folgt, dass:
x2 = 1.7(5)
x3 = 1.732(14)
x4 = 1.7320508(10)
√
Die nichtgeklammerten Ziffern stimmen mit den Nachkommastellen von 3 überein. Man kann zeigen, dass sich die Anzahl korrekter Stellen mit jedem Iterationsschritt in etwa verdoppelt.
2.3
Der Satz von Bolzano und Weierstraß
Eine Zahl z ∈ C heißt Häufungspunkt der Folge (zn )n≥1 , wenn jede ε-Umgebung
von z unendliche viele Glieder der Folge enthält. Der Grenzwert einer konvergenten Folge ist also ein Häufungspunkt der Folge (der Einzige!).
Satz 2.3.1. Jede beschränkte Folge reeller Zahlen hat einen Häufungspunkt.
Sei (zn ) eine beliebige Folge und (nk )k≥1 eine streng monoton wachsende Folge
natürlicher Zahlen (Auswahlfolge). Dann heißt (znk )k≥1 Teilfolge der Folge (zn ).
Fall lim zn = z, dann konvergiert auch jede Teilfolge gegen z.
Satz 2.3.2. Eine Zahl z ∈ C ist genau dann ein Häufungspunkt der Folge (zn )
wenn z der Grenzwert einer Teilfolge ist.
Theorem 2.3.3 (Bolzano-Weierstraß). Jede beschränkte Folge komplexer Zahlen
hat eine konvergente Teilfolge.
Häufungspunkte der Folge xn+1 = rxn (1 − xn ) für 2, 4 ≤ r ≤ 4 (by Jordan Pierce)
27
2.4
Das Cauchy-Kriterium
Wie der Satz über die monotone Konvergenz (Theorem 2.2.1) erlaubt das CauchyKriterium den Nachweis der Konvergenz zn → z ohne die Kenntnis von z. Sei
(zn ) konvergent mit Grenzwert z. Und sei ε > 0. Dann existiert ein N ∈ N, so
dass
ε
n ≥ N ⇒ |zn − z| < .
(5)
2
Aus (5) und der Dreiecksungleichung folgt:
n, m ≥ N
⇒
|zn − zm | < ε,
(6)
wobei in (6) der Grenzwert z nicht mehr vorkommt.
Eine Folge (zn ) heißt Cauchy-Folge, wenn zu jedem ε > 0 ein N ∈ N
existiert, so dass (6) gilt. Wir haben gesehen, dass jede konvergente Folge eine
Cauchy-Folge ist. Wir wollen jetzt zeigen, dass in C auch die Umkehrung gilt.
Lemma 2.4.1. Jede Cauchy-Folge ist beschränkt.
Theorem 2.4.2 (Cauchy-Kriterium). Eine Folge komplexer Zahlen ist genau
dann konvergent, wenn sie eine Cauchy-Folge ist.
In einem archimedisch angeordneten Körper sind äquivalent:
(i) Jede nichtleere, nach oben beschränkte Teilmenge hat ein Supremum (Vollständigkeitsaxiom aus Kapitel 2.3)
(ii) Jede Cauchy-Folge ist konvergent.
Wir haben gezeigt, dass (ii) aus (i) folgt. Den Beweis der Umkehrung überlassen
wir als Übungsaufgabe (siehe auch Königsberger).
2.5
Uneigentliche Konvergenz
Sei (an ) eine Folge reeller Zahlen. Falls zu jeder noch so großen Zahl M ∈ R ein
N ∈ N existiert, so dass
n ≥ N ⇒ an > M
dann schreiben wir limn→∞ an = ∞. Man sagt, die Folge (an ) hat den uneigentlichen Grenzwert ∞, oder sie divergiert gegen ∞. Falls limn→∞ (−an ) = ∞,
dann schreibt man limn→∞ an = −∞. Die Intervalle (M, ∞) heißen Umgebungen von ∞. Also
(
Jede Umgebung von ∞ enthält
lim an = ∞ ⇔
n→∞
fast alle Glieder der Folge.
Um die Sprechweise noch mehr zu vereinheitlichen kann man ε-Umgebungen von
∞ definieren durch Uε (∞) := (1/ε, ∞).
28
Satz 2.5.1. Seien (an ), (bn ) reelle Folgen und sei (zn ) eine komplexe Zahlenfolge.
(a) Falls limn→∞ an = ∞ und bn ≥ c für fast alle n, dann gilt limn→∞ (an +bn ) =
∞.
(b) Falls limn→∞ an = ∞ und bn ≥ c > 0 für fast alle n, dann gilt limn→∞ (an ·
bn ) = ∞.
(c) Falls limn→∞ an = 0, und an > 0 für fast alle n, dann gilt
1
= ∞.
n→∞ an
lim
(d) Aus limn→∞ |zn | = ∞ folgt limn→∞ (1/zn ) = 0.
Satz 2.5.2. Für jede monotone Folge (an ) in R existiert limn→∞ an als eigentlicher oder uneigentlicher Grenzwert. Es gilt
an ↑ sup{an |n ∈ N},
bzw.
an ↓ inf{an |n ∈ N}.
Eine reelle Zahlenfolge (an ) hat den uneigentlichen Häufungspunkt ∞
wenn jede Umgebung von ∞ unendlich viele Glieder der Folge enthält. Das ist
äquivalent dazu, dass eine Teilfolge (ank ) existiert mit limk→∞ ank = ∞.
Satz 2.5.3 (Bolzano-Weierstraß in R̄). Jede Folge reeller Zahlen hat einen eigentlichen oder uneigentlichen Häufungspunkt in R̄.
2.6
Limes Superior und Limes Inferior
Sei (an ) eine reelle Zahlenfolge. Dann ist die Folge (supk≥n ak )n∈N monoton fallend
und die Folge (inf k≥n ak )n∈N ist monoton wachsend. Nach Satz 2.5.2 existieren
somit der Limes Superior
lim sup an := limn→∞ an := lim sup ak
n→∞
n→∞
k≥n
und der Limes Inferior
lim inf an := limn→∞ an := lim
n→∞
n→∞
inf ak
k≥n
als eigentliche oder uneigentliche Grenzwerte in R̄. Offensichtlich gilt
lim inf an ≤ lim sup an .
n→∞
n→∞
29
Satz 2.6.1. Sei (an ) eine Folge reeller Zahlen. Dann gilt
(a) limn→∞ an ist der größte Häufungspunkt. Falls limn→∞ an ∈ R und ε > 0,
dann gilt
an < limn→∞ an + ε
für fast alle n ∈ N.
(b) limn→∞ an ist der kleinste Häufungspunkt. Falls limn→∞ an ∈ R und ε > 0,
dann gilt
an > limn→∞ an − ε
für fast alle n.
Satz 2.6.2. Sei (an ) eine Folge reeller Zahlen und sei a ∈ R̄. Dann sind äquivalent:
(i) limn→∞ an = a,
(ii) limn→∞ an = limn→∞ an = a.
30
3
3.1
Reihen
Definition und Beispiele
Sei (zn ) eine Folge komplexer Zahlen und sei
s1 = z1
s2 = z1 + z2
s3 = z1 + z2 + z3
..
.
sn = z1 + z2 + . . . + zn =
n
X
zn .
k=1
Die Folge (sn ) heißt Reihe. Die Folgenglieder sn heißen Partialsummen der
Reihe und die Zahlen zn heißen Glieder der Reihe. Die Summe einer konvergenten Reihe wird definiert als
∞
X
zk := lim
k=1
N →∞
N
X
zk .
k=1
P
Das Symbol ∞
k=1 zk wird allerdings auch verwendet zur Bezeichnung der Folge der Partialsummen. Wenn also von Konvergenz oder Divergenz einer Reihe
P∞
k=1 zk die Rede ist, dann ist das immer auf die Folge der Partialsummen zu
beziehen.
Die geometrische Reihe
Für z ∈ C mit |z| < 1 gilt
∞
X
zk = 1 + z + z2 + . . . =
k=0
1
.
1−z
(7)
Für |z| ≥ 1 ist die geometrische Reihe (7) divergent. Die Partialsummen der
geometrischen Reihe lassen sich explizit berechnen. Für z ∈ C \ {1} gilt
n
X
k=0
und für z = 1 ist
Pn
k=0
z k = n + 1.
zk =
1 − z n+1
1−z
(8)
31
Die harmonische Reihe
∞
X
1
k=1
k
=1+
1 1 1
+ + + . . . = ∞.
2 3 4
Die Partialsummen sn sind monoton wachsend und unbeschränkt
s1 = 1
s2 = 1 +
s4
1
2
1
1 1
+
>1+2·
= s2 +
3 4
2
| {z }
>2· 14 = 12
s8
1
1
1
= s4 +
>1+3·
+ ... +
5
8
2
{z
}
|
>4· 18 = 12
und s2n ≥ 1 + (n/2), wie man per Induktion in n sieht. Also limn→∞ sn = ∞.
Eine teleskopierende Reihe
∞
X
k=1
1
1
1
=
+
+ . . . = 1.
k(k + 1)
1·2 2·3
Für die Partialsummen gilt
n n
X
X
1
1
1
=
−
sn =
k(k + 1) k=1 k k + 1
k=1
1
1 1
1
1
=
1−
+
−
+ ... +
−
2
2 3
n n+1
1
= 1−
→ 1 (n → ∞).
n+1
P
Satz 3.1.1. Wenn die Reihe k≥1 zk konvergent ist, dann gilt limk→∞ zk = 0.
Bemerkung. Umgekehrt kann man aus limk→∞ zk = 0 nicht schliessen, dass die
P
Reihe k zk konvergiert! Das sieht man am Beispiel der harmonischen Reihe.
P
P
P
Satz 3.1.2. Sind die Reihen k≥1 zk , k≥1 wk konvergent, so ist auch k≥1 (λzk +
µwk ) mit λ, µ ∈ C konvergent und es gilt
X
X
X
(λzk + µwk ) = λ
zk + µ
wk .
k≥1
k≥1
k≥1
P
Satz 3.1.3 (Cauchy-Kriterium). Eine Reihe k≥1 zk ist genau dann konvergent,
wenn zu jedem ε > 0 ein N ∈ N existiert, so dass
n
X
n>m≥N ⇒ zk < ε.
k=m+1
32
3.2
Reihen mit nichtnegativen Gliedern und Dezimalbrüche
Für jede Reihe mit nichtnegativen Gliedern an ≥ 0 existiert die Summe
∞
X
ak = lim
n→∞
k=1
n
X
ak ≤ ∞
k=1
als eigentlicher oder uneigentlicher Grenzwert. Konvergenz liegt genau dann vor,
P
wenn ∞
k=1 ak < ∞, d.h. wenn die Folge der Partialsummen beschränkt ist.
Satz 3.2.1 (Verdichtungskriterium). Sei (an ) eine monoton fallende Folge nichtnegativer Glieder. Dann sind die Reihen
∞
X
an
und
n=1
∞
X
2n a2n
n=0
beide konvergent oder beide divergent.
Satz 3.2.2. Für alle s ∈ R gilt
∞
X
1
ns
n=1
(
<∞
für
s>1
=∞
für
s ≤ 1.
Bemerkung. Potenzen ns mit beliebigem s ∈ R werden später definiert. Wir
nehmen vorweg, dass ns ≥ 1 für s ≥ 0, ns < 1 für s < 0 und dass n 7→ ns
monoton wachsend ist für s > 0.
Dezimalbrüche
Sei g ∈ N mit g ≥ 2 und sei a ∈ R gegeben durch
a=
∞
X
ak g −k ,
ak ∈ {0, 1, . . . , g − 1}.
k=−n
dann schreibt man
a = a−n a−n+1 . . . a0 , a1 a2 a3 . . .
und nennt das die g-adische Entwicklung von a. Für g = 10 spricht man von
der Dezimal(bruch)entwicklung, für g = 2 von der Dualbruchentwicklung. Die
g-adische Entwicklung ist nicht eindeutig. z.B. gilt für g = 10:
0, 999 . . . =
∞
X
9 · 10−k =
k=1
9
1
= 1, 000 . . .
10 1 − 1/10
Satz 3.2.3. Jede reelle Zahl a ≥ 0 hat eine g-adische Entwicklung
a = a−n . . . a0 , a1 a2 a3 . . .
ai ∈ {0, . . . , g − 1}, a−n 6= 0.
Sie ist eindeutig, wenn man verbietet, dass ak = g − 1 für fast alle k. Jede gadische Entwicklung stellt eine reelle Zahl dar.
33
3.3
Absolute Konvergenz
Eine Reihe
P∞
k=1 zk ,
zk ∈ C, heißt absolut konvergent, falls
P∞
k=1
|zk | < ∞.
Theorem 3.3.1. Jede absolut konvergente Reihe ist konvergent.
Korollar 3.3.2 (Majorantenkriterium). Falls |zk | ≤ ck für fast alle k ∈ N
P
P
und ∞
c
<
∞,
dann
ist
k
k=1
k≥1 zk (absolut) konvergent.
P k
P −s
Typische Majoranten sind
q mit 0 < q < 1 und
k mit s > 1.
Satz 3.3.3 (Quotientenkriterium). Falls zn 6= 0 für fast alle n ∈ N und falls
q = limn→∞ |zn+1 /zn | existiert, dann gilt
P
(a) q < 1 ⇒
zn ist absolut konvergent,
P
(b) q > 1 ⇒
zn ist divergent.
Bemerkungen:
1. Im Fall zn = z n ist q = |z| und das Theorem reduziert sich auf bekannte
Tatsachen über die geometrische Reihe.
2. Im Fall q = 1 ist sowohl Konvergenz als auch Divergenz möglich. Siehe
jedoch Aufgabe 8.5.
3. Die Aussage (a) dieses Satzes gilt auch mit q := limn→∞ |zn+1 /zn |, was
immer existiert. Siehe Blatt 8.
p
Theorem 3.3.4 (Wurzelkriterium). Sei q := limn→∞ n |zn | wobei zn ∈ C.
Dann gilt
P
(a) q < 1 ⇒
zn ist absolut konvergent,
P
(b) q > 1 ⇒
zn ist divergent.
Bemerkungen.
1. Im Fall zn = z n ist q = |z| und das Theorem reduziert sich auf bekannte
Tatsachen über die geometrische Reihe.
p
2. Nur wenn der Limes q := limn→∞ n |zn | nicht existiert muss man q durch
den Limes Superior definieren.
3. Wenn das Wurzelkriterium den Wert q = 1 liefert, dann ist sowohl KonP
vergenz als auch Divergenz möglich! Da zeigen die Reihen n≥1 1/n2 und
P
n≥1 1/n.
34
3.4
Bedingte Konvergenz
Eine konvergente Reihe, welche nicht absolut konvergent ist, heißt bedingt konvergent. Viele Beispiele bedingt konvergenter Reihen findet man unter den alternierenden Reihen
∞
X
(−1)n an ,
an ≥ 0.
(9)
n=0
Satz 3.4.1 (Leibniz). Jede alternierende Reihe (9) mit a1 ≥ a2 ≥ . . . ≥ an → 0,
P
(n → ∞) ist konvergent. Der Abbruchfehler s − nk=0 (−1)k ak hat kleineren (oder
gleichen) Betrag und dasselbe Vorzeichen wie das erste vernachläßigte Glied,
(−1)n+1 an+1 .
Insbesondere ist die alternierende harmonische Reihe
∞
X
1
1 1 1 1
(−1)n+1 = 1 − + − + − . . . ,
n
2 3 4 5
n=1
(10)
nach Satz 3.4.1 konvergent.
P
Satz 3.4.2 (Dirichlet). Sind die Partialsummen der Reihe ∞
n=0 zn beschränkt
und ist (pn ) eine monoton fallende Nullfolge, dann ist die Reihe
X
zn pn
n≥0
konvergent.
P
n
Beispiel. Die Reihe ∞
n=1 z /n ist konvergent falls |z| ≤ 1 und z 6= 1. In allen
anderen Fällen ist sie divergent.
3.5
Umordnung von Reihen
P
Satz 3.5.1. Ist ∞
k=1 zk absolut konvergent und σ : N → N bijektiv, dann ist
P∞
auch k=1 zσ(k) absolut konvergent und
∞
X
k=1
zσ(k) =
∞
X
zk .
k=1
Satz 3.5.1 gilt nicht für bedingt konvergente Reihen! Das zeigt bereits ein
einfaches Beispiel: Ist s die Summe der alternierenden harmonischen Reihe (10),
dann gilt nach Satz 3.4.1
1 1
5
s≤1− + = .
2 3
6
35
Wir vergleichen s mit der Summe der
1 1
1 1
1+ −
+
+ −
3 2
5 7
umgeordneten Reihe:
1
1
1
1
+
+
−
+ ...
4
9 11 6
(11)
Sei s0n die Summe der ersten n Glieder von (11). Dann
1
1
1
0
0
s3k = s3(k−1) +
+
−
> s03(k−1) .
4k − 3 4k − 1 2k
|
{z
}
>0
Die Folge (s03k ) ist somit streng monoton wachsend und limk→∞ s03k = sup{s03k :
k ∈ N} > s03 = 5/6. Die umgeordnete Reihe (11) hat also eine größere Summe
als (10).
P∞
Satz 3.5.2 (Riemannscher Umordnungssatz). Ist die Reihe
k=1 ak , ak ∈ R,
bedingt konvergent, dann gibt es zu jeder reellen Zahl s eine bijektive Abbildung
σ : N → N, so dass
∞
X
aσ(k) = s.
k=1
3.6
Die Exponentialfunktion
Die Exponentialfunktion exp : C → C wird definiert durch die Summe der
Exponentialreihe
∞
X
zk
z2
exp(z) :=
=1+z+
+ ...
(12)
k!
2!
k=0
welche für alle z ∈ C absolut konvergent ist (Quotientenkriterium!). Wir werden
sehen, dass exp(x) = ex für rationale Zahlen x. Für reelle und komplexe Zahlen
werden wir dann ez durch die Exponentialfunktion definieren.
Satz 3.6.1. Für jedes z ∈ C und jede Folge (zn ) mit limn→∞ zn = z gilt
zn n
lim 1 +
= exp(z).
n→∞
n
Theorem 3.6.2.
a) exp(z + w) = exp(z) · exp(w),
b) exp(z) 6= 0 für alle z ∈ C und exp(z)−1 = exp(−z),
N
−1 k X
z
|z|N
c) exp(z) −
exp(|z|),
≤
k!
N
!
k=0
36
d) Für x ∈ R gilt
exp(x) > 0 und
| exp(ix)| = 1,
e) e = exp(1) ist irrational.
Satz 3.6.3. Für alle rationalen Zahlen p/q (p ∈ Z, q ∈ N) gilt
√
exp(p/q) = q ep =: ep/q .
Auf Grund von Theorem 3.6.2 a) und Satz 3.6.3 definiert man für z ∈ C:
ez := exp(z).
Die Exponentialfunktion bildet R bijektiv auf (0, ∞) ab, wie wir später sehen
werden. Die Umkehrabbildung heißt (natürlicher) Logarithmus und wird mit
log bezeichnet
log = exp−1 : (0, ∞) → R.
Für a > 0 und x ∈ R definiert man ax := elog(a)x .
Sinus und Cosinus
Für x ∈ R definieren wir
1 ix
e + e−ix ,
2
1 ix
e − e−ix ,
sin(x) := Im(eix ) =
2i
cos(x) := Re(eix ) =
so dass
eix = cos x + i sin x.
Nach Theorem 3.6.2 gilt für alle x ∈ R,
cos2 (x) + sin2 (x) = 1.
Später werden wir sehen, dass für x ∈ [0, 2π) das Kreissegment zwischen ei0 = 1
und eix auf dem Einheitskreis {z ∈ C : |z| = 1} die Länge x hat.
Satz 3.6.4. Für alle x ∈ R gilt
cos(x) =
∞
X
(−1)n
x2 x4
x2n
=1−
+
− ...,
(2n)!
2!
4!
(−1)n
x2n+1
x3 x5
=x−
+
− ...,
(2n + 1)!
3!
5!
n=0
sin(x) =
∞
X
n=0
mit absolut konvergenten Reihen.
37
2
1
1
2
3
4
5
6
-1
-2
Einige Partialsummen der Sinusreihe
3.7
Potenzreihen
Eine Reihe der Form
∞
X
ak z k = a0 + a1 z + a2 z 2 + . . .
ak , z ∈ C,
(13)
k=0
heißt Potenzreihe. Die Zahlen ak heißen Koeffizienten der Potenzreihe. Das
Konvergenzverhalten einer Potenzreihe hängt von der Wahl von z ∈ C ab: die
geometrische Reihe 1 + z + z 2 + . . . ist nur für |z| < 1 konvergent, während die
Exponentialreihe (12) für alle z ∈ C konvergiert.
Satz 3.7.1. Die Potenzreihe (13) konvergiert absolut für |z| < R und sie divergiert für |z| > R, wobei
−1
p
n
R := lim
|an |
≤ ∞.
n→∞
Hier ist 0−1 := ∞ und ∞−1 := 0. R heißt Konvergenzradius.
Sind zwei gegebene Potenzreihen
∞
X
k=0
∞
X
ak z k = a0 + a1 z + a2 z 2 + . . . ,
(14)
bk z k = b0 + b1 z + b2 z 2 + . . . ,
(15)
k=0
im Punkt z absolut konvergent, dann würde man für das Produkt erwarten, dass
(a0 + a1 z + a2 z 2 + . . .)(b0 + b1 z + b2 z 2 + . . .)
= a0 b0 + (a0 b1 + a1 b0 )z + (a0 b2 + a1 b1 + a2 b0 )z 2 + . . . .
Diese Erwartung wird durch folgendes Theorem bestätigt.
38
Theorem 3.7.2. Sind die Reihen (14), (15) im Punkt z ∈ C absolut konvergent,
dann gilt
! ∞
!
∞
∞
n
X
X
X
X
n
k
`
cn z ,
cn :=
ak z
b` z =
ak bn−k ,
k=0
wobei die Reihe
`=0
P∞
k=0 ck z
k
n=0
k=0
ebenfalls absolut konvergent ist.
Satz 3.7.3 (Identitätssatz). Falls die Summen zweier Potenzreihen
a0 + a1 z + a2 z 2 + . . . ,
b0 + b1 z + b2 z 2 + . . . ,
auf einer ε-Umgebung von z = 0 oder wenigstens auf Nullfolge (zk ) in C \ {0}
übereinstimmen, dann gilt ak = bk für alle k.
39
4
Stetige Funktionen
4.1
Definition und Beispiele
Eine Abbildung f : D → C, D ⊂ R, heißt stetig im Punkt x ∈ D wenn zu
jedem ε > 0 ein δ > 0 existiert, so dass
y ∈ D, |y − x| < δ
⇒
|f (y) − f (x)| < ε.
Das ist gleichbedeutend mit
x + h ∈ D, |h| < δ
⇒
|f (x + h) − f (x)| < ε.
Die Abbildung f heißt stetig (auf D), wenn sie in jedem Punkt (von D) stetig
ist.
Eine Abbildung f : D ⊂ R → R heißt Lipschitz-stetig, wenn ein L ∈ R
existiert, so dass
|f (x) − f (y)| ≤ L|x − y| x, y ∈ D.
(16)
Die Konstante L heißt Lipschitz-Konstante, (16) heißt Lipschitz-Bedingung.
Jede Lipschitz-stetige Funktion ist stetig. (Zum Beweis wähle man δ = ε/L).
Theorem 4.1.1. Folgende Aussagen über eine Funktion f : D → C und einen
Punkt x ∈ D sind äquivalent:
(a) f ist stetig in x ∈ D.
(b) Für jede Folge (xk ) in D mit limk→∞ xk = x gilt
lim f (xk ) = f (x).
k→∞
Bemerkung: In Teil (b) dieses Theorems genügt es Folgen aus D\{x} zu betrachten. Das zeigt der Beweis.
Folgerungen:
1) Die Wurzel x 7→
√
x ist stetig auf [0, ∞). (Aufgabe 5.1)
2) ex , eix und eαx mit α ∈ C sind stetig auf R. (folgt aus Theorem 3.6.2, c))
Satz 4.1.2. Sei f : D ⊂ Rn → R stetig in a ∈ D und sei f (a) > 0. Dann
existiert δ > 0 so dass für alle x ∈ D ∩ Bδ (a):
f (x) >
f (a)
> 0.
2
40
4.2
Rechnen mit stetigen Funktionen
Sind f : D(f ) → C und g : D(g) → C gegebene Funktionen, dann werden die
Funktionen f + g, f · g und 1/f definiert durch
(f + g)(x) := f (x) + g(x),
D(f + g) = D(f ) ∩ D(g),
D(f g) = D(f ) ∩ D(g),
(f g)(x) := f (x)g(x),
(1/f )(x) := 1/f (x),
D(1/f ) = {x ∈ D(f ) | f (x) 6= 0}.
Die Funktionen |f |, λf , f¯, Re f und Im f sind auf D(f ) definiert durch
|f |(x) := |f (x)|,
(λf )(x) := λf (x)
f¯(x) := f (x)
(Re f )(x) := Re f (x),
(Im f )(x) := Im f (x).
Satz 4.2.1. Sind f und g stetig im Punkt a ∈ D(f ) ∩ D(g), dann auch f + g,
f g, f /g (falls g(a) 6= 0), |f |, f¯, Re f und Im f .
Folgerungen.
1) cos und sin sind stetig auf R.
2) Potenzieren x 7→ xn (n ∈ Z) ist stetig auf R bzw. auf R \ {0} im Fall n < 0.
3) Jedes Polynom
p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 ,
ak ∈ C,
ist stetig auf R.
4) Jede rationale Funktion p/q mit Polynomen p, q ist stetig auf {x ∈ R|q(x) 6=
0}.
Satz 4.2.2. Sei f : D(f ) → R stetig im Punkt a und sei g : D(g) → C stetig in
b = f (a) ∈ D(g). Dann ist g ◦ f stetig in a.
Beispiele.
1) x 7→ exp(−x2 /2) ist stetig auf R.
2) x 7→ sin(1/x) ist stetig auf R\{0}.
41
4.3
Stetige Funktionen auf Intervallen
Theorem 4.3.1 (Zwischenwertsatz). Sei f : [a, b] → R stetig und sei f (a) <
c < f (b) (oder f (a) > c > f (b)). Dann existiert ein Punkt t ∈ (a, b) mit f (t) = c.
Satz 4.3.2. Jedes reelle Polynom
p(x) = xn + an−1 xn−1 + . . . + a1 x + a0 ,
ak ∈ R,
mit n ungerade hat mindestens eine reelle Nullstelle.
Bemerkung: Nach dem noch unbewiesenen Fundamentalsatz der Algebra, Theorem 0.5.7, hat p mindestens eine Nullstelle in C. Wenn n gerade ist, dann existiert
möglicherweise keine reelle Nullstelle. (Beispiel: p(x) = x2 + 1.)
Satz 4.3.3. Ist f : I → R stetig und I ⊂ R ein Intervall, dann ist auch f (I) ein
Intervall. Zusatz: wenn α := inf x∈I f (x), β := supx∈I f (x) ∈ R̄, dann
(α, β) ⊂ f (I).
Eine Funktion f : D ⊂ R → R heißt (streng) monoton wachsend, wenn
a<b
=⇒
f (a) ≤ f (b) (bzw. f (a) < f (b)).
Die Funktion f heißt (streng) monoton fallend, wenn −f (streng) monoton
wachsend ist.
Theorem 4.3.4. Sei I ⊂ R ein Intervall und sei f : I → R streng monoton
wachsend und stetig. Dann bildet f das Intervall I bijektiv auf das Intervall J =
f (I) ab und die Umkehrung f −1 : J → I ist auch streng monoton wachsend und
stetig.
Wurzeln
Sei n ∈ N. Die Funktion f (x) = xn ist stetig, streng monoton wachsend auf [0, ∞)
und
f (0) = 0, sup f (x) = ∞.
x≥0
√
Also ist f : [0, ∞) → [0, ∞) bijektiv und f −1 : x 7→ n x ist streng monoton wachsend und stetig (Satz 4.3.3, Theorem 4.3.4). Damit ist insbesondere die Existenz
und Eindeutigkeit der n-Wurzel erneut bewiesen (vgl. Theorem 2.2.2).
Ein kompaktes Intervall I ⊂ R ist ein Intervall das abgeschlossen und
beschränkt ist. D.h. I = [a, b] mit a, b ∈ R.
42
Theorem 4.3.5. Eine stetige Funktion f : I → R auf einem kompakten Intervall
I nimmt ihr Maximum und ihr Minimum an. D.h. es existieren x∗ , x∗ ∈ I mit
f (x∗ ) ≤ f (x) ≤ f (x∗ )
für alle x ∈ I.
Korollar 4.3.6. Eine stetige Funktion f : I → C auf einem kompakten Intervall
I ist beschränkt. D.h.
sup |f (x)| < ∞.
x∈I
Eine Funktion f : D → C heißt gleichmäßig stetig, wenn zu jedem ε > 0
ein δ > 0 existiert, so dass
y, x ∈ D, |y − x| < δ
⇒
|f (y) − f (x)| < ε.
Bemerkungen:
1. Eine gleichmäßig stetige Funktion ist stetig, wobei δ unabhängig von x
gewählt werden kann.
2. Eine Lipschitzstetige Funktion ist gleichmäßig stetig.
Theorem 4.3.7. Eine stetige Funktion f : I → C auf einem kompakten Intervall
I ist gleichmäßig stetig.
4.4
Grenzwerte von Funktionen
Eine Funktion f : D → C hat im Punkt x0 ∈ R den Grenzwert a, oder f strebt
gegen a für x → x0 , in Zeichen
lim f (x) = a,
x→x0
oder f (x) → a (x → x0 )
falls zu jedem ε > 0 ein δ > 0 existiert, so dass
x ∈ D\{x0 } ∧ |x − x0 | < δ
⇒
|f (x) − a| < ε.
Die Funktion f hat in ∞ den Grenzwert a, wenn zu jedem ε > 0 ein R > 0
existiert, so dass
x∈D ∧ x>R
⇒
|f (x) − a| < ε.
Der Grenzwert in −∞ ist analog definiert.
Bemerkungen:
1. Es ist irrelevant ob x0 ∈ D oder x0 ∈ R\D; der Grenzwert limx→x0 f (x)
hängt nur von f auf D\{x0 } ab.
43
2. Die Menge Ḃδ (x0 ) := Bδ (x0 )\{x0 } heißt punktierte δ-Umgebung von
x0 . Falls Ḃδ (x0 ) ∩ D = ∅ für ein δ > 0, dann gilt limx→x0 f (x) = a für jedes
a ∈ C. Dieser Fall ist uninteressant; die folgenden Sätze sind dann trivial.
Nur der Fall wo Ḃδ (x0 ) ∩ D 6= ∅ für alle δ > 0 ist interessant. Dann heißt x0
Häufungspunkt von D und der Grenzwert limx→x0 f (x) ist eindeutig, falls
er existiert. x0 ist genau dann Häufungspunkt von D wenn es eine Folge
(xn ) in D\{x0 } gibt mit limn→∞ xn = x0 .
Satz 4.4.1. Eine Funktion f : D → C ist genau dann stetig im Punkt x0 ∈ D,
wenn
lim f (x) = f (x0 ).
x→x0
Satz 4.4.2. Folgende Aussagen über f : D → C, x0 ∈ R und a ∈ C sind
äquivalent:
(a) limx→x0 f (x) = a.
(b) limn→∞ f (xn ) = a für jede Folge (xn ) in D\{x0 } mit limn→∞ xn = x0 .
(c) Die Funktion f˜ : D ∪ {x0 } → C definiert durch
f˜ :=
(
f (x)
a
x ∈ D\{x0 }
x = x0
ist stetig in x0 .
Die Funktion f˜ aus Teil (c) heißt stetige Fortsetzung von f in den Punkt
x0 .
Korollar 4.4.3. Folgende Aussagen über f : D → C sind äquivalent:
(a) limx→x0 f (x) existiert.
(b) f hat eine stetige Fortsetzung in den Punkt x0 .
Satz 4.4.4 (Rechenregeln). Alle folgenden Funktionen seien auf D ⊂ R definiert
mit Werten in C, x0 ∈ R und δ > 0.
(a) limx→x0 f (x) = 0
⇔
limx→x0 |f (x)| = 0.
(b) Falls |f (x)| ≤ p(x) in Ḃδ (x0 ) ∩ D und limx→x0 p(x) = 0, dann gilt
lim f (x) = 0.
x→x0
44
(c) Ist limx→x0 f (x) = a und limx→x0 g(x) = b, dann gilt
lim (f (x) + g(x)) = a + b,
x→x0
lim f (x)g(x) = ab,
x→x0
lim
x→x0
f (x)
a
=
g(x)
b
(falls b 6= 0),
und Re f , Im f , f¯, |f |, λf streben gegen Re a, Im a, ā, |a|, λa für x → x0 .
(d) Zusätzlich zu (c) sei f (x) ≤ g(x) in Ḃδ (x0 ) ∩ D. Dann gilt a ≤ b.
(e) Falls f1 ≤ g ≤ f2 in Ḃδ (x0 ) ∩ D und limx→x0 f1 (x) = limx→x0 f2 (x) = a,
dann gilt
lim g(x) = a.
x→x0
Bemerkung: Die Äquivalenz von (a) und (b) aus Satz 4.4.2 und die Rechenregeln
aus Satz 4.4.4 gelten auch für x0 ∈ {±∞}.
Beispiele:
(i)
(ii)
(iii)
eαx − 1
= α,
α ∈ C,
x→0
x
sin(x)
lim
= 1.
x→0
x
lim xn e−x = 0, für alle n ∈ N.
lim
x→∞
Satz 4.4.5. Existiert der Grenzwert y0 := limx→x0 f (x) und ist g stetig in y0 ,
dann gilt
lim g(f (x)) = g(y0 ).
x→x0
Satz 4.4.6 (Cauchy-Kriterium). Sei f : D → C und x0 ∈ R. Dann sind
äquivalent:
(i) limx→x0 f (x) existiert (in C).
(ii) Für jedes ε > 0 existiert ein δ > 0 mit
x, y ∈ Ḃδ (x0 ) ∩ D
⇒
|f (x) − f (y)| < ε.
Das Cauchy-Kriterium gilt auch für x0 = ∞ wenn man Ḃδ (∞) = (δ −1 , ∞)
definiert.
45
Uneigentliche Grenzwerte
Definiert man
1
Bε (∞) = Ḃε (∞) =
,∞
ε
1
,
Bε (−∞) = Ḃε (−∞) = −∞, −
ε
dann gilt limx→x0 f (x) = a für x0 ∈ R̄ genau dann, wenn zu jedem ε > 0 ein
δ > 0 existiert mit
x ∈ Ḃδ (∞) ∩ D
⇒
f (x) ∈ Bε (a).
So definieren wir jetzt auch die uneigentlichen Grenzwerte limx→x0 f (x) =
±∞. Für diese gilt ebenfalls das Folgenkriterium:
Satz 4.4.7. Sei f eine reellwertige Funktion auf D ⊂ R und seien x0 , a ∈ R̄.
Dann sind äquivalent:
(a) limx→x0 f (x) = a
(b) limn→∞ f (xn ) = a für jede Folge (xn ) in D\{x0 } mit xn → x0 für n → ∞.
Lemma 4.4.8 (Reduktionslemma). Falls limx→x0 f (x) = ∞ wobei x0 ∈ R̄, dann
gilt
lim g(f (x)) = lim g(y)
x→x0
y→∞
sofern limy→∞ g(y) als eigentlicher oder uneigentlicher Grenzwert existiert.
Einseitige Grenzwerte
Sei D ⊂ R, x0 ∈ R und D+ = D ∩ (x0 , ∞). Dann hat f : D → C in x0 den
rechtsseitigen Grenzwert a ∈ C, in Zeichen
lim f (x) = a oder f (x0 +) = a,
x→x0+
wenn f D+ in x0 den Grenzwert a hat. Ist x0 ∈ D, dann heißt f rechtsstetig
in x0 , wenn
f (x0 ) = f (x0 +).
Der linksseitige Grenzwert limx→x0− f (x) und linksseitige Stetigkeit werden analog definiert.
Satz 4.4.9. Eine Funktion f : D ⊂ R → C ist in einem inneren Punkt x0 von
D genau dann stetig, wenn f (x0 ±) existieren und
f (x0 −) = f (x0 ) = f (x0 +).
46
Eine Unstetigkeit erster Art liegt vor im Punkt x0 ∈ R, wenn die Grenzwerte f (x0 ±) ∈ C existieren und endlich sind, aber nicht beide mit f (x0 ) übereinstimmen, also wenn entweder f (x0 −) 6= f (x0 +) (Sprungstelle) oder f (x0 −) =
f (x0 +) 6= f (x0 ). Wenn einer der Grenzwerte f (x0 ±) nicht existiert, dann ist die
Unstetigkeit von zweiter Art.
Lemma 4.4.10. Ist f : (a, b) → R monoton wachsend, dann existieren die einseitigen Grenzwerte f (a+), f (b−) und
f (a+) = inf{f (x)|x ∈ (a, b)} ≥ −∞
f (b−) = sup{f (x)|x ∈ (a, b)} ≤ ∞.
Theorem 4.4.11. Ist f : (a, b) → R monoton wachsend und x0 ∈ (a, b), dann
existieren f (x0 ±) ∈ R und es gilt
f (x0 −) ≤ f (x0 ) ≤ f (x0 +).
Korollar 4.4.12. Eine monotone Funktion f : (a, b) → R ist stetig bis auf
abzählbar viele Sprungstellen.
4.5
Die Logarithmusfunktion
Die Exponentialfunktion ist stetig (siehe Kapitel 4.1) und auf R streng monoton
wachsend, denn für h > 0 ist eh > 1 und somit ex+h = ex eh > ex . Ausserdem gilt
limx→∞ ex = ∞, limx→−∞ ex = limx→∞ 1/ex = 0 und ex > 0 für alle x ∈ R. Also
ist exp(R) = (0, ∞) nach Satz 4.3.3. Die Umkehrabbildung
log = exp−1 : (0, ∞) → R
ist nach Theorem 4.3.4 wieder stetig und streng monoton wachsend. Auf Grund
der Definition von log als Inverse von exp
elog(x) = x,
x
log(e ) = x,
x > 0,
(17)
x ∈ R,
(18)
und ausserdem wegen der Monotonie, nach Lemma 4.4.10,
lim log(y) = inf log(y) = −∞
y→0
y>0
lim log(y) = sup log(y) = ∞.
y→∞
y>0
Für alle u, v > 0 gilt
log(uv) = log(u) + log(v),
(19)
log(u/v) = log(u) − log(v).
(20)
was man leicht aus (17), (18) und der Funktionalgleichung der Exponentialfunktion, Theorem 3.6.2 (a), herleitet.
47
Satz 4.5.1. Für alle a > 0 und alle p/q ∈ Q (p ∈ Z, q ∈ N\{0}) gilt
log(ap/q ) :=
wobei ap/q :=
√
q
p
log(a),
q
ap .
Beweis. Für p ∈ Z gilt ap = (elog a )p = ep log a . Also log(ap ) = p log(a). Daraus
folgen wegen (ap/q )q = ap die Identitäten
q log(ap/q ) = log(ap ) = p log(a),
woraus die Aussage des Satzes folgt.
Nach Satz 4.5.1 gilt ap/q = e(p/q) log a , was folgende Definition motiviert: Für
a > 0 und x ∈ R ist:
ax := elog(a)x .
Satz 4.5.2. Für alle a, b > 0 und alle x, y ∈ R gilt
(a)
log(ax ) = x log(a)
(b)
ax+y = ax ay
(c)
(ax )y = axy
(d)
ax bx = (ab)x .
Beweis. (a) ist äquivalent zur Definition von ax . Wir beweisen noch (c); es gilt
(ax )y = exp(log(ax )y) = exp(log(a)xy) = axy .
Satz 4.5.3. Für jedes α > 0 gilt
(a)
log x
= 0,
x→∞ xα
lim
(b)
lim xα log x = 0.
x→0+
Beweis. (a) Nach Definition von xα ,
log x
log x
1
y
=
lim
=
lim
= 0.
x→∞ xα
x→∞ eα log x
α y→∞ ey
lim
Aussage (b) führen wir auf (a) zurück:
lim xα log x = lim
x→0+
y→∞
1
− log y
log(1/y) = lim
= 0.
α
y→∞
y
yα
48
4.6
Hyperbolische Funktionen
Eine Funktion f : R → C heißt
(a) gerade, wenn f (−x) = f (x) für alle x ∈ R,
(b) ungerade, wenn f (−x) = −f (x) für alle x ∈ R.
Jede Funktion f : R → C lässt sich zerlegen in die Summe
f (x) =
f (x) + f (−x) f (x) − f (−x)
+
2
2
einer geraden und einer ungeraden Funktion. Zum Beispiel sind
cosh x =
ex + e−x
2
und
sinh x =
ex − e−x
2
der gerade und der ungerade Anteil von ex . Man rechnet leicht nach, dass
(cosh x)2 − (sinh x)2 = 1
für alle x ∈ R.
Hyperbolischer Sinus und Areasinus. Der hyperbolische Sinus
ex − e−x
2
sinh x =
ist streng monoton wachsend und stetig als (halbe) Summe der streng monoton
wachsenden und stetigen Funktionen ex und −e−x . Es gilt
1 x
1
lim sinh x = lim
e − x =∞
x→∞
x→∞ 2
e
lim sinh x = − lim sinh x = −∞.
x→−∞
x→∞
Somit ist sinh(R) = R nach Satz 4.3.3. Nach Theorem 4.3.4 ist die Umkehrfunktion
sinh−1 : R → R
(Areasinus)
wieder streng monoton wachsend und stetig ist. Durch Auflösen der Gleichung
y = 21 ex − e−x nach x, - nach Multiplikation mit ex ist sie eine quadratische
Gleichung in ex - erhält man
p
sinh−1 (y) = log(y + y 2 + 1).
Hyperbolischer Cosinus und Areacosinus. Der hyperbolische Cosinus
cosh(x) =
ex + e−x
2
49
ist streng monoton wachsend auf [0, ∞) (streng
monoton fallend auf (−∞, 0])
p
und stetig. Ersteres folgt aus cosh(x) = 1 + sinh(x)2 weil sinh nicht-negativ
und streng monoton wachsend ist auf [0, ∞). Weiter gilt
cosh(0) = 1,
lim cosh x = ∞.
x→∞
Also bildet cosh das Intervall [0, ∞) bijektiv auf das Intervall [1, ∞) ab und die
Umkehrfunktion
cosh−1 : [1, ∞) → [0, ∞)
(Areacosinus)
ist wieder streng monoton wachsend und stetig. Ähnlich wie im Fall der Funktion
sinh findet man
p
cosh−1 (y) = log(y + y 2 − 1).
Hyperbolischer Tangens und Areatangens. Der hyperbolische Tangens
tanh x =
ex − e−x
sinh x
= x
cosh x
e + e−x
(21)
ist ungerade, stetig und −1 < tanh x < 1 für alle x ∈ R. Da ausserdem
lim tanh x = 1
x→∞
lim tanh x = −1,
x→−∞
ist tanh(R) = (−1, 1). Weiter ist tanh streng monoton wachsend, denn
tanh x =
1
1−
(cosh x)2
1/2
für x ≥ 0,
die Funktion cosh ist streng monoton wachsend und positiv auf [0, ∞), und tanh
ist ungerade. Also ist auch die Umkehrfunktion
tanh−1 : (−1, 1) → R
streng monoton wachsend und stetig. Durch Auflösen von (21) nach x bekommt
man
1
1+y
−1
tanh (y) = log
.
2
1−y
50
4.7
Trigonometrische Funktionen
Nach Kapitel 3.6 gilt
eix = cos x + i sin x.
Die Funktion cos ist gerade, sin ist ungerade. Das folgt aus e−ix = eix und obiger
Formel.
Satz 4.7.1. Für alle x, y ∈ R gilt
(a)
cos(x + y) = cos x cos y − sin x sin y
(b)
sin(x + y) = sin x cos y + cos x sin y
x + y x − y cos x − cos y = −2 sin
sin
x − y2 x + y2 sin
sin x − sin y = 2 cos
2
2
(c)
(d)
Beweis. Aussagen (a) und (b) folgen aus
cos(x + y) + i sin(x + y) = ei(x+y) = eix eiy
= (cos x + i sin x)(cos y + i sin y)
= (cos x cos y − sin x sin y) + i(sin x cos y + cos x sin y).
Zum Beweis von (c) und (d) setzt man u = (x + y)/2, v = (x − y)/2 sodass
x = u + v und y = u − v. (c) und (d) folgen nun aus (a) und (b).
Lemma 4.7.2.
(a)
(b)
x2 x4
+
für alle x,
2
4!
x3
sin x ≥ x −
für alle x ≥ 0.
3!
cos x ≤ 1 −
Beweis. (a) Nach Satz 3.6.4 ist
cos x = 1 −
wobei
x2 x4
+
+ R(x)
2
4!
x6 x8
R(x) = − +
− ...
6!
8!
die Summe einer alternierenden Reihe ist deren Glieder für |x| ≤ 7 dem Betrage
nach monoton fallend sind. Natürlich konvergieren sie gegen 0. Also ist R(x) ≤ 0
für |x| ≤ 7, nach Satz 3.4.1, denn das erst Glied von R(x) ist negativ. Für |x| > 7
gilt
x2 x4
1−
+
≥ 1 ≥ cos x.
2
4!
Aussage (b) beweist man analog.
51
Lemma 4.7.3.
sin x > 0 für x ∈ (0, 2],
(a)
(b) Die Funktion cos ist streng monoton fallend in [0, 2]
Beweis. (a) Nach Lemma 4.7.2 gilt für x ∈ (0, 2]
x2
4
x
sin x ≥ x 1 −
≥x 1−
= > 0.
3!
3!
3
(b) Nach Satz 4.7.1 und Teil (a) gilt für 2 ≥ x > y ≥ 0
x−y
x+y
sin
< 0.
cos x − cos y = −2 sin
2
2
Satz und Definition 4.7.4. Die Funktion cos hat im Interval (0, 2) genau eine
Nullstelle. Sie wird mit π/2 bezeichnet.
Beweis. cos 0 = 1 und nach Lemma 4.7.2
cos 2 ≤ 1 −
1
4 16
+
=− .
2
4!
3
Da cos stetig ist folgt aus dem Zwischenwertsatz die Existenz einer Nullstelle im
Intervall (0, 2). Da cos in (0, 2) nach Lemma 4.7.3 streng monoton fallend ist,
kann es keine zweite Nullstelle geben.
Theorem 4.7.5.
eiπ/2 = i,
eiπ = −1,
ei3π/2 = −i,
ei2π = 1.
Beweis. Aus cos2 (π/2) + sin2 (π/2) = 1 und cos(π/2) = 0 folgt sin(π/2) = ±1.
Wegen π/2 ∈ (0, 2) folgt aus Lemma 4.7.3 dass sin(π/2) = 1. Also
eiπ/2 = cos(π/2) + i sin(π/2) = i.
Die übrigen Identitäten ergeben sich durch potenzieren beider Seiten dieser Gleichung.
Korollar 4.7.6.
(a)
cos(x + 2π) = cos x,
sin(x + 2π) = sin x
(b)
cos(x + π) = − cos x,
sin(x + π) = − sin x
(c)
cos(π/2 − x) = sin x,
sin(π/2 − x) = cos x
52
Korollar 4.7.7.
(a)
sin x = 0
⇔ x = kπ
(k ∈ Z)
(b)
cos x = 0
⇔ x = kπ + π/2
(k ∈ Z)
⇔ x = k2π
(k ∈ Z).
(c)
ix
e =1
Nun können wir den Zusammenhang herstellen zwischen der analytischen Definition von Cosinus und Sinus aus Kapitel 3.6 und der geometrischen. Nach Korollar 4.7.7 ist die Abbildung t 7→ eit injektiv in [0, 2π). Für t ∈ (0, 2π) sind
eitk/n ,
k = 0, . . . , n
also n + 1 verschiedene Punkte auf dem Einheitskreis S 1 = {z ∈ C : |z| = 1}.
Es sind die Endpunkte eines Streckenzuges γt,n bestehend aus n Seiten gleicher
Länge
|eit(k+1)/n − eitk/n | = |eit/n − 1|.
Die Länge von γt,n ist somit n|eit/n − 1|. Man definiert die Länge L(γt ) des Kreissegments
γt := {eis |s ∈ [0, t]}
als den Grenzwert der Länge von γt,n für n → ∞. Also gilt, nach den Resultaten
aus Kapitel 4.4,
it/n
it/n
e
− 1 L(γt ) = lim n e
− 1 = lim t = t,
n→∞
n→∞
it/n wie erwartet.
Die Funktionen Tangens, Cotangens, Secant und Cosecant sind aus Cosinus
und Sinus zusammengesetzt und wie folgt definiert:
sin x
cos x
1
sec x =
cos x
tan x =
cos x
sin x
1
csc x =
sin x
cot x =
Die Umkehrfunktionen. Die Funktion cos ist stetig, streng monoton fallend
auf [0, π], cos(0) = 1 und cos(π) = −1. Also bildet Cosinus, nach Theorem 4.3.4
das Intervall [0, π] bijektiv auf das Intervall [−1, 1] ab und die Umkehrfunktion
arccos : [−1, 1] → [0, π]
ist wieder streng monoton fallend und stetig.
53
Die Funktion sin ist stetig, streng monoton wachsend auf [−π/2, π/2], sin(−π/2) =
−1 und sin(π/2) = 1. Also bildet Sinus das Intervall [−π/2, π/2] bijektiv auf das
Intervall [−1, 1] ab und die Umkehrfunktion
arcsin : [−1, 1] → [−π/2, π/2]
ist wieder streng monoton wachsend und stetig.
Die Funktion tan ist auf (−π/2, π/2) stetig und streng monoton wachsend.
Letzteres folgt aus der Spiegelungssymmetrie bezüglich dem Ursprung, tan(−x) =
− tan(x), und aus der Tatsache dass sin und 1/ cos auf dem Intervall [0, π/2)
streng monoton wachsend und nicht-negativ sind. Weiter gilt
lim tan x = ∞
x→π/2−
lim
tan x = −∞.
x→−π/2+
Also bildet Tangens das Intervall (−π/2, π/2) bijektiv auf R ab und die Umkehrfunktion
arctan : R → (−π/2, π/2)
ist wieder streng monoton wachsend und stetig.
Polardarstellung
Satz 4.7.8. Die Funktion t 7→ eit bildet das Intervall [0, 2π) bijektiv auf den
Einheitskreis S 1 ab.
Beweis. Die Injektivität folgt aus Korollar 4.7.7. Sei x + iy ∈ S 1 , also x2 + y 2 = 1.
Im Fall y ≥ 0 setzen wir t := arccos x ∈ [0, π]. Dann gilt
cos(t) = x
p
√
√
sin(t) = 1 − cos2 t = 1 − x2 = y 2 = y.
Im Fall y < 0 ist x ∈ (−1, 1) und daher t := 2π − arccos x ∈ (π, 2π). Es folgt
cos(t) = x
√
√
sin(t) = − 1 − cos2 t = − 1 − x2 = −|y| = y.
Nach Satz 4.7.8 lässt sich jede komplexe Zahl z schreiben als
z = reiϕ
(Polardarstellung)
wobei Betrag r = |z| und das Argument ϕ ∈ R nur bis auf ein Vielfaches von
2π eindeutig ist (eindeutig wenn man verlangt, dass ϕ ∈ [0, 2π) und z 6= 0). Bei
der Multiplikation von zwei komplexen Zahlen
z1 z2 = (r1 eiϕ1 )(r2 eiϕ2 ) = r1 r2 ei(ϕ1 +ϕ2 )
werden die Beträge multipliziert und die Argumente addiert.
54
5
Differentialrechnung
5.1
Begriff der Ableitung
Sei I ⊂ R ein beliebiges Intervall, f : I → C und x0 ∈ I. Falls der Grenzwert
f 0 (x0 ) := lim
x→x0
f (x) − f (x0 )
f (x0 + h) − f (x0 )
= lim
h→0
x − x0
h
existiert, dann heißt f differenzierbar in x0 . Der Quotient
∆f
f (x) − f (x0 )
=
∆x
x − x0
heißt Differenzenquotient und der Grenzwert
f 0 (x0 ) =
df
∆f
(x0 ) = lim
∆x→0 ∆x
dx
heißt Ableitung von f im Punkt x0 . Die einseitigen Grenzwerte
f (x) − f (x0 )
x→x0 ±
x − x0
f 0 (x0 ±) = lim
heißen linksseitige, bzw. rechtsseitige Ableitung von f in x0 .
Der Graph der Geraden
y = f (x0 ) + f 0 (x0 )(x − x0 )
heißt Tangente von f im Punkt (x0 , f (x0 )). Ist f reellwertig, dann ist f 0 (x0 ) die
Steigung der Tangente von f im Punkt (x0 , f (x0 )). Die lineare Abbildung
df (x0 ) : R → C
h 7→ df (x0 )h = f 0 (x0 )h
heißt Differential von f im Punkt x0 .
Bemerkungen.
1. Ist x0 der linke Randpunkt von I, dann ist f 0 (x0 ) = f 0 (x0 +).
2. f ist genau dann differenzierbar in x0 ∈ ˚
I wenn f 0 (x0 −) = f 0 (x0 +).
3. Ist f differenzierbar in x0 , dann ist f auch stetig in x0 , denn
f (x) − f (x0 ) =
f (x) − f (x0 )
(x − x0 ) → 0,
x − x0
(x → x0 ).
55
Satz 5.1.1. Eine Funktion f : I → C ist genau dann differenzierbar im Punkt
x0 ∈ I, wenn eine im Punkt x0 stetige Funktion ϕ : I → C existiert mit
f (x) − f (x0 ) = (x − x0 ) · ϕ(x).
Dann ist f 0 (x0 ) = ϕ(x0 ).
Beweis. Nach Korollar 4.4.3 ist die Existenz des Grenzwerts von (f (x)−f (x0 ))/(x−
x0 ) für x → x0 äquivalent zur Existenz einer in den Punkt x0 stetigen Fortsetzung
ϕ dieses Differenzenquotienten.
Satz 5.1.2. Eine Funktion f : I → C ist genau dann differenzierbar im Punkt
x0 ∈ I, wenn Re f und Im f in x0 differenzierbar sind und es gilt
(Re f )0 (x0 ) = Re f 0 (x0 ),
(Im f )0 (x0 ) = Im f 0 (x0 ).
Beweis. Folgt aus den Rechenregeln für Grenzwerte, Satz 4.4.4
Die Ableitung einer Funktion f : I → Rn ist die Abbildung f 0 : I 0 → Rn mit
Definitionsbereich I 0 := {x ∈ I|f ist differenzierbar in x}. Wenn I 0 = I, dann
heißt f differenzierbar auf I, und f 0 zusätzlich stetig ist, dann heißt f stetig
differenzierbar auf I.
Beispiele:
1. Für f (x) = xn mit n ∈ N ist f 0 (x) = nxn−1 .
2. Sei α ∈ C. Dann gilt
Insbesondere
3. Aus
d ix
e
dx
d x
e = ex
dx
d αx
e = αeαx .
dx
und
= ieix und Satz 5.1.2 folgt
d
sin x = cos x,
dx
5.2
d x
a = ax log a.
dx
d
cos x = − sin x,
dx
Ableitungsregeln
Satz 5.2.1. Seien f, g : I → C und α ∈ C. Dann gilt für alle x ∈ I, für welche
der Ausdruck auf der rechten Seite definiert ist:
(a)
(αf )0 = αf 0
(b)
(f + g)0 = f 0 + g 0
(c)
(f g)0 = f 0 g + f g 0
f 0g − f g0
(f /g)0 =
g2
(d)
(Produktregel)
(Quotientenregel)
56
Beweis. (c) Seien f und g in x0 differenzierbar, also dort insbesondere stetig.
Dann gilt
f (x)g(x) − f (x0 )g(x0 )
x − x0
f (x) − f (x0 )
g(x) − g(x0 )
g(x0 ) + f (x)
x − x0
x − x0
x→x0
0
0
−→ f (x0 )g(x0 ) + f (x0 )g (x0 ).
=
(d) Sei g in x0 differenzierbar (also in x0 stetig) und sei g(x0 ) 6= 0. Dann gibt es
ein ε > 0, so dass g(x) 6= 0 für alle x ∈ Bε (x0 ) ∩ I. Also
1
1
1
g(x) − g(x0 )
1
1
x→x0
−
=−
−→ −g 0 (x0 )
.
x − x0 g(x) g(x0 )
x − x0
g(x)g(x0 )
g(x0 )2
Zusammen mit (c) folgt daraus (d).
Satz 5.2.2 (Kettenregel). Sei f : I → J und g : J → C mit Intervallen I und
J. Ist f differenzierbar in x0 und g differenzierbar in y0 = f (x0 ), dann ist g ◦ f
differenzierbar in x0 und es gilt
(g ◦ f )0 (x0 ) = g 0 (f (x0 ))f 0 (x0 ).
Beweis. Nach Voraussetzung gilt:
f (x) − f (x0 ) = ϕf (x)(x − x0 )
g(y) − g(y0 ) = ϕg (y)(y − y0 ).
Wobei ϕf in x0 , ϕg in y0 = f (x0 ) stetig ist. Also
g(f (x)) − g(f (x0 )) = ϕg (f (x))(f (x) − f (x0 ))
= ϕg (f (x)) · ϕf (x)(x − x0 ),
wobei x 7→ ϕg (f (x))ϕf (x) stetig ist in x0 und dort den Wert g 0 (f (x0 ))f 0 (x0 )
annimmt.
Satz 5.2.3 (Ableitung der Umkehrfunktion). Sei f : I → R stetig und streng
monoton auf dem Intervall I. Ist f differenzierbar im Punkt x0 und f 0 (x0 ) 6= 0,
dann ist f −1 differenzierbar in y0 = f (x0 ) und
(f −1 )0 (y0 ) =
1
f 0 (x
0)
=
1
f 0 (f −1 (y
0 ))
.
Beweis. Nach Satz 5.1.1 existiert eine in x0 stetige Funktion ϕ mit
f (x) − f (x0 ) = ϕ(x)(x − x0 ).
57
Wegen der strengen Monotonie folgt daraus, dass ϕ(x) 6= 0 für alle x ∈ I. Also
gilt mit g := f −1 :
y − y0 = f (g(y)) − f (g(y0 ))
= ϕ(g(y)) g(y) − g(y0 ) ,
und somit
g(y) − g(y0 ) =
1
(y − y0 ).
ϕ(g(y))
Die Funktion ϕ ◦ g ist stetig in x0 nach Theorem 4.3.4 und Satz 4.2.2. Also ist g
differenzierbar in in y0 und g 0 (y0 ) = ϕ(g(y0 ))−1 = f 0 (g(y0 ))−1 .
Mit Hilfe obiger Sätze und den bereits bekannten Ableitungen aus letztem
Abschnitt bekommt man folgende Tabelle:
58
Tabelle wichtiger Ableitungen
d α
x = αxα−1
x > 0, α ∈ R, oder x ∈ R, α ∈ N
dx
d x
d x
e = ex , und
a = log(a)ax
(a > 0)
dx
dx
d
1
log |x| =
dx
x
d
d
sin x = cos x und
cos x = − sin x
dx
dx
d
1
tan x =
= 1 + (tan x)2
dx
(cos x)2
1
d
arcsin x = √
|x| < 1
dx
1 − x2
1
d
arccos x = − √
|x| < 1
dx
1 − x2
1
d
arctan x =
dx
1 + x2
d
d
sinh x = cosh x und
cosh x = sinh x
dx
dx
d
1
tanh x =
= 1 − (tanh x)2
dx
(cosh x)2
1
d
sinh−1 x = √
dx
1 + x2
d
1
cosh−1 x = √
|x| > 1
2
dx
x −1
1
d
tanh−1 x =
|x| < 1
dx
1 − x2
5.3
Maxima und Minima
Die Funktion f : D → R, D ⊂ R, hat in x0 ein lokales Maximum, falls ein
δ > 0 existiert mit
f (x) ≤ f (x0 )
für x ∈ Bδ (x0 ) ∩ D.
Die Funktion f hat in x0 ein globales Maximum oder absolutes Maximum,
falls
f (x) ≤ f (x0 )
für alle x ∈ D.
Lokales und globales Minimum sind analog definiert. Extremum ist der gemeinsame Oberbegriff für Maximum und Minimum.
Satz 5.3.1. Hat f : (a, b) → R in x0 ein lokales Extremum und ist f differenzierbar in x0 , dann gilt
f 0 (x0 ) = 0.
59
Beweis. Die Funktion f habe in x0 ein lokales Maximum. Dann ist f (x0 + h) −
f (x0 ) ≤ 0 für |h| hinreichend klein. Es folgt, dass
f (x0 + h) − f (x0 )
≥0
h→0−
h
f 0 (x0 −) = lim
und
f (x0 + h) − f (x0 )
≤ 0.
h→0+
h
Also, da f in x0 differenzierbar ist, folgt 0 ≤ f 0 (x0 −) = f 0 (x0 ) = f 0 (x0 +) ≤ 0.
Somit ist f 0 (x0 ) = 0.
f 0 (x0 +) = lim
Die Nullstellen von f 0 heißen kritische oder stationäre Punkte von f .
Korollar 5.3.2. Sei f : [a, b] → R stetig, in (a, b) differenzierbar, und seien
{x1 , . . . , xn } die kritischen Punkte von f in (a, b). Dann gilt
max f (x) = max{f (a), f (b), f (x1 ), . . . , f (xn )}.
x∈[a,b]
5.4
Der Mittelwertsatz
Satz 5.4.1 (Satz von Rolle). Sei f : [a, b] → R stetig, in (a, b) differenzierbar,
und sei f (a) = f (b). Dann existiert ein t ∈ (a, b) mit f 0 (t) = 0.
Beweis. Wenn f konstant ist, dann ist die Behauptung des Satzes trivial. Ist
f nicht konstant, dann wird entweder das globale Maximum oder das globale
Minimum (siehe Theorem 4.3.5) an einer Stelle t ∈ (a, b) angenommen. Also
f 0 (t) = 0 nach Satz 5.3.1.
Theorem 5.4.2 (Mittelwertsatz). Sei f : [a, b] → R stetig und in (a, b) differenzierbar. Dann existiert ein t ∈ (a, b) mit
f (b) − f (a)
= f 0 (t).
b−a
Beweis. Den Satz von Rolle anwenden auf die Funktion
g(x) = f (x) −
f (b) − f (a)
x.
b−a
Bemerkung. Für komplexwertige Funktionen gibt es keinen Mittelwertsatz! Zum
Beispiel ist e2πi − ei0 = 0 aber (eit )0 = ieit 6= 0 für alle t. Es gilt aber immerhin
noch die Abschätzung, welche für reellwertige Funktionen aus dem Mittelwertsatz
folgt, siehe Satz 5.4.5.
60
Korollar 5.4.3. Sei f : (a, b) → R differenzierbar. Dann gilt
(a) f 0 = 0 auf (a, b)
⇔
f ist konstant,
(b) f 0 ≥ 0 auf (a, b)
⇔
f monoton wachsend,
(c) f 0 > 0 auf (a, b)
⇒
f ist streng monoton wachsend.
Ist f zusätzlich stetig auf [a, b) oder (a, b], dann gelten die Aussagen rechts auch
auf [a, b) bzw. (a, b].
Bemerkung. Für die Implikationen “ ⇒00 ist es wichtig, dass der Definitionsbereich
ein Intervall ist. In c) gilt “ ⇐ “ nicht. Beispiel: f (x) = x3 ist streng monoton
wachsend aber f 0 (0) = 0.
Beweis. Die Implikationen “ ⇐00 folgen aus der Definition von f 0 . Die Implikationen “ ⇒ “ folgen aus Theorem 5.4.2 in der Form: f (b) − f (a) = f 0 (t)(b − a).
Korollar 5.4.4. Sei f : R → C differenzierbar, α ∈ C und f 0 = αf . Dann gilt
f (x) = f (0)eαx .
Insbesondere ist f (x) = ex die einzige Funktion mit f 0 = f und f (0) = 1.
Beweis.
Also f (x)e−αx
d
f (x)e−αx = (f 0 − αf )e−αx = 0.
dx
= f (0)e−α0 = f (0).
Satz 5.4.5. Sei f : [a, b] → C stetig und in (a, b) differenzierbar. Dann existiert
ein t ∈ (a, b) mit
|f (b) − f (a)| ≤ |f 0 (t)|(b − a)
(22)
Wenn f auf [a, b] stetig differenzierbar ist, dann ist f Lipschitz-stetig.
Beweis. Wenn f stetig differenzierbar ist, dann ist |f 0 | beschränkt, d.h. L =
sup |f 0 (t)| < ∞ nach Korollar 4.3.6. Also nach (22), |f (y) − f (x)| ≤ L(y − x).
Beweis von (22): Sei ϕ ∈ R so gewählt, dass |f (b) − f (a)| = eiϕ (f (b) − f (a))
und sei g = Re(eiϕ f ). Dann erfüllt g die Voraussetzungen des Mittelwertsatzes,
wobei g 0 = Re(eiϕ f 0 ) ≤ |f 0 |. Also existiert ein t ∈ (a, b) so, dass
|f (b) − f (a)| = g(b) − g(a) = g 0 (t)(b − a) ≤ |f 0 (t)|(b − a).
Folgender Satz ist eine Verallgemeinerung des Mittelwertsatzes.
61
Satz 5.4.6. Seien f, g : [a, b] → R stetig und in (a, b) differenzierbar. Dann
existiert ein t ∈ (a, b) mit
f (b) − f (a) g 0 (t) = g(b) − g(a) f 0 (t).
Bemerkung. Mit der Wahl g(x) = x folgt aus diesem Satz der Mittelwertsatz.
Beweis. Man wende den Satz von Rolle auf die Funktion h(x) := f (b)−f (a) g(x)−
g(b) − g(a) f (x) an.
Theorem 5.4.7 (de l’Hospital). Seien f, g : (a, b) → R differenzierbar, b ≤ ∞
und g(x) 6= 0, g 0 (x) 6= 0 für alle x ∈ (a, b). Falls entweder
lim f (x) = 0 = lim g(x)
x→b−
x→b−
oder limx→b− g(x) = ∞, dann gilt
f (x)
f 0 (x)
lim
= lim 0
,
x→b− g(x)
x→b− g (x)
sofern der zweite Grenzwert existiert.
Bemerkung. Dieses Theorem ist falsch für komplexwertige Funktionen.
Beweis. Sei λ = limx→b− f 0 (x)/g 0 (x) und sei ε > 0. Dann existiert x0 ∈ (a, b) mit
x0 < t < b
⇒
f 0 (t)
∈ Bε/2 (λ).
g 0 (t)
(23)
Sei nun x0 ≤ x < y < b. Nach Satz 5.4.6 gibt es ein t ∈ (x, y) mit
f (y) − f (x)
f 0 (t)
= 0 .
g(y) − g(x)
g (t)
(24)
(g(y) − g(x) 6= 0 sonst hätte g 0 nach dem Satz von Rolle eine Nullstelle in (a, b).)
Nach (23) und (24) gilt
x0 ≤ x < y < b
⇒
f (y) − f (x)
∈ Bε/2 (λ).
g(y) − g(x)
(25)
Fall 1: limy→b− f (y) = 0 = limy→b− g(y). Aus (25) folgt im Limes y → b, dass
f (x)
∈ Bε/2 (λ) ⊂ Bε (λ)
g(x)
für alle x ∈ [x0 , b). (Bε/2 = Bε/2 plus Randpunkte.)
62
Fall 2: limy→b− g(y) = ∞ und λ ∈ R. Nach (25) mit x = x0 und y ∈ (x0 , b)
f (y) − f (x0 )
< ε/2.
−
λ
g(y) − g(x0 )
Zuerst dividieren wir Zähler und Nenner des Bruchs durch g(y) und dann multiplizieren wir beide Seiten der Ungleichung mit |1 − g(x0 )/g(y)|. Wir erhalten
f (y) f (x0 )
g(x0 ) g(x0 ) g(y) − g(y) − λ 1 − g(y) < ε/2 1 − g(y) .
Mit Hilfe der Dreiecksungleichung folgt daraus, dass
f (y)
g(x0 ) g(x0 ) f (x0 ) g(y) − λ < ε/2 1 − g(y) + g(y) + λ g(y) .
Da g(y) → ∞ für y → b−, gibt es ein y0 < b, so dass für alle y ∈ (y0 , b) die rechte
Seite kleiner als ε ist.
Beispiel. Nach Theorem 5.4.7 und wegen d/dx tan x = 1 + tan2 x gilt
2
1
1
tan x − x
tan x
= lim
= ,
lim
3
x→0
x
3 x→0
x
3
denn
tan x
= lim (1 + tan2 x) = 1.
x→0
x→0
x
lim
5.5
Unstetigkeiten der Ableitung sind zweiter Art
Die Ableitung f 0 einer differenzierbaren Funktion f braucht nicht stetig zu sein,
aber sie erfüllt immerhin noch die Aussage des Zwischenwertsatzes.
Satz 5.5.1. Sei f : [a, b] → R differenzierbar und f 0 (a) < λ < f 0 (b) (oder
f 0 (a) > λ > f 0 (b)). Dann existiert ein t ∈ (a, b) mit
f 0 (t) = λ.
Beweis. Sei f 0 (a) < λ < f 0 (b) und g(x) = f (x) − λx. Dann ist
g 0 (a) < 0 < g 0 (b).
Also nimmt die stetige Funktion g ihr Minimum weder in a noch in b an, sondern
in einem inneren Punkt t ∈ (a, b). Dort gilt, nach Satz 5.3.1, g 0 (t) = 0 und somit
f 0 (t) = λ.
Korollar 5.5.2. Die Ableitung f 0 einer differenzierbaren Funktion f : [a, b] → R
hat keine Unstetigkeiten ersten Art.
63
5.6
Ableitungen höherer Ordnung
Sei I ⊂ R ein (nicht-triviales) Intervall. Eine Funktion f : I → C heißt n-mal
differenzierbar auf I mit n-ter Ableitung f (n) , wenn f (n−1) auf I differenzierbar
ist und
d (n−1)
f (n) =
f
dx
wobei f (0) := f . f heißt n-mal stetig differenzierbar auf I, wenn zusätzlich
f (n) stetig ist. Statt f (n) schreibt man auch
n
dn f
d
f, ∂ n f.
,
n
dx
dx
Folgende Bezeichnungen sind üblich:
C 0 (I) = C(I) = Menge der stetigen Funktionen auf I
C n (I) = Menge der n-mal stetig differenzierbaren Funktionen auf I
C ∞ (I) = ∩n∈N C n (I)
= Menge der beliebig oft differenzierbaren Funktionen auf I.
Eine 0-mal stetig differenzierbare Funktion ist eine stetige Funktion. Anstelle
von f ∈ C n (I) sagt man auch, die Funktion f : I → C sei von der Klasse C n .
Diese Mengen sind Vektorräume über C (bzw. über R, wenn man reellwertige
Funktionen betrachtet):
Satz 5.6.1. Sind f, g : I → C n mal (stetig) differenzierbar und α, β ∈ C, dann
ist auch αf + βg n mal (stetig) differenzierbar und
(αf + βg)(n) = αf (n) + βg (n) .
Beweis. Für n = 0 folgt die Behauptung des Satzes aus Satz 4.2.1. Wir nehmen
nun an, sie sei richtig für ein festes n ≥ 0 und f, g seien n + 1 mal (stetig)
differenzierbar. Dann sind f und g auch n mal (stetig) differenzierbar. Also ist
(αf + βg) n mal (stetig) differenzierbar nach Induktionsannahme, und es gilt
(αf + βg)(n) = αf (n) + βg (n) .
Die rechte Seite davon ist (stetig) differenzierbar nach Satz 5.2.1 und Satz 4.2.1,
also auch die linke Seite, und es gilt
(αf + βg)(n+1) =
d
d
(αf + βg)(n) =
(αf (n) + βg (n) ) = αf (n+1) + βg (n+1) .
dx
dx
64
Satz 5.6.2 (Leibnizsche Regel). Sind f, g : I → C n mal (stetig) differenzierbar,
dann ist auch (f g) n mal (stetig) differenzierbar und
(f g)
(n)
=
n X
n
k=0
k
f (k) g (n−k) .
Beweis. Für n = 0 folgt die Behauptung des Satzes aus Satz 4.2.1. Sie sei nun
richtig für ein festes n ≥ 0 und f, g seien n + 1 mal (stetig) differenzierbar. Dann
sind f, g auch n mal (stetig) differenzierbar, also nach Induktionsannahme
(n)
(f g)
=
n X
n
k=0
k
f (k) g (n−k)
(26)
wobei f (k) und g (n−k) noch mindestens ein mal (stetig) differenzierbar sind. Somit
ist die rechte Seite von (26) (stetig) differenzierbar nach Satz 5.2.1 und Satz 4.2.1,
also auch die linke Seite, und nach der Produktregel gilt
n X
n (k+1) (n−k)
(n+1)
(f g)
=
f
g
+ f (k) g (n+1−k)
k
k=0
n+1 n X
X
n
n (k) (n+1−k)
(k) (n+1−k)
=
f g
+
f g
k
−
1
k
k=1
k=0
n X
n
n
(0) (n+1)
(n+1) (0)
= f g
+f
g +
+
f (k) g (n+1−k)
k−1
k
k=1
woraus die Behauptung für n + 1 folgt, denn
n
n
n+1
n+1
n+1
+
=
und
=1=
.
k−1
k
k
0
n+1
Satz 5.6.3. Sind f : I → R und g : f (I) → C n-mal (stetig) differenzierbar,
dann ist auch g ◦ f n-mal (stetig) differenzierbar.
Beweis. Für n = 0 folgt die Behauptung aus Satz 4.2.2. Sie sei nun richtig für
ein festes n ≥ 0 und f, g seien n + 1 mal (stetig) differenzierbar. Dann sind f und
g ein mal (stetig) differenzierbar und nach Satz 5.2.2 gilt
(g ◦ f )0 = (g 0 ◦ f )f 0
wobei g 0 , f und f 0 noch n mal (stetig) differenzierbar sind. Nach Induktionsannahme und nach Satz 5.6.2 ist die rechte Seite, und somit auch die linke Seite, n
mal (stetig) differenzierbar. D.h. g ◦ f ist n + 1 mal (stetig) differenzierbar.
65
Satz 5.6.4. Ist f : I → R n ≥ 1 mal (stetig) differenzierbar, und f 0 (x) 6= 0 für
alle x ∈ I dann ist auch f −1 : f (I) → R n-mal (stetig) differenzierbar.
Bemerkung. Da f 0 (x) 6= 0 für alle x ∈ I, folgt aus Satz 5.5.1, dass entweder
f 0 (x) > 0 oder f 0 (x) < 0 für alle x ∈ I. Also ist f streng monoton und f −1
existiert.
Beweis. Sei g = f −1 und h(x) = 1/x. Nach Satz 5.2.3 gilt
g0 =
1
= h ◦ f 0 ◦ g.
0
f ◦g
(27)
Ist f 0 stetig, dann ist nach Satz 4.2.2 die rechte Seite und somit auch die linke
Seite stetig. Damit ist die Behauptung für n = 1 bewiesen. Sie sei nun richtig
für ein festes n ≥ 1 und f sei (n + 1)-mal (stetig) differenzierbar. Dann sind
f 0 und g noch n-mal (stetig) differenzierbar und somit ist auch h ◦ f 0 ◦ g n-mal
(stetig) differenzierbar nach Satz 5.6.3. Aus (27) folgt nun, dass g 0 n-mal (stetig)
differenzierbar ist. Also ist g (n + 1)-mal (stetig) differenzierbar.
5.7
Die Taylorsche Formel
Ist f : I → R differenzierbar und a ∈ I, dann gilt
f (x) ≈ f (a) + f 0 (a)(x − a)
im Sinn einer Approximation für x nahe bei a wobei der Approximationsfehler
klein ist im Vergleich zu |x−a|. Ist f n Mal differenzierbar, dann ist es naheliegend
eine verbesserte Approximation in der Form Tn (x) = a0 + a1 (x − a) + a2 (x − a)2 +
. . . an (x − a)n zu suchen, wobei man verlangen kann, dass die Funktionen Tn und
f zusammen mit den ersten n Ableitungen im Punkt x = a übereinstimmen, d.h.,
dass
Tn(k) (a) = f (k) (a),
k = 0, . . . , n.
Durch diese n + 1 Bedingungen werden die Koeffizienten a0 , . . . , an eindeutig
festgelegt und man bekommt für Tn das Taylor-Polynom n-ten Grades (n-tes
Taylor-Polynom) mit Entwicklungspunkt a:
Tn (x) =
n
X
f (k) (a)
k=0
k!
(x − a)k
= f (a) + f 0 (a)(x − a) +
f 00 (a)
f (n) (a)
(x − a)2 + . . . +
(x − a)n .
2
n!
66
Theorem 5.7.1 (Taylorsche Formel). Die reellwertige Funktion f sei (n − 1)mal stetig differenzierbar auf [a, b]und n-mal differenzierbar auf (a, b). Dann gibt
es zu jedem x ∈ [a, b] ein tx ∈ (a, x) mit
f (x) =
n−1 (k)
X
f (a)
k=0
k!
(x − a)k +
f (n) (tx )
(x − a)n .
n!
(28)
Falls zusätzlich f (n) (a) existiert, dann f (n) (tx ) → f (n) (a) für x → a.
Bemerkungen.
1. f (n) (tx )(b − a)n /n! heißt Lagrangesches Restglied.
2. Für n = 1 reduziert sich die Aussage auf den Mittelwertsatz.
3. Die Taylor-Formel gilt unverändert auch im Fall b ≤ x ≤ a.
Beweis. Es genügt die Aussage im Fall x = b zu beweisen. Wir definieren
g(t) = f (t) − Tn−1 (t) − M (t − a)n ,
wobei wir M ∈ R so wählen, dass g(b) = 0. Nach Konstruktion von Tn−1 gilt
g(a) = g 0 (a) = . . . = g (n−1) (a) = 0.
Mit dem Satz von Rolle findet man rekursiv t1 ∈ (a, b) mit g 0 (t1 ) = 0, t2 ∈ (a, t1 )
mit g 00 (t2 ) = 0, . . . tn ∈ (a, tn−1 ) mit g (n) (tn ) = 0. Also
0 = g (n) (tn ) = f (n) (tn ) − M n!,
was nach Definition von M die Formel (28) für x = b und tb = tn beweist.
Beweis des Zusatzes. Wir setzen nun g(x) := f (x) − Tn (x). Dann folgt aus der
Taylorformel einerseits
(x − a)n
g(x) = f (n) (tx ) − f (n) (a)
(29)
n!
und andererseits
(x − a)n−1
g(x) = g (n−1) (sx )
(30)
(n − 1)!
mit sx ∈ (a, x). Da g (n−1) in a differenzierbar ist, folgt aus Satz 5.1.1, dass
g (n−1) (s) = g (n−1) (a) + ϕ(s)(s − a) wobei g (n−1) (a) = 0 und ϕ(s) → g (n) (a) = 0
für s → a. Also gilt
g (n−1) (sx ) = ϕ(sx )(sx − a) und ϕ(sx ) → 0 für x → a.
Aus (29), (30) und (31) folgt
|f (n) (tx ) − f (n) (a)| = n!
|g(x)|
|sx − a|
= n|ϕ(sx )|
→ 0 (x → a).
n
(x − a)
|x − a|
(31)
67
Für komplexwertige Funktionen gilt Theorem 5.7.1 nicht, aber ähnlich wie im
Fall des Mittelwertsatzes erfüllt das Restglied immerhin noch die Ungleichung
aus Korollar 5.7.4.
Satz 5.7.2. Für alle n ∈ N, x ∈ R gilt
n
2k+1 X
x
|x|2n+3
(a) sin x −
(−1)k
≤
(2k + 1)! (2n + 3)!
k=0
n
2k X
|x|2n+2
x
(b) cos x −
(−1)k
≤
(2k)! (2n + 2)!
k=0
Bemerkung. Für |x| ≤ 1 folgen die Behauptungen bereits aus dem Satz von
Leibniz über alternierende Reihen.
Beweis. (a) Sei f (x) = sin(x). Dann gilt
f (2n) (x) = (−1)n sin(x),
f (2n+1) (x) = (−1)n cos(x)
und daher f (2n) (0) = 0, f (2n+1) (0) = (−1)n und |f (k) (x)| ≤ 1 für alle k ∈ N. Die
Behauptung (a) folgt nun aus Theorem 5.7.1 mit 2n + 2 an Stelle von n. Zum
Beweis von (b) vergleicht man f = cos mit dessen Taylorpolynom um 0 vom
Grad 2n + 1.
Als weitere Anwendung von Thm 5.7.1 untersuchen wir nun kritische Punkte
einer Funktion auf Extremalität:
Satz 5.7.3. Die Funktion f : Bε (a) → R sei n ≥ 2 mal differenzierbar und
f (n) (a) sei die erste nichtverschwindende Ableitung im kritischen Punkt a:
f 0 (a) = . . . = f (n−1) (a) = 0,
f (n) (a) 6= 0.
Ist n gerade, dann hat f in a ein lokales Minimum oder ein lokales Maximum je
nachdem ob f (n) (a) > 0 oder f (n) (a) < 0. Ist n ungerade, dann hat f in a einen
Wendepunkt, aber kein lokales Extremum.
Beweis. Nach Vorraussetzung und nach Thm 5.7.1 gilt
f (x) = f (a) +
f (n) (tx )
(x − a)n
n!
(32)
wobei f (n) (tx ) → f (n) (a) for x → a. Also hat f (n) (tx ) dasselbe Vorzeichen wie
f (n) (a) für x in einer Umgebung Bδ (a). Ist n gerade dann ist (x − a)n ≥ 0 und
somit für alle x ∈ Ḃδ (a)
f (n) (tx )
(x − a)n > 0 falls f (n) (a) > 0,
n!
68
und
f (n) (tx )
(x − a)n < 0 falls f (n) (a) < 0,
n!
Ist n ungerade, dann wechselt (x − a)n in x = a das Vorzeichen, während f (n) (tx )
in a das Vorzeichen nicht wechselt. Also wechselt f (x) − f (a) in x = a das
Vorzeichen und f hat in a kein lokales Extremum.
Nach Thm 5.7.1 angewandt auf g = f 00 , gilt
f 00 (x) =
f (n) (tx )
(x − a)n−2
(n − 2)!
wobei f (n) (tx ) in x = a das Vorzeichen nicht wechselt, (x − a)n−2 jedoch schon.
Also wechselt f 00 in a das Vorzeichen und f hat einen Wendepunkt in a.
Landausche O-Symbole. Es seien f : D ⊂ R → C, a ∈ R und β ∈ R. Dann
bedeutet
f (x) = o(|x − a|β ),
(x → a)
dass limx→a f (x)/|x − a|β = 0, und
f (x) = O(|x − a|β ),
(x → a)
bedeutet, dass eine Konstante C und ein ε > 0 existiert, so dass
|f (x)| ≤ C|x − a|β ,
x ∈ Ḃε (a) ∩ D.
Beispiel. Die Funktion f : I → C ist genau dann differenzierbar in a ∈ I, wenn
eine Zahl λ existiert mit
f (x) = f (a) + λ(x − a) + o(|x − a|),
(x → a).
Korollar 5.7.4. Sei a ∈ I und die Funktion f : I → C sei:
(a) n-mal differenzierbar, dann gilt
f (x) =
n
X
f (k) (a)
k=0
k!
(x − a)k + o(|x − a|n ),
(x → a),
(b) (n + 1)-mal differenzierbar, dann gilt
f (x) =
n
X
f (k) (a)
k=0
k!
(x − a)k + O(|x − a|n+1 ),
(x → a).
69
Sei f : I → C beliebig oft differenzierbar und a ∈ I. Dann heißt
∞
X
f (n) (a)
n!
n=0
(x − a)n
(33)
Taylor-Reihe von f um a (mit Entwicklungspunkt a).
Die Taylor-Reihe (33) braucht für x 6= a nicht zu konvergieren, und wenn sie
konvergiert, braucht ihre Summe nicht mit f (x) übereinzustimmen. Z.B. ist die
Funktion f : R → R definiert durch
f (x) :=
e−1/x , x > 0,
0,
x ≤ 0,
beliebig oft differenzierbar und f (n) (0) = 0 für alle n ∈ N, sodass die Taylor-Reihe
von f mit Entwicklungspunkt 0 trivialerweise konvergiert. Aber
∞
X
f (n) (0)
n=0
n!
xn = 0 6= f (x),
für x > 0.
Wichtige Taylor-Reihen
x
(a) e =
∞
X
xn
n=0
(b)
(c)
(d)
(e)
5.8
sin x =
cos x =
n!
∞
X
(−1)n
n=0
∞
X
1
=
1−x
(−1)n
n=0
∞
X
xn ,
x2n+1
(2n + 1)!
x2n
(2n)!
|x| < 1
n=0
∞
n
X
n−1 x
log(1 + x) =
(−1)
,
n
n=1
−1 < x ≤ 1.
Konvexe Funktionen
Sei I ⊂ R ein beliebiges Intervall. Eine Funktion f : I → R heißt konvex, wenn
für alle x, y ∈ I und alle λ ∈ (0, 1) gilt
f (1 − λ)x + λy ≤ (1 − λ)f (x) + λf (y).
Die Funktion f heißt strikt konvex, wenn “<” gilt. f heißt (strikt) konkav,
wenn −f (strikt) konvex ist.
70
Lemma 5.8.1. Wenn die Funktion f : I → R (strikt) konvex ist, dann ist der
Differenzenquotient
m(x, y) :=
f (y) − f (x)
y−x
(x < y)
sowohl als Funktion von x, wie auch als Funktion von y (streng) monoton wachsend. Wenn m(x, t) ≤ m(t, y) für x < t < y, dann ist f konvex bzw. strikt konvex
wenn “<” gilt.
Beweis. Wir betrachten nur den Fall, wo f strikt konvex ist. Seien x < t < y drei
Elemente von I und sei λ := (t − x)/(y − x) ∈ (0, 1). Dann ist t = (1 − λ)x + λy
und somit wegen der strikten Konvexität von f
f (t) < (1 − λ)f (x) + λf (y)
Daraus folgt
f (t) − f (x) < λ f (y) − f (x) ,
f (y) − f (t) > (1 − λ) f (y) − f (x) .
Nach Division durch λ bzw. (1 − λ) erhalten wir m(x, t) < m(x, y) < m(t, y) was
die behauptete strenge Monotonie von m beweist.
Sei m(x, t) < m(t, y) für alle t ∈ (x, y). Zu gegebenem λ ∈ (0, 1) wählen wir
t := (1 − λ)x + λy und lösen
f (t) − f (x)
f (y) − f (t)
<
t−x
y−t
nach f (t) auf: nach Multiplikation mit (t − x)(y − t)/(y − x) bekommen wir
f (t) < (1 − λ)f (x) + λf (y).
Nach Definition von t ist somit f strikt konvex.
Theorem 5.8.2. Sei I ⊂ R ein offenes Intervall und f : I → R konvex. Dann
gilt
(a) f ist stetig.
(b) In jedem Punkt x0 ∈ I existieren die einseitigen Ableitungen f 0 (x0 ±) und
es gilt
f 0 (x0 −) ≤ f 0 (x0 +).
(c) Für jede Zahl m mit f 0 (x0 −) ≤ m ≤ f 0 (x0 +) gilt
f (x) ≥ f (x0 ) + m(x − x0 )
für alle x ∈ I.
71
Beweis. Sei x0 ∈ I. Aus Lemma 5.8.1 folgt für x, y ∈ I mit x < x0 < y, dass
m(x, x0 ) ≤ m(x, y) ≤ m(x0 , y), und somit dass
m(x, x0 ) ≤ m(x0 , y).
(34)
Weiter folgt aus der Monotonie von m und Lemma 4.4.10 die Existenz der einseitigen Ableitungen f 0 (x0 ±), und wegen (34) gilt
f 0 (x0 −) ≤ f 0 (x0 +),
wobei beide Werte endlich sind. Also ist f auch beidseitig stetig, denn
f (x) − f (x0 )
(x − x0 ) = f 0 (x0 ±)0 = 0.
x→x0 ±
x − x0
lim (f (x) − f (x0 )) = lim
x→x0 ±
(c) Sei nun f 0 (x0 −) ≤ m ≤ f 0 (x0 +). Dann folgt aus der Monotonie von m,
dass
m(x, x0 ) ≤ m ≤ m(x0 , y)
für alle x, y ∈ I mit x < x0 < y. Durch Auflösen dieser Ungleichungen nach f (x)
und f (y) erhält man
f (x) ≥ f (x0 ) + m(x − x0 )
und
f (y) ≥ f (x0 ) + m(y − x0 ).
◦
Satz 5.8.3. Sei f : I → R stetig und in I differenzierbar. Dann sind äquivalent:
(a) f ist (strikt) konvex.
(b) f 0 ist (streng) monoton wachsend.
◦
Beweis. Ist f strikt konvex und x, y ∈ I mit x < y, dann ist m nach Lemma 5.8.1
streng monoton und somit
f 0 (x) = f 0 (x+) < m(x, y) < f 0 (y−) = f 0 (y).
D.h., f 0 ist streng monoton wachsend.
Sei nun umgekehrt f 0 streng monoton wachsend und sei x < t < y. Nach dem
Mittelwertsatz existieren τ1 ∈ (x, t) und τ2 ∈ (t, y), so dass
m(x, t) = f 0 (τ1 ),
m(t, y) = f 0 (τ2 ).
Wegen τ1 < τ2 ist f 0 (τ1 ) < f 0 (τ2 ) und somit m(x, t) < m(t, y). Die strikte Konvexität folgt nun aus Lemma 5.8.1.
72
◦
Korollar 5.8.4. Sei f : I → R stetig und in I zwei mal differenzierbar. Dann
gilt:
(a) f 00 ≥ 0 ⇔ f ist konvex.
(b) f 00 > 0 ⇒ f ist strikt konvex.
Beweis. Kombiniere Satz 5.8.3 mit Korollar 5.4.3.
Satz 5.8.5. Für alle x > −1 gilt
(1 + x)α ≥ 1 + αx
falls α < 0 oder α > 1.
(1 + x)α ≤ 1 + αx
falls 0 < α < 1.
Beweis. Setze f (x) = (1 + x)α . Dann ist f 0 (x) = α(1 + x)α−1 , f 00 (x) = α(α −
1)(1 + x)α−2 , und
f (0) + f 0 (0)x = 1 + αx.
Die Voraussetzungen an α garantieren, dass f 00 > 0, bzw. f 00 < 0. Also folgt die
Behauptung aus Korollar 5.8.4 und Theorem 5.8.2, (c).
Theorem 5.8.6 (Jensensche Ungleichung). Sei f : I → R konvex und
P
p1 , . . . , pn ∈ (0, 1) mit nk=1 pk = 1. Dann gilt für alle x1 , . . . , xn ∈ I
f
n
X
p k xk ≤
k=1
n
X
pk f (xk ).
k=1
Beweis. Per Induktion in n. Für n = 2 folgt die Behauptung direkt aus der
Definition der Konvexität.
P
Satz 5.8.7. Sind p1 , . . . , pn ∈ (0, 1) mit nk=1 pk = 1, dann gilt
n
Y
xpkk
≤
k=1
n
X
p k xk ,
für x1 , . . . , xn > 0.
k=1
Insbesondere gilt für n ∈ N
√
n
x1 . . . xn ≤
x 1 + . . . + xn
.
n
Beweis. Sei uk = log xk . Aus der Jensenschen Ungleichung und der Konvexität
von der Exponentialfunktion folgt
n
Y
k=1
xpkk
=
n
Y
k=1
e
uk pk
= exp
n
X
k=1
u k pk ≤
n
X
k=1
pk exp(uk ) =
n
X
k=1
p k xk .
Herunterladen