Mathematik I + II - Institut für Reine und Angewandte Mathematik

Werbung
Mathematik I + II
Lineare Algebra, Analysis einer Veränderlichen, Gewöhnliche Differentialgleichungen
Prof. Dr. Enß, Prof. Dr. Herty, Dr. Fleckenstein
RWTH Aachen
Skriptum zur Vorlesung für den Bachelor-Studiengang für Bauing.,
Wirtschaftsing. u.a.
Stand 27. April 2008
Grundlage ist das Skriptum von Volker Enß, Aachen, 2008
Das Skriptum wird für diesen Kurs bereitgestellt, der Nachdruck dieses Textes oder von Teilen daraus
ist nicht gestattet.
Vorbemerkungen
Dieses Skriptum enthält den Stoff von Teil I+II des Kurses.
Für die Klausuren zur Mathematik I und II ist der im Semester in der Vorlesung und in den
Übungen behandelte Stoff maßgeblich.
Das Skriptum wird bereitgestellt, um Sie, die Hörerinnen und Hörer, teilweise vom Mitschreiben
zu entlasten und außerdem, um Ihnen die Vorbereitung auf die jeweils bevorstehende Vorlesungsstunde zu erleichtern. So können Sie sich besser auf die vermittelten Inhalte konzentrieren. In der
Vorlesung werden oft andere Beispiele als im Skriptum ausgewählt, um zusätzliches Material zur
Veranschaulichung der Begriffe, Methoden und Techniken anzubieten.
Das Lesen dieses Skriptums ohne Ihre eigene aktive Mitarbeit nützt wenig! Ohne Papier und Stift
für eigene Rechnungen kann man mit einem mathematischen Text nicht arbeiten. Die in den Übungen
vermittelten Ergänzungen und praktischen Kenntnisse gehören ebenfalls zum Stoff des Kurses. Erst
durch das selbständige Bearbeiten mathematischer Aufgaben erwerben Sie die im weiteren Studium
und im Beruf benötigten mathematischen Fähigkeiten.
Der Autor dankt den Kolleginnen und Kollegen im Institut für Reine und Angewandte Mathematik sehr herzlich für die sorgfältige kritische Durchsicht einer früheren Fassung. Er ist dankbar für
jegliche Hinweise der Studierenden auf verbliebene oder neue Fehler, Unklarheiten, mißverständliche Formulierungen, Lücken u.s.w. Auch Kommentare und Anregungen, wie durch Änderungen die
Verständlichkeit in späteren Ausgaben erhöht werden kann, sind willkommen, z.B. nach der Vorlesung, in der Sprechstunde oder schriftlich. Grundlage der jetzigen Version ist das Skriptum von Prof.
Dr. Enß aus dem Jahr 2007/2008.
Aachen, den 27. April 2008
Inhaltsverzeichnis
ii
Inhaltsverzeichnis
1
Zur Auffrischung des Schulstoffs
A
Lineare und quadratische Approximation . . . . . . . . . . . . . . . . . . . . . . .
B
Die Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C
Der Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
D
Potenzen, Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
D.1
Potenzfunktionen und Logarithmen zu beliebiger positiver Basis . . . . . . .
D.2
Reelle Potenzen positiver reeller Variabler . . . . . . . . . . . . . . . . . . .
E
Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
E.1
Geometrische Definition, Bogenmaß . . . . . . . . . . . . . . . . . . . . . .
E.2
Graphen von Sinus und Kosinus, einfache Eigenschaften . . . . . . . . . . .
E.3
Differentiation und Integration trigonometrischer Funktionen . . . . . . . . .
E.4
Die Tangensfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
E.5
Weitere trigonometrische Funktionen, Identitäten, Abschätzungen . . . . . .
F
Ellipsen und Hyperbeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
G
Lineare Gleichungssysteme und Gaußscher Algorithmus . . . . . . . . . . . . . . .
G.1
Die Koeffizientenmatrix und die erweiterte Koeffizientenmatrix, homogene
und inhomogene lineare Gleichunssysteme . . . . . . . . . . . . . . . . . .
G.2
Drei typische Beispiele, Gauß-Gestalt . . . . . . . . . . . . . . . . . . . . .
G.3
Elementare Zeilenoperationen für Matrizen, der Gaußsche Algorithmus . . .
H
Aussagen, Gleichheit, Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . .
I
Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
J
Unsere Konventionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
10
11
12
13
13
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.1 Der Vektorraum Rn . . . . . . . . . . . . . . . . . . . .
1.2 Rechnen im Rn . . . . . . . . . . . . . . . . . . . . . .
1.3 Lineare Abhängigkeit und Unabhängigkeit . . . . . . . .
1.4 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Das Skalarprodukt im Rn . . . . . . . . . . . . . . . . .
1.5a
Definition des Skalarproduktes . . . . . . . . . .
1.5b Eigenschaften des Skalarproduktes: . . . . . . .
1.6 Betrag (Länge) eines Vektors . . . . . . . . . . . . . . .
1.7 Ungleichung von (Cauchy-)Schwarz . . . . . . . . . . .
1.8 Winkel zwischen Vektoren, Orthogonalität . . . . . . . .
1.8a
Der Winkel . . . . . . . . . . . . . . . . . . . .
1.8b Orthogonalität, Satz des Pythagoras . . . . . . .
1.9 Die Dreiecksungleichung . . . . . . . . . . . . . . . . .
1.10 Das Vektorprodukt im R3 . . . . . . . . . . . . . . . .
1.10a Gleichungen zwischen Vektoren im R3 . . . . .
1.11 Orthonormalbasis . . . . . . . . . . . . . . . . . . . . .
1.12 Lineare Unterräume und affine Teilräume des Rn . . . .
1.13 Geraden im Rn . . . . . . . . . . . . . . . . . . . . . .
1.13a Parameterdarstellung der Geraden im Rn . . . .
1.13b Tangente an den Graphen einer Funktion . . . .
1.13c Orthogonale Vektoren in der Ebene R2 . . . . .
1.13d Parameterunabhängige Geradengleichung im R2
1.13e Schnittmengen von Geraden im R2 . . . . . . .
1.13f Winkel zwischen Geraden in einer Ebene . . . .
1.14 Lot und kürzester Abstand von einer Geraden . . . . . .
1.14a Der kürzeste Abstand von einer Geraden im Rn .
15
15
15
17
17
18
18
18
18
19
19
19
20
20
21
22
22
22
23
23
24
24
24
25
25
25
25
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
2
4
4
5
5
5
6
7
7
8
8
9
Mathematik I+II
Inhaltsverzeichnis
2
iii
1.14b Lot, orthogonale Projektion auf eine Gerade im Rn . . . . . . . . . . . . . .
1.14c Abstand windschiefer Geraden im R3 . . . . . . . . . . . . . . . . . . . . .
1.15 Ebenen im Rn und R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.15a Parameterdarstellung einer Ebene im Rn . . . . . . . . . . . . . . . . . . .
1.15b Parameterunabhängige Darstellung der Ebene im R3 . . . . . . . . . . . . .
1.15c Hessesche Normalform, Lot, orthogonale Projektion . . . . . . . . . . . . .
1.15d Umwandlung von parameterunabhängiger Darstellung der Ebene in eine Parameterdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.15e Winkel zwischen Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.16 Schnittmengen von Geraden und Ebenen im R3 . . . . . . . . . . . . . . . . . . . .
1.16a Schnitt einer Geraden mit einer Ebene . . . . . . . . . . . . . . . . . . . . .
1.16b Schnittgerade zweier Ebenen im R3 . . . . . . . . . . . . . . . . . . . . . .
1.16c Projektion einer Geraden auf eine Ebene . . . . . . . . . . . . . . . . . . . .
1.17 Hyperebenen im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
26
26
26
27
27
Matrizen und Determinanten
2.1 Einleitung, Beispiele für das Auftreten von Matrizen . . . . . . . . .
2.1a
Koeffizientenmatrix eines linearen Gleichungssystems . . . .
2.1b Verkaufszahlen . . . . . . . . . . . . . . . . . . . . . . . . .
2.1c
Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . .
2.2 Matrizen, ihre Addition und Multiplikation mit Zahlen . . . . . . . .
2.2a
Definition der Matrizen, Bezeichnungen für spezielle Matrizen
2.2b Addition gleichartiger Matrizen . . . . . . . . . . . . . . . .
2.2c
Multiplikation einer Matrix mit einer Zahl (einem Skalar) . .
2.3 Die Transponierte einer Matrix, symmetrische Matrizen . . . . . . . .
2.3a
Zeilen- und Spaltenvektoren in einer Matrix . . . . . . . . . .
2.4 Anwendungsbeispiel einer Matrizenmultiplikation . . . . . . . . . . .
2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . . . .
2.5a
Das Produkt einer Matrix mit einem Spaltenvektor . . . . . .
2.5b Definition des Produktes zweier Matrizen . . . . . . . . . . .
2.5c
Erstes Beispiel der Matrixmultiplikation . . . . . . . . . . . .
2.5d Regeln der Matrizenmultiplikation . . . . . . . . . . . . . . .
2.5e
Skalarprodukt und transponierte Matrix . . . . . . . . . . . .
2.5f
Unterschiede zum Produkt von Zahlen, Warnung . . . . . . .
2.6 Matrizen als lineare Abbildungen . . . . . . . . . . . . . . . . . . . .
2.6a
Vektorprodukt und antisymmetrische Matrizen . . . . . . . .
2.7 Der Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . .
2.7a
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7b Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7c
Rang einer Matrix in Gauß-Gestalt . . . . . . . . . . . . . . .
2.8 Elementare Zeilen- und Spaltenoperationen für Matrizen . . . . . . .
2.9 Satz über den Rang einer Matrix . . . . . . . . . . . . . . . . . . . .
2.9a
Beweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10a Determinanten für n ≤ 3 . . . . . . . . . . . . . . . . . . . .
2.10b Die Adjunkte, der Laplacesche Entwicklungssatz . . . . . . .
2.11 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . .
2.11a Multiplikationssatz für Determinanten . . . . . . . . . . . . .
2.11b Dreiecksmatrizen . . . . . . . . . . . . . . . . . . . . . . . .
2.11c Verschwinden der Determinanten . . . . . . . . . . . . . . .
2.11d Elementare Zeilen- und Spaltenoperationen bei Determinanten
2.11e Zur Warnung . . . . . . . . . . . . . . . . . . . . . . . . . .
30
30
30
30
30
31
31
31
32
32
32
33
33
33
34
34
34
35
35
36
36
37
37
37
37
37
38
38
39
39
40
40
40
41
41
41
41
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
28
28
28
28
29
29
Mathematik I+II
Inhaltsverzeichnis
iv
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
42
43
43
43
43
44
44
45
45
45
45
45
46
46
46
46
47
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.0 Erinnerung: Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1a
Definition und geometrische Bedeutung . . . . . . . . . . . . . . . . . . . .
4.1b Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1c
Einige Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Charakteristisches Polynom, Berechnung der Eigenwerte und Eigenvektoren . . . . .
4.2a
Beispiel mit reellen Eigenwerten . . . . . . . . . . . . . . . . . . . . . . . .
4.2b Beispiel Dreiecksmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Eigenwerte und Eigenvektoren symmetrischer Matrizen . . . . . . . . . . . . . . . .
4.3a
Satz über Eigenwerte und Eigenvektoren symmetrischer Matrizen . . . . . .
4.3b Orthogonalität von Eigenvektoren zu verschiedenen Eigenwerten . . . . . .
4.3c
Weitere Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4a
Definition orthogonaler Matrizen . . . . . . . . . . . . . . . . . . . . . . .
4.4b Drehungen als Beispiele orthogonaler Matrizen . . . . . . . . . . . . . . . .
4.5 Hauptachsentransformation symmetrischer Matrizen . . . . . . . . . . . . . . . . .
4.6 Basiswechsel durch orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . .
4.6a
Wirkung auf Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6b Diagonalisierung einer Matrix durch Basiswechsel . . . . . . . . . . . . . .
4.7 Definite symmetrische Matrizen, Spur . . . . . . . . . . . . . . . . . . . . . . . . .
4.7a
Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7b Beispiele, 2 × 2-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7c
Spur einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8 Quadratische Gleichungen in der Ebene, Normalformen . . . . . . . . . . . . . . . .
4.8a
1. Schritt: A diagonalisieren . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8b 2. Schritt: Lineare Terme eliminieren (soweit möglich) . . . . . . . . . . . .
4.8c
Normalformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.9 Beispiel für die Transformation in Normalform im R2 . . . . . . . . . . . . . . . .
4.10 Kegelschnitte in der Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.10a Ellipsen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.10b Hyperbeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.10c Parabeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
48
48
48
49
49
49
50
51
51
51
52
52
52
52
53
53
53
53
54
55
55
55
56
56
57
57
58
58
59
59
59
60
4
Lineare Gleichungssysteme und inverse Matrizen
3.1 Einleitung und Erinnerung . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Rangkriterien für die Lösungsmenge . . . . . . . . . . . . . . . . . . . .
3.2a
Satz über die Lösbarkeit eines linearen Gleichungssystems . . . .
3.2b Satz über die Dimension des Lösungsraumes . . . . . . . . . . .
3.3 Lösungsmengen von homogenen und inhomogenen Gleichungssystemen.
3.4 Die Inverse einer quadratischen Matrix . . . . . . . . . . . . . . . . . . .
3.4a
Satz über reguläre (invertierbare) Matrizen . . . . . . . . . . . .
3.4b Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . . . .
3.5 Berechnung der inversen Matrix, Spezialfälle . . . . . . . . . . . . . . .
3.5a
n = 1 und n = 2 . . . . . . . . . . . . . . . . . . . . . . . . .
3.5b Diagonalmatrizen beliebiger Dimension . . . . . . . . . . . . . .
3.5c
Produkt und Inverse . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Die Matrixinversion mit Adjunkten, Cramersche Regel . . . . . . . . . .
3.7 Matrixinversion mit dem Gauß-Jordan Verfahren . . . . . . . . . . . . .
3.7a
Der Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7b Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8 Lösungshinweise für lineare Gleichungssysteme . . . . . . . . . . . . . .
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Mathematik I+II
Inhaltsverzeichnis
4.11 Direkte Bestimmung von Kurventypen . . . . . . . . . . . . .
4.11a Definiter Fall . . . . . . . . . . . . . . . . . . . . . .
4.11b Indefiniter Fall . . . . . . . . . . . . . . . . . . . . .
4.11c Semidefiniter Fall . . . . . . . . . . . . . . . . . . . .
4.12 Tabelle der Kurven zweiter Ordnung . . . . . . . . . . . . . .
4.13 Quadratische Gleichungen im R3 , Normalformen . . . . . . .
4.13a 1. Schritt: A diagonalisieren . . . . . . . . . . . . . .
4.13b 2. Schritt: Lineare Terme eliminieren (soweit möglich)
4.13c Normalformen . . . . . . . . . . . . . . . . . . . . .
4.14 Beispiele von quadratischen Gleichungen im R3 . . . . . . . .
4.15 Flächen zweiter Ordnung, Quadriken im R3 . . . . . . . . . .
4.15a Fallunterscheidungen bei Eigenwerten, Basiswahl . . .
4.15b Ellipsoide . . . . . . . . . . . . . . . . . . . . . . . .
4.15c Hyperboloide . . . . . . . . . . . . . . . . . . . . . .
4.15d Zylinder . . . . . . . . . . . . . . . . . . . . . . . . .
4.15e Elliptische Paraboloide . . . . . . . . . . . . . . . . .
4.15f Sattelflächen, hyperbolische Paraboloide . . . . . . .
4.15g Weitere Entartungsfälle . . . . . . . . . . . . . . . . .
4.16 Tabelle der Flächen zweiter Ordnung . . . . . . . . . . . . . .
4.17 Anwendungen und geometrische Besonderheiten bei Flächen
zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . .
4.18 Hauptachsentransformation diagonalisierbarer Matrizen . . . .
4.18a An die Matrix angepaßte Basis . . . . . . . . . . . . .
4.18b Satz über die Hauptachsentransformation . . . . . . .
4.18c Beispiel einer Diagonalisierung . . . . . . . . . . . .
4.18d Beispiel einer nicht diagonalisierbaren Matrix . . . . .
4.19 Potenzen von Matrizen . . . . . . . . . . . . . . . . . . . . .
4.19a Potenzen diagonalisierbarer Matrizen, Wurzeln . . . .
4.19b Potenzen von Matrizen und Eigenvektoren . . . . . .
5
Reelle und komplexe Zahlen und einige Grundbegriffe
5.1 Die reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Funktion, Abbildung, Graph . . . . . . . . . . . . . . . . . .
5.3 Die Ordnung der reellen Zahlen . . . . . . . . . . . . . . . .
5.3a
Axiome der Ordnung von R . . . . . . . . . . . . . .
5.3b Einige Regeln für das Rechnen mit Ungleichungen . .
5.3c
Die Relationen ≤ und ≥ . . . . . . . . . . . . . . .
5.4 Durch Ungleichungen charakterisierte Mengen . . . . . . . .
5.4a
Intervalle . . . . . . . . . . . . . . . . . . . . . . . .
5.4b Quader, Kugeln, Ellipsen etc. . . . . . . . . . . . . .
5.4c
Weitere durch Ungleichungen charakterisierte Mengen
5.5 Der Betrag einer reellen Zahl . . . . . . . . . . . . . . . . . .
5.5a
Definition des Betrages auf R . . . . . . . . . . . . .
5.5b Eigenschaften des Betrages auf R . . . . . . . . . . .
5.5c
Einige Anwendungen des Betrages . . . . . . . . . .
5.6 Die Bernoullische Ungleichung . . . . . . . . . . . . . . . . .
5.7 Die Menge C der komplexen Zahlen . . . . . . . . . . . . .
5.7a
Definition komplexer Zahlen . . . . . . . . . . . . . .
5.7b Die Addition komplexer Zahlen . . . . . . . . . . . .
5.7c
Die Multiplikation komplexer Zahlen . . . . . . . . .
5.7d Beispiele für Rechnungen mit komplexen Zahlen . . .
5.7e
Bemerkung: keine Ordnung auf C . . . . . . . . . . .
RWTH Aachen
v
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
60
60
60
60
61
61
61
62
62
63
63
63
64
64
65
65
65
65
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
66
67
67
67
68
68
68
69
69
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
70
70
70
71
71
72
73
73
73
73
74
75
75
75
76
76
77
77
77
77
78
78
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Mathematik I+II
Inhaltsverzeichnis
5.7f
Konjugiert komplexe Zahlen, der Betrag auf C . . . . . .
5.7g Rechenhilfen für komplexe Zahlen . . . . . . . . . . . . .
5.8 Körpereigenschaften der rationalen, reellen und komplexen Zahlen
5.8a
Addition . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8b Multiplikation . . . . . . . . . . . . . . . . . . . . . . .
5.8c
Verträglichkeit von Addition und Multiplikation . . . . . .
5.8d Bemerkungen zu Körpern . . . . . . . . . . . . . . . . .
5.9 Das Summenzeichen . . . . . . . . . . . . . . . . . . . . . . . .
5.10 Summenformeln . . . . . . . . . . . . . . . . . . . . . . . . . .
5.11 Fakultät und Binomialkoeffizienten . . . . . . . . . . . . . . . . .
5.11a Die Fakultät . . . . . . . . . . . . . . . . . . . . . . . . .
5.11b Die Binomialkoeffizienten . . . . . . . . . . . . . . . . .
5.11c Identität des Pascalschen Dreiecks“ . . . . . . . . . . . .
”
5.12 Binomischer Lehrsatz . . . . . . . . . . . . . . . . . . . . . . . .
6
vi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Grundlegende Funktionen
6.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1a
Zu den Anwendungen der Polynome . . . . . . . . . . . . . .
6.1b Koeffizientenvergleich, Faktorzerlegung der Polynome . . . .
6.1c
Differentiation und Integration von Polynomen . . . . . . . .
6.1d Approximierbarkeit durch Polynome, der Satz von Weierstraß
6.2 Anwendung: komplexe Eigenwerte und Eigenvektoren . . . . . . . .
6.3 Intermezzo: Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . .
6.3a
Linearität der Ableitung . . . . . . . . . . . . . . . . . . . .
6.3b Produktregel (auch Leibnizregel“) . . . . . . . . . . . . . .
”
6.3c
Quotientenregel . . . . . . . . . . . . . . . . . . . . . . . . .
6.3d Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3e
Gliedweise Differentiation absolut konvergenter Potenzreihen
6.3f
Bemerkungen zum Betrag . . . . . . . . . . . . . . . . . . .
6.4 Rationale Funktionen, asymptotische Polynome . . . . . . . . . . . .
6.5 Die reelle Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . .
6.5a
Satz über die reelle Partialbruchzerlegung . . . . . . . . . . .
6.5b Stammfunktionen zu einigen Partialbrüchen . . . . . . . . . .
6.6 Bestimmung der Koeffizienten der Partialbruchzerlegung . . . . . . .
6.6a
Koeffizienten der höchsten Potenzen der Linearfaktoren . . .
6.6b Reduktionen . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6c
Beispiel für systematischen Koeffizientenvergleich . . . . . .
6.7 Lokale Extrema differenzierbarer Funktionen . . . . . . . . . . . . .
6.7a
Definition lokaler Extrema . . . . . . . . . . . . . . . . . . .
6.7b Bemerkung über lokale und absolute Extrema . . . . . . . . .
6.7c
Satz über lokale Extrema differenzierbarer Funktionen . . . .
6.7d Beispiele lokaler Extrema, einige Potenzen . . . . . . . . . .
6.8 Kurvendiskussionen . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8a
Beispiel: rationale Funktionen und Verwandte . . . . . . . . .
6.8b Hinweise für die Kurvendiskussion . . . . . . . . . . . . . .
6.9 Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . .
6.9a
Definition als Potenzreihe . . . . . . . . . . . . . . . . . . .
6.9b Eigenschaften der Exponentialfunktion . . . . . . . . . . . .
6.10 Logarithmus und reelle Potenzen . . . . . . . . . . . . . . . . . . . .
6.11 Sinus und Kosinus, Eulersche Formel, Polarkoordinaten . . . . . . . .
6.12 (De) Moivresche Formeln, komplexe Wurzeln . . . . . . . . . . . . .
6.13 Eigenschaften trigonometrischer Funktionen . . . . . . . . . . . . . .
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
79
80
80
80
80
80
81
81
82
82
83
83
84
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
85
85
86
87
87
87
88
88
88
88
88
88
89
89
90
90
90
90
91
92
92
92
93
93
94
94
94
95
96
96
96
97
98
99
99
Mathematik I+II
Inhaltsverzeichnis
vii
6.13a Ableitungen trigonometrischer Funktionen . . . . . . . . .
6.13b Additionstheoreme für trigonometrische Funktionen . . . .
6.13c Skalarprodukt und Winkel zwischen Vektoren in der Ebene .
6.13d Beispiel Kurvendiskussion: gedämpfte Schwingungen . . .
6.14 Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . .
7
8
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
100
101
101
102
Mittelwertsatz, Umkehrfunktionen
7.1 Der Mittelwertsatz und erste Anwendungen . . . . . . . . . . . . .
7.1a
Der Mittelwertsatz . . . . . . . . . . . . . . . . . . . . . .
7.1b Monotone Funktionen . . . . . . . . . . . . . . . . . . . .
7.1c
Hinreichende Bedingungen für Extrema . . . . . . . . . . .
7.2 Umkehrfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2a
Satz über die Existenz der Umkehrfunktion . . . . . . . . .
7.2b Beispiel: Die Logarithmusfunktion als Umkehrfunktion der
Exponentialfunktion . . . . . . . . . . . . . . . . . . . . .
7.2c
Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2d Graph der Umkehrfunktion . . . . . . . . . . . . . . . . . .
7.3 Arkus- und Areafunktionen . . . . . . . . . . . . . . . . . . . . . .
7.3a
Arkuskosinus und Arkussinus . . . . . . . . . . . . . . . .
7.3b Arkustangens und Arkuskotangens . . . . . . . . . . . . . .
7.3c
Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . .
7.4 Ableitung von Umkehrfunktionen . . . . . . . . . . . . . . . . . .
7.4a
Erläuterung der Ableitungsregel durch eine Skizze . . . . .
7.4b Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . .
7.4c
Bemerkung zu Ableitungen von Umkehrfunktionen . . . . .
7.5 Abschätzungen mit Hilfe des MWS . . . . . . . . . . . . . . . . .
7.5a
Ungleichungen für trigonometrische Funktionen . . . . . .
7.5b Eine Standardabschätzung . . . . . . . . . . . . . . . . . .
7.5c
Zum Nutzen des Mittelwertsatzes, weitere Abschätzungen .
7.6 Die Regeln von de l’Hospital . . . . . . . . . . . . . . . . . . . . .
7.6a
Vorbemerkungen, die einfachen Grenzwertsätze . . . . . . .
7.6b Der Satz von de l’Hospital . . . . . . . . . . . . . . . . . .
7.6c
Verallgemeinerungen des Satzes von de l’Hospital . . . . .
7.7 Anwendungen der Regeln von de l’Hospital . . . . . . . . . . . . .
7.7a
(sin x)/x, x → 0 . . . . . . . . . . . . . . . . . . . . .
7.7b
[ ln(1 + x) ]/x, x → 0 . . . . . . . . . . . . . . . . . . .
7.7c
[(tan x) − x]/x3 , x → 0 . . . . . . . . . . . . . . . . .
7.7d ( ln x)/xp , x → ∞ . . . . . . . . . . . . . . . . . . . . .
7.7e
[ 1/ ln(1 + x) ] − 1/x, x → 0 . . . . . . . . . . . . . . .
7.7f
| tan x|(1/ ln |x|) , x → 0 . . . . . . . . . . . . . . . . . .
7.7g Bemerkungen zu “00 ” . . . . . . . . . . . . . . . . . . . .
7.7h Weitere Beispiele, Päckchen packen“ . . . . . . . . . . . .
”
7.7i
Hilfe von Potenzreihen . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
104
104
104
105
105
105
105
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
106
106
106
106
107
108
109
111
111
112
113
113
113
113
114
114
114
115
115
115
115
116
116
116
116
116
116
117
117
Integration stetiger Funktionen
8.1 Vorbemerkungen . . . . . . . . . . . . . . . . .
8.2 Trapezapproximation für das bestimmte Integral .
8.3 Das bestimmte Integral stetiger Funktionen . . .
8.3a
Definition des bestimmten Integrals . . .
8.3b Bemerkungen zur Integraldefinition . . .
8.3c
Eigenschaften des bestimmten Integrals .
8.3d Eine wichtige Abschätzung für Integrale .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
118
118
118
119
119
120
121
121
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Mathematik I+II
Inhaltsverzeichnis
8.4
8.5
8.6
8.7
8.8
8.9
8.10
8.11
8.12
8.13
8.14
8.15
9
viii
Der Hauptsatz der Differential- und Integralrechnung
(Leibniz, Newton) . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4a
Der Hauptsatz für bestimmte Integrale, Stammfunktion . . .
8.4b Bemerkung zu Stammfunktionen . . . . . . . . . . . . . .
8.4c
Integral als Stammfunktion . . . . . . . . . . . . . . . . . .
8.4d Beweis des Hauptsatzes . . . . . . . . . . . . . . . . . . .
8.4e
Variante des Mittelwertsatzes . . . . . . . . . . . . . . . .
Das unbestimmte Integral . . . . . . . . . . . . . . . . . . . . . . .
Beispiele für die Integration mit dem Hauptsatz . . . . . . . . . . .
8.6a
Potenzen der Variablen . . . . . . . . . . . . . . . . . . . .
8.6b Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . .
8.6c
Potenzen von Funktionen und deren Ableitung . . . . . . .
8.6d Quadratische Polynome im Nenner . . . . . . . . . . . . .
Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7a
Beispiele für die partielle Integration . . . . . . . . . . . .
Symmetriebetrachtungen bei Integralen . . . . . . . . . . . . . . .
8.8a
Gerade (symmetrische) Funktionen . . . . . . . . . . . . .
8.8b Ungerade (antisymmetrische) Funktionen . . . . . . . . . .
Die Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . .
8.9a
Erste Form der Substitutionsregel . . . . . . . . . . . . . .
8.9b Zweite Form der Substitutionsregel . . . . . . . . . . . . .
Substitutionen bei Wurzelausdrücken und Potenzen . . . . . . . . .
8.10a Beispiel mit ungerader Potenz k . . . . . . . . . . . . . . .
8.10b Beispiele mit gerader Potenz k . . . . . . . . . . . . . . . .
Integrale rationaler Funktionen in den trigonometrischen Funktionen
Approximative Berechnung eines Integrals, Simpsonregel . . . . . .
8.12a Quadraturverfahren . . . . . . . . . . . . . . . . . . . . . .
8.12b Simpsonsche Regel . . . . . . . . . . . . . . . . . . . . . .
Integrale stückweise stetiger Funktionen . . . . . . . . . . . . . . .
8.13a Stückweise stetige Funktionen . . . . . . . . . . . . . . . .
8.13b Integral einer stückweise stetigen Funktion . . . . . . . . .
Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . .
8.14a Unbeschränkte Intervalle . . . . . . . . . . . . . . . . . . .
8.14b Integranden mit lokalen Singularitäten . . . . . . . . . . . .
8.14c Konvergenzkriterien für uneigentliche Integrale . . . . . . .
Fehlerquellen bei der numerischen Integration . . . . . . . . . . . .
Folgen, Konvergenz und Divergenz
9.1 Approximation von Lösungen, Zahlenfolgen . . . . . . . .
9.1a
Approximation von Lösungen . . . . . . . . . . .
9.1b Definition der Zahlenfolgen und Beispiele . . . . .
9.2 Konvergenz einer Folge gegen einen Grenzwert . . . . . .
9.2a
Definition der Konvergenz gegen einen Grenzwert
9.2b Beispiele konvergenter Folgen . . . . . . . . . . .
9.2c
Praxis der Bestimmung von N (ε) . . . . . . . . .
9.3 Eindeutigkeit des Grenzwertes einer Folge . . . . . . . . .
9.4 Grenzwertsätze für konvergente Folgen . . . . . . . . . .
9.4a
Lineare Operationen . . . . . . . . . . . . . . . .
9.4b Multiplikation und Division . . . . . . . . . . . .
9.4c
Anwendung stetiger Funktionen . . . . . . . . . .
9.4d Abschätzungen für Folgen und Grenzwerte . . . .
9.4e
Bemerkungen zur Konvergenz von Folgen . . . . .
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
122
122
122
122
122
123
123
124
124
124
125
125
125
127
127
127
128
128
129
129
130
130
131
132
132
132
132
132
133
133
133
134
134
135
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
137
137
137
137
138
138
138
139
140
140
140
140
141
141
141
Mathematik I+II
Inhaltsverzeichnis
ix
9.4f
Beweis der Multiplikationsregel . . . . . . . . . . . . . . . .
9.5 Anwendungsbeispiele für Grenzwertsätze . . . . . . . . . . . . . . .
9.6 Divergente Folgen und Nullfolgen . . . . . . . . . . . . . . . . . . .
9.6a
Sprechweise strebt gegen Unendlich“ . . . . . . . . . . . .
”
9.6b Kehrwert und Nullfolgen . . . . . . . . . . . . . . . . . . . .
9.7 Reelle monotone und beschränkte Folgen . . . . . . . . . . . . . . .
9.8 Fundamentalsatz über monotone beschränkte Folgen . . . . . . . . .
9.8a
Der Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.8b Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . .
9.9 Beispiele für monotone beschränkte Folgen . . . . . . . . . . . . . .
9.9a
Die Eulerzahl e . . . . . . . . . . . . . . . . . . . . . . . .
9.9b Iteratives Wurzelziehen nach Heron und Newton . . . . . . .
9.10 Zur Grenzwertbestimmung rekursiv definierter Folgen . . . . . . . .
9.11 Vollständigkeit der reellen Zahlen und Beweis des Fundamentalsatzes
9.11a Ein Vollständigkeitsaxiom der reellen Zahlen . . . . . . . . .
9.11b Beweis des Fundamentalsatzes für monotone Folgen . . . . .
9.12 Offene und Abgeschlossene Mengen . . . . . . . . . . . . . . . . . .
10 Reihen
10.1 Konvergenz und absolute Konvergenz einer Reihe . . . . . . . . . .
10.2 Einfache Beispiele von Reihen . . . . . . . . . . . . . . . . . . . .
10.2a Eulerzahl, Unendliche Dezimalbrüche . . . . . . . . . . . .
10.2b Die geometrische Reihe . . . . . . . . . . . . . . . . . . .
10.2c Eine Reihe für Vergleiche . . . . . . . . . . . . . . . . . .
10.3 Vergleichskriterien für Konvergenz und Divergenz . . . . . . . . . .
10.3a Majorantenkriterium für absolute Konvergenz . . . . . . . .
10.3b Quotiententest . . . . . . . . . . . . . . . . . . . . . . . .
10.3c Quotientenkriterium . . . . . . . . . . . . . . . . . . . . .
10.3d Anwendungsbeispiele der Konvergenzkriterien . . . . . . .
10.4 Die Exponentialreihe . . . . . . . . . . . . . . . . . . . . . . . . .
10.5 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5a Zum Anfang einer Reihe . . . . . . . . . . . . . . . . . . .
10.5b Summanden einer konvergenten Reihe bilden eine Nullfolge
10.5c Lineare Operationen . . . . . . . . . . . . . . . . . . . . .
10.5d Weitere Kriterien . . . . . . . . . . . . . . . . . . . . . . .
10.6 Divergente Reihen . . . . . . . . . . . . . . . . . . . . . . . . . .
10.6a Die harmonische Reihe ist divergent . . . . . . . . . . . . .
10.6b Minorantenkriterium für die Divergenz reeller Reihen . . .
10.6c Beispiele divergenter Reihen . . . . . . . . . . . . . . . . .
10.7 Das Integralkriterium . . . . . . . . . . . . . . . . . . . . . . . . .
10.7a Beispiel zum Integralkriterium . . . . . . . . . . . . . . . .
10.8 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8a Satz über den Konvergenzradius . . . . . . . . . . . . . . .
10.8b Beispiele von Potenzreihen . . . . . . . . . . . . . . . . . .
10.9 Alternierende Reihen . . . . . . . . . . . . . . . . . . . . . . . . .
10.9a Das Leibnizkriterium . . . . . . . . . . . . . . . . . . . . .
10.9b Beispiele alternierender Reihen . . . . . . . . . . . . . . .
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
142
142
144
144
144
144
144
144
144
145
145
146
146
146
147
147
147
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
148
148
149
149
150
150
150
151
151
151
152
153
153
153
153
154
154
154
154
154
154
155
155
155
156
156
156
156
157
Mathematik I+II
Inhaltsverzeichnis
11 Taylorreihen, Approximation durch Taylorpolynome
11.1 Erinnerung: Lineare und quadratische Näherung, Potenzreihen . . . .
11.1a Lineare Näherung differenzierbarer Funktionen . . . . . . . .
11.1b Durch Potenzreihen definierte Funktionen, Konvergenzradius
11.2 Hilfen bei der Arbeit mit Potenzreihen . . . . . . . . . . . . . . . . .
11.2a Formelsammlung, Linearität, gerade und ungerade Funktionen
11.2b Einsetzen in bekannte Funktionen . . . . . . . . . . . . . . .
11.2c Multiplikation mit Potenzen . . . . . . . . . . . . . . . . . .
11.2d Gliedweises Differenzieren und Integrieren . . . . . . . . . .
11.2e Bestimmung einer einfachen Funktion aus ihrer Potenzreihe .
11.3 Taylorreihe und Taylorpolynom, Restglied . . . . . . . . . . . . . . .
11.3a Taylorreihe . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3b Taylorpolynom . . . . . . . . . . . . . . . . . . . . . . . . .
11.3c Restglied der Taylorapproximation . . . . . . . . . . . . . . .
11.3d Restgliedabschätzungen . . . . . . . . . . . . . . . . . . . .
11.3e Beispiele für Restgliedabschätzungen . . . . . . . . . . . . .
11.3f Mac Laurinsche Formel und Reihe . . . . . . . . . . . . . . .
11.4 Approximative Integration . . . . . . . . . . . . . . . . . . . . . . .
x
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.1 Definition und Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.1a Definitionen und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . .
12.1b Herkunft von Differentialgleichungen . . . . . . . . . . . . . . . . . . . . .
12.1c Typische Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.1d Partielle Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . .
12.1e Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2 Lineare homogene Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . .
12.2a Spezielle Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2b Linearität der Lösungsmenge . . . . . . . . . . . . . . . . . . . . . . . . . .
12.2c Lösungsformel für die allgemeine Lösung . . . . . . . . . . . . . . . . . . .
12.2d Beispiel einer linearen homogenen Differentialgleichung . . . . . . . . . . .
12.2e Das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.3 Lineare inhomogene Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . .
12.3a Lösungsformel für die allgemeine Lösung . . . . . . . . . . . . . . . . . . .
12.3b Beobachtung über inhomogene lineare Gleichungen . . . . . . . . . . . . .
12.3c Beispiel einer linearen inhomogenen Differentialgleichung . . . . . . . . . .
12.4 Das Anfangswertproblem für lineare Differentialgleichungen erster Ordnung . . . .
12.5 Bernoullische Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . .
12.5a Beobachtungen bei Bernoullischen Differentialgleichungen . . . . . . . . .
12.6 Das Richtungsfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.7 Definitionsbereich einer Differentialgleichung erster Ordnung . . . . . . . . . . . .
12.7a Beispiele zum Definitionsbereich . . . . . . . . . . . . . . . . . . . . . . .
12.8 Separable Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8a Gleichgewichtslösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.8b Weitere Lösungen separabler Differentialgleichungen . . . . . . . . . . . . .
12.8c Beispiel einer separablen Differentialgleichung . . . . . . . . . . . . . . . .
12.8d Das Anfangswertproblem für Nicht-Gleichgewichtslösungen . . . . . . . . .
12.8e Der autonome Spezialfall . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.9 Grundlegende Existenz- und Eindeutigkeitssätze für das Anfangswertproblem. . . . .
12.9a Vorbemerkungen: stetig, Lipschitz-stetig, partielle Ableitung bei Funktionen
mehrerer Veränderlicher . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12.9b Lokale Lösung des Anfangswertproblems (AWP) . . . . . . . . . . . . . . .
RWTH Aachen
158
158
158
158
159
159
159
160
160
161
161
161
161
162
163
163
164
164
165
165
165
165
166
166
166
166
167
167
167
167
168
168
168
169
169
170
170
171
172
172
172
173
173
173
174
174
174
175
175
176
Mathematik I+II
Inhaltsverzeichnis
12.9c Existenzsatz von Peano . . . . . . . . . . . . . . . . . .
12.9d Existenz- und Eindeutigkeitssatz von Picard-Lindelöf . .
12.10Anwendungen der Existenz- und Eindeutigkeitssätze
auf Differentialgleichungen erster Ordnung . . . . . . . . . . .
12.10a Lineare Differentialgleichungen . . . . . . . . . . . . .
12.10b Eindeutigkeit bei Bernoullischen Differentialgleichungen
12.10c Allgemeine Lösung . . . . . . . . . . . . . . . . . . . .
12.10d Differentialgleichungen höherer Ordnung . . . . . . . .
xi
. . . . . . . . . . . 176
. . . . . . . . . . . 176
.
.
.
.
.
176
177
177
177
177
13 Lineare Differentialgleichungen und Systeme
13.1 Lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.1a Die Differentialgleichung und das Anfangswertproblem . . . . . . . . . . .
13.1b Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . .
13.1c Fall 1: zwei verschiedene reelle Lösungen . . . . . . . . . . . . . . . . . . .
13.1d Fall 2, Entartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.1e Fall 3: konjugiert komplexes Nullstellenpaar . . . . . . . . . . . . . . . . .
13.2 Lineare gedämpfte Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.2a Schwache Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.2b Kritische Dämpfung (aperiodischer Grenzfall) . . . . . . . . . . . . . . . .
13.2c Starke Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.3 Lineare homogene Differentialgleichungen n -ter Ordnung mit
konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.4 Lineare inhomogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten und variabler Inhomogenität . . . . . . . . . . . . . . . . . . . . . . . . . .
13.5 Die Ansatzmethode für lineare inhomogene Differentialgleichungen n-ter Ordnung .
13.5a Polynomiale Inhomogenitäten . . . . . . . . . . . . . . . . . . . . . . . . .
13.5b Exponentielle und trigonometrische Inhomogenitäten . . . . . . . . . . . . .
13.5c Zusätzlicher polynomialer Faktor . . . . . . . . . . . . . . . . . . . . . . .
13.6 Die Grundlösungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.6a Grundlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.6b Konstruktion einer partikulären Lösung . . . . . . . . . . . . . . . . . . . .
13.6c Beweisskizze der Lösungseigenschaft . . . . . . . . . . . . . . . . . . . . .
13.6d Andere Lösungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.7 Lineare Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.7a Übergang von Differentialgleichungen höherer Ordnung zu Systemen 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.7b Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . .
13.8 Die Eigenvektormethode für lineare Systeme erster Ordnung mit konstanten Koeffizienten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.8a Homogene Systeme, Fundamentalsystem . . . . . . . . . . . . . . . . . . .
13.8b Beispiele zur Eigenvektormethode . . . . . . . . . . . . . . . . . . . . . . .
13.8c Differentialgleichung für die Komponenten . . . . . . . . . . . . . . . . . .
13.8d Lineare inhomogene Systeme 1. Ordnung . . . . . . . . . . . . . . . . . . .
13.9 Entkopplungsmethode für Systeme linearer Differentialgleichungen . . . . . . . . .
13.9a Homogener Teil in Dreiecksgestalt . . . . . . . . . . . . . . . . . . . . . . .
13.9b Allgemeines inhomogenes System 1. Ordnung . . . . . . . . . . . . . . . .
13.9c Ein System zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . .
178
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
178
178
178
179
179
179
180
180
180
180
180
181
182
182
182
182
183
183
183
184
184
184
184
185
186
186
186
187
187
188
188
189
191
Mathematik I+II
Inhaltsverzeichnis
xii
14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
14.1 Beispiel für nicht eindeutige Lösungen des AWP . . . . . . . . . . . . . . . .
14.2 Substitution, Rückführung auf eine einfachere Differentialgleichung . . . . . .
14.3 Autonome nichtlineare Differentialgleichungen 2. Ordnung . . . . . . . . . . .
14.4 Potenzreihenansatz, Legendresche Differentialgleichung . . . . . . . . . . . .
14.4a Der Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.4b Zur Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . .
14.4c Legendresche Differentialgleichung (Spezialfälle) . . . . . . . . . . .
14.5 Integralgleichung zum Anfangswertproblem, die Picard-Iteration . . . . . . . .
14.5a Die äquivalente Integralgleichung zum Anfangswertproblem . . . . . .
14.5b Die Picard-Iteration . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14.5c Beispiele zur Picard-Iteration . . . . . . . . . . . . . . . . . . . . . .
14.5d Konvergenz des Verfahrens . . . . . . . . . . . . . . . . . . . . . . . .
14.6 Der lokale Existenz und Eindeutigkeitssatz, Stabilität der Lösungen . . . . . .
14.6a Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . .
14.6b Stabilität, stetige Abhängigkeit von den Daten . . . . . . . . . . . . . .
14.7 Bemerkungen zu numerischen Verfahren . . . . . . . . . . . . . . . . . . . . .
Sachverzeichnis
RWTH Aachen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
193
193
193
194
195
195
195
196
197
197
197
198
199
200
200
201
201
203
Mathematik I+II
Schulstoff
1
Zur Auffrischung des Schulstoffs
In diesem Abschnitt stellen wir einige Vorkenntnisse zusammen, insbesondere Eigenschaften wichtiger Funktionen. Die meisten gehören gemäß den Lehrplänen zum Schulstoff, außerdem sind sie im
Vorkurs der RWTH besprochen worden. Wir haben einige zweckmäßige kleinere Ergänzungen hinzugefügt. Damit legen wir zugleich die von uns benutzten Schreibweisen und Konventionen fest. Auf
die meisten Aussagen werden wir später nochmals eingehen, wenn das notwendige Handwerkszeug“
”
für eine systematische Behandlung entwickelt worden ist. Der Umgang mit diesen Funktionen muß
gründlich geübt werden, deshalb benutzen wir sie schon von Anfang an in Anwendungsbeispielen.
Mit diesem Vorspann können nicht mehr ausreichende Vorkenntnisse aufgefrischt werden. Die sichere Beherrschung der Bruchrechnung und Potenzrechnung, binomische Gleichungen, Lösen linearer
und quadratischer Gleichungen, Mengenlehre u.s.w. (Sekundarstufe I) setzen wir voraus.
A
Lineare und quadratische Approximation
Für eine zweimal differenzierbare Funktion kann in der Nähe einer Stelle x0 mit Hilfe der Ableitung
leicht eine lineare sowie eine quadratische Näherung bestimmt werden. Die durch den folgenden
Ausdruck gegebene Funktion
`(x) = f (x0 ) + f 0 (x0 ) (x − x0 )
lineare Approximation
beschreibt die Gerade, die an der Stelle x0 denselben Funktionswert und dieselbe Steigung (Ableitung) wie die Funktion f hat, sie beschreibt also die Tangente an den Graphen durch den Punkt
(x0 , f (x0 ) ).
Eine i.a. noch bessere Approximation durch eine Parabel wird durch die Funktion
g(x) = f (x0 ) + f 0 (x0 ) (x − x0 ) +
1 00
f (x0 ) (x − x0 )2 ,
2
die quadratische Approximation“ der Funktion nahe der Stelle x0 beschrieben, bei der nicht nur
”
der Funktionswert sondern auch und die ersten beiden Ableitungen bei x0 = 0 übereinstimmen. Sie
ist besonders in der Nähe von Extrema, wo f 0 (x0 ) = 0 ist, von Interesse, siehe 6.7c (ii). Mit der
linearen und quadratischen Approximation kann man sich oft rasch einen ersten Überblick über den
qualitativen Verlauf des Graphen einer Funktion f verschaffen. Eine quantitative Kontrolle des Fehlers bei diesen Approximationen wird im Abschnitt über die Approximation durch Taylorpolynome
behandelt.
Viele Beispiele für lineare und quadratische Approximationen werden in den folgenden Abschnitten angegeben.
B
Die Exponentialfunktion
Die Exponentialfunktion gehört mit den Polynomen und trigonometrischen Funktionen zu den wichtigsten Funktionen in der Modellbildung und bei den Anwendungen (exponentielles Abklingen von
gedämpften Schwingungen oder von radioaktiver Strahlung, exponentielles Wachstum, ...). Sie verallgemeinert den Potenzbegriff von ganzzahligen Potenzen auf reelle. Bei Verallgemeinerung auf
komplexe Argumente erkennt man, daß die trigonometrischen Funktionen und die reelle Exponentialfunktion alle Spezialfälle einer einzigen komplexen Exponentialfunktion sind (siehe z.B. 6.9).
Als Basis der Potenzen ist es zweckmäßig, die irrationale Eulerzahl e zu benutzen:
µ
¶
∞
X
1
1
1 n
1
= 1 + 1 + + + . . . = lim 1 +
≈ 2, 718 . . . .
e :=
n→∞
k!
2! 3!
n
k=0
Die Exponentialfunktion ex ≡ exp(x) ist z.B. festgelegt durch die Berechnungsvorschrift
ex ≡ exp(x) := 1 + x +
RWTH Aachen
x2 x3
+
+ ... .
2!
3!
Mathematik I+II
Schulstoff
2
Daß die unendlichen Summen für alle x ∈ R oder C sinnvoll sind, zeigen wir in Abschnitt 10.4.
Alternativ können wir die Exponentialfunktion als die (eindeutige) stetige Funktion charakterisieren,
die folgende Eigenschaften hat (Verallgemeinerungen der üblichen Potenzrechenregeln):
e0 = 1, e1 = e, e(x+x̃) = ex · ex̃ , (ex )p = ex·p ,
x, x̃, p ∈ R.
Daraus folgt z.B. e−x = 1/ex , denn 1 = e0 = e(x−x) = ex ·e−x . Insbesondere gilt e2 = e·e , e−3 =
1/(e · e · e) u.s.w., ex > 0 für alle x. Konkrete Funktionswerte liefern die Taschenrechner (oder
Tabellen). Die Exponentialfunktion wächst sehr schnell“ für große x (schneller als xn für beliebig
”
große Potenz n, siehe 6.9b), z.B. e5 ≈ 150, e10 ≈ 22.000, e22 ≈ 5 · 108 , und sie wird sehr schnell
klein für x → −∞. Insbesondere gilt die Abschätzung ex > 1 + x für alle x > 0, da auf der rechten
Seite positive Summanden weggelassen wurden (die Ungleichung ist sogar für alle x 6= 0 richtig).
Die Graphen von ex und e−x mit ihren linearen Approximationen nahe 0 sind:
3
exp(x) = e
x
exp(-x) = e
-x
l (x) = 1-x
l (x) = 1+x
1
1
0
–2
3
2
–2
0
2
Abbildung 0.1: Exponentialfunktion
Besonders einfach sind Ableitungen (und Stammfunktionen)
f (x) = ex , f 0 (x) = ex , f (k) (x) = ex
für k ∈ N0 ,
deshalb ist die Wahl der (komplizierten) Zahl e als Basis so zweckmäßig, ähnlich dem Bogenmaß
bei trigonometrischen Funktionen! Aus f 0 (x) = ex > 0 für alle x ∈ R folgt, daß die Exponentialfunktion streng monoton anwächst (7.1b). Die lineare Approximation (siehe A) um x0 = 0 ist
ex ≈ e0 + e0 (x − 0) = 1 + x = `(x) für x ≈ 0.
Die in der Wahrscheinlichkeitstheorie und Statistik wichtige Gaußsche Glockenkurve“ ist der Graph
”
der Funktion
2
h(x) = e−x .
Eine systematische Behandlung der Exponentialfunktion und Beweise ihrer Eigenschaften folgen
später, wenn wir die dafür nötigen Hilfsmittel entwickelt haben, insbesondere in 6.9.
C
Der Logarithmus
Die Logarithmusfunktion, genauer der natürliche Logarithmus ist die Umkehrfunktion zur Exponentialfunktion (siehe 6.10). Die Exponentialfunktion nimmt jeden Wert y > 0 genau für ein Argument
x an, zu y > 0 gibt es genau ein x ∈ R mit ex = y, denn die Exponentialfunktion ist streng
monoton steigend (Ableitung immer positiv). Definiere damit
x = ln y
⇐⇒
y = ex
(x ∈ R, y > 0).
Der Logarithmus ist also nur für positive Argumente definiert! Den Graphen von ln erhält man
(wie allgemein bei Umkehrfunktionen, siehe 7.2d) durch Spiegelung des Graphen von ex an der
Winkelhalbierenden y = x, siehe Abb. 0.2. Auch der Logarithmus ist streng monoton steigend.
RWTH Aachen
Mathematik I+II
Schulstoff
3
ex
ln x
5
l(x) = x–1
1
3
1
ln x
2
5
0
1
1
5
3
Abbildung 0.2: Exponentialfunktion und Logarithmus
Die Rechenregeln für die Exponentialfunktion ergeben als Rechenregeln für den Logarithmus
(siehe 6.10)
ln 1 = 0,
ln e = 1,
ln(y · ỹ) = ln y + ln ỹ
(y, ỹ > 0),
insbesondere ln(1/y) = − ln y,
ln(y p ) = p · ln y
(y > 0, p ∈ R),
und es gelten die Identitäten
x = ln(ex ) für x ∈ R,
y = eln y
für
y > 0.
Die Ableitung (auswendig lernen!) und eine Stammfunktion des Logarithmus sind
f (x) = ln x,
f 0 (x) = 1/x > 0,
F (x) = x (ln x − 1),
für x > 0,
siehe 7.4b (i), also gilt mit ln(1) = 0 für x > 0:
Z x
1
ln x =
dt
(± Flächeninhalt unter einer Standardhyperbel).
1 t
Diese Eigenschaft kann – äquivalent zur Definition als Umkehrfunktion der Exponentialfunktion –
zur Charakterisierung des Logarithmus dienen.
2
2
1/x
1
1
1/x
0
1
x
Flächeninhalt = ln x
0
x
1
Flächeninhalt = − ln x
Abbildung 0.3: Logarithmus als eine Stammfunktion zu 1/x
Lineare Approximation bei x0 = 1 : ln x ≈ ln(1) + (1/1) (x − 1) = x − 1 = `(x). (bei x0 = 0 ist
der Logarithmus nicht definiert!)
RWTH Aachen
Mathematik I+II
Schulstoff
D
4
Potenzen, Wurzeln
Für jede Basis b ∈ R sind Potenzen mit positiv ganzzahligen Exponenten durch iterierte Multiplikation erklärt: b 1 = b, b k+1 = b · b k , k ∈ N . Negative Potenzen sind als Kehrwerte definiert:
b −k = 1/b k und b 0 = 1 falls b 6= 0 (der Spezialfall 00 bedarf einer Sonderbehandlung, siehe
7.7g).
Mit der Exponential- und Logarithmusfunktion können für positive Basen b > 0 die Potenzen
auf beliebige reelle Exponenten verallgemeinert werden:
b p := e p·ln b ,
b > 0, p ∈ R .
Dann bleiben alle Regeln der Potenzrechnung gültig (siehe 6.10):
b1p · b2p = (b1 · b2 ) p ,
b p+q = b p · b q ,
(b p )r = b p·r ,
b, b1 , b2 > 0, p, q, r ∈ R .
Eine Sonderrolle spielen rationale Exponenten der Form p = 1/k, k ∈ N , die k-ten Wurzeln. Als
√
spezielle reelle Potenz gilt b1/k ≡ k b = exp{(ln b)/k}, b > 0. Aufgrund der Potenzrechenregeln
√
ist k b auch die eindeutige positive Zahl mit (b1/k )k = b , also zugleich die Umkehrfunktion (siehe
√
7.2) zur k-ten Potenz. Bei geradem k hat b1/k ≡ k b eine natürliche Fortsetzung zu b = 0 (wie
jede positive Potenz), eine Fortsetzung auf negative b ist aber nicht möglich, da gerade Potenzen
√
nie negativ sind. Anders bei ungeradem k : Zu jedem b ∈ R gibt es genau eine reelle Zahl k b
√
√
mit ( k b)k = b , z.B. ( 3 −8) = −2. Diese Fortsetzung zu negativen Argumenten (Definition der
Wurzel als Umkehrfunktion, siehe J und 7.2c) ist in den Anwendungen verbreitet und oft zweckmäßig,
deshalb schließen wir sie nicht generell aus. Dabei muß aber unbedingt beachtet werden, daß in
√
diesem Fall die Regeln der Potenzrechnung nicht mehr gültig zu sein brauchen: ( 3 −8) = −2 6=
(−8)2/6 = [(−8)2 ]1/6 = [64]1/6 = +2 oder [(−8)1/6 ]2 nicht definiert.
√
Beachte insbesondere, daß (Quadrat-)Wurzeln nie negativ sind!! 4 = 2, die andere Lösung von
√
√
x2 = 4 ist x = −2 = − 4 6= 4.
Wenn die positive Basis und/oder der Exponent eine Funktion einer Variablen x ist, so gilt
natürlich
b(x) p(x) = exp{p(x) · ln [b(x)] },
b(x) > 0, p(x) reell.
Wir behandeln hier noch speziell die Fälle einer konstanten Basis b > 0 mit p(x) = x sowie der
variablen Basis b(x) = x > 0 mit konstantem Exponenten.
D.1 Potenzfunktionen und Logarithmen zu beliebiger positiver Basis
Sei 0 < b = e ln b (z.B. b = 2 oder 10), dann ist
f (x) = b x := (e ln b ) x = e x·ln b ,
x ∈ R, mit
1 x
b .
ln b
Da ln e = 1 ist, hat gerade die Potenzfunktion zur Basis e, die Exponentialfunktion, die Eigenschaft
f 0 = f . Mit b−x = (1/b) x entspricht die Spiegelung des Graphen an der y-Achse einem Übergang
von b > 1 zu (1/b) < 1 oder umgekehrt, siehe Abb. 0.4.
Der dekadische Logarithmus, meist als log (oder lg, log10 ) bezeichnet, ist die Umkehrfunktion
von 10 x
ln z
10 x = z ⇐⇒ x = log z =
(weil 10 x = e x·ln 10 = z), z > 0.
ln 10
Er war früher (vor der Zeit der Taschenrechner) eine wichtige Rechenhilfe und wird daher noch in vielen technischen Normen benutzt. Wir benutzen vorwiegend den natürlichen Logarithmus ln (in manchen Büchern leider auch als log bezeichnet!). Auch der Logarithmus zur Basis 2, log2 , ist insbesondere in der Datenverarbeitung gebräuchlich und nützlich. Allgemein ist logb (x) = (ln x)/(ln b).
f 0 (x) = (ln b) e x·ln b = (ln b) b x
RWTH Aachen
und einer Stammfunktion F (x) =
Mathematik I+II
Schulstoff
5
x
10
-x
x
10 = (1/10)
e -x
ex
4
4
(3/2)
x
(2/3)
x
1
1
0
–2
1
2
–2
0
2
Abbildung 0.4: Potenzfunktionen zu verschiedenen Basen
D.2 Reelle Potenzen positiver reeller Variabler
Für 0 < x = e ln x
ist f (x) = x p = e p·ln x
für beliebiges p ∈ R.
Wie von ganzzahligen Exponenten bekannt gilt auch bei reellen Exponenten für die Ableitung und
eine Stammfunktion
f 0 (x) = e p ln x · p ·
F (x) =
1
= p x p x−1 = p x p−1 ,
x
1
x p+1 für p 6= −1,
p+1
F (x) = ln x für p = −1,
wie wir mit den Ableitungsregeln für die Exponential- und Logarithmusfunktion berechnen. Entsprechend für g(x) = x x = e x·ln x , x > 0,
g 0 (x) = e x·ln x [ ln x + x · (1/x) ] = [ ln x + 1 ] x x .
E
E.1
Trigonometrische Funktionen
Geometrische Definition, Bogenmaß
Die wichtigsten Funktionen zur Beschreibung von geometrischen Objekten wie Kreisen, Ellipsen,
Kreisbögen, sowie von allen periodischen Vorgängen sind die trigonometrischen Funktionen (Winkelfunktionen) Sinus, Kosinus usw. Wie aus der Schule bekannt ist, sind sie zunächst Funktionen
eines Winkels und sie beschreiben Längen im Einheitskreis (dem Kreis mit Radius 1), siehe Abbildung 0.5.
Außer der Winkelmessung in Grad (englisch degree, deg“ auf dem Taschenrechner) ist es oft
”
zweckmäßiger, Winkel äquivalent durch das Bogenmaß (englisch radian, rad“) zu beschreiben. Das
”
ist die Länge auf dem Einheitskreis, positiv gegen den Uhrzeigersinn und negativ mit dem Uhrzeigersinn. Da der Einheitskreis den Umfang 2π hat und eine volle Drehung 360◦ sind, ergibt sich zur
Umrechnung (siehe Abb. 0.6) :
Bogenmaß = 2π
Winkel in Grad
360
bzw. Winkel in Grad = 360◦
Bogenmaß
.
2π
Wir benutzen fast ausschließlich das Bogenmaß.
RWTH Aachen
Mathematik I+II
Schulstoff
6
90◦ , π/2
60◦ , π/3
sin β
1
β
cos β
30◦ , π/6
1
γ
sin α
α
cos α
±180◦ , ±π
0◦ , 0
sin γ < 0
−45◦ , −π/4;
315◦ , 7π/4
◦
◦
270 , 3π/2; −90 , −π/2
Abbildung 0.5: Sinus und Kosinus am Einheitskreis
−1
sin x
1
π
cos x
2π
0
Abbildung 0.7: Sinus und Kosinus
E.2
sin x
1
cos x 1
−π
Abbildung 0.6: Winkel in Grad und Bogenmaß
1
π/2
Abbildung 0.8:
Vorzeichenhilfe
Graphen von Sinus und Kosinus, einfache Eigenschaften
Spezielle Werte sind direkt ablesbar:
µ ¶
³π ´
3π
cos 0 = sin
= −1,
= 1, cos π = sin
2
2
¶
µ
³π ´
3π
sin 0 = sin π = cos
= cos
= . . . = 0,
2
2
√
³π ´
π
1
2
cos
= sin( ) = √ =
(Pythagoras),
4
4
2
2
³π ´ 1
³π ´
sin
= = cos
(zu gleichseitigem Dreieck ergänzen),
6
2
3
sonstige Werte siehe Taschenrechner oder Formelsammlung.
cos(−x) = cos(x) (gerade Funktion),
Periodizität:
sin(x) = sin(x + k · 2π),
sin(−x) = − sin(x) (ungerade Funktion).
cos(x) = cos(x + k · 2π) für alle k ∈ Z.
Verschobene“ Bilder: cos(x) = sin(x + π/2),
”
cos(x + kπ) = (−1)k cos(x) ∀ k ∈ Z
und dasselbe für den Sinus.
(
¢
¡π
+1 für k = 0, ±2, . . .
.
Insbesondere gilt also: cos(kπ) = sin 2 + kπ = (−1)k =
−1 für k = ±1, ±3, . . .
Wichtige Identität: cos2 x + sin2 x = 1 für alle x ∈ R (Pythagoras).
RWTH Aachen
Mathematik I+II
Schulstoff
E.3
7
Differentiation und Integration trigonometrischer Funktionen
(i) Es gilt für x im Bogenmaß
f (x) = sin x
f 0 (x) = cos x,
h(x) = cos x
h0 (x) = − sin x,
auswendig lernen!!
Merkhilfe für Vorzeichen, siehe Abb. 0.8: für x ∈ (0, π/2) gilt sin x > 0, cos x > 0. Sinus
monoton steigend, also: f 0 = + cos; Kosinus monoton fallend, h0 = − sin.
f 00 = − sin x = −f,
f (4) = sin x = f, u.s.w., ebenso für h = cos .
(ii) Lineare und quadratische Approximationen um x0 = 0:
sin x ≈ sin 0 + (cos 0) · (x − 0) = x = `(x),
cos x ≈ cos 0 + (− sin 0) · (x − 0) = 1 = `(x).
Die bessere quadratische Approximation des Kosinus, bei der die Funktion und die ersten beiden
l (x ) = x
π/2
π/2
−π/2
sin x
−π/2
l ( x)=1
1
1
π
π
1
2π
–1
–1
Abbildung 0.9: Sinus
cos x
2π
g ( x)=1 - x 2 /2
Abbildung 0.10: Kosinus
Ableitungen bei x0 = 0 übereinstimmen, ist
2
cos x ≈ 1 − x /2 = g(x),
denn auch
d2 cos ¯¯
(x)¯
= −1 = g 00 (0).
dx2
x=0
(iii) Stammfunktionen: Zu f = sin, h = cos erhalten wir als Stammfunktionen
F (x) = − cos x + const,
H(x) = sin x + const.
Für eine systematische Behandlung der trigonometrischen Funktionen siehe insbesondere 6.11 und
6.13.
E.4
Die Tangensfunktion
sin x
für x ∈ D = {x ∈ R | cos x 6= 0} = R \ {kπ + π/2 | k ∈ Z},
cos x
also für x 6= ±π/2, ±3π/2, . . . .
tan (x + k π) = tan x für k ∈ Z (π-periodisch, warum? ).
Lineare Approximation bei x = 0: tan x ≈ tan 0 + (tan0 0)(x − 0) = x = `(x) mit tan0 (x) =
1/ cos2 (x) = 1 + tan2 (x) (mit der Quotientenregel, siehe 6.13a).
tan x :=
RWTH Aachen
Mathematik I+II
Schulstoff
8
tan x
l ( x) = x
1
−π
−π/2
0
1
π/2
π
2π
Abbildung 0.11: Die Tangensfunktion
E.5
Weitere trigonometrische Funktionen, Identitäten, Abschätzungen
Die abgekürzten Schreibweisen für die reziproken Funktionen
cot x :=
cos x
,
sin x
sec x :=
1
,
cos x
cosec x ≡ csc x :=
1
,
sin x
Kotangens, Sekans und Kosekans, sind oft entbehrlich.
Es gelten sehr nützliche Identitäten, z.B. die Additionstheoreme wie
sin (x + y) = sin x · cos y + cos x · sin y
und sehr viele weitere, siehe 6.13b und insbesondere die Formelsammlungen.
Wir weisen schon hier auf die für Abschätzungen sehr nützlichen Ungleichungen hin, die in 7.5a
begründet werden, siehe die Abbildung 7.13. Außer den offensichtlichen Ungleichungen | sin x| ≤ 1
und | cos x| ≤ 1, die aus sin2 x + cos2 x = 1 folgen, gelten z.B. auch:
x/2 ≤ sin x ≤ x und x ≤ tan x ≤ 2x für 0 ≤ x ≤ π/4.
F
Ellipsen und Hyperbeln
µ ¶
x
Die Punkte
der Ebene, deren Koordinaten quadratischen Gleichungen genügen, liegen auf geoy
metrisch wichtigen Kurven(paaren), den Kegelschnitten. Die Menge
(µ ¶
)
¯ µ x − x ¶2 µ y − y ¶2
x
0
0
2 ¯
∈R ¯
+
= 1 , a, b > 0,
y
a
b
µ ¶
x0
beschreibt im kartesischen Koordinatensystem eine Ellipse mit Zentrum
∈ R2 und achseny0
parallelen Halbachsen der Länge a in horizontaler Richtung (Abszissenrichtung) und b in vertikaler
Richtung (Ordinatenrichtung). Falls a = b, so ist es ein Kreis mit Radius a.
Durch Vorzeichenwechsel erhalten wir ein anderes Bild:
½µ ¶
¾
¯ ³ x ´2 ³ y ´2
x
2 ¯
∈R ¯
−
= c , a, b > 0, c ∈ {−1, 0, 1},
y
a
b
beschreibt bei c = ±1 eine Hyperbel mit Symmetriezentrum im Ursprung (spiegelbildlich zu beiden
Achsen und zum Ursprung). Bei c = −1 liegt der eine Ast oberhalb der Abszisse, es ist der Graph
RWTH Aachen
Mathematik I+II
Schulstoff
9
3
c=–1
1
2
–2
–1
1
2
3
4
1
c=1
–4
c=0
–2
–1
c=1
c=0
0
2
4
–1
–2
–2
–3
Abbildung 0.12: Ellipse mit Zentrum (1, 0.5)
c=–1
Abbildung 0.13: Hyperbeln mit Asymptoten
p
der Funktion y = f+ (x) = b 1 + (x/a)2 . Der andere Ast liegt spiegelbildlich zur Abszisse und
p
ist Graph von f− (x) = −b 1 + (x/a)2 . Bei c = +1 liegen die beiden Äste jeweils rechts und
links, spiegelbildlich zur Ordinate. Bei c = 0 erhalten wir ein gekreuztes Geradenpaar y = ±b x/a.
Diese Geraden sind zugleich die Asymptoten der Hyperbeln mit c 6= 0. In den Abbildungen 0.12 und
0.13 sind die Kurven(paare) für a = 3 und b = 2 dargestellt. Die aus der Schule vielleicht besser
bekannte Hyperbel, der Graph von y = 1/x, liegt dazu gedreht und hat die Abszisse und die Ordinate
als Asymptotenpaar. Wir kommen in Abschnitt 4.10 auf allgemeine Kegelschnitte zurück.
G
Lineare Gleichungssysteme und Gaußscher Algorithmus
Bei vielen verschiedenen Fragestellungen treten im weiteren lineare Gleichungssysteme auf. Bevor
wir diese in Kapitel 3 gründlicher untersuchen, stellen wir vorab ein (aus der Schule bekanntes) systematisches Eliminationsverfahren vor, den Gaußschen Algorithmus, mit dem von jedem linearen
Gleichungssystem entweder die vollständige Lösung angegeben werden oder die Unlösbarkeit festgestellt werden kann. Später lernen wir andere, mitunter zweckmäßigere Lösungsverfahren kennen.
G.1
Die Koeffizientenmatrix und die erweiterte Koeffizientenmatrix, homogene und inhomogene lineare Gleichunssysteme
Ein reelles lineares Gleichungssystem von m Gleichungen in n Unbekannten xi , i = 1, . . . , n;
m, n ∈ N, kann in der folgenden Form geschrieben werden, bei der auf der linken Seite“ der Glei”
chungen die Terme nach den Unbekannten sortiert in Spalten angeordnet werden und auf der rechten
”
Seite“ die konstanten Terme stehen:
a11 x1 + a12 x2 + . . . + a1 n xn = b1 ,
a21 x1 + a22 x2 + . . . + a2 n xn = b2 ,
...
am 1 x1 + am 2 x2 + . . . + am n xn = bm ,
mit reellen Koeffizienten aik ∈ R , i = 1, . . . , m; k = 1, . . . , n. Diese können zu einer rechteckigen
Anordnung, der Koeffizientenmatrix A, zusammengefaßt werden


a11 a12 . . . a1 n
 a21 a22
a2 n 


A= .
..  .
 ..
. 
am 1 am 2 . . .
RWTH Aachen
am n
Mathematik I+II
Schulstoff
10
Die übrigen Einträge, die nicht mit den Unbekannten multipliziert werden, können zu einem Spaltenvektor b mit m Komponenten zusammengefaßt werden:
 
b1
 b2 
 
b =  . .
 .. 
bm
Die erweiterte Koeffizientenmatrix

 a11 . . . a1. n
Aerw =  ..
..
.
am 1 . . . am n
Aerw entsteht durch Anfügen des Vektors b rechts an A

..
.. b1 
.
.. ..  = (A .. b).
.. .
. bm
Die Trennlinie in der Matrix mit m Zeilen und n + 1 Spalten kann, aber muß nicht geschrieben
werden, sie dient der Übersicht. Aerw enthält dieselbe Information wie das ausgeschriebene lineare
Gleichungssystem, jedoch viel kürzer geschrieben.
Ein Gleichungssystem heißt homogen, wenn b1 = b2 = . . . = bm = 0. Ein homogenes System
hat immer die triviale Lösung x1 = . . . = xn = 0, vielleicht weitere. Wenn nicht alle bi verschwinden, heißt das Gleichungssystem inhomogen. Inhomogene Systeme können lösbar oder unlösbar sein.
Das Gaußsche Verfahren beruht auf der Beobachtung, daß die Lösungsgesamtheit eines linearen
Gleichungssystems sich nicht ändert, wenn (a) die Reihenfolge der Gleichungen vertauscht wird, (b)
ein Vielfaches einer Gleichung zu einer anderen addiert wird oder (c) eine Gleichung mit einer Konstanten c 6= 0 multipliziert wird. Offenbar ist eine Lösung des Gleichungssystems auch eine Lösung
eines neuen Systems, das durch solche Operationen entstehen kann. Die Lösungsmenge nimmt also
nicht ab; sie kann aber auch nicht zunehmen, denn durch ebensolche Operationen kann ein neues in
das ursprüngliche Gleichungssystem zurückverwandelt werden.
G.2
Drei typische Beispiele, Gauß-Gestalt
Wenn ein lineares Gleichungssystem eine spezielle einfache Gestalt hat, die sogenannte Gauß-Gestalt,
dann kann man leicht die Lösbarkeit feststellen und ggf. alle Lösungen angeben. Das erste Beispiel
hat genau eine Lösung.
x1 − 2x2 + x3 =
7
x2 − 2x3 = −5
x3 =
2
%
%
x1 = 7 + 2x2 − x3 = 7 − 2 − 2 = 3
x2 = −5 + 2x3 = −5 + 4 = −1
ist leicht zu lösen, das Gleichungssystem hat als erweiterte Koeffizientenmatrix


1 ...
7
1 −2


−2 ... −5  , Gauß-Gestalt.
1
Aerw =  0
..
1 .
2
0
0
Unser zweites Beispiel hat unendlich viele Lösungen.
x1 + 2x2 − x3 + 2x4 =
1,
x3 + 2x4 = −1,
x4 =
4.
x3 = −1 − 8 = −9,
%
In keiner der Gleichungen steht x2 vorne“, daher wird es nicht eindeutig durch die xj mit j > 2,
”
ausgedrückt. Wir können z.B. x2 = t ∈ R beliebig setzen und erhalten
x1 = −16 − 2t, x2 = t, x3 = −9, x4 = 4,
RWTH Aachen
t ∈ R.
Mathematik I+II
Schulstoff
11
Die zugehörige erweiterte Koeffizientenmatrix ist hier


1
2 −1
2 ...
1


0
1
2 ... −1  , Gauß-Gestalt.
Aerw =  0
.
0
0
0
1 ..
4
Das dritte Beispiel von zwei Gleichungen für drei Unbekannte ist unlösbar.
Ã
!
1 3 −2 ... 1/2
Aerw =
, Gauß-Gestalt.
..
0 0
0
1
.
!
Die untere Zeile lautet ausgeschrieben: 0 x1 + 0 x2 + 0 x3 = 1, ein Widerspruch.
Allgemein spricht man von der Gauß-Gestalt der erweiterten Koeffizientenmatrix, wenn in jeder
Zeile das erste Element, das nicht verschwindet, weiter rechts steht, als in der darüberstehenden Zeile.
Einige weitere Beispiele:






3 5 2 7
0 7 2 5 9
0 0 −3 15 0
0 0 −4 2 ,
0 0 1 0 1 ,
0 0 0
0 1 .
0 0 0 0
0 0 0 8 3
0 0 0
0 0
G.3
Elementare Zeilenoperationen für Matrizen, der Gaußsche Algorithmus
Ziel des Gaußschen Algorithmus (der Gauß-Elimination) ist es, ein Gleichungssystem in die GaußGestalt zu überführen. Um Schreibarbeit zu sparen, wird das nicht mit den ausgeschriebenen Gleichungen sondern mit der erweiterten Matrix durchgeführt. Wir lassen den Trennstrich weg (der Algorithmus ist auch bei anderen Matrizen als Aerw nützlich) und schreiben für die erste, zweite, . . . Zeile
der Matrix z1 , z2 u.s.w. Die folgenden elementaren Zeilenoperationen, die die Lösungsmenge nicht
verändern, führen zum Ziel:
(a) Vertauschen von Zeilen,
(b) Addition eines Vielfachen einer Zeile zu einer anderen Zeile: zi −→ zi + c zj ,
(c) Multiplikation einer Zeile mit einer Zahl c 6= 0: zi −→ c zi .
Wir erläutern den Gaußschen Algorithmus, das Gaußsche Eliminationsverfahren, mit dem durch elementare Zeilenoperationen eine Matrix in Gauß-Gestalt überführt wird, an Beispielen, siehe dazu
auch 2.8.
(i) Vertausche (falls nötig) die Zeilen, so daß in der ersten Spalte, die nicht nur Null enthält, in der
obersten Zeile keine Null steht:




1
3
2 6 −4
1
0 2
(a)
 2 6 −4
3 ,
1
1  −→  0 2
z1 und z2 vertauscht.
4 8 −10 −3
4 8 −10 −3
(ii) Dividiere evtl. die obere Zeile durch deren führende Ziffer, so daß oben links“ eine führende
”
”
Eins“ entsteht:




1
1 3 −2 1/2
2 6 −4
1
(c)
 0 2
3 ,
1
3  −→  0 2
1
z1 → z1 .
2
4 8 −10 −3
4 8 −10 −3
Dieser Schritt ist nicht notwendig, er erleichtert manchmal die Rechnung und kann zur Übersichtlichkeit beitragen. Er ist unzweckmäßig, wenn dadurch komplizierte Bruchzahlen entstehen, oder wenn
RWTH Aachen
Mathematik I+II
Schulstoff
12
durch Parameterabhängigkeiten Fallunterscheidungen auftreten.
(iii) Addiere geeignete Vielfache der ersten Zeile zu tieferen Zeilen, so daß in der führenden Spalte
unter der ersten Zeile überall Null entsteht:




1 3 −2 1/2
1
3
−2 1/2
(b)
 0 2
1
3  −−→  0
2
1
3 
4 8 −10 −3
0 −4 −2 −5
(in z2 nicht nötig, z3 → z03 = z3 − 4z1 ).
(iv) Wiederhole das Verfahren in der kleineren Matrix (ohne die obere Zeile, die erste Spalte ändert
sich dann automatisch auch nicht mehr) u.s.w., hier z.B. z3 → z3 + 2 z2 , z2 → (1/2) z2 ,


1 3 −2 1/2
(b), (c)
−−−−→  0 1 1/2 3/2  .
0 0
0
1
Alleine durch elementare Zeilenoperationen haben wir die Matrix in Gauß-Gestalt (G.2) überführt.
Im Schritt (c) ist es wesentlich, daß c 6= 0 !! Ein weiteres Beispiel, in dem ein reeller Parameter
β ∈ R auftritt:






1
5
−3
1
5
−3
1
5
−3
(b)
(b)
 2
12
8  −−−−−−−→  0
2
14  −−−−−−−→  0
2
14 
z2 →z2 −2 z1
z3 →z3 +3 z1
−3 −16
β
−3 −16
β
0 −1 β − 9

1
(c)

0
−−−−−−−→
z2 →(1/2) z2
0
5
1
−1


−3
1
(b)


7
0
−−−−−−→
z3 →z3 +z2
β−9
0
5
1
0

−3
7 
β−2
Das Ergebnis ist von Gauß-Gestalt (und zusätzlich ist das erste nicht verschwindende Matrixelement
in den ersten beiden Zeilen, in denen es für alle β möglich ist, die Eins, das ist nicht notwendig aber
oft zweckmäßig). Nun ist es jeweils einfach, das Gleichungssystem zu lösen oder die Unlösbarkeit
festzustellen. Wenn die Matrix im letzten Beispiel die erweiterte Koeffizientenmatrix eines Systems
von drei Gleichungen für zwei Unbekannte ist, dann ist das System unlösbar für β 6= 2, für β = 2
hat es die eindeutige Lösung x2 = 7, x1 = −38.
Parameterabhängige Gleichungssysteme treten oft in Anwendungen auf. Beispielsweise kann es
von der zulässigen Krümmung als Parameter abhängen, ob eine Eisenbahnstrecke ohne Tunnel durch
ein Gelände geführt werden kann.
Beachten Sie, daß der hier durch einen Pfeil bezeichnete Übergang von einer Matrix zu einer einfacheren keine Gleichheit zwischen Matrizen ist, schreiben Sie deshalb auch kein Gleichheitszeichen!
Dringender Rat: Zur Probe die gefundene Lösung in die ursprünglichen Gleichungen einsetzen, um
mögliche Rechenfehler aufzuspüren.
Meist heißt der bisher angegebene Algorithmus nur nach Gauß. Werden die Einträge oberhalb der
führenden Eins’en auch zu Null gemacht, so spricht man dann oft vom Gauß-Jordan Verfahren, siehe
3.7. Die Bezeichnungsweise ist nicht einheitlich.
H
Aussagen, Gleichheit, Äquivalenz
Eine Gleichheit kann zwischen Zahlen gelten oder zwischen Funktionen, Mengen, ..., z.B. für das
Intervall, eine Menge von Zahlen: (3, 5) = {x ∈ R | 3 < x < 5}; oder f (x) = 5 [ der Funktionswert f (x), eine Zahl, ist 5 ] u.s.w. Eine Gleichheit ist eine Aussage. Andere Aussagen können
z.B. Ungleichungen sein wie |x − 3| ≤ 2 oder die Aussage, daß ein Element zu einer Menge gehört:
x ∈ [1, 5].
RWTH Aachen
Mathematik I+II
Schulstoff
13
Zwei Aussagen, die dasselbe bedeuten, sind äquivalent, im Zeichen ⇐⇒, verwenden Sie nie das
Gleichheitszeichen zwischen Aussagen! Als Beispiel für zwei äquivalente Aussagen:
|x − 3| < 2
⇐⇒
x ∈ (1, 5).
[ Es ist auch ein Fehler, ein Äquivalenzzeichen zwischen Zahlen, Funktionen oder Mengen zu gebrauchen! ] Oft folgt nur eine Aussage aus einer anderen, die Umkehrung braucht nicht richtig zu sein,
z.B.:
0<x<1
=⇒
|x| < 5.
Aus der linken Aussage (nämlich x > 0 und x < 1 ) folgt die rechte Aussage. Beachten Sie,
daß auch jede der eingerückten Zeilen insgesamt wieder eine wahre Aussage ist, hier jeweils eine
kompliziertere zusammengesetzte Aussage.
Unterscheiden Sie sorgfältig Gleichheitszeichen und Äquivalenz in Ihren Notizen und in Lösungen von Klausuraufgaben, diese Denkdisziplin hilft, Fehler zu vermeiden.
I
Vollständige Induktion
Oft möchte man sicherstellen, daß alle unendlich vielen Mitglieder einer Familie von Aussagen A(n),
die durch n ∈ N abgezählt“ werden, richtig sind. In dieser Vorlesung sind solche Aussagen meist
”
Gleichungen oder Ungleichungen. Dazu dient das Beweisverfahren der vollständigen Induktion:
Seien A(n), n ∈ N oder N0 Aussagen und es gelte
(i) Induktionsanfang: A(n0 ) ist richtig für ein n0 ∈ N0 ,
(ii) Induktionsschluß: Aus der Induktionsannahme, der Aussage A(n), folgt die
Induktionsbehauptung, die nachfolgende Aussage A(n + 1), für jedes n ≥ n0 ,
kurz:
A(n) impliziert A(n + 1)“ ,
”
dann ist die Aussage A(n) für alle n ≥ n0 richtig.
J
Unsere Konventionen
In der Mathematik ist die Bedeutung der meisten Begriffe und Symbole eindeutig festgelegt, leider
gibt es aber Ausnahmen, wie es bei einem Gebiet, das sich über Jahrtausende weiterentwickelt hat,
nicht verwunderlich ist. Wir benutzen meist die vorherrschenden Konventionen und wir weisen in
diesem Skriptum oft auf andere Konventionen hin, wenn diese ebenfalls gebräuchlich sind. Wir stellen
hier einige unserer Konventionen zum schnellen Nachschlagen zusammen.
• Teilmengen: Wir schreiben A ⊆ B wenn auch die Gleichheit von A und B zugelassen ist,
A ⊂ B oder zur Betonung A ( b , wenn A eine echte Teilmenge von B ist. Viele Autoren
lassen bei “A ⊂ B” auch Gleichheit zu (und der Autor wird es aus alter Gewohnheit in der
Vorlesung auch öfters tun).
• Zahlen und Vektoren: Wir bezeichnen Zahlen meist mit gewöhnlichen Buchstaben (wie a, x)
und Vektoren x ∈ Rn mit Fettdruck (handschriftlich meist ~x ). Der Fall eines n = 1dimensionalen Vektors, einer Zahl, ist bei Aussagen über Vektoren als Spezialfall immer zugelassen, wenn es nicht ausdrücklich anders gesagt wird. (Manche Aussagen und Begriffe wie
z.B. Winkel zwischen Vektoren sind allerdings nur für n ≥ 2 interessant.)
• Funktionen und Abbildungen: Wie heutzutage in der Mathematik üblich benutzen wir “Funktion” und “Abbildung” völlig gleichbedeutend, jedem Element x des Definitionsbereichs D
(oder Df ) wird durch die Funktion oder Abbildung f genau ein Element des Bildbereiches
Y zugeordnet, geschrieben: f : D → Y, x 7→ f (x), siehe 5.2. Manche Autoren machen
Unterschiede und gebrauchen “Abbildung” etwa im höherdimensionalen Fall.
RWTH Aachen
Mathematik I+II
Schulstoff
14
• Wurzeln: Zur Abkürzung benutzen wir für beliebige reelle Argumente z.B.

1/3

für a > 0
a
√
3
a := 0
für a = 0


1/3
−(−a)
für a < 0
und entsprechend für
√
k
a bei k ungerade, siehe D.
• Stammfunktion, unbestimmtes Integral: Jede (stetig) differenzierbare Funktion F , die in
einem interessierenden Bereich F 0 = f erfüllt, ist dort eine Stammfunktion von f . Dann ist
dort auch F + c für jede Konstante c ∈ R eine Stammfunktion. Als unbestimmtes
Integral beR
zeichnen wir die Menge aller Stammfunktionen, oft geschrieben als f (x) dx. Bevor wir die
Integrationstheorie im zweiten Teil systematisch behandeln, werden wir durch Differentiation
in Kapitel 6 und 7 schon viele Stammfunktionen kennenlernen.
RWTH Aachen
Mathematik I+II
1
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
15
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
Wir verweisen für den Gaußschen Algorithmus zur Lösung linearer Gleichungssysteme, ein Eliminationsverfahren, das schon aus der Schule im wesentlichen bekannt sein sollte, auf Abschnitt G (Schulstoff). Wir stellen es dort zur Erinnerung und zum Nachschlagen bereit, da solche Gleichungssysteme
schon bald auftreten. Eine systematische Untersuchung der Lösungsstruktur dieser Gleichungen folgt
erst in Kapitel 3, wenn weitere dafür nützliche Hilfsmittel verfügbar sind.
Die Hauptthemen dieses Kapitels betreffen die Vektorrechnung im n-dimensionalen linearen
Raum Rn . Wir wenden sie an, um insbesondere die geometrischen Eigenschaften der Geraden, Ebenen und Hyperebenen in Räumen beliebiger Dimension zu untersuchen, um also die Fragestellungen
der analytischen Geometrie linearer und affiner Teilräume zu lösen.
1.1
Der Vektorraum Rn
Den R1 ≡ R kann man als die bekannte Zahlengerade, den R2 als Ebene (als Vektorraum dasselbe wie die komplexe Gaußsche Zahlenebene C) und den R3 als den uns umgebenden Raum
veranschaulichen. Die systematische Beschreibung geometrischer Objekte mit Hilfe von Zahlen, mit
denen man rechnen kann, geht auf Descartes zurück, nach dem das rechtwinklige kartesische Koordinatensystem benannt ist. Neben diesen geometrischen Anwendungen können die Komponenten
von Vektoren im Rn ganz andere Bedeutungen haben, z.B. Strömungsgeschwindigkeiten an vielen
verschiedenen Punkten in einer Flüssigkeit oder Preise von Waren in einem Laden. Bei der approximativen numerischen Berechnung von Strömungen oder von Verformungen in Festkörpern treten
z.B. lineare Gleichungssysteme in sehr vielen Variablen auf, Dimensionen n in den Millionen sind
dabei keine Seltenheit. Daher betrachten wir allgemeine Dimensionen n, auch wenn in Beispielen
zur Vereinfachung der Schreibweise oft n = 2 oder 3 benutzt wird. Die Begriffe Vektorraum und
linearer Raum bedeuten dasselbe. Es gibt auch andere lineare Räume, z.B. den Vektorraum der Polynome oder den Vektorraum der Matrizen einer gegebenen Größe, in dieser Vorlesung beschäftigen
wir uns hauptsächlich mit dem Rn .
Die Elemente des Rn sind geordnete n -Tupel reeller Zahlen, meist als Spalten geschrieben:
 
x1
 x2 

x=
 ...  ≡ x ≡ x ≡ x ≡ ~x, xj ∈ R für j = 1, 2, . . . , n.
xn
Die Elemente des Rn heißen Vektoren, sie werden außer mit Fettdruck auch mit gewöhnlichen,
Fraktur- oder unterstrichenen Buchstaben bezeichnet oder häufig mit einem Pfeil markiert (insbesondere handschriftlich in Vorlesungen und Übungen). Warum die Spaltenschreibweise zweckmäßig
ist, wird in Kapitel 2, insbesondere in 2.6, deutlich. Um Platz zu sparen, werden wir trotzdem gelegentlich die Zeilenschreibweise benutzen,
x = (x1 , x2 , x3 , . . . , xn ),
korrekt wäre x = (x1 , x2 , x3 , . . . , xn )tr , ein Spezialfall der in 2.3 eingeführten transponierten
Matrix. Wenn keine Verwechslungsgefahr besteht, benutzen wir zur Vereinfachung und Platzersparnis
aber auch die Zeilenschreibweise ohne tr .
Ganz analog kann man den komplexen Vektorraum Cn von geordneten n -Tupeln komplexer
Zahlen untersuchen, in diesem Kurs spielt er aber nur gelegentlich eine Rolle (z.B. bei Differentialgleichungen für Schwingungen).
1.2
Rechnen im Rn
Zwei Vektoren im Rn sind gleich, wenn sie in allen Komponenten übereinstimmen:
x = y ⇔ x1 = y1 , x2 = y2 , . . . und xn = yn , Gleichheit gilt komponentenweise. Die Summe
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
16
zweier Vektoren im Rn ist durch komponentenweise Addition definiert, z.B. im R3
à !
à !
Ã
!
x1
y1
x1 + y1
x = x2 , y = y2 , x + y = x2 + y2 ,
x3
y3
x3 + y3
beide Vektoren müssen dieselbe Dimension n haben, sonst ist deren Summe nicht definiert! Außerdem ist eine Multiplikation von Vektoren mit reellen Zahlen (die in diesem Zusammenhang oft
Skalare genannt werden) definiert, ebenfalls komponentenweise:
!
Ã
λ x1
λ x = λ x2 , λ ∈ R (gelegentlich auch x λ geschrieben).
λ x3
x2
b + x2
0
b
x
Punkt x
x’
Vektor x
x + x’
x1 a + x1
a
x’
x
Vektor x
Abbildung 1.1: Punkt und Vektoren
Abbildung 1.2: Vektoraddition
Im R2 und R3 können die Vektoren als Punkte in der Ebene oder im Raum veranschaulicht werden
(die Komponenten xi sind dann die Koordinaten des Punktes im rechtwinkligen Koordinatensystem)
oder als Pfeile ≡ Vektoren ≡ gerichtete Strecken z.B. vom Ursprung zum Punkt mit Koordinaten
xi oder auch parallel dazu verschoben: die Koordinaten des Anfangs- und Endpunktes unterscheiden
sich jeweils um xi , siehe Abbildung 1.1. Vektoraddition kann man durch Aneinandersetzen“ ver”
anschaulichen (Abb. 1.2). Multiplikation mit λ > 1 (0 < λ < 1) bedeutet Streckung (Stauchung),
ein negatives λ bewirkt zugleich eine Richtungsumkehr. Man schreibt −x für (−1)x, 2x − 3y für
2x + (−3)y u.s.w. Der Vektor y − x ist auch der Vektor vom Punkt x zum Punkt y (oder parallel
dazu verschoben).
Der Nullvektor 0 = (0, 0, . . . , 0) ∈ Rn ist von der Zahl 0 zu unterscheiden (auch wenn die
Schreibweise 0 manchmal auch für den Vektor gebraucht wird!!). Es gilt offensichtlich x + 0 =
0 + x = x, x − x = x + (−x) = 0, 0 x = 0 für alle x ∈ Rn . In Rn gelten Regeln der Addition wie
das Kommutativgesetz x+y = y+x und das Assoziativgesetz (x+y)+z = x+(y+z), auf die wir
als Eigenschaften (A1)–(A4) im Abschnitt über Körperaxiome später zurückkommen werden. Mit
dem Assoziativgesetz ist die Summe endlich vieler Vektoren auf natürliche Weise eindeutig definiert.
Man überprüft leicht die folgenden Rechenregeln für λ, µ ∈ R und x, y ∈ Rn komponentenweise durch Rückführung auf die entsprechenden Regeln für das Rechnen mit reellen Zahlen:
(λ + µ) x = λ x + µ x
(Distributivgesetz),
λ(x + y) = λ x + λ y
(Distributivgesetz),
λ(µ x) = (λ µ) x
(Assoziativgesetz).
Für endlich viele Vektoren a1 , a2 , . . . , ak ∈ Rn heißt λ1 a1 + λ2 a2 + . . . + λk ak eine Linearkombination der Vektoren a1 , . . . , ak , wobei die Koeffizienten λj ∈ R beliebig sind.
RWTH Aachen
Mathematik I+II
1
1.3
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
17
Lineare Abhängigkeit und Unabhängigkeit
Zwei Vektoren a, b ∈ Rn heißen linear abhängig, wenn es eine (und dann unendlich viele) nichttriviale Lösungen der Gleichung λ a + µ b = 0, (λ, µ) 6= (0, 0) gibt. Zwei nicht verschwindende
Vektoren sind dann parallel oder antiparallel, a = (1, 1), b = (−2, −2) sind antiparallel, sie
erfüllen z.B. 2a + b = 0 = 4a + 2b = . . . . Für alle a sind a und 0 linear abhängig (warum?).
Falls umgekehrt für gegebene Vektoren a und b die Gleichung λ a + µ b = 0 nur die triviale“
”
Lösung λ = 0 = µ hat, so heißen a und b linear unabhängig. So sind z.B.
e1 = (1, 0, . . . , 0) und e2 = (0, 1, 0, . . . , 0) linear unabhängig, denn
λ e1 + µ e2 = (λ, µ, 0, . . . , 0) = (0, 0, 0, . . . , 0) hat einzig die Lösung λ = 0 = µ. Zwei linear
unabhängige Vektoren sind nicht (anti)parallel, sie spannen eine Ebene auf, siehe 1.15a.
Allgemein heißen k Vektoren a1 , a2 , . . . , ak ∈ Rn linear unabhängig, wenn die Gleichung
λ1 a1 + λ2 a2 + . . . + λk ak = 0 nur von λ1 = λ2 = . . . = λk = 0 gelöst wird. Dann kann keiner
der Vektoren aj als Linearkombination der übrigen ausgedrückt werden. Wenn es auch eine andere
(nichttriviale) Lösung gibt (mindestens ein λj 6= 0), so heißen sie linear abhängig. Komponentenweise ausgeschrieben ist λ1 a1 + λ2 a2 + . . . + λk ak = 0 ein homogenes lineares Gleichungssystem
in den k Unbekannten λ1 , . . . , λk , das z.B. mit dem Gaußschen Algorithmus (G.3) vollständig
gelöst werden kann.
Geometrisch bedeutet es für drei Vektoren im R3 , daß sie linear abhängig sind, wenn ihre Richtungen in einer Ebene (oder sogar auf einer Geraden) liegen. Die drei Vektoren a1 = (1, 1, 1),
a2 = (1, −1, 1), a3 = (1, 0, 1) sind linear abhängig, denn die Gleichung λ1 a1 + λ2 a2 + λ3 a3 =
(λ1 + λ2 + λ3 , λ1 − λ2 , λ1 + λ2 + λ3 ) = (0, 0, 0) wird auch gelöst von λ1 = λ2 = µ, λ3 =
−2µ, µ ∈ R beliebig. (Die drei Vektoren aj liegen in der Ebene mit x1 = x3 .) a1 , a2 und
b = (1, 0, 0) sind hingegen linear unabhängig (warum?).
In beliebiger Dimension n ist das folgende wichtige System von n Vektoren, die Standardba”
sis“, offenbar linear unabhängig: e1 , e2 , (wie oben) . . . , en = (0, 0, . . . , 0, 1).
Wie die Beispiele zeigen, gibt es im Rn Systeme von n linear unabhängigen Vektoren. Man
kann jedoch zeigen, daß m Vektoren im Rn für m > n immer linear abhängig sind. Die Dimension
eines Vektorraumes ist allgemein die Höchstzahl linear unabhängiger Vektoren. Im Spezialfall des
Vektorraums Rn ist die Dimension gerade die Anzahl n der Komponenten. Ein System von n
linear unabhängigen Vektoren in Rn heißt eine Basis, siehe 1.4 und 1.11.
1.4
Basis
Eine Menge von n linear unabhängigen (1.3) Vektoren B = {b1 , b2 , . . . , bn | bj ∈ Rn } heißt
eine Basis (Anzahl der Vektoren = Dimension n). Eine besonders wichtige Eigenschaft einer Basis
ist, daß ein beliebiger Vektor x ∈ Rn eindeutig als Linearkombination (siehe 1.2) von Basisvektoren
ausgedrückt werden kann: Es gibt eindeutige Koeffizienten λ1 , λ2 , . . . , λn ∈ R, so daß x = λ1 b1 +
λ2 b2 + . . . + λn bn . Zur Eindeutigkeit der λi : Wenn auch x = µ1 b1 + . . . + µn bn , so folgt
0 = x − x = (λ1 − µ1 ) b1 + . . . + (λn − µn ) bn . Aus der linearen Unabhängigkeit der bj folgt
λ1 = µ1 , λ2 = µ2 , . . . , λn = µn . Man schreibt das dann auch in der folgenden Notation:


λ1
xB =  ...  falls B = {b1 , . . . , bn }, x = λ1 b1 + . . . + λn bn
λn
für die Spalte der Koeffizienten eines Vektors x bezüglich der Basis B. Für besonders zweckmäßige
Basen, die Orthonormalbasen, siehe Abschnitt 1.11. Dazu gehört die im vorigen Abschnitt angegebene Standardbasis e1 , . . . , en .
Bei einer allgemeinen Basis b1 , . . . , bn ∈ Rn bestimmt man die eindeutigen Koeffizienten λj ,
mit denen x = λ1 a1 + . . . + λn an gilt, durch Lösen des linearen Gleichungssystems für die λj . Daß
dieses Gleichungssystem immer genau eine Lösung hat, sehen wir z.B. in Abschnitt 3.2b.
RWTH Aachen
Mathematik I+II
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1
18
Später (2.11c) lernen wir noch ein weiteres Hilfsmittel kennen, um zu entscheiden, ob n gegebene
Vektoren a1 , . . . , an ∈ Rn eine Basis bilden: Wir ordnen die n Vektoren (in beliebiger Reihenfolge) als Spaltenvektoren einer quadratischen n × n-Matrix A an und berechnen die Determinante
det(A) (2.10). Das System von n Vektoren a1 , . . . , an bildet genau dann eine Basis des Rn , wenn
det(A) 6= 0. (Mit Zeilenvektoren gilt dasselbe.)
1.5
Das Skalarprodukt im Rn
In der Vektorrechnung bezeichnet man die reellen (oder auch komplexen) Zahlen oft als Skalare, denn
die Multiplikation mit einer positiven Zahl ändert zwar die Längen, die Skala (z.B. der Übergang
zwischen Metern und Kilometern), Richtungen können aber dadurch nicht gedreht werden. Oben
haben wir ein Produkt Zahl · Vektor = Vektor kennengelernt. Hier folgt ein Produkt Vektor · Vektor
= Zahl, das Ergebnis des Produktes ist ein Skalar, eine Zahl. Daher kommt der Name Skalarprodukt.
Ein Vektorprodukt“ der Form Vektor × Vektor = Vektor ist nur im Spezialfall n = 3 (in gewissem
”
Sinne auch für n = 2) möglich, siehe Abschnitt 1.10.
1.5a
Definition des Skalarproduktes
Seien x, y ∈ Rn , ihr Skalarprodukt oder inneres Produkt x · y (anstelle der Schreibweise mit Punkt
auch mit (x, y) oder hx, yi bezeichnet) ist die Zahl (Skalar)
x · y :=
n
X
xj yj ∈ R ;
j=1
z.B. x = (2, 3, 4), y = (1, −5, 6),
1.5b
x · y = 2 · 1 + 3 · (−5) + 4 · 6 = 11.
Eigenschaften des Skalarproduktes:
x · y = y · x,
(λ x) · y = x · (λ y) = λ (x · y),
x · x = 0 ⇐⇒ x = 0,
x · (y + z) = x · y + x · z,
Kurzschreibweise: x2 := x · x =
n
X
x2j ≥ 0.
j=1
Beispielsweise zeigt man das Distributivgesetz, die dritte Gleichung in der oberen Zeile, durch Rückführung auf das Distributivgesetz für reelle Zahlen in jedem Summanden (zweites Gleichheitszeichen):
x · (y + z) =
n
X
n
n
n
X
X
X
xj (yj + zj ) =
(xj yj + xj zj ) =
xj yj +
xj zj = x · y + x · z.
j=1
1.6
j=1
j=1
j=1
Betrag (Länge) eines Vektors
Für x ∈ Rn definieren wir den Betrag |x| gemäß:
√
|x| := x · x =
µX
n
x2j
¶1/2
≥ 0.
j=1
Für n = 2, 3 ist dies der Euklidische Abstand des Punktes x vom Ursprung, also die Länge des Vektors x. Der Betrag von x wird in beliebiger Dimension auch als Länge oder Norm von x bezeichnet,
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
19
als Notation ist auch kxk gebräuchlich. Offenbar gilt
|λ x| = |λ| |x|,
|x| = 0 ⇐⇒ x = 0,
denn z.B.
|(λ x1 , λ x2 )| = [ (λ x1 )2 + (λ x2 )2 ]1/2 = [λ2 ]1/2 [ x21 + x22 ]1/2 = |λ| |x|.
|x2 | = x2 = x · x = |x|2
(weil x2 ≥ 0), z.B.
|(−2, 6, −4)| = [ 4 + 36 + 16 ]1/2 =
√
√
56 = 2 14
√
= |(−2)(1, −3, 2)| = | − 2| [ 1 + 9 + 4 ]1/2 = 2 14 .
Geometrisch ist |y − x| = |x − y| die Länge des Vektors von x nach y bzw. umgekehrt, also
der Abstand der Punkte x und y. Zum Vektor x 6= 0 hat der normierte Vektor oder Einheitsvektor
x/|x| dieselbe Richtung wie x und die Länge 1.
1.7
Ungleichung von (Cauchy-)Schwarz
Diese grundlegende Ungleichung, die nach Schwarz oder Cauchy und Schwarz benannt wird, vergleicht das Skalarprodukt mit den Längen der beteiligten Vektoren:
|x · y| ≤ |x| · |y|
⇐⇒
± x · y ≤ |x| · |y| für beide Vorzeichen.
Gleichheit gilt, falls x = λ y oder y = µ x, d.h. wenn x und y parallel oder antiparallel sind oder
wenn mindestens einer der Vektoren 0 ist, also wenn x und y linear abhängig (1.3) sind. Für linear
unabhängige Vektoren gilt die strikte Ungleichung |x · y| < |x| · |y|.
Beweis: Falls x = 0 oder y = 0 (oder beide) gilt Gleichheit, also erst recht die Ungleichung. Der
verbleibende Fall |x| · |y| > 0 folgt mit einem geschickten Ansatz:
¯
¯2
¯
¯
0 ≤ ¯ |y| x ± |x| y ¯ = (|y| x ± |x| y) · (|y| x ± |x| y)
= |y|2 (x · x) ± 2 |x| |y| (x · y) + |x|2 (y · y) = 2 |x|2 |y|2 ± 2 |x| |y| (x · y)
= {2 |x| |y|} {|x| |y| ± x · y},
|x| |y| ± x · y ≥ 0
=⇒
also, da {2 |x| |y|} > 0,
∓ x · y ≤ |x| |y|
=⇒
|x · y| ≤ |x| |y|.
2
Wenn x und y linear unabhängig sind, dann ist |y| x ± |x| y 6= 0, deshalb gilt dann die strikte
Ungleichung.
Tip: Um Wurzeln zu vermeiden rechnet man oft besser mit Quadraten der Beträge.
1.8
Winkel zwischen Vektoren, Orthogonalität
1.8a
Der Winkel
Für zwei nicht verschwindende Vektoren x, y, |x| |y| > 0 folgt aus der Cauchy-Schwarzschen
Ungleichung
−1 ≤
x·y
x y
=
·
≤ 1.
|x| |y|
|x| |y|
Daher gibt es genau einen Winkel ϑ ∈ [0, π], so daß
µ
¶
µ
¶
x·y
x y
x · y = |x| |y| cos ϑ ⇐⇒ ϑ = arccos
= arccos
·
.
|x| |y|
|x| |y|
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
20
Wir nennen ϑ = ^(x, y) = ^(y, x) den Winkel zwischen x und y. Damit haben wir die übliche
Beschreibung von Winkeln zwischen Vektoren in der Ebene mit einem kartesischen Koordinatensystem auf Vektoren im Rn verallgemeinert. Zur Erinnerung der Graph des Hauptwertes des Arcuskosinus in Abbildung 1.3 oder siehe 7.3a.
π
1
arccos
cos
1
1
π
–1
–1
0
1
Abbildung 1.3: Kosinus und Hauptwert des Arcuskosinus
√
Beispiel: x = (1, 0), y = (1, −1), |x| = 1, |y| = 2
√
√
cos ϑ = (x · y)/(|x| |y|) = x · y/ 2 = 1/ 2 = cos(π/4), ϑ = π/4.
Der Einheitsvektor x/|x| hat dieselbe Richtung wie x und ist unabhängig von der Länge von x,
λx/|λx| = x/|x| für λ > 0. Offenbar gilt damit ^(x, y) = ^(λx, y) für alle λ > 0 und
^(−x, y) = π − ^(x, y), weil cos(π − ϑ) = − cos ϑ.
1.8b
Orthogonalität, Satz des Pythagoras
Zwei Vektoren heißen orthogonal (oder rechtwinklig), wenn x · y = |x| |y| cos ϑ = 0, also wenn
bei nicht verschwindenden Vektoren der eingeschlossene Winkel zwischen ihnen π/2 (90◦ ) beträgt,
oder wenn mindestens einer der Vektoren der Nullvektor ist. Ein rechtwinkliges Dreieck mit den
orthogonalen Katheten-Vektoren x und y hat die Hypothenuse y − x. Es gilt |x − y|2 = |x|2 − 2 x ·
y+|y|2 = |x|2 +|y|2 , der Satz des Pythagoras. Die hier im Rn eingeführten Begriffe verallgemeinern
die aus der ebenen und räumlichen Geometrie geläufigen. Die Vektoren x = (1, 5, 2, 1) und y =
(2, −1, 3, −3) im R4 sind orthogonal, denn x · y = 2 − 5 + 6 − 3 = 0.
1.9
Die Dreiecksungleichung
Die Dreiecksungleichung, die für reelle (und komplexe) Zahlen bekannt ist, gilt genauso für reelle
(oder komplexe) Vektoren:
|x + y| ≤ |x| + |y|.
Beweis: Wir benutzen die Cauchy-Schwarzsche Ungleichung in
|x + y|2 = (x + y)·(x + y) = |x|2 + 2 x · y + |y|2
≤ |x|2 + 2 |x| |y| + |y|2 = (|x| + |y|)2 .
Wurzelziehen ergibt die Behauptung.
2
Zur Interpretation: Umwege sind länger“, siehe z.B. Abbildung 1.2.
”
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.10
21
Das Vektorprodukt im R3
Das Vektorprodukt ist eine Spezialität des dreidimensionalen Raumes von der Art
Vektor × Vektor = Vektor ∈ R3 . (Andere Schreibweise mit ∧ anstelle von × .)
Ã
!
x2 y3 − x3 y2
x × y ≡ x ∧ y := x3 y1 − x1 y3
für x, y ∈ R3 .
x1 y2 − x2 y1
Einige Eigenschaften des Vektorproduktes (siehe auch Formelsammlung):
(i) x × y = −y × x,
(nicht kommutativ, Reihenfolge ist wichtig !!)
(ii) x × (y + z) = x × y + x × z, (distributiv)
(iii) (λ x) × y = λ (x × y) = x × (λ y),
(iv) x × y
steht senkrecht auf x und auf y: x · (x × y) = y · (x × y) = 0,
(v) (x × y) × z = (x · z) y − (y · z) x,
(vi) |x × y| = |x| |y| sin ϑ,
|x ×
y|2
=
|x|2
|y|2
(nicht assoziativ, Klammerung ist wichtig !!)
ϑ = ^(x, y) ∈ [0, π] , denn
− (x · y)2 = |x|2 |y|2 (1 − cos2 ϑ).
|x × y| ist damit der Flächeninhalt des von den Vektoren x und y aufgespannten Parallelogramms.
Beweise durch direktes Nachrechnen, z.B. für (iv):
x · (x × y) = x1 (x2 y3 − x3 y2 ) + x2 (x3 y1 − x1 y3 ) + x3 (x1 y2 − x2 y1 ) = 0
und für (vi):
(x × y) · (x × y) = (x2 y3 − x3 y2 )2 + (x3 y1 − x1 y3 )2 + (x1 y2 − x2 y1 )2
= . . . = (x21 + x22 + x23 )(y12 + y22 + y32 ) − (x1 y1 + x2 y2 + x3 y3 )2 .
Die Komponenten des Vektorproduktes erhält man auch, indem man die Spaltenvektoren x und
y mit einem der Standardbasisvektoren ej zu einer quadratischen 3 × 3-Matrix (x y ej ) kombiniert
und davon die aus der Schule bekannte (und in Abschnitt 2.10 genauer behandelte) Determinante
berechnet:
(x × y)j = det(x y ej ) = det(ej x y).
Wenn x und y linear unabhängig sind, bestimmen sie eine Ebene, auf der nach (iv) das Vektorprodukt senkrecht steht. Die Länge des Produktvektors ergibt sich aus (vi) als Fläche des aufgespannten Parallelogramms, die Orientierung aus der Rechte-Hand-Regel: Zeigt der Daumen in die Richtung
des ersten Faktors x, der Zeigefinger in die von y, dann zeigt x×y in die Richtung des Mittelfingers
der rechten Hand, wie im Beispiel: e1 = (1, 0, 0), e2 = (0, 1, 0), e1 × e2 = (0, 0, 1) = e3 .
Außer für Flächenberechnungen ist das Vektorprodukt insbesondere nützlich zur Bestimmung
eines zu einer Ebene senkrechten Vektors (Lot auf Ebene), zur Beschreibung von Drehungen und
zum Lösen vektorieller Gleichungen. In der Physik und Mechanik wird das Drehmoment D um
den Ursprung, das von einer am Ort r angreifenden Kraft K verursacht wird, durch D = r × K
beschrieben.
Bei rein zweidimensionalen Problemen mit x = (x1 , x2 ) u.s.w. spielt in Anwendungen gelegentlich die Zahl x1 y2 − x2 y1 eine Rolle, die von den Vektoren x und y aufgespannte Parallelogrammfläche mit Vorzeichen. Dies ist gerade die einzige nicht verschwindende Komponente des
Vektorproduktes (x1 , x2 , 0) × (y1 , y2 , 0) = (0, 0, x1 y2 − x2 y1 ). In diesem Sinne wird deshalb
mitunter auch das Vektorprodukt im zweidimensionalen Raum (als Zahl) gebraucht, die eigentlich
nötige dritte Dimension wird nur dazugedacht“.
”
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.10a
22
Gleichungen zwischen Vektoren im R3
Zu gegebenen Vektoren a, b, . . . ∈ R3 und Skalaren λ, µ . . . begegnet man mitunter linearen Gleichungen für den unbekannten Vektor x ∈ R3 von der Art
(a × x) − λ x = b, oder . . .
Komponentenweises Aufschreiben führt auf ein lineares Gleichungssystem, das mit dem Gaußschen
Algorithmus oder mit den Methoden aus Kapitel 3 behandelt werden kann. Oft führt es schneller zum
Ziel, die Gleichungen durch skalare oder vektorielle Multiplikation mit geeigneten Faktoren a, b, . . .
zu vereinfachen, z.B. dadurch, daß
([. . .] × a) · a = 0
für jeden Vektor a.
So wird die Zahl möglicher Kandidaten für Lösungen rasch verringert. Es ist wichtig, die Kandidaten zur Probe auch wieder in die ursprünglichen Gleichungen einzusetzen, da mit diesem Vorgehen
vielleicht noch nicht alle Einschränkungen berücksichtigt wurden.
Folgende Fälle sind möglich: es gibt (i) eine eindeutige Lösung oder (ii) unendlich viele Lösungen
(mit 1, 2, ... freien Parametern) oder (iii) die Gleichung ist unlösbar.
1.11
Orthonormalbasis
Wir kehren zurück zum Rn beliebiger Dimension n. In Abschnitt 1.4 wurde ein System von n linear
unabhängigen Vektoren im Rn als Basis eingeführt. Für Rechnungen sind spezielle Basen besonders
zweckmäßig. Eine Orthonormalbasis (ONB) besteht aus n Vektoren f1 , . . . , fn deren Länge auf Eins
normiert ist und die paarweise zueinander orthogonal sind: kf1 k = 1 = . . . = kfn k, fi · fj = 0 für
i 6= j. Orthonormale Vektoren sind immer linear unabhängig.
Die Standardbasis oder kanonische Basis im Rn besteht aus den Vektoren (um Platz zu sparen
als Zeilenvektoren geschrieben)
e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). Sie ist eine Orthonormalbasis (ONB), wie man sofort sieht. Die übliche Komponentenschreibweise für einen Vektor im Rn
enthält gerade
die Koeffizienten bezüglich
dieser Basis.
√
√
√
√
f1 = (1/ 2, 1/2, 1/2), f2 = (−1/ 2, 1/2, 1/2), f3 = (0, 1/ 2, −1/ 2) ist auch eine ONB im
R3 , wie man leicht nachprüft.
Im dreidimensionalen Raum werden zwei linear unabhängige (bzw. orthonormale) Vektoren a1 , a2 ∈
3
R durch a3 = a1 × a2 zu einer Basis (bzw. ONB) ergänzt.
Für eine ONB f1 , f2 , . . . , fn ∈ Rn lassen sich die Entwicklungskoeffizienten eines Vektors x
besonders leicht berechnen: mit λj = x · fj erhält man x = λ1 f1 + . . . + λn fn (wie durch skalare
Multiplikation der Vektorgleichung
bezüglich einer
P mit fj bestätigt wird). Mit den Koeffizienten
P
beliebigen ONB gilt x · x0 = nj=1 λj λ0j und insbesondere |x|2 = nj=1 λ2j . Wegen aller dieser
guten Eigenschaften benutzt man, wenn möglich, bevorzugt Orthonormalbasen.
1.12
Lineare Unterräume und affine Teilräume des Rn
Eine Teilmenge U ⊆ Rn heißt (linearer) Unterraum oder Teilraum oder Untervektorraum, wenn
lineare Operationen nicht aus U herausführen, d.h. für beliebige x, y ∈ U, λ ∈ R gilt x + y ∈ U
und λ x ∈ U. Der Ursprung 0 liegt in jedem linearen Unterraum U. Rn und {0} sind lineare
Unterräume des Rn . Wenn es d linear unabhängige Vektoren in U gibt, aber d + 1 Vektoren aus U
immer linear abhängig sind, dann ist d die Dimension von U, die Maximalzahl linear unabhängiger
Vektoren in U. Beispielsweise ist
U = {(x1 , 0, x3 , 0, . . . , 0) ∈ Rn | x1 , x3 ∈ R},
RWTH Aachen
n ≥ 3,
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
23
ein zweidimensionaler Unterraum, eine Ebene durch 0. Die beiden Standard-Basisvektoren e1 =
(1, 0, 0, . . . , 0) und e3 = (0, 0, 1, 0, . . . , 0) ∈ Rn spannen U auf, d.h. ein beliebiges x ∈ U ist
eine Linearkombination von e1 und e3 : x = λ e1 + µ e3 (hier natürlich mit λ = x1 , µ = x3 ).
Seien m Vektoren u1 , u2 , . . . , um ∈ Rn gegeben. Die Menge der Linearkombinationen daraus
)
(m
X
λi ui | λi ∈ R ⊆ Rn
U :=
i=1
ist ein linearer Unterraum, der von u1 , . . . , um aufgespannt wird, die lineare Hülle der ui . Die
Dimension ist höchstens m, sie ist kleiner als m, wenn die ui nicht linear unabhängig sind. Die
Vektoren einer Basis spannen den ganzen Raum auf.
Lineare Unterräume treten als geometrische Objekte auf (z.B. Geraden, Ebenen durch den Ursprung) und sie begegnen uns wieder bei Lösungsmengen homogener linearer Gleichungssysteme
(3.3), bei Eigenvektoren in 4.1 sowie später als Lösungsmengen linearer homogener Differentialgleichungen im Vektorraum von Funktionen.
Die affinen Teilräume sind gegenüber den linearen Unterräumen um einen konstanten Vektor
verschoben“, also von der Form
”
{x = a + u | u ∈ U}, U ein linearer Unterraum, a ∈ Rn .
Ein affiner Teilraum ist sogar ein linearer Teilraum, wenn er den Nullvektor 0 enthält, also wenn
±a ∈ U. Als Dimension eines affinen Unterraumes bezeichnet man die Dimension von U. Wir
untersuchen Beispiele solcher affiner Teilräume, die den Ursprung i.a. nicht zu enthalten brauchen,
zunächst insbesondere Geraden, Ebenen und Hyperebenen, später die Lösungsgesamtheiten linearer
Gleichungssysteme in Abschnitt 3.3 sowie Lösungsmengen inhomogener linearer Differentialgleichungen.
1.13
Geraden im Rn
Eine Gerade ist ein eindimensionaler affiner Teilraum (1.12) des Rn .
1.13a
Parameterdarstellung der Geraden im Rn
Eine Gerade ist durch einen Punkt und eine Richtung bestimmt oder durch zwei verschiedene Punkte,
die auf ihr liegen. Seien a, v ∈ Rn , der Richtungsvektor v 6= 0, gegeben, dann ist
G = {a + t v | t ∈ R}
(t ein Parameter)
die Gerade durch den Punkt a mit der Richtung v. Im Falle zweier Punkte a 6= d wähle als Richtung
z.B. v = d − a 6= 0. Die Darstellung ist nicht eindeutig,
G = {a − v + 3t v | t ∈ R} beschreibt dieselbe Punktmenge G. Sei z.B. a = (1, 2, 1), v =
(3, 1, 5) ∈ R3 ,
¯
)
(Ã
!
¯
1 + 3t
3 ¯
2+ t ∈R ¯t∈R .
G = {a + t v | t ∈ R} =
¯
1 + 5t
Frage: Liegt der Punkt y = (2, 1, 5) auf G ? Dies ist der Fall, wenn es ein t ∈ R gibt mit a + t v =
y, also
Ã
! Ã !
1 + 3t ? 2
2 + t = 1 , d.h. 3t = 1 und t = −1 und 5t = 4.
1 + 5t
5
Ein solches t gibt es nicht, also y 6∈ G.
Frage: Schneidet G die x1 , x3 -Koordinatenebene (d.h. x2 = 0) ? Dazu muß 2+t = 0, also t = −2
gelten. Der Schnittpunkt hat die Koordinaten a − 2 v = (−5, 0, −9).
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.13b
24
Tangente an den Graphen einer Funktion
Für die differenzierbare Funktion f : D → R ist die Punktmenge im R2
½µ
¶
¾
¯
x
2 ¯
∈R ¯x∈D
f (x)
der Graph von f . An einer Stelle x0 ∈ D ist die Gerade
½µ
¶
µ
¶¯
¾
x0
1
¯
G=
+s
s
∈
R
¯
f (x0 )
f 0 (x0 )
die Tangente an den Graphen von f durch den Punkt (x0 , f (x0 ) ) ∈ R2 . Der Richtungsvektor der
Tangenten
µ
¶
1
6= 0 heißt Tangentialvektor.
f 0 (x0 )
Auch der auf Länge 1 normierte Vektor
µ
¶
1
1
p
0
1 + (f 0 (x0 ))2 f (x0 )
ist ein Tangentialvektor, er beschreibt als Richtungsvektor dieselbe Gerade, die Tangente.
1.13c
Orthogonale Vektoren in der Ebene R2
Sei 0 6= v = (v1 , v2 ) ∈ R2 , dann steht c ≡ v⊥ = (−v2 , v1 ) (und −c = (v2 , −v1 ) ) senkrecht
auf v: v · c = −v1 v2 + v2 v1 = 0. In der Ebene ist es also besonders leicht, zu einem Vektor einen
orthogonalen anzugeben. c ist gegenüber v um π/2 im mathematisch positiven Sinn (nach links,
gegen den Uhrzeigersinn) gedreht, −c nach rechts.
1.13d
Parameterunabhängige Geradengleichung im R2
Sei G = {a + t v | t ∈ R} ⊆ R2 , v 6= 0 und sei c 6= 0 zu v orthogonal: v · c = 0, z.B. c = v⊥
oder c = v⊥ /|v⊥ | = n, dann gilt für alle x ∈ G
x · c = (a + t v) · c = a · c + t v · c = a · c = d = const.
andererseits ist y · c 6= a · c für alle y 6∈ G. Also ist
G = {x ∈ R2 | x · c = d}
eine parameterunabhängige Geradengleichung in der Ebene (ebenfalls nicht eindeutig).
Ein solcher Vektor c 6= 0, der senkrecht auf der Geraden steht, heißt Normalenvektor oder Normale der Geraden G. Mitunter wird zusätzlich |c| = 1 verlangt, dann bezeichnet man den auf Länge
1 normierten Normalenvektor meist mit n. Eine Geradengleichung der Form G = {x ∈ R2 | x · n =
d} heißt Hessesche Normalform der Geraden in der Ebene. In diesem Fall ist der Abstand der Geraden vom Ursprung |d|. Siehe dazu Abschnitt 1.15c.
Zu einer parameterunabhängig gegebenen Geraden kann man auch leicht durch Lösen einer linearen Gleichung in zwei Unbekannten eine Parameterdarstellung finden oder auch folgendermaßen:
Sei G1 := {x ∈ R2 | x · (−2, 3) = 4} = {(x1 , x2 ) | −2x1 + 3x2 = 4}. Zu c = (−2, 3)
ist der Richtungsvektor v = (3, 2) orthogonal, der Punkt a = (−2, 0) liegt auf G1 , also ist
G1 = {(−2 + 3t, 2t) | t ∈ R} eine Parameterdarstellung der parameterunabhängig gegebenen
Geraden G1 .
Eine Parameterdarstellung einer Geraden kann man in beliebiger Dimension n des Raumes angeben, eine parameterunabhängige Darstellung einer Geraden durch eine lineare Gleichung gibt es nur
in der Ebene, also wenn die Dimension des Raumes um 1 höher ist als die Dimension des Objektes
(1 bei einer Geraden, vgl. die Gerade als Hyperebene in R2 , 1.17).
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.13e
25
Schnittmengen von Geraden im R2
Zwei Geraden G1 = {a1 + t v1 | t ∈ R} und G2 = {a2 + t v2 | t ∈ R} = {x ∈ R2 | x · c2 = d2 }
sind parallel, wenn v1 und v2 parallel sind ⇔ v1 · c2 = 0. Dann schneiden sie sich entweder gar
nicht: G1 ∩ G2 = ∅ ⇔ a1 6∈ G2 ⇔ a1 · c2 6= d2 , oder sie fallen zusammen: G1 ∩ G2 = G1 =
G 2 ⇔ a1 ∈ G 2 ⇔ a1 · c 2 = d2 .
Nicht parallele Geraden in der Ebene haben genau einen Schnittpunkt, den man am einfachsten
bestimmt, wenn je eine Gerade parameterunabhängig und eine in Parameterform gegeben ist.
x = a1 + t v1 ∈ G1 ∩ G2 falls auch (a1 + t v1 ) · c2 = d2 .
Sei z.B. v1 = (−1, 3), c2 = (4, 1), v1 · c2 = −1 6= 0, die Geraden also nicht parallel,
½µ
¶¯
¾
½
µ ¶
¾
¯
¯
1
−
t
4
2 ¯
G1 :=
2 + 3t ¯ t ∈ R , G2 := x ∈ R ¯ x · 1 = 4 :
!
(1 − t) 4 + (2 + 3t) = 6 − t = 4 ⇐⇒ t = 2, x = (−1, 8) ∈ G1 ∩ G2 .
Sind beide Geraden parameterunabhängig gegeben, so hat man ein einfaches lineares Gleichungssystem mit zwei Gleichungen für zwei Unbekannte x1 , x2 zu lösen.
1.13f
Winkel zwischen Geraden in einer Ebene
Der Winkel zwischen zwei Geraden ist außer im orthogonalen Fall nicht eindeutig definiert, mit ϑ
ist auch ϑ0 = π − ϑ (cos ϑ = − cos ϑ0 ) als Winkel gleichberechtigt. Für Geraden G1 , G2 mit
Richtungen v1 , v2 6= 0 ist eine mögliche Wahl des Winkels ϑ = ^(G1 , G2 ) = ^(v1 , v2 ) =
arccos[ v1 ·v2 /(|v1 | |v2 |)] oder gleichberechtigt ^(v1 , −v2 ) = π−^(v1 , v2 ), denn ±v bestimmen
dieselbe Geradenrichtung. Sind zwei Geraden im R2 durch Normalenvektoren c1 , c2 gegeben, dann
gilt auch mit einem der Vorzeichen ^(v1 , v2 ) = ^(c1 , ± c2 ) für den Winkel zwischen den Geraden
(Skizze machen!).
Für in Parameterform gegebene Geraden im Rn kann man den Winkel ebenso definieren, sofern
sie parallel sind (Winkel 0 oder auch π) oder einen Schnittpunkt haben. Deshalb spricht man auch
vom Schnittwinkel der Geraden. Für windschiefe Geraden (1.14c) ist das problematisch.
1.14
Lot und kürzester Abstand von einer Geraden
Wir sehen nun, daß die (quadratische) Optimierungsaufgabe, zu einem Punkt den nächstgelegenen
Punkt auf einer vorgegebenen Geraden zu finden, durch das Fällen des Lotes vom Punkt auf die
Gerade gelöst wird, ein einfacheres lineares Problem.
1.14a
Der kürzeste Abstand von einer Geraden im Rn
Der quadrierte Abstand dist(t) (Distanz) zwischen y ∈ Rn und dem Punkt a + t v ∈ G auf der
Geraden G ist in Abhängigkeit von t
[ dist(t) ]2 = |y − (a + t v)|2 = |y − a|2 − 2 t (y − a) · v + t2 |v|2 , |v|2 > 0.
Das eindeutige Minimum dieser Parabel liegt an der Nullstelle der Ableitung
d
!
[ dist(t) ]2 = −2 (y − a) · v + 2 t |v|2 = 0
dt
⇐⇒
t0 =
(y − a) · v
.
|v|2
Der Punkt auf der Geraden mit dem kürzesten Abstand von y ist a + t0 v, dieser minimale Abstand
wird als Abstand des Punktes y von der Geraden G“ bezeichnet.
”
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
1.14b
26
Lot, orthogonale Projektion auf eine Gerade im Rn
Der Fußpunkt xF des Lotes von y auf die Gerade G ist derjenige Punkt xF = a + t0 v, für den
die Verbindungsstrecke von y nach xF senkrecht auf G steht, also (y − xF ) · v = 0. Diese lineare
Gleichung ergibt
!
0 = (y − (a + t v) ) · v = (y − a) · v − t v · v
⇐⇒
t0 =
(y − a) · v
.
|v|2
Der Fußpunkt des Lotes xF = a + t0 v ist also der Punkt mit dem kürzesten Abstand! Man bezeichnet ihn auch als (orthogonale) Projektion des Punktes y auf die Gerade G. Dies entspricht der
Anschauung von einem Gummiband, das vom Punkt y zu einem beweglichen Punkt auf der Geraden gespannt ist. Wenn es senkrecht zur Geraden steht, kann der Abstand durch Verschieben des
Fußpunktes nicht mehr verkürzt werden. Es ist vorteilhaft, die lineare Bedingung der Orthogonalität
zu nutzen, um diese Optimierungsaufgabe zu lösen. (Für Abstandsformeln im n = 2 – dimensionalen
Fall siehe 1.15c.)
1.14c
Abstand windschiefer Geraden im R3
Zwei Geraden G1 = {a1 + t v1 | t ∈ R} und G2 = {a2 + s v2 | s ∈ R} im R3 , die nicht parallel
sind und sich auch nicht schneiden, heißen windschief. Die Vektoren v1 und v2 sind dann linear
unabhängig. Der Abstand der Geraden ist die Länge der kürzesten Verbindungsstrecke, letztere steht
wieder senkrecht auf beiden Geraden. Die Parameter s und t der zueinander am nächsten gelegenen
Punkte bestimmt man daher als Lösung des linearen Gleichungssystems
!
(a1 + t v1 − (a2 + s v2 ) ) · vi = 0,
i = 1, 2,
das genau eine Lösung hat, also
t |v1 |2
− s v2 · v1 = (a2 − a1 ) · v1 ,
t v1 · v2 − s |v2 |2
= (a2 − a1 ) · v2 .
(Die eindeutige Lösbarkeit folgt mit 3.4a aus der Ungleichung von Cauchy-Schwarz (1.7), die für
linear unabhängige Vektoren v1 , v2 besagt, daß die Determinante der Koeffizientenmatrix (v1 ·
v2 )2 − |v1 |2 |v2 |2 6= 0 ist.)
1.15
Ebenen im Rn und R3
Eine Ebene ist ein zweidimensionaler affiner Teilraum (1.12) des Rn .
1.15a
Parameterdarstellung einer Ebene im Rn
Eine Ebene ist durch einen Punkt und zwei linear unabhängige Richtungen bestimmt oder durch drei
Punkte, die nicht auf einer Geraden liegen.
E = {a + t v1 + s v2 | s, t ∈ R},
v1 , v2 ∈ Rn linear unabhängig,
ist eine Parameterdarstellung der Ebene durch den Punkt a ∈ Rn , n ≥ 3 (oder 2), die Richtungen
v1 und v2 liegen in der Ebene (zwei Parameter für ein zweidimensionales Objekt). Bei drei nicht
auf einer Geraden liegenden Punkten p, q, r wähle z.B. a = p, v1 = q − p, v2 = r − p, dann
sind v1 und v2 linear unabhängig.
)
(Ã !
à !
Ã
! Ã
!¯
1
2
−1
1 + 2t − s ¯¯
2 + t −1 + s 3
E=
= 2 − t + 3s ¯ s, t ∈ R
3
1
2
3 + t + 2s ¯
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
27
ist eine Ebene im R3 , denn die Vektoren v1 = (2, −1, 1) und v2 = (−1, 3, 2) sind linear unabhängig: λ v1 + µ v2 = (2λ − µ, −λ + 3µ, λ + 2µ) = (0, 0, 0) ist nur für λ = 0 = µ erfüllt.
Frage: Liegt der Punkt (−3, 9, 6) auf E ? Dann muß gelten 1 + 2t − s = −3, 2 − t + 3s =
9, 3 + t + 2s = 6, also 5 + 5s = 15 (Summe der 2. und 3. Gleichung), s = 2, t = −1 erfüllt alle
Gleichungen, also gilt (−3, 9, 6) ∈ E.
1.15b
Parameterunabhängige Darstellung der Ebene im R3
Sei c 6= 0 ein beliebiger Vektor, der senkrecht auf den Richtungen v1 , v2 steht, die die Ebene
aufspannen. (Wähle z.B. c = v1 × v2 , nur im R3 möglich!) Dann gilt für alle x = a + t v1 + s v2 ∈
E:
x · c = a · c + t v1 · c + s v2 · c = a · c = d = const,
für Punkte y 6∈ E gilt y · c 6= d. Somit beschreibt
E = {x ∈ R3 | x · c = d}
für c 6= 0, d ∈ R jeweils eine Ebene im R3 , c ist ein Normalenvektor zur Ebene E. Die Gleichung
x · c = d ist eine lineare Gleichung für die Koordinaten x1 , x2 , x3 der Punkte auf der Ebene.
1.15c
Hessesche Normalform, Lot, orthogonale Projektion
Hat ein Normalenvektor zu einer Geraden im R2 oder einer Ebene im R3 die Länge 1, so wird
er als normierter Normalenvektor“ oft mit n bezeichnet. Die speziellen parameterunabhängigen
”
Darstellungen
G = {x ∈ R2 | x · n = d},
n ∈ R2 , |n| = 1,
E = {x ∈ R3 | x · n = d},
n ∈ R3 , |n| = 1,
heißen Hessesche Normalform der Geraden bzw. Ebenen. Eine lineare Gleichung beschreibt ein n −
1 – dimensionales Objekt im Rn , eine Hyperebene“, siehe auch 1.17.
”
Der Fußpunkt des Lotes, das ist die (orthogonale) Projektion von einem Punkt y auf eine Gerade
(vgl. 1.14b) oder Ebene ist in diesem Fall der Vektor y + λ n ∈ G oder E, d.h. λ ist so zu wählen,
!
daß d = (y + λ n) · n = y · n + λ. Der (wie in 1.14a minimale) Abstand zwischen y und der Geraden/Ebenen ist dann |λ n| = |λ| = |d − y · n|. Insbesondere ist |d| der Abstand der Geraden/Ebenen
vom Nullpunkt 0, wenn die Gleichung in der Hesseschen Normalform vorliegt.
Beispiel: Sei E = {x ∈ R3 | x · (1, −2, 2) = −12}. Da |c| = |(1, −2, 2)| = 3, ist n =
(1/3, −2/3, 2/3) ein normierter Normalenvektor, die Hessesche Normalform ist
E = {x ∈ R3 | x · (1/3, −2/3, 2/3) = −4}.
Der Abstand von E zum Ursprung ist | − 4| = 4. Der Punkt y = (12, 9, 27) hat von E den
Abstand | − 4 − [ 12/3 − 18/3 + 54/3 ] | = | − 20| = 20.
Im allgemeinen Fall gilt für den Abstand von y zu G oder E = {x | x · c = D}:
Abstand = |D − y · c| / |c|.
1.15d
Umwandlung von parameterunabhängiger Darstellung der Ebene in eine Parameterdarstellung
Für c 6= 0 ist mindestens ein ci 6= 0. In der Gleichung c · x = d = c1 x1 + c2 x2 + c3 x3 tritt deshalb
mindestens dieses xi wirklich auf. Ersetze die anderen beiden xj durch s und t. Falls z.B. c2 6= 0,
so erhält man etwa
x1 = s, x2 = (d − c1 s − c3 t)/c2 , x3 = t,
RWTH Aachen
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
28
also ist eine Parameterform (von vielen) für die Ebene, s, t ∈ R,

 





s
0
1
0
x = (d/c2 ) − s(c1 /c2 ) − t(c3 /c2 ) = d/c2 + s −c1 /c2 + t −c3 /c2.
t
0
0
1
1.15e
Winkel zwischen Ebenen
Seien c1 , c2 6= 0 Normalenvektoren zu den Ebenen E1 , E2 ⊆ R3 , dann ist der Winkel zwischen den
Ebenen ^(E1 , E2 ) = ^(c1 , c2 ). Außer im rechtwinkligen Fall ist er wie bei Geraden nicht eindeutig,
π − ^(c1 , c2 ) = ^(c1 , −c2 ) kann gleichberechtigt gewählt werden.
Wenn die Ebenen nicht parallel sind, d.h. c1 und c2 linear unabhängig, der Winkel also nicht 0
oder π, dann steht jede Ebene Ẽ = {x ∈ R3 | x · (c1 × c2 ) = const } senkrecht auf E1 und auf
E2 . Die Schnittgeraden (1.16b) G1 = E1 ∩ Ẽ und G2 = E2 ∩ Ẽ schneiden sich dann mit demselben Winkel, cos(^(E1 , E2 ) ) = ± cos(^(G1 , G2 ) ), deshalb spricht man auch vom Schnittwinkel
zwischen Ebenen.
1.16
Schnittmengen von Geraden und Ebenen im R3
1.16a
Schnitt einer Geraden mit einer Ebene
Am einfachsten ist die Bestimmung der Schnittmenge einer in Parameterdarstellung gegebenen Geraden (die einzige Möglichkeit im R3 ) mit einer Ebene, wenn letztere durch eine parameterunabhängige Gleichung gegeben ist: G = {a + t v | t ∈ R}, E = {x | c · x = d}. Ein Schnittpunkt muß
also d = (a + t v) · c = a · c + t (v · c) erfüllen. Falls die Gerade nicht parallel zur Ebene liegt,
d.h. v · c 6= 0, gibt es genau einen Schnittpunkt P = a + t0 v mit t0 = [ d − a · c ]/(v · c). Im
parallelen Fall liegt entweder G in E: G ∩ E = G für d = a · c, oder es gibt keinen Schnittpunkt
bei d 6= a · c. Beispiel mit c = (0, 1, −1):
(Ã
!
à !¯
)
1
2 ¯¯
©
ª
2
G=
+ t 1 ¯ t ∈ R , E = x ∈ R3 | x2 − x3 = 3 .
−3
0 ¯
a · c = 5, v · c = 1 6= 0, t0 = [ d − a · c ]/(v · c) = −2, also ist
(Ã
!) (Ã
!)
1 + (−2) 2
−3
2 + (−2) 1
0
G∩E =
=
.
−3
−3
Wenn die Ebene in Parameterdarstellung gegeben ist, sollte man sie zunächst z.B. mit c = v1 × v2
parameterunabhängig beschreiben.
1.16b
Schnittgerade zweier Ebenen im R3
Seien E1 = {x ∈ R3 | x · c1 = d1 }, E2 = {x ∈ R3 | x · c2 = d2 } und c1 , c2 linear unabhängig
(nicht (anti)parallel). Dann gibt es eine Schnittgerade G = E1 ∩ E2 mit Richtung c1 × c2 .
Beispiel: c1 = (1, −3, 1), d1 = −9, c2 = (−4, 0, 2), d2 = 6. Das ergibt ein System von zwei
linearen Gleichungen für drei Unbekannte, die Lösung hat einen freien Parameter.
x1 − 3x2 + x3 = −9
−4x1
+ 2x3 =
6
Wähle eine Koordinate als Parameter, hier z.B. x1 = t (falls eine Koordinate in beiden Gleichungen
gar nicht auftritt, muß diese als Parameter gewählt werden).
2x3 = 6 + 4 t,
also x3 = 3 + 2 t,
−3x2 = −9 − t − (3 + 2 t) = −12 − 3 t,
RWTH Aachen
also x2 = 4 + t.
Mathematik I+II
1
Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen
29
Die Schnittgerade ist
(Ã
E1 ∩ E2 = G =
t
4+t
3 + 2t
!
à !
à !¯
)
0
1 ¯¯
= 4 +t 1 ¯t∈R .
3
2 ¯
Zur Probe kann man prüfen, ob der Richtungsvektor, hier (1, 1, 2), senkrecht zu c1 und zu c2 steht
und ob (0, 4, 3) · ci = di erfüllt ist.
Falls c1 und c2 linear abhängig sind, gilt E1 = E2 oder die Ebenen haben keinen Punkt
gemeinsam.
1.16c
Projektion einer Geraden auf eine Ebene
Seien E = {x ∈ R3 | x · c = d}, c 6= 0 und G = {a + t v | t ∈ R}, v 6= 0 eine Ebene und Gerade in R3 . Die (orthogonale) Projektion der Geraden auf die Ebene ist die Menge der orthogonalen
Projektionen aller Punkte der Geraden auf die Ebene. Sind v und c (anti)parallel, d.h. die Gerade
steht senkrecht auf der Ebene, so ist diese Menge nur der Schnittpunkt P = G ∩ E. Wenn aber v
und c linear unabhängig sind, so ist die Projektion der Geraden auf die Ebene eine Gerade, die man
auf mehreren Wegen berechnen kann.
Zum Punkt a + t v auf der Geraden ist a + t v + γ(t) c der Fußpunkt des Lotes, wenn γ(t) so
gewählt wird, daß der neue Punkt in der Ebene liegt, also
!
d = (a + t v + γ(t) c) · c = a · c + t v · c + γ(t) |c|2 .
Das wird von γ(t) = [ (d − a · c) − t v · c ] / |c|2 gelöst.
Der Vektor c0 := v × c 6= 0 steht senkrecht auf dem Richtungsvektor v der Geraden, deshalb
enthält die Hilfsebene E 0 = {x ∈ R3 | x · c0 = d0 }, d0 = a · c0 , den Punkt a und damit die ganze
Gerade, außerdem steht E 0 senkrecht auf E. Die Schnittgerade (vgl. 1.16b) G0 = E ∩ E 0 ist die
gesuchte orthogonale Projektion von G auf E.
Ist bereits ein Schnittpunkt P = G ∩ E bekannt, so ist die Projektion einfacher durch G0 =
{P + s v0 | s ∈ R} mit v0 = c0 × c = (v × c) × c
Richtung v0 gehört zu beiden Ebenen E 0 und E.
1.17
1.10 (v)
=
(c · v) c − |c|2 v zu berechnen. Die
Hyperebenen im Rn
Eine n − 1 – dimensionale Hyperebene H im Rn wird durch eine lineare Gleichung bestimmt
(parameterunabhängige Darstellung)
H = {x ∈ Rn | x · c = d},
0 6= c ∈ Rn .
Eine äquivalente Parameterdarstellung ist
H = {x = a0 + t1 v1 + t2 v2 + . . . tn−1 vn−1 | ti ∈ R} ,
a0 , vi ∈ Rn , a0 · c = d,
wobei die n − 1 Vektoren vi linear unabhängig sind und alle orthogonal zu c.
Mit der Geraden G im Rn
G = {a + t v | t ∈ R},
0 6= v ∈ Rn ,
gibt es einen eindeutigen Schnittpunkt, falls v · c 6= 0:
G ∩ H = {a + t0 v},
t0 = [ d − a · c ]/(v · c).
Falls v k c ist dieser Punkt zugleich die orthogonale Projektion (Fußpunkt des Lotes) von a auf H.
Im Fall v · c = 0 gibt es entweder keinen Schnittpunkt, G ∩ H = ∅ bei d 6= a · c, oder für d = a · c
liegt G in H: G ∩ H = G.
Die Spezialfälle solcher Schnittpunkte für n = 2 (zwei Geraden im R2 ) und n = 3 (Gerade
und Ebene im Raum) wurden oben in 1.13e und 1.16a behandelt.
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2
2.1
30
Matrizen und Determinanten
Einleitung, Beispiele für das Auftreten von Matrizen
Eine Matrix ist eine rechteckige Anordnungen reeller Zahlen, bei der die Bedeutung der Einträge, der
Matrixelemente, von ihrer Position in dem rechteckigen Schema abhängt. Das wird bei den Regeln
der Matrizenrechnung berücksichtigt. Die Matrizenmultiplikation unterscheidet sich stark von der
Multiplikation von Zahlen, denn das Produkt zweier Matrizen hängt von der Reihenfolge der Faktoren
ab. Außerdem kann das Produkt Null sein, obwohl beide Faktoren von Null verschieden sind.
Für quadratische Matrizen ist die Determinante, eine polynomiale Funktion der Matrixelemente,
definiert. Mit ihr kann man wichtige Struktureigenschaften einer Matrix leicht erkennen und sie tritt
als nützliches Hilfsmittel in vielen praktischen Rechnungen auf. Es folgen einige Beispiele, in denen
Matrizen in natürlicher Weise in Anwendungen auftreten.
2.1a
Koeffizientenmatrix eines linearen Gleichungssystems
Das lineare Gleichungssystem kann kurz kodiert werden durch die erweiterte Koeffizientenmatrix
(G.1)
x1
2 x1
2.1b
−
+
x3
=
5
x2
+
2 x3
=
−1
3 x2
−
4 x3
=
0

1

 2
0
←→
0
−1
3
1
2
−4

.. 5
..
.. −1 

..
0
.
Verkaufszahlen
Eine Gärtnerei verkauft an den Blumenhändler 1 an einem Tag
Rosen
Tulpen
rot
50
200
gelb
75
50
weiß
20
10
µ
M1 =
µ
und entsprechend an Händler 2
M2 =
50
200
75
50
250
500
40
500
20
10
¶
50
0
,
¶
.
Der Verkauf an beide Händler zusammen — nach Sorten aufgeschlüsselt — ist
µ
¶
300 115 70
M1 + M2 =
,
700 550 10
die komponentenweise berechnete Summe. Bei gleichbleibendem Geschäft ist für 4 Tage zu erwarten:
µ
¶
1200 460 280
4 (M1 + M2 ) =
,
2800 2200 40
das komponentenweise Produkt mit der Zahl 4, davon 4M1 für Händler 1. Diese natürlichen Operationen verallgemeinern diejenigen im Vektorraum.
Allen Beispielen ist gemeinsam, daß die Bedeutung“ einer Zahl in einer Matrix von der Position
”
in der Matrix abhängt ! Nur Einträge korrespondierender Positionen dürfen kombiniert werden.
Später kommt eine Multiplikation geeigneter Matrizen hinzu, siehe 2.4 und 2.5.
2.1c
Lineare Abbildungen
Matrizen dienen auch zur Beschreibung linearer Abbildungen zwischen Vektorräumen, die Matrixmultiplikation entspricht dann der Komposition (nacheinander Ausführen) linearer Abbildungen, siehe 2.6.
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
31
2.2
Matrizen, ihre Addition und Multiplikation mit Zahlen
2.2a
Definition der Matrizen, Bezeichnungen für spezielle Matrizen
Eine (reelle) m × n – Matrix ist eine rechteckige Anordnung von m · n reellen Zahlen in m Zeilen
und n Spalten


a11 a12 . . . a1 n
 a21 a22 . . . a2 n 


A= .
..
..  ,
..
 ..
.
.
. 
am 1 am 2 . . .
am n
bei den Matrixelementen ai j ∈ R kennzeichnet der erste Index die Zeile, der zweite ist der Spaltenindex. Es gibt auch komplexe Matrizen mit ai j ∈ C, bei Verkaufszahlen sind nur ai j ∈ N0 sinnvoll.
Spezialfälle:
m=n=1:
A = (a11 )
äquivalent zu den reellen Zahlen;
m = 1, n ∈ N :
A = (a11 a12 . . . a1 n ), Zeilenvektor;


a11
m ∈ N, n = 1 : A =  ...  , Spaltenvektor, auch mit a bezeichnet.
am 1
Die m × n– Nullmatrix hat ai j = 0 für alle i = 1, . . . , m, j = 1, . . . , n. Die elementaren Matrizen
Ek ` erfüllen ak` = 1 und ai j = 0 für alle anderen Matrixelemente, die einzige 1 steht in der k-ten
Zeile und `-ten Spalte.
Quadratische Matrizen haben m = n Zeilen und Spalten. Wichtig ist die n-dimensionale Einheitsmatrix 1n (auch mit In , En u.s.w. bezeichnet oder einfach mit 1 bzw. E, wenn die Dimension
aus dem Zusammenhang klar ist) mit ai i = 1 für i = 1, . . . , n, ai j = 0 für i 6= j.




1 0 ... 0
1
0 1 . . . 0

. . 0 .

1n = 

.
 ... ... . . . ...  , auch kürzer geschrieben: 1, 
0
1
0 0 ... 1
Dies ist ein spezieller Fall einer Diagonalmatrix D mit aii = di ∈ R , aij = 0 für i 6= j. Die
Matrixelemente aii bilden die (Haupt-)Diagonale,


d1 0 . . . 0
 0 d2
0
D=
. .
..
 ...
. .. 
0
. . . dn
2.2b
Addition gleichartiger Matrizen
Für zwei m×n -Matrizen A und B (gleiche Zeilen- und Spaltenzahl bei A und B !!) ist die Summe
A + B durch komponentenweise Addition definiert


a11 ± b11 a12 ± b12 . . . a1 n ± b1 n
..
..
,
A±B =
.
.
am 1 ± bm 1
...
am n ± bm n
¶
µ
¶
µ
1
−5
π
5
−10
3
√
, B=
,
z.B.
A=
11 2
5
−2
2 11
µ
¶
3 − π √ −4
5
A−B =
.
−13
2−2 6
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2.2c
32
Multiplikation einer Matrix mit einer Zahl (einem Skalar)
Sei A eine m × n -Matrix und λ ∈ R eine Zahl, die wie im Vektorraum auch bei Matrizen oft
“Skalar“ genannt wird, dann definiert man


λ a11 . . . λ a1 n
.. 
λ A =  ...
.
λ a m 1 . . . λ am n
als komponentenweise Multiplikation. In obigem Beispiel
µ
¶
µ
3
9
−15
−π
√
3A =
, (−1) B ≡ −B =
−6 3 2
33
−11
−5
−2
10
−5
¶
.
Mit diesen linearen Operationen bilden die m × n -Matrizen
P einen
Pn m · n -dimensionalen linearen
Raum, die elementaren Matrizen bilden eine Basis, A = m
k=1
`=1 ak ` Ek ` .
2.3
Die Transponierte einer Matrix, symmetrische Matrizen
Die Transponierte Atr einer m × n -Matrix A = (ai j ) entsteht durch Spiegelung an der Haupt”
diagonalen“, die Zeilen von A werden zu Spalten von Atr und umgekehrt, z.B.


µ
¶
1
5
1 γ −3
2 , Atr =
A= γ
,
5 2
β
−3 β
mit der Schreibweise (M )ij für das Matrixelement der Matrix M in Zeile i und Spalte j
(Atr )i j = (A)j i ,
i = 1, . . . , n, j = 1, . . . , m,
Atr (auch mit At , AT oder A0 bezeichnet) ist eine n × m -Matrix. Insbesondere ist zu einer n × 1 Matrix A = a, einem Spaltenvektor, die Transponierte Atr = atr ein Zeilenvektor und umgekehrt,
wie in 1.1 erwähnt. Offenbar gilt (Atr )tr = A.
Eine quadratische Matrix A heißt symmetrisch, wenn A = Atr , d.h. ai j = aj i für i, j =
1, . . . , n. Insbesondere sind Diagonalmatrizen symmetrisch. A heißt antisymmetrisch, wenn Atr =
−A, d.h. ai j = −aj i für alle i, j = 1, . . . , n. Es folgt aii = 0 für alle Elemente auf der Diagonalen
antisymmetrischer Matrizen.
2.3a
Zeilen- und Spaltenvektoren in einer Matrix
Eine m × n-Matrix A ist aus m Zeilenvektoren zA
i der Dimension n aufgebaut oder auch aus n
Spaltenvektoren sA
der
Dimension
m:
j

· · · zA
1 ···
 · · · zA · · · 
2

A=


···
A
· · · zm · · ·


oder

..
..
..
.
.
.


sA
A =  sA
. . . sA
n .
..1
..2
..
.
.
.
Wir gebrauchen gelegentlich diese Notation zur Abkürzung. Wenn eine Matrix nur eine Zeile oder nur
eine Spalte hat, dann brauchen wir oft nicht zwischen der Matrix und dem Zeilen- bzw. Spaltenvektor
zu unterscheiden.
Später, wenn wir uns an Spaltenvektoren gewöhnt haben, werden wir (ab Kapitel 4) auch die
. .
.
platzsparende Notation A = (sA .. sA .. · · · .. sA ) benutzen.
1
RWTH Aachen
2
n
Mathematik I+II
2
Matrizen und Determinanten
2.4
33
Anwendungsbeispiel einer Matrizenmultiplikation
Um die zunächst ungewöhnlich erscheinende Regel für die Multiplikation von Matrizen zu motivieren, geben wir ein Anwendungsbeispiel an, das auf gerade dieses Produkt führt.
Zwei Vorratslager des Roten Kreuzes enthalten u.a. Feuerlöscher (F ), Notstromaggregate (N )
und Wasseraufbereitungsanlagen (W ), die regelmäßig gewartet werden müssen. Die Bestände sind
in der Matrix A angegeben:
Lager 1
Lager 2
F
100
200
N
2
1
W
1
1
µ
A=
100
200
2
1
1
1
¶
.
Drei Firmen F1 , F2 , F3 bieten die Wartung zu folgenden Stückpreisen an, falls jeweils ein
ganzes Lager gewartet wird. Die Wartungskosten sind in der Matrix B angegeben.
F
N
W
F1
10
300
400
F2
12
250
450
F3
8
400
500

10

300
B=
400
12
250
450

8
400  .
500
Was kostet die Wartung der Lager durch die jeweiligen Firmen ?
Firma F1
Firma F2
100 · 10 + 2 · 300 + 1 · 400
...
200 · 10 + 1 · 300 + 1 · 400
...
µ
¶
2000 2150 2100
AB =
.
2700 3100 2500
Lager 1
Lager 2
Firma F3
100 · 8 + 2 · 400 + 1 · 500
200 · 8 + 1 · 400 + 1 · 500
Die Kombination der Daten aus den Matrizen A und B , die zum Wartungspreis führt (abhängig vom
Lager und der Firma), ist gerade das Matrizenprodukt A B, wie wir es in Abschnitt 2.5b definieren.
Firma F1 erhält den Zuschlag für Lager 1, Firma F3 für das andere Lager.
2.5
Multiplikation von Matrizen
2.5a
Das Produkt einer Matrix mit einem Spaltenvektor
Wir betrachten zunächst das spezielle Produkt, in dem der linke Faktor A eine m × n -Matrix ist
und der rechte Faktor b ein Spaltenvektor der Dimension n, also eine n × 1-Matrix. Dann gibt es im
A
A
Vektor genauso viele Komponenten b` wie Spalten in der Matrix. Werden mit sA
1 , s2 , . . . , sn die
(m-dimensionalen) Spaltenvektoren der Matrix A bezeichnet (wie in 2.3a eingeführt), dann ist das
Produkt A b die folgende Linearkombination der Spaltenvektoren:


..
..
..
n
.
.
.
X


sA
Ab=
b` sA
für A =  sA
. . . sA
n .
` ,
1
2
.
.
.
..
..
..
`=1
Um die einzelnen Komponenten des resultierenden Vektors zu berechnen, beobachten wir, daß in der
obersten Position gerade das Skalarprodukt der obersten Zeilenvektors zA
1 in der Matrix A mit dem
Vektor b steht, allgemein

 A


z1 · b
· · · zA
.. 
1 ···

 · · · zA · · ·   .  
zA
2 ·b 
2
 b  = 
Ab = 
.

.


..
···


..
A ·b
.
·
·
·
· · · zA
z
m
m
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2.5b
34
Definition des Produktes zweier Matrizen
Durch Zusammensetzen erhalten wir das Produkt von Matrizen. Sei A eine m×n -Matrix und B eine n×k -Matrix, dann ist das Produkt C = A B (Reihenfolge beachten!) eine m×k -Matrix. In den
Spalten der Produktmatrix C stehen als Spalten die Produkte A sB
j von A mit den Spaltenvektoren
von B. Daraus ergibt sich als Formel für die Matrixelemente
ci j :=
n
X
ai ` b` j ,
i = 1, . . . , m ; j = 1, . . . , k.
`=1


b1 j
B
 ..  der Vektor
Sei zA
i = (ai 1 , ai 2 , . . . , ai n ) der Vektor in der i-ten Zeile von A und sj =
.
bn j
B
in der j-ten Spalte von B, beide haben dieselbe Anzahl n von Komponenten. Dann ist ci j = zA
i ·sj
gerade das Skalarprodukt aus dem i -ten Zeilenvektor von A (erster Faktor in A B) und dem j-ten
Spaltenvektor von B ( Zeile · Spalte“):
”

 

..
Ã
!
..
.
  . . . c. . . . 

. . . zA
ij
.
 sB
=
j
i ...
..
..
.
.
2.5c
Erstes Beispiel der Matrixmultiplikation


2
−1  ,
4
1

3
A=
−2
µ
B=
3
β
1
−2
2
1
γ
1
¶
,
A hat 2 Spalten, B hat 2 Zeilen, also ist A B definiert, nicht aber B A, denn 4 6= 3. Das Produkt
A B hat 3 Zeilen und 4 Spalten.


3 + 2β
−3
4
γ+2
5
5
3γ − 1  .
AB =  9 − β
−6 + 4β −10 0 −2γ + 4
Die Matrixmultiplikation ist eine sehr wichtige und häufig benutzte Operation.
2.5d
Regeln der Matrizenmultiplikation
Falls die auftretenden Summen und Produkte auf einer Seite einer der folgenden Gleichungen definiert sind (passende Größen der Matrizen), dann sind sie auch auf der anderen Seite der jeweiligen
Gleichung definiert und es gelten die folgenden Identitäten (Distributivgesetz, Assoziativgesetz etc.,
aber nicht das Kommutativgesetz):
(A + B) C = A C + B C,
C (A + B) = C A + C B
(A B) C = A (B C) =: A B C
(Distributivgesetz),
(Assoziativgesetz),
λ(A B) = (λ A) B = A (λ B),
(A B)tr = B tr Atr
(Änderung der Reihenfolge beachten!),
die man alle leicht durch Nachrechnen bestätigt, z.B. mit der Schreibweise (M )ij für das Matrixelement der Matrix M in Zeile i und Spalte j
³
(A B)tr
RWTH Aachen
´
ij
= (A B)j i =
n
n
X
X
(A)j ` (B)` i =
(B tr )i ` (Atr )` j = (B tr Atr )i j .
`=1
`=1
Mathematik I+II
2
Matrizen und Determinanten
35
Für jede m × n -Matrix A gilt
n
X
1m A = A = A 1n , denn z.B.
(A)i` (1n )` j = (A)i j , da (1n )` j =
`=1
2.5e
(
0 für ` = j,
1 für ` 6= j.
Skalarprodukt und transponierte Matrix
Spaltenvektoren a ∈ Rn können als n × 1 -Matrix a = A, eine Spalte mit n Zeilen aufgefaßt
werden, und entsprechend btr = B tr = (b1 , . . . , b1 n ) als 1 × n-Matrix oder Zeilenvektor mit n
Spalten zum Spaltenvektor b. Wir benutzen die Schreibweisen a und atr sowohl für Vektoren als
auch für Matrizen.
Pn
Die 1 × 1 -Matrix B tr A = btr a = b · a =
j=1 bj aj ist gerade das Skalarprodukt der
tr
2
Vektoren, A A = |a| u.s.w. In diesem Sinn ist das Rechnen im Rn ein Spezialfall des Rechnens
mit Matrizen. (Für das Vektorprodukt siehe 2.6a.) Für jede n × n -Matrix T und Spaltenvektoren
b, y ∈ Rn gilt in Skalarprodukt- (mit Punkt) bzw. Matrixprodukt-Schreibweise:
b · (T y) = (T tr b) · y ⇐⇒ btr (T y) = (T tr b)tr y.
Beweis: Nach den Regeln der Matrixmultiplikation 2.5d gilt
(T tr b)tr y = (btr T ) y = btr (T y).
2
Wir werden diese Beziehung z.B. später in 4.8a und 4.13a benötigen, um Gleichungen für Kurven
und Flächen zweiter Ordnung auf Normalform zu transformieren, sowie in 4.3b.
2.5f
Unterschiede zum Produkt von Zahlen, Warnung
Auch wenn beide Produkte A B und B A definiert sind (z.B. 2 × 3 - und 3 × 2 -Matrix) kann das
Produkt verschieden sein, sogar bei quadratischen Matrizen, wie im Beispiel:
µ
¶
µ
¶
2 −3
1
−1
A=
, B=
,
2 −3
−1
1
µ
AB =
5
5
−5
−5
¶
µ
6= B A =
0
0
0
0
¶
.
Insbesondere zeigt dieses Beispiel, daß das Produkt eine Nullmatrix sein kann, obwohl beide Faktoren
keine Nullmatrizen sind. Das kann sogar für das Produkt einer Matrix mit sich selbst gelten, A2 = 0
obwohl A 6= 0, wie folgendes Beispiel zeigt:
µ
¶
1 −1
A=
6= 0,
A2 = 0.
1 −1
Anders als beim Rechnen mit Zahlen kann die Multiplikation mit einer Matrix A 6= 0 deshalb i.a.
nicht durch eine Division“ rückgängig gemacht werden. (Aus AC = BC folgt i.a. nicht B = C.)
”
Das ist nur bei spezielleren invertierbaren Matrizen durch Multiplikation mit der inversen Matrix
(3.4) möglich.
Matrizen erfüllen die Additionsregeln (A1) – (A4) und das Distributivgesetz (D1) aus dem Abschnitt über Körperaxiome. Die Multiplikationsregeln (M1) und (M4) sind jedoch i.a. verletzt, die
Matrizen bilden keinen Körper (außer im Fall der 1 × 1-Matrizen, der Zahlen).
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2.6
36
Matrizen als lineare Abbildungen
Sei A eine m × n -Matrix und sei x ∈ Rn , betrachte x als Spaltenvektor, oder als n × 1 -Matrix.
Dann ist das Matrixprodukt A x (wie in 2.5a definiert) eine m × 1 -Matrix, ein Spaltenvektor im
Rm . In diesem Sinne ist die durch die Matrix A gegebene Abbildung
A : Rn → Rm , A x ∈ Rm für alle x ∈ Rn , A eine m × n -Matrix,
zu verstehen. Mit dem Distributivgesetz der Matrixmultiplikation, siehe Abschnitt 2.5d, folgt A (x +
y) = A x + A y und es gilt A (λ x) = λ A x, also ist A eine lineare Abbildung A : Rn → Rm .
Umgekehrt läßt sich jede lineare Abbildung so durch eine Matrix beschreiben. Die Dimension n
des Urbildraumes Rn ist die Spaltenzahl der Matrix A und die Dimension m des Bildraumes Rm
deren Zeilenzahl. Im Hinblick auf diese wichtige Anwendung haben wir Vektoren im Rn meist als
Spalten geschrieben (wenn wir nicht Zeilen wählten, um Platz zu sparen).
Sei nun B eine n × k -Matrix, dann ist B : Rk → Rn ebenfalls eine lineare Abbildung, auf
deren Bildraum insbesondere A anwendbar ist, A (B x) ist definiert für x ∈ Rk . Nach dem Assoziativgesetz der Matrizenmultiplikation (2.5d) gilt also
A (B x) = (A B) x,
(A B) : Rk → Rm ,
d.h. die Matrixmultiplikation drückt die Komposition (nacheinander Ausführen) der linearen Abbildungen aus. Damit A B definiert ist, muß Spaltenzahl von A = Zeilenzahl von B “ gelten, das
”
bedeutet gerade, daß der Urbildraum von A dieselbe Dimension wie der Bildraum von B hat.
Der Spezialfall quadratischer Matrizen, die eine lineare Abbildung des Rn in sich beschreiben,
wird später (insbesondere in Kapitel 4) noch genauer besprochen.
Das Bild (die Wertemenge) einer linearen Abbildung A
{y ∈ Rm | es gibt ein x ∈ Rn mit A x = y}
ist ein linearer Unterraum (siehe 1.12) des Bildraumes Rm , denn zu y1 = A x1 und y2 = A x2
liegen y1 + y2 = A x1 + A x2 = A (x1 + x2 ) und λ y1 = A (λ x1 ) auch im Bild von A. Gemäß
Abschnitt 2.5a gilt mit den Spaltenvektoren sA
j der Matrix A die Gleichung
y = Ax =
n
X
x ` sA
` .
`=1
Also ist das Bild von A die Menge der Linearkombinationen (1.2) der Spaltenvektoren von A, die
A
lineare Hülle der Spaltenvektoren. Insbesondere gilt A e1 = sA
1 , . . . , A en = sn .
Die Abbildungseigenschaften spezieller Klassen von Matrizen werden durch konkrete Beispiele
sowie insbesondere in Kapitel 4 diskutiert. Im R2 (und teilweise im R3 ) lassen sich die Abbildungseigenschaften wie Drehung, Spiegelung, Streckung, Verzerrung etc. mit Hilfe von Computerprogrammen sehr gut visualisieren.
2.6a
Vektorprodukt und antisymmetrische Matrizen
Das Vektorprodukt im R3 mit einem Vektor m ist eigentlich eine Matrixmultiplikation mit einer
antisymmetrischen 3 × 3 -Matrix M , die auch gerade drei unabhängige Einträge hat:

 

α
0 −γ β
0 −α  entspricht m =  β  indem M x = m × x, x ∈ R3 .
M = γ
γ
0
−β α
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2.7
Der Rang einer Matrix
2.7a
Definition
37
Es gibt viele äquivalente Charakterisierungen des Ranges einer m × n -Matrix A:
Rang(A) ≡ Rang A (auch Rg (A) ) ist die
• maximale Anzahl linear unabhängiger Spaltenvektoren,
• maximale Anzahl linear unabhängiger Zeilenvektoren,
• Dimension des Bildes {A x | x ∈ Rn } von A,
• Dimension des Bildes {Atr y | y ∈ Rm } von Atr .
Daß alle diese Charakterisierungen dieselbe Zahl ergeben, ist ein wichtiger Satz, den wir hier jedoch
nicht beweisen. Zur Dimension eines linearen Unterraumes siehe 1.12. Es gilt offenbar: Rang(A) =
Rang(Atr ) ≤ m und ≤ n. Eine m × n -Matrix A hat maximalen Rang, wenn Rang(A) =
min{m, n}.
Der Rang einer Matrix ist ein Maß für den Informationsgehalt“ einer Matrix, die Anzahl der
”
relevanten“ Zeilen oder Spalten.
”
2.7b
Beispiele

0
0
A =  −5 0
0
1
unabhängig:

3
0  hat (den maximalen) Rang(A) = 3, denn alle Zeilenvektoren sind linear
0
!
0 = λ1 z1 + λ2 z2 + λ3 z3 = (−5λ2 , λ3 , 3λ1 )
hat nur die triviale Lösung λ1 = λ2 = λ3 = 0.
µ
¶
1
2
−1
B=
hat Rang(B) = 1, denn z2 = −5 z1 6= 0.
−5 −10
5
Der Rang ist z.B. wichtig, um die Lösbarkeit linearer Gleichungssysteme und die Größe des Lösungsraumes zu bestimmen, siehe 3.2.
2.7c
Rang einer Matrix in Gauß-Gestalt
Wir erinnern an die Gauß-Gestalt einer Matrix, die in Abschnitt G.2 mit Beispielen eingeführt wurde.
Diese Form liegt vor, wenn in jeder Zeile das erste Element, das nicht verschwindet, weiter rechts
steht, als in der darüberstehenden Zeile.
Der Rang ist dann die Anzahl der Zeilen, in denen nicht alle Einträge Null sind. Bei der GaußGestalt kann man den Rang einer Matrix also direkt ablesen.
Zur Umwandlung einer Matrix in die Gauß-Gestalt dienen die elementaren Zeilen- und Spaltenoperationen, die den Rang einer Matrix nicht ändern.
2.8
Elementare Zeilen- und Spaltenoperationen für Matrizen
Wir sahen in Abschnitt G.3, daß die dort eingeführten elementaren Zeilenoperationen für Matrizen
sehr nützlich für die Lösung linearer Gleichungssysteme (Gauß–Elimination) sind. Sie vereinfachen
das Gleichungssystem, ohne die Lösungsmenge zu verändern. Diese Operationen können auch durch
Multiplikation der m × n-Matrix A von links mit einer geeigneten einfachen m × m-Matrix M
beschrieben werden.
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
38
(a) Vertauschen der k-ten Zeile der Matrix A mit der `-ten: zk ←→ z` . Sei M die Matrix mit
(M )k` = (M )`k = 1, (M )jj = 1 für j 6= k, ` und (M )ij = 0 sonst, dann ist M A die Matrix
mit vertauschten Zeilen gegenüber A sowie M 2 = 1m , die zweimalige Multiplikation von links
mit M stellt A wieder her. Beispielsweise vertauscht Multiplikation mit


1 0 0
0 0 1
0 1 0
die zweite und dritte Zeile einer Matrix mit drei Zeilen und beliebig vielen Spalten.
(b) Addition des c-fachen der k-ten Zeile zur `-ten Zeile: z` −→ z` + c zk , die entsprechende
Multiplikationsmatrix ist Mc = 1 + c E`k mit der elementaren Matrix E`k , deren einziger nicht
verschwindender Eintrag eine 1 in der `-ten Zeile und k-ten Spalte ist, vgl. 2.2a. Multiplikation
mit M−c macht die Operation rückgängig, M−c Mc = 1 = Mc M−c .
(c) Multiplikation der k-Zeile mit einer Zahl c 6= 0: zk −→ c zk , die Matrix M entsteht aus der
Einheitsmatrix, indem in der k-ten Zeile (und Spalte) die Eins durch c ersetzt wird (und durch
1/c für die Umkehrung).
Die Matrix, die eine durch M beschriebene Operation rückgängig macht, ist die inverse Matrix
M −1 , die in Abschnitt 3.4 genauer besprochen wird.
Wir ergänzen die Umformungen hier um die entsprechenden Spaltenoperationen, d.h. Zeilenoperationen auf Atr angewandt. Das kann durch Multiplikation von rechts mit geeigneten invertierbaren
Matrizen beschrieben werden.
2.9
Satz über den Rang einer Matrix
Durch elementare Zeilen- und Spaltenoperationen ändert sich der Rang einer Matrix nicht.
2.9a
Beweis
So, wie sich der Informationsgehalt“ eines linearen Gleichungssystems, die Lösungsmenge, bei An”
wendung des Gaußschen Algorithmus nicht ändert, so gilt dasselbe für den Rang. Wir werden zeigen,
daß durch elementare Spaltenoperationen das Bild von A (2.6), die lineare Hülle der Spaltenvektoren
sj von A, die Menge aller Linearkombinationen,


¯
m
X
¯

¯
xj sj ¯ xj ∈ R , j = 1, . . . , m ,
H :=

¯

j=1
einer m × n -Matrix A nicht verändert wird. Dann bleibt auch Rang A (die Dimension von H )
unverändert.
(a) Vertauschen ist nur Umnumerierung der Spaltenvektoren.
(b) Für ein festes ` : s` −→ s0` = s` + c sk , ein k 6= `, s0i = si für alle i 6= `:
m
X
xj sj =
j=1
m
X
x0j s0j , falls x0k = xk − c x` , xj = x0j für j 6= k.
j=1
Durch diese Operation wird H also nicht verkleinert, denn jede Linearkombination der sj läßt
sich auch als Linearkombination der s0j schreiben. Andererseits kann H auch nicht vergrößert
werden, denn bei der umgekehrten Operation s` −→ s` − c sk , die die obige rückgängig macht,
wird die Hülle ebenfalls nicht verkleinert.
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
39
(c) Für ein festes k: sk −→ s0k = c sk , s0i = si für i 6= k, c 6= 0:
m
X
xj sj =
j=1
m
X
x0j s0j mit x0k = (1/c) xk , x0i = xi für i 6= k.
j=1
Bei Zeilenoperationen bleibt analog die lineare Hülle der Zeilenvektoren, der transponierten der Spaltenvektoren von Atr , unverändert.
2
2.10
Determinanten
Für quadratische n × n-Matrizen A ist eine Zahl det(A) ≡ |A| definiert, die für niedrige Dimension
n ≤ 3 mit einem einfachen Verfahren berechnet werden kann. Determinanten höherdimensionaler
Matrizen werden rekursiv auf niedrigere Dimensionen zurückgeführt. (Die übliche allgemeine Definition ist für die praktische Berechnung meist unzweckmäßig.)
2.10a
Determinanten für n ≤ 3
n = 1 : A = (a) ,
µ
a
n=2: A=
c
µ
2
3
z.B. A =
β −4
det(A) = a,
¶
b
, det(A) = a d − b c ,
d
¶
, det(A) = 2 · (−4) − 3 · β = −8 − 3 β.
Abhängig vom Parameterwert β gilt die in Anwendungen oft wichtige Alternative:


> 0 für β < −8/3,
det A = 0 für β = −8/3,


< 0 für β > −8/3.

a

d
n=3:A=
g

c
f  , det(A) = a e i + b f g + c d h − g e c − h f a − i d b.
i
b
e
h
Dies ist als Regel von Sarrus bekannt, dafür gibt es ein graphisches Merkschema:
+
+
+
& & &
a
b
c
a
b
d
e
f
d
e
g
h
i
g
h
,
nur für 3 × 3 Matrizen !!, ein Beispiel:
% % %
−
−

2
det 4
3
−
1
0
1

3
1 = 2 · 0 · 2 + 1 · 1 · 3 + 3 · 4 · 1 − 3 · 0 · 3 − 1 · 1 · 2 − 2 · 4 · 1 = 5.
2
Zur Dimensionsreduktion für alle n ≥ 2 dient:
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
40
2.10b
Die Adjunkte, der Laplacesche Entwicklungssatz


a11 . . . a1 n
..  gegeben. Die Adjunkte A ist (−1)k+` multipliziert mit der DeterSei A =  ...
k`
.
an 1 . . . an n
minanten der (n − 1) × (n − 1) -Matrix, die aus A durch Streichen der k -ten Zeile und ` -ten Spalte
entsteht. Die Vorzeichen sind nach einem Schachbrettmuster“ angeordnet. (Die Adjunkte wird auch
”
als Kofaktor bezeichnet, die Subdeterminante heißt Minor.) Beispiel:


µ
¶
µ
¶
1 −2 3
5
−6
4
−6
A =  4 5 −6 , A11 = + det
= −3, A12 = − det
= −78,
−8 9
7 9
7 −8 9
µ
A13 = + det
4
7
5
−8
¶
µ
= −67, A32 = − det
1
4
3
−6
¶
= 18,
u.s.w.
Der Laplacesche Entwicklungssatz lautet: Für eine beliebige feste Zeile i oder Spalte j gilt
det(A) =
n
X
ai ` Ai ` =
`=1
n
X
ak j Ak j .
k=1
Man kann also die Determinante nach einer beliebigen Zeile oder Spalte entwickeln, um die Dimension der Matrizen zu reduzieren. Eine zweckmäßige Wahl der Zeile oder Spalte, nach der entwickelt
wird, ist: möglichst häufig Null in der Zeile/Spalte, einfache Zahlen. Im nächsten Beispiel sind das
die obere Zeile oder die hintere Spalte. Letztere hat den zusätzlichen Vorteil, daß komplizierte Ma”
trixelemente“ gestrichen werden:


µ
µ
¶¶
0
2
0
0
2
3


100 4
det 17 π
= 4 − det
= 4 · (−6) = −24,
−3 −5
−3
−5 0

0
 a
det 
 e
i
2
b
f
j
3
c
g
k



0
a

d 


e
= 2 · − det
h 
i
`
c
g
k


d
a



h
e
+ 3 det
`
i
b
f
j

d
h .
`
Mit diesem Verfahren sind Determinanten beliebiger Größe durch schrittweise Reduktion auf Dimension 3 oder 2 berechenbar.
Insbesondere sieht man det(Atr ) = det(A) an den expliziten Formeln für n ≤ 3 und an der
Gleichbehandlung von Zeilen und Spalten im Laplaceschen Entwicklungssatz.
2.11
Rechenregeln für Determinanten
Außer der oben schon angeführten Beziehung det(Atr ) = det(A) gelten auch die folgenden Regeln
in beliebiger Dimension.
2.11a
Multiplikationssatz für Determinanten
Seien A, B n × n -Matrizen, dann gilt
det(A B) = det(A) · det(B).
RWTH Aachen
Mathematik I+II
2
Matrizen und Determinanten
2.11b
41
Dreiecksmatrizen
Sei A von oberer Dreiecksgestalt, d.h. ai j = 0 für i > j, oberhalb der Diagonale sind die Einträge
beliebig (als ∗ gekennzeichnet):


d1
∗


d2

 , dann gilt det(A) = d1 · d2 · . . . · dn .
.
.


.
0
dn
Insbesondere gilt in beliebiger Dimension det 1n = 1, det(−1n ) = (−1)n . Der Beweis ist klar
mit dem Entwicklungssatz, jeweils auf die erste Spalte angewandt, analog für untere Dreiecksgestalt:
ai j = 0 für i < j.
2.11c
Verschwinden der Determinanten
Oft ist der Wert der Determinanten einer n × n -Matrix A nicht so wichtig, sondern vor allem, ob er
Null ist oder nicht. So sind z.B. folgende Aussagen äquivalent:
• det(A) 6= 0,
• A hat maximalen Rang n,
• Die Zeilenvektoren sind linear unabhängig, d.h. sie bilden eine Basis im Rn ,
• dasselbe für die Spaltenvektoren.
Umgekehrt verschwindet die Determinante, wenn z.B. eine Zeile (Spalte) nur Null enthält oder wenn
zwei Zeilenvektoren bzw. Spaltenvektoren (anti)parallel sind. Weitere Aussagen zur Lösbarkeit von
Gleichungen, Invertierbarkeit einer Matrix und zu deren Eigenwerten, wo Determinanten eine wichtige Rolle spielen, siehe in 3.2b, 3.4a und 4.1.
2.11d
Elementare Zeilen- und Spaltenoperationen bei Determinanten
Von den elementaren Zeilenoperationen 2.8 läßt nur (b), die Addition des Vielfachen einer Zeile, die
Determinante unverändert. Anders als beim Rang, der bei allen elementaren Zeilen- und Spaltenoperationen unverändert bleibt (2.9), wechselt beim Vertauschen zweier beliebiger Zeilen das Vorzeichen von det(A). Entsteht B aus A durch Multiplikation einer Zeile mit einer Zahl c 6= 0, so gilt
det(B) = c det(A). Daraus folgt insbesondere für n × n -Matrizen: det(µ A) = µn det(A). Für
Spaltenoperationen gilt dasselbe entsprechend.
Geht  aus A durch eine Kette von elementaren Zeilen- und Spaltenoperationen hervor (c 6= 0
beachten!!), dann gilt jedoch immer noch die wichtige Eigenschaft:
det(A) 6= 0 ⇐⇒ det(Â) 6= 0.
Insbesondere für große Matrizen ist dies ein einfaches Verfahren, um zu entscheiden, ob eine Matrix
eine verschwindende Determinante hat.
2.11e
Zur Warnung
Es gibt keine allgemeine Beziehung zwischen det(A + B) und det(A), det(B).
Es gilt det(µ A) = µn det(A), im allgemeinen nicht µ det(A) und nicht |µ| det(A).
RWTH Aachen
Mathematik I+II
3
3
Lineare Gleichungssysteme und inverse Matrizen
42
Lineare Gleichungssysteme und inverse Matrizen
Nachdem wir in Abschnitt G.3 bereits an den Gaußschen Algorithmus erinnert hatten, verschaffen wir
uns jetzt einen Überblick über die Lösbarkeit und insbesondere über die Struktur der Lösungsgesamtheit linearer Gleichungssysteme. Mit der inversen Matrix entwickeln wir ein weiteres Hilfsmittel, das
nicht nur zur praktischen Lösung der Gleichungssysteme sehr nützlich ist.
3.1
Einleitung und Erinnerung
Die eindimensionale lineare Gleichung a x = b hat bei a 6= 0 genau eine Lösung für jedes b,
nämlich x = a−1 b . Ist aber a = 0, so ist sie unlösbar für b 6= 0, oder sie wird von allen x ∈ R
gelöst bei b = 0.
Die gleiche Alternative: keine Lösung — genau eine Lösung — unendlich viele Lösungen — gilt
auch bei linearen Gleichungssystemen in höherer Dimension
A x = b, x ∈ Rn , b ∈ Rm , A eine m × n − Matrix.
Das sind m lineare Gleichungen für n Unbekannte xi :
a11 x1 + a12 x2 + . . . + a1 n xn = b1 ,
...
am 1 x1 + am 2 x2 + . . . + am n xn = bm .
Der in G.3 behandelte Gauß-(Jordan-) Algorithmus ist ein einfaches systematisches Verfahren, um ein
beliebiges lineares Gleichungssystem derart umzuformen, daß die Lösungsmenge oder die Unlösbarkeit abgelesen werden kann. Der Algorithmus ist in vielen Computerprogrammen implementiert. Die
Umformungen einer Matrix durch elementare Zeilenoperationen können auch als Multiplikation von
links mit invertierbaren einfachen Matrizen beschrieben werden (2.8). Das hat große theoretische
aber weniger praktische Bedeutung. Entsprechende Spaltenoperationen beschreibt man auch durch
Multiplikation von rechts.
Im Fall m = n einer quadratischen Koeffizientenmatrix A mit det(A) 6= 0 gibt es eine inverse
n × n -Matrix A−1 derart, daß A−1 A = 1n = A A−1 . In diesem Fall gibt es zu jedem b ∈ Rn eine
eindeutige Lösung x = A−1 b. Die Berechnung der Inversen kann mit dem Gaußschen Algorithmus
erfolgen (3.7) oder mit Hilfe von Determinanten (Adjunkten), siehe 3.6. Im quadratischen Fall kann
das System auch direkt mit der Cramerschen Regel (3.6) gelöst werden.
Das lineare Gleichungssystem kann auf mehrere Arten gelesen werden. Entweder faßt man es auf
als System von bis zu m Gleichungen für Hyperebenen im Rn
A
n
A
zA
i · x = bi , i = 1, . . . , m , zi ∈ R Zeilenvektoren von A, zi 6= 0,
gesucht ist dann die Schnittmenge der Hyperebenen. Im n = 3-dimensionalen Raum ist das die
Schnittmenge von Ebenen. Sie schneiden sich gar nicht, in einem Punkt, in einer Geraden oder in
einer Ebene. Oder man betrachtet das System als eine Vektorgleichung im Rm
n
X
A
m
sA
j xj = b, sj = R , j = 1, . . . , n, die Spaltenvektoren von A,
j=1
gesucht sind dann Koeffizienten xj , so daß die Linearkombination der Spaltenvektoren die rechte
Seite b ergibt. Oder man faßt das Gleichungssystem zu einer Matrixgleichung zusammen: A x = b,
x ∈ Rn , b ∈ Rm .
Wichtig sind die Koeffizientenmatrix A und die erweiterte Koeffizientenmatrix Aerw des Gleichungssystems




..
a11 . . . a1 n
a
.
.
.
a
.
b
1n
 11
..  ,
.. .1  = (A ... b).
..
A =  ...
Aerw =  ..
.
.. .. 
.
.
am 1 . . . am n
am 1 . . . am n .. bm
RWTH Aachen
Mathematik I+II
3
Lineare Gleichungssysteme und inverse Matrizen
43
Die Matrix Aerw enthält dieselbe Information wie das ausgeschriebene lineare Gleichungssystem,
siehe G.
3.2
Rangkriterien für die Lösungsmenge
Oft ist man in Anwendungen zunächst an der Frage nach der Lösbarkeit eines linearen Gleichungssystems und an der Größe des Lösungsraumes interessiert, bevor man konkrete Lösungen berechnet.
Dafür dienen die folgenden beiden Rangkriterien.
3.2a
Satz über die Lösbarkeit eines linearen Gleichungssystems
Das System ist genau dann lösbar, wenn
Rang(A) = Rang(Aerw ).
Beweisidee: Da der Rang sich bei Anwendung des Gaußschen Algorithmus nicht ändert (siehe 2.9),
kann man die Aussage an der Gauß-Gestalt ablesen. Unterschiedlicher Rang bedeutet, daß eine Zeile
der Form
!
0 · x1 + . . . + 0 · xn = bj 6= 0
auftritt, die unlösbar ist.
2
Eine andere Argumentation ist die folgende: wenn der Rang durch Hinzunahme von b nicht erhöht
wird, dann liegt b bereits in der linearen Hülle der Spaltenvektoren, das Gleichungssystem ist lösbar.
2
Im lösbaren Fall ist die Dimension des Lösungsraumes die Dimension n des Variablenraumes
x ∈ Rn abzüglich der Zahl der unabhängigen Gleichungen, die erfüllt sein müssen. Letztere wird
durch den Rang der (erweiterten) Koeffizientenmatrix gezählt. Somit gilt der
3.2b
Satz über die Dimension des Lösungsraumes
Sei Ax = b, x ∈ Rn und Rang(A) = Rang(Aerw ). Die Anzahl m der Gleichungen ist beliebig.
Die Dimension des affinen Lösungsraumes (siehe 3.3) ist
` = n − Rang(A) ∈ N0 .
Eindeutige Lösbarkeit liegt bei ` = 0 (ein Punkt) vor, also wenn Rang(A) = n. Nach 2.11c ist das
für quadratische Matrizen bei det(A) 6= 0 der Fall. Dann sind die Spaltenvektoren linear unabhängig,
sie bilden eine Basis. Insbesondere zeigt dies, daß jeder Vektor eindeutig als Linearkombination von
Basisvektoren (siehe 1.4) geschrieben werden kann.
Die Lösungsmenge ist bei ` = 1 eine Gerade, ` = 2 eine Ebene im Rn u.s.w.
3.3
Lösungsmengen von homogenen und inhomogenen Gleichungssystemen.
Die Lösungsmenge eines homogenen linearen Gleichungssystems A x = 0, x ∈ Rn ist ein linearer
Unterraum (siehe 1.12) des Rn (der Dimension ` = n − Rang(A) ): Seien x, x̃ Lösungen, λ ∈ R,
dann sind auch λx und x + x̃ Lösungen:
A(λ x) = λ(A x) = λ 0 = 0, A (x + x̃) = A x + A x̃ = 0 + 0 = 0.
Sei nun xp eine beliebige feste partikuläre Lösung“ des inhomogenen Systems, also A xp =
”
b 6= 0 , also insbesondere xp 6= 0. Wenn xh eine Lösung des zugehörigen homogenen Systems
A xh = 0 ist, dann ist x = xp + xh ebenfalls eine Lösung des inhomogenen Systems: A x =
RWTH Aachen
Mathematik I+II
3
Lineare Gleichungssysteme und inverse Matrizen
44
A (xp + xh ) = b + 0 = b. Jede Lösung des inhomogenen Systems läßt sich so gewinnen, denn seien
xp , x̃p beliebige Lösungen, dann gilt A (xp − x̃p ) = A xp − A x̃p = b − b = 0. Zwei beliebige
Lösungen des inhomogenen Systems unterscheiden sich um eine Lösung des homogenen Systems.
Also gilt der
Satz: Die allgemeine Lösung (d.h. Lösungsgesamtheit) eines inhomogenen linearen Gleichungssystem erhält man aus einer (beliebig gewählten) partikulären Lösung plus der allgemeinen Lösung des
zugehörigen homogenen Systems.
Die Lösungsmenge eines inhomogenen Gleichungssystems ist damit ein affiner Teilraum (siehe
1.12). Er ist genau dann ein linearer Teilraum, wenn er den Nullvektor enthält, also wenn b = 0.
Die im Satz genannte Eigenschaft der Lösungsmenge linearer (in)homogener Gleichungen wird uns
später wieder begegnen, z.B. bei Differentialgleichungen.
Beispiel:
x1 + 2x2 + 4x3 = 1
3x2 − x3 = 0
wird von x1 = 1, x2 = x3 = 0 gelöst (eine leicht zu ratende partikuläre Lösung).
  Das
homogeneSy1
−14/3
(h)
(h)



0
1/3  =
stem wird von x(h)
=
t
∈
R
,
x
=
t/3,
x
=
−14t/3
gelöst,
also
ist
+t
3
2
1
0
1


1 − 14 t/3

 , t ∈ R , die allgemeine Lösung.
t/3
t
3.4
Die Inverse einer quadratischen Matrix
Sei A eine quadratische n × n -Matrix, die eine lineare Abbildung des Rn in sich beschreibt. Wenn
zu dieser Abbildung eine Umkehrabbildung existiert, dann ist letztere auch linear und wird durch
eine n × n -Matrix beschrieben, die wir mit A−1 bezeichnen. In diesem Fall kann die Gleichung
A x = y durch x = A−1 y nach x aufgelöst“ werden. Da die Komposition linearer Abbildungen
”
dem Produkt der Matrizen entspricht (2.6), gilt dann A−1 A = 1n = A A−1 . Die Matrix A−1 heißt
die zu A inverse Matrix.
Im eindimensionalen Fall ist die lineare Abbildung x → y = a x genau dann umkehrbar, wenn
a 6= 0: x = (1/a) y. Für die Verallgemeinerung auf höhere Dimensionen gibt es viele äquivalente
Beschreibungen, die wir im folgenden Satz zusammenfassen. Die Multiplikation mit der inversen
Matrix überträgt die Division durch eine Zahl a 6= 0 auf höherdimensionale Fälle, in denen das
möglich ist.
3.4a
Satz über reguläre (invertierbare) Matrizen
Zu einer n × n -Matrix A gibt es genau dann eine Inverse, d.h. eine n × n -Matrix A−1 mit
A−1 A = 1n = A A−1 ,
wenn eine (und dann jede) der nachfolgenden äquivalenten Charakterisierungen erfüllt ist:
(i) Rang(A) = n (A hat maximalen Rang),
(ii) det(A) 6= 0,
(iii) A x = b ist für jedes b ∈ Rn eindeutig lösbar (und x = A−1 b ist die Lösung),
(iv) Der Gauß-Jordan-Algorithmus zur Bestimmung der Inversen (siehe 3.7) führt zum Ziel.
Wenn eine Inverse A−1 existiert, so ist sie eindeutig, A heißt dann invertierbar oder regulär. Es gilt
det(A−1 ) = 1/ det(A), denn mit dem Determinantenmultiplikationssatz 2.11a ist det(A−1 ) det(A) =
det(A−1 A) = det(1n ) = 1.
RWTH Aachen
Mathematik I+II
3
Lineare Gleichungssysteme und inverse Matrizen
3.4b
45
Bemerkungen zum Satz
Einfache Beispiele von inversen Matrizen haben wir bereits in Abschnitt 2.8 kennengelernt (Umkehrung der elementaren Zeilenoperationen).
Kriterium (ii) ist ein einfacher Test (z.B. mit einem guten Taschenrechner oder durch elementare
Zeilen- und Spaltenoperationen, siehe 2.11d), um zu sehen, ob es sich lohnt, die Berechnung von
A−1 zu versuchen. Die Äquivalenz von (i) und (ii) wurde bereits in 2.11c angegeben.
Daß x = A−1 b die Gleichung löst, ist offensichtlich, denn mit der Assoziativität der Matrixmultiplikation gilt
A x = A (A−1 b) = (A A−1 ) b = 1n b = b.
Daß die Lösung eindeutig ist (und damitPauch A−1 ) folgt daraus, daß wegen der Rangbedingung
(i) das homogene System A x = 0 ⇔
sA
i xi = 0 nur die triviale Lösung x = 0 hat, denn die
A
Spaltenvektoren si der Matrix A sind linear unabhängig.
3.5
Berechnung der inversen Matrix, Spezialfälle
In diesem Abschnitt behandeln wir einige Spezialfälle, effektive Verfahren für beliebige Matrizen
folgen in 3.6 und 3.7.
3.5a n = 1 und n = 2
A = (a), det(A) = a 6= 0, A−1 = (1/a).
µ
¶
a b
A=
, det(A) = a d − b c 6= 0,
c d
A−1 =
1
ad − bc
µ
d
−c
−b
a
¶
,
man überprüft leicht, daß A−1 A = A A−1 = 12 erfüllt ist. Beispiel:
µ
¶
µ
¶ µ
¶
1
2 1
3 −1
1/2 −1/6
−1
A=
, A =
=
.
0 3
0
2
0
1/3
6
3.5b
Diagonalmatrizen beliebiger Dimension


A =
d1
0
..
0
.


−1
, det(A) = d1 · d2 · . . . · dn 6= 0, A

1/d1

=
0
dn
..
0
.


.
1/dn
In den Abschnitten 4.18b und 4.5 werden wir sehen, wie geeignete Matrizen durch Wahl einer angepaßten Basis in Diagonalform überführt werden können.
3.5c
Produkt und Inverse
Seien A, B zwei invertierbare n × n-Matrizen, dann gilt:
(µA)−1 =
RWTH Aachen
1 −1
A ,
µ
(A B)−1 = B −1 A−1 (Reihenfolge beachten!)
Mathematik I+II
3
Lineare Gleichungssysteme und inverse Matrizen
3.6
46
Die Matrixinversion mit Adjunkten, Cramersche Regel
Diese Regel zur Berechnung der Inversen ist zwar immer anwendbar, aber meist nur für n ≤ 3
zweckmäßig. Insbesondere für Dimensionen 4 oder höher ist das Gauß-Jordan-Verfahren gewöhnlich
rechnerisch einfacher, es sei denn die Matrix hat spezielle Eigenschaften.
Seien Ak` die in 2.10b definierten Adjunkten der Matrix A, dann gilt




A11 A21 . . . An 1
A11 A12 . . . A1 n tr
1  .
1  .

..
..  .
A−1 =
 ..
 ..
=
.
. 
det(A)
det(A)
A1 n
. . . An n
An 1
. . . An n
Die Formel für n = 2 kann man hieraus direkt ablesen! Die in der Formel auftretende Matrix wird
auch als adjungierte Matrix“ zu A bezeichnet, jedoch Vorsicht, da der Begriff adjungierte Matrix“
”
”
auch in ganz anderem Sinn gebräuchlich ist!
Die Regel wird auch als Cramersche Regel für die Invertierung von Matrizen bezeichnet, denn
sie ist eine Variante der folgenden Formel dieses Namens für Lösungen linearer Gleichungssysteme
Ax = b:
xi =
1
A
A
A
det(sA
1 , . . . , si−1 , b, si+1 , . . . , sn ),
det A
i = 1, . . . , n,
wobei sA
j die Spalten der quadratischen Koeffizientenmatrix A sind und die i-te Spalte durch die
rechte Seite b ersetzt wurde.
3.7
Matrixinversion mit dem Gauß-Jordan Verfahren
3.7a
Der Algorithmus
Die Gleichung A A−1 = 1n kann man spaltenweise lesen als n lineare Gleichungen A s̃j = ej ,
wobei s̃j die j -te Spalte von A−1 ist und der Standard Basisvektor ej die j -te Spalte von 1n ist.
.
Diese n Systeme mit erweiterter Koeffizientenmatrix (A .. e ) können simultan mit dem folgenden
j
Ansatz gelöst werden, bei dem die Standard-Einheitsvektoren zur Einheitsmatrix zusammengefaßt
werden. Die erweiterte n × 2 n -Matrix
.
(A .. 1n )
ist mit dem Gauß-Jordan Verfahren (dem Gaußschen Algorithmus, zur Bezeichnungsweise siehe das
Ende von G.3) durch elementare Zeilenoperationen so umzuformen, daß links 1n zu stehen kommt.
Dies ist genau dann möglich, wenn A invertierbar ist. Dabei entsteht A−1 auf der rechten Seite:
.
.
elem. Zeilenop.
(A .. 1n ) −−−−−−−−→ (1n .. A−1 ).
3.7b
Beispiel
Mit a ∈ R sei

1
.

(A .. 13 ) =  0
−2

1

→0
0
RWTH Aachen
2
0
−1
0
a
0
..
..
..
..
.

0

0 
1
2
0
−5
0
a
0
..
..
..
..
.
1
0
2
0
1
0


0
1


0  −−−−−→  0
z3 →−z2
z2 →z3
1
0
1
0
0
0
1
0
+2 z1
2
1
0
0
0
a
..
..
..
..
.
1
−2
0
0
0
1

0
−2 z2

−1 
0
Mathematik I+II
3
Lineare Gleichungssysteme und inverse Matrizen

1

→ 0
0
0
1
0
0
0
a
..
..
..
..
.
Für a 6= 0 erhalten wir

1 0 0 ...
5

.
.
 0 1 0 . −2
.
0 0 1 ..
0
0
0
1

2

−1  .
0
0
0
1/a

2

−1  ,
0
5
−2
0
47

A−1
5

−2
=
0
0
0
1/a

2
−1  .
0
Für a = 0 ist links keine Einheitsmatrix zu erzeugen. Man berechnet leicht, daß det(A) = a. In
Übereinstimmung mit dem Ergebnis beim Gauß-Jordan Verfahren ist A also genau dann invertierbar,
wenn a 6= 0.
Anstelle der Zeilenoperationen, die auf der linken Seite von der oberen Dreiecksgestalt zur Diagonalform führen, kann man auch ein lineares Gleichungssystem lösen. Die Berechnung mit Adjunkten
ist hier (Dimension n = 3) etwa genauso schnell.
3.8
Lösungshinweise für lineare Gleichungssysteme
Sei das System A x = b nicht so einfach, daß durch offensichtliche Elimination die Lösung direkt gefunden werden kann. Dann kann man (bei exakter Rechnung) immer durch den Gaußschen
Algorithmus die Lösungsgesamtheit bestimmen oder die Unlösbarkeit feststellen.
Wenn n = m (Zahl der Gleichungen gleich Zahl der Unbekannten), so ist zu unterscheiden, ob
die Koeffizientenmatrix A invertierbar ist. Wenn A−1 existiert und die Gleichung für viele rechte
”
Seiten“ b zu lösen ist, dann ist es günstiger, erst einmal A−1 zu berechnen und dann die Lösungen
als Produkt A−1 b zu berechnen. Dies ist viel einfacher, als für jedes b den Gaußschen Algorithmus
erneut durchzuführen. Für nur eine oder wenige rechte Seiten b lohnt das aber nicht. Auch die
Cramersche Regel kann in letzterem Fall angewandt werden.
Bei der Lösung linearer Systeme mit Computerprogrammen können die unvermeidbaren kleinen
Rundungsfehler Probleme verursachen: Wenn anstelle einer Null eine sehr kleine Zahl übrigbleibt“
”
und anschließend durch diese Zahl dividiert wird (z.B. um eine führende Eins zu erhalten) so können
völlig falsche Resultate entstehen. Gute Programme verringern diese Gefahr durch Pivotierung“, sie
”
können sie aber nie ganz ausschließen. Besonders bei großen Systemen (n = 103 − 106 ist in Anwendungen nicht ungewöhnlich!) können leicht Koeffizienten ganz unterschiedlicher Größenordnung
auftreten, die bei der numerischen Bearbeitung Schwierigkeiten bereiten.
Für große Systeme mit quadratischer invertierbarer Matrix A ist es aus den genannten Gründen
meist unzweckmäßig, die inverse Matrix zu berechnen. Im Rahmen der numerischen Mathematik sind
viele andere Verfahren entwickelt worden, die zumeist spezielle Eigenschaften von A ausnutzen. So
kann die Verläßlichkeit des Ergebnisses erhöht werden und Rechenzeit (viel Geld) gespart werden.
Die Behandlung solcher Verfahren geht über den Rahmen dieser Vorlesung hinaus.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4
48
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen
zweiter Ordnung
In diesem Kapitel betrachten wir nur quadratische Matrizen, die z.B. lineare Abbildungen des Rn in
sich beschreiben. Die Abbildungseigenschaften sind einfach zu kontrollieren, wenn wir Richtungen
kennen, die bei der Abbildung unverändert bleiben. Das führt auf den Begriff des Eigenvektors.
Besonders wichtige Matrizen lassen sich damit durch Wahl einer Basis, d.h. durch angepaßte
Koordinaten, in die viel einfachere und übersichtlichere Diagonalform überführen. Für einige Anwendungen siehe 4.1c.
4.0
Erinnerung: Polynome
Ein Polynom P (z) in einer Variablen z ist eine endliche Summe der Form
P (z) =
n
X
bk z k = b0 + b1 z + b2 z 2 + . . . + bn z n .
k=0
Bei den uns besonders interessierenden Polynomen sind die Koeffizienten bj ∈ R, wir sprechen dann
von reellen Polynomen“ oder Polynomen mit reellen Koeffizienten“. Die Variable z kann reell sein
”
”
(wie von der Schule vertraut) oder komplex (später mehr dazu) oder eine n × n-Matrix oder . . . In
Polynomen wird immer z 0 = 1 für alle z benutzt (bzw. z 0 = 1n im Falle von n × n-Matrizen).
Der Grad eines Polynoms ist die höchste tatsächlich auftretende Potenz, im Beispiel oben ist
Grad(P (z)) = n falls bn 6= 0.
Ist z = a eine Nullstelle des Polynoms Pn (z) vom Grad n ≥ 1, also Pn (a) = 0, dann kann man
Pn ohne Rest durch den Linearfaktor (z − a) teilen (Polynomdivision), es gibt dann ein Polynom
Pn−1 vom Grad n − 1, so daß
Pn (z) = (z − a) Pn−1 (z).
Die reellen Polynome, die in diesem Kapitel als charakteristische Polynome“ von reellen symme”
trischen Matrizen, von Dreiecksmatrizen oder einigen weiteren speziellen Matrizen auftreten werden,
haben die besondere Eigenschaft, daß sie nur reelle Nullstellen haben. In diesem Spezialfall kann ein
Polynom vollständig in reelle Linearfaktoren zerlegt werden:
Pn (z) = bn (z − a1 ) (z − a2 ) . . . (z − an ),
wobei die aj ∈ R Nullstellen sind, Pn (aj ) = 0, die aj brauchen nicht alle verschieden zu sein. [ Den
allgemeinen Fall, bei dem z.B. auch Ausdrücke wie (z 2 + 1) auftreten, die keine reellen Nullstellen
haben, behandeln wir später mit Hilfe der komplexen Nullstellen. ]
Die Ordnung oder Vielfachheit einer Nullstelle ist die Häufigkeit, mit der sie in der Zerlegung in
Linearfaktoren auftritt, z.B. liegt bei dem Polynom vom Grad 8
P8 (z) = −5 (z − 2)(z − 3)(z + 8)(z − 3)(z − 2)(z − 2)(z − 5)(z − 2)
= −5 (z − 2)4 (z − 3)2 (z + 8) (z − 5)
eine vierfache Nullstelle 2 vor (die 2 ist eine Nullstelle der Ordnung 4), 3 ist eine doppelte Nullstelle,
5 und -8 sind einfache Nullstellen. Die Ordnungen addieren sich zum Grad des Polynoms auf: 4 +
2 + 1 + 1 = 8.
4.1
Eigenwerte und Eigenvektoren
4.1a
Definition und geometrische Bedeutung
Wenn für die (reelle) n × n-Matrix A die Gleichung
Ax = λx
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
49
eine reelle Lösung x ∈ Rn , x 6= 0 für ein λ ∈ R hat (oder eine komplexe mit λ ∈ C, x ∈ Cn , d.h.
xj ∈ C, x 6= 0), so heißt λ ein Eigenwert von A und x 6= 0 ein Eigenvektor zum Eigenwert λ.
(Die triviale Lösung x = 0 für alle λ muß ausgeschlossen werden!) Ein Eigenvektor beschreibt eine
Gerade (Richtung), die unter der linearen Abbildung unverändert bleibt, der zugehörige Eigenwert λ
beschreibt, ob A diese Richtung z.B. streckt (bei |λ| > 1), staucht (|λ| < 1), umkehrt (λ < 0)
oder zu Null macht (λ = 0).
Mit x ist auch c x, c 6= 0 ein Eigenvektor zu demselben Eigenwert λ. Deshalb spricht man
auch oft von Eigenrichtungen zum Eigenwert λ. Die Eigenvektoren zu einem Eigenwert λ bilden
zusammen mit 0 einen linearen Unterraum (1.12), denn aus A x = λ x und A x̃ = λ x̃ folgt auch
A(x + x̃) = A x + A x̃ = λ x + λ x̃ = λ(x + x̃).
Der lineare Teilraum
{0} ∪ {Eigenvektoren von A zum Eigenwert λ}
heißt Eigenraum der Matrix A zum Eigenwert λ.
4.1b
Beispiele
(i) A = 1n , A x = 1 · x für alle x ∈ Rn . Also ist jeder Vektor x 6= 0 ein Eigenvektor zum
Eigenwert1.

d1

. . 0  eine Diagonalmatrix. Für die Standardbasisvektoren e gilt dann A e =
(ii) A = 

.
j
j
0
dn
dj ej . Somit sind alle dj Eigenwerte mit ej als Eigenvektoren.
Das gilt auch umgekehrt: wenn A ej = dj ej für alle Standardbasisvektoren, dann hat A die
angegebene
(warum?)
µ Diagonalgestalt.
¶
µ ¶
2
1
(iii) A = 0 7 hat e1 = 10 als Eigenvektor zum Eigenwert λ = 2, denn A e1 = 2 e1 .
4.1c
Einige Anwendungen
Die geometrische Bedeutung von Richtungen, die bei linearen Abbildungen unverändert bleiben, wird
bei der Diskussion von Kurven und Flächen zweiter Ordnung deutlich. Außerdem sind Eigenwerte
und Eigenvektoren wichtig zur Lösung von Systemen linearer Differentialgleichungen, die eine (approximative) Zeitentwicklung von dynamischen Systemen beschreiben, und bei der Berechnung von
iterierten Abbildungen An , siehe 4.19b. Bei schnell drehenden Körpern muß die Drehachse mit einem Eigenvektor der Trägheitsmatrix zusammenfallen, sonst schlagen die Lager aus (Auswuchten
von Reifen). Die Achse, die zum größten Eigenwert gehört, ist stabil. Bei Schwingungsproblemen
treten Eigenwerte als charakteristische Frequenzen auf.
Zur Berechnung der Verformungen elastischer Körper (z.B. Stahlträger) bei Belastungen durch
Druck oder Zug benötigt man ebenfalls die Eigenwerte und Eigenvektoren. Extremaleigenschaften
nichtlinearer Funktionen können an den Eigenwerten einer geeigneten Matrix von Ableitungen, der
Hesseschen Matrix, abgelesen werden.
4.2
Charakteristisches Polynom, Berechnung der Eigenwerte und Eigenvektoren
A x = λ x = λ 1n x ⇐⇒ (A − λ1n ) x = 0

a11 − λ
a12
a13
 a21
a22 − λ a23
A − λ 1n = 
 ...
···
an 1
an 2
...
RWTH Aachen
wobei die Matrix A − λ 1n ausgeschrieben lautet:

...
a1 n
...
a2 n 
.
..

.
. . . an n − λ
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
50
x = 0 ist immer eine Lösung, ist aber (definitionsgemäß) kein Eigenvektor. Nach dem Satz über
die Dimension des Lösungsraumes 3.2b gibt es nichttriviale Lösungen des homogenen Gleichungssystems (A − λ1n ) x = 0 genau dann, wenn Rang(A − λ1n ) < n ⇐⇒ det(A − λ1n ) = 0, für
die letzte Äquivalenz siehe 2.11c.
Also gilt “λ ist Eigenwert von A” ⇐⇒ “ det(A − λ1n ) = 0 ” ⇐⇒ “(A − λ1n ) x = 0 hat eine
Lösung x 6= 0”. Wir können sogar entscheiden, ob λ ein Eigenwert ist, ohne zugleich einen Eigenvektor zu bestimmen! P (λ) := det(A − λ1n ) ist ein Polynom vom Grad n in der Variablen λ mit
Koeffizient bn = (−1)n 6= 0 bei λn , es heißt charakteristisches Polynom der Matrix A. Für eine reelle
Matrix A hat das charakteristische Polynom reelle Koeffizienten. Ob das charakteristische Polynom
reelle und/oder komplexe Nullstellen hat, hängt von den Koeffizienten ab. Wenn A symmetrisch ist:
Atr = A oder eine Dreiecksmatrix, dann hat das charakteristische Polynom nur reelle Nullstellen.
Für ungerades n hat jedes Polynom mindestens eine reelle Nullstelle. Zu Polynomen siehe 4.0 und
6.1. Als (algebraische) Vielfachheit eines Eigenwertes λj bezeichnet man die Vielfachheit (oder Ordnung) von λj als Nullstelle des charakteristischen Polynoms. Die Eigenwerte, die nicht einfach sind,
heißen entartet.
Im Falle komplexer Nullstellen werden wir später auch komplexe Eigenvektoren betrachten. Auch
wenn wir letztlich an reellen Größen interessiert sind, ist das als Rechenvereinfachung zweckmäßig,
z.B. bei der Beschreibung von Schwingungen. Diesen Fall behandeln wie erst später.
Manche Autoren benutzen eine andere Vorzeichenwahl P̃ (λ) := det(λ 1n −A) = (−1)n det(A−
λ1n ) mit b̃n = 1. Da wir vor allem an den Nullstellen interessiert sind, ist der Unterschied unerheblich. Mit demselben Namen tritt ein nahe verwandtes charakteristisches Polynom“ bei linearen
”
Differentialgleichungen auf.
4.2a
Beispiel mit reellen Eigenwerten
µ
¶
2 1
A=
,
3 4
µ
¶
2−λ
1
A − λ 12 =
,
3
4−λ
das charakteristische Polynom det(A − λ12 ) = (2 − λ)(4 − λ) − 3 = λ2 − 6 λ + 5 hat zwei reelle
Nullstellen, die Eigenwerte λ1 = 5, λ2 = 1. Bestimmung von Eigenvektoren:
µ
¶
−3 1
A − λ1 12 = A − 5 12 =
,
3 −1
(A − 5 12 ) x = 0
⇐⇒
−3x1 + x2 = 0,
3x1 − x2 = 0,
wird von x1 = t, x2 = 3t, t ∈ R gelöst, Eigenvektoren zum Eigenwert 5 sind (t, 3t), t 6= 0, z.B.
(1, 3), (1/3, 1), (−1, −3). Nun zum anderen Eigenwert λ2 = 1:
µ
¶
1 1
A − λ2 12 = A − 12 =
,
3 3
(A − 12 ) x = 0
⇐⇒
x1 + x2 = 0,
3x1 + 3x2 = 0,
wird von x1 = −x2 = t ∈ R gelöst, z.B. ist (1, −1) ein Eigenvektor zum Eigenwert 1.
Bemerkung: Die Bestimmung eines Eigenvektors ist die Lösung eines linearen Gleichungssystems
durch einen nichttrivialen Vektor. Dies ist genau dann möglich, wenn der Eigenwert zuvor richtig
bestimmt wurde (Rechenkontrolle!).
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.2b
51
Beispiel Dreiecksmatrix
A ist untere Dreiecksmatrix, abhängig von einem Parameter γ ∈ R ,




2 0 0
2−λ
0
0
1−λ
0 ,
A =  2 1 0 , (A − λ 13 ) =  2
−1 γ 3
−1
γ
3−λ
Mit 2.11b hat das charakteristische Polynom det(A − λ 13 ) = (2 − λ)(1 − λ)(3 − λ) Produktgestalt! Dies ist immer so bei Dreiecksmatrizen, die Eigenwerte stehen auf der Diagonalen, hier
λ1 = 2, λ2 = 1, λ3 = 3.
(A − 2 13 ) x = 0
⇐⇒
2x1 − x2
= 0,
−x1 + γ x2 + x3 = 0,
x1 = t, x2 = 2t, x3 = t − γ 2 t, t ∈ R ist Lösung, (1, 2, 1 − 2 γ) ist ein Eigenvektor zum
Eigenwert 2.
Entsprechend berechnet man für die anderen Eigenwerte: zu λ2 = 1 ist (0, 2, −γ) ein Eigenvektor
und zu λ3 = 3 gehört z.B. der Eigenvektor (0, 0, 1). Da der Parameter γ nicht auf der Diagonalen
von A steht, sind die Eigenwerte unabhängig von γ, die Eigenvektoren hängen jedoch teilweise von
γ ab.
Bemerkung zu Dreiecksmatrizen: Es gilt

 

 
 
 
λ1 . . . . . . ∗
λ1
1
1
0
0
0
..  0

 ..
  .. 
.. 



0
λ2 . . . .   

 . λ2
 .
.



=
λ
bzw.
=
λ




.
1  .. 
n ,
.
..
..


.
.



. ..   .. 
.
0
0
.
. ...
0
0
1
1
∗ . . . . . . λn
0
λn
also hat bei oberer Dreiecksgestalt der obere“ Eigenwert einen einfachen oberen“ Eigenvektor und
”
”
entsprechend für unten“.
”
4.3
Eigenwerte und Eigenvektoren symmetrischer Matrizen
Besonders starke Aussagen gelten für symmetrische Matrizen. Wir werden diesen in diesem Kapitel
bei Kurven und Flächen zweiter Ordnung begegnen, auch Matrizen, die Trägheitsmomente etc. beschreiben, sind symmetrisch. Zur quadratischen Approximation von Funktionen mehrerer Variabler
dienen die symmetrischen Hesseschen Matrizen, sie sind nötig bei der Suche nach Extrema.
Wir fassen die wichtigsten Eigenschaften in folgendem Satz zusammen.
4.3a
Satz über Eigenwerte und Eigenvektoren symmetrischer Matrizen
Sei A = Atr eine symmetrische Matrix, dann gilt:
(a) alle Eigenwerte λj sind reell;
(b) die Dimension des Eigenraumes (siehe 4.1a) zum Eigenwert λj ist die Vielfachheit von λj als
Eigenwert (Ordnung, Vielfachheit als Nullstelle des charakteristischen Polynoms);
(c) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal;
(d) es gibt eine Orthonormalbasis (ONB) von Eigenvektoren.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.3b
52
Orthogonalität von Eigenvektoren zu verschiedenen Eigenwerten
Wir erläutern zunächst die Eigenschaft (c). Für zwei Eigenvektoren einer symmetrischen Matrix A =
Atr gelte A s1 = λ1 s1 , A s2 = λ2 s2 , λ1 6= λ2 . Dann sind s1 und s2 orthogonal.
Beweis: Mit der Eigenvektor-Eigenschaft und Regel 2.5e gilt
s1 · A s2 = s1 · λ2 s2 = λ2 (s1 · s2 )
2.5e
= Atr s1 · s2 = A s1 · s2 = λ1 (s1 · s2 ).
Da λ1 6= λ2 folgt s1 · s2 = 0, die behauptete Orthogonalität.
4.3c
2
Weitere Bemerkungen zum Satz
Wenn alle Nullstellen des charakteristischen Polynoms einfach sind, d.h. alle n Eigenwerte verschieden, dann können wir n paarweise orthogonale Eigenvektoren durch Übergang sj → sj /|sj | auf
Länge 1 normieren und erhalten so automatisch eine ONB von Eigenvektoren.
Wenn wir jedoch entartete (mehrfache) Eigenwerte haben, so können wir in jedem der zugehörigen Eigenräume eine ONB wählen (auf viele verschiedene Weisen) und erhalten damit eine ONB im
ganzen Raum.
Wir erinnern daran, daß eine ONB eine besonders zweckmäßige Basis ist, da die Koeffizienten eines beliebigen Vektors bezüglich einer ONB einfach mit Hilfe von Skalarprodukten berechnet werden
können (1.11), man braucht dafür kein lineares Gleichungssystem zu lösen.
4.4
Orthogonale Matrizen
4.4a
Definition orthogonaler Matrizen
Eine reelle n×n-Matrix T heißt orthogonal, wenn sie eine (und dann jede) der folgenden äquivalenten
Eigenschaften hat:
(i) T tr T = 1n ,
(ii) T T tr = 1n ,
(iii) T −1 = T tr ,
(iv) Die Spalten von T sind eine ONB im Rn ,
(v) Die Zeilen von T sind Transponierte einer ONB im Rn ,
(vi) Sei f1 , . . . , fn eine ONB, dann ist auch T f1 , T f2 , . . . , T fn eine ONB im Rn .
Für orthogonale Matrizen gilt det T = ±1, denn mit 2.11 ist (det T )2 = det T · det T
= det(T tr ) det T = det(T tr T ) = 1. Eine orthogonale Matrix mit det T = +1 heißt auch eigentlich orthogonal.
Orthogonale Matrizen sind insbesondere regulär (invertierbar). Ein Vorteil orthogonaler Matrizen
ist, daß die Inverse nicht berechnet zu werden braucht, sondern direkt abgelesen werden kann, man
braucht nur die Spaltenvektoren als Zeilenvektoren in T tr = T −1 einzusetzen. Eine orthogonale
Matrix ist eine zweckmäßige Zusammenfassung einer ONB.
Beweis der Teilaussage (iv) ⇒ (i)“:
”
Bezeichne die Spaltenvektoren von T mit sj , nach (iv) bilden s1 , . . . , sn eine ONB.
Ã
. .
.
T = (s1 .. s2 .. . . . .. sn ),
RWTH Aachen
T tr =
!
str
1
··· ,
str
n
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung

T tr
s1 · s1 s1 · s2
 s2 · s1 s2 · s2
T =
 ...
...
sn · s1
...
53

. . . s1 · sn
...
... 
 = 1n .
...
... 
. . . sn · sn
2
4.4b
Drehungen als Beispiele orthogonaler Matrizen
Drehungen werden durch orthogonale Matrizen beschrieben, z.B. die Drehung in der x1 − x3 -Ebene
(um die x2 -Achse) im R3 um den Winkel α im mathematisch positiven Sinne, d.h. entgegen dem
Uhrzeigersinn:


cos α 0 − sin α
1
0 .
T = T (α) =  0
sin α 0 cos α
Nachrechnen ergibt T tr T = 13 , da cos2 α + sin2 α = 1. Geometrisch beschreiben orthogonale
Matrizen immer Drehungen, wenn det(T ) = det(T tr ) = +1 ( eigentlich orthogonal“) oder Dreh”
spiegelungen bei det T = −1. Beschreibt T (α) eine Drehung um einen Winkel α, dann beschreibt
die k-te Potenz T (α)k = T (k α) eine Drehung um dieselbe Achse um den Winkel k α, k ∈ Z ,
wie man leicht mit den Additionstheoremen für die Winkelfunktionen (E.5 und 6.13b) nachprüft.
Insbesondere ist T (α)−1 = T (−α). Allgemeiner gilt T (α) T (β) = T (α + β).
4.5
Hauptachsentransformation symmetrischer Matrizen
Zu jeder symmetrischen n × n-Matrix A = Atr gibt es eine orthogonale n × n-Matrix T , so
daß T tr A T ≡ T −1 A T = D = Diagonalmatrix mit den Eigenwerten auf der Diagonalen. ( T ist
nicht eindeutig.) Insbesondere können wir leicht sehen, daß die Determinante gleich dem Produkt der
Eigenwerte ist: wegen det(T ) = det(T tr ) = ±1 gilt
det(A) = det(T tr ) det(A) det(T ) = det(T tr A T ) = det(D) = λ1 · λ2 · . . . · λn .
.
.
Beweis: Wähle als Spalten von T = (s1 .. . . . .. sn ) eine ONB von Eigenvektoren von A – die es
nach 4.3a immer gibt (nicht eindeutig) – mit Eigenwerten λ1 . . . λn . Dann ist T orthogonal und es
.
.
gilt A T = (λ1 s1 .. . . . .. λn sn ). Daraus folgt


 tr 
λ1
s1
.
.

.. 0  .
T tr A T = · · · (λ1 s1 .. . . . .. λn sn ) = 

.
str
0
λn
n
2
4.6
Basiswechsel durch orthogonale Matrizen
4.6a
Wirkung auf Vektoren
Jede reguläre Matrix (vgl. 3.4a) kann als lineare Abbildung aufgefaßt werden, die einen Basiswechsel
beschreibt. Wir beschränken uns hier zunächst auf den Fall orthogonaler Matrizen, siehe 4.18a für
den allgemeinen Fall. Orthogonale Matrizen haben den Vorteil, daß sie Orthonormalbasen wieder in
solche überführen, was für Rechnungen vorteilhaft ist, siehe 1.4.
.
.
Die Spaltenvektoren si , i = 1, . . . , n einer orthogonalen Matrix T = (s1 .. . . . .. sn ) bilden eine
ONB (z.B. von Eigenvektoren einer symmetrischen Matrix A ). Da
T e1 = s1 , . . . , T en = sn ,
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
54
folgt

 
n
n
n
n
y1
x1
X
X
X
X
x := T  ...  = T
yi ei =
yi T ei =
yi si =:  ...  =
xj ej .
i=1
i=1
i=1
j=1
yn
xn

Wenn also
x = T y ⇐⇒ y = T
−1
x=T
tr
x,
d.h. yi = si · x, x =
n
X
j=1
xj ej =
n
X
yi si ,
i=1
dann sind xi die Komponenten des Vektors x bzgl. der Standardbasis {ei }, yi die Komponenten
desselben Vektors x bzgl. der ONB B = {s1 , . . . , sn }, das ist y = xB in der Bezeichnungsweise
aus 1.4.
Dasselbe anders ausgedrückt: Wenn xi die Koordinaten eines Vektors (Punktes) im orthonormalen Standard-Koordinatensystem sind, dann sind die yi die Komponenten desselben Vektors (Punktes) im gedrehten (det(T ) = +1) oder gedrehten und gespiegelten (det(T ) = −1) orthonormalen
Koordinatensystem mit si als Koordinatenrichtungen. Diese Bezeichnungsweise werden wir in den
folgenden Abschnitten über Kurven und Flächen zweiter Ordnung benutzen.
µ ¶
a
Ein nützlicher Trick: Wenn im zweidimensionalen Fall bereits s1 =
als (normierter) Eigenb
µ ¶
−b
vektor zu λ1 bestimmt wurde, dann ist s2 =
= s⊥
1 ein (normierter) Eigenvektor zu λ2 (vergl.
a
1.13c).
Im dreidimensionalen Fall: Wenn bereits zwei orthogonale normierte Eigenvektoren s1 und s2
bekannt sind, dann ist mit s3 = s1 × s2 eine (rechtshändige) ONB von Eigenvektoren bestimmt, für
die det(T ) = 1 gilt.
4.6b
Diagonalisierung einer Matrix durch Basiswechsel
Sei nun x → L(x) eine lineare Abbildung des Rn in sich. Wir wissen, daß diese Abbildung durch
eine Matrixmultiplikation beschrieben werden kann, die konkrete Form der Matrix hängt jedoch von
der gewählten Basis ab. Bisher wurde stillschweigend die Standardbasis {ei } benutzt. Sei die symmetrische Matrix A die Matrix, die bezüglich der Standardbasis die lineare Abbildung beschreibt,
also L(x) = Ax. Wir gehen nun zu einer angepaßten Basis, einer ONB von Eigenvektoren von A
über, wodurch sich die Matrixdarstellung der linearen Abbildung zu einer Diagonalmatrix vereinfacht !
Sei T die orthogonale Matrix, die als Spaltenvektoren si eine ONB B aus Eigenvektoren von
A zu Eigenwerten λi hat. Der in 4.6a erläuterte Basiswechsel beschreibt dann den Übergang zu
dem an die symmetrische Matrix A angepaßten Koordinatensystem. Bezüglich dieser neuen Basis
erhalten wir als neue Matrix für dieselbe lineare Abbildung L(x)


λ1
. . 0  = T tr A T.
D=
.
0
λn
Seien – mit der in 4.6a eingeführten Bezeichnungsweise – x die Koordinaten bezüglich der Standardbasisvektoren ei und seien y (bequemer im Gebrauch als die Notation xB aus 1.4) die neuen
angepaßten Koordinaten bezüglich der Eigenvektoren si , also x = T y ⇐⇒ y = T tr x. Dieselbe
Abbildung von Punkten des Rn : x → L(x) = A x wird auch beschrieben durch:
 


y1
λ1 y1
y =  ...  → D y =  ...  , denn A x = A T y = T T tr A T y = T D y,
yn
λ n yn
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
55
oder dieselbe Aussage auf einem anderen Wege:
L(x) = A x = A
n
X
yi si =
i=1
n
X
yi A si =
n
X
i=1
λi yi si .
i=1
Also ist der Komponentenvektor von L(x) bzgl. der ONB {si } der Vektor T tr A T y = D y. Bei
dem durch T vermittelten Koordinatenwechsel ändert sich also die Matrix gemäß A → T tr A T .
Später, in den Abschnitten 4.8 und 4.13, werden wir davon Gebrauch machen, um die Gleichungen
für Kurven und Flächen zu vereinfachen. Für allgemeinere diagonalisierbare Matrizen siehe 4.18 und
für Potenzen von Matrizen siehe 4.19b.
4.7
Definite symmetrische Matrizen, Spur
Die Unterscheidung positiver und negativer reeller Zahlen kann teilweise auf symmetrische Matrizen
A übertragen werden. Die Begriffe der Definitheit dienen uns z.B. bei Kurven und Flächen zweiter
Ordnung und bei der Bestimmung lokaler Extrema.
4.7a
Definitionen
Eine (nichttriviale, d.h. A 6= 0) symmetrische Matrix A mit Eigenwerten {λi } heißt
• positiv definit, wenn alle λi > 0,
• positiv semidefinit, wenn alle λi ≥ 0,
• negativ definit, wenn alle λi < 0,
• negativ semidefinit, wenn alle λi ≤ 0,
• indefinit, wenn ein λi > 0 und auch ein λj < 0 auftritt.
(Die Bezeichnungsweise ist in den Büchern nicht ganz einheitlich.) Viele in den Anwendungen auftretende Matrizen, z.B. die Matrix der Trägheitsmomente, sind aus physikalischen oder anderen Gründen
immer positiv definit, das ist eine gute Rechenkontrolle.
Eine äquivalente Charakterisierung für symmetrische Matrizen ist:
A ist positiv definit
⇐⇒
x · A x > 0 für alle x 6= 0,
A ist positiv semidefinit
⇐⇒
x · A x ≥ 0 für alle x,
und entsprechend für die anderen Fälle.
4.7b
Beispiele, 2 × 2-Matrizen
Für eine beliebige m × n-Matrix B sind B tr B und B B tr symmetrische und positiv semidefinite m × m- bzw. n × n-Matrizen, denn (B tr B)tr = B tr (B tr )tr = B tr B und x · B tr B x =
(B x)tr (B x) = |B x|2 ≥ 0. Wenn eine der Matrizen B tr B oder B B tr regulär ist, so ist sie auch
positiv definit. Das ist z.B. der Fall, wenn B eine beliebige reguläre quadratische Matrix ist.
Für diagonalisierbare 2 × 2-Matrizen folgt aus det(A) = λ1 · λ2 :
det(A) > 0: A ist (positiv oder negativ) definit,
det(A) = 0: A ist semidefinit, nicht definit,
det(A) < 0: A ist indefinit.
Im definiten Fall ist A positiv, wenn a11 > 0 oder Spur A > 0. Es gibt weitere Kriterien für
Definitheit, für die eine Berechnung aller Eigenwerte nicht nötig ist (siehe Formelsammlungen).
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.7c
56
Spur einer Matrix
Außer der Determinanten einer n × n-Matrix A, die nach 4.5 für jede orthogonale Matrix T und
nach 4.18a sogar für jede reguläre Transformationsmatrix T die Gleichung det(T −1 A T ) = det(A)
erfüllt und damit unabhängig von der gewählten Basis ist, ist auch die Summe der Diagonalelemente
einer Matrix, die Spur von A, eine weitere nützliche Invariante.
Spur A :=
n
X
aj j = Spur (T −1 A T )
j=1
für jede reguläre n × n-Matrix T . Für diagonalisierbare Matrizen A, z.B. symmetrische Matrizen,
und ebenfalls für Dreiecksmatrizen folgern wir daraus sofort
Spur A = λ1 + λ2 + . . . + λn ,
wenn λ1 , . . . , λn die Eigenwerte von A sind. Mehrfache Eigenwerte (mehrfache Nullstellen des
charakteristischen Polynoms) müssen mehrfach addiert werden, z.B. Spur(1n ) = n. Da die Spur
leicht zu berechnen ist, kann die Berechnung der Eigenwerte damit sehr einfach kontrolliert werden.
Für (semi)definite 2 × 2-Matrizen (det A ≥ 0) ist A positiv (semi)definit, wenn Spur A > 0,
sonst negativ (semi)definit. Mit
o
o
p
p
1n
1n
λ1 =
Spur A + (Spur A)2 − 4 det A , λ2 =
Spur A − (Spur A)2 − 4 det A
2
2
können die Eigenwerte im zweidimensionalen Fall auch direkt aus der Spur und Determinanten
berechnet werden. Wenn det A = 0, also ein Eigenwert verschwindet, z.B. λ2 = 0, dann ist
λ1 = Spur A.
4.8
Quadratische Gleichungen in der Ebene, Normalformen
Nach den Lösungsmengen linearer Gleichungen in den vorangehenden Kapiteln untersuchen wir nun
als erste Anwendung der Hauptachsentransformation die Lösungsmengen quadratischer Gleichungen im R2 , die geometrisch Kegelschnitten entsprechen. In beliebiger Dimension spricht man von
Quadriken.
In 1.14 konnte das quadratische Optimierungsproblem der Bestimmung kürzester Abstände durch
Beachtung der Orthogonalität auf ein einfacheres lineares Problem reduziert werden. In diesem Kapitel werden wir mit der linearen Hauptachsentransformation 4.5 das allgemeine quadratische Problem
in ein spezielles, elementar lösbares überführen.
³
´
2
1
Eine Kurve zweiter Ordnung in der Ebene ist die Menge der Punkte x
x2 ∈ R , die eine
Gleichung der folgenden Form erfüllen:
a11 x12 + 2 a12 x1 x2 + a22 x22 + 2 b1 x1 + 2 b2 x2 = c
mit aij , bk , c ∈ R. (Die Abspaltung der Faktoren 2 ist zweckmäßig aber nicht einheitlich, unterschiedlich in den Formelsammlungen.) Wir nehmen an, daß nicht alle aij verschwinden, sonst
wären wir in dem schon in 1.13d behandelten Fall einer linearen Gleichung für eine Gerade. Mit der
symmetrischen 2 × 2-Matrix
µ
¶
a11 a12
A=
= Atr 6= 0, a12 = a21 ,
a21 a22
kann die definierende Gleichung äquivalent umgeschrieben werden als Vektorgleichung mit Skalarprodukt
x · Ax + 2b · x = c
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
57
oder – wie wir es im Weiteren tun werden – als reine Matrixgleichung mit Matrixprodukt
xtr A x + 2 btr x = c.
Die Matrix A, die wegen x1 x2 = x2 x1 immer symmetrisch gewählt werden kann, besitzt nach
4.3a eine Orthonormalbasis von Eigenvektoren, bezüglich dieser Basis (neue Koordinaten y) ist A
diagonal, siehe 4.6b. Dies ist die erste Vereinfachung.
4.8a
1. Schritt: A diagonalisieren
Berechne die Eigenwerte λ1 , λ2 von A und wähle eine ONB von Eigenvektoren s1 , s2 , d.h. |s1 |2 =
.
|s2 |2 = 1, s1 · s2 = 0. Mit der durch die orthogonale Matrix T = (s1 .. s2 ) vermittelten Hauptachsentransformation erhalten wir
µ
¶
λ1 0
tr
T AT =D=
0 λ2
und die Koordinatentransformation (Basiswechsel)
x = T y = y1 s1 + y2 s2 ⇐⇒ y = T
tr
µ
¶
s1 · x
x=
,
s2 · x
0
b =T
tr
µ
¶
s1 · b
b=
.
s2 · b
In den neuen Koordinaten ist die Gleichung einfacher:
c = xtr A x + 2 btr x = (T y)tr A T y + 2 btr T y
µ
¶
λ1 0
tr tr
tr
tr
tr
= y T A T y + 2 (T b) y = y
y + 2 (b0 )tr y = c,
0 λ2
wobei 2.5e, btr T = (T tr b)tr =: b0 benutzt wurde. Ausgeschrieben lautet das
λ1 y12 + λ2 y22 + 2 b10 y1 + 2 b20 y2 = c ,
gemischte Produkte der Form y1 y2 treten nicht mehr auf. Für die tatsächliche Berechnung dieser
Form genügt es, die Eigenwerte λ1 , λ2 und eine ONB von Eigenvektoren s1 , s2 zu berechnen sowie
die neuen linearen Koeffizienten bi0 = si · b . Die Matrix T ist nützlich, um die in y-Koordinaten
gefundene Kurve auch durch die ursprünglichen x-Koordinaten auszudrücken, oder man benutzt
einfach x = y1 s1 + y2 s2 .
Wenn keine linearen Terme auftreten (d.h. b = 0), dann braucht man für die Normalform
λ1 y12 + λ2 y22 = c die Eigenvektoren nicht zu berechnen! Den Kurventyp kann man daraus bereits ablesen, nicht allerdings die Orientierung in der Ebene.
Bemerkung: In einigen Formelsammlungen wird z.B. bei det A 6= 0 mit unserem 2. Schritt begonnen. Wir empfehlen jedoch, immer zunächst A zu diagonalisieren. Das führt auch dann sicher
zum Ziel, wenn z.B. durch eine Parameterabhängigkeit in der Gleichung sowohl det A = 0 als auch
det A 6= 0, je nach Parameterwert, auftreten kann.
4.8b
2. Schritt: Lineare Terme eliminieren (soweit möglich)
Wenn λ1 6= 0 ist, so kann der lineare Term 2 b10 y1 durch Verschieben des Ursprungs y = 0 längs
der durch s1 gegebenen Geraden eliminiert werden, und entsprechend, falls λ2 6= 0: Quadratische
Ergänzung ergibt
µ
¶
b10 2 (b10 )2
(b 0 )2
2
0
λ1 y1 + 2 b1 y1 = λ1 y1 +
−
= λ1 z12 − 1
λ1
λ1
λ1
mit z1 = y1 + b10 /λ1 = y1 + b · s1 /λ1 . Evtl. auch z2 = y2 + b20 /λ2 = y2 + b · s2 /λ2 .
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.8c
58
Normalformen
Wenn λ1 6= 0 und λ2 6= 0, so ist die Normalform
λ1 z12 + λ2 z22 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 .
Ist nur ein Eigenwert von Null verschieden, so numerieren wir λ1 6= 0, λ2 = 0 und erhalten mit
z2 = y2 die Normalform
λ1 z12 + 2 b20 z2 = c 0 = c + (b10 )2 /λ1 .
Dasselbe Verfahren ist in beliebiger Dimension anwendbar, wir kommen für den dreidimensionalen
Fall darauf in 4.13 zurück.
4.9
Beispiel für die Transformation in Normalform im R2
Gesucht ist die Kurve zweiter Ordnung, die durch folgende Gleichung beschrieben wird:
√
√
2 x12 + 2 x1 x2 + 2 x22 + 6 2 x1 + 12 2 x2 = 0.
In Matrixschreibweise lautet das xtr A x + 2 btr x = 0 mit
µ
¶
µ √ ¶
2 1
3√2
A=
, b=
, c = 0.
1 2
6 2
Im ersten Schritt bestimmen wir zunächst die Eigenwerte und Eigenvektoren von A.
µ
¶
2−λ
1
det
= (2 − λ)2 − 1 = λ2 − 4λ + 3 = (λ − 1)(λ − 3).
1
2−λ
Wir wählen die Benennung (Reihenfolge) λ1 = 1, λ2 = 3.
µ
¶
µ ¶
1
1 1
1
!
0 = (A − λ1 12 ) s1 =
s1 −→ z.B. s1 = √
,
1 1
2 −1
µ
¶
µ ¶
1 1
−1 1
!
0 = (A − λ2 12 ) s2 =
s
−→ z.B. s2 = √
= s⊥
1.
1 −1 2
2 1
Die beiden ausgewählten Eigenvektoren s1 , s2 bilden eine ONB im R2 . Damit ist die orthogonale
Transformationsmatrix
µ
¶
µ
¶
1
1 1
1 0
mit T tr A T =
, det T = 1,
T =√
0 3
2 −1 1
eine Drehung, und als neue lineare Terme erhalten wir
µ ¶
−3
0
0
0
b1 = s1 · b = −3, b2 = s2 · b = 9, b =
.
9
√
Die im ersten Schritt√transformierte Gleichung lautet also für y1 = s1 · x = (x1 − x2 )/ 2, y2 =
s2 · x = (x1 + x2 )/ 2
y12 + 3 y22 − 2 · 3 y1 + 2 · 9 y2 = 0.
Da beide Eigenwerte nicht verschwinden, können wir im zweiten Schritt durch Verschieben des
Koordinatenursprungs beide linearen Terme eliminieren. Mit
z1 = y1 + b10 /λ1 = y1 − 3, z2 = y2 + b20 /λ2 = y2 + 3, c 0 = c +
(b10 )2 (b20 )2
+
= 36,
λ1
λ2
lautet die neue Normalform
z12 + 3 z22 = 36.
Das beschreibt eine Ellipse, siehe 4.10a.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.10
59
Kegelschnitte in der Ebene
In diesem Abschnitt werden parameterfreie“ Darstellungen der Kegelschnitte durch quadratische
”
Gleichungen behandelt. Auf die Parameterform kommen wir im Zusammenhang mit trigonometrischen und Hyperbelfunktionen zurück.
4.10a
Ellipsen
Wenn λ1 λ2 = det A > 0, so kann immer λ1 > 0 und λ2 > 0 erreicht werden (evtl. die Ausgangsgleichung mit −1 multiplizieren, so daß a11 > 0, das verändert die Lösungsmenge nicht). Mögliche
Lösungen der Gleichung in Normalform mit λ1 > 0, λ2 > 0:


bei c 0 > 0,
Ellipse
λ1 z12 + λ2 z22 = c 0
ein Punkt z = 0
bei c 0 = 0,


keine Lösung
bei c 0 < 0.
p
p
Die Ellipsen haben Halbachsen mit den Längen a = c 0 /λ1 (in Richtung von s1 ) und b = c 0 /λ2
(in Richtung von s2 ), wie man an der äquivalenten Form
³ z ´2 ³ z ´2
1
2
+
=1
a
b
erkennt. Im speziellen Fall λ1 = λ2 ist auch a = b, dann ist die Ellipse ein Kreis mit Radius a.
Die im Beispiel 4.9 berechnete Normalform
³ z ´2 ³ z ´2
1
2
=1
z12 + 3 z22 = 36 ⇐⇒
+ √
6
12
beschreibt eine √
Ellipse mit den Halbachsen – zur Richtung s1 gehörig: a = 6 (große Halbachse)
und zu s2 : b = 12 (kleine Halbachse). Im ursprünglichen x-Koordinatensystem liegt ihr Zentrum
z = 0 ⇐⇒ y = (3, −3) bei
µ
¶µ ¶ µ
¶ µ
¶
1
0√
0√
1 1
3
x=Ty= √
=
=
= 3 s1 − 3 s2 .
−3
−6/ 2
−3 2
2 −1 1
Die große Halbachse liegt in der Richtung (1, −1) und die kleine Halbachse senkrecht dazu in der
Richtung (1, 1).
4.10b
Hyperbeln
Bei λ1 λ2 = det A < 0 wähle die Numerierung so, daß λ2 < 0 < λ1 . Dann beschreibt
(
eine Hyperbel
bei c 0 6= 0,
λ1 z12 − (−λ2 ) z22 = c 0
ein gekreuztes Geradenpaar bei c 0 = 0.
Für c 0 > 0 öffnen sich die Äste der Hyperbeln in die Richtungen des Eigenvektors zum positiven
Eigenwert, hier ±z1 , wie man auch an der äquivalenten Standardform
r
r
³ z ´2 ³ z ´2
c0
c0
1
2
−
= 1,
a=
, b=
a
b
λ1
−λ2
0
erkennt. Bei c < 0 sind die Rollen der p
Koordinaten vertauscht. Im Entartungsfall c 0 = 0 genügen
die Geraden den Gleichungen z1 = ± −λ2 /λ1 z2 = ±a/b z2 . Die gekreuzten Geraden sind
zugleich die Asymptoten für alle diese Hyperbeln (alle Werte von c0 6= 0).
Die Ellipsen, Hyperbeln und gekreuzten Geradenpaare, also die Kurven zweiter Ordnung mit
det A 6= 0, sind symmetrisch bzgl. Spiegelungen an den z1 , z2 -Achsen und punktsymmetrisch um
z = 0. Das Symmetriezentrum z = 0 hat im ursprünglichen Koordinatensystem die Lage
b · s1
b · s2
x=−
s1 −
s2 ,
λ1
λ2
die Symmetrieachsen gehen durch diesen Punkt parallel zu s1 und zu s2 .
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.10c
60
Parabeln
Falls λ1 λ2 = det A = 0 aber A 6= 0 (sonst wäre die Gleichung linear wie in 1.13d behandelt),
dann numeriere die Eigenwerte so, daß λ1 6= 0 = λ2 . Wenn b20 = b · s2 6= 0 ist, erhalten wir für alle
c 0 ∈ R Parabeln
λ1 z12 + 2 b20 z2 = c 0
⇐⇒
z2 = −
λ1 2
c0
z
+
,
2 b20 1
2b20
die je nach dem Vorzeichen von λ1 /2b20 zur positiven oder negativen z2 -Achse geöffnet sind. Im
Entartungsfall b20 = b · s2 = 0 erhalten wir mit beliebigem z2 ∈ R

p
0

bei c 0 /λ1 > 0,
ein paralleles Geradenpaar z1 = ± c /λ1
λ1 z12 = c 0
eine Gerade z1 = 0
bei c 0 = 0,


keine Lösung
bei c 0 /λ1 < 0.
Die Parabeln sind spiegelsymmetrisch zur z2 -Achse (z1 ↔ −z1 ), im ursprünglichen x-Koordinatensystem
zur Achse, die durch den Punkt z = 0, d.h. x = −(b · s1 /λ1 ) s1 geht und die parallel zu s2 ist. Die
entarteten Geraden sind außerdem zu jeder dazu senkrechten Achse spiegelsymmetrisch.
4.11
Direkte Bestimmung von Kurventypen
Da sich die Determinante und die Spur einer Matrix bei Basiswechsel nicht ändern (siehe 4.7c), kann
die Art der Kurven schon eingeschränkt werden, bevor die Gleichung auf Normalform transformiert
wird. Wenn det A 6= 0, ist das Gebilde punktsymmetrisch zu einem Zentrum und spiegelsymmetrisch
zu zwei zueinander orthogonalen Achsen durch das Zentrum. Bei det A = 0 bleibt mindestens
Spiegelsymmetrie zu einer Achse, die parallel zum Eigenvektor mit verschwindendem Eigenwert
liegt.
4.11a
Definiter Fall
Wenn λ1 λ2 = det
√ A > 0, so kann eine Ellipse vorliegen (ein Kreis, wenn λ1 + λ2 = Spur(A) =
a11 + a22 = ±2 det A ), es ist jedoch auch der Entartungsfall - ein Punkt - möglich oder es gibt
keine Kurve. Die Lösungsmenge ist immer beschränkt oder leer.
4.11b
Indefiniter Fall
Wenn λ1 λ2 = det A < 0, so liegt eine Hyperbel vor oder im Entartungsfall ein gekreuztes Geradenpaar. Die Lösungsmenge ist nie leer und ist immer unbeschränkt.
4.11c
Semidefiniter Fall
Wenn λ1 λ2 = det A = 0, jedoch A 6= 0, dann liegt eine Parabel vor, im Entartungsfall ein paralleles Geradenpaar oder eine einzelne Gerade, oder es gibt keine Kurve. Die Lösungsmenge ist unbeschränkt oder leer.
4.12
Tabelle der Kurven zweiter Ordnung
Wir fassen die bisher erzielten Ergebnisse zusammen. In der Tabelle bedeuten die Symbole +, −, 0, 6=
0 oder R, daß die jeweiligen Parameter einen positiven, negativen Wert haben, gleich Null, ungleich
Null sind oder beliebige reelle Zahlen annehmen können. Die geometrischen Eigenschaften der Kurven ändern sich nicht, wenn die Koordinaten vertauscht werden (alle Indizes 1 ↔ 2) oder wenn alle
Vorzeichen in einer Zeile umgekehrt werden (+ ↔ − , 0 ↔ 0). Deshalb können wir uns in der
Tabelle auf den Fall λ1 > 0 (+) beschränken.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
Normalform
λ1
+
+
+
+
+
Normalform
λ1
+
+
+
+
4.13
61
λ1 z12 + λ2 z22 = c 0
λ2
+
+
+
−
−
c0
+
0
−
6= 0
0
Geometrisches Objekt
Ellipse (Kreis)
Punkt z = 0
leere Menge ∅
Hyperbel
gekreuztes Geradenpaar
λ1 z12 + 2 b20 z2 = c 0
b20
6= 0
0
0
0
c0
R
+
0
−
Geometrisches Objekt
Parabel
zwei parallele Geraden
eine Gerade z1 = 0
∅
Quadratische Gleichungen im R3 , Normalformen
Jetzt wenden wir uns den Quadriken im dreidimensionalen Raum zu, den Flächen zweiter Ordnung.
Die sind Sphären (Kugeloberflächen), Ellipsoide, Hyperboloide, Paraboloide, Sattelflächen, Zylinder
und Doppelkegel, siehe Abschnitt 4.17 für Anwendungen und weitere geometrische Besonderheiten.
Genau dasselbe Vorgehen, das im zweidimensionalen Fall in 4.8 erläutert wurde, führt auch hier zum
Ziel. Die Gleichung
a11 x12 + 2 a12 x1 x2 + a22 x22 + 2 a13 x1 x3 + 2 a23 x2 x3 + a33 x32
+ 2 b1 x1 + 2 b2 x2 + 2 b3 x3 = c
wird äquivalent als Matrixgleichung für x ∈ R3 umgeschrieben mit einer symmetrischen 3 × 3Matrix A = Atr 6= 0, b ∈ R3 und c ∈ R
xtr A x + 2 btr x = c.
4.13a
1. Schritt: A diagonalisieren
Für eine Orthonormalbasis s1 , s2 , s3 von Eigenvektoren, A si = λi si wähle die Hauptachsen. .
transformation mit der orthogonalen Matrix T = (s1 .. s2 .. s3 ) und angepaßten Koordinaten y (Basiswechsel), wie in 4.6b beschrieben,
!
Ã
λ1
0
λ2
, bi0 = si · b,
x = T y, yi = si · x, T tr A T = D =
0
λ3
so daß die quadratische Gleichung xtr A x + 2 btr x = c in die folgende Form überführt wird:
λ1 y12 + λ2 y22 + λ3 y32 + 2 b10 y1 + 2 b20 y2 + 2 b30 y3 = c.
Gemischte Produkte y1 y2 , y1 y3 oder y2 y3 treten nicht mehr auf.
4.13b
2. Schritt: Lineare Terme eliminieren (soweit möglich)
Für jedes i mit λi 6= 0 gehe über zu zi = yi + bi0 /λi = yi + b · si /λi und c → c + (bi0 )2 /λi und
setze zj = yj falls λj = 0, das führt auf die folgenden Normalformen.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.13c
62
Normalformen
Wenn λ1 λ2 λ3 = det A 6= 0, so erhält man
λ1 z12 + λ2 z22 + λ3 z32 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 + (b30 )2 /λ3 .
Verschwindet genau ein Eigenwert von A, z.B. λ3 , so ist die Normalform
λ1 z12 + λ2 z22 + 2 b30 z3 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 .
Wenn λ1 6= 0 = λ2 = λ3 , dann erhält man als Normalform
λ1 z12 + 2 b20 z2 + 2 b30 z3 = c 0 = c + (b10 )2 /λ1 .
Wenn im letzten Fall einer der linearen Koeffizienten bereits verschwindet, so wählen wir ohne Beschränkung der Allgemeinheit b30 = 0 (evtl.
z2 ↔ z3 ); durch eine Drehung in der
p 0Vertauschen
00
00
0
2
2
z2 , z3 –Ebene kann immer b3 = 0, b2 = b2 + b3 erreicht werden, die Gleichung ist dann von
(mindestens) einer Variablen unabhängig.
Wie bei den Kurven hängt die konkrete Form von den Werten der verbleibenden Parameter ab.
4.14
Beispiele von quadratischen Gleichungen im R3
Gesucht sind die Flächen, die durch die parametrisierte Familie von Gleichungen
3
8
4
8
3
− x12 + β x22 + x32 + x1 x3 − √ x1 + 2 x2 − √ x3 = γ − 4
5
5
5
5
5
bestimmt sind, abhängig von den Parametern β, γ ∈ R . In Matrixform erhalten wir
√ 



−3/5 0 4/5
−2/ 5
β 0 , b =  1√ , c = γ − 4.
A= 0
4/5 0 3/5
−4/ 5
Im ersten Schritt diagonalisieren wir A. (Man erkennt direkt, daß β ein Eigenwert ist mit Eigenvektor
e2 .) Das charakteristische Polynom lautet
(−3/5 − λ) (β − λ) (3/5 − λ) − (4/5) (β − λ) (4/5)
©
ª
©
ª
= (β − λ) λ2 − (3/5)2 − (4/5)2 = (β − λ) λ2 − 1 = (β − λ) (λ − 1) (λ + 1).
Wir wählen z.B. die Reihenfolge λ1 = 1, λ2 = β, λ3 = −1. Nun berechnen wir zugehörige
Eigenvektoren (für β 6= ±1 sind sie automatisch orthogonal, denn alle Eigenwerte sind verschieden,
4.3b).


−8/5
0
4/5
!
β−1
0  s1
0 = (A − λ1 13 ) s1 =  0
4/5
0
−2/5
√
√ tr
wird für alle β von s1 = (1/ 5, 0, 2/ 5) mit |s1 | = 1 gelöst. Für jedes β ∈ R ist s2 = e2 =
(0, 1, 0)tr ein normierter Eigenvektor zum Eigenwert λ2 = β und


2/5
0
4/5
!
0 = (A − λ3 13 ) s3 =  0 β + 1 0  s3
4/5
0
8/5
√
√ tr
wird von s3 = (−2/ 5, 0, 1/ 5) , |s3 | = 1 erfüllt. Für alle β sind die Vektoren
 
 
 
0
1
−2
1
1
s1 = √ 0 , s2 = 1 , s3 = √  0  = s1 × s2
5 2
5
0
1
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
63
eine ONB von Eigenvektoren von A. Als neue lineare Koeffizienten erhalten wir
b10 = s1 · b = −2,
b20 = s2 · b = 1,
b30 = s3 · b = 0.
Die vereinfachte Gleichung in den neuen Koordinaten lautet damit
y12 + β y22 − y32 − 2 · 2 y1 + 2 · y2 = γ − 4.
Da λ1 = 1 6= 0 können wir im zweiten Schritt den linearen Term mit y1 durch z1 = y1 +
b10 /λ1 = y1 − 2 eliminieren, z3 = y3 erfordert wegen b30 = 0 keine Verschiebung. Für den linearen
Term mit y2 müssen wir eine Fallunterscheidung machen:
Wenn λ2 = β 6= 0, dann erhalten wir mit z2 = y2 + b20 /λ2 = y2 + 1/β die Normalform
z12 + β z22 − z32 = γ − 4 + 4 +
1
1
= c0 = γ + ,
β
β
β 6= 0.
Wenn λ2 = β = 0, so ist die Normalform mit z2 = y2
z12 − z32 + 2 z2 = c 0 = γ − 4 + 4 = γ.
Die hierdurch beschriebenen Flächen werden für einige Parameterwerte in den Abschnitten 4.15c und
4.15f angegeben.
4.15
Flächen zweiter Ordnung, Quadriken im R3
4.15a
Fallunterscheidungen bei Eigenwerten, Basiswahl
Da lineare Gleichungen im R3 , die zur parameterunabhängigen Beschreibung von Flächen dienen,
bereits in Abschnitt 1.15b behandelt wurden, nehmen wir immer A 6= 0 an. Dann gibt es mindestens einen Eigenwert von A, der nicht verschwindet. Die Benennung (Numerierung) der Eigenwerte
ist willkürlich. Wir nutzen diese Freiheit, um im Weiteren die Fallunterscheidungen auf qualitativ
verschiedene Fälle zu begrenzen. Wenn ein Eigenwert verschwindet, so sei das λ3 = 0, und wenn
zwei verschwinden sei λ2 = λ3 = 0, insbesondere immer λ1 6= 0. Damit ist die Numerierung der
Koordinaten bezüglich einer angepaßten Basis teilweise festgelegt. Da die Flächen bei Multiplikation
der Gleichung mit −1 unverändert bleiben, alle Eigenwerte und Koeffizienten dann aber ihr Vorzeichen ändern ( A → −A etc.), können wir ohne Beschränkung der Allgemeinheit immer λ1 > 0
annehmen. Auch ist der Fall λ1 , λ2 > 0, λ3 < 0 durch Umbenennen der Eigenwerte (Umbenennen der Koordinaten y2 ↔ y3 ) äquivalent zu λ1 , λ3 > 0, λ2 < 0. Es genügt, jeweils einen solcher
äquivalenter Fälle hier ausführlich zu betrachten. Anschauliche Bezeichnungen wie vertikal“, Höhe
”
”
z3 “ u.s.w. beziehen sich auf die entsprechende Wahl der Eigenvektoren, wobei der dritte Eigenvektor
als nach oben“ zeigend bezeichnet wird. In den ursprünglichen x-Koordinaten wird die räumliche
”
Orientierung i.a. anders sein.
4.15b
Ellipsoide
Wenn alle Eigenwerte λ1 , λ2 , λ3 > 0 sind (A positiv definit), so ist die Fläche mit Normalform


bei c 0 > 0,
ein Ellipsoid
λ1 z12 + λ2 z22 + λ3 z32 = c 0
der Punkt z = 0 bei c 0 = 0,


die leere Menge bei c 0 < 0.
Eine äquivalente Standardform der Gleichung für ein Ellipsoid ist
r
r
r
³ z ´2 ³ z ´2 ³ z ´2
c0
c0
c0
2
3
1
+
+
= 1, a =
, b=
, c=
,
a
b
c
λ1
λ2
λ3
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
64
mit Halbachsen a, b und c. Wenn alle Eigenwerte gleich sind, ist dies eine Sphäre (Kugeloberfläche),
sind zwei Eigenwerte gleich, so erhalten wir ein Ellipsoid, das um die Richtung des Eigenvektors zum
anderen Eigenwert drehsymmetrisch ist. Ist dieser andere Eigenwert größer als die beiden gleichen,
so ist das Ellipsoid abgeplattet, ein Diskus“, sonst eine Zigarre“.
”
”
Jedes Ellipsoid ist spiegelsymmetrisch zum Zentrum (z → −z), sowie zu den Ebenen, die von
jeweils zwei Eigenvektoren von A aufgespannt werden (zi → −zi für jeweils ein i ∈ {1, 2, 3}).
Alle Ellipsoide sind beschränkt.
4.15c
Hyperboloide
Seien nun λ1 > 0 und λ2 > 0 aber λ3 < 0 (A indefinit), dann beschreibt


bei c 0 > 0,
ein einschaliges Hyperboloid
λ1 z12 + λ2 z22 − (−λ3 )z32 = c 0
einen Doppelkegel
bei c 0 = 0,


ein zweischaliges Hyperboloid bei c 0 < 0.
Die Schnitte bei fester Höhe“ z3
”
λ1 z12 + λ2 z22 = c 0 + (−λ3 )z32
p
sind bei c 0 +(−λ3 )z32 > 0 Ellipsen, die für c 0 ≤ 0 bei z3 = ± c 0 /λ3 zum Punkt mit z1 = z2 = 0
entarten, was für c 0 = 0 nur am Punkt zp= 0 geschieht und bei c 0 < 0 an zwei Punkten. Im letzteren
Fall gibt es keine Lösungen für |z3 | < c 0 /λ3 .
Die Schnitte mit der x1 , x3 -Ebene, d.h. x2 = 0, (und ebenso bei x1 = 0 ) sind Hyperbeln, siehe
4.10b, deren Äste sich für c 0 < 0 nach oben und unten“ öffnen, bei c 0 > 0 nach rechts und links“
”
”
und bei c 0 = 0 entarten sie zum Geradenpaar. Für c 0 > 0 (und λ1 = λ2 ) ist das ein Kühlturm“ mit
”
vertikaler Achse“.
”
Allgemein liegt ein einschaliges Hyperboloid vor, wenn das Vorzeichen der Konstanten c 0 gleich
dem Vorzeichen der Mehrheit“ der Eigenwerte ist, die Achse liegt parallel zum Eigenvektor, der zum
”
Eigenwert mit der Minderheit“ der Vorzeichen gehört.
”
Wählen wir im Beispiel 4.14 die Parameter β = 2 und γ = 3/2, so beschreibt die resultierende
Gleichung
z12 + 2 z22 − z32 = 3/2 + 1/2 = 2 > 0
ein einschaliges Hyperboloid mit der z3 -Achse als Achse. Bei β = −2 und demselben γ = 3/2
erhalten wir
z12 − 2 z22 − z32 = 3/2 − 1/2 = 1 > 0,
also ein zweischaliges Hyperboloid mit der z1 -Achse als Achse.
4.15d
Zylinder
In Analogie zum üblichen Kreiszylinder spricht man allgemeiner von Zylindern, wenn in der Gleichung eine Koordinate, z.B. z3 , gar nicht vorkommt. Der Schnitt dieser Fläche mit einer beliebigen
Ebene der Höhe“ z3 ist dieselbe Kurve zweiter Ordnung, unabhängig von z3 , alle in Abschnitt 4.10
”
aufgeführten Fälle: Kreise, Ellipsen, Parabeln, Hyperbeln einschließlich der Entartungsfälle, Geradenpaare, Geraden, Punkte oder die leere Menge können auftreten. Man spricht dann jeweils von
elliptischen, parabolischen, hyperbolischen Zylindern u.s.w.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.15e
65
Elliptische Paraboloide
Falls λ1 , λ2 > 0 und λ3 = 0, so ist die Normalform
λ1 z12 + λ2 z22 + 2 b30 z3 = c 0 .
Der Entartungsfall b30 = 0, ein elliptischer Zylinder, wurde schon in 4.15d behandelt, so daß wir uns
auf b30 6= 0 beschränken können. Auflösen nach z3 ergibt
z3 = −
λ1 2
λ2 2
c0
z
−
z
+
,
2 b30 1
2 b30 2
2 b30
ein elliptisches Paraboloid, das für b30 > 0 (b30 < 0) nach unten“ ( oben“) geöffnet ist und elliptische
”
”
Schnittkurven mit den horizontalen“ Ebenen in der Höhe“ z3 < c 0 /2 b30 (z3 > c 0 /2 b30 ) hat sowie
”
”
Parabeln in den vertikalen“ Ebenen z1 = 0 oder z2 = 0. Nahe einem nicht entarteten Maximum
”
oder Minimum wird der Graph einer zweimal differenzierbaren reellwertigen Funktion von zwei
Variablen durch ein elliptisches Paraboloid approximiert.
4.15f
Sattelflächen, hyperbolische Paraboloide
Im Falle λ1 > 0, λ2 < 0, λ3 = 0, b30 6= 0 der Normalform
λ1 z12 − (−λ2 ) z22 + 2 b30 z3 = c 0
erhalten wir eine Sattelfläche, die in der z1 -Koordinatenrichtung ansteigt ( Kopf und Schwanz des
”
Pferdes“) und in der z2 -Richtung abfällt ( Beine des Reiters“) mit Sitzhöhe“ z3 = c 0 / 2b30 .
”
”
Die Schnittmengen dieser Flächen mit horizontalen“ Ebenen in der Höhe z3 sind Hyperbeln
”
oder ein gekreuztes Geradenpaar (4.10b). Als Schnitt mit vertikalen“ Ebenen, die senkrecht zum
”
Pferderücken stehen, d.h. z1 = const, erhält man nach unten“ geöffnete Parabeln und bei verti”
”
kalen“ Ebenen, die parallel zum Pferderücken stehen, d.h. z2 = const, ergeben sich nach oben“
”
geöffnete Parabeln. Daher heißen diese Flächen auch hyperbolische Paraboloide.
Im Beispiel 4.14 mit Parameter β = 0 und γ beliebig beschreibt
z12 − z32 + 2 z2 = γ
eine Sattelfläche, allerdings gedreht mit z2 als Höhe“.
”
4.15g
Weitere Entartungsfälle
Es gibt einige weitere Entartungsfälle, z.B. beschreibt die Normalform
λ1 z12 = c 0
p
für c 0 > 0 ein Ebenenpaar z1 = ± c 0 /λ1 , z2 , z3 ∈ R beliebig, das für c 0 = 0 zu einer Ebene
z1 = 0 entartet. Solche Fälle können leicht analysiert werden.
4.16
Tabelle der Flächen zweiter Ordnung
Für die benutzten Konventionen siehe die Vorbemerkungen in 4.12.
Normalform
λ1
+
+
+
+
+
+
RWTH Aachen
λ1 z12 + λ2 z22 + λ3 z32 = c 0
λ2
+
+
+
+
+
+
λ3
+
+
+
−
−
−
c0
+
0
−
+
0
−
Geometrisches Objekt
Ellipsoid (Sphäre)
Punkt z = 0
∅
einschaliges Hyperboloid
Doppelkegel
zweischaliges Hyperboloid
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
Normalform
λ1
+
+
+
+
+
Normalform
λ1
+
+
+
66
λ1 z12 + λ2 z22 + 2 b30 z3 = c 0
λ2
+
−
+
−
−
b30
6= 0
=
6 0
0
0
0
c0
R
R
+
6= 0
0
Geometrisches Objekt
elliptisches Paraboloid
Sattel = hyperbolisches Paraboloid
elliptischer Zylinder
hyperbolischer Zylinder
Ebenenpaar ( gekreuzt“)
”
λ1 z12 + 2 b20 z2 + 2 b30 z3 = c 0
b20
6= 0
0
0
b30
R
0
0
c0
R
+
0
Geometrisches Objekt
parabolischer Zylinder
Ebenenpaar (parallel)
eine Ebene z1 = 0
In der letzten Tabelle wird der Fall b30 6= 0, b20 = 0 durch Vertauschen z2 ↔ z3 auf den erstgenannten zurückgeführt. Außerdem gibt es weitere einfache Entartungsfälle.
4.17
Anwendungen und geometrische Besonderheiten bei Flächen
zweiter Ordnung
Die quadratischen Approximationen differenzierbarer reellwertiger Funktionen von zwei Variablen
haben als Graphen elliptische oder hyperbolische Paraboloide, im Entartungsfall auch parabolische
Zylinder oder Ebenen.
Neben ihrer mathematischen Einfachheit weisen die Flächen zweiter Ordnung weitere besondere
Eigenschaften auf, die in den Anwendungen genutzt werden. Elliptische Paraboloide mit Kreisen als
Schnitten haben einen Brennpunkt und werden als Reflektoren z.B. in Scheinwerfern genutzt. Eine
kleine Lichtquelle im Brennpunkt liefert einen gut gebündelten, nahezu parallelen Lichtstrom. Bei
Richtmikrophonen macht man sich das für Schallwellen zunutze. Ellipsoide haben i.a. zwei Brennpunkte, Flüstergewölbe zeigen exemplarisch die Bedeutung für die Raumakustik.
Wie die Doppelkegel werden auch einschalige Hyperboloide und Sattelflächen von Geraden
p ”erzeugt“. Beim einschaligen Hyperboloid (4.15c) mit c 0 > 0 liegen die Geraden z1 (t) = ± c 0 /λ1 ,
p
z2 (t) = t, z3 (t) = ± λ2 /(−λ3 ) t, t ∈ R , und viele weitere in der Fläche. Jeder Punkt eines
einschaligen Hyperboloids liegt auf zwei solchen sich kreuzenden Geraden. Deshalb kann man z.B.
gerade Träger und straff gespannte Seile für die tragende Konstruktion eines Kühlturms benutzen.
Viele dieser Flächen sind zugleich Minimalflächen: Sucht man zu zwei (nicht zu weit voneinander
entfernten) Kreisen die kleinste Fläche, die sie verbindet, so erhält man ein einschaliges Hyperboloid,
den Kühlturm. Eine kompliziertere Minimalfläche ist das Dach des Münchner Olympiastadions, lokal
sind das Sattelflächen, wie sie auch als Seifenhäute zwischen vorgegebenen Randkurven (Drahtgestelle) entstehen. Solche Konstruktionen sind in mehrerer Hinsicht optimal: Die Spannungen in der
Konstruktion sind gut ausgeglichen und minimal, ebenso der Flächeninhalt. Das führt zum geringen
Materialverbrauch und durch die Gewichtsersparnis zu weiteren Einsparungen bei den Fundamenten
und der tragenden Konstruktion. Während für den Entwurf des Olympiadaches noch Experimente
mit Seifenhäuten durchgeführt wurden, ist durch die Weiterentwicklung der Mathematik der Minimalflächen in Verbindung mit schnelleren Computern inzwischen auch eine numerische Simulation
möglich geworden.
Für die Visualisierung der einfacheren Flächen aus diesem Kapitel mit einem Computer genügen
allgemeine Computeralgebraprogramme wie z.B. MAPLE und MATHEMATICA oder Graphikprogramme.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.18
67
Hauptachsentransformation diagonalisierbarer Matrizen
Die Diagonalisierung einer Matrix, die bei symmetrischen Matrizen immer möglich ist (4.5), verallgemeinern wir auf allgemeinere Matrizen, das ist jedoch nicht für alle Matrizen möglich.
4.18a
An die Matrix angepaßte Basis
Ist eine lineare Abbildung gegeben, so hängt die zugehörige Matrix, mit der die Abbildung beschrieben wird, von der Wahl einer Basis im Vektorraum ab (Wahl der Koordinaten, Bedeutung der Komponenten im Vektor (x1 , . . . , xn )tr ).
Die Freiheit der Wahl einer angepaßten Basis kann dazu benutzt werden, die Matrix zu vereinfachen, indem Eigenvektoren als Basisvektoren benutzt werden, wie wir es im Fall symmetrischer
Matrizen bereits in Abschnitt 4.5 gesehen haben. Ob es genug linear unabhängige Eigenvektoren
gibt, hängt vom Einzelfall ab, siehe dazu Bemerkung (iii) in 4.18b.
Hier nehmen wir an, daß eine n × n -Matrix A derart ist, daß sie n linear unabhängige Eigenvektoren besitzt: A si = λi si mit Eigenwerten λi , i = 1, . . . , n. Die si bilden dann eine Basis des
Rn . Die λi können (teilweise) gleich sein.
Die n × n-Transformationsmatrix mit den Basis-Eigenvektoren als Spalten
. .
.
T = (s1 .. s2 .. . . . .. sn )
ist regulär (d.i. invertierbar, maximaler Rang n, det(T ) 6= 0). Wenn A nicht symmetrisch ist,
ist T nicht orthogonal, die Inverse T −1 muß berechnet werden, z.B. gemäß 3.7. Analog zum Fall
symmetrischer Matrizen (4.5) gilt der folgende Satz.
4.18b
Satz über die Hauptachsentransformation
Sei A eine n × n -Matrix mit n linear unabhängigen Eigenvektoren s1 , . . . , sn zu Eigenwerten
λ1 , . . . , λn : A si = λi si . Bilde die reguläre Transformationsmatrix T mit den Eigenvektoren sj
. .
.
als Spalten: T = (s .. s .. . . . .. s ), dann gilt
1
T −1
2

λ1

λ2
AT =

0
n

..
0
=D

.
⇐⇒
A = T D T −1 ,
λn
D eine Diagonalmatrix mit den Eigenwerten auf der Diagonalen. A wird durch die Hauptachsentransformation A → T −1 A T diagonalisiert.
Insbesondere können wir für diagonalisierbare Matrizen daraus ablesen, daß
det(A) = det(T −1 A T ) = λ1 · λ2 · . . . · λn .
Mehrfache Eigenwerte müssen dabei mehrfach multipliziert werden.
Bemerkungen
(i) T ist nicht eindeutig, denn jede Wahl von n linear unabhängigen Eigenvektoren als Spalten von
T leistet das Gewünschte. Die Diagonalmatrix ist bis auf die Reihenfolge der Eigenwerte eindeutig.
(ii) Eine Matrix A hat genau dann n linear unabhängige Eigenvektoren, wenn sie diagonalisierbar
ist, d.h. wenn es eine reguläre Matrix T gibt, so daß T −1 A T diagonal ist.
(iii) Außer dem Fall symmetrischer Matrizen gibt es einen weiteren einfach erkennbaren Fall, wann
eine Matrix diagonalisierbar ist, nämlich wenn alle n Eigenwerte verschieden sind (d.h. das charakteristische Polynom hat nur einfache Nullstellen). Es gibt viele weitere Fälle, siehe Bücher.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.18c
68
Beispiel einer Diagonalisierung
µ
¶
2 0
A=
,
1 3
λ1 = 2, λ2 = 3 (Dreiecksmatrix!), die Eigenwerte sind verschieden,
die Diagonalisierung ist also möglich. Eigenvektor zu λ1 = 2:
µ
¶ µ ¶ µ
¶
0 0
x1
0
!
(A − 2 12 ) x =
=
= 0,
1 1
x2
x1 + x2
µ
s1 =
1
−1
¶
ist ein Eigenvektor zum Eigenwert λ1 = 2.
µ ¶
0
Zum Eigenwert λ2 = 3 ist z.B. s2 =
ein Eigenvektor ( unterer Eigenvektor zur unteren
”
1
Dreiecksmatrix“, vgl. 4.2b). Die Eigenvektoren sind automatisch linear unabhängig. Damit ergibt
sich als
µ mögliche
¶ Transformationsmatrix
µ
¶
1 0
1 0
−1
T =
mit Inverser T =
(z.B. mit 3.5a). Nachrechnen (als Probe) ergibt:
−1 1
1 1
µ
T
−1
AT =T
−1
¶
¶ µ
¶ µ
2 0
2 0
λ1 0
= D.
=
=
−2 3
0 3
0 λ2
X
4.18d
Beispiel einer nicht diagonalisierbaren Matrix
µ
¶
0 1
Nicht jede Matrix ist diagonalisierbar, z.B. hat A =
mit dem charakteristischen Polynom
0 0
det(A − λ1) = λ2 nur den (doppelten) Eigenwert λ1 = λ2 = 0.
µ
¶µ ¶ µ ¶
0 1
x1
x2
Ax =
=
= 0 =⇒ x2 = 0 für jeden Eigenvektor.
0 0
x2
0
µ ¶
1
ist ein Eigenvektor, es gibt wegen x2 = 0 keinen davon linear unabhängigen. Diese Matrix hat
0
keine Basis aus Eigenvektoren und ist daher nicht diagonalisierbar.
4.19
Potenzen von Matrizen
Für jede n × n-Matrix A definieren wir A0 = 1n in Analogie zu a0 = 1 bei Zahlen. Für das
rekursiv definierte k-fache Produkt Ak := A Ak−1 , k ∈ N, benutzen wir die naheliegende Potenzschreibweise. Die durch Ak beschriebene lineare Abbildung ist die k-fach iterierte der durch A
beschriebenen.
Wenn A regulär ist (3.4), also A−1 existiert, dann sind durch A−k = (A−1 )k auch alle ganzzahligen Potenzen A` , ` ∈ Z definiert. Die Regeln der Potenzrechnung wie Ak A` = Ak+` und
(Ak )r = Akr gelten dann ebenso für Matrizen mit k, `, r ∈ N0 bzw. ∈ Z, vgl. Abschnitt D für Zahlen. Für speziellere Arten von Matrizen können auch rationale oder reelle Potenzen definiert werden,
siehe 4.19a, die Potenzrechenregeln bleiben dann ebenfalls gültig.
Für eine allgemeine quadratische Matrix A ist die Berechnung hoher Potenzen i.a. sehr aufwendig. Für spezielle Klassen wie z.B. Drehungen (4.4b), Diagonalmatrizen und diagonalisierbare
Matrizen ist dies einfach.
RWTH Aachen
Mathematik I+II
4
Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung
4.19a
69
Potenzen diagonalisierbarer Matrizen, Wurzeln
Für Diagonalmatrizen rechnet man leicht nach, daß


 k
λ1
λ1
0



λ
λk2
2
k


D=
,
D
=
..



.
0
λn
0

..
0
.
,

k ∈ N0 .
λkn
Wegen A2 = T D T −1 T D T −1 = T D2 T −1 u.s.w. gilt für diagonalisierbare Matrizen
A = T D T −1
=⇒
Ak = T Dk T −1 .
Wenn alle Eigenwerte λj ≥ 0 erfüllen, kann man auch gebrochene Potenzen bilden, z.B. gemäß

√
λ1 √
0
√
√
√


λ2
,
D=
A
=
T
D T −1 .
.
..


√
λn
0
Solche Matrizen heißen positiv semidefinit, siehe 4.7. Im positiv definiten Fall (alle Eigenwerte λj >
0 ) kann man mit λpj = exp(p ln λj ) für p ∈ R auf dieselbe Weise sogar beliebige reelle Potenzen
Dp definieren. Die Potenzrechenregeln bleiben in diesem allgemeineren Fall gültig.
4.19b
Potenzen von Matrizen und Eigenvektoren
Auch wenn eine Matrix A nicht diagonalisierbar ist, so ist die Wirkung auf Eigenvektoren immer
noch einfach zu bestimmen. Sei A x = λ x, dann folgt A2 x = A(Ax) = A(λ x) = λ(Ax) = λ2 x
sowie Ak x = λk x für alle k ∈ N0 (bzw. k ∈ Z für reguläre Matrizen, dann gilt nämlich λ 6= 0).
Entsprechend für Linearkombinationen von Eigenvektoren.
RWTH Aachen
Mathematik I+II
5
5
Reelle und komplexe Zahlen und einige Grundbegriffe
70
Reelle und komplexe Zahlen und einige Grundbegriffe
Dieses Kapitel enthält grundlegendes Handwerkszeug“ für alles weitere.
”
5.1
Die reellen Zahlen
Für die Menge der reellen Zahlen R sind Verknüpfungen und deren Umkehrungen definiert: Seien
a, b ∈ R,
Addition : a + b ∈ R,
Subtraktion : a − b ∈ R,
Multiplikation : a · b ∈ R,
Division : a/b ∈ R
falls b 6= 0,
mit weiteren guten Eigenschaften, z.B. a + b = b + a, a b = b a (Kommutativität), Lösbarkeit von
Gleichungen, etc.
Mit dem Assoziativgesetz (a + b) + c = a + (b + c) ist die Summe von drei reellen Zahlen auf
natürliche Weise durch Rückführung auf die iterierte Addition zweier Zahlen definiert: a + b + c :=
(a+b)+c = a+(b+c) ist unabhängig von allen Paarungen und Reihenfolgen. Entsprechend für jede
endliche Zahl von Summanden, sowie für Produkte endlich vieler Faktoren. Unendliche Summen (die
Reihen“) werden später behandelt.
”
Die Addition und Multiplikation sind miteinander verträglich, da das Distributivgesetz gilt: a (b+
c) = a b + a c.
Die reellen Zahlen bilden einen Körper (genauer siehe 5.8) ebenso wie Q, die Menge der rationalen Zahlen (Brüche, endliche oder periodische Dezimalbrüche). R ist gegenüber Q dadurch
ausgezeichnet, daß es die kleinste Q umfassende Menge ist, die unter Grenzprozessen vollständig
ist: Approximationsverfahren (z.B. konvergente
√ Folgen und Reihen) führen nicht aus R hinaus, auch
geometrisch wichtige irrationale Zahlen wie 2 und π gehören zu R. Veranschaulichung von R:
Punkte einer Geraden, der Zahlengeraden.
Weitere wichtige Teilmengen der reellen Zahlen sind die ganzen Zahlen
Z = {. . . , −2, −1, 0, 1, 2, 3, . . .} sowie die natürlichen Zahlen N = {1, 2, 3, . . .} und N0 =
{0, 1, 2, 3, . . .}. Zur Bezeichnung dieser Zahlenmengen wird auch oft Fettdruck (R etc.) benutzt.
Geordnete n-Tupel reeller Zahlen, die Vektoren im Rn , haben wir in den vorangehenden Kapiteln
hinsichtlich ihrer linearen Struktur ausführlich besprochen. Jetzt stehen nichtlineare Phänomene im
Vordergrund, insbesondere in der Dimension n = 1.
5.2
Funktion, Abbildung, Graph
Seien X und Y beliebige Mengen. Eine Funktion (oder Abbildung) ordnet jedem Element ihres Definitionsbereichs (= Urbildmenge) D ⊆ X genau ein Element ihrer Bildmenge Y zu, geschrieben
als f : D → Y oder f (·) : D → Y , x 7→ f (x). Zu jedem x ∈ D ist der Bildpunkt f (x) eindeutig. Wenn Betonlieferungen die Feststellung zugeordnet wird, ob sie die Qualitätsanforderungen
erfüllen (z.B. durch ja/nein oder wahr/falsch), dann definiert das eine Funktion. In dieser Vorlesung
sind Urbild- und Bildmenge jedoch zumeist Zahlenmengen oder Teilmengen des Rn und die Zuordnung ist eine Rechenvorschrift, z.B.
f : R → R,
x 7→ f (x) = x2 ,
f : {x ∈ R | x ≥ 0} → R,
f : Rn → Rm ,
| · | : Rn → R,
f (x) =
√
x,
x 7→ f (x) = A x, A eine m × n-Matrix,
q
f (x) = |x| = x21 + . . . + x2n , Betragsfunktion.
Zur Vereinfachung wird oft nur die Rechenvorschrift ausdrücklich angegeben, dann ist als natürli”
cher“ Definitionsbereich die größte Menge gemeint, auf der die Rechenvorschrift erklärt ist, z.B.
1
f (x) =
auf D = {x ∈ R | x 6= 1, x 6= −2} = R\{−2, 1}.
(x − 1) (x + 2)
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
71
Der Definitionsbereich einer Funktion kann immer verkleinert werden, z.B. wenn man nur einen
monotonen Teil einer Funktion betrachten möchte.
In der Mathematik und in ihren Anwendungen wichtige Funktionen sind Polynome, rationale
Funktionen, trigonometrische Funktionen (sin, cos, tan, . . .), Exponentialfunktion, Logarithmus
und viele weitere, die wir in den folgenden Kapiteln genauer studieren.
Korrekte und andere verbreitete Sprechweisen: Eine Funktion f , der Funktionswert f (x) an der
Stelle x des Definitionsbereichs und eine Berechnungsvorschrift wie x 7→ f (x) = x2 −2 sind unterschiedliche Objekte. Es ist einfach, korrekt z.B. von der Exponentialfunktion oder der Logarithmusfunktion (dem Logarithmus) zu sprechen. Doch ist die Funktion f mit der Berechnungsvorschrift
”
x 7→ f (x) = tan(x2 ) auf dem maximalen Definitionsbereich“ zwar korrekt, aber für den Alltag zu
umständlich und i.a. auch nicht nötig. Deshalb werden wir, wenn keine Mißverständnisse zu erwarten
sind, oft die kurze und verbreitete Sprechweise die Funktion tan(x2 ) “ benutzen, obwohl sie nicht
”
korrekt ist.
Der Graph einer Funktion f : D ⊆ R → R ist die Menge
½µ
¶ ¯
¾
x
¯
¯ x ∈ D ⊆ R2 ,
f (x)
oft eine Kurve oder die Vereinigung von Kurvenstücken. Das Argument wird auf der Abszisse (horizontale Achse) abgetragen, der Funktionswert auf der (vertikalen) Ordinate. Wegen der Eindeutigkeit
der Zuordnung (Definition einer Funktion!) können auf dem Graphen einer Funktion nie zwei Punkte
übereinander liegen.
Eine Funktion, deren Definitionsbereich symmetrisch zum Ursprung liegt (d.h. x ∈ D ⇐⇒
−x ∈ D), heißt gerade oder symmetrisch, wenn f (−x) = f (x), ihr Graph liegt dann spiegelsymmetrisch zur Ordinate ( y-Achse). Sie heißt ungerade oder antisymmetrisch oder auch schief, wenn
f (−x) = −f (x), dann ist der Graph punktsymmetrisch zum Ursprung.
5.3
Die Ordnung der reellen Zahlen
In Anwendungen müssen oft Gleichungen gelöst werden, noch häufiger muß aber sichergestellt werden, daß eine Größe nicht zu klein oder zu groß ist: Tragfähigkeit über, Durchbiegung unter, Preis
höchstens, Materialqualität mindestens . . . Dies wird durch Ungleichungen quantitativ beschrieben,
jetzt behandeln wir die Grundlagen für den Umgang mit Ungleichungen.
5.3a
Axiome der Ordnung von R
Für zwei beliebige reelle Zahlen a, b ∈ R gilt genau eine der drei folgenden Beziehungen (das
Trichotomiegesetz, reelle Zahlen können angeordnet werden)
a < b oder a = b oder b < a (⇐⇒ a > b).
Dieses Gesetz paßt zu der Veranschaulichung der reellen Zahlen durch Punkte auf der Zahlengeraden:
Zu einer gegebenen reellen Zahl liegt eine andere links davon, fällt mit jener zusammen oder sie liegt
weiter rechts. Die Ordnungsrelation “<” auf R genügt folgenden Ordnungsaxiomen (O1) – (O3):
Seien a, b, c ∈ R
(O1) a < b und b < c =⇒ a < c
(O2) a < b =⇒ a + c < b + c
(Transitivität),
(Verträglichkeit mit der Addition),
(O3) a < b und c > 0 =⇒ a c < b c
(Verträglichkeit mit der Multiplikation).
In (O3) ist die Positivität des Faktors, c > 0 , wichtig! Alles gilt genauso für Teilmengen reeller
Zahlen wie N, Z, Q. Aus den Axiomen (O1) – (O3) können nützliche Regeln abgeleitet (bewiesen)
werden. Beweisen“ bedeutet, daß neue Aussagen auf Axiome und auf die zuvor schon bewiesenen
”
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
72
Aussagen logisch zurückgeführt werden. In diesem Abschnitt werden wir die Rechenregeln für reelle
Zahlen (Kommutativ-, Assoziativ- und Distributivgesetz, siehe 5.1), auf die wir als Körperaxiome in
Abschnitt 5.8 zurückkommen, sowie die Ordnungsaxiome benutzen.
5.3b
Einige Regeln für das Rechnen mit Ungleichungen
Seien a, b, c, d ∈ R
(1) a < b und c < d =⇒ a + c < b + d.

(O2)
a < b =⇒ a + c < b + c,  (O1)
Beweis:
=⇒ a + c < b + d.
(O2)
c < d =⇒ b + c < b + d 
2
(2) a < b ⇐⇒ −b < −a (⇐⇒ −a > −b).
(O2)
Beweis: ⇒“: a < b =⇒ −b = a + (−a − b) < b + (−a − b) = −a.
”
(O2)
⇐“: −b < −a =⇒ a = −b + (b + a) < −a + (b + a) = b.
”
(3) “(a < 0 und b > 0) oder (a > 0 und b < 0)” ⇐⇒ a · b < 0,
folgt aus (O3) und (2).
2
(4) a 6= 0 ⇐⇒ a2 > 0, folgt aus (3).
(5) a > 0 ⇐⇒ 1/a > 0.
Beweis von ⇒“ durch Widerspruch: Sei a > 0.
”
Angenommen: 1/a < 0, a > 0. Mit (3) folgt daraus 1 = a · 1/a < 0, falsch!
Angenommen: 1/a = 0, a > 0 =⇒ 1 = a · 1/a = 0, falsch!
Mit dem Trichotomiegesetz (5.3a), angewandt auf das Paar 1/a und 0, bleibt als einzige Möglichkeit: 1/a > 0.
Beweis von ⇐“: Betrachte ã = 1/a und wende (5) von links nach rechts (schon bewiesen) auf
”
ã an.
2
(6) 0 < a < b ⇐⇒ 0 < 1/b < 1/a.
Fehlende Beweise zur Übung bitte selbst führen!
Die folgenden Regeln können wir alle mit der Monotonie der Exponential- und Logarithmusfunktion (B, C, 7.1b) beweisen, teilweise auch direkt:
√
√
(7) 0 < a < b ⇐⇒ 0 < an < bn , für alle n ∈ N, 0 < a < b,
allgemeiner mit ap := ep·ln a
(8) 0 < a < b ⇐⇒ 0 < ap < bp
für alle positiven Potenzen p > 0.
(9) a > 1 =⇒ 0 < ap < aq für p, q ∈ R, p < q.
√
Beispiel: a = 2 > 1 : 2−5 = 1/32 < 2−3 = 1/8 < 20 = 1 < 21/2 = 2 < 22 = 4.
Zwischen zwei verschiedenen reellen Zahlen a < b gibt es eine weitere reelle Zahl,
nämlich das arithmetische Mittel (a + b)/2:
(10) a < (a + b)/2 < b.
RWTH Aachen
(Beweis ?)
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
5.3c
73
Die Relationen ≤ und ≥
Wir schreiben als Abkürzung
a ≤ b (auch a 5 b, a 6 b),
wenn a < b oder a = b richtig ist.
Es gelten ähnliche Regeln wie für <“, z.B.
”
a ≤ b und b ≤ c =⇒ a ≤ c,
a2 ≥ 0 für alle a ∈ R,
(Transitivität wie (O1), genauso)
(etwas anders als (4)!)
oder auch
a ≤ b und c ≤ 0 =⇒ a c ≥ b c (Umkehrung der Ungleichung beachten!)
sowie die in Beweisen häufig benutzte Aussage
a ≤ b und b ≤ a =⇒ a = b.
Es gibt viele weitere Regeln, wie Ungleichungen umgeformt bzw. benutzt werden können. Wir kommen jetzt zu ersten Anwendungen.
5.4
Durch Ungleichungen charakterisierte Mengen
Durch Ungleichungen werden oft Teilmengen von R oder Rn definiert, z.B.
5.4a
Intervalle
Für a ≤ b bezeichnet
[a, b] = {x ∈ R | a ≤ x und x ≤ b}, abgeschlossenes Intervall,
(a, b) = {x ∈ R | a < x und x < b}, offenes Intervall,
[a, b) = {x ∈ R | a ≤ x und x < b},
(a, b] = {x ∈ R | a < x und x ≤ b}.
Falls a = b, so ist [a, b] = [a, a] = {a} 6= ∅, die anderen drei Intervalle sind leere Mengen. Wenn
a < b kann kürzer z.B. auch (a, b) = {x ∈ R | a < x < b} geschrieben werden. Für (a, b), (a, b]
u.s.w. sind auch die Schreibweisen ]a, b[, ]a, b], . . . gebräuchlich.
Unendliche Intervalle, z.B.
(a, ∞) = {x ∈ R | a < x}, offen,
(−∞, b] = {x ∈ R | x ≤ b} ,
(−∞, ∞) = R.
Anschaulich bedeutet bei einfachen Teilmengen des R oder Rn (wie bei Intervallen oder den Beispielen unten), daß eine Menge abgeschlossen ist, wenn alle Randpunkte dazugehören, und offen,
wenn kein Randpunkt dazugehört.
5.4b
Quader, Kugeln, Ellipsen etc.
Dimension n = 2, Rechteck mit allen Rändern: Seien a ≤ b, c ≤ d
¯
n³ ´
o
x ∈ R2 ¯ a ≤ x ≤ b, c ≤ y ≤ d , abgeschlossen.
R=
¯
y
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
74
n beliebig, Quader ohne alle Ränder: ai < bi , i = 1, . . . , n,
Q = {x ∈ Rn | ai < xi < bi , i = 1, 2, . . . , n}, offen.
Ellipse in der Ebene mit Halbachsen a, b > 0 (siehe F, 4.10a):
{x ∈ R2 | [ x1 /a ]2 + [ x2 /b ]2 = 1},
deren offenes (ohne Ränder) Inneres:
{x ∈ R2 | [ x1 /a ]2 + [ x2 /b ]2 < 1},
Dreieck(sfläche) mit Rändern in der Ebene, z.B.
D = {x ∈ R2 | x1 ≥ −1, x1 + x2 ≤ 3, x1 − 2x2 ≤ 2}, abgeschlossen.
Abgeschlossene (Voll-)Kugel in beliebiger Dimension n mit Radius R > 0:
(
)
¯ X
¯ n 2
n ¯
2
K= x∈R ¯
xi ≤ R , abgeschlossen, Zentrum im Ursprung,
i=1
für n = 1 ist das ein Intervall, n = 2 eine Kreisscheibe, n = 3 eine Kugel im Anschauungsraum.
Sphäre = Kugeloberfläche mit Radius R > 0 und Zentrum z ∈ Rn :
(
)
¯ n
X
¯
S = x ∈ Rn ¯¯
(xi − zi )2 = R2 ,
i=1
zwei Punkte für n = 1, Kreis(linie) für n = 2.
5.4c
Weitere durch Ungleichungen charakterisierte Mengen
In Anwendungen treten Ungleichungen häufig als Begrenzung zulässiger Parameter“ auf, z.B. die
”
Steigung einer Eisenbahnstrecke nicht zu groß, der Krümmungsradius nicht zu klein, die Temperatur
unter 100◦ C. Oft spielen dabei auch Funktionen eine Rolle, z.B.
M := {x ∈ [−π, π] | 0 ≤ sin x < 1/2}.
(vgl. E.2, Skizzen helfen oft!) bedeutet M = [0, π/6) ∪ (5π/6, π] ∪ {−π}.
µ
Für welche x ∈ R ist
ln
x2 − 7x + 4
(x + 1) (x − 2)
¶
definiert und positiv?
Lösung: Zunächst muß sichergestellt werden, daß der Bruch definiert ist, also x 6= −1 und x 6= 2.
Der Ausdruck ln y ist definiert für y > 0, positiv für y > 1, also besteht die Lösungsmenge M aus
den x ∈ R \ {−1, 2}, für die gilt:
x2 − 7x + 4
>1
(x + 1) (x − 2)
⇔0<
⇔
x2 − x − 2
−6x + 6
x−1
x2 − 7x + 4
−
=
= −6
(x + 1) (x − 2) (x + 1) (x − 2)
(x + 1) (x − 2)
(x + 1) (x − 2)
(x − 1)
< 0,
(x + 1) (x − 2)
RWTH Aachen
M = {x ∈ R | x < −1} ∪ (1, 2).
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
5.5
Der Betrag einer reellen Zahl
5.5a
Definition des Betrages auf R
75
Der Betrag | · | ist eine reellwertige Funktion, die für reelle Zahlen und komplexe Zahlen (5.7f) sowie
für Vektoren (1.6) definiert ist. Hier gehen wir genauer auf den reellen Fall ein, der natürlich der
Spezialfall n = 1 für Vektoren im Rn ist.
(
√
x
falls x ≥ 0,
Graph in Abb. 5.1.
| · | : R → R , |x| := x2 =
−x
falls x < 0,
4
|x-4|
|x|
1
1
0
Abbildung 5.1: Betragsfunktion
4
Abbildung 5.2: Graph von |x − 4|
Also ist |x| ≥ 0 für alle x ∈ R (positive Wurzel!), z.B. |5| = 5, | − 3| = 3, |0| = 0,
√
√
|x|2 = |x2 | = x2 , da |x|2 = x2 · x2 = x2 ≥ 0 (dies ist i.a. falsch in C , siehe 5.7f !);
(
x−4
für x ≥ 4,
|x − 4| =
Graph in Abb. 5.2.
−(x − 4) = 4 − x
für x < 4,
Anschaulich ist |x − a| = |a − x| der Abstand zwischen den Punkten x und a auf der Zahlengeraden.
5.5b
Eigenschaften des Betrages auf R
Für a, b ∈ R gilt:
(1)
|a| = | − a|,
|a| ≥ a,
(2)
|a| = 0 ⇐⇒ a = 0,
(3)
|a · b| = |a| · |b|,
|a| ≥ −a,
|a/b| = |a|/|b| falls b 6= 0,
(4) Dreiecksungleichung (sie gilt genauso im Rn , siehe 1.9):
|a + b| ≤ |a| + |b|.
(1)
Beweis von (4) (wenn die Eigenschaften (1) und (3) schon zuvor bewiesen worden sind): 2 a b ≤
(3)
(3)
|2 a b| = |2 a| |b| = 2|a| |b|
=⇒ a2 + 2 a b + b2 ≤ a2 + 2 |a| |b| + b2 (Rechnen mit Ungleichungen, O2)
= |a|2 + 2|a| |b| + |b|2 mit |a|2 = a2 und |b|2 = b2
= (|a| + |b|)2 ,
also (a + b)2 ≤ (|a| + |b|)2 ⇐⇒ |a + b| ≤ |a| + |b| (vgl. 5.3b (7) bzw. (8) ).
2
Der Name Dreiecksungleichung“ ist in Dimension n ≥ 2 offensichtlich.
”
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
76
(5) Differenzen von Beträgen:
¯
¯
¯
¯
|a + b| ≥ ¯|a| − |b|¯ ≥
(
|a| − |b|
|b| − |a|
.
Beweisidee: |a| = |a + b − b| und Dreiecksungleichung (4).
(6) “ a < b und − a < b ” ⇐⇒ |a| < b ⇐⇒ −b < a < b (wichtig!, analog für ≤).
Fehlende Beweise zur Übung selbst einfügen!
5.5c
(i)
(ii)
Einige Anwendungen des Betrages
cos x = cos |x| für alle x ∈ R, weil cos x = cos(−x).
f (x) = ln |x| ist definiert für alle x 6= 0, eine gerade Funktion (Abb. 5.3).
Ableitung f 0 =?, Fallunterscheidung (siehe C)
x > 0 : |x| = x, f (x) = ln x, f 0 (x) = 1/x,
x < 0 : |x| = −x, f (x) = ln(−x), f 0 (x) = 1/(−x) · (−1) = 1/x,
also f 0 (x) = 1/x für alle x 6= 0.
1
1
ln |x|
ln |x|
–1
1
–1
Abbildung 5.3: Graph von ln |x|
-1
0
1
-1
Abbildung 5.4: Flächenstück F
(iii) Beschreibung eines Flächenstückes F ⊆ R2 (Abb. 5.4):
F = {x ∈ R2 | |x1 | + |x2 | < 1}, offen.
(iv) Für welche x ∈ R ist |x − 1| ≥ 1 − x2 ? ⇐⇒ x2 − 1 + |x − 1| ≥ 0 ? Sicher richtig für
x2 ≥ 1. Es bleibt x ∈ (−1, 1) zu untersuchen, dort ist x − 1 < 0, also |x − 1| = −x + 1.
Somit ist für x ∈ (−1, 1) die Bedingung x2 − 1 − x + 1 = x(x − 1) ≥ 0 zu prüfen, die für
x ∈ (−1, 0] richtig ist. Also
M = {x ∈ R | |x − 1| ≥ 1 − x2 } = (−∞, 0] ∪ [1, ∞) = R \ (0, 1).
5.6
Die Bernoullische Ungleichung
Für jedes a ∈ R , a ≥ −1, n ∈ N0 gilt die einfache und sehr nützliche Bernoullische Ungleichung
(1 + a)n ≥ 1 + n a.
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
77
Veranschaulichung für die Aussagen A(n), n ∈ N0 , hier Ungleichungen:
n = 0, A(0) :
(1 + a)0 = 1 = 1 + 0 a,
n = 1, A(1) :
(1 + a)1 = 1 + 1 a,
n = 2, A(2) :
(1 + a)2 = 1 + 2 a + a2 ≥ 1 + 2 a,
n = 3, A(3) :
(1 + a)3 = 1 + 3 a + 3 a2 + a3 = 1 + 3 a + a2 (3 + a) ≥ 1 + 3 a,
(1 + a)n = (1 + a) (1 + a) . . . (1 + a) = 1 + n a + weitere Terme. Die weiteren Terme sind einzeln
≥ 0 für a ≥ 0, ihre Summe ist sogar noch positiv für a ∈ [−1, 0). Ein Beweis mit vollständiger
Induktion (I) basiert auf
A(n)
(1 + a)n+1 = (1 + a) (1 + a)n ≥ (1 + a) (1 + n a) = 1 + (n + 1) a + n a2 ≥ 1 + (n + 1) a.
In der ersten Ungleichung wurde sowohl (1 + a) ≥ 0 ⇔ a ≥ −1 als auch die Bernoullische
Ungleichung für n , die Aussage A(n), benutzt. Also gilt: “A(n) impliziert A(n + 1)”.
Bei 0 < q < 1 benutzt man oft q = 1/(1 + a), a > 0. Damit gilt z.B.
0 < q n ≤ 1/(1 + na) < (1/a) (1/n).
5.7
Die Menge C der komplexen Zahlen
5.7a
Definition komplexer Zahlen
Eine komplexe Zahl z ∈ C ist ein geordnetes Paar reeller Zahlen (ebenso wie ein Punkt in der Ebene
R2 ), geschrieben z = x + i y = x + y i, x, y ∈ R, also z = (erste reelle Komponente) + i·(zweite
reelle Komponente). In der komplexen Ebene“, der Gaußschen Zahlenebene“, wird z durch den
³ ´
”
”
2 veranschaulicht, x heißt der Realteil von z, geschrieben x = Re z, und y
Vektor/Punkt x
∈
R
y
der Imaginärteil, y = Im z, die Abszisse bzw. Ordinate in der Gaußschen Zahlenebene, Re z ∈ R
und auch Im z ∈ R.
5.7b
Die Addition komplexer Zahlen
erfolgt komponentenweise wie die Vektoraddition in der Ebene
z + z 0 = (x + i y) + (x0 + i y 0 ) = x + x0 + i (y + y 0 ) '
³
x + x0
y + y0
´
∈ R2 .
³ ´
x auffassen,
0
d.h. die reelle Zahlengerade als Abszisse in der Gaußschen Zahlenebene. Die imaginäre Einheit i =
³ ´
0 + i 1 ' 01 wird durch den Einheitsvektor nach oben“ dargestellt. Hinsichtlich der Addition
”
und der komponentenweisen Multiplikation (Division) mit reellen Zahlen a z = a x + i a y, a ∈ R,
(z/c = x/c + i y/c, c ∈ R, c 6= 0) gibt es keinen Unterschied zwischen C und R2 , als Vektorräume
sind sie gleich. Auch der Betrag ist für beide gleich, siehe 5.7f. Bisher sind keine neuen Inhalte,
sondern nur einige neue Bezeichnungsweisen eingeführt worden. Eine neue und für die komplexen
Zahlen typische Struktur ist die Multiplikation komplexer Zahlen untereinander.
Die reellen Zahlen x ∈ R kann man als spezielle komplexe Zahlen x + i 0 '
5.7c
Die Multiplikation komplexer Zahlen
Zu zwei Zahlen z = x + i y, z 0 = x0 + i y 0 ∈ C ist ein Produkt z z 0 ∈ C definiert als
z · z 0 ≡ z z 0 ≡ (x + i y) (x0 + i y 0 ) := x x0 − y y 0 + i (x y 0 + x0 y),
also Re(z · z 0 ) = x · x0 − y · y 0 ∈ R, Im(z z 0 ) = x y 0 + x0 y ∈ R.
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
78
Man erhält dieses Ergebnis auch, wenn man nur i · i = −1 nutzt, ausführlich geschrieben
(0 + i 1) (0 + i 1) = 0 · 0 − 1 · 1 + i (0 · 1 + 1 · 0) = −1, und sonst die üblichen Rechenregeln
(5.1) wie für reelle Zahlen benutzt. Da für reelle Zahlen a2 ≥ 0 gilt, kann es keine reelle Zahl i mit
i · i = −1 geben, die komplexen Zahlen bilden eine Erweiterung der Zahlen, die die reellen Zahlen
und ihre Rechenoperationen als Spezialfall enthält. In den komplexen Zahlen sind nicht nur polynomiale Gleichungen immer lösbar, mit ihrer Hilfe erkennt man z.B. den Zusammenhang zwischen
der Exponentialfunktion und den trigonometrischen Funktionen, sie sind ein sehr zweckmäßiges und
nützliches Hilfsmittel bei vielen praktischen Problemen, wie etwa der Behandlung von Schwingungen. Der historisch gewachsene Name imaginär“ darf Sie nicht abschrecken! Zur Veranschaulichung
”
der komplexen Multiplikation in der Gaußschen Zahlenebene siehe Abbildung 5.6.
5.7d
Beispiele für Rechnungen mit komplexen Zahlen
(i) Summe: 3 + i 5 + 7 − 2i = 10 + 3i.
(ii) Multiplikation reeller und komplexer Zahlen:
4 (3 + i5) = 12 + i 20 = (4 + i 0) (3 + i 5) = 12 − 0 · 5 + i (0 · 3 + 4 · 5).
(iii) Für welche z ∈ C gilt Re(z 2 ) > 0 ?
Für z = x + i y ist z 2 = x2 − y 2 + 2i x y, Re(z 2 ) = x2 − y 2 , also:
Re(z 2 ) > 0 ⇐⇒ (Re z)2 > (Im z)2 ⇐⇒ | Re z| > | Im z|.
5.7e
Bemerkung: keine Ordnung auf C
Es gibt keine Ordnung für komplexe Zahlen derart, daß für beliebige Paare komplexer Zahlen ein
Trichotomiegesetz gilt und die Ordnung transitiv und mit der Addition und Multiplikation verträglich
ist (vergl. 5.3a).
5.7f
Konjugiert komplexe Zahlen, der Betrag auf C
Zu z = x+i y ∈ C ist die konjugiert komplexe Zahl z̄ = x−i y, also Re z̄ = Re z, Im z̄ = − Im z,
in der Gaußschen Zahlenebene das Spiegelbild bzgl. der Abszisse. 2 + 3i = 2 − 3i. Wir berechnen
z z̄ = (x + i y) (x − i y) = x2 + y 2 + i 0 ∈ R.
Also ist für alle z ∈ C das Produkt z z̄ reell und z z̄ ≥ 0, das Quadrat des Abstands des Punktes z
vom Ursprung in der Gaußschen Zahlenebene (Satz des Pythagoras). Wir definieren als Betrag einer
komplexen Zahl
p
√
| · | : C → R, |z| := z z̄ = (Re z)2 + (Im z)2 .
Für reelle z (Im z = 0) stimmt diese Definition mit der früher in 5.5a gegebenen überein und mit
¯³ ´¯
³ ´
2 gilt außerdem |z| = ¯ x ¯.
der Entsprechung z ∈ C ↔ x
∈
R
¯ y ¯
y
|3 + 4i| =
p
(3 + 4i) (3 − 4i) =
√
9 + 16 = 5,
|i| =
p
(0 + 1i) (0 − 1i) =
√
0 + 1 = 1.
Die Eigenschaften des Betrages reeller Zahlen übertragen sich sinngemäß:
(1)
|z| ≥ 0 , |z| = 0 ⇐⇒ z = 0 (d.h. Re z = 0 und Im z = 0),
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
79
(2) |z · z 0 | = |z| · |z 0 |,
(3) Dreiecksungleichung:
z
|z + z 0 | ≤ |z| + |z 0 |
Die Veranschaulichung in der Gaußschen Zahlenebene erklärt
auch den Namen der Dreiecksungleichung! Eine Dreiecksseite ist höchstens so lang wie die Summe der anderen beiden
Längen, siehe Abbildung 5.5, genauso bei Dreiecken im Rn .
Im reellen Fall entarten diese Dreiecke und liegen ganz auf der
reellen Zahlengeraden.
Beachte aber, daß bei komplexem z im allgemeinen
(nämlich falls y = Im z 6= 0) gilt:
z 2 = x2 − y 2 + 2ixy 6= |z|2 = |z 2 | = x2 + y 2 , anders als bei
reellen Zahlen (vgl. 5.5a)!
5.7g
z + z’
z’
Abbildung 5.5:
Zur
Dreiecksungleichung
Rechenhilfen für komplexe Zahlen
Während die (komponentenweise) Division durch eine reelle Zahl 6= 0 einfach ist, ist die Division
durch eine komplexe Zahl (Multiplikation mit dem Kehrwert) etwas schwieriger, doch ein Trick hilft
(Erweitern führt auf einen reellen Nenner):
z̄
z̄
1
x − iy
=
= 2 = 2
für z 6= 0.
z
z · z̄
|z|
x + y2
1/(3 + 4 i) = (3 − 4 i)/(9 + 16) = 3/25 − i (4/25),
Probe: (3/25 − i (4/25)) (3 + 4 i) = (9/25) + (16/25) + i 0 = 1.
1/i = 1/(0 + i 1) = (0 − i 1)/(0 + 1) = −i
⇐⇒
X
i (−i) = 1.
1
1
(z + z̄) = (x + i y + x − i y) = x = Re z,
2
2
i
i
1h
1h
z − z̄ =
(x + i y) − (x − i y) = y = Im z,
2i
2i
z 0 z̄
z0
(x0 + i y 0 ) (x − i y)
x0 x + y 0 y + i (y 0 x − x0 y)
= 2 =
=
.
z
|z|
x2 + y 2
x2 + y 2
Die Zahl z = r cos ϕ + i r sin ϕ = r (cos ϕ + i sin ϕ), r ≥ 0 (Polarkoordinaten in der Ebene)
erfüllt |z| = r (denn cos2 ϕ + sin2 ϕ = 1 für jedes ϕ ∈ R) und
´
1
1
1
1³
= cos ϕ − i sin ϕ =
cos(−ϕ) + i sin(−ϕ) ,
z
r
r
r
denn der Kosinus ist gerade, der Sinus ungerade (E.2).
Weiterhin gilt (Beweis später in 6.11)
³
´
z · z 0 = r · r0 cos(ϕ + ϕ0 ) + i sin(ϕ + ϕ0 ) ,
d.h. die Beträge werden miteinander multipliziert (wie
es wegen |z z 0 | = |z| |z 0 | sein muß) und die Winkel gegenüber der positiven Abszisse werden addiert, siehe Abbildung 5.6.
Die Addition und Multiplikation komplexer Zahlen
sind gute“ und miteinander verträgliche Operationen,
”
denn sie erfüllen die aus der Schule für reelle Zahlen bekannten (und schon in 5.1 angegebenen) Körperaxiome.
RWTH Aachen
z’
1
z
0
1
z z’
Abbildung 5.6:
Mathematik I+II
Komplexe Multiplikation
5
Reelle und komplexe Zahlen und einige Grundbegriffe
80
5.8 Körpereigenschaften der rationalen, reellen und komplexen Zahlen
Wir präzisieren jetzt die bereits in 5.1 genannten Rechenregeln. Im folgenden steht K für einen
Körper, z.B. für Q, R oder C , und seien a, b, c, . . . ∈ K.
5.8a
Addition
Zu a, b ∈ K ist die Summe a + b ∈ K gegeben mit den Eigenschaften:
(A1) a + b = b + a (Kommutativgesetz).
(A2) a + (b + c) = (a + b) + c (Assoziativgesetz, damit sind beliebig lange endliche Summen auf
natürliche Weise eindeutig erklärt).
(A3) Es gibt ein neutrales Element der Addition (eine Null) 0 ∈ K mit a + 0 = a für alle a ∈ K.
(A4) Zu jedem a ∈ K gibt es ein inverses Element der Addition (ein negatives Element) −a ∈
K mit a + (−a) = 0.
Diese Axiome stellen sicher, daß für a, b ∈ K die lineare Gleichung a + x = b genau eine Lösung
x ∈ K hat. Sie sind z.B. auch richtig im Rn , n beliebig.
5.8b
Multiplikation
Zu a, b ∈ K ist ein Produkt a · b ≡ a b ∈ K gegeben mit
(M1) a b = b a (Kommutativgesetz).
(M2) (a b) c = a (b c) (Assoziativgesetz, =⇒ endliche Produkte).
(M3) Es gibt ein neutrales Element der Multiplikation (eine Eins) 1 ∈ K mit
1 6= 0 und a · 1 = a für alle a ∈ K.
(M4) Zu jedem a ∈ K, a 6= 0 gibt es ein inverses Element der Multiplikation (einen Kehrwert)
a−1 ∈ K mit a · a−1 = 1.
Diese Axiome stellen z.B. für a 6= 0 die eindeutige Lösbarkeit der linearen Gleichung
a x = b durch ein x ∈ K sicher (eindeutige Division, x = b/a).
5.8c
Verträglichkeit von Addition und Multiplikation
(D1) (a + b) c = a c + b c (Distributivgesetz).
5.8d
Bemerkungen zu Körpern
Diese Axiome zusammen bilden die mathematische Grundlage für das Zahlenrechnen. Bezüglich der
algebraischen Operationen“ Addition und Multiplikation sowie ihrer Umkehrungen, Subtraktion und
”
Division, sind alle Körper gleich gut, insbesondere die von uns betrachteten Q, R und C . Q ist der
kleinste Körper, der die natürlichen Zahlen N enthält. Q und R sind einfacher als C, sie haben eine
Ordnung, hingegen können in C mehr Gleichungen gelöst werden.
√ Gegenüber R (und C) hat Q den Nachteil, nicht vollständig zu sein: es
√ gibt reelle Zahlen wie
2, π, e auf der Zahlengeraden,
die nicht rational √
(Brüche) sind. Beispiel: 2 ∈
/ Q, Widerspruchs√
beweis: Angenommen 2 ist rational (ein Bruch), 2 = p/q, p, q ∈ N, gekürzt (p und q sind nicht
beide gerade), erfüllt p2 /q 2 = 2. Dann ist p2 = 2 q 2 eine gerade Zahl ⇒ p = 2m, m ∈ N, eine
gerade Zahl, p2 = 4 m2 = 2 q 2 ⇒ q 2 = 2 m2 gerade, also q gerade, p und q sind beide durch 2
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
81
√
teilbar, Widerspruch zur Annahme, daß p/q die Darstellung von 2 als gekürzter Bruch ist. Also ist
√
2 nicht rational.
2
Auf die Vollständigkeit der reellen (und komplexen) Zahlen, das ist die Eigenschaft, daß Grenzprozesse nicht aus diesen Zahlenmengen herausführen, kommen wir im Zusammenhang mit der Konvergenz von Folgen und Reihen später zurück. R ist der kleinste vollständige Körper, der N (und
Q) enthält.
5.9 Das Summenzeichen
Das Summenzeichen gestattet die kurze Schreibweise von Ausdrücken, die sonst oft lang oder unübersichtlich wären. Die Benennung des Summationsindex ist unwichtig, meist wird jedoch i, j, k, `, m, n
benutzt. Seien a0 , a1 , a2 , . . . irgendwelche Objekte, die addiert werden können, z.B. reelle oder
komplexe Zahlen, Vektoren, Funktionen.
4
X
aj = a0 + a1 + a2 + a3 + a4 =
j=0
4
X
ak =
k=0
5
X
a`−1 = . . . .
`=1
Seien a1 = 3 + 2i , a2 = −4 , a3 = 2 − 3i ∈ C,
3
X
ak = a1 + a2 + a3 = (3 + 2i) + (−4) + (2 − 3i) = 1 − i ∈ C.
k=1
Ein reelles oder komplexes Polynom vom Grad n kann man schreiben als:
n
X
ck xk ,
ck ∈ R oder C, cn 6= 0.
k=0
Die Exponentialfunktion ist der Grenzwert für n → ∞ der Polynome vom Grad n
n
X
xk
k=0
5.10
k!
.
Summenformeln
Die Beweise der folgenden Formeln für beliebige n ∈ N können mit vollständiger Induktion (siehe
I) geführt werden. Meist benutzt man dabei
à n
!
n+1
X
X
ak =
ak + an+1 ,
k=1
k=1
um die Aussage A(n + 1) für n + 1 auf die für n zurückzuführen. Seien a` = `,
n
X
a` = a0 + a1 + . . . + an = 0 + 1 + . . . + n =
`=0
n
X
`=1
a` =
n
X
`=1
`=
n(n + 1)
,
2
oder die Summe der inversen Potenzen von 2 (Abb. 5.7):
ak = (1/2)k = 1/2k = 2−k
n
X
ak = 1 +
k=0
1 1 1
1
1
+ + + ... + n = 2 − n.
2 4 8
2
2
Abbildung 5.7:
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
82
Allgemeiner ist die geometrische Summenformel:
Sei q ∈ C (oder R), q 6= 1,
n
X
qk =
k=0
1 − q n+1
,
1−q
n ∈ N0 .
Zur Begründung für A(n + 1) ist der wichtigste Schritt:
n+1
X
k
q =
k=0
n
X
q k + q n+1
k=0
1−q
1 − q n+2
A(n) 1 − q n+1
=
+ q n+1
=
.
1−q
1−q
1−q
Bei der mittleren Gleichheit wurde die Gleichung für n ∈ N0 benutzt. Bei kleinen positiven Summanden erhält man die nützliche Abschätzung
n
X
qk ≤
k=n0
1
1−q
für alle 0 ≤ q < 1, n ≥ n0 .
Für q = 1/2 = 2−1 ergibt sich die oben behauptete Kuchenstückformel“
”
−k = 2 − 2−n = 2(1 − 2−(n+1) ).
2
k=0
Pn
Einige weitere Summenformeln sind:
n
X
(2j − 1) = 1 + 3 + . . . + (2n − 1) = n2 ,
j=1
n
X
1
n (n + 1) (2n + 1),
6
k=1

2
n
n
X
X
1
`3 = 1 + 8 + 27 + . . . + n3 = n2 (n + 1)2 = 
j .
4
k 2 = 1 + 4 + 9 + . . . + n2 =
j=1
`=1
P
Beobachtung: nj=1 j p hat als führende Potenz np+1 /(p + 1), vergleiche damit
Rz p
p+1 /(p + 1), also dasselbe qualitative Verhalten! Diese Summenformeln sind kompli0 x dx = z
zierter als die Integrale wegen des Auftretens von Termen niedrigerer Ordnung.
5.11
Fakultät und Binomialkoeffizienten
5.11a
Die Fakultät
Sie tritt häufig bei Abzählungen von Möglichkeiten auf.
0! : = 1
n! : = 1 · 2 · . . . · n =
= (n − 1)! · n
(zweckmäßige Konvention),
Πnj=1
j
(Produktzeichen Π benutzt)
für n ∈ N.
Die letzte Gleichung ist eine Vorschrift zur rekursiven Berechnung von n! . Z.B. gibt n! die Anzahl
der Möglichkeiten an, n Personen in einer Reihe aufzustellen: n Möglichkeiten für den 1. Platz,
(n − 1) für den 2., . . . , eine für den n-ten Platz.
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
5.11b
83
Die Binomialkoeffizienten
Für die Anzahl von Mannschaften mit k Spielern mit Aufstellung (Reihenfolge der Plätze) aus n ≥
k möglichen Spielern haben wir n (n − 1) · · · (n − (k − 1)) = n!/(n − k)! Möglichkeiten. Kommt
es auf die Reihenfolge nicht an (Auswahl von k Gewinnzahlen aus n) so haben wir
µ ¶
n
n (n − 1) · · · (n − k + 1)
n!
:=
=
k
k!
(n − k)! k!
Möglichkeiten. Diese für n, k ∈ N0 , k ≤ n definierten Binomialkoeffizienten treten häufig in der
Mathematik auf, alle sind natürliche Zahlen. Einige Beispiele:
µ ¶
0
0!
1
=
=
= 1,
0
(0 − 0)! 0!
1·1
µ ¶
µ ¶ µ ¶
µ
¶
n
n!
n
n
n!
n
=
=1=
,
=
=n=
.
n
(n − 0)! 0!
0
1
(n − 1)! 1!
n−1
Allgemein gilt eine Symmetrie
µ ¶ µ
¶
n
n
=
, z.B.
k
n−k
µ ¶ µ ¶
49
49
=
= 13.983.816 ,
6
43
es ist gleich ob man beim Lotto die Angekreuzten oder die Anderen wählt.
5.11c
Identität des Pascalschen Dreiecks“
”
³ ´
Bei Anordnung der Binomialkoeffizienten n
k im ”Pascalschen Dreieck“ gibt n die Zeile und k
die Position von links an, jeweils ab 0 gezählt:
µ ¶
0
=1
0
µ ¶
µ ¶
1
1
=1
=1
0
1
µ ¶
µ ¶
µ ¶
2
2
2
=1
=2
=1
0
1
2
µ ¶
µ ¶
µ ¶
µ ¶
3
3
3
3
=1
=3
=3
=1
0
1
2
3
..
.
Damit ist die folgende Identität leicht zu merken: ein Binomialkoeffizient ist die Summe der beiden
(schräg) darüber stehenden,
µ
¶ µ
¶ µ ¶
n+1
n
n
=
+
für n ∈ N, k = 1, . . . , n.
k
k−1
k
Begründung:
¡ ¢ Man nimmt zu n Objekten ein ”neues“ n+1-tes hinzu. Für die Auswahl von k Objekten
gibt es nk Möglichkeiten, wenn
¡ das
¢ neue nicht gewählt wird. Oder das neue wird gewählt und weitere
n
k − 1 aus den anderen n, was k−1
zusätzliche Möglichkeiten ergibt.
Beweis:
µ
¶ µ ¶
n
n
n!
n!
+
=
+
k−1
k
(n − k + 1)! (k − 1)! (n − k)! k!
=
n! k + n! (n − k + 1)
(n + 1)!
=
=
(n − k + 1)! k!
(n + 1 − k)! k!
µ
¶
n+1
.
k
2
RWTH Aachen
Mathematik I+II
5
Reelle und komplexe Zahlen und einige Grundbegriffe
5.12
84
Binomischer Lehrsatz
(a + b)0 = 1,
(a + b)1 = 1 · a + 1 · b,
µ ¶
µ ¶
µ ¶
2 2−0 0
2 2−1 1
2 2−2 2
2
2
2
(a + b) = 1 a + 2 a b + 1 b =
a
b +
a
b +
a
b ,
0
1
2
allgemein
n
(a + b) =
n µ ¶
X
n
k=0
k
an−k b k .
Beweis mit vollständiger Induktion und der Identität des Pascalschen Dreiecks.
Beweisidee: (a + b)n = (a + b) (a + b) · · · (a + b), n Faktoren (Klammern). Aus k Klammern b
³ ´
auswählen, aus den übrigen (n − k) Klammern a auswählen, das ergibt n
k Möglichkeiten für
Faktoren der Form an−k b k , über alle k = 0, . . . , n aufsummieren.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6
85
Grundlegende Funktionen
Wir behandeln in diesem Kapitel die grundlegenden Funktionen wie Polynome, rationale und trigonometrische Funktionen, Exponentialfunktion, Logarithmus etc. sowie die wichtigsten Hilfsmittel zu
ihrer Analyse (Kurvendiskussion).
Alle in diesem Kapitel eingeführten Funktionen sind stetig und beliebig oft stetig differenzierbar
mit Ausnahme der stückweise rationalen Funktionen (6.4), bei denen der Betrag diese guten Eigenschaften an einzelnen Punkten zerstören kann.
6.1
Polynome
In diesem Abschnitt sei Grad(P ) = m ≥ P
1 der Grad des Polynoms P , das ist die höchste auftrem
k
m mit b
tende Potenz der Variablen, z.B. P (x) =
m 6= 0.
k=0 bk x = b0 + b1 x + . . . + bm x
(Der triviale Fall eines konstanten Polynoms P (x) = b0 ist klar.) Polynome werden auch als ganz
rationale Funktionen bezeichnet. Wir vertiefen die in 4.0 begonnene Behandlung der Polynome.
6.1a
Zu den Anwendungen der Polynome
In vielen Fällen sind die Koeffizienten der Polynome bk reelle Zahlen, mitunter auch komplexe. Unabhängig davon hängt es von der Anwendung ab, ob die Variable x nur reelle Werte oder auch komplexe Werte annehmen kann. In der Modellbildung dienen Polynome oft als einfache Funktionen mit
denen empirische Daten (Meßwerte) oder vorgegebene Größen (Sollwerte, Steuerprogressionskurven) effektiv beschrieben und interpoliert werden können. In der Approximation werden komplizierte
Funktionen durch einfachere ersetzt, siehe z.B. 6.1d für stetige Funktionen oder später die Taylorpolynome für differenzierbare Funktionen und Potenzreihen. Stückweise polynomiale Funktionen
niedrigen Grades (Splines, finite Elemente, einige Wavelets) dienen in der Numerik als Ansatzfunktionen.
Bei der Eigenwertberechnung von Matrizen (4.1) und bei der Lösung linearer Differentialgleichungen treten charakteristische Polynome“ auf, deren reelle und komplexe Nullstellen gleicherma”
ßen wichtig sind.
Da ein Polynom vom Grad m ≥ 1 höchstens m Nullstellen hat und im Unendlichen divergiert,
sind Polynome trotz ihrer guten lokalen Eigenschaften schlecht angepaßt, um periodische Vorgänge
approximativ zu beschreiben. Dafür sind trigonometrische Funktionen besser geeignet, das führt auf
die später behandelten Fourierreihen
6.1b
Koeffizientenvergleich, Faktorzerlegung der Polynome
Zwei Polynome P (x) und P̂ (x) sind genau dann gleich, wenn alle ihre Koeffizienten bk und b̂k
paarweise gleich sind, denn für die k-te Ableitung des Polynoms, ausgewertet an der Stelle x = 0,
gilt (d/dx)k P (x)|x=0 = bk k! (selbst nachrechnen!). Die Koeffizienten legen das Polynom also
eindeutig fest und umgekehrt. Das wird später zum Koeffizientenvergleich benutzt (6.6c), analog auch
bei Potenzreihen.
Sind alle Koeffizienten bk des Polynoms P reell und ist a eine Nullstelle von P (x), also
P (a) = 0, dann ist auch a, die zu a konjugiert komplexe Zahl, eine Nullstelle von P , denn für
alle z ∈ C gilt z k = z k (allgemein gilt z z 0 = z z 0 , selbst nachrechnen!) und damit im Fall reeller
Koeffizienten bk z k = bk z k , also P (z) = P (z). Letztere Eigenschaft vererbt sich auf Funktionen,
die durch absolut konvergente Potenzreihen mit reellen Koeffizienten definiert werden, wie zum Beispiel die komplexe Exponentialfunktion: ez̄ = ez , siehe 6.9b.
Wenn a eine reelle oder komplexe Nullstelle eines beliebigen Polynoms P vom Grad m ≥ 1
ist, so kann man P (x) ohne Rest mindestens durch den linearen Faktor (x − a) teilen. Man erhält
P (x) = (x−a) P̃ (x) mit einem Polynom P̃ vom Grad Grad(P̃ ) = Grad(P )−1, also eine Reduktion
des Grades um eins.
Nach dem Fundamentalsatz der Algebra hat jedes Polynom vom Grad m ≥ 1 mindestens eine
Nullstelle in C (und höchstens m verschiedene). Die Abspaltung eines Linearfaktors kann auf P (x),
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
86
ggf. dann auf P̃ u.s.w. angewandt werden. Deshalb läßt sich ein Polynom im Komplexen immer
vollständig in Linearfaktoren (x − aj ) zerlegen:
P (x) = bm (x − a1 )k1 (x − a2 )k2 . . . (x − ar )kr ,
ai ∈ C,
k1 + k2 + . . . + kr = m. Sind die Nullstellen aj paarweise verschieden (d.h. alle Linearfaktoren
zu einer Nullstelle sind zusammengefaßt), so heißen die Exponenten kj die Multiplizitäten“ oder
”
Vielfachheiten“ der Nullstellen aj . Ist kj = 1, so heißt die Nullstelle aj einfach“, bei kj ≥ 2
”
”
mehrfach“ (oder auch entartet“). Wenn a` und aj = a` 6= a` ein konjugiert komplexes Paar von
”
”
Nullstellen eines reellen Polynoms bilden, dann sind auch die Multiplizitäten gleich: kj = k` .
Im rein reellen Fall können neben den Linearfaktoren (x − aj ) zu reellen Nullstellen aj ∈ R
auch irreduzible quadratische Faktoren (x2 + px + q) = (x + p/2)2 + q − p2 /4 mit p, q ∈ R,
p2 < 4q und negativer Diskriminante p2 − 4q auftreten. Sie haben keine reellen Nullstellen sondern
ein konjugiert komplexes Paar. In komplexer Schreibweise mit a = Re a + i Im a, Im a 6= 0 haben
wir (x−a) (x−a) = x−2x Re a+|a|2 = (x−Re a)2 +(Im a)2 > 0 für alle x ∈ R . Die allgemeine
Zerlegung eines reellen Polynoms in reelle Faktoren, die Faktorisierung oder Faktorzerlegung, lautet
dann bei paarweise verschiedenen Nullstellen aj ∈ R :
P (x) = bm (x − a1 )k1 (x − a2 )k2 . . . (x − as )ks (x2 + p1 x + q1 )`1 . . . (x2 + pt x + qt )`t ,
kj ∈ N ist die Vielfachheit der Nullstelle aj ∈ R, k1 + k2 + . . . + ks + 2`1 + . . . + 2`t = m.
Für großen Grad m ist die Bestimmung der Nullstellen und der Produktform oft schwierig, evtl.
kann ein Computeralgebra-System helfen. Kennt man eine Nullstelle a (Raten, Hinweis aus Skizze,
evtl. vom Rechner geliefert, Symmetrie, . . . ), so kann man P (mindestens) durch (x − a) dividieren und damit den Grad reduzieren. Quadratische Polynome können durch explizite Formeln immer
analysiert werden, ebenso spezielle Fälle von Polynomen höherer Ordnung, z.B. biquadratische Gleichungen (quadratische Gleichungen in x2 ). Ein weiteres Verfahren zur Bestimmung von Zerlegungen
lernen wir in 6.12 kennen.
6.1c
Differentiation und Integration von Polynomen
Wie aus der Schule bekannt ist, sind Polynome für alle x ∈ R beliebig oft stetig differenzierbar und
es gilt für die Ableitung von
P (x) =
m
X
bk xk = b0 + b1 x + . . . + bm xm ,
bm 6= 0, m ≥ 1,
k=0
m
X
d
P (x) ≡ P 0 (x) =
k bk xk−1 = b1 + 2b2 x + . . . + m bm xm−1 .
dx
k=1
Die Ableitung ist wieder ein Polynom und der Grad verringert sich um eins. Bei m = 0, P (x) = b0 ,
gilt P 0 (x) ≡ 0 und bei m = 1 gilt P 0 (x) = b1 , ein konstantes Polynom vom Grad 0. Für alle höheren
Ableitungen:
µ ¶2
µ
¶
d
d2
d
d
00
P (x) ≡ 2 P (x) ≡ P (x) :=
P (x) = 2b2 +3·2 b3 x+. . .+m(m−1)bm xm−2 ,
dx
dx
dx dx
dm
dn
(m)
P
(x)
≡
P
(x)
=
m!
b
,
P (x) ≡ P (n) (x) ≡ 0 für n > m.
m
dxm
dxn
Umgekehrt erhöht sich der Grad um eins bei der Integration, der Bestimmung von Stammfunktionen:
Q(x) =
m
X
b1
bm
bk
xk+1 + c = b0 x + x2 + . . . +
xm+1 + c,
k+1
2
m+1
c ∈ R,
k=0
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
87
0
erfüllt für
R jedes c ∈ R die Gleichung Q (x) = P (x), ist also eine Stammfunktion zu P . Wir bezeichnen mit P (x) dx die Menge aller Stammfunktionen zu P :
Z
P (x) dx = {Q(x) | c ∈ R}.
6.1d
Approximierbarkeit durch Polynome, der Satz von Weierstraß
Polynome sind einfach und sie können zur Approximation komplizierter Funktionen benutzt werden,
z.B. die lineare Approximation durch ein Polynom vom Grad ≤ 1 für |x − x0 | klein, oder die quadratische Approximation (siehe z.B. A). Der Satz von Weierstraß besagt, daß auf einem abgeschlossenen
beschränkten Intervall [a, b] ⊆ R eine stetige Funktion f sogar beliebig gut durch ein Polynom
approximiert werden kann: Zu jeder Fehlergrenze ε > 0 (beliebig klein!) gibt es ein Polynom P(ε) ,
so daß
|f (x) − P(ε) (x)| < ε
für alle x ∈ [a, b].
Für differenzierbare Funktionen f lernen wir später ein konstruktives Verfahren zur Bestimmung
eines P(ε) , des Taylorpolynoms, kennen. Bei Verringerung der Fehlertoleranz ε > 0 sind i.a. immer
höhere Potenzen erforderlich (ein höherer Grad von P(ε) ).
6.2
Anwendung: komplexe Eigenwerte und Eigenvektoren
Das charakteristische Polynom (vgl. 4.1) einer reellen (nicht symmetrischen) Matrix kann irreduzible
Anteile haben, dann treten Paare konjugiert komplexer Eigenwerte auf. Wir geben hier ein typisches
Beispiel an, das uns später bei Schwingungsproblemen wieder begegnen wird. Die Matrix A sei
gegeben durch
µ
¶
a b
A=
,
a, b ∈ R.
−b a
Das charakteristische Polynom ist P (λ) = (a − λ)2 + b2 . Für b 6= 0 hat P (λ) die beiden zueinander
konjugiert komplexen einfachen Nullstellen λ1 = a + ib, λ2 = a − ib, P (λ) = (λ − λ1 ) (λ − λ2 ) =
|λ − λ1 |2 . Also hat die Matrix komplexe, nicht reelle Eigenwerte. Die Eigenvektoren sind dann auch
komplex, wir berechnen sie am Beispiel a = 1, b = 3, also λ1,2 = 1 ± 3i. Dazu ist das folgende
lineare Gleichungssystem zu lösen, die Komponenten des Vektors z sind i.a. komplexe Zahlen:
·µ
¶ µ
¶¸
µ
¶µ ¶ µ ¶
1 3
1 + 3i
0
−3i 3
z1
z1
!
0 = [ A − λ1 1 ]z =
−
z=
,
∈ C2 .
−3 1
0
1 + 3i
−3 −3i
z2
z2
Die erste Gleichung −3iz1 + 3z2 = 0 wird z.B. von z1 = 1, z2 = i gelöst, die zweite Gleichung ist
das i-fache der ersten. Der zu z konjugiert komplexe Vektor z = (z1 , z2 )tr ist dann automatisch ein
Eigenvektor zum Eigenwert λ2 = λ1 :
µ
¶µ ¶
µ ¶
µ
¶µ ¶
µ ¶
1 3
1
1
1 3
1
1
= (1 + 3i)
,
= (1 − 3i)
.
−3 1
i
i
−3 1
−i
−i
6.3
Intermezzo: Ableitungsregeln
Eine Funktion f heißt im Punkt x (ihres Definitionsbereiches) differenzierbar, wenn der Grenzwert
1
d
f (x) ≡ f 0 (x) := lim (f (x + h) − f (x))
h→0 h
dx
existiert. Anschaulich beschreibt f 0 (x) die Steigung des Graphen von f an der Stelle x. f heißt im
(offenen) Intervall (a, b) differenzierbar, wenn sie es an jeder Stelle x ∈ (a, b) ist. Häufig ist die
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
88
Ableitung stetig, dann heißt f dort stetig differenzierbar. Wenn die Ableitung wieder differenzierbar
ist, dann heißt die Ableitung der Ableitung die zweite Ableitung u.s.w. Mit den Ableitungen bestimmt
man die lineare, quadratische u.s.w. Approximation einer differenzierbaren Funktion in der Nähe
einer Stelle, siehe A.
Seien für (a) − (c) die Funktionen f, g (stetig) differenzierbar auf (a, b). Wir rekapitulieren
die schon aus der Schule bekannten Differentiationsregeln.
6.3a
Linearität der Ableitung
f ± g und α f, α ∈ R (oder C) sind (stetig) differenzierbar auf (a, b) und
(f ± g)0 = f 0 ± g 0 ,
(α f )0 = α · f 0 .
6.3b
Produktregel (auch Leibnizregel“)
”
f · g ist (stetig) differenzierbar auf (a, b) und (f · g)0 = f 0 · g + f · g 0 .
6.3c
Quotientenregel
f /g ist auf dem Definitionsbereich {x ∈ (a, b) | g(x) 6= 0} (stetig) differenzierbar und dort gilt
(f /g)0 = (f 0 · g − f · g 0 )/g 2 .
6.3d
Kettenregel
Sei die Komposition der (stetig) differenzierbaren Funktionen f und g definiert, z.B. f (stetig)
differenzierbar auf (a, b) mit f (x) ∈ (α, β) für alle x ∈ (a, b) und sei g auf (α, β) (stetig)
differenzierbar, dann ist die Komposition (g ◦ f )(x) = g(f (x)) auf (a, b) (stetig) differenzierbar
und (g◦f )0 (x) = g 0 (f (x))·f 0 (x). (Im Hinblick auf die Verallgemeinerung der Kettenregel für höhere
Dimensionen ist es zweckmäßig, sich die Regel so zu merken, daß die innere Ableitung“ f 0 (x) als
”
hinterer Faktor steht.)
6.3e
Gliedweise Differentiation absolut konvergenter Potenzreihen
Viele wichtige Funktionen sind durch gutartige“ (absolut konvergente) Potenzreihen definiert, das
”
sind Grenzwerte von Polynomen mit unendlich vielen Summanden. Das Konvergenzverhalten solcher Reihen behandeln wir später. Wir erwähnen schon hier, daß man
naiv“ –
P mit diesen Objekten
”
k mit positivem
b
(x
−
z
)
wie mit Polynomen – umgehen kann. Eine Potenzreihe f (x) := ∞
0
k
k=0
Konvergenzradius ( R > 0 oder R = ∞ ) ist für alle x mit |x − z0 | < R absolut konvergent. Dort
ist f stetig differenzierbar, und die Ableitungen erhält man durch gliedweises Differenzieren“:
”
∞
X
f 0 (x) =
bk k (x − z0 )k−1 für alle x ∈ (z0 − R, z0 + R), bzw. x ∈ R falls R = ∞,
k=1
entsprechend für höhere Ableitungen. Die Reihen für die Ableitungen sind dort wieder absolut konvergent.
6.3f
Bemerkungen zum Betrag
Die Betragsfunktion g(x) = |x| ist für alle x 6= 0 stetig differenzierbar mit g 0 (x) = 1 für x > 0
und g 0 (x) = −1 für x < 0. An der Stelle x = 0 ist g nicht differenzierbar, denn der Graph hat dort
einen Knick, es gibt keine eindeutige Tangente, siehe Abbildung 5.1. Für eine (stetig) differenzierbare Funktion f ist die zusammengesetzte Funktion g ◦ f, g ◦ f (x) = |f (x)| sicher an allen Stellen
differenzierbar, an denen f (x) 6= 0 gilt. An den Nullstellen von f kann die Differenzierbarkeit verlorengehen (z.B. für | sin x|), sie kann aber auch weiterbestehen (z.B. bei |x3 |), es hängt von den Details
des Verhaltens von f in der Nähe der Nullstellen ab.
RWTH Aachen
Mathematik I+II
6
6.4
Grundlegende Funktionen
89
Rationale Funktionen, asymptotische Polynome
Rationale Funktionen sind Quotienten von zwei Polynomen (sei j = Grad(Pj ) )
R(x) =
Pk (x)
,
Pm (x)
mit Definitionsbereich DR = {x ∈ R | Pm (x) 6= 0}.
Im Spezialfall eines konstanten Polynoms im Nenner erhalten wir eine ganz rationale Funktion ein
Polynom, das wir oben bereits besprochen haben. Wir behandeln hier nur rationale Funktionen mit reellen Koeffizienten und Argumenten. Außer an den Nullstellen des Nenners sind rationale Funktionen
für alle reellen (oder komplexen) Argumente definiert und beliebig oft stetig differenzierbar. Die Ableitung berechnet man leicht mit Hilfe der Quotientenregel 6.3c aus den Ableitungen der Polynome.
Falls k ≥ m kann ein asymptotisches Polynom Pk−m durch Polynomdivision mit Rest abgespalten
werden,
R(x) =
Pk (x)
Pn (x)
= Pk−m (x) +
, n < m,
Pm (x)
Pm (x)
z.B.
2x3
4x
= 2x − 2
.
2
x +2
x +2
Offenbar gilt Pn (x)/Pm (x) → 0 für |x| → ∞. Eine einfache Verallgemeinerung sind stückweise
rationale Funktionen R̃(x), bei denen z.B. Beträge von polynomialen Termen im Zähler und/oder
±
Nenner auftreten. Dann kann es zwei asymptotische Polynome Pk−m
geben:
+
lim (R̃(x) − Pk−m
(x)) = 0,
x→+∞
−
lim (R̃(x) − Pk−m
(x)) = 0.
x→−∞
Da Polynome einfacher sind und bereits zuvor besprochen wurden, brauchen wir nur noch den echten
”
Bruch“ zu behandeln:
r(x) =
p(x)
p(x)
=
q(x)
(x − a1 )k1 · · · (x − as )ks (x2 + p1 x + q1 )`1 · · · (x2 + pt x + qt )`t
mit Grad(p) < Grad(q) = k1 + . . . + ks + 2`1 + . . . + 2`t = m, ai , pj , qj ∈ R, p2j < 4 qj . Nach
6.1b ist eine solche reelle Zerlegung des Nennerpolynoms immer möglich (ein Vorfaktor kann in den
Zähler p einbezogen werden), sie wird im Weiteren als bekannt vorausgesetzt. Der Definitionsbereich
ist R \ {a1 , . . . , as }.
6.5
Die reelle Partialbruchzerlegung
Rationale Funktionen mit Grad des Zählers kleiner als dem Grad des Nenners lassen sich eindeutig
in eine Summe von einfacheren Termen zerlegen. Das erleichtert wesentlich die Anwendung linearer
Operationen, z.B. der Integration, auf rationale Funktionen. Ein Faktor der Form (x − a)k (Linearfaktor) im Nenner erfordert k Summanden der Form
A1
A2
Ak
+
+ ... +
x − a (x − a)2
(x − a)k
und jeder irreduzible Faktor der Form (x2 + px + q)` im Nenner erfordert jeweils ` Summanden
B2 x + C2
B` x + C`
B1 x + C1
+ 2
+ ... + 2
.
2
2
x + px + q (x + px + q)
(x + px + q)`
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.5a
90
Satz über die reelle Partialbruchzerlegung
Sei
r(x) =
p(x)
p(x)
=
q(x)
(x − a1 )k1 · · · (x − as )ks (x2 + p1 x + q1 )`1 · · · (x2 + pt x + qt )`t
mit Grad(p) < Grad(q) = k1 + . . . + ks + 2`1 + . . . + 2`t = m, ai , pj , qj ∈ R, p2j < 4 qj , die
Nullstellen ai ∈ R paarweise verschieden. Dann gibt es eindeutige reelle Koeffizienten
(1)
(1)
(s)
(s)
(1)
(1)
(t)
(t)
A1 , . . . , Ak1 , . . . , A1 , . . . , Aks , B1 , C1 , . . . , B`t , C`t ,
so daß
(1)
r(x) =
(s)
(1)
(s)
Ak1
Aks
A1
A1
+ ... +
+
.
.
.
+
+
.
.
.
+
k
x − a1
(x − as )
(x − a1 ) 1
(x − as )ks
(1)
(1)
(t)
(t)
(1)
(1)
B x + C`1
B`t x + C`t
B1 x + C1
+ 2
+ . . . + 2 `1
+
.
.
.
+
.
(x + p1 x + q1 )
(x + p1 x + q1 )`1
(x2 + pt x + qt )`t
Die Möglichkeiten zur Bestimmung der Koeffizienten erläutern wir in 6.6 an Beispielen.
6.5b
Stammfunktionen zu einigen Partialbrüchen
Zu einigen Termen, die bei der Partialbruchzerlegung auftreten, können wir mit den elementaren
Ableitungsregeln (siehe D.2, 5.5c(ii), 6.1c und 6.3) bereits leicht Stammfunktionen angeben.


für k = 1,
ln |x − a| + c
1
f (x) =
, x 6= a,
F (x) =
−1
1

(x − a)k
+c
für k ≥ 2

k − 1 (x − a)k−1
erfüllt F 0 = f für jedes c ∈ R. Entsprechend erhält man mit irreduziblen quadratischen Termen im
Nenner, also mit p2 < 4q, für x ∈ R


für ` = 1,
ln |x2 + px + q| + c
2x + p
f (x) = 2
,
F
(x)
=
−1
1

(x + px + q)`
+c
für ` ≥ 2.

2
` − 1 (x + px + q)`−1
Wie man durch Differentiation leicht verifiziert, gilt auch mit der Funktion g(x) = arctan(x), deren
Ableitung g 0 (x) = 1/(1 + x2 ) ist (siehe 7.4b (iii) ),
!
Ã
1
1
x + p/2
+ c.
f (x) = 2
,
F (x) = p
arctan p
(x + px + q)
q − p2 /4
q − p2 /4
Nur die Terme mit konstantem Zähler und einer höheren Potenz eines irreduziblen quadratischen
Terms im Nenner sind komplizierter, deren Integrale lernen wir später kennen.
6.6
Bestimmung der Koeffizienten der Partialbruchzerlegung
6.6a
Koeffizienten der höchsten Potenzen der Linearfaktoren
Dieses auch als Zuhaltemethode bekannte Verfahren erlaubt es, einige der Koeffizienten sehr einfach
zu bestimmen. Wenn das Nennerpolynom nur einfache Nullstellen hat (alle Potenzen kj = 1) und
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
91
keine irreduziblen Faktoren, dann liefert diese Methode schon die vollständige Partialbruchzerlegung.
Betrachte eine Nullstelle des Nenners aj mit Vielfachheit kj . Multiplikation mit (x − aj )kj ergibt
n o
(j)
r(x) (x − aj )kj = Akj + (x − aj )kj . . . .
Einsetzen von x = aj ergibt
p(aj )
(j)
= Akj ,
q̃(aj )
wobei das Polynom q̃ aus q durch Weglassen ( Zuhalten“) des Faktors (x − aj )kj entsteht. Das ist
”
für alle Nullstellen durchzuführen. (Genaugenommen wird hier die eindeutige stetige Ergänzung der
zunächst für x = ai nicht definierten Funktion r(x) (x − ai )ki betrachtet.)
(1)
(2)
Beispiele, zunächst nur einfache Nullstellen (anstelle von A1 , A1 , schreiben wir einfacher A, A0 ):
r(x) :=
3x + 1
A
A0
!
=
+
.
(x − 1) (x + 2)
x−1 x+2
Die Nullstelle x = 1 ergibt: (3 · 1 + 1)/(1 + 2) = A, während wir für x = −2 erhalten: (3 · (−2) +
1)/(−2 − 1) = A0 . Also
3x + 1
4/3
5/3
=
+
.
(x − 1) (x + 2)
x−1 x+2
r(x) =
Die Partialbruchzerlegung ist vollständig bestimmt. Sind mehrfache Nullstellen und/oder irreduzible
Faktoren vorhanden, so erhalten wir auf diesem Wege nur ein Teilergebnis:
r(x) :=
A1
A2
−9
Bx + C
!
=
+
.
+ 2
2
2
2
(x − 1) (x + 2)
x − 1 (x − 1)
x +2
Zur Bestimmung von A2 wird im Nenner (x−1)2 zugehalten und x = 1 eingesetzt, also (−9)/(12 +
2) = A2 = −3, und wir erhalten
r(x) =
6.6b
−9
A1
−3
Bx + C
=
+
.
+ 2
2
2
2
(x − 1) (x + 2)
x − 1 (x − 1)
x +2
Reduktionen
Nachdem alle Koeffizienten zu den Linearfaktoren mit den höchsten Potenzen bestimmt wurden, kann
nun der Grad des Nennerpolynoms in r(x) erniedrigt werden. Wir erläutern das Vorgehen am zuletzt
behandelten Beispiel.
r(x) −
−3
−9
−3
−9 + 3(x2 + 2)
=
−
=
(x − 1)2
(x − 1)2 (x2 + 2) (x − 1)2
(x − 1)2 (x2 + 2)
=
3(x2 − 1)
3(x + 1) (x − 1)
3(x + 1)
=
=
.
2
2
2
2
(x − 1) (x + 2)
(x − 1) (x + 2)
(x − 1) (x2 + 2)
Die Teilbarkeit des neuen Zählers durch (x − aj ), hier durch (x − 1), ist eine gute Rechenkontrolle!
Der neue Nenner enthält den Faktor (x − 1)2 nicht mehr. Im resultierenden
3(x + 1)
A1
Bx + C
!
=
+ 2
(x − 1) (x2 + 2)
x−1
x +2
wird nun A1 = 2 wieder durch Zuhalten bestimmt. Erneute Reduktion führt auf
3(x + 1)
2
−2x + 1 ! Bx + C
−
= 2
= 2
.
2
(x − 1) (x + 2) x − 1
x +2
x +2
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
92
Wir können B = −2 und C = 1 ablesen. Die Partialbruchzerlegung ist also
2
3
−9
−2x + 1
=
−
+ 2
.
2
2
2
(x − 1) (x + 2)
x − 1 (x − 1)
x +2
Durch Zuhalten und Reduktion (evtl. mehrfach abwechselnd) können alle Terme von Nullstellen im
Nenner bestimmt werden. Außerdem erhält man die Koeffizienten B und C, wenn höchstens ein
irreduzibler Faktor mit der Potenz 1 auftritt, wie wir gerade im Beispiel sahen. Es bleibt nur noch
der Fall mit mehreren irreduziblen Faktoren oder höheren Potenzen davon zu behandeln.
Bevor man ein Ergebnis anwendet, sollte man nie versäumen, die Probe zu machen!!
6.6c
Beispiel für systematischen Koeffizientenvergleich
Dieses Verfahren führt immer zum Ziel, der Rechenaufwand ist jedoch meist deutlich geringer, wenn
zuvor die Reduktionsschritte durchgeführt werden. Außerdem ist die Rechenkontrolle auf dem Wege
sehr nützlich! Deshalb behandeln wir hier nur Beispiele mit irreduziblen Faktoren im Nenner. In allen
Fällen multiplizieren wir die Gleichung mit dem Nenner q(x) und erhalten damit eine polynomiale
Gleichung. Polynome sind genau dann gleich, wenn alle Koeffizienten (Faktoren vor den Potenzen)
gleich sind (siehe 6.1b), deshalb erhalten wir durch Koeffizientenvergleich ein lineares Gleichungssystem.
r(x) :=
Dx + E
x3 + 2
! Bx + C
= 2
+ 2
2
2
(x + 2) (x + 3)
x +2
x +3
⇐⇒
x3 + 2 = (Bx + C) (x2 + 3) + (Dx + E) (x2 + 2)
= (B + D)x3 + (C + E)x2 + (3B + 2D)x + (3C + 2E).
Koeffizientenvergleich ergibt das lineare Gleichungssystem
1=B+D
0=C +E
0 = 3B + 2D
2 = 3C + 2E
mit der eindeutigen Lösung C = 2 = −E, B = −2, D = 3, also
r(x) =
x3 + 2
−2x + 2 3x − 2
= 2
+ 2
.
2
2
(x + 2) (x + 3)
x +2
x +3
Entsprechend, wenn höhere Potenzen irreduzibler Faktoren auftreten:
r(x) :=
x2
B2 x + C2
! B1 x + C1
=
+ 2
2
2
2
(x + 1)
x +1
(x + 1)2
x2 = (B1 x + C1 ) (x2 + 1) + (B2 x + C2 )
⇐⇒
⇐⇒
C1 = 1 = −C2 , B1 = B2 = 0.
Man kann allgemein zeigen, daß man bei diesem Verfahren so viele lineare Gleichungen wie
Unbekannte erhält und daß dieses Gleichungssystem genau eine Lösung hat.
6.7
Lokale Extrema differenzierbarer Funktionen
6.7a
Definition lokaler Extrema
Für reellwertiges f : (a, b) → R hat f in xmin ∈ (a, b) ein lokales Minimum, wenn es ein δ > 0
gibt, so daß f (xmin ) ≤ f (x) für alle x ∈ (xmin − δ, xmin + δ); ein lokales Maximum falls f (xmax ) ≥
f (x) für alle x ∈ (xmax − δ, xmax + δ). Die Stelle xmin heißt (lokale) Minimalstelle und xmax heißt
Maximalstelle. Lokale Extrema heißen auch relative Extrema.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.7b
93
Bemerkung über lokale und absolute Extrema
Bei lokalen Extrema werden nur die Funktionswerte in einer passend gewählten hinreichend kleinen Umgebung der Extremstelle zum Vergleich herangezogen, siehe Abbildung 6.1. Es kann Stellen
geben, an denen eine Funktion kleinere Werte als an einem lokalen Minimum annimmt und entsprechend für Maxima. Lokale Extremstellen, auch gemeinsam mit xex bezeichnet, brauchen keine
absoluten Extremstellen zu sein.
Für die Funktion

4
2
für x > 1

(x − 1) − 2(x − 1)
f (x) = 0
für − 1 ≤ x ≤ 1


4
2
−(x + 1) + 2(x + 1)
für x < −1
(selbst skizzieren!) sind alle x ∈ (−1, 1) sowohl lokale Minimalstellen als auch Maximalstellen, bei
x = −1 und x = 2 liegen lokale Minima, während x = 1 und x = −2 lokale Maximalstellen
sind.
kein abs. Max.
lok. Max
lok. Min.
0
absolutes Min.
Abbildung 6.1: Extrema
6.7c
Abbildung 6.2: Nullstellen der Ableitung
Satz über lokale Extrema differenzierbarer Funktionen
(i) Notwendige Bedingung: Sei f : (a, b) → R differenzierbar und sei xex ∈ (a, b) eine lokale
Extremstelle, dann gilt f 0 (xex ) = 0.
Bemerkung: Das Verschwinden der Ableitung ist also dort eine notwendige Bedingung für relative Extremstellen, wo f differenzierbar ist. Die Nullstellen von f 0 , die auch als kritische
Punkte bezeichnet werden, sind die Kandidaten für lokale Extremstellen im Differenzierbarkeitsintervall von f , Randpunkte oder Knickstellen (z.B. f (x) = |x| bei x = 0) und andere
Stellen, an denen f nicht differenzierbar ist, können weitere Kandidaten sein. Polynome, rationale und trigonometrische Funktionen, die Exponentialfunktion und viele andere sind (auf
ihrem Definitionsbereich) beliebig oft differenzierbar.
(ii) Ein hinreichendes Kriterium für die Existenz von lokalen Extrema ist das schon aus der Schule
bekannte Kriterium: Sei f (mindestens) zweimal bei x0 stetig differenzierbar.
Wenn f 0 (x0 ) = 0 und f 00 (x0 ) > 0, dann hat f bei x0 = xmin ein lokales Minimum;
wenn f 0 (x0 ) = 0 und f 00 (x0 ) < 0, dann ein lokales Maximum bei x0 = xmax ;
die quadratische Approximation (siehe A) g(x) = f (x0 ) + (1/2)f 00 (x0 )(x − x0 )2 ist dann eine
nach oben/unten offene Parabel, die das qualitative Verhalten von f nahe x0 beschreibt. Wenn
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
94
auch f 00 (x0 ) = 0, dann ist so noch keine Aussage möglich, dort sind Zusatzbetrachtungen
erforderlich, siehe dazu die Beispiele in 6.7d.
Beweis von (i): Sei xmin eine lokale Minimalstelle, d.h. f (x) ≥ f (xmin ) für |x − xmin | < δ.
(
f (x) − f (xmin ) ≥ 0 für x > xmin ,
also
x − xmin
≤ 0 für x < xmin ,
f (x) − f (xmin )
f (x) − f (xmin )
≥ 0,
lim
≤ 0.
x&xmin
x%xmin
x − xmin
x − xmin
Aus der Differenzierbarkeit von f in xmin folgt die Gleichheit beider Grenzwerte, also
lim
f 0 (xmin ) = lim
x&xmin
f (x) − f (xmin )
f (x) − f (xmin )
= lim
= 0.
x%xmin
x − xmin
x − xmin
Entsprechend für lokale Maxima mit entgegengesetzten Vorzeichen.
6.7d
2
Beispiele lokaler Extrema, einige Potenzen
f (x) = x3 ,
f 0 (x) = 3x2 ,
f 00 (x) = 6x,
x ∈ R.
Die Funktion f ist als Polynom überall differenzierbar. Einziger Kandidat für eine lokale Extremstelle
ist deshalb die einzige Nullstelle der Ableitung f 0 : x = 0, mit f 00 (0) = 0. Hier liegt bei x = 0 kein
lokales Extremum, denn f (x) > 0 = f (0) für x > 0 und f (x) < 0 für x < 0, dasselbe für höhere
ungerade Potenzen.
g(x) = x4 ,
g 0 (x) = 4x3 ,
g 00 (x) = 12x2 , x ∈ R.
g 0 (x) = 0 ⇔ x = 0, g 00 (0) = 0. Bei x = 0 liegt ein relatives (und sogar absolutes) Minimum vor,
denn g(x) > 0 = g(0) für alle x 6= 0, ebenso für höhere gerade Potenzen. Die Beispiele zeigen, daß
f 0 (x0 ) = 0 oder f 0 (x0 ) = 0 = f 00 (x0 ) alleine keine Entscheidung über das Vorliegen lokaler Extrema zulassen. Es sind Zusatzbetrachtungen erforderlich, man kann etwa das Vorzeichen der Ableitung
auf beiden Seiten von x0 betrachten oder die Funktionswerte dort mit f (x0 ) vergleichen.
6.8
Kurvendiskussionen
Aus der Schule und aus den Übungen zur Vorlesung sind zahlreiche Beispiele von Kurvendiskussionen bekannt. Je nach dem Beispiel sind typische Fragen z.B.: Definitionsbereich, Nullstellen, Symmetrie (gerade, ungerade, siehe 5.2), Periodizität, Polstellen, Verhalten an den Rändern des Definitionsbereichs, asymptotische Polynome, lokale Extrema, evtl. Wendepunkte, Wertebereich; immer eine
Skizze des Graphen anfertigen. Wir behandeln im Skriptum nur wenige Beispiele exemplarisch, mehr
dazu in den Übungen.
6.8a
Beispiel: rationale Funktionen und Verwandte
Als erstes einfaches Beispiel betrachten wir
f (x) =
2x (x + 2) |x + 1|
.
(x − 1)2 (x + 1)
Bei dem Definitionsbereich sind die Nullstellen des Nenners ausgeschlossen, also Df = R \
{−1, 1} = {x ∈ R | x 6= −1, x 6= 1}. Wir können den Ausdruck vereinfachen zu der stückweise rationalen Funktion

2x (x + 2)


für x > −1, x 6= 1,
 (x − 1)2
f (x) =

2x (x + 2)

−
für x < −1.
(x − 1)2
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
95
Man sieht unmittelbar: Die Funktion f unterscheidet sich von der rationalen Funktion R(x) =
2x (x + 2)/(x − 1)2 nur dadurch, daß für x < −1 der Graph von f an der Abszisse gespiegelt
ist, vgl. Abb. 6.3. Die asymptotischen Polynome sind P + (x) = +2 für x → +∞ und P − (x) = −2
für x → −∞. Nullstellen sind bei x = 0 und x = −2. Bei x = 1 ist eine Polstelle zweiter Ordnung.
Da 2x (x + 2) in der Nähe positiv ist, folgt, daß f (x) gegen +∞ strebt für x → 1, von beiden Seiten.
Die Ableitung von f ist für x > −1 bzw. x < −1:
f 0 (x) = ±
−8x − 4
(x − 1)3
mit Nullstelle bei x = −1/2 (d.h. nur für x > −1). In der Nähe ist f 0 (x) > 0 (< 0) für x >
−1/2 (< −1/2), deshalb liegt dort ein Minimum vor. Als Graph von f erhalten wir Abbildung 6.3.
6
f
5
f
4
3
2
P+ = 2
1
K5
P − = −2
f
K1
0
5
x
10
K2
K3
Abbildung 6.3: Graph der stückweise rationalen Funktion f mit Asymptoten P ± = ±2
6.8b
Hinweise für die Kurvendiskussion
Ausnahmepunkte beachten: Nullstellen von Nennern gehören nicht zum Definitionsbereich. (Allerdings kann es stetige Fortsetzungen mit größerem Definitionsbereich geben wie bei (sin x)/x oder
(cos x) (tan x) oder (x2 − 1)/(x + 1) . Sie sind von der ursprünglich gegebenen Funktion zu unterscheiden. Bei Berücksichtigung der Sonderrolle der Nullstellen des Nenners/Singularitäten kann
man jedoch die einfachere, z.B. gekürzte“ Fortsetzung, (x − 1) anstelle von (x2 − 1)/(x + 1) für
”
x 6= −1 oder sin x anstelle von (cos x) (tan x) für x 6= kπ + π/2, k ∈ Z, diskutieren.)
Stellen, an denen die Funktion nicht differenzierbar ist (Nullstellen von Termen in Beträgen oder
in Wurzeln daraufhin prüfen!), erfordern bei der Bestimmung von Extrema eine Sonderbehandlung,
ebenso Randpunkte des Definitionsbereichs.
Komposition von Funktionen: Wenn f (x) = (h ◦ g)(x) = h(g(x)), so ist es oft zweckmäßig,
zunächst g zu diskutieren. Die Komposition mit h kann eine (weitere) Einschränkung des Definitionsbereichs bewirken (z.B. bei h = ln oder tan), sie kann den Wertebereich einschränken (z.B. bei
h = exp oder cosh), sie kann den Graphen vertikal stauchen“ (z.B. bei h = arctan oder tanh )
”
oder sie kann den Graphen vertikal strecken“ (z.B. bei h = sinh oder artanh).
”
Wenn h streng monoton ist, dann liegen die lokalen Extrema von f an denjenigen Stellen, die lokale Extremstellen von g sind, und die im Definitionsbereich von f liegen (möglicherweise weitere
an Randpunkten des Definitionsbereichs).
Der Übergang von f zur einfacheren Funktion g macht die Diskussion oft übersichtlicher und
weniger fehleranfällig.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
96
6.9
Exponentialfunktion
6.9a
Definition als Potenzreihe
Für beliebige (reelle oder) komplexe Argumente z kann die Exponentialfunktion durch ihre Potenzreihe definiert werden:
ez ≡ exp{z} :=
∞
X
zk
k=0
k!
=1+z+
z2 z3
z4
+
+
+ ... ,
2
6
24
z ∈ C.
Man kann zeigen, daß die unendliche Summe ( Reihe“) konvergiert, d.h. daß die endlichen Teilsum”
men für jedes feste z ∈ C im Grenzwert von immer mehr Summanden gegen einen eindeutigen
Grenzwert streben. (Die Reihe ist sogar sehr robust gegenüber Manipulationen, sie konvergiert ab”
solut“ und sie hat Konvergenzradius“ R = ∞.)
”
Aus dieser Reihendarstellung kann man die Eigenschaften der Funktion folgern, man kann auch
alternativ einige der Eigenschaften als Definition benutzen und z.B. die Reihendarstellung daraus
folgern. Wenn die Argumente der Funktion komplex sein dürfen, wird oft z = x + iy ∈ C, x, y ∈ R
gebraucht, im häufigen Spezialfall reeller Argumente meist x ∈ R. Für den Graphen der reellen
Exponentialfunktion siehe Abb. 0.1.
6.9b
Eigenschaften der Exponentialfunktion
(1) e0 = 1;
(2) die Funktionalgleichung“ ez1 +z2 = ez1 ez2 , z1 , z2 ∈ C;
”
³
z ´n
, z ∈ C;
(3) die Zinseszinsformel“ ez = lim 1 +
”
n→∞
n
µ
¶
∞ 1
P
1 n
1
= lim 1 +
= 2, 71828 . . . ,
(4) die Eulerzahl e = e =
n→∞
n
k=0 k!
(5) die Ableitungsregel
d x
e = ex ,
dx
e ist irrational;
x ∈ R.
Die Reihendarstellung 6.9a und die Zinseszinsformel (3) können gleichwertig als Definition benutzt
werden, sie sind äquivalent. Die Exponentialfunktion ist die einzige stetige Funktion, die die Funktionalgleichung (2) f (z1 + z2 ) = f (z1 ) f (z2 ) und (4) f (1) = e erfüllt. Die Exponentialfunktion mit
reellem Argument, die reelle Exponentialfunktion“, ist die einzige differenzierbare Funktion, die die
”
Ableitungsregel (5) f 0 (x) = f (x) und (1) f (0) = 1 erfüllt.
Die Ableitungsregel (5) folgt daraus, daß
 k−1

 x
k
für k ≥ 1,
d x
= (k − 1)!

dx k!

0
für k = 0,
die Summanden der Reihe werden lediglich um einen Platz verschoben. [ Gliedweises“ Differenzie”
ren ist wie für endliche Summen auch für unendliche Summen, die Potenzreihen, erlaubt, wenn diese
absolut konvergent sind.]
Weitere nützliche Eigenschaften der Exponentialfunktion:
(6) ez 6= 0, denn e−z ez = e0 = 1 ⇐⇒ e−z =
1
,
ez
z ∈ C;
(7) ex ∈ R für x ∈ R, ex ≥ 1 + x ≥ 1 ⇐⇒ 0 < e−x =
1
≤ 1 für x ≥ 0;
ex
(8) strenge Monotonie: ex1 < ex2 für x1 , x2 ∈ R, x1 < x2 , denn die Ableitung ist überall positiv;
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
97
(9) ex wächst schneller als jede Potenz von x für x → ∞, denn
1
ex >
xn+1 > c xn für x ≥ c (n + 1)!, c > 0, n ∈ N beliebig;
(n + 1)!
(10) ez = ez denn z n = z n ,
z ∈ C;
(11) (ez )p = epz , z ∈ C, für jede ganze (p ∈ Z) oder reelle (p ∈ R) Potenz p ;
¯ ¯
¯ ¯2
(12) ¯eiy ¯ = 1, denn ¯eiy ¯ = eiy eiy = e−iy eiy = e0 = 1, y ∈ R.
¯ ¯
Wir sehen später, daß eiy = cos y + i sin y für y ∈ R, damit ist (12) ¯eiy ¯ = 1 äquivalent zu
¯
¯
cos2 y + sin2 y = 1, y ∈ R. Außerdem folgt daraus |ez | = ¯ex eiy ¯ = ex > 0. Die Eigenschaften (2)
und (11) sind die Potenzrechenregeln, für Wurzeln (p = 1/k, k ∈ N) siehe jedoch auch 6.12.
6.10
Logarithmus und reelle Potenzen
Die reelle Logarithmusfunktion, der natürliche Logarithmus“ ln, ist die Umkehrfunktion zur reellen
”
Exponentialfunktion, der Logarithmus löst die Gleichung y = ex nach x auf“ (mehr dazu siehe auch
”
7.2b). Für den Graphen siehe Abb 0.2. Zu jedem y > 0 gibt es genau ein x ∈ R, so daß y = ex :
da ex → ∞ für x → ∞ und ex → 0 für x → −∞, wie aus 6.9b (7) und (9) folgt, nimmt ex alle
positiven Werte an, denn es ist stetig (macht keine Sprünge). Also gibt es mindestens ein x ∈ R, so
daß y = ex . Daß es auch höchstens eines gibt, folgt aus der strengen Monotonie (8). Damit gilt
y = ex ,
x∈R
ln (ex ) = x,
⇐⇒
x ∈ R,
ln y = x,
eln y = y,
y > 0,
y > 0.
(Statt als Umkehrfunktion zur reellen Exponentialfunktion kann man den natürlichen Logarithmus
auch als diejenige Stammfunktion zu 1/x definieren, die ln 1 = 0 erfüllt, beide Definitionen sind
gleichwertig, siehe Abb. 0.3.)
Aus der Funktionalgleichung für die Exponentialfunktion (2) folgt leicht die Funktionalgleichung
für die Logarithmusfunktion
ln(x · y) = ln x + ln y für x, y > 0,
denn exp{ln(x · y)} = x · y = exp{ln x} · exp{ln y} = exp{ln x + ln y}. Wegen der strengen
Monotonie der Exponentialfunktion gilt ea = eb ⇐⇒ a = b.
Als Verallgemeinerung der ganzzahligen Potenzen und Wurzeln definiert man (wie schon in D.2
angegeben) für beliebige reelle Exponenten zu positiver Basis x
xp := ep·ln x ,
x > 0, p ∈ R .
Für x, y > 0, p, q, r ∈ R folgen aus den Funktionalgleichungen die Regeln der Potenzrechnung
xp · y p = (x · y)p ,
xp+q = xp · xq ,
(xp )r = xp·r ,
denn z.B. xp+q = e(p+q) ln x = ep ln x · eq ln x = xp · xq und entsprechend für die anderen Regeln.
Hinweis: diese Regeln brauchen nicht mehr für die in einigen Fällen möglichen Fortsetzungen für
negative Basis zu gelten, siehe D und 7.2c.
Als Potenzfunktion wird oft f (x) = bx := ex·ln b für die Basis b > 0, b 6= 1, x ∈ R bezeichnet,
mit der Eulerzahl e als Basis die Exponentialfunktion, siehe D.1 und Abb. 0.4.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.11
98
Sinus und Kosinus, Eulersche Formel, Polarkoordinaten
Die Exponentialfunktion und der Logarithmus können auf mehrere verschiedene Weisen eindeutig
charakterisiert (definiert) werden, dasselbe trifft auf die trigonometrischen Funktionen zu. Um von der
Exponentialfunktion zu den trigonometrischen Funktionen sin und cos zu gelangen, setzen wir in ez
ein rein imaginäres Argument z = ix, x ∈ R ein und sortieren nach geraden und ungeraden Potenzen
k = 2` bzw. k = 2` + 1, ` ∈ Z (für die absolut konvergente Potenzreihe der Exponentialfunktion ist
das erlaubt). Dabei beachten wir, daß für gerade Potenzen von i gilt: i2` = (i2 )` = (−1)` ist reell
und entsprechend für ungerade: i2`+1 = i (−1)` ist rein imaginär. Für die Exponentialfunktion von
rein imaginärem Argument erhalten wir
eix =
∞
X
(ix)k
k=0
k!
=
∞
∞
X
X
(−1)` x2`
(−1)` x2`+1
+i
.
(2`)!
(2` + 1)!
`=0
`=0
Der reelle und zugleich gerade Anteil dieser Funktion ist der Kosinus
∞
X
(−1)` x2`
cos x =
= cos (−x) = Re eix ,
(2`)!
`=0
der ungerade Imaginärteil ist der Sinus
sin x =
∞
X
(−1)` x2`+1
= − sin (−x) = Im eix .
(2` + 1)!
`=0
Insbesondere erhalten wir die oben schon erwähnte Eulersche Formel
eix = cos x + i sin x.
Da eix = e−ix , ergibt die Berechnung des Real- und Imaginärteils einer komplexen Zahl (siehe 5.7g)
cos x =
¢
1 ¡ ix
e + e−ix ,
2
¢
1 ¡ ix
e − e−ix .
2i
sin x =
Aus der Eulerschen Formel folgt auch die bekannte Identität
cos2 x + sin2 x = 1 = |eix |2 ,
also sind cos x und sin x bis auf Vorzeichen die Längen der Katheten in einem rechtwinkligen Dreieck
mit Hypothenuse der Länge 1. Daß die hier so eingeführten trigonometrischen Funktionen tatsächlich
mit den aus der Schule bekannten Längen im Einheitskreis (vgl. E.1 und Abb. 0.5) übereinstimmen,
wenn x den Winkel im Bogenmaß bezeichnet, kann mit den bisher zur Verfügung stehenden Hilfsmitteln noch nicht bewiesen werden. Wegen dieser geometrischen Interpretation bezeichnet man auch
oft das Argument als Winkel mit ϕ, also eiϕ = cos ϕ + i sin ϕ etc.
Da in der Gaußschen Zahlenebene der Realteil horizontal, entlang der Abszisse abgetragen wird
und der Imaginärteil vertikal entlang der Ordinate, ist somit eiϕ ein Punkt auf dem Einheitskreis (da
|eiϕ | = 1), der gegenüber der positiven Abszisse den Winkel ϕ (im Bogenmaß) hat. Dies ist zugleich
der Winkel ϕ in den üblichen ebenen Polarkoordinaten. Jede komplexe Zahl z ∈ C läßt sich daher
schreiben als z = |z| eiϕ . Wegen der 2π-Periodizität der trigonometrischen Funktionen beschreibt
z = |z| exp{i(ϕ + k 2π)} dieselbe komplexe Zahl für alle k ∈ Z.
Die Multiplikationsregel für komplexe Zahlen (siehe 5.7g und Abb. 5.6) Beträge werden multi”
pliziert, Winkel addiert“ ist jetzt unmittelbar einsichtig:
0
0
z z 0 = |z| eiϕ |z 0 | eiϕ = |z| |z 0 | ei(ϕ+ϕ ) = |z| |z 0 | [ cos(ϕ + ϕ0 ) + i sin(ϕ + ϕ0 ) ].
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.12
99
(De) Moivresche Formeln, komplexe Wurzeln
Mit obiger Darstellung ergeben sich die (de) Moivreschen Formeln für die n-ten Potenzen von z =
|z| eiϕ = |z| [cos ϕ + i sin ϕ] zu
z n = |z|n [cos ϕ + i sin ϕ]n = |z|n ei nϕ = |z|n [ cos(n ϕ) + i sin(n ϕ) ].
Damit sieht man sofort, daß es zu z 6= 0 n verschiedene komplexe n-te Wurzeln gibt. Die n komplexen Zahlen
p
n
wk = |z| ei(ϕ+k 2π)/n , k = 0, 1, . . . , n − 1, haben alle die Eigenschaft (wk )n = z.
√
3
z.B. 27 = 3 ei k 2π/3 , k = 0, 1, 2, d.h.
"
√ #
1
3
w0 = 3, w1 = 3 ei 2π/3 = 3 [cos(2π/3) + i sin(2π/3)] = 3 − + i
,
2
2
"
√ #
1
3
i 4π/3
w2 = 3 e
= 3 [cos(4π/3) + i sin(4π/3)] = 3 − − i
= w1 .
2
2
√
n
Die n-ten Einheitswurzeln 1 = cos(k 2π/n) + i sin(k 2π/n), k = 0, . . . , n − 1, liegen alle
auf dem Einheitskreis (Kreis mit Radius 1 um den Ursprung) in der Gaußschen Zahlenebene und sie
unterteilen den Kreis in n gleiche Sektoren. Sie liegen spiegelbildlich zur reellen Achse, sind also
reell oder treten in konjugiert komplexen Paaren auf.
Bemerkung: Bei komplexen n-ten Wurzeln aus z 6= 0 meint man gewöhnlich die Gesamtheit der n
Lösungen w der Gleichung wn = z. Dagegen ist bei der reellen Wurzel einer positiven Zahl a > 0
√
deren n-te Potenz gleich a ist. In diesem Sinne ist
die (eindeutige)
positive Zahl n a > 0 gemeint,
p
√
n
n
oben auch |z| gemeint. (Natürlich ist 0 = 0 immer eindeutig.)
6.13
Eigenschaften trigonometrischer Funktionen
Einige (zum Schulstoff gehörende) Eigenschaften von Kosinus, Sinus, Tangens u.s.w. wurden bereits
in E aufgeführt, siehe dort und insbesondere die Formelsammlungen für eine Fülle weiterer Identitäten, die das Arbeiten mit trigonometrischen Funktionen in der Praxis außerordentlich erleichtern!
Wir begründen hier exemplarisch einige Eigenschaften, die anderen können entsprechend hergeleitet werden.
6.13a
Ableitungen trigonometrischer Funktionen
Da die Potenzreihen für Kosinus und Sinus für alle x ∈ R absolut konvergent sind, dürfen wir wieder
gliedweise“ differenzieren.
”
d
x2`+1
(2` + 1)x2`
x2`
(−1)`
= (−1)`
= (−1)`
,
dx
(2` + 1)!
(2` + 1)!
(2`)!
damit folgt für die Ableitung
∞
∞
X
d X
x2`+1
x2`
d
sin x =
(−1)`
=
(−1)`
= cos x.
dx
dx
(2` + 1)!
(2`)!
`=0
`=0
Entsprechend folgt
d
d
cos x =
dx
dx
RWTH Aachen
½
¾
½
¾
x2 x4 x6
x3 x5
1−
+
−
+ ... = − x −
+
. . . = − sin x.
2
4!
6!
3!
5!
Mathematik I+II
6
Grundlegende Funktionen
100
Mit der Quotientenregel der Differentiation und Identitäten gilt:
d
d sin x
cos2 x + sin2 x
1
π
tan x =
=
=
= 1 + tan2 x > 0, x 6= + kπ, k ∈ Z,
2
2
dx
dx cos x
cos x
cos x
2
d cos x
sin2 x + cos2 x
d
−1
cot x =
=−
=
= −(1 + cot2 x) < 0, x 6= kπ, k ∈ Z.
2
dx
dx sin x
sin x
sin2 x
Für die Graphen von Tangens und Kotangens siehe Abb. 6.4 und 6.5.
Abbildung 6.4: Die Tangensfunktion
6.13b
Abbildung 6.5: Die Funktion Kotangens
Additionstheoreme für trigonometrische Funktionen
Aus der Funktionalgleichung der Exponentialfunktion: exp(z1 + z2 ) = (exp z1 )(exp z2 ), exp(2z) =
(exp z)2 u.s.w. folgen analoge (etwas kompliziertere) Identitäten für die trigonometrischen Funktionen, z.B.
sin(x ± u) = sin x cos u ± cos x sin u ,
cos(x ± u) = cos x cos u ∓ sin x sin u ,
tan x ± tan u
,
1 ∓ tan x tan u
oder Zusammenhänge zwischen Potenzen trigonometrischer Funktionen und Funktionen des mehrfachen Arguments wie
tan(x ± u) =
1
cos2 x = (1 + cos 2x),
2
1
sin2 x = (1 − cos 2x),
2
sin 2x = 2 sin x cos x,
cos 2x = cos2 x − sin2 x.
Wir beweisen exemplarisch die erste Identität:
4i{sin x cos u + cos x sin u} = (eix − e−ix )(eiu + e−iu ) + (eix + e−ix )(eiu − e−iu )
= ei(x+u) + ei(x−u) − e−i(x−u) − e−i(x+u) + ei(x+u) − ei(x−u) + e−i(x−u) − e−i(x+u)
= 2(ei(x+u) − e−i(x+u) ) = 4i sin(x + u).
Das zweite Additionstheorem folgt z.B. durch Ableiten des ersten nach x, u.s.w.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.13c
101
Skalarprodukt und Winkel zwischen Vektoren in der Ebene
Seien a, b ∈ R2 Vektoren in der Ebene, die mit der positiven Abszisse die Winkel ψa bzw. ψb
einschließen, also
µ ¶
µ
µ ¶
µ
¶
¶
a1
cos ψa
b1
cos ψb
a=
= |a|
,
b=
= |b|
.
a2
sin ψa
b2
sin ψb
Dann gilt für das Skalarprodukt (siehe 1.5) a · b = a1 b1 + a2 b2 mit dem zweiten der oben angegebenen Additionstheoreme:
a · b = |a| |b| (cos ψa cos ψb + sin ψa sin ψb )
= |a| |b| cos(ψa − ψb ) = |a| |b| cos ϑ.
Der Winkel ϑ = ψa − ψb ist der zwischen den beiden Vektoren eingeschlossene Winkel, passend zu
dem in 1.8a eingeführten Winkel zwischen Vektoren.
6.13d
Beispiel Kurvendiskussion: gedämpfte Schwingungen
µ
¶
1
f (x) = e−x/10 cos x +
sin x ,
10
0
f (x) = −1, 01 e
−x/10
sin x,
x ∈ R, R ist der Definitionsbereich von f.
00
f (x) = −1, 01 e
−x/10
µ
¶
1
cos x −
sin x .
10
Nullstellen: Da e−x > 0 für alle x ∈ R gilt f (x) = 0 ⇔ 10 cos x = − sin x ⇔ tan x = −10 ⇔
x ≈ 1, 67 + k π, k ∈ Z. |f (x)| ≤ e−x/10 (| cos x| + | sin x|/10) ≤ 1, 1 e−x/10 → 0 für x → ∞,
also limx→∞ f (x) = 0. Für x → −∞ existiert kein Grenzwert, denn f (−k 20π) = e2π k wächst
unbeschränkt während f (π − k 20π) = −e−π/10 e2π k unbeschränkt fällt.
f (x)
π
2π
4π
6π
Abbildung 6.6: Gedämpfte Schwingung
Kandidaten für Extremstellen: f ist als Summe und Produkt aus trigonometrischen Funktionen
und der Exponentialfunktion auf ganz R differenzierbar. f 0 (x) = 0 ⇔ sin x = 0 ⇔ x = kπ, k ∈ Z.
Zwischen zwei Nullstellen gibt es also jeweils genau einen Kandidaten für eine Extremstelle. Wenn
f (kπ) = e−kπ/10 cos(kπ) > 0 ⇔ k gerade, so muß ein Maximum vorliegen, für f (kπ) < 0 ⇔ k
ungerade ein Minimum. Alternative Begründung:
(
< 0 für k gerade (Max),
f 00 (kπ) = −1, 01 e−kπ/10 cos (kπ) = −1, 01 e−kπ/10 (−1)k
> 0 für k ungerade (Min).
Für den Graphen von f siehe Abbildung 6.6.
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
6.14
102
Hyperbelfunktionen
Die Funktionen Kosinus hyperbolicus und Sinus hyperbolicus werden als gerader bzw. ungerader
Teil (siehe 5.2) der reellen Exponentialfunktion oder (äquivalent) durch ihre Potenzreihen definiert,
die nur die geraden bzw. ungeraden Potenzen der Exponentialreihe enthalten. Für die Graphen siehe
Abb. 6.7 und 6.8.
∞
¢ X x2`
1¡ x
1
1
cosh x :=
e + e−x =
= 1 + x2 + x4 . . . = cosh(−x) ≥ 1,
2
(2`)!
2
24
x ∈ R,
`=0
∞
sinh x :=
¢ X x2`+1
1¡ x
1
1 5
e − e−x =
= x + x3 +
x . . . = − sinh(−x) ,
2
(2` + 1)!
6
120
x ∈ R.
`=0
Offenbar gilt die Identität
cosh2 x − sinh2 x =
i 1
1h x
(e + e−x )2 − (ex − e−x )2 = 4 ex e−x = 1.
4
4
Deshalb beschreibt die Punktmenge in der Ebene
½µ ¶ µ
¶ ¯
¾
± cosh x ¯
x1
=
eine Hyperbel, daher der Name.
¯x∈R
x2
sinh x
Für beide Darstellungen – durch die Exponentialfunktion oder als Potenzreihe – erhält man leicht,
1
1
2
1
2
cosh x
e−x
1
2
1
0
ex
ex
sinh x
0
1
− 12 e−x
1
Abbildung 6.7: Kosinus hyperbolicus
Abbildung 6.8: Sinus hyperbolicus
daß d cosh x/dx = sinh x und d sinh x/dx = cosh x (kein Vorzeichenwechsel!) gilt (selbst nachrechnen!). Es gelten ähnliche Additionstheoreme wie für trigonometrische Funktionen, siehe Formelsammlung.
Der Graph des Kosinus hyperbolicus wird auch als Kettenlinie“ bezeichnet, er modelliert frei
”
hängende flexible Ketten oder schwach gebogene Drähte konstanter Dicke, z.B. Hochspannungsleitungen.
Für die Quotienten von Sinus hyperbolicus und Kosinus hyperbolicus gilt
tanh =
sinh
: R → (−1, 1), denn | sinh x| < cosh x,
cosh
tanh(−x) = − tanh(x),
coth =
cosh
: R \ {0} → R \ [−1, 1],
sinh
coth(−x) = − coth(x),
RWTH Aachen
Mathematik I+II
6
Grundlegende Funktionen
103
siehe Abb. 6.9 und 6.10 für die Graphen. Sie sind streng monoton steigend bzw. fallend mit Ableitungen:
d
d sinh x
cosh2 x − sinh2 x
1
tanh x =
=
=
= 1 − tanh2 x > 0,
2
dx
dx cosh x
cosh x
cosh2 x
d
d cosh x
sinh2 x − cosh2 x
−1
coth x =
=
=
= 1 − coth2 x < 0,
2
2
dx
dx sinh x
sinh x
sinh x
Abbildung 6.9: Tangens hyperbolicus
RWTH Aachen
x ∈ R,
x 6= 0.
Abbildung 6.10: Kotangens hyperbolicus
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
7
104
Mittelwertsatz, Umkehrfunktionen
Ein sehr nützlicher Satz der Differentialrechnung ist der Mittelwertsatz, der Änderungen der Funktionswerte einer Funktion f mit den – meist leichter zu kontrollierenden – Eigenschaften der Ableitung
f 0 verbindet.
7.1
Der Mittelwertsatz und erste Anwendungen
f
f
f(b)
S
f(a)
f(b)
S
f(a)
a
xz
a
xz b
xz
b
Abbildung 7.1: Mittelwertsatz, Sekanten- und Tangentensteigungen
7.1a
Der Mittelwertsatz
Für a < b sei f : [a, b] → R stetig und auf (a, b) differenzierbar. Dann gibt es (mindestens) eine
Zwischenstelle xz ∈ (a, b) mit
f (b) − f (a)
= f 0 (xz )
b−a
⇐⇒
f (b) = f (a) + f 0 (xz ) (b − a).
Dieser wichtige Satz besagt, daß die mittlere Steigung in einem Intervall (die Steigung der Sekanten
S) auch die Steigung des Graphen (Tangentensteigung) an mindestens einer Zwischenstelle xz im
Inneren des Intervalls ist. Die Zwischenstelle zwischen a und b kann auch geschrieben werden als
xz = a + θ(b − a), θ ∈ (0, 1). Diese (etwas kompliziertere) Schreibweise hat den Vorteil, daß sie
für a 6= b nicht davon abhängt, ob a < b oder umgekehrt. Eine gleichwertige Formulierung des
Mittelwertsatzes lautet damit:
f (b) = f (a) + f 0 (a + θ(b − a)) (b − a),
für ein θ ∈ (0, 1).
Eine weitere äquivalente Fassung des Mittelwertsatzes, die auch seinen Namen erklärt, werden wir
später mit dem Hauptsatz der Differential- und Integralrechnung angeben, und eine Verfeinerung
mit höheren Ableitungen lernen wir im Kapitel über die Taylorapproximation kennen. Eine häufig
gebrauchte Abkürzung ist MWS. Wir verzichten auf einen Beweis dieser anschaulich evidenten Aussage, vgl. die Abbildung 7.1.
√
Für die Behandlung von Funktionen wie | sin x| oder x, x ≥ 0, ist es wichtig, zu wissen,
daß die Ableitung in den Randpunkten nicht zu existieren braucht, dort genügt die Stetigkeit. In der
rechten der Abbildungen ist die Funktion am linken Rand nicht differenzierbar, sie hat dort eine
vertikale Tangente (Wurzelfunktion).
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
7.1b
105
Monotone Funktionen
Als erste Anwendung des Mittelwertsatzes schließen wir aus dem Vorzeichen der Ableitung, daß die
Funktion wächst oder fällt.
Sei f : [a, b] → R stetig und in (a, b) differenzierbar mit f 0 (x) > 0 für x ∈ (a, b), dann ist f
im abgeschlossenen Intervall [a, b] streng monoton steigend, denn für a ≤ x0 < x1 ≤ b gilt mit
xz ∈ (x0 , x1 ) ⊆ (a, b)
f (x1 ) = f (x0 ) + f 0 (xz ) (x1 − x0 ) > f (x1 ).
| {z } | {z }
>0
>0
(Die strikte Ungleichung gilt auch, wenn z.B. f 0 (x0 ) = 0, da x0 < xz < x1 !) Entsprechend streng
monoton fallend solange f 0 (x) < 0. Genauso zeigt man die Monotonie (vielleicht nicht strenge
Monotonie) solange f 0 (x) ≥ 0 oder f 0 (x) ≤ 0.
Diese früher schon anschaulich benutzte Eigenschaft ist damit bewiesen. Zu streng monotonen
Funktionen gibt es Umkehrfunktionen, siehe 7.2. Insbesondere ist f (x) = ex mit f 0 (x) = ex > 0
für alle x ∈ R streng monoton steigend und ebenso g(x) = ln x mit g 0 (x) = 1/x > 0 für alle
x > 0. Weitere streng monoton steigende Funktionen sind damit z.B. tan auf dem Definitionsbereich R \ {kπ + π/2 | k ∈ Z} , sinh, tanh auf R , sowie cosh für x ≥ 0 (und damit auch ihre
Umkehrfunktionen, siehe 7.2). Streng monoton fallend sind z.B. cot für x 6= kπ, k ∈ Z, coth für
x 6= 0 und cosh für x ≤ 0.
7.1c
Hinreichende Bedingungen für Extrema
Wir begründen jetzt die bereits in 6.7c (ii) mitgeteilten und aus der Schule bekannten hinreichenden
Bedingungen für Extrema. Sei z.B. f 0 (x0 ) = 0, f 00 (x0 ) > 0, stetig, dann ist auch f 00 (x) > 0 für x
nahe x0 und die Funktion f 0 ist nahe x0 streng monoton wachsend, d.h. f 0 (x) > 0 für x > x0
und f 0 (x) < 0 für x < x0 . Daraus folgt in der Nähe von x0 , daß f streng monoton wachsend ist für
x > x0 und streng monoton fallend für x < x0 , also f (x) > f (x0 ) sowohl für x > x0 als auch für
x < x0 . Somit liegt ein lokales Minimum bei x0 = xmin vor. Analog für Maxima, falls f 00 (x0 ) < 0.
2
7.2
Umkehrfunktionen
7.2a
Satz über die Existenz der Umkehrfunktion
Sei die reellwertige Funktion f : [a, b] → [α, β] stetig und streng monoton steigend, d.h. f (x1 ) <
f (x2 ) für alle x1 , x2 mit a ≤ x1 < x2 ≤ b, und sei α := minx∈[a, b] f (x) = f (a), β :=
maxx∈[a, b] f (x) = f (b). Oder sei f streng monoton fallend: f (x1 ) > f (x2 ), α := minx∈[a, b] f (x) =
f (b), β := maxx∈[a, b] f (x) = f (a).
Dann gibt es eine Umkehrabbildung (oder Umkehrfunktion oder inverse Abbildung)
f −1 : [α, β] → [a, b],
f −1 (y) = x ⇐⇒ y = f (x),
f −1 ( f (x) ) = x für x ∈ [a, b],
f ( f −1 (y) ) = y für y ∈ [α, β],
durch die Bedingung y = f (x) ist x eindeutig festgelegt. Die Umkehrfunktion f −1 ist stetig und
streng monoton wachsend bzw. fallend, ebenso wie f . Entsprechende Aussagen gelten für (halb)offene
sowie unbeschränkte Intervalle (R oder Halbachsen wie [0, ∞]).
Daß jeder Funktionswert y ∈ [α, β] für ein x ∈ [a, b] angenommen wird, folgt aus der angenommenen Stetigkeit von f , die Funktion überspringt“ keine Funktionswerte, diese Eigenschaft ist
”
als Zwischenwertsatz“ für stetige Funktionen bekannt. Andererseits gibt es auch nur höchstens ein
”
x ∈ [a, b], das y = f (x) erfüllt, wegen der strengen Monotonie, f (x) 6= f (x̂) für x 6= x̂. Somit gibt
es zu jedem y ∈ [α, β] genau ein x ∈ [a, b] mit y = f (x), die Umkehrfunktion ist wirklich eine
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
106
Funktion.
Bemerkungen: Mit der Umkehrfunktion wird die Gleichung y = f (x) nach x aufgelöst“. Eine
”
bequeme hinreichende Bedingung für die strenge Monotonie wurde für differenzierbare Funktionen
in 7.1b angegeben, nämlich eine positive bzw. negative Ableitung.
Die Umkehrabbildung ist zu unterscheiden von der Funktion 1/f gemäß (1/f )(x) = 1/f (x)
für Argumente x im Definitionsbereich von f mit f (x) 6= 0 (oft als reziproke Funktion oder als
Kehrwert bezeichnet). Der Definitionsbereich der Umkehrabbildung hingegen ist die Bildmenge von
f.
7.2b
Beispiel: Die Logarithmusfunktion als Umkehrfunktion der
Exponentialfunktion
Die strenge Monotonie der Exponentialfunktion f (x) = ex folgt aus der Positivität der Ableitung
f 0 (x) = ex > 0.
Für alle x ∈ R ist ex > 0. Jeder positive Wert wird auch tatsächlich erreicht, weil limx→−∞ ex =
0 und limx→∞ ex = ∞. Daher ist (wie bereits in 6.10 angegeben) die Umkehrfunktion ln = exp−1
auf (0, ∞) definiert, stetig und streng monoton steigend (Graph in Abbildung 0.2). Umgekehrt ist
natürlich auch die Exponentialfunktion die Umkehrfunktion zur Logarithmusfunktion (z.B. wenn diese zuvor als spezielle Stammfunktion zu 1/x eingeführt wurde).
7.2c
Wurzeln
√
f : [0, 10] → [0, 100], f (x) = x2 , f −1 : [0, 100] → [0, 10], f −1 (y) = y, denn y = f (x) =
√
x2 ⇐⇒ x = f −1 (y) = y, siehe Abb. 7.2.
Während gerade Potenzen x2 , x4 , . . . auf eine Halbgerade eingeschränkt werden müssen, um
streng monoton zu sein (üblicherweise auf die positive), sind ungerade Potenzen f (x) = x2`+1 , ` ∈
√
N , auf ganz R streng monoton und die Umkehrfunktion, die 2`+1-te
Wurzel f −1 (x) = 2`+1 x , x ∈
√
R , ist als Umkehrfunktion ebenfalls auf ganz R definiert, z.B. 5 −32 = −2. Dieser Gebrauch
√
von 2`+1 auch für negative Argumente ist zweckmäßig und verbreitet. Andererseits ist die Wur√
zel auch eine spezielle gebrochene Potenz, die für positive Argumente x > 0 auch durch k x =
exp{(ln x)/k}, x > 0 definiert wird, beide Ausdrücke stimmen für x > 0 überein. Wir weisen aber
nochmals (wie schon in D erläutert) darauf hin, daß für die Definition der Wurzel als Umkehrfunktion
der ungeraden ganzzahligen Potenz bei negativen Argumenten die Potenzrechenregeln nicht erfüllt zu
sein brauchen!
Für den Sprachgebrauch bei komplexen Wurzeln w, wo man die Gesamtheit der Lösungen von
n
w = z meint, siehe 6.12.
7.2d
Graph der Umkehrfunktion
Der Übergang von einer Funktion zur Umkehrfunktion entspricht dem Vertauschen von Urbildpunkt,
dem Argument der Funktion, mit dem Bildpunkt, dem Funktionswert, also von Abszisse und Ordinate, an denen man Argumente und Werte abträgt. Deshalb erhält man den Graphen der Umkehrfunktion
ganz einfach durch Vertauschen der Rollen von Abszisse und Ordinate, also durch eine Spiegelung
des Graphen der Funktion an der Winkelhalbierenden y = x.
7.3
Arkus- und Areafunktionen
Die Arkusfunktionen sind Umkehrfunktionen zu trigonometrischen Funktionen, mit ihnen wird aus
Kathetenlängen (bei sin und cos) oder dem Verhältnis von Kathetenlängen (bei tan und cot) der Winkel im Bogenmaß bestimmt, daher der Name (lateinisch arcus Bogen). Man stellt dem Funktionssymbol arc“ voran, sin → arcsin etc. Die Arkusfunktionen heißen auch zyklometrische Funktionen. Die
”
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
f
107
g
f (x) = x2
g −1
f −1 (x) =
1
f −1
0
0
√
x
1
Abbildung 7.2: Graphen von Umkehrfunktionen
Areafunktionen sind inverse hyperbolische Funktionen, sie treten u.a. auch bei Flächenberechnungen
auf, geschrieben mit ar“, sinh → arsinh etc.
”
Die Arkus- und Areafunktionen sind stetig und beliebig oft stetig differenzierbar. Wir beginnen
mit den inversen trigonometrischen Funktionen.
7.3a
Arkuskosinus und Arkussinus
Da die trigonometrischen Funktionen periodisch sind, wird jeder Funktionswert unendlich oft angenommen. Um eine Umkehrfunktion angeben zu können, muß man die Funktion auf ein Intervall
einschränken, in dem sie streng monoton ist. Üblicherweise wählt man das Intervall, das die Null
enthält oder als linken Randpunkt hat.
Der Sinus ist im Intervall [−π/2, π/2] streng monoton steigend, denn die Ableitung ist im Intervall (−π/2, π/2) positiv. (Gemäß dem Mittelwertsatz 7.1a ist die Funktion im abgeschlossenen
Intervall – mit Randpunkten – streng monoton steigend, obwohl die Ableitung nur im offenen Intervall positiv ist. In jedem größeren Intervall ist die Funktion nicht mehr monoton, das Intervall ist das
maximale Monotonizitätsintervall, das die Null enthält.) Zu der auf dieses Intervall eingeschränkten
Funktion
f : [−π/2, π/2] → [−1, 1],
f (x) = sin x,
x ∈ [−π/2, π/2],
gibt es dann eine Umkehrfunktion, die mit arcsin (selten auch mit sin−1 ) bezeichnet wird,
f −1 = arcsin : [−1, 1] → [−π/2, π/2] mit arcsin(−x) = − arcsin x (ungerade),
sin(arcsin x) = x, x ∈ [−1, 1],
arcsin(sin x) = x, x ∈ [−π/2, π/2].
Wenn man das benutzte Intervall [−π/2, π/2] besonders betonen möchte, spricht man auch vom
Hauptwert des Arkussinus. Siehe Abb. 7.3 für den (an der Winkelhalbierenden gespiegelten) Graphen, bei dem Sinus ist der Abschnitt fett hervorgehoben. Natürlich ist jedes um ein Vielfaches von
2π verschobene Intervall [k 2π − π/2, k 2π + π/2], k ∈ Z, auch ein maximales Intervall, auf dem
der Sinus streng monoton steigend ist. Wählt man ein solches aus, wird einfach der Graph der Umkehrfunktion um k 2π nach oben/unten geschoben, man spricht dann anstelle des Hauptwertes von
anderen Ästen“ oder Zweigen“ des Arkussinus. In diesem Falle gilt
”
”
f : [k 2π − π/2, k 2π + π/2] → [−1, 1],
f (x) = sin x, x ∈ [k 2π − π/2, k 2π + π/2],
f −1 = k 2π + arcsin : [−1, 1] → [k 2π − π/2, k 2π + π/2]
sin(k 2π + arcsin x) = x, x ∈ [−1, 1],
RWTH Aachen
mit
arcsin(sin x) = x, x ∈ [k 2π − π/2, k 2π + π/2].
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
108
arcsin
p/2
5p/2
1
Carcsin
2p
sin
3p/2
_
K1
p/2
0
1
p/2
1
sin
K1
arcsin
_
0
sin
sin
1
3p/2
5p/2
p/2
Abbildung 7.3: Arkussinus, Hauptwert
Abbildung 7.4: Arkussinus, um 2π verschobener Ast
Der Fall k = 1 ist in Abb. 7.4 skizziert.
Beim Kosinus ist die Standardwahl des Intervalls [0, π], auf dem die Funktion streng monoton
fallend ist, denn cos0 x = − sin x < 0 für 0 < x < π. Die Funktion f : [0, π] → [−1, 1] hat als
Umkehrfunktion den (Hauptwert des) Arkuskosinus
tan
p
arccos
tan
p/2
1
0
1
1
_
p/2
p/2
tan
p
tan
K1
Abbildung 7.5: Arkuskosinus, Hauptwert
arccos : [−1, 1] → [0, π],
0
arctan
cos
K1
arctan
1
p/2
Abbildung 7.6: Arkustangens, Hauptwert
cos(arccos x) = x, −1 ≤ x ≤ 1, arccos(cos x) = x, 0 ≤ x ≤ π.
Der Graph ist in Abb. 7.5 gegeben, entsprechend für die um k 2π verschobenen Intervalle. Beachten
Sie, daß die Graphen von arcsin und arccos an der Ordinate gespiegelt und um π/2 gegeneinander
verschoben sind, z.B.
arccos x = arcsin(−x) + π/2.
7.3b
Arkustangens und Arkuskotangens
Bei der π-periodischen streng monoton wachsenden Tangensfunktion wählt man für den Hauptwert
das Intervall (−π/2, π/2), den in Abb. 7.6 fett hervorgehobenen Zweig mit ganz R als Wertebereich.
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
109
Die Umkehrfunktion davon, der (Hauptwert des) Arkustangens, erfüllt
arctan : R → (−π/2, π/2),
arctan(−x) = − arctan x (ungerade),
arctan(tan x) = x, −π/2 < x < π/2,
tan(arctan x) = x, x ∈ R.
Der Arkustangens ist streng monoton wachsend und hat die horizontalen Geraden auf der Höhe ±π/2
als Asymptoten:
lim arctan x =
x→∞
π
,
2
lim arctan x =
x→−∞
−π
.
2
Die anderen Äste sind gegenüber dem Hauptwert um Vielfache von π verschoben, da die Tangensfunktion π-periodisch ist, also gilt für ` ∈ Z
tan(`π + arctan x) = x, x ∈ R,
`π + arctan(tan x) = x, x ∈ (`π − π/2, `π + π/2).
Der (Hauptwert des) Arkuskotangens ist die Umkehrfunktion des streng monoton fallenden Kotangens auf dem Intervall (0, π). Bestimmen Sie selbst den Graphen und die Eigenschaften, Asymptoten
für x → ±∞, und vergleichen Sie Ihr Ergebnis mit der Formelsammlung!
7.3c
Areafunktionen
Sehr einfach ist die Bestimmung der Umkehrfunktion des Sinus hyperbolicus, des Areasinus hyperbolicus, denn sinh R → R ist streng monoton steigend [ (sinh x)0 = cosh x ≥ 1, x ∈ R ] und hat
alle reellen Zahlen als Wertebereich.
arsinh : R → R,
sinh(−x) = − sinh x.
Der Areasinus hyperbolicus läßt sich – wie alle Areafunktionen, siehe Formelsammlung – durch
sinh x
5
cosh x
5
arsinh x
1
1
5
arsinh x
arcosh x
1
sinh x
–5
0
Abbildung 7.7: Sinus hyperbolicus und
Areasinus hyperbolicus
1
5
Abbildung 7.8: Kosinus hyperbolicus und
Areakosinus hyperbolicus
Logarithmen ausdrücken.
1
y = sinh x = (ex − e−x ) ⇐⇒ 0 = (ex )2 − 2y ex − 1
2
ist eine quadratische Gleichung in ex > 0 mit der (eindeutigen positiven) Lösung
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
p
y 2 + 1 > 0 , also
³
´
p
x = arsinh y = ln y + y 2 + 1 ,
110
ex = y +
y ∈ R.
Eine andere Möglichkeit, dies zu verifizieren, besteht darin, den Mittelwertsatz anzuwenden: für y =
0 sind beide Ausdrücke offenbar gleich und man kann berechnen (mit 7.4), daß sie dieselbe Ableitung
haben. Dann müssen die Funktionen nach 7.5b übereinstimmen, denn die Ableitung der Differenz ist
Null.
Die anderen Hyperbelfunktionen können genauso behandelt werden. Die auf positive Argumente
eingeschränkte Funktion Kosinus hyperbolicus (Abb. 6.7)
cosh : [0, ∞) → [1, ∞)
ist streng monoton steigend, da cosh0 x = sinh x > 0 für x ∈ (0, ∞). Mit cosh 0 = 1 und
limx→∞ cosh x = ∞ ist die streng monoton steigende Umkehrfunktion Areakosinus hyperbolicus
definiert für
arcosh : [1, ∞) → [0, ∞),
siehe Abb. 7.8.
³
´
√
Es gilt arcosh x = ln x + x2 − 1 für x ≥ 1, arcosh x ≈ ln 2x für x À 1.
artanh x
arcoth x
4
1
–1 0
tanh x
coth x
1
tanh x
–1 0
1
1
4
coth x
artanh x
Abbildung 7.9: Tangens und Areatangens
hyperbolicus
arcoth x
Abbildung 7.10: Kotangens und Areakotangens hyperbolicus
Die Funktion
tanh x =
sinh x
ex − e−x
1 − e−2x
e2x − 1
= x
=
=
cosh x
e + e−x
1 + e−2x
e2x + 1
erfüllt | tanh x| < 1 und limx→±∞ tanh x = ±1 sowie tanh0 x = 1/ cosh2 x = 1 − tanh2 x > 0.
Deshalb ist tanh : R → (−1, 1) monoton steigend, die Umkehrfunktion Areatangens hyperbolicus
ist auf (−1, 1) definiert (Abb. 7.9) mit
µ
¶
1
1+x
artanh : (−1, 1) → R, artanh x = ln
.
2
1−x
Schließlich gilt für den Kotangens hyperbolicus:
coth :=
cosh
1
=
: R \ {0} → (−∞, −1) ∪ (1, ∞) = R \ [−1, 1]
sinh
tanh
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
111
ist streng monoton fallend auf der rechten und auf der linken Halbgeraden einzeln (Abb. 7.10), insgesamt umkehrbar, mit der Umkehrfunktion
µ
¶
1
x+1
arcoth : R \ [−1, 1] → R \ {0},
arcoth x = ln
, |x| > 1.
2
x−1
Zusammengefaßt gilt (skizzieren Sie den Graphen selbst !)
¯
¯ (
artanh x für |x| < 1,
1 ¯¯ x + 1 ¯¯
f (x) = ln ¯
=
2
x − 1¯
arcoth x für |x| > 1.
Für weitere Formeln, auch für die Ableitungen (s.u.) und Skizzen der Funktionsgraphen siehe Formelsammlungen. Sie sollten üben, diese Informationen auch in Belastungssituationen rasch zu finden.
Beachten Sie das vertauschte“ qualitative Verhalten von tan und arctan einerseits sowie tanh und
”
artanh andererseits!
7.4
Ableitung von Umkehrfunktionen
Sei f : [a, b] → [α, β] ⊆ R stetig und in (a, b) stetig differenzierbar mit f 0 (x) > 0 für alle
x ∈ (a, b), f (a) = α, f (b) = β [ bzw. f 0 (x) < 0, f (a) = β, f (b) = α ], dann ist die stetige
Umkehrfunktion f −1 : [α, β] → [a, b] zu f ebenso wie f streng monoton steigend [ bzw. fallend ]
und sie ist auf (α, β) stetig differenzierbar, mit
1
für alle γ ∈ (α, β).
(f −1 )0 (γ) = 0 −1
f (f (γ))
7.4a
Erläuterung der Ableitungsregel durch eine Skizze
Steigung c/d = 1/s
f −1 (γ)
c
f −1
d
γ
d
c
f
Steigung s = d/c
γ
Abbildung 7.11: Steigung bei Spiegelung
an der Winkelhalbierenden
f −1 (γ)
Abbildung 7.12: Ableitung der Umkehrfunktion
Den Graphen der Umkehrfunktion erhält man durch Spiegelung an der Winkelhalbierenden. Zu einer Geraden mit Steigung s 6= 0 hat die gespiegelte Gerade als Steigung den Kehrwert 1/s, siehe
Abb. 7.11. Also: {Steigung von f −1 bei γ} = 1/{ Steigung von f bei f −1 (γ)} (Abb. 7.12). Das
Vorzeichen der Ableitung bleibt dabei gleich, steigend oder fallend zu sein, bleibt bei dem Übergang zur Umkehrfunktion erhalten. Entsprechende Aussagen gelten auch für (halb)offene sowie unbeschränkte Intervalle.
Der Beweis der Ableitungsregel erfolgt durch Differentiation von x = f (f −1 (x)) an der Stelle
γ mit der Kettenregel:
ª
d
d ©
d −1
x=1=
f (f −1 (x)) = f 0 (f −1 (x))
f (x).
dx
dx
dx
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
7.4b
112
Anwendungsbeispiele
Wenn f −1 mit Definitionsbereich Df −1 die Umkehrfunktion zu f mit Df ist, so gilt f (f −1 (x)) =
x für alle x ∈ Df −1 und f −1 (f (x)) = x für x ∈ Df .
(i) Der Logarithmus als Umkehrfunktion der Exponentialfunktion (siehe 6.10)
f (x) = ex ,
f : R → (0, ∞),
f −1 : (0, ∞) → R,
f 0 (x) = ex = f (x) > 0.
f −1 (x) = ln x, x > 0.
Mit f 0 = f erhalten wir als Ableitung des Logarithmus für x > 0:
d
1
ln x = (f −1 )0 (x) = 0 −1
dx
f (f (x))
1
f =f 0
=
f (f −1 (x))
=
1
,
x
wie schon aus der Schule (oder C) bekannt ist. Gleichwertig zu unserem Vorgehen hätte man
auch den Logarithmus als die Stammfunktion zu 1/x mit ln 1 = 0 definieren können (wie es
in manchen Büchern geschieht) und daraus herleiten können, daß die Exponentialfunktion als
Umkehrfunktion des so definierten Logarithmus die Gleichung f 0 = f erfüllt.
Für die mit dem Logarithmus berechneten Ableitungen allgemeiner Potenzen, z.B. (d/dx) xp =
p xp−1 , x > 0, p ∈ R, siehe D.2. Außerdem gilt (ln |x|)0 = 1/x für alle x 6= 0, siehe 5.5c (ii),
oder mit der Funktionalgleichung: ln |x| = (1/2) ln x2 . Damit erhalten wir für die Ableitung
(ln |x|)0 = (1/2) · (1/x2 ) · 2x = 1/x für alle x 6= 0 (kein Betrag in der Ableitung!).
(ii) Der (Hauptwert des) Arkussinus und Arkuskosinus (Abb. 7.3 und 7.5).
Der Arkussinus ist in x ∈ (−1, 1) stetig differenzierbar mit
d
1
arcsin x = √
, |x| < 1,
dx
1 − x2
denn für y ∈ (−π/2, π/2) gilt cos y = | cos y| =
p
1 − [sin y]2 > 0 ,
1
1
d
1
arcsin x =
=p
=√
.
dx
cos(arcsin x)
1 − x2
1 − [sin (arcsin x)]2
√
Anders herum gelesen: Für |x| < 1 ist arcsin eine Stammfunktion zu 1/ 1 − x2 . Dasselbe
gilt für die um ganzzahlige Vielfache von 2π verschobenen Äste k 2π + arcsin.
√
Völlig analog berechnet man (arccos x)0 = −1/ 1 − x2 , was auch aus dem an der Ordinate
”
gespiegelten und verschobenen Graphen“ (Ende von 7.3a) folgt.
(iii) Der Hauptwert des Arkustangens (Abb. 7.6) und andere Zweige
f : (−π/2, π/2) → R ,
f (x) = tan x,
f −1 (x) =: arctan x
tan0 y = 1/ cos2 y = 1 + [tan y]2 > 0,
d
1
1
1
arctan x =
=
=
,
dx
tan0 (arctan x)
1 + [tan(arctan x)]2
1 + x2
und dasselbe für die um ganzzahlige Vielfache von π verschobenen Zweige. Berechnen Sie
selbst die Ableitung des arccot und vergleichen Sie Ihr Ergebnis mit der Formelsammlung!
(iv) Genauso behandelt man auch die in Abschnitt 7.3c eingeführten inversen hyperbolischen Funktionen, die Areafunktionen, siehe die Formelsammlung für die Ableitungen. Statt die Regel für
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
113
die Ableitung der Umkehrfunktion anzuwenden, ist es jedoch meist einfacher, den Ausdruck
mit den Logarithmen zu differenzieren, z.B.
¯
¯ (
artanh x für |x| < 1,
1 ¯¯ x + 1 ¯¯
=
f (x) = ln ¯
¯
2
x−1
arcoth x für |x| > 1,
µ
¶
1
1
1
1
0
f (x) =
=
−
für |x| =
6 1 (Partialbruchzerlegung!).
1 − x2
2 x+1 x−1
(Nicht verwechseln mit arctan0 x = 1/(1 + x2 ) > 0, x ∈ R .)
7.4c
Bemerkung zu Ableitungen von Umkehrfunktionen
Die Ableitungen von Umkehrabbildungen trigonometrischer und hyperbolischer Funktionen sind einfache rationale Funktionen ±1/(1 ± x2 ) oder Wurzeln daraus. Daher werden uns diese Umkehrfunktionen in der Integrationstheorie als Stammfunktionen begegnen. Die Area- und Arkusfunktionen einschließlich ihrer verschiedenen Äste treten z.B. häufig bei der Lösung von Anfangswertproblemen für
gewöhnliche Differentialgleichungen auf.
7.5
Abschätzungen mit Hilfe des MWS
7.5a
Ungleichungen für trigonometrische Funktionen
Als weitere Anwendungsbeispiele des Mittelwertsatzes beweisen wir die Ungleichungen sin x ≤ x
für x ≥ 0 und sin x > x/2 für 0 < x < π/4. h(x) = x − sin x ist differenzierbar auf R,
h(0) = 0, h0 (x) = 1 − cos x ≥ 0. Folglich ist h(x) ≥ 0 d.h. sin x ≤ x für x ≥ 0.
(Als Alternative zeigen wir 0 < (sin x)/x < 1 für 0 < |x| < π/2 auf folgende Weise:
sin x − sin 0
sin x
=
= cos(θx) ∈ (0, 1). )
x
x−0
Für 0 < x < π/4 folgt 0 < θx < π/4 und damit cos(θx) > cos(π/4) =
dort (sin x)/x > 1/2, d.h. sin x > x/2.
√
2/2 > 1/2. Also ist
Ähnlich zeigt man, daß x < tan x für 0 < x < π/2 und tan x < 2x für 0 < x < π/4.
Veranschaulichen Sie sich mit einer Skizze für Winkel x ∈ [0, π/2) im Einheitskreis die einfache
geometrische Bedeutung der Ungleichungen sin x ≤ x ≤ tan x !
Für den Arkustangens erhält man so:
0<
arctan x
< 1 für x 6= 0 ⇐⇒ arctan x < x für x > 0 und arctan x > x für x < 0,
x
denn (arctan x)/x = 1/(1 + (θx)2 ) ∈ (0, 1).
7.5b
Eine Standardabschätzung
Später benötigen wir häufig die folgende Abschätzung. Sei f auf (a, b) differenzierbar mit |f 0 (x)| ≤
M für alle x ∈ (a, b). Dann gilt für beliebige x1 , x2 ∈ (a, b)
|f (x2 ) − f (x1 )| ≤ M |x2 − x1 |,
denn für ein geeignetes xz gilt |f (x2 ) − f (x1 )| = |f 0 (xz ) (x2 − x1 )| = |f 0 (xz )| |x2 − x1 |. Falls
f 0 (x) = M = 0, so ist die Funktion konstant.
Als Beispiel betrachten wir f (x) = tan x auf dem Intervall [−π/4, π/4 ]. Mit f 0 (x) = 1 +
2
tan (x) folgt dort |f 0 (x)| ≤ 2, also gilt
| tan x2 − tan x1 | ≤ 2 |x2 − x1 |
RWTH Aachen
für alle x1 , x2 ∈ [−π/4, π/4 ].
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
114
tan x
2x
x
1
x
1
sin x
x/2
0
π/4
1
π/2
0
π/4
1
π/2
Abbildung 7.13: Abschätzungen für Sinus und Tangens
7.5c
Zum Nutzen des Mittelwertsatzes, weitere Abschätzungen
In den meisten Anwendungen dieses außerordentlich nützlichen Satzes wird ein Punkt festgehalten,
z.B. der linke, x = a. Es ist wichtig, daß f in diesem Randpunkt nur stetig sein muß und nicht differenzierbar zu sein braucht, so darf a z.B. auch eine Knickstelle des Graphen sein oder eine Nullstelle
einer Wurzel. Die möglichen Funktionswerte f (x) für x > a werden dann dadurch eingeschränkt,
daß die Sekantensteigung als Wert der Ableitung f 0 (x) für x > a vorkommen muß, wie wir schon
in den Anwendungen oben benutzt haben. Der Nutzen erschließt sich noch besser bei der Behandlung
vieler konkreter Probleme (Übungen!).
Eine kleine (nicht erschöpfende!) Liste von Ungleichungen:
¯
¯
¯ sin x ¯
¯
¯
x 6= 0
auch: | sin x| ≤ 1
¯ x ¯ < 1,
¯
¯
¯ sinh x ¯
¯,
¯
1< ¯
x 6= 0
x ¯
¯
¯
¯
¯
¯ sinh x ¯ < 2,
|x| < 1
¯ x ¯
¯
¯
¯ arctan x ¯
π
¯ < 1,
¯
x 6= 0
auch: | arctan x| ≤
¯
¯
x
2
¯
¯
¯ arctan x ¯
¯,
|x| < 1
1/2 < ¯¯
¯
x
¯
¯
¯
¯
¯ tanh x ¯ < 1,
x 6= 0
auch: | tanh x| ≤ 1
¯ x ¯
ln x ≤ x − 1,
x>0
⇐⇒
ln(1 + x) ≤ x,
x > −1
Es gibt viele weitere solcher Abschätzungen, die sich, wie die linke Spalte, leicht mit dem Mittelwertsatz bestätigen lassen.
7.6
Die Regeln von de l’Hospital
7.6a
Vorbemerkungen, die einfachen Grenzwertsätze
Zunächst fassen wir einige unmittelbar einleuchtende Grenzwertregeln zusammen, eine genauere Begründung werden wir für eine analoge Situation im Abschnitt über Folgen geben. Für (z.B. stetige)
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
115
Funktionen gelte
lim f (x) = c,
x→x0
lim g(x) = d,
lim h(x) = ∞.
x→x0
x→x0
Dann folgt für die Grenzwerte von Summen, Produkten und Quotienten z.B.
lim {f (x) ± g(x)} = c ± d,
x→x0
lim {f (x) g(x)} = c d,
x→x0
lim
f (x)
c
=
g(x)
d
lim
f (x)
= ∞ falls c > 0, d = 0, g(x) > 0 für x ≈ x0 , etc.
g(x)
x→x0
x→x0
falls d 6= 0,
lim {g(x) h(x)} = ∞ falls d > 0,
x→x0
Als Anwendung des Mittelwertsatzes erhalten wir ein einfaches Verfahren zur Bestimmung von
Grenzwerten der Produkte oder Quotienten von Funktionen in Fällen, die von diesen Grenzwertsätzen
nicht erfaßt werden. Hier interessieren uns Fälle der Art (sin x)/x, x ln x oder cot x − 1/x für
x → 0, wenn also im Grenzwert unbestimmte Ausdrücke wie 0/0“, 0 · ∞“ oder ∞ − ∞“ etc.
”
”
”
auftreten. Ob in solchen Fällen ein Grenzwert existiert, hängt anschaulich von den Konvergenzge”
schwindigkeiten“ der Funktionen gegen ihre Grenzwerte ab.
7.6b
Der Satz von de l’Hospital
Für a < x0 < b seien f, g : (a, x0 ) ∪ (x0 , b) → R differenzierbar, g 0 (x) 6= 0 und
(i) limx→x0 f (x) = 0 = limx→x0 g(x),
Fall “0/0”,
(ii) limx→x0 f (x) = ∞ = limx→x0 g(x),
Fall “∞/∞”.
oder
Wenn der folgende Grenzwert existiert:
lim
f 0 (x)
=: λ,
g 0 (x)
dann existiert auch der Grenzwert
lim
f (x)
=λ
g(x)
und hat denselben Wert.
x→x0
x→x0
Für einen Beweis verweisen wir auf die Literatur.
7.6c
Verallgemeinerungen des Satzes von de l’Hospital
Außer λ ∈ R sind auch verallgemeinerte Grenzwerte ±∞ zulässig. Alle Aussagen gelten sinngemäß auch für links- oder rechtsseitige Grenzwerte x % x0 bzw. x & x0 sowie für x → ±∞.
Wenn auch f 0 (x)/g 0 (x) unbestimmt ist, z.B. von der Art “0/0”, dann kann man iterativ den
Satz auf die Ableitungen anwenden, also f 00 (x)/g 00 (x) und nötigenfalls noch höhere Ableitungen
untersuchen.
Andere unbestimmte Ausdrücke wie “00 ” oder “1∞ ” lassen sich oft mit der Exponential- und
Logarithmusfunktion auf “0/0” oder “∞/∞” zurückführen, ebenso “∞−∞” durch Zusammenfassen
(Hauptnenner), siehe die Beispiele in 7.7.
7.7
7.7a
Anwendungen der Regeln von de l’Hospital
(sin x)/x,
x→0
f (x) = sin x → 0, g(x) = x → 0 für x → 0 (siehe Abb. 7.13), also von der Form “ 0/0 ”. Mit
f 0 (x) = cos x, g 0 (x) = 1, folgt f 0 (x)/g 0 (x) = cos x → 1 für x → 0. Somit limx→0 (sin x)/x = 1.
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
7.7b
[ ln(1 + x) ]/x,
116
x→0
f (x) = ln(1 + x) → 0 (siehe Abb. 0.2), g(x) = x → 0 für x → 0, f 0 (x) = 1/(1 + x), also
f 0 (x)/g 0 (x) = 1/(1 + x) → 1 für x → 0, d.h. limx→0 ln(1 + x)/x = 1.
7.7c
[(tan x) − x]/x3 ,
x→0
f (x) = tan x − x → 0, g(x) = x3 → 0 für x → 0 (siehe Abb. 7.13), also der Fall “0/0”.
f 0 (x) = 1 + tan2 x − 1 = tan2 x, g 0 (x) = 3x2 , f 0 (x)/g 0 (x) = (1/3) [(tan x)/x]2 ist immer noch
von der Form “0/0”. Wende die Regel erneut an auf (tan x)/x: (1 + tan2 x)/1 → 1 für x → 0,
damit f 0 (x)/g 0 (x) → (1/3) [1]2 = 1/3 = limx→0 [(tan x) − x]/x3 .
7.7d
( ln x)/xp ,
x→∞
ln x → ∞, xp → ∞ für x → ∞, p > 0 (beliebig klein). f 0 (x)/g 0 (x) = [1/x]/p xp−1 = p/xp →
0 für x → ∞. Der Logarithmus steigt für große x langsamer als jede noch so kleine Potenz. Das
korrespondiert zu 6.9b (9), warum?
7.7e
[ 1/ ln(1 + x) ] − 1/x,
x→0
Dieser Ausdruck ist von der Form “∞ − ∞”, er wird durch Zusammenfassen (auf den Hauptnenner
bringen) zu “0/0” für x → 0.
1
x − ln(1 + x)
f (x)
1
− =
=
.
ln(1 + x) x
x ln(1 + x)
g(x)
·
¸−1
f 0 (x)
1 − 1/(1 + x)
1+x
1
=
=
ln(1 + x) + 1
→
für x → 0,
g 0 (x)
ln(1 + x) + x/(1 + x)
x
2
da nach 7.7b ln(1 + x)/x → 1. Also limx→0 {[ 1/ ln(1 + x) ] − 1/x} = 1/2.
7.7f
| tan x|(1/ ln |x|) ,
x→0
Hier liegt ein Potenzausdruck der Form “ 00 ” vor für x → 0, andere derartige Fälle sind “ 1∞ ” und
“ ∞0 ”. Indem man die Basis als Exponentialfunktion von ihrem Logarithmus schreibt, überführt man
diese Ausdrücke in die Form “0/0” bzw. “∞/∞” im Exponenten.
½
¾
ln | tan x|
(1/ ln |x|)
−−−→ e1 = e, denn
| tan x|
= exp
x→0
ln |x|
·
¸ ·
¸
ª
1 + tan2 x
1
x ©
·
=
1 + tan2 x −−−→ 1.
x→0
tan x
1/x
tan x
7.7g
Bemerkungen zu “00 ”
Im vorigen Beispiel sind die Basis b(x) und der Exponent p(x) beide von x abhängig und beide
streben gegen Null. Der Grenzwert hängt dann von den Konvergenzgeschwindigkeiten“ ab. Variiert
”
nur die Basis bei festem Exponenten p(x) = 0, z.B. bei (x−z0 )0 = 1 für x 6= z0 , so ist der Grenzwert
Eins. Deshalb haben wir bei den ersten Summanden von Potenzreihen mit dem Exponenten 0 immer
b0 x0 = b0 bzw. b0 (x − z0 )0 = b0 für alle x einschließlich x = 0 bzw. x = z0 benutzt.
Im anderen Grenzfall der konstanten Basis b(x) = 0 wie in g(x) = 0x = 0, x > 0, ist der
Grenzwert 0. In anderen Fällen können andere Ergebnisse auftreten, sie sind einzeln wie oben in 7.7f
zu behandeln.
RWTH Aachen
Mathematik I+II
7
Mittelwertsatz, Umkehrfunktionen
117
7.7h
Weitere Beispiele, Päckchen packen“
”
Die häufig auftretenden ungeraden Funktionen sin, tan, sinh, tanh, arcsin, arctan, arsinh, artanh
etc. haben am Ursprung alle eine Nullstelle und Steigung 1, daher gilt für jede solche Funktion f
f (x)
x
f (2x)
= lim
= lim
= 1 etc.
x→0 x
x→0 f (x)
x→0 2x
lim
Analog erhält man an periodisch verschobenen Stellen z.B.
lim
x→kπ
sin x
cos x
= lim
= cos(kπ) = (−1)k .
x − kπ x→kπ 1
Für Potenzen gilt mit den üblichen Grenzwertsätzen 7.6a
(f (x))2
lim
=
x→x0 (g(x))2
µ
f (x)
lim
x→x0 g(x)
¶2
(f (x))p
und allgemeiner lim
=
x→x0 (g(x))p
µ
f (x)
lim
x→x0 g(x)
¶p
sofern die Potenz p 6= 0 zulässig ist, z.B. muß für p = 1/2 gelten, daß f (x)/g(x) ≥ 0.
Komplizierte Produkte können oft aufgespalten werden zu Produkten von Ausdrücken, deren
Grenzwert bekannt oder einfach ist, den Päckchen“, die man packen kann:
”
√
√
3
3
2
sinh x (tan 2x)
sinh x 2 (tan 2x)2
x
√
=
lim
2
= 4.
lim √
3
3
2
4
x→0
x→0 ( x) arctan x
(2x)
arctan
x}
x
|
{z
| {z }
| {z }
→1
7.7i
→1
→1
Hilfe von Potenzreihen
Bei Kenntnis von Potenzreihen (für viele Funktionen auch in der Formelsammlung zu finden) kann
man oft die zu erwartenden Grenzwerte rasch ermitteln, z.B.
x − x3 /3! + · · ·
x2
sin x
=
=1−
+ · · · → 1,
x
x
3!
cos x − 1
1
1 − x2 /2 + x4 /4! − · · · − 1
1 x2
+
− ··· → − ,
=
=
−
2
2
x
x
2
4!
2
ex − 1
1 + x + x2 /2 + · · · − 1
x
=
= 1 + + · · · → 1.
x
x
2
Die Regeln von de l’Hospital sichern diese Ergebnisse, solche Betrachtungen können als Rechenprobe
gute Dienste leisten!
RWTH Aachen
Mathematik I+II
8
8
Integration stetiger Funktionen
118
Integration stetiger Funktionen
Integrale treten in den Anwendungen bei der Berechnung von Mittelwerten (Schwerpunkten), Flächeninhalten, Volumina und integralen“ Gesamteffekten auf. Durch die Gesetze der Mechanik, Ther”
modynamik, . . . genügen Bewegungen, Durchbiegungen u.s.w. oft Differentialgleichungen. Deren
Lösung erfordert die Integration als Umkehrung der Differentiation. Integrale dienen auch zur Berechnung von Koeffizienten, wenn periodische Funktionen als Fourierreihen dargestellt werden sollen
oder durch endliche Summen approximiert.
In diesem Kapitel stehen die Methoden und Hilfsmittel zur Berechnung von Integralen im Vordergrund, die meisten Anwendungen folgen später in diesem Kurs sowie in den Ingenieurfächern.
8.1
Vorbemerkungen
Wie aus der Schule bekannt ist, können Integrale z.B. als Flächen mit Vorzeichen interpretiert werden,
in den Anwendungen treten Integrale jedoch auch mit ganz unterschiedlichen Bedeutungen auf. Wenn
nicht ausdrücklich anders gesagt (nur in den Abschnitten 8.13 und 8.14) setzen wir in diesem Kapitel
immer voraus, daß f : [a, b] → R stetig ist. Betrachte die Flächenstücke zwischen dem Graphen von
f und der Abszisse (x-Achse) sowie den vertikalen Geraden x = a und x = b, siehe Abb. 8.1.
x=a
f
+
+
0_
_
x=b
Abbildung 8.1: Integraldefinition
Das bestimmte Integral der Funktion f von a bis b ist
(
Z b
Summe der Flächeninhalte über der x-Achse
f (x) dx =
− Summe der Flächeninhalte unter der x-Achse
a
also eine Abbildung der Form

Z 
Funktion f
: (orientierter) Integrationsbereich M


hier: Intervall [a, b], a ≤ b





Z
7→
,
Z
b
f (x) dx =
a
f (x) dx ∈ R.
M
Die präzise Definition folgt im Abschnitt 8.3a, verschiedene
R b Verallgemeinerungen auf höhere Dimension in späteren Kapiteln. Die Berechnung der Zahl a f (x) dx gelingt oft mit dem Hauptsatz
der Differential- und Integralrechnung 8.4a.
8.2
Trapezapproximation für das bestimmte Integral
Sei a < b, f : [a, b] → R linear, der Graph also ein Stück einer Geraden durch (a, f (a) ) und
(b, f (b) ), f (x) = f (a) + [f (b) − f (a)] (x − a)/(b − a). Dann gibt die Zahl
Z b
f (b) + f (a)
f (x) dx := (b − a)
2
a
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
119
die {Fläche oberhalb der Abszisse} — {Fläche unterhalb der Abszisse} an. Wenn f (a) und f (b)
dasselbe Vorzeichen haben, ist das Flächenstück ein Trapez (siehe Abb. 8.3), daher der Name. Doch
zeigt die Abb. 8.2, daß die Formel für die Flächendifferenz auch im anderen Fall unterschiedlicher
Vorzeichen von f (a) und f (b) richtig ist. Der Ausdruck beschreibt den Flächeninhalt (mit Vorzeichen) eines Rechtecks mit Basislänge (b − a) und dem Mittelwert (f (b) + f (a))/2 als Höhe (mit
Vorzeichen).
f(a)
positiv
a
0
(f(a)+f(b))/2
b
negativ
f(b)
Abbildung 8.2: Trapezfläche“
”
Abbildung 8.3: Trapezapproximation
Für nichtlineare Funktionen kann man den Graphen der Funktion f durch eine stückweise lineare
Polygonzugapproximation durch Punkte (a` , f (a` ) ) ersetzen, a = a0 < a1 < . . . < an = b, siehe
Abbildung 8.3. Dann erhält man als Trapezapproximation
n
X
(a` − a`−1 )
`=1
f (a` ) + f (a`−1 )
.
2
Bei äquidistanter Stützstellenwahl: a` = a + ` (b − a)/n , a` − a`−1 = (b − a)/n,
(n−1
)
n
X
f (b) + f (a)
b − a f (a` ) + f (a`−1 )
b−a X
f (a` ) +
=
.
=
n
2
n
2
`=1
`=1
b−a
=
n
n
X
`=1
n
f (b) − f (a)
f (a) − f (b)
b−aX
f (a`−1 ) + (b − a)
f (a` ) + (b − a)
=
2n
n
2n
`=1
Beispiel: f (x) = sin x, a = 0, b = π/2, n = 2, also a0 = 0, a1 = π/4, a2 = b = π/2, (b −
a)/2 = π/4 ,
Z
π/2
1=
0
½ ³ ´
π
sin
+
4
½ ³ ´
π
π
=
sin
+
4
4
π
sin x dx ≈
4
´¾
1 ³ ³π ´
sin
+ sin(0)
2
2
√
¾
1
π 2+1
=
≈ 0, 95.
2
4
2
Nur ca. 5% Fehler trotz der sehr groben Approximation mit nur einer Zwischen-Stützstelle! Für bessere numerische Approximationen siehe z.B. die Simpsonsche Regel 8.12b und die Literatur.
8.3
Das bestimmte Integral stetiger Funktionen
8.3a
Definition des bestimmten Integrals
Wir betrachten nun eine Folge von immer feineren Unterteilungen des Intervalls z.B. durch k-maliges
Halbieren in n = 2k Teilintervalle gleicher Länge:
(n)
a`
=a+`
RWTH Aachen
b−a
, ` = 0, . . . , n,
n
(n)
a`
(n)
− a`−1 =
b−a
→ 0 für n → ∞.
n
Mathematik I+II
8
Integration stetiger Funktionen
120
Die Folge der Trapezapproximationen konvergiert, der Grenzwert definiert das Integral
Z b
n ³
´ f ¡a(n) ¢ + f ¡a(n) ¢
X
(n)
(n)
`
`−1
lim
a` − a`−1
=:
f (x) dx.
n→∞
2
a
`=1
8.3b
Bemerkungen zur Integraldefinition
Man kann leicht beweisen, daß der Grenzwert unabhängig von der Folge immer feinerer Unterteilungen ist. Wichtig ist nur, daß das längste Teilintervall immer kürzer wird. Wählt man nicht wie
bei der Trapezapproximation die Mittelwerte der Funktionswerte an den Rändern der Teilinterval£ ¡ (n) ¢
¡ (n) ¢¤
¡ (n) ¢
le: f a` + f a`−1 /2 sondern andere Werte wie z.B. rechte Randwerte: f a` , oder linke
¡ (n) ¢
Randwerte: f a`−1 , so erhält man im Grenzwert ebenfalls immer dasselbe Ergebnis, wie die Umrechnungen in 8.2 für äquidistante Stützstellen zeigen. Dasselbe gilt für die ungünstiger erscheinen©
£ (n) (n) ¤ª
den minimalen Werte: min f (x) | x ∈ a`−1 , a`
oder die maximalen Werte, die sich besonders
für den Beweis der Konvergenz bei Verfeinerung eignen: Die approximierende Untersumme“ des
”
Integrals ist
Un :=
n ³
X
(n)
a`
(n)
− a`−1
´
©
£ (n)
(n) ¤ª
min f (x) | x ∈ a`−1 , a`
,
`=1
entsprechend die Obersumme“ mit den maximalen Werten in den Teilintervallen. Bei Verfeinerung
”
der Unterteilung durch Einfügen zusätzlicher Stützstellen, z.B. durch Halbieren der Teilintervalle,
wächst die Folge der Untersummen monoton, während die Folge der Obersummen monoton fällt:
Un ≤ Un+1 ≤ On+1 ≤ On .
Zur Begründung der Monotonie: Sei c ∈ (a, b) ein beliebiger Teilungspunkt im vollen Intervall,
dann gilt min{f (x) | x ∈ [a, b]} ≤ min{f (x) | x ∈ [a, c]} und
min{f (x) | x ∈ [a, b]} ≤ min{f (x) | x ∈ [c, b]} , also
U1 = (b − a) min{f (x) | x ∈ [a, b]} = {(c − a) + (b − c)} min{f (x) | x ∈ [a, b]}
≤ (c − a) min{f (x) | x ∈ [a, c]} + (b − c) min{f (x) | x ∈ [c, b]} = U2 .
Entsprechend für Teilintervalle und mit umgekehrter Ungleichung für Maxima und Obersummen.
Dies zeigt die Monotonie.
Wir sehen daraus auch, daß beide Folgen beschränkt sind. Nach dem Fundamentalsatz über monotone beschränkte Folgen 9.8a existieren die Grenzwerte limn→∞ Un und limn→∞ On . Nun folgt
aus der Stetigkeit des Integranden f , daß beide Grenzwerte gleich sind, denn bei immer kürzeren
Teilintervallen liegen alle Funktionswerte zu beliebigen Argumenten innerhalb eines Teilintervalls
immer näher beieinander. Aufgrund des Schachtelungsprinzips 9.4d (iv) führt auch unsere Trapezapproximation und jede andere auf denselben Grenzwert. Die Ausführung dieser Beweisskizze für die
Konvergenz finden Sie in der Literatur. Insbesondere ist das Integral eindeutig, der Grenzwert ist
unabhängig davon, welche approximierende Folge benutzt wird.
Für praktische Berechnungen ist jedoch der Hauptsatz der Differential- und Integralrechnung
8.4 meist zweckmäßiger. Der definierende Ausdruck ist auch für b < a sinnvoll, Vertauschen der
Integrationsgrenzen ändert nur das Vorzeichen.
Obwohl es üblich und zweckmäßig ist, das Integral über Flächenberechnungen einzuführen, sei
darauf hingewiesen, daß Integrale in der Mathematik und in den Anwendungen viel häufiger in anderen Bedeutungen auftreten, z.B. als Umkehrung der Differentiation (Lösung von Differentialgleichungen), bei Mittelwertberechnungen (8.4e, Berechnung von Schwerpunkten im Kapitel über Integrale
reellwertiger Funktionen etc.) oder bei der Berechnung von Fourierkoeffizienten.
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
8.3c
121
Eigenschaften des bestimmten Integrals
Die folgenden Eigenschaften des Integrals sind offensichtlich für jede Trapezapproximation richtig,
sie vererben sich im Grenzwert auf das Integral.
Rb
Ra
Ra
Rb
(i) a f (x) dx = − b f (x) dx, a f (x) dx = 0, f (x) ≡ C ⇒ a f (x) dx = C (b − a).
(ii) Additivität bezüglich der Integrationsintervalle: Seien a, b, c im Stetigkeitsintervall von f (in
beliebiger Anordnung), dann gilt
Z
Z
b
Z
c
f (x) dx =
b
f (x) dx +
a
a
f (x) dx.
c
(iii) Linearität bezüglich des Integranden f :
Z
Z
b
C f (x) dx = C
Z
b
f (x) dx,
a
Z
b
(f + g)(x) dx =
a
a
Z
b
f (x) dx +
a
b
g(x) dx.
a
(iv) Monotonie: Sei a < b und f (x) ≥ g(x) für x ∈ [a, b], dann folgt
Z
Z
b
b
f (x) dx ≥
a
g(x) dx.
a
(v) Abschätzung: Für a < b (umgekehrte Ungleichungen bei b < a)
Z
b
f (x) dx ≤ max{f (x) | a ≤ x ≤ b} (b − a).
min{f (x) | a ≤ x ≤ b} (b − a) ≤
a
(vi) Komplexwertige Funktionen, f : [a, b] → C stetig, dann sind auch die reellwertigen Funktionen
Re f, Im f : [a, b] → R stetig und man definiert komponentenweise“ gemäß der Linearität
”
des Integrals
Z
Z
b
f (x) dx :=
a
8.3d
Z
b
(Re f )(x) dx + i
a
b
(Im f )(x) dx.
a
Eine wichtige Abschätzung für Integrale
Für reelle und komplexe Funktionen f , a und b im Stetigkeitsintervall von f , gilt
¯Z b
¯ ¯Z b
¯
¯
n
o
¯
¯ ¯
¯
¯
¯
¯
¯ ≤ max |f (x)| ¯¯ x ∈ [a, b] bzw. x ∈ [b, a] · |b − a|,
f
(x)
dx
≤
|f
(x)|
dx
¯
¯ ¯
¯
a
a
der wichtigste Spezialfall für a ≤ b ist
¯Z b
¯ Z b
¯
¯
¯
|f (x)| dx .
f (x) dx¯¯ ≤
¯
a
a
Diese Ungleichung ist die Verallgemeinerung der Dreiecksungleichung (5.5b, 5.7f und 10.3) von
Summen und Reihen auf Integrale.
8.4
Der Hauptsatz der Differential- und Integralrechnung
(Leibniz, Newton)
Es gibt mehrere gleichwertige Formulierungen dieses grundlegenden Satzes, der besagt, daß die (einfache) Differentiation und die (oft schwierigere) Integration zueinander inverse Operationen sind.
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
8.4a
122
Der Hauptsatz für bestimmte Integrale, Stammfunktion
Sei f : [a, b] → R stetig und sei F eine Stammfunktion zu f , d.h. F ist stetig differenzierbar in
[a, b] und F 0 = f . Dann gilt
Z
Z
b
f (x) dx =
a
8.4b
b
¯b
¯b
¯
¯
F 0 (x) dx = F (b) − F (a) =: F (x) ¯ ≡ F (x) ¯
a
a
¯b
¯
≡ F (t) ¯
x=a
t=a
.
Bemerkung zu Stammfunktionen
Seien F und F̃ Stammfunktionen zu f , dann ist G(x) := F (x) − F̃ (x) differenzierbar mit G 0 =
f − f ≡ 0. Nach ?? ist G(x) = const in Intervallen. Zwei Stammfunktionen zu f können sich auf
Intervallen also nur um eine additive Konstante unterscheiden, F̃ = F + c, c ∈ R. Daraus folgt, daß
die Differenz F (b) − F (a) = (F (b) + c) − (F (a) + c) = F̃ (b) − F̃ (a) unabhängig von der Wahl
der Stammfunktion ist.
8.4c
Integral als Stammfunktion
Offensichtlich ist folgende Fassung des Hauptsatzes, in der man ein Integral als Funktion der oberen
Grenze betrachtet, gleichwertig zur obigen 8.4a. (Die Namen der Integrationsvariablen x, ξ, t, . . .
sind ohne Bedeutung, genauso wie die Namen der Summationsindizes.) Sei f : [a, b] → R stetig,
dann ist für jedes c, x ∈ [ a, b ]
Z x
F (x) :=
f (t) dt
c
eine Stammfunktion zu f (diejenige mit F (c) = 0 gemäß 8.3c (i) ).
8.4d
Beweis des Hauptsatzes
Wir beweisen die Variante 8.4c. Anschaulich ist das Integral
Z
F (x0 + h) − F (x0 ) =
Z
x0 +h
f (t) dt −
c
x0
f (t) dt
8.3c(ii)
Z
x0 +h
=
c
f (t) dt
x0
für kleine h ungefähr die Rechteckfläche (mit Vorzeichen) h·f (x0 ). Mit 8.3c (i) gilt exakt
f (x0 ) · h, also
¯ n
¯ ¯ Z x0 +h
¯
o
¯1
¯
¯ ¯1
¯ F (x0 + h) − F (x0 ) − f (x0 )¯ = ¯
[ f (t) − f (x0 ) ] dt¯¯
¯h
¯ ¯h
x0
R x0 +h
x0
f (x0 )dt =
¯
n
o
¯
≤ max |f (t) − f (x0 )| ¯ |t − x0 | ≤ |h| → 0 für |h| → 0,
8.3d
da f in x0 stetig ist. Also ist F in x0 differenzierbar und F 0 (x0 ) = f (x0 ).
8.4e
2
Variante des Mittelwertsatzes
Eine äquivalente Umformulierung des Mittelwertsatzes 7.1a erklärt den Namen dieses wichtigen Satzes und zeigt seinen engen Zusammenhang mit dem Hauptsatz. Für eine auf [ a, b ] stetige Funktion
f beschreibt
1
b−a
Z
b
f (t) dt
a
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
123
den Mittelwert von f im Intervall [ a, b ] . Anwendung des Mittelwertsatzes auf eine Stammfunktion
F von f ergibt
F (b) − F (a)
= F 0 (xz ) = f (xz ) für eine Zwischenstelle xz ∈ (a, b).
b−a
Mit dem Hauptsatz 8.4a gilt dann
1
b−a
Z
b
a
f (t) dt = f (xz ) für ein xz ∈ (a, b),
also ist der Mittelwert einer stetigen Funktion gleich dem Funktionswert an einer Zwischenstelle. (Bei
unstetigen Funktionen braucht das nicht der Fall zu sein. Eine lange Würfelfolge hat als Mittelwert
ungefähr 3,5 Augen, diese Augenzahl tritt aber nicht als Funktionswert auf, sie kann nicht gewürfelt
werden.)
8.5
Das unbestimmte Integral
Als unbestimmtes Integral einer stetigen Funktion f wird meist die Menge aller ihrer Stammfunktionen {F (·) | F differenzierbar, F 0 = f } bezeichnet mit folgenden üblichen Schreibweisen:
Z
f (x) dx
=
F (x) + c, c ∈ R ,
sowie
Z
Z
x
f (t) dt + c, c ∈ R ,
oder auch
x
f (t) dt.
a
Die Mengenschreibweise ist korrekt, aber umständlich. Im eingerückten Block sind die beiden oberen
Schreibweisen vorherrschend, aber die linke ist unglücklich: links erscheint x als Integrationsvariable, die beliebig umbenannt werden könnte, gemeint ist aber x als Variablenname in der Stammfunktion, wie oben rechts. Also ist x die obere Grenze des Integrals, wie es in den beiden unteren,
weniger gebräuchlichen Schreibweisen zum Ausdruck kommt. Die freie Konstante c heißt Integrationskonstante. Mit den oberen Schreibweisen gilt somit
Z
f 0 (x) dx = f (x) + c, c ∈ R ,
oder im Beispiel
Z
3x2 dx = x3 + c,
Z
[ A cos x + B sin x ] dx = A sin x − B cos x + c,
[Vorsicht: Manche Autoren bezeichnen jedoch mit
ge aller Stammfunktionen wie wir!]
8.6
R
c ∈ R.
f (x) dx eine Stammfunktion anstelle der Men-
Beispiele für die Integration mit dem Hauptsatz
Eine große Hilfe für die Berechnung von Integralen sind die Formelsammlungen. Trotzdem ist es unerläßlich, wichtige und häufig auftretende Funktionen auch selbst integrieren zu können. Oft muß ein
Integral erst in eine Form gebracht werden, die in der Formelsammlung steht, das setzt viel praktische
Erfahrung mit Integralen voraus. In den hier folgenden konkreten Beispielen fehlen außerdem in den
Formelsammlungen oft die Betragsstriche in den Formeln. Sie werden meist nur in der Einleitung der
Integraltabellen erwähnt, ebenso wie die Integrationskonstanten c ∈ R .
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
8.6a
124
Potenzen der Variablen
Mit [ ln |x − x0 | ]0 = 1/(x − x0 ) = (x − x0 )−1 , x ∈ R \ {x0 } (siehe 7.4b (i) ) folgt
Z b
¯b
dx
¯
= ln |x − x0 | ¯ = ln |b − x0 | − ln |a − x0 |
(x
−
x
)
a
0
a
¯
¯
µ
¶
¯ b − x0 ¯
|b − x0 |
b
−
x
0
¯ = ln
= ln
= ln ¯¯
,
|a − x0 |
a − x0 ¯
a − x0
weil (a − x0 ) und (b − x0 ) dasselbe Vorzeichen haben müssen, also (a − x0 ) · (b − x0 ) > 0 denn
der Punkt x0 , an dem der Integrand nicht definiert ist, darf nicht im Integrationsintervall liegen!
Für die anderen Potenzen p ∈ R, p 6= −1, x > x0 gilt gemäß ??
[ (x − x0 )p+1 /(p + 1) ]0 = (x − x0 )p . Daher ist für a, b > x0
Z b
¯b
´
1
1 ³
¯
(x − x0 )p dx =
(b − x0 )p+1 − (a − x0 )p+1 .
(x − x0 )p+1 ¯ =
p+1
p+1
a
a
Für ganzzahlige Potenzen mit p ≥ 0 sind in der Formel oben beliebige x, a, b ∈ R zugelassen, bei
ganzzahligem p ≤ −2 muß wieder x 6= x0 und (a − x0 ) · (b − x0 ) > 0 beachtet werden. Terme
dieser Art treten bei der Partialbruchzerlegung 6.5a auf.
Auch gewisse Wurzeln, p = 1/k, k ungerade, lassen verschwindende und negative Argumente
zu, siehe D, J oder 7.2c. Die Formel ist dann ebenfalls richtig für p
alle
x, a, b ∈ R , wenn (x − x0 )p+1 als (x − x0 ) (x − x0 )1/k = k (x − x0 )k+1 aufgefaßt wird (die
Potenz k + 1 ist gerade, jede Stammfunktion einer ungeraden Funktion ist gerade). Wenn p =
−1/k, k ungerade, dann muß zur Vermeidung der Nullstelle im Nenner wieder (a−x0 )·(b−x0 ) > 0
verlangt werden. Interpretiert man das Integral jedoch als uneigentliches Integral, siehe 8.14b, dann
ist diese Einschränkung auch nicht mehr nötig.
8.6b
Potenzreihen
P∞
k
Sei f (x) =
k=0 bk (x − z0 ) eine Potenzreihe mit positivem Konvergenzradius R > 0 oder
R = ∞. Dann kann die Potenzreihe gliedweise integriert“ werden als Umkehrung zur gliedweisen
”
Differentiation (6.3e). Der Konvergenzradius ändert sich dabei nicht. Also ist
F (x) = c +
∞
∞
X
X
b`−1
bk
(x − z0 )k+1 = c +
(x − z0 )` ,
k+1
`
k=0
|x − z0 | < R,
`=1
eine Stammfunktion zu f .
8.6c
Potenzen von Funktionen und deren Ableitung
Wir behandeln hier einen Spezialfall der Substitutionsregel, die später in 8.9 diskutiert wird. G(x) :=
[f (x)]p+1 /(p + 1) erfüllt G 0 = [f (x)]p f 0 (x) für p ∈ N0 (oder p ∈ R , p 6= −1, mit der Zusatzbedingung, daß f im Integrationsintervall positiv ist),
Z b
¯b
ª
1
1 © 26
¯
[sin x]25 cos x dx =
sin26 x ¯ =
sin b − sin26 a .
26
26
a
a
H(x) = ln |f (x)| erfüllt H 0 (x) = f 0 (x)/f (x), es muß f (x) 6= 0 im gesamten Integrationsintervall
gelten, wie auch bei Potenzen p ∈ Z, p ≤ −2 im Beispiel oben.
sin x
f 0 (x)
π
π
=−
, − <x<
oder . . . , also
cos x
f (x)
2
2
Z b
¯b
³ cos a ´
¯
tan x dx = − ln | cos x| ¯ = − ln | cos b| + ln | cos a| = ln
cos b
a
a
für kπ − π/2 < a, b < kπ + π/2, k ∈ Z (das ganze Intervall [a, b] bzw. [b, a] muß im
Definitionsbereich des Tangens liegen).
tan x =
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
8.6d
125
Quadratische Polynome im Nenner
Bei der Partialbruchzerlegung rationaler Funktionen 6.5a können außer den in 8.6a behandelten Ausdrücken auch Terme mit einer Potenz eines irreduziblen quadratischen Polynoms x2 + px + q, p2 <
4q, im Nenner und linearen oder konstanten Funktionen im Zähler auftreten. Werden solche Ausdrücke integriert, können die Integrationsgrenzen a und b ∈ R beliebig gewählt werden. Einige Formeln bleiben aber auch richtig, wenn p2 ≥ 4q, jedoch dürfen dann keine Nullstellen des Nennerpolynoms zwischen a und b liegen! In diesem Fall kann der Ausdruck auch mit der Partialbruchzerlegung
weiter vereinfacht werden.
µ 2
¶
Z b
¯ 2
¯ ¯¯b
2x + p
b + pb + q
¯
¯
dx = ln x + px + q ¯ = ln
,
2
a2 + pa + q
a
a x + px + q
Z
a
b
¯b
1
2x + p
2
1−` ¯
dx
=
(x
+
px
+
q)
¯ = . . . , ` ≥ 2.
(x2 + px + q)`
1−`
a
Nur für p2 < 4q gilt
Z
Ã
!
1
x + p/2
1
arctan p
dx = p
+ c, c ∈ R ,
x2 + px + q
q − p2 /4
q − p2 /4
denn mit 7.4b (iii) ist für jede Konstante C 6= 0
½
µ
¶¾
d
1
x+d
1
1
arctan
=
.
= 2
2
2
dx C
C
(x + d) + C
x + 2dx + (d2 + C 2 )
Mit diesen Beispielen sind die meisten Integrale erfaßt, die bei der Integration rationaler Funktionen durch Partialbruchzerlegung des Integranden auftreten. Für die restlichen Fälle mit const/(x2 +
px + q)` , ` ≥ 2 siehe die Reduktion 8.7a (iv) oder Formelsammlungen.
8.7
Partielle Integration
Die partielle Integration, die auf der Produktregel der Differentiation 6.3b beruht, kann zur Vereinfachung unbekannter Integrale dienen. Aus der Leibnizregel
[ u(x) · v(x) ]0 = u0 (x) v(x) + u(x) v 0 (x)
folgt durch Integration (siehe 8.5)
Z
Z
0
u(x) · v(x) + c = u (x) v(x) dx + u(x) v 0 (x) dx
oder
Z
Z
0
u0 (x) · v(x) dx (+c) .
u(x) · v (x) dx = u(x) · v(x) −
(Wenn nach Umformungen dieser Gleichungen beide unbestimmten Integrale auf einer Seite stehen,
darf die Integrationskonstante c nicht vergessen werden!)
8.7a
Beispiele für die partielle Integration
R
(i) x · cos x dx =? , v 0 (x) = cos x ⇒ v(x) = sin x, u(x) = x ⇒ u0 (x) = 1,
Z
Z
x · cos
x − |{z}
1 · sin
x dx = x sin x + cos x + c,
x · sin
| {zx} dx = |{z}
|{z}
|{z}
|{z}
u
Z
π/2
0
RWTH Aachen
v0
u
v
u0
v
¯π/2
π
¯
x cos x dx = [ x sin x + cos x ] ¯
= − 1.
2
0
Mathematik I+II
8
Integration stetiger Funktionen
126
(ii) Durch evtl. mehrfache Anwendung des Verfahrens findet man Stammfunktionen zu Produkten
aus (niedrigen) positiv ganzzahligen Potenzen der Variablen (x, x2 , . . .) mit einfach zu integrierenden Funktionen wie der Exponentialfunktion, trigonometrischen, hyperbolischen oder
. . . Funktionen, z.B.
Z
Z
x2 · e−x dx = x2 · (−e−x ) − 2x (−e−x ) dx
Z
= −x2 e−x − 2x e−x + 2 e−x dx = {−x2 − 2x − 2} e−x + c, c ∈ R .
(iii)
R
ln x dx =
R
R
ln x · 1 dx = (ln x) · x − (1/x) · x dx = x (ln x − 1) + c.
Ähnliches Vorgehen ist auch bei anderen Umkehrfunktionen mit einfacher Ableitung erfolgreich. Man fügt einen Faktor v 0 (x) = 1 hinzu.
In den bisherigen Beispielen war der Integrand ein Produkt von zwei Funktionen, deren eine
leicht zu integrieren ist, die andere vereinfacht sich beim Ableiten.
(iv) Mit einer geschickten Zerlegung erhält man eine iterative Reduktion für höhere Potenzen irreduzibler quadratischer Polynome im Nenner bei konstantem Zähler, Funktionen, die bei der
Partialbruchzerlegung auftreten können. Die erste inverse Potenz ` = 1 wurde schon in 8.6d
behandelt. Ein einfaches aber typisches Beispiel mit ` ≥ 2 ist
1
2x
x2 + 1 − x2
1
1
=
= 2
− x
,
(x2 + 1)`
(x2 + 1)`
(x + 1)`−1 2 (x2 + 1)`
1
−1
,
2
` − 1 (x + 1)`−1
Z
Z
1
−x
1
dx
2x
dx
=
+
, also
x 2
(x + 1)`
` − 1 (x2 + 1)`−1 ` − 1
(x2 + 1)`−1
½
¾
Z
Z
Z
−x
dx
dx
1
1
dx
=
−
+
(x2 + 1)`
(x2 + 1)`−1 2 (` − 1)(x2 + 1)`−1 ` − 1
(x2 + 1)`−1
Z
dx
x
2` − 3
=
+
.
2
`−1
2
2(` − 1)(x + 1)
2(` − 1)
(x + 1)`−1
v 0 (x) =
(x2
2x
+ 1)`
=⇒
v(x) =
Ähnliche Integranden können entsprechend reduziert und integriert werden, siehe Formelsammlungen für den allgemeinen Fall. Damit kann nun zu allen rationalen Funktionen eine Stammfunktion bestimmt werden, denn alle bei der Partialbruchzerlegung auftretenden Terme lassen
sich geschlossen integrieren.
(v) Weitere Fälle, bei denen zweimalige partielle Integration hilft, obwohl die Funktionen nicht
einfacher werden, sind von der Art exp(ax) · sin(bx) = v 0 · u oder
Z
Z
1 ax
1 ax
ax
e · cos(bx) dx = e cos(bx) −
e [−b sin(bx) ] dx
[ a 6= 0 ]
a
a
½
¾
Z
1 ax
b 1 ax
1 ax
= e cos(bx) +
e sin(bx) −
e [ b cos(bx) ] dx
a
a a
a
Z
1 ax
b ax
b2
= e cos(bx) + 2 e sin(bx) − 2
eax cos(bx) dx, daraus folgt
a
a
a
¶Z
µ
´
1³
b2
eax cos(bx) dx = 2 a eax cos(bx) + b eax sin(bx) + c, also
1+ 2
a
a
Z
n
o
ax
e
eax cos(bx) dx = 2
a
cos(bx)
+
b
sin(bx)
+ c, c ∈ R .
a + b2
Entsprechend für Produkte trigonometrischer und/oder hyperbolischer Funktionen.
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
127
Mit der Erfahrung aus vielen Beispielen lernt man zu sehen“, ob und wie partielle Integration
”
möglich ist und hilft.
8.8
Symmetriebetrachtungen bei Integralen
8.8a
Gerade (symmetrische) Funktionen
Symmetrische oder gerade Funktionen erfüllen f (−x) = f (x), z.B. xn , n gerade, cos x, cosh x,
sin2 x, |x|, f (x) = h(x2 ), h beliebig, f (x) = h(g(x)) = h ◦ g(x), g gerade, h beliebig. Der
Graph einer geraden Funktion ist spiegelsymmetrisch an der y-Achse. Für eine beliebige Funktion
f mit symmetrischem Definitionsbereich ist
i
1h
f (x) + f (−x)
der gerade Anteil von f.
fgerade (x) :=
2
2
2
2
Ein
£ Beispiel: (x + 4) ist der gerade Anteil von (x − 2) = x − 4x + 4. ¤Für gerade Funktionen f
mit Stammfunktion F, die sogar immer ungerade gewählt werden kann, gilt
·
¸
Z a
Z a
f (x) dx = 2
f (x) dx = 2 {F (a) − F (0)}
falls f (−x) = f (x), x ∈ (−a, a).
−a
0
Vorteile: F (0) ist oft leichter zu berechnen als F (−a) und mitunter braucht beim Auflösen von
Beträgen dann keine Fallunterscheidung gemacht zu werden. Bei Näherungsrechnungen ist nur ein
halb so langes Intervall zu betrachten, also halber Rechenaufwand.
Die Aussagen bleiben richtig, wenn die (Anti-)Symmetrie nur im Inneren des Integrationsintervalls ohne die Randpunkte verlangt wird, was bei Verallgemeinerung der Integration auf stückweise
stetige Funktionen (8.13) wichtig wird. Auch endlich viele Ausnahmepunkte spielen hierbei keine
Rolle.
8.8b
Ungerade (antisymmetrische) Funktionen
Eine Funktion heißt ungerade oder antisymmetrisch oder auch schiefsymmetrisch, wenn f (−x) =
−f (x), z.B. xn , n ungerade, sin x, sinh x, tan x. Das Produkt aus einer geraden und einer ungeraden Funktion ist ungerade. Der Graph einer ungeraden Funktion ist punktsymmetrisch zum Ursprung.
Für eine beliebige Funktion f mit symmetrischem Definitionsbereich ist
i
1h
fungerade (x) :=
f (x) − f (−x)
der ungerade Anteil von f.
2
Eine Stammfunktion einer ungeraden Funktion ist immer gerade. Für ungerade Funktionen f gilt
Z a
f (x) dx = 0
falls f (−x) = −f (x) für x ∈ (−a, a),
−a
Z
a
z.B.
2
x4 e−x sin x dx = 0 für alle a ≥ 0.
−a
Oft
R a kann das auch
R a zur Vereinfachung von Integralen benutzt werden, denn
f
(x)
dx
=
−a
−a fgerade (x) dx,
Z
π/2
Z
(1 + x13 ) cos x dx =
−π/2
π/2
cos x dx = 2.
−π/2
Bei nahezu symmetrischen Intervallen ergeben sich auch Vereinfachungen. Sei f ungerade, f (−x) =
−f (x),
Z 1,05
Z 1,05
´
1³
f (x) dx =
f (x) dx ≈
f (1, 05) + f (1) · 0, 05.
2
−1
+1
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
128
Insbesondere eine approximative Berechnung für das kurze Intervall ist viel einfacher als für das
lange, in dem die meisten Beiträge sich gegenseitig wegheben.
Integrand kann auch (anti)symmetrisch bezüglich eines anderen Punktes als x = 0 sein, z.B.
REin
π
ist 0 cos x dx = 0, da der Integrand ungerade ist bei Spiegelung am Mittelpunkt x = π/2 des
Integrationsintervalls, cos (t + π/2) = sin t. Hier hilft Verschieben“ durch Substitution 8.9b.
”
Die hyperbolischen und trigonometrischen Funktionen sind Zerlegungen der Exponentialfunktion
in gerade und ungerade Anteile:
f (x) = ex = fgerade (x) + fungerade (x) = cosh x + sinh x
oder
h(x) = eix = hgerade (x) + hungerade (x) = cos x + i sin x.
Hinweis: Um bei einer Funktion zu testen, ob sie gerade oder ungerade ist, sollte man immer mit
f (−x) beginnen und versuchen, den Ausdruck in f (x) oder −f (x) umzuwandeln.
8.9
Die Substitutionsregel
Neben der partiellen Integration ist die Substitution eine andere wichtige Technik, um unbekannte Integrale auf einfachere bekannte zurückzuführen. In Anwendungen muß man oft durch partielle
Integration oder Substitution das Integral zunächst so weit vereinfachen, daß es dann mit Hilfe der
Formelsammlung gelöst werden kann. Grundlage für die Substitution ist die Kettenregel der Differentiation, siehe 6.3d und ??:
d
F (ϕ(t)) = F 0 (ϕ(t)) · ϕ0 (t) = f (ϕ(t)) · ϕ0 (t)
dt
für F 0 = f . Umgekehrt gelesen: Wenn zu einer Funktion f eine Stammfunktion F bekannt ist,
dann ist F (ϕ(t)) eine Stammfunktion zu f (ϕ(t)) · ϕ0 (t). Den Spezialfall f (x) = xp kennen wir
schon aus 8.6c und 8.6d für unterschiedliche Funktionen ϕ. Dies führt auf:
8.9a
Erste Form der Substitutionsregel
Sei F 0 = f , dann gilt für unbestimmte Integrale
Z
Z
¯
¯
f (ϕ(t)) · ϕ0 (t) dt = F (ϕ(t)) + c = f (x) dx¯
x=ϕ(t)
¯
¯
= F (x)¯
x=ϕ(t)
+ c, c ∈ R .
Beispiel:
Z
cos(t4 ) · 4 t3 dt = sin(t4 ) + c, c ∈ R ,
mit f (x) = cos x, F (x) = sin x, ϕ(t) = t4 , ϕ0 (t) = 4 t3 . Entsprechend für bestimmte Integrale
Z b
Z ϕ(b)
¯b
¯ϕ(b)
¯
¯
0
f (ϕ(t)) · ϕ (t) dt = F (ϕ(t)) ¯
=
f (x) dx = F (x) ¯
.
t=a
a
Beispiel:
Z 3
e
0
−t2
ϕ(a)
x=ϕ(a)
Z
¯32
¢
1 9 −x
1 ¡ −9
1
−x ¯
e dx =
· t dt = (−e ) ¯ 2 =
−e + 1
2
2 0
2
x=0
mit f (x) = e−x , F (x) = −e−x , ϕ(t) = t2 , ϕ0 (t) = 2t, t = ϕ0 (t)/2. Dieses Verfahren ist
anwendbar, wenn eine einfach zu integrierende Funktion (wie Polynom, trigonometrische Funktion,
Exponentialfunktion, ...)
ϕ(t) auftritt und dessen Ableitung ϕ0 (t) als
R mit kompliziertem Argument
Faktor hinzutritt. Z.B. exp{arctan t}/(1 + t2 ) dt = exp{arctan t} + c, c ∈ R .
Merkregel: Um eine geschickte Substitution ϕ(t) zu finden, hilft es oft, nach einem Faktor der Form
ϕ0 (t) Ausschau zu halten! Mit x = ϕ(t) und dx = ϕ0 (t) dt muß das Integral einfacher werden.
Oder mit
R anderen Variablennamen (z.B. wenn das gesuchte Integral x als Integrationsvariable
R
hat): ? = f (x) dx, u = u(x), du = u0 (x) dx führt auf ein einfacheres Integral g(u) du, wobei
g(u(x)) = f (x) u0 (x).
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
8.9b
129
Zweite Form der Substitutionsregel
Mitunter kann man umgekehrt eine Integrationsvariable x als Funktion einer neuen Variablen t
ausdrücken und damit das Integral vereinfachen:
Sei x = ϕ(t) für eine bijektive (invertierbare) Funktion ϕ, d.h. die Umkehrfunktion
t = ϕ−1 (x) existiert, die Gleichung x = ϕ(t) kann nach t aufgelöst werden. (Es genügt, daß dies
für x im Integrationsintervall gilt.) Dies ist z.B. für stetig differenzierbare ϕ erfüllt, falls ϕ0 (t) 6= 0
für alle t im interessierenden Intervall. Es gilt dann (mit dx = ϕ0 (t) dt )
Z
Z
¯
¯
f (x) dx = f (ϕ(t)) · ϕ0 (t) dt ¯ −1 .
t=ϕ
(x)
Hier sollte f (ϕ(t)) · ϕ0 (t) als Funktion von t einfacher integrierbar sein als f (x) !
√
Beispiele: Gemäß 7.4b (ii) ist (arcsin t) 0 = 1/ 1 − t2 , |t| < 1. Für x ∈ (−3, −1) gilt
Z
Z
Z
¯
dx
dx
dt
¯
√
p
√
=
=
· 1¯
= arcsin(x + 2) + c, c ∈ R
2
2
2
t=x+2
−3 − 4x − x
1−t
1 − (x + 2)
mit x = ϕ(t) = t − 2, t = ϕ−1 (x) = x + 2, ϕ0 (t) = 1. Das Verschieben des Arguments“ ist oft
”
eine nützliche Substitution, siehe auch 8.8b.
Wir haben jetzt ein systematisches Verfahren, um eine Stammfunktion zu (x2 + 1)−1/2 zu berechnen. (Die kennen wir allerdings schon als Ergebnis einer Differentiation, ??.) Aus sinh2 t + 1 =
cosh2 t kann man leicht die Wurzel ziehen:
Z
Z
¯
dx
1
¯
√
cosh t dt¯
=
2
|
cosh
t|
t=arsinh x
x +1
Z ¯
¯
¯
¯
= dt¯
= (t + c)¯
= arsinh x + c, c ∈ R ,
t=arsinh x
t=arsinh x
mit x = ϕ(t) = sinh t, ϕ0 (t) = cosh t = | cosh t| ≥ 1, t = ϕ−1 (x) = arsinh x. Der neue Integrand
f (ϕ(t)) · ϕ0 (t) ist die konstante Funktion 1, einfacher
geht es nicht!
√
Ähnlich geht man vor bei Integranden mit x2 − 1, x = ± cosh t, ±x ≥ 1, siehe auch 8.10b.
Entsprechend kann man bei Ausdrücken der Form (1 − x2 ), |x| ≤ 1, mit trigonometrischen
Funktionen substituieren, z.B. x = sin t, t ∈ (−π/2, π/2), oder x = cos t, t ∈ (0, π) oder
t ∈ (−π, 0). Auf den angegebenen Intervallen ist ϕ0 (t) 6= 0, also ϕ bijektiv.
Bei bestimmten Integralen werden entweder die Grenzen erst nach der Rücksubstitution eingesetzt oder – meist einfacher – man rechnet die Grenzen in die korrespondierenden Werte für t um:
Z
Z
b
ϕ−1 (b)
f (x) dx =
a
8.10
f (ϕ(t)) · ϕ0 (t) dt.
ϕ−1 (a)
Substitutionen bei Wurzelausdrücken und Potenzen
In den Anwendungen treten häufig Integrale der folgenden Form auf:
Z
´m
³p
±1 ± x2
dx ,
k, m ∈ Z.
xk
Für allgemeinere quadratische Ausdrücke unter der Wurzel siehe unten am Ende dieses Abschnitts.
Die Potenzen k und m können positiv oder negativ sein, m ist ungerade, sonst wäre die Wurzel
überflüssig. Wenn k ungerade ist, so ist es zweckmäßig, die Wurzel zu substituieren.
√ Bei gerader
Potenz k sind für x trigonometrische oder hyperbolische Funktionen einzusetzen:
für
1 − x2 , |x| ≤
√
2
1 (oder √
|x| < 1 falls m negativ ist) wähle x = sin t oder x = cos t, für 1 + x wähle x = sinh t
und für x2 − 1 wähle x = ± cosh t, das Vorzeichen abhängig davon, ob x ≥ 1 oder x ≤ −1, denn
cosh t ≥ 1.
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
130
Steht unter der Wurzel ein Ausdruck der Form αx2 + 2βx + γ, α 6= 0 sowie γ 6= β 2 /α (sonst
hätte man die Wurzel ziehen können), so wird er durch quadratische Ergänzung zunächst auf die Form
Vielfaches eines Quadrates plus Konstante“ gebracht:
”
µ
¶
µ
¶ µ
¶
¤
β 2
β2
β2 £ 2
2
αx + 2βx + γ = α x +
+ γ−
= γ−
±z + 1 ,
α
α
α
wobei z ein geeignetes Vielfaches von x + β/α ist. Alternativ kann der Faktor bei der nächsten
Substitution berücksichtigt werden, siehe das zweite Beispiel in 8.10b.
8.10a
Beispiel mit ungerader Potenz k
Gesucht ist das unbestimmte Integral (mit m = 3 und k = −1)
(
Z √ 2
3
x 6= 0
für das obere Vorzeichen,
5x ± 9
√
dx
wobei
x
|x| ≥ 3/ 5 für das untere Vorzeichen.
Mit Substitution der Wurzel (gemäß der ersten Form der Substitutionsregel) berechnen wir
p
¢
5x
1¡ 2
u = 5x2 ± 9,
du = √
dx,
x2 =
u ∓9 .
5
5x ± 9
Damit erhalten wir für das Integral
Z √ 2
Z √ 2
3
5x ± 9
5x ± 9
dx =
x
5x2
4
5x
√
dx =
5x2 ± 9
Z
¯
¯
u4
¯
du
.
u2 ∓ 9 ¯u=√5x2 ±9
Von dem rationalen Ausdruck in u spalten wir das asymptotische Polynom ab.
81
9
u4
= u2 ± 9 + 2
= u2 ± 9 ∓
.
2
u ∓9
u ∓9
1 ∓ (u/3)2
Eine Stamfunktion davon ist
 3
u
u

 + 9u − 27 arcoth , u > 3,
für das obere Vorzeichen,
3
3
3

 u − 9u + 27 arctan u
für das untere Vorzeichen.
3
3
√
Einsetzen von u = 5x2 ± 9 liefert die gesuchten Integrale:
√
√
Z √ 2
3
3
p
5x + 9
5x2 + 9
5x2 + 9
dx =
+ 9 5x2 + 9 − 27 arcoth
+ c,
x
3
3
√
√
Z √ 2
3
3
p
5x − 9
5x2 − 9
5x2 − 9
dx =
− 9 5x2 − 9 + 27 arctan
+ c,
x
3
3
8.10b
c ∈ R.
Beispiele mit gerader Potenz k
Zur Berechnung des bestimmten Integrals
Z −2 √ 2
x −1
I=
dx
x4
−5
substituieren wir (gemäß der zweiten√Regel) x = − cosh t = ϕ(t), da im Integrationsintervall x <
−1 gilt. Mit dx = − sinh t dt und x2 − 1 = sinh t erhalten wir mit 8.9b
Z arcosh 2
Z arcosh 5
− sinh2 t
1
I=
dt =
tanh2 t
dt
4
cosh t
cosh2 t
arcosh 5
arcosh 2
¯arcosh 5
¯
¤
1£
1
3 ¯
=
=
tanh t¯
tanh3 (arcosh 5) − tanh3 (arcosh 2) .
3
3
arcosh 2
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
131
p
Das Ergebnis kann mit tanh u = sinh u/ cosh u = cosh2 u − 1/ cosh u für u ≥ 0 vereinfacht
werden zu
"µ √
" √
#
¶3 µ √
¶3 #
√ 16 2 1
1
25 − 1
4−1
I=
−
= 3
−
≈ 0, 097.
3
5
2
125
8
Das unbestimmte Integral für |x| < 2 mit k = 2 und m = −3
Z
Z
x2
x2
dx
=
√
p
3
3 dx
4 − x2
8 1 − (x/2)2
2
2
vereinfachen
p wir mit der Substitution (x/2) = sin t, |t| < π/2. Dann ist x = 4 sin t und dx =
2 cos t dt, 1 − (x/2)2 = cos t > 0.
¶
Z
Z
Z µ
4 sin2 t
1 − cos2 t
1
2
cos
t
dt
=
dt
=
−
1
dt = tan t − t + c, c ∈ R.
8 cos3 t
cos2 t
cos2 t
Mit Einsetzen von t = arcsin(x/2) erhalten wir
Z
x2
sin[arcsin(x/2)]
− arcsin(x/2) + c
dx = tan[arcsin(x/2)] − arcsin(x/2) + c =
√
3
cos[arcsin(x/2)]
4 − x2
x/2
x
=p
− arcsin(x/2) + c, c ∈ R.
− arcsin(x/2) + c = √
4 − x2
1 − (x/2)2
8.11
Integrale rationaler Funktionen in den trigonometrischen Funktionen
Eine rationale Funktion in den trigonometrischen Funktionen besteht aus jeweils einem Polynom von
cos x, sin x im Zähler und Nenner, z.B.
f (x) =
13 + cos5 x − 3 sin2 x + 2 sin x · cos x
.
2 − sin3 x + sin2 x · cos4 x
Schreibt man tan oder cot als Quotient von Sinus und Kosinus, so sind Ausdrücke mit ganzzahligen
Potenzen von tan und cot auch von dieser Form. Wegen der 2π -Periodizität genügt es, Integrale
über Intervalle in (−π, π) zu betrachten, dabei dürfen Nullstellen des Nenners nicht im Integrationsintervall liegen! Mit einer bijektiven Standard-Substitution (zweite Form 8.9b) lassen sich Integrale
der
¯
R Form
R
¯
f (x) dx = f (ϕ(t)) · ϕ0 (t) dt ¯ −1
immer geschlossen lösen:
t=ϕ
x = ϕ(t) = 2 arctan t,
ϕ0 (t) =
(x)
t = ϕ−1 (x) = tan(x/2),
x ∈ (−π, π), t ∈ R ,
2
1 − t2
2t
>
0,
cos
x
=
, sin x =
,
2
2
1+t
1+t
1 + t2
denn es gilt z.B. mit x = 2u = 2 arctan t (Additionstheoreme, siehe Formelsammlung)
sin(2u) = 2 sin u cos u =
sin x =
2 tan u
,
1 + tan2 u
2 tan(arctan t)
2t
=
,
2
1 + t2
1 + tan (arctan t)
cos(2u) = 2 cos2 u − 1 =
1 − tan2 u
,
1 + tan2 u
etc., rational in t.
Diese Substitution führt also auf ein Integral einer rationalen Funktion in t, welches sich (z.B. mit
Partialbruchzerlegung 6.5a, 6.5b, 8.6a, 8.6d, 8.7a (iv)) immer berechnen läßt. Da die Rechnungen i.a.
sehr kompliziert werden können, ein wichtiger Hinweis: Vor der Substitution sollten alle Vereinfachungsmöglichkeiten genutzt werden, insbesondere die Additionstheoreme 6.13b und bei bestimmten
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
132
Integralen Symmetriebetrachtungen 8.8.
Beispiel:
Z
Z
¯
2
2
2
¯
dx =
·
dt¯
3 + cos x
3 + [ 1 − t2 ]/[ 1 + t2 ] 1 + t2
t=tan(x/2)
Z
Z
¯
¯
4
1
¯
¯
=
dt
=
dt
¯
¯
¡ √ ¢2
3 + 3t2 + 1 − t2
t=tan(x/2)
t=tan(x/2)
1 + t/ 2
µ
¶ ¯
µ
¶
√
√
t
tan(x/2)
¯
√
= 2 arctan √
+ c = 2 arctan
+ c, c ∈ R .
¯
t=tan(x/2)
2
2
8.12
Approximative Berechnung eines Integrals,
Simpsonsche Regel
8.12a
Quadraturverfahren
Als Quadraturverfahren bezeichnet man numerische Verfahren zur approximativen Berechnung bestimmter Integrale, insbesondere wenn keine Stammfunktionen bekannt sind [z.B. für die Gaußsche
Glockenkurve exp(−x2 ), die in der Statistik unerläßlich ist]. Wir haben bereits die Trapezregel 8.2
kennengelernt, es gibt viele weitere Verfahren von Kepler, Newton, Gauß, . . ., siehe Formelsammlungen oder Lehrbücher über numerische Mathematik. Wir betrachten ein einfaches wichtiges Beispiel.
8.12b
Simpsonsche Regel
Diese Verfeinerung der Keplerschen Faßregel (Spezialfall N = 1 der Simpsonschen Regel) ist sehr
einfach und trotzdem gut. [Kubische Polynome können damit sogar exakt integriert werden.] Sie wird
oft in Taschenrechnern benutzt.
Zerlege [a, b] in 2N gleichlange Teile mit den Stützstellen a` = a + `(b − a)/2N ,
` = 0, 1, . . . , 2N . Statt des einfachen Mittelwerts der Funktionswerte am rechten und linken Rand
des Teilintervalls, wie bei der Trapezregel, werden gewichtete Mittelwerte benutzt.
Z b
(b − a) n
f (x) dx ≈
f (a0 ) + 4f (a1 ) + 2f (a2 ) + 4f (a3 ) + 2f (a4 ) + . . .
2N · 3
a
o
. . . + 2f (a2N −2 ) + 4f (a2N −1 ) + f (a2N ) .
Anwendungsbeispiel mit 2N = 4 Intervallen: [a, b] = [0, π/2], a0 = 0, a1 = π/8, . . .
Z π/2
1=
sin x dx
0
½
µ ¶
³π ´
³π ´
³ π ´¾
π
3π
≈
sin(0) + 4 sin
+ 2 sin
+ 4 sin
+ sin
2 · 12
8
4
8
2
≈ 1, 000134 . . .
(Berechnung der Werte der Sinusfunktion mit dem Taschenrechner), eine sehr gute Näherung des
exakten Ergebnisses mit wenigen Rechenschritten.
8.13
Integrale stückweise stetiger Funktionen
8.13a
Stückweise stetige Funktionen
Eine Funktion f heißt auf [a, b] stückweise stetig, wenn sie an höchstens endlich vielen Ausnahmepunkten uk ∈ [a, b] nicht definiert bzw. nicht stetig ist und wenn an den Stellen uk die einseitigen
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
133
Grenzwerte existieren: u0 = a < u1 < . . . < un = b, f auf (uk−1 , uk ) stetig, limx%uk f (x) existiert für k = 1, . . . , n, und limx&uk f (x) existiert für k = 0, . . . , n − 1. Die Heavisidefunktion
(siehe ?? (??) ) Θ(x) ist auf jedem Intervall stückweise stetig, ebenso f (x) := sin x/|x| auf jedem
[a, b], denn f ist definiert und stetig für x 6= 0 und limx%0 f (x) = −1, limx&0 f (x) = 1 existieren beide. Die Funktion f (x) = 1/x2 ist nicht stückweise stetig auf [−1, 1], denn limx→0 f (x) =
∞, entsprechend ist auch tan x auf [0, π] nicht stückweise stetig.
8.13b
Integral einer stückweise stetigen Funktion
Da eine stückweise
R ukstetige Funktion f jeweils von (uk−1 , uk ) auf [uk−1 , uk ] stetig fortgesetzt
werden kann, ist uk−1
f (x) dx für k = 1, . . . , n definiert.
Man setzt natürlich
Z b
n Z uk
X
f (x) dx :=
f (x) dx.
a
k=1
uk−1
Beispiel:
(
f (x) =
Z
sinh x für x < 0,
ex
für x ≥ 0,
Z
2
ex dx = 1 − cosh(−1) + e2 − 1 = e2 −
0
−1
−1
2
sinh x dx +
f (x) dx =
8.14
Z
0
e + 1/e
.
2
Uneigentliche Integrale
Bisher haben wir Integrale (stückweise) stetiger Funktionen auf beschränkten Intervallen behandelt.
Für viele Anwendungen ist es zweckmäßig, das Integral auf unbeschränkte Intervalle zu erweitern
oder auf Funktionen, die auf dem abgeschlossenen Integrationsintervall nicht stückweise stetig sind
(die lokale Singularitäten haben).
8.14a
Unbeschränkte Intervalle
Sei z.B. f : [c, ∞) → R stetig, dann ist das Integral von f für jedes Intervall
[c, b], c ≤ b < ∞ definiert. Als Integral über [c, ∞) definieren wir
Z ∞
Z b
?=
f (x) dx := lim
f (x) dx
falls der Grenzwert existiert.
b→∞
c
c
Sonst sagen wir, daß das Integral nicht existiert“, nicht konvergiert“ oder divergiert“. Beispiel: Für
”
”
”
p ∈ R , b ≥ 1,
(
Z b
(b1−p − 1)/(1 − p) p 6= 1,
1
dx
=
p
ln b
p = 1,
1 x
also
Z
∞
?=
1
1
dx
xp
(
= 1/(p − 1)
existiert nicht
für p > 1,
für p ≤ 1.
Falls p > 1 wird die Fläche zwischen dem Graphen von f (x) = x−p und der x -Achse für große
x so schnell klein“, daß die Gesamtfläche für b → ∞ endlich bleibt. Entsprechend für linksseitig
”
unendliche Integrationsintervalle (−∞, c] oder für auf der ganzen reellen Achse stetige Funktionen:
Z ∞
Z b
?=
f (x) dx := lim
lim
f (x) dx falls beide Grenzwerte existieren, z.B.
−∞
RWTH Aachen
a→−∞ b→+∞
a
Mathematik I+II
8
Integration stetiger Funktionen
Z
∞
?=
−∞
134
1
dx = lim lim [ arctan b − arctan a ]
a→−∞ b→∞
1 + x2
= lim arctan b − lim
a→−∞
b→+∞
8.14b
arctan a =
π ³ π´
− −
= π.
2
2
Integranden mit lokalen Singularitäten
Wenn für eine auf (a, b] stetige Funktion limx&a f (x) nicht existiert, z.B. f (x) → ∞, dann hat
f eine (rechtsseitige) Singularität bei x = a. f ist auf [a, b] nicht stückweise stetig (fortsetzbar).
Trotzdem kann man das Integral definieren,
Z b
Z b
?=
f (x) dx := lim
f (x) dx, falls dieser Grenzwert existiert.
d&a d
a
Entsprechend bei Annäherung von links.
Sei f (x) = 1/|x|p , für x 6= 0 ist f stetig, jedoch singulär bei x = 0 für p > 0, denn
limx→0 f (x) = ∞ existiert nicht.
(
Z b
[ b1−p − d1−p ]/(1 − p) für p 6= 1,
dx
=
0 < d < b,
p
ln(b/d)
für p = 1,
d |x|
(
Z b
Z b
b1−p /(1 − p) für p < 1,
dx
dx
?=
=
lim
=
b > 0.
p
d&0 d |x|p
existiert nicht für p ≥ 1,
0 |x|
Für 0 < p < 1 strebt f (x) bei Annäherung an x = 0 hinreichend langsam“ gegen unendlich, so
”
daß die Gesamtfläche im Integral endlich bleibt.
Zusammenfassend sollte man sich merken: Das uneigentliche Integral der Funktion
f (x) = 1/x existiert weder am Ursprung noch im Unendlichen. (Das entspricht der Divergenz der
harmonischen Reihe 10.6a.) Im Unendlichen existieren die Integrale von
f (x) = 1/|x|p für schneller klein werdende Integranden (p > 1), am Ursprung für langsamer divergierende Integranden (langsamer gegen Null strebende Nenner, p < 1).
8.14c
Konvergenzkriterien für uneigentliche Integrale
Bei der Modellierung von Bewegungen können z.B. uneigentliche Integrale auftreten, wenn man entscheiden muß, ob durch die Rückstellkraft eine Bewegung zum Stillstand kommt bzw. umkehrt, bevor
eine Kollision erfolgt oder bevor eine Befestigung bricht. (Die Existenz eines uneigentlichen Integrals
zeigt auch, daß nur endlich viel Treibstoff nötig ist, um mit einer Rakete die Erdanziehung zu überwinden.) Auch zur Kontrolle von Näherungen, die bei der Modellierung gemacht wurden, ist es oft
wichtig zu wissen, ob ein uneigentliches Integral existiert. Nur in diesem Fall ist es sinnvoll, numerische Approximationsverfahren zu seiner Berechnung heranzuziehen. Dieser Absicherung dienen die
folgenden Kriterien. Anstelle der Untersuchung einer vielleicht schwierig oder gar nicht geschlossen integrierbaren Funktion wird der Integrand durch eine einfachere Funktion nach ober oder unten
abgeschätzt.
(i) Majorantenkriterium Wenn eine stückweise stetige Funktion f eine integrierbare Majorante
g hat, dann
R ∞existiert auch das uneigentliche Integral von
R ∞ f : Sei z.B. |f (x)| ≤ g(x) für x ≥
c. Wenn c g(x) dx existiert, dann existiert auch c f (x) dx. Wichtige Majoranten sind
g(x) = 1/xp , x ≥ c > 0, p > 1; xk e−x , x ≥ 0, k ∈ N beliebig. Entsprechend
für andere unbeschränkte Intervalle. Bei lokalen Singularitäten sind wichtige Majoranten die
Potenzen g(x) = |x − x0 |−p für p < 1. Da
| cot x| ≤ 1/| sin x| ≤ 2/x für 0 ≤ x ≤ π/4 folgt damit die Existenz des Integrals
Z π/4 √
Z π/4
√
√
3
3
3
cot2 x dx ≤ 4
x−2/3 dx = 3 4 (π/4)1/3 .
0
RWTH Aachen
0
Mathematik I+II
8
Integration stetiger Funktionen
135
(ii) Minorantenkriterium
R ∞ Gilt für x ≥ c : f (x) ≥ g(x) ≥ 0 und ist die Minorante g nicht
integrierbar:
? = c g(x) dx existiert nicht, dann existiert auch
R∞
? = c f (x) dx nicht. Die wichtigsten Minoranten für x ≥ c > 0 sind
g(x) = x−p , p ≤ 1. Als Beispiel:
Z ∞√
x + (ln x) cos2 x
?=
dx
x
1
√
√
existiert nicht, denn ( x + (ln x) cos2 x)/x ≥ 1/ x = g(x) für x ≥ 1 und g ist auf
[1, ∞) nicht integrierbar. Entsprechend bei anderen unbeschränkten Intervallen und bei lokalen
Singularitäten.
Beispielsweise existiert das uneigentliche Integral
R1
? = 0 (cosh x/ sin x) dx nicht.
8.15
Fehlerquellen bei der numerischen Integration
Bei einem benutzerfreundlichen“ Computer-Programm wird der Anwender meist von der Anzeige
”
von Zwischenschritten entlastet“ (der durchschnittliche Autofahrer interessiert sich auch nicht für
”
den genauen Zündzeitpunkt). Zusätzlich ist der benutzte Algorithmus oft ein Betriebsgeheimnis des
Softwareherstellers. Wie das folgende Demonstrationsbeispiel zeigt, kann es von völlig unbedeutend
erscheinenden Zufällen abhängen, ob das Ergebnis eine gute Näherung ist, oder ob es völlig unbrauchbar ist. Erst eine genauere mathematische Analyse deckt die Fehlerquellen auf, auf die man
durch unsinnige“ oder unerwartete“ Ergebnisse mitunter aber nicht immer hingewiesen wird. Blei”
”
ben Sie skeptisch, auch bei vielfach bewährten Standardprogrammen, sobald die Anwendung auch
nur etwas von der Routine abweicht!
Rπ
Stellen Sie sich vor, daß das Integral 0R f1 (x) dx irgendeinen Effekt bei gleichmäßigem Nor”
π
malbetrieb“ beschreibt, während der Zusatz 0 f2 (x) dx die Änderung durch eine kurzzeitige Störung
beschreibt, etwa den Effekt eines kurzen Stoßes, der dank besonders guter Dämpfung sehr schnell abklingt. Für die Funktionen
(
0
für x < π/2,
1
f1 (x) = , f2 (x) =
−1000(x−π/2)
π
100 e
für x ≥ π/2,
ist das folgende Integral gesucht, das leicht exakt berechnet werden kann:
Z π
Z π
100
[ f1 (x) + f2 (x) ] dx = 1 +
f2 (x) dx = 1 +
(1 − e−1000π/2 ) ≈ 1, 1 .
1000
0
0
Die durch den Stoß verursachte Störung beträgt (im Rahmen der Genauigkeit
des mathematischen
Rπ
Modells) rund 1/10 oder 10% Abweichung vom Normalbetrieb mit 0 f1 (x) dx = 1.
Wir wählen die Trapezapproximation 8.2 als Näherung, a = a0 = 0, b = an = π. Bei einer
geraden Zahl n = 2k von Teilintervallen gehört ak = a + k(b − a)/n = π/2 zu den Unterteilungspunkten. Die Trapezapproximation lautet in diesem Fall
Z π
³π π ´
o n≤100 π
π n ³π ´
f2 (x) dx ≈
f2
+ f2
+
+ ...
≈
100.
n
2
2 n
n
0
Für realistische Werte von n ist der Betrag von allen Summanden außer f2 (π/2) = 100 winzig klein
und in guter Näherung in der rechten Approximation vernachlässigbar. Das Ergebnis” 100π/n hängt
”
hauptsächlich von der Wahl der Anzahl n der Teilintervalle ab, die ein Computerprogramm oft ohne
Einfluß- und Einsichtmöglichkeit des Benutzers wählt. Der Einfluß des Stoßes wird für n ≤ 100 um
Größenordnungen überschätzt.
Wählt das Programm hingegen eine ungerade Zahl n = 2k + 1 von Teilintervallen, dann liefert
der erste Teilungspunkt rechts von π/2, ak+1 = (π/2) + (π/2n), den Hauptbeitrag:
Z π
o n<100 π
π n ³π
π´
2π
f2 (x) dx ≈
f2
+
+ ...
≈
100 e−1000π/2n <
· 10−5 .
n
2
2n
n
n
0
RWTH Aachen
Mathematik I+II
8
Integration stetiger Funktionen
136
Diese Näherung legt einen mit gutem Gewissen vernachlässigbaren“ Effekt des Stoßes nahe, er wird
”
unterschätzt. Hier gibt es auch keinerlei Hinweise, die eine Vergrößerung von n zur Steigerung der
Genauigkeit nahelegten.
Erst für n > 10.000 beginnt die Trapezapproximation, einen brauchbaren Näherungswert zu
liefern. Die Intervallänge sollte nicht länger sein als solche Strecken, auf denen sich der Integrand
wesentlich ändert. Dadurch wird der Rechenaufwand groß und das Programm langsam, was nicht
erwünscht ist. Auch alle anderen Quadraturformeln führen auf ähnliche Probleme bei Integranden,
die fast überall“ harmlos sind, die sich in einem engen Bereich aber sehr stark ändern. Erst moderne
”
Algorithmen, die das Intervall in Abhängigkeit vom Integranden lokal unterschiedlich fein unterteilen, und die in der Lage sind, eng lokalisierte Abweichungen überhaupt zu finden, bewältigen diese
Probleme besser.
Eine weitere Tücke des Demonstrationsbeispiels liegt darin, daß die irrationale Zahl
π = 3, 141592654 . . . mit dem Computer zwar beliebig genau aber nicht exakt dargestellt werden
kann. Kehren wir noch einmal zur Trapezapproximation mit geradem n = 2k zurück. Die ausgezeichnete Näherung π ≈ 3, 1416 > π führt auf ak = 3, 1416/2 ' π/2 und f2 (ak ) ≈ 100; ebenso
bei dem um zwei Dezimalstellen besseren Näherungswert π ≈ 3, 141593. Die Trapezapproximation
liefert in beiden Fällen wieder ≈ 100 π/n. Der hinsichtlich der Genauigkeit dazwischen liegende
Wert π ≈ 3, 14159 < π mit ak < π/2 ergibt aber f2 (ak ) = 0, jetzt kommt der größte Beitrag von
n≤100
f2 (ak+1 ) ≈ 100 e−1000π/n < 10−11 ! Die verschiedenen Näherungswerte“ haben weder mit”
einander noch mit dem exakten Ergebnis irgend etwas zu tun.
Ähnliche Phänomene können bei komplizierten längeren Rechnungen ganz unerwartet auftreten.
Subtrahiert man zwei etwa gleiche Größen, die einzeln nur mit kleinen Fehlern behaftet sind, voneinander, so ist die Differenz klein und der relative Fehler wächst rapide. Stehen solche Ausdrücke
im Nenner eines Integranden, so kann dieser starken, möglicherweise fehlerbehafteten, Schwankungen unterliegen mit Zufallsergebnissen bei der numerischen Integration. Bei vielen automatisierten
computergestützten Berechnungsverfahren sieht“ man die Verdacht erregenden Zwischenergebnisse
”
nicht mehr und auch der aufmerksame Benutzer wird nicht gewarnt.
Dieses – zugegebenermaßen konstruierte – Demonstrationsbeispiel sollte die Risiken besonders
kraß zeigen. Bei sicherheitsrelevanten Fragen (wie der Stabilität eines Gebäudes oder Staudamms)
oder im Umweltschutz (z.B. Schadstoffausbreitung) kann auch ein falscher Faktor 2 oder 10 katastrophale Folgen haben. Es liegt in Ihrer Verantwortung als Ingenieur, die Qualität der unumgänglichen Näherungen sicherzustellen. Die mathematischen Methoden - auch die theoretischen“ - aus den
”
früheren und den noch vor uns liegenden Kapiteln sind dafür wichtige Hilfsmittel von großer praktischer Bedeutung. Ohne den großen Wert guter unterstützender Software (deren Bedienung nicht
Inhalt dieses auf Grundlagen orientierten Kurses ist) schmälern zu wollen, warnen wir ausdrücklich
vor einer Nutzung, die den gelieferten Ergebnissen blind vertraut, insbesondere bei den interessanteren Aufgaben, die vom ausgetretenen Pfad der Routine auch nur etwas abweichen.
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
9
137
Folgen, Konvergenz und Divergenz
9.1
Approximation von Lösungen, Zahlenfolgen
9.1a
Approximation von Lösungen
Wenn mathematische Aufgaben wie das Lösen von Gleichungen, die Bestimmung optimaler Werte
oder die Berechnung des zeitlichen Verhaltens eines dynamischen Systems realitätsnahen Anwendungsproblemen entstammen, dann lassen sie sich nur in glücklichen Ausnahmefällen geschlossen
lösen. Gleichwohl sind geschlossene Lösungen von einfacheren, idealisierten Problemen oft der Ausgangspunkt für die Behandlung der realistischen Probleme. Eine ganz wesentliche Stärke der Mathematik besteht darin, Verfahren bereitzustellen, mit denen durch systematische Näherung die gesuchten
Lösungen approximiert werden können. Außerdem kann man sogar oft eine Fehlergrenze angeben,
wie weit die gefundene Approximation höchstens von der unbekannten exakten Lösung abweicht!
Ein zentrales Konzept ist dabei die Konvergenz der Folge von Approximationen, wir werden es
zunächst im einfachsten Fall der Zahlenfolgen studieren. Später behandeln wir Vektorfolgen im Kapitel über Konvergenz im Rn und Funktionenfolgen sowie Reihen (Kapitel 10), das sind unendliche
Summen als Grenzwerte von Folgen endlicher Summen von Zahlen oder Funktionen.
9.1b
Definition der Zahlenfolgen und Beispiele
Eine Zahlenfolge (oder kurz: Folge) ist eine Abbildung (Funktion) von den natürlichen Zahlen (N
oder N0 ) in die reellen oder komplexen Zahlen, also ist jedem n ∈ N(0) ein an ∈ C oder R
zugeordnet. Beispiele:
1 1
, , ...,
2 3
1 1 1
1, , ,
, ...,
3 9 27
1, −1, 1, −1, 1, . . . ,
1
für n ∈ N,
n
µ ¶n
1
an =
= 3−n für n ∈ N0 ,
3
an = (−1)n = cos (n π) für n ∈ N0 ,
1, 1 + i, 2i, −2 + 2i, −4, . . . ,
an = (1 + i)n
1, x2 (1 − x), x4 (1 − x)2 , . . . ,
an = [ x2 (1 − x) ]n ,
1,
an =
für n ∈ N0 ,
n ∈ N0 , x ∈ C beliebig.
In diesen Beispielen konnte an direkt für jedes n berechnet werden. Andere häufige Beispiele sind
rekursiv definierte Folgen:
a1 = 1, an+1 = an + (n + 1)2 : {1, 1 + 22 , 1 + 22 + 32 , . . .},
a1 = a2 = 1, an = an−1 + an−2 , n ≥ 3 : Fibonacci-Zahlen,
µ
¶
c
1
an +
für ein c > 0.
a0 > 0 beliebig, an+1 =
2
an
√
Die letzte Folge strebt gegen c, siehe 9.2b (iv).
Typische Fragen zu Folgen sind:
• Streben die Folgenglieder gegen eine feste Zahl (Konvergenz)?
• Ist der Grenzwert die gesuchte Lösung?
• Nach wievielen Schritten unterscheidet sich die Approximation vom Grenzwert um weniger
als eine zulässige Fehlertoleranz (Fehlerabschätzungen)?
Schreibweisen für Folgen mit runden Klammern: (an )n∈N , (an )∞
1 oder kurz (an ).
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
138
9.2
Konvergenz einer Folge gegen einen Grenzwert
9.2a
Definition der Konvergenz gegen einen Grenzwert
Sei (an ), an ∈ R oder C , eine Zahlenfolge. Sie heißt konvergent gegen den Grenzwert a ∈ R oder
C, wenn es zu jedem ε > 0 ein N (ε) ∈ R gibt, so daß
|an − a| ≤ ε für alle n ≥ N (ε).
Schreibweisen:
lim an = a,
limn→∞ an = a,
n→∞
an → a für n → ∞,
an −−−→ a,
n→∞
oder verkürzt (Vorsicht!) lim an = a,
n→∞
an −−−→ a,
an → a.
ε
a
ε a ε
Abbildung 9.1: ε-Umgebungen des Grenzwertes a in R und C.
Für jedes ε > 0 liegen höchstens endlich viele Glieder einer Folge außerhalb der ε-Umgebung des
Grenzwertes, gegen den sie konvergiert. Zur Vorstellung hilft es, ε als Fehlertoleranz zu interpretieren. Die Schranke N (ε) gibt an, von welchem Index n an mit Sicherheit der Näherungswert an
innerhalb der Fehlertoleranz bei dem korrekten Grenzwert der Folge liegt. Die Fehlertoleranz darf
beliebig klein sein, da es bei einer konvergenten Folge dieses N (ε) zu jedem noch so kleinen ε > 0
gibt.
Eine Folge heißt konvergent, wenn es einen Grenzwert gibt, gegen den sie konvergiert, sonst
divergent. Insbesondere heißt eine Folge Nullfolge (in C oder R), wenn sie gegen den Grenzwert
a = 0 konvergiert.
9.2b
Beispiele konvergenter Folgen
(i) an = 1/n, n ∈ N. Behauptung: (an ) ist eine Nullfolge.
Beweis: Mit a = 0 ist |an − a| = |an − 0| = |an | = |1/n| = 1/n > 0 abzuschätzen. Eine
Rechnung, um einen Kandidaten für N (ε) zu finden:
1
≤ε
n
⇐⇒
n≥
1
.
ε
(Wir werden nur “⇐=” benutzen.)
Wähle also zu ε > 0 z.B. N (ε) = 1/ε ∈ R. Dann gilt für n ≥ N (ε) = 1/ε auch 0 < 1/n ≤
ε. Also: für N (ε) = 1/ε ist |an − 0| ≤ ε für alle n ≥ N (ε) erfüllt.
(ii)
an =
RWTH Aachen
n2 + 1
n−1
+i
∈ C, n ∈ N. Behauptung: (an ) → a = 1/2 + i.
2
2n
n
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
139
Beweis: Zunächst wieder eine Rechnung zur Vereinfachung
¯ 2
¯
µ
¶¯ ¯
¯n + 1
¯ ¯ 1
n−1
1
1 ¯¯
¯
¯
¯
−
+i ¯=¯ 2 −i ¯
|an − a| = ¯
+i
2n2
n
2
2n
n
¯
¯ ¯ ¯
µ
¶
¯ 1 ¯ ¯ 1¯ 1 1
1
1 1
2
≤ ¯¯ 2 ¯¯ + ¯¯i ¯¯ =
+ =
+1 < .
2
2n
n
2n
n
n 2n
n
In der ersten Ungleichung benutzten wir die Dreiecksungleichung für den Betrag und am Ende
1/2 n < 1. Damit haben wir auf Information verzichtet (eine Abschätzung durchgeführt), um
einen einfacheren Ausdruck zu erhalten.
Wähle nun zu ε > 0 : N (ε) = 2/ε ∈ R, dann folgt für alle n ≥ N (ε):
|an − a| < 2/n ≤ ε.
(iii) Sei q ∈ C, |q| < 1, an = q n ∈ C, n ∈ N0 . Behauptung: (an ) ist eine Nullfolge.
5.7f
Beweis: |an − 0| = |an | = |q n | = |q|n . Sei b := (1/|q|) − 1 > 0, d.h. |q| = 1/(1 + b). Mit der
Bernoulli-Ungleichung (5.6) gilt (1 + b)n ≥ 1 + n b > n b, also
|q|n =
1
1
1 1
<
= · .
n
(1 + b)
bn
b n
Zu ε > 0 wähle N (ε) = 1/(ε b), dann gilt für alle
n ≥ N (ε) =
1
1 1
1
: |an − 0| = |q|n < · ≤ · ε b = ε.
εb
b n
b
Also gilt limn→∞ an = limn→∞ q n = 0.
Bemerkung: Die obige einfache Abschätzung |q|n < 1/b n ist sehr grob, sie verschenkt viel
Information, für den Konvergenzbeweis reicht sie jedoch völlig aus!
9.2c
Praxis der Bestimmung von N (ε)
Wie die Beispiele in 9.2b gezeigt haben, geht man bei Konvergenzbeweisen vom Ziel der Schlußkette
aus, nämlich von der Größe |an −a|, die abzuschätzen ist. Der erste Schritt ist, an und a einzusetzen
und den Ausdruck zu vereinfachen. Äquivalente Umformungen sind oft schwierig und i.a. nicht nötig,
in der Praxis wird das gewünschte Ziel meist durch vereinfachende Abschätzungen erreicht: Der
Ausdruck für |an − a| wird durch einen einfacheren ersetzt, der sicher nicht kleiner als |an − a|
ist, |an − a| wird durch eine einfachere und vielleicht viel größere Schranke abgeschätzt. Wichtig
ist dabei nur, daß die Schranke für große n klein wird. In einem Beispiel: an = 1 + n sin(n−5/2 ),
Behauptung an → 1 .
|an − a| = |1 + n sin(n−5/2 ) − 1| = |n sin(n−5/2 )| = n sin(n−5/2 ).
Soweit das Einsetzen von an und a sowie die Vereinfachungen. Die Beträge können weggelassen
werden, da die Ausdrücke alle positiv sind. Es wäre recht kompliziert, für alle ε > 0 genau diejenigen
n ∈ N zu bestimmen, für die |an | = n sin(n−5/2 ) ≤ ε gilt, und vor allem: es ist unnötig. Statt dessen
vereinfachen wir den Ausdruck, indem wir den Sinus abschätzen.
Die einfachste Abschätzung | sin x| ≤ 1 ergibt hier |an − a| = n sin(n−5/2 ) ≤ n. Diese
Schranke ist richtig, aber für unser Ziel zu grob: Die Schranke wird für große n nicht klein!
Als andere Abschätzung erinnern wir uns daran, daß der Sinus eines Winkels höchstens so groß
sein kann wie das Bogenmaß, also sin x ≤ x für x ≥ 0 (siehe E.5, 7.5a). Damit erhalten wir als
Schranke
|an − a| = n sin(n−5/2 ) ≤ n n−5/2 = n−3/2 .
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
140
Nun ist leicht anzugeben, wie groß n sein muß, damit für die Schranke gilt n−3/2 ≤ ε, nämlich
n ≥ 1/ε2/3 . Man kann es sich aber noch einfacher machen! Sicher gilt die weitere vergröbernde
Abschätzung n−3/2 ≤ 1/n. Diese Schranke erfüllt 1/n ≤ ε, wenn n ≥ 1/ε. Also können wir
N (ε) = 1/ε wählen. Zur Kontrolle arbeiten wir die Sequenz von Ungleichungen nun rückwärts ab:
n ≥ N (ε) = 1/ε
=⇒
1/n ≤ ε
=⇒
n−3/2 ≤ ε
=⇒
|an − a| ≤ ε.
Wir haben unser Ziel erreicht, für jedes ε > 0 ein N (ε) ∈ R anzugeben, so daß die gewünschte
Ungleichung |an − a| ≤ ε für alle n ≥ N (ε) gilt.
9.3
Eindeutigkeit des Grenzwertes einer Folge
Eine konvergente Zahlenfolge hat genau einen Grenzwert.
Beweis: Nach der Definition in 9.2 hat eine konvergente Folge mindestens einen Grenzwert. Ein Widerspruchsbeweis zeigt, daß sie auch höchstens einen hat: Angenommen, a 6= b seien beide Grenzwerte einer Folge (an ). Zu ε0 := |b − a|/3 > 0 gibt es dann ein Na (ε0 ), so daß |an − a| ≤ ε0 für
alle n ≥ Na (ε0 ), denn nach Voraussetzung ist a Grenzwert der Folge. Ebenso gibt es dann auch ein
Nb (ε0 ) mit |an − b| ≤ ε0 für n ≥ Nb (ε0 ). Wähle ein m ∈ N mit m ≥ Na (ε0 ) und m ≥ Nb (ε0 ),
dann folgt (Skizze!)
|a − b| = |a − am − (b − am )| ≤ |a − am | + |b − am | ≤ 2 ε0 .
Dies ist ein Widerspruch zur Wahl |b − a| = 3 ε0 . Die Annahme a 6= b führt zum Widerspruch, der
Grenzwert ist also eindeutig.
2
Siehe auch die Bemerkung am Ende von 9.4f.
9.4
Grenzwertsätze für konvergente Folgen
Das Konvergenzkriterium (Bestimmung eines N (ε) zu jedem ε > 0 ) ist in der Praxis zu unhandlich.
Die Grenzwertbestimmung und der Konvergenzbeweis lassen sich oft wesentlich vereinfachen.
Seien in diesem Abschnitt an → a und bn → b, n → ∞, immer konvergente (reelle oder
komplexe) Folgen, dann gelten die folgenden Regeln:
9.4a
Lineare Operationen
cn := an ± bn , cn → a ± b, n → ∞,
d · an → d · a für jedes d ∈ R oder C.
9.4b
Multiplikation und Division
cn := an · bn , cn → a · b, n → ∞.
Falls b 6= 0 gibt es ein N (|b|/3) , so daß |bn − b| ≤ |b|/3, und damit |bn | ≥ 2|b|/3 > 0 für
n ≥ N (|b|/3).
cn :=
an
a
ist definiert für n ≥ N (|b|/3) und cn → , n → ∞.
bn
b
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
9.4c
141
Anwendung stetiger Funktionen
Sei f eine stetige Funktion (für die Definition siehe ??), z.B. Polynom, trigonometrische Funktion, Exponentialfunktion, Logarithmus, Wurzel, ... oder Kombinationen daraus. Wenn a und alle
an , n ≥ n0 im Definitionsbereich von f liegen, dann gilt (siehe ??)
an → a
=⇒
f (an ) → f (a), n → ∞.
Die Umkehrung ist i.a. falsch, aus der Konvergenz der f (an ) kann nicht auf die Konvergenz der
Folge (an ) geschlossen werden, wie z.B. die divergente Folge an = (−1)n zeigt, die mit der stetigen
Funktion f (x) = x2 zur konvergenten Bildfolge f (an ) = (−1)2n = 1 wird.
9.4d
Abschätzungen für Folgen und Grenzwerte
(i) Beschränktheit konvergenter Folgen: Sei an → a, n → ∞, eine konvergente (reelle oder
komplexe) Folge. Dann gibt es eine Schranke s ∈ R, so daß |an | ≤ s für alle n ∈ N0 .
Beweis: Da (an ) konvergent ist, gibt es (insbesondere) zu ε0 = 1 ein N (1), so daß |an − a| ≤
1 für alle n ≥ N (1), also |an | = |an − a + a| ≤ |an − a| + |a| ≤ 1 + |a| für n ≥ N (1).
Wähle nun z.B.
s := max{|a0 |, |a1 |, . . . , |aN (1)−1 |, 1 + |a|}
(d.h. die größte der endlich vielen reellen Zahlen), dann gilt
|an | ≤ s für alle n ∈ N0 .
Folgerung: Eine unbeschränkte Folge kann nicht konvergent sein. Beispiel:
1,
1
1
1
, 3, , 5, , . . .
2
4
6
ist eine divergente Folge (obwohl sie eine gegen Null strebende Teilfolge hat!).
(ii) Schranke für den Grenzwert: Wenn es n0 ∈ N, r ∈ R gibt mit |an | ≤ r für n ≥ n0 , dann gilt
auch |a| ≤ r.
(iii) Positivität: Ist (an ) eine reelle Folge mit an ≥ 0 für n ≥ n0 , dann ist a ≥ 0.
Hinweis: Auch wenn an > 0 für alle n , folgt nur a ≥ 0, Beispiel:
an = (1/n) > 0 für alle n ∈ N, aber a = lim an = 0.
n→∞
(iv) Schachtelung: Wenn für eine Folge (cn ) und eine Zahl c eine Abschätzung der Form |cn −c| ≤
an gelungen ist, wobei (an ) eine (schon bekannte) Nullfolge ist, dann ist (cn ) konvergent mit
cn → c.
Für reelle Folgen ist eine gleichwertige Eigenschaft: Seien bn → b, dn → b konvergente
Folgen mit demselben Grenzwert und es gelte bn ≤ cn ≤ dn , dann ist auch (cn ) konvergent
mit cn → b.
9.4e
Bemerkungen zur Konvergenz von Folgen
(i) Für alle Konvergenzbetrachtungen und für den Grenzwert kommt es bei Folgen auf endlich viele
Glieder nicht an, diese können weggelassen werden oder beliebig abgeändert werden, ohne den
Grenzwert zu beeinflussen. Dies wurde bereits bei der Quotientenfolge genutzt.
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
142
(ii) Wir erläutern einige der Regeln mit Beispielen und beweisen exemplarisch die Multiplikationsregel. Die Regeln sind nur auf konvergente Folgen (an ), (bn ) anwendbar. Wenn eine oder beide
divergieren kann es trotzdem sein, daß z.B. Produkt- oder Differenzfolgen konvergent sind:
√
√
cn = an − bn := n + 1 − n.
Die Regeln sind nicht anwendbar, da die Folgen (an ) und (bn ) divergieren (beide sind unbeschränkt). Ein direkter Beweis zeigt, daß (cn ) eine Nullfolge ist:
√
√
√
√
√
√
( n + 1 − n )( n + 1 + n )
1
1
√
0≤ n+1− n=
=√
√
√ < √ ≤ε
n
n+1+ n
n+1+ n
falls n ≥ N (ε) = 1/ε2 . Der hier benutzte Trick des konjugierten Erweiterns“ bewährt sich
”
oft, wenn Differenzen von Wurzeln mit ähnlichem Inhalt behandelt werden müssen.
9.4f
Beweis der Multiplikationsregel
Das Verfahren tritt ähnlich bei vielen Beweisen von Regeln für Produkte auf, z.B. der Ableitungsregel
für Produkte (6.3b). Der übliche Trick“ besteht darin, durch Addition und Subtraktion desselben
”
Ausdruckes solche Terme zu erhalten, über die etwas bekannt ist. Sei an → a, bn → b (d.h. wir
wissen, daß |an − a| und |bn − b| klein werden).
an · bn − a · b = an bn − an b + an b − a b = an (bn − b) + (an − a) b.
Mit der Dreiecksungleichung folgt
|an · bn − a · b| ≤ |an | |bn − b| + |an − a| |b|.
Nach 9.4d (i) ist die konvergente Folge (an ) beschränkt: es gibt ein s mit |an | ≤ s für alle n. Zu
ε > 0 sei ε0 := ε/(s + |b|) > 0. Wähle Na (ε0 ) so groß, daß
|an − a| ≤ ε0 für n ≥ Na (ε0 ) und Nb (ε0 ) so, daß |bn − b| ≤ ε0 für n ≥ Nb (ε0 ). Mit N (ε) :=
max{Na (ε0 ), Nb (ε0 )} gilt für alle n ≥ N (ε)
|an · bn − a · b| ≤ s ε0 + ε0 |b| = ε.
2
Bemerkung: In früheren Beweisen für konkret gegebene Folgen wurde N (ε) explizit angegeben. Hier
benutzten wir die Existenz von Na (ε0 ) und Nb (ε0 ), die für jedes ε0 > 0 aus der Voraussetzung folgt,
daß die Folgen (an ) und (bn ) konvergieren, um ein N (ε) für die Produktfolge zu konstruieren.
9.5
Anwendungsbeispiele für Grenzwertsätze
(i) an = (1/n)k , k ∈ N ist Nullfolge, denn (1/n) · (1/n) · . . . · (1/n) → 0 · 0 · . . . · 0 = 0.
Es gilt sogar (1/n)p → 0 für alle p > 0.
(ii)
cn =
5n3 − 3n2 + n
5 − 3/n + 1/n2
=
,
2n3 − 16
2 − 16/n3
n ≥ n0 = 3.
Betrachte die Summanden im Zähler und Nenner einzeln.
an = 1/n → 0 =⇒ (−3) · (1/n) → (−3) · 0 = 0,
bn = 1/n2 = (1/n) · (1/n) → 0 · 0 = 0, also
−3/n + 1/n2 → 0,
5 − 3/n + 1/n2 → 5.
Entsprechend gilt (−16) · (1/n) · (1/n) · (1/n) → (−16) · 0 · 0 · 0 = 0. Also ist
lim
n→∞
RWTH Aachen
5n3 − 3n2 + n
5
= .
2n3 − 16
2
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
143
√
√
(iii) Sei an ≥ 0 für alle n ≥ n0 , an → a. Dann gilt auch an → a, denn nach 9.4d (iii) ist
a ≥ 0 und die Wurzel ist stetig. Wie lautet ein direkter Beweis (z.B. für a > 0 mit konjugiertem
Erweitern)?
(iv) Wurzelziehen mit der Newton-Methode (auch als Babylonisches Wurzelziehen“ oder als
√
”
Verfahren des Heron von Alexandria“ bekannt). Zu c > 0 suche c, das ist die positive
”
Nullstelle von f (x) = x2 −c. Das Newtonverfahren (siehe ??) ist ein systematisches Verfahren,
um Nullstellen differenzierbarer Funktionen (z.B. von Polynomen) approximativ zu bestimmen.
In diesem Fall ergibt sich folgende rekursiv definierte Folge (xn )n∈N0 :
¶
µ
√
1
c
, Behauptung: xn −−−→ c.
x0 > 0 beliebig, xn+1 =
xn +
n→∞
2
xn
Zur Illustration: mit g(x) := (x+c/x)/2 für x > 0 ist xn+1 = g(xn ), siehe Abb. 9.2. Es gibt
√
genau einen positiven Fixpunkt von g: g(x) = x > 0 ⇐⇒ x2 = c, x > 0 ⇐⇒ x = c.
Außerdem liegt das eindeutige lokale Minimum von g am Fixpunkt: g 0 (x) = (1−c/x2 )/2 = 0
√
bei x = c = g(x).
2.7
x
g(x)
1.72
1
0
0.4
x’0
1.41
x3
3
x2
x1
5
x0
Abbildung 9.2: Verfahren des Heron, c = 2, Anfangswerte x0 = 5 oder x00 = 0, 4
p
¡√
¢2
√
√
x − c/x
= x + c/x − 2 c = 2 (g(x) − c ) für alle
√
x > 0. Daraus folgt xn+1 = g(xn ) ≥ c für n ∈ N0 , die Folge ist nach unten beschränkt.
√
√
√
Insbesondere ist für n ≥ 1: xn ≥ c, (c/xn ) ≤ c, also (c/xn ) − c ≤ 0 und damit
µ
¶
√
√
√
√ ¢ 1 1¡
√ ¢
1
c
1¡
0 ≤ xn+1 − c =
xn − c +
− c ≤ xn − c ≤ · xn−1 − c
2
x
2
2 2
| n {z }
Zuvor eine Rechnung: 0 ≤
≤0
µ ¶n
µ ¶n µ
¶ µ ¶n µ
¶
√
√ ¢
1 ¡
1
1
c
1
1
c
≤ ... ≤
x0 +
−2 c <
x0 +
.
x1 − c =
2
2
2
x0
2
2
x0
√
Nach 9.2b (iii) ist (1/2)n eine Nullfolge. Mit der Schachtelung 9.4d (iv) folgt, daß xn → c
für n → ∞.
√
Mit diesem Verfahren kann sehr schnell ein guter Näherungswert von c berechnet werden. In
Taschenrechnern werden solche Algorithmen benutzt. Für eine andere Behandlung dieser Folge
siehe 9.9b
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
9.6
144
Divergente Folgen und Nullfolgen
9.6a
Sprechweise strebt gegen Unendlich“
”
Sei (an ) eine reelle (divergente) Folge. Man sagt, sie strebt gegen ∞“ und schreibt: an → ∞“
”
”
(oder lim an = ∞), wenn es zu jeder (beliebig großen) Schranke M > 0 ein N (M ) gibt, so daß
an ≥ M für alle n ≥ N (M ). [ Entsprechend an → −∞ wenn −an → ∞, oder gleichwertig,
wenn an ≤ −M für alle n > N (−M ).]
√
Beispiel: an = n erfüllt √
an → ∞, denn zu 0 < M wähle N (M ) ≥ M 2 , dann gilt für alle
√
n ≥ N (M ) auch an = n ≥ M 2 = M .
9.6b
Kehrwert und Nullfolgen
Sei (an ) eine Nullfolge mit an 6= 0 für alle n ≥ n0 (z.B. an = 1/n oder an = q n , q ∈ C, 0 <
|q| < 1). Dann ist die Folge (cn ), cn := 1/an unbeschränkt und damit divergent.
Für eine (divergente) Folge (an ) gelte |an | → ∞, dann ist cn := 1/an eine Nullfolge.
Führen Sie die einfachen Beweise selbst!
Als weiteres Kriterium dafür, daß eine Folge eine Nullfolge ist, weisen wir auf 10.5b hin.
9.7
Reelle monotone und beschränkte Folgen
Eine reelle Folge (an ), n ≥ n0 , heißt monoton wachsend (oder monoton steigend), wenn an+1 ≥
an für alle n ≥ n0 (dann gilt mit der Transitivität 5.3c auch am ≥ an für alle m ≥ n ≥ n0 ). Eine
monoton wachsende Folge ist immer nach unten beschränkt, denn an ≥ an0 für alle n ≥ n0 .
Eine monoton wachsende Folge heißt nach oben beschränkt, wenn es eine obere Schranke s+
gibt mit an ≤ s+ für alle n ≥ n0 . Eine monoton steigende nach oben beschränkte Folge ist automatisch beschränkt (nach oben und unten), z.B. durch die folgende Schranke: |an | ≤ max{|an0 |, |s+ |}.
Zum Nachweis der Beschränktheit genügt es also, bei monoton steigenden Folgen eine obere Schranke s+ anzugeben.
Entsprechend: Eine monoton fallende Folge, d.h. an+1 ≤ an für alle n ≥ n0 , ist genau dann
beschränkt, wenn sie nach unten beschränkt ist durch eine untere Schranke s− .
Wir sprechen von monotonen Folgen, wenn sie reell und monoton steigend oder monoton fallend
sind für n ≥ n0 , n0 ∈ N geeignet gewählt.
Bisher konnten wir die Konvergenz einer Folge nur zeigen, wenn wir den Grenzwert wußten oder
raten konnten. Der nun folgende Satz für reelle Folgen sichert die Konvergenz, ohne daß wir den
Grenzwert kennen müssen!
9.8
Fundamentalsatz über monotone beschränkte Folgen
9.8a
Der Satz
Jede monoton wachsende und (nach oben) beschränkte Folge (an ) reeller Zahlen ist konvergent in
R , d.h. es gibt ein a ∈ R mit limn→∞ an = a.
Natürlich gilt die Abschätzung an ≤ a ≤ s+ für beliebiges n, wobei s+ eine obere Schranke
ist. Entsprechend für monoton fallende (nach unten) beschränkte Folgen. Kurz: monotone beschränkte
Folgen sind konvergent in R.
9.8b
Bemerkungen zum Satz
(i) Monotonie alleine genügt nicht: an = −n ist monoton fallend aber unbeschränkt, also divergent.
(ii) Beschränktheit alleine genügt nicht, denn an = (−1)n ist beschränkt aber divergent.
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
145
(iii) Die Gültigkeit des Satzes beruht auf der Vollständigkeit der reellen Zahlen, siehe 9.11. Eine monotone beschränkte Folge rationaler Zahlen braucht keinen Grenzwert in der nicht vollständigen
Menge Q zu haben!
(iv) Dieser Satz ist der Angelpunkt für die meisten Beweise der absoluten Konvergenz von Reihen
(siehe Abschnitt 10.3). Da die Reihen für die Definition und Berechnung vieler wichtiger Funktionen unerläßlich sind, ist der Name Fundamentalsatz“ gewiß nicht übertrieben! Auch bei der
”
Definition des Integrals ist er entscheidend (8.3b).
(v) Für rekursiv definierte Folgen, z.B. an+1 = g(an ) für eine Funktion g, liefert dieser Satz oft
die einzige Möglichkeit, die Konvergenz zu zeigen.
(vi) Für komplexe Folgen (cn ) ist Monotonie nicht definiert. Stattdessen kann mitunter benutzt werden, daß die (reellen) Folgen der Realteile und/oder Imaginärteile monoton und beschränkt sind.
Wenn beide reellen Folgen konvergieren, dann folgt limn→∞ cn = lim Re(cn ) + i lim Im(cn ) .
9.9
Beispiele für monotone beschränkte Folgen
9.9a
Die Eulerzahl e
Betrachte für n ∈ N die beiden Folgen (an ), (bn )
n
X 1
1
1
1
=
,
an = + + . . . +
0! 1!
n!
k!
k=0
µ
¶
¶
µ
1 n
n+1 n
bn = 1 +
=
.
n
n
Beide sind monoton und beschränkt und sie konvergieren gegen denselben Grenzwert, die Eulerzahl
e, die Basis der Exponentialfunktion.
lim an = lim bn = e = 2, 718 . . . .
n→∞
n→∞
Wir beweisen die Monotonie und Beschränktheit von (an ): an+1 − an = 1/(n + 1)! > 0, also
monoton wachsend.
1
1
1
+
+ ... +
2 2·3
2 · 3 · ... · n
1
1
1
<1+1+ +
+ ... +
2 2·2
2 · 2 · ... · 2
¶
µ
n−1
j
X 1
1 − (1/2)n
< 1 + 2 = 3.
=1+
=1+
2
1 − 1/2
an = 1 + 1 +
j=0
(Wir haben die geometrische Summenformel 5.10 für q = 1/2 benutzt.) Also ist die Folge (an )
monoton und beschränkt und damit nach Satz 9.8a konvergent. Die Eulerzahl e als diesen Grenzwert
zu definieren ist eine von mehreren äquivalenten Möglichkeiten. Daß (bn ) monoton wachsend ist,
sehen wir mit der Bernoullischen Ungleichung 5.6.
bn
bn−1
=
(n + 1)n (n − 1)n−1
n (n + 1)n (n − 1)n
=
nn
nn−1
n−1
n2n
µ
¶
µ
¶
n
1 n (5.6)
n
1
=
1− 2
≥
1−
= 1.
n−1
n
n−1
n
Für die Beschränktheit der Folge (bn ) und die Gleichheit der Grenzwerte siehe Bücher.
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
9.9b
146
Iteratives Wurzelziehen nach Heron und Newton
Das Wurzelziehen mit der Newton-Methode bzw. das Verfahren des Heron wurde in 9.5 (iv) vorgestellt, sei c > 0. Zu beliebigem Startwert x0 > 0 ist die Folge rekursiv definiert durch
xn+1 = g(xn ) := (1/2)(xn + c/xn ) > 0. Wir sahen dort:
p
¡√
¢2
√
√
0≤
x − c/x = x + c/x − 2 c = 2 (g(x) − c ) für alle x > 0. Daher gilt für n ≥ 1, daß
√
√
xn = g(xn−1 ) ≥ c > 0 und damit c/xn ≤ c ≤ xn .
µ
¶
1
c
1
xn+1 = g(xn ) =
xn +
≤ (xn + xn ) = xn ,
2
xn
2
√
also ist die Folge ab n = 1 monoton fallend und nach unten durch c beschränkt. So erhalten wir
√
einfach die Konvergenz, nicht jedoch den Grenzwert c . Letzterer folgt auch aus der Fixpunktgleichung:
9.10
Zur Grenzwertbestimmung rekursiv definierter Folgen
Die Konvergenz rekursiv definierter Folgen kann oft am einfachsten mit dem Fundamentalsatz über
monotone Folgen 9.8a gezeigt werden, damit ist aber noch nicht der Grenzwert bestimmt. Wenn z.B.
die Rekursion von folgender Form ist:
an+1 = g(an ),
a1 gegeben,
mit einer stetigen Funktion g und an → a konvergent (a noch unbekannt), dann erhält man durch
Betrachten des Grenzwertes auf beiden Seiten:
³
´ g stetig
g(a) = g lim an
=
lim g(an ) = lim an+1 = a.
n→∞
n→∞
n→∞
(Zu stetigen Funktionen siehe 9.4c oder ??, ??.) Also muß der Grenzwert a die Fixpunktgleichung
a = g(a)
erfüllen, oder umgekehrt: die Lösungen der Fixpunktgleichung a = g(a) sind die einzig möglichen
Kandidaten für den Grenzwert. Bei mehreren Fixpunkten muß der richtige durch Zusatzbetrachtungen
bestimmt werden, er kann vom Startwert der Rekursion (z.B. a1 ) abhängen.
Im Beispiel der Heron-Newton-Iteration 9.9b gilt g(x) = x, x 6= 0 ⇐⇒ x2 = c. Bei positivem
√
√
Startwert x0 konvergiert die Folge gegen c , während x0 < 0 auf − c führt.
Bei den etwas komplizierteren Iterationen, bei denen die Berechnungsformel auch von n abhängt,
also an+1 = g(n; an ), dann ist die Fixpunktgleichung
x = lim g(n; x)
n→∞
zu lösen, um Kandidaten für den Grenzwert zu bestimmen.
9.11
Vollständigkeit der reellen Zahlen und Beweis des Fundamentalsatzes
Die Körperaxiome (5.8) gelten gleichermaßen für rationale, reelle und komplexe Zahlen (Q, R, C),
die reellen und komplexen Zahlen sind zusätzlich durch die Vollständigkeit ausgezeichnet. Außer der
von der Schule bekannten Intervallschachtelung ist eine von vielen äquivalenten Charakterisierungen
der Vollständigkeit reeller Zahlen die folgende.
RWTH Aachen
Mathematik I+II
9
Folgen, Konvergenz und Divergenz
9.11a
147
Ein Vollständigkeitsaxiom der reellen Zahlen
Jede Menge M reeller Zahlen, in der mindestens ein Element liegt und die nach oben beschränkt ist,
besitzt in R eine kleinste obere Schranke, ein Supremum“, geschrieben sup M ∈ R.
”
Beispiel:
M := {x ∈ Q ⊆ R | x > 0, x2 < 2}.
M ist nicht
√ leer (1 ∈ M ) und nach oben beschränkt (z.B. durch 2). Die kleinste obere Schranke ist
sup M = 2 ∈ R, sie existiert in R, jedoch sup M 6∈ Q, wie wir in 5.8d sahen.
Die Vollständigkeit vererbt sich auf Paare und n-Tupel reeller Zahlen, also sind auch C und jeder
Rn , n ∈ N, vollständig, die Grenzwerte konvergenter Folgen in C oder Rn liegen in C bzw. Rn .
9.11b
Beweis des Fundamentalsatzes für monotone Folgen
Betrachte zu der monoton wachsenden beschränkten Folge (an )n∈N die Menge der Folgenglieder
M := {an | n ∈ N} ⊆ R. M 6= ∅ und M ist nach oben beschränkt, da die Folge nach Voraussetzung beschränkt ist. Also hat M ein Supremum sup M ∈ R, da R vollständig ist. Wir zeigen
nun, daß sup M der gesuchte Grenzwert der Folge (an ) ist. Da sup M eine obere Schranke von
M ist, gilt an ≤ sup M ⇐⇒ an − sup M ≤ 0 für alle n. Wenn es zu ε > 0 ein n(ε) gibt mit
−ε ≤ an(ε) − sup M ≤ 0, dann folgt mit der Monotonie der Folge
−ε ≤ an(ε) − sup M ≤ am − sup M ≤ 0
für alle m ≥ n(ε),
also |am − sup M | ≤ ε für alle m ≥ n(ε). Die behauptete Konvergenz folgt, wenn es zu jedem
ε > 0 ein solches n(ε) gibt. Widerspruchsbeweis dafür: Angenommen, zu einem (kleinen) ε0 > 0
gibt es kein solches n(ε0 ), also
an − sup M < −ε0
⇐⇒
an < sup M − ε0
für alle n ∈ N.
Dann ist aber auch sup M −ε0 < sup M eine obere Schranke von M und sup M nicht die kleinste,
Widerspruch!
2
9.12
Offene und Abgeschlossene Mengen
Wir können jetzt die in 5.4 angesprochenen Charakterisierungen offener und abgeschlossener Mengen
präzisieren. Eine Teilmenge A einer vollständigen Menge wie R , C oder Rn heißt abgeschlossen,
wenn für jede konvergente Folge (an ) mit an ∈ A für alle n ≥ n0 auch der Grenzwert a in
A liegt. Eine abgeschlossene Menge wird bei konvergenten Grenzprozessen nicht verlassen. Eine
Menge O heißt offen, wenn ihr Komplement abgeschlossen ist, oder gleichwertig, wenn zu jedem
Element x ∈ O auch eine Umgebung {y | |y − x| < δ} zu O gehört für ein δ > 0, das meist
vom Bezugspunkt x ∈ O abhängt. Eine offene Menge wird bei kleinen Variationen nicht verlassen,
in offenen Mengen kann man wackeln“. Für offene Teilmengen des Rn siehe das Kapitel über
”
Konvergenz im Rn .
RWTH Aachen
Mathematik I+II
10
10
Reihen
148
Reihen
Wir haben uns in Abschnitt 5.1 klar gemacht, daß dank des Assoziativgesetzes der Addition eine
beliebige endliche Summe von Zahlen (Körperelementen, 5.8) auf eindeutige natürliche Weise auf
die Addition von Paaren zurückgeführt wird. Als Verallgemeinerung der endlichen Summen behandeln wir in diesem Kapitel unendliche Summen, die Reihen. Wir beginnen mit dem einfachsten Fall
von (reellen oder komplexen) Zahlen als Summanden, später sind vor allem Funktionsreihen von
Bedeutung, insbesondere die Potenzreihen (Taylorreihen), siehe z.B. 10.8 und das Kapitel über Taylorreihen, sowie die Fourierreihen.
Die Reihen sind das entscheidende Hilfsmittel, um für wichtige Funktionen wie z.B. die Exponentialfunktion oder die trigonometrischen Funktionen ihre Funktionswerte überhaupt definieren und
berechnen zu können.
10.1
Konvergenz und absolute Konvergenz einer Reihe
Eine Reihe ist die Verallgemeinerung einer endlichen Summe auf unendlich viele Summanden. Es
hängt von den Summanden ab, ob dies möglich ist. Wenn die Folge der endlichen Teilsummen konvergiert, so wird der Wert der Reihe als Grenzwert dieser Folge definiert.
Seien ck ∈ C (oder R), k ∈ N0 (oder N oder k ≥ n0 ), die Summanden. Die endlichen
Teilsummen sind
Sn = c0 + c1 + . . . + cn =
n
X
ck .
k=0
Falls die Folge der Teilsummen (Sn ) konvergiert, heißt die Reihe konvergent und ihr Wert ist definiert
als der Grenzwert:
∞
X
ck := lim Sn = lim
n→∞
k=0
n→∞
n
X
ck .
k=0
Sprachlich wird oft nicht zwischen einer konvergenten Reihe und dem Wert, den sie annimmt, unterschieden. Man sagt im Fall der Konvergenz auch die Reihe ist summierbar “ oder auch die Reihe
”
”
existiert “. Andernfalls ist die Reihe divergent, einschließlich der Spezialfälle Sn → ±∞ für reelle
Summanden.
Als wichtigen Spezialfall einer konvergenten Reihe nennen wir eine Reihe absolut konvergent“,
”
wenn sogar die unendliche Summe der Beträge der Summanden konvergiert, d.h. wenn
Ŝn :=
n
X
k=0
|ck | −−−→ Ŝ
n→∞
konvergiert.
(Der Betrag wurde früher oft Absolut-Betrag genannt, auch englisch absolute value“, daher der Na”
me.) Nach dem Fundamentalsatz 9.8a ist diese monoton wachsende Folge genau dann konvergent,
wenn sie (nach oben) beschränkt ist. Jede absolut konvergente Reihe ist auch konvergent (der Beweis
ist nicht schwer). Absolute Konvergenz besagt anschaulich, daß die Summanden schnell genug klein
”
werden“, so daß Ŝn beschränkt ist. Dadurch sind absolut konvergente Folgen gutartig“, sie sind
”
z.B. unempfindlich gegenüber Manipulationen wie der Änderung der Summationsreihenfolge. Viele
in den Anwendungen auftretende Reihen sind absolut konvergent, z.B. die sehr wichtigen Potenzreihen (10.8) innerhalb ihres Konvergenzkreises. Trivialerweise sind alle Reihen mit nur endlich vielen
nicht verschwindenden Summanden (ck = 0 für alle k ≥ k0 ) absolut konvergent. Für Reihen mit
vektorwertigen Summanden
Rn .
P∞ siehe das Kapitel über Konvergenz
Pim
∞
Im allgemeinen ist
k=0 ck eine andere Zahl als Ŝ =
k=0 |ck | (außer wenn alle ck ≥ 0),
die Betrachtung von Ŝ dient nur dazu, die absolute Konvergenz zu sichern, die Reihe abzuschätzen
(siehe 10.3) und bei reellen Reihen auch zur Bestimmung einer oberen Schranke, jedoch nicht zur
RWTH Aachen
Mathematik I+II
10
Reihen
149
Berechnung des Wertes der Reihe! Reihen, die konvergent, aber nicht absolut konvergent sind, werden
in Abschnitt 10.9 diskutiert. Zunächst behandeln wir Beispiele und Kriterien für die gute“ absolute
”
Konvergenz bzw. für Divergenz.
Reihen und Folgen sind sehr eng miteinander verwandt. Gleichwertig zu einer Folge (an )n∈N ist
die folgende Reihe
an =
n
X
ck
mit c1 = a1 , ck = ak − ak−1 , k ≥ 2,
n → ∞.
k=1
Konvergenzfragen sind für beide äquivalent und der Wert der Reihe ist mit dieser Umrechnung gleich
dem Grenzwert der Folge. Wir widmen den Reihen trotzdem ein eigenes Kapitel, da Reihen in den
Anwendungen sehr oft auftreten (z.B. sind besonders wichtige Funktionen wie die Exponentialfunktion und die trigonometrischen Funktionen durch ihre Potenzreihen definiert), und da es besonders
hilfreiche Kriterien für den direkten Umgang mit Reihen gibt. Andererseits ist der Konvergenzbegriff
für Folgen (hier für die Folge (Sn ) der endlichen Teilsummen) die Grundlage, um die Konvergenz
von Reihen definieren, überprüfen und nutzen zu können.
10.2
Einfache Beispiele von Reihen
Zur Einführung behandeln wir in 10.2 zunächst Beispiele von Reihen mit einem bekannten Grenzwert. Der Wert des Konzeptes der (absolut) konvergenten Reihe liegt natürlich darin, daß wir so auch
neue Objekte definieren und mit ihnen arbeiten können.
10.2a
Eulerzahl, Unendliche Dezimalbrüche
In Abschnitt 9.9a sahen wir, daß die Reihendarstellung der Eulerzahl konvergiert:
e=
∞
n
X
X
1
1
= lim
.
k! n→∞
k!
k=0
k=0
Unendliche Dezimalbrüche sind Reihen, die ebenfalls als Grenzwerte der nach endlich vielen Nachkommaziffern abgebrochenen endlichen Dezimalbrüche eindeutig definiert sind. Zunächst für positive Zahlen: Sei K ∈ N0 und sei z1 , z2 , . . . eine Ziffernfolge mit zj ∈ {0, 1, . . . , 9}. Sei an der
an der n-ten Nachkommastelle abgebrochene Dezimalbruch:
an = K, z1 z2 z3 . . . zn = K +
n
X
zj 10−j .
j=1
Die Folge (an ) ist monoton wachsend, denn an+1 − an = zn+1 · 10−(n+1) ≥ 0, und die Teilsummen
sind nach oben beschränkt:
an = K +
n
X
zj 10−j ≤ K +
j=1
n
X
9 · 10−j = K +
j=1
n−1
9 X −k
=K+
10
10
k=0
(5.10)
= K+
n
9 X −(j−1)
10
10
j=1
9 1 − 10−n
= K + 1 − 10−n < K + 1.
10 1 − 10−1
Wir haben die geometrische Summenformel (5.10) für q = 1/10 benutzt. Mit dem Fundamentalsatz
über monotone Folgen (9.8a) konvergiert die Folge (an ). Mit dem unendlichen Dezimalbruch“ ist
”
der eindeutige Grenzwert dieser Folge, der Wert der absolut konvergenten Reihe gemeint:
K, z1 z2 z3 . . . := lim an = K + lim
n→∞
n→∞
n
X
k=0
−k
zk 10
=K+
∞
X
zk 10−k .
k=1
Für negative Zahlen betrachte deren Negatives.
RWTH Aachen
Mathematik I+II
10
Reihen
10.2b
150
Die geometrische Reihe
Sei q ∈ R oder C, |q| < 1, cj := q j . Die endlichen Teilsummen berechnen wir mit der geometrischen Summenformel 5.10
Sn =
n
X
qj =
j=0
1 − q n+1
1
q n+1
=
−
,
1−q
1−q 1−q
Ŝn =
n
X
|q j | =
j=0
1 − |q|n+1
1
≤
.
1 − |q|
1 − |q|
Für |q| < 1 sahen wir in 9.2b (iii), daß q n+1 → 0 für n → ∞, also konvergiert (Sn ),
lim Sn =
n→∞
1
q n+1
1
− lim
=
,
1 − q n→∞ 1 − q
1−q
die Reihe ist sogar absolut konvergent, da die Folge Ŝn durch 1/(1 − |q|) beschränkt ist, und es gilt
die wichtige Summationsformel für die geometrische Reihe:
∞
X
qj =
j=0
10.2c
1
1−q
für |q| < 1, q ∈ R oder C.
Eine Reihe für Vergleiche
Sei bk = 1/k (k + 1) = [ 1/k −
·
1
S3 = b1 + b2 + b3 =
−
1
Sn =
n
X
k=1
1/(k + 1) ] > 0, k ∈ N.
¸ ·
¸ ·
¸
1
1 1
1 1
1
+
−
+
−
=1− ,
2
2 3
3 4
4
1
1
=1−
(Beweis mit vollständiger Induktion).
k (k + 1)
n+1
Da 1/(n + 1) → 0 für n → ∞ ist die Reihe absolut konvergent,
∞
X
k=1
∞
X
1
1
=1=
.
k (k + 1)
` (` − 1)
`=2
Diese Reihe wird oft in Konvergenzbeweisen als Vergleichsreihe für das Majorantenkriterium 10.3a
herangezogen.
10.3
Vergleichskriterien für Konvergenz und Divergenz
Als Dreiecksungleichung für Reihen“ kann man die folgende Ungleichung für absolut konvergente
”
Reihen bezeichnen, die eine Abschätzung für den Grenzwert liefert:
¯∞ ¯
∞
¯X ¯ X
¯
¯
|ck | .
ck ¯ ≤
¯
¯
¯
k=0
k=0
Wegen der Dreiecksungleichung (5.5b, 5.7f) ist sie für endliche Summen richtig, mit 9.4d überträgt
sie sich auf den Grenzwert.
Die nun folgenden Kriterien für die absolute Konvergenz von Reihen basieren alle auf dem Fundamentalsatz über monotone beschränkte Folgen (9.8a). Es sind die wichtigsten Konvergenzkriterien
für die Anwendungen und für die Theorie.
RWTH Aachen
Mathematik I+II
10
Reihen
151
10.3a
Majorantenkriterium für absolute Konvergenz
P
P∞
Sei die Reihe ∞
k=0 bk absolut konvergent (d.h.
k=0 |bk | konvergent) und für ein n0 gelte |ck | ≤
P∞
|bk | für alle k ≥ n0 , dann ist auch die Reihe k=0 ck absolut konvergent.
Beweisidee für n0 = 0:
Ŝn =
n
X
|ck | ≤
k=0
n
X
|bk | ≤
k=0
∞
X
|bk | =: s+ < ∞.
k=0
Die monoton wachsende Folge ist also beschränkt und somit nach 9.8a konvergent.
10.3b
2
Quotiententest
Dieses Kriterium, das auf dem Vergleich mit der geometrischen Reihe (10.2b) beruht, führt in vielen
Anwendungen zum Ziel. Wenn die Form der Summanden keine konkreten Hinweise für ein anderes
Vorgehen gibt, sollte man diesen Test oderP
das Quotientenkriterium zuerst versuchen.
Für eine reelle oder komplexe Reihe
ck gelte ab einem n0 : ck 6= 0 für alle k ≥ n0 . Falls
der folgende Grenzwert existiert, sei
¯
¯
¯ ck+1 ¯
¯
¯ = lim |ck+1 | .
Q := lim ¯
k→∞
ck ¯ k→∞ |ck |
P
Dann gilt für die Reihe
ck :
Wenn
Q<1:
absolute Konvergenz der Reihe,
Q=1:
keine Aussage mit dem Quotiententest,
Q>1:
Divergenz der Reihe.
Wenn sogar der Grenzwert limk→∞ ck+1 /ck existiert, dann gilt mit 9.4c
¯ ¯
¯
¯
¯
¯ ck+1 ¯ ¯
¯ = ¯ lim ck+1 ¯ ,
Q = lim ¯¯
¯
¯
k→∞
k→∞ ck ¯
ck
denn die Betragsfunktion ist stetig. Der Quotiententest ist ein Spezialfall des etwas allgemeineren
Quotientenkriteriums:
10.3c
Quotientenkriterium
Es gebe ein 0 < q < 1 und ein n0 ∈ N, so daß ck 6= 0 für alle k ≥ n0 und
¯
¯
¯ ck+1 ¯
¯
¯
¯ ck ¯ ≤ q < 1 für alle k ≥ n0 , dann ist die Reihe absolut konvergent.
¯
¯
Wenn hingegen ¯ck+1 /ck ¯ ≥ 1 für alle k ≥ n0 , dann ist die Reihe divergent (denn die Summanden
streben nicht gegen 0 ). In den anderen Fällen macht dieses Kriterium keine Aussage über die Konvergenz.
Beweis der Konvergenz im Falle n0 = 0 :
|c1 | ≤ q |c0 |, |c2 | ≤ q |c1 | ≤ q 2 |c0 |, . . . , |ck | ≤ q k |c0 |,
n
X
|ck | ≤ |c0 |
k=0
n
X
k=0
k
q ≤ |c0 |
∞
X
k=0
q k = |c0 |
1
= s+ < ∞ für alle n.
1−q
2
Wichtiger Hinweis: Für die Konvergenz genügt es nicht, nur |ck+1 /ck | < 1 zu zeigen!
RWTH Aachen
Mathematik I+II
10
Reihen
10.3d
152
Anwendungsbeispiele der Konvergenzkriterien
(i) Die geometrische Reihe (10.2b) ist als absolut konvergent bekannt. Doch für z ∈ R oder
C, |z| < 1, ist sogar die Reihe mit ck = k p z k , p eine beliebig große Potenz, absolut konvergent. Bei z = 0 klar (ck = 0 für alle k ≥ 1), für 0 < |z| < 1:
¯ µ
¯
¯ ¯
¶p
¯ ck+1 ¯ ¯ (k + 1)p z k+1 ¯
¯=¯
¯= 1+ 1
¯
|z| −−−→ |z| = Q < 1.
¯
¯ ck ¯ ¯
k→∞
kp z k
k
Für |z| > 1 sind die Reihen für alle, auch negative, Potenzen p ∈ R divergent.
(ii) ck = (1/k)p > 0, k ∈ N, p ≥ 2.
¯
¯ µ
¶p µ
¶p
¯ ck+1 ¯
1
k
¯
¯=
= 1−
−−−→ 1 für alle p.
¯ ck ¯
k→∞
k+1
k+1
Der Quotiententest ist für diese Reihe zu grob. Mit dem Majorantenkriterium (10.3a) wissen wir
durch Vergleich mit der Reihe 10.2c, daß für p ≥ 2 absolute Konvergenz gilt, denn
|ck | = (1/k)p ≤ (1/k)2 ≤ 1/k (k − 1) = bk , k ≥ 2,
und (bk ) ist eine absolut konvergente Majorante.
Allgemeine Regel: wenn ck = P̃ (k)/P (k), P, P̃ Polynome, und wenn die höchste Potenz
von k im Nenner (der Grad des Nenners P ) um mindestens zwei höher ist als im Zähler, dann
ist die Reihe absolut konvergent. (Vergleiche 10.6c.)
(iii) ck = k!/k k > 0 für k ∈ N,
¯
¯
k
¯ ck+1 ¯
(k + 1) · k k
1
¯ = (k + 1)! · k =
¯
=
.
¯ ck ¯ (k + 1)k+1 k!
k
(k + 1) · (k + 1)
(1 + 1/k)k
Mit der Bernoulli-Ungleichung (5.6) gilt für k ≥ 1 : (1 + 1/k)k ≥ 1 + k · 1/k = 2, also
¯
¯
¯ ck+1 ¯ 1
¯
¯
¯ ck ¯ ≤ 2 = q < 1,
∞
X
k!
ist mit 10.3c absolut konvergent.
kk
k=0
Oder mit dem Quotiententest 10.3b und der Folge (bn ) aus 9.9a für die Eulerzahl
¯
¯
¯ ck+1 ¯
1
1
¯=
lim ¯
= = Q < 1.
k→∞ ¯ ck ¯
lim(1 + 1/k)k
e
Und noch als dritte Möglichkeit, die Konvergenz zu zeigen, der direkte Gebrauch des Majorantenkriteriums:
ck = k!/k k =
1 · 2 · ... · k
1·2
1
≤
≤2
k · k · ... · k
k·k
k (k − 1)
für k ≥ 2.
Durch Vergleich mit der Reihe 10.2c oder dem Beispiel (ii) oben schließen wir absolute Konvergenz.
(iv) ck = k sin(1/k) (2x)k für k ∈ N ist absolut konvergent für |x| < 1/2 :
Zunächst vereinfachen wir die Summanden durch eine Abschätzung. Da | sin u| ≤ |u| (siehe
E.5, 7.5a) ist |k sin(1/k)|
daher |ck | ≤ (2 |x|)k , bk = (2|x|)k ist eine Majorante.
P≤ 1 und
k
Die geometrische Reihe (2 |x|) ist absolut konvergent für 2 |x| < 1.
RWTH Aachen
Mathematik I+II
10
Reihen
10.4
153
Die Exponentialreihe
ez :=
∞
X
zk
k=0
k!
=1+z+
z2 z3
z4
+
+
+ ...,
2
6
24
z∈C
konvergiert absolut für alle z ∈ C , denn für z = 0 ist e0 = 1 und
¯
¯
¯ ¯
¯ ck+1 ¯ ¯ z k+1 k! ¯
1
¯
¯=¯
¯
−−→ 0 = Q
¯ ck ¯ ¯ (k + 1)! z k ¯ = k + 1 |z| −
k→∞
für jedes z ∈ C, z 6= 0. Der Spezialfall z = 1, e1 = e, ergibt wieder die Eulerzahl (vgl. 9.9a). Diese
Reihe wird üblicherweise zur Definition der Exponentialfunktion für beliebiges komplexes Argument
benutzt mit ex , x ∈ R, als Spezialfall. Die bereits in B angegebenen Eigenschaften folgen aus dieser
Definition, mehr dazu in Abschnitt 6.9.
Dies ist unser erstes Beispiel für eine Funktion, die durch eine konvergente Potenzreihe definiert
ist, das ist eine Reihe, bei der die Summanden Potenzen der unbestimmten Variablen enthalten, siehe
10.8.
Eine wichtige Abschätzung, die das Wachstum der reellen Exponentialfunktion zeigt: Sei x ≥ 0,
dann sind alle Summanden positiv und es gilt insbesondere für jedes n ∈ N
x
e =
∞
X
xk
k=0
k!
>
xn+1
(n + 1)!
für x ≥ 0 sowie
ex > xn für x > (n + 1)! .
Die Exponentialfunktion wächst also für x → ∞ schneller als jede Potenz xn .
10.5
Bemerkungen
10.5a
Zum Anfang einer Reihe
Wie bei Folgen (vgl. 9.4e (i) ) ist es für die Konvergenz oder Divergenz einer Reihe unerheblich,
ob die Summation bei 0, 1 oder einer anderen Zahl n0 beginnt und ob endlich viele Summanden
abgeändert werden. Anders als bei Folgen kommt
den Wert der
auf alle Summanden an
Pes für −k
P∞Reihe
−k = 1 + 1. Es hängt von
sowie auf den Beginn der Summation, z.B. 2 = ∞
2
=
1
+
2
k=0
k=1
der Anwendung ab, mit welchem Index die Summation beginnt. Wenn wir in der Formulierung der
Kriterien und Beispiele oft mit 0, 1 oder 2 beginnen, so sind das lediglich typische Beispiele.
10.5b
Summanden einer konvergenten Reihe bilden eine Nullfolge
P
Sei limn→∞ Sn = ∞
k=0 ck =: S (konvergente Reihe), dann gibt es zu jedem ε > 0 ein NS (ε/2),
so daß |Sn − S| ≤ ε/2 für alle n ≥ NS (ε/2). Insbesondere gilt dann
|cn+1 | = |Sn+1 − Sn | ≤ |Sn+1 − S| + |S − Sn | ≤ 2 · ε/2 = ε
für alle n ≥ NS (ε/2). Mit Nc (ε) := NS (ε/2) + 1 folgt |cn − 0| ≤ ε für alle n ≥ Nc (ε), also ist
(cn ) eine Nullfolge (und somit erst recht beschränkt). Somit gilt:
Für die Konvergenz einer Reihe ist notwendig, daß die Summanden (ck ) eine Nullfolge bilden.
Dies ist ein wichtiges notwendiges Kriterium für Konvergenz.
Wenn die Summanden keine Nullfolge sind, folgt die Divergenz der Reihe (Divergenzkriterium
für die Reihe). Um von einer Folge zu zeigen, daß sie eine Nullfolge ist, können manchmal auch
Konvergenzkriterien für Reihen wie die Quotientenkriterien einfach und erfolgreich eingesetzt werden (z.B. bei an = n27 /2n ).
Warnung! Daß die Summanden gegen Null streben, ist notwendig, aber nicht hinreichend für die
Konvergenz, wie das Beispiel der divergenten harmonischen Reihe 10.6a zeigt! Wir benötigen Zusatzinformationen, z.B. wie schnell“ die Summanden klein werden.
”
RWTH Aachen
Mathematik I+II
10
Reihen
10.5c
154
Lineare Operationen
P
P∞
Seien zwei konvergente Reihen ∞
k=1 ck und
k=1 c˜k gegeben, dann konvergiert auch die Summe
P∞
P∞
P∞
P∞
P∞
mit
k=1 (ck + c˜k ) =
k=1 ck +
k=1 c˜k , sowie Vielfache:
k=1 d ck = d
k=1 ck für jedes
d ∈ C oder R. (Letzteres ist die Verallgemeinerung des Distributivgesetzes für endliche Summen
auf konvergente Reihen.) Der Beweis ergibt sich sofort aus den entsprechenden Eigenschaften für die
Folgen der Teilsummen.
10.5d
Weitere Kriterien
p
Es gibt einige weitere Konvergenzkriterien für Reihen, z.B. den Wurzeltest: k |ck | → Q impliziert
absolute Konvergenz, falls Q < 1, Divergenz, wenn Q > 1. Mehr dazu steht in den Büchern und
ausführlichen Formelsammlungen, dort findet man auch Varianten der von uns benutzten Kriterien.
10.6
Divergente Reihen
10.6a
Die harmonische Reihe ist divergent
P
Die harmonische Reihe ∞
k=1 1/k strebt gegen +∞ und ist somit divergent.
Beweis: Die Teilsummenfolge Sn ist monoton wachsend: Sn+1 = Sn + 1/(n + 1) > Sn , und sie
ist unbeschränkt:
S2j − Sj =
1
1
1
1
1
+
+ ··· +
≥j·
=
für alle j ∈ N,
j+1 j+2
2j
2j
2
S2m = S1 + (S2 − S1 ) + (S22 − S21 ) + . . . + (S2m − S2m−1 ) ≥ 1 + m · 1/2
für m ∈ N . Die Folge (Sn ) ist unbeschränkt und monoton wachsend, also divergent mit
Sn =
n
∞
X
X
1
1
→ ∞, Schreibweise auch: “
= ∞” .
k
k
k=1
k=1
Diese Reihe dient oft als Vergleichsreihe, wenn die Divergenz einer Reihe mit dem Minorantenkriterium (10.6b) gezeigt werden soll.
Selbst auf sehr schnellen Computern ist die Divergenz dieser Reihe allerdings nicht zu beobachten, denn die benötigte Rechenzeit für ein Anwachsen der Summe um 1 wächst exponentiell schnell
an: man sieht auch leicht, daß S2m ≤ 1 + m. Der Wert der Folge endlicher Teilsummen scheint
stehenzubleiben“, obwohl die Reihe tatsächlich divergiert.
”
10.6b
Minorantenkriterium für die Divergenz reeller Reihen
P
Seien bk , ck ∈ R und ∞
k=0 bk divergent. Wenn für ein n0 gilt ck ≥ bk ≥ 0 für alle k ≥ n0 , dann
P∞
ist auch k=0 ck divergent.
P
P
Beweisidee: nk=0 ck → ∞, sonst wäre ∞
2
k=0 bk absolut konvergent.
Andere Divergenzkriterien wurden oben bereits in 10.3b, 10.3c und 10.5b angegeben, siehe auch
Bücher.
10.6c
Beispiele divergenter Reihen
ck := 1/k p ≥ 1/kP= bk ≥ 0 für k ∈ N, p ≤ 1. Da die harmonische Reihe divergiert (10.6a),
p
ist auch die Reihe ∞
k=1 1/k , p ≤ 1, divergent. Die harmonische Reihe wird häufig als Minorante
zum Beweis der Divergenz benutzt.
RWTH Aachen
Mathematik I+II
10
Reihen
10.7
155
Das Integralkriterium
Betrachte die Beträge der Summanden als unendliches Balkendiagramm mit Balken der Höhe |ck |
und Breite 1 zwischen k − 1 undP
k, der Flächeninhalt eines Balkens ist dann gerade seine Höhe
|ck |, vergl. Abbildung 10.1: Ŝn = nk=1 |ck | = Fläche unter der Treppenfunktion“. Wenn für eine
”
geeignete (z.B. stetige) Funktion f gilt, daß ihr Graph für alle k ≥ n0 oberhalb der Treppenfunktion
verläuft:
f (x) ≥ |ck | für k − 1 ≤ x ≤ k, alle k ≥ n0 ,
dann ist die Fläche unter der Treppenfunktion durch das Integral von f beschränkt:
Z n
n
X
|ck | ≤
f (x) dx,
siehe Abbildung 10.1.
k=n0
n0 −1
Wenn wir für das Integral eine von n unabhängige Schranke finden, folgt die absolute Konvergenz
der Reihe.
10.7a
Beispiel zum Integralkriterium
Sei |ck | = ck = 1/k p , p ∈ R, p > 1, dann gilt für f (x) = x−p , daß f (x) ≥ |ck | für k−1 ≤ x ≤ k.
Mit n0 = 2 gilt
Z n
Z n
n
¯n
X
1
1
1
1
1−p ¯
−p
x
(n1−p − 1) <
≤
f
(x)
dx
=
x
dx
=
¯ =
p
k
1−p
1−p
p−1
1
1
1
k=2
P∞
p
für alle n ≥ 2. (Für das Integral siehe D.2 oder 8.6a.) Damit haben wir gezeigt
k=1 1/k ist
absolut konvergent für alle p > 1 (und nicht nur für p ≥ 2, wie früher in 10.3d (ii) gezeigt wurde).
Damit und mit dem Majorantenkriterium können wir z.B. leicht entscheiden, daß die Reihe
∞
n
o3
X
√ o np
ck mit ck = (k + 20) cos(k) − 7 ( k)3
k2 + 4 − k
k=
absolut konvergent ist, denn |ck | ≤ 64 k −3/2 für k ≥ 10 (warum?).
10.8
Potenzreihen
P
k
Eine Potenzreihe mit Entwicklungspunkt z0 ∈ C hat die Form ∞
k=0 bk (z−z0 ) = b0 +b1 (z−z0 )+
2
b2 (z−z0 ) +. . . mit Koeffizienten bk ∈ C . Als erstes Beispiel haben wir in 10.4 die Exponentialreihe
kennengelernt. Für z = z0 ist eine Potenzreihe immer konvergent und sie hat den Wert b0 (siehe
dazu auch ?? (??)), interessant sind die Fälle, in denen die Reihe auch für andere z ∈ C konvergiert,
der Fall des positiven Konvergenzradius R > 0:
f (x)
|c3 |
0
1
2
|ck |
3
n0
k−1
k
Abbildung 10.1: Zur Illustration des Integralkriteriums
RWTH Aachen
Mathematik I+II
10
Reihen
10.8a
156
Satz über den Konvergenzradius
Zu jeder Potenzreihe gibt es einen Konvergenzradius R ≥ 0 bzw. R = ∞, so daß die Potenzreihe
für alle z ∈ C mit |z − z0 | < R absolut konvergiert und – falls R < ∞ – bei |z − z0 | > R
divergiert. Für Punkte auf dem Rand der Kreisscheibe um z0 mit Radius R kann keine allgemeine
Aussage gemacht werden, es kann vom einzelnen Punkt abhängen.
In den (häufigen) Spezialfällen, in denen für die Koeffizienten der Grenzwert
¯
¯
p
¯ bk+1 ¯
¯ oder L := lim k |bk |
¯
L := lim ¯
k→∞
k→∞
bk ¯
existiert, gilt für den Konvergenzradius: R = 1/L falls L > 0 und R = ∞ bei L = 0. Wir sprechen
bei R > 0 sowie bei R = ∞ vom positiven Konvergenzradius“. Wenn wir durch eine Abschätzung
”
|bk | ≤ b̃k einfachere majorisierende Koeffizienten“ erhalten mit L̃ = limk→∞ b̃k+1 /b̃k , so ist die
”
Potenzreihe sicher für |z − z0 | < R̃ absolut konvergent, R̃ ist eine Schranke für die Mindestgröße
des Konvergenzradius.
Allgemeinere Fälle findet man in den Büchern. Der einfache Beweis gelingt mit dem Quotiententest bzw. Wurzeltest.
10.8b
Beispiele von Potenzreihen
Bei positivem Konvergenzradius R definiert
f (z) :=
∞
X
bk (z − z0 )k = b0 + b1 (z − z0 ) + b2 (z − z0 )2 + . . . ,
z ∈ C , |z − z0 | < R,
k=0
für Argumente innerhalb des Konvergenzkreises eine komplexwertige Funktion von einem komplexen Argument. Die Exponentialfunktion 10.4 ist durch die Potenzreihe mit Entwicklungspunkt
z0 = 0, Koeffizienten
P∞ bkk = 1/k! und Konvergenzradius R = ∞ gegeben. Die geometrische
= 1/(1 − z) hat ebenfalls Entwicklungspunkt P
z0 = 0, jedoch KoReihe f (z) =
k=0 z
∞
k
k
effizienten bk = 1 und endlichen Konvergenzradius R = 1. Die Reihe
k=1 2 sin k z mit
|bk | = |2k sin k| ≤ 2k = b̃k , b̃k+1 /b̃k = 2 = L̃, ist sicher für |z| < R̃ = 1/L̃ = 1/2 absolut
konvergent.
In Anwendungen sind häufig der Entwicklungspunkt und die Koeffizienten reell, z0 ∈ R und
bk ∈ R . Die zusätzliche Beschränkung auf reelle Argumente z = x ∈ R ist für Konvergenzbetrachtungen zwar keine Hilfe, doch werden dadurch reellwertige Funktionen von einem reellen Argument
definiert, eine wichtige Klasse von Funktionen, zu denen die reelle Exponentialfunktion, die trigonometrischen Funktionen und der Logarithmus gehören, mehr dazu später in ?? und Kapitel ??.
Die umgekehrte Frage, wie zu einer Funktion, die durch eine Potenzreihe dargestellt werden kann,
die Koeffizienten zu ermitteln sind, wird in im Kapitel über Taylorreihen behandelt.
Potenzreihen mit positivem Konvergenzradius und Entwicklungspunkt z0 = 0 werden auch Mac
Laurinsche Reihen genannt.
10.9
Alternierende Reihen
Eine reelle Reihe heißt alternierend, wenn für alle k gilt: ck · ck+1 < 0 (d.h. die Vorzeichen der ck
wechseln). Das Leibnizkriterium garantiert die Konvergenz gewisser alternierender Reihen, die nicht
absolut konvergent zu sein brauchen. Hier wird genutzt, daß positive und negative Summanden sich
teilweise gegenseitig wegheben können. Die Reihenfolge der Summanden kann bei diesen Reihen
wichtig sein!
10.9a
Das Leibnizkriterium
Seien die ck ∈ R alternierend, ck · ck+1 < 0, und die P
Beträge der Summanden bilden eine monoton
fallende Nullfolge: |ck+1 | ≤ |ck |, |ck | → 0. Dann ist ∞
k=1 ck konvergent.
RWTH Aachen
Mathematik I+II
10
Reihen
10.9b
157
Beispiele alternierender Reihen
Die alternierende harmonische Reihe ck = −(−1)k /k, k ≥ 1, ist alternierend, |ck | = 1/k ist
eine monoton fallende Nullfolge, also ist die Reihe konvergent. (Daß der Grenzwert ln 2 ist, sehen
wir später). Die Reihe ist nicht absolut konvergent, denn die harmonische Reihe 10.6a ist divergent.
Dasselbe gilt für ck = (−1)k k −p , 0 < p ≤ 1.
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
11
158
Taylorreihen, Approximation durch Taylorpolynome
In den Anwendungen ist eine verläßliche Approximation oft genauso wertvoll wie die exakte Lösung
eines Problems. Mit einer guten Approximation kann man auch oft viel effizienter arbeiten, als mit
einem komplizierten exakten Ausdruck. Entscheidend ist dabei die Kontrolle des größtmöglichen
Fehlers, es muß sichergestellt werden, daß die Toleranzen nie überschritten werden. In diesem Kapitel
behandeln wir die Darstellung von Funktionen durch Potenzreihen sowie deren Approximation mit
Hilfe endlicher Teilsummen einschließlich der Fehlerabschätzung. Die Taylorapproximation ist i.a.
nur gut in der Nähe des Entwicklungspunktes. Für periodische Funktionen werden wir später die
Fourierpolynome kennenlernen.
11.1
Erinnerung: Lineare und quadratische Näherung, Potenzreihen
11.1a
Lineare Näherung differenzierbarer Funktionen
Sei f eine differenzierbare Funktion, dann gilt (siehe ??)
f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) für x ≈ x0 .
Die i.a. bessere quadratische Näherung für zweimal differenzierbare Funktionen lautet
f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) +
f 00 (x0 )
(x − x0 )2 .
2
Wir wollen für diese lineare Näherung und für bessere polynomiale Näherungen abschätzen, wie
der Fehler für eine gegebene Funktion vom Entwicklungspunkt x0 und von der Entfernung zum
Entwicklungspunkt |x − x0 | abhängt.
11.1b
Durch Potenzreihen definierte Funktionen, Konvergenzradius
Wie wir in den früheren Kapiteln gesehen haben, werden viele wichtige Funktionen durch Potenzreihen um einen Entwicklungspunkt z0 definiert:
f (x) :=
∞
X
bk (x − z0 )k ,
x ∈ C oder R , |x − z0 | < R,
f (z0 ) = b0 .
k=0
Wenn die Reihe für ein x 6= z0 konvergiert, dann gibt es einen positiven Konvergenzradius, nämlich
R > 0 oder R = ∞, so daß die Reihe für alle x mit |x − z0 | < R absolut konvergiert und — falls
R < ∞ — divergiert für |x − z0 | > R, siehe 10.8. Beispiele sind die Exponentialfunktion (10.4),
trigonometrische (??) und hyperbolische (??) Funktionen, deren Potenzreihen um z0 = 0 für alle
x ∈ R (oder C ) absolut konvergieren, d.h. R = ∞, sowie die geometrische Reihe (10.2b, 10.8b)
und die Logarithmusreihe (?? (??) ) jeweils mit Konvergenzradius 1. Für Punkte auf dem Rand des
Konvergenzkreises, |x − z0 | = R, kann man keine allgemeine Aussage über die Konvergenz machen.
Die durch konvergente Potenzreihen definierten Funktionen sind innerhalb ihres Konvergenzkreises stetig (??) und sie dürfen dort gliedweise“ differenziert werden, ohne daß sich der Konvergenz”
radius dabei ändert, wie wir in 6.3e sahen.
f 0 (x) =
∞
X
k bk (x − z0 )k−1 ,
f 0 (z0 ) = 1 · b1 ,
k (k − 1) bk (x − z0 )k−2 ,
f 00 (z0 ) = 2 · 1 b2 ,
k=1
00
f (x) =
∞
X
k=2
f
(n)
(x) =
∞
X
k (k − 1) . . . (k − n + 1) bk (x − z0 )k−n ,
f (n) (z0 ) = n! bn , n ∈ N .
k=n
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
159
Genauso ist gliedweise Integration für |x − z0 | < R erlaubt, siehe 8.6b.
Insbesondere erhalten wir für Potenzreihen mit positivem Konvergenzradius die Gleichung bk =
f (k) (z0 )/k! , k ∈ N0 . Daraus folgt, daß zwei Potenzreihen mit positivem Konvergenzradius genau
dann nahe z0 dieselbe Funktion beschreiben, wenn alle ihre Koeffizienten bk gleich sind, wie wir es
schon bei Polynomen in 6.1b sahen. Das ist die Grundlage für den sogenannten Koeffizientenvergleich
bei Potenzreihen, bei dem aus der Gleichheit der Funktionen auf die Gleichheit aller Koeffizienten
geschlossen wird, die Koeffizienten sind durch die Funktion eindeutig festgelegt.
Funktionen, die in der Nähe eines Punktes durch eine konvergente Potenzreihe dargestellt werden
können, heißen dort analytisch (oder holomorph, wenn sie als Funktion eines komplexen Arguments
aufgefaßt werden). Sie sind besonders gutartig, z.B. in x0 stetig, beliebig oft differenzierbar, u.s.w.
Wenngleich die meisten Funktionen, mit denen man in den Anwendungen zu tun hat, in diesem p
Sinne
|x|
gut sind, gibt es wichtige Ausnahmen, z.B. sind die Heavisidefunktion Θ(x) oder |x| und
nicht analytisch bei x = 0.
11.2
Hilfen bei der Arbeit mit Potenzreihen
In diesem Abschnitt fassen wir einige Techniken und Resultate, die bereits in früheren Kapiteln bereitgestellt wurden, noch einmal unter dem Gesichtspunkt der Anwendungen zusammen.
11.2a
Formelsammlung, Linearität, gerade und ungerade Funktionen
Für viele wichtige einfache Funktionen sind die Potenzreihen mit ihrem Konvergenzradius in den
Formelsammlungen angegeben. Mit einigen einfachen Verfahren kann der Vorrat an Potenzreihen
zu Funktionen wesentlich erweitert werden. Die theoretische Grundlage dafür ist die Tatsache, daß
eine Potenzreihe mit positivem Konvergenzradius eine analytische Funktion eindeutig festlegt und
umgekehrt (Koeffizientenvergleich 11.1b).
Die Koeffizienten der Potenzreihe hängen linear von der Funktion ab. Ist z.B. f (x) = f1 (x) +
f2 (x), so können die Koeffizienten einzeln für f1 und f2 berechnet und dann addiert werden.
Bei ungeraden Funktionen treten nur die Koeffizienten bk mit ungeradem k auf, bei geraden
Funktionen mit geradem k.
11.2b
Einsetzen in bekannte Funktionen
f (x) = exp(−x2 /2) (Gaußsche Glockenkurve, wichtig für die Normalverteilung in der Statistik)
¯
¯
f (x) = ew ¯
w=−x2 /2
=
∞
∞
2k
X
X
wk ¯¯
k x
,
(−1)
=
¯
k! w=−x2 /2
2k · k!
k=0
1
1 ¯¯
g(x) =
=
¯
1 − x2
1 − w w=x2
2
h(x) = (sin(5 x))
6.13b
=
x ∈ R ( oder C ).
k=0
10.2b
=
∞
X
k=0
¯
w ¯
k¯
w=x2
=
∞
X
x2k ,
|x| < 1.
k=0
"
#
∞
i 1
X
(−1)k
1h
2k
1 − cos(10 x) =
1−
(10 x)
2
2
(2k)!
k=0
∞
1 X (−1)k 2k 2k
10 x , x ∈ R.
=−
2
(2k)!
k=1
Für a > 0 gilt mit der Funktionalgleichung ln(a + x) = ln a + ln(1 + x/a). Einsetzen in die aus
?? (??) bekannte Reihe ergibt
ln(a + x)
?? (??)
=
∞
∞
X
X
(−1)k+1 ³ x ´k
(−1)k+1 k
ln a +
= ln a +
x ,
k
a
k ak
k=1
RWTH Aachen
|x| < a.
k=1
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
160
11.2c
Multiplikation mit Potenzen
P
k
`
Sei f (x) = ∞
k=0 ak x bekannt, g(x) = x f (x), ` ∈ Z . Durch gliedweise Multiplikation bzw.
Division erhält man
g(x) =
∞
X
ak xk+` =
k=0
∞
X
am−` xm .
m=`
Bei negativem ` müssen die Koeffizienten der niedrigen Potenzen verschwinden, damit keine
negativen Potenzen in der Reihe auftreten.
f (x) = sin x =
∞
X
j=0
∞
X
g(x) =
(−1)j
j=0
11.2d
(−1)j
x2j+1
x3
=x−
+ ... ,
(2j + 1)!
3!
x2j
(2j + 1)!
g(x) =
sin x
,
x
` = −1,
für x ∈ R .
Gliedweises Differenzieren und Integrieren
(i) f (x) = arctan x, f 0 (x) = 1/(1 + x2 ),
f 0 (x) =
f (x) =
∞
∞
k=0
k=0
X
X
1
2 k
(−1)k x2k = 1 − x2 + . . . , |x| < 1,
(−x
)
=
=
1 − (−x2 )
∞
X
(−1)k 2k+1
x3 x5
x
=x−
+
− ...
2k + 1
3
5
für |x| < 1.
k=0
Da f (0) = arctan 0 = 0, ist die Integrationskonstante hier Null.
P
(ii) Wenn die Potenzreihe
bk (x − z0 )k bekannt ist, können leicht hohe Ableitungen am Entwicklungspunkt abgelesen werden, f (n) (z0 ) = bn · n! , siehe 11.1b.
(
¯
0
für n gerade,
dn
¯
arctan x¯
=
(2k+1)!
n
k
k
(dx)
x=0
(−1) 2k+1 = (−1) (2k)! für n = 2k + 1.
(iii) f (x) = (x − 2)−2 um den Entwicklungspunkt z0 = 1: Eine Stammfunktion ist
∞
X
1
1
=
=
(x − 1)k ,
F (x) = −
x−2
1 − (x − 1)
|x − 1| < 1,
k=0
f (x) =
∞
X
k=1
k (x − 1)k−1 =
∞
X
(k + 1) (x − 1)k
für |x − 1| < 1.
k=0
Mit diesen Methoden kann jede negativ ganzzahlige Potenz um einen beliebigen Punkt im Definitionsbereich entwickelt werden. Mit Hilfe der Partialbruchzerlegung gilt dies damit auch für
rationale Funktionen ohne irreduzible Terme im Nenner.
Der Konvergenzradius ist bei speziellen Reihen bekannt (geometrische Reihe, Exponentialreihe
u.s.w.), sonst muß er (oder eine gesicherte Mindestgröße davon) bestimmt werden, z.B. kann man es
mit dem Quotienten- oder Wurzeltest (siehe 10.8a) versuchen. Bei einer Summe von Potenzreihen mit
demselben Entwicklungspunkt konvergiert die Summe sicher innerhalb des Kreises mit dem kleinsten auftretenden Konvergenzradius, für die Summe kann der Konvergenzradius jedoch auch größer
werden.
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
11.2e
161
Bestimmung einer einfachen Funktion aus ihrer Potenzreihe
Mitunter erhält man eine gesuchte Funktion als Potenzreihe, z.B. bei der Lösung einer Differentialgleichung mit dem Potenzreihenansatz (siehe die Kapitel über Differentialgleichungen). Dann kann
es gelingen, die durch die Potenzreihe gegebene Funktion wieder durch einfache Funktionen auszudrücken.
∞
X
(−1)k
k=0
∞
k+1
1 X (−1)k
4k+5
x
=
(x2 )2k+1 · x3
(2k + 2)!
2
(2k + 1)!
k=0
=
1 3
x sin(x2 ) für alle x ∈ R .
2
11.3
Taylorreihe und Taylorpolynom, Restglied
11.3a
Taylorreihe
Sei f in einer Umgebung von x0 beliebig oft differenzierbar. Die Taylorreihe von f um x0 ist die
Potenzreihe
T f (x; x0 ) :=
∞
X
f (k) (x0 )
k=0
k!
(x − x0 )k .
Als Beispiel berechnen wir die Taylorreihe des Logarithmus f (x) = ln x um den Entwicklungspunkt
x0 = 1 mit f (x0 ) = 0. Es gilt
f 0 (x) = 1/x,
f 00 (x) = −1/x2 ,
f 000 (x) = +1 · 2/x3 ,
f (k) (x) = (−1)k+1 (k − 1)!/xk .
Auswerten der Ableitungen bei x0 = 1 ergibt f (k) (1) = (−1)k+1 (k − 1)! , also
T ln (x; 1) =
∞
X
∞
(−1)k+1
k=1
X
(k − 1)!
1
(−1)k+1 (x − 1)k = ln x,
(x − 1)k =
k!
k
|x − 1| < 1,
k=1
die schon in ?? (??) angegebene Reihe für den Logarithmus.
Im Abschnitt 11.1b haben wir gesehen: Wenn f bei x0 analytisch ist, dann stellt diese Reihe die
Funktion f (x) für x ≈ x0 dar, dann ist die Taylorreihe die Potenzreihe von f . Wenn die Funktion
f bei x0 nicht analytisch ist, braucht ihre Taylorreihe für x 6= x0 nicht zu konvergieren (Konvergenzradius R = 0) oder die Reihe konvergiert, sie braucht jedoch auch dort, wo sie konvergiert, f
nicht darzustellen. Ein sehr einfaches Beispiel: Die Taylorreihe der Funktion f (x) = |x + 1| um
x0 = 0 ist die (endliche !) Summe 1 + x , denn alle höheren Ableitungen verschwinden bei x0 . Der
Konvergenzradius ist damit R = ∞, die Funktion und ihre Taylorreihe stimmen aber nur für x ≥ −1
überein, bei x = −1 ist f nicht analytisch, nicht einmal differenzierbar.
Ob und wo eine Funktion durch ihre Taylorreihe dargestellt wird, kann eine sehr schwierige Frage
sein. Dazu müßte die Folge der Restglieder gegen Null konvergieren, siehe 11.3c.
Doch sogar im allgemeineren Fall einer vielleicht nur endlich oft differenzierbaren Funktion kann
eine endliche Teilsumme häufig zur Approximation von f dienen.
11.3b
Taylorpolynom
Sei f nahe x0 (mindestens) n-mal stetig differenzierbar, dann heißt das Polynom
Tnf (x;
x0 ) :=
n
X
f (k) (x0 )
k=0
k!
(x − x0 )k
das Taylorpolynom n-ter Ordnung der Funktion f im Entwicklungspunkt x0 . (Oft kürzer Tn (x),
wenn f und x0 aus dem Zusammenhang klar sind.) Ist f ein Polynom vom Grad n oder niedriger,
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
162
so gilt f (x) = Tnf (x; x0 ) für alle x, x0 ∈ R. Das Taylorpolynom erster bzw. zweiter Ordnung sind
die lineare bzw. quadratische Approximation von f nahe x0 , siehe A und ??.
Im Gegensatz zum Satz von Weierstraß 6.1d, der nicht konstruktiv ist, aber sogar für beliebige
stetige Funktionen gilt, kann mit dieser Formel ein Polynom zur Approximation einer hinreichend oft
differenzierbaren gutartigen Funktion f explizit berechnet werden.
√
Beispiel: Für f (x) = 1/ 1 − x = (1 − x)−1/2 sind die Ableitungen
f 0 (x) =
1
(1 − x)−3/2 ,
2
f (k) (x) =
f 00 (x) =
13
(1 − x)−5/2 ,
22
13
2k − 1
...
(1 − x)−(2k+1)/2 .
22
2
Damit erhält man als Taylorpolynom um x0 = 0:
Tnf (x; 0) = Tn (x) = 1 +
=1+
1
1 3 x2
13
2n − 1 xn
x+
+ ... +
...
2
22 2
22
2
n!
1
1·3 2
1 · 3 · . . . · (2n − 1) n
x+
x + ... +
x .
2
2·4
2 · 4 · . . . · (2n)
Die Auswertung bei x = 1/2
eine Folge rationaler Zahlen an = Tn (1/2), die für n → ∞
√ ergibt p
gegen die irrationale Zahl 2 = 1/ 1/2 = f (1/2) konvergiert. (Die Konvergenz ist leicht mit
dem Quotiententest oder Majorantenkriterium zu zeigen, außerdem ist der Konvergenzradius dieser
Taylorreihe R = 1, wie man leicht mit dem Quotiententest aus 10.8a sieht.)
Potenzen von x als Faktoren in der Funktion√sollten erst nach der Approximation einbezogen
werden: Statt ein Taylorpolynom
zu f (x) = x 3 1 + x direkt zu berechnen, ist es einfacher, ein
√
3
Taylorpolynom von 1 + x mit x zu multiplizieren! Siehe dazu auch 11.2c.
11.3c
Restglied der Taylorapproximation
Das Restglied beschreibt den Fehler bei der Approximation,
Rnf (x; x0 ) := f (x) − Tnf (x; x0 ) ( oder kürzer = Rn (x) ).
Wenn die Taylorreihe für |x − x0 | < R die Funktion f darstellt, gilt dort Rn (x) → 0 für n → ∞.
Ob diese Situation vorliegt, kann sehr schwer zu entscheiden sein, hier beschäftigen wir uns damit
nicht weiter.
Unabhängig von dieser Konvergenzfrage gilt für jede (n+1)-mal stetig differenzierbare Funktion
als Verfeinerung des Mittelwertsatzes die Taylorsche Formel für das Restglied
Rnf (x; x0 ) =
f (n+1) (x0 + ϑ·(x − x0 ))
(x − x0 )n+1 ,
(n + 1)!
für ein ϑ ∈ (0, 1), das i.a. von x und x0 abhängt. Der Punkt xz = x0 + ϑ · (x − x0 ) ist eine
Zwischenstelle zwischen x und x0 .
Der Spezialfall n = 0 für differenzierbare Funktionen ist der Mittelwertsatz 7.1a
f (x) − f (x0 ) = R0f (x; x0 ) =
f 0 (xz )
(x − x0 ) = f 0 (x0 + ϑ·(x − x0 )) (x − x0 ).
1!
Typische Fragen für die Approximation einer Funktion f in einem Intervall [a, b] sind:
(i) Sei Tnf (x; x0 ) gegeben. Wie groß ist der maximale Fehler, das Maximum von |Rn (x)| für alle
x ∈ [a, b], die Punkte in einem interessierenden Intervall?
(ii) Wie muß n (und x0 ) gewählt werden, damit eine vorgegebene Fehlertoleranz ε0 für kein
x ∈ [a, b] überschritten wird?
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
11.3d
163
Restgliedabschätzungen
Aus der Restgliedformel folgen für x, x0 ∈ [a, b], dem interessierenden Intervall, die (immer einfacheren, immer gröberen) Fehlerabschätzungen
|f (x) − Tnf (x; x0 )| = |Rnf (x; x0 )|
11.3e
≤
1
(n + 1)!
ϑ∈[0,1]
=
1
(n + 1)!
xz ∈[x,x0 ] bzw. [x0 ,x]
≤
1
(n + 1)!
xz ∈[a,b]
≤
(b − a)n+1
(n + 1)!
max |f (n+1) (x0 + ϑ·(x − x0 ))| · |x − x0 |n+1
max
|f (n+1) (xz )| · |x − x0 |n+1
max |f (n+1) (xz )| · |x − x0 |n+1
max |f (n+1) (xz )| für alle x, x0 ∈ [a, b].
xz ∈[a,b]
Beispiele für Restgliedabschätzungen
(i) f (x) = ex für x ∈ [−1/10, 0], x0 = 0; Frage: Approximationsqualität des Taylorpolynoms der
Ordnung n = 2 ? Die Taylorreihe ist die bekannte, für alle x absolut konvergente Potenzreihe.
T2 (x) = 1 + x +
x2
,
2
R2 (x) =
f (3) (0 + ϑ · (x − 0))
(x − 0)3 , ϑ ∈ (0, 1).
3!
Für die Zwischenstellen xz = ϑ x gilt xz ≤ 0 und damit f (3) (xz ) = exz ≤ 1, also
|R2 (x)| ≤
1
1
|x|3 ≤ · 10−3
6
6
für alle x ∈ [−1/10, 0].
(ii) f (x) = cosh x für x ∈ [−1/5, 1/5], x0 = 0. Wie groß muß n gewählt werden, damit der
maximale Fehler unter 10−4 bleibt?
cosh x = 1 +
T2 (x) = 1 +
x2 x4
+
+ ...
2
4!
x2
= T3 (x) ,
2
(die bekannte Potenzreihe),
T4 (x) = 1 +
x2 x4
+
= T5 (x) .
2
4!
Versuch: Schätze R3 ab (sonst R5 oder höher). Mit f (4) (x) = cosh x
|R3 (x)| ≤
1
4!
max
xz ∈[−1/5, 1/5]
1
· cosh(1/5) · |x|4
24
µ ¶4
1
1
· 1, 03 ·
< 10−4 .
<
24
5
| cosh xz | |x|4 =
Also genügt die Approximation T2 (x) = T3 (x) = 1 + x2 /2. Eine Abschätzung von R2 (x) hätte
nicht so leicht zum Ziel geführt.
Tip: Bei um x0 geraden bzw. ungeraden Funktionen treten im Taylorpolynom nur gerade bzw. ungerade Potenzen von (x − x0 ) auf, also sind jeweils zwei Taylorpolynome gleich. Wähle zum Abschätzen
möglichst den höheren Index, es sei denn, die Berechnung und Abschätzung der höheren Ableitungen
ist zu aufwendig.
RWTH Aachen
Mathematik I+II
11
Taylorreihen, Approximation durch Taylorpolynome
11.3f
164
Mac Laurinsche Formel und Reihe
Wenn als Entwicklungspunkt des Taylorpolynoms speziell x0 = 0 gewählt wird, so spricht man auch
von der Mac Laurinschen Formel
n
X
f (k) (0) k f (n+1) (ϑ x) n+1
f
f
f (x) = Tn (x; 0) + Rn (x; 0) =
x +
x
, ϑ ∈ (0, 1).
k!
(n + 1)!
k=0
Dementsprechend bezeichnet man auch die spezielle Taylorsche Reihe
∞
X
f (k) (0) k
f (x) =
x
k!
k=0
um den Entwicklungspunkt x0 = 0 als Mac Laurinsche Reihe.
11.4
Approximative Integration
Um ein bestimmtes Integral einer (komplizierten) Funktion, für die keine Stammfunktion bekannt
ist, zu berechnen, werden meist numerische Verfahren benutzt z.B. die Simpsonsche Regel 8.12b
oder bessere Verfahren, die oft in Softwarepaketen implementiert sind. Wenn jedoch der Integrand
von Parametern abhängt kann es wichtig sein, die Parameterabhängigkeit des Integrals (approximativ) zu bestimmen. Dies kann z.B. durch Approximation des Integranden durch ein Taylorpolynom
geschehen, denn Polynome sind immer geschlossen integrierbar. Bestimme als Beispiel das folgende
Integral mit einem maximalen Fehler von 5 · 10−4 für alle Parameterwerte β ≥ 1 :
Z 1/2
Iβ :=
exp(xβ ) dx = ? ,
β ∈ R , β ≥ 1.
0
Es wäre hier unnötig mühsam, die Funktion fβ (x) = exp(xβ ) direkt in ein Taylorpolynom zu entwickeln. Geschickter ist es, in die bekannte Entwicklung für die Exponentialfunktion die Potenz xβ
einzusetzen. Dann ist die Approximation des Integranden ebenfalls geschlossen integrierbar. In der
Praxis sollte man mit einer nicht zu großen Ordnung beginnen und diese erhöhen, wenn der Fehler
sonst zu groß ist. Die folgende Näherung mit dem Taylorpolynom T3 führt in diesem Beispiel zum
Ziel.
Wenn x ∈ [0, 1/2] und β ≥ 1, so gilt u := xβ ∈ [0, 1/2].
¯
¶¯
µ
√
3 ¯
2
¯ u
e 4
xz
4
¯e − 1 + u + u + u ¯ = |Rexp (u; 0)| ≤ 1
max e u =
u .
3
¯
¯
2
6
24 xz ∈[0, 1/2]
24
Der Fehler des Integrals ist mit der Standardabschätzung 8.3d für Integrale
¯Z
¶¾ ¯¯ Z 1/2
µ
¯ 1/2 ½
1
1
¯
¯
dx¯ ≤
exp(xβ ) − 1 + xβ + x2β + x3β
|{. . .}| dx
¯
¯
¯ 0
2
6
0
beschränkt durch
√
√
√ Z 1/2
Z 1/2
e
e (1/2)4β+1
e 1
x4β dx =
≤
< 5 · 10−4 .
|R3exp (xβ ; 0)| dx ≤
5
24
24
4β
+
1
24
5
·
2
0
0
Der Parameterwert β = 1 ist der ungünstigste, der Fehler ist kleiner bei größerem β. Der hinreichend
genaue Näherungswert des Integrals für alle β ≥ 1 ist somit
¶
Z 1/2 µ
1 2β 1 3β
β
Iβ ≈
1+x + x + x
dx
2
6
0
µ ¶β+1
µ ¶2β+1
µ ¶3β+1
1
1
1
1
1
1
1
= +
+
+
.
2
β+1 2
2(2β + 1) 2
6(3β + 1) 2
Entsprechend sollte man bei einem Integranden wie f (x) = (1 + sin x)−1/2 für kleine x
zunächst versuchen, mit u = sin x die Wurzel im Nenner durch ein Polynom in u zu approximieren,
und nicht das Taylorpolynom zu f direkt berechnen.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12
165
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.1
Definition und Vorbemerkungen
12.1a
Definitionen und erste Beispiele
Wir betrachten differenzierbare reell- oder vektorwertige Funktionen y einer reellen Variablen, die
wir meist t (oder x) nennen, y(t) ∈ R` für t ∈ I ⊆ R , I ein Intervall. Der Wertebereich
R` , ` ≥ 1 (bzw. Teilmengen davon) wird in vielen Anwendungen Phasenraum oder Zustandsraum genannt, da y(t) den Zustand eines Systems zur Zeit t beschreiben kann. Eine gewöhnliche
Differentialgleichung der Ordnung n ist eine Gleichung, die die Funktion y mit ihren Ableitungen bis zur Ordnung
n, jeweils zur gleichen
¡
¢ Zeit t, verknüpft. Meist ist sie in der expliziten Form
(n)
0
(n−1)
y (t) = f t; y(t), y (t), . . . , y
(t) [ d.h. nach der höchsten Ableitung aufgelöst ] oder auch
¡
¢
implizit als g t; y(t), y 0 (t), . . . , y (n) (t) = 0 gegeben. Eine Lösung ist eine n-mal stetig differenzierbare Funktion y : I → R` , die bei Einsetzen der Funktion und ihrer Ableitungen in die
Differentialgleichung diese für alle t in ihrem Definitionsbereich I erfüllt.
Bei vektorwertigen Funktionen (` > 1) spricht man oft von Systemen bzw. Differentialgleichungssystemen, zur Betonung der möglichen Vektorwertigkeit kann Fettdruck y(t), ~y (t) etc. benutzt werden. Der Begriff Differentialgleichung wird unterschiedlich gebraucht: meist ist der allgemeine Fall einer vektorwertigen Funktion gemeint, Differentialgleichungssysteme sind eingeschlossen (` ∈ N beliebig), manche Autoren meinen damit nur den reellwertigen Fall (` = 1).
Ein trivialer Fall einer Differentialgleichung ist y 0 (t) = h(t) mit gegebener stetiger Funktion h.
Dann ist y(t) = H(t) eine Lösung, wenn H eine Stammfunktion zu h ist. Die Gleichung y 0 (t) =
y(t), kurz: y 0 = y, eine Differentialgleichung erster Ordnung für eine reellwertige Funktion y (d.h.
` = 1) hat die wohlbekannten (siehe ??) Lösungen y(t) = et und allgemeiner y(t) = c et =
y(0) et , c = y(0) ∈ R beliebig.
Die Gleichung y 00 (t) = −y(t), kurz y 00 = −y, ist eine Differentialgleichung zweiter Ordnung
(mit ` = 1), die z.B. von y(t) = sin t und von y(t) = cos(t) gelöst wird.
Jede explizite Differentialgleichung kann in die Form
y0 (t) = f (t; y(t)) ,
eines Systems erster Ordnung (hinreichend hoher Dimension) überführt werden, wie wir in Abschnitt 13.7a sehen werden. Die Funktion f wird oft als Vektorfeld bezeichnet (auch im reellwertigen
Fall).
12.1b
Herkunft von Differentialgleichungen
(i) Oft beschreibt die Variable t die Zeit, y(t) den Zustand eines Systems, y0 (t) die Rate der
Änderung des Zustandes. In vielen Anwendungen (Mechanik, physikalische Gesetze, Modelle der
Wirtschaft, ...) ist die Änderungsrate eine Funktion des gegenwärtigen Zustandes und evtl. weiterer,
explizit zeitabhängiger äußerer Einflüsse, z.B.
y0 (t) = f (y(t)) oder y0 (t) = f (t; y(t)).
Das Newtonsche Gesetz für die Bewegung eines Teilchens: Kraft = Masse x Beschleunigung“ hat
”
die Form
y00 (t) =
1
Kraft(t; y(t), y0 (t)).
m
Bei Differentialgleichungen als Modelle für die wirtschaftliche Entwicklung kann die explizite Zeitabhängigkeit durch Änderung von Steuern, Lohnnebenkosten, Zöllen etc. auftreten.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
166
(ii) Ist y(t) die Auslenkung eines Balkens am Ort t, die durch eine Last verursacht wird, dann gilt
z.B. für die Krümmung y 00 (t)
y 00 (t) = f (t; y(t), y 0 (t)).
(Dann wird oft x anstelle von t für die unabhängige Variable gebraucht, die hier einen Ort bezeichnet.)
12.1c
Typische Aufgaben
(i) Bestimme die Lösungsgesamtheit, die sogenannte allgemeine Lösung“ einer Differentialglei”
chung, also alle differenzierbaren Funktionen, die die Gleichung erfüllen.
(ii) Bestimme die (oft eindeutige) Lösung, die zu einem Anfangszeitpunkt“ t0 den vorgegebenen
”
Anfangswert oder Anfangszustand y(t0 ) = y0 hat, das Anfangswertproblem (AWP).
(iii) Das Randwertproblem sucht nach der (oft eindeutigen) Lösung, die an zwei Randpunkten vorgegebene Werte hat: y(t1 ) und y(t2 ) sind vorgegeben bei einer Differentialgleichung zweiter Ordnung,
etwa für einen Balken, der an den Rändern aufliegt.
12.1d
Partielle Differentialgleichungen
Hängt die gesuchte Funktion von mehreren unabhängigen Variablen ab, z.B. Ort und Zeit, dann kann
eine partielle Differentialgleichung zwischen den partiellen Ableitungen der Funktion bestehen. Beispiele sind Verformungen unter Last oder Schwingungen von Membranen oder Festkörpern, Strömungen von Gasen oder Flüssigkeiten, Diffusion von Schadstoffen u.s.w.
In der Vorlesung werden partielle Differentialgleichungen nicht behandelt, in Anwendungen lassen sich diese oft durch spezielle Ansätze (z.B. die gesuchte Funktion als Produkt von Funktionen
einer Variablen) auf mehrere gewöhnliche Differentialgleichungen zurückführen.
12.1e
Ausblick
In diesem Kapitel behandeln wir einige einfache Typen gewöhnlicher Differentialgleichungen erster
Ordung y 0 = f (t; y) für reellwertige Funktionen. Wir erläutern daran die Bestimmung der allgemeinen Lösung sowie die Lösung des Anfangswertproblems und wir geben die grundlegenden Sätze
über die Existenz und Eindeutigkeit von Lösungen an.
Im darauf folgenden Kapitel 13 diskutieren wir ausführlich lineare Differentialgleichungen höherer Ordnung und Systeme. Allgemeinere nichtlineare Differentialgleichungen sowie Näherungsverfahren folgen in Kapitel 14. In Abschnitt ?? wird eine weitere Lösungsmethode für lineare Differentialgleichungen behandelt, die die Fourierentwicklung periodischer Funktionen benutzt.
12.2
Lineare homogene Differentialgleichungen 1. Ordnung
Sei I ⊆ R ein Intervall. Die gesuchten Funktionen y seien in diesem Kapitel immer reellwertig
(` = 1). Eine lineare homogene Differentialgleichung erster Ordnung ist von der Form
y 0 = a(t) y,
a : I → R stetig.
Das Vektorfeld f (t; y) = a(t) y ist linear in y. Ausführlicher geschrieben: y 0 (t) = a(t) · y(t) für
t ∈ I.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.2a
167
Spezielle Lösungen
(i) Die Gleichgewichtslösung“ y(t) ≡ 0 ist eine Lösung.
”
(ii) Sei y(t) 6= 0, dann ist die Differentialgleichung äquivalent zu
a(t) =
y 0 (t)
d
=
ln |y(t)|,
y(t)
dt
denn d/dx (ln |x|) = 1/x, Kettenregel.
Sei A(t), t ∈ I, eine Stammfunktion zu a, dann erfüllt A(t) = ln |y(t)| die Gleichung, damit
sind y(t) = ±eA(t) 6= 0 Lösungen der Differentialgleichung auf dem Intervall I.
12.2b
Linearität der Lösungsmenge
Die Differentialgleichung y 0 = f (t; y) = a(t) y ist linear in y. Daraus folgt: Seien y1 und y2
Lösungen, dann ist auch jede Linearkombination y(t) = α y1 (t) + β y2 (t), α, β ∈ R (oder auch
α, β ∈ C), eine Lösung:
y 0 (t) = α y10 (t) + β y20 (t) = α [ a(t) y1 (t) ] + β [ a(t) y2 (t) ] = a(t) y(t).
Die Lösungsmenge einer linearen homogenen Differentialgleichung bildet also einen linearen Raum,
einen Untervektorraum des Vektorraums der differenzierbaren Funktionen (vgl. 1.12).
12.2c
Lösungsformel für die allgemeine Lösung
Sei A : I → R eine (beliebige) Stammfunktion zu a : I → R , dann ist die allgemeine Lösung
der Differentialgleichung y 0 = a(t) y , das ist die Lösungsgesamtheit der Differentialgleichung, die
folgende Familie von Funktionen:
y : I ⊆ R → R,
y(t) = c eA(t) ,
c ∈ R,
d.h. es gibt keine andere stetig differenzierbare Funktion, die die Differentialgleichung erfüllt.
Beachte: Entweder gilt y(t) ≡ 0 oder (bei c 6= 0) y(t) 6= 0 für alle t ∈ I ( nichttriviale
”
Lösung“), sie ist immer Null oder nie Null“ im Intervall I, siehe dazu auch 12.10b.
”
Für zwei Stammfunktionen A, B zu a gilt B = A+c1 , eB(t) = ec1 eA(t) , die oben angegebene
Familie ändert sich also nicht bei Wechsel der Stammfunktion, denn ec1 > 0.
Beweis: Betrachte z(t) = e−A(t) y(t), y(t) eine (beliebige) Lösung. Da A(t) und damit auch
e±A(t) 6= 0 stetig differenzierbar ist, ist z genau dann stetig differenzierbar, wenn y es ist. z erfüllt
die Differentialgleichung
z 0 (t) = (−a(t) e−A(t) ) · y(t) + e−A(t) y 0 (t)
Dgl. für y
=
−a(t) z(t) + a(t) z(t) = 0.
Nach dem Mittelwertsatz sind z(t) = const die einzigen stetig differenzierbaren Funktionen mit
z 0 (t) = 0, t ∈ I, siehe ??. Also ist jede Lösung auf einem Intervall I von der Form y(t) = c eA(t) .
2
12.2d
Beispiel einer linearen homogenen Differentialgleichung
a : R → R , a(t) = sin t, A(t) = − cos t,
y 0 = (sin t) y ,
y(t) = c e− cos t , c ∈ R ist die allgemeine Lösung für t ∈ R . Für eine Skizze einiger Lösungen
siehe Abbildung 12.1.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.2e
168
Das Anfangswertproblem
Für ein t0 ∈ I soll eine Lösung y mit y(t0 ) = y0 zu (beliebig fest) vorgegebenem y0 ∈ R bestimmt
werden. Eine solche Lösung gibt es immer:
!
y(t0 ) = c eA(t0 ) = y0 ⇐⇒ c = y0 e−A(t0 ) , also
½Z t
¾
y(t) = y0 eA(t)−A(t0 ) = y0 exp
a(τ ) dτ ,
t ∈ I,
t0
Rt
ist die eindeutige Lösung des Anfangswertproblems, t0 a(τ ) dτ ist die eindeutige Stammfunktion
von a , die bei t0 eine Nullstelle hat.
Rt
Im Beispiel 12.2d sei t0 = 0, y0 = 3, dann ist y(t) = 3e(1−cos t) = 3 exp{ 0 sin τ dτ }.
12.3
Lineare inhomogene Differentialgleichungen 1. Ordnung
Sei I ⊆ R ein Intervall, a, b : I → R stetig. Die inhomogene lineare Differentialgleichung lautet
y 0 = a(t) y + b(t).
12.3a
Lösungsformel für die allgemeine Lösung
Mit dem als Variation der Konstanten“ bezeichneten Ansatz (in der Lösungsformel für die homogene
”
Gleichung die Konstante c ersetzen durch c(t) )
y(t) = c(t) eA(t) ,
A eine Stammfunktion zu a,
erhalten wir eine Differentialgleichung für die Funktion c(·), die einfach zu lösen ist:
!
y 0 (t) = c0 (t) eA(t) + c(t) a(t) eA(t) = a(t) c(t) eA(t) + b(t)
ergibt
c0 (t) = b(t) e−A(t) , c0 ist eine bekannte Funktion, also erhalten wir durch Integration
Z
Z t
c(t) = b(t) e−A(t) dt =
b(s) e−A(s) ds + c, t0 ∈ I, c ∈ R.
t0
Damit lautet die Lösungsformel für die allgemeine Lösung im Intervall I
½Z
¾
−A(t)
y(t) =
b(t) e
dt eA(t)
(das Integral steht für eine beliebige Stammfunktion von b(t) e−A(t) und y für eine beliebige Lösung)
oder für beliebig gewähltes t0 ∈ I
½
¾
Z t
y(t) = c +
b(s) e−A(s) ds eA(t) , c ∈ R ,
t0
oder gleichwertig mit einer beliebigen nichttrivialen Lösung yh (t) 6= 0 der homogenen Differentialgleichung
½Z
¾
½
¾
Z t
b(t)
b(s)
y(t) =
dt yh (t) = c +
ds yh (t), c ∈ R .
yh (t)
t0 yh (s)
Daß dies tatsächlich die allgemeine Lösung ist, sieht man daran, daß die Differenz zweier Lösungen
der inhomogenen Gleichung die homogene Differentialgleichung löst. Daraus folgt auch:
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.3b
169
Beobachtung über inhomogene lineare Gleichungen
Genauso wie bei linearen inhomogenen Gleichungssystemen A x = b (siehe 3.3) erhält man die
allgemeine Lösung als Summe einer beliebigen speziellen (partikulären) Lösung, z.B.
µZ t
¶
−A(s)
yp (t) =
b(s) e
eA(t) , t0 ∈ I fest
t0
(manchmal kann eine spezielle Lösung auch geraten werden) und der allgemeinen Lösung yh der
homogenen Differentialgleichung y 0 = a(t) y:
yh (t) = c eA(t) , c ∈ R ;
y(t) = yp (t) + yh (t).
Es gilt wieder die allgemeine Lösung der inhomogenen Differentialgleichung ist eine beliebige par”
tikuläre Lösung der inhomogenen Differentialgleichung plus die allgemeine Lösung der homogenen
Differentialgleichung“. Die Lösungsmenge bildet einen affinen Teilraum der differenzierbaren Funktionen (vgl. 1.12).Siehe auch die Verallgemeinerung auf Differentialgleichungen höherer Ordnung in
13.4.
12.3c
Beispiel einer linearen inhomogenen Differentialgleichung
y0 =
1
1
1
y+
=
(y + 1), t ∈ I = R .
2
2
1+t
1+t
1 + t2
Der Koeffizient a(t) = 1/(1 + t2 ) = b(t) hat A(t) = arctan t, t ∈ R, als Stammfunktion. Gemäß
Lösungsformel berechne:
½Z t
¾ Z t
1
−A(s)
b(s) e
ds =
e− arctan s ds
2
1
+
s
t0
t0
=
¶
Z tµ
d
− e− arctan s ds = e− arctan t0 − e− arctan t
ds
t0
(Substitution u = arctan s im Integranden). Wir erhalten als partikuläre Lösung
yp (t) = e− arctan t0 earctan t − 1 = const earctan t − 1;
yh (t) = c0 earctan t ,
und damit als allgemeine Lösung
y(t) = c earctan t − 1,
c ∈ R, t ∈ R.
(c0 + e− arctan t0 kann zu einer neuen Konstanten c zusammengefaßt werden!) Dies erläutert das
schematische Vorgehen mit der Lösungsformel, das immer anwendbar ist. Es gibt aber in diesem
Beispiel noch zwei andere, einfachere Wege!
Es ist leicht zu sehen, daß auch yp (t) ≡ −1 eine partikuläre Lösung ist, man hätte sie raten
können.
Geht man von y zu z = y + 1, so muß z die homogene Differentialgleichung
z0 =
1
z
1 + t2
erfüllen, also z(t) = c earctan t , y(t) = z(t) − 1 wie oben angegeben. Durch Übergang von y
zu einer anderen Funktion (Substitution) kann eine Differentialgleichung oft wesentlich vereinfacht
werden, wie wir auch schon bei der Variation der Konstanten“ sahen. Weitere Beispiele dafür werden
”
folgen, z.B. in 12.5, 14.2.
RWTH Aachen
Mathematik I+II
12
12.4
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
170
Das Anfangswertproblem für lineare Differentialgleichungen erster Ordnung
Sei y 0 = a(t) y + b(t), t ∈ I ⊆ R , I ein Intervall, und für ein t0 ∈ I soll gelten y(t0 ) =
y0 . Sei A eine (beliebig) fest gewählte Stammfunktion zu a. Für beliebiges y0 ∈ R hat dieses
Anfangswertproblem genau eine Lösung
½
¾
Z t
−A(t0 )
−A(s)
y(t) = y0 e
+
b(s) e
ds eA(t) .
t0
Mit b(t) ≡ 0 schließt das homogene Differentialgleichungen (siehe 12.2e) mit ein.
!
Beispiel: y 0 = 3y − t, t ∈ I = R , t0 = −1/3, y(−1/3) = y0 = 15.
b(t) = −t, a(t) = 3, A(t) = 3t, −A(t0 ) = 1, y0 e−A(t0 ) = 15e,
Z
¯t
1 −3s
1
¯
e
(1 + 3s) ¯
= e−3t (1 + 3t) ,
9
9
−1/3
−1/3
½
¾
1
1
y(t) = 15e + e−3t (1 + 3t) e3t = 15e(1+3t) + (1 + 3t) .
9
9
t
(−s) e−3s ds =
Dringender Rat: Wenn eine Aufgabe gelöst wurde, immer die Probe machen.
12.5
Bernoullische Differentialgleichung
Seien g, h : I → R stetig auf dem Intervall I. Die Bernoullische Differentialgleichung hat die Form
y 0 = f (t; y) = h(t) y + g(t) y p ,
p ∈ R, p 6= 1, p 6= 0.
(Für p = 1 oder 0 liegt eine bereits behandelte homogene bzw. inhomogene lineare Differentialgleichung vor.) Die Differentialgleichung ist nichtlinear in y. Solange y(t) > 0 ist y(t)p =
exp{p ln y(t)} wohldefiniert für alle p ∈ R, falls p > 0 auch für y(t) = 0. Bei ganzen und
gewissen rationalen p (z.B. p = −3/5) kann auch y(t) < 0 zulässig sein. Dies ist im Einzelfall zu
beachten! In manchen Formelsammlungen fehlt diese und die unten folgende notwendige Diskussion
der zulässigen Vorzeichen.
Falls p > 0 ist y(t) ≡ 0, t ∈ I, eine Lösung der Bernoullischen Differentialgleichung. Bei
p < 0 darf y keine Nullstellen haben. Solange y(t) > 0 oder solange y(t) < 0 und y(t)p definiert
ist betrachte anstelle von y die Funktion
z(t) = y(t)1−p = y(t)/y(t)p .
Wenn y eine Lösung der Bernoullischen Differentialgleichung ist, erfüllt z die Differentialgleichung
z 0 (t) = (1 − p) y(t)−p y 0 (t) = (1 − p) h(t) y(t)1−p + (1 − p) g(t)
= (1 − p) h(t) z(t) + (1 − p) g(t),
also die lineare inhomogene Differentialgleichung
z 0 = (1 − p) h(t) z + (1 − p) g(t), a(t) = (1 − p) h(t), b(t) = (1 − p) g(t).
Diese ist z.B. mit der in 12.3 angegebenen Lösungsformel immer allgemein zu lösen. Je nach dem
Wert von p sind evtl. nur die Teile der Lösung mit z(t) > 0 oder z(t) ≥ 0 zu einer Lösung
y = z 1/(1−p) bzw. y = ±z 1/(1−p) der Bernoullischen Differentialgleichung zurückzutransformieren, Vorsicht!, siehe 12.5a.
Zur Eindeutigkeit der Lösungen des Anfangswertproblems siehe 12.10b.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
171
Beispiel:
y 0 = f (t, y) = t y + t3 y 3 ,
t ∈ I = R, p = 3.
y(t)3 ist für alle y(t) ∈ R definiert, y(t) ≡ 0 ist eine Lösung. Für y(t) 6= 0 ist
p
z(t) = y(t)1−p = 1/y(t)2 > 0, y(t) = ±1/ z(t)
definiert, da p hier ungerade ist, ist mit y auch −y eine Lösung. Die Lösungen der Differentialgleichung für z
z 0 = (1 − 3) t · z + (1 − 3) t3 = −2t z − 2t3
sind nur solange von Interesse, wie z(t) > 0 gilt. Wenn z(t) → 0 folgt y(t) → ±∞. Zu a(t) =
−2t, A(t) = −t2 , b(t) = −2t3 , wähle z.B. t0 = 0 in der Lösungsformel,
Z
t
Z
3
(−2s )e
s2
0
ds = −
t2
¯t2
2
¯
u eu du = eu (1 − u) ¯ = et (1 − t2 ) − 1,
0
2
z(t) = c e−t + (1 − t2 ) = z(−t),
0
z(0) = c + 1.
Falls c ≤ −1 folgt z(t) ≤ 0, ungeeignet. Für c > −1 ist z(t) > 0 für gewisse t, jedoch z(t) →
−∞ für |t| → ∞. Für ein endliches Zeitintervall J = (−t1 , t1 ) gilt z(t) > 0, wobei t1 durch
z(t1 ) = 0 bestimmt wird, abhängig von c > −1.
n
o−1/2
2
y(t) = ± c e−t + (1 − t2 )
,
c > −1, t ∈ J.
Durch jeden Punkt t0 mit y(t0 ) = y0 gibt es eine Lösungskurve ( c geeignet gewählt bzw. y(t) ≡ 0,
falls y0 = 0). Daß es keine weiteren Lösungen gibt, folgt später aus dem Existenz- und Eindeutigkeitssatz, siehe 12.9d, denn f (t; y) ist Lipschitz-stetig in y.
12.5a
Beobachtungen bei Bernoullischen Differentialgleichungen
(i) Wenn y p für y > 0 und für y < 0 definiert ist und wenn gilt (−y)p = −y p (das ist z.B. für
ungerade ganzzahlige p, für p = ±1/3, ±1/5, ±3/5, . . . erfüllt), dann gilt f (t; −y) = −f (t; y),
f ist eine ungerade Funktion (8.8b) bzg. y. Daraus folgt, daß mit y(t) auch −y(t) eine Lösung der
Differentialgleichung ist. Die Funktion z = y 1−p und ggf. der Anfangswert z0 = y0 1−p sind dann
automatisch positiv. Die Lösung z(t) ist auf solche t zu begrenzen, für die z(t) > 0 bzw. z(t) ≥ 0
gilt (für p < 0 bzw. p > 0) und die Lösungen des Anfangswertproblems sind y = +z 1/(1−p) oder
y = −z 1/(1−p) , wenn y0 > 0 oder y0 < 0.
(ii) Bei anderen Werten von p, z.B. p = 2, 2/3, . . ., haben y = z 1−p und z = y 1/(1−p) jeweils
dasselbe Vorzeichen, dann ist die Wahl mit ±“ wie in (i) nicht erforderlich.
”
(iii) Bei allen homogenen linearen Differentialgleichungen und bei Bernoullischen Differentialgleichungen mit p > 1 gilt für die Lösungen, daß entweder y(t) ≡ 0 oder y(t) 6= 0 für alle zulässigen
t, bei p < 0 ist nur y(t) 6= 0 möglich. Dies folgt aus dem Existenz- und Eindeutigkeitssatz, siehe
12.10b.
(iv) Im Falle 0 < p < 1 kann der Fall eintreten, daß eine Lösung in einem Intervall von Null verschieden ist und dann konstant gleich Null fortgesetzt wird. Ein einfaches Beispiel, in dem die Eindeutigkeit der Lösung des Anfangswertproblems bei y = 0 verlorengeht, geben wir in 14.1 an.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.6
172
Das Richtungsfeld
Die reellwertige Lösung y(t) der Differentialgleichung erster Ordnung y 0 = f (t; y) kann durch den
Graphen der Funktion y in der Ebene veranschaulicht werden. An einem Punkt auf dem Graphen von
y gilt (siehe 1.13b):
µ
¶ µ
¶
µ
¶
1
1
t
=
ist ein Tangentialvektor bei
,
y 0 (t)
f (t; y(t))
y(t)
er gibt die Richtung der Tangenten an den Graphen in diesem Punkt an. Die auf Länge Eins normierte
Abbildung
µ ¶
µ
¶
1
t
1
7→ p
ist das Richtungsfeld
y
1 + [ f (t; y) ]2 f (t; y)
der Differentialgleichung, der Graph einer Lösung y ist an jedem seiner Punkte tangential zum Richtungsfeld. Das kann zur Veranschaulichung des qualitativen Verlaufs der Lösungen dienen, denn das
Richtungsfeld kann man zeichnen, ohne die Differentialgleichung zuvor lösen zu müssen. Beim Skizzieren (an vielen Punkten der (t, y)-Ebene einen Pfeil in die Richtung des Richtungsfeldes zeichnen)
können Computerprogramme wie MAPLE hilfreich sein. So wurden die Beispiele in Abbildung 12.1
und 12.2 erstellt.
8
6
1
y(t)
4
y(t)
2
t
2
4
0.5
6
8
10
0
–2
–1
–0.5
0.5
–4
1
1.5
t
–6
–0.5
–8
Abbildung 12.1: Richtungsfeld und Lösungen
der linearen homogenen Differentialgleichung
y 0 = (sin t) y
12.7
Abbildung 12.2: Richtungsfeld und Lösungen
der autonomen logistischen Differentialgleichung y 0 = y(1 − y)
Definitionsbereich einer Differentialgleichung erster Ordnung
Betrachte die Differentialgleichung erster Ordnung in der nach y 0 aufgelösten“ Form, d.h.
”
y 0 = f (t; y),
mit dem Vektorfeld“ oder der rechten Seite“ f (t; y) der Differentialgleichung 1. Ordnung (hier der
”
”
eindimensionale Spezialfall eines Vektorfeldes). Der Definitionsbereich der Differentialgleichung ist
der Definitionsbereich von f , also die (größtmögliche) Menge der Paare (t, y) ∈ R2 , für die f (t; y)
definiert ist.
12.7a
Beispiele zum Definitionsbereich
(i) f (t; y) = sin t ln y , Definitionsbereich D = {(t, y) ∈ R2 | t ∈ R, y > 0}.
(ii) f (t; y) =
RWTH Aachen
1
, Definitionsbereich D = {(t, y) ∈ R2 | t 6= y}.
t−y
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
173
Von einer Lösung y(t) der Differentialgleichung können wir nur sprechen solange (t, y(t)) ohne Unterbrechung im Definitionsbereich des Vektorfeldes f liegt. Diese Einschränkung gilt selbst
dann, wenn eine Lösungsformel über den Definitionsbereich hinaus sinnvoll ist! Das Beispiel
y0 =
2
y, Definitionsbereich D = {(t, y) ∈ R2 | t 6= 0},
t
einer linearen homogenen Differentialgleichung hat als Lösungen y(t) = c t2 nur für die Intervalle
(0, ∞) oder (−∞, 0), obwohl die Formel auch für t = 0 sinnvoll ist. Wenn in einer Anwendung
diese Differentialgleichung sowohl für t > 0 als auch für t < 0 von Interesse ist, dann können die
Konstanten c für positive oder negative t völlig unabhängig voneinander gewählt werden.
Oben wurde z.B. bei den linearen und Bernoullischen Differentialgleichung immer t ∈ I, einem
Intervall, vorausgesetzt (siehe 12.2 – 12.5). Wenn der Definitionsbereich aus der Vereinigung mehrerer Intervalle besteht (etwa bei a(t) = tan t ), so sind dort und in analogen Fällen die Lösungen immer
nur auf jeweils ein Intervall beschränkt, auch wenn die Lösungsformeln zur simultanen Berechnung
in mehreren Intervallen geeignet sind. Die freien Konstanten sind in verschiedenen Intervallen völlig
unabhängig voneinander.
12.8
Separable Differentialgleichungen
Seien g stetig auf Dg ⊆ R und h stetig auf Dh , für y gelte die separable Differentialgleichung“,
”
bei der das Vektorfeld Produktform hat:
y 0 = f (t; y) = g(t) h(y)
mit Definitionsbereich D = {(t, y) ∈ R2 | t ∈ Dg , y ∈ Dh }. Dieser Gleichungstyp heißt auch
Differentialgleichung mit getrennten Variablen“, er ist eine nichtlineare Verallgemeinerung der ho”
mogenen linearen Differentialgleichung, bei der h(y) = y.
12.8a
Gleichgewichtslösungen
Es gelte für ein y ∈ Dh : h(y) = 0, dann ist y(t) ≡ y, t ∈ I ⊆ Dg , eine Lösung, die das AWP
mit t0 ∈ I ⊆ Dg , y(t0 ) = y im Intervall I löst. (Ob es die einzige lokale Lösung dieses AWP’s
ist, hängt von der Art der Nullstelle ab: wenn h bei y Lipschitz-stetig ist, gilt Eindeutigkeit, siehe
12.9a, 12.9d, ein nicht-eindeutiges Beispiel ist in 14.1 angegeben.)
Wenn die unabhängige Variable t für die Zeit steht, dann beschreibt eine Nullstelle y von h eine
Ruhelage, der Zustand des Systems ändert sich nicht bei diesen konstanten Lösungen, das System
befindet sich im Gleichgewicht. Daher der allgemeiner verbreitete Name Gleichgewichtslösung“ für
”
konstante Lösungen.
12.8b
Weitere Lösungen separabler Differentialgleichungen
Sei nun J ⊆ Gh ein Intervall mit h(y) 6= 0 für alle y ∈ J , dann ist 1/h(·) auf J stetig und letzteres hat eine Stammfunktion F mit F 0 (y) = 1/h(y) 6= 0. Die (beliebig fest gewählte) Stammfunktion
F ist also insbesondere streng monoton und damit invertierbar (siehe ??). Die Differentialgleichung
ist dort äquivalent zu
g(t) =
y 0 (t)
d
=
F (y(t)).
h(y(t))
dt
Ist G eine Stammfunktion zu g, so folgt für y ∈ J , t ∈ I ⊆ Dg
G(t) + const = F (y(t))
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
174
als implizite Lösung, die für das invertierbare F nach y aufgelöst werden kann, solange G(t)+const
im Wertebereich von F , dem Definitionsbereich von F −1 liegt:
y(t) = F −1 (G(t) + const).
Die Stammfunktion F und ihre Umkehrfunktion F −1 sind in praktischen Anwendungen möglicherweise sehr kompliziert oder nicht explizit bekannt.
Z
R
dy
0
Intuitive Merkregel: y = g(t) h(y), h(y) 6= 0 ⇐⇒
= g(t) dt , das erklärt den Namen
h(y)
Trennung der Variablen für diese Lösungsmethode separabler Differentialgleichungen.
12.8c
Beispiel einer separablen Differentialgleichung
y 0 (t) = f (t, y) = 5t4 (1 − e1−y ) ,
t, y ∈ R ,
g(t) = 5t4 , G(t) = t5 , h(y) = (1 − e1−y ) = (ey − e)/ey , h(1) = 0, es gibt eine Gleichgewichtslösung y(t) ≡ 1, t ∈ R . Sonst gilt:
1
ey
= y
, y 6= 1, F (y) = ln |ey − e| ist eine Stammfunktion.
h(y)
e −e
Falls y > 1 ist F (y) = ln(ey − e) und der Wertebereich von F ist die ganze reelle Gerade:
{ln(ey − e) | y > 1} = R .
µ
¶
³
´
5
y(t)
5
t
+
c
F (y(t)) = ln e
− e = t + c;
y(t) = ln e
+ e , c ∈ R, t ∈ R
ist die allgemeine Lösung mit y(t) > 1. Für y < 1 ist F (y) = ln(e − ey ) und der Wertebereich ist
das Intervall {ln(e − ey ) | y < 1} = (−∞, 1), daher sind nur die (von c abhängigen) t ∈ J = {t ∈
R | t5 + c < 1} zulässig. Die Lösung ist dann
µ
¶
5
t
+
c
y(t) = ln e − e
, c ∈ R , t5 + c < 1.
Daß die aufgeführten drei Familien von Lösungen wirklich die allgemeine Lösung sind, kann man
mit 12.9d sehen, denn h ist stetig differenzierbar und damit Lipschitz-stetig.
12.8d
Das Anfangswertproblem für Nicht-Gleichgewichtslösungen
Sei t0 ∈ Dg , y0 ∈ Dh mit h(y0 ) 6= 0, dann gilt (jedenfalls für |t − t0 | und |y − y0 | klein):
Z
F (y(t)) − F (y0 ) = G(t) − G(t0 ) =
t
g(s) ds
t0
ist die implizite Lösung, die das AWP y(t0 ) = y0 erfüllt.
Im Beispiel 12.8c sei t0 = 1, y0 = 23 > 1, G(t) − G(t0 ) = t5 − 1,
y(t) = ln{e + exp[t5 + ln(e22 − 1) ] } = ln{e + (e22 − 1) exp[t5 ] }, t ∈ R .
12.8e
Der autonome Spezialfall
Eine Differentialgleichung heißt autonom, wenn sie nicht explizit von der Zeit abhängt, also y 0 (t) =
f (t; y) = h(y). Dann ist in den Formeln oben überall G(t) durch t zu ersetzen.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
12.9
175
Grundlegende Existenz- und Eindeutigkeitssätze für das Anfangswertproblem.
Das Anfangswertproblem (AWP) erster Ordnung sei von der Form
(
y 0 = f (t; y), f : D ⊆ R2 → R,
y(t0 ) = y0 , (t0 , y0 ) ∈ D
für eine reellwertige Funktion y (zur Vereinfachung), die Aussagen für vektorwertige Funktionen y
sind nahezu wörtlich dieselben. Mit 13.7a schließt das dann auch Differentialgleichungen höherer
Ordnung mit ein, siehe 12.10d.
Wir setzen voraus, daß f (mindestens) stetig auf D ist (siehe 12.9a) und daß (t0 , y0 ) ist ein
innerer Punkt des Definitionsbereichs D ⊆ R2 ist, d.h. es gibt ein δ > 0, so daß alle (t, y) mit
|t − t0 | < δ und |y − y0 | < δ auch zu D gehören. Wenn D offen ist (wie es in vielen Anwendungen
der Fall ist), dann ist jeder Punkt in D ein innerer Punkt. Wenn D nicht offen ist, sondern auch
Randpunkte enthält, und (t0 , y0 ) ein Randpunkt im Definitionsbereich ist, dann können besondere
Diskussionen erforderlich sein (siehe z.B. 12.10a).
12.9a
Vorbemerkungen: stetig, Lipschitz-stetig, partielle Ableitung bei Funktionen mehrerer
Veränderlicher
Ganz analog zum Fall von Funktionen einer Variablen (??) definiert man: Ein Vektorfeld f : D →
R, (t, y) 7→ f (t; y) ist stetig auf D ⊆ R2 , wenn es zu jedem (t0 , y0 ) ∈ D und jedem ε > 0 ein
δ = δ(ε, t0 , y0 ) gibt, so daß |f (t; y) − f (t0 ; y0 )| ≤ ε gilt für alle (t, y) ∈ D mit |t − t0 | ≤ δ und
|y − y0 | ≤ δ. (Im höherdimensionalen Fall muß dasselbe gelten für f (t; y) .)
Eine Verschärfung der Stetigkeit ist die Lipschitz-Stetigkeit. Für Vektorfelder von Differentialgleichungen ist folgende Eigenschaft von Bedeutung: Ein stetiges Vektorfeld f : D → R oder
f : D → Rn , (t, y) 7→ f (t; y) heißt auf D Lipschitz-stetig bezüglich y, wenn es zu jedem (t0 , y0 ) ∈
D ein δ0 > 0 und eine Lipschitzkonstante“ L gibt, so daß |f (t; y) − f (t; y0 )| ≤ L |y − y0 | für
”
alle (t, y) ∈ D mit |t − t0 | ≤ δ0 und |y − y0 | ≤ δ0 .
Anschaulich bedeutet die Lipschitz-Stetigkeit, daß das Vektorfeld sich bei kleinen Änderungen
von y höchstens linear in der Abweichung |y − y0 | ändern darf. Die benötigte Lipschitzkonstante
kann für große y0 oder für Punkte nah am Rand des Definitionsbereichs groß werden. Beispielsweise
gilt für das Vektorfeld f (t; y) = y 2 die Abschätzung: |f (t; y) − f (t; y0 )| = | [ 2y0 + (y − y0 ) ] (y −
y0 ) | ≤ L |y − y0 | für δ0 = 1 und L = 2|y0 | + 1.
Ein typisches Beispiel für eine Funktion, die stetig aber bei y0 = 0 nicht Lipschitz-stetig ist
bezüglich y, ist f (t; y) = |y|p mit einer Potenz 0 < p < 1. Hier gilt |f (t; y) − f (t; 0)| = |y|p =
|y|p−1 |y − 0| . Da der Faktor |y|p−1 → ∞ für y → 0 kann es keine endliche Lipschitzkonstante
geben. Auf dieses Beispiel gehen wir (mit p = 1/2) in 14.1 näher ein.
Eine bequeme hinreichende Bedingung für obige Lipschitz-Stetigkeit benutzt die partielle Ab”
leitung“. Bei einer Funktion von mehreren Variablen wie f (t; y) ist die (erste) partielle Ableitung
∂y f (t; y) nach der Variablen y die gewöhnliche Ableitung nach y, wobei alle anderen Variablen
als Konstante behandelt werden. Entsprechend für jede Komponente von y bei vektoriellem y. Wir
erläutern das mit Beispielen (komponentenweise Berechnung für vektorwertige Funktionen).
f (t; y) = y 2 sin t + ty,
∂y f (t; y) = 2y sin t + t,
∂t f (t; y) = y 2 cos t + y,
f (t; y) = ey2 − y1 (t − y2 ), ∂y1 f (t; y) = −(t − y2 ), ∂y2 f (t; y) = ey2 + y1 ,
µ
¶ µ
¶
µ
¶
f1 (t; y1 , y2 )
t(y1 − y2 )2
2t(y1 − y2 )
f (t; y) =
=
, ∂y1 f (t; y) =
,
f2 (t; y1 , y2 )
y1 tan y2
tan y2
µ
¶
−2t(y1 − y2 )
∂y2 f (t; y) =
.
y1 (1 + tan2 y2 )
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
176
Satz: Wenn die Funktion f auf D stetig partiell nach y differenzierbar“ ist, d.h. wenn ∂y f (t; y)
”
bzw. wenn alle ∂yj f (t; y) existieren und auf D stetig sind, dann ist f auf D Lipschitz-stetig
bezüglich y. (Bei vektorwertigen Funktionen f muß das für alle Komponenten f1 , f2 ; . . . gelten.)
Da die wichtigsten Funktionen (Polynome, rationale, trigonometrische und hyperbolische Funktionen, Logarithmus und Exponentialfunktion etc.) stetig differenzierbar sind, garantiert der Satz in
den meisten Anwendungen die Lipschitz-Steigkeit der Vektorfelder auf ihrem Definitionsbereich.
(So ist es in den Beispielen oben.) Eine wichtige Ausnahme, wo die Lipschitz-Stetigkeit auch Fälle
zuläßt, die durch die stetige partielle Differenzierbarkeit nicht erfaßt werden, können Ausdrücke mit
dem Betrag sein. Das Vektorfeld
f (t; y) = sin t |y|
ist für y = 0 nicht nach y partiell differenzierbar, trotzdem ist es auf dem ganzen R2 Lipschitz-stetig
(mit L = 1).
Diese Begriffe der Stetigkeit und stetigen partiellen Differenzierbarkeit werden im Rahmen des
Analysis für Funktionen mehrerer Veränderlicher eingehender behandelt.
12.9b
Lokale Lösung des Anfangswertproblems (AWP)
Wenn es ein offenes Intervall J = (t1 , t2 ) mit t0 ∈ J (z.B. J = {t ∈ R | |t − t0 | < τ } für
ein τ > 0 ) und eine stetig differenzierbare Funktion y : J → R gibt, die die Differentialgleichung
y 0 = f (t; y) löst und y(t0 ) = y0 erfüllt, dann heißt y eine lokale Lösung des Anfangswertproblems (AWP). Wenn (t0 , y0 ) auf dem Rand des Definitionsbereichs liegt, dann existieren die lokalen
Lösungen möglicherweise nur für t ≥ t0 oder t ≤ t0 . Die Sätze gelten dann sinngemäß.
Bemerkung: Die Beschränkung auf lokale Lösungen ist i.A. unvermeidbar. Die harmlos aussehende
Differentialgleichung y 0 = y 2 mit Definitionsbereich D = R2 (keine Einschränkungen!) hat als
allgemeine Lösung die triviale y ≡ 0 sowie y(t) = 1/(c − t), c ∈ R. Es gibt keine nichttriviale
Lösung, die für alle t ∈ R definiert ist, alle streben gegen ±∞ für t → c ∓ 0.
12.9c
Existenzsatz von Peano
Sei f stetig auf D, dann gibt es zu jedem inneren Punkt (t0 , y0 ) ∈ D eine lokale Lösung des AWP.
(Es kann mehrere Lösungen geben!)
12.9d
Existenz- und Eindeutigkeitssatz von Picard-Lindelöf
Sei f stetig auf D und Lipschitz-stetig in y wie in 12.9a angegeben (z.B. nach y partiell stetig differenzierbar in D ), dann gibt es zu jedem inneren Punkt (t0 , y0 ) ∈ D genau eine lokale Lösung des
AWP. Diese kann so lange in die Vergangenheit“ (t < t0 ) und Zukunft“ (t > t0 ) fortgesetzt werden
”
”
bis sie den Definitionsbereich verläßt. Falls (t0 , y0 ) ∈ D ein Randpunkt des Definitionsbereichs ist,
der zum Definitionsbereich gehört, so gilt ebenfalls die Eindeutigkeit, die Existenz von Lösungen
jedoch möglicherweise nur für t ≥ t0 oder t ≤ t0 oder auch gar nicht, siehe z.B. 12.10a.
Siehe dazu auch 14.6a. Ein systematisches Approximationsverfahren für die Konstruktion von
Lösungen, mit dem man zugleich den Existenz- und Eindeutigkeitssatz beweist, wird später in 14.5b
angegeben.
12.10 Anwendungen der Existenz- und Eindeutigkeitssätze
auf Differentialgleichungen erster Ordnung
Für die bisher behandelten einfachen Typen von Differentialgleichungen konnten wir Lösungsformeln angeben, so daß allgemeine Existenzsätze dafür nicht nötig sind. Doch ist die Eindeutigkeit der
Lösung des Anfangswertproblems nicht in allen Fällen gewährleistet, wie Beispiele zeigen.
RWTH Aachen
Mathematik I+II
12
Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele
177
Für ein explizites nichtlineares Beispiel, bei dem die Lösungen des AWP existieren aber nicht
eindeutig sind, weisen wir auf 14.1 hin.
12.10a
Lineare Differentialgleichungen
Seien a, b : I → R stetig, y 0 = f (t; y) = a(t) y + b(t), D = {(t, y) ∈ R2 | t ∈ I},
(∂y f )(t; y) = a(t) ist stetig auf D. Also ist das AWP für jeden inneren Punkt t0 ∈ I, y0 ∈ R
eindeutig lokal lösbar.
√
Den Fall eines Randpunktes illustrieren wir mit einem sehr einfachen Beispiel: Sei y 0 = t mit
D = {(t, y) ∈ R2 | t ≥ 0}. Die Anfangsbedingung y(0)
√ = y0 ∈ R am Rand des Definitionsbereichs
wird einseitig nur für t ≥ 0 von y(t) = y0 + (2/3) t3 gelöst.
12.10b
Eindeutigkeit bei Bernoullischen Differentialgleichungen
Für y ∈ D, y 6= 0 ist f (t; y) = h(t) y + g(t) y p (siehe 12.5) partiell nach y stetig differenzierbar:
∂y f (t; y) = h(t) + g(t) y p−1 , bei p < 1 ist y = 0 ausgeschlossen. Bei p > 1 setzt sich die
Differenzierbarkeit bis y = 0 fort; y(t) ≡ 0 ist eine Lösung, die lokale Existenz und Eindeutigkeit
gilt dann bis y = 0 einschließlich. Eine Lösung auf einem Intervall I im Definitionsbereich mit
y(t1 ) = 0 und y(t) 6= 0 für ein t ∈ I, t 6= t1 widerspräche der Eindeutigkeit, also kann y(t) = 0
nur für alle t ∈ I oder für keines gelten bei p > 1.
Bei 0 < p < 1 kann die Eindeutigkeit bei y = 0 verletzt sein, wie das einfache Beispiel 14.1
zeigt.
12.10c
Allgemeine Lösung
Sei f bzgl. y auf D z.B. stetig partiell differenzierbar (oder Lipschitz-stetig), so daß der Existenzund Eindeutigkeitssatz gilt. Dann können wir überprüfen, ob eine gefundene Lösungsmenge die allgemeine Lösung ist, d.h. daß keine Lösung vergessen wurde. Wenn eine Lösungsmenge der Differentialgleichung y 0 = f (t; y) die Eigenschaft hat, daß es zu jedem inneren Punkt (t0 , y0 ) ∈ D eine
Lösung in der Menge mit y(t0 ) = y0 gibt, dann ist diese Menge die allgemeine Lösung: zu jedem
inneren Punkt als Anfangsbedingung (t0 , y0 ) gibt es eine Lösung, wegen der Eindeutigkeit kann
es keine weiteren geben. Mit anderen Worten: wenn wir jedes AWP lösen können, dann haben wir
die allgemeine Lösung gefunden. Ohne die Eindeutigkeit der Lösung des AWP könnten wir nicht so
schließen.
In vielen Fällen gilt das sinngemäß auch für Randpunkte, siehe z.B. 12.10a.
12.10d
Differentialgleichungen höherer Ordnung
Mit 13.7a können wir den Existenz- und Eindeutigkeitssatz von Picard-Lindelöf auch auf Differentialgleichungen höherer Ordnung anwenden. Sei die Differentialgleichung n-ter Ordnung z.B. von der
Form
y (n) = f (t; y, y 0 , . . . , y (n−1) )
mit bezüglich y stetig differenzierbarer oder Lipschitz-stetiger Funktion f : D ⊆ Rn+1 → R und
sei (t0 , y0 , y1 , . . . , yn−1 ) ein innerer Punkt von D. Dann hat das AWP
y(t0 ) = y0 , y 0 (t0 ) = y1 , . . . , y (n−1) (t0 ) = yn−1
eine eindeutige lokale Lösung.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13
178
Lineare Differentialgleichungen und Systeme
Im vorangehenden Kapitel 12 haben wir bereits die einfachsten Fälle linearer Differentialgleichungen
erster Ordnung für reellwertige Funktionen in den Abschnitten 12.2 – 12.4 behandelt. Der Koeffizient
a(t) durfte dabei zeitabhängig sein. Nun wenden wir uns zunächst linearen Differentialgleichungen
höherer Ordnung für reellwertige Funktionen zu und danach für vektorwertige Funktionen, den linearen Differentialgleichungssystemen oder meist kürzer linearen Systemen“. Wir nehmen nun an, daß
”
die Koeffizienten von y, y 0 , . . . konstant sind, für den allgemeineren Fall zeitabhängiger Koeffizienten verweisen wir auf die Literatur. Die Inhomogenitäten dürfen immer zeitabhängig sein.
13.1
Lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten
13.1a
Die Differentialgleichung und das Anfangswertproblem
Wir betrachten zunächst lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten
Koeffizienten a, b, für reellwertige, zweimal stetig differenzierbare Funktionen y, d.h.
L(y) := y 00 + 2 a y 0 + b y = 0,
a, b ∈ R .
L ist ein linearer Differentialoperator: L(α y1 + β y2 ) = α L(y1 ) + β L(y2 ). Daraus folgt: wenn
y1 , y2 Lösungen sind, d.h. L(y1 ) = 0, L(y2 ) = 0, dann ist auch α y1 + β y2 eine Lösung, für
α, β ∈ R sowie für α, β ∈ C. (Die Linearität bleibt richtig, wenn a und b stetige Funktionen von
t sind.)
Das Anfangswertproblem (AWP) für Differentialgleichungen 2. Ordnung lautet: zu gegebener
Anfangszeit t0 und Anfangswerten y0 , y1 ∈ R suche eine Lösung mit y(t0 ) = y0 und y 0 (t0 ) =
y1 . Damit diese zwei Bedingungen immer erfüllt werden können, erwarten wir, daß die allgemeine
Lösung einer Differentialgleichung zweiter Ordnung zwei frei wählbare Parameter hat, daß also der
Lösungsraum der Differentialgleichung ein zweidimensionaler linerer Raum (Vektorraum) ist. Die
Verallgemeinerung auf beliebige Ordnung folgt in 13.3.
13.1b
Das charakteristische Polynom
Die Erfahrung mit linearen homogenen Differentialgleichung 1. Ordnung legt einen Lösungsansatz
mit Exponentialfunktionen nahe. Sei y(t) = eλ t , dann gilt y 0 (t) = λ eλ t , y 00 (t) = λ2 eλ t für
beliebiges λ ∈ C. Damit ist
L(y) = (λ2 + 2a λ + b) eλ t .
Wir sehen: y(t) = eλ t ist genau dann eine Lösung der Differentialgleichung L(y) = 0, wenn λ
eine Lösung der quadratischen Gleichung λ2 + 2a λ + b = 0 ist. Durch den Ansatz mit der Exponentialfunktion wurde das Problem, eine Differentialgleichung zu lösen, in eine einfache quadratische
Gleichung überführt. Das quadratische Polynom P (λ) = λ2 + 2 a λ + b heißt charakteristisches
Polynom oder auch charakteristische Gleichung des Differentialoperators L(y) bzw. der Differentialgleichung y 00 + 2a y 0 + b y = 0. Die reellen oder komplexen Nullstellen sind
p
λ1,2 = −a ± a2 − b.
Von dem Vorzeichen der Diskriminanten d := 4(a2 − b) hängt es ab, ob die Lösungen reell und
verschieden (d > 0), reell und entartet (d = 0) oder konjugiert komplexe Paare λ1 = λ2 sind
(d < 0).
Daß wir durch diesen Ansatz und seine Verallgemeinerung durch polynomiale Faktoren im Entartungsfall alle möglichen Lösungen erfaßt haben, werden wir daran sehen, daß wir so das AWP für
beliebige Anfangsbedingungen lösen können, vergleiche 12.10c.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.1c
179
Fall 1: zwei verschiedene reelle Lösungen
Sei a2√> b, das charakteristische
reellen Lösungen λ1 =
√ Polynom hat die beiden verschiedenen
λ
t
2
2
1
−a + a − b und λ2 = −a − a − b, dann sind y1 (t) = e
und y2 (t) = eλ2 t Lösungen. Die
allgemeine Lösung lautet in diesem Fall
y(t) = α eλ1 t + β eλ2 t ,
t ∈ R , α, β ∈ R .
Um das Anfangswertproblem mit y(t0 ) = y0 , y 0 (t0 ) = y1 zu lösen, berechne
!
y(t0 ) = α eλ1 t0 + β eλ2 t0 = y0 ,
!
y 0 (t0 ) = α λ1 eλ1 t0 + β λ2 eλ2 t0 = y1 .
Dieses lineare inhomogene Gleichungssystem für α und β
µ λ t
µ ¶ µ ¶
¶
e 1 0
e λ2 t 0
α
y0
, A=
A
=
β
y1
λ1 eλ1 t0 λ2 eλ2 t0
ist für jedes Paar α, β eindeutig lösbar (siehe 3.4a), denn det A = (λ2 − λ1 ) e(λ1 +λ2 ) t0 6= 0. Das
bestätigt, daß die oben angegebene Familie die allgemeine Lösung ist. Derselbe Schluß ist auch für
den in 13.1e behandelten Fall λ2 = λ1 6= λ1 anwendbar.
00 − 4y 0 + 3y = 0 hat das charakteristische Polynom λ2 − 4 λ + 3 mit Nullstellen
Beispiel: y√
λ1,2 = 2 ± 4 − 3, also λ1 = 3, λ2 = 1. Die allgemeine Lösung ist
y(t) = α e3t + β et ,
t ∈ R , α, β ∈ R .
Das AWP y(0) = 2, y 0 (0) = 3 wird gelöst, wenn α + β = 2 und 3α + β = 3, also α = 1/2, β =
3/2, y(t) = (1/2) e3t + (3/2) et .
13.1d
Fall 2, Entartung
Wenn a2 = b ist λ = −a die entartete einzige Nullstelle des charakteristischen Polynoms mit
Vielfachheit zwei. Außer y1 (t) = e−a t ist auch y2 (t) = t e−a t eine Lösung: y20 (t) = (1 −
a t) e−a t , y200 (t) = (−2a + a2 t) e−a t , erfüllt y200 + 2 a y20 + a2 y2 = 0.
Die zweiparametrige Familie α y1 (t) + β y2 (t), also
y(t) = (α + β t) e−a t ,
t ∈ R , α, β ∈ R ,
ist die allgemeine Lösung der Differentialgleichung, denn auch hier lassen sich für jedes AWP y(t0 ) =
y0 , y 0 (t0 ) = y1 die Koeffizienten α, β eindeutig bestimmen:
α = [ y0 (1 − a t0 ) − t0 y1 ] ea t0 ,
β = (a y0 + y1 ) ea t0 .
13.1e
Fall 3: konjugiert komplexes Nullstellenpaar
√
Mit b − a2 =: ω 2 > 0 ist λ1,2 = −a ± a2 − b = −a ± iω,
eλ1 t = e−a t ei ω t , eλ2 t = e−a t e−i ω t .
Die allgemeine komplexe Lösung der Differentialgleichung ist
y(t) = c1 e−a t ei ω t + c2 e−a t e−i ω t ,
t ∈ R , c1,2 ∈ C.
(Auch in den früheren Fällen wären komplexe Koeffizienten α, β zulässig gewesen.)
Ist man an reellen Lösungen interessiert, so führt die Wahl c2 = c1 auf trigometrische Funktionen
mit der Eulerschen Gleichung (siehe ??)
1
1 iωt
cos (ω t) = (ei ω t + e−i ω t ), sin (ω t) =
(e
− e−i ω t ).
2
2i
Die allgemeine reelle Lösung ist dann
y(t) = e−a t (α cos (ω t) + β sin (ω t) ),
t ∈ R , α, β ∈ R ,
was c1 = (α − i β)/2, c2 = (α + i β)/2 = c1 entspricht.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.2
180
Lineare gedämpfte Schwingungen
Für eine an einer Feder aufgehängte Masse sei y(t) die Auslenkung aus der Ruhelage nach oben. Für
kleine Auslenkungen ist die Rückstellkraft proportional zur Auslenkung (linear in y ) und die Reibung
sei proportional zur Geschwindigkeit y 0 (t). Die Newtonschen Bewegungsgleichungen ergeben in
dieser linearen Näherung (die für kleine Schwingungen sehr gut ist)
y 00 + 2 a y 0 + b y = 0, a ≥ 0, b > 0.
Hierbei beschreibt b > 0 die Rückstellkraft und a ≥ 0 die Stärke der Reibung. Dieselbe Gleichung erhält man für gedämpfte elektrische Schwingkreise und viele andere gedämpfte schwingende
Systeme.
Insbesondere interessiert uns das AWP: y(0) = 1, y 0 (0) = 0, d.h. die ausgelenkt festgehaltene
Masse wird zur Zeit t = 0 losgelassen. Wir beobachten drei verschiedene Bewegungstypen:
13.2a
Schwache Dämpfung
√
√
a2 < b, so daß λ1,2 = −a ± a2 − b = −a ± iω, ω = b − a2 > 0, a > 0:
y(t) = e−a t (α cos (ω t) + β sin (ω t)) ,
das AWP wird für α = 1, β = a/ω gelöst:
³
´
a
y(t) = e−a t cos (ω t) +
sin ω t) ,
ω
t ∈ R, αβ ∈ R,
t ∈ R.
Dies ist eine exponentiell gedämpfte Schwingung.
13.2b
Kritische Dämpfung (aperiodischer Grenzfall)
a2 = b, die allgemeine Lösung ist
y(t) = (α + β t) e−a t ,
t ∈ R , α, β ∈ R ,
y(t) = (1 + a t) e−a t , t ∈ R , löst das AWP.
13.2c
Starke Dämpfung
√
a2 > b, λ1,2 = −a ± a2 − b < 0,
y(t) = α eλ1 t + β eλ2 t ,
y(t) =
t ∈ R , α, β ∈ R, ist die allgemeine Lösung,
−λ2
λ1
e λ1 t +
e λ2 t , t ∈ R
λ1 − λ2
λ1 − λ2
löst das AWP.
Beachte, daß bei fester Rückstellkraft“ b und sehr starker Dämpfung a → ∞ der eine Eigenwert
”
sehr stark negativ wird, ≈ −2a, die zugehörige Lösung immer schneller abfällt. Der andere Eigenwert strebt gegen Null, die dazu gehörige Lösung fällt also immer langsamer ab (in Honig kehrt das
Pendel nur sehr langsam in die Ruhelage zurück).
13.3
Lineare homogene Differentialgleichungen n -ter Ordnung mit
konstanten Koeffizienten
Jetzt sei L ein linearer Differentialoperator n-ter Ordnung und die Differentialgleichung für n-mal
stetig differenzierbare reellwertige Funktionen y laute:
L(y) = y (n) + an−1 y (n−1) + . . . + a2 y 00 + a1 y 0 + a0 y = 0.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
181
Der Exponentialansatz y(t) = eλ t führt (wie in 13.1b) auf das charakteristische Polynom zum Differentialoperator L vom Grad n:
P (λ) = λn + an−1 λn−1 + . . . + a2 λ2 + a1 λ + a0
mit reellen Koeffizienten a0 , . . . , an−1 . Die Nullstellen sind reell, oder sie treten in konjugiert komplexen Paaren λj , λj auf, da für Polynome mit reellen Koeffizienten gilt (6.1b) P (λj ) = 0 ⇔
P ( λj ) = 0. Seien die reellen Nullstellen λ1 , λ2 , . . . mit Vielfachheit r1 , r2 , . . . und die komplexen Paare λj 6= λj , λj+1 6= λj+1 , . . . mit Vielfachheit rj , . . ., dann läßt P sich (nach dem
Fundamentalsatz der Algebra 6.1b) schreiben als
P (λ) = (λ − λ1 )r1 (λ − λ2 )r2 . . . (λ − λj )rj (λ − λj )rj . . . ,
wobei r1 + r2 + . . . + 2rj + . . . = n.
Zu einer reellen Nullstelle λ1 mit Vielfachheit r1 gehören r1 Lösungen
eλ1 t , t eλ1 t , . . . , tr1 −1 eλ1 t .
Zu einem konjugiert komplexen Paar λj = κ + i ω 6= λj = κ − i ω der Vielfachheit rj gehören 2rj
reelle Lösungen
trj −1
eκ t cos (ω t),
..
.
κt
e cos (ω t),
trj −1
eκ t sin (ω t),
..
.
κt
e sin (ω t),
oder (je nach dem, was zweckmäßiger ist) ebenso viele komplexe Lösungen
eλj t , t eλj t , . . . , trj −1 eλj t ,
eλj t , t eλj t , . . . , trj −1 eλj t .
Diese Lösungen zusammen bilden ein Fundamentalsystem“ von insgesamt n unabhängigen Lö”
sungen, die allgemeine Lösung ist die Menge der Linearkombinationen dieser Lösungen. Jedes AWP
mit y(t0 ) = y0 , . . . , y (n−1) (t0 ) = yn−1 wird durch genau eine Linearkombination gelöst ( n Bedingungen, n freie Parameter).
13.4
Lineare inhomogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten und variabler Inhomogenität
Für eine stetige Funktion h : I → R hat die Gleichung die Form
L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = h(t).
Zwei beliebige Lösungen y1,2 unterscheiden sich um eine Lösung der homogenen Gleichung L(y) =
0, denn L(y1 − y2 ) = L(y1 ) − L(y2 ) = h − h = 0. Also gilt wiederum (wie schon in 3.3 und 12.3b
sowie in 13.8d): Sei yp eine (beliebige) partikuläre Lösung der inhomogenen Gleichung, dann gilt:
die allgemeine Lösung der inhomogenen Differentialgleichung ist gleich
yp + die allgemeine Lösung der homogenen Differentialgleichung.
Die Lösungsmenge einer inhomogenen linearen Differentialgleichung bildet einen affinen Raum. Da
die allgemeine Lösung der homogenen Differentialgleichung bekannt ist (wenn wir alle reellen und
komplexen Nullstellen des charakteristischen Polynoms P (λ) kennen), bleibt noch, eine (beliebige)
partikuläre Lösung zu finden.
Wenn y1 und y2 die Differentialgleichung L(y1 ) = h1 , L(y2) = h2 erfüllen, dann löst y =
y1 + y2 die Differentialgleichung L(y) = h1 + h2 , denn L(y1 + y2 ) = L(y1 ) + L(y2 ) = h1 + h2 .
Somit können Inhomogenitäten oft in Summen von einfacheren Ausdrücken aufgespalten werden.
Wenn man eine partikuläre Lösung nicht schon raten kann, gibt es diverse systematische Verfahren zu deren Bestimmung (siehe Formelsammlung, Lehrbücher). Wir besprechen hier die wichtige
Ansatzmethode (13.5) und die Grundlösungsmethode (13.6).
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.5
182
Die Ansatzmethode für lineare inhomogene Differentialgleichungen n-ter Ordnung
Wenn die Inhomogenität h in L(y) = h nur Polynome, Exponentialfunktionen und trigonometrische
Funktionen enthält, dann führt ein gleichartiger Ansatz für yp zum Ziel.
13.5a
Polynomiale Inhomogenitäten
Die Inhomogenität h sei ein Polynom von Grad k. yp kann immer als Polynom vom Grad k + n
angesetzt werden, bei a0 6= 0 genügt der Grad k, bei a0 = 0, a1 6= 0 der Grad k + 1 u.s.w.. Die
Koeffizienten werden durch Einsetzen von yp in die Differentialgleichung bestimmt.
Für die Differentialgleichung y 00 +y 0 = 2t genügt der Ansatz yp (t) = at2 +bt+c. Differentiation
!
und Einsetzen führt auf 2a + 2at + b = 2t. Koeffizientenvergleich ergibt yp (t) = t2 − 2t. Die
allgemeine Lösung dieser DGL. ist y(t) = t2 − 2t + c1 + c2 e−t .
13.5b
Exponentielle und trigonometrische Inhomogenitäten
h(t) = A eµ t , A, µ ∈ C . Falls P (µ) 6= 0 (der nicht resonante Fall“), so ist L(eµ t ) = P (µ) eµ t
”
und daher
yp (t) =
A
eµ t eine partikuläre Lösung.
P (µ)
Im resonanten Fall“ ist P (µ) = 0. Ist µ eine einfache Nullstelle: P (µ) = 0, P 0 (µ) 6= 0, dann ist
”
A
yp (t) = t 0
eµ t eine partikuläre Lösung, entsprechend
P (µ)
yp (t) = tr
A
P (r) (µ)
eµ t , falls µ eine Nullstelle von P der Vielfachheit r ist.
Dies schließt trigonometrische Funktionen mit ein, da mit µ = κ + i ω
1
eκ t cos (ω t) = (eµ t + eµ̄ t ),
2
eκ t sin (ω t) =
1 µt
(e − eµ̄ t ).
2i
Alternativ kann man bei h(t) = eκ t (a cos (ω t) + b sin (ω t)) den reellen Ansatz
tr eκ t (α cos (ω t) + β sin (ω t))
benutzen, falls µ = κ + i ω eine Nullstelle von P der Ordnung r ist. Die Koeffizienten α, β ∈
R werden dann durch Einsetzen in die Differentialgleichung bestimmt. (Auch wenn in h nur eine
trigonometrische Funktion auftritt, muß i.a. im Ansatz sin und cos benutzt werden.)
Im Beispiel y 00 + y 0 = 4 cosh t = 2 et + 2 e−t mit P (λ) = λ2 + λ, P (1) = 2, P (−1) =
0, P 0 (−1) = −1 ist eine partikuläre Lösung yp (t) = et − 2t e−t .
Später in Abschnitt ?? werden wir die Fourierentwicklung benutzen, um den Fall einer periodischen Inhomogenität h auf die hier behandelten trigonometrischen Inhomogenitäten zurückzuführen.
13.5c
Zusätzlicher polynomialer Faktor
Tritt schließlich bei h ein Polynom vom Grad k als Faktor hinzu, so muß auch in yp ein Polynom
vom Grad ≤ k + n als Faktor hinzugefügt werden und die Koeffizienten müssen durch Einsetzen in
die Differentialgleichung bestimmt werden.
Bei allen Anwendungen der Ansatzmethode sind nur (einfache) Differentiationen und Koeffizientenvergleiche durchzuführen, Integrationen sind nicht erforderlich.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.6
183
Die Grundlösungsmethode
Diese Methode zur Lösung der linearen inhomogenen Differentialgleichung L(y) = y (n) + . . . +
a1 y 0 + a0 y = h(t) ist anspruchsvoller als die Ansatzmethode, denn es sind auch Integrationen zu
berechnen. Sie hat aber den Vorteil, bei allgemeinen Inhomogenitäten h immer anwendbar zu sein.
(Bei nicht geschlossen integrierbaren Funktionen muß evt. approximativ mit Computerhilfe integriert
werden.)
13.6a
Grundlösung
Sei L(y) = y (n) + . . . + a0 y = 0 die zugehörige homogene Gleichung und sei G die Lösung des
AWP’s L(G) = 0, G(0) = 0, G0 (0) = 0, . . . , G(n−2) (0) = 0, G(n−1) (0) = 1. Die Lösung G(t)
existiert immer für alle t ∈ R .
Je nach Autor wird diese Funktion G(t) oder häufiger eine der Funktionen von zwei Variablen
e s) = G(t − s) mit Definitionsbereich t ≥ s
G(t,
oder
(
b s) = G(t − s)
G(t,
0
für t ≥ s
für t < s
als Grundlösung oder auch als Fundamentallösung bzw. Greensche Funktion bezeichnet, daher der
Name der Methode.
Beispiel: L(y) = y 00 − 4y 0 + 3y = 0, P (λ) = λ2 − 4λ + 3 = (λ − 1)(λ − 3). Die Funktion
G(t) = (e3t − et )/2, G0 (t) = (3e3t − et )/2 löst das AWP G(0) = 0, G0 (0) = 1.
13.6b
Konstruktion einer partikulären Lösung
Sei I ⊆ R ein Intervall und h : I → R stetig. Sei G wie oben, t0 ∈ I, dann ist für t ∈ I
Z t
yp (t) :=
G(t − s) h(s) ds
t0
eine partikuläre Lösung: L(yp ) = h.
√
√
0 + 3y = h(t) = 4/ 2 cosh 2t = 4/ e2t + e−2t , I = R. Mit G(t − s) =
Beispiel L(y) = y 00 − 4y
¡
¢
(e3(t−s) − e(t−s) )/2 = e3t e−3s − et e−s /2 erhält man
Z
yp (t) = e3t
t0
Z
=e
3t
t
e3s
e2t
e2t0
2 ds
√
− et
2s
−2s
e +e
du
√
− et
2
2
u u +1
Z
Z
e2t
e2t0
t
t0
es
2 ds
√
e2s + e−2s
du
√
u u2 + 1
[u = e2s > 0]
√
n h
i
o ¯e2t
p
− u2 + 1 ¯¯e2t
¯
=e
¯ 2t + et ln 1 + u2 + 1 − ln u ¯ 2t
u
u=e 0
u=e 0
n h
i
o
p
p
= −et e4t + 1 + et ln 1 + e4t + 1 − 2 t + c1 (t0 ) e3t + c2 (t0 ) et
3t
Da et und e3t Lösungen der homogenen Differentialgleichung sind, ist auch
n p
h
i
o
n p
³ p
´o
p
yp = et − e4t + 1 + ln 1 + e4t + 1 − 2t ≡ et − e4t + 1 + artanh 1/ e4t + 1
eine partikuläre Lösung.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.6c
184
Beweisskizze der Lösungseigenschaft
Sei L(y) = y 00 + a1 y 0 + a0 y , L(G) = 0, G(0) = 0, G0 (0) = 1.
Z
t
G(t − s) h(s) ds
yp (t) =
t0
Z
yp0 (t)
= G(t − t) h(t) +
| {z }
=0
yp00 (t)
= G (t − t) h(t) +
| {z }
=1
L(yp ) =
13.6d
+
G0 (t − s) h(s) ds
t0
Z
0
yp00
t
t
G00 (t − s) h(s) ds
t0
Z
a1 yp0
+ a0 yp = h(t) +
t
t0
L(G)(t − s) h(s) ds = h(t).
|
{z
}
=0
Andere Lösungsverfahren
Weitere Lösungsverfahren findet man in Formelsammlungen und Lehrbüchern, z.B. mit der WronskiDeterminanten, mit der Methode der Variation der Konstanten etc.
13.7
Lineare Systeme erster Ordnung
Bisher haben wir nur Differentialgleichungen für reellwertige Funktionen untersucht, nun wenden wir
uns den Differentialgleichungssystemen (meist kürzer: Systemen) für vektorwertige Funktionen y(t)
zu. Die Beschreibung des Zustandes eines Systems kann auf natürliche Weise vektorwertig sein (Ort
und/oder Geschwindigkeit eines Körpers im Raum), sie kann auch als mathematisch zweckmäßige
Umformulierung eines reellwertigen Problems auftreten, siehe 13.7a.
13.7a Übergang von Differentialgleichungen höherer Ordnung zu Systemen 1. Ordnung
Diese Umformung ist für beliebige explizite nichtlineare Differentialgleichungen (oder Systeme)
y (n) = f (t; y, . . . , y (n−1) ) möglich, wir erläutern sie am linearen Beispiel. Betrachte eine lineare inhomogene Differentialgleichung n-ter Ordnung
L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = h(t),
⇐⇒
y (n) = −an−1 y (n−1) − . . . − a1 y 0 − a0 y + h(t),
die Anfangsbedingung für das AWP lautet dann
y(t0 ) = y0 , y 0 (t0 ) = y1 , . . . , y (n−1) (t0 ) = yn−1 .
In diesem Abschnitt 13.7a gebrauchen wir sowohl die reellwertige Funktion y (ohne untere Indizes) als auch die vektorwertige Funktion y (handschriftlich auch ~y ) mit Komponenten y =
(y1 , y2 , . . . , yn )tr nebeneinander, nicht verwechseln! Bilde nun die folgende vektorwertige Funktion y : R → Rn




y(t)
y1 (t)
 y2 (t) 
 0

 :=  y (t)
,
y(t) ≡ 
.
.
 .. 


..
(n−1)
yn (t)
y
(t)
RWTH Aachen


y0

  .. 
y(t0 ) = 
 =  .  =: y0 .
yn−1
y (n−1) (t0 )
y(t0 )
..
.


Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
185
Die reellwertige Funktion y erfüllt L(y) = h(t) genau dann, wenn die vektorwertige Funktion y
das folgende Differentialgleichungssystem 1. Ordnung löst:
 0
 
 

  0
y (t)
y1 (t)
y2 (t)
0
 ..  
 
  .. 
..
..

 
 
  . 
.
.
y0 (t) ≡  .  ≡ 
=
 
+

0
(n−1)
yn−1




  0 
(t)
y
(t)
yn (t)
yn0 (t)
−an−1 yn (t) − . . . − a0 y1 (t)
h(t)
y (n) (t)
= A y(t) + h(t)
mit der folgenden quadratischen Matrix

0
1
0 ... ...
 0
0
1
0 ...
 .

.
A= .
 0
0
... ... ...
−a0 −a1 . . . . . . . . .
A und der vektorwertigen Funktion h :



...
0
0
...
... 
 .. 
 . 
.. 

.
.  , h(t) = 
 0 
0
1 
h(t)
. . . −an−1
Der Anfangsbedingung für y entspricht für y die Bedingung y(t0 ) = y0 .
Analog werden Differentialgleichungen mit zeitabhängigen Koeffizienten und nichtlineare Differentialgleichungen in Systeme erster Ordnung überführt. Ein k-dimensionales System der Ordnung
n wird entsprechend zu einem k · n-dimensionalen System erster Ordnung.
Wichtig: Für die Anwendung eines computergestützten Verfahrens zur (approximativen) Lösung
einer Differentialgleichung höherer Ordnung muß diese oft erst mit diesem Verfahren in ein System
erster Ordnung umgeschrieben werden.
Umgekehrt kann man durch Differentiation der Gleichungen und Elimination von einem k-dimensionalen linearen System n-ter Ordnung auf eine reellwertige Differentialgleichung der Ordnung
k · n (oder niedriger) für jede der Komponenten einzeln kommen, siehe die Entkopplungsmethode in
13.9.
13.7b
Charakteristisches Polynom
Zur linearen Differentialgleichung L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0 ist
P (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0
das in 13.1b und 13.3 definierte charakteristische Polynom der Differentialgleichung. Sei A die oben
eingeführte n × n-Matrix, dann bezeichnet man det (A − λ 1) als das charakteristische Polynom der
Matrix A (siehe 4.2). Es gilt bis auf ein Vorzeichen die Gleichheit:
P (λ) = (−1)n det (A − λ 1) = det(λ1 − A).
Der Vorzeichenwechsel ist unwichtig für die Bestimmung der Nullstellen, der Eigenwerte von A.
Deshalb führt der Gebrauch desselben Namens für zwei zunächst ganz unterschiedlich erscheinende
Objekte nicht zu Konflikten. Wir zeigen die behauptete Gleichheit für niedrige Dimensionen.
µ
¶
0
1
n = 2, A =
,
−a0 −a1
µ
¶
−λ
1
det(A − λ 1) = det
= λ2 + a1 λ + a0 = P (λ) = (−1)2 P (λ);
−a0
−a1 − λ

n = 3,
−λ
1
−λ
det(A − λ 1) = det 0
−a0 −a1

0

1
−a2 − λ
= −λ3 − a2 λ2 − a1 λ − a0 = −P (λ) = (−1)3 P (λ).
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
186
13.8
Die Eigenvektormethode für lineare Systeme erster Ordnung mit konstanten Koeffizienten.
13.8a
Homogene Systeme, Fundamentalsystem
Ein homogenes System erster Ordnung hat die Form
y0 (t) = A y(t), A eine reelle n × n-Matrix.
P
k k
2 2
Die matrixwertige Exponentialfunktion exp{t A} = ∞
k=0 t A /k! = 1 + tA + t A /2 + . . . ist
für alle t ∈ R durch die absolut konvergente Potenzreihe definiert, exp{0 A} = 1 , ganz analog
zur reell- und komplexwertigen, siehe 4.19a. Die zulässige gliedweise Differentiation (6.3e) ergibt
(d/dt) exp{t A} = A exp{t A} . Daher wird das AWP mit der Anfangsbedingung y(0) = y0
gelöst von
y(t) = exp{t A} y0 .
Die Berechnung der Exponentialfunktion einer Matrix ist meist schwierig, wenn A nicht eine spezielle Gestalt hat, etwa eine Diagonalmatrix ist. Besonders einfach ist jedoch die Anwendung auf Eigenvektoren (vgl. auch 4.19b). Wenn v 6= 0 ein Eigenvektor von A zum Eigenwert λ ist: A v = λ v,
dann erfüllt für jedes c ∈ R die vektorwertige Funktion
y(t) = c eλ t v
die Differentialgleichung: y0 (t) = c λ eλ t v = c eλ t A v = A y(t),
y(·) ist also eine Lösung.
Wenn A eine Basis von Eigenvektoren hat, d.h. wenn es n linear unabhängige Vektoren v1 , . . . , vn
gibt mit A vi = λi vi , dann ist
y(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn ,
c1 , c2 , . . . , cn ∈ R ,
die allgemeine Lösung. Diese Lösungen bilden einen n-dimensionalen Vektorraum. Die Lösungen
eλj t vj , j = 1, . . . , n bilden ein Fundamentalsystem, das den Lösungsraum aufspannt. Da die vi
eine Basis bilden, läßt sich auch zu jedem t0 ∈ R und y0 ∈ Rn die Gleichung y(t0 ) = y0 durch
geeignete Wahl der ci eindeutig erfüllen. Für lineare Differentialgleichungen ist jedes AWP eindeutig
lösbar (12.10d).
A hat sicher dann eine Basis von Eigenvektoren (⇐⇒ A ist diagonalisierbar, siehe ??), wenn A
symmetrisch ist, oder wenn alle Eigenwerte (Nullstellen des charakteristischen Polynoms) verschieden sind. Bei Nullstellen höherer Ordnung bilden die Eigenvektoren möglicherweise keine Basis
mehr, dann treten in der allgemeinen Lösung auch polynomiale Anteile und verallgemeinerte Eigenvektoren auf, vgl. 13.1d und 13.3.
13.8b
Beispiele zur Eigenvektormethode
µ
¶
1 3
(i) n = 2, A =
0 2
y0 (t) = Ay(t)
⇐⇒
y10 (t) = y1 (t) + 3y2 (t)
y20 (t) =
2y2 (t)
komponentenweise.
Eigenwerte: λ1 = 1, λ2 = 2, denn A hat (obere) Dreiecksgestalt.
µ ¶
µ ¶
1
1
Oberer Eigenwert λ1 = 1, ein oberer Eigenvektor: v1 =
(oder c1
, c1 6= 0) erfüllt
0
0
A v1 = v1 = λ1 v1 .
µ
¶ µ ¶ µ
¶
−1 3
w1
−w1 + 3w2
!
Eigenwert λ2 = 2: 0 = (A − 21)v2 =
=
⇒ w1 = 3w2 ;
0 0
w2
0
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
187
µ ¶
µ ¶
3
3
, c2 6= 0) ist Eigenvektor zum Eigenwert λ2 = 2.
v2 =
(oder c2
1
1
µ ¶ µ
¶
µ ¶
1
3
c1 et + 3c2 e2t
1·t
2
t
Die allgemeine Lösung ist y(t) = c1 e
+ c2 e
=
,
0
1
c2 e2t
oder komponentenweise:
y1 (t) = c1 et + 3c2 e2t ,
y2 (t) =
c2 e2t .
Betrachte nun das AWP mit folgender Anfangsbedingung:
µ ¶
µ ¶
µ ¶ µ
¶
1 !
1
3
c1 + 3c2
y(0) = y0 =
= c1
+ c2
=
1
0
1
c2
µ
¶
−2et + 3e2t
also
y(t) =
.
e2t
⇒ c2 = 1, c1 = −2,
(ii) Die Differentialgleichung der gedämpften Schwingung 13.2 hat als System 1. Ordnung die Form
µ
¶
0
1
0
y =
y.
−b −2a
Im Spezialfall a = 0, b = ω 2 haben wir in ?? die Eigenwerte ± i ω und Eigenvektoren (∓ i, ω)tr
berechnet. Die allgemeine reelle Lösung ist
µ
¶
µ ¶
µ ¶
c1 sin ωt − c2 cos ωt
−i
i
−iω t
iω t
ce
=
y(t) =
ce +
c1 ω cos ωt + c2 ω sin ωt
ω
ω
mit 2c = c1 − ic2 , c1 , c2 ∈ R .
13.8c
Differentialgleichung für die Komponenten
Wir betrachten eine n × n-Matrix A mit Eigenwerten λ1 , λ2 , . . . , λn , die nicht verschieden zu sein
brauchen. Für diese Matrix ist
(−1)n det(A − λ1) = (λ − λ1 )(λ − λ2 ) . . . (λ − λn )
= P (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 ,
und sei L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y der Differentialausdruck n-ter Ordnung mit
diesem charakteristischen Polynom. Dann ist jede Komponente yj (t) des Systems y0 = A y eine
Lösung der Differentialgleichung n-ter Ordnung
L(yj (t)) = 0, j = 1, . . . , n,
denn jedes yj (t) ist eine Linearkombination von Funktionen eλi t . Die Aussage
L(yj (t)) = 0 bleibt auch richtig für die allgemeinen Lösungen im Falle mehrfacher Nullstellen (als
Folge des Satzes ?? von Cayley-Hamilton).
13.8d
Lineare inhomogene Systeme 1. Ordnung
Sei y0 = A y + h(t), dann ist wiederum (wie in 12.3b und 13.4) die allgemeine Lösung der inhomogenen Gleichung die Summe aus einer beliebigen partikulären Lösung und der allgemeinen Lösung
der homogenen Gleichung y0 = A y.
Eine partikuläre Lösung kann durch Raten oder durch einen Ansatz für jede Komponente bestimmt werden, falls h(t) nur Polynome, trigonometrische und Exponentialfunktionen enthält. Siehe
13.5 für geeignete Ansatzfunktionen.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
188
Wenn die Eigenvektoren vj mit A vj = λj vj eine Basis bilden, dann kann auch
Pn jede Inhomogenität mit Hilfe dieser Basis als Linearkombination dargestellt werden: h(t) = j=1 gj (t) vj .
Damit reduziert sich das System y0 = A y + h(t) zu n reellwertigen linearen inhomogenen Differentialgleichungen erster Ordnung zj0 P
(t) = λj zj (t) + gj (t), die immer gelöst werden können.
Die gesuchte Lösung ist dann y(t) = nj=1 zj (t) vj . Dieses Vorgehen ist zweckmäßig, wenn ein
System für eine feste Matrix A und viele verschiedene Anfangsbedingungen und/oder Inhomogenitäten gelöst werden muß. Die aufwendige Berechnung der Eigenwerte und Eigenvektoren ist dann
nur einmal erforderlich. Siehe 3.8 für ähnliche Überlegungen.
Wenn ein System nur für eine Inhomogenität gelöst werden muß, ist es meist einfacher, zur Differentialgleichung für einzelne Komponenten überzugehen. Zwar wissen wir, daß jede Komponente
L(yj ) = Inhomogenität“ erfüllen muß, doch müssen wir auch die Inhomogenität explizit bestimmen.
”
Dies geschieht z.B. mit der Entkopplungsmethode.
13.9
Entkopplungsmethode für Systeme linearer Differentialgleichungen
Das Verfahren ist für inhomogene Systeme beliebiger Dimension k und Ordnung n geeignet, man
erhält Differentialgleichungen für die Komponenten mit einer Ordnung ≤ k ·n, evt. mehrere inhomogene Gleichungen. Homogene Gleichungen sind als Spezialfall enthalten. Wir erläutern das Verfahren
an typischen Beispielen.
13.9a
Homogener Teil in Dreiecksgestalt
µ
¶
µ
¶
µ ¶
µ
¶
µ
¶
1 2
0
0
1 2
0
t
y =
y+
= Ay +
e,
A=
, h(t) =
.
0 6
15 et
15
0 6
15 et
Bei diesem besonders einfachen Beispiel hat die Matrix A (obere) Dreiecksgestalt mit den Eigenwerten 1 und 6 auf der Diagonale. Komponentenweise geschrieben erhalten wir
0
y10 = y1 + 2y2 ,
y20 =
6y2
+15 et .
Die Differentialgleichung für y2 ist von y1 bereits entkoppelt, wir können sie mit der Lösungsformel
aus 12.3 oder einfacher mit der Ansatzmethode lösen: P (λ) = λ − 6, P (1) = −5. Sie hat die
allgemeine Lösung
y2 (t) = c2 e6t − 3 et , c2 ∈ R .
Setzen wir diese Lösung in die Differentialgleichung für y1 ein, so erhalten wir wiederum eine entkoppelte (inhomogene) Differentialgleichung für y1
y10 = y1 + 2c2 e6t − 6 et
mit der allgemeinen Lösung (Ansatzmethode, P (λ) = λ − 1, P (6) = 5, P (1) = 0, P 0 (1) = 1 )
2
y1 (t) = c1 et + c2 e6t − 6t et .
5
Die vektoriell geschriebene Lösung lautet
µ ¶
µ ¶
µ ¶
1
2/5
6t t
t
6t
y(t) =
c1 e +
c2 e −
e , c1 , c2 ∈ R .
0
1
3
Die ersten zwei Vektoren, die zur Lösung des homogenen Systems gehören, sind Eigenvektoren von
A zu den Eigenwerten 1 und 6, das kann zur Rechenkontrolle dienen. Beachte, daß sogar bei einer
homogenen Ausgangsgleichung für eine der Komponenten (hier für y1 ) in den Zwischenschritten
inhomogene Differentialgleichungen entstehen können.
Ist ein AWP zu lösen, so werden in den einzelnen Schritten die Konstanten bereits festgelegt.
In diesem einfachsten Fall der Dreiecksgestalt erhält man bei Dimension k des Systems erster
Ordnung genau k Differentialgleichungen 1. Ordnung ( Summe k“).
”
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
13.9b
189
Allgemeines inhomogenes System 1. Ordnung
Wir betrachten das dreidimensionale System (der Parameter α wird später gewählt)






4 −1 1
t3
4 −1 1
1
0 y + 3t2 − t3  ,
1
0 ,
y0 = −2
A = −2
−4
0 α
0
−4
0 α
oder komponentenweise
1
y10 =
2
y20 = −2y1 + y2
3
y30 = −4y1
4y1 − y2 +
y3 + t3 ,
+ 3t2 − t3 ,
+ α y3 .
Differentiation einer Gleichung (hier
1
) ergibt
y100 = 4y10 − y20 + y30 + 3t2 .
Die Ableitungen der in einer Differentialgleichung für y1 fremden“ Funktionen, y20 und y30 , werden
”
mit den Differentialgleichungen 2 und 3 eliminiert:
h
i h
i
y100 = 4y10 − −2y1 + y2 + 3t2 − t3 + −4y1 + α y3 + 3t2
= 4y10 − 2y1 − y2 + α y3 + t3 .
Mit der Differentialgleichung 1 kann −y2 durch y1 , y10 und y3 ausgedrückt werden, um damit
eine Variable, nämlich y2 , aus der Differentialgleichung für y1 zu eliminieren:
h
i
y100 = 4y10 − 2y1 + y10 − 4y1 − y3 − t3 + α y3 + t3
= 5y10 − 6y1 + (α − 1) y3 .
Für den späteren Rückbezug notieren wir diese Differentialgleichung in zwei äquivalenten Formen:
4
y100 = 5y10 − 6y1 + (α − 1) y3
⇐⇒
(α − 1) y3 = y100 − 5y10 + 6y1 .
Ab jetzt behandeln wir die beiden speziellen Werte α = 1 und α = −2 getrennt weiter. Im Fall
α = 1 ist die Differentialgleichung 4 zweiter Ordnung für y1 auch von y3 bereits entkoppelt:
y100 − 5y10 + 6y1 = 0,
mit P (λ) = λ2 − 5 λ + 6 = (λ − 2)(λ − 3) ist die allgemeine Lösung
y1 (t) = c1 e2t + c2 e3t ,
Setzt man diese Lösung in
2
c1 , c2 ∈ R .
ein, erhält man
2
y20 − y2 = −2y1 + 3t2 − t3
= −2c1 e2t − 2c2 e3t + 3t2 − t3 .
Durch Ansatz und Koeffizientenvergleich bestimmt man t3 als Anteil zur partikulären Lösung, der
den polynomialen Anteil der Inhomogenität liefert. Mit P (λ) = λ − 1, P (2) = 1, P (3) = 2, ist die
allgemeine Lösung
y2 (t) = c3 et − 2c1 e2t − c2 e3t + t3 .
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
190
Wir haben Lösungen mit drei freien Parametern gefunden. Wir brauchen nun keine Differentialgleichung mehr zu lösen, sondern nur noch einzusetzen. Die noch fehlende Komponente y3 kann aus der
Differentialgleichung 1 berechnet werden:
1
y3 (t) = y10 − 4y1 + y2 − t3
h
i
h
i h
i
= 2c1 e2t + 3c2 e3t − 4 c1 e2t + c2 e3t + c3 et − 2c1 e2t − c2 e3t + t3 − t3
= c3 et − 4c1 e2t − 2c2 e3t .
Vektoriell geschrieben lautet die Lösung
 
 
 
 
1
1
0
0
y(t) = −2 c1 e2t + −1 c2 e3t + 1 c3 et + t3  ,
−4
−2
1
0
c1 , c2 , c3 ∈ R .
Als Rechenkontrolle bestätigt man, daß die ersten drei Vektoren Eigenvektoren der Matrix A (mit
α = 1) zu den Eigenwerten 2, 3 und 1 sind. In diesem Fall war anstelle eines dreidimensionalen
Systems erster Ordnung nach Entkoppeln eine Differentialgleichung zweiter Ordnung und eine Differentialgleichung erster Ordnung zu lösen ( Summe 3“).
”
Nun betrachten wir den Fall mit α = −2. Dann ist 4 noch nicht entkoppelt. Wir differenzieren
noch einmal und eliminieren wieder die fremden“ Variablen:
”
000
00
0
4
=⇒ y1 = 5y1 − 6y1 − 3y3 0
h
i
3
= 5y1 00 − 6y1 0 − 3 −4y1 − 2y3
= 5y1 00 − 6y1 0 + 12y1 − 2 [−3y3 ]
h
i
4
= 5y1 00 − 6y1 0 + 12y1 − 2 y1 00 − 5y1 0 + 6y1
= 3y1 00 + 4y1 0 .
Mit P (λ) = λ3 − 3λ2 − 4λ = λ(λ + 1)(λ − 4) ergibt sich die allgemeine Lösung
y1 (t) = c1 + c2 e−t + c3 e4t .
Diesmal erhielten wir eine Differentialgleichung dritter Ordnung ( Summe 3“), deren allgemeine
”
Lösung die nötigen drei freien Konstanten enthält. Wir können y3 aus Gleichung 4 durch Einsetzen
von y1 und deren Ableitungen berechnen:
4
y3 (t) = −(1/3){y1 00 − 5y1 0 + 6y1 }
= −2 c1 − 4 c2 e−t − (2/3)c3 e4t .
Schließlich berechnen wir y2 aus
1
durch Einsetzen:
1
y2 (t) = 4y1 − y1 0 + y3 + t3
= 2 c1 + c2 e−t − (2/3)c3 e4t + t3 .
In vektorieller Schreibweise ist die Lösung

 

 
 
0
1
1
1
y(t) =  2  c1 +  1  c2 e−t + −2/3 c3 e4t + t3  ,
0
−2/3
−4
−2
RWTH Aachen
c1 , c2 , c3 ∈ R .
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
191
Die ersten drei Vektoren, die zur Lösung des homogenen Systems gehören, sind Eigenvektoren der
Matrix A (mit α = −2) zu den Eigenwerten 0, −1 und 4.
Sei allgemein ein k-dimensionales System 1. Ordnung gegeben, so differenziere man eine Differentialgleichung, z.B. die erste, sodann eliminiere man die Ableitungen der fremden“ Komponenten.
”
Reduziere möglichst die Zahl der fremden nicht differenzierten Funktionen, indem sie mit der ersten Differentialgleichung durch die gesuchte erste Komponente und deren Ableitungen ausgedrückt
(k)
werden. Wiederhole das Verfahren, spätestens die Gleichung mit y1 braucht keine anderen Komponenten von y mehr zu erhalten.
13.9c
Ein System zweiter Ordnung
Wir betrachten das zweidimensionale System 2. Ordnung
1
y1 00 = 2y1 0 − y2 0 + y1 + y2 + h1 (t),
2
y2 00 = y1 0 − y2 .
Man kann es äquivalent umschreiben in ein vierdimensionales System 1. Ordnung (s.u.) oder in eine
Differentialgleichung für eine Komponente von höchstens 4. Ordnung.
Das Verfahren ist wie oben, eine Gleichung wird ausgewählt und einmal differenziert, sodann wird
möglichst die fremde“ Funktion eliminiert, beginnend mit deren höchster Ableitung.
”
Wir wählen als Beispiel die zweite (kürzere) Gleichung 2 und suchen eine Differentialgleichung
für y2 alleine.
2
=⇒ y2 000 = y1 00 − y2 0
i
1 h
= 2y1 0 − y2 0 + y1 + y2 + h1 (t) − y20
= 2y1 0 − 2y2 0 + y1 + y2 + h1 (t)
i
2 h
= 2 y2 00 + y2 − 2y2 0 + y1 + y2 + h1 (t)
= 2y2 00 − 2y2 0 + 3y2 + y1 + h1 (t).
Im ersten und dritten Schritt haben wir jeweils die Differentialgleichung benutzt, um die höchste
Ableitung der fremden“ Funktion y1 durch y2 und deren Ableitungen sowie niedrigere Ableitungen
”
von y1 zu ersetzen. Wir notieren diese letzte Gleichung noch einmal in der nach y1 aufgelösten Form
3
y1 = y2 000 − 2y2 00 + 2y2 0 − 3y2 − h1 (t).
Da die Differentialgleichung für y2 noch nicht von y1 entkoppelt ist, differenzieren wir erneut:
y2 0000 = 2y2 000 − 2y2 00 + 3y2 0 + y1 0 + h1 0 (t)
h
i
2
= 2y2 000 − 2y2 00 + 3y2 0 + y2 00 + y2 + h1 0 (t) = 2y2 000 − y2 00 + 3y2 0 + y2 + h1 0 (t).
Also lautet die entkoppelte Differentialgleichung 4. Ordnung ( Summe 4“)
”
4
y2 0000 − 2y2 000 + y200 − 3y2 0 − y2 = L(y2 ) = h1 0 (t).
Das charakteristische Polynom ist P (λ) = λ4 − 2λ3 + λ2 − 3λ − 1. Eine partikuläre Lösung ist
für gegebenes h1 z.B. mit der Ansatzmethode oder der Grundlösungsmethode zu bestimmen. Aus
der allgemeinen Lösung von 4 (bzw. der Lösung eines AWP) ist mit 3 die Komponente y1 zu
bestimmen.
RWTH Aachen
Mathematik I+II
13
Lineare Differentialgleichungen und Systeme
192
Zur Kontrolle der Koeffizienten in L(y2 ) kann folgende unabhängige Rechnung zur Bestimmung
des charakteristischen Polynoms dienen.
Überführung in ein vierdimensionales System 1. Ordnung:
  

 0  
  
z1
y1 (t)
y1 (t)
z3
0
0 (t) 
z2   y2 (t) 





y
z
4
0
 

 2
 
 0
z(t) = 
z3  = y1 0 (t), z (t) = y1 00 (t) = 2z3 − z4 + z1 + z2  + h1 ,
z4
y2 0 (t)
y2 00 (t)
z3 − z2
0


0 0 1 0
0 0 0 1 

also z0 (t) = A z(t) + h(t) mit A = 
1 1 2 −1.
0 −1 1 0


−λ 0
1
0
 0 −λ
0
1 

det(A − λ 1) = det 
 1
1 2 − λ −1 
0 −1
1
−λ




−λ
0
1
0 −λ 1
= (−λ) · det  1 2 − λ −1  + 1 · det 1 1 −1 
−1
1
−λ
0 −1 −λ
= +λ4 − 2 λ3 − λ − 2λ + λ2 + λ2 − 1 − λ2 = λ4 − 2λ3 + λ2 − 3λ − 1.
Das charakteristische Polynom P (λ) = λ4 − 2λ3 + λ2 − 3λ − 1 hat vier verschiedene Nullstellen,
zwei reelle und zwei komplexe, mit
λ1 ≈ −0, 29; λ2 ≈ 2, 24; λ3,4 = κ ± iω; κ ≈ 0, 024; ω ≈ 1, 25.
Da die Eigenwerte λi keine einfachen Zahlen sind, wäre ein direktes Einsetzen der Lösungen in die
Differentialgleichung zur Probe nur bedingt aussagekräftig: das schnelle Anwachsen der Exponentialfunktion für positive Argumente verstärkt auch sehr kleine Rundungsfehler, wohingegen die sehr
kleinen Werte der Exponentialfunktion für negative Argumente auch tatsächliche Fehler unterdrücken
können.
Für die konkrete Inhomogenität h1 (t) = 2 − 4t, h1 0 (t) = −4, ist y2,p (t) = 4 eine partikuläre
Lösung. Die allgemeine Lösung y2 ist damit
y2 (t) = c1 eλ1 t + c2 eλ2 t + c3 eκ t cos(ω t) + c4 eκ t sin(ω t) + 4,
Aus
3
c1 , . . . , c4 ∈ R .
erhält man für y1
y1 (t) = (λ1 3 − 2λ1 2 + 2λ1 − 3) c1 eλ1 t + (λ2 3 − 2λ2 2 + 2λ2 − 3) c2 eλ2 t
|
{z
}
|
{z
}
≈−3,76
≈2,69
κt
κt
+ {a c3 + b c4 } e cos ωt + {a c4 − b c3 } e sin ωt
+ 4t − 14,
wobei
£
¤
a = Re (κ + iω)3 − 2(κ + iω)2 + 2(κ + iω) − 3
= κ3 − 3κω 2 − 2κ2 + 2ω 2 + 2κ − 3 ≈ 0, 039 ,
£
¤
b = Im (κ + iω)3 − 2(κ + iω)2 + 2(κ + iω) − 3
= 3κ2 ω − ω 3 − 4ωκ + 2ω ≈ 0, 44 .
RWTH Aachen
Mathematik I+II
14
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
193
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
In diesem Kapitel behandeln wir einige weitere Typen geschlossen lösbarer Differentialgleichungen
sowie Approximationsverfahren, um in den vorherrschenden Fällen – die Differentialgleichung ist
nicht geschlossen lösbar – einen analytischen Ausdruck für eine Näherungslösung zu bestimmen. Alternativ kann man die zahlreichen Simulationsprogramme benutzen, die numerische Näherungslösungen berechnen und ggf. graphisch anzeigen. Auf die ausgefeilten Algorithmen, die in guten Programmen eingesetzt werden, können wir hier nicht eingehen.
14.1
Beispiel für nicht eindeutige Lösungen des AWP
p
Betrachte y 0 = 2 |y| , eine Differentialgleichung, die zugleich separabel, autonom und eine Bernoullische Differentialgleichung (für y ≥ 0 bzw. y ≤ 0, p = 1/2) ist. Ähnliche Phänomene können
bei Bernoullischen
mit 0 < p < 1 an Nullstellen von y auftreten. Das VektorpDifferentialgleichungen
2
für y 6= 0,pjedoch bei
feld f (t; y) = 2 |y|, D = R , ist überall stetig sowie
p stetig differenzierbar
p
y = 0 nicht Lipschitz-stetig: |f (t; y) − f (t; 0)| = 2 |y| = (2/ |y| ) |y − 0|. Da 2/ |y| → ∞
für |y| → 0 kann es keine Lipschitzkonstante L geben, so daß |f (t; y) − f (t; 0)| ≤ L |y − 0|.
Tatsächlich geht bei y = 0 auch die Eindeutigkeit verloren:
y0 (t) ≡ 0 ist eine Lösung,
(
(t − τ )2 , t ≥ τ,
yτ (t) =
ist eine Lösung für jedes τ ∈ R ,
0,
t < τ,
(
−(t − σ)2 , t ≤ σ,
yσ (t) =
ist eine Lösung für jedes σ ∈ R , sogar
0,
t > σ,

2

−(t − σ) für t < σ
yστ (t) = 0
für σ ≤ t ≤ τ


2
(t − τ )
für t > τ
ist für jedes σ ≤ τ eine Lösung. Sei t0 ∈ R, dann sind z.B. y0 (t) ≡ 0 und alle yστ (t), σ ≤ t0 , τ ≥
t0 , Lösungen des AWP mit y(t0 ) = 0.
14.2
Substitution, Rückführung auf eine einfachere Differentialgleichung
Die Differentialgleichung
y
y 0 = − + 2 coth(t y)
t
⇐⇒
(t y 0 + y) = 2t coth(t y),
t 6= 0, y 6= 0
kann durch Substitution z(t) := t y(t) mit z 0 = t y 0 + y wesentlich vereinfacht werden, hier zu der
separablen Differentialgleichung
z 0 (t) = 2t coth(z), t 6= 0, z 6= 0 .
Die Lösungen sind jeweils auf einen Quadranten in der t, y– bzw. t, z–Ebene beschränkt. Betrachte
das Anfangswertproblem t0 = −1, y(−1) = 2 (II. Quadrant), das bedeutet z(−1) = −2 (III.
Quadrant).
1/h(z) = 1/ coth(z) = tanh(z) = sinh(z)/ cosh(z) hat eine Stammfunktion
F (z) = ln[cosh(z)]. Mit G(t) = t2 , G(t) − G(−1) = t2 − 1 und F (z0 ) = ln[cosh(z0 )] =
ln[cosh(−2)] ≈ 1, 3 ergibt sich
F (z(t)) = F (z0 ) + G(t) − G(t0 ) = ln[cosh(z(t))] = F (z0 ) + t2 − 1 > 0.
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
194
cosh(z(t)) = exp[ F (z0 ) + t2 − 1 ] > 1,
©
ª
z(t) = − arcosh exp[ F (z0 ) + t2 − 1 ] , t < 0.
Die beiden Funktionen ± arcosh sind Umkehrfunktionen von cosh für positive bzw. negative Argumente, das negative Vorzeichen muß hier gewählt werden, damit z(t0 ) = z(−1) = − arcosh{exp(F (z0 ))} =
−2 < 0 gilt. Die Lösung des Anfangswertproblems lautet also
y(t) =
14.3
©
ª
−1
arcosh exp[ F (z0 ) + t2 − 1 ] ,
t
F (z0 ) = ln[cosh(−2)], t < 0.
Autonome nichtlineare Differentialgleichungen 2. Ordnung
Autonome Differentialgleichungen hängen von der unabhängigen Variablen (bei uns t) nicht explizit ab, die Differentialgleichung 2. Ordnung hat die Form F (y, y 0 , y 00 ) = 0. Mit dem Ansatz
y 0 (t) = p(y(t)) kann die Differentialgleichung in eine Differentialgleichung 1. Ordnung für p
überführt werden:
y 00 (t) = p0 (y(t)) · y 0 (t) = p0 (y(t)) · p(y(t).
Um die Funktion p zu bestimmen, betrachten wir zunächst y als unabhängige Variable und nennen
sie u (um Verwechslungen zu vermeiden). Mit den Ersetzungen
y 0 → p = p(u),
y → u,
y 00 = p p0 = p(u) · p0 (u),
erhalten wir eine Differentialgleichung 1. Ordnung F (u, p, p · p0 ) = 0. Wenn daraus p bestimmt
worden ist, so erhält man mit
y 0 = p(y)
eine autonome separable Differentialgleichung 1. Ordnung für y. Anstelle einer Differentialgleichung
2. Ordnung sind zwei Differentialgleichungen 1. Ordnung zu lösen, was i.a. einfacher ist.
Bei autonomen Differentialgleichungen n-ter Ordnung führt derselbe Ansatz auf eine autonome
Differentialgleichung ( n − 1)-ter Ordnung u.s.w., siehe Formelsammlung.
Beispiel
(
y 00 = 2 (1 + y) y 0
(unabh. von t ! )
AWP
0
y(0) = 1, y (0) = 4.
[ Ein einfaches Beispiel zur Demonstration der Methode, es wäre auch anders leicht zu lösen. wie ? ]
1) Bestimme die Differentialgleichung 1. Ordnung für p(u): y → u, y 0 → p, y 00 → p p0 führt auf
p p0 = 2 (1+u) p. p ≡ 0 löst diese Differentialgleichung, aber nicht das AWP, denn p = y 0 , y 0 (0) =
4. Betrachte daher p 6= 0. Division der Differentialgleichung durch p ergibt p0 = 2(1 + u) mit der
allgemeinen Lösung p(u) = const + 2u + u2 .
2) Die Anfangsbedingungen für y: y(0) = 1, y 0 (0) = 4 = p(y(0)) = p(1) ergeben also als Anfangsbedingung für p: p(1) = 4, was auf die eindeutige Lösung p(u) = 1 + 2u + u2 = (1 + u)2
führt.
3) Die Rückübersetzung p → y 0 , u → y ergibt y 0 = (y + 1)2 als neue separable Differentialgleichung 1. Ordnung für y.
4) Mit der Trennung der Variablen lösen wir:
Z
Z
dy
1
=
1 dt ⇐⇒ −
= t + c, c ∈ R
2
(y + 1)
y+1
⇐⇒
y(t) + 1 =
RWTH Aachen
−1
, t 6= −c.
t+c
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
195
Die Anfangsbedingung y(0) = 1 führt auf c = − 21 , also ist die gesuchte Lösung des Anfangswertproblems
y(t) =
14.4
−1
1 + 2t
−1=
,
t − 1/2
1 − 2t
t<
1
.
2
Potenzreihenansatz, Legendresche Differentialgleichung
Als erstes Beispiel eines Näherungsverfahrens zur Bestimmung einer approximativen Lösungsformel
geben wir ein Verfahren an, bei dem wir eine Potenzreihe für die gesuchte Lösung bestimmen.
14.4a
Der Ansatz
Die meisten Differentialgleichungen lassen sich nicht durch bekannte Funktionen geschlossen lösen,
oder es gibt keine allgemeinen Verfahren, um die vielleicht durch bekannte Funktionen ausdrückbaren Lösungen zu finden. Eine Näherungslösung, die i.a. gut ist für kurze Zeiten“, d.h. bei einer
”
Anfangszeit t0 für kleine t − t0 , wird durch den Potenzreihenansatz bestimmt. Für t0 = 0 lautet
dieser:
y(t) = y0 + y1 t + y2 t2 + . . . + yk tk
y 0 (t) =
+ ...
y1 + 2 y2 t + . . . + k yk tk−1 + . . .
Für t0 6= 0 ersetze t durch (t − t0 ). Einsetzen in die Differentialgleichung und Ordnen nach Potenzen von t erlaubt einen Koeffizientenvergleich, um y0 , y1 , y2 , . . . iterativ zu berechnen. Wir
erläutern das Vorgehen am Beispiel der Exponentialfunktion (wo wir die Näherung mit der bekannten exakten Lösung vergleichen können) sowie an der Legendreschen Differentialgleichung (14.4c),
deren Lösungen keine elementaren Funktionen sind.
Meist begnügt man sich anstelle der Potenzreihe mit den ersten Summanden, mit einem Polynom
y(t) = y0 + y1 t + y2 t2 + . . . + yr tr als Näherungslösung, für die man mitunter sogar Fehlerabschätzungen angeben kann. Dank Symmetrien treten oft überhaupt nur Koeffizienten mit geraden
oder ungeraden Indizes auf.
14.4b
Zur Exponentialfunktion
Das Anfangswertproblem y 0 = y, y(0) = y0 = 1 hat bekanntlich die Exponentialfunktion als
eindeutige Lösung, wie wir schon in Abschnitt ?? zeigten. Wir behandeln diese Aufgabe nochmals,
jetzt mit dem Potenzreihenansatz, um die Methode zunächst an einem besonders einfachen Beispiel
zu erläutern.
y(t) = y0 + y1 t + y2 t2 + . . . + (k − 1) yk−1 tk−1 + yk tk
y 0 (t) =
+ ...
+ k yk tk−1 + . . .
y1 + 2 y2 t + . . .
Gleichsetzen der Koeffizienten vor jeweils derselben Potenz von t ergibt
y1 = y0 , 2y2 = y1 , . . . , kyk = yk−1 , . . .
Diese Rekursion wird gelöst von
y1 =
1
1
1
y0 , y2 = y1 =
y0 ,
1
2
2·1
...
yk =
1
1
1
yk−1 =
y0 = y0 .
k
k · (k − 1) · . . . · 2 · 1
k!
Wir haben aus
y 0 = y für die Lösung die Reihe für die Exponentialfunktion
P∞der Differentialgleichung
y(t) = y0 k=0 tk /k! hergeleitet, von der wir wissen, daß sie für alle t ∈ R (und auch t ∈ C )
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
196
absolut konvergent ist, siehe 10.4. Der Anfangswert y0 kann beliebig reell oder komplex gewählt
werden, die spezielle Wahl y0 = 1 legt y(t) = et eindeutig fest.
In Abschnitt 10.4 hatten wir die Exponentialfunktion durch ihre Reihendarstellung definiert. Wir
haben jetzt gezeigt, daß man die relle Exponentialfunktion ebenso definieren kann als die eindeutige
stetig differenzierbare Funktion, die das AWP y 0 = y, y(0) = 1 erfüllt. Analog erhält man die
Potenzreihen der trigonometrischen und hyperbolischen Funktionen als Lösungen der Anfangswertprobleme y 00 = ±y, mit y(0) = 1, y 0 (0) = 0 oder mit y(0) = 0, y 0 (0) = 1.
14.4c
Legendresche Differentialgleichung (Spezialfälle)
Die Legendresche Differentialgleichung lautet L(y) = (1 + t2 ) y 00 − 2t y 0 + α(α + 1) y = 0, |t| < 1
mit der Anfangsbedingung y(0) = y0 , y 0 (0) = y1 . Spezielle Werte des Parameters α ∈ R werden
später gewählt. Wir setzen die Lösung als Potenzreihe um t0 = 0 an.
y(t) =
∞
X
yj tj ,
y 0 (t) =
j=0
∞
X
j yj tj−1 ,
y 00 (t) =
j=0
(1 − t2 )y 00 (t) =
=
∞
X
j=2
∞
X
∞
X
j(j − 1) yj tj−2 ,
j=2
j(j − 1) yj (tj−2 − tj )
h
i
(k + 2)(k + 1) yk+2 − k(k − 1) yk tk ,
k=0
−2t y 0 (t) =
∞
X
−2k yk tk ,
k=0
α (α + 1) y (t) =
∞
X
α (α + 1) yk tk .
k=0
∞ n
o
X
!
L(y) =
(k + 2)(k + 1) yk+2 −k(k − 1) yk − 2k yk +α (α + 1) yk tk = 0.
|
{z
}
k=0
= −k(k + 1) yk
Der Koeffizientenvergleich {. . .} = 0 ergibt die folgende Rekursion:
yk+2 =
³
´
1
k(k + 1) − α(α + 1) yk ,
(k + 1)(k + 2)
k ∈ N0 .
Beobachtungen: Die Rekursion verbindet die Koeffizienten der Potenzreihe in Zweierschritten: y0 →
y2 → y4 → . . . und y1 → y3 → y5 → . . . , insbesondere gilt:
yj = 0 =⇒ yj+2` = 0
für alle ` ∈ N .
Die spezielle Wahl der Anfangsbedingung
y(0) = y0 6= 0, y 0 (0) = y1 = 0 =⇒ y2`+1 = 0
für alle ` ∈ N ,
und die Parameterwahl α = 2j, j ∈ N , als positive gerade Zahl führt auf
y2j+2 =
RWTH Aachen
³
´
1
(2j)(2j + 1) − (2j)(2j + 1) y2j = 0,
(j + 1)(j + 2)
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
197
Also sind die Lösungen der Legendreschen Differentialgleichung mit positiv geradzahligem Parameter α = 2j und Anfangsbedingung y(0) 6= 0, y 0 (0) = 0 gerade Polynome vom Grad 2j. Entsprechend sind die Lösungen bei α = 2j + 1, y(0) = 0, y 0 (0) 6= 0 ungerade Polynome vom Grad
2j +1. Diese Legendre Polynome“ P` treten oft bei der Winkelabhängigkeit rotationssymmetrischer
”
3-dimensionaler Probleme auf:
P` (cos ϑ),
` ∈ N , ϑ der Polarwinkel in Kugelkoordinaten.
Bei α ∈ N und einigen rationalen α sowie bei anderen Anfangsbedingungen erhält man Potenzreihen mit Konvergenzradius 1 (siehe 10.8a).
14.5
Integralgleichung zum Anfangswertproblem, die Picard-Iteration
Die meisten in den Anwendungen auftretenden realistischen Differentialgleichungen sind nicht geschlossen lösbar. Sie können oft durch geschlossen lösbare Differentialgleichungen approximiert werden, deshalb ist es wichtig, diese Typen von Differentialgleichungen zu erkennen und Methoden zu
ihrer Lösung zu beherrschen. In einem nächsten Schritt behandelt man die Abweichung des vollen
Problems von dem vereinfachten als kleine“ Störung, die sodann approximativ behandelt wird. Als
”
ein solches Verfahren haben wir in 14.4 den Potenzreihenansatz behandelt. Im Einzelfall kann es
sehr schwierig sein, die Konvergenz der Reihe sicherzustellen. Rechnerisch etwas aufwendiger ist
die Picard-Iteration (14.5b), sie hat jedoch den Vorteil, daß die Konvergenz sichergestellt ist und eine
Fehlerschranke angegeben werden kann. Beide Verfahren liefern i.A. nur für kurze Zeiten gute Resultate. Die Theorie der Dynamischen Systeme stellt Methoden zur Analyse des Langzeitverhaltens der
mathematisch modellierten Systeme bereit, sie wird im Rahmen dieser Vorlesung nicht behandelt.
14.5a
Die äquivalente Integralgleichung zum Anfangswertproblem
Wir erläutern das Verfahren der Picard-Iteration für eine Differentialgleichung 1. Ordnung für eine
reellwertige Funktion y, es überträgt sich fast wörtlich auf Systeme 1. Ordnung und damit (nach
13.7a) auf beliebige gewöhnliche Differentialgleichungen. Betrachte das Anfangswertproblem
y 0 = f (t; y),
y(t0 ) = y0
für ein stetiges Vektorfeld f . Dieses AWP ist äquivalent zu folgender Integralgleichung für die gesuchte stetig differenzierbare
Funktion y, die nach dem Hauptsatz der Differential- und IntegralrechRt
nung y(t) = y0 + t0 y 0 (s) ds erfüllt:
Z
y(t) = y0 +
t
f (s; y(s)) ds.
t0
Jede stetige Lösung y der Integralgleichung ist automatisch differenzierbar und erfüllt die Differentialgleichung und die Anfangsbedingung. Andererseits liefert mit dem Hauptsatz eine Integration
der Differentialgleichung die Integralgleichung mit Festlegung der Integrationskonstanten durch die
Anfangsbedingung.
Der Vorteil der Integralgleichung gegenüber der Differentialgleichung liegt darin, daß die Integration unempfindlicher gegenüber Störungen ist als die Differentiation. Die Integralgleichung eignet
sich daher besser für Iterationsverfahren zur Approximation einer Lösung.
14.5b
Die Picard-Iteration
Da in diesem Abschnitt zur Vereinfachung der Schreibweise nur reellwertige Funktionen y auftreten
und keine Vektorkomponenten, werden wir ab jetzt untere Indizes an y benutzen, um auf einfache
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
198
Weise die Elemente einer Folge von Funktionen zu bezeichnen. Mit Hilfe der Integralgleichung definieren wir eine Funktionenfolge yk , die gegen die gesuchte Funktion konvergiert. Sei
Z t
y0 (t) ≡ y0 ,
y1 (t) = y0 +
f (s; y0 (s)) ds , . . .
t0
Z
yk+1 (t) = y0 +
t
t0
f (s; yk (s)) ds , . . .
In jedem Schritt wird die neue Funktion aus der zuvor schon bestimmten berechnet. Es brauchen keine Integralgleichungen gelöst zu werden, sondern es müssen nur Integrale berechnet werden, notfalls
numerisch mit Computerhilfe. Wenn die Funktionenfolge gegen eine stetige Funktion y konvergiert,
dann kann man auf beiden Seiten der Iterationsgleichung den Grenzwert k → ∞ ausführen. Das
zeigt, daß die Grenzfunktion y die Integralgleichung löst. Bevor wir die Konvergenz überprüfen illustrieren wir mit zwei einfachen Beispielen, in denen wir die Lösung kennen, wie diese approximiert
wird. Alle Approximationen erfüllen yk (t0 ) = y0 exakt.
14.5c
Beispiele zur Picard-Iteration
(i)
y 0 = f (y) = y,
y(0) = 1.
Das Vektorfeld ist Lipschitz-stetig mit L = 1 für alle y: |f (y1 ) − f (y2 )| = |y1 − y2 |. Die bekannte
Lösung ist
y(t) = et =
∞
X
t2 t3
tk
= 1 + t + + + ...
k!
2
6
k=0
Z
y0 (t) ≡ 1,
y1 (t) = 1 +
Z
y2 (t) = 1 +
t
1 ds = 1 + t,
0
t
y1 (s)ds = 1 +
0
Z
t
(1 + s)ds = 1 + t +
0
¶
Z tµ
s2
t2 t3
y3 (t) = 1 +
1+s+
ds = 1 + t + + ,
2
2
6
0
yn (t) =
n
X
tk
k=0
k!
t2
,
2
.
Wir wissen in diesem Fall, daß für jedes t ∈ R die Funktionenfolge yn (t) → et konvergiert, die in
diesem Fall entstandene Potenzreihe hat unendlichen Konvergenzradius.
(ii)
y 0 = f (y) = y 2 ,
y(0) = 1.
Durch Separation der Variablen sieht man leicht, daß y(t) = 1/(1 − t) für alle t < 1 die eindeutige
Lösung des AWP ist, siehe auch die Bemerkung in 12.9b. Die Lösung kann auch als geometrische
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
Reihe y(t) =
P∞
k=0 t
y0 (t) ≡ 1,
199
k
dargestellt werden, diese konvergiert jedoch nur für |t| < 1.
Z t
y1 (t) = 1 +
12 ds = 1 + t,
0
Z
y2 (t) = 1 +
0
t
Z
[y1 (s)]2 ds = 1 +
t
(1 + s)2 ds = 1 + t + t2 + t3 /3 ,
0
¶2
Z tµ
s3
2
y3 (t) = 1 +
1+s+s +
ds
3
0
¶
Z tµ
8 3 5 4 2 5 1 6
2
ds
=1+
1 + 2s + 3s + s + s + s + s
3
3
3
9
0
2
1
1
1
= 1 + t + t2 + t3 + t4 + t5 + t6 + 3 t7 ,
3
3
9
6
u.s.w.
Die Zahl der Potenzen tk mit dem richtigen Koeffizienten 1 wächst immer weiter an. Im Grenzfall
erhalten wir die geometrische Reihe.
Dieses Verfahren, das auch eine Fehlerabschätzung für den maximalen Abstand zwischen der
Approximation yk und der (unbekannten, exakten) Lösung y liefert (siehe 14.5d(iv)), ist natürlich
von besonderem Interesse für nicht explizit lösbare Differentialgleichungen. Bei einem komplizierten
Vektorfeld f treten dabei möglicherweise schwierige oder nicht geschlossen lösbare Integrale auf.
14.5d
Konvergenz des Verfahrens
Sei f : D → R stetig und in y Lipschitz-stetig (12.9a).
(i) Abschätzungen für das Vektorfeld
Zu einem inneren Punkt des Definitionsbereichs von f wähle (hinreichend kleine) T > 0, R > 0, so
daß alle (t, y) im abgeschlossenen (kompakten) Rechteck in der t, y-Ebene um den Punkt (t0 , y0 )
mit |t − t0 | ≤ T und |y − y0 | ≤ R im Definitionsbereich von f liegen und daher eine Schranke
C und eine Lipschitzkonstante L so gefunden werden können, daß dort auch |f (t; y)| ≤ C und
|f (t; y1 ) − f (t; y2 )| ≤ L |y1 − y2 | gilt. (Die Existenz einer endlichen Schranke C folgt auf dem
kompakten Rechteck automatisch aus der Stetigkeit von f , die Existenz von L ist gerade die vorausgesetzte stärkere Lipschitz-Stetigkeit.) Setze τ := min {T, R/C, 1/(2L)}. Wir werden zeigen,
daß mindestens für alle t in dem Intervall t ∈ [t0 − τ, t0 + τ ] eine Lösung der Differentialgleichung
existiert. Wir betrachten t ≥ t0 , für die Vergangenheit ist alles analog.
(ii) Schranke für die Lösungen
Wenn |yk (t) − y0 | ≤ R für alle t ∈ [t0 , t0 + τ ], dann gilt dasselbe auch für yk+1 , denn
Z t
Z t0 +τ
|yk+1 (t) − y0 | ≤
|f (s; yk (s))| ds ≤
C ds = C τ ≤ R.
t0
t0
Also bleibt auch die nächste Iterierte im betrachteten Rechteck:
|yk+1 (t) − y0 | ≤ R
für alle t ∈ [ t0 , t0 + τ ].
(iii) Konvergenz der Folge
max
t∈[t0 , t0 +τ ]
Z
|yk+1 (t) − yk (t)| =
t∈[t0 , t0 +τ ]
Z
t0
|f (s; yk (s)) − f (s; yk−1 (s))| ds
t0 +τ
≤
| . . . | ds ≤ τ · L
t0
RWTH Aachen
t
max
max
s∈[t0 , t0 +τ ]
|yk (s) − yk−1 (s)|.
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
200
Oben ist τ so gewählt worden, daß τ · L ≤ 1/2. Iteration liefert für alle t ∈ [t0 , t0 + τ ]
|yk+1 (t) − yk (t)| ≤
≤
1
2
1
2k
max
t∈[t0 , t0 +τ ]
|yk (t) − yk−1 (t)| ≤ . . .
max
t∈[t0 , t0 +τ ]
|y1 (t) − y0 (t)| ≤
Cτ
,
2k
wobei
Z
max
t∈[t0 , t0 +τ ]
|y1 (t) − y0 (t)| ≤
t0 +τ
|f (s; y0 )| ds ≤ C τ
t0
benutzt wurde. Damit erhalten wir für alle t ∈ [t0 , t0 + τ ], daß
y(t) = lim yk+1 (t) = lim
k→∞
k
X
k→∞
(yj+1 (t) − yj (t)) + y0
j=0
eine absolut konvergente Reihe ist:
∞
X
j=0
∞
X
Cτ
|yj+1 (t) − yj (t)| ≤
≤ 2 C τ.
2j
j=0
Mann kann zeigen, daß die Grenzfunktionen y ebenso wie jede der Approximationen yk eine stetige
Funktion ist, also insbesondere eine Lösung der Integralgleichung und damit des AWP.
(iv) Fehlerschranke
Außer der Konvergenz der approximierenden Folgen yk (t) → y(t) liefert die Abschätzung zugleich
eine Fehlerschranke im Intervall |t − t0 | ≤ τ
¯
¯
¯∞
¯
∞
X
¯
¯ X
¯
|y(t) − yk (t)| = ¯ (yj+1 (t) − yj (t))¯¯ ≤
|yj+1 (t) − yj (t)|
¯ j=k
¯ j=k
≤
∞
X
Cτ
Cτ
= k−1 .
j
2
2
j=k
Zu gegebener Fehlertoleranz ε > 0 kann man ein k0 bestimmen, so daß C τ /2k0 −1 ≤ ε, dann
weicht die Approximation yk0 (t) weniger als die Fehlertoleranz von der (unbekannten) exakten
Lösung ab.
14.6
Der lokale Existenz und Eindeutigkeitssatz, Stabilität der Lösungen
14.6a
Existenz und Eindeutigkeit
Im Abschnitt 12.9d haben wir ohne Beweis den grundlegenden Existenz- und Eindeutigkeitssatz für
lokale Lösungen von Differentialgleichungen mit Lipschitz-stetigen Vektorfeldern angegeben:
Sei f : D → R stetig und für ein Paar (t0 , y0 ) ∈ D gebe es T > 0, R > 0, so daß für alle t, y
mit |t0 − t| ≤ T, |y − y0 | ≤ R gilt: (t, y) ∈ D (d.h. (t0 , y0 ) ist ein innerer Punkt von D) und
außerdem gebe es eine Lipschitz-Konstante L, so daß für diese (t, y) gilt: |f (t; y1 ) − f (t; y2 )| ≤
L |y1 − y2 |. Dann gibt es ein τ > 0, so daß das AWP
y 0 = f (t; y),
y(t0 ) = y0
eine eindeutige Lösung für alle t mit |t − t0 | ≤ τ hat.
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
201
Die Existenz einer Lösung y wurde gerade durch Konvergenz des Picard-Lindelöf-Iterationsverfahrens
gegen eine Lösung in 14.5d gezeigt. Dabei wurde auch eine Mindestgröße von τ angegeben, die nur
von den Eigenschaften von f und vom Anfangswert (t0 , y0 ) abhängt. Zur Eindeutigkeit: Wenn y
und ỹ beide Lösungen der äquivalenten Integralgleichung (14.5a) sind, dann folgt mit der LipschitzStetigkeit und τ L ≤ 1/2
¯Z t ³
´ ¯¯
¯
¯
max |y(t) − ỹ(t)| ≤ max ¯
f (s; y(s)) − f (s; ỹ(s)) ds¯¯
|t−t0 |≤τ
|t−t0 |≤τ
t0
|
{z
}
=:a≥0
¯
¯
¯
¯
≤ τ max ¯f (s; y(s)) − f (s; ỹ(s))¯
|s−t0 |≤τ
≤ τ L max
|s−t0 |≤τ
|y(s) − ỹ(s)| ≤
1
2
max
|s−t0 |≤τ
|y(s) − ỹ(s)| =
a
.
2
Das kann nur für y(t) ≡ ỹ(t) erfüllt sein, denn aus a ≤ a/2 ≥ 0 folgt a = 0. Also gilt auch die
Eindeutigkeit der Lösung.
14.6b
Stabilität, stetige Abhängigkeit von den Daten
Bei realistischen Anwendungen ist weder die Differentialgleichung (das Vektorfeld f ) noch die Anfangsbedingung y0 exakt bekannt. Zur Bewertung eines Modells ist es wichtig, den Einfluß von
Ungenauigkeiten auf die Lösung zu kennen. Die Schwingungen einer Brücke müssen auch dann unter Kontrolle bleiben, wenn die Materialeigenschaften der Baustoffe vom Idealwert abweichen, aber
innerhalb der mit dem Lieferanten vereinbarten Toleranz bleiben. Ein typischer Satz ist das folgende
Stabilitätsresultat, das auch als stetige Abhängigkeit von den Daten“ bezeichnet wird:
”
Sei f : D → R stetig differenzierbar und sei y(t) für |t − t0 | ≤ τ eine Lösung des AWP
y 0 = f (t; y),
y(t0 ) = y0 .
Wir vergleichen diese (ideale) Lösung mit der Lösung eines benachbarten“ AWP
”
0
˜
ỹ = f (t; ỹ), ỹ(t0 ) = ỹ0 .
Zu jeder Fehlertoleranz ε > 0 gibt es eine Genauigkeit δ > 0 derart, daß die Lösung ỹ(t) für
|t − t0 | ≤ τ die Qualitätsgarantie“ |y(t) − ỹ(t)| ≤ ε erfüllt, sofern nur |y0 − ỹ0 | ≤ δ und im
”
betrachteten Bereich |f (t; y) − f˜(t, y)| + |∂y f (t; y) − ∂y f˜(t, y)| ≤ δ gilt.
Es gibt zahlreiche Verfeinerungen dieses Satzes, insbesondere quantitative Abschätzungen, die es
erlauben, die erforderliche Genauigkeit δ für eine gegebene Fehlertoleranz ε zu berechnen.
14.7
Bemerkungen zu numerischen Verfahren
In Softwarepaketen für Differentialgleichungen und in allgemeinen Computeralgebrasystemen sind
Algorithmen zur approximativen numerischen Lösung eines AWP implementiert, z.B. das KungeKutta-Verfahren und Verfeinerungen davon. Diese Programme und die oft damit verbundenen Visualisierungsmöglichkeiten sind außerordentlich hilfreich, um rasch einen Überblick über die zu erwartenden Lösungen zu gewinnen. Auch lassen sich damit oft diejenigen Parameter in der Modellbildung identifizieren, von denen die Lösungen empfindlich abhängen. Insbesondere die Verfahren mit
Schrittweitensteuerung liefern oft sehr präzise Resultate.
Zur Warnung sei jedoch darauf hingewiesen, daß man leicht Differentialgleichungen und/oder
Anfangsbedingungen finden kann, für die ein gegebener Algorithmus quantitativ oder sogar qualitativ grob falsche Ergebnisse berechnet. Ein blindes Vertrauen in numerische Resultate ohne eine
analytische Absicherung ist sehr riskant!
Alle in dieser Vorlesungen angesprochenen Näherungsverfahren zur Lösung von Differentialgleichungen machen keine verläßliche Aussage über das Langzeitverhalten der Lösungen. Die Theorie
RWTH Aachen
Mathematik I+II
14
Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen
202
der dynamischen Systeme hat viele chaotische Systeme“ untersucht, bei denen die Entwicklung der
”
Lösungen für lange Zeiten sehr empfindlich von den Daten abhängt (sprichwörtlicher Schmetter”
lingseffekt“). Das ist vollauf verträglich mit der in 14.6b angegebenen Stabilität: für lange Zeiten
wird δ(ε) so klein, daß die Genauigkeit praktisch nicht mehr erreichbar ist.
RWTH Aachen
Mathematik I+II
Sachverzeichnis
Abbildung, 13, 36, 70, siehe auch Funktion,
lineare Abbildung
abgeschlossene Menge, 73, 147
abgeschlossenes Intervall, 73
Ableitung, 87
hohere, 88
Linearitat, 88
partielle, 175
Ableitungsregel, 87–88, 111
Abschatzung, 113–114
bei Folgen, 139, 141
bei Integralen, 121
des Arkustangens, 113
des Sinus, 8, 113
des Tangens, 8, 113
durch die Ableitung, 113
fur einige Funktionen, 113
absolut konvergent, 148, 151, 154
absolutes Extremum, siehe Extremum, globales
Abstand, 18, 25–27, 75
Abszisse, 8, 71
Addition
in Korpern, 80
komplexer Zahlen, 77
reeller Zahlen, 70
von Folgengliedern, 140
von Funktionen, 88
von Matrizen, 31
von Reihen, 154
von Vektoren, 16
Additionstheorem, 8, 100, 102
Additivitat des Integrals, 121
Adjunkte, 40
affiner Teilraum, 23, 26, 44, 169, 181
allgemeine Losung, siehe Losungsmenge
alternierende Reihe, 156
analytische Funktion, 159
Anfang einer Folge oder Reihe, 141, 153
Anfangswertproblem (AWP), 166, 170, 175
Ansatzmethode, 182
antisymmetrisch, siehe auch ungerade Funktion
antisymmetrische Matrix, 32
Approximation, 158
lineare, 1, 88, 162
polynomiale, 87, 161–163
quadratische, 1, 66, 88, 93, 162
des Kosinus, 7
von Integralen, 118, 132, 135, 164
aquivalent, 13
Areafunktionen, 109–111
Ableitung, 113
Arkusfunktionen, 20, 106–109
Ableitung, 112
Assoziativgesetz, 16, 34, 70, 80
asymptotische Polynome, 89, 94
aufspannen, 23
Ausnahmepunkt, 95, 127
Aussage, 12
autonome Differentialgleichung, 174, 194
Axiome
der Ordnung von R, 71
der Vollstandigkeit, 147
von Korpern, 80
Basis, 17, 22
von Eigenvektoren, 51, 67
Basiswechsel, 17, 53, 57, 61, 67
Bernoullische Differentialgleichung, 170
Bernoullische Ungleichung, 76
beschrankt, 141, 144
Betrag
einer komplexen Zahl, 78
einer reellen Zahl, 75–76
eines Vektors, 18
Binomialkoeffizient, 83
binomischer Lehrsatz, 84
Bogenmas eines Winkels, 5, 98
C, 77
Cauchy-Schwarzsche Ungleichung, 19
charakteristisches Polynom, 50, 85, 87, 178,
185
Cramersche Regel, 46
De l’Hospital, Satz, Regel von, 115
De Moivresche Formeln, 99
definite Matrix, 55, 60, 63
Definitionsbereich, 70, 89, 94, 106
Definitionsbereich einer Differentialgleichung,
172
Determinante, 39 ff
gleich oder ungleich Null, 41, 44, 50
Dezimalbruch, 149
Diagonalisierung einer Matrix, 53–55, 57,
61, 67–68
Diagonalmatrix, 31
Differentialgleichung, 165–202
203
Sachverzeichnis
f 0 == f , 195
Ansatzmethode, 182
autonome, 174, 194
Bernoullische, 170
Eigenvektormethode, 186
Entkopplung, 188
Existenz von Losungen, 176, 200
Grundlosungsmethode, 183
inhomogene lineare, 168–170, 181–184,
187–192
lineare, 166–170, 184–192
Potenzreihe, 195
separable, 173
Substitution, 193
differenzierbar, 85, 87, 107
Dimension, 17, 22, 37 ff
Distributivgesetz, 16, 18, 21, 34, 70, 80
divergent, 135, 138, 148
Folge, 144
Reihe, 154
Division, 80
komplexer Zahlen, 79
reeller Zahlen, 70
von Folgengliedern, 140
von Funktionen, 88
Drehung, 53
Dreiecksmatrix, 41, 51
Dreiecksungleichung, 20, 75, 79, 150
Ebene, 26–27, 65
Eigenvektor, 49, 186
Eigenwert, 49
eindeutig, 17, 43, 44, 67, 70, 85, 105, 120,
140, 159
Einheitsmatrix, 31
Einheitsvektor, 19, siehe auch normierter Vektor
elementare
Matrix, 31
Spaltenoperation, 37, 41
Zeilenoperation, 11, 37, 41
Ellipse, 8, 59, 74
Ellipsoid, 63
elliptisch, siehe Paraboloid, Zylinder
Entkopplung von Differentialgleichungen, 188
erweiterte Koeffizientenmatrix, 10, 43
Eulersche Formel, 98
Eulerzahl, 145, 149
Eulerzahl e, 97
Existenzsatze fur Losungen einer Differentialgleichung, 176, 200
Exponentialfunktion, 1–2, 96–97, 153, 195
RWTH Aachen
204
Differentialgleichung, 96, 195
einer Matrix, 186
Funktionalgleichung, 96
Potenzreihe, 96, 153, 195
Extremum
globales, absolutes, 93
lokales, relatives, 92
hinreichende Bedingung, 93, 105
notwendige Bedingung, 93
Faktorzerlegung eines Polynoms
komplex, 86
reell, 86
Fakultat, 82
Fixpunktgleichung, 146
Flache zweiter Ordnung, 61, 63 ff
Flacheninhalt, 118–120
Folge, 137
Formel
De Moivresche, 99
Taylorsche, 162
Fundamentalsatz der Algebra, 85
Fundamentalsatz uber beschrankte monotone Folgen, 144, 147
Funktion, 13, 70
Area-, siehe Areafunktionen
Arkus-, siehe Arkusfunktionen
Exponential-, siehe Exponentialfunktion
ganz rationale, siehe Polynom
gerade, siehe gerade Funktion
Heaviside-, 133
hyperbolische, siehe Hyperbelfunktionen
inverse, siehe Umkehrfunktion
Logarithmus-, siehe Logarithmus
rationale, siehe rationale Funktion
stuckweise stetige, 132
symmetrische, siehe gerade
trigonometrische, siehe trigonometrische
Funktionen
Umkehr-, siehe Umkehrfunktion
ungerade, siehe ungerade Funktion
ganz rationale Funktion, siehe Polynom
Gaus-Gestalt, 10–11, 37
Gaussche
Glockenfunktion, 2, 159
Zahlenebene, 77
Gausscher Algorithmus, 11–12, 42, 46
gedampfte Schwingung, 101, 180
geometrische Reihe, 150, 156
Gerade, 23–26, 59–60
Mathematik I+II
Sachverzeichnis
gerade Funktion, 71, 94, 98, 127–128, 163
Gleichungssystem, lineares, 9–12, 42–47
globales Extremum, siehe Extremum, globales
Glockenfunktion, 2, 159
Graph einer Funktion, 71, 127
Grenzwert, 138, 140, 146, 148
Grenzwertsatz, 114–115, 140
Grundlosungsmethode, 183
harmonische Reihe, 154
Hauptachsentransformation, 53–55, 57, 61,
67–68
Hauptsatz der Differential- und Integralrechnung, 121–122
Heavisidefunktion, 133
Heron, 143, 146
Hessesche Normalform, 24, 27
Hilfen fur
N (ε), 139
Potenzreihen, 159
homogenes Gleichungssystem, 10, 43, 50
Hospital, Satz von de l’, 115
Hulle, siehe lineare Hulle
Hyperbel, 8, 59
Hyperbelfunktionen, 102–103, 109–111
hyperbolisch, siehe Paraboloid, Zylinder; Hyperbelfunktionen
Hyperboloid, 64
Hyperebene, 29, 42
imaginare Einheit, 77
Imaginarteil, 77
indefinite Matrix, 55, 60, 64 f
Induktion, siehe vollstandige Induktion
inhomogene lineare Differentialgleichung, 168–
170, 181–184, 187–192
inhomogenes Gleichungssystem, 10, 43
inneres Produkt, siehe Skalarprodukt
Integral, 118–123
bestimmtes, 119
Eigenschaften, 121
stuckweise stetiger Funktionen, 133
unbestimmtes, 123
uneigentliches, 133–135
Integralgleichung, 197
Integralkriterium, 155
Integration, 123–132
approximative, 118, 132, 135, 164
durch Substitution, 124, 128–132
partielle, 125
RWTH Aachen
205
rationaler Funktionen in trigonometrischen, 131
von Partialbruchen, 124–126
Integrationskonstante, 123
Intervall, 73
inverse
Funktion,Abbildung, siehe Umkehrfunktion
Matrix, 44
invertierbare Matrix, siehe regulare
irreduzibel, 86, 89–92, 125
kanonische Basis, 22
Kegel (Doppel-), 64
Kegelschnitt, 8, 59–60
Kehrwert, 80, 88, 106, 144
Kettenregel, 88
Knick im Graphen, 88
Koeffizientenmatrix, 9, 43
Koeffizientenvergleich
Polynome, 85, 92
Potenzreihen, 159
Kofaktor, 40
Kommutativgesetz, 80
komplexe Wurzeln, 99
komplexe Zahl, 77
Komposition
linearer Abbildungen, 36
von Funktionen, 88
konjugiert komplexe Zahl, 78
konvergent, 133–134, 138, 148
Konvergenzradius, 156, 158–160
Koordinatentransformation, siehe Basiswechsel
Korperaxiome, 80
Kosekans, 8
Kosinus, siehe trigonometrische Funktionen
hyperbolicus, siehe Hyperbelfunktionen
Kotangens, siehe trigonometrische Funktionen
hyperbolicus, siehe Hyperbelfunktionen
kritischer Punkt, 93
Kugel(oberflache), 64, 74
Kurve zweiter Ordnung, 56, 59 f
Kurvendiskussion, 94
Lange eines Vektors, 18
Laplacescher Entwicklungssatz, 40
Leibnizkriterium, 156
Leibnizregel, 88
linear (un)abhangig, 17 f
lineare Abbildung, 36, 54, 67
Mathematik I+II
Sachverzeichnis
lineare Approximation, siehe Approximation, lineare
lineare Differentialgleichung, 166–170, 184–
192
lineare Hulle, 23, 36
lineare Operation, 16, 31, 88, 121, 140, 154
linearer Raum, 15
linearer Teilraum, Unterraum, 22, 43, 49
lineares Differentialgleichungssystem, 184–
192
lineares Gleichungssystem, 9–12, 42–47
Linearisierung, siehe Approximation, lineare
Linearkombination, 16, 23
Lipschitzstetig, 175, 200
Logarithmus, 2–3, 97, 106, 112
als Stammfunktion, 3, 112
als Umkehrfunktion, 106
dekadischer, 4
Funktionalgleichung, 97
Potenzreihe, 159
zur Basis b, 4
lokales Extremum, siehe Extremum, lokales
Losbarkeit linearer Gleichungssysteme, 43
Losungsgesamtheit, siehe Losungsmenge
Losungsmenge
linearer Gleichungssysteme, 43
quadratischer Gleichungen, 56, 61
von wn == z, 99
Lot, 26, 27
Mac Laurin, 164
Majorantenkriterium, 134, 150, 151
Matrix, 31 ff, sieheauch Einheits-, Null-, Diagonal, Diagonalisierung einer, Dreiecks, (erweiterte) Koeffi-zi-en-ten-, transponierte, quadratische, (anti)symmetrische,
regulare, inverse, orthogonale,
(in/semi)definite, Potenz einer
maximaler Rang, 37, 41
Maximum, siehe Extremum
Minimalflache, 66
Minimum, siehe Extremum
Minor, 40
Minorantenkriterium, 135, 154
Mittelwert, 123
Mittelwertsatz, 104, 122, 162
Moivresche Formeln, 99
monoton, 105, 121, 144
streng, 105
Multiplikation
in Korpern, 80
RWTH Aachen
206
komplexer Zahlen, 77, 80
reeller Zahlen, 70, 80
von Folgengliedern, 140, 142
von Funktionen, 88
von Matrizen, 33–36, 40
von Matrizen mit Vektoren, 33
von Matrizen mit Zahlen, 32
von Vektoren, 18, 21, 36
von Vektoren mit Zahlen, 16
Multiplikationssatz fur Determinanten, 40
Naherung, siehe Approximation
negativ (semi)definit, siehe (semi)definite Matrix
Newtonverfahren, 143, 146
Norm, 18
Normale, Normal(en)vektor, 24, 27
Normalform
einer Flache zweiter Ordnung, 62
einer Kurve zweiter Ordnung, 58
Hessesche, 24, 27
normierter Vektor, 19, 22, 27, 52
Nullfolge, 138, 144
der Summanden einer konvergenten Reihe, 153
Nullmatrix, 31
Nullstelle, 94
der Ableitung, 93
des charakteristischen Polynoms, 50–51
eines Polynoms, 48, 85
konjugiert komplexes Paar, 85
offene Menge, 73, 147
offenes Intervall, 73
Ordinate, 8, 71
Ordnung reeller Zahlen, 71
orthogonal, 20, 24
orthogonale Matrix, 52
orthogonale Projektion, 26, 27, 29
Orthonormalbasis, 22, 51, 52
Packchen packen, 117
Parabel, 1, 60
Paraboloid, 65
Parallelogrammflache, 21
parameterabhangiges Integral, 164
Parameterdarstellung
einer Ebene, 26
einer Geraden, 23
einer Hyperebene, 29
parameterunabhangige Darstellung, siehe auch
Quadrik
Mathematik I+II
Sachverzeichnis
einer Ebene, 27
einer Geraden, 24
einer Hyperebene, 29
Partialbruchzerlegung, 89–92
partielle Ableitung, 175
partikulare Losung, 43
Pascalsches Dreieck, 83
periodische Funktion, siehe trigonometrische
Funktionen
Picard(-Lindelof), 176, 197
Polarkoordinaten, ebene, 79, 98
Polstelle, 94
Polynom, 48, 85
asymptotisches, 89, 94
charakteristisches, 50, 178, 185
polynomiale Approximation, siehe Approximation, polynomiale
positiv (semi)definit, siehe (semi)definite Matrix
Potenz, 4, 5, 97
einer Matrix, 53, 68
Potenzfunktion, 4, 94, 97
Potenzrechnung, 4, 97
Potenzreihe, 88, 117, 155, 158–161, 195
Produkt, siehe Multiplikation
Produktregel der Differentiation, 88
Projektion, siehe orthogonale Proj.
Punkt, 16
Pythagoras, Satz des, 20
Quader, 74
quadratische Approximation, siehe Approximation, quadratische
quadratische Matrix, 31, 48
Quadraturverfahren, 132
Quadrik, 56, 59 f, 61, 63 ff
Quotient, siehe Division
Quotientenkriterium, 151
Quotientenregel der Differentiation, 88
Quotiententest, 151, 156
Rn , 15
Randpunkt, 73, 93, 95, 114, 156
Rang einer Matrix, 37–39, 41, 43
Rangkriterium, 43
rationale Funktion, 89, 125, 126, 131, 160
ganz, siehe Polynom
stuckweise, 89
Realteil, 77
Rechte Hand Regel, 21
Regel
von de l’Hospital, 115
RWTH Aachen
207
von Sarrus, 39
regulare Matrix, 44, 52, 67
Reihe, 148
rekursiv, 82, 137, 146
relatives Extremum, siehe Extremum, lokales
reziprok, siehe Kehrwert
Richtungsfeld, 172
Sarrussche Regel, 39
Sattel(flache), 65
Satz
des Pythagoras, 20
Grenzwert-, siehe Grenzwertsatz
Laplacescher Entwicklungs-, 40
Mittelwert-, 104
uber den Rang einer Matrix, 38
uber die Hauptachsentransformation, 53,
67
uber die Partialbruchzerlegung, 90
uber Eigenvektoren symmetrischer Matrizen, 51
uber Losungen linearer Gleichungssysteme, 43, 44
uber orthogonale Matrizen, 52
uber regulare Matrizen, 44
von de l’Hospital, 115
von Weierstras, 87
Schachtelung, 141
Schaltfunktion, 133
schief, siehe ungerade
Schnittmenge, 25, 28–29, 42
Schnittwinkel, 25, 28
Schwarzsche Ungleichung, 19
Schwingung, gedampfte, 101, 180
Sekans, 8
semidefinite Matrix, 55, 60
separable Differentialgleichung, 173
Simpsonregel, 132
Sinus, siehe trigonometrische Funktionen
hyperbolicus, siehe Hyperbelfunktionen
Skalar, 16, 18, 32
Skalarprodukt, 18, 35, 101
Spaltenoperation, siehe elementare Spaltenoperation
Sphare, 64, 74
Spur einer Matrix, 56
Stammfunktion, 14, 87, 90, 122
Standardabschatzung, 113
Standardbasis, 22
stetig, 85, 107
Lipschitz-, 175, 200
Mathematik I+II
Sachverzeichnis
stetig differenzierbar, 85, 88, 107
stetige Abhangigkeit von den Daten, 201
Streben gegen Unendlich, 144
stuckweise
stetig, 132
stuckweise rational, 89
Substitution
bei Differentialgleichung, 193
Summenformel, 81
geometrische, 82
Summenzeichen, 81
Supremum, 147
symmetrisch, siehe auch gerade Funktion
symmetrische Matrix, 32, 51–55
System
lineares Gleichungs-, 9–12, 42–47
lineares, Differentialgleichungs-, 184–
192
Tabelle
Flachen zweiter Ordnung, 65
Kurven zweiter Ordnung, 60
Tangens, siehe trigonometrische Funktionen
hyperbolicus, siehe Hyperbelfunktionen
Tangente, 1
Taylorpolynom, 161–162, 164
Restglied, 162–163
Taylorreihe, 161
Teilraum, 22
transitiv, 71
transponierte Matrix, 32, 35
Trapezapproximation, 118, 135
trigonometrische Funktionen, 5–8, 98–100
Ableitung, 7, 99
208
Vektorprodukt, 21, 36, 54
Vektorraum, 15, 77
Verfahren
von Heron, 143, 146
von Newton, 143, 146
Verknupfung, siehe Addition, Multiplikation, Division, Komposition
vertraglich, 70, 71, 78, 80
vollstandig, 80, 146
vollstandige Induktion, 13, 77
Wachstum, 97, 116, 153
Weierstras, Satz von, 87
windschiefe Geraden, 26
Winkel, 5, 101
zwischen Ebenen, 28
zwischen Geraden, 25
zwischen Vektoren, 20, 101
Wurzel, 4, 14, 97, 106
als reelle Potenz, 4, 97
als Umkehrfunktion, 4, 14, 106
einer Matrix, 69
komplexe, 99
Wurzeltest, 154, 156
Zahlenebene, Gaussche, 77
Zeilenoperation, siehe elementare Zeilenoperation
Zuhaltemethode, 90
zyklometrische Funktion, 106
Zylinder, 64–66
Umgebung, 138
Umkehrabbildung, siehe Umkehrfunktion, inverse Matrix
Umkehrfunktion, 105, 111, 126, siehe auch
Arkus- und Areafunktionen, Logarithmus
ungerade Funktion, 71, 94, 98, 117, 127–
128, 163
Ungleichung
Bernoullische, 76
(Cauchy-)Schwarzsche, 19
Dreiecks-, 20, 75, 79
fur Arkustangens, 113
fur einige Funktionen, 113–114
Rechenregeln, 72–73
Unter(vektor)raum, 22
Vektor, 15 ff
RWTH Aachen
Mathematik I+II
Herunterladen