Mathematik I + II Lineare Algebra, Analysis einer Veränderlichen, Gewöhnliche Differentialgleichungen Prof. Dr. Enß, Prof. Dr. Herty, Dr. Fleckenstein RWTH Aachen Skriptum zur Vorlesung für den Bachelor-Studiengang für Bauing., Wirtschaftsing. u.a. Stand 27. April 2008 Grundlage ist das Skriptum von Volker Enß, Aachen, 2008 Das Skriptum wird für diesen Kurs bereitgestellt, der Nachdruck dieses Textes oder von Teilen daraus ist nicht gestattet. Vorbemerkungen Dieses Skriptum enthält den Stoff von Teil I+II des Kurses. Für die Klausuren zur Mathematik I und II ist der im Semester in der Vorlesung und in den Übungen behandelte Stoff maßgeblich. Das Skriptum wird bereitgestellt, um Sie, die Hörerinnen und Hörer, teilweise vom Mitschreiben zu entlasten und außerdem, um Ihnen die Vorbereitung auf die jeweils bevorstehende Vorlesungsstunde zu erleichtern. So können Sie sich besser auf die vermittelten Inhalte konzentrieren. In der Vorlesung werden oft andere Beispiele als im Skriptum ausgewählt, um zusätzliches Material zur Veranschaulichung der Begriffe, Methoden und Techniken anzubieten. Das Lesen dieses Skriptums ohne Ihre eigene aktive Mitarbeit nützt wenig! Ohne Papier und Stift für eigene Rechnungen kann man mit einem mathematischen Text nicht arbeiten. Die in den Übungen vermittelten Ergänzungen und praktischen Kenntnisse gehören ebenfalls zum Stoff des Kurses. Erst durch das selbständige Bearbeiten mathematischer Aufgaben erwerben Sie die im weiteren Studium und im Beruf benötigten mathematischen Fähigkeiten. Der Autor dankt den Kolleginnen und Kollegen im Institut für Reine und Angewandte Mathematik sehr herzlich für die sorgfältige kritische Durchsicht einer früheren Fassung. Er ist dankbar für jegliche Hinweise der Studierenden auf verbliebene oder neue Fehler, Unklarheiten, mißverständliche Formulierungen, Lücken u.s.w. Auch Kommentare und Anregungen, wie durch Änderungen die Verständlichkeit in späteren Ausgaben erhöht werden kann, sind willkommen, z.B. nach der Vorlesung, in der Sprechstunde oder schriftlich. Grundlage der jetzigen Version ist das Skriptum von Prof. Dr. Enß aus dem Jahr 2007/2008. Aachen, den 27. April 2008 Inhaltsverzeichnis ii Inhaltsverzeichnis 1 Zur Auffrischung des Schulstoffs A Lineare und quadratische Approximation . . . . . . . . . . . . . . . . . . . . . . . B Die Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C Der Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D Potenzen, Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.1 Potenzfunktionen und Logarithmen zu beliebiger positiver Basis . . . . . . . D.2 Reelle Potenzen positiver reeller Variabler . . . . . . . . . . . . . . . . . . . E Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E.1 Geometrische Definition, Bogenmaß . . . . . . . . . . . . . . . . . . . . . . E.2 Graphen von Sinus und Kosinus, einfache Eigenschaften . . . . . . . . . . . E.3 Differentiation und Integration trigonometrischer Funktionen . . . . . . . . . E.4 Die Tangensfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E.5 Weitere trigonometrische Funktionen, Identitäten, Abschätzungen . . . . . . F Ellipsen und Hyperbeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . G Lineare Gleichungssysteme und Gaußscher Algorithmus . . . . . . . . . . . . . . . G.1 Die Koeffizientenmatrix und die erweiterte Koeffizientenmatrix, homogene und inhomogene lineare Gleichunssysteme . . . . . . . . . . . . . . . . . . G.2 Drei typische Beispiele, Gauß-Gestalt . . . . . . . . . . . . . . . . . . . . . G.3 Elementare Zeilenoperationen für Matrizen, der Gaußsche Algorithmus . . . H Aussagen, Gleichheit, Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . . I Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . J Unsere Konventionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 10 11 12 13 13 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.1 Der Vektorraum Rn . . . . . . . . . . . . . . . . . . . . 1.2 Rechnen im Rn . . . . . . . . . . . . . . . . . . . . . . 1.3 Lineare Abhängigkeit und Unabhängigkeit . . . . . . . . 1.4 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Das Skalarprodukt im Rn . . . . . . . . . . . . . . . . . 1.5a Definition des Skalarproduktes . . . . . . . . . . 1.5b Eigenschaften des Skalarproduktes: . . . . . . . 1.6 Betrag (Länge) eines Vektors . . . . . . . . . . . . . . . 1.7 Ungleichung von (Cauchy-)Schwarz . . . . . . . . . . . 1.8 Winkel zwischen Vektoren, Orthogonalität . . . . . . . . 1.8a Der Winkel . . . . . . . . . . . . . . . . . . . . 1.8b Orthogonalität, Satz des Pythagoras . . . . . . . 1.9 Die Dreiecksungleichung . . . . . . . . . . . . . . . . . 1.10 Das Vektorprodukt im R3 . . . . . . . . . . . . . . . . 1.10a Gleichungen zwischen Vektoren im R3 . . . . . 1.11 Orthonormalbasis . . . . . . . . . . . . . . . . . . . . . 1.12 Lineare Unterräume und affine Teilräume des Rn . . . . 1.13 Geraden im Rn . . . . . . . . . . . . . . . . . . . . . . 1.13a Parameterdarstellung der Geraden im Rn . . . . 1.13b Tangente an den Graphen einer Funktion . . . . 1.13c Orthogonale Vektoren in der Ebene R2 . . . . . 1.13d Parameterunabhängige Geradengleichung im R2 1.13e Schnittmengen von Geraden im R2 . . . . . . . 1.13f Winkel zwischen Geraden in einer Ebene . . . . 1.14 Lot und kürzester Abstand von einer Geraden . . . . . . 1.14a Der kürzeste Abstand von einer Geraden im Rn . 15 15 15 17 17 18 18 18 18 19 19 19 20 20 21 22 22 22 23 23 24 24 24 25 25 25 25 RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 4 4 5 5 5 6 7 7 8 8 9 Mathematik I+II Inhaltsverzeichnis 2 iii 1.14b Lot, orthogonale Projektion auf eine Gerade im Rn . . . . . . . . . . . . . . 1.14c Abstand windschiefer Geraden im R3 . . . . . . . . . . . . . . . . . . . . . 1.15 Ebenen im Rn und R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.15a Parameterdarstellung einer Ebene im Rn . . . . . . . . . . . . . . . . . . . 1.15b Parameterunabhängige Darstellung der Ebene im R3 . . . . . . . . . . . . . 1.15c Hessesche Normalform, Lot, orthogonale Projektion . . . . . . . . . . . . . 1.15d Umwandlung von parameterunabhängiger Darstellung der Ebene in eine Parameterdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.15e Winkel zwischen Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.16 Schnittmengen von Geraden und Ebenen im R3 . . . . . . . . . . . . . . . . . . . . 1.16a Schnitt einer Geraden mit einer Ebene . . . . . . . . . . . . . . . . . . . . . 1.16b Schnittgerade zweier Ebenen im R3 . . . . . . . . . . . . . . . . . . . . . . 1.16c Projektion einer Geraden auf eine Ebene . . . . . . . . . . . . . . . . . . . . 1.17 Hyperebenen im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 26 26 26 27 27 Matrizen und Determinanten 2.1 Einleitung, Beispiele für das Auftreten von Matrizen . . . . . . . . . 2.1a Koeffizientenmatrix eines linearen Gleichungssystems . . . . 2.1b Verkaufszahlen . . . . . . . . . . . . . . . . . . . . . . . . . 2.1c Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 2.2 Matrizen, ihre Addition und Multiplikation mit Zahlen . . . . . . . . 2.2a Definition der Matrizen, Bezeichnungen für spezielle Matrizen 2.2b Addition gleichartiger Matrizen . . . . . . . . . . . . . . . . 2.2c Multiplikation einer Matrix mit einer Zahl (einem Skalar) . . 2.3 Die Transponierte einer Matrix, symmetrische Matrizen . . . . . . . . 2.3a Zeilen- und Spaltenvektoren in einer Matrix . . . . . . . . . . 2.4 Anwendungsbeispiel einer Matrizenmultiplikation . . . . . . . . . . . 2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . . . . 2.5a Das Produkt einer Matrix mit einem Spaltenvektor . . . . . . 2.5b Definition des Produktes zweier Matrizen . . . . . . . . . . . 2.5c Erstes Beispiel der Matrixmultiplikation . . . . . . . . . . . . 2.5d Regeln der Matrizenmultiplikation . . . . . . . . . . . . . . . 2.5e Skalarprodukt und transponierte Matrix . . . . . . . . . . . . 2.5f Unterschiede zum Produkt von Zahlen, Warnung . . . . . . . 2.6 Matrizen als lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 2.6a Vektorprodukt und antisymmetrische Matrizen . . . . . . . . 2.7 Der Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 2.7a Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7b Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7c Rang einer Matrix in Gauß-Gestalt . . . . . . . . . . . . . . . 2.8 Elementare Zeilen- und Spaltenoperationen für Matrizen . . . . . . . 2.9 Satz über den Rang einer Matrix . . . . . . . . . . . . . . . . . . . . 2.9a Beweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10a Determinanten für n ≤ 3 . . . . . . . . . . . . . . . . . . . . 2.10b Die Adjunkte, der Laplacesche Entwicklungssatz . . . . . . . 2.11 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . 2.11a Multiplikationssatz für Determinanten . . . . . . . . . . . . . 2.11b Dreiecksmatrizen . . . . . . . . . . . . . . . . . . . . . . . . 2.11c Verschwinden der Determinanten . . . . . . . . . . . . . . . 2.11d Elementare Zeilen- und Spaltenoperationen bei Determinanten 2.11e Zur Warnung . . . . . . . . . . . . . . . . . . . . . . . . . . 30 30 30 30 30 31 31 31 32 32 32 33 33 33 34 34 34 35 35 36 36 37 37 37 37 37 38 38 39 39 40 40 40 41 41 41 41 RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 28 28 28 28 29 29 Mathematik I+II Inhaltsverzeichnis iv 3 . . . . . . . . . . . . . . . . . 42 42 43 43 43 43 44 44 45 45 45 45 45 46 46 46 46 47 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.0 Erinnerung: Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1a Definition und geometrische Bedeutung . . . . . . . . . . . . . . . . . . . . 4.1b Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1c Einige Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Charakteristisches Polynom, Berechnung der Eigenwerte und Eigenvektoren . . . . . 4.2a Beispiel mit reellen Eigenwerten . . . . . . . . . . . . . . . . . . . . . . . . 4.2b Beispiel Dreiecksmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Eigenwerte und Eigenvektoren symmetrischer Matrizen . . . . . . . . . . . . . . . . 4.3a Satz über Eigenwerte und Eigenvektoren symmetrischer Matrizen . . . . . . 4.3b Orthogonalität von Eigenvektoren zu verschiedenen Eigenwerten . . . . . . 4.3c Weitere Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4a Definition orthogonaler Matrizen . . . . . . . . . . . . . . . . . . . . . . . 4.4b Drehungen als Beispiele orthogonaler Matrizen . . . . . . . . . . . . . . . . 4.5 Hauptachsentransformation symmetrischer Matrizen . . . . . . . . . . . . . . . . . 4.6 Basiswechsel durch orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . 4.6a Wirkung auf Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6b Diagonalisierung einer Matrix durch Basiswechsel . . . . . . . . . . . . . . 4.7 Definite symmetrische Matrizen, Spur . . . . . . . . . . . . . . . . . . . . . . . . . 4.7a Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7b Beispiele, 2 × 2-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7c Spur einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 Quadratische Gleichungen in der Ebene, Normalformen . . . . . . . . . . . . . . . . 4.8a 1. Schritt: A diagonalisieren . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8b 2. Schritt: Lineare Terme eliminieren (soweit möglich) . . . . . . . . . . . . 4.8c Normalformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9 Beispiel für die Transformation in Normalform im R2 . . . . . . . . . . . . . . . . 4.10 Kegelschnitte in der Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10a Ellipsen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10b Hyperbeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10c Parabeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 48 48 48 49 49 49 50 51 51 51 52 52 52 52 53 53 53 53 54 55 55 55 56 56 57 57 58 58 59 59 59 60 4 Lineare Gleichungssysteme und inverse Matrizen 3.1 Einleitung und Erinnerung . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Rangkriterien für die Lösungsmenge . . . . . . . . . . . . . . . . . . . . 3.2a Satz über die Lösbarkeit eines linearen Gleichungssystems . . . . 3.2b Satz über die Dimension des Lösungsraumes . . . . . . . . . . . 3.3 Lösungsmengen von homogenen und inhomogenen Gleichungssystemen. 3.4 Die Inverse einer quadratischen Matrix . . . . . . . . . . . . . . . . . . . 3.4a Satz über reguläre (invertierbare) Matrizen . . . . . . . . . . . . 3.4b Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . . . . 3.5 Berechnung der inversen Matrix, Spezialfälle . . . . . . . . . . . . . . . 3.5a n = 1 und n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . 3.5b Diagonalmatrizen beliebiger Dimension . . . . . . . . . . . . . . 3.5c Produkt und Inverse . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Die Matrixinversion mit Adjunkten, Cramersche Regel . . . . . . . . . . 3.7 Matrixinversion mit dem Gauß-Jordan Verfahren . . . . . . . . . . . . . 3.7a Der Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7b Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Lösungshinweise für lineare Gleichungssysteme . . . . . . . . . . . . . . RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematik I+II Inhaltsverzeichnis 4.11 Direkte Bestimmung von Kurventypen . . . . . . . . . . . . . 4.11a Definiter Fall . . . . . . . . . . . . . . . . . . . . . . 4.11b Indefiniter Fall . . . . . . . . . . . . . . . . . . . . . 4.11c Semidefiniter Fall . . . . . . . . . . . . . . . . . . . . 4.12 Tabelle der Kurven zweiter Ordnung . . . . . . . . . . . . . . 4.13 Quadratische Gleichungen im R3 , Normalformen . . . . . . . 4.13a 1. Schritt: A diagonalisieren . . . . . . . . . . . . . . 4.13b 2. Schritt: Lineare Terme eliminieren (soweit möglich) 4.13c Normalformen . . . . . . . . . . . . . . . . . . . . . 4.14 Beispiele von quadratischen Gleichungen im R3 . . . . . . . . 4.15 Flächen zweiter Ordnung, Quadriken im R3 . . . . . . . . . . 4.15a Fallunterscheidungen bei Eigenwerten, Basiswahl . . . 4.15b Ellipsoide . . . . . . . . . . . . . . . . . . . . . . . . 4.15c Hyperboloide . . . . . . . . . . . . . . . . . . . . . . 4.15d Zylinder . . . . . . . . . . . . . . . . . . . . . . . . . 4.15e Elliptische Paraboloide . . . . . . . . . . . . . . . . . 4.15f Sattelflächen, hyperbolische Paraboloide . . . . . . . 4.15g Weitere Entartungsfälle . . . . . . . . . . . . . . . . . 4.16 Tabelle der Flächen zweiter Ordnung . . . . . . . . . . . . . . 4.17 Anwendungen und geometrische Besonderheiten bei Flächen zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . 4.18 Hauptachsentransformation diagonalisierbarer Matrizen . . . . 4.18a An die Matrix angepaßte Basis . . . . . . . . . . . . . 4.18b Satz über die Hauptachsentransformation . . . . . . . 4.18c Beispiel einer Diagonalisierung . . . . . . . . . . . . 4.18d Beispiel einer nicht diagonalisierbaren Matrix . . . . . 4.19 Potenzen von Matrizen . . . . . . . . . . . . . . . . . . . . . 4.19a Potenzen diagonalisierbarer Matrizen, Wurzeln . . . . 4.19b Potenzen von Matrizen und Eigenvektoren . . . . . . 5 Reelle und komplexe Zahlen und einige Grundbegriffe 5.1 Die reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Funktion, Abbildung, Graph . . . . . . . . . . . . . . . . . . 5.3 Die Ordnung der reellen Zahlen . . . . . . . . . . . . . . . . 5.3a Axiome der Ordnung von R . . . . . . . . . . . . . . 5.3b Einige Regeln für das Rechnen mit Ungleichungen . . 5.3c Die Relationen ≤ und ≥ . . . . . . . . . . . . . . . 5.4 Durch Ungleichungen charakterisierte Mengen . . . . . . . . 5.4a Intervalle . . . . . . . . . . . . . . . . . . . . . . . . 5.4b Quader, Kugeln, Ellipsen etc. . . . . . . . . . . . . . 5.4c Weitere durch Ungleichungen charakterisierte Mengen 5.5 Der Betrag einer reellen Zahl . . . . . . . . . . . . . . . . . . 5.5a Definition des Betrages auf R . . . . . . . . . . . . . 5.5b Eigenschaften des Betrages auf R . . . . . . . . . . . 5.5c Einige Anwendungen des Betrages . . . . . . . . . . 5.6 Die Bernoullische Ungleichung . . . . . . . . . . . . . . . . . 5.7 Die Menge C der komplexen Zahlen . . . . . . . . . . . . . 5.7a Definition komplexer Zahlen . . . . . . . . . . . . . . 5.7b Die Addition komplexer Zahlen . . . . . . . . . . . . 5.7c Die Multiplikation komplexer Zahlen . . . . . . . . . 5.7d Beispiele für Rechnungen mit komplexen Zahlen . . . 5.7e Bemerkung: keine Ordnung auf C . . . . . . . . . . . RWTH Aachen v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 60 60 60 60 61 61 61 62 62 63 63 63 64 64 65 65 65 65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 67 67 67 68 68 68 69 69 . . . . . . . . . . . . . . . . . . . . . 70 70 70 71 71 72 73 73 73 73 74 75 75 75 76 76 77 77 77 77 78 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematik I+II Inhaltsverzeichnis 5.7f Konjugiert komplexe Zahlen, der Betrag auf C . . . . . . 5.7g Rechenhilfen für komplexe Zahlen . . . . . . . . . . . . . 5.8 Körpereigenschaften der rationalen, reellen und komplexen Zahlen 5.8a Addition . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8b Multiplikation . . . . . . . . . . . . . . . . . . . . . . . 5.8c Verträglichkeit von Addition und Multiplikation . . . . . . 5.8d Bemerkungen zu Körpern . . . . . . . . . . . . . . . . . 5.9 Das Summenzeichen . . . . . . . . . . . . . . . . . . . . . . . . 5.10 Summenformeln . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Fakultät und Binomialkoeffizienten . . . . . . . . . . . . . . . . . 5.11a Die Fakultät . . . . . . . . . . . . . . . . . . . . . . . . . 5.11b Die Binomialkoeffizienten . . . . . . . . . . . . . . . . . 5.11c Identität des Pascalschen Dreiecks“ . . . . . . . . . . . . ” 5.12 Binomischer Lehrsatz . . . . . . . . . . . . . . . . . . . . . . . . 6 vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundlegende Funktionen 6.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1a Zu den Anwendungen der Polynome . . . . . . . . . . . . . . 6.1b Koeffizientenvergleich, Faktorzerlegung der Polynome . . . . 6.1c Differentiation und Integration von Polynomen . . . . . . . . 6.1d Approximierbarkeit durch Polynome, der Satz von Weierstraß 6.2 Anwendung: komplexe Eigenwerte und Eigenvektoren . . . . . . . . 6.3 Intermezzo: Ableitungsregeln . . . . . . . . . . . . . . . . . . . . . . 6.3a Linearität der Ableitung . . . . . . . . . . . . . . . . . . . . 6.3b Produktregel (auch Leibnizregel“) . . . . . . . . . . . . . . ” 6.3c Quotientenregel . . . . . . . . . . . . . . . . . . . . . . . . . 6.3d Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3e Gliedweise Differentiation absolut konvergenter Potenzreihen 6.3f Bemerkungen zum Betrag . . . . . . . . . . . . . . . . . . . 6.4 Rationale Funktionen, asymptotische Polynome . . . . . . . . . . . . 6.5 Die reelle Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . 6.5a Satz über die reelle Partialbruchzerlegung . . . . . . . . . . . 6.5b Stammfunktionen zu einigen Partialbrüchen . . . . . . . . . . 6.6 Bestimmung der Koeffizienten der Partialbruchzerlegung . . . . . . . 6.6a Koeffizienten der höchsten Potenzen der Linearfaktoren . . . 6.6b Reduktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6c Beispiel für systematischen Koeffizientenvergleich . . . . . . 6.7 Lokale Extrema differenzierbarer Funktionen . . . . . . . . . . . . . 6.7a Definition lokaler Extrema . . . . . . . . . . . . . . . . . . . 6.7b Bemerkung über lokale und absolute Extrema . . . . . . . . . 6.7c Satz über lokale Extrema differenzierbarer Funktionen . . . . 6.7d Beispiele lokaler Extrema, einige Potenzen . . . . . . . . . . 6.8 Kurvendiskussionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8a Beispiel: rationale Funktionen und Verwandte . . . . . . . . . 6.8b Hinweise für die Kurvendiskussion . . . . . . . . . . . . . . 6.9 Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 6.9a Definition als Potenzreihe . . . . . . . . . . . . . . . . . . . 6.9b Eigenschaften der Exponentialfunktion . . . . . . . . . . . . 6.10 Logarithmus und reelle Potenzen . . . . . . . . . . . . . . . . . . . . 6.11 Sinus und Kosinus, Eulersche Formel, Polarkoordinaten . . . . . . . . 6.12 (De) Moivresche Formeln, komplexe Wurzeln . . . . . . . . . . . . . 6.13 Eigenschaften trigonometrischer Funktionen . . . . . . . . . . . . . . RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 79 80 80 80 80 80 81 81 82 82 83 83 84 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 85 85 85 86 87 87 87 88 88 88 88 88 88 89 89 90 90 90 90 91 92 92 92 93 93 94 94 94 95 96 96 96 97 98 99 99 Mathematik I+II Inhaltsverzeichnis vii 6.13a Ableitungen trigonometrischer Funktionen . . . . . . . . . 6.13b Additionstheoreme für trigonometrische Funktionen . . . . 6.13c Skalarprodukt und Winkel zwischen Vektoren in der Ebene . 6.13d Beispiel Kurvendiskussion: gedämpfte Schwingungen . . . 6.14 Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 7 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 100 101 101 102 Mittelwertsatz, Umkehrfunktionen 7.1 Der Mittelwertsatz und erste Anwendungen . . . . . . . . . . . . . 7.1a Der Mittelwertsatz . . . . . . . . . . . . . . . . . . . . . . 7.1b Monotone Funktionen . . . . . . . . . . . . . . . . . . . . 7.1c Hinreichende Bedingungen für Extrema . . . . . . . . . . . 7.2 Umkehrfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2a Satz über die Existenz der Umkehrfunktion . . . . . . . . . 7.2b Beispiel: Die Logarithmusfunktion als Umkehrfunktion der Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . 7.2c Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2d Graph der Umkehrfunktion . . . . . . . . . . . . . . . . . . 7.3 Arkus- und Areafunktionen . . . . . . . . . . . . . . . . . . . . . . 7.3a Arkuskosinus und Arkussinus . . . . . . . . . . . . . . . . 7.3b Arkustangens und Arkuskotangens . . . . . . . . . . . . . . 7.3c Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Ableitung von Umkehrfunktionen . . . . . . . . . . . . . . . . . . 7.4a Erläuterung der Ableitungsregel durch eine Skizze . . . . . 7.4b Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . 7.4c Bemerkung zu Ableitungen von Umkehrfunktionen . . . . . 7.5 Abschätzungen mit Hilfe des MWS . . . . . . . . . . . . . . . . . 7.5a Ungleichungen für trigonometrische Funktionen . . . . . . 7.5b Eine Standardabschätzung . . . . . . . . . . . . . . . . . . 7.5c Zum Nutzen des Mittelwertsatzes, weitere Abschätzungen . 7.6 Die Regeln von de l’Hospital . . . . . . . . . . . . . . . . . . . . . 7.6a Vorbemerkungen, die einfachen Grenzwertsätze . . . . . . . 7.6b Der Satz von de l’Hospital . . . . . . . . . . . . . . . . . . 7.6c Verallgemeinerungen des Satzes von de l’Hospital . . . . . 7.7 Anwendungen der Regeln von de l’Hospital . . . . . . . . . . . . . 7.7a (sin x)/x, x → 0 . . . . . . . . . . . . . . . . . . . . . 7.7b [ ln(1 + x) ]/x, x → 0 . . . . . . . . . . . . . . . . . . . 7.7c [(tan x) − x]/x3 , x → 0 . . . . . . . . . . . . . . . . . 7.7d ( ln x)/xp , x → ∞ . . . . . . . . . . . . . . . . . . . . . 7.7e [ 1/ ln(1 + x) ] − 1/x, x → 0 . . . . . . . . . . . . . . . 7.7f | tan x|(1/ ln |x|) , x → 0 . . . . . . . . . . . . . . . . . . 7.7g Bemerkungen zu “00 ” . . . . . . . . . . . . . . . . . . . . 7.7h Weitere Beispiele, Päckchen packen“ . . . . . . . . . . . . ” 7.7i Hilfe von Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 104 104 105 105 105 105 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 106 106 106 107 108 109 111 111 112 113 113 113 113 114 114 114 115 115 115 115 116 116 116 116 116 116 117 117 Integration stetiger Funktionen 8.1 Vorbemerkungen . . . . . . . . . . . . . . . . . 8.2 Trapezapproximation für das bestimmte Integral . 8.3 Das bestimmte Integral stetiger Funktionen . . . 8.3a Definition des bestimmten Integrals . . . 8.3b Bemerkungen zur Integraldefinition . . . 8.3c Eigenschaften des bestimmten Integrals . 8.3d Eine wichtige Abschätzung für Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 118 118 119 119 120 121 121 RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematik I+II Inhaltsverzeichnis 8.4 8.5 8.6 8.7 8.8 8.9 8.10 8.11 8.12 8.13 8.14 8.15 9 viii Der Hauptsatz der Differential- und Integralrechnung (Leibniz, Newton) . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4a Der Hauptsatz für bestimmte Integrale, Stammfunktion . . . 8.4b Bemerkung zu Stammfunktionen . . . . . . . . . . . . . . 8.4c Integral als Stammfunktion . . . . . . . . . . . . . . . . . . 8.4d Beweis des Hauptsatzes . . . . . . . . . . . . . . . . . . . 8.4e Variante des Mittelwertsatzes . . . . . . . . . . . . . . . . Das unbestimmte Integral . . . . . . . . . . . . . . . . . . . . . . . Beispiele für die Integration mit dem Hauptsatz . . . . . . . . . . . 8.6a Potenzen der Variablen . . . . . . . . . . . . . . . . . . . . 8.6b Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . 8.6c Potenzen von Funktionen und deren Ableitung . . . . . . . 8.6d Quadratische Polynome im Nenner . . . . . . . . . . . . . Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7a Beispiele für die partielle Integration . . . . . . . . . . . . Symmetriebetrachtungen bei Integralen . . . . . . . . . . . . . . . 8.8a Gerade (symmetrische) Funktionen . . . . . . . . . . . . . 8.8b Ungerade (antisymmetrische) Funktionen . . . . . . . . . . Die Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . . 8.9a Erste Form der Substitutionsregel . . . . . . . . . . . . . . 8.9b Zweite Form der Substitutionsregel . . . . . . . . . . . . . Substitutionen bei Wurzelausdrücken und Potenzen . . . . . . . . . 8.10a Beispiel mit ungerader Potenz k . . . . . . . . . . . . . . . 8.10b Beispiele mit gerader Potenz k . . . . . . . . . . . . . . . . Integrale rationaler Funktionen in den trigonometrischen Funktionen Approximative Berechnung eines Integrals, Simpsonregel . . . . . . 8.12a Quadraturverfahren . . . . . . . . . . . . . . . . . . . . . . 8.12b Simpsonsche Regel . . . . . . . . . . . . . . . . . . . . . . Integrale stückweise stetiger Funktionen . . . . . . . . . . . . . . . 8.13a Stückweise stetige Funktionen . . . . . . . . . . . . . . . . 8.13b Integral einer stückweise stetigen Funktion . . . . . . . . . Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . 8.14a Unbeschränkte Intervalle . . . . . . . . . . . . . . . . . . . 8.14b Integranden mit lokalen Singularitäten . . . . . . . . . . . . 8.14c Konvergenzkriterien für uneigentliche Integrale . . . . . . . Fehlerquellen bei der numerischen Integration . . . . . . . . . . . . Folgen, Konvergenz und Divergenz 9.1 Approximation von Lösungen, Zahlenfolgen . . . . . . . . 9.1a Approximation von Lösungen . . . . . . . . . . . 9.1b Definition der Zahlenfolgen und Beispiele . . . . . 9.2 Konvergenz einer Folge gegen einen Grenzwert . . . . . . 9.2a Definition der Konvergenz gegen einen Grenzwert 9.2b Beispiele konvergenter Folgen . . . . . . . . . . . 9.2c Praxis der Bestimmung von N (ε) . . . . . . . . . 9.3 Eindeutigkeit des Grenzwertes einer Folge . . . . . . . . . 9.4 Grenzwertsätze für konvergente Folgen . . . . . . . . . . 9.4a Lineare Operationen . . . . . . . . . . . . . . . . 9.4b Multiplikation und Division . . . . . . . . . . . . 9.4c Anwendung stetiger Funktionen . . . . . . . . . . 9.4d Abschätzungen für Folgen und Grenzwerte . . . . 9.4e Bemerkungen zur Konvergenz von Folgen . . . . . RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 122 122 122 122 122 123 123 124 124 124 125 125 125 127 127 127 128 128 129 129 130 130 131 132 132 132 132 132 133 133 133 134 134 135 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 137 137 137 138 138 138 139 140 140 140 140 141 141 141 Mathematik I+II Inhaltsverzeichnis ix 9.4f Beweis der Multiplikationsregel . . . . . . . . . . . . . . . . 9.5 Anwendungsbeispiele für Grenzwertsätze . . . . . . . . . . . . . . . 9.6 Divergente Folgen und Nullfolgen . . . . . . . . . . . . . . . . . . . 9.6a Sprechweise strebt gegen Unendlich“ . . . . . . . . . . . . ” 9.6b Kehrwert und Nullfolgen . . . . . . . . . . . . . . . . . . . . 9.7 Reelle monotone und beschränkte Folgen . . . . . . . . . . . . . . . 9.8 Fundamentalsatz über monotone beschränkte Folgen . . . . . . . . . 9.8a Der Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8b Bemerkungen zum Satz . . . . . . . . . . . . . . . . . . . . 9.9 Beispiele für monotone beschränkte Folgen . . . . . . . . . . . . . . 9.9a Die Eulerzahl e . . . . . . . . . . . . . . . . . . . . . . . . 9.9b Iteratives Wurzelziehen nach Heron und Newton . . . . . . . 9.10 Zur Grenzwertbestimmung rekursiv definierter Folgen . . . . . . . . 9.11 Vollständigkeit der reellen Zahlen und Beweis des Fundamentalsatzes 9.11a Ein Vollständigkeitsaxiom der reellen Zahlen . . . . . . . . . 9.11b Beweis des Fundamentalsatzes für monotone Folgen . . . . . 9.12 Offene und Abgeschlossene Mengen . . . . . . . . . . . . . . . . . . 10 Reihen 10.1 Konvergenz und absolute Konvergenz einer Reihe . . . . . . . . . . 10.2 Einfache Beispiele von Reihen . . . . . . . . . . . . . . . . . . . . 10.2a Eulerzahl, Unendliche Dezimalbrüche . . . . . . . . . . . . 10.2b Die geometrische Reihe . . . . . . . . . . . . . . . . . . . 10.2c Eine Reihe für Vergleiche . . . . . . . . . . . . . . . . . . 10.3 Vergleichskriterien für Konvergenz und Divergenz . . . . . . . . . . 10.3a Majorantenkriterium für absolute Konvergenz . . . . . . . . 10.3b Quotiententest . . . . . . . . . . . . . . . . . . . . . . . . 10.3c Quotientenkriterium . . . . . . . . . . . . . . . . . . . . . 10.3d Anwendungsbeispiele der Konvergenzkriterien . . . . . . . 10.4 Die Exponentialreihe . . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5a Zum Anfang einer Reihe . . . . . . . . . . . . . . . . . . . 10.5b Summanden einer konvergenten Reihe bilden eine Nullfolge 10.5c Lineare Operationen . . . . . . . . . . . . . . . . . . . . . 10.5d Weitere Kriterien . . . . . . . . . . . . . . . . . . . . . . . 10.6 Divergente Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . 10.6a Die harmonische Reihe ist divergent . . . . . . . . . . . . . 10.6b Minorantenkriterium für die Divergenz reeller Reihen . . . 10.6c Beispiele divergenter Reihen . . . . . . . . . . . . . . . . . 10.7 Das Integralkriterium . . . . . . . . . . . . . . . . . . . . . . . . . 10.7a Beispiel zum Integralkriterium . . . . . . . . . . . . . . . . 10.8 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.8a Satz über den Konvergenzradius . . . . . . . . . . . . . . . 10.8b Beispiele von Potenzreihen . . . . . . . . . . . . . . . . . . 10.9 Alternierende Reihen . . . . . . . . . . . . . . . . . . . . . . . . . 10.9a Das Leibnizkriterium . . . . . . . . . . . . . . . . . . . . . 10.9b Beispiele alternierender Reihen . . . . . . . . . . . . . . . RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 142 144 144 144 144 144 144 144 145 145 146 146 146 147 147 147 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 148 149 149 150 150 150 151 151 151 152 153 153 153 153 154 154 154 154 154 154 155 155 155 156 156 156 156 157 Mathematik I+II Inhaltsverzeichnis 11 Taylorreihen, Approximation durch Taylorpolynome 11.1 Erinnerung: Lineare und quadratische Näherung, Potenzreihen . . . . 11.1a Lineare Näherung differenzierbarer Funktionen . . . . . . . . 11.1b Durch Potenzreihen definierte Funktionen, Konvergenzradius 11.2 Hilfen bei der Arbeit mit Potenzreihen . . . . . . . . . . . . . . . . . 11.2a Formelsammlung, Linearität, gerade und ungerade Funktionen 11.2b Einsetzen in bekannte Funktionen . . . . . . . . . . . . . . . 11.2c Multiplikation mit Potenzen . . . . . . . . . . . . . . . . . . 11.2d Gliedweises Differenzieren und Integrieren . . . . . . . . . . 11.2e Bestimmung einer einfachen Funktion aus ihrer Potenzreihe . 11.3 Taylorreihe und Taylorpolynom, Restglied . . . . . . . . . . . . . . . 11.3a Taylorreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3b Taylorpolynom . . . . . . . . . . . . . . . . . . . . . . . . . 11.3c Restglied der Taylorapproximation . . . . . . . . . . . . . . . 11.3d Restgliedabschätzungen . . . . . . . . . . . . . . . . . . . . 11.3e Beispiele für Restgliedabschätzungen . . . . . . . . . . . . . 11.3f Mac Laurinsche Formel und Reihe . . . . . . . . . . . . . . . 11.4 Approximative Integration . . . . . . . . . . . . . . . . . . . . . . . x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.1 Definition und Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1a Definitionen und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 12.1b Herkunft von Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 12.1c Typische Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1d Partielle Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . 12.1e Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Lineare homogene Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . . 12.2a Spezielle Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2b Linearität der Lösungsmenge . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2c Lösungsformel für die allgemeine Lösung . . . . . . . . . . . . . . . . . . . 12.2d Beispiel einer linearen homogenen Differentialgleichung . . . . . . . . . . . 12.2e Das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Lineare inhomogene Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . 12.3a Lösungsformel für die allgemeine Lösung . . . . . . . . . . . . . . . . . . . 12.3b Beobachtung über inhomogene lineare Gleichungen . . . . . . . . . . . . . 12.3c Beispiel einer linearen inhomogenen Differentialgleichung . . . . . . . . . . 12.4 Das Anfangswertproblem für lineare Differentialgleichungen erster Ordnung . . . . 12.5 Bernoullische Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5a Beobachtungen bei Bernoullischen Differentialgleichungen . . . . . . . . . 12.6 Das Richtungsfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.7 Definitionsbereich einer Differentialgleichung erster Ordnung . . . . . . . . . . . . 12.7a Beispiele zum Definitionsbereich . . . . . . . . . . . . . . . . . . . . . . . 12.8 Separable Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.8a Gleichgewichtslösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.8b Weitere Lösungen separabler Differentialgleichungen . . . . . . . . . . . . . 12.8c Beispiel einer separablen Differentialgleichung . . . . . . . . . . . . . . . . 12.8d Das Anfangswertproblem für Nicht-Gleichgewichtslösungen . . . . . . . . . 12.8e Der autonome Spezialfall . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.9 Grundlegende Existenz- und Eindeutigkeitssätze für das Anfangswertproblem. . . . . 12.9a Vorbemerkungen: stetig, Lipschitz-stetig, partielle Ableitung bei Funktionen mehrerer Veränderlicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.9b Lokale Lösung des Anfangswertproblems (AWP) . . . . . . . . . . . . . . . RWTH Aachen 158 158 158 158 159 159 159 160 160 161 161 161 161 162 163 163 164 164 165 165 165 165 166 166 166 166 167 167 167 167 168 168 168 169 169 170 170 171 172 172 172 173 173 173 174 174 174 175 175 176 Mathematik I+II Inhaltsverzeichnis 12.9c Existenzsatz von Peano . . . . . . . . . . . . . . . . . . 12.9d Existenz- und Eindeutigkeitssatz von Picard-Lindelöf . . 12.10Anwendungen der Existenz- und Eindeutigkeitssätze auf Differentialgleichungen erster Ordnung . . . . . . . . . . . 12.10a Lineare Differentialgleichungen . . . . . . . . . . . . . 12.10b Eindeutigkeit bei Bernoullischen Differentialgleichungen 12.10c Allgemeine Lösung . . . . . . . . . . . . . . . . . . . . 12.10d Differentialgleichungen höherer Ordnung . . . . . . . . xi . . . . . . . . . . . 176 . . . . . . . . . . . 176 . . . . . 176 177 177 177 177 13 Lineare Differentialgleichungen und Systeme 13.1 Lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1a Die Differentialgleichung und das Anfangswertproblem . . . . . . . . . . . 13.1b Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . 13.1c Fall 1: zwei verschiedene reelle Lösungen . . . . . . . . . . . . . . . . . . . 13.1d Fall 2, Entartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1e Fall 3: konjugiert komplexes Nullstellenpaar . . . . . . . . . . . . . . . . . 13.2 Lineare gedämpfte Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2a Schwache Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2b Kritische Dämpfung (aperiodischer Grenzfall) . . . . . . . . . . . . . . . . 13.2c Starke Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Lineare homogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.4 Lineare inhomogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten und variabler Inhomogenität . . . . . . . . . . . . . . . . . . . . . . . . . . 13.5 Die Ansatzmethode für lineare inhomogene Differentialgleichungen n-ter Ordnung . 13.5a Polynomiale Inhomogenitäten . . . . . . . . . . . . . . . . . . . . . . . . . 13.5b Exponentielle und trigonometrische Inhomogenitäten . . . . . . . . . . . . . 13.5c Zusätzlicher polynomialer Faktor . . . . . . . . . . . . . . . . . . . . . . . 13.6 Die Grundlösungsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.6a Grundlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.6b Konstruktion einer partikulären Lösung . . . . . . . . . . . . . . . . . . . . 13.6c Beweisskizze der Lösungseigenschaft . . . . . . . . . . . . . . . . . . . . . 13.6d Andere Lösungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.7 Lineare Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.7a Übergang von Differentialgleichungen höherer Ordnung zu Systemen 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.7b Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . 13.8 Die Eigenvektormethode für lineare Systeme erster Ordnung mit konstanten Koeffizienten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.8a Homogene Systeme, Fundamentalsystem . . . . . . . . . . . . . . . . . . . 13.8b Beispiele zur Eigenvektormethode . . . . . . . . . . . . . . . . . . . . . . . 13.8c Differentialgleichung für die Komponenten . . . . . . . . . . . . . . . . . . 13.8d Lineare inhomogene Systeme 1. Ordnung . . . . . . . . . . . . . . . . . . . 13.9 Entkopplungsmethode für Systeme linearer Differentialgleichungen . . . . . . . . . 13.9a Homogener Teil in Dreiecksgestalt . . . . . . . . . . . . . . . . . . . . . . . 13.9b Allgemeines inhomogenes System 1. Ordnung . . . . . . . . . . . . . . . . 13.9c Ein System zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . 178 RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 178 178 179 179 179 180 180 180 180 180 181 182 182 182 182 183 183 183 184 184 184 184 185 186 186 186 187 187 188 188 189 191 Mathematik I+II Inhaltsverzeichnis xii 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 14.1 Beispiel für nicht eindeutige Lösungen des AWP . . . . . . . . . . . . . . . . 14.2 Substitution, Rückführung auf eine einfachere Differentialgleichung . . . . . . 14.3 Autonome nichtlineare Differentialgleichungen 2. Ordnung . . . . . . . . . . . 14.4 Potenzreihenansatz, Legendresche Differentialgleichung . . . . . . . . . . . . 14.4a Der Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4b Zur Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 14.4c Legendresche Differentialgleichung (Spezialfälle) . . . . . . . . . . . 14.5 Integralgleichung zum Anfangswertproblem, die Picard-Iteration . . . . . . . . 14.5a Die äquivalente Integralgleichung zum Anfangswertproblem . . . . . . 14.5b Die Picard-Iteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.5c Beispiele zur Picard-Iteration . . . . . . . . . . . . . . . . . . . . . . 14.5d Konvergenz des Verfahrens . . . . . . . . . . . . . . . . . . . . . . . . 14.6 Der lokale Existenz und Eindeutigkeitssatz, Stabilität der Lösungen . . . . . . 14.6a Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . 14.6b Stabilität, stetige Abhängigkeit von den Daten . . . . . . . . . . . . . . 14.7 Bemerkungen zu numerischen Verfahren . . . . . . . . . . . . . . . . . . . . . Sachverzeichnis RWTH Aachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 193 193 194 195 195 195 196 197 197 197 198 199 200 200 201 201 203 Mathematik I+II Schulstoff 1 Zur Auffrischung des Schulstoffs In diesem Abschnitt stellen wir einige Vorkenntnisse zusammen, insbesondere Eigenschaften wichtiger Funktionen. Die meisten gehören gemäß den Lehrplänen zum Schulstoff, außerdem sind sie im Vorkurs der RWTH besprochen worden. Wir haben einige zweckmäßige kleinere Ergänzungen hinzugefügt. Damit legen wir zugleich die von uns benutzten Schreibweisen und Konventionen fest. Auf die meisten Aussagen werden wir später nochmals eingehen, wenn das notwendige Handwerkszeug“ ” für eine systematische Behandlung entwickelt worden ist. Der Umgang mit diesen Funktionen muß gründlich geübt werden, deshalb benutzen wir sie schon von Anfang an in Anwendungsbeispielen. Mit diesem Vorspann können nicht mehr ausreichende Vorkenntnisse aufgefrischt werden. Die sichere Beherrschung der Bruchrechnung und Potenzrechnung, binomische Gleichungen, Lösen linearer und quadratischer Gleichungen, Mengenlehre u.s.w. (Sekundarstufe I) setzen wir voraus. A Lineare und quadratische Approximation Für eine zweimal differenzierbare Funktion kann in der Nähe einer Stelle x0 mit Hilfe der Ableitung leicht eine lineare sowie eine quadratische Näherung bestimmt werden. Die durch den folgenden Ausdruck gegebene Funktion `(x) = f (x0 ) + f 0 (x0 ) (x − x0 ) lineare Approximation beschreibt die Gerade, die an der Stelle x0 denselben Funktionswert und dieselbe Steigung (Ableitung) wie die Funktion f hat, sie beschreibt also die Tangente an den Graphen durch den Punkt (x0 , f (x0 ) ). Eine i.a. noch bessere Approximation durch eine Parabel wird durch die Funktion g(x) = f (x0 ) + f 0 (x0 ) (x − x0 ) + 1 00 f (x0 ) (x − x0 )2 , 2 die quadratische Approximation“ der Funktion nahe der Stelle x0 beschrieben, bei der nicht nur ” der Funktionswert sondern auch und die ersten beiden Ableitungen bei x0 = 0 übereinstimmen. Sie ist besonders in der Nähe von Extrema, wo f 0 (x0 ) = 0 ist, von Interesse, siehe 6.7c (ii). Mit der linearen und quadratischen Approximation kann man sich oft rasch einen ersten Überblick über den qualitativen Verlauf des Graphen einer Funktion f verschaffen. Eine quantitative Kontrolle des Fehlers bei diesen Approximationen wird im Abschnitt über die Approximation durch Taylorpolynome behandelt. Viele Beispiele für lineare und quadratische Approximationen werden in den folgenden Abschnitten angegeben. B Die Exponentialfunktion Die Exponentialfunktion gehört mit den Polynomen und trigonometrischen Funktionen zu den wichtigsten Funktionen in der Modellbildung und bei den Anwendungen (exponentielles Abklingen von gedämpften Schwingungen oder von radioaktiver Strahlung, exponentielles Wachstum, ...). Sie verallgemeinert den Potenzbegriff von ganzzahligen Potenzen auf reelle. Bei Verallgemeinerung auf komplexe Argumente erkennt man, daß die trigonometrischen Funktionen und die reelle Exponentialfunktion alle Spezialfälle einer einzigen komplexen Exponentialfunktion sind (siehe z.B. 6.9). Als Basis der Potenzen ist es zweckmäßig, die irrationale Eulerzahl e zu benutzen: µ ¶ ∞ X 1 1 1 n 1 = 1 + 1 + + + . . . = lim 1 + ≈ 2, 718 . . . . e := n→∞ k! 2! 3! n k=0 Die Exponentialfunktion ex ≡ exp(x) ist z.B. festgelegt durch die Berechnungsvorschrift ex ≡ exp(x) := 1 + x + RWTH Aachen x2 x3 + + ... . 2! 3! Mathematik I+II Schulstoff 2 Daß die unendlichen Summen für alle x ∈ R oder C sinnvoll sind, zeigen wir in Abschnitt 10.4. Alternativ können wir die Exponentialfunktion als die (eindeutige) stetige Funktion charakterisieren, die folgende Eigenschaften hat (Verallgemeinerungen der üblichen Potenzrechenregeln): e0 = 1, e1 = e, e(x+x̃) = ex · ex̃ , (ex )p = ex·p , x, x̃, p ∈ R. Daraus folgt z.B. e−x = 1/ex , denn 1 = e0 = e(x−x) = ex ·e−x . Insbesondere gilt e2 = e·e , e−3 = 1/(e · e · e) u.s.w., ex > 0 für alle x. Konkrete Funktionswerte liefern die Taschenrechner (oder Tabellen). Die Exponentialfunktion wächst sehr schnell“ für große x (schneller als xn für beliebig ” große Potenz n, siehe 6.9b), z.B. e5 ≈ 150, e10 ≈ 22.000, e22 ≈ 5 · 108 , und sie wird sehr schnell klein für x → −∞. Insbesondere gilt die Abschätzung ex > 1 + x für alle x > 0, da auf der rechten Seite positive Summanden weggelassen wurden (die Ungleichung ist sogar für alle x 6= 0 richtig). Die Graphen von ex und e−x mit ihren linearen Approximationen nahe 0 sind: 3 exp(x) = e x exp(-x) = e -x l (x) = 1-x l (x) = 1+x 1 1 0 –2 3 2 –2 0 2 Abbildung 0.1: Exponentialfunktion Besonders einfach sind Ableitungen (und Stammfunktionen) f (x) = ex , f 0 (x) = ex , f (k) (x) = ex für k ∈ N0 , deshalb ist die Wahl der (komplizierten) Zahl e als Basis so zweckmäßig, ähnlich dem Bogenmaß bei trigonometrischen Funktionen! Aus f 0 (x) = ex > 0 für alle x ∈ R folgt, daß die Exponentialfunktion streng monoton anwächst (7.1b). Die lineare Approximation (siehe A) um x0 = 0 ist ex ≈ e0 + e0 (x − 0) = 1 + x = `(x) für x ≈ 0. Die in der Wahrscheinlichkeitstheorie und Statistik wichtige Gaußsche Glockenkurve“ ist der Graph ” der Funktion 2 h(x) = e−x . Eine systematische Behandlung der Exponentialfunktion und Beweise ihrer Eigenschaften folgen später, wenn wir die dafür nötigen Hilfsmittel entwickelt haben, insbesondere in 6.9. C Der Logarithmus Die Logarithmusfunktion, genauer der natürliche Logarithmus ist die Umkehrfunktion zur Exponentialfunktion (siehe 6.10). Die Exponentialfunktion nimmt jeden Wert y > 0 genau für ein Argument x an, zu y > 0 gibt es genau ein x ∈ R mit ex = y, denn die Exponentialfunktion ist streng monoton steigend (Ableitung immer positiv). Definiere damit x = ln y ⇐⇒ y = ex (x ∈ R, y > 0). Der Logarithmus ist also nur für positive Argumente definiert! Den Graphen von ln erhält man (wie allgemein bei Umkehrfunktionen, siehe 7.2d) durch Spiegelung des Graphen von ex an der Winkelhalbierenden y = x, siehe Abb. 0.2. Auch der Logarithmus ist streng monoton steigend. RWTH Aachen Mathematik I+II Schulstoff 3 ex ln x 5 l(x) = x–1 1 3 1 ln x 2 5 0 1 1 5 3 Abbildung 0.2: Exponentialfunktion und Logarithmus Die Rechenregeln für die Exponentialfunktion ergeben als Rechenregeln für den Logarithmus (siehe 6.10) ln 1 = 0, ln e = 1, ln(y · ỹ) = ln y + ln ỹ (y, ỹ > 0), insbesondere ln(1/y) = − ln y, ln(y p ) = p · ln y (y > 0, p ∈ R), und es gelten die Identitäten x = ln(ex ) für x ∈ R, y = eln y für y > 0. Die Ableitung (auswendig lernen!) und eine Stammfunktion des Logarithmus sind f (x) = ln x, f 0 (x) = 1/x > 0, F (x) = x (ln x − 1), für x > 0, siehe 7.4b (i), also gilt mit ln(1) = 0 für x > 0: Z x 1 ln x = dt (± Flächeninhalt unter einer Standardhyperbel). 1 t Diese Eigenschaft kann – äquivalent zur Definition als Umkehrfunktion der Exponentialfunktion – zur Charakterisierung des Logarithmus dienen. 2 2 1/x 1 1 1/x 0 1 x Flächeninhalt = ln x 0 x 1 Flächeninhalt = − ln x Abbildung 0.3: Logarithmus als eine Stammfunktion zu 1/x Lineare Approximation bei x0 = 1 : ln x ≈ ln(1) + (1/1) (x − 1) = x − 1 = `(x). (bei x0 = 0 ist der Logarithmus nicht definiert!) RWTH Aachen Mathematik I+II Schulstoff D 4 Potenzen, Wurzeln Für jede Basis b ∈ R sind Potenzen mit positiv ganzzahligen Exponenten durch iterierte Multiplikation erklärt: b 1 = b, b k+1 = b · b k , k ∈ N . Negative Potenzen sind als Kehrwerte definiert: b −k = 1/b k und b 0 = 1 falls b 6= 0 (der Spezialfall 00 bedarf einer Sonderbehandlung, siehe 7.7g). Mit der Exponential- und Logarithmusfunktion können für positive Basen b > 0 die Potenzen auf beliebige reelle Exponenten verallgemeinert werden: b p := e p·ln b , b > 0, p ∈ R . Dann bleiben alle Regeln der Potenzrechnung gültig (siehe 6.10): b1p · b2p = (b1 · b2 ) p , b p+q = b p · b q , (b p )r = b p·r , b, b1 , b2 > 0, p, q, r ∈ R . Eine Sonderrolle spielen rationale Exponenten der Form p = 1/k, k ∈ N , die k-ten Wurzeln. Als √ spezielle reelle Potenz gilt b1/k ≡ k b = exp{(ln b)/k}, b > 0. Aufgrund der Potenzrechenregeln √ ist k b auch die eindeutige positive Zahl mit (b1/k )k = b , also zugleich die Umkehrfunktion (siehe √ 7.2) zur k-ten Potenz. Bei geradem k hat b1/k ≡ k b eine natürliche Fortsetzung zu b = 0 (wie jede positive Potenz), eine Fortsetzung auf negative b ist aber nicht möglich, da gerade Potenzen √ nie negativ sind. Anders bei ungeradem k : Zu jedem b ∈ R gibt es genau eine reelle Zahl k b √ √ mit ( k b)k = b , z.B. ( 3 −8) = −2. Diese Fortsetzung zu negativen Argumenten (Definition der Wurzel als Umkehrfunktion, siehe J und 7.2c) ist in den Anwendungen verbreitet und oft zweckmäßig, deshalb schließen wir sie nicht generell aus. Dabei muß aber unbedingt beachtet werden, daß in √ diesem Fall die Regeln der Potenzrechnung nicht mehr gültig zu sein brauchen: ( 3 −8) = −2 6= (−8)2/6 = [(−8)2 ]1/6 = [64]1/6 = +2 oder [(−8)1/6 ]2 nicht definiert. √ Beachte insbesondere, daß (Quadrat-)Wurzeln nie negativ sind!! 4 = 2, die andere Lösung von √ √ x2 = 4 ist x = −2 = − 4 6= 4. Wenn die positive Basis und/oder der Exponent eine Funktion einer Variablen x ist, so gilt natürlich b(x) p(x) = exp{p(x) · ln [b(x)] }, b(x) > 0, p(x) reell. Wir behandeln hier noch speziell die Fälle einer konstanten Basis b > 0 mit p(x) = x sowie der variablen Basis b(x) = x > 0 mit konstantem Exponenten. D.1 Potenzfunktionen und Logarithmen zu beliebiger positiver Basis Sei 0 < b = e ln b (z.B. b = 2 oder 10), dann ist f (x) = b x := (e ln b ) x = e x·ln b , x ∈ R, mit 1 x b . ln b Da ln e = 1 ist, hat gerade die Potenzfunktion zur Basis e, die Exponentialfunktion, die Eigenschaft f 0 = f . Mit b−x = (1/b) x entspricht die Spiegelung des Graphen an der y-Achse einem Übergang von b > 1 zu (1/b) < 1 oder umgekehrt, siehe Abb. 0.4. Der dekadische Logarithmus, meist als log (oder lg, log10 ) bezeichnet, ist die Umkehrfunktion von 10 x ln z 10 x = z ⇐⇒ x = log z = (weil 10 x = e x·ln 10 = z), z > 0. ln 10 Er war früher (vor der Zeit der Taschenrechner) eine wichtige Rechenhilfe und wird daher noch in vielen technischen Normen benutzt. Wir benutzen vorwiegend den natürlichen Logarithmus ln (in manchen Büchern leider auch als log bezeichnet!). Auch der Logarithmus zur Basis 2, log2 , ist insbesondere in der Datenverarbeitung gebräuchlich und nützlich. Allgemein ist logb (x) = (ln x)/(ln b). f 0 (x) = (ln b) e x·ln b = (ln b) b x RWTH Aachen und einer Stammfunktion F (x) = Mathematik I+II Schulstoff 5 x 10 -x x 10 = (1/10) e -x ex 4 4 (3/2) x (2/3) x 1 1 0 –2 1 2 –2 0 2 Abbildung 0.4: Potenzfunktionen zu verschiedenen Basen D.2 Reelle Potenzen positiver reeller Variabler Für 0 < x = e ln x ist f (x) = x p = e p·ln x für beliebiges p ∈ R. Wie von ganzzahligen Exponenten bekannt gilt auch bei reellen Exponenten für die Ableitung und eine Stammfunktion f 0 (x) = e p ln x · p · F (x) = 1 = p x p x−1 = p x p−1 , x 1 x p+1 für p 6= −1, p+1 F (x) = ln x für p = −1, wie wir mit den Ableitungsregeln für die Exponential- und Logarithmusfunktion berechnen. Entsprechend für g(x) = x x = e x·ln x , x > 0, g 0 (x) = e x·ln x [ ln x + x · (1/x) ] = [ ln x + 1 ] x x . E E.1 Trigonometrische Funktionen Geometrische Definition, Bogenmaß Die wichtigsten Funktionen zur Beschreibung von geometrischen Objekten wie Kreisen, Ellipsen, Kreisbögen, sowie von allen periodischen Vorgängen sind die trigonometrischen Funktionen (Winkelfunktionen) Sinus, Kosinus usw. Wie aus der Schule bekannt ist, sind sie zunächst Funktionen eines Winkels und sie beschreiben Längen im Einheitskreis (dem Kreis mit Radius 1), siehe Abbildung 0.5. Außer der Winkelmessung in Grad (englisch degree, deg“ auf dem Taschenrechner) ist es oft ” zweckmäßiger, Winkel äquivalent durch das Bogenmaß (englisch radian, rad“) zu beschreiben. Das ” ist die Länge auf dem Einheitskreis, positiv gegen den Uhrzeigersinn und negativ mit dem Uhrzeigersinn. Da der Einheitskreis den Umfang 2π hat und eine volle Drehung 360◦ sind, ergibt sich zur Umrechnung (siehe Abb. 0.6) : Bogenmaß = 2π Winkel in Grad 360 bzw. Winkel in Grad = 360◦ Bogenmaß . 2π Wir benutzen fast ausschließlich das Bogenmaß. RWTH Aachen Mathematik I+II Schulstoff 6 90◦ , π/2 60◦ , π/3 sin β 1 β cos β 30◦ , π/6 1 γ sin α α cos α ±180◦ , ±π 0◦ , 0 sin γ < 0 −45◦ , −π/4; 315◦ , 7π/4 ◦ ◦ 270 , 3π/2; −90 , −π/2 Abbildung 0.5: Sinus und Kosinus am Einheitskreis −1 sin x 1 π cos x 2π 0 Abbildung 0.7: Sinus und Kosinus E.2 sin x 1 cos x 1 −π Abbildung 0.6: Winkel in Grad und Bogenmaß 1 π/2 Abbildung 0.8: Vorzeichenhilfe Graphen von Sinus und Kosinus, einfache Eigenschaften Spezielle Werte sind direkt ablesbar: µ ¶ ³π ´ 3π cos 0 = sin = −1, = 1, cos π = sin 2 2 ¶ µ ³π ´ 3π sin 0 = sin π = cos = cos = . . . = 0, 2 2 √ ³π ´ π 1 2 cos = sin( ) = √ = (Pythagoras), 4 4 2 2 ³π ´ 1 ³π ´ sin = = cos (zu gleichseitigem Dreieck ergänzen), 6 2 3 sonstige Werte siehe Taschenrechner oder Formelsammlung. cos(−x) = cos(x) (gerade Funktion), Periodizität: sin(x) = sin(x + k · 2π), sin(−x) = − sin(x) (ungerade Funktion). cos(x) = cos(x + k · 2π) für alle k ∈ Z. Verschobene“ Bilder: cos(x) = sin(x + π/2), ” cos(x + kπ) = (−1)k cos(x) ∀ k ∈ Z und dasselbe für den Sinus. ( ¢ ¡π +1 für k = 0, ±2, . . . . Insbesondere gilt also: cos(kπ) = sin 2 + kπ = (−1)k = −1 für k = ±1, ±3, . . . Wichtige Identität: cos2 x + sin2 x = 1 für alle x ∈ R (Pythagoras). RWTH Aachen Mathematik I+II Schulstoff E.3 7 Differentiation und Integration trigonometrischer Funktionen (i) Es gilt für x im Bogenmaß f (x) = sin x f 0 (x) = cos x, h(x) = cos x h0 (x) = − sin x, auswendig lernen!! Merkhilfe für Vorzeichen, siehe Abb. 0.8: für x ∈ (0, π/2) gilt sin x > 0, cos x > 0. Sinus monoton steigend, also: f 0 = + cos; Kosinus monoton fallend, h0 = − sin. f 00 = − sin x = −f, f (4) = sin x = f, u.s.w., ebenso für h = cos . (ii) Lineare und quadratische Approximationen um x0 = 0: sin x ≈ sin 0 + (cos 0) · (x − 0) = x = `(x), cos x ≈ cos 0 + (− sin 0) · (x − 0) = 1 = `(x). Die bessere quadratische Approximation des Kosinus, bei der die Funktion und die ersten beiden l (x ) = x π/2 π/2 −π/2 sin x −π/2 l ( x)=1 1 1 π π 1 2π –1 –1 Abbildung 0.9: Sinus cos x 2π g ( x)=1 - x 2 /2 Abbildung 0.10: Kosinus Ableitungen bei x0 = 0 übereinstimmen, ist 2 cos x ≈ 1 − x /2 = g(x), denn auch d2 cos ¯¯ (x)¯ = −1 = g 00 (0). dx2 x=0 (iii) Stammfunktionen: Zu f = sin, h = cos erhalten wir als Stammfunktionen F (x) = − cos x + const, H(x) = sin x + const. Für eine systematische Behandlung der trigonometrischen Funktionen siehe insbesondere 6.11 und 6.13. E.4 Die Tangensfunktion sin x für x ∈ D = {x ∈ R | cos x 6= 0} = R \ {kπ + π/2 | k ∈ Z}, cos x also für x 6= ±π/2, ±3π/2, . . . . tan (x + k π) = tan x für k ∈ Z (π-periodisch, warum? ). Lineare Approximation bei x = 0: tan x ≈ tan 0 + (tan0 0)(x − 0) = x = `(x) mit tan0 (x) = 1/ cos2 (x) = 1 + tan2 (x) (mit der Quotientenregel, siehe 6.13a). tan x := RWTH Aachen Mathematik I+II Schulstoff 8 tan x l ( x) = x 1 −π −π/2 0 1 π/2 π 2π Abbildung 0.11: Die Tangensfunktion E.5 Weitere trigonometrische Funktionen, Identitäten, Abschätzungen Die abgekürzten Schreibweisen für die reziproken Funktionen cot x := cos x , sin x sec x := 1 , cos x cosec x ≡ csc x := 1 , sin x Kotangens, Sekans und Kosekans, sind oft entbehrlich. Es gelten sehr nützliche Identitäten, z.B. die Additionstheoreme wie sin (x + y) = sin x · cos y + cos x · sin y und sehr viele weitere, siehe 6.13b und insbesondere die Formelsammlungen. Wir weisen schon hier auf die für Abschätzungen sehr nützlichen Ungleichungen hin, die in 7.5a begründet werden, siehe die Abbildung 7.13. Außer den offensichtlichen Ungleichungen | sin x| ≤ 1 und | cos x| ≤ 1, die aus sin2 x + cos2 x = 1 folgen, gelten z.B. auch: x/2 ≤ sin x ≤ x und x ≤ tan x ≤ 2x für 0 ≤ x ≤ π/4. F Ellipsen und Hyperbeln µ ¶ x Die Punkte der Ebene, deren Koordinaten quadratischen Gleichungen genügen, liegen auf geoy metrisch wichtigen Kurven(paaren), den Kegelschnitten. Die Menge (µ ¶ ) ¯ µ x − x ¶2 µ y − y ¶2 x 0 0 2 ¯ ∈R ¯ + = 1 , a, b > 0, y a b µ ¶ x0 beschreibt im kartesischen Koordinatensystem eine Ellipse mit Zentrum ∈ R2 und achseny0 parallelen Halbachsen der Länge a in horizontaler Richtung (Abszissenrichtung) und b in vertikaler Richtung (Ordinatenrichtung). Falls a = b, so ist es ein Kreis mit Radius a. Durch Vorzeichenwechsel erhalten wir ein anderes Bild: ½µ ¶ ¾ ¯ ³ x ´2 ³ y ´2 x 2 ¯ ∈R ¯ − = c , a, b > 0, c ∈ {−1, 0, 1}, y a b beschreibt bei c = ±1 eine Hyperbel mit Symmetriezentrum im Ursprung (spiegelbildlich zu beiden Achsen und zum Ursprung). Bei c = −1 liegt der eine Ast oberhalb der Abszisse, es ist der Graph RWTH Aachen Mathematik I+II Schulstoff 9 3 c=–1 1 2 –2 –1 1 2 3 4 1 c=1 –4 c=0 –2 –1 c=1 c=0 0 2 4 –1 –2 –2 –3 Abbildung 0.12: Ellipse mit Zentrum (1, 0.5) c=–1 Abbildung 0.13: Hyperbeln mit Asymptoten p der Funktion y = f+ (x) = b 1 + (x/a)2 . Der andere Ast liegt spiegelbildlich zur Abszisse und p ist Graph von f− (x) = −b 1 + (x/a)2 . Bei c = +1 liegen die beiden Äste jeweils rechts und links, spiegelbildlich zur Ordinate. Bei c = 0 erhalten wir ein gekreuztes Geradenpaar y = ±b x/a. Diese Geraden sind zugleich die Asymptoten der Hyperbeln mit c 6= 0. In den Abbildungen 0.12 und 0.13 sind die Kurven(paare) für a = 3 und b = 2 dargestellt. Die aus der Schule vielleicht besser bekannte Hyperbel, der Graph von y = 1/x, liegt dazu gedreht und hat die Abszisse und die Ordinate als Asymptotenpaar. Wir kommen in Abschnitt 4.10 auf allgemeine Kegelschnitte zurück. G Lineare Gleichungssysteme und Gaußscher Algorithmus Bei vielen verschiedenen Fragestellungen treten im weiteren lineare Gleichungssysteme auf. Bevor wir diese in Kapitel 3 gründlicher untersuchen, stellen wir vorab ein (aus der Schule bekanntes) systematisches Eliminationsverfahren vor, den Gaußschen Algorithmus, mit dem von jedem linearen Gleichungssystem entweder die vollständige Lösung angegeben werden oder die Unlösbarkeit festgestellt werden kann. Später lernen wir andere, mitunter zweckmäßigere Lösungsverfahren kennen. G.1 Die Koeffizientenmatrix und die erweiterte Koeffizientenmatrix, homogene und inhomogene lineare Gleichunssysteme Ein reelles lineares Gleichungssystem von m Gleichungen in n Unbekannten xi , i = 1, . . . , n; m, n ∈ N, kann in der folgenden Form geschrieben werden, bei der auf der linken Seite“ der Glei” chungen die Terme nach den Unbekannten sortiert in Spalten angeordnet werden und auf der rechten ” Seite“ die konstanten Terme stehen: a11 x1 + a12 x2 + . . . + a1 n xn = b1 , a21 x1 + a22 x2 + . . . + a2 n xn = b2 , ... am 1 x1 + am 2 x2 + . . . + am n xn = bm , mit reellen Koeffizienten aik ∈ R , i = 1, . . . , m; k = 1, . . . , n. Diese können zu einer rechteckigen Anordnung, der Koeffizientenmatrix A, zusammengefaßt werden a11 a12 . . . a1 n a21 a22 a2 n A= . .. . .. . am 1 am 2 . . . RWTH Aachen am n Mathematik I+II Schulstoff 10 Die übrigen Einträge, die nicht mit den Unbekannten multipliziert werden, können zu einem Spaltenvektor b mit m Komponenten zusammengefaßt werden: b1 b2 b = . . .. bm Die erweiterte Koeffizientenmatrix a11 . . . a1. n Aerw = .. .. . am 1 . . . am n Aerw entsteht durch Anfügen des Vektors b rechts an A .. .. b1 . .. .. = (A .. b). .. . . bm Die Trennlinie in der Matrix mit m Zeilen und n + 1 Spalten kann, aber muß nicht geschrieben werden, sie dient der Übersicht. Aerw enthält dieselbe Information wie das ausgeschriebene lineare Gleichungssystem, jedoch viel kürzer geschrieben. Ein Gleichungssystem heißt homogen, wenn b1 = b2 = . . . = bm = 0. Ein homogenes System hat immer die triviale Lösung x1 = . . . = xn = 0, vielleicht weitere. Wenn nicht alle bi verschwinden, heißt das Gleichungssystem inhomogen. Inhomogene Systeme können lösbar oder unlösbar sein. Das Gaußsche Verfahren beruht auf der Beobachtung, daß die Lösungsgesamtheit eines linearen Gleichungssystems sich nicht ändert, wenn (a) die Reihenfolge der Gleichungen vertauscht wird, (b) ein Vielfaches einer Gleichung zu einer anderen addiert wird oder (c) eine Gleichung mit einer Konstanten c 6= 0 multipliziert wird. Offenbar ist eine Lösung des Gleichungssystems auch eine Lösung eines neuen Systems, das durch solche Operationen entstehen kann. Die Lösungsmenge nimmt also nicht ab; sie kann aber auch nicht zunehmen, denn durch ebensolche Operationen kann ein neues in das ursprüngliche Gleichungssystem zurückverwandelt werden. G.2 Drei typische Beispiele, Gauß-Gestalt Wenn ein lineares Gleichungssystem eine spezielle einfache Gestalt hat, die sogenannte Gauß-Gestalt, dann kann man leicht die Lösbarkeit feststellen und ggf. alle Lösungen angeben. Das erste Beispiel hat genau eine Lösung. x1 − 2x2 + x3 = 7 x2 − 2x3 = −5 x3 = 2 % % x1 = 7 + 2x2 − x3 = 7 − 2 − 2 = 3 x2 = −5 + 2x3 = −5 + 4 = −1 ist leicht zu lösen, das Gleichungssystem hat als erweiterte Koeffizientenmatrix 1 ... 7 1 −2 −2 ... −5 , Gauß-Gestalt. 1 Aerw = 0 .. 1 . 2 0 0 Unser zweites Beispiel hat unendlich viele Lösungen. x1 + 2x2 − x3 + 2x4 = 1, x3 + 2x4 = −1, x4 = 4. x3 = −1 − 8 = −9, % In keiner der Gleichungen steht x2 vorne“, daher wird es nicht eindeutig durch die xj mit j > 2, ” ausgedrückt. Wir können z.B. x2 = t ∈ R beliebig setzen und erhalten x1 = −16 − 2t, x2 = t, x3 = −9, x4 = 4, RWTH Aachen t ∈ R. Mathematik I+II Schulstoff 11 Die zugehörige erweiterte Koeffizientenmatrix ist hier 1 2 −1 2 ... 1 0 1 2 ... −1 , Gauß-Gestalt. Aerw = 0 . 0 0 0 1 .. 4 Das dritte Beispiel von zwei Gleichungen für drei Unbekannte ist unlösbar. à ! 1 3 −2 ... 1/2 Aerw = , Gauß-Gestalt. .. 0 0 0 1 . ! Die untere Zeile lautet ausgeschrieben: 0 x1 + 0 x2 + 0 x3 = 1, ein Widerspruch. Allgemein spricht man von der Gauß-Gestalt der erweiterten Koeffizientenmatrix, wenn in jeder Zeile das erste Element, das nicht verschwindet, weiter rechts steht, als in der darüberstehenden Zeile. Einige weitere Beispiele: 3 5 2 7 0 7 2 5 9 0 0 −3 15 0 0 0 −4 2 , 0 0 1 0 1 , 0 0 0 0 1 . 0 0 0 0 0 0 0 8 3 0 0 0 0 0 G.3 Elementare Zeilenoperationen für Matrizen, der Gaußsche Algorithmus Ziel des Gaußschen Algorithmus (der Gauß-Elimination) ist es, ein Gleichungssystem in die GaußGestalt zu überführen. Um Schreibarbeit zu sparen, wird das nicht mit den ausgeschriebenen Gleichungen sondern mit der erweiterten Matrix durchgeführt. Wir lassen den Trennstrich weg (der Algorithmus ist auch bei anderen Matrizen als Aerw nützlich) und schreiben für die erste, zweite, . . . Zeile der Matrix z1 , z2 u.s.w. Die folgenden elementaren Zeilenoperationen, die die Lösungsmenge nicht verändern, führen zum Ziel: (a) Vertauschen von Zeilen, (b) Addition eines Vielfachen einer Zeile zu einer anderen Zeile: zi −→ zi + c zj , (c) Multiplikation einer Zeile mit einer Zahl c 6= 0: zi −→ c zi . Wir erläutern den Gaußschen Algorithmus, das Gaußsche Eliminationsverfahren, mit dem durch elementare Zeilenoperationen eine Matrix in Gauß-Gestalt überführt wird, an Beispielen, siehe dazu auch 2.8. (i) Vertausche (falls nötig) die Zeilen, so daß in der ersten Spalte, die nicht nur Null enthält, in der obersten Zeile keine Null steht: 1 3 2 6 −4 1 0 2 (a) 2 6 −4 3 , 1 1 −→ 0 2 z1 und z2 vertauscht. 4 8 −10 −3 4 8 −10 −3 (ii) Dividiere evtl. die obere Zeile durch deren führende Ziffer, so daß oben links“ eine führende ” ” Eins“ entsteht: 1 1 3 −2 1/2 2 6 −4 1 (c) 0 2 3 , 1 3 −→ 0 2 1 z1 → z1 . 2 4 8 −10 −3 4 8 −10 −3 Dieser Schritt ist nicht notwendig, er erleichtert manchmal die Rechnung und kann zur Übersichtlichkeit beitragen. Er ist unzweckmäßig, wenn dadurch komplizierte Bruchzahlen entstehen, oder wenn RWTH Aachen Mathematik I+II Schulstoff 12 durch Parameterabhängigkeiten Fallunterscheidungen auftreten. (iii) Addiere geeignete Vielfache der ersten Zeile zu tieferen Zeilen, so daß in der führenden Spalte unter der ersten Zeile überall Null entsteht: 1 3 −2 1/2 1 3 −2 1/2 (b) 0 2 1 3 −−→ 0 2 1 3 4 8 −10 −3 0 −4 −2 −5 (in z2 nicht nötig, z3 → z03 = z3 − 4z1 ). (iv) Wiederhole das Verfahren in der kleineren Matrix (ohne die obere Zeile, die erste Spalte ändert sich dann automatisch auch nicht mehr) u.s.w., hier z.B. z3 → z3 + 2 z2 , z2 → (1/2) z2 , 1 3 −2 1/2 (b), (c) −−−−→ 0 1 1/2 3/2 . 0 0 0 1 Alleine durch elementare Zeilenoperationen haben wir die Matrix in Gauß-Gestalt (G.2) überführt. Im Schritt (c) ist es wesentlich, daß c 6= 0 !! Ein weiteres Beispiel, in dem ein reeller Parameter β ∈ R auftritt: 1 5 −3 1 5 −3 1 5 −3 (b) (b) 2 12 8 −−−−−−−→ 0 2 14 −−−−−−−→ 0 2 14 z2 →z2 −2 z1 z3 →z3 +3 z1 −3 −16 β −3 −16 β 0 −1 β − 9 1 (c) 0 −−−−−−−→ z2 →(1/2) z2 0 5 1 −1 −3 1 (b) 7 0 −−−−−−→ z3 →z3 +z2 β−9 0 5 1 0 −3 7 β−2 Das Ergebnis ist von Gauß-Gestalt (und zusätzlich ist das erste nicht verschwindende Matrixelement in den ersten beiden Zeilen, in denen es für alle β möglich ist, die Eins, das ist nicht notwendig aber oft zweckmäßig). Nun ist es jeweils einfach, das Gleichungssystem zu lösen oder die Unlösbarkeit festzustellen. Wenn die Matrix im letzten Beispiel die erweiterte Koeffizientenmatrix eines Systems von drei Gleichungen für zwei Unbekannte ist, dann ist das System unlösbar für β 6= 2, für β = 2 hat es die eindeutige Lösung x2 = 7, x1 = −38. Parameterabhängige Gleichungssysteme treten oft in Anwendungen auf. Beispielsweise kann es von der zulässigen Krümmung als Parameter abhängen, ob eine Eisenbahnstrecke ohne Tunnel durch ein Gelände geführt werden kann. Beachten Sie, daß der hier durch einen Pfeil bezeichnete Übergang von einer Matrix zu einer einfacheren keine Gleichheit zwischen Matrizen ist, schreiben Sie deshalb auch kein Gleichheitszeichen! Dringender Rat: Zur Probe die gefundene Lösung in die ursprünglichen Gleichungen einsetzen, um mögliche Rechenfehler aufzuspüren. Meist heißt der bisher angegebene Algorithmus nur nach Gauß. Werden die Einträge oberhalb der führenden Eins’en auch zu Null gemacht, so spricht man dann oft vom Gauß-Jordan Verfahren, siehe 3.7. Die Bezeichnungsweise ist nicht einheitlich. H Aussagen, Gleichheit, Äquivalenz Eine Gleichheit kann zwischen Zahlen gelten oder zwischen Funktionen, Mengen, ..., z.B. für das Intervall, eine Menge von Zahlen: (3, 5) = {x ∈ R | 3 < x < 5}; oder f (x) = 5 [ der Funktionswert f (x), eine Zahl, ist 5 ] u.s.w. Eine Gleichheit ist eine Aussage. Andere Aussagen können z.B. Ungleichungen sein wie |x − 3| ≤ 2 oder die Aussage, daß ein Element zu einer Menge gehört: x ∈ [1, 5]. RWTH Aachen Mathematik I+II Schulstoff 13 Zwei Aussagen, die dasselbe bedeuten, sind äquivalent, im Zeichen ⇐⇒, verwenden Sie nie das Gleichheitszeichen zwischen Aussagen! Als Beispiel für zwei äquivalente Aussagen: |x − 3| < 2 ⇐⇒ x ∈ (1, 5). [ Es ist auch ein Fehler, ein Äquivalenzzeichen zwischen Zahlen, Funktionen oder Mengen zu gebrauchen! ] Oft folgt nur eine Aussage aus einer anderen, die Umkehrung braucht nicht richtig zu sein, z.B.: 0<x<1 =⇒ |x| < 5. Aus der linken Aussage (nämlich x > 0 und x < 1 ) folgt die rechte Aussage. Beachten Sie, daß auch jede der eingerückten Zeilen insgesamt wieder eine wahre Aussage ist, hier jeweils eine kompliziertere zusammengesetzte Aussage. Unterscheiden Sie sorgfältig Gleichheitszeichen und Äquivalenz in Ihren Notizen und in Lösungen von Klausuraufgaben, diese Denkdisziplin hilft, Fehler zu vermeiden. I Vollständige Induktion Oft möchte man sicherstellen, daß alle unendlich vielen Mitglieder einer Familie von Aussagen A(n), die durch n ∈ N abgezählt“ werden, richtig sind. In dieser Vorlesung sind solche Aussagen meist ” Gleichungen oder Ungleichungen. Dazu dient das Beweisverfahren der vollständigen Induktion: Seien A(n), n ∈ N oder N0 Aussagen und es gelte (i) Induktionsanfang: A(n0 ) ist richtig für ein n0 ∈ N0 , (ii) Induktionsschluß: Aus der Induktionsannahme, der Aussage A(n), folgt die Induktionsbehauptung, die nachfolgende Aussage A(n + 1), für jedes n ≥ n0 , kurz: A(n) impliziert A(n + 1)“ , ” dann ist die Aussage A(n) für alle n ≥ n0 richtig. J Unsere Konventionen In der Mathematik ist die Bedeutung der meisten Begriffe und Symbole eindeutig festgelegt, leider gibt es aber Ausnahmen, wie es bei einem Gebiet, das sich über Jahrtausende weiterentwickelt hat, nicht verwunderlich ist. Wir benutzen meist die vorherrschenden Konventionen und wir weisen in diesem Skriptum oft auf andere Konventionen hin, wenn diese ebenfalls gebräuchlich sind. Wir stellen hier einige unserer Konventionen zum schnellen Nachschlagen zusammen. • Teilmengen: Wir schreiben A ⊆ B wenn auch die Gleichheit von A und B zugelassen ist, A ⊂ B oder zur Betonung A ( b , wenn A eine echte Teilmenge von B ist. Viele Autoren lassen bei “A ⊂ B” auch Gleichheit zu (und der Autor wird es aus alter Gewohnheit in der Vorlesung auch öfters tun). • Zahlen und Vektoren: Wir bezeichnen Zahlen meist mit gewöhnlichen Buchstaben (wie a, x) und Vektoren x ∈ Rn mit Fettdruck (handschriftlich meist ~x ). Der Fall eines n = 1dimensionalen Vektors, einer Zahl, ist bei Aussagen über Vektoren als Spezialfall immer zugelassen, wenn es nicht ausdrücklich anders gesagt wird. (Manche Aussagen und Begriffe wie z.B. Winkel zwischen Vektoren sind allerdings nur für n ≥ 2 interessant.) • Funktionen und Abbildungen: Wie heutzutage in der Mathematik üblich benutzen wir “Funktion” und “Abbildung” völlig gleichbedeutend, jedem Element x des Definitionsbereichs D (oder Df ) wird durch die Funktion oder Abbildung f genau ein Element des Bildbereiches Y zugeordnet, geschrieben: f : D → Y, x 7→ f (x), siehe 5.2. Manche Autoren machen Unterschiede und gebrauchen “Abbildung” etwa im höherdimensionalen Fall. RWTH Aachen Mathematik I+II Schulstoff 14 • Wurzeln: Zur Abkürzung benutzen wir für beliebige reelle Argumente z.B. 1/3 für a > 0 a √ 3 a := 0 für a = 0 1/3 −(−a) für a < 0 und entsprechend für √ k a bei k ungerade, siehe D. • Stammfunktion, unbestimmtes Integral: Jede (stetig) differenzierbare Funktion F , die in einem interessierenden Bereich F 0 = f erfüllt, ist dort eine Stammfunktion von f . Dann ist dort auch F + c für jede Konstante c ∈ R eine Stammfunktion. Als unbestimmtes Integral beR zeichnen wir die Menge aller Stammfunktionen, oft geschrieben als f (x) dx. Bevor wir die Integrationstheorie im zweiten Teil systematisch behandeln, werden wir durch Differentiation in Kapitel 6 und 7 schon viele Stammfunktionen kennenlernen. RWTH Aachen Mathematik I+II 1 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 15 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen Wir verweisen für den Gaußschen Algorithmus zur Lösung linearer Gleichungssysteme, ein Eliminationsverfahren, das schon aus der Schule im wesentlichen bekannt sein sollte, auf Abschnitt G (Schulstoff). Wir stellen es dort zur Erinnerung und zum Nachschlagen bereit, da solche Gleichungssysteme schon bald auftreten. Eine systematische Untersuchung der Lösungsstruktur dieser Gleichungen folgt erst in Kapitel 3, wenn weitere dafür nützliche Hilfsmittel verfügbar sind. Die Hauptthemen dieses Kapitels betreffen die Vektorrechnung im n-dimensionalen linearen Raum Rn . Wir wenden sie an, um insbesondere die geometrischen Eigenschaften der Geraden, Ebenen und Hyperebenen in Räumen beliebiger Dimension zu untersuchen, um also die Fragestellungen der analytischen Geometrie linearer und affiner Teilräume zu lösen. 1.1 Der Vektorraum Rn Den R1 ≡ R kann man als die bekannte Zahlengerade, den R2 als Ebene (als Vektorraum dasselbe wie die komplexe Gaußsche Zahlenebene C) und den R3 als den uns umgebenden Raum veranschaulichen. Die systematische Beschreibung geometrischer Objekte mit Hilfe von Zahlen, mit denen man rechnen kann, geht auf Descartes zurück, nach dem das rechtwinklige kartesische Koordinatensystem benannt ist. Neben diesen geometrischen Anwendungen können die Komponenten von Vektoren im Rn ganz andere Bedeutungen haben, z.B. Strömungsgeschwindigkeiten an vielen verschiedenen Punkten in einer Flüssigkeit oder Preise von Waren in einem Laden. Bei der approximativen numerischen Berechnung von Strömungen oder von Verformungen in Festkörpern treten z.B. lineare Gleichungssysteme in sehr vielen Variablen auf, Dimensionen n in den Millionen sind dabei keine Seltenheit. Daher betrachten wir allgemeine Dimensionen n, auch wenn in Beispielen zur Vereinfachung der Schreibweise oft n = 2 oder 3 benutzt wird. Die Begriffe Vektorraum und linearer Raum bedeuten dasselbe. Es gibt auch andere lineare Räume, z.B. den Vektorraum der Polynome oder den Vektorraum der Matrizen einer gegebenen Größe, in dieser Vorlesung beschäftigen wir uns hauptsächlich mit dem Rn . Die Elemente des Rn sind geordnete n -Tupel reeller Zahlen, meist als Spalten geschrieben: x1 x2 x= ... ≡ x ≡ x ≡ x ≡ ~x, xj ∈ R für j = 1, 2, . . . , n. xn Die Elemente des Rn heißen Vektoren, sie werden außer mit Fettdruck auch mit gewöhnlichen, Fraktur- oder unterstrichenen Buchstaben bezeichnet oder häufig mit einem Pfeil markiert (insbesondere handschriftlich in Vorlesungen und Übungen). Warum die Spaltenschreibweise zweckmäßig ist, wird in Kapitel 2, insbesondere in 2.6, deutlich. Um Platz zu sparen, werden wir trotzdem gelegentlich die Zeilenschreibweise benutzen, x = (x1 , x2 , x3 , . . . , xn ), korrekt wäre x = (x1 , x2 , x3 , . . . , xn )tr , ein Spezialfall der in 2.3 eingeführten transponierten Matrix. Wenn keine Verwechslungsgefahr besteht, benutzen wir zur Vereinfachung und Platzersparnis aber auch die Zeilenschreibweise ohne tr . Ganz analog kann man den komplexen Vektorraum Cn von geordneten n -Tupeln komplexer Zahlen untersuchen, in diesem Kurs spielt er aber nur gelegentlich eine Rolle (z.B. bei Differentialgleichungen für Schwingungen). 1.2 Rechnen im Rn Zwei Vektoren im Rn sind gleich, wenn sie in allen Komponenten übereinstimmen: x = y ⇔ x1 = y1 , x2 = y2 , . . . und xn = yn , Gleichheit gilt komponentenweise. Die Summe RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 16 zweier Vektoren im Rn ist durch komponentenweise Addition definiert, z.B. im R3 à ! à ! à ! x1 y1 x1 + y1 x = x2 , y = y2 , x + y = x2 + y2 , x3 y3 x3 + y3 beide Vektoren müssen dieselbe Dimension n haben, sonst ist deren Summe nicht definiert! Außerdem ist eine Multiplikation von Vektoren mit reellen Zahlen (die in diesem Zusammenhang oft Skalare genannt werden) definiert, ebenfalls komponentenweise: ! à λ x1 λ x = λ x2 , λ ∈ R (gelegentlich auch x λ geschrieben). λ x3 x2 b + x2 0 b x Punkt x x’ Vektor x x + x’ x1 a + x1 a x’ x Vektor x Abbildung 1.1: Punkt und Vektoren Abbildung 1.2: Vektoraddition Im R2 und R3 können die Vektoren als Punkte in der Ebene oder im Raum veranschaulicht werden (die Komponenten xi sind dann die Koordinaten des Punktes im rechtwinkligen Koordinatensystem) oder als Pfeile ≡ Vektoren ≡ gerichtete Strecken z.B. vom Ursprung zum Punkt mit Koordinaten xi oder auch parallel dazu verschoben: die Koordinaten des Anfangs- und Endpunktes unterscheiden sich jeweils um xi , siehe Abbildung 1.1. Vektoraddition kann man durch Aneinandersetzen“ ver” anschaulichen (Abb. 1.2). Multiplikation mit λ > 1 (0 < λ < 1) bedeutet Streckung (Stauchung), ein negatives λ bewirkt zugleich eine Richtungsumkehr. Man schreibt −x für (−1)x, 2x − 3y für 2x + (−3)y u.s.w. Der Vektor y − x ist auch der Vektor vom Punkt x zum Punkt y (oder parallel dazu verschoben). Der Nullvektor 0 = (0, 0, . . . , 0) ∈ Rn ist von der Zahl 0 zu unterscheiden (auch wenn die Schreibweise 0 manchmal auch für den Vektor gebraucht wird!!). Es gilt offensichtlich x + 0 = 0 + x = x, x − x = x + (−x) = 0, 0 x = 0 für alle x ∈ Rn . In Rn gelten Regeln der Addition wie das Kommutativgesetz x+y = y+x und das Assoziativgesetz (x+y)+z = x+(y+z), auf die wir als Eigenschaften (A1)–(A4) im Abschnitt über Körperaxiome später zurückkommen werden. Mit dem Assoziativgesetz ist die Summe endlich vieler Vektoren auf natürliche Weise eindeutig definiert. Man überprüft leicht die folgenden Rechenregeln für λ, µ ∈ R und x, y ∈ Rn komponentenweise durch Rückführung auf die entsprechenden Regeln für das Rechnen mit reellen Zahlen: (λ + µ) x = λ x + µ x (Distributivgesetz), λ(x + y) = λ x + λ y (Distributivgesetz), λ(µ x) = (λ µ) x (Assoziativgesetz). Für endlich viele Vektoren a1 , a2 , . . . , ak ∈ Rn heißt λ1 a1 + λ2 a2 + . . . + λk ak eine Linearkombination der Vektoren a1 , . . . , ak , wobei die Koeffizienten λj ∈ R beliebig sind. RWTH Aachen Mathematik I+II 1 1.3 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 17 Lineare Abhängigkeit und Unabhängigkeit Zwei Vektoren a, b ∈ Rn heißen linear abhängig, wenn es eine (und dann unendlich viele) nichttriviale Lösungen der Gleichung λ a + µ b = 0, (λ, µ) 6= (0, 0) gibt. Zwei nicht verschwindende Vektoren sind dann parallel oder antiparallel, a = (1, 1), b = (−2, −2) sind antiparallel, sie erfüllen z.B. 2a + b = 0 = 4a + 2b = . . . . Für alle a sind a und 0 linear abhängig (warum?). Falls umgekehrt für gegebene Vektoren a und b die Gleichung λ a + µ b = 0 nur die triviale“ ” Lösung λ = 0 = µ hat, so heißen a und b linear unabhängig. So sind z.B. e1 = (1, 0, . . . , 0) und e2 = (0, 1, 0, . . . , 0) linear unabhängig, denn λ e1 + µ e2 = (λ, µ, 0, . . . , 0) = (0, 0, 0, . . . , 0) hat einzig die Lösung λ = 0 = µ. Zwei linear unabhängige Vektoren sind nicht (anti)parallel, sie spannen eine Ebene auf, siehe 1.15a. Allgemein heißen k Vektoren a1 , a2 , . . . , ak ∈ Rn linear unabhängig, wenn die Gleichung λ1 a1 + λ2 a2 + . . . + λk ak = 0 nur von λ1 = λ2 = . . . = λk = 0 gelöst wird. Dann kann keiner der Vektoren aj als Linearkombination der übrigen ausgedrückt werden. Wenn es auch eine andere (nichttriviale) Lösung gibt (mindestens ein λj 6= 0), so heißen sie linear abhängig. Komponentenweise ausgeschrieben ist λ1 a1 + λ2 a2 + . . . + λk ak = 0 ein homogenes lineares Gleichungssystem in den k Unbekannten λ1 , . . . , λk , das z.B. mit dem Gaußschen Algorithmus (G.3) vollständig gelöst werden kann. Geometrisch bedeutet es für drei Vektoren im R3 , daß sie linear abhängig sind, wenn ihre Richtungen in einer Ebene (oder sogar auf einer Geraden) liegen. Die drei Vektoren a1 = (1, 1, 1), a2 = (1, −1, 1), a3 = (1, 0, 1) sind linear abhängig, denn die Gleichung λ1 a1 + λ2 a2 + λ3 a3 = (λ1 + λ2 + λ3 , λ1 − λ2 , λ1 + λ2 + λ3 ) = (0, 0, 0) wird auch gelöst von λ1 = λ2 = µ, λ3 = −2µ, µ ∈ R beliebig. (Die drei Vektoren aj liegen in der Ebene mit x1 = x3 .) a1 , a2 und b = (1, 0, 0) sind hingegen linear unabhängig (warum?). In beliebiger Dimension n ist das folgende wichtige System von n Vektoren, die Standardba” sis“, offenbar linear unabhängig: e1 , e2 , (wie oben) . . . , en = (0, 0, . . . , 0, 1). Wie die Beispiele zeigen, gibt es im Rn Systeme von n linear unabhängigen Vektoren. Man kann jedoch zeigen, daß m Vektoren im Rn für m > n immer linear abhängig sind. Die Dimension eines Vektorraumes ist allgemein die Höchstzahl linear unabhängiger Vektoren. Im Spezialfall des Vektorraums Rn ist die Dimension gerade die Anzahl n der Komponenten. Ein System von n linear unabhängigen Vektoren in Rn heißt eine Basis, siehe 1.4 und 1.11. 1.4 Basis Eine Menge von n linear unabhängigen (1.3) Vektoren B = {b1 , b2 , . . . , bn | bj ∈ Rn } heißt eine Basis (Anzahl der Vektoren = Dimension n). Eine besonders wichtige Eigenschaft einer Basis ist, daß ein beliebiger Vektor x ∈ Rn eindeutig als Linearkombination (siehe 1.2) von Basisvektoren ausgedrückt werden kann: Es gibt eindeutige Koeffizienten λ1 , λ2 , . . . , λn ∈ R, so daß x = λ1 b1 + λ2 b2 + . . . + λn bn . Zur Eindeutigkeit der λi : Wenn auch x = µ1 b1 + . . . + µn bn , so folgt 0 = x − x = (λ1 − µ1 ) b1 + . . . + (λn − µn ) bn . Aus der linearen Unabhängigkeit der bj folgt λ1 = µ1 , λ2 = µ2 , . . . , λn = µn . Man schreibt das dann auch in der folgenden Notation: λ1 xB = ... falls B = {b1 , . . . , bn }, x = λ1 b1 + . . . + λn bn λn für die Spalte der Koeffizienten eines Vektors x bezüglich der Basis B. Für besonders zweckmäßige Basen, die Orthonormalbasen, siehe Abschnitt 1.11. Dazu gehört die im vorigen Abschnitt angegebene Standardbasis e1 , . . . , en . Bei einer allgemeinen Basis b1 , . . . , bn ∈ Rn bestimmt man die eindeutigen Koeffizienten λj , mit denen x = λ1 a1 + . . . + λn an gilt, durch Lösen des linearen Gleichungssystems für die λj . Daß dieses Gleichungssystem immer genau eine Lösung hat, sehen wir z.B. in Abschnitt 3.2b. RWTH Aachen Mathematik I+II Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1 18 Später (2.11c) lernen wir noch ein weiteres Hilfsmittel kennen, um zu entscheiden, ob n gegebene Vektoren a1 , . . . , an ∈ Rn eine Basis bilden: Wir ordnen die n Vektoren (in beliebiger Reihenfolge) als Spaltenvektoren einer quadratischen n × n-Matrix A an und berechnen die Determinante det(A) (2.10). Das System von n Vektoren a1 , . . . , an bildet genau dann eine Basis des Rn , wenn det(A) 6= 0. (Mit Zeilenvektoren gilt dasselbe.) 1.5 Das Skalarprodukt im Rn In der Vektorrechnung bezeichnet man die reellen (oder auch komplexen) Zahlen oft als Skalare, denn die Multiplikation mit einer positiven Zahl ändert zwar die Längen, die Skala (z.B. der Übergang zwischen Metern und Kilometern), Richtungen können aber dadurch nicht gedreht werden. Oben haben wir ein Produkt Zahl · Vektor = Vektor kennengelernt. Hier folgt ein Produkt Vektor · Vektor = Zahl, das Ergebnis des Produktes ist ein Skalar, eine Zahl. Daher kommt der Name Skalarprodukt. Ein Vektorprodukt“ der Form Vektor × Vektor = Vektor ist nur im Spezialfall n = 3 (in gewissem ” Sinne auch für n = 2) möglich, siehe Abschnitt 1.10. 1.5a Definition des Skalarproduktes Seien x, y ∈ Rn , ihr Skalarprodukt oder inneres Produkt x · y (anstelle der Schreibweise mit Punkt auch mit (x, y) oder hx, yi bezeichnet) ist die Zahl (Skalar) x · y := n X xj yj ∈ R ; j=1 z.B. x = (2, 3, 4), y = (1, −5, 6), 1.5b x · y = 2 · 1 + 3 · (−5) + 4 · 6 = 11. Eigenschaften des Skalarproduktes: x · y = y · x, (λ x) · y = x · (λ y) = λ (x · y), x · x = 0 ⇐⇒ x = 0, x · (y + z) = x · y + x · z, Kurzschreibweise: x2 := x · x = n X x2j ≥ 0. j=1 Beispielsweise zeigt man das Distributivgesetz, die dritte Gleichung in der oberen Zeile, durch Rückführung auf das Distributivgesetz für reelle Zahlen in jedem Summanden (zweites Gleichheitszeichen): x · (y + z) = n X n n n X X X xj (yj + zj ) = (xj yj + xj zj ) = xj yj + xj zj = x · y + x · z. j=1 1.6 j=1 j=1 j=1 Betrag (Länge) eines Vektors Für x ∈ Rn definieren wir den Betrag |x| gemäß: √ |x| := x · x = µX n x2j ¶1/2 ≥ 0. j=1 Für n = 2, 3 ist dies der Euklidische Abstand des Punktes x vom Ursprung, also die Länge des Vektors x. Der Betrag von x wird in beliebiger Dimension auch als Länge oder Norm von x bezeichnet, RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 19 als Notation ist auch kxk gebräuchlich. Offenbar gilt |λ x| = |λ| |x|, |x| = 0 ⇐⇒ x = 0, denn z.B. |(λ x1 , λ x2 )| = [ (λ x1 )2 + (λ x2 )2 ]1/2 = [λ2 ]1/2 [ x21 + x22 ]1/2 = |λ| |x|. |x2 | = x2 = x · x = |x|2 (weil x2 ≥ 0), z.B. |(−2, 6, −4)| = [ 4 + 36 + 16 ]1/2 = √ √ 56 = 2 14 √ = |(−2)(1, −3, 2)| = | − 2| [ 1 + 9 + 4 ]1/2 = 2 14 . Geometrisch ist |y − x| = |x − y| die Länge des Vektors von x nach y bzw. umgekehrt, also der Abstand der Punkte x und y. Zum Vektor x 6= 0 hat der normierte Vektor oder Einheitsvektor x/|x| dieselbe Richtung wie x und die Länge 1. 1.7 Ungleichung von (Cauchy-)Schwarz Diese grundlegende Ungleichung, die nach Schwarz oder Cauchy und Schwarz benannt wird, vergleicht das Skalarprodukt mit den Längen der beteiligten Vektoren: |x · y| ≤ |x| · |y| ⇐⇒ ± x · y ≤ |x| · |y| für beide Vorzeichen. Gleichheit gilt, falls x = λ y oder y = µ x, d.h. wenn x und y parallel oder antiparallel sind oder wenn mindestens einer der Vektoren 0 ist, also wenn x und y linear abhängig (1.3) sind. Für linear unabhängige Vektoren gilt die strikte Ungleichung |x · y| < |x| · |y|. Beweis: Falls x = 0 oder y = 0 (oder beide) gilt Gleichheit, also erst recht die Ungleichung. Der verbleibende Fall |x| · |y| > 0 folgt mit einem geschickten Ansatz: ¯ ¯2 ¯ ¯ 0 ≤ ¯ |y| x ± |x| y ¯ = (|y| x ± |x| y) · (|y| x ± |x| y) = |y|2 (x · x) ± 2 |x| |y| (x · y) + |x|2 (y · y) = 2 |x|2 |y|2 ± 2 |x| |y| (x · y) = {2 |x| |y|} {|x| |y| ± x · y}, |x| |y| ± x · y ≥ 0 =⇒ also, da {2 |x| |y|} > 0, ∓ x · y ≤ |x| |y| =⇒ |x · y| ≤ |x| |y|. 2 Wenn x und y linear unabhängig sind, dann ist |y| x ± |x| y 6= 0, deshalb gilt dann die strikte Ungleichung. Tip: Um Wurzeln zu vermeiden rechnet man oft besser mit Quadraten der Beträge. 1.8 Winkel zwischen Vektoren, Orthogonalität 1.8a Der Winkel Für zwei nicht verschwindende Vektoren x, y, |x| |y| > 0 folgt aus der Cauchy-Schwarzschen Ungleichung −1 ≤ x·y x y = · ≤ 1. |x| |y| |x| |y| Daher gibt es genau einen Winkel ϑ ∈ [0, π], so daß µ ¶ µ ¶ x·y x y x · y = |x| |y| cos ϑ ⇐⇒ ϑ = arccos = arccos · . |x| |y| |x| |y| RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 20 Wir nennen ϑ = ^(x, y) = ^(y, x) den Winkel zwischen x und y. Damit haben wir die übliche Beschreibung von Winkeln zwischen Vektoren in der Ebene mit einem kartesischen Koordinatensystem auf Vektoren im Rn verallgemeinert. Zur Erinnerung der Graph des Hauptwertes des Arcuskosinus in Abbildung 1.3 oder siehe 7.3a. π 1 arccos cos 1 1 π –1 –1 0 1 Abbildung 1.3: Kosinus und Hauptwert des Arcuskosinus √ Beispiel: x = (1, 0), y = (1, −1), |x| = 1, |y| = 2 √ √ cos ϑ = (x · y)/(|x| |y|) = x · y/ 2 = 1/ 2 = cos(π/4), ϑ = π/4. Der Einheitsvektor x/|x| hat dieselbe Richtung wie x und ist unabhängig von der Länge von x, λx/|λx| = x/|x| für λ > 0. Offenbar gilt damit ^(x, y) = ^(λx, y) für alle λ > 0 und ^(−x, y) = π − ^(x, y), weil cos(π − ϑ) = − cos ϑ. 1.8b Orthogonalität, Satz des Pythagoras Zwei Vektoren heißen orthogonal (oder rechtwinklig), wenn x · y = |x| |y| cos ϑ = 0, also wenn bei nicht verschwindenden Vektoren der eingeschlossene Winkel zwischen ihnen π/2 (90◦ ) beträgt, oder wenn mindestens einer der Vektoren der Nullvektor ist. Ein rechtwinkliges Dreieck mit den orthogonalen Katheten-Vektoren x und y hat die Hypothenuse y − x. Es gilt |x − y|2 = |x|2 − 2 x · y+|y|2 = |x|2 +|y|2 , der Satz des Pythagoras. Die hier im Rn eingeführten Begriffe verallgemeinern die aus der ebenen und räumlichen Geometrie geläufigen. Die Vektoren x = (1, 5, 2, 1) und y = (2, −1, 3, −3) im R4 sind orthogonal, denn x · y = 2 − 5 + 6 − 3 = 0. 1.9 Die Dreiecksungleichung Die Dreiecksungleichung, die für reelle (und komplexe) Zahlen bekannt ist, gilt genauso für reelle (oder komplexe) Vektoren: |x + y| ≤ |x| + |y|. Beweis: Wir benutzen die Cauchy-Schwarzsche Ungleichung in |x + y|2 = (x + y)·(x + y) = |x|2 + 2 x · y + |y|2 ≤ |x|2 + 2 |x| |y| + |y|2 = (|x| + |y|)2 . Wurzelziehen ergibt die Behauptung. 2 Zur Interpretation: Umwege sind länger“, siehe z.B. Abbildung 1.2. ” RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.10 21 Das Vektorprodukt im R3 Das Vektorprodukt ist eine Spezialität des dreidimensionalen Raumes von der Art Vektor × Vektor = Vektor ∈ R3 . (Andere Schreibweise mit ∧ anstelle von × .) à ! x2 y3 − x3 y2 x × y ≡ x ∧ y := x3 y1 − x1 y3 für x, y ∈ R3 . x1 y2 − x2 y1 Einige Eigenschaften des Vektorproduktes (siehe auch Formelsammlung): (i) x × y = −y × x, (nicht kommutativ, Reihenfolge ist wichtig !!) (ii) x × (y + z) = x × y + x × z, (distributiv) (iii) (λ x) × y = λ (x × y) = x × (λ y), (iv) x × y steht senkrecht auf x und auf y: x · (x × y) = y · (x × y) = 0, (v) (x × y) × z = (x · z) y − (y · z) x, (vi) |x × y| = |x| |y| sin ϑ, |x × y|2 = |x|2 |y|2 (nicht assoziativ, Klammerung ist wichtig !!) ϑ = ^(x, y) ∈ [0, π] , denn − (x · y)2 = |x|2 |y|2 (1 − cos2 ϑ). |x × y| ist damit der Flächeninhalt des von den Vektoren x und y aufgespannten Parallelogramms. Beweise durch direktes Nachrechnen, z.B. für (iv): x · (x × y) = x1 (x2 y3 − x3 y2 ) + x2 (x3 y1 − x1 y3 ) + x3 (x1 y2 − x2 y1 ) = 0 und für (vi): (x × y) · (x × y) = (x2 y3 − x3 y2 )2 + (x3 y1 − x1 y3 )2 + (x1 y2 − x2 y1 )2 = . . . = (x21 + x22 + x23 )(y12 + y22 + y32 ) − (x1 y1 + x2 y2 + x3 y3 )2 . Die Komponenten des Vektorproduktes erhält man auch, indem man die Spaltenvektoren x und y mit einem der Standardbasisvektoren ej zu einer quadratischen 3 × 3-Matrix (x y ej ) kombiniert und davon die aus der Schule bekannte (und in Abschnitt 2.10 genauer behandelte) Determinante berechnet: (x × y)j = det(x y ej ) = det(ej x y). Wenn x und y linear unabhängig sind, bestimmen sie eine Ebene, auf der nach (iv) das Vektorprodukt senkrecht steht. Die Länge des Produktvektors ergibt sich aus (vi) als Fläche des aufgespannten Parallelogramms, die Orientierung aus der Rechte-Hand-Regel: Zeigt der Daumen in die Richtung des ersten Faktors x, der Zeigefinger in die von y, dann zeigt x×y in die Richtung des Mittelfingers der rechten Hand, wie im Beispiel: e1 = (1, 0, 0), e2 = (0, 1, 0), e1 × e2 = (0, 0, 1) = e3 . Außer für Flächenberechnungen ist das Vektorprodukt insbesondere nützlich zur Bestimmung eines zu einer Ebene senkrechten Vektors (Lot auf Ebene), zur Beschreibung von Drehungen und zum Lösen vektorieller Gleichungen. In der Physik und Mechanik wird das Drehmoment D um den Ursprung, das von einer am Ort r angreifenden Kraft K verursacht wird, durch D = r × K beschrieben. Bei rein zweidimensionalen Problemen mit x = (x1 , x2 ) u.s.w. spielt in Anwendungen gelegentlich die Zahl x1 y2 − x2 y1 eine Rolle, die von den Vektoren x und y aufgespannte Parallelogrammfläche mit Vorzeichen. Dies ist gerade die einzige nicht verschwindende Komponente des Vektorproduktes (x1 , x2 , 0) × (y1 , y2 , 0) = (0, 0, x1 y2 − x2 y1 ). In diesem Sinne wird deshalb mitunter auch das Vektorprodukt im zweidimensionalen Raum (als Zahl) gebraucht, die eigentlich nötige dritte Dimension wird nur dazugedacht“. ” RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.10a 22 Gleichungen zwischen Vektoren im R3 Zu gegebenen Vektoren a, b, . . . ∈ R3 und Skalaren λ, µ . . . begegnet man mitunter linearen Gleichungen für den unbekannten Vektor x ∈ R3 von der Art (a × x) − λ x = b, oder . . . Komponentenweises Aufschreiben führt auf ein lineares Gleichungssystem, das mit dem Gaußschen Algorithmus oder mit den Methoden aus Kapitel 3 behandelt werden kann. Oft führt es schneller zum Ziel, die Gleichungen durch skalare oder vektorielle Multiplikation mit geeigneten Faktoren a, b, . . . zu vereinfachen, z.B. dadurch, daß ([. . .] × a) · a = 0 für jeden Vektor a. So wird die Zahl möglicher Kandidaten für Lösungen rasch verringert. Es ist wichtig, die Kandidaten zur Probe auch wieder in die ursprünglichen Gleichungen einzusetzen, da mit diesem Vorgehen vielleicht noch nicht alle Einschränkungen berücksichtigt wurden. Folgende Fälle sind möglich: es gibt (i) eine eindeutige Lösung oder (ii) unendlich viele Lösungen (mit 1, 2, ... freien Parametern) oder (iii) die Gleichung ist unlösbar. 1.11 Orthonormalbasis Wir kehren zurück zum Rn beliebiger Dimension n. In Abschnitt 1.4 wurde ein System von n linear unabhängigen Vektoren im Rn als Basis eingeführt. Für Rechnungen sind spezielle Basen besonders zweckmäßig. Eine Orthonormalbasis (ONB) besteht aus n Vektoren f1 , . . . , fn deren Länge auf Eins normiert ist und die paarweise zueinander orthogonal sind: kf1 k = 1 = . . . = kfn k, fi · fj = 0 für i 6= j. Orthonormale Vektoren sind immer linear unabhängig. Die Standardbasis oder kanonische Basis im Rn besteht aus den Vektoren (um Platz zu sparen als Zeilenvektoren geschrieben) e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). Sie ist eine Orthonormalbasis (ONB), wie man sofort sieht. Die übliche Komponentenschreibweise für einen Vektor im Rn enthält gerade die Koeffizienten bezüglich dieser Basis. √ √ √ √ f1 = (1/ 2, 1/2, 1/2), f2 = (−1/ 2, 1/2, 1/2), f3 = (0, 1/ 2, −1/ 2) ist auch eine ONB im R3 , wie man leicht nachprüft. Im dreidimensionalen Raum werden zwei linear unabhängige (bzw. orthonormale) Vektoren a1 , a2 ∈ 3 R durch a3 = a1 × a2 zu einer Basis (bzw. ONB) ergänzt. Für eine ONB f1 , f2 , . . . , fn ∈ Rn lassen sich die Entwicklungskoeffizienten eines Vektors x besonders leicht berechnen: mit λj = x · fj erhält man x = λ1 f1 + . . . + λn fn (wie durch skalare Multiplikation der Vektorgleichung bezüglich einer P mit fj bestätigt wird). Mit den Koeffizienten P beliebigen ONB gilt x · x0 = nj=1 λj λ0j und insbesondere |x|2 = nj=1 λ2j . Wegen aller dieser guten Eigenschaften benutzt man, wenn möglich, bevorzugt Orthonormalbasen. 1.12 Lineare Unterräume und affine Teilräume des Rn Eine Teilmenge U ⊆ Rn heißt (linearer) Unterraum oder Teilraum oder Untervektorraum, wenn lineare Operationen nicht aus U herausführen, d.h. für beliebige x, y ∈ U, λ ∈ R gilt x + y ∈ U und λ x ∈ U. Der Ursprung 0 liegt in jedem linearen Unterraum U. Rn und {0} sind lineare Unterräume des Rn . Wenn es d linear unabhängige Vektoren in U gibt, aber d + 1 Vektoren aus U immer linear abhängig sind, dann ist d die Dimension von U, die Maximalzahl linear unabhängiger Vektoren in U. Beispielsweise ist U = {(x1 , 0, x3 , 0, . . . , 0) ∈ Rn | x1 , x3 ∈ R}, RWTH Aachen n ≥ 3, Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 23 ein zweidimensionaler Unterraum, eine Ebene durch 0. Die beiden Standard-Basisvektoren e1 = (1, 0, 0, . . . , 0) und e3 = (0, 0, 1, 0, . . . , 0) ∈ Rn spannen U auf, d.h. ein beliebiges x ∈ U ist eine Linearkombination von e1 und e3 : x = λ e1 + µ e3 (hier natürlich mit λ = x1 , µ = x3 ). Seien m Vektoren u1 , u2 , . . . , um ∈ Rn gegeben. Die Menge der Linearkombinationen daraus ) (m X λi ui | λi ∈ R ⊆ Rn U := i=1 ist ein linearer Unterraum, der von u1 , . . . , um aufgespannt wird, die lineare Hülle der ui . Die Dimension ist höchstens m, sie ist kleiner als m, wenn die ui nicht linear unabhängig sind. Die Vektoren einer Basis spannen den ganzen Raum auf. Lineare Unterräume treten als geometrische Objekte auf (z.B. Geraden, Ebenen durch den Ursprung) und sie begegnen uns wieder bei Lösungsmengen homogener linearer Gleichungssysteme (3.3), bei Eigenvektoren in 4.1 sowie später als Lösungsmengen linearer homogener Differentialgleichungen im Vektorraum von Funktionen. Die affinen Teilräume sind gegenüber den linearen Unterräumen um einen konstanten Vektor verschoben“, also von der Form ” {x = a + u | u ∈ U}, U ein linearer Unterraum, a ∈ Rn . Ein affiner Teilraum ist sogar ein linearer Teilraum, wenn er den Nullvektor 0 enthält, also wenn ±a ∈ U. Als Dimension eines affinen Unterraumes bezeichnet man die Dimension von U. Wir untersuchen Beispiele solcher affiner Teilräume, die den Ursprung i.a. nicht zu enthalten brauchen, zunächst insbesondere Geraden, Ebenen und Hyperebenen, später die Lösungsgesamtheiten linearer Gleichungssysteme in Abschnitt 3.3 sowie Lösungsmengen inhomogener linearer Differentialgleichungen. 1.13 Geraden im Rn Eine Gerade ist ein eindimensionaler affiner Teilraum (1.12) des Rn . 1.13a Parameterdarstellung der Geraden im Rn Eine Gerade ist durch einen Punkt und eine Richtung bestimmt oder durch zwei verschiedene Punkte, die auf ihr liegen. Seien a, v ∈ Rn , der Richtungsvektor v 6= 0, gegeben, dann ist G = {a + t v | t ∈ R} (t ein Parameter) die Gerade durch den Punkt a mit der Richtung v. Im Falle zweier Punkte a 6= d wähle als Richtung z.B. v = d − a 6= 0. Die Darstellung ist nicht eindeutig, G = {a − v + 3t v | t ∈ R} beschreibt dieselbe Punktmenge G. Sei z.B. a = (1, 2, 1), v = (3, 1, 5) ∈ R3 , ¯ ) (à ! ¯ 1 + 3t 3 ¯ 2+ t ∈R ¯t∈R . G = {a + t v | t ∈ R} = ¯ 1 + 5t Frage: Liegt der Punkt y = (2, 1, 5) auf G ? Dies ist der Fall, wenn es ein t ∈ R gibt mit a + t v = y, also à ! à ! 1 + 3t ? 2 2 + t = 1 , d.h. 3t = 1 und t = −1 und 5t = 4. 1 + 5t 5 Ein solches t gibt es nicht, also y 6∈ G. Frage: Schneidet G die x1 , x3 -Koordinatenebene (d.h. x2 = 0) ? Dazu muß 2+t = 0, also t = −2 gelten. Der Schnittpunkt hat die Koordinaten a − 2 v = (−5, 0, −9). RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.13b 24 Tangente an den Graphen einer Funktion Für die differenzierbare Funktion f : D → R ist die Punktmenge im R2 ½µ ¶ ¾ ¯ x 2 ¯ ∈R ¯x∈D f (x) der Graph von f . An einer Stelle x0 ∈ D ist die Gerade ½µ ¶ µ ¶¯ ¾ x0 1 ¯ G= +s s ∈ R ¯ f (x0 ) f 0 (x0 ) die Tangente an den Graphen von f durch den Punkt (x0 , f (x0 ) ) ∈ R2 . Der Richtungsvektor der Tangenten µ ¶ 1 6= 0 heißt Tangentialvektor. f 0 (x0 ) Auch der auf Länge 1 normierte Vektor µ ¶ 1 1 p 0 1 + (f 0 (x0 ))2 f (x0 ) ist ein Tangentialvektor, er beschreibt als Richtungsvektor dieselbe Gerade, die Tangente. 1.13c Orthogonale Vektoren in der Ebene R2 Sei 0 6= v = (v1 , v2 ) ∈ R2 , dann steht c ≡ v⊥ = (−v2 , v1 ) (und −c = (v2 , −v1 ) ) senkrecht auf v: v · c = −v1 v2 + v2 v1 = 0. In der Ebene ist es also besonders leicht, zu einem Vektor einen orthogonalen anzugeben. c ist gegenüber v um π/2 im mathematisch positiven Sinn (nach links, gegen den Uhrzeigersinn) gedreht, −c nach rechts. 1.13d Parameterunabhängige Geradengleichung im R2 Sei G = {a + t v | t ∈ R} ⊆ R2 , v 6= 0 und sei c 6= 0 zu v orthogonal: v · c = 0, z.B. c = v⊥ oder c = v⊥ /|v⊥ | = n, dann gilt für alle x ∈ G x · c = (a + t v) · c = a · c + t v · c = a · c = d = const. andererseits ist y · c 6= a · c für alle y 6∈ G. Also ist G = {x ∈ R2 | x · c = d} eine parameterunabhängige Geradengleichung in der Ebene (ebenfalls nicht eindeutig). Ein solcher Vektor c 6= 0, der senkrecht auf der Geraden steht, heißt Normalenvektor oder Normale der Geraden G. Mitunter wird zusätzlich |c| = 1 verlangt, dann bezeichnet man den auf Länge 1 normierten Normalenvektor meist mit n. Eine Geradengleichung der Form G = {x ∈ R2 | x · n = d} heißt Hessesche Normalform der Geraden in der Ebene. In diesem Fall ist der Abstand der Geraden vom Ursprung |d|. Siehe dazu Abschnitt 1.15c. Zu einer parameterunabhängig gegebenen Geraden kann man auch leicht durch Lösen einer linearen Gleichung in zwei Unbekannten eine Parameterdarstellung finden oder auch folgendermaßen: Sei G1 := {x ∈ R2 | x · (−2, 3) = 4} = {(x1 , x2 ) | −2x1 + 3x2 = 4}. Zu c = (−2, 3) ist der Richtungsvektor v = (3, 2) orthogonal, der Punkt a = (−2, 0) liegt auf G1 , also ist G1 = {(−2 + 3t, 2t) | t ∈ R} eine Parameterdarstellung der parameterunabhängig gegebenen Geraden G1 . Eine Parameterdarstellung einer Geraden kann man in beliebiger Dimension n des Raumes angeben, eine parameterunabhängige Darstellung einer Geraden durch eine lineare Gleichung gibt es nur in der Ebene, also wenn die Dimension des Raumes um 1 höher ist als die Dimension des Objektes (1 bei einer Geraden, vgl. die Gerade als Hyperebene in R2 , 1.17). RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.13e 25 Schnittmengen von Geraden im R2 Zwei Geraden G1 = {a1 + t v1 | t ∈ R} und G2 = {a2 + t v2 | t ∈ R} = {x ∈ R2 | x · c2 = d2 } sind parallel, wenn v1 und v2 parallel sind ⇔ v1 · c2 = 0. Dann schneiden sie sich entweder gar nicht: G1 ∩ G2 = ∅ ⇔ a1 6∈ G2 ⇔ a1 · c2 6= d2 , oder sie fallen zusammen: G1 ∩ G2 = G1 = G 2 ⇔ a1 ∈ G 2 ⇔ a1 · c 2 = d2 . Nicht parallele Geraden in der Ebene haben genau einen Schnittpunkt, den man am einfachsten bestimmt, wenn je eine Gerade parameterunabhängig und eine in Parameterform gegeben ist. x = a1 + t v1 ∈ G1 ∩ G2 falls auch (a1 + t v1 ) · c2 = d2 . Sei z.B. v1 = (−1, 3), c2 = (4, 1), v1 · c2 = −1 6= 0, die Geraden also nicht parallel, ½µ ¶¯ ¾ ½ µ ¶ ¾ ¯ ¯ 1 − t 4 2 ¯ G1 := 2 + 3t ¯ t ∈ R , G2 := x ∈ R ¯ x · 1 = 4 : ! (1 − t) 4 + (2 + 3t) = 6 − t = 4 ⇐⇒ t = 2, x = (−1, 8) ∈ G1 ∩ G2 . Sind beide Geraden parameterunabhängig gegeben, so hat man ein einfaches lineares Gleichungssystem mit zwei Gleichungen für zwei Unbekannte x1 , x2 zu lösen. 1.13f Winkel zwischen Geraden in einer Ebene Der Winkel zwischen zwei Geraden ist außer im orthogonalen Fall nicht eindeutig definiert, mit ϑ ist auch ϑ0 = π − ϑ (cos ϑ = − cos ϑ0 ) als Winkel gleichberechtigt. Für Geraden G1 , G2 mit Richtungen v1 , v2 6= 0 ist eine mögliche Wahl des Winkels ϑ = ^(G1 , G2 ) = ^(v1 , v2 ) = arccos[ v1 ·v2 /(|v1 | |v2 |)] oder gleichberechtigt ^(v1 , −v2 ) = π−^(v1 , v2 ), denn ±v bestimmen dieselbe Geradenrichtung. Sind zwei Geraden im R2 durch Normalenvektoren c1 , c2 gegeben, dann gilt auch mit einem der Vorzeichen ^(v1 , v2 ) = ^(c1 , ± c2 ) für den Winkel zwischen den Geraden (Skizze machen!). Für in Parameterform gegebene Geraden im Rn kann man den Winkel ebenso definieren, sofern sie parallel sind (Winkel 0 oder auch π) oder einen Schnittpunkt haben. Deshalb spricht man auch vom Schnittwinkel der Geraden. Für windschiefe Geraden (1.14c) ist das problematisch. 1.14 Lot und kürzester Abstand von einer Geraden Wir sehen nun, daß die (quadratische) Optimierungsaufgabe, zu einem Punkt den nächstgelegenen Punkt auf einer vorgegebenen Geraden zu finden, durch das Fällen des Lotes vom Punkt auf die Gerade gelöst wird, ein einfacheres lineares Problem. 1.14a Der kürzeste Abstand von einer Geraden im Rn Der quadrierte Abstand dist(t) (Distanz) zwischen y ∈ Rn und dem Punkt a + t v ∈ G auf der Geraden G ist in Abhängigkeit von t [ dist(t) ]2 = |y − (a + t v)|2 = |y − a|2 − 2 t (y − a) · v + t2 |v|2 , |v|2 > 0. Das eindeutige Minimum dieser Parabel liegt an der Nullstelle der Ableitung d ! [ dist(t) ]2 = −2 (y − a) · v + 2 t |v|2 = 0 dt ⇐⇒ t0 = (y − a) · v . |v|2 Der Punkt auf der Geraden mit dem kürzesten Abstand von y ist a + t0 v, dieser minimale Abstand wird als Abstand des Punktes y von der Geraden G“ bezeichnet. ” RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 1.14b 26 Lot, orthogonale Projektion auf eine Gerade im Rn Der Fußpunkt xF des Lotes von y auf die Gerade G ist derjenige Punkt xF = a + t0 v, für den die Verbindungsstrecke von y nach xF senkrecht auf G steht, also (y − xF ) · v = 0. Diese lineare Gleichung ergibt ! 0 = (y − (a + t v) ) · v = (y − a) · v − t v · v ⇐⇒ t0 = (y − a) · v . |v|2 Der Fußpunkt des Lotes xF = a + t0 v ist also der Punkt mit dem kürzesten Abstand! Man bezeichnet ihn auch als (orthogonale) Projektion des Punktes y auf die Gerade G. Dies entspricht der Anschauung von einem Gummiband, das vom Punkt y zu einem beweglichen Punkt auf der Geraden gespannt ist. Wenn es senkrecht zur Geraden steht, kann der Abstand durch Verschieben des Fußpunktes nicht mehr verkürzt werden. Es ist vorteilhaft, die lineare Bedingung der Orthogonalität zu nutzen, um diese Optimierungsaufgabe zu lösen. (Für Abstandsformeln im n = 2 – dimensionalen Fall siehe 1.15c.) 1.14c Abstand windschiefer Geraden im R3 Zwei Geraden G1 = {a1 + t v1 | t ∈ R} und G2 = {a2 + s v2 | s ∈ R} im R3 , die nicht parallel sind und sich auch nicht schneiden, heißen windschief. Die Vektoren v1 und v2 sind dann linear unabhängig. Der Abstand der Geraden ist die Länge der kürzesten Verbindungsstrecke, letztere steht wieder senkrecht auf beiden Geraden. Die Parameter s und t der zueinander am nächsten gelegenen Punkte bestimmt man daher als Lösung des linearen Gleichungssystems ! (a1 + t v1 − (a2 + s v2 ) ) · vi = 0, i = 1, 2, das genau eine Lösung hat, also t |v1 |2 − s v2 · v1 = (a2 − a1 ) · v1 , t v1 · v2 − s |v2 |2 = (a2 − a1 ) · v2 . (Die eindeutige Lösbarkeit folgt mit 3.4a aus der Ungleichung von Cauchy-Schwarz (1.7), die für linear unabhängige Vektoren v1 , v2 besagt, daß die Determinante der Koeffizientenmatrix (v1 · v2 )2 − |v1 |2 |v2 |2 6= 0 ist.) 1.15 Ebenen im Rn und R3 Eine Ebene ist ein zweidimensionaler affiner Teilraum (1.12) des Rn . 1.15a Parameterdarstellung einer Ebene im Rn Eine Ebene ist durch einen Punkt und zwei linear unabhängige Richtungen bestimmt oder durch drei Punkte, die nicht auf einer Geraden liegen. E = {a + t v1 + s v2 | s, t ∈ R}, v1 , v2 ∈ Rn linear unabhängig, ist eine Parameterdarstellung der Ebene durch den Punkt a ∈ Rn , n ≥ 3 (oder 2), die Richtungen v1 und v2 liegen in der Ebene (zwei Parameter für ein zweidimensionales Objekt). Bei drei nicht auf einer Geraden liegenden Punkten p, q, r wähle z.B. a = p, v1 = q − p, v2 = r − p, dann sind v1 und v2 linear unabhängig. ) (à ! à ! à ! à !¯ 1 2 −1 1 + 2t − s ¯¯ 2 + t −1 + s 3 E= = 2 − t + 3s ¯ s, t ∈ R 3 1 2 3 + t + 2s ¯ RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 27 ist eine Ebene im R3 , denn die Vektoren v1 = (2, −1, 1) und v2 = (−1, 3, 2) sind linear unabhängig: λ v1 + µ v2 = (2λ − µ, −λ + 3µ, λ + 2µ) = (0, 0, 0) ist nur für λ = 0 = µ erfüllt. Frage: Liegt der Punkt (−3, 9, 6) auf E ? Dann muß gelten 1 + 2t − s = −3, 2 − t + 3s = 9, 3 + t + 2s = 6, also 5 + 5s = 15 (Summe der 2. und 3. Gleichung), s = 2, t = −1 erfüllt alle Gleichungen, also gilt (−3, 9, 6) ∈ E. 1.15b Parameterunabhängige Darstellung der Ebene im R3 Sei c 6= 0 ein beliebiger Vektor, der senkrecht auf den Richtungen v1 , v2 steht, die die Ebene aufspannen. (Wähle z.B. c = v1 × v2 , nur im R3 möglich!) Dann gilt für alle x = a + t v1 + s v2 ∈ E: x · c = a · c + t v1 · c + s v2 · c = a · c = d = const, für Punkte y 6∈ E gilt y · c 6= d. Somit beschreibt E = {x ∈ R3 | x · c = d} für c 6= 0, d ∈ R jeweils eine Ebene im R3 , c ist ein Normalenvektor zur Ebene E. Die Gleichung x · c = d ist eine lineare Gleichung für die Koordinaten x1 , x2 , x3 der Punkte auf der Ebene. 1.15c Hessesche Normalform, Lot, orthogonale Projektion Hat ein Normalenvektor zu einer Geraden im R2 oder einer Ebene im R3 die Länge 1, so wird er als normierter Normalenvektor“ oft mit n bezeichnet. Die speziellen parameterunabhängigen ” Darstellungen G = {x ∈ R2 | x · n = d}, n ∈ R2 , |n| = 1, E = {x ∈ R3 | x · n = d}, n ∈ R3 , |n| = 1, heißen Hessesche Normalform der Geraden bzw. Ebenen. Eine lineare Gleichung beschreibt ein n − 1 – dimensionales Objekt im Rn , eine Hyperebene“, siehe auch 1.17. ” Der Fußpunkt des Lotes, das ist die (orthogonale) Projektion von einem Punkt y auf eine Gerade (vgl. 1.14b) oder Ebene ist in diesem Fall der Vektor y + λ n ∈ G oder E, d.h. λ ist so zu wählen, ! daß d = (y + λ n) · n = y · n + λ. Der (wie in 1.14a minimale) Abstand zwischen y und der Geraden/Ebenen ist dann |λ n| = |λ| = |d − y · n|. Insbesondere ist |d| der Abstand der Geraden/Ebenen vom Nullpunkt 0, wenn die Gleichung in der Hesseschen Normalform vorliegt. Beispiel: Sei E = {x ∈ R3 | x · (1, −2, 2) = −12}. Da |c| = |(1, −2, 2)| = 3, ist n = (1/3, −2/3, 2/3) ein normierter Normalenvektor, die Hessesche Normalform ist E = {x ∈ R3 | x · (1/3, −2/3, 2/3) = −4}. Der Abstand von E zum Ursprung ist | − 4| = 4. Der Punkt y = (12, 9, 27) hat von E den Abstand | − 4 − [ 12/3 − 18/3 + 54/3 ] | = | − 20| = 20. Im allgemeinen Fall gilt für den Abstand von y zu G oder E = {x | x · c = D}: Abstand = |D − y · c| / |c|. 1.15d Umwandlung von parameterunabhängiger Darstellung der Ebene in eine Parameterdarstellung Für c 6= 0 ist mindestens ein ci 6= 0. In der Gleichung c · x = d = c1 x1 + c2 x2 + c3 x3 tritt deshalb mindestens dieses xi wirklich auf. Ersetze die anderen beiden xj durch s und t. Falls z.B. c2 6= 0, so erhält man etwa x1 = s, x2 = (d − c1 s − c3 t)/c2 , x3 = t, RWTH Aachen Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 28 also ist eine Parameterform (von vielen) für die Ebene, s, t ∈ R, s 0 1 0 x = (d/c2 ) − s(c1 /c2 ) − t(c3 /c2 ) = d/c2 + s −c1 /c2 + t −c3 /c2. t 0 0 1 1.15e Winkel zwischen Ebenen Seien c1 , c2 6= 0 Normalenvektoren zu den Ebenen E1 , E2 ⊆ R3 , dann ist der Winkel zwischen den Ebenen ^(E1 , E2 ) = ^(c1 , c2 ). Außer im rechtwinkligen Fall ist er wie bei Geraden nicht eindeutig, π − ^(c1 , c2 ) = ^(c1 , −c2 ) kann gleichberechtigt gewählt werden. Wenn die Ebenen nicht parallel sind, d.h. c1 und c2 linear unabhängig, der Winkel also nicht 0 oder π, dann steht jede Ebene Ẽ = {x ∈ R3 | x · (c1 × c2 ) = const } senkrecht auf E1 und auf E2 . Die Schnittgeraden (1.16b) G1 = E1 ∩ Ẽ und G2 = E2 ∩ Ẽ schneiden sich dann mit demselben Winkel, cos(^(E1 , E2 ) ) = ± cos(^(G1 , G2 ) ), deshalb spricht man auch vom Schnittwinkel zwischen Ebenen. 1.16 Schnittmengen von Geraden und Ebenen im R3 1.16a Schnitt einer Geraden mit einer Ebene Am einfachsten ist die Bestimmung der Schnittmenge einer in Parameterdarstellung gegebenen Geraden (die einzige Möglichkeit im R3 ) mit einer Ebene, wenn letztere durch eine parameterunabhängige Gleichung gegeben ist: G = {a + t v | t ∈ R}, E = {x | c · x = d}. Ein Schnittpunkt muß also d = (a + t v) · c = a · c + t (v · c) erfüllen. Falls die Gerade nicht parallel zur Ebene liegt, d.h. v · c 6= 0, gibt es genau einen Schnittpunkt P = a + t0 v mit t0 = [ d − a · c ]/(v · c). Im parallelen Fall liegt entweder G in E: G ∩ E = G für d = a · c, oder es gibt keinen Schnittpunkt bei d 6= a · c. Beispiel mit c = (0, 1, −1): (à ! à !¯ ) 1 2 ¯¯ © ª 2 G= + t 1 ¯ t ∈ R , E = x ∈ R3 | x2 − x3 = 3 . −3 0 ¯ a · c = 5, v · c = 1 6= 0, t0 = [ d − a · c ]/(v · c) = −2, also ist (à !) (à !) 1 + (−2) 2 −3 2 + (−2) 1 0 G∩E = = . −3 −3 Wenn die Ebene in Parameterdarstellung gegeben ist, sollte man sie zunächst z.B. mit c = v1 × v2 parameterunabhängig beschreiben. 1.16b Schnittgerade zweier Ebenen im R3 Seien E1 = {x ∈ R3 | x · c1 = d1 }, E2 = {x ∈ R3 | x · c2 = d2 } und c1 , c2 linear unabhängig (nicht (anti)parallel). Dann gibt es eine Schnittgerade G = E1 ∩ E2 mit Richtung c1 × c2 . Beispiel: c1 = (1, −3, 1), d1 = −9, c2 = (−4, 0, 2), d2 = 6. Das ergibt ein System von zwei linearen Gleichungen für drei Unbekannte, die Lösung hat einen freien Parameter. x1 − 3x2 + x3 = −9 −4x1 + 2x3 = 6 Wähle eine Koordinate als Parameter, hier z.B. x1 = t (falls eine Koordinate in beiden Gleichungen gar nicht auftritt, muß diese als Parameter gewählt werden). 2x3 = 6 + 4 t, also x3 = 3 + 2 t, −3x2 = −9 − t − (3 + 2 t) = −12 − 3 t, RWTH Aachen also x2 = 4 + t. Mathematik I+II 1 Der Vektorraum Rn , Geraden, Ebenen, Hyperebenen 29 Die Schnittgerade ist (à E1 ∩ E2 = G = t 4+t 3 + 2t ! à ! à !¯ ) 0 1 ¯¯ = 4 +t 1 ¯t∈R . 3 2 ¯ Zur Probe kann man prüfen, ob der Richtungsvektor, hier (1, 1, 2), senkrecht zu c1 und zu c2 steht und ob (0, 4, 3) · ci = di erfüllt ist. Falls c1 und c2 linear abhängig sind, gilt E1 = E2 oder die Ebenen haben keinen Punkt gemeinsam. 1.16c Projektion einer Geraden auf eine Ebene Seien E = {x ∈ R3 | x · c = d}, c 6= 0 und G = {a + t v | t ∈ R}, v 6= 0 eine Ebene und Gerade in R3 . Die (orthogonale) Projektion der Geraden auf die Ebene ist die Menge der orthogonalen Projektionen aller Punkte der Geraden auf die Ebene. Sind v und c (anti)parallel, d.h. die Gerade steht senkrecht auf der Ebene, so ist diese Menge nur der Schnittpunkt P = G ∩ E. Wenn aber v und c linear unabhängig sind, so ist die Projektion der Geraden auf die Ebene eine Gerade, die man auf mehreren Wegen berechnen kann. Zum Punkt a + t v auf der Geraden ist a + t v + γ(t) c der Fußpunkt des Lotes, wenn γ(t) so gewählt wird, daß der neue Punkt in der Ebene liegt, also ! d = (a + t v + γ(t) c) · c = a · c + t v · c + γ(t) |c|2 . Das wird von γ(t) = [ (d − a · c) − t v · c ] / |c|2 gelöst. Der Vektor c0 := v × c 6= 0 steht senkrecht auf dem Richtungsvektor v der Geraden, deshalb enthält die Hilfsebene E 0 = {x ∈ R3 | x · c0 = d0 }, d0 = a · c0 , den Punkt a und damit die ganze Gerade, außerdem steht E 0 senkrecht auf E. Die Schnittgerade (vgl. 1.16b) G0 = E ∩ E 0 ist die gesuchte orthogonale Projektion von G auf E. Ist bereits ein Schnittpunkt P = G ∩ E bekannt, so ist die Projektion einfacher durch G0 = {P + s v0 | s ∈ R} mit v0 = c0 × c = (v × c) × c Richtung v0 gehört zu beiden Ebenen E 0 und E. 1.17 1.10 (v) = (c · v) c − |c|2 v zu berechnen. Die Hyperebenen im Rn Eine n − 1 – dimensionale Hyperebene H im Rn wird durch eine lineare Gleichung bestimmt (parameterunabhängige Darstellung) H = {x ∈ Rn | x · c = d}, 0 6= c ∈ Rn . Eine äquivalente Parameterdarstellung ist H = {x = a0 + t1 v1 + t2 v2 + . . . tn−1 vn−1 | ti ∈ R} , a0 , vi ∈ Rn , a0 · c = d, wobei die n − 1 Vektoren vi linear unabhängig sind und alle orthogonal zu c. Mit der Geraden G im Rn G = {a + t v | t ∈ R}, 0 6= v ∈ Rn , gibt es einen eindeutigen Schnittpunkt, falls v · c 6= 0: G ∩ H = {a + t0 v}, t0 = [ d − a · c ]/(v · c). Falls v k c ist dieser Punkt zugleich die orthogonale Projektion (Fußpunkt des Lotes) von a auf H. Im Fall v · c = 0 gibt es entweder keinen Schnittpunkt, G ∩ H = ∅ bei d 6= a · c, oder für d = a · c liegt G in H: G ∩ H = G. Die Spezialfälle solcher Schnittpunkte für n = 2 (zwei Geraden im R2 ) und n = 3 (Gerade und Ebene im Raum) wurden oben in 1.13e und 1.16a behandelt. RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2 2.1 30 Matrizen und Determinanten Einleitung, Beispiele für das Auftreten von Matrizen Eine Matrix ist eine rechteckige Anordnungen reeller Zahlen, bei der die Bedeutung der Einträge, der Matrixelemente, von ihrer Position in dem rechteckigen Schema abhängt. Das wird bei den Regeln der Matrizenrechnung berücksichtigt. Die Matrizenmultiplikation unterscheidet sich stark von der Multiplikation von Zahlen, denn das Produkt zweier Matrizen hängt von der Reihenfolge der Faktoren ab. Außerdem kann das Produkt Null sein, obwohl beide Faktoren von Null verschieden sind. Für quadratische Matrizen ist die Determinante, eine polynomiale Funktion der Matrixelemente, definiert. Mit ihr kann man wichtige Struktureigenschaften einer Matrix leicht erkennen und sie tritt als nützliches Hilfsmittel in vielen praktischen Rechnungen auf. Es folgen einige Beispiele, in denen Matrizen in natürlicher Weise in Anwendungen auftreten. 2.1a Koeffizientenmatrix eines linearen Gleichungssystems Das lineare Gleichungssystem kann kurz kodiert werden durch die erweiterte Koeffizientenmatrix (G.1) x1 2 x1 2.1b − + x3 = 5 x2 + 2 x3 = −1 3 x2 − 4 x3 = 0 1 2 0 ←→ 0 −1 3 1 2 −4 .. 5 .. .. −1 .. 0 . Verkaufszahlen Eine Gärtnerei verkauft an den Blumenhändler 1 an einem Tag Rosen Tulpen rot 50 200 gelb 75 50 weiß 20 10 µ M1 = µ und entsprechend an Händler 2 M2 = 50 200 75 50 250 500 40 500 20 10 ¶ 50 0 , ¶ . Der Verkauf an beide Händler zusammen — nach Sorten aufgeschlüsselt — ist µ ¶ 300 115 70 M1 + M2 = , 700 550 10 die komponentenweise berechnete Summe. Bei gleichbleibendem Geschäft ist für 4 Tage zu erwarten: µ ¶ 1200 460 280 4 (M1 + M2 ) = , 2800 2200 40 das komponentenweise Produkt mit der Zahl 4, davon 4M1 für Händler 1. Diese natürlichen Operationen verallgemeinern diejenigen im Vektorraum. Allen Beispielen ist gemeinsam, daß die Bedeutung“ einer Zahl in einer Matrix von der Position ” in der Matrix abhängt ! Nur Einträge korrespondierender Positionen dürfen kombiniert werden. Später kommt eine Multiplikation geeigneter Matrizen hinzu, siehe 2.4 und 2.5. 2.1c Lineare Abbildungen Matrizen dienen auch zur Beschreibung linearer Abbildungen zwischen Vektorräumen, die Matrixmultiplikation entspricht dann der Komposition (nacheinander Ausführen) linearer Abbildungen, siehe 2.6. RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 31 2.2 Matrizen, ihre Addition und Multiplikation mit Zahlen 2.2a Definition der Matrizen, Bezeichnungen für spezielle Matrizen Eine (reelle) m × n – Matrix ist eine rechteckige Anordnung von m · n reellen Zahlen in m Zeilen und n Spalten a11 a12 . . . a1 n a21 a22 . . . a2 n A= . .. .. , .. .. . . . am 1 am 2 . . . am n bei den Matrixelementen ai j ∈ R kennzeichnet der erste Index die Zeile, der zweite ist der Spaltenindex. Es gibt auch komplexe Matrizen mit ai j ∈ C, bei Verkaufszahlen sind nur ai j ∈ N0 sinnvoll. Spezialfälle: m=n=1: A = (a11 ) äquivalent zu den reellen Zahlen; m = 1, n ∈ N : A = (a11 a12 . . . a1 n ), Zeilenvektor; a11 m ∈ N, n = 1 : A = ... , Spaltenvektor, auch mit a bezeichnet. am 1 Die m × n– Nullmatrix hat ai j = 0 für alle i = 1, . . . , m, j = 1, . . . , n. Die elementaren Matrizen Ek ` erfüllen ak` = 1 und ai j = 0 für alle anderen Matrixelemente, die einzige 1 steht in der k-ten Zeile und `-ten Spalte. Quadratische Matrizen haben m = n Zeilen und Spalten. Wichtig ist die n-dimensionale Einheitsmatrix 1n (auch mit In , En u.s.w. bezeichnet oder einfach mit 1 bzw. E, wenn die Dimension aus dem Zusammenhang klar ist) mit ai i = 1 für i = 1, . . . , n, ai j = 0 für i 6= j. 1 0 ... 0 1 0 1 . . . 0 . . 0 . 1n = . ... ... . . . ... , auch kürzer geschrieben: 1, 0 1 0 0 ... 1 Dies ist ein spezieller Fall einer Diagonalmatrix D mit aii = di ∈ R , aij = 0 für i 6= j. Die Matrixelemente aii bilden die (Haupt-)Diagonale, d1 0 . . . 0 0 d2 0 D= . . .. ... . .. 0 . . . dn 2.2b Addition gleichartiger Matrizen Für zwei m×n -Matrizen A und B (gleiche Zeilen- und Spaltenzahl bei A und B !!) ist die Summe A + B durch komponentenweise Addition definiert a11 ± b11 a12 ± b12 . . . a1 n ± b1 n .. .. , A±B = . . am 1 ± bm 1 ... am n ± bm n ¶ µ ¶ µ 1 −5 π 5 −10 3 √ , B= , z.B. A= 11 2 5 −2 2 11 µ ¶ 3 − π √ −4 5 A−B = . −13 2−2 6 RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2.2c 32 Multiplikation einer Matrix mit einer Zahl (einem Skalar) Sei A eine m × n -Matrix und λ ∈ R eine Zahl, die wie im Vektorraum auch bei Matrizen oft “Skalar“ genannt wird, dann definiert man λ a11 . . . λ a1 n .. λ A = ... . λ a m 1 . . . λ am n als komponentenweise Multiplikation. In obigem Beispiel µ ¶ µ 3 9 −15 −π √ 3A = , (−1) B ≡ −B = −6 3 2 33 −11 −5 −2 10 −5 ¶ . Mit diesen linearen Operationen bilden die m × n -Matrizen P einen Pn m · n -dimensionalen linearen Raum, die elementaren Matrizen bilden eine Basis, A = m k=1 `=1 ak ` Ek ` . 2.3 Die Transponierte einer Matrix, symmetrische Matrizen Die Transponierte Atr einer m × n -Matrix A = (ai j ) entsteht durch Spiegelung an der Haupt” diagonalen“, die Zeilen von A werden zu Spalten von Atr und umgekehrt, z.B. µ ¶ 1 5 1 γ −3 2 , Atr = A= γ , 5 2 β −3 β mit der Schreibweise (M )ij für das Matrixelement der Matrix M in Zeile i und Spalte j (Atr )i j = (A)j i , i = 1, . . . , n, j = 1, . . . , m, Atr (auch mit At , AT oder A0 bezeichnet) ist eine n × m -Matrix. Insbesondere ist zu einer n × 1 Matrix A = a, einem Spaltenvektor, die Transponierte Atr = atr ein Zeilenvektor und umgekehrt, wie in 1.1 erwähnt. Offenbar gilt (Atr )tr = A. Eine quadratische Matrix A heißt symmetrisch, wenn A = Atr , d.h. ai j = aj i für i, j = 1, . . . , n. Insbesondere sind Diagonalmatrizen symmetrisch. A heißt antisymmetrisch, wenn Atr = −A, d.h. ai j = −aj i für alle i, j = 1, . . . , n. Es folgt aii = 0 für alle Elemente auf der Diagonalen antisymmetrischer Matrizen. 2.3a Zeilen- und Spaltenvektoren in einer Matrix Eine m × n-Matrix A ist aus m Zeilenvektoren zA i der Dimension n aufgebaut oder auch aus n Spaltenvektoren sA der Dimension m: j · · · zA 1 ··· · · · zA · · · 2 A= ··· A · · · zm · · · oder .. .. .. . . . sA A = sA . . . sA n . ..1 ..2 .. . . . Wir gebrauchen gelegentlich diese Notation zur Abkürzung. Wenn eine Matrix nur eine Zeile oder nur eine Spalte hat, dann brauchen wir oft nicht zwischen der Matrix und dem Zeilen- bzw. Spaltenvektor zu unterscheiden. Später, wenn wir uns an Spaltenvektoren gewöhnt haben, werden wir (ab Kapitel 4) auch die . . . platzsparende Notation A = (sA .. sA .. · · · .. sA ) benutzen. 1 RWTH Aachen 2 n Mathematik I+II 2 Matrizen und Determinanten 2.4 33 Anwendungsbeispiel einer Matrizenmultiplikation Um die zunächst ungewöhnlich erscheinende Regel für die Multiplikation von Matrizen zu motivieren, geben wir ein Anwendungsbeispiel an, das auf gerade dieses Produkt führt. Zwei Vorratslager des Roten Kreuzes enthalten u.a. Feuerlöscher (F ), Notstromaggregate (N ) und Wasseraufbereitungsanlagen (W ), die regelmäßig gewartet werden müssen. Die Bestände sind in der Matrix A angegeben: Lager 1 Lager 2 F 100 200 N 2 1 W 1 1 µ A= 100 200 2 1 1 1 ¶ . Drei Firmen F1 , F2 , F3 bieten die Wartung zu folgenden Stückpreisen an, falls jeweils ein ganzes Lager gewartet wird. Die Wartungskosten sind in der Matrix B angegeben. F N W F1 10 300 400 F2 12 250 450 F3 8 400 500 10 300 B= 400 12 250 450 8 400 . 500 Was kostet die Wartung der Lager durch die jeweiligen Firmen ? Firma F1 Firma F2 100 · 10 + 2 · 300 + 1 · 400 ... 200 · 10 + 1 · 300 + 1 · 400 ... µ ¶ 2000 2150 2100 AB = . 2700 3100 2500 Lager 1 Lager 2 Firma F3 100 · 8 + 2 · 400 + 1 · 500 200 · 8 + 1 · 400 + 1 · 500 Die Kombination der Daten aus den Matrizen A und B , die zum Wartungspreis führt (abhängig vom Lager und der Firma), ist gerade das Matrizenprodukt A B, wie wir es in Abschnitt 2.5b definieren. Firma F1 erhält den Zuschlag für Lager 1, Firma F3 für das andere Lager. 2.5 Multiplikation von Matrizen 2.5a Das Produkt einer Matrix mit einem Spaltenvektor Wir betrachten zunächst das spezielle Produkt, in dem der linke Faktor A eine m × n -Matrix ist und der rechte Faktor b ein Spaltenvektor der Dimension n, also eine n × 1-Matrix. Dann gibt es im A A Vektor genauso viele Komponenten b` wie Spalten in der Matrix. Werden mit sA 1 , s2 , . . . , sn die (m-dimensionalen) Spaltenvektoren der Matrix A bezeichnet (wie in 2.3a eingeführt), dann ist das Produkt A b die folgende Linearkombination der Spaltenvektoren: .. .. .. n . . . X sA Ab= b` sA für A = sA . . . sA n . ` , 1 2 . . . .. .. .. `=1 Um die einzelnen Komponenten des resultierenden Vektors zu berechnen, beobachten wir, daß in der obersten Position gerade das Skalarprodukt der obersten Zeilenvektors zA 1 in der Matrix A mit dem Vektor b steht, allgemein A z1 · b · · · zA .. 1 ··· · · · zA · · · . zA 2 ·b 2 b = Ab = . . .. ··· .. A ·b . · · · · · · zA z m m RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2.5b 34 Definition des Produktes zweier Matrizen Durch Zusammensetzen erhalten wir das Produkt von Matrizen. Sei A eine m×n -Matrix und B eine n×k -Matrix, dann ist das Produkt C = A B (Reihenfolge beachten!) eine m×k -Matrix. In den Spalten der Produktmatrix C stehen als Spalten die Produkte A sB j von A mit den Spaltenvektoren von B. Daraus ergibt sich als Formel für die Matrixelemente ci j := n X ai ` b` j , i = 1, . . . , m ; j = 1, . . . , k. `=1 b1 j B .. der Vektor Sei zA i = (ai 1 , ai 2 , . . . , ai n ) der Vektor in der i-ten Zeile von A und sj = . bn j B in der j-ten Spalte von B, beide haben dieselbe Anzahl n von Komponenten. Dann ist ci j = zA i ·sj gerade das Skalarprodukt aus dem i -ten Zeilenvektor von A (erster Faktor in A B) und dem j-ten Spaltenvektor von B ( Zeile · Spalte“): ” .. à ! .. . . . . c. . . . . . . zA ij . sB = j i ... .. .. . . 2.5c Erstes Beispiel der Matrixmultiplikation 2 −1 , 4 1 3 A= −2 µ B= 3 β 1 −2 2 1 γ 1 ¶ , A hat 2 Spalten, B hat 2 Zeilen, also ist A B definiert, nicht aber B A, denn 4 6= 3. Das Produkt A B hat 3 Zeilen und 4 Spalten. 3 + 2β −3 4 γ+2 5 5 3γ − 1 . AB = 9 − β −6 + 4β −10 0 −2γ + 4 Die Matrixmultiplikation ist eine sehr wichtige und häufig benutzte Operation. 2.5d Regeln der Matrizenmultiplikation Falls die auftretenden Summen und Produkte auf einer Seite einer der folgenden Gleichungen definiert sind (passende Größen der Matrizen), dann sind sie auch auf der anderen Seite der jeweiligen Gleichung definiert und es gelten die folgenden Identitäten (Distributivgesetz, Assoziativgesetz etc., aber nicht das Kommutativgesetz): (A + B) C = A C + B C, C (A + B) = C A + C B (A B) C = A (B C) =: A B C (Distributivgesetz), (Assoziativgesetz), λ(A B) = (λ A) B = A (λ B), (A B)tr = B tr Atr (Änderung der Reihenfolge beachten!), die man alle leicht durch Nachrechnen bestätigt, z.B. mit der Schreibweise (M )ij für das Matrixelement der Matrix M in Zeile i und Spalte j ³ (A B)tr RWTH Aachen ´ ij = (A B)j i = n n X X (A)j ` (B)` i = (B tr )i ` (Atr )` j = (B tr Atr )i j . `=1 `=1 Mathematik I+II 2 Matrizen und Determinanten 35 Für jede m × n -Matrix A gilt n X 1m A = A = A 1n , denn z.B. (A)i` (1n )` j = (A)i j , da (1n )` j = `=1 2.5e ( 0 für ` = j, 1 für ` 6= j. Skalarprodukt und transponierte Matrix Spaltenvektoren a ∈ Rn können als n × 1 -Matrix a = A, eine Spalte mit n Zeilen aufgefaßt werden, und entsprechend btr = B tr = (b1 , . . . , b1 n ) als 1 × n-Matrix oder Zeilenvektor mit n Spalten zum Spaltenvektor b. Wir benutzen die Schreibweisen a und atr sowohl für Vektoren als auch für Matrizen. Pn Die 1 × 1 -Matrix B tr A = btr a = b · a = j=1 bj aj ist gerade das Skalarprodukt der tr 2 Vektoren, A A = |a| u.s.w. In diesem Sinn ist das Rechnen im Rn ein Spezialfall des Rechnens mit Matrizen. (Für das Vektorprodukt siehe 2.6a.) Für jede n × n -Matrix T und Spaltenvektoren b, y ∈ Rn gilt in Skalarprodukt- (mit Punkt) bzw. Matrixprodukt-Schreibweise: b · (T y) = (T tr b) · y ⇐⇒ btr (T y) = (T tr b)tr y. Beweis: Nach den Regeln der Matrixmultiplikation 2.5d gilt (T tr b)tr y = (btr T ) y = btr (T y). 2 Wir werden diese Beziehung z.B. später in 4.8a und 4.13a benötigen, um Gleichungen für Kurven und Flächen zweiter Ordnung auf Normalform zu transformieren, sowie in 4.3b. 2.5f Unterschiede zum Produkt von Zahlen, Warnung Auch wenn beide Produkte A B und B A definiert sind (z.B. 2 × 3 - und 3 × 2 -Matrix) kann das Produkt verschieden sein, sogar bei quadratischen Matrizen, wie im Beispiel: µ ¶ µ ¶ 2 −3 1 −1 A= , B= , 2 −3 −1 1 µ AB = 5 5 −5 −5 ¶ µ 6= B A = 0 0 0 0 ¶ . Insbesondere zeigt dieses Beispiel, daß das Produkt eine Nullmatrix sein kann, obwohl beide Faktoren keine Nullmatrizen sind. Das kann sogar für das Produkt einer Matrix mit sich selbst gelten, A2 = 0 obwohl A 6= 0, wie folgendes Beispiel zeigt: µ ¶ 1 −1 A= 6= 0, A2 = 0. 1 −1 Anders als beim Rechnen mit Zahlen kann die Multiplikation mit einer Matrix A 6= 0 deshalb i.a. nicht durch eine Division“ rückgängig gemacht werden. (Aus AC = BC folgt i.a. nicht B = C.) ” Das ist nur bei spezielleren invertierbaren Matrizen durch Multiplikation mit der inversen Matrix (3.4) möglich. Matrizen erfüllen die Additionsregeln (A1) – (A4) und das Distributivgesetz (D1) aus dem Abschnitt über Körperaxiome. Die Multiplikationsregeln (M1) und (M4) sind jedoch i.a. verletzt, die Matrizen bilden keinen Körper (außer im Fall der 1 × 1-Matrizen, der Zahlen). RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2.6 36 Matrizen als lineare Abbildungen Sei A eine m × n -Matrix und sei x ∈ Rn , betrachte x als Spaltenvektor, oder als n × 1 -Matrix. Dann ist das Matrixprodukt A x (wie in 2.5a definiert) eine m × 1 -Matrix, ein Spaltenvektor im Rm . In diesem Sinne ist die durch die Matrix A gegebene Abbildung A : Rn → Rm , A x ∈ Rm für alle x ∈ Rn , A eine m × n -Matrix, zu verstehen. Mit dem Distributivgesetz der Matrixmultiplikation, siehe Abschnitt 2.5d, folgt A (x + y) = A x + A y und es gilt A (λ x) = λ A x, also ist A eine lineare Abbildung A : Rn → Rm . Umgekehrt läßt sich jede lineare Abbildung so durch eine Matrix beschreiben. Die Dimension n des Urbildraumes Rn ist die Spaltenzahl der Matrix A und die Dimension m des Bildraumes Rm deren Zeilenzahl. Im Hinblick auf diese wichtige Anwendung haben wir Vektoren im Rn meist als Spalten geschrieben (wenn wir nicht Zeilen wählten, um Platz zu sparen). Sei nun B eine n × k -Matrix, dann ist B : Rk → Rn ebenfalls eine lineare Abbildung, auf deren Bildraum insbesondere A anwendbar ist, A (B x) ist definiert für x ∈ Rk . Nach dem Assoziativgesetz der Matrizenmultiplikation (2.5d) gilt also A (B x) = (A B) x, (A B) : Rk → Rm , d.h. die Matrixmultiplikation drückt die Komposition (nacheinander Ausführen) der linearen Abbildungen aus. Damit A B definiert ist, muß Spaltenzahl von A = Zeilenzahl von B “ gelten, das ” bedeutet gerade, daß der Urbildraum von A dieselbe Dimension wie der Bildraum von B hat. Der Spezialfall quadratischer Matrizen, die eine lineare Abbildung des Rn in sich beschreiben, wird später (insbesondere in Kapitel 4) noch genauer besprochen. Das Bild (die Wertemenge) einer linearen Abbildung A {y ∈ Rm | es gibt ein x ∈ Rn mit A x = y} ist ein linearer Unterraum (siehe 1.12) des Bildraumes Rm , denn zu y1 = A x1 und y2 = A x2 liegen y1 + y2 = A x1 + A x2 = A (x1 + x2 ) und λ y1 = A (λ x1 ) auch im Bild von A. Gemäß Abschnitt 2.5a gilt mit den Spaltenvektoren sA j der Matrix A die Gleichung y = Ax = n X x ` sA ` . `=1 Also ist das Bild von A die Menge der Linearkombinationen (1.2) der Spaltenvektoren von A, die A lineare Hülle der Spaltenvektoren. Insbesondere gilt A e1 = sA 1 , . . . , A en = sn . Die Abbildungseigenschaften spezieller Klassen von Matrizen werden durch konkrete Beispiele sowie insbesondere in Kapitel 4 diskutiert. Im R2 (und teilweise im R3 ) lassen sich die Abbildungseigenschaften wie Drehung, Spiegelung, Streckung, Verzerrung etc. mit Hilfe von Computerprogrammen sehr gut visualisieren. 2.6a Vektorprodukt und antisymmetrische Matrizen Das Vektorprodukt im R3 mit einem Vektor m ist eigentlich eine Matrixmultiplikation mit einer antisymmetrischen 3 × 3 -Matrix M , die auch gerade drei unabhängige Einträge hat: α 0 −γ β 0 −α entspricht m = β indem M x = m × x, x ∈ R3 . M = γ γ 0 −β α RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2.7 Der Rang einer Matrix 2.7a Definition 37 Es gibt viele äquivalente Charakterisierungen des Ranges einer m × n -Matrix A: Rang(A) ≡ Rang A (auch Rg (A) ) ist die • maximale Anzahl linear unabhängiger Spaltenvektoren, • maximale Anzahl linear unabhängiger Zeilenvektoren, • Dimension des Bildes {A x | x ∈ Rn } von A, • Dimension des Bildes {Atr y | y ∈ Rm } von Atr . Daß alle diese Charakterisierungen dieselbe Zahl ergeben, ist ein wichtiger Satz, den wir hier jedoch nicht beweisen. Zur Dimension eines linearen Unterraumes siehe 1.12. Es gilt offenbar: Rang(A) = Rang(Atr ) ≤ m und ≤ n. Eine m × n -Matrix A hat maximalen Rang, wenn Rang(A) = min{m, n}. Der Rang einer Matrix ist ein Maß für den Informationsgehalt“ einer Matrix, die Anzahl der ” relevanten“ Zeilen oder Spalten. ” 2.7b Beispiele 0 0 A = −5 0 0 1 unabhängig: 3 0 hat (den maximalen) Rang(A) = 3, denn alle Zeilenvektoren sind linear 0 ! 0 = λ1 z1 + λ2 z2 + λ3 z3 = (−5λ2 , λ3 , 3λ1 ) hat nur die triviale Lösung λ1 = λ2 = λ3 = 0. µ ¶ 1 2 −1 B= hat Rang(B) = 1, denn z2 = −5 z1 6= 0. −5 −10 5 Der Rang ist z.B. wichtig, um die Lösbarkeit linearer Gleichungssysteme und die Größe des Lösungsraumes zu bestimmen, siehe 3.2. 2.7c Rang einer Matrix in Gauß-Gestalt Wir erinnern an die Gauß-Gestalt einer Matrix, die in Abschnitt G.2 mit Beispielen eingeführt wurde. Diese Form liegt vor, wenn in jeder Zeile das erste Element, das nicht verschwindet, weiter rechts steht, als in der darüberstehenden Zeile. Der Rang ist dann die Anzahl der Zeilen, in denen nicht alle Einträge Null sind. Bei der GaußGestalt kann man den Rang einer Matrix also direkt ablesen. Zur Umwandlung einer Matrix in die Gauß-Gestalt dienen die elementaren Zeilen- und Spaltenoperationen, die den Rang einer Matrix nicht ändern. 2.8 Elementare Zeilen- und Spaltenoperationen für Matrizen Wir sahen in Abschnitt G.3, daß die dort eingeführten elementaren Zeilenoperationen für Matrizen sehr nützlich für die Lösung linearer Gleichungssysteme (Gauß–Elimination) sind. Sie vereinfachen das Gleichungssystem, ohne die Lösungsmenge zu verändern. Diese Operationen können auch durch Multiplikation der m × n-Matrix A von links mit einer geeigneten einfachen m × m-Matrix M beschrieben werden. RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 38 (a) Vertauschen der k-ten Zeile der Matrix A mit der `-ten: zk ←→ z` . Sei M die Matrix mit (M )k` = (M )`k = 1, (M )jj = 1 für j 6= k, ` und (M )ij = 0 sonst, dann ist M A die Matrix mit vertauschten Zeilen gegenüber A sowie M 2 = 1m , die zweimalige Multiplikation von links mit M stellt A wieder her. Beispielsweise vertauscht Multiplikation mit 1 0 0 0 0 1 0 1 0 die zweite und dritte Zeile einer Matrix mit drei Zeilen und beliebig vielen Spalten. (b) Addition des c-fachen der k-ten Zeile zur `-ten Zeile: z` −→ z` + c zk , die entsprechende Multiplikationsmatrix ist Mc = 1 + c E`k mit der elementaren Matrix E`k , deren einziger nicht verschwindender Eintrag eine 1 in der `-ten Zeile und k-ten Spalte ist, vgl. 2.2a. Multiplikation mit M−c macht die Operation rückgängig, M−c Mc = 1 = Mc M−c . (c) Multiplikation der k-Zeile mit einer Zahl c 6= 0: zk −→ c zk , die Matrix M entsteht aus der Einheitsmatrix, indem in der k-ten Zeile (und Spalte) die Eins durch c ersetzt wird (und durch 1/c für die Umkehrung). Die Matrix, die eine durch M beschriebene Operation rückgängig macht, ist die inverse Matrix M −1 , die in Abschnitt 3.4 genauer besprochen wird. Wir ergänzen die Umformungen hier um die entsprechenden Spaltenoperationen, d.h. Zeilenoperationen auf Atr angewandt. Das kann durch Multiplikation von rechts mit geeigneten invertierbaren Matrizen beschrieben werden. 2.9 Satz über den Rang einer Matrix Durch elementare Zeilen- und Spaltenoperationen ändert sich der Rang einer Matrix nicht. 2.9a Beweis So, wie sich der Informationsgehalt“ eines linearen Gleichungssystems, die Lösungsmenge, bei An” wendung des Gaußschen Algorithmus nicht ändert, so gilt dasselbe für den Rang. Wir werden zeigen, daß durch elementare Spaltenoperationen das Bild von A (2.6), die lineare Hülle der Spaltenvektoren sj von A, die Menge aller Linearkombinationen, ¯ m X ¯ ¯ xj sj ¯ xj ∈ R , j = 1, . . . , m , H := ¯ j=1 einer m × n -Matrix A nicht verändert wird. Dann bleibt auch Rang A (die Dimension von H ) unverändert. (a) Vertauschen ist nur Umnumerierung der Spaltenvektoren. (b) Für ein festes ` : s` −→ s0` = s` + c sk , ein k 6= `, s0i = si für alle i 6= `: m X xj sj = j=1 m X x0j s0j , falls x0k = xk − c x` , xj = x0j für j 6= k. j=1 Durch diese Operation wird H also nicht verkleinert, denn jede Linearkombination der sj läßt sich auch als Linearkombination der s0j schreiben. Andererseits kann H auch nicht vergrößert werden, denn bei der umgekehrten Operation s` −→ s` − c sk , die die obige rückgängig macht, wird die Hülle ebenfalls nicht verkleinert. RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 39 (c) Für ein festes k: sk −→ s0k = c sk , s0i = si für i 6= k, c 6= 0: m X xj sj = j=1 m X x0j s0j mit x0k = (1/c) xk , x0i = xi für i 6= k. j=1 Bei Zeilenoperationen bleibt analog die lineare Hülle der Zeilenvektoren, der transponierten der Spaltenvektoren von Atr , unverändert. 2 2.10 Determinanten Für quadratische n × n-Matrizen A ist eine Zahl det(A) ≡ |A| definiert, die für niedrige Dimension n ≤ 3 mit einem einfachen Verfahren berechnet werden kann. Determinanten höherdimensionaler Matrizen werden rekursiv auf niedrigere Dimensionen zurückgeführt. (Die übliche allgemeine Definition ist für die praktische Berechnung meist unzweckmäßig.) 2.10a Determinanten für n ≤ 3 n = 1 : A = (a) , µ a n=2: A= c µ 2 3 z.B. A = β −4 det(A) = a, ¶ b , det(A) = a d − b c , d ¶ , det(A) = 2 · (−4) − 3 · β = −8 − 3 β. Abhängig vom Parameterwert β gilt die in Anwendungen oft wichtige Alternative: > 0 für β < −8/3, det A = 0 für β = −8/3, < 0 für β > −8/3. a d n=3:A= g c f , det(A) = a e i + b f g + c d h − g e c − h f a − i d b. i b e h Dies ist als Regel von Sarrus bekannt, dafür gibt es ein graphisches Merkschema: + + + & & & a b c a b d e f d e g h i g h , nur für 3 × 3 Matrizen !!, ein Beispiel: % % % − − 2 det 4 3 − 1 0 1 3 1 = 2 · 0 · 2 + 1 · 1 · 3 + 3 · 4 · 1 − 3 · 0 · 3 − 1 · 1 · 2 − 2 · 4 · 1 = 5. 2 Zur Dimensionsreduktion für alle n ≥ 2 dient: RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 40 2.10b Die Adjunkte, der Laplacesche Entwicklungssatz a11 . . . a1 n .. gegeben. Die Adjunkte A ist (−1)k+` multipliziert mit der DeterSei A = ... k` . an 1 . . . an n minanten der (n − 1) × (n − 1) -Matrix, die aus A durch Streichen der k -ten Zeile und ` -ten Spalte entsteht. Die Vorzeichen sind nach einem Schachbrettmuster“ angeordnet. (Die Adjunkte wird auch ” als Kofaktor bezeichnet, die Subdeterminante heißt Minor.) Beispiel: µ ¶ µ ¶ 1 −2 3 5 −6 4 −6 A = 4 5 −6 , A11 = + det = −3, A12 = − det = −78, −8 9 7 9 7 −8 9 µ A13 = + det 4 7 5 −8 ¶ µ = −67, A32 = − det 1 4 3 −6 ¶ = 18, u.s.w. Der Laplacesche Entwicklungssatz lautet: Für eine beliebige feste Zeile i oder Spalte j gilt det(A) = n X ai ` Ai ` = `=1 n X ak j Ak j . k=1 Man kann also die Determinante nach einer beliebigen Zeile oder Spalte entwickeln, um die Dimension der Matrizen zu reduzieren. Eine zweckmäßige Wahl der Zeile oder Spalte, nach der entwickelt wird, ist: möglichst häufig Null in der Zeile/Spalte, einfache Zahlen. Im nächsten Beispiel sind das die obere Zeile oder die hintere Spalte. Letztere hat den zusätzlichen Vorteil, daß komplizierte Ma” trixelemente“ gestrichen werden: µ µ ¶¶ 0 2 0 0 2 3 100 4 det 17 π = 4 − det = 4 · (−6) = −24, −3 −5 −3 −5 0 0 a det e i 2 b f j 3 c g k 0 a d e = 2 · − det h i ` c g k d a h e + 3 det ` i b f j d h . ` Mit diesem Verfahren sind Determinanten beliebiger Größe durch schrittweise Reduktion auf Dimension 3 oder 2 berechenbar. Insbesondere sieht man det(Atr ) = det(A) an den expliziten Formeln für n ≤ 3 und an der Gleichbehandlung von Zeilen und Spalten im Laplaceschen Entwicklungssatz. 2.11 Rechenregeln für Determinanten Außer der oben schon angeführten Beziehung det(Atr ) = det(A) gelten auch die folgenden Regeln in beliebiger Dimension. 2.11a Multiplikationssatz für Determinanten Seien A, B n × n -Matrizen, dann gilt det(A B) = det(A) · det(B). RWTH Aachen Mathematik I+II 2 Matrizen und Determinanten 2.11b 41 Dreiecksmatrizen Sei A von oberer Dreiecksgestalt, d.h. ai j = 0 für i > j, oberhalb der Diagonale sind die Einträge beliebig (als ∗ gekennzeichnet): d1 ∗ d2 , dann gilt det(A) = d1 · d2 · . . . · dn . . . . 0 dn Insbesondere gilt in beliebiger Dimension det 1n = 1, det(−1n ) = (−1)n . Der Beweis ist klar mit dem Entwicklungssatz, jeweils auf die erste Spalte angewandt, analog für untere Dreiecksgestalt: ai j = 0 für i < j. 2.11c Verschwinden der Determinanten Oft ist der Wert der Determinanten einer n × n -Matrix A nicht so wichtig, sondern vor allem, ob er Null ist oder nicht. So sind z.B. folgende Aussagen äquivalent: • det(A) 6= 0, • A hat maximalen Rang n, • Die Zeilenvektoren sind linear unabhängig, d.h. sie bilden eine Basis im Rn , • dasselbe für die Spaltenvektoren. Umgekehrt verschwindet die Determinante, wenn z.B. eine Zeile (Spalte) nur Null enthält oder wenn zwei Zeilenvektoren bzw. Spaltenvektoren (anti)parallel sind. Weitere Aussagen zur Lösbarkeit von Gleichungen, Invertierbarkeit einer Matrix und zu deren Eigenwerten, wo Determinanten eine wichtige Rolle spielen, siehe in 3.2b, 3.4a und 4.1. 2.11d Elementare Zeilen- und Spaltenoperationen bei Determinanten Von den elementaren Zeilenoperationen 2.8 läßt nur (b), die Addition des Vielfachen einer Zeile, die Determinante unverändert. Anders als beim Rang, der bei allen elementaren Zeilen- und Spaltenoperationen unverändert bleibt (2.9), wechselt beim Vertauschen zweier beliebiger Zeilen das Vorzeichen von det(A). Entsteht B aus A durch Multiplikation einer Zeile mit einer Zahl c 6= 0, so gilt det(B) = c det(A). Daraus folgt insbesondere für n × n -Matrizen: det(µ A) = µn det(A). Für Spaltenoperationen gilt dasselbe entsprechend. Geht  aus A durch eine Kette von elementaren Zeilen- und Spaltenoperationen hervor (c 6= 0 beachten!!), dann gilt jedoch immer noch die wichtige Eigenschaft: det(A) 6= 0 ⇐⇒ det(Â) 6= 0. Insbesondere für große Matrizen ist dies ein einfaches Verfahren, um zu entscheiden, ob eine Matrix eine verschwindende Determinante hat. 2.11e Zur Warnung Es gibt keine allgemeine Beziehung zwischen det(A + B) und det(A), det(B). Es gilt det(µ A) = µn det(A), im allgemeinen nicht µ det(A) und nicht |µ| det(A). RWTH Aachen Mathematik I+II 3 3 Lineare Gleichungssysteme und inverse Matrizen 42 Lineare Gleichungssysteme und inverse Matrizen Nachdem wir in Abschnitt G.3 bereits an den Gaußschen Algorithmus erinnert hatten, verschaffen wir uns jetzt einen Überblick über die Lösbarkeit und insbesondere über die Struktur der Lösungsgesamtheit linearer Gleichungssysteme. Mit der inversen Matrix entwickeln wir ein weiteres Hilfsmittel, das nicht nur zur praktischen Lösung der Gleichungssysteme sehr nützlich ist. 3.1 Einleitung und Erinnerung Die eindimensionale lineare Gleichung a x = b hat bei a 6= 0 genau eine Lösung für jedes b, nämlich x = a−1 b . Ist aber a = 0, so ist sie unlösbar für b 6= 0, oder sie wird von allen x ∈ R gelöst bei b = 0. Die gleiche Alternative: keine Lösung — genau eine Lösung — unendlich viele Lösungen — gilt auch bei linearen Gleichungssystemen in höherer Dimension A x = b, x ∈ Rn , b ∈ Rm , A eine m × n − Matrix. Das sind m lineare Gleichungen für n Unbekannte xi : a11 x1 + a12 x2 + . . . + a1 n xn = b1 , ... am 1 x1 + am 2 x2 + . . . + am n xn = bm . Der in G.3 behandelte Gauß-(Jordan-) Algorithmus ist ein einfaches systematisches Verfahren, um ein beliebiges lineares Gleichungssystem derart umzuformen, daß die Lösungsmenge oder die Unlösbarkeit abgelesen werden kann. Der Algorithmus ist in vielen Computerprogrammen implementiert. Die Umformungen einer Matrix durch elementare Zeilenoperationen können auch als Multiplikation von links mit invertierbaren einfachen Matrizen beschrieben werden (2.8). Das hat große theoretische aber weniger praktische Bedeutung. Entsprechende Spaltenoperationen beschreibt man auch durch Multiplikation von rechts. Im Fall m = n einer quadratischen Koeffizientenmatrix A mit det(A) 6= 0 gibt es eine inverse n × n -Matrix A−1 derart, daß A−1 A = 1n = A A−1 . In diesem Fall gibt es zu jedem b ∈ Rn eine eindeutige Lösung x = A−1 b. Die Berechnung der Inversen kann mit dem Gaußschen Algorithmus erfolgen (3.7) oder mit Hilfe von Determinanten (Adjunkten), siehe 3.6. Im quadratischen Fall kann das System auch direkt mit der Cramerschen Regel (3.6) gelöst werden. Das lineare Gleichungssystem kann auf mehrere Arten gelesen werden. Entweder faßt man es auf als System von bis zu m Gleichungen für Hyperebenen im Rn A n A zA i · x = bi , i = 1, . . . , m , zi ∈ R Zeilenvektoren von A, zi 6= 0, gesucht ist dann die Schnittmenge der Hyperebenen. Im n = 3-dimensionalen Raum ist das die Schnittmenge von Ebenen. Sie schneiden sich gar nicht, in einem Punkt, in einer Geraden oder in einer Ebene. Oder man betrachtet das System als eine Vektorgleichung im Rm n X A m sA j xj = b, sj = R , j = 1, . . . , n, die Spaltenvektoren von A, j=1 gesucht sind dann Koeffizienten xj , so daß die Linearkombination der Spaltenvektoren die rechte Seite b ergibt. Oder man faßt das Gleichungssystem zu einer Matrixgleichung zusammen: A x = b, x ∈ Rn , b ∈ Rm . Wichtig sind die Koeffizientenmatrix A und die erweiterte Koeffizientenmatrix Aerw des Gleichungssystems .. a11 . . . a1 n a . . . a . b 1n 11 .. , .. .1 = (A ... b). .. A = ... Aerw = .. . .. .. . . am 1 . . . am n am 1 . . . am n .. bm RWTH Aachen Mathematik I+II 3 Lineare Gleichungssysteme und inverse Matrizen 43 Die Matrix Aerw enthält dieselbe Information wie das ausgeschriebene lineare Gleichungssystem, siehe G. 3.2 Rangkriterien für die Lösungsmenge Oft ist man in Anwendungen zunächst an der Frage nach der Lösbarkeit eines linearen Gleichungssystems und an der Größe des Lösungsraumes interessiert, bevor man konkrete Lösungen berechnet. Dafür dienen die folgenden beiden Rangkriterien. 3.2a Satz über die Lösbarkeit eines linearen Gleichungssystems Das System ist genau dann lösbar, wenn Rang(A) = Rang(Aerw ). Beweisidee: Da der Rang sich bei Anwendung des Gaußschen Algorithmus nicht ändert (siehe 2.9), kann man die Aussage an der Gauß-Gestalt ablesen. Unterschiedlicher Rang bedeutet, daß eine Zeile der Form ! 0 · x1 + . . . + 0 · xn = bj 6= 0 auftritt, die unlösbar ist. 2 Eine andere Argumentation ist die folgende: wenn der Rang durch Hinzunahme von b nicht erhöht wird, dann liegt b bereits in der linearen Hülle der Spaltenvektoren, das Gleichungssystem ist lösbar. 2 Im lösbaren Fall ist die Dimension des Lösungsraumes die Dimension n des Variablenraumes x ∈ Rn abzüglich der Zahl der unabhängigen Gleichungen, die erfüllt sein müssen. Letztere wird durch den Rang der (erweiterten) Koeffizientenmatrix gezählt. Somit gilt der 3.2b Satz über die Dimension des Lösungsraumes Sei Ax = b, x ∈ Rn und Rang(A) = Rang(Aerw ). Die Anzahl m der Gleichungen ist beliebig. Die Dimension des affinen Lösungsraumes (siehe 3.3) ist ` = n − Rang(A) ∈ N0 . Eindeutige Lösbarkeit liegt bei ` = 0 (ein Punkt) vor, also wenn Rang(A) = n. Nach 2.11c ist das für quadratische Matrizen bei det(A) 6= 0 der Fall. Dann sind die Spaltenvektoren linear unabhängig, sie bilden eine Basis. Insbesondere zeigt dies, daß jeder Vektor eindeutig als Linearkombination von Basisvektoren (siehe 1.4) geschrieben werden kann. Die Lösungsmenge ist bei ` = 1 eine Gerade, ` = 2 eine Ebene im Rn u.s.w. 3.3 Lösungsmengen von homogenen und inhomogenen Gleichungssystemen. Die Lösungsmenge eines homogenen linearen Gleichungssystems A x = 0, x ∈ Rn ist ein linearer Unterraum (siehe 1.12) des Rn (der Dimension ` = n − Rang(A) ): Seien x, x̃ Lösungen, λ ∈ R, dann sind auch λx und x + x̃ Lösungen: A(λ x) = λ(A x) = λ 0 = 0, A (x + x̃) = A x + A x̃ = 0 + 0 = 0. Sei nun xp eine beliebige feste partikuläre Lösung“ des inhomogenen Systems, also A xp = ” b 6= 0 , also insbesondere xp 6= 0. Wenn xh eine Lösung des zugehörigen homogenen Systems A xh = 0 ist, dann ist x = xp + xh ebenfalls eine Lösung des inhomogenen Systems: A x = RWTH Aachen Mathematik I+II 3 Lineare Gleichungssysteme und inverse Matrizen 44 A (xp + xh ) = b + 0 = b. Jede Lösung des inhomogenen Systems läßt sich so gewinnen, denn seien xp , x̃p beliebige Lösungen, dann gilt A (xp − x̃p ) = A xp − A x̃p = b − b = 0. Zwei beliebige Lösungen des inhomogenen Systems unterscheiden sich um eine Lösung des homogenen Systems. Also gilt der Satz: Die allgemeine Lösung (d.h. Lösungsgesamtheit) eines inhomogenen linearen Gleichungssystem erhält man aus einer (beliebig gewählten) partikulären Lösung plus der allgemeinen Lösung des zugehörigen homogenen Systems. Die Lösungsmenge eines inhomogenen Gleichungssystems ist damit ein affiner Teilraum (siehe 1.12). Er ist genau dann ein linearer Teilraum, wenn er den Nullvektor enthält, also wenn b = 0. Die im Satz genannte Eigenschaft der Lösungsmenge linearer (in)homogener Gleichungen wird uns später wieder begegnen, z.B. bei Differentialgleichungen. Beispiel: x1 + 2x2 + 4x3 = 1 3x2 − x3 = 0 wird von x1 = 1, x2 = x3 = 0 gelöst (eine leicht zu ratende partikuläre Lösung). Das homogeneSy1 −14/3 (h) (h) 0 1/3 = stem wird von x(h) = t ∈ R , x = t/3, x = −14t/3 gelöst, also ist +t 3 2 1 0 1 1 − 14 t/3 , t ∈ R , die allgemeine Lösung. t/3 t 3.4 Die Inverse einer quadratischen Matrix Sei A eine quadratische n × n -Matrix, die eine lineare Abbildung des Rn in sich beschreibt. Wenn zu dieser Abbildung eine Umkehrabbildung existiert, dann ist letztere auch linear und wird durch eine n × n -Matrix beschrieben, die wir mit A−1 bezeichnen. In diesem Fall kann die Gleichung A x = y durch x = A−1 y nach x aufgelöst“ werden. Da die Komposition linearer Abbildungen ” dem Produkt der Matrizen entspricht (2.6), gilt dann A−1 A = 1n = A A−1 . Die Matrix A−1 heißt die zu A inverse Matrix. Im eindimensionalen Fall ist die lineare Abbildung x → y = a x genau dann umkehrbar, wenn a 6= 0: x = (1/a) y. Für die Verallgemeinerung auf höhere Dimensionen gibt es viele äquivalente Beschreibungen, die wir im folgenden Satz zusammenfassen. Die Multiplikation mit der inversen Matrix überträgt die Division durch eine Zahl a 6= 0 auf höherdimensionale Fälle, in denen das möglich ist. 3.4a Satz über reguläre (invertierbare) Matrizen Zu einer n × n -Matrix A gibt es genau dann eine Inverse, d.h. eine n × n -Matrix A−1 mit A−1 A = 1n = A A−1 , wenn eine (und dann jede) der nachfolgenden äquivalenten Charakterisierungen erfüllt ist: (i) Rang(A) = n (A hat maximalen Rang), (ii) det(A) 6= 0, (iii) A x = b ist für jedes b ∈ Rn eindeutig lösbar (und x = A−1 b ist die Lösung), (iv) Der Gauß-Jordan-Algorithmus zur Bestimmung der Inversen (siehe 3.7) führt zum Ziel. Wenn eine Inverse A−1 existiert, so ist sie eindeutig, A heißt dann invertierbar oder regulär. Es gilt det(A−1 ) = 1/ det(A), denn mit dem Determinantenmultiplikationssatz 2.11a ist det(A−1 ) det(A) = det(A−1 A) = det(1n ) = 1. RWTH Aachen Mathematik I+II 3 Lineare Gleichungssysteme und inverse Matrizen 3.4b 45 Bemerkungen zum Satz Einfache Beispiele von inversen Matrizen haben wir bereits in Abschnitt 2.8 kennengelernt (Umkehrung der elementaren Zeilenoperationen). Kriterium (ii) ist ein einfacher Test (z.B. mit einem guten Taschenrechner oder durch elementare Zeilen- und Spaltenoperationen, siehe 2.11d), um zu sehen, ob es sich lohnt, die Berechnung von A−1 zu versuchen. Die Äquivalenz von (i) und (ii) wurde bereits in 2.11c angegeben. Daß x = A−1 b die Gleichung löst, ist offensichtlich, denn mit der Assoziativität der Matrixmultiplikation gilt A x = A (A−1 b) = (A A−1 ) b = 1n b = b. Daß die Lösung eindeutig ist (und damitPauch A−1 ) folgt daraus, daß wegen der Rangbedingung (i) das homogene System A x = 0 ⇔ sA i xi = 0 nur die triviale Lösung x = 0 hat, denn die A Spaltenvektoren si der Matrix A sind linear unabhängig. 3.5 Berechnung der inversen Matrix, Spezialfälle In diesem Abschnitt behandeln wir einige Spezialfälle, effektive Verfahren für beliebige Matrizen folgen in 3.6 und 3.7. 3.5a n = 1 und n = 2 A = (a), det(A) = a 6= 0, A−1 = (1/a). µ ¶ a b A= , det(A) = a d − b c 6= 0, c d A−1 = 1 ad − bc µ d −c −b a ¶ , man überprüft leicht, daß A−1 A = A A−1 = 12 erfüllt ist. Beispiel: µ ¶ µ ¶ µ ¶ 1 2 1 3 −1 1/2 −1/6 −1 A= , A = = . 0 3 0 2 0 1/3 6 3.5b Diagonalmatrizen beliebiger Dimension A = d1 0 .. 0 . −1 , det(A) = d1 · d2 · . . . · dn 6= 0, A 1/d1 = 0 dn .. 0 . . 1/dn In den Abschnitten 4.18b und 4.5 werden wir sehen, wie geeignete Matrizen durch Wahl einer angepaßten Basis in Diagonalform überführt werden können. 3.5c Produkt und Inverse Seien A, B zwei invertierbare n × n-Matrizen, dann gilt: (µA)−1 = RWTH Aachen 1 −1 A , µ (A B)−1 = B −1 A−1 (Reihenfolge beachten!) Mathematik I+II 3 Lineare Gleichungssysteme und inverse Matrizen 3.6 46 Die Matrixinversion mit Adjunkten, Cramersche Regel Diese Regel zur Berechnung der Inversen ist zwar immer anwendbar, aber meist nur für n ≤ 3 zweckmäßig. Insbesondere für Dimensionen 4 oder höher ist das Gauß-Jordan-Verfahren gewöhnlich rechnerisch einfacher, es sei denn die Matrix hat spezielle Eigenschaften. Seien Ak` die in 2.10b definierten Adjunkten der Matrix A, dann gilt A11 A21 . . . An 1 A11 A12 . . . A1 n tr 1 . 1 . .. .. . A−1 = .. .. = . . det(A) det(A) A1 n . . . An n An 1 . . . An n Die Formel für n = 2 kann man hieraus direkt ablesen! Die in der Formel auftretende Matrix wird auch als adjungierte Matrix“ zu A bezeichnet, jedoch Vorsicht, da der Begriff adjungierte Matrix“ ” ” auch in ganz anderem Sinn gebräuchlich ist! Die Regel wird auch als Cramersche Regel für die Invertierung von Matrizen bezeichnet, denn sie ist eine Variante der folgenden Formel dieses Namens für Lösungen linearer Gleichungssysteme Ax = b: xi = 1 A A A det(sA 1 , . . . , si−1 , b, si+1 , . . . , sn ), det A i = 1, . . . , n, wobei sA j die Spalten der quadratischen Koeffizientenmatrix A sind und die i-te Spalte durch die rechte Seite b ersetzt wurde. 3.7 Matrixinversion mit dem Gauß-Jordan Verfahren 3.7a Der Algorithmus Die Gleichung A A−1 = 1n kann man spaltenweise lesen als n lineare Gleichungen A s̃j = ej , wobei s̃j die j -te Spalte von A−1 ist und der Standard Basisvektor ej die j -te Spalte von 1n ist. . Diese n Systeme mit erweiterter Koeffizientenmatrix (A .. e ) können simultan mit dem folgenden j Ansatz gelöst werden, bei dem die Standard-Einheitsvektoren zur Einheitsmatrix zusammengefaßt werden. Die erweiterte n × 2 n -Matrix . (A .. 1n ) ist mit dem Gauß-Jordan Verfahren (dem Gaußschen Algorithmus, zur Bezeichnungsweise siehe das Ende von G.3) durch elementare Zeilenoperationen so umzuformen, daß links 1n zu stehen kommt. Dies ist genau dann möglich, wenn A invertierbar ist. Dabei entsteht A−1 auf der rechten Seite: . . elem. Zeilenop. (A .. 1n ) −−−−−−−−→ (1n .. A−1 ). 3.7b Beispiel Mit a ∈ R sei 1 . (A .. 13 ) = 0 −2 1 →0 0 RWTH Aachen 2 0 −1 0 a 0 .. .. .. .. . 0 0 1 2 0 −5 0 a 0 .. .. .. .. . 1 0 2 0 1 0 0 1 0 −−−−−→ 0 z3 →−z2 z2 →z3 1 0 1 0 0 0 1 0 +2 z1 2 1 0 0 0 a .. .. .. .. . 1 −2 0 0 0 1 0 −2 z2 −1 0 Mathematik I+II 3 Lineare Gleichungssysteme und inverse Matrizen 1 → 0 0 0 1 0 0 0 a .. .. .. .. . Für a 6= 0 erhalten wir 1 0 0 ... 5 . . 0 1 0 . −2 . 0 0 1 .. 0 0 0 1 2 −1 . 0 0 0 1/a 2 −1 , 0 5 −2 0 47 A−1 5 −2 = 0 0 0 1/a 2 −1 . 0 Für a = 0 ist links keine Einheitsmatrix zu erzeugen. Man berechnet leicht, daß det(A) = a. In Übereinstimmung mit dem Ergebnis beim Gauß-Jordan Verfahren ist A also genau dann invertierbar, wenn a 6= 0. Anstelle der Zeilenoperationen, die auf der linken Seite von der oberen Dreiecksgestalt zur Diagonalform führen, kann man auch ein lineares Gleichungssystem lösen. Die Berechnung mit Adjunkten ist hier (Dimension n = 3) etwa genauso schnell. 3.8 Lösungshinweise für lineare Gleichungssysteme Sei das System A x = b nicht so einfach, daß durch offensichtliche Elimination die Lösung direkt gefunden werden kann. Dann kann man (bei exakter Rechnung) immer durch den Gaußschen Algorithmus die Lösungsgesamtheit bestimmen oder die Unlösbarkeit feststellen. Wenn n = m (Zahl der Gleichungen gleich Zahl der Unbekannten), so ist zu unterscheiden, ob die Koeffizientenmatrix A invertierbar ist. Wenn A−1 existiert und die Gleichung für viele rechte ” Seiten“ b zu lösen ist, dann ist es günstiger, erst einmal A−1 zu berechnen und dann die Lösungen als Produkt A−1 b zu berechnen. Dies ist viel einfacher, als für jedes b den Gaußschen Algorithmus erneut durchzuführen. Für nur eine oder wenige rechte Seiten b lohnt das aber nicht. Auch die Cramersche Regel kann in letzterem Fall angewandt werden. Bei der Lösung linearer Systeme mit Computerprogrammen können die unvermeidbaren kleinen Rundungsfehler Probleme verursachen: Wenn anstelle einer Null eine sehr kleine Zahl übrigbleibt“ ” und anschließend durch diese Zahl dividiert wird (z.B. um eine führende Eins zu erhalten) so können völlig falsche Resultate entstehen. Gute Programme verringern diese Gefahr durch Pivotierung“, sie ” können sie aber nie ganz ausschließen. Besonders bei großen Systemen (n = 103 − 106 ist in Anwendungen nicht ungewöhnlich!) können leicht Koeffizienten ganz unterschiedlicher Größenordnung auftreten, die bei der numerischen Bearbeitung Schwierigkeiten bereiten. Für große Systeme mit quadratischer invertierbarer Matrix A ist es aus den genannten Gründen meist unzweckmäßig, die inverse Matrix zu berechnen. Im Rahmen der numerischen Mathematik sind viele andere Verfahren entwickelt worden, die zumeist spezielle Eigenschaften von A ausnutzen. So kann die Verläßlichkeit des Ergebnisses erhöht werden und Rechenzeit (viel Geld) gespart werden. Die Behandlung solcher Verfahren geht über den Rahmen dieser Vorlesung hinaus. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4 48 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung In diesem Kapitel betrachten wir nur quadratische Matrizen, die z.B. lineare Abbildungen des Rn in sich beschreiben. Die Abbildungseigenschaften sind einfach zu kontrollieren, wenn wir Richtungen kennen, die bei der Abbildung unverändert bleiben. Das führt auf den Begriff des Eigenvektors. Besonders wichtige Matrizen lassen sich damit durch Wahl einer Basis, d.h. durch angepaßte Koordinaten, in die viel einfachere und übersichtlichere Diagonalform überführen. Für einige Anwendungen siehe 4.1c. 4.0 Erinnerung: Polynome Ein Polynom P (z) in einer Variablen z ist eine endliche Summe der Form P (z) = n X bk z k = b0 + b1 z + b2 z 2 + . . . + bn z n . k=0 Bei den uns besonders interessierenden Polynomen sind die Koeffizienten bj ∈ R, wir sprechen dann von reellen Polynomen“ oder Polynomen mit reellen Koeffizienten“. Die Variable z kann reell sein ” ” (wie von der Schule vertraut) oder komplex (später mehr dazu) oder eine n × n-Matrix oder . . . In Polynomen wird immer z 0 = 1 für alle z benutzt (bzw. z 0 = 1n im Falle von n × n-Matrizen). Der Grad eines Polynoms ist die höchste tatsächlich auftretende Potenz, im Beispiel oben ist Grad(P (z)) = n falls bn 6= 0. Ist z = a eine Nullstelle des Polynoms Pn (z) vom Grad n ≥ 1, also Pn (a) = 0, dann kann man Pn ohne Rest durch den Linearfaktor (z − a) teilen (Polynomdivision), es gibt dann ein Polynom Pn−1 vom Grad n − 1, so daß Pn (z) = (z − a) Pn−1 (z). Die reellen Polynome, die in diesem Kapitel als charakteristische Polynome“ von reellen symme” trischen Matrizen, von Dreiecksmatrizen oder einigen weiteren speziellen Matrizen auftreten werden, haben die besondere Eigenschaft, daß sie nur reelle Nullstellen haben. In diesem Spezialfall kann ein Polynom vollständig in reelle Linearfaktoren zerlegt werden: Pn (z) = bn (z − a1 ) (z − a2 ) . . . (z − an ), wobei die aj ∈ R Nullstellen sind, Pn (aj ) = 0, die aj brauchen nicht alle verschieden zu sein. [ Den allgemeinen Fall, bei dem z.B. auch Ausdrücke wie (z 2 + 1) auftreten, die keine reellen Nullstellen haben, behandeln wir später mit Hilfe der komplexen Nullstellen. ] Die Ordnung oder Vielfachheit einer Nullstelle ist die Häufigkeit, mit der sie in der Zerlegung in Linearfaktoren auftritt, z.B. liegt bei dem Polynom vom Grad 8 P8 (z) = −5 (z − 2)(z − 3)(z + 8)(z − 3)(z − 2)(z − 2)(z − 5)(z − 2) = −5 (z − 2)4 (z − 3)2 (z + 8) (z − 5) eine vierfache Nullstelle 2 vor (die 2 ist eine Nullstelle der Ordnung 4), 3 ist eine doppelte Nullstelle, 5 und -8 sind einfache Nullstellen. Die Ordnungen addieren sich zum Grad des Polynoms auf: 4 + 2 + 1 + 1 = 8. 4.1 Eigenwerte und Eigenvektoren 4.1a Definition und geometrische Bedeutung Wenn für die (reelle) n × n-Matrix A die Gleichung Ax = λx RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 49 eine reelle Lösung x ∈ Rn , x 6= 0 für ein λ ∈ R hat (oder eine komplexe mit λ ∈ C, x ∈ Cn , d.h. xj ∈ C, x 6= 0), so heißt λ ein Eigenwert von A und x 6= 0 ein Eigenvektor zum Eigenwert λ. (Die triviale Lösung x = 0 für alle λ muß ausgeschlossen werden!) Ein Eigenvektor beschreibt eine Gerade (Richtung), die unter der linearen Abbildung unverändert bleibt, der zugehörige Eigenwert λ beschreibt, ob A diese Richtung z.B. streckt (bei |λ| > 1), staucht (|λ| < 1), umkehrt (λ < 0) oder zu Null macht (λ = 0). Mit x ist auch c x, c 6= 0 ein Eigenvektor zu demselben Eigenwert λ. Deshalb spricht man auch oft von Eigenrichtungen zum Eigenwert λ. Die Eigenvektoren zu einem Eigenwert λ bilden zusammen mit 0 einen linearen Unterraum (1.12), denn aus A x = λ x und A x̃ = λ x̃ folgt auch A(x + x̃) = A x + A x̃ = λ x + λ x̃ = λ(x + x̃). Der lineare Teilraum {0} ∪ {Eigenvektoren von A zum Eigenwert λ} heißt Eigenraum der Matrix A zum Eigenwert λ. 4.1b Beispiele (i) A = 1n , A x = 1 · x für alle x ∈ Rn . Also ist jeder Vektor x 6= 0 ein Eigenvektor zum Eigenwert1. d1 . . 0 eine Diagonalmatrix. Für die Standardbasisvektoren e gilt dann A e = (ii) A = . j j 0 dn dj ej . Somit sind alle dj Eigenwerte mit ej als Eigenvektoren. Das gilt auch umgekehrt: wenn A ej = dj ej für alle Standardbasisvektoren, dann hat A die angegebene (warum?) µ Diagonalgestalt. ¶ µ ¶ 2 1 (iii) A = 0 7 hat e1 = 10 als Eigenvektor zum Eigenwert λ = 2, denn A e1 = 2 e1 . 4.1c Einige Anwendungen Die geometrische Bedeutung von Richtungen, die bei linearen Abbildungen unverändert bleiben, wird bei der Diskussion von Kurven und Flächen zweiter Ordnung deutlich. Außerdem sind Eigenwerte und Eigenvektoren wichtig zur Lösung von Systemen linearer Differentialgleichungen, die eine (approximative) Zeitentwicklung von dynamischen Systemen beschreiben, und bei der Berechnung von iterierten Abbildungen An , siehe 4.19b. Bei schnell drehenden Körpern muß die Drehachse mit einem Eigenvektor der Trägheitsmatrix zusammenfallen, sonst schlagen die Lager aus (Auswuchten von Reifen). Die Achse, die zum größten Eigenwert gehört, ist stabil. Bei Schwingungsproblemen treten Eigenwerte als charakteristische Frequenzen auf. Zur Berechnung der Verformungen elastischer Körper (z.B. Stahlträger) bei Belastungen durch Druck oder Zug benötigt man ebenfalls die Eigenwerte und Eigenvektoren. Extremaleigenschaften nichtlinearer Funktionen können an den Eigenwerten einer geeigneten Matrix von Ableitungen, der Hesseschen Matrix, abgelesen werden. 4.2 Charakteristisches Polynom, Berechnung der Eigenwerte und Eigenvektoren A x = λ x = λ 1n x ⇐⇒ (A − λ1n ) x = 0 a11 − λ a12 a13 a21 a22 − λ a23 A − λ 1n = ... ··· an 1 an 2 ... RWTH Aachen wobei die Matrix A − λ 1n ausgeschrieben lautet: ... a1 n ... a2 n . .. . . . . an n − λ Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 50 x = 0 ist immer eine Lösung, ist aber (definitionsgemäß) kein Eigenvektor. Nach dem Satz über die Dimension des Lösungsraumes 3.2b gibt es nichttriviale Lösungen des homogenen Gleichungssystems (A − λ1n ) x = 0 genau dann, wenn Rang(A − λ1n ) < n ⇐⇒ det(A − λ1n ) = 0, für die letzte Äquivalenz siehe 2.11c. Also gilt “λ ist Eigenwert von A” ⇐⇒ “ det(A − λ1n ) = 0 ” ⇐⇒ “(A − λ1n ) x = 0 hat eine Lösung x 6= 0”. Wir können sogar entscheiden, ob λ ein Eigenwert ist, ohne zugleich einen Eigenvektor zu bestimmen! P (λ) := det(A − λ1n ) ist ein Polynom vom Grad n in der Variablen λ mit Koeffizient bn = (−1)n 6= 0 bei λn , es heißt charakteristisches Polynom der Matrix A. Für eine reelle Matrix A hat das charakteristische Polynom reelle Koeffizienten. Ob das charakteristische Polynom reelle und/oder komplexe Nullstellen hat, hängt von den Koeffizienten ab. Wenn A symmetrisch ist: Atr = A oder eine Dreiecksmatrix, dann hat das charakteristische Polynom nur reelle Nullstellen. Für ungerades n hat jedes Polynom mindestens eine reelle Nullstelle. Zu Polynomen siehe 4.0 und 6.1. Als (algebraische) Vielfachheit eines Eigenwertes λj bezeichnet man die Vielfachheit (oder Ordnung) von λj als Nullstelle des charakteristischen Polynoms. Die Eigenwerte, die nicht einfach sind, heißen entartet. Im Falle komplexer Nullstellen werden wir später auch komplexe Eigenvektoren betrachten. Auch wenn wir letztlich an reellen Größen interessiert sind, ist das als Rechenvereinfachung zweckmäßig, z.B. bei der Beschreibung von Schwingungen. Diesen Fall behandeln wie erst später. Manche Autoren benutzen eine andere Vorzeichenwahl P̃ (λ) := det(λ 1n −A) = (−1)n det(A− λ1n ) mit b̃n = 1. Da wir vor allem an den Nullstellen interessiert sind, ist der Unterschied unerheblich. Mit demselben Namen tritt ein nahe verwandtes charakteristisches Polynom“ bei linearen ” Differentialgleichungen auf. 4.2a Beispiel mit reellen Eigenwerten µ ¶ 2 1 A= , 3 4 µ ¶ 2−λ 1 A − λ 12 = , 3 4−λ das charakteristische Polynom det(A − λ12 ) = (2 − λ)(4 − λ) − 3 = λ2 − 6 λ + 5 hat zwei reelle Nullstellen, die Eigenwerte λ1 = 5, λ2 = 1. Bestimmung von Eigenvektoren: µ ¶ −3 1 A − λ1 12 = A − 5 12 = , 3 −1 (A − 5 12 ) x = 0 ⇐⇒ −3x1 + x2 = 0, 3x1 − x2 = 0, wird von x1 = t, x2 = 3t, t ∈ R gelöst, Eigenvektoren zum Eigenwert 5 sind (t, 3t), t 6= 0, z.B. (1, 3), (1/3, 1), (−1, −3). Nun zum anderen Eigenwert λ2 = 1: µ ¶ 1 1 A − λ2 12 = A − 12 = , 3 3 (A − 12 ) x = 0 ⇐⇒ x1 + x2 = 0, 3x1 + 3x2 = 0, wird von x1 = −x2 = t ∈ R gelöst, z.B. ist (1, −1) ein Eigenvektor zum Eigenwert 1. Bemerkung: Die Bestimmung eines Eigenvektors ist die Lösung eines linearen Gleichungssystems durch einen nichttrivialen Vektor. Dies ist genau dann möglich, wenn der Eigenwert zuvor richtig bestimmt wurde (Rechenkontrolle!). RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.2b 51 Beispiel Dreiecksmatrix A ist untere Dreiecksmatrix, abhängig von einem Parameter γ ∈ R , 2 0 0 2−λ 0 0 1−λ 0 , A = 2 1 0 , (A − λ 13 ) = 2 −1 γ 3 −1 γ 3−λ Mit 2.11b hat das charakteristische Polynom det(A − λ 13 ) = (2 − λ)(1 − λ)(3 − λ) Produktgestalt! Dies ist immer so bei Dreiecksmatrizen, die Eigenwerte stehen auf der Diagonalen, hier λ1 = 2, λ2 = 1, λ3 = 3. (A − 2 13 ) x = 0 ⇐⇒ 2x1 − x2 = 0, −x1 + γ x2 + x3 = 0, x1 = t, x2 = 2t, x3 = t − γ 2 t, t ∈ R ist Lösung, (1, 2, 1 − 2 γ) ist ein Eigenvektor zum Eigenwert 2. Entsprechend berechnet man für die anderen Eigenwerte: zu λ2 = 1 ist (0, 2, −γ) ein Eigenvektor und zu λ3 = 3 gehört z.B. der Eigenvektor (0, 0, 1). Da der Parameter γ nicht auf der Diagonalen von A steht, sind die Eigenwerte unabhängig von γ, die Eigenvektoren hängen jedoch teilweise von γ ab. Bemerkung zu Dreiecksmatrizen: Es gilt λ1 . . . . . . ∗ λ1 1 1 0 0 0 .. 0 .. .. .. 0 λ2 . . . . . λ2 . . = λ bzw. = λ . 1 .. n , . .. .. . . . .. .. . 0 0 . . ... 0 0 1 1 ∗ . . . . . . λn 0 λn also hat bei oberer Dreiecksgestalt der obere“ Eigenwert einen einfachen oberen“ Eigenvektor und ” ” entsprechend für unten“. ” 4.3 Eigenwerte und Eigenvektoren symmetrischer Matrizen Besonders starke Aussagen gelten für symmetrische Matrizen. Wir werden diesen in diesem Kapitel bei Kurven und Flächen zweiter Ordnung begegnen, auch Matrizen, die Trägheitsmomente etc. beschreiben, sind symmetrisch. Zur quadratischen Approximation von Funktionen mehrerer Variabler dienen die symmetrischen Hesseschen Matrizen, sie sind nötig bei der Suche nach Extrema. Wir fassen die wichtigsten Eigenschaften in folgendem Satz zusammen. 4.3a Satz über Eigenwerte und Eigenvektoren symmetrischer Matrizen Sei A = Atr eine symmetrische Matrix, dann gilt: (a) alle Eigenwerte λj sind reell; (b) die Dimension des Eigenraumes (siehe 4.1a) zum Eigenwert λj ist die Vielfachheit von λj als Eigenwert (Ordnung, Vielfachheit als Nullstelle des charakteristischen Polynoms); (c) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal; (d) es gibt eine Orthonormalbasis (ONB) von Eigenvektoren. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.3b 52 Orthogonalität von Eigenvektoren zu verschiedenen Eigenwerten Wir erläutern zunächst die Eigenschaft (c). Für zwei Eigenvektoren einer symmetrischen Matrix A = Atr gelte A s1 = λ1 s1 , A s2 = λ2 s2 , λ1 6= λ2 . Dann sind s1 und s2 orthogonal. Beweis: Mit der Eigenvektor-Eigenschaft und Regel 2.5e gilt s1 · A s2 = s1 · λ2 s2 = λ2 (s1 · s2 ) 2.5e = Atr s1 · s2 = A s1 · s2 = λ1 (s1 · s2 ). Da λ1 6= λ2 folgt s1 · s2 = 0, die behauptete Orthogonalität. 4.3c 2 Weitere Bemerkungen zum Satz Wenn alle Nullstellen des charakteristischen Polynoms einfach sind, d.h. alle n Eigenwerte verschieden, dann können wir n paarweise orthogonale Eigenvektoren durch Übergang sj → sj /|sj | auf Länge 1 normieren und erhalten so automatisch eine ONB von Eigenvektoren. Wenn wir jedoch entartete (mehrfache) Eigenwerte haben, so können wir in jedem der zugehörigen Eigenräume eine ONB wählen (auf viele verschiedene Weisen) und erhalten damit eine ONB im ganzen Raum. Wir erinnern daran, daß eine ONB eine besonders zweckmäßige Basis ist, da die Koeffizienten eines beliebigen Vektors bezüglich einer ONB einfach mit Hilfe von Skalarprodukten berechnet werden können (1.11), man braucht dafür kein lineares Gleichungssystem zu lösen. 4.4 Orthogonale Matrizen 4.4a Definition orthogonaler Matrizen Eine reelle n×n-Matrix T heißt orthogonal, wenn sie eine (und dann jede) der folgenden äquivalenten Eigenschaften hat: (i) T tr T = 1n , (ii) T T tr = 1n , (iii) T −1 = T tr , (iv) Die Spalten von T sind eine ONB im Rn , (v) Die Zeilen von T sind Transponierte einer ONB im Rn , (vi) Sei f1 , . . . , fn eine ONB, dann ist auch T f1 , T f2 , . . . , T fn eine ONB im Rn . Für orthogonale Matrizen gilt det T = ±1, denn mit 2.11 ist (det T )2 = det T · det T = det(T tr ) det T = det(T tr T ) = 1. Eine orthogonale Matrix mit det T = +1 heißt auch eigentlich orthogonal. Orthogonale Matrizen sind insbesondere regulär (invertierbar). Ein Vorteil orthogonaler Matrizen ist, daß die Inverse nicht berechnet zu werden braucht, sondern direkt abgelesen werden kann, man braucht nur die Spaltenvektoren als Zeilenvektoren in T tr = T −1 einzusetzen. Eine orthogonale Matrix ist eine zweckmäßige Zusammenfassung einer ONB. Beweis der Teilaussage (iv) ⇒ (i)“: ” Bezeichne die Spaltenvektoren von T mit sj , nach (iv) bilden s1 , . . . , sn eine ONB. à . . . T = (s1 .. s2 .. . . . .. sn ), RWTH Aachen T tr = ! str 1 ··· , str n Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung T tr s1 · s1 s1 · s2 s2 · s1 s2 · s2 T = ... ... sn · s1 ... 53 . . . s1 · sn ... ... = 1n . ... ... . . . sn · sn 2 4.4b Drehungen als Beispiele orthogonaler Matrizen Drehungen werden durch orthogonale Matrizen beschrieben, z.B. die Drehung in der x1 − x3 -Ebene (um die x2 -Achse) im R3 um den Winkel α im mathematisch positiven Sinne, d.h. entgegen dem Uhrzeigersinn: cos α 0 − sin α 1 0 . T = T (α) = 0 sin α 0 cos α Nachrechnen ergibt T tr T = 13 , da cos2 α + sin2 α = 1. Geometrisch beschreiben orthogonale Matrizen immer Drehungen, wenn det(T ) = det(T tr ) = +1 ( eigentlich orthogonal“) oder Dreh” spiegelungen bei det T = −1. Beschreibt T (α) eine Drehung um einen Winkel α, dann beschreibt die k-te Potenz T (α)k = T (k α) eine Drehung um dieselbe Achse um den Winkel k α, k ∈ Z , wie man leicht mit den Additionstheoremen für die Winkelfunktionen (E.5 und 6.13b) nachprüft. Insbesondere ist T (α)−1 = T (−α). Allgemeiner gilt T (α) T (β) = T (α + β). 4.5 Hauptachsentransformation symmetrischer Matrizen Zu jeder symmetrischen n × n-Matrix A = Atr gibt es eine orthogonale n × n-Matrix T , so daß T tr A T ≡ T −1 A T = D = Diagonalmatrix mit den Eigenwerten auf der Diagonalen. ( T ist nicht eindeutig.) Insbesondere können wir leicht sehen, daß die Determinante gleich dem Produkt der Eigenwerte ist: wegen det(T ) = det(T tr ) = ±1 gilt det(A) = det(T tr ) det(A) det(T ) = det(T tr A T ) = det(D) = λ1 · λ2 · . . . · λn . . . Beweis: Wähle als Spalten von T = (s1 .. . . . .. sn ) eine ONB von Eigenvektoren von A – die es nach 4.3a immer gibt (nicht eindeutig) – mit Eigenwerten λ1 . . . λn . Dann ist T orthogonal und es . . gilt A T = (λ1 s1 .. . . . .. λn sn ). Daraus folgt tr λ1 s1 . . .. 0 . T tr A T = · · · (λ1 s1 .. . . . .. λn sn ) = . str 0 λn n 2 4.6 Basiswechsel durch orthogonale Matrizen 4.6a Wirkung auf Vektoren Jede reguläre Matrix (vgl. 3.4a) kann als lineare Abbildung aufgefaßt werden, die einen Basiswechsel beschreibt. Wir beschränken uns hier zunächst auf den Fall orthogonaler Matrizen, siehe 4.18a für den allgemeinen Fall. Orthogonale Matrizen haben den Vorteil, daß sie Orthonormalbasen wieder in solche überführen, was für Rechnungen vorteilhaft ist, siehe 1.4. . . Die Spaltenvektoren si , i = 1, . . . , n einer orthogonalen Matrix T = (s1 .. . . . .. sn ) bilden eine ONB (z.B. von Eigenvektoren einer symmetrischen Matrix A ). Da T e1 = s1 , . . . , T en = sn , RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 54 folgt n n n n y1 x1 X X X X x := T ... = T yi ei = yi T ei = yi si =: ... = xj ej . i=1 i=1 i=1 j=1 yn xn Wenn also x = T y ⇐⇒ y = T −1 x=T tr x, d.h. yi = si · x, x = n X j=1 xj ej = n X yi si , i=1 dann sind xi die Komponenten des Vektors x bzgl. der Standardbasis {ei }, yi die Komponenten desselben Vektors x bzgl. der ONB B = {s1 , . . . , sn }, das ist y = xB in der Bezeichnungsweise aus 1.4. Dasselbe anders ausgedrückt: Wenn xi die Koordinaten eines Vektors (Punktes) im orthonormalen Standard-Koordinatensystem sind, dann sind die yi die Komponenten desselben Vektors (Punktes) im gedrehten (det(T ) = +1) oder gedrehten und gespiegelten (det(T ) = −1) orthonormalen Koordinatensystem mit si als Koordinatenrichtungen. Diese Bezeichnungsweise werden wir in den folgenden Abschnitten über Kurven und Flächen zweiter Ordnung benutzen. µ ¶ a Ein nützlicher Trick: Wenn im zweidimensionalen Fall bereits s1 = als (normierter) Eigenb µ ¶ −b vektor zu λ1 bestimmt wurde, dann ist s2 = = s⊥ 1 ein (normierter) Eigenvektor zu λ2 (vergl. a 1.13c). Im dreidimensionalen Fall: Wenn bereits zwei orthogonale normierte Eigenvektoren s1 und s2 bekannt sind, dann ist mit s3 = s1 × s2 eine (rechtshändige) ONB von Eigenvektoren bestimmt, für die det(T ) = 1 gilt. 4.6b Diagonalisierung einer Matrix durch Basiswechsel Sei nun x → L(x) eine lineare Abbildung des Rn in sich. Wir wissen, daß diese Abbildung durch eine Matrixmultiplikation beschrieben werden kann, die konkrete Form der Matrix hängt jedoch von der gewählten Basis ab. Bisher wurde stillschweigend die Standardbasis {ei } benutzt. Sei die symmetrische Matrix A die Matrix, die bezüglich der Standardbasis die lineare Abbildung beschreibt, also L(x) = Ax. Wir gehen nun zu einer angepaßten Basis, einer ONB von Eigenvektoren von A über, wodurch sich die Matrixdarstellung der linearen Abbildung zu einer Diagonalmatrix vereinfacht ! Sei T die orthogonale Matrix, die als Spaltenvektoren si eine ONB B aus Eigenvektoren von A zu Eigenwerten λi hat. Der in 4.6a erläuterte Basiswechsel beschreibt dann den Übergang zu dem an die symmetrische Matrix A angepaßten Koordinatensystem. Bezüglich dieser neuen Basis erhalten wir als neue Matrix für dieselbe lineare Abbildung L(x) λ1 . . 0 = T tr A T. D= . 0 λn Seien – mit der in 4.6a eingeführten Bezeichnungsweise – x die Koordinaten bezüglich der Standardbasisvektoren ei und seien y (bequemer im Gebrauch als die Notation xB aus 1.4) die neuen angepaßten Koordinaten bezüglich der Eigenvektoren si , also x = T y ⇐⇒ y = T tr x. Dieselbe Abbildung von Punkten des Rn : x → L(x) = A x wird auch beschrieben durch: y1 λ1 y1 y = ... → D y = ... , denn A x = A T y = T T tr A T y = T D y, yn λ n yn RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 55 oder dieselbe Aussage auf einem anderen Wege: L(x) = A x = A n X yi si = i=1 n X yi A si = n X i=1 λi yi si . i=1 Also ist der Komponentenvektor von L(x) bzgl. der ONB {si } der Vektor T tr A T y = D y. Bei dem durch T vermittelten Koordinatenwechsel ändert sich also die Matrix gemäß A → T tr A T . Später, in den Abschnitten 4.8 und 4.13, werden wir davon Gebrauch machen, um die Gleichungen für Kurven und Flächen zu vereinfachen. Für allgemeinere diagonalisierbare Matrizen siehe 4.18 und für Potenzen von Matrizen siehe 4.19b. 4.7 Definite symmetrische Matrizen, Spur Die Unterscheidung positiver und negativer reeller Zahlen kann teilweise auf symmetrische Matrizen A übertragen werden. Die Begriffe der Definitheit dienen uns z.B. bei Kurven und Flächen zweiter Ordnung und bei der Bestimmung lokaler Extrema. 4.7a Definitionen Eine (nichttriviale, d.h. A 6= 0) symmetrische Matrix A mit Eigenwerten {λi } heißt • positiv definit, wenn alle λi > 0, • positiv semidefinit, wenn alle λi ≥ 0, • negativ definit, wenn alle λi < 0, • negativ semidefinit, wenn alle λi ≤ 0, • indefinit, wenn ein λi > 0 und auch ein λj < 0 auftritt. (Die Bezeichnungsweise ist in den Büchern nicht ganz einheitlich.) Viele in den Anwendungen auftretende Matrizen, z.B. die Matrix der Trägheitsmomente, sind aus physikalischen oder anderen Gründen immer positiv definit, das ist eine gute Rechenkontrolle. Eine äquivalente Charakterisierung für symmetrische Matrizen ist: A ist positiv definit ⇐⇒ x · A x > 0 für alle x 6= 0, A ist positiv semidefinit ⇐⇒ x · A x ≥ 0 für alle x, und entsprechend für die anderen Fälle. 4.7b Beispiele, 2 × 2-Matrizen Für eine beliebige m × n-Matrix B sind B tr B und B B tr symmetrische und positiv semidefinite m × m- bzw. n × n-Matrizen, denn (B tr B)tr = B tr (B tr )tr = B tr B und x · B tr B x = (B x)tr (B x) = |B x|2 ≥ 0. Wenn eine der Matrizen B tr B oder B B tr regulär ist, so ist sie auch positiv definit. Das ist z.B. der Fall, wenn B eine beliebige reguläre quadratische Matrix ist. Für diagonalisierbare 2 × 2-Matrizen folgt aus det(A) = λ1 · λ2 : det(A) > 0: A ist (positiv oder negativ) definit, det(A) = 0: A ist semidefinit, nicht definit, det(A) < 0: A ist indefinit. Im definiten Fall ist A positiv, wenn a11 > 0 oder Spur A > 0. Es gibt weitere Kriterien für Definitheit, für die eine Berechnung aller Eigenwerte nicht nötig ist (siehe Formelsammlungen). RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.7c 56 Spur einer Matrix Außer der Determinanten einer n × n-Matrix A, die nach 4.5 für jede orthogonale Matrix T und nach 4.18a sogar für jede reguläre Transformationsmatrix T die Gleichung det(T −1 A T ) = det(A) erfüllt und damit unabhängig von der gewählten Basis ist, ist auch die Summe der Diagonalelemente einer Matrix, die Spur von A, eine weitere nützliche Invariante. Spur A := n X aj j = Spur (T −1 A T ) j=1 für jede reguläre n × n-Matrix T . Für diagonalisierbare Matrizen A, z.B. symmetrische Matrizen, und ebenfalls für Dreiecksmatrizen folgern wir daraus sofort Spur A = λ1 + λ2 + . . . + λn , wenn λ1 , . . . , λn die Eigenwerte von A sind. Mehrfache Eigenwerte (mehrfache Nullstellen des charakteristischen Polynoms) müssen mehrfach addiert werden, z.B. Spur(1n ) = n. Da die Spur leicht zu berechnen ist, kann die Berechnung der Eigenwerte damit sehr einfach kontrolliert werden. Für (semi)definite 2 × 2-Matrizen (det A ≥ 0) ist A positiv (semi)definit, wenn Spur A > 0, sonst negativ (semi)definit. Mit o o p p 1n 1n λ1 = Spur A + (Spur A)2 − 4 det A , λ2 = Spur A − (Spur A)2 − 4 det A 2 2 können die Eigenwerte im zweidimensionalen Fall auch direkt aus der Spur und Determinanten berechnet werden. Wenn det A = 0, also ein Eigenwert verschwindet, z.B. λ2 = 0, dann ist λ1 = Spur A. 4.8 Quadratische Gleichungen in der Ebene, Normalformen Nach den Lösungsmengen linearer Gleichungen in den vorangehenden Kapiteln untersuchen wir nun als erste Anwendung der Hauptachsentransformation die Lösungsmengen quadratischer Gleichungen im R2 , die geometrisch Kegelschnitten entsprechen. In beliebiger Dimension spricht man von Quadriken. In 1.14 konnte das quadratische Optimierungsproblem der Bestimmung kürzester Abstände durch Beachtung der Orthogonalität auf ein einfacheres lineares Problem reduziert werden. In diesem Kapitel werden wir mit der linearen Hauptachsentransformation 4.5 das allgemeine quadratische Problem in ein spezielles, elementar lösbares überführen. ³ ´ 2 1 Eine Kurve zweiter Ordnung in der Ebene ist die Menge der Punkte x x2 ∈ R , die eine Gleichung der folgenden Form erfüllen: a11 x12 + 2 a12 x1 x2 + a22 x22 + 2 b1 x1 + 2 b2 x2 = c mit aij , bk , c ∈ R. (Die Abspaltung der Faktoren 2 ist zweckmäßig aber nicht einheitlich, unterschiedlich in den Formelsammlungen.) Wir nehmen an, daß nicht alle aij verschwinden, sonst wären wir in dem schon in 1.13d behandelten Fall einer linearen Gleichung für eine Gerade. Mit der symmetrischen 2 × 2-Matrix µ ¶ a11 a12 A= = Atr 6= 0, a12 = a21 , a21 a22 kann die definierende Gleichung äquivalent umgeschrieben werden als Vektorgleichung mit Skalarprodukt x · Ax + 2b · x = c RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 57 oder – wie wir es im Weiteren tun werden – als reine Matrixgleichung mit Matrixprodukt xtr A x + 2 btr x = c. Die Matrix A, die wegen x1 x2 = x2 x1 immer symmetrisch gewählt werden kann, besitzt nach 4.3a eine Orthonormalbasis von Eigenvektoren, bezüglich dieser Basis (neue Koordinaten y) ist A diagonal, siehe 4.6b. Dies ist die erste Vereinfachung. 4.8a 1. Schritt: A diagonalisieren Berechne die Eigenwerte λ1 , λ2 von A und wähle eine ONB von Eigenvektoren s1 , s2 , d.h. |s1 |2 = . |s2 |2 = 1, s1 · s2 = 0. Mit der durch die orthogonale Matrix T = (s1 .. s2 ) vermittelten Hauptachsentransformation erhalten wir µ ¶ λ1 0 tr T AT =D= 0 λ2 und die Koordinatentransformation (Basiswechsel) x = T y = y1 s1 + y2 s2 ⇐⇒ y = T tr µ ¶ s1 · x x= , s2 · x 0 b =T tr µ ¶ s1 · b b= . s2 · b In den neuen Koordinaten ist die Gleichung einfacher: c = xtr A x + 2 btr x = (T y)tr A T y + 2 btr T y µ ¶ λ1 0 tr tr tr tr tr = y T A T y + 2 (T b) y = y y + 2 (b0 )tr y = c, 0 λ2 wobei 2.5e, btr T = (T tr b)tr =: b0 benutzt wurde. Ausgeschrieben lautet das λ1 y12 + λ2 y22 + 2 b10 y1 + 2 b20 y2 = c , gemischte Produkte der Form y1 y2 treten nicht mehr auf. Für die tatsächliche Berechnung dieser Form genügt es, die Eigenwerte λ1 , λ2 und eine ONB von Eigenvektoren s1 , s2 zu berechnen sowie die neuen linearen Koeffizienten bi0 = si · b . Die Matrix T ist nützlich, um die in y-Koordinaten gefundene Kurve auch durch die ursprünglichen x-Koordinaten auszudrücken, oder man benutzt einfach x = y1 s1 + y2 s2 . Wenn keine linearen Terme auftreten (d.h. b = 0), dann braucht man für die Normalform λ1 y12 + λ2 y22 = c die Eigenvektoren nicht zu berechnen! Den Kurventyp kann man daraus bereits ablesen, nicht allerdings die Orientierung in der Ebene. Bemerkung: In einigen Formelsammlungen wird z.B. bei det A 6= 0 mit unserem 2. Schritt begonnen. Wir empfehlen jedoch, immer zunächst A zu diagonalisieren. Das führt auch dann sicher zum Ziel, wenn z.B. durch eine Parameterabhängigkeit in der Gleichung sowohl det A = 0 als auch det A 6= 0, je nach Parameterwert, auftreten kann. 4.8b 2. Schritt: Lineare Terme eliminieren (soweit möglich) Wenn λ1 6= 0 ist, so kann der lineare Term 2 b10 y1 durch Verschieben des Ursprungs y = 0 längs der durch s1 gegebenen Geraden eliminiert werden, und entsprechend, falls λ2 6= 0: Quadratische Ergänzung ergibt µ ¶ b10 2 (b10 )2 (b 0 )2 2 0 λ1 y1 + 2 b1 y1 = λ1 y1 + − = λ1 z12 − 1 λ1 λ1 λ1 mit z1 = y1 + b10 /λ1 = y1 + b · s1 /λ1 . Evtl. auch z2 = y2 + b20 /λ2 = y2 + b · s2 /λ2 . RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.8c 58 Normalformen Wenn λ1 6= 0 und λ2 6= 0, so ist die Normalform λ1 z12 + λ2 z22 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 . Ist nur ein Eigenwert von Null verschieden, so numerieren wir λ1 6= 0, λ2 = 0 und erhalten mit z2 = y2 die Normalform λ1 z12 + 2 b20 z2 = c 0 = c + (b10 )2 /λ1 . Dasselbe Verfahren ist in beliebiger Dimension anwendbar, wir kommen für den dreidimensionalen Fall darauf in 4.13 zurück. 4.9 Beispiel für die Transformation in Normalform im R2 Gesucht ist die Kurve zweiter Ordnung, die durch folgende Gleichung beschrieben wird: √ √ 2 x12 + 2 x1 x2 + 2 x22 + 6 2 x1 + 12 2 x2 = 0. In Matrixschreibweise lautet das xtr A x + 2 btr x = 0 mit µ ¶ µ √ ¶ 2 1 3√2 A= , b= , c = 0. 1 2 6 2 Im ersten Schritt bestimmen wir zunächst die Eigenwerte und Eigenvektoren von A. µ ¶ 2−λ 1 det = (2 − λ)2 − 1 = λ2 − 4λ + 3 = (λ − 1)(λ − 3). 1 2−λ Wir wählen die Benennung (Reihenfolge) λ1 = 1, λ2 = 3. µ ¶ µ ¶ 1 1 1 1 ! 0 = (A − λ1 12 ) s1 = s1 −→ z.B. s1 = √ , 1 1 2 −1 µ ¶ µ ¶ 1 1 −1 1 ! 0 = (A − λ2 12 ) s2 = s −→ z.B. s2 = √ = s⊥ 1. 1 −1 2 2 1 Die beiden ausgewählten Eigenvektoren s1 , s2 bilden eine ONB im R2 . Damit ist die orthogonale Transformationsmatrix µ ¶ µ ¶ 1 1 1 1 0 mit T tr A T = , det T = 1, T =√ 0 3 2 −1 1 eine Drehung, und als neue lineare Terme erhalten wir µ ¶ −3 0 0 0 b1 = s1 · b = −3, b2 = s2 · b = 9, b = . 9 √ Die im ersten Schritt√transformierte Gleichung lautet also für y1 = s1 · x = (x1 − x2 )/ 2, y2 = s2 · x = (x1 + x2 )/ 2 y12 + 3 y22 − 2 · 3 y1 + 2 · 9 y2 = 0. Da beide Eigenwerte nicht verschwinden, können wir im zweiten Schritt durch Verschieben des Koordinatenursprungs beide linearen Terme eliminieren. Mit z1 = y1 + b10 /λ1 = y1 − 3, z2 = y2 + b20 /λ2 = y2 + 3, c 0 = c + (b10 )2 (b20 )2 + = 36, λ1 λ2 lautet die neue Normalform z12 + 3 z22 = 36. Das beschreibt eine Ellipse, siehe 4.10a. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.10 59 Kegelschnitte in der Ebene In diesem Abschnitt werden parameterfreie“ Darstellungen der Kegelschnitte durch quadratische ” Gleichungen behandelt. Auf die Parameterform kommen wir im Zusammenhang mit trigonometrischen und Hyperbelfunktionen zurück. 4.10a Ellipsen Wenn λ1 λ2 = det A > 0, so kann immer λ1 > 0 und λ2 > 0 erreicht werden (evtl. die Ausgangsgleichung mit −1 multiplizieren, so daß a11 > 0, das verändert die Lösungsmenge nicht). Mögliche Lösungen der Gleichung in Normalform mit λ1 > 0, λ2 > 0: bei c 0 > 0, Ellipse λ1 z12 + λ2 z22 = c 0 ein Punkt z = 0 bei c 0 = 0, keine Lösung bei c 0 < 0. p p Die Ellipsen haben Halbachsen mit den Längen a = c 0 /λ1 (in Richtung von s1 ) und b = c 0 /λ2 (in Richtung von s2 ), wie man an der äquivalenten Form ³ z ´2 ³ z ´2 1 2 + =1 a b erkennt. Im speziellen Fall λ1 = λ2 ist auch a = b, dann ist die Ellipse ein Kreis mit Radius a. Die im Beispiel 4.9 berechnete Normalform ³ z ´2 ³ z ´2 1 2 =1 z12 + 3 z22 = 36 ⇐⇒ + √ 6 12 beschreibt eine √ Ellipse mit den Halbachsen – zur Richtung s1 gehörig: a = 6 (große Halbachse) und zu s2 : b = 12 (kleine Halbachse). Im ursprünglichen x-Koordinatensystem liegt ihr Zentrum z = 0 ⇐⇒ y = (3, −3) bei µ ¶µ ¶ µ ¶ µ ¶ 1 0√ 0√ 1 1 3 x=Ty= √ = = = 3 s1 − 3 s2 . −3 −6/ 2 −3 2 2 −1 1 Die große Halbachse liegt in der Richtung (1, −1) und die kleine Halbachse senkrecht dazu in der Richtung (1, 1). 4.10b Hyperbeln Bei λ1 λ2 = det A < 0 wähle die Numerierung so, daß λ2 < 0 < λ1 . Dann beschreibt ( eine Hyperbel bei c 0 6= 0, λ1 z12 − (−λ2 ) z22 = c 0 ein gekreuztes Geradenpaar bei c 0 = 0. Für c 0 > 0 öffnen sich die Äste der Hyperbeln in die Richtungen des Eigenvektors zum positiven Eigenwert, hier ±z1 , wie man auch an der äquivalenten Standardform r r ³ z ´2 ³ z ´2 c0 c0 1 2 − = 1, a= , b= a b λ1 −λ2 0 erkennt. Bei c < 0 sind die Rollen der p Koordinaten vertauscht. Im Entartungsfall c 0 = 0 genügen die Geraden den Gleichungen z1 = ± −λ2 /λ1 z2 = ±a/b z2 . Die gekreuzten Geraden sind zugleich die Asymptoten für alle diese Hyperbeln (alle Werte von c0 6= 0). Die Ellipsen, Hyperbeln und gekreuzten Geradenpaare, also die Kurven zweiter Ordnung mit det A 6= 0, sind symmetrisch bzgl. Spiegelungen an den z1 , z2 -Achsen und punktsymmetrisch um z = 0. Das Symmetriezentrum z = 0 hat im ursprünglichen Koordinatensystem die Lage b · s1 b · s2 x=− s1 − s2 , λ1 λ2 die Symmetrieachsen gehen durch diesen Punkt parallel zu s1 und zu s2 . RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.10c 60 Parabeln Falls λ1 λ2 = det A = 0 aber A 6= 0 (sonst wäre die Gleichung linear wie in 1.13d behandelt), dann numeriere die Eigenwerte so, daß λ1 6= 0 = λ2 . Wenn b20 = b · s2 6= 0 ist, erhalten wir für alle c 0 ∈ R Parabeln λ1 z12 + 2 b20 z2 = c 0 ⇐⇒ z2 = − λ1 2 c0 z + , 2 b20 1 2b20 die je nach dem Vorzeichen von λ1 /2b20 zur positiven oder negativen z2 -Achse geöffnet sind. Im Entartungsfall b20 = b · s2 = 0 erhalten wir mit beliebigem z2 ∈ R p 0 bei c 0 /λ1 > 0, ein paralleles Geradenpaar z1 = ± c /λ1 λ1 z12 = c 0 eine Gerade z1 = 0 bei c 0 = 0, keine Lösung bei c 0 /λ1 < 0. Die Parabeln sind spiegelsymmetrisch zur z2 -Achse (z1 ↔ −z1 ), im ursprünglichen x-Koordinatensystem zur Achse, die durch den Punkt z = 0, d.h. x = −(b · s1 /λ1 ) s1 geht und die parallel zu s2 ist. Die entarteten Geraden sind außerdem zu jeder dazu senkrechten Achse spiegelsymmetrisch. 4.11 Direkte Bestimmung von Kurventypen Da sich die Determinante und die Spur einer Matrix bei Basiswechsel nicht ändern (siehe 4.7c), kann die Art der Kurven schon eingeschränkt werden, bevor die Gleichung auf Normalform transformiert wird. Wenn det A 6= 0, ist das Gebilde punktsymmetrisch zu einem Zentrum und spiegelsymmetrisch zu zwei zueinander orthogonalen Achsen durch das Zentrum. Bei det A = 0 bleibt mindestens Spiegelsymmetrie zu einer Achse, die parallel zum Eigenvektor mit verschwindendem Eigenwert liegt. 4.11a Definiter Fall Wenn λ1 λ2 = det √ A > 0, so kann eine Ellipse vorliegen (ein Kreis, wenn λ1 + λ2 = Spur(A) = a11 + a22 = ±2 det A ), es ist jedoch auch der Entartungsfall - ein Punkt - möglich oder es gibt keine Kurve. Die Lösungsmenge ist immer beschränkt oder leer. 4.11b Indefiniter Fall Wenn λ1 λ2 = det A < 0, so liegt eine Hyperbel vor oder im Entartungsfall ein gekreuztes Geradenpaar. Die Lösungsmenge ist nie leer und ist immer unbeschränkt. 4.11c Semidefiniter Fall Wenn λ1 λ2 = det A = 0, jedoch A 6= 0, dann liegt eine Parabel vor, im Entartungsfall ein paralleles Geradenpaar oder eine einzelne Gerade, oder es gibt keine Kurve. Die Lösungsmenge ist unbeschränkt oder leer. 4.12 Tabelle der Kurven zweiter Ordnung Wir fassen die bisher erzielten Ergebnisse zusammen. In der Tabelle bedeuten die Symbole +, −, 0, 6= 0 oder R, daß die jeweiligen Parameter einen positiven, negativen Wert haben, gleich Null, ungleich Null sind oder beliebige reelle Zahlen annehmen können. Die geometrischen Eigenschaften der Kurven ändern sich nicht, wenn die Koordinaten vertauscht werden (alle Indizes 1 ↔ 2) oder wenn alle Vorzeichen in einer Zeile umgekehrt werden (+ ↔ − , 0 ↔ 0). Deshalb können wir uns in der Tabelle auf den Fall λ1 > 0 (+) beschränken. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung Normalform λ1 + + + + + Normalform λ1 + + + + 4.13 61 λ1 z12 + λ2 z22 = c 0 λ2 + + + − − c0 + 0 − 6= 0 0 Geometrisches Objekt Ellipse (Kreis) Punkt z = 0 leere Menge ∅ Hyperbel gekreuztes Geradenpaar λ1 z12 + 2 b20 z2 = c 0 b20 6= 0 0 0 0 c0 R + 0 − Geometrisches Objekt Parabel zwei parallele Geraden eine Gerade z1 = 0 ∅ Quadratische Gleichungen im R3 , Normalformen Jetzt wenden wir uns den Quadriken im dreidimensionalen Raum zu, den Flächen zweiter Ordnung. Die sind Sphären (Kugeloberflächen), Ellipsoide, Hyperboloide, Paraboloide, Sattelflächen, Zylinder und Doppelkegel, siehe Abschnitt 4.17 für Anwendungen und weitere geometrische Besonderheiten. Genau dasselbe Vorgehen, das im zweidimensionalen Fall in 4.8 erläutert wurde, führt auch hier zum Ziel. Die Gleichung a11 x12 + 2 a12 x1 x2 + a22 x22 + 2 a13 x1 x3 + 2 a23 x2 x3 + a33 x32 + 2 b1 x1 + 2 b2 x2 + 2 b3 x3 = c wird äquivalent als Matrixgleichung für x ∈ R3 umgeschrieben mit einer symmetrischen 3 × 3Matrix A = Atr 6= 0, b ∈ R3 und c ∈ R xtr A x + 2 btr x = c. 4.13a 1. Schritt: A diagonalisieren Für eine Orthonormalbasis s1 , s2 , s3 von Eigenvektoren, A si = λi si wähle die Hauptachsen. . transformation mit der orthogonalen Matrix T = (s1 .. s2 .. s3 ) und angepaßten Koordinaten y (Basiswechsel), wie in 4.6b beschrieben, ! à λ1 0 λ2 , bi0 = si · b, x = T y, yi = si · x, T tr A T = D = 0 λ3 so daß die quadratische Gleichung xtr A x + 2 btr x = c in die folgende Form überführt wird: λ1 y12 + λ2 y22 + λ3 y32 + 2 b10 y1 + 2 b20 y2 + 2 b30 y3 = c. Gemischte Produkte y1 y2 , y1 y3 oder y2 y3 treten nicht mehr auf. 4.13b 2. Schritt: Lineare Terme eliminieren (soweit möglich) Für jedes i mit λi 6= 0 gehe über zu zi = yi + bi0 /λi = yi + b · si /λi und c → c + (bi0 )2 /λi und setze zj = yj falls λj = 0, das führt auf die folgenden Normalformen. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.13c 62 Normalformen Wenn λ1 λ2 λ3 = det A 6= 0, so erhält man λ1 z12 + λ2 z22 + λ3 z32 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 + (b30 )2 /λ3 . Verschwindet genau ein Eigenwert von A, z.B. λ3 , so ist die Normalform λ1 z12 + λ2 z22 + 2 b30 z3 = c 0 = c + (b10 )2 /λ1 + (b20 )2 /λ2 . Wenn λ1 6= 0 = λ2 = λ3 , dann erhält man als Normalform λ1 z12 + 2 b20 z2 + 2 b30 z3 = c 0 = c + (b10 )2 /λ1 . Wenn im letzten Fall einer der linearen Koeffizienten bereits verschwindet, so wählen wir ohne Beschränkung der Allgemeinheit b30 = 0 (evtl. z2 ↔ z3 ); durch eine Drehung in der p 0Vertauschen 00 00 0 2 2 z2 , z3 –Ebene kann immer b3 = 0, b2 = b2 + b3 erreicht werden, die Gleichung ist dann von (mindestens) einer Variablen unabhängig. Wie bei den Kurven hängt die konkrete Form von den Werten der verbleibenden Parameter ab. 4.14 Beispiele von quadratischen Gleichungen im R3 Gesucht sind die Flächen, die durch die parametrisierte Familie von Gleichungen 3 8 4 8 3 − x12 + β x22 + x32 + x1 x3 − √ x1 + 2 x2 − √ x3 = γ − 4 5 5 5 5 5 bestimmt sind, abhängig von den Parametern β, γ ∈ R . In Matrixform erhalten wir √ −3/5 0 4/5 −2/ 5 β 0 , b = 1√ , c = γ − 4. A= 0 4/5 0 3/5 −4/ 5 Im ersten Schritt diagonalisieren wir A. (Man erkennt direkt, daß β ein Eigenwert ist mit Eigenvektor e2 .) Das charakteristische Polynom lautet (−3/5 − λ) (β − λ) (3/5 − λ) − (4/5) (β − λ) (4/5) © ª © ª = (β − λ) λ2 − (3/5)2 − (4/5)2 = (β − λ) λ2 − 1 = (β − λ) (λ − 1) (λ + 1). Wir wählen z.B. die Reihenfolge λ1 = 1, λ2 = β, λ3 = −1. Nun berechnen wir zugehörige Eigenvektoren (für β 6= ±1 sind sie automatisch orthogonal, denn alle Eigenwerte sind verschieden, 4.3b). −8/5 0 4/5 ! β−1 0 s1 0 = (A − λ1 13 ) s1 = 0 4/5 0 −2/5 √ √ tr wird für alle β von s1 = (1/ 5, 0, 2/ 5) mit |s1 | = 1 gelöst. Für jedes β ∈ R ist s2 = e2 = (0, 1, 0)tr ein normierter Eigenvektor zum Eigenwert λ2 = β und 2/5 0 4/5 ! 0 = (A − λ3 13 ) s3 = 0 β + 1 0 s3 4/5 0 8/5 √ √ tr wird von s3 = (−2/ 5, 0, 1/ 5) , |s3 | = 1 erfüllt. Für alle β sind die Vektoren 0 1 −2 1 1 s1 = √ 0 , s2 = 1 , s3 = √ 0 = s1 × s2 5 2 5 0 1 RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 63 eine ONB von Eigenvektoren von A. Als neue lineare Koeffizienten erhalten wir b10 = s1 · b = −2, b20 = s2 · b = 1, b30 = s3 · b = 0. Die vereinfachte Gleichung in den neuen Koordinaten lautet damit y12 + β y22 − y32 − 2 · 2 y1 + 2 · y2 = γ − 4. Da λ1 = 1 6= 0 können wir im zweiten Schritt den linearen Term mit y1 durch z1 = y1 + b10 /λ1 = y1 − 2 eliminieren, z3 = y3 erfordert wegen b30 = 0 keine Verschiebung. Für den linearen Term mit y2 müssen wir eine Fallunterscheidung machen: Wenn λ2 = β 6= 0, dann erhalten wir mit z2 = y2 + b20 /λ2 = y2 + 1/β die Normalform z12 + β z22 − z32 = γ − 4 + 4 + 1 1 = c0 = γ + , β β β 6= 0. Wenn λ2 = β = 0, so ist die Normalform mit z2 = y2 z12 − z32 + 2 z2 = c 0 = γ − 4 + 4 = γ. Die hierdurch beschriebenen Flächen werden für einige Parameterwerte in den Abschnitten 4.15c und 4.15f angegeben. 4.15 Flächen zweiter Ordnung, Quadriken im R3 4.15a Fallunterscheidungen bei Eigenwerten, Basiswahl Da lineare Gleichungen im R3 , die zur parameterunabhängigen Beschreibung von Flächen dienen, bereits in Abschnitt 1.15b behandelt wurden, nehmen wir immer A 6= 0 an. Dann gibt es mindestens einen Eigenwert von A, der nicht verschwindet. Die Benennung (Numerierung) der Eigenwerte ist willkürlich. Wir nutzen diese Freiheit, um im Weiteren die Fallunterscheidungen auf qualitativ verschiedene Fälle zu begrenzen. Wenn ein Eigenwert verschwindet, so sei das λ3 = 0, und wenn zwei verschwinden sei λ2 = λ3 = 0, insbesondere immer λ1 6= 0. Damit ist die Numerierung der Koordinaten bezüglich einer angepaßten Basis teilweise festgelegt. Da die Flächen bei Multiplikation der Gleichung mit −1 unverändert bleiben, alle Eigenwerte und Koeffizienten dann aber ihr Vorzeichen ändern ( A → −A etc.), können wir ohne Beschränkung der Allgemeinheit immer λ1 > 0 annehmen. Auch ist der Fall λ1 , λ2 > 0, λ3 < 0 durch Umbenennen der Eigenwerte (Umbenennen der Koordinaten y2 ↔ y3 ) äquivalent zu λ1 , λ3 > 0, λ2 < 0. Es genügt, jeweils einen solcher äquivalenter Fälle hier ausführlich zu betrachten. Anschauliche Bezeichnungen wie vertikal“, Höhe ” ” z3 “ u.s.w. beziehen sich auf die entsprechende Wahl der Eigenvektoren, wobei der dritte Eigenvektor als nach oben“ zeigend bezeichnet wird. In den ursprünglichen x-Koordinaten wird die räumliche ” Orientierung i.a. anders sein. 4.15b Ellipsoide Wenn alle Eigenwerte λ1 , λ2 , λ3 > 0 sind (A positiv definit), so ist die Fläche mit Normalform bei c 0 > 0, ein Ellipsoid λ1 z12 + λ2 z22 + λ3 z32 = c 0 der Punkt z = 0 bei c 0 = 0, die leere Menge bei c 0 < 0. Eine äquivalente Standardform der Gleichung für ein Ellipsoid ist r r r ³ z ´2 ³ z ´2 ³ z ´2 c0 c0 c0 2 3 1 + + = 1, a = , b= , c= , a b c λ1 λ2 λ3 RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 64 mit Halbachsen a, b und c. Wenn alle Eigenwerte gleich sind, ist dies eine Sphäre (Kugeloberfläche), sind zwei Eigenwerte gleich, so erhalten wir ein Ellipsoid, das um die Richtung des Eigenvektors zum anderen Eigenwert drehsymmetrisch ist. Ist dieser andere Eigenwert größer als die beiden gleichen, so ist das Ellipsoid abgeplattet, ein Diskus“, sonst eine Zigarre“. ” ” Jedes Ellipsoid ist spiegelsymmetrisch zum Zentrum (z → −z), sowie zu den Ebenen, die von jeweils zwei Eigenvektoren von A aufgespannt werden (zi → −zi für jeweils ein i ∈ {1, 2, 3}). Alle Ellipsoide sind beschränkt. 4.15c Hyperboloide Seien nun λ1 > 0 und λ2 > 0 aber λ3 < 0 (A indefinit), dann beschreibt bei c 0 > 0, ein einschaliges Hyperboloid λ1 z12 + λ2 z22 − (−λ3 )z32 = c 0 einen Doppelkegel bei c 0 = 0, ein zweischaliges Hyperboloid bei c 0 < 0. Die Schnitte bei fester Höhe“ z3 ” λ1 z12 + λ2 z22 = c 0 + (−λ3 )z32 p sind bei c 0 +(−λ3 )z32 > 0 Ellipsen, die für c 0 ≤ 0 bei z3 = ± c 0 /λ3 zum Punkt mit z1 = z2 = 0 entarten, was für c 0 = 0 nur am Punkt zp= 0 geschieht und bei c 0 < 0 an zwei Punkten. Im letzteren Fall gibt es keine Lösungen für |z3 | < c 0 /λ3 . Die Schnitte mit der x1 , x3 -Ebene, d.h. x2 = 0, (und ebenso bei x1 = 0 ) sind Hyperbeln, siehe 4.10b, deren Äste sich für c 0 < 0 nach oben und unten“ öffnen, bei c 0 > 0 nach rechts und links“ ” ” und bei c 0 = 0 entarten sie zum Geradenpaar. Für c 0 > 0 (und λ1 = λ2 ) ist das ein Kühlturm“ mit ” vertikaler Achse“. ” Allgemein liegt ein einschaliges Hyperboloid vor, wenn das Vorzeichen der Konstanten c 0 gleich dem Vorzeichen der Mehrheit“ der Eigenwerte ist, die Achse liegt parallel zum Eigenvektor, der zum ” Eigenwert mit der Minderheit“ der Vorzeichen gehört. ” Wählen wir im Beispiel 4.14 die Parameter β = 2 und γ = 3/2, so beschreibt die resultierende Gleichung z12 + 2 z22 − z32 = 3/2 + 1/2 = 2 > 0 ein einschaliges Hyperboloid mit der z3 -Achse als Achse. Bei β = −2 und demselben γ = 3/2 erhalten wir z12 − 2 z22 − z32 = 3/2 − 1/2 = 1 > 0, also ein zweischaliges Hyperboloid mit der z1 -Achse als Achse. 4.15d Zylinder In Analogie zum üblichen Kreiszylinder spricht man allgemeiner von Zylindern, wenn in der Gleichung eine Koordinate, z.B. z3 , gar nicht vorkommt. Der Schnitt dieser Fläche mit einer beliebigen Ebene der Höhe“ z3 ist dieselbe Kurve zweiter Ordnung, unabhängig von z3 , alle in Abschnitt 4.10 ” aufgeführten Fälle: Kreise, Ellipsen, Parabeln, Hyperbeln einschließlich der Entartungsfälle, Geradenpaare, Geraden, Punkte oder die leere Menge können auftreten. Man spricht dann jeweils von elliptischen, parabolischen, hyperbolischen Zylindern u.s.w. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.15e 65 Elliptische Paraboloide Falls λ1 , λ2 > 0 und λ3 = 0, so ist die Normalform λ1 z12 + λ2 z22 + 2 b30 z3 = c 0 . Der Entartungsfall b30 = 0, ein elliptischer Zylinder, wurde schon in 4.15d behandelt, so daß wir uns auf b30 6= 0 beschränken können. Auflösen nach z3 ergibt z3 = − λ1 2 λ2 2 c0 z − z + , 2 b30 1 2 b30 2 2 b30 ein elliptisches Paraboloid, das für b30 > 0 (b30 < 0) nach unten“ ( oben“) geöffnet ist und elliptische ” ” Schnittkurven mit den horizontalen“ Ebenen in der Höhe“ z3 < c 0 /2 b30 (z3 > c 0 /2 b30 ) hat sowie ” ” Parabeln in den vertikalen“ Ebenen z1 = 0 oder z2 = 0. Nahe einem nicht entarteten Maximum ” oder Minimum wird der Graph einer zweimal differenzierbaren reellwertigen Funktion von zwei Variablen durch ein elliptisches Paraboloid approximiert. 4.15f Sattelflächen, hyperbolische Paraboloide Im Falle λ1 > 0, λ2 < 0, λ3 = 0, b30 6= 0 der Normalform λ1 z12 − (−λ2 ) z22 + 2 b30 z3 = c 0 erhalten wir eine Sattelfläche, die in der z1 -Koordinatenrichtung ansteigt ( Kopf und Schwanz des ” Pferdes“) und in der z2 -Richtung abfällt ( Beine des Reiters“) mit Sitzhöhe“ z3 = c 0 / 2b30 . ” ” Die Schnittmengen dieser Flächen mit horizontalen“ Ebenen in der Höhe z3 sind Hyperbeln ” oder ein gekreuztes Geradenpaar (4.10b). Als Schnitt mit vertikalen“ Ebenen, die senkrecht zum ” Pferderücken stehen, d.h. z1 = const, erhält man nach unten“ geöffnete Parabeln und bei verti” ” kalen“ Ebenen, die parallel zum Pferderücken stehen, d.h. z2 = const, ergeben sich nach oben“ ” geöffnete Parabeln. Daher heißen diese Flächen auch hyperbolische Paraboloide. Im Beispiel 4.14 mit Parameter β = 0 und γ beliebig beschreibt z12 − z32 + 2 z2 = γ eine Sattelfläche, allerdings gedreht mit z2 als Höhe“. ” 4.15g Weitere Entartungsfälle Es gibt einige weitere Entartungsfälle, z.B. beschreibt die Normalform λ1 z12 = c 0 p für c 0 > 0 ein Ebenenpaar z1 = ± c 0 /λ1 , z2 , z3 ∈ R beliebig, das für c 0 = 0 zu einer Ebene z1 = 0 entartet. Solche Fälle können leicht analysiert werden. 4.16 Tabelle der Flächen zweiter Ordnung Für die benutzten Konventionen siehe die Vorbemerkungen in 4.12. Normalform λ1 + + + + + + RWTH Aachen λ1 z12 + λ2 z22 + λ3 z32 = c 0 λ2 + + + + + + λ3 + + + − − − c0 + 0 − + 0 − Geometrisches Objekt Ellipsoid (Sphäre) Punkt z = 0 ∅ einschaliges Hyperboloid Doppelkegel zweischaliges Hyperboloid Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung Normalform λ1 + + + + + Normalform λ1 + + + 66 λ1 z12 + λ2 z22 + 2 b30 z3 = c 0 λ2 + − + − − b30 6= 0 = 6 0 0 0 0 c0 R R + 6= 0 0 Geometrisches Objekt elliptisches Paraboloid Sattel = hyperbolisches Paraboloid elliptischer Zylinder hyperbolischer Zylinder Ebenenpaar ( gekreuzt“) ” λ1 z12 + 2 b20 z2 + 2 b30 z3 = c 0 b20 6= 0 0 0 b30 R 0 0 c0 R + 0 Geometrisches Objekt parabolischer Zylinder Ebenenpaar (parallel) eine Ebene z1 = 0 In der letzten Tabelle wird der Fall b30 6= 0, b20 = 0 durch Vertauschen z2 ↔ z3 auf den erstgenannten zurückgeführt. Außerdem gibt es weitere einfache Entartungsfälle. 4.17 Anwendungen und geometrische Besonderheiten bei Flächen zweiter Ordnung Die quadratischen Approximationen differenzierbarer reellwertiger Funktionen von zwei Variablen haben als Graphen elliptische oder hyperbolische Paraboloide, im Entartungsfall auch parabolische Zylinder oder Ebenen. Neben ihrer mathematischen Einfachheit weisen die Flächen zweiter Ordnung weitere besondere Eigenschaften auf, die in den Anwendungen genutzt werden. Elliptische Paraboloide mit Kreisen als Schnitten haben einen Brennpunkt und werden als Reflektoren z.B. in Scheinwerfern genutzt. Eine kleine Lichtquelle im Brennpunkt liefert einen gut gebündelten, nahezu parallelen Lichtstrom. Bei Richtmikrophonen macht man sich das für Schallwellen zunutze. Ellipsoide haben i.a. zwei Brennpunkte, Flüstergewölbe zeigen exemplarisch die Bedeutung für die Raumakustik. Wie die Doppelkegel werden auch einschalige Hyperboloide und Sattelflächen von Geraden p ”erzeugt“. Beim einschaligen Hyperboloid (4.15c) mit c 0 > 0 liegen die Geraden z1 (t) = ± c 0 /λ1 , p z2 (t) = t, z3 (t) = ± λ2 /(−λ3 ) t, t ∈ R , und viele weitere in der Fläche. Jeder Punkt eines einschaligen Hyperboloids liegt auf zwei solchen sich kreuzenden Geraden. Deshalb kann man z.B. gerade Träger und straff gespannte Seile für die tragende Konstruktion eines Kühlturms benutzen. Viele dieser Flächen sind zugleich Minimalflächen: Sucht man zu zwei (nicht zu weit voneinander entfernten) Kreisen die kleinste Fläche, die sie verbindet, so erhält man ein einschaliges Hyperboloid, den Kühlturm. Eine kompliziertere Minimalfläche ist das Dach des Münchner Olympiastadions, lokal sind das Sattelflächen, wie sie auch als Seifenhäute zwischen vorgegebenen Randkurven (Drahtgestelle) entstehen. Solche Konstruktionen sind in mehrerer Hinsicht optimal: Die Spannungen in der Konstruktion sind gut ausgeglichen und minimal, ebenso der Flächeninhalt. Das führt zum geringen Materialverbrauch und durch die Gewichtsersparnis zu weiteren Einsparungen bei den Fundamenten und der tragenden Konstruktion. Während für den Entwurf des Olympiadaches noch Experimente mit Seifenhäuten durchgeführt wurden, ist durch die Weiterentwicklung der Mathematik der Minimalflächen in Verbindung mit schnelleren Computern inzwischen auch eine numerische Simulation möglich geworden. Für die Visualisierung der einfacheren Flächen aus diesem Kapitel mit einem Computer genügen allgemeine Computeralgebraprogramme wie z.B. MAPLE und MATHEMATICA oder Graphikprogramme. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.18 67 Hauptachsentransformation diagonalisierbarer Matrizen Die Diagonalisierung einer Matrix, die bei symmetrischen Matrizen immer möglich ist (4.5), verallgemeinern wir auf allgemeinere Matrizen, das ist jedoch nicht für alle Matrizen möglich. 4.18a An die Matrix angepaßte Basis Ist eine lineare Abbildung gegeben, so hängt die zugehörige Matrix, mit der die Abbildung beschrieben wird, von der Wahl einer Basis im Vektorraum ab (Wahl der Koordinaten, Bedeutung der Komponenten im Vektor (x1 , . . . , xn )tr ). Die Freiheit der Wahl einer angepaßten Basis kann dazu benutzt werden, die Matrix zu vereinfachen, indem Eigenvektoren als Basisvektoren benutzt werden, wie wir es im Fall symmetrischer Matrizen bereits in Abschnitt 4.5 gesehen haben. Ob es genug linear unabhängige Eigenvektoren gibt, hängt vom Einzelfall ab, siehe dazu Bemerkung (iii) in 4.18b. Hier nehmen wir an, daß eine n × n -Matrix A derart ist, daß sie n linear unabhängige Eigenvektoren besitzt: A si = λi si mit Eigenwerten λi , i = 1, . . . , n. Die si bilden dann eine Basis des Rn . Die λi können (teilweise) gleich sein. Die n × n-Transformationsmatrix mit den Basis-Eigenvektoren als Spalten . . . T = (s1 .. s2 .. . . . .. sn ) ist regulär (d.i. invertierbar, maximaler Rang n, det(T ) 6= 0). Wenn A nicht symmetrisch ist, ist T nicht orthogonal, die Inverse T −1 muß berechnet werden, z.B. gemäß 3.7. Analog zum Fall symmetrischer Matrizen (4.5) gilt der folgende Satz. 4.18b Satz über die Hauptachsentransformation Sei A eine n × n -Matrix mit n linear unabhängigen Eigenvektoren s1 , . . . , sn zu Eigenwerten λ1 , . . . , λn : A si = λi si . Bilde die reguläre Transformationsmatrix T mit den Eigenvektoren sj . . . als Spalten: T = (s .. s .. . . . .. s ), dann gilt 1 T −1 2 λ1 λ2 AT = 0 n .. 0 =D . ⇐⇒ A = T D T −1 , λn D eine Diagonalmatrix mit den Eigenwerten auf der Diagonalen. A wird durch die Hauptachsentransformation A → T −1 A T diagonalisiert. Insbesondere können wir für diagonalisierbare Matrizen daraus ablesen, daß det(A) = det(T −1 A T ) = λ1 · λ2 · . . . · λn . Mehrfache Eigenwerte müssen dabei mehrfach multipliziert werden. Bemerkungen (i) T ist nicht eindeutig, denn jede Wahl von n linear unabhängigen Eigenvektoren als Spalten von T leistet das Gewünschte. Die Diagonalmatrix ist bis auf die Reihenfolge der Eigenwerte eindeutig. (ii) Eine Matrix A hat genau dann n linear unabhängige Eigenvektoren, wenn sie diagonalisierbar ist, d.h. wenn es eine reguläre Matrix T gibt, so daß T −1 A T diagonal ist. (iii) Außer dem Fall symmetrischer Matrizen gibt es einen weiteren einfach erkennbaren Fall, wann eine Matrix diagonalisierbar ist, nämlich wenn alle n Eigenwerte verschieden sind (d.h. das charakteristische Polynom hat nur einfache Nullstellen). Es gibt viele weitere Fälle, siehe Bücher. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.18c 68 Beispiel einer Diagonalisierung µ ¶ 2 0 A= , 1 3 λ1 = 2, λ2 = 3 (Dreiecksmatrix!), die Eigenwerte sind verschieden, die Diagonalisierung ist also möglich. Eigenvektor zu λ1 = 2: µ ¶ µ ¶ µ ¶ 0 0 x1 0 ! (A − 2 12 ) x = = = 0, 1 1 x2 x1 + x2 µ s1 = 1 −1 ¶ ist ein Eigenvektor zum Eigenwert λ1 = 2. µ ¶ 0 Zum Eigenwert λ2 = 3 ist z.B. s2 = ein Eigenvektor ( unterer Eigenvektor zur unteren ” 1 Dreiecksmatrix“, vgl. 4.2b). Die Eigenvektoren sind automatisch linear unabhängig. Damit ergibt sich als µ mögliche ¶ Transformationsmatrix µ ¶ 1 0 1 0 −1 T = mit Inverser T = (z.B. mit 3.5a). Nachrechnen (als Probe) ergibt: −1 1 1 1 µ T −1 AT =T −1 ¶ ¶ µ ¶ µ 2 0 2 0 λ1 0 = D. = = −2 3 0 3 0 λ2 X 4.18d Beispiel einer nicht diagonalisierbaren Matrix µ ¶ 0 1 Nicht jede Matrix ist diagonalisierbar, z.B. hat A = mit dem charakteristischen Polynom 0 0 det(A − λ1) = λ2 nur den (doppelten) Eigenwert λ1 = λ2 = 0. µ ¶µ ¶ µ ¶ 0 1 x1 x2 Ax = = = 0 =⇒ x2 = 0 für jeden Eigenvektor. 0 0 x2 0 µ ¶ 1 ist ein Eigenvektor, es gibt wegen x2 = 0 keinen davon linear unabhängigen. Diese Matrix hat 0 keine Basis aus Eigenvektoren und ist daher nicht diagonalisierbar. 4.19 Potenzen von Matrizen Für jede n × n-Matrix A definieren wir A0 = 1n in Analogie zu a0 = 1 bei Zahlen. Für das rekursiv definierte k-fache Produkt Ak := A Ak−1 , k ∈ N, benutzen wir die naheliegende Potenzschreibweise. Die durch Ak beschriebene lineare Abbildung ist die k-fach iterierte der durch A beschriebenen. Wenn A regulär ist (3.4), also A−1 existiert, dann sind durch A−k = (A−1 )k auch alle ganzzahligen Potenzen A` , ` ∈ Z definiert. Die Regeln der Potenzrechnung wie Ak A` = Ak+` und (Ak )r = Akr gelten dann ebenso für Matrizen mit k, `, r ∈ N0 bzw. ∈ Z, vgl. Abschnitt D für Zahlen. Für speziellere Arten von Matrizen können auch rationale oder reelle Potenzen definiert werden, siehe 4.19a, die Potenzrechenregeln bleiben dann ebenfalls gültig. Für eine allgemeine quadratische Matrix A ist die Berechnung hoher Potenzen i.a. sehr aufwendig. Für spezielle Klassen wie z.B. Drehungen (4.4b), Diagonalmatrizen und diagonalisierbare Matrizen ist dies einfach. RWTH Aachen Mathematik I+II 4 Eigenwerte und Eigenvektoren von Matrizen, Kurven und Flächen zweiter Ordnung 4.19a 69 Potenzen diagonalisierbarer Matrizen, Wurzeln Für Diagonalmatrizen rechnet man leicht nach, daß k λ1 λ1 0 λ λk2 2 k D= , D = .. . 0 λn 0 .. 0 . , k ∈ N0 . λkn Wegen A2 = T D T −1 T D T −1 = T D2 T −1 u.s.w. gilt für diagonalisierbare Matrizen A = T D T −1 =⇒ Ak = T Dk T −1 . Wenn alle Eigenwerte λj ≥ 0 erfüllen, kann man auch gebrochene Potenzen bilden, z.B. gemäß √ λ1 √ 0 √ √ √ λ2 , D= A = T D T −1 . . .. √ λn 0 Solche Matrizen heißen positiv semidefinit, siehe 4.7. Im positiv definiten Fall (alle Eigenwerte λj > 0 ) kann man mit λpj = exp(p ln λj ) für p ∈ R auf dieselbe Weise sogar beliebige reelle Potenzen Dp definieren. Die Potenzrechenregeln bleiben in diesem allgemeineren Fall gültig. 4.19b Potenzen von Matrizen und Eigenvektoren Auch wenn eine Matrix A nicht diagonalisierbar ist, so ist die Wirkung auf Eigenvektoren immer noch einfach zu bestimmen. Sei A x = λ x, dann folgt A2 x = A(Ax) = A(λ x) = λ(Ax) = λ2 x sowie Ak x = λk x für alle k ∈ N0 (bzw. k ∈ Z für reguläre Matrizen, dann gilt nämlich λ 6= 0). Entsprechend für Linearkombinationen von Eigenvektoren. RWTH Aachen Mathematik I+II 5 5 Reelle und komplexe Zahlen und einige Grundbegriffe 70 Reelle und komplexe Zahlen und einige Grundbegriffe Dieses Kapitel enthält grundlegendes Handwerkszeug“ für alles weitere. ” 5.1 Die reellen Zahlen Für die Menge der reellen Zahlen R sind Verknüpfungen und deren Umkehrungen definiert: Seien a, b ∈ R, Addition : a + b ∈ R, Subtraktion : a − b ∈ R, Multiplikation : a · b ∈ R, Division : a/b ∈ R falls b 6= 0, mit weiteren guten Eigenschaften, z.B. a + b = b + a, a b = b a (Kommutativität), Lösbarkeit von Gleichungen, etc. Mit dem Assoziativgesetz (a + b) + c = a + (b + c) ist die Summe von drei reellen Zahlen auf natürliche Weise durch Rückführung auf die iterierte Addition zweier Zahlen definiert: a + b + c := (a+b)+c = a+(b+c) ist unabhängig von allen Paarungen und Reihenfolgen. Entsprechend für jede endliche Zahl von Summanden, sowie für Produkte endlich vieler Faktoren. Unendliche Summen (die Reihen“) werden später behandelt. ” Die Addition und Multiplikation sind miteinander verträglich, da das Distributivgesetz gilt: a (b+ c) = a b + a c. Die reellen Zahlen bilden einen Körper (genauer siehe 5.8) ebenso wie Q, die Menge der rationalen Zahlen (Brüche, endliche oder periodische Dezimalbrüche). R ist gegenüber Q dadurch ausgezeichnet, daß es die kleinste Q umfassende Menge ist, die unter Grenzprozessen vollständig ist: Approximationsverfahren (z.B. konvergente √ Folgen und Reihen) führen nicht aus R hinaus, auch geometrisch wichtige irrationale Zahlen wie 2 und π gehören zu R. Veranschaulichung von R: Punkte einer Geraden, der Zahlengeraden. Weitere wichtige Teilmengen der reellen Zahlen sind die ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, 3, . . .} sowie die natürlichen Zahlen N = {1, 2, 3, . . .} und N0 = {0, 1, 2, 3, . . .}. Zur Bezeichnung dieser Zahlenmengen wird auch oft Fettdruck (R etc.) benutzt. Geordnete n-Tupel reeller Zahlen, die Vektoren im Rn , haben wir in den vorangehenden Kapiteln hinsichtlich ihrer linearen Struktur ausführlich besprochen. Jetzt stehen nichtlineare Phänomene im Vordergrund, insbesondere in der Dimension n = 1. 5.2 Funktion, Abbildung, Graph Seien X und Y beliebige Mengen. Eine Funktion (oder Abbildung) ordnet jedem Element ihres Definitionsbereichs (= Urbildmenge) D ⊆ X genau ein Element ihrer Bildmenge Y zu, geschrieben als f : D → Y oder f (·) : D → Y , x 7→ f (x). Zu jedem x ∈ D ist der Bildpunkt f (x) eindeutig. Wenn Betonlieferungen die Feststellung zugeordnet wird, ob sie die Qualitätsanforderungen erfüllen (z.B. durch ja/nein oder wahr/falsch), dann definiert das eine Funktion. In dieser Vorlesung sind Urbild- und Bildmenge jedoch zumeist Zahlenmengen oder Teilmengen des Rn und die Zuordnung ist eine Rechenvorschrift, z.B. f : R → R, x 7→ f (x) = x2 , f : {x ∈ R | x ≥ 0} → R, f : Rn → Rm , | · | : Rn → R, f (x) = √ x, x 7→ f (x) = A x, A eine m × n-Matrix, q f (x) = |x| = x21 + . . . + x2n , Betragsfunktion. Zur Vereinfachung wird oft nur die Rechenvorschrift ausdrücklich angegeben, dann ist als natürli” cher“ Definitionsbereich die größte Menge gemeint, auf der die Rechenvorschrift erklärt ist, z.B. 1 f (x) = auf D = {x ∈ R | x 6= 1, x 6= −2} = R\{−2, 1}. (x − 1) (x + 2) RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 71 Der Definitionsbereich einer Funktion kann immer verkleinert werden, z.B. wenn man nur einen monotonen Teil einer Funktion betrachten möchte. In der Mathematik und in ihren Anwendungen wichtige Funktionen sind Polynome, rationale Funktionen, trigonometrische Funktionen (sin, cos, tan, . . .), Exponentialfunktion, Logarithmus und viele weitere, die wir in den folgenden Kapiteln genauer studieren. Korrekte und andere verbreitete Sprechweisen: Eine Funktion f , der Funktionswert f (x) an der Stelle x des Definitionsbereichs und eine Berechnungsvorschrift wie x 7→ f (x) = x2 −2 sind unterschiedliche Objekte. Es ist einfach, korrekt z.B. von der Exponentialfunktion oder der Logarithmusfunktion (dem Logarithmus) zu sprechen. Doch ist die Funktion f mit der Berechnungsvorschrift ” x 7→ f (x) = tan(x2 ) auf dem maximalen Definitionsbereich“ zwar korrekt, aber für den Alltag zu umständlich und i.a. auch nicht nötig. Deshalb werden wir, wenn keine Mißverständnisse zu erwarten sind, oft die kurze und verbreitete Sprechweise die Funktion tan(x2 ) “ benutzen, obwohl sie nicht ” korrekt ist. Der Graph einer Funktion f : D ⊆ R → R ist die Menge ½µ ¶ ¯ ¾ x ¯ ¯ x ∈ D ⊆ R2 , f (x) oft eine Kurve oder die Vereinigung von Kurvenstücken. Das Argument wird auf der Abszisse (horizontale Achse) abgetragen, der Funktionswert auf der (vertikalen) Ordinate. Wegen der Eindeutigkeit der Zuordnung (Definition einer Funktion!) können auf dem Graphen einer Funktion nie zwei Punkte übereinander liegen. Eine Funktion, deren Definitionsbereich symmetrisch zum Ursprung liegt (d.h. x ∈ D ⇐⇒ −x ∈ D), heißt gerade oder symmetrisch, wenn f (−x) = f (x), ihr Graph liegt dann spiegelsymmetrisch zur Ordinate ( y-Achse). Sie heißt ungerade oder antisymmetrisch oder auch schief, wenn f (−x) = −f (x), dann ist der Graph punktsymmetrisch zum Ursprung. 5.3 Die Ordnung der reellen Zahlen In Anwendungen müssen oft Gleichungen gelöst werden, noch häufiger muß aber sichergestellt werden, daß eine Größe nicht zu klein oder zu groß ist: Tragfähigkeit über, Durchbiegung unter, Preis höchstens, Materialqualität mindestens . . . Dies wird durch Ungleichungen quantitativ beschrieben, jetzt behandeln wir die Grundlagen für den Umgang mit Ungleichungen. 5.3a Axiome der Ordnung von R Für zwei beliebige reelle Zahlen a, b ∈ R gilt genau eine der drei folgenden Beziehungen (das Trichotomiegesetz, reelle Zahlen können angeordnet werden) a < b oder a = b oder b < a (⇐⇒ a > b). Dieses Gesetz paßt zu der Veranschaulichung der reellen Zahlen durch Punkte auf der Zahlengeraden: Zu einer gegebenen reellen Zahl liegt eine andere links davon, fällt mit jener zusammen oder sie liegt weiter rechts. Die Ordnungsrelation “<” auf R genügt folgenden Ordnungsaxiomen (O1) – (O3): Seien a, b, c ∈ R (O1) a < b und b < c =⇒ a < c (O2) a < b =⇒ a + c < b + c (Transitivität), (Verträglichkeit mit der Addition), (O3) a < b und c > 0 =⇒ a c < b c (Verträglichkeit mit der Multiplikation). In (O3) ist die Positivität des Faktors, c > 0 , wichtig! Alles gilt genauso für Teilmengen reeller Zahlen wie N, Z, Q. Aus den Axiomen (O1) – (O3) können nützliche Regeln abgeleitet (bewiesen) werden. Beweisen“ bedeutet, daß neue Aussagen auf Axiome und auf die zuvor schon bewiesenen ” RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 72 Aussagen logisch zurückgeführt werden. In diesem Abschnitt werden wir die Rechenregeln für reelle Zahlen (Kommutativ-, Assoziativ- und Distributivgesetz, siehe 5.1), auf die wir als Körperaxiome in Abschnitt 5.8 zurückkommen, sowie die Ordnungsaxiome benutzen. 5.3b Einige Regeln für das Rechnen mit Ungleichungen Seien a, b, c, d ∈ R (1) a < b und c < d =⇒ a + c < b + d. (O2) a < b =⇒ a + c < b + c, (O1) Beweis: =⇒ a + c < b + d. (O2) c < d =⇒ b + c < b + d 2 (2) a < b ⇐⇒ −b < −a (⇐⇒ −a > −b). (O2) Beweis: ⇒“: a < b =⇒ −b = a + (−a − b) < b + (−a − b) = −a. ” (O2) ⇐“: −b < −a =⇒ a = −b + (b + a) < −a + (b + a) = b. ” (3) “(a < 0 und b > 0) oder (a > 0 und b < 0)” ⇐⇒ a · b < 0, folgt aus (O3) und (2). 2 (4) a 6= 0 ⇐⇒ a2 > 0, folgt aus (3). (5) a > 0 ⇐⇒ 1/a > 0. Beweis von ⇒“ durch Widerspruch: Sei a > 0. ” Angenommen: 1/a < 0, a > 0. Mit (3) folgt daraus 1 = a · 1/a < 0, falsch! Angenommen: 1/a = 0, a > 0 =⇒ 1 = a · 1/a = 0, falsch! Mit dem Trichotomiegesetz (5.3a), angewandt auf das Paar 1/a und 0, bleibt als einzige Möglichkeit: 1/a > 0. Beweis von ⇐“: Betrachte ã = 1/a und wende (5) von links nach rechts (schon bewiesen) auf ” ã an. 2 (6) 0 < a < b ⇐⇒ 0 < 1/b < 1/a. Fehlende Beweise zur Übung bitte selbst führen! Die folgenden Regeln können wir alle mit der Monotonie der Exponential- und Logarithmusfunktion (B, C, 7.1b) beweisen, teilweise auch direkt: √ √ (7) 0 < a < b ⇐⇒ 0 < an < bn , für alle n ∈ N, 0 < a < b, allgemeiner mit ap := ep·ln a (8) 0 < a < b ⇐⇒ 0 < ap < bp für alle positiven Potenzen p > 0. (9) a > 1 =⇒ 0 < ap < aq für p, q ∈ R, p < q. √ Beispiel: a = 2 > 1 : 2−5 = 1/32 < 2−3 = 1/8 < 20 = 1 < 21/2 = 2 < 22 = 4. Zwischen zwei verschiedenen reellen Zahlen a < b gibt es eine weitere reelle Zahl, nämlich das arithmetische Mittel (a + b)/2: (10) a < (a + b)/2 < b. RWTH Aachen (Beweis ?) Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 5.3c 73 Die Relationen ≤ und ≥ Wir schreiben als Abkürzung a ≤ b (auch a 5 b, a 6 b), wenn a < b oder a = b richtig ist. Es gelten ähnliche Regeln wie für <“, z.B. ” a ≤ b und b ≤ c =⇒ a ≤ c, a2 ≥ 0 für alle a ∈ R, (Transitivität wie (O1), genauso) (etwas anders als (4)!) oder auch a ≤ b und c ≤ 0 =⇒ a c ≥ b c (Umkehrung der Ungleichung beachten!) sowie die in Beweisen häufig benutzte Aussage a ≤ b und b ≤ a =⇒ a = b. Es gibt viele weitere Regeln, wie Ungleichungen umgeformt bzw. benutzt werden können. Wir kommen jetzt zu ersten Anwendungen. 5.4 Durch Ungleichungen charakterisierte Mengen Durch Ungleichungen werden oft Teilmengen von R oder Rn definiert, z.B. 5.4a Intervalle Für a ≤ b bezeichnet [a, b] = {x ∈ R | a ≤ x und x ≤ b}, abgeschlossenes Intervall, (a, b) = {x ∈ R | a < x und x < b}, offenes Intervall, [a, b) = {x ∈ R | a ≤ x und x < b}, (a, b] = {x ∈ R | a < x und x ≤ b}. Falls a = b, so ist [a, b] = [a, a] = {a} 6= ∅, die anderen drei Intervalle sind leere Mengen. Wenn a < b kann kürzer z.B. auch (a, b) = {x ∈ R | a < x < b} geschrieben werden. Für (a, b), (a, b] u.s.w. sind auch die Schreibweisen ]a, b[, ]a, b], . . . gebräuchlich. Unendliche Intervalle, z.B. (a, ∞) = {x ∈ R | a < x}, offen, (−∞, b] = {x ∈ R | x ≤ b} , (−∞, ∞) = R. Anschaulich bedeutet bei einfachen Teilmengen des R oder Rn (wie bei Intervallen oder den Beispielen unten), daß eine Menge abgeschlossen ist, wenn alle Randpunkte dazugehören, und offen, wenn kein Randpunkt dazugehört. 5.4b Quader, Kugeln, Ellipsen etc. Dimension n = 2, Rechteck mit allen Rändern: Seien a ≤ b, c ≤ d ¯ n³ ´ o x ∈ R2 ¯ a ≤ x ≤ b, c ≤ y ≤ d , abgeschlossen. R= ¯ y RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 74 n beliebig, Quader ohne alle Ränder: ai < bi , i = 1, . . . , n, Q = {x ∈ Rn | ai < xi < bi , i = 1, 2, . . . , n}, offen. Ellipse in der Ebene mit Halbachsen a, b > 0 (siehe F, 4.10a): {x ∈ R2 | [ x1 /a ]2 + [ x2 /b ]2 = 1}, deren offenes (ohne Ränder) Inneres: {x ∈ R2 | [ x1 /a ]2 + [ x2 /b ]2 < 1}, Dreieck(sfläche) mit Rändern in der Ebene, z.B. D = {x ∈ R2 | x1 ≥ −1, x1 + x2 ≤ 3, x1 − 2x2 ≤ 2}, abgeschlossen. Abgeschlossene (Voll-)Kugel in beliebiger Dimension n mit Radius R > 0: ( ) ¯ X ¯ n 2 n ¯ 2 K= x∈R ¯ xi ≤ R , abgeschlossen, Zentrum im Ursprung, i=1 für n = 1 ist das ein Intervall, n = 2 eine Kreisscheibe, n = 3 eine Kugel im Anschauungsraum. Sphäre = Kugeloberfläche mit Radius R > 0 und Zentrum z ∈ Rn : ( ) ¯ n X ¯ S = x ∈ Rn ¯¯ (xi − zi )2 = R2 , i=1 zwei Punkte für n = 1, Kreis(linie) für n = 2. 5.4c Weitere durch Ungleichungen charakterisierte Mengen In Anwendungen treten Ungleichungen häufig als Begrenzung zulässiger Parameter“ auf, z.B. die ” Steigung einer Eisenbahnstrecke nicht zu groß, der Krümmungsradius nicht zu klein, die Temperatur unter 100◦ C. Oft spielen dabei auch Funktionen eine Rolle, z.B. M := {x ∈ [−π, π] | 0 ≤ sin x < 1/2}. (vgl. E.2, Skizzen helfen oft!) bedeutet M = [0, π/6) ∪ (5π/6, π] ∪ {−π}. µ Für welche x ∈ R ist ln x2 − 7x + 4 (x + 1) (x − 2) ¶ definiert und positiv? Lösung: Zunächst muß sichergestellt werden, daß der Bruch definiert ist, also x 6= −1 und x 6= 2. Der Ausdruck ln y ist definiert für y > 0, positiv für y > 1, also besteht die Lösungsmenge M aus den x ∈ R \ {−1, 2}, für die gilt: x2 − 7x + 4 >1 (x + 1) (x − 2) ⇔0< ⇔ x2 − x − 2 −6x + 6 x−1 x2 − 7x + 4 − = = −6 (x + 1) (x − 2) (x + 1) (x − 2) (x + 1) (x − 2) (x + 1) (x − 2) (x − 1) < 0, (x + 1) (x − 2) RWTH Aachen M = {x ∈ R | x < −1} ∪ (1, 2). Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 5.5 Der Betrag einer reellen Zahl 5.5a Definition des Betrages auf R 75 Der Betrag | · | ist eine reellwertige Funktion, die für reelle Zahlen und komplexe Zahlen (5.7f) sowie für Vektoren (1.6) definiert ist. Hier gehen wir genauer auf den reellen Fall ein, der natürlich der Spezialfall n = 1 für Vektoren im Rn ist. ( √ x falls x ≥ 0, Graph in Abb. 5.1. | · | : R → R , |x| := x2 = −x falls x < 0, 4 |x-4| |x| 1 1 0 Abbildung 5.1: Betragsfunktion 4 Abbildung 5.2: Graph von |x − 4| Also ist |x| ≥ 0 für alle x ∈ R (positive Wurzel!), z.B. |5| = 5, | − 3| = 3, |0| = 0, √ √ |x|2 = |x2 | = x2 , da |x|2 = x2 · x2 = x2 ≥ 0 (dies ist i.a. falsch in C , siehe 5.7f !); ( x−4 für x ≥ 4, |x − 4| = Graph in Abb. 5.2. −(x − 4) = 4 − x für x < 4, Anschaulich ist |x − a| = |a − x| der Abstand zwischen den Punkten x und a auf der Zahlengeraden. 5.5b Eigenschaften des Betrages auf R Für a, b ∈ R gilt: (1) |a| = | − a|, |a| ≥ a, (2) |a| = 0 ⇐⇒ a = 0, (3) |a · b| = |a| · |b|, |a| ≥ −a, |a/b| = |a|/|b| falls b 6= 0, (4) Dreiecksungleichung (sie gilt genauso im Rn , siehe 1.9): |a + b| ≤ |a| + |b|. (1) Beweis von (4) (wenn die Eigenschaften (1) und (3) schon zuvor bewiesen worden sind): 2 a b ≤ (3) (3) |2 a b| = |2 a| |b| = 2|a| |b| =⇒ a2 + 2 a b + b2 ≤ a2 + 2 |a| |b| + b2 (Rechnen mit Ungleichungen, O2) = |a|2 + 2|a| |b| + |b|2 mit |a|2 = a2 und |b|2 = b2 = (|a| + |b|)2 , also (a + b)2 ≤ (|a| + |b|)2 ⇐⇒ |a + b| ≤ |a| + |b| (vgl. 5.3b (7) bzw. (8) ). 2 Der Name Dreiecksungleichung“ ist in Dimension n ≥ 2 offensichtlich. ” RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 76 (5) Differenzen von Beträgen: ¯ ¯ ¯ ¯ |a + b| ≥ ¯|a| − |b|¯ ≥ ( |a| − |b| |b| − |a| . Beweisidee: |a| = |a + b − b| und Dreiecksungleichung (4). (6) “ a < b und − a < b ” ⇐⇒ |a| < b ⇐⇒ −b < a < b (wichtig!, analog für ≤). Fehlende Beweise zur Übung selbst einfügen! 5.5c (i) (ii) Einige Anwendungen des Betrages cos x = cos |x| für alle x ∈ R, weil cos x = cos(−x). f (x) = ln |x| ist definiert für alle x 6= 0, eine gerade Funktion (Abb. 5.3). Ableitung f 0 =?, Fallunterscheidung (siehe C) x > 0 : |x| = x, f (x) = ln x, f 0 (x) = 1/x, x < 0 : |x| = −x, f (x) = ln(−x), f 0 (x) = 1/(−x) · (−1) = 1/x, also f 0 (x) = 1/x für alle x 6= 0. 1 1 ln |x| ln |x| –1 1 –1 Abbildung 5.3: Graph von ln |x| -1 0 1 -1 Abbildung 5.4: Flächenstück F (iii) Beschreibung eines Flächenstückes F ⊆ R2 (Abb. 5.4): F = {x ∈ R2 | |x1 | + |x2 | < 1}, offen. (iv) Für welche x ∈ R ist |x − 1| ≥ 1 − x2 ? ⇐⇒ x2 − 1 + |x − 1| ≥ 0 ? Sicher richtig für x2 ≥ 1. Es bleibt x ∈ (−1, 1) zu untersuchen, dort ist x − 1 < 0, also |x − 1| = −x + 1. Somit ist für x ∈ (−1, 1) die Bedingung x2 − 1 − x + 1 = x(x − 1) ≥ 0 zu prüfen, die für x ∈ (−1, 0] richtig ist. Also M = {x ∈ R | |x − 1| ≥ 1 − x2 } = (−∞, 0] ∪ [1, ∞) = R \ (0, 1). 5.6 Die Bernoullische Ungleichung Für jedes a ∈ R , a ≥ −1, n ∈ N0 gilt die einfache und sehr nützliche Bernoullische Ungleichung (1 + a)n ≥ 1 + n a. RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 77 Veranschaulichung für die Aussagen A(n), n ∈ N0 , hier Ungleichungen: n = 0, A(0) : (1 + a)0 = 1 = 1 + 0 a, n = 1, A(1) : (1 + a)1 = 1 + 1 a, n = 2, A(2) : (1 + a)2 = 1 + 2 a + a2 ≥ 1 + 2 a, n = 3, A(3) : (1 + a)3 = 1 + 3 a + 3 a2 + a3 = 1 + 3 a + a2 (3 + a) ≥ 1 + 3 a, (1 + a)n = (1 + a) (1 + a) . . . (1 + a) = 1 + n a + weitere Terme. Die weiteren Terme sind einzeln ≥ 0 für a ≥ 0, ihre Summe ist sogar noch positiv für a ∈ [−1, 0). Ein Beweis mit vollständiger Induktion (I) basiert auf A(n) (1 + a)n+1 = (1 + a) (1 + a)n ≥ (1 + a) (1 + n a) = 1 + (n + 1) a + n a2 ≥ 1 + (n + 1) a. In der ersten Ungleichung wurde sowohl (1 + a) ≥ 0 ⇔ a ≥ −1 als auch die Bernoullische Ungleichung für n , die Aussage A(n), benutzt. Also gilt: “A(n) impliziert A(n + 1)”. Bei 0 < q < 1 benutzt man oft q = 1/(1 + a), a > 0. Damit gilt z.B. 0 < q n ≤ 1/(1 + na) < (1/a) (1/n). 5.7 Die Menge C der komplexen Zahlen 5.7a Definition komplexer Zahlen Eine komplexe Zahl z ∈ C ist ein geordnetes Paar reeller Zahlen (ebenso wie ein Punkt in der Ebene R2 ), geschrieben z = x + i y = x + y i, x, y ∈ R, also z = (erste reelle Komponente) + i·(zweite reelle Komponente). In der komplexen Ebene“, der Gaußschen Zahlenebene“, wird z durch den ³ ´ ” ” 2 veranschaulicht, x heißt der Realteil von z, geschrieben x = Re z, und y Vektor/Punkt x ∈ R y der Imaginärteil, y = Im z, die Abszisse bzw. Ordinate in der Gaußschen Zahlenebene, Re z ∈ R und auch Im z ∈ R. 5.7b Die Addition komplexer Zahlen erfolgt komponentenweise wie die Vektoraddition in der Ebene z + z 0 = (x + i y) + (x0 + i y 0 ) = x + x0 + i (y + y 0 ) ' ³ x + x0 y + y0 ´ ∈ R2 . ³ ´ x auffassen, 0 d.h. die reelle Zahlengerade als Abszisse in der Gaußschen Zahlenebene. Die imaginäre Einheit i = ³ ´ 0 + i 1 ' 01 wird durch den Einheitsvektor nach oben“ dargestellt. Hinsichtlich der Addition ” und der komponentenweisen Multiplikation (Division) mit reellen Zahlen a z = a x + i a y, a ∈ R, (z/c = x/c + i y/c, c ∈ R, c 6= 0) gibt es keinen Unterschied zwischen C und R2 , als Vektorräume sind sie gleich. Auch der Betrag ist für beide gleich, siehe 5.7f. Bisher sind keine neuen Inhalte, sondern nur einige neue Bezeichnungsweisen eingeführt worden. Eine neue und für die komplexen Zahlen typische Struktur ist die Multiplikation komplexer Zahlen untereinander. Die reellen Zahlen x ∈ R kann man als spezielle komplexe Zahlen x + i 0 ' 5.7c Die Multiplikation komplexer Zahlen Zu zwei Zahlen z = x + i y, z 0 = x0 + i y 0 ∈ C ist ein Produkt z z 0 ∈ C definiert als z · z 0 ≡ z z 0 ≡ (x + i y) (x0 + i y 0 ) := x x0 − y y 0 + i (x y 0 + x0 y), also Re(z · z 0 ) = x · x0 − y · y 0 ∈ R, Im(z z 0 ) = x y 0 + x0 y ∈ R. RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 78 Man erhält dieses Ergebnis auch, wenn man nur i · i = −1 nutzt, ausführlich geschrieben (0 + i 1) (0 + i 1) = 0 · 0 − 1 · 1 + i (0 · 1 + 1 · 0) = −1, und sonst die üblichen Rechenregeln (5.1) wie für reelle Zahlen benutzt. Da für reelle Zahlen a2 ≥ 0 gilt, kann es keine reelle Zahl i mit i · i = −1 geben, die komplexen Zahlen bilden eine Erweiterung der Zahlen, die die reellen Zahlen und ihre Rechenoperationen als Spezialfall enthält. In den komplexen Zahlen sind nicht nur polynomiale Gleichungen immer lösbar, mit ihrer Hilfe erkennt man z.B. den Zusammenhang zwischen der Exponentialfunktion und den trigonometrischen Funktionen, sie sind ein sehr zweckmäßiges und nützliches Hilfsmittel bei vielen praktischen Problemen, wie etwa der Behandlung von Schwingungen. Der historisch gewachsene Name imaginär“ darf Sie nicht abschrecken! Zur Veranschaulichung ” der komplexen Multiplikation in der Gaußschen Zahlenebene siehe Abbildung 5.6. 5.7d Beispiele für Rechnungen mit komplexen Zahlen (i) Summe: 3 + i 5 + 7 − 2i = 10 + 3i. (ii) Multiplikation reeller und komplexer Zahlen: 4 (3 + i5) = 12 + i 20 = (4 + i 0) (3 + i 5) = 12 − 0 · 5 + i (0 · 3 + 4 · 5). (iii) Für welche z ∈ C gilt Re(z 2 ) > 0 ? Für z = x + i y ist z 2 = x2 − y 2 + 2i x y, Re(z 2 ) = x2 − y 2 , also: Re(z 2 ) > 0 ⇐⇒ (Re z)2 > (Im z)2 ⇐⇒ | Re z| > | Im z|. 5.7e Bemerkung: keine Ordnung auf C Es gibt keine Ordnung für komplexe Zahlen derart, daß für beliebige Paare komplexer Zahlen ein Trichotomiegesetz gilt und die Ordnung transitiv und mit der Addition und Multiplikation verträglich ist (vergl. 5.3a). 5.7f Konjugiert komplexe Zahlen, der Betrag auf C Zu z = x+i y ∈ C ist die konjugiert komplexe Zahl z̄ = x−i y, also Re z̄ = Re z, Im z̄ = − Im z, in der Gaußschen Zahlenebene das Spiegelbild bzgl. der Abszisse. 2 + 3i = 2 − 3i. Wir berechnen z z̄ = (x + i y) (x − i y) = x2 + y 2 + i 0 ∈ R. Also ist für alle z ∈ C das Produkt z z̄ reell und z z̄ ≥ 0, das Quadrat des Abstands des Punktes z vom Ursprung in der Gaußschen Zahlenebene (Satz des Pythagoras). Wir definieren als Betrag einer komplexen Zahl p √ | · | : C → R, |z| := z z̄ = (Re z)2 + (Im z)2 . Für reelle z (Im z = 0) stimmt diese Definition mit der früher in 5.5a gegebenen überein und mit ¯³ ´¯ ³ ´ 2 gilt außerdem |z| = ¯ x ¯. der Entsprechung z ∈ C ↔ x ∈ R ¯ y ¯ y |3 + 4i| = p (3 + 4i) (3 − 4i) = √ 9 + 16 = 5, |i| = p (0 + 1i) (0 − 1i) = √ 0 + 1 = 1. Die Eigenschaften des Betrages reeller Zahlen übertragen sich sinngemäß: (1) |z| ≥ 0 , |z| = 0 ⇐⇒ z = 0 (d.h. Re z = 0 und Im z = 0), RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 79 (2) |z · z 0 | = |z| · |z 0 |, (3) Dreiecksungleichung: z |z + z 0 | ≤ |z| + |z 0 | Die Veranschaulichung in der Gaußschen Zahlenebene erklärt auch den Namen der Dreiecksungleichung! Eine Dreiecksseite ist höchstens so lang wie die Summe der anderen beiden Längen, siehe Abbildung 5.5, genauso bei Dreiecken im Rn . Im reellen Fall entarten diese Dreiecke und liegen ganz auf der reellen Zahlengeraden. Beachte aber, daß bei komplexem z im allgemeinen (nämlich falls y = Im z 6= 0) gilt: z 2 = x2 − y 2 + 2ixy 6= |z|2 = |z 2 | = x2 + y 2 , anders als bei reellen Zahlen (vgl. 5.5a)! 5.7g z + z’ z’ Abbildung 5.5: Zur Dreiecksungleichung Rechenhilfen für komplexe Zahlen Während die (komponentenweise) Division durch eine reelle Zahl 6= 0 einfach ist, ist die Division durch eine komplexe Zahl (Multiplikation mit dem Kehrwert) etwas schwieriger, doch ein Trick hilft (Erweitern führt auf einen reellen Nenner): z̄ z̄ 1 x − iy = = 2 = 2 für z 6= 0. z z · z̄ |z| x + y2 1/(3 + 4 i) = (3 − 4 i)/(9 + 16) = 3/25 − i (4/25), Probe: (3/25 − i (4/25)) (3 + 4 i) = (9/25) + (16/25) + i 0 = 1. 1/i = 1/(0 + i 1) = (0 − i 1)/(0 + 1) = −i ⇐⇒ X i (−i) = 1. 1 1 (z + z̄) = (x + i y + x − i y) = x = Re z, 2 2 i i 1h 1h z − z̄ = (x + i y) − (x − i y) = y = Im z, 2i 2i z 0 z̄ z0 (x0 + i y 0 ) (x − i y) x0 x + y 0 y + i (y 0 x − x0 y) = 2 = = . z |z| x2 + y 2 x2 + y 2 Die Zahl z = r cos ϕ + i r sin ϕ = r (cos ϕ + i sin ϕ), r ≥ 0 (Polarkoordinaten in der Ebene) erfüllt |z| = r (denn cos2 ϕ + sin2 ϕ = 1 für jedes ϕ ∈ R) und ´ 1 1 1 1³ = cos ϕ − i sin ϕ = cos(−ϕ) + i sin(−ϕ) , z r r r denn der Kosinus ist gerade, der Sinus ungerade (E.2). Weiterhin gilt (Beweis später in 6.11) ³ ´ z · z 0 = r · r0 cos(ϕ + ϕ0 ) + i sin(ϕ + ϕ0 ) , d.h. die Beträge werden miteinander multipliziert (wie es wegen |z z 0 | = |z| |z 0 | sein muß) und die Winkel gegenüber der positiven Abszisse werden addiert, siehe Abbildung 5.6. Die Addition und Multiplikation komplexer Zahlen sind gute“ und miteinander verträgliche Operationen, ” denn sie erfüllen die aus der Schule für reelle Zahlen bekannten (und schon in 5.1 angegebenen) Körperaxiome. RWTH Aachen z’ 1 z 0 1 z z’ Abbildung 5.6: Mathematik I+II Komplexe Multiplikation 5 Reelle und komplexe Zahlen und einige Grundbegriffe 80 5.8 Körpereigenschaften der rationalen, reellen und komplexen Zahlen Wir präzisieren jetzt die bereits in 5.1 genannten Rechenregeln. Im folgenden steht K für einen Körper, z.B. für Q, R oder C , und seien a, b, c, . . . ∈ K. 5.8a Addition Zu a, b ∈ K ist die Summe a + b ∈ K gegeben mit den Eigenschaften: (A1) a + b = b + a (Kommutativgesetz). (A2) a + (b + c) = (a + b) + c (Assoziativgesetz, damit sind beliebig lange endliche Summen auf natürliche Weise eindeutig erklärt). (A3) Es gibt ein neutrales Element der Addition (eine Null) 0 ∈ K mit a + 0 = a für alle a ∈ K. (A4) Zu jedem a ∈ K gibt es ein inverses Element der Addition (ein negatives Element) −a ∈ K mit a + (−a) = 0. Diese Axiome stellen sicher, daß für a, b ∈ K die lineare Gleichung a + x = b genau eine Lösung x ∈ K hat. Sie sind z.B. auch richtig im Rn , n beliebig. 5.8b Multiplikation Zu a, b ∈ K ist ein Produkt a · b ≡ a b ∈ K gegeben mit (M1) a b = b a (Kommutativgesetz). (M2) (a b) c = a (b c) (Assoziativgesetz, =⇒ endliche Produkte). (M3) Es gibt ein neutrales Element der Multiplikation (eine Eins) 1 ∈ K mit 1 6= 0 und a · 1 = a für alle a ∈ K. (M4) Zu jedem a ∈ K, a 6= 0 gibt es ein inverses Element der Multiplikation (einen Kehrwert) a−1 ∈ K mit a · a−1 = 1. Diese Axiome stellen z.B. für a 6= 0 die eindeutige Lösbarkeit der linearen Gleichung a x = b durch ein x ∈ K sicher (eindeutige Division, x = b/a). 5.8c Verträglichkeit von Addition und Multiplikation (D1) (a + b) c = a c + b c (Distributivgesetz). 5.8d Bemerkungen zu Körpern Diese Axiome zusammen bilden die mathematische Grundlage für das Zahlenrechnen. Bezüglich der algebraischen Operationen“ Addition und Multiplikation sowie ihrer Umkehrungen, Subtraktion und ” Division, sind alle Körper gleich gut, insbesondere die von uns betrachteten Q, R und C . Q ist der kleinste Körper, der die natürlichen Zahlen N enthält. Q und R sind einfacher als C, sie haben eine Ordnung, hingegen können in C mehr Gleichungen gelöst werden. √ Gegenüber R (und C) hat Q den Nachteil, nicht vollständig zu sein: es √ gibt reelle Zahlen wie 2, π, e auf der Zahlengeraden, die nicht rational √ (Brüche) sind. Beispiel: 2 ∈ / Q, Widerspruchs√ beweis: Angenommen 2 ist rational (ein Bruch), 2 = p/q, p, q ∈ N, gekürzt (p und q sind nicht beide gerade), erfüllt p2 /q 2 = 2. Dann ist p2 = 2 q 2 eine gerade Zahl ⇒ p = 2m, m ∈ N, eine gerade Zahl, p2 = 4 m2 = 2 q 2 ⇒ q 2 = 2 m2 gerade, also q gerade, p und q sind beide durch 2 RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 81 √ teilbar, Widerspruch zur Annahme, daß p/q die Darstellung von 2 als gekürzter Bruch ist. Also ist √ 2 nicht rational. 2 Auf die Vollständigkeit der reellen (und komplexen) Zahlen, das ist die Eigenschaft, daß Grenzprozesse nicht aus diesen Zahlenmengen herausführen, kommen wir im Zusammenhang mit der Konvergenz von Folgen und Reihen später zurück. R ist der kleinste vollständige Körper, der N (und Q) enthält. 5.9 Das Summenzeichen Das Summenzeichen gestattet die kurze Schreibweise von Ausdrücken, die sonst oft lang oder unübersichtlich wären. Die Benennung des Summationsindex ist unwichtig, meist wird jedoch i, j, k, `, m, n benutzt. Seien a0 , a1 , a2 , . . . irgendwelche Objekte, die addiert werden können, z.B. reelle oder komplexe Zahlen, Vektoren, Funktionen. 4 X aj = a0 + a1 + a2 + a3 + a4 = j=0 4 X ak = k=0 5 X a`−1 = . . . . `=1 Seien a1 = 3 + 2i , a2 = −4 , a3 = 2 − 3i ∈ C, 3 X ak = a1 + a2 + a3 = (3 + 2i) + (−4) + (2 − 3i) = 1 − i ∈ C. k=1 Ein reelles oder komplexes Polynom vom Grad n kann man schreiben als: n X ck xk , ck ∈ R oder C, cn 6= 0. k=0 Die Exponentialfunktion ist der Grenzwert für n → ∞ der Polynome vom Grad n n X xk k=0 5.10 k! . Summenformeln Die Beweise der folgenden Formeln für beliebige n ∈ N können mit vollständiger Induktion (siehe I) geführt werden. Meist benutzt man dabei à n ! n+1 X X ak = ak + an+1 , k=1 k=1 um die Aussage A(n + 1) für n + 1 auf die für n zurückzuführen. Seien a` = `, n X a` = a0 + a1 + . . . + an = 0 + 1 + . . . + n = `=0 n X `=1 a` = n X `=1 `= n(n + 1) , 2 oder die Summe der inversen Potenzen von 2 (Abb. 5.7): ak = (1/2)k = 1/2k = 2−k n X ak = 1 + k=0 1 1 1 1 1 + + + ... + n = 2 − n. 2 4 8 2 2 Abbildung 5.7: RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 82 Allgemeiner ist die geometrische Summenformel: Sei q ∈ C (oder R), q 6= 1, n X qk = k=0 1 − q n+1 , 1−q n ∈ N0 . Zur Begründung für A(n + 1) ist der wichtigste Schritt: n+1 X k q = k=0 n X q k + q n+1 k=0 1−q 1 − q n+2 A(n) 1 − q n+1 = + q n+1 = . 1−q 1−q 1−q Bei der mittleren Gleichheit wurde die Gleichung für n ∈ N0 benutzt. Bei kleinen positiven Summanden erhält man die nützliche Abschätzung n X qk ≤ k=n0 1 1−q für alle 0 ≤ q < 1, n ≥ n0 . Für q = 1/2 = 2−1 ergibt sich die oben behauptete Kuchenstückformel“ ” −k = 2 − 2−n = 2(1 − 2−(n+1) ). 2 k=0 Pn Einige weitere Summenformeln sind: n X (2j − 1) = 1 + 3 + . . . + (2n − 1) = n2 , j=1 n X 1 n (n + 1) (2n + 1), 6 k=1 2 n n X X 1 `3 = 1 + 8 + 27 + . . . + n3 = n2 (n + 1)2 = j . 4 k 2 = 1 + 4 + 9 + . . . + n2 = j=1 `=1 P Beobachtung: nj=1 j p hat als führende Potenz np+1 /(p + 1), vergleiche damit Rz p p+1 /(p + 1), also dasselbe qualitative Verhalten! Diese Summenformeln sind kompli0 x dx = z zierter als die Integrale wegen des Auftretens von Termen niedrigerer Ordnung. 5.11 Fakultät und Binomialkoeffizienten 5.11a Die Fakultät Sie tritt häufig bei Abzählungen von Möglichkeiten auf. 0! : = 1 n! : = 1 · 2 · . . . · n = = (n − 1)! · n (zweckmäßige Konvention), Πnj=1 j (Produktzeichen Π benutzt) für n ∈ N. Die letzte Gleichung ist eine Vorschrift zur rekursiven Berechnung von n! . Z.B. gibt n! die Anzahl der Möglichkeiten an, n Personen in einer Reihe aufzustellen: n Möglichkeiten für den 1. Platz, (n − 1) für den 2., . . . , eine für den n-ten Platz. RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 5.11b 83 Die Binomialkoeffizienten Für die Anzahl von Mannschaften mit k Spielern mit Aufstellung (Reihenfolge der Plätze) aus n ≥ k möglichen Spielern haben wir n (n − 1) · · · (n − (k − 1)) = n!/(n − k)! Möglichkeiten. Kommt es auf die Reihenfolge nicht an (Auswahl von k Gewinnzahlen aus n) so haben wir µ ¶ n n (n − 1) · · · (n − k + 1) n! := = k k! (n − k)! k! Möglichkeiten. Diese für n, k ∈ N0 , k ≤ n definierten Binomialkoeffizienten treten häufig in der Mathematik auf, alle sind natürliche Zahlen. Einige Beispiele: µ ¶ 0 0! 1 = = = 1, 0 (0 − 0)! 0! 1·1 µ ¶ µ ¶ µ ¶ µ ¶ n n! n n n! n = =1= , = =n= . n (n − 0)! 0! 0 1 (n − 1)! 1! n−1 Allgemein gilt eine Symmetrie µ ¶ µ ¶ n n = , z.B. k n−k µ ¶ µ ¶ 49 49 = = 13.983.816 , 6 43 es ist gleich ob man beim Lotto die Angekreuzten oder die Anderen wählt. 5.11c Identität des Pascalschen Dreiecks“ ” ³ ´ Bei Anordnung der Binomialkoeffizienten n k im ”Pascalschen Dreieck“ gibt n die Zeile und k die Position von links an, jeweils ab 0 gezählt: µ ¶ 0 =1 0 µ ¶ µ ¶ 1 1 =1 =1 0 1 µ ¶ µ ¶ µ ¶ 2 2 2 =1 =2 =1 0 1 2 µ ¶ µ ¶ µ ¶ µ ¶ 3 3 3 3 =1 =3 =3 =1 0 1 2 3 .. . Damit ist die folgende Identität leicht zu merken: ein Binomialkoeffizient ist die Summe der beiden (schräg) darüber stehenden, µ ¶ µ ¶ µ ¶ n+1 n n = + für n ∈ N, k = 1, . . . , n. k k−1 k Begründung: ¡ ¢ Man nimmt zu n Objekten ein ”neues“ n+1-tes hinzu. Für die Auswahl von k Objekten gibt es nk Möglichkeiten, wenn ¡ das ¢ neue nicht gewählt wird. Oder das neue wird gewählt und weitere n k − 1 aus den anderen n, was k−1 zusätzliche Möglichkeiten ergibt. Beweis: µ ¶ µ ¶ n n n! n! + = + k−1 k (n − k + 1)! (k − 1)! (n − k)! k! = n! k + n! (n − k + 1) (n + 1)! = = (n − k + 1)! k! (n + 1 − k)! k! µ ¶ n+1 . k 2 RWTH Aachen Mathematik I+II 5 Reelle und komplexe Zahlen und einige Grundbegriffe 5.12 84 Binomischer Lehrsatz (a + b)0 = 1, (a + b)1 = 1 · a + 1 · b, µ ¶ µ ¶ µ ¶ 2 2−0 0 2 2−1 1 2 2−2 2 2 2 2 (a + b) = 1 a + 2 a b + 1 b = a b + a b + a b , 0 1 2 allgemein n (a + b) = n µ ¶ X n k=0 k an−k b k . Beweis mit vollständiger Induktion und der Identität des Pascalschen Dreiecks. Beweisidee: (a + b)n = (a + b) (a + b) · · · (a + b), n Faktoren (Klammern). Aus k Klammern b ³ ´ auswählen, aus den übrigen (n − k) Klammern a auswählen, das ergibt n k Möglichkeiten für Faktoren der Form an−k b k , über alle k = 0, . . . , n aufsummieren. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6 85 Grundlegende Funktionen Wir behandeln in diesem Kapitel die grundlegenden Funktionen wie Polynome, rationale und trigonometrische Funktionen, Exponentialfunktion, Logarithmus etc. sowie die wichtigsten Hilfsmittel zu ihrer Analyse (Kurvendiskussion). Alle in diesem Kapitel eingeführten Funktionen sind stetig und beliebig oft stetig differenzierbar mit Ausnahme der stückweise rationalen Funktionen (6.4), bei denen der Betrag diese guten Eigenschaften an einzelnen Punkten zerstören kann. 6.1 Polynome In diesem Abschnitt sei Grad(P ) = m ≥ P 1 der Grad des Polynoms P , das ist die höchste auftrem k m mit b tende Potenz der Variablen, z.B. P (x) = m 6= 0. k=0 bk x = b0 + b1 x + . . . + bm x (Der triviale Fall eines konstanten Polynoms P (x) = b0 ist klar.) Polynome werden auch als ganz rationale Funktionen bezeichnet. Wir vertiefen die in 4.0 begonnene Behandlung der Polynome. 6.1a Zu den Anwendungen der Polynome In vielen Fällen sind die Koeffizienten der Polynome bk reelle Zahlen, mitunter auch komplexe. Unabhängig davon hängt es von der Anwendung ab, ob die Variable x nur reelle Werte oder auch komplexe Werte annehmen kann. In der Modellbildung dienen Polynome oft als einfache Funktionen mit denen empirische Daten (Meßwerte) oder vorgegebene Größen (Sollwerte, Steuerprogressionskurven) effektiv beschrieben und interpoliert werden können. In der Approximation werden komplizierte Funktionen durch einfachere ersetzt, siehe z.B. 6.1d für stetige Funktionen oder später die Taylorpolynome für differenzierbare Funktionen und Potenzreihen. Stückweise polynomiale Funktionen niedrigen Grades (Splines, finite Elemente, einige Wavelets) dienen in der Numerik als Ansatzfunktionen. Bei der Eigenwertberechnung von Matrizen (4.1) und bei der Lösung linearer Differentialgleichungen treten charakteristische Polynome“ auf, deren reelle und komplexe Nullstellen gleicherma” ßen wichtig sind. Da ein Polynom vom Grad m ≥ 1 höchstens m Nullstellen hat und im Unendlichen divergiert, sind Polynome trotz ihrer guten lokalen Eigenschaften schlecht angepaßt, um periodische Vorgänge approximativ zu beschreiben. Dafür sind trigonometrische Funktionen besser geeignet, das führt auf die später behandelten Fourierreihen 6.1b Koeffizientenvergleich, Faktorzerlegung der Polynome Zwei Polynome P (x) und P̂ (x) sind genau dann gleich, wenn alle ihre Koeffizienten bk und b̂k paarweise gleich sind, denn für die k-te Ableitung des Polynoms, ausgewertet an der Stelle x = 0, gilt (d/dx)k P (x)|x=0 = bk k! (selbst nachrechnen!). Die Koeffizienten legen das Polynom also eindeutig fest und umgekehrt. Das wird später zum Koeffizientenvergleich benutzt (6.6c), analog auch bei Potenzreihen. Sind alle Koeffizienten bk des Polynoms P reell und ist a eine Nullstelle von P (x), also P (a) = 0, dann ist auch a, die zu a konjugiert komplexe Zahl, eine Nullstelle von P , denn für alle z ∈ C gilt z k = z k (allgemein gilt z z 0 = z z 0 , selbst nachrechnen!) und damit im Fall reeller Koeffizienten bk z k = bk z k , also P (z) = P (z). Letztere Eigenschaft vererbt sich auf Funktionen, die durch absolut konvergente Potenzreihen mit reellen Koeffizienten definiert werden, wie zum Beispiel die komplexe Exponentialfunktion: ez̄ = ez , siehe 6.9b. Wenn a eine reelle oder komplexe Nullstelle eines beliebigen Polynoms P vom Grad m ≥ 1 ist, so kann man P (x) ohne Rest mindestens durch den linearen Faktor (x − a) teilen. Man erhält P (x) = (x−a) P̃ (x) mit einem Polynom P̃ vom Grad Grad(P̃ ) = Grad(P )−1, also eine Reduktion des Grades um eins. Nach dem Fundamentalsatz der Algebra hat jedes Polynom vom Grad m ≥ 1 mindestens eine Nullstelle in C (und höchstens m verschiedene). Die Abspaltung eines Linearfaktors kann auf P (x), RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 86 ggf. dann auf P̃ u.s.w. angewandt werden. Deshalb läßt sich ein Polynom im Komplexen immer vollständig in Linearfaktoren (x − aj ) zerlegen: P (x) = bm (x − a1 )k1 (x − a2 )k2 . . . (x − ar )kr , ai ∈ C, k1 + k2 + . . . + kr = m. Sind die Nullstellen aj paarweise verschieden (d.h. alle Linearfaktoren zu einer Nullstelle sind zusammengefaßt), so heißen die Exponenten kj die Multiplizitäten“ oder ” Vielfachheiten“ der Nullstellen aj . Ist kj = 1, so heißt die Nullstelle aj einfach“, bei kj ≥ 2 ” ” mehrfach“ (oder auch entartet“). Wenn a` und aj = a` 6= a` ein konjugiert komplexes Paar von ” ” Nullstellen eines reellen Polynoms bilden, dann sind auch die Multiplizitäten gleich: kj = k` . Im rein reellen Fall können neben den Linearfaktoren (x − aj ) zu reellen Nullstellen aj ∈ R auch irreduzible quadratische Faktoren (x2 + px + q) = (x + p/2)2 + q − p2 /4 mit p, q ∈ R, p2 < 4q und negativer Diskriminante p2 − 4q auftreten. Sie haben keine reellen Nullstellen sondern ein konjugiert komplexes Paar. In komplexer Schreibweise mit a = Re a + i Im a, Im a 6= 0 haben wir (x−a) (x−a) = x−2x Re a+|a|2 = (x−Re a)2 +(Im a)2 > 0 für alle x ∈ R . Die allgemeine Zerlegung eines reellen Polynoms in reelle Faktoren, die Faktorisierung oder Faktorzerlegung, lautet dann bei paarweise verschiedenen Nullstellen aj ∈ R : P (x) = bm (x − a1 )k1 (x − a2 )k2 . . . (x − as )ks (x2 + p1 x + q1 )`1 . . . (x2 + pt x + qt )`t , kj ∈ N ist die Vielfachheit der Nullstelle aj ∈ R, k1 + k2 + . . . + ks + 2`1 + . . . + 2`t = m. Für großen Grad m ist die Bestimmung der Nullstellen und der Produktform oft schwierig, evtl. kann ein Computeralgebra-System helfen. Kennt man eine Nullstelle a (Raten, Hinweis aus Skizze, evtl. vom Rechner geliefert, Symmetrie, . . . ), so kann man P (mindestens) durch (x − a) dividieren und damit den Grad reduzieren. Quadratische Polynome können durch explizite Formeln immer analysiert werden, ebenso spezielle Fälle von Polynomen höherer Ordnung, z.B. biquadratische Gleichungen (quadratische Gleichungen in x2 ). Ein weiteres Verfahren zur Bestimmung von Zerlegungen lernen wir in 6.12 kennen. 6.1c Differentiation und Integration von Polynomen Wie aus der Schule bekannt ist, sind Polynome für alle x ∈ R beliebig oft stetig differenzierbar und es gilt für die Ableitung von P (x) = m X bk xk = b0 + b1 x + . . . + bm xm , bm 6= 0, m ≥ 1, k=0 m X d P (x) ≡ P 0 (x) = k bk xk−1 = b1 + 2b2 x + . . . + m bm xm−1 . dx k=1 Die Ableitung ist wieder ein Polynom und der Grad verringert sich um eins. Bei m = 0, P (x) = b0 , gilt P 0 (x) ≡ 0 und bei m = 1 gilt P 0 (x) = b1 , ein konstantes Polynom vom Grad 0. Für alle höheren Ableitungen: µ ¶2 µ ¶ d d2 d d 00 P (x) ≡ 2 P (x) ≡ P (x) := P (x) = 2b2 +3·2 b3 x+. . .+m(m−1)bm xm−2 , dx dx dx dx dm dn (m) P (x) ≡ P (x) = m! b , P (x) ≡ P (n) (x) ≡ 0 für n > m. m dxm dxn Umgekehrt erhöht sich der Grad um eins bei der Integration, der Bestimmung von Stammfunktionen: Q(x) = m X b1 bm bk xk+1 + c = b0 x + x2 + . . . + xm+1 + c, k+1 2 m+1 c ∈ R, k=0 RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 87 0 erfüllt für R jedes c ∈ R die Gleichung Q (x) = P (x), ist also eine Stammfunktion zu P . Wir bezeichnen mit P (x) dx die Menge aller Stammfunktionen zu P : Z P (x) dx = {Q(x) | c ∈ R}. 6.1d Approximierbarkeit durch Polynome, der Satz von Weierstraß Polynome sind einfach und sie können zur Approximation komplizierter Funktionen benutzt werden, z.B. die lineare Approximation durch ein Polynom vom Grad ≤ 1 für |x − x0 | klein, oder die quadratische Approximation (siehe z.B. A). Der Satz von Weierstraß besagt, daß auf einem abgeschlossenen beschränkten Intervall [a, b] ⊆ R eine stetige Funktion f sogar beliebig gut durch ein Polynom approximiert werden kann: Zu jeder Fehlergrenze ε > 0 (beliebig klein!) gibt es ein Polynom P(ε) , so daß |f (x) − P(ε) (x)| < ε für alle x ∈ [a, b]. Für differenzierbare Funktionen f lernen wir später ein konstruktives Verfahren zur Bestimmung eines P(ε) , des Taylorpolynoms, kennen. Bei Verringerung der Fehlertoleranz ε > 0 sind i.a. immer höhere Potenzen erforderlich (ein höherer Grad von P(ε) ). 6.2 Anwendung: komplexe Eigenwerte und Eigenvektoren Das charakteristische Polynom (vgl. 4.1) einer reellen (nicht symmetrischen) Matrix kann irreduzible Anteile haben, dann treten Paare konjugiert komplexer Eigenwerte auf. Wir geben hier ein typisches Beispiel an, das uns später bei Schwingungsproblemen wieder begegnen wird. Die Matrix A sei gegeben durch µ ¶ a b A= , a, b ∈ R. −b a Das charakteristische Polynom ist P (λ) = (a − λ)2 + b2 . Für b 6= 0 hat P (λ) die beiden zueinander konjugiert komplexen einfachen Nullstellen λ1 = a + ib, λ2 = a − ib, P (λ) = (λ − λ1 ) (λ − λ2 ) = |λ − λ1 |2 . Also hat die Matrix komplexe, nicht reelle Eigenwerte. Die Eigenvektoren sind dann auch komplex, wir berechnen sie am Beispiel a = 1, b = 3, also λ1,2 = 1 ± 3i. Dazu ist das folgende lineare Gleichungssystem zu lösen, die Komponenten des Vektors z sind i.a. komplexe Zahlen: ·µ ¶ µ ¶¸ µ ¶µ ¶ µ ¶ 1 3 1 + 3i 0 −3i 3 z1 z1 ! 0 = [ A − λ1 1 ]z = − z= , ∈ C2 . −3 1 0 1 + 3i −3 −3i z2 z2 Die erste Gleichung −3iz1 + 3z2 = 0 wird z.B. von z1 = 1, z2 = i gelöst, die zweite Gleichung ist das i-fache der ersten. Der zu z konjugiert komplexe Vektor z = (z1 , z2 )tr ist dann automatisch ein Eigenvektor zum Eigenwert λ2 = λ1 : µ ¶µ ¶ µ ¶ µ ¶µ ¶ µ ¶ 1 3 1 1 1 3 1 1 = (1 + 3i) , = (1 − 3i) . −3 1 i i −3 1 −i −i 6.3 Intermezzo: Ableitungsregeln Eine Funktion f heißt im Punkt x (ihres Definitionsbereiches) differenzierbar, wenn der Grenzwert 1 d f (x) ≡ f 0 (x) := lim (f (x + h) − f (x)) h→0 h dx existiert. Anschaulich beschreibt f 0 (x) die Steigung des Graphen von f an der Stelle x. f heißt im (offenen) Intervall (a, b) differenzierbar, wenn sie es an jeder Stelle x ∈ (a, b) ist. Häufig ist die RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 88 Ableitung stetig, dann heißt f dort stetig differenzierbar. Wenn die Ableitung wieder differenzierbar ist, dann heißt die Ableitung der Ableitung die zweite Ableitung u.s.w. Mit den Ableitungen bestimmt man die lineare, quadratische u.s.w. Approximation einer differenzierbaren Funktion in der Nähe einer Stelle, siehe A. Seien für (a) − (c) die Funktionen f, g (stetig) differenzierbar auf (a, b). Wir rekapitulieren die schon aus der Schule bekannten Differentiationsregeln. 6.3a Linearität der Ableitung f ± g und α f, α ∈ R (oder C) sind (stetig) differenzierbar auf (a, b) und (f ± g)0 = f 0 ± g 0 , (α f )0 = α · f 0 . 6.3b Produktregel (auch Leibnizregel“) ” f · g ist (stetig) differenzierbar auf (a, b) und (f · g)0 = f 0 · g + f · g 0 . 6.3c Quotientenregel f /g ist auf dem Definitionsbereich {x ∈ (a, b) | g(x) 6= 0} (stetig) differenzierbar und dort gilt (f /g)0 = (f 0 · g − f · g 0 )/g 2 . 6.3d Kettenregel Sei die Komposition der (stetig) differenzierbaren Funktionen f und g definiert, z.B. f (stetig) differenzierbar auf (a, b) mit f (x) ∈ (α, β) für alle x ∈ (a, b) und sei g auf (α, β) (stetig) differenzierbar, dann ist die Komposition (g ◦ f )(x) = g(f (x)) auf (a, b) (stetig) differenzierbar und (g◦f )0 (x) = g 0 (f (x))·f 0 (x). (Im Hinblick auf die Verallgemeinerung der Kettenregel für höhere Dimensionen ist es zweckmäßig, sich die Regel so zu merken, daß die innere Ableitung“ f 0 (x) als ” hinterer Faktor steht.) 6.3e Gliedweise Differentiation absolut konvergenter Potenzreihen Viele wichtige Funktionen sind durch gutartige“ (absolut konvergente) Potenzreihen definiert, das ” sind Grenzwerte von Polynomen mit unendlich vielen Summanden. Das Konvergenzverhalten solcher Reihen behandeln wir später. Wir erwähnen schon hier, daß man naiv“ – P mit diesen Objekten ” k mit positivem b (x − z ) wie mit Polynomen – umgehen kann. Eine Potenzreihe f (x) := ∞ 0 k k=0 Konvergenzradius ( R > 0 oder R = ∞ ) ist für alle x mit |x − z0 | < R absolut konvergent. Dort ist f stetig differenzierbar, und die Ableitungen erhält man durch gliedweises Differenzieren“: ” ∞ X f 0 (x) = bk k (x − z0 )k−1 für alle x ∈ (z0 − R, z0 + R), bzw. x ∈ R falls R = ∞, k=1 entsprechend für höhere Ableitungen. Die Reihen für die Ableitungen sind dort wieder absolut konvergent. 6.3f Bemerkungen zum Betrag Die Betragsfunktion g(x) = |x| ist für alle x 6= 0 stetig differenzierbar mit g 0 (x) = 1 für x > 0 und g 0 (x) = −1 für x < 0. An der Stelle x = 0 ist g nicht differenzierbar, denn der Graph hat dort einen Knick, es gibt keine eindeutige Tangente, siehe Abbildung 5.1. Für eine (stetig) differenzierbare Funktion f ist die zusammengesetzte Funktion g ◦ f, g ◦ f (x) = |f (x)| sicher an allen Stellen differenzierbar, an denen f (x) 6= 0 gilt. An den Nullstellen von f kann die Differenzierbarkeit verlorengehen (z.B. für | sin x|), sie kann aber auch weiterbestehen (z.B. bei |x3 |), es hängt von den Details des Verhaltens von f in der Nähe der Nullstellen ab. RWTH Aachen Mathematik I+II 6 6.4 Grundlegende Funktionen 89 Rationale Funktionen, asymptotische Polynome Rationale Funktionen sind Quotienten von zwei Polynomen (sei j = Grad(Pj ) ) R(x) = Pk (x) , Pm (x) mit Definitionsbereich DR = {x ∈ R | Pm (x) 6= 0}. Im Spezialfall eines konstanten Polynoms im Nenner erhalten wir eine ganz rationale Funktion ein Polynom, das wir oben bereits besprochen haben. Wir behandeln hier nur rationale Funktionen mit reellen Koeffizienten und Argumenten. Außer an den Nullstellen des Nenners sind rationale Funktionen für alle reellen (oder komplexen) Argumente definiert und beliebig oft stetig differenzierbar. Die Ableitung berechnet man leicht mit Hilfe der Quotientenregel 6.3c aus den Ableitungen der Polynome. Falls k ≥ m kann ein asymptotisches Polynom Pk−m durch Polynomdivision mit Rest abgespalten werden, R(x) = Pk (x) Pn (x) = Pk−m (x) + , n < m, Pm (x) Pm (x) z.B. 2x3 4x = 2x − 2 . 2 x +2 x +2 Offenbar gilt Pn (x)/Pm (x) → 0 für |x| → ∞. Eine einfache Verallgemeinerung sind stückweise rationale Funktionen R̃(x), bei denen z.B. Beträge von polynomialen Termen im Zähler und/oder ± Nenner auftreten. Dann kann es zwei asymptotische Polynome Pk−m geben: + lim (R̃(x) − Pk−m (x)) = 0, x→+∞ − lim (R̃(x) − Pk−m (x)) = 0. x→−∞ Da Polynome einfacher sind und bereits zuvor besprochen wurden, brauchen wir nur noch den echten ” Bruch“ zu behandeln: r(x) = p(x) p(x) = q(x) (x − a1 )k1 · · · (x − as )ks (x2 + p1 x + q1 )`1 · · · (x2 + pt x + qt )`t mit Grad(p) < Grad(q) = k1 + . . . + ks + 2`1 + . . . + 2`t = m, ai , pj , qj ∈ R, p2j < 4 qj . Nach 6.1b ist eine solche reelle Zerlegung des Nennerpolynoms immer möglich (ein Vorfaktor kann in den Zähler p einbezogen werden), sie wird im Weiteren als bekannt vorausgesetzt. Der Definitionsbereich ist R \ {a1 , . . . , as }. 6.5 Die reelle Partialbruchzerlegung Rationale Funktionen mit Grad des Zählers kleiner als dem Grad des Nenners lassen sich eindeutig in eine Summe von einfacheren Termen zerlegen. Das erleichtert wesentlich die Anwendung linearer Operationen, z.B. der Integration, auf rationale Funktionen. Ein Faktor der Form (x − a)k (Linearfaktor) im Nenner erfordert k Summanden der Form A1 A2 Ak + + ... + x − a (x − a)2 (x − a)k und jeder irreduzible Faktor der Form (x2 + px + q)` im Nenner erfordert jeweils ` Summanden B2 x + C2 B` x + C` B1 x + C1 + 2 + ... + 2 . 2 2 x + px + q (x + px + q) (x + px + q)` RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.5a 90 Satz über die reelle Partialbruchzerlegung Sei r(x) = p(x) p(x) = q(x) (x − a1 )k1 · · · (x − as )ks (x2 + p1 x + q1 )`1 · · · (x2 + pt x + qt )`t mit Grad(p) < Grad(q) = k1 + . . . + ks + 2`1 + . . . + 2`t = m, ai , pj , qj ∈ R, p2j < 4 qj , die Nullstellen ai ∈ R paarweise verschieden. Dann gibt es eindeutige reelle Koeffizienten (1) (1) (s) (s) (1) (1) (t) (t) A1 , . . . , Ak1 , . . . , A1 , . . . , Aks , B1 , C1 , . . . , B`t , C`t , so daß (1) r(x) = (s) (1) (s) Ak1 Aks A1 A1 + ... + + . . . + + . . . + k x − a1 (x − as ) (x − a1 ) 1 (x − as )ks (1) (1) (t) (t) (1) (1) B x + C`1 B`t x + C`t B1 x + C1 + 2 + . . . + 2 `1 + . . . + . (x + p1 x + q1 ) (x + p1 x + q1 )`1 (x2 + pt x + qt )`t Die Möglichkeiten zur Bestimmung der Koeffizienten erläutern wir in 6.6 an Beispielen. 6.5b Stammfunktionen zu einigen Partialbrüchen Zu einigen Termen, die bei der Partialbruchzerlegung auftreten, können wir mit den elementaren Ableitungsregeln (siehe D.2, 5.5c(ii), 6.1c und 6.3) bereits leicht Stammfunktionen angeben. für k = 1, ln |x − a| + c 1 f (x) = , x 6= a, F (x) = −1 1 (x − a)k +c für k ≥ 2 k − 1 (x − a)k−1 erfüllt F 0 = f für jedes c ∈ R. Entsprechend erhält man mit irreduziblen quadratischen Termen im Nenner, also mit p2 < 4q, für x ∈ R für ` = 1, ln |x2 + px + q| + c 2x + p f (x) = 2 , F (x) = −1 1 (x + px + q)` +c für ` ≥ 2. 2 ` − 1 (x + px + q)`−1 Wie man durch Differentiation leicht verifiziert, gilt auch mit der Funktion g(x) = arctan(x), deren Ableitung g 0 (x) = 1/(1 + x2 ) ist (siehe 7.4b (iii) ), ! à 1 1 x + p/2 + c. f (x) = 2 , F (x) = p arctan p (x + px + q) q − p2 /4 q − p2 /4 Nur die Terme mit konstantem Zähler und einer höheren Potenz eines irreduziblen quadratischen Terms im Nenner sind komplizierter, deren Integrale lernen wir später kennen. 6.6 Bestimmung der Koeffizienten der Partialbruchzerlegung 6.6a Koeffizienten der höchsten Potenzen der Linearfaktoren Dieses auch als Zuhaltemethode bekannte Verfahren erlaubt es, einige der Koeffizienten sehr einfach zu bestimmen. Wenn das Nennerpolynom nur einfache Nullstellen hat (alle Potenzen kj = 1) und RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 91 keine irreduziblen Faktoren, dann liefert diese Methode schon die vollständige Partialbruchzerlegung. Betrachte eine Nullstelle des Nenners aj mit Vielfachheit kj . Multiplikation mit (x − aj )kj ergibt n o (j) r(x) (x − aj )kj = Akj + (x − aj )kj . . . . Einsetzen von x = aj ergibt p(aj ) (j) = Akj , q̃(aj ) wobei das Polynom q̃ aus q durch Weglassen ( Zuhalten“) des Faktors (x − aj )kj entsteht. Das ist ” für alle Nullstellen durchzuführen. (Genaugenommen wird hier die eindeutige stetige Ergänzung der zunächst für x = ai nicht definierten Funktion r(x) (x − ai )ki betrachtet.) (1) (2) Beispiele, zunächst nur einfache Nullstellen (anstelle von A1 , A1 , schreiben wir einfacher A, A0 ): r(x) := 3x + 1 A A0 ! = + . (x − 1) (x + 2) x−1 x+2 Die Nullstelle x = 1 ergibt: (3 · 1 + 1)/(1 + 2) = A, während wir für x = −2 erhalten: (3 · (−2) + 1)/(−2 − 1) = A0 . Also 3x + 1 4/3 5/3 = + . (x − 1) (x + 2) x−1 x+2 r(x) = Die Partialbruchzerlegung ist vollständig bestimmt. Sind mehrfache Nullstellen und/oder irreduzible Faktoren vorhanden, so erhalten wir auf diesem Wege nur ein Teilergebnis: r(x) := A1 A2 −9 Bx + C ! = + . + 2 2 2 2 (x − 1) (x + 2) x − 1 (x − 1) x +2 Zur Bestimmung von A2 wird im Nenner (x−1)2 zugehalten und x = 1 eingesetzt, also (−9)/(12 + 2) = A2 = −3, und wir erhalten r(x) = 6.6b −9 A1 −3 Bx + C = + . + 2 2 2 2 (x − 1) (x + 2) x − 1 (x − 1) x +2 Reduktionen Nachdem alle Koeffizienten zu den Linearfaktoren mit den höchsten Potenzen bestimmt wurden, kann nun der Grad des Nennerpolynoms in r(x) erniedrigt werden. Wir erläutern das Vorgehen am zuletzt behandelten Beispiel. r(x) − −3 −9 −3 −9 + 3(x2 + 2) = − = (x − 1)2 (x − 1)2 (x2 + 2) (x − 1)2 (x − 1)2 (x2 + 2) = 3(x2 − 1) 3(x + 1) (x − 1) 3(x + 1) = = . 2 2 2 2 (x − 1) (x + 2) (x − 1) (x + 2) (x − 1) (x2 + 2) Die Teilbarkeit des neuen Zählers durch (x − aj ), hier durch (x − 1), ist eine gute Rechenkontrolle! Der neue Nenner enthält den Faktor (x − 1)2 nicht mehr. Im resultierenden 3(x + 1) A1 Bx + C ! = + 2 (x − 1) (x2 + 2) x−1 x +2 wird nun A1 = 2 wieder durch Zuhalten bestimmt. Erneute Reduktion führt auf 3(x + 1) 2 −2x + 1 ! Bx + C − = 2 = 2 . 2 (x − 1) (x + 2) x − 1 x +2 x +2 RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 92 Wir können B = −2 und C = 1 ablesen. Die Partialbruchzerlegung ist also 2 3 −9 −2x + 1 = − + 2 . 2 2 2 (x − 1) (x + 2) x − 1 (x − 1) x +2 Durch Zuhalten und Reduktion (evtl. mehrfach abwechselnd) können alle Terme von Nullstellen im Nenner bestimmt werden. Außerdem erhält man die Koeffizienten B und C, wenn höchstens ein irreduzibler Faktor mit der Potenz 1 auftritt, wie wir gerade im Beispiel sahen. Es bleibt nur noch der Fall mit mehreren irreduziblen Faktoren oder höheren Potenzen davon zu behandeln. Bevor man ein Ergebnis anwendet, sollte man nie versäumen, die Probe zu machen!! 6.6c Beispiel für systematischen Koeffizientenvergleich Dieses Verfahren führt immer zum Ziel, der Rechenaufwand ist jedoch meist deutlich geringer, wenn zuvor die Reduktionsschritte durchgeführt werden. Außerdem ist die Rechenkontrolle auf dem Wege sehr nützlich! Deshalb behandeln wir hier nur Beispiele mit irreduziblen Faktoren im Nenner. In allen Fällen multiplizieren wir die Gleichung mit dem Nenner q(x) und erhalten damit eine polynomiale Gleichung. Polynome sind genau dann gleich, wenn alle Koeffizienten (Faktoren vor den Potenzen) gleich sind (siehe 6.1b), deshalb erhalten wir durch Koeffizientenvergleich ein lineares Gleichungssystem. r(x) := Dx + E x3 + 2 ! Bx + C = 2 + 2 2 2 (x + 2) (x + 3) x +2 x +3 ⇐⇒ x3 + 2 = (Bx + C) (x2 + 3) + (Dx + E) (x2 + 2) = (B + D)x3 + (C + E)x2 + (3B + 2D)x + (3C + 2E). Koeffizientenvergleich ergibt das lineare Gleichungssystem 1=B+D 0=C +E 0 = 3B + 2D 2 = 3C + 2E mit der eindeutigen Lösung C = 2 = −E, B = −2, D = 3, also r(x) = x3 + 2 −2x + 2 3x − 2 = 2 + 2 . 2 2 (x + 2) (x + 3) x +2 x +3 Entsprechend, wenn höhere Potenzen irreduzibler Faktoren auftreten: r(x) := x2 B2 x + C2 ! B1 x + C1 = + 2 2 2 2 (x + 1) x +1 (x + 1)2 x2 = (B1 x + C1 ) (x2 + 1) + (B2 x + C2 ) ⇐⇒ ⇐⇒ C1 = 1 = −C2 , B1 = B2 = 0. Man kann allgemein zeigen, daß man bei diesem Verfahren so viele lineare Gleichungen wie Unbekannte erhält und daß dieses Gleichungssystem genau eine Lösung hat. 6.7 Lokale Extrema differenzierbarer Funktionen 6.7a Definition lokaler Extrema Für reellwertiges f : (a, b) → R hat f in xmin ∈ (a, b) ein lokales Minimum, wenn es ein δ > 0 gibt, so daß f (xmin ) ≤ f (x) für alle x ∈ (xmin − δ, xmin + δ); ein lokales Maximum falls f (xmax ) ≥ f (x) für alle x ∈ (xmax − δ, xmax + δ). Die Stelle xmin heißt (lokale) Minimalstelle und xmax heißt Maximalstelle. Lokale Extrema heißen auch relative Extrema. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.7b 93 Bemerkung über lokale und absolute Extrema Bei lokalen Extrema werden nur die Funktionswerte in einer passend gewählten hinreichend kleinen Umgebung der Extremstelle zum Vergleich herangezogen, siehe Abbildung 6.1. Es kann Stellen geben, an denen eine Funktion kleinere Werte als an einem lokalen Minimum annimmt und entsprechend für Maxima. Lokale Extremstellen, auch gemeinsam mit xex bezeichnet, brauchen keine absoluten Extremstellen zu sein. Für die Funktion 4 2 für x > 1 (x − 1) − 2(x − 1) f (x) = 0 für − 1 ≤ x ≤ 1 4 2 −(x + 1) + 2(x + 1) für x < −1 (selbst skizzieren!) sind alle x ∈ (−1, 1) sowohl lokale Minimalstellen als auch Maximalstellen, bei x = −1 und x = 2 liegen lokale Minima, während x = 1 und x = −2 lokale Maximalstellen sind. kein abs. Max. lok. Max lok. Min. 0 absolutes Min. Abbildung 6.1: Extrema 6.7c Abbildung 6.2: Nullstellen der Ableitung Satz über lokale Extrema differenzierbarer Funktionen (i) Notwendige Bedingung: Sei f : (a, b) → R differenzierbar und sei xex ∈ (a, b) eine lokale Extremstelle, dann gilt f 0 (xex ) = 0. Bemerkung: Das Verschwinden der Ableitung ist also dort eine notwendige Bedingung für relative Extremstellen, wo f differenzierbar ist. Die Nullstellen von f 0 , die auch als kritische Punkte bezeichnet werden, sind die Kandidaten für lokale Extremstellen im Differenzierbarkeitsintervall von f , Randpunkte oder Knickstellen (z.B. f (x) = |x| bei x = 0) und andere Stellen, an denen f nicht differenzierbar ist, können weitere Kandidaten sein. Polynome, rationale und trigonometrische Funktionen, die Exponentialfunktion und viele andere sind (auf ihrem Definitionsbereich) beliebig oft differenzierbar. (ii) Ein hinreichendes Kriterium für die Existenz von lokalen Extrema ist das schon aus der Schule bekannte Kriterium: Sei f (mindestens) zweimal bei x0 stetig differenzierbar. Wenn f 0 (x0 ) = 0 und f 00 (x0 ) > 0, dann hat f bei x0 = xmin ein lokales Minimum; wenn f 0 (x0 ) = 0 und f 00 (x0 ) < 0, dann ein lokales Maximum bei x0 = xmax ; die quadratische Approximation (siehe A) g(x) = f (x0 ) + (1/2)f 00 (x0 )(x − x0 )2 ist dann eine nach oben/unten offene Parabel, die das qualitative Verhalten von f nahe x0 beschreibt. Wenn RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 94 auch f 00 (x0 ) = 0, dann ist so noch keine Aussage möglich, dort sind Zusatzbetrachtungen erforderlich, siehe dazu die Beispiele in 6.7d. Beweis von (i): Sei xmin eine lokale Minimalstelle, d.h. f (x) ≥ f (xmin ) für |x − xmin | < δ. ( f (x) − f (xmin ) ≥ 0 für x > xmin , also x − xmin ≤ 0 für x < xmin , f (x) − f (xmin ) f (x) − f (xmin ) ≥ 0, lim ≤ 0. x&xmin x%xmin x − xmin x − xmin Aus der Differenzierbarkeit von f in xmin folgt die Gleichheit beider Grenzwerte, also lim f 0 (xmin ) = lim x&xmin f (x) − f (xmin ) f (x) − f (xmin ) = lim = 0. x%xmin x − xmin x − xmin Entsprechend für lokale Maxima mit entgegengesetzten Vorzeichen. 6.7d 2 Beispiele lokaler Extrema, einige Potenzen f (x) = x3 , f 0 (x) = 3x2 , f 00 (x) = 6x, x ∈ R. Die Funktion f ist als Polynom überall differenzierbar. Einziger Kandidat für eine lokale Extremstelle ist deshalb die einzige Nullstelle der Ableitung f 0 : x = 0, mit f 00 (0) = 0. Hier liegt bei x = 0 kein lokales Extremum, denn f (x) > 0 = f (0) für x > 0 und f (x) < 0 für x < 0, dasselbe für höhere ungerade Potenzen. g(x) = x4 , g 0 (x) = 4x3 , g 00 (x) = 12x2 , x ∈ R. g 0 (x) = 0 ⇔ x = 0, g 00 (0) = 0. Bei x = 0 liegt ein relatives (und sogar absolutes) Minimum vor, denn g(x) > 0 = g(0) für alle x 6= 0, ebenso für höhere gerade Potenzen. Die Beispiele zeigen, daß f 0 (x0 ) = 0 oder f 0 (x0 ) = 0 = f 00 (x0 ) alleine keine Entscheidung über das Vorliegen lokaler Extrema zulassen. Es sind Zusatzbetrachtungen erforderlich, man kann etwa das Vorzeichen der Ableitung auf beiden Seiten von x0 betrachten oder die Funktionswerte dort mit f (x0 ) vergleichen. 6.8 Kurvendiskussionen Aus der Schule und aus den Übungen zur Vorlesung sind zahlreiche Beispiele von Kurvendiskussionen bekannt. Je nach dem Beispiel sind typische Fragen z.B.: Definitionsbereich, Nullstellen, Symmetrie (gerade, ungerade, siehe 5.2), Periodizität, Polstellen, Verhalten an den Rändern des Definitionsbereichs, asymptotische Polynome, lokale Extrema, evtl. Wendepunkte, Wertebereich; immer eine Skizze des Graphen anfertigen. Wir behandeln im Skriptum nur wenige Beispiele exemplarisch, mehr dazu in den Übungen. 6.8a Beispiel: rationale Funktionen und Verwandte Als erstes einfaches Beispiel betrachten wir f (x) = 2x (x + 2) |x + 1| . (x − 1)2 (x + 1) Bei dem Definitionsbereich sind die Nullstellen des Nenners ausgeschlossen, also Df = R \ {−1, 1} = {x ∈ R | x 6= −1, x 6= 1}. Wir können den Ausdruck vereinfachen zu der stückweise rationalen Funktion 2x (x + 2) für x > −1, x 6= 1, (x − 1)2 f (x) = 2x (x + 2) − für x < −1. (x − 1)2 RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 95 Man sieht unmittelbar: Die Funktion f unterscheidet sich von der rationalen Funktion R(x) = 2x (x + 2)/(x − 1)2 nur dadurch, daß für x < −1 der Graph von f an der Abszisse gespiegelt ist, vgl. Abb. 6.3. Die asymptotischen Polynome sind P + (x) = +2 für x → +∞ und P − (x) = −2 für x → −∞. Nullstellen sind bei x = 0 und x = −2. Bei x = 1 ist eine Polstelle zweiter Ordnung. Da 2x (x + 2) in der Nähe positiv ist, folgt, daß f (x) gegen +∞ strebt für x → 1, von beiden Seiten. Die Ableitung von f ist für x > −1 bzw. x < −1: f 0 (x) = ± −8x − 4 (x − 1)3 mit Nullstelle bei x = −1/2 (d.h. nur für x > −1). In der Nähe ist f 0 (x) > 0 (< 0) für x > −1/2 (< −1/2), deshalb liegt dort ein Minimum vor. Als Graph von f erhalten wir Abbildung 6.3. 6 f 5 f 4 3 2 P+ = 2 1 K5 P − = −2 f K1 0 5 x 10 K2 K3 Abbildung 6.3: Graph der stückweise rationalen Funktion f mit Asymptoten P ± = ±2 6.8b Hinweise für die Kurvendiskussion Ausnahmepunkte beachten: Nullstellen von Nennern gehören nicht zum Definitionsbereich. (Allerdings kann es stetige Fortsetzungen mit größerem Definitionsbereich geben wie bei (sin x)/x oder (cos x) (tan x) oder (x2 − 1)/(x + 1) . Sie sind von der ursprünglich gegebenen Funktion zu unterscheiden. Bei Berücksichtigung der Sonderrolle der Nullstellen des Nenners/Singularitäten kann man jedoch die einfachere, z.B. gekürzte“ Fortsetzung, (x − 1) anstelle von (x2 − 1)/(x + 1) für ” x 6= −1 oder sin x anstelle von (cos x) (tan x) für x 6= kπ + π/2, k ∈ Z, diskutieren.) Stellen, an denen die Funktion nicht differenzierbar ist (Nullstellen von Termen in Beträgen oder in Wurzeln daraufhin prüfen!), erfordern bei der Bestimmung von Extrema eine Sonderbehandlung, ebenso Randpunkte des Definitionsbereichs. Komposition von Funktionen: Wenn f (x) = (h ◦ g)(x) = h(g(x)), so ist es oft zweckmäßig, zunächst g zu diskutieren. Die Komposition mit h kann eine (weitere) Einschränkung des Definitionsbereichs bewirken (z.B. bei h = ln oder tan), sie kann den Wertebereich einschränken (z.B. bei h = exp oder cosh), sie kann den Graphen vertikal stauchen“ (z.B. bei h = arctan oder tanh ) ” oder sie kann den Graphen vertikal strecken“ (z.B. bei h = sinh oder artanh). ” Wenn h streng monoton ist, dann liegen die lokalen Extrema von f an denjenigen Stellen, die lokale Extremstellen von g sind, und die im Definitionsbereich von f liegen (möglicherweise weitere an Randpunkten des Definitionsbereichs). Der Übergang von f zur einfacheren Funktion g macht die Diskussion oft übersichtlicher und weniger fehleranfällig. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 96 6.9 Exponentialfunktion 6.9a Definition als Potenzreihe Für beliebige (reelle oder) komplexe Argumente z kann die Exponentialfunktion durch ihre Potenzreihe definiert werden: ez ≡ exp{z} := ∞ X zk k=0 k! =1+z+ z2 z3 z4 + + + ... , 2 6 24 z ∈ C. Man kann zeigen, daß die unendliche Summe ( Reihe“) konvergiert, d.h. daß die endlichen Teilsum” men für jedes feste z ∈ C im Grenzwert von immer mehr Summanden gegen einen eindeutigen Grenzwert streben. (Die Reihe ist sogar sehr robust gegenüber Manipulationen, sie konvergiert ab” solut“ und sie hat Konvergenzradius“ R = ∞.) ” Aus dieser Reihendarstellung kann man die Eigenschaften der Funktion folgern, man kann auch alternativ einige der Eigenschaften als Definition benutzen und z.B. die Reihendarstellung daraus folgern. Wenn die Argumente der Funktion komplex sein dürfen, wird oft z = x + iy ∈ C, x, y ∈ R gebraucht, im häufigen Spezialfall reeller Argumente meist x ∈ R. Für den Graphen der reellen Exponentialfunktion siehe Abb. 0.1. 6.9b Eigenschaften der Exponentialfunktion (1) e0 = 1; (2) die Funktionalgleichung“ ez1 +z2 = ez1 ez2 , z1 , z2 ∈ C; ” ³ z ´n , z ∈ C; (3) die Zinseszinsformel“ ez = lim 1 + ” n→∞ n µ ¶ ∞ 1 P 1 n 1 = lim 1 + = 2, 71828 . . . , (4) die Eulerzahl e = e = n→∞ n k=0 k! (5) die Ableitungsregel d x e = ex , dx e ist irrational; x ∈ R. Die Reihendarstellung 6.9a und die Zinseszinsformel (3) können gleichwertig als Definition benutzt werden, sie sind äquivalent. Die Exponentialfunktion ist die einzige stetige Funktion, die die Funktionalgleichung (2) f (z1 + z2 ) = f (z1 ) f (z2 ) und (4) f (1) = e erfüllt. Die Exponentialfunktion mit reellem Argument, die reelle Exponentialfunktion“, ist die einzige differenzierbare Funktion, die die ” Ableitungsregel (5) f 0 (x) = f (x) und (1) f (0) = 1 erfüllt. Die Ableitungsregel (5) folgt daraus, daß k−1 x k für k ≥ 1, d x = (k − 1)! dx k! 0 für k = 0, die Summanden der Reihe werden lediglich um einen Platz verschoben. [ Gliedweises“ Differenzie” ren ist wie für endliche Summen auch für unendliche Summen, die Potenzreihen, erlaubt, wenn diese absolut konvergent sind.] Weitere nützliche Eigenschaften der Exponentialfunktion: (6) ez 6= 0, denn e−z ez = e0 = 1 ⇐⇒ e−z = 1 , ez z ∈ C; (7) ex ∈ R für x ∈ R, ex ≥ 1 + x ≥ 1 ⇐⇒ 0 < e−x = 1 ≤ 1 für x ≥ 0; ex (8) strenge Monotonie: ex1 < ex2 für x1 , x2 ∈ R, x1 < x2 , denn die Ableitung ist überall positiv; RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 97 (9) ex wächst schneller als jede Potenz von x für x → ∞, denn 1 ex > xn+1 > c xn für x ≥ c (n + 1)!, c > 0, n ∈ N beliebig; (n + 1)! (10) ez = ez denn z n = z n , z ∈ C; (11) (ez )p = epz , z ∈ C, für jede ganze (p ∈ Z) oder reelle (p ∈ R) Potenz p ; ¯ ¯ ¯ ¯2 (12) ¯eiy ¯ = 1, denn ¯eiy ¯ = eiy eiy = e−iy eiy = e0 = 1, y ∈ R. ¯ ¯ Wir sehen später, daß eiy = cos y + i sin y für y ∈ R, damit ist (12) ¯eiy ¯ = 1 äquivalent zu ¯ ¯ cos2 y + sin2 y = 1, y ∈ R. Außerdem folgt daraus |ez | = ¯ex eiy ¯ = ex > 0. Die Eigenschaften (2) und (11) sind die Potenzrechenregeln, für Wurzeln (p = 1/k, k ∈ N) siehe jedoch auch 6.12. 6.10 Logarithmus und reelle Potenzen Die reelle Logarithmusfunktion, der natürliche Logarithmus“ ln, ist die Umkehrfunktion zur reellen ” Exponentialfunktion, der Logarithmus löst die Gleichung y = ex nach x auf“ (mehr dazu siehe auch ” 7.2b). Für den Graphen siehe Abb 0.2. Zu jedem y > 0 gibt es genau ein x ∈ R, so daß y = ex : da ex → ∞ für x → ∞ und ex → 0 für x → −∞, wie aus 6.9b (7) und (9) folgt, nimmt ex alle positiven Werte an, denn es ist stetig (macht keine Sprünge). Also gibt es mindestens ein x ∈ R, so daß y = ex . Daß es auch höchstens eines gibt, folgt aus der strengen Monotonie (8). Damit gilt y = ex , x∈R ln (ex ) = x, ⇐⇒ x ∈ R, ln y = x, eln y = y, y > 0, y > 0. (Statt als Umkehrfunktion zur reellen Exponentialfunktion kann man den natürlichen Logarithmus auch als diejenige Stammfunktion zu 1/x definieren, die ln 1 = 0 erfüllt, beide Definitionen sind gleichwertig, siehe Abb. 0.3.) Aus der Funktionalgleichung für die Exponentialfunktion (2) folgt leicht die Funktionalgleichung für die Logarithmusfunktion ln(x · y) = ln x + ln y für x, y > 0, denn exp{ln(x · y)} = x · y = exp{ln x} · exp{ln y} = exp{ln x + ln y}. Wegen der strengen Monotonie der Exponentialfunktion gilt ea = eb ⇐⇒ a = b. Als Verallgemeinerung der ganzzahligen Potenzen und Wurzeln definiert man (wie schon in D.2 angegeben) für beliebige reelle Exponenten zu positiver Basis x xp := ep·ln x , x > 0, p ∈ R . Für x, y > 0, p, q, r ∈ R folgen aus den Funktionalgleichungen die Regeln der Potenzrechnung xp · y p = (x · y)p , xp+q = xp · xq , (xp )r = xp·r , denn z.B. xp+q = e(p+q) ln x = ep ln x · eq ln x = xp · xq und entsprechend für die anderen Regeln. Hinweis: diese Regeln brauchen nicht mehr für die in einigen Fällen möglichen Fortsetzungen für negative Basis zu gelten, siehe D und 7.2c. Als Potenzfunktion wird oft f (x) = bx := ex·ln b für die Basis b > 0, b 6= 1, x ∈ R bezeichnet, mit der Eulerzahl e als Basis die Exponentialfunktion, siehe D.1 und Abb. 0.4. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.11 98 Sinus und Kosinus, Eulersche Formel, Polarkoordinaten Die Exponentialfunktion und der Logarithmus können auf mehrere verschiedene Weisen eindeutig charakterisiert (definiert) werden, dasselbe trifft auf die trigonometrischen Funktionen zu. Um von der Exponentialfunktion zu den trigonometrischen Funktionen sin und cos zu gelangen, setzen wir in ez ein rein imaginäres Argument z = ix, x ∈ R ein und sortieren nach geraden und ungeraden Potenzen k = 2` bzw. k = 2` + 1, ` ∈ Z (für die absolut konvergente Potenzreihe der Exponentialfunktion ist das erlaubt). Dabei beachten wir, daß für gerade Potenzen von i gilt: i2` = (i2 )` = (−1)` ist reell und entsprechend für ungerade: i2`+1 = i (−1)` ist rein imaginär. Für die Exponentialfunktion von rein imaginärem Argument erhalten wir eix = ∞ X (ix)k k=0 k! = ∞ ∞ X X (−1)` x2` (−1)` x2`+1 +i . (2`)! (2` + 1)! `=0 `=0 Der reelle und zugleich gerade Anteil dieser Funktion ist der Kosinus ∞ X (−1)` x2` cos x = = cos (−x) = Re eix , (2`)! `=0 der ungerade Imaginärteil ist der Sinus sin x = ∞ X (−1)` x2`+1 = − sin (−x) = Im eix . (2` + 1)! `=0 Insbesondere erhalten wir die oben schon erwähnte Eulersche Formel eix = cos x + i sin x. Da eix = e−ix , ergibt die Berechnung des Real- und Imaginärteils einer komplexen Zahl (siehe 5.7g) cos x = ¢ 1 ¡ ix e + e−ix , 2 ¢ 1 ¡ ix e − e−ix . 2i sin x = Aus der Eulerschen Formel folgt auch die bekannte Identität cos2 x + sin2 x = 1 = |eix |2 , also sind cos x und sin x bis auf Vorzeichen die Längen der Katheten in einem rechtwinkligen Dreieck mit Hypothenuse der Länge 1. Daß die hier so eingeführten trigonometrischen Funktionen tatsächlich mit den aus der Schule bekannten Längen im Einheitskreis (vgl. E.1 und Abb. 0.5) übereinstimmen, wenn x den Winkel im Bogenmaß bezeichnet, kann mit den bisher zur Verfügung stehenden Hilfsmitteln noch nicht bewiesen werden. Wegen dieser geometrischen Interpretation bezeichnet man auch oft das Argument als Winkel mit ϕ, also eiϕ = cos ϕ + i sin ϕ etc. Da in der Gaußschen Zahlenebene der Realteil horizontal, entlang der Abszisse abgetragen wird und der Imaginärteil vertikal entlang der Ordinate, ist somit eiϕ ein Punkt auf dem Einheitskreis (da |eiϕ | = 1), der gegenüber der positiven Abszisse den Winkel ϕ (im Bogenmaß) hat. Dies ist zugleich der Winkel ϕ in den üblichen ebenen Polarkoordinaten. Jede komplexe Zahl z ∈ C läßt sich daher schreiben als z = |z| eiϕ . Wegen der 2π-Periodizität der trigonometrischen Funktionen beschreibt z = |z| exp{i(ϕ + k 2π)} dieselbe komplexe Zahl für alle k ∈ Z. Die Multiplikationsregel für komplexe Zahlen (siehe 5.7g und Abb. 5.6) Beträge werden multi” pliziert, Winkel addiert“ ist jetzt unmittelbar einsichtig: 0 0 z z 0 = |z| eiϕ |z 0 | eiϕ = |z| |z 0 | ei(ϕ+ϕ ) = |z| |z 0 | [ cos(ϕ + ϕ0 ) + i sin(ϕ + ϕ0 ) ]. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.12 99 (De) Moivresche Formeln, komplexe Wurzeln Mit obiger Darstellung ergeben sich die (de) Moivreschen Formeln für die n-ten Potenzen von z = |z| eiϕ = |z| [cos ϕ + i sin ϕ] zu z n = |z|n [cos ϕ + i sin ϕ]n = |z|n ei nϕ = |z|n [ cos(n ϕ) + i sin(n ϕ) ]. Damit sieht man sofort, daß es zu z 6= 0 n verschiedene komplexe n-te Wurzeln gibt. Die n komplexen Zahlen p n wk = |z| ei(ϕ+k 2π)/n , k = 0, 1, . . . , n − 1, haben alle die Eigenschaft (wk )n = z. √ 3 z.B. 27 = 3 ei k 2π/3 , k = 0, 1, 2, d.h. " √ # 1 3 w0 = 3, w1 = 3 ei 2π/3 = 3 [cos(2π/3) + i sin(2π/3)] = 3 − + i , 2 2 " √ # 1 3 i 4π/3 w2 = 3 e = 3 [cos(4π/3) + i sin(4π/3)] = 3 − − i = w1 . 2 2 √ n Die n-ten Einheitswurzeln 1 = cos(k 2π/n) + i sin(k 2π/n), k = 0, . . . , n − 1, liegen alle auf dem Einheitskreis (Kreis mit Radius 1 um den Ursprung) in der Gaußschen Zahlenebene und sie unterteilen den Kreis in n gleiche Sektoren. Sie liegen spiegelbildlich zur reellen Achse, sind also reell oder treten in konjugiert komplexen Paaren auf. Bemerkung: Bei komplexen n-ten Wurzeln aus z 6= 0 meint man gewöhnlich die Gesamtheit der n Lösungen w der Gleichung wn = z. Dagegen ist bei der reellen Wurzel einer positiven Zahl a > 0 √ deren n-te Potenz gleich a ist. In diesem Sinne ist die (eindeutige) positive Zahl n a > 0 gemeint, p √ n n oben auch |z| gemeint. (Natürlich ist 0 = 0 immer eindeutig.) 6.13 Eigenschaften trigonometrischer Funktionen Einige (zum Schulstoff gehörende) Eigenschaften von Kosinus, Sinus, Tangens u.s.w. wurden bereits in E aufgeführt, siehe dort und insbesondere die Formelsammlungen für eine Fülle weiterer Identitäten, die das Arbeiten mit trigonometrischen Funktionen in der Praxis außerordentlich erleichtern! Wir begründen hier exemplarisch einige Eigenschaften, die anderen können entsprechend hergeleitet werden. 6.13a Ableitungen trigonometrischer Funktionen Da die Potenzreihen für Kosinus und Sinus für alle x ∈ R absolut konvergent sind, dürfen wir wieder gliedweise“ differenzieren. ” d x2`+1 (2` + 1)x2` x2` (−1)` = (−1)` = (−1)` , dx (2` + 1)! (2` + 1)! (2`)! damit folgt für die Ableitung ∞ ∞ X d X x2`+1 x2` d sin x = (−1)` = (−1)` = cos x. dx dx (2` + 1)! (2`)! `=0 `=0 Entsprechend folgt d d cos x = dx dx RWTH Aachen ½ ¾ ½ ¾ x2 x4 x6 x3 x5 1− + − + ... = − x − + . . . = − sin x. 2 4! 6! 3! 5! Mathematik I+II 6 Grundlegende Funktionen 100 Mit der Quotientenregel der Differentiation und Identitäten gilt: d d sin x cos2 x + sin2 x 1 π tan x = = = = 1 + tan2 x > 0, x 6= + kπ, k ∈ Z, 2 2 dx dx cos x cos x cos x 2 d cos x sin2 x + cos2 x d −1 cot x = =− = = −(1 + cot2 x) < 0, x 6= kπ, k ∈ Z. 2 dx dx sin x sin x sin2 x Für die Graphen von Tangens und Kotangens siehe Abb. 6.4 und 6.5. Abbildung 6.4: Die Tangensfunktion 6.13b Abbildung 6.5: Die Funktion Kotangens Additionstheoreme für trigonometrische Funktionen Aus der Funktionalgleichung der Exponentialfunktion: exp(z1 + z2 ) = (exp z1 )(exp z2 ), exp(2z) = (exp z)2 u.s.w. folgen analoge (etwas kompliziertere) Identitäten für die trigonometrischen Funktionen, z.B. sin(x ± u) = sin x cos u ± cos x sin u , cos(x ± u) = cos x cos u ∓ sin x sin u , tan x ± tan u , 1 ∓ tan x tan u oder Zusammenhänge zwischen Potenzen trigonometrischer Funktionen und Funktionen des mehrfachen Arguments wie tan(x ± u) = 1 cos2 x = (1 + cos 2x), 2 1 sin2 x = (1 − cos 2x), 2 sin 2x = 2 sin x cos x, cos 2x = cos2 x − sin2 x. Wir beweisen exemplarisch die erste Identität: 4i{sin x cos u + cos x sin u} = (eix − e−ix )(eiu + e−iu ) + (eix + e−ix )(eiu − e−iu ) = ei(x+u) + ei(x−u) − e−i(x−u) − e−i(x+u) + ei(x+u) − ei(x−u) + e−i(x−u) − e−i(x+u) = 2(ei(x+u) − e−i(x+u) ) = 4i sin(x + u). Das zweite Additionstheorem folgt z.B. durch Ableiten des ersten nach x, u.s.w. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.13c 101 Skalarprodukt und Winkel zwischen Vektoren in der Ebene Seien a, b ∈ R2 Vektoren in der Ebene, die mit der positiven Abszisse die Winkel ψa bzw. ψb einschließen, also µ ¶ µ µ ¶ µ ¶ ¶ a1 cos ψa b1 cos ψb a= = |a| , b= = |b| . a2 sin ψa b2 sin ψb Dann gilt für das Skalarprodukt (siehe 1.5) a · b = a1 b1 + a2 b2 mit dem zweiten der oben angegebenen Additionstheoreme: a · b = |a| |b| (cos ψa cos ψb + sin ψa sin ψb ) = |a| |b| cos(ψa − ψb ) = |a| |b| cos ϑ. Der Winkel ϑ = ψa − ψb ist der zwischen den beiden Vektoren eingeschlossene Winkel, passend zu dem in 1.8a eingeführten Winkel zwischen Vektoren. 6.13d Beispiel Kurvendiskussion: gedämpfte Schwingungen µ ¶ 1 f (x) = e−x/10 cos x + sin x , 10 0 f (x) = −1, 01 e −x/10 sin x, x ∈ R, R ist der Definitionsbereich von f. 00 f (x) = −1, 01 e −x/10 µ ¶ 1 cos x − sin x . 10 Nullstellen: Da e−x > 0 für alle x ∈ R gilt f (x) = 0 ⇔ 10 cos x = − sin x ⇔ tan x = −10 ⇔ x ≈ 1, 67 + k π, k ∈ Z. |f (x)| ≤ e−x/10 (| cos x| + | sin x|/10) ≤ 1, 1 e−x/10 → 0 für x → ∞, also limx→∞ f (x) = 0. Für x → −∞ existiert kein Grenzwert, denn f (−k 20π) = e2π k wächst unbeschränkt während f (π − k 20π) = −e−π/10 e2π k unbeschränkt fällt. f (x) π 2π 4π 6π Abbildung 6.6: Gedämpfte Schwingung Kandidaten für Extremstellen: f ist als Summe und Produkt aus trigonometrischen Funktionen und der Exponentialfunktion auf ganz R differenzierbar. f 0 (x) = 0 ⇔ sin x = 0 ⇔ x = kπ, k ∈ Z. Zwischen zwei Nullstellen gibt es also jeweils genau einen Kandidaten für eine Extremstelle. Wenn f (kπ) = e−kπ/10 cos(kπ) > 0 ⇔ k gerade, so muß ein Maximum vorliegen, für f (kπ) < 0 ⇔ k ungerade ein Minimum. Alternative Begründung: ( < 0 für k gerade (Max), f 00 (kπ) = −1, 01 e−kπ/10 cos (kπ) = −1, 01 e−kπ/10 (−1)k > 0 für k ungerade (Min). Für den Graphen von f siehe Abbildung 6.6. RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 6.14 102 Hyperbelfunktionen Die Funktionen Kosinus hyperbolicus und Sinus hyperbolicus werden als gerader bzw. ungerader Teil (siehe 5.2) der reellen Exponentialfunktion oder (äquivalent) durch ihre Potenzreihen definiert, die nur die geraden bzw. ungeraden Potenzen der Exponentialreihe enthalten. Für die Graphen siehe Abb. 6.7 und 6.8. ∞ ¢ X x2` 1¡ x 1 1 cosh x := e + e−x = = 1 + x2 + x4 . . . = cosh(−x) ≥ 1, 2 (2`)! 2 24 x ∈ R, `=0 ∞ sinh x := ¢ X x2`+1 1¡ x 1 1 5 e − e−x = = x + x3 + x . . . = − sinh(−x) , 2 (2` + 1)! 6 120 x ∈ R. `=0 Offenbar gilt die Identität cosh2 x − sinh2 x = i 1 1h x (e + e−x )2 − (ex − e−x )2 = 4 ex e−x = 1. 4 4 Deshalb beschreibt die Punktmenge in der Ebene ½µ ¶ µ ¶ ¯ ¾ ± cosh x ¯ x1 = eine Hyperbel, daher der Name. ¯x∈R x2 sinh x Für beide Darstellungen – durch die Exponentialfunktion oder als Potenzreihe – erhält man leicht, 1 1 2 1 2 cosh x e−x 1 2 1 0 ex ex sinh x 0 1 − 12 e−x 1 Abbildung 6.7: Kosinus hyperbolicus Abbildung 6.8: Sinus hyperbolicus daß d cosh x/dx = sinh x und d sinh x/dx = cosh x (kein Vorzeichenwechsel!) gilt (selbst nachrechnen!). Es gelten ähnliche Additionstheoreme wie für trigonometrische Funktionen, siehe Formelsammlung. Der Graph des Kosinus hyperbolicus wird auch als Kettenlinie“ bezeichnet, er modelliert frei ” hängende flexible Ketten oder schwach gebogene Drähte konstanter Dicke, z.B. Hochspannungsleitungen. Für die Quotienten von Sinus hyperbolicus und Kosinus hyperbolicus gilt tanh = sinh : R → (−1, 1), denn | sinh x| < cosh x, cosh tanh(−x) = − tanh(x), coth = cosh : R \ {0} → R \ [−1, 1], sinh coth(−x) = − coth(x), RWTH Aachen Mathematik I+II 6 Grundlegende Funktionen 103 siehe Abb. 6.9 und 6.10 für die Graphen. Sie sind streng monoton steigend bzw. fallend mit Ableitungen: d d sinh x cosh2 x − sinh2 x 1 tanh x = = = = 1 − tanh2 x > 0, 2 dx dx cosh x cosh x cosh2 x d d cosh x sinh2 x − cosh2 x −1 coth x = = = = 1 − coth2 x < 0, 2 2 dx dx sinh x sinh x sinh x Abbildung 6.9: Tangens hyperbolicus RWTH Aachen x ∈ R, x 6= 0. Abbildung 6.10: Kotangens hyperbolicus Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 7 104 Mittelwertsatz, Umkehrfunktionen Ein sehr nützlicher Satz der Differentialrechnung ist der Mittelwertsatz, der Änderungen der Funktionswerte einer Funktion f mit den – meist leichter zu kontrollierenden – Eigenschaften der Ableitung f 0 verbindet. 7.1 Der Mittelwertsatz und erste Anwendungen f f f(b) S f(a) f(b) S f(a) a xz a xz b xz b Abbildung 7.1: Mittelwertsatz, Sekanten- und Tangentensteigungen 7.1a Der Mittelwertsatz Für a < b sei f : [a, b] → R stetig und auf (a, b) differenzierbar. Dann gibt es (mindestens) eine Zwischenstelle xz ∈ (a, b) mit f (b) − f (a) = f 0 (xz ) b−a ⇐⇒ f (b) = f (a) + f 0 (xz ) (b − a). Dieser wichtige Satz besagt, daß die mittlere Steigung in einem Intervall (die Steigung der Sekanten S) auch die Steigung des Graphen (Tangentensteigung) an mindestens einer Zwischenstelle xz im Inneren des Intervalls ist. Die Zwischenstelle zwischen a und b kann auch geschrieben werden als xz = a + θ(b − a), θ ∈ (0, 1). Diese (etwas kompliziertere) Schreibweise hat den Vorteil, daß sie für a 6= b nicht davon abhängt, ob a < b oder umgekehrt. Eine gleichwertige Formulierung des Mittelwertsatzes lautet damit: f (b) = f (a) + f 0 (a + θ(b − a)) (b − a), für ein θ ∈ (0, 1). Eine weitere äquivalente Fassung des Mittelwertsatzes, die auch seinen Namen erklärt, werden wir später mit dem Hauptsatz der Differential- und Integralrechnung angeben, und eine Verfeinerung mit höheren Ableitungen lernen wir im Kapitel über die Taylorapproximation kennen. Eine häufig gebrauchte Abkürzung ist MWS. Wir verzichten auf einen Beweis dieser anschaulich evidenten Aussage, vgl. die Abbildung 7.1. √ Für die Behandlung von Funktionen wie | sin x| oder x, x ≥ 0, ist es wichtig, zu wissen, daß die Ableitung in den Randpunkten nicht zu existieren braucht, dort genügt die Stetigkeit. In der rechten der Abbildungen ist die Funktion am linken Rand nicht differenzierbar, sie hat dort eine vertikale Tangente (Wurzelfunktion). RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 7.1b 105 Monotone Funktionen Als erste Anwendung des Mittelwertsatzes schließen wir aus dem Vorzeichen der Ableitung, daß die Funktion wächst oder fällt. Sei f : [a, b] → R stetig und in (a, b) differenzierbar mit f 0 (x) > 0 für x ∈ (a, b), dann ist f im abgeschlossenen Intervall [a, b] streng monoton steigend, denn für a ≤ x0 < x1 ≤ b gilt mit xz ∈ (x0 , x1 ) ⊆ (a, b) f (x1 ) = f (x0 ) + f 0 (xz ) (x1 − x0 ) > f (x1 ). | {z } | {z } >0 >0 (Die strikte Ungleichung gilt auch, wenn z.B. f 0 (x0 ) = 0, da x0 < xz < x1 !) Entsprechend streng monoton fallend solange f 0 (x) < 0. Genauso zeigt man die Monotonie (vielleicht nicht strenge Monotonie) solange f 0 (x) ≥ 0 oder f 0 (x) ≤ 0. Diese früher schon anschaulich benutzte Eigenschaft ist damit bewiesen. Zu streng monotonen Funktionen gibt es Umkehrfunktionen, siehe 7.2. Insbesondere ist f (x) = ex mit f 0 (x) = ex > 0 für alle x ∈ R streng monoton steigend und ebenso g(x) = ln x mit g 0 (x) = 1/x > 0 für alle x > 0. Weitere streng monoton steigende Funktionen sind damit z.B. tan auf dem Definitionsbereich R \ {kπ + π/2 | k ∈ Z} , sinh, tanh auf R , sowie cosh für x ≥ 0 (und damit auch ihre Umkehrfunktionen, siehe 7.2). Streng monoton fallend sind z.B. cot für x 6= kπ, k ∈ Z, coth für x 6= 0 und cosh für x ≤ 0. 7.1c Hinreichende Bedingungen für Extrema Wir begründen jetzt die bereits in 6.7c (ii) mitgeteilten und aus der Schule bekannten hinreichenden Bedingungen für Extrema. Sei z.B. f 0 (x0 ) = 0, f 00 (x0 ) > 0, stetig, dann ist auch f 00 (x) > 0 für x nahe x0 und die Funktion f 0 ist nahe x0 streng monoton wachsend, d.h. f 0 (x) > 0 für x > x0 und f 0 (x) < 0 für x < x0 . Daraus folgt in der Nähe von x0 , daß f streng monoton wachsend ist für x > x0 und streng monoton fallend für x < x0 , also f (x) > f (x0 ) sowohl für x > x0 als auch für x < x0 . Somit liegt ein lokales Minimum bei x0 = xmin vor. Analog für Maxima, falls f 00 (x0 ) < 0. 2 7.2 Umkehrfunktionen 7.2a Satz über die Existenz der Umkehrfunktion Sei die reellwertige Funktion f : [a, b] → [α, β] stetig und streng monoton steigend, d.h. f (x1 ) < f (x2 ) für alle x1 , x2 mit a ≤ x1 < x2 ≤ b, und sei α := minx∈[a, b] f (x) = f (a), β := maxx∈[a, b] f (x) = f (b). Oder sei f streng monoton fallend: f (x1 ) > f (x2 ), α := minx∈[a, b] f (x) = f (b), β := maxx∈[a, b] f (x) = f (a). Dann gibt es eine Umkehrabbildung (oder Umkehrfunktion oder inverse Abbildung) f −1 : [α, β] → [a, b], f −1 (y) = x ⇐⇒ y = f (x), f −1 ( f (x) ) = x für x ∈ [a, b], f ( f −1 (y) ) = y für y ∈ [α, β], durch die Bedingung y = f (x) ist x eindeutig festgelegt. Die Umkehrfunktion f −1 ist stetig und streng monoton wachsend bzw. fallend, ebenso wie f . Entsprechende Aussagen gelten für (halb)offene sowie unbeschränkte Intervalle (R oder Halbachsen wie [0, ∞]). Daß jeder Funktionswert y ∈ [α, β] für ein x ∈ [a, b] angenommen wird, folgt aus der angenommenen Stetigkeit von f , die Funktion überspringt“ keine Funktionswerte, diese Eigenschaft ist ” als Zwischenwertsatz“ für stetige Funktionen bekannt. Andererseits gibt es auch nur höchstens ein ” x ∈ [a, b], das y = f (x) erfüllt, wegen der strengen Monotonie, f (x) 6= f (x̂) für x 6= x̂. Somit gibt es zu jedem y ∈ [α, β] genau ein x ∈ [a, b] mit y = f (x), die Umkehrfunktion ist wirklich eine RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 106 Funktion. Bemerkungen: Mit der Umkehrfunktion wird die Gleichung y = f (x) nach x aufgelöst“. Eine ” bequeme hinreichende Bedingung für die strenge Monotonie wurde für differenzierbare Funktionen in 7.1b angegeben, nämlich eine positive bzw. negative Ableitung. Die Umkehrabbildung ist zu unterscheiden von der Funktion 1/f gemäß (1/f )(x) = 1/f (x) für Argumente x im Definitionsbereich von f mit f (x) 6= 0 (oft als reziproke Funktion oder als Kehrwert bezeichnet). Der Definitionsbereich der Umkehrabbildung hingegen ist die Bildmenge von f. 7.2b Beispiel: Die Logarithmusfunktion als Umkehrfunktion der Exponentialfunktion Die strenge Monotonie der Exponentialfunktion f (x) = ex folgt aus der Positivität der Ableitung f 0 (x) = ex > 0. Für alle x ∈ R ist ex > 0. Jeder positive Wert wird auch tatsächlich erreicht, weil limx→−∞ ex = 0 und limx→∞ ex = ∞. Daher ist (wie bereits in 6.10 angegeben) die Umkehrfunktion ln = exp−1 auf (0, ∞) definiert, stetig und streng monoton steigend (Graph in Abbildung 0.2). Umgekehrt ist natürlich auch die Exponentialfunktion die Umkehrfunktion zur Logarithmusfunktion (z.B. wenn diese zuvor als spezielle Stammfunktion zu 1/x eingeführt wurde). 7.2c Wurzeln √ f : [0, 10] → [0, 100], f (x) = x2 , f −1 : [0, 100] → [0, 10], f −1 (y) = y, denn y = f (x) = √ x2 ⇐⇒ x = f −1 (y) = y, siehe Abb. 7.2. Während gerade Potenzen x2 , x4 , . . . auf eine Halbgerade eingeschränkt werden müssen, um streng monoton zu sein (üblicherweise auf die positive), sind ungerade Potenzen f (x) = x2`+1 , ` ∈ √ N , auf ganz R streng monoton und die Umkehrfunktion, die 2`+1-te Wurzel f −1 (x) = 2`+1 x , x ∈ √ R , ist als Umkehrfunktion ebenfalls auf ganz R definiert, z.B. 5 −32 = −2. Dieser Gebrauch √ von 2`+1 auch für negative Argumente ist zweckmäßig und verbreitet. Andererseits ist die Wur√ zel auch eine spezielle gebrochene Potenz, die für positive Argumente x > 0 auch durch k x = exp{(ln x)/k}, x > 0 definiert wird, beide Ausdrücke stimmen für x > 0 überein. Wir weisen aber nochmals (wie schon in D erläutert) darauf hin, daß für die Definition der Wurzel als Umkehrfunktion der ungeraden ganzzahligen Potenz bei negativen Argumenten die Potenzrechenregeln nicht erfüllt zu sein brauchen! Für den Sprachgebrauch bei komplexen Wurzeln w, wo man die Gesamtheit der Lösungen von n w = z meint, siehe 6.12. 7.2d Graph der Umkehrfunktion Der Übergang von einer Funktion zur Umkehrfunktion entspricht dem Vertauschen von Urbildpunkt, dem Argument der Funktion, mit dem Bildpunkt, dem Funktionswert, also von Abszisse und Ordinate, an denen man Argumente und Werte abträgt. Deshalb erhält man den Graphen der Umkehrfunktion ganz einfach durch Vertauschen der Rollen von Abszisse und Ordinate, also durch eine Spiegelung des Graphen der Funktion an der Winkelhalbierenden y = x. 7.3 Arkus- und Areafunktionen Die Arkusfunktionen sind Umkehrfunktionen zu trigonometrischen Funktionen, mit ihnen wird aus Kathetenlängen (bei sin und cos) oder dem Verhältnis von Kathetenlängen (bei tan und cot) der Winkel im Bogenmaß bestimmt, daher der Name (lateinisch arcus Bogen). Man stellt dem Funktionssymbol arc“ voran, sin → arcsin etc. Die Arkusfunktionen heißen auch zyklometrische Funktionen. Die ” RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen f 107 g f (x) = x2 g −1 f −1 (x) = 1 f −1 0 0 √ x 1 Abbildung 7.2: Graphen von Umkehrfunktionen Areafunktionen sind inverse hyperbolische Funktionen, sie treten u.a. auch bei Flächenberechnungen auf, geschrieben mit ar“, sinh → arsinh etc. ” Die Arkus- und Areafunktionen sind stetig und beliebig oft stetig differenzierbar. Wir beginnen mit den inversen trigonometrischen Funktionen. 7.3a Arkuskosinus und Arkussinus Da die trigonometrischen Funktionen periodisch sind, wird jeder Funktionswert unendlich oft angenommen. Um eine Umkehrfunktion angeben zu können, muß man die Funktion auf ein Intervall einschränken, in dem sie streng monoton ist. Üblicherweise wählt man das Intervall, das die Null enthält oder als linken Randpunkt hat. Der Sinus ist im Intervall [−π/2, π/2] streng monoton steigend, denn die Ableitung ist im Intervall (−π/2, π/2) positiv. (Gemäß dem Mittelwertsatz 7.1a ist die Funktion im abgeschlossenen Intervall – mit Randpunkten – streng monoton steigend, obwohl die Ableitung nur im offenen Intervall positiv ist. In jedem größeren Intervall ist die Funktion nicht mehr monoton, das Intervall ist das maximale Monotonizitätsintervall, das die Null enthält.) Zu der auf dieses Intervall eingeschränkten Funktion f : [−π/2, π/2] → [−1, 1], f (x) = sin x, x ∈ [−π/2, π/2], gibt es dann eine Umkehrfunktion, die mit arcsin (selten auch mit sin−1 ) bezeichnet wird, f −1 = arcsin : [−1, 1] → [−π/2, π/2] mit arcsin(−x) = − arcsin x (ungerade), sin(arcsin x) = x, x ∈ [−1, 1], arcsin(sin x) = x, x ∈ [−π/2, π/2]. Wenn man das benutzte Intervall [−π/2, π/2] besonders betonen möchte, spricht man auch vom Hauptwert des Arkussinus. Siehe Abb. 7.3 für den (an der Winkelhalbierenden gespiegelten) Graphen, bei dem Sinus ist der Abschnitt fett hervorgehoben. Natürlich ist jedes um ein Vielfaches von 2π verschobene Intervall [k 2π − π/2, k 2π + π/2], k ∈ Z, auch ein maximales Intervall, auf dem der Sinus streng monoton steigend ist. Wählt man ein solches aus, wird einfach der Graph der Umkehrfunktion um k 2π nach oben/unten geschoben, man spricht dann anstelle des Hauptwertes von anderen Ästen“ oder Zweigen“ des Arkussinus. In diesem Falle gilt ” ” f : [k 2π − π/2, k 2π + π/2] → [−1, 1], f (x) = sin x, x ∈ [k 2π − π/2, k 2π + π/2], f −1 = k 2π + arcsin : [−1, 1] → [k 2π − π/2, k 2π + π/2] sin(k 2π + arcsin x) = x, x ∈ [−1, 1], RWTH Aachen mit arcsin(sin x) = x, x ∈ [k 2π − π/2, k 2π + π/2]. Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 108 arcsin p/2 5p/2 1 Carcsin 2p sin 3p/2 _ K1 p/2 0 1 p/2 1 sin K1 arcsin _ 0 sin sin 1 3p/2 5p/2 p/2 Abbildung 7.3: Arkussinus, Hauptwert Abbildung 7.4: Arkussinus, um 2π verschobener Ast Der Fall k = 1 ist in Abb. 7.4 skizziert. Beim Kosinus ist die Standardwahl des Intervalls [0, π], auf dem die Funktion streng monoton fallend ist, denn cos0 x = − sin x < 0 für 0 < x < π. Die Funktion f : [0, π] → [−1, 1] hat als Umkehrfunktion den (Hauptwert des) Arkuskosinus tan p arccos tan p/2 1 0 1 1 _ p/2 p/2 tan p tan K1 Abbildung 7.5: Arkuskosinus, Hauptwert arccos : [−1, 1] → [0, π], 0 arctan cos K1 arctan 1 p/2 Abbildung 7.6: Arkustangens, Hauptwert cos(arccos x) = x, −1 ≤ x ≤ 1, arccos(cos x) = x, 0 ≤ x ≤ π. Der Graph ist in Abb. 7.5 gegeben, entsprechend für die um k 2π verschobenen Intervalle. Beachten Sie, daß die Graphen von arcsin und arccos an der Ordinate gespiegelt und um π/2 gegeneinander verschoben sind, z.B. arccos x = arcsin(−x) + π/2. 7.3b Arkustangens und Arkuskotangens Bei der π-periodischen streng monoton wachsenden Tangensfunktion wählt man für den Hauptwert das Intervall (−π/2, π/2), den in Abb. 7.6 fett hervorgehobenen Zweig mit ganz R als Wertebereich. RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 109 Die Umkehrfunktion davon, der (Hauptwert des) Arkustangens, erfüllt arctan : R → (−π/2, π/2), arctan(−x) = − arctan x (ungerade), arctan(tan x) = x, −π/2 < x < π/2, tan(arctan x) = x, x ∈ R. Der Arkustangens ist streng monoton wachsend und hat die horizontalen Geraden auf der Höhe ±π/2 als Asymptoten: lim arctan x = x→∞ π , 2 lim arctan x = x→−∞ −π . 2 Die anderen Äste sind gegenüber dem Hauptwert um Vielfache von π verschoben, da die Tangensfunktion π-periodisch ist, also gilt für ` ∈ Z tan(`π + arctan x) = x, x ∈ R, `π + arctan(tan x) = x, x ∈ (`π − π/2, `π + π/2). Der (Hauptwert des) Arkuskotangens ist die Umkehrfunktion des streng monoton fallenden Kotangens auf dem Intervall (0, π). Bestimmen Sie selbst den Graphen und die Eigenschaften, Asymptoten für x → ±∞, und vergleichen Sie Ihr Ergebnis mit der Formelsammlung! 7.3c Areafunktionen Sehr einfach ist die Bestimmung der Umkehrfunktion des Sinus hyperbolicus, des Areasinus hyperbolicus, denn sinh R → R ist streng monoton steigend [ (sinh x)0 = cosh x ≥ 1, x ∈ R ] und hat alle reellen Zahlen als Wertebereich. arsinh : R → R, sinh(−x) = − sinh x. Der Areasinus hyperbolicus läßt sich – wie alle Areafunktionen, siehe Formelsammlung – durch sinh x 5 cosh x 5 arsinh x 1 1 5 arsinh x arcosh x 1 sinh x –5 0 Abbildung 7.7: Sinus hyperbolicus und Areasinus hyperbolicus 1 5 Abbildung 7.8: Kosinus hyperbolicus und Areakosinus hyperbolicus Logarithmen ausdrücken. 1 y = sinh x = (ex − e−x ) ⇐⇒ 0 = (ex )2 − 2y ex − 1 2 ist eine quadratische Gleichung in ex > 0 mit der (eindeutigen positiven) Lösung RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen p y 2 + 1 > 0 , also ³ ´ p x = arsinh y = ln y + y 2 + 1 , 110 ex = y + y ∈ R. Eine andere Möglichkeit, dies zu verifizieren, besteht darin, den Mittelwertsatz anzuwenden: für y = 0 sind beide Ausdrücke offenbar gleich und man kann berechnen (mit 7.4), daß sie dieselbe Ableitung haben. Dann müssen die Funktionen nach 7.5b übereinstimmen, denn die Ableitung der Differenz ist Null. Die anderen Hyperbelfunktionen können genauso behandelt werden. Die auf positive Argumente eingeschränkte Funktion Kosinus hyperbolicus (Abb. 6.7) cosh : [0, ∞) → [1, ∞) ist streng monoton steigend, da cosh0 x = sinh x > 0 für x ∈ (0, ∞). Mit cosh 0 = 1 und limx→∞ cosh x = ∞ ist die streng monoton steigende Umkehrfunktion Areakosinus hyperbolicus definiert für arcosh : [1, ∞) → [0, ∞), siehe Abb. 7.8. ³ ´ √ Es gilt arcosh x = ln x + x2 − 1 für x ≥ 1, arcosh x ≈ ln 2x für x À 1. artanh x arcoth x 4 1 –1 0 tanh x coth x 1 tanh x –1 0 1 1 4 coth x artanh x Abbildung 7.9: Tangens und Areatangens hyperbolicus arcoth x Abbildung 7.10: Kotangens und Areakotangens hyperbolicus Die Funktion tanh x = sinh x ex − e−x 1 − e−2x e2x − 1 = x = = cosh x e + e−x 1 + e−2x e2x + 1 erfüllt | tanh x| < 1 und limx→±∞ tanh x = ±1 sowie tanh0 x = 1/ cosh2 x = 1 − tanh2 x > 0. Deshalb ist tanh : R → (−1, 1) monoton steigend, die Umkehrfunktion Areatangens hyperbolicus ist auf (−1, 1) definiert (Abb. 7.9) mit µ ¶ 1 1+x artanh : (−1, 1) → R, artanh x = ln . 2 1−x Schließlich gilt für den Kotangens hyperbolicus: coth := cosh 1 = : R \ {0} → (−∞, −1) ∪ (1, ∞) = R \ [−1, 1] sinh tanh RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 111 ist streng monoton fallend auf der rechten und auf der linken Halbgeraden einzeln (Abb. 7.10), insgesamt umkehrbar, mit der Umkehrfunktion µ ¶ 1 x+1 arcoth : R \ [−1, 1] → R \ {0}, arcoth x = ln , |x| > 1. 2 x−1 Zusammengefaßt gilt (skizzieren Sie den Graphen selbst !) ¯ ¯ ( artanh x für |x| < 1, 1 ¯¯ x + 1 ¯¯ f (x) = ln ¯ = 2 x − 1¯ arcoth x für |x| > 1. Für weitere Formeln, auch für die Ableitungen (s.u.) und Skizzen der Funktionsgraphen siehe Formelsammlungen. Sie sollten üben, diese Informationen auch in Belastungssituationen rasch zu finden. Beachten Sie das vertauschte“ qualitative Verhalten von tan und arctan einerseits sowie tanh und ” artanh andererseits! 7.4 Ableitung von Umkehrfunktionen Sei f : [a, b] → [α, β] ⊆ R stetig und in (a, b) stetig differenzierbar mit f 0 (x) > 0 für alle x ∈ (a, b), f (a) = α, f (b) = β [ bzw. f 0 (x) < 0, f (a) = β, f (b) = α ], dann ist die stetige Umkehrfunktion f −1 : [α, β] → [a, b] zu f ebenso wie f streng monoton steigend [ bzw. fallend ] und sie ist auf (α, β) stetig differenzierbar, mit 1 für alle γ ∈ (α, β). (f −1 )0 (γ) = 0 −1 f (f (γ)) 7.4a Erläuterung der Ableitungsregel durch eine Skizze Steigung c/d = 1/s f −1 (γ) c f −1 d γ d c f Steigung s = d/c γ Abbildung 7.11: Steigung bei Spiegelung an der Winkelhalbierenden f −1 (γ) Abbildung 7.12: Ableitung der Umkehrfunktion Den Graphen der Umkehrfunktion erhält man durch Spiegelung an der Winkelhalbierenden. Zu einer Geraden mit Steigung s 6= 0 hat die gespiegelte Gerade als Steigung den Kehrwert 1/s, siehe Abb. 7.11. Also: {Steigung von f −1 bei γ} = 1/{ Steigung von f bei f −1 (γ)} (Abb. 7.12). Das Vorzeichen der Ableitung bleibt dabei gleich, steigend oder fallend zu sein, bleibt bei dem Übergang zur Umkehrfunktion erhalten. Entsprechende Aussagen gelten auch für (halb)offene sowie unbeschränkte Intervalle. Der Beweis der Ableitungsregel erfolgt durch Differentiation von x = f (f −1 (x)) an der Stelle γ mit der Kettenregel: ª d d © d −1 x=1= f (f −1 (x)) = f 0 (f −1 (x)) f (x). dx dx dx RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 7.4b 112 Anwendungsbeispiele Wenn f −1 mit Definitionsbereich Df −1 die Umkehrfunktion zu f mit Df ist, so gilt f (f −1 (x)) = x für alle x ∈ Df −1 und f −1 (f (x)) = x für x ∈ Df . (i) Der Logarithmus als Umkehrfunktion der Exponentialfunktion (siehe 6.10) f (x) = ex , f : R → (0, ∞), f −1 : (0, ∞) → R, f 0 (x) = ex = f (x) > 0. f −1 (x) = ln x, x > 0. Mit f 0 = f erhalten wir als Ableitung des Logarithmus für x > 0: d 1 ln x = (f −1 )0 (x) = 0 −1 dx f (f (x)) 1 f =f 0 = f (f −1 (x)) = 1 , x wie schon aus der Schule (oder C) bekannt ist. Gleichwertig zu unserem Vorgehen hätte man auch den Logarithmus als die Stammfunktion zu 1/x mit ln 1 = 0 definieren können (wie es in manchen Büchern geschieht) und daraus herleiten können, daß die Exponentialfunktion als Umkehrfunktion des so definierten Logarithmus die Gleichung f 0 = f erfüllt. Für die mit dem Logarithmus berechneten Ableitungen allgemeiner Potenzen, z.B. (d/dx) xp = p xp−1 , x > 0, p ∈ R, siehe D.2. Außerdem gilt (ln |x|)0 = 1/x für alle x 6= 0, siehe 5.5c (ii), oder mit der Funktionalgleichung: ln |x| = (1/2) ln x2 . Damit erhalten wir für die Ableitung (ln |x|)0 = (1/2) · (1/x2 ) · 2x = 1/x für alle x 6= 0 (kein Betrag in der Ableitung!). (ii) Der (Hauptwert des) Arkussinus und Arkuskosinus (Abb. 7.3 und 7.5). Der Arkussinus ist in x ∈ (−1, 1) stetig differenzierbar mit d 1 arcsin x = √ , |x| < 1, dx 1 − x2 denn für y ∈ (−π/2, π/2) gilt cos y = | cos y| = p 1 − [sin y]2 > 0 , 1 1 d 1 arcsin x = =p =√ . dx cos(arcsin x) 1 − x2 1 − [sin (arcsin x)]2 √ Anders herum gelesen: Für |x| < 1 ist arcsin eine Stammfunktion zu 1/ 1 − x2 . Dasselbe gilt für die um ganzzahlige Vielfache von 2π verschobenen Äste k 2π + arcsin. √ Völlig analog berechnet man (arccos x)0 = −1/ 1 − x2 , was auch aus dem an der Ordinate ” gespiegelten und verschobenen Graphen“ (Ende von 7.3a) folgt. (iii) Der Hauptwert des Arkustangens (Abb. 7.6) und andere Zweige f : (−π/2, π/2) → R , f (x) = tan x, f −1 (x) =: arctan x tan0 y = 1/ cos2 y = 1 + [tan y]2 > 0, d 1 1 1 arctan x = = = , dx tan0 (arctan x) 1 + [tan(arctan x)]2 1 + x2 und dasselbe für die um ganzzahlige Vielfache von π verschobenen Zweige. Berechnen Sie selbst die Ableitung des arccot und vergleichen Sie Ihr Ergebnis mit der Formelsammlung! (iv) Genauso behandelt man auch die in Abschnitt 7.3c eingeführten inversen hyperbolischen Funktionen, die Areafunktionen, siehe die Formelsammlung für die Ableitungen. Statt die Regel für RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 113 die Ableitung der Umkehrfunktion anzuwenden, ist es jedoch meist einfacher, den Ausdruck mit den Logarithmen zu differenzieren, z.B. ¯ ¯ ( artanh x für |x| < 1, 1 ¯¯ x + 1 ¯¯ = f (x) = ln ¯ ¯ 2 x−1 arcoth x für |x| > 1, µ ¶ 1 1 1 1 0 f (x) = = − für |x| = 6 1 (Partialbruchzerlegung!). 1 − x2 2 x+1 x−1 (Nicht verwechseln mit arctan0 x = 1/(1 + x2 ) > 0, x ∈ R .) 7.4c Bemerkung zu Ableitungen von Umkehrfunktionen Die Ableitungen von Umkehrabbildungen trigonometrischer und hyperbolischer Funktionen sind einfache rationale Funktionen ±1/(1 ± x2 ) oder Wurzeln daraus. Daher werden uns diese Umkehrfunktionen in der Integrationstheorie als Stammfunktionen begegnen. Die Area- und Arkusfunktionen einschließlich ihrer verschiedenen Äste treten z.B. häufig bei der Lösung von Anfangswertproblemen für gewöhnliche Differentialgleichungen auf. 7.5 Abschätzungen mit Hilfe des MWS 7.5a Ungleichungen für trigonometrische Funktionen Als weitere Anwendungsbeispiele des Mittelwertsatzes beweisen wir die Ungleichungen sin x ≤ x für x ≥ 0 und sin x > x/2 für 0 < x < π/4. h(x) = x − sin x ist differenzierbar auf R, h(0) = 0, h0 (x) = 1 − cos x ≥ 0. Folglich ist h(x) ≥ 0 d.h. sin x ≤ x für x ≥ 0. (Als Alternative zeigen wir 0 < (sin x)/x < 1 für 0 < |x| < π/2 auf folgende Weise: sin x − sin 0 sin x = = cos(θx) ∈ (0, 1). ) x x−0 Für 0 < x < π/4 folgt 0 < θx < π/4 und damit cos(θx) > cos(π/4) = dort (sin x)/x > 1/2, d.h. sin x > x/2. √ 2/2 > 1/2. Also ist Ähnlich zeigt man, daß x < tan x für 0 < x < π/2 und tan x < 2x für 0 < x < π/4. Veranschaulichen Sie sich mit einer Skizze für Winkel x ∈ [0, π/2) im Einheitskreis die einfache geometrische Bedeutung der Ungleichungen sin x ≤ x ≤ tan x ! Für den Arkustangens erhält man so: 0< arctan x < 1 für x 6= 0 ⇐⇒ arctan x < x für x > 0 und arctan x > x für x < 0, x denn (arctan x)/x = 1/(1 + (θx)2 ) ∈ (0, 1). 7.5b Eine Standardabschätzung Später benötigen wir häufig die folgende Abschätzung. Sei f auf (a, b) differenzierbar mit |f 0 (x)| ≤ M für alle x ∈ (a, b). Dann gilt für beliebige x1 , x2 ∈ (a, b) |f (x2 ) − f (x1 )| ≤ M |x2 − x1 |, denn für ein geeignetes xz gilt |f (x2 ) − f (x1 )| = |f 0 (xz ) (x2 − x1 )| = |f 0 (xz )| |x2 − x1 |. Falls f 0 (x) = M = 0, so ist die Funktion konstant. Als Beispiel betrachten wir f (x) = tan x auf dem Intervall [−π/4, π/4 ]. Mit f 0 (x) = 1 + 2 tan (x) folgt dort |f 0 (x)| ≤ 2, also gilt | tan x2 − tan x1 | ≤ 2 |x2 − x1 | RWTH Aachen für alle x1 , x2 ∈ [−π/4, π/4 ]. Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 114 tan x 2x x 1 x 1 sin x x/2 0 π/4 1 π/2 0 π/4 1 π/2 Abbildung 7.13: Abschätzungen für Sinus und Tangens 7.5c Zum Nutzen des Mittelwertsatzes, weitere Abschätzungen In den meisten Anwendungen dieses außerordentlich nützlichen Satzes wird ein Punkt festgehalten, z.B. der linke, x = a. Es ist wichtig, daß f in diesem Randpunkt nur stetig sein muß und nicht differenzierbar zu sein braucht, so darf a z.B. auch eine Knickstelle des Graphen sein oder eine Nullstelle einer Wurzel. Die möglichen Funktionswerte f (x) für x > a werden dann dadurch eingeschränkt, daß die Sekantensteigung als Wert der Ableitung f 0 (x) für x > a vorkommen muß, wie wir schon in den Anwendungen oben benutzt haben. Der Nutzen erschließt sich noch besser bei der Behandlung vieler konkreter Probleme (Übungen!). Eine kleine (nicht erschöpfende!) Liste von Ungleichungen: ¯ ¯ ¯ sin x ¯ ¯ ¯ x 6= 0 auch: | sin x| ≤ 1 ¯ x ¯ < 1, ¯ ¯ ¯ sinh x ¯ ¯, ¯ 1< ¯ x 6= 0 x ¯ ¯ ¯ ¯ ¯ ¯ sinh x ¯ < 2, |x| < 1 ¯ x ¯ ¯ ¯ ¯ arctan x ¯ π ¯ < 1, ¯ x 6= 0 auch: | arctan x| ≤ ¯ ¯ x 2 ¯ ¯ ¯ arctan x ¯ ¯, |x| < 1 1/2 < ¯¯ ¯ x ¯ ¯ ¯ ¯ ¯ tanh x ¯ < 1, x 6= 0 auch: | tanh x| ≤ 1 ¯ x ¯ ln x ≤ x − 1, x>0 ⇐⇒ ln(1 + x) ≤ x, x > −1 Es gibt viele weitere solcher Abschätzungen, die sich, wie die linke Spalte, leicht mit dem Mittelwertsatz bestätigen lassen. 7.6 Die Regeln von de l’Hospital 7.6a Vorbemerkungen, die einfachen Grenzwertsätze Zunächst fassen wir einige unmittelbar einleuchtende Grenzwertregeln zusammen, eine genauere Begründung werden wir für eine analoge Situation im Abschnitt über Folgen geben. Für (z.B. stetige) RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 115 Funktionen gelte lim f (x) = c, x→x0 lim g(x) = d, lim h(x) = ∞. x→x0 x→x0 Dann folgt für die Grenzwerte von Summen, Produkten und Quotienten z.B. lim {f (x) ± g(x)} = c ± d, x→x0 lim {f (x) g(x)} = c d, x→x0 lim f (x) c = g(x) d lim f (x) = ∞ falls c > 0, d = 0, g(x) > 0 für x ≈ x0 , etc. g(x) x→x0 x→x0 falls d 6= 0, lim {g(x) h(x)} = ∞ falls d > 0, x→x0 Als Anwendung des Mittelwertsatzes erhalten wir ein einfaches Verfahren zur Bestimmung von Grenzwerten der Produkte oder Quotienten von Funktionen in Fällen, die von diesen Grenzwertsätzen nicht erfaßt werden. Hier interessieren uns Fälle der Art (sin x)/x, x ln x oder cot x − 1/x für x → 0, wenn also im Grenzwert unbestimmte Ausdrücke wie 0/0“, 0 · ∞“ oder ∞ − ∞“ etc. ” ” ” auftreten. Ob in solchen Fällen ein Grenzwert existiert, hängt anschaulich von den Konvergenzge” schwindigkeiten“ der Funktionen gegen ihre Grenzwerte ab. 7.6b Der Satz von de l’Hospital Für a < x0 < b seien f, g : (a, x0 ) ∪ (x0 , b) → R differenzierbar, g 0 (x) 6= 0 und (i) limx→x0 f (x) = 0 = limx→x0 g(x), Fall “0/0”, (ii) limx→x0 f (x) = ∞ = limx→x0 g(x), Fall “∞/∞”. oder Wenn der folgende Grenzwert existiert: lim f 0 (x) =: λ, g 0 (x) dann existiert auch der Grenzwert lim f (x) =λ g(x) und hat denselben Wert. x→x0 x→x0 Für einen Beweis verweisen wir auf die Literatur. 7.6c Verallgemeinerungen des Satzes von de l’Hospital Außer λ ∈ R sind auch verallgemeinerte Grenzwerte ±∞ zulässig. Alle Aussagen gelten sinngemäß auch für links- oder rechtsseitige Grenzwerte x % x0 bzw. x & x0 sowie für x → ±∞. Wenn auch f 0 (x)/g 0 (x) unbestimmt ist, z.B. von der Art “0/0”, dann kann man iterativ den Satz auf die Ableitungen anwenden, also f 00 (x)/g 00 (x) und nötigenfalls noch höhere Ableitungen untersuchen. Andere unbestimmte Ausdrücke wie “00 ” oder “1∞ ” lassen sich oft mit der Exponential- und Logarithmusfunktion auf “0/0” oder “∞/∞” zurückführen, ebenso “∞−∞” durch Zusammenfassen (Hauptnenner), siehe die Beispiele in 7.7. 7.7 7.7a Anwendungen der Regeln von de l’Hospital (sin x)/x, x→0 f (x) = sin x → 0, g(x) = x → 0 für x → 0 (siehe Abb. 7.13), also von der Form “ 0/0 ”. Mit f 0 (x) = cos x, g 0 (x) = 1, folgt f 0 (x)/g 0 (x) = cos x → 1 für x → 0. Somit limx→0 (sin x)/x = 1. RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 7.7b [ ln(1 + x) ]/x, 116 x→0 f (x) = ln(1 + x) → 0 (siehe Abb. 0.2), g(x) = x → 0 für x → 0, f 0 (x) = 1/(1 + x), also f 0 (x)/g 0 (x) = 1/(1 + x) → 1 für x → 0, d.h. limx→0 ln(1 + x)/x = 1. 7.7c [(tan x) − x]/x3 , x→0 f (x) = tan x − x → 0, g(x) = x3 → 0 für x → 0 (siehe Abb. 7.13), also der Fall “0/0”. f 0 (x) = 1 + tan2 x − 1 = tan2 x, g 0 (x) = 3x2 , f 0 (x)/g 0 (x) = (1/3) [(tan x)/x]2 ist immer noch von der Form “0/0”. Wende die Regel erneut an auf (tan x)/x: (1 + tan2 x)/1 → 1 für x → 0, damit f 0 (x)/g 0 (x) → (1/3) [1]2 = 1/3 = limx→0 [(tan x) − x]/x3 . 7.7d ( ln x)/xp , x→∞ ln x → ∞, xp → ∞ für x → ∞, p > 0 (beliebig klein). f 0 (x)/g 0 (x) = [1/x]/p xp−1 = p/xp → 0 für x → ∞. Der Logarithmus steigt für große x langsamer als jede noch so kleine Potenz. Das korrespondiert zu 6.9b (9), warum? 7.7e [ 1/ ln(1 + x) ] − 1/x, x→0 Dieser Ausdruck ist von der Form “∞ − ∞”, er wird durch Zusammenfassen (auf den Hauptnenner bringen) zu “0/0” für x → 0. 1 x − ln(1 + x) f (x) 1 − = = . ln(1 + x) x x ln(1 + x) g(x) · ¸−1 f 0 (x) 1 − 1/(1 + x) 1+x 1 = = ln(1 + x) + 1 → für x → 0, g 0 (x) ln(1 + x) + x/(1 + x) x 2 da nach 7.7b ln(1 + x)/x → 1. Also limx→0 {[ 1/ ln(1 + x) ] − 1/x} = 1/2. 7.7f | tan x|(1/ ln |x|) , x→0 Hier liegt ein Potenzausdruck der Form “ 00 ” vor für x → 0, andere derartige Fälle sind “ 1∞ ” und “ ∞0 ”. Indem man die Basis als Exponentialfunktion von ihrem Logarithmus schreibt, überführt man diese Ausdrücke in die Form “0/0” bzw. “∞/∞” im Exponenten. ½ ¾ ln | tan x| (1/ ln |x|) −−−→ e1 = e, denn | tan x| = exp x→0 ln |x| · ¸ · ¸ ª 1 + tan2 x 1 x © · = 1 + tan2 x −−−→ 1. x→0 tan x 1/x tan x 7.7g Bemerkungen zu “00 ” Im vorigen Beispiel sind die Basis b(x) und der Exponent p(x) beide von x abhängig und beide streben gegen Null. Der Grenzwert hängt dann von den Konvergenzgeschwindigkeiten“ ab. Variiert ” nur die Basis bei festem Exponenten p(x) = 0, z.B. bei (x−z0 )0 = 1 für x 6= z0 , so ist der Grenzwert Eins. Deshalb haben wir bei den ersten Summanden von Potenzreihen mit dem Exponenten 0 immer b0 x0 = b0 bzw. b0 (x − z0 )0 = b0 für alle x einschließlich x = 0 bzw. x = z0 benutzt. Im anderen Grenzfall der konstanten Basis b(x) = 0 wie in g(x) = 0x = 0, x > 0, ist der Grenzwert 0. In anderen Fällen können andere Ergebnisse auftreten, sie sind einzeln wie oben in 7.7f zu behandeln. RWTH Aachen Mathematik I+II 7 Mittelwertsatz, Umkehrfunktionen 117 7.7h Weitere Beispiele, Päckchen packen“ ” Die häufig auftretenden ungeraden Funktionen sin, tan, sinh, tanh, arcsin, arctan, arsinh, artanh etc. haben am Ursprung alle eine Nullstelle und Steigung 1, daher gilt für jede solche Funktion f f (x) x f (2x) = lim = lim = 1 etc. x→0 x x→0 f (x) x→0 2x lim Analog erhält man an periodisch verschobenen Stellen z.B. lim x→kπ sin x cos x = lim = cos(kπ) = (−1)k . x − kπ x→kπ 1 Für Potenzen gilt mit den üblichen Grenzwertsätzen 7.6a (f (x))2 lim = x→x0 (g(x))2 µ f (x) lim x→x0 g(x) ¶2 (f (x))p und allgemeiner lim = x→x0 (g(x))p µ f (x) lim x→x0 g(x) ¶p sofern die Potenz p 6= 0 zulässig ist, z.B. muß für p = 1/2 gelten, daß f (x)/g(x) ≥ 0. Komplizierte Produkte können oft aufgespalten werden zu Produkten von Ausdrücken, deren Grenzwert bekannt oder einfach ist, den Päckchen“, die man packen kann: ” √ √ 3 3 2 sinh x (tan 2x) sinh x 2 (tan 2x)2 x √ = lim 2 = 4. lim √ 3 3 2 4 x→0 x→0 ( x) arctan x (2x) arctan x} x | {z | {z } | {z } →1 7.7i →1 →1 Hilfe von Potenzreihen Bei Kenntnis von Potenzreihen (für viele Funktionen auch in der Formelsammlung zu finden) kann man oft die zu erwartenden Grenzwerte rasch ermitteln, z.B. x − x3 /3! + · · · x2 sin x = =1− + · · · → 1, x x 3! cos x − 1 1 1 − x2 /2 + x4 /4! − · · · − 1 1 x2 + − ··· → − , = = − 2 2 x x 2 4! 2 ex − 1 1 + x + x2 /2 + · · · − 1 x = = 1 + + · · · → 1. x x 2 Die Regeln von de l’Hospital sichern diese Ergebnisse, solche Betrachtungen können als Rechenprobe gute Dienste leisten! RWTH Aachen Mathematik I+II 8 8 Integration stetiger Funktionen 118 Integration stetiger Funktionen Integrale treten in den Anwendungen bei der Berechnung von Mittelwerten (Schwerpunkten), Flächeninhalten, Volumina und integralen“ Gesamteffekten auf. Durch die Gesetze der Mechanik, Ther” modynamik, . . . genügen Bewegungen, Durchbiegungen u.s.w. oft Differentialgleichungen. Deren Lösung erfordert die Integration als Umkehrung der Differentiation. Integrale dienen auch zur Berechnung von Koeffizienten, wenn periodische Funktionen als Fourierreihen dargestellt werden sollen oder durch endliche Summen approximiert. In diesem Kapitel stehen die Methoden und Hilfsmittel zur Berechnung von Integralen im Vordergrund, die meisten Anwendungen folgen später in diesem Kurs sowie in den Ingenieurfächern. 8.1 Vorbemerkungen Wie aus der Schule bekannt ist, können Integrale z.B. als Flächen mit Vorzeichen interpretiert werden, in den Anwendungen treten Integrale jedoch auch mit ganz unterschiedlichen Bedeutungen auf. Wenn nicht ausdrücklich anders gesagt (nur in den Abschnitten 8.13 und 8.14) setzen wir in diesem Kapitel immer voraus, daß f : [a, b] → R stetig ist. Betrachte die Flächenstücke zwischen dem Graphen von f und der Abszisse (x-Achse) sowie den vertikalen Geraden x = a und x = b, siehe Abb. 8.1. x=a f + + 0_ _ x=b Abbildung 8.1: Integraldefinition Das bestimmte Integral der Funktion f von a bis b ist ( Z b Summe der Flächeninhalte über der x-Achse f (x) dx = − Summe der Flächeninhalte unter der x-Achse a also eine Abbildung der Form Z Funktion f : (orientierter) Integrationsbereich M hier: Intervall [a, b], a ≤ b Z 7→ , Z b f (x) dx = a f (x) dx ∈ R. M Die präzise Definition folgt im Abschnitt 8.3a, verschiedene R b Verallgemeinerungen auf höhere Dimension in späteren Kapiteln. Die Berechnung der Zahl a f (x) dx gelingt oft mit dem Hauptsatz der Differential- und Integralrechnung 8.4a. 8.2 Trapezapproximation für das bestimmte Integral Sei a < b, f : [a, b] → R linear, der Graph also ein Stück einer Geraden durch (a, f (a) ) und (b, f (b) ), f (x) = f (a) + [f (b) − f (a)] (x − a)/(b − a). Dann gibt die Zahl Z b f (b) + f (a) f (x) dx := (b − a) 2 a RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 119 die {Fläche oberhalb der Abszisse} — {Fläche unterhalb der Abszisse} an. Wenn f (a) und f (b) dasselbe Vorzeichen haben, ist das Flächenstück ein Trapez (siehe Abb. 8.3), daher der Name. Doch zeigt die Abb. 8.2, daß die Formel für die Flächendifferenz auch im anderen Fall unterschiedlicher Vorzeichen von f (a) und f (b) richtig ist. Der Ausdruck beschreibt den Flächeninhalt (mit Vorzeichen) eines Rechtecks mit Basislänge (b − a) und dem Mittelwert (f (b) + f (a))/2 als Höhe (mit Vorzeichen). f(a) positiv a 0 (f(a)+f(b))/2 b negativ f(b) Abbildung 8.2: Trapezfläche“ ” Abbildung 8.3: Trapezapproximation Für nichtlineare Funktionen kann man den Graphen der Funktion f durch eine stückweise lineare Polygonzugapproximation durch Punkte (a` , f (a` ) ) ersetzen, a = a0 < a1 < . . . < an = b, siehe Abbildung 8.3. Dann erhält man als Trapezapproximation n X (a` − a`−1 ) `=1 f (a` ) + f (a`−1 ) . 2 Bei äquidistanter Stützstellenwahl: a` = a + ` (b − a)/n , a` − a`−1 = (b − a)/n, (n−1 ) n X f (b) + f (a) b − a f (a` ) + f (a`−1 ) b−a X f (a` ) + = . = n 2 n 2 `=1 `=1 b−a = n n X `=1 n f (b) − f (a) f (a) − f (b) b−aX f (a`−1 ) + (b − a) f (a` ) + (b − a) = 2n n 2n `=1 Beispiel: f (x) = sin x, a = 0, b = π/2, n = 2, also a0 = 0, a1 = π/4, a2 = b = π/2, (b − a)/2 = π/4 , Z π/2 1= 0 ½ ³ ´ π sin + 4 ½ ³ ´ π π = sin + 4 4 π sin x dx ≈ 4 ´¾ 1 ³ ³π ´ sin + sin(0) 2 2 √ ¾ 1 π 2+1 = ≈ 0, 95. 2 4 2 Nur ca. 5% Fehler trotz der sehr groben Approximation mit nur einer Zwischen-Stützstelle! Für bessere numerische Approximationen siehe z.B. die Simpsonsche Regel 8.12b und die Literatur. 8.3 Das bestimmte Integral stetiger Funktionen 8.3a Definition des bestimmten Integrals Wir betrachten nun eine Folge von immer feineren Unterteilungen des Intervalls z.B. durch k-maliges Halbieren in n = 2k Teilintervalle gleicher Länge: (n) a` =a+` RWTH Aachen b−a , ` = 0, . . . , n, n (n) a` (n) − a`−1 = b−a → 0 für n → ∞. n Mathematik I+II 8 Integration stetiger Funktionen 120 Die Folge der Trapezapproximationen konvergiert, der Grenzwert definiert das Integral Z b n ³ ´ f ¡a(n) ¢ + f ¡a(n) ¢ X (n) (n) ` `−1 lim a` − a`−1 =: f (x) dx. n→∞ 2 a `=1 8.3b Bemerkungen zur Integraldefinition Man kann leicht beweisen, daß der Grenzwert unabhängig von der Folge immer feinerer Unterteilungen ist. Wichtig ist nur, daß das längste Teilintervall immer kürzer wird. Wählt man nicht wie bei der Trapezapproximation die Mittelwerte der Funktionswerte an den Rändern der Teilinterval£ ¡ (n) ¢ ¡ (n) ¢¤ ¡ (n) ¢ le: f a` + f a`−1 /2 sondern andere Werte wie z.B. rechte Randwerte: f a` , oder linke ¡ (n) ¢ Randwerte: f a`−1 , so erhält man im Grenzwert ebenfalls immer dasselbe Ergebnis, wie die Umrechnungen in 8.2 für äquidistante Stützstellen zeigen. Dasselbe gilt für die ungünstiger erscheinen© £ (n) (n) ¤ª den minimalen Werte: min f (x) | x ∈ a`−1 , a` oder die maximalen Werte, die sich besonders für den Beweis der Konvergenz bei Verfeinerung eignen: Die approximierende Untersumme“ des ” Integrals ist Un := n ³ X (n) a` (n) − a`−1 ´ © £ (n) (n) ¤ª min f (x) | x ∈ a`−1 , a` , `=1 entsprechend die Obersumme“ mit den maximalen Werten in den Teilintervallen. Bei Verfeinerung ” der Unterteilung durch Einfügen zusätzlicher Stützstellen, z.B. durch Halbieren der Teilintervalle, wächst die Folge der Untersummen monoton, während die Folge der Obersummen monoton fällt: Un ≤ Un+1 ≤ On+1 ≤ On . Zur Begründung der Monotonie: Sei c ∈ (a, b) ein beliebiger Teilungspunkt im vollen Intervall, dann gilt min{f (x) | x ∈ [a, b]} ≤ min{f (x) | x ∈ [a, c]} und min{f (x) | x ∈ [a, b]} ≤ min{f (x) | x ∈ [c, b]} , also U1 = (b − a) min{f (x) | x ∈ [a, b]} = {(c − a) + (b − c)} min{f (x) | x ∈ [a, b]} ≤ (c − a) min{f (x) | x ∈ [a, c]} + (b − c) min{f (x) | x ∈ [c, b]} = U2 . Entsprechend für Teilintervalle und mit umgekehrter Ungleichung für Maxima und Obersummen. Dies zeigt die Monotonie. Wir sehen daraus auch, daß beide Folgen beschränkt sind. Nach dem Fundamentalsatz über monotone beschränkte Folgen 9.8a existieren die Grenzwerte limn→∞ Un und limn→∞ On . Nun folgt aus der Stetigkeit des Integranden f , daß beide Grenzwerte gleich sind, denn bei immer kürzeren Teilintervallen liegen alle Funktionswerte zu beliebigen Argumenten innerhalb eines Teilintervalls immer näher beieinander. Aufgrund des Schachtelungsprinzips 9.4d (iv) führt auch unsere Trapezapproximation und jede andere auf denselben Grenzwert. Die Ausführung dieser Beweisskizze für die Konvergenz finden Sie in der Literatur. Insbesondere ist das Integral eindeutig, der Grenzwert ist unabhängig davon, welche approximierende Folge benutzt wird. Für praktische Berechnungen ist jedoch der Hauptsatz der Differential- und Integralrechnung 8.4 meist zweckmäßiger. Der definierende Ausdruck ist auch für b < a sinnvoll, Vertauschen der Integrationsgrenzen ändert nur das Vorzeichen. Obwohl es üblich und zweckmäßig ist, das Integral über Flächenberechnungen einzuführen, sei darauf hingewiesen, daß Integrale in der Mathematik und in den Anwendungen viel häufiger in anderen Bedeutungen auftreten, z.B. als Umkehrung der Differentiation (Lösung von Differentialgleichungen), bei Mittelwertberechnungen (8.4e, Berechnung von Schwerpunkten im Kapitel über Integrale reellwertiger Funktionen etc.) oder bei der Berechnung von Fourierkoeffizienten. RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 8.3c 121 Eigenschaften des bestimmten Integrals Die folgenden Eigenschaften des Integrals sind offensichtlich für jede Trapezapproximation richtig, sie vererben sich im Grenzwert auf das Integral. Rb Ra Ra Rb (i) a f (x) dx = − b f (x) dx, a f (x) dx = 0, f (x) ≡ C ⇒ a f (x) dx = C (b − a). (ii) Additivität bezüglich der Integrationsintervalle: Seien a, b, c im Stetigkeitsintervall von f (in beliebiger Anordnung), dann gilt Z Z b Z c f (x) dx = b f (x) dx + a a f (x) dx. c (iii) Linearität bezüglich des Integranden f : Z Z b C f (x) dx = C Z b f (x) dx, a Z b (f + g)(x) dx = a a Z b f (x) dx + a b g(x) dx. a (iv) Monotonie: Sei a < b und f (x) ≥ g(x) für x ∈ [a, b], dann folgt Z Z b b f (x) dx ≥ a g(x) dx. a (v) Abschätzung: Für a < b (umgekehrte Ungleichungen bei b < a) Z b f (x) dx ≤ max{f (x) | a ≤ x ≤ b} (b − a). min{f (x) | a ≤ x ≤ b} (b − a) ≤ a (vi) Komplexwertige Funktionen, f : [a, b] → C stetig, dann sind auch die reellwertigen Funktionen Re f, Im f : [a, b] → R stetig und man definiert komponentenweise“ gemäß der Linearität ” des Integrals Z Z b f (x) dx := a 8.3d Z b (Re f )(x) dx + i a b (Im f )(x) dx. a Eine wichtige Abschätzung für Integrale Für reelle und komplexe Funktionen f , a und b im Stetigkeitsintervall von f , gilt ¯Z b ¯ ¯Z b ¯ ¯ n o ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ≤ max |f (x)| ¯¯ x ∈ [a, b] bzw. x ∈ [b, a] · |b − a|, f (x) dx ≤ |f (x)| dx ¯ ¯ ¯ ¯ a a der wichtigste Spezialfall für a ≤ b ist ¯Z b ¯ Z b ¯ ¯ ¯ |f (x)| dx . f (x) dx¯¯ ≤ ¯ a a Diese Ungleichung ist die Verallgemeinerung der Dreiecksungleichung (5.5b, 5.7f und 10.3) von Summen und Reihen auf Integrale. 8.4 Der Hauptsatz der Differential- und Integralrechnung (Leibniz, Newton) Es gibt mehrere gleichwertige Formulierungen dieses grundlegenden Satzes, der besagt, daß die (einfache) Differentiation und die (oft schwierigere) Integration zueinander inverse Operationen sind. RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 8.4a 122 Der Hauptsatz für bestimmte Integrale, Stammfunktion Sei f : [a, b] → R stetig und sei F eine Stammfunktion zu f , d.h. F ist stetig differenzierbar in [a, b] und F 0 = f . Dann gilt Z Z b f (x) dx = a 8.4b b ¯b ¯b ¯ ¯ F 0 (x) dx = F (b) − F (a) =: F (x) ¯ ≡ F (x) ¯ a a ¯b ¯ ≡ F (t) ¯ x=a t=a . Bemerkung zu Stammfunktionen Seien F und F̃ Stammfunktionen zu f , dann ist G(x) := F (x) − F̃ (x) differenzierbar mit G 0 = f − f ≡ 0. Nach ?? ist G(x) = const in Intervallen. Zwei Stammfunktionen zu f können sich auf Intervallen also nur um eine additive Konstante unterscheiden, F̃ = F + c, c ∈ R. Daraus folgt, daß die Differenz F (b) − F (a) = (F (b) + c) − (F (a) + c) = F̃ (b) − F̃ (a) unabhängig von der Wahl der Stammfunktion ist. 8.4c Integral als Stammfunktion Offensichtlich ist folgende Fassung des Hauptsatzes, in der man ein Integral als Funktion der oberen Grenze betrachtet, gleichwertig zur obigen 8.4a. (Die Namen der Integrationsvariablen x, ξ, t, . . . sind ohne Bedeutung, genauso wie die Namen der Summationsindizes.) Sei f : [a, b] → R stetig, dann ist für jedes c, x ∈ [ a, b ] Z x F (x) := f (t) dt c eine Stammfunktion zu f (diejenige mit F (c) = 0 gemäß 8.3c (i) ). 8.4d Beweis des Hauptsatzes Wir beweisen die Variante 8.4c. Anschaulich ist das Integral Z F (x0 + h) − F (x0 ) = Z x0 +h f (t) dt − c x0 f (t) dt 8.3c(ii) Z x0 +h = c f (t) dt x0 für kleine h ungefähr die Rechteckfläche (mit Vorzeichen) h·f (x0 ). Mit 8.3c (i) gilt exakt f (x0 ) · h, also ¯ n ¯ ¯ Z x0 +h ¯ o ¯1 ¯ ¯ ¯1 ¯ F (x0 + h) − F (x0 ) − f (x0 )¯ = ¯ [ f (t) − f (x0 ) ] dt¯¯ ¯h ¯ ¯h x0 R x0 +h x0 f (x0 )dt = ¯ n o ¯ ≤ max |f (t) − f (x0 )| ¯ |t − x0 | ≤ |h| → 0 für |h| → 0, 8.3d da f in x0 stetig ist. Also ist F in x0 differenzierbar und F 0 (x0 ) = f (x0 ). 8.4e 2 Variante des Mittelwertsatzes Eine äquivalente Umformulierung des Mittelwertsatzes 7.1a erklärt den Namen dieses wichtigen Satzes und zeigt seinen engen Zusammenhang mit dem Hauptsatz. Für eine auf [ a, b ] stetige Funktion f beschreibt 1 b−a Z b f (t) dt a RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 123 den Mittelwert von f im Intervall [ a, b ] . Anwendung des Mittelwertsatzes auf eine Stammfunktion F von f ergibt F (b) − F (a) = F 0 (xz ) = f (xz ) für eine Zwischenstelle xz ∈ (a, b). b−a Mit dem Hauptsatz 8.4a gilt dann 1 b−a Z b a f (t) dt = f (xz ) für ein xz ∈ (a, b), also ist der Mittelwert einer stetigen Funktion gleich dem Funktionswert an einer Zwischenstelle. (Bei unstetigen Funktionen braucht das nicht der Fall zu sein. Eine lange Würfelfolge hat als Mittelwert ungefähr 3,5 Augen, diese Augenzahl tritt aber nicht als Funktionswert auf, sie kann nicht gewürfelt werden.) 8.5 Das unbestimmte Integral Als unbestimmtes Integral einer stetigen Funktion f wird meist die Menge aller ihrer Stammfunktionen {F (·) | F differenzierbar, F 0 = f } bezeichnet mit folgenden üblichen Schreibweisen: Z f (x) dx = F (x) + c, c ∈ R , sowie Z Z x f (t) dt + c, c ∈ R , oder auch x f (t) dt. a Die Mengenschreibweise ist korrekt, aber umständlich. Im eingerückten Block sind die beiden oberen Schreibweisen vorherrschend, aber die linke ist unglücklich: links erscheint x als Integrationsvariable, die beliebig umbenannt werden könnte, gemeint ist aber x als Variablenname in der Stammfunktion, wie oben rechts. Also ist x die obere Grenze des Integrals, wie es in den beiden unteren, weniger gebräuchlichen Schreibweisen zum Ausdruck kommt. Die freie Konstante c heißt Integrationskonstante. Mit den oberen Schreibweisen gilt somit Z f 0 (x) dx = f (x) + c, c ∈ R , oder im Beispiel Z 3x2 dx = x3 + c, Z [ A cos x + B sin x ] dx = A sin x − B cos x + c, [Vorsicht: Manche Autoren bezeichnen jedoch mit ge aller Stammfunktionen wie wir!] 8.6 R c ∈ R. f (x) dx eine Stammfunktion anstelle der Men- Beispiele für die Integration mit dem Hauptsatz Eine große Hilfe für die Berechnung von Integralen sind die Formelsammlungen. Trotzdem ist es unerläßlich, wichtige und häufig auftretende Funktionen auch selbst integrieren zu können. Oft muß ein Integral erst in eine Form gebracht werden, die in der Formelsammlung steht, das setzt viel praktische Erfahrung mit Integralen voraus. In den hier folgenden konkreten Beispielen fehlen außerdem in den Formelsammlungen oft die Betragsstriche in den Formeln. Sie werden meist nur in der Einleitung der Integraltabellen erwähnt, ebenso wie die Integrationskonstanten c ∈ R . RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 8.6a 124 Potenzen der Variablen Mit [ ln |x − x0 | ]0 = 1/(x − x0 ) = (x − x0 )−1 , x ∈ R \ {x0 } (siehe 7.4b (i) ) folgt Z b ¯b dx ¯ = ln |x − x0 | ¯ = ln |b − x0 | − ln |a − x0 | (x − x ) a 0 a ¯ ¯ µ ¶ ¯ b − x0 ¯ |b − x0 | b − x 0 ¯ = ln = ln = ln ¯¯ , |a − x0 | a − x0 ¯ a − x0 weil (a − x0 ) und (b − x0 ) dasselbe Vorzeichen haben müssen, also (a − x0 ) · (b − x0 ) > 0 denn der Punkt x0 , an dem der Integrand nicht definiert ist, darf nicht im Integrationsintervall liegen! Für die anderen Potenzen p ∈ R, p 6= −1, x > x0 gilt gemäß ?? [ (x − x0 )p+1 /(p + 1) ]0 = (x − x0 )p . Daher ist für a, b > x0 Z b ¯b ´ 1 1 ³ ¯ (x − x0 )p dx = (b − x0 )p+1 − (a − x0 )p+1 . (x − x0 )p+1 ¯ = p+1 p+1 a a Für ganzzahlige Potenzen mit p ≥ 0 sind in der Formel oben beliebige x, a, b ∈ R zugelassen, bei ganzzahligem p ≤ −2 muß wieder x 6= x0 und (a − x0 ) · (b − x0 ) > 0 beachtet werden. Terme dieser Art treten bei der Partialbruchzerlegung 6.5a auf. Auch gewisse Wurzeln, p = 1/k, k ungerade, lassen verschwindende und negative Argumente zu, siehe D, J oder 7.2c. Die Formel ist dann ebenfalls richtig für p alle x, a, b ∈ R , wenn (x − x0 )p+1 als (x − x0 ) (x − x0 )1/k = k (x − x0 )k+1 aufgefaßt wird (die Potenz k + 1 ist gerade, jede Stammfunktion einer ungeraden Funktion ist gerade). Wenn p = −1/k, k ungerade, dann muß zur Vermeidung der Nullstelle im Nenner wieder (a−x0 )·(b−x0 ) > 0 verlangt werden. Interpretiert man das Integral jedoch als uneigentliches Integral, siehe 8.14b, dann ist diese Einschränkung auch nicht mehr nötig. 8.6b Potenzreihen P∞ k Sei f (x) = k=0 bk (x − z0 ) eine Potenzreihe mit positivem Konvergenzradius R > 0 oder R = ∞. Dann kann die Potenzreihe gliedweise integriert“ werden als Umkehrung zur gliedweisen ” Differentiation (6.3e). Der Konvergenzradius ändert sich dabei nicht. Also ist F (x) = c + ∞ ∞ X X b`−1 bk (x − z0 )k+1 = c + (x − z0 )` , k+1 ` k=0 |x − z0 | < R, `=1 eine Stammfunktion zu f . 8.6c Potenzen von Funktionen und deren Ableitung Wir behandeln hier einen Spezialfall der Substitutionsregel, die später in 8.9 diskutiert wird. G(x) := [f (x)]p+1 /(p + 1) erfüllt G 0 = [f (x)]p f 0 (x) für p ∈ N0 (oder p ∈ R , p 6= −1, mit der Zusatzbedingung, daß f im Integrationsintervall positiv ist), Z b ¯b ª 1 1 © 26 ¯ [sin x]25 cos x dx = sin26 x ¯ = sin b − sin26 a . 26 26 a a H(x) = ln |f (x)| erfüllt H 0 (x) = f 0 (x)/f (x), es muß f (x) 6= 0 im gesamten Integrationsintervall gelten, wie auch bei Potenzen p ∈ Z, p ≤ −2 im Beispiel oben. sin x f 0 (x) π π =− , − <x< oder . . . , also cos x f (x) 2 2 Z b ¯b ³ cos a ´ ¯ tan x dx = − ln | cos x| ¯ = − ln | cos b| + ln | cos a| = ln cos b a a für kπ − π/2 < a, b < kπ + π/2, k ∈ Z (das ganze Intervall [a, b] bzw. [b, a] muß im Definitionsbereich des Tangens liegen). tan x = RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 8.6d 125 Quadratische Polynome im Nenner Bei der Partialbruchzerlegung rationaler Funktionen 6.5a können außer den in 8.6a behandelten Ausdrücken auch Terme mit einer Potenz eines irreduziblen quadratischen Polynoms x2 + px + q, p2 < 4q, im Nenner und linearen oder konstanten Funktionen im Zähler auftreten. Werden solche Ausdrücke integriert, können die Integrationsgrenzen a und b ∈ R beliebig gewählt werden. Einige Formeln bleiben aber auch richtig, wenn p2 ≥ 4q, jedoch dürfen dann keine Nullstellen des Nennerpolynoms zwischen a und b liegen! In diesem Fall kann der Ausdruck auch mit der Partialbruchzerlegung weiter vereinfacht werden. µ 2 ¶ Z b ¯ 2 ¯ ¯¯b 2x + p b + pb + q ¯ ¯ dx = ln x + px + q ¯ = ln , 2 a2 + pa + q a a x + px + q Z a b ¯b 1 2x + p 2 1−` ¯ dx = (x + px + q) ¯ = . . . , ` ≥ 2. (x2 + px + q)` 1−` a Nur für p2 < 4q gilt Z à ! 1 x + p/2 1 arctan p dx = p + c, c ∈ R , x2 + px + q q − p2 /4 q − p2 /4 denn mit 7.4b (iii) ist für jede Konstante C 6= 0 ½ µ ¶¾ d 1 x+d 1 1 arctan = . = 2 2 2 dx C C (x + d) + C x + 2dx + (d2 + C 2 ) Mit diesen Beispielen sind die meisten Integrale erfaßt, die bei der Integration rationaler Funktionen durch Partialbruchzerlegung des Integranden auftreten. Für die restlichen Fälle mit const/(x2 + px + q)` , ` ≥ 2 siehe die Reduktion 8.7a (iv) oder Formelsammlungen. 8.7 Partielle Integration Die partielle Integration, die auf der Produktregel der Differentiation 6.3b beruht, kann zur Vereinfachung unbekannter Integrale dienen. Aus der Leibnizregel [ u(x) · v(x) ]0 = u0 (x) v(x) + u(x) v 0 (x) folgt durch Integration (siehe 8.5) Z Z 0 u(x) · v(x) + c = u (x) v(x) dx + u(x) v 0 (x) dx oder Z Z 0 u0 (x) · v(x) dx (+c) . u(x) · v (x) dx = u(x) · v(x) − (Wenn nach Umformungen dieser Gleichungen beide unbestimmten Integrale auf einer Seite stehen, darf die Integrationskonstante c nicht vergessen werden!) 8.7a Beispiele für die partielle Integration R (i) x · cos x dx =? , v 0 (x) = cos x ⇒ v(x) = sin x, u(x) = x ⇒ u0 (x) = 1, Z Z x · cos x − |{z} 1 · sin x dx = x sin x + cos x + c, x · sin | {zx} dx = |{z} |{z} |{z} |{z} u Z π/2 0 RWTH Aachen v0 u v u0 v ¯π/2 π ¯ x cos x dx = [ x sin x + cos x ] ¯ = − 1. 2 0 Mathematik I+II 8 Integration stetiger Funktionen 126 (ii) Durch evtl. mehrfache Anwendung des Verfahrens findet man Stammfunktionen zu Produkten aus (niedrigen) positiv ganzzahligen Potenzen der Variablen (x, x2 , . . .) mit einfach zu integrierenden Funktionen wie der Exponentialfunktion, trigonometrischen, hyperbolischen oder . . . Funktionen, z.B. Z Z x2 · e−x dx = x2 · (−e−x ) − 2x (−e−x ) dx Z = −x2 e−x − 2x e−x + 2 e−x dx = {−x2 − 2x − 2} e−x + c, c ∈ R . (iii) R ln x dx = R R ln x · 1 dx = (ln x) · x − (1/x) · x dx = x (ln x − 1) + c. Ähnliches Vorgehen ist auch bei anderen Umkehrfunktionen mit einfacher Ableitung erfolgreich. Man fügt einen Faktor v 0 (x) = 1 hinzu. In den bisherigen Beispielen war der Integrand ein Produkt von zwei Funktionen, deren eine leicht zu integrieren ist, die andere vereinfacht sich beim Ableiten. (iv) Mit einer geschickten Zerlegung erhält man eine iterative Reduktion für höhere Potenzen irreduzibler quadratischer Polynome im Nenner bei konstantem Zähler, Funktionen, die bei der Partialbruchzerlegung auftreten können. Die erste inverse Potenz ` = 1 wurde schon in 8.6d behandelt. Ein einfaches aber typisches Beispiel mit ` ≥ 2 ist 1 2x x2 + 1 − x2 1 1 = = 2 − x , (x2 + 1)` (x2 + 1)` (x + 1)`−1 2 (x2 + 1)` 1 −1 , 2 ` − 1 (x + 1)`−1 Z Z 1 −x 1 dx 2x dx = + , also x 2 (x + 1)` ` − 1 (x2 + 1)`−1 ` − 1 (x2 + 1)`−1 ½ ¾ Z Z Z −x dx dx 1 1 dx = − + (x2 + 1)` (x2 + 1)`−1 2 (` − 1)(x2 + 1)`−1 ` − 1 (x2 + 1)`−1 Z dx x 2` − 3 = + . 2 `−1 2 2(` − 1)(x + 1) 2(` − 1) (x + 1)`−1 v 0 (x) = (x2 2x + 1)` =⇒ v(x) = Ähnliche Integranden können entsprechend reduziert und integriert werden, siehe Formelsammlungen für den allgemeinen Fall. Damit kann nun zu allen rationalen Funktionen eine Stammfunktion bestimmt werden, denn alle bei der Partialbruchzerlegung auftretenden Terme lassen sich geschlossen integrieren. (v) Weitere Fälle, bei denen zweimalige partielle Integration hilft, obwohl die Funktionen nicht einfacher werden, sind von der Art exp(ax) · sin(bx) = v 0 · u oder Z Z 1 ax 1 ax ax e · cos(bx) dx = e cos(bx) − e [−b sin(bx) ] dx [ a 6= 0 ] a a ½ ¾ Z 1 ax b 1 ax 1 ax = e cos(bx) + e sin(bx) − e [ b cos(bx) ] dx a a a a Z 1 ax b ax b2 = e cos(bx) + 2 e sin(bx) − 2 eax cos(bx) dx, daraus folgt a a a ¶Z µ ´ 1³ b2 eax cos(bx) dx = 2 a eax cos(bx) + b eax sin(bx) + c, also 1+ 2 a a Z n o ax e eax cos(bx) dx = 2 a cos(bx) + b sin(bx) + c, c ∈ R . a + b2 Entsprechend für Produkte trigonometrischer und/oder hyperbolischer Funktionen. RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 127 Mit der Erfahrung aus vielen Beispielen lernt man zu sehen“, ob und wie partielle Integration ” möglich ist und hilft. 8.8 Symmetriebetrachtungen bei Integralen 8.8a Gerade (symmetrische) Funktionen Symmetrische oder gerade Funktionen erfüllen f (−x) = f (x), z.B. xn , n gerade, cos x, cosh x, sin2 x, |x|, f (x) = h(x2 ), h beliebig, f (x) = h(g(x)) = h ◦ g(x), g gerade, h beliebig. Der Graph einer geraden Funktion ist spiegelsymmetrisch an der y-Achse. Für eine beliebige Funktion f mit symmetrischem Definitionsbereich ist i 1h f (x) + f (−x) der gerade Anteil von f. fgerade (x) := 2 2 2 2 Ein £ Beispiel: (x + 4) ist der gerade Anteil von (x − 2) = x − 4x + 4. ¤Für gerade Funktionen f mit Stammfunktion F, die sogar immer ungerade gewählt werden kann, gilt · ¸ Z a Z a f (x) dx = 2 f (x) dx = 2 {F (a) − F (0)} falls f (−x) = f (x), x ∈ (−a, a). −a 0 Vorteile: F (0) ist oft leichter zu berechnen als F (−a) und mitunter braucht beim Auflösen von Beträgen dann keine Fallunterscheidung gemacht zu werden. Bei Näherungsrechnungen ist nur ein halb so langes Intervall zu betrachten, also halber Rechenaufwand. Die Aussagen bleiben richtig, wenn die (Anti-)Symmetrie nur im Inneren des Integrationsintervalls ohne die Randpunkte verlangt wird, was bei Verallgemeinerung der Integration auf stückweise stetige Funktionen (8.13) wichtig wird. Auch endlich viele Ausnahmepunkte spielen hierbei keine Rolle. 8.8b Ungerade (antisymmetrische) Funktionen Eine Funktion heißt ungerade oder antisymmetrisch oder auch schiefsymmetrisch, wenn f (−x) = −f (x), z.B. xn , n ungerade, sin x, sinh x, tan x. Das Produkt aus einer geraden und einer ungeraden Funktion ist ungerade. Der Graph einer ungeraden Funktion ist punktsymmetrisch zum Ursprung. Für eine beliebige Funktion f mit symmetrischem Definitionsbereich ist i 1h fungerade (x) := f (x) − f (−x) der ungerade Anteil von f. 2 Eine Stammfunktion einer ungeraden Funktion ist immer gerade. Für ungerade Funktionen f gilt Z a f (x) dx = 0 falls f (−x) = −f (x) für x ∈ (−a, a), −a Z a z.B. 2 x4 e−x sin x dx = 0 für alle a ≥ 0. −a Oft R a kann das auch R a zur Vereinfachung von Integralen benutzt werden, denn f (x) dx = −a −a fgerade (x) dx, Z π/2 Z (1 + x13 ) cos x dx = −π/2 π/2 cos x dx = 2. −π/2 Bei nahezu symmetrischen Intervallen ergeben sich auch Vereinfachungen. Sei f ungerade, f (−x) = −f (x), Z 1,05 Z 1,05 ´ 1³ f (x) dx = f (x) dx ≈ f (1, 05) + f (1) · 0, 05. 2 −1 +1 RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 128 Insbesondere eine approximative Berechnung für das kurze Intervall ist viel einfacher als für das lange, in dem die meisten Beiträge sich gegenseitig wegheben. Integrand kann auch (anti)symmetrisch bezüglich eines anderen Punktes als x = 0 sein, z.B. REin π ist 0 cos x dx = 0, da der Integrand ungerade ist bei Spiegelung am Mittelpunkt x = π/2 des Integrationsintervalls, cos (t + π/2) = sin t. Hier hilft Verschieben“ durch Substitution 8.9b. ” Die hyperbolischen und trigonometrischen Funktionen sind Zerlegungen der Exponentialfunktion in gerade und ungerade Anteile: f (x) = ex = fgerade (x) + fungerade (x) = cosh x + sinh x oder h(x) = eix = hgerade (x) + hungerade (x) = cos x + i sin x. Hinweis: Um bei einer Funktion zu testen, ob sie gerade oder ungerade ist, sollte man immer mit f (−x) beginnen und versuchen, den Ausdruck in f (x) oder −f (x) umzuwandeln. 8.9 Die Substitutionsregel Neben der partiellen Integration ist die Substitution eine andere wichtige Technik, um unbekannte Integrale auf einfachere bekannte zurückzuführen. In Anwendungen muß man oft durch partielle Integration oder Substitution das Integral zunächst so weit vereinfachen, daß es dann mit Hilfe der Formelsammlung gelöst werden kann. Grundlage für die Substitution ist die Kettenregel der Differentiation, siehe 6.3d und ??: d F (ϕ(t)) = F 0 (ϕ(t)) · ϕ0 (t) = f (ϕ(t)) · ϕ0 (t) dt für F 0 = f . Umgekehrt gelesen: Wenn zu einer Funktion f eine Stammfunktion F bekannt ist, dann ist F (ϕ(t)) eine Stammfunktion zu f (ϕ(t)) · ϕ0 (t). Den Spezialfall f (x) = xp kennen wir schon aus 8.6c und 8.6d für unterschiedliche Funktionen ϕ. Dies führt auf: 8.9a Erste Form der Substitutionsregel Sei F 0 = f , dann gilt für unbestimmte Integrale Z Z ¯ ¯ f (ϕ(t)) · ϕ0 (t) dt = F (ϕ(t)) + c = f (x) dx¯ x=ϕ(t) ¯ ¯ = F (x)¯ x=ϕ(t) + c, c ∈ R . Beispiel: Z cos(t4 ) · 4 t3 dt = sin(t4 ) + c, c ∈ R , mit f (x) = cos x, F (x) = sin x, ϕ(t) = t4 , ϕ0 (t) = 4 t3 . Entsprechend für bestimmte Integrale Z b Z ϕ(b) ¯b ¯ϕ(b) ¯ ¯ 0 f (ϕ(t)) · ϕ (t) dt = F (ϕ(t)) ¯ = f (x) dx = F (x) ¯ . t=a a Beispiel: Z 3 e 0 −t2 ϕ(a) x=ϕ(a) Z ¯32 ¢ 1 9 −x 1 ¡ −9 1 −x ¯ e dx = · t dt = (−e ) ¯ 2 = −e + 1 2 2 0 2 x=0 mit f (x) = e−x , F (x) = −e−x , ϕ(t) = t2 , ϕ0 (t) = 2t, t = ϕ0 (t)/2. Dieses Verfahren ist anwendbar, wenn eine einfach zu integrierende Funktion (wie Polynom, trigonometrische Funktion, Exponentialfunktion, ...) ϕ(t) auftritt und dessen Ableitung ϕ0 (t) als R mit kompliziertem Argument Faktor hinzutritt. Z.B. exp{arctan t}/(1 + t2 ) dt = exp{arctan t} + c, c ∈ R . Merkregel: Um eine geschickte Substitution ϕ(t) zu finden, hilft es oft, nach einem Faktor der Form ϕ0 (t) Ausschau zu halten! Mit x = ϕ(t) und dx = ϕ0 (t) dt muß das Integral einfacher werden. Oder mit R anderen Variablennamen (z.B. wenn das gesuchte Integral x als Integrationsvariable R hat): ? = f (x) dx, u = u(x), du = u0 (x) dx führt auf ein einfacheres Integral g(u) du, wobei g(u(x)) = f (x) u0 (x). RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 8.9b 129 Zweite Form der Substitutionsregel Mitunter kann man umgekehrt eine Integrationsvariable x als Funktion einer neuen Variablen t ausdrücken und damit das Integral vereinfachen: Sei x = ϕ(t) für eine bijektive (invertierbare) Funktion ϕ, d.h. die Umkehrfunktion t = ϕ−1 (x) existiert, die Gleichung x = ϕ(t) kann nach t aufgelöst werden. (Es genügt, daß dies für x im Integrationsintervall gilt.) Dies ist z.B. für stetig differenzierbare ϕ erfüllt, falls ϕ0 (t) 6= 0 für alle t im interessierenden Intervall. Es gilt dann (mit dx = ϕ0 (t) dt ) Z Z ¯ ¯ f (x) dx = f (ϕ(t)) · ϕ0 (t) dt ¯ −1 . t=ϕ (x) Hier sollte f (ϕ(t)) · ϕ0 (t) als Funktion von t einfacher integrierbar sein als f (x) ! √ Beispiele: Gemäß 7.4b (ii) ist (arcsin t) 0 = 1/ 1 − t2 , |t| < 1. Für x ∈ (−3, −1) gilt Z Z Z ¯ dx dx dt ¯ √ p √ = = · 1¯ = arcsin(x + 2) + c, c ∈ R 2 2 2 t=x+2 −3 − 4x − x 1−t 1 − (x + 2) mit x = ϕ(t) = t − 2, t = ϕ−1 (x) = x + 2, ϕ0 (t) = 1. Das Verschieben des Arguments“ ist oft ” eine nützliche Substitution, siehe auch 8.8b. Wir haben jetzt ein systematisches Verfahren, um eine Stammfunktion zu (x2 + 1)−1/2 zu berechnen. (Die kennen wir allerdings schon als Ergebnis einer Differentiation, ??.) Aus sinh2 t + 1 = cosh2 t kann man leicht die Wurzel ziehen: Z Z ¯ dx 1 ¯ √ cosh t dt¯ = 2 | cosh t| t=arsinh x x +1 Z ¯ ¯ ¯ ¯ = dt¯ = (t + c)¯ = arsinh x + c, c ∈ R , t=arsinh x t=arsinh x mit x = ϕ(t) = sinh t, ϕ0 (t) = cosh t = | cosh t| ≥ 1, t = ϕ−1 (x) = arsinh x. Der neue Integrand f (ϕ(t)) · ϕ0 (t) ist die konstante Funktion 1, einfacher geht es nicht! √ Ähnlich geht man vor bei Integranden mit x2 − 1, x = ± cosh t, ±x ≥ 1, siehe auch 8.10b. Entsprechend kann man bei Ausdrücken der Form (1 − x2 ), |x| ≤ 1, mit trigonometrischen Funktionen substituieren, z.B. x = sin t, t ∈ (−π/2, π/2), oder x = cos t, t ∈ (0, π) oder t ∈ (−π, 0). Auf den angegebenen Intervallen ist ϕ0 (t) 6= 0, also ϕ bijektiv. Bei bestimmten Integralen werden entweder die Grenzen erst nach der Rücksubstitution eingesetzt oder – meist einfacher – man rechnet die Grenzen in die korrespondierenden Werte für t um: Z Z b ϕ−1 (b) f (x) dx = a 8.10 f (ϕ(t)) · ϕ0 (t) dt. ϕ−1 (a) Substitutionen bei Wurzelausdrücken und Potenzen In den Anwendungen treten häufig Integrale der folgenden Form auf: Z ´m ³p ±1 ± x2 dx , k, m ∈ Z. xk Für allgemeinere quadratische Ausdrücke unter der Wurzel siehe unten am Ende dieses Abschnitts. Die Potenzen k und m können positiv oder negativ sein, m ist ungerade, sonst wäre die Wurzel überflüssig. Wenn k ungerade ist, so ist es zweckmäßig, die Wurzel zu substituieren. √ Bei gerader Potenz k sind für x trigonometrische oder hyperbolische Funktionen einzusetzen: für 1 − x2 , |x| ≤ √ 2 1 (oder √ |x| < 1 falls m negativ ist) wähle x = sin t oder x = cos t, für 1 + x wähle x = sinh t und für x2 − 1 wähle x = ± cosh t, das Vorzeichen abhängig davon, ob x ≥ 1 oder x ≤ −1, denn cosh t ≥ 1. RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 130 Steht unter der Wurzel ein Ausdruck der Form αx2 + 2βx + γ, α 6= 0 sowie γ 6= β 2 /α (sonst hätte man die Wurzel ziehen können), so wird er durch quadratische Ergänzung zunächst auf die Form Vielfaches eines Quadrates plus Konstante“ gebracht: ” µ ¶ µ ¶ µ ¶ ¤ β 2 β2 β2 £ 2 2 αx + 2βx + γ = α x + + γ− = γ− ±z + 1 , α α α wobei z ein geeignetes Vielfaches von x + β/α ist. Alternativ kann der Faktor bei der nächsten Substitution berücksichtigt werden, siehe das zweite Beispiel in 8.10b. 8.10a Beispiel mit ungerader Potenz k Gesucht ist das unbestimmte Integral (mit m = 3 und k = −1) ( Z √ 2 3 x 6= 0 für das obere Vorzeichen, 5x ± 9 √ dx wobei x |x| ≥ 3/ 5 für das untere Vorzeichen. Mit Substitution der Wurzel (gemäß der ersten Form der Substitutionsregel) berechnen wir p ¢ 5x 1¡ 2 u = 5x2 ± 9, du = √ dx, x2 = u ∓9 . 5 5x ± 9 Damit erhalten wir für das Integral Z √ 2 Z √ 2 3 5x ± 9 5x ± 9 dx = x 5x2 4 5x √ dx = 5x2 ± 9 Z ¯ ¯ u4 ¯ du . u2 ∓ 9 ¯u=√5x2 ±9 Von dem rationalen Ausdruck in u spalten wir das asymptotische Polynom ab. 81 9 u4 = u2 ± 9 + 2 = u2 ± 9 ∓ . 2 u ∓9 u ∓9 1 ∓ (u/3)2 Eine Stamfunktion davon ist 3 u u + 9u − 27 arcoth , u > 3, für das obere Vorzeichen, 3 3 3 u − 9u + 27 arctan u für das untere Vorzeichen. 3 3 √ Einsetzen von u = 5x2 ± 9 liefert die gesuchten Integrale: √ √ Z √ 2 3 3 p 5x + 9 5x2 + 9 5x2 + 9 dx = + 9 5x2 + 9 − 27 arcoth + c, x 3 3 √ √ Z √ 2 3 3 p 5x − 9 5x2 − 9 5x2 − 9 dx = − 9 5x2 − 9 + 27 arctan + c, x 3 3 8.10b c ∈ R. Beispiele mit gerader Potenz k Zur Berechnung des bestimmten Integrals Z −2 √ 2 x −1 I= dx x4 −5 substituieren wir (gemäß der zweiten√Regel) x = − cosh t = ϕ(t), da im Integrationsintervall x < −1 gilt. Mit dx = − sinh t dt und x2 − 1 = sinh t erhalten wir mit 8.9b Z arcosh 2 Z arcosh 5 − sinh2 t 1 I= dt = tanh2 t dt 4 cosh t cosh2 t arcosh 5 arcosh 2 ¯arcosh 5 ¯ ¤ 1£ 1 3 ¯ = = tanh t¯ tanh3 (arcosh 5) − tanh3 (arcosh 2) . 3 3 arcosh 2 RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 131 p Das Ergebnis kann mit tanh u = sinh u/ cosh u = cosh2 u − 1/ cosh u für u ≥ 0 vereinfacht werden zu "µ √ " √ # ¶3 µ √ ¶3 # √ 16 2 1 1 25 − 1 4−1 I= − = 3 − ≈ 0, 097. 3 5 2 125 8 Das unbestimmte Integral für |x| < 2 mit k = 2 und m = −3 Z Z x2 x2 dx = √ p 3 3 dx 4 − x2 8 1 − (x/2)2 2 2 vereinfachen p wir mit der Substitution (x/2) = sin t, |t| < π/2. Dann ist x = 4 sin t und dx = 2 cos t dt, 1 − (x/2)2 = cos t > 0. ¶ Z Z Z µ 4 sin2 t 1 − cos2 t 1 2 cos t dt = dt = − 1 dt = tan t − t + c, c ∈ R. 8 cos3 t cos2 t cos2 t Mit Einsetzen von t = arcsin(x/2) erhalten wir Z x2 sin[arcsin(x/2)] − arcsin(x/2) + c dx = tan[arcsin(x/2)] − arcsin(x/2) + c = √ 3 cos[arcsin(x/2)] 4 − x2 x/2 x =p − arcsin(x/2) + c, c ∈ R. − arcsin(x/2) + c = √ 4 − x2 1 − (x/2)2 8.11 Integrale rationaler Funktionen in den trigonometrischen Funktionen Eine rationale Funktion in den trigonometrischen Funktionen besteht aus jeweils einem Polynom von cos x, sin x im Zähler und Nenner, z.B. f (x) = 13 + cos5 x − 3 sin2 x + 2 sin x · cos x . 2 − sin3 x + sin2 x · cos4 x Schreibt man tan oder cot als Quotient von Sinus und Kosinus, so sind Ausdrücke mit ganzzahligen Potenzen von tan und cot auch von dieser Form. Wegen der 2π -Periodizität genügt es, Integrale über Intervalle in (−π, π) zu betrachten, dabei dürfen Nullstellen des Nenners nicht im Integrationsintervall liegen! Mit einer bijektiven Standard-Substitution (zweite Form 8.9b) lassen sich Integrale der ¯ R Form R ¯ f (x) dx = f (ϕ(t)) · ϕ0 (t) dt ¯ −1 immer geschlossen lösen: t=ϕ x = ϕ(t) = 2 arctan t, ϕ0 (t) = (x) t = ϕ−1 (x) = tan(x/2), x ∈ (−π, π), t ∈ R , 2 1 − t2 2t > 0, cos x = , sin x = , 2 2 1+t 1+t 1 + t2 denn es gilt z.B. mit x = 2u = 2 arctan t (Additionstheoreme, siehe Formelsammlung) sin(2u) = 2 sin u cos u = sin x = 2 tan u , 1 + tan2 u 2 tan(arctan t) 2t = , 2 1 + t2 1 + tan (arctan t) cos(2u) = 2 cos2 u − 1 = 1 − tan2 u , 1 + tan2 u etc., rational in t. Diese Substitution führt also auf ein Integral einer rationalen Funktion in t, welches sich (z.B. mit Partialbruchzerlegung 6.5a, 6.5b, 8.6a, 8.6d, 8.7a (iv)) immer berechnen läßt. Da die Rechnungen i.a. sehr kompliziert werden können, ein wichtiger Hinweis: Vor der Substitution sollten alle Vereinfachungsmöglichkeiten genutzt werden, insbesondere die Additionstheoreme 6.13b und bei bestimmten RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 132 Integralen Symmetriebetrachtungen 8.8. Beispiel: Z Z ¯ 2 2 2 ¯ dx = · dt¯ 3 + cos x 3 + [ 1 − t2 ]/[ 1 + t2 ] 1 + t2 t=tan(x/2) Z Z ¯ ¯ 4 1 ¯ ¯ = dt = dt ¯ ¯ ¡ √ ¢2 3 + 3t2 + 1 − t2 t=tan(x/2) t=tan(x/2) 1 + t/ 2 µ ¶ ¯ µ ¶ √ √ t tan(x/2) ¯ √ = 2 arctan √ + c = 2 arctan + c, c ∈ R . ¯ t=tan(x/2) 2 2 8.12 Approximative Berechnung eines Integrals, Simpsonsche Regel 8.12a Quadraturverfahren Als Quadraturverfahren bezeichnet man numerische Verfahren zur approximativen Berechnung bestimmter Integrale, insbesondere wenn keine Stammfunktionen bekannt sind [z.B. für die Gaußsche Glockenkurve exp(−x2 ), die in der Statistik unerläßlich ist]. Wir haben bereits die Trapezregel 8.2 kennengelernt, es gibt viele weitere Verfahren von Kepler, Newton, Gauß, . . ., siehe Formelsammlungen oder Lehrbücher über numerische Mathematik. Wir betrachten ein einfaches wichtiges Beispiel. 8.12b Simpsonsche Regel Diese Verfeinerung der Keplerschen Faßregel (Spezialfall N = 1 der Simpsonschen Regel) ist sehr einfach und trotzdem gut. [Kubische Polynome können damit sogar exakt integriert werden.] Sie wird oft in Taschenrechnern benutzt. Zerlege [a, b] in 2N gleichlange Teile mit den Stützstellen a` = a + `(b − a)/2N , ` = 0, 1, . . . , 2N . Statt des einfachen Mittelwerts der Funktionswerte am rechten und linken Rand des Teilintervalls, wie bei der Trapezregel, werden gewichtete Mittelwerte benutzt. Z b (b − a) n f (x) dx ≈ f (a0 ) + 4f (a1 ) + 2f (a2 ) + 4f (a3 ) + 2f (a4 ) + . . . 2N · 3 a o . . . + 2f (a2N −2 ) + 4f (a2N −1 ) + f (a2N ) . Anwendungsbeispiel mit 2N = 4 Intervallen: [a, b] = [0, π/2], a0 = 0, a1 = π/8, . . . Z π/2 1= sin x dx 0 ½ µ ¶ ³π ´ ³π ´ ³ π ´¾ π 3π ≈ sin(0) + 4 sin + 2 sin + 4 sin + sin 2 · 12 8 4 8 2 ≈ 1, 000134 . . . (Berechnung der Werte der Sinusfunktion mit dem Taschenrechner), eine sehr gute Näherung des exakten Ergebnisses mit wenigen Rechenschritten. 8.13 Integrale stückweise stetiger Funktionen 8.13a Stückweise stetige Funktionen Eine Funktion f heißt auf [a, b] stückweise stetig, wenn sie an höchstens endlich vielen Ausnahmepunkten uk ∈ [a, b] nicht definiert bzw. nicht stetig ist und wenn an den Stellen uk die einseitigen RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 133 Grenzwerte existieren: u0 = a < u1 < . . . < un = b, f auf (uk−1 , uk ) stetig, limx%uk f (x) existiert für k = 1, . . . , n, und limx&uk f (x) existiert für k = 0, . . . , n − 1. Die Heavisidefunktion (siehe ?? (??) ) Θ(x) ist auf jedem Intervall stückweise stetig, ebenso f (x) := sin x/|x| auf jedem [a, b], denn f ist definiert und stetig für x 6= 0 und limx%0 f (x) = −1, limx&0 f (x) = 1 existieren beide. Die Funktion f (x) = 1/x2 ist nicht stückweise stetig auf [−1, 1], denn limx→0 f (x) = ∞, entsprechend ist auch tan x auf [0, π] nicht stückweise stetig. 8.13b Integral einer stückweise stetigen Funktion Da eine stückweise R ukstetige Funktion f jeweils von (uk−1 , uk ) auf [uk−1 , uk ] stetig fortgesetzt werden kann, ist uk−1 f (x) dx für k = 1, . . . , n definiert. Man setzt natürlich Z b n Z uk X f (x) dx := f (x) dx. a k=1 uk−1 Beispiel: ( f (x) = Z sinh x für x < 0, ex für x ≥ 0, Z 2 ex dx = 1 − cosh(−1) + e2 − 1 = e2 − 0 −1 −1 2 sinh x dx + f (x) dx = 8.14 Z 0 e + 1/e . 2 Uneigentliche Integrale Bisher haben wir Integrale (stückweise) stetiger Funktionen auf beschränkten Intervallen behandelt. Für viele Anwendungen ist es zweckmäßig, das Integral auf unbeschränkte Intervalle zu erweitern oder auf Funktionen, die auf dem abgeschlossenen Integrationsintervall nicht stückweise stetig sind (die lokale Singularitäten haben). 8.14a Unbeschränkte Intervalle Sei z.B. f : [c, ∞) → R stetig, dann ist das Integral von f für jedes Intervall [c, b], c ≤ b < ∞ definiert. Als Integral über [c, ∞) definieren wir Z ∞ Z b ?= f (x) dx := lim f (x) dx falls der Grenzwert existiert. b→∞ c c Sonst sagen wir, daß das Integral nicht existiert“, nicht konvergiert“ oder divergiert“. Beispiel: Für ” ” ” p ∈ R , b ≥ 1, ( Z b (b1−p − 1)/(1 − p) p 6= 1, 1 dx = p ln b p = 1, 1 x also Z ∞ ?= 1 1 dx xp ( = 1/(p − 1) existiert nicht für p > 1, für p ≤ 1. Falls p > 1 wird die Fläche zwischen dem Graphen von f (x) = x−p und der x -Achse für große x so schnell klein“, daß die Gesamtfläche für b → ∞ endlich bleibt. Entsprechend für linksseitig ” unendliche Integrationsintervalle (−∞, c] oder für auf der ganzen reellen Achse stetige Funktionen: Z ∞ Z b ?= f (x) dx := lim lim f (x) dx falls beide Grenzwerte existieren, z.B. −∞ RWTH Aachen a→−∞ b→+∞ a Mathematik I+II 8 Integration stetiger Funktionen Z ∞ ?= −∞ 134 1 dx = lim lim [ arctan b − arctan a ] a→−∞ b→∞ 1 + x2 = lim arctan b − lim a→−∞ b→+∞ 8.14b arctan a = π ³ π´ − − = π. 2 2 Integranden mit lokalen Singularitäten Wenn für eine auf (a, b] stetige Funktion limx&a f (x) nicht existiert, z.B. f (x) → ∞, dann hat f eine (rechtsseitige) Singularität bei x = a. f ist auf [a, b] nicht stückweise stetig (fortsetzbar). Trotzdem kann man das Integral definieren, Z b Z b ?= f (x) dx := lim f (x) dx, falls dieser Grenzwert existiert. d&a d a Entsprechend bei Annäherung von links. Sei f (x) = 1/|x|p , für x 6= 0 ist f stetig, jedoch singulär bei x = 0 für p > 0, denn limx→0 f (x) = ∞ existiert nicht. ( Z b [ b1−p − d1−p ]/(1 − p) für p 6= 1, dx = 0 < d < b, p ln(b/d) für p = 1, d |x| ( Z b Z b b1−p /(1 − p) für p < 1, dx dx ?= = lim = b > 0. p d&0 d |x|p existiert nicht für p ≥ 1, 0 |x| Für 0 < p < 1 strebt f (x) bei Annäherung an x = 0 hinreichend langsam“ gegen unendlich, so ” daß die Gesamtfläche im Integral endlich bleibt. Zusammenfassend sollte man sich merken: Das uneigentliche Integral der Funktion f (x) = 1/x existiert weder am Ursprung noch im Unendlichen. (Das entspricht der Divergenz der harmonischen Reihe 10.6a.) Im Unendlichen existieren die Integrale von f (x) = 1/|x|p für schneller klein werdende Integranden (p > 1), am Ursprung für langsamer divergierende Integranden (langsamer gegen Null strebende Nenner, p < 1). 8.14c Konvergenzkriterien für uneigentliche Integrale Bei der Modellierung von Bewegungen können z.B. uneigentliche Integrale auftreten, wenn man entscheiden muß, ob durch die Rückstellkraft eine Bewegung zum Stillstand kommt bzw. umkehrt, bevor eine Kollision erfolgt oder bevor eine Befestigung bricht. (Die Existenz eines uneigentlichen Integrals zeigt auch, daß nur endlich viel Treibstoff nötig ist, um mit einer Rakete die Erdanziehung zu überwinden.) Auch zur Kontrolle von Näherungen, die bei der Modellierung gemacht wurden, ist es oft wichtig zu wissen, ob ein uneigentliches Integral existiert. Nur in diesem Fall ist es sinnvoll, numerische Approximationsverfahren zu seiner Berechnung heranzuziehen. Dieser Absicherung dienen die folgenden Kriterien. Anstelle der Untersuchung einer vielleicht schwierig oder gar nicht geschlossen integrierbaren Funktion wird der Integrand durch eine einfachere Funktion nach ober oder unten abgeschätzt. (i) Majorantenkriterium Wenn eine stückweise stetige Funktion f eine integrierbare Majorante g hat, dann R ∞existiert auch das uneigentliche Integral von R ∞ f : Sei z.B. |f (x)| ≤ g(x) für x ≥ c. Wenn c g(x) dx existiert, dann existiert auch c f (x) dx. Wichtige Majoranten sind g(x) = 1/xp , x ≥ c > 0, p > 1; xk e−x , x ≥ 0, k ∈ N beliebig. Entsprechend für andere unbeschränkte Intervalle. Bei lokalen Singularitäten sind wichtige Majoranten die Potenzen g(x) = |x − x0 |−p für p < 1. Da | cot x| ≤ 1/| sin x| ≤ 2/x für 0 ≤ x ≤ π/4 folgt damit die Existenz des Integrals Z π/4 √ Z π/4 √ √ 3 3 3 cot2 x dx ≤ 4 x−2/3 dx = 3 4 (π/4)1/3 . 0 RWTH Aachen 0 Mathematik I+II 8 Integration stetiger Funktionen 135 (ii) Minorantenkriterium R ∞ Gilt für x ≥ c : f (x) ≥ g(x) ≥ 0 und ist die Minorante g nicht integrierbar: ? = c g(x) dx existiert nicht, dann existiert auch R∞ ? = c f (x) dx nicht. Die wichtigsten Minoranten für x ≥ c > 0 sind g(x) = x−p , p ≤ 1. Als Beispiel: Z ∞√ x + (ln x) cos2 x ?= dx x 1 √ √ existiert nicht, denn ( x + (ln x) cos2 x)/x ≥ 1/ x = g(x) für x ≥ 1 und g ist auf [1, ∞) nicht integrierbar. Entsprechend bei anderen unbeschränkten Intervallen und bei lokalen Singularitäten. Beispielsweise existiert das uneigentliche Integral R1 ? = 0 (cosh x/ sin x) dx nicht. 8.15 Fehlerquellen bei der numerischen Integration Bei einem benutzerfreundlichen“ Computer-Programm wird der Anwender meist von der Anzeige ” von Zwischenschritten entlastet“ (der durchschnittliche Autofahrer interessiert sich auch nicht für ” den genauen Zündzeitpunkt). Zusätzlich ist der benutzte Algorithmus oft ein Betriebsgeheimnis des Softwareherstellers. Wie das folgende Demonstrationsbeispiel zeigt, kann es von völlig unbedeutend erscheinenden Zufällen abhängen, ob das Ergebnis eine gute Näherung ist, oder ob es völlig unbrauchbar ist. Erst eine genauere mathematische Analyse deckt die Fehlerquellen auf, auf die man durch unsinnige“ oder unerwartete“ Ergebnisse mitunter aber nicht immer hingewiesen wird. Blei” ” ben Sie skeptisch, auch bei vielfach bewährten Standardprogrammen, sobald die Anwendung auch nur etwas von der Routine abweicht! Rπ Stellen Sie sich vor, daß das Integral 0R f1 (x) dx irgendeinen Effekt bei gleichmäßigem Nor” π malbetrieb“ beschreibt, während der Zusatz 0 f2 (x) dx die Änderung durch eine kurzzeitige Störung beschreibt, etwa den Effekt eines kurzen Stoßes, der dank besonders guter Dämpfung sehr schnell abklingt. Für die Funktionen ( 0 für x < π/2, 1 f1 (x) = , f2 (x) = −1000(x−π/2) π 100 e für x ≥ π/2, ist das folgende Integral gesucht, das leicht exakt berechnet werden kann: Z π Z π 100 [ f1 (x) + f2 (x) ] dx = 1 + f2 (x) dx = 1 + (1 − e−1000π/2 ) ≈ 1, 1 . 1000 0 0 Die durch den Stoß verursachte Störung beträgt (im Rahmen der Genauigkeit des mathematischen Rπ Modells) rund 1/10 oder 10% Abweichung vom Normalbetrieb mit 0 f1 (x) dx = 1. Wir wählen die Trapezapproximation 8.2 als Näherung, a = a0 = 0, b = an = π. Bei einer geraden Zahl n = 2k von Teilintervallen gehört ak = a + k(b − a)/n = π/2 zu den Unterteilungspunkten. Die Trapezapproximation lautet in diesem Fall Z π ³π π ´ o n≤100 π π n ³π ´ f2 (x) dx ≈ f2 + f2 + + ... ≈ 100. n 2 2 n n 0 Für realistische Werte von n ist der Betrag von allen Summanden außer f2 (π/2) = 100 winzig klein und in guter Näherung in der rechten Approximation vernachlässigbar. Das Ergebnis” 100π/n hängt ” hauptsächlich von der Wahl der Anzahl n der Teilintervalle ab, die ein Computerprogramm oft ohne Einfluß- und Einsichtmöglichkeit des Benutzers wählt. Der Einfluß des Stoßes wird für n ≤ 100 um Größenordnungen überschätzt. Wählt das Programm hingegen eine ungerade Zahl n = 2k + 1 von Teilintervallen, dann liefert der erste Teilungspunkt rechts von π/2, ak+1 = (π/2) + (π/2n), den Hauptbeitrag: Z π o n<100 π π n ³π π´ 2π f2 (x) dx ≈ f2 + + ... ≈ 100 e−1000π/2n < · 10−5 . n 2 2n n n 0 RWTH Aachen Mathematik I+II 8 Integration stetiger Funktionen 136 Diese Näherung legt einen mit gutem Gewissen vernachlässigbaren“ Effekt des Stoßes nahe, er wird ” unterschätzt. Hier gibt es auch keinerlei Hinweise, die eine Vergrößerung von n zur Steigerung der Genauigkeit nahelegten. Erst für n > 10.000 beginnt die Trapezapproximation, einen brauchbaren Näherungswert zu liefern. Die Intervallänge sollte nicht länger sein als solche Strecken, auf denen sich der Integrand wesentlich ändert. Dadurch wird der Rechenaufwand groß und das Programm langsam, was nicht erwünscht ist. Auch alle anderen Quadraturformeln führen auf ähnliche Probleme bei Integranden, die fast überall“ harmlos sind, die sich in einem engen Bereich aber sehr stark ändern. Erst moderne ” Algorithmen, die das Intervall in Abhängigkeit vom Integranden lokal unterschiedlich fein unterteilen, und die in der Lage sind, eng lokalisierte Abweichungen überhaupt zu finden, bewältigen diese Probleme besser. Eine weitere Tücke des Demonstrationsbeispiels liegt darin, daß die irrationale Zahl π = 3, 141592654 . . . mit dem Computer zwar beliebig genau aber nicht exakt dargestellt werden kann. Kehren wir noch einmal zur Trapezapproximation mit geradem n = 2k zurück. Die ausgezeichnete Näherung π ≈ 3, 1416 > π führt auf ak = 3, 1416/2 ' π/2 und f2 (ak ) ≈ 100; ebenso bei dem um zwei Dezimalstellen besseren Näherungswert π ≈ 3, 141593. Die Trapezapproximation liefert in beiden Fällen wieder ≈ 100 π/n. Der hinsichtlich der Genauigkeit dazwischen liegende Wert π ≈ 3, 14159 < π mit ak < π/2 ergibt aber f2 (ak ) = 0, jetzt kommt der größte Beitrag von n≤100 f2 (ak+1 ) ≈ 100 e−1000π/n < 10−11 ! Die verschiedenen Näherungswerte“ haben weder mit” einander noch mit dem exakten Ergebnis irgend etwas zu tun. Ähnliche Phänomene können bei komplizierten längeren Rechnungen ganz unerwartet auftreten. Subtrahiert man zwei etwa gleiche Größen, die einzeln nur mit kleinen Fehlern behaftet sind, voneinander, so ist die Differenz klein und der relative Fehler wächst rapide. Stehen solche Ausdrücke im Nenner eines Integranden, so kann dieser starken, möglicherweise fehlerbehafteten, Schwankungen unterliegen mit Zufallsergebnissen bei der numerischen Integration. Bei vielen automatisierten computergestützten Berechnungsverfahren sieht“ man die Verdacht erregenden Zwischenergebnisse ” nicht mehr und auch der aufmerksame Benutzer wird nicht gewarnt. Dieses – zugegebenermaßen konstruierte – Demonstrationsbeispiel sollte die Risiken besonders kraß zeigen. Bei sicherheitsrelevanten Fragen (wie der Stabilität eines Gebäudes oder Staudamms) oder im Umweltschutz (z.B. Schadstoffausbreitung) kann auch ein falscher Faktor 2 oder 10 katastrophale Folgen haben. Es liegt in Ihrer Verantwortung als Ingenieur, die Qualität der unumgänglichen Näherungen sicherzustellen. Die mathematischen Methoden - auch die theoretischen“ - aus den ” früheren und den noch vor uns liegenden Kapiteln sind dafür wichtige Hilfsmittel von großer praktischer Bedeutung. Ohne den großen Wert guter unterstützender Software (deren Bedienung nicht Inhalt dieses auf Grundlagen orientierten Kurses ist) schmälern zu wollen, warnen wir ausdrücklich vor einer Nutzung, die den gelieferten Ergebnissen blind vertraut, insbesondere bei den interessanteren Aufgaben, die vom ausgetretenen Pfad der Routine auch nur etwas abweichen. RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 9 137 Folgen, Konvergenz und Divergenz 9.1 Approximation von Lösungen, Zahlenfolgen 9.1a Approximation von Lösungen Wenn mathematische Aufgaben wie das Lösen von Gleichungen, die Bestimmung optimaler Werte oder die Berechnung des zeitlichen Verhaltens eines dynamischen Systems realitätsnahen Anwendungsproblemen entstammen, dann lassen sie sich nur in glücklichen Ausnahmefällen geschlossen lösen. Gleichwohl sind geschlossene Lösungen von einfacheren, idealisierten Problemen oft der Ausgangspunkt für die Behandlung der realistischen Probleme. Eine ganz wesentliche Stärke der Mathematik besteht darin, Verfahren bereitzustellen, mit denen durch systematische Näherung die gesuchten Lösungen approximiert werden können. Außerdem kann man sogar oft eine Fehlergrenze angeben, wie weit die gefundene Approximation höchstens von der unbekannten exakten Lösung abweicht! Ein zentrales Konzept ist dabei die Konvergenz der Folge von Approximationen, wir werden es zunächst im einfachsten Fall der Zahlenfolgen studieren. Später behandeln wir Vektorfolgen im Kapitel über Konvergenz im Rn und Funktionenfolgen sowie Reihen (Kapitel 10), das sind unendliche Summen als Grenzwerte von Folgen endlicher Summen von Zahlen oder Funktionen. 9.1b Definition der Zahlenfolgen und Beispiele Eine Zahlenfolge (oder kurz: Folge) ist eine Abbildung (Funktion) von den natürlichen Zahlen (N oder N0 ) in die reellen oder komplexen Zahlen, also ist jedem n ∈ N(0) ein an ∈ C oder R zugeordnet. Beispiele: 1 1 , , ..., 2 3 1 1 1 1, , , , ..., 3 9 27 1, −1, 1, −1, 1, . . . , 1 für n ∈ N, n µ ¶n 1 an = = 3−n für n ∈ N0 , 3 an = (−1)n = cos (n π) für n ∈ N0 , 1, 1 + i, 2i, −2 + 2i, −4, . . . , an = (1 + i)n 1, x2 (1 − x), x4 (1 − x)2 , . . . , an = [ x2 (1 − x) ]n , 1, an = für n ∈ N0 , n ∈ N0 , x ∈ C beliebig. In diesen Beispielen konnte an direkt für jedes n berechnet werden. Andere häufige Beispiele sind rekursiv definierte Folgen: a1 = 1, an+1 = an + (n + 1)2 : {1, 1 + 22 , 1 + 22 + 32 , . . .}, a1 = a2 = 1, an = an−1 + an−2 , n ≥ 3 : Fibonacci-Zahlen, µ ¶ c 1 an + für ein c > 0. a0 > 0 beliebig, an+1 = 2 an √ Die letzte Folge strebt gegen c, siehe 9.2b (iv). Typische Fragen zu Folgen sind: • Streben die Folgenglieder gegen eine feste Zahl (Konvergenz)? • Ist der Grenzwert die gesuchte Lösung? • Nach wievielen Schritten unterscheidet sich die Approximation vom Grenzwert um weniger als eine zulässige Fehlertoleranz (Fehlerabschätzungen)? Schreibweisen für Folgen mit runden Klammern: (an )n∈N , (an )∞ 1 oder kurz (an ). RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 138 9.2 Konvergenz einer Folge gegen einen Grenzwert 9.2a Definition der Konvergenz gegen einen Grenzwert Sei (an ), an ∈ R oder C , eine Zahlenfolge. Sie heißt konvergent gegen den Grenzwert a ∈ R oder C, wenn es zu jedem ε > 0 ein N (ε) ∈ R gibt, so daß |an − a| ≤ ε für alle n ≥ N (ε). Schreibweisen: lim an = a, limn→∞ an = a, n→∞ an → a für n → ∞, an −−−→ a, n→∞ oder verkürzt (Vorsicht!) lim an = a, n→∞ an −−−→ a, an → a. ε a ε a ε Abbildung 9.1: ε-Umgebungen des Grenzwertes a in R und C. Für jedes ε > 0 liegen höchstens endlich viele Glieder einer Folge außerhalb der ε-Umgebung des Grenzwertes, gegen den sie konvergiert. Zur Vorstellung hilft es, ε als Fehlertoleranz zu interpretieren. Die Schranke N (ε) gibt an, von welchem Index n an mit Sicherheit der Näherungswert an innerhalb der Fehlertoleranz bei dem korrekten Grenzwert der Folge liegt. Die Fehlertoleranz darf beliebig klein sein, da es bei einer konvergenten Folge dieses N (ε) zu jedem noch so kleinen ε > 0 gibt. Eine Folge heißt konvergent, wenn es einen Grenzwert gibt, gegen den sie konvergiert, sonst divergent. Insbesondere heißt eine Folge Nullfolge (in C oder R), wenn sie gegen den Grenzwert a = 0 konvergiert. 9.2b Beispiele konvergenter Folgen (i) an = 1/n, n ∈ N. Behauptung: (an ) ist eine Nullfolge. Beweis: Mit a = 0 ist |an − a| = |an − 0| = |an | = |1/n| = 1/n > 0 abzuschätzen. Eine Rechnung, um einen Kandidaten für N (ε) zu finden: 1 ≤ε n ⇐⇒ n≥ 1 . ε (Wir werden nur “⇐=” benutzen.) Wähle also zu ε > 0 z.B. N (ε) = 1/ε ∈ R. Dann gilt für n ≥ N (ε) = 1/ε auch 0 < 1/n ≤ ε. Also: für N (ε) = 1/ε ist |an − 0| ≤ ε für alle n ≥ N (ε) erfüllt. (ii) an = RWTH Aachen n2 + 1 n−1 +i ∈ C, n ∈ N. Behauptung: (an ) → a = 1/2 + i. 2 2n n Mathematik I+II 9 Folgen, Konvergenz und Divergenz 139 Beweis: Zunächst wieder eine Rechnung zur Vereinfachung ¯ 2 ¯ µ ¶¯ ¯ ¯n + 1 ¯ ¯ 1 n−1 1 1 ¯¯ ¯ ¯ ¯ − +i ¯=¯ 2 −i ¯ |an − a| = ¯ +i 2n2 n 2 2n n ¯ ¯ ¯ ¯ µ ¶ ¯ 1 ¯ ¯ 1¯ 1 1 1 1 1 2 ≤ ¯¯ 2 ¯¯ + ¯¯i ¯¯ = + = +1 < . 2 2n n 2n n n 2n n In der ersten Ungleichung benutzten wir die Dreiecksungleichung für den Betrag und am Ende 1/2 n < 1. Damit haben wir auf Information verzichtet (eine Abschätzung durchgeführt), um einen einfacheren Ausdruck zu erhalten. Wähle nun zu ε > 0 : N (ε) = 2/ε ∈ R, dann folgt für alle n ≥ N (ε): |an − a| < 2/n ≤ ε. (iii) Sei q ∈ C, |q| < 1, an = q n ∈ C, n ∈ N0 . Behauptung: (an ) ist eine Nullfolge. 5.7f Beweis: |an − 0| = |an | = |q n | = |q|n . Sei b := (1/|q|) − 1 > 0, d.h. |q| = 1/(1 + b). Mit der Bernoulli-Ungleichung (5.6) gilt (1 + b)n ≥ 1 + n b > n b, also |q|n = 1 1 1 1 < = · . n (1 + b) bn b n Zu ε > 0 wähle N (ε) = 1/(ε b), dann gilt für alle n ≥ N (ε) = 1 1 1 1 : |an − 0| = |q|n < · ≤ · ε b = ε. εb b n b Also gilt limn→∞ an = limn→∞ q n = 0. Bemerkung: Die obige einfache Abschätzung |q|n < 1/b n ist sehr grob, sie verschenkt viel Information, für den Konvergenzbeweis reicht sie jedoch völlig aus! 9.2c Praxis der Bestimmung von N (ε) Wie die Beispiele in 9.2b gezeigt haben, geht man bei Konvergenzbeweisen vom Ziel der Schlußkette aus, nämlich von der Größe |an −a|, die abzuschätzen ist. Der erste Schritt ist, an und a einzusetzen und den Ausdruck zu vereinfachen. Äquivalente Umformungen sind oft schwierig und i.a. nicht nötig, in der Praxis wird das gewünschte Ziel meist durch vereinfachende Abschätzungen erreicht: Der Ausdruck für |an − a| wird durch einen einfacheren ersetzt, der sicher nicht kleiner als |an − a| ist, |an − a| wird durch eine einfachere und vielleicht viel größere Schranke abgeschätzt. Wichtig ist dabei nur, daß die Schranke für große n klein wird. In einem Beispiel: an = 1 + n sin(n−5/2 ), Behauptung an → 1 . |an − a| = |1 + n sin(n−5/2 ) − 1| = |n sin(n−5/2 )| = n sin(n−5/2 ). Soweit das Einsetzen von an und a sowie die Vereinfachungen. Die Beträge können weggelassen werden, da die Ausdrücke alle positiv sind. Es wäre recht kompliziert, für alle ε > 0 genau diejenigen n ∈ N zu bestimmen, für die |an | = n sin(n−5/2 ) ≤ ε gilt, und vor allem: es ist unnötig. Statt dessen vereinfachen wir den Ausdruck, indem wir den Sinus abschätzen. Die einfachste Abschätzung | sin x| ≤ 1 ergibt hier |an − a| = n sin(n−5/2 ) ≤ n. Diese Schranke ist richtig, aber für unser Ziel zu grob: Die Schranke wird für große n nicht klein! Als andere Abschätzung erinnern wir uns daran, daß der Sinus eines Winkels höchstens so groß sein kann wie das Bogenmaß, also sin x ≤ x für x ≥ 0 (siehe E.5, 7.5a). Damit erhalten wir als Schranke |an − a| = n sin(n−5/2 ) ≤ n n−5/2 = n−3/2 . RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 140 Nun ist leicht anzugeben, wie groß n sein muß, damit für die Schranke gilt n−3/2 ≤ ε, nämlich n ≥ 1/ε2/3 . Man kann es sich aber noch einfacher machen! Sicher gilt die weitere vergröbernde Abschätzung n−3/2 ≤ 1/n. Diese Schranke erfüllt 1/n ≤ ε, wenn n ≥ 1/ε. Also können wir N (ε) = 1/ε wählen. Zur Kontrolle arbeiten wir die Sequenz von Ungleichungen nun rückwärts ab: n ≥ N (ε) = 1/ε =⇒ 1/n ≤ ε =⇒ n−3/2 ≤ ε =⇒ |an − a| ≤ ε. Wir haben unser Ziel erreicht, für jedes ε > 0 ein N (ε) ∈ R anzugeben, so daß die gewünschte Ungleichung |an − a| ≤ ε für alle n ≥ N (ε) gilt. 9.3 Eindeutigkeit des Grenzwertes einer Folge Eine konvergente Zahlenfolge hat genau einen Grenzwert. Beweis: Nach der Definition in 9.2 hat eine konvergente Folge mindestens einen Grenzwert. Ein Widerspruchsbeweis zeigt, daß sie auch höchstens einen hat: Angenommen, a 6= b seien beide Grenzwerte einer Folge (an ). Zu ε0 := |b − a|/3 > 0 gibt es dann ein Na (ε0 ), so daß |an − a| ≤ ε0 für alle n ≥ Na (ε0 ), denn nach Voraussetzung ist a Grenzwert der Folge. Ebenso gibt es dann auch ein Nb (ε0 ) mit |an − b| ≤ ε0 für n ≥ Nb (ε0 ). Wähle ein m ∈ N mit m ≥ Na (ε0 ) und m ≥ Nb (ε0 ), dann folgt (Skizze!) |a − b| = |a − am − (b − am )| ≤ |a − am | + |b − am | ≤ 2 ε0 . Dies ist ein Widerspruch zur Wahl |b − a| = 3 ε0 . Die Annahme a 6= b führt zum Widerspruch, der Grenzwert ist also eindeutig. 2 Siehe auch die Bemerkung am Ende von 9.4f. 9.4 Grenzwertsätze für konvergente Folgen Das Konvergenzkriterium (Bestimmung eines N (ε) zu jedem ε > 0 ) ist in der Praxis zu unhandlich. Die Grenzwertbestimmung und der Konvergenzbeweis lassen sich oft wesentlich vereinfachen. Seien in diesem Abschnitt an → a und bn → b, n → ∞, immer konvergente (reelle oder komplexe) Folgen, dann gelten die folgenden Regeln: 9.4a Lineare Operationen cn := an ± bn , cn → a ± b, n → ∞, d · an → d · a für jedes d ∈ R oder C. 9.4b Multiplikation und Division cn := an · bn , cn → a · b, n → ∞. Falls b 6= 0 gibt es ein N (|b|/3) , so daß |bn − b| ≤ |b|/3, und damit |bn | ≥ 2|b|/3 > 0 für n ≥ N (|b|/3). cn := an a ist definiert für n ≥ N (|b|/3) und cn → , n → ∞. bn b RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 9.4c 141 Anwendung stetiger Funktionen Sei f eine stetige Funktion (für die Definition siehe ??), z.B. Polynom, trigonometrische Funktion, Exponentialfunktion, Logarithmus, Wurzel, ... oder Kombinationen daraus. Wenn a und alle an , n ≥ n0 im Definitionsbereich von f liegen, dann gilt (siehe ??) an → a =⇒ f (an ) → f (a), n → ∞. Die Umkehrung ist i.a. falsch, aus der Konvergenz der f (an ) kann nicht auf die Konvergenz der Folge (an ) geschlossen werden, wie z.B. die divergente Folge an = (−1)n zeigt, die mit der stetigen Funktion f (x) = x2 zur konvergenten Bildfolge f (an ) = (−1)2n = 1 wird. 9.4d Abschätzungen für Folgen und Grenzwerte (i) Beschränktheit konvergenter Folgen: Sei an → a, n → ∞, eine konvergente (reelle oder komplexe) Folge. Dann gibt es eine Schranke s ∈ R, so daß |an | ≤ s für alle n ∈ N0 . Beweis: Da (an ) konvergent ist, gibt es (insbesondere) zu ε0 = 1 ein N (1), so daß |an − a| ≤ 1 für alle n ≥ N (1), also |an | = |an − a + a| ≤ |an − a| + |a| ≤ 1 + |a| für n ≥ N (1). Wähle nun z.B. s := max{|a0 |, |a1 |, . . . , |aN (1)−1 |, 1 + |a|} (d.h. die größte der endlich vielen reellen Zahlen), dann gilt |an | ≤ s für alle n ∈ N0 . Folgerung: Eine unbeschränkte Folge kann nicht konvergent sein. Beispiel: 1, 1 1 1 , 3, , 5, , . . . 2 4 6 ist eine divergente Folge (obwohl sie eine gegen Null strebende Teilfolge hat!). (ii) Schranke für den Grenzwert: Wenn es n0 ∈ N, r ∈ R gibt mit |an | ≤ r für n ≥ n0 , dann gilt auch |a| ≤ r. (iii) Positivität: Ist (an ) eine reelle Folge mit an ≥ 0 für n ≥ n0 , dann ist a ≥ 0. Hinweis: Auch wenn an > 0 für alle n , folgt nur a ≥ 0, Beispiel: an = (1/n) > 0 für alle n ∈ N, aber a = lim an = 0. n→∞ (iv) Schachtelung: Wenn für eine Folge (cn ) und eine Zahl c eine Abschätzung der Form |cn −c| ≤ an gelungen ist, wobei (an ) eine (schon bekannte) Nullfolge ist, dann ist (cn ) konvergent mit cn → c. Für reelle Folgen ist eine gleichwertige Eigenschaft: Seien bn → b, dn → b konvergente Folgen mit demselben Grenzwert und es gelte bn ≤ cn ≤ dn , dann ist auch (cn ) konvergent mit cn → b. 9.4e Bemerkungen zur Konvergenz von Folgen (i) Für alle Konvergenzbetrachtungen und für den Grenzwert kommt es bei Folgen auf endlich viele Glieder nicht an, diese können weggelassen werden oder beliebig abgeändert werden, ohne den Grenzwert zu beeinflussen. Dies wurde bereits bei der Quotientenfolge genutzt. RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 142 (ii) Wir erläutern einige der Regeln mit Beispielen und beweisen exemplarisch die Multiplikationsregel. Die Regeln sind nur auf konvergente Folgen (an ), (bn ) anwendbar. Wenn eine oder beide divergieren kann es trotzdem sein, daß z.B. Produkt- oder Differenzfolgen konvergent sind: √ √ cn = an − bn := n + 1 − n. Die Regeln sind nicht anwendbar, da die Folgen (an ) und (bn ) divergieren (beide sind unbeschränkt). Ein direkter Beweis zeigt, daß (cn ) eine Nullfolge ist: √ √ √ √ √ √ ( n + 1 − n )( n + 1 + n ) 1 1 √ 0≤ n+1− n= =√ √ √ < √ ≤ε n n+1+ n n+1+ n falls n ≥ N (ε) = 1/ε2 . Der hier benutzte Trick des konjugierten Erweiterns“ bewährt sich ” oft, wenn Differenzen von Wurzeln mit ähnlichem Inhalt behandelt werden müssen. 9.4f Beweis der Multiplikationsregel Das Verfahren tritt ähnlich bei vielen Beweisen von Regeln für Produkte auf, z.B. der Ableitungsregel für Produkte (6.3b). Der übliche Trick“ besteht darin, durch Addition und Subtraktion desselben ” Ausdruckes solche Terme zu erhalten, über die etwas bekannt ist. Sei an → a, bn → b (d.h. wir wissen, daß |an − a| und |bn − b| klein werden). an · bn − a · b = an bn − an b + an b − a b = an (bn − b) + (an − a) b. Mit der Dreiecksungleichung folgt |an · bn − a · b| ≤ |an | |bn − b| + |an − a| |b|. Nach 9.4d (i) ist die konvergente Folge (an ) beschränkt: es gibt ein s mit |an | ≤ s für alle n. Zu ε > 0 sei ε0 := ε/(s + |b|) > 0. Wähle Na (ε0 ) so groß, daß |an − a| ≤ ε0 für n ≥ Na (ε0 ) und Nb (ε0 ) so, daß |bn − b| ≤ ε0 für n ≥ Nb (ε0 ). Mit N (ε) := max{Na (ε0 ), Nb (ε0 )} gilt für alle n ≥ N (ε) |an · bn − a · b| ≤ s ε0 + ε0 |b| = ε. 2 Bemerkung: In früheren Beweisen für konkret gegebene Folgen wurde N (ε) explizit angegeben. Hier benutzten wir die Existenz von Na (ε0 ) und Nb (ε0 ), die für jedes ε0 > 0 aus der Voraussetzung folgt, daß die Folgen (an ) und (bn ) konvergieren, um ein N (ε) für die Produktfolge zu konstruieren. 9.5 Anwendungsbeispiele für Grenzwertsätze (i) an = (1/n)k , k ∈ N ist Nullfolge, denn (1/n) · (1/n) · . . . · (1/n) → 0 · 0 · . . . · 0 = 0. Es gilt sogar (1/n)p → 0 für alle p > 0. (ii) cn = 5n3 − 3n2 + n 5 − 3/n + 1/n2 = , 2n3 − 16 2 − 16/n3 n ≥ n0 = 3. Betrachte die Summanden im Zähler und Nenner einzeln. an = 1/n → 0 =⇒ (−3) · (1/n) → (−3) · 0 = 0, bn = 1/n2 = (1/n) · (1/n) → 0 · 0 = 0, also −3/n + 1/n2 → 0, 5 − 3/n + 1/n2 → 5. Entsprechend gilt (−16) · (1/n) · (1/n) · (1/n) → (−16) · 0 · 0 · 0 = 0. Also ist lim n→∞ RWTH Aachen 5n3 − 3n2 + n 5 = . 2n3 − 16 2 Mathematik I+II 9 Folgen, Konvergenz und Divergenz 143 √ √ (iii) Sei an ≥ 0 für alle n ≥ n0 , an → a. Dann gilt auch an → a, denn nach 9.4d (iii) ist a ≥ 0 und die Wurzel ist stetig. Wie lautet ein direkter Beweis (z.B. für a > 0 mit konjugiertem Erweitern)? (iv) Wurzelziehen mit der Newton-Methode (auch als Babylonisches Wurzelziehen“ oder als √ ” Verfahren des Heron von Alexandria“ bekannt). Zu c > 0 suche c, das ist die positive ” Nullstelle von f (x) = x2 −c. Das Newtonverfahren (siehe ??) ist ein systematisches Verfahren, um Nullstellen differenzierbarer Funktionen (z.B. von Polynomen) approximativ zu bestimmen. In diesem Fall ergibt sich folgende rekursiv definierte Folge (xn )n∈N0 : ¶ µ √ 1 c , Behauptung: xn −−−→ c. x0 > 0 beliebig, xn+1 = xn + n→∞ 2 xn Zur Illustration: mit g(x) := (x+c/x)/2 für x > 0 ist xn+1 = g(xn ), siehe Abb. 9.2. Es gibt √ genau einen positiven Fixpunkt von g: g(x) = x > 0 ⇐⇒ x2 = c, x > 0 ⇐⇒ x = c. Außerdem liegt das eindeutige lokale Minimum von g am Fixpunkt: g 0 (x) = (1−c/x2 )/2 = 0 √ bei x = c = g(x). 2.7 x g(x) 1.72 1 0 0.4 x’0 1.41 x3 3 x2 x1 5 x0 Abbildung 9.2: Verfahren des Heron, c = 2, Anfangswerte x0 = 5 oder x00 = 0, 4 p ¡√ ¢2 √ √ x − c/x = x + c/x − 2 c = 2 (g(x) − c ) für alle √ x > 0. Daraus folgt xn+1 = g(xn ) ≥ c für n ∈ N0 , die Folge ist nach unten beschränkt. √ √ √ Insbesondere ist für n ≥ 1: xn ≥ c, (c/xn ) ≤ c, also (c/xn ) − c ≤ 0 und damit µ ¶ √ √ √ √ ¢ 1 1¡ √ ¢ 1 c 1¡ 0 ≤ xn+1 − c = xn − c + − c ≤ xn − c ≤ · xn−1 − c 2 x 2 2 2 | n {z } Zuvor eine Rechnung: 0 ≤ ≤0 µ ¶n µ ¶n µ ¶ µ ¶n µ ¶ √ √ ¢ 1 ¡ 1 1 c 1 1 c ≤ ... ≤ x0 + −2 c < x0 + . x1 − c = 2 2 2 x0 2 2 x0 √ Nach 9.2b (iii) ist (1/2)n eine Nullfolge. Mit der Schachtelung 9.4d (iv) folgt, daß xn → c für n → ∞. √ Mit diesem Verfahren kann sehr schnell ein guter Näherungswert von c berechnet werden. In Taschenrechnern werden solche Algorithmen benutzt. Für eine andere Behandlung dieser Folge siehe 9.9b RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 9.6 144 Divergente Folgen und Nullfolgen 9.6a Sprechweise strebt gegen Unendlich“ ” Sei (an ) eine reelle (divergente) Folge. Man sagt, sie strebt gegen ∞“ und schreibt: an → ∞“ ” ” (oder lim an = ∞), wenn es zu jeder (beliebig großen) Schranke M > 0 ein N (M ) gibt, so daß an ≥ M für alle n ≥ N (M ). [ Entsprechend an → −∞ wenn −an → ∞, oder gleichwertig, wenn an ≤ −M für alle n > N (−M ).] √ Beispiel: an = n erfüllt √ an → ∞, denn zu 0 < M wähle N (M ) ≥ M 2 , dann gilt für alle √ n ≥ N (M ) auch an = n ≥ M 2 = M . 9.6b Kehrwert und Nullfolgen Sei (an ) eine Nullfolge mit an 6= 0 für alle n ≥ n0 (z.B. an = 1/n oder an = q n , q ∈ C, 0 < |q| < 1). Dann ist die Folge (cn ), cn := 1/an unbeschränkt und damit divergent. Für eine (divergente) Folge (an ) gelte |an | → ∞, dann ist cn := 1/an eine Nullfolge. Führen Sie die einfachen Beweise selbst! Als weiteres Kriterium dafür, daß eine Folge eine Nullfolge ist, weisen wir auf 10.5b hin. 9.7 Reelle monotone und beschränkte Folgen Eine reelle Folge (an ), n ≥ n0 , heißt monoton wachsend (oder monoton steigend), wenn an+1 ≥ an für alle n ≥ n0 (dann gilt mit der Transitivität 5.3c auch am ≥ an für alle m ≥ n ≥ n0 ). Eine monoton wachsende Folge ist immer nach unten beschränkt, denn an ≥ an0 für alle n ≥ n0 . Eine monoton wachsende Folge heißt nach oben beschränkt, wenn es eine obere Schranke s+ gibt mit an ≤ s+ für alle n ≥ n0 . Eine monoton steigende nach oben beschränkte Folge ist automatisch beschränkt (nach oben und unten), z.B. durch die folgende Schranke: |an | ≤ max{|an0 |, |s+ |}. Zum Nachweis der Beschränktheit genügt es also, bei monoton steigenden Folgen eine obere Schranke s+ anzugeben. Entsprechend: Eine monoton fallende Folge, d.h. an+1 ≤ an für alle n ≥ n0 , ist genau dann beschränkt, wenn sie nach unten beschränkt ist durch eine untere Schranke s− . Wir sprechen von monotonen Folgen, wenn sie reell und monoton steigend oder monoton fallend sind für n ≥ n0 , n0 ∈ N geeignet gewählt. Bisher konnten wir die Konvergenz einer Folge nur zeigen, wenn wir den Grenzwert wußten oder raten konnten. Der nun folgende Satz für reelle Folgen sichert die Konvergenz, ohne daß wir den Grenzwert kennen müssen! 9.8 Fundamentalsatz über monotone beschränkte Folgen 9.8a Der Satz Jede monoton wachsende und (nach oben) beschränkte Folge (an ) reeller Zahlen ist konvergent in R , d.h. es gibt ein a ∈ R mit limn→∞ an = a. Natürlich gilt die Abschätzung an ≤ a ≤ s+ für beliebiges n, wobei s+ eine obere Schranke ist. Entsprechend für monoton fallende (nach unten) beschränkte Folgen. Kurz: monotone beschränkte Folgen sind konvergent in R. 9.8b Bemerkungen zum Satz (i) Monotonie alleine genügt nicht: an = −n ist monoton fallend aber unbeschränkt, also divergent. (ii) Beschränktheit alleine genügt nicht, denn an = (−1)n ist beschränkt aber divergent. RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 145 (iii) Die Gültigkeit des Satzes beruht auf der Vollständigkeit der reellen Zahlen, siehe 9.11. Eine monotone beschränkte Folge rationaler Zahlen braucht keinen Grenzwert in der nicht vollständigen Menge Q zu haben! (iv) Dieser Satz ist der Angelpunkt für die meisten Beweise der absoluten Konvergenz von Reihen (siehe Abschnitt 10.3). Da die Reihen für die Definition und Berechnung vieler wichtiger Funktionen unerläßlich sind, ist der Name Fundamentalsatz“ gewiß nicht übertrieben! Auch bei der ” Definition des Integrals ist er entscheidend (8.3b). (v) Für rekursiv definierte Folgen, z.B. an+1 = g(an ) für eine Funktion g, liefert dieser Satz oft die einzige Möglichkeit, die Konvergenz zu zeigen. (vi) Für komplexe Folgen (cn ) ist Monotonie nicht definiert. Stattdessen kann mitunter benutzt werden, daß die (reellen) Folgen der Realteile und/oder Imaginärteile monoton und beschränkt sind. Wenn beide reellen Folgen konvergieren, dann folgt limn→∞ cn = lim Re(cn ) + i lim Im(cn ) . 9.9 Beispiele für monotone beschränkte Folgen 9.9a Die Eulerzahl e Betrachte für n ∈ N die beiden Folgen (an ), (bn ) n X 1 1 1 1 = , an = + + . . . + 0! 1! n! k! k=0 µ ¶ ¶ µ 1 n n+1 n bn = 1 + = . n n Beide sind monoton und beschränkt und sie konvergieren gegen denselben Grenzwert, die Eulerzahl e, die Basis der Exponentialfunktion. lim an = lim bn = e = 2, 718 . . . . n→∞ n→∞ Wir beweisen die Monotonie und Beschränktheit von (an ): an+1 − an = 1/(n + 1)! > 0, also monoton wachsend. 1 1 1 + + ... + 2 2·3 2 · 3 · ... · n 1 1 1 <1+1+ + + ... + 2 2·2 2 · 2 · ... · 2 ¶ µ n−1 j X 1 1 − (1/2)n < 1 + 2 = 3. =1+ =1+ 2 1 − 1/2 an = 1 + 1 + j=0 (Wir haben die geometrische Summenformel 5.10 für q = 1/2 benutzt.) Also ist die Folge (an ) monoton und beschränkt und damit nach Satz 9.8a konvergent. Die Eulerzahl e als diesen Grenzwert zu definieren ist eine von mehreren äquivalenten Möglichkeiten. Daß (bn ) monoton wachsend ist, sehen wir mit der Bernoullischen Ungleichung 5.6. bn bn−1 = (n + 1)n (n − 1)n−1 n (n + 1)n (n − 1)n = nn nn−1 n−1 n2n µ ¶ µ ¶ n 1 n (5.6) n 1 = 1− 2 ≥ 1− = 1. n−1 n n−1 n Für die Beschränktheit der Folge (bn ) und die Gleichheit der Grenzwerte siehe Bücher. RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 9.9b 146 Iteratives Wurzelziehen nach Heron und Newton Das Wurzelziehen mit der Newton-Methode bzw. das Verfahren des Heron wurde in 9.5 (iv) vorgestellt, sei c > 0. Zu beliebigem Startwert x0 > 0 ist die Folge rekursiv definiert durch xn+1 = g(xn ) := (1/2)(xn + c/xn ) > 0. Wir sahen dort: p ¡√ ¢2 √ √ 0≤ x − c/x = x + c/x − 2 c = 2 (g(x) − c ) für alle x > 0. Daher gilt für n ≥ 1, daß √ √ xn = g(xn−1 ) ≥ c > 0 und damit c/xn ≤ c ≤ xn . µ ¶ 1 c 1 xn+1 = g(xn ) = xn + ≤ (xn + xn ) = xn , 2 xn 2 √ also ist die Folge ab n = 1 monoton fallend und nach unten durch c beschränkt. So erhalten wir √ einfach die Konvergenz, nicht jedoch den Grenzwert c . Letzterer folgt auch aus der Fixpunktgleichung: 9.10 Zur Grenzwertbestimmung rekursiv definierter Folgen Die Konvergenz rekursiv definierter Folgen kann oft am einfachsten mit dem Fundamentalsatz über monotone Folgen 9.8a gezeigt werden, damit ist aber noch nicht der Grenzwert bestimmt. Wenn z.B. die Rekursion von folgender Form ist: an+1 = g(an ), a1 gegeben, mit einer stetigen Funktion g und an → a konvergent (a noch unbekannt), dann erhält man durch Betrachten des Grenzwertes auf beiden Seiten: ³ ´ g stetig g(a) = g lim an = lim g(an ) = lim an+1 = a. n→∞ n→∞ n→∞ (Zu stetigen Funktionen siehe 9.4c oder ??, ??.) Also muß der Grenzwert a die Fixpunktgleichung a = g(a) erfüllen, oder umgekehrt: die Lösungen der Fixpunktgleichung a = g(a) sind die einzig möglichen Kandidaten für den Grenzwert. Bei mehreren Fixpunkten muß der richtige durch Zusatzbetrachtungen bestimmt werden, er kann vom Startwert der Rekursion (z.B. a1 ) abhängen. Im Beispiel der Heron-Newton-Iteration 9.9b gilt g(x) = x, x 6= 0 ⇐⇒ x2 = c. Bei positivem √ √ Startwert x0 konvergiert die Folge gegen c , während x0 < 0 auf − c führt. Bei den etwas komplizierteren Iterationen, bei denen die Berechnungsformel auch von n abhängt, also an+1 = g(n; an ), dann ist die Fixpunktgleichung x = lim g(n; x) n→∞ zu lösen, um Kandidaten für den Grenzwert zu bestimmen. 9.11 Vollständigkeit der reellen Zahlen und Beweis des Fundamentalsatzes Die Körperaxiome (5.8) gelten gleichermaßen für rationale, reelle und komplexe Zahlen (Q, R, C), die reellen und komplexen Zahlen sind zusätzlich durch die Vollständigkeit ausgezeichnet. Außer der von der Schule bekannten Intervallschachtelung ist eine von vielen äquivalenten Charakterisierungen der Vollständigkeit reeller Zahlen die folgende. RWTH Aachen Mathematik I+II 9 Folgen, Konvergenz und Divergenz 9.11a 147 Ein Vollständigkeitsaxiom der reellen Zahlen Jede Menge M reeller Zahlen, in der mindestens ein Element liegt und die nach oben beschränkt ist, besitzt in R eine kleinste obere Schranke, ein Supremum“, geschrieben sup M ∈ R. ” Beispiel: M := {x ∈ Q ⊆ R | x > 0, x2 < 2}. M ist nicht √ leer (1 ∈ M ) und nach oben beschränkt (z.B. durch 2). Die kleinste obere Schranke ist sup M = 2 ∈ R, sie existiert in R, jedoch sup M 6∈ Q, wie wir in 5.8d sahen. Die Vollständigkeit vererbt sich auf Paare und n-Tupel reeller Zahlen, also sind auch C und jeder Rn , n ∈ N, vollständig, die Grenzwerte konvergenter Folgen in C oder Rn liegen in C bzw. Rn . 9.11b Beweis des Fundamentalsatzes für monotone Folgen Betrachte zu der monoton wachsenden beschränkten Folge (an )n∈N die Menge der Folgenglieder M := {an | n ∈ N} ⊆ R. M 6= ∅ und M ist nach oben beschränkt, da die Folge nach Voraussetzung beschränkt ist. Also hat M ein Supremum sup M ∈ R, da R vollständig ist. Wir zeigen nun, daß sup M der gesuchte Grenzwert der Folge (an ) ist. Da sup M eine obere Schranke von M ist, gilt an ≤ sup M ⇐⇒ an − sup M ≤ 0 für alle n. Wenn es zu ε > 0 ein n(ε) gibt mit −ε ≤ an(ε) − sup M ≤ 0, dann folgt mit der Monotonie der Folge −ε ≤ an(ε) − sup M ≤ am − sup M ≤ 0 für alle m ≥ n(ε), also |am − sup M | ≤ ε für alle m ≥ n(ε). Die behauptete Konvergenz folgt, wenn es zu jedem ε > 0 ein solches n(ε) gibt. Widerspruchsbeweis dafür: Angenommen, zu einem (kleinen) ε0 > 0 gibt es kein solches n(ε0 ), also an − sup M < −ε0 ⇐⇒ an < sup M − ε0 für alle n ∈ N. Dann ist aber auch sup M −ε0 < sup M eine obere Schranke von M und sup M nicht die kleinste, Widerspruch! 2 9.12 Offene und Abgeschlossene Mengen Wir können jetzt die in 5.4 angesprochenen Charakterisierungen offener und abgeschlossener Mengen präzisieren. Eine Teilmenge A einer vollständigen Menge wie R , C oder Rn heißt abgeschlossen, wenn für jede konvergente Folge (an ) mit an ∈ A für alle n ≥ n0 auch der Grenzwert a in A liegt. Eine abgeschlossene Menge wird bei konvergenten Grenzprozessen nicht verlassen. Eine Menge O heißt offen, wenn ihr Komplement abgeschlossen ist, oder gleichwertig, wenn zu jedem Element x ∈ O auch eine Umgebung {y | |y − x| < δ} zu O gehört für ein δ > 0, das meist vom Bezugspunkt x ∈ O abhängt. Eine offene Menge wird bei kleinen Variationen nicht verlassen, in offenen Mengen kann man wackeln“. Für offene Teilmengen des Rn siehe das Kapitel über ” Konvergenz im Rn . RWTH Aachen Mathematik I+II 10 10 Reihen 148 Reihen Wir haben uns in Abschnitt 5.1 klar gemacht, daß dank des Assoziativgesetzes der Addition eine beliebige endliche Summe von Zahlen (Körperelementen, 5.8) auf eindeutige natürliche Weise auf die Addition von Paaren zurückgeführt wird. Als Verallgemeinerung der endlichen Summen behandeln wir in diesem Kapitel unendliche Summen, die Reihen. Wir beginnen mit dem einfachsten Fall von (reellen oder komplexen) Zahlen als Summanden, später sind vor allem Funktionsreihen von Bedeutung, insbesondere die Potenzreihen (Taylorreihen), siehe z.B. 10.8 und das Kapitel über Taylorreihen, sowie die Fourierreihen. Die Reihen sind das entscheidende Hilfsmittel, um für wichtige Funktionen wie z.B. die Exponentialfunktion oder die trigonometrischen Funktionen ihre Funktionswerte überhaupt definieren und berechnen zu können. 10.1 Konvergenz und absolute Konvergenz einer Reihe Eine Reihe ist die Verallgemeinerung einer endlichen Summe auf unendlich viele Summanden. Es hängt von den Summanden ab, ob dies möglich ist. Wenn die Folge der endlichen Teilsummen konvergiert, so wird der Wert der Reihe als Grenzwert dieser Folge definiert. Seien ck ∈ C (oder R), k ∈ N0 (oder N oder k ≥ n0 ), die Summanden. Die endlichen Teilsummen sind Sn = c0 + c1 + . . . + cn = n X ck . k=0 Falls die Folge der Teilsummen (Sn ) konvergiert, heißt die Reihe konvergent und ihr Wert ist definiert als der Grenzwert: ∞ X ck := lim Sn = lim n→∞ k=0 n→∞ n X ck . k=0 Sprachlich wird oft nicht zwischen einer konvergenten Reihe und dem Wert, den sie annimmt, unterschieden. Man sagt im Fall der Konvergenz auch die Reihe ist summierbar “ oder auch die Reihe ” ” existiert “. Andernfalls ist die Reihe divergent, einschließlich der Spezialfälle Sn → ±∞ für reelle Summanden. Als wichtigen Spezialfall einer konvergenten Reihe nennen wir eine Reihe absolut konvergent“, ” wenn sogar die unendliche Summe der Beträge der Summanden konvergiert, d.h. wenn Ŝn := n X k=0 |ck | −−−→ Ŝ n→∞ konvergiert. (Der Betrag wurde früher oft Absolut-Betrag genannt, auch englisch absolute value“, daher der Na” me.) Nach dem Fundamentalsatz 9.8a ist diese monoton wachsende Folge genau dann konvergent, wenn sie (nach oben) beschränkt ist. Jede absolut konvergente Reihe ist auch konvergent (der Beweis ist nicht schwer). Absolute Konvergenz besagt anschaulich, daß die Summanden schnell genug klein ” werden“, so daß Ŝn beschränkt ist. Dadurch sind absolut konvergente Folgen gutartig“, sie sind ” z.B. unempfindlich gegenüber Manipulationen wie der Änderung der Summationsreihenfolge. Viele in den Anwendungen auftretende Reihen sind absolut konvergent, z.B. die sehr wichtigen Potenzreihen (10.8) innerhalb ihres Konvergenzkreises. Trivialerweise sind alle Reihen mit nur endlich vielen nicht verschwindenden Summanden (ck = 0 für alle k ≥ k0 ) absolut konvergent. Für Reihen mit vektorwertigen Summanden Rn . P∞ siehe das Kapitel über Konvergenz Pim ∞ Im allgemeinen ist k=0 ck eine andere Zahl als Ŝ = k=0 |ck | (außer wenn alle ck ≥ 0), die Betrachtung von Ŝ dient nur dazu, die absolute Konvergenz zu sichern, die Reihe abzuschätzen (siehe 10.3) und bei reellen Reihen auch zur Bestimmung einer oberen Schranke, jedoch nicht zur RWTH Aachen Mathematik I+II 10 Reihen 149 Berechnung des Wertes der Reihe! Reihen, die konvergent, aber nicht absolut konvergent sind, werden in Abschnitt 10.9 diskutiert. Zunächst behandeln wir Beispiele und Kriterien für die gute“ absolute ” Konvergenz bzw. für Divergenz. Reihen und Folgen sind sehr eng miteinander verwandt. Gleichwertig zu einer Folge (an )n∈N ist die folgende Reihe an = n X ck mit c1 = a1 , ck = ak − ak−1 , k ≥ 2, n → ∞. k=1 Konvergenzfragen sind für beide äquivalent und der Wert der Reihe ist mit dieser Umrechnung gleich dem Grenzwert der Folge. Wir widmen den Reihen trotzdem ein eigenes Kapitel, da Reihen in den Anwendungen sehr oft auftreten (z.B. sind besonders wichtige Funktionen wie die Exponentialfunktion und die trigonometrischen Funktionen durch ihre Potenzreihen definiert), und da es besonders hilfreiche Kriterien für den direkten Umgang mit Reihen gibt. Andererseits ist der Konvergenzbegriff für Folgen (hier für die Folge (Sn ) der endlichen Teilsummen) die Grundlage, um die Konvergenz von Reihen definieren, überprüfen und nutzen zu können. 10.2 Einfache Beispiele von Reihen Zur Einführung behandeln wir in 10.2 zunächst Beispiele von Reihen mit einem bekannten Grenzwert. Der Wert des Konzeptes der (absolut) konvergenten Reihe liegt natürlich darin, daß wir so auch neue Objekte definieren und mit ihnen arbeiten können. 10.2a Eulerzahl, Unendliche Dezimalbrüche In Abschnitt 9.9a sahen wir, daß die Reihendarstellung der Eulerzahl konvergiert: e= ∞ n X X 1 1 = lim . k! n→∞ k! k=0 k=0 Unendliche Dezimalbrüche sind Reihen, die ebenfalls als Grenzwerte der nach endlich vielen Nachkommaziffern abgebrochenen endlichen Dezimalbrüche eindeutig definiert sind. Zunächst für positive Zahlen: Sei K ∈ N0 und sei z1 , z2 , . . . eine Ziffernfolge mit zj ∈ {0, 1, . . . , 9}. Sei an der an der n-ten Nachkommastelle abgebrochene Dezimalbruch: an = K, z1 z2 z3 . . . zn = K + n X zj 10−j . j=1 Die Folge (an ) ist monoton wachsend, denn an+1 − an = zn+1 · 10−(n+1) ≥ 0, und die Teilsummen sind nach oben beschränkt: an = K + n X zj 10−j ≤ K + j=1 n X 9 · 10−j = K + j=1 n−1 9 X −k =K+ 10 10 k=0 (5.10) = K+ n 9 X −(j−1) 10 10 j=1 9 1 − 10−n = K + 1 − 10−n < K + 1. 10 1 − 10−1 Wir haben die geometrische Summenformel (5.10) für q = 1/10 benutzt. Mit dem Fundamentalsatz über monotone Folgen (9.8a) konvergiert die Folge (an ). Mit dem unendlichen Dezimalbruch“ ist ” der eindeutige Grenzwert dieser Folge, der Wert der absolut konvergenten Reihe gemeint: K, z1 z2 z3 . . . := lim an = K + lim n→∞ n→∞ n X k=0 −k zk 10 =K+ ∞ X zk 10−k . k=1 Für negative Zahlen betrachte deren Negatives. RWTH Aachen Mathematik I+II 10 Reihen 10.2b 150 Die geometrische Reihe Sei q ∈ R oder C, |q| < 1, cj := q j . Die endlichen Teilsummen berechnen wir mit der geometrischen Summenformel 5.10 Sn = n X qj = j=0 1 − q n+1 1 q n+1 = − , 1−q 1−q 1−q Ŝn = n X |q j | = j=0 1 − |q|n+1 1 ≤ . 1 − |q| 1 − |q| Für |q| < 1 sahen wir in 9.2b (iii), daß q n+1 → 0 für n → ∞, also konvergiert (Sn ), lim Sn = n→∞ 1 q n+1 1 − lim = , 1 − q n→∞ 1 − q 1−q die Reihe ist sogar absolut konvergent, da die Folge Ŝn durch 1/(1 − |q|) beschränkt ist, und es gilt die wichtige Summationsformel für die geometrische Reihe: ∞ X qj = j=0 10.2c 1 1−q für |q| < 1, q ∈ R oder C. Eine Reihe für Vergleiche Sei bk = 1/k (k + 1) = [ 1/k − · 1 S3 = b1 + b2 + b3 = − 1 Sn = n X k=1 1/(k + 1) ] > 0, k ∈ N. ¸ · ¸ · ¸ 1 1 1 1 1 1 + − + − =1− , 2 2 3 3 4 4 1 1 =1− (Beweis mit vollständiger Induktion). k (k + 1) n+1 Da 1/(n + 1) → 0 für n → ∞ ist die Reihe absolut konvergent, ∞ X k=1 ∞ X 1 1 =1= . k (k + 1) ` (` − 1) `=2 Diese Reihe wird oft in Konvergenzbeweisen als Vergleichsreihe für das Majorantenkriterium 10.3a herangezogen. 10.3 Vergleichskriterien für Konvergenz und Divergenz Als Dreiecksungleichung für Reihen“ kann man die folgende Ungleichung für absolut konvergente ” Reihen bezeichnen, die eine Abschätzung für den Grenzwert liefert: ¯∞ ¯ ∞ ¯X ¯ X ¯ ¯ |ck | . ck ¯ ≤ ¯ ¯ ¯ k=0 k=0 Wegen der Dreiecksungleichung (5.5b, 5.7f) ist sie für endliche Summen richtig, mit 9.4d überträgt sie sich auf den Grenzwert. Die nun folgenden Kriterien für die absolute Konvergenz von Reihen basieren alle auf dem Fundamentalsatz über monotone beschränkte Folgen (9.8a). Es sind die wichtigsten Konvergenzkriterien für die Anwendungen und für die Theorie. RWTH Aachen Mathematik I+II 10 Reihen 151 10.3a Majorantenkriterium für absolute Konvergenz P P∞ Sei die Reihe ∞ k=0 bk absolut konvergent (d.h. k=0 |bk | konvergent) und für ein n0 gelte |ck | ≤ P∞ |bk | für alle k ≥ n0 , dann ist auch die Reihe k=0 ck absolut konvergent. Beweisidee für n0 = 0: Ŝn = n X |ck | ≤ k=0 n X |bk | ≤ k=0 ∞ X |bk | =: s+ < ∞. k=0 Die monoton wachsende Folge ist also beschränkt und somit nach 9.8a konvergent. 10.3b 2 Quotiententest Dieses Kriterium, das auf dem Vergleich mit der geometrischen Reihe (10.2b) beruht, führt in vielen Anwendungen zum Ziel. Wenn die Form der Summanden keine konkreten Hinweise für ein anderes Vorgehen gibt, sollte man diesen Test oderP das Quotientenkriterium zuerst versuchen. Für eine reelle oder komplexe Reihe ck gelte ab einem n0 : ck 6= 0 für alle k ≥ n0 . Falls der folgende Grenzwert existiert, sei ¯ ¯ ¯ ck+1 ¯ ¯ ¯ = lim |ck+1 | . Q := lim ¯ k→∞ ck ¯ k→∞ |ck | P Dann gilt für die Reihe ck : Wenn Q<1: absolute Konvergenz der Reihe, Q=1: keine Aussage mit dem Quotiententest, Q>1: Divergenz der Reihe. Wenn sogar der Grenzwert limk→∞ ck+1 /ck existiert, dann gilt mit 9.4c ¯ ¯ ¯ ¯ ¯ ¯ ck+1 ¯ ¯ ¯ = ¯ lim ck+1 ¯ , Q = lim ¯¯ ¯ ¯ k→∞ k→∞ ck ¯ ck denn die Betragsfunktion ist stetig. Der Quotiententest ist ein Spezialfall des etwas allgemeineren Quotientenkriteriums: 10.3c Quotientenkriterium Es gebe ein 0 < q < 1 und ein n0 ∈ N, so daß ck 6= 0 für alle k ≥ n0 und ¯ ¯ ¯ ck+1 ¯ ¯ ¯ ¯ ck ¯ ≤ q < 1 für alle k ≥ n0 , dann ist die Reihe absolut konvergent. ¯ ¯ Wenn hingegen ¯ck+1 /ck ¯ ≥ 1 für alle k ≥ n0 , dann ist die Reihe divergent (denn die Summanden streben nicht gegen 0 ). In den anderen Fällen macht dieses Kriterium keine Aussage über die Konvergenz. Beweis der Konvergenz im Falle n0 = 0 : |c1 | ≤ q |c0 |, |c2 | ≤ q |c1 | ≤ q 2 |c0 |, . . . , |ck | ≤ q k |c0 |, n X |ck | ≤ |c0 | k=0 n X k=0 k q ≤ |c0 | ∞ X k=0 q k = |c0 | 1 = s+ < ∞ für alle n. 1−q 2 Wichtiger Hinweis: Für die Konvergenz genügt es nicht, nur |ck+1 /ck | < 1 zu zeigen! RWTH Aachen Mathematik I+II 10 Reihen 10.3d 152 Anwendungsbeispiele der Konvergenzkriterien (i) Die geometrische Reihe (10.2b) ist als absolut konvergent bekannt. Doch für z ∈ R oder C, |z| < 1, ist sogar die Reihe mit ck = k p z k , p eine beliebig große Potenz, absolut konvergent. Bei z = 0 klar (ck = 0 für alle k ≥ 1), für 0 < |z| < 1: ¯ µ ¯ ¯ ¯ ¶p ¯ ck+1 ¯ ¯ (k + 1)p z k+1 ¯ ¯=¯ ¯= 1+ 1 ¯ |z| −−−→ |z| = Q < 1. ¯ ¯ ck ¯ ¯ k→∞ kp z k k Für |z| > 1 sind die Reihen für alle, auch negative, Potenzen p ∈ R divergent. (ii) ck = (1/k)p > 0, k ∈ N, p ≥ 2. ¯ ¯ µ ¶p µ ¶p ¯ ck+1 ¯ 1 k ¯ ¯= = 1− −−−→ 1 für alle p. ¯ ck ¯ k→∞ k+1 k+1 Der Quotiententest ist für diese Reihe zu grob. Mit dem Majorantenkriterium (10.3a) wissen wir durch Vergleich mit der Reihe 10.2c, daß für p ≥ 2 absolute Konvergenz gilt, denn |ck | = (1/k)p ≤ (1/k)2 ≤ 1/k (k − 1) = bk , k ≥ 2, und (bk ) ist eine absolut konvergente Majorante. Allgemeine Regel: wenn ck = P̃ (k)/P (k), P, P̃ Polynome, und wenn die höchste Potenz von k im Nenner (der Grad des Nenners P ) um mindestens zwei höher ist als im Zähler, dann ist die Reihe absolut konvergent. (Vergleiche 10.6c.) (iii) ck = k!/k k > 0 für k ∈ N, ¯ ¯ k ¯ ck+1 ¯ (k + 1) · k k 1 ¯ = (k + 1)! · k = ¯ = . ¯ ck ¯ (k + 1)k+1 k! k (k + 1) · (k + 1) (1 + 1/k)k Mit der Bernoulli-Ungleichung (5.6) gilt für k ≥ 1 : (1 + 1/k)k ≥ 1 + k · 1/k = 2, also ¯ ¯ ¯ ck+1 ¯ 1 ¯ ¯ ¯ ck ¯ ≤ 2 = q < 1, ∞ X k! ist mit 10.3c absolut konvergent. kk k=0 Oder mit dem Quotiententest 10.3b und der Folge (bn ) aus 9.9a für die Eulerzahl ¯ ¯ ¯ ck+1 ¯ 1 1 ¯= lim ¯ = = Q < 1. k→∞ ¯ ck ¯ lim(1 + 1/k)k e Und noch als dritte Möglichkeit, die Konvergenz zu zeigen, der direkte Gebrauch des Majorantenkriteriums: ck = k!/k k = 1 · 2 · ... · k 1·2 1 ≤ ≤2 k · k · ... · k k·k k (k − 1) für k ≥ 2. Durch Vergleich mit der Reihe 10.2c oder dem Beispiel (ii) oben schließen wir absolute Konvergenz. (iv) ck = k sin(1/k) (2x)k für k ∈ N ist absolut konvergent für |x| < 1/2 : Zunächst vereinfachen wir die Summanden durch eine Abschätzung. Da | sin u| ≤ |u| (siehe E.5, 7.5a) ist |k sin(1/k)| daher |ck | ≤ (2 |x|)k , bk = (2|x|)k ist eine Majorante. P≤ 1 und k Die geometrische Reihe (2 |x|) ist absolut konvergent für 2 |x| < 1. RWTH Aachen Mathematik I+II 10 Reihen 10.4 153 Die Exponentialreihe ez := ∞ X zk k=0 k! =1+z+ z2 z3 z4 + + + ..., 2 6 24 z∈C konvergiert absolut für alle z ∈ C , denn für z = 0 ist e0 = 1 und ¯ ¯ ¯ ¯ ¯ ck+1 ¯ ¯ z k+1 k! ¯ 1 ¯ ¯=¯ ¯ −−→ 0 = Q ¯ ck ¯ ¯ (k + 1)! z k ¯ = k + 1 |z| − k→∞ für jedes z ∈ C, z 6= 0. Der Spezialfall z = 1, e1 = e, ergibt wieder die Eulerzahl (vgl. 9.9a). Diese Reihe wird üblicherweise zur Definition der Exponentialfunktion für beliebiges komplexes Argument benutzt mit ex , x ∈ R, als Spezialfall. Die bereits in B angegebenen Eigenschaften folgen aus dieser Definition, mehr dazu in Abschnitt 6.9. Dies ist unser erstes Beispiel für eine Funktion, die durch eine konvergente Potenzreihe definiert ist, das ist eine Reihe, bei der die Summanden Potenzen der unbestimmten Variablen enthalten, siehe 10.8. Eine wichtige Abschätzung, die das Wachstum der reellen Exponentialfunktion zeigt: Sei x ≥ 0, dann sind alle Summanden positiv und es gilt insbesondere für jedes n ∈ N x e = ∞ X xk k=0 k! > xn+1 (n + 1)! für x ≥ 0 sowie ex > xn für x > (n + 1)! . Die Exponentialfunktion wächst also für x → ∞ schneller als jede Potenz xn . 10.5 Bemerkungen 10.5a Zum Anfang einer Reihe Wie bei Folgen (vgl. 9.4e (i) ) ist es für die Konvergenz oder Divergenz einer Reihe unerheblich, ob die Summation bei 0, 1 oder einer anderen Zahl n0 beginnt und ob endlich viele Summanden abgeändert werden. Anders als bei Folgen kommt den Wert der auf alle Summanden an Pes für −k P∞Reihe −k = 1 + 1. Es hängt von sowie auf den Beginn der Summation, z.B. 2 = ∞ 2 = 1 + 2 k=0 k=1 der Anwendung ab, mit welchem Index die Summation beginnt. Wenn wir in der Formulierung der Kriterien und Beispiele oft mit 0, 1 oder 2 beginnen, so sind das lediglich typische Beispiele. 10.5b Summanden einer konvergenten Reihe bilden eine Nullfolge P Sei limn→∞ Sn = ∞ k=0 ck =: S (konvergente Reihe), dann gibt es zu jedem ε > 0 ein NS (ε/2), so daß |Sn − S| ≤ ε/2 für alle n ≥ NS (ε/2). Insbesondere gilt dann |cn+1 | = |Sn+1 − Sn | ≤ |Sn+1 − S| + |S − Sn | ≤ 2 · ε/2 = ε für alle n ≥ NS (ε/2). Mit Nc (ε) := NS (ε/2) + 1 folgt |cn − 0| ≤ ε für alle n ≥ Nc (ε), also ist (cn ) eine Nullfolge (und somit erst recht beschränkt). Somit gilt: Für die Konvergenz einer Reihe ist notwendig, daß die Summanden (ck ) eine Nullfolge bilden. Dies ist ein wichtiges notwendiges Kriterium für Konvergenz. Wenn die Summanden keine Nullfolge sind, folgt die Divergenz der Reihe (Divergenzkriterium für die Reihe). Um von einer Folge zu zeigen, daß sie eine Nullfolge ist, können manchmal auch Konvergenzkriterien für Reihen wie die Quotientenkriterien einfach und erfolgreich eingesetzt werden (z.B. bei an = n27 /2n ). Warnung! Daß die Summanden gegen Null streben, ist notwendig, aber nicht hinreichend für die Konvergenz, wie das Beispiel der divergenten harmonischen Reihe 10.6a zeigt! Wir benötigen Zusatzinformationen, z.B. wie schnell“ die Summanden klein werden. ” RWTH Aachen Mathematik I+II 10 Reihen 10.5c 154 Lineare Operationen P P∞ Seien zwei konvergente Reihen ∞ k=1 ck und k=1 c˜k gegeben, dann konvergiert auch die Summe P∞ P∞ P∞ P∞ P∞ mit k=1 (ck + c˜k ) = k=1 ck + k=1 c˜k , sowie Vielfache: k=1 d ck = d k=1 ck für jedes d ∈ C oder R. (Letzteres ist die Verallgemeinerung des Distributivgesetzes für endliche Summen auf konvergente Reihen.) Der Beweis ergibt sich sofort aus den entsprechenden Eigenschaften für die Folgen der Teilsummen. 10.5d Weitere Kriterien p Es gibt einige weitere Konvergenzkriterien für Reihen, z.B. den Wurzeltest: k |ck | → Q impliziert absolute Konvergenz, falls Q < 1, Divergenz, wenn Q > 1. Mehr dazu steht in den Büchern und ausführlichen Formelsammlungen, dort findet man auch Varianten der von uns benutzten Kriterien. 10.6 Divergente Reihen 10.6a Die harmonische Reihe ist divergent P Die harmonische Reihe ∞ k=1 1/k strebt gegen +∞ und ist somit divergent. Beweis: Die Teilsummenfolge Sn ist monoton wachsend: Sn+1 = Sn + 1/(n + 1) > Sn , und sie ist unbeschränkt: S2j − Sj = 1 1 1 1 1 + + ··· + ≥j· = für alle j ∈ N, j+1 j+2 2j 2j 2 S2m = S1 + (S2 − S1 ) + (S22 − S21 ) + . . . + (S2m − S2m−1 ) ≥ 1 + m · 1/2 für m ∈ N . Die Folge (Sn ) ist unbeschränkt und monoton wachsend, also divergent mit Sn = n ∞ X X 1 1 → ∞, Schreibweise auch: “ = ∞” . k k k=1 k=1 Diese Reihe dient oft als Vergleichsreihe, wenn die Divergenz einer Reihe mit dem Minorantenkriterium (10.6b) gezeigt werden soll. Selbst auf sehr schnellen Computern ist die Divergenz dieser Reihe allerdings nicht zu beobachten, denn die benötigte Rechenzeit für ein Anwachsen der Summe um 1 wächst exponentiell schnell an: man sieht auch leicht, daß S2m ≤ 1 + m. Der Wert der Folge endlicher Teilsummen scheint stehenzubleiben“, obwohl die Reihe tatsächlich divergiert. ” 10.6b Minorantenkriterium für die Divergenz reeller Reihen P Seien bk , ck ∈ R und ∞ k=0 bk divergent. Wenn für ein n0 gilt ck ≥ bk ≥ 0 für alle k ≥ n0 , dann P∞ ist auch k=0 ck divergent. P P Beweisidee: nk=0 ck → ∞, sonst wäre ∞ 2 k=0 bk absolut konvergent. Andere Divergenzkriterien wurden oben bereits in 10.3b, 10.3c und 10.5b angegeben, siehe auch Bücher. 10.6c Beispiele divergenter Reihen ck := 1/k p ≥ 1/kP= bk ≥ 0 für k ∈ N, p ≤ 1. Da die harmonische Reihe divergiert (10.6a), p ist auch die Reihe ∞ k=1 1/k , p ≤ 1, divergent. Die harmonische Reihe wird häufig als Minorante zum Beweis der Divergenz benutzt. RWTH Aachen Mathematik I+II 10 Reihen 10.7 155 Das Integralkriterium Betrachte die Beträge der Summanden als unendliches Balkendiagramm mit Balken der Höhe |ck | und Breite 1 zwischen k − 1 undP k, der Flächeninhalt eines Balkens ist dann gerade seine Höhe |ck |, vergl. Abbildung 10.1: Ŝn = nk=1 |ck | = Fläche unter der Treppenfunktion“. Wenn für eine ” geeignete (z.B. stetige) Funktion f gilt, daß ihr Graph für alle k ≥ n0 oberhalb der Treppenfunktion verläuft: f (x) ≥ |ck | für k − 1 ≤ x ≤ k, alle k ≥ n0 , dann ist die Fläche unter der Treppenfunktion durch das Integral von f beschränkt: Z n n X |ck | ≤ f (x) dx, siehe Abbildung 10.1. k=n0 n0 −1 Wenn wir für das Integral eine von n unabhängige Schranke finden, folgt die absolute Konvergenz der Reihe. 10.7a Beispiel zum Integralkriterium Sei |ck | = ck = 1/k p , p ∈ R, p > 1, dann gilt für f (x) = x−p , daß f (x) ≥ |ck | für k−1 ≤ x ≤ k. Mit n0 = 2 gilt Z n Z n n ¯n X 1 1 1 1 1−p ¯ −p x (n1−p − 1) < ≤ f (x) dx = x dx = ¯ = p k 1−p 1−p p−1 1 1 1 k=2 P∞ p für alle n ≥ 2. (Für das Integral siehe D.2 oder 8.6a.) Damit haben wir gezeigt k=1 1/k ist absolut konvergent für alle p > 1 (und nicht nur für p ≥ 2, wie früher in 10.3d (ii) gezeigt wurde). Damit und mit dem Majorantenkriterium können wir z.B. leicht entscheiden, daß die Reihe ∞ n o3 X √ o np ck mit ck = (k + 20) cos(k) − 7 ( k)3 k2 + 4 − k k= absolut konvergent ist, denn |ck | ≤ 64 k −3/2 für k ≥ 10 (warum?). 10.8 Potenzreihen P k Eine Potenzreihe mit Entwicklungspunkt z0 ∈ C hat die Form ∞ k=0 bk (z−z0 ) = b0 +b1 (z−z0 )+ 2 b2 (z−z0 ) +. . . mit Koeffizienten bk ∈ C . Als erstes Beispiel haben wir in 10.4 die Exponentialreihe kennengelernt. Für z = z0 ist eine Potenzreihe immer konvergent und sie hat den Wert b0 (siehe dazu auch ?? (??)), interessant sind die Fälle, in denen die Reihe auch für andere z ∈ C konvergiert, der Fall des positiven Konvergenzradius R > 0: f (x) |c3 | 0 1 2 |ck | 3 n0 k−1 k Abbildung 10.1: Zur Illustration des Integralkriteriums RWTH Aachen Mathematik I+II 10 Reihen 10.8a 156 Satz über den Konvergenzradius Zu jeder Potenzreihe gibt es einen Konvergenzradius R ≥ 0 bzw. R = ∞, so daß die Potenzreihe für alle z ∈ C mit |z − z0 | < R absolut konvergiert und – falls R < ∞ – bei |z − z0 | > R divergiert. Für Punkte auf dem Rand der Kreisscheibe um z0 mit Radius R kann keine allgemeine Aussage gemacht werden, es kann vom einzelnen Punkt abhängen. In den (häufigen) Spezialfällen, in denen für die Koeffizienten der Grenzwert ¯ ¯ p ¯ bk+1 ¯ ¯ oder L := lim k |bk | ¯ L := lim ¯ k→∞ k→∞ bk ¯ existiert, gilt für den Konvergenzradius: R = 1/L falls L > 0 und R = ∞ bei L = 0. Wir sprechen bei R > 0 sowie bei R = ∞ vom positiven Konvergenzradius“. Wenn wir durch eine Abschätzung ” |bk | ≤ b̃k einfachere majorisierende Koeffizienten“ erhalten mit L̃ = limk→∞ b̃k+1 /b̃k , so ist die ” Potenzreihe sicher für |z − z0 | < R̃ absolut konvergent, R̃ ist eine Schranke für die Mindestgröße des Konvergenzradius. Allgemeinere Fälle findet man in den Büchern. Der einfache Beweis gelingt mit dem Quotiententest bzw. Wurzeltest. 10.8b Beispiele von Potenzreihen Bei positivem Konvergenzradius R definiert f (z) := ∞ X bk (z − z0 )k = b0 + b1 (z − z0 ) + b2 (z − z0 )2 + . . . , z ∈ C , |z − z0 | < R, k=0 für Argumente innerhalb des Konvergenzkreises eine komplexwertige Funktion von einem komplexen Argument. Die Exponentialfunktion 10.4 ist durch die Potenzreihe mit Entwicklungspunkt z0 = 0, Koeffizienten P∞ bkk = 1/k! und Konvergenzradius R = ∞ gegeben. Die geometrische = 1/(1 − z) hat ebenfalls Entwicklungspunkt P z0 = 0, jedoch KoReihe f (z) = k=0 z ∞ k k effizienten bk = 1 und endlichen Konvergenzradius R = 1. Die Reihe k=1 2 sin k z mit |bk | = |2k sin k| ≤ 2k = b̃k , b̃k+1 /b̃k = 2 = L̃, ist sicher für |z| < R̃ = 1/L̃ = 1/2 absolut konvergent. In Anwendungen sind häufig der Entwicklungspunkt und die Koeffizienten reell, z0 ∈ R und bk ∈ R . Die zusätzliche Beschränkung auf reelle Argumente z = x ∈ R ist für Konvergenzbetrachtungen zwar keine Hilfe, doch werden dadurch reellwertige Funktionen von einem reellen Argument definiert, eine wichtige Klasse von Funktionen, zu denen die reelle Exponentialfunktion, die trigonometrischen Funktionen und der Logarithmus gehören, mehr dazu später in ?? und Kapitel ??. Die umgekehrte Frage, wie zu einer Funktion, die durch eine Potenzreihe dargestellt werden kann, die Koeffizienten zu ermitteln sind, wird in im Kapitel über Taylorreihen behandelt. Potenzreihen mit positivem Konvergenzradius und Entwicklungspunkt z0 = 0 werden auch Mac Laurinsche Reihen genannt. 10.9 Alternierende Reihen Eine reelle Reihe heißt alternierend, wenn für alle k gilt: ck · ck+1 < 0 (d.h. die Vorzeichen der ck wechseln). Das Leibnizkriterium garantiert die Konvergenz gewisser alternierender Reihen, die nicht absolut konvergent zu sein brauchen. Hier wird genutzt, daß positive und negative Summanden sich teilweise gegenseitig wegheben können. Die Reihenfolge der Summanden kann bei diesen Reihen wichtig sein! 10.9a Das Leibnizkriterium Seien die ck ∈ R alternierend, ck · ck+1 < 0, und die P Beträge der Summanden bilden eine monoton fallende Nullfolge: |ck+1 | ≤ |ck |, |ck | → 0. Dann ist ∞ k=1 ck konvergent. RWTH Aachen Mathematik I+II 10 Reihen 10.9b 157 Beispiele alternierender Reihen Die alternierende harmonische Reihe ck = −(−1)k /k, k ≥ 1, ist alternierend, |ck | = 1/k ist eine monoton fallende Nullfolge, also ist die Reihe konvergent. (Daß der Grenzwert ln 2 ist, sehen wir später). Die Reihe ist nicht absolut konvergent, denn die harmonische Reihe 10.6a ist divergent. Dasselbe gilt für ck = (−1)k k −p , 0 < p ≤ 1. RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 11 158 Taylorreihen, Approximation durch Taylorpolynome In den Anwendungen ist eine verläßliche Approximation oft genauso wertvoll wie die exakte Lösung eines Problems. Mit einer guten Approximation kann man auch oft viel effizienter arbeiten, als mit einem komplizierten exakten Ausdruck. Entscheidend ist dabei die Kontrolle des größtmöglichen Fehlers, es muß sichergestellt werden, daß die Toleranzen nie überschritten werden. In diesem Kapitel behandeln wir die Darstellung von Funktionen durch Potenzreihen sowie deren Approximation mit Hilfe endlicher Teilsummen einschließlich der Fehlerabschätzung. Die Taylorapproximation ist i.a. nur gut in der Nähe des Entwicklungspunktes. Für periodische Funktionen werden wir später die Fourierpolynome kennenlernen. 11.1 Erinnerung: Lineare und quadratische Näherung, Potenzreihen 11.1a Lineare Näherung differenzierbarer Funktionen Sei f eine differenzierbare Funktion, dann gilt (siehe ??) f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) für x ≈ x0 . Die i.a. bessere quadratische Näherung für zweimal differenzierbare Funktionen lautet f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) + f 00 (x0 ) (x − x0 )2 . 2 Wir wollen für diese lineare Näherung und für bessere polynomiale Näherungen abschätzen, wie der Fehler für eine gegebene Funktion vom Entwicklungspunkt x0 und von der Entfernung zum Entwicklungspunkt |x − x0 | abhängt. 11.1b Durch Potenzreihen definierte Funktionen, Konvergenzradius Wie wir in den früheren Kapiteln gesehen haben, werden viele wichtige Funktionen durch Potenzreihen um einen Entwicklungspunkt z0 definiert: f (x) := ∞ X bk (x − z0 )k , x ∈ C oder R , |x − z0 | < R, f (z0 ) = b0 . k=0 Wenn die Reihe für ein x 6= z0 konvergiert, dann gibt es einen positiven Konvergenzradius, nämlich R > 0 oder R = ∞, so daß die Reihe für alle x mit |x − z0 | < R absolut konvergiert und — falls R < ∞ — divergiert für |x − z0 | > R, siehe 10.8. Beispiele sind die Exponentialfunktion (10.4), trigonometrische (??) und hyperbolische (??) Funktionen, deren Potenzreihen um z0 = 0 für alle x ∈ R (oder C ) absolut konvergieren, d.h. R = ∞, sowie die geometrische Reihe (10.2b, 10.8b) und die Logarithmusreihe (?? (??) ) jeweils mit Konvergenzradius 1. Für Punkte auf dem Rand des Konvergenzkreises, |x − z0 | = R, kann man keine allgemeine Aussage über die Konvergenz machen. Die durch konvergente Potenzreihen definierten Funktionen sind innerhalb ihres Konvergenzkreises stetig (??) und sie dürfen dort gliedweise“ differenziert werden, ohne daß sich der Konvergenz” radius dabei ändert, wie wir in 6.3e sahen. f 0 (x) = ∞ X k bk (x − z0 )k−1 , f 0 (z0 ) = 1 · b1 , k (k − 1) bk (x − z0 )k−2 , f 00 (z0 ) = 2 · 1 b2 , k=1 00 f (x) = ∞ X k=2 f (n) (x) = ∞ X k (k − 1) . . . (k − n + 1) bk (x − z0 )k−n , f (n) (z0 ) = n! bn , n ∈ N . k=n RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 159 Genauso ist gliedweise Integration für |x − z0 | < R erlaubt, siehe 8.6b. Insbesondere erhalten wir für Potenzreihen mit positivem Konvergenzradius die Gleichung bk = f (k) (z0 )/k! , k ∈ N0 . Daraus folgt, daß zwei Potenzreihen mit positivem Konvergenzradius genau dann nahe z0 dieselbe Funktion beschreiben, wenn alle ihre Koeffizienten bk gleich sind, wie wir es schon bei Polynomen in 6.1b sahen. Das ist die Grundlage für den sogenannten Koeffizientenvergleich bei Potenzreihen, bei dem aus der Gleichheit der Funktionen auf die Gleichheit aller Koeffizienten geschlossen wird, die Koeffizienten sind durch die Funktion eindeutig festgelegt. Funktionen, die in der Nähe eines Punktes durch eine konvergente Potenzreihe dargestellt werden können, heißen dort analytisch (oder holomorph, wenn sie als Funktion eines komplexen Arguments aufgefaßt werden). Sie sind besonders gutartig, z.B. in x0 stetig, beliebig oft differenzierbar, u.s.w. Wenngleich die meisten Funktionen, mit denen man in den Anwendungen zu tun hat, in diesem p Sinne |x| gut sind, gibt es wichtige Ausnahmen, z.B. sind die Heavisidefunktion Θ(x) oder |x| und nicht analytisch bei x = 0. 11.2 Hilfen bei der Arbeit mit Potenzreihen In diesem Abschnitt fassen wir einige Techniken und Resultate, die bereits in früheren Kapiteln bereitgestellt wurden, noch einmal unter dem Gesichtspunkt der Anwendungen zusammen. 11.2a Formelsammlung, Linearität, gerade und ungerade Funktionen Für viele wichtige einfache Funktionen sind die Potenzreihen mit ihrem Konvergenzradius in den Formelsammlungen angegeben. Mit einigen einfachen Verfahren kann der Vorrat an Potenzreihen zu Funktionen wesentlich erweitert werden. Die theoretische Grundlage dafür ist die Tatsache, daß eine Potenzreihe mit positivem Konvergenzradius eine analytische Funktion eindeutig festlegt und umgekehrt (Koeffizientenvergleich 11.1b). Die Koeffizienten der Potenzreihe hängen linear von der Funktion ab. Ist z.B. f (x) = f1 (x) + f2 (x), so können die Koeffizienten einzeln für f1 und f2 berechnet und dann addiert werden. Bei ungeraden Funktionen treten nur die Koeffizienten bk mit ungeradem k auf, bei geraden Funktionen mit geradem k. 11.2b Einsetzen in bekannte Funktionen f (x) = exp(−x2 /2) (Gaußsche Glockenkurve, wichtig für die Normalverteilung in der Statistik) ¯ ¯ f (x) = ew ¯ w=−x2 /2 = ∞ ∞ 2k X X wk ¯¯ k x , (−1) = ¯ k! w=−x2 /2 2k · k! k=0 1 1 ¯¯ g(x) = = ¯ 1 − x2 1 − w w=x2 2 h(x) = (sin(5 x)) 6.13b = x ∈ R ( oder C ). k=0 10.2b = ∞ X k=0 ¯ w ¯ k¯ w=x2 = ∞ X x2k , |x| < 1. k=0 " # ∞ i 1 X (−1)k 1h 2k 1 − cos(10 x) = 1− (10 x) 2 2 (2k)! k=0 ∞ 1 X (−1)k 2k 2k 10 x , x ∈ R. =− 2 (2k)! k=1 Für a > 0 gilt mit der Funktionalgleichung ln(a + x) = ln a + ln(1 + x/a). Einsetzen in die aus ?? (??) bekannte Reihe ergibt ln(a + x) ?? (??) = ∞ ∞ X X (−1)k+1 ³ x ´k (−1)k+1 k ln a + = ln a + x , k a k ak k=1 RWTH Aachen |x| < a. k=1 Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 160 11.2c Multiplikation mit Potenzen P k ` Sei f (x) = ∞ k=0 ak x bekannt, g(x) = x f (x), ` ∈ Z . Durch gliedweise Multiplikation bzw. Division erhält man g(x) = ∞ X ak xk+` = k=0 ∞ X am−` xm . m=` Bei negativem ` müssen die Koeffizienten der niedrigen Potenzen verschwinden, damit keine negativen Potenzen in der Reihe auftreten. f (x) = sin x = ∞ X j=0 ∞ X g(x) = (−1)j j=0 11.2d (−1)j x2j+1 x3 =x− + ... , (2j + 1)! 3! x2j (2j + 1)! g(x) = sin x , x ` = −1, für x ∈ R . Gliedweises Differenzieren und Integrieren (i) f (x) = arctan x, f 0 (x) = 1/(1 + x2 ), f 0 (x) = f (x) = ∞ ∞ k=0 k=0 X X 1 2 k (−1)k x2k = 1 − x2 + . . . , |x| < 1, (−x ) = = 1 − (−x2 ) ∞ X (−1)k 2k+1 x3 x5 x =x− + − ... 2k + 1 3 5 für |x| < 1. k=0 Da f (0) = arctan 0 = 0, ist die Integrationskonstante hier Null. P (ii) Wenn die Potenzreihe bk (x − z0 )k bekannt ist, können leicht hohe Ableitungen am Entwicklungspunkt abgelesen werden, f (n) (z0 ) = bn · n! , siehe 11.1b. ( ¯ 0 für n gerade, dn ¯ arctan x¯ = (2k+1)! n k k (dx) x=0 (−1) 2k+1 = (−1) (2k)! für n = 2k + 1. (iii) f (x) = (x − 2)−2 um den Entwicklungspunkt z0 = 1: Eine Stammfunktion ist ∞ X 1 1 = = (x − 1)k , F (x) = − x−2 1 − (x − 1) |x − 1| < 1, k=0 f (x) = ∞ X k=1 k (x − 1)k−1 = ∞ X (k + 1) (x − 1)k für |x − 1| < 1. k=0 Mit diesen Methoden kann jede negativ ganzzahlige Potenz um einen beliebigen Punkt im Definitionsbereich entwickelt werden. Mit Hilfe der Partialbruchzerlegung gilt dies damit auch für rationale Funktionen ohne irreduzible Terme im Nenner. Der Konvergenzradius ist bei speziellen Reihen bekannt (geometrische Reihe, Exponentialreihe u.s.w.), sonst muß er (oder eine gesicherte Mindestgröße davon) bestimmt werden, z.B. kann man es mit dem Quotienten- oder Wurzeltest (siehe 10.8a) versuchen. Bei einer Summe von Potenzreihen mit demselben Entwicklungspunkt konvergiert die Summe sicher innerhalb des Kreises mit dem kleinsten auftretenden Konvergenzradius, für die Summe kann der Konvergenzradius jedoch auch größer werden. RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 11.2e 161 Bestimmung einer einfachen Funktion aus ihrer Potenzreihe Mitunter erhält man eine gesuchte Funktion als Potenzreihe, z.B. bei der Lösung einer Differentialgleichung mit dem Potenzreihenansatz (siehe die Kapitel über Differentialgleichungen). Dann kann es gelingen, die durch die Potenzreihe gegebene Funktion wieder durch einfache Funktionen auszudrücken. ∞ X (−1)k k=0 ∞ k+1 1 X (−1)k 4k+5 x = (x2 )2k+1 · x3 (2k + 2)! 2 (2k + 1)! k=0 = 1 3 x sin(x2 ) für alle x ∈ R . 2 11.3 Taylorreihe und Taylorpolynom, Restglied 11.3a Taylorreihe Sei f in einer Umgebung von x0 beliebig oft differenzierbar. Die Taylorreihe von f um x0 ist die Potenzreihe T f (x; x0 ) := ∞ X f (k) (x0 ) k=0 k! (x − x0 )k . Als Beispiel berechnen wir die Taylorreihe des Logarithmus f (x) = ln x um den Entwicklungspunkt x0 = 1 mit f (x0 ) = 0. Es gilt f 0 (x) = 1/x, f 00 (x) = −1/x2 , f 000 (x) = +1 · 2/x3 , f (k) (x) = (−1)k+1 (k − 1)!/xk . Auswerten der Ableitungen bei x0 = 1 ergibt f (k) (1) = (−1)k+1 (k − 1)! , also T ln (x; 1) = ∞ X ∞ (−1)k+1 k=1 X (k − 1)! 1 (−1)k+1 (x − 1)k = ln x, (x − 1)k = k! k |x − 1| < 1, k=1 die schon in ?? (??) angegebene Reihe für den Logarithmus. Im Abschnitt 11.1b haben wir gesehen: Wenn f bei x0 analytisch ist, dann stellt diese Reihe die Funktion f (x) für x ≈ x0 dar, dann ist die Taylorreihe die Potenzreihe von f . Wenn die Funktion f bei x0 nicht analytisch ist, braucht ihre Taylorreihe für x 6= x0 nicht zu konvergieren (Konvergenzradius R = 0) oder die Reihe konvergiert, sie braucht jedoch auch dort, wo sie konvergiert, f nicht darzustellen. Ein sehr einfaches Beispiel: Die Taylorreihe der Funktion f (x) = |x + 1| um x0 = 0 ist die (endliche !) Summe 1 + x , denn alle höheren Ableitungen verschwinden bei x0 . Der Konvergenzradius ist damit R = ∞, die Funktion und ihre Taylorreihe stimmen aber nur für x ≥ −1 überein, bei x = −1 ist f nicht analytisch, nicht einmal differenzierbar. Ob und wo eine Funktion durch ihre Taylorreihe dargestellt wird, kann eine sehr schwierige Frage sein. Dazu müßte die Folge der Restglieder gegen Null konvergieren, siehe 11.3c. Doch sogar im allgemeineren Fall einer vielleicht nur endlich oft differenzierbaren Funktion kann eine endliche Teilsumme häufig zur Approximation von f dienen. 11.3b Taylorpolynom Sei f nahe x0 (mindestens) n-mal stetig differenzierbar, dann heißt das Polynom Tnf (x; x0 ) := n X f (k) (x0 ) k=0 k! (x − x0 )k das Taylorpolynom n-ter Ordnung der Funktion f im Entwicklungspunkt x0 . (Oft kürzer Tn (x), wenn f und x0 aus dem Zusammenhang klar sind.) Ist f ein Polynom vom Grad n oder niedriger, RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 162 so gilt f (x) = Tnf (x; x0 ) für alle x, x0 ∈ R. Das Taylorpolynom erster bzw. zweiter Ordnung sind die lineare bzw. quadratische Approximation von f nahe x0 , siehe A und ??. Im Gegensatz zum Satz von Weierstraß 6.1d, der nicht konstruktiv ist, aber sogar für beliebige stetige Funktionen gilt, kann mit dieser Formel ein Polynom zur Approximation einer hinreichend oft differenzierbaren gutartigen Funktion f explizit berechnet werden. √ Beispiel: Für f (x) = 1/ 1 − x = (1 − x)−1/2 sind die Ableitungen f 0 (x) = 1 (1 − x)−3/2 , 2 f (k) (x) = f 00 (x) = 13 (1 − x)−5/2 , 22 13 2k − 1 ... (1 − x)−(2k+1)/2 . 22 2 Damit erhält man als Taylorpolynom um x0 = 0: Tnf (x; 0) = Tn (x) = 1 + =1+ 1 1 3 x2 13 2n − 1 xn x+ + ... + ... 2 22 2 22 2 n! 1 1·3 2 1 · 3 · . . . · (2n − 1) n x+ x + ... + x . 2 2·4 2 · 4 · . . . · (2n) Die Auswertung bei x = 1/2 eine Folge rationaler Zahlen an = Tn (1/2), die für n → ∞ √ ergibt p gegen die irrationale Zahl 2 = 1/ 1/2 = f (1/2) konvergiert. (Die Konvergenz ist leicht mit dem Quotiententest oder Majorantenkriterium zu zeigen, außerdem ist der Konvergenzradius dieser Taylorreihe R = 1, wie man leicht mit dem Quotiententest aus 10.8a sieht.) Potenzen von x als Faktoren in der Funktion√sollten erst nach der Approximation einbezogen werden: Statt ein Taylorpolynom zu f (x) = x 3 1 + x direkt zu berechnen, ist es einfacher, ein √ 3 Taylorpolynom von 1 + x mit x zu multiplizieren! Siehe dazu auch 11.2c. 11.3c Restglied der Taylorapproximation Das Restglied beschreibt den Fehler bei der Approximation, Rnf (x; x0 ) := f (x) − Tnf (x; x0 ) ( oder kürzer = Rn (x) ). Wenn die Taylorreihe für |x − x0 | < R die Funktion f darstellt, gilt dort Rn (x) → 0 für n → ∞. Ob diese Situation vorliegt, kann sehr schwer zu entscheiden sein, hier beschäftigen wir uns damit nicht weiter. Unabhängig von dieser Konvergenzfrage gilt für jede (n+1)-mal stetig differenzierbare Funktion als Verfeinerung des Mittelwertsatzes die Taylorsche Formel für das Restglied Rnf (x; x0 ) = f (n+1) (x0 + ϑ·(x − x0 )) (x − x0 )n+1 , (n + 1)! für ein ϑ ∈ (0, 1), das i.a. von x und x0 abhängt. Der Punkt xz = x0 + ϑ · (x − x0 ) ist eine Zwischenstelle zwischen x und x0 . Der Spezialfall n = 0 für differenzierbare Funktionen ist der Mittelwertsatz 7.1a f (x) − f (x0 ) = R0f (x; x0 ) = f 0 (xz ) (x − x0 ) = f 0 (x0 + ϑ·(x − x0 )) (x − x0 ). 1! Typische Fragen für die Approximation einer Funktion f in einem Intervall [a, b] sind: (i) Sei Tnf (x; x0 ) gegeben. Wie groß ist der maximale Fehler, das Maximum von |Rn (x)| für alle x ∈ [a, b], die Punkte in einem interessierenden Intervall? (ii) Wie muß n (und x0 ) gewählt werden, damit eine vorgegebene Fehlertoleranz ε0 für kein x ∈ [a, b] überschritten wird? RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 11.3d 163 Restgliedabschätzungen Aus der Restgliedformel folgen für x, x0 ∈ [a, b], dem interessierenden Intervall, die (immer einfacheren, immer gröberen) Fehlerabschätzungen |f (x) − Tnf (x; x0 )| = |Rnf (x; x0 )| 11.3e ≤ 1 (n + 1)! ϑ∈[0,1] = 1 (n + 1)! xz ∈[x,x0 ] bzw. [x0 ,x] ≤ 1 (n + 1)! xz ∈[a,b] ≤ (b − a)n+1 (n + 1)! max |f (n+1) (x0 + ϑ·(x − x0 ))| · |x − x0 |n+1 max |f (n+1) (xz )| · |x − x0 |n+1 max |f (n+1) (xz )| · |x − x0 |n+1 max |f (n+1) (xz )| für alle x, x0 ∈ [a, b]. xz ∈[a,b] Beispiele für Restgliedabschätzungen (i) f (x) = ex für x ∈ [−1/10, 0], x0 = 0; Frage: Approximationsqualität des Taylorpolynoms der Ordnung n = 2 ? Die Taylorreihe ist die bekannte, für alle x absolut konvergente Potenzreihe. T2 (x) = 1 + x + x2 , 2 R2 (x) = f (3) (0 + ϑ · (x − 0)) (x − 0)3 , ϑ ∈ (0, 1). 3! Für die Zwischenstellen xz = ϑ x gilt xz ≤ 0 und damit f (3) (xz ) = exz ≤ 1, also |R2 (x)| ≤ 1 1 |x|3 ≤ · 10−3 6 6 für alle x ∈ [−1/10, 0]. (ii) f (x) = cosh x für x ∈ [−1/5, 1/5], x0 = 0. Wie groß muß n gewählt werden, damit der maximale Fehler unter 10−4 bleibt? cosh x = 1 + T2 (x) = 1 + x2 x4 + + ... 2 4! x2 = T3 (x) , 2 (die bekannte Potenzreihe), T4 (x) = 1 + x2 x4 + = T5 (x) . 2 4! Versuch: Schätze R3 ab (sonst R5 oder höher). Mit f (4) (x) = cosh x |R3 (x)| ≤ 1 4! max xz ∈[−1/5, 1/5] 1 · cosh(1/5) · |x|4 24 µ ¶4 1 1 · 1, 03 · < 10−4 . < 24 5 | cosh xz | |x|4 = Also genügt die Approximation T2 (x) = T3 (x) = 1 + x2 /2. Eine Abschätzung von R2 (x) hätte nicht so leicht zum Ziel geführt. Tip: Bei um x0 geraden bzw. ungeraden Funktionen treten im Taylorpolynom nur gerade bzw. ungerade Potenzen von (x − x0 ) auf, also sind jeweils zwei Taylorpolynome gleich. Wähle zum Abschätzen möglichst den höheren Index, es sei denn, die Berechnung und Abschätzung der höheren Ableitungen ist zu aufwendig. RWTH Aachen Mathematik I+II 11 Taylorreihen, Approximation durch Taylorpolynome 11.3f 164 Mac Laurinsche Formel und Reihe Wenn als Entwicklungspunkt des Taylorpolynoms speziell x0 = 0 gewählt wird, so spricht man auch von der Mac Laurinschen Formel n X f (k) (0) k f (n+1) (ϑ x) n+1 f f f (x) = Tn (x; 0) + Rn (x; 0) = x + x , ϑ ∈ (0, 1). k! (n + 1)! k=0 Dementsprechend bezeichnet man auch die spezielle Taylorsche Reihe ∞ X f (k) (0) k f (x) = x k! k=0 um den Entwicklungspunkt x0 = 0 als Mac Laurinsche Reihe. 11.4 Approximative Integration Um ein bestimmtes Integral einer (komplizierten) Funktion, für die keine Stammfunktion bekannt ist, zu berechnen, werden meist numerische Verfahren benutzt z.B. die Simpsonsche Regel 8.12b oder bessere Verfahren, die oft in Softwarepaketen implementiert sind. Wenn jedoch der Integrand von Parametern abhängt kann es wichtig sein, die Parameterabhängigkeit des Integrals (approximativ) zu bestimmen. Dies kann z.B. durch Approximation des Integranden durch ein Taylorpolynom geschehen, denn Polynome sind immer geschlossen integrierbar. Bestimme als Beispiel das folgende Integral mit einem maximalen Fehler von 5 · 10−4 für alle Parameterwerte β ≥ 1 : Z 1/2 Iβ := exp(xβ ) dx = ? , β ∈ R , β ≥ 1. 0 Es wäre hier unnötig mühsam, die Funktion fβ (x) = exp(xβ ) direkt in ein Taylorpolynom zu entwickeln. Geschickter ist es, in die bekannte Entwicklung für die Exponentialfunktion die Potenz xβ einzusetzen. Dann ist die Approximation des Integranden ebenfalls geschlossen integrierbar. In der Praxis sollte man mit einer nicht zu großen Ordnung beginnen und diese erhöhen, wenn der Fehler sonst zu groß ist. Die folgende Näherung mit dem Taylorpolynom T3 führt in diesem Beispiel zum Ziel. Wenn x ∈ [0, 1/2] und β ≥ 1, so gilt u := xβ ∈ [0, 1/2]. ¯ ¶¯ µ √ 3 ¯ 2 ¯ u e 4 xz 4 ¯e − 1 + u + u + u ¯ = |Rexp (u; 0)| ≤ 1 max e u = u . 3 ¯ ¯ 2 6 24 xz ∈[0, 1/2] 24 Der Fehler des Integrals ist mit der Standardabschätzung 8.3d für Integrale ¯Z ¶¾ ¯¯ Z 1/2 µ ¯ 1/2 ½ 1 1 ¯ ¯ dx¯ ≤ exp(xβ ) − 1 + xβ + x2β + x3β |{. . .}| dx ¯ ¯ ¯ 0 2 6 0 beschränkt durch √ √ √ Z 1/2 Z 1/2 e e (1/2)4β+1 e 1 x4β dx = ≤ < 5 · 10−4 . |R3exp (xβ ; 0)| dx ≤ 5 24 24 4β + 1 24 5 · 2 0 0 Der Parameterwert β = 1 ist der ungünstigste, der Fehler ist kleiner bei größerem β. Der hinreichend genaue Näherungswert des Integrals für alle β ≥ 1 ist somit ¶ Z 1/2 µ 1 2β 1 3β β Iβ ≈ 1+x + x + x dx 2 6 0 µ ¶β+1 µ ¶2β+1 µ ¶3β+1 1 1 1 1 1 1 1 = + + + . 2 β+1 2 2(2β + 1) 2 6(3β + 1) 2 Entsprechend sollte man bei einem Integranden wie f (x) = (1 + sin x)−1/2 für kleine x zunächst versuchen, mit u = sin x die Wurzel im Nenner durch ein Polynom in u zu approximieren, und nicht das Taylorpolynom zu f direkt berechnen. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12 165 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.1 Definition und Vorbemerkungen 12.1a Definitionen und erste Beispiele Wir betrachten differenzierbare reell- oder vektorwertige Funktionen y einer reellen Variablen, die wir meist t (oder x) nennen, y(t) ∈ R` für t ∈ I ⊆ R , I ein Intervall. Der Wertebereich R` , ` ≥ 1 (bzw. Teilmengen davon) wird in vielen Anwendungen Phasenraum oder Zustandsraum genannt, da y(t) den Zustand eines Systems zur Zeit t beschreiben kann. Eine gewöhnliche Differentialgleichung der Ordnung n ist eine Gleichung, die die Funktion y mit ihren Ableitungen bis zur Ordnung n, jeweils zur gleichen ¡ ¢ Zeit t, verknüpft. Meist ist sie in der expliziten Form (n) 0 (n−1) y (t) = f t; y(t), y (t), . . . , y (t) [ d.h. nach der höchsten Ableitung aufgelöst ] oder auch ¡ ¢ implizit als g t; y(t), y 0 (t), . . . , y (n) (t) = 0 gegeben. Eine Lösung ist eine n-mal stetig differenzierbare Funktion y : I → R` , die bei Einsetzen der Funktion und ihrer Ableitungen in die Differentialgleichung diese für alle t in ihrem Definitionsbereich I erfüllt. Bei vektorwertigen Funktionen (` > 1) spricht man oft von Systemen bzw. Differentialgleichungssystemen, zur Betonung der möglichen Vektorwertigkeit kann Fettdruck y(t), ~y (t) etc. benutzt werden. Der Begriff Differentialgleichung wird unterschiedlich gebraucht: meist ist der allgemeine Fall einer vektorwertigen Funktion gemeint, Differentialgleichungssysteme sind eingeschlossen (` ∈ N beliebig), manche Autoren meinen damit nur den reellwertigen Fall (` = 1). Ein trivialer Fall einer Differentialgleichung ist y 0 (t) = h(t) mit gegebener stetiger Funktion h. Dann ist y(t) = H(t) eine Lösung, wenn H eine Stammfunktion zu h ist. Die Gleichung y 0 (t) = y(t), kurz: y 0 = y, eine Differentialgleichung erster Ordnung für eine reellwertige Funktion y (d.h. ` = 1) hat die wohlbekannten (siehe ??) Lösungen y(t) = et und allgemeiner y(t) = c et = y(0) et , c = y(0) ∈ R beliebig. Die Gleichung y 00 (t) = −y(t), kurz y 00 = −y, ist eine Differentialgleichung zweiter Ordnung (mit ` = 1), die z.B. von y(t) = sin t und von y(t) = cos(t) gelöst wird. Jede explizite Differentialgleichung kann in die Form y0 (t) = f (t; y(t)) , eines Systems erster Ordnung (hinreichend hoher Dimension) überführt werden, wie wir in Abschnitt 13.7a sehen werden. Die Funktion f wird oft als Vektorfeld bezeichnet (auch im reellwertigen Fall). 12.1b Herkunft von Differentialgleichungen (i) Oft beschreibt die Variable t die Zeit, y(t) den Zustand eines Systems, y0 (t) die Rate der Änderung des Zustandes. In vielen Anwendungen (Mechanik, physikalische Gesetze, Modelle der Wirtschaft, ...) ist die Änderungsrate eine Funktion des gegenwärtigen Zustandes und evtl. weiterer, explizit zeitabhängiger äußerer Einflüsse, z.B. y0 (t) = f (y(t)) oder y0 (t) = f (t; y(t)). Das Newtonsche Gesetz für die Bewegung eines Teilchens: Kraft = Masse x Beschleunigung“ hat ” die Form y00 (t) = 1 Kraft(t; y(t), y0 (t)). m Bei Differentialgleichungen als Modelle für die wirtschaftliche Entwicklung kann die explizite Zeitabhängigkeit durch Änderung von Steuern, Lohnnebenkosten, Zöllen etc. auftreten. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 166 (ii) Ist y(t) die Auslenkung eines Balkens am Ort t, die durch eine Last verursacht wird, dann gilt z.B. für die Krümmung y 00 (t) y 00 (t) = f (t; y(t), y 0 (t)). (Dann wird oft x anstelle von t für die unabhängige Variable gebraucht, die hier einen Ort bezeichnet.) 12.1c Typische Aufgaben (i) Bestimme die Lösungsgesamtheit, die sogenannte allgemeine Lösung“ einer Differentialglei” chung, also alle differenzierbaren Funktionen, die die Gleichung erfüllen. (ii) Bestimme die (oft eindeutige) Lösung, die zu einem Anfangszeitpunkt“ t0 den vorgegebenen ” Anfangswert oder Anfangszustand y(t0 ) = y0 hat, das Anfangswertproblem (AWP). (iii) Das Randwertproblem sucht nach der (oft eindeutigen) Lösung, die an zwei Randpunkten vorgegebene Werte hat: y(t1 ) und y(t2 ) sind vorgegeben bei einer Differentialgleichung zweiter Ordnung, etwa für einen Balken, der an den Rändern aufliegt. 12.1d Partielle Differentialgleichungen Hängt die gesuchte Funktion von mehreren unabhängigen Variablen ab, z.B. Ort und Zeit, dann kann eine partielle Differentialgleichung zwischen den partiellen Ableitungen der Funktion bestehen. Beispiele sind Verformungen unter Last oder Schwingungen von Membranen oder Festkörpern, Strömungen von Gasen oder Flüssigkeiten, Diffusion von Schadstoffen u.s.w. In der Vorlesung werden partielle Differentialgleichungen nicht behandelt, in Anwendungen lassen sich diese oft durch spezielle Ansätze (z.B. die gesuchte Funktion als Produkt von Funktionen einer Variablen) auf mehrere gewöhnliche Differentialgleichungen zurückführen. 12.1e Ausblick In diesem Kapitel behandeln wir einige einfache Typen gewöhnlicher Differentialgleichungen erster Ordung y 0 = f (t; y) für reellwertige Funktionen. Wir erläutern daran die Bestimmung der allgemeinen Lösung sowie die Lösung des Anfangswertproblems und wir geben die grundlegenden Sätze über die Existenz und Eindeutigkeit von Lösungen an. Im darauf folgenden Kapitel 13 diskutieren wir ausführlich lineare Differentialgleichungen höherer Ordnung und Systeme. Allgemeinere nichtlineare Differentialgleichungen sowie Näherungsverfahren folgen in Kapitel 14. In Abschnitt ?? wird eine weitere Lösungsmethode für lineare Differentialgleichungen behandelt, die die Fourierentwicklung periodischer Funktionen benutzt. 12.2 Lineare homogene Differentialgleichungen 1. Ordnung Sei I ⊆ R ein Intervall. Die gesuchten Funktionen y seien in diesem Kapitel immer reellwertig (` = 1). Eine lineare homogene Differentialgleichung erster Ordnung ist von der Form y 0 = a(t) y, a : I → R stetig. Das Vektorfeld f (t; y) = a(t) y ist linear in y. Ausführlicher geschrieben: y 0 (t) = a(t) · y(t) für t ∈ I. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.2a 167 Spezielle Lösungen (i) Die Gleichgewichtslösung“ y(t) ≡ 0 ist eine Lösung. ” (ii) Sei y(t) 6= 0, dann ist die Differentialgleichung äquivalent zu a(t) = y 0 (t) d = ln |y(t)|, y(t) dt denn d/dx (ln |x|) = 1/x, Kettenregel. Sei A(t), t ∈ I, eine Stammfunktion zu a, dann erfüllt A(t) = ln |y(t)| die Gleichung, damit sind y(t) = ±eA(t) 6= 0 Lösungen der Differentialgleichung auf dem Intervall I. 12.2b Linearität der Lösungsmenge Die Differentialgleichung y 0 = f (t; y) = a(t) y ist linear in y. Daraus folgt: Seien y1 und y2 Lösungen, dann ist auch jede Linearkombination y(t) = α y1 (t) + β y2 (t), α, β ∈ R (oder auch α, β ∈ C), eine Lösung: y 0 (t) = α y10 (t) + β y20 (t) = α [ a(t) y1 (t) ] + β [ a(t) y2 (t) ] = a(t) y(t). Die Lösungsmenge einer linearen homogenen Differentialgleichung bildet also einen linearen Raum, einen Untervektorraum des Vektorraums der differenzierbaren Funktionen (vgl. 1.12). 12.2c Lösungsformel für die allgemeine Lösung Sei A : I → R eine (beliebige) Stammfunktion zu a : I → R , dann ist die allgemeine Lösung der Differentialgleichung y 0 = a(t) y , das ist die Lösungsgesamtheit der Differentialgleichung, die folgende Familie von Funktionen: y : I ⊆ R → R, y(t) = c eA(t) , c ∈ R, d.h. es gibt keine andere stetig differenzierbare Funktion, die die Differentialgleichung erfüllt. Beachte: Entweder gilt y(t) ≡ 0 oder (bei c 6= 0) y(t) 6= 0 für alle t ∈ I ( nichttriviale ” Lösung“), sie ist immer Null oder nie Null“ im Intervall I, siehe dazu auch 12.10b. ” Für zwei Stammfunktionen A, B zu a gilt B = A+c1 , eB(t) = ec1 eA(t) , die oben angegebene Familie ändert sich also nicht bei Wechsel der Stammfunktion, denn ec1 > 0. Beweis: Betrachte z(t) = e−A(t) y(t), y(t) eine (beliebige) Lösung. Da A(t) und damit auch e±A(t) 6= 0 stetig differenzierbar ist, ist z genau dann stetig differenzierbar, wenn y es ist. z erfüllt die Differentialgleichung z 0 (t) = (−a(t) e−A(t) ) · y(t) + e−A(t) y 0 (t) Dgl. für y = −a(t) z(t) + a(t) z(t) = 0. Nach dem Mittelwertsatz sind z(t) = const die einzigen stetig differenzierbaren Funktionen mit z 0 (t) = 0, t ∈ I, siehe ??. Also ist jede Lösung auf einem Intervall I von der Form y(t) = c eA(t) . 2 12.2d Beispiel einer linearen homogenen Differentialgleichung a : R → R , a(t) = sin t, A(t) = − cos t, y 0 = (sin t) y , y(t) = c e− cos t , c ∈ R ist die allgemeine Lösung für t ∈ R . Für eine Skizze einiger Lösungen siehe Abbildung 12.1. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.2e 168 Das Anfangswertproblem Für ein t0 ∈ I soll eine Lösung y mit y(t0 ) = y0 zu (beliebig fest) vorgegebenem y0 ∈ R bestimmt werden. Eine solche Lösung gibt es immer: ! y(t0 ) = c eA(t0 ) = y0 ⇐⇒ c = y0 e−A(t0 ) , also ½Z t ¾ y(t) = y0 eA(t)−A(t0 ) = y0 exp a(τ ) dτ , t ∈ I, t0 Rt ist die eindeutige Lösung des Anfangswertproblems, t0 a(τ ) dτ ist die eindeutige Stammfunktion von a , die bei t0 eine Nullstelle hat. Rt Im Beispiel 12.2d sei t0 = 0, y0 = 3, dann ist y(t) = 3e(1−cos t) = 3 exp{ 0 sin τ dτ }. 12.3 Lineare inhomogene Differentialgleichungen 1. Ordnung Sei I ⊆ R ein Intervall, a, b : I → R stetig. Die inhomogene lineare Differentialgleichung lautet y 0 = a(t) y + b(t). 12.3a Lösungsformel für die allgemeine Lösung Mit dem als Variation der Konstanten“ bezeichneten Ansatz (in der Lösungsformel für die homogene ” Gleichung die Konstante c ersetzen durch c(t) ) y(t) = c(t) eA(t) , A eine Stammfunktion zu a, erhalten wir eine Differentialgleichung für die Funktion c(·), die einfach zu lösen ist: ! y 0 (t) = c0 (t) eA(t) + c(t) a(t) eA(t) = a(t) c(t) eA(t) + b(t) ergibt c0 (t) = b(t) e−A(t) , c0 ist eine bekannte Funktion, also erhalten wir durch Integration Z Z t c(t) = b(t) e−A(t) dt = b(s) e−A(s) ds + c, t0 ∈ I, c ∈ R. t0 Damit lautet die Lösungsformel für die allgemeine Lösung im Intervall I ½Z ¾ −A(t) y(t) = b(t) e dt eA(t) (das Integral steht für eine beliebige Stammfunktion von b(t) e−A(t) und y für eine beliebige Lösung) oder für beliebig gewähltes t0 ∈ I ½ ¾ Z t y(t) = c + b(s) e−A(s) ds eA(t) , c ∈ R , t0 oder gleichwertig mit einer beliebigen nichttrivialen Lösung yh (t) 6= 0 der homogenen Differentialgleichung ½Z ¾ ½ ¾ Z t b(t) b(s) y(t) = dt yh (t) = c + ds yh (t), c ∈ R . yh (t) t0 yh (s) Daß dies tatsächlich die allgemeine Lösung ist, sieht man daran, daß die Differenz zweier Lösungen der inhomogenen Gleichung die homogene Differentialgleichung löst. Daraus folgt auch: RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.3b 169 Beobachtung über inhomogene lineare Gleichungen Genauso wie bei linearen inhomogenen Gleichungssystemen A x = b (siehe 3.3) erhält man die allgemeine Lösung als Summe einer beliebigen speziellen (partikulären) Lösung, z.B. µZ t ¶ −A(s) yp (t) = b(s) e eA(t) , t0 ∈ I fest t0 (manchmal kann eine spezielle Lösung auch geraten werden) und der allgemeinen Lösung yh der homogenen Differentialgleichung y 0 = a(t) y: yh (t) = c eA(t) , c ∈ R ; y(t) = yp (t) + yh (t). Es gilt wieder die allgemeine Lösung der inhomogenen Differentialgleichung ist eine beliebige par” tikuläre Lösung der inhomogenen Differentialgleichung plus die allgemeine Lösung der homogenen Differentialgleichung“. Die Lösungsmenge bildet einen affinen Teilraum der differenzierbaren Funktionen (vgl. 1.12).Siehe auch die Verallgemeinerung auf Differentialgleichungen höherer Ordnung in 13.4. 12.3c Beispiel einer linearen inhomogenen Differentialgleichung y0 = 1 1 1 y+ = (y + 1), t ∈ I = R . 2 2 1+t 1+t 1 + t2 Der Koeffizient a(t) = 1/(1 + t2 ) = b(t) hat A(t) = arctan t, t ∈ R, als Stammfunktion. Gemäß Lösungsformel berechne: ½Z t ¾ Z t 1 −A(s) b(s) e ds = e− arctan s ds 2 1 + s t0 t0 = ¶ Z tµ d − e− arctan s ds = e− arctan t0 − e− arctan t ds t0 (Substitution u = arctan s im Integranden). Wir erhalten als partikuläre Lösung yp (t) = e− arctan t0 earctan t − 1 = const earctan t − 1; yh (t) = c0 earctan t , und damit als allgemeine Lösung y(t) = c earctan t − 1, c ∈ R, t ∈ R. (c0 + e− arctan t0 kann zu einer neuen Konstanten c zusammengefaßt werden!) Dies erläutert das schematische Vorgehen mit der Lösungsformel, das immer anwendbar ist. Es gibt aber in diesem Beispiel noch zwei andere, einfachere Wege! Es ist leicht zu sehen, daß auch yp (t) ≡ −1 eine partikuläre Lösung ist, man hätte sie raten können. Geht man von y zu z = y + 1, so muß z die homogene Differentialgleichung z0 = 1 z 1 + t2 erfüllen, also z(t) = c earctan t , y(t) = z(t) − 1 wie oben angegeben. Durch Übergang von y zu einer anderen Funktion (Substitution) kann eine Differentialgleichung oft wesentlich vereinfacht werden, wie wir auch schon bei der Variation der Konstanten“ sahen. Weitere Beispiele dafür werden ” folgen, z.B. in 12.5, 14.2. RWTH Aachen Mathematik I+II 12 12.4 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 170 Das Anfangswertproblem für lineare Differentialgleichungen erster Ordnung Sei y 0 = a(t) y + b(t), t ∈ I ⊆ R , I ein Intervall, und für ein t0 ∈ I soll gelten y(t0 ) = y0 . Sei A eine (beliebig) fest gewählte Stammfunktion zu a. Für beliebiges y0 ∈ R hat dieses Anfangswertproblem genau eine Lösung ½ ¾ Z t −A(t0 ) −A(s) y(t) = y0 e + b(s) e ds eA(t) . t0 Mit b(t) ≡ 0 schließt das homogene Differentialgleichungen (siehe 12.2e) mit ein. ! Beispiel: y 0 = 3y − t, t ∈ I = R , t0 = −1/3, y(−1/3) = y0 = 15. b(t) = −t, a(t) = 3, A(t) = 3t, −A(t0 ) = 1, y0 e−A(t0 ) = 15e, Z ¯t 1 −3s 1 ¯ e (1 + 3s) ¯ = e−3t (1 + 3t) , 9 9 −1/3 −1/3 ½ ¾ 1 1 y(t) = 15e + e−3t (1 + 3t) e3t = 15e(1+3t) + (1 + 3t) . 9 9 t (−s) e−3s ds = Dringender Rat: Wenn eine Aufgabe gelöst wurde, immer die Probe machen. 12.5 Bernoullische Differentialgleichung Seien g, h : I → R stetig auf dem Intervall I. Die Bernoullische Differentialgleichung hat die Form y 0 = f (t; y) = h(t) y + g(t) y p , p ∈ R, p 6= 1, p 6= 0. (Für p = 1 oder 0 liegt eine bereits behandelte homogene bzw. inhomogene lineare Differentialgleichung vor.) Die Differentialgleichung ist nichtlinear in y. Solange y(t) > 0 ist y(t)p = exp{p ln y(t)} wohldefiniert für alle p ∈ R, falls p > 0 auch für y(t) = 0. Bei ganzen und gewissen rationalen p (z.B. p = −3/5) kann auch y(t) < 0 zulässig sein. Dies ist im Einzelfall zu beachten! In manchen Formelsammlungen fehlt diese und die unten folgende notwendige Diskussion der zulässigen Vorzeichen. Falls p > 0 ist y(t) ≡ 0, t ∈ I, eine Lösung der Bernoullischen Differentialgleichung. Bei p < 0 darf y keine Nullstellen haben. Solange y(t) > 0 oder solange y(t) < 0 und y(t)p definiert ist betrachte anstelle von y die Funktion z(t) = y(t)1−p = y(t)/y(t)p . Wenn y eine Lösung der Bernoullischen Differentialgleichung ist, erfüllt z die Differentialgleichung z 0 (t) = (1 − p) y(t)−p y 0 (t) = (1 − p) h(t) y(t)1−p + (1 − p) g(t) = (1 − p) h(t) z(t) + (1 − p) g(t), also die lineare inhomogene Differentialgleichung z 0 = (1 − p) h(t) z + (1 − p) g(t), a(t) = (1 − p) h(t), b(t) = (1 − p) g(t). Diese ist z.B. mit der in 12.3 angegebenen Lösungsformel immer allgemein zu lösen. Je nach dem Wert von p sind evtl. nur die Teile der Lösung mit z(t) > 0 oder z(t) ≥ 0 zu einer Lösung y = z 1/(1−p) bzw. y = ±z 1/(1−p) der Bernoullischen Differentialgleichung zurückzutransformieren, Vorsicht!, siehe 12.5a. Zur Eindeutigkeit der Lösungen des Anfangswertproblems siehe 12.10b. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 171 Beispiel: y 0 = f (t, y) = t y + t3 y 3 , t ∈ I = R, p = 3. y(t)3 ist für alle y(t) ∈ R definiert, y(t) ≡ 0 ist eine Lösung. Für y(t) 6= 0 ist p z(t) = y(t)1−p = 1/y(t)2 > 0, y(t) = ±1/ z(t) definiert, da p hier ungerade ist, ist mit y auch −y eine Lösung. Die Lösungen der Differentialgleichung für z z 0 = (1 − 3) t · z + (1 − 3) t3 = −2t z − 2t3 sind nur solange von Interesse, wie z(t) > 0 gilt. Wenn z(t) → 0 folgt y(t) → ±∞. Zu a(t) = −2t, A(t) = −t2 , b(t) = −2t3 , wähle z.B. t0 = 0 in der Lösungsformel, Z t Z 3 (−2s )e s2 0 ds = − t2 ¯t2 2 ¯ u eu du = eu (1 − u) ¯ = et (1 − t2 ) − 1, 0 2 z(t) = c e−t + (1 − t2 ) = z(−t), 0 z(0) = c + 1. Falls c ≤ −1 folgt z(t) ≤ 0, ungeeignet. Für c > −1 ist z(t) > 0 für gewisse t, jedoch z(t) → −∞ für |t| → ∞. Für ein endliches Zeitintervall J = (−t1 , t1 ) gilt z(t) > 0, wobei t1 durch z(t1 ) = 0 bestimmt wird, abhängig von c > −1. n o−1/2 2 y(t) = ± c e−t + (1 − t2 ) , c > −1, t ∈ J. Durch jeden Punkt t0 mit y(t0 ) = y0 gibt es eine Lösungskurve ( c geeignet gewählt bzw. y(t) ≡ 0, falls y0 = 0). Daß es keine weiteren Lösungen gibt, folgt später aus dem Existenz- und Eindeutigkeitssatz, siehe 12.9d, denn f (t; y) ist Lipschitz-stetig in y. 12.5a Beobachtungen bei Bernoullischen Differentialgleichungen (i) Wenn y p für y > 0 und für y < 0 definiert ist und wenn gilt (−y)p = −y p (das ist z.B. für ungerade ganzzahlige p, für p = ±1/3, ±1/5, ±3/5, . . . erfüllt), dann gilt f (t; −y) = −f (t; y), f ist eine ungerade Funktion (8.8b) bzg. y. Daraus folgt, daß mit y(t) auch −y(t) eine Lösung der Differentialgleichung ist. Die Funktion z = y 1−p und ggf. der Anfangswert z0 = y0 1−p sind dann automatisch positiv. Die Lösung z(t) ist auf solche t zu begrenzen, für die z(t) > 0 bzw. z(t) ≥ 0 gilt (für p < 0 bzw. p > 0) und die Lösungen des Anfangswertproblems sind y = +z 1/(1−p) oder y = −z 1/(1−p) , wenn y0 > 0 oder y0 < 0. (ii) Bei anderen Werten von p, z.B. p = 2, 2/3, . . ., haben y = z 1−p und z = y 1/(1−p) jeweils dasselbe Vorzeichen, dann ist die Wahl mit ±“ wie in (i) nicht erforderlich. ” (iii) Bei allen homogenen linearen Differentialgleichungen und bei Bernoullischen Differentialgleichungen mit p > 1 gilt für die Lösungen, daß entweder y(t) ≡ 0 oder y(t) 6= 0 für alle zulässigen t, bei p < 0 ist nur y(t) 6= 0 möglich. Dies folgt aus dem Existenz- und Eindeutigkeitssatz, siehe 12.10b. (iv) Im Falle 0 < p < 1 kann der Fall eintreten, daß eine Lösung in einem Intervall von Null verschieden ist und dann konstant gleich Null fortgesetzt wird. Ein einfaches Beispiel, in dem die Eindeutigkeit der Lösung des Anfangswertproblems bei y = 0 verlorengeht, geben wir in 14.1 an. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.6 172 Das Richtungsfeld Die reellwertige Lösung y(t) der Differentialgleichung erster Ordnung y 0 = f (t; y) kann durch den Graphen der Funktion y in der Ebene veranschaulicht werden. An einem Punkt auf dem Graphen von y gilt (siehe 1.13b): µ ¶ µ ¶ µ ¶ 1 1 t = ist ein Tangentialvektor bei , y 0 (t) f (t; y(t)) y(t) er gibt die Richtung der Tangenten an den Graphen in diesem Punkt an. Die auf Länge Eins normierte Abbildung µ ¶ µ ¶ 1 t 1 7→ p ist das Richtungsfeld y 1 + [ f (t; y) ]2 f (t; y) der Differentialgleichung, der Graph einer Lösung y ist an jedem seiner Punkte tangential zum Richtungsfeld. Das kann zur Veranschaulichung des qualitativen Verlaufs der Lösungen dienen, denn das Richtungsfeld kann man zeichnen, ohne die Differentialgleichung zuvor lösen zu müssen. Beim Skizzieren (an vielen Punkten der (t, y)-Ebene einen Pfeil in die Richtung des Richtungsfeldes zeichnen) können Computerprogramme wie MAPLE hilfreich sein. So wurden die Beispiele in Abbildung 12.1 und 12.2 erstellt. 8 6 1 y(t) 4 y(t) 2 t 2 4 0.5 6 8 10 0 –2 –1 –0.5 0.5 –4 1 1.5 t –6 –0.5 –8 Abbildung 12.1: Richtungsfeld und Lösungen der linearen homogenen Differentialgleichung y 0 = (sin t) y 12.7 Abbildung 12.2: Richtungsfeld und Lösungen der autonomen logistischen Differentialgleichung y 0 = y(1 − y) Definitionsbereich einer Differentialgleichung erster Ordnung Betrachte die Differentialgleichung erster Ordnung in der nach y 0 aufgelösten“ Form, d.h. ” y 0 = f (t; y), mit dem Vektorfeld“ oder der rechten Seite“ f (t; y) der Differentialgleichung 1. Ordnung (hier der ” ” eindimensionale Spezialfall eines Vektorfeldes). Der Definitionsbereich der Differentialgleichung ist der Definitionsbereich von f , also die (größtmögliche) Menge der Paare (t, y) ∈ R2 , für die f (t; y) definiert ist. 12.7a Beispiele zum Definitionsbereich (i) f (t; y) = sin t ln y , Definitionsbereich D = {(t, y) ∈ R2 | t ∈ R, y > 0}. (ii) f (t; y) = RWTH Aachen 1 , Definitionsbereich D = {(t, y) ∈ R2 | t 6= y}. t−y Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 173 Von einer Lösung y(t) der Differentialgleichung können wir nur sprechen solange (t, y(t)) ohne Unterbrechung im Definitionsbereich des Vektorfeldes f liegt. Diese Einschränkung gilt selbst dann, wenn eine Lösungsformel über den Definitionsbereich hinaus sinnvoll ist! Das Beispiel y0 = 2 y, Definitionsbereich D = {(t, y) ∈ R2 | t 6= 0}, t einer linearen homogenen Differentialgleichung hat als Lösungen y(t) = c t2 nur für die Intervalle (0, ∞) oder (−∞, 0), obwohl die Formel auch für t = 0 sinnvoll ist. Wenn in einer Anwendung diese Differentialgleichung sowohl für t > 0 als auch für t < 0 von Interesse ist, dann können die Konstanten c für positive oder negative t völlig unabhängig voneinander gewählt werden. Oben wurde z.B. bei den linearen und Bernoullischen Differentialgleichung immer t ∈ I, einem Intervall, vorausgesetzt (siehe 12.2 – 12.5). Wenn der Definitionsbereich aus der Vereinigung mehrerer Intervalle besteht (etwa bei a(t) = tan t ), so sind dort und in analogen Fällen die Lösungen immer nur auf jeweils ein Intervall beschränkt, auch wenn die Lösungsformeln zur simultanen Berechnung in mehreren Intervallen geeignet sind. Die freien Konstanten sind in verschiedenen Intervallen völlig unabhängig voneinander. 12.8 Separable Differentialgleichungen Seien g stetig auf Dg ⊆ R und h stetig auf Dh , für y gelte die separable Differentialgleichung“, ” bei der das Vektorfeld Produktform hat: y 0 = f (t; y) = g(t) h(y) mit Definitionsbereich D = {(t, y) ∈ R2 | t ∈ Dg , y ∈ Dh }. Dieser Gleichungstyp heißt auch Differentialgleichung mit getrennten Variablen“, er ist eine nichtlineare Verallgemeinerung der ho” mogenen linearen Differentialgleichung, bei der h(y) = y. 12.8a Gleichgewichtslösungen Es gelte für ein y ∈ Dh : h(y) = 0, dann ist y(t) ≡ y, t ∈ I ⊆ Dg , eine Lösung, die das AWP mit t0 ∈ I ⊆ Dg , y(t0 ) = y im Intervall I löst. (Ob es die einzige lokale Lösung dieses AWP’s ist, hängt von der Art der Nullstelle ab: wenn h bei y Lipschitz-stetig ist, gilt Eindeutigkeit, siehe 12.9a, 12.9d, ein nicht-eindeutiges Beispiel ist in 14.1 angegeben.) Wenn die unabhängige Variable t für die Zeit steht, dann beschreibt eine Nullstelle y von h eine Ruhelage, der Zustand des Systems ändert sich nicht bei diesen konstanten Lösungen, das System befindet sich im Gleichgewicht. Daher der allgemeiner verbreitete Name Gleichgewichtslösung“ für ” konstante Lösungen. 12.8b Weitere Lösungen separabler Differentialgleichungen Sei nun J ⊆ Gh ein Intervall mit h(y) 6= 0 für alle y ∈ J , dann ist 1/h(·) auf J stetig und letzteres hat eine Stammfunktion F mit F 0 (y) = 1/h(y) 6= 0. Die (beliebig fest gewählte) Stammfunktion F ist also insbesondere streng monoton und damit invertierbar (siehe ??). Die Differentialgleichung ist dort äquivalent zu g(t) = y 0 (t) d = F (y(t)). h(y(t)) dt Ist G eine Stammfunktion zu g, so folgt für y ∈ J , t ∈ I ⊆ Dg G(t) + const = F (y(t)) RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 174 als implizite Lösung, die für das invertierbare F nach y aufgelöst werden kann, solange G(t)+const im Wertebereich von F , dem Definitionsbereich von F −1 liegt: y(t) = F −1 (G(t) + const). Die Stammfunktion F und ihre Umkehrfunktion F −1 sind in praktischen Anwendungen möglicherweise sehr kompliziert oder nicht explizit bekannt. Z R dy 0 Intuitive Merkregel: y = g(t) h(y), h(y) 6= 0 ⇐⇒ = g(t) dt , das erklärt den Namen h(y) Trennung der Variablen für diese Lösungsmethode separabler Differentialgleichungen. 12.8c Beispiel einer separablen Differentialgleichung y 0 (t) = f (t, y) = 5t4 (1 − e1−y ) , t, y ∈ R , g(t) = 5t4 , G(t) = t5 , h(y) = (1 − e1−y ) = (ey − e)/ey , h(1) = 0, es gibt eine Gleichgewichtslösung y(t) ≡ 1, t ∈ R . Sonst gilt: 1 ey = y , y 6= 1, F (y) = ln |ey − e| ist eine Stammfunktion. h(y) e −e Falls y > 1 ist F (y) = ln(ey − e) und der Wertebereich von F ist die ganze reelle Gerade: {ln(ey − e) | y > 1} = R . µ ¶ ³ ´ 5 y(t) 5 t + c F (y(t)) = ln e − e = t + c; y(t) = ln e + e , c ∈ R, t ∈ R ist die allgemeine Lösung mit y(t) > 1. Für y < 1 ist F (y) = ln(e − ey ) und der Wertebereich ist das Intervall {ln(e − ey ) | y < 1} = (−∞, 1), daher sind nur die (von c abhängigen) t ∈ J = {t ∈ R | t5 + c < 1} zulässig. Die Lösung ist dann µ ¶ 5 t + c y(t) = ln e − e , c ∈ R , t5 + c < 1. Daß die aufgeführten drei Familien von Lösungen wirklich die allgemeine Lösung sind, kann man mit 12.9d sehen, denn h ist stetig differenzierbar und damit Lipschitz-stetig. 12.8d Das Anfangswertproblem für Nicht-Gleichgewichtslösungen Sei t0 ∈ Dg , y0 ∈ Dh mit h(y0 ) 6= 0, dann gilt (jedenfalls für |t − t0 | und |y − y0 | klein): Z F (y(t)) − F (y0 ) = G(t) − G(t0 ) = t g(s) ds t0 ist die implizite Lösung, die das AWP y(t0 ) = y0 erfüllt. Im Beispiel 12.8c sei t0 = 1, y0 = 23 > 1, G(t) − G(t0 ) = t5 − 1, y(t) = ln{e + exp[t5 + ln(e22 − 1) ] } = ln{e + (e22 − 1) exp[t5 ] }, t ∈ R . 12.8e Der autonome Spezialfall Eine Differentialgleichung heißt autonom, wenn sie nicht explizit von der Zeit abhängt, also y 0 (t) = f (t; y) = h(y). Dann ist in den Formeln oben überall G(t) durch t zu ersetzen. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 12.9 175 Grundlegende Existenz- und Eindeutigkeitssätze für das Anfangswertproblem. Das Anfangswertproblem (AWP) erster Ordnung sei von der Form ( y 0 = f (t; y), f : D ⊆ R2 → R, y(t0 ) = y0 , (t0 , y0 ) ∈ D für eine reellwertige Funktion y (zur Vereinfachung), die Aussagen für vektorwertige Funktionen y sind nahezu wörtlich dieselben. Mit 13.7a schließt das dann auch Differentialgleichungen höherer Ordnung mit ein, siehe 12.10d. Wir setzen voraus, daß f (mindestens) stetig auf D ist (siehe 12.9a) und daß (t0 , y0 ) ist ein innerer Punkt des Definitionsbereichs D ⊆ R2 ist, d.h. es gibt ein δ > 0, so daß alle (t, y) mit |t − t0 | < δ und |y − y0 | < δ auch zu D gehören. Wenn D offen ist (wie es in vielen Anwendungen der Fall ist), dann ist jeder Punkt in D ein innerer Punkt. Wenn D nicht offen ist, sondern auch Randpunkte enthält, und (t0 , y0 ) ein Randpunkt im Definitionsbereich ist, dann können besondere Diskussionen erforderlich sein (siehe z.B. 12.10a). 12.9a Vorbemerkungen: stetig, Lipschitz-stetig, partielle Ableitung bei Funktionen mehrerer Veränderlicher Ganz analog zum Fall von Funktionen einer Variablen (??) definiert man: Ein Vektorfeld f : D → R, (t, y) 7→ f (t; y) ist stetig auf D ⊆ R2 , wenn es zu jedem (t0 , y0 ) ∈ D und jedem ε > 0 ein δ = δ(ε, t0 , y0 ) gibt, so daß |f (t; y) − f (t0 ; y0 )| ≤ ε gilt für alle (t, y) ∈ D mit |t − t0 | ≤ δ und |y − y0 | ≤ δ. (Im höherdimensionalen Fall muß dasselbe gelten für f (t; y) .) Eine Verschärfung der Stetigkeit ist die Lipschitz-Stetigkeit. Für Vektorfelder von Differentialgleichungen ist folgende Eigenschaft von Bedeutung: Ein stetiges Vektorfeld f : D → R oder f : D → Rn , (t, y) 7→ f (t; y) heißt auf D Lipschitz-stetig bezüglich y, wenn es zu jedem (t0 , y0 ) ∈ D ein δ0 > 0 und eine Lipschitzkonstante“ L gibt, so daß |f (t; y) − f (t; y0 )| ≤ L |y − y0 | für ” alle (t, y) ∈ D mit |t − t0 | ≤ δ0 und |y − y0 | ≤ δ0 . Anschaulich bedeutet die Lipschitz-Stetigkeit, daß das Vektorfeld sich bei kleinen Änderungen von y höchstens linear in der Abweichung |y − y0 | ändern darf. Die benötigte Lipschitzkonstante kann für große y0 oder für Punkte nah am Rand des Definitionsbereichs groß werden. Beispielsweise gilt für das Vektorfeld f (t; y) = y 2 die Abschätzung: |f (t; y) − f (t; y0 )| = | [ 2y0 + (y − y0 ) ] (y − y0 ) | ≤ L |y − y0 | für δ0 = 1 und L = 2|y0 | + 1. Ein typisches Beispiel für eine Funktion, die stetig aber bei y0 = 0 nicht Lipschitz-stetig ist bezüglich y, ist f (t; y) = |y|p mit einer Potenz 0 < p < 1. Hier gilt |f (t; y) − f (t; 0)| = |y|p = |y|p−1 |y − 0| . Da der Faktor |y|p−1 → ∞ für y → 0 kann es keine endliche Lipschitzkonstante geben. Auf dieses Beispiel gehen wir (mit p = 1/2) in 14.1 näher ein. Eine bequeme hinreichende Bedingung für obige Lipschitz-Stetigkeit benutzt die partielle Ab” leitung“. Bei einer Funktion von mehreren Variablen wie f (t; y) ist die (erste) partielle Ableitung ∂y f (t; y) nach der Variablen y die gewöhnliche Ableitung nach y, wobei alle anderen Variablen als Konstante behandelt werden. Entsprechend für jede Komponente von y bei vektoriellem y. Wir erläutern das mit Beispielen (komponentenweise Berechnung für vektorwertige Funktionen). f (t; y) = y 2 sin t + ty, ∂y f (t; y) = 2y sin t + t, ∂t f (t; y) = y 2 cos t + y, f (t; y) = ey2 − y1 (t − y2 ), ∂y1 f (t; y) = −(t − y2 ), ∂y2 f (t; y) = ey2 + y1 , µ ¶ µ ¶ µ ¶ f1 (t; y1 , y2 ) t(y1 − y2 )2 2t(y1 − y2 ) f (t; y) = = , ∂y1 f (t; y) = , f2 (t; y1 , y2 ) y1 tan y2 tan y2 µ ¶ −2t(y1 − y2 ) ∂y2 f (t; y) = . y1 (1 + tan2 y2 ) RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 176 Satz: Wenn die Funktion f auf D stetig partiell nach y differenzierbar“ ist, d.h. wenn ∂y f (t; y) ” bzw. wenn alle ∂yj f (t; y) existieren und auf D stetig sind, dann ist f auf D Lipschitz-stetig bezüglich y. (Bei vektorwertigen Funktionen f muß das für alle Komponenten f1 , f2 ; . . . gelten.) Da die wichtigsten Funktionen (Polynome, rationale, trigonometrische und hyperbolische Funktionen, Logarithmus und Exponentialfunktion etc.) stetig differenzierbar sind, garantiert der Satz in den meisten Anwendungen die Lipschitz-Steigkeit der Vektorfelder auf ihrem Definitionsbereich. (So ist es in den Beispielen oben.) Eine wichtige Ausnahme, wo die Lipschitz-Stetigkeit auch Fälle zuläßt, die durch die stetige partielle Differenzierbarkeit nicht erfaßt werden, können Ausdrücke mit dem Betrag sein. Das Vektorfeld f (t; y) = sin t |y| ist für y = 0 nicht nach y partiell differenzierbar, trotzdem ist es auf dem ganzen R2 Lipschitz-stetig (mit L = 1). Diese Begriffe der Stetigkeit und stetigen partiellen Differenzierbarkeit werden im Rahmen des Analysis für Funktionen mehrerer Veränderlicher eingehender behandelt. 12.9b Lokale Lösung des Anfangswertproblems (AWP) Wenn es ein offenes Intervall J = (t1 , t2 ) mit t0 ∈ J (z.B. J = {t ∈ R | |t − t0 | < τ } für ein τ > 0 ) und eine stetig differenzierbare Funktion y : J → R gibt, die die Differentialgleichung y 0 = f (t; y) löst und y(t0 ) = y0 erfüllt, dann heißt y eine lokale Lösung des Anfangswertproblems (AWP). Wenn (t0 , y0 ) auf dem Rand des Definitionsbereichs liegt, dann existieren die lokalen Lösungen möglicherweise nur für t ≥ t0 oder t ≤ t0 . Die Sätze gelten dann sinngemäß. Bemerkung: Die Beschränkung auf lokale Lösungen ist i.A. unvermeidbar. Die harmlos aussehende Differentialgleichung y 0 = y 2 mit Definitionsbereich D = R2 (keine Einschränkungen!) hat als allgemeine Lösung die triviale y ≡ 0 sowie y(t) = 1/(c − t), c ∈ R. Es gibt keine nichttriviale Lösung, die für alle t ∈ R definiert ist, alle streben gegen ±∞ für t → c ∓ 0. 12.9c Existenzsatz von Peano Sei f stetig auf D, dann gibt es zu jedem inneren Punkt (t0 , y0 ) ∈ D eine lokale Lösung des AWP. (Es kann mehrere Lösungen geben!) 12.9d Existenz- und Eindeutigkeitssatz von Picard-Lindelöf Sei f stetig auf D und Lipschitz-stetig in y wie in 12.9a angegeben (z.B. nach y partiell stetig differenzierbar in D ), dann gibt es zu jedem inneren Punkt (t0 , y0 ) ∈ D genau eine lokale Lösung des AWP. Diese kann so lange in die Vergangenheit“ (t < t0 ) und Zukunft“ (t > t0 ) fortgesetzt werden ” ” bis sie den Definitionsbereich verläßt. Falls (t0 , y0 ) ∈ D ein Randpunkt des Definitionsbereichs ist, der zum Definitionsbereich gehört, so gilt ebenfalls die Eindeutigkeit, die Existenz von Lösungen jedoch möglicherweise nur für t ≥ t0 oder t ≤ t0 oder auch gar nicht, siehe z.B. 12.10a. Siehe dazu auch 14.6a. Ein systematisches Approximationsverfahren für die Konstruktion von Lösungen, mit dem man zugleich den Existenz- und Eindeutigkeitssatz beweist, wird später in 14.5b angegeben. 12.10 Anwendungen der Existenz- und Eindeutigkeitssätze auf Differentialgleichungen erster Ordnung Für die bisher behandelten einfachen Typen von Differentialgleichungen konnten wir Lösungsformeln angeben, so daß allgemeine Existenzsätze dafür nicht nötig sind. Doch ist die Eindeutigkeit der Lösung des Anfangswertproblems nicht in allen Fällen gewährleistet, wie Beispiele zeigen. RWTH Aachen Mathematik I+II 12 Gewöhnliche Differentialgleichungen, Grundlagen und einfache Beispiele 177 Für ein explizites nichtlineares Beispiel, bei dem die Lösungen des AWP existieren aber nicht eindeutig sind, weisen wir auf 14.1 hin. 12.10a Lineare Differentialgleichungen Seien a, b : I → R stetig, y 0 = f (t; y) = a(t) y + b(t), D = {(t, y) ∈ R2 | t ∈ I}, (∂y f )(t; y) = a(t) ist stetig auf D. Also ist das AWP für jeden inneren Punkt t0 ∈ I, y0 ∈ R eindeutig lokal lösbar. √ Den Fall eines Randpunktes illustrieren wir mit einem sehr einfachen Beispiel: Sei y 0 = t mit D = {(t, y) ∈ R2 | t ≥ 0}. Die Anfangsbedingung y(0) √ = y0 ∈ R am Rand des Definitionsbereichs wird einseitig nur für t ≥ 0 von y(t) = y0 + (2/3) t3 gelöst. 12.10b Eindeutigkeit bei Bernoullischen Differentialgleichungen Für y ∈ D, y 6= 0 ist f (t; y) = h(t) y + g(t) y p (siehe 12.5) partiell nach y stetig differenzierbar: ∂y f (t; y) = h(t) + g(t) y p−1 , bei p < 1 ist y = 0 ausgeschlossen. Bei p > 1 setzt sich die Differenzierbarkeit bis y = 0 fort; y(t) ≡ 0 ist eine Lösung, die lokale Existenz und Eindeutigkeit gilt dann bis y = 0 einschließlich. Eine Lösung auf einem Intervall I im Definitionsbereich mit y(t1 ) = 0 und y(t) 6= 0 für ein t ∈ I, t 6= t1 widerspräche der Eindeutigkeit, also kann y(t) = 0 nur für alle t ∈ I oder für keines gelten bei p > 1. Bei 0 < p < 1 kann die Eindeutigkeit bei y = 0 verletzt sein, wie das einfache Beispiel 14.1 zeigt. 12.10c Allgemeine Lösung Sei f bzgl. y auf D z.B. stetig partiell differenzierbar (oder Lipschitz-stetig), so daß der Existenzund Eindeutigkeitssatz gilt. Dann können wir überprüfen, ob eine gefundene Lösungsmenge die allgemeine Lösung ist, d.h. daß keine Lösung vergessen wurde. Wenn eine Lösungsmenge der Differentialgleichung y 0 = f (t; y) die Eigenschaft hat, daß es zu jedem inneren Punkt (t0 , y0 ) ∈ D eine Lösung in der Menge mit y(t0 ) = y0 gibt, dann ist diese Menge die allgemeine Lösung: zu jedem inneren Punkt als Anfangsbedingung (t0 , y0 ) gibt es eine Lösung, wegen der Eindeutigkeit kann es keine weiteren geben. Mit anderen Worten: wenn wir jedes AWP lösen können, dann haben wir die allgemeine Lösung gefunden. Ohne die Eindeutigkeit der Lösung des AWP könnten wir nicht so schließen. In vielen Fällen gilt das sinngemäß auch für Randpunkte, siehe z.B. 12.10a. 12.10d Differentialgleichungen höherer Ordnung Mit 13.7a können wir den Existenz- und Eindeutigkeitssatz von Picard-Lindelöf auch auf Differentialgleichungen höherer Ordnung anwenden. Sei die Differentialgleichung n-ter Ordnung z.B. von der Form y (n) = f (t; y, y 0 , . . . , y (n−1) ) mit bezüglich y stetig differenzierbarer oder Lipschitz-stetiger Funktion f : D ⊆ Rn+1 → R und sei (t0 , y0 , y1 , . . . , yn−1 ) ein innerer Punkt von D. Dann hat das AWP y(t0 ) = y0 , y 0 (t0 ) = y1 , . . . , y (n−1) (t0 ) = yn−1 eine eindeutige lokale Lösung. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13 178 Lineare Differentialgleichungen und Systeme Im vorangehenden Kapitel 12 haben wir bereits die einfachsten Fälle linearer Differentialgleichungen erster Ordnung für reellwertige Funktionen in den Abschnitten 12.2 – 12.4 behandelt. Der Koeffizient a(t) durfte dabei zeitabhängig sein. Nun wenden wir uns zunächst linearen Differentialgleichungen höherer Ordnung für reellwertige Funktionen zu und danach für vektorwertige Funktionen, den linearen Differentialgleichungssystemen oder meist kürzer linearen Systemen“. Wir nehmen nun an, daß ” die Koeffizienten von y, y 0 , . . . konstant sind, für den allgemeineren Fall zeitabhängiger Koeffizienten verweisen wir auf die Literatur. Die Inhomogenitäten dürfen immer zeitabhängig sein. 13.1 Lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten 13.1a Die Differentialgleichung und das Anfangswertproblem Wir betrachten zunächst lineare homogene Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten a, b, für reellwertige, zweimal stetig differenzierbare Funktionen y, d.h. L(y) := y 00 + 2 a y 0 + b y = 0, a, b ∈ R . L ist ein linearer Differentialoperator: L(α y1 + β y2 ) = α L(y1 ) + β L(y2 ). Daraus folgt: wenn y1 , y2 Lösungen sind, d.h. L(y1 ) = 0, L(y2 ) = 0, dann ist auch α y1 + β y2 eine Lösung, für α, β ∈ R sowie für α, β ∈ C. (Die Linearität bleibt richtig, wenn a und b stetige Funktionen von t sind.) Das Anfangswertproblem (AWP) für Differentialgleichungen 2. Ordnung lautet: zu gegebener Anfangszeit t0 und Anfangswerten y0 , y1 ∈ R suche eine Lösung mit y(t0 ) = y0 und y 0 (t0 ) = y1 . Damit diese zwei Bedingungen immer erfüllt werden können, erwarten wir, daß die allgemeine Lösung einer Differentialgleichung zweiter Ordnung zwei frei wählbare Parameter hat, daß also der Lösungsraum der Differentialgleichung ein zweidimensionaler linerer Raum (Vektorraum) ist. Die Verallgemeinerung auf beliebige Ordnung folgt in 13.3. 13.1b Das charakteristische Polynom Die Erfahrung mit linearen homogenen Differentialgleichung 1. Ordnung legt einen Lösungsansatz mit Exponentialfunktionen nahe. Sei y(t) = eλ t , dann gilt y 0 (t) = λ eλ t , y 00 (t) = λ2 eλ t für beliebiges λ ∈ C. Damit ist L(y) = (λ2 + 2a λ + b) eλ t . Wir sehen: y(t) = eλ t ist genau dann eine Lösung der Differentialgleichung L(y) = 0, wenn λ eine Lösung der quadratischen Gleichung λ2 + 2a λ + b = 0 ist. Durch den Ansatz mit der Exponentialfunktion wurde das Problem, eine Differentialgleichung zu lösen, in eine einfache quadratische Gleichung überführt. Das quadratische Polynom P (λ) = λ2 + 2 a λ + b heißt charakteristisches Polynom oder auch charakteristische Gleichung des Differentialoperators L(y) bzw. der Differentialgleichung y 00 + 2a y 0 + b y = 0. Die reellen oder komplexen Nullstellen sind p λ1,2 = −a ± a2 − b. Von dem Vorzeichen der Diskriminanten d := 4(a2 − b) hängt es ab, ob die Lösungen reell und verschieden (d > 0), reell und entartet (d = 0) oder konjugiert komplexe Paare λ1 = λ2 sind (d < 0). Daß wir durch diesen Ansatz und seine Verallgemeinerung durch polynomiale Faktoren im Entartungsfall alle möglichen Lösungen erfaßt haben, werden wir daran sehen, daß wir so das AWP für beliebige Anfangsbedingungen lösen können, vergleiche 12.10c. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.1c 179 Fall 1: zwei verschiedene reelle Lösungen Sei a2√> b, das charakteristische reellen Lösungen λ1 = √ Polynom hat die beiden verschiedenen λ t 2 2 1 −a + a − b und λ2 = −a − a − b, dann sind y1 (t) = e und y2 (t) = eλ2 t Lösungen. Die allgemeine Lösung lautet in diesem Fall y(t) = α eλ1 t + β eλ2 t , t ∈ R , α, β ∈ R . Um das Anfangswertproblem mit y(t0 ) = y0 , y 0 (t0 ) = y1 zu lösen, berechne ! y(t0 ) = α eλ1 t0 + β eλ2 t0 = y0 , ! y 0 (t0 ) = α λ1 eλ1 t0 + β λ2 eλ2 t0 = y1 . Dieses lineare inhomogene Gleichungssystem für α und β µ λ t µ ¶ µ ¶ ¶ e 1 0 e λ2 t 0 α y0 , A= A = β y1 λ1 eλ1 t0 λ2 eλ2 t0 ist für jedes Paar α, β eindeutig lösbar (siehe 3.4a), denn det A = (λ2 − λ1 ) e(λ1 +λ2 ) t0 6= 0. Das bestätigt, daß die oben angegebene Familie die allgemeine Lösung ist. Derselbe Schluß ist auch für den in 13.1e behandelten Fall λ2 = λ1 6= λ1 anwendbar. 00 − 4y 0 + 3y = 0 hat das charakteristische Polynom λ2 − 4 λ + 3 mit Nullstellen Beispiel: y√ λ1,2 = 2 ± 4 − 3, also λ1 = 3, λ2 = 1. Die allgemeine Lösung ist y(t) = α e3t + β et , t ∈ R , α, β ∈ R . Das AWP y(0) = 2, y 0 (0) = 3 wird gelöst, wenn α + β = 2 und 3α + β = 3, also α = 1/2, β = 3/2, y(t) = (1/2) e3t + (3/2) et . 13.1d Fall 2, Entartung Wenn a2 = b ist λ = −a die entartete einzige Nullstelle des charakteristischen Polynoms mit Vielfachheit zwei. Außer y1 (t) = e−a t ist auch y2 (t) = t e−a t eine Lösung: y20 (t) = (1 − a t) e−a t , y200 (t) = (−2a + a2 t) e−a t , erfüllt y200 + 2 a y20 + a2 y2 = 0. Die zweiparametrige Familie α y1 (t) + β y2 (t), also y(t) = (α + β t) e−a t , t ∈ R , α, β ∈ R , ist die allgemeine Lösung der Differentialgleichung, denn auch hier lassen sich für jedes AWP y(t0 ) = y0 , y 0 (t0 ) = y1 die Koeffizienten α, β eindeutig bestimmen: α = [ y0 (1 − a t0 ) − t0 y1 ] ea t0 , β = (a y0 + y1 ) ea t0 . 13.1e Fall 3: konjugiert komplexes Nullstellenpaar √ Mit b − a2 =: ω 2 > 0 ist λ1,2 = −a ± a2 − b = −a ± iω, eλ1 t = e−a t ei ω t , eλ2 t = e−a t e−i ω t . Die allgemeine komplexe Lösung der Differentialgleichung ist y(t) = c1 e−a t ei ω t + c2 e−a t e−i ω t , t ∈ R , c1,2 ∈ C. (Auch in den früheren Fällen wären komplexe Koeffizienten α, β zulässig gewesen.) Ist man an reellen Lösungen interessiert, so führt die Wahl c2 = c1 auf trigometrische Funktionen mit der Eulerschen Gleichung (siehe ??) 1 1 iωt cos (ω t) = (ei ω t + e−i ω t ), sin (ω t) = (e − e−i ω t ). 2 2i Die allgemeine reelle Lösung ist dann y(t) = e−a t (α cos (ω t) + β sin (ω t) ), t ∈ R , α, β ∈ R , was c1 = (α − i β)/2, c2 = (α + i β)/2 = c1 entspricht. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.2 180 Lineare gedämpfte Schwingungen Für eine an einer Feder aufgehängte Masse sei y(t) die Auslenkung aus der Ruhelage nach oben. Für kleine Auslenkungen ist die Rückstellkraft proportional zur Auslenkung (linear in y ) und die Reibung sei proportional zur Geschwindigkeit y 0 (t). Die Newtonschen Bewegungsgleichungen ergeben in dieser linearen Näherung (die für kleine Schwingungen sehr gut ist) y 00 + 2 a y 0 + b y = 0, a ≥ 0, b > 0. Hierbei beschreibt b > 0 die Rückstellkraft und a ≥ 0 die Stärke der Reibung. Dieselbe Gleichung erhält man für gedämpfte elektrische Schwingkreise und viele andere gedämpfte schwingende Systeme. Insbesondere interessiert uns das AWP: y(0) = 1, y 0 (0) = 0, d.h. die ausgelenkt festgehaltene Masse wird zur Zeit t = 0 losgelassen. Wir beobachten drei verschiedene Bewegungstypen: 13.2a Schwache Dämpfung √ √ a2 < b, so daß λ1,2 = −a ± a2 − b = −a ± iω, ω = b − a2 > 0, a > 0: y(t) = e−a t (α cos (ω t) + β sin (ω t)) , das AWP wird für α = 1, β = a/ω gelöst: ³ ´ a y(t) = e−a t cos (ω t) + sin ω t) , ω t ∈ R, αβ ∈ R, t ∈ R. Dies ist eine exponentiell gedämpfte Schwingung. 13.2b Kritische Dämpfung (aperiodischer Grenzfall) a2 = b, die allgemeine Lösung ist y(t) = (α + β t) e−a t , t ∈ R , α, β ∈ R , y(t) = (1 + a t) e−a t , t ∈ R , löst das AWP. 13.2c Starke Dämpfung √ a2 > b, λ1,2 = −a ± a2 − b < 0, y(t) = α eλ1 t + β eλ2 t , y(t) = t ∈ R , α, β ∈ R, ist die allgemeine Lösung, −λ2 λ1 e λ1 t + e λ2 t , t ∈ R λ1 − λ2 λ1 − λ2 löst das AWP. Beachte, daß bei fester Rückstellkraft“ b und sehr starker Dämpfung a → ∞ der eine Eigenwert ” sehr stark negativ wird, ≈ −2a, die zugehörige Lösung immer schneller abfällt. Der andere Eigenwert strebt gegen Null, die dazu gehörige Lösung fällt also immer langsamer ab (in Honig kehrt das Pendel nur sehr langsam in die Ruhelage zurück). 13.3 Lineare homogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten Jetzt sei L ein linearer Differentialoperator n-ter Ordnung und die Differentialgleichung für n-mal stetig differenzierbare reellwertige Funktionen y laute: L(y) = y (n) + an−1 y (n−1) + . . . + a2 y 00 + a1 y 0 + a0 y = 0. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 181 Der Exponentialansatz y(t) = eλ t führt (wie in 13.1b) auf das charakteristische Polynom zum Differentialoperator L vom Grad n: P (λ) = λn + an−1 λn−1 + . . . + a2 λ2 + a1 λ + a0 mit reellen Koeffizienten a0 , . . . , an−1 . Die Nullstellen sind reell, oder sie treten in konjugiert komplexen Paaren λj , λj auf, da für Polynome mit reellen Koeffizienten gilt (6.1b) P (λj ) = 0 ⇔ P ( λj ) = 0. Seien die reellen Nullstellen λ1 , λ2 , . . . mit Vielfachheit r1 , r2 , . . . und die komplexen Paare λj 6= λj , λj+1 6= λj+1 , . . . mit Vielfachheit rj , . . ., dann läßt P sich (nach dem Fundamentalsatz der Algebra 6.1b) schreiben als P (λ) = (λ − λ1 )r1 (λ − λ2 )r2 . . . (λ − λj )rj (λ − λj )rj . . . , wobei r1 + r2 + . . . + 2rj + . . . = n. Zu einer reellen Nullstelle λ1 mit Vielfachheit r1 gehören r1 Lösungen eλ1 t , t eλ1 t , . . . , tr1 −1 eλ1 t . Zu einem konjugiert komplexen Paar λj = κ + i ω 6= λj = κ − i ω der Vielfachheit rj gehören 2rj reelle Lösungen trj −1 eκ t cos (ω t), .. . κt e cos (ω t), trj −1 eκ t sin (ω t), .. . κt e sin (ω t), oder (je nach dem, was zweckmäßiger ist) ebenso viele komplexe Lösungen eλj t , t eλj t , . . . , trj −1 eλj t , eλj t , t eλj t , . . . , trj −1 eλj t . Diese Lösungen zusammen bilden ein Fundamentalsystem“ von insgesamt n unabhängigen Lö” sungen, die allgemeine Lösung ist die Menge der Linearkombinationen dieser Lösungen. Jedes AWP mit y(t0 ) = y0 , . . . , y (n−1) (t0 ) = yn−1 wird durch genau eine Linearkombination gelöst ( n Bedingungen, n freie Parameter). 13.4 Lineare inhomogene Differentialgleichungen n -ter Ordnung mit konstanten Koeffizienten und variabler Inhomogenität Für eine stetige Funktion h : I → R hat die Gleichung die Form L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = h(t). Zwei beliebige Lösungen y1,2 unterscheiden sich um eine Lösung der homogenen Gleichung L(y) = 0, denn L(y1 − y2 ) = L(y1 ) − L(y2 ) = h − h = 0. Also gilt wiederum (wie schon in 3.3 und 12.3b sowie in 13.8d): Sei yp eine (beliebige) partikuläre Lösung der inhomogenen Gleichung, dann gilt: die allgemeine Lösung der inhomogenen Differentialgleichung ist gleich yp + die allgemeine Lösung der homogenen Differentialgleichung. Die Lösungsmenge einer inhomogenen linearen Differentialgleichung bildet einen affinen Raum. Da die allgemeine Lösung der homogenen Differentialgleichung bekannt ist (wenn wir alle reellen und komplexen Nullstellen des charakteristischen Polynoms P (λ) kennen), bleibt noch, eine (beliebige) partikuläre Lösung zu finden. Wenn y1 und y2 die Differentialgleichung L(y1 ) = h1 , L(y2) = h2 erfüllen, dann löst y = y1 + y2 die Differentialgleichung L(y) = h1 + h2 , denn L(y1 + y2 ) = L(y1 ) + L(y2 ) = h1 + h2 . Somit können Inhomogenitäten oft in Summen von einfacheren Ausdrücken aufgespalten werden. Wenn man eine partikuläre Lösung nicht schon raten kann, gibt es diverse systematische Verfahren zu deren Bestimmung (siehe Formelsammlung, Lehrbücher). Wir besprechen hier die wichtige Ansatzmethode (13.5) und die Grundlösungsmethode (13.6). RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.5 182 Die Ansatzmethode für lineare inhomogene Differentialgleichungen n-ter Ordnung Wenn die Inhomogenität h in L(y) = h nur Polynome, Exponentialfunktionen und trigonometrische Funktionen enthält, dann führt ein gleichartiger Ansatz für yp zum Ziel. 13.5a Polynomiale Inhomogenitäten Die Inhomogenität h sei ein Polynom von Grad k. yp kann immer als Polynom vom Grad k + n angesetzt werden, bei a0 6= 0 genügt der Grad k, bei a0 = 0, a1 6= 0 der Grad k + 1 u.s.w.. Die Koeffizienten werden durch Einsetzen von yp in die Differentialgleichung bestimmt. Für die Differentialgleichung y 00 +y 0 = 2t genügt der Ansatz yp (t) = at2 +bt+c. Differentiation ! und Einsetzen führt auf 2a + 2at + b = 2t. Koeffizientenvergleich ergibt yp (t) = t2 − 2t. Die allgemeine Lösung dieser DGL. ist y(t) = t2 − 2t + c1 + c2 e−t . 13.5b Exponentielle und trigonometrische Inhomogenitäten h(t) = A eµ t , A, µ ∈ C . Falls P (µ) 6= 0 (der nicht resonante Fall“), so ist L(eµ t ) = P (µ) eµ t ” und daher yp (t) = A eµ t eine partikuläre Lösung. P (µ) Im resonanten Fall“ ist P (µ) = 0. Ist µ eine einfache Nullstelle: P (µ) = 0, P 0 (µ) 6= 0, dann ist ” A yp (t) = t 0 eµ t eine partikuläre Lösung, entsprechend P (µ) yp (t) = tr A P (r) (µ) eµ t , falls µ eine Nullstelle von P der Vielfachheit r ist. Dies schließt trigonometrische Funktionen mit ein, da mit µ = κ + i ω 1 eκ t cos (ω t) = (eµ t + eµ̄ t ), 2 eκ t sin (ω t) = 1 µt (e − eµ̄ t ). 2i Alternativ kann man bei h(t) = eκ t (a cos (ω t) + b sin (ω t)) den reellen Ansatz tr eκ t (α cos (ω t) + β sin (ω t)) benutzen, falls µ = κ + i ω eine Nullstelle von P der Ordnung r ist. Die Koeffizienten α, β ∈ R werden dann durch Einsetzen in die Differentialgleichung bestimmt. (Auch wenn in h nur eine trigonometrische Funktion auftritt, muß i.a. im Ansatz sin und cos benutzt werden.) Im Beispiel y 00 + y 0 = 4 cosh t = 2 et + 2 e−t mit P (λ) = λ2 + λ, P (1) = 2, P (−1) = 0, P 0 (−1) = −1 ist eine partikuläre Lösung yp (t) = et − 2t e−t . Später in Abschnitt ?? werden wir die Fourierentwicklung benutzen, um den Fall einer periodischen Inhomogenität h auf die hier behandelten trigonometrischen Inhomogenitäten zurückzuführen. 13.5c Zusätzlicher polynomialer Faktor Tritt schließlich bei h ein Polynom vom Grad k als Faktor hinzu, so muß auch in yp ein Polynom vom Grad ≤ k + n als Faktor hinzugefügt werden und die Koeffizienten müssen durch Einsetzen in die Differentialgleichung bestimmt werden. Bei allen Anwendungen der Ansatzmethode sind nur (einfache) Differentiationen und Koeffizientenvergleiche durchzuführen, Integrationen sind nicht erforderlich. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.6 183 Die Grundlösungsmethode Diese Methode zur Lösung der linearen inhomogenen Differentialgleichung L(y) = y (n) + . . . + a1 y 0 + a0 y = h(t) ist anspruchsvoller als die Ansatzmethode, denn es sind auch Integrationen zu berechnen. Sie hat aber den Vorteil, bei allgemeinen Inhomogenitäten h immer anwendbar zu sein. (Bei nicht geschlossen integrierbaren Funktionen muß evt. approximativ mit Computerhilfe integriert werden.) 13.6a Grundlösung Sei L(y) = y (n) + . . . + a0 y = 0 die zugehörige homogene Gleichung und sei G die Lösung des AWP’s L(G) = 0, G(0) = 0, G0 (0) = 0, . . . , G(n−2) (0) = 0, G(n−1) (0) = 1. Die Lösung G(t) existiert immer für alle t ∈ R . Je nach Autor wird diese Funktion G(t) oder häufiger eine der Funktionen von zwei Variablen e s) = G(t − s) mit Definitionsbereich t ≥ s G(t, oder ( b s) = G(t − s) G(t, 0 für t ≥ s für t < s als Grundlösung oder auch als Fundamentallösung bzw. Greensche Funktion bezeichnet, daher der Name der Methode. Beispiel: L(y) = y 00 − 4y 0 + 3y = 0, P (λ) = λ2 − 4λ + 3 = (λ − 1)(λ − 3). Die Funktion G(t) = (e3t − et )/2, G0 (t) = (3e3t − et )/2 löst das AWP G(0) = 0, G0 (0) = 1. 13.6b Konstruktion einer partikulären Lösung Sei I ⊆ R ein Intervall und h : I → R stetig. Sei G wie oben, t0 ∈ I, dann ist für t ∈ I Z t yp (t) := G(t − s) h(s) ds t0 eine partikuläre Lösung: L(yp ) = h. √ √ 0 + 3y = h(t) = 4/ 2 cosh 2t = 4/ e2t + e−2t , I = R. Mit G(t − s) = Beispiel L(y) = y 00 − 4y ¡ ¢ (e3(t−s) − e(t−s) )/2 = e3t e−3s − et e−s /2 erhält man Z yp (t) = e3t t0 Z =e 3t t e3s e2t e2t0 2 ds √ − et 2s −2s e +e du √ − et 2 2 u u +1 Z Z e2t e2t0 t t0 es 2 ds √ e2s + e−2s du √ u u2 + 1 [u = e2s > 0] √ n h i o ¯e2t p − u2 + 1 ¯¯e2t ¯ =e ¯ 2t + et ln 1 + u2 + 1 − ln u ¯ 2t u u=e 0 u=e 0 n h i o p p = −et e4t + 1 + et ln 1 + e4t + 1 − 2 t + c1 (t0 ) e3t + c2 (t0 ) et 3t Da et und e3t Lösungen der homogenen Differentialgleichung sind, ist auch n p h i o n p ³ p ´o p yp = et − e4t + 1 + ln 1 + e4t + 1 − 2t ≡ et − e4t + 1 + artanh 1/ e4t + 1 eine partikuläre Lösung. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.6c 184 Beweisskizze der Lösungseigenschaft Sei L(y) = y 00 + a1 y 0 + a0 y , L(G) = 0, G(0) = 0, G0 (0) = 1. Z t G(t − s) h(s) ds yp (t) = t0 Z yp0 (t) = G(t − t) h(t) + | {z } =0 yp00 (t) = G (t − t) h(t) + | {z } =1 L(yp ) = 13.6d + G0 (t − s) h(s) ds t0 Z 0 yp00 t t G00 (t − s) h(s) ds t0 Z a1 yp0 + a0 yp = h(t) + t t0 L(G)(t − s) h(s) ds = h(t). | {z } =0 Andere Lösungsverfahren Weitere Lösungsverfahren findet man in Formelsammlungen und Lehrbüchern, z.B. mit der WronskiDeterminanten, mit der Methode der Variation der Konstanten etc. 13.7 Lineare Systeme erster Ordnung Bisher haben wir nur Differentialgleichungen für reellwertige Funktionen untersucht, nun wenden wir uns den Differentialgleichungssystemen (meist kürzer: Systemen) für vektorwertige Funktionen y(t) zu. Die Beschreibung des Zustandes eines Systems kann auf natürliche Weise vektorwertig sein (Ort und/oder Geschwindigkeit eines Körpers im Raum), sie kann auch als mathematisch zweckmäßige Umformulierung eines reellwertigen Problems auftreten, siehe 13.7a. 13.7a Übergang von Differentialgleichungen höherer Ordnung zu Systemen 1. Ordnung Diese Umformung ist für beliebige explizite nichtlineare Differentialgleichungen (oder Systeme) y (n) = f (t; y, . . . , y (n−1) ) möglich, wir erläutern sie am linearen Beispiel. Betrachte eine lineare inhomogene Differentialgleichung n-ter Ordnung L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = h(t), ⇐⇒ y (n) = −an−1 y (n−1) − . . . − a1 y 0 − a0 y + h(t), die Anfangsbedingung für das AWP lautet dann y(t0 ) = y0 , y 0 (t0 ) = y1 , . . . , y (n−1) (t0 ) = yn−1 . In diesem Abschnitt 13.7a gebrauchen wir sowohl die reellwertige Funktion y (ohne untere Indizes) als auch die vektorwertige Funktion y (handschriftlich auch ~y ) mit Komponenten y = (y1 , y2 , . . . , yn )tr nebeneinander, nicht verwechseln! Bilde nun die folgende vektorwertige Funktion y : R → Rn y(t) y1 (t) y2 (t) 0 := y (t) , y(t) ≡ . . .. .. (n−1) yn (t) y (t) RWTH Aachen y0 .. y(t0 ) = = . =: y0 . yn−1 y (n−1) (t0 ) y(t0 ) .. . Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 185 Die reellwertige Funktion y erfüllt L(y) = h(t) genau dann, wenn die vektorwertige Funktion y das folgende Differentialgleichungssystem 1. Ordnung löst: 0 0 y (t) y1 (t) y2 (t) 0 .. .. .. .. . . . y0 (t) ≡ . ≡ = + 0 (n−1) yn−1 0 (t) y (t) yn (t) yn0 (t) −an−1 yn (t) − . . . − a0 y1 (t) h(t) y (n) (t) = A y(t) + h(t) mit der folgenden quadratischen Matrix 0 1 0 ... ... 0 0 1 0 ... . . A= . 0 0 ... ... ... −a0 −a1 . . . . . . . . . A und der vektorwertigen Funktion h : ... 0 0 ... ... .. . .. . . , h(t) = 0 0 1 h(t) . . . −an−1 Der Anfangsbedingung für y entspricht für y die Bedingung y(t0 ) = y0 . Analog werden Differentialgleichungen mit zeitabhängigen Koeffizienten und nichtlineare Differentialgleichungen in Systeme erster Ordnung überführt. Ein k-dimensionales System der Ordnung n wird entsprechend zu einem k · n-dimensionalen System erster Ordnung. Wichtig: Für die Anwendung eines computergestützten Verfahrens zur (approximativen) Lösung einer Differentialgleichung höherer Ordnung muß diese oft erst mit diesem Verfahren in ein System erster Ordnung umgeschrieben werden. Umgekehrt kann man durch Differentiation der Gleichungen und Elimination von einem k-dimensionalen linearen System n-ter Ordnung auf eine reellwertige Differentialgleichung der Ordnung k · n (oder niedriger) für jede der Komponenten einzeln kommen, siehe die Entkopplungsmethode in 13.9. 13.7b Charakteristisches Polynom Zur linearen Differentialgleichung L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y = 0 ist P (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 das in 13.1b und 13.3 definierte charakteristische Polynom der Differentialgleichung. Sei A die oben eingeführte n × n-Matrix, dann bezeichnet man det (A − λ 1) als das charakteristische Polynom der Matrix A (siehe 4.2). Es gilt bis auf ein Vorzeichen die Gleichheit: P (λ) = (−1)n det (A − λ 1) = det(λ1 − A). Der Vorzeichenwechsel ist unwichtig für die Bestimmung der Nullstellen, der Eigenwerte von A. Deshalb führt der Gebrauch desselben Namens für zwei zunächst ganz unterschiedlich erscheinende Objekte nicht zu Konflikten. Wir zeigen die behauptete Gleichheit für niedrige Dimensionen. µ ¶ 0 1 n = 2, A = , −a0 −a1 µ ¶ −λ 1 det(A − λ 1) = det = λ2 + a1 λ + a0 = P (λ) = (−1)2 P (λ); −a0 −a1 − λ n = 3, −λ 1 −λ det(A − λ 1) = det 0 −a0 −a1 0 1 −a2 − λ = −λ3 − a2 λ2 − a1 λ − a0 = −P (λ) = (−1)3 P (λ). RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 186 13.8 Die Eigenvektormethode für lineare Systeme erster Ordnung mit konstanten Koeffizienten. 13.8a Homogene Systeme, Fundamentalsystem Ein homogenes System erster Ordnung hat die Form y0 (t) = A y(t), A eine reelle n × n-Matrix. P k k 2 2 Die matrixwertige Exponentialfunktion exp{t A} = ∞ k=0 t A /k! = 1 + tA + t A /2 + . . . ist für alle t ∈ R durch die absolut konvergente Potenzreihe definiert, exp{0 A} = 1 , ganz analog zur reell- und komplexwertigen, siehe 4.19a. Die zulässige gliedweise Differentiation (6.3e) ergibt (d/dt) exp{t A} = A exp{t A} . Daher wird das AWP mit der Anfangsbedingung y(0) = y0 gelöst von y(t) = exp{t A} y0 . Die Berechnung der Exponentialfunktion einer Matrix ist meist schwierig, wenn A nicht eine spezielle Gestalt hat, etwa eine Diagonalmatrix ist. Besonders einfach ist jedoch die Anwendung auf Eigenvektoren (vgl. auch 4.19b). Wenn v 6= 0 ein Eigenvektor von A zum Eigenwert λ ist: A v = λ v, dann erfüllt für jedes c ∈ R die vektorwertige Funktion y(t) = c eλ t v die Differentialgleichung: y0 (t) = c λ eλ t v = c eλ t A v = A y(t), y(·) ist also eine Lösung. Wenn A eine Basis von Eigenvektoren hat, d.h. wenn es n linear unabhängige Vektoren v1 , . . . , vn gibt mit A vi = λi vi , dann ist y(t) = c1 eλ1 t v1 + c2 eλ2 t v2 + . . . + cn eλn t vn , c1 , c2 , . . . , cn ∈ R , die allgemeine Lösung. Diese Lösungen bilden einen n-dimensionalen Vektorraum. Die Lösungen eλj t vj , j = 1, . . . , n bilden ein Fundamentalsystem, das den Lösungsraum aufspannt. Da die vi eine Basis bilden, läßt sich auch zu jedem t0 ∈ R und y0 ∈ Rn die Gleichung y(t0 ) = y0 durch geeignete Wahl der ci eindeutig erfüllen. Für lineare Differentialgleichungen ist jedes AWP eindeutig lösbar (12.10d). A hat sicher dann eine Basis von Eigenvektoren (⇐⇒ A ist diagonalisierbar, siehe ??), wenn A symmetrisch ist, oder wenn alle Eigenwerte (Nullstellen des charakteristischen Polynoms) verschieden sind. Bei Nullstellen höherer Ordnung bilden die Eigenvektoren möglicherweise keine Basis mehr, dann treten in der allgemeinen Lösung auch polynomiale Anteile und verallgemeinerte Eigenvektoren auf, vgl. 13.1d und 13.3. 13.8b Beispiele zur Eigenvektormethode µ ¶ 1 3 (i) n = 2, A = 0 2 y0 (t) = Ay(t) ⇐⇒ y10 (t) = y1 (t) + 3y2 (t) y20 (t) = 2y2 (t) komponentenweise. Eigenwerte: λ1 = 1, λ2 = 2, denn A hat (obere) Dreiecksgestalt. µ ¶ µ ¶ 1 1 Oberer Eigenwert λ1 = 1, ein oberer Eigenvektor: v1 = (oder c1 , c1 6= 0) erfüllt 0 0 A v1 = v1 = λ1 v1 . µ ¶ µ ¶ µ ¶ −1 3 w1 −w1 + 3w2 ! Eigenwert λ2 = 2: 0 = (A − 21)v2 = = ⇒ w1 = 3w2 ; 0 0 w2 0 RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 187 µ ¶ µ ¶ 3 3 , c2 6= 0) ist Eigenvektor zum Eigenwert λ2 = 2. v2 = (oder c2 1 1 µ ¶ µ ¶ µ ¶ 1 3 c1 et + 3c2 e2t 1·t 2 t Die allgemeine Lösung ist y(t) = c1 e + c2 e = , 0 1 c2 e2t oder komponentenweise: y1 (t) = c1 et + 3c2 e2t , y2 (t) = c2 e2t . Betrachte nun das AWP mit folgender Anfangsbedingung: µ ¶ µ ¶ µ ¶ µ ¶ 1 ! 1 3 c1 + 3c2 y(0) = y0 = = c1 + c2 = 1 0 1 c2 µ ¶ −2et + 3e2t also y(t) = . e2t ⇒ c2 = 1, c1 = −2, (ii) Die Differentialgleichung der gedämpften Schwingung 13.2 hat als System 1. Ordnung die Form µ ¶ 0 1 0 y = y. −b −2a Im Spezialfall a = 0, b = ω 2 haben wir in ?? die Eigenwerte ± i ω und Eigenvektoren (∓ i, ω)tr berechnet. Die allgemeine reelle Lösung ist µ ¶ µ ¶ µ ¶ c1 sin ωt − c2 cos ωt −i i −iω t iω t ce = y(t) = ce + c1 ω cos ωt + c2 ω sin ωt ω ω mit 2c = c1 − ic2 , c1 , c2 ∈ R . 13.8c Differentialgleichung für die Komponenten Wir betrachten eine n × n-Matrix A mit Eigenwerten λ1 , λ2 , . . . , λn , die nicht verschieden zu sein brauchen. Für diese Matrix ist (−1)n det(A − λ1) = (λ − λ1 )(λ − λ2 ) . . . (λ − λn ) = P (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 , und sei L(y) = y (n) + an−1 y (n−1) + . . . + a1 y 0 + a0 y der Differentialausdruck n-ter Ordnung mit diesem charakteristischen Polynom. Dann ist jede Komponente yj (t) des Systems y0 = A y eine Lösung der Differentialgleichung n-ter Ordnung L(yj (t)) = 0, j = 1, . . . , n, denn jedes yj (t) ist eine Linearkombination von Funktionen eλi t . Die Aussage L(yj (t)) = 0 bleibt auch richtig für die allgemeinen Lösungen im Falle mehrfacher Nullstellen (als Folge des Satzes ?? von Cayley-Hamilton). 13.8d Lineare inhomogene Systeme 1. Ordnung Sei y0 = A y + h(t), dann ist wiederum (wie in 12.3b und 13.4) die allgemeine Lösung der inhomogenen Gleichung die Summe aus einer beliebigen partikulären Lösung und der allgemeinen Lösung der homogenen Gleichung y0 = A y. Eine partikuläre Lösung kann durch Raten oder durch einen Ansatz für jede Komponente bestimmt werden, falls h(t) nur Polynome, trigonometrische und Exponentialfunktionen enthält. Siehe 13.5 für geeignete Ansatzfunktionen. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 188 Wenn die Eigenvektoren vj mit A vj = λj vj eine Basis bilden, dann kann auch Pn jede Inhomogenität mit Hilfe dieser Basis als Linearkombination dargestellt werden: h(t) = j=1 gj (t) vj . Damit reduziert sich das System y0 = A y + h(t) zu n reellwertigen linearen inhomogenen Differentialgleichungen erster Ordnung zj0 P (t) = λj zj (t) + gj (t), die immer gelöst werden können. Die gesuchte Lösung ist dann y(t) = nj=1 zj (t) vj . Dieses Vorgehen ist zweckmäßig, wenn ein System für eine feste Matrix A und viele verschiedene Anfangsbedingungen und/oder Inhomogenitäten gelöst werden muß. Die aufwendige Berechnung der Eigenwerte und Eigenvektoren ist dann nur einmal erforderlich. Siehe 3.8 für ähnliche Überlegungen. Wenn ein System nur für eine Inhomogenität gelöst werden muß, ist es meist einfacher, zur Differentialgleichung für einzelne Komponenten überzugehen. Zwar wissen wir, daß jede Komponente L(yj ) = Inhomogenität“ erfüllen muß, doch müssen wir auch die Inhomogenität explizit bestimmen. ” Dies geschieht z.B. mit der Entkopplungsmethode. 13.9 Entkopplungsmethode für Systeme linearer Differentialgleichungen Das Verfahren ist für inhomogene Systeme beliebiger Dimension k und Ordnung n geeignet, man erhält Differentialgleichungen für die Komponenten mit einer Ordnung ≤ k ·n, evt. mehrere inhomogene Gleichungen. Homogene Gleichungen sind als Spezialfall enthalten. Wir erläutern das Verfahren an typischen Beispielen. 13.9a Homogener Teil in Dreiecksgestalt µ ¶ µ ¶ µ ¶ µ ¶ µ ¶ 1 2 0 0 1 2 0 t y = y+ = Ay + e, A= , h(t) = . 0 6 15 et 15 0 6 15 et Bei diesem besonders einfachen Beispiel hat die Matrix A (obere) Dreiecksgestalt mit den Eigenwerten 1 und 6 auf der Diagonale. Komponentenweise geschrieben erhalten wir 0 y10 = y1 + 2y2 , y20 = 6y2 +15 et . Die Differentialgleichung für y2 ist von y1 bereits entkoppelt, wir können sie mit der Lösungsformel aus 12.3 oder einfacher mit der Ansatzmethode lösen: P (λ) = λ − 6, P (1) = −5. Sie hat die allgemeine Lösung y2 (t) = c2 e6t − 3 et , c2 ∈ R . Setzen wir diese Lösung in die Differentialgleichung für y1 ein, so erhalten wir wiederum eine entkoppelte (inhomogene) Differentialgleichung für y1 y10 = y1 + 2c2 e6t − 6 et mit der allgemeinen Lösung (Ansatzmethode, P (λ) = λ − 1, P (6) = 5, P (1) = 0, P 0 (1) = 1 ) 2 y1 (t) = c1 et + c2 e6t − 6t et . 5 Die vektoriell geschriebene Lösung lautet µ ¶ µ ¶ µ ¶ 1 2/5 6t t t 6t y(t) = c1 e + c2 e − e , c1 , c2 ∈ R . 0 1 3 Die ersten zwei Vektoren, die zur Lösung des homogenen Systems gehören, sind Eigenvektoren von A zu den Eigenwerten 1 und 6, das kann zur Rechenkontrolle dienen. Beachte, daß sogar bei einer homogenen Ausgangsgleichung für eine der Komponenten (hier für y1 ) in den Zwischenschritten inhomogene Differentialgleichungen entstehen können. Ist ein AWP zu lösen, so werden in den einzelnen Schritten die Konstanten bereits festgelegt. In diesem einfachsten Fall der Dreiecksgestalt erhält man bei Dimension k des Systems erster Ordnung genau k Differentialgleichungen 1. Ordnung ( Summe k“). ” RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 13.9b 189 Allgemeines inhomogenes System 1. Ordnung Wir betrachten das dreidimensionale System (der Parameter α wird später gewählt) 4 −1 1 t3 4 −1 1 1 0 y + 3t2 − t3 , 1 0 , y0 = −2 A = −2 −4 0 α 0 −4 0 α oder komponentenweise 1 y10 = 2 y20 = −2y1 + y2 3 y30 = −4y1 4y1 − y2 + y3 + t3 , + 3t2 − t3 , + α y3 . Differentiation einer Gleichung (hier 1 ) ergibt y100 = 4y10 − y20 + y30 + 3t2 . Die Ableitungen der in einer Differentialgleichung für y1 fremden“ Funktionen, y20 und y30 , werden ” mit den Differentialgleichungen 2 und 3 eliminiert: h i h i y100 = 4y10 − −2y1 + y2 + 3t2 − t3 + −4y1 + α y3 + 3t2 = 4y10 − 2y1 − y2 + α y3 + t3 . Mit der Differentialgleichung 1 kann −y2 durch y1 , y10 und y3 ausgedrückt werden, um damit eine Variable, nämlich y2 , aus der Differentialgleichung für y1 zu eliminieren: h i y100 = 4y10 − 2y1 + y10 − 4y1 − y3 − t3 + α y3 + t3 = 5y10 − 6y1 + (α − 1) y3 . Für den späteren Rückbezug notieren wir diese Differentialgleichung in zwei äquivalenten Formen: 4 y100 = 5y10 − 6y1 + (α − 1) y3 ⇐⇒ (α − 1) y3 = y100 − 5y10 + 6y1 . Ab jetzt behandeln wir die beiden speziellen Werte α = 1 und α = −2 getrennt weiter. Im Fall α = 1 ist die Differentialgleichung 4 zweiter Ordnung für y1 auch von y3 bereits entkoppelt: y100 − 5y10 + 6y1 = 0, mit P (λ) = λ2 − 5 λ + 6 = (λ − 2)(λ − 3) ist die allgemeine Lösung y1 (t) = c1 e2t + c2 e3t , Setzt man diese Lösung in 2 c1 , c2 ∈ R . ein, erhält man 2 y20 − y2 = −2y1 + 3t2 − t3 = −2c1 e2t − 2c2 e3t + 3t2 − t3 . Durch Ansatz und Koeffizientenvergleich bestimmt man t3 als Anteil zur partikulären Lösung, der den polynomialen Anteil der Inhomogenität liefert. Mit P (λ) = λ − 1, P (2) = 1, P (3) = 2, ist die allgemeine Lösung y2 (t) = c3 et − 2c1 e2t − c2 e3t + t3 . RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 190 Wir haben Lösungen mit drei freien Parametern gefunden. Wir brauchen nun keine Differentialgleichung mehr zu lösen, sondern nur noch einzusetzen. Die noch fehlende Komponente y3 kann aus der Differentialgleichung 1 berechnet werden: 1 y3 (t) = y10 − 4y1 + y2 − t3 h i h i h i = 2c1 e2t + 3c2 e3t − 4 c1 e2t + c2 e3t + c3 et − 2c1 e2t − c2 e3t + t3 − t3 = c3 et − 4c1 e2t − 2c2 e3t . Vektoriell geschrieben lautet die Lösung 1 1 0 0 y(t) = −2 c1 e2t + −1 c2 e3t + 1 c3 et + t3 , −4 −2 1 0 c1 , c2 , c3 ∈ R . Als Rechenkontrolle bestätigt man, daß die ersten drei Vektoren Eigenvektoren der Matrix A (mit α = 1) zu den Eigenwerten 2, 3 und 1 sind. In diesem Fall war anstelle eines dreidimensionalen Systems erster Ordnung nach Entkoppeln eine Differentialgleichung zweiter Ordnung und eine Differentialgleichung erster Ordnung zu lösen ( Summe 3“). ” Nun betrachten wir den Fall mit α = −2. Dann ist 4 noch nicht entkoppelt. Wir differenzieren noch einmal und eliminieren wieder die fremden“ Variablen: ” 000 00 0 4 =⇒ y1 = 5y1 − 6y1 − 3y3 0 h i 3 = 5y1 00 − 6y1 0 − 3 −4y1 − 2y3 = 5y1 00 − 6y1 0 + 12y1 − 2 [−3y3 ] h i 4 = 5y1 00 − 6y1 0 + 12y1 − 2 y1 00 − 5y1 0 + 6y1 = 3y1 00 + 4y1 0 . Mit P (λ) = λ3 − 3λ2 − 4λ = λ(λ + 1)(λ − 4) ergibt sich die allgemeine Lösung y1 (t) = c1 + c2 e−t + c3 e4t . Diesmal erhielten wir eine Differentialgleichung dritter Ordnung ( Summe 3“), deren allgemeine ” Lösung die nötigen drei freien Konstanten enthält. Wir können y3 aus Gleichung 4 durch Einsetzen von y1 und deren Ableitungen berechnen: 4 y3 (t) = −(1/3){y1 00 − 5y1 0 + 6y1 } = −2 c1 − 4 c2 e−t − (2/3)c3 e4t . Schließlich berechnen wir y2 aus 1 durch Einsetzen: 1 y2 (t) = 4y1 − y1 0 + y3 + t3 = 2 c1 + c2 e−t − (2/3)c3 e4t + t3 . In vektorieller Schreibweise ist die Lösung 0 1 1 1 y(t) = 2 c1 + 1 c2 e−t + −2/3 c3 e4t + t3 , 0 −2/3 −4 −2 RWTH Aachen c1 , c2 , c3 ∈ R . Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 191 Die ersten drei Vektoren, die zur Lösung des homogenen Systems gehören, sind Eigenvektoren der Matrix A (mit α = −2) zu den Eigenwerten 0, −1 und 4. Sei allgemein ein k-dimensionales System 1. Ordnung gegeben, so differenziere man eine Differentialgleichung, z.B. die erste, sodann eliminiere man die Ableitungen der fremden“ Komponenten. ” Reduziere möglichst die Zahl der fremden nicht differenzierten Funktionen, indem sie mit der ersten Differentialgleichung durch die gesuchte erste Komponente und deren Ableitungen ausgedrückt (k) werden. Wiederhole das Verfahren, spätestens die Gleichung mit y1 braucht keine anderen Komponenten von y mehr zu erhalten. 13.9c Ein System zweiter Ordnung Wir betrachten das zweidimensionale System 2. Ordnung 1 y1 00 = 2y1 0 − y2 0 + y1 + y2 + h1 (t), 2 y2 00 = y1 0 − y2 . Man kann es äquivalent umschreiben in ein vierdimensionales System 1. Ordnung (s.u.) oder in eine Differentialgleichung für eine Komponente von höchstens 4. Ordnung. Das Verfahren ist wie oben, eine Gleichung wird ausgewählt und einmal differenziert, sodann wird möglichst die fremde“ Funktion eliminiert, beginnend mit deren höchster Ableitung. ” Wir wählen als Beispiel die zweite (kürzere) Gleichung 2 und suchen eine Differentialgleichung für y2 alleine. 2 =⇒ y2 000 = y1 00 − y2 0 i 1 h = 2y1 0 − y2 0 + y1 + y2 + h1 (t) − y20 = 2y1 0 − 2y2 0 + y1 + y2 + h1 (t) i 2 h = 2 y2 00 + y2 − 2y2 0 + y1 + y2 + h1 (t) = 2y2 00 − 2y2 0 + 3y2 + y1 + h1 (t). Im ersten und dritten Schritt haben wir jeweils die Differentialgleichung benutzt, um die höchste Ableitung der fremden“ Funktion y1 durch y2 und deren Ableitungen sowie niedrigere Ableitungen ” von y1 zu ersetzen. Wir notieren diese letzte Gleichung noch einmal in der nach y1 aufgelösten Form 3 y1 = y2 000 − 2y2 00 + 2y2 0 − 3y2 − h1 (t). Da die Differentialgleichung für y2 noch nicht von y1 entkoppelt ist, differenzieren wir erneut: y2 0000 = 2y2 000 − 2y2 00 + 3y2 0 + y1 0 + h1 0 (t) h i 2 = 2y2 000 − 2y2 00 + 3y2 0 + y2 00 + y2 + h1 0 (t) = 2y2 000 − y2 00 + 3y2 0 + y2 + h1 0 (t). Also lautet die entkoppelte Differentialgleichung 4. Ordnung ( Summe 4“) ” 4 y2 0000 − 2y2 000 + y200 − 3y2 0 − y2 = L(y2 ) = h1 0 (t). Das charakteristische Polynom ist P (λ) = λ4 − 2λ3 + λ2 − 3λ − 1. Eine partikuläre Lösung ist für gegebenes h1 z.B. mit der Ansatzmethode oder der Grundlösungsmethode zu bestimmen. Aus der allgemeinen Lösung von 4 (bzw. der Lösung eines AWP) ist mit 3 die Komponente y1 zu bestimmen. RWTH Aachen Mathematik I+II 13 Lineare Differentialgleichungen und Systeme 192 Zur Kontrolle der Koeffizienten in L(y2 ) kann folgende unabhängige Rechnung zur Bestimmung des charakteristischen Polynoms dienen. Überführung in ein vierdimensionales System 1. Ordnung: 0 z1 y1 (t) y1 (t) z3 0 0 (t) z2 y2 (t) y z 4 0 2 0 z(t) = z3 = y1 0 (t), z (t) = y1 00 (t) = 2z3 − z4 + z1 + z2 + h1 , z4 y2 0 (t) y2 00 (t) z3 − z2 0 0 0 1 0 0 0 0 1 also z0 (t) = A z(t) + h(t) mit A = 1 1 2 −1. 0 −1 1 0 −λ 0 1 0 0 −λ 0 1 det(A − λ 1) = det 1 1 2 − λ −1 0 −1 1 −λ −λ 0 1 0 −λ 1 = (−λ) · det 1 2 − λ −1 + 1 · det 1 1 −1 −1 1 −λ 0 −1 −λ = +λ4 − 2 λ3 − λ − 2λ + λ2 + λ2 − 1 − λ2 = λ4 − 2λ3 + λ2 − 3λ − 1. Das charakteristische Polynom P (λ) = λ4 − 2λ3 + λ2 − 3λ − 1 hat vier verschiedene Nullstellen, zwei reelle und zwei komplexe, mit λ1 ≈ −0, 29; λ2 ≈ 2, 24; λ3,4 = κ ± iω; κ ≈ 0, 024; ω ≈ 1, 25. Da die Eigenwerte λi keine einfachen Zahlen sind, wäre ein direktes Einsetzen der Lösungen in die Differentialgleichung zur Probe nur bedingt aussagekräftig: das schnelle Anwachsen der Exponentialfunktion für positive Argumente verstärkt auch sehr kleine Rundungsfehler, wohingegen die sehr kleinen Werte der Exponentialfunktion für negative Argumente auch tatsächliche Fehler unterdrücken können. Für die konkrete Inhomogenität h1 (t) = 2 − 4t, h1 0 (t) = −4, ist y2,p (t) = 4 eine partikuläre Lösung. Die allgemeine Lösung y2 ist damit y2 (t) = c1 eλ1 t + c2 eλ2 t + c3 eκ t cos(ω t) + c4 eκ t sin(ω t) + 4, Aus 3 c1 , . . . , c4 ∈ R . erhält man für y1 y1 (t) = (λ1 3 − 2λ1 2 + 2λ1 − 3) c1 eλ1 t + (λ2 3 − 2λ2 2 + 2λ2 − 3) c2 eλ2 t | {z } | {z } ≈−3,76 ≈2,69 κt κt + {a c3 + b c4 } e cos ωt + {a c4 − b c3 } e sin ωt + 4t − 14, wobei £ ¤ a = Re (κ + iω)3 − 2(κ + iω)2 + 2(κ + iω) − 3 = κ3 − 3κω 2 − 2κ2 + 2ω 2 + 2κ − 3 ≈ 0, 039 , £ ¤ b = Im (κ + iω)3 − 2(κ + iω)2 + 2(κ + iω) − 3 = 3κ2 ω − ω 3 − 4ωκ + 2ω ≈ 0, 44 . RWTH Aachen Mathematik I+II 14 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 193 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen In diesem Kapitel behandeln wir einige weitere Typen geschlossen lösbarer Differentialgleichungen sowie Approximationsverfahren, um in den vorherrschenden Fällen – die Differentialgleichung ist nicht geschlossen lösbar – einen analytischen Ausdruck für eine Näherungslösung zu bestimmen. Alternativ kann man die zahlreichen Simulationsprogramme benutzen, die numerische Näherungslösungen berechnen und ggf. graphisch anzeigen. Auf die ausgefeilten Algorithmen, die in guten Programmen eingesetzt werden, können wir hier nicht eingehen. 14.1 Beispiel für nicht eindeutige Lösungen des AWP p Betrachte y 0 = 2 |y| , eine Differentialgleichung, die zugleich separabel, autonom und eine Bernoullische Differentialgleichung (für y ≥ 0 bzw. y ≤ 0, p = 1/2) ist. Ähnliche Phänomene können bei Bernoullischen mit 0 < p < 1 an Nullstellen von y auftreten. Das VektorpDifferentialgleichungen 2 für y 6= 0,pjedoch bei feld f (t; y) = 2 |y|, D = R , ist überall stetig sowie p stetig differenzierbar p y = 0 nicht Lipschitz-stetig: |f (t; y) − f (t; 0)| = 2 |y| = (2/ |y| ) |y − 0|. Da 2/ |y| → ∞ für |y| → 0 kann es keine Lipschitzkonstante L geben, so daß |f (t; y) − f (t; 0)| ≤ L |y − 0|. Tatsächlich geht bei y = 0 auch die Eindeutigkeit verloren: y0 (t) ≡ 0 ist eine Lösung, ( (t − τ )2 , t ≥ τ, yτ (t) = ist eine Lösung für jedes τ ∈ R , 0, t < τ, ( −(t − σ)2 , t ≤ σ, yσ (t) = ist eine Lösung für jedes σ ∈ R , sogar 0, t > σ, 2 −(t − σ) für t < σ yστ (t) = 0 für σ ≤ t ≤ τ 2 (t − τ ) für t > τ ist für jedes σ ≤ τ eine Lösung. Sei t0 ∈ R, dann sind z.B. y0 (t) ≡ 0 und alle yστ (t), σ ≤ t0 , τ ≥ t0 , Lösungen des AWP mit y(t0 ) = 0. 14.2 Substitution, Rückführung auf eine einfachere Differentialgleichung Die Differentialgleichung y y 0 = − + 2 coth(t y) t ⇐⇒ (t y 0 + y) = 2t coth(t y), t 6= 0, y 6= 0 kann durch Substitution z(t) := t y(t) mit z 0 = t y 0 + y wesentlich vereinfacht werden, hier zu der separablen Differentialgleichung z 0 (t) = 2t coth(z), t 6= 0, z 6= 0 . Die Lösungen sind jeweils auf einen Quadranten in der t, y– bzw. t, z–Ebene beschränkt. Betrachte das Anfangswertproblem t0 = −1, y(−1) = 2 (II. Quadrant), das bedeutet z(−1) = −2 (III. Quadrant). 1/h(z) = 1/ coth(z) = tanh(z) = sinh(z)/ cosh(z) hat eine Stammfunktion F (z) = ln[cosh(z)]. Mit G(t) = t2 , G(t) − G(−1) = t2 − 1 und F (z0 ) = ln[cosh(z0 )] = ln[cosh(−2)] ≈ 1, 3 ergibt sich F (z(t)) = F (z0 ) + G(t) − G(t0 ) = ln[cosh(z(t))] = F (z0 ) + t2 − 1 > 0. RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 194 cosh(z(t)) = exp[ F (z0 ) + t2 − 1 ] > 1, © ª z(t) = − arcosh exp[ F (z0 ) + t2 − 1 ] , t < 0. Die beiden Funktionen ± arcosh sind Umkehrfunktionen von cosh für positive bzw. negative Argumente, das negative Vorzeichen muß hier gewählt werden, damit z(t0 ) = z(−1) = − arcosh{exp(F (z0 ))} = −2 < 0 gilt. Die Lösung des Anfangswertproblems lautet also y(t) = 14.3 © ª −1 arcosh exp[ F (z0 ) + t2 − 1 ] , t F (z0 ) = ln[cosh(−2)], t < 0. Autonome nichtlineare Differentialgleichungen 2. Ordnung Autonome Differentialgleichungen hängen von der unabhängigen Variablen (bei uns t) nicht explizit ab, die Differentialgleichung 2. Ordnung hat die Form F (y, y 0 , y 00 ) = 0. Mit dem Ansatz y 0 (t) = p(y(t)) kann die Differentialgleichung in eine Differentialgleichung 1. Ordnung für p überführt werden: y 00 (t) = p0 (y(t)) · y 0 (t) = p0 (y(t)) · p(y(t). Um die Funktion p zu bestimmen, betrachten wir zunächst y als unabhängige Variable und nennen sie u (um Verwechslungen zu vermeiden). Mit den Ersetzungen y 0 → p = p(u), y → u, y 00 = p p0 = p(u) · p0 (u), erhalten wir eine Differentialgleichung 1. Ordnung F (u, p, p · p0 ) = 0. Wenn daraus p bestimmt worden ist, so erhält man mit y 0 = p(y) eine autonome separable Differentialgleichung 1. Ordnung für y. Anstelle einer Differentialgleichung 2. Ordnung sind zwei Differentialgleichungen 1. Ordnung zu lösen, was i.a. einfacher ist. Bei autonomen Differentialgleichungen n-ter Ordnung führt derselbe Ansatz auf eine autonome Differentialgleichung ( n − 1)-ter Ordnung u.s.w., siehe Formelsammlung. Beispiel ( y 00 = 2 (1 + y) y 0 (unabh. von t ! ) AWP 0 y(0) = 1, y (0) = 4. [ Ein einfaches Beispiel zur Demonstration der Methode, es wäre auch anders leicht zu lösen. wie ? ] 1) Bestimme die Differentialgleichung 1. Ordnung für p(u): y → u, y 0 → p, y 00 → p p0 führt auf p p0 = 2 (1+u) p. p ≡ 0 löst diese Differentialgleichung, aber nicht das AWP, denn p = y 0 , y 0 (0) = 4. Betrachte daher p 6= 0. Division der Differentialgleichung durch p ergibt p0 = 2(1 + u) mit der allgemeinen Lösung p(u) = const + 2u + u2 . 2) Die Anfangsbedingungen für y: y(0) = 1, y 0 (0) = 4 = p(y(0)) = p(1) ergeben also als Anfangsbedingung für p: p(1) = 4, was auf die eindeutige Lösung p(u) = 1 + 2u + u2 = (1 + u)2 führt. 3) Die Rückübersetzung p → y 0 , u → y ergibt y 0 = (y + 1)2 als neue separable Differentialgleichung 1. Ordnung für y. 4) Mit der Trennung der Variablen lösen wir: Z Z dy 1 = 1 dt ⇐⇒ − = t + c, c ∈ R 2 (y + 1) y+1 ⇐⇒ y(t) + 1 = RWTH Aachen −1 , t 6= −c. t+c Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 195 Die Anfangsbedingung y(0) = 1 führt auf c = − 21 , also ist die gesuchte Lösung des Anfangswertproblems y(t) = 14.4 −1 1 + 2t −1= , t − 1/2 1 − 2t t< 1 . 2 Potenzreihenansatz, Legendresche Differentialgleichung Als erstes Beispiel eines Näherungsverfahrens zur Bestimmung einer approximativen Lösungsformel geben wir ein Verfahren an, bei dem wir eine Potenzreihe für die gesuchte Lösung bestimmen. 14.4a Der Ansatz Die meisten Differentialgleichungen lassen sich nicht durch bekannte Funktionen geschlossen lösen, oder es gibt keine allgemeinen Verfahren, um die vielleicht durch bekannte Funktionen ausdrückbaren Lösungen zu finden. Eine Näherungslösung, die i.a. gut ist für kurze Zeiten“, d.h. bei einer ” Anfangszeit t0 für kleine t − t0 , wird durch den Potenzreihenansatz bestimmt. Für t0 = 0 lautet dieser: y(t) = y0 + y1 t + y2 t2 + . . . + yk tk y 0 (t) = + ... y1 + 2 y2 t + . . . + k yk tk−1 + . . . Für t0 6= 0 ersetze t durch (t − t0 ). Einsetzen in die Differentialgleichung und Ordnen nach Potenzen von t erlaubt einen Koeffizientenvergleich, um y0 , y1 , y2 , . . . iterativ zu berechnen. Wir erläutern das Vorgehen am Beispiel der Exponentialfunktion (wo wir die Näherung mit der bekannten exakten Lösung vergleichen können) sowie an der Legendreschen Differentialgleichung (14.4c), deren Lösungen keine elementaren Funktionen sind. Meist begnügt man sich anstelle der Potenzreihe mit den ersten Summanden, mit einem Polynom y(t) = y0 + y1 t + y2 t2 + . . . + yr tr als Näherungslösung, für die man mitunter sogar Fehlerabschätzungen angeben kann. Dank Symmetrien treten oft überhaupt nur Koeffizienten mit geraden oder ungeraden Indizes auf. 14.4b Zur Exponentialfunktion Das Anfangswertproblem y 0 = y, y(0) = y0 = 1 hat bekanntlich die Exponentialfunktion als eindeutige Lösung, wie wir schon in Abschnitt ?? zeigten. Wir behandeln diese Aufgabe nochmals, jetzt mit dem Potenzreihenansatz, um die Methode zunächst an einem besonders einfachen Beispiel zu erläutern. y(t) = y0 + y1 t + y2 t2 + . . . + (k − 1) yk−1 tk−1 + yk tk y 0 (t) = + ... + k yk tk−1 + . . . y1 + 2 y2 t + . . . Gleichsetzen der Koeffizienten vor jeweils derselben Potenz von t ergibt y1 = y0 , 2y2 = y1 , . . . , kyk = yk−1 , . . . Diese Rekursion wird gelöst von y1 = 1 1 1 y0 , y2 = y1 = y0 , 1 2 2·1 ... yk = 1 1 1 yk−1 = y0 = y0 . k k · (k − 1) · . . . · 2 · 1 k! Wir haben aus y 0 = y für die Lösung die Reihe für die Exponentialfunktion P∞der Differentialgleichung y(t) = y0 k=0 tk /k! hergeleitet, von der wir wissen, daß sie für alle t ∈ R (und auch t ∈ C ) RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 196 absolut konvergent ist, siehe 10.4. Der Anfangswert y0 kann beliebig reell oder komplex gewählt werden, die spezielle Wahl y0 = 1 legt y(t) = et eindeutig fest. In Abschnitt 10.4 hatten wir die Exponentialfunktion durch ihre Reihendarstellung definiert. Wir haben jetzt gezeigt, daß man die relle Exponentialfunktion ebenso definieren kann als die eindeutige stetig differenzierbare Funktion, die das AWP y 0 = y, y(0) = 1 erfüllt. Analog erhält man die Potenzreihen der trigonometrischen und hyperbolischen Funktionen als Lösungen der Anfangswertprobleme y 00 = ±y, mit y(0) = 1, y 0 (0) = 0 oder mit y(0) = 0, y 0 (0) = 1. 14.4c Legendresche Differentialgleichung (Spezialfälle) Die Legendresche Differentialgleichung lautet L(y) = (1 + t2 ) y 00 − 2t y 0 + α(α + 1) y = 0, |t| < 1 mit der Anfangsbedingung y(0) = y0 , y 0 (0) = y1 . Spezielle Werte des Parameters α ∈ R werden später gewählt. Wir setzen die Lösung als Potenzreihe um t0 = 0 an. y(t) = ∞ X yj tj , y 0 (t) = j=0 ∞ X j yj tj−1 , y 00 (t) = j=0 (1 − t2 )y 00 (t) = = ∞ X j=2 ∞ X ∞ X j(j − 1) yj tj−2 , j=2 j(j − 1) yj (tj−2 − tj ) h i (k + 2)(k + 1) yk+2 − k(k − 1) yk tk , k=0 −2t y 0 (t) = ∞ X −2k yk tk , k=0 α (α + 1) y (t) = ∞ X α (α + 1) yk tk . k=0 ∞ n o X ! L(y) = (k + 2)(k + 1) yk+2 −k(k − 1) yk − 2k yk +α (α + 1) yk tk = 0. | {z } k=0 = −k(k + 1) yk Der Koeffizientenvergleich {. . .} = 0 ergibt die folgende Rekursion: yk+2 = ³ ´ 1 k(k + 1) − α(α + 1) yk , (k + 1)(k + 2) k ∈ N0 . Beobachtungen: Die Rekursion verbindet die Koeffizienten der Potenzreihe in Zweierschritten: y0 → y2 → y4 → . . . und y1 → y3 → y5 → . . . , insbesondere gilt: yj = 0 =⇒ yj+2` = 0 für alle ` ∈ N . Die spezielle Wahl der Anfangsbedingung y(0) = y0 6= 0, y 0 (0) = y1 = 0 =⇒ y2`+1 = 0 für alle ` ∈ N , und die Parameterwahl α = 2j, j ∈ N , als positive gerade Zahl führt auf y2j+2 = RWTH Aachen ³ ´ 1 (2j)(2j + 1) − (2j)(2j + 1) y2j = 0, (j + 1)(j + 2) Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 197 Also sind die Lösungen der Legendreschen Differentialgleichung mit positiv geradzahligem Parameter α = 2j und Anfangsbedingung y(0) 6= 0, y 0 (0) = 0 gerade Polynome vom Grad 2j. Entsprechend sind die Lösungen bei α = 2j + 1, y(0) = 0, y 0 (0) 6= 0 ungerade Polynome vom Grad 2j +1. Diese Legendre Polynome“ P` treten oft bei der Winkelabhängigkeit rotationssymmetrischer ” 3-dimensionaler Probleme auf: P` (cos ϑ), ` ∈ N , ϑ der Polarwinkel in Kugelkoordinaten. Bei α ∈ N und einigen rationalen α sowie bei anderen Anfangsbedingungen erhält man Potenzreihen mit Konvergenzradius 1 (siehe 10.8a). 14.5 Integralgleichung zum Anfangswertproblem, die Picard-Iteration Die meisten in den Anwendungen auftretenden realistischen Differentialgleichungen sind nicht geschlossen lösbar. Sie können oft durch geschlossen lösbare Differentialgleichungen approximiert werden, deshalb ist es wichtig, diese Typen von Differentialgleichungen zu erkennen und Methoden zu ihrer Lösung zu beherrschen. In einem nächsten Schritt behandelt man die Abweichung des vollen Problems von dem vereinfachten als kleine“ Störung, die sodann approximativ behandelt wird. Als ” ein solches Verfahren haben wir in 14.4 den Potenzreihenansatz behandelt. Im Einzelfall kann es sehr schwierig sein, die Konvergenz der Reihe sicherzustellen. Rechnerisch etwas aufwendiger ist die Picard-Iteration (14.5b), sie hat jedoch den Vorteil, daß die Konvergenz sichergestellt ist und eine Fehlerschranke angegeben werden kann. Beide Verfahren liefern i.A. nur für kurze Zeiten gute Resultate. Die Theorie der Dynamischen Systeme stellt Methoden zur Analyse des Langzeitverhaltens der mathematisch modellierten Systeme bereit, sie wird im Rahmen dieser Vorlesung nicht behandelt. 14.5a Die äquivalente Integralgleichung zum Anfangswertproblem Wir erläutern das Verfahren der Picard-Iteration für eine Differentialgleichung 1. Ordnung für eine reellwertige Funktion y, es überträgt sich fast wörtlich auf Systeme 1. Ordnung und damit (nach 13.7a) auf beliebige gewöhnliche Differentialgleichungen. Betrachte das Anfangswertproblem y 0 = f (t; y), y(t0 ) = y0 für ein stetiges Vektorfeld f . Dieses AWP ist äquivalent zu folgender Integralgleichung für die gesuchte stetig differenzierbare Funktion y, die nach dem Hauptsatz der Differential- und IntegralrechRt nung y(t) = y0 + t0 y 0 (s) ds erfüllt: Z y(t) = y0 + t f (s; y(s)) ds. t0 Jede stetige Lösung y der Integralgleichung ist automatisch differenzierbar und erfüllt die Differentialgleichung und die Anfangsbedingung. Andererseits liefert mit dem Hauptsatz eine Integration der Differentialgleichung die Integralgleichung mit Festlegung der Integrationskonstanten durch die Anfangsbedingung. Der Vorteil der Integralgleichung gegenüber der Differentialgleichung liegt darin, daß die Integration unempfindlicher gegenüber Störungen ist als die Differentiation. Die Integralgleichung eignet sich daher besser für Iterationsverfahren zur Approximation einer Lösung. 14.5b Die Picard-Iteration Da in diesem Abschnitt zur Vereinfachung der Schreibweise nur reellwertige Funktionen y auftreten und keine Vektorkomponenten, werden wir ab jetzt untere Indizes an y benutzen, um auf einfache RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 198 Weise die Elemente einer Folge von Funktionen zu bezeichnen. Mit Hilfe der Integralgleichung definieren wir eine Funktionenfolge yk , die gegen die gesuchte Funktion konvergiert. Sei Z t y0 (t) ≡ y0 , y1 (t) = y0 + f (s; y0 (s)) ds , . . . t0 Z yk+1 (t) = y0 + t t0 f (s; yk (s)) ds , . . . In jedem Schritt wird die neue Funktion aus der zuvor schon bestimmten berechnet. Es brauchen keine Integralgleichungen gelöst zu werden, sondern es müssen nur Integrale berechnet werden, notfalls numerisch mit Computerhilfe. Wenn die Funktionenfolge gegen eine stetige Funktion y konvergiert, dann kann man auf beiden Seiten der Iterationsgleichung den Grenzwert k → ∞ ausführen. Das zeigt, daß die Grenzfunktion y die Integralgleichung löst. Bevor wir die Konvergenz überprüfen illustrieren wir mit zwei einfachen Beispielen, in denen wir die Lösung kennen, wie diese approximiert wird. Alle Approximationen erfüllen yk (t0 ) = y0 exakt. 14.5c Beispiele zur Picard-Iteration (i) y 0 = f (y) = y, y(0) = 1. Das Vektorfeld ist Lipschitz-stetig mit L = 1 für alle y: |f (y1 ) − f (y2 )| = |y1 − y2 |. Die bekannte Lösung ist y(t) = et = ∞ X t2 t3 tk = 1 + t + + + ... k! 2 6 k=0 Z y0 (t) ≡ 1, y1 (t) = 1 + Z y2 (t) = 1 + t 1 ds = 1 + t, 0 t y1 (s)ds = 1 + 0 Z t (1 + s)ds = 1 + t + 0 ¶ Z tµ s2 t2 t3 y3 (t) = 1 + 1+s+ ds = 1 + t + + , 2 2 6 0 yn (t) = n X tk k=0 k! t2 , 2 . Wir wissen in diesem Fall, daß für jedes t ∈ R die Funktionenfolge yn (t) → et konvergiert, die in diesem Fall entstandene Potenzreihe hat unendlichen Konvergenzradius. (ii) y 0 = f (y) = y 2 , y(0) = 1. Durch Separation der Variablen sieht man leicht, daß y(t) = 1/(1 − t) für alle t < 1 die eindeutige Lösung des AWP ist, siehe auch die Bemerkung in 12.9b. Die Lösung kann auch als geometrische RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen Reihe y(t) = P∞ k=0 t y0 (t) ≡ 1, 199 k dargestellt werden, diese konvergiert jedoch nur für |t| < 1. Z t y1 (t) = 1 + 12 ds = 1 + t, 0 Z y2 (t) = 1 + 0 t Z [y1 (s)]2 ds = 1 + t (1 + s)2 ds = 1 + t + t2 + t3 /3 , 0 ¶2 Z tµ s3 2 y3 (t) = 1 + 1+s+s + ds 3 0 ¶ Z tµ 8 3 5 4 2 5 1 6 2 ds =1+ 1 + 2s + 3s + s + s + s + s 3 3 3 9 0 2 1 1 1 = 1 + t + t2 + t3 + t4 + t5 + t6 + 3 t7 , 3 3 9 6 u.s.w. Die Zahl der Potenzen tk mit dem richtigen Koeffizienten 1 wächst immer weiter an. Im Grenzfall erhalten wir die geometrische Reihe. Dieses Verfahren, das auch eine Fehlerabschätzung für den maximalen Abstand zwischen der Approximation yk und der (unbekannten, exakten) Lösung y liefert (siehe 14.5d(iv)), ist natürlich von besonderem Interesse für nicht explizit lösbare Differentialgleichungen. Bei einem komplizierten Vektorfeld f treten dabei möglicherweise schwierige oder nicht geschlossen lösbare Integrale auf. 14.5d Konvergenz des Verfahrens Sei f : D → R stetig und in y Lipschitz-stetig (12.9a). (i) Abschätzungen für das Vektorfeld Zu einem inneren Punkt des Definitionsbereichs von f wähle (hinreichend kleine) T > 0, R > 0, so daß alle (t, y) im abgeschlossenen (kompakten) Rechteck in der t, y-Ebene um den Punkt (t0 , y0 ) mit |t − t0 | ≤ T und |y − y0 | ≤ R im Definitionsbereich von f liegen und daher eine Schranke C und eine Lipschitzkonstante L so gefunden werden können, daß dort auch |f (t; y)| ≤ C und |f (t; y1 ) − f (t; y2 )| ≤ L |y1 − y2 | gilt. (Die Existenz einer endlichen Schranke C folgt auf dem kompakten Rechteck automatisch aus der Stetigkeit von f , die Existenz von L ist gerade die vorausgesetzte stärkere Lipschitz-Stetigkeit.) Setze τ := min {T, R/C, 1/(2L)}. Wir werden zeigen, daß mindestens für alle t in dem Intervall t ∈ [t0 − τ, t0 + τ ] eine Lösung der Differentialgleichung existiert. Wir betrachten t ≥ t0 , für die Vergangenheit ist alles analog. (ii) Schranke für die Lösungen Wenn |yk (t) − y0 | ≤ R für alle t ∈ [t0 , t0 + τ ], dann gilt dasselbe auch für yk+1 , denn Z t Z t0 +τ |yk+1 (t) − y0 | ≤ |f (s; yk (s))| ds ≤ C ds = C τ ≤ R. t0 t0 Also bleibt auch die nächste Iterierte im betrachteten Rechteck: |yk+1 (t) − y0 | ≤ R für alle t ∈ [ t0 , t0 + τ ]. (iii) Konvergenz der Folge max t∈[t0 , t0 +τ ] Z |yk+1 (t) − yk (t)| = t∈[t0 , t0 +τ ] Z t0 |f (s; yk (s)) − f (s; yk−1 (s))| ds t0 +τ ≤ | . . . | ds ≤ τ · L t0 RWTH Aachen t max max s∈[t0 , t0 +τ ] |yk (s) − yk−1 (s)|. Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 200 Oben ist τ so gewählt worden, daß τ · L ≤ 1/2. Iteration liefert für alle t ∈ [t0 , t0 + τ ] |yk+1 (t) − yk (t)| ≤ ≤ 1 2 1 2k max t∈[t0 , t0 +τ ] |yk (t) − yk−1 (t)| ≤ . . . max t∈[t0 , t0 +τ ] |y1 (t) − y0 (t)| ≤ Cτ , 2k wobei Z max t∈[t0 , t0 +τ ] |y1 (t) − y0 (t)| ≤ t0 +τ |f (s; y0 )| ds ≤ C τ t0 benutzt wurde. Damit erhalten wir für alle t ∈ [t0 , t0 + τ ], daß y(t) = lim yk+1 (t) = lim k→∞ k X k→∞ (yj+1 (t) − yj (t)) + y0 j=0 eine absolut konvergente Reihe ist: ∞ X j=0 ∞ X Cτ |yj+1 (t) − yj (t)| ≤ ≤ 2 C τ. 2j j=0 Mann kann zeigen, daß die Grenzfunktionen y ebenso wie jede der Approximationen yk eine stetige Funktion ist, also insbesondere eine Lösung der Integralgleichung und damit des AWP. (iv) Fehlerschranke Außer der Konvergenz der approximierenden Folgen yk (t) → y(t) liefert die Abschätzung zugleich eine Fehlerschranke im Intervall |t − t0 | ≤ τ ¯ ¯ ¯∞ ¯ ∞ X ¯ ¯ X ¯ |y(t) − yk (t)| = ¯ (yj+1 (t) − yj (t))¯¯ ≤ |yj+1 (t) − yj (t)| ¯ j=k ¯ j=k ≤ ∞ X Cτ Cτ = k−1 . j 2 2 j=k Zu gegebener Fehlertoleranz ε > 0 kann man ein k0 bestimmen, so daß C τ /2k0 −1 ≤ ε, dann weicht die Approximation yk0 (t) weniger als die Fehlertoleranz von der (unbekannten) exakten Lösung ab. 14.6 Der lokale Existenz und Eindeutigkeitssatz, Stabilität der Lösungen 14.6a Existenz und Eindeutigkeit Im Abschnitt 12.9d haben wir ohne Beweis den grundlegenden Existenz- und Eindeutigkeitssatz für lokale Lösungen von Differentialgleichungen mit Lipschitz-stetigen Vektorfeldern angegeben: Sei f : D → R stetig und für ein Paar (t0 , y0 ) ∈ D gebe es T > 0, R > 0, so daß für alle t, y mit |t0 − t| ≤ T, |y − y0 | ≤ R gilt: (t, y) ∈ D (d.h. (t0 , y0 ) ist ein innerer Punkt von D) und außerdem gebe es eine Lipschitz-Konstante L, so daß für diese (t, y) gilt: |f (t; y1 ) − f (t; y2 )| ≤ L |y1 − y2 |. Dann gibt es ein τ > 0, so daß das AWP y 0 = f (t; y), y(t0 ) = y0 eine eindeutige Lösung für alle t mit |t − t0 | ≤ τ hat. RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 201 Die Existenz einer Lösung y wurde gerade durch Konvergenz des Picard-Lindelöf-Iterationsverfahrens gegen eine Lösung in 14.5d gezeigt. Dabei wurde auch eine Mindestgröße von τ angegeben, die nur von den Eigenschaften von f und vom Anfangswert (t0 , y0 ) abhängt. Zur Eindeutigkeit: Wenn y und ỹ beide Lösungen der äquivalenten Integralgleichung (14.5a) sind, dann folgt mit der LipschitzStetigkeit und τ L ≤ 1/2 ¯Z t ³ ´ ¯¯ ¯ ¯ max |y(t) − ỹ(t)| ≤ max ¯ f (s; y(s)) − f (s; ỹ(s)) ds¯¯ |t−t0 |≤τ |t−t0 |≤τ t0 | {z } =:a≥0 ¯ ¯ ¯ ¯ ≤ τ max ¯f (s; y(s)) − f (s; ỹ(s))¯ |s−t0 |≤τ ≤ τ L max |s−t0 |≤τ |y(s) − ỹ(s)| ≤ 1 2 max |s−t0 |≤τ |y(s) − ỹ(s)| = a . 2 Das kann nur für y(t) ≡ ỹ(t) erfüllt sein, denn aus a ≤ a/2 ≥ 0 folgt a = 0. Also gilt auch die Eindeutigkeit der Lösung. 14.6b Stabilität, stetige Abhängigkeit von den Daten Bei realistischen Anwendungen ist weder die Differentialgleichung (das Vektorfeld f ) noch die Anfangsbedingung y0 exakt bekannt. Zur Bewertung eines Modells ist es wichtig, den Einfluß von Ungenauigkeiten auf die Lösung zu kennen. Die Schwingungen einer Brücke müssen auch dann unter Kontrolle bleiben, wenn die Materialeigenschaften der Baustoffe vom Idealwert abweichen, aber innerhalb der mit dem Lieferanten vereinbarten Toleranz bleiben. Ein typischer Satz ist das folgende Stabilitätsresultat, das auch als stetige Abhängigkeit von den Daten“ bezeichnet wird: ” Sei f : D → R stetig differenzierbar und sei y(t) für |t − t0 | ≤ τ eine Lösung des AWP y 0 = f (t; y), y(t0 ) = y0 . Wir vergleichen diese (ideale) Lösung mit der Lösung eines benachbarten“ AWP ” 0 ˜ ỹ = f (t; ỹ), ỹ(t0 ) = ỹ0 . Zu jeder Fehlertoleranz ε > 0 gibt es eine Genauigkeit δ > 0 derart, daß die Lösung ỹ(t) für |t − t0 | ≤ τ die Qualitätsgarantie“ |y(t) − ỹ(t)| ≤ ε erfüllt, sofern nur |y0 − ỹ0 | ≤ δ und im ” betrachteten Bereich |f (t; y) − f˜(t, y)| + |∂y f (t; y) − ∂y f˜(t, y)| ≤ δ gilt. Es gibt zahlreiche Verfeinerungen dieses Satzes, insbesondere quantitative Abschätzungen, die es erlauben, die erforderliche Genauigkeit δ für eine gegebene Fehlertoleranz ε zu berechnen. 14.7 Bemerkungen zu numerischen Verfahren In Softwarepaketen für Differentialgleichungen und in allgemeinen Computeralgebrasystemen sind Algorithmen zur approximativen numerischen Lösung eines AWP implementiert, z.B. das KungeKutta-Verfahren und Verfeinerungen davon. Diese Programme und die oft damit verbundenen Visualisierungsmöglichkeiten sind außerordentlich hilfreich, um rasch einen Überblick über die zu erwartenden Lösungen zu gewinnen. Auch lassen sich damit oft diejenigen Parameter in der Modellbildung identifizieren, von denen die Lösungen empfindlich abhängen. Insbesondere die Verfahren mit Schrittweitensteuerung liefern oft sehr präzise Resultate. Zur Warnung sei jedoch darauf hingewiesen, daß man leicht Differentialgleichungen und/oder Anfangsbedingungen finden kann, für die ein gegebener Algorithmus quantitativ oder sogar qualitativ grob falsche Ergebnisse berechnet. Ein blindes Vertrauen in numerische Resultate ohne eine analytische Absicherung ist sehr riskant! Alle in dieser Vorlesungen angesprochenen Näherungsverfahren zur Lösung von Differentialgleichungen machen keine verläßliche Aussage über das Langzeitverhalten der Lösungen. Die Theorie RWTH Aachen Mathematik I+II 14 Nichtlineare Gewöhnliche Differentialgleichungen und approximative Lösungen 202 der dynamischen Systeme hat viele chaotische Systeme“ untersucht, bei denen die Entwicklung der ” Lösungen für lange Zeiten sehr empfindlich von den Daten abhängt (sprichwörtlicher Schmetter” lingseffekt“). Das ist vollauf verträglich mit der in 14.6b angegebenen Stabilität: für lange Zeiten wird δ(ε) so klein, daß die Genauigkeit praktisch nicht mehr erreichbar ist. RWTH Aachen Mathematik I+II Sachverzeichnis Abbildung, 13, 36, 70, siehe auch Funktion, lineare Abbildung abgeschlossene Menge, 73, 147 abgeschlossenes Intervall, 73 Ableitung, 87 hohere, 88 Linearitat, 88 partielle, 175 Ableitungsregel, 87–88, 111 Abschatzung, 113–114 bei Folgen, 139, 141 bei Integralen, 121 des Arkustangens, 113 des Sinus, 8, 113 des Tangens, 8, 113 durch die Ableitung, 113 fur einige Funktionen, 113 absolut konvergent, 148, 151, 154 absolutes Extremum, siehe Extremum, globales Abstand, 18, 25–27, 75 Abszisse, 8, 71 Addition in Korpern, 80 komplexer Zahlen, 77 reeller Zahlen, 70 von Folgengliedern, 140 von Funktionen, 88 von Matrizen, 31 von Reihen, 154 von Vektoren, 16 Additionstheorem, 8, 100, 102 Additivitat des Integrals, 121 Adjunkte, 40 affiner Teilraum, 23, 26, 44, 169, 181 allgemeine Losung, siehe Losungsmenge alternierende Reihe, 156 analytische Funktion, 159 Anfang einer Folge oder Reihe, 141, 153 Anfangswertproblem (AWP), 166, 170, 175 Ansatzmethode, 182 antisymmetrisch, siehe auch ungerade Funktion antisymmetrische Matrix, 32 Approximation, 158 lineare, 1, 88, 162 polynomiale, 87, 161–163 quadratische, 1, 66, 88, 93, 162 des Kosinus, 7 von Integralen, 118, 132, 135, 164 aquivalent, 13 Areafunktionen, 109–111 Ableitung, 113 Arkusfunktionen, 20, 106–109 Ableitung, 112 Assoziativgesetz, 16, 34, 70, 80 asymptotische Polynome, 89, 94 aufspannen, 23 Ausnahmepunkt, 95, 127 Aussage, 12 autonome Differentialgleichung, 174, 194 Axiome der Ordnung von R, 71 der Vollstandigkeit, 147 von Korpern, 80 Basis, 17, 22 von Eigenvektoren, 51, 67 Basiswechsel, 17, 53, 57, 61, 67 Bernoullische Differentialgleichung, 170 Bernoullische Ungleichung, 76 beschrankt, 141, 144 Betrag einer komplexen Zahl, 78 einer reellen Zahl, 75–76 eines Vektors, 18 Binomialkoeffizient, 83 binomischer Lehrsatz, 84 Bogenmas eines Winkels, 5, 98 C, 77 Cauchy-Schwarzsche Ungleichung, 19 charakteristisches Polynom, 50, 85, 87, 178, 185 Cramersche Regel, 46 De l’Hospital, Satz, Regel von, 115 De Moivresche Formeln, 99 definite Matrix, 55, 60, 63 Definitionsbereich, 70, 89, 94, 106 Definitionsbereich einer Differentialgleichung, 172 Determinante, 39 ff gleich oder ungleich Null, 41, 44, 50 Dezimalbruch, 149 Diagonalisierung einer Matrix, 53–55, 57, 61, 67–68 Diagonalmatrix, 31 Differentialgleichung, 165–202 203 Sachverzeichnis f 0 == f , 195 Ansatzmethode, 182 autonome, 174, 194 Bernoullische, 170 Eigenvektormethode, 186 Entkopplung, 188 Existenz von Losungen, 176, 200 Grundlosungsmethode, 183 inhomogene lineare, 168–170, 181–184, 187–192 lineare, 166–170, 184–192 Potenzreihe, 195 separable, 173 Substitution, 193 differenzierbar, 85, 87, 107 Dimension, 17, 22, 37 ff Distributivgesetz, 16, 18, 21, 34, 70, 80 divergent, 135, 138, 148 Folge, 144 Reihe, 154 Division, 80 komplexer Zahlen, 79 reeller Zahlen, 70 von Folgengliedern, 140 von Funktionen, 88 Drehung, 53 Dreiecksmatrix, 41, 51 Dreiecksungleichung, 20, 75, 79, 150 Ebene, 26–27, 65 Eigenvektor, 49, 186 Eigenwert, 49 eindeutig, 17, 43, 44, 67, 70, 85, 105, 120, 140, 159 Einheitsmatrix, 31 Einheitsvektor, 19, siehe auch normierter Vektor elementare Matrix, 31 Spaltenoperation, 37, 41 Zeilenoperation, 11, 37, 41 Ellipse, 8, 59, 74 Ellipsoid, 63 elliptisch, siehe Paraboloid, Zylinder Entkopplung von Differentialgleichungen, 188 erweiterte Koeffizientenmatrix, 10, 43 Eulersche Formel, 98 Eulerzahl, 145, 149 Eulerzahl e, 97 Existenzsatze fur Losungen einer Differentialgleichung, 176, 200 Exponentialfunktion, 1–2, 96–97, 153, 195 RWTH Aachen 204 Differentialgleichung, 96, 195 einer Matrix, 186 Funktionalgleichung, 96 Potenzreihe, 96, 153, 195 Extremum globales, absolutes, 93 lokales, relatives, 92 hinreichende Bedingung, 93, 105 notwendige Bedingung, 93 Faktorzerlegung eines Polynoms komplex, 86 reell, 86 Fakultat, 82 Fixpunktgleichung, 146 Flache zweiter Ordnung, 61, 63 ff Flacheninhalt, 118–120 Folge, 137 Formel De Moivresche, 99 Taylorsche, 162 Fundamentalsatz der Algebra, 85 Fundamentalsatz uber beschrankte monotone Folgen, 144, 147 Funktion, 13, 70 Area-, siehe Areafunktionen Arkus-, siehe Arkusfunktionen Exponential-, siehe Exponentialfunktion ganz rationale, siehe Polynom gerade, siehe gerade Funktion Heaviside-, 133 hyperbolische, siehe Hyperbelfunktionen inverse, siehe Umkehrfunktion Logarithmus-, siehe Logarithmus rationale, siehe rationale Funktion stuckweise stetige, 132 symmetrische, siehe gerade trigonometrische, siehe trigonometrische Funktionen Umkehr-, siehe Umkehrfunktion ungerade, siehe ungerade Funktion ganz rationale Funktion, siehe Polynom Gaus-Gestalt, 10–11, 37 Gaussche Glockenfunktion, 2, 159 Zahlenebene, 77 Gausscher Algorithmus, 11–12, 42, 46 gedampfte Schwingung, 101, 180 geometrische Reihe, 150, 156 Gerade, 23–26, 59–60 Mathematik I+II Sachverzeichnis gerade Funktion, 71, 94, 98, 127–128, 163 Gleichungssystem, lineares, 9–12, 42–47 globales Extremum, siehe Extremum, globales Glockenfunktion, 2, 159 Graph einer Funktion, 71, 127 Grenzwert, 138, 140, 146, 148 Grenzwertsatz, 114–115, 140 Grundlosungsmethode, 183 harmonische Reihe, 154 Hauptachsentransformation, 53–55, 57, 61, 67–68 Hauptsatz der Differential- und Integralrechnung, 121–122 Heavisidefunktion, 133 Heron, 143, 146 Hessesche Normalform, 24, 27 Hilfen fur N (ε), 139 Potenzreihen, 159 homogenes Gleichungssystem, 10, 43, 50 Hospital, Satz von de l’, 115 Hulle, siehe lineare Hulle Hyperbel, 8, 59 Hyperbelfunktionen, 102–103, 109–111 hyperbolisch, siehe Paraboloid, Zylinder; Hyperbelfunktionen Hyperboloid, 64 Hyperebene, 29, 42 imaginare Einheit, 77 Imaginarteil, 77 indefinite Matrix, 55, 60, 64 f Induktion, siehe vollstandige Induktion inhomogene lineare Differentialgleichung, 168– 170, 181–184, 187–192 inhomogenes Gleichungssystem, 10, 43 inneres Produkt, siehe Skalarprodukt Integral, 118–123 bestimmtes, 119 Eigenschaften, 121 stuckweise stetiger Funktionen, 133 unbestimmtes, 123 uneigentliches, 133–135 Integralgleichung, 197 Integralkriterium, 155 Integration, 123–132 approximative, 118, 132, 135, 164 durch Substitution, 124, 128–132 partielle, 125 RWTH Aachen 205 rationaler Funktionen in trigonometrischen, 131 von Partialbruchen, 124–126 Integrationskonstante, 123 Intervall, 73 inverse Funktion,Abbildung, siehe Umkehrfunktion Matrix, 44 invertierbare Matrix, siehe regulare irreduzibel, 86, 89–92, 125 kanonische Basis, 22 Kegel (Doppel-), 64 Kegelschnitt, 8, 59–60 Kehrwert, 80, 88, 106, 144 Kettenregel, 88 Knick im Graphen, 88 Koeffizientenmatrix, 9, 43 Koeffizientenvergleich Polynome, 85, 92 Potenzreihen, 159 Kofaktor, 40 Kommutativgesetz, 80 komplexe Wurzeln, 99 komplexe Zahl, 77 Komposition linearer Abbildungen, 36 von Funktionen, 88 konjugiert komplexe Zahl, 78 konvergent, 133–134, 138, 148 Konvergenzradius, 156, 158–160 Koordinatentransformation, siehe Basiswechsel Korperaxiome, 80 Kosekans, 8 Kosinus, siehe trigonometrische Funktionen hyperbolicus, siehe Hyperbelfunktionen Kotangens, siehe trigonometrische Funktionen hyperbolicus, siehe Hyperbelfunktionen kritischer Punkt, 93 Kugel(oberflache), 64, 74 Kurve zweiter Ordnung, 56, 59 f Kurvendiskussion, 94 Lange eines Vektors, 18 Laplacescher Entwicklungssatz, 40 Leibnizkriterium, 156 Leibnizregel, 88 linear (un)abhangig, 17 f lineare Abbildung, 36, 54, 67 Mathematik I+II Sachverzeichnis lineare Approximation, siehe Approximation, lineare lineare Differentialgleichung, 166–170, 184– 192 lineare Hulle, 23, 36 lineare Operation, 16, 31, 88, 121, 140, 154 linearer Raum, 15 linearer Teilraum, Unterraum, 22, 43, 49 lineares Differentialgleichungssystem, 184– 192 lineares Gleichungssystem, 9–12, 42–47 Linearisierung, siehe Approximation, lineare Linearkombination, 16, 23 Lipschitzstetig, 175, 200 Logarithmus, 2–3, 97, 106, 112 als Stammfunktion, 3, 112 als Umkehrfunktion, 106 dekadischer, 4 Funktionalgleichung, 97 Potenzreihe, 159 zur Basis b, 4 lokales Extremum, siehe Extremum, lokales Losbarkeit linearer Gleichungssysteme, 43 Losungsgesamtheit, siehe Losungsmenge Losungsmenge linearer Gleichungssysteme, 43 quadratischer Gleichungen, 56, 61 von wn == z, 99 Lot, 26, 27 Mac Laurin, 164 Majorantenkriterium, 134, 150, 151 Matrix, 31 ff, sieheauch Einheits-, Null-, Diagonal, Diagonalisierung einer, Dreiecks, (erweiterte) Koeffi-zi-en-ten-, transponierte, quadratische, (anti)symmetrische, regulare, inverse, orthogonale, (in/semi)definite, Potenz einer maximaler Rang, 37, 41 Maximum, siehe Extremum Minimalflache, 66 Minimum, siehe Extremum Minor, 40 Minorantenkriterium, 135, 154 Mittelwert, 123 Mittelwertsatz, 104, 122, 162 Moivresche Formeln, 99 monoton, 105, 121, 144 streng, 105 Multiplikation in Korpern, 80 RWTH Aachen 206 komplexer Zahlen, 77, 80 reeller Zahlen, 70, 80 von Folgengliedern, 140, 142 von Funktionen, 88 von Matrizen, 33–36, 40 von Matrizen mit Vektoren, 33 von Matrizen mit Zahlen, 32 von Vektoren, 18, 21, 36 von Vektoren mit Zahlen, 16 Multiplikationssatz fur Determinanten, 40 Naherung, siehe Approximation negativ (semi)definit, siehe (semi)definite Matrix Newtonverfahren, 143, 146 Norm, 18 Normale, Normal(en)vektor, 24, 27 Normalform einer Flache zweiter Ordnung, 62 einer Kurve zweiter Ordnung, 58 Hessesche, 24, 27 normierter Vektor, 19, 22, 27, 52 Nullfolge, 138, 144 der Summanden einer konvergenten Reihe, 153 Nullmatrix, 31 Nullstelle, 94 der Ableitung, 93 des charakteristischen Polynoms, 50–51 eines Polynoms, 48, 85 konjugiert komplexes Paar, 85 offene Menge, 73, 147 offenes Intervall, 73 Ordinate, 8, 71 Ordnung reeller Zahlen, 71 orthogonal, 20, 24 orthogonale Matrix, 52 orthogonale Projektion, 26, 27, 29 Orthonormalbasis, 22, 51, 52 Packchen packen, 117 Parabel, 1, 60 Paraboloid, 65 Parallelogrammflache, 21 parameterabhangiges Integral, 164 Parameterdarstellung einer Ebene, 26 einer Geraden, 23 einer Hyperebene, 29 parameterunabhangige Darstellung, siehe auch Quadrik Mathematik I+II Sachverzeichnis einer Ebene, 27 einer Geraden, 24 einer Hyperebene, 29 Partialbruchzerlegung, 89–92 partielle Ableitung, 175 partikulare Losung, 43 Pascalsches Dreieck, 83 periodische Funktion, siehe trigonometrische Funktionen Picard(-Lindelof), 176, 197 Polarkoordinaten, ebene, 79, 98 Polstelle, 94 Polynom, 48, 85 asymptotisches, 89, 94 charakteristisches, 50, 178, 185 polynomiale Approximation, siehe Approximation, polynomiale positiv (semi)definit, siehe (semi)definite Matrix Potenz, 4, 5, 97 einer Matrix, 53, 68 Potenzfunktion, 4, 94, 97 Potenzrechnung, 4, 97 Potenzreihe, 88, 117, 155, 158–161, 195 Produkt, siehe Multiplikation Produktregel der Differentiation, 88 Projektion, siehe orthogonale Proj. Punkt, 16 Pythagoras, Satz des, 20 Quader, 74 quadratische Approximation, siehe Approximation, quadratische quadratische Matrix, 31, 48 Quadraturverfahren, 132 Quadrik, 56, 59 f, 61, 63 ff Quotient, siehe Division Quotientenkriterium, 151 Quotientenregel der Differentiation, 88 Quotiententest, 151, 156 Rn , 15 Randpunkt, 73, 93, 95, 114, 156 Rang einer Matrix, 37–39, 41, 43 Rangkriterium, 43 rationale Funktion, 89, 125, 126, 131, 160 ganz, siehe Polynom stuckweise, 89 Realteil, 77 Rechte Hand Regel, 21 Regel von de l’Hospital, 115 RWTH Aachen 207 von Sarrus, 39 regulare Matrix, 44, 52, 67 Reihe, 148 rekursiv, 82, 137, 146 relatives Extremum, siehe Extremum, lokales reziprok, siehe Kehrwert Richtungsfeld, 172 Sarrussche Regel, 39 Sattel(flache), 65 Satz des Pythagoras, 20 Grenzwert-, siehe Grenzwertsatz Laplacescher Entwicklungs-, 40 Mittelwert-, 104 uber den Rang einer Matrix, 38 uber die Hauptachsentransformation, 53, 67 uber die Partialbruchzerlegung, 90 uber Eigenvektoren symmetrischer Matrizen, 51 uber Losungen linearer Gleichungssysteme, 43, 44 uber orthogonale Matrizen, 52 uber regulare Matrizen, 44 von de l’Hospital, 115 von Weierstras, 87 Schachtelung, 141 Schaltfunktion, 133 schief, siehe ungerade Schnittmenge, 25, 28–29, 42 Schnittwinkel, 25, 28 Schwarzsche Ungleichung, 19 Schwingung, gedampfte, 101, 180 Sekans, 8 semidefinite Matrix, 55, 60 separable Differentialgleichung, 173 Simpsonregel, 132 Sinus, siehe trigonometrische Funktionen hyperbolicus, siehe Hyperbelfunktionen Skalar, 16, 18, 32 Skalarprodukt, 18, 35, 101 Spaltenoperation, siehe elementare Spaltenoperation Sphare, 64, 74 Spur einer Matrix, 56 Stammfunktion, 14, 87, 90, 122 Standardabschatzung, 113 Standardbasis, 22 stetig, 85, 107 Lipschitz-, 175, 200 Mathematik I+II Sachverzeichnis stetig differenzierbar, 85, 88, 107 stetige Abhangigkeit von den Daten, 201 Streben gegen Unendlich, 144 stuckweise stetig, 132 stuckweise rational, 89 Substitution bei Differentialgleichung, 193 Summenformel, 81 geometrische, 82 Summenzeichen, 81 Supremum, 147 symmetrisch, siehe auch gerade Funktion symmetrische Matrix, 32, 51–55 System lineares Gleichungs-, 9–12, 42–47 lineares, Differentialgleichungs-, 184– 192 Tabelle Flachen zweiter Ordnung, 65 Kurven zweiter Ordnung, 60 Tangens, siehe trigonometrische Funktionen hyperbolicus, siehe Hyperbelfunktionen Tangente, 1 Taylorpolynom, 161–162, 164 Restglied, 162–163 Taylorreihe, 161 Teilraum, 22 transitiv, 71 transponierte Matrix, 32, 35 Trapezapproximation, 118, 135 trigonometrische Funktionen, 5–8, 98–100 Ableitung, 7, 99 208 Vektorprodukt, 21, 36, 54 Vektorraum, 15, 77 Verfahren von Heron, 143, 146 von Newton, 143, 146 Verknupfung, siehe Addition, Multiplikation, Division, Komposition vertraglich, 70, 71, 78, 80 vollstandig, 80, 146 vollstandige Induktion, 13, 77 Wachstum, 97, 116, 153 Weierstras, Satz von, 87 windschiefe Geraden, 26 Winkel, 5, 101 zwischen Ebenen, 28 zwischen Geraden, 25 zwischen Vektoren, 20, 101 Wurzel, 4, 14, 97, 106 als reelle Potenz, 4, 97 als Umkehrfunktion, 4, 14, 106 einer Matrix, 69 komplexe, 99 Wurzeltest, 154, 156 Zahlenebene, Gaussche, 77 Zeilenoperation, siehe elementare Zeilenoperation Zuhaltemethode, 90 zyklometrische Funktion, 106 Zylinder, 64–66 Umgebung, 138 Umkehrabbildung, siehe Umkehrfunktion, inverse Matrix Umkehrfunktion, 105, 111, 126, siehe auch Arkus- und Areafunktionen, Logarithmus ungerade Funktion, 71, 94, 98, 117, 127– 128, 163 Ungleichung Bernoullische, 76 (Cauchy-)Schwarzsche, 19 Dreiecks-, 20, 75, 79 fur Arkustangens, 113 fur einige Funktionen, 113–114 Rechenregeln, 72–73 Unter(vektor)raum, 22 Vektor, 15 ff RWTH Aachen Mathematik I+II