MATHEMATISCHE ERGÄNZUNGEN ZUR KLASSISCHEN MECHANIK I Eberhard Engel Center for Scientific Computing, J.W.Goethe-Universität Frankfurt, Max-von-Laue-Straße 1, D-60438 Frankfurt/Main, Germany Letzte Überarbeitung: 3. März 2011 Inhaltsverzeichnis 1 Vektorrechnung 1.1 1.2 1.3 1.4 1 Grundzüge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.2 Definition des Begriffs Vektor . . . . . . . . . . . . . . . . . . . . . . 3 1.1.3 Kartesische Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.4 Addition von Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.5 Multiplikation von Vektoren mit Zahlen . . . . . . . . . . . . . . . . 9 1.1.6 Einheitsvektoren, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1.7 Lineare Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1.8 Kugelkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Lineare Koordinatentransformationen: Rotationen . . . . . . . . . . . . . . . 13 1.2.1 Elementare Rotation des Koordinatensystems . . . . . . . . . . . . . 13 1.2.2 Rotationsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.3 Elementare Rotation des Vektors . . . . . . . . . . . . . . . . . . . . 15 1.2.4 Allgemeine Rotation: Euler Winkel . . . . . . . . . . . . . . . . . . . 17 Skalarprodukt (Inneres Produkt) . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3.1 Auswertung des Skalarprodukts über Komponenten . . . . . . . . . . 19 1.3.2 Formalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Vektorprodukt (Äußeres Produkt) . . . . . . . . . . . . . . . . . . . . . . . . 22 1.4.1 Auswertung des Vektorprodukts über Komponenten . . . . . . . . . . 23 1.4.2 Formalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.4.3 Identitäten 26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i 2 Grundbegriffe der Infinitesimalrechnung 2.1 28 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.1.1 Elementare Definitionen, Notation . . . . . . . . . . . . . . . . . . . . 28 2.1.2 Mengen von reellen Zahlen: Topologische Eigenschaften . . . . . . . . 30 2.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3 Endliche Summen, Bernoulli’sche Ungleichung . . . . . . . . . . . . . . . . . 36 2.4 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.5 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3 Differentialrechnung bei Funktionen einer Variablen 3.1 58 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.1.1 Definition des Funktionsbegriffs . . . . . . . . . . . . . . . . . . . . . 58 3.1.2 Elementare Eigenschaften: Monotonie, Symmetrie, Periodizität . . . . 61 3.1.3 Funktionen- und Potenzreihen . . . . . . . . . . . . . . . . . . . . . . 62 3.2 Stetigkeit, Grenzwerte, Umkehrfunktion . . . . . . . . . . . . . . . . . . . . 65 3.3 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.3.2 Differentiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.3.3 Rechenregeln für Differentiation . . . . . . . . . . . . . . . . . . . . . 77 3.3.4 Höhere Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.3.5 Grenzwerte von Produkten und Quotienten von Funktionen . . . . . 83 3.4 Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.5 Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4 Integralrechnung bei Funktionen einer Variablen 4.1 91 Grundlegende Begriffe: Riemann-Integral . . . . . . . . . . . . . . . . . . . . 91 4.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.1.2 Alternative Formulierung des Riemann-Integrals . . . . . . . . . . . . 93 4.1.3 Eigenschaften des Riemann-Integrals . . . . . . . . . . . . . . . . . . 93 4.2 Unbestimmtes Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.3 Integrationsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.3.1 97 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 4.3.2 Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Partialbruchzerlegung 4.3.4 Gliedweise Integration von Reihen . . . . . . . . . . . . . . . . . . . . 106 . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.4.1 Integration über ein unbeschränktes Intervall . . . . . . . . . . . . . . 107 4.4.2 Integration über eine am Rand unbeschränkte Funktion . . . . . . . . 107 4.4.3 Integration über eine im Inneren unbeschränkte Funktion . . . . . . . 108 5 Komplexe Zahlen 5.1 98 110 Elementare Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.1.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.1.2 Operationen mit komplexen Zahlen . . . . . . . . . . . . . . . . . . . 111 5.1.3 Komplexe Zahlen als Erweiterung der reellen Zahlen: Komplexe Zahl i 113 5.1.4 Multiplikation/Division in Polarkoordinatendarstellung . . . . . . . . 114 5.2 Folgen, Reihen 5.3 Elementare komplexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 115 5.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 5.3.1 Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.3.2 Sinus, Kosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.3.3 Wurzelfunktion: Mehrdeutigkeit . . . . . . . . . . . . . . . . . . . . . 117 Analytische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6 Differentialgleichungen: Erste Schritte 118 6.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 6.2 Klassifikation, Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.3 Spezielle Typen von Differentialgleichungen . . . . . . . . . . . . . . . . . . . 121 6.3.1 Differentialgleichungen erster Ordnung mit separablen Variablen . . . 121 6.3.2 Lineare Differentialgleichungen erster Ordnung . . . . . . . . . . . . . 123 6.3.3 Ähnlichkeitsdifferentialgleichungen erster Ordnung . . . . . . . . . . . 125 6.3.4 Lineare Differentialgleichungen höherer Ordnung: Reihenentwicklung 7 Grundzüge der Vektoranalysis 7.1 125 128 Motivation, Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 7.2 7.3 Vektorwertige Funktionen: Kurven . . . . . . . . . . . . . . . . . . . . . . . 130 7.2.1 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.2.2 Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 7.2.3 Länge von Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 Skalare Felder, Vektorfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 7.3.1 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 7.3.2 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 7.4 Divergenz, Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 7.5 Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 7.6 Extrema (von skalaren Feldern) . . . . . . . . . . . . . . . . . . . . . . . . . 151 7.7 7.6.1 Extrema ohne Nebenbedingungen . . . . . . . . . . . . . . . . . . . . 151 7.6.2 Extrema mit Nebenbedingungen . . . . . . . . . . . . . . . . . . . . . 153 Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 8 Lineare Algebra 8.1 8.2 165 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 8.1.1 Grundkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 8.1.2 Grundbegriffe und elementare Operationen mit Matrizen . . . . . . . 166 8.1.3 Orthogonalität und Unitarität von Matrizen . . . . . . . . . . . . . . 175 8.1.4 Reihen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 8.2.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 8.2.2 Definition und Grundbegriffe 8.2.3 Definierende Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 183 8.2.4 Multiplikationstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . 187 8.2.5 Determinanten spezieller Matrizen . . . . . . . . . . . . . . . . . . . . 188 8.2.6 Determinantenentwicklungssatz . . . . . . . . . . . . . . . . . . . . . 189 . . . . . . . . . . . . . . . . . . . . . . 179 8.3 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 8.4 Eigenwertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Kapitel 1 Vektorrechnung 1.1 Grundzüge 1.1.1 Motivation Grundproblem in Physik: Angabe der Position eines punktförmigen Objekts im Raum −→ verschiedene Konzepte denkbar: (i) Abstände von mehreren Bezugspunkten: Da drei Bezugspunkte immer eine Ebene definieren, ist die Angabe von drei solchen Abständen nur dann eindeutig, wenn für die Position nur der Raum über (bzw unter) der Ebene zur Verfügung steht (ansonsten gibt es einen spiegelbildlichen Punkt unter (bzw über) der Ebene mit den gleichen Abständen — die Hinzunahme eines vierten Bezugspunkts außerhalb der Ebene erlaubt in jedem Fall eine eindeutige Positionsbestimmung). Illustration für Punkt in Ebene, d.h. in 2 Dimensionen: Der Abstand von den Bezugspunkten A,B bestimmt den zu charakterisierenden Punkt C nur dann eindeutig, wenn C oberhalb der Verbindungslinie von A nach B liegt. 1 ............................................. ............ .................. ....... ........... ...... ....... ...... ...... ...... ..... . . . ..... ... . . . .... ............................................. ... . .... . .............. ....... ... ... ...... ....... . . ... ..... ..... . . . .... ... ........ ... .... . . . . ..... .... .. . . . . ... . ... .. . . . . ... ... .... .... . ... ... .. ... ... . ... ... .... ... .. .. ... ... .. .. .. ... .. ... ... ... ... .... . .. . . . . .. .. .. . . .. . .. .. . . . . .. . .. . . .. . . . ... . .. .. .. ... ... .. ... ... ... .. ... ... ... ... .. ... ... .. . . ... ... ........ ... .... .... ... ......... ... ..... ...... ... ... ..... ....... . .... . ... . . . . . . ............. .... ............................................... .... .... .... .... .... ...... ..... ...... ..... . ....... . . . . ......... ... ............... ......... ......................................................... s C s A s B Daher besser: Charakterisierung eines Punkts im Raum durch Abstände von zwei Bezugspunkten plus Abstand von der Ebene, die aus den beiden zusammen mit einem dritten Bezugspunkt gebildet wird — der Abstand von der Ebene kann dann mit Vorzeichen definiert werden (positive Abstände oberhalb, negative unterhalb der Ebene). (ii) Abstand von einem Bezugspunkt plus Richtung zum Bezugspunkt a u Bezugspunkt −→ erfordert die Fixierung eines “Bezugsrahmens” im Raum, gegenüber dem die Richtung angegeben wird Allgemein: Jeder Raumpunkt im 3-dimensionalen Raum ist durch die Angabe von 3 unabhängigen reellen Werten (Koordinaten) und einer Regel zu deren Interpretation (Koordinatensystem) eindeutig charakterisiert (aus Geometrie: Schnittpunkt von 3 Flächen definiert Punkt im Raum, zumindest bis auf offensichtliche Zweideutigkeiten — siehe oben). Ähnliche Problemstellung: Verschiebung eines punktförmigen Objekts von Punkt A zu Punkt B −→ Position von A stellt Bezugspunkt für Charakterisierung von B dar u B a u A 2 −→ a stellt Verschiebung dar, die Punkt A in Punkt B überführt Außer Positionen und Verschiebungen gibt es in der Physik viele weitere Größen, deren Charakterisierung mehr als die Angabe einer Zahl erfordern — man unterscheidet daher: • Skalare: Größen, die durch eine einzelne Zahl charakterisiert werden (Abstand von zwei Punkten, Temperatur im Raum, Druck in Behälter, Ladung auf Kondensator, . . . ) • Vektoren: Größen, die durch eine Zahl plus eine Richtung charakterisiert werden (Position im Raum, Geschwindigkeit eines Teilchens, Kraft auf Körper, elektrisches Feld, . . . ) • Tensoren: Größen, die zur vollständigen Charakterisierung im 3-dimensionalen Raum mehr als 3 Zahlenangaben benötigen (Trägheitstensor, . . . ) 1.1.2 Definition des Begriffs Vektor Intuitiv: Ein Vektor ist eine gerichtete Strecke im Raum. Etwas allgemeiner (mathematischer): Vektoren sind geordnete n-Tupel, d.h. geordnete Sätze von (hier rellen) Zahlen (a1 , a2 , . . . , an ), deren Komponenten sich auf ein vorgegebenes Koordinatensystem beziehen und die sich bei Koordinatentransformationen wie die Komponenten einer gerichteten Strecke transformieren. in Physik: n = 2, 3, 4 — formuliere im weiteren alle Begriffe für n = 3 (Beachte: Vektorkonzept lässt sich noch wesentlich allgemeiner fassen — hier keine Details) −→ erste Aufgabe: Festlegung des Koordinatensystems −→ übliche Wahl folgt aus maximaler Zweckmäßigkeit 1.1.3 Kartesische Koordinaten Wähle 3 zueinander paarweise senkrechte Bezugsachsen, die sich in einem Punkt, dem (Koordinaten)Ursprung schneiden, und charakterisiere Vektor durch seine Projektionen auf die 3 3 Achsen: Dabei wird den Projektionen ein positives Vorzeichen zugeordnet, falls die Projektion der Spitze des Vektors (d.h. seines Endpunkts) auf die jeweilige Achse einen größeren Wert auf der Achse ergibt als die Projektion des Anfangspunktes, ein negatives Vorzeichen im umgekehrten Fall. z 6 6@ @. q ....... @ .. ... @ ... ........ .... a3 ......... .... ... ... ... ... .. .. .. . ... .. ... ... q ? @ Projektion parallel @ r P zur z-Achse PP A PP q s q ... .... ..... ........ ................................... ............. a1 x ai = q ........... ....... ..... .... ... ... . Projektion parallel zur x-y-Ebene (wird erreicht durch rechten Winkel zur z-Achse) @ @ @ @ rB a q a2 .. ... .... ...... .................................................... @ @ .................................. ........ ... ... @................. ... ... . . ... .. @ q . . .. q . .... @ ... .. ... @ q .. ... .... ..... ........ ........... . - - y Auftreffpunkt der Projektion der Spitze von a (bei B) auf die Achse i −Auftreffpunkt der Projektion des Anfangs von a (bei A) auf die Achse i Die Projektion eines Punktes auf eine kartesische Achse kann entweder direkt oder in 2 Schritten erfolgen: • Im Fall der z-Achse wird im obigen Bild eine direkte Projektion der Punkte A bzw B auf die Achse gezeigt, angedeutet durch die rechten Winkel zwischen den von A, B ausgehenden Projektionslinien und der Achse: Jeder Punkt definiert zusammen mit der z-Achse eine Ebene, in der die Projektionslinien verlaufen, die dann senkrecht auf die z-Achse treffen. • Im Fall der x-Achse und y-Achse könnte natürlich genauso vorgegangen werden. Im Bild erfolgt die Projektion aber über einen Umweg, der auf dieselben Auftreffpunkte 4 führt: Die Projektion eines Punktes auf eine kartesische Achse ist durch denjenigen Wert auf der Achse gegeben, bei dem die ihn enthaltene Ebene, die senkrecht zur Achse liegt, gerade den zu projezierenden Punkt enthält. Im folgenden Bild wird B auf diese Weise auf die y-Achse projeziert, E⊥ ist die Ebene senkrecht zur y-Achse. z 6 Ebene E⊥ senkrecht auf y-Achse rB @ @ @ @ Pxy s @ @Pd @ @ ..................................................................... ....... ..... q .... ... @ @ ... . ... ... q .... .... ...... ......... ..... D y q .. ........... .... ... ... ... ... .. C x r Die direkte Projektionslinie ist dann die Gerade vom zu projezierenden Punkt (B) zur Achse, hier mit Pd benannt. Aber auch jede andere Kurve vom Punkt zur Achse, die ganz in der zur Achse senkrechten Ebene E⊥ liegt, kann zur Projektion verwendet werden. So kann man den zu projezierenden Punkt etwa erst in die durch x-Achse und y-Achse definierte Ebene (x-y-Ebene) projezieren. Die zugehörige Projektionslinie (im Bild Pxy genannt) verläuft parallel zur z-Achse und damit innerhalb von E⊥ . Im zweiten Schritt wird dann ihr Endpunkt C innerhalb der x-y-Ebene auf die y-Achse projeziert. Wieder kommt man bei demselben Auftreffpunkt (D) an. 5 Bemerkungen: • Ordnung der drei Achsen wird rechtshändig gewählt (IMMER!) • Standardbezeichnung: x-, y-, z-Achse • Komponenten des Vektors werden entsprechend als x-, y-, z-Komponenten bezeichnet −→ dabei werden äquivalent zwei Schreibweisen verwendet a1 ≡ ax a2 ≡ ay a3 ≡ az • verschiedene Notationen für Vektoren gebräuchlich a1 a2 = (a1 , a2 , a3 ) = (ax , ay , az ) = a = a = ~a = (ai ) a3 (1.1.1) beachte: Spalten- und Zeilenvektoren sind streng mathematisch gesehen nicht identisch (Details siehe später) — das wird beim praktischen Umgang mit Vektoren aber meist nicht beachtet, solange der Unterschied nicht gerade von Bedeutung ist • Länge des Vektors: Länge der Verschiebung = Abstand von A zu B !1/2 3 q X a21 + a22 + a23 = (Pythagoras) a2i |a| = (1.1.2) i=1 (|a| wird auch Norm oder Betrag genannt) • Für festes (kartesisches) Koordinatensystem sind die Komponenten a1 , a2 , a3 unabhängig und eindeutig, da eine Verschiebung des Endpunktes B in Richtung von einer der drei Achsen die Positionen und damit Projektionen bezüglich der anderen beiden Achsen nicht ändert • Vektoren, die durch Parallelverschiebung auseinander hervorgehen, sind identisch, weil ihre Projektionen auf die Koordinatenachsen gleich sind −→ Komponenten ändern sich bei Verschiebung des Koordinatenursprungs nicht, solange die Orientierung der Achsen gleich bleibt −→ Positionsvektoren nicht fundamental von Verschiebungsvektoren verschieden −→ Vektoren werden daher meist vom Koordinatenursprung ab aufgetragen 6 • Vektor ist eindeutig (gerichtete Strecke von A nach B), seine Komponenten sind es dagegen nur, solange man das Koordinatensystem festhält: Komponenten ändern sich mit der Orientierung der Achsen im Raum (trotz gleichbleibender Anordnung der Achsen zueinander) • Transformationsverhalten der Komponenten bei Änderung der Orientierung des Koordinatensystems bestimmt, ob n-Tupel von Komponenten ein Vektor im physikalischen Sinn ist: Bei physikalischen Größen (messbar!) müssen die gleichen Transformationseigenschaften vorliegen wie beim Positionsvektor (siehe Definition). • Menge aller möglichen Vektoren = gesamter 3-dimensionaler Raum von Positionen −→ alle drei Komponenten gehen für sich alle reellen Werte durch −→ mathematische Formalisierung durch direktes Produkt 1-dimensionaler Räume R3 = R × R × R • Übertragung auf andere Raumdimension klar: Zahl der Komponenten des Vektors = Dimension des Raums 1.1.4 Addition von Vektoren Definition: Für zwei Vektoren a, b, die die Verschiebungen A→B, C→D charakterisieren, versteht man die Vektorsumme a+b als die Verschiebung, die durch Hintereinanderausführen von A→B und C→D entsteht: rB A AU r C b -r *D r a + b A AU a 7 Eigenschaften: a+b = b+a (Kommutativgesetz) (1.1.3) a + (b + c) = (a + b) + c (Assoziativgesetz) (1.1.4) a+0 = a (neutrales Element) (1.1.5) 0 = Verschiebung um nichts — hat keine Richtung a + (−a) = 0 (inverses Element) (1.1.6) −a = Verschiebung um gleiche Strecke, aber in umgekehrter Richtung wie a Betrachte zugeörige Projektionen auf kartesische Achsen, der Einfachheit in der Ebene (beachte: zwei Vektoren definieren gerade eine Ebene, das Koordinatensystem kann dann entsprechend gewählt werden) y 6 : 3 6 b b2 a+b a2 a ?s a - b ? 6 1 1 a1 + b1 −→ Projektionen auf Achsen sind additiv 8 - - x −→ Vektorsumme in kartesischen Komponenten: a + b1 b a 1 1 1 a + b = a2 + b2 = a2 + b2 a3 + b3 b3 a3 0 0 = 0 0 −a1 −a = −a2 −a3 1.1.5 (1.1.7) (1.1.8) (1.1.9) Multiplikation von Vektoren mit Zahlen Definition: Für einen Vektor a, der die Verschiebung A→B charakterisiert, versteht man unter αa (mit α ∈ R) eine Verschiebung in gleicher Richtung wie bei a, falls α > 0, bzw in umgekehrter Richtung, falls α < 0, aber um den Faktor |α| gestreckt oder gestaucht. Eigenschaften: α(a + b) = (αa) + (αb) (Distributivgesetze) (α + β)a = (αa) + (βa) α(βa) = (αβ)a 1·a = a (Assoziativgesetz) (neutrales Element) (1.1.10) (1.1.11) (1.1.12) (1.1.13) In kartesischen Komponenten (weil Projektionen auf Achsen linear unter Streckung sind): αa1 (1.1.14) αa = αa2 αa3 1.1.6 Einheitsvektoren, Basis Definition: Ein Vektor der Länge 1 wird als Einheitsvektor bezeichnet. 9 Kartesische Einheitsvektoren: geben Richtungen der 3 kartesischen Achsen wieder a3 @ @ @ @ @ @ 6 @ @ e3 a p e2 @ @ @ @ @ @ @ @ e1 a1 In kartesischen Komponenten: 1 e1 = ex = 0 0 a2 0 e3 = ez = 0 1 0 e2 = ey = 1 0 −→ e1 , e2 , e3 bilden rechtshändiges System (1.1.15) Gemäß der Definition der kartesischen Komponenten ai als Projektionen auf die Koordinatenachsen läßt sich jeder Vektor eindeutig über die kartesischen Einheitsvektoren darstellen: 0 0 1 a1 a2 = a1 0 + a2 1 + a3 0 1 0 0 a3 a = a1 e1 + a2 e2 + a3 e3 = 3 X i=1 −→ wird als Basisdarstellung bezeichnet −→ e1 , e2 , e3 bilden Basis des 3-dimensionalen Raumes 10 ai ei (1.1.16) Allgemeiner: Jeder Satz von 3 Vektoren, die in 3 verschiedene Richtungen zeigen, bildet Basis des 3-dimensionalen Raumes −→ drücke Forderung nach verschiedenen Richtungen noch etwas allgemeingültiger aus: 1.1.7 Lineare Abhängigkeit Vektoren a1 , a2 , . . . an werden als linear abhängig bezeichnet, falls man mindestens einen von ihnen durch die anderen n − 1 ausdrücken kann. Formale Definition: a1 , a2 , . . . an heißen linear abhängig, falls es einen Satz von Zahlen λ1 , λ2 , . . . λn (die nicht alle verschwinden) gibt, so dass n X λ i ai = 0 =⇒ i=1 n 1 X aj = λ i ai λj i=1,i6=j (1.1.17) Falls nicht, heißen a1 , a2 , . . . an linear unabhängig. −→ im 3-dimensionalen Raum können höchstens 3 Vektoren linear unabhängig sein 1.1.8 Kugelkoordinaten Frage: Wie drückt man Richtung des Vektors im Raum aus? −→ führt auf wichtigen alternativen Satz von Koordinaten: Kugelkoordinaten Definition über graphische Veranschaulichung: vergleiche die Diskussion über schrittweise Projektion auf die kartesischen Achsen in Abschnitt 1.1.3 11 a3 @ @ .. q ....... @ . ... @ .... ........ .... @ @ 6 e3 .................... .... ... ... ... ... ... ... ... . |a| @ @ a θ e1 q .................. ........... . a1 ... .. p e2 @ ϕ @@...... ....................... ................................................................. @ ......................... ............ .... ... |a| sin(θ)@...................... ... ... . ... q ... @ .. . q .. . .... @ ... . @ .. q a2 .. ... .... ..... ....... ......... ..... Bereiche und Vorzeichen der Winkel: 0 ≤ θ ≤ π ⇐⇒ θ positiv gegenüber z-Achse abgetragen (1.1.18) 0 ≤ ϕ ≤ 2π ⇐⇒ ϕ positiv entgegen Uhrzeigersinn in x-y-Ebene gegenüber x-Achse abgetragen (1.1.19) Zusammenhang von Kugelkoordinaten mit kartesischen Koordinaten (aus Projektion) a1 = |a| sin(θ) cos(ϕ) (1.1.20) a2 = |a| sin(θ) sin(ϕ) (1.1.21) a3 = |a| cos(θ) (1.1.22) Darstellung des Vektors über Kugelkoordinaten und kartesische Einheitsvektoren (d.h. kartesische Vektorkomponenten) a = |a| [sin(θ) cos(ϕ) ex + sin(θ) sin(ϕ) ey + cos(θ) ez ] 12 (1.1.23) 1.2 Lineare Koordinatentransformationen: Rotationen Essentielle Eigenschaft von Vektoren: Länge und Richtung bleiben bei Änderung des Bezugssystems erhalten, nur Komponenten ändern sich mit Richtung und relativer Anordnung der Koordinatenachsen (zumindest solange die Einheiten für die Länge unverändert bleiben) Man sagt: Vektoren sind invariant gegenüber einer Transformation des Koordinatensystems Einfachste und zugleich wichtigste Transformation des Koordinatensystems: Rotation 1.2.1 Elementare Rotation des Koordinatensystems −→ betrachte der Einfachheit halber eine Rotation um die z-Achse (kompliziertere Fälle können durch Hintereinanderausführen von Rotationen um einzelne kartesische Achsen erzeugt werden — siehe später) −→ die z-Komponente jedes Vektors bleibt bei Rotation um z-Achse unverändert −→ betrachte x- und y-Komponente bei Rotation, i.e. die Projektion des Vektors auf die x-y-Ebene ey 6 K A ey′A A ay A A A A A a′yA A A A A A a A * ex′ A A A a′x A A ϕ A A α A Ap A ax ex beachte: α positiv entgegen Uhrzeigersinn gegenüber ungestrichener x-Achse abgetragen 13 Projektion auf ungestrichene Koordinatenachsen (schon bekannt): q a2x + a2y cos(ϕ) q = a2x + a2y sin(ϕ) ax = ay Projektion auf gestrichene Koordinatenachsen (benutze Additionstheoreme für sin(ϕ − α) und cos(ϕ − α) zur Auswertung): a′x = = q q a2x + a2y cos(ϕ − α) a2x + a2y [cos(ϕ) cos(α) + sin(ϕ) sin(α)] = ax cos(α) + ay sin(α) q = a2x + a2y sin(ϕ − α) q a2x + a2y [sin(ϕ) cos(α) − cos(ϕ) sin(α)] = a′y = −ax sin(α) + ay cos(α) a′z = az 1.2.2 (1.2.1) (1.2.2) (1.2.3) Rotationsmatrix Kompakte Schreibweise der Gleichungen (1.2.1)–(1.2.3) über Matrixnotation: a′i = 3 X Rij aj (1.2.4) j=1 ⇐⇒ i=1: a′1 = R11 a1 + R12 a2 + R13 a3 i=2: a′2 = R21 a1 + R22 a2 + R23 a3 i=3: a′3 = R31 a1 + R32 a2 + R33 a3 ′ a R R12 R13 a 1 11 1 ′ a2 = R23 R23 R23 a2 ′ a3 R33 R33 R33 a3 {z } | Matrix ⇐⇒ Gl.(1.2.5) ist zu lesen als: • gehe Zeilen des Schemas (d.h. der Matrix) Eintrag für Eintrag durch, 14 (1.2.5) • multipliziere den j-ten Eintrag mit der j-ten Komponente des Vektors zur Rechten des Schemas und • addiere die zur selben Zeile des Schemas gehörenden Beiträge auf −→ der erste Index (i) von Rij heißt Zeilenindex, der zweite (j) Spaltenindex −→ diese Ordnung ist eine Konvention, die IMMER eingehalten wird −→ Verallgemeinerung auf andere Dimensionen offensichtlich Notation: a′ = R a R = (Rij ) Im Fall der Rotation hat die Matrix die Gestalt: cos(α) sin(α) 0 Rz (α) = − sin(α) cos(α) 0 0 0 1 Rotation des Koordinatensystems um z-Achse: ≡ entgegen Uhrzeigersinn für ϕ > 0 1.2.3 (1.2.6) (1.2.7) Elementare Rotation des Vektors Beachte Unterschied zwischen Rotation des Koordinatensystems (Koordinatentransformation) und aktiver Rotation des Vektors bei festem Koordinatensystem −→ betrachte wieder Rotation um z-Achse entgegen Uhrzeigersinn 15 y 6 a′y ay a′ * α a ϕ p a′x ax - x Projektion auf Koordinatenachsen (Auswertung wie zuvor) a′x = a′y = ⇐⇒ q q a2x + a2y cos(ϕ + α) = ax cos(α) − ay sin(α) (1.2.8) a2x + a2y sin(ϕ + α) = ax sin(α) + ay cos(α) (1.2.9) a′z = az (1.2.10) a′ = Rz (−α) a (1.2.11) Zur Erinnerung: sin(−α) = − sin(α) (1.2.12) cos(−α) = cos(α) (1.2.13) −→ Rotation des Vektors entgegen Uhrzeigersinn äquivalent zu Rotation des Koordinatensystems im Uhrzeigersinn 16 1.2.4 Allgemeine Rotation: Euler Winkel Elementare Rotationen um x- bzw y-Achse: durch zyklische Vertauschung der Komponenten von Rz (α) 1 0 0 (1.2.14) (1.2.15) Rx (α) = 0 cos(α) sin(α) 0 − sin(α) cos(α) Rotation des Koordinatensystems um x-Achse: ≡ entgegen Uhrzeigersinn für α > 0 Ry (α) = cos(α) 0 − sin(α) 0 1 0 sin(α) 0 cos(α) Rotation des Koordinatensystems um y-Achse: ≡ entgegen Uhrzeigersinn für α > 0 Euler Winkel: Konvention für die relative Orientierung zweier Koordinatensysteme REuler (γ, β, α) = Rz (γ) Rx (β) Rz (α) (1.2.16) von rechts nach links zu lesen: erst Rotation mittels Rz (α), dann Rotation mittels Rx (β) um die bei der ersten Rotation erzeugte neue x-Achse, schließlich Rotation mittels Rz (γ) um die bei der zweiten Rotation erzeugte neue z-Achse 17 1.3 Skalarprodukt (Inneres Produkt) Definition: Das Skalarprodukt a · b von zwei Vektoren a und b ist die Zahl a · b = |a| |b| cos(∢a, b) (1.3.1) (cos(φ) = cos(2π − φ) =⇒ es spielt keine Rolle, von wo ab der Winkel abgetragen wird) −→ Skalarprodukt ist völlig symmetrisch bezüglich beider Vektoren a 3 φ = ∢a, b - b =⇒ da |a|, |b| und ∢a, b unabhängig von dem zur Darstellung von a und b gewählten Koordinatensystem sind, ist a · b invariant gegenüber Koordinatentransformationen Geometrische Interpretation: a · b = Projektion von a auf b (bzw von b auf a) (1.3.2) Konsequenzen aus Definition: a·b = b·a (Kommutativität) (αa) · b = a · (αb) = α(a · b) (Assoziativität) (1.3.3) (1.3.4) |a · b| ≤ |b| |a| a·b = 0 a·a ≥ 0 (Schwarz’sche Ungleichung) (1.3.5) entweder |a| = 0 oder |b| = 0 oder |a| = |b| = 0 ⇐⇒ (1.3.6) oder a senkrecht zu b wobei: a · a = 0 ⇐⇒ a = 0 (1.3.7) Falls a · b = 0 gilt, sagt man auch: a ist orthogonal zu b (0 ist orthogonal zu allen a). 18 1.3.1 Auswertung des Skalarprodukts über Komponenten Skalarprodukt der kartesischen Einheitsvektoren: 1 falls i = j ei · ej = 0 falls i 6= j (1.3.8) ⇐⇒ kartesische Einheitsvektoren sind per Konstruktion senkrecht aufeinander Betrachte nun Skalarprodukt von beliebigem Vektor a mit Einheitsvektoren −→ führt per Konstruktion auf die kartesischen Komponenten des Vektors a Vergewisserung über explizite Auswertung von cos(∢a, ei ): letztmalige Wiederholung der Projektion auf kartesische Achsen −→ wähle Winkel wie bei Kugelkoordinaten θ = Winkel zwischen a und e3 , d.h. z-Achse ϕ = Winkel zwischen Projektion von a auf x-y-Ebene und e1 , d.h. x-Achse a3 @ @ .. q ....... .. ... .... ........... @ @ @ @ 6 @ @ e3 .................... .... ... ... ... ... ... ... ... . |a| a θ e1 q .................. ............ a1 ... .. p e2 @ ϕ @@. ....................... ...................................................................... @ ......................... ............ .... ... |a| sin(θ)@..................... ... ... . ... . q ... @ .. . q .... ... @ ... .. @ .. q a2 .. ... .... ..... ........ ........... . −→ Skalarprodukt zwischen a und e3 trivial a · e3 = |a| |e3 | cos(θ) = q a21 + a22 + a23 cos(θ) = a3 19 (1.3.9) Skalarprodukt zwischen a und e1,2 , d.h. cos(∢a, e1,2 ), kann wieder über Zwischenprojektion auf die x-y-Ebene ausgewertet werden (vergleiche Abschnitt 1.1.3) −→ per Definition des cos gilt a1 a1 |a| sin(θ) = = cos(ϕ) sin(θ) |a| |a| sin(θ) |a| q a21 + a22 + a23 sin(θ) cos(ϕ) = a1 (1.3.10) = |a| |e1 | sin(θ) cos(ϕ) = | {z } = cos(∢a, e1 ) q = |a| |e2 | sin(θ) sin(ϕ) = a21 + a22 + a23 sin(θ) sin(ϕ) = a2 (1.3.11) | {z } = cos(∢a, e2 ) cos(∢a, e1 ) = =⇒ a · e1 a · e2 −→ Skalarprodukt von a mit ei führt per Konstruktion gerade auf kartesische Komponente ai Betrachte Skalarprodukt von Summenvektor a + b mit Einheitsvektor (a + b) · ei = ai + bi = (a · ei ) + (b · ei ) ei -Richtung ist beliebig =⇒ Distributivität des Skalarprodukts: (a + b) · c = a · c + b · c (Distributivität) (1.3.12) Distributivität erlaubt Verwendung der Basisentwicklung beim Auswerten des Skalarprodukts a·b = a· 3 X bi ei i=1 ! = 3 X i=1 bi (a · ei ) = 3 X ai bi (1.3.13) i=1 Projektion des Vektors auf sich selbst führt auf Länge des Vektors 2 a·a = a = 1.3.2 3 X i=1 a2i = |a|2 (1.3.14) Formalisierung Formalisierung von (1.3.8) mittels Kronecker Symbol δij ei · ej δij = δij 1 falls i = j := 0 falls i = 6 j 20 (1.3.15) (1.3.16) Man schreibt dann a·b = = 3 X i=1 3 X i,j=1 = ai ei 3 X ! · 3 X j=1 bj ej ! ai bj (ei · ej ) ai bj δij i,j=1 = 3 X ai bi (1.3.17) i=1 δij lässt Summe über j auf den Beitrag mit j = i zusammenbrechen, da δij = 0 für i 6= j. 21 1.4 Vektorprodukt (Äußeres Produkt) Definition: Das Vektorprodukt a × b von zwei Vektoren a und b ist der Vektor mit dem Betrag |a × b| = |a| |b| sin(∢a, b) , (1.4.1) der sowohl auf a als auch auf b senkrecht steht, 0 = (a × b) · a = (a × b) · b , (1.4.2) und dessen Richtung so gewählt ist, dass a, b und a × b ein rechtshändiges System bilden: 6 a×b : b q φ = ∢a, b P PP PP PP PP PP q q a Konsequenzen aus Definition: a×b = −b×a a×b = 0 ⇐⇒ (1.4.3) entweder |a| = 0 oder |b| = 0 oder |a| = |b| = 0 (1.4.4) oder a parallel oder antiparallel zu b (αa) × b = a × (αb) = α(a × b) (1.4.5) Geometrische Interpretation: |a × b| = Fläche des von a, b definierten Parallelogramms a×b = Normalenvektor senkrecht zu der von a, b aufgespannten Fläche |a × b| 22 (1.4.6) (1.4.7) * φ |b| sin(φ) φ b a - c · (a × b) = Volumen des von a, b, c aufgespannten Parallelepipeds (1.4.8) (wird auch Spatprodukt genannt) 6 a×b P P P P P P P P P P P P P P c P P : P P P P b P P P P P PP φ PP PP PP PP q a P 1.4.1 Auswertung des Vektorprodukts über Komponenten Vektorprodukt der kartesischen Einheitsvektoren: ek falls (i, j, k) = (1, 2, 3) oder (2, 3, 1) oder (3, 1, 2) ei × ej = − ek falls (i, j, k) = (1, 3, 2) oder (3, 2, 1) oder (2, 1, 3) 0 falls i = j (1.4.9) Betrachte nun Vektorprodukt von beliebigem Vektor a und Einheitsvektor (hier e3 gewählt) q |a × e3 | = |a| sin(θ) = a21 + a22 + a23 sin(θ) (1.4.10) wobei: θ = Winkel zwischen a und e3 , d.h. z-Achse 23 a3 @ @ @ @ @ @ 6 |a| e3 @ @ a θ e1 a1 p e2 @ @ @ |a| sin(θ)@@ @ @ @ a2 Betrachte alternativ getrenntes Vektorprodukt der Komponenten von a mit Einheitsvektor (a1 e1 ) × e3 = −a1 e2 (a2 e2 ) × e3 = +a2 e1 =⇒ (a3 e3 ) × e3 = 0 3 X ai (ei × e3 ) = a2 e1 − a1 e2 (1.4.11) i=1 3 q q X 2 2 ai (ei × e3 ) = a1 + a2 = a21 + a22 + a23 sin(θ) (Projektion) (1.4.12) i=1 =⇒ |a × e3 | = |a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )| (1.4.13) Neben Betrag ist auch Richtung identisch: Beweise dazu Orthogonalität zu a und e3 [a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )] · e3 = (a2 e1 − a1 e2 ) · e3 = 0 [a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )] · a = (a2 e1 − a1 e2 ) · (a1 e1 ) +(a2 e1 − a1 e2 ) · (a2 e2 ) +(a2 e1 − a1 e2 ) · (a3 e3 ) = 0 24 Schließlich ist auch Vorzeichen der Richtung identisch, wie aus obigem Bild mit a1 , a2 , a3 > 0 klar wird. =⇒ Vektorprodukt kann komponentenweise ausgeführt werden a 2 3 X ai (ei × e3 ) = −a1 a × e3 = i=1 0 e3 -Richtung ist aber in keiner Weise ausgezeichnet: allgemeines Resultat a b − a3 b2 3 2 3 X a×b = ai bj (ei × ej ) = a3 b1 − a1 b3 i,j=1 a1 b2 − a2 b1 (1.4.14) (1.4.15) Direkte Konsequenz: Distributivität des Vektorprodukts — Beweis über (1.4.15) a × (b + c) = a × b + a × c 1.4.2 (1.4.16) Formalisierung Formalisierung von (1.4.9) mittels Levi-Civita Symbol ǫijk (auch total antisymmetrischer Tensor 3. Stufe genannt) ei × ej = ǫijk = 3 X ǫijk ek (1.4.17) k=1 +1 if i, j, k = zyklische Permutation von 1,2,3 −1 if i, j, k = antizyklische Permutation von 1,2,3 (1.4.18) 0 sonst ǫijk = ǫkij = −ǫikj (1.4.19) In anderen Worten: ǫijk ist k-te kartesische Komponente des Vektors ei × ej ! 3 3 3 X X X ǫijl (el · ek ) = ǫijl δlk = ǫijk (1.4.20) (ei × ej ) · ek = ǫijl el · ek = l=1 l=1 25 l=1 −→ erlaubt formale Schreibweise für allgemeines Vektorprodukt a×b = = 3 X i,j ai bj ei × ej 3 X ǫijk ai bj ek ai , bj = kartesische Komponenten von a,b (1.4.21) i,j,k=1 (a × b)k = (a × b) · ek 3 X = ǫijk ai bj (kartesische Komponente k von a × b) i,j=1 Regel für die Auswertung von Produkten von Levi-Civita Symbolen: 3 X k=1 ǫijk ǫklm = δil δjm − δim δjl (1.4.22) (Beweis: Übung) 1.4.3 Identitäten Durch direktes Auswerten in kartesischen Komponenten lassen sich folgende Relationen beweisen: −→ einfacher bei Verwendung von (1.4.22) a · (b × c) = b · (c × a) = c · (a × b) (Zyklizität) a × (b × c) = (a · c) b − (a · b) c (1.4.23) (1.4.24) (a × b) · (c × d) = (a · c)(b · d) − (a · d)(b · c) (1.4.25) 0 = a × (b × c) + b × (c × a) + c × (a × b) (Jacobi Identität) (1.4.26) Zur Übung: Weise (1.4.24) nach −→ Startpunkt ist (1.4.21) für b × c a × (b × c) = a × = 3 X i,j,k=1 26 3 X i,j,k=1 ǫijk bi cj ek ! ǫijk bi cj (a × ek ) −→ verwende (1.4.21) für a × ek a × (b × c) = 3 X 3 X ǫijk bi cj ǫlmn al δkm en l,m,n=1 i,j,k=1 ! δkm = kartesische Komponente m des Einheitsvektors ek −→ werte nun erst δkm aus −→ Summe über m bricht auf Term mit m = k zusammen a × (b × c) = 3 X ǫijk bi cj i,j,k=1 ǫlkn al en l,n=1 3 X = 3 X bi cj al en i,j,l,n=1 3 X ǫijk ǫlkn k=1 ! ! −→ Antisymmetrie (1.4.19) und Identität (1.4.22) können verwendet werden ! 3 3 X X a × (b × c) = − bi cj al en ǫijk ǫkln i,j,l,n=1 = − 3 X i,j,l,n=1 k=1 bi cj al en (δil δjn − δin δjl ) −→ werte nun Summe über n aus a × (b × c) = − = − 3 X i,j,l=1 3 X i,j=1 (bi cj al ej δil − bi cj al ei δjl ) (bi cj ai ej − bi cj aj ei ) −→ schließlich lassen sich Skalarprodukte und Basisdarstellungen identifizieren a × (b × c) = − (b · a) c + (c · a) b −→ Identität (1.4.21) nachgewiesen 27 Kapitel 2 Grundbegriffe der Infinitesimalrechnung Zur Vorbereitung der Diskussion von Differential- und Integralrechnung: Stelle einige grundlegende Begriffe der Mathematik in knapper Form zusammen −→ zumeist Wiederholung von Schulstoff −→ dient auch der Einführung der im weiteren verwendeten Notation und Sprache 2.1 2.1.1 Mengen Elementare Definitionen, Notation Definition: Eine Menge M ist eine Zusammenfassung von wohlbestimmten und wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens, Elemente von M genannt, zu einem Ganzen (naiver Grundbegriff nach Cantor). Bemerkung: Kein Element kann in M mehrfach vorkommen: Per Definition sind die Elemente wohlunterschieden. Notation: (i) x ∈ M ≡ x ist Element von M (ii) x ∈ / M ≡ x ist nicht Element von M 28 (iii) M = {x, y, z, . . .} ≡ aufzählende Charakterisierung, d.h. die Elemente werden explizit aufgeführt (vollständige Aufzählung nur möglich bei endlich vielen Elementen) (iv) M = {x | x hat die Eigenschaft . . . } ≡ beschreibende Charakterisierung, d.h. die Elemente werden über ihre Eigenschaften bzw über ihre Zugehörigkeit zu anderen Mengen definiert Beispiele: relevant für Physik sind insbesondere (i) N = {1, 2, 3, . . .} ≡ natürliche Zahlen −→ manchmal wird auch die Null eingeschlossen (keine einheitliche Handhabung) (ii) Z = {0, ±1, ±2, . . .} ≡ ganze Zahlen −→ Notation: i, j, k, l, m, n sind üblicherweise für ganze Zahlen reserviert, öfters werden aber auch α, β, γ, . . . verwendet (iii) Q = { m | m, n ∈ Z, n 6= 0} n ≡ rationale Zahlen (iv) R ≡ reelle Zahlen −→ keine systematische Einführung über Körperaxiome, Anordnungseigenschaft etc an dieser Stelle — siehe Mathematik für Physiker −→ Notation: x, y, z, . . ., aber auch α, β, γ, . . . (v) R+ := {x | x ∈ R und x > 0} R+ 0 := {x | x ∈ R und x ≥ 0} ≡ positive reelle Zahlen ≡ positive reelle Zahlen einschließlich der Null −→ Notation nicht einheitlich (vi) C ≡ komplexe Zahlen (siehe später) −→ Notation: z, u, w, . . . (z = x + iy) (vii) R2 ≡ Menge der Punkte in der Ebene allgemeiner: Rn ≡ Menge der n-Tupel von reellen Zahlen −→ Notation: r, v, . . . 29 Veranschaulichung: durch (Venn-) Diagramme (i) Reelle Zahlen zwischen a und b (Intervall auf der reellen Achse von a bis b) - a b (ii) Inneres des Kreis mit Radius R in der Ebene '$ M &% (Der Charakter der Ränder bleibt in beiden Beispielen noch zu spezifizieren) Definition: Eine Menge M1 heißt Teilmenge der Menge M2 , geschrieben M1 ⊂ M2 , falls jedes Element x aus M1 auch Element von M2 ist. −→ Definition formalisiert: ∀ x ∈ M1 gilt x ∈ M2 (∀ = für alle) Bemerkung: M1 ⊂ M2 erlaubt M1 = M2 Beispiele: (i) Inklusionen zwischen elementaren Zahlenmengen N ⊂ Z ⊂ Q ⊂ R (ii) Intervalle auf reeller Achse = Menge aller reeller Zahlen zwischen zwei Grenzen 2.1.2 [a, b] = {x ∈ R | a ≤ x ≤ b} =⇒ [a, b] ⊂ R (a, b] = {x ∈ R | a < x ≤ b} =⇒ (a, b] ⊂ R Mengen von reellen Zahlen: Topologische Eigenschaften Aufgrund der besonderen Eigenschaften der reellen Zahlen, wie etwa der Möglichkeit, sie nach ihrer Größe anzuordnen, lassen sich Mengen von reellen Zahlen über eine Reihe von Begriffen im Detail klassifizieren. Diese Begriffe dienen insbesondere der Charakterisierung 30 von “Rändern” von Mengen, auf die man bei der Differential- und Integralrechnung angewiesen ist. In den nachfolgenden Definitionen sind alle auftretenden Mengen stets als Teilmengen von R, M ⊂ R, und alle Elemente etc als Elemente von R zu verstehen. Definition: Eine Menge M heißt beschränkt, falls ein S existiert, so dass |x| ≤ S ∀x∈M. Beispiel: Intervalle [a, b], (a, b] beschränkt, solange a, b < ∞ Definition: Eine Menge M heißt von unten beschränkt, falls ein S existiert, so dass S≤x ∀x∈M. Falls eine Menge von unten beschränkt ist, nennt man das größte S mit S ≤ x ∀ x ∈ M das Infimum von M (Infimum = größte untere Schranke). Eine Menge M heißt von oben beschränkt, falls ein S existiert, so dass x≤S ∀x∈M. Falls eine Menge von oben beschränkt ist, nennt man das kleinste S mit x ≤ S ∀ x ∈ M das Supremum von M (Supremum = kleinste obere Schranke ≡ Maximum, das selbst nicht angenommen zu werden braucht). Beispiel: Die Intervalle [a, b] und (a, b] (a, b < ∞) haben beide das Infimum a und das Supremum b. Das Beispiel zeigt, dass Infimum und Supremum nicht zur Menge gehören müssen. Definition: Eine Menge M ⊂ R heißt offen, falls für jedes x0 ∈ M ein ǫ > 0 existiert, so dass alle x ∈ R mit |x − x0 | < ǫ ebenfalls Elemente von M sind. Beachte: ǫ darf beliebig klein sein, aber nicht verschwinden. 31 Beispiele: (i) Intervall (a, b) offen, weil auch bei einem Element x, das nur infinitesimal von a bzw b entfernt ist, immer noch ein ebenfalls infinitesimales ǫ gefunden werden kann, das noch kleiner ist als der Abstand von x zum Intervallrand. (ii) Intervall (a, b] nicht offen, weil für x0 = b alle x aus der Umgebung |x − x0 | < ǫ mit x > x0 nicht in (a, b] enthalten sind, unabhängig davon, wie klein ǫ gewählt wird. Definition: Eine offene Menge N ⊂ M heißt offene Umgebung des Punkts x0 ∈ M, falls x0 ∈ N gilt. Eine beliebige Menge N ⊂ M heißt Umgebung des Punkts x0 ∈ M, falls eine offene Umgebung D von x0 existiert mit D ⊂ N . Definition: Die Menge Uǫ (x0 ) := x x ∈ R; |x − x0 | < ǫ; ǫ > 0 (2.1.1) wird als ǫ-Umgebung von x0 bezeichnet (bzw schlicht als Umgebung). Definition: Ein Punkt x0 wird Häufungspunkt der Menge M genannt, falls es zu beliebig vorgegebenem ǫ > 0 mindestens ein x ∈ M mit x 6= x0 gibt, so dass |x − x0 | < ǫ gilt, d.h. falls es in jeder Umgebung von x0 mindestens ein x mit x 6= x0 gibt. Alternativ: Ein Punkt x0 wird Häufungspunkt der Menge M genannt, falls in jeder Umgebung von x0 unendlich viele x ∈ M liegen. Beispiel: Alle Zahlen aus [a, b] sind Häufungspunkte von (a, b). Definition: Eine Menge M heißt abgeschlossen, falls alle ihre Häufungspunkte ebenfalls Elemente von M sind. Beispiele: (i) Intervall (a, b] nicht abgeschlossen, weil die Zahlenfolge a + 1/n, n = 1, 2, 3, . . . (die selbst ganz in (a, b] liegt), mit wachsendem n gegen den Rand a läuft, d.h. a ist HP der Folge. a selbst ist aber nicht in (a, b] eingeschlossen. 32 (ii) Intervall [a, b] abgeschlossen, weil keine Zahlenfolge konstruiert werden kann, deren Glieder zwar alle innerhalb von [a, b] liegen, deren Grenzwert aber außerhalb von [a, b] liegt. Definition: Ein Punkt x ∈ M heißt Randpunkt der Teilmenge N ⊂ M, falls in jeder beliebigen Umgebung von x sowohl Punkte aus N als auch mindestens ein y ∈ M mit y ∈ /N zu finden ist. Beispiel: x = b ist Randpunkt sowohl von (a, b] als auch von (a, b). Definition: Die Menge aller Randpunkte von N ⊂ M heißt Rand von N , ∂N . Definition: Unter dem Abschluss M der Menge M versteht man die Menge M ∪ ∂M, M := M ∪ ∂M = M ∪ Menge aller Häufungspunkte von M Beispiel: Der Abschluss I des offenen Intervalls I = (a, b) von reellen Zahlen ist gerade das abgeschlossene Intervall I = [a, b]. Bemerkungen: (i) Die in diesem Abschnitt eingeführten Begriffe sind alle auch auf Mengen von komplexen Zahlen sowie mehrdimensionalen reellen Mengen aus dem Rn anwendbar, bis auf das Infimum und das Supremum, die explizit auf der Anordnungseigenschaft der gewöhnlichen reellen Zahlen beruhen. (ii) Manche dieser (und einige ähnliche) Begriffe sind zwar trivial im Fall von Untermengen von R, aber nicht mehr ganz so trivial im Fall von C und mehrdimensionalen Räumen. 2.2 Abbildungen Definition: Eine Vorschrift A, die jedem Element x ∈ D(A) ⊂ M1 eindeutig ein Element y ∈ B(A) ⊂ M2 zuordnet, heißt Abbildung aus M1 in M2 , geschrieben A : M1 −→ M2 . 33 Dabei nennt man D(A) den Definitionsbereich von A und B(A) = y y = A(x); x ∈ D(A) die Bildmenge oder den Wertebereich von A. Veranschaulichung: ........................................................... ......... ............... ....... .......... ...... ....... ................................................................... ...... ..... .............. ........... . . . . . . . . . .... ........ ... ..... . . . . ..... . . . . . . ...... .. ... . .... . . . . . . . . . ..... .... .. .... . . . . . . 2 . . ..... ... . . ... . . . . ... . . .... 1 .. . . . . ... . . . . .... ... ... .. .... . . . ... . .... .. . . . ... ... . . ... . ... ... . . . . . . . . . . . . . . . . . . ... . . . . . . ......... ... ... . ....... . . . . . . . . ... . . . . . . . . . . ... . ... ..... ............ .................... ............................. . . .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. ... . . . . . . . . . . . . ...................................... ..... ... ............ . . . . . . . . . .. . . . . . ... . . .. . ... . . . . . . . . . ... . . ... . .. . . . . . . . .. . .. ................... . . ... . . . . . . . . ... . . . . . . . . ............ .. .. . . ... ................... . . .. . .. . . . . .. . . .. . .. . . .. . . .. . . . . . . . . . . . . . .. . ... .. . .. . .. . . . . . . . . . . . . . . . . . . . ... .. ... ... .. ... .. .. .. ... .. .. ... ... .. ... .. ... ... ... .. .. ... .. ... .... ... .. . .. ... .. .... ... ..... .. .. .... . . . . . . . . . . . . . . . . . . . . . . .... ... ....... ... .................................. ........... ............................ ... ... ... ... ........... .... ... ... ... ..... ... .. ... ...... .. ... .. . ...... . . .... ...... . ... .... ...... ... ... ......... .... ... .... ............ .... ... .... ............ .... .... .... . . . ............. . . . . . . . . . . ...... ... ......................... ...... ........ .......................................................... ....... ......... .............. ......... ........................................................... M M A zsy s D(A) B(A) x Definitionen: 1. Eine Abbildung A heißt surjektiv, falls B(A) = M2 gilt. −→ durch Einschränkung von M2 kann stets Surjektivität erzeugt werden Beispiele: Elementare Funktionen (i) A(x) = x − 5: A : R −→ R ist wegen D(A) = B(A) = R surjektiv. (ii) A(x) = x2 : A : R −→ R ist wegen B(A) = R+ 0 nicht surjektiv. + (iii) A(x) = x2 : A : R −→ R+ 0 ist dagegen wegen B(A) = R0 surjektiv. 2. Eine Abbildung A heißt injektiv (eineindeutig), falls für alle x1 , x2 ∈ D(A) aus A(x1 ) = A(x2 ) gerade x1 = x2 folgt, A(x1 ) = A(x2 ) =⇒ x1 = x2 . −→ zwei verschiedene x werden auf zwei verschiedene A(x) abgebildet x1 6= x2 =⇒ A(x1 ) 6= A(x2 ) . Aussagenlogik: Falls aus A gerade B folgt, folgt aus Nicht-B gerade Nicht-A. 34 Veranschaulichung: x s x s zsA(x x s x s .......................... ......... ..... ................................................... ..... ...... ............ ...... .... .... ................................................................................................ .... ... ........ . ............ ... . . . . . ... . . . . . . . . . . .. . . .... . ... .. ..... 2 2 .. .. .. ... ... .. .. ... . .. . . .. . . . . . . ... ................. .... ... . . . . ............................ ... 1 .. ... ....................................................................................... 1 .......... ... .... .... .... ..... . .... .... ........ .... . . ..... . ................................. . ........... ............... ........... .......................... ......... ..... ............................................. ..... ...... ................ ...... .... ....... .... .... .... ... ... ................................................................. . . ... . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .... . . . ... .................... . ....... 2 .. .. ... ............ .. .. .. . ... ... .......... . .. . .. 1 . . . . . . . . . . . ... . ............................. . . . . . ... . . . . . . . . . . . . . . . . . . . . . . ... ... . ............................................... 1 ... .. ... ... ... ... .... 2 .......... .... .... ..... .... .... ........ .... . . . ................................. ...... . ................................... z :sA(x ) = A(x ) :sA(x ) ) A injektiv A nicht injektiv Beispiele: Elementare Funktionen (i) A(x) = x − 5: A : R −→ R ist injektiv. (ii) A(x) = x2 : A : R −→ R ist wegen A(x) = A(−x) nicht injektiv. + (iii) A(x) = x2 : A : R+ 0 −→ R0 ist dagegen injektiv. 3. Eine Abbildung, die sowohl injektiv als auch surjektiv ist, nennt man bijektiv. 4. Falls A : M1 −→ M2 bijektiv ist, definiert für beliebiges y ∈ M2 A−1 (y) := x mit y = A(x) die Umkehrabbildung A−1 : M2 −→ M1 . Dabei ist D(A−1 ) = B(A) = M2 B(A−1 ) = D(A). Beachte: A−1 ist hier nicht im Sinne eines Bruches 1/A gemeint, sondern im Sinn von A rückgängig machen. Beispiele: Elementare Funktionen (i) A(x) = x − 5, D(A) = B(A) = R =⇒ A−1 (y) = y + 5, D(A−1 ) = B(A−1 ) = R (ii) A(x) = x2 mit D(A) = B(A) = R+ 0 √ =⇒ A−1 (y) = y, D(A−1 ) = B(A−1 ) = R+ 0 5. Für zwei gegebene Abbildungen A : M1 −→ M2 und B : M2 −→ M3 mit definiert (A ◦ B)(x) := B(A(x)) 35 ∀ x ∈ D(A) B(A) ⊂ D(B) die Hintereinanderschaltung (auch Produkt genannt) von A und B, A ◦ B : M1 −→ M3 Beachte: Produkt ist hier nicht(!) im Sinne der gewöhnlichen Multiplikation von Zahlen gemeint, sondern im Sinne von nacheinander ausführen. Beispiel: A(x) = x2 , B(y) = ey , D(A) = R, B(A) = R+ 0 (positive reelle Zahlen einschließlich der Null), d.h. B(A) ⊂ D(B) = R =⇒ (A ◦ B)(x) = ex 2 6. Die Hintereinanderschaltung von A und A−1 ergibt gerade die Identität, A−1 (A(x)) = x Beispiel: A(x) = x2 , A−1 (y) = =⇒ A−1 (A(x)) = x 2.3 √ y ∀ x ∈ D(A) mit D(A) = B(A) = D(A−1 ) = B(A−1 ) = R+ 0 ∀ x ∈ D(A) Endliche Summen, Bernoulli’sche Ungleichung Für die praktische Arbeit sind zwei Resultate für elementare Summenformeln von einiger Bedeutung. Für die einfachste Summe über natürliche Zahlen erhält man n X k = 1 + 2 + 3 + ...+ n = k=1 n(n + 1) 2 n = 1, 2, 3, . . . . (2.3.1) Beweis über vollständige Induktion: Bei der Beweistechnik der vollständigen Induktion, die auch in der Physik gelegentlich zum Einsatz kommt, überzeugt man sich zunächst, dass eine behauptete Formel, die von einem Index n ∈ N abhängt, für den niedrigsten relevanten Wert des Index korrekt ist, hier n=1: n=2: 1 X k=1 2 X k=1= 1(1 + 1) 2 k=3= 2(2 + 1) . 2 k=1 Dies bezeichnet man als die Induktionsbasis. Wenn es nun gelingt, unter Verwendung der behaupteten Formel für den Indexwert n die Richtigkeit derselben Formel für den Indexwert 36 n + 1 zu beweisen, kann man, ausgehend von der Induktionsbasis, die Richtigkeit der Formel Schritt für Schritt für jeden beliebigen Indexwert n ∈ N zeigen. Im Fall von Gl.(2.3.1) ist dieser Induktionsschluss sehr einfach durchzuführen. Man betrachtet dazu die Summe (2.3.1) für den Indexwert n + 1 und zerlegt diese in zwei Teile, n+1 X n X k = k + (n + 1) . k=1 k=1 Nun kann (2.3.1) für den ersten Term auf der rechten Seite verwendet, werden, denn wir hatten ja vorausgesetzt, dass (2.3.1) bis zum Indexwert n bereits bewiesen wurde, n+1 X k = k=1 n(n + 1) (n + 1)(n + 2) + (n + 1) = . 2 2 Damit ist gezeigt, dass (2.3.1) auch für den Indexwert n + 1 gilt, und damit für alle n. Die zweite wichtige Summenformel ist die Binomialformel, n X (a + b)n = n k k=0 Dabei bezeichnet n k ! ! ak bn−k n = 0, 1, 2, . . . . (2.3.2) den Binomialkoeffizienten, ! n k n! , k! (n − k)! := (2.3.3) der seinerseits über die Fakultät definiert ist, n! := 1 · 2 · 3 · · · n ≡ n Y i ; 0! := 1 (Konvention) . i=1 Beweis: wieder über vollständige Induktion Induktionsbasis: n=0: 0 0 (a + b) = 1 = 0 n=1: (a + b)1 = 1 0 ! ! a0 b0 = a0 b1 + 1 1 37 0! 0! (0 − 0)! ! a1 b0 = 1! 1! b+ a. 0! (1 − 0)! 1! (1 − 1)! (2.3.4) Induktionsschluss: (a + b)n+1 = (a + b)(a + b)n n X n! = (a + b) ak bn−k k! (n − k)! k=0 = = n X k=0 n−1 X k=0 n X n! n! k+1 n−k a b + ak bn−k+1 k! (n − k)! k! (n − k)! k=0 n X n! n! ak+1 bn−k + an+1 + bn+1 + ak bn−k+1 . k! (n − k)! k! (n − k)! k=1 Nun kann im ersten Summanden der Summationsindex umbenannt werden: Der Summationsindex läuft ja schlicht eine Reihe von natürlichen Zahlen durch, d.h. er steht als Platzhalter für diese Zahlen. Diesen Platzhalter kann man also jederzeit anders ausdrücken, solange exakt die gleichen natürlichen Zahlen durchgegangen werden. Hier erweist sich die Form l = k + 1 als besonders geeignet. Der Index l läuft dann von 1 (entsprechend dem niedrigsten Wert für k, nämlich 0) bis n (entsprechend k = n − 1), (a + b) n+1 = n X l=1 n! al bn−(l−1) + an+1 (l − 1)! (n − (l − 1))! n+1 +b + n X k=1 n! ak bn−k+1 . k! (n − k)! Der Name des Summationsindex ist aber völlig unerheblich, man kann statt l jetzt einfach wieder k schreiben und die beiden Summen zusammenfassen (die Operation l = k+1 plus die Umbenennung k = l entsprechen zusammen gerade dem Verschieben des Summationsindex k um 1, d.h. der Operation k → k − 1 ⇔ kalt = kneu − 1), (a + b) n+1 n+1 = a + n X k=1 = an+1 + = an+1 + n X k=1 n X k=1 = n+1 X k=0 n! n! ak bn+1−k + bn+1 + (k − 1)! (n + 1 − k)! k! (n − k)! n! [k + (n + 1 − k)] ak bn−k+1 + bn+1 k! (n + 1 − k)! (n + 1)! ak bn−k+1 + bn+1 k! (n + 1 − k)! (n + 1)! ak bn−k+1 . k! (n + 1 − k)! Damit ist die Binomialformel (2.3.2) für alle n bewiesen. 38 Eine weitere wichtige Anwendung der vollständigen Induktion ist der Beweis der Bernoulli’schen Ungleichung, (1 + x)n ≥ 1 + nx ∀ x ≥ −1, n = 0, 1, 2, . . . . (2.3.5) Die Bernoulli’sche Ungleichung stellt eine wichtige Abschätzung für die Führung von Beweisen und die Bildung von Grenzwerten bereit — Beispiele folgen später. Beweis: Offensichtlich gilt diese Ungleichung für n = 0, 1, 2 für beliebiges x ∈ R, (1 + x)0 ≥ 1 (1 + x)1 ≥ 1 + x (1 + x)2 = 1 + 2x + x2 ≥ 1 + 2x , so dass die Induktionsbasis gegeben ist. Unter der Annahme (1 + x)n ≥ (1 + nx) für x ≥ −1 betrachtet man dann (1 + x)n+1 . Sofern x ≥ −1 gilt, erhält man durch Verwendung der Induktionsannahme1 , (1 + x)n+1 = (1 + x) (1 + x)n ≥ (1 + x) (1 + nx) = 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x , so dass der Induktionschluss ebenfalls möglich ist. Man beachte, dass die Bernoulli’sche Abschätzung für beliebige x ≥ −1 gilt, also etwa auch für x = y/n, y n 1+ ≥ 1+y n ∀ y ≥ −n . (2.3.6) Für beliebig großes, negatives y findet man aber stets ein n, so dass (2.3.6) erfüllt ist. 2.4 Folgen Definition: Unter einer (reellen) Folge versteht man eine Zuordnung (präziser: Abbildung) a: N → R 1 (sprich: Abbildung von N in R) , Aus a > b folgt α a > α b nur für α > 0. 39 d.h. eine Vorschrift, die jedem n ∈ N ein a(n) ≡ an ∈ R zuordnet: n 0 1 2 3 ··· definiert Folge ↓ ↓ ↓ ↓ an a0 a1 a2 a3 · · · Bemerkungen: (i) Der Index 0, d.h. a0 , wird häufig weggelassen: Der Startindex ist irrelevant, solange abzählbar unendlich viele Glieder durchgegangen werden. (ii) Die gesamte Folge, d.h. die Menge aller an , wird häufig über (an ) charakterisiert. Beispiele: 1 1 1 1 (i) 1, , , , . . . =⇒ allgemeine Form: , n = 1, 2, 3, . . . 2 3 4 n 1 1 1 (−1)n+1 (ii) 1, − , , − , . . . =⇒ allgemeine Form: , n = 1, 2, 3, . . . 2 3 4 n (iii) 2, 4, 8, 16, . . . =⇒ allgemeine Form: 2n , n = 1, 2, 3, . . . 1 2 3 4 1 n (iv) 0, , − , , − , . . . =⇒ allgemeine Form: (−1) 1 − , n = 1, 2, 3, . . . 2 3 4 5 n (v) 1, x, x2 , x3 , . . . mit |x| < 1 =⇒ allgemeine Form: xn , n = 0, 1, 2, 3, . . . (vi) 1, x, x2 x3 x4 xn , , , . . . =⇒ allgemeine Form: , n = 0, 1, 2, 3, . . . 2 6 24 n! Graphische Veranschaulichung der Beispielfolgen: an 1 6 +er × +r × r e + × 1 2 ··· e r r e r r e r + + + + + e e e r e r e r e × × × × 40 1 n (−1)n+1 e = n × × × × r × r e = × = (−1) n += 1 n! n 1 1− n Bemerkung: häufig wird rekursive Definition von Folgen verwendet, etwa bei Fakultät an = n an−1 mit a0 = 1 =⇒ a1 = 1 · a0 = 1 a2 = 2 · a1 = 2 · 1 a3 = 3 · a2 = 3 · 2 = 6 .. . Frage: Was ist an Folgen interessant? −→ Verhalten der Glieder an für große n −→ stelle Instrumentarium zur Diskussion zusammen −→ Folgen bilden Grundbausteine zur Diskussion von Reihen, die für Physik von fundamentaler Bedeutung sind Definition: Eine Folge (an ) heißt beschränkt, falls ein S ∈ R existiert, so dass |an | < S ∀ n = 0, 1, 2, . . . . Sie heißt nach unten beschränkt, falls ein S ∈ R existiert, so dass an > S ∀ n = 0, 1, 2, . . . , nach oben beschränkt, falls an < S ∀ n = 0, 1, 2, . . . . Beispiele: Folgen von oben (i) offensichtlich beschränkt (ii) offensichtlich beschränkt (iii) nach unten beschränkt, aber nicht beschränkt (iv) offensichtlich beschränkt (v) beschränkt wegen |x| < 1: |an+1 | < |an | (vi) beschränkt (siehe unten bei Diskussion des Häufungspunkts) 41 (2.4.1) Definition: Ein Punkt x0 ∈ R heißt Häufungspunkt einer Folge (an ), falls zu beliebig vorgegebenem ǫ > 0 und beliebigem n0 ∈ N stets ein n > n0 existiert, so dass |an − x0 | < ǫ , d.h. falls in jeder beliebigen Umgebung von x0 unendlich viele an liegen. Beachte: Diese Anforderung bedeutet nicht unbedingt, dass von einem gewissen Index an alle an in der Umgebung liegen müssen! Beispiele: von oben (i) ein HP: x0 = 0 an 1 6 r r + 92 0 − 29 1 2 r 6 ǫ ? 6 ǫ ? r r r r r r r r r - n −→ ab n = 5 liegen alle Folgenglieder von 1/n innerhalb eines Streifens von ±ǫ, ǫ = 2/9 um die Null −→ falls ǫ kleiner gewählt wird, liegt der Schwellindex, jenseits dessen alle Folgenglieder in den Streifen ±ǫ fallen, entsprechend höher (ii) ein HP: x0 = 0 (iii) kein HP (iv) zwei HP: x0 = ±1 1 n 1 1 =⇒ |an + 1| = ungerade n: an = −1 + n n −→ sowohl für x0 = +1 als auch für x0 = −1 gibt es unendlich viele Folgenglieder, gerade n: an = 1 − 1 n =⇒ |an − 1| = die näher an x0 liegen als ǫ, nämlich alle geraden n mit n > 1/ǫ im Fall von x0 = +1 und alle ungeraden n mit n > 1/ǫ für x0 = −1 42 (v) ein HP: x0 = 0 Beweis: zu zeigen ist |xn | = |x|n < ǫ für ausreichend großes n −→ ist dann erfüllt, wenn ln (|x|n ) = n ln |x| < ln(ǫ) (beachte: ln(x) ist streng monoton: x1 < x2 ⇐⇒ ln(x1 ) < ln(x2 )) −→ Bedingung für HP erfüllt, sobald n > ln(ǫ) ln |x| (Vorzeichen der Ungleichung kehrt sich um, weil |x| < 1 und damit ln |x| < 0 gilt) (vi) ein HP: x0 = 0 Beweis: n0 sei die kleinste ganze Zahl, für die n0 > |x| gilt (n0 hängt allein von x ab, nicht aber von ǫ) −→ dann folgt für alle n > n0 und beliebiges, aber festes x n x x x x x x x = n n − 1 · · · n0 + 1 n0 · · · 2 n! 1 |{z} | | {z } {z } x x =: K < < < 1 n0 n0 −n0 n x x < K n n0 | {z } 0 =: K ′ N n x x < ǫ < ǫ für alle n > N mit =⇒ n0 n! K′ da |x/n0 | < 1, wird N für beliebiges x irgendwann erreicht Definition: Ein Punkt x0 ∈ R heißt Grenzwert einer Folge (an ), falls zu beliebig vorgegebenem ǫ > 0 stets ein n0 (ǫ, x0 ) existiert, so dass |an − x0 | < ǫ ∀ n > n0 (ǫ, x0 ) . Man schreibt dann x0 = lim an n→∞ oder auch 43 n→∞ an −→ x0 . Definition: Eine Folge, die einen Grenzwert besitzt, heißt konvergent. Eine nicht konvergente Folge heißt divergent. Beispiele: von oben (i) Grenzwert x0 = 0 (ii) Grenzwert x0 = 0 (iii) divergent: Eine konvergent Folge besitzt nur einen Häufungspunkt. (iv) divergent (v) Grenzwert x0 = 0 (vi) Grenzwert x0 = 0 Satz: Jede Folge, deren Glieder beschränkt und monoton fallend sind, |an | ≤ S an+1 ≤ an und ∀ n = 1, 2, . . . , ist konvergent. Das Gleiche gilt für monoton wachsende an . an +S 6 r 1 −S r 2 r r r r r r r r an ≥ an+1 r n r Bemerkung: Offensichtlich reicht es, wenn die Folge ab einem gewissen Index n0 monoton fallend bzw wachsend ist. 44 Eigenschaften konvergenter Folgen: Falls die Folgen (an ) und (bn ) beide konvergent sind, lim an = x0 und lim bn = y0 , gilt n→∞ n→∞ lim (an + bn ) = x0 + y0 (2.4.2) lim (an · bn ) = x0 · y0 an x0 lim = n→∞ bn y0 lim |an | = |x0 | (2.4.3) n→∞ n→∞ falls y0 6= 0 n→∞ (2.4.4) (2.4.5) −→ mit konvergenten Folgen kann man wie mit gewöhnlichen Zahlen rechnen Definition: Eine Folge (an ) heißt Cauchy-Folge, falls zu beliebig vorgegebenem ǫ > 0 ein n0 (ǫ) existiert, so dass |an − am | < ǫ −→ ∀ n, m > n0 (ǫ) . (2.4.6) die Folgenglieder müssen sich paarweise beliebig nahe kommen, wenn nur ihr Index groß genug ist Satz: Cauchy’sches Konvergenzkriterium Eine Folge (an ) ist genau dann konvergent, wenn sie Cauchy-Folge ist. 2.5 Reihen Definition: Für eine gegebene Folge (an ) nennt man ∞ X an = a0 + a1 + a2 + a3 + . . . (2.5.1) n=0 eine unendliche Reihe. Dabei bezeichnet man Sn := n X k=0 als die n-te Partialsumme der Reihe. 45 ak (2.5.2) Bemerkungen: (i) Der Name des Summationsindex ist völlig unerheblich, wie man an der Definition (2.5.1) sieht: ∞ X an = n=0 ∞ X ai i=0 (ii) Der Beginn der Reihe mit n = 0 ist reine Konvention, man kann genauso gut mit dem Index n = 1 starten (und tut das auch öfters). −→ wird im weiteren je nach Situation so oder so gewählt Definition: Die Reihe konvergiert. Man nennt ∞ X an heißt konvergent, wenn die Folge ihrer Partialsummen (Sn ) n=0 S = lim Sn = lim n→∞ n→∞ n X ak (2.5.3) k=0 den Wert der Reihe. Eine Reihe, die nicht konvergiert, heißt divergent. Beispiele: Reihen gebildet aus den Folgen von oben ∞ X 1 (harmonische Reihe) (i) n n=1 −→ divergent Beweis: betrachte Partialsumme für den Index 2n und fasse geeignete Gruppen von Termen zusammen n S2n = 2 X 1 k=1 k n=3 }| { z n=2 z }| { n=1 z }| { 1 1 1 1 1 1 1 1 1 1 = 1+ + + + + + +...+ i + + . . . + i+1 + . . . + n 2 2 } 2 |3 {z 4} |5 6 {z 7 8} |2 + 1 {z 1 1 1 1 1 1 >2· = >4· = > 2i · i+1 = 4 2 8 2 2 2 n > 1+ 2 =⇒ lim S2n = ∞ n→∞ 46 (ii) ∞ X (−1)n+1 n n=1 (alternierende harmonische Reihe) −→ konvergent Beweis: betrachte Teilfolge der Partialsummen für ungerades n S2n+1 = = = =⇒ S2n+1 > S2n+3 = 2n+1 X (−1)k+1 k k=1 1 1 1 1 1 1 1− + +...+ + − − 2 3 4 2n − 1 2n 2n + 1 {z } | {z } | {z } | 2−1 4−3 2n − (2n − 1) = = = 1·2 3·4 (2n − 1) · 2n 1 1 1 1 + + ...+ + 1·2 3·4 (2n − 1)2n 2n + 1 0 1 1 S2n+1 − + < S2n+1 2n + 2 2n + 3 −→ die Teilfolge der S2n+1 ist monoton fallend und beschränkt und damit konvergent −→ analoge Argumentation ist für Teilfolge S2n möglich −→ außerdem haben beide Teilfolgen denselben Grenzwert 1 = lim S2n lim S2n+1 = lim S2n + n→∞ n→∞ n→∞ 2n + 1 (iii) ∞ X 2n n=0 (iv) ∞ X n=1 (v) ∞ X n=0 (−1) −→ n divergent 1 1− n −→ divergent (die Sn bilden keine Cauchy-Folge) xn mit |x| < 1 (geometrische Reihe) −→ konvergent Beweis: betrachte Partialsumme Sn = n X xk k=1 = 1 + x + x2 + . . . + xn (1 + x + x2 + . . . + xn )(1 − x) = 1−x 1 − x + x(1 − x) + x2 (1 − x) + . . . + xn (1 − x) = 1−x 1 − xn+1 = 1−x 47 −→ Grenzwert der Sn klar ∞ X 1 1 − xn+1 = xn = lim n→∞ 1 − x 1−x n=0 wegen |x| < 1 (2.5.4) Frage: Was ist mit x = ±1? x = +1 : Sn = n X 1=n+1 k=0 lim Sn = ∞ n 1 falls n gerade X k = (−1) = 0 falls n ungerade k=0 =⇒ x = −1 : Sn =⇒ (vi) ∞ X xn n=0 n! (Exponentialreihe) −→ n→∞ Folge der Sn beschränkt, hat aber zwei HP’s konvergent (Beweis später) Satz: Cauchy’sches Konvergenzkriterium für Reihen Die Reihe ∞ X an ist genau n=0 dann konvergent, wenn zu beliebig vorgegebenem ǫ > 0 ein n0 (ǫ) existiert, so dass n X ∀ n, m > n0 (ǫ) (m < n oBdA) . a k < ǫ k=m+1 | {z } = Sn − Sm (2.5.5) Beweis: folgt unmittelbar aus dem Cauchy’schen Konvergenzkriterium für Folgen Satz: Leibniz’sches Konvergenzkriterium für Reihen Die Reihe ∞ X (−1)n an n=0 ist konvergent, falls für die Glieder an gilt an ≥ 0 ; an+1 ≤ an ∀ n > n0 sowie lim an = 0 . n→∞ (2.5.6) Beweis: analog zum Vorgehen bei Beispiel (ii) oben. Definition: Die Reihe konvergiert. −→ ∞ X an heißt absolut konvergent, wenn auch die Reihe n=0 ∞ X n=0 |an | jede absolut konvergente Reihe ist auch gewöhnlich konvergent, das Umgekehrte gilt natürlich nicht (siehe Bsp (ii) von oben) 48 Zentrale Frage: Wie kann man Konvergenz feststellen? Antwort: durch Überprüfung von drei Standard-Konvergenzkriterien (für Beweise siehe Mathematik für Physiker) Satz: Majoranten-Kriterium Falls die Reihe |an | ≤ bn ∀ n > n0 gilt, ist ∞ X ∞ X n=0 bn mit bn ≥ 0 ∀ n konvergent ist und an absolut konvergent. n=0 Satz: Wurzel-Kriterium Falls |an | 1/n ≤ x < 1 ∀ n > n0 gilt, ist gent. ∞ X an absolut konver- n=0 ∞ X an+1 ≤ x < 1 ∀ n > n0 gilt, ist Satz: Quotienten-Kriterium Falls an absolut an n=0 konvergent. In anderen Worten: lim sup |an |1/n = x < 1 n→∞ absolute Konvergenz der Reihe (2.5.7) an+1 =x<1 lim sup an n→∞ ↑ lim sup = limes superior = größter Häufungspunkt einer nach oben beschränkten Folge (falls Folge der an konvergent: lim sup = lim) lim sup |an |1/n = 1 n→∞ im allgemeinen keine Aussage an+1 ≥1 lim sup an n→∞ lim sup |an |1/n > 1 n→∞ Divergenz der Reihe an+1 >1 lim inf n→∞ an ↑ lim inf = limes inferior = kleinster Häufungspunkt einer nach unten beschränkten Folge (falls Folge der an konvergent: lim inf = lim) 49 6 an r r r r r r r lim sup r r 1 r r r r r lim inf - n 2 ··· Nebenbemerkung: Die Reihe an 1 2 falls n gerade n = 1 falls n ungerade n3 ist Beispiel für Problematik von lim supn→∞ | an+1 | > 1: Reihe konvergiert, lim sup ist ∞. an ∞ X | existiert: Die Reihe an ist dann absolut Die Situation ist einfacher, falls limn→∞ | an+1 an n=0 konvergent, falls an+1 =x<1 lim n→∞ an gilt, und divergent falls an+1 >1 lim n→∞ an ist. Für an+1 =1 lim n→∞ an lässt sich wieder keine Aussage treffen. Beispiele: Reihen gebildet aus den Folgen von oben (ii) Quotientenkriterium: ∞ X (−1)n+1 n=0 n : an+1 = lim n lim = 1 n→∞ n + 1 n→∞ an −→ nicht absolut konvergent (wie bereits klar) 50 (v) Quotientenkriterium: ∞ X n=0 n+1 an+1 = lim x = |x| < 1 lim n→∞ n→∞ an xn n x mit |x| < 1 : −→ absolut konvergent (wie bereits klar) (vi) Quotientenkriterium: ∞ X xn n=0 n! an+1 n! xn+1 |x| = lim = lim lim = 0 n n→∞ (n + 1)! n→∞ n + 1 n→∞ an x : −→ Exponentialreihe absolut konvergent Frage: Welche Vorteile hat die “bessere” Konvergenz bei absolut konvergent Reihen? Antwort: Bei absolut konvergenten Reihen ist eine beliebige Umordnung legitim Satz: Falls ∞ X an absolut konvergent ist, ist auch jede aus der Vertauschung der an n=0 resultierende Reihe absolut konvergent und hat denselben Reihenwert. −→ erlaubt starke Aussage zum Produkt von zwei absolut konvergenten Reihen −→ offensichtliche Frage beim Produkt: " # " # ∞ ∞ M N X X X X bn = lim am am lim bn M →∞ n=0 m=0 ? = = lim m=0 "M N XX M,N →∞ ∞ X ∞ X N →∞ am bn m=0 n=0 n=0 # am bn m=0 n=0 Satz: Umordnung von Reihen Falls für das doppelt unendliche Schema (Amn ) eine Schranke S ≥ 0 existiert, so dass für beliebiges N ∈ N N N X X m=0 n=0 ist, dann gilt: |Amn | < S (a) Jede Anordnung des Schemas in eine einfache Reihe ist absolut konvergent mit stets dem gleichen Reihenwert. Insbesondere gilt "∞ # " ∞ # " n # ∞ ∞ ∞ X X X X X X Amn = Amn = Ak,n−k m=0 n=0 n=0 m=0 51 n=0 k=0 (2.5.8) (b) Die aus nur einem der beiden Indices gebildeten Reihen ∞ X Amn und ∞ X Amn sind n=0 m=0 beide für jeden beliebigen Wert des jeweils anderen Index absolut konvergent. Konsequenz aus Umordnungssatz: Das Produkt zweier absolut konvergenter Reihen ∞ ∞ X X an und bn ist absolut konvergent, die Aufsummation der einzelnen Glieder des n=0 n=0 Produktreihe liefert in jeder beliebigen Abfolge stets denselben Reihenwert. Insbesondere gilt: " ∞ X m=0 am #" ∞ X bn n=0 # = ∞ X am bn = "∞ ∞ X X n=0 m,n=0 an bk k=0 # = " n ∞ X X n=0 ak bn−k k=0 # (2.5.9) Zur Entkopplung der beiden Summationen in (2.5.9) betrachte die Menge aller Paare an bk — in der Doppelreihe müssen letztlich alle Paare durchgegangen und aufsummiert werden −→ die Menge aller Paare an bk kann aber auf verschiedene Weise durchgegangen werden: b b 6k 6k 6 w 6 w 6 w 6 w 6 w 6 w 6 w 6 w 6 w a0 b2 a0 b1 a0 b0 6 w 6 w 6 w C C 6 w C C C 6 C 6 C w C w CWC a1 b1 CWC C C C6 C6 Cw Cw a1 b0 w 6 w C C C w C 6 C w CWC C C6 Cw C C w C w CWC C C Cw an - w w w w w @ S S@ R @ S@ a2 b3 w S@w w w w J @ S@ J@ R S @ @ R @ J@ S @ w J @w SS w w o @w A@ J @ S @ A@ @ R JJ @ ] @ RS @ R @ A @ J @ S @ w AAK @wJ w @w S @w @ A @J @S @ @ @ @ S @ RA RJ @ R @ R @ 6@ @A @J @S @ w @Aw @ Jw @ Sw @w a0 b0 an - a1 b0 (jeder Punkt entspricht einem Term an bk , der Pfad zeigt die Abfolge der Aufsummation an) Beispiel: Exponentialfunktion Betrachte die absolut konvergente Reihe exp(x) := ∞ X xn n=0 52 n! , (2.5.10) die als Exponentialfunktion bezeichnet wird. Für das Produkt dieser Reihe mit sich selbst gilt gemäß (2.5.9) ∞ ∞ ∞ X n X X xk y n−k xm X y n = m! n=0 n! k! (n − k)! m=0 n=0 k=0 Die rechte Seite kann nun über den Binomialkoeffizienten (2.3.3) ausgedrückt werden ∞ ∞ ∞ n X X 1 X xm X y n = m! n=0 n! n! k=0 n=0 m=0 | n k ! xk y n−k {z = (x + y)n Unter Verwendung der Binomialformel (2.3.2) erhält man also =⇒ } ∞ ∞ ∞ X X (x + y)n xm X y n = m! n=0 n! n! n=0 m=0 exp(x) exp(y) = exp(x + y) . (2.5.11) Das entspricht gerade der bekannten Funktionalgleichung für Potenzen wie ex . Frage also: Was hat exp(x) mit ex zu tun? Antwort: Die Reihe ist mit der e-Funktion identisch, ex ≡ exp(x) = ∞ X xn n=0 n! . (2.5.12) Beweis: Aufgrund der Funktionalgleichung (2.5.11) genügt es, die Identität (2.5.12) für x > 0 zu beweisen, exp(−|x|) = 1 exp(|x|) (für x = 0 ist (2.5.12) trivialerweise erfüllt). Darüber hinaus ist die Potenz einer reellen Zahl bislang nur für rationale Exponenten, d.h. für x = l/m, m, l ∈ N (m, l > 0), definiert, l am = √ m al ; b = √ m a ⇐⇒ bm = a , (2.5.13) so dass sich der Beweis of solche x beschränken kann. Zum Beweis von (2.5.12) für rationale x > 0 untersucht man zunächst die Folge an x n := 1 + n n = 0, 1, 2, . . . . 53 (2.5.14) Mit Hilfe der Binomialformel erhält man n x k X n! an = 1n−k k! (n − k)! n k=0 n X (n − k + 1) xk n (n − 1) (n − 2) . ··· = 1+x+ k! n n n n k=2 (2.5.15) Für den Ausdruck in der eckigen Klammer kann nun die Ungleichung (n − 1)(n − 2) · · · (n − k) = k k X Y l (n − l) ≥ nk − nk−1 (0 < k < n) (2.5.16) l=1 l=1 bewiesen werden. Dazu wird vollständige Induktion bezüglich k verwendet. Für die niedrigsten k überzeugt man sich direkt von der Richtigkeit der Behauptung (2.5.16), (n − 1) = n − k=1: 1 X l l=1 2 2 (n − 1)(n − 2) = n − 3n + 2 > n − n k=2: 2 X l. l=1 Auf diese Induktionsbasis folgt jetzt der Induktionsschluss. Wir nehmen an, dass (2.5.16) für k erfüllt ist, und beweisen seine Gültigkeit für k + 1 (unter der Voraussetzung, dass auch k + 1 < n ist) k+1 Y l=1 (n − l) = (n − (k + 1)) k Y l=1 " (n − l) ≥ (n − (k + 1)) nk − nk−1 k+1 = n k+1 ≥ n k −n k −n k+1 X l l=1 k−1 l + (k + 1)n # k X l l=1 l=1 k+1 X k X l. l=1 Damit ist (2.5.16) bewiesen. Weil offensichtlich gleichzeitig die Ungleichung (n − 1)(n − 2) · · · (n − k) < nk (0 < k < n) gilt, erhält man für die an , Gl.(2.5.15), n n X X xk xk (n − 1) (n − 2) (n − k + 1) an − = ··· −1 k! k! n n n | {z } k=0 k=2 <1 =⇒ 0 > an − n X xk k=0 n k−1 1 X xk X l. ≥ − k! n k=2 k! l=1 54 Mit Pk−1 l=1 l = k(k − 1)/2 wird daraus n n n X k k 2 X k X x x 1 x x 0 < an − ≤ = . k! 2n (k − 2)! 2n k! k=2 k=0 k=0 Die Folge bn = Pn k=0 xk /k! ist aber bekanntlich absolut konvergent. Daher können entspre- chend eines früher diskutierten Satzes die einzelnen Grenzwerte getrennt ausgeführt werden, n n X xk x2 X xk x2 lim lim = lim = 0, n→∞ 2n n→∞ 2n n→∞ k! k! k=0 k=0 und man erhält schließlich lim an = lim n→∞ n→∞ ∞ X xk x n . = 1+ n k! (2.5.17) k=0 Nun bleibt noch der Zusammenhang der Folge (an ) mit der Zahl e herzustellen. Per Definition ist e gegeben durch n 1 e := lim 1 + . n→∞ n (2.5.18) Die Existenz dieses Grenzwerts haben wir gerade bewiesen. Der Grenzwert in (2.5.18) kann aber auch noch in allgemeinerer Form aufgeschrieben werden. Offensichtlich spielt es keine Rolle, wenn n noch mit einer zweiten natürlichen Zahl m > 0 multipliziert wird, dadurch spingt der Index der Folgenglieder nur in Schritten von m gegen unendlichen, n n·m 1 1 = lim 1 + . lim 1 + n→∞ n→∞ n n·m Aber auch die Division von n durch eine natürliche Zahl l > 0 ändert an der Grenzwertbildung nichts: Der Grenzwert (2.5.18) wird ebenso erreicht, wenn n nicht alle natürlichen Zahlen durchläuft, sondern nur die Vielfachen von l. Nach Division durch l ist man dann gerade wieder bei der alten Abfolge von Einerschritten, n·m n l 1 1 lim 1 + . = lim 1 + n·m n→∞ n→∞ n l (2.5.19) Die rechte Form der Folgenglieder lässt sich verwenden, um (1 + x/n)n in Form einer Potenz mit Exponent x auszudrücken, 1+ l m n !n " #( ml ) n·m l 1 = 1 + n·m . l 55 Für jede rationale Zahl x = l/m gilt daher #x " n·m l x n 1 lim 1 + 1 + n·m = lim = ex . n→∞ n→∞ n l (2.5.20) Für irrationale x schließlich bleibt die Potenz noch zu definieren (siehe später). Wichtige Eigenschaften der Exponentialfunktion folgen unmittelbar aus der Definition (2.5.10) und der Funktionalgleichung (2.5.11): • Trivialerweise gilt exp(0) = 1 . (2.5.21) • Bereits im obigen Beweis verwendet wurde die Funktionalgleichung (2.5.11) für y = −x, 1 = exp(0) = exp(x − x) = exp(x) exp(−x) 1 =⇒ exp(−x) = ∀x∈R. exp(x) (2.5.22) (2.5.23) • Eine direkte Konsequenz aus der Definition (2.5.10) (für positive x) sowie (2.5.22) (für negative x) ist exp(x) > 0 ∀x∈R. (2.5.24) • Per Definition (2.5.10) gilt für positive x exp(x) ≥ 1 + x ∀ x ∈ [0, ∞) , da alle höheren Terme der Reihe (2.5.10) positiv beitragen. Diese Abschätzung lässt sich mit Hilfe der Bernoulli’schen Ungleichung auf beliebige x ausdehnen. Zunächst gilt (2.3.6), x n 1+ ≥ 1+x n ∀ x ≥ −n , d.h. die Ungleichung gilt für beliebiges n ∈ N, sofern x ≥ −1 ist2 , bzw für alle n > |x| für beliebig negatives, aber gegebenes x. Damit gilt sie aber insbesondere auch für 2 exp(x) ist gemäß (2.5.24) immer positiv und damit natürlich größer als 1 + x für alle x < −1, so dass die Beweisführung mittels der Bernoulli’schen Ungleichung sich im Prinzip auf x ≥ −1 beschränken kann. 56 n → ∞, x n 1+ ≥ 1+x, n→∞ n lim so dass man mit (2.5.17) gerade exp(x) ≥ 1 + x ∀x∈R (2.5.25) erhält. • Aus (2.5.25) ergibt sich für das Verhalten von exp(x) für x → +∞, lim exp(x) = ∞ . x→+∞ (2.5.26) Aus (2.5.23) folgt dann für das Verhalten von exp(x) für x → −∞, lim exp(x) = x→−∞ 1 = x→−∞ exp(−x) lim 1 = 0 x→+∞ exp(x) lim (die präzise Definition des Begriffs des lim folgt später). 57 (2.5.27) Kapitel 3 Differentialrechnung bei Funktionen einer Variablen 3.1 Grundbegriffe 3.1.1 Definition des Funktionsbegriffs Definition: Unter einer reellen Funktion f versteht man eine Abbildung aus R in R, d.h. jedem Element x aus dem Definitionsbereich D ⊆ R wird eindeutig ein Element y = f (x) aus dem Bildbereich B ⊆ R zugeordnet: f :D→R , x∈D⊆R , y = f (x) ∈ B ⊆ R (3.1.1) −→ Funktionen lassen sich auch in der Form f (g(x)) hintereinanderschalten, sofern der Definitionsbereich von f den Bildbereich von g enthält Beispiele: Elementare Funktionen (i) Potenzfunktionen (n ∈ N) (a) ganze Potenzen f (x) = xn , D=R , 58 B= R falls n ungerade [0, ∞) falls n gerade (3.1.2) ... . .. ... ... .. ... .. ... ... . .. ... 2 ...... ... . .. ... ... .. ... .. .. .. . ... . .. .. .. ... ... .. .. ... .... .. ... ... ... ... .. ... ... ... ... . ... ... ... .. ... ... .. . . ... .. ... .. ... ... ... .. ..... .. ... ................ . . ................ ... ................ ... ... ............... .. .............. ... . . . . . .. . . . . . . . . . .... ... .............. ... ... ............. .. ............. ... .. ............. .. ... ............ . . . . . .. . . . ... . . . . ... ... ........... ... .......... ... ... .......... ... ......... .. ................... ... . . . ... ........ ... ......... ... ...... .. ... ...... .... ..... ... . . . . . . .. ... .. ..... ... .. .... ... ... .... .... ... .... ... .... ... . . . . . .... ... ... .... ... .... ... .... .... .... ... ...... ..... . . . ... . ....... . . ..................................... 6 f (x) f (x) = x f (x) = x f (x) = √ x 1 - x 1 (b) Wurzelfunktionen: definiert in Gl.(2.5.13) f (x) = x1/n = √ n x D = [0, ∞) , , B = [0, ∞) (3.1.3) (Wurzelfunktion definiert über f (x) = x1/n ⇐⇒ f (x)n = x) (c) inverse ganze Potenzen f (x) = x−n = 1 , xn (3.1.4) x ∈ R x 6= 0 x ∈ R x 6= 0 falls n ungerade B = (0, ∞) falls n gerade D = f (x) 6 f (x) = 1 ........................... ..................... .............. ......... ....... ...... ..... .... .... ... ... ... ... ... ... ... ... .. ... ... .. .. .. .. .. .. .. . 59 1 x .. .. .. .. .. .. .. ... .. ... .. ... ... ... ... ... ... ... .... ..... ...... ....... ....... ............ ................... ........................ .......... 1 - x (ii) Polynome: n = Grad des Polynoms 2 n f (x) = a0 + a1 x + a2 x + . . . + an x = n X ai xi , D=R (3.1.5) i=0 −→ B hängt von den ai und n ab (iii) gebrochen rationale Funktionen Pn i a0 + a1 x + a2 x2 + . . . + an xn i=0 ai x P f (x) = = m j b0 + b1 x + b2 x2 + . . . + bm xm j=0 bj x m X j D = x ∈ R bj x 6= 0 (3.1.6) j=0 −→ B hängt von ai , bj , n, m ab (iv) trigonometrische Funktionen (Herleitung der Reihendarstellung später) ∞ X (−1)n sin(x) = x2n+1 (2n + 1)! n=0 cos(x) = ∞ X (−1)n n=0 (2n)! , x2n , D=R , D=R , B = [−1, 1] B = [−1, 1] (3.1.7) (3.1.8) (v) Exponentialfunktion x e = exp(x) = ∞ X xn n=0 , n! D=R B = (0, ∞) , (3.1.9) (vi) Betragsfunktion +1 falls x ≥ 0 |x| = −1 falls x < 0 , D=R (vii) Stufenfunktion (auch Heavyside-Funktion genannt) 1 falls x ≥ 0 Θ(x) = , D=R 0 falls x < 0 60 B = [0, ∞) , , B = {0, 1} (3.1.10) (3.1.11) 3.1.2 Elementare Eigenschaften: Monotonie, Symmetrie, Periodizität Definition: Eine Funktion heißt (i) monoton wachsend: x1 < x2 =⇒ f (x1 ) ≤ f (x2 ) (ii) streng monoton wachsend: x1 < x2 =⇒ f (x1 ) < f (x2 ) (iii) monoton fallend: x1 < x2 =⇒ f (x1 ) ≥ f (x2 ) (iv) streng monoton fallend: x1 < x2 =⇒ f (x1 ) > f (x2 ) (v) gerade: (vi) ungerade: (vii) periodisch mit Periode ω: f (x) = f (−x) f (x) = −f (−x) f (x) = f (x + nω) für alle n ∈ Z Beispiele: von oben (i) (a) f (x) = x streng monoton wachsend, ungerade, nicht periodisch (b) f (x) = √ x streng monoton wachsend, Symmetrie nicht definiert, nicht periodisch (c) f (x) = 1/x nicht streng monoton, ungerade, nicht periodisch (ii) hängt von Koeffizienten ab (iii) hängt von Koeffizienten ab (iv) sin(x) nicht (streng) monoton, ungerade, periodisch mit Periode ω = 2π cos(x) nicht (streng) monoton, gerade, periodisch mit Periode ω = 2π (v) exp(x) streng monoton wachsend auf ganz R, keine Symmetrie, keine Periodizität Beweis der strengen Monotonie: mittels Funktionalgleichung (2.5.11) exp(y) > 1 + y =⇒ ∀y>0 (per Definition (2.5.10)) exp(x + y) > exp(x) (1 + y) > exp(x) ∀y>0. (vi) |x| nicht (streng) monoton auf ganz R, gerade, nicht periodisch (vii) Θ(x) monoton wachsend (aber nicht streng), keine Symmetrie, nicht periodisch 61 3.1.3 Funktionen- und Potenzreihen Bereits in Kapitel 2 kennen gelernt: Reihen, die von einem Parameter abhängen Beispiele: (i) Exponentialfunktion exp(x) = ∞ X xn n=0 (ii) Geometrische Reihe n! ∞ X 1 = xn 1−x n=0 Diese Reihen sind Spezialfälle von Potenzreihen: Definition: Eine Reihe der Form ∞ X P (x) = n=0 an (x − x0 )n (3.1.12) mit gegebenen Koeffizienten an und gegebenem Entwicklungspunkt x0 bezeichnet man als Potenzreihe um x0 . Offensichtliche Frage: Für welche x konvergieren solche Reihen? −→ führe geeigneten Begriff zur Diskussion ein: Definition: Als Konvergenzradius R der Reihe Wert ( P∞ n=0 an (x − x0 )n bezeichnet man den ∞ X an (x − x0 )n konvergent R := sup |x − x0 | n=0 ) . (3.1.13) Unmittelbare Konsequenz aus Definition des Konvergenzradius R: Die Reihe P∞ n n=0 an (x − x0 ) konvergiert absolut für alle |x − x0 | < R, d.h. es gibt keine Lücken im Konvergenzbereich (Beweis über Majorantenkriterium). Konvergenzbereich x0 − R - x0 x0 + R 62 - P∞ Satz: Für den Konvergenzradius der Reihe R = n=0 an (x − x0 )n gilt (Hadamard’sche Formel) 1 lim supn→∞ p n |an | . (3.1.14) Das schließt die Fälle R = 0 (Reihe konvergiert nur bei x = x0 , wo sie auf das erste Glied zusammenbricht) und R = ∞ (Reihe konvergiert für alle x ∈ R) ein. Beweis: über Wurzelkriterium (2.5.7) für gewöhnliche Reihen, lim sup n→∞ p p ! n |an | |x − x0 |n = |x − x0 | lim sup n |an | < 1 n→∞ =⇒ 1 |x − x0 | < lim supn→∞ p n |an | Analog folgt aus dem Quotientenkriterium für gewöhnliche Reihen, dass an , R = lim n→∞ an+1 (3.1.15) falls dieser Limes existiert (beachte die Tatsache, dass lim supn→∞ | AAn+1 | = ∞ nicht die n P∞ | = ∞). Divergenz der Reihe n=0 An impliziert, sondern nur lim inf n→∞ | AAn+1 n Beispiele: (bereits zuvor gezeigt) (i) Exponentialfunktion: Quotientenkriterium (n + 1)! = ∞ R = lim n→∞ n! (ii) Geometrische Reihe: Quotientenkriterium R = lim 1 = 1 n→∞ Potenzreihen wiederum sind Spezialfälle von völlig allgemeinen Funktionenreihen, ∞ X f (x) = fn (x) . (3.1.16) n=0 Die Konvergenz von Funktionenreihen ist für gegebenes x wie bei gewöhnlichen Reihen über die Konvergenz der nun x-abhängigen Partialsummen Sn (x) = n X k=0 definiert. 63 fk (x) (3.1.17) Zusätzlicher Aspekt gegenüber gewöhnlichen Reihen: Potenz- und Funktionenreihen können für unterschiedliche x unterschiedlich schnell konvergieren. −→ kein Problem, falls für alle x ein “einheitlicher Konvergenzgrad” vorliegt −→ problematisch, falls bei Annäherung an einen speziellen x-Wert die Konvergenz systematisch zusammenbricht −→ benötige Begriff zur Unterscheidung Definition: Eine Funktionenreihe P∞ n=0 fn (x) heißt gleichmäßig konvergent gegen eine Funktion f (x) auf einer Menge M, wenn für alle x ∈ M und beliebig vorgegebenes ǫ > 0 stets ein n0 (ǫ) (unabhängig von x!) existiert, so dass n X ∀ n > n0 (ǫ) . fk (x) − f (x) < ǫ (3.1.18) k=0 Bemerkung: Das Kriterium für gleichmäßige Konvergenz lässt sich wie bei gewöhnlicher Konvergenz auch in Cauchy-Form ausdrücken, n X ∀ m, n > n0 (ǫ) . f (x) < ǫ k k=m Entscheidender Punkt: Im Gegensatz zur gewöhnlichen Konvergenz bezieht sich die gleichmäßige Konvergenz auf einen ganzen Bereich von x-Werten! P∞ P −→ falls ∞ n=0 fn (x) auch n=0 fn (x) gleichmäßig konvergent auf M ist, dann ist gewöhnlich konvergent für jedes x0 ∈ M (die Umkehrung gilt dagegen nicht ohne weiteres!) Frage: Wie kann man gleichmäßige Konvergenz überprüfen? −→ Antwort einfach im Fall von Potenzreihen Satz: Eine Potenzreihe P (x) = P∞ R = n=0 an (x − x0 )n mit Konvergenzradius 1 lim supn→∞ p n |an | > 0 konvergiert für alle |x − x0 | ≤ r mit r < R absolut und gleichmäßig, d.h. auf jedem Intervall [x0 − r, x0 + r]. Beweis: über Majorantenkriterium (keine Details) 64 Beispiele: (i) Exponentialreihe: gleichmäßig konvergent auf ganz R (ii) Geometrische Reihe: gleichmäßig konvergent auf [−r, r] mit r < 1, aber nicht auf (−1, 1) −→ Probleme mit einheitlichem Konvergenzgrad in unmittelbarer Nähe von x = ±1 1 2 1 sowie m = n − 1 und betrachte x = 1 − 2k : dann folgt n n 1 1 n > 1− = ǫ falls k ≥ n |Sn (x) − Sm (x)| = |x | = 1 − ≥ 2k 2k 2 | {z } −→ wähle ǫ = Bernoulli’sche Ungl. (2.3.5) −→ gleichgültig, wie groß n0 gewählt wird, stets wird ǫ von |Sn (x) − Sm (x)| überschritten, wenn k → ∞ (d.h. x → 1) geht: n0 hängt daher auf (−1, 1) von k, d.h. von x, ab 3.2 Stetigkeit, Grenzwerte, Umkehrfunktion Notation (hier): I meint stets ein offenes, halboffenes oder abgeschlossenes Intervall I ≡ (a, b) oder (a, b] oder [a, b) oder [a, b] mit a < b (3.2.1) Definition: Die Funktion f : I → R heißt stetig am Punkt x0 ∈ I, falls für beliebig vorgegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 existiert, so dass |f (x) − f (x0 )| ≤ ǫ ∀ |x − x0 | ≤ δ(ǫ, x0 ) mit x ∈ I Veranschaulichung: 65 (3.2.2) . ... ... ... .. . ... ... ... .. . ... ... ... .. . ... .. .. ... .. . ... ... ... .. . ... ... ... ... . . . ... .... .... .... . . .... .... .... .... . . . ... ... .... .... ... . . . .... .... .... .... .... . . . ... ..... ..... ..... ..... . . . . . . ...... ...... ...... ...... ......... . . . . . . . . ............ ............... .................................. 6 f (x) r r x0 62ǫ ? 62ǫ ? - x0 - - 2δ(ǫ, x0 ) x 2δ(ǫ, x0 ) −→ je nach Steilheit des Funktionsverlaufs liegt f (x) für ein recht breites Intervall [x0 − δ, x0 + δ] im Streifen [f (x0 ) − ǫ, f (x0 ) + ǫ] um f (x0 ) oder für ein sehr schmales −→ für Stetigkeit entscheidend: wenn man mit x nur nahe genug an x0 herangeht, kommt auch f (x) dem Wert f (x0 ) beliebig nahe Im wesentlichen: f (x) stetig, falls Funktionsverlauf keine Sprünge aufweist Beispiele: von oben (i) (a-c) xn , x1/n , x−n offensichtlich stetig für alle x ∈ D (0 ∈ / D für x−n ) (ii-vi) Polynome, gebrochen rationale Funktionen, sin(x), cos(x), exp(x), |x| stetig für alle x∈D Beweis für exp(x): zu zeigen ist |exp(x) − exp(x0 )| < ǫ sobald |x − x0 | < δ(ǫ, x0 ) mit gewähltem δ(ǫ, x0 ). Unter Benutzung der Funktionalgleichung für exp(x) erhält 66 man zunächst |exp(x) − exp(x0 )| = exp(x0 ) |exp(x − x0 ) − 1| ∞ X n (x − x ) 0 = exp(x0 ) n=1 n! ≤ exp(x0 ) ∞ X |x − x0 |n n! n=1 = exp(x0 ) |x − x0 | ∞ X |x − x0 |k k=0 (k + 1)! (k = n − 1) . −→ offensichtlich wird die rechte Seite dieser Gleichung beliebig klein, wenn nur |x − x0 | ausreichend klein wird −→ Stetigkeit im Grunde klar −→ diskutiere exemplarisch die mathematische Formalisierung der intuitiven Erkenntnis Die verbliebene Reihe lässt sich nach oben abschätzen (1/(k + 1)! < 1/k!) ∞ X |x − x0 |k k=0 (k + 1)! ≤ ∞ X |x − x0 |k k=0 k! = exp (|x − x0 |) (das geht wegen der absoluten Konvergenz der beteiligten Reihen). Dann gilt wegen der strengen Monotonie der Exponentialreihe für |x − x0 | < 1 |exp(x) − exp(x0 )| ≤ exp(x0 ) |x − x0 | exp (|x − x0 |) < exp(x0 ) |x − x0 | exp(1) . |exp(x) − exp(x0 )| < ǫ wird also in jedem Fall dann erreicht, wenn ǫ |x − x0 | < min , 1 = δ(ǫ, x0 ) . exp(x0 ) exp(1) (vii) Θ(x) stetig für alle x ∈ D, x 6= 0 Beweis: wähle x0 = 0 und ǫ = 1 2 −→ dann wäre zu zeigen, dass ein δ > 0 existiert, für das gilt |Θ(x) − Θ(0)| = |Θ(x) − 1| ≤ 1 2 ∀ |x| ≤ δ −→ δ > 0 existiert aber nicht, weil Θ(x) = 0 für infinitesimal kleine negative x gilt Stetigkeit kann noch über Begriff des Grenzwerts ausgedrückt werden: 67 Definition: Die Zahl y0 heißt rechtsseitiger (bzw linksseitiger) Grenzwert der Funktion f : D → R am Punkt x0 ∈ D, falls es für beliebig vorgegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 gibt, so dass |f (x) − y0 | ≤ ǫ ∀ |x − x0 | ≤ δ(ǫ, x0 ) mit x > x0 (bzw x < x0 ); x ∈ D (3.2.3) Bemerkung: D ist der Abschluss des Definitionsbereichs, d.h. die Menge D ergänzt um alle ihre Häufungspunkte, die nicht schon in D enthalten sind. Warum das? −→ betrachte f (x) = 0 mit D = x ∈ Rx < 0 −→ linksseitiger Grenzwert bei x0 = 0 soll wohldefiniert sein −→ dementsprechend ist x = x0 selbst in Definition nicht eingeschlossen (da die Funktion da gar nicht definiert sein muss)! Man schreibt den Grenzwert in der Form: rechtsseitiger Grenzwert lim f (x) = lim+ f (x + ǫ) = y0 (3.2.4) lim f (x) = lim+ f (x − ǫ) = y0 (3.2.5) x→x0 ,x>x0 linksseitiger Grenzwert x→x0 ,x<x0 ǫ→0 ǫ→0 (Notation 0+ soll andeuten, dass ǫ sich von oben der 0 nähert) −→ falls lim x→x0 ,x>x0 f (x) = lim x→x0 ,x<x0 f (x) gilt, sagt man, der Grenzwert lim f (x) existiert x→x0 Beispiel: Stufenfunktion bei x0 = 0 lim Θ(x) = 1 x→0,x>0 lim Θ(x) = 0 x→0,x<0 −→ Grenzwerte verschieden, sobald Sprünge im Funktionsverlauf auftreten Satz: Eine Funktion f : D → R ist genau dann stetig bei x0 ∈ D, falls der Grenzwert existiert von f (x) in x0 existiert und gleich dem Funktionswert ist: lim f (x) = f (x0 ) x→x0 68 (3.2.6) Notation: Man spricht von einem uneigentlichen Grenzwert, falls lim f (x) = ±∞ (3.2.7) x→x0 Beispiel: f (x) = 1 x lim f (x) = ∞ =⇒ x→0,x>0 Satz: Falls die Funktion f : D → R auf einem Intervall I ⊆ D streng monoton wachsend oder streng monoton fallend ist, besitzt f (x) eine Umkehrfunktion f −1 : B(I) → I, y = f (x) f −1 (y) = x ⇐⇒ x ∈ I, y ∈ B(I) (3.2.8) Beispiel: Logarithmus = Umkehrfunktion zur Exponentialfunktion ln(exp(x)) := x , D = (0, ∞) , B=R (3.2.9) Eigenschaften: (a) Exponentialfunktion ist ihrerseits Umkehrfunktion zum Logarithmus exp(ln(x)) = x x ∈ (0, ∞) (3.2.10) (b) Funktionsverlauf 6 ln(x) .. .......... .......... ......... ......... . . . . . . . .. ....... ....... ....... ....... ....... . . . . . ...... ..... ..... ..... .... . . . . ... .... .... .... .... . . . .... ... ... ... ... . ... ... ... .. . . ... .. ... .... .. ... .. .. ... .. .. 1 69 - x (c) Funktionalgleichung ln(exp(x + y)) = x + y ln(exp(x)) = x ln(exp(y)) = y exp(x + y) = exp(x) · exp(y) ln(exp(x) · exp(y)) = x + y = ln(exp(x)) + ln(exp(y)) =⇒ ln(a · b) = ln(a) + ln(b) =⇒ ∀ x, y ∈ R ∀ a, b > 0 (3.2.11) (exp(x) = a und exp(y) = b sind zwei beliebige positive reelle Zahlen) unmittelbare Konsequenz (a = x, b = 1/x, ln(1) = 0): 1 ln = − ln(x) x ∈ (0, ∞) x (3.2.12) alternativ: direkter Nachweis 1 1 = ln = ln [exp(− ln(x))] = − ln(x) ln x exp(ln(x)) (d) wegen der strengen Monotonie der Exponentialfunktion ist auch der Logarithmus streng monoton wachsend, exp(x1 ) < exp(x2 ) =⇒ ln(a) < ln(b) ⇐⇒ ⇐⇒ x1 < x2 a < b ⇐⇒ ln(exp(x1 )) < ln(exp(x2 )) a, b > 0 (3.2.13) (e) zentrale Ungleichung (wegen strenger Monotonie) 1 + x ≤ exp(x) =⇒ ∀x∈R ln(1 + x) ≤ x (gemäß (2.5.25)) ∀ x ∈ (−1, ∞) (3.2.14) Definition der allgemeinen Potenz ax mit a, x ∈ R: über Logarithmus −→ ax bereits definiert für beliebige rationale x = l/m, Gl.(2.5.13), nur irrationale x noch zu diskutieren −→ 2 Schritte (1) definiere zunächst ex für irrationale x über Folge (an ) von rationalen Zahlen, die gegen x konvergiert, an ∈ Q mit =⇒ ex := lim an = x n→∞ lim ean = lim exp(an ) = exp(x) n→∞ n→∞ 70 (3.2.15) (das ist möglich, weil zu jedem x ∈ R eine solche Folge existiert und exp(x) für jedes x ∈ R definiert und stetig ist) (2) definiere dann ax über Logarithmus ax := ex ln(a) (3.2.16) (das ist sinnvoll, weil für jedes x ∈ R und l, m ∈ Z, m 6= 0, l ≥ 0 q √ l m m l l/m ln(a) l/m a = e = (eln(a) ) = el ln(a) = e m ln(a) gilt, wovon (3.2.16) die stetige Erweiterung ist) Konsequenzen: • Die Potenz (3.2.16) erfüllt alle Standardrechenregeln für gewöhnliche Potenzen. • Die allgemeinste Form der Funktionalgleichung des Logarithmus lautet: ln (ax ) = x ln(a) (3.2.17) (durch Logarithmieren von (3.2.16)) 3.3 3.3.1 Differentiation Definition Eine Funktion f : I → R heißt differenzierbar am Punkt x0 ∈ I, falls der Grenzwert lim x→x0 f (x0 + ǫ) − f (x0 ) f (x) − f (x0 ) = lim ǫ→0 x − x0 ǫ (3.3.1) existiert. Man bezeichnet ihn dann als Ableitung (oder auch Differentialquotienten) von f (x) an der Stelle x0 und schreibt ihn in verschiedenen alternativen Formen: f (x) − f (x0 ) d df df ′ lim = = f˙(x0 ) = f (x0 ) = (x0 ) = f (x) x→x0 x − x0 dx dx x=x0 dx x=x0 71 (3.3.2) Geometrische Interpretation: f ′ (x0 ) = lokale Steigung von f (x) bei x0 f (x0 ) + f ′ (x0 )(x − x0 ) f (x) 6 x x0 x0 + ǫ2 x0 + ǫ1 Beispiele: (i) f (x) = xn , n = 0, 1, 2, . . . (x + ǫ)n − xn ǫ→0 ǫ 1 n = lim x + nxn−1 ǫ + . . . + nxǫn−1 − xn ǫ→0 ǫ = lim nxn−1 + . . . + nxǫn−2 f ′ (x) = lim ǫ→0 = nxn−1 (3.3.3) −→ Grenzwert existiert für beliebige x und n ∈ N −→ xn für beliebige x ∈ R differenzierbar (ii) f (x) = x1/n , n = 0, 1, 2, . . . (x + ǫ)1/n − x1/n =⇒ f ′ (x) = lim gǫ (x) gǫ (x) = ǫ→0 ǫ 1/n n x + ǫ = ǫgǫ (x) + x n X n (ǫgǫ (x))k x(n−k)/n = k k=0 = x + nǫgǫ (x)x(n−1)/n + O(ǫ2 ) =⇒ =⇒ 1 = ngǫ (x)x(n−1)/n + O(ǫ) x1/n−1 f ′ (x) = n −→ x1/n differenzierbar für beliebige x ∈ R mit x 6= 0 72 (3.3.4) (iii) f (x) = x−n , n = 0, 1, 2, . . . f ′ (x) = −nx−n−1 (3.3.5) −→ x−n differenzierbar für beliebige x ∈ R mit x 6= 0 (iv) f (x) = sin(x): zunächst kann man Additionstheorem benutzen ǫ sin(x + ǫ) − sin(x) 2 ǫ sin = cos x + ǫ ǫ 2 2 −→ bleibt zu klären, wie sich sin(ǫ/2) für ǫ → 0 verhält Betrachte dazu die Definition von sin(φ) am Einheitskreis y6 ... .... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... .. ... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ... 6 6 h sin(φ) ........ ... . ... ... .. .. .. .. φ .. .. .. .. ? ?... x cos(φ) 1 −→ die Bogenlänge des Kreissegments mit Winkel φ ist offensichtlich größer als die Höhe des im Kreissegment eingeschlossenen Dreiecks, sin(φ) < φ 2π · 1 = φ 2π | {z } (für 0 < φ < π/2) . (3.3.6) Gesamtumfang des Einheitskreises −→ gleichzeitig ist die Fläche Aφ des Kreissegments kleiner ist als die Fläche AD des größeren Dreiecks, das seinerseits das Kreissegment einschließt, Aφ = φ h π12 < AD = ·1 |{z} 2π 2 Gesamtfläche des Einheitskreises =⇒ φ < h (für 0 < φ < π/2) . −→ die Höhe h des äußeren Dreiecks ist aber gegeben durch h = sin(φ) cos(φ) (für 0 < φ < π/2) , 73 (3.3.7) da h = sin(φ) cos(φ) · 1 der Funktionswert der Geraden y = sin(φ) x cos(φ) bei x = 1 ist −→ fasst man die beiden Ungleichungen (3.3.6) und (3.3.7) mit der letzten Relation zusammen, ergibt sich cos(φ) < sin(φ) < 1 φ (für 0 < φ < π/2) . (3.3.8) −→ wegen cos(φ) = cos(−φ) und sin(φ) = − sin(−φ) gilt diese Relation aber auch für 0 > φ > −π/2 −→ damit gilt im Limes φ → 0 sin(φ) = 1. φ→0 φ lim Damit kann die Ableitung von f (x) = sin(x) nun ausgewertet werden, # " sin ǫ ǫ sin(x + ǫ) − sin(x) 2 = cos(x) = lim cos x + f ′ (x) = lim ǫ ǫ→0 ǫ→0 ǫ 2 2 (3.3.9) (3.3.10) Analog kann für f (x) = cos(x) vorgegangen werden, f ′ (x) = − sin(x) . (3.3.11) (v) f (x) = exp(x): zunächst erhält man über die Funktionalgleichung exp(x + ǫ) − exp(x) exp(ǫ) − 1 = exp(x) ǫ ǫ −→ der verbleibende Ausdruck lässt sich über die Reihendarstellung auswerten "∞ # ∞ ∞ X X 1 X ǫn ǫn−1 ǫn−1 exp(ǫ) − 1 = −1 = = 1+ ǫ ǫ n=0 n! n! n! n=1 n=2 =⇒ exp(ǫ) − 1 = 1 ǫ→0 ǫ =⇒ f ′ (x) = exp(x) lim (vi) f (x) = |x| =⇒ +x f (x) = −x +1 f ′ (x) = −1 74 (3.3.12) x≥0 x<0 x>0 x<0 (3.3.13) rechtsseitiger Grenzwert bei x = 0 f (0 + ǫ) − f (0) = ǫ→0,ǫ>0 ǫ lim |ǫ| = 1 ǫ→0,ǫ>0 ǫ lim linksseitiger Grenzwert bei x = 0 f (0 + ǫ) − f (0) = ǫ→0,ǫ<0 ǫ lim |ǫ| = −1 ǫ→0,ǫ<0 ǫ lim −→ stimmen nicht überein −→ |x| nicht differenzierbar für x = 0 (vii) Stufenfunktion =⇒ 1 x≥0 Θ(x) = 0 x<0 0 x>0 Θ′ (x) = ? x=0 0 x<0 (3.3.14) −→ wegen Sprung bei x = 0 ist “Steigung” an dieser Stelle unendlich −→ Θ(x) bei x = 0 nicht differenzierbar (Korrektur später) Im wesentlichen: f (x) differenzierbar, solange keine Spitzen, Ecken oder gar Sprünge im Funktionsverlauf auftreten −→ ohne Stetigkeit keine Differenzierbarkeit Satz: Ist f (x) in x0 differenzierbar, so ist f dort auch stetig. Definition: Ist f (x) auf einem ganzen Intervall I erklärt und differenzierbar, nennt man f (x) differenzierbar auf ganz I. Definition: Ist f (x) auf I differenzierbar und die Ableitung auf I stetig, nennt man f (x) dort stetig differenzierbar. 75 3.3.2 Differentiale Betrachte Grenzwert für Ableitung noch einmal aus anderem Blickwinkel f (x + ǫ) − f (x) ǫ→0 ǫ lim kann nur existieren, falls f (x + ǫ) − f (x) mindestens so schnell gegen Null geht wie ǫ selbst −→ Proportionalitätsfaktor vor ǫ ist gerade die Ableitung f (x + ǫ) − f (x) = f ′ (x)ǫ + ∆f (x, ǫ) (diese Gl. definiert ∆f !) (3.3.15) Restterm ∆f (x, ǫ) geht im Limes ǫ → 0 schneller gegen Null als ǫ: lim ǫ→0 f (x) ∆f (x, ǫ) = 0 ǫ ..... ... .. .... . ..... = ... ... ....... ... .... ...... = . ... ..... x ∆f (x, ǫ) f ′ (x)ǫ ..... .. .. ... .... ... .. ... ...... = ... ... ... ... ... . . .... f (x + ǫ) − f (x) - x+ǫ −→ für infinitesimale ǫ reduziert sich Gl.(3.3.15) auf den führenden Term Zur Illustration: betrachte e-Funktion x+ǫ e x = e ∞ X ǫn n=0 =⇒ ex+ǫ − ex = ex ǫ + n! x = e ǫ2 ǫ3 1 + ǫ+ + + ... 2 6 ex 2 ex 3 ǫ + ǫ + ... 2 6 −→ im Limes ǫ → 0 ist ∆f (x, ǫ) proportional zu ǫ2 ∆f (x, ǫ) = ex 2 ex 3 ǫ + ǫ + . . . = O(ǫ2 ) 2 6 Notation: O(ǫn ) zu lesen als: Beitrag von der Ordnung ǫn , d.h. O(ǫn ) ist mathematischer Ausdruck, der für ǫ → 0 proportional zu ǫn ist Bringe Limes ǫ → 0 durch suggestivere Schreibweise von Gl.(3.3.15) über infinitesimale 76 Verschiebung dx zum Ausdruck: Man nennt die Änderung von f (x) beim Übergang von x nach x + dx dann differentielle Änderung oder einfach Differential von f und schreibt df := f (x + dx) − f (x) = f ′ (x) dx (3.3.16) −→ Schreibweise impliziert, dass der Limes dx → 0 betrachtet wird −→ wegen des infinitesimalen Charakters von Gl.(3.3.16) wird ∆f (x, dx) meist gleich weggelassen (wie in (3.3.16) schon geschehen) −→ Gl.(3.3.16) ist als der für dx → 0 dominierende Teil von (3.3.15) zu verstehen −→ Formalisierung dieses Konzepts über Taylorentwicklung (siehe später) 3.3.3 Rechenregeln für Differentiation (a) Differentiation von Summen und Produkten: Falls f (x) und g(x) beide differenzierbar in x sind, gilt: (f + g)′ (x) = f ′ (x) + g ′ (x) (f · g)′ (x) = f ′ (x)g(x) + f (x)g ′(x) ′ f ′ (x)g(x) − f (x)g ′ (x) f (x) = g g(x)2 (3.3.17) (Produktregel) (3.3.18) (Quotientenregel) (3.3.19) Beweis: exemplarisch für Produktregel f (x + ǫ)g(x + ǫ) − f (x)g(x) ǫ→0 ǫ [f (x + ǫ) − f (x)]g(x + ǫ) + f (x)[g(x + ǫ) − g(x)] = lim ǫ→0 ǫ [f (x + ǫ) − f (x)][g(x) + O(ǫ)] + f (x)[g(x + ǫ) − g(x)] = lim ǫ→0 ǫ ′ ′ = f (x)g(x) + f (x)g (x) (f · g)′ (x) = lim denn für ǫ → 0 gilt f (x + ǫ) − f (x) = f ′ (x)ǫ, g(x + ǫ) − g(x) = g ′(x)ǫ Beispiele: 77 (i) (x − 1) (x + 1) 1 · (x + 1) − (x − 1) · 1 (x − 1) + (x2 + 1) f ′ (x) = 2x (x + 1) (x + 1)2 x(x2 − 1) + x2 + 1 = 2 (x + 1)2 f (x) = (x2 + 1) (ii) sin(x) cos(x) cos(x) sin2 (x) f ′ (x) = + cos(x) cos2 (x) 1 = cos2 (x) f (x) = tan(x) = (b) Differentiation von Reihen: Falls (i) alle Funktionen fn (x), n = 1, 2, . . ., für alle x ∈ I differenzierbar sind, (ii) die Funktionenreihe (iii) die Reihe P∞ P∞ ′ n=0 fn (x) n=0 fn (x) für mindestens ein x0 ∈ I konvergiert, und für alle x ∈ I gleichmäßig konvergent ist, dann konvergiert fn (x) auf ganz I gleichmäßig gegen eine auf I differenzierbare Funktion f (x) und es gilt für alle x ∈ I d dx ∞ X n=0 fn (x) ! = ∞ X fn′ (x) (3.3.20) n=0 Beachte: Aussage über gliedweise Differentiation kann nicht Punkt für Punkt gemacht werden, weil die Definition der Ableitung stets auf einer ganzen Umgebung des Punktes beruht. Beispiele: (i) Exponentialfunktion exp(x) = d exp(x) = dx ∞ X xn n=0 ∞ X n=1 n! ∞ ∞ X X xk d xn xn−1 = = = exp(x) dx n! (n − 1)! k! n=1 k=0 (im letzten Schritt: Umbenennung des Summationsindex, k = n − 1) 78 (ii) Geometrische Reihe im Intervall [−r, r] mit r < 1 ∞ X 1 = xn 1−x n=0 ∞ X d 1 = nxn−1 dx 1 − x n=1 = ∞ X (n + 1)xn n=0 = = ∞ X n X xn−k xk n=0 k=0 ! ∞ X n ∞ X x n=0 m=0 1 = (1 − x)2 xm ! (vorletzter Schritt unter Verwendung von (2.5.9)) (c) Differentiation von Funktionenketten: Falls g(x) differenzierbar in x ist und f (y) differenzierbar in y = g(x), gilt: d f (g(x)) = dx df dg (y) (x) dy y=g(x) dx (Kettenregel) (3.3.21) Begründung: wegen Differenzierbarkeit von g(x) gilt für infinitesimale ǫ g(x + ǫ) = g(x) + g ′ (x)ǫ = g(x) + dg −→ dg ist ebenfalls infinitesimal, sobald ǫ infinitesimal ist =⇒ f (g(x + ǫ)) − f (g(x)) g(x + ǫ) − g(x) f (g(x + ǫ)) − f (g(x)) = lim lim ǫ→0 ǫ→0 ǫ→0 ǫ g(x + ǫ) − g(x) ǫ f (g(x) + dg) − f (g(x)) g(x + ǫ) − g(x) = lim lim ǫ→0 dg→0 dg ǫ lim Beispiele: (i) Gauß-Funktion f (x) = e−αx 79 2 Identifiziere g(x) g(x) = −αx2 g ′ (x) = −2αx f (g) = eg df = eg dg Benutze Kettenregel df 2 = −2αx e−αx dx (ii) Verschachtelung f (x) = √ 3 x2 + 9 + ln 2 ! √ x2 + 9 − 3 √ x2 + 9 + 3 Identifiziere g(x) √ x2 + 9 x g ′(x) = √ x2 + 9 g−3 3 f (g) = g + ln 2 g+3 g(x) = Benutze Kettenregel (Ableitung von ln(x), d ln(x) dx = x1 , wird unten nachgewiesen) df 3 1 3 1 2(g 2 − 9) + 3(g + 3) − 3(g − 3) g2 = 1+ − = = dg 2g−3 2g+3 2(g 2 − 9) g2 − 9 √ x2 + 9 x2 + 9 x df √ = = dx x2 x x2 + 9 (iii) beliebige Potenz (x > 0) f (x) = xα = eα ln(x) g(x) = α ln(x) α g ′ (x) = x f (g) = eg df α α ln(x) = e = α xα−1 dx x 80 (b) Differentiation der Umkehrfunktion: Falls f auf I stetig und streng monoton, differenzierbar in x0 ∈ I und f ′ (x0 ) 6= 0 ist, dann ist die Umkehrfunktion f −1 : f (I) → I mit f −1 (f (x)) = x in y0 = f (x0 ) differenzierbar und es gilt f −1 (y) − f −1 (y0 ) y→y0 y − y0 x − x0 = lim x→x0 f (x) − f (x0 ) 1 1 = = ′ −1 ′ f (x0 ) f (f (y0 )) d −1 f (y) y=y0 = dy lim (3.3.22) Zusammenhang mit Kettenregel: Beispiele: df d −1 df −1 (f ) d x= f (f (x)) = (x) 1= dx dx df f =f (x) dx (i) Logarithmus / Exponentialfunktion f −1 (y) = ln(y) 1 1 d 1 ln(y) = = = d exp(x) dy exp(ln(y)) y dx x=ln(y) (ii) Arkustangens / Tangens f −1 (y) = arctan(y) 1 d arctan(y) = d tan(x) dy dx x=arctan(y) = cos2 (arctan(y)) cos2 (arctan(y)) = sin2 (arctan(y)) + cos2 (arctan(y)) 1 = 2 tan (arctan(y)) + 1 1 = 2 y +1 3.3.4 Höhere Ableitung Rekursive Definition (Existenz vorausgesetzt) f (n) d dn f (x) = (x) = dxn dx 81 dn−1 f (x) dxn−1 (3.3.23) Beispiel: (i) f (x) = xn f (1) (x) = nxn−1 (ii) f (x) = exp(x) f (2) (x) = n(n − 1)xn−2 n! xn−k k = 1, 2, . . . n (k) (n − k)! f (x) = 0 k>n f (1) (x) = exp(x) =⇒ f (k) (x) = exp(x) k = 1, 2, . . . (iii) f (x) = sin(x) (Cosinus analog) f (1) (x) = cos(x) f (2) (x) = − sin(x) f (3) (x) = − cos(x) =⇒ f (4) (x) = sin(x) (−1)(k−1)/2 cos(x) falls k ungerade f (k) (x) = (−1)k/2 sin(x) falls k gerade alternative Schreibweise (mit k = 0, 1, 2, . . .) f (2k+1) (x) = (−1)k cos(x) f (2k) (x) = (−1)k sin(x) (iv) f (x) = 1 1−x −1 1 (−1) = 2 (1 − x) (1 − x)2 2 −2 (−1) = f (2) (x) = 3 (1 − x) (1 − x)3 2 · (−3) 3! f (3) (x) = (−1) = 3 (1 − x) (1 − x)4 k! f (k) (x) = (1 − x)k+1 f (1) (x) = =⇒ 82 k = 1, 2, . . . (v) f (x) = ln(1 − x) −1 (1 − x) (k − 1)! 1 dk−1 = − f (k) (x) = − k−1 dx (1 − x) (1 − x)k f (1) (x) = 3.3.5 Grenzwerte von Produkten und Quotienten von Funktionen Betrachte Funktion f (x) = sin(x) x für x → 0: Während sin(x) verschwindet, divergiert 1/x −→ analoges Problem bei f (x) = x ln(x) für x → 0 −→ was ist der Grenzwert? (bei sin(x) x schon geometrisch geklärt) −→ ist Spezialfall von Regel von Bernoulli - de l’Hopital: Falls (i) f (x) und g(x) auf [a, b) mit a < b ≤ ∞ differenzierbar sind, (ii) g(x) und g ′ (x) auf [a, b) von Null verschieden sind, (iii) f (x) und g(x) für x → b entweder beide divergieren oder beide verschwinden, 0 (3.3.24) lim f (x) = lim g(x) = oder x→b,x<b x→b,x<b ∞ (iv) der Grenzwert f ′ (x) , x→b,x<b g ′ (x) lim existiert, dann gilt f (x) lim = x→b,x<b g(x) f ′ (x) lim x→b,x<b g ′ (x) −→ gilt natürlich analog für linksseitigen Grenzwert 83 (3.3.25) Beispiele: (i) f (x) = sin(x), g(x) = x sin(x) = x→0,x<0 x cos(x) = 1 x→0,x<0 1 lim lim (3.3.26) −→ klar aus geometrischer Überlegung, Gl.(3.3.9), sowie Reihendarstellung von sin(x) (ii) f (x) = ln(x), g(x) = 1/x lim x ln(x) = x→0,x>0 ln(x) lim x→0,x>0 1 x = 1 = x→0,x>0 x − 12 x lim lim (−x) = 0 x→0,x>0 (3.3.27) −→ lässt sich durch vollständige Induktion auf beliebige Potenzen von ln(x) erweitern: f (x) = [ln(x)]n , g(x) = 1/x Induktionsbasis: Gl.(3.3.27) Induktionsschluss: nehme an, dass limx→0,x>0 x [ln(x)]n−1 = 0 und betrachte lim x [ln(x)]n = x→0,x>0 n[ln(x)]n−1 = −n lim x [ln(x)]n−1 = 0 . x→0,x>0 x − 12 x→0,x>0 x lim (3.3.28) −→ für x → 0 verschwindet x schneller als jede Potenz von ln(x) divergiert (iii) f (x) = ln(x), g(x) = x 1 ln(x) = lim = 0 x→∞ x · 1 x→∞ x (3.3.29) [ln(x)]n n[ln(x)]n−1 n! = lim = lim = 0 x→∞ x→∞ x→∞ x x x·1 (3.3.30) lim analog durch wiederholte Verwendung der Regel (für jeweils anderes f (x)) lim Regel von Bernoulli - de l’Hopital kann auch mehrfach verwendet werden, sofern die Voraussetzungen für die Ableitungen wieder gegeben sind: f (x) = x→b,x<b g(x) lim f (n) (x) x→b,x<b g (n) (x) lim (3.3.31) Beispiel: f (x) = xn , g(x) = exp(x): für beide Funktionen divergieren die ersten n − 1 Ableitungen für x → ∞ xn n! = lim = 0 x→∞ exp(x) x→∞ exp(x) lim −→ exp(x) geht schneller gegen ∞ als jede Potenz von x 84 (3.3.32) 3.4 Taylorentwicklung Zur Motivation: betrachte noch einmal Reihe der e-Funktion ∞ X x2 x3 xn = 1+x+ + + ... exp(x) = n! 2 6 n=0 Intuitiv klar: je kleiner x ist, desto schneller konvergiert die Reihe x x2 2 1+x 1+x+ 1+x+ x2 x3 + 2 6 exp(x) 0.001 1.001 1.00100 1.0010005002 1.0010005002 0.01 1.010 1.01005 1.0100501667 1.0100501671 0.1 1.100 1.10500 1.1051666667 1.1051709181 0.5 1.500 1.62500 1.6458333333 1.6487212707 1.0 2.000 2.50000 2.6666666667 2.7182818285 −→ für kleines x kann Reihe mit den niedrigsten Ordnungen gut approximiert werden −→ für sehr kleines x, d.h. im Limes x → 0, genügt bereits die allererste Ordnung Verallgemeinerung des Konzepts auf Punkte in der Umgebung von x0 6= 0: ∞ X (x − x0 )2 (x − x0 )3 (x − x0 )n x x0 x−x0 x0 x0 = e e = e e = e 1 + (x − x0 ) + + + ... n! 2 6 n=0 −→ falls der Wert ex0 bekannt ist und x − x0 sehr klein: ex = ex0 + ex0 (x − x0 ) + ex0 ex0 (x − x0 )2 + (x − x0 )3 + . . . 2 6 Die Auswertung von ex über ex0 und ∆x = x − x0 ist offensichtlich nicht nötig, weil ex wohlbekannt ist. Bei komplizierteren Funktionen ist die Situation aber oft ganz anders: Die Funktion ist häufig an speziellen Stellen (x0 ) bekannt, am eigentlich interessierenden Punkt x = x0 + ∆x aber nicht. Beispiel: Auswertung des Integrals f (a, b, µ) = Z ∞ 1 x2 dx 2 e−µx ln x + a2 für b << 1 x+b x−b −→ 2 Möglichkeiten zur Auswertung: (a) Näherungsweise Auswertung durch Entwicklung von f (a, b, µ) nach kleinem b (b) Numerische Integration 85 Frage: Lässt sich f (x) ganz allgemein aus f (x0 ) und ∆x = x − x0 auswerten? Antwort: Satz von Taylor: Falls die Funktion f (x) auf dem abgeschlossenen Intervall [a, b] n-mal und auf dem offenen Intervall (a, b) (n+1)-mal stetig differenzierbar ist, gilt für zwei beliebige Punkte x0 und x aus [a, b] f (x) = n X f (k) (x0 ) k=0 k! (x − x0 )k + Rn+1 (3.4.1) Dabei ist das sogenannte Restglied Rn+1 gegeben durch Rn+1 f (n+1) (x0 + θ(x − x0 )) (x − x0 )n+1 = (n + 1)! Restglied nach Lagrange (3.4.2) oder durch Rn+1 = (1 − θ)n f (n+1) (x0 + θ(x − x0 )) (x − x0 )n+1 n! Restglied nach Cauchy (3.4.3) jeweils mit 0 < θ < 1 (θ hängt von x, x0 ab). Beweis über verallgemeinerten Mittelwertsatz — hier keine Details). Falls f (x) beliebig oft differenzierbar ist, kann man f (x) über seine Taylorreihe ausdrücken: f (x) = ∞ X f (k) (x0 ) k! k=0 (x − x0 )k (3.4.4) Beispiele: (i) e-Funktion mit beliebigem x0 (überprüfe Konsistenz) =⇒ dk exp(x) = exp(x) dxk ∞ ∞ X X f (k) (x0 ) ex0 k (x − x0 ) = (x − x0 )k k! k! k=0 k=0 x0 = e ∞ X (x − x0 )k k=0 x0 x−x0 = e e = ex 86 k! (ii) Sinus mit x0 = 0 d2k+1 = (−1)k cos(0) = (−1)k sin(x) dx2k+1 x=0 2k d = (−1)k sin(0) = 0 sin(x) dx2k x=0 −→ zerlege allgemeine Taylorreihe in Terme mit geraden und solche mit ungeraden Potenzen sin(x) = ∞ X f (2k) (x0 ) k=0 (2k)! (x − x0 ) 2k ∞ X (−1)k = x2k+1 (2k + 1)! k=0 + ∞ X f (2k+1) (x0 ) k=0 (2k + 1)! (x − x0 )2k+1 (3.4.5) analoges Vorgehen bei Cosinus cos(x) = ∞ X (−1)k k=0 (2k)! x2k (3.4.6) (iii) Geometrische Reihe mit x0 = 0 dk 1 = k! dxk 1 − x x=0 ∞ ∞ X X 1 f (k) (x0 ) =⇒ = (x − x0 )k = xk 1−x k! k=0 k=0 (3.4.7) Beachte: Differenzierbarkeit von 1/(1 − x) nur für x 6= ±1 gegeben −→ Reihe kann nur für −1 < x < 1 verwendet werden (iv) Logarithmus ln(1 − x) mit x0 = 0 dk = − (k − 1)! ln(1 − x) k dx x=0 ∞ ∞ X X f (k) (x0 ) xk k ln(1 − x) = (x − x0 ) = − k! k k=0 (3.4.8) k=1 Beispiele (i-iii) sind kein Zufall: Verschärfung des Satzes zur gliedweisen Differentiation von Reihen (Rechenregel (b), Gl.(3.3.20)) im Fall von Potenzreihen möglich 87 Differentiation von Potenzreihen: Eine Potenzreihe P∞ n=0 an (x − x0 )n mit dem Kon- vergenzradius R ist für alle x ∈ (x0 − R, x0 + R) beliebig oft differenzierbar mit ∞ ∞ X n! dk X n a (x − x ) = an (x − x0 )n−k n 0 k dx n=0 (n − k)! n=k (3.4.9) Beweis: zweiteilig (a) Entscheidender Punkt: Konvergenzradius ändert sich bei Differentiation nicht −→ betrachte Konvergenzradius Rk der k-ten Ableitung (beide Folgen absolut konv.) Rk 1/n n! = lim sup |an | (n − k)! n→∞ p p = lim sup n n(n − 1) · · · (n − (k − 1)) · lim sup n |an | | n→∞ {z } | n→∞ {z } ln[n(n−1)···(n−(k−1))] =R n =1 = lim sup e n→∞ = R −→ gleichmäßige Konvergenz der Potenzreihe überträgt sich auf jede Ableitung (b) Potenzreihen und alle Ableitungen sind für x ∈ (x0 − r, x0 + r) mit r < R gleichmäßig konvergent und erfüllen damit die Voraussetzungen des allgemeinen Satzes zu Funktionenreihen. Gl.(3.4.9) für beliebige Potenzreihen ergibt gerade ∞ dk X n a (x − x ) n 0 dxk n=0 = n! an (3.4.10) x=x0 −→ Potenzreihe ist mit ihrer Taylorreihe identisch Taylorentwicklung für infinitesimale x − x0 : Falls x − x0 klein ist, impliziert der Satz von Taylor für Funktionen, die mindestens 2-fach differenzierbar sind f (x) = f (x0 ) + df (x0 ) (x − x0 ) + O((x − x0 )2 ) dx (3.4.11) bzw für nur 1-fach differenzierbare Funktionen f (x) = f (x0 ) + df (x0 + θ(x − x0 )) (x − x0 ) dx 88 (Restglied nach Lagrange) (3.4.12) Man erhält also für die infinitesimale Änderung df von f beim Übergang von x0 zum infinitesimal entfernten x = x0 + dx in beiden Fällen in führender Ordnung von dx df := f (x0 + dx) − f (x0 ) = df (x0 ) dx dx (3.4.13) −→ ist formale Legitimation für Rechnen mit Differentialen df und dx 3.5 Extrema Definition: Ein Wert f (x0 ) mit x0 ∈ D heißt lokales Minimum bzw Maximum der Funktion f : D → R, wenn es ein δ > 0 gibt, so dass für alle x ∈ D mit |x − x0 | < δ gilt f (x0 ) ≤ f (x) bei Minimum f (x0 ) ≥ f (x) bei Maximum (3.5.1) Notwendige Bedingung für Extremum: Falls f : I → R im inneren Punkt x0 ∈ I ein Extremum besitzt und außerdem in x0 differenzierbar ist, so gilt f ′ (x0 ) = 0 (3.5.2) Beweis: betrachte exemplarisch Maximum −→ dann existiert eine Umgebung von x0 , in der gilt f (x) − f (x0 ) ≥ 0 für x < x0 ≤ 0 für x > x x − x0 0 −→ dementsprechend erhält man im Grenzwert x → x0 f (x) − f (x0 ) = 0, x→x0 x − x0 f ′ (x0 ) = lim wie behauptet. Hinreichende Bedingung für Extremum: Falls f : I → R auf I 2n-fach (n ≥ 1) stetig differenzierbar und f (k) (x0 ) = 0 für alle k = 1, . . . , 2n − 1 ist, so besitzt f in x0 ein strenges lokales Minimum, falls f (2n) (x0 ) > 0 ein strenges lokales Maximum, falls f (2n) (x0 ) < 0 89 (3.5.3) Beweis: die Funktion f (x) − f (x0 ) sowie ihre ersten 2n − 1 Ableitungen verschwinden an der Stelle x0 −→ erlaubt Verwendung der Regel von Bernoulli - de l’Hopital in der Form (3.3.31) f (x) − f (x0 ) f (2n) (x0 ) f (2n) (x) = lim = x→x0 (x − x0 )2n x→x0 (2n)! (2n)! lim −→ das Vorzeichen von f (2n) (x0 ) bestimmt, ob f (x) in der unmittelbaren Umgebung von x0 größer oder kleiner als f (x0 ) ist Beispiel: f (x) = x3 ln(1 − x) bei x0 = 0 −→ werte Ableitungen über Reihenentwicklung (3.4.8) des ln aus ∞ X 1 n+3 x ln(1 − x) = − x n n=1 3 ∞ Xn+3 d 3 x=0 x ln(1 − x) = − xn+2 = 0 dx n n=1 ∞ X (n + 3)(n + 2) d2 3 x=0 x ln(1 − x) = − xn+1 = 0 2 dx n n=1 ∞ X (n + 3)(n + 2)(n + 1) d3 3 x=0 x ln(1 − x) = − xn = 0 3 dx n n=1 ∞ X d4 3 x=0 x ln(1 − x) = − (n + 3)(n + 2)(n + 1)xn−1 = −24 < 0 dx4 n=1 −→ Maximum 90 Kapitel 4 Integralrechnung bei Funktionen einer Variablen 4.1 4.1.1 Grundlegende Begriffe: Riemann-Integral Definition Ziel: Berechne Fläche unter Kurve (d.h. insbesondere die Fläche von geometrischen Objekten, deren Ränder als Funktionen f (x) gegeben sind) Idee: Approximiere Fläche unter krummer Kurve durch die (bekannte) Fläche von Rechtecken, die an die Kurve anliegen −→ intuitiv klar, aber beliebig viele Realisierungen vorstellbar 6f (x) Untersumme 6 f (x) . .. ... . . @ ... R .... @ ... . . . . . . . ..... . . . ........... .... ..... ..................... .......................... . . . . ... . . . . . . . . . . . . . .................... ... ..... .... .... . . . .. .. . .. .. .... fkmin ................. . ..... ..... ............... .............................. ........................ ?............ . . . . . ................... .. .... .... ... . . . . ... .... .. .... .... ... x0 =a .... ... .... ... x1 x2 ··· .... ... Obersumme fkmax x - .... ... x0 =a xn(D) =b 91 .... ... .... ... x1 x2 ... .... ··· .... ... xn(D) =b x - Mathematische Formalisierung: Definition: Als Zerlegung Z des Intervalls [a, b] versteht man einen Satz geordneter Zwischenpunkte Z := x0 , x1 , . . . xn(Z) a = x0 < x1 < x2 . . . < xn(Z) = b (4.1.1) −→ Z zerlegt [a, b] in n(Z) unterschiedlich lange Abschnitte Definition: Falls die Funktion f (x) auf dem Intervall [a, b] beschränkt ist, Z eine Zerlegung von [a, b] ist und fkmin := inf f (x)x ∈ [xk−1 , xk ] > −∞ fkmax := sup f (x)x ∈ [xk−1 , xk ] < +∞ (kleinster “Funktionswert”) (4.1.2) (größter “Funktionswert”) (4.1.3) den kleinsten und größten Funktionswert (präziser: die größte untere und kleinste obere Schranke der Funktion) auf dem Teilintervall [xk−1 , xk ], k = 1, . . . , n(Z), bezeichnen (d.h. man hat fkmin ≤ f (x) ≤ fkmax ∀x ∈ [xk−1 , xk ]), nennt man n(Z) S(Z) := X fkmin (xk − xk−1 ) die Untersumme (4.1.4) X fkmax (xk − xk−1 ) die Obersumme (4.1.5) k=1 n(Z) S(Z) := k=1 zur Zerlegung Z. −→ die Fläche unter der Kurve wird um so besser approximiert, je kleiner die Breite aller Teilintervalle [xk−1 , xk ] ist Offensichtlich gilt für beliebige Zerlegung (f (x) war beschränkt vorausgesetzt worden) −∞ < S(Z) ≤ S(Z) < +∞ (4.1.6) Definition: Eine auf dem Intervall [a, b] beschränkte Funktion f (x) heißt Riemannintegrierbar auf [a, b], falls sup S(Z) = inf S(Z). Man schreibt dann Z Z sup S(Z) = inf S(Z) ≡ Z Z Z a b dx f (x) ≡ Z b f (x) dx (4.1.7) a Offensichtliche Bedingung für supZ S(Z) = inf Z S(Z): fkmin und fkmax müssen sich für verschwindende Abschnittsbreite, xk − xk−1 → 0, beliebig annähern 92 Satz: f (x) ist integrierbar über [a, b], falls f (x) auf [a, b] (zumindest stückweise) stetig ist. In anderen Worten: der genaue Funktionswert, der für das Intervall [xk−1 , xk ] als Repräsentant verwendet wird, darf im Limes xk − xk−1 → 0 keine Rolle spielen −→ erlaubt 4.1.2 Alternative Formulierung des Riemann-Integrals Definition: Wähle dazu aus jedem Teilintervall [xk−1 , xk ] einen beliebigen Punkt ξk aus: die Menge aller ξk bezeichnet man als Besetzung B zur Zerlegung Z ξk xk−1 ≤ ξk ≤ xk ; 1 ≤ k ≤ n(Z) B(Z) := (4.1.8) −→ Riemann-Summe definiert als n(Z) S(Z, B) = X (xk − xk−1 ) | {z } f (ξk ) | {z } (4.1.9) k=1 |{z} gehe alle charakter. Breite Abschnitte durch f (x)-Wert des Abschnitts im Abschnitt Zur Charakterisierung der Zerlegung noch benötigt: Maschenweite der Zerlegung δ(Z) := max |xk − xk−1 | (4.1.10) k −→ δ(Z) → 0 impliziert, dass die Breite jedes Teilintervalls gegen Null geht Satz: Eine auf dem beschränkten Intervall [a, b] beschränkte Funktion f (x) ist genau dann über [a, b] Riemann-integrierbar, wenn limδ(Z)→0 S(Z, B) existiert: Z n(Z) b dx f (x) = a 4.1.3 lim δ(Z)→0 X k=1 f (ξk ) (xk − xk−1 ) (4.1.11) Eigenschaften des Riemann-Integrals (folgen direkt aus Definition) • f , g integrierbar =⇒ f + g integrierbar Z b h Z b Z b i dx f (x) + g(x) = dx f (x) + dx g(x) a a 93 a (4.1.12) • f integrierbar =⇒ αf , |f | integrierbar Z b h Z b i dx αf (x) = α dx f (x) a a Z b Z b dx |f (x)| ≥ dx f (x) a (4.1.13) (4.1.14) a • f , g integrierbar =⇒ f · g integrierbar • f integrierbar, inf x∈[a,b] |f (x)| > 0 =⇒ 1/f integrierbar • f , g integrierbar, f (x) = g(x) ∀x ∈ [a, b] bis auf endlich viele Punkte Z b Z b =⇒ dx f (x) = dx g(x) a (4.1.15) a • f integrierbar über [a, b] und [b, c] =⇒ f integrierbar über [a, c] Z b Z c Z c dx f (x) + dx f (x) = dx f (x) a b (4.1.16) a • für a < b definiert man Z a dx f (x) := 0 (4.1.17) a Z b a dx f (x) := − Z b dx f (x) (4.1.18) a −→ Gl.(4.1.16) und (4.1.18) zusammen erlauben Einschieben eines beliebigen Punkts c Z b Z c Z b dx f (x) = dx f (x) + dx f (x) (4.1.19) a a c d.h. c muss nicht zwischen a und b liegen (sofern Integrierbarkeit gegeben ist) Satz: Vertauschbarkeit von Grenzwertbildung und Integration Falls die Funktionen fn (x) für alle n beschränkt und über [a, b] integrierbar sind und die fn (x) auf [a, b] gleichmäßig gegen die Funktion f (x) konvergieren, ist f (x) ebenfalls integrierbar und es gilt Z b Z b Z b lim dx fn (x) = dx lim fn (x) = dx f (x) (4.1.20) n→∞ a n→∞ a 94 a 4.2 Unbestimmtes Integral Satz: Falls f (x) auf dem Intervall [a, b] stetig ist, ist die Funktion Z x F (x) := dt f (t) x ∈ [a, b] (4.2.1) a differenzierbar auf [a, b] mit F ′ (x) = f (x) ∀ x ∈ [a, b] (4.2.2) −→ klar aus Definition der Ableitung und des Integrals Z x+ǫ Z x 1 ′ F (x) = lim dt f (t) − dt f (t) ǫ→0 ǫ a a Z 1 x+ǫ dt f (t) = lim ǫ→0 ǫ x −→ da f (t) stetig vorausgesetzt ist, wird jeder reelle Wert zwischen f (x) und f (x + ǫ) von f (t) angenommen −→ es gibt ein ξ ∈ [x, x + ǫ], für das f (ξ)ǫ gerade mit dem Integralwert übereinstimmt 1 F ′ (x) = lim f (ξ)ǫ ǫ→0 ǫ = f (x) x≤ξ ≤x+ǫ Definition: Falls F ′ (x) = f (x) auf dem Intervall [a, b] gilt, heißt F Stammfunktion von f . Man schreibt dann Z F (x) = dx f (x) ↑ ↑ ↑ beachte Schreibweise (4.2.3) −→ Stammfunktion ist nur bis auf Konstante eindeutig bestimmt Hauptsatz der Differential- und Integralrechung: Falls f (x) stetig auf [a, b] und F dort Stammfunktion von f ist, gilt Z b dx f (x) = F (b) − F (a) a 95 (4.2.4) Beispiele: (Nachweis durch Ableitung) (i) Potenzen f (x) = xα (α 6= −1) f (x) = 1 x xα+1 + const α+1 =⇒ F (x) = =⇒ F (x) = ln(x) + const (4.2.5) (4.2.6) (ii) Exponentialfunktion f (x) = exp(µx) =⇒ exp(µx) + const µ (4.2.7) F (x) = x ln(x) − x + const (4.2.8) (4.2.9) F (x) = (iii) Logarithmus f (x) = ln(x) =⇒ (iv) Trigonometrische Funktionen f (x) = sin(x) =⇒ F (x) = − cos(x) + const f (x) = cos(x) =⇒ F (x) = sin(x) + const (4.2.10) Konvention: const wird bei Angabe der Stammfunktion immer weggelassen 4.3 Integrationsmethoden Vorbemerkung: Integration komplizierter Integranden ist häufig auftretendes Problem in theoretischer Physik • technische Fertigkeiten zur Integration gehören zum Basiswissen • allerdings ist Integration keine rein “mechanische” Aufgabe wie die Differentiation, sondern erfordert Erfahrung mit Integraltypen • heute vorhandenes Wissen ist über Jahrhunderte akkumuliert worden • nicht überraschend, wenn manche Integrationstricks nicht unmittelbar naheliegen • in Praxis: häufiger Rückgriff auf Tabellenwerke 96 Zur Integration nicht-elementarer Funktionen stehen im wesentlichen vier Techniken zur Verfügung: • partielle Integration • Substitution • Partialbruchzerlegung • gliedweise Integration von Reihen 4.3.1 Partielle Integration −→ ist Umkehrung der Produktregel h(x) = f (x) g(x) =⇒ h′ (x) = f ′ (x) g(x) + f (x) g ′(x) −→ f · g ist Stammfunktion von f ′ g + f g ′ Z Z ′ f (x) g(x) = dx f (x) g(x) + dx f (x) g ′(x) −→ auflösen Z ′ dx f (x)g (x) = f (x)g(x) − Z dx f ′(x)g(x) (4.3.1) −→ anwendbar, wenn Stammfunktion von Teil des Integranden bekannt ist R R −→ sinnvoll, wenn f ′ g einfacher als f g ′ ist Beispiele: Standardtypen für partielle Integration (i) Potenz mal trigonometrischer Funktion, Exponentialfunktion, . . . Z Z dx |{z} x exp(x) = x exp(x) − dx exp(x) = (x − 1) exp(x) | {z } =f =g ′ (ii) trigonometrische Funktion mal beliebiger Funktion f Z Z dx f (x) sin(x) = −f (x) cos(x) + dx f ′(x) cos(x) |{z} | {z } =f =g ′ Z ′ = −f (x) cos(x) + f (x) sin(x) − dx f ′′ (x) sin(x) 97 (4.3.2) −→ rekursive Anwendung der partiellen Integration erlaubt es, jede beliebige Potenz wegzudifferenzieren −→ alternative kann man dieses Resultat auch in der folgenden Form anwenden Z dx [f (x) + f ′′ (x)] sin(x) = −f (x) cos(x) + f ′ (x) sin(x) (4.3.3) (iii) Logarithmus mal Potenz Z Z x2 1 x2 x2 x2 dx |{z} x ln(x) = ln(x) − dx = ln(x) − | {z } 2 2 x 2 4 ′ =g 4.3.2 (4.3.4) =f Substitution −→ ist Umkehrung der Kettenregel H(x) = F (g(x)) =⇒ −→ F (g(x)) ist Stammfunktion von F (g(x)) = Z dF dg dH (x) = (g(x)) (x) dx dg dx dF dg (bezüglich der Variablen x) dg dx dx f (g(x)) dg (x) dx mit f (g) := dF (g) dg (4.3.5) dg (x) hat, wird das Integral bezüglich x dx durch die Stammfunktion F (g) von f (g) bezüglich g gelöst, wobei F (g) an der Stelle −→ falls der Integrand also die Form f (g(x)) g(x) zu nehmen ist −→ bei bestimmtem Integral (Hauptsatz der Differential und Integralrechnung) Z b dg F (g(b)) − F (g(a)) = dx f (g(x)) (x) dx a dF (g) bezüglich der Variablen g ist, dg Z F (g) = dg f (g) (4.3.6) Da F (g) Stammfunktion von f (g) = (4.3.7) lässt sich (4.3.6) noch umschreiben in die Form Z a b dg dx f (g(x)) (x) = dx 98 Z g(b) dg f (g) g(a) (4.3.8) In der Praxis ist f (g(x)) meist nicht von vornherein in der Form einer verschachtelten Funktidg on sichtbar, was aber kein Problem darstellt. Vielmehr muss zuerst g(x) über identifiziert dx werden −→ sobald ein invertierbares g(x) gefunden ist, lässt sich diese Funktion (zumindest im Prinzip) nach x = x(g) auflösen Hat man also ursprünglich ein Integral der Form Z dg dx f˜(x) (x) dx lässt sich daraus die Form (4.3.5) gewinnen, indem man x(g) in f˜(x) einsetzt f˜(x) = f˜(x(g(x))) ≡ f (g(x)) 2 Bsp: f˜(x) = ex ; g(x) = x2 =⇒ f (g) = eg −→ die genaue analytische Form von f (g(x)) als Funktion von x wird aber gar nicht benötigt dg Die Kettenregel ist daher anwendbar, falls der Integrand die Form f (x) dx (x) hat (also prak- tisch immer). −→ ist wichtigstes Instrument zur Integration komplizierter Funktionen Alternative Herleitung der Substitutionsregel Betrachte direkt Riemann-Summe (4.1.9) für speziellen Integranden in (4.3.5) (n = n(Z)) S(Z, B) = n X k=1 dg f (g(ξk )) (ξk ) (xk − xk−1 ) dx ξk ∈[xk−1 ,xk ] (4.3.9) Falls g(x) streng monoton wachsend oder fallend ist (was abschnittsweise immer gilt), induziert die Zerlegung x0 = a < x1 < . . . < xn = b von [a, b] eine Zerlegung des Intervalls von g(a) bis g(b): g(a) < g(b) : g0 = g(x0 ) < g1 = g(x1 ) < . . . < gk = g(xk ) < . . . < gn = g(xn ) g(a) > g(b) : g0 = g(xn ) < g1 = g(xn−1 ) < . . . < gk = g(xn−k ) < . . . < gn = g(x0 ) 99 Falls die Maschenweite δ(Z) klein genug ist, erhält man in jedem Teilintervall [xk−1 , xk ] durch Taylorentwicklung um den Punkt ξk ∈ [xk−1 , xk ] dg (ξk )(xk − ξk ) + O (xk − ξk )2 dx dg −g(ξk ) − (ξk )(xk−1 − ξk ) − O (xk−1 − ξk )2 dx dg (ξk )(xk − xk−1 ) + O (xk − xk−1 )2 = dx dg = (ξk )(xk − xk−1 ) + O δ(Z)2 dx g(xk ) − g(xk−1) = g(ξk ) + −→ Einsetzen in die Riemann-Summe S(Z, B) = n X k=1 f (g(ξk ))|ξk ∈[xk−1 ,xk ] (g(xk ) − g(xk−1)) + O δ(Z)2 (4.3.10) −→ da g(x) streng monoton vorausgesetzt ist, liegt g(ξk ) stets zwischen gk−1 = g(xk−1 ) und gk = g(xk ), gn−(k−1) = g(xk−1 ) und gn−k = g(xk ), falls g(x) streng monoton steigend falls g(x) streng monoton fallend −→ ηk = g(ξk ) stellt also eine Besetzung des jeweiligen g-Intervalls dar n X f (ηk )|ηk ∈[gk−1 ,gk ] (gk − gk−1) falls g(a) < g(b) k=1 S(Z, B) = n X f (ηk )|ηk ∈[gn−(k−1) ,gn−k ] (gn−k − gn−(k−1) ) falls g(a) > g(b) k=1 −→ ordne Reihe im Fall g(a) > g(b) um (l = n − k + 1) n X f (ηk )|ηk ∈[gk−1 ,gk ] (gk − gk−1) falls g(a) < g(b) k=1 S(Z, B) = n X − f (ηl )|ηl ∈[gl−1 ,gl ] (gl − gl−1 ) falls g(a) > g(b) l=1 −→ im Limes δ(Z) → 0 erhält man daher Z g(b) dg f (g) g(a) Z g(a) Z lim S(Z, B) = δ(Z)→0 dg f (g) = − g(b) falls g(a) < g(b) g(a) −→ führt gerade wieder auf (4.3.8) 100 (4.3.11) g(b) dg f (g) falls g(a) > g(b) Beispiele: Standardtypen von Substitutionen (i) Vorzeicheninversion (beachte: Benennung der Integrationsvariablen ist beliebig) Z Z Z − dx f (−x) = dg f (g) = dx f (x) (4.3.12) g(x) = −x =⇒ dg (x) = −1 dx 1 x −→ Integral klar, falls über positive Bereiche von x integriert wird Z b 1 0 < a < b dx = ln(b) − ln(a) x a konkretes Beispiel: f (x) = −→ falls über einen Bereich negativer x integriert wird, gehe vor Integration mittels Substitution zu positivem g über Z b Z b 1 1 dx (−1) = dx | {z } x −x a a |{z} =f (−x) Z a < b < 0 dg = dx (x) g(b) 1 g g(a) = ln(g(b)) − ln(g(a)) = dg = ln(−b) − ln(−a) = ln |b| − ln |a| −→ also allgemein Z a b b 1 dx = ln x a (4.3.13) (ii) Funktionen von trigonometrischen Funktionen Z Z dx f (sin(x)) cos(x) = dg f (g) dg (x) = cos(x) dx =⇒ g(x) = sin(x) konkretes Beispiel: f (sin(x)) = sin(x) Z Z g2 sin(x)2 dx sin(x) cos(x) = dg g = = 2 2 101 (4.3.14) (4.3.15) −→ funktioniert natürlich auch umgekehrt Z Z dx f (cos(x)) sin(x) = dg f (−g) dg (x) = sin(x) dx konkretes Beispiel: f (cos(x)) = Z dx tan(x) = Z =⇒ (4.3.16) g(x) = − cos(x) 1 cos(x) sin(x) = dx cos(x) Z dg −1 = − ln |g| = − ln |cos(x)| (4.3.17) g (iii) Elimination von Wurzeln 2 Z Z f (x) 1 a 2 dx √ = dg f g −b a 4 ax + b dg 2 (x) = (ax + b)−1/2 g(x) = (ax + b)1/2 a dx konkretes Beispiel: f (x) = x Z Z x 1 a2 2 g −b dx √ = dg a 4 ax + b 1 a2 g 3 = − bg a 4 3 1 2√ = 2 ax + b (ax + b) − b a 3 √ 1 2 2 = 2 ax + b ax − b a 3 3 (4.3.18) (4.3.19) (iv) Potenzen im Nenner Z f (x) dx 2 = − x 1 g(x) = x Z 1 dg f g 1 dg (x) = − 2 dx x (4.3.20) konkretes Beispiel: f (x) = ln(x) Z Z ln(x) 1 dx 2 = − dg ln x g Z = dg ln(g) = g ln(g) − g ln(x) 1 − = − x x 102 (4.3.21) (v) Integrale mit Gauß-Funktionen: Betrachte elementarste Version Z Z −1 2 2 dx x exp −αx = dx (−2αx) exp −αx | {z } | {z } 2α dg = dx =g Z −1 = dg exp(g) 2α exp(g) = − 2α exp (−αx2 ) = − 2α (vi) Bestimmung von g(x): Betrachte Z dx √ ax2 1 + bx + c für a > 0 und kürze im weiteren Wurzel mit h ab, h(x) := √ ax2 + bx + c dg ist direkt erkennbar dx Mögliche Lösungsstrategie: Suche Funktion u(x) mit der Eigenschaft −→ weder g selbst noch g ′ = u(x) = α d [h(x)u(x)] dx mit konstantem α −→ falls das gelingt, ist Substitution möglich Z Z 1 u(x) dx = dx h(x) h(x)u(x) Z 1 d = dx α [h(x)u(x)] h(x)u(x) dx | {z } | {z } =g(x) =f (g(x)) = α Z dg 1 g = α ln |g| = α ln |h(x)u(x)| Frage also: Gibt es solch ein u(x)? 103 (4.3.22) −→ betrachte dazu die Ableitung von h 2ax + b 2ax + b = 2h(x) 2 ax2 + bx + c ′ 2h(x)h (x) = 2ax + b h′ (x) = =⇒ =⇒ √ d [h(x)h′ (x)] = a dx d [h(x)h′ (x) + αh(x)] = a + αh′ (x) dx d a =⇒ [h(x) (h′ (x) + α)] = α h′ (x) + dx α √ −→ für α = a erhält man √ √ i √ dh = a h′ (x) + a h(x) h′ (x) + a dx {z } | =⇒ =u(x) −→ die Lösung des Ausgangsintegrals lautet also Z √ √ 1 = a ln h(x) h′ (x) + a dx √ ax2 + bx + c √ √ √ 1 = a ln a ax2 + bx + c + (2ax + b) 2 √ √ √ 2 a ln 2 a ax + bx + c + 2ax + b + const = 4.3.3 (4.3.23) Partialbruchzerlegung Falls der Integrand eine gebrochen rationale Funktion ist, p(x) f (x) = q(x) p(x) = n X i ai x i=0 q(x) = m X bj xj j=0 ist Faktorisierung des Nenner-Polynoms und anschließende Partialbruchzerlegung hilfreich −→ gehe Schritte einzeln durch Faktorisierung des Nenner-Polynoms: mittels Fundamentalsatz der Algebra (in R) q(x) = bm µ Y gk (x)µk gk (x) = xνk + qk,1 xνk −1 + . . . + qk,νk (4.3.24) k=1 µ X νk µk = m (4.3.25) k=1 −→ Faktorisierung von q(x) in elementare Polynome, die keine Nullstellen besitzen −→ beruht im wesentlichen auf Identifikation der Nullstellen von q(x) 104 Beispiele: x2 − 1 = (x + 1)(x − 1) ⇐⇒ b2 = 1, g1 = x + 1, g2 = x − 1, µ1 = µ2 = 1 x3 − x2 + x − 1 = (x2 + 1)(x − 1) ⇐⇒ b3 = 1, g1 = x2 + 1, g2 = x − 1, µ1 = µ2 = 1 Partialbruchzerlegung: zerlege Hauptnenner in Einzelteile 1 1 Qµ = q(x) bm k=1 gk (x)µk µ 1 X Ak (x) = bm k=1 gk (x)µk −→ die Ak (x) müssen durch Koeffizientenvergleich bestimmt werden Beispiele: 1 1 = −1 (x + 1)(x − 1) 1 1 1 = − 2 x−1 x+1 1 1 = 3 2 2 x −x +x−1 (x + 1)(x − 1) 1 1 x+1 = − 2 x − 1 x2 + 1 x2 −→ nach Partialbruchzerlegung: termweise Integration 105 (4.3.26) Beispiele: Z Z 1 1 1 1 dx 2 dx = − dx x −1 2 x−1 x+1 1 [ln |x − 1| − ln |x + 1|] = 2 1 x − 1 = ln 2 x + 1 Z Z Z Z 1 1 x 1 1 dx = − dx 2 dx 3 − dx 2 x − x2 + x − 1 2 x−1 + 1} + 1} |x {z |x {z g1 = x2 + 1 g2 = arctan(x) dg2 1 dg1 = 2x = 2 dx x +1 dx Z Z 1 1 ln(x − 1) − dg1 − dg2 1 = 2 g1 1 1 = ln |x − 1| − ln |g1 | − g2 2 2 1 1 2 ln |x − 1| − ln |x + 1| − arctan(x) = 2 2 Z 4.3.4 Gliedweise Integration von Reihen Satz: Falls alle Glieder fn (x) der Funktionenreihe P∞ n=0 fn (x) über das Intervall [a, b] integrierbar sind und die Reihe auf [a, b] gleichmäßig konvergiert, ist die Reihe ebenfalls integrierbar und es gilt Z dx ∞ X fn (x) = n=0 ∞ Z X dx fn (x) (4.3.27) n=0 Beispiel: Exponentialfunktion exp(x) = ∞ X xn n=0 n! =⇒ Z dx exp(x) = ∞ Z X n=0 dx xn + const n! ∞ X xn+1 = + const (n + 1)! n=0 = = ∞ X xk k=1 ∞ X k=0 k! + const xk + const k! = exp(x) + const 106 (4.3.28) 4.4 Uneigentliche Integrale −→ 3 Grundtypen zu diskutieren 4.4.1 Integration über ein unbeschränktes Intervall Definition: Falls f (x) auf [a, ∞) beschränkt und auf jedem Intervall [a, b] mit a < b < ∞ integrierbar ist, nennt man Z ∞ dx f (x) := lim b→∞ a ein uneigentliches Integral. Falls limb→∞ tegral konvergent, sonst divergent. Rb a Z b dx f (x) (4.4.1) a dx f (x) existiert, heißt das uneigentliche In- −→ existiert nur für Funktionen, die für x → ∞ ausreichend schnell abfallen Beispiel: Z 1 ∞ dx 1 xα b 1 −1 = lim α>1 b→∞ (α − 1)xα−1 α−1 1 = α=1 lim [ln(x)]b1 = ∞ b→∞ b −1 lim = ∞ α<1 b→∞ (α − 1)xα−1 1 (4.4.2) −→ gleiches Vorgehen bei Grenze −∞ 4.4.2 Integration über eine am Rand unbeschränkte Funktion Definition: Falls f (x) auf dem Intervall (a, b] definiert und auf jedem Intervall [a + δ, b] mit 0 < δ < b − a integrierbar ist, nennt man Z b Z dx f (x) := lim δ→0 a ein uneigentliches Integral. Falls limδ→0 Integral konvergent, sonst divergent. Rb a+δ b dx f (x) dx f (x) existiert, heißt das uneigentliche −→ existiert nur für Funktionen, die für x → a nicht zu schnell anwachsen 107 (4.4.3) a+δ Beispiel: Z 1 dx 0 1 xα 1−α 1 1 x = α>1 lim 1 − δ 1−α = ∞ lim δ→0 1 − α 1 − α δ→0 δ = lim [ln(x)]1δ = lim [0 − ln(δ)] = ∞ α=1 δ→0 δ→0 1−α 1 x 1 1 lim = lim 1 − δ 1−α = α<1 δ→0 1 − α 1 − α δ→0 1−α δ (4.4.4) −→ gleiches Vorgehen bei Grenze b 4.4.3 Integration über eine im Inneren unbeschränkte Funktion −→ zwei mögliche Verfahrensweisen Standardvorgehen bei uneigentlichem Integral: Z b Z x0 −δ Z b dx f (x) = lim dx f (x) + lim+ dx f (x) δ→0+ a ǫ→0 a x0 +ǫ {z } | beide Beiträge müssen getrennt existieren (4.4.5) Cauchy Hauptwert-Integral: verknüpft beide Terme in (4.4.5) Z x0 −δ Z b Z b dx f (x) + dx f (x) P dx f (x) := lim (4.4.6) δ→0+ a x0 +δ a | {z } nur Grenzwert der Summe der beiden Beiträge muss existieren −→ erlaubt Kompensation von unendlich großen positiven und negativen Beiträgen −→ entspricht häufig dem physikalisch erforderlichen Vorgehen −→ limδ→0+ wird häufig nicht explizit aufgeführt, sondern implizit angenommen Wichtigstes Cauchy Hauptwert-Integral: betrachte 1/x für a < 0 < b Z −δ Z b Z b 1 1 1 dx dx + = lim+ dx δ→0 x x x a a +δ b −δ + ln = lim+ ln δ→0 a +δ b = ln −a Illustration: 108 (4.4.7) f (x) 6 −δ - a +δ b x −→ Integration über Singularität erfordert die Antisymmetrie des Integranden bezüglich der Spiegelung an der Position der Singularität −→ Integration von f (x)/x über 0 immer möglich, wenn f (0) beschränkt Z b Z b Z b f (x) f (x) − f (0) f (0) dx = + dx dx x x x a a a Z b b f (x) − f (0) + f (0) ln = dx x −a a 109 (4.4.8) Kapitel 5 Komplexe Zahlen 5.1 Elementare Definitionen 5.1.1 Grundbegriffe Grundproblem bei reellen Zahlen: keine Lösung zu x2 + 1 = 0 etc √ Beobachtung: Arbeiten mit “formalen” Lösungen x± = ± −1 führt häufig auf sinnvolle Resultate −→ löse Problem durch Rechnen mit Punkten der Ebene, d.h. mit Paaren (a, b) von reellen Zahlen, komplexe Zahlen genannt −→ Ebene der komplexe Zahlen: komplexe Ebene (Gauß’ sche Zahlenebene) 6 imaginäre Achse obere Halbebene Imaginärteil von z = ℑ(z) = b z u R ... . .....ϕ ... .. s Nullpunkt = Paar (a, b) reelle Achse - a = ℜ(z) = Realteil von z untere Halbebene 110 Notation: Zahlen auf imaginärer Achse = rein imaginäre z Zahlen auf reeller Achse = rein reelle z Abstand vom Urspung = Betrag von z, geschrieben |z| Winkel gegen positive reelle Achse = Arcus (Argument, Phase) von z −→ elementare geometrische Relationen: 5.1.2 √ a2 + b2 b ϕ = arctg a a = R cos(ϕ) (5.1.1) b = R sin(ϕ) (5.1.4) |z| = R = (5.1.2) (5.1.3) Operationen mit komplexen Zahlen Gleichheit zweier komplexer Zahlen z1 = (a1 , b1 ) und z2 = (a2 , b2 ): z1 = z2 ⇐⇒ a1 = a2 und gleichzeitig b1 = b2 (5.1.5) z1 6= z2 ⇐⇒ a1 6= a2 und/oder b1 6= b2 (5.1.6) Addition/Subtraktion: z1 + z2 = (a1 + a2 , b1 + b2 ) −→ funktioniert wie Addition von Vektoren im R2 u I @ @ z2 = (a2 , b2 ) z1 + z2 @ @u 3 z1 = (a1 , b1 ) s 6 + u −z1 = (−a1 , −b1 ) 111 (5.1.7) dementsprechend: −z = (−a, −b) ⇐⇒ z − z = (0, 0) ≡ 0 (5.1.8) Multiplikation: z1 · z2 := z1 z2 = ( a1 a2 − b1 b2 , a1 b2 + b1 a2 ) (5.1.9) −→ völlig verschieden von Skalarprodukt von Vektoren −→ Konstruktion hat gegenüber Skalarprodukt den Vorteil, dass Grundgesetze der Multiplikation erfüllt sind, insbesondere z1 · z2 = 0 ⇐⇒ z1 = 0 und/oder z2 = 0 (5.1.10) Beweis: für z1 · z2 = 0 folgt aus Real- und Imaginärteil a1 a2 = b1 b2 a1 b2 = −b1 a2 a1 b22 = −b1 a2 b2 = −a1 a22 =⇒ −→ entweder gilt a1 = 0 oder man hat a2 = b2 = 0 −→ letzteres entspricht der Behauptung, betrachte daher den ersteren Fall unter der Annnahme, dass entweder a2 oder b2 von Null verschieden ist −→ in diesem Fall (a1 = 0) folgt aus den Ausgangsgleichungen −b1 a2 = b1 b2 = 0 −→ falls entweder a2 oder b2 von Null verschieden ist, muss b1 = 0 gelten, so dass wieder die Behauptung gezeigt ist Division folgt aus Multiplikation: =⇒ z1 = z3 ⇐⇒ z2 · z3 = z1 z2 (a1 a2 + b1 b2 , −a1 b2 + b1 a2 ) z1 = z2 a22 + b22 −→ Division durch alle z bis auf 0 möglich 112 (5.1.11) Gl.(5.1.11) legt Definition der komplex konjugierten Zahl z ∗ (häufig auch z geschrieben) nahe: z ∗ = (a, −b) (5.1.12) z · z ∗ = (a2 + b2 , 0) = (|z|2 , 0) 1 z∗ (a, −b) = = 2 ∗ z z·z a + b2 =⇒ =⇒ (5.1.13) (5.1.14) Potenz einer komplexen Zahl (n = natürliche Zahl, n > 0): zn = |z · z ·{z. . . · z} n-faches Produkt (5.1.15) für z 6= 0 (5.1.17) z0 = 1 1 z −n = n z für z 6= 0 (5.1.16) −→ Standardrechenregeln für Potenzen z n · z k = z n+k (z n )k = z nk z1n · z2n = (z1 · z2 )n (5.1.18) Zusammengefasst: Mit komplexen Zahlen kann man rechnen wie mit reellen Zahlen 5.1.3 Komplexe Zahlen als Erweiterung der reellen Zahlen: Komplexe Zahl i Für alle Paare des Typs (a, 0) gehen die oben definierten Regeln für die Addition, Multiplikation etc exakt in die Regeln für die Addition, Multiplikation etc von reellen Zahlen über. −→ Paare (a, 0) können mit den reellen Zahlen identifiziert werden (a, 0) ≡ a ⇐⇒ az2 = (a, 0) · (a2 , b2 ) = (aa2 , ab2 ) (5.1.19) −→ erklärt Multiplikation von komplexen und reellen Zahlen −→ erlaubt wiederum, auch Paare (0, b) zu faktorisieren (0, b) = b (0, 1) −→ einzig fundamental neue Zahl ist (0, 1) 113 (5.1.20) Abkürzung: i = (0, 1) ⇐⇒ z = a + ib (a, b ∈ R) (5.1.21) i2 = (−1, 0) = −1 1 i∗ (0, −1) = = = −i i i · i∗ 1 (5.1.23) z ∗ = a − ib (5.1.24) (5.1.22) Elementare Operationen lesen sich wie z1 + z2 = (a1 + a2 ) + i(b1 + b2 ) (5.1.25) z1 z2 = (a1 a2 − b1 b2 ) + i(a1 b2 + b1 a2 ) (a1 a2 + b1 b2 ) + i(−a1 b2 + b1 a2 ) z1 = z2 a22 + b22 5.1.4 (5.1.26) (5.1.27) Multiplikation/Division in Polarkoordinatendarstellung Kombiniere Multiplikation (5.1.26) mit Polarkoordinatendarstellung (5.1.1)–(5.1.4) =⇒ z = R [cos(ϕ) + i sin(ϕ)] h z1 z2 = R1 R2 cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) + i cos(ϕ1 ) sin(ϕ2 ) + sin(ϕ1 ) cos(ϕ2 ) = R1 R2 [cos(ϕ1 + ϕ2 ) + i sin(ϕ1 + ϕ2 )] =⇒ |z1 z2 | = |z1 | |z2 | (5.1.28) i (5.1.29) (5.1.30) arc(z1 z2 ) = arc(z1 ) + arc(z2 ) (5.1.31) wiederholte Verwendung führt auf Moivre’sche Formel z n = Rn [cos(nϕ) + i sin(nϕ)] (5.1.32) Analoges Vorgehen für Division: z1 R1 = [cos(ϕ1 − ϕ2 ) + i sin(ϕ1 − ϕ2 )] z2 R2 5.2 (5.1.33) Folgen, Reihen Alle Begriffe der reellen Analysis aus Abschnitt 2.5 lassen sich direkt auf Folgen und Reihen komplexer Zahlen übertragen, wenn der Absolutwert von reellen Zahlen durch den Betrag 114 (5.1.1) ersetzt wird. Das gilt insbesondere für die Begriffe der gewöhnlichen, absoluten und gleichmäßigen Konvergenz von Reihen sowie den Konvergenzradius. −→ keine Details hier 5.3 5.3.1 Elementare komplexe Funktionen Exponentialfunktion Naheliegende Definition der komplexen Exponentialfunktion: über Reihendarstellung exp(z) = ∞ X zn n=0 n! (∀ z) (5.3.1) −→ ist auf reeller Achse mit gewöhnlicher e-Funktion identisch −→ die Reihe (5.3.1) erfüllt per Konstruktion die Funktionalgleichung (siehe Abschnitt 2.5) exp(z1 + z2 ) = exp(z1 ) exp(z2 ) (5.3.2) −→ Funktionalgleichung erlaubt Auswertung der Exponentialfunktion exp(z) = exp(a + ib) = exp(a) exp(ib) ∞ X (ib)n = exp(a) n! # "n=0 ∞ ∞ 2n+1 2n X X (ib) (ib) = exp(a) + (2n)! (2n + 1)! } |n=0 {z } |n=0 {z alle geraden Potenzen alle ungeraden Potenzen "∞ # ∞ X (−1)n X (−1)n 2n+1 2n = exp(a) b +i b (2n)! (2n + 1)! n=0 n=0 Reihen ergeben gerade reelle trigonometrische Funktionen: exp(z) ≡ ez = ea [cos(b) + i sin(b)] =⇒ (5.3.3) |ez | = eℜ(z) (5.3.4) arc(ez ) = ℑ(z) (5.3.5) −→ ez ist für alle z von Null verschieden 115 Gl.(5.3.3) mit a = 0 führt auf kompakte Polarkoordinatendarstellung von z eiϕ = cos(ϕ) + i sin(ϕ) z = R eiϕ =⇒ (ϕ ∈ R) (5.3.6) Spezielle Werte der komplexen e-Funktion e2πin = cos(2πn) + i sin(2πn) = 1 5.3.2 (5.3.7) Sinus, Kosinus Definition analog zur komplexen e-Funktion über Reihendarstellung ∞ X (−1)n 2n+1 sin(z) = z (2n + 1)! n=0 cos(z) = ∞ X (−1)n n=0 (2n)! z 2n (5.3.8) (5.3.9) −→ auf reeller Achse mit gewöhnlichen trigonometrischen Funktionen identisch −→ Symmetrien bleiben per Konstruktion ebenfalls erhalten sin(−z) = − sin(z) cos(−z) = cos(z) (5.3.10) Reihen von sin(z) und cos(z) sind aber Teile der Reihe von ez (schon zuvor gesehen) ∞ X (iz)n n=0 n! ∞ ∞ X X i2n 2n i2n+1 = z z 2n+1 + (2n)! (2n + 1)! |n=0 {z |n=0 } {z } alle geraden Potenzen alle ungeraden Potenzen = ∞ X (−1)n n=0 (2n)! z 2n + i ∞ X (−1)n 2n+1 z (2n + 1)! n=0 (5.3.11) −→ Euler’sche Formeln =⇒ exp(iz) = cos(z) + i sin(z) 1 [exp(+iz) + exp(−iz)] cos(z) = 2 1 sin(z) = [exp(+iz) − exp(−iz)] 2i 116 (5.3.12) (5.3.13) (5.3.14) 5.3.3 Wurzelfunktion: Mehrdeutigkeit Bislang nur ganze Potenzen von z erklärt −→ erkläre Wurzelfunktion über diese Potenzen f (z) = z 1/n ⇐⇒ f n = |f |n einψ = z = |z|eiϕ (5.3.15) −→ Betrag von z 1/n unmittelbar klar |z 1/n | = |z|1/n (5.3.16) Gl.(5.3.15) erlaubt aber mehrere, voneinander unabhängige Lösungen für die Phase von z 1/n : einψ = eiϕ ⇐⇒ ψ = ϕ + 2πν ν = 0, 1, . . . k − 1 n (5.3.17) Man sagt: die komplexe Wurzelfunktion ist mehrdeutig −→ die Lösung mit ν = 0 wird als Hauptwert bezeichnet −→ gleiches Problem besteht beim komplexen Logarithmus −→ kann durch Erweiterung des Definitionsbereichs auf mehrere komplexe Ebenen behoben werden (hier keine Details) 5.4 Analytische Funktionen Viele weitere Konzepte für reelle Funktionen lassen sich ebenfalls direkt übertragen: Stetigkeit: Die Funktion f (z) heißt stetig am Punkt z0 , falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, z0 ) > 0 gibt, so dass |f (z) − f (z0 )| < ǫ ∀ |z − z0 | < δ(ǫ, z0 ) −→ impliziert, dass Real- und Imaginärteil von f (z) getrennt stetig sind Differenzierbarkeit: Die Funktion f (z) heißt differenzierbar (oder auch: analytisch, regulär, holomorph) am Punkt z0 , falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, z0 ) > 0 und eine komplexe Zahl w gibt, so dass f (z) − f (z0 ) < ǫ ∀ |z − z0 | < δ(ǫ, z0 ) − w z − z0 ⇐⇒ f (z) − f (z0 ) ≡ f ′ (z0 ) z→z0 z − z0 w = lim −→ Regeln für Differentiation können direkt aus dem Reellen übernommen werden 117 Kapitel 6 Differentialgleichungen: Erste Schritte 6.1 Motivation Die Exponentialfunktion (2.5.10) erfüllt die Gleichung d exp(x) = exp(x) , dx (6.1.1) was in Abschnitt 3 sowohl direkt als auch durch gliedweise Differentiation der Exponentialreihe nachgewiesen wurde. Analog kann gilt für sin(x) und cos(x) d2 sin(x) = − sin(x) dx2 d2 cos(x) = − cos(x) dx2 (6.1.2) (6.1.3) Die Gleichungen (6.1.1)–(6.1.3) stellen Relationen zwischen der Funktion selbst und ihren Ableitungen her, exp(x) : sin(x), cos(x) : d y(x) = y(x) dx d2 y(x) = − y(x) . dx2 (6.1.4) (6.1.5) Derartige Relationen bezeichnet man als Differentialgleichungen. Frage: Bestimmen Differentialgleichungen die Funktion eindeutig? Die Antwort kann offensichtlich kein schlichtes Ja sein, wie man am Beispiel von sin(x), cos(x) 118 sieht: Jede beliebige Linearkombination der beiden Funktionen ist eine Lösung der Differentialgleichung (6.1.5) y(x) = A sin(x) + B cos(x) d d2 d2 y(x) = A 2 sin(x) + B 2 cos(x) dx2 dx dx = − [A sin(x) + B cos(x)] (6.1.6) 2 =⇒ = − y(x) . Erst wenn man zusätzlich den Wert von y(x) sowie y ′(x) an einer bestimmten Stelle kennt, oder alternativ den Wert von y(x) an zwei verschiedenen Stellen, bleibt nur eine einzige der Linearkombinationen (6.1.6) übrig, etwa y(0) = 0 =⇒ y ′ (0) = 1 A = 1 . B = 0 Eine solche Vorgabe von bestimmten Funktionswerten bezeichnet man als Randbedingung für die Lösung der Differentialgleichung. Fragen also: • Was benötigt man je nach Differentialgleichung an zusätzlicher Information, um eindeutige Lösungen zu erhalten? • Wie kann man Lösungen praktisch finden, wenn man sie nicht schon wie im Beispiel kennt? 6.2 Klassifikation, Notation Zentrale Unterscheidung: (A) Gewöhnliche Differentialgleichungen: Lösungen hängen nur von einer reellen Variablen ab, d.h. es treten auch nur Ableitungen nach dieser einen Variablen auf Beispiele: (i) Differentialgleichungen (6.1.4) und (6.1.5) für Exponentialfunktion und trigonometrische Funktionen 119 (ii) Newton’sche Bewegungsgleichungen für Punktteilchen m d2 r(t) = F (r(t), t) dt2 (B) Partielle Differentialgleichungen: Lösungen hängen von mehr als einer reellen Variablen ab, im Allgemeinen treten Ableitungen nach allen Variablen auf Beispiele: (i) Poisson Gleichung für elektromagnetische Potentiale (ii) Maxwell Gleichungen für elektromagnetische Felder (iii) Schrödinger Gleichung für die Wellenfunktion der Quantenmechanik −→ Diskussion hier beschränkt auf gewöhnliche Differentialgleichungen (partielle Differentialgleichungen lassen sich häufig in mehrere gewöhnliche Differentialgleichungen zerlegen) Notation: Gewöhnliche Differentialgleichungen können in zwei Grundformen aufgeschrieben werden explizite Form: y (n) (x) = F (y (n−1) (x), . . . , y(x), x) implizite Form: 0 = F (y (n)(x), y (n−1) (x), . . . , y(x), x) −→ implizieren beide, dass die Lösungen y(x) n-mal stetig differenzierbar sind, sofern F stetig ist (da y (n−1) , . . . , y in jedem Fall stetig sein müssen, damit y (n) existiert) Klassifikation von gewöhnlichen Differentialgleichungen: I) Randbedingungen Anfangswertproblem Randwertproblem ⇐⇒ y(x), . . . y (n−1) (x) sind an einem einzigen Punkt x0 gegeben ⇐⇒ y(x), . . . y (n−1) (x) sind an zwei Punkten x1 , x2 gegeben Klassifikation von gewöhnlichen Differentialgleichungen: II) Gleichungstyp Ordnung Linearität Homogenität Autonomie = höchste in der Differentialgl. auftretende Ableitung von y(x) P ⇐⇒ y (n) (x) + nk=1 ak (x)y (k−1) (x) = h(x) P (im Fall linearer Dgln) ⇐⇒ y (n) (x) + nk=1 ak (x)y (k−1) (x) = 0 ⇐⇒ y (n) (x) = F (y (n−1)(x), . . . , y(x)) 120 Das Gewinnen der allgemeinen Lösung einer Differentialgleichung (oder eines ganzen Satzes von Differentialgleichungen), d.h. aller Funktionen, die eine gegebene Differentialgleichung erfüllen, ist häufig sehr kompliziert. Es gibt aber eine Reihe recht einfacher Differentialgleichungen, deren Lösung direkt angegeben werden kann. −→ Diskussion hier beschränkt auf diese speziellen Typen 6.3 Spezielle Typen von Differentialgleichungen 6.3.1 Differentialgleichungen erster Ordnung mit separablen Variablen Struktur der Differentialgleichung: y ′ (x) = F (y(x)) g(x) (6.3.1) Randbedingungen: Anfangswert y(x0 ) = y0 (6.3.2) Satz: Falls g(x) stetig auf [a, b], x0 ∈ [a, b], F (y) stetig auf einem Intervall [A, B] mit y0 ∈ (A, B) und F (y0) 6= 0 ist, existiert eine Umgebung von x0 , gegeben durch |x − x0 | < R mit R > 0, in der für alle x ∈ [a, b] die Lösung der Differentialgleichung (6.3.1) zur Randbedingung (6.3.2) eindeutig ist und es gilt Z y(x) y0 ds = F (s) Z x ds g(s) x0 ∀ |x − x0 | < R (mit R > 0) . (6.3.3) Beweis: Zeige zunächst nur, dass (6.3.3) die Dgl (6.3.1) erfüllt. −→ für alle x, die nahe genug an x0 liegen, damit y(x) ∈ [A, B] gilt, kann direkt differenziert werden (einen solchen Bereich gibt es, weil y0 ∈ (A, B) ist) Z y(x) d 1 ds ′ = g(x) = y (x) dx y0 F (s) F (s) s=y(x) =⇒ y ′(x) = F (y(x)) g(x) . Aber auch die Randbedingung (6.3.2) wird per Konstruktion erfüllt. 121 Frage: Wie kommt man auf eine solche Lösung? −→ integriere Dgl über das Intervall [x0 , x] Z x Z x y ′(s) ds = ds g(s) F (y(s)) x0 x0 −→ falls x nahe genug an x0 liegt, ist y(x) auf [x0 , x] streng monoton −→ auf der linken Seite kann daher die Substitutionsregel (4.3.8) verwendet werden Z x x0 y ′ (s) = ds F (y(s)) Z y(x) dy y0 1 F (y) −→ zeigt gleichzeitig die Eindeutigkeit der Lösung (6.3.3) Bemerkung: Die Substitution wird häufig abkürzend durch unmittelbare Separation der Differentiale dy und dx durchgeführt, dy = F (y(x)) g(x) dx ⇐⇒ dy = g(x) dx . F (y) Beispiele: (i) Differentialgleichung für Gaußfunktion y ′(x) = y(x) x mit y(x0 ) = y0 Z y Z y ds ds = = ln |y| − ln |y0 | y0 y y0 F (s) Z x Z x 1 2 x − x20 ds g(s) = ds s = 2 x0 x0 1 2 2 =⇒ y(x) = y0 exp x − x0 2 (ii) Verallgemeinerung von (i) Z y y0 y ′(x) = − g(x) y(x) mit y(x0 ) = y0 ds = − ln |y| + ln |y0| F (s) Z x y(x) = y0 exp − ds g(s) x0 −→ gewöhnliche Exponentialfunktion ist Spezialfall mit g(x) = 1 122 (6.3.4) (6.3.5) 6.3.2 Lineare Differentialgleichungen erster Ordnung Struktur der Differentialgleichung: y ′(x) + g(x) y(x) = h(x) (6.3.6) Randbedingungen: Anfangswert y(x0 ) = y0 (6.3.7) Satz: Falls g(x) und h(x) auf dem Intervall [a, b] stetig sind und x0 ∈ [a, b] ist, dann ist die Lösung der Differentialgleichung (6.3.6) zur Randbedingung (6.3.7) eindeutig und es gilt für alle x ∈ [a, b] y(x) = y0 + Z x ds h(s) exp x0 Z s dt g(t) x0 Z exp − x x0 du g(u) . (6.3.8) Bemerkung: Die Lösung (6.3.8) der inhomogenen Dgl (6.3.6) enthält als zentralen Baustein die Lösung (6.3.5) der zugehörigen homogenen Dgl (6.3.4), Z x du g(u) ⇐⇒ yh′ (x) + g(x) yh (x) = 0 . yh (x) = y0 exp − x0 Offensichtlich kann man jede Lösung von (6.3.6) aus zwei Bausteinen zusammensetzen, nämlich einer ganz speziellen Lösung der inhomogenen Dgl (6.3.6) und einer Lösung der homogenen Dgl (6.3.4). In anderen Worten: Wenn eine Lösung der homogenen Dgl zu einer Lösung der inhomogenen Dgl addiert wird, erhält man stets wieder eine Lösung der inhomogenen Dgl, nur der Wert y(x0 ) ändert sich. yh′ (x) + g(x) yh(x) = 0 y1′ (x) + g(x) y1(x) = h(x) y1 (x) + yh (x) = y2 (x) =⇒ y2′ (x) + g(x) y2(x) = h(x) Die Addition eines geeigneten yh (x) erlaubt es also, aus einer Lösung y1 (x) der inhomogenen Dgl mit y1 (x0 ) 6= y0 eine Lösung y2 (x) zu den geforderten Randbedingungen zu machen. −→ ist sehr allgemeines Resultat (keine weiteren Details an dieser Stelle) 123 Beweis des Satzes: Zeige zunächst, dass (6.3.8) die Dgl (6.3.6) erfüllt, Z s Z x Z x d y0 + ds h(s) exp dt g(t) exp − du g(u) dx x0 x0 x0 Z x Z x dt g(t) exp − = h(x) exp du g(u) x0 − y0 + Z x0 x ds h(s) exp x0 = h(x) − y(x) g(x) Z s dt g(t) x0 Z exp − x du g(u) g(x) x0 Wie steht es mit der Eindeutigkeit? −→ nehme an, es gäbe zwei Lösungen zu denselben Randbedingungen y1′ (x) + g(x) y1(x) = h(x) mit y1 (x0 ) = y0 y2′ (x) + g(x) y2(x) = h(x) mit y2 (x0 ) = y0 −→ Differenz y = y2 − y1 erfüllt homogene Dgl vom Typ (6.3.4) y ′(x) + g(x) y(x) = 0 mit y(x0 ) = 0 −→ deren eindeutige Lösung ist aber durch (6.3.5) gegeben −→ lässt nur y = y2 − y1 ≡ 0 zu −→ Lösung (6.3.8) ist eindeutig Beispiele: (i) Zwischenprodukt in radioaktiver Zerfallskette: y ≡ Menge des Radionuklids, x ≡ Zeit g(x) = α (inverse Halbwertszeit) h(x) = h0 exp[−β(x − x0 )] (Zuwachsrate aus Zerfall des Ausgangsnuklids) y0 = 0 Z y(x) = (Radionuklid liegt zum Anfangszeitpunkt nicht vor) Z s Z x ds h0 exp[−β(s − x0 )] exp dt α exp − du α x0 x0 x0 Z x ds exp[−β(s − x0 ) + α(s − x0 )] exp[−α(x − x0 )] = h0 x0 exp[(α − β)(x − x0 )] 1 = h0 exp[−α(x − x0 )] − α−β α−β h0 = [exp[−β(x − x0 )] − exp[−α(x − x0 )]] α−β x 124 6.3.3 Ähnlichkeitsdifferentialgleichungen erster Ordnung Ähnlichkeitsdifferentialgleichungen werden manchmal auch homogene Differentialgleichungen genannt, wobei der Begriff homogen nichts mit der üblichen Verwendung bei linearen Differentialgleichungen zu tun hat. Struktur der Differentialgleichung: ′ y (x) = F y(x) x (6.3.9) Randbedingungen: Anfangswert y(x0 ) = y0 (6.3.10) Lösung: durch Rückführung auf Differentialgleichung mit separablen Variablen über geeignete Substitution y(x) x 1 ′ [F (f ) − f ] f (x) = x (6.3.11) f (x) = =⇒ 6.3.4 (6.3.12) Lineare Differentialgleichungen höherer Ordnung: Reihenentwicklung Führe weitere Standardtechnik zur Lösung von linearen Dgln an einem Beispiel ein. −→ betrachte die folgende homogene, lineare Dgl vierter Ordnung: y (4) (x) = α y(x) (6.3.13) −→ wegen (6.1.5) ist sofort klar, dass cos und sin diese Dgl erfüllen y(x) = cos(βx) =⇒ y (2) (x) = −β 2 y(x) =⇒ y (4) (x) = β 4 y(x) Frage: Gibt es weitere Lösungen und, wenn ja, wie sehen sie aus? Zur Beantwortung: mache Reihenansatz für y(x) y(x) = ∞ X n=0 125 an xn (6.3.14) −→ nicht garantiert, dass Lösung von (6.3.13) in Taylorreihe entwickelbar ist, aber auch nicht ausgeschlossen −→ setze Entwicklung in Dgl ein ∞ X n=4 n−4 n(n − 1)(n − 2)(n − 3)an x = α ∞ X an xn (6.3.15) n=0 −→ schiebe Summationsindex auf der linken Seite um 4 und fasse beide Seiten zusammen ∞ h i X (n + 4)(n + 3)(n + 2)(n + 1)an+4 − αan xn = 0 (6.3.16) n=0 Dgl gilt für beliebige x: kann nur erfüllt sein, wenn jeder einzelne Koeffizient vor xn verschwindet, da sich alle Potenzen von x verschieden verhalten. Gleichgültig, mit welchen Vorfaktoren man x2 , x3 , x4 , . . . zu einem Polynom oder einer Potenzreihe kombiniert, die resultierende Funktion verhält sich anders als x oder gar eine Konstante (besonders klar für x → 0) — man sagt: alle Potenzen von x sind linear unabhängige Funktionen. −→ führt auf Rekursionsformel für die Koeffizienten an+4 = α an (n + 4)(n + 3)(n + 2)(n + 1) (6.3.17) −→ Lösung der Rekursion wird klar, wenn man die Rekursion einmal auf der rechten Seite einsetzt an+4 = α2 an−4 (n + 4)(n + 3)(n + 2)(n + 1)n(n − 1)(n − 2)(n − 3) −→ mit jedem Sprung um 4 Indexeinheiten gewinnt man eine Potenz von α im Zähler und alle zu den 4 Indices gehörenden Faktoren der Fakultät im Nenner −→ erlaubt 4 voneinander unabhängige, elementare Lösungen (Nachweis durch Einsetzen): a4n a4n+1 αn = a0 (4n)! =⇒ αn = a1 (4n + 1)! =⇒ αn a2 (4n + 2)! =⇒ a4n+2 = ∞ X αn 4n y0 (x) = a0 x (4n)! n=0 y1 (x) = a1 y2 (x) = a2 α a3 (4n + 3)! n=0 ∞ X n=0 n a4n+3 = ∞ X =⇒ y3 (x) = a3 ∞ X n=0 126 (6.3.18) αn x4n+1 (4n + 1)! (6.3.19) αn x4n+2 (4n + 2)! (6.3.20) αn x4n+3 (4n + 3)! (6.3.21) −→ allgemeine Lösung y(x) = y0 (x) + y1 (x) + y2 (x) + y3 (x) (6.3.22) −→ a0 -a3 unbestimmt: müssen durch Randbedingungen festgelegt werden Frage: Wo stecken hier sin und cos? √ −→ kombiniere z.B. y2 mit y0 für a2 = − α a0 ∞ X αn 4n √ αn 4n+2 y0 (x) + y2 (x) = a0 x − α x (4n)! (4n + 2)! n=0 ∞ (2n)/2 (2n+1)/2 X (2n) α 2(2n) (2n+1) α 2(2n+1) (−1) = a0 x + (−1) x (2(2n))! (2(2n + 1))! n=0 α1/2 2 α 4 α3/2 6 x + x − x + ... = a0 1 − 2! 4! 6! −→ lässt sich als eine Reihe ausdrücken y0 (x) + y2 (x) = a0 ∞ X (−1)n n=0 (2n)! 127 2n α1/4 x = a0 cos α1/4 x Kapitel 7 Grundzüge der Vektoranalysis 7.1 Motivation, Definition Standardprobleme der klassischen Mechanik: a) Beschreibung der Position r eines Teilchens als Funktion der Zeit t −→ Bewegung vollständig charakterisiert durch Angabe seiner kartesischen Koordinaten für alle Zeitpunkte: r(t) = (x(t), y(t), z(t)) (7.1.1) −→ jede kartesische Komponente ist für sich gewöhnliche Funktion der Zeit z 6 r(t) - y x b) Beschreibung des Gravitationsfelds im gesamten (3-dimensionalen) Raum (gegebenenfalls als Funktion der Zeit t — wird im weiteren nicht explizit aufgeführt) 128 −→ Kraftfeld vollständig charakterisiert durch Angabe seiner kartesischen Komponenten für alle Punkte im Raum: F (r) = (Fx (r), Fy (r), Fz (r)) (7.1.2) −→ jede kartesische Komponente ist für sich eine gewöhnliche Funktion von x, y und z z 6 7 > 6 * r r 3 r r r r r r 1 r r r r F (r) - y x −→ jedem Punkt im Raum ist ein eigener Vektor angeheftet, dessen Länge und Orientierung sich (im allgemeinen) von Punkt zu Punkt ändert Definition (Mathematik): Ein Feld f ist eine Abbildung aus dem Rm in den Rn , die jedem Element aus dem Definitionsbereich D ⊆ Rm eindeutig ein Element aus dem Bildbereich B ⊆ Rn zuordnet: y1 y2 .. . yn y = f (x) ; x ∈ Rm f (x , x , . . . xm ) 1 1 2 f2 (x1 , x2 , . . . xm ) = .. . fn (x1 , x2 , . . . xm ) ; y ∈ Rn ; m, n = 1, 2, . . . (7.1.3) Klassifikation: • m = n = 1: gewöhnliche Funktionen — hier nicht von Interesse 129 • m = 1, n = 3: vektorwertige Funktionen (Kurven im 3-dimensionalen Raum) −→ in vielerlei Beziehung den gewöhnlichen Funktionen ähnlich • m = 3-4, n = 1: skalare Felder (Temperatur- oder Dichteverteilung im Raum, Gravitationspotential, etc) −→ erfordern bereits neue Konzepte • m = 3-4, n = 3-4: Vektorfelder • m = 3-4, n = 9-16: Tensorfelder — hier nicht relevant Beachte: In Physik sind nur solche Vektorfelder relevant, die sich unter Koordinatentransformationen angemessen verhalten: Solange nur die Orientierung des Koordinatensystems verändert wird, müssen Länge und Richtung des realen, an einen Raumpunkt angehefteten Vektors unverändert bleiben (an dieser Stelle keine Details). −→ mathematische Konzepte zur Diskussion von Vektorfeldern sind von dieser Einschränkung unberührt −→ betrachte zunächst die (einfacheren) vektorwertigen Funktionen 7.2 Vektorwertige Funktionen: Kurven Beispiel: Darstellung einer gleichmäßigen Spiralkurve z 6 .................................................................................................................. ......................... ............... ................. .......... ............... ...... ............. . ..... . . . . . . . . . .... ........ . . . . . . ... . .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..................... ................. . . ..... . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . ........... ........... .... . . . . . . . . . . . . . . . . . . . . . ...... ... ......... . .... . . . . . . . . . . . . . . . . . .... ... ........ .... . . . . . . . . . . . . . . .. .... ........ .................................................................................................................. ....... ..... ...... ......................... ............... ..... ... .. ...... .................. . ...... ............... .... ................... .. ..... ............. ... . ...... . . . .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. ........ ..... .... ......... .... .... ........ ..... .... ............................................................................................................... ........ .... ..... ...... .... ............................ . . . . . ....... . . . . . . . . . . ..... . . .... . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... .. .... ............. ... .... ................. ... ..... .... ...... ............. .... ... . . ..... ............ ...... .... .... .... .... ........... ..... ........... ...... . . . . . . .... .... . . . . . . . . . . . . . . . . . . . . . . . .. .. ... ..... ........ .... ..... ...... ... ... .... ...... ....... .... ..... .. .. .... .... ... ....... .... ...... .... ... .. ...... ..... ....... .... .... .... ... ... ... ...... ...... ... ..... ... . . .... . . . . . . . . . . . . . . . . . . . . . .... . . . . . . . .. .. .. .. .... ..... .... .... .... .... .. ...... ........ .. ..... ... .... .......... .. ... .... .... ...... ..... .... .......... .... .. ..... . . ..... . . . .... . . ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . ........ .... ... ... ...... ..... .... ... .............. ... ...... ..... ....... ..... .... ................ .... .... ........ ..... ... ........................ ........ ................... .... ... ........ ...... ............................................................................................................................. . .. .... ... ..... .......... . . . . . . . . . ... ..... . . . . . . . . . . . . . .. . .. ... ... ... ..... ............ .... .... ..... ...... ............ .... ... ..... .... ...... .............. ....... ..... ... ....... ................ ..... ... .......... .... .................... .... ........ . . . . . . . . . . . . . . ... .......................................................................................................................................... . . . .. ..... .... .. ... .......... ..... .... .......... ... ... ....... .... ............. .... ..... .... ............. ..... ...... ............ ................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......... ... . ..... ........ ....................... ....................... .. ...... ........................................................................................ .......... ... ...... .......... ... ...... ............ ... ...... ............. . . . . . . . . . . . .... . . . . . . . . ....... ............ ........ ........... ................... ....... ............................ ......................... ........ ............................................................................. .......... .......... . . . . . . . . . . . . .... .............. ................ ................... ......................... ...................................... x 130 - y Parameterdarstellung der Kurve: Drücke jede kartesische Komponente als Funktion eines Ablaufparameters s aus (s muss nichts mit der Zeit zu tun haben) Startpunkt sei x = R, y = z = 0 bei s = 0 (R = Radius der Spirale) R cos(ωs) x(s) y(s) = R sin(ωs) vs z(s) (7.2.1) −→ mit wachsendem s wird Spiralkurve abgefahren 2π −→ erste Windung endet bei s = ω Komplikation: Spiralkurve mit sich verengendem Radius z 6 ............ ........................... ........................................ ............. ...... . . . . . . . . . . . .................................................................................. ......... ........ ............................. ........ . . . . . ......... ...... ................................................................ ........ ..... ................. .......................... .............. . . . . . . . . . . . . . . . . . . . . . . . . . .... ...... ........... ........ ... ..... ..... ........... ................... .................................................................................................... ...... . . . . . . . . . . . . . . . . . . . . . . . . . ........... . . . . ..... ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. ... .. ........ . .... ........ .. ....... ... ...... ........ ........... ..... .... ......... . . . . . . . . . . . . . .......... ........... .................. . . . . ... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . .. .. ..... . .... .... .... .................................................................... .. .... ........ .... ... ..... ....... ...... .. ... ..... ......... . . . . . . . . . . . . . . . . . .............. ........... . ... .... ........ .. . ... .... ............. ... ....... .............. ................. ..... ... ....... . . . . . . . . . . . . ...................................................................................... . ... .... ....... ..... ...... ........ .......... .... ...... ...... ........... . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... ............ ....... ... ........................... ................... ..... ...... ...................................................... ..... .. ......... . . . . . . . . . . . . ... .... ......... .... ...... ........... ..... ........ .............. . . . . . . . . . . . . . . . . . . . . . . . ............ .. ........ .................................................................................... ......... .......... . . . . . . . . . . ........... ............... ................... . . . . . . . . . . . . . . . . . . . . . . . . . . . ................. - y x Parameterdarstellung: x(s) R(t) cos(ωt) y(s) = R(t) sin(ωt) vs z(s) Beachte: Einunddieselbe Kurve kann auf verschiedene Weise parametrisiert werden Definition: f1 (x1 ) mit dem Parameterbereich x1 ∈ [a1 , b1 ] heißt äquivalent zu f2 (x2 ) mit dem Parameterbereich x2 ∈ [a2 , b2 ], falls es eine auf x ∈ [a1 , b1 ] erklärte, streng monotone 131 Funktion g(x) gibt mit g(a1 ) = a2 , g(b1 ) = b2 f2 (g(x)) = f1 (x) ∀ x ∈ [a1 , b1 ] , Beispiel: Halbkreis mit Radius R f1 (x1 ) = R ( cos(x1 ), sin(x1 ), 0 ) f2 (x2 ) = R sin(x22 ), − cos(x22 ), 0 r π x1 + g(x) = 2 7.2.1 0 ≤ x1 ≤ π p p π/2 ≤ x2 ≤ 3π/2 Stetigkeit Da jede einzelne Komponente einer Vektorfunktion eine gewöhnliche Funktion einer Variablen ist, können alle Konzepte, die für gewöhnliche Funktionen verwendbar sind, direkt übertragen werden. Definition: Die vektorwertige Funktion f : D → Rn (D ⊆ R) heißt stetig am Punkt x0 , falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 gibt, so dass |f (x) − f (x0 )| < ǫ ∀ |x − x0 | < δ(ǫ, x0 ) (7.2.2) 6 H |f (x) − f (x0 )| HH H f (x0 ) f (x) - −→ f (x) nähert sich f (x0 ) beliebig an, wenn nur x nahe genug an x0 ist #1/2 " n X x→x0 −→ 0 |f (x) − f (x0 )| = (fi (x) − fi (x0 ))2 i=1 −→ bedingt Stetigkeit aller Komponenten von f (x) 132 (7.2.3) 7.2.2 Differenzierbarkeit Definition: Die vektorwertige Funktion f : D → Rn (D ⊆ R) heißt differenzierbar am Punkt x0 , falls alle ihre Komponenten für sich (im Sinne gewöhnlicher Funktionen) differenzierbar sind. −→ Ableitung von f (x) ist Vektor aus Ableitungen der einzelnen Komponenten d df df1 dfn ′ ˙ f (x) = (x) = f (x) = f (x) = (x), . . . (x) dx dx dx dx (7.2.4) Beispiel: Parameterdarstellung der gleichmäßigen Spiralkurve df (s) = (−R sin(ωs), R cos(ωs), v) ds (7.2.5) Entsprechend der Definition der Ableitung vektorwertiger Funktionen über die Ableitung gewöhnlicher Funktionen gelten die Rechenregeln für die Differentiation gewöhnlicher Funktionen komponentenweise d [f (x) + g(x)] dx d [f (x) · g(x)] dx d [f (x) × g(x)] dx d [g(x)f (x)] dx d f (g(x)) dx = = = = = df dg (x) + (x) dx dx df dg (x) · g(x) + f (x) · (x) dx dx df dg (x) × g(x) + f (x) × (x) dx dx dg df (x) f (x) + g(x) (x) dx dx df dg (g) (x) dg dx g=g(x) Beweis für Gl.(7.2.8) als Beispiel: ′ ′ ′ ′ f g + f2 g3 − f3 g2 − f3 g2 f2 g3 − f3 g2 2 3 d ′ f3 g1 − f1 g3 = f3 g1 + f3 g1′ − f1′ g3 − f1 g3′ dx ′ ′ ′ ′ f1 g2 + f1 g2 − f2 g1 − f2 g1 f1 g2 − f2 g1 f2 g3′ − f3 g2′ f2′ g3 − f3′ g2 = f3′ g1 − f1′ g3 + f3 g1′ − f1 g3′ ′ ′ ′ ′ f1 g2 − f2 g1 f1 g2 − f2 g1 df dg = (x) × g(x) + f (x) × (x) dx dx 133 (7.2.6) (7.2.7) (7.2.8) (7.2.9) (7.2.10) Eleganter: 3 d X ǫijk fi (x) gj (x) ek = dx i,j,k=1 3 X ǫijk [fi′ (x) gj (x) + fi (x) gj′ (x)] ek i,j,k=1 3 X = ǫijk fi′ (x) gj (x) ek i,j,k=1 + 3 X ǫijk fi (x) gj′ (x) ek i,j,k=1 Parameterabhängige Einheitsvektoren e(x) mit e(x)2 = 1 für alle x (nicht kartesisch) 0 = −→ de de de d [e(x) · e(x)] = (x) · e(x) + e(x) · (x) = 2 (x) · e(x) dx dx dx dx (7.2.11) de (x) steht senkrecht auf e(x) dx Tangentenvektor an beliebige Kurve Kurve sei charakterisiert durch Parameterdarstellung f (x): 6 f (x + dx) − f (x) = ∆f (x, dx) f (x) HH HH j f (x + dx) - −→ für kleine dx ∆f (x, dx) = −→ f (x + dx) − f (x) dx dx =⇒ lim ∆f (x, dx) = dx→0 df (x) dx dx df (x) liegt tangential an Kurve f (x) (dx für Richtung irrelevant) dx 7.2.3 Länge von Kurven Kurve sei durch f (x) mit a ≤ x ≤ b beschrieben 134 (7.2.12) Definiere Zerlegung des Parameterintervalls [a, b] x0 , x1 , . . . xn(Z) a = x0 < x1 < x2 . . . < xn(Z) = b Z := (7.2.13) −→ einfachste Zerlegung: äquidistante Punkte xi = xi−1 + ∆x ∀ i = 1, . . . n(Z) mit ∆x = b−a n(Z) und lege (entsprechend den gewählten Zwischenpunkten) Polygonzug an Kurve an 6 s s f (x xs k−1 H HH x Hs @ @ @s A ......................................... ................... ........... .......... ........ ...... ...... ...... ...... . . . ...... ... k . ..... . .. ..... . . . ..... k−1 ... ..... . . .... ... . . .... . .... ... .... ... ... ... . .... . ... ... . . ... . . ... ... . ... ... .. . ... .. . ... . . . ... .. k . ... ... .... . ... . .. ... . . .. ... ... .. ... .. .. s s x0 = a ) f (x ) f (x), x ∈ [a, b] A A A AAs xn - =b −→ Länge des Polygonzugs ist gegeben durch n(Z) L(P (Z)) = X k=1 |f (xk ) − f (xk−1 )| Je feiner die Zerlegung ist, d.h. je kleiner der maximale Abstand δ(Z) := max xk − xk−1 k = 1, . . . n(Z) (Maschenweite) (7.2.14) zweier Zerlegungspunkte ist, desto näher kommt L(P (Z)) der wahren Länge der Kurve −→ Länge der Kurve definiert über längstmöglichen Polygonzug (erreicht für δ(Z) → 0) L := sup L(P (Z))Z beliebige Zerlegung von [a, b] (7.2.15) (sup = Maximum, das nicht angenommen zu werden braucht) −→ L unabhängig von gewählter Parameterdarstellung für die Kurve (ohne Beweis) 135 Vereinfachung im Fall stetig differenzierbarer Parameterdarstellungen (stetig differenzierbar = df /dx muss stetig sein) n(Z) X f (xk ) − f (xk−1 ) L = lim δ(Z)→0 x − x k k=1 | {z k−1 } Funktionswert im Intervall [xk−1 , xk ] Z b df = dx (x) dx a (xk − xk−1 ) {z } | Breite des Intervalls [xk−1 , xk ] (7.2.16) −→ in diesem Fall ist L < ∞ (die Kurve heißt dann rektifizierbar) Beispiel: Länge einer Windung der gleichmäßigen Spiralkurve 2π ω −→ unter Verwendung von Gl.(7.2.5) erhält man daher df (s) = R2 ω 2 + v 2 1/2 ds Z 2π ω 1/2 1/2 2π =⇒ L = ds R2 ω 2 + v 2 = R2 ω 2 + v 2 ω 0 −→ eine Windung von Gl.(7.2.1) entspricht 0 ≤ s ≤ 7.3 (7.2.17) v→0 −→ 2πR (7.2.18) Skalare Felder, Vektorfelder Erweitere als nächstes die Begriffe der Stetigkeit und der Differenzierbarkeit auf Felder −→ formuliere alle Konzepte dieses Abschnitts für Vektorfelder f −→ die Form der Aussagen für skalare Felder folgen dann einfach durch Reduktion von f auf eine einzige Komponente 7.3.1 Stetigkeit Definition: Die Funktion f heißt stetig am Punkt x0 , falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 gibt, so dass |f (x) − f (x0)| < ǫ ∀ |x − x0 | < δ(ǫ, x0 ) 136 (7.3.1) −→ f (x) nähert sich f (x0) beliebig an, wenn nur der Abstand zwischen x und x0 klein genug ist, und zwar unabhängig von der Richtung, aus der man sich x0 nähert |f (x) − f (x0)| = " n X i=1 (fi (x) − fi (x0 ))2 #1/2 |x−x0 |→0 −→ 0 (7.3.2) −→ bedingt Stetigkeit aller Komponenten von f (x) bezüglich aller Argumente x1 , . . . xm −→ weder Länge noch Richtung des Vektorfeldes ändern sich sprunghaft zwischen benachbarten Punkten Beispiel: Betrachte die Funktion xy für x2 + y 2 = 6 0 2 2 x + y φ(x, y) = 0 für x2 + y 2 = 0 ⇐⇒ x = y = 0 (7.3.3) an der Stelle x = y = 0: kann aus verschiedenen Richtungen angelaufen werden φ(x, y) −−−−−→ 0 x→0,y6=0 φ(x, y) −−−−−→ 0 y→0,x6=0 φ(x, y) −−−−−→ x→0,y=x 1 2 −→ φ(x, y) unstetig bei x = y = 0 7.3.2 Differentiation Betrachte Feld f (x1 , . . . xm ) für festgehaltene Koordinaten x1 , . . . xk−1 und xk+1 , . . . xm als Funktion der verbleibenden Koordinate xk −→ jede Komponente von f ist gewöhnliche Funktion von xk 137 z 6 * f (x1 , x2 , x3 ) : f (x1 , x2 rr- x3 (fest) + ∆x, x3 ) x2 (variabel) - y x1 (fest) x Definition: Die Funktion f : D → Rn (D ⊆ Rm ) heißt partiell differenzierbar nach xk am Punkt x, falls der Grenzwert fj (x1 , . . . , xk−1 , xk + ǫ, xk+1 , . . . , xm ) − fj (x1 , . . . , xk−1 , xk , xk+1 , . . . , xm ) ǫ→0 ǫ lim für alle Komponenten j = 1, . . . n von f existiert. −→ entspricht gewöhnlicher Ableitung der einzelnen Komponenten von f bezüglich xk bei festgehaltenem x1 , . . . xk−1 und xk+1 , . . . xm Der Grenzwert wird dann als partielle Ableitung bezeichnet und notiert in der Form ∂f1 ∂fn f (x + ǫek ) − f (x) ∂f (x) = (x), . . . (x) = lim (7.3.4) ǫ→0 ∂xk ∂xi ∂xi ǫ −→ partielle Ableitung ist sowohl bei skalaren Feldern als auch bei Vektorfeldern möglich Beispiele: (i) elementares Skalarprodukt f (x) = a · x ∂ X ∂ aj xj (a · x) = ∂xi ∂xi j X = aj δij j = ai 138 −→ zentrale Formel ∂xi ∂xj = δij (7.3.5) (ii) Vektorpotential für homogenes Magnetfeld =⇒ B2 x3 − B3 x2 1 1 A(x) = (B × x) = B3 x1 − B1 x3 2 2 B1 x2 − B2 x1 0 ∂A 1 (x) = B3 ∂x1 2 −B2 −B3 1 ∂A (x) = 0 ∂x2 2 B1 B2 ∂A 1 (x) = −B1 ∂x3 2 0 (7.3.6) (7.3.7) (7.3.8) (7.3.9) Rechenregeln: wie bei gewöhnlicher Differentiation, z.B. Produktregel und Kettenregel ∂f (x) ∂g(x) ∂ [f (x)g(x)] = g(x) + f (x) ∂xi ∂xi ∂xi X ∂f ∂gj ∂f (g(x)) (x0 ) = (g(x0 )) (x0 ) ∂xi ∂gj ∂xi j Beispiele: (i) Betrag des Vektors f (x) = |x| 139 (7.3.10) (7.3.11) Identifiziere g(x): hat nur eine Komponente g(x) = x2 f (g) = g 1/2 ∂ ∂ |x| = [x2 ]1/2 ∂xi ∂xi 1 2 −1/2 ∂ X 2 = x [x ] 2 ∂xi j j X = [x2 ]−1/2 xj δij j xi = |x| (ii) Gravitationspotential 1 |x| f (x) = Identifiziere g(x): hat wieder nur eine Komponente g(x) = |x| 1 f (g) = g 1 xi ∂ 1 = − 2 ∂xi |x| |x| |x| xi = − 3 |x| (iii) Gaußfunktion (in 2 Dimensionen) (x1 − u1 )2 + (x2 − u2)2 = exp − f (x) = e a a2 ∂f 2 (x1 − u1 )2 + (x2 − u2 )2 (x) = − 2 (x1 − u1 ) exp − ∂x1 a a2 2 (x1 − u1 )2 + (x2 − u2 )2 ∂f (x) = − 2 (x2 − u2 ) exp − ∂x2 a a2 − (x−u) 2 =⇒ 2 (iv) vektorwertiges g(x) Identifiziere g(x) x f (x) = |x| x a· |x| 2 x |x| δij xi xj ∂gj (x) = − ∂xi |x| |x|3 g(x) = 140 (7.3.12) (7.3.13) (7.3.14) −→ jede Komponente von g hängt von allen xi ab −→ verwende Kettenregel f (g) = g (a · g)2 ∂f (g(x)) = ej (a · g)2 + 2g aj (a · g) ∂gj X ∂f X δij ∂gj xi xj 2 (g(x)) (x) = − ej (a · g) + 2g aj (a · g) ∂gj ∂xi |x| |x|3 j j 2 x x x ai ei a· a· +2 = |x| |x| |x| |x| |x| 2 xi x xi x x −x 3 a · − 2 (a · x) 3 a · |x| |x| |x| |x| |x| 2 ei x x x x − 3xi 3 + 2ai 2 a · = a· |x| |x| |x| |x| |x| Höhere partielle Ableitung ∂k ∂ f (x) = ∂xik · · · ∂xi1 ∂xik ∂ ∂xik−1 ∂f ··· (x) · · · ∂xi1 (7.3.15) Offensichtliche Frage: Spielt die Reihenfolge der Differentiation eine Rolle? Antwort: Nein, solange die relevanten partiellen Ableitungen alle stetig sind ∂f ∂f ∂f ∂ ∂ ∂ (x) = (x) falls (x) alle stetig ∂xi ∂xj ∂xj ∂xi ∂xj ∂xi Beispiel: Betrachte noch einmal die Funktion (7.3.3) y 2x2 y ∂φ (x, y) = 2 − ∂x x + y 2 (x2 + y 2)2 y→0 x=0,y6=0 1 −→ ∞ (y 2 − x2 )y = y = (x2 + y 2 )2 x→0 x6=0,y=0 = 0 −→ 0 x 2y 2x ∂φ (x, y) = 2 − ∂y x + y 2 (x2 + y 2)2 y→0 x=0,y6=0 0 −→ 0 x(x2 − y 2 ) = = 1 x→0 (x2 + y 2 )2 x6=0,y=0 −→ ∞ = x 141 (7.3.16) −→ erste partielle Ableitungen nicht stetig bei (0,0) ∂2φ (3y 2 − x2 ) (y 2 − x2 )y 2 (x, y) = − 4 ∂y∂x (x2 + y 2 )2 (x2 + y 2 )3 y→0 x=0,y6=0 − 1 −→ ∞ 6x2 y 2 − x4 − y 4 = y2 = x→0 (x2 + y 2)3 x6=0,y=0 = − x12 −→ ∞ ∂2φ (3x2 − y 2) (x2 − y 2 )x2 (x, y) = − 4 ∂x∂y (x2 + y 2 )2 (x2 + y 2 )3 6x2 y 2 − x4 − y 4 = (x2 + y 2)3 −→ gemischte zweite partielle Ableitungen unabhängig von Differentiationsreihenfolge (Totale) Differenzierbarkeit: Betrachte nun Veränderung von Feld f (x) beim Übergang von x0 zu x, d.h. bei gleichzeitiger Änderung aller Koordinaten f (x) − f (x0) = f (x1 , . . . xm ) − f (x0,1 , x2 , . . . xm ) +f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm ) ... +f (x0,1 , . . . x0,m−1 , xm ) − f (x0,1 , . . . x0,m ) −→ gehe in m Schritten entlang der kartesischen Richtungen von x0 zu x −→ in 2 Dimensionen für eine Komponente von f : 142 6fj fj (x, y) ..t .... .... ..... ≈ ..... ∂fj (x0 , y)(x − x0 ) ∂x fj (x, y0 ) fj (x0 , y) ..t t ... .. .. ...... ...... ≈ ... . ..... fj (x0 , y0) t ∂fj (x0 , y0 )(y − y0 ) ∂y y0 y - x x0 Falls x nahe genug bei x0 liegt: Differenz von Funktionswerten lässt sich über partielle Ableitungen bezüglich der einzelnen Richtungen auswerten fj (x0 , y0) f (x0 , y) ..r... j . . .... ...... .. . r . . . ... .... = fj (x0 , y) − fj (x0 , y0 ) .. ≈ ∂fj (x , y )dy . . . . . . 0 0 ∂y r ..... ..... y0 y0 + dy y - f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm ) f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm ) (x2 − x0,2 ) = x2 − x0,2 ∂f = (x0,1 , x0,2 , x3 , . . . xm ) (x2 − x0,2 ) + O((x2 − x0,2 )2 ) ∂x2 143 −→ falls partielle Ableitung stetig ist, kann sie für infinitesimale xj − x0,j (j = 1, . . . m) bei x0,1 , . . . x0,m ausgewertet werden f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm ) ∂f = (x0,1 , x0,2 , x0,3 , . . . x0,m ) (x2 − x0,2 ) + O((xj − x0,j )2 ) ∂x2 −→ fasse alle m Schritte zusammen =⇒ m X ∂f f (x) − f (x0 ) ≈ + (x0 )(xi − x0,i ) ∂xi i=1 Definition: Die Funktion f (x) heißt (total) differenzierbar am Punkt x0 , falls es einen Satz von Vektoren Ai (i = 1, . . . m) gibt, so dass m X 1 f (x) − f (x0) − Ai (xi − x0,i ) = 0 lim x→x0 |x − x0 | |i=1 {z } = df (7.3.17) gilt (unabhängig von der Richtung, in der auf x0 zugegangen wird). Theoreme: • Falls f (x) am Punkt x0 differenzierbar ist, existieren alle partiellen Ableitungen von f (x) und es gilt Ai = ∂f (x0 ) ∂xi (7.3.18) • f (x) ist am Punkt x0 differenzierbar, falls dort alle partiellen Ableitungen existieren und stetig sind (klar aus Überlegung oben). Bezeichnung: ∂fj (x) ∂xi = Jacobi Matrix oder Funktional-Matrix 1≤i≤m; 1≤j≤n Totales Differential: Variation des Feldes beim Übergang von x zu x + dx bei infinitesimalem dx = (dx1 , . . . dxm ) in niedrigster (linearer) Ordnung von dx m X ∂f df = (x) dxi ∂xi i=1 144 (7.3.19) Notation: Gradient oder Nabla Operator = Vektor der partiellen Ableitungen ∂ ∂ ∂ ∇ = ∂i = ,..., (7.3.20) ∂x1 ∂xm ∂xi Gradient eines skalaren Feldes (üblicherweise m = 3) ∂φ(x) ∂φ(x) ,..., ∇φ(x) = ∂x1 ∂xm (7.3.21) −→ ist Vektor im physikalischen Sinn für m = 3 (d.h. transformiert sich wie Ortsvektor) Wichtige Eigenschaft: ∇φ ist senkrecht zu der durch φ(x) = const definierten Oberfläche (Äquipotentialfläche) Betrachte zum Beweis zwei Punkte x und x + dx in der Oberfläche: −→ im Fall von infinitesimalem dx erhält man 0 = φ(x + dx) − φ(x) = ∇φ(x) · dx z 6 CO x C ∇φ(x) C C C C C x (7.3.22) φ(x) = const x + dx y - −→ die Richtung von dx ist aber beliebig, daher steht ∇φ(x) senkrecht auf allen dx in der Oberfläche −→ Normalenvektor auf der Äquipotentialfläche n̂ = ∇φ(x) |∇φ(x)| 145 (7.3.23) Beispiel für Äquipotentialfläche: Kugeloberfläche =⇒ =⇒ √ p R 2 − x2 = R2 − x2 − y 2 − z 2 = 0 1 ∇φ(x) = p (−2x, −2y, −2z) 2 2 R − x2 − y 2 − z 2 φ(x) = ∇φ(x) = − |∇φ(x)| y x z p , p , p , x2 + y 2 + z 2 x2 + y 2 + z 2 x2 + y 2 + z 2 ! = − x |x| −→ Normalenvektor zeigt radial nach außen 7.4 Divergenz, Rotation Bislang wurde Gradientenoperator ∇ auf skalare Feldern angewandt: aber auch Kombination mit Vektorfeldern ist wichtig −→ zwei Möglichkeiten, ∇ auf Vektorfeld A anzuwenden Divergenz: Kontraktion mittels Skalarprodukt ∇ · A(x) = m X ∂Ai (x) i=1 (7.4.1) ∂xi −→ ∇ · A ist Skalar im physikalischen Sinn −→ ∇ · A ist Maß für Quellstärke von A (hier keine Details) (zum Verständnis dieser Aussage ist Integraltheorem nötig: siehe später) Beispiele: (i) Divergenz des Ortsvektors A(x) = x =⇒ ∇ · A(x) = m X ∂xi i=1 ∂xi = m (7.4.2) (ii) Divergenz der Gravitations- bzw Coulombkraft (m = 3) A(x) = x |x|3 =⇒ ∇ · A(x) = 146 3 x·x − 3 = 0 |x|3 |x|5 (x 6= 0) (7.4.3) Rotation: Kontraktion mittels Vektorprodukt (impliziert m = 3) ∂A ∂A2 3 − ∂x2 ∂x3 3 X ∂ ∂A1 ∂A3 ǫijk ei ∇ × A(x) = Ak (x) = − ∂x ∂x ∂x j 3 1 i,j,k=1 ∂A ∂A1 2 − ∂x1 ∂x2 (7.4.4) −→ ∇ × A ist Vektor im physikalischen Sinn −→ ∇ × A ist Maß für Wirbelstärke von A (hier keine Details) (zum Verständnis dieser Aussage ist Integraltheorem nötig: siehe später) Beispiele: (i) Rotation des Ortsvektors A(x) = x =⇒ 3 X ∂xk = ǫijk ei δjk = 0 ∇×x = ǫijk ei ∂x j i,j,k=1 i,j,k=1 3 X (7.4.5) (ii) Betrachte Feld (7.3.6) und verwende (7.3.7) 1 A(x) = (B × x) 2 =⇒ B1 − (−B1 ) 1 ∇ × A(x) = B2 − (−B2 ) 2 B3 − (−B3 ) = B (7.4.6) Identitäten für Divergenz und Rotation: ∇ [A1 · A2 ] = A2 × [∇ × A1 ] + A1 × [∇ × A2 ] + [A2 · ∇] A1 + [A1 · ∇] A2 (7.4.7) ∇ · [φA] = A · ∇φ + φ∇ · A (7.4.8) ∇ · [A1 × A2 ] = A2 · [∇ × A1 ] − A1 · [∇ × A2 ] ∇ × [φA] = [∇φ] × A + φ [∇ × A] ∇ × [A1 × A2 ] = [A2 · ∇] A1 − [A1 · ∇] A2 − A2 [∇ · A1 ] + A1 [∇ · A2 ] (7.4.9) (7.4.10) (7.4.11) ∇ × [∇φ] = 0 (7.4.12) ∇ · [∇ × A] = 0 (7.4.13) ∇ × [∇ × A] = ∇ [∇ · A] − [∇ · ∇] A 147 (7.4.14) Beweise hier nur die beiden wichtigsten Identitäten: 3 X ∇ × [∇φ] = ǫijk ei i,j,k=1 ∂ ∂φ ∂xj ∂xk 3 3 ∂2φ ∂2φ 1 X 1 X ǫijk ei ǫikj ei = + 2 i,j,k=1 ∂xj ∂xk 2 i,j,k=1 ∂xk ∂xj 2 3 1 X ∂ φ ∂2φ = ǫijk ei − 2 i,j,k=1 ∂xj ∂xk ∂xk ∂xj −→ eckige Klammer verschwindet, falls φ zweimal stetig differenzierbar ist −→ analoges Vorgehen zum Beweis von (7.4.13) 3 3 3 X X ∂ ∂ 2 Ak ∂ X ǫijk Ak = ǫijk = 0 ∇ · [∇ × A] = ∂xi j,k=1 ∂xj ∂xi ∂xj i i,j,k=1 Kettenregeln: für Divergenz und Rotation dA · ∇ψ(x) dψ dA × ∇ψ(x) ∇ × A(ψ(x)) = dψ ∇ · A(ψ(x)) = (7.4.15) (7.4.16) Laplace Operator = Skalarprodukt von zwei Gradienten = Divergenz(Gradient) ∆ = ∇ · ∇ = ∇2 = m X ∂2 ∂x2i i=1 (7.4.17) Beispiele: (i) Laplace von Betrag des Ortsvektors ∇2 |x| = ∇ · x 1 1 m−1 = ∇·x+x·∇ = |x| |x| |x| |x| (7.4.18) (ii) Laplace des Gravitations- bzw Coulombpotentials (vergleiche (7.4.3)) ∇2 7.5 x 1 = −∇ · = 0 |x| |x|3 (x 6= 0) (7.4.19) Taylorentwicklung Erinnerung: Bei gewöhnlichen Funktionen war Taylorentwicklung zentraler Ausgangspunkt für Arbeiten mit Differentialen −→ übertrage Konzept auf Felder: betrachte zunächst skalare Felder 148 Satz: Falls f (x) auf dem Gebiet G ∈ Rm (j + 1)-mal stetig partiell differenzierbar ist und die Strecke x0 + ht für 0 ≤ t ≤ 1 ganz in G liegt, ist die gewöhnliche Funktion φ(t) := f (x0 + ht) (7.5.1) für t ∈ [0, 1] (j + 1)-mal gewöhnlich stetig differenzierbar. Den Wert der k-ten Ableitung erhält man über die Kettenregel: " m # dk φ d dk−1 X ∂f (t) = (x0,i + hi t) dtk dtk−1 i=1 ∂xi x=x0 +ht dt = dk−1 [h · ∇f (x)]x=x0 +ht dtk−1 (Kettenregel) (Zusammenfassung der Terme) −→ Kettenregel kann auch auf h · ∇f angewandt werden: f ist (j + 1)-mal differenzierbar (wegen Stetigkeit von ∂k f ∂xi1 ···∂xik ist auch Differentiationsreihenfolge irrelevant) −→ Argument lässt sich iterativ fortsetzen dk φ k (t) = (h · ∇) f (x) dtk x=x0 +ht ∀ k = 0, 1, . . . j + 1 −→ wird häufig in kompakter Form geschrieben (Gradienten auszuwerten an Stelle x0 +ht) dk φ (t) = (h · ∇)k f (x0 + ht) k dt ∀ k = 0, 1, . . . j + 1 −→ dk φ/dtk stetig bis zur Ordnung k = j + 1 wegen Stetigkeit von (7.5.2) ∂ j+1 f ∂xi1 ···∂xij+1 −→ erlaubt Verwendung des Satzes von Taylor für φ(t) (mit t = 1 und t0 = 0) f (x0 + h) = φ(1) = j X φ(k) (t = 0) k=0 j = k! + φ(j+1) (θ) (j + 1)! mit 0 ≤ θ ≤ 1 X 1 1 (h · ∇)k f (x0 ) + (h · ∇)j+1 f (x0 + hθ) k! (j + 1)! k=0 (7.5.3) (Restglied Rj+1 nach Lagrange, Gl.(3.4.2) wurde verwendet) Mit x = x0 + h und dem Verständnis, dass ∇ nur auf f (x) wirkt (nicht aber auf die x des Operators vor f (x)), wird (7.5.3) häufig auch folgendermaßen geschrieben j X 1 1 f (x) = [(x − x0 ) · ∇]k f (x0 ) + (h · ∇)j+1 f (x0 + (x − x0 )θ) k! (j + 1)! k=0 −→ Gl.(7.5.3)–(7.5.4) lassen sich direkt auf Vektorfelder erweitern: sie gelten dann für jede Komponente getrennt 149 (7.5.4) Beispiel: Gravitationspotential bzw Coulomb-Wechselwirkung −→ berechne zunächst Gradienten 1 |x − y| xi − yi ∂ f (x) = − ∂xi |x − y|3 δij (xi − yi )(xj − yj ) ∂2 f (x) = − +3 3 ∂xi ∂xj |x − xy | |x − xy |5 f (x) = −→ Taylorentwicklung um x0 = 0 (bzw |x| ≪ |y|) 1 h·h h·y 1 (h · y)2 f (h) = − + + +3 + ... |y| |y|3 2 |y|3 |y|5 (7.5.5) (7.5.6) (7.5.7) (7.5.8) Falls f (x) beliebig oft differenzierbar ist, d.h. falls alle partiellen Ableitungen in allen Ordnungen existieren, kann man f (x) über seine Taylorreihe ausdrücken: m ∞ X ∂ k f (x) 1 X (xi1 − x0,i1 ) · · · (xik − x0,ik ) f (x) = k! ∂xik · · · ∂xi1 x=x0 i ···i =1 k=0 1 (7.5.9) k −→ impliziert die gewöhnliche Taylorentwicklung jeder einzelnen Komponente von f (x) in kompakter Schreibweise: und noch kompakter: ∞ X 1 f (x) = [(y − x0 ) · ∇]k f (x) k! x=y=x0 k=0 f (x) = exp[(x − x0 ) · ∇] f (x0) (7.5.10) (7.5.11) zu lesen als: ∇ wirkt nicht auf die x innerhalb exp[(x − x0 ) · ∇], sondern nur auf f (x), wobei die Ableitungen von f (x) an der Stelle x0 auszuwerten sind −→ exp[(x − x0 ) · ∇] wird daher als Operator der Translation bezeichnet, definiert über die Reihenentwicklung der e-Funktion exp[(x − x0 ) · ∇] = ∞ X 1 [(x − x0 ) · ∇]k k! k=0 150 (7.5.12) 7.6 Extrema (von skalaren Feldern) 7.6.1 Extrema ohne Nebenbedingungen Definition: Ein skalares Feld f (x) besitzt im Punkt x0 (x0 = innerer Punkte des Definitionsbereichs) ein lokales Maximum, falls streng lokales Maximum, falls lokales Minimum, falls streng lokales Minimum, falls f (x) ≤ f (x0 ) f (x) < f (x ) 0 f (x) ≥ f (x0 ) f (x) > f (x ) ∀ |x − x0 | < ǫ (ǫ > 0) (7.6.1) 0 −→ lokales Minimum (Maximum) erlaubt Täler (Bergrücken) −→ Definition impliziert automatisch, dass entlang jeder durch x0 verlaufenden Kurve die Extremaleigenschaft vorliegt: gilt insbesondere entlang der Richtungen, die durch Variation einer einzelnen Komponente von x bei festgehaltenen übrigen Komponenten definiert werden −→ am Extremum müssen alle partiellen Ableitungen verschwinden Satz: Sei f (x) in einer Umgebung von x0 (x0 ∈ Rm ) zweimal stetig partiell differenzierbar. Dann hat f (x) an der Stelle x0 ein Extremum genau dann, wenn ∂f (x0 ) = 0 ∂xi ∀ i = 1, . . . m (7.6.2) und die Matrix der zweiten partiellen Ableitungen (Hesse’sche Matrix) ! ∂ 2 f (x) ∂xi ∂xj x=x0 (7.6.3) definit ist. Das Extremum ist ein lokales Maximum genau dann, wenn streng lokales Maximum genau dann, wenn lokales Minimum genau dann, wenn strict lokales Minimum genau dann, wenn ∂ 2 f (x) (x0 ) ∂xi ∂xj ∂ 2 f (x) (x0 ) ∂xi ∂xj ∂ 2 f (x) (x0 ) ∂xi ∂xj ∂ 2 f (x) (x0 ) ∂xi ∂xj negativ semidefinit positiv semidefinit negativ definit positiv definit −→ zum Verständnis dieser Aussage: ergänze Definition der Definitheit einer Matrix 151 Definition: Eine symmetrische Matrix A heißt P positiv definit, falls hT A h = ij hi aij hj P positiv semidefinit, falls hT A h = ij hi aij hj P negativ definit, falls hT A h = ij hi aij hj P negativ semidefinit, falls hT A h = ij hi aij hj >0 ≥0 ∀ h 6= 0 <0 ≤0 (7.6.4) Zum Beweis: betrachte Taylorentwicklung von f (x) um x0 bis zur zweiten Ordnung m m X ∂f ∂2f 1X f (x0 + h) = f (x0 ) + hi hi hj (x0 ) + (x0 + hθ) (0 ≤ θ ≤ 1) ∂x 2 i,j=1 ∂xi ∂xj i=1 | i{z } =0 2 f (x0 + hθ) entscheidet über Existenz eines (strengen) lokalen Extremums −→ Matrix ∂x∂i ∂x j 2 ∂ f −→ ∂xi ∂xj (x0 + hθ) symmetrisch wegen zweifacher stetiger Differenzierbarkeit von f (x) −→ für Nachweis der Extremaleigenschaft genügt es, infinitesimale h zu betrachten 2 2f ∂ f −→ wegen Stetigkeit von ∂x∂i ∂x (x) in Umgebung von x ist auch (x + hθ) definit 0 0 ∂xi ∂xj j Beispiel: Bestimme Extrema von (x4 ≡ (x2 )2 ) φ(x) = ax4 − bx2 x = (x1 , x2 ) a, b > 0 (7.6.5) 2 1.5 1 0.5 0 -0.5 -1 1.5 1 0.5 -1.5 -1 0 -0.5 0 -0.5 0.5 1 152 -1 -1.5 1.5 −→ berechne zunächst erste und zweite partielle Ableitungen ∂φ (x) = 2xi (2ax2 − b) ∂xi ∂2φ (x) = 2δij (2ax2 − b) + 8axi xj ∂xi ∂xj −→ es gibt zwei mögliche Lösungen für ∂φ/∂xi = 0 (a) xi = 0 (b) 2ax2 = b für i = 1, 2 ⇐⇒ (Ursprung) r b x2 = ± − x21 2a x2 (Ring um Ursprung) 6 ........................................ ...... ....(b) . . . .... ... ..... ... .. ... ... .. s(a) .. .. ... . . ... .. ... . .... .. ..... .... . . ......... . . ................................. -x1 −→ untersuche nun Matrix der zweiten Ableitungen an diesen Stellen (a) ∂2φ (0) = −2bδij ∂xi ∂xj 2 X ∂2φ (0) hj = −bh2 < 0 =⇒ hi ∂x ∂x i j i,j=1 (∀ h 6= 0) =⇒ φ hat bei x = 0 strenges lokales Maximum ∂2φ b 2 (b) x = = 8axi xj b x2 = 2a ∂xi ∂xj 2a 2 X b ∂2φ 2 x = hj = 8a(h · x)2 ≥0 =⇒ hi b x2 = 2a ∂x ∂x 2a i j i,j=1 =⇒ φ hat bei allen Punkten, für die x2 = 7.6.2 b 2a gilt, lokales Minimum Extrema mit Nebenbedingungen Häufige Problemstellung: Minimierung von Feldern unterliegt Nebenbedingungen −→ Nebenbedingungen sind oft in der Form g(x) = 0 gegeben (als holonom bezeichnet) 153 (z.B. in Mechanik: Bewegung auf Oberfläche oder Bahnkurve) −→ Bedingung muss bei Minimierungsverfahren berücksichtigt werden Lagrange Theorem: Seien f (x) und gj (x), j = 1, . . . l in einer Umgebung von x0 ∈ Rm (l < m) stetig partiell differenzierbar. Falls dann (i) die Nebenbedingungen gj (x0 ) = 0 ∀ j = 1, . . . l (7.6.6) gelten, (ii) diese alle voneinander unabhängig sind, d.h. die m × l-Matrix ∂gj (x0 ) ∂xi l linear unabhängige Spalten besitzt, und (iii) f (x) an der Stelle x0 ein Extremum bei Beschränkung auf diejenigen x aus der Umgebung von x0 besitzt, für die gj (x) = 0 ∀ j = 1, . . . l ist, existieren Zahlen λj , j = 1, . . . l mit " # l X ∂ f (x) + λj gj (x) ∂xi j=1 = 0 ∀ i = 1, . . . m (7.6.7) x=x0 Beweis: in mehreren Schritten (a) die Matrix ∂gj (x0 ) ∂xi mit Zeilenindex i = 1, . . . m und Spaltenindex j = 1, . . . l, (l < m) besitzt l linear unabhängige Spalten −→ wähle die Zeilen 1, . . . l, d.h. die Komponenten x1 , . . . xl von x, als diejenigen, bezüglich denen die Spaltenvektoren linear unabhängig sind (kein Problem, da Nummerierung der xi beliebig ist) −→ teile zur einfacheren Sortierung den Vektor x in zwei Teilvektoren auf x = (x1 , . . . xl , xl+1 , . . . xm ) = (y1 , . . . yl , zl+1 , . . . zm ) = (y, z) 154 (7.6.8) (b) da die l Nebenbedingungen gj (x) = 0 als unabhängig vorausgesetzt werden, können über sie l Komponenten von x durch die verbleibenden m − l ausgedrückt werden ∂gj −→ wegen der linearen Unabhängigkeit der ersten l Zeilen der Matrix ∂xi (x0 ) , det ∂gj (x0 ) ∂yi 6= 0 (i, j = 1, . . . l) können die Komponenten (x1 , . . . xl ) = y in einer Umgebung von x0 als (nicht explizit bekannte) Funktionen h1 , . . . hl der Komponenten (xl+1 , . . . xm ) = z geschrieben werden y = h(z) (7.6.9) −→ die h1 , . . . hl erfüllen per Definition gerade die Nebenbedingungen gj (h(z), z) = 0 j = 1, . . . l −→ partielle Differentiation dieser Relationen führt auf ∂ gj (h(z), z) ∂zk l X ∂hi ∂gj ∂gj (h(z), z) (z) + (x) = ∂hi ∂zk ∂xk x=(h(z),z) i=1 0 = (c) wegen der linearen Unabhängigkeit der l Spaltenvektoren der Matrix züglich der ersten l Zeilen bilden die Vektoren ∂gj ∂gj (x0 ), . . . (x0 ), ∂x1 ∂xl (7.6.10) ∂gj (x0 ) ∂xi be- j = 1, . . . l eine Basis im Rl −→ jeder Vektor im Rl kann durch diese Basis dargestellt werden, insbesondere der ∂f ∂f Vektor ∂x , . . . ∂xl 1 l X ∂gj ∂f (x0 ) = − λj (x0 ) ∂xi ∂xi j=1 i = 1, . . . l −→ für die ersten l Komponenten ist Gl.(7.6.7) bereits bewiesen 155 (7.6.11) (c) sobald die x1 , . . . xl über die Funktionen h1 , . . . hl durch die xl+1 , . . . xm ausgedrückt sind, entspricht die Minimierung bzw Maximierung von f einem gewöhnlichen Extremalwertproblem −→ am Extremum müssen alle partiellen Ableitungen bezüglich der unabhängigen Komponenten verschwinden ∂f (h(z0 ), z0 ) ∂zk l X ∂f ∂hi ∂f = (h(z0 ), z0 ) (z0 ) + (x) ∂hi ∂zk ∂xk x=(h(z0 ),z0 ) i=1 l l X X ∂gj ∂hi ∂f (h(z0 ), z0 ) (z0 ) + (x) = − λj ∂xi ∂zk ∂xk x=(h(z0 ),z0 ) i=1 j=1 0 = −→ eliminiere nun noch ∂hi /∂zk über (7.6.10) 0 = l X λj j=1 = l X j=1 λj ∂f ∂gj + (x) (x) ∂xk ∂xk x=(h(z0 ),z0 ) x=(h(z0 ),z0 ) ∂gj ∂f (x0 ) + (x0 ) ∂xk ∂xk k = l + 1, . . . m (7.6.12) −→ auch für die Komponenten l + 1, . . . m ist Gl.(7.6.7) bewiesen Bemerkungen: • Extremwertproblem mit Nebenbedingungen entspricht gewöhnlichem ExtremwertproP blem mit erweiterter Funktion f (x) + lj=1 λj gj (x) bezüglich des erweiterten Satzes von Variablen x, λ1 , . . . λl −→ die λj müssen gleichzeitig mit x0 bestimmt werden • Gln.(7.6.7),(7.6.6) stellen gerade l + m Gleichungen zur Bestimmung von λ1 , . . . λl und der m Komponenten von x0 zur Verfügung • Lagrange Theorem stellt nur notwendige Bedingung für Extremum dar! −→ Vorgehen bei Lösung: (a) bestimme λ1 , . . . λl und x0 durch Lösung von (7.6.7) plus (7.6.6) (b) verifiziere Existenz eines Extremums für gefundene Lösung explizit 156 Beispiel: Betrachte Funktion (7.6.5) mit der Nebenbedingung g(x) = x1 − x2 + c = 0 1. Schritt: Bestimme mögliche Positionen von Extrema −→ entsprechend Lagrange Theorem sind 3 Gleichungen zu lösen: ∂ [φ(x) + λg(x)] = 0 ∂xi g(x) = 0 i = 1, 2 Explizit: 2x1 (2ax2 − b) + λ = 0 2x2 (2ax2 − b) − λ = 0 x1 − x2 + c = 0 Addiere die ersten beiden (x1 + x2 )(2ax2 − b) = 0 und setze dann in Resultat dritte ein: (2x1 + c) 2a 2x21 + 2x1 c + c2 − b = 0 −→ besitzt zwei Lösungen (a) x1 = − c 2 2ac2 − b =0 (b) + cx1 + 4a r c b − ac2 =⇒ x1,± = − ± 2 4a −→ ist nur dann Lösung, wenn b > ac2 x21 −→ durch Einsetzen in Nebenbedingung kann jetzt auch x2 berechnet werden (a) (b) x2 = x2,± c 2 c = ± 2 157 r b − ac2 4a (7.6.13) −→ zugehöriges λ ist in diesem Fall nicht mehr von Interesse, da x0 bereits festliegt −→ λ kann aber aus Minimierungsbedingung ausgewertet werden λ = 2x2 (2a(x21 + x22 ) − b) = b + ac2 4a 2. Schritt: Kontrolliere Existenz der Extrema −→ einfachstes Vorgehen: Setze x2 = x1 + c in φ ein −→ definiert gewöhnliche Funktion ψ ψ(x1 ) := φ(x1 , x1 + c) = a(2x21 + 2x1 c + c2 )2 − b(2x21 + 2x1 c + c2 ) −→ betrachte erste beiden Ableitungen von ψ dψ (x1 ) = 2(2x1 + c) 2a(2x21 + 2x1 c + c2 ) − b dx1 d2 ψ (x1 ) = 4 2a(2x21 + 2x1 c + c2 ) − b + 8a(2x1 + c)2 2 dx1 −→ setze zu überprüfende Extremalpositionen ein (a) (b) dψ c x1 = − =0 dx1 2 c d2 ψ x1 = − = 4(ac2 − b) dx21 2 =⇒ x1 ist Maximum für ac2 < b, Minimum für ac2 > b ! r dψ c b − ac2 x1 = − ± =0 dx1 2 4a ! r d2 ψ b − ac2 c x1 = − ± = 8(b − ac2 ) dx21 2 4a =⇒ x1 ist Minimum, weil erste Ableitung an diesem Punkt b > ac2 erfordert −→ diskutiere noch Extremalposition (a) für den Fall b = ac2 −→ höhere Ableitungen müssen untersucht werden d3 ψ (x1 ) = 48a(2x1 + c) dx31 d4 ψ (x1 ) = 96a =⇒ dx41 d3 ψ c x = − = 0 1 dx31 2 d3 ψ c x = − > 0 1 dx31 2 =⇒ −→ für den Fall b = ac2 ist x1 = − 2c Minimum 158 x2 6 x2 = x1 + q b a x2 = x1 + c . . . . . . . . . . .... ..........d....Min ...... .......... ..... Min.....d.... ... . ... .. . Max d ... .. ... ... -x1 s ... .... ...d .. ...Min . . .... .. ..... .... 2 . b . 2 ......... . . . ................................ x1 + x2 = 2a 7.7 Kurvenintegrale Grundproblem in klassischer Mechanik: Berechnung der gegen Kraft aufgewendeten Arbeit, wenn Massenpunkt auf einer Kurve im Kraftfeld bewegt wird −→ lokal, d.h. für jedes infinitesimale Stückchen des Weges, ist Arbeit als Skalarprodukt der lokalen Kraft F und des (winzigen) Wegstückchens dr definiert dW = F · dr Aufgabe dann: Gehe gesamte Kurve durch und addiere infinitesimale Beiträge auf −→ Formalisierung durch Kurvenintegral Definition: Sei (a) A(r) ein Feld mit n = m (Zahl der Komponenten = Zahl der Variablen), (b) k(x) mit a ≤ x ≤ b eine Parameterdarstellung einer rektifizierbaren Kurve K, (c) Z eine Zerlegung des Parameterintervalls [a, b] gemäß Gl.(7.2.13), δ(Z) seine Maschenweite (7.2.14) und (d) A(r) stetig entlang K, 159 dann existiert der Grenzwert (Kurvenintegral genannt) Z n(Z) K A(r) · dr := lim δ(Z)→0 X · A(k(s )) | {z k } k=1 Feldwert im Intervall [xk−1 , xk ]: xk−1 ≤ sk ≤ xk sk ansonsten beliebig [k(x ) − k(x )] | k {z k−1 } (7.7.1) Vektor von Anfang zu Ende des Intervalls [xk−1 , xk ] Man kann zeigen: bei gegebenem K ist der Wert des Kurvenintegrals unabhängig von der Wahl der Parameterdarstellung k(x) Vereinfachung: falls Parameterdarstellung stetig differenzierbar (kein Problem bei realen Bahnkurven wegen Existenz von r̈(t)) x ∈ [a, b] , k(x) , dk (x) stetig dx (7.7.2) Erinnerung: • stetige Differenzierbarkeit impliziert endliche Länge von K • Ableitung dk dk ist Tangente an Kurve, dx ist infinitesimales Stück der Kurve dx dx vereinfachte Definition des Kurvenintegrals: Z K n(Z) A(r) · dr = = lim δ(Z)→0 Z a b X k=1 A(k(sk )) · A(k(x)) · k(xk ) − k(xk−1 ) (xk − xk−1 ) xk − xk−1 dk(x) dx dx Elementare Eigenschaften: Z Z Z A(r) · dr A(r) · dr + A(r) · dr = K2 K1 K1 +K2 Z Z A(r) · dr = − A(r) · dr −K (7.7.3) (7.7.4) (7.7.5) K (−K = durchlaufe Kurve in umgekehrter Richtung) Offensichtliche Frage: Liefert das Kurvenintegral über ein gegebenes Feld entlang zweier verschiedener Wege das gleiche Ergebnis, wenn die beiden Wege denselben Start- und Endpunkt haben? 160 u K1 k u K2 Theoreme: Wegunabhängigkeit des Kurvenintegrals (1) Falls A(r) stetig im Gebiet G: Z A(r) · dr wegunabhängig in G K ⇐⇒ A(r) = ∇φ(r) in G (7.7.6) (zu lesen als: Kurvenintegral wegunabhängig für alle K, die ganz in G verlaufen) −→ Kurvenintegral durch Werte von φ(r) an Anfangs- und Endpunkt der Kurve gegeben Beweis im Fall stetig differenzierbarer k(x) (a) falls A(r) = ∇φ(r) in G: über Kettenregel (7.3.11) Z Z b dk(x) dx A(r) · dr = [∇φ(k(x))] · dx K a Z b dφ(k(x)) = dx dx a = φ(k(b)) − φ(k(a)) (b) Falls R K (7.7.7) A(r) · dr wegunabhängig in G: definiere φ(k(b)) := Z a b A(k(x)) · dk (x) dx dx mit festem k(a) und variablem k(b) −→ Definition eindeutig, weil Integral in G wegunabhängig Vergleiche Ableitung über Kettenregel mit expliziter Differentiation des Integrals [∇φ(k(b))] · dk dφ(k(b)) dk (b) = = A(k(b)) · (b) dx db dx −→ gilt für beliebige Kurven in G =⇒ A(r) = ∇φ(r) 161 in G (kann auch für nicht stetig differenzierbare k(x) gezeigt werden — keine Details) (2) Falls alle Z K ∂Ai (r) (i, j = 1, . . . m) stetig im einfach zusammenhängenden Gebiet G: ∂rj A(r) · dr wegunabhängig in G ⇐⇒ ∂Ai ∂Aj = in G (∀ i, j) ∂rj ∂ri (7.7.8) −→ im Fall der Wegunabhängigkeit verschwinden Integrale über geschlossene Kurven K, falls K vollständig in einfach zusammenhängendem Gebiet liegt Z I A(r) · dr wegunabh. in G ⇐⇒ A(r) · dr = 0 ∀ geschlossenen K in G (7.7.9) K K Definition 1: Ein Gebiet G ist eine offene, zusammenhängende Punktmenge im Rm , d.h. eine Menge von Punkten, in der sich je zwei Punkte durch einen vollständig in G verlaufenden Polygonzug verbinden lassen. Definition 2: Ein Gebiet G heißt einfach zusammenhängend, falls jede geschlossene Kurve, die ganz in G liegt, auf einen Punkt zusammengezogen werden kann, ohne im Laufe des Zusammenziehens G zu verlassen. G '$ G K 6 &% K '$ &% einfach zusammenhängend im R2 nicht einfach zusammenhängend im R2 Beispiel: Integration auf Kugeloberfläche Wähle Umrandung von Kugeloberflächensegment als Kurve: 2 Abschnitte −→ 1. Sektor = Halbkreis in x-y-Ebene, 2. Sektor = Halbkreis in x-z-Ebene 162 z 6 ...................................... ......... .... ....... ... ...... . ... . . . ... ... ..... .. .... . . . .. ... . .. . . .. ....... . . . .................... .. 2 . ....... . . .... ... . . ... .. . . ... . ................ . . . ... . . . . . ... . . . . . ... ... .. . . . ... .. .. . . . .. .. ... . . . . . . .. . . . . . .. . . . . ... ... .. ... ... .. ... .. . .. . . . .. ... .... ... .... .... ... .... .. . . . .... ... .... ... .... .... ... .... . .. . . . ..... ... .... .... ... ..... ..... ..... ....... ... ..... ....... . . .. . . . . . . . . . . . ....... ..... ... .......... ...... ............. ... ..... .......................... ..... ... ...... 1 . . . . .... . . .... .. ....... .. ........ .. ........ . . . . . . . ... . ...... .. ............ ............. ... ................ ................................... k ϕ @ ϕ @ @ R -y k (ϕ) 3 R (ϕ) x Parameterdarstellung der beiden Kurven über Azimuthwinkel ϕ: 1. Sektor k (ϕ) = R(cos(ϕ), sin(ϕ), 0) 0≤ϕ≤π 1 K= 2. Sektor k (ϕ) = R(− cos(ϕ), 0, sin(ϕ)) 0 ≤ ϕ ≤ π 2 Berechne Kurvenintegral entlang dieser Kurve für drei verschiedene Vektorfelder: (a) A = Q r , |r|3 (b) A = a × r , |r|3 a a·r −2 4 r 2 |r| |r| (c) A = Erste Aufgabe: Berechne Ableitungen der Parameterdarstellung bezüglich ϕ entlang beider Sektoren: dk1 (ϕ) = R(− sin(ϕ), cos(ϕ), 0) dϕ dk2 (ϕ) = R(sin(ϕ), 0, cos(ϕ)) dϕ Werte jetzt Kurvenintegral für die drei Felder getrennt aus: (a) Z K A(r) · dr = 2 Z X i=1 π 0 dϕ A(ki (ϕ)) · dki (ϕ) dϕ 2 Z Q X π dki = dϕ (ϕ) · ki (ϕ) = 0 3 R i=1 0 dϕ {z } | =0 163 −→ bestätigt Wegunabhängigkeit des Kurvenintegrals im Fall von Gradientenfeldern: Q hier ist A(r) = −∇ |r| (b) Benutze die Identität (1.4.23) 2 Z X ki (ϕ) dki (ϕ) · a × A(r) · dr = dϕ dϕ R3 K i=1 0 2 Z 1 X π dki = (ϕ) dϕ a · ki (ϕ) × R3 i=1 0 dϕ Z π Das verbliebene Vektorprodukt kann man direkt auswerten dki (ϕ) ki (ϕ) × dϕ R2 (cos(ϕ), sin(ϕ), 0) × (− sin(ϕ), cos(ϕ), 0) = R2 (0, 0, 1) = R2 (− cos(ϕ), 0, sin(ϕ)) × (sin(ϕ), 0, cos(ϕ)) = R2 (0, 1, 0) Z π =⇒ A(r) · dr = [a · e3 + a · e2 ] R K (c) Benutze wieder Z K dki dϕ i=1 i=2 (7.7.10) · ki = 0 A(r) · dr = 2 Z X i=1 0 π dki a a · ki (ϕ) dϕ (ϕ) · −2 ki (ϕ) dϕ R2 R4 2 Z 1 X π dki = (ϕ) dϕ a · 2 R i=1 0 dϕ 1 [a · [k1 (π) − k1 (0)] + a · [k2 (π) − k2 (0)]] R2 1 [a · (−2Re1 ) + a · (2Re1 )] = R2 = 0 = −→ bestätigt Wegunabhängigkeit des Kurvenintegrals im Fall von Gradientenfeldern: a·r hier ist A(r) = ∇ 2 |r| 164 Kapitel 8 Lineare Algebra 8.1 Matrizen 8.1.1 Grundkonzept Begriff der Matrix schon in Abschnitt 1.2.2 kennengelernt: hier folgt jetzt Verallgemeinerung und Vertiefung des Konzepts Definition: Unter einer Matrix versteht man ein Schema von m·n reellen oder komplexen Zahlen aij (die auch Funktionen einer oder mehrerer Variablen sein können) der Form a11 a12 · · · a1n a21 a22 · · · a2n (8.1.1) = . A ≡ A ≡ (aij ) .. . {z } | . . verschiedene Schreibweisen am1 am2 · · · amn d.h. ein Schema bestehend aus m Zeilen und n Spalten. Die Matrix wird dann als m × nMatrix (bzw als vom Typ m × n) bezeichnet, aij als ihre Elemente. • Konvention: erster Index der Elemente aij = i = Zeilenindex zweiter Index der Elemente aij = j = Spaltenindex • (ai1 , ai2 , . . . , ain ) = i-ter Zeilenvektor (a1j , a2j , . . . , amj ) = j-ter Spaltenvektor 165 • für m = 1 oder n = 1 geht Matrix in Vektor über: der übliche Vektor a ist m×1-Matrix zu verstehen, d.h. als Matrix mit einer m-komponentigen Spalte • in Praxis: meist quadratische Matrizen mit m = n relevant Beispiel: Rotationsmatrix (Rotation um z-Achse) cos(α) sin(α) 0 Rz (α) = − sin(α) cos(α) 0 0 0 1 (8.1.2) −→ Matrizen dienen insbesondere der Formalisierung von Koordinatentransformationen Allgemeiner formuliert: m × n-Matrizen definieren lineare Abbildungen vom Rn in den Rm Beispiel: Projektion 1 0 P xy = 0 1 0 0 8.1.2 auf x-y-Ebene: a 0 1 · ax + 0 · ay + 0 · az x =⇒ P xy a = 0 · ax + 1 · ay + 0 · az = ay 0 0 0 0 · ax + 0 · ay + 0 · az (8.1.3) Grundbegriffe und elementare Operationen mit Matrizen 1. Identität von Matrizen A=B ⇐⇒ aij = bij ∀ i = 1, . . . m; j = 1, . . . n (8.1.4) −→ impliziert gleichen Typ von A und B 2. Addition von Matrizen A+B =C ⇐⇒ aij + bij = cij ∀ i, j (8.1.5) −→ impliziert gleichen Typ von A und B −→ per Konstruktion ist Addition kommutativ und assoziativ A+B = B+A (8.1.6) (A + B) + C = A + (B + C) (8.1.7) 166 3. Nullmatrix 0 = neutrales Element der Addition 0= 0 0 ··· 0 0 0 ··· 0 .. .. . . 0 0 ··· 0 (8.1.8) −→ wird häufig einfach als gewöhnliche 0 geschrieben 4. Multiplikation von Matrizen mit reellen oder komplexen Zahlen (skalaren Funktionen) αA = B ⇐⇒ bij = αaij (8.1.9) −→ Multiplikation erfüllt per Konstruktion Assoziativitäts-, Distributivitätsgesetz α(βA) = (αβ)A (8.1.10) α(A + B) = αA + αB (8.1.11) (α + β)A = αA + βA (8.1.12) 5. Multiplikation von Matrizen AB=C ⇐⇒ cik = n X aij bjk (8.1.13) j=1 −→ setzt voraus, dass Spaltenanzahl von A mit Zeilenanzahl von B übereinstimmt A = m×n C = m×l B = n×l anschaulich: cik = Skalarprodukt von i-ter Zeile von A mit k-ter Spalte von B .. .. .. · · · b1k · · · ↑ . . . .. i-te Zeile → ai1 · · · ain n Zeilen = · · · cik · · · . .. .. .. ↓ · · · bnk · · · . . . {z } | ↑ ← n Spalten → k-te Spalte 167 Multiplikation erfüllt per Konstruktion Assoziativitäts- und Distributivitätsgesetz, ist aber im allgemeinen nicht kommutativ (selbst bei n × n-Matrizen) A B 6= B A im allgemeinen (8.1.14) A(B C) = (A B)C (8.1.15) A(B + C) = A B + A C (8.1.16) Beispiele: (i) Nichtvertauschbarkeit von 1 1 0 1 Matrizen: 0 0 0 1 1 1 0 1 elementares Beispiel 1 0 1 = 0 0 1 0 1 0 = 0 1 0 (ii) Hintereinanderausführen von Rotationen um dieselbe Achse cos(β) sin(β) 0 cos(α) sin(α) 0 − sin(α) cos(α) 0 − sin(β) cos(β) 0 0 0 1 0 0 1 cos(α) cos(β) − sin(α) sin(β) cos(α) sin(β) + sin(α) cos(β) 0 = − sin(α) cos(β) − cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β) 0 0 0 1 cos(α + β) sin(α + β) 0 (8.1.17) = − sin(α + β) cos(α + β) 0 0 0 1 −→ Reihenfolge irrelevant 168 (iii) Hintereinanderausführen von Rotationen um verschiedene Achsen 1 0 0 cos(α) sin(α) 0 − sin(α) cos(α) 0 0 cos(β) sin(β) 0 − sin(β) cos(β) 0 0 1 cos(α) sin(α) cos(β) sin(α) sin(β) = − sin(α) cos(α) cos(β) cos(α) sin(β) 0 − sin(β) cos(β) cos(α) sin(α) 0 1 0 0 0 cos(β) sin(β) − sin(α) cos(α) 0 0 0 1 0 − sin(β) cos(β) cos(α) sin(α) 0 = − sin(α) cos(β) cos(α) cos(β) sin(β) sin(α) sin(β) − cos(α) sin(β) cos(β) (8.1.18) −→ Reihenfolge muss beachtet werden! Definition: A heißt mit B vertauschbar, falls AB = BA (8.1.19) 6. Spezialfall der Matrizenmultiplikation: Multiplikation von m×n-Matrix mit n-komponentigem Vektor Ab = c ⇐⇒ ci = n X aij bj (8.1.20) j=1 b = n × 1-Matrix (in Gl.(8.1.20) ist b als Spaltenvektor zu verstehen) −→ bereits bei Rotation von Vektoren in Abschnitt 1.2.2 kennengelernt: 7. Einheitsmatrix 1 = neutrales Element der Multiplikation 1 0 ··· 0 0 1 ··· 0 1 = .. = (δij ) .. . . 0 0 ··· 1 169 (8.1.21) −→ Einheitsmatrix existiert nur für m = n 8. Inverse Matrix: muss nicht existieren! (Kriterien siehe später) A−1 A = A A−1 = 1 n X ⇐⇒ (a−1 )ij ajk = δik (8.1.22) j=1 −→ setzt m = n voraus −→ Gl.(8.1.22) = n × n Gleichungen zur Bestimmung von n2 Koeffizienten • per Definition: A ist inverse Matrix zu A−1 , falls A−1 überhaupt existiert • A−1 ist eindeutig, falls es existiert Beweis über Konstruktion eines Widerspruchs: Angenommen A1−1 und A2−1 mit A−1 6= A2−1 sind beides Inverse zu A 1 A = A2−1 A = 1 A−1 1 =⇒ A1−1 = A2−1 (Multiplikation mit A−1 von rechts) 1 • inverse Matrix für Matrizenprodukt (A B)−1 = B −1 A−1 Beweis: (A B)−1 A B = B −1 A−1 A B = B −1 B = 1 Beispiele: (A) elementare Inverse a b 1 1 a+b a 1 0 = =! c d 1 0 c+d c 0 1 =⇒ a = 0; c = 1 =⇒ b = 1; d = −1 (B) Nichtexistenz der Inversen a b 1 0 a+b 0 1 0 = = 6 c d 1 0 c+d 0 0 1 170 (8.1.23) (C) Rotation (wegen Gl.(8.1.17)) cos(α) − sin(α) 0 cos(−α) sin(−α) 0 R−1 = (α) = sin(α) cos(α) 0 (8.1.24) − sin(−α) cos(−α) 0 z 0 0 1 0 0 1 −→ inverse Matrix = Drehung um denselben Winkel in umgekehrter Richtung 9. Transponierte Matrix (Bedeutung siehe unten) AT = B ⇐⇒ bij = aji d.h. aT −→ falls A eine m × n-Matrix ist, ist AT vom Typ n × m ij = aji (8.1.25) • Transponierte Matrix von Produkt: (A B)T = B T AT (8.1.26) Beweis: betrachte Element ik von (A B)T (A B) T ik = (A B) ki = n X akj bji = j=1 n X (aT )jk (bT )ij = j=1 B T AT ik • Transponierte Matrix von Inverser: (A−1 )T = (AT )−1 Beweis: 1 = A A−1 T (8.1.27) = (A−1 )T AT • Transposition von Vektor: aT ist 1 × n-Matrix, d.h. Matrix mit einer Zeile 10. Hermitesch konjugierte Matrix: Erweiterung der Transposition auf komplexwertige Matrizen A† = B ⇐⇒ bij = a∗ji d.h. Eigenschaften analog zur transponierten Matrix: a† ij = a∗ji (8.1.28) (A B)† = B † A† (8.1.29) (A−1 )† = (A† )−1 (8.1.30) −→ Beweisführung wie oben 171 11. Spur von n × n-Matrizen tr(A) := n X aii (8.1.31) i=1 Eigenschaften: per Definition der Spur erhält man tr(A + B) = tr(A) + tr(B) tr(A B) = tr(B A) (8.1.32) tr(A B) = n X aij bji i,j=1 tr(AT ) = tr(A) ! (8.1.33) (8.1.34) 12. Rang einer Matrix r(A) = Zahl der linear unabhängigen Zeilenvektoren (stimmt mit Zahl der linear unabhängigen Spaltenvektoren überein) Beispiele: (i) Rotationsmatrix: cos(α) sin(α) 0 Rz (α) = − sin(α) cos(α) 0 0 0 1 −→ alle Zeilenvektoren sind linear unabhängig: r(Rz (α)) = 3 (ii) Projektion auf x-y-Ebene: 1 0 0 P xy = 0 1 0 0 0 0 −→ nur zwei linear unabhängige Zeilenvektoren: r(P xy ) = 2 13. Regularität, Singularität von n × n-Matrizen: A regulär ⇐⇒ r(A) = n (8.1.35) A singulär ⇐⇒ r(A) < n (8.1.36) 172 Beispiele: (i) Rotationsmatrix ist regulär (ii) Projektion auf x-y-Ebene ist singulär aus Beispiel (ii) klar: singuläre Matrizen blenden (als Abbildungen verstanden) einen Teil des Raumes aus 14. Ähnlichkeit von n × n-Matrizen: (geschrieben in der Form A ≈ B) A≈B ⇐⇒ es existiert S mit r(S) = n, so dass B = S A S −1 (8.1.37) −→ S heißt dann Ähnlichkeitstransformation Beispiel: betrachte beliebige reelle, symmetrische, nicht-diagonale 2 × 2-Matrix a c mit c 6= 0 (8.1.38) A = c b −→ setze S in Form einer Drehung an S= cos(α) sin(α) − sin(α) cos(α) S −1 = cos(α) − sin(α) sin(α) −→ lasse Argument α der Kürze wegen weg cos(α) (8.1.39) S A S −1 cos sin a c cos − sin = − sin cos c b sin cos cos sin a cos +c sin −a sin +c cos = − sin cos c cos +b sin −c sin +b cos 2 2 2 2 a cos +b sin +2c sin cos c[cos − sin ] + (b − a) sin cos (8.1.40) = c[cos2 − sin2 ] + (b − a) sin cos b cos2 +a sin2 −2c sin cos −→ A ist allen Matrizen der Form (8.1.40) ähnlich −→ dazu gehören auch reine Diagonalmatrizen 173 −→ für diese folgt α aus dem Verschwinden der Nebendiagonalelemente ! 0 = c[cos2 − sin2 ] + (b − a) sin cos a − b√ =⇒ 2 cos2 −1 = 1 − cos2 cos c 2 a−b 2 2 =⇒ [2 cos −1] = [1 − cos2 ] cos2 c " " 2 # 2 # a−b a−b 4 cos − 4 + cos2 +1 =⇒ 0 = 4 + c c 2 −1 4c + (a − b)2 =⇒ 0 = cos4 − cos2 + c2 1/2 c2 1 1 2 ± − (8.1.41) =⇒ cos± = 2 4 4c2 + (a − b)2 1. konkretes Beispiel A = =⇒ A = 1 1 1 −1 1 1 cos = ± √ sin = ± √ 2 2 √ √ 2 − 2 1 = √ √ 2 2 2 cos2± = =⇒ 1 1 √ √ 2 2 1 =⇒ S = √ √ 2 2 − 2 2 0 S A S −1 = 0 0 2. konkretes Beispiel =⇒ 1 1 S −1 1 2 1 1 ±√ 2 8 =⇒ cos2± = =⇒ 1 cos2± − sin2± = ± √ 2 sin2± = 1 1 ∓√ 2 8 1 cos± sin± = ± √ 8 √ 1 0 S A S −1 = ± 2 0 −1 Eigenschaften ähnlicher Matrizen: • Rang bleibt erhalten, da r(S) = n A≈B =⇒ −→ an obigen Beispielen direkt zu sehen 174 r(A) = r(B) (8.1.42) • Spur bleibt erhalten A≈B =⇒ tr(A) = tr S −1 B S = tr B S S −1 = tr(B) (8.1.43) • ähnliche Matrizen bilden Klasse A ≈ B A ≈ C und ⇐⇒ B = S 1 A S −1 1 =⇒ B = S 1 S −1 C S 2 S −1 2 1 −1 −1 = S 2 S −1 C S S 1 2 1 =⇒ C = S 2 A S −1 2 und B ≈ C (8.1.44) −→ Menge aller Matrizen zerfällt in Klassen (Äquivalenzklassen genannt) 8.1.3 Orthogonalität und Unitarität von Matrizen Definition: Eine reelle n × n-Matrix A heißt orthogonal, falls A−1 = AT a−1 ⇐⇒ ij = aT ij = aji (8.1.45) −→ Zeilen- und Spaltenvektoren sind jeweils paarweise orthogonal T A A = 1 A AT = 1 ⇐⇒ ⇐⇒ n X j=1 n X T (a )ij ajk = aij (aT )jk = j=1 n X j=1 n X aji ajk = δik (8.1.46) aij akj = δik (8.1.47) j=1 Zentrale Eigenschaft orthogonaler Matrizen: Multiplikation von Vektoren mit orthogonaler Matrix erhält die Länge der Vektoren T Ab · Ab = Ab A b = bT AT A b = bT A−1 A b = | | {z } {z } bT b |{z} = b·b |{z} konventionelles konventionelles Matrix- Skalar- Skalarprodukt Skalarprodukt produkt produkt des Vektors ausgedrückt als c = A b mit Matrixprodukt sich selbst 175 (8.1.48) −→ Übergang von Skalarprodukt zu Matrixprodukt unmittelbar klar bei Betrachtung der Komponenten " n #" n # n n X X X X aij bj aik bk = Ab · Ab = i=1 j=1 k=1 i,j,k=1 −1 a ba b ji j ik k = n X j,k=1 bj δjk bk = b · b Beispiele: mit (8.1.24) (i) Rotationsmatrix: vergleiche RT z cos(α) − sin(α) 0 = sin(α) cos(α) 0 = R−1 (α) z 0 0 1 RT (α) z (8.1.49) −→ Orthogonalität der Zeilen- und Spaltenvektoren leicht zu sehen (ii) Spiegelung an Ebene, die z-Achse und Gerade in x-y-Ebene mit Winkel α/2 zur xAchse enthält cos(α) sin(α) 0 S z (α) = sin(α) − cos(α) 0 0 0 1 ey 6 (8.1.50) a′ = S z (α)a a′ .............. ............ .......... ....... ....... ...... ...... ...... ..... ..... ..... .... .... .... . α −ϕ 2 .... .... .... .... .... .... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ... . .. α 2 : ... a . ... .. .. .. .. ϕ .. ... ... p . 176 - ex −→ überprüfe Orthogonalität der Spaltenvektoren cos(α) 0 0 sin(α) sin(α) cos(α) sin(α) · − cos(α) = − cos(α) · 0 = 0 · sin(α) = 0 0 1 1 0 0 0 −→ Spiegelung lässt Länge von Vektor invariant Unitarität: Erweiterung der Orthogonalität auf komplexwertige Matrizen A−1 = A† a−1 ⇐⇒ ij = a† ij = a∗ji (8.1.51) −→ wieder sind Zeilen- und Spaltenvektoren jeweils paarweise orthogonal † A A = 1 A A† = 1 ⇐⇒ ⇐⇒ n n X X † (a )ij ajk = a∗ji ajk = δik j=1 n X aij (a† )jk = j=1 j=1 n X (8.1.52) aij a∗kj = δik (8.1.53) j=1 −→ Multiplikation mit unitärer Matrix erhält Länge von komplexwertigen Vektoren 8.1.4 † A b · A b = b† A† A b = b† A−1 A b = b† b = b∗ · b = |b|2 (8.1.54) Reihen von Matrizen Aus quadratischen Matrizen kann man über die Matrizenmultiplikation Reihen aufbauen, etwa die Exponentialreihe ∞ ∞ X X 1 n 1 n A ≡ A exp A := 1 + n! n! n=0 n=1 −→ Konvergenz wird über Konvergenz der Folge der Partialsummen Sk = sichergestellt P∞ 1 n=0 n! An Konvergenz von Folgen von Matrizen (gewöhnliche, absolute, gleichmäßige): wird wie im Fall von Zahlenfolgen definiert, wobei der Absolutwert der Zahl durch die Norm ||A|| = n X i,j=1 |aij | (oder äquivalente Normen) zu ersetzen ist −→ die Matrixnorm (8.1.55) impliziert komponentenweise Konvergenz 177 (8.1.55) Beispiele: ∞ X 1 n exp A = 1 + A n! n=1 ∞ X 1 n ln 1 − A = − A n n=1 (Konvergenz für ||A|| < ∞) (8.1.56) (Konvergenz für ||A|| < 1) (8.1.57) Rechenregeln für Reihen von Matrizen: 1. für kommutierende Matrizen (Beweis wie bei Zahlen) exp A + B = exp A exp B falls A B = B A (8.1.58) 2. für Ähnlichkeitstransformation exp S A S 8.2 8.2.1 −1 ∞ ∞ X X 1 1 −1 n S AS = = S An S −1 = S exp A S −1 n! n! n=0 n=0 Determinanten Motivation Betrachte lineares 2 × 2-Gleichungssystem zur Bestimmung zweier Unbekannter a11 x + a12 y = b1 a21 x + a22 y = b2 −→ Lösung durch algebraische Umformungen a22 b1 − a12 b2 a11 a22 − a12 a21 a11 b2 − a21 b1 y = a11 a22 − a12 a21 x = Form des Nenners ist kein Zufall, sondern eine für die Koeffizientenmatrix a a 11 12 a21 a22 charakteristische Größe, die Determinante 178 (8.1.59) 8.2.2 Definition und Grundbegriffe Definition: Als Determinante einer (reellen oder komplexwertigen) n × n-Matrix A versteht man die Zahl det(A) := X sign(P ) a1P (1) a2P (2) . . . anP (n) (8.2.1) P ∈Sn −→ Definition beruht auf mehreren neuen Konzepten, die im weiteren Schritt für Schritt eingeführt werden 1. P = Permutation (Vertauschung) von geordneten Elementen, hier der Zahlen 1, . . . n Beispiele: (i) Permutationen der Zahlen 1,2 −→ es gibt nur zwei mögliche Anordnungen der beiden Zahlen: 1 P P (1) 2 1 ? ? 1 2 I @ P (2) P P (1) 2 J ^ JJ 2 1 I @ P (2) −→ die Permutation, die alle Elemente am Platz lässt, wird identische Permutation oder Identität genannt (ii) Permutationen der Zahlen 1,2,3: insgesamt 6 mögliche Anordnungen 179 1 P 2 3 1 P ? ? ? 1 P (1) 2 3 6 P (2) I @ P (3) 2 3 1 J J JJ ^ JJ ^ = 3 P (1) 1 P 2 6 P (2) I @ P (3) 2 P (1) 2 3 3 1 Z Z ~ Z Z 6 P (2) I @ P (3) - zyklische Permutationen 1 P P (1) 2 3 J JJ ^ 2 1 1 3 6 P (2) I @ P (3) 3 1 J JJ ? ^ P ? 2 1 P (1) 3 P 2 6 P (2) I @ P (3) P (1) 3 2 3 2 1 Z Z Z ~ = ?Z 6 P (2) antizyklische Permutationen I @ P (3) - 2. Sn = Menge aller Permutationen von n geordneten Elementen (Sn bildet Gruppe bezüglich der Hintereinanderausführung von Permutationen, Symmetrische Gruppe genannt — im Moment nicht von Bedeutung, deswegen keine Details) −→ Elemente der S2 und S3 siehe oben 3. Zahl der möglichen Permutationen von n Elementen = n! (das erste Element kann an jeden der n zur Verfügung stehenden Plätze gesetzt werden, für das zweite stehen danach noch n − 1 Plätze zur Auswahl, für das dritte n − 2 etc) 4. Zerlegung in eine endliche Zahl von paarweisen Vertauschungen −→ für alle Permutationen möglich: Beispiel 1 2 3 P1 J J ^ J 2 P2 3 1 ? 3 1 P1′ oder Z Z Z ? ~ Z = 1 2 J JJ ^ ? 1 3 P2′ J J ^ J 3 2 3 1 2 ? 2 −→ Zerlegung in paarweise Vertauschungen ist nicht eindeutig 180 −→ es kann obendrein stets noch eine paarweise Vertauschung zweimal hintereinander ausgeführt werden, ohne dass sich Ergebnis ändert 5. Zerlegung von P in paarweise Vertauschungen erlaubt trotzdem Definition des Signum der Permutation sign(P ) := (−1)Zahl der paarweisen Vertauschungen (8.2.2) Signum eindeutig, weil Zahl der paarweisen Vertauschungen eindeutig gerade oder ungerade ist Beispiele: für Zahl der nötigen paarweisen Vertauschungen (i) Permutationen der Zahlen 1,2 1 (0) 2 1 (1) ? ? 1 2 J ^ JJ 2 2 1 sign(P ) = −1 sign(P ) = +1 (ii) Permutationen der Zahlen 1,2,3: minimal nötige Zahl der paarweisen Vertauschungen in Klammern 1 (0) 2 3 1 (2) 2 3 J J J J ^ JJ ^ = 3 1 2 1 (2) 2 2 3 3 1 Z Z ~ Z Z - zyklische Permutationen: sign(P ) = +1 1 2 J JJ ^ 2 3 ? ? ? 1 (1) 2 1 3 ? 3 1 2 3 J (1) JJ ? ^ 1 3 2 1 (1) 3 2 3 2 1 Z Z ? Z = ~ Z antizyklische Permutationen: sign(P ) = −1 Beispiele: für Determinanten 181 - (i) 2 × 2-Matrix det a11 a12 a21 a22 = a11 a22 − a12 a21 (8.2.3) −→ ergibt Nenner der Lösungen des 2 × 2-Gleichungssystems (ii) 3 × 3-Matrix a11 a12 a13 det a21 a22 a23 a31 a32 a33 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 −a12 a21 a33 − a11 a23 a32 − a13 a22 a31 (8.2.4) −→ lässt sich über Sarrus’sche Regel recht leicht merken a a a @12 @ 13 a11 a12 @11 @ @ @ @ @ @ det a21 a@22 a@23 a@21 a22 @ @ @ a31 a32 @a33 @a31 @a32 @ @ @ (a) füge erste beiden Spalten noch einmal hinten an (b) multipliziere entlang Vorwärtsdiagonalen aus und addiere die Beiträge auf (c) multipliziere entlang Rückwärtsdiagonalen aus und subtrahiere diese Beiträge = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a11 a23 a32 − a13 a22 a31 (8.2.5) (iii) Determinante einer Diagonalmatrix: nur identische Permutation trägt bei λ 0 0 ··· 0 1 0 λ2 0 · · · n 0 Y . . . . λi (8.2.6) det . . = 0 ··· i=1 λn−1 0 0 ··· 0 λn Bemerkungen: • Determinante wird häufig auch geschrieben in der Form a11 · · · a1n a11 · · · a1n . .. .. ≡ det .. ... . . an1 · · · ann an1 · · · ann 182 (8.2.7) • Determinante kann genauso gut über Permutation der Zeilenindizes der Matrixelemente definiert werden det(A) = X sign(P ) aP (1)1 aP (2)2 . . . aP (n)n (8.2.8) P ∈Sn −→ Summe durchläuft dieselben Term wie in (8.2.1), nur in anderer Reihenfolge 8.2.3 Definierende Eigenschaften −→ erlauben axiomatische Definition der Determinante −→ werden hier aus Definition (8.2.1) hergeleitet 1. Homogenität: Verhalten bei Multiplikation einer Zeile der Matrix mit Zahl a · · · a1n .11 .. .. . X det sign(P ) a1P (1) . . . αakP (k) . . . anP (n) = αak1 · · · αakn .. .. P ∈Sn . . an1 · · · ann (8.2.9) = α det(A) (analog bei Multiplikation einer Spalte mit α) =⇒ det(αA) = αn det(A) (8.2.10) 2. Additivität: Verhalten bei Addition eines Vektors zu einer Zeile der Matrix a12 ··· a1n a.11 .. .. . det ak1 + b1 ak2 + b2 · · · akn + bn .. .. . . an1 an2 ··· ann X sign(P ) a1P (1) . . . akP (k) + bP (k) . . . anP (n) = P ∈Sn = det(A) + det a11 a12 · · · a1n .. .. . . b1 b2 · · · bn .. .. . . an1 an2 · · · ann (analog bei Addition von b zu einer Spalte) 183 (8.2.11) 3. Vertauschung von zwei Zeilen: (nehme k < l an) a a · · · a1n ..11 12 .. . . ak1 ak2 · · · akn X .. det ... sign(P ) a1P (1) . . . akP (k) . . . alP (l) . . . anP (n) = . P ∈Sn al1 al2 · · · aln . . .. .. an1 an2 · · · ann betrachte eine einzelne Permutation P ··· 1 ? k ··· ··· l ? n ? ? P (1) · · · P (k) · · · P (l) · · · P (n) −→ P kann geschrieben werden als Permutation P ′ plus eine einzelne anschließende Vertauschung der Elemente auf den Plätzen k und l P ′ (k) = P (l) ; P ′ (l) = P (k) =⇒ P = Pk↔l P ′ P ′(i) = P (i) ; ; ∀ i 6= k, l sign(P ) = −sign(P ′) −→ wenn P alle möglichen Permutationen durchgeht, tut das auch P ′ , weil zu jeder Permutation auch eine mit vertauschten Elementen auf den Plätzen k und l existiert −→ Determinante kann geschrieben werden als X sign(P ) a1P (1) . . . akP (k) . . . alP (l) . . . anP (n) P ∈Sn = − = − X sign(P ′) a1P ′ (1) . . . akP ′ (l) . . . alP ′ (k) . . . anP ′ (n) P ′ ∈Sn X sign(P ′) a1P ′ (1) . . . alP ′ (k) . . . akP ′ (l) . . . anP ′ (n) P ′ ∈Sn −→ das ist Formel für Determinante von Matrix, in der gegenüber der 184 Ausgangsmatrix die a a ..11 12 . ak1 ak2 det ... al1 al2 . .. an1 an2 Zeilen k und l vertauscht sind a · · · a1n ..11 .. . . al1 · · · akn .. .. = − det . . ak1 · · · aln . .. .. . an1 · · · ann a12 · · · al2 ak2 an2 a1n .. . · · · aln .. . · · · akn .. . · · · ann (analog für Vertauschung von zwei Spalten) (8.2.12) Unmittelbare Konsequenz von Gl.(8.2.12): Determinante verschwindet, falls zwei Zeilen oder zwei Spalten gleich sind det(A) = − det(A) =⇒ det(A) = 0 falls zwei Zeilen/Spalten gleich (8.2.13) Aussage lässt sich noch verallgemeinern: Satz: Determinante verschwindet genau dann, wenn (mindestens) zwei Zeilen oder zwei Spalten linear abhängig sind (d.h. det(A) 6= 0, falls alle Zeilen linear unabhängig sind) (a) zeige zunächst, dass Determinante verschwindet, falls mindestens zwei Zeilen oder zwei Spalten linear abhängig sind −→ benutze die Darstellung des linear abhängigen Zeilenvektors in Zeile k durch die anderen Zeilenvektoren, d.h. Gl.(1.1.17) akj = n X λl alj l=1,l6=k −→ dann können zunächst (8.2.9) und (8.2.11) verwendet werden, um die Determinante in a .11 .. a k1 det ... al1 .. . an1 folgende Form zu bringen a · · · a1n .11 .. . . . · · · akn n al1 X .. = λl det ... . l=1,l6=k al1 · · · aln .. .. . . an1 · · · ann 185 ··· a1n .. . · · · aln .. . · · · aln .. . · · · ann −→ wegen (8.2.13) erhält man schließlich det(A) = 0 falls zwei Zeilen oder zwei Spalten linear abhängig (8.2.14) (b) zeige nun, dass Determinante nicht verschwindet, falls alle Zeilen linear unabhängig sind: verwende Widerspruchsbeweis −→ nehme an, dass det(A) = 0, obwohl die Zeilenvektoren al := (al1 , al2 , . . . aln ) (8.2.15) linear unabhängig sind −→ jeder beliebige n-komponentige Vektor lässt sich über die al darstellen, da diese eine Basis des Rn bilden: wähle davon n Vektoren rk aus rk = n X λklk alk k = 1, . . . n (8.2.16) lk =1 rk = (rk1 , rk2 , . . . rkn ) (8.2.17) −→ für die aus den Zeilenvektoren rk gebildete Determinante erhält man mit (8.2.9) und (8.2.11) a · · · al1 n l1 1 n r11 · · · r1n X . r · · · r . 21 2n .. = λ1l1 det . det .. .. . . . l1 =1 rn1 · · · rnn rn1 · · · rnn n n a · · · a l 1 l1 n X X 1 .. = λ1l1 · · · λnln det ... . l1 =1 ln =1 aln 1 · · · aln n −→ nur diejenigen Beiträge zu den Summen über lk tragen bei, bei denen die l1 , . . . ln paarweise verschieden sind (sonst sind zwei Zeilen der rechten Det. gleich) −→ die l1 , . . . ln müssen eine Permutation P von 1, . . . n sein a · · · a r11 · · · r1n 11 1n X .. .. λ1P (1) · · · λnP (n) sign(P ) det ... det ... . . = P ∈Sn an1 · · · ann rn1 · · · rnn X λ1P (1) · · · λnP (n) sign(P ) det(A) = (8.2.18) P ∈Sn 186 −→ falls det(A) = 0, gilt r11 · · · r1n .. det ... . = 0 rn1 · · · rnn für beliebige Vektoren r1 , . . . rn −→ Widerspruch zu det(1) = 1 im Fall rk = ek für k = 1, . . . n −→ Annahme det(A) = 0 kann nicht korrekt sein 8.2.4 Multiplikationstheorem häufiges Problem: Auswertung der Determinante von Produkt von Matrizen −→ leicht auszuwerten über Multiplikationstheorem det(A B) = det(A) det(B) (8.2.19) Zum Beweis betrachte die n Zeilenvektoren ci der Produktmatrix A B ci = (ci1 , ci2 , . . . cin ) n X cik = aij bjk k = 1, . . . n j=1 −→ für die Determinante von A B erhält man über (8.2.9) und (8.2.11) wieder c11 · · · c1n .. det(A B) = det ... . cn1 · · · cnn n n bj 1 · · · bj1 n X X 1 .. = a1j1 · · · anjn det ... . j1 =1 jn =1 bjn 1 · · · bjn n −→ jetzt ist Fallunterscheidung nötig: (a) falls die Zeilenvektoren bj = (bj1 , · · · bjn ) linear unabhängig sind, tragen zu den Summen über die jk auf Grund von Gl.(8.2.13) nur diejenigen Terme bei, bei denen die j1 , . . . jn gerade irgendeine Permutation P von 1, . . . n sind (wie oben) b · · · b 11 1n X .. det(A B) = a1P (1) · · · anP (n) sign(P ) det ... . P ∈Sn bn1 · · · bnn = det(A) det(B) 187 (8.2.20) −→ entspricht gerade Gl.(8.2.19) (b) falls die Zeilenvektoren bj = (bj1 , · · · bjn ) linear abhängig sind, verschwindet det(B) und damit die rechte Seite von Gl.(8.2.19) −→ auch die Zeilenvektoren ci von A B sind linear abhängig, da sie aus der Transformation der bj mittels der Matrix A hervorgehen: bmk = =⇒ cik = n X λj bjk j=1,j6=m n X aij bjk j=1 = aim bmk + n X aij bjk j=1,j6=m = aim n X λj bjk + j=1,j6=m = =⇒ ci = n X n X aij bjk j=1,j6=m (aim λj + aij ) bjk j=1,j6=m n X (aim λj + aij ) bj j=1,j6=m −→ alle n Vektoren ci lassen sich durch die n − 1 Vektoren bj mit j 6= m ausdrücken −→ auch det(A B) verschwindet, so dass Gl.(8.2.19) wiederum erfüllt ist 8.2.5 Determinanten spezieller Matrizen 1. Determinante der transponierten Matrix: resultiert direkt aus der Äquivalenz von Zeilen und Spalten det(AT ) = det(A) (8.2.21) 2. Determinante der inversen Matrix: resultiert direkt aus Multiplikationstheorem 1 = det(1) = det(A A−1 ) = det(A) det(A−1 ) =⇒ det(A−1 ) = [det(A)]−1 −→ inverse Matrix existiert nur, falls det(A) 6= 0 188 (8.2.22) 3. Determinante orthogonaler (reeller) Matrizen resultiert ebenfalls aus Multiplikationstheorem 1 = det(A A−1 ) = det(A AT ) = det(A) det(AT ) = det(A) det(A) = ±1 =⇒ 2 (8.2.23) 4. Determinante unitärer (komplexwertiger) Matrizen (analoges Vorgehen) 2 1 = det(A A−1 ) = det(A A† ) = det(A) det(A)∗ = det(A) |det(A)| = 1 =⇒ (8.2.24) −→ det(A) liegt auf dem Kreis mit Radius 1 um Ursprung der komplexen Ebene −→ die allgemeinste komplexe Zahl mit Betrag 1 lässt sich schreiben als (Moivre) =⇒ det(A) = eiϕ = cos(ϕ) + i sin(ϕ) mit ϕ ∈ R (8.2.25) 5. Determinante unter Ähnlichkeitstransformation: bleibt erhalten A≈B =⇒ det(B) = det S A S −1 = det S −1 S A = det(A) 6. Identität für ln A (ohne Beweis) det A = exp tr ln A with ln det(A) = ℜ tr ln A 8.2.6 ∞ X n 1 1−A ln A := − n n=1 (8.2.26) (8.2.27) (8.2.28) Determinantenentwicklungssatz Die tatsächliche Berechnung der Determinante über (8.2.1) ist durchaus aufwendig −→ rekursive Berechnung häufig vorteilhaft Eine Rekursionsformel stellt der Determinantenentwicklungssatz zur Verfügung det(A) = n X j=1 (−1)i−j aij det Aij 189 (8.2.29) wobei Aij die (n − 1) × (n − 1)-Matrix ist, die aus A durch Streichen der i-ten Zeile und j-ten Spalte hervorgeht Aij := a11 · · · .. . a1j · · · .. . ai1 · · · .. . aij .. . an1 · · · anj a1n .. . · · · ain .. . · · · ann (8.2.30) Beachte: in (8.2.29) kann i beliebig aus 1, . . . n ausgewählt werden −→ man spricht dann von Entwicklung nach der i-ten Zeile Beweis: Betrachte i = 1 (i 6= 1 folgt am Schluss durch Vertauschung der Zeilen von A) Startpunkt: Definition (8.2.1) det(A) = X sign(P ) a1P (1) a2P (2) . . . anP (n) P ∈Sn Zentraler Punkt: Reihenfolge, in der alle möglichen Permutationen P ∈ Sn durchgegangen werden, ist irrelevant −→ teile die Permutationen P ∈ Sn in Klassen auf, für die P (1) = j ( j = 1, . . . n) ist: alle möglichen P ∈ Sn erhält man dann durch Durchgehen von j = 1, . . . n sowie, für gegebenes j, durch Durchgehen aller Permutationen P ′ der n − 1 verbleibenden, von j verschiedenen Indizes 1, . . . j − 1, j + 1, . . . n −→ das Signum der Permutation P entspricht dann dem von P ′ bis auf den Faktor (−1)j−1, der aus den j − 1 Zweiervertauschungen resultiert, mit denen vor der Vertauschung von 1, . . . j − 1, j + 1, . . . n der Index j an die erste Stelle gebracht wird sign(P ) = (−1)j−1 sign(P ′) Illustration: 190 1 2 ··· j−1 @ @ @ @ @ @ R 9@ R @ @ R j 1 ? j 6 2 ? ? ′ ′ 6 6 ··· j j+1 ? j−1 j+1 ? ? ′ ′ ··· n ? ··· n ? ′ P (1) P (2) · · · P (j − 1) P (j + 1) · · · P (n) P (1) P (2) P (3) 6 ··· 6 6 j − 1 paarweise Vertauschungen: (−1)j−1 Permutation von 1, . . . j − 1, j + 2, . . . n: sign(P ′) direkte Permutation von 1, . . . n: sign(P ) P (j + 1) · · · P (n) P (j) Resultat: det(A) = n X (−1)j−1 a1j j=1 = n X j=1 X sign(P ′ ) a2P ′ (1) . . . ajP ′ (j−1) aj+1,P ′(j+1) . . . anP ′ (n) P ′ ∈Sn−1 (−1)j−1 a1j det A1j (8.2.31) −→ vor Verwendung von (8.2.31) kann noch i-te Zeile an erste Stelle gebracht werden a ··· aij · · · ain i1 a11 · · · a1j · · · a1n .. .. .. . . . i−1 det(A) = (−1) det ai−1,1 · · · ai−1,j · · · ai−1,n ai+1,1 · · · ai+1,j · · · ai+1,n .. .. .. . . . an1 · · · anj · · · ann n X i−1 j−1 = (−1) (−1) aij det Aij j=1 −→ (8.2.29) bewiesen Entwicklung kann genauso bezüglich Spalte formuliert werden (ausgehend von Gl.(8.2.8)) det(A) = n X i=1 (−1)i−j aij det Aij −→ Entwicklung nach der j-ten Spalte 191 (8.2.32) Beispiel: 3 × 3-Matrix, Entwicklung nach erster Zeile a a a 11 12 13 det a21 a22 a23 a31 a32 a33 a22 a23 a a a a − a12 det 21 23 + a13 det 21 22 (8.2.33) = a11 det a32 a33 a31 a33 a31 a32 8.3 Lineare Gleichungen Frage: Wozu braucht man Determinanten? Antwort: Insbesondere zur Lösung linearer Gleichungssysteme Ax = b ⇐⇒ a11 x1 + a12 x2 + . . . a1n xn = b1 .. .. .. . . . (8.3.1) an1 x1 + an2 x2 + . . . ann xn = bn −→ Lösung einfach, falls inverse Matrix A−1 existiert: x = A−1 b −→ inverse Matrix lässt sich gerade über Determinanten ausrechnen: det Aji (a−1 )ij = (−1)i−j (Aji siehe Gl.(8.2.30)) det A (8.3.2) (8.3.3) Beweis: durch Nachweis der A−1 definierenden Gl.(8.1.22): n X −1 aij (a )jk j=1 n X 1 = (−1)j−k aij det Akj det A j=1 (8.3.4) −→ für i = k kann Determinantenentwicklungssatz direkt verwendet werden n X j=1 aij (a−1 )ji = n X 1 (−1)i−j aij det Aij = 1 det A j=1 −→ für i 6= k kann ebenfalls Determinantenentwicklungssatz verwendet werden, allerdings erhält man dann die Determinante einer Matrix, die aus A durch 192 (8.3.5) Ersetzen des Zeilenvektors ak = (ak1 , . . . akn ) durch ai entsteht a ··· a1n 11 .. .. . . ai1 ··· ain .. .. . . n X = det ak−1,1 (−1)j−k aij det Akj ··· ak−1,n j=1 ai1 ··· ain ak+1,1 ··· ak+1,n .. .. . . an1 ··· ann −→ Determinante verschwindet wegen (8.2.13) n X aij (a−1 )jk = 0 j=1 ∀ i 6= k (8.3.6) −→ Gl.(8.3.3) bewiesen Gl.(8.3.2) kann noch in eine leichter zu merkende Form gebracht werden xi = n X (a−1 )ij bj j=1 det Aji = (−1)i−j bj det A j=1 det Ãi = (Cramer’sche Regel) det A n X (8.3.7) wobei Ãi gemäß Determinantenentwicklungssatz (8.2.32) aus A durch Ersetzen der i-ten Spalte durch b hervorgeht Ãi a · · · a1 i−1 b1 a1 i+1 · · · a1n 11 .. .. .. .. .. = . . . . . an1 · · · an i−1 bn an i+1 · · · ann −→ Existenz einer eindeutigen Lösung von A x = b erfordert daher det(A) 6= 0 193 (8.3.8) 8.4 Eigenwertproblem Bei Rotation bereits gesehen: Richtung von Vektoren kann invariant unter linearer Transformation mit n × n-Matrix A sein −→ solche invarianten Richtungen sind von besonderer Bedeutung Definition: Ein Vektor v (mit v 6= 0) heißt Eigenvektor zur n × n-Matrix A, falls Av = λv (8.4.1) gilt. λ wird der zum Eigenvektor v gehörende Eigenwert genannt (λ ∈ R, C, je nach A). −→ mit v ist auch αv Eigenvektor: Eigenvektoren nur bis auf Skalenfaktor festgelegt Unmittelbare Konsequenz von (8.4.1): Satz: λ ist genau dann Eigenwert von A (mit mindestens einem zugehörigen Eigenvektor v), wenn det(A − λ 1) = 0 (8.4.2) Beweis: (in beiden Richtungen) (a) falls λ Eigenwert ist, existiert per Definition mindestens ein Eigenvektor v 6= 0 −→ det(A − λ 1) muss verschwinden, denn sonst existiert [A − λ 1]−1 , was nur die triviale Lösung von (8.4.1) zulässt: =⇒ A− λ1 v = 0 −1 v = A− λ1 0=0 (b) falls det(A − λ 1) = 0, sind mindestens 2 Spaltenvektoren der Matrix B = A − λ 1 linear abhängig (siehe Satz aus Abschnitt 8.2.3): drücke einen von ihnen (j) durch die anderen Spaltenvektoren aus bij = n X αl bil l=1,l6=j −→ j-ter Spaltenvektor von B kann aus Matrix eliminiert werden b · · · b b b · · · b 1 j−1 1l 1 j+1 1n n 11 X .. .. .. .. .. αl . B = . . . . l=1,l6=j bn1 · · · bn j−1 bnl bn j+1 · · · bnn 194 −→ betrachte jetzt Produkt aus B mit geeignet gewähltem Vektor α1 n . X αl b1 l b1 j+1 · · · b1n .. b11 · · · b1 j−1 0 l=1,l6=j αj−1 .. .. .. .. . .. . . . . . −1 = .. n α X j+1 b 0 αl bn l bn j+1 · · · bnn n1 · · · bn j−1 .. . l=1,l6=j αn −→ es existiert mindestens ein Vektor (6= 0), der von B auf 0 abgebildet wird −→ dieser Vektor ist Eigenvektor von A (wegen B = A − λ 1) −→ λ ist Eigenwert von A Man gibt det(A − λ 1) daher einen eigenen Namen: charakteristisches Polynom von A p(λ) := det(A − λ 1) = n X qk λk (8.4.3) k=0 −→ Nullstellen von p(λ) entsprechen Eigenwerten von A Praktische Lösung des Eigenwertproblems : 1. bestimme Nullstellen des charakteristischen Polynoms p(λ): Resultat = λ1 , . . . , λm 2. bestimme allgemeine Lösung von (A − λk 1)v = 0 für jeden einzelnen Eigenwert λk : Resultat = v1 , . . . , vl Beispiel: (i) Elementare 2 × 2-Matrix: Bestimme zunächst Eigenwerte 1 1 A = 1 −1 1−λ 1 = λ2 − 2 =⇒ p(λ) = det 1 −1 − λ √ =⇒ λ± = ± 2 195 Bestimme nun zugehörige Eigenvektoren v± : nur eine Komponente zu bestimmen, weil Normierung von v± nicht festliegt −→ setze willkürlich erste Komponente auf 1 (falls das auf Widerspruch führt, muss diese Komponente Null sein — in diesem Fall muss die nächste Komponente auf 1 gesetzt werden, bis eine gefunden ist, die nicht verschwindet) A − λ± 1 v± = 0 √ √ 1 1∓ 2 1 0 1 ∓ 2 + v± =! = √ √ 1 −1 ∓ 2 v± 0 1 − (1 ± 2)v± √ =⇒ v± = −1 ± 2 1 =⇒ v+ = v− = √ −1 + 2 =⇒ v+ · v− = 0 −→ Eigenvektoren sind orthogonal aufeinander −→ kein Zufall: siehe später (ii) Rotationsmatrix: Bestimme zunächst Eigenwerte (φ 6= 0) cos(φ) sin(φ) 0 A = − sin(φ) cos(φ) 0 0 0 1 cos(φ) − λ sin(φ) 0 =⇒ p(λ) = det − sin(φ) cos(φ) − λ 0 0 0 1−λ = (1 − λ) (cos(φ) − λ)2 + sin2 (φ) =⇒ λ± = cos(φ) ± i sin(φ) = e±iφ λ3 = 1 −→ ein reeller plus zwei komplexwertige Eigenwerte 196 1 √ −1 − 2 Bestimme zugehörige Eigenvektoren: Eigenvektor v3 zu λ3 offensichtlich 0 v3 = 0 v3,3 Bestimme nun Eigenvektoren v± zu λ± : ∓i sin(φ) sin(φ) 0 − sin(φ) ∓i sin(φ) 0 0 0 1 − (cos(φ) ± i sin(φ)) ∓i sin(φ)v1,± + sin(φ)v2,± = − sin(φ)v1,± ∓ i sin(φ)v2,± [1 − (cos(φ) ± i sin(φ))]v3,± =⇒ =⇒ v±,2 = ±iv±,1 1 v+ = v+,1 i 0 v 1,± v2,± v3,± 0 = 0 0 v±,3 = 0 v− 1 = v−,1 −i 0 Standardnormierung: vk† · vk = 1 1 1 1 1 v+ = √ i v− = √ −i 2 2 0 0 0 v3 = 0 1 −→ Eigenvektoren sind alle linear unabhängig, v3 ist orthogonal zu v± −→ kein Zufall: siehe später Aussagen zu Eigenwerten und -vektoren: 1. Zahl m der Eigenwerte λk einer n × n-Matrix A ist stets kleiner oder gleich n, weil p(λ) maximal n Nullstellen hat: m < n kann aus zwei Gründen resultieren: (a) erlaubte Werte von λk sind auf R beschränkt (präziser: erlaubte Werte von λk sind auf einen Körper beschränkt, der nicht algebraisch geschlossen ist) und p(λ) hat weniger als n Nullstellen im Reellen 197 (b) einige λk gehören zu Nullstellen von p(λ) höherer Ordnung zur Erläuterung: betrachte allgemeine Form von p(λ) falls nur λk ∈ R erlaubt ist p(λ) = (−1) n µ Y gk (λ)µk gk (λ) = λνk + qk,1λνk −1 + . . . + qk,νk (8.4.4) k=1 µ X νk µk = n (8.4.5) k=1 −→ gk (λ) elementare Polynome, die in R keine weitere Faktorisierung erlauben Beispiel: p(λ) = λ4 − 2λ3 + 2λ2 − 2λ + 1 = (λ2 + 1)(λ − 1)2 g 1 = λ2 + 1 µ1 = 1 ν1 = 2 g2 = λ − 1 µ2 = 2 ν2 = 1 vergleiche damit: allgemeine Form von p(λ) falls λk ∈ C erlaubt ist −→ elementare Polynome reduzieren sich auf gk (λ) = λ − λk p(λ) = (−1) n m Y (λ − λk )mk (8.4.6) k=1 mk = Ordnung der Nullstelle = Multiplizität des Eigenwerts λk m X mk = n (8.4.7) k=1 −→ Form (8.4.6) garantiert wegen Fundamentalsatz der Algebra Beispiel von oben: p(λ) = λ4 − 2λ3 + 2λ2 − 2λ + 1 = (λ + i)(λ − i)(λ − 1)2 m = 3 2. Zahl l der linear unabhängigen Eigenvektoren einer n × n-Matrix liegt zwischen Zahl der Eigenwerte m und n: m ≤ l ≤ n (oben bewiesen: zu jedem Eigenwert existiert mindestens ein Eigenvektor; die vk haben aber nicht mehr als n Komponenten) 198 3. Die Eigenvektoren v1 , . . . , vm der Matrix A sind linear unabhängig, falls die zugehörigen Eigenwerte λk paarweise verschieden sind: λk 6= λj ∀ k 6= j; k, j = 1, . . . m =⇒ v1 , . . . , vm linear unabhängig Beweis: lasse Eigenwertgleichungsoperator mit Eigenwert λj auf Eigenvektor vl wirken 0 für l = j A − λj 1 vl = (λ − λ )v für l 6= j l j l betrachte nun Ausdruck, der lineare Abhängigkeit charakterisiert, Pm l=1 αl vl , und lasse alle Eigenwertgleichungsoperatoren auf ihn wirken, außer einem (k): in Summe verschwinden alle Terme bis auf l = k m m Y X αl vl = A − λj 1 j=1;j6=k m Y =⇒ j=1;j6=k m Y l=1 j=1;j6=k αk (λk − λj ) vk = 0 αk (λk − λj ) vk ⇐⇒ ∀ k = 1, . . . m αk = 0 (da die λj paarweise verschieden sind) −→ die vl sind alle linear unabhängig 4. Eigenwerte von symmetrischen reellen sowie von hermitischen Matrizen sind reell Zum Beweis: betrachte komplex konjugierte Eigenwertgleichung ∗ Avk = λk vk A† = AT =⇒ vk† A† = λ∗k vk† −→ ist unmittelbar klar in Komponenten: vjk = j-te Komponente des k-ten Eigenvektors n X aij vjk = λk vik n X =⇒ j=1 a∗ij ∗ vjk j=1 = n X a† j=1 ji ∗ ∗ vjk = λ∗k vik bilde nun Skalarprodukte mit den beiden Eigenwertgleichungen =⇒ λk = λ∗k = =⇒ vk† Avk vk† vk vk† A† vk vk† vk λk = λ∗k (für reelle Matrizen: A† = AT ) 199 falls A = A† (8.4.8) 5. Falls die n × n-Matrix A n linear unabhängige Eigenvektoren besitzt, wird A durch die aus den Eigenvektoren gebildete Matrix diagonalisiert. Beweis: schreibe Eigenwertgleichung in Komponenten auf A vk = λk vk ⇐⇒ n X aij vjk = λk vik = j=1 n X λk δjk vij (8.4.9) j=1 vjk = j-te Komponente des k-ten Eigenvektors −→ kann als Matrixmultiplikation ausgedrückt werden −→ definiere dazu Matrix, deren Spaltenvektoren die vk v · · · v1n 11 .. .. S := (vjk ) = . . vn1 · · · vnn sind sowie Diagonalmatrix aus Eigenwerten λ 0 ··· 0 1 0 λ2 · · · 0 Λ := (λj δjk ) = .. .. . . 0 0 · · · λn −→ Gl.(8.4.9) in Matrixform (8.4.10) AS = S Λ (8.4.11) (8.4.12) −→ da die Matrix (8.4.10) aus n linear unabhängigen Spaltenvektoren besteht, existiert ihre Inverse S −1 A S = Λ (8.4.13) man sagt: die Ähnlichkeitstransformation mit S diagonalisiert A 6. Ähnliche Matrizen besitzen dasselbe charakteristische Polynom A≈B =⇒ det(B − λ 1) = det(S A S −1 − λ S S −1 ) = det(A − λ 1) (8.4.14) 200 7. Reelle symmetrische und hermitische n × n Matrizen besitzen n linear unabhängige Eigenvektoren. Dabei sind Eigenvektoren, die zu verschiedenen Eigenwerten gehören, paarweise orthogonal, solche, die zu gleichen Eigenwerten gehören, können paarweise orthogonal gewählt werden. Beweis: in mehreren Schritten (i) Eigenvektoren, die zu verschiedenen Eigenwerten gehören, sind orthogonal: † † λl vk† vl = vk† Avl = A† vk vl = Avk vl = λ∗k vk† vl = λk vk† vl (8.4.15) −→ entweder gilt λl = λk oder vk† vl = 0 (ii) falls v1 , . . . vm Eigenvektoren von A sind, gilt für jeden Vektor r, der senkrecht auf allen vk steht vk† r = 0 =⇒ † † vk† Ar = A† vk r = Avk r = λk vk† r = 0 (8.4.16) −→ auch Ar ist orthogonal zu allen vk −→ A bildet also den von den vk aufgespannten Unterraum auf sich selbst ab und ebenso den von den linear unabhängigen rl aufgespannten Unterraum auf sich selbst: alle Vektoren des einen Unterraums sind orthogonal zu allen Vektoren des anderen (iii) führe auf dieser Basis einen Induktionsbeweis: (a) Aussage (Existenz von n linear unabhängigen Eigenvektoren) ist offensichtlich richtig für n = 1, d.h. 1 × 1-Matrizen (Induktionsbasis) (auch für reelle symmetrische 2 × 2-Matrizen wurde ihre Richtigkeit für die Matrix (8.1.38) explizit nachgewiesen) (b) nehme daher im weiteren an, dass Aussage für (n − 1) × (n − 1)-Matrizen bewiesen ist (Induktionsannahme) (c) für jede beliebige n × n-Matrix A lässt sich charakteristisches Polynom aber in die Form (8.4.6) bringen m Y (λ − λi )mi p(λ) = (−1) n i=1 201 λi 6= λj ∀ i 6= j −→ es gibt mindestens einen reellen Eigenwert und daher mindestens einen Eigenvektor v1 , für den (8.4.16) gilt −→ es gibt n − 1 linear unabhängige rl , die orthogonal zu v1 sind −→ A wirkt auf den von den n − 1 Vektoren rl aufgespannten Raum wie eine (n − 1) × (n − 1)-Matrix auf Vektoren mit n − 1 Komponenten −→ A kann durch die Rotation der Basisvektoren, die v1 in den Vektor (1, 0, . . . 0) überführt, auf die Form a′ 0 ··· 0 11 0 a′22 · · · a′2n A = .. .. .. . . . 0 a′n2 · · · a′nn gebracht werden −→ für die (n − 1) × (n − 1)-Matrix a′ · · · a′2n 22 .. . A′ = .. . a′n2 · · · a′nn ist die Existenz von n − 1 linear unabhängigen Eigenvektoren aber bereits bewiesen (wegen Induktionsannahme) −→ daher besitzt A n linear unabhängige Eigenvektoren, weil zu den n − 1 Eigenvektoren von A′ (nach Rückrotation) noch v1 kommt (Induktionsschluss) 202 Beispiel: 3 × 3-Matrix: Bestimme zunächst Eigenwerte 3 0 2 A = 0 2 0 2 0 6 3−λ 0 2 2 =⇒ p(λ) = det 0 2−λ 0 = −(λ − 2) (λ − 7) 2 0 6−λ =⇒ λ1 = 2 λ2 = 7 Bestimme jetzt Eigenvektoren: beginne mit λ2 −→ setze wieder willkürlich erste Komponente auf 1 A − λ2 1 v2 = 0 −4 + 2v32 1 −4 0 2 0 −5 0 v22 = −5v22 2 − v32 v32 2 0 −1 =⇒ v22 = 0 v2 v32 = 2 1 = 0 2 0 ! = 0 0 Analysiere nun λ1 : setze erneut willkürlich erste Komponente auf 1 A − λ1 1 v1 = 0 1 + 2v31 1 1 0 2 0 0 0 v21 = 0 2 + 4v31 v31 2 0 4 =⇒ v31 = − 1 2 0 ! = 0 0 v21 = nicht bestimmt: kann jeden Wert annehmen −→ man findet also eine ganze Schar von Eigenvektoren zu λ1 −→ wähle davon zwei orthogonale aus 1 1 v1,2 = − 45 v1,1 = 1 1 1 −2 −2 203 =⇒ v1,1 · v1,2 = 0 −→ Wahl so getroffen, dass v1,1 und v1,2 orthogonal −→ v1,1 und v1,2 aber auch orthogonal zu v2 , wie zuvor behauptet: v1,i · v2 = 0 Betrachte schließlich Ähnlichkeitstransformation von A mit der aus den Spaltenvektoren vk gebildeten Matrix S: −→ bestimme dazu Inverse zu S über (8.3.3) S = 1 1 1 1 − 54 − 21 − 12 0 2 =⇒ S −1 20 20 −10 1 = 16 −20 −8 45 9 0 18 −→ werte jetzt Ähnlichkeitstransformation aus 2 2 7 3 0 2 1 1 1 5 5 A S = 0 2 0 1 −4 0 = 2 −2 0 1 1 −2 −2 2 −1 −1 14 2 0 6 2 2 7 20 20 −10 90 0 0 1 1 S −1 A S = 16 −20 −8 2 − 52 0 = 0 90 0 45 45 9 0 18 0 0 315 −1 −1 14 −→ ergibt gerade Diagonalmatrix Matrix mit Eigenwerten auf der Diagonalen 204