Vorlesung Numerische Methoden der Chemie Sommersemester 2017 Eckhard Spohr Lehrstuhl für Theoretische Chemie Universität Duisburg-Essen D-45141 Essen, Germany [email protected] 24. Mai 2017 Inhaltsverzeichnis I Einleitung 1 1 Übersicht 2 II 3 Komplexe Zahlen 2 Komplexe Zahlen 2.1 Definitionen & Rechenregeln . . . . . . . . . . . 2.2 Polarkoordinatendarstellung . . . . . . . . . . . 2.3 Multiplikation und Division in Polarkoordinaten 2.4 Moivresche Formel . . . . . . . . . . . . . . . . 2.5 Wurzeln aus komplexen Zahlen . . . . . . . . . 2.6 Fundamentalsatz der Algebra . . . . . . . . . . 2.7 Eulersche Formel . . . . . . . . . . . . . . . . . III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Algebra 3 Lineare Algebra 3.1 Einführung . . . . . . . . . . . . . . . 3.2 Matrizen und Vektoren . . . . . . . . . 3.3 Spezielle Matrizen . . . . . . . . . . . . 3.4 Die Spur einer Matrix . . . . . . . . . 3.5 Matrixdeterminanten . . . . . . . . . . 3.6 Lineare Gleichungssysteme . . . . . . . 3.7 Lineare Unabhängigkeit . . . . . . . . 3.8 Rang einer Matrix . . . . . . . . . . . 3.9 Lösbarkeit linearer Gleichungssysteme . 3.10 Inverse Matrizen . . . . . . . . . . . . 3.11 Eigenwerte und Eigenvektoren . . . . . 4 4 12 13 15 17 18 19 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 23 24 27 27 30 34 35 36 37 41 3.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.12.1 Inverse einer Rechtecksmatrix . . . . . . . . . . . . . . 43 3.12.2 Eigenwerte einer 3 ⇥ 3-Matrix . . . . . . . . . . . . . . 45 IV Funktionen Mehrer Veränderlicher 48 4 Funktionen mehrerer Veränderlicher 4.1 Partielle Ableitungen . . . . . . . . . . . . . . . . . 4.2 Höhere Partielle Ableitungen . . . . . . . . . . . . . 4.3 Tangentialebenen . . . . . . . . . . . . . . . . . . . 4.4 Totales Di↵erential . . . . . . . . . . . . . . . . . . 4.5 Kettenregel . . . . . . . . . . . . . . . . . . . . . . 4.6 Partielle Ableitungen in der Thermodynamik . . . . 4.7 Implizite Funktionen . . . . . . . . . . . . . . . . . 4.8 Taylorentwicklung . . . . . . . . . . . . . . . . . . . 4.9 Extremwerte . . . . . . . . . . . . . . . . . . . . . . 4.10 Multilineare Regression . . . . . . . . . . . . . . . . 4.11 Integration von Funktionen mehrerer Veränderlicher 4.12 Kurven- oder Pfadintegrale . . . . . . . . . . . . . . 49 49 52 55 55 58 63 65 68 75 79 83 98 5 Gewöhnliche Di↵erentialgleichungen 5.1 Einleitung & Begri↵sbildung . . . . . . . . . . . 5.2 Di↵erentialgleichungen mit getrennten Variablen 5.3 Lineare Di↵erentialgleichungen 1. Ordnung . . . 5.4 Lineare DGLen 2. Ordnung . . . . . . . . . . . 5.5 Systeme von linearen DGLen . . . . . . . . . . V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 . 104 . 109 . 110 . 114 . 119 Wahrscheinlichkeitsrechnung 6 Einführung in die Wahrscheinlichkeitsrechnung 6.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . 6.2 Grundbegri↵e . . . . . . . . . . . . . . . . . . . . 6.3 Wahrscheinlichkeiten . . . . . . . . . . . . . . . . 6.4 Rechnen mit Wahrscheinlichkeiten . . . . . . . . . 6.5 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . 6.6 Ereignisbäume . . . . . . . . . . . . . . . . . . . . iii 124 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 . 125 . 129 . 132 . 134 . 136 . 139 Teil I Einleitung Inhaltsangabe 1 Übersicht 2 1 1 Slide 2 Übersicht Übersicht • Komplexe Zahlen • Lineare Algebra: Matrizen und Vektoren • Funktionen mehrerer Veränderlicher: Di↵erentiation • Funktionen mehrerer Veränderlicher: Anwendungen und Integration • Di↵erentialgleichungen 2 Teil II Komplexe Zahlen Inhaltsangabe 2 Komplexe Zahlen 4 2.1 Definitionen & Rechenregeln . . . . . . . . . . . . . . . . . 4 2.2 Polarkoordinatendarstellung . . . . . . . . . . . . . . . . . 12 2.3 Multiplikation und Division in Polarkoordinaten . . . . . 13 2.4 Moivresche Formel . . . . . . . . . . . . . . . . . . . . . . 15 2.5 Wurzeln aus komplexen Zahlen . . . . . . . . . . . . . . . 17 2.6 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . 18 2.7 Eulersche Formel . . . . . . . . . . . . . . . . . . . . . . . 19 3 2 Komplexe Zahlen 2.1 Slide 3 Definitionen & Rechenregeln Imaginäre Einheit Es gibt einfache Gleichungen, die keine reellen Lösungen haben, z.B. x2 + 4 = 0 Formal kann man diese Gleichung so lösen: x2 = 4 p x = ± 4 p x = ±2 1 p Jedoch ist 1 für die reelle Zahl 1 nicht definiert. =) Einführung eines neuen Symbols i ( imaginäre Einheit): p i2 = 1 oder i := 1 Slide 4 Zahlengerade Aber: die reellen Zahlen liegen dicht auf der Zahlengerade: • natürliche Zahlen 1 2 3 4 -4 -3 -2 -1 5 3 1 2 3 4 • 0 1 2 3 p 2 e⇡ 4 -0.5 -4 -3 -2 -1 • 0 1 4 ganze Zahlen 5 2 -0.5 -4 -3 -2 -1 5 3 • 0 2 3 =) Übergang zur Gaußschen Zahlenebene Slide 5 4 rationale Zahlen reelle Zahlen Gaußsche Zahlenebene Im z=a+ib b z = (a,b) a Slide 6 Re Definition komplexer Zahlen Eine komplexe Zahl z ist ein geordnetes Zahlenpaar z := (x, y) mit x, y 2 R, für das (definitionsgemäß) gilt: 1. Gleichheit: Zwei komplexe Zahlen z1 = (x1 , y1 ) und z2 = (x2 , y2 ) heißen gleich z1 = z2 wenn gilt: x1 = x2 und y1 = y2 . 2. Summe bzw. Di↵erenz: Summe oder Di↵erenz von z1 und z2 ist: z1 ± z2 = (x1 , y1 ) ± (x2 , y2 ) := (x1 ± x2 , y1 ± y2 ) 3. Multiplikation: Multiplikation von z1 mit z2 : Das Produkt von z1 und z2 ist: z1 · z2 = (x1 , y1 ) · (x2 , y2 ) := (x1 x2 y1 y2 , x1 y2 + x2 y1 ) 5 4. Real- und Imaginärteil: z = (x, y) hat den Realteil Re(z) = x und den Imaginärteil Im(z) = y. 5. Komplex Konjugierte: Für z = (x, y) nennt nennt man z̄ oder z ⇤ das Komplex Konjugierte zu z z ⇤ = z̄ = (x, y). Slide 7 Bemerkung Wenn y1 = 0 und y2 = 0, dann folgen aus 2. und 3. wieder die Rechenregeln für reelle Zahlen: (x1 , 0) ± (x2 , 0) = (x1 ± x2 , 0) (x1 , 0) · (x2 , 0) = (x1 · x2 , 0) Wir können also reelle Zahlen als die Spezialfälle komplexer Zahlen mit verschwindenden Imaginärteil betrachten: (x, 0) =: x Slide 8 Definition Definition: reelle und imaginäre Zahlen Eine komplexe Zahl ist (rein) reell, wenn Im(z) = 0. Sie ist imaginär, wenn Re(z) = 0 ^ Im(z) 6= 0. Slide 9 Imaginäre Einheit Die Zahl i := (0, 1) erfüllt die Bedingung i2 = (0, 1) · (0, 1) = (0 1, 0 + 0) = ( 1, 0) 1, denn i2 = i · i = Definition: Imaginäre Einheit i := (0, 1) heißt imaginäre Einheit. Bemerkung: mit y 2 R gilt: iy = (0, 1) · (y, 0) = (0 · y 1 · 0, 0 · 0 + 1 · y) = (0, y) Für eine beliebige komplexe Zahl z = (x, y) = (x, 0) + (0, y) gilt also Definition: Übliche Schreibweise: Die übliche Schreibweise einer komplexen Zahl ist damit z = x + iy Slide 10 mit x, y 2 R, und i imaginäre Einheit 6 Bemerkung Addition (Subtraktion) kann in der Form (z1 ± z2 ) = (x1 + iy1 ) ± (y1 + iy2 ) = (x1 ± x2 ) + i(y1 ± y2 ) geschrieben werden. Real- und Imaginärteile werden also jeweils einzeln addiert bzw. subtrahiert. Slide 11 Beispiel für Subtraktion z1 = 3 z1 i z2 = z2 = [3 2 3i ( 2)] + i[ 1 ( 3)] = 5 + 2i Slide 12 Bemerkung zur Multiplikation Definitionsgemäß gilt: (x1 , y1 ) · (x2 , y2 ) = (x1 x2 = x1 x2 y 1 y 2 , x1 y 2 + x 2 y 1 ) y1 y2 + i(x1 y2 + x2 y1 ) Direktes Ausmultiplizieren von (x1 + iy1 ) mit (x2 + iy2 ) ergibt: (x1 + iy1 ) · (x2 + iy2 ) = x1 x2 + iy1 x2 + x1 · (iy2 ) + (iy1 ) · (iy2 ) = x1 x2 + i(y1 x2 + x1 y2 ) + i2 y1 y2 = x1 x2 y1 y2 + i(y1 x2 + x1 y2 ) Man kann also mit i rechnen ’wie mit einer (reellen) Zahl’. Slide 13 7 Beispiel für Multiplikation z1 = 3 i z2 = z1 · z2 = (3 2 3i i) · ( 2 3i) = 6 9i + 2i + 3i2 = 9 7i = ( 9, 7) Slide 14 Absolutbetrag Definition: Absolutbetrag Der Absolutbetrag |z| einer komplexen Zahl z := x + iy ist definiert als p |z| = |x + iy| = x2 + y 2 0 Bemerkung über konjugiert komplexe Zahlen (oder “komplex konjugierte Zahlen”): • z⇤ = x iy wenn z = x + iy • Es gilt: Re(z) = Re(z ⇤ ) und Im(z) = • |z| = |z ⇤ | • z · z ⇤ ist immer reell. Slide 15 8 Im(z ⇤ ) Beispiel z=3 i =) z ⇤ = 3 z · z ⇤ = (3 ( i) = 3 + i i2 = 10 ist reell p allgemein: |z| = |x + iy| = x2 + y 2 p |z ⇤ | = |x iy| = x2 + ( y)2 =) |z| = |z ⇤ | p p |z · z ⇤ | = x2 + y 2 · x2 + y 2 = x2 + y 2 ist immer reell und positiv. Slide 16 i)(3 + i) = 32 Rechenregeln Addition und Multiplikation sind • kommutativ z1 + z2 = z2 + z1 z1 · z2 = z2 · z1 • assoziativ z1 + (z2 + z3 ) = (z1 + z2 ) + z3 z1 · (z2 · z3 ) = (z1 · z2 ) · z3 • Es gilt ein Distributivgesetz: z1 · (z2 + z3 ) = z1 · z2 + z1 · z3 Slide 17 Division zweier komplexer Zahlen Gegeben: z1 = x1 + iy1 , z2 = x2 + iy2 .[0.5cm] Gesucht: z mit z1 · z = z2 .[0.5cm] Man schreibt z2 x2 + iy2 z := = z1 x1 + iy1 Frage: Ist z wieder eine komplexe Zahl?[0.2cm] maW: kann ich also schreiben z = x + iy mit x, y 2 R? Slide 18 9 Division zweier komplexer Zahlen z ist in der Tat komplex. Durch Erweitern des Bruchs mit dem Konjugiert Komplexen des Nenners erhält man das gewünschte Ergebnis. z= Slide 19 z2 (x2 + iy2 )(x1 iy1 ) = z1 (x1 + iy1 )(x1 iy1 ) (x2 x1 + iy2 x1 ix2 y1 i2 y2 y1 = x21 i2 y12 (x2 x1 + y1 y2 ) + i(y2 x1 x2 y1 ) = x21 + y12 x2 x1 + y1 y2 y2 x1 x2 y1 = +i· 2 2 x1 + y1 x21 + y12 = x + iy Beispiel für Division z1 = 1 z= also Slide 20 i z2 = 1 + i 1+i (1 + i)(1 + i) = 1 i (1 i)(1 + i) = 1 + i + i + i2 1 i2 = 1 + 2i 1 2i = 1+1 2 1+i = i 1 i Rechenregeln für konjugiert Komplexe Zahlen 10 Slide 21 (z1 ± z2 )⇤ = z1⇤ ± z2⇤ 2. (z1 · z2 )⇤ 3. ⇣ z ⌘⇤ 1 z2 = z1⇤ · z2⇤ = z1⇤ z2⇤ Rechenregeln für Beträge 1. |z ⇤ | 2. |z1 + z2 | 3. Slide 22 1. ||z1 | = |z| |z1 | + |z2 | (Dreiecksungleichung) |z2 || |z1 + z2 | |z1 | + |z2 | 4. |z1 · z2 | 5. z1 z2 = |z1 | · |z2 | = |z1 | |z2 | Dreiecksungleichung 11 Imz |z1 | • z1 + z2 1 • |z2 | • z2 |z1 + z2 | Re komplexe Zahlen verhalten sich bzgl. Addition und Subtraktion wie Vektoren in der Ebene. 2.2 Slide 23 Polarkoordinatendarstellung Polarkoordinaten Eine komplexe Zahl kann statt durch die zwei Zahlen x, y 2 R auch durch durch Polarkoordinaten, also einen Betrag r = |z| und einem Winkel , 0 2 [0; 2⇡[ dargestellt werden. y Im z=x+iy r x Slide 24 Re Polarkoordinaten: Gaußsche Zahlenebene 12 o↵enbar gilt dann: x = r cos y = r sin z = r(cos + i sin ) |z| = |r| r, Slide 25 q cos2 + sin2 = |r| = r kann aus x, y wieder berechnet werden durch p y y r = x2 + y 2 tan = ) = arctan x x Beispiel Polarkoordinaten Im z r p p z = q1 + i 3 () x = 1, y = 3 p 2 p r = ( 1)2 + 3 = 4 = 2 [0.3cm] = 180 p [0.3cm] p 3 tan = 1 = 3 = tan(180 ) = tan( ) = p ) tan = 3 =) = 60 =) = 120 2.3 Slide 26 Re tan [0.4cm] [0.3cm] Multiplikation und Division in Polarkoordinaten Multiplikation in Polarkoordinaten z1 · z2 = r1 (cos 1 + i sin = r1 · r2 ([cos 1 cos i[sin 1 cos 13 1) · r2 (cos sin 2 + cos 2 2 + i sin sin 2 ] + 1 sin 2 ]) 1 2) Nach den Additionstheoremen gilt: [cos [sin 1 1 cos cos sin 1 sin = cos( 1 + 2) + cos 1 sin 2 ] = sin( 1 + 2) 2 2 2] Andererseits gilt natürlich: z1 · z2 = z = r · (cos + i sin ) Slide 27 Multiplikation =) 2 Komplexe Zahlen werden in Polarkoordinaten multipliziert, indem[0.2cm] die Beträge multipliziert werden: r = r1 · r2 [0.2cm] und die Winkel addiert werden: = 1 + 2 Slide 28 Division in Polarkoordinaten z1 z1 · z2⇤ = z2 |z2 |2 = = = r1 (cos 1 + i sin 1) r1 (cos 1 + i sin 1) cos( 2) r1 ([cos r2 1 i[sin = r1 [cos( r2 1 1 · r2 (cos r22 cos( 2) · r2 (cos( r22 sin 2) Slide 29 14 1 1 + i sin( i sin 2 + cos + i sin( 2) sin( 1 sin( 2 )] 2 )] 2) + 2 )]) 2 )) Division =) 2 Komplexe Zahlen werden in Polarkoordinaten dividiert, indem die Beträge dividiert werden: r = rr12 und die Winkel subtrahiert werden: = 1 2 Multiplikation und Division ist in Polarkoordinaten ’einfacher’. Slide 30 Beispiel z1 = 1 + i Im z2 = 1 1+i i r1 = r 2 = p 2 45 45 Re 1 i p 2 z = p · (cos( 2 2) 1 + i sin( 1 2 )) = 1 · (cos(90 ) + i sin(90 )) = +i 2.4 Slide 31 (r = 1, = 90 ) Moivresche Formel Sei z1 = z2 = z. Dann ist 2 z = (r(cos + i sin ))2 = r2 (cos(2 ) + i sin(2 )) Dies ist ein Spezialfall der Moivreschen Formel[0.2cm] Moivresche Formel [cos + i sin ]n = cos(n ) + i sin(n ) n 2 Z =) Die Moivresche Formel erleichtert die Berechnung von Potenzen komplexer Zahlen. Slide 32 15 Beispiel z= p 1+i 3 z 5 =? Lösung mit dem Binomialsatz: ⇣ p ⌘5 z5 = 1+i 3 ✓ ◆ p 5 5 = ( 1) + ( 1)4 (i 3) + 1 ✓ ◆ ✓ ◆ p 2 p 5 5 3 ( 1) (i 3) + ( 1)2 (i 3)3 + 2 3 ✓ ◆ p p 5 ( 1)(i 3)4 + (i 3)5 4 p p = 1 + 5i 3 10 · 3 · ( 1) + 10 · ( i) · 3 3 p = 16 16 3 Slide 33 Beispiel Lösung mit der Moivreschen Formel: p p r = x2 + y 2 = 1 + 3 = 2 p x 1 y 3 cos = = sin = = =) r 2 r 2 also p 5 · 9 + 9 3i = 120 z 5 = r5 [cos(5 · 120 ) + i sin(5 · 120 )] = 32 · [cos(600 ) + i sin(600 )] = 32 · [cos(240 ) + i sin(240 )] " p # 1 3 = 32 · i 2 2 p = 16 16 3i 16 2.5 Slide 34 Wurzeln aus komplexen Zahlen n-te Wurzeln n-te Wurzeln beliebiger komplexer Zahlen lassen sich mit dem Moivreschen Satz bestimmen. Sei n 2 N: n-te Wurzel Wenn die n-te Wurzel aus z = x + iy gezogen werden soll p n z = z 1/n =: ⇣ = ⇠ + i⌘ so ist das gleichbedeutend mit ⇣n = z Slide 35 n-te Wurzel In Polarkoordinaten gilt ⇣ = ⇢ [cos + i sin ] ⇢ = |⇣| z = r [cos + i sin ] Aus der Moivreschen Formel folgt ⇢n [cos + i sin ]n = ⇢n [cos(n ) + i sin(n )] = r [cos + i sin ] Vergleich der Beträge links/rechts: Vergleich der Winkel links/rechts: n = () Slide 36 17 ⇢n = r () ⇢ = r1/n = n n-te Wurzel Es gibt aber noch weitere Lösungen. Es gilt nämlich n = + k · 360 , k2Z denn cos(n ) = cos( + 360 · k) = cos . Es gilt also allgemeiner: n-te Wurzeln aus komplexen Zahlen k = + 360 · k n = + 2⇡k n k = 0, 1, 2, . . . , n k = n nicht möglich, denn für ( + 2⇡n)/n ist wieder Slide 37 1 n = 0. Beispiel p 5 1 + i =? also p p z = 1 + i r = 1 + 1 = 2, n = 5, p p p 5 ⇢= 2 = 10 2 = 21/10 [0.2cm] 0 = 5 = 9 [0.2cm] 360 1 = 5 + 5 · 1 = 9 + 72 = 81 [0.2cm] 360 2 = 5 + 5 · 2 = . . . = 153 [0.2cm] 3 = . . . = 225 [0.2cm] 4 = 297 2.6 Slide 38 Fundamentalsatz der Algebra Fundamentalsatz der Algebra 18 = 45 Fundamentalsatz der Algebra Jedes Polynom n-ten Grades f (z) = a0 + a1 z + a2 z 2 + . . . + an z n , an 6= 0, n 1 mit komplexen ak und z lässt sich in der Form fn = an · (z z1 ) · (z z2 ) . . . (z zn ) schreiben. Die zn sind die n Nullstellen des Polynoms. (Zerlegung in Faktoren / “Faktorisierung”) f hat mindestens eine, höchstens n verschiedene komplexe Nullstellen. Ist z.B. z1 = z2 so spricht man auch von “mehrfachen Nullstellen” (zweifache im Beispiel). 2.7 Slide 39 Eulersche Formel Eulersche Formel Statt mit cos und sin kann man wesentlich eleganter mit der komplexen Exponentialfunktion (Exponentialfunktion mit imaginärem Argument) rechnen. Eulersche Formel ei := cos + i sin Aufgrund der Additionstheoreme gilt dann e i · ei ei = ei( n + ) = ein Der Ausdruck ei “verhält sich wie die Exponentialfunktion”. Slide 40 Taylorentwicklung 19 Man kann durch Taylorentwicklung zeigen, dass ei = 1+ (i ) (i )2 (i )3 + + ... 1! 2! 3! = cos + i sin 2 cos = 1 sin = 2! 4 + 3 Slide 41 3! denn 4! ... 5 + 5! ... Cosinus und Sinus ei = cos + i sin e i =) e + e i = 2 cos ei i = 2i sin i e cos sin = cos( ) + i sin( = cos i sin ei + e 2 ei e = 2i i = i Die rechten Seiten sind nur scheinbar komplex. 20 ) Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2 Matrizen und Vektoren . . . . . . . . . . . . . . . . . . . . 23 3.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . 24 3.4 Die Spur einer Matrix . . . . . . . . . . . . . . . . . . . . 27 3.5 Matrixdeterminanten . . . . . . . . . . . . . . . . . . . . . 27 3.6 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . 30 3.7 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . 34 3.8 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . 35 3.9 Lösbarkeit linearer Gleichungssysteme . . . . . . . . . . . 36 3.10 Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . 37 3.11 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . 41 3.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.12.1 Inverse einer Rechtecksmatrix . . . . . . . . . . . . 43 3.12.2 Eigenwerte einer 3 ⇥ 3-Matrix . . . . . . . . . . . . 45 21 3 Lineare Algebra 3.1 Slide 42 Einführung Chemische Reaktionsgleichung Kaliumdichromat (K2 Cr2 O7 ) zerfällt bei 500 C in Kaliumchromat (K2 CrO4 ), Chromoxid (Cr2 O3 ) und Sauersto↵ O2 . x1 K2 Cr2 O7 ! x2 K2 CrO4 + x3 Cr2 O3 + x4 O2 • wie findet man die Unbekannnten xi , außer durch Raten? • Woran sieht man, dass die Lösung nicht eindeutig ist? (wie immer bei chemischen Reaktionsgleichungen) Slide 43 Bilanzierung x1 K2 Cr2 O7 ! x2 K2 CrO4 + x3 Cr2 O3 + x4 O2 K : 2x1 = 2x2 Cr : 2x1 = x2 + 2x3 O : 7x1 = 4x2 + 3x3 + 2x4 (Ladung : 0 = 0) Normalform: 2x1 2x1 7x1 2x2 x2 4x2 2x3 3x3 2x4 Slide 44 22 = 0 = 0 = 0 (1) (2) (3) Matrizen und Vektoren 2x1 2x1 7x1 2x2 x2 4x2 2x3 3x3 2x4 = 0 = 0 = 0 die Gleichung durch drei Objekte A,0~a und1~x.[0.4cm] 1 0 1 x1 0 0 0 B x2 C C 2 0 A ~a = @ 0 A ~x = B @ x3 A 3 2 0 x4 Diese Objekte nennt man Matrizen ~a und ~x sind Spezialfälle und heißen auch noch Vektoren Man kann dann schreiben: A~x = ~a Was bedeuten die Symbole und welche Rechenregeln gibt es? =) Man ersetzt 0 2 2 @ 2 1 A= 7 4 3.2 Slide 45 Matrizen und Vektoren Matrizen • Eine Matrix ist ein rechteckiges Zahlenschema • eine n ⇥ m-Matrix A besteht aus n Zeilen Matrixelementen aij , i=1...n und j=1...m 0 a11 a12 . . . B a21 a22 . . . B A = A = B .. .. .. @ . . . an1 an2 . . . und m Spalten mit den a1m a2m .. . anm 1 C C C A • die aij sind reelle oder komplexe Zahlen • eine n ⇥ 1-Matrix (Spaltenmatrix) heißt (Spalten)Vektor 0 1 0 1 v11 v1 B v21 C B v2 C C B C ~v = v = B @ ... A = @ ... A vn1 vn 23 • Zwei Matrizen A und B sind gleich, wenn die Zahl der Zeilen in A und B gleich sind, die Zahl der Spalten in A und B gleich sind, und wenn gilt aij = bij 8i, j. Slide 46 Matrixoperationen • Wenn A und B beides n ⇥ m-Matrizen sind, dann ist die Summe der Matrizen C = A + B definiert als cij = aij + bij mit 1in und 1jm • Wenn A eine m ⇥ l-Matrix und B eine l ⇥ n-Matrix ist, dann ist das Matrixprodukt C = A · B definiert als cij = l X k=1 aik · bkj mit 1im und 1jn Die Zahl der Spalten von A muss gleich der Zahl der Zeilen von B sein!! • skalare Multiplikation: B = kA bedeutet bij = k · aij 8i, j k2C • Die Multiplikation von Matrizen ist assoziativ aber ia. nicht kommutativ. Für Addition und Multiplikation gilt das Distributivgesetz. A · B 6= B · A (i.A.) A · (B · C) = (A · B) · C A · (B + C) = (A · B) + (A · C) 3.3 Spezielle Matrizen Slide 47 24 Spezielle Matrizen • Eine quadratische Matrix hat genauso viele Zeilen wie Spalten (n ⇥ nMatrix). n heißt die Ordnung der Matrix. • Eine diagonale Matrix D besitzt lediglich auf der Hauptdiagonalen (i = j) von Null verschiedene Elemente. 0 1 d11 0 0 ... 0 B 0 d22 0 ... 0 C B C B 0 d33 . . . 0 C dij = dij ij = B 0 C B .. C .. .. .. . . A @ . . . . . 0 0 0 . . . dnn mit dem Kronecker- -Symbol i 6= j. ij = 1, wenn i = j und • Die spezielle diagonale Matrix E mit eij = • Eine Obere Dreiecksmatrix hat 0 u11 B 0 B B uij = B 0 B .. @ . 0 ij ij = 0 wenn heißt Einheitsmatrix. die Form u12 u22 0 .. . u13 u23 u33 .. . ... ... ... .. . u1n u2n u3n .. . 0 0 . . . unn also uij = 0 wenn i > j. 1 C C C C C A • Analog heißt L eine Untere Dreiecksmatrix, wenn Sie die folgende Form (lij = 0 wenn i < j) besitzt: 0 1 l11 0 0 . . . 0 B l21 l22 0 . . . 0 C B C B C lij = B l31 l32 l33 . . . 0 C B .. .. .. . . .. C @ . . . A . . ln1 ln2 ln3 . . . lnn • Die Matrix N mit nij = 0 8i, j heißt Nullmatrix. 25 • Die Matrix T = S T heißt die Transponierte von S, wenn gilt tij = sji 8i, j • Eine 1 ⇥ n-Matrix S heißt Zeilenvektor. S ist die Transponierte eines Spaltenvektors A, also s1n = an1 oder S = AT . • Das Produkt eines Zeilenvektors mit einem Spaltenvektor S ·V = n X si v i i=1 heißt Skalarprodukt • Das Produkt eines Spaltenvektors mit einem Zeilenvektor V · S = A mit aij = vi sj heißt äußeres Produkt oder Tensorprodukt und ist eine quadratische Matrix. • Die Matrix S heißt symmetrisch, wenn gilt sij = sji 8i, j • Die Matrix A heißt antisymmetrisch, wenn gilt aij = aji 8i, j . Insbesondere gilt hier aii = 0 • Die Matrix B = A† ist die Adjungierte von A, wenn gilt bij = (aji )⇤ (an der Diagonalen gespiegelt und komplex konjugiert) 26 • Die Matrix H heißt hermitesch, wenn sie gleich Ihrer Adjungierten ist (wenn sie also selbstadjungiert ist). Dann gilt hij = (hji )⇤ 8i, j Insbesondere gilt, dass die Diagonalelemente reell sind, also hii = (hii )⇤ . Wenn alle Matrixelemente reell sind, ist die Matrix sowohl hermitesch als auch symmetrisch. 3.4 Slide 48 Die Spur einer Matrix Die Spur einer Matrix • Die Summe der Diagonalelemente aii einer Matrix A T r(A) = N X aii i=1 heißt die Spur der Matrix A. • die Spur der n-dimensionalen Einheitsmatrix ist gleich n: T r(En ) = n 3.5 Slide 49 Matrixdeterminanten Determinanten I • Es gibt N ! verschiedene Permutationen der Zahlen 1, 2, . . . N • Die Determinante einer N ⇥ N -Matrix A ist eine Zahl, berechnet nach a11 .. . det(A) = |A| = = . . . a1N .. . aN 1 . . . aN N N! X i=1 27 ( 1)pi Pi a11 a22 . . . aN N • Pi ist ein Permutationsoperator, der die Spaltenindizes vertauscht. Die Summe läuft über alle N ! Permutationen. Slide 50 Determinanten II detA = N! X i=1 ( 1)pi Pi a11 a22 . . . aN N • pi ist die Zahl der Transpositionen (Vertauschungen), die zur Wiederherstellung der Diagonalform notwendig sind. • Für das Vorzeichen ist nur wichtig, ob die Zahl der Transpositionen gerade oder ungerade ist. Slide 51 Determinanten von 1 ⇥ 1 und 2 ⇥ 2-Matrizen ✓ ◆ a11 a12 • Sei A = a21 a22 • Es gibt 2 Permutationen der Zeilenindizes 1 2 (p1 = 0) 2 1 (p1 = 1) • Nach der Definition ist also a11 a12 a21 a22 = ( 1)0 a11 a22 + ( 1)1 a12 a21 = a11 a22 a12 a21 • Die Determinante einer 1 ⇥ 1-Matrix ist das Matrixelement a11 det(a11 ) = a11 Slide 52 28 3 ⇥ 3-Determinanten • Entwicklungssatz a11 a12 a13 a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a21 a23 a a + a13 21 22 a31 a33 a31 a32 = a11 a22 a33 a11 a23 a32 a12 a21 a33 +a12 a31 a23 + a13 a21 a32 a13 a31 a22 a12 • Die 2 ⇥ 2-Determinante, die sich durch Streichen der i. Reihe und j. Spalte einer Determinante ergibt, heißt Minore oder Unterdeterminante Mij • Der Cofaktor Cij (oft auch ãij ) ist definiert als Cij = ( 1)i+j Mij Slide 53 Determinanten gößerer Matrizen • Verallgemeinerung: (n 1)⇥(n 1)-Unterdeterminanten Mij entstehen durch Streichen der i. Reihe und j. Spalte einer n ⇥ n-Determinante • Verallgemeinerung des Entwicklungssatzes det(A) = a11 .. . . . . a1N .. . aN 1 . . . aN N = N X l=1 akl Ckl = N X alk Clk l=1 • Entwicklung nach beliebigen Zeilen oder Spalten möglich • jede der n verschiedenen (n 1) ⇥ (n 1)-Determinanten kann dann (rekursiv) wieder nach dem Entwicklungssatz berechnet werden, bis zur Ordnung 2 (oder 1). Slide 54 29 Sarrussche Regel a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 a32 a33 a31 a32 | . . . | = det(. . .) = +a11 a22 a33 +a12 a23 a31 +a13 a21 a32 a13 a22 a31 a11 a23 a32 a12 a21 a33 Die Sarrussche Regel gilt nur für 3⇥3-Determinanten. (denn, z.B N=4: 4 blaue + 4 rote Terme 6= 4! = 24 Terme) Slide 55 Eigenschaften von Determinanten • det(AT ) = det(A) ) det(A† ) = det(A)⇤ • det(A · B) = det(A) · det(B) • det A = 0, wenn alle Elemente einer Zeile (Spalte) gleich 0 sind • Vertauschen von zwei Reihen (Spalten) ändert das Vorzeichen der Determinante • det A = 0, wenn zwei Reihen (Spalten) identisch sind • Der Wert der Determinante bleibt unverändert, wenn man ein beliebiges Vielfaches einer Reihe (Spalte) zu einer anderen Reihe (Spalte) addiert. • die Determinanten einer Diagonalmatrix oder einer (oberen oder unteren) Dreiecksmatrix sind gleich dem Produkt der Diagonalelemente! 3.6 Slide 56 Lineare Gleichungssysteme 30 Lösungsweg aus (1) =) x1 = x2 x1 in (2) =) x1 = 2x3 =) x3 = 2 3 3 3 in (3) =) 3x1 x1 = x1 = 2x4 =) x4 = x1 2 2 4 x1 = 4(Wahl!) x2 = 4 x3 = 2 x4 = 3 4K2 Cr2 O7 ! 4K2 CrO4 + 2Cr2 O3 + 3O2 9 algorithmische Lösung? Slide 57 Gauß-Algorithmus allgemein sieht ein lineares Gleichungssystem (LGS) folgendermaßen aus: a11 x1 + a21 x1 + .. . am1 x1 a12 x2 + . . . + a1n xn = b1 a22 x2 + . . . + a2n xn = b2 .. .. .. . . . + am2 x2 + . . . + amn xn = bm in Matrixschreibweise: A · ~x = ~b Slide 58 Lösungsverfahren nach Gauß 1. Elimination ✓ von ◆ x1 aus den unteren (m 1) Gleichungen. Dazu zieht ai1 man das fache der ersten Glg. von der i.ten Glg. ab,z.B. in der a11 2. Glg. ✓ ◆ ✓ ◆ a21 a21 a21 a21 · a11 x1 + a22 · a12 x2 + . . . = b2 b1 a11 a11 a11 2. Dies führt für die unteren (m (n 1) Variablen (ohne x1 ). 1) Gleichungen auf ein System mit 3. Mit diesem neuen Gleichungssystemen aus (m 1) Gleichungen mit (n 1) Unbekannten führt man wieder Schritt 1 durch. 31 =) System aus m-2 Gleichungen mit n-2 Variablen . . . Gaußsches Eliminationsverfahren Slide 59 Beispiel Slide 60 Beispiel 32 Slide 61 Beispiel 33 3.7 Slide 62 Lineare Unabhängigkeit Definition der Linearen Unabhängigkeit 34 Definition: Lineare Unabhängigkeit Die Spalten einer Matrix A = (aij ) 2 Rm⇥n heißen linear abhängig, wenn es Zahlen 1 , 2 , . . . , n gibt, die nicht alle gleich Null sind und die Gleichungen 1 ai1 + 2 ai2 + ... + m aim = 0 i = 1, . . . , n erfüllen. Dies kann man auch schreiben als A~ = ~0 mit ~ = ( 1 , . . . , n )T 2 Rn und ~0 = Nullvektor in Rm . Wenn die n Spalten nicht linear abhängig sind, heißen sie linear unabhängig. Slide 63 Lineare Abhängigkeit/Unabhängigkeit Lineare Abhängigkeit: ein ~ 6= ~0 existiert. [1cm] Lineare Unabhängigkeit: es existiert nur ~ = ~0 als Lösung des LGS. Slide 64 Quadratische Matrizen Satz über LU von Matrizen Die Elemente einer quadratischen Matrix A sind genau dann linear unabhängig, wenn detA = |A| = 6 0. 3.8 Slide 65 Rang einer Matrix Rang 35 Definition: Rang einer Matrix Der Rang rg(A) einer Matrix A ist die maximale Zahl linear unabhängiger Spalten. Diese Zahl ist gleich der maximalen Anzahl unabhängiger Zeilen der Matrix. Es gilt also: Zeilenrang = Spaltenrang Slide 66 Beispiel 0 1 1 1 A=@ 2 1 A 0 2 O↵enbar kann der Rang höchstens 2 sein, da Zeilen- und Spaltenrang gleich sein müssen und nur 2 Spalten existieren.[0.3cm] rg(A) = 2, weil sich Spalte 1 nicht durch Spalte 2 oder ein Vielfaches davon ausdrücken lässt. [0.3cm] Andererseits gilt: (Zeile 3) = 4 · (Zeile 1) =) Slide 67 Zeilenrang = 2 Rang einer quadratischen Matrix O↵enbar gilt dann: Der Rang einer quadratischen Matrix A 2 Rn⇥n ist genau dann gleich n, wenn det(A) 6= 0. 3.9 Slide 68 2 · (Zeile 2). Lösbarkeit linearer Gleichungssysteme Gegeben sei ein System aus n Unbekannten und m Gleichungen. A~x = ~b 36 A heißt Koeffizientenmatrix mit Matrixelementen (a)ij 2 C. ~x ist der Vektor der n Unbekannten xi und ~b ist ein Vector, der die ’rechten Seiten’ des LGS (die ’Inhomogenitäten’) bi , i = 1, . . . , m beschreibt. Die Matrix 0 1 a11 a12 . . . a1n b1 B a21 a22 . . . a2n b2 C B C ~ (A|b) = B .. .. .. .. .. C @ . . . . . A am1 am2 . . . amn bm heißt erweiterte Koeffizientenmatrix. Sie entsteht, wenn man zur Matrix A den Spaltenvektor ~b hinzufügt. Slide 69 Lösbarkeit von LGSen Sei A 2 Rm⇥n , ~b 2 Rm . Dann gilt: 1. Wenn rg(A) 6= rg((A|~b)) : Das Gleichungssystem besitzt keine Lösung. 2. Wenn rg(A) = rg((A|~b)) = n : Das Gleichungssystem besitzt genau eine Lösung. 3. Wenn rg(A) = rg((A|~b)) < n : Das Gleichungssystem besitzt unendlich viele Lösungen und zwar n rg(A) linear unabhängige Lösungen. 3.10 Inverse Matrizen Slide 70 37 Inverse Matrix I • Die Matrix B = A 1 heißt die Linksinverse von A, wenn gilt A 1 • Analog heißt die Matrix C = A 1 ·A=E . die Rechtsinverse von A, wenn gilt A·A 1 =E . • Für quadratische Matrizen sind die Rechts- und die Linksinverse gleich und heißt die Inverse Matrix von A A·A 1 =A 1 ·A=E • Hermitesche Matrizen haben (i.d.R.) eine Inverse. Slide 71 Inverse Matrix II • Für nichtquadratische Matrizen sind Rechtsinverse AR 1 und Linksinverse AL 1 nicht gleich. Wenn A eine n ⇥ m-Matrix ist, dann ist AL 1 · A = E m A · A R 1 = En Einheitsmatrix der Ordnung m Einheitsmatrix der Ordnung n Beispiel Slide 72 38 Inverse einer 2 ⇥ 2-Matrix • Gegeben sei eine 2 ⇥ 2-Matrix A mit A = • Dann ist die Inverse A A 1 ✓ a11 a12 a21 a22 ◆ 1 gegeben durch ✓ 1 = a11 a22 a12 a21 a22 a21 a12 a11 ◆ • Die Inverse existiert also genau dann, wenn det(A) 6= 0 ist. • (Cramersche Regel) • Dies kann auf beliebig große quadratische Matrizen verallgemeinert werden. Slide 73 Orthogonale und Unitäre Matrizen • Eine Matrix O heißt orthogonal, wenn ihre Transponierte gleich ihrer Inversen OT = O 1 ist, also O · OT = E • Eine Matrix U heißt unitär, wenn ihre Adjungierte gleich ihrer Inversen U † = U 1 ist, also U · U† = E • Beachte: Aufgrund der Definition sind symmetrische, antisymmetrische, hermitesche, orthogonale und unitäre Matrizen notwendigerweise quadratisch!. Slide 74 Verfahren zur Inversion von Matrizen Allgemeine Verfahren zur Berechnung der Inversen für größere Matrizen basieren auf einer Kombination der Erweiterung der Matrix mit der Einheitsmatrix E und dem Gaußschen Eliminationsverfahren. Konkret: Wende das Gaußsche Eliminationsverfahren auf die erweiterte Matrix (A|E) an, bis alle Nebendiagonalelemente verschwinden und die Diagonalelemente = 1 sind, also (E|A 1 ) erreicht ist. Slide 75 39 Beispiel Slide 76 Beispiel Slide 77 Beispiel 40 Slide 78 Beispiel 3.11 Slide 79 Eigenwerte und Eigenvektoren Matrixeigenwertgleichungen I • Multipliziert man einen Spaltenvektor von links mit einer quadratischen Matrix, so erhält man wieder einen Spaltenvektor. • Multipliziert man einen Zeilenvektor von rechts mit einer quadratischen Matrix, so erhält man wieder einen Zeilenvektor. 41 0 1 0 1 a12 . . . a1n c1 B B c2 C a22 . . . a2n C B C B C • A=B C und ~c = B .. C seien eine quadra.. . . . .. @ A @ . . . A an1 an2 . . . ann cn tische n ⇥ n-Matrix bzw. ein n-dimensionaler Spaltenvektor. sei ein Skalar (=Zahl). Slide 80 a11 a21 .. . Matrixeigenwertgleichungen II • Wenn ~c die Gleichung A~c = ~c oder (A E)~c = 0 erfüllt, dann heißt ~c Eigenvektor von A, und Eigenwert von A. heißt der dazugehörige • Eine solche Matrixeigenwertgleichung ist äquivalent zu einem gekoppelten homogenen linearen Gleichungssystem aus n Gleichungen (a11 Slide 81 )c1 +a12 c2 + . . . +a1n cn a21 c1 +(a22 )c2 + . . . +a2n cn ... ... ... ... an1 c1 +an2 c2 + . . . +(ann )cn =0 =0 =0 =0 Matrixeigenwertgleichungen III • nichttriviale Lösungen der Matrixeigenwertgleichung existieren nur, wenn A~c = ~c = E~c E) = 0 det(A (⇤) • (⇤) heißt die charakteristische Gleichung (oder das charakteristische Polynom) der Matrix A. • Das charakteristische Polynom hat n Wurzeln für i. • Einige der Wurzeln können gleich sein. Die Eigenwerte heißen dann entartet. Slide 82 42 Eigenwerte und Eigenvektoren • Ist A diagonal, so sind die Wurzeln det(A E) = (a11 i = aii , da ) · (a22 ) . . . (ann ) • Eigenvektoren können durch Multiplikation mit einer Konstante normiert werden. • Die Eigenwerte einer hermiteschen Matrix sind reell. • Eigenvektoren zu zwei verschiedenen Eigenwerten thogonal, d.h. c~1 † · c~2 = 0 1 und 2 sind or- • Für Eigenvektoren, die zu zwei entarteten Eigenwerten (also 1 = 2 ) gehören, lassen sich immer 2 zueinander orthogonale Linearkombinationen der Eigenvektoren konstruieren! Slide 83 Der n-dimensionale Vektorrraum • eine hermitische n ⇥ n-Matrix hat also n Eigenvektoren, die alle zueinander orthogonal sind. • Man sagt, dass die n Eigenvektoren einen n-dimensionalen (Vektor)Raum aufspannen. • Jeder Vektor in diesem Raum kann durch eine Linearkombination der Eigenvektoren ausgedrückt werden. • Die Eigenvektoren sind ein vollständiger Satz von Basisvektoren Beispiel 3.12 Beispiele 3.12.1 Inverse einer Rechtecksmatrix Slide 84 43 Inverse einer Rechtecksmatrix I • Betrachte die 1 ⇥ 2 Matrix A= 1 2 • Eine Rechtsinverse ist o↵ensichtlich AR denn A · AR 1 1 = ✓ 1 0 ◆ = 1 · 1 + 2 · 0 = 1 = E1 . • Eine andere Rechtsinverse ist o↵ensichtlich ✓ ◆ 0 1 0 AR = 0.5 denn A · AR Slide 85 1 = 1 · 0 + 2 · 0.5 = 1 = E1 Inverse einer Rechtecksmatrix II • die Matrix A hat o↵ensichtlich keine Linksinverse, denn es müsste gelten: ! (aL 1 )11 · a11 = (aL 1 )11 · 1 = 1 = e11 ! (aL 1 )21 · a11 = (aL 1 )21 · 1 = 0 = e21 ! (aL 1 )11 · a12 = (aL 1 )11 · 2 = 0 = e12 ! (aL 1 )21 · a12 = (aL 1 )21 · 2 = 1 = e22 Zurück 44 3.12.2 Slide 86 Eigenwerte einer 3 ⇥ 3-Matrix Eigenwerte einer 3 ⇥ 3-Matrix 0 1 1 0 0 • Beispielmatrix: A = @ 0 2 0 A 0 0 3 • Die Matrix ist diagonal. • Die Eigenwertgleichung lautet: A~c(i) = c(i) i~ für i = 1, 2, 3 • Es gibt also 3 verschiedene Eigenwerte und Eigenvektoren. 1 0 0 • Die charakteristische Gleichung lautet • Die Wurzeln lauten: 1 = 1, 2 = 2 und 0 2 0 3 0 0 3 =0 = 3. • Wie erhält man nun aus den Eigenwerten die Eigenvektoren? Slide 87 Eigenvektoren einer 3 ⇥ 3-Matrix • Man setzt für jeden Eigenvektor separat den entsprechenden Eigenwert in die Eigenwertgleichung ein. • also, für i = 1 0 (1) 1 0 1 0 1 0 (1) 1 c1 c1 1 0 0 1 0 0 B (1) C (1) C @ 0 2 0 A ~c (1) = @ 0 2 0 A B @ c2 A = 1 · @ c2 A (1) (1) 0 0 3 0 0 3 c3 c3 • Das dazugehörige Gleichungssystem lautet: (1) (1) (1) (1) 1c1 +0c2 +0c3 = 1c1 (1) (1) (1) (1) 0c1 +2c2 +0c3 = 1c2 (1) (1) (1) (1) 0c1 +0c2 +3c3 = 1c3 (1) (1) (1) • Die o↵ensichtliche Lösung lautet: c1 ist beliebig, c2 = c3 = 0. Slide 88 45 Eigenvektoren (1) • Wählen 0 1 wir c1 1 @ 0 A 0 = 1, erhält man den normierten Eigenvektor ~c (1) = • Analog erhält man für • und für 3 2 = 2 den Eigenvektor ~c (2) = 3 erhält man ~c (3) 0 1 0 =@ 0 A 1 0 1 0 =@ 1 A 0 • Die drei Vektoren sind orthogonal und spannen den gesamten dreidimensionalen Raum auf! Zurück Slide 89 Beispiel ✓ ◆ 1 1 Gegeben sei 1 1 Charakteristisches Polynom = 0 ? 1 1 1 1 =0 ) (1 )2 + 1 = 0 ) 2 2 +2=0 p Eigenwerte: ) 1/2 = 1 ± 1 2 = 1 ± i Die Matrix war nicht hermitesch ) Die Eigenwerte müssen nicht reell sein. Slide 90 46 1. Eigenvektor Setzen wir nun = 1 + i in die Eigenwertgleichung ein: ✓ ◆✓ ◆ ✓ ◆ 1 1 x x = (1 + i) 1 1 y y 1 ) Gleichungssystem x + y = (1 + i)x x + y = (1 + i)y 1. Gleichung ) y = (1 + i)x x = ix in 2. Gleichung: ) y =✓(1+i)y (1+i)ix+x = ix+i2 x+x = ix ◆ +x ✓ =◆ x x =) Wahlfreiheit für x: = y ix Slide 91 1. Eigenvektor =) Wahlfreiheit für x: ✓ x y ◆ = ✓ x ix ◆ Normierung: x2 + |ix|2 = 1 =) 2|x|2 = 1 =) x = Also: 1. Eigenvektor: ✓ ◆ ✓ ◆ 1 x 1 ~e1 = =p y 2 i 1 ei p oder sogar p mit be2 2 wählen können! ) selbst nach Normierung besteht noch Bemerkung: Man hätte als Vorfaktor auch liebigem reellen Wahlfreiheit! p1 2 47 Teil IV Funktionen Mehrer Veränderlicher Inhaltsangabe 4 Funktionen mehrerer Veränderlicher 49 4.1 Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . 49 4.2 Höhere Partielle Ableitungen . . . . . . . . . . . . . . . . 52 4.3 Tangentialebenen . . . . . . . . . . . . . . . . . . . . . . . 55 4.4 Totales Di↵erential . . . . . . . . . . . . . . . . . . . . . . 55 4.5 Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.6 Partielle Ableitungen in der Thermodynamik . . . . . . . 63 4.7 Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . 65 4.8 Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . 68 4.9 Extremwerte . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.10 Multilineare Regression . . . . . . . . . . . . . . . . . . . 79 4.11 Integration von Funktionen mehrerer Veränderlicher . . . 83 4.12 Kurven- oder Pfadintegrale . . . . . . . . . . . . . . . . . 98 5 Gewöhnliche Di↵erentialgleichungen 104 5.1 Einleitung & Begri↵sbildung 5.2 Di↵erentialgleichungen mit getrennten Variablen . . . . . 109 5.3 Lineare Di↵erentialgleichungen 1. Ordnung . . . . . . . . 110 5.4 Lineare DGLen 2. Ordnung . . . . . . . . . . . . . . . . . 114 5.5 Systeme von linearen DGLen . . . . . . . . . . . . . . . . 119 48 . . . . . . . . . . . . . . . . 104 4 Funktionen mehrerer Veränderlicher 4.1 Slide 92 Partielle Ableitungen Beispiel van der Waals-Zustandsgleichung eines realen Gases für den Druck als abhängige Größe p = p(V, T, n) = RT V bn an2 V2 R, a, b sind Konstanten (R ist eine universelle Konstante, a und b sind Materialkonstanten) (in der Mathematik heißen Konstanten auch Parameter) T, V, n sind Variable (also durch den experimentellen Aufbau bestimmte, manipulierbare Größen) Slide 93 O↵ene Menge Definition: O↵ene Menge eine Menge A 2 Rn heißt o↵en, wenn es zu jedem Punkt (x1 , x2 , . . . , xn ) 2 A eine Kugel um diesen Punkt mit Radius ✏ > 0 gibt, die ganz in A liegt. Slide 94 Abbildung Definition: Abbildung Eine Abbildung f : A ⇢ Rn 7 ! R heißt (reellwertige) Funktion von n Veränderlichen. Man schreibt auch f (x1 , x2 , . . . , xn ) Oft verwendet man statt x1 , x2 , . . . die Variablen x, y, z. Ist f komplex, so heisst f eine komplexwertige Funktion von n (reellen) Variablen. 49 Slide 95 Partielle Ableitung Definition: Partielle Ableitung f : A ⇢ Rn 7! R heißt im Punkt (x01 , x02 , . . . , x0n ) 2 A partiell nach x1 di↵erenzierbar, wenn der Limes @f 0 0 (x , x , . . . , x0n ) = @x1 1 2 f (x01 + t, x02 , . . . , x0n ) f (x01 , x02 , . . . , x0n ) lim t!0 t @f heißt dann @x1 partielle Ableitung von f nach x1 im Punkt (x01 , x02 , . . . , x0n ). existiert. Slide 96 Bemerkungen • man schreibt auch statt tion von x1 , x2 , . . . , xn . @f einfach fx1 . fx1 ist i.A. wieder eine Funk@x1 • will man andeuten, dass es sich um den Funktionswert fx1 an der Stelle (x01 , x02 , . . . , x0n ) handelt, schreibt man auch fx1 (x01 , x02 , . . . , x0n ) • Ist aus dem Zusammenhang nicht erkennbar, welche Variablen konstant gehalten werden, so schreibt man explizit ✓ ◆ @f @x1 x2 ,x3 ,...,xn Slide 97 Partielle Di↵erenzierbarkeit Definition: Partielle Di↵erenzierbarkeit Wenn an der Stelle (x01 , x02 , . . . , x0n )alle partiellen Ableitungen nach den xi existieren, heißt die Funktion f partiell di↵erenzierbar in (x01 , x02 , . . . , x0n ) Sind die partiellen Ableitungen fxi darüber hinaus auch noch stetig, so heißt f stetig partiell di↵ferenzierbar. Slide 98 50 Gradient Bemerkung: Die n partiellen Ableitungen von f nach den xi kann man zu einem Spaltenvektor zusammenfassen. Definition: Gradient / Nablaoperator Der Vektor 0 1 f x1 B fx C 2 C ~ = rf = B rf B .. C @ . A f xn ~ oder r heißt heißt Gradientenvektor. Der Operator r Nablaoperator. Slide 99 Bemerkungen ~ definiert i.a. eine vektorwertige Funktion von n Veränder• Der Vector rf lichen x1 , x2 , . . . , xn . • Operatoren werden in der Quantenmechanik häufig vorkommen. Be~ einfach(?) als eine Abbildungsvortrachten Sie den Nablaoperator r schrift, um aus einer Funktion (in diesem Fall f ) eine andere Funktion (in diesem Fall die vektorwertige Funktion der partiellen Ableitungen von f) zu erzeugen. Slide 100 Beispiel n=3 f (x, y, z) = p 1 x2 y2 z2 D = A = {(x, y, z)|x2 + y 2 + z 2 1} Einheitskugel 1 x fx = p · ( 2x) = p 2 1 x2 y 2 z 2 1 x2 y 2 z 2 y z Analog fy = p und fz = p ~ = ) rf p 1 1 x2 y2 0 1 x @ y A= z2 z 51 1 T p (x, y, z) ~ zeigt stets in Richtung auf den Ursprung. Dort ist f maximal. f fällt rf zur Oberfläche der Kugel monoton ab. 4.2 Slide 101 Höhere Partielle Ableitungen Bemerkungen • die 2. Ableitung einer Funktion f (x) ist die 1. Ableitung der 1. Ableitung d2 f df 0 f 00 (x) = 2 = dx dx • Die Ableitung einer vektorwertigen Funktion f = (f1 , f2 , . . . , fm )T , wobei jedes fi eine Funktion fi (x1 , x2 , . . . , xn ) ist, wird gebildet, indem für jede Komponente fi die n partiellen Abbildungen nach den xj gebildet werden. Slide 102 Jacobi-Matrix 0 B B B B 0 f =B B B B @ @f1 @x1 @f1 @x2 ... @f1 @xn @f2 @x1 @f2 @x2 ... @f2 @xn .. . .. . .. .. . @fm @x1 @fm @x2 ... . @fm @xn 1 C C C C C C C C A Man nennt diese Matrix auch die Jacobi-Matrix oder Jacobische Matrix oder Jacobian. Slide 103 Partielle Ableitungen 2. Ordnung 52 Definition: Die partiellen Ableitungen einer f (x1 , x2 , . . . , xn ) bezeichnet mant mit fxi xj f xi xj = Funktion @ 2f . @xj @xi für xi 6= xj spricht man von einer gemischten Ableitung, andernfalls von einer reinen Ableitung. Slide 104 Bemerkung @ 2f bedeutet, dass f zuerst nach xi abgeleitet und dann @xj @xi nach xj abgeleitet wird. • f xi xj = Operatorschreibweise: fxi xj = • • Slide 105 @ @ f @xj @xi Operator Operator Funktion @ ist ein Di↵erentialoperator, der aus einer Funktion ihre Ableitung @xi bildet. Hesse-Matrix Definition: Hesse-Matrix f 00 Die Matrix der n ⇥ n = n2 zweiten partiellen Ableitungen einer Funktion f heißt Hesse-Matrix f 00 1 0 fx1 x1 fx1 x2 . . . fx1 xn B fx x fx x . . . f x x C 2 2 2 n C B 2 1 f 00 = B .. .. .. C ... @ . . A . f xn x1 f xn x2 . . . f xn xn Slide 106 53 Beispiel f (x, y, z) = x · y · z 2 ~ T = f~ 0 T = (yz 2 , xz 2 , 2xyz) rf 0 1 0 z 2 2yz 0 2xz A f 00 = @ z 2 2yz 2xz 2xy Beobachtung: Die Hessesche Matrix ist symmetrisch f xi xj = f xj xi Slide 107 Der Satz von Schwarz Satz von Schwarz Sind in einem Bereich G die Ableitungen fxi xj und fxj xi stetige Funktion von xi und xj , so gilt: fxi xj = fxj xi Slide 108 Bemerkungen • Wenn der Satz von Schwarz gilt, ist die Reihenfolge der Di↵erentiation unerheblich. Statt n2 verschiedener Ableitungen müssen nur n(n + 1)/2 Terme berechnet werden. • Der Satz gilt analog auch für die höheren Ableitungen, z.B. 3. Ableitungen von f (x1 , x2 , x3 , x4 , x5 ): f x1 x4 x5 = f x1 x5 x4 = f x5 x1 x4 = f x5 x4 x1 = f x4 x1 x5 = f x4 x5 x1 • Daraus ergibt sich auch eine Wahlfreiheit bzgl. der Reihenfolge (! Vereinfachungen) 54 4.3 Slide 109 Tangentialebenen Bemerkungen • Funktionen mehrerer Veränderlicher, die di↵erenzierbar sind, also partielle Ableitungen besitzen, sind stetig. • Die Umkehrung gilt nicht: Nicht jede stetige Funktion hat immer und überall partielle Ableitungen. (aber meistens!) Slide 110 Frage? Man kann sich jetzt die Frage stellen Liegen alle durch die partiellen Ableitungen definierten Tangenten in einer Ebene? Dies folgt nicht einfach aus der Tatsache, dass z.B. fx (x0 , y0 ) und fy (x0 , y0 ) existieren!! Slide 111 Di↵erenzierbarkeit Satz Hinreichende Bedingung für die Existenz der Tangentialebene im Punkt P = (x1 , x2 , . . . , xn ) ist, dass die partiellen Ableitungen in P existieren und stetig sind. Wenn in P eine Tangentialebene existiert, heißt die Funktion an der Stelle P di↵erenzierbar. 4.4 Totales Di↵erential Slide 112 This figure not shown due to copyright reasons! goto hyperlink Slide 113 55 This figure not shown due to copyright reasons! goto hyperlink Muhammet Cakir (GFDL: http://www.gnu.org/copyleft/fdl.html)1 Slide 114 This figure not shown due to copyright reasons! goto hyperlink Slide 115 Abschätzung der Funktionsänderung This figure not shown due to copyright reasons! goto hyperlink Um welchen Wert ändert sich z = f (x, y), zwischen den Raumpunkten (x, y, f ) und (x + dx, y + dy, f + df ) ? dz = df ⇡ fx dx + fy dy dz = df ⇡ fx dx + fy dy Slide 116 Abschätzung der Funktionsänderung This figure not shown due to copyright reasons! goto hyperlink Je kleiner dx und dy, desto genauer die Approximation. Die Gleichung ist natürlich nur sinnvoll, wenn die Tangentialebene existiert. Natürlich kann man diese Überlegungen auch auf n Dimensionen (n Variablen) verallgemeinern(aber nicht zeichnen). Slide 117 1 Muhammet Cakir (GFDL: http://www.gnu.org/copyleft/fdl.html) 56 Totales Di↵erential Definition: Totales Di↵erential Existiert im Punkt P = (x1 , . . . , xn ) eine Tangentialebene an die Funktion f (x1 , . . . , xn ), dann führt eine kleine Änderung dx1 von x1 , dx2 von x2 , . . ., dxn von xn zu einer Änderung der Funktion f um df df = fx1 dx1 + fx2 dx2 + . . . fxn dxn n X = fxi dxi i=1 df heißt totales Di↵erential. Slide 118 Bemerkung Wenn auch stetige Ableitungen höherer Ordnung existieren, kann man auch totale Di↵erentiale höherer Ordnung definieren. d2 f = d(df ) Slide 119 Beispiel z = z(x, y) 2 dz = = = = ✓ ◆ @z @z d(dz) = d dx + dy @x @y ✓ ◆ @ @z @z dx + dy dx @x @x @y ✓ ◆ @ @z @z + dx + dy dy @y @x @y zxx dxdx + zyx dydx + zxy dxdy + zyy dydy zxx (dx)2 + 2zxy dxdy + zyy (dy)2 Satz von Schwarz 57 Slide 120 Bemerkung im allgemeinen Fall gilt d2 f = 4.5 n X n X @ 2f dxi dxj @xi @xj i=0 j=0 Kettenregel Slide 121 • Sei z = f (u, v) und seien u, v selbst wieder Funktionen von, z.B. x und y mit u = '(x, y) und v = (x, y). • z = f (u, v) = f ('(x, y), (x, y)) = f˜(x, y) Es gilt o↵ensichtlich @z @z @u @z @v = · + · @x @u @x @v @x @z @z @u @z @v = · + · @y @u @y @v @y • allgemein: z hängt von m Variablen ui ab, die ihrerseits wiederum als Funktionen von m Variablen xk abhängen. Slide 122 Kettenregel verallgemeinerte Kettenregel m X @z = @xk i=0 Slide 123 ✓ @z @ui 58 ◆ ✓ ◆ @ui · @xk Matrixschreibweise • Schreibt man dz := du und ✓ 0 B du B := B dx @ @z @z @z , ,..., @u1 @u2 @um @u1 @x1 @u2 @x1 @u1 @x2 @u2 @x2 .. . ... ... .. . @u1 @xm @u2 @xm @um @x1 @um @x2 ... @um @xm .. . .. . so erhält man verallgemeinerte Kettenregel dz dx |{z} = Zeilenvektor analog zur Kettenregel in 1D Slide 124 ◆ dz du |{z} Zeilenvektor · 1 C C C A du dx |{z} Matrix Beispiel 1 f (u, v) = k u2 + v 2 2 1 u := p (x + y) 2 1 v := p (x 2 fu = ku y) fv = kv @u @v + fv @x @x 1 1 = k·u· p +k·v· p 2 2 1 1 = k · (x + y) + k (x y) 2 2 = k·x fx = fu Slide 125 59 Beispiel 1 f (u, v) = k u2 + v 2 2 1 u := p (x + y) 2 1 v := p (x 2 fu = ku y) fv = kv @u @v + fv @y @y 1 1 = k · u · p + k · v · p · ( 1) 2 2 1 1 = k · (x + y) k (x y) 2 2 = k·y fy = fu Slide 126 Beispiel 60 Probe (Ersetzen von u, v in f durch x, y) u 2 = = v2 = = ) u2 + v 2 = ) ) ) Slide 127 f = fx = fy = ✓ 1 p (x + y) 2 ◆2 1 2 (x + 2xy + y 2 ) 2 ✓ ◆2 1 p (x y) 2 1 2 (x 2xy + y 2 ) 2 x2 + y 2 1 k(x2 + y 2 ) 2 kx ky q.e.d Koordinatentransformation Dies ist ein Beispiel für den E↵ekt einer Koordinatentransformation (u, v) ! (x, y) 61 Slide 128 Koordinatentransformation 62 Wegen Ihrer Form als Rotationsellipsoid (um die z-Achse) sieht die Funktion f (u, v) genauso aus wie die Funktion f˜(x, y) f˜ = f (u(x, y), v(x, y)) Im allgemeinen sehen f und f˜ verschieden aus! 4.6 Slide 129 Partielle Ableitungen in der Thermodynamik Thermodynamische Energiefunktionen & Zustandsgleichung sei z = f (u, v, w) und sei w = w(u, v, x) dann ist o↵ensichtlich z = f (u, v, w) = f (u, v, w(u, v, x)) = '(u, v, x) f und ' sind 2 verschiedene Funktionen von drei Veränderlichen U = U (S, V, N ) innere Energie p = p(V, N, T ) Zustandsgleichung (oder V = V (p, N, T )) Slide 130 Beispiel U = E = TS pV + µN = U (T, V, N ) V = V (p, T, N ) = Ũ = Ẽ = T S N kT R (ideales Gas, k = Boltzmannkonstante) P NA N kT + µN = Ũ (T, p, N ) Ẽ hängt von T und N in komplexerer Weise ab als E allerdings hängt Ẽ jetzt aber in trivialer Weise von p ab (nämlich gar nicht), bzw. Ẽ ist konstant bzgl. einer Änderung von p. Slide 131 63 partielle Ableitungen in der Thermodynamik U = E = T S pV + µN = U (T, V, N ) Ũ = T S N kT + µN = Ũ (T, p, N ) @E =S @T @E =µ @N @ Ẽ =S @T @ Ẽ =µ @N Nk kT ) In der Thermodynamik legt man meistens fest, welche anderen Variablen beim partiellen Di↵erenzieren konstant gehalten werden, indem sie als Indices an den Di↵erentialquotienten angehängt wird. Man läßt aber in der Regel die Unterscheidung zwischen E und Ẽ weg (m.a.W: man läßt die Tilde weg). Slide 132 partielle Ableitungen in der Thermodynamik Man schreibt also ✓ ◆ ✓ ◆ @E @E =S =S @T V,N @T P,N ✓ @E @T ◆ V,N 6= ✓ @E @T ◆ Nk P,N Und? So what? Man kann durch Transformation der Variablen (von V, N, T ! p, N, T ) sofort ablesen, dass sich die innere Energie des idealen Gases nicht durch Druckänderung verändern lässt! (wenn man N und T konstant lässt, also isotherm arbeitet) Slide 133 Thermodynamisches Beispiel z = f (u, v, w) w = w(u, v, x) ' = '(u, v, x) E = E(N, T, V ) = T S pV + µN V = V (N, T, p) = N kT /p Ẽ = T S N kT + µN 64 Kettenregel: ✓ @' @u ◆ = v,x ✓ @f @u ◆ + v,w ✓ @f @w ◆ u,v · ✓ @w @u ◆ v,x mit f = E, ' = Ẽ, u = T, v = N, w = V, x = p und pV = N kT gilt @ Ẽ @T ! N,p ✓ ◆ ✓ ◆ ✓ ◆ @E @E @V = + · @T N,V @V T,N @T | {z } | {z } | {z N,p} p S Slide 134 Thermodynamisches Beispiel ✓ 4.7 Slide 135 Nk p @E @T ◆ = N,p @ Ẽ @T ! =S Nk N,p Implizite Funktionen häufig kann eine Gleichung F (x, y) = 0 nicht (oder nur schwer) nach y = f (x) aufgelöst werden. Beispiel: RT an2 p = p(V, T, n) = V bn V2 Auflösung nach V erfordert die Lösung einer kubischen Gleichung. Wie kann man trotzdem in einfacher Weise Slide 136 65 ✓ @V @p ◆ berechnen? T,n Definition impliziter Funktionen Definition: implizite Darstellung Die Funktion F (x, y) = F (x, y(x)) = 0 heißt implizite Darstellung der Funktion y = f (x). y = f (x) heißt die explizite Darstellung der Funktion. Setzt man y = f (x), so ergibt sich F (x, f (x)) = 0. Slide 137 Implizite Di↵erentiation Theorem: Man erhält die Ableitung einer nur in impliziter Darstellung gegebenen Funktion dy = f 0 (x) dx gemäß dy = dx . Fx (x, y) Fy (x, y) Fx und Fy sind die partiellen Ableitungen von F nach x bzw. y. Slide 138 Beweis F (x, y) = 0 überall =) totales Di↵erential dF = 0 =) 0 = dF = Fx dx + Fy dy =) Aussage q.e.d. Bemerkung: häufig ist diese Methode der einfachere Weg, um die Ableitung zu bestimmen. Slide 139 66 Verallgemeinerung auf Funktionen von n Variablen Sei F (x1 , x2 , . . . , xn ) = 0 ⇣ ⌘ @F ✓ ◆ @xj @xi x ,k6=j = ⇣ ⌘k @F @xj xk ,k6=i,k6=j @xi xk ,k6=i Dabei sind alle Variablen äquivalent, d.h. beliebige partielle Ableitungen können so gebildet werden. Slide 140 Beispiel van der Waals-Gleichung des realen Gases Vereinfachung: für das molare Volumen (also n = 1) ⇣ a ⌘ p + 2 (V b) RT = 0 = F (p, V, T ) V ✓ ◆ @V gesucht: @p T ✓ ◆ 1 @V = ist die isotherme Kompressibilität des Gases V @p T “traditionelle Lösung”: Auflösen einer kubischen Gleichung “smarte Lösung”: implizite Di↵erentiation Slide 141 Implizite Di↵erentiation ⇣ a ⌘ p + 2 (V V ✓ @V @p ◆ = T = = b) ⇣ RT = 0 = F (p, V, T ) @F @p @F @V p+ ⌘ T,V T,p a V2 V a V2 p 67 V b + (V b) · b + 2ab V3 2a V3 4.8 Slide 142 Taylorentwicklung Taylorsche Entwicklung in 1D f (x0 + h) = f (x0 ) + f 0 (x0 ) · h + = 1 X f (i) (x0 ) i=0 i! f 00 (x0 ) 2 · h + ... 2! · hi f (0) := f und f (i) , i > 1, sind die i. Ableitungen von f Am Entwicklungspunkt x0 ist die Funktion (beliebig oft) di↵erenzierbar. • Näherungsformeln kann man durch Abbruch der Reihe nach dem n. Ableitungsterm erhalten in Form eines Polynoms n. Grades • Wie groß dabei dann h maximal gewählt werden kann, hängt vom Einzelfall ab. Slide 143 Taylorentwicklung in 2 Dimensionen • für n = 2 soll f (x + h, y + k) f (x, y) berechnet werden, wobei h und k kleine feste Werte annehmen es soll also f (x + h, y + k) approximiert werden • Wir führen einen Parameter t ein und betrachten f (x + t · h, y + t · k) =: F (t) o↵ensichtlich ist F (0) = f (x, y) und F (1) = f (x + h, y + k) • Wir können nun die Taylorformel für F (t), einer Funktion von nur einer Veränderlichen verwenden: t t2 t3 F (t) = F (0) + F 0 (0) + F 00 (0) + F 000 (0) + . . . 1! 2! 3! Slide 144 68 Taylorentwicklung in 2 Dimensionen F (t) = F (0) + t 0 t2 t3 F (0) + F 00 (0) + F 000 (0) + . . . 1! 2! 3! • F 0 (0) (F 00 (0)) sind die 1.(2.) Ableitung von F nach t! F (0) = f (x, y) F 0 (0) = df dt @f d(x + th) @f d(y + tk) + @(x + th) dt @(y + tk) dt = fx · h + fy · k = Slide 145 Taylorentwicklung in 2 Dimensionen F 00 (0) = d(fx · h + fy · k) dt = (n.b.: h und k sind unabhängig von t n.V.) @fx d(x + th) @fx d(y + tk) +h @(x + th) dt @(y + tk) dt @fy d(x + th) @fy d(y + tk) + k +k @(x + th) dt @(y + tk) dt = h (weil fx und fy wieder von (x + th) und (y + tk) abhängen) = fxx · h2 + 2 · fxy · h · k + fyy · k 2 Slide 146 69 Taylorentwicklung in 2 Dimensionen Setzen wir in der Gleichung F (t) = F (0) + t 0 t2 t3 F (0) + F 00 (0) + F 000 (0) + . . . 1! 2! 3! t = 1, so erhalten wir F (1) = f (x + h, y + k) = f (x, y) + 1 (fx h + fy k) 1! 1 (fxx h2 + 2fxy hk + fyy k 2 ) 2! 1 + ... 3! + Slide 147 Taylorentwicklung in 2 Dimensionen in Vektorschreibweise: ✓ ◆ ✓ ◆ ✓ ◆ f h f f x xx xy ~h := f~0 := Hesse-Matrix H := fy k fxy fyy f (x + h, y + k) = f (x, y) T + f~0 · ~h + 1~ T h · H · ~h + . . . 2 Bricht man nach den Gliedern der n-ten Ableitungen ab, so spricht man vom Taylorpolynom n-ter Ordnung Slide 148 70 Satz von Taylor Satz von Taylor Theorem: Sei f (x, y) eine (n + 1)mal stetig di↵erenzierbare Funktion. Dann ist die Funktion die Summe aus dem Taylorpolynom n-ter Ordnung, Tn , n P und einem Restglied Rn+1 . Tn (h, k) = tj (h, k) mit j=0 j 1X tj (h, k) = j! i=0 ✓ ◆ j @j f hi k j i i j i . i @x @y Das Restglied ist (mit # 2 (0, 1)) definiert als n+1 X 1 Rn+1 (h, k) = (n + 1)! i=0 Slide 149 ✓ n+1 i ◆ hi k n+1 i@ i f (x + #h, y + #k) @xi @y n+1 i Satz von Taylor Analoge Formeln gelten für mehr als zwei Veränderliche. Für 3 Veränderliche enthalten die Formeln dann für tn Terme wie @ nf hi k j l m , i + j + m = n @xi @y j @z m ✓ ◆ j Statt Binomialkoeffizienten verwendet man dann Multinomialkoefi ✓ ◆ n fizienten ij k Die Formeln werden sehr komplex, jedoch ist die Berechnung eines Taylorpolynoms als lokale Approximation für eine Funktion in der Praxis sehr einfach, wie das nächste Beispiel zeigt. Slide 150 Beispiel 1 f (x, y, z) = sin(x) + cos(y + z) Entwicklungspunkt: x~0 T = (x0 , y0 , z0 ) = (0, 0, 0) f (x0 , y0 , z0 ) = 1 71 fx = cos(x) =) fx (0, 0, 0) = 1 fy = fz = sin(y + z) =) fy (0, 0, 0) = fz (0, 0, 0) = 0 fxx = sin(x) =) fxx (0, 0, 0) = 0 fyy = cos(y + z) =) fyy = fyz = fzz = 1 fxy = fxz = 0 T2 (x, y, z) = 1 + 1 x keine Terme / y, z 1! 1 2 (y + z 2 + 2 · y · z) 2! 1 2 1 2 = 1+x y z y·z 2 2 Slide 151 Beispiel 1 T2 (x, y, z) = 1 + x = 1+x 1 2 1 2 y z 2 2 1 (y + z)2 2 y·z Dies ist das gleiche Ergebnis, als hätte ich sin(x) und cos(v) mit v = y + z jeweils für sich in einer Dimension in eine Taylorreihe bis zur 2. Ordnung entwickelt. Slide 152 sin(x) ⇡ x x3 3! cos(v) ⇡ 1 1 2 v 2 + 4!1 v 4 =) f (x, y, z) ⇡ x + 1 1 2 v 2 =) f (x, y, z) ⇡ x + 1 1 2 y 2 1 2 z 2 72 y·z Beispiel 2 f (x, y) = ex·y bis zur 4. Ordnung Entwicklungspunkt: x~0 T = (x0 , y0 ) = (0, 0) f (x0 , y0 ) = 1 fx = y · exy =) fx (0, 0) = 0 fy = x · exy =) fy (0, 0) = 0 fxx = y 2 exy =) fxx (0, 0) = 0 fyy = x2 exy =) fyy (0, 0) = 0 fxy = (1 + xy)exy =) fxy (0, 0) = 1 1 T2 (x, y, z) = 1 + 2 · xy = 1 + xy 2 Slide 153 Beispiel 2 alle 3. Ableitungen verschwinden von den 4. Ableitungen bleiben nur die Terme fxxyy und Permutationen übrig. ✓ ◆ 4 Davon gibt es =6 22 1 T4 (x, y, z) = 1 + 2 · xy = 1 + xy 2 1 + · 6 · 2 · x2 y 2 4! 1 = 1 + xy + (xy)2 2 1 Vergleichen Sie damit die 1D-Entwicklung ev ⇡ 1 + v + v 2 mit v = xy 2 Slide 154 73 Fazit Taylorentwicklungen in mehreren Dimensionen kann man sehr erleichtern, indem man statt der exakten Formeln einfach die Entwicklungen (in einer Dimension) der speziellen Funktionen einsetzt. Dabei ist dann zu beachten, dass man immer soviele Terme berücksichtigt, dass am Ende kein Polynomterm mit einer Ordnung gleich oder kleiner der gewünschten Entwicklungsordnung n vergessen wird. Slide 155 Beispiel f (x, y, z) = exyz sin(x+y+z) Entwicklung um (0, 0, 0) bis zur 8. Ordnung! ev ⇡ 1 + v + 12 v 2 + 16 v 3 + sin(w) ⇡ w 1 3 w 6 + 1 4 v 24 1 w5 120 ⇥ Setze v = xyz · (x + y + z) 1 (x 6 + y + z)3 + 1 (x 120 + y + z)5 ⇤ v enthält Terme 4., 6. und 8. Ordnung (Gesamtpotenz in x, y, z) und solche mit höherer Potenz als 8 (die wir weglassen können). v enthält keine Terme 1. -3. Ordnung f (x, y, z) ⇡ 1 + v + 12 v 2 ⇥ f (x, y, z) ⇡ 1 + xyz (x + y + z) 1 (x 6 + 12 [xyz(x + y + z)]2 Slide 156 ⇤ + y + z)3 + 1 xyz(x 120 + y + z)5 Beispiel ⇥ f (x, y, z) ⇡ 1 + xyz (x + y + z) + 12 [xyz(x + y + z)]2 1 (x 6 + y + z)3 + 1 (x 120 + y + z)5 ⇤ aus dem linearen Term der Entwicklung der e-Funktion mussten wir die Terme 4., 6. und 8. Ordnung übernehmen. Die anderen Terme haben mindestens die Ordnung 10. 74 aus dem quadratischen Term mussten wir nur den Term 8. Ordnung übernehmen. Andere Terme haben mindestens die Ordnung 10 (4 + 6) f (x, y, z) ⇡ T8 (x, y, z) = 1 + x2 yz + xy 2 z + xyz 2 1 xyz(x3 6 + y3 + z3) 1 xyz(x2 y 2 1 xyz(x 120 + xy 2 + x2 z + xz 2 + y 2 z + yz 2 ) + y + z)5 + 1 2 2 2 2 x y z (x 2 4.9 Slide 157 x2 y 2 z 2 + + y 2 + x2 + 2xy + 2yz + 2xz) Extremwerte Lokale Minima und Maxima Definition: lokale Extrema Eine Funktion z = f (x1 , x2 , . . . , xn ) besitzt im Punkt (x01 , x02 , . . . , x0n ) ein lokales Minimum, wenn für ein beliebig kleines, aber festes " > 0 gilt f (x01 + x1 , x02 + x2 , . . . , x0n + xn ) f (x01 , x02 , . . . , x0n ) > 0 für alle | xi | < ". Analog liegt ein lokales Maximum vor, wenn gilt f (x01 + x1 , x02 + x2 , . . . , x0n + xn ) f (x01 , x02 , . . . , x0n ) < 0 für alle | xi | < ". Slide 158 Bemerkung • Die Beziehungen des Satzes lassen sich auch schreiben als df (x1 , x2 , . . . , xn ) 0 für lokale Minima df (x1 , x2 , . . . , xn ) 0 für lokale Maxima, mit xi ! dxi 75 • Minima und Maxima sind durch horizontale Tangentialebenen charakterisiert. • Daneben gibt es aber auch noch andere Stellen mit horizointalen Tangentialebenen wie z.B. Sattelpunkte (s.u.) • Eine notwendige Bedingung für die Existenz horizontaler Tangentialebenen ist z.B. (für 2 Variablen) fx (x, y) = 0 undfy (x, y) = 0 für n Variablen fxi (x1 , x2 , . . . , xn ) = 0 für i = 1, 2, . . . , n Papula, Bd. 2, Bild III-34 Slide 159 Slide 160 Kritischer Punkt Definition: Kritischer Punkt Ein Punkt (x01 , x02 , . . . , x0n ) heißt kritischer Punkt der Funktion f (x1 , x2 , . . . , xn ), wenn für alle xi , i = 1, . . . n gilt: fxi (x1 , x2 , . . . , xn ) = @f (x1 , x2 . . . , xn ) =0 @xi im Punkt (x01 , x02 , . . . , x0n ). An einem kritischen Punkt ist das totale Di↵erential df = 0. Slide 161 Kritischer Punkt 76 Satz An einem kritischen Punkt der Funktion f (x1 , x2 , . . . , xn ) liegt ein Maximum oder Minimum vor, wenn die Determinante der Hesse-Matrix |H| > 0 ist. Wenn die Determinante |H| < 0 ist, liegt ein Sattelpunkt vor. In 2 Dimensionen reicht es dann, das Vorzeichen von fxx (oder fyy ) zu betrachten, um zu entscheiden, ob ein lokales Minimum oder ein Maximum vorliegt: Ist fxx > 0, so liegt ein lokales Minimum vor. Ist fxx < 0, so liegt ein lokales Maximum vor. Ist die Determinante von H = 0, so lässt sich anhand dieses Satzes nicht entscheiden, ob ein lokales Minimum oder ein lokales Maximum vorliegt. In mehr als 2 Dimensionen muss man auf die Eigenwerte von H zurückgreifen. Slide 162 Kritischer Punkt ohne Beweis oder Beispiel Verallgemeinerung Ist f (x⇤ ) ein Minimum (Maximum) einer stetig di↵erenzierbaren skalaren Funktion f auf einer Umgebung von x⇤ , so gilt grad f (x⇤ ) = rf (x⇤ ) = 0 . Eine hinreichende Bedingung ist, dass zusätzlich alle Eigenwerte der Hesse-Matrix im kritischen Punkt x⇤ positiv (negativ) sind. Gibt es Eigenwerte mit verschiedenen Vorzeichen, so handelt es sich um einen Sattelpunkt, also kein lokales Extremum. Ist mindestens ein Eigenwert Null bei gleichen Vorzeichen der von Null verschiedenen Eigenwerte, so kann der Typ des kritischen Punktes x⇤ anhand der zweiten Ableitungen nicht klassifiziert werden. Slide 163 Beispiel f (x, y) = fx (x, y) = x2 a2 + y2 b2 2x a2 77 2y b2 fy (x, y) = =) (x0 , y0 ) = (0, 0) ist der einzige kritische Punkt fxx (x, y) = 2 a2 > 0 fxy = fyx = 0 fyy (x, y) = 2 fxy = |H| = fxx · fyy 4 a2 b 2 2 b2 >0 >0 =) Minimum Slide 164 Beispiel 2 f (x, y) = y2 b2 x2 a2 fx (x, y) = 2x a2 fy (x, y) = 2y b2 =) (x0 , y0 ) = (0, 0) ist der einzige kritische Punkt fxx (x, y) = 2 a2 > 0 fxy = fyx = 0 fyy (x, y) = |H| = fxx · fyy 2 fxy = 4 a2 b2 2 b2 <0 <0 =) Sattelpunkt Papula, Bd. 2, Bild III-36 Slide 165 Slide 166 Anwendungen • thermodynamisches Gleichgewicht =) Finden des Minimums der freien Energie (oder des Maximums der Entropie) • Quantenmechanik =) Bestimmung der minimalen Energie eines Moleküls als Funktion der Kernkoordinaten: Strukturbestimmung Bestimmung der minimalen Energie eines Moleküls als Funktion der Beiträge von Atomorbitalen in MOs: Quantenchemie • Fitten von Daten an Modelle =) lineare Regression Multilineare Regression 78 4.10 Slide 167 Multilineare Regression Ausgleichsgerade Aufgabe: Finden Sie die “beste” Ausgleichsgerade durch die Messpunkte! n Punkte (xi , yi ), z.B. Messwerte Eine Gerade ist gegeben durch die Gleichung y = a0 + a1 x Frage: Was ist die “beste” Gerade? Antwort: Diejenige, die die Abweichungen zwischen Experiment und Ausgleichsgerade Minimiert. Slide 168 Ausgleichsgerade y • • • • • • x Welche Funktion soll minimiert werden? Slide 169 Ausgleichsgerade Welche Funktion soll minimiert werden? in der Regel f (a0 , a1 ) = n X yi expt yi berechnet i=1 = n X i=1 79 (yi a0 a1 x i ) 2 2 a0 , a1 sind die Variablen in dieser Betrachtung, da sie berechnet werden müssen. Die (xi , yi ) sind nach der Messung Konstanten (Mess”werte”) Slide 170 Zielfunktion Man nennt f (a0 , a1 ) auch die (quadratische) Norm, den “Abstand”, die Zielfunktion, “the Objective”, etc. • Prinizipiell funktioniert jede Norm, also auch n X i=1 |yi a1 xi |m , m = 1, . . . , ]1 a0 mehr oder weniger gut. Slide 171 Die Bestimmung der Koeffizienten a0 und a1 n X @f =2 (yi @a0 i=1 a0 a1 xi ) · ( 1) a0 a1 x i ) · ( x i ) n X @f =2 (yi @a1 i=1 ! 0=2 n X (yi a0 a1 x i ) i=1 ! 0=2 n X (yi xi i=1 Slide 172 80 a0 x i a1 x2i ) Die Bestimmung der Koeffizienten a0 und a1 ! 0=2 n X (yi a0 a1 xi ) i=1 ! 0=2 n X (yi xi a0 x i a1 x2i ) i=1 s0 := sx2 := n X i=1 n X 1 = n sx := n X xi sy := i=1 n X yi sxy := i=1 x2i i=1 0 = 2 · ( sy + na0 + sx a1 ) 0 = 2 · ( sxy + sx a0 + sx2 a1 ) Slide 173 Die Bestimmung der Koeffizienten a0 und a1 2 · ( sy + na0 + sx a1 ) 2 · ( sxy + sx a0 + sx2 a1 ) 0= 0= • aus (1) a0 = sy a1 s x n • eingesetzt in (2): a1 s x + s x 2 a1 n✓ ◆ sx sy (sx )2 = sxy + + s x2 a1 n n ! ⇣ sx sy ⌘ 1 = sxy · 2 n sx2 (snx ) 0 = ) a1 Slide 174 sxy + sx 81 sy n X i=1 xi yi Die Bestimmung der Koeffizienten a0 und a1 a1 = = ⇣ sxy sxy n Slide 175 sx sy n sxy n s x2 n nsxy = nsx2 = sx sy ⌘ · n · 1 (sx )2 n s x2 1 ! sx2 n (sx )2 n sx sy (sx )2 sx sy = a1 (sx )2 Die Bestimmung der Koeffizienten a0 und a1 a1 s x n sy sx nsxy sx sy = · n n nsx2 (sx )2 sy (n · sx2 sx · sx ) sx · nsxy + sx · sx · sy = n(n · sx2 sx · sx ) sy sx2 sx sxy = = a0 nsx2 sx sx a0 = sy Koeffizienten lineare Regression a0 = s y s x2 nsx2 sx sxy sx sx Slide 176 82 a1 = nsxy nsx2 sx sy sx sx Multilineare Regression Der allgemeine Fall y= N X ak x k k=0 erfordert das Lösen eines Gleichungssystems mit (N + 1) Gleichungen und (N + 1) unbekannten Koeffizienten ak . Dabei werden Summen des Typs n P i=1 xki yi und n P i=1 xki benötigt. Das Gleichungssystem wird dann in der Regel durch Matrixinversion gelöst. Wenn die Koeffizienten ai nicht mehr linear im ’Fitausdruck’ vorkommen, funktioniert die Matrixinversion nicht mehr, man muss stattdessen ein nichtlineares Fitverfahren anwenden. 4.11 Slide 177 Integration von Funktionen mehrerer Veränderlicher Integration über eine Variable Sei f (x, y) = x2 + 2y eine Funktion der zwei Variablen x und y. Ein Intervall [a, b] = [2, 4] sei für die Variable y definiert. Man kann die Funktion f (x, y) im Intervall [a, b] nach y integrieren, wenn man x als einen Parameter betrachtet. • dann ist g= Zb f (y; x)dy = a 2 natürlich wieder eine Funktion g(x). Slide 178 Z4 83 f (y; x)dy Integration über eine Variable g(x) = Z4 f (y; x)dy 2 = ⇥ x2 y + y 2 2 = 4x + 16 = 2x2 + 12 Slide 179 ⇤y=4 y=2 (2x2 + 4) Integration Theorem: Wenn f (x, y) eine im abgeschlossenen Rechteck [c, d] ⇥ [a, b] stetige Funktion von x und y ist, so ist g(x) mit der Rb Definition der g(x) := g(x, y)dy eine stetige Funktion a von x. Frage: ist g(x) di↵erenzierbar? Slide 180 Integration Theorem: Wenn f (x, y) und fx (x, y) im abgeschlossenen Rechteck [c, d] ⇥ [a, b] existieren und stetig sind, so ist g(x) = Zb f (x, y)dy a im Intervall bzgl. x di↵erenzierbar und es gilt: d g (x) = dx 0 Zb f (x, y)dy = a Zb a Slide 181 84 @f (x, y)dy @x |{z} fx Beispiel g(x) = Z2 (x2 + 2y)dy = 2x2 + 4 0 0 g (x) = 4x Aufgrund des Satzes ist Z2 d g(x) = dx 2xdy = [2xy]y=2 y=0 = 4x 0 Slide 182 Nichtkonstante Integrationsgrenzen Interessant ist der Fall, wenn a und b ebenfalls Funktionen von x sind, also Z2 (x) g(x) = f (x, y)dy 1 (x) Slide 183 Nichtkonstante Theorem: Integrationsgrenzen Wenn f (x, y), 1 (x), 2 (x) stetige Ableitungen nach x besitzen, gilt 0 g (x) = Z2 (x) fx (x, y)dy 1 (x) + f (x, 2 (x)) Kettenregel: g(x) = '(x, · 0 2 (x) 1 (x), f (x, 1 (x)) · 0 1 (x) 2 (x)) Slide 184 g 0 (x) = + + Slide 185 @' @x @' d 1 @ 1 dx @' d 2 @ 2 dx Ableitung bei konstanten Grenzen Ableitung nach oberer Grenze Ableitung nach unterer Grenze 85 Beispiel sin x Z g(x) = xydy x2 sin x Z ) g (x) = ydy + x | sin {z x} · cos | {zx} 0 f (x, x2 x3 · |{z} 2x |{z} f (x, 1 (x)) 1 = y2 2 2 (x)) 0 2 (x) 0 1 (x) sin x + x sin x cos x 2x4 x2 1 2 1 4 sin x x 2x4 + x sin x cos x 2 2 ✓ ◆ 1 5 4 = sin x sin x + x cos x x 2 2 = Slide 186 g(x) ist (zumindest im aktuellen Beispiel) wieder eine stetige Funktion von x und kann wieder integriert werden. Zusammen mit der ersten Integration spricht man für die zweite Integration (nach x) von einem Doppelintegral für mehr als 2 Dimensionen von Dreifach- bzw. n-fach-Integralen. zur Berechnung gilt der folgende nützliche Satz von Fubini: Slide 187 Satz von Fubini Satz von Fubini Das Doppelintegral der im abgeschlossenen Rechteck [c, d] ⇥ [a, b] stetigen Funktion f (x, y) ist unabhängig von der Reihenfolge der Integrationen Zd Zb Zb Zd f (x, y)dxdy = f (x, y)dydx c Slide 188 a a 86 c zur Schreibweise • Man zieht häufig das dxi zum zugehörigen Integralzeichen vor und schreibt es direkt hinter das Integralzeichen (“Operatorschreibweise”) Zd c dy Zb dx f (x, y) = a Zb a dx Zd dy f (x, y) c • “Abarbeiten” von Innen (rechts) nach Außen (links) • Zb dx ist dann der Operator für die Vorschrift “integriere nach x von a a bis b”. Slide 189 Anwendung: Bereichsintegrale V = lim lim m!1 n!1 Slide 190 m X n X i=1 j=1 V = lim lim m!1 n!1 xi yj · f (xi , yj ) m X n X i=1 j=1 87 xi yj · f (xi , yj ) Grenzübergang V = ZZ f (x, y)dxdy B wobei Volumenanteile oberhalb der xy-Ebene positiv, solche unterhalb der xy-Ebene negativ gezählt werden. Slide 191 Führen wir zunächst die y-Integration durch, so erhalten wir eine nur noch von x abhängige Funktion, die dann “normal” integriert werden kann. 88 Z2 (x) g(xi ) = f (xi , y)dy 1 (x) V = Zb g(x)dx a Slide 192 Beispiel f (x, y) = x · y B ist ein Viertelkreis mit Radius 2 Slide 193 Beispiel V = ZZ f (x, y)dxdy = Z2 0 B = 0 x Z2 y2 2 2 (x) 0 1 Z2 (x) B C x · ydy A dx @ 1 (x) dx 1 (x) Z2 Z2 ⇤ 1⇥ 1 2 = x (4 x ) 0 dx = (4x x3 )dx = 2 2 0 0 1 4 2 1 4 1 = x x = [8 4 0] = 2 2 2 4 2 Slide 194 89 Verallgemeinerung Sei (x1 , x2 , . . . , xn ) 2 R Sei ferner f (x1 , . . . , xn ) stetig im n-dimensionalen “Rechteck” zwischen min min max (xmin , xmax , . . . , xmax ), dem Bereich Bn 1 , x2 , . . . , xn ) und (x1 2 n Dann heißt ZZZ Z ... f (x1 , x2 , . . . , xn )dx1 dx2 . . . dxn | {z } n Integrale über Bereich Bn das n-dimensionale Bereichsintegral (n-fach-Integral). Slide 195 Anwendung • Berechnung von Volumina • Berechnung von Mittelwerten über einen Bereich (allgemein: über eine Verteilungsfunktion) • in der Quantenmechanik: Erwartungswerte, Normierungsintegrale wie z. B. Z | (xi , yi , zi )|2 dx1 dy1 dz1 dx2 . . . dzn , i = 1, . . . n Wellenfunktion, n Zahl der Elektronen Slide 196 Koordinatentransformation • Führt man die Bereichsintegration auf einfache Integrationen zurück (Angabe der Grenzfunktionen 1 und 2 ), so wird der Integrand häufig sehr kompliziert. • Wenn aber z. B. der Bereich ein Kreis mit Radius R ist, dann entspricht die Berichsintegration einer Integration über alle Winkel (von 0 bis 2⇡) und über Abstände r vom Ursprung zwischen 0 und R. Slide 197 90 Koordinatentransformation • die Transformationsgleichungen x = G(u, v) und y = H(u, v) definieren eine vektorwertige Funktion in 2 Variablen, die den Bereich A 2 R2 auf den Bereich B 2 R2 abbildet: (x, y) ! (G, H) A ist der Bereich für x, y und B der Bereich für die neuen Variablen G, H Slide 198 Koordinatentransformation Die Jacobi-Matrix dieser Transformation lautet . ✓ @G @G ◆ @x @H @x @y @H @y Ihre Determinante muss 6= 0 sein, sonst ist die Transformation nicht eindeutig (lineare UnAbhängigkeit der Ableitungen) • Diese Transformation soll nun für das Bereichsintegral ZZ f (x, y)dxdy A genutzt werden. Slide 199 91 Bereichsintegral V = ZZ f (x, y)dxdy A = = = Slide 200 lim lim m!1 n!1 lim lim m!1 n!1 lim lim m!1 n!1 m X n X i=1 j=1 m X n X i=1 j=1 m X n X i=1 j=1 xi yj · f (xi , yj ) xi yj · f (G(xi , yj ), H(xi , yj )) ·f (G(xi , yj ), H(xi , yj )) xi yj G i Hj | {z } Flächenverhältnis Gi Hj Bereichsintegral • Das Flächenverhältnis ist gleich der Determinante der Jacobimatrix (im lim ; ohne Beweis). m,n!1 • Damit wird V = ZZ f (x, y)dxdy A = ZZ f (G(x, y), H(x, y)) B Slide 201 92 d(x, y) dGdH d(G, H) | {z } Betrag der Jacobi-Determinante Beispiel f (x, y) = x · y x = r cos ' = G(r, ') y = r sin ' = H(r, ') • wie oben: Integration über Viertelkreis (mit Radius 2) • Jacobi-Determinante @G @x @H @x Slide 202 @G @y @H @y = = cos ' sin ' cos ' sin ' r sin ' r cos ' Beispiel • Jacobi-Determinante @G @x @H @x @G @y @H @y = r cos2 ' Slide 203 Beispiel 93 r sin ' r cos ' ( r sin ') sin ' = r ) ZZ f (x, y)dxdy = ZZ = ZR 0 Z⇡/2 dr d' r · r cos ' · r sin ' ZR Z⇡/2 dr r d' sin ' cos ' A f (r, ') · rdrd' B = = 0 ZR 0 3 dr r3 0 Slide 204 0 Z0 cos '( d cos ') 1 Beispiel ) ZZ f (x, y)dxdy = . . . A = ZR dr r 0 3 Z1 cos 'd cos ' 0 ZR ZR ⇥ ⇤ 1 1 1 = dr r3 cos2 ' 0 = dr r3 2 2 0 0 4 R 1 r 11 4 = = R = 2 für R = 2 2 4 0 24 Slide 205 Koordinatentransformationen • Polarkoordinaten 94 • Zylinderkoordinaten • Kugelkoordinaten • Schwerpunktskoordinaten • elliptische Koordinaten (! H+ 2) Slide 206 Koordinatentransformationen Polarkoordinaten (x, y) ! (r, ') Transformationsgleichungen: p r = x2 + y 2 ' = arctan xy x = r cos ' y = r sin ' dx dy = rdr d' Slide 207 Koordinatentransformationen Zylinderkoordinaten (x, y, z) ! (⇢, ', z) Transformationsgleichungen: p ⇢ = x2 + y 2 ' = arctan xy x = ⇢ cos ' y = ⇢ sin ' z = z dx dy dz = rdr d' dz Slide 208 95 Koordinatentransformationen Kugelkoordinaten (x, y, z) ! (r, #, ') Transformationsgleichungen: x = r sin # cos ' y = r sin # sin ' z = r cos # p r = x2 + y 2 + z 2 # = arccos zr = 2 ' = arctan y x z 1 (x +y 2 +z 2 ) 2 dx dy dz = r2 dr sin #d# d' Slide 209 Erwartungswerte • häufig hat man es in der Theorie mit Verteilungsfunktionen (engl.: “distribution functions”) zu tun. • Sie geben, für kontinuierliche Variablen, die Wahrscheinlichkeitsdichte für das Auftreten bestimmter Werte der unabhängigen Variablen an. • die Wahrscheinlichkeit, diese zwischen (x1 , . . . , xn ) und (x1 +dx1 , . . . , xn + dxn ) zu finden: p(x1 , . . . , xn )dx1 . . . dxn ( 0) • kennt man die Verteilungsfunktion, so lassen sich daraus Erwartungswerte oder Mittelwerte berechnen. Slide 210 Erwartungswerte 96 Definition: Erwartungswert Der Erwartungswert einer Eigenschaft e, die von n Variablen x1 , . . . , xn abhängt, die wiederum mit einer Wahrscheinlichkeitsdichte p(x1 , . . . , xn ) auftreten, ist gegeben durch R R ··· dx1 . . . dxn e(x1 , . . . , xn )p(x1 , . . . , xn ) R E =Bereich R ··· dx1 . . . dxn p(x1 , . . . , xn ) Bereich Ist das Nennerintegral gleich 1, so spricht man von einer auf eins normierten oder kurz normierten Wahrscheinlichkeitsdichte. Slide 211 Beispiele • In der Quantenmechanik möchte man z.B. den mittleren Abstand des Elektrons im Wassersto↵atom vom Kern kennen, wenn sich das Atom im 1s-Zustand (Grundzustand) befindet. p(r, #, ') = | 1s (r, #, ')|2 ist dann das Absolutquadrat der Wellenfunktion 1s . Die Eigenschaft e ist dann einfach der Abstand r zwischen Elektron und Kern. Slide 212 Beispiele • In der Quantenmechanik möchte man z.B. die mittlere Bindungslänge in einem Molekül, z.B. H2 kennen. p(xi , yi , zi ) = | (xi , yi , zi )|2 (i = 1, . . . , n) ist dann das Absolutquadrat derp Wellenfunktion . Die Eigenschaft e ist dann einfach der Abstand r = (x1 x2 )2 + (y1 y2 )2 + (z1 zwischen den beiden Atomen. Slide 213 Beispiele • in der statistischen Thermodynamik möchte man die mittlere Energie eines Systems im thermischen Gleichgewicht bei der Temperatur T kennen. Die Eigenschaft e ist dann die sogenannte Hamiltonfunktion (totale 97 z2 )2 Energie) und die Wahrscheinlichkeitsdichte p ist der Boltzmannfaktor e E(xi )/kB T . • Die Integration erfolgt jeweils über alle Koordinaten. 4.12 Slide 214 Kurven- oder Pfadintegrale Arbeit entlang eines Weges • berechne die Arbeit, um Massenpunkt von A nach B entlang des Pfades C zu bringen • “Arbeit” = – “Kraft” · “Weg” W = Z F~ d~s Pfad C • ~s = ~s(t) ist eine parametrisierte Kurve für den Pfad C Slide 215 Arbeit entlang eines Weges 98 • ~s = ~s(t) ist eine parametrisierte Kurve für den Pfad C • an jedem Punkt gilt d~s = Z )W = d~s(t) dt dt d~s(t) F~ (x, y, z) · dt = dt C ZB F~ · d~s A Hier und im folgenden wird bei den Skalarprodukten der Einfachheit halber das Suffix ’T ’ für die Transposition des linken Vektors weggelassen. Slide 216 Verallgemeinerung Definition: Linienintegral Z I := f~(x1 , . . . , xn )d~x Pfad C heißt Linienintegral. Slide 217 Bemerkungen • o↵ensichtlich ist I ⇣ A ! B ⌘ = I ⇣ B ! A ⌘ • ein in Physik und Chemie interessanter Fall: I ist wegunabhängig. (in der Mechanik: konservative Kräfte) (in der Thermodynamik: ) Zustandsfunktionen) Slide 218 99 Wegunabh ängigkeit und totales Di↵erential Theorem: Sei Z I = [P (x, y)dx + Q(x, y)dy] . C I ist wegunabhängig, wenn P = @F @F = Fx und Q = = Fy , @x @y also partielle Ableitungen einer Funktion F sind. Slide 219 Wegunabh ängigkeit und totales Di↵erential Theorem: Ist F~ d~s ein totales Di↵erential, so ist Z F~ d~s C wegunabhängig. Slide 220 Wegunabhängigkeit und totales Di↵erential 100 Definition: I F~ d~s C bezeichnet ein Linienintegral über eine geschlossene Kurve ( A = B ). Wenn F~ d~s ein totales Di↵erential ist, so ist I F~ d~s = 0 C Die Stammfunktion von F~ ist dann eine “Zustandsfunktion”. Slide 221 Beispiele • Mechanik: W = ZB F~ d~s A • Thermodynamik: U= ZB A Slide 222 0 1 0 1 p dV @ T A · @ dS A µ dN Berechnung Wie berechnet man Linienintegrale? • Weiß man, dasss es eine Stammfunktion gibt, so kann man den Weg geeignet wählen, da der Wert des Integrals nur von Anfangs- und Endpunkt abhängt. Andernfalls muss man die Kurve ~s parametrisieren. Slide 223 101 Beispiel F~ (x, y) = x · y · Slide 224 ✓ 1 1 ◆ Beispiel Z C1 x·y· ✓ 1 1 ◆ ✓ ◆ Z1 dx · = dy y · 0 dy 0 + Z2 dx x · 1 0 = 0+ Slide 225 102 x2 2 2 =2 0 Beispiel • Parametrisierung von Pfad C2 : x(t) = 2 · t für t 2 [0, 1] dx =2 dt für t 2 [0, 1] dy =1 dt y(t) = t Z = 0 C2 Slide 226 Z1 ✓ ◆ ✓ ◆ Z1 ⇥ ⇤1 1 2 2t · dt = 6t2 dt = 2t3 0 = 2 1 1 2 0 Beispiel Ist das Linienintegral wegunabhängig? nein, denn Probe auf den Schwarz’schen Satz ergibt @(xy) @(xy) = Fxy = x 6= = Fyx = y @y @x Beweis: betrachte die Kurve C3 : (0, 0) ! (2, 0) ! 2, 1) Z C3 = Z2 0 dx x · 0 + Z1 dy y · 2 = 2 0 ) Wegintegral ist nicht pfadunabhängig. 103 y2 2 1 =1 0