Notizen zum Tutorium Tutorium zur Vorlesung Mathematische Grundlagen der Physik gehalten im Wintersemester 2015/2016 Oliver Brenk Fachbereich Physik TU Kaiserslautern Deutschland Stand: 4. Februar 2016 Inhaltsverzeichnis 1 Vorwort 5 2 Mengen, Gruppen, Körper, Vektorräume 2.1 Mengen . . . . . . . . . . . . . . . . . 2.1.1 Definition von Mengen . . . . . 2.1.2 Wichtige Mengen . . . . . . . . 2.2 Gruppen . . . . . . . . . . . . . . . . . 2.3 Körper . . . . . . . . . . . . . . . . . . 2.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 6 7 8 9 11 3 Skalarprodukt, Norm und Metrik 3.1 Skalarprodukt . . . . . . . . . . . 3.2 Norm . . . . . . . . . . . . . . . . 3.3 Anwendungen des Skalarprodukts 3.3.1 Projektion . . . . . . . . . 3.3.2 Zerlegung eines Vektors . 3.4 Metrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 16 18 18 19 19 . . . . . . . . . 21 21 22 23 24 25 25 26 26 27 . . . . . . . 28 28 29 29 30 33 34 35 . . . . . . . . . . . . . . . . . . 4 Lineare Operatoren - Nabla, Div, Grad, Rot 4.1 Linearer Operator . . . . . . . . . . . . . . . . . 4.1.1 Skalarfelder, Vektorfelder . . . . . . . . . 4.1.2 Gebiet . . . . . . . . . . . . . . . . . . . 4.2 Gradient . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Geometrische Bedeutung des Gradienten 4.3 Rotation . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Geometrische Bedeutung der Rotation . 4.4 Divergenz . . . . . . . . . . . . . . . . . . . . . 4.4.1 Geometrische Bedeutung der Divergenz . . . . . . . . . . . . . . . . . . . 5 Koordinatentransformation 5.1 Koordinatentransformationen sind nichts Neues . . 5.2 Benötigte Begriffe . . . . . . . . . . . . . . . . . . . 5.3 Koordinatentransformation . . . . . . . . . . . . . . 5.3.1 Basis . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Jacobimatrix der Koordinatentransformation 5.4 Ebene Polarkoordinaten . . . . . . . . . . . . . . . 5.4.1 Bahnkurve in ebenen Polarkoordinaten . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Vergleich kartesische Koordinaten und ebene Polarkoordinaten . . 6 Volumenintegral 6.1 Volumen . . . . . . . . . . . . . 6.1.1 Kartesische Koordinaten 6.1.2 Zylinderkoordinaten . . 6.1.3 Kugelkoordinaten . . . . 6.2 Masse . . . . . . . . . . . . . . 6.3 Schwerpunkt . . . . . . . . . . . 6.4 Trägheitsmoment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 38 38 38 39 39 40 41 44 7 Analogien zwischen Tanslation und Rotation 47 8 Potential und Phasenraum 8.1 Periodendauer . . . . . . . . . . 8.2 Phasenraum . . . . . . . . . . . 8.2.1 Harmonischer Oszillator 8.2.2 Mathematisches Pendel . 48 49 50 51 53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Effektivpotential 58 9.1 Keplerproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 10 Matrizen 10.1 Determinante . . . . . . . . . . . . . 10.2 Eigenwerte und Eigenvektoren . . . . 10.2.1 Bestimmung von Eigenwerten 10.3 Diagonalisierung . . . . . . . . . . . 10.4 Drehmatrizen . . . . . . . . . . . . . 10.5 Matrixfunktionen . . . . . . . . . . . . . . . . . 11 Bestimmung der inversen Matrix 11.1 Methode 1 - Adjunkte . . . . . . . . . 11.1.1 Zeilenoperationen . . . . . . . . 11.1.2 Beispiel zu Methode 2 . . . . . 11.1.3 Methode 2: Warum funktioniert 12 Determinantenberechnung 12.1 Matrizen aus Mat(2, K) . . 12.2 Matrizen aus Mat(3, K) . . 12.3 Determinantenentwicklung 12.3.1 Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . sie? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 73 76 77 79 83 84 . . . . 85 85 88 89 91 . . . . 94 94 94 95 98 13 Komplexe Zahlen 99 13.1 Polardarstellung komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . 106 13.2 Komplexe Wurzel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3 13.3 Fundamentalsatz der Algebra . . . . . . . . . . . . . 13.4 Anwendungen für komplexe Zahlen . . . . . . . . . . 13.4.1 Bahnkurven und Bewegungsgleichungen . . . 13.4.2 ”Wellen” . . . . . . . . . . . . . . . . . . . . . 13.4.3 Optik . . . . . . . . . . . . . . . . . . . . . . 13.4.4 Weiteres . . . . . . . . . . . . . . . . . . . . . 13.5 Funktionen, Integrale, Ableitungen . . . . . . . . . . 13.6 Anwendungen der Euler Formel - Additionstheoreme 14 Differentialgleichungen 14.1 Gedämpfter harmonischer Oszillator . . . . . . . 14.1.1 Schwingfall . . . . . . . . . . . . . . . . 14.1.2 Kriechfall . . . . . . . . . . . . . . . . . 14.1.3 Aperiodischer Grenzfall . . . . . . . . . . 14.1.4 Weitere unabhängige Lösung bestimmen 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 111 111 112 112 113 113 113 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 121 122 124 125 126 1 Vorwort Dieses Tutoriumsskript beinhaltet eine Sammlung von Anmerkungen und Ergänzungen zur Vorlesung Mathematische Grundlagen der Physik, gehalten von Frau Rethfeld an der TU Kaiserslautern im Wintersemester 15/16. Hier werden wichtige mathematische Konzepte erläutert und hoffentlich verständlich erklärt. Beispiele sollen dabei helfen die, teilweise recht abstrakten Konzepte, anschaulich zu machen. Dieses Skript ist natürlich nicht aus der leeren Luft entstanden, sondern basiert zum großen Teil auf bereits vorhandener Literatur. Neben der Vorlesungsliteratur sind besonders zu erwähnen die beiden Vorlesungsskripte von Herrn Gathmann [Gat12] und von Herrn Markwig [Mar00]. Die Vorlesung selbst basierte auf dem Buch von Herrn Korsch [Kor07]. Hinweise auf Fehler, Kritik und Anmerkungen sind willkommen. Diese bitte an folgende Email-Adresse: [email protected] 5 2 Mengen, Gruppen, Körper, Vektorräume In diesem Kapitel tasten wir uns Schrittweise an Vektorräume in ihrer allgemeinen Form heran. Während [Kor07] mit einem anschaulichen Beispiel für Vektorräume anfängt, dem R2 , und anhand diesem zeigt was man unter einem Vektorraum versteht, ist der Vektorraumbegriff sehr viel allgemeiner. Wir beginnen hier mit einer Menge, einer Sammlung von Elementen. Dann wollen wir mit diesen Elementen auch etwas tun und nehmen eine Abbildung hinzu, die zwei Elemente der Menge nimmt und sie auf ein anderes Element der Menge abbildet. Die Kombination aus Menge und Abbildung nennt man Gruppe. Ist eine Abbildung zu langweilig, kann man noch eine zweite hinzunehmen, damit kommen wir zu einem Körper. Nimmt man zu einem Körper noch eine weitere Menge mit ihrer Abbildung hinzu und erlaubt eine Abbildung mit Körperperlementen und Mengenelementen, ein Produkt von Skalaren und Vektoren, dann sind wir bei einem Vektorraum. Die jeweiligen, Mengen, Körper und Abbildungen müssen gewissen Anforderungen genügen, wir wollen ja keine x-beliebigen Mengen und Abbildungen. Wie diese Forderungen im Detail aussehen beschreibt dieses Kapitel. 2.1 Mengen Definition 2.1 (Naiver Mengenbegriff nach Cantor) Eine Menge ist eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten unserer Anschauung, oder unseres Denkens. Die Objekte heißen Elemente der Menge. Dieser Mengenbegriff ist sehr allgemein und nicht sonderlich anschaulich. Betrachten wir im Folgenden einige Methoden Mengen zu definieren und Beispiele für wichtige Mengen. 2.1.1 Definition von Mengen Zwei Beispiele wie man Mengen definieren kann: Beispiel 2.1 Explizite Angabe der Elemente: a) M = {1, 2, 3} b) M = {Hund, Katze, Maus} 6 Beispiel 2.2 Angabe einer Aussage P (x), die die Elemente erfüllen müssen: M = {x | P (x)} . zum Beispiel: a) Die Menge aller ungeraden Zahlen: M = {x | x ∈ Z und x mod 2 6= 0} . b) Die Menge aller differenzierbaren Funktionen: M = {x | x ist eine differenzierbare Funktion} . 2.1.2 Wichtige Mengen Beispiel 2.3 Wichtige Mengen: a) Die Menge der natürlichen Zahlen 1 N = {0, 1, 2, 3, . . .} . b) Die Menge der ganzen Zahlen Z = {. . . , −2, −1, 0, 1, 2, . . .} . c) Die Menge der rationalen Zahlen p Q= | p, q ∈ Z, q 6= 0 . q d) Die Menge der reellen Zahlen R. e) Die Menge der komplexen Zahlen C. f ) Die Produktmenge M × N M × N = (m, n) | m ∈ M, n ∈ N . Dabei nennt man (m, n) ein Tupel. Ein geordnetes Paar. g) Die Menge ohne Elemente, die leere Menge: ∅, oder {}. 1 Vorsicht: Je nach Autor gehört die 0 manchmal zu den natürlichen Zahlen und manchmal nicht. 7 2.2 Gruppen Nachdem man erst einmal eine Menge mit Elementen hat, will man mit diesen Elementen auch etwas tun. Dieses “etwas tun” heißt, wir wollen eine Abbildung definieren, die zwei Elemente nimmt und wieder ein Element aus der Menge zurückgibt. Dieser Grundgedanke, zusammen mit weiteren Forderungen, führt uns zur Definition einer Gruppe. Definition 2.2 (Gruppe) Eine Gruppe ist ein Paar (G, ·), bestehend aus einer nichtleeren Menge G und einer zweistelligen Operation “·” 2 , das heißt einer Abbildung · : G × G → G : (x, y) 7→ x · y , so daß die folgenden Gruppenaxiome gelten: a) (x · y) · z = x · (y · z) “Assoziativgesetz” ∀x, y, z ∈ G b) ∃1 ∈ G : ∀x ∈ G : 1 · x = x “Existenz eines Neutralen 3 ” Weiterhin gilt: x · 1 = x ∀x ∈ G. c) ∀x ∈ G ∃x′ ∈ G : x′ · x = 1 Weiterhin gilt x · x′ = 1. “Existenz eines Inversen” d) Sowohl das neutrale Element 1, als auch das inverse Element x′ sind eindeutig bestimmt. e) Eine Gruppe (G, ·) heißt abelsch, oder kommutativ, wenn (G, ·) auch dem folgenden Axiom genügt: x·y = y·x ∀x, y ∈ G . Notation 2.1 a) Man schreibt auch x−1 für das inverse Element zu x. b) Bei abelschen Gruppen schreibt man auch: i) + statt · ii) 0 statt 1 4 iii) −x statt x−1 Lemma 2.1 Sei (G, ·) eine Gruppe und x, y, a, b ∈ G, dann gilt −1 a) x−1 = x und (xy)−1 = y −1x−1 . 2 Dabei ist “·” ganz allgemein zu Verstehen und nicht zwingend identisch mit der “normalen” Multiplikation im R. 3 Hier dient die 1 nur als Symbol und hat nichts mit der 1 als Zahl zu tun. 4 Diese Null hat erst mal nichts mit der Zahl 0 zu tun 8 b) Es gelten die Kürzungsregeln: i) ax = bx ii) xa = xb ⇒a=b ⇒a=b Beispiel 2.4 (Gruppen) a) Die Gruppen (Z, +), (Q, +), (R, +) mit der üblichen Addition sind abelsche Gruppen. Das neutrale Element ist 0, diesmal die “Zahl” 0, und das Inverse ist −x. b) Die Gruppe (R \ {0}, ·), d.h. der R ohne die 0, mit der üblichen Multiplikation ist eine abelsche Gruppe. Das inverse Element ist x1 . Das neutrale Element ist die “Zahl” 1. c) Die einelementige Gruppe G = {e} mit · : G × G → G : e · e 7→ e. d) Wir betrachten die Menge G = {x ∈ Rn }, mit Rn = R × R × · · · R, das n-fache Produkt des R mit sich selbst. Sie hat als Elemente x = (x1 , x2 , . . . , xn ), xi ∈ R. Die Menge G bildet zusammen mit der Operation + : G × G → G : (x, y) 7→ x + y. Mit x + y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) eine abelsche Gruppe. 2.3 Körper Wem eine Abbildung von einer Menge in sich selbst nicht genug ist, dem kann geholfen werden. Denn nun kommen wir zu einem Körper. Definition 2.3 (Körper) Eine Menge K mit zwei zweistelligen Operationen + und ·, a) + : K × K → K : (x, y) 7→ x + y, einer “Addition” b) · : K × K → K : (x, y) 7→ x · y, einer “Multiplikation” heißt Körper, falls gilt: a) (K, +) ist eine abelsche Gruppe. (Neutrales Element bezüglich + ist 0, oder 0K .) b) x · (y · z) = (x · y) · z ∀x, y, z ∈ K. “Assoziativiät der Multiplikation” c) Es gilt ∀x, y, z ∈ K: x · (y + z) = x · y + x · z (y + z) · x = y · x + z · x “Distributivität” d) ∃1 ∈ K, mit 1 · x = x · 1 = x, ∀x ∈ K. 1 ist das neutrale Element bezüglich ·. e) x · y = y · x ∀x, y ∈ K. “Kommutativität” 9 f ) (K\{0} , ·) ist eine abelsche Gruppe. Das heißt ∀x 6= 0 gibt es ein inverses Element x−1 , mit x−1 x = xx−1 = 1 Beispiel 2.5 a) Die Mengen R und Q mit der üblichen Addition und Multiplikation sind Körper. b) N ist mit der üblichen Addition und Multiplikation kein Körper, da kein Element ein Inverses bezüglich + hat. Einfach gesagt: N beinhaltet keine negativen Zahlen. c) Z ist auch kein Körper, mit der üblichen Addition und Multiplikation. Hier fehlt das multiplikative Inverse. Einfach gesagt: x−1 = x1 ∈ / Z. d) Die komplexen Zahlen C bilden ebenfalls einen Körper. Diese Beispiele greifen natürlich alle letzten Endes auf die “normalen” Rechenoperationen zurück. Um zu zeigen, dass dem nicht immer so sein muss, hier ein etwa abstrakteres Beispiel. Beispiel 2.6 Dieses Beispiel stammt aus [Gat12]. Betrachten wir die Menge K = {g, u} mit den beiden Verknüpfungen · und +, die gemäß folgenden Tabellen definiert sind: + g u g u g u u g und · g u g g g u g . u Durch direktes Nachprüfen beweist man, dass (K, +, ·) die Körperaxiome erfüllt. • Das neutrale Element bezüglich + ist g, was man an der Tabelle erkennt, also g = 0+ . Wie man ebenfalls an der Tabelle ablesen kann gilt: g + g = u + u = 0+ , die inversen Elemente bezüglich + sind also −g = g und −u = u. • Das neutrale Element bezüglich · in K \ {0} ist u. Es ist auch das einzige Element. Also gilt u = 1· . Diesen Körper nennt man in der Literatur den Z2 , da seine Elemente die Reste ganzer Zahlen, bei Division durch 2 beschreiben. Man bezeichnet eine gerade Zahl mit g, eine ungerade Zahl mit u. Dieser Körper zeigt noch eine interessante Eigenschaft. Es gilt nämlich 1+1 = u+u = g = 0. Durch mehrmahliges Ausführen einer Addition von “Einsen” kommt man zur “Null”. Anmerkung 2.1 In der Physik betrachten wir meist Körper K mit K = R, oder K = C. Lemma 2.2 (Körper - Rechenregeln) Es sei K ein Körper. Für x, y, z, u, v ∈ K gelten: 10 a) −(−x) = x b) x + y = z ⇔ x = z − y c) −(x + y) = −x − y d) 0 · x = x · 0 = 0 e) (−x) · (−y) = x · y f ) x · (y − z) = x · y − x · z g) 1 6= 0, insbesondere hat ein Körper mindestens zwei Elemente. h) (x−1 )−1 = x, für x 6= 0 i) x · y = 0 ⇔ x = 0, oder y = 0. j) z · x = z · y, z 6= 0 k) x u + y v = x·v+y·u , u·v ⇒x=y für u, v 6= 0 l) x2 = 1 ⇔ x ∈ {−1, 1} Salopp gesagt: Man darf rechnen wie gewohnt. 2.4 Vektorräume In nächsten Schritt kann man zwei Mengen miteinander kombinieren und Abbildungen hinzunehmen die mit Eingaben aus beiden Mengen arbeiten. Eine Möglichkeit das zu tun ist ein Vektorraum. Definition 2.4 Ein K-Vektorraum besteht aus einer nichtleeren Menge V sowie einer Verknüpfung + : V × V → V : (x, y) 7→ x + y , die Vektoraddition genannt wird. Und einer Operation von einem Körper K auf V , d.h. einer Abbildung · : K × V → V : (λ, x) 7→ λ · x = λx , die Skalarprodukt genannt wird, so daß folgende Gesetze gelten: a) (V, +) ist eine abelsche Gruppe. b) Für λ, µ ∈ K und x, y ∈ V gelten: i) (λ + µ)x = λx + µx “Verallgemeinertes Distributivgesetz” ii) λ(x + y) = λx + λy “Verallgemeinertes Distributivgesetz” 11 iii) (λµ)x = λ(µx) “Verallgemeinertes Assoziativgesetz” Die Elemente von V nennt man Vektoren. Die Elemente von K nennt man Skalare. Das neutrale Element von V bzgl. + nennt man Nullvektor: 0, 0V . Das neutrale Element von K nennt man auch 0, 0K . Beispiel 2.7 a) Die Menge Rn , mit n ∈ N ist die Menge aller n-Tupel, mit Einträgen aus R, also Rn ∋ x = (x1 , . . . , xn ), mit xi ∈ R. Die “Addition” von Elementen aus Rn definieren wir wie folgt: + : Rn × Rn → Rn : (x, y) 7→ x + y , (2.1) x + y := (x1 + y1 , . . . , xn + yn ) . (2.2) mit Die Vektoraddition wird hier komponentenweise definiert. Das + auf der rechten Seite ist die “normale” Addition aus dem R. Betrachten wir (Rn , +) zusammen mit dem Körper R als R-Vektorraum, dann kann man die Multiplikation eines Vektors mit einem Skalar λ ∈ R wie folgt definieren: λ · x = λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn ) , (2.3) auch hier die komponentenweise Multiplikation aus dem R. Der Nullvektor, das neutrale Element bezüglich der Addition von Vektoren ist 0 = (0, . . . , 0). Das neutrale Element, bzgl. “+” aus dem Körper R ist die “normale” 0. b) Beispiel aus [Gat12]: Sei K ein Körper und M eine Menge. Die Menge Abb(M, K) := {f : M → K} ist die Menge aller Abbildungen von M nach K. Die Menge Abb(M, K) wird mit folgenden Operationen ein K-Vektorraum. Wir definieren punktweise ∀λ ∈ :K, x ∈ M und f, g ∈ Abb(M, K): + : Abb(M, K) × Abb(M, K) → Abb(M, K) : (f, g) 7→ f + g , (2.4) f + g := (f + g)(x) = f (x) + g(x) . (2.5) mit Und einer Skalarmultiplikation · : K × Abb(M, K) → Abb(M, K) : (λ, f ) 7→ λf , (2.6) λf := (λf )(x) = λf (x) . (2.7) mit Der Nullvektor ist die Funktion, die jedes Element von M auf die 0 abbildet. Das inverse Element bezügl. + ist die Funktion −f : M → K : x 7→ −f (x). 12 Lemma 2.3 (K-Vektorraum - Rechenregeln) In einem K-Vektorraum gelten folgende Rechenregeln: a) OK · x = 0V und λ · 0V = 0V ∀x ∈ V, ∀λ ∈ K b) Für λ ∈ K, x ∈ V gilt: λ · x = 0V ⇒ λ = 0, oder x = 0 . c) (−1) · x = −x, ∀x ∈ V . (−1)x ist das eindeutig bestimmte additive Inverse zu x. Weiterhin gilt: x + (−x) = 0V . 13 3 Skalarprodukt, Norm und Metrik Dieses Kapitel betrachtet die Konzepte eines Winkels, einer Länge und eines Abstandes. Auch hier gilt wieder: Man kann von der Anschauung des R2 kommen, oder, was wir hier tun werden, aus der abstrakteren Richtung. Im Folgenden betrachten wir, wie man mit Hilfe des Skalaprodukts und der Norm einen Winkel zwischen Elementen eines Vektorraums definieren kann. Das Äquivalent zu einer Länge wird der Normbegriff werden und die Metrik wird uns einen Abstandsbegriff liefern. 3.1 Skalarprodukt Ein Skalarpodukt ist eine Abbildung, eine spezielle Bilinearform. Eine Bilinearform ist eine Abbildung, die zwei Elemente eines Vektorraums in den zugrundeliegenden Körper abbildet und gewisse Eigenschaften aufweist. Erfüllt sie weitere Bedingungen, dann nennt man die Bilinearform ein Skalarprodukt. Definieren wir zuerst eine Bilinearform. Definition 3.1 (Bilinearform) Sei V ein K-Vektorraum. a) Eine Abbildung b : V × V → K, die folgende Bedingungen erfüllt, ∀x, y, z ∈ V , ∀λ, µ ∈ K i) b(λx + µy, z) = λb(x, y) + µb(y, z) ii) b(z, λx + µy) = λb(z, x) + µb(z, y) ist linear in beiden Argumenten. Man nennt sie bilinear, oder Bilinearform. b) Eine Bilinearform b : V × V → K, heißt symmetrisch, falls für x, y ∈ V stets gilt: b(x, y) = b(y, x) . c) Eine symmetrische Bilinearform b heißt positiv definit, wenn ∀0 6= x ∈ V gilt b(x, x) > 0 . Jetzt haben wir die Begriffe um ein Skalarprodukt zu definieren. Definition 3.2 (Skalarprodukt) Sei V ein K-Vektorraum. Eine positiv definite, symmetrische Bilinearform b : V ×V → K nennen wir Skalarprodukt. Wir verwenden für die Abbildung im Allgemeinen nicht mehr 14 b, sondern schreiben: h·, ·i : V × V → K . Definition 3.3 Ist K = R, dann nennt man das Tupel (V, h·, ·i) einen euklidischen Vektorraum. Beispiel 3.1 (Skalarprodukt) Sei V = C [0, 1] der R-Vektorraum der auf dem Intervall [0, 1] stetigen Funktionen. Dann ist für f, g ∈ V durch ˆ 1 hf, gi = f (x)g(x)dx ∈ R 0 nach den Rechenregeln für Integrale eine symmetrische Bilinearform auf V definiert. Die Bilinearform ist sogar positiv definit, da für f (x) 6= 0 gilt: ˆ 1 hf, f i = f 2 (x)dx > 0 . 0 In der Physik wird sehr häufig das kanonische Skalarprodukt verwendet, daher widmen wir diesem eine eigene Definition. Definition 3.4 (Kanonisches Skalarprodukt oder Standardskalarprodukt) a) Sei V = Rn ein R-Vektorraum, dabei sind die Elemente von V n-Tupel mit Einträgen aus R, also Rn ∋ x = (x1 , . . . , xn ). Wir definieren die Abbildung: h·, ·i : Rn × Rn → R (x, y) 7→ hx, yi , wie folgt hx, yi := n X xi yi . i=1 Diese Abbildung ist ein Skalarprodukt, das kanonische Skalarprodukt. In dieser Definition des kanonischen Skalarporduktes ist es völlig unerheblich, ob man x1 den Vektor x als Zeilenvektor x = (x1 , . . . , xn ), oder als Spaltenvektor x = ... xn schreibt. Dennoch ist es in der Physik und in der Linearen Algebra üblich die Vektoren als Spaltenvektoren zu schreiben. Die Schreibweise bietet Vorteile in Hinsicht auf die Lineare Algebra, insbesondere in der Matrizenrechnung. So kann man mit Hilfe der Operation der Tansposition, das kanonische Skalarprodukt auch anders interpretieren. 15 Definition 3.5 (Transposition eines Vektors) Die Transposition t überführt einen Spaltenvektor x in einen Zeilenvektor xt : t x1 xt = ... = (x1 , . . . , xn ) . xn Und einen Zeilenvektor x in einen Spaltenvektor xt : x1 .. t t x = (x1 , . . . , xn ) = . . xn Zweimaliges anwenden der Tansposition führt wieder auf die ursprüngliche Darstellung. t xt = x . Damit gilt für das Skalarprodukt, mit den Rechenregeln der Matrixmultiplikation: y1 n .. X t hx, yi = x · y = (x1 , . . . , xn ) · . = xi yi . i=1 yn Diese “Definition” des Skalarproduktes macht es fasst trivial die Erhaltung des Skalarproduktes unter Rotation der Vektoren zu zeigen. Um das Skalarprodukt geometrisch interpretieren zu können, brauchen wir noch den Begriff der Norm, der es uns erlaubt von der “Länge” eines Vektors zu sprechen. 3.2 Norm Die Norm ist eine Methode, wie man die “Länge” von Vektoren bestimmen kann. Wir wollen sie zuerst allgemein definieren. Definition 3.6 Es sei V ein K-Vektorraum, K sei R, oder C. Eine Abbildung k·k : V → R≥0 , die die folgenden Bedingungen erfüllt, heißt Norm auf V . ∀x, y ∈ V und λ ∈ K, soll gelten a) kxk ≥ 0 und aus kxk = 0 ⇒ x = 0. b) kλxk = |λ| · kxk. 16 c) kx + yk ≤ kxk + kyk. Die Dreiecksungleichung. Diese Vorderungen an die Abbildung sind einsichtig, wenn sich vor Augen führt, dass sie Längen messen soll: a) Die Länge soll positiv sein, nur der Nullvektor hat Länge Null. Man misst quasi den Abstand eines Punktes x zum Nullpunkt. b) Wird ein Vektor um den Faktor λ gestreckt, soll sich seine Länge um |λ|, den Betrag von λ, ändern. c) Der Weg vom Ursprung über x zu x + y soll unter gar keinen Umständen kürzer sein, als der direkte Weg vom Ursprung zum Punkt x + y. Definition 3.7 Das Tupel V, k·k heißt dann normierter (Vektor-)Raum. Satz 3.1 Sei (V, h·, ·i) ein euklidischer Raum. Dann wird durch k·k : V → R≥0 : x 7→ eine Norm auf V definiert. p hx, xi Satz 3.2 (Cauchy-Schwarzsche Ungleichung) Ist (V, h·, ·i) ein euklidischer Raum, dann gilt ∀x, y ∈ V hx, yi ≤ kxk · kyk . Gleichheit gilt genau dann, wenn x und y linear abhängig sind, d.h. x = λy, mit λ ∈ R. Nun haben wir alle Zutaten zusammen um “Winkel” definieren zu können. Dazu schreiben wir die Cauchy-Schwarzsche Ungleichung aus Satz 3.2 etwas um: −kxk · kyk ≤ hx, yi ≤ kxk · kyk . Anschließend dividieren wir durch kxk · kyk und erhalten −1 ≤ hx, yi ≤1 . kxk · kyk Aus der Analysis ist bekannt, dass es zu jeder reellen Zahl r ∈ [−1, 1] genau einen Winkel α ∈ [0.π] gibt, mit r = cos α, nämlich α = arccos r. Damit können wir definieren: Definition 3.8 Sei (V, h·, ·i) ein euklidischer Raum. Die eindeutig bestimmte Zahl α = ∡(x, y) ∈ [0, π] mit hx, yi cos α = kxk · kyk heißt Winkel zwischen x und y. 17 Mit dieser Definition kann man zum Beispiel einen “Winkel” zwischen Funktionen berechnen: Man verwende das Skalarpordukt aus Beispiel 3.1 und definiere die Norm über das Skalarprodukt. Im Rn gewinnt die Definition des Winkels ihre anschaulische Bedeutung als “echter” Winkel, wie man ihn in der Geometrie kennt. Nach der Definition der Länge eines Vektors und des Winkels zwischen Vektoren, kann man das Skalarprodukt auch “geometrischer” interpretieren. Lemma 3.1 Sei V ein euklidischer R-Vektorraum, mit Skalarprodukt h·, ·i und Norm k·k die über das Skalarprodukt definiert ist. Seien x, y ∈ V , dann gilt: hx, yi = kxk · kyk cos α . Was man im Falle von V = Rn interpretieren kann als: Das Skalarprodukt zweier Vektoren ist gleich dem Produkt der jeweiligen Längen der Vektoren mit dem Cosinus des eingeschlossenen Winkels. In der Physik verwendet oft die Notation: x · y = |x| · |y| cos α . Im Folgenden betrachten wir Anwendungen des Skalarprodukts. 3.3 Anwendungen des Skalarprodukts In diesem Abschnitt betrachten wir die Projektion eines Vektors auf einen anderen Vektor und die Zerlegung eines Vektors in einen parallelen und senkrechten Anteil in Bezug auf einen anderen Vektor. Aber vorher noch eine Definition. Definition 3.9 Sei x ∈ V , wir nennen x einen Einheitsvektor, wenn gilt kxk = 1 . Ein Einheitsvektor hat Länge 1. In der Physik kennzeichnet man Einheitsvektoren oft mit einem ˆ, also hier x̂. 3.3.1 Projektion Die Projektion eines Vektors auf die Richtung eines Einheitsvektors liefert die Länge in Richtung des Einheitsvektors. Definition 3.10 Unter der Projektion eines Vektors x auf einen Einheitsvektor b̂ verstehen wir die Länge des Vektors x in die Richtung von b̂ x · b̂ = |x| · |b̂| cos α = |x| cos α ∈ R . 18 |x| cos α ist die Länge von x in Richtung b̂. Einen Vektor xb der Länge |x| cos α in Richtung b̂ erhalten wir durch Multiplikation mit dem Vektor b̂ V ∋ xb = b̂|x| cos α . 3.3.2 Zerlegung eines Vektors In manchen Situation macht es Sinn einen Vektor in die Summe zweier Vektoren aufzuspalten. Eine mögliche Zerlegung ist in einen Anteil der senkrecht zu einem anderen Vektor ist, und einen parallel zu diesem Vektor, zu zerlegen. Lemma 3.2 Seien x, b̂ ∈ V , b̂ ein Einheitsvektor. Unter der Zerlegung von x in einen Anteil x⊥ senkrecht zu b̂ und einen Anteil xk verstehen wir Folgendes: a) x = x⊥ + xk . b) x⊥ · b̂ = 0. “Senkrecht zu b̂.” c) xk · b̂ = |xk |. “Parallel zu b̂.” Dabei gilt: a) xk = b̂|x| cos α, die Projektion von x auf b̂ multipliziert mit b̂. b) x⊥ = x − xk . Man beachte, dass diese Zerlegung für jeden Vektorraum gilt. Geometrisch anschaulich ist sie in V = Rn . 3.4 Metrik Eine Metrik ist eine Verallgemeinerung des Normbegriffes. Die Definition der Norm verlangt einen Vektorraum. Das heißt wir haben einen ausgezeichneten Vektor, den Nullvektor 0V , und eine Addition von Vektoren. In beliebigen Mengen haben wir diese Strukturen nicht. Doch auch hier kann man eine Abstandsmessung definieren, diese nennt man Metrik. Definition 3.11 (Metrik) Sei M eine Menge. Eine Abbildung d : M × M → R heißt Metrik, falls ∀x, y, z ∈ M gilt: a) d(x, y) ≥ 0, und d(x, y) = 0 ⇔ x = y . b) d(x, y) = d(y, x). c) d(x, z) ≤ d(x, y) + d(y, z) “Dreiecksungleichung”. 19 Dabei haben die Punkte a und c die gleiche Bedeutung wie in die entsprechenden Punkte in der Definition der Norm (Definition 3.6). Punkt b bedeutet, dass der Abstand von x zu y gleich dem Abstand von y zu x sein soll. Definition 3.12 Das Tupel (M, d) nenn man einen metrischen Raum. Beispiel 3.2 Sei M = {Hund, Katze, Maus }. Wir definieren folgende Metrik. ( 0, x = y . d : M × M → R : (x, y) 7→ 1, x 6= y Man sieht direkt, dass d eine Metrik ist. Man nennt d die diskrete Metrik. 20 4 Lineare Operatoren - Nabla, Div, Grad, Rot Dieses Kapitel gibt einen Überblick über Differentialoperatoren, vor allem den NablaOperator ∇. Operatoren sind Objekte die auf eine Funktion wirken und “etwas mit ihr machen”. Ein Differentialoperator nimmt eine Funktion und leitet sie ab, ein Integraloperator integriert sie. Ein anderer Operator addiert den Wert 3 zu einer Funktion. Der Operatorbegriff ist flexibel. Wir beschränken uns hier auf eine spezielle Art von Operatoren, die linearen Operatoren. 4.1 Linearer Operator Eine wichtige Art von Operatoren sind lineare Operatoren. Definition 4.1 (Linearer Operator ) Ein linearer Operator Ô ist eine Abbildung von zwischen Vektorräumen V1 und V2 , beide über dem Körper K, Ô : V1 → V2 . Mit der Eigenschaft ∀u, v ∈ V1 und ∀α, β ∈ K . Ô(αu + βv) = aÔu + β Ôv Der Operator wirkt dabei auf die Links von ihm stehenden Elemente des Vektorraums. Operatoren laufen einem schon in der Schule über den Weg, nur nennt man sie dort noch nicht so. Hier einige Beispiele für altbekannte lineare Operatoren. Beispiel 4.1 a) Sei I = [a, b] ein kompaktes Intervall, u eine integrierbare Funktion, u : I → R : x 7→ u(x), dann definieren wir den Integraloperator Ô, wie folgt: Ôu(x) := ˆ b dx u(x) . a ´b Vereinfacht gesagt gilt Ô = a dx. Dabei ist Ô eine Abbildung vom Vektorraum der stetigen Funktionen auf dem Intervall I in die reellen Zahlen. Ô : C(I) → R. Das Integral erfüllt die Bedingungen der Linearität. 21 b) Sei u eine k-mal stetig differenzierbare Funktion, also u ∈ C k , dann definieren wir den Operator Ô, als d Ôu(x) := u(x) . dx Ô ist ein linearer Operator, Ô : C k → C k−1 , die Linearität folgt aus den Eigenschaften der Ableitung. c) Jede Matrix ist ein linearer Operator. Ein wichtiger linearer Operator in der Physik ist der Nabla-Operator. Bevor wir ihn definieren, zuerst noch folgende Notation. Notation 4.1 Wir vereinbaren folgende Kurzschreibweisen: a) Anstatt ∂ ∂x schreiben wir kurz ∂x . b) Anstatt ∂xi schreiben wir kurz ∂i . Definition 4.2 (Nabla-Operator) Der Nabla-Operator ist ein Spaltenvektor, der partielle Ableitungen als Komponenten hat. ∂1 .. ∇ := . . ∂n Ein weiterer öfters vorkommender Operator ist der Laplace-Operator. Definition 4.3 (Laplace-Operator) Der Laplace-Operator ist der Operator der aus dem Skalarprodukt des Nabla-Operators mit sich selbst entsteht. ∆ := ∇ · ∇ = n X ∂i ∂i = i=1 n X ∂2 . = ∂i2 ∂2 i=1 xi n X ∂2 i=1 Um wir tiefer in die Anwendungen des Nabla-Operators einsteigen, ist es an der Zeit einige Begriffe, die wir oft verwenden werden zu definieren. 4.1.1 Skalarfelder, Vektorfelder Ein Skalarfeld ist eine Funktion die einen Vektor in den R abbildet, ihm einen Skalar zuordnet, zum anderen das Vektorfeld, das jedem Vektor einen Vektor zuordnet. Definition 4.4 (Skalarfeld ) Sei Ω ⊆ Rn ein Gebiet. 22 Eine Abbildung nennen wir ein Skalarfeld. x1 f : Ω → R : x = ... 7→ f (x) , xn Ein Skalarfeld ordnet jedem Vektor x eine Zahl, das heißt ein Skalar, zu. Definition 4.5 (Vektorfeld) Sei Ω ⊆ Rn ein Gebiet. Eine Abbildung x1 f1 (x) F : Ω → Rn : x = ... 7→ F (x) = ... xn fn (x) mit fi : Ω → R : x 7→ fi (x) ein Skalarfeld, nennt man ein Vektorfeld. Ein Vektorfeld ordnet jedem Vektor x im Raum einen Vektor zu. “An jedem Punkt x ∈ Rn wird der Vektor F (x) ∈ Rn angebracht.” 4.1.2 Gebiet Wenn wir Funktionen aus Teilmengen des Rn in den Rn betrachten können wir nicht von vornerein erwarten, dass sie auf ganz Rn definiert sind. Wir wollen eine Verallgemeinerung des Intervalls I = [a, b] ∈ R für den Rn . Der Begriff des Gebietes wird dieses leisten. Definition 4.6 (Gebiet) Eine Teilmenge Ω ⊆ Rn heißt Gebiet, wenn gilt a) Ω ist offen. b) Ω ist zusammenhängend. Das heißt um jeden Punkt x ∈ Ω gibt es eine offene Kugel Uε (x) und je zwei Punkte x1 , x2 können durch eine stetige Kurve Γ, die ganz in Ω verläuft, verbunden werden. Damit erhalten wir Eigenschaften die wir brauchen um Begriffe wie Differentation in Ω anwenden zu können. Für unsere Zwecke ist es ausreichend sich Ω als ein “Intervall” im Rn vorzustellen. 23 4.2 Gradient Der Gradient einer skalaren Funktion f ist die Anwendung des Nabla-Operators auf die Funktion. Dies entspricht der Multiplikation eines Vektors mit einem Skalar von Links. Definition 4.7 (Gradient) Sei Ω ⊆ Rn ein Gebiet. Ist f : Ω → R : x = (x1 , . . . , xn )t 7→ f (x) partiell differenzierbar in Ω, so definiert man den Spaltenvektor ∂1 f (x) grad f := ∇ · f (x) = ... . ∂n f (x) Dabei ist • x ∈ Rn • f (x) ∈ R • grad f (x) ∈ Rn • ∂i f (x) ∈ R Die Linearität folgt aus der Linearität der Ableitung. Beispiel 4.2 a) n = 1, grad f = ∂1 f (x1 ) b) n = 2, grad f = ∂1 f (x1 , x2 ) ∂2 f (x1 , x2 ) ! c) n = 2, f (x1 , x2 ) = x1 x2 , damit gilt grad f = ∇ · f = x1 d) n = 2, f (x1 , x2 ) = x21 + x22 , damit gilt grad f = 2 x2 ∂1 f ∂2 f ! = x2 x1 ! ! Definition 4.8 Sei Ω ⊆ Rn ein Gebiet. Sei F : Ω → Rn ein C 1 -Vektorfeld. F heißt konservativ, wenn es ein C 1 -Skalarfeld ϕ : Ω → R, ein sogennantes skalares Potential, gibt, so dass in Ω gilt: F = grad ϕ = ∇ϕ . Oder in Komponenten: ∂1 ϕ f1 .. .. .= . . ∂n ϕ fn 24 4.2.1 Geometrische Bedeutung des Gradienten Satz 4.1 Sei f eine Funktion wie in Definition 4.7. Der Gradient steht senkrecht auf den Flächen f = f0 , f0 konstant. Satz 4.2 Sei f eine Funktion wie in Definition 4.7. Der Gradient zeigt in die Richtung des steilsten Anstiegs. Beweis Der Gradient ist ein Maß für die Veränderung einer Funktion. Wir betrachten die Änderung projeziert auf die Richtung des Einheitsvektors v̂ ∈ Rn , mit |v̂| = 1. Damit gilt grad f · v̂ = |∇ · f | cos α . Dabei wird cos α = 1, wenn grad f und v̂, parallel sind. Also zeigt der Gradient in die Richtung des steilsten Anstiegs. 4.3 Rotation Die Rotation eines Vektorfeldes F ist die Anwendung des Nabla-Operators auf das Vektorfeld. Sie entspricht dem Kreuzprodukt des Nabla-Operators mit der Funktion. Sie ist jedoch nur im R3 definiert. Definition 4.9 (Rotation) Sei Ω ⊆ R3 ein Gebiet, F : Ω → R3 ein C 1 -Vektorfeld. Man definiert die Rotation durch ∂2 f3 − ∂3 f2 rot F := ∇ × F = ∂3 f1 − ∂1 f3 . ∂1 f2 − ∂2 f1 Dabei ist • F ∈ R3 • rot F ∈ R3 • fi ∈ R Mit dem Levi-Cevita Symbol kann man die Rotation auch schreiben als X rot F = εijk êi ∂j fk . ijk Man beachte, dass wir die Rotation nur für den R3 definiert haben. 25 Beispiel 4.3 a) Sei F : R3 → R3 : x 7→ x, ein Vektorfeld. Dieses Vektorfeld ordnet jedem Vektor x den Vektor x zu. Für die Rotation von F gilt: rot F = 0 . b) Sei F : R3 → R3 : x 7→ ω × x, ein Vektorfeld und ω ein konstanter Vektor. Für die Rotation von F gilt: rot F = 2ω . Definition 4.10 Sei Ω ⊆ R3 ein Gebiet, F ein Vektorfeld. a) Man nenn F wirbelfrei, wenn rot F = 0 in Ω . b) F heißt ein Wirbelfeld, wenn es ein Vektorpotential G : Ω → R3 , gibt mit F = rot G in Ω . 4.3.1 Geometrische Bedeutung der Rotation Die Zirkulation eines Vektorfeldes längs einer Randkurve ∂R, berechnet sich als ˛ F dr , ∂R was man mit dem Satz von Stokes umschreiben kann: ˛ ¨ F dr = rot F dA . ∂R F Dies fasst der folgende Satz zusammen. Satz 4.3 Die Rotation eines Vekoktorfeldes F , rot F , beschreibt die Verwirbelung von F (die Rotation). 4.4 Divergenz Die Divergenz ist die Anwendung des Nabla-Operators auf ein Vektorfeld F . Sie entspricht dem Skalarprodukt des Nabla-Operators mit dem Vektorfeld. Sie ist für Vektorfelder im Rn definiert. 26 Definition 4.11 (Divergenz) Sei Ω ⊆ Rn ein Gebiet. Sei F : Ω → Rn ein C 1 -Vektorfeld. Man definiert die Divergenz durch n n X X ∂fi div F := ∇ · F = ∂i fi = . ∂xi i=1 i=1 Dabei gilt • Rn ∋ x = (x1 , . . . , xn )t • xi ∈ R • F (x) ∈ Rn • div F (x) ∈ R Beispiel 4.4 a) Sei F (x1 , x2 , x3 ) = (x1 , x2 , x3 )t ein Vektorfeld. Damit ergibt sich für die Divergenz div F (x) = ∂1 f1 + ∂2 f2 + ∂3 f3 = ∂1 x1 + ∂2 x2 + ∂3 x3 = 1 + 1 + 1 = 3 . b) Sei F (x1 , x2 ) = (x1 x2 , − 21 x22 )t ein Vektorfeld. Damit ergibt sich für die Divergenz 1 2 div F (x) = ∂1 f1 + ∂2 f2 = ∂1 (x1 x2 ) + ∂2 − x2 = x2 + (−x2 ) = 0 . 2 Definition 4.12 Sei F ein Vektorfeld. Man nennt F quellenfrei, wenn gilt div F = 0 . 4.4.1 Geometrische Bedeutung der Divergenz Man sagt auch die Divergenz div F (x) sei ein Maß für die Quellstärke des Vektorfeldes F im Punkt x ∈ Rn . Betrachtet man den Fluss ϕ eines Feldes F durch eine Oberfläche ∂V , eines Volumens V , so gilt ‹ ϕ= F dA . ∂V Diese Gleichung kann man mit Hilfe des Satzes von Gauß umschreiben: ‹ ˚ ϕ= F dA = div F dV . ∂V V 27 5 Koordinatentransformation Das Koordinatensystem mit dem man als erstes konfrontiert wird sind die kartesischen Koordinaten. Doch dieses Koordinatensystem ist nur eines von beliebig vielen Koordinatensystemen die man wählen kann. Die kartesischen Koordinaten haben den Vorteil, dass sie recht gut mit unserer Anschauung übereinstimmen, aber damit hat es sich auch schon. Je nach Art es Problems verwendet man ganz andere Koordinaten. Dabei kann man die Wahl zum Beispiel nach der Symmetrie eines Problems treffen. Ist es achsensymmetrisch können Zylinderkoordinaten die Arbeit erleichtern, ist es punktsymmetrisch, können Kugelkoordinaten von Vorteil sein. In diesem Kapitel werden wir uns anschauen wie man von einem System zu einem anderen kommt, wie man sich eine Basis beschafft, und wie Bahnkurven in den neuen Koordinaten aussehen. Zu Beginn führen wir uns vor Augen, dass eine Koordinatentransformation nichts Neues ist, danach werden wir sie Allgemein einführen und uns einige Beispiele betrachten. 5.1 Koordinatentransformationen sind nichts Neues Betrachten wir eine Aufgabe die schon in der Schule drankommen kann, man soll ein bestimmtes Integral berechnen. Eine Lösungsmethode ist die Substitution. Betrachten wir ein Beispiel. Beispiel 5.1 ´ ´ Berechne die Stammfunktion F (u) von f (u) = e2u , also F (u) = f (u)du = e2u du. . Dazu substituieren wir x(u) = 2u = x, und erhalten dd xu = 2 ⇒ du = dx 2 Die Substitution ist nichts anderes, als das Einführen einer neuen Koordinate x, die von u abhängt. Das Integral transformiert sich damit zu ˆ ˆ dx 1 2u e du −→ ex = ex , 2 2 in der neuen Koordinate x. Gehen wir nun wieder zurück auf die alte Koordinate u, erhalten wir: ˆ 1 e2u = e2u . 2 Führt man die gleiche Transformation bei einem bestimmten Integral durch, so muss 28 man die Integralgenzen mit transformieren. ˆ a b 2u e du −→ ˆ x(b) ex x(a) dx . 2 5.2 Benötigte Begriffe Bevor wir die Koordinatentransformation definieren, wollen wir noch ein paar Begriffe im Kontext von Abbildungen einführen. Definition 5.1 Sei f : M → N eine Abbildung, A ⊆ M, B ⊆ N. a) f (A) := y ∈ N|∃x ∈ A : y = f (x) heißt das Bild von A unter der Abbildung f . b) f −1 (B) := x ∈ M|f (x) ∈ B heißt Urbild von B unter f . c) Die Abbildung f|A : A → N : x 7→ f (x) heißt Einschränkung von f auf A. d) f heißt injektiv, falls gilt ∀x, x′ ∈ M : f (x) = f (x′ ) ⇒ x = x′ , d.h. zwei verschiedene Elemente von M werden durch f nicht auf dasselbe Element in N abgebildet. e) f heißt surjektiv, falls gilt ∀y ∈ N∃x ∈ M : y = f (x) , d.h. f (M) = N, d.h. jedes Element von N kommt als Bild unter f vor. f ) f heißt bijektiv, falls f injektiv und surjektiv ist. Lemma 5.1 (Inverse) Ist f bijektiv so existiert eine eindeutig bestimmte inverse Abbildung f −1 : N → M und ist ebenfalls bijektiv. Es gilt f −1 f (x) = x, und f f −1 (y) = y. Jetzt haben wir alle Zutaten um die Koordinatentransformation allgemein einzuführen. 5.3 Koordinatentransformation Wir definieren zuerst, was wir unter einer Koordinatentransformation verstehen wollen. Definition 5.2 (Koordinatentransformation) Seien U, X Gebiete in Rn . Sei Q : U → X eine C s -Abbildung mit 1 ≤ s ≤ ∞. Q heißt Koordinatentransformation der Klasse C s von U auf X, wenn gilt 29 a) Q ist bijektiv. b) Ihre Umkehrfunktion Q−1 : X → U ist ebenfalls von der Klasse C s . Die Variablen u = (u1, . . . , un ) ∈ U beschreiben die Punkte x ∈ X durch krummlinige Koordinaten u1 , . . . , un mit Q1 (u1 , . . . , un ) .. n Rn ∋ x = Q(u) = Q(u1 , . . . , un ) = ∈R . . Qn (u1 , . . . , un ) Wir brauchen die Differenzierbarkeit von Q, damit wir, wie wir später sehen werden, Basisvektoren bestimmen können. Die Bijektivität brauchen wir, damit jedem Punkt in U genau ein Bildpunkt in X zugeordnet wird, und auch jeder Punkt in X ein Urbild hat. Würden zwei verschiedene Vektoren aus U auf den gleichen Vektor in X abgebildet, so bekämen wir ein Problem, ebenso wenn wir Punkte in X hätten, die wir nicht von U aus erreichen könnten. Die Inverse von Q brauchen wir wenn wir wieder in die alten Koordinaten zurück möchten. 5.3.1 Basis Nun wollen wir uns in den neuen Koordinaten eine Basis beschaffen. Das heißt eine minimale Menge von Vektoren, die den gesamten Raum aufspannen wenn sie linear kombiniert werden. Bestimmung der Basisvektoren Die Basisvektoren hängen im Allgemeinen von u ab. Man stellt sie sich am Punkt x = Q(u) “angeheftet” vor. Lemma 5.2 Man bestimmt den Basisvektor bj (u) ∈ Rn bezüglich der Komponente uj von u wie folgt ∂ Q (u) 1 ∂ uj . ∂Q .. bj (u) := ∂j Q(u) = (u) = j ∈ {1, . . . , n} . ∂uj ∂ Q (u) ∂ uj n Durch die partielle Ableitung nach der j-ten Komponente erfasst man die Änderung von Q bezüglich dieser Komponente. 30 Q1 (u) Beispiel 5.2 Im R3 wäre Q(u) = Q2 (u) und der Basisvektor bezüglich der ersten Komponente Q3 (u) b1 (u) = ∂1 Q(u) = ∂ Q1 (u) ∂∂u1 ∂ u1 Q2 (u) ∂ Q (u) ∂ u1 3 . Damit können wir Basisvektoren b1 (u), . . . , bn (u) bestimmen, doch oft fordert man noch mehr. Um Rechnungen einfacher zu gestalten wollen wir, dass die Basisvektoren paarweise orthogonal sind. Das heißt, taucht in Rechnungen ein Skalarprodukt zweier Basisvektoren auf, dann ergibt es null wenn sie verschieden sind. Definition 5.3 Eine Koordinatentransformation Q : U → X heißt orthogonal, wenn für j 6= k gilt bj (u) · bk (u) = 0 , also ihr Skalarprodukt Null ergibt. Man sagt “Q führt orthogonale Koordinaten ein.” Wollen wir die Basisvektoren zusätzlich normieren, so müssen wir sie durch ihre Länge dividieren. Lemma 5.3 Die Länge eines Basisvektors bj (u) ist Lj = |bj | = p bj · bj j ∈ {1, . . . , n} . Der entsprechende Einheitsvektor b̂j ist dann der Basisvektor, dividiert durch seine Länge. 1 b̂j = bj . Lj Anmerkung 5.1 Die Basisvektoren bj sind nichts anderes als die j-ten Spalten der Jacobimatrix von Q ∂1 Q1 (u) . . . ∂n Q1 (u) .. .. JQ(u) = . . . ∂1 Qn (u) . . . ∂n Qn (u) Der Basisvektor b1 , zum Beispiel, ist gerade die erste Spalte der Jacobimatrix. Weitere relevante Größen, die sich aus den Basisvektoren und ihren Längen berechnen lassen sind in der folgenden Definition zusammengefasst. 31 Definition 5.4 • Längenelement: dsj = Lj duj . Q Q • Volumenelement: dV = ni=1 dsi = ni=1 Li dui . Einige Beispiele verdeutlichen das Konzept. Dabei folgt jedes Beispiel dem gleichen Muster: a) Berechnen der Jacobimatrix JQ. Der Basisvektor bj ist die j-te Spalte von JQ. b) Länge Lj der Basisvektoren bj berechnen und ggf. bj normieren. Beispiel 5.3 Betrachten wir den einfachsten Fall, wir benennen unsere Koordinaten lediglich um. Wir haben dann folgende Transformation Q, mit x = Q(u), n = 2, und ! ! ! x1 Q1 (u1 , u2 ) u1 x= = = . x2 Q2 (u1 , u2 ) u2 Aufstellen der Jacobimatrix JQ = ! ∂u1 Q1 (u) ∂u2 Q1 (u) = ∂u1 Q2 (u) ∂u2 Q2 (u) Die Basisvektoren sind also orthonormal. ! 1 b̂1 = 0 b̂2 = 0 1 ! 1 0 0 1 ! . . Wie man hier sieht, hängen die Basisvektoren nicht mehr von den Koordinaten ui ab. Beispiel 5.4 Betrachten wir die Koordinatentransformation die eine Streckung des Koordinatensystems bewirkt. x = Q(u), n = 2, mit ! ! ! x1 Q1 (u1 , u2 ) 2u1 x= = = . x2 Q2 (u1 , u2 ) 2u2 Aufstellen der Jacobimatrix JQ = ! ∂u1 Q1 (u) ∂u2 Q1 (u) = ∂u1 Q2 (u) ∂u2 Q2 (u) 2 0 0 2 ! . Die Basisvektoren sind orthogonal, aber noch nicht normiert. Die Länge ist für beide Basisvektoren L = 2, damit folgt ! ! b1 b2 1 0 b̂1 = = = . b̂2 = 0 1 L1 L2 32 Wie man hier sieht, hängen die Basisvektoren nicht mehr von den Koordinaten ui ab. 5.3.2 Ausblick auf weitere Eigenschaften der Jacobimatrix der Koordinatentransformation Die folgenden Eigenschaften werden in ihrer vollen Bedeutung erst in der Linearen Algebra klar, sollen hier aber zumindest erwähnt werden. Sie zeigen das Zusammenspiel von Analysis und Linearer Algebra. Lemma 5.4 Hat Q wie gefordert ein Inverses, dann gilt a) JQ hat vollen Rang. b) det(JQ) 6= 0. Dies bedeutet, dass die Spalten in der Tat eine Basis für den Rn bilden. Es gibt noch weitere Bestandteile der Koordinatentransformation die man sehr schön anhand der Jacobimatrix sehen kann. Lemma 5.5 Sei JQ die Jacobimatrix der orthogonalen Koordinatentransformation Q, dann gilt a) Die Längen Lj der Basisvektoren bj sind die Diagonaleinträge der Matrix die aus dem Produkt von JQ transponiert mit JQ entsteht. L1 L 2 t . (JQ) (JQ) = L3 .. . 0 0 b) Ist Q eine orthogognale Koordinatentransformation und sind die Basisvektoren der Länge 1, dann gilt sogar 1 1 t = 1n . (JQ) (JQ) = 1 .. . 0 0 c) Für das Volumenelement dV gilt dV = | det(JQ)| 33 n Y i dui . 5.4 Ebene Polarkoordinaten Am Beispiel der ebenen Polarkoordinaten werden wir sehen, dass die Basisvektoren durchaus von den Koordinaten abhängen können. In der Regel tun sie das auch. Hier hilft es vielleicht, nicht die Abhängigkeit der Basis von den Koordinaten als Ausnahme zu sehen, sondern vielmehr die Konstanz der kartesischen Basis als Ausnahme. Im Folgenden betrachten wir die ebenen Polarkoordinaten. Da diese eine gute Gelegenheit bieten das Rechnen in neuen Koordinaten zu üben, haben wir ihnen einen eigenen Abschnitt gewidmet. Notation 5.1 Um im Einklang mit der üblichen Literatur zu sein, verwenden wir hier folgende Notation: x := x1 r := u1 y := x2 ϕ := u2 Die normierten Basisvektoren nennen wir êϕ := b̂ϕ êr := b̂r Weiterhin fordern wir, um eine bijektive Koordinatentransformation zu erhalten: r > 0 und 0 ≤ ϕ < 2π . Jetzt verfahren wir wie gewohnt. Wir schreiben die Koordinatentransformation hin. Ebene Polarkoordinaten entstehen durch die folgende Koordinatentransformation Q, mit x = Q(u) und n = 2. ! ! ! r cos ϕ Qr (r, ϕ) x , = = r sin ϕ Qϕ (r, ϕ) y und stellen die Jacobimatrix auf JQ = ∂r Qr ∂r Qϕ ∂r Qϕ ∂ϕ Qϕ ! = Daran lesen wir direkt die Basisvektoren ab ! cos ϕ br = , sin ϕ ! − sin ϕ bϕ = r cos ϕ ! cos ϕ −r sin ϕ . sin ϕ r cos ϕ Lr = 1 , Lϕ = r . Der Basisvektor bϕ muss noch normiert werden, damit erhalten wir die beiden normierten 34 Basisvektoren êr = b̂r = cos ϕ sin ϕ ! êϕ = b̂ϕ = − sin ϕ cos ϕ ! Man beachte, dass diese Basisvektoren von den Koordinaten abhängen. Auch sieht man, dass die Beschränkung auf r > 0 sinnvoll war, da man für diesen Fall bϕ nicht normieren könnte. Der folgende Abschnitt wird zeigen wie man mit den neuen Koordinaten rechnet. Dies zeigen wir an der Beschreibung einer Bahnkurve in ebenen Polarkoordinaten. 5.4.1 Bahnkurve in ebenen Polarkoordinaten Eine Bahnkurve ist eine “Bahn” im Raum, die von einem Parameter t ∈ R abhängt. Definition 5.5 (Bahnkurve in ebenen Polarkoordinaten) Die Bahnkurve R2 ∋ x(t) = (x(t), y(t))t , lautet in ebenen Polarkoordinaten ! ! x(t) r(t) cos ϕ(t) R2 ∋ x(t) = = = r(t)êr (t) . y(t) r(t) sin ϕ(t) Anmerkung 5.2 Hier taucht leider einmal x(t) als Bahnkurve selbst und als Komponente der Bahnkurve auf. Was jeweils gemeint ist wird hoffentlich durch den Kontext klar. Die Bahnkurve “lebt” im R2 , die Komponente im R. Man beachte hier, dass die neuen Koordinaten ebenfalls von t abhängen. Dies sollte nicht verwundern: die Koordinaten x, y sind zeitabhängig und um dies in den neuen Koordinaten r, ϕ ausdrücken zu können, “erben” diese praktisch die Zeitabhängigkeit. Sie geht damit auch über auf die Basisvektoren êi . Wie wir gleich sehen werden, bedeutet dies auch, dass die Zeitabhängigkeit der Basisvektoren êi auch beim Differenzieren berücksichtigt werden muss. Dies sieht man schon bei der Bahngeschwindigkeit in ebenen Polarkoordinaten. Definition 5.6 (Bahngeschwindigkeit in ebenen Polarkoordinaten) Die Bahngeschwindigkeit R2 ∋ v(t) ist die Zeitableitung der Bahnkurve x(t). v(t) = ẋ(t) = d (rêr ) = ṙêr + r ê˙ r , dt mit der Zeitableitung des Basisvektors êr ! ! d ê d ϕ d ê d cos ϕ(t) − sin ϕ(t) r r = = ϕ̇ = ϕ̇ = ϕ̇(t)êϕ (t) . ê˙ r (t) = cos ϕ(t) d t sin ϕ(t) dϕ dt dϕ 35 Die zweite Gleichheit folgt nach der Kettenregel. Die letzte Gleichheit folgt durch den Vergleich des Vektors (− sin ϕ, cos ϕ)t mit dem Basisvektor êϕ . Einsetzen in die Bahngeschwindigkeit ergibt damit: v(t) = ṙêr + r ϕ̇êϕ . Man nennt ϕ̇ die Winkelgeschwindikeit. Durch erneutes Ableiten nach der Zeit erhalten wir die Bahnbeschleunigung. Definition 5.7 (Bahnbeschleunigung in ebenen Polarkoordinaten) Die Bahnbeschleunigung R2 ∋ a(t) ist die Zeitableitung der Bahnbeschleunigung. a(t) = v̇(t) = ẍ(t) = d ṙêr + r ϕ̇êϕ = r̈êr + ṙê˙ r + ṙ ϕ̇êϕ + r ϕ̈êϕ + r ϕ̇ê˙ ϕ , dt mit der Zeitableitung des Basisvektors êϕ ! ! d êϕ d ϕ d − sin ϕ(t) − cos ϕ(t) = = ϕ̇ = −ϕ̇(t)êr (t) . ê˙ ϕ (t) = cos ϕ(t) − sin ϕ(t) dt dϕ dt Die zweite Gleichheit folgt nach der Kettenregel und die letzte Gleichheit folgt durch Vergleich des Vektors (− sin ϕ(t), − cos ϕ(t)) mit dem Basisvektor êr . Einsetzen in die Bahnbeschleunigung ergibt: a(t) = r̈êr + ṙϕ̇êϕ + ṙϕ̇êϕ + r ϕ̈êϕ + r ϕ̇(−ϕ̇)êr = r̈ − r ϕ̇2 êr + (r ϕ̈ + 2ṙϕ̇) êϕ . Der Winkel zwischen Bahnkurve und Bahngeschwindigkeit berechnet sich zu hx, ẋi = r(t)êr · ṙ(t)êr (t) + r(t)ϕ̇(t)êϕ (t) = r(t)ṙ(t) . 5.4.2 Vergleich kartesische Koordinaten und ebene Polarkoordinaten Betrachten wir eine Kreisbahn. Einmal stellen wir sie in kartesischen Koordinaten dar, einmal in ebenen Polarkoordinaten. Man sieht hier schon, dass neue Koordinaten manche Rechnungen vereinfachen können. Kreis mit Radius 1 in kartesischen Koordinaten • Kreisgleichung: x2 + y 2 = 1. ! cos(t) = cos(t)êx + sin(t)êy . • Bahnkurve: x(t) = sin(t) 36 • Bahngeschwindigkeit: v(t) = − sin(t)êx + cos(t)êx . • Bahnbeschleunigung: a(t) = − cos(t)êx − sin(t)êy . Kreis mit Radius 1 in Polarkoordinaten • Bahnkurve: x(t) = êr , da r(t) = 1 und ϕ(t) = t. • Bahngeschwindigkeit: v(t) = rêϕ , tangential zur Bahnkurve. • Bahnbeschleunigung: a(t) = −rêr , radial nach Innen. Was davon sieht einfacher aus? 37 6 Volumenintegral In diesem Kapitel beschäftigen wir uns mit dem Volumenintegral. Wie der Name schon suggeriert ist es ein Integral über ein Volumen. Dabei wollen wir Volumen zuerst allgemeiner Verstehen als das “normale” Volumen im R3 . In der allgemeinen Form im Rn ist ein n-faches Mehrfachintegral ein Volumen. Um das Volumen zu erhalten berechnet man ein Mehrfachintegral, dessen Integrationsgrenzen so gewählt sind, dass sie das gewünschte Volumen einschließen. Zusätzlich muss man das entsprechende Volumenenlement des verwendeten Koordinatensystems beachten. 1 Zur Definition und Berechnung des Volumenelements, siehe Definition 5.4 in Abschnitt 5.3. Das eigentliche Volumenintegral definieren jetzt. Definition 6.1 (Volumenintegral) Das Integral über ein Volumen V ∈ Rn nennen wir Volumenintegral. Sei f : Rn → R eine Abbildung. Dann gilt für das Volumenintegral von f über das Volumen V : ˆ V f dV = ˆ b1 ... a1 ˆ bn f (u1, . . . , un ) an n Y Li dui . i=1 wobei die ai , bi so gewählt sind, dass sie das Volumen V umschließen. Für die Definitionen von dV und dui und Li , siehe Definition 5.4 in Abschnitt 5.3. ´ Die Schreibweise V dV ist unabhängig vom verwendeten Koordinatensystem. Im Folgenden werden wir uns einige Anwendungen und Beispiele betrachten. Dabei werden wir uns jedoch auf den R3 beschränken. Zum Einen findet man dort die meisten direkten Anwendungen in den ersten Semestern, zum Anderen ist dort anschaulich was mit “Volumen” gemeint ist. Je nach Anwendung wird die Funktion f unterschiedlich defniert sein. 6.1 Volumen In diesem Abschnitt betrachten wir die Berechnung eines Volumens in diversen Koordinatensystemen. Für die Funktion f gilt hier f = 1. 6.1.1 Kartesische Koordinaten In kartesischen Koordinaten gilt für das Volumenintegral 1 suaberer definieren 38 Definition 6.2 Das Volumen V in kartesischen Koordinaten des R3 berechnet sich zu ˆ ˚ V = dV = dxdydz . V Das Volumenelement ist dV = dxdydz. Um über den gesamten Raum zu integrieren verwendet man das Integral mit den folgenden Grenzen: ˆ ∞ˆ ∞ˆ ∞ V R3 = dx dy dz . −∞ −∞ −∞ 6.1.2 Zylinderkoordinaten In Zylinderkoordinaten gilt für das Volumenintegral Definition 6.3 Das Volumen V in Zylinderkoordinaten des R3 berechnet sich zu ˆ ˚ V = dV = rdrdϕdz . V Das Volumenelement ist dV = rdrdϕdz. Um über den gesamten Raum zu integrieren verwendet man das Integral mit den folgenden Grenzen: ˆ ∞ ˆ 2π ˆ ∞ V R3 = rdr dϕ dz . 0 0 −∞ Beispiel 6.1 Volumen eines Hohlzylinders der Höhe h, mit Außenradius ra und der Wanddicke d. Den Zylinder legen wir mit Symmetrieachse auf die z-Achse. Wir lassen ihn bei z = 0 beginnen, d.h. er endet bei z = h. Siehe Abb. 8.4. Nach der Wahl der entsprechenden Grenzen berechnet sich das Volumen zu r ˆ 2π ˆ 2π ˆ h ˆ ra ˆ ra ˆ ra 1 2 a rdr rdr = 2πh r rdr dϕ VZ = dϕ = 2πh dz = h 2 ra −d ra −d ra −d ra −d 0 0 0 i h = πh ra2 − (rA − d)2 6.1.3 Kugelkoordinaten In Kugelkoordinaten gilt für das Volumenintegral Definition 6.4 Das Volumen V in Kugelkoordinaten des R3 berechnet sich zu ˆ ˚ V = dV = r 2 sin θdrdθ dϕ . V 39 y − − x ra ra d ra ra d y x Abbildung 6.1: Hohlzylinder, Seitenansicht und Draufsicht. Das Volumenelement ist dV = r 2 sin θdrdθ dϕ. Um über den gesamten Raum zu integrieren verwendet man das Integral mit den folgenden Grenzen: ˆ ∞ ˆ π ˆ 2π 2 V R3 = r dr sin θdθ dϕ . 0 0 0 Beispiel 6.2 Volumen einer Kugel mit Radius R. Hier sind die Integrationsgrenzen entsprechend zu wählen. ˆ R ˆ π ˆ 2π ˆ R ˆ π ˆ R 4 2 2 VK = r dr sin θdθ dϕ = 2π r dr sin θdθ = 4π r 2 dr = πR3 3 0 0 0 0 0 0 6.2 Masse Die Berechnung einer Masse die in einem Volumen mit Dichteverteilung f = ρ enthalten ist, erfolgt über Volumenintegrale. Definition 6.5 (Masse) Sei f = ρ(u1 , u2 , u3 ) eine Dichteverteilung. Die in einem Volumen V enthaltene Masse M berechnet sich zu ˆ M= ρdV . V 40 Ist ρ = ρ0 = konstant, dann gilt M = ρ0 ˆ dV . V In der Berechnung wird die Funktion ρ, die von den Koordinaten abhängt, über das Volumen V integriert. Beispiel 6.3 Wir Berechnen die Masse eines Vollzylinders der Höhe h und Radius R. Die Dichteverteilung sei ρ = ρ0 e−αr , α ∈ R konstant. Die Masse des Vollzylinders berechnet sich dann zu ˆ ˆ R ˆ h ˆ 2π ˆ R −αr M= ρdV = dr dz dϕρ0 e = 2πhρ0 dr re−αr V 0 0 0 0 2πhρ0 = 1 − e−αR αR + 1) α2 6.3 Schwerpunkt Im diskreten Fall, in dem man kleine Massen der Masse mi am Ort ri ∈ R3 betrachtet definiert man den Schwerpunkt. Definition 6.6 Der Schwerpunkt rS ∈ R3 von N Massen, die jeweils die Masse mi und den Ort ri ∈ R3 haben, mit i ∈ {1, . . . , N}, berechnet sich zu 3 R ∋ rS = PN mi ri Pi=1 N i=1 mi = PN mi ri , M i=1 P mit der Gesamtmasse M = N i=1 mi . Nimmt man weiterhin an, dass jede Masse, das kleine Volumen Vi einnimt mit der Ortsabhängigen Dichte ρ(ri ), lässt sich der Schwerpunkt auch schreiben als N 1 X R ∋ rs = ri ρ(ri )Vi . M i=1 3 Macht man nun den Übergang, dass die Anzahl der Massen N gegen unendlich strebt, also N → ∞ und gleichzeitig die Volumina immer kleiner, so dass sie gegen Null gegen streben, Vi → 0, dann vollzieht man den Übergang zu einem kontinuierlichen Körper. In diesem Fall können wir von einer Summe zu einem Integral übergehen ˆ ˆ X ri mi → rdm = rρ(r)dV . V V In diesem Fall ist der Schwerpunkt 41 R y z R x x Abbildung 6.2: Halbkugel, Draufsicht und Seitenansicht. Definition 6.7 Der Schwerpunkt rS ∈ R3 , einer Dichteverteilung ρ in einem Volumen V ist definiert als ˆ ˆ 1 1 3 r dm = ρ(r)dV , R ∋ rS = M V M V ´ dabei ist r ∈ R3 und M = V ρdV die Gesamtmasse. Anmerkung 6.1 Ist die Dichteverteilung ρ = ρ0 also konstant, dann kann man das Integral umschreiben zu: ˆ ˆ ˆ ˆ ρ0 ρ0 1 1 rs = rρ0 dV = rdV = rdV = rdV . M V M V V ρ0 V V V Anmerkung 6.2 Der Schwerpunkt ist ein Vektor im R3 , das heißt er hat drei Komponenten. ´ ˆ rS1 r ρdV 1 1 ´V 1 rS = rS2 = rρdV = ´V r2 ρdV . M V M rS3 r ρdV V 3 Die Integration wird Komponentenweise ausgeführt. Beispiel 6.4 Der Schwerpunkt einer Halbkugel, die mit der flachen Seite in der x − y-Ebene liegt, mit der z-Achse durch die Kreismitte. Die Dichteverteilung sei homogen, das heißt ρ = ρ0 . Siehe Abb. 6.2. Wir berechnen nacheinander die drei kartesischen Komponenten des Schwerpunktvektors rS ∈ R3 . • x-Komponente: Wir drücken x in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt x = r sin θ cos ϕ, damit erhalten wir ˆ π ˆ ˆ 2π 2 1 R 2 dr r rSx = dθ sin θ dϕ r sin θ cos ϕ = 0 , V 0 0 0 42 da die Integration über eine volle Periode des Cosinus Null ergibt. Also rSx = 0 . • y-Komponente: Wir drücken y in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt y = r sin θ sin ϕ, damit erhalten wir ˆ 2π ˆ π ˆ 2 1 R 2 rSy = dθ sin θ dϕ r sin θ sin ϕ = 0 , dr r V 0 0 0 da die Integration über eine volle Periode von sin ϕ gerade Null ergibt. Also rSy = 0 . • z-Komponente: Wir drücken z in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt z = r cos θ, damit erhalten wir ˆ ˆ 2π ˆ ˆ 2π ˆ π ˆ π 2 2 1 R 1 R 2 3 rSz = dθ sin θ dθ sin θ cos θ dr r dϕ r cos θ = dr r dϕ V 0 V 0 0 0 0 0 ˆ ˆ ˆ π 2 2π R π R π1 4 3 = dθ sin θ cos θ = dr r drr 3 = R . V 0 V 0 V 4 0 Dieses Ergebnis kann man noch etwas vereinfachen wenn man verwendet, dass das Volumen V einer Halbkugel gerade 32 πR3 ist. damit erhält man 3 rSz = R . 8 Der Schwerpunkt unserer Halbkugel liegt also bei 0 3 R ∋ rS = 0 . 3 R 8 Dass die x, y-Komponenten Null ergeben, hätte man allein durch Symmetriebetrachtungen erkennen können, da eine Halbkugel symmetrisch zur z-Achse ist. 43 6.4 Trägheitsmoment Definition 6.8 Das Trägheitsmoment I bezüglich einer Drehachse d ist definiert als ˆ ˆ 2 2 I= r⊥ (r)dm = r⊥ (r)ρdV . V V Dabei ist r⊥ der senkrechte Abstand eines Raumpunktes r von der Drehachse d. 2 Beispiel 6.5 Wir berechnen das Trägheitsmoment einer Kugel, die um eine Achse d rotiert. Die Achse d verlaufe entlang der z-Achse und gehe durch den Mittelpunkt der Kugel mit Radius R und homogener Dichte ρ0 . Der senkrechte Abstand r⊥ = r sin θ. ˆ R ˆ π ˆ 2π ˆ 2 sin θ} I = ρ0 r⊥ dV = ρ0 dr dθ dϕ (r sin θ)2 |r 2 {z | {z } V 0 0 0 von dV 2 =r⊥ = 2πρ0 ˆ R dr 0 ˆ 0 π 2 dθr 4 sin3 θ = πρ0 R5 5 ˆ π dθ sin3 θ = 0 8 2 4 πρ0 R5 = R2 ρ0 πR3 15 5 3 2 = R2 MKugel . 5 Beispiel 6.6 Trägheitsmoment eines Hohlzylinders homogener Dichte ρ0 , mit Außenradius ra , Wanddicke d und Höhe h, der in der x − y-Ebene beginnt und sich nach Oben erstreckt. Die z-Achse ist Symmetrieachse. Die Drehachse d sei identisch mit der z-Achse. Der senkrechte Abstand zur Drehachse ist r⊥ = r. ˆ 2π ˆ h ˆ ˆ ra 2 dr dϕ I = ρ0 r⊥ dV = ρ0 dz |{z} r 2 |{z} r ra −d V = 2πρ0 ˆ ra ra −d dr ˆ 0 h dzr 3 = 2πρ0 h 0 i h 1 = πρ0 h ra4 − (ra − d)4 . 2 0 ˆ 2 von dV =r⊥ ra drr 3 ra −h Beispiel 6.7 Trägheitsmoment eines Quaders, mit einer Ecke in (0, 0, 0), der sich in positive Koordiantenrichtung erstreckt. Länge L in x-Richtung, a in y-Richtung und Länge b in z-Richtung. Die Massedichte sei homogen ρ0 , und die Drehachse d sei identisch mit der p 2 2 z-Achse. Das bedeutet für den senkrechten Abstand zur Drehachse: r⊥ = x + y . Siehe 2 Bild einfügen 44 z b x a L y Abbildung 6.3: Quader der sich um z-Achse dreht. Abb. 6.3. ˆ L ˆ b 2 2 I = ρ0 = ρ0 dx dy dz x + z = ρ0 a dx dz x2 + z 2 V 0 0 0 0 0 b ˆ L ˆ L 1 1 1 dx x2 b + 3 = L2 + b2 ρ0 abL = ρ0 a dx x2 z + z 3 = ρ0 a 3 3b 3 0 0 0 1 2 = L + b2 MQuader 3 ˆ ˆ 2 r⊥ dV L a ˆ ˆ b Beispiel 6.8 a) Trägheitsmoment einer Halbkugel homogener Massendichte ρ0 , die mit der Flachen Seite in der x − y-Ebene liegt mit der Halbkugel nach Oben, zentriert um die zAchse. Die Drehachse ist die z-Achse. Der senkrechte Abstand zur Drehachse ist r⊥ = r sin θ. ˆ ˆ R ˆ π ˆ 2π 2 2 2 2 sin θ} Iz = ρ0 r⊥ dV = ρ0 dr dθ dϕ |r 2 sin {z θ} |r {z 0 V = 2πρ0 ˆ R dr 0 ˆ 0 π 2 0 0 2 dθr 4 sin3 θ = πρ0 R5 5 2 =r⊥ ˆ 0 π 2 von dV dθ sin3 θ = 4 πρ0 R5 15 1 = R2 MKugel 5 b) Trägheitsmoment der obigen Halbkugel, mit der x-Achse als Drehachse. Hier ist 45 r⊥ = r cos θ. Ix = ρ0 ˆ 2 r⊥ dV = ρ0 0 V R ˆ R dr ˆ π 2 0 π 2 dθ ˆ 0 2π 2 2 sin θ} dϕ |r 2 cos {z θ} |r {z 2 =r⊥ 2 dθr 4 cos2 θ sin θ = πρ0 R5 5 0 0 1 1 2 2 R MKugel = πρ0 R5 = 15 2 5 1 = Iz 2 = 2πρ0 ˆ dr ˆ 46 ˆ 0 von dV π 2 dθ cos2 θ sin θ 7 Analogien zwischen Tanslation und Rotation Viele Größen, die eine Translationsbewegung beschreiben, haben eine Entsprechung für die Rotationsbewegung. Während die Tranlsationen schon aus der Schulzeit bekannt sind, sind die Rotationen weniger vertraut. Vielleicht helfen die unten aufgeführten Analogien, sich die relevantesten Größen besser einzuprägen. Die Tabelle stellt Translation und Rotation gegenüber und zeigt die identische Struktur auf. • Weg: x • Winkel: ϕ • Masse: m • Trägheitsmoment: I • Geschwindigkeit: v = ẋ • Winkelgeschwindigkeit: ω = ϕ̇ • Impuls: p = m · v = m · ẋ • Drehimpuls: L = I · ω = I · ϕ̇ • Kraft: F = dd pt = • Drehmoment: D = ddLt = d (I·ω) = I · ω̇ = I · ϕ̈ dt d (m·v) dt = m · v̇ = m · ẍ • Kinetische Energie: Ekin = 21 mv 2 • Rotationsenergie: Erot = 21 Iω 2 47 8 Potential und Phasenraum Definition 8.1 (Kinetische Energie) Die kinetische Energie eines Teilchens mit Masse m und Geschwindigkeit v = ṙ ∈ Rn ist definiert als 1 1 Ekin = mṙ 2 = mv 2 . 2 2 Definition 8.2 (Potentielle Energie) Sei die wirkende Kraft F ∈ Rn als negativer Gradient eines Skalarfeldes V (r) ∈ R, das vom Ort r ∈ Rn abhängt, darstellbar, also F (r) = −∇V (r) , dann bezeichnet man V (r) als potentielle Energie Epot . Definition 8.3 Gesamtenergie 1 E = Eges = Ekin + Epot = mv 2 + V (r) . 2 Definition 8.4 Eine Erhaltungsgröße O ist zeitlich konstant, sie ändert sich nicht mit der Zeit, d.h. dO = Ȯ = 0 dt Satz 8.1 Die Gesamtenergie ist für Gradientenfelder eine Erhaltungsgröße. E = Ekin + Epot = konstant . 48 Beweis dE d m 2 d m = ṙ + V (r) = ṙ ṙ + V (r) dt dt 2 dt 2 dV dr m · = (r̈ ṙ + ṙr̈) + = mr̈ ṙ + ∇V · ṙ 2 |d r {z d t} Kettenregel ∇V = ṙ (F − F ) = ṙ |{z} mr̈ + |{z} =F =−F =0 . 8.1 Periodendauer Die Periodendauer eines Teilchen, das sich gebunden in einem eindimensionalen Potential bewegt ist die Zeit, die es benötigt einen kompletten “Umlauf” durchzuführen. Definition 8.5 (Periodendauer) Seien x0 = x(t0 ) und x1 = x(t1 ) die beiden Umkehrpunkte eines Teilchens, das sich mit Gesamtenergie E in einem eindimensionalen Potential V (x) bewegt. Die Periodendauer ist die Zeit die es benötigt um den Weg x0 → x1 → x0 zurückzulegen. Die Periodendauer T berechnet sich zu ˆ x1 1 q T =2 dx . 2 x0 E − V (x) m Beweis Für eine halbe Periode braucht das Teilchen die Zeit t1 − t0 , und damit für eine volle Periode offensichtlich 2(t1 − t0 ). Dies kann man schreiben als ˆ t1 T = 2(t1 − t0 ) = 2 dt . (8.1) t0 Dieses Integral werden wir nun geschickt umformen. Es gilt für die Geschwindigkeit v = dd xt , was wir nach dt auflösen können um dt = dx zu v erhalten. Nun lösen wir die Gleichung der Gesamtenergie, siehe Definition 8.3, nach der Geschwindigkeit v auf und erhalten r 2 E − V (x) . v= m 49 Diese Ergebnisse setzen wir in Gleichung (8.1) ein T =2 ˆ t1 dt = 2 t0 ˆ x1 =x(t1 ) x0 =x(t0 ) dx =2 v ˆ x1 x0 q 1 1 2 E − V (x) dx . 8.2 Phasenraum Definition 8.6 Ein Teilchen mit f Freiheitsgraden der Bewegung hat f Ortskoordinaten xi , i ∈ {1, . . . , f }, also ist x = (x1 , . . . , xf )t ∈ Rf . Beispiel 8.1 a) Eine eindimensionale Bewegung hat einen Freiheitsgrad der Bewegung. Das Teilchen bewegt sich zum Beispiel entlang der x-Achse. Hier ist f = 1 und wir brauchen eine Ortskoordinate um das Teilchen eindeutig zu lokalisieren. b) Eine zweidimensionale Bewegung hat zwei Freiheitsgrade der Bewegung. Das Teilchen bewegt sich zum Beispiel in der x, y-Ebene. Hier ist f = 2 und wir brauchen zwei Ortskoordinaten um das Teilchen eindeutig zu lokalisieren. Das Teilchen hat auch f Freiheitsgrade im Geschwindigkeitsraum. Der Geschwindigkeitsvektor ist nämlich gerade die Zeitableitung des Ortsvektors, v = ẋ ∈ Rf . Beispiel 8.2 Ein Teilchen mit einem Freiheitsgrad der Bewegung hat eine “Geschwindigkeitskoordinate”. Definition 8.7 Ein System von N Teilchen, jedes mit f Freiheitsgraden der Bewegung, hat n = fN , Freiheitsgrade. Beispiel 8.3 a) Ein System mit nur einem Teilchen, das 3 Freiheitsgrade der Bewegung hat, f = 3, hat n = 1 · 3 = 3 Freiheitsgrade. b) Ein System aus 1 × 1023 Teilchen, mit je 3 Freiheitsgraden der Bewegung, hat n = 3 × 1023 Freiheitsgrade. Definition 8.8 Der Ortsvektor x des Systems ist aus dem Rn , N Teilchen und f Komponenten pro Teilchen. Analog gilt für den Geschwindigkeitsvektor v = ẋ des Systems: v ∈ Rn . 50 Definition 8.9 Der Phasenraum ist ein 2n-dimensionaler Raum P. Ein klassisches System von N-Teilchen mit jeweils f Freiheitsgraden der Bewegung, wird eindeutig durch einen Punkt p im 2n-dimensionalen, n = f · N, Phasenraum P beschrieben. ! x R2n ∋ p = , v mit x, v ∈ Rn . Die x, v spannen lediglich den Phasenraum P auf. Ein funktionaler Zusammenhang zwischen x, v besteht lediglich entlang der Lösungskurven zu ẋ = v v̇ = ẍ = 1 F (x) , m mit der Kraft F (x). Definition 8.10 Eine Bahnkurve entlang der ein funktionaler Zusammenhang zwischen x und v = ẋ besteht, nennt man Phasenbahn. Im Folgenden betrachten wir einige Beispiele um die Konzepte und Möglichkeiten des Phasenraums näher in Augenschein zu nehmen. Wir betrachten dazu den harmonischen Oszillator, der in vielen Formen immer wiederkehren wird, und das mathematische Pendel. 8.2.1 Harmonischer Oszillator Der harmonische Oszillator ist wie folgt definiert. Definition 8.11 Ein Teilchen der Masse m, mit einem Freiheitsgrad der Bewegung, Koordinate x, das eine rücktreibende Kraft F der Form F =− d V (x) = −kx , dx R ∋ k > 0, erfährt, nennt man harmonischer Oszillator. Das entsprechende Potential ist 1 V (x) = kx2 . 2 Beispiel 8.4 Ein Beispiel für einen harmonischen Oszillator ist eine Masse, die an einer Feder mit Federkonstante k befestigt ist. Für kleine Auslenkungen ist die rücktreibende Kraft linear in x. In diesem Modell vernachlässigt man Effekte wie Reibung, Erwärmung der Feder, etc. 51 Die Bewegungsgleichung erhält man aus mẍ = F als mẍ + kx = 0 , q k was man durch einführen der Abkürzung ω0 = m umschreiben kann zu ẍ + ω02x = 0 . Die Bewegungsgleichung hat die Lösung: x = A sin(ω0 t) ẋ = Aω0 cos(ω0 t) . Damit ergibt sich für die Phasenbahn b im Phasenraum ! ! ! x A sin(ω0 t) sin(ω0 t) b= = =A , v Aω0 cos(ω0 t) ω0 cos(ω0 t) das heißt Ellipsen im Phasenraum. Siehe auch Abb. 8.1. 6 A=2 A=1 A = 0.5 4 v 2 0 -2 -4 -6 -6 -4 -2 0 2 4 6 x Abbildung 8.1: Phasenbahnen des harmonischen Oszialltors für ω0 = 2 und verschiedene Werte von A. 52 8.2.2 Mathematisches Pendel In diesem Abschnitt betrachten wir das mathematische Pendel. Definition 8.12 Ein Massepunkt der Masse m schwingt an einer gewichtslosen Stange der Länge ℓ. Ein Ende dieser Pendelstange ist fest und das System befindet sich im homogenen Gravitationsfeld F = −mgêz . Vernachlässigt man Reibungseffekte und Ähnliches, bildet das System ein mathematisches Pendel. φ ℓ h(φ) h Abbildung 8.2: Schema des mathematischen Pendels und der verwendeten Größen. Um die Position des Massepunktes festzulegen verwenden wir den Winkel φ, der Winkel um den das Pendel aus der Ruhelage ausgelenkt ist. Die Höhe der Masse ergibt sich wie folgt: Sei h die Höhe des Massepunktes in Ruhelage, d.h. φ = 0, dann ergibt sich die Höhe in Abhängigkeit des Winkels als h(φ) = ℓ (1 − cos φ). Siehe ??. Die potentielle Energie der Masse ist damit Epot = mgh = mgℓ (1 − cos φ) . Die Bewegungsgleichungen lassen sich herleiten unter der Annahme, dass sich die Trägheitskraft mℓφ̈ mit der Gravitationskraft in tangentialer Richtung, −mg sin φ, im Gleichgewicht befindet. Damit erhalten wir die Gleichung mℓφ̈ = −mg sin φ , die wir umformen zu g sin φ = 0 , ℓ einer nichtlinearen Differentialgleichung. Bevor wir uns dem Phasenraum zuwenden, betrachten wir das mathematische Pendel für kleine Auslenkungen, d.h. kleine φ. Wir können nun eine Taylorentwicklung für sin φ durchführen. Wir entwickeln bis zur ersten Ordnung und erhalten aus f (x) = Pg f (x0 )(n) (x−x0 )n , mit g = 1 und, da wir um die Null entwickeln x0 = 0: n=0 n! φ̈ + sin φ ≈ 0 + cos 0 φ=φ . 1 53 Die Bewegunsgleichung für kleine Auslenkungen lautet dann g φ̈ + φ = 0 , ℓ was nichts anderes ist, als ein harmonischer Oszillator mit ω0 = pg ℓ . Mathematisches Pendel - Phasenraum ! x Um die Phasenbahn b = zu bestimmen brauchen wir hier neben φ auch φ̇. Letzteres v verschaffen wir uns aus der Gesamtenergie. 1 E = Ekin + Epot = mℓ2 φ̇2 + mgℓ (1 − cos φ) = konst . 2 Da die Gesamtenergie eine Erhaltungsgröße ist, ist sie an den Umkehrpunkten, mit φ = φ0 , gleich der maximalen potentiellen Energie des Pendels, also gilt 1 E = mℓ2 φ̇2 + mgℓ (1 − cos φ) = mgℓ (1 − cos φ0 ) . 2 Diese Gleichung lösen wir nach φ̇ auf und verwenden dass E = mgℓ (1 − cos φ0 ): r 2 φ̇ = ± E − mgℓ (1 − cos φ) mℓ2 r 2 =± mgℓ (1 − cos φ0 ) − mgℓ (1 − cos φ) 2 mℓ r g = ± 2 (cos φ − cos φ0 ) . ℓ Damit ist die Phasenbahn: b= x v ! = ! φ = φ̇ φ p ± 2 gℓ (cos φ − cos φ0 ) ! . Einige Phasenbahnen sind in Abb. 8.3 dargestellt. Man beachte, dass für kleine φ0 , d.h. kleine Auslenkungen, die Phasenbahn ähnlich der eines harmonischen Oszillators ist. • Stabiler Fixpunkt bei (0, 0). Das Pendel “hängt” senkrecht nach unten. • Instabiler Fixpunkt bei (±π, 0). Das Pendel zeigt senkrecht nach oben. Definition 8.13 Stabiler Fixpunkt: Nach einer kleinen Störung verbleibt das System in einer kleinen Umgebung des stabilen Fixpunktes. 54 4 φ0=π φ0= 0.75π φ0= 0.5π φ0= 0.1π 3 2 v 1 0 -1 -2 -3 -4 -π -0.5π 0 0.5π π x Abbildung 8.3: Phasenbahnen des mathematischen Pendels. Abbildung 8.4: Mathematisches Pendel. Links: Pendelposition beim stabilen Fixpunkt (0, 0). Rechts: Pendelposition beim instabilen Fixpunkt (±π, 0). 55 Definition 8.14 Instabiler Fixpunkt: Nach einer kleinen Störung verlässt das System die Umgebung des instabilen Fixpunktes. Erhöht man stetig die Energie des Pendels, das heißt man lenkt es immer mehr aus, so wird man bei einer bestimmten Energie den Übergang von einer periodischen Bewegung zu einer rotierenden Bewegung feststellen. Die Rotationsbewegung beginnt, wenn die Auslenkung φ0 größer wird als π, d.h. man regt es stark genug an, dass es eine volle Umdrehung ausführen kann. Da Energieerhaltung gilt, wir also keine Reibung, oder sonstigen Effekte haben, wird das Pendel immer weiter rotieren. Betrachten wir im Folgenden was mit der Phasenbahn und der Periodendauer passiert, wenn wir uns der Grenzenergie zwischen Schwingung und Rotation nähern. Wir betrachten den Fall, in dem das Pendel gerade genug Energie hat um den instabilen Fixpunkt (π, 0) zu erreichen. Das heißt φ0 → π. Damit gilt für die Energie E = Epot = mgℓ (1 − cosπ) = 2mgℓ . Die Winkelgeschwindigkeit wird damit zu r 2 φ̇ = ± E − mgℓ (1 − cosφ) mℓ2 mit E = 2mgℓ r 2g (1 + cosφ) ℓ Additionstheorem: 1 + cosφ = 2 cos2 φ2 =± =2 Die Phasenbahn b = r g φ . cos ℓ 2 ! φ , ist die sogenannte Seperatrix, die Schwingungen von Roφ̇ tationen trennt. Betrachten wir nun die dazugehörige Periodendauer. Wir bestimmen zuerst die allgemeine Periodendauer und betrachten danach den Übergang φ0 → π. Die Periodendauer berechnet sich zu ˆ φ1 1 q T =2 dφ 2 φ0 (E − V ) mℓ2 56 Einsetzen von E = mgℓ (1 − cosφ0 ) und V = mgℓ (1 − cos φ) =2 ˆ φ1 φ0 q 1 2 mℓ2 dφ (cos φ − cos φ0 ) Betrachte die Symmetrie des Problems. Betrachte eine halbe Schwingung von φ = 0 nach φ0 =4 ˆ 0 φ0 q 1 2g ℓ dφ = 4 (cos φ − cos φ0 ) s ℓ 2g ˆ 0 φ0 p 1 (cos φ − cos φ0 ) dφ . Betrachten wir den Übergang φ0 → π, d.h. cos φ0 → −1 und die Periodendauer geht über s ˆ s ˆ π ℓ ℓ π 1 1 dφ → ∞ , √ T →T =4 dφ = 2 2g 0 g 0 cos φ cos φ + 1 2 da dieses Integral divergiert. Physikalisch heißt dies: Hat das Pendel genau die Energie zum Erreichen des instabilen Fixpunktes, so nähert es sich diesem unendlich langsam. 57 9 Effektivpotential In diesem Kapitel weichen wir von der bisher üblichen Notation ab. Notation 9.1 Wir verwenden fettgedruckte Symbole für Elemente aus dem R-Vektorraum R3 und “normale” Symbole für deren Beträge. Also r ∈ R3 und r = |r|. Dies wird einige Gleichungen erheblich übersichtlicher machen. Definition 9.1 (Zentralkraftfeld) Sei F ein Vektorfeld, V ein Skalarfeld, r ∈ R3 und R ∋ r = |r|. Ist V (r) ein punktsymmetrisches Potential, können wir unsere Koordinaten so wählen, dass V in Kugelkoordinaten nur vom Abstand zum Ursprung, dem Radialabstand r ∈ R abhängt. V (r) → V (r) . Für das Vektorfeld F gilt damit F (r) = F (r) = −∇V (r) = − dV dV r . êr = − dr dr r Das Vektorfeld F hängt damit nur vom Abstand zum Ursprung ab und weist in radiale Richtung. Man nennt F (r) ein Zentralkraftfeld. Definition 9.2 (Drehimpuls) Der Drehimpuls ist definiert als L = mr × ṙ . Satz 9.1 Der Drehimpuls ist eine Erhaltungsgröße. d L=0 . dt Beweis dV r d dV 1 mr̈ = r × − = (r × r) − =0 . L = m |ṙ {z × ṙ} +mr × r̈ = r × |{z} dt dr r dr r =0 =F 58 Da der Drehimpulsvektor senkrecht auf r und auch senkrecht auf ṙ steht, steht L senkrecht auf der Ebene die von r und ṙ aufgespannt wird. Damit folgt aus L̇ = 0, dass die Bewegung in einer Ebene erfolgt. In dieser Bahnebene führen wir ebene Polarkoordinaten ein r = r(t)êr ṙ = ṙ êr + r ϕ̇êϕ , damit ergibt sich für den Drehimpuls L = m (r × ṙ) = m r r̂r × ṙêr + r ϕ̇êϕ = mr 2 ϕ̇êz . Und für den Betrag von L L = |L| = mr 2 ϕ̇ . Definition 9.3 Die Größe ϕ̇ = L , mr 2 nennt man Winkelgeschwindigkeit. Beschreibt die Bewegung eine Kreisbahn, so gibt die Winkelgeschwindigkeit die Frequenz des Umlaufs an. Betrachten wir nun die kinetische Ekin = 21 mṙ 2 in ebenen Polarkoordinaten. i 1 h 1 1 1 Ekin = mṙ 2 = mṙ · ṙ = m ṙ êr + r ϕ̇êϕ · ṙ êr + r ϕ̇êϕ = m ṙ 2 + r 2 ϕ̇2 . 2 2 2 2 Die kinetsiche Energie kann man hier aufteilen in einen Radialanteil 12 mṙ 2 und einen Winkelanteil 21 mr 2 ϕ̇2 . Verwenden wir nun, dass ϕ̇ = L mr 2 ist, dann erhalten wir 1 L2 1 . Ekin = mṙ 2 + 2 2 mr 2 Betrachten wir nun die Gesamtenergie und verwenden die obigen Ergebnisse Eges = Ekin + Epot = 1 2 mṙ |2 {z } hängt von ṙ ab + L2 + V (r) . 2 } |2mr {z hängt von r ab Den Teil der Gesamtenergie, der nur von r abhängt, fassen wir zum sogenannten Effektivpotential zusammen. 59 Definition 9.4 (Effektivpotential) Das Effektivpotential ist der Anteil der Gesamtenergie der lediglich von der Radialkoordinate r abhängt L2 Veff := + V (r) . 2mr 2 Damit schreibt sich die Gesamtenergie als 1 Eges = mṙ 2 + Veff . 2 Man beachte, dass wir um dieses Ergebnis zu erhalten nur ausgenutzt haben, dass bei einem punktsymmetrischen Potential der Drehimpuls eine Erhaltungsgröße ist. Doch wir können noch mehr über die Bewegung und die Bahn lernen. Wir lösen die Gleichung für die Gesamtenergie nach der Geschwindigkeit auf r 2 ṙ = (E − Veff ) . m Damit können wir weitere Gleichungen gewinnen, unter anderem ˆ t′ t0 dt = ˆ r′ r0 dr = ṙ ˆ r′ r0 woraus sich ergibt wann das Teilchen wo ist t(r) = t0 + q r′ ˆ q r0 dr 2 m (E − Veff ) dr 2 m , . (E − Veff ) Analog kann man die Bahnkurve in Abhängigkeit von der Zeit bestimmen r(t) = r0 + ˆ t′ t0 q dt 2 m . (E − Veff ) Ähnlich können wir auch für den Winkel vorgehen dϕ L ⇒ dϕ = ϕ̇dt = dt 2 dt mr ˆ L t dt′ . ϕ(t) = ϕ0 + m t0 r 2 ϕ̇ = 60 Oder dϕ L L L dr L 1 = ⇒ dϕ = dt = dt = dr 2 2 2 ṙ dt mr 2 mr mr d r mr ˆ r dr ′ L √ . ϕ(r) = ϕ0 + √ 2m r0 r ′2 E − Veff Im nächsten Abschnitt betrachten wir das Keplerproblem. Es ist ein Spezialfall des bisher gezeigten mit V (r) = − αr , und einer weiteren Erhaltungsgröße, dem Runge-Lenz Vektor. 9.1 Keplerproblem Wir betrachten nun das Keplerproblem, auch hier haben wir ein punktsymmetrisches Potential und damit ein Zentralkraftfeld. Das Potential hat hier die Form V (r) = − α . r Es gibt drei Erhaltungsgrößen a) Gesamtenergie: E = Ekin + Epot = 12 mṙ 2 − α r b) Drehimpuls: L = mr × ṙ c) Runge-Lenz Vektor: A = ṙ × L − αr r wir werden nun, allein mit diesen Informationen die Bahn berechnen. Dazu betrachten wir das Effektivpotential L2 Veff = + V (r) , 2mr 2 das ein Minimum bei L2 , r0 = αm hat. Dies ergibt eine Kreisbahn mit Radius r0 , Drehimpuls L und Energie E = − rα0 . Allgemein muss für eine stabile Kreisbahn gelten a) d Veff dr ! =0 b) Minimum des Effektivpotentials. 61 Um die Bahn zu bestimmen betrachten wir den Runge-Lenz Vektor A, für dessen Betrag A gilt 2 α 2 A = A · A = ṙ × L − r r α2 2 α 2 = (ṙ × L) − 2 r (ṙ × L) + 2 r r r α 2 = (ṙ × L) − 2 r (ṙ × L) + α2 . r Jetzt betrachten wir nacheinander die ersten beiden Terme (ṙ × L) = ṙ 2 L2 sin2 β = ṙ 2 L2 , die letzte Gleichheit gilt, da ṙ senkrecht auf L = m(r × ṙ) steht und damit der Winkel β = π2 ist, damit ist sin β = 1. Bleibt der zweite Term 1 1 r (ṙ × L) = (r × ṙ) = LL = L2 . | {z } m m 1 =m L In die Gleichung für A2 eingesetzt erhalten wir 2α 2 α1 2 L + α2 = ṙ 2 L2 − L + α2 A2 = ṙ 2 L2 + 2 r m mr 2α 2 2 + α2 . = L ṙ − mr 1 2 a Nun noch eine weitere Umformung: Wir betrachten die Gesamtenergie E = 2 mṙ − r = m ṙ 2 − m2 αr , was wir in die Gleichung für A2 einsetzen 2 2L2 2L2 A2 = E + α2 = α2 1 + m mα2 E Und damit schlußendlich für A A=α r 1+ 2L2 E = αε . mα2 62 ! . Jetzt ist es nur noch ein kleiner Schritt zur Bahnkurve. Wir betrachtehn das Skalarprodukt von A und r, das wir auf zwei Arten berechnen können α L2 r·r = − αr r m A · r = Ar cos ϕ = αεr cos ϕ . A · r = (ṙ × L) · r − Gleichzetzen und Umformen ergibt L2 − αr = αε cos ϕ m L2 = αεr cos ϕ + αr = r(αε cos ϕ + α = rα (ε cos ϕ + 1) . m Dies nach r aufgelöst und wir haben die Bahngleichung r(ϕ) = L2 1 , mα (1 + ε cos ϕ) was die Gleichung einer Ellipse ist, was wir für Keplersche Planetenbahnen auch erwartet haben. 63 10 Matrizen In diesem Kapitel steigen wir in die Welt der Linearen Algebra ein. Insbesondere in das Thema der Matrizen. Bevor wir in die Details einsteigen hier ein allgemeiner Überblick was Matrizen bedeuten. Matrizen, die auf Vektoren angewendet werden sind lineare Abbildungen zwischen Vektorräumen. Man kann sie als Funktionen betrachten die auf Vektoren wirken. So kann man anstatt f (x, y, z) = (x, 0, 0) auch die Matrixabbildung betrachten x x 1 0 0 y 0 0 0 = 0 . 0 z 0 0 0 Die Addition von Matrizen A + B entspricht dann der Addition zweier Funktionen (fA + fB )(x). Und die Multplikation von Matrizen A ◦ B entspricht der Verkettung von Funktionen fA (fB (x)). Die Invertierung einer Matrix entspricht dem Auffinden einer Umkehrabildung f −1 . Die Komponenten der Matrix sind dabei abhängig von der gewählten Basis des Vektorraums. Darum interessiert man sich für Eigenschaften von Matrizen die unabhängig sind von der gewählten Basis, die Determinante und die Spur. Auch von Interesse ist die Frage, in welcher Basis die Matrix eine besonders einfache Form hat, was uns zur Diagonalisierbarkeit führen wird. Um dies in der Sprache der Linearen Algebra zu untersuchen brauchen wir erst einmal das passende Vokabular. Wir werden erst einmal neue Begriffe einführen um klar sagen zu können was wir meinen. Im Folgenden sei K ein Körper (siehe Definition 2.3). Definition 10.1 (Matrix) Eine m × n Matrix über K ist ein rechteckiges Schema A mit Einträgen aus K a11 a12 · · · a1n a12 a22 · · · a2n A = .. .. .. . . . . am1 am2 · · · amn 64 Oft verwenden wir auch die Schreibweise A = (aij ) . Definition 10.2 Die Menge aller m × n Matrizen über K wird mit Mat (m × n, K) , bezeichnet. Ist m = n, spricht man von quadratischen Matrizen und schreibt kurz Mat (n × n, K) = Mat (n, K) . Definition 10.3 Ist A eine m × n Matrix, dann bezeichnen wir ai = (ai1 , . . . , ain ) , als den i-ten Zeilenvektor von A. Wir bezeichnen a1j aj := ... , amj als den j-ten Spaltenvektor von A. Definition 10.4 Ist A = (aij ) ∈ Mat (m × n, K), so heißt a11 a12 At := .. . a1n die Matrix a21 · · · am1 a22 · · · am2 .. .. , . . a2n · · · amn die Transponierte, oder transponierte Matrix von A. Für At = (a′ij ) gilt a′ij = aji . Manchmal findet man auch AT anstatt At . Fasst man t als Abbildung auf so gilt t : Mat(m × n, K) → Mat(n × m, K) : A 7→ At . Definition 10.5 Sei A = (aij ) ∈ Mat(n, K). Die Einträge aii nennt man die Hauptdiagonaleinträge ( Hauptdiagonale), von A. 65 “Bildlich gesprochen ist das Transponieren eine Spiegelung an der Hauptdiagonalen.” Beispiel 10.1 a) Sei A ∈ Mat(2 × 3, R) = dann ist b) Sei ! 1 2 3 , 4 5 6 1 4 At ∈ Mat(3 × 2, R) = 2 5 3 6 ! B ∈ Mat(2, R) = 7 8 9 10 B t ∈ Mat(n, R) = ! 7 9 . 8 10 dann ist , Lemma 10.1 Eigenschaften der Transposition. Seien A, B ∈ Mat(n, K), dann gilt a) (A · B)t = B t · At b) (At )t = A Anmerkung 10.1 Vektoren im Kn sind Elemente der Menge Mat(n × 1, K). Wir definieren folgende Rechenoperationen. Definition 10.6 Sei A = (aij ), B = (bij ) ∈ Mat(m × n, K). Wir definieren die Matrixaddition +, wie folgt + : Mat(m × n, K) × Mat(m × n, K) → Mat(m × n, K) : (A, B) 7→ A + B , mit a11 + b11 a21 + b21 A + B := (aij + bij ) = .. . a12 + b12 a22 + b22 .. . ··· ··· a1n + b1n a2n + b2n .. . am1 + bm1 am2 + bm2 · · · amn + bmn Die Addition ist komponentenweise definiert. 66 . Beispiel 10.2 Addition zweier!Matrizen. Sei A = 1 2 3 4 und B = ! 8 9 , dann ist 5 6 A+B = ! 1+8 2+9 = 3+5 4+6 9 11 8 10 ! . Lemma 10.2 Das Tupel Mat(m × n, K), + bildet eine abelsche Gruppe. Definition 10.7 Sei A = (aij ) ∈ Mat(m × n, K) und λ ∈ K. Wir definieren folgende Multiplikation · : K × Mat(m × n, K) → Mat(m × n, K) : (λ, A) 7→ λ · A , mit λa11 · · · λa1n .. . λ · A := (λaij ) = ... . λam1 · · · λamn Jede Komponente von A wird mit λ multipliziert. Beispiel 10.3 Multiplikation einer Matrix mit einem Skalar. ! 1 2 Sei λ = 3, A = , dann ist 3 4 λ·A= 3·1 3·2 3·3 3·4 ! = ! 3 6 . 9 12 Wir definieren die Multiplikation zweier Matrizen. Definition 10.8 (Matrixmultiplikation) Sei A = (aij ) ∈ Mat(m × n, K) und B = (bij ) ∈ Mat(n × p, K), das heißt A hat genau so viele Spalten, wie B Zeilen hat. Dann definieren wir die Abbildung ◦ : Mat(m × n, K) × Mat(n × p, K) → Mat(m × p, K) : (A, B) 7→ A ◦ B , mit A ◦ B = C = (cij ) ∈ Mat(m × p, K) und cik = n X aij bjk . j=1 Dabei ist cik der Eintrag in der i-ten Zeile und k-ten Spalte von C. 67 Eine andere Sichtweise ist: cik ist das Skalarprodukt der i-ten Zeile von A, ai , und der k-ten Spalte von B, bk . cik = ai · bk . Beispiel 10.4 Multiplikation von Matrizen. a) Sei Mat(2 × 3, R) ∋ A = 1 2 5 3 4 6 ! gilt A◦B = 7 8 und Mat(3 × 2, R) ∋ B = 9 10, dann 11 12 ! 1 · 7 + 2 · 9 + 5 · 11 1 · 8 + 2 · 10 + 5 · 12 = 3 · 7 + 4 · 9 + 6 · 11 3 · 8 + 4 · 10 + 6 · 12 b) Sei Mat(2, R) ∋ A = ! 1 4 und Mat(2, R) ∋ B = 7 10 A◦B = ! 1 · 2 + 4 · 5 1 · 8 + 4 · 11 7 · 2 + 10 · 5 7 · 8 + 10 · 11 ! 80 88 . 123 136 ! 2 5 , dann gilt 8 11 = ! 13 52 64 166 . c) Anwendung einer Matrix!auf einer Vektor ist “nur” eine Matrixmultiplikation. Sei ! a b x Mat(2, R) ∋ A = und Mat(2 × 1, R) = R2 ∋ x = , dann gilt c d y A◦x= ax + by cx + dy ! ∈ Mat(2 × 1, R) = R2 . Notation 10.1 Wir schreiben oft verkürzend a) λA anstatt λ · A b) AB anstatt A ◦ B Lemma 10.3 Es gelten folgende Rechenregeln. a) Seien x, y ∈ Kn , A, B ∈ Mat(m × n, K), C ∈ Mat(n × p, K) und λ ∈ K, dann gilt i) A(x + y) = Ax + Ay ii) A(λx) = λAx 68 b) Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ Mat(m × n, K), B ∈ Mat(n × p, K) und C ∈ Mat(p × q, K) gilt A ◦ (B ◦ C) = (A ◦ B) ◦ C . c) Sind A, B ∈ Mat(m × n, K) und C, D ∈ Mat(n × p, K), dann gelten die Distributivgesetze i) A ◦ (C + D) = A ◦ C + A ◦ D ii) (A + B) ◦ C = A ◦ C + B ◦ C In [Kor07] wird das dyadische Produkt verwendet im Zusammenhang mit dem Trägheitstensor. Dieses Produkt erscheint auf den ersten Blick etwas seltsam. Wir werden es erst definieren und es dann mit den Mitteln der Matrixmultiplikation neu interpretieren, was es hoffentlich etwas weniger mysteriös erscheinen lässt. Definition 10.9 Das dyadische Produkt ⊗ ist eine Abbildung ⊗ : Km × Kn → Km×n : (x, y) 7→ x ⊗ y , die definiert ist als x ⊗ y = C = (cij ) , mit cij = xi yj . Eine alternative Sichtweise auf das dyadische Produkt ist die Folgende. Anmerkung 10.2 Betrachtet man ⊗ als eine Abbildung von Matrizen, so kann man es wie folgt interpretieren: ⊗ : Mat(m × 1, K) × Mat(n × 1, K) → Mat(m × n, K) : (x, y) 7→ x ◦ y t , dann ist es nichts weiter als ein Produkt von Matrizen: x1 y1 x1 y2 · · · x1 yn x1 x2 y1 x2 y2 · · · x2 yn .. t x ⊗ y = x ◦ y = . ◦ y1 , . . . , yn = .. .. . .. . . . xm xm y1 xm y2 · · · xm yn Beispiel 10.5 Dyadisches Produkt. 69 a) Sei x = 1 2 ! 3 und y = 4, dann gilt 5 1 2 x ⊗ y = x ◦ yt = b) Sei x = 1 2 ! und y = ! ◦ 3 4 5 = ! 3 4 5 . 6 8 10 ! 3 , dann gilt 3 t x⊗y = x◦y = 1 2 ! 70 ◦ 3 4 = 3 4 6 8 ! . HINWEIS Im Folgenden beschränken wir uns auf quadratische Matrizen, das heißt auf Elemente von Mat(n × n, K) = Mat(n, K). Bezüglich der Multiplikation quadratischer Matrizen existiert ein neutrales Element, die Einheitsmatrix. Definition 10.10 (Einheitsmatrix) Die Matrix 1n ∈ Mat(n, K) mit 1 0 1n := .. . 0 0 0 .. , . 0 ··· 1 ··· .. . . . . 0 ··· 1 das heißt 1n = (δij ), nennen wir Einheitsmatrix. Lemma 10.4 Das Tupel Mat(n, K), ◦ bildet ein Monoid. Das heißt eine Gruppe in der nicht zu jedem x ∈ Mat(n, K) ein Inverses x′ ∈ Mat(n, K) existiert mit xx′ = 1n . Lemma 10.5 Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ. Das heißt im Allgemeinen gilt für A, B ∈ Mat(n, K) AB 6= BA . Beispiel 10.6 Im Allgemeinen! kommutieren zwei ! Matrizen nicht. 1 2 1 1 Sei A = und B = , dann gilt 1 1 2 1 AB = ! 5 3 6= 3 2 2 3 3 5 ! = BA . Definition 10.11 Eine Matrix A ∈ Mat(n, K) heißt invertierbar, oder regulär, falls es eine Matrix B ∈ Mat(n, K) gibt, mit BA = AB = 1n . ! ! Beispiel 10.7 1 2 −1 2 Invertierbare Matrizen. Sei A = und B = , dann gilt 1 1 1 −1 AB = BA = 1 0 0 1 71 ! = 1n . Notation 10.2 Sei A ∈ Mat(n, K), dann bezeichnen wir die inverse Matrix mit A−1 . AA−1 = A−1 A = 1n . Definition 10.12 Die Menge Gln (K) = Gl(n, K) := A ∈ Mat(n, K)| A ist invertierbar , der invertierbaren Matrizen heißt allgemeine lineare Gruppe. (Engl.: General linear group) Satz 10.1 Das Tupel (Gln (K), ◦) bildet eine Gruppe mit neutralem Element 1n . Lemma 10.6 Seien A, B ∈ Gl(n, K), dann gilt (AB)−1 = B −1 A−1 . Definition 10.13 Die Spur einer Matrix A = (aij ) ∈ Mat(n, K) ist eine Abbildung Spur : Mat(n, K) → K : A 7→ Spur(A) , mit Spur(A) := n X aii . i=1 “Die Spur ist die Summe der Einträge auf der Hauptdiagonalen.” Beispiel 10.8 Spur einer Matrix. ! Sei A = 2 7 , dann gilt 4 3 Spur(A) = 2 + 3 = 5 . Lemma 10.7 Eigenschaften der Spur. Sei A ∈ Mat(n, K) und B ∈ Gln (K), dann gilt a) Spur(AB) = Spur(BA) b) Spur(A) = Spur(B −1 AB) 72 10.1 Determinante Die Determinante ist eine der Kenngrößen einer Matrix, die invariant sind unter Basiswechsel. Sie erlaubt außerdem direkt zu erkennen ob eine Matrix invertierbar ist. In diesem Abschnitt geben wir die formelle Definition der Determinante und ihre wichtigsten Eigenschaften. Im Kapitel Determinantenberechnung werden Wege vorgestellt die Determinante effektiv zu berechnen. Um die formelle Definition verstehen zu können, ist etwas Vorarbeit notwendig. Dies ist nur der Vollständigkeit halber enthalten und kann übersprungen werden. Definition 10.14 Die Menge der bijektiven Abbildungen f von einer Menge M nach M S(M) := f : M → M | f ist bijektiv , zusammen mit ◦, der Verknüpfung von Abbildung, bildet die symmetrische Gruppe (S(M), ◦). Betrachten wir nun endliche Mengen M = {x1 , . . . , xn }, mit n Elementen, dann können wir diese Mengen bijektiv auf die Menge N = {1, . . . , n} abbilden. Daher betrachten wir im Folgenden lediglich die Menge Sn = S {1, . . . , n} . Definition 10.15 Ein Element σ ∈ Sn heißt Permutation. Man kann die Wirkung von σ durch folgendes Schema angeben ! 1 2 ··· n , σ(1) σ(2) · · · σ(n) oder, falls es sich um irgendeine Anordnung der Zahlen von 1 bis n handelt ! y1 y2 · · · yn . σ(y1 ) σ(y2 ) · · · σ(yn ) Beispiel 10.9 Beispiel für eine Permutation σ1 := 1 2 3 4 2 1 4 3 das heißt σ1 bildet 1 auf 2 ab, 2 auf 1, etc. 73 ! , Definition 10.16 Eine Permutation, die lediglich zwei Zahlen, i und j, miteinander vertauscht, die übrigen aber unverändert lässt, heißt Transposition. Man schreibt τ (ij). Beispiel 10.10 Beispiel für eine Transposition τ (13) := 1 2 3 4 3 2 1 4 ! . Lemma 10.8 Jede Permutation in Sn , n ≥ 2, ist als Komposition von höchstens n Transpositionen darstellbar. Korollar 10.1 Jede Permutation lässt sich als Produkt von Transpositionen zweier aufeinanderfolgender Zahlen schreiben. Diese Darstellung ist jedoch nicht eindeutig. Definition 10.17 Sei σ ∈ Sn gegeben. a) Ein Zahlenpaar (i, j) mit 1 ≤ i, j ≤ n heißt Fehlstand von σ, falls i < j, aber σ(i) > σ(j). b) Das Vorzeichen oder Signum von σ wird definiert als ( +1, falls σ eine gerade Anzahl von Fehlständen besitzt sgn(σ) −1, falls σ eine ungerade Anzahl von Fehlständen besitzt. Beispiel 10.11 Die Permutation σ= 1 2 3 4 2 1 4 3 ! , hat die Fehlstände (1, 2) und (3, 4), also gilt sgn(σ) = 1. Satz 10.2 Ist σ = τ1 ◦ · · · ◦ τk ∈ Sn eine Komposition von k Transpositionen, dann gilt sgn(σ) = (−1)k . “Man zählt wie oft man zwei Zahlen vertauschen muss, um die Permutation σ zu erhalten.” 74 Definition 10.18 Die Determinante ist eine Abbildung det : Mat(n, K) → K : A 7→ det A , mit det A = |A| := X sgn(σ)a1σ(1) . . . anσ(n) . σ∈Sn Anmerkung 10.3 Diese Definition ist für praktische Berechnungen nicht wirklich sinnvoll. Die Anzahl der Terme in der Summe nimmt rapide zu. Sie bietet jedoch eine gute Grundlage um Eigenschaften der Determinante zu beweisen. Für praktische Wege zur Determinantenberechnung, siehe das spätere Kapitel dazu. Lemma 10.9 Eigenschaften der Determinantenfunktion. Seien A, B ∈ Mat(n, K), λ ∈ K. a) det A = det At b) det(A−1 ) = (det A)−1 = 1 , det A falls det A 6= 0 c) det(AB) = det(A) · det(B) d) det(λA) = λn det A e) det 1n = 1 Lemma 10.10 Sei A ∈ Mat(n, K). Aus den Eigenschaften der Determinantenfunktion folgt die Bedingung für Invertierbarkeit, d.h. ob eine Matrix A−1 existiert, mit AA−1 = A−1 A = 1. Folgende Aussagen sind äquivalent a) A ist invertierbar. b) det A 6= 0. Die Bedingung det A 6= 0 ist notwendig und hinreichend. Beweis Wir beweisen, dass aus invertierbar folgt, dass det A 6= 0 sein muss. Wir nehmen an A sei invertierbar und det A = 0. Nach den Eigenschaften der Determinante und der Inversen gilt 1 = det 1 = det(AA−1 ) = det(A) · det(A−1 ) = 0 · det(A−1 ) 6= 1 , damit folgt: Ist A invertierbar muss det A 6= 0 sein. Lemma 10.11 Weitere Eigenschaften der Determinantenfunktion. Sei A ∈ Mat(n, K) und λ ∈ K. 75 a) Bei Vertauschung zweier Spalten/Zeilen von A ändert sich das Vorzeichen von det A. b) Bei Multiplikation einer Spalte/Zeile von A mit λ multipliziert sich det A mit λ. c) Bei Addition des λ-fachen einer Spalte/Zeile zu einer anderen Spalte/Zeile ändert sich det A nicht. d) Sind zwei Spalten/Zeilen von A linear abhängig, so ist det A = 0. 1 e) Ist eine Spalte/Zeile von A gleich Null, d.h. alle Einträge in der Spalte/Zeile sind Null, dann ist det A = 0. Anmerkung 10.4 Damit bietet die Determinantenfunktion eine Möglichkeit Vektoren auf lineare Abhängigkeit zu prüfen. Seien vi ∈ Kn und i ∈ {1, . . . , n}, dann berechne man det (v1 , . . . , vn ), die Determinante der Matrix, die die vi als Spalten hat. Ist die Determinante gleich Null, dann sind die Vektoren linear abhängig. Lemma 10.12 Die Determinantenfunktion ist linear in jeder Spalte/Zeile. Sei A ∈ Mat(n, K), 1 ≤ i ≤ n, λ, µ ∈ K. det(a1 , . . . , λai + µbi , . . . , an ) = λ det(a1 , . . . , ai , . . . , an ) + µ det(a1 , . . . , bi , . . . , an ) . 10.2 Eigenwerte und Eigenvektoren Um die Begriffe so allgemein wie möglich zu halten betrachten wir, wo möglich, Matrizen über einem Körper K. Wo es unterschiede zwischen K = R und K = C gibt, werden wir gesondert darauf hinweisen. Definition 10.19 Sei A ∈ Mat(n, K), v ∈ Kn \ {0} und λ ∈ K. a) λ heißt Eigenwert von A, falls es ein v gibt, so dass Av = λv , gilt. b) v, mit Av = λv, heißt dann Eigenvektor zum Eigenwert λ. 1 Rang definieren 76 c) Die Menge σ(A) := λ ∈ K | λ ist Eigenwert von A , die Menge der Eigenwerte von A, heißt das Spektrum von A. Beispiel 10.12 Beispiel einfügen Anschaulich bedeuten Eigenwert und Eigenvektor dass sich A in Richtung des Eigenvektors vi nur durch Multiplikation mit λi auswirkt. Im Rn entspricht dies einer Streckung. Im Cn ist entspricht die Multiplikation mit einer komplexen Zahl λi einer Drehstreckung. 10.2.1 Bestimmung von Eigenwerten Lemma 10.13 Sei A ∈ Mat(n, K) und λ ∈ K. Damit λ ein Eigenwert von A ist, muss es die Bedingung det(A − λ1) = 0 , erfüllen. Beweis Aus der Definition des Eigenwertes folgt Av = λv, stellt man diese Gleichung um, erhält man (A − λ1n ) v = 0. Außerdem gilt, ist v ein Eigenvektor, so ist auch βv, β ∈ K, ein Eigenvektor. Denn (A − λ1) βv = β (A − λ1) v = β · 0 = 0. Das heißt (A − λ1) bildet alle Vektoren der Form βv auf die Null ab. Damit folgt, dass (A − λ1) nicht invertierbar ist, da die Null mehr als ein Urbild hat. Aus nicht invertierbar folgt det(A − λ1) = 0. Die Eigenwerte erfüllen diese Gleichung. Die Determinante von A − λ1 ist ein Polynom n-ten Grades in der Variablen λ. Definition 10.20 Sei A ∈ Mat(n, K). Das Polynom χA := det (A − λ1n ) , heißt charakteristisches Polynom von A. Anmerkung 10.5 Eine Matrix A ∈ Mat(n, K) muss keine Eigenwerte haben. Beispiel 10.13 Wir betrachten eine Drehung um den Ursprung im R2 . Die Drehmatrix A ∈ Mat(n, R), mit ! cos α − sin α A= , sin α cos α 77 hat nur für bestimmte Werte von α Eigenwerte die in R liegen. Die Nullstellen des charakteristischen Polynoms χA = λ2 − 2λ cos α + 1 . sind λ± = cos α ± i sin α . Wobei i die imaginäre Einheit ist, mit i2 = −1. Die λ± sind nur für α = 0 und α = π Elemente von R. Lemma 10.14 Eigenschaften der Eigenwerte. Sei A ∈ Mat(n, C), da in C garantiert ist, dass die Eigenwerte existieren. Alternativ gilt die Aussage auch für B ∈ Mat(n, R), wenn alle Eigenwerte von B in R liegen. a) Die Summe der Eigenwerte ist gleich der Spur von A. Spur(A) = n X λi . i=1 b) Das Produkt der Eigenwerte ist gleich der Determinante von A. det A = n Y λi . i=1 Beispiel 10.14 Eigenschaften der Eigenwerte. ! 2 −1 a) Sei A = . Das charakteristische Polynom lautet −1 2 χA = (2 − λ)2 − 1 , und hat die Nullstelen λ1 = 1 λ2 = 3 . Es gilt Spur(A) = 2 + 2 = 1 + 3 = X det A = 4 − 1 = 3 = 1 · 3 = 78 λi Y λi . b) Sei B = ! 1 7 . Das charakteristische Polynom lautet 0 1 χB = (1 − λ)2 , mit der zweifachen Nullstelle λ = λ1 = λ2 = 1. Es gilt X Spur(B) = 1 + 1 = 2 = λi Y det B = 1 · 1 = 1 = λi . Definition 10.21 Sei A ∈ Mat(n, K). Man nennt A symmetrisch, wenn gilt A = At . Satz 10.3 Ist A ∈ Mat(n, R) eine symmetrische Matrix, dann sind die Eigenwerte von A reell, d.h. λi ∈ R. Lemma 10.15 a) Sei A ∈ Mat(n, K), dann gilt: Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. b) Sei A ∈ Mat(n, R) symmetrisch, dann gilt: Die Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. λi 6= λj ⇒ vi · vj = 0 . 10.3 Diagonalisierung Sei in diesem Abschnitt A ∈ Mat(n, C), λj , j ∈ {1, . . . , n} die n verschiedenen Eigenwerte von A, d.h. j 6= ℓ ⇒ λj 6= λℓ . Damit beschränken wir uns auf einen Spezialfall, denn im Allgemeinen ist nicht ausgeschlossen dass ein, oder mehrere Eigenwerte gleich sind, d.h. eine Vielfachheit > 1 haben. In diesem Fall haben wir n linear unabhängige Eigenvektoren von A. Damit können wir die Diagonalisierungsmatrix bilden. Definition 10.22 Seien vj , j ∈ {1, . . . , n} die n verschiedenen, linear unabhängigen, Eigenvektoren von A ∈ Mat(n, C). Dann definieren wir die Diagonalisierungsmatrix Q ∈ Mat(n, C) als Q = (v1 , v2 , . . . , vn ) . Die Eigenvektoren vj von A bilden die Spalten von Q. 79 Definition 10.23 Sei A = (aij ) ∈ Mat(n, K), λj ∈ K, j ∈ {1, . . . , n}. Wir nennen A eine Diagonalmatrix, wenn gilt A = (aij ) = (δij λj ) . A hat nur Einträge auf der Hauptdiagonalen. λ1 λ2 A= .. . λn Mit der Matrix Q gilt dann . AQ = QAdiag , wobei Adiag eine Diagonalmatrix ist, mit den Eigenwerten von A auf der Diagonalen. Beispiel 10.15 Wir verdeutlichen!den Zusammenhang!zwischen A und Q an einem Beispiel. a1 a2 q1 q2 Sei A = und Q = , mit den Eigenvektoren v1 = (q1 , q3 )t und v2 = a3 a4 q3 q4 ! λ1 0 (q2 , q4 ). Die Matrix Adiag = . Dann ist 0 λ2 AQ = a1 q1 + a2 q3 a1 q2 + a2 q4 a3 q1 + a4 q3 a3 q2 + a4 q4 ! . ! a1 q2 + a2 q3 Aber = A · v1 = λ1 v1 . Analog gilt für die zweite Spalte von AQ, dass sie a3 q1 + a4 q3 identisch ist mit A · v2 = λ2 v2 . Damit gilt ! λ1 q1 λ2 q2 AQ = = QAdiag . λ1 q3 λ2 q4 Die Spalten von Q sind die vj , die linear unabhängig sind, damit ist die Determinante von Q ungleich Null, det Q 6= 0. Damit existiert die inverse Matrix Q−1 und wir können umformen AQ = QAdiag |Q−1 · Q−1 AQ = Adiag |Q·, ·Q−1 A = QAdiag Q−1 . 80 Definition 10.24 Die Matrix A ∈ Mat(n, K) heißt diagonalisierbar, wenn es eine Matrix Q ∈ Gl(n, K) gibt, so dass Q−1 AQ , eine Diagonalmatrix ist. Satz 10.4 Sei A ∈ Mat(n, K) und besitze A n paarweise verschiedene Eigenwerte, dann ist A diagonalisierbar. Lemma 10.16 Ist A ∈ Mat(n, K) diagonalisierbar, dann besitzt Kn eine Basis aus Eigenvektoren von A. Beispiel 10.16 Betrachten wir ein Beispiel für die Diagonalisierung einer Matrix das die Abfolge von Arbeitschritten zeigt um die Eigenwerte und Eigenvektoren zu bestimmen und anschließend die Transformationsmatrix um die Matrix zu diagonalisieren. Man beachte jedoch, dass nicht jede!Matrix diagonalisierbar ist. 1 3 . Sei A = 0 2 a) Bestimme die Eigenwerte von A. i) Charakteristisches Polynom χA = det(A − λ1) bestimmen. ! 1−λ 3 χa = det = (1 − λ)(2 − λ) . 0 2−λ ii) Nullstellen von χA bestimmen. λ1 = 1 iii) Probe: Gilt Spur(A) = P λ2 = 2 λi und det A = Q λi ? b) Bestimme die Eigenvektoren von A zu den Eigenwerten λi . Löse dazu das Gleichungsystem (A − λi 1)vi = 0. • λ1 = 1 (A − 1 · 1)v1 = 0 3 0 1 ! x y ! = ! 0 , 0 also ist y = 0 und x beliebig, wir wählen x = 1, womit folgt ! 1 v1 = . 0 81 • λ2 = 2 −1 3 0 0 (A − 2 · 1)v2 = ! ! x = y 0 0 ! , womit folgt x = 3y, wir wählen y = 1 und erhalten ! 3 v2 = . 1 c) Bestimme die Diagonalisierungsmatrizen Q und Q−1 . i) Q hat als Spalten die Eigenvektoren von A, Q = (v1 , . . . , vn ). ! 1 3 Q= . 0 1 ii) Invertiere Q um Q−1 zu erhalten. Q−1 = 1 −3 0 1 ! . d) Bestimme Adiag = Q−1 AQ Adiag = Q−1 AQ = 1 −3 0 1 ! 1 3 0 1 ! 1 3 0 1 ! = 1 0 0 2 ! = λ1 0 0 λ2 ! . Definition 10.25 (Algebra) Eine Algebra A über einem Körper K ist ein Vektorraum, in dem zusätzlich eine distributive und assoziative Multiplikation erklärt ist. Das heißt, wir haben die Abblildung · : A × A → A : (a, b) 7→ a · b , mit den folgenden Eigenschaften ∀a, b, c ∈ A, α, β ∈ K a) (αa + βb)c = α(ac) + β(bc) c(αa + βb) = α(ca) + β(cb) b) a(bc) = (ab)c 82 10.4 Drehmatrizen Definition 10.26 Wir definieren die Orthogonale Gruppe als die Menge n o t O(n) := A ∈ Mat(n, R) | A A = 1n . Definition 10.27 Wir definieren die Spezielle Orthogonale Gruppe als die Menge SO(n) := A ∈ O(n) | det A = 1 . Definition 10.28 Drehungen im R3 sind Elemente der SO(3). Beispiel 10.17 Drehung um die x-Achse um den Winkel α. x x 1 0 0 D · v = 0 cos α − sin α y = y cos α − z sin α . y sin α + z cos α z 0 sin α cos α Weiterhin gilt a) det D = cos2 α + sin2 α = 1 1 0 0 1 0 0 b) D t D = 0 cos α sin α 0 cos α − sin α = 13 . 0 sin α cos α 0 − sin α cos α Satz 10.5 Drehungen erhalten das Skalarprodukt. Beweis Seien x, y ∈ Rn , D ∈ SO(n). Wir betrachten wir das kanonische Skalarprodukt. x·y = n X xi yi , i=1 das man auch als Matrixmultiplikation interpretieren kann y1 n .. X t xi yi . x · y = x · y = (x1 , . . . , xn ) · . = i=1 yn Damit gilt für die gedrehten Vektoren x′ = Dx und y ′ = Dy x′ · y ′ = (Dx)t (Dy) = xt D t Dy = xt 1y = xt y = x · y . 83 Anmerkung 10.6 Manchmal liest man im Kontext von Drehungen, dass die Zeilen der Drehmatrix paarweise orthogonal sind. Das heißt, wenn di die Zeilen der Drehmatrix D ∈ SO(n) sind, dass gilt di · (dj )t = δij . Aber di · (dj )t ist nichts anderes als das Skalarprodukt der i-ten Zeile von D mit der j-ten Zeile von D t . Daher heißt paarweise Orthogonalität der Zeilen, nichts anderes als DD t = 1 . Anmerkung 10.7 Beim Trägheitstensor I spricht man von Haupträgheitsachsen und Hauptträgheitsmomenten. Dabei sind die Hauptträgheitsmomente die Eigenwerte von I und die Hauptträgheitsachsen die Eigenvektoren von I. 10.5 Matrixfunktionen Betrachte skalare Funktion 84 11 Bestimmung der inversen Matrix Sei im Folgenden A ∈ Gl(n), also eine invertierbare quadratische Matrix. Da A invertierbar ist gilt det A 6= 0. Dieses Kapitel stellt Methoden vor, wie man die inverse Matrix A−1 zu einer gegebenen Matrix A bestimmen kann. Beide Methoden sind anwendbar für Matrizen belieber Dimension n über einem Körper K. Die erste Methode ist etwas formeller als die zweite, doch für “kleine” Matrizen, n ≤ 4, sollten sie keinen großen Unterschied in der Bearbeitung von Hand machen. 11.1 Methode 1 - Adjunkte Für diese Methode berechnet man die inverse durch verwenden einer Formel. Die Formel ist für quadratische Matrizen mit n ≥ 2 anwendbar. Doch bevor wir sie angeben können, müssen wir erste einige Begriffe definieren. Definition 11.1 Sei A ∈ Mat(n, K), n ≥ 2 und 1 ≤ i, j ≤ n. Wir nennen die Matrix die aus A durch das Streichen der j-ten Zeile und der i-ten Spalte entsteht die Streichungmatrix Aji . a11 · · · a1 i−1 a1 i+1 · · · a1 n .. .. .. .. . . . . aj−1 1 · · · aj−1 i−1 aj−1 i+1 · · · aj−1 n . Aji = aj+1 1 · · · aj+1 i−1 a · · · a j+1 i+1 j+1 n .. .. .. .. . . . . an Beispiel 11.1 Betrachten wir die Matrix 1 ··· an i−1 an i+1 1 2 3 A = 4 5 7 . 8 9 10 85 ··· an n Damit erhalten wir beispielsweise die 1 A11 = 4 8 und A22 folgenden Streichungsmatrizen: ! 2 3 5 7 5 7= , 9 10 9 10 1 2 3 = 4 5 7 = 8 9 10 ! 1 3 . 8 10 Definition 11.2 Sei A ∈ Mat(n, K), n ≥ 2 und 1 ≤ i, j ≤ n. Wir nennen die Größe i+j a# det(Aji ) , ij := (−1) einen Kofaktor von A. Beachte die umgedrehte Reihenfolge der Indizes in der Definition. Die Matrix der Kofaktoren A# := (a# ij ) ∈ Mat(n, K) , heißt Adjunkte. Die Adjunkte hat folgende Eigenschaft. Satz 11.1 Sei A ∈ Mat(n, K), n ≥ 2. Es gilt A# · A = A · A# = det(A) · 1 . Damit haben wir alles zusammen um die Inverse einer invertierbaren Matrix zu berechnen. Korollar 11.1 Sei A ∈ Gl(n), dann ist 1 A−1 = · A# . det(A) Beispiel 11.2 Als Beispiel invertieren die Matrix 1 0 2 A = 3 4 0 . 0 5 6 86 a) Determinante von A berechnen um zu prüfen ob A invertierbar ist, dazu muss gelten det A 6= 0. det A = 54 , also ist die Matrix invertierbar. b) Bestimmung der Kofaktoren. Wir berechnen exemplarisch den Kofaktor a# 12 . 1+2 a# det A21 = (−1) · det 12 = (−1) c) Aufstellen der Adjunkten A# . ! 4 0 0 det − det 5 6 5 ! 3 0 1 A# = det − det 0 6 0 ! 1 det 3 4 − det 0 0 5 ! 0 2 5 6 ! 2 det 6 ! 2 − det 6 ! 0 det 5 = 10 . 0 4 1 3 1 3 ! 2 0 ! 2 . 0 ! 0 4 Dies ergibt nach der Berechnung der einzelnen Determinanten 24 10 −8 6 . A# = −18 6 15 −5 4 d) Aufstellen der inversen Matrix A−1 . A−1 = 24 10 −8 1 1 −18 6 6 . A# = det A 54 15 −5 4 e) Probe. Methode 2 - Erweiterte Matrix Bei dieser Methode bildet man die “erweiterte Matrix”. Definition 11.3 Sei A ∈ Gl(n) und sei 1 die Einheitsmatrix aus Gl(n). Dann nennt man die Matrix E ∈ Mat(n × 2n), mit E := A|1 , 87 die erweiterte Matrix. Betrachten wir ein Beispiel. Beispiel 11.3 Sei A ∈ Gl(3), dann ist die erweiterte Matrix a b E = A|1 = d e g h E gleich c 1 0 0 f 0 1 0 . i 0 0 1 Um die Inverse der Matrix A zu bestimmen bringt man A auf die Form der Einheitsmatrix. Unter Verwendung von speziellen Zeilenoperation. Die entsprechenden Operationen werden dabei auf die erweiterte Matrix E angewendet. Am Ende hat man eine erweiterte Matrix der Form E = 1|Ã. Die Beispielsweise so aussieht: 1 0 0 ã b̃ c̃ E = 1|à = 0 1 0 d˜ ẽ f˜ 0 0 1 g̃ h̃ ĩ Die inverse Matrix A−1 ist dann gleich à A−1 ã b̃ c̃ = à = d˜ ẽ f˜ , g̃ h̃ ĩ Die Einträge von A−1 ergeben sich als Folge der verwendeten Zeilenoperationen. 11.1.1 Zeilenoperationen Die Zeilenoperationen sind die Umformungen die ich an der Matrix vornehmen darf. Sie sind im Einzelnen: a) Multiplikation der i-ten Zeile mit einem Skalar α, mit α 6= 0. .. .. . . ai −→ α · ai .. .. . . 88 (11.1) b) Addition der j-ten Zeile von A zur i-ten Zeile. .. .. . . ai ai + aj .. .. −→ . . aj aj . . .. .. (11.2) c) Addition des α-fachen j-ten Zeile von A zur i-ten Zeile. .. .. . . ai ai + α · aj .. .. −→ . . aj a j . .. .. . (11.3) d) Vertauschung der i-ten und j-ten Zeile von A. .. .. . . aj ai .. .. −→ . . ai aj . . .. .. (11.4) 11.1.2 Beispiel zu Methode 2 Wir betrachten die Matrix 1 2 0 A = 0 2 0 4 0 2 (11.5) 1 2 0 1 0 0 A|E = 0 2 0 0 1 0 . 4 0 2 0 0 1 (11.6) und bilden die erweiterte Matrix Nun formen wir mit den erlaubten Zeilenoperation so lange um, bis wir an der A-Position eine Einheitsmatrix erhalten: 89 a) Addition des (−4)-fachen der ersten Zeile zur dritten Zeile. 1 2 0 1 0 0 1 2 0 1 0 0 0 2 0 0 1 0 III. + (−4) · I. −→ 0 2 0 0 1 0 4 0 2 0 0 1 0 −8 2 −4 0 1 b) Addition des 4-fachen der zweiten Zeile zur dritten Zeile. 1 2 0 1 0 0 1 2 0 1 0 0 III. + 4 · II. 0 2 0 0 1 0 −→ 0 2 0 0 1 0 0 −8 2 −4 0 1 0 0 2 −4 4 1 c) Addition der 1 2 0 2 0 0 (−1)-fachen der zweiten Zeile zur ersten Zeile. 0 1 0 0 1 0 0 1 −1 0 0 0 1 0 I. + (−1) · II. −→ 0 2 0 0 1 0 2 −4 4 1 0 0 2 −4 4 1 d) Zweite und dritte Zeile mit 1 0 0 1 0 2 0 0 0 0 2 −4 multiplizieren. −1 0 1 0 0 1 −1 · 1 1 0 2 −→ 0 1 0 0 1/2 0 0 1 −2 2 4 1 · 21 1/2 Damit haben wir die Inverse von A bestimmt, wir 1 −1 −1 A = 0 1/2 −2 2 erhalten 0 0 1/2 0 0 1/2 (11.7) Diese Methode erfordert nicht das Auswendiglernen einer Formel, sondern erlaubt es sich den bequemsten Weg zum Ziel zu suchen. Doch je nach den Einträgen der Matrix kann die Umformung schnell zu Brüchen führen, was die weiteren Rechnungen sehr Fehleranfällig machen kann. Welche der beiden Methoden man letzendlich verwendet ist Geschmacksache, da es im Endeffekt darauf ankommt am Ende die Inverse zu haben, und diesen Job erledigen beiden Methode. Es empfiehlt sich am Ende die Probe zu machen ob nach der Multiplikation wirklich die Einheitsmatrix herauskommt. Bei beiden kann man sich relativ leicht verrechnen und eine Probe kostet nicht viel Zeit und verschafft Sicherheit. 90 11.1.3 Methode 2: Warum funktioniert sie? Man mag sich fragen, wieso Methode zwei die Inverse liefert, schließlich sieht das Verfahren etwas unkonventionell aus. Um den “Beweis” zu führen stellen wir jede der erlaubten Zeilenoperationen zuerst als Multiplikation von A mit einer sogenannten Elementarmatrix von Links dar. Bevor ich die entsprechenden Elementarmatrizen einführe benötigen wir noch eine Definition. Die Matrix Eij ist die Matrix, die an der Stelle i, j eine 1 hat und sonst nur Nullen. Zum Beispiel für 3 × 3 Matrizen. 0 0 0 0 1 0 (11.8) E12 = 0 0 0 und E33 = 0 0 0 . 0 0 1 0 0 0 Schauen wir uns nun die den Zeilenoperationen entsprechenden Elementarmatrizen (S) an. a) Multiplikation der i-ten Zeile mit einem Skalar α, mit α 6= 0. S = E + (α − 1)Eii (11.9) b) Addition der j-ten Zeile von A zur i-ten Zeile. S = E + Eij (11.10) c) Addition des α-fachen j-ten Zeile von A zur i-ten Zeile. S = E + αEij (11.11) d) Vertauschung der i-ten und j-ten Zeile von A. S = E − Eii − Ejj + Eij + Eji (11.12) Hier zwei Beispiele: a) Vertausche die erste mit der zweiten Zeile. Also i = 1 und j = 2. S = E − E11 − E22 + E12 + E21 (11.13) 0 0 0 0 1 0 0 0 0 1 0 0 1 0 0 = 0 1 0 − 0 0 0 − 0 1 0 + 0 0 0 + 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 (11.14) 0 1 0 = 1 0 0 0 0 1 (11.15) 91 Wir testen den Effekt von S: d e f a b c 0 1 0 S · A = 1 0 0 · d e f = a b c g h i g h i 0 0 1 (11.16) S tut was es soll. b) Addiere zur 1-ten Zeile von A das 2-fache der der 2-ten Zeile. Also i = 1, j = 2 und α = 2. ! ! ! 1 0 0 1 1 2 S = E + αEij = +2 = (11.17) 0 1 0 0 0 1 Wir testen den Effekt von S: S·A= 1 2 0 1 ! · ! a b = c d ! a + 2c b + 2d c d (11.18) S tut was es soll. Dem Ausführen einer Zeilenoperation entspricht die Multiplikation von A mit einer entsprechenden Elementarmatrix von Links. Mehrere Zeilenoperationen entsprechen einer Multiplikation mit mehreren Elementarmatrizen, wobei auf die Reihenfolge zu achten ist. Führt man zum Beispiel 3 Zeilenoperationen aus so entspricht dies: S3 · S2 · S1 · A , (11.19) wobei S1 der ersten Zeilenoperation entspricht, S2 der zweiten und so weiter. Ist A invertierbar, kann man A mittels i Zeilenoperationen in die einheitsmatrix E überführen, die entspricht einer Multiplikation mit i Elementarmatrizen (wobei auf die Reihenfolge zu achten ist): Si · Si−1 · · · · · S2 · S1 · A = E . (11.20) Multipliziert man dies von Rechts mit dem Inversen von A, von dem wir hier nur wissen müssen dass es existiert, erhält man Si · Si−1 · · · · · S2 · S1 · A · A−1 = E · A−1 , (11.21) was unter Berücksichtigung der Eigenschaften von E und A−1 folgendes ergibt: Si · Si−1 · · · · · S2 · S1 · E = A−1 . (11.22) Die Inverse von A ist nichts anderes als das Produkt der Elementarmatrizen (Zeilenoperationen), die man braucht um A in die Einheitsmatrix zu überführen. In unserer Schreibweise mit der erweiterten Matrix A|E tun wir auf der rechten Seite nichts weiter, 92 als dieses Produkt der Si “abzuspeichern”. Aus diesem Grund steht am Ende, wenn Links die Einheitsmatrix steht, auf der rechten Seite die Inverse von A. Anmerkung 11.1 Die Zeilenoperationen 3 und 4 sind Kombinationen aus den Operationen 1 und 2. Operation 3 kann man durch Folgendes ersetzen: a) Multipliziere die j-te Zeile mit α b) Addiere die j-te Zeile zur i-ten Zeile c) Multipliziere die j-te Zeile mit 1/α Ähnlich kann man Operation 4 durch Folgendes ersetzen: a) Multipliziere die j-te Zeile mit −1 b) Addiere die j-te Zeile zur i-ten Zeile c) Multipliziere die j-te Zeile mit −1 d) Addiere die i-te Zeile zur j-ten Zeile e) Multipliziere die j-te Zeile mit −1 f ) Addiere die j-te Zeile zur i-ten Zeile g) Multipliziere die j-te Zeile mit −1 h) Multipliziere die i-te Zeile mit −1 Oder anschaulicher für Zeilenoperation 4: .. .. .. .. .. . . . . . ai ai ai − aj ai − aj ai − aj .. 1. .. 2. .. 3. .. 4. .. .→ . → . → . → . aj −aj −aj aj ai . . . . . .. .. .. .. .. .. .. .. .. . . . . aj −aj −aj ai − aj 8. 7. 6. 5. → ... → ... → ... → ... ai ai −ai −ai . . . . .. .. .. .. 93 (11.23) (11.24) 12 Determinantenberechnung Da Determinanten eine wichtige Rolle spielen, sollte zumindest kleinere Matrizen von Hand berechnen können. Vor allem Matrizen aus Mat(2, K) und Mat(3, K) sollten keine Herausforderung darstellen. Zwar gibt die Definition der Determinante gleichzeitig einen Weg sie zu berechnen, siehe Definition 10.18, doch gerade für größere Matrizen ist dieser Weg viel zu aufwändig. Im folgenden werden Formeln/Methoden für Matrizen aus Mat(n, K) und Mat(n, K) vorgestellt. In letzten Abschnitt wird das Verfahren der Determinantenentwicklung gezeigt, das einen flexiblen Weg bietet die Determinanten auch größerer Matrizen zu berechnen. Es ist natürlich auch für kleine Matrixen anwendbar. 12.1 Matrizen aus Mat(2, K) Korollar 12.1 Sei A ∈ Mat(2, K), dann berechnet sich die Determinante wie folgt ! a b det A = det = ad − bc . c d Beispiel 12.1 Berechnung der Determinante einer Matrix aus Mat(2, R). Sei A = ! 1 4 = 1 · 5 − 4 · 2 = −3 . det A = det 2 5 12.2 Matrizen aus Mat(3, K) Korollar 12.2 (Regel von Sarrus) Sei A = (aij ) ∈ Mat(3, K) a11 a12 a13 A = a21 a22 a23 . a33 a32 a32 94 1 4 2 5 , dann gilt det A kann man mit der Regel von Sarrus berechnen. Dabei verwendet man folgendes Schema. + + + a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 a32 a33 a31 a32 − − − Entlang der Verbindungslinien werden Produkte der Einträge gebildet. Durchgezogene Linien werden addiert, gepunktete Linien werden subtrahiert. Man erhält: det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 . Anmerkung 12.1 Die Regel von Sarrus gilt nur für 3 × 3 Matrizen und ist damit wesentlich unflexibler als die Determinantenentwicklung. 12.3 Determinantenentwicklung Die in den vorherigen Abschnitten genannten Formeln sind nur auf Matrizen der Dimension 2, bzw. 3, anwendbar. Die Determinantenentwicklung ist dagegen ein flexibles Werkzeug um die Determinanten von Matrizen beliebiger Dimension zu berechnen. Mit Hilfe der Determinantenentwicklung kann man die Berechnung der Determinante einer n × n Matrix auf eine Summe von n Determinanten von (n − 1) × (n − 1) Matrizen zurückführen. Lemma 12.1 (Determinantenentwicklung) Sei A ∈ Mat(n, K), und bezeichne Aij , die Streichungsmatrix die aus A hervorgeht wenn man die i-te Zeile und die j-te Spalte streicht, siehe Definition 11.1. Dann gilt für die Determinante von A n X det A = aij · (−1)i+j det(Aij ) , j=1 dies entspricht der Entwicklung nach der i-ten Zeile. Analog gilt det A = n X i=1 aij · (−1)i+j det(Aij ) , was der Entwicklung nach der j-ten Spalte entspricht. Um das Verfahren anschaulicher zu machen, schauen wir uns zwei Beispiele an. Beispiel 12.2 Berechne die Determinante von A ∈ Mat(2, K), mit ! a11 a12 A= . a21 a22 95 Wir entwickeln nach der ersten Zeile. Beginnend mit a11 erhalten wir als ersten Summanden: a11 · (−1)1+1 det(A11 ) (12.1) Die Untermatrix A11 erhält man durch streichen der ersten Zeile (i = 1) und der ersten Spalte (j = 1). ! a11 a12 = a22 A11 = a21 a22 Setzen wir diese Matrix nun in (12.1) ein: a11 · (−1)1+1 det(A11 ) = a11 · det(a22 ) = a11 · a22 . Der zweite Summand ist a12 · (−1)1+2 det(A12 ) (12.2) Die Untermatrix A12 erhält man durch Streichen der ersten Zeile (i = 1) und der zweiten Spalte (j = 2). ! a11 a12 A12 = = a21 a21 a22 Einsetzen in Gleichung (12.2). a12 · (−1)1+2 det(A12 ) = −a12 · det(a21 ) = −a12 · a21 Bleibt noch das Aufsummieren um die Determinante von A zu bestimmen. Es gilt also: ! a a det A = det 11 12 = a11 · a22 − a12 · a21 a21 a22 Oder wenn man die Einträge anders benennt: ! a b det =a·d−b·c . c d Beispiel 12.3 Berechne die Determinante von A ∈ Mat(3, K), a11 a12 A = a21 a22 a31 a32 Dazu entwicklen wir nach der ersten Zeile. 96 mit a13 a23 . a33 Wir beginnen mit a11 und erhalten als ersten Summanden: a11 · (−1)1+1 det(A11 ) Die Untermatrix A11 erhält man durch Streichen der ersten Zeile (i = 1) und der ersten Spalte (j = 1). ! a11 a12 a13 a22 a23 A11 = a21 a22 a23 = a32 a33 a31 a32 a33 Der erste Summand ist also a a a11 · (−1)1+1 det(A11 ) = a11 · det 22 23 a32 a33 ! = a11 · (a22 a33 − a23 a32 ) Der zweite Summand ist a12 · (−1)1+2 det(A12 ) Die Untermatrix A12 erhält man durch streichen der ersten Zeile (i = 1) und der zweiten Spalte (j = 2). ! a11 a12 a13 a a 21 23 A12 = a21 a22 a23 = a31 a33 a31 a32 a33 Der zweite Summand ist also a a a12 · (−1)1+2 det(A12 ) = −a12 det 21 23 a31 a33 ! = −a12 · (a21 a33 − a23 a31 ) Der dritte Summand ist a13 · (−1)1+3 det(A13 ) Die Untermatrix A13 erhält man durch Streichen der ersten Zeile (i = 1) und der dritten Spalte (j = 2). ! a11 a12 a13 a21 a22 A13 = a21 a22 a23 = a31 a32 a31 a32 a33 Der dritte Summand ist also: a13 · (−1) 1+3 a a det(A13 ) = a13 · det 21 22 a31 a32 97 ! = a13 · (a21 a32 − a22 a31 ) . Summiert man alle Summanden auf, erhält man: ! ! ! a22 a23 a21 a23 a21 a22 det A = a11 · det − a12 det + a13 · det a32 a33 a31 a33 a31 a32 (12.3) = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) Man hat die Determinante eine 3 × 3 Matrix zurückgeführt auf eine Summe von Determinanten von 2 × 2 Matrizen. Anmerkung 12.2 Löst man die Klammern in Gleichung (12.3) auf, erhält man wieder die Summanden der Regel von Sarrus, (Korollar 12.2). 12.3.1 Praxis In der Praxis entwickelt man nach Möglichkeit nach einer Zeile/Spalte die viele Nullen enthält. So würde man zum Beispiel die Matrix 1 2 3 A = 0 1 0 4 5 6 nach der zweiten Zeile entwickeln, und erhielte: 1 3 det A = 1 · (−1)2+2 det 4 6 98 ! 1 3 = det 4 6 ! 13 Komplexe Zahlen Ähnlich zur Einführung der irrationalen Zahlen, wie z.B. Form x2 = 2 √ 2, als man Gleichungen der lösen wollte, stieß man erneut auf Probleme mit der Gleichung: x2 = −1 . Sie hat in den rellen Zahlen R keine Lösung. Man erkannte damit, dass R immer noch nicht ausreichte und erweiterte ihn zu den komplexen Zahlen. Das ist analog zu der Hinzunahme der Null, der negativen Zahlen, der Brüche und der Wurzeln. Dieser Kapitel gibt eine Einführung in die komplexen Zahlen, ihre Definition, die möglichen Operationen und einige ihrer Eigenschaften. Definition 13.1 Die Menge C = (z1 , z2 ) | z1 , z2 ∈ R ⊂ R × R , d.h., die Menge aller reellen 2-Tupel, bezeichnet man als die Menge der komplexen Zahlen. Definition 13.2 Zwei komplexe Zahlen sind gleich, genau dann, wenn ihre Komponenten gleich sind: (z1 , z2 ) = (w1 , w2 ) ⇔ z1 = w1 und z2 = w2 . (13.1) Auf der Menge der komplexen Zahlen definieren wir die folgenden Operationen. Definition 13.3 Seien (z1 , z2 ), (w1 , w2 ) ∈ C. Wir definieren die Addition zweier komplexer Zahlen als + : C × C → C : (z1 , z2 ), (w1 , w2 ) 7→ (z1 , z2 ) + (w1 , w2 ) , mit (z1 , z2 ) + (w1 , w2) := (z1 + w1 , z2 + w2 ) . Die Addition ist also komponentenweise definiert, dabei ist die Addition der Komponenten die „normale“ Addition aus dem R. 99 Definition 13.4 Seien (z1 , z2 ), (w1 , w2 ) ∈ C. Wir definieren die Multiplikation zweier komplexer Zahlen als · : C × C → C : (z1 , z2 ), (w1 , w2 ) 7→ (z1 , z2 ) · (w1 , w2) , mit (z1 , z2 ) · (w1 , w2 ) := (z1 w1 − z2 w2 , z1 w2 + z2 w1) . Beachte hier die „Mischung“ der Komponenten. Die Multiplikation der Komponenten ist wieder die „normale“ Multiplikation aus dem R. Anmerkung 13.1 Da + und · über die entsprechenden Operationen in R definiert sind, gelten • Assoziativgesetz • Distributivgesetz • Kommutativgesetz Die Tupel-Darstellung ist allerdings unhandlich, im Folgenden werden wir sie vereinfachen. Wenn wir uns die Menge C betrachten, fallen Ähnlichkeiten zum R2 auf. C ist aber etwas anderes als R2 . R2 ist ein Vektorraum über den reellen Zahlen, C ist ein Körper. Die definierten Operationen sind verschieden. Dennoch können wir uns die Ähnlichkeiten zunutze machen. Betrachten wir die Menge CR = (z1 , 0)|z1 ∈ R so ist diese isomorph zu R, d.h., es existiert eine bijektive, invertierbare Abbildung f zwischen beiden Mengen, die wir direkt angeben können. f :CR → R , f :R → CR , −1 (z1 , 0) 7→ z1 z1 7→ (z1 , 0) . Die Menge CR “entspricht” der reellen Achse, wir sagen daher (z1 , 0) “entspricht” z1 und schreiben vereinfacht: z1 = (z1 , 0) und Das heißt auch: z1 · (w1 , w2 ) := (z1 , 0) · (w1 , w2 ) = (z1 w1 , z1 w2 ) 1 = (1, 0). Desweiteren definieren wir: i := (0, 1) . 100 Mit diesen Konventionen und den Rechenregeln in C erhalten wir die gesuchte vereinfachte Schreibweise. Führen wir dazu alle Einzelschritte der Reihe nach durch um zu zeigen, wie man von der Form (z1 , z2 ) auf die vereinfachte Form z1 + iz2 kommt. (z1 , z2 ) = (z1 , 0) + (0, z2 ) Additionsregel = (z1 , 0)(1, 0) + (0, 1)(z2 , 0) Multiplikationsregel = z1 (1, 0) + (0, 1)z2 Identifiziere (zj , 0) mit zj = z1 + (0, 1)z2 Identifiziere (1, 0) mit 1 = z1 + iz2 Identifiziere (0, 1) mit i . (13.2) wir erhalten damit die wesentlich handlichere Darstellung: (z1 , z2 ) = z1 + iz2 (13.3) in dieser Darstellung können wir rechnen wie gewohnt, müssen aber beachten dass für i = (0, 1) gilt: i2 = i · i = (0, 1)(0, 1) = (−1, 0) = b −1 , (13.4) gemäß der Multiplikation in C. Notation 13.1 Eine alternative Schreibweise der komplexen Zahlen, die Rechnungen vereinfachen kann, ist Folgende a) 1 := (1, 0) b) i := (0.1) Damit ergibt sich (z1 , z2 ) = z1 + iz2 . Mit der Definition der komplexen Zahlen haber wir ein Objekt konstruiert, das die Lösungen zu Gleichungen wie x2 = −1 beinhaltet. Im Folgenden werden wir von der Darstellung z = z1 + iz2 ausgehen. Wir definieren noch folgende Begriffe Definition 13.5 Sei C ∋ z = z1 + iz2 , wir definieren a) Den Realteil von z Re z = Re (z1 + iz2 ) = z1 ∈ R . b) Den Imaginärteil von z Im z = Im (z1 + iz2 ) = z2 ∈ R . 101 Anmerkung 13.2 Man kann sich die komplexen Zahlen als eine Ebene, wie den R2 vorstellen. Eine Achse repräsentiert den Realteil, die andere den Imagninärteil. Dies wird in Abbildung 13.1 gezeigt. Im z Im z = z2 |z | Re Re z = z1 Abbildung 13.1: Darstellung einer komplexen Zahl z = z1 + iz2 in der komplexen Ebene. Wir schreiben die oben definierten Operationen nun in der angenehmeren Schreibweise. Beachtet man, dass i2 = −1 gilt, kann man in C “ganz normal” rechnen wie in R. Definition 13.6 Seien z, w ∈ C mit z = z1 + iz2 und w = w1 + iw2 , mit zi , wi ∈ R. Wir geben nur die Rechenoperationen in der vereinfachten Schreibweise an. a) Die Addition +: z + w = z1 + iz2 + w1 + iw2 = z1 + w1 + i(z2 + w2 ) , Realteile werden addiert und Imaginärteile werden addiert. b) Die Subtraktion − ist die Addition des Inversen bezüglich +. z − w = z + (−w) = z1 + iz2 − (w1 + iw2 ) = z1 − w1 + i(z2 − w2 ) , Realteile werden subtrahiert und Imaginärteile werden subtrahiert. Anmerkung 13.3 Man kann hier eine anschauliche Parallele zur Vektoraddition im R2 ziehen, wie in Abbildung 13.2 dargestellt. Wir definieren die Multiplikation und die Division zweier komplexer Zahlen. 102 Im z+w z w Re Abbildung 13.2: Darstellung der Addition zweier komplexer Zahlen z, w. Man beachte die Analogie zur Addition zweier Vektoren. Definition 13.7 Seien z, w ∈ C mit z = z1 + iz2 und w = w1 + iw2 , mit zi , wi ∈ R. Wir geben nur die Rechenoperationen in der vereinfachten Schreibweise an. a) Multiplikation · z · w = (z1 + iz2 ) · (w1 + iw2 ) = z1 w1 + z1 (iw2 ) + (iz2 )w1 + (iz2 )(iw2 ) = (z1 w1 − z2 w2 ) + i(z1 w2 + z2 w1 ) . . b) Division durch w 6= 0 ist die Multiplikation mit 1 , w dem Inversen bezüglich ·: 1 z1 + iz2 z =z· = . w w w1 + iw2 (13.5) Anmerkung 13.4 Geometrisch ist die Multiplikation von z mit w eine Drehstreckung, Drehung und Streckung, wie in Abbildung 13.3 gezeigt. Es besteht jedoch ein wichtiger Unterschied zum R2 : Dort ist keine Multiplikation, Vektor · Vektor, definiert die wieder einen Vektor ergibt. Genausowenig gibt es die Division zweier Vektoren. Eine “neue” Operation auf den komplexen Zahlen ist die komplexe Konjugation. Definition 13.8 Sei C ∋ z = z1 + iz2 . Wir definieren die komplexe Konjugation, als eine Abbildung mit ∗ : C → C : z 7→ z ∗ , mit ∗ z ∗ = (z1 + iz2 )∗ = z1 − iz2 . Anmerkung 13.5 Geometrisch kann man die komplexe Konjugation als eine Spiegelung an der reellen Achse sehen, siehe Abb. 13.4. 103 Im z·w z w Re Abbildung 13.3: Darstellung der Multiplikation zweier komplexer Zahlen z, w. Die geometrische Analogie ist die Verknüpfung einer Drehung mit einer Streckung. Im z Im z = z2 Re Re z = z1 z∗ Im z ∗ = −z2 Abbildung 13.4: Darstellung der komplexen Konjugation. Dabei wird z = z1 + iz2 abgebildet auf z ∗ = z1 − iz2 . Geometrisch entspricht dieser einer Spiegelung an der reellen Achse. 104 Notation 13.2 Ebenso gebräuchlich ist die Notation z̄ für z ∗ . Lemma 13.1 Die komplexe Konjugation hat folgende Eigenschaften: a) (z ∗ )∗ = z b) (z + w)∗ = z ∗ + w ∗ c) (zw)∗ = z ∗ w ∗ Als nächstes betrachten wir den Betrag einer komplexen Zahl. Definition 13.9 Sei C ∋ z = z1 + iz2 . Wir definieren den Betrag einer komplexen Zahl als Abbildung | · | : C → R : z 7→ |z| , mit q √ |z| = |z1 + iz2 | := z12 + z22 = zz ∗ . Anmerkung 13.6 Man beachte die Analogie zum Betrag eines Vektors aus dem R2 . Nachdem wir nun komplexe Konjugation und den betrag einer komplexen Zahl definiert haben, betrachten wir erneut einen Bruch komplexer Zahlen. Korollar 13.1 Seien z = z1 + iz2 und w = w1 + iw2 ∈ C. Der Bruch z 1 z1 + iz2 =z· = , w w w1 + iw2 lässt sich durch Erweitern mit dem komplex konjugierten Zähler aufspalten in Real- und Imaginärteil. Beweis z z1 w2 + z2 w1 z1 w1 − z2 w2 z w∗ z1 + iz2 w1 − iw2 + i · = ... = = · ∗ = w w w w1 + iw2 w1 − iw2 w12 + w22 w12 + w22 Dabei ist ww ∗ = w12 + w22 = |w|2. Anmerkung 13.7 Während man auf den Reellen Zahlen eine Ordnungsrelation aufstellen kann, in der Aussagen wie a < b, a, b ∈ R, Sinn ergeben, so ist dies in den komplexen Zahlen nicht möglich. Man sagt: Die komplexen Zahlen sind nicht geordnet. Die Relationen >, < machen für z, w ∈ C keinen Sinn. 105 13.1 Polardarstellung komplexer Zahlen Wie bei kartesischen Koordinaten macht es auch bei den komplexen Zahlen manchmal Sinn, sie eine andere Darstellung zu verwenden. Es gibt für die den komplexen Zahlen eine Analogie zu den ebenen Polarkoordinaten, die Polardarstellung. Bevor wir jedoch damit beginnen, brauchen wir noch eine wichtige Identität, die die Exponentialfunktion mit einem imaginären Exponenten mit den Winkelfunktionen Cosinus und Sinus verknüpft: Die Euler-Formel. Satz 13.1 Sei φ ∈ R. Dann gilt die Euler Formel: eiφ = cos(φ) + i sin(φ) . Beweis Wir betrachten die Taylor-Reihe von ex mit x = iφ. eiφ = ∞ X (iφ)n n! n=0 Zerlegen in grades n (n = 2k) und ungerades n (n = 2k + 1) ∞ ∞ X X (iφ)n (iφ)n = + n! n! n n gerade ungerade Umschreiben auf Index k = ∞ X (iφ)2k k=0 (2k)! + ∞ X (iφ)2k+1 (2k + 1)! k=0 i2k = i2k = (i2 )k = (−1)k und i2k+1 = ii2k = i(−1)k ∞ X φ2k+1 φ2k +i (−1)k = (−1) (2k)! (2k + 1)! k=0 k=0 ∞ X k dies sind gerade die Reihendarstellungen von Cosinus und Sinus = cos φ + i sin φ Verschaffen wir uns die Polardarstellung von C ∋ z = z1 + iz2 . Wie man anhand Abbildung 13.5 erkennen kann, gilt: z = z1 + iz2 = |z|(cos φ + i sin φ) , 106 (13.6) Im z |z| sin φ Im z |z | φ Re Re z |z| cos φ Abbildung 13.5: Darstellung einer komplexen Zahl z in Polardarstellung z = |z|eiφ . mit φ = arctan z2 z1 . |z| ist der Betrag von z und φ das Argument von z. Nun verwenden wir die Euler Formel: z = z1 + iz2 = |z|eiφ . (13.7) Wir fassen unsere Ergebnisse in einer Definition zusammen. Definition 13.10 Sei C ∋ z = z1 + iz2 . Wir nennen |z|eiφ = z , mit z2 φ = arctan z1 , die Polardarstellung von z. Man nennt φ das Argument von z. Betrachten wir die Multiplikation zweier komplexer Zahlen z, w in Polardarstellung: z · w = |z|eiφz · |w|eiφw = |z||w|ei(φz +φw ) , Man multipliziert die Beträge und addiert die Argumente. Die Addition der Argumente bewirkt eine Drehung, die Multiplikation der Beträge bewirkt eine Streckung. Siehe dazu auch Abb. 13.6. Anmerkung 13.8 Die Polardarstellung eignet sich sehr gut für die Multiplikation komplexer Zahlen, während für die Addition die Darstellung mit Real- und Imaginärteil vorteilhafter ist. 107 Im |z | |z · w | z·w φz + φw z φz |w | w φw Re Abbildung 13.6: Darstellung der Multiplikation zweier komplexer Zahlen z, w in der Polardarstellung. Die geometrische Analogie ist die Verknüpfung einer Drehung mit einer Streckung. Anmerkung 13.9 Die Polardarstellung ist nicht eindeutig, was man an der Euler Formel sieht, denn es gilt cos(x) = cos(x + 2nπ) n ∈ Z analog für sin und damit eiφ = eiφ+i2nπ . Dies resultiert in verschiedenen Darstellungen für das gleiche z, liefert aber keine “neue” Zahl, genau so wie 21 = 42 keine neue Zahl liefert. Anschaulich gesehen bedeutet es, dass ich einen vollen Kreis laufe und wieder auf dem selben Punkt lande. Daher kann man für praktische Rechnungen den Faktor i2nπ weglassen. Die Nichteindeutigkeit der Darstellung hat jedoch ihre Folgen, wie wir z.B. beim Wurzel ziehen sehen werden. Beispiel 13.1 a) Sei z = 1. Damit ist |z| = 1 und φ = arctan(0) = 0. Damit z = ei·0+i2nπ = ei2nπ . Für n = 1 erhält man 1 = ei2π (13.8) π b) Sei z = i. Damit ist |z| = 1 und φ = arctan(∞) = π2 . Damit z = ei· 2 +i2nπ . √ π √ c) Sei z = 1 + i. Damit ist |z| = 2 und φ = arctan(1) = π4 . Damit z = 2ei 4 +i2nπ . 13.2 Komplexe Wurzel Definition 13.11 Als k-te Wurzel einer komplexen Zahl z bezeichnen wir jede komplexe Zahl wn für die gilt: wnk = z . 108 Zur Berechnung der Wurzel eignet sich die Polardarstellung, wobei man beachten muss, dass diese nicht eindeutig ist. Es gilt dann: wnk = |z|eiφ+i2πn mit n ∈ Z . Zieht man nun auf beiden Seiten die k-te Wurzel, so erhält man alle verschiedenen k-ten Wurzeln von z. φ 1 2πn wn = |z| k ei k +i k mit n = 0, . . . , k − 1 . (13.9) Die Einschränkung für n kommt daher, dass sich für n ≥ k keine neuen Ergebnisse mehr ergeben, sondern nur andere Darstellungen der vorherigen. 1 Alternative Schreibweise: 1 φ + 2πn φ + 2πn wn = |z| k cos . (13.10) + i sin k k Beispiel 13.2 Dritte Wurzel von 1. Damit gilt |z| = 1, φ = 0 und n = 0, 1, 2. Damit ergeben sich die folgenden dritten Wurzeln: 2πn wn = ei 3 w0 = e0 = 1 i 2π 3 w1 = e 4π w2 = ei 3 √ 3 2π 1 2π i sin =− +i = cos 3 3 2 √2 4π 1 4π 3 i sin =− −i = cos 3 3 2 2 13.3 Fundamentalsatz der Algebra Satz 13.2 Sei z ∈ C und p(z) ein Polynom vom Grad g in der Variablen z p(z) = g X an z n , n=0 1 Unvollständige Induktion: n = k :ei n = k + 1 :e 2πk k =1 i 2π(k+1) k = ei 2πk k 109 ei 2π k = ei 2π k = b n=1 . mit Koeffizienten an ∈ C. Dann hat p(z) in C g Nullstellen cj ∈ C, wenn man deren Vielfachheit mj ∈ R mitzählt. Es lässt sich demzufolge in Linearfaktoren zerlegen: p(z) = g X n=0 an z n = an (z − c1 )m1 (z − c2 )m2 . . . (z − cr )mr . (13.11) Dabei sind die Nullstellen cj paarweise verschieden. Weiterhin gilt m1 + m2 + . . . + mr = g , dies sagt nichts anderes als, dass die Vielfachheiten der Nullstellen den Grad des Polynoms ergeben. Beispiel 13.3 a) Sei p(z) = z 2 +1. Dieses Polynom hat die beiden Nullstellen i, −i. Es kann demnach in Linearfaktoren zerlegt werden: p(z) = z 2 + 1 = (z − i)(z + i) Hier hat jede Nullstelle Vielfachheit 1. b) Sei p(z) = z 3 − iz 2 + z + i. Dieses Polynom hat die beiden Nullstellen i, −i. Es kann demnach in Linearfaktoren zerlegt werden: p(z) = z 3 − iz 2 + z + i = (z − i)2 (z + i) Hier hat die Nullstelle i die Vielfachheit 2 und −i hat Vielfachheit 1. Lemma 13.2 Sind die Koeffizienten an alle in R so gilt darüber hinaus: Ist cj eine Nullstelle von p(z), so ist cj ∗ eine weitere Nullstelle. Betrachtet man die Eigenschaften der komplexen Konjugation erkennt man (p(z))∗ = p(z ∗ ). Anmerkung 13.10 Das vorherige Lemma bedeutet nicht, dass eine reelle Nullstelle automatisch eine Nullstelle der Vielfachheit 2 ist. Es gilt zwar p(cj ) = 0 = (p(cj ))∗ = p(c∗j ) = 0, aber für cj ∈ R ist cj = c∗j . Es lässt sich keine Schlussfolgerung auf die Vielfachheit ziehen, wie auch das folgendende Beispiel zeigt. Sei p(z) = z 2 − 1, das Polynom hat die Nullstelle c1 = 1, aber c1 hat nur Vielfachheit 1, denn p(z) = (z − 1)(z + 1). Die Bedeutung des Fundamentalsatzes kommt zum Beispiel zum Tragen bei der Berechnung von Eigenwerten reeller n × n Matrizen. 110 13.4 Anwendungen für komplexe Zahlen 13.4.1 Bahnkurven und Bewegungsgleichungen Manche Probleme im Reellen lassen sich ins Komplexe übertragen und dort (hoffentlich) leichter lösen. Betrachten wir als Beispiel die Bewegung eines Punktteilchens auf einer Kreisbahn mit Radius R und Winkelgeschwindigkeit ω um den Ursprung. Dabei sind R, ω ∈ R. Diese Bahn kann man in der komplexen Ebene wie folgt darstellen: z(t) = Reiωt . Dabei ist z(t) ∈ C und t ∈ R bezeichnet die Zeit. Die Geschwindigkeit des Teilchens ist wie immer ż = dd zt : ż = iωReiωt . Entsprechend berechnet man die Beschleunigung als z̈. z̈ = −ω 2 Reiωt . Diese Ergebnisse kann man in kartesische Koordinaten übersetzen, wenn das Problem es verlangt. Die Vorgehensweise ist dabei analog zu ! z1 C ∋ z = z1 + iz2 7→ = x ∈ R2 . z2 Man benutzt hier die Euler-Formel und sortiert nach Real- und Imaginärteil. Dies ergibt für den Ort ! cos ωt z(t) = R(cos ωt + i sin ωt) 7→ x = R . sin ωt Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als z(t) 7→ Rê̺ . Für die Geschwindigkeit ergibt sich: ! − sin ωt . ż = iωR(cos ωt + i sin ωt) = ωR(− sin ωt + i cos ωt) 7→ ẋ = ωR cos ωt Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als ż(t) 7→ ωRêφ . 111 Für die Beschleunigung: ! cos ωt z̈ = −ω 2 R(cos ωt + i sin ωt) 7→ ẋ = −ω 2 R . sin ωt Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als z̈(t) 7→ −ω 2 Rê̺ . Die Bahnkurve für die Spiralbahn aus Aufgabe 3 auf Blatt 4 hat im Komplexen diese Darstellung: L·t 2π z(t) = L + exp i t . T T 13.4.2 ”Wellen” Betrachte die zeitlich variierende Größe E = A · cos ωt E, A, w, t ∈ R, E, A, w, konst . E nimmt dabei alle Werte in [−A, A] an. Oder mit einer Phasenverschiebung ∆φ: E = A · cos(ωt + ∆φ) . Die kann man ins Komplexe übersetzen: E = A · cos(ωt + ∆φ) = ARe (ei(ωt+∆φ) ) = Re (Aei(ωt+∆φ) ) = Re (Aeiωt ei∆φ ) = Re (Aei∆φ eiωt ) = Re (Zeiωt ) mit Z ∈ C , was manche Rechnungen vereinfachen kann. Man rechnet mit der komplexen ZahlZeiωt und am Ende nimmt man den Realteil Re (Zeiωt ), dies ist oft bequemer als die Darstellung mit Kosinus und Sinus. 13.4.3 Optik In der Optik definiert man den komplexen Brechungsindex n̂ als die Wurzel der komplexen dielektrischen Funktion ε: √ n̂ = ε = n + ik , dabei sind n, k reelle Zahlen, Imaginär- und Realteil der Wurzel. Das reelle n nennt man den Brechungsindex und k den Absorptionskoeffizienten. 112 13.4.4 Weiteres Weitere Anwendungen/Vorkommen komplexer Zahlen in der Physik: • Differentialgleichungens und Schwingungen • Fouriertransformation • Quantenmechanik (Vorlesung Quantenmechanik) 13.5 Funktionen, Integrale, Ableitungen Auf C ist es genau wie im Reellen möglich Funktionen zu definieren, die in diesem Fall mit komplexen Argumenten arbeiten. So sind zum Beispiel Sinus und Cosinus auch für komplexe Zahlen definiert, ebenso Wurzeln, Exponentialfunktionen, Logarithmen und Polynome. Ebenso machen die Begriffe Integration und der Ableitung auch im Komplexen Sinn. Vieles ist wie in den Reellen Zahlen, wobei komplexe Funktionen zahlreiche neue Eigenschaften haben können. Dies ist Gegenstand der Funktionentheorie. Faustregel: Was im Reellen definiert ist, ist auch im Komplexen definiert. 13.6 Anwendungen der Euler Formel Additionstheoreme Die Euler Formel ist enorm nützlich um Additionstheoreme für Sinus und Cosinus herzuleiten, bzw. zu beweisen. Im Folgen betrachten wir ein Beispiele dafür. Die Eulerformel verbindet die Exponentialfunktion mit den Winkelfunktionen, siehe Satz 13.1: eiϕ = cos ϕ + i sin ϕ . Umgekehrt kann man damit auch Sinus und Cosinus über die Exponentialfunktion darstellen. Satz 13.3 Für φ ∈ R gilt: a) cos φ = 1 2 b) sin φ = 1 2i eiφ + e−iφ eiφ − e−iφ Beweis Wir beweisen die Aussage für den Cosinus. 1 iφ −iφ = e +e 2 113 Anwendung der Euler Formel 1 cos(φ) + i sin(φ) + cos(−φ) + i sin(φ) 2 1 1 = (cos φ + i sin φ + cos φ − i sin φ) = (2 cos φ) 2 2 = cos φ . = Der Beweis für den Sinus verläuft analog. Korollar 13.2 Für a, b ∈ R gilt a) cos(a + b) = cos a cos b − sin a sin b b) sin(a + b) = cos a sin b + sin a cos b Beweis Der Beweis erfolgt über die Euler Formel, die wir auf zwei Weisen anwenden. Es gilt einerseits ei(a+b) = cos(a + b) + i sin(a + b) , und andererseits ei(a+b) = eia eib = (cos a + i sin a) · (cos b + i sin b) = cos a cos b + i cos a sin b + i sin a cos b − sin a sin b Sortieren nach Imaginär- und Realteil = |cos a cos b {z − sin a sin }b +i (cos a sin b + sin a cos b) . | {z } =cos(a+b) =sin(a+b) Die Gleichheit der Ausdrücke folgt daraus, dass Imaginär- und Realteil der beiden Schreibweisen übereinstimmen müssen. Ein Zusammenhang der vielleicht nützlich sein kann ist folgender: Korollar 13.3 Sei a ∈ R, n ∈ N. Dann gilt cos(na) + i sin(na) = (cos a + i sin a)n . Beweis cos(na) + i sin(na) = eina = (eia )n = (cos a + i sin a)n . Ähnliche Darstellungen wie für Sinus und Cosinus gibt es auch für den Sinus Hyperbolicus und den Cosinus Hyperbolicus. 114 Satz 13.4 Für φ ∈ R gilt a) sinh(φ) = 1 2 b) cosh(φ) = 1 2 eφ − e−φ eφ + e−φ 115 14 Differentialgleichungen Differentialgleichungen sind ein fundamentaler Bestandteil der Physik. Sie beschreiben das Änderungsverhalten von Eigenschaften in Abhängigkeit des Ortes, oder der Zeit. Die Newtonschen Bewegungsgleichungen F = dp , dt sind mitunter das erste was Studierenden im ersten Semester begegnet. Sie beschreiben die Änderung des Ortes mit der Zeit. Abstrakter gesprochen stellen Differentialgleichungen (DGLs) eine Beziehung zwischen einer Funktion und ihren Ableitungen her. Hier einige Beispiele, die schon während des Studiums aufgetaucht sind: Beispiel 14.1 a) Schwerkraft mg = mẍ ⇒ ẍ = g , beschreibt die Änderung der Geschwindigkeit. b) Harmonischer Oszillator ẍ = −ω 2 x , beschreibt die Auslenkung einer Masse an einer Feder. Die Theorie der Differentialgleichungen ist ein sehr weites Feld. In Abhängigkeit der Form der DGL werden Aussagen über die Existens von Lösungen betroffen, Lösungmethoden gefunden und vieles mehr. Oft auch mit einem speziellen Satz an Terminologie. Dieses Kapitel erhebt nicht im mindesten den Anspruch eine detailierte Einführung die in Theorie zu geben. Wir werden uns nur grob der allgemeinen Struktur einer DGL zuwenden um zumindest die grundlegensten Begriffe anschaulich zu machen, danach wenden wir uns einigen physikalisch wichtigen DGLs zu, die schon eine sehr spezielle Art von DGL sind. Dies liegt zum einen an der begrenzten Zeit, zum anderen daran, dass das Lösen von DGLs keinesfalls trivial ist. Oft führen spezielle Ansätze und Transformationen ans Ziel, aber es kann schnell kompliziert werden. Definition 14.1 Eine Differentialgleichung (DGL) a) stellt Bedingungen an eine Funktion x(t) b) verknüpft die Funktion und ihre Ableitungen 116 c) die höchste vorkommende Ableitung n, nennt man die Ordnung der DGL. In Gleichungen ausgedrückt gibt es eine Funktion F , die die Funktion x und ihre Ableitungen als Argumente hat F t, x(t), ẋ(t), . . . , x(n) (t) = 0 . Differentialgleichungen dieser Form nennt man implizite DGL. Eine implizite DGL ist nicht mal nach x(n) aufgelöst, muss nicht nach x( n) auflösbar sein. Notation 14.1 Manchmal findet man auch die Notation F (x, y(x), y ′(x), . . . , y (n) (x)) = 0, doch sind dies lediglich andere Bezeichner. Beispiel 14.2 a) ẍ + w 2x = 0, eine DGL der Ordnung 2. b) ẍ + a(t)ẋ + b(t)x = 0, DGL zweiter Ordnung, mit zeitabhängigen Koeffizienten a(t), b(t). Definition 14.2 Eine Differentialgleichung, die nach der höchsten Ableitung aufgelöst ist (n) (n−1) , x = f t, x, ẋ, . . . , x nennt man eine explizite DGL. Ein wichtiger Spezialfall der DGL ist die lineare DGL, das heißt eine DGL in der x und Ableitungen nur linear vorkommen. Bei linearen DGLs unterscheidet man zwei Gruppen: inhomogene und homogene DGLs. Definition 14.3 Eine inhomogene DGL ist eine DGL der Form x(n) = g(t) + n−1 X Ai (t)x(i) , i=0 wobei g(t) eine Funktion in der Variablen t ist, und die Koeffizienten Ai (t) ebenfalls Funktionen in t sind. Man nennt g(t) die Inhomogenität. Beispiel 14.3 Der angetriebene gedämpfte harmonische Oszillator ist eine inhomogene lineare DGL ẍ + 2γ ẋ + w02 x = f (t) . Hier ist f (t) die Inhomogenität. 117 Definition 14.4 Eine homogene DGL ist eine DGL der Form x(n) = n−1 X Ai (t)x(i) . i=0 Beispiel 14.4 Der gedämpfte harmonische Oszillator ist eine homogene lineare DGL ẍ + 2γ ẋ + w02 x = 0 . Im Folgenden beschränken wir uns auf lineare Differentialgleichungen, die eine Inhomogenität aufweisen können. Was uns interessiert ist eine Lösung der DGL. Bei der Konstruktion dieser Lösung ist das Superpositionsprinzip enorm wichtig. Satz 14.1 (Superpositionsprinzip 1) Seien x1 und x2 Lösungen der homogenen linearen DGl (n) x = n−1 X Ai (t)x(i) , i=0 dann ist auch jede Linearkombination x = c1 x1 + c2 x2 , mit ci ∈ C eine Lösung. Beispiel 14.5 Wir demonstrieren das Superpositionsprinzip an einem Beispiel. Wir betrachten den harmonischen Oszillator ẍ = −w02 x . Seien x1 und x2 Lösungen dieser DGL, dann konstruieren wir die Linearkombination xℓ = c1 x1 + c2 x2 , und zeigen dass sie eine weitere Lösung der DGL ist. Dazu berechnen wir die zweite Ableitung von xℓ ẍℓ = c1 ẍ1 + c2 ẍ2 da xi Lösungen sind, kann man dies umschreiben = c1 (−w02 x1 ) + c2 (−ω02 x2 ) = −ω02 (c1 x1 + c2 x2 ) = −ω02 xℓ , 118 und man sieht, dass xℓ eine weitere Lösung ist. Das Superpositionsprinzip gilt auch für inhomogene und homogene DGLs. Satz 14.2 (Superpositionsprinzip 2) Sei xs eine Lösung von (n) x = g(t) + n−1 X Ai (t)x(i) , i=0 und x1 , x2 , Lösungen der entsprechenden homogenen DGL (n) x = n−1 X Ai (t)x(i) , i=0 dann ist x = xs + c1 x1 + c2 x2 , eine Lösung der inhomogenen DGL. Anmerkung 14.1 Das Superpositionsprinzip gilt wegen der Linearität der DGL und der Linearität der Ableitung. Anmerkung 14.2 Das Superpositionsprinzip ist keine besondere Eigenschaft von Differentialgleichungen, es findet sich schon bei Gleichungssystemen. Beispiel 14.6 Sei A eine Koeffizientenmatrix und x ein Vektor, dann betrachten wir das homogene Gleichungssystem Ax = 0 . Seien nun x1 und x2 Lösungen des Systems, dann gilt für die Linearkombination xh = c1 x1 + c2 x2 A(c1 x1 + c2 x2 ) = c1 (Ax1 ) + c2 (Ax2 ) = c1 · 0 + c2 · 0 = 0 , dass sie eine weitere Lösung ist. Betrachten wir nun das inhomogene Gleichungssystem Ax = g , mit der Lösung xs . Wir bilden eine die Summe von xs und der Linearkombination der x1 und x2 , den Lösungen des homogenen Systems: x = xs + c1 x1 c2 x2 und setzen sie in die inhomogene Gleichung ein Ax = A(xs + c1 x1 c2 x2 ) = Axs + A(c1 x1 + c2 x2 ) = Axs = g . | {z } =0 119 Man mag sich fragen, wieso man Linearkombinationen von Lösungen braucht schließlich hat man ja schon eine Lösung, wozu also noch eine? Die Antwort liegt darin, dass man oft nicht nur eine Lösung sucht, sondern eine, die an Bedingungen anpassbar ist. Man verlangt zum Beispiel, dass die Lösung x(t) für ein bestimmtes t den Wert 3 annimmt, und die erste Ableitung ẋ(t) für dieses t den Wert 4. Dies ist oft mit einer Lösung nicht zu erreichen, weshalb man mehrere Lösungen linear kombinieren muss. Die Koeffizienten werden dann so gewählt, dass die Lösung diese Anfangsbedingungen erfüllt. Liegen Anfangsbedingungen vor, spricht man von einem Anfangswertproblem. Definition 14.5 Ein Anfangswertproblem liegt vor, wenn wir verlangen, dass die Lösung x(t) einer DGL für t = t0 gewissen Bedingungen genügt. Das heißt, Bedingungen der Form x(i) (t0 ) = xi 0≤i≤n−1 . Anmerkung 14.3 Die Bedingung an x(n) folgt “automatisch” aus (n) x (t0 ) = g(t0 ) + n−1 X Ai (t0 )x(i) (t0 ) . i=0 Beispiel 14.7 Wir betrachten den freien Fall. Die zu lösende DGL ist ẍ = g , die durch “Aufintegrieren” lösbar ist und die Lösung 1 x(t) = gt2 + c1 t + c2 2 hat. Verlangt man als Anfangsbedingungen dass x(t0 ) = h Anfangshöhe ẋ(t0 ) = 0 Anfangsgeschwindigkeit , dann erreicht man dies durch c1 = 0 c2 = h , wie man durch Ableiten und Einsetzen sieht. Wir werden uns nun etwas komplexere Beispiele anschauen. 120 14.1 Gedämpfter harmonischer Oszillator Wir untersuchen nun eine für die Physik relevante Differentialgleichung etwas detailierter. Dazu betrachten wir den gedämpften harmonischen Oszillator ohne Antrieb. Definition 14.6 Gedämpfter harmonischer Oszillator ohne Antrieb ẍ + 2γ ẋ + ω02 x = 0 . Eine homogene lineare Differentialgleichung zweiter Ordnung. Zusätzlich zum harmonischen Oszillator haben wir hier einen Dämpfungsterm 2γ ẋ, mit der Dämpfungskonstanten 2γ, die Proportional zur Geschwindigkeit ist. Wir führen auf diese Art einen Reibungsterm ein, der das System verlangsamt. Zur Lösung dieser DGL machen wir einen Ansatz für x(t), den wir in die DGL einsetzen. Anmerkung 14.4 Für Differentialgleichungen dieser Form, macht man oft einen Ansatz der Form x(t) = eλt , mit λ ∈ C, das durch Einsetzen des Ansatzes in die DGL näher bestimmt wird. Wir setzen x(t) = eλt in die DGL ein und bilden die entsprechenden Ableitungen ! λ2 eλt + 2γλeλt + ω02eλt = 0 ! 2 2 λt ⇒ e λ 2γλ + ω0 = 0 da eλt 6= 0 für alle t, muss der andere Faktor Null werden ! λ2 + 2γλω02 = 0 , womit man das gesuchte λ erhält λ± = −γ ± q γ 2 − ω02 . Damit konstruieren wir die beiden Lösungen ( q x(t)+ = exp −γ + ) γ 2 − ω02 t ( ) q x(t)− = exp −γ − γ 2 − ω02 t . 121 (14.1) Das heißt unsere allgemeine Lösung ist eine Linearkombination aus den beiden möglichen Lösungen Lemma 14.1 Die allgemeine Lösung des gedämpften harmonischen Oszillators ohne Antrieb ist ( ( ) ) q q −γ − γ 2 − ω02 t . x(t) = Ax+ + Bx− = A exp −γ + γ 2 − ω02 t + B exp Anmerkung 14.5 Für den ungedämpften harmonischen Oszillator, d.h. γ = 0, erhält man damit die Lösung q 2 x(t)± = exp ± −ω0 t = exp {±iω0 t} , mit der allgemeinen Lösung x(t) = Ax+ + Bx− . Woraus sich mit Hilfe der Euler Formel Sinus- und Cosinuslösungen gewinnen lassen. Wenden wir uns wieder dem gedämpften harmonischen Oszillator zu. Je nach Konstellation der Konstanten γ und ω0 kann man drei Fälle unterscheiden, die wir uns im Folgenden ansehen werden. 14.1.1 Schwingfall Definition 14.7 Im Schwingfall gilt ω0 > γ . Im sogenannten Schwingfall liegt eine schwache p Dämpfung vor und es gilt ω0 > γ. Das 2 2 heißt γ − ω0 < 0 und damit wird die Wurzel γ 2 − ω02 in Gleichung (14.1) imaginär. Wir definieren uns nun eine neue Größe −ω 2 := γ 2 − ω02 , damit wird Gleichung (14.1) λ± = −γ ± = −γ ± q √ γ 2 − w02 −ω 2 = −γ ± iω , und unsere Lösungen werden zu x± = exp (−γ ± iω)t = |{z} e−γt e|±iωt {z } , I mit 122 II I Abfallende e-Funktion II Oszillierende e-Funktion. Die allgemeine Lösung ist damit −γt x(t) = Ax+ + Bx− = e iωt Ae −iωt + Be . Wir werden jetzt die allgemeine Lösung an Anfangsbedungungen anpassen. Dazu wählen wir die Anfangsbedingungen ! a) x(t = 0) = 0 ! b) ẋ(t = 0) = v0 d.h. zur Zeit t = 0 ist die Auslenkung 0 und die Anfangsgeschwindigkeit ist v0 . Um die Bedingung für x(t) einzuarbeiten betrachten wir x(t = 0) = A + B , damit dies 0 wird, muss gelten B = −A und damit x(t) = e−γt Aeiωt − Ae−iωt = Ae−γt eiωt − e−iωt . Um die zweite Anfangsbedingung einzubauen brauchen wir die erste Ableitung von x(t) ẋ(t) = −γAe−γt eiωt − e−iωt + iωAe−γt eiωt + e−iωt , damit womit folgt ! ẋ(t = 0) = −γA (1 − 1) + iωA (1 + 1) = i2Aω = v0 , v0 . i2ω Der Wert von A mag seltsam erscheinen, schließlich soll x(t) eine Auslenkung beschreiben, also einen reellen Wert. Man bedenke jedoch, dass in x(t) auch noch eine komplexwertige e-Funktion enthalten ist. Diese drücken wir nun mittels Euler Formel als Sinus und Cosinus aus. v0 −iωt v0 iωt −γt e − e x(t) = e i2ω i2ω v0 cos(ωt) + i sin(ωt) − cos(ωt) − i sin(ωt) = e−γt i2ω v0 −γt = e sin(ωt) . ω A= 123 Damit haben wir also unsere Lösung die den Anfangsbedingungen x(t = 0) = 0 und ẋ(t = 0) = v0 genügt v0 x(t) = e−γt sin(ωt) , ω eine Oszillierende Sinus-Funktion, deren Amplitude mit e−γt abnimmt. 14.1.2 Kriechfall Definition 14.8 Im Kriechfall gilt ω0 < γ . Im Kriechfall liegt eine starke Dämpfung vor, d.h. ω0 < γ. Damit wir also rein reell. Wir definieren uns wieder eine neue Größe p γ2 − ω02 > 0 ω 2 := γ 2 − ω02 . Damit wird Gleichung (14.1) zu q λ± = −γ ± γ 2 − ω02 √ = −γ ± ω 2 = −γ ± ω , und unsere Lösungen werden zu e±ωt , x± = |{z} e−γt |{z} I mit II I Abfallende e-Funktion II Abfallende/Ansteigende e-Funktion. Anmerkung 14.6 Die ansteigende e-Funktion mag verwunderlich erscheinen, da sie für t → ∞ gegen ∞ strebt. Doch betrachtet man e−γt eωt = e(ω−γ)t mit ω 2 = γ 2 − ω02 , also ω < γ, dann sieht man dass ω − γ < 0 ist, und die e-Funktion insgesamt abfallend ist. Wir konstruieren die allgemeine Lösung x(t) = Ax+ + Bx− = e−γt Aeωt + Be−ωt . Auch hier wollen wir x(t) an die Anfangsbedingungen a) x(t = 0) = 0 b) ẋ(t = 0) = v0 124 anpassen. Wie im vorherigen Abschnitt ergibt sich aus der Anfangsbedingung für x(t) B = −A , mit diesem Ergebnis betrachten wir ẋ(t) für t = 0 ! ẋ(t = 0) = −γ (A − A) + ω (A + A) = 2ωA = v0 , und wir erhalten v0 . 2ω Diese Lösung schreiben wir um, indem wir, ähnlich zu vorher, ausnutzen dass gilt A= eϕ = cosh ϕ + sinh ϕ . Wir erhalten die Lösung, die den Anfangsbedingungen genügt x(t) = v0 −γt e sinh(ωt) . ω 14.1.3 Aperiodischer Grenzfall Definition 14.9 Im aperiodischen Grenzfall gilt ω0 = γ . Im aperiodischen Genzfall stimmen γ und ω0 exakt überein. Damit fällt der Term p γ 2 − ω02 weg und Gleichung (14.1) wird zu λ = −γ , das heißt wird erhalten auf diese Art nur eine Lösung, nämlich x1 = e−γt . Da wir x1 jedoch nicht immer an gegebene Anfangsbedingungen anpassen können, benötigen wir eine weitere Lösung. Dazu können wir das Verfahren im folgenden Abschnitt anwenden, das uns folgende weiter Lösung liefert x2 = te−γt , die wir mit x1 linear kombinieren können zur allgemeinen Lösung x(t) = Ax1 + Bx2 = e−γt (A + Bt) . Auch hier wollen wir die Lösung an die Anfangsbedingunen a) x(t = 0) = 0 125 b) ẋ(t = 0) = v0 anpassen. Für x(t) ergibt sich x(t = 0) = A , womit direkt folgt A = 0. Wir bilden ẋ(t) = −γe−γt Bt + e−γt B = e−γt B (1 − γt), und erhalten ẋ(t = 0) = B , womit direkt folgt B = v0 . Damit ist die an die Anfangsbedingungen angepasste Lösung x(t) = v0 e−γt t . 14.1.4 Weitere unabhängige Lösung bestimmen Wie wir beim aperiodischen Grenzfall gesehen haben, kann es vorkommen dass man nur eine Lösung bestimmen kann, man aber zwei unabhängige braucht um die Linearkombination zu erzeugen die man an Anfangsbedingungen anpassen kann. In diesem Abschnitt betrachten wir wie man sich eine weitere unabhängige Lösung beschaffen kann, wenn man bereits eine Lösung x1 hat. Lemma 14.2 Sei x1 (t) eine Lösung einer homogenen linearen DGL. Dann kann man sich eine zweite unabhängige Lösung x2 (t) verschaffen, mittels folgendem Ansatz x2 (t) = u(t)x1 (t) . Durch einsetzen von x2 (t) in die DGL, kann man die Funktion u(t) bestimmen. Als Beispiel betrachten wir den gedämpften harmonischen Oszillator ohne Antrieb im aperiodischen Grenzfall, also mit γ = ω0 . Beispiel 14.8 Wir betrachten die DGL ẍ + 2γ ẋ + γ 2 x = 0 , von der wir bereits x1 = e−γt als Lösung bestimmt haben. Um uns eine weitere Lösung zu verschaffen machen wir den Ansatz x2 (t) = u(t)x1 (t) = u(t)e−γt , den wir in die DGL einsetzen, wofür wir die Ableitungen von x2 brauchen a) ẋ2 = u̇x1 + uẋ1 b) ẍ2 = üx1 + u̇ẋ1 + u̇ẋ1 + uẍ1 = üx1 + 2u̇ẋ1 + uẍ1 126 Einsetzen in die DGL ! 0 = üx1 + 2u̇ẋ1 + ux¨1 + 2γ(u̇x1 + uẋ1 ) + ω02 ux1 umsortieren der Terme = üx1 + 2u̇ẋ1 + 2γ u̇x1 + u (ẍ1 + 2γ ẋ1 + ω02 x1 ) | {z } =0 da x1 DGL löst = üx1 + 2u̇ẋ1 + 2γ u̇x1 ausnutzen dass ẋ1 = −γx1 = üx1 − 2u̇γx1 + 2γ u̇x1 = ü(t)e−γt . Da e−γt 6= 0, muss damit ü(t) = 0 gelten. Dies liefert u(t) = t. Damit ist die zweite unabhängige Lösung x2 (t) = u(t)x1 (t) = te−γt . 127 Literatur [Gat12] Andreas Gathmann. Grundlagen der Mathematik. 2012. url: http://www. mathematik.uni-kl.de/agag/mitglieder/professoren/gathmann/notes/gdm/ (besucht am 02. 11. 2015). [Kor07] Hans J Korsch. Mathematische Ergänzungen: zur Einführung in die Physik. 4., veränd. Aufl. Binomi, Okt. 2007. isbn: 9783923923618. [Mar00] Thomas Markwig. Lineare Algebra I und II. 2000. url: http://www.mathematik. uni-kl.de/agag/mitglieder/privatdozenten/keilen/veroeffentlichungenthomas-markwig/ (besucht am 09. 11. 2015). 128 Index Effektivpotential, 60 Eigenvektor, 76 Eigenwert, 76 Einheitsmatrix, 71 Einheitsvektor, 18 Einschränkung, 29 Elemente, 6 Energie kinetische, 48 potenielle, 48 Euler Formel, 106 O(n), 83 SO(n), 83 Adjunkte, 86 Algebra, 82 aperiodischer Grenzfall, 125 Bahnbeschleunigung, ebenen Polarkoordinaten, 36 Bahngeschwindigkeit, ebene Polarkoordinaten, 35 Bahnkurve, ebene Polarkoordinaten, 35 bijektiv, 29 Bild, 29 bilinear, 14 Bilinearform, 14 Freiheitsgrad der Bewegung, 50 des Systems, 50 Gebiet, 23 Gradient, 24 Gruppe, 8 spezielle orthogonale, 83 abelsche, 8 orthogonale, 83 symmetrische, 73 Cauchy-Schwarzsche Ungleichung, 17 Determinante, 75 Determinantenentwicklung, 95 diagonalisierbar, 81 Diagonalisierungsmatrix, 79 Diagonalmatrix, 80 Differentialgleichung, 116 Anfangswertproblem, 120 explizite, 117 homogene, 118 implizite, 117 inhomogene, 117 lineare, 117 diskrete Metrik, 20 Divergenz, 27 Drehimpuls, 58 Dreiecksungleichung, 17 harmonischer Oszillator, 51 Hauptdiagonale, 65 Imaginärteil, 101 Inhomogenität, 117 injektiv, 29 Instabiler Fixpunkt, 56 Inverse, 29 Körper, 9 Komplexe Konjugation, 103 Komplexe Wurzel, 108 Komplexe Zahlen, 99 Ebene Polarkoordinaten, 34 129 Produkt dyadisches, 69 konservativ, 24 Koordinatentransformation, 29 Basisvektor, 30 orthogonal, 31 Kriechfall, 124 quellenfrei, 27 Längenelement, 32 Laplace-Operator, siehe Operator, Laplace Linearer Operator, siehe Operator, linearer Matrix, 64 Adjunkte, 86 erweiterte, 88 quadratisch, 65 Spaltenvektor, 65 Streichungsmatrix, 85 symmetrisch, 79 transponierte, 65 Zeilenvektor, 65 Matrixmultiplikation, 67 Menge, 6 Metrik, 19 metrischer Raum, 20 Nabla-Operator, siehe Operator, Nabla Norm, 16 normierter (Vektor-)Raum, 17 Nullvektor, 12 Realteil, 101 Rotation, 25 Runge-Lenz Vektor, 61 Sarrus, Regel von, 94 Schwerpunkt diskreter Fall, 41 kontinuierlicher Fall, 42 Schwingfall, 122 Skalare, 12 Skalarfeld, 22 Skalarprodukt, 11, 14 kanonisches, 15 Standardskalarprodukt, 15 Spektrum, 77 Spur, 72 Stabiler Fixpunkt, 54 Streichungsmatrix, 85 Superpositionsprinzip, 118, 119 surjektiv, 29 Transponierte, siehe Matrix, transponierte Transposition, 74 Tupel, 7 Operator linearer, 21 Nabla, 22 Urbild, 29 Vektor Projektion, 18 Zerlegung, 19 Vektoraddition, 11 Vektoren, 12 Vektorfeld, 23 Vektorraum, 11 euklidischer, 15 Volumenelement, 32 Volumenintegral, 38 Masse, 40 Pendel mathematisches, 53 Periodendauer, 49 Permutation, 73 Phasenbahn, 51 Phasenraum, 51 Polardarstellung, 107 Polynom charakteristisches, 77 positiv definit, 14 Potential, 24 Winkel, 17 130 Winkelgeschwindigkeit, 59 Winkelgeschwindikeit, 36 Wirbelfeld, 26 wirbelfrei, 26 Zentralkraftfeld, 58 131