Mathematische Methoden der Physik Prof. Dr. Ludger Santen Kontakt: Ludger Santen, Universität des Saarlandes, Geb. E2 6, Zi. 4.15 [email protected] http://www.uni-saarland.de/campus/fakultaeten/professuren/ naturwissenschaftlich-technische-fakultaet-ii/theoretische-physik/ professuren-theoretische-physik-fr-71/prof-dr-ludger-santen.html letzte Aktualisierung: 13. Januar 2011 1 Inhaltsverzeichnis 1 Komplexe Zahlen 1.1 Komplexe Zahlen und die komplexe Ebene . . . . . 1.2 Die vier Grundrechenarten mit komplexen Zahlen . . 1.2.1 Addition und Subtraktion . . . . . . . . . . . 1.2.2 Multiplikation . . . . . . . . . . . . . . . . . 1.2.3 Division . . . . . . . . . . . . . . . . . . . . 1.3 Eigenschaften komplexer Zahlen . . . . . . . . . . . 1.3.1 Die komplex konjugierte Zahl . . . . . . . . 1.3.2 Betrag und Argument komplexer Zahlen . . . 1.4 Komplexe Zahlen und die Exponentialfunktion . . . 1.4.1 Die Polardarstellung komplexer Zahlen . . . 1.4.2 Multiplikation und Division in Polarform . . 1.4.3 de Moivres Theorem . . . . . . . . . . . . . 1.5 Trigonometrische Funktionen . . . . . . . . . . . . . 1.5.1 Additionstheoreme . . . . . . . . . . . . . . 1.6 Die n-te Wurzel von 1 . . . . . . . . . . . . . . . . . 1.7 Der komplexe Logarithmus . . . . . . . . . . . . . . 1.8 Hyperbolische Funktionen . . . . . . . . . . . . . . 1.9 Hyperbolische Umkehrfunktionen – Areafunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Elemente der linearen Algebra 2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Lineare Gleichungen . . . . . . . . . . . . . . . . . . 2.1.2 Vektorräume: Definition und Beispiele . . . . . . . . . 2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme . 2.3 Lineare (Un-) Abhängigkeit . . . . . . . . . . . . . . . . . . . 2.4 Vektorräume und Basis . . . . . . . . . . . . . . . . . . . . . 2.5 Lösen linearer Gleichungssysteme . . . . . . . . . . . . . . . 2.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Rechenoperationen mit Matrizen . . . . . . . . . . . . 2.6.2 Determinanten . . . . . . . . . . . . . . . . . . . . . 2.6.3 Matrixinversion . . . . . . . . . . . . . . . . . . . . . 2.6.4 Matrizen: Definitionen und Eigenschaften . . . . . . . 2.6.5 Das Eigenwertproblem . . . . . . . . . . . . . . . . . 2.6.6 Entartete Eigenwerte . . . . . . . . . . . . . . . . . . 2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix 2.6.8 Basiswechsel und Ähnlichkeitstransformationen . . . 2.6.9 Diagonalisierung von Matrizen . . . . . . . . . . . . . 3 Differentialrechnung im Rn 3.1 Funktionen mehrerer Variablen . . . . . . . . . . . . . . . 3.2 Das totale Differential und die totale Ableitung . . . . . . 3.3 Exakte und inexakte Differentiale . . . . . . . . . . . . . 3.4 Rechenregeln für partielle Ableitungen . . . . . . . . . . . 3.5 Variablentransformation . . . . . . . . . . . . . . . . . . . 3.6 Taylor-Entwicklung . . . . . . . . . . . . . . . . . . . . . 3.7 Stationäre Punkte von Funktionen mit mehreren Variablen 3.8 Extrema mit Nebenbedingungen . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 6 6 6 7 7 7 8 8 9 10 10 12 13 13 14 15 . . . . . . . . . . . . . . . . . 16 16 16 17 18 18 19 20 23 23 24 25 26 28 29 30 31 32 . . . . . . . . 35 35 36 37 37 38 39 40 41 4 Integralrechnung im Rn 4.1 Zweidimensionale Integrale . . . . . . . . . . . . . . 4.2 Dreifachintegrale . . . . . . . . . . . . . . . . . . . 4.3 Variablentransformation . . . . . . . . . . . . . . . . 4.3.1 Transformationen im R2 . . . . . . . . . . . 4.3.2 Variablentransformation in Dreifachintegralen 5 Vektoranalysis 5.1 Der Gradient . . . . . . . . . . . . . . . . 5.2 Raumkurven und Kurvenintegrale . . . . . 5.3 Länge und Bogenlänge . . . . . . . . . . . 5.4 Skalare Kurvenintegrale . . . . . . . . . . . 5.5 Vektorielle Kurvenintegrale . . . . . . . . . 5.5.1 Verhalten bei Umparametrisierung: 5.6 Konservative Vektorfelder und Potential . . 5.7 Weitere Vektoroperatoren . . . . . . . . . . 5.8 Oberflächenintegrale . . . . . . . . . . . . 5.9 Das vektorielle Oberflächenintegral . . . . 5.10 Der Integralsatz von Gauß . . . . . . . . . 5.11 Der Integralsatz von Stokes . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 43 44 45 45 47 . . . . . . . . . . . . 49 49 49 50 51 51 52 52 53 54 57 59 60 Vorbemerkungen Die Vorlesung Mathematische Methoden der Physik ist weder eine Mathematik- noch eine Physikvorlesung. Sie stellt vielmehr eine Vielzahl von Rechenmethoden für die Vorlesungen der theoretischen und experimentellen Physik zur Verfügung. Dieses Konzept hat einige praktische Konsequenzen: Training: Sie lernen nicht zu schwimmen, wenn Sie regelmäsig Wettkämpfe im Fernsehen schauen. Sie lernen es auch nicht, wenn Sie Freunden beim Schwimmen zusehen. Sie müssen selber schwimmen und das ist am Anfang schwer! Leichter wird es, wenn Ihnen ein Trainer Tipps gibt. Gleiches gilt für die mathematischen Methoden. Sie müssen selber rechnen, rechnen, rechnen! Lassen Sie sich aber bei Problemen von Ihren Trainern (Übungsgruppenleiter, Tutor, Kommilitonen) helfen. Tutorien: Die Vorlesung mathematische Methoden der Physik baut auf das Abiturwissen aus dem Mathematik-Grundkurs auf, also auf die Rechenmethoden, die wir im Vorkurs noch einmal wiederholt haben. Sollten Sie damit noch Probleme haben, sollten Sie sich bemühen, die Probleme schnell zu beseitigen, eventuell mit Hilfe des Tutoriums. Ausrichtung: Physik wird in dieser Vorlesung nur eine untergeordnete Rolle spielen, insbesondere werden Sie keine physikalischen Übungsaufgaben lösen. Dies hat den Grund, dass die Übertragung des physikalischen in ein geeignetes mathematisches Problem häufig den Schwierigkeitsgrad der Aufgabe erhöht und eigens eingeübt werden muss. Der geeignete Ort, um diese Fähigkeit zu üben, sind die Module der theoretischen und experimentellen Physik. Zur Vorlesung wird ein Skript veröffentlicht, das Sie für die Lösung der Übungen nutzen können. Sollten Sie zusätzlich Bedarf an einem Lehrbuch haben, gibt es eine reiche Auswahl an geeigneten Lehrbüchern. Eine unvollständige Auswahl finden Sie in folgender Liste: 1. Rainer Wüst, Höhere Mathematik für Mathematiker und Physiker, Bde 1& 2, Wiley VCH, 2003 2. Christian B. Lang, Norbert Puckler, Mathematische Methoden in der Physik, Spektrum Akademischer Verlag, 2005. 3. Helmut Fischer, Helmut Kaul, Mathematik für Physiker 1-3, Teubner, 2005 4 1 Komplexe Zahlen Durch die Einführung komplexer Variablen ist es für beliebige algebraische Gleichungen möglich, die Wurzeln der Gleichung anzugeben. Damit entfällt eine Einschränkung die im Körper der reellen Zahlen besteht. Die Einführung der komplexen Zahlen hat aber nicht nur den Lösungsraum algebraischer Gleichungen erweitert, sondern auch viele analytische Rechnungen stark vereinfacht, wie wir in einem späteren Abschnitt dieser Vorlesung sehen werden. 1.1 Komplexe Zahlen und die komplexe Ebene Obwohl komplexe Zahlen in sehr vielen Bereichen auftreten, begegnen sie uns am natürlichsten als Wurzeln von Polynomen. Dies wollen wir am Beispiel der quadratischen Gleichung z2 − b z + c = 0 . (1) diskutieren. Die Gleichung (1) hat die beiden Lösungen1 z1/2 = i p 1h b ± b2 − 4c . 2 (2) Wenn der Ausdruck unter der Wurzel (die Diskriminante) positiv ist, also b2 − 4c > 0 gilt, sind die beiden Lösungen reelle Zahlen. Für b2 − 4c < 0 steht man allerdings vor dem Problem, dass es im Körper der reellen Zahlen keine Lösung der obigen Gleichung gibt. Um nun trotzdem eine Lösung der Gleichung angeben zu können, muss man also den Zahlenraum erweitern. Dazu führt man eine neue Art von Zahl ein, die sog. imaginäre Einheit i mit der Definition i2 = −1 . (3) Mit dieser Vereinbarung lässt sich nun auch für b2 − 4c < 0 eine Lösung angeben z1/2 = i p 1h b ± i 4c − b2 . 2 (4) Ganz allgemein schreiben wir komplexe Zahlen in der Form z = x + iy , (5) wobei x und y reelle Zahlen sind. Man nennt√x den Realteil und y den Imaginärteil von z. In dem vorigen Beispiel ist x = b/2 und y = ± 4c − b2 /2. Man schreibt für den Real- und den Imaginärteil auch x = Re(z) y = Im(z). und (6) Der Fundamentalsatz der Algebra sagt uns auch, daß ein Polynom wie in Gl. (1) immer eine Lösung hat, nur ist diese manchmal komplex. Ist das Polynom von Grade 3 und höher, also vom Grade n, so sagt uns der Fundamentalsatz, daß es n-Lösungen gibt, die aber nicht alle ver2 schieden seinen √ müssen. Im speziellen Beispiel hat das Polynom z − 4z + 5 = 0 die Lösungen z1/2 = 2 ± 16 − 20/2 = 2 ± i. 1 Zur Erinnerung: Gleichung (1) kann umgeschrieben werden in (z − b/2)2 + c − b4 /4 = 0 bzw. (z − b/2)2 p p c. Zieht man daraus die Wurzel, so folgt z − b/2 = ± b2 /4 − c bzw. z = b/2 ± b2 /4 − c . 5 = b2 /4 − 1.2 Die vier Grundrechenarten mit komplexen Zahlen 1.2.1 Addition und Subtraktion Die Addition zweier komplexer Zahlen z1 und z2 ergibt im allgemeinen wieder eine komplexe Zahl. Dabei werden die Realteile xi und die Imaginärteile yi separat addiert. z1 + z2 = (x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i(y1 + y2 ) . (7) Dies hat eine gewisse ähnlichkeit zu Vektoren, wo die Addition komponentenweise ausgeführt wird. Man kann sich auch sofort davon überzeugen, daß aus der Gültigkeit des Assoziativ- und Kommutativgesetzes für die Addition reeller Zahlen, diese Gesetze ebenso für komplexe Zahlen folgen. z1 + z2 = z2 + z1 (Kommutativgesetz) z1 + (z2 + z3 ) = (z1 + z2 ) + z3 (Assoziativgesetz) (8) (9) 1.2.2 Multiplikation Die Multiplikation zweier komplexer Zahlen ergibt gewöhnlich auch wieder eine komplexe Zahl. Das Produkt erhält man, indem man alles ausmultipliziert und sich daran erinnert, daß i2 = −1 gilt. z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 + ix1 y2 + iy1 x2 + i2 y1 y2 = (x1 x2 − y1 y2 ) + i(x1 y2 + x2 y1 ). (10) Das Produkt der beiden Zahlen z1 = 3 + 2i und z2 = −1 − 4i ist demnach z1 z2 = (3 + 2i)(−1 − 4i) = −3 − 2i − 12i − 8i2 = 5 − 14i Wie für reelle Zahlen, so gelten auch für die Multiplikation komplexer Zahlen das Kommutativund das Assoziativgesetz z1 z2 = z2 z1 (z1 z2 )z3 = z1 (z2 z3 ) . (11) 1.2.3 Division Der Quotient zweier komplexer Zahlen ist z3 = z1 x1 + iy1 = z2 x2 + iy2 . Dies möchte man natürlich wieder in der Form z3 = x3 + iy3 mit x3 , y3 ε R darstellen und erweitert hierfür einfach den Quotienten mit (x2 − iy2 ). z1 z2 = = (x1 + iy1 )(x2 − iy2 ) (x1 x2 + y1 y2 ) + i(x2 y1 − x1 y2 ) = (x2 + iy2 )(x2 − iy2 ) x22 + y22 x1 x2 + y1 y2 x2 y1 − x1 y2 +i 2 x22 + y22 x2 + y22 6 (12) 1.3 Eigenschaften komplexer Zahlen 1.3.1 Die komplex konjugierte Zahl Zu einer komplexen Zahl z = x + iy wird noch die komplex konjugierte Zahl z∗ = x − iy niert. Es gelten einige nützliche Rechenregeln. Für z = x + iy gilt defi- (z∗ )∗ = z z + z∗ = 2x z − z∗ = 2iy (13) 1.3.2 Betrag und Argument komplexer Zahlen Da jede komplexe Zahl z = x + iy als geordnetes Paar reeller Zahlen betrachtet werden kann, lassen sich solche Zahlen durch Punkte in der xy-Ebene, der sogenannten komplexen Ebene (Argand Diagramm) darstellen. Eine komplexe Zahl die z.B. durch den Punkt P = (3, 4) in der xy-Ebene repräsentiert wird, kann daher als (3, 4) oder 3 + 4i gelesen werden. Für jede komplexe Zahl gibt es genau einen Punkt in der Ebene. Umgekehrt entspricht jedem Punkt der Ebene eine komplexe Zahl. Manchmal bezeichnet man die x und y-Achse als relle bzw. imaginäre Achse und die komplexe Ebene als z-Ebene. Abbildung 1: Punkt in der komplexen Ebene. Der Abstand des Punktes (x, y) vom Ursprung (0, 0) entspricht der Länge des Vektors~r = (x, y), was wir als den Betrag der komplexen Zahl interpretieren. Der Betrag einer komplexen Zahl wird also definiert durch: p | z |= x2 + y2 . (14) Wenn man die komplex konjugierte Zahl benutzt, kann man den Betrag auch in der Form p √ | z |= z · z∗ = (x + iy)(x − iy) (15) angeben. Mit dem Argument einer komplexen Zahl arg(z) wird der Winkel φ = arg z in Abb. 1 bezeichnet y arg(z) = arctan( ) . (16) x Durch Konvention wird dieser Winkel entgegen des Uhrzeigersinnes positiv gewählt. Zur Illustration betrachten wir das konkrete Beispiel z = 2 − 3i. Der Betrag dieser komplexen Zahl ist q √ | z |= 22 + (−3)2 = 13 7 und ihr Argument 3 arg(z) = arctan(− ) ∼ −56, 3◦ = −0.98279 2 1.4 Komplexe Zahlen und die Exponentialfunktion Nachdem wir die einfachen Rechenregeln für komplexe Zahlen diskutiert haben, müssen wir uns mit elementaren Funktionen komplexer Variablen beschäftigen. Dies ist eigentlich die Aufgabe der Funktionentheorie, die wir in einem späteren Abschnitt ausführlicher diskutieren werden. Eine wichtige Voraussetzung für eine sinnvolle Definition komplexer Zahlen ist, dass sie für verschwindenden Imaginärteil wieder in die entsprechende reelle Funktion übergehen. Eine komplexe Funktion von besonderer Bedeutung ist die Exponentialfunktion. Die komplexe Exponentialfunktion ist eng mit den trigonometrischen Funktionen verknüpft, woraus sich einige wichtige Rechenregeln ergeben. Die Reihendarstellung der komplexen Exponentialfunktion gilt auch für komplexe Zahlen: ∞ ez = ∑ k=0 zk . k! (17) Aus dieser Tatsache, die im Rahmen der Funktionentheorie ausführlicher diskutiert wird, lassen sich einige nützliche Zusammenhänge herleiten. 1.4.1 Die Polardarstellung komplexer Zahlen Im folgenden wählen wir ω = iφ mit reeller Variable φ . In diesen Fall ist dann ω rein imaginär und exp(ω) = exp(iφ ). Wir nutzen nun die Reihendarstellung (17) der Exponentialfunktion aus und schreiben davon die ersten Summanden hin i i2 i3 φ + φ2 + φ3 +... 1! 2! 3! i i2 2 i3 3 exp (−iφ ) = 1 − φ + φ − φ + . . . 1! 2! 3! exp (iφ ) = 1 + , . (18) Nutzen wir noch die Regel i2 = −1, so bekommen wir mit i2 2 i4 4 φ + φ + . . .) 2! 4! φ2 φ4 = 2(1 − + − . . .) 2! 4! exp (iφ ) + exp (−iφ ) = 2(1 + (19) wieder eine reelle Zahl! Offensichtlich sind für reelles φ die komplexen Zahlen z = eiφ und z = e−iφ konjugiert komplex zueinander, also z∗ = (eiφ )∗ = e−iφ . Demzufolge gilt z + z∗ = eiφ + e−iφ = 2 Re{eiφ } z − z∗ = eiφ − e−iφ = 2i Im{eiφ } . Für den Betrag von eiφ folgt mit der Regel (14) |z|2 = |eiφ |2 = zz∗ = eiφ e−iφ = eiφ −iφ = e0 = 1 Offensichtlich beschreibt eiφ einen Kreis mit Radius 1 in der komplexen Ebene. 8 (20) Abbildung 2: graphische Darstellung der Eulerformel Mit z = x +iy = eiφ sieht man aus Abb. 1 daß x = cos φ und y = sin φ . Daraus folgt die Eulersche Formel cos φ + i sin φ = eiφ . (21) Hier sieht man nun auch, daß es sich z.B. für z = iφ = iωt bei eiωt um eine Schwingung handelt. Die Exponentialfunktion in dieser Schreibweise ist daher bei der Untersuchung von Schwingungen unentbehrlich. Insbesondere folgt sofort eiπ = −1, eiπ/2 = i und ei0 = ei2π = 1. Mit der Darstellung (21) kann man auch leicht eine altbekannte Formel neu ableiten 1 = |z|2 = (cos φ + i sin φ )(cos φ − i sin φ ) = cos2 φ + sin2 φ = 1 . Darüberhinaus läßt sich jede komplexe Zahl in dieser sogenannten Polardarstellung z = reiφ schreiben, wobei r und φ reell sind. Das Argument arg(z) = φ ist in dieser Darstellung trivial abzulesen. 1.4.2 Multiplikation und Division in Polarform Die Multiplikation und Division komplexer Zahlen wird in Polardarstellung ausgesprochen einfach. Das Produkt der komplexen Zahlen z1 = r1 eiφ1 und z2 = r2 eiφ2 ist mit den Regeln für die Exponentialfunktion durch z1 z2 = r1 eiφ1 r2 eiφ2 = r1 r2 ei(φ1 +φ2 ) (22) gegeben. Daraus folgen auch unmittelbar |z1 z2 | = |z1 | · |z2 | und arg(z1 z2 ) = arg(z1 ) + arg(z2 ). Insbesondere ist auch die Division komplexer Zahlen in Polardarstellung sehr einfach z1 r1 eiφ1 r1 r1 = = eiφ1 e−iφ2 = ei(φ1 −φ2 ) iφ 2 z2 r2 e r2 r2 . Die Beziehungen |z1 /z2 | = |z1 |/|z2 | und arg(z1 /z2 ) = arg z1 − arg z2 folgen. 9 (23) 1.4.3 de Moivres Theorem Ein recht wichtiges Theorem für sin und cos folgt aus der einfachen Identität (eiφ )n = einφ . Schreibt man dies in der sin- und cos-Darstellung, so ist dies äquivalent mit n (cos φ + i sin φ )n = eiφ = einφ = cos(nφ ) + i sin(nφ ) . (24) 1.5 Trigonometrische Funktionen De Moivres Theorem zeigt deutlich den Zusammenhang zwischen (komplexer) Exponentialfunktion und den trigonometrischen Funktionen. Diesen Zusammenhang werden Sie beispielsweise bei der Lösung von Schwingungsgleichungen oder der Herleitung von Additionstheoremen nutzen können. Wir betrachten nun mit die komplexen Darstellungen von sin und cos: cos φ = sin φ = 1 iφ (e + e−iφ ) 2 1 iφ (e − e−iφ ) , 2i (25) welche unmittelbar aus (21) und (20) folgen. Mit Gl. (18) erhält man auch Reihendarstellungen für cos und sin cos φ = (−1)k 2k φ k=0 (2k)! sin φ = ∑ (2k + 1)! φ 2k+1 ∞ (26) ∑ ∞ (−1)k . (27) k=0 Entsprechend folgt auch für tan und cot eine Exponentialdarstellung. tan φ = cot φ = sin φ 1 eiφ − e−iφ , = cos φ i eiφ + e−iφ cos φ eiφ + e−iφ = i iφ . sin φ e − e−iφ (28) Ersetzt man nun φ = nΘ, so folgt auch für den n-fachen Winkel Θ zusammen mit z = eiΘ 1 n 1 1 inΘ cos(nΘ) = e + e−inΘ = z + n 2 2 z 1 n 1 1 inΘ −inΘ (29) z − n sin(nΘ) = = e −e 2i 2i z Anwendungsbeispiele 1) überlagerung zweier Schwingungen gleicher Frequenz ω, welche gegeneinander Phasenverschoben sind. Die Gesamtschwingung ist dann f (t) = A1 sin(ωt + ϕ1 ) + A2 sin(ωt + ϕ2 ) i 1 h i(ωt+ϕ1 ) = A1 e − e−i(ωt+ϕ1 ) + A2 ei(ωt+ϕ2 ) − e−i(ωt+ϕ2 ) 2i 1 1 i(ωt+ϕ1 ) = e A1 + A2 ei(ϕ2 −ϕ1 ) − e−i(ωt+ϕ1 ) A1 + A2 e−i(ϕ2 −ϕ1 ) 2i 2i 1 i(ωt+ϕ1 ) = e A1 + A2 ei(ϕ2 −ϕ1 ) + konj. komplex 2i 10 Nun kann man den Vorfaktor umschreiben und man erhält mit −η A1 + A2 ei(ϕ2 −ϕ1 ) = A eiϕ (30) wieder eine komplexe Zahl, die sich leicht mit den bisherigen Regeln berechnen läßt. Abbildung 3: Modellverstärker für den Input x(t) = 0.2sin(t) (durchgezogene Linie) und dem Output y(t) = 0.3sin(t) + 0.5sin2(t). Ein ähnliches Verhalten zeigen auch nichtlineare optische Frequenzverdoppler. Abbildung 4: Eine Überlagerung zweier leicht verstimmter Schwingungen y = cos(x) + cos(1.1x). Das Ergebnis ist eine Schwebung. Das Endsignal hat also die gleiche Frequenz, aber eine andere Amplitude und ist phasenverschoben f (t) = A cos(ωt + ϕ) . (31) 2) Betrachten wir einen Verstärker mit einem Input-Signal x(t) = x0 cos(ωt) und der Eigenschaft, daß der Output mit dem Input wie folgt zusammenhängt y(t) = B(x + f x2 ) = B(x0 cos(ωt) + x02 cos2 (ωt)) . (32) Um daran zu erkennen, welche Frequenzen im Output sind, muß man z.B. ausrechnen, wie cos2 (ωt) mit der ursprünglichen Frequenz zusammenhängt. 3) Ein anderes Problem von großer Bedeutung betrifft die überlagerung von zwei Schwingungen mit zwei leicht verstimmten Frequenzen: f (t) = A1 cos((ω + ∆ω)t + ϕ1 ) + A2 cos(ωt + ϕ2 ) . Das Resultat ist eine Schwebung. In der Akustik ist dieses Phänomen gut hörbar. 11 (33) 1.5.1 Additionstheoreme Die Herleitung von Additionstheoremen im Körper der reellen Zahlen ist häufig kompliziert. Durch die Beziehung zwischen komplexer Exponentialfunktion und den trigonometrischen Funktionen kann man dagegen diese Theoreme sehr leicht herleiten. Wir wollen dies an einigen Beispielen diskutieren. Wir betrachten dazu: sin(x + y) = 1 i(x+y) e − e−i(x+y) 2i . (34) Von exp(i(x + y)) brauchen wir nur den Imaginärteil und zur Umformung dieses Ausdruckes verwenden wir die Produktregel für Exponentialfunktionen und die Euler-Formel (21) ei(x+y) = eix eiy = (cos x + i sin x)(cos y + i sin y) = i(sin x cos y + cos x sin y) + cos x cos y − sin x sin y (35) Subtrahieren wir hiervon noch exp(−i(x + y)) so bleibt nur der Imaginärteil übrig. Insgesamt bekommen wir dadurch sin(x + y) = sin x cos y + cos x sin y . (36) Ein weiteres Problem, das man durch das Theorem von de Moivre leicht lösen kann, ist sin 3Θ und cos 3Θ durch Potenzen von cos Θ und sin Θ auszudrücken. Wir erhalten cos 3Θ + i sin 3Θ = (cos Θ + i sin Θ)3 = (cos3 Θ − 3 cos Θ sin2 Θ) + i(3 sin Θ cos2 Θ − sin3 Θ). Vergleichen wir die die Real- und Imaginärteile auf beiden Seiten, so bekommen wir cos 3Θ = cos3 Θ − 3 cos Θ sin2 Θ = cos3 Θ − 3 cos Θ(1 − cos2 Θ) = 4 cos3 Θ − 3 cos Θ (37) und sin 3Θ = 3 sin Θ cos2 Θ − sin3 Θ = 3 sin Θ(1 − sin2 Θ) − sin3 Θ = 3 sin Θ − 4 sin3 Θ . (38) Ein weiteres Beispiel ist cos3 Θ, das wir mit z = eiΘ und Gl. (20) leicht berechnen können cos3 Θ = = = = 1 1 (z + )3 3 2 z 1 3 1 1 (z + 3z + 3 + 3 ) 8 z z 1 1 3 1 3 (z + 3 ) + (z + ) 8 z 8 z 3 1 cos(3Θ) + cos Θ 4 4 (39) Potenzen von sin x und cos x führen offensichtlich zu höheren Harmonischen wie cos(3x) und umgekehrt lassen sich höhere harmonische Funktionen durch Potenzen der Grundfrequenz ausdrücken. An dem oben genannten nichtlinearen Verstärker wird dann eine Frequenzmischung deutlich. Auf diese und ähnliche Weise lassen sich eine Reihe weiterer nützlicher Beziehungen ableiten, die in Formelsammlungen aufgelistet werden. 12 1.6 Die n-te Wurzel von 1 Die Gleichung z2 = 1 hat die beiden bekannten Lösungen z = ±1. Nachdem uns die komplexen Zahlen bekannt sind, können wir auch alle Lösung von zn = 1 beschaffen. Nach dem Fundamentalsatz der Algebra gibt es für jedes Polynom n-ten Grades n Lösungen. Wir wissen auch schon, daß e2iπk = cos(2πk) + i sin(2πk) = 1 (40) falls k ∈ Z Demzufolge können wir schreiben zn = e2ikπ (41) oder z = e2iπk/n . (42) Dies bedeutet, die Lösungen von zn = 1 sind z1,2,...,n = 1, e2iπ/n , . . . , e2i(n−1)π/n , (43) wobei wir hier k = 0, 1, 2, . . . , n − 1 verwenden. Größere Werte von k ergeben keine neuen Lösungen, sondern sind nur eine Duplizierung der vorhandenen Lösungen. Betrachten wir als Beispiel die Lösungen der Gleichung z3 = 1. Wenden wir nun Formel (43) an, so erhalten wir z1 = 20i , z2 = e2iπ/3 , z3 e4iπ/3 . Für k = 3, also z4 = e6iπ/3 = e2iπ = 1 = z1 , nur eine Wiederholung von z1 . Es ist auch keine überraschung, daß wir auch |z|3 = |z3 | finden, da alle Wurzeln auf dem Einheitskreis liegen und damit den Betrag 1 haben. 1.7 Der komplexe Logarithmus Die Umkehrfunktion der Exponentialfunktion exp(x) = y ist der Logarithmus x = ln y (44) falls x, y ∈ R. Der Logarithmus ist auch die Umkehrfunktion der Exponentialfunktion für komplexe Zahlen. Für den Logarithmus einer komplexen Zahl z schreiben wir w = ln z mit z = ew (45) Jetzt können wir die Regeln für die Exponentialfunktion ausnutzen, um den Logarithmus eines Produktes komplexer Zahlen z1 · z2 = ew1 ew2 = ew1 +w2 (46) zu berechnen ln(z1 z2 ) = w1 + w2 = ln(z1 ) + ln(z2 ) . (47) Nehmen wir eine komplexe Zahl auf dem Einheitskreis, so wissen wir bereits, dass z = eiφ = ei(φ +2πk) . (48) Diese Vieldeutigkeit wirkt sich auch auf den Logarithmus aus und es folgt ln z = ln r + i(φ + 2π) . 13 (49) Um die Vieldeutigkeit zu vermeiden, schränkt man das Argument arg(z) = φ auf −π < φ ≤ π ein und nennt ln(z) bei dieser Einschränkung den Hauptwert. Und was ist ln(−i)? Hier schreiben wir zuerst −i in Exponentialform um π ln(−i) = ln ei(−π/2+2nπ) = i − + 2πn , (50) 2 mit einer natürlichen Zahl n. Dies bedeutet ln(−i) = −i π2 , 3i π2 , . . . Für den Hauptwert gilt ln(−i) = − π2 i. 1.8 Hyperbolische Funktionen Was bedeutet eigentlich cos(iφ ) oder sin(iφ )? Mit dieser Wahl eines rein imaginären Argumentes im cos und sin werden die Exponenten von e in Gl. (25) reell und es folgt eine neue Klasse von Funktionen: 1 −φ cos(iφ ) = (e + e+φ ) =: cosh φ 2 1 −φ (e − e+φ ) =: sinh φ . (51) i sin(iφ ) = 2 Die beiden Funktionen cosh φ und sinh φ bezeichnet man als ”Cosinus Hyperbolicus” oder ”Hyperbelcosinus” bzw. ”Sinus Hyperbolicus” oder ”Hyperbelsinus”. Diese hyperbolischen Funktionen sind die komplexen Analoga zu den trigonometrischen Funktionen. Neben den beiden fundamentalen Funktionen gibt es in Analogie zu den trigonometrischen Funktionen die verbleibenden hyperbolischen Funktionen sinh x ex − e−x = x cosh x e + e−x cosh x ex + e−x coth x = = x sinh x e + e−x 1 2 sechx = = cosh x ex + e−x 1 2 , (52) cosechx = = sinh x ex − e−x siehe Abb. 5. Folgende Beziehungen zwischen trigonometrischen und Hyperbelfunktionen sind noch ganz hilfreich tanh x = cosh x = cos(ix) i sinh x = sin(ix) cos x = cosh(ix) i sin x = sinh(ix) . (53) ähnlich zu den Relationen zwischen verschiedenen trigonometrischen Funktion lassen sich auch Hyperbelfunktionen durch andere Hyperbelfunktionen ausdrücken. Gehen wir von cos2 x+sin2 x = 1 aus und benutzen (53) so folgt mit cosh2 x = cos2 (ix) und sinh2 x = − sin2 (ix) cosh2 x − sinh2 x = 1 . (54) Einige andere Identitäten können ebenso abgeleitet werden. sech2 x = 1 − tanh2 x cosech2 x = coth2 x − 1 sinh(2x) = 2 sinh x cosh x cosh(2x) = cosh2 x + sinh2 x 14 (55) Abbildung 5: Graphen der verschieden hyperbolischen Funktion deren analytische Darstellung im Text angegeben ist. 1.9 Hyperbolische Umkehrfunktionen – Areafunktionen Die Umkehrfunktion von y = sinh x nennen wir x = arsinh y. Wir sind nun an der expliziten Form dieses Ausdruckes interessiert. Hierfür drückt man ex durch Linearkombinationen von cosh x und sinh x aus. ex = cosh p x + sinh x = 1 + sinh2 x + sinh x p = 1 + y2 + y . (56) Wenden wir auf beide Seiten den Logarithmus an, so folgt der explizite Ausdruck für die Umkehrfunktion p x = arsinh(y) = ln( 1 + y2 + y) . (57) Auf ähnliche Weise erhält man p x = arcosh(y) = ln( y2 − 1 + y) (58) für |y| > 1. Die Umkehrfunktion von tanh(x) nennen wir analog artanh(y) und die explizite Form ist 1 1+y x = artanh(y) = ln . (59) 2 1−y 15 2 Elemente der linearen Algebra Wobei die Beweiskraft einzig vom Geschick der Beweisinszenierung abhängt (worunter nicht nur Beweisrhetorik, Beweisinstallierung und Beweismarketing zu verstehen sind, sondern auch die Verwandlung der Wirklichkeit in einen beweisäquivalenten Zustand). Heinrich Steinfest - Cheng 2.1 Vektorräume In der Schule und im Vorkurs sind Ihnen einige wichtige Eigenschaften von Vektoren vorgestellt worden. Wir betrachten an dieser Stelle den Zusammenhang zwischen linearen Gleichungssystemen, Vektorräumen und Matrizen. 2.1.1 Lineare Gleichungen Lineare Gleichungen sind von der Form: L(u) = v, mit den Vektoren u und v Beispiele solcher Systeme gibt es häufig in der Physik: (i) Schwingungsgleichung: bzw. d d2 u(t) + a u(t) + b u(t) = v(t) 2 dt dt d2 d +a + b u(t) = v(t) dt 2 dt (ii) Potentialgleichung: d2 d2 u(x, y) + u(x, y) = v(x, y) dx2 dy2 2 d d2 + 2 u(x, y) = v(x, y) dx2 dy bzw. (iii) Vertrauter dürfte Ihnen die Form 2x1 + x2 − x3 = y1 −7x1 − 5x2 + 3x3 = y2 sein, mit x1 u = x2 , x3 v= y1 y2 , 16 L(u) = 2x1 + x2 − x3 −7x1 − 5x2 + 3x3 . Diese Probleme haben gemeinsam, dass für die Abbildung L : u 7→ L(u) gilt: L(α1 u1 + α2 u2 ) = α1 L(u1 ) + α2 L(u2 ). Dies sind die definierenden Eigenschaften von linearen Abbildungen. Einige Eigenschaften von linearen Abbildungen sind direkt offensichtlich: (i) Die homogene Gleichung L(u) = 0 besitzt immer die triviale Lösung u = 0 (ii) Sind u1 und u2 Lösungen der homogenen Gleichung, so ist auch jede Linearkombination α1 u1 + α2 u2 eine Lösung. Die Lösungen bilden einen Vektorraum. (iii) Ist u0 eine spezielle Lösung der homogenen Gleichung L(u) = 0, so erhält man sämtliche Lösungen durch u = uh + u0 , wobei uh sämtliche Lösungen der homogenen Gleichung durchläuft. Mit der Einführung von linearen Abbildungen sind offenbar einige Begriffe verbunden, die wir näher diskutieren wollen. Außerdem werden wir uns mit der Lösbarkeit von linearen Gleichungssystemen beschäftigen. 2.1.2 Vektorräume: Definition und Beispiele Definition: Einen nichtleere Menge V heißt Vektorraum über R bzw. über C, wenn auf V einen Addition und einen Multiplikation mit Zahlen aus R bzw. C erklärt ist, sodass die Rechenregeln der Vektorräume gelten. Im einzelnen wird ein Vektorraum durch folgende Eigenschaften bestimmt: Wenn u, v, w ∈ V gilt, dann ist auch u + v ∈ V . Ferner entlält V ein ausgezeichnetes Element 0. Es gelten dann die Regeln: (A1 ) (u + v) + w = u + (v + w) (A2 ) u + v = v + u (A3 ) u + 0 = u (A4 ) Die Gleichung u + x = v besitzt stets genau eine Lösung x. Mit u ∈ V , α ∈ R (bzw. α ∈ C) gehört auch α · u zu V und es gilt: (S1 ) (S2 ) (S3 ) (S4 ) (α + β ) · u = α · u + β · u α · (u + v) = α · u + α · v α · (β · u) = (α · β ) · u 1·u = u Die Elemente von V nennen wir Vektoren. Die Elemente des zugrundeliegenden Zahlenkörpers R bzw. C Skalar (z.B. α, β ). Das neutrale Element der Addition 0 nennen wir Nullvektor . Beispiele: • Rn und Cn sind Vektorräume über R bzw. C. Dies gilt auch für n = 1, wobei dann der Unterschied zwischen Vektoren und Skalaren nicht mehr besteht. 17 • Funktionenräume: M ist eine nichtleere Menge, K einer der Zahlenkörper R bzw. C. Dann ist F (M , K) = { f : M 7→ K} mit f + g : x 7→ f (x) + g(x) α · f : x 7→ α · f (x) ein Vektorraum über K. Definition: Teilräume Ist V ein Vektorraum über K, so nennen wir U einen Unterraum bzw. Teilraum, wenn mit u, v ∈ U auch jede Linearkombination α · u + β · v zu U gehört, mit α, β ∈ K. Weiterhin setzen wir vorraus, dass U eine nichtleere Teilmenge von V ist. Beispiele: • {0} ist immer Teilraum von V , genauso wie V selbst. • Die Lösungen x = (x1 , x2 , ..., xn ) ∈ Rn der Gleichung a1 · x1 + ... + an · xn = 0 bilden einen Teilraum des Rn . Übungsaufgabe: Gilt dies auch für a1 · x1 + ... + an · xn = mit t 6= 0? 2.2 Linearkombinationen, lineare Hülle und erzeugende Systeme Definition: Linearkombination Jeder Vektor der Form n α1 v1 + α2 v2 + ... + αn vn = ∑ αk vn mit αi ∈ K k=1 heißt Linearkombination der Vektoren v1 , ..., vn ∈ V . Definition: Aufspann bzw. lineare Hülle Die Menge aller Linearkombinationen aus v1 , ..., vn heißt ihr Aufspann bzw. ihre lineare Hülle span{v1 , ..., vn }. Der Aufspann ist ein Teilraum von V . 2.3 Lineare (Un-) Abhängigkeit Definition: Vektoren v1 , ..., vn eines K-Vektorraums V heißen linear abhängig (l.a.), falls es Skalare (α1 , ..., αn ) ∈ K gibt, die alle nicht Null sind, sodass α1 v1 + α2 v2 + ... + αn vn = 0 Andernfalls heißen sie linear unabhängig. 18 Beispiele: (i) Die Vektoren 1 e1 = 0 , 0 0 e2 = 1 , 0 0 e3 = 0 1 sind linear unabhängig. (ii) Sind die Vektoren 1 0 u= −1 , 0 0 1 v= 1 , −2 3 −1 w= −4 2 des R4 linear unabhängig? Wir müssen dazu offenbar die Gleichung x1 u + x2 v + x3 w = 0 lösen, bzw. in Koordinaten x1 + 3x3 =0 −x1 + x2 − 4x3 =0 −2x2 + 2x3 =0. Folglich x2 − x3 = 0 ⇒ x2 = x3 und − x1 − 3x3 = 0. Offenbar ist x1 = 3 und x2 = x3 = −1 Lösung des homogenen Gleichungssystems. Die Vektoren sind also linear abhängig. 2.4 Vektorräume und Basis Definition: Ein geordnetes n-Tupel B = (v1 , ..., vn ) von Vektoren des K-Vektorraums V heißt eine Basis von V , wenn sich jeder Vektor v ∈ V als Linearkombination v = α1 v1 + ... + αn vn in eindeutiger Weise darstellen lässt. Die durch v eindeutig bestimmten Zahlen α1 , ..., αn heißen die Koordinaten von v bezgl. der Basis B. Sie werden zu einem Koordinatenvektor α1 (v)B = ... αn zusammengefasst. Satz: B = (v1 , ..., vn ) ist genau dann eine Basis, wenn v1 , ..., vn ein linear unabhängiges Erzeugendensystem ist. Bemerkung: Es sei U = span{v1 , ..., vn } ein Teilraum von V , dann ist v1 , ..., vn ein Erzeugendensystem für U. 19 Beweis: (i) Es sei B = (v1 , ..., vn ) eine Basis. Nach Definition gilt V = span{v1 , ..., vn }. Jeder Vektor v ∈ V muss sich mit eindeutig bestimmten Koeffizienten aus den v1 , ..., vn bestimmen lassen. Dies gilt auch für den Nullvektor. Damit folgt aus α1 v1 + ... + αn vn = 0 ⇒ α1 , ..., αn = 0 und somit die lineare Unabhängigkeit. (i) Es seien v = α1 v1 + ... + αn vn = β1 v1 + ... + βn vn zwei Darstellungen von v. Mit (α1 − β1 )v1 + ... + (αn − βn )vn = 0 folgt aus der linearen Unabhängigkeit von v1 , ..., vn ; α1 = β1 , ..., αn = βn , also die Eindeutigkeit. Satz: Dimension eines Vektorraums Besitzt ein Vektorraum V eine Basis aus n Vektoren, so besteht auch jede andere Basis aus n Vektoren. n ist gleichzeitig die Dimension des Vektorraums V . Also dim V = n Bemerkung: Für V = {0} gilt dim V = 0, besitzt V keine endliche Basis, so bezeichnen wir ihr als unendlichdimensional. Basisergänzungssatz: Ist b1 , ..., bn ein Erzeugendensystem von V und sind a1 , ..., an lin. unabhängige Vektoren in V , die keine Basis von V bilden, so lassen sich die a1 , ..., an durch Hinzufügen geeigneter bk zu einer Basis von V ergänzen. Basisauswahlsatz: Besitzt der Vektorraum V 6= {0} ein endliches Erzeugendensystem b1 , ..., bn , so lässt sich aus diesem eine Basis für V auswählen. 2.5 Lösen linearer Gleichungssysteme Ein lineares Gleichungssystem (LGS) mit m Gleichungen für n Unbekannte hat die Form a11 x1 + a12 x2 + . . . + a1n xn = b1 .. . am1 xm + am2 xm + . . . + amn xm = bm Gegeben sind in diesem Problem die Koeffizienten aik ∈ K und die Zahlen bk ∈ K. Gesucht sind alle Vektoren x(x1 , ..., xn ) ∈ Kn , die die obige Gleichung erfüllen. Rangbedingung zur Lösbarkeit: Lineare Gleichungssysteme in der obigen Form können kompakt durch Ax = b geschrieben werden, mit der Koeffizientenmatrix x1 a11 . . . a1n .. , A = ... x = ... ∈ Kn . . xn am1 . . . amn Der Rang einer Matrix bestimmt sich aus: 20 (i) der Maximalzahl linear unabhängiger Zeilenvektoren (Zeilenrang) (ii) der Maximalzahl linear unabhängiger Spaltenvektoren (Spaltenrang) (iii) der Dimension des Bildraums der linearen Abbildung x 7→ Ax, Kn 7→ Km Beispiel: Die Matrix 1 −2 4 0 5 A = −2 1 −1 2 −6 −1 −1 3 2 −1 hat den Rang 2, da die ersten beiden Vektoren linear unabhängig sind und die dritte Zeile die Summe der ersten beiden ist. Rangbedingung: Hat V die Dimension n, W die Dimension m so ist die lineare Abbildung L : V 7→ W genau dann in jektiv (eineindeutig), wenn Rang(L) = n und genau dann sur jektiv, wenn Rang(L) = m. Bemerkung: Für eine injektive Abbildung gilt, dass jedem Bild höchsten ein Urbild zuzuordnen ist, d.h. dass aus f (x1 ) = f (x2 ) stets x1 = x2 und aus x1 6= x2 f (x1 ) 6= f (x2 ) folgt. Für eine surjektive Abbildung f M 7→ N gilt, dass N die Bildmenge von f ergibt, d.h. dass für jedes y ∈ N die Gleichung f (x) = y mindestens einen Lösung aus M existiert. Das LGS Ax = b ist also eindeutig lösbar, wenn Rang(A) = n und universell lösbar, wenn Rang(A) = m ist . Eliminationsverfahren: Gesucht: Alle Lösungen des LSG 4x2 + 4x3 + 3x4 − 2x5 = 16 −3x1 − 3x2 + 3x3 + x4 − 2x5 = − 2 2x2 + 2x3 + 3x4 − 4x5 = 14 4x1 − x2 − 9x3 − 2x4 − x5 = − 5 1. Schritt: Umstellung der Gleichungen (nur noch Koeffizenten), Vertauschung der Zeilen I&II −3 −3 3 1 −2 −2 0 4 4 3 −2 16 0 2 2 3 −4 14 4 −1 −9 −2 −1 −5 2. Schritt: Normierung der Kopfzeile 1 1 −1 − 13 23 23 0 4 4 3 −2 16 0 2 2 3 −4 14 4 −1 −9 −2 −1 −5 21 3. Schritt: Elimination von x1 aus der Zeile IV durch Multiplikation der Kopfzeile mit (−4) und Addition zur 4. Zeile 2 2 1 1 −1 − 13 3 3 0 4 4 3 −2 16 0 2 2 3 −4 14 2 − 23 0 −5 −5 − 3 − 11 3 3 4. Schritt: Normierung der Kopfzeile im Restsystem 3 1 1 4 2 2 3 −5 −5 − 23 − 21 −4 − 11 3 4 14 − 23 3 5. Schritt: Eliminatione von x2 aus den letzten beiden Gleichungen ((−2)· bzw 5· erste Zeile) 1 1 43 − 21 4 0 0 32 −3 6 37 37 0 0 37 3 12 − 6 6. Schritt: Die Koeffizienten von x3 verschwinden. Das obige Schema führt dann auf das Restsystem 3 −3 6 2 37 − 37 37 12 6 3 und schließlich nach Normierung der Kopfzeile und Elimination von x4 (und x5 ) in der unteren Zeile 1 −2 4 0 0 0 7. Schritt: Zeilenstufenform 1 0 0 0 1 −1 − 13 3 1 1 4 0 0 1 0 0 0 2 3 2 3 1 −2 4 −2 4 0 0 bzw. 1 2 2 x1 + x2 − x3 + − x4 + x5 = 3 3 3 3 1 x2 + x3 + x4 − x5 = 4 4 2 x4 − 2x5 = 4 8. Schritt: Auflösen der Gleichung in Zeilenstufenform. Mit der Festlegung x3 = s und x5 = t ergibt sich 1 1 2 1 −1 −1 x= 0 +s 1 +t 0 . 4 0 2 1 0 0 22 2.6 Matrizen 2.6.1 Rechenoperationen mit Matrizen (i) Matrizen werden elementweise addiert, die Addition ist (daher) kommutativ und assoziativ, d.h. A+B = B+A A + (B +C) = (A + B) +C. (ii) Multipliziert man eine Matrix mit einer Konstanten, so werden alle Elemente mit der Konstanten multipliziert. B = αA ⇔ bi j = ∧ik α · ai j . (iii) Die Multiplikation von Matrizen erfolgt nach der Regel „Zeile mal Spalte“: AB = C ⇔ Ci j = ∑ aik bk j k Aus der Rechenregel ergibt sich sofort, dass die Zahl der Spalten von A der Zahl der Zeilen von B entsprechen muss. (iv) Für die Matrixmultiplikation gilt das Distributiv- aber nicht das Kommutativgesetz. Beispiel: 0 1 1 0 A= B= 1 0 0 −1 0 · 1 + 1 · 0 0 · 0 + 1 · (−1) 0 −1 AB = = 1 · 1 + 0 · 0 1 · 0 + 0 · (−1) 1 0 0 1 BA = 6= AB −1 0 Die Matrixmultiplikation ist also nicht-kommutativ! Bemerkung: Die obigen Matrizen sind zwei der drei Pauli − Matrizen, die die Komponenten des quantenmechanischen Spinoperators bilden. Definition: Der Kommutator [A, B] ≡ AB − BA misst die Differenz zwischen den beiden Produkten von A, B. Spezielle Matrizen: (i) Nullelement (ii) Einheitsmatrix A = 0 ⇔ ai j = 0 A = 1 ⇔ ai j = δi j ( 0, wenn i 6= j δi j = 1, wenn i = j 23 mit Kronecker- Delta Es gilt offenbar A0 = 0A = 0 und A1 = 1A = A. Bemerkung: Bei Matrizen treten einige Eigenschaften auf, die man von der Multiplikation von gewöhnlichen Zahlen nicht kennt. Gegeben seien die Matrizen: 1 2 10 4 A= B= 3 6 −5 2 0 0 22 44 ; BA = ⇒ AB = 0 0 −11 −22 Das Produkt der Matrizen ergibt die Nullmatrix, obwohl keine der beiden Matrizen Null ist. Damit kann also auch AC = AD gelten, obwohl C 6= D. 2.6.2 Determinanten Die Determinante einer 2x2 Matrix wird definiert durch a11 a12 := a11 a22 − a21 a12 det(A) = a21 a22 Bem.: Das lineare Gleichungssystem a11 a12 Au = v mit A= ; a21 a22 u= u1 u2 ; v= v1 v2 ist genau dann universell und eindeutig lösbar, wenn det(A)6= 0. Laplacescher Entwicklungssatz Die Determinante einer nxn Matrix A = (ai j ) kann man durch Entwicklung nach der i-ten Zeile n det(A) = |A| = ∑ (−1)i+ j ai j Ai j j=1 bzw. der k-ten Spalte n det(A) = |A| = ∑ (−1) j+k a jk A jk j=1 berechnen. Mit: Ai j ist eine (n-1) x (n-1) Matrix, die durch Streichung der i-ten Zeile und der j-ten Spalte aus A hervorgeht. Beispiel Determinante einer 3x3 Matrix (Entwicklung nach der ersten Spalte) a11 a12 a13 a21 a22 a23 = a11 a22 a23 − a21 a12 a13 + a31 a12 a13 a22 a23 a32 a33 a32 a33 a31 a32 a33 Eigenschaften von Determinanten (i) det(A) = det(AT ) (ii) Für nxn Matrizen gilt: det(AB)= det(A)*det(B) 24 (iii) det(A−1 )= (det(A))−1 Determinantenformen Definition: Eine Abbildung F:Kn x...xKn → K(n > 1) heißt (i) Multilinearform auf Kn , wenn F in jedem der n Argumente (Spalten) linear bei festgehaltenen restlichen Spalten ist: F(..., αx + β y, ...) = αF(..., x, ...) + β F(..., y, ...) (ii) Alternierende Multilinearform falls (i) gilt und F(..., ai , ..., a j , ...) = −F(..., a j , ..., ai , ...) (iii) Determinantenform falls (i) und (ii) erfüllt sind und F(e1 , ..., en ) = 1 für die kanonische Basis e1 , ..., en des Kn gilt. (ei Einheitsvektor in i-Richtung) Bemerkungen: (i) Für alternierende Multilinearformen gilt F(a1 , ..., an ) = 0 falls a1 , ..., an linear abhängig sind. Insbesondere gilt natürlich, dass F(a1 , ..., an ) = 0 falls ai = ak für i 6= k, bzw. ai = αak . (ii) Die Determinante ändert sich nicht, wenn ein Vielfaches einer Zeile von einer anderen Zeile subtrahiert wird. Damit lässt sich die Matrix durch Umformungen auf obere Dreiecksform bringen, ohne dass sich die Determinante ämdert. Die Determinante ergibt sich dann einfach aus der Multiplikation der Diagonalelemente. Bsp.: a a det 11 12 a21 a22 a12 = det a11 0 a22 − a21 a12 a11 = a11 (a22 − a21 a12 ) = a11 a22 − a21 a12 a11 2.6.3 Matrixinversion Für quadratische Matrizen A kann man eine Matrix A−1 suchen, sodass AA−1 = A−1 A = 1. Die inverse Matrix lautet: A−1 ij = 1 C ji det(A) mit der Kofaktormatrix C ji = (−1)i+ j Mi j und dem Minor Mi j , d.h. die Determinante der Streichmatrix. Offenbar ist die Matrix nur dann invertierbar, wenn det(A) 6= 0. Da det(AA−1 ) = det(1) = 1 gilt, erhalten wir det(A−1 ) = 1 . det(A) Ferner gilt: (AB)−1 = B−1 A−1 wegen (AB)−1 (AB) = B−1 A−1 AB = B−1 B = 1 25 Beispiel: Bestimmung der Inversen der Matrix A 2 4 3 A = 1 −2 −2 −3 3 2 Kofaktoren: −2 −2 = −4 + 6 = 2 = 4 = C11 M11 = det 3 2 1 −2 M12 = det = 2 − 6 = −4 = −C12 −3 2 Insgesamt erhalten wir: 2 4 −3 C = 1 13 −18 −2 7 −8 det(A) = 2 · 2 + 1 · 1 + (−3) · (−2) = 11 und 2 1 −2 T C 1 4 13 7 A−1 = = det(A) 11 −3 −18 −8 Bemerkung: Ist die Koeffizientenmatriz eines LGS invertierbar, so kann man die Lösung des GS einfach durch Matrizinversion bestimmen. ⇒ Ax = b x = A−1 b 2.6.4 Matrizen: Definitionen und Eigenschaften • Die Spur einer Matrix: Die Spur einer Matrix Sp(A) bzw. tr(A) ist die Summe ihrer Diagonalelemente Sp(A) = tr(A) = ∑(A)ii = ∑ aii i i Es gilt: tr(AB) = ∑ Aik Bki = ∑ Bki Aik = tr(BA) ik ik Allgemeiner gilt: Die Spur ist invariant gegenüber zyklischer Vertauschung von Matrixprodukten, also tr(A1 A2 ...An ) = tr(An A1 ...An−1 ) • Die transponierte Matrix: AT : AT ij = (A) ji . Es gilt (AB)T = BT At . • Die komplex-konjugierte Matrix: A∗ bzw. A, die die Elemente a∗i j enthält. • Die hermitisch konjugierte Matrix (bzw. adjungierte Matrix): 26 A+ = AT ∗ • Die Diagonalmatrix: Nur die Diagonalelemente sind verschieden von Null. • Die symmetrische Matrix: A = AT Die antisymmetrische Matrix: A = (−1)AT • Die relle Matrix: A = A∗ Die imaginäre Matrix: A = −A∗ • Die orthogonale Matrix: AT = A−1 (für eine quadratische Matrix, z.B. die Drehmatrix) • Die hermitische Matrix: A+ = A Die antihermitische Matrix: A+ = −A • Die unitäre Matrix: A+ = A−1 • Die nilpotente Matrix: für n > n0 gilt An = 0 • Die singuläre Matrix: Matrix deren Determinante verschwindet (nicht invertierbar) 27 2.6.5 Das Eigenwertproblem Die Mutiplikation eines Vektors mit einer Matrix ist im Allgemeinen eine Drehstreckung, d.h. Richtung und Betrag des Vektors werden geändert. Liegt der Vektor aber parallel zur Drehachse, wird nicht seine Richtung, sondern ausschließlich sein Betrag geändert. Also gilt für einen solchen Vektor v Av = λ v. (60) Vektoren v, die die Gleichung (60) erfüllen, nennt man Eigenvektoren der Matrix A und den Skalierungsfaktor seinen Eigenwert. Zur Bestimmung von λ und v betrachtet man die homogene Gleichung (A − λ 1) v = 0, die direkt aus (60) folgt. Eine nichtlineare Lösung dieses homogenen Gleichungssystems kann offenbar nur dann erfolgen, wenn det (A − λ 1) verschwindet. Die Bedingung det (A − λ 1) = 0 (61) führt für eine n × n Matrix auf ein Polynom n-ten Grades in λ , das über den Körper C n (nicht notwendigerweise verschiede) Lösungen besitzt. Diese Lösungen sind die Eigenwerte des Problems. Das Polynom, das sich aus der Eigenwert- bzw. Säkulargleichung (61) ergibt, wird charakteristisches Polynom genannt. Beispiel: Bestimmung der Eigenwerte der Matrix A mit 1 1 −3 A = 1 1 −3 . 3 −3 −3 Die Säkulargleichung zur obigen Matrix lautet 1−λ det (A − λ 1) = det 1 3 ⇒ 1 1−λ −3 −3 −3 −3 − λ = 0. (1 − λ )2 (−3 − λ ) − (1 · (−3) · 3) + (−3 · 1 · (−3)) − 9(1 − λ ) − (−3 − λ ) + 9(1 − λ ) = 0 (1 − 2λ + λ 2 )(−3 − λ ) − 9 + 9 + 3 + λ = 0 −3 − λ + 6λ + 2λ 2 − 3λ 2 − λ 3 + 3 + λ = 0 −λ 3 − λ 2 + 6λ = 0 −λ (λ − 2)(λ + 3) = 0 Die Eigenwerte lauten demnach λ1 = 2, λ2 = 0 und λ3 = −3. Es bleibt also noch die Aufgabe die Eigenvektoren zu bestimmen. Dazu setzt man die Eigenwerte ein und löst das zugehörige homogene Gleichungssystem. Wir wollen dies am Beispiel von oben explizit durchführen. Für den Eigenwert λ1 = 2 ergibt sich das folgende Gleichungssystem: 28 −x1 + x2 + 3x3 = 0 x1 + x2 − 3x3 = 0 | +1· Zeile I 3x1 − 3x3 − 3x3 = 0 | +3· Zeile I −x1 + x2 + 3x3 = 0 0 =0 ⇒ 4x3 = 0 x3 = 0 ⇒ x1 = x3 = t Der zugehörige Eigenvektor lautet also t x1 = t . 0 Es ist nützlich mit normierten Eigenvektoren zu arbeiten, sodass ! |x1 | = 2t 2 = 1 1 t=√ 2 ⇒ Damit lautet der normierte Eigenvektor 1 1 x1 = √ 1 . 2 0 Analog ergibt sich für die übrigen Eigenvektoren 1 1 −1 x2 = √ und 3 1 1 1 −1 . x3 = √ 6 −2 Bemerkung: Die Menge der Eigenwerte und Eigenvektoren einer Matrix nennt man auch das Eigensystem. Die Eigenwerte von A und AT stimmen überein, die zugehörigen Eigenvektoren nicht unbedingt. Dies bedeutet, dass linke und rechte Eigenvektoren nicht übereinstimmen müssen. 2.6.6 Entartete Eigenwerte Wir wenden uns wiederum einem Beispiel zu. Es sei 0 1 A= . −1 2 ⇒ ! det (A − λ 1) = (−λ )(−2 − λ ) + 1 = (1 + λ )2 = 0 ⇒ λ1,2 = −1 Der einzige Eigenvektor dieser Matrix ist 1 x1 = √ 2 1 −1 . Die 2 × 2 Matrix A ist ein Beispiel für eine nicht-hermitische Matrix, bei der das Eigensystem eine niedrigere Dimension hat als die Matrix. Die geometrische Multiplizität, d.h. die Zahl der Eigenvektoren zu einem Eigenwert ist also in diesem Fall geringer als die algebraische Multiplizität. 29 2.6.7 Eigenvektoren und Eigenwerte einer normalen Matrix Wir wollen nun die Eigenschaften verschiedener Matrizen mit den Eigenschaften von Eigenvektoren und -werten in Verbindung bringen. Dazu betrachen wir zunächst normale Matrizen, d.h. Matrizen für die gilt A+ A = AA+ Bemerkung: Unitäre und hermitische Matrizen sind gleichzeitig normale Matrizen (bzw. orthogonale und symmetrische Matrizen im Falle reeller Matrizen). Es sei nun x Eigenvektor zum Eigenwert λ , also gilt (A − λ 1) x = 0. Mit B = A − λ 1 gilt dann Bx = 0 = x+ B+ ., also insgesamt x+ B+ Bx = 0 Explizit ergibt sich B+ B = (A − λ 1)+ (A − λ 1) = A+ − λ ∗ 1 (A − λ 1) = A+ A − λ ∗ A − λ A+ + λ λ ∗ = 0. Wegen AA+ = A+ A ergibt sich, dass B+ B = BB+ . Damit erhalten wir + x+ B+ Bx = x+ BB+ x = B+ x B+ x = |B+ x|2 = 0. sodass B+ x der Nullvektor ist und B+ x = (A+ − λ ∗ 1)x = 0 gilt. Für eine normale Matrix sind also die Eigenwerte von A+ die komplex konjugierten Eigenwerte von A. Es seinen nun xi und x j zwei Eigenvektoren zu zwei unterschiedlichen Eigenwerten λi und λ j . Dann gilt und Ax j = λ j x j . Axi = λi xi + Wenn wir nun die zweite Gleichung von links mit xi multiplizieren, erhalten wir xi + Ax j = λ j xi + x j. Es gilt aber auch xi + A = A+ xi + = λi∗ xi + = λi xi + . Damit erhalten wir insgesamt (λi − λ j ) xi + x j = 0. Da wir λi 6= λ j vorausgesetzt haben, müssen die Eigenvektoren orthogonal sein. Bemerkung: Für eine hermitische Matrix (A+ = A) gilt λ = λ ∗ . Somit sind die Eigenwerte reel. 30 2.6.8 Basiswechsel und Ähnlichkeitstransformationen Vektoren kann man als Komponenten bezüglich einer gegebenen Basis darstellen. Mit der Basis (e1 , . . . , en ) sei der Vektor v durch v1 v = v1 e1 + · · · + vn en , mit dem Spaltenvektor v = ... vn gegeben. Wir wollen nun untersuchen wie sich die Koordinaten ändern, wenn wir auf eine alternative Basis übergehen. Dafür führen wir eine neue Basis (e0 1 , . . . , e0 n ) ein. Die Basisvektoren seien durch n e0 j = ∑ Si j ei i=1 miteinander verknüpft. Damit ergibt sich für den Vektor v: n n n n n n j=1 j=1 i=1 i=1 j=1 ∑ v0j e0j = ∑ v0j ∑ Si j ei = ∑ ∑ v0j Si j v = ∑ vi ei = i=1 Wir identifizieren also: ! ei . n vi = ∑ Si j v0j . j=1 Kompakter lässt sich schreiben: v = S v0 bzw. v0 = S−1 v mit der Transformationsmartrix S, die den Basiswechsel beschreibt. Wir können in ähnlicher Weise die Transformation des linearen Operators A beschreiben. Es gelte y = Ax in der Basis (e1 , . . . , en ). In der Basis (e01 , . . . , e0n ) lautet die Transformaion y0 = A0 x0 . Mit der Relation von oben erhalten wir y = Sy0 = Ax = ASx0 ⇒ Sy0 = ASx0 ⇒ y0 = S−1 ASx0 = A0 x0 . Damit ergibt sich: A0 = S−1 AS. Die obige Gleichung ist ein Beispiel für eine Ähnlichkeitstransformation. Solche Ähnlichkeitstransformationen sind sehr nützlich, da sie Rechnungen stark vereinfachen können. 31 Für Ähnlichkeitstransformationen ergeben sich die folgenden Eigenschaften: (i) Falls A = 1, dann gilt A0 = 1, da: A0 = S−1 1S = S−1 S = 1. (ii) Es gilt: det (A) = det (A0 ), da: det A0 = det S−1 AS = det S−1 · det (A) · det (S) = det (A) · det S−1 S = det (A) . (iii) Das charakteristische Polynom und damit die Eigenwerte von A stimmen mit denen von A0 überein: det A0 − λ 1 = det S−1 AS − λ 1 = det S−1 (A − λ 1)S = det S−1 det (A − λ 1) det (S) = det (A − λ 1) . (iv) Die Spur der Matrix bleibt unverndert: tr A0 = ∑ A0ii = ∑ S−1 i j A jk Ski = ∑ Ski S−1 i j A jk = ∑ δk j A jk = ∑ A j j = tr (A) . i i jk i jk j jk Bemerkung: Von besonderer Bedeutung sind unitäre Transformationen, bei denen S eine unitäre Matrix ist. Unitäre Transformationen führen Orthonormalbasen ineinander über: 0 0 ei+ e j = !+ ∗ + + ∑ δki ek ∗ ∑ δr j er = ∑ δik∗ ∑ δr j e|{z} k er = ∑ δik δk j = S S i j = δi j r r k k k δkr Für unitäre Transformationen gilt ferner: (i) Falls A hermitisch (antihermitisch), dann ist auch A0 hermitisch (antihermitisch). (ii) Falls A unitär ist (d.h. A+ = A−1 ), dann ist auch A unitär. zu(i) 0 (A )+ = (S+ AS)+ = S+ A+ S = ±S+ AS = ±A zu(ii) 0 0 0 + (A )+ A = (S+ AS)+ (S+ AS) = S+ A+ |{z} SS+ AS = S+ A AS = 1 |{z} 1 1 2.6.9 Diagonalisierung von Matrizen A sei die Darstellung eines linearen Operators bzgl. der Basis (e1 , . . . , en ). Nun betrachten wir eine alternative Basis x j = ∑ni=1 Si j ei , wobei x j die Eigenvektoren des linearen Operators A sind, d.h. es gilt: Ax j = λ j x j . In der neuen Basis gilt: A0 = S−1 AS. Das Matrixelement Si j ist dann einfach die i-te Komponente 1 2 n des j-ten Eigenvektors, sodass wir S = x x . . . x erhalten. 32 Daraus folgt: A0i j = S−1 AS ij = ∑ S−1 ik Akl Sl j = ∑ S−1 ik Akl x j l = ∑ S−1 kl kl Die Matrix A0 lautet also: A0 = kl λ1 0 .. . 0 λ2 .. . ··· 0 .. . 0 ··· .. . 0 ··· 0 λn ik λ j xkj = ∑ λ j S−1 S ik k j = λ j δi j k . Damit ist das „Rezept“ zur Diagonalisierung von Matrizen vervollständigt. Da die Matrix S invertierbar sein muss, müssen die n-Eigenvektoren linear unabhängig sein und eine Basis des zugehörigen Vektorraums bilden. Beispiel: Wir wollen nun die Matrix 1 0 3 A = 0 −2 0 3 0 1 diagonalisieren, falls möglich. 1.Schritt: Bestimmung der Eigenwerte 1−λ 0 det(A − λ 1) = det 3 0 −2 − λ 0 3 0 = (1 − λ )2 (−2 − λ ) + 9(2 + λ ) = (4 − λ )(λ + 2)2 1−λ Damit lauten die Eigenwerte: λ1 = 4 & λ2 = λ3 = −2 2.Schritt: Bestimmung der Eigenvektoren Aus Ax = 4x ergibt sich der normierte Eigenvektor 1 1 1 √ 0 x = 2 1 Wir betrachten nun das LGS: Ax = −2x also I x1 + 3x3 = −2x1 ⇒ II −2x2 = −2x2 III 3x1 + x3 = −2x3 = −2x3 x3 = −x1 ⇒ x3 = −x1 s Damit erhalten wir den allgemeinen Eigenvektor x = b . −s Offensichtlich ist x orthogonal zu x1 für beliebige s, b (wie erwartet, da A symmetrisch ist und folglich normal). 33 Für die Diagonalisierung ist es günstig mit einem Satz orthonormaler EV zu arbeiten, so dass wir 1 0 1 1 und x3 = √ 1 x2 = √ 0 2 2 −1 0 festlegen. 3.Schritt: Diagonalisierung von A Die Transformationsmatrix S hat die Spaltenvektoren xi , so dass 1 √0 1 1 S= √ 0 2 0 2 1 0 −1 1 √0 1 1 √0 1 1 0 3 4 0 0 1 ⇒ S+ AS = 0 2 0 0 −2 0 0 2 0 = 0 −2 0 2 3 0 1 0 0 −2 1 0 −1 1 0 −1 34