V Vorwort Dieses Buch ist aus einer Vorlesung hervorgegangen, die der ältere der beiden Autoren im Wintersemester 1987/88 an der Universität Göttingen gehalten hat, die vom jüngeren Autor ausgearbeitet und zunächst vom Mathematischen Institut der Universität Göttingen herausgegeben worden ist. Für die Veröffentlichung als Lehrbuch ist dieses Manuskript noch einmal grundlegend überarbeitet und an zahlreichen Stellen ergänzt worden. Wir hoffen, daß die Darstellung so ausführlich, interessant und klar geraten ist, daß sich das Buch nicht nur als Begleitlektüre zu einer entsprechenden Vorlesung, sondern auch zum Selbststudium, zum Nachlesen oder zur Vorbereitung auf Prüfungen eignet. Auf die Stoffauswahl gehen wir in der Einleitung ausführlich ein. Hier sei nur bemerkt, daß einerseits der Geometrie und vor allem der Nahtstelle zwischen geometrischer Anschauung und mathematisch-logischer Formulierung ein großes Gewicht eingeräumt wird. Andererseits wird ein großer Teil der grundlegenden Theorie, wie er etwa auch von Studenten der Wirtschaftsmathematik oder Physik benötigt wird, in diesem Buch behandelt, auch wenn es nur den Inhalt des ersten Teils der zweisemestrigen Vorlesung Analytische Geometrie und lineare Algebra“ wiedergibt. Breiten Raum nehmen ” die Behandlung linearer Gleichungssysteme (Gaußscher Algorithmus), die Determinantentheorie und die Eigenwerttheorie linearer Abbildungen in euklidischen“ ” Vektorräumen (Hauptachsentransformation) ein. Wir sind bemüht, schnell zu den Kernpunkten der jeweiligen Themenbereiche vorzustoßen und verzichten dabei bewußt auf größtmögliche Allgemeinheit. Zahlreiche Beispiele, die teilweise den Charakter von gelösten Übungsaufgaben haben, sollen das Verständnis neuer Begriffe oder Methoden unmittelbar fördern. Wir haben dem Verlag und insbesondere den Herren Andreas Türk und Martin Reck zu danken für die jederzeit angenehme Zusammenarbeit. Herrn Peter Lerner danken wir für seine tatkräftige Mitwirkung bei der Erstellung der LATEX-Dateien und Herrn Christian Meister für seine Hilfe bei der Durchsicht des Manuskripts. Göttingen und Bayreuth, im März 1999 Hans Grauert Hans-Christoph Grunau VI Zu den Autoren Hans Grauert wurde am 8. Februar 1930 in Haren (Ems) geboren. Er studierte Mathematik und Physik in Mainz, Münster und an der ETH Zürich. Er wurde 1958 an die Universität Göttingen als Nachfolger von C. L. Siegel berufen. Er verbrachte insgesamt drei Jahre in Amerika (u. a. am Institute for Advanced Study in Princeton), war aber auch in anderen Ländern wie vor allem in Frankreich (Institut des Hautes Études Scientifiques) und u. a. in Japan, China, der UdSSR und Indien. Seine wissenschaftlichen Arbeiten befassen sich mit Fragen der komplexen Analysis. Hans-Christoph Grunau wurde am 23. März 1961 in Wuppertal geboren. Er studierte Mathematik in Marburg und Göttingen und hat sich 1996 an der Universität Bayreuth habilitiert. Sein wissenschaftliches Interesse gilt der reellen Analysis und insbesondere der Theorie der partiellen Differentialgleichungen. Auf diesem Gebiet arbeitet er mit Wissenschaftlern u. a. aus den Niederlanden, Spanien und Italien zusammen. VII Inhaltsverzeichnis Vorwort V Einleitung IX 1 1.1 1.2 1.3 Der Vektorraumbegriff Der n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reelle Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 7 11 2 2.1 2.2 2.3 2.4 Der anschauliche Raum Gibt es eine geometrische Anschauung? . . . . . . Addition von Vektoren in der anschaulichen Ebene Multiplikation mit Skalaren . . . . . . . . . . . . Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 23 28 34 3 3.1 3.2 3.3 Lineare Abbildungen Abbildungen . . . . . . . . . . . . . . Lineare Abbildungen . . . . . . . . . . Lineare Abbildungen n → m . . . . Gaußscher Algorithmus . . . . . . . . Rang und Corang . . . . . . . . . . . . Allgemeine lineare Gleichungssysteme Matrizenoperationen . . . . . . . . . . Ebenen . . . . . . . . . . . . . . . . . Spezielle lineare Abbildungen . . . . . Projektionen . . . . . . . . . . . . . . Umkehrbar lineare Abbildungen . . . . 3.4 3.5 3.6 3.7 3.8 4 4.1 4.2 4.3 4.4 4.5 R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 . 40 . 47 . 53 . 59 . 65 . 73 . 78 . 89 . 105 . 105 . 107 Vektorraumkonstruktionen Beispiele unendlichdimensionaler Vektorräume Direkte Summen . . . . . . . . . . . . . . . . Linearformen und Dualräume . . . . . . . . . Dualräume endlichdimensionaler Vektorräume Weitere spezielle lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . R R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 120 122 128 136 141 VIII Inhaltsverzeichnis 5 5.1 5.2 5.3 5.4 5.5 5.6 Determinantentheorie Allgemeines Kroneckersymbol . . . . . . . . Determinanten . . . . . . . . . . . . . . . . Weitere Eigenschaften der Determinante . . . Berechnung von Determinanten . . . . . . . Cramersche Regel . . . . . . . . . . . . . . Die Determinante einer linearen Abbildung F . . . . . . . . . . :V . . . . . . . . . . . . . . . →V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 147 152 157 164 170 177 6 6.1 6.2 6.3 6.4 Orthogonalität Die euklidische Ebene . Die Länge eines Vektors Orthogonale k-Beine . . Das Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 179 191 198 202 7 7.1 7.2 7.3 7.4 Eigenwerte und Hauptachsentransformation Der allgemeine Körperbegriff, komplexe Vektorräume Unitäre und adjungierte Abbildungen . . . . . . . . . Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . Die Hauptachsentransformation . . . . . . . . . . . . Normale Matrizen . . . . . . . . . . . . . . . . . . . Hermitesche und reell symmetrische Matrizen . . . . . Unitäre und reell orthogonale Matrizen . . . . . . . . . . . . . . . 209 210 218 228 238 243 246 254 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis 259 Symbolverzeichnis 261 IX Einleitung In der Anfängervorlesung Analytische Geometrie und lineare Algebra“ ist es heute ” vielfach üblich, einfach mit der abstrakten Theorie der Vektorräume und evtl. sogar der Moduln über Ringen zu beginnen. Man hat das Bestreben, sofort von den mathematischen Grundbegriffen auszugehen und aus ihnen alles zusammenzubauen. Das soll zu einer logischen Übersichtlichkeit führen. Aber der Anfänger wird staunen, was es so alles gibt. Er kann sich bei manchem nur wenig denken. In der Technik, aber auch in der Physik wird im allgemeinen erst nur der 3dimensionale anschauliche Raum auftreten. Er hat noch keine Koordinaten. Man hat noch keine Tripel von reellen Zahlen, dafür aber gibt es eine Vorstellung von Geraden, Winkeln, Translationen, Drehungen. Vektoren gibt es. Sie sind Pfeile einer bestimmten Länge. Man kann mit ihnen rechnen. Warum geht man dann nicht von diesem Raum aus? Man kann die Vektorraumeigenschaften ableiten und so den Studenten zu den in der Mathematik natürlich notwendigen Abstraktionen hinführen. Die Abstraktionen werden dann als natürlich empfunden. Man kann dann auch die Existenz von rechtwinkligen Koordinaten zeigen und die Isomorphie mit dem Zahlenraum herstellen. Die Existenz einer solchen Isomorphie bedeutet, daß der anschauliche Raum die gleiche Gestalt wie der Zahlenraum hat. Wer seinen Baum beschneiden will, wird nicht erst Koordinaten in seinen Garten legen. Das hier vorgestellte Axiomensystem ist auch ein vollständiges Axiomensystem der euklidischen Geometrie. Anders als bei Hilbert werden jedoch keine Geraden, sondern Pfeilvektoren verwendet. Das ist praktischer. Die Pfeilvektoren finden ja überall Anwendung. Natürlich wird nicht die alte hyperbolische Geometrie mit eingeschlossen. Diese dürfte aber auch heute ziemlich ohne Bedeutung sein. Wenn man sie machen will, ist es ohnehin besser, gleich die Quotienten von Liegruppen zu untersuchen! Die nicht-euklidischen Geometrien werden hier gleich dadurch ausgeschlossen, daß man fordert, daß die Relation parallel“ eine Äquivalenzrelation ist und daß das Parallelo” gramm der Kräfte gilt. Es sei noch erwähnt, daß die Griechen keinen Beweis des Satzes von Pythagoras geliefert haben, der den heutigen Anforderungen entspricht. Sie haben nämlich den Flächeninhalt benutzt, ohne ihn zu definieren. Auch hätten sie zeigen müssen, daß er invariant gegen Drehungen ist. An sich hat der Pythagoräische Satz mit dem Flächeninhalt nichts zu tun. Dieses Buch enthält einen exakten Beweis. X Einleitung In dem ersten Kapitel dieses Buches wird zwar zunächst der n-dimensionale reelle Zahlenraum n als Menge der n-tupel von reellen Zahlen und der Begriff des abstrakten Vektorraums eingeführt, damit man die späteren Begriffe einordnen kann. Dann geht man jedoch im zweiten Kapitel sofort zur Anschaulichkeit über. Insbesondere wird die anschauliche Ebene betrachtet. Hier wird unser Axiomensystem der anschaulichen Geometrie soweit entwickelt, daß die anschauliche Ebene als zweidimensionaler reeller Vektorraum erkannt werden kann. R Hierauf aufbauend entwickeln wir im 3. Kapitel die Grundlagen der Theorie endlichdimensionaler (zunächst ausschließlich reeller) Vektorräume sowie der linearen Abbildungen zwischen diesen. Wir werden zeigen, daß durch Einführung geeigneter Isomorphismen “ (Koordinatensysteme) die Betrachtung linearer Abbildungen ” zwischen endlichdimensionalen Vektorräumen zurückgeführt werden kann auf die Betrachtung linearer Abbildungen n → m . Diese sind dem ebenso einfachen wie wirkungsvollen Matrizenkalkül (dabei handelt es sich lediglich um die Manipulation von Zahlenschemata) zugänglich, den wir simultan und gleichberechtigt zur Theorie linearer Abbildungen entwickeln und mit dessen Hilfe wir zahlreiche theoretische Resultate herleiten werden. Breiten Raum nimmt die Behandlung linearer Gleichungssysteme bzw., was, wie wir in Kapitel 3.7 darlegen werden, dazu gleichwertig ist, allgemeiner s-dimensionaler Ebenen ein. In diesem Zusammenhang wird der Gaußsche Algorithmus vorgestellt, aus dem wir neben rechnerischem auch stets großen theoretischen Nutzen ziehen werden. R R In Kapitel 4 sprechen wir speziellere Fragen der Vektorraumtheorie an. Im Mittelpunkt stehen dort duale Vektorräume und duale Abbildungen sowie in diesem Zusammenhang einige Besonderheiten unendlichdimensionaler Vektorräume. Die Idee, zusammen mit einem Vektorraum V die Gesamtheit aller linearen Abbildungen V → zu betrachten, ist grundlegend in vielen Bereichen der modernen Mathematik, führt zum einen von einer abstrakten Seite hin auf den Begriff der Orthogonalität und bietet zum anderen in allgemeinen Situationen einen Ersatz für bzw. eine Verallgemeinerung von Orthogonalität. Ausführlichere Erklärungen versuchen wir zu Beginn und im Verlauf von Kapitel 4. R Kapitel 5 ist der klassischen Determinantentheorie und dabei wegen ihrer enormen Wichtigkeit unter anderem der Cramerschen Regel gewidmet. Auch dieses Kapitel führt wegen der geometrischen Bedeutung der Determinante hin zu Kapitel 6, in dem unser in Kapitel 2 begonnenes Axiomensystem der anschaulichen Geometrie um diejenigen Axiome ergänzt wird, die Orthogonalität, Länge, Winkel, Drehung, u. ä betreffen. R R Damit erhalten die anschauliche Ebene, 2 und allgemeiner n die volle Struktur euklidischer Vektorräume“. Das Vorhandensein eines Skalarprodukts erlaubt es uns, ” in Kapitel 7 etwa othogonale“, selbstadjungierte“ oder normale“ Abbildungen zu ” ” ” betrachten. Die starken Eigenschaften solcher speziellen Abbildungen erlauben die Herleitung sehr weitreichender Resultate ( Hauptachsentransformation“), deren volle ” XI Einleitung Eleganz und Allgemeinheit sich aber nur in komplexen Vektorräumen erreichen läßt. Deshalb beginnt dieses Kapitel mit einer Einführung in komplexe Zahlen und komplexe Vektorräume; in der Hoffnung, daß vieles schon aus der gleichzeitig erlernten Analysis vertraut ist, fassen wir uns hier recht kurz. Für die angesprochenen Klassen von Matrizen werden wir orthogonale Koordinatensysteme konstruieren, so daß das Rechnen mit linearen Abbildungen in diesen Koordinaten so einfach wird wie das Rechnen mit reellen oder komplexen Zahlen. Als Beispiele werden wir Wurzeln und Exponentialfunktionen geeigneter linearer Abbildungen bestimmen. Ganz wesentliches Standbein dieses Kapitels ist die Eigenwerttheorie linearer Abbildungen“, die ” mit all ihren Weiterentwicklungen und Verallgemeinerungen grundlegend für viele Bereiche der modernen Mathematik und Physik bis hin zur Quantenmechanik ist. Mit dieser Stoffauswahl hoffen wir: • die geometrischen Wurzeln der linearen Algebra mit logischer Strenge freizulegen, • die wichtigsten Elemente der Theorie reeller und komplexer Vektorräume und linearer Abbildungen zu entwickeln und • stets den Blick schon ein wenig zu öffnen in Richtung auf Weiterentwicklungen im Bereich der Geometrie (allgemeine Ebenen etwa als einfachste Prototypen allgemeiner Mannigfaltigkeiten), der Analysis (unendlichdimensionale Vektorräume werden gestreift, um Appetit zu machen auf die Theorie linearer Abbildungen zwischen vollständigen normierten Vektorräumen, die Funktionalanalysis“) und der ” mathematischen Physik (etwa Lorentztransformationen oder Eigenwerttheorie). Technische Hinweise zum Lesen des Buches erübrigen sich weitestgehend. Das Kästchen 2 kennzeichnet das Ende von Beweisen. Die Numerierung sollte selbsterklärend und vollkommen unzweideutig sein: Sätze, Definitionen, Beispiele, usw. werden unterschiedslos dreistellig numeriert, die erste Stelle gehört zum Kapitel und die zweite zum Teilkapitel (Abschnitt). Am Ende des Buches befinden sich ein ausführliches Symbolverzeichnis und ein Sachverzeichnis, so daß (hoffentlich!) jedes interessierende Thema im Text mühelos aufgefunden werden kann. Um eventuellen Mißverständnissen vorzubeugen, sei schon hier erwähnt, daß wir n-tupel aus dem n bzw. n zwar grundsätzlich als Zeilen ~b = (b1 , . . . , bn ) schreiben, um die Lesbarkeit vor allem des fortlaufenden Textes zu gewährleisten, daß wir im Rahmen des Matrizenkalküls darunter jedoch (zumeist stillschweigend) die entsprechenden Spaltenvektoren b1 ~b = ... bn R verstehen. C 209 7 Eigenwerte und Hauptachsentransformation In diesem Kapitel werden wir eingehend die am Ende von Abschnitt 3.6 aufgeworfene Frage studieren: Sei F : V → V eine lineare Abbildung des n-dimensionalen Vektorraums V in sich, G : n → V eine Karte, G−1 : V → n das entsprechende Koordinatensystem und A die zur Abbildung in den Koordinaten G−1 ◦F ◦G gehörige n × n-Matrix. R R R Für welche Matrizen A läßt sich eine Koordinatenwechselabbildung G−1 ◦ Ĝ : n → n mit zugehöriger n × n-Matrix B finden, so daß Â := B −1 ◦ A ◦ B Diagonalgestalt λ1 0 . . . 0 .. . 0 λ2  = . .. .. .. . . 0 . . . . . . λn R hat? Wir wollen uns hier auf den Fall beschränken, daß die Karten G und Ĝ auseinander durch Drehungen hervorgehen, daß die Transformationsmatrix B also orthogonal ist. In diesem Fall sagt man, daß B die Hauptachsentransformation für die Matrix A vermittelt. Man ist deshalb so an einer Diagonalform interessiert, weil diese einerseits eine besonders naheliegende Interpretation der entsprechenden Abbildungen gestattet und weil so andererseits Matrizen auf einfache Weise auch komplexen Berechnungen wie Potenzieren oder unendlichen Reihenbildungen zugänglich gemacht werden. Hat  Diagonalgestalt, so gilt  ◦ ~ej = λj ~ej und deshalb für die Basiselemente x̂j := Ĝ(~ej ) von V : F (x̂j ) = λj x̂j . Derartige Vektoren x̂j heißen Eigenvektoren zum jeweiligen Eigenwert λj , diese werden unter der Anwendung von F lediglich um den Faktor λj gestreckt. Solche Eigenvektoren werden beim Aufsuchen der Diagonalform  von A eine grundlegende Rolle spielen, dazu vgl. man den Abschnitt 7.3. Es wird sich herausstellen, daß eine geschlossene Behandlung der angesprochenen Fragen für reelle Vektorräume im allgemeinen nicht möglich ist. Deshalb werden wir 210 7 Eigenwerte und Hauptachsentransformation im folgenden Abschnitt zunächst den Körper der komplexen Zahlen und komplexe Vektorräume einführen und in Abschnitt 7.2 die unitären Matrizen als Verallgemeinerung der orthogonalen Matrizen behandeln. In Abschnitt 7.4 werden wir, zunächst im Komplexen, für die größtmögliche“ Klasse ” der normalen“ Matrizen Diagonalisierungsresultate herleiten. Ein entsprechendes ” reelles Resultat können wir daraus im allgemeinen nur für die wesentlich speziellere Klasse der symmetrischen (selbstadjungierten)“ Matrizen folgern, da nur in diesem ” Fall stets die Existenz hinreichend vieler reeller Eigenwerte gesichert ist. 7.1 Der allgemeine Körperbegriff, komplexe Vektorräume Allgemeine Körper 7.1.1 Definition Eine Menge K, die mit einer Addition +:K ×K →K und einer Multiplikation ·:K ×K →K versehen ist, heißt Körper, falls gilt: (1) (K, +) ist eine abelsche Gruppe. (2) Es bezeichne 0 das Nullelement von (K, +) und K ∗ := K\{0}. Dann ist (K ∗ , · ) ebenfalls eine abelsche Gruppe. (3) Die Distributivgesetze gelten, d. h. für alle a, b, c, d ∈ K ist (a + b) · c = a · c + b · c, a · (c + d) = a · c + a · d. Das neutrale Element bzgl. der Multiplikation wird mit 1 bezeichnet und die inversen Elemente bzgl. der Addition mit (−a) und bzgl. der Multiplikation mit a−1 oder 1 a . In jedem Körper gelten insbesondere sowohl für die Addition als auch für die Multiplikation die Regeln, wie wir sie in Abschnitt 1.1 für (abelsche) Gruppen zusammengestellt haben. Darüber hinaus haben wir für die Verknüpfung additiver und multiplikativer Eigenschaften folgende Gesetze: 7.1.2 Satz Sei K ein Körper, dann gilt für alle a, b ∈ K: (a) a · 0 = 0 · a = 0, 211 7.1 Der allgemeine Körperbegriff, komplexe Vektorräume (b) aus a · b = 0 folgt a = 0 oder b = 0, (c) (−a) · b = a · (−b) = −(a · b), (Nullteilerfreiheit) (−a) · (−b) = a · b. Für den Beweis sowie für weitere Folgerungen aus den Körperaxiomen verweisen wir auf die Lehrbücher der Analysis etwa von O. Forster [4, § 2] und von H. Grauert, I. Lieb [6, § 3]. Der Körper der reellen Zahlen verfügt zudem über einen Abstandsbegriff (Betrag), bzgl. dessen er vollständig ist, und über eine archimedische Anordnung (≤, ≥). Der Körper der komplexen Zahlen C Der für das Folgende außerordentlich wichtige Körper der komplexen Zahlen wird im allgemeinen in der Differentialrechnung definiert. Daher werden hier manche Eigenschaften nur skizziert und einige Beweise übergangen. Zur weiteren Information sei wieder auf O. Forster [4, § 13] verwiesen. C als den zweidimensionalen reellen Vektorraum C := R2 = {(x, y) : x, y ∈ R} ein. Damit ist C bereits eine additive abelsche Gruppe. Eine Multiplikation ·:C×C→C Wir führen wird durch (x, y) · (u, v) := (xu − yv, xv + yu) C erklärt. Damit wird zum Körper: das neutrale Element ist bzgl. der Addition 0 = (0, 0) und bzgl. der Multiplikation 1 = (1, 0). Das Negative von (x, y) ist 1 (−x, −y), für (x, y) 6= 0 gilt (x, y)−1 = x2 +y 2 (x, −y). Die reellen Zahlen werden folgendermaßen in den komplexen Zahlkörper eingebettet: Die Abbildung Φ : → , x 7→ (x, 0) R C ist ein injektiver Körperhomomorphismus, d. h. stets ist Φ(x + y) = Φ(x) + Φ(y) und R C Φ(x · y) = Φ(x) · Φ(y). Infolgedessen ist Φ( ) ein Teilkörper von , d. h. eine Teilmenge von denselben Verknüpfungen wie versehen, ein Körper. Man identifiziert C C und, mit R = Φ(R) = {(x, 0) : x ∈ R}. Für a ∈ R, (x, y) ∈ C gilt a · (x, y) = (a, 0) · (x, y) = (a · x, a · y), die Skalarmultiplikation auf R2 ist also ein Spezialfall der Multiplikation auf C. 212 7 Eigenwerte und Hauptachsentransformation Durch Einführung der imaginären Einheit i := (0, 1) mit i2 = −1 gelangt man zur üblichen Darstellung komplexer Zahlen (x, y) = (x, 0) + (0, y) = x · 1 + y · i = x + iy. Da jetzt i stets die imaginäre Einheit bezeichnet, steht es als Summationsindex nicht mehr zur Verfügung. Deshalb ersetzen wir fortan die bisherigen StandardSummationsindizes i, j durch µ, ν. C Für z = x + iy ∈ ist Re(z) := x der Realteil und Im(z) := y der Imaginärteil von z. Zu jeder komplexen Zahl z = x + iy wird die konjugiert komplexe Zahl z̄ = x − iy erklärt. Wegen z̄¯ = z ist die Konjugation eine bijektive Abbildung. Ferner gilt z1 + z2 = z̄1 + z̄2 und z1 · z2 = z̄1 · z̄2 , die Konjugation ist also ein Körperisomorphismus. Da reelle Zahlen durch die Konjugation nicht verändert werden, ist diese insbesondere eine bijektive lineare Abbildung des -Vektorraums in sich, eine umkehrbar lineare Abbildung. Sie ist anschaulich eine Spiegelung an der x-Achse. Die Elemente iy, y ∈ , der y-Achse heißen rein imaginär; es gilt: = {(x, 0) : x ∈ } = {z : z = z̄} und i := {iy : y ∈ } = {(0, y) : y ∈ } = {z : z = −z̄}. R R R R R C R R R Mittels der Konjugation erhält man geschlossene Formeln für Real- und Imaginärteil: 1 Re(z) = (z + z̄), 2 Im(z) = 1 (z − z̄). 2i Betrag einer komplexen Zahl Für z = x + iy ∈ C wird entsprechend der euklidischen Länge in R2 durch |z| := p x2 + y 2 der Betrag erklärt, offensichtlich ist |z|2 = z · z̄. Damit erhält man für z 6= 0 eine einfache Formel zur Bestimmung der komplexen Kehrwerte: 1 z̄ = 2. z |z| Es gelten die typischen Eigenschaften eines Betrages, für alle z, z1 , z2 ∈ C ist: (1) |z| = 0 ⇔ z = 0, (2) |z1 · z2 | = |z1 | · |z2 |, (3) |z1 + z2 | ≤ |z1 | + |z2 |. (Dreiecksungleichung) Die erste und die dritte Eigenschaft folgen unmittelbar daraus, daß der Betrag der komplexen Zahl z = x + iy mit der euklidischen Länge des Vektors (x, y) ∈ 2 übereinstimmt. Für die multiplikative Eigenschaft berechnet man R |z1 · z2 | = |(x1 + iy1 ) · (x2 + iy2 )| = |(x1 x2 − y1 y2 ) + i(x1 y2 + x2 y1 )| 213 7.1 Der allgemeine Körperbegriff, komplexe Vektorräume = q x21 x22 + y12 y22 + x21 y22 + x22 y12 = q (x21 + y12 ) · (x22 + y22 ) = |z1 | · |z2 |. Da Konvergenz einer komplexen Zahlenfolge (zk )k∈N = (xk + iyk )k∈N äquivalent zur Konvergenz der beiden reellen Zahlenfolgen (xk )k∈N und (yk )k∈N ist, erhält man aus der Vollständigkeit von : R C der komplexen Zahlen ist vollständig. Im Gegensatz zu R ist jedoch C nicht angeordnet, man kann also nicht von größeren“ ” Der Körper und kleineren“ komplexen Zahlen sprechen. ” Komplexe Vektorräume 7.1.3 Definition Auf einer nichtleeren Menge V sei eine Addition +: V ×V →V und eine Skalarmultiplikation ·: C×V →V gegeben. Es sei (V, +) eine abelsche Gruppe, es gelten also die Eigenschaften (1)-(4) aus Definition 1.1.3. Ferner gelte für alle c, d ∈ und x, y ∈ V : C (5) 1 · x = x, (Unitäres Gesetz) (6) (c · d) · x = c · (d · x), (Assoziativgesetz) (7) (c + d) · x = c · x + d · x und c · (x + y) = c · x + c · y. Dann heißt V ein komplexer Vektorraum oder C-Vektorraum. (Distributivgesetze) Man beachte die nahezu wörtliche Übereinstimmung mit der Definition 1.2.1, es wird nur der Skalarenkörper durch ersetzt. Mit Ausnahme der Abschnitte, in denen Orthogonalität eine Rolle spielt (d. h. Kapitel 4.5 und Kapitel 6), kann im gesamten Buch ohne weiteres durch ersetzt werden. Hinsichtlich der Orthogonalität werden wir unten zeigen, daß sich die Definition des Skalarproduktes in geeigneter Weise modifizieren läßt. Zur Vermeidung von Mißverständnissen bezüglich des zugrundeliegenden Skalarenkörpers (man vgl. Satz 7.1.6) spricht man von linearer (Un-) Abhängigkeit über , -Dimension (man schreibt dimC ), usw. R C R C CC Der n-dimensionale komplexe Zahlenraum Cn := {(z1, . . . , zn) : zν ∈ C} ist mit den Verknüpfungen ~z + w ~ := (z1 + w1 , . . . , zn + wn ) und c · ~z := (c · z1 , . . . , c · zn ) 214 7 Eigenwerte und Hauptachsentransformation ein komplexer Vektorraum mit der C-Basis {~e1 = (1, 0, . . . , 0), . . . , ~en = (0, . . . , 0, 1)}. R R C In derselben Weise, wie als Teilmenge von aufgefaßt werden kann, ist auch der n-dimensionale reelle Zahlenraum n in n enthalten; für ~z ∈ n schreiben wir ~z = ~x + i~y mit ~x, ~y ∈ n . R C C Es gilt wörtlich wie in Satz 3.3.14: 7.1.4 Satz dimC R Cn = n. C Da ein Teilkörper von ist, wird jeder komplexe Vektorraum V durch Einschränkung der Skalarmultiplikation von × V auf × V zu einem reellen Vektorraum. Im Folgenden stellen wir dar, wie die Eigenschaften von V als Vektorraum und als -Vektorraum zusammenhängen. C R R C 7.1.5 Satz C Es sei V ein -Vektorraum und {z1 , . . . , zn } eine Basis von V über {z1 , i · z1 , . . . , zn , i · zn } eine -Basis von V . R Beweis C. Dann ist R Wir zeigen zunächst die lineare Unabhängigkeit über . Seien a1 , . . . , an , b1 , . . . , bn ∈ mit n n X X aν zν + bν (i · zν ) = 0. R ν=1 Für cν := aν + ibν folgt c1 = · · · = cn = 0, also ν=1 Pn ν=1 cν zν = 0. Die lineare Unabhängigkeit über C liefert a1 = . . . = an = b1 = . . . = bn = 0. R Andererseits wird V auch von dem angegebenen System über erzeugt. Da {z1 , . . . , zn } über ein Erzeugendensystem von V ist, existieren zu beliebigem z ∈ V komplexe Zahlen cν = aν + ibν ∈ , aν , bν ∈ , ν = 1, . . . , n, mit C z= n X ν=1 C cν zν = n X ν=1 R (aν + ibν )zν = n X ν=1 aν zν + n X bν (izν ). ν=1 Eine unmittelbare Folgerung ist 7.1.6 Satz Sei V ein komplexer Vektorraum mit dimC V = n. Dann gilt dimR V = 2n. 2 215 7.1 Der allgemeine Körperbegriff, komplexe Vektorräume C R R Die Isomorphie von n und 2n über sieht man am deutlichsten, indem man im n-tupel ~z = (z1 , . . . , zn ), zν = xν + iyν jede Komponente als Zahlenpaar (xν , yν ) schreibt: ((x1 , y1 ), . . . , (xn , yn )). Gemäß Satz 7.1.5 erhält man eine -Basis von n durch R C {~e1 , i · ~e1 , . . . , ~en , i · ~en } n = (1, 0), (0, 0), . . . , (0, 0) , (0, 1), (0, 0), . . . , (0, 0) , . . . o . . . , (0, 0), . . . , (0, 0), (1, 0) , (0, 0), . . . , (0, 0), (0, 1) . Komplex lineare Abbildungen 7.1.7 Definition C Unter einer komplex linearen oder -linearen Abbildung F : V → W zwischen den komplexen Vektorräumen V und W versteht man eine Abbildung, die mit den Vektorraumoperationen verträglich ist, so daß für alle x, y ∈ V , c ∈ gilt: C F (x + y) = F (x) + F (y), Sei nun F : Matrix F (c · x) = c · F (x). Cn → Cn eine C-lineare Abbildung, die durch die komplexe n × nc11 .. C= . cn1 ... ... c1n .. , cµν = aµν + ibµν , aµν , bµν ∈ . cnn gegeben wird. R R R R, Man kann F insbesondere auch als -lineare Abbildung 2n → 2n auffassen. Wir wollen untersuchen, wie die zugehörige reelle 2n × 2n-Matrix A aus C hervorgeht. Dazu sind die Bilder der Einheitsvektoren ~e1 , i · ~e1 , . . . , ~en , i · ~en zu bestimmen. Für ν = 1, . . . , n gilt: F (~eν ) = (c1ν , . . . , cnν ) = (a1ν , b1ν ), . . . , (anν , bnν ) , F (i~eν ) = i · (ciν , . . . , cnν ) = (i · c1ν , . . . , i · cnν ) = (−b1ν , a1ν ), . . . , (−bnν , anν ) , und man erhält: a11 b11 . A= .. a n1 bn1 −b11 a11 .. . ... ... a1n b1n .. . −bn1 an1 ... ... ann bnn −b1n a1n .. . . −b nn ann 216 7 Eigenwerte und Hauptachsentransformation Also geht die reelle Matrix A aus der komplexen Matrix C hervor, indem man jede komplexe Komponente cµν = aµν + ibµν von C durch das reelle 2 × 2-Kästchen aµν −bµν bµν aµν ersetzt. Auch die Determinantentheorie für komplexe Matrizen läßt sich genauso wie im reellen Fall durchführen. Insbesondere gilt: 7.1.8 Satz C C Es sei F : n → n eine Dann sind äquivalent: C-lineare Abbildung mit zugehöriger Matrix C = C n,n. (a) Die Abbildung F ist bijektiv. (b) Die Matrix C ist nichtsingulär. (c) det(C) 6= 0. Nach diesen Vorbereitungen definieren wir genauso wie in 3.8.5: 7.1.9 Definition Die Menge aller nichtsingulären komplexen n × n-Matrizen C GL(n, ) := {C : C ist komplexe n × n-Matrix mit det(C) 6= 0} heißt allgemeine lineare Gruppe vom Rang n über 7.1.10 Bemerkung C. C Im Zusammenhang mit der Determinantentheorie -linearer Abbildungen ist Vorsicht geboten, da sich hier der Wert der Determinante ändern kann, wenn man zu der Interpretation derselben Abbildung als -linearer Abbildung zwischen -Vektorräumen mit doppelt so großer -Dimension wechselt. Als Beispiel betrachten wir F : → , F (z) = −z; die entsprechende komplexe 1 × 1-Matrix lautet C = ( −1 ), det(C) = 2 → 2 , F (x, y) = −(x, y) gehört dagegen die reelle 2 × 2-Matrix −1. Zu F : −1 0 A= mit det(A) = 1. 0 −1 R R R R R C C Ein komplexes Skalarprodukt C Um auch n mit einem Skalarprodukt p zu versehen, geht man von der Idee aus, daß n die euklidische Norm k ~ z k = |z1 |2 + . . . + |zn |2 tragen soll und daß diese von C ! dem gesuchten Skalarprodukt erzeugt werden soll: (~z, ~z ) = k ~z k2 . Indem man noch 217 7.1 Der allgemeine Körperbegriff, komplexe Vektorräume das bereits erwähnte Gesetz |zν |2 = z̄ν · zν beachtet, gelangt man zu der Setzung (~z, w) ~ := n X z̄ν · wν . ν=1 C Es stellt sich heraus, daß die axiomatische Beschreibung des Skalarproduktes in n oder allgemeiner in komplexen Vektorräumen gegenüber der Charakterisierung in Satz 6.2.1 für den n bzw. für reelle Vektorräume hinsichtlich der Linearitäts- und Symmetrieeigenschaften zu modifizieren ist. R 7.1.11 Satz Für das durch (~z, w) ~ = Skalarprodukt gilt: Pn ν=1 z̄ν · wν auf Cn gegebene kanonische komplexe C (1) Es ist konjugiert linear in der ersten Komponente, d. h. für c ∈ , ~z, ~z 0 , w ~∈ gilt: (~z + ~z 0 , w) ~ = (~z, w) ~ + (~z 0 , w), ~ (c · ~z, w) ~ = c̄ · (~z, w). ~ (2) Es ist linear in der zweiten Komponente, d. h. für c ∈ (~z, w ~ +w ~ 0 ) = (~z, w) ~ + (~z, w ~ 0 ), Cn C, ~z, w, ~ w ~ 0 ∈ Cn gilt: (~z, c · w) ~ = c · (~z, w). ~ (3) Es ist Hermitesch (konjugiert symmetrisch), d. h. für ~z, w ~∈ Cn gilt: (~z, w) ~ = (w, ~ ~z ). (4) Es ist positiv definit, d. h. für ~z ∈ (~z, ~z ) ≥ 0 Cn ist (~z, ~z ) reell, und es gilt: und (~z, ~z ) > 0, falls ~z 6= 0. Beweis Der Beweis folgt durch elementares Nachrechnen aus der Definition des Skalarprodukts. 2 C C C Abbildungen n ⊕ n → mit den Eigenschaften (1) und (2) nennt man sesquilinear. Das kanonische komplexe Skalarprodukt ist also eine Hermitesche, positiv definite Sesquilinearform. Es wird in der Literatur nicht einheitlich gehandhabt, ob das Skalarprodukt in der ersten oder in der zweiten Komponente als konjugiert linear definiert wird. Häufig P wird z. B. das Skalarprodukt in n auch durch nν=1 zν w̄ν eingeführt. C 7.1.12 Satz Durch die Setzung v u n p uX k ~z k := (~z, ~z ) = t z̄ν · zν ν=1 218 7 Eigenwerte und Hauptachsentransformation Cn zu einem normierten komplexen Vektorraum. Die Abbildung k . k n: C R hat also die typischen Eigenschaften einer Norm; für alle c ∈ C, ~z, w~ ∈ C wird n → gilt: (1) k ~z k = 0 ⇔ ~z = 0, (2) k c · ~z k = |c| · k ~z k, (3) k ~z + w ~ k ≤ k ~z k + k w ~ k. Beweis Man könnte zunächst die auch in Cn gültige Cauchy-Schwarzsche Ungleichung |(~z, w)| ~ ≤ k ~z k · k w ~k herleiten und anschließend genauso wie im Beweis von Satz 6.2.4 verfahren. Hier wollen wir allerdings direkt auf das dort erzielte Resultat zurückgreifen und verwenden, daß n und 2n als -Vektorräume kanonisch isomorph sind. Wie bereits vorher bemerkt, stimmen für C R R ~z = (z1 , . . . , zn ) = (x1 + iy1 , . . . , xn + iyn ) = ((x1 , y1 ), . . . , (xn , yn )) die euklidische Norm in R2n und die euklidische Norm in Cn überein: 2 k (x1 , y1 , . . . , xn , yn ) k = n X ν=1 x2ν + yν2 = n X z̄ν · zν = k ~z k2 . ν=1 Die Eigenschaften (1) und (3) folgen also direkt aus dem reellen Resultat. Für c ∈ ~z ∈ n gilt weiter: C k c · ~z k2 = (c · ~z, c · ~z ) = c̄ · (~z, c · ~z ) = c̄ · c · (~z, ~z ) = |c|2 · k ~z k2 . C, 2 7.2 Unitäre und adjungierte Abbildungen Die unitäre Gruppe Die unitären Abbildungen sind die komplexen Verallgemeinerungen der orthogonalen Abbildungen. Zwar könnte man die folgende Theorie auch allgemein in endlichdimensionalen Vektorräumen mit Skalarprodukt (diese nennt man unitär bzw. im reellen Fall euklidisch ) durchführen, wir beschränken uns aber der Einfachheit halber auf Abbildungen n → n . Zudem kann man sich, ganz ähnlich wie bei allgemeinen linearen Abbildungen in Kapitel 3, durch die Einführung unitärer Karten stets auf diesen Fall zurückziehen. C C Zur Definition wählen wir eine der Eigenschaften aus Satz 6.3.2. 219 7.2 Unitäre und adjungierte Abbildungen 7.2.1 Definition C Eine komplexe n × n-Matrix C heißt unitär, falls k C ◦ ~z k = k ~z k für alle ~z ∈ n gilt. Eine lineare Abbildung F : n → n heißt unitär, falls die zugehörige Matrix unitär ist. Wir nennen C C U (n) := {C : C ist unitäre n × n-Matrix} die unitäre Gruppe vom Rang n. Tatsächlich ist die Bezeichnung unitäre Gruppe“ gerechtfertigt: ” 7.2.2 Satz C U (n) ist eine Untergruppe von GL(n, ). Beweis Offenbar ist die zu C ∈ U (n) gehörige lineare Abbildung injektiv. Wie in Kapitel 3 folgt daraus, daß C nichtsingulär ist und C −1 ∈ GL(n, ) existiert. Es folgt U (n) ⊂ GL(n, ) und auf Grund von k ~z k = k C ◦ C −1 ◦ ~z k = k C −1 ◦ ~z k auch C −1 ∈ U (n). Wegen E n,n ∈ U (n) ist U (n) 6= ∅. Schließlich ist U (n) auch gegenüber der Matrizenmultiplikation abgeschlossen, denn mit C1 , C2 ∈ U (n) ist wegen k C1 ◦ C2 ◦ ~z k = k C2 ◦ ~z k = k ~z k auch C1 ◦ C2 ∈ U (n). 2 C C Wir studieren zunächst die Verbindungen mit dem reellen Begriff der orthogonalen n×n ist natürlich auch eine komplexe Matrix Matrix. Eine reelle Matrix C ∈ n×n C ∈ und vermittelt damit sowohl Abbildungen FR : n → n als auch n FC : → n . Die komplexe Abbildung FC geht dabei aus FR hervor, indem man für ~z = ~x + i~y ∈ n , ~x, ~y ∈ n beachtet: R C C C C R R R FC (~z ) = FC (~x + i~y ) = FC (~x ) + iFC (~y ) = C ◦ ~x + i C ◦ ~y = FR (~x ) + iFR (~y ). Dieses Verfahren, das man auch unabhängig vom Matrizenkalkül durchführen kann, heißt Komplexifizierung. 7.2.3 Satz O(n) ⊂ U (n). Beweis Sei C ∈ O(n) und ~z = ~x + i~y , ~x, ~y ∈ in n ergeben: C Rn. Die Eigenschaften der euklidischen Norm k ~z k2 = k ~x k2 + k ~y k2 = k C ◦ ~x k2 + k C ◦ ~y k2 = k C ◦ ~x + i C ◦ ~y k2 = k C ◦ (~x + i~y ) k2 = k C ◦ ~z k2 . 2 220 7 Eigenwerte und Hauptachsentransformation C R R Wie bereits im vorhergehenden Abschnitt erläutert, können wir n und 2n als Vektorräume identifizieren und entsprechend -lineare Abbildungen n → n als -lineare Abbildungen 2n → 2n auffassen. In diesem Sinne ist der folgende Satz zu verstehen. R R C R C C 7.2.4 Satz U (n) ist eine Untergruppe von O(2n). Beweis R Es sei Φ : U (n) → 2n×2n die in Abschnitt 7.1 beschriebene Abbildung: Für C = (cµν )µ,ν=1,...,n erhält man A = Φ(C), indemman jede komplexe Komponente aµν −bµν cµν = aµν + ibµν durch das reelle 2 × 2-Kästchen ersetzt. bµν aµν Wir haben also zu zeigen, daß Φ : U (n) → O(2n) ein injektiver Gruppenhomomorphismus ist. Da C und A = Φ(C) dieselbe Abbildung beschreiben und die euklidische Norm in n mit der in 2n übereinstimmt, folgt Φ(U (n)) ⊂ O(2n) aus Satz 6.3.2. C R Wir zeigen nun, daß Φ ein Gruppenhomomorphismus ist. Seien C1 , C2 ∈ U (n). Die durch C1 ◦ C2 gegebene Abbildung n → n stimmt mit der durch Φ(C1 ) ◦ Φ(C2 ) gegebenen Abbildung 2n → 2n überein, denn die Komposition der Abbildungen ist unabhängig davon, ob man n als komplexen oder reellen Vektorraum interpretiert. Also gilt Φ(C1 ◦ C2 ) = Φ(C1 ) ◦ Φ(C2 ). R R C C C Die Injektivität von Φ ergibt sich schließlich aus Φ(C) = E 2n,2n ⇒ C = E n,n . 2 Im Spezialfall n = 1 läßt sich Genaueres aussagen: 7.2.5 Satz U (1) ∼ = SO(2). Beweis Für die im vorherigen Beweis betrachtete Abbildung Φ : U (1) → O(2) bleibt zu zeigen: Φ(U (1)) ⊂ SO(2), Φ : U (1) → SO(2) ist surjektiv. 2 = |c · c̄| = |c̄| = |c| und damit |c| = 1. Mit Sei c ∈ U (1), es ist also insbesondere |c| a −b 2 2 c = a + ib gilt a + b = 1 und Φ(c) = , also Φ(c) ∈ SO(2). b a Um noch die Surjektivität von Φ zu zeigen, sei A ∈ SO(2) gegeben. Gemäß Satz 6.1.8 a −b existieren dann a, b ∈ mit a2 + b2 = 1 und A = . Für c := a + ib gilt b a R 221 7.2 Unitäre und adjungierte Abbildungen C |c| = 1 und damit für alle d ∈ : |c · d| = |c| · |d| = |d|, d. h. c ∈ U (1). Ferner ist Φ(c) = A und folglich im(Φ) = SO(2). 2 R2 ist also die Multiplikation mit einer komplexen Zahl c, deren Eine Drehung des Betrag |c| = 1 ist. Das nächste Ziel ist die komplexe Entsprechung des Satzes 6.3.2, es sollen also einige äquivalente und für das Folgende grundlegende Charakterisierungen unitärer Matrizen zusammengestellt werden. Dazu sind vorbereitend einige aus Kapitel 6 bekannte Begriffe auf den n auszudehnen und einige Hilfsresultate zu beweisen. C Komplexe Orthogonalität 7.2.6 Definition C Die Vektoren ~z, w ~ ∈ n heißen (komplex) orthogonal, wenn (~z, w) ~ = 0 gilt. Unter dem orthogonalen Komplement des Untervektorraums V ⊂ n verstehen wir V ⊥ := {~z ∈ 7.2.7 Satz Cn : C (~z, w) ~ = 0 für alle w ~ ∈ V }. C R Die Vektoren ~z, w ~ ∈ n seien (komplex) orthogonal, ~z = ~x + i~y , w ~ = ~u + i~v mit ~x, ~y , ~u, ~v ∈ n . Dann sind die entsprechenden Vektoren (x1 , y1 , . . . , xn , yn ), (u1 , v1 , . . . , un , vn ) ∈ 2n (reell) orthogonal. R Beweis Aus der komplexen Orthogonalität folgt 0 = (~z, w) ~ = n X (xν − i yν )(uν + i vν ) ν=1 = n X (xν uν + yν vν ) + i · ν=1 n X (xν vν − yν uν ) ν=1 und damit durch Betrachtung des Realteils die Behauptung. 2 C Der Beweis zeigt, daß komplexe Orthogonalität in n eine wesentlich stärkere Eigenschaft als reelle Orthogonalität in 2n ist, denn das entsprechende reelle Skalarprodukt ist lediglich der Realteil des komplexen Skalarprodukts. Dazu geben wir folgendes einfache Beispiel: R 7.2.8 Beispiel C natürlich nicht orthogonal, die entsprechenden R2 hingegen schon. Die komplexen Zahlen 1 und i sind in reellen Vektoren (1, 0) und (0, 1) in 222 7 Eigenwerte und Hauptachsentransformation 7.2.9 Satz Für jeden Untervektorraum V ⊂ V Cn gilt ⊥⊥ Beweis Offensichtlich ist V ⊥ ⊥ = {~z ∈ := V Cn : ⊥ ⊥ = V. (~z, w) ~ = 0 für alle w ~ ∈ V ⊥} ⊃ V . Die umgekehrte Inklusion beweist man mit Hilfe eines Dimensionsarguments. Sei k = dimC V , wie in Satz 6.3.6 zeigt man dimC V ⊥ = n − k. Eine Wiederholung ⊥ dieses Schlusses ergibt dimC V ⊥ = n − (n − k) = k und damit wegen V ⊂ V ⊥⊥ die behauptete Gleichheit. 2 In unendlichdimensionalen (unitären) Vektorräumen kann das Dimensionsargument nicht verwendet werden. Tatsächlich behält der obige Satz dort nur unter zusätzlichen Voraussetzungen seine Gültigkeit. 7.2.10 Definition Man nennt ein k-tupel (~z1 , . . . , ~zk ) von Vektoren aus nales k-Bein, wenn für µ, ν = 1, . . . , k gilt: Cn ein (komplexes) orthogo- (~zµ , ~zν ) = δµν . Ist ein orthogonales k-Bein gleichzeitig auch Erzeugendensystem eines Untervektorraums V von n , so spricht man von einer Orthonormalbasis von V . C Eine Orthonormalbasis von V ist also eine Basis aus paarweise orthogonalen, normierten (d. h. mit Länge 1) Vektoren. Wir bezeichnen mit C̄ t die zur m × n-Matrix C konjugiert transponierte n × mMatrix, die also aus C = (cµν ) µ=1,...,m durch Transponieren und komponentenweises ν=1,...,n Konjugieren hervorgeht: c̄11 c̄12 C̄ t = ... c̄21 c̄22 .. . ... ... .. . c̄1n c̄2n . . . c̄mn c̄m1 c̄m2 . .. . Wir betrachten nun wieder ausschließlich quadratische Matrizen. 7.2.11 Satz Für jede n × n-Matrix C und alle Vektoren ~z, w ~∈ Cn gilt: (w, ~ C ◦ ~z ) = (C̄ t ◦ w, ~ ~z ). 223 7.2 Unitäre und adjungierte Abbildungen Beweis Das komplexe Skalarprodukt lautet in Matrizenschreibweise: (~z, w) ~ = ~z¯ t ◦ w, ~ daraus erhält man: ¯ t ◦ w) ¯~ t ◦ ~z = w ¯~ t ◦ (C ◦ ~z ) = (w, (C̄ t ◦ w, ~ ~z ) = (C̄ t ◦ w) ~ t ◦ ~z = (C̄ ~ C ◦ ~z ). 7.2.12 Satz Ist D eine komplexe n × n-Matrix derart, daß ~z¯ t ◦ D ◦ ~z = 0 für alle ~z ∈ dann folgt: D = On,n . 2 Cn gilt, Beweis C Wir zeigen zunächst, daß die Sesquilinearform, die je zwei Vektoren ~z, w ~ ∈ n t die komplexe Zahl (~z, D ◦ w) ~ = ~z¯ ◦ D ◦ w ~ zuordnet, bereits durch die Werte der t ¯ quadratischen Form ~z 7→ ~z ◦ D ◦ ~z bestimmt ist. Bei dem folgenden Verfahren der Polarisierung setzt man geeignete Kombinationen der beliebig vorgegebenen Vektoren ~z, w ~ ∈ n ein: C ¯~ t ◦ D ◦ ~z + w ¯~ t ◦ D ◦ w, (~z + w) ~ t ◦ D ◦ (~z + w) ~ = ~z¯ t ◦ D ◦ ~z + ~z¯ t ◦ D ◦ w ~ +w ~ t t t t t ¯~ ◦ D ◦ ~z + w ¯~ ◦ D ◦ w, (~z − w) ~ ◦ D ◦ (~z − w) ~ = ~z¯ ◦ D ◦ ~z − ~z¯ ◦ D ◦ w ~ −w ~ ¯~ t ◦ D ◦ ~z + w ¯~ t ◦ D ◦ w, (~z + iw) ~ t ◦ D ◦ (~z + iw) ~ = ~z¯ t ◦ D ◦ ~z + i~z¯ t ◦ D ◦ w ~ − iw ~ t t t t t ¯ ¯ ¯ ¯ (~z − iw) ~ ◦ D ◦ (~z − iw) ~ = ~z ◦ D ◦ ~z − i~z ◦ D ◦ w ~ + iw ~ ◦ D ◦ ~z + w ~ ◦ D ◦ w. ~ Indem man jeweils die ersten und letzten beiden Gleichungen voneinander subtrahiert, erhält man: ¯~ t ◦ D ◦ ~z ~z¯ t ◦ D ◦ w ~ +w 1 = (~z + w) ~ t ◦ D ◦ (~z + w) ~ − (~z − w) ~ t ◦ D ◦ (~z − w) ~ ; 2 ¯~ t ◦ D ◦ ~z ~z¯ t ◦ D ◦ w ~ −w 1 (~z + iw) ~ t ◦ D ◦ (~z + iw) ~ − (~z − iw) ~ t ◦ D ◦ (~z − iw) ~ . = 2i Diese Gleichungen werden zueinander addiert, und es folgt: 1 (~z + w) ~ t ◦ D ◦ (~z + w) ~ − (~z − w) ~ t ◦ D ◦ (~z − w) ~ ~z¯ t ◦ D ◦ w ~= 4 1 (~z + iw) ~ t ◦ D ◦ (~z + iw) ~ − (~z − iw) ~ t ◦ D ◦ (~z − iw) ~ . + 4i Wir setzen nun in dieses auch an sich interessante Zwischenergebnis unsere Voraussetzung ein, daß stets ~z¯ t ◦ D ◦ ~z = 0 ist. Dadurch erhalten wir für alle ~z, w ~ ∈ n: C ~z¯ t ◦ D ◦ w ~ = 0. 224 7 Eigenwerte und Hauptachsentransformation Indem wir für ~z und w ~ die Elemente ~eµ und ~eν der kanonischen Basis des einsetzen, folgt schließlich für D = (dµν )µ,ν=1,...,n : Cn 2 dµν = ~eµt ◦ D ◦ ~eν = 0. 7.2.13 Bemerkung Die komplexe n × n-Matrix D und damit die entsprechende Sesquilinearform S : n ⊕ n → , S(~z, w) ~ = ~z¯ t ◦ D ◦ w ~ = (~z, D ◦ w) ~ sind durch die quadratische t ¯ Form ~z 7→ ~z ◦ D ◦ ~z, d. h. durch die Werte der Sesquilinearform auf der Diagonalen“ ” ~z = w ~ eindeutig bestimmt. C C C Ein entsprechendes Resultat gilt im Reellen nur unter Zusatzvoraussetzungen, wie et 0 1 wa der Symmetrie (man vgl. den Beweis von Satz 6.3.2), wie das Beispiel −1 0 zeigt. Unitäre Matrizen 7.2.14 Satz Für alle komplexen n × n-Matrizen A = (~a1 , . . . , ~an ) sind äquivalent: (a) Āt ◦ A = E; (b) für alle ~z, w ~∈ C gilt (A ◦ ~z, A ◦ w) ~ = (~z, w); ~ (c) A ist unitär; (d) (~a1 , . . . , ~an ) ist ein komplexes orthogonales n-Bein. Beweis C (a) ⇒ (c)“: Für alle ~z ∈ n gilt in Matrizenschreibweise: ” k ~z k2 = ~z¯ t ◦ ~z = ~z¯ t ◦ E ◦ ~z = (~z¯ t ◦ Āt ) ◦ (A ◦ ~z ) = (A ◦ ~z ) t ◦ (A ◦ ~z ) = k A ◦ ~z k2 . (c) ⇒ (b)“: In diesem Beweisteil können wir von den in Satz 7.2.12 geleisteten ” Vorarbeiten profitieren. Wir wollen zeigen, daß die Sesquilinearform S: Cn ⊕ Cn → C, S(~z, w) ~ = (A ◦ ~z, A ◦ w) ~ − (~z, w) ~ (∗) stets den Wert 0 ergibt. Gemäß Voraussetzung (c) ist der Wert dieser Form auf der Diagonalen“ ~z = w ~ stets 0. Indem man noch beachtet, daß für alle ~z, w ~∈ n ” (A ◦ ~z, A ◦ w) ~ − (~z, w) ~ = ~z¯ t ◦ Āt ◦ A ◦ w ~ − ~z¯ t ◦ w ~ t t = ~z¯ ◦ Ā ◦ A − E ◦ w ~ C 225 7.2 Unitäre und adjungierte Abbildungen gilt, daß also die Sesquilinearform S in (∗) durch die Matrix Āt ◦ A − E gegeben wird, ergibt Satz 7.2.12 tatsächlich, daß es sich bei dieser Matrix um die Nullmatrix handelt. Mithin verschwindet die Sesquilinearform S in (∗) identisch, und wir haben gleichzeitig auch (c) ⇒ (a)“ mitbewiesen. ” (b) ⇒ (d)“: Gemäß Voraussetzung (b) ist die Matrix A längen-“ und winkeltreu“, ” ” ” das gilt insbesondere auch für die Elemente der kanonischen Basis des n : C δµν = (~eµ , ~eν ) = (A ◦ ~eµ , A ◦ ~eν ) = (~aµ , ~aν ). (d) ⇒ (a)“: Dieser Schluß basiert allein auf der Definition der Matrizenmultiplikati” on: ¯t ~a1 . t ¯µt ◦ ~aν Ā ◦ A = .. ◦ (~a1 , . . . , ~an ) = ~a µ,ν=1,...,n ¯nt ~a = (~aµ , ~aν ) = (δµν )µ,ν=1,...,n = E. µ,ν=1,...,n 2 Adjungierte Abbildungen Wiederholt hat die zur komplexen n × n-Matrix A konjugiert transponierte Matrix Āt eine Rolle gespielt, nicht zuletzt als Umkehrmatrix unitärer Matrizen. Deshalb werden wir nun die entsprechenden Abbildungen eingehender studieren. 7.2.15 Definition Sei A eine komplexe n × n-Matrix und F : Abbildung. Cn → Cn die zugehörige C-lineare (a) Die zur konjugiert transponierten Matrix Āt gehörige n → n heißt die zu F adjungierte Abbildung. C (b) Gilt C Āt C-lineare Abbildung = A, so heißt A Hermitesch und F selbstadjungiert. Ein Spezialfall hiervon ist die entsprechende reelle Definition: 7.2.16 Definition Sei A eine reelle n × n-Matrix und F : Abbildung. Rn (a) Die zur transponierten Matrix At gehörige die zu F adjungierte Abbildung. → Rn die zugehörige R-lineare R-lineare Abbildung Rn → Rn heißt (b) Ist A symmetrisch, d. h. A = At , so nennen wir F selbstadjungiert. 226 7 Eigenwerte und Hauptachsentransformation 7.2.17 Bemerkung R R Bei reellen Matrizen A ∈ n×n und zugehörigen linearen Abbildungen F : n → n fallen die adjungierte und die duale Abbildung zusammen. Im Komplexen dagegen wird die duale Abbildung F ∗ unverändert durch At , die adjungierte Abbildung F adjungiert dagegen durch Āt gegeben. Hier besteht bei den Abbildungen der Zusam menhang: F adjungiert (~z ) = F ∗ ~z¯ . R Um im Folgenden nicht unnötig komplizierte Bezeichnungen verwenden zu müssen, werden wir mitunter die zur Matrix A gehörige lineare Abbildung ebenfalls mit A bezeichnen und beispielsweise von Āt als der zu A adjungierten Abbildung sprechen. 7.2.18 Satz Eine komplexe n × n-Matrix A ist genau dann Hermitesch, wenn für alle ~z ∈ Zahl (~z, A ◦ ~z ) reell ist. Cn die Beweis Grundlegend ist die folgende, auf den Eigenschaften konjugiert transponierter Matrizen beruhende Gleichheit: (~z, Āt ◦ ~z ) = (A ◦ ~z, ~z ) = (~z, A ◦ ~z ). Ist A Hermitesch, so gilt für alle ~z ∈ diese Zahlen stets reell. Cn also (~z, A ◦ ~z ) = (~z, A ◦ ~z ), demgemäß sind Ist dagegen (~z, A ◦~z ) stets reell, d. h. (~z, A ◦~z ) = (~z, A ◦ ~z ), so verschwindet die von Āt − A gegebene quadratische Form identisch, es ist also stets (~z, (Āt − A) ◦ ~z ) = 0. Der schon wiederholt zitierte Satz 7.2.12 zeigt Āt − A = O und damit die Hermitizität von A. 2 Auch um die Symmetrie einer reellen n × n-Matrix zu prüfen, ist die quadratische Form (~z, A ◦ ~z ) für alle komplexen Vektoren ~z ∈ n zu betrachten. C 7.2.19 Satz Für die zur komplexen n × n-Matrix A gehörige lineare Abbildung gilt: (a) ker(A) = im(Āt )⊥ , (b) im(A) = ker(Āt )⊥ . Beweis Sei ~z ∈ ker(A), d. h. A ◦ ~z = ~0. Für alle Āt ◦ w ~ ∈ im(Āt ), w ~ ∈ Satz 7.2.11 (~z, Āt ◦ w) ~ = (A ◦ ~z, w) ~ = (~0, w) ~ = 0. Somit ist ker(A) ⊂ im(Āt )⊥ . Cn, folgt mit 227 7.2 Unitäre und adjungierte Abbildungen Sei nun umgekehrt ~z ∈ im(Āt )⊥ , für alle w ~∈ Cn haben wir also 0 = (~z, Āt ◦ w) ~ = (A ◦ ~z, w). ~ Indem man speziell w ~ = A ◦ ~z wählt, ergibt sich A ◦ ~z = ~0, ~z ∈ ker(A), t ⊥ im(Ā ) ⊂ ker(A) und damit insgesamt Behauptung (a). Indem man in (a) zu den orthogonalen Komplementen übergeht, die Matrix A durch t Āt ersetzt und Āt = A beachtet, erhält man ker(Āt )⊥ = im(A)⊥⊥ . C Vorher hatten wir schon für beliebige Untervektorräume V ⊂ n die Gültigkeit von V ⊥⊥ = V gezeigt, und folglich ist auch Behauptung (b) bewiesen. 2 Bei selbstadjungierten Abbildungen können wir mit Hilfe dieses Satzes durch Abspaltung des Kerns zu Isomorphismen übergehen. 7.2.20 Satz C C Die lineare Abbildung F : n → n sei selbstadjungiert, es bezeichne V = ker(F )⊥ . Dann ist die Einschränkung von F auf V F |V : V → V ein Isomorphismus. Beweis Gemäß dem vorhergehenden Satz ist im(F |V ) ⊂ im(F ) = ker(F )⊥ = V . Die Abbildung F |V ist offensichtlich injektiv und damit auf Grund der Dimensionsformel auch surjektiv. 2 Normale Abbildungen Unitäre und selbstadjungierte Abbildungen scheinen zunächst wenig miteinander zu tun zu haben: Unitäre Abbildungen sind längentreu, mithin stets Isomorphismen. Selbstadjungierte Abbildungen können durchaus einen nichttrivialen Kern haben und die eingesetzten Vektoren strecken oder stauchen. Dennoch teilen diese Abbildungen eine Eigenschaft, die sich in Abschnitt 7.4 als entscheidend für die Diagonalisierbarkeit erweisen wird. 7.2.21 Definition C Wir nennen eine n × n-Matrix A und die zugehörige lineare Abbildung F : n → n normal, wenn die Abbildung und ihre adjungierte kommutieren, falls also die Bedingung Āt ◦ A = A ◦ Āt C erfüllt ist. 228 7 Eigenwerte und Hauptachsentransformation 7.2.22 Satz Eine n × n-Matrix A ist normal genau dann, wenn für alle ~z, w ~∈ Cn gilt: (Āt ◦ ~z, Āt ◦ w) ~ = (A ◦ ~z, A ◦ w). ~ Beweis Ist A normal, so folgt für alle ~z, w ~∈ (∗) Cn (A ◦ ~z, A ◦ w) ~ = (~z, Āt ◦ A ◦ w) ~ = (~z, A ◦ Āt ◦ w) ~ t t = (Ā ◦ ~z, Ā ◦ w). ~ C Gilt nun umgekehrt (∗) für alle ~z, w ~ ∈ n , so folgt ~z, Āt ◦ A ◦ w ~ = (A ◦ ~z, A ◦ w) ~ = Āt ◦ ~z, Āt ◦ w ~ = ~z, A ◦ Āt ◦ w ~ , 0 = ~z, Āt ◦ A − A ◦ Āt ◦ w ~ . Indem man bei beliebigem w ~ für ~z = Āt ◦ A − A ◦ Āt ◦ w ~ einsetzt, erhält man t t ~ Ā ◦ A − A ◦ Ā ◦ w ~ = 0 und damit Āt ◦ A − A ◦ Āt = O; die Matrix A ist normal. 2 7.3 Eigenwerte Wir haben stets die Theorie linearer Abbildungen und den Matrizenkalkül simultan und gleichberechtigt entwickelt und haben häufig mit Gewinn zwischen diesen beiden Standpunkten gewechselt. In diesem Abschnitt stellen wir den Abbildungs” standpunkt“ in den Vordergrund. Es bezeichne V stets einen n-dimensionalen komplexen Vektorraum und F : V → V eine -lineare Abbildung. C Eigenräume 7.3.1 Definition Ein Vektor z ∈ V \ {0} heißt Eigenvektor von F zum Eigenwert λ ∈ Eigenwertgleichung F (z) = λ · z erfüllt ist. C, wenn die 229 7.3 Eigenwerte C Da gleichzeitig Eigenwert λ und Eigenvektor z gesucht werden und die Abbildung × V → V , (λ, z) 7→ λ · z nicht linear ist, handelt es sich bei der Eigenwertbestimmung um ein nichtlineares Problem. Diese Begriffe stehen ebenso wie die im Folgenden noch zu definierenden auch für beliebige n × n-Matrizen zur Verfügung, indem man die entsprechende -lineare Abbildung betrachtet. So ist ~z ∈ n \ {~0} Eigenvektor von A zum Eigenwert λ ∈ , falls A ◦ ~z = λ · ~z gilt. Das Bestehen dieser Eigenwertgleichung ist äquivalent zu (A − λE) ◦ ~z = ~0, bzw. auf Abbildungsebene zu (F − λ · id)(z) = 0. Also gilt C C {z ∈ V : z ist Eigenvektor von F : V → V zu λ ∈ = {z : (F − λ · id)(z) = 0} = ker(F − λ · id). C C} ∪ {0} 7.3.2 Definition Für λ ∈ C heißt die Menge aller Eigenvektoren zu λ, ergänzt um den Nullvektor, Vλ := Vλ (F ) := ker(F − λ · id) Eigenraum von F zum Eigenwert λ ∈ C. 7.3.3 Bemerkung C Als Kern einer linearen Abbildung ist Vλ ein -Untervektorraum von V . Genau dann ist λ Eigenwert von F , wenn dim Vλ 6= 0 gilt. Ist z Eigenvektor zu λ von F , so auch jedes komplexe Vielfache c · z, c ∈ . C 7.3.4 Satz Es seien z1 , . . . , zk Eigenvektoren von F zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λ k ∈ : C F (zν ) = λν zν , zν 6= 0, λµ 6= λν für µ 6= ν. Dann sind z1 , . . . , zk linear unabhängig. Insbesondere hat F höchstens n paarweise verschiedene Eigenwerte. Beweis Wir führen den Beweis durch Induktion nach der Anzahl k der Eigenvektoren. Der Fall k = 1 ist offensichtlich, denn Eigenvektoren sind definitionsgemäß vom Nullvektor verschieden. Sei nun die Behauptung für k − 1 gezeigt, und es seien z1 , . . . , zk Eigenvektoren zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Wir betrachten Linearkombinationen des Nullvektors aus z1 , . . . , zk : k X ν=1 aν zν = 0, aν ∈ C. 230 7 Eigenwerte und Hauptachsentransformation Man erhält durch Multiplikation mit λk : k X aν λk zν = 0 ν=1 und durch die Anwendung von F : 0 = F (0) = F k X ! aν zν = ν=1 k X aν F (zν ) = ν=1 k X aν λν zν . ν=1 Durch Subtraktion der beiden Gleichungen folgt: k X aν (λk − λν )zν = ν=1 k−1 X aν (λk − λν )zν = 0. ν=1 Nach Induktionsvoraussetzung sind z1 , . . . , zk−1 linear unabhängig und somit aν (λk − λν ) = 0. Da die Eigenwerte als paarweise verschieden vorausgesetzt sind, erhalten wir a1 = . . . = ak−1 = 0. Aus der ursprünglichen Linearkombination des Nullvektors wird 0 = ak zk , hieraus folgt schließlich auch ak = 0. 2 Das charakteristische Polynom Die Bestimmung von Eigenwerten soll auf die Bestimmung der Nullstellen eines komplexen Polynoms reduziert werden. Wir fassen hier komplexe Polynome im Sinne der analytischen Definition als Funktionen → auf. C C n C C Sei G : → V eine Karte, d. h. ein -Vektorraumisomorphismus. Die Abbildung F in den Koordinaten, G−1 ◦ F ◦ G, wird durch eine n × n-Matrix A gegeben. Wegen der Linearität des Koordinatensystems G−1 lautet die Abbildung F − λ · id in den Koordinaten: G−1 ◦(F −λ·id)◦G = G−1 ◦(F ◦G−λ·G) = G−1 ◦F ◦G−λ·G−1 ◦G = G−1 ◦ F ◦ G − λ · idCn , sie wird also durch die Matrix A − λ · E beschrieben. Da die komplexe Zahl λ Eigenwert von A bzw. F genau dann ist, wenn A − λE singulär (nicht invertierbar) ist, liegt es nahe, die entsprechende Determinante zu betrachten: det(A − λE) = n X δ(ν1 , . . . , νn )(aν1 1 − λδν1 1 ) · . . . · (aνn n − λδνn n ) ν1 ,...,νn =1 n n = (−1) · (λ + Q(λ)) , dabei ist Q(λ) ein Polynom in λ vom Grade ≤ n − 1. Es handelt sich bei det(A − λE) also um ein Polynom n-ten Grades in λ mit höchtem Koeffizienten (−1)n . Auf Grund der Überlegungen aus Kapitel 5.6 ist det(A − λE) = det(F − λ · id) unabhängig von der Wahl der Karte G. 231 7.3 Eigenwerte 7.3.5 Definition Wir nennen P (λ) := PF (λ) := (−1)n ·det(F −λ·id) das charakteristische Polynom der linearen Abbildung F . Das charakteristische Polynom ist normiert, besitzt also höchsten Koeffizienten 1. 7.3.6 Satz C Sei P (λ) das charakteristische Polynom einer -linearen Abbildung F : V → V . Dann ist λ ∈ Eigenwert von F genau dann, wenn P (λ) = 0 gilt. C Beweis C Die komplexe Zahl λ ∈ ist Eigenwert von F genau dann, wenn die Abbildung F − λ · id nicht injektiv und damit nicht invertierbar ist. Letzteres ist jedoch äquivalent zum Verschwinden der Determinante: P (λ) = det(F − λ id) = 0. 2 Das charakteristische Polynom ist invariant gegenüber 7.3.7 Satz C-Isomorphismen: C Sei P (λ) das charakteristische Polynom einer -linearen Abbildung F : V → V . ∼ Sei W ein weiterer n-dimensionaler -Vektorraum und H : W → V ein Vektorraumisomorphismus. Für das charakteristische Polynom P̂ (λ) der Abbildung F̂ := H −1 ◦ F ◦ H gilt P̂ (λ) = P (λ). C Beweis C C Sei G : n → V eine Karte. Dann ist H −1 ◦ G eine Karte von W und F̂ lautet in diesen Koordinaten (H −1 ◦ G)−1 ◦ F̂ ◦ (H −1 ◦ G) = G−1 ◦ H ◦ H −1 ◦ F ◦ H ◦ H −1 ◦ G = G−1 ◦ F ◦ G, das ist auch die Abbildung F in den Koordinaten G. Das charakteristische Polynom ist aber von der Wahl der Karte unabhängig. 2 Als Folgerung erhalten wir die Existenz einer weiteren Matrixinvariante: 7.3.8 Definition Unter der Spur einer quadratischen Matrix A = (aµν )µ,ν=1,...,n verstehen wir die Summe der Diagonalelemente: Sp(A) := n X aνν . ν=1 7.3.9 Satz C Sei A ∈ n×n beliebig, B ∈ dieselbe Spur. Cn×n invertierbar. Dann haben A und B −1 ◦ A ◦ B 232 7 Eigenwerte und Hauptachsentransformation Beweis Eine genaue Inspektion der Definition des charakteristischen Polynoms ergibt PA (λ) = (−1)n det(A − λE) n X = (−1)n δ(ν1 , . . . , νn )(aν1 1 − λδν1 1 ) · . . . · (aνn n − λδνn n ) ν1 ,...,νn =1 n = λ − Sp(A)λn−1 + Q̃(λ), das Polynom Q̃(λ) ist vom Grade ≤ n − 2. Die Koeffizienten dieses Polynoms ändern sich unter dem Koordinatenwechsel B nicht. 2 7.3.10 Bemerkung (Existenz reeller Eigenvektoren) R Sei λ ∈ ein Eigenwert der reellen n × n-Matrix A. Dann ist det(A − λE) = 0, und es existiert ein ~x ∈ n \ {~0} mit (A − λE) ◦ ~x = ~0. Also besitzt A einen reellen Eigenvektor. R Der folgende, für unsere Zwecke zentrale Satz verliert in den reellen Zahlen seine Gültigkeit und ist der Grund dafür, daß die Eigenwerttheorie in komplexen Vektorräumen durchgeführt wird. 7.3.11 Satz (Fundamentalsatz der Algebra) C Jedes komplexe Polynom zerfällt über in Linearfaktoren. Genauer gilt: Sei P (λ) ein Polynom vom Grade n über . Dann gibt es Zahlen s ∈ , s ≤ n, r1 , . . . , rs ∈ mit r1 + · · · + rs = n, a ∈ \ {0}, c1 , . . . , cs ∈ mit cµ 6= cν für µ 6= ν, so daß gilt: C C N C N P (λ) = a · (λ − c1 )r1 · . . . · (λ − cs )rs . Man sagt, daß P (λ) in cν eine Nullstelle rν -ter Ordnung besitzt. Der Beweis kann mit den hier zur Verfügung stehenden Mitteln nicht geführt werden und wird im Rahmen der Funktionentheorie oder der Algebra gegeben. Als Folgerung erhalten wir insbesondere ein Existenzresultat für komplexe Eigenwerte: 7.3.12 Satz Jede C-lineare Abbildung F : V → V besitzt mindestens einen Eigenwert. 7.3.13 Definition N Sei PF (λ) = (λ − λ1 )r1 · . . . · (λ − λs )rs mit λν 6= λµ für µ 6= ν, r1 , . . . , rs ∈ und r1 + . . . + rs = n das charakteristische Polynom einer -linearen Abbildung F . Man nennt die Nullstellenordnung rν die algebraische und die Dimension des Eigenraumes dim Vλν die geometrische Vielfachheit des Eigenwertes λν . C 233 7.3 Eigenwerte 7.3.14 Beispiele (a) Sei a1 A := ... .. . O ∗ .. . an eine Dreiecksmatrix. Gemäß Satz 5.4.2 gilt: P (λ) = (−1)n · det(A − λE) = (−1)n · n Y n Y (aν − λ) = ν=1 (λ − aν ). ν=1 Die Diagonalelemente a1 , . . . , an sind die Eigenwerte von A. (b) Sei O a1 .. A := O . an eine Diagonalmatrix. Es gilt A ◦ ~eν = aν · ~eν , d. h. ~eν ist Eigenvektor von A zum Eigenwert aν . Die kanonische Basis ist eine Orthonormalbasis aus Eigenvektoren von A. Die algebraischen und geometrischen Vielfachheiten der Eigenwerte stimmen überein. (c) Auch reelle Matrizen haben i. a. nur komplexe Eigenwerte. Dazu berechnen wir 0 1 die Eigenwerte von A = . Das charakteristische Polynom lautet −1 0 −λ 1 P (λ) = det = λ2 + 1, die Eigenwerte sind i und −i. −1 −λ (d) Nichtfür jedeMatrix existiert eine Basis aus Eigenvektoren. Man betrachte dazu 1 a A= mit a ∈ \ {0}. Es ist P (λ) = (−1)2 (1 − λ)2 = (1 − λ)2 , 1 ist 0 1 also einziger Eigenwert von A. Zur Bestimmung der Eigenvektoren ist folgendes Gleichungssystem zu lösen: ~0 = (A − E) ◦ ~z = 0 a · z1 = a · z2 . 0 0 z2 0 C Der Eigenraum zum einzigen Eigenwert 1 ist also V1 = {(z1 , z2 ) ∈ C2 : z2 = 0} = {(z1 , 0) : z1 ∈ C}. Insbesondere existieren nicht zwei linear unabhängige Eigenvektoren von A. Die algebraische Vielfachheit des Eigenwertes 1 ist 2, die geometrische 1. 234 7 Eigenwerte und Hauptachsentransformation 7.3.15 Folgerung Die Determinante ist das Produkt der Eigenwerte (entsprechend ihren algebraischen Vielfachheiten). Genauer gilt: Sei PF (λ) = (λ − λ1 )r1 · . . . · (λ − λs )rs mit λν 6= λµ für µ 6= ν, r1 , . . . , rs ∈ und r1 + . . . + rs =Qn das charakteristische Polynom der -linearen Abbildung F . Dann gilt: det(F ) = sν=1 λrνν . N C Beweis Wir haben n PF (λ) = (−1) det(F − λ id) = s Y (λ − λν )rν . ν=1 Durch Einsetzen von λ = 0 folgt det(F ) = s Y λrνν . 2 ν=1 Eigenvektoren normaler Matrizen Am Ende von Abschnitt 7.2 haben wir die normalen Matrizen auf zunächst wenig anschauliche Weise als Oberbegriff für die Hermiteschen und unitären Matrizen eingeführt. Die nächsten Sätze verdeutlichen, wie wichtig dieser neue Begriff tatsächlich ist. 7.3.16 Satz Die n × n-Matrix A sei normal. Dann ist λ Eigenwert von A genau dann, wenn λ̄ Eigenwert der adjungierten Abbildung Āt ist; die Eigenräume stimmen überein: Vλ (A) = Vλ̄ (Āt ). Beweis Zunächst sei bemerkt, daß mit A auch A − λ E normal ist. Sei ~z ∈ Vλ (A), also A ◦ ~z − λ ~z = ~0. Mit Hilfe von Satz 7.2.22 folgt 0 = k A ◦ ~z − λ~z k2 = ((A − λE) ◦ ~z, (A − λE) ◦ ~z ) t t = (A − λE) ◦ ~z, (A − λE) ◦ ~z = (Āt − λ̄ · E) ◦ ~z, (Āt − λ̄ · E) ◦ ~z = k Āt ◦ ~z − λ̄ · ~z k2 ; Ā ◦ ~z = λ̄ · ~z. t t t Somit ist Vλ (A) t⊂ Vλ̄ (Ā ). Derselbe Schluß, nun angewandt auf λ̄ und Ā , zeigt Vλ̄ (Āt ) ⊂ Vλ̄¯ Āt = Vλ (A) und damit auch Vλ (A) = Vλ̄ (Āt ). 2 235 7.3 Eigenwerte 7.3.17 Satz Je zwei Eigenvektoren ~z1 , ~z2 einer normalen Matrix A zu verschiedenen Eigenwerten λ1 6= λ2 sind orthogonal. Beweis Gemäß Voraussetzung ist A ◦ ~z1 = λ1~z1 , A ◦ ~z2 = λ2~z2 ; der vorhergehende Satz impliziert Āt ◦ ~z1 = λ̄1~z1 , Āt ◦ ~z2 = λ̄2~z2 . Damit folgt: λ2 (~z1 , ~z2 ) = (~z1 , λ2~z2 ) = (~z1 , A ◦ ~z2 ) = (Āt ◦ ~z1 , ~z2 ) = (λ̄1 ◦ ~z1 , ~z2 ) = λ1 (~z1 , ~z2 ), 0 = (λ1 − λ2 )(~z1 , ~z2 ). Aus der Verschiedenheit der Eigenwerte erhalten wir die Orthogonalität der Eigenvektoren: (~z1 , ~z2 ) = 0. 2 Eigenwerte Hermitescher Matrizen 7.3.18 Satz Alle Eigenwerte Hermitescher Matrizen sind reell. Beweis Sei A = An,n Hermitesch mit Eigenvektor ~z ∈ Satz 7.2.18 zeigt: Cn \ {~0} zum Eigenwert λ ∈ C. λk ~z k2 = λ(~z, ~z ) = (~z, λ · ~z ) = (~z, A ◦ ~z ) ∈ Wegen k ~z k2 ∈ R \ {0} folgt, daß λ reell ist. R. 2 7.3.19 Beispiele (a) Für die Hermitesche 2 × 2-Matrix A= 1 −3i 3i 1 lautet das charakteristische Polynom P (λ) = det(A − λ E) = det 1−λ 3i −3i 1−λ = (λ − 1)2 − 9 = (λ − 4)(λ + 2); die Eigenwerte sind λ1 = 4 und λ2 = −2. = (1 − λ)2 + 9i2 236 7 Eigenwerte und Hauptachsentransformation (b) Wir betrachten nun die reelle symmetrische 3 × 3-Matrix 7 1 − 23 6 6 2 2 A = − 23 − . 3 3 1 2 7 − 6 3 6 Das charakteristische Polynom lautet (7 − 6λ) −4 1 det −4 (4 − 6λ) P (λ) = (−1)3 det(A − λ E) = − 216 1 −4 (7 − 6λ) −4 1 1 =− det 24(1 − λ) −6(2 + λ) 0 216 12(−3λ2 + 7λ − 4) 24(1 − λ) 0 72 =− 8(1 − λ)2 + (2 + λ)(−3λ2 + 7λ − 4) 216 1 = − −3λ3 + 9λ2 − 6λ = λ(λ − 1)(λ − 2), 3 1 −4 (7 − 6λ) wir haben also die drei Eigenwerte λ1 = 0, λ2 = 1, λ3 = 2. Eigenwerte unitärer Matrizen 7.3.20 Satz Für jeden Eigenwert λ einer unitären Matrix A gilt |λ| = 1. Beweis Sei λ Eigenwert von A ∈ U (n) zum Eigenvektor ~z ∈ unitären Matrix impliziert Cn \ {~0}. Die Längentreue der k ~z k2 = k A ◦ ~z k2 = (A ◦ ~z, A ◦ ~z ) = (λ · ~z, λ · ~z ) = λλ̄ k ~z k2 . Da k ~z k2 6= 0 ist, folgt |λ| = 1. 7.3.21 Satz R 2 Sei A ∈ O(n, ) eine reelle orthogonale Matrix. Die Raumdimension n sei ungerade. Dann ist +1 oder −1 Eigenwert von A. Ist A sogar eine Drehung, d. h. A ∈ SO(n, ), dann ist +1 Eigenwert von A. Wir werden auf S. 257 mit Hilfe der Diagonalisierungsresultate erläutern, daß in der zu +1 gehörige Eigenvektor als Drehachse interpretiert werden kann. R R3 237 7.3 Eigenwerte Beweis Das charakteristische Polynom PA (λ) von A hat reelle Koeffizienten und wird hier als Funktion → aufgefaßt. Der Term höchster Ordnung ist λn mit der ungeraden Potenz n. Aus der Analysis weiß man limλ→∞ PA (λ) = +∞ und limλ→−∞ PA (λ) = −∞. Der Zwischenwertsatz ergibt die Existenz wenigstens einer reellen Nullstelle λ0 mit |λ0 | = 1, denn A ist orthogonal und insbesondere unitär. R R Die nichtreellen Eigenwerte von A treten immer in zueinander konjugierten Paaren auf: Sei λ1 Eigenwert von A, d. h. Nullstelle des charakteristischen Polynoms 0 = PA (λ1 ) = λn1 + n−1 X aν λν1 , aν ∈ R. ν=0 Durch Konjugation erhält man 0 = PA (λ1 ) = λn1 + n−1 X aν λν1 ν=0 = λ̄n1 + n−1 X aν λ̄ν1 , ν=0 λ̄1 ist also ebenfalls Eigenwert. Indem man den quadratischen Faktor (λ − λ1 )(λ − λ̄1 ) abspaltet, der nur reelle Koeffizienten besitzt, und das Verfahren iteriert, erhält man: Die Matrix A hat 0 ≤ k ≤ (n − 1)/2 (nicht notwendigerweise verschiedene) Paare zueinander konjugiert komplexer Eigenwerte λ1 , λ̄1 , . . . , λk , λ̄k und eine ungerade Anzahl reeller Eigenwerte λ2k+1 , . . . , λn ∈ {+1, −1}; die Eigenwerte werden jeweils entsprechend ihrer algebraischen Vielfachheit aufgeführt. Die Determinante ist das Produkt der Eigenwerte: det(A) = |λ1 |2 · . . . · |λk |2 · λ2k+1 · . . . · λn = λ2k+1 · . . . · λn . Ist nun det(A) = +1, so können nicht alle reellen Eigenwerte = −1 sein, denn n wurde als ungerade vorausgesetzt. In diesem Fall ist +1 (zumindest einfacher) Eigenwert von A. 2 7.3.22 Beispiel Durch direktes Nachrechnen sieht man, daß die reelle 3 × 3-Matrix √ √ 2 2 1 1 1 − − + + 2 4√ 2 √4 2 2 1 1 A = − 12 + 42 − + 4 2 2 1 2 1 2 √ 2 2 orthogonal ist, daß also At ◦A = E gilt. Wir berechnen das charakteristische Polynom: √ √ 2 1 − 12 −λ − 12 + 42 2 + 4 √ √ 2 1 PA (λ) = − det(A − λ E) = − det − 12 + 42 − 12 2 + 4 −λ 1 2 1 2 √ 2 2 −λ 238 7 Eigenwerte und Hauptachsentransformation = = = √ 2 −λ 4 √ 1 − det − 2 + 42 1 √2 2 1 2 + 4 −λ √2 − det 2 −λ 1 2 √ 2 2 − (λ − 1) · det 1 2 1 2 + −1 + λ − 12 1−λ − 12 √ 2 2 0 −1 + λ 0 λ − 12 −1 √ 2 2 0 −1 −λ −λ = (λ − 1) · −λ √ ! √ √ ! √ 2 2 2 2 , +i · λ− λ− −i 2 2 2 2 = (λ − 1) · √ 2 2 √ die Eigenwerte von A lauten also λ1 = √ folgt auch det(A) = √ ! 2 2 (1 √ + i) · 2 2 (1 2 2 (1+i), λ2 2 −λ 2 !2 1 + 2 √ = 2 2 (1−i) und λ3 = 1. Daraus − i) · 1 = 1, also ist A eine Drehung. Wir bestimmen die Drehachse (sie sei vorbehaltlich der nachzutragenden Erläuterungen von S. 257 bereits so bezeichnet), d. h. den Eigenvektor zum Eigenwert 1, als nichttriviale Lösung des linearen Gleichungssystems √ √ − 12 − 21 + 42 − 12 + 42 √ √ ~0 = (A − E) ◦ ~x = − 12 + 42 − 12 + 42 − 12 ◦ ~x. 1 2 1 2 √ 2 2 −1 Etwa mittels des Gaußschen Algorithmus’ findet man, daß dieses Gleichungssystem eine linear unabhängige Lösung hat. Der Lösungsraum (die Drehachse) wird von dem √ t √ Einheitsvektor ~x = 22 , − 22 , 0 aufgespannt. 7.4 Die Hauptachsentransformation C In diesem Abschnitt betrachten wir nur n × n-Matrizen A ∈ n×n bzw. A ∈ n×n und die entsprechenden linearen Abbildungen F : n → n bzw. F : n → n . Lineare Abbildungen allgemeiner endlichdimensionaler Vektorräume in sich könnten, wie schon erwähnt, durch die Einführung unitärer Koordinaten auf diesen Fall zurückgeführt werden, die relevanten Eigenschaften wie normal“, ” selbstadjungiert“ oder unitär“ blieben dabei erhalten. ” ” Sei also F : n → n eine lineare Abbildung mit zugehöriger n × n-Matrix A. Wir können uns nun der zu Beginn dieses Kapitels wieder aufgeworfenen Frage zuwenden: Unter welchen Bedingungen an die Matrix A läßt sich ein orthonormiertes Koordinatensystem (~b1 , . . . , ~bn ) in n so geschickt einzeichnen“, daß die Abbildung ” R R C R C C C C 239 7.4 Die Hauptachsentransformation F in den durch die unitäre Matrix B = (~b1 , . . . , ~bn ) bzw. die entsprechende unitäre Karte G : n → n gegebenen Koordinaten C C F̂ = G−1 ◦ F ◦ G mit Matrix  = B̄ t ◦ A ◦ B Diagonalgestalt hat? Wir werden zeigen, daß ein solches Diagonalisierungsresultat genau in der Klasse der normalen Matrizen Gültigkeit besitzt. Insbesondere folgt damit die Diagonalisierbarkeit unitärer und Hermitescher Matrizen. Da die Eigenwerte reeller symmetrischer Matrizen sämtlich reell sind, erhalten wir daraus unmittelbar ein Diagonalisierungsresultat auch im Reellen, während der Übergang vom unitären zum reell orthogonalen Fall größere Modifikationen erfordert. Transformation auf Dreiecksgestalt, Trigonalisierung Wir werden zunächst beweisen, daß jede komplexe n × n-Matrix durch eine unitäre Transformationsmatrix auf Dreiecksgestalt gebracht werden kann, und daraus später unsere Diagonalisierungsresultate herleiten. Zur Vorbereitung dienen die folgenden beiden Hilfssätze: 7.4.1 Satz Sei m < n und B 00 ∈ Cm×m eine unitäre m × m-Matrix. Dann ist B := E n−m,n−m Om,n−m On−m,m B 00 ∈ Cn×n ebenfalls unitär. Beweis C C n beliebig. Wir bezeichnen ~ n−m und Sei ~z ∈ z 0 := (z1 , . . . , zn−m )t ∈ 00 t m ~z := (zn−m+1 , . . . , zn ) ∈ . Auf Grund der Nullblöcke in B ist B ◦ ~z = (~z 0 , B 00 ◦ ~z 00 )t ∈ n−m ⊕ m . Wir greifen noch auf die Definition der euklidischen Norm in n zurück und erhalten C C C C k B ◦ ~z k2 = k ~z 0 k2 + k B 00 ◦ ~z 00 k2 = k ~z 0 k2 + k ~z 00 k2 = k ~z k2 . 7.4.2 Satz 2 C Zu je zwei Einheitsvektoren ~z, w ~ ∈ n (d. h. k ~z k = k w ~ k = 1) existiert eine unitäre n × n-Matrix B ∈ U (n) mit w ~ = B ◦ ~z. Beweis Genauso wie in Satz 6.3.5 beweist man: es gibt Vektoren ~z2 , . . . , ~zn derart, daß (~z, ~z2 , . . . , ~zn ) ein orthogonales n-Bein ist, d. h. nach Satz 7.2.14 ist B1 := 240 7 Eigenwerte und Hauptachsentransformation (~z, ~z2 , . . . , ~zn ) ∈ U (n). Es gilt B1 ◦ ~e1 = ~z, also ~e1 = B1−1 ◦ ~z = B̄1t ◦ ~z. Entsprechend konstruiert man ein B2 ∈ U (n) mit B2 ◦ ~e1 = w. ~ Für B := B2 ◦ B̄1t ∈ U (n) ist dann in der Tat B ◦ ~z = B2 ◦ ~e1 = w. ~ 2 7.4.3 Satz Zu jeder komplexen n × n-Matrix A existiert eine unitäre n × n-Matrix B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B eine (obere) Dreiecksmatrix ist, daß also âµν = 0 gilt für µ > ν. Beweis Wir führen den Beweis durch vollständige Induktion nach n. Bei der Induktionsbasis n = 1 ist nichts zu zeigen, denn jede 1 × 1- Matrix“ ist eine Dreiecks- Matrix“. ” ” Sei nun n > 1, und wir nehmen an, die Behauptung sei für n − 1 bewiesen. Das charakteristische Polynom P (λ) = PA (λ) der n × n-Matrix A zerfällt über in Linearfaktoren, es gibt also einen Eigenwert λ1 ∈ mit zugehörigem Eigenvektor ~z1 6= ~0. Wir können den Eigenvektor normieren und ohne Einschränkung k ~z1 k = 1 annehmen. Gemäß Satz 7.4.2 existiert eine unitäre Abbildung B1 ∈ U (n), die den ersten Einheitsvektor auf diesen Eigenvektor abbildet: B1 ◦ ~e1 = ~z1 . C C Für A1 := B̄1t ◦ A ◦ B1 gilt A1 ◦ ~e1 = B̄1t ◦ A ◦ (B1 ◦ ~e1 ) = B̄1t ◦ (A ◦ ~z1 ) = B̄1t ◦ (λ1~z1 ) = λ1~e1 , also λ1 0 A1 = ... 0 ∗ A0 mit einer (n − 1) × (n − 1)-Matrix A0 . Nach Induktionsvoraussetzung existiert ein t B 0 ∈ U (n − 1), so daß in B̄ 0 ◦ A0 ◦ B 0 unterhalb der Diagonalen ausschließlich Nullen stehen. Auf die in Satz 7.4.1 beschriebene Weise erhalten wir aus B 0 eine n-reihige unitäre Matrix: 1 O1,n−1 B2 := ∈ U (n). On−1,1 B0 Wir betrachten die Hintereinanderschaltung B := B1 ◦ B2 ∈ U (n) 241 7.4 Die Hauptachsentransformation der unitären Transformationen B1 und B2 . Für t  := B̄2t ◦ A1 ◦ B2 = B̄2t ◦ B̄1t ◦ A ◦ B1 ◦ B2 = (B1 ◦ B2 ) ◦ A ◦ (B1 ◦ B2 ) = B̄ t ◦ A ◦ B erhalten wir nun Dreiecksgestalt: 1 O λ1 ∗ 1 O  = ◦ ◦ t O B̄ 0 O A0 O B0 λ1 ∗ 1 O λ1 ∗ = ◦ = . t t O B̄ 0 ◦ A0 O B0 O B̄ 0 ◦ A0 ◦ B 0 2 Im Beweis haben wir wesentlichen Gebrauch vom Fundamentalsatz der Algebra gemacht. Betrachtet man eine reelle Matrix A, so hat deren charakteristisches Polynom PA (λ) zwar nur reelle Koeffizienten, der Fundamentalsatz der Algebra besitzt im Reellen jedoch keine Gültigkeit. Tatsächlich wird der soeben bewiesene Satz in dieser Situation im allgemeinen falsch: 7.4.4 Beispiel 0 1 −1 . Für beliebiges 0 Wir betrachten die reelle normale 2 × 2-Matrix A = a b B= ∈ O(2, ) berechnet man c d 0 −ad + bc 0 − det(B) t B ◦A◦B = = ; −bc + ad 0 det(B) 0 R Dreiecksgestalt komplexen unitären Matrix C = läßt sich nicht erreichen.Mit der √ 1 1 −i 0 2 ist dagegen C̄ t ◦ A ◦ C = . 2 i −i 0 i Um das reelle Analogon von Satz 7.4.3 zu beweisen, haben wir also die Existenz von reellen Eigenwerten vorauszusetzen. 7.4.5 Satz Die reelle n × n-Matrix A habe nur reelle Eigenwerte, d. h. das charakteristische Polynom PA (λ) zerfalle über in Linearfaktoren. Dann existiert eine (reelle) Matrix B ∈ SO(n) derart, daß Â = B −1 ◦ A ◦ B = B t ◦ A ◦ B eine Dreiecksmatrix ist. R Beweis Weil wir hier weitgehend parallel zum Beweis von Satz 7.4.3 vorgehen, wird nur der Induktionsschritt skizziert. Gemäß Voraussetzung existiert ein Eigenwert λ1 ∈ kung 7.3.10 gibt es zu λ1 einen reellen Eigenvektor: A ◦ ~x1 = λ1 · ~x1 mit ~x1 ∈ Rn , R von A, wegen Bemer- k ~x1 k = 1. 242 7 Eigenwerte und Hauptachsentransformation In Satz 6.3.5 haben wir eine Drehung B1 ∈ SO(n) konstruiert mit ~x1 = B1 ◦ ~e1 . Die transformierte Matrix A1 := B1t ◦ A ◦ B1 hat dasselbe Aussehen wie oben und gemäß Satz 7.3.7 dasselbe charakteristische Polynom wie A. Ist Q(λ) das charakteristische Polynom von A0 , so liefert die Entwicklung von det(A1 − λ E) nach der ersten Spalte P (λ) = (λ − λ1 ) · Q(λ). R Also zerfällt auch Q(λ) über in Linearfaktoren. Die Induktionsvoraussetzung liefert ein B 0 ∈ SO(n − 1), so daß B 0t ◦ A0 ◦ B 0 Dreiecksmatrix ist. Der Rest des Beweises verläuft wie oben, wobei die Konjugationsstriche entfallen und U (n) durch SO(n) zu ersetzen ist. 2 7.4.6 Folgerung Die geometrische Vielfachheit eines Eigenwertes kann seine algebraische Vielfachheit nicht übersteigen. Beweis Wir können uns auf den komplexen Fall beschränken: Die geometrische Vielfachheit im Reellen kann die im Komplexen nicht übersteigen, denn reelle Vektoren, also solche aus n , die über linear unabhängig sind, sind auch über linear unabhängig. Die algebraischen Vielfachheiten stimmen im Reellen und Komplexen überein. R R C Sei λ0 Eigenwert der n × n-Matrix A mit geometrischer Vielfachheit s = dim Vλ0 und algebraischer Vielfachheit r. Ähnlich wie im Beweis von Satz 7.4.3 wollen wir den Eigenraum Vλ0 von n abspalten. Sei dazu ~z1 , . . . , ~zs eine Orthonormalbasis von Vλ0 , diese können wir durch Verwendung des Schmidtschen Orthonormalisierungsverfahrens zu einem orthogonalen n-Bein ~z1 , . . . , ~zn ergänzen. Die Matrix B1 := (~z1 , . . . , ~zn ) ist also unitär. Mit der Wahl von A1 := B̄1t ◦A◦B1 folgt für ν = 1, . . . , s: A1 ◦ ~eν = B̄1t ◦ A ◦ (B1 ◦ ~eν ) = B̄1t ◦ (A ◦ ~zν ) = λ0 B̄1t ◦ ~zν = λ0~eν , C also Zeile/ Spalte 1 1 A1 = ··· s+1 ··· .. . ∗ λ0 O n O λ0 .. . s O s+1 .. . s A0 . n t Gemäß Satz 7.4.3 existiert eine unitäre Matrix B 0 ∈ U (n − s), so daß B̄ 0 ◦ A0 ◦ B 0 Dreiecksgestalt hat. Mit s,s E O B2 := ∈ U (n) O B0 243 7.4 Die Hauptachsentransformation erhalten wir wie in Satz 7.4.3 Zeile/ Spalte 1 1  := B̄2t ◦ A1 ◦ B2 = ··· s n O λ0 .. . s O s+1 .. . ··· s+1 .. . ∗ λ0 t B̄ 0 ◦ A0 ◦ B 0 O n Zeile/ Spalte 1 .. . s O s+1 .. . s s+1 ··· .. . ∗ λ0 λs+1 .. O O n n O λ0 1 = ··· . . ∗ λn Die Matrizen QA und  haben dasselbe charakteristische Polynom, es lautet P (λ) = (λ − λ0 )s · nν=s+1 (λ − λν ). Die Nullstellen λν sind i. a. nicht paarweise und auch nicht von λ0 verschieden, es folgt s ≤ r. 2 Diagonalisierbarkeit normaler Matrizen Wir wollen zeigen, daß die Dreiecksmatrix aus Satz 7.4.3 sogar eine Diagonalmatrix ist, sofern eine normale Matrix vorgegeben wurde. Hier liegt die Beobachtung zugrunde, daß Normalität unter unitären Koordinatentransformationen erhalten bleibt: 7.4.7 Satz C Die Matrix A ∈ n×n sei normal. Dann ist B̄ t ◦ A ◦ B für jede unitäre Matrix B ∈ U (n) ebenfalls normal. Beweis t t (B̄ t ◦ A ◦ B) ◦ B̄ t ◦ A ◦ B − B̄ t ◦ A ◦ B ◦ (B̄ t ◦ A ◦ B) = B̄ t ◦ Āt ◦ B ◦ B̄ t ◦ A ◦ B − B̄ t ◦ A ◦ B ◦ B̄ t ◦ Āt ◦ B = B̄ t ◦ Āt ◦ A ◦ B − B̄ t ◦ A ◦ Āt ◦ B = B̄ t ◦ Āt ◦ A − A ◦ Āt ◦ B = O. 2 244 7 Eigenwerte und Hauptachsentransformation 7.4.8 Satz Zu jeder normalen Matrix A ∈ Cn×n existiert eine unitäre Matrix B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B Diagonalgestalt hat. Die Spalten von B = ~b1 , . . . , ~bn bilden eine Orthonormalbasis von n aus Eigenvektoren von A. Die Diagonalelemente von  sind genau die Eigenwerte von A entsprechend ihren geometrischen Vielfachheiten. C Beweis Gemäß Satz 7.4.3 finden wir eine unitäre Matrix B ∈ U (n), so daß Â := B̄ t ◦ A ◦ B Dreiecksgestalt hat;  ist ebenfalls normal. Es bleibt zu zeigen, daß normale Dreiecksmatrizen schon Diagonalmatrizen sind. Wir haben âµν = 0 für µ > ν. Die Normalität ergibt für µ = 1, . . . , n: 0= µ n X X 2 ¯ ¯ âσµ âσµ − âµσ âµσ = |âσµ | − |âµσ |2 n X σ=1 = σ=1 µ−1 X n X |âσµ |2 − σ=1 σ=µ |âµσ |2 . σ=µ+1 Die Betrachtung von µ = 1 ergibt 0= n X |â1σ |2 , â1σ = 0 für σ = 2, . . . , n. σ=2 Wir fahren induktiv fort und nehmen an, wir hätten im k-ten Schritt âµσ = 0 für σ = µ + 1, . . . , n, µ = 1, . . . , k erreicht. Durch Betrachtung von µ = k + 1 folgt: 0= k X 2 |âσ,k+1 | − σ=1 n X 2 |âk+1,σ | = − σ=k+2 n X |âk+1,σ |2 , σ=k+2 also ist auch âk+1,σ = 0 für σ = k + 2, . . . , n. Nach (n−1) Schritten erhalten wir, daß âµν = 0 auch für alle µ, ν mit µ < ν ist. Auch oberhalb der Diagonalen enthält  nur Nullen und ist folglich eine Diagonalmatrix. Da die Matrix B unitär ist, bilden deren Spalten ein orthogonales n-Bein, also eine Orthonormalbasis von n . Wir haben zu zeigen, daß es sich dabei um Eigenvektoren von A handelt. Aus  = B̄ t ◦ A ◦ B folgt B ◦  = A ◦ B. Wir betrachten jeweils die ν-te Spalte: C A ◦ ~bν = B ◦ ~âν = B ◦ (âνν ~eν ) = âνν (B ◦ ~eν ) = âνν ◦ ~bν , in der Tat ist ~bν Eigenvektor von A zum Eigenwert λν := âνν . Jeder Eigenwert tritt gemäß seiner geometrischen Vielfachheit auf, denn die Anzahl der entsprechenden Eigenvektoren in B ist gerade die Dimension des Eigenraums. Somit sind â11 , . . . , ânn 245 7.4 Die Hauptachsentransformation genau die Eigenwerte von A, denn A und  haben dieselben Eigenwerte mit denselben geometrischen Vielfachheiten. 2 Mit den normalen Matrizen haben wir die größtmögliche Klasse derjenigen Matrizen bestimmt, die mit Hilfe unitärer Koordinatenwechselabbildungen diagonalisiert werden können: 7.4.9 Satz Für die n × n-Matrix A existiere eine unitäre n × n-Matrix B ∈ U (n) derart, daß B̄ t ◦ A ◦ B Diagonalgestalt hat. Dann ist A normal. Beweis Es bezeichne O d1 .. D= = B̄ t ◦ A ◦ B; . O dn diese Diagonalmatrix ist normal: ¯ d1 t D̄ ◦ D = O .. O ¯ d1 · d1 = O .. ◦ . d¯n O .. O d1 O . dn = D ◦ D̄t . . d¯n · dn t Nun ist A = B ◦ D ◦ B̄ t = B̄ t ◦ D ◦ B̄ t mit B̄ t ∈ U (n), und A ist gemäß Satz 7.4.7 normal. 2 Das reelle Analogon zu Satz 7.4.8 leitet man mit wörtlich demselben Beweis aus Satz 7.4.5 her. 7.4.10 Satz Die reelle n × n-Matrix A sei normal und habe nur reelle Eigenwerte. Dann existiert eine reelle Drehung B ∈ SO(n) derart, daß Â := B t ◦A◦B eine reelle Diagonalmatrix ist. Bezüglich jeder normalen Matrix können wir mit Hilfe des Diagonalisierungssatzes den n in eine orthogonale Summe über deren Eigenräume zerlegen: C 246 7 Eigenwerte und Hauptachsentransformation 7.4.11 Satz Es seien λ1 , . . . , λs sämtliche paarweise verschiedenen Eigenwerte einer normalen n × n-Matrix A. Dann besitzt n eine orthogonale Zerlegung in die Eigenräume von A: n = ⊕sν=1 Vλν . Qs rν das charakteristische Polynom von A, so ist r = Ist P (λ) = ν ν=1 (λ − λν ) dim Vλν , die geometrischen und algebraischen Vielfachheiten der Eigenwerte stimmen also überein. C C Beweis Die Orthogonalität der Eigenräume wurde bereits in Satz 7.3.17 nachgewiesen. Sei B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B Diagonalgestalt hat, die Spalten B = ~b1 , . . . , ~bn bilden eine Orthonormalbasis von Eigenvektoren von A, in der Diagonalen von  treten die Eigenwerte von  und damit die von A entsprechend ihrer geometrischen Vielfachheit dim Vλν auf; man beachte, daß sich geometrische Vielfachheiten bei Koordinatenwechseln nicht ändern. In  und folglich auch in A stimmen somit offensichtlich geometrische und algebraische Vielfachheiten rν überein: rν = dim Vλν . Indem man ggfs. die Spalten von B vertauscht, kann man erreichen: ~b1 , . . . , ~br sind Eigenvektoren zu λ1 , 1 ~br +1 , . . . , ~br +r sind Eigenvektoren zu λ2 , 1 1 2 .. . ~br +...+r +1 , . . . , ~bn sind Eigenvektoren zu λs . 1 s−1 C Da jedes Element ~z ∈ n eine Darstellung in der Basis {~b1 , . . . , ~bn } besitzt, folgt durch entsprechende Klammerung die Zerlegung von ~z in Komponenten in den jeweiligen Eigenräumen: ! ! r1 rX n n 1 +r2 X X X ~z = cν~bν = cν~bν + cν~bν + . . . + cν~bν ν=1 ν=1 =: ~z1 + . . . + ~zs , ν=r1 +1 ν=r1 +...+rs−1 +1 mit ~zν ∈ Vλν . Die Eindeutigkeit dieser Darstellung folgt aus der Orthogonalität der Eigenräume. 2 Die Hauptachsentransformation für Hermitesche und reell symmetrische Matrizen Wir erhalten den folgenden Satz direkt aus dem Diagonalisierungsresultat für normale Matrizen Satz 7.4.8 zusammen mit der Beobachtung aus Satz 7.3.18, daß Eigenwerte Hermitescher Matrizen stets reell sind: 247 7.4 Die Hauptachsentransformation 7.4.12 Satz (Hauptachsentransformation) Zu jeder Hermiteschen n × n-Matrix A existiert eine unitäre Matrix B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B eine reelle Diagonalmatrix ist. Man erhält das reelle Analogon, indem man auf Satz 7.4.10 anstatt auf Satz 7.4.8 verweist. 7.4.13 Satz (Hauptachsentransformation) Sei A eine symmetrische reelle n × n-Matrix. Dann existiert eine Drehung B ∈ SO(n, ) derart, daß Â := B t ◦ A ◦ B eine (reelle) Diagonalmatrix ist. R 7.4.14 Bemerkung Um den Begriff Hauptachsentransformation“ zu erläutern, betrachten wir zunächst ” eine reelle n × n-Diagonalmatrix  mit den (nicht notwendigerweise verschiedenen) Diagonalelementen λ1 , . . . , λn . Unter dieser Abbildung wird die Einheitskugel K = ~x ∈ n : k ~x k2 ≤ 1 R auf ein Ellipsoid ( E= ~x ∈ R n : n X x2 ν λ2ν ν=1 ) ≤1 abgebildet. Die Basisvektoren λν ~eν sind die Hauptachsen dieses Ellipsoids. R R Sei nun A ∈ n×n eine symmetrische Matrix und B ∈ SO(n, ) eine Transformationsmatrix derart, daß die Abbildung in diesen Koordinaten Diagonalgestalt  := B t ◦ A ◦B wie oben hat. Man kann also in n eine Orthonormalbasis B = ~b1 , . . . , ~bn einzeichnen“, so daß unter der Abbildung A die Einheitskugel ” K in ein Ellipsoid mit den Basisvektoren λν~bν als Hauptachsen übergeht. R 7.4.15 Beispiel Eine wichtige Anwendung des Diagonalisierungssatzes für reell symmetrische Matrizen findet man in der Theorie der Drehbewegung starrer Körper. Für eine ausführliche Darstellung verweisen wir auf die Lehrbücher der Mechanik wie etwa das von Á. Budó [1, §§ 51 ff]. Wir stellen uns einen solchen Körper vor und legen den Ursprung und ein orthogonales Koordinatensystem in dessen Schwerpunkt. Wir betrachten Drehbewegungen nur um Achsen, die durch diesen Ursprung gehen, um insgesamt resultierende Kräfte auf diese ~ und Achsen zu vermeiden. Der Zusammenhang zwischen dem Drehimpulsvektor L der Winkelgeschwindigkeit ω ~ wird durch den Trägheitstensor“ ” j11 −j12 −j13 J = −j21 j22 −j23 ∈ 3×3 −j31 −j32 j33 R 248 7 Eigenwerte und Hauptachsentransformation vermittelt: ~ =J ◦ω L ~. Dabei sind die Diagonalelemente jνν die Trägheitsmomente“ bzgl. der Rotation um ” die xν -Achse und jµν für µ 6= ν Deviationsmomente“. Die Deviationsmomente sind ” ein Maß dafür, wie sehr bei der Rotation um die Koordinatenachsen Drehmomente auf diese Achsen auftreten, die deren Lage zu ändern versuchen. Bei realen Bewegungen von Maschinen oder Fahrzeugen müssen diese Momente von den Lagern der Achse kompensiert werden und führen zu einem unrunden“ Lauf und erhöhtem Ver” schleiß. Deshalb ist man bemüht, die Drehachse und damit ω ~ so einzurichten, daß Drehimpuls und Winkelgeschwindigkeit parallel sind. Es sind also die Eigenvektoren des Trägheitstensors J zu bestimmen. Den definierenden Gleichungen für dessen Komponenten entnimmt man (vgl. [1, § 51]), daß J symmetrisch ist. Er besitzt somit eine Orthoo n der Trägheitstensor ~ ~ ~ normalbasis b1 , b2 , b3 aus Eigenvektoren, den Hauptträgheitsachsen“ des Körpers ” im Schwerpunkt. Führt man die durch B = ~b1 , ~b2 , ~b3 gegebenen Koordinaten ein, so lautet der Trägheitstensor in diesen Koordinaten: ĵ11 0 0 Jˆ := B t ◦ J ◦ B = 0 ĵ22 0 . 0 0 ĵ33 Bezüglich der Hauptträgheitsachsen ~b1 , ~b2 , ~b3 treten keine Deviationsmomente auf. Unter Auswuchten“ eines Körpers versteht man dessen Veränderung der” art, daß die (fest vorgegebene) Drehachse zu einer Hauptträgheitsachse im Schwerpunkt wird. 7.4.16 Beispiele Wir setzen hier die Behandlung der Beispiele 7.3.19 fort. 1 −3i (a) Für A = hatten wir dort λ1 = 4 und λ2 = −2 als Eigenwerte 3i 1 bestimmt. Zugehörige Eigenvektoren findet man als nichttriviale Lösungen der Gleichungssysteme ~0 = (A − λ1 E) ◦ ~x1 = −3 −3i ◦ ~x1 3i −3 und ~0 = (A − λ2 E) ◦ ~x2 = 3 −3i 3i 3 ◦ ~x2 . 249 7.4 Die Hauptachsentransformation Man berechnet sofort ~x1 = (−i, 1)t und ~x2 = (i, 1)t als Lösungsvektoren. Durch Normieren erhält man die Transformationsmatrix √ √ ! √ 2 −i i −i 22 i 22 √ √ B= = . 2 2 1 1 2 2 2 Hiermit gilt √  = B̄ ◦ A ◦ B = = √ 2 2√ i t 2 √2 2 2 −i 2 2 4 0 0 −2 √ ! 1 −3i ◦ ◦ 3i 1 2 √2 2 2 −i √ 2 √2 2 2 i ! . (b) Die Eigenwerte von 7 6 − 23 1 6 − 23 A = − 23 2 3 1 6 − 23 7 6 lauten λ1 = 0, λ2 = 1, λ3 = 2. Als zugehörige Eigenvektoren bestimmt man mit dem Gaußschen Algorithmus beispielsweise ~x1 = (1, 2, 1)t , ~x2 = (−1, 0, 1)t und ~x3 = (1, −1, 1)t . Durch Normieren gelangt man zu der Transformationsmatrix 1 √ √ √ √1 − √12 1 − 3 6 3 √2 1 2 0 − √13 B = √6 −√ 2 , = √ 2 √0 6 1 3 2 √1 √1 √1 6 2 3 es ist det(B) = 1 63/2 1 det 0 0 √ −√ 3 2√3 2 3 √ 2 √ √ 1 −3 2 = 3/2 · 6 6 = 1. 6 0 Ohne daß eine Spalte von B durch ihr Negatives ersetzt werden müßte, haben wir bereits B ∈ SO(3), so daß also B eine Drehung des 3 ist. In den durch B gegebenen Koordinaten lautet nun A: R  = Bt ◦ A ◦ B = √1 6 − √1 2 √1 3 0 = 0 0 0 1 0 √2 6 0 − √13 0 0. 2 √1 6 √1 2 √1 3 7 62 ◦ −3 1 6 − 23 2 3 − 23 √1 6 2 √2 −3 ◦ 6 1 6 7 6 √1 6 − √12 0 √1 2 √1 3 − √13 √1 3 250 7 Eigenwerte und Hauptachsentransformation 7.4.17 Beispiel In der Analysis benötigt man beispielsweise bei der Behandlung gewöhnlicher Differentialgleichungssysteme die Exponentialfunktion“ quadratischer n-reihiger Matri” zen A: ∞ X 1 k A . (∗) exp(A) := k! k=0 PN 1 k (N ) := Die Partialsummen SN := sµν k=0 k! A sind jeweils n × n- µ,ν=1,...,n (N ) Matrizen, von deren Komponenten sµν man in der (N ) Man findet Zahlen sµν := limN →∞ sµν ∈ und Analysis Konvergenz nachweist. setzt exp(A) := (sµν )µ,ν=1,...,n , die Definition (∗) ist also im Sinne komponentenweiser Konvergenz zu verstehen. Wir wollen uns hier aber nicht mit Konvergenz, sondern mit der Frage beschäftigen, ob man die Komponenten von exp(A) auf einfache Weise aus den Komponenten von A bestimmen kann. Im Falle normaler und damit insbesondere auch Hermitescher Matrizen ist das tatsächlich möglich. C Sei A eine normale n × n-Matrix und B ∈ U (n) derart, daß wir Diagonalgestalt λ1 O .. ,  := B̄ t ◦ A ◦ B = λ 1 , . . . , λn ∈ , . C O λn erreichen. Es folgt: A = B ◦  ◦ B̄ t , k Ak = B ◦  ◦ B̄ t = B ◦  ◦ B̄ t ◦ B ◦  ◦ B̄ t ◦ . . . ◦ B ◦  ◦ B̄ t k λ1 O .. ◦ B̄ t , = B ◦ Âk ◦ B̄ t = B ◦ . O λkn k λ1 O ∞ X 1 . ◦ B̄ t . exp(A) = B◦ . k! k=0 O λkn k λ1 O ∞ X 1 .. ◦ B̄ t =B◦ . k! k=0 O λkn P∞ 1 k O k=0 k! λ1 t .. =B◦ ◦ B̄ . P∞ 1 k O k=0 k! λn 251 7.4 Die Hauptachsentransformation O exp(λ1 ) .. =B◦ O ◦ B̄ t . . exp(λn ) Man erhält die Exponentialfunktion normaler Matrizen, indem man die gewöhnliche komplexe Exponentialfunktion der Eigenwerte berechnet und diese Diagonalmatrix mittels B und B̄ t zurück“-transformiert. Die Eigenwerte von exp(A) sind ebenfalls ” exp(λ1 ), . . . , exp(λn ). Die Matrizen A und exp(A) haben mit den Spalten von B dieselben Eigenvektoren. 1 −3i Wir berechnen exp(A) für die Hermitesche 2 × 2-Matrix A = aus 3i 1 √ −i i dem vorhergehenden Beispiel. Diese hatten wir mittels B = 22 ∈ U (2) 1 1 4 0 diagonalisiert:  = B̄ t ◦ A ◦ B = . Daraus erhalten wir: 0 −2 exp(A) = B ◦ exp(Â) ◦ B̄ t 4 1 −i i e 0 i 1 = ◦ ◦ 0 e−2 −i 1 2 1 1 4 −2 4 −2 1 e + e −i e − e = . e4 + e−2 2 i e4 − e−2 Sesquilinearformen C Die Abbildung, die jedem Paar von Vektoren ~z, w ~ ∈ n die komplexe Zahl (~z, A ◦ w) ~ zuordnet, hat für Hermitesche Matrizen A ähnliche Eigenschaften wie das komplexe Skalarprodukt. Sie ist sesquilinear und Hermitesch: ~ A ◦ ~z ), (~z, A ◦ w) ~ = (Āt ◦ ~z, w) ~ = (A ◦ ~z, w) ~ = (w, und wegen (~z, A ◦ ~z ) = (~z, A ◦ ~z ) ist die entsprechende quadratische Form stets reellwertig. Die Positivität dieser Terme kann aber im allgemeinen nicht gezeigt werden, sondern ist nur von einer Unterklassse der Hermiteschen Matrizen erfüllt: 7.4.18 Definition (a) Eine Hermitesche Matrix A ∈ für alle ~z ∈ n \ {~0} gilt. C (b) Eine symmetrische Matrix A ∈ für alle ~x ∈ n \ {~0} gilt. R Cn×n heißt positiv definit, falls (~z, A ◦ ~z ) > 0 Rn×n heißt positiv definit, falls ~x · (A ◦ ~x) > 0 Mit Hilfe der Hauptachsentransformation kann man die positive Definitheit einer Matrix leicht erkennen. 252 7 Eigenwerte und Hauptachsentransformation 7.4.19 Satz Eine komplexe Hermitesche (bzw. reelle symmetrische) n×n-Matrix A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind. Beweis Hier werden nur komplexe Hermitesche Matrizen betrachtet; der reelle Fall ist genauso zu behandeln. Es gibt eine unitäre Matrix B ∈ U (n) derart, daß Â = B̄ t ◦ A ◦ B eine Diagonalmatrix ist: λ1 O .. .  = . O λn Die (nicht notwendigerweise verschiedenen) reellen Zahlen λν (ν = 1, . . . , n) sind die Eigenwerte von  und daher auch von A. Für alle ~z ∈ n gilt mit der Setzung w ~ := B̄ t ◦ ~z: C ¯~ t ◦  ◦ w (~z, A ◦ ~z ) = ~z¯ t ◦ B ◦  ◦ B̄ t ◦ ~z = w ~= n X λν |wν |2 . ν=1 Da ~z = ~0 ⇔ w ~ = B ◦ ~z = ~0, ist die Positivität der von A erzeugten quadratischen Form (~z, A ◦ ~z ) > 0 für alle ~z ∈ n \ {~0} C äquivalent zur Positivität sämtlicher Eigenwerte λν > 0, 2 ν = 1, . . . , n. 7.4.20 Folgerung Die reelle symmetrische n × n-Matrix A sei positiv definit. Dann besitzt A genau eine symmetrische positiv definite Quadratwurzel C ∈ n×n , für die also C 2 = A gilt. Man schreibt auch C =: A1/2 . R Beweis R Wir diagonalisieren A mittels einer Drehung B ∈ SO(n, ): λ 1 .. . O λ 1 ..  = B t ◦ A ◦ B = . λs .. . O . λs 253 7.4 Die Hauptachsentransformation Dabei sind λ1 , . . . , λs sämtliche paarweise verschiedenen Eigenwerte von A und von Â; jeder Eigenwert λν tritt in  entsprechend seiner Vielfachheit rν -mal auf; r1 + . . . + rs = n. Wie wir soeben gezeigt haben, sind wegen der positiven Definitheit von A sämtliche Eigenwerte positiv: λν > 0. Wir setzen √ λ1 .. . O √ λ1 . und C := B ◦ Ĉ ◦ B t ; . Ĉ := . √ λ s .. . O √ λs es ist C 2 = B ◦ Ĉ ◦ B t ◦ B ◦ Ĉ ◦ B t = B ◦ Ĉ 2 ◦ B t = B ◦  ◦ B t = A. Die einander entsprechenden Eigenräume von C und von A werden jeweils von denselben Spalten von B erzeugt und stimmen deshalb auf Grund unserer Konstruktion überein: (∗) Vλν (A) = V√λν (C). Es bleibt die Eindeutigkeit der Quadratwurzel in der angegebenen Matrizenklasse nachzuweisen. Sei also C̃ irgendeine positiv definite symmetrische n × n-Matrix mit C̃ 2 = A. Wir wollen zeigen, daß die Gleichheit (∗) auch für die Eigenräume von C̃ erfüllt ist. Sei dazu ~x ∈ n Eigenvektor von C̃ zum Eigenwert µ: C̃ ◦ ~x = µ ~x. Da C̃ als positiv definit vorausgesetzt ist, haben wir µ > 0. Aus A ◦ ~x = C̃ ◦ C̃ ◦ ~x = 2 mit einem Eigenwert λ von A übereinstimmen C̃ ◦ (µ ~x) = µ2 ~x folgt, daß µ√ ν√ √ muß, wegen µ > 0 ist µ = λν . Folglich sind unter λ1 , . . . , λs sämtliche paarweise verschiedenen Eigenwerte von C̃, und das gerade benutzte Argument zeigt auch V√λν (C̃) ⊂ Vλν (A). Da wegen Satz 7.4.11 bzw. dessen reeller Entsprechung aber die orthogonale Zerlegung R Rn = ⊕sν=1V√λ ν (C̃) = ⊕sν=1 Vλν (A) gilt, erhalten wir die Gleichheit der Eigenräume V√λν (C̃) = Vλν (A). Insbesondere √ √ sind genau λ1 , . . . , λs die Eigenwerte von C̃, und in Verbindung mit (∗) folgt: V√λν (C̃) = V√λν (C). Für alle ~x = s X ν=1 ~xν ∈ Rn = ⊕sν=1V√λ ν (C̃) = ⊕sν=1 V√λν (C) 254 7 Eigenwerte und Hauptachsentransformation folgt dann C̃ ◦ ~x = s X C̃ ◦ ~xν = ν=1 s p X s X ν=1 ν=1 λν ~xν = C ◦ ~xν = C ◦ ~x, die positiv definiten Quadratwurzeln C und C̃ von A stimmen überein. 2 Diagonalisierbarkeit unitärer Matrizen, Normalform für reell orthogonale Matrizen Hier erhalten wir das Diagonalisierungsresultat ebenfalls durch direkten Verweis auf den entsprechenden Satz 7.4.8 für normale Matrizen und auf Satz 7.3.20. 7.4.21 Satz Zu jeder unitären Matrix A ∈ U (n) existiert eine unitäre Transformationsmatrix B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B eine Diagonalmatrix ist. Die Diagonalelemente von  haben sämtlich den Betrag 1. Wir wollen im Folgenden noch reelle orthogonale Matrizen untersuchen. Der Fall zweier Raumdimensionen läßt sich elementar diskutieren und wird die Richtung für unser angestrebtes allgemeines reelles Resultat anzeigen. 7.4.22 Beispiele (a) Seien sina , cosa die aus der Analysis bekannten im Bogenmaß erklärten trigonometrischen Funktionen. Für eine Drehung des 2 cosa (ϕ) − sina (ϕ) A= sina (ϕ) cosa (ϕ) R gilt P (λ) = (cosa (ϕ) − λ)2 + sin2a (ϕ) = 1 − 2λ cosa (ϕ) + λ2 . Die Eigenwerte von A sind λ1 = eiϕ , λ2 = e−iϕ ; diese sind für ϕ ∈ ]0, 2π[\{π} nicht reell und verschieden. Im Reellen können wir A also nicht diagonalisieren. Es existiert jedoch unitäre 2 × 2-Matrix B derart, daß Â = iϕ eine komplexe e 0 t B̄ ◦ A ◦ B = ist. 0 e−iϕ (b) Eine Drehspiegelung des R2 wird durch eine Matrix A= a b b −a , a2 + b2 = 1, gegeben. Es ist P (λ) = (a − λ)(−a − λ) − b2 = λ2 − (a2 + b2 ) = λ2 − 1 = (λ − 1)(λ + 1). 7.4 Die Hauptachsentransformation 255 Weil die Eigenwerte von A mit λ1 = 1 und λ2 = −1 sämtlich reell sind, kann man aus Satz 7.4.10 die Existenz einer orthogonalen Matrix B ∈ SO(2) 1 0 folgern, so daß Â := B t ◦ A ◦ B = gilt. Bezüglich eines geeigneten 0 −1 Koordinatensystems ist die Drehspiegelung A nur eine Spiegelung an einer Koordinatenachse. Um Satz 7.4.21 auch für den Fall reeller orthogonaler Matrizen A ∈ O(n) nutzen zu können, gehen wir von der im Beweis von Satz 7.3.21 gemachten Beobachtung aus, daß die nichtreellen Eigenwerte in Paaren zueinander konjugierter Eigenwerte derselben (geometrischen und algebraischen) Vielfachheit auftreten: λ1 , λ̄1 , . . . , λk , λ̄k ∈ \ mit einer geeigneten Zahl k ≤ n/2; die Eigenwerte werden entsprechend ihrer Vielfachheit aufgeführt. Dabei können wir erreichen, daß unter λ1 , λ2 , . . . , λk nicht zwei Eigenwerte zueinander konjugiert sind: λν 6= λ̄µ , µ, ν = 1, . . . , k. An das Ende dieser Eigenwertliste schreiben wir die reellen Eigenwerte λ2k+1 , . . . , λn ∈ {±1} ⊂ . Bei den Eigenvektoren können wir eine ganz ähnliche Beobachtung machen: Sind ~bν ∈ n (1 ≤ ν ≤ k) paarweise orthogonale normierte Eigenvektoren zu den Eigenwerten λν (1 ≤ ν ≤ k), so folgt aus der Reellwertigkeit der Komponenten von A: ¯ ¯ (A − λν E) ◦ ~bν = ~0 ⇒ (A − λν E) ◦ ~bν = ~0 ⇒ (A − λ̄ν E) ◦ ~bν = ~0; C R R C ¯ die konjugierten Vektoren ~bν (1 ≤ ν ≤ k) sind also normierte Eigenvektoren zu den Eigenwerten λ̄ν . Wir wählen nun die Transformationsmatrix zur Diagonalisierung von A gemäß ¯ ¯ B = ~b1 , ~b1 , . . . , ~bk , ~bk , ~b2k+1 , . . . , ~bn ∈ U (n), dabei sind ~b2k+1 , . . . , ~bn paarweise orthogonale normierte reelle Eigenvektoren zu den reellen Eigenwerten λ2k+1 , . . . , λn . Wir haben noch zu beachten, daß aus der Orthogonalität von ~bν , ~bµ , 1 ≤ ν 6= µ ≤ k auch die Orthogonalität der konjugierten ¯ ¯ Vektoren folgt: ~bν , ~bµ = ~bν , ~bµ = 0. Wegen der Verschiedenheit λν 6= λ̄µ gilt ¯ für µ, ν = 1, . . . , k ohnehin: ~bν , ~bµ = 0. Bezüglich dieser Transformation B lautet die Diagonalmatrix λ1 0 0 ··· ··· 0 0 λ̄1 0 · · · ··· 0 . .. .. . . . . · · · 0 λk 0 0 ···  = B̄ t ◦ A ◦ B = . · · · 0 0 λ̄ 0 · · · k ··· 0 0 0 λ2k+1 · · · . .. .. .. . . 0 ··· · · · λn 256 7 Eigenwerte und Hauptachsentransformation Wir gelangen nun zu einer reellen orthogonalen Transformationsmatrix C, indem wir ¯ jeweils bei Paaren zueinander konjugierter Eigenvektoren ~bν , ~bν , ν = 1, . . . , k zu deren normierten Real- und Imaginärteilen übergehen: √ √ 2 ~ 2 ~ ¯ ¯ ~c2ν−1 := bν + ~bν , ~c2ν := bν − ~bν ∈ n , 2 2i ¯ wegen der Orthogonalität von ~bν und ~bν handelt es sich dabei nicht um die Nullvektoren. Ferner ist in n auf Grund dieser Orthogonalität: ~bν + ~¯bν , ~bν − ~¯bν = ~bν , ~bν − ~bν , ~¯bν + ~¯bν , ~bν − ~¯bν , ~¯bν = k ~bν k2 − ~bν , ~bν = 0, R C also sind ~c2ν−1 und ~c2ν in vektoren unverändert läßt, Rn zueinander orthogonal. Indem man die reellen Eigen~c2k+1 := ~b2k+1 , . . . , ~cn := ~bn , und nur ggfs. einen Eigenvektor durch sein Negatives ersetzt, erhält man mit C := (~c1 , . . . , ~c2k , ~c2k+1 , . . . , ~cn ) ∈ SO(n, R) eine reelle Transformationsmatrix. Um die Matrix der Abbildung A in den durch C gegebenen Koordinaten zu ermitteln, berechnen wir für ν = 1, . . . , k: √ √2 2 ~ ¯ ¯ ~ A ◦ ~c2ν−1 = A ◦ bν + bν = λν~bν + λ̄ν~bν 2 √ 2 2 ¯ ¯ = λν + λ̄ν ~bν + ~bν + λν − λ̄ν ~bν − ~bν 4 = Re(λν ) · ~c2ν−1 − Im(λν ) · ~c2ν , √ √2 2 ~ ¯ ¯ ~ A ◦ ~c2ν = A ◦ λν~bν − λ̄ν~bν bν − bν = 2i √ 2i 2 ¯ ¯ = λν − λ̄ν ~bν + ~bν + λν + λ̄ν ~bν − ~bν 4i = Im(λν ) · ~c2ν−1 + Re(λν ) · ~c2ν . Für die Matrix à := C t ◦ A ◦ C, die die Abbildung A : Rn → Rn in den durch die orthogonale Matrix C gegebenen 257 7.4 Die Hauptachsentransformation Koordinaten beschreibt, haben wir also gefunden: Re(λ1 ) Im(λ1 ) −Im(λ1 ) Re(λ1 ) O .. . Re(λk ) Im(λk ) à = −Im(λ k ) Re(λk ) λ2k+1 O .. ∈ . Rn×n. λn R Diese Normalform zeigt, daß für Matrizen A ∈ SO(3, ) der Eigenvektor zum Eigenwert +1 als Drehachse interpretiert werden kann: Indem man ein geeignetes Koordinatensystem einführt, erhält die Abbildung A in diesen Koordinaten die folgende Darstellung mit geeigneten reellen Zahlen a, b, a2 + b2 = 1: a −b 0 cos Θ − sin Θ 0 à = b a 0 = sin Θ cos Θ 0 , 0 0 1 0 0 1 die Zahl Θ ∈ [0, 360[ ist geeignet zu wählen. Die Abbildung à läßt die dritte Komponente fest, die ersten beiden Komponenten werden durch die 2×2-Untermatrix cos Θ − sin Θ abgebildet. Nach unseren Überlegungen am Ende von Kapitel 6.1 sin Θ cos Θ (insbesondere Satz 6.1.12 und Definition 6.1.15) bedeutet das eine Drehung der x1 x2 -Ebene um den Winkel Θ, die x3 -Achse (in den ursprünglichen Koordinaten dem Eigenvektor zum Eigenwert 1 entsprechend) ist die Drehachse. 7.4.23 Beispiel Wir bestimmen sowohl die komplexe als auch die reelle Normalform für die schon in Beispiel 7.3.22 betrachtete Matrix √ √ 2 2 1 1 1 − − + + 2 4√ 2 √4 2 2 1 ∈ SO(3, ). 1 A = − 12 + 42 − + 4 2 2 2 2 1 2 1 2 R √ √ √ 2 2 (1 + i), 2 2 (1 − i) und λ3 = 1 bestimmt, t √ √ 2 wir hatten auch schon die Drehachse als normierten Eigenvektor ~b3 = , − 2, 0 Die Eigenwerte hatten wir als λ1 = λ2 = 2 2 zum Eigenwert 1 berechnet. Mittels des Gaußschen Algorithmus’ findet man weiter, √ t √ t daß ~b1 = i , i , 2 und ~b2 = − i , − i , 2 normierte Eigenvektoren zu λ1 und 2 2 2 2 2 2 258 λ2 sind. Mit 7 Eigenwerte und Hauptachsentransformation B := i 2 i √2 2 2 erhalten wir die komplexe Diagonalform √2  = B̄ t ◦ A ◦ B = 2 √ 2 2√ − 2i − 2i √ − 2 2 (1 + i) 0 0 2 2 0 √ 0 2 2 (1 0 0 − i) 0. 1 Um die reelle Normalform zu erhalten, ersetzen wir, wie oben erläutert, die ersten beiden Spalten von B durch deren normierte Real- und Imaginärteile: √ √ 0 22 − 22 √ √ 2 2 ∈ SO(3). C := 0 2 2 1 0 0 Um mit C eine Drehung, d. h. eine orthogonale Abbildung mit Determinante 1, zu erhalten, haben wir gleichzeitig die letzte Spalte durch ihr Negatives ersetzt. Damit berechnen wir √ √2 2 0 2√ 2 √ 2 à := C t ◦ A ◦ C = − 2 0. 2 2 0 0 1 Bei der Abbildung A handelt es sich also um eine Drehung um 315 Grad um die √ √ t Drehachse − 22 , 22 , 0 . 259 Literaturverzeichnis [1] Budó, Ágoston, Theoretische Mechanik, 10. Auflage, Deutscher Verlag der Wissenschaften: Berlin 1980. [2] Ebbinghaus, Heinz-Dieter, H. Hermes, F. Hirzebruch, M. Koecher, K. Mainzer, A. Prestel, R. Remmert, Zahlen, Springer-Verlag: Berlin etc. 1983. [3] Fischer, Gerd, Lineare Algebra, 6. Auflage, Vieweg: Braunschweig, Wiesbaden 1980. [4] Forster, Otto, Analysis 1, 3. Auflage, Vieweg: Braunschweig, Wiesbaden 1980. [5] Grauert, Hans, Die Axiome der Elementargeometrie und die griechischen Theoreme, Math. Semesterber. 44 (1997), 19-36. [6] Grauert, Hans, I. Lieb, Differential- und Integralrechnung I, 4. Auflage, SpringerVerlag: Berlin etc. 1976. [7] Klingenberg, Wilhelm, Lineare Algebra und Geometrie, Springer-Verlag: Berlin etc. 1984. [8] Koecher, Max, Lineare Algebra und analytische Geometrie, Springer-Verlag: Berlin etc. 1983. [9] Kowalsky, Hans-Joachim, Lineare Algebra, 9. Auflage, de Gruyter: Berlin, New York 1979. [10] Pickert, Günter, Analytische Geometrie, 4. Auflage, Akademische Verlagsgesellschaft Geest & Portig: Leipzig 1961. [11] Rudin, Walter, Analysis, Oldenbourg Verlag: München, Wien 1998. [12] Sperner, Emanuel, Einführung in die Analytische Geometrie und Algebra, 7. Auflage, Vandenhoeck & Ruprecht: Göttingen 1969. [13] Tietz, Horst, Lineare Geometrie, Verlag Aschendorff: Münster 1967. [14] van der Waerden, B. L., Erwachende Wissenschaft, 2. Auflage, Birkhäuser Verlag: Basel, Stuttgart 1966. 261 Symbolverzeichnis := def Die linke Seite der Gleichung wird durch die rechte Seite definiert. = Gleichheit auf Grund einer Definition ≡ identisch gleich; f (x) ≡ 0 bedeutet, daß f (x) = 0 für alle x gilt ⇒ Folgerung: Wenn die linke Aussage gilt, dann auch die rechte. ⇔ Äquivalenz zweier Aussagen ∅ leere Menge x∈M x ist Element der Menge M x 6∈ M x ist nicht Element der Menge M M ⊂N Teilmenge: x ∈ M ⇒ x ∈ N . M ⊃N Obermenge: N ⊂ M M =N Gleichheit von Mengen: M ⊂ N und N ⊂ M M ∩N = {x : x ∈ M und x ∈ N }, Durchschnitt M ∪N = {x : x ∈ M oder x ∈ N }, Vereinigung M \N = {x ∈ M : x 6∈ N }, Differenzmenge M ×N = {(x, y) : x ∈ M, y ∈ N }, kartesisches Produkt N N0 Z R R+ R+0 R Menge der natürlichen Zahlen {1, 2, 3, . . .} N ∪ {0} = {0, 1, 2, 3, . . .} Menge der ganzen Zahlen Menge der reellen Zahlen Menge der positiven reellen Zahlen {a ∈ Menge der nichtnegativen reellen Zahlen {a ∈ ∗ = R: R \ {0} a ≥ 0} max(a, b) die größere der reellen Zahlen a, b min(a, b) die kleinere der reellen Zahlen a, b R: a > 0} 262 Symbolverzeichnis sup Supremum inf P Infimum Q Produktzeichen R n Summenzeichen n-dimensionaler reeller Zahlenraum Rn , n-tupel reeller Zahlen ~a = (a1 , . . . , an ) ∈ ~0 = (0, . . . , 0) ∈ ~ej Einheitsvektoren in V, V1 , V2 , . . . allgemeine reelle Vektorräume x, y Elemente von V Span(x1 , . . . , xn ) · (x1 , . . . , xn ) <x1 , . . . , xn > [x1 , . . . , xn ] R von x1 , . . . , xn aufgespannter Untervektorraum dim Dimension eines Vektorraums E anschauliche Ebene R anschaulicher Raum O Basispunkt, Aufpunkt in E bzw. R x = (P, Q) Pfeile, Pfeilvektoren in E bzw. R (P, P ) Nullvektor in P (P, Q) k (P 0 , Q0 ) Die Pfeile (P, Q) und (P 0 , Q0 ) sind voll parallel. X Menge aller Pfeile in E bzw. R V = {x = (O, P ) : P ∈ E}, Vektorraum der Pfeile in O V 3 Rn Rn = {x = (O, P ) : P ∈ R}, Vektorraum der Pfeile in O O = (O, O) Nullvektor in V bzw. V 3 F : M1 → M2 Abbildung idM , id : M → M identische Abbildung F : M1 M2 surjektive Abbildung F : M1 ,→ M2 injektive Abbildung F : M1 ↔ M2 bijektive Abbildung F −1 F ◦G Umkehrabbildung einer bijektiven Abbildung Hintereinanderschaltung, Komposition, Zusammensetzung von Abbildungen 263 Symbolverzeichnis F −1 (N ) = {x ∈ M : F (x) ∈ N }, Urbildmenge im(F ) = F (M ) Bildmenge rg(F ) = dim im(F ), Rang einer linearen Abbildung ker(F ) Kern einer linearen Abbildung crg(F ) = dim ker(F ), Corang (Defekt) einer linearen Abbildung V1 ≈ V2 V1 ∼ = V 2 , V1 = V 2 V1 und V2 sind isomorph. ∼ V1 und V2 sind kanonisch isomorph. F : V 1 → V2 F ist ein Isomorphismus. A, B, C Matrizen m,n A = (aij ) i=1,...,m Rm×n E=E m × n-Matrix j=1,...,n Menge aller m × n-Matrizen n,n ;I δij Einheitsmatrix Kroneckersymbol, Komponenten der Einheitsmatrix O=O m,n t Nullmatrix A zu A transponierte Matrix Rang (A) Rang einer Matrix A ◦ ~c Produkt einer m × n-Matrix und einem Spaltenvektor aus A+B Matrixaddition c·A Skalarmultiplikation für Matrizen A◦B Matrixprodukt GL(n, R) R) O(n, R) SO(n, R) SL(n, Rn R allgemeine lineare Gruppe vom Rang n über , Gruppe der invertierbaren n × n-Matrizen spezielle lineare Gruppe orthogonale Gruppe spezielle orthogonale Gruppe M, N in Abschnitt 3.7: allgemeine Ebenen codim Codimension von allgemeinen Ebenen V 1 ⊕ V2 direkte Summe der Vektorräume V1 und V2 V 1 + V2 von V1 , V2 aufgespannter Untervektorraum F1 ⊕ F2 direkte Summe der linearen Abbildungen F1 und F2 V ∗ Dualraum von V 264 Symbolverzeichnis V ∗∗ ∗ F : Bidualraum V2∗ → V1∗ duale Abbildung zu F : V1 → V2 , δ(i1 , . . . , in ) allgemeines Kroneckersymbol det(A), det(F ) Determinante Ak` Streichungsmatrix dk` (k, `)-ter Cofaktor ad (A) Adjunkte zu A DΘ , D̂Θ Drehungen der anschaulichen Ebene bzw. der Pfeile Aα (Θ) Drehungen in den Koordinaten bzgl. der Karte α ~x · ~y kanonisches Skalarprodukt in (x, y) Skalarprodukt in der anschaulichen Ebene k.k Länge bzw. Norm eines Vektors ∠(y, x) Winkel zwischen y, x ∈ V x⊥y x, y sind orthogonal V ⊥ Rn orthogonales Komplement des Untervektorraums V C Cn Menge der komplexen Zahlen n-dimensionaler komplexer Zahlenraum dimC V Dimension eines Vektorraums über dimR V C Dimension eines Vektorraums über R Re(z) Realteil der komplexen Zahl z Im(z) Imaginärteil der komplexen Zahl z z̄ konjugiert komplexe Zahl (~z, w) ~ kanonisches Skalarprodukt in Āt konjugiert transponierte Matrix C Cn GL(n, ) allgemeine lineare Gruppe vom Rang n über U (n) unitäre Gruppe Sp(A) Spur der Matrix A PA (λ), PF (λ) charakteristisches Polynom λν Eigenwerte Vλ Eigenraum exp(A) Exponentialfunktion für Matrizen A1/2 Quadratwurzel positiv definiter Matrizen C