Vorwort

Werbung
V
Vorwort
Dieses Buch ist aus einer Vorlesung hervorgegangen, die der ältere der beiden Autoren im Wintersemester 1987/88 an der Universität Göttingen gehalten hat, die vom
jüngeren Autor ausgearbeitet und zunächst vom Mathematischen Institut der Universität Göttingen herausgegeben worden ist. Für die Veröffentlichung als Lehrbuch ist
dieses Manuskript noch einmal grundlegend überarbeitet und an zahlreichen Stellen
ergänzt worden. Wir hoffen, daß die Darstellung so ausführlich, interessant und klar
geraten ist, daß sich das Buch nicht nur als Begleitlektüre zu einer entsprechenden
Vorlesung, sondern auch zum Selbststudium, zum Nachlesen oder zur Vorbereitung
auf Prüfungen eignet.
Auf die Stoffauswahl gehen wir in der Einleitung ausführlich ein. Hier sei nur bemerkt,
daß einerseits der Geometrie und vor allem der Nahtstelle zwischen geometrischer Anschauung und mathematisch-logischer Formulierung ein großes Gewicht eingeräumt
wird. Andererseits wird ein großer Teil der grundlegenden Theorie, wie er etwa auch
von Studenten der Wirtschaftsmathematik oder Physik benötigt wird, in diesem Buch
behandelt, auch wenn es nur den Inhalt des ersten Teils der zweisemestrigen Vorlesung Analytische Geometrie und lineare Algebra“ wiedergibt. Breiten Raum nehmen
”
die Behandlung linearer Gleichungssysteme (Gaußscher Algorithmus), die Determinantentheorie und die Eigenwerttheorie linearer Abbildungen in euklidischen“
”
Vektorräumen (Hauptachsentransformation) ein.
Wir sind bemüht, schnell zu den Kernpunkten der jeweiligen Themenbereiche vorzustoßen und verzichten dabei bewußt auf größtmögliche Allgemeinheit. Zahlreiche
Beispiele, die teilweise den Charakter von gelösten Übungsaufgaben haben, sollen das
Verständnis neuer Begriffe oder Methoden unmittelbar fördern.
Wir haben dem Verlag und insbesondere den Herren Andreas Türk und Martin Reck
zu danken für die jederzeit angenehme Zusammenarbeit. Herrn Peter Lerner danken
wir für seine tatkräftige Mitwirkung bei der Erstellung der LATEX-Dateien und Herrn
Christian Meister für seine Hilfe bei der Durchsicht des Manuskripts.
Göttingen und Bayreuth, im März 1999
Hans Grauert
Hans-Christoph Grunau
VI
Zu den Autoren
Hans Grauert wurde am 8. Februar 1930 in Haren (Ems) geboren. Er studierte Mathematik und Physik in Mainz, Münster und an der ETH Zürich. Er wurde 1958 an die
Universität Göttingen als Nachfolger von C. L. Siegel berufen. Er verbrachte insgesamt drei Jahre in Amerika (u. a. am Institute for Advanced Study in Princeton), war
aber auch in anderen Ländern wie vor allem in Frankreich (Institut des Hautes Études
Scientifiques) und u. a. in Japan, China, der UdSSR und Indien. Seine wissenschaftlichen Arbeiten befassen sich mit Fragen der komplexen Analysis.
Hans-Christoph Grunau wurde am 23. März 1961 in Wuppertal geboren. Er studierte
Mathematik in Marburg und Göttingen und hat sich 1996 an der Universität Bayreuth
habilitiert. Sein wissenschaftliches Interesse gilt der reellen Analysis und insbesondere
der Theorie der partiellen Differentialgleichungen. Auf diesem Gebiet arbeitet er mit
Wissenschaftlern u. a. aus den Niederlanden, Spanien und Italien zusammen.
VII
Inhaltsverzeichnis
Vorwort
V
Einleitung
IX
1
1.1
1.2
1.3
Der Vektorraumbegriff
Der n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Reelle Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
7
11
2
2.1
2.2
2.3
2.4
Der anschauliche Raum
Gibt es eine geometrische Anschauung? . . . . . .
Addition von Vektoren in der anschaulichen Ebene
Multiplikation mit Skalaren . . . . . . . . . . . .
Geometrie . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
23
28
34
3
3.1
3.2
3.3
Lineare Abbildungen
Abbildungen . . . . . . . . . . . . . .
Lineare Abbildungen . . . . . . . . . .
Lineare Abbildungen n → m . . . .
Gaußscher Algorithmus . . . . . . . .
Rang und Corang . . . . . . . . . . . .
Allgemeine lineare Gleichungssysteme
Matrizenoperationen . . . . . . . . . .
Ebenen . . . . . . . . . . . . . . . . .
Spezielle lineare Abbildungen . . . . .
Projektionen . . . . . . . . . . . . . .
Umkehrbar lineare Abbildungen . . . .
3.4
3.5
3.6
3.7
3.8
4
4.1
4.2
4.3
4.4
4.5
R
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
. 40
. 47
. 53
. 59
. 65
. 73
. 78
. 89
. 105
. 105
. 107
Vektorraumkonstruktionen
Beispiele unendlichdimensionaler Vektorräume
Direkte Summen . . . . . . . . . . . . . . . .
Linearformen und Dualräume . . . . . . . . .
Dualräume endlichdimensionaler Vektorräume
Weitere spezielle lineare Abbildungen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
R
R
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
119
120
122
128
136
141
VIII
Inhaltsverzeichnis
5
5.1
5.2
5.3
5.4
5.5
5.6
Determinantentheorie
Allgemeines Kroneckersymbol . . . . . . . .
Determinanten . . . . . . . . . . . . . . . .
Weitere Eigenschaften der Determinante . . .
Berechnung von Determinanten . . . . . . .
Cramersche Regel . . . . . . . . . . . . . .
Die Determinante einer linearen Abbildung F
. .
. .
. .
. .
. .
:V
. . .
. . .
. . .
. . .
. . .
→V
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
147
147
152
157
164
170
177
6
6.1
6.2
6.3
6.4
Orthogonalität
Die euklidische Ebene .
Die Länge eines Vektors
Orthogonale k-Beine . .
Das Kreuzprodukt . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
179
179
191
198
202
7
7.1
7.2
7.3
7.4
Eigenwerte und Hauptachsentransformation
Der allgemeine Körperbegriff, komplexe Vektorräume
Unitäre und adjungierte Abbildungen . . . . . . . . .
Eigenwerte . . . . . . . . . . . . . . . . . . . . . . .
Die Hauptachsentransformation . . . . . . . . . . . .
Normale Matrizen . . . . . . . . . . . . . . . . . . .
Hermitesche und reell symmetrische Matrizen . . . . .
Unitäre und reell orthogonale Matrizen . . . . . . . .
.
.
.
.
.
.
.
209
210
218
228
238
243
246
254
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Literaturverzeichnis
259
Symbolverzeichnis
261
IX
Einleitung
In der Anfängervorlesung Analytische Geometrie und lineare Algebra“ ist es heute
”
vielfach üblich, einfach mit der abstrakten Theorie der Vektorräume und evtl. sogar
der Moduln über Ringen zu beginnen. Man hat das Bestreben, sofort von den mathematischen Grundbegriffen auszugehen und aus ihnen alles zusammenzubauen. Das
soll zu einer logischen Übersichtlichkeit führen. Aber der Anfänger wird staunen, was
es so alles gibt. Er kann sich bei manchem nur wenig denken.
In der Technik, aber auch in der Physik wird im allgemeinen erst nur der 3dimensionale anschauliche Raum auftreten. Er hat noch keine Koordinaten. Man hat
noch keine Tripel von reellen Zahlen, dafür aber gibt es eine Vorstellung von Geraden,
Winkeln, Translationen, Drehungen. Vektoren gibt es. Sie sind Pfeile einer bestimmten
Länge. Man kann mit ihnen rechnen. Warum geht man dann nicht von diesem Raum
aus? Man kann die Vektorraumeigenschaften ableiten und so den Studenten zu den
in der Mathematik natürlich notwendigen Abstraktionen hinführen. Die Abstraktionen
werden dann als natürlich empfunden. Man kann dann auch die Existenz von rechtwinkligen Koordinaten zeigen und die Isomorphie mit dem Zahlenraum herstellen. Die
Existenz einer solchen Isomorphie bedeutet, daß der anschauliche Raum die gleiche
Gestalt wie der Zahlenraum hat.
Wer seinen Baum beschneiden will, wird nicht erst Koordinaten in seinen Garten
legen.
Das hier vorgestellte Axiomensystem ist auch ein vollständiges Axiomensystem der
euklidischen Geometrie. Anders als bei Hilbert werden jedoch keine Geraden, sondern
Pfeilvektoren verwendet. Das ist praktischer. Die Pfeilvektoren finden ja überall Anwendung. Natürlich wird nicht die alte hyperbolische Geometrie mit eingeschlossen.
Diese dürfte aber auch heute ziemlich ohne Bedeutung sein. Wenn man sie machen
will, ist es ohnehin besser, gleich die Quotienten von Liegruppen zu untersuchen! Die
nicht-euklidischen Geometrien werden hier gleich dadurch ausgeschlossen, daß man
fordert, daß die Relation parallel“ eine Äquivalenzrelation ist und daß das Parallelo”
gramm der Kräfte gilt.
Es sei noch erwähnt, daß die Griechen keinen Beweis des Satzes von Pythagoras
geliefert haben, der den heutigen Anforderungen entspricht. Sie haben nämlich den
Flächeninhalt benutzt, ohne ihn zu definieren. Auch hätten sie zeigen müssen, daß
er invariant gegen Drehungen ist. An sich hat der Pythagoräische Satz mit dem
Flächeninhalt nichts zu tun. Dieses Buch enthält einen exakten Beweis.
X
Einleitung
In dem ersten Kapitel dieses Buches wird zwar zunächst der n-dimensionale reelle
Zahlenraum n als Menge der n-tupel von reellen Zahlen und der Begriff des abstrakten Vektorraums eingeführt, damit man die späteren Begriffe einordnen kann.
Dann geht man jedoch im zweiten Kapitel sofort zur Anschaulichkeit über. Insbesondere wird die anschauliche Ebene betrachtet. Hier wird unser Axiomensystem der
anschaulichen Geometrie soweit entwickelt, daß die anschauliche Ebene als zweidimensionaler reeller Vektorraum erkannt werden kann.
R
Hierauf aufbauend entwickeln wir im 3. Kapitel die Grundlagen der Theorie endlichdimensionaler (zunächst ausschließlich reeller) Vektorräume sowie der linearen
Abbildungen zwischen diesen. Wir werden zeigen, daß durch Einführung geeigneter Isomorphismen “ (Koordinatensysteme) die Betrachtung linearer Abbildungen
”
zwischen endlichdimensionalen Vektorräumen zurückgeführt werden kann auf die Betrachtung linearer Abbildungen n → m . Diese sind dem ebenso einfachen wie
wirkungsvollen Matrizenkalkül (dabei handelt es sich lediglich um die Manipulation
von Zahlenschemata) zugänglich, den wir simultan und gleichberechtigt zur Theorie linearer Abbildungen entwickeln und mit dessen Hilfe wir zahlreiche theoretische
Resultate herleiten werden. Breiten Raum nimmt die Behandlung linearer Gleichungssysteme bzw., was, wie wir in Kapitel 3.7 darlegen werden, dazu gleichwertig ist,
allgemeiner s-dimensionaler Ebenen ein. In diesem Zusammenhang wird der Gaußsche Algorithmus vorgestellt, aus dem wir neben rechnerischem auch stets großen
theoretischen Nutzen ziehen werden.
R
R
In Kapitel 4 sprechen wir speziellere Fragen der Vektorraumtheorie an. Im Mittelpunkt stehen dort duale Vektorräume und duale Abbildungen sowie in diesem
Zusammenhang einige Besonderheiten unendlichdimensionaler Vektorräume. Die
Idee, zusammen mit einem Vektorraum V die Gesamtheit aller linearen Abbildungen
V → zu betrachten, ist grundlegend in vielen Bereichen der modernen Mathematik,
führt zum einen von einer abstrakten Seite hin auf den Begriff der Orthogonalität und
bietet zum anderen in allgemeinen Situationen einen Ersatz für bzw. eine Verallgemeinerung von Orthogonalität. Ausführlichere Erklärungen versuchen wir zu Beginn und
im Verlauf von Kapitel 4.
R
Kapitel 5 ist der klassischen Determinantentheorie und dabei wegen ihrer enormen
Wichtigkeit unter anderem der Cramerschen Regel gewidmet. Auch dieses Kapitel
führt wegen der geometrischen Bedeutung der Determinante hin zu Kapitel 6, in
dem unser in Kapitel 2 begonnenes Axiomensystem der anschaulichen Geometrie um
diejenigen Axiome ergänzt wird, die Orthogonalität, Länge, Winkel, Drehung, u. ä
betreffen.
R
R
Damit erhalten die anschauliche Ebene, 2 und allgemeiner n die volle Struktur
euklidischer Vektorräume“. Das Vorhandensein eines Skalarprodukts erlaubt es uns,
”
in Kapitel 7 etwa othogonale“, selbstadjungierte“ oder normale“ Abbildungen zu
”
”
”
betrachten. Die starken Eigenschaften solcher speziellen Abbildungen erlauben die
Herleitung sehr weitreichender Resultate ( Hauptachsentransformation“), deren volle
”
XI
Einleitung
Eleganz und Allgemeinheit sich aber nur in komplexen Vektorräumen erreichen läßt.
Deshalb beginnt dieses Kapitel mit einer Einführung in komplexe Zahlen und komplexe Vektorräume; in der Hoffnung, daß vieles schon aus der gleichzeitig erlernten
Analysis vertraut ist, fassen wir uns hier recht kurz. Für die angesprochenen Klassen
von Matrizen werden wir orthogonale Koordinatensysteme konstruieren, so daß das
Rechnen mit linearen Abbildungen in diesen Koordinaten so einfach wird wie das
Rechnen mit reellen oder komplexen Zahlen. Als Beispiele werden wir Wurzeln und
Exponentialfunktionen geeigneter linearer Abbildungen bestimmen. Ganz wesentliches Standbein dieses Kapitels ist die Eigenwerttheorie linearer Abbildungen“, die
”
mit all ihren Weiterentwicklungen und Verallgemeinerungen grundlegend für viele
Bereiche der modernen Mathematik und Physik bis hin zur Quantenmechanik ist.
Mit dieser Stoffauswahl hoffen wir:
•
die geometrischen Wurzeln der linearen Algebra mit logischer Strenge freizulegen,
•
die wichtigsten Elemente der Theorie reeller und komplexer Vektorräume und
linearer Abbildungen zu entwickeln und
•
stets den Blick schon ein wenig zu öffnen in Richtung auf Weiterentwicklungen
im Bereich der Geometrie (allgemeine Ebenen etwa als einfachste Prototypen allgemeiner Mannigfaltigkeiten), der Analysis (unendlichdimensionale Vektorräume
werden gestreift, um Appetit zu machen auf die Theorie linearer Abbildungen zwischen vollständigen normierten Vektorräumen, die Funktionalanalysis“) und der
”
mathematischen Physik (etwa Lorentztransformationen oder Eigenwerttheorie).
Technische Hinweise zum Lesen des Buches erübrigen sich weitestgehend. Das
Kästchen 2 kennzeichnet das Ende von Beweisen. Die Numerierung sollte selbsterklärend und vollkommen unzweideutig sein: Sätze, Definitionen, Beispiele, usw.
werden unterschiedslos dreistellig numeriert, die erste Stelle gehört zum Kapitel
und die zweite zum Teilkapitel (Abschnitt). Am Ende des Buches befinden sich ein
ausführliches Symbolverzeichnis und ein Sachverzeichnis, so daß (hoffentlich!) jedes
interessierende Thema im Text mühelos aufgefunden werden kann.
Um eventuellen Mißverständnissen vorzubeugen, sei schon hier erwähnt, daß wir
n-tupel aus dem n bzw. n zwar grundsätzlich als Zeilen ~b = (b1 , . . . , bn )
schreiben, um die Lesbarkeit vor allem des fortlaufenden Textes zu gewährleisten,
daß wir im Rahmen des Matrizenkalküls darunter jedoch (zumeist stillschweigend)
die entsprechenden Spaltenvektoren
 
b1
~b =  ... 
bn
R
verstehen.
C
209
7 Eigenwerte und
Hauptachsentransformation
In diesem Kapitel werden wir eingehend die am Ende von Abschnitt 3.6 aufgeworfene
Frage studieren: Sei F : V → V eine lineare Abbildung des n-dimensionalen
Vektorraums V in sich, G : n → V eine Karte, G−1 : V → n das entsprechende
Koordinatensystem und A die zur Abbildung in den Koordinaten G−1 ◦F ◦G gehörige
n × n-Matrix.
R
R
R
Für welche Matrizen A läßt sich eine Koordinatenwechselabbildung G−1 ◦ Ĝ : n →
n mit zugehöriger n × n-Matrix B finden, so daß Â := B −1 ◦ A ◦ B Diagonalgestalt


λ1 0 . . . 0
.. 

. 
 0 λ2
 =  .
.. 
..
 ..
.
. 
0 . . . . . . λn
R
hat? Wir wollen uns hier auf den Fall beschränken, daß die Karten G und Ĝ
auseinander durch Drehungen hervorgehen, daß die Transformationsmatrix B also
orthogonal ist. In diesem Fall sagt man, daß B die Hauptachsentransformation für
die Matrix A vermittelt.
Man ist deshalb so an einer Diagonalform interessiert, weil diese einerseits eine
besonders naheliegende Interpretation der entsprechenden Abbildungen gestattet und
weil so andererseits Matrizen auf einfache Weise auch komplexen Berechnungen wie
Potenzieren oder unendlichen Reihenbildungen zugänglich gemacht werden.
Hat  Diagonalgestalt, so gilt  ◦ ~ej = λj ~ej und deshalb für die Basiselemente
x̂j := Ĝ(~ej ) von V :
F (x̂j ) = λj x̂j .
Derartige Vektoren x̂j heißen Eigenvektoren zum jeweiligen Eigenwert λj , diese
werden unter der Anwendung von F lediglich um den Faktor λj gestreckt. Solche
Eigenvektoren werden beim Aufsuchen der Diagonalform  von A eine grundlegende
Rolle spielen, dazu vgl. man den Abschnitt 7.3.
Es wird sich herausstellen, daß eine geschlossene Behandlung der angesprochenen
Fragen für reelle Vektorräume im allgemeinen nicht möglich ist. Deshalb werden wir
210
7 Eigenwerte und Hauptachsentransformation
im folgenden Abschnitt zunächst den Körper der komplexen Zahlen und komplexe
Vektorräume einführen und in Abschnitt 7.2 die unitären Matrizen als Verallgemeinerung der orthogonalen Matrizen behandeln.
In Abschnitt 7.4 werden wir, zunächst im Komplexen, für die größtmögliche“ Klasse
”
der normalen“ Matrizen Diagonalisierungsresultate herleiten. Ein entsprechendes
”
reelles Resultat können wir daraus im allgemeinen nur für die wesentlich speziellere
Klasse der symmetrischen (selbstadjungierten)“ Matrizen folgern, da nur in diesem
”
Fall stets die Existenz hinreichend vieler reeller Eigenwerte gesichert ist.
7.1 Der allgemeine Körperbegriff,
komplexe Vektorräume
Allgemeine Körper
7.1.1 Definition
Eine Menge K, die mit einer Addition
+:K ×K →K
und einer Multiplikation
·:K ×K →K
versehen ist, heißt Körper, falls gilt:
(1) (K, +) ist eine abelsche Gruppe.
(2) Es bezeichne 0 das Nullelement von (K, +) und K ∗ := K\{0}. Dann ist (K ∗ , · )
ebenfalls eine abelsche Gruppe.
(3) Die Distributivgesetze gelten, d. h. für alle a, b, c, d ∈ K ist
(a + b) · c = a · c + b · c,
a · (c + d) = a · c + a · d.
Das neutrale Element bzgl. der Multiplikation wird mit 1 bezeichnet und die inversen
Elemente bzgl. der Addition mit (−a) und bzgl. der Multiplikation mit a−1 oder
1
a . In jedem Körper gelten insbesondere sowohl für die Addition als auch für die
Multiplikation die Regeln, wie wir sie in Abschnitt 1.1 für (abelsche) Gruppen
zusammengestellt haben. Darüber hinaus haben wir für die Verknüpfung additiver und
multiplikativer Eigenschaften folgende Gesetze:
7.1.2 Satz
Sei K ein Körper, dann gilt für alle a, b ∈ K:
(a) a · 0 = 0 · a = 0,
211
7.1 Der allgemeine Körperbegriff, komplexe Vektorräume
(b) aus a · b = 0 folgt a = 0 oder b = 0,
(c) (−a) · b = a · (−b) = −(a · b),
(Nullteilerfreiheit)
(−a) · (−b) = a · b.
Für den Beweis sowie für weitere Folgerungen aus den Körperaxiomen verweisen wir
auf die Lehrbücher der Analysis etwa von O. Forster [4, § 2] und von H. Grauert, I.
Lieb [6, § 3].
Der Körper der reellen Zahlen verfügt zudem über einen Abstandsbegriff (Betrag),
bzgl. dessen er vollständig ist, und über eine archimedische Anordnung (≤, ≥).
Der Körper der komplexen Zahlen
C
Der für das Folgende außerordentlich wichtige Körper
der komplexen Zahlen
wird im allgemeinen in der Differentialrechnung definiert. Daher werden hier manche
Eigenschaften nur skizziert und einige Beweise übergangen. Zur weiteren Information
sei wieder auf O. Forster [4, § 13] verwiesen.
C als den zweidimensionalen reellen Vektorraum
C := R2 = {(x, y) : x, y ∈ R}
ein. Damit ist C bereits eine additive abelsche Gruppe. Eine Multiplikation
·:C×C→C
Wir führen
wird durch
(x, y) · (u, v) := (xu − yv, xv + yu)
C
erklärt. Damit wird
zum Körper: das neutrale Element ist bzgl. der Addition
0 = (0, 0) und bzgl. der Multiplikation 1 = (1, 0). Das Negative von (x, y) ist
1
(−x, −y), für (x, y) 6= 0 gilt (x, y)−1 = x2 +y
2 (x, −y).
Die reellen Zahlen werden folgendermaßen in den komplexen Zahlkörper eingebettet:
Die Abbildung
Φ : → , x 7→ (x, 0)
R C
ist ein injektiver Körperhomomorphismus, d. h. stets ist
Φ(x + y) = Φ(x) + Φ(y) und
R
C
Φ(x · y) = Φ(x) · Φ(y).
Infolgedessen ist Φ( ) ein Teilkörper von , d. h. eine Teilmenge von
denselben Verknüpfungen wie versehen, ein Körper. Man identifiziert
C
C und, mit
R = Φ(R) = {(x, 0) : x ∈ R}.
Für a ∈ R, (x, y) ∈ C gilt a · (x, y) = (a, 0) · (x, y) = (a · x, a · y), die
Skalarmultiplikation auf R2 ist also ein Spezialfall der Multiplikation auf C.
212
7 Eigenwerte und Hauptachsentransformation
Durch Einführung der imaginären Einheit i := (0, 1) mit i2 = −1 gelangt man zur
üblichen Darstellung komplexer Zahlen
(x, y) = (x, 0) + (0, y) = x · 1 + y · i = x + iy.
Da jetzt i stets die imaginäre Einheit bezeichnet, steht es als Summationsindex
nicht mehr zur Verfügung. Deshalb ersetzen wir fortan die bisherigen StandardSummationsindizes i, j durch µ, ν.
C
Für z = x + iy ∈
ist Re(z) := x der Realteil und Im(z) := y der Imaginärteil
von z. Zu jeder komplexen Zahl z = x + iy wird die konjugiert komplexe Zahl
z̄ = x − iy erklärt. Wegen z̄¯ = z ist die Konjugation eine bijektive Abbildung.
Ferner gilt z1 + z2 = z̄1 + z̄2 und z1 · z2 = z̄1 · z̄2 , die Konjugation ist also ein
Körperisomorphismus.
Da reelle Zahlen durch die Konjugation nicht verändert werden, ist diese insbesondere
eine bijektive lineare Abbildung des -Vektorraums
in sich, eine umkehrbar lineare Abbildung. Sie ist anschaulich eine Spiegelung an der x-Achse. Die Elemente
iy, y ∈ , der y-Achse heißen rein imaginär; es gilt: = {(x, 0) : x ∈ } = {z :
z = z̄} und i := {iy : y ∈ } = {(0, y) : y ∈ } = {z : z = −z̄}.
R
R
R
R
R
C
R
R
R
Mittels der Konjugation erhält man geschlossene Formeln für Real- und Imaginärteil:
1
Re(z) = (z + z̄),
2
Im(z) =
1
(z − z̄).
2i
Betrag einer komplexen Zahl
Für z = x + iy ∈
C wird entsprechend der euklidischen Länge in R2 durch
|z| :=
p
x2 + y 2
der Betrag erklärt, offensichtlich ist |z|2 = z · z̄. Damit erhält man für z 6= 0 eine
einfache Formel zur Bestimmung der komplexen Kehrwerte:
1
z̄
= 2.
z
|z|
Es gelten die typischen Eigenschaften eines Betrages, für alle z, z1 , z2 ∈
C ist:
(1) |z| = 0 ⇔ z = 0,
(2) |z1 · z2 | = |z1 | · |z2 |,
(3) |z1 + z2 | ≤ |z1 | + |z2 |.
(Dreiecksungleichung)
Die erste und die dritte Eigenschaft folgen unmittelbar daraus, daß der Betrag der
komplexen Zahl z = x + iy mit der euklidischen Länge des Vektors (x, y) ∈ 2
übereinstimmt. Für die multiplikative Eigenschaft berechnet man
R
|z1 · z2 | = |(x1 + iy1 ) · (x2 + iy2 )| = |(x1 x2 − y1 y2 ) + i(x1 y2 + x2 y1 )|
213
7.1 Der allgemeine Körperbegriff, komplexe Vektorräume
=
q
x21 x22 + y12 y22 + x21 y22 + x22 y12 =
q
(x21 + y12 ) · (x22 + y22 ) = |z1 | · |z2 |.
Da Konvergenz einer komplexen Zahlenfolge (zk )k∈N = (xk + iyk )k∈N äquivalent
zur Konvergenz der beiden reellen Zahlenfolgen (xk )k∈N und (yk )k∈N ist, erhält man
aus der Vollständigkeit von :
R
C der komplexen Zahlen ist vollständig.
Im Gegensatz zu R ist jedoch C nicht angeordnet, man kann also nicht von größeren“
”
Der Körper
und kleineren“ komplexen Zahlen sprechen.
”
Komplexe Vektorräume
7.1.3 Definition
Auf einer nichtleeren Menge V sei eine Addition
+: V ×V →V
und eine Skalarmultiplikation
·:
C×V
→V
gegeben. Es sei (V, +) eine abelsche Gruppe, es gelten also die Eigenschaften (1)-(4)
aus Definition 1.1.3. Ferner gelte für alle c, d ∈ und x, y ∈ V :
C
(5) 1 · x = x,
(Unitäres Gesetz)
(6) (c · d) · x = c · (d · x),
(Assoziativgesetz)
(7) (c + d) · x = c · x + d · x und c · (x + y) = c · x + c · y.
Dann heißt V ein komplexer Vektorraum oder
C-Vektorraum.
(Distributivgesetze)
Man beachte die nahezu wörtliche Übereinstimmung mit der Definition 1.2.1, es wird
nur der Skalarenkörper durch ersetzt. Mit Ausnahme der Abschnitte, in denen Orthogonalität eine Rolle spielt (d. h. Kapitel 4.5 und Kapitel 6), kann im gesamten Buch
ohne weiteres durch ersetzt werden. Hinsichtlich der Orthogonalität werden wir
unten zeigen, daß sich die Definition des Skalarproduktes in geeigneter Weise modifizieren läßt. Zur Vermeidung von Mißverständnissen bezüglich des zugrundeliegenden
Skalarenkörpers (man vgl. Satz 7.1.6) spricht man von linearer (Un-) Abhängigkeit
über , -Dimension (man schreibt dimC ), usw.
R
C
R
C
CC
Der n-dimensionale komplexe Zahlenraum
Cn := {(z1, . . . , zn) : zν ∈ C}
ist mit den Verknüpfungen
~z + w
~ := (z1 + w1 , . . . , zn + wn ) und
c · ~z := (c · z1 , . . . , c · zn )
214
7 Eigenwerte und Hauptachsentransformation
ein komplexer Vektorraum mit der
C-Basis
{~e1 = (1, 0, . . . , 0), . . . , ~en = (0, . . . , 0, 1)}.
R
R
C
In derselben Weise, wie als Teilmenge von aufgefaßt werden kann, ist auch der
n-dimensionale reelle Zahlenraum n in n enthalten; für ~z ∈ n schreiben wir
~z = ~x + i~y mit ~x, ~y ∈ n .
R
C
C
Es gilt wörtlich wie in Satz 3.3.14:
7.1.4 Satz
dimC
R
Cn = n.
C
Da
ein Teilkörper von
ist, wird jeder komplexe Vektorraum V durch Einschränkung der Skalarmultiplikation von
× V auf
× V zu einem reellen
Vektorraum. Im Folgenden stellen wir dar, wie die Eigenschaften von V als Vektorraum und als -Vektorraum zusammenhängen.
C
R
R
C
7.1.5 Satz
C
Es sei V ein -Vektorraum und {z1 , . . . , zn } eine Basis von V über
{z1 , i · z1 , . . . , zn , i · zn } eine -Basis von V .
R
Beweis
C. Dann ist
R
Wir zeigen zunächst die lineare Unabhängigkeit über . Seien a1 , . . . , an , b1 , . . . , bn ∈
mit
n
n
X
X
aν zν +
bν (i · zν ) = 0.
R
ν=1
Für cν := aν + ibν folgt
c1 = · · · = cn = 0, also
ν=1
Pn
ν=1 cν zν
= 0. Die lineare Unabhängigkeit über
C liefert
a1 = . . . = an = b1 = . . . = bn = 0.
R
Andererseits wird V auch von dem angegebenen System über
erzeugt. Da
{z1 , . . . , zn } über ein Erzeugendensystem von V ist, existieren zu beliebigem z ∈ V
komplexe Zahlen cν = aν + ibν ∈ , aν , bν ∈ , ν = 1, . . . , n, mit
C
z=
n
X
ν=1
C
cν zν =
n
X
ν=1
R
(aν + ibν )zν =
n
X
ν=1
aν zν +
n
X
bν (izν ).
ν=1
Eine unmittelbare Folgerung ist
7.1.6 Satz
Sei V ein komplexer Vektorraum mit dimC V = n. Dann gilt dimR V = 2n.
2
215
7.1 Der allgemeine Körperbegriff, komplexe Vektorräume
C
R
R
Die Isomorphie von n und 2n über sieht man am deutlichsten, indem man im
n-tupel ~z = (z1 , . . . , zn ), zν = xν + iyν jede Komponente als Zahlenpaar (xν , yν )
schreibt: ((x1 , y1 ), . . . , (xn , yn )). Gemäß Satz 7.1.5 erhält man eine -Basis von n
durch
R
C
{~e1 , i · ~e1 , . . . , ~en , i · ~en }
n
=
(1, 0), (0, 0), . . . , (0, 0) , (0, 1), (0, 0), . . . , (0, 0) , . . .
o
. . . , (0, 0), . . . , (0, 0), (1, 0) , (0, 0), . . . , (0, 0), (0, 1) .
Komplex lineare Abbildungen
7.1.7 Definition
C
Unter einer komplex linearen oder -linearen Abbildung F : V → W zwischen
den komplexen Vektorräumen V und W versteht man eine Abbildung, die mit den
Vektorraumoperationen verträglich ist, so daß für alle x, y ∈ V , c ∈ gilt:
C
F (x + y) = F (x) + F (y),
Sei nun F :
Matrix
F (c · x) = c · F (x).
Cn → Cn eine C-lineare Abbildung, die durch die komplexe n × nc11
..

C=
.
cn1

...
...

c1n
.. 
, cµν = aµν + ibµν , aµν , bµν ∈
.
cnn
gegeben wird.
R
R
R
R,
Man kann F insbesondere auch als -lineare Abbildung 2n → 2n auffassen. Wir
wollen untersuchen, wie die zugehörige reelle 2n × 2n-Matrix A aus C hervorgeht.
Dazu sind die Bilder der Einheitsvektoren ~e1 , i · ~e1 , . . . , ~en , i · ~en zu bestimmen. Für
ν = 1, . . . , n gilt:
F (~eν ) = (c1ν , . . . , cnν ) = (a1ν , b1ν ), . . . , (anν , bnν ) ,
F (i~eν ) = i · (ciν , . . . , cnν ) = (i · c1ν , . . . , i · cnν )
= (−b1ν , a1ν ), . . . , (−bnν , anν ) ,
und man erhält:
a11
 b11
 .
A=
 ..
a

n1
bn1
−b11
a11
..
.
...
...
a1n
b1n
..
.
−bn1
an1
...
...
ann
bnn

−b1n
a1n 
.. 
. 
.
−b 
nn
ann
216
7 Eigenwerte und Hauptachsentransformation
Also geht die reelle Matrix A aus der komplexen Matrix C hervor, indem man jede
komplexe Komponente cµν = aµν + ibµν von C durch das reelle 2 × 2-Kästchen
aµν −bµν
bµν aµν
ersetzt.
Auch die Determinantentheorie für komplexe Matrizen läßt sich genauso wie im
reellen Fall durchführen. Insbesondere gilt:
7.1.8 Satz
C
C
Es sei F : n → n eine
Dann sind äquivalent:
C-lineare Abbildung mit zugehöriger Matrix C = C n,n.
(a) Die Abbildung F ist bijektiv.
(b) Die Matrix C ist nichtsingulär.
(c) det(C) 6= 0.
Nach diesen Vorbereitungen definieren wir genauso wie in 3.8.5:
7.1.9 Definition
Die Menge aller nichtsingulären komplexen n × n-Matrizen
C
GL(n, ) := {C : C ist komplexe n × n-Matrix mit det(C) 6= 0}
heißt allgemeine lineare Gruppe vom Rang n über
7.1.10 Bemerkung
C.
C
Im Zusammenhang mit der Determinantentheorie -linearer Abbildungen ist Vorsicht
geboten, da sich hier der Wert der Determinante ändern kann, wenn man zu der Interpretation derselben Abbildung als -linearer Abbildung zwischen -Vektorräumen
mit doppelt so großer -Dimension wechselt. Als Beispiel betrachten wir F : → ,
F (z) = −z; die entsprechende komplexe 1 × 1-Matrix lautet C = ( −1 ), det(C) =
2 →
2 , F (x, y) = −(x, y) gehört dagegen die reelle 2 × 2-Matrix
−1. Zu
F :
−1 0
A=
mit det(A) = 1.
0 −1
R
R
R
R
R
C C
Ein komplexes Skalarprodukt
C
Um auch n mit einem Skalarprodukt
p zu versehen, geht man von der Idee aus, daß
n die euklidische Norm k ~
z k = |z1 |2 + . . . + |zn |2 tragen soll und daß diese von
C
!
dem gesuchten Skalarprodukt erzeugt werden soll: (~z, ~z ) = k ~z k2 . Indem man noch
217
7.1 Der allgemeine Körperbegriff, komplexe Vektorräume
das bereits erwähnte Gesetz |zν |2 = z̄ν · zν beachtet, gelangt man zu der Setzung
(~z, w)
~ :=
n
X
z̄ν · wν .
ν=1
C
Es stellt sich heraus, daß die axiomatische Beschreibung des Skalarproduktes in n
oder allgemeiner in komplexen Vektorräumen gegenüber der Charakterisierung in
Satz 6.2.1 für den n bzw. für reelle Vektorräume hinsichtlich der Linearitäts- und
Symmetrieeigenschaften zu modifizieren ist.
R
7.1.11 Satz
Für das durch (~z, w)
~ =
Skalarprodukt gilt:
Pn
ν=1 z̄ν
· wν auf
Cn
gegebene kanonische komplexe
C
(1) Es ist konjugiert linear in der ersten Komponente, d. h. für c ∈ , ~z, ~z 0 , w
~∈
gilt:
(~z + ~z 0 , w)
~ = (~z, w)
~ + (~z 0 , w),
~
(c · ~z, w)
~ = c̄ · (~z, w).
~
(2) Es ist linear in der zweiten Komponente, d. h. für c ∈
(~z, w
~ +w
~ 0 ) = (~z, w)
~ + (~z, w
~ 0 ),
Cn
C, ~z, w,
~ w
~ 0 ∈ Cn gilt:
(~z, c · w)
~ = c · (~z, w).
~
(3) Es ist Hermitesch (konjugiert symmetrisch), d. h. für ~z, w
~∈
Cn gilt:
(~z, w)
~ = (w,
~ ~z ).
(4) Es ist positiv definit, d. h. für ~z ∈
(~z, ~z ) ≥ 0
Cn ist (~z, ~z ) reell, und es gilt:
und (~z, ~z ) > 0, falls ~z 6= 0.
Beweis
Der Beweis folgt durch elementares Nachrechnen aus der Definition des Skalarprodukts.
2
C C
C
Abbildungen n ⊕ n → mit den Eigenschaften (1) und (2) nennt man sesquilinear.
Das kanonische komplexe Skalarprodukt ist also eine Hermitesche, positiv definite
Sesquilinearform.
Es wird in der Literatur nicht einheitlich gehandhabt, ob das Skalarprodukt in der
ersten oder in der zweiten Komponente als konjugiert
linear definiert wird. Häufig
P
wird z. B. das Skalarprodukt in n auch durch nν=1 zν w̄ν eingeführt.
C
7.1.12 Satz
Durch die Setzung
v
u n
p
uX
k ~z k := (~z, ~z ) = t
z̄ν · zν
ν=1
218
7 Eigenwerte und Hauptachsentransformation
Cn zu einem normierten komplexen Vektorraum. Die Abbildung k . k n:
C R hat also die typischen Eigenschaften einer Norm; für alle c ∈ C, ~z, w~ ∈ C
wird
n →
gilt:
(1) k ~z k = 0 ⇔ ~z = 0,
(2) k c · ~z k = |c| · k ~z k,
(3) k ~z + w
~ k ≤ k ~z k + k w
~ k.
Beweis
Man könnte zunächst die auch in
Cn gültige Cauchy-Schwarzsche Ungleichung
|(~z, w)|
~ ≤ k ~z k · k w
~k
herleiten und anschließend genauso wie im Beweis von Satz 6.2.4 verfahren.
Hier wollen wir allerdings direkt auf das dort erzielte Resultat zurückgreifen und
verwenden, daß n und 2n als -Vektorräume kanonisch isomorph sind. Wie bereits
vorher bemerkt, stimmen für
C
R
R
~z = (z1 , . . . , zn ) = (x1 + iy1 , . . . , xn + iyn ) = ((x1 , y1 ), . . . , (xn , yn ))
die euklidische Norm in
R2n und die euklidische Norm in Cn überein:
2
k (x1 , y1 , . . . , xn , yn ) k =
n
X
ν=1
x2ν
+
yν2
=
n
X
z̄ν · zν = k ~z k2 .
ν=1
Die Eigenschaften (1) und (3) folgen also direkt aus dem reellen Resultat. Für c ∈
~z ∈ n gilt weiter:
C
k c · ~z k2 = (c · ~z, c · ~z ) = c̄ · (~z, c · ~z ) = c̄ · c · (~z, ~z ) = |c|2 · k ~z k2 .
C,
2
7.2 Unitäre und adjungierte Abbildungen
Die unitäre Gruppe
Die unitären Abbildungen sind die komplexen Verallgemeinerungen der orthogonalen
Abbildungen. Zwar könnte man die folgende Theorie auch allgemein in endlichdimensionalen Vektorräumen mit Skalarprodukt (diese nennt man unitär bzw. im reellen Fall
euklidisch ) durchführen, wir beschränken uns aber der Einfachheit halber auf Abbildungen n → n . Zudem kann man sich, ganz ähnlich wie bei allgemeinen linearen
Abbildungen in Kapitel 3, durch die Einführung unitärer Karten stets auf diesen Fall
zurückziehen.
C
C
Zur Definition wählen wir eine der Eigenschaften aus Satz 6.3.2.
219
7.2 Unitäre und adjungierte Abbildungen
7.2.1 Definition
C
Eine komplexe n × n-Matrix C heißt unitär, falls k C ◦ ~z k = k ~z k für alle ~z ∈ n
gilt. Eine lineare Abbildung F : n → n heißt unitär, falls die zugehörige Matrix
unitär ist. Wir nennen
C
C
U (n) := {C : C ist unitäre n × n-Matrix}
die unitäre Gruppe vom Rang n.
Tatsächlich ist die Bezeichnung unitäre Gruppe“ gerechtfertigt:
”
7.2.2 Satz
C
U (n) ist eine Untergruppe von GL(n, ).
Beweis
Offenbar ist die zu C ∈ U (n) gehörige lineare Abbildung injektiv. Wie in Kapitel 3
folgt daraus, daß C nichtsingulär ist und C −1 ∈ GL(n, ) existiert. Es folgt
U (n) ⊂ GL(n, ) und auf Grund von k ~z k = k C ◦ C −1 ◦ ~z k = k C −1 ◦ ~z k
auch C −1 ∈ U (n). Wegen E n,n ∈ U (n) ist U (n) 6= ∅. Schließlich ist U (n) auch
gegenüber der Matrizenmultiplikation abgeschlossen, denn mit C1 , C2 ∈ U (n) ist
wegen k C1 ◦ C2 ◦ ~z k = k C2 ◦ ~z k = k ~z k auch C1 ◦ C2 ∈ U (n).
2
C
C
Wir studieren zunächst die Verbindungen mit dem reellen Begriff der orthogonalen
n×n ist natürlich auch eine komplexe Matrix
Matrix. Eine reelle Matrix C ∈
n×n
C ∈
und vermittelt damit sowohl Abbildungen FR : n → n als auch
n
FC :
→ n . Die komplexe Abbildung FC geht dabei aus FR hervor, indem man
für ~z = ~x + i~y ∈ n , ~x, ~y ∈ n beachtet:
R
C
C
C
C
R
R
R
FC (~z ) = FC (~x + i~y ) = FC (~x ) + iFC (~y ) = C ◦ ~x + i C ◦ ~y = FR (~x ) + iFR (~y ).
Dieses Verfahren, das man auch unabhängig vom Matrizenkalkül durchführen kann,
heißt Komplexifizierung.
7.2.3 Satz
O(n) ⊂ U (n).
Beweis
Sei C ∈ O(n) und ~z = ~x + i~y , ~x, ~y ∈
in n ergeben:
C
Rn. Die Eigenschaften der euklidischen Norm
k ~z k2 = k ~x k2 + k ~y k2 = k C ◦ ~x k2 + k C ◦ ~y k2
= k C ◦ ~x + i C ◦ ~y k2 = k C ◦ (~x + i~y ) k2 = k C ◦ ~z k2 .
2
220
7 Eigenwerte und Hauptachsentransformation
C
R
R
Wie bereits im vorhergehenden Abschnitt erläutert, können wir n und 2n als Vektorräume identifizieren und entsprechend -lineare Abbildungen n → n als
-lineare Abbildungen 2n → 2n auffassen. In diesem Sinne ist der folgende Satz
zu verstehen.
R
R
C
R
C
C
7.2.4 Satz
U (n) ist eine Untergruppe von O(2n).
Beweis
R
Es sei Φ : U (n) → 2n×2n die in Abschnitt 7.1 beschriebene Abbildung: Für
C = (cµν )µ,ν=1,...,n erhält man A = Φ(C), indemman jede komplexe
Komponente
aµν −bµν
cµν = aµν + ibµν durch das reelle 2 × 2-Kästchen
ersetzt.
bµν aµν
Wir haben also zu zeigen, daß Φ : U (n) → O(2n) ein injektiver Gruppenhomomorphismus ist.
Da C und A = Φ(C) dieselbe Abbildung beschreiben und die euklidische Norm in
n mit der in 2n übereinstimmt, folgt Φ(U (n)) ⊂ O(2n) aus Satz 6.3.2.
C
R
Wir zeigen nun, daß Φ ein Gruppenhomomorphismus ist. Seien C1 , C2 ∈ U (n). Die
durch C1 ◦ C2 gegebene Abbildung n → n stimmt mit der durch Φ(C1 ) ◦ Φ(C2 )
gegebenen Abbildung 2n → 2n überein, denn die Komposition der Abbildungen
ist unabhängig davon, ob man n als komplexen oder reellen Vektorraum interpretiert.
Also gilt Φ(C1 ◦ C2 ) = Φ(C1 ) ◦ Φ(C2 ).
R
R
C
C
C
Die Injektivität von Φ ergibt sich schließlich aus
Φ(C) = E 2n,2n
⇒
C = E n,n .
2
Im Spezialfall n = 1 läßt sich Genaueres aussagen:
7.2.5 Satz
U (1) ∼
= SO(2).
Beweis
Für die im vorherigen Beweis betrachtete Abbildung Φ : U (1) → O(2) bleibt zu
zeigen:
Φ(U (1)) ⊂ SO(2), Φ : U (1) → SO(2) ist surjektiv.
2 = |c · c̄| = |c̄| = |c| und damit |c| = 1. Mit
Sei c ∈ U (1), es ist also insbesondere |c|
a −b
2
2
c = a + ib gilt a + b = 1 und Φ(c) =
, also Φ(c) ∈ SO(2).
b a
Um noch die Surjektivität von Φ zu zeigen, sei A ∈ SO(2)
gegeben.
Gemäß Satz 6.1.8
a
−b
existieren dann a, b ∈ mit a2 + b2 = 1 und A =
. Für c := a + ib gilt
b a
R
221
7.2 Unitäre und adjungierte Abbildungen
C
|c| = 1 und damit für alle d ∈ : |c · d| = |c| · |d| = |d|, d. h. c ∈ U (1). Ferner ist
Φ(c) = A und folglich im(Φ) = SO(2).
2
R2 ist also die Multiplikation mit einer komplexen Zahl c, deren
Eine Drehung des
Betrag |c| = 1 ist.
Das nächste Ziel ist die komplexe Entsprechung des Satzes 6.3.2, es sollen also einige
äquivalente und für das Folgende grundlegende Charakterisierungen unitärer Matrizen
zusammengestellt werden. Dazu sind vorbereitend einige aus Kapitel 6 bekannte
Begriffe auf den n auszudehnen und einige Hilfsresultate zu beweisen.
C
Komplexe Orthogonalität
7.2.6 Definition
C
Die Vektoren ~z, w
~ ∈ n heißen (komplex) orthogonal, wenn (~z, w)
~ = 0 gilt. Unter
dem orthogonalen Komplement des Untervektorraums V ⊂ n verstehen wir
V ⊥ := {~z ∈
7.2.7 Satz
Cn :
C
(~z, w)
~ = 0 für alle w
~ ∈ V }.
C
R
Die Vektoren ~z, w
~ ∈ n seien (komplex) orthogonal, ~z = ~x + i~y , w
~ = ~u + i~v
mit ~x, ~y , ~u, ~v ∈ n . Dann sind die entsprechenden Vektoren (x1 , y1 , . . . , xn , yn ),
(u1 , v1 , . . . , un , vn ) ∈ 2n (reell) orthogonal.
R
Beweis
Aus der komplexen Orthogonalität folgt
0 = (~z, w)
~ =
n
X
(xν − i yν )(uν + i vν )
ν=1
=
n
X
(xν uν + yν vν ) + i ·
ν=1
n
X
(xν vν − yν uν )
ν=1
und damit durch Betrachtung des Realteils die Behauptung.
2
C
Der Beweis zeigt, daß komplexe Orthogonalität in n eine wesentlich stärkere Eigenschaft als reelle Orthogonalität in 2n ist, denn das entsprechende reelle Skalarprodukt
ist lediglich der Realteil des komplexen Skalarprodukts. Dazu geben wir folgendes
einfache Beispiel:
R
7.2.8 Beispiel
C natürlich nicht orthogonal, die entsprechenden
R2 hingegen schon.
Die komplexen Zahlen 1 und i sind in
reellen Vektoren (1, 0) und (0, 1) in
222
7 Eigenwerte und Hauptachsentransformation
7.2.9 Satz
Für jeden Untervektorraum V ⊂
V
Cn gilt
⊥⊥
Beweis
Offensichtlich ist V ⊥
⊥
= {~z ∈
:= V
Cn :
⊥
⊥
= V.
(~z, w)
~ = 0 für alle w
~ ∈ V ⊥} ⊃ V .
Die umgekehrte Inklusion beweist man mit Hilfe eines Dimensionsarguments. Sei
k = dimC V , wie in Satz 6.3.6 zeigt man dimC V ⊥ = n − k. Eine Wiederholung
⊥
dieses Schlusses ergibt dimC V ⊥ = n − (n − k) = k und damit wegen V ⊂ V ⊥⊥
die behauptete Gleichheit.
2
In unendlichdimensionalen (unitären) Vektorräumen kann das Dimensionsargument
nicht verwendet werden. Tatsächlich behält der obige Satz dort nur unter zusätzlichen
Voraussetzungen seine Gültigkeit.
7.2.10 Definition
Man nennt ein k-tupel (~z1 , . . . , ~zk ) von Vektoren aus
nales k-Bein, wenn für µ, ν = 1, . . . , k gilt:
Cn ein (komplexes) orthogo-
(~zµ , ~zν ) = δµν .
Ist ein orthogonales k-Bein gleichzeitig auch Erzeugendensystem eines Untervektorraums V von n , so spricht man von einer Orthonormalbasis von V .
C
Eine Orthonormalbasis von V ist also eine Basis aus paarweise orthogonalen, normierten (d. h. mit Länge 1) Vektoren.
Wir bezeichnen mit C̄ t die zur m × n-Matrix C konjugiert transponierte n × mMatrix, die also aus C = (cµν ) µ=1,...,m durch Transponieren und komponentenweises
ν=1,...,n
Konjugieren hervorgeht:
c̄11

c̄12
C̄ t = 
 ...
c̄21
c̄22
..
.
...
...
..
.
c̄1n
c̄2n
. . . c̄mn


c̄m1
c̄m2 
.
.. 
. 
Wir betrachten nun wieder ausschließlich quadratische Matrizen.
7.2.11 Satz
Für jede n × n-Matrix C und alle Vektoren ~z, w
~∈
Cn gilt:
(w,
~ C ◦ ~z ) = (C̄ t ◦ w,
~ ~z ).
223
7.2 Unitäre und adjungierte Abbildungen
Beweis
Das komplexe Skalarprodukt lautet in Matrizenschreibweise:
(~z, w)
~ = ~z¯ t ◦ w,
~
daraus erhält man:
¯ t ◦ w)
¯~ t ◦ ~z = w
¯~ t ◦ (C ◦ ~z ) = (w,
(C̄ t ◦ w,
~ ~z ) = (C̄ t ◦ w)
~ t ◦ ~z = (C̄
~ C ◦ ~z ).
7.2.12 Satz
Ist D eine komplexe n × n-Matrix derart, daß ~z¯ t ◦ D ◦ ~z = 0 für alle ~z ∈
dann folgt: D = On,n .
2
Cn gilt,
Beweis
C
Wir zeigen zunächst, daß die Sesquilinearform, die je zwei Vektoren ~z, w
~ ∈ n
t
die komplexe Zahl (~z, D ◦ w)
~ = ~z¯ ◦ D ◦ w
~ zuordnet, bereits durch die Werte der
t
¯
quadratischen Form ~z 7→ ~z ◦ D ◦ ~z bestimmt ist. Bei dem folgenden Verfahren der
Polarisierung setzt man geeignete Kombinationen der beliebig vorgegebenen Vektoren
~z, w
~ ∈ n ein:
C
¯~ t ◦ D ◦ ~z + w
¯~ t ◦ D ◦ w,
(~z + w)
~ t ◦ D ◦ (~z + w)
~ = ~z¯ t ◦ D ◦ ~z + ~z¯ t ◦ D ◦ w
~ +w
~
t
t
t
t
t
¯~ ◦ D ◦ ~z + w
¯~ ◦ D ◦ w,
(~z − w)
~ ◦ D ◦ (~z − w)
~ = ~z¯ ◦ D ◦ ~z − ~z¯ ◦ D ◦ w
~ −w
~
¯~ t ◦ D ◦ ~z + w
¯~ t ◦ D ◦ w,
(~z + iw)
~ t ◦ D ◦ (~z + iw)
~ = ~z¯ t ◦ D ◦ ~z + i~z¯ t ◦ D ◦ w
~ − iw
~
t
t
t
t
t
¯
¯
¯
¯
(~z − iw)
~ ◦ D ◦ (~z − iw)
~ = ~z ◦ D ◦ ~z − i~z ◦ D ◦ w
~ + iw
~ ◦ D ◦ ~z + w
~ ◦ D ◦ w.
~
Indem man jeweils die ersten und letzten beiden Gleichungen voneinander subtrahiert,
erhält man:
¯~ t ◦ D ◦ ~z
~z¯ t ◦ D ◦ w
~ +w
1
=
(~z + w)
~ t ◦ D ◦ (~z + w)
~ − (~z − w)
~ t ◦ D ◦ (~z − w)
~ ;
2
¯~ t ◦ D ◦ ~z
~z¯ t ◦ D ◦ w
~ −w
1
(~z + iw)
~ t ◦ D ◦ (~z + iw)
~ − (~z − iw)
~ t ◦ D ◦ (~z − iw)
~ .
=
2i
Diese Gleichungen werden zueinander addiert, und es folgt:
1
(~z + w)
~ t ◦ D ◦ (~z + w)
~ − (~z − w)
~ t ◦ D ◦ (~z − w)
~
~z¯ t ◦ D ◦ w
~=
4
1 (~z + iw)
~ t ◦ D ◦ (~z + iw)
~ − (~z − iw)
~ t ◦ D ◦ (~z − iw)
~ .
+
4i
Wir setzen nun in dieses auch an sich interessante Zwischenergebnis unsere Voraussetzung ein, daß stets ~z¯ t ◦ D ◦ ~z = 0 ist. Dadurch erhalten wir für alle ~z, w
~ ∈ n:
C
~z¯ t ◦ D ◦ w
~ = 0.
224
7 Eigenwerte und Hauptachsentransformation
Indem wir für ~z und w
~ die Elemente ~eµ und ~eν der kanonischen Basis des
einsetzen, folgt schließlich für D = (dµν )µ,ν=1,...,n :
Cn
2
dµν = ~eµt ◦ D ◦ ~eν = 0.
7.2.13 Bemerkung
Die komplexe n × n-Matrix D und damit die entsprechende Sesquilinearform S :
n ⊕
n →
, S(~z, w)
~ = ~z¯ t ◦ D ◦ w
~ = (~z, D ◦ w)
~ sind durch die quadratische
t
¯
Form ~z 7→ ~z ◦ D ◦ ~z, d. h. durch die Werte der Sesquilinearform auf der Diagonalen“
”
~z = w
~ eindeutig bestimmt.
C
C
C
Ein entsprechendes Resultat gilt im Reellen nur unter Zusatzvoraussetzungen,
wie et
0 1
wa der Symmetrie (man vgl. den Beweis von Satz 6.3.2), wie das Beispiel
−1 0
zeigt.
Unitäre Matrizen
7.2.14 Satz
Für alle komplexen n × n-Matrizen A = (~a1 , . . . , ~an ) sind äquivalent:
(a) Āt ◦ A = E;
(b) für alle ~z, w
~∈
C gilt (A ◦ ~z, A ◦ w)
~ = (~z, w);
~
(c) A ist unitär;
(d) (~a1 , . . . , ~an ) ist ein komplexes orthogonales n-Bein.
Beweis
C
(a) ⇒ (c)“: Für alle ~z ∈ n gilt in Matrizenschreibweise:
”
k ~z k2 = ~z¯ t ◦ ~z = ~z¯ t ◦ E ◦ ~z = (~z¯ t ◦ Āt ) ◦ (A ◦ ~z )
= (A ◦ ~z ) t ◦ (A ◦ ~z ) = k A ◦ ~z k2 .
(c) ⇒ (b)“: In diesem Beweisteil können wir von den in Satz 7.2.12 geleisteten
”
Vorarbeiten profitieren. Wir wollen zeigen, daß die Sesquilinearform
S:
Cn ⊕ Cn → C, S(~z, w)
~ = (A ◦ ~z, A ◦ w)
~ − (~z, w)
~
(∗)
stets den Wert 0 ergibt. Gemäß Voraussetzung (c) ist der Wert dieser Form auf der
Diagonalen“ ~z = w
~ stets 0. Indem man noch beachtet, daß für alle ~z, w
~∈ n
”
(A ◦ ~z, A ◦ w)
~ − (~z, w)
~ = ~z¯ t ◦ Āt ◦ A ◦ w
~ − ~z¯ t ◦ w
~
t
t
= ~z¯ ◦ Ā ◦ A − E ◦ w
~
C
225
7.2 Unitäre und adjungierte Abbildungen
gilt, daß also die Sesquilinearform S in (∗) durch die Matrix Āt ◦ A − E gegeben
wird, ergibt Satz 7.2.12 tatsächlich, daß es sich bei dieser Matrix um die Nullmatrix
handelt. Mithin verschwindet die Sesquilinearform S in (∗) identisch, und wir haben
gleichzeitig auch (c) ⇒ (a)“ mitbewiesen.
”
(b) ⇒ (d)“: Gemäß Voraussetzung (b) ist die Matrix A längen-“ und winkeltreu“,
”
”
”
das gilt insbesondere auch für die Elemente der kanonischen Basis des n :
C
δµν = (~eµ , ~eν ) = (A ◦ ~eµ , A ◦ ~eν ) = (~aµ , ~aν ).
(d) ⇒ (a)“: Dieser Schluß basiert allein auf der Definition der Matrizenmultiplikati”
on:
¯t
~a1
.
t
¯µt ◦ ~aν
Ā ◦ A =  ..  ◦ (~a1 , . . . , ~an ) = ~a
µ,ν=1,...,n
¯nt
~a
= (~aµ , ~aν )
= (δµν )µ,ν=1,...,n = E.
µ,ν=1,...,n
2
Adjungierte Abbildungen
Wiederholt hat die zur komplexen n × n-Matrix A konjugiert transponierte Matrix Āt
eine Rolle gespielt, nicht zuletzt als Umkehrmatrix unitärer Matrizen. Deshalb werden
wir nun die entsprechenden Abbildungen eingehender studieren.
7.2.15 Definition
Sei A eine komplexe n × n-Matrix und F :
Abbildung.
Cn
→
Cn die zugehörige C-lineare
(a) Die zur konjugiert transponierten Matrix Āt gehörige
n →
n heißt die zu F adjungierte Abbildung.
C
(b) Gilt
C
Āt
C-lineare
Abbildung
= A, so heißt A Hermitesch und F selbstadjungiert.
Ein Spezialfall hiervon ist die entsprechende reelle Definition:
7.2.16 Definition
Sei A eine reelle n × n-Matrix und F :
Abbildung.
Rn
(a) Die zur transponierten Matrix At gehörige
die zu F adjungierte Abbildung.
→
Rn
die zugehörige
R-lineare
R-lineare Abbildung Rn → Rn heißt
(b) Ist A symmetrisch, d. h. A = At , so nennen wir F selbstadjungiert.
226
7 Eigenwerte und Hauptachsentransformation
7.2.17 Bemerkung
R
R
Bei reellen Matrizen A ∈ n×n und zugehörigen linearen Abbildungen F : n →
n fallen die adjungierte und die duale Abbildung zusammen. Im Komplexen dagegen wird die duale Abbildung F ∗ unverändert durch At , die adjungierte Abbildung
F adjungiert dagegen durch Āt gegeben. Hier besteht bei den Abbildungen der Zusam
menhang: F adjungiert (~z ) = F ∗ ~z¯ .
R
Um im Folgenden nicht unnötig komplizierte Bezeichnungen verwenden zu müssen,
werden wir mitunter die zur Matrix A gehörige lineare Abbildung ebenfalls mit A
bezeichnen und beispielsweise von Āt als der zu A adjungierten Abbildung sprechen.
7.2.18 Satz
Eine komplexe n × n-Matrix A ist genau dann Hermitesch, wenn für alle ~z ∈
Zahl (~z, A ◦ ~z ) reell ist.
Cn die
Beweis
Grundlegend ist die folgende, auf den Eigenschaften konjugiert transponierter Matrizen beruhende Gleichheit:
(~z, Āt ◦ ~z ) = (A ◦ ~z, ~z ) = (~z, A ◦ ~z ).
Ist A Hermitesch, so gilt für alle ~z ∈
diese Zahlen stets reell.
Cn also (~z, A ◦ ~z ) = (~z, A ◦ ~z ), demgemäß sind
Ist dagegen (~z, A ◦~z ) stets reell, d. h. (~z, A ◦~z ) = (~z, A ◦ ~z ), so verschwindet die von
Āt − A gegebene quadratische Form identisch, es ist also stets (~z, (Āt − A) ◦ ~z ) = 0.
Der schon wiederholt zitierte Satz 7.2.12 zeigt Āt − A = O und damit die Hermitizität
von A.
2
Auch um die Symmetrie einer reellen n × n-Matrix zu prüfen, ist die quadratische
Form (~z, A ◦ ~z ) für alle komplexen Vektoren ~z ∈ n zu betrachten.
C
7.2.19 Satz
Für die zur komplexen n × n-Matrix A gehörige lineare Abbildung gilt:
(a) ker(A) = im(Āt )⊥ ,
(b) im(A) = ker(Āt )⊥ .
Beweis
Sei ~z ∈ ker(A), d. h. A ◦ ~z = ~0. Für alle Āt ◦ w
~ ∈ im(Āt ), w
~ ∈
Satz 7.2.11
(~z, Āt ◦ w)
~ = (A ◦ ~z, w)
~ = (~0, w)
~ = 0.
Somit ist ker(A) ⊂ im(Āt )⊥ .
Cn, folgt mit
227
7.2 Unitäre und adjungierte Abbildungen
Sei nun umgekehrt ~z ∈ im(Āt )⊥ , für alle w
~∈
Cn haben wir also
0 = (~z, Āt ◦ w)
~ = (A ◦ ~z, w).
~
Indem man speziell w
~ = A ◦ ~z wählt, ergibt sich A ◦ ~z = ~0, ~z ∈ ker(A),
t
⊥
im(Ā ) ⊂ ker(A) und damit insgesamt Behauptung (a).
Indem man in (a) zu den orthogonalen Komplementen übergeht, die Matrix A durch
t
Āt ersetzt und Āt = A beachtet, erhält man
ker(Āt )⊥ = im(A)⊥⊥ .
C
Vorher hatten wir schon für beliebige Untervektorräume V ⊂ n die Gültigkeit von
V ⊥⊥ = V gezeigt, und folglich ist auch Behauptung (b) bewiesen.
2
Bei selbstadjungierten Abbildungen können wir mit Hilfe dieses Satzes durch Abspaltung des Kerns zu Isomorphismen übergehen.
7.2.20 Satz
C
C
Die lineare Abbildung F : n → n sei selbstadjungiert, es bezeichne V = ker(F )⊥ .
Dann ist die Einschränkung von F auf V
F |V : V → V
ein Isomorphismus.
Beweis
Gemäß dem vorhergehenden Satz ist im(F |V ) ⊂ im(F ) = ker(F )⊥ = V . Die
Abbildung F |V ist offensichtlich injektiv und damit auf Grund der Dimensionsformel
auch surjektiv.
2
Normale Abbildungen
Unitäre und selbstadjungierte Abbildungen scheinen zunächst wenig miteinander zu
tun zu haben: Unitäre Abbildungen sind längentreu, mithin stets Isomorphismen.
Selbstadjungierte Abbildungen können durchaus einen nichttrivialen Kern haben und
die eingesetzten Vektoren strecken oder stauchen. Dennoch teilen diese Abbildungen
eine Eigenschaft, die sich in Abschnitt 7.4 als entscheidend für die Diagonalisierbarkeit erweisen wird.
7.2.21 Definition
C
Wir nennen eine n × n-Matrix A und die zugehörige lineare Abbildung F : n →
n normal, wenn die Abbildung und ihre adjungierte kommutieren, falls also die
Bedingung
Āt ◦ A = A ◦ Āt
C
erfüllt ist.
228
7 Eigenwerte und Hauptachsentransformation
7.2.22 Satz
Eine n × n-Matrix A ist normal genau dann, wenn für alle ~z, w
~∈
Cn gilt:
(Āt ◦ ~z, Āt ◦ w)
~ = (A ◦ ~z, A ◦ w).
~
Beweis
Ist A normal, so folgt für alle ~z, w
~∈
(∗)
Cn
(A ◦ ~z, A ◦ w)
~ = (~z, Āt ◦ A ◦ w)
~ = (~z, A ◦ Āt ◦ w)
~
t
t
= (Ā ◦ ~z, Ā ◦ w).
~
C
Gilt nun umgekehrt (∗) für alle ~z, w
~ ∈ n , so folgt
~z, Āt ◦ A ◦ w
~ = (A ◦ ~z, A ◦ w)
~ = Āt ◦ ~z, Āt ◦ w
~
= ~z, A ◦ Āt ◦ w
~ ,
0 = ~z, Āt ◦ A − A ◦ Āt ◦ w
~ .
Indem man bei beliebigem w
~ für ~z = Āt ◦ A − A ◦ Āt ◦ w
~ einsetzt, erhält man
t
t
~
Ā ◦ A − A ◦ Ā ◦ w
~ = 0 und damit
Āt ◦ A − A ◦ Āt = O;
die Matrix A ist normal.
2
7.3 Eigenwerte
Wir haben stets die Theorie linearer Abbildungen und den Matrizenkalkül simultan und gleichberechtigt entwickelt und haben häufig mit Gewinn zwischen diesen
beiden Standpunkten gewechselt. In diesem Abschnitt stellen wir den Abbildungs”
standpunkt“ in den Vordergrund.
Es bezeichne V stets einen n-dimensionalen komplexen Vektorraum und F : V → V
eine -lineare Abbildung.
C
Eigenräume
7.3.1 Definition
Ein Vektor z ∈ V \ {0} heißt Eigenvektor von F zum Eigenwert λ ∈
Eigenwertgleichung
F (z) = λ · z
erfüllt ist.
C, wenn die
229
7.3 Eigenwerte
C
Da gleichzeitig Eigenwert λ und Eigenvektor z gesucht werden und die Abbildung ×
V → V , (λ, z) 7→ λ · z nicht linear ist, handelt es sich bei der Eigenwertbestimmung
um ein nichtlineares Problem.
Diese Begriffe stehen ebenso wie die im Folgenden noch zu definierenden auch für
beliebige n × n-Matrizen zur Verfügung, indem man die entsprechende -lineare
Abbildung betrachtet. So ist ~z ∈ n \ {~0} Eigenvektor von A zum Eigenwert λ ∈ ,
falls A ◦ ~z = λ · ~z gilt. Das Bestehen dieser Eigenwertgleichung ist äquivalent zu
(A − λE) ◦ ~z = ~0, bzw. auf Abbildungsebene zu (F − λ · id)(z) = 0. Also gilt
C
C
{z ∈ V : z ist Eigenvektor von F : V → V zu λ ∈
= {z : (F − λ · id)(z) = 0} = ker(F − λ · id).
C
C} ∪ {0}
7.3.2 Definition
Für λ ∈
C heißt die Menge aller Eigenvektoren zu λ, ergänzt um den Nullvektor,
Vλ := Vλ (F ) := ker(F − λ · id)
Eigenraum von F zum Eigenwert λ ∈
C.
7.3.3 Bemerkung
C
Als Kern einer linearen Abbildung ist Vλ ein -Untervektorraum von V . Genau dann
ist λ Eigenwert von F , wenn dim Vλ 6= 0 gilt. Ist z Eigenvektor zu λ von F , so auch
jedes komplexe Vielfache c · z, c ∈ .
C
7.3.4 Satz
Es seien z1 , . . . , zk Eigenvektoren von F zu den paarweise verschiedenen Eigenwerten
λ1 , . . . , λ k ∈ :
C
F (zν ) = λν zν ,
zν 6= 0,
λµ 6= λν für µ 6= ν.
Dann sind z1 , . . . , zk linear unabhängig.
Insbesondere hat F höchstens n paarweise verschiedene Eigenwerte.
Beweis
Wir führen den Beweis durch Induktion nach der Anzahl k der Eigenvektoren.
Der Fall k = 1 ist offensichtlich, denn Eigenvektoren sind definitionsgemäß vom
Nullvektor verschieden. Sei nun die Behauptung für k − 1 gezeigt, und es seien
z1 , . . . , zk Eigenvektoren zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λk .
Wir betrachten Linearkombinationen des Nullvektors aus z1 , . . . , zk :
k
X
ν=1
aν zν = 0,
aν ∈
C.
230
7 Eigenwerte und Hauptachsentransformation
Man erhält durch Multiplikation mit λk :
k
X
aν λk zν = 0
ν=1
und durch die Anwendung von F :
0 = F (0) = F
k
X
!
aν zν
=
ν=1
k
X
aν F (zν ) =
ν=1
k
X
aν λν zν .
ν=1
Durch Subtraktion der beiden Gleichungen folgt:
k
X
aν (λk − λν )zν =
ν=1
k−1
X
aν (λk − λν )zν = 0.
ν=1
Nach Induktionsvoraussetzung sind z1 , . . . , zk−1 linear unabhängig und somit aν (λk −
λν ) = 0. Da die Eigenwerte als paarweise verschieden vorausgesetzt sind, erhalten wir
a1 = . . . = ak−1 = 0. Aus der ursprünglichen Linearkombination des Nullvektors
wird 0 = ak zk , hieraus folgt schließlich auch ak = 0.
2
Das charakteristische Polynom
Die Bestimmung von Eigenwerten soll auf die Bestimmung der Nullstellen eines
komplexen Polynoms reduziert werden. Wir fassen hier komplexe Polynome im Sinne
der analytischen Definition als Funktionen → auf.
C
C
n
C C
Sei G :
→ V eine Karte, d. h. ein -Vektorraumisomorphismus. Die Abbildung
F in den Koordinaten, G−1 ◦ F ◦ G, wird durch eine n × n-Matrix A gegeben. Wegen
der Linearität des Koordinatensystems G−1 lautet die Abbildung F − λ · id in den
Koordinaten: G−1 ◦(F −λ·id)◦G = G−1 ◦(F ◦G−λ·G) = G−1 ◦F ◦G−λ·G−1 ◦G =
G−1 ◦ F ◦ G − λ · idCn , sie wird also durch die Matrix A − λ · E beschrieben. Da
die komplexe Zahl λ Eigenwert von A bzw. F genau dann ist, wenn A − λE singulär
(nicht invertierbar) ist, liegt es nahe, die entsprechende Determinante zu betrachten:
det(A − λE) =
n
X
δ(ν1 , . . . , νn )(aν1 1 − λδν1 1 ) · . . . · (aνn n − λδνn n )
ν1 ,...,νn =1
n
n
= (−1) · (λ + Q(λ)) ,
dabei ist Q(λ) ein Polynom in λ vom Grade ≤ n − 1. Es handelt sich bei det(A − λE)
also um ein Polynom n-ten Grades in λ mit höchtem Koeffizienten (−1)n . Auf Grund
der Überlegungen aus Kapitel 5.6 ist det(A − λE) = det(F − λ · id) unabhängig von
der Wahl der Karte G.
231
7.3 Eigenwerte
7.3.5 Definition
Wir nennen P (λ) := PF (λ) := (−1)n ·det(F −λ·id) das charakteristische Polynom
der linearen Abbildung F .
Das charakteristische Polynom ist normiert, besitzt also höchsten Koeffizienten 1.
7.3.6 Satz
C
Sei P (λ) das charakteristische Polynom einer -linearen Abbildung F : V → V .
Dann ist λ ∈ Eigenwert von F genau dann, wenn P (λ) = 0 gilt.
C
Beweis
C
Die komplexe Zahl λ ∈
ist Eigenwert von F genau dann, wenn die Abbildung
F − λ · id nicht injektiv und damit nicht invertierbar ist. Letzteres ist jedoch äquivalent
zum Verschwinden der Determinante: P (λ) = det(F − λ id) = 0.
2
Das charakteristische Polynom ist invariant gegenüber
7.3.7 Satz
C-Isomorphismen:
C
Sei P (λ) das charakteristische Polynom einer -linearen Abbildung F : V → V .
∼
Sei W ein weiterer n-dimensionaler -Vektorraum und H : W → V ein Vektorraumisomorphismus. Für das charakteristische Polynom P̂ (λ) der Abbildung
F̂ := H −1 ◦ F ◦ H gilt P̂ (λ) = P (λ).
C
Beweis
C
C
Sei G : n → V eine Karte. Dann ist H −1 ◦ G eine Karte von W und F̂ lautet in
diesen Koordinaten
(H −1 ◦ G)−1 ◦ F̂ ◦ (H −1 ◦ G) = G−1 ◦ H ◦ H −1 ◦ F ◦ H ◦ H −1 ◦ G = G−1 ◦ F ◦ G,
das ist auch die Abbildung F in den Koordinaten G. Das charakteristische Polynom
ist aber von der Wahl der Karte unabhängig.
2
Als Folgerung erhalten wir die Existenz einer weiteren Matrixinvariante:
7.3.8 Definition
Unter der Spur einer quadratischen Matrix A = (aµν )µ,ν=1,...,n verstehen wir die
Summe der Diagonalelemente:
Sp(A) :=
n
X
aνν .
ν=1
7.3.9 Satz
C
Sei A ∈ n×n beliebig, B ∈
dieselbe Spur.
Cn×n invertierbar. Dann haben A und B −1 ◦ A ◦ B
232
7 Eigenwerte und Hauptachsentransformation
Beweis
Eine genaue Inspektion der Definition des charakteristischen Polynoms ergibt
PA (λ) = (−1)n det(A − λE)
n
X
= (−1)n
δ(ν1 , . . . , νn )(aν1 1 − λδν1 1 ) · . . . · (aνn n − λδνn n )
ν1 ,...,νn =1
n
= λ − Sp(A)λn−1 + Q̃(λ),
das Polynom Q̃(λ) ist vom Grade ≤ n − 2. Die Koeffizienten dieses Polynoms ändern
sich unter dem Koordinatenwechsel B nicht.
2
7.3.10 Bemerkung (Existenz reeller Eigenvektoren)
R
Sei λ ∈
ein Eigenwert der reellen n × n-Matrix A. Dann ist det(A − λE) = 0,
und es existiert ein ~x ∈ n \ {~0} mit (A − λE) ◦ ~x = ~0. Also besitzt A einen reellen
Eigenvektor.
R
Der folgende, für unsere Zwecke zentrale Satz verliert in den reellen Zahlen seine
Gültigkeit und ist der Grund dafür, daß die Eigenwerttheorie in komplexen Vektorräumen durchgeführt wird.
7.3.11 Satz (Fundamentalsatz der Algebra)
C
Jedes komplexe Polynom zerfällt über in Linearfaktoren. Genauer gilt: Sei P (λ) ein
Polynom vom Grade n über . Dann gibt es Zahlen s ∈ , s ≤ n, r1 , . . . , rs ∈
mit r1 + · · · + rs = n, a ∈ \ {0}, c1 , . . . , cs ∈ mit cµ 6= cν für µ 6= ν, so daß gilt:
C
C
N
C
N
P (λ) = a · (λ − c1 )r1 · . . . · (λ − cs )rs .
Man sagt, daß P (λ) in cν eine Nullstelle rν -ter Ordnung besitzt.
Der Beweis kann mit den hier zur Verfügung stehenden Mitteln nicht geführt werden
und wird im Rahmen der Funktionentheorie oder der Algebra gegeben.
Als Folgerung erhalten wir insbesondere ein Existenzresultat für komplexe Eigenwerte:
7.3.12 Satz
Jede
C-lineare Abbildung F : V
→ V besitzt mindestens einen Eigenwert.
7.3.13 Definition
N
Sei PF (λ) = (λ − λ1 )r1 · . . . · (λ − λs )rs mit λν 6= λµ für µ 6= ν, r1 , . . . , rs ∈ und
r1 + . . . + rs = n das charakteristische Polynom einer -linearen Abbildung F . Man
nennt die Nullstellenordnung rν die algebraische und die Dimension des Eigenraumes
dim Vλν die geometrische Vielfachheit des Eigenwertes λν .
C
233
7.3 Eigenwerte
7.3.14 Beispiele
(a) Sei

a1
A := 
...
..
.
O

∗
.. 
.
an
eine Dreiecksmatrix. Gemäß Satz 5.4.2 gilt:
P (λ) = (−1)n · det(A − λE) = (−1)n ·
n
Y
n
Y
(aν − λ) =
ν=1
(λ − aν ).
ν=1
Die Diagonalelemente a1 , . . . , an sind die Eigenwerte von A.
(b) Sei

O
a1
..
A := 
O
.


an
eine Diagonalmatrix. Es gilt A ◦ ~eν = aν · ~eν , d. h. ~eν ist Eigenvektor von A zum
Eigenwert aν . Die kanonische Basis ist eine Orthonormalbasis aus Eigenvektoren
von A. Die algebraischen und geometrischen Vielfachheiten der Eigenwerte
stimmen überein.
(c) Auch reelle Matrizen haben i. a. nur komplexe
Eigenwerte. Dazu berechnen wir
0 1
die Eigenwerte von A =
. Das charakteristische Polynom lautet
−1 0
−λ 1
P (λ) = det
= λ2 + 1, die Eigenwerte sind i und −i.
−1 −λ
(d) Nichtfür jedeMatrix existiert eine Basis aus Eigenvektoren. Man betrachte dazu
1 a
A=
mit a ∈ \ {0}. Es ist P (λ) = (−1)2 (1 − λ)2 = (1 − λ)2 , 1 ist
0 1
also einziger Eigenwert von A. Zur Bestimmung der Eigenvektoren ist folgendes
Gleichungssystem zu lösen:
~0 = (A − E) ◦ ~z = 0 a · z1 = a · z2 .
0 0
z2
0
C
Der Eigenraum zum einzigen Eigenwert 1 ist also
V1 = {(z1 , z2 ) ∈
C2 :
z2 = 0} = {(z1 , 0) : z1 ∈
C}.
Insbesondere existieren nicht zwei linear unabhängige Eigenvektoren von A. Die
algebraische Vielfachheit des Eigenwertes 1 ist 2, die geometrische 1.
234
7 Eigenwerte und Hauptachsentransformation
7.3.15 Folgerung
Die Determinante ist das Produkt der Eigenwerte (entsprechend ihren algebraischen
Vielfachheiten). Genauer gilt: Sei PF (λ) = (λ − λ1 )r1 · . . . · (λ − λs )rs mit λν 6= λµ
für µ 6= ν, r1 , . . . , rs ∈ und r1 + . . . + rs =Qn das charakteristische Polynom der
-linearen Abbildung F . Dann gilt: det(F ) = sν=1 λrνν .
N
C
Beweis
Wir haben
n
PF (λ) = (−1) det(F − λ id) =
s
Y
(λ − λν )rν .
ν=1
Durch Einsetzen von λ = 0 folgt
det(F ) =
s
Y
λrνν .
2
ν=1
Eigenvektoren normaler Matrizen
Am Ende von Abschnitt 7.2 haben wir die normalen Matrizen auf zunächst wenig
anschauliche Weise als Oberbegriff für die Hermiteschen und unitären Matrizen eingeführt. Die nächsten Sätze verdeutlichen, wie wichtig dieser neue Begriff tatsächlich
ist.
7.3.16 Satz
Die n × n-Matrix A sei normal. Dann ist λ Eigenwert von A genau dann, wenn λ̄
Eigenwert der adjungierten Abbildung Āt ist; die Eigenräume stimmen überein:
Vλ (A) = Vλ̄ (Āt ).
Beweis
Zunächst sei bemerkt, daß mit A auch A − λ E normal ist.
Sei ~z ∈ Vλ (A), also A ◦ ~z − λ ~z = ~0. Mit Hilfe von Satz 7.2.22 folgt
0 = k A ◦ ~z − λ~z k2 = ((A − λE) ◦ ~z, (A − λE) ◦ ~z )
t
t
= (A − λE) ◦ ~z, (A − λE) ◦ ~z
= (Āt − λ̄ · E) ◦ ~z, (Āt − λ̄ · E) ◦ ~z
= k Āt ◦ ~z − λ̄ · ~z k2 ;
Ā ◦ ~z = λ̄ · ~z.
t
t
t
Somit ist Vλ (A)
t⊂
Vλ̄ (Ā ). Derselbe Schluß, nun angewandt auf λ̄ und Ā , zeigt
Vλ̄ (Āt ) ⊂ Vλ̄¯ Āt = Vλ (A) und damit auch Vλ (A) = Vλ̄ (Āt ).
2
235
7.3 Eigenwerte
7.3.17 Satz
Je zwei Eigenvektoren ~z1 , ~z2 einer normalen Matrix A zu verschiedenen Eigenwerten
λ1 6= λ2 sind orthogonal.
Beweis
Gemäß Voraussetzung ist A ◦ ~z1 = λ1~z1 , A ◦ ~z2 = λ2~z2 ; der vorhergehende Satz
impliziert Āt ◦ ~z1 = λ̄1~z1 , Āt ◦ ~z2 = λ̄2~z2 . Damit folgt:
λ2 (~z1 , ~z2 ) = (~z1 , λ2~z2 ) = (~z1 , A ◦ ~z2 )
= (Āt ◦ ~z1 , ~z2 ) = (λ̄1 ◦ ~z1 , ~z2 ) = λ1 (~z1 , ~z2 ),
0 = (λ1 − λ2 )(~z1 , ~z2 ).
Aus der Verschiedenheit der Eigenwerte erhalten wir die Orthogonalität der Eigenvektoren: (~z1 , ~z2 ) = 0.
2
Eigenwerte Hermitescher Matrizen
7.3.18 Satz
Alle Eigenwerte Hermitescher Matrizen sind reell.
Beweis
Sei A = An,n Hermitesch mit Eigenvektor ~z ∈
Satz 7.2.18 zeigt:
Cn \ {~0} zum Eigenwert λ ∈ C.
λk ~z k2 = λ(~z, ~z ) = (~z, λ · ~z ) = (~z, A ◦ ~z ) ∈
Wegen k ~z k2 ∈
R \ {0} folgt, daß λ reell ist.
R.
2
7.3.19 Beispiele
(a) Für die Hermitesche 2 × 2-Matrix
A=
1 −3i
3i
1
lautet das charakteristische Polynom
P (λ) = det(A − λ E) = det
1−λ
3i
−3i
1−λ
= (λ − 1)2 − 9 = (λ − 4)(λ + 2);
die Eigenwerte sind λ1 = 4 und λ2 = −2.
= (1 − λ)2 + 9i2
236
7 Eigenwerte und Hauptachsentransformation
(b) Wir betrachten nun die reelle symmetrische 3 × 3-Matrix
 7
1 
− 23
6
6
2
2
A =  − 23
−
.
3
3
1
2
7
−
6
3
6
Das charakteristische Polynom lautet

(7 − 6λ)
−4
1
det  −4
(4 − 6λ)
P (λ) = (−1)3 det(A − λ E) = −
216
1
−4


(7 − 6λ)
−4
1
1
=−
det 
24(1 − λ)
−6(2 + λ) 0 
216
12(−3λ2 + 7λ − 4) 24(1 − λ) 0
72 =−
8(1 − λ)2 + (2 + λ)(−3λ2 + 7λ − 4)
216
1
= − −3λ3 + 9λ2 − 6λ = λ(λ − 1)(λ − 2),
3

1
−4 
(7 − 6λ)
wir haben also die drei Eigenwerte λ1 = 0, λ2 = 1, λ3 = 2.
Eigenwerte unitärer Matrizen
7.3.20 Satz
Für jeden Eigenwert λ einer unitären Matrix A gilt |λ| = 1.
Beweis
Sei λ Eigenwert von A ∈ U (n) zum Eigenvektor ~z ∈
unitären Matrix impliziert
Cn \ {~0}. Die Längentreue der
k ~z k2 = k A ◦ ~z k2 = (A ◦ ~z, A ◦ ~z ) = (λ · ~z, λ · ~z ) = λλ̄ k ~z k2 .
Da k ~z k2 6= 0 ist, folgt |λ| = 1.
7.3.21 Satz
R
2
Sei A ∈ O(n, ) eine reelle orthogonale Matrix. Die Raumdimension n sei ungerade.
Dann ist +1 oder −1 Eigenwert von A. Ist A sogar eine Drehung, d. h. A ∈ SO(n, ),
dann ist +1 Eigenwert von A.
Wir werden auf S. 257 mit Hilfe der Diagonalisierungsresultate erläutern, daß in
der zu +1 gehörige Eigenvektor als Drehachse interpretiert werden kann.
R
R3
237
7.3 Eigenwerte
Beweis
Das charakteristische Polynom PA (λ) von A hat reelle Koeffizienten und wird hier
als Funktion → aufgefaßt. Der Term höchster Ordnung ist λn mit der ungeraden
Potenz n. Aus der Analysis weiß man limλ→∞ PA (λ) = +∞ und limλ→−∞ PA (λ) =
−∞. Der Zwischenwertsatz ergibt die Existenz wenigstens einer reellen Nullstelle λ0
mit |λ0 | = 1, denn A ist orthogonal und insbesondere unitär.
R R
Die nichtreellen Eigenwerte von A treten immer in zueinander konjugierten Paaren
auf: Sei λ1 Eigenwert von A, d. h. Nullstelle des charakteristischen Polynoms
0 = PA (λ1 ) =
λn1
+
n−1
X
aν λν1 ,
aν ∈
R.
ν=0
Durch Konjugation erhält man
0 = PA (λ1 ) =
λn1
+
n−1
X
aν λν1
ν=0
=
λ̄n1
+
n−1
X
aν λ̄ν1 ,
ν=0
λ̄1 ist also ebenfalls Eigenwert. Indem man den quadratischen Faktor (λ − λ1 )(λ − λ̄1 )
abspaltet, der nur reelle Koeffizienten besitzt, und das Verfahren iteriert, erhält man:
Die Matrix A hat 0 ≤ k ≤ (n − 1)/2 (nicht notwendigerweise verschiedene) Paare
zueinander konjugiert komplexer Eigenwerte λ1 , λ̄1 , . . . , λk , λ̄k und eine ungerade
Anzahl reeller Eigenwerte λ2k+1 , . . . , λn ∈ {+1, −1}; die Eigenwerte werden jeweils
entsprechend ihrer algebraischen Vielfachheit aufgeführt. Die Determinante ist das
Produkt der Eigenwerte:
det(A) = |λ1 |2 · . . . · |λk |2 · λ2k+1 · . . . · λn = λ2k+1 · . . . · λn .
Ist nun det(A) = +1, so können nicht alle reellen Eigenwerte = −1 sein, denn
n wurde als ungerade vorausgesetzt. In diesem Fall ist +1 (zumindest einfacher)
Eigenwert von A.
2
7.3.22 Beispiel
Durch direktes Nachrechnen sieht man, daß die reelle 3 × 3-Matrix
√
√


2
2
1
1
1
−
−
+
+
2
4√
2 √4
2

2
1
1
A =  − 12 + 42

−
+
4
2
2
1
2
1
2
√
2
2
orthogonal ist, daß also At ◦A = E gilt. Wir berechnen das charakteristische Polynom:
√
√


2
1
− 12
−λ
− 12 + 42
2 + 4 √
√


2
1
PA (λ) = − det(A − λ E) = − det  − 12 + 42
− 12 
2 + 4 −λ
1
2
1
2
√
2
2
−λ
238
7 Eigenwerte und Hauptachsentransformation

=
=
=
√
2
−λ
4 √

1
− det  − 2 + 42
1
√2

2
1
2 + 4 −λ
 √2
− det 
2 −λ
1
2
√
2
2 −
(λ − 1) · det
1
2
1
2
+
−1 + λ
− 12

1−λ
− 12


√
2
2
0
−1 + λ
0
λ
− 12

−1


√
2
2
0
−1
−λ
−λ
= (λ − 1) · 
−λ
√ !
√
√ !
√
2
2
2
2
,
+i
· λ−
λ−
−i
2
2
2
2
= (λ − 1) ·
√
2
2
√
die Eigenwerte von A lauten also λ1 =
√
folgt auch det(A) =
√

!
2
2 (1
√
+ i) ·
2
2 (1
2
2 (1+i), λ2
2
−λ
2
!2

1
+
2
√
=
2
2 (1−i) und λ3
= 1. Daraus
− i) · 1 = 1, also ist A eine Drehung.
Wir bestimmen die Drehachse (sie sei vorbehaltlich der nachzutragenden Erläuterungen
von S. 257 bereits so bezeichnet), d. h. den Eigenvektor zum Eigenwert 1, als nichttriviale Lösung des linearen Gleichungssystems
√
√


− 12
− 21 + 42 − 12 + 42
√
√

~0 = (A − E) ◦ ~x = 
 − 12 + 42 − 12 + 42
− 12  ◦ ~x.
1
2
1
2
√
2
2
−1
Etwa mittels des Gaußschen Algorithmus’ findet man, daß dieses Gleichungssystem
eine linear unabhängige Lösung hat. Der Lösungsraum (die Drehachse) wird von dem
√
t
√
Einheitsvektor ~x = 22 , − 22 , 0 aufgespannt.
7.4 Die Hauptachsentransformation
C
In diesem Abschnitt betrachten wir nur n × n-Matrizen A ∈ n×n bzw. A ∈
n×n und die entsprechenden linearen Abbildungen F :
n →
n bzw. F :
n →
n . Lineare Abbildungen allgemeiner endlichdimensionaler Vektorräume
in sich könnten, wie schon erwähnt, durch die Einführung unitärer Koordinaten
auf diesen Fall zurückgeführt werden, die relevanten Eigenschaften wie normal“,
”
selbstadjungiert“ oder unitär“ blieben dabei erhalten.
”
”
Sei also F : n → n eine lineare Abbildung mit zugehöriger n × n-Matrix
A. Wir können uns nun der zu Beginn dieses Kapitels wieder aufgeworfenen Frage
zuwenden: Unter welchen Bedingungen an die Matrix A läßt sich ein orthonormiertes
Koordinatensystem (~b1 , . . . , ~bn ) in n so geschickt einzeichnen“, daß die Abbildung
”
R
R
C
R
C
C
C
C
239
7.4 Die Hauptachsentransformation
F in den durch die unitäre Matrix B = (~b1 , . . . , ~bn ) bzw. die entsprechende unitäre
Karte G : n → n gegebenen Koordinaten
C
C
F̂ = G−1 ◦ F ◦ G
mit Matrix
 = B̄ t ◦ A ◦ B
Diagonalgestalt hat?
Wir werden zeigen, daß ein solches Diagonalisierungsresultat genau in der Klasse der
normalen Matrizen Gültigkeit besitzt. Insbesondere folgt damit die Diagonalisierbarkeit unitärer und Hermitescher Matrizen. Da die Eigenwerte reeller symmetrischer
Matrizen sämtlich reell sind, erhalten wir daraus unmittelbar ein Diagonalisierungsresultat auch im Reellen, während der Übergang vom unitären zum reell orthogonalen
Fall größere Modifikationen erfordert.
Transformation auf Dreiecksgestalt, Trigonalisierung
Wir werden zunächst beweisen, daß jede komplexe n × n-Matrix durch eine unitäre
Transformationsmatrix auf Dreiecksgestalt gebracht werden kann, und daraus später
unsere Diagonalisierungsresultate herleiten.
Zur Vorbereitung dienen die folgenden beiden Hilfssätze:
7.4.1 Satz
Sei m < n und B 00 ∈
Cm×m eine unitäre m × m-Matrix. Dann ist
B :=
E n−m,n−m
Om,n−m
On−m,m
B 00
∈
Cn×n
ebenfalls unitär.
Beweis
C
C
n beliebig. Wir bezeichnen ~
n−m und
Sei ~z ∈
z 0 := (z1 , . . . , zn−m )t ∈
00
t
m
~z := (zn−m+1 , . . . , zn ) ∈
. Auf Grund der Nullblöcke in B ist B ◦ ~z =
(~z 0 , B 00 ◦ ~z 00 )t ∈ n−m ⊕ m . Wir greifen noch auf die Definition der euklidischen
Norm in n zurück und erhalten
C
C
C
C
k B ◦ ~z k2 = k ~z 0 k2 + k B 00 ◦ ~z 00 k2 = k ~z 0 k2 + k ~z 00 k2 = k ~z k2 .
7.4.2 Satz
2
C
Zu je zwei Einheitsvektoren ~z, w
~ ∈ n (d. h. k ~z k = k w
~ k = 1) existiert eine unitäre
n × n-Matrix B ∈ U (n) mit w
~ = B ◦ ~z.
Beweis
Genauso wie in Satz 6.3.5 beweist man: es gibt Vektoren ~z2 , . . . , ~zn derart, daß
(~z, ~z2 , . . . , ~zn ) ein orthogonales n-Bein ist, d. h. nach Satz 7.2.14 ist B1 :=
240
7 Eigenwerte und Hauptachsentransformation
(~z, ~z2 , . . . , ~zn ) ∈ U (n). Es gilt
B1 ◦ ~e1 = ~z, also ~e1 = B1−1 ◦ ~z = B̄1t ◦ ~z.
Entsprechend konstruiert man ein B2 ∈ U (n) mit B2 ◦ ~e1 = w.
~ Für B := B2 ◦ B̄1t ∈
U (n) ist dann in der Tat B ◦ ~z = B2 ◦ ~e1 = w.
~
2
7.4.3 Satz
Zu jeder komplexen n × n-Matrix A existiert eine unitäre n × n-Matrix B ∈ U (n)
derart, daß Â := B̄ t ◦ A ◦ B eine (obere) Dreiecksmatrix ist, daß also âµν = 0 gilt für
µ > ν.
Beweis
Wir führen den Beweis durch vollständige Induktion nach n. Bei der Induktionsbasis
n = 1 ist nichts zu zeigen, denn jede 1 × 1- Matrix“ ist eine Dreiecks- Matrix“.
”
”
Sei nun n > 1, und wir nehmen an, die Behauptung sei für n − 1 bewiesen. Das
charakteristische Polynom P (λ) = PA (λ) der n × n-Matrix A zerfällt über
in
Linearfaktoren, es gibt also einen Eigenwert λ1 ∈
mit zugehörigem Eigenvektor
~z1 6= ~0. Wir können den Eigenvektor normieren und ohne Einschränkung k ~z1 k = 1
annehmen. Gemäß Satz 7.4.2 existiert eine unitäre Abbildung B1 ∈ U (n), die den
ersten Einheitsvektor auf diesen Eigenvektor abbildet: B1 ◦ ~e1 = ~z1 .
C
C
Für
A1 := B̄1t ◦ A ◦ B1
gilt
A1 ◦ ~e1 = B̄1t ◦ A ◦ (B1 ◦ ~e1 ) = B̄1t ◦ (A ◦ ~z1 ) = B̄1t ◦ (λ1~z1 ) = λ1~e1 ,
also

λ1
0
A1 = 
 ...
0
∗

A0



mit einer (n − 1) × (n − 1)-Matrix A0 . Nach Induktionsvoraussetzung existiert ein
t
B 0 ∈ U (n − 1), so daß in B̄ 0 ◦ A0 ◦ B 0 unterhalb der Diagonalen ausschließlich Nullen
stehen. Auf die in Satz 7.4.1 beschriebene Weise erhalten wir aus B 0 eine n-reihige
unitäre Matrix:
1
O1,n−1
B2 :=
∈ U (n).
On−1,1
B0
Wir betrachten die Hintereinanderschaltung
B := B1 ◦ B2 ∈ U (n)
241
7.4 Die Hauptachsentransformation
der unitären Transformationen B1 und B2 . Für
t
 := B̄2t ◦ A1 ◦ B2 = B̄2t ◦ B̄1t ◦ A ◦ B1 ◦ B2 = (B1 ◦ B2 ) ◦ A ◦ (B1 ◦ B2 ) = B̄ t ◦ A ◦ B
erhalten wir nun Dreiecksgestalt:
1 O
λ1 ∗
1 O
 =
◦
◦
t
O B̄ 0
O A0
O B0
λ1
∗
1 O
λ1
∗
=
◦
=
.
t
t
O B̄ 0 ◦ A0
O B0
O B̄ 0 ◦ A0 ◦ B 0
2
Im Beweis haben wir wesentlichen Gebrauch vom Fundamentalsatz der Algebra
gemacht. Betrachtet man eine reelle Matrix A, so hat deren charakteristisches Polynom
PA (λ) zwar nur reelle Koeffizienten, der Fundamentalsatz der Algebra besitzt im
Reellen jedoch keine Gültigkeit. Tatsächlich wird der soeben bewiesene Satz in dieser
Situation im allgemeinen falsch:
7.4.4 Beispiel
0
1
−1
. Für beliebiges
0
Wir betrachten die reelle normale 2 × 2-Matrix A =
a b
B=
∈ O(2, ) berechnet man
c d
0
−ad + bc
0
− det(B)
t
B ◦A◦B =
=
;
−bc + ad
0
det(B)
0
R
Dreiecksgestalt
komplexen unitären Matrix C =
läßt sich nicht erreichen.Mit der √
1
1
−i
0
2
ist dagegen C̄ t ◦ A ◦ C =
.
2
i −i
0 i
Um das reelle Analogon von Satz 7.4.3 zu beweisen, haben wir also die Existenz von
reellen Eigenwerten vorauszusetzen.
7.4.5 Satz
Die reelle n × n-Matrix A habe nur reelle Eigenwerte, d. h. das charakteristische
Polynom PA (λ) zerfalle über in Linearfaktoren. Dann existiert eine (reelle) Matrix
B ∈ SO(n) derart, daß Â = B −1 ◦ A ◦ B = B t ◦ A ◦ B eine Dreiecksmatrix ist.
R
Beweis
Weil wir hier weitgehend parallel zum Beweis von Satz 7.4.3 vorgehen, wird nur der
Induktionsschritt skizziert.
Gemäß Voraussetzung existiert ein Eigenwert λ1 ∈
kung 7.3.10 gibt es zu λ1 einen reellen Eigenvektor:
A ◦ ~x1 = λ1 · ~x1 mit ~x1 ∈
Rn ,
R
von A, wegen Bemer-
k ~x1 k = 1.
242
7 Eigenwerte und Hauptachsentransformation
In Satz 6.3.5 haben wir eine Drehung B1 ∈ SO(n) konstruiert mit ~x1 = B1 ◦ ~e1 . Die
transformierte Matrix A1 := B1t ◦ A ◦ B1 hat dasselbe Aussehen wie oben und gemäß
Satz 7.3.7 dasselbe charakteristische Polynom wie A. Ist Q(λ) das charakteristische
Polynom von A0 , so liefert die Entwicklung von det(A1 − λ E) nach der ersten Spalte
P (λ) = (λ − λ1 ) · Q(λ).
R
Also zerfällt auch Q(λ) über in Linearfaktoren. Die Induktionsvoraussetzung liefert
ein B 0 ∈ SO(n − 1), so daß B 0t ◦ A0 ◦ B 0 Dreiecksmatrix ist. Der Rest des Beweises
verläuft wie oben, wobei die Konjugationsstriche entfallen und U (n) durch SO(n) zu
ersetzen ist.
2
7.4.6 Folgerung
Die geometrische Vielfachheit eines Eigenwertes kann seine algebraische Vielfachheit
nicht übersteigen.
Beweis
Wir können uns auf den komplexen Fall beschränken: Die geometrische Vielfachheit
im Reellen kann die im Komplexen nicht übersteigen, denn reelle Vektoren, also
solche aus n , die über linear unabhängig sind, sind auch über linear unabhängig.
Die algebraischen Vielfachheiten stimmen im Reellen und Komplexen überein.
R
R
C
Sei λ0 Eigenwert der n × n-Matrix A mit geometrischer Vielfachheit s = dim Vλ0
und algebraischer Vielfachheit r. Ähnlich wie im Beweis von Satz 7.4.3 wollen wir
den Eigenraum Vλ0 von n abspalten. Sei dazu ~z1 , . . . , ~zs eine Orthonormalbasis von
Vλ0 , diese können wir durch Verwendung des Schmidtschen Orthonormalisierungsverfahrens zu einem orthogonalen n-Bein ~z1 , . . . , ~zn ergänzen. Die Matrix B1 :=
(~z1 , . . . , ~zn ) ist also unitär. Mit der Wahl von A1 := B̄1t ◦A◦B1 folgt für ν = 1, . . . , s:
A1 ◦ ~eν = B̄1t ◦ A ◦ (B1 ◦ ~eν ) = B̄1t ◦ (A ◦ ~zν ) = λ0 B̄1t ◦ ~zν = λ0~eν ,
C
also
Zeile/
Spalte  1
1
A1 =
···
s+1
···
..
.
∗
λ0
O
n

O
λ0
.. 
.

s O

s+1 
.. 
.
s
A0




.



n
t
Gemäß Satz 7.4.3 existiert eine unitäre Matrix B 0 ∈ U (n − s), so daß B̄ 0 ◦ A0 ◦ B 0
Dreiecksgestalt hat. Mit
s,s
E
O
B2 :=
∈ U (n)
O
B0
243
7.4 Die Hauptachsentransformation
erhalten wir wie in Satz 7.4.3
Zeile/
Spalte  1
1
 := B̄2t ◦ A1 ◦ B2 =
···
s
n

O
λ0
.. 
.

s O

s+1 
.. 
.
···
s+1
..
.
∗
λ0
t
B̄ 0 ◦ A0 ◦ B 0
O








n
Zeile/
Spalte  1
.. 
.

s
O
s+1 

.. 
.
s
s+1
···
..
.
∗
λ0
λs+1
..
O
O
n
n

O
λ0
1
=
···
.




.
∗ 



λn
Die Matrizen
QA und  haben dasselbe charakteristische Polynom, es lautet P (λ) =
(λ − λ0 )s · nν=s+1 (λ − λν ). Die Nullstellen λν sind i. a. nicht paarweise und auch
nicht von λ0 verschieden, es folgt s ≤ r.
2
Diagonalisierbarkeit normaler Matrizen
Wir wollen zeigen, daß die Dreiecksmatrix aus Satz 7.4.3 sogar eine Diagonalmatrix
ist, sofern eine normale Matrix vorgegeben wurde. Hier liegt die Beobachtung zugrunde, daß Normalität unter unitären Koordinatentransformationen erhalten bleibt:
7.4.7 Satz
C
Die Matrix A ∈ n×n sei normal. Dann ist B̄ t ◦ A ◦ B für jede unitäre Matrix
B ∈ U (n) ebenfalls normal.
Beweis
t
t
(B̄ t ◦ A ◦ B) ◦ B̄ t ◦ A ◦ B − B̄ t ◦ A ◦ B ◦ (B̄ t ◦ A ◦ B)
= B̄ t ◦ Āt ◦ B ◦ B̄ t ◦ A ◦ B − B̄ t ◦ A ◦ B ◦ B̄ t ◦ Āt ◦ B
= B̄ t ◦ Āt ◦ A ◦ B − B̄ t ◦ A ◦ Āt ◦ B
= B̄ t ◦ Āt ◦ A − A ◦ Āt ◦ B = O.
2
244
7 Eigenwerte und Hauptachsentransformation
7.4.8 Satz
Zu jeder normalen Matrix A ∈
Cn×n existiert eine unitäre Matrix B ∈ U (n) derart,
daß Â := B̄ t ◦ A ◦ B Diagonalgestalt hat. Die Spalten von B = ~b1 , . . . , ~bn bilden
eine Orthonormalbasis von n aus Eigenvektoren von A. Die Diagonalelemente von
 sind genau die Eigenwerte von A entsprechend ihren geometrischen Vielfachheiten.
C
Beweis
Gemäß Satz 7.4.3 finden wir eine unitäre Matrix B ∈ U (n), so daß Â := B̄ t ◦
A ◦ B Dreiecksgestalt hat; Â ist ebenfalls normal. Es bleibt zu zeigen, daß normale
Dreiecksmatrizen schon Diagonalmatrizen sind.
Wir haben âµν = 0 für µ > ν. Die Normalität ergibt für µ = 1, . . . , n:
0=
µ
n
X
X
2
¯
¯
âσµ âσµ − âµσ âµσ =
|âσµ | −
|âµσ |2
n
X
σ=1
=
σ=1
µ−1
X
n
X
|âσµ |2 −
σ=1
σ=µ
|âµσ |2 .
σ=µ+1
Die Betrachtung von µ = 1 ergibt
0=
n
X
|â1σ |2 ,
â1σ = 0 für σ = 2, . . . , n.
σ=2
Wir fahren induktiv fort und nehmen an, wir hätten im k-ten Schritt âµσ = 0 für σ =
µ + 1, . . . , n, µ = 1, . . . , k erreicht. Durch Betrachtung von µ = k + 1 folgt:
0=
k
X
2
|âσ,k+1 | −
σ=1
n
X
2
|âk+1,σ | = −
σ=k+2
n
X
|âk+1,σ |2 ,
σ=k+2
also ist auch âk+1,σ = 0 für σ = k + 2, . . . , n.
Nach (n−1) Schritten erhalten wir, daß âµν = 0 auch für alle µ, ν mit µ < ν ist. Auch
oberhalb der Diagonalen enthält  nur Nullen und ist folglich eine Diagonalmatrix.
Da die Matrix B unitär ist, bilden deren Spalten ein orthogonales n-Bein, also eine
Orthonormalbasis von n . Wir haben zu zeigen, daß es sich dabei um Eigenvektoren
von A handelt. Aus  = B̄ t ◦ A ◦ B folgt B ◦  = A ◦ B. Wir betrachten jeweils die
ν-te Spalte:
C
A ◦ ~bν = B ◦ ~âν = B ◦ (âνν ~eν ) = âνν (B ◦ ~eν ) = âνν ◦ ~bν ,
in der Tat ist ~bν Eigenvektor von A zum Eigenwert λν := âνν . Jeder Eigenwert tritt
gemäß seiner geometrischen Vielfachheit auf, denn die Anzahl der entsprechenden
Eigenvektoren in B ist gerade die Dimension des Eigenraums. Somit sind â11 , . . . , ânn
245
7.4 Die Hauptachsentransformation
genau die Eigenwerte von A, denn A und  haben dieselben Eigenwerte mit denselben
geometrischen Vielfachheiten.
2
Mit den normalen Matrizen haben wir die größtmögliche Klasse derjenigen Matrizen
bestimmt, die mit Hilfe unitärer Koordinatenwechselabbildungen diagonalisiert werden können:
7.4.9 Satz
Für die n × n-Matrix A existiere eine unitäre n × n-Matrix B ∈ U (n) derart, daß
B̄ t ◦ A ◦ B Diagonalgestalt hat. Dann ist A normal.
Beweis
Es bezeichne

O
d1
..
D=
 = B̄ t ◦ A ◦ B;
.
O
dn
diese Diagonalmatrix ist normal:
¯
d1
t
D̄ ◦ D = 
O
..
O
¯
d1 · d1

=
O

 
..
◦
.
d¯n
O
..
O
d1
O

.


dn
 = D ◦ D̄t .
.
d¯n · dn
t
Nun ist A = B ◦ D ◦ B̄ t = B̄ t ◦ D ◦ B̄ t mit B̄ t ∈ U (n), und A ist gemäß Satz 7.4.7
normal.
2
Das reelle Analogon zu Satz 7.4.8 leitet man mit wörtlich demselben Beweis aus
Satz 7.4.5 her.
7.4.10 Satz
Die reelle n × n-Matrix A sei normal und habe nur reelle Eigenwerte. Dann existiert
eine reelle Drehung B ∈ SO(n) derart, daß Â := B t ◦A◦B eine reelle Diagonalmatrix
ist.
Bezüglich jeder normalen Matrix können wir mit Hilfe des Diagonalisierungssatzes
den n in eine orthogonale Summe über deren Eigenräume zerlegen:
C
246
7 Eigenwerte und Hauptachsentransformation
7.4.11 Satz
Es seien λ1 , . . . , λs sämtliche paarweise verschiedenen Eigenwerte einer normalen
n × n-Matrix A. Dann besitzt n eine orthogonale Zerlegung in die Eigenräume
von A:
n
= ⊕sν=1 Vλν .
Qs
rν das charakteristische Polynom von A, so ist r =
Ist P (λ) =
ν
ν=1 (λ − λν )
dim Vλν , die geometrischen und algebraischen Vielfachheiten der Eigenwerte stimmen
also überein.
C
C
Beweis
Die Orthogonalität der Eigenräume wurde bereits in Satz 7.3.17 nachgewiesen.
Sei B ∈ U (n) derart,
daß Â := B̄ t ◦ A ◦ B Diagonalgestalt hat, die Spalten
B = ~b1 , . . . , ~bn bilden eine Orthonormalbasis von Eigenvektoren von A, in der
Diagonalen von  treten die Eigenwerte von  und damit die von A entsprechend
ihrer geometrischen Vielfachheit dim Vλν auf; man beachte, daß sich geometrische
Vielfachheiten bei Koordinatenwechseln nicht ändern. In  und folglich auch in
A stimmen somit offensichtlich geometrische und algebraische Vielfachheiten rν
überein: rν = dim Vλν . Indem man ggfs. die Spalten von B vertauscht, kann man
erreichen:
~b1 , . . . , ~br
sind Eigenvektoren zu λ1 ,
1
~br +1 , . . . , ~br +r
sind Eigenvektoren zu λ2 ,
1
1
2
..
.
~br +...+r +1 , . . . , ~bn sind Eigenvektoren zu λs .
1
s−1
C
Da jedes Element ~z ∈ n eine Darstellung in der Basis {~b1 , . . . , ~bn } besitzt, folgt
durch entsprechende Klammerung die Zerlegung von ~z in Komponenten in den
jeweiligen Eigenräumen:


!
!
r1
rX
n
n
1 +r2
X
X
X
~z =
cν~bν =
cν~bν +
cν~bν + . . . + 
cν~bν 
ν=1
ν=1
=: ~z1 + . . . + ~zs ,
ν=r1 +1
ν=r1 +...+rs−1 +1
mit ~zν ∈ Vλν .
Die Eindeutigkeit dieser Darstellung folgt aus der Orthogonalität der Eigenräume. 2
Die Hauptachsentransformation für Hermitesche und reell
symmetrische Matrizen
Wir erhalten den folgenden Satz direkt aus dem Diagonalisierungsresultat für normale
Matrizen Satz 7.4.8 zusammen mit der Beobachtung aus Satz 7.3.18, daß Eigenwerte
Hermitescher Matrizen stets reell sind:
247
7.4 Die Hauptachsentransformation
7.4.12 Satz (Hauptachsentransformation)
Zu jeder Hermiteschen n × n-Matrix A existiert eine unitäre Matrix B ∈ U (n) derart,
daß Â := B̄ t ◦ A ◦ B eine reelle Diagonalmatrix ist.
Man erhält das reelle Analogon, indem man auf Satz 7.4.10 anstatt auf Satz 7.4.8
verweist.
7.4.13 Satz (Hauptachsentransformation)
Sei A eine symmetrische reelle n × n-Matrix. Dann existiert eine Drehung B ∈
SO(n, ) derart, daß Â := B t ◦ A ◦ B eine (reelle) Diagonalmatrix ist.
R
7.4.14 Bemerkung
Um den Begriff Hauptachsentransformation“ zu erläutern, betrachten wir zunächst
”
eine reelle n × n-Diagonalmatrix  mit den (nicht notwendigerweise verschiedenen)
Diagonalelementen λ1 , . . . , λn . Unter dieser Abbildung wird die Einheitskugel
K = ~x ∈ n : k ~x k2 ≤ 1
R
auf ein Ellipsoid
(
E=
~x ∈
R
n
:
n
X
x2
ν
λ2ν
ν=1
)
≤1
abgebildet. Die Basisvektoren λν ~eν sind die Hauptachsen dieses Ellipsoids.
R
R
Sei nun A ∈ n×n eine symmetrische Matrix und B ∈ SO(n, ) eine Transformationsmatrix derart, daß die Abbildung in diesen Koordinaten Diagonalgestalt
 := B t ◦ A ◦B wie oben hat. Man kann also in n eine Orthonormalbasis
B = ~b1 , . . . , ~bn einzeichnen“, so daß unter der Abbildung A die Einheitskugel
”
K in ein Ellipsoid mit den Basisvektoren λν~bν als Hauptachsen übergeht.
R
7.4.15 Beispiel
Eine wichtige Anwendung des Diagonalisierungssatzes für reell symmetrische Matrizen findet man in der Theorie der Drehbewegung starrer Körper. Für eine ausführliche
Darstellung verweisen wir auf die Lehrbücher der Mechanik wie etwa das von Á. Budó
[1, §§ 51 ff].
Wir stellen uns einen solchen Körper vor und legen den Ursprung und ein orthogonales
Koordinatensystem in dessen Schwerpunkt. Wir betrachten Drehbewegungen nur um
Achsen, die durch diesen Ursprung gehen, um insgesamt resultierende Kräfte auf diese
~ und
Achsen zu vermeiden. Der Zusammenhang zwischen dem Drehimpulsvektor L
der Winkelgeschwindigkeit ω
~ wird durch den Trägheitstensor“
”


j11 −j12 −j13
J =  −j21 j22 −j23  ∈ 3×3
−j31 −j32 j33
R
248
7 Eigenwerte und Hauptachsentransformation
vermittelt:
~ =J ◦ω
L
~.
Dabei sind die Diagonalelemente jνν die Trägheitsmomente“ bzgl. der Rotation um
”
die xν -Achse und jµν für µ 6= ν Deviationsmomente“. Die Deviationsmomente sind
”
ein Maß dafür, wie sehr bei der Rotation um die Koordinatenachsen Drehmomente
auf diese Achsen auftreten, die deren Lage zu ändern versuchen. Bei realen Bewegungen von Maschinen oder Fahrzeugen müssen diese Momente von den Lagern der
Achse kompensiert werden und führen zu einem unrunden“ Lauf und erhöhtem Ver”
schleiß. Deshalb ist man bemüht, die Drehachse und damit ω
~ so einzurichten, daß
Drehimpuls und Winkelgeschwindigkeit parallel sind. Es sind also die Eigenvektoren
des Trägheitstensors J zu bestimmen.
Den definierenden Gleichungen für dessen Komponenten entnimmt man (vgl.
[1, § 51]), daß
J symmetrisch ist. Er besitzt somit eine Orthoo
n der Trägheitstensor
~
~
~
normalbasis b1 , b2 , b3 aus Eigenvektoren, den Hauptträgheitsachsen“ des Körpers
”
im Schwerpunkt. Führt man die durch B = ~b1 , ~b2 , ~b3 gegebenen Koordinaten ein,
so lautet der Trägheitstensor in diesen Koordinaten:


ĵ11 0
0
Jˆ := B t ◦ J ◦ B =  0 ĵ22 0  .
0
0 ĵ33
Bezüglich der Hauptträgheitsachsen ~b1 , ~b2 , ~b3 treten keine Deviationsmomente auf.
Unter Auswuchten“ eines Körpers versteht man dessen Veränderung der”
art, daß die (fest vorgegebene) Drehachse zu einer Hauptträgheitsachse im
Schwerpunkt wird.
7.4.16 Beispiele
Wir setzen hier die Behandlung der Beispiele 7.3.19 fort.
1 −3i
(a) Für A =
hatten wir dort λ1 = 4 und λ2 = −2 als Eigenwerte
3i
1
bestimmt. Zugehörige Eigenvektoren findet man als nichttriviale Lösungen der
Gleichungssysteme
~0 = (A − λ1 E) ◦ ~x1 = −3 −3i ◦ ~x1
3i −3
und
~0 = (A − λ2 E) ◦ ~x2 =
3 −3i
3i
3
◦ ~x2 .
249
7.4 Die Hauptachsentransformation
Man berechnet sofort ~x1 = (−i, 1)t und ~x2 = (i, 1)t als Lösungsvektoren. Durch
Normieren erhält man die Transformationsmatrix
√
√ !
√ 2 −i i
−i 22 i 22
√
√
B=
=
.
2
2
1 1
2
2
2
Hiermit gilt
√
 = B̄ ◦ A ◦ B =
=
√
2
2√
i
t
2
√2
2
2
−i
2
2
4
0
0
−2
√
! 1 −3i
◦
◦
3i
1
2
√2
2
2
−i
√
2
√2
2
2
i
!
.
(b) Die Eigenwerte von

7
6
− 23
1
6
− 23
A =  − 23
2
3
1
6

− 23 
7
6
lauten λ1 = 0, λ2 = 1, λ3 = 2. Als zugehörige Eigenvektoren bestimmt man mit
dem Gaußschen Algorithmus beispielsweise ~x1 = (1, 2, 1)t , ~x2 = (−1, 0, 1)t
und ~x3 = (1, −1, 1)t . Durch Normieren gelangt man zu der Transformationsmatrix

 1
√
√ 

√
√1
− √12
1 − 3
6
3
√2
1
 2
0
− √13 
B =  √6
−√ 2  ,
 = √  2 √0
6 1
3
2
√1
√1
√1
6
2
3
es ist

det(B) =
1
63/2
1
det  0
0
√
−√ 3
2√3
2 3
√ 
2
√
√
1
−3 2  = 3/2 · 6 6 = 1.
6
0
Ohne daß eine Spalte von B durch ihr Negatives ersetzt werden müßte, haben
wir bereits B ∈ SO(3), so daß also B eine Drehung des 3 ist. In den durch B
gegebenen Koordinaten lautet nun A:
R
 = 
Bt ◦ A ◦ B
=
√1
6
 − √1

2
√1
3

0
= 0
0
0
1
0
√2
6
0
− √13

0
0.
2
√1
6
√1
2
√1
3
 
7
  62
 ◦ −3
1
6
− 23
2
3
− 23
  √1
6
2   √2
−3 ◦  6
1
6
7
6
√1
6
− √12
0
√1
2
√1
3
− √13
√1
3



250
7 Eigenwerte und Hauptachsentransformation
7.4.17 Beispiel
In der Analysis benötigt man beispielsweise bei der Behandlung gewöhnlicher Differentialgleichungssysteme die Exponentialfunktion“ quadratischer n-reihiger Matri”
zen A:
∞
X
1 k
A .
(∗)
exp(A) :=
k!
k=0
PN 1 k
(N )
:=
Die Partialsummen SN := sµν
k=0 k! A sind jeweils n × n-
µ,ν=1,...,n
(N )
Matrizen, von deren Komponenten sµν man in der
(N )
Man findet Zahlen sµν := limN →∞ sµν ∈
und
Analysis Konvergenz nachweist.
setzt exp(A) := (sµν )µ,ν=1,...,n ,
die Definition (∗) ist also im Sinne komponentenweiser Konvergenz zu verstehen. Wir
wollen uns hier aber nicht mit Konvergenz, sondern mit der Frage beschäftigen, ob
man die Komponenten von exp(A) auf einfache Weise aus den Komponenten von
A bestimmen kann. Im Falle normaler und damit insbesondere auch Hermitescher
Matrizen ist das tatsächlich möglich.
C
Sei A eine normale n × n-Matrix und B ∈ U (n) derart, daß wir Diagonalgestalt


λ1
O
..
,
 := B̄ t ◦ A ◦ B = 
λ 1 , . . . , λn ∈ ,
.
C
O
λn
erreichen. Es folgt:
A = B ◦ Â ◦ B̄ t ,
k
Ak = B ◦ Â ◦ B̄ t
= B ◦ Â ◦ B̄ t ◦ B ◦ Â ◦ B̄ t ◦ . . . ◦ B ◦ Â ◦ B̄ t

 k
λ1
O
..
 ◦ B̄ t ,
= B ◦ Âk ◦ B̄ t = B ◦ 
.
O
λkn

 k
λ1
O
∞
X
1
.

 ◦ B̄ t
.
exp(A) =
B◦
.
k!
k=0
O
λkn
 k


λ1
O
∞
X
1
..

 ◦ B̄ t
=B◦
.
k!
k=0
O
λkn

 P∞ 1 k
O
k=0 k! λ1


t
..
=B◦
 ◦ B̄
.
P∞ 1 k
O
k=0 k! λn
251
7.4 Die Hauptachsentransformation

O
exp(λ1 )
..
=B◦
O

 ◦ B̄ t .
.
exp(λn )
Man erhält die Exponentialfunktion normaler Matrizen, indem man die gewöhnliche
komplexe Exponentialfunktion der Eigenwerte berechnet und diese Diagonalmatrix
mittels B und B̄ t zurück“-transformiert. Die Eigenwerte von exp(A) sind ebenfalls
”
exp(λ1 ), . . . , exp(λn ). Die Matrizen A und exp(A) haben mit den Spalten von B
dieselben Eigenvektoren.
1 −3i
Wir berechnen exp(A) für die Hermitesche 2 × 2-Matrix A =
aus
3i 1
√
−i i
dem vorhergehenden Beispiel. Diese hatten wir mittels B = 22
∈ U (2)
1 1
4 0
diagonalisiert: Â = B̄ t ◦ A ◦ B =
. Daraus erhalten wir:
0 −2
exp(A) = B ◦ exp(Â) ◦ B̄ t
4
1 −i i
e
0
i 1
=
◦
◦
0 e−2
−i 1
2 1 1
4
−2
4
−2
1
e + e −i e − e
=
.
e4 + e−2
2 i e4 − e−2
Sesquilinearformen
C
Die Abbildung, die jedem Paar von Vektoren ~z, w
~ ∈ n die komplexe Zahl (~z, A ◦ w)
~
zuordnet, hat für Hermitesche Matrizen A ähnliche Eigenschaften wie das komplexe
Skalarprodukt. Sie ist sesquilinear und Hermitesch:
~ A ◦ ~z ),
(~z, A ◦ w)
~ = (Āt ◦ ~z, w)
~ = (A ◦ ~z, w)
~ = (w,
und wegen (~z, A ◦ ~z ) = (~z, A ◦ ~z ) ist die entsprechende quadratische Form stets
reellwertig. Die Positivität dieser Terme kann aber im allgemeinen nicht gezeigt
werden, sondern ist nur von einer Unterklassse der Hermiteschen Matrizen erfüllt:
7.4.18 Definition
(a) Eine Hermitesche Matrix A ∈
für alle ~z ∈ n \ {~0} gilt.
C
(b) Eine symmetrische Matrix A ∈
für alle ~x ∈ n \ {~0} gilt.
R
Cn×n heißt positiv definit, falls (~z, A ◦ ~z ) > 0
Rn×n heißt positiv definit, falls ~x · (A ◦ ~x) > 0
Mit Hilfe der Hauptachsentransformation kann man die positive Definitheit einer
Matrix leicht erkennen.
252
7 Eigenwerte und Hauptachsentransformation
7.4.19 Satz
Eine komplexe Hermitesche (bzw. reelle symmetrische) n×n-Matrix A ist genau dann
positiv definit, wenn alle Eigenwerte von A positiv sind.
Beweis
Hier werden nur komplexe Hermitesche Matrizen betrachtet; der reelle Fall ist genauso
zu behandeln.
Es gibt eine unitäre Matrix B ∈ U (n) derart, daß Â = B̄ t ◦ A ◦ B eine Diagonalmatrix
ist:


λ1
O
..
.
 = 
.
O
λn
Die (nicht notwendigerweise verschiedenen) reellen Zahlen λν (ν = 1, . . . , n) sind
die Eigenwerte von  und daher auch von A. Für alle ~z ∈ n gilt mit der Setzung
w
~ := B̄ t ◦ ~z:
C
¯~ t ◦ Â ◦ w
(~z, A ◦ ~z ) = ~z¯ t ◦ B ◦ Â ◦ B̄ t ◦ ~z = w
~=
n
X
λν |wν |2 .
ν=1
Da ~z = ~0 ⇔ w
~ = B ◦ ~z = ~0, ist die Positivität der von A erzeugten quadratischen
Form
(~z, A ◦ ~z ) > 0 für alle ~z ∈ n \ {~0}
C
äquivalent zur Positivität sämtlicher Eigenwerte
λν > 0,
2
ν = 1, . . . , n.
7.4.20 Folgerung
Die reelle symmetrische n × n-Matrix A sei positiv definit. Dann besitzt A genau eine
symmetrische positiv definite Quadratwurzel C ∈ n×n , für die also C 2 = A gilt.
Man schreibt auch C =: A1/2 .
R
Beweis
R
Wir diagonalisieren A mittels einer Drehung B ∈ SO(n, ):
λ
1
..

.
O


λ
1


..
 = B t ◦ A ◦ B = 
.


λs

..

.
O






.




λs
253
7.4 Die Hauptachsentransformation
Dabei sind λ1 , . . . , λs sämtliche paarweise verschiedenen Eigenwerte von A und
von Â; jeder Eigenwert λν tritt in  entsprechend seiner Vielfachheit rν -mal auf;
r1 + . . . + rs = n. Wie wir soeben gezeigt haben, sind wegen der positiven Definitheit
von A sämtliche Eigenwerte positiv: λν > 0. Wir setzen
√

λ1


..
.


O
√




λ1


.

 und C := B ◦ Ĉ ◦ B t ;
.
Ĉ := 
.

√


λ


s


..


.
O
√
λs
es ist
C 2 = B ◦ Ĉ ◦ B t ◦ B ◦ Ĉ ◦ B t = B ◦ Ĉ 2 ◦ B t = B ◦ Â ◦ B t = A.
Die einander entsprechenden Eigenräume von C und von A werden jeweils von denselben Spalten von B erzeugt und stimmen deshalb auf Grund unserer Konstruktion
überein:
(∗)
Vλν (A) = V√λν (C).
Es bleibt die Eindeutigkeit der Quadratwurzel in der angegebenen Matrizenklasse
nachzuweisen. Sei also C̃ irgendeine positiv definite symmetrische n × n-Matrix mit
C̃ 2 = A. Wir wollen zeigen, daß die Gleichheit (∗) auch für die Eigenräume von C̃
erfüllt ist. Sei dazu ~x ∈ n Eigenvektor von C̃ zum Eigenwert µ: C̃ ◦ ~x = µ ~x. Da C̃
als positiv definit vorausgesetzt ist, haben wir µ > 0. Aus A ◦ ~x = C̃ ◦ C̃ ◦ ~x =
2 mit einem Eigenwert λ von A übereinstimmen
C̃ ◦ (µ ~x) = µ2 ~x folgt, daß µ√
ν√
√
muß, wegen µ > 0 ist µ = λν . Folglich sind unter λ1 , . . . , λs sämtliche
paarweise verschiedenen Eigenwerte von C̃, und das gerade benutzte Argument zeigt
auch V√λν (C̃) ⊂ Vλν (A). Da wegen Satz 7.4.11 bzw. dessen reeller Entsprechung
aber die orthogonale Zerlegung
R
Rn = ⊕sν=1V√λ
ν
(C̃) = ⊕sν=1 Vλν (A)
gilt, erhalten wir die Gleichheit der Eigenräume V√λν (C̃) = Vλν (A). Insbesondere
√
√
sind genau λ1 , . . . , λs die Eigenwerte von C̃, und in Verbindung mit (∗) folgt:
V√λν (C̃) = V√λν (C).
Für alle
~x =
s
X
ν=1
~xν ∈
Rn = ⊕sν=1V√λ
ν
(C̃) = ⊕sν=1 V√λν (C)
254
7 Eigenwerte und Hauptachsentransformation
folgt dann
C̃ ◦ ~x =
s
X
C̃ ◦ ~xν =
ν=1
s p
X
s
X
ν=1
ν=1
λν ~xν =
C ◦ ~xν = C ◦ ~x,
die positiv definiten Quadratwurzeln C und C̃ von A stimmen überein.
2
Diagonalisierbarkeit unitärer Matrizen, Normalform für
reell orthogonale Matrizen
Hier erhalten wir das Diagonalisierungsresultat ebenfalls durch direkten Verweis auf
den entsprechenden Satz 7.4.8 für normale Matrizen und auf Satz 7.3.20.
7.4.21 Satz
Zu jeder unitären Matrix A ∈ U (n) existiert eine unitäre Transformationsmatrix
B ∈ U (n) derart, daß Â := B̄ t ◦ A ◦ B eine Diagonalmatrix ist. Die Diagonalelemente
von  haben sämtlich den Betrag 1.
Wir wollen im Folgenden noch reelle orthogonale Matrizen untersuchen. Der Fall
zweier Raumdimensionen läßt sich elementar diskutieren und wird die Richtung für
unser angestrebtes allgemeines reelles Resultat anzeigen.
7.4.22 Beispiele
(a) Seien sina , cosa die aus der Analysis bekannten im Bogenmaß erklärten trigonometrischen Funktionen. Für eine Drehung des 2
cosa (ϕ) − sina (ϕ)
A=
sina (ϕ) cosa (ϕ)
R
gilt
P (λ) = (cosa (ϕ) − λ)2 + sin2a (ϕ) = 1 − 2λ cosa (ϕ) + λ2 .
Die Eigenwerte von A sind λ1 = eiϕ , λ2 = e−iϕ ; diese sind für ϕ ∈ ]0, 2π[\{π}
nicht reell und verschieden. Im Reellen können wir A also nicht diagonalisieren.
Es existiert jedoch
unitäre 2 × 2-Matrix B derart, daß Â =
iϕ eine komplexe
e
0
t
B̄ ◦ A ◦ B =
ist.
0 e−iϕ
(b) Eine Drehspiegelung des
R2 wird durch eine Matrix
A=
a b
b −a
,
a2 + b2 = 1,
gegeben. Es ist
P (λ) = (a − λ)(−a − λ) − b2 = λ2 − (a2 + b2 ) = λ2 − 1 = (λ − 1)(λ + 1).
7.4 Die Hauptachsentransformation
255
Weil die Eigenwerte von A mit λ1 = 1 und λ2 = −1 sämtlich reell sind,
kann man aus Satz 7.4.10 die Existenz
einer orthogonalen Matrix B ∈ SO(2)
1 0
folgern, so daß Â := B t ◦ A ◦ B =
gilt. Bezüglich eines geeigneten
0 −1
Koordinatensystems ist die Drehspiegelung A nur eine Spiegelung an einer
Koordinatenachse.
Um Satz 7.4.21 auch für den Fall reeller orthogonaler Matrizen A ∈ O(n) nutzen zu
können, gehen wir von der im Beweis von Satz 7.3.21 gemachten Beobachtung aus,
daß die nichtreellen Eigenwerte in Paaren zueinander konjugierter Eigenwerte derselben (geometrischen und algebraischen) Vielfachheit auftreten: λ1 , λ̄1 , . . . , λk , λ̄k ∈
\ mit einer geeigneten Zahl k ≤ n/2; die Eigenwerte werden entsprechend ihrer
Vielfachheit aufgeführt. Dabei können wir erreichen, daß unter λ1 , λ2 , . . . , λk nicht
zwei Eigenwerte zueinander konjugiert sind: λν 6= λ̄µ , µ, ν = 1, . . . , k. An das Ende
dieser Eigenwertliste schreiben wir die reellen Eigenwerte λ2k+1 , . . . , λn ∈ {±1} ⊂
. Bei den Eigenvektoren können wir eine ganz ähnliche Beobachtung machen: Sind
~bν ∈ n (1 ≤ ν ≤ k) paarweise orthogonale normierte Eigenvektoren zu den Eigenwerten λν (1 ≤ ν ≤ k), so folgt aus der Reellwertigkeit der Komponenten von
A:
¯
¯
(A − λν E) ◦ ~bν = ~0 ⇒ (A − λν E) ◦ ~bν = ~0 ⇒ (A − λ̄ν E) ◦ ~bν = ~0;
C R
R
C
¯
die konjugierten Vektoren ~bν (1 ≤ ν ≤ k) sind also normierte Eigenvektoren zu den
Eigenwerten λ̄ν . Wir wählen nun die Transformationsmatrix zur Diagonalisierung von
A gemäß
¯
¯
B = ~b1 , ~b1 , . . . , ~bk , ~bk , ~b2k+1 , . . . , ~bn ∈ U (n),
dabei sind ~b2k+1 , . . . , ~bn paarweise orthogonale normierte reelle Eigenvektoren zu
den reellen Eigenwerten λ2k+1 , . . . , λn . Wir haben noch zu beachten, daß aus der
Orthogonalität von ~bν , ~bµ , 1 ≤ ν 6= µ ≤ k auch die Orthogonalität der konjugierten
¯ ¯
Vektoren folgt: ~bν , ~bµ = ~bν , ~bµ = 0. Wegen der Verschiedenheit λν 6= λ̄µ gilt
¯
für µ, ν = 1, . . . , k ohnehin: ~bν , ~bµ = 0. Bezüglich dieser Transformation B lautet
die Diagonalmatrix


λ1 0
0 ···
··· 0
 0 λ̄1 0 · · ·
··· 0 
 .
.. 
..
 .

.
. 
 .


· · · 0 λk 0
0
···


 = B̄ t ◦ A ◦ B = 
.
·
·
·
0
0
λ̄
0
·
·
·


k


··· 0
0
0 λ2k+1 · · ·


 .
.. 
..
 ..
.
. 
0 ···
· · · λn
256
7 Eigenwerte und Hauptachsentransformation
Wir gelangen nun zu einer reellen orthogonalen Transformationsmatrix C, indem wir
¯
jeweils bei Paaren zueinander konjugierter Eigenvektoren ~bν , ~bν , ν = 1, . . . , k zu
deren normierten Real- und Imaginärteilen übergehen:
√ √ 2 ~
2 ~
¯
¯
~c2ν−1 :=
bν + ~bν ,
~c2ν :=
bν − ~bν ∈ n ,
2
2i
¯
wegen der Orthogonalität von ~bν und ~bν handelt es sich dabei nicht um die Nullvektoren. Ferner ist in n auf Grund dieser Orthogonalität:
~bν + ~¯bν , ~bν − ~¯bν = ~bν , ~bν − ~bν , ~¯bν + ~¯bν , ~bν − ~¯bν , ~¯bν
= k ~bν k2 − ~bν , ~bν = 0,
R
C
also sind ~c2ν−1 und ~c2ν in
vektoren unverändert läßt,
Rn zueinander orthogonal. Indem man die reellen Eigen~c2k+1 := ~b2k+1 , . . . , ~cn := ~bn ,
und nur ggfs. einen Eigenvektor durch sein Negatives ersetzt, erhält man mit
C := (~c1 , . . . , ~c2k , ~c2k+1 , . . . , ~cn ) ∈ SO(n,
R)
eine reelle Transformationsmatrix. Um die Matrix der Abbildung A in den durch C
gegebenen Koordinaten zu ermitteln, berechnen wir für ν = 1, . . . , k:
√ √2 2 ~
¯
¯
~
A ◦ ~c2ν−1 = A ◦
bν + bν =
λν~bν + λ̄ν~bν
2
√ 2
2
¯
¯
=
λν + λ̄ν ~bν + ~bν + λν − λ̄ν ~bν − ~bν
4
= Re(λν ) · ~c2ν−1 − Im(λν ) · ~c2ν ,
√ √2 2 ~
¯
¯
~
A ◦ ~c2ν = A ◦
λν~bν − λ̄ν~bν
bν − bν =
2i
√ 2i
2
¯
¯
=
λν − λ̄ν ~bν + ~bν + λν + λ̄ν ~bν − ~bν
4i
= Im(λν ) · ~c2ν−1 + Re(λν ) · ~c2ν .
Für die Matrix
à := C t ◦ A ◦ C,
die die Abbildung A :
Rn → Rn in den durch die orthogonale Matrix C gegebenen
257
7.4 Die Hauptachsentransformation
Koordinaten beschreibt, haben wir also gefunden:

Re(λ1 ) Im(λ1 )
 −Im(λ1 ) Re(λ1 )
O

..

.


Re(λk ) Im(λk )

à = 
−Im(λ

k ) Re(λk )

λ2k+1



O

..






∈





.
Rn×n.
λn
R
Diese Normalform zeigt, daß für Matrizen A ∈ SO(3, ) der Eigenvektor zum
Eigenwert +1 als Drehachse interpretiert werden kann: Indem man ein geeignetes Koordinatensystem einführt, erhält die Abbildung A in diesen Koordinaten die folgende
Darstellung mit geeigneten reellen Zahlen a, b, a2 + b2 = 1:

 

a −b 0
cos Θ − sin Θ 0
à =  b a 0  =  sin Θ cos Θ 0  ,
0 0 1
0
0
1
die Zahl Θ ∈ [0, 360[ ist geeignet zu wählen. Die Abbildung à läßt die dritte
Komponente
fest, die
ersten beiden Komponenten werden durch die 2×2-Untermatrix
cos Θ − sin Θ
abgebildet. Nach unseren Überlegungen am Ende von Kapitel 6.1
sin Θ cos Θ
(insbesondere Satz 6.1.12 und Definition 6.1.15) bedeutet das eine Drehung der x1 x2 -Ebene um den Winkel Θ, die x3 -Achse (in den ursprünglichen Koordinaten dem
Eigenvektor zum Eigenwert 1 entsprechend) ist die Drehachse.
7.4.23 Beispiel
Wir bestimmen sowohl die komplexe als auch die reelle Normalform für die schon in
Beispiel 7.3.22 betrachtete Matrix
√
√


2
2
1
1
1
−
−
+
+
2
4√
2 √4
2

2
1  ∈ SO(3, ).
1
A =  − 12 + 42

−
+
4
2
2
2
2
1
2
1
2
R
√
√
√
2
2 (1 + i),
2
2 (1 − i)
und λ3 = 1 bestimmt,
t
√
√
2
wir hatten auch schon die Drehachse als normierten Eigenvektor ~b3 =
, − 2, 0
Die Eigenwerte hatten wir als λ1 =
λ2 =
2
2
zum Eigenwert 1 berechnet. Mittels des Gaußschen Algorithmus’ findet man weiter,
√ t
√ t
daß ~b1 = i , i , 2 und ~b2 = − i , − i , 2 normierte Eigenvektoren zu λ1 und
2 2
2
2
2
2
258
λ2 sind. Mit
7 Eigenwerte und Hauptachsentransformation


B := 
i
2
i
√2
2
2
erhalten wir die komplexe Diagonalform
 √2
 = B̄ t ◦ A ◦ B = 
2
√
2
2√
− 2i
− 2i
√
−
2
2
(1 + i)
0
0
2
2



0
√
0
2
2 (1
0
0
− i)

0.
1
Um die reelle Normalform zu erhalten, ersetzen wir, wie oben erläutert, die ersten
beiden Spalten von B durch deren normierte Real- und Imaginärteile:
√
√ 

0 22 − 22
√
√
2
2  ∈ SO(3).
C :=  0
2
2
1 0
0
Um mit C eine Drehung, d. h. eine orthogonale Abbildung mit Determinante 1, zu
erhalten, haben wir gleichzeitig die letzte Spalte durch ihr Negatives ersetzt. Damit
berechnen wir
√
 √2

2
0
2√
2
√
2
à := C t ◦ A ◦ C =  − 2
0.
2
2
0
0 1
Bei der Abbildung A handelt es sich also um eine Drehung um 315 Grad um die
√ √ t
Drehachse − 22 , 22 , 0 .
259
Literaturverzeichnis
[1] Budó, Ágoston, Theoretische Mechanik, 10. Auflage, Deutscher Verlag der
Wissenschaften: Berlin 1980.
[2] Ebbinghaus, Heinz-Dieter, H. Hermes, F. Hirzebruch, M. Koecher, K. Mainzer,
A. Prestel, R. Remmert, Zahlen, Springer-Verlag: Berlin etc. 1983.
[3] Fischer, Gerd, Lineare Algebra, 6. Auflage, Vieweg: Braunschweig, Wiesbaden
1980.
[4] Forster, Otto, Analysis 1, 3. Auflage, Vieweg: Braunschweig, Wiesbaden 1980.
[5] Grauert, Hans, Die Axiome der Elementargeometrie und die griechischen Theoreme, Math. Semesterber. 44 (1997), 19-36.
[6] Grauert, Hans, I. Lieb, Differential- und Integralrechnung I, 4. Auflage, SpringerVerlag: Berlin etc. 1976.
[7] Klingenberg, Wilhelm, Lineare Algebra und Geometrie, Springer-Verlag: Berlin
etc. 1984.
[8] Koecher, Max, Lineare Algebra und analytische Geometrie, Springer-Verlag:
Berlin etc. 1983.
[9] Kowalsky, Hans-Joachim, Lineare Algebra, 9. Auflage, de Gruyter: Berlin, New
York 1979.
[10] Pickert, Günter, Analytische Geometrie, 4. Auflage, Akademische Verlagsgesellschaft Geest & Portig: Leipzig 1961.
[11] Rudin, Walter, Analysis, Oldenbourg Verlag: München, Wien 1998.
[12] Sperner, Emanuel, Einführung in die Analytische Geometrie und Algebra, 7.
Auflage, Vandenhoeck & Ruprecht: Göttingen 1969.
[13] Tietz, Horst, Lineare Geometrie, Verlag Aschendorff: Münster 1967.
[14] van der Waerden, B. L., Erwachende Wissenschaft, 2. Auflage, Birkhäuser
Verlag: Basel, Stuttgart 1966.
261
Symbolverzeichnis
:=
def
Die linke Seite der Gleichung
wird durch die rechte Seite definiert.
=
Gleichheit auf Grund einer Definition
≡
identisch gleich; f (x) ≡ 0 bedeutet, daß f (x) = 0 für alle x gilt
⇒
Folgerung: Wenn die linke Aussage gilt,
dann auch die rechte.
⇔
Äquivalenz zweier Aussagen
∅
leere Menge
x∈M
x ist Element der Menge M
x 6∈ M
x ist nicht Element der Menge M
M ⊂N
Teilmenge: x ∈ M ⇒ x ∈ N .
M ⊃N
Obermenge: N ⊂ M
M =N
Gleichheit von Mengen: M ⊂ N und N ⊂ M
M ∩N
= {x : x ∈ M und x ∈ N }, Durchschnitt
M ∪N
= {x : x ∈ M oder x ∈ N }, Vereinigung
M \N
= {x ∈ M : x 6∈ N }, Differenzmenge
M ×N
= {(x, y) : x ∈ M, y ∈ N }, kartesisches Produkt
N
N0
Z
R
R+
R+0
R
Menge der natürlichen Zahlen {1, 2, 3, . . .}
N ∪ {0} = {0, 1, 2, 3, . . .}
Menge der ganzen Zahlen
Menge der reellen Zahlen
Menge der positiven reellen Zahlen {a ∈
Menge der nichtnegativen reellen Zahlen
{a ∈
∗
=
R:
R \ {0}
a ≥ 0}
max(a, b)
die größere der reellen Zahlen a, b
min(a, b)
die kleinere der reellen Zahlen a, b
R:
a > 0}
262
Symbolverzeichnis
sup
Supremum
inf
P
Infimum
Q
Produktzeichen
R
n
Summenzeichen
n-dimensionaler reeller Zahlenraum
Rn , n-tupel reeller Zahlen
~a
= (a1 , . . . , an ) ∈
~0
= (0, . . . , 0) ∈
~ej
Einheitsvektoren in
V, V1 , V2 , . . .
allgemeine reelle Vektorräume
x, y
Elemente von V

Span(x1 , . . . , xn ) 


· (x1 , . . . , xn ) 
<x1 , . . . , xn > 



[x1 , . . . , xn ]
R
von x1 , . . . , xn aufgespannter Untervektorraum
dim
Dimension eines Vektorraums
E
anschauliche Ebene
R
anschaulicher Raum
O
Basispunkt, Aufpunkt in E bzw. R
x = (P, Q)
Pfeile, Pfeilvektoren in E bzw. R
(P, P )
Nullvektor in P
(P, Q) k (P 0 , Q0 )
Die Pfeile (P, Q) und (P 0 , Q0 ) sind voll parallel.
X
Menge aller Pfeile in E bzw. R
V
= {x = (O, P ) : P ∈ E}, Vektorraum der Pfeile in O
V
3
Rn
Rn
= {x = (O, P ) : P ∈ R}, Vektorraum der Pfeile in O
O = (O, O)
Nullvektor in V bzw. V 3
F : M1 → M2
Abbildung
idM , id : M → M
identische Abbildung
F : M1 M2
surjektive Abbildung
F : M1 ,→ M2
injektive Abbildung
F : M1 ↔ M2
bijektive Abbildung
F
−1
F ◦G
Umkehrabbildung einer bijektiven Abbildung
Hintereinanderschaltung, Komposition,
Zusammensetzung von Abbildungen
263
Symbolverzeichnis
F −1 (N )
= {x ∈ M : F (x) ∈ N }, Urbildmenge
im(F ) = F (M )
Bildmenge
rg(F )
= dim im(F ), Rang einer linearen Abbildung
ker(F )
Kern einer linearen Abbildung
crg(F )
= dim ker(F ), Corang (Defekt)
einer linearen Abbildung
V1 ≈ V2
V1 ∼
= V 2 , V1 = V 2
V1 und V2 sind isomorph.
∼
V1 und V2 sind kanonisch isomorph.
F : V 1 → V2
F ist ein Isomorphismus.
A, B, C
Matrizen
m,n
A
= (aij ) i=1,...,m
Rm×n
E=E
m × n-Matrix
j=1,...,n
Menge aller m × n-Matrizen
n,n
;I
δij
Einheitsmatrix
Kroneckersymbol, Komponenten der Einheitsmatrix
O=O
m,n
t
Nullmatrix
A
zu A transponierte Matrix
Rang (A)
Rang einer Matrix
A ◦ ~c
Produkt einer m × n-Matrix
und einem Spaltenvektor aus
A+B
Matrixaddition
c·A
Skalarmultiplikation für Matrizen
A◦B
Matrixprodukt
GL(n,
R)
R)
O(n, R)
SO(n, R)
SL(n,
Rn
R
allgemeine lineare Gruppe vom Rang n über ,
Gruppe der invertierbaren n × n-Matrizen
spezielle lineare Gruppe
orthogonale Gruppe
spezielle orthogonale Gruppe
M, N
in Abschnitt 3.7: allgemeine Ebenen
codim
Codimension von allgemeinen Ebenen
V 1 ⊕ V2
direkte Summe der Vektorräume V1 und V2
V 1 + V2
von V1 , V2 aufgespannter Untervektorraum
F1 ⊕ F2
direkte Summe der linearen Abbildungen F1 und F2
V
∗
Dualraum von V
264
Symbolverzeichnis
V ∗∗
∗
F :
Bidualraum
V2∗
→
V1∗
duale Abbildung zu F : V1 → V2 ,
δ(i1 , . . . , in )
allgemeines Kroneckersymbol
det(A), det(F )
Determinante
Ak`
Streichungsmatrix
dk`
(k, `)-ter Cofaktor
ad (A)
Adjunkte zu A
DΘ , D̂Θ
Drehungen der anschaulichen Ebene bzw. der Pfeile
Aα (Θ)
Drehungen in den Koordinaten bzgl. der Karte α
~x · ~y
kanonisches Skalarprodukt in
(x, y)
Skalarprodukt in der anschaulichen Ebene
k.k
Länge bzw. Norm eines Vektors
∠(y, x)
Winkel zwischen y, x ∈ V
x⊥y
x, y sind orthogonal
V
⊥
Rn
orthogonales Komplement des Untervektorraums V
C
Cn
Menge der komplexen Zahlen
n-dimensionaler komplexer Zahlenraum
dimC V
Dimension eines Vektorraums über
dimR V
C
Dimension eines Vektorraums über R
Re(z)
Realteil der komplexen Zahl z
Im(z)
Imaginärteil der komplexen Zahl z
z̄
konjugiert komplexe Zahl
(~z, w)
~
kanonisches Skalarprodukt in
Āt
konjugiert transponierte Matrix
C
Cn
GL(n, )
allgemeine lineare Gruppe vom Rang n über
U (n)
unitäre Gruppe
Sp(A)
Spur der Matrix A
PA (λ), PF (λ)
charakteristisches Polynom
λν
Eigenwerte
Vλ
Eigenraum
exp(A)
Exponentialfunktion für Matrizen
A1/2
Quadratwurzel positiv definiter Matrizen
C
Herunterladen