4.4 Bilinearformen über R, selbstadjungierte und orthogonale

Werbung
c Rudolf Scharlau
Lineare Algebra II – Sommersemester 2015
4.4
313
Bilinearformen über R, selbstadjungierte und
orthogonale Endomorphismen
Alle in diesem Abschnitt vorkommenden Vektorräume sind über den reellen Zahlen R definiert und endlich dimensional.
Satz 4.4.1 (Trägheitssatz von Sylvester)
nearform auf dem R-Vektorraum V .
2
Es sei b eine symmetrische Bili-
a) Es existiert eine Orthogonalbasis v1 , . . . , vn von V derart, dass
b(vi , vi ) ∈ {0, 1, −1} für alle i = 1, . . . , n.
b) Die Anzahlen
n+ := |{i | b(wi , wi ) > 0}|
n− := |{i | b(wi , wi ) < 0}|
n0 := |{i | b(wi , wi ) = 0}|
sind unabhängig von der Wahl der Orthogonalbasis w1 , . . . , wn .
Das Tripel (n+ , n− , n0 ) heißt die Signatur von b.
Beweis: zu a): Nach Satz 4.3.10 existiert eine Orthogonalbasis w1 , . . . , wn bezüglich b. Wenn man einen Basisvektor wi durch αwi für ein α ∈ R r {0} ersetzt, so
wird der entsprechende Diagonaleintrag gii = b(wi , wi ) der Gram-Matrix G durch
α2 gii ersetzt. Da jede positive reelle Zahl eine Quadratwurzel besitzt (hier geht
p die
Generalvoraussetzung K = R entscheidend ein), können wir mit αi := 1/ |gii |
und vi := αi wi für gii 6= 0 das gewünschte Ergebnis erreichen.
zu b): Die Anzahl n0 der Nullen ist gleich der Dimension des Kerns der GramMatrix G und somit nach Bemerkung 4.3.9 unabhängig von der Wahl der Basis
(nämlich gleich dem Defekt von b gemäß Definition 4.3.8). Entsprechend ist die
Summe n+ + n− gleich dem Rang von G, bzw. von b. Es sei nun w10 , . . . , wn0
eine weitere Orthogonalbasis und n0+ , n0− , n00 die entsprechenden Anzahlen. Wegen
n0 = n00 ist auch n0+ + n0− = n+ + n− , es reicht also, n+ = n0+ zu zeigen. Betrachte
dazu
V+ := Lin{wi | b(wi , wi ) > 0},
V−0 := Lin{wi0 | b(wi0 , wi0 ) < 0},
und sei V0 das Radikal von b. Die Summe V−0 + V0 ist eine direkte Summe, also
dim(V−0 + V0 ) = n0− + n0 . Weiter ist V+ ∩ (V−0 + V0 ) = {0}, denn für ein v in diesem
Durchschnitt, v 6= 0 wäre einerseits b(v, v) > 0, weil b auf V+ positiv definit ist,
andererseits b(v, v) ≤ 0. Also ist auch die Summe V+ + (V−0 ⊕ V0 ) direkt, und
2
James Joseph Sylvester, 1814 - 1897, britischer Mathematiker, wirkte in London und Oxford
sowie auch in den USA (Virginia, Maryland)
c Rudolf Scharlau
314 Lineare Algebra II – Sommersemester 2015
damit n+ + n0− + n0 ≤ n = n0+ + n0− + n0 , also n+ ≤ n0+ . Da die Rollen von V+
und V+0 vertauschbar sind, folgt auch n0+ ≤ n+ , insgesamt also Gleichheit, wie
gewünscht.
Bemerkung:
a) Der eben geführte Beweis zeigt die folgende Kennzeichnung der Signatur
einer symmetrischen Bilinearform: n+ ist die größte Dimension eines Unterraumes U ⊆ V derart, dass b|U ×U positiv definit ist. Entsprechend ist n−
die größte Dimension eines Unterraumes U ⊆ V derart, dass b|U ×U negativ
definit ist, d.h. −b|U ×U ist positiv definit.
b) Es sei (V, b) ein Vektorraum mit symmetrischer Bilinearform, (n+ , n− , n0 )
seine Signatur. Ferner sei W ⊆ V ein Untervektorraum und (m+ , m− , m0 )
die Signatur von b|W ×W . Dann gilt n+ ≥ m+ und n− ≥ m− .
Noch etwas expliziter kann man das Ergebnis von Teil a) des vorigen Satzes wie
folgt ausdrücken: Es gibt natürliche Zahlen n+ , n− (die in Teil b) definierten)
derart, dass bei geeigneter (Um-)Nummerierung der Basisvektoren gilt:


 1 für i = 1, . . . , n+ ,
b(vi , vi ) = −1 für i = n+ + 1, . . . , n+ + n− ,


0 für i > n+ + n− .
Dieses bedeutet eine sehr spezielle, sozusagen normierte” Gestalt der Gram”
Matrix von b bezüglich dieser Basis. Es handelt sich um die Matrix
Diag( 1, . . . , 1, −1, . . . , −1, 0, . . . , 0),
| {z } | {z } | {z }
n+ mal
n− mal
n0 mal
wobei Diag(d1 , d2 , . . . , dn ) die Diagonalmatrix mit Diagonaleinträgen d1 , d2 , . . . , dn
bezeichnet.
Teil b) des Satzes (das ist der eigentliche Trägheitssatz” von Sylvester) be”
sagt, dass diese Matrix bei gegebenem b eindeutig bestimmt ist. Er liefert also
eine eindeutige Normalform für symmetrische Bilinearformen, bzw. für symmetrische Matrizen über den reellen Zahlen. In der Tat ist die Situation völlig analog
zum Normalformenproblem für Endomorphismen, bzw. Ähnlichkeit von Matrizen: Auf den reellen symmetrischen Matrizen ist die Äquivalenzrelation der Kongruenz definiert (siehe Definition 4.2.6), und jede Äquivalenzklasse enthält genau
eine Matrix in der beschriebenen Normalform.
Der nächste Satz gibt ein Kriterium an, wie man im nicht-entarteten Fall die
Signatur (n+ , n− ) bestimmen kann, ohne eine Orthogonalbasis explizit zu berechnen. Allerdings funktioniert dieses Kriterium nicht für jede Wahl der ursprünglichen Basis, bzw. der Gram-Matrix. Wichtig ist vor allem das dann folgende
Korollar 4.4.3.
Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
315
Satz 4.4.2 (Determinanten-Kriterium für die Signatur)
Es sei b eine symmetrische Bilinearform auf einem n-dimensionalen R-Vektorraum V und v1 , . . . , vn eine beliebige Basis von V , weiter G = (gij ) die GramMatrix von b bezüglich dieser Basis. Wir betrachten für k = 1, . . . n die Untermatrizen Gk := (gij )i,j=1,...,k und setzen voraus, dass alle Unterdeterminanten
dk := det Gk , k = 1, . . . n, von Null verschieden sind. Dann ist die Signatur von
b gleich (n+ , n− , 0), wobei n− die Anzahl der Vorzeichenwechsel in der Folge der
dk (dabei d0 := 1) ist:
dk
<0 .
n− = # k |
dk−1
Beweis: Für n = 1 ist die Behauptung klar: Es ist G1 = (d1 ), es muss nichts
diagonalisiert werden.
Sei nun dim V = n > 1 und die Behauptung für Bilinearformen auf Vektorräumen kleinerer Dimension bereits bewiesen (Induktionsannahme). Wir wenden dieses auf W := Lin{v1 , . . . , vn−1 } an. Hierzu gehören die Haupt-Unterdeterminanten d0 = 1, d1 , . . . , dn−1 (die gleichen Werte wie für b auf V ). Die
Signatur von b auf W ist nach Voraussetzung von der Form (m+ , m− , 0), wobei nach der Bemerkung zu Satz 4.4.1 gilt m+ ≤ n+ , m− ≤ n− und ferner
m+ + m− = n − 1. Es bleiben also nur die Möglichkeiten n+ = m+ + 1, n− = m−
oder n+ = m+ , n− = m− + 1. Diese beiden Fälle müssen wir im folgenden Hauptteil dieses Beweises anhand des Vorzeichens von d0 := dn /dn−1 unterscheiden.
Nach 4.3.6 gilt dim W ⊥ = 1; sei w ein von Null verschiedener Vektor von W ⊥ .
Wenn w ∈ W gelten würde, dann wäre b(w, z) = 0 für alle z ∈ W und damit
die Einschränkung von b auf W entartet, im Widerspruch zur Voraussetzung.
Also ist w ∈
/ W und V = W ⊕ Rw (orthogonale direkte Summe). Es sei G0 die
Gram-Matrix von b bezüglich der Basis v1 , . . . , vn−1 , w. Nach Satz 4.2.6 gibt es
eine reguläre Matrix S, für die gilt
det G0 = det(S t GS) = det S t det S det G = (det S)2 det G,
d.h. det G = dn und det G0 haben das gleiche Vorzeichen. Andererseits ist G0 eine
Blockmatrix mit einem Block Gn−1 und dem anderen Block b(w, w) der Größe 1,
d.h. det G0 = dn−1 b(w, w). Wenn man das mit der obigen Gleichung dn = dn−1 d0
zusammennimmt, sieht man, dass d0 und b(w, w) das gleiche Vorzeichen haben.
Wenn d0 positiv ist, dann ist b(w, w) > 0, und nach Definition der Signatur folgt
weiter n+ = m+ + 1; wenn dagegen d0 < 0, dann ist b(w, w) < 0 und nach
Definition der Signatur folgt weiter n− = m− + 1.
316 Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
Korollar 4.4.3 (Determinanten-Kriterium für positive Definitheit) 3
Eine symmetrische Bilinearform b auf einem n-dimensionalen reellen Vektorraum
ist genau dann positiv definit, wenn für eine oder jede Gram-Matrix G von b alle
Haupt-Unterdeterminanten det Gk , k = 1, . . . n, wobei Gk := (gij )i,j=1,...,k , positiv
sind.
Beweis: zu ⇒”: Die Determinanten von zwei verschiedenen Gram-Matrizen
”
derselben Bilinearform haben, wie schon im Beweis von 4.4.2 gesehen, das gleiche
Vorzeichen. Insbesondere ist im positiv-definiten Fall die Determinante nicht nur
für eine Orthogonalbasis, sondern sogar für jede Basis positiv. Sei nun v1 , . . . , vn
eine Basis von V und b positiv definit. Dann ist auch die Einschränkung von b
auf den von v1 , . . . , vk erzeugten Unterraum positiv definit und somit det Gk > 0,
für alle k = 1, . . . , n.
zu ⇐”: Das folgt sofort aus dem vorigen Satz 4.4.2.
”
Im zweiten Teil dieses Abschnittes kommen wir nun zur Begriffsbildung eines
adjungierten Endomorphismus”.
”
Definition 4.4.4 Es sei (V, h , i) ein euklidischer Vektorraum und F, G ∈ End(V ).
a) G heißt adjungiert zu F , falls für alle v, w ∈ V gilt:
hF (v), wi = hv, G(w)i .
b) F heißt selbstadjungiert, falls F zu sich selbst adjungiert ist, d.h. für alle
v, w ∈ V gilt:
hF (v), wi = hv, F (w)i .
Bemerkung 4.4.5 Es sei (V, h , i) ein euklidischer Vektorraum. Wir betrachten
Endomorphismen F und G von V .
a) Wenn G adjungiert zu F ist, dann ist auch F adjungiert zu G.
b) F ist genau dann orthogonal , wenn F bijektiv und zu F −1 adjungiert ist.
Beweis: Teil a) folgt daraus, dass die G kennzeichnende Gleichung hF (v), wi =
hv, G(w)i äquivalent ist zu hG(w), vi = hw, F (v)i (die beiden Seiten vertauschen
und benutzen, dass h , i symmetrisch ist). Die Bijektivität in Teil b) war bereits
in Bemerkung 2.10.24 festgestellt worden: Jeder orthogonale Endomorphismus
ist bijektiv, also ein Automorphismus. Man ersetzt nun in der Definition einer
3
Gelegentlich spricht man vom Hurwitz-Kriterium. Dieses erscheint aber historisch nicht
korrekt, vielmehr geht das Kriterium im Wesentlichen bereits auf Sylvester zurück. Adolf Hurwitz (1859 - 1919, deutscher Mathematiker, wirkte in Göttingen, Königsberg und Zürich) hat
das Kriterium für ein bestimmtes Problem benutzt und dadurch weiter verbreitet.
c Rudolf Scharlau
Lineare Algebra II – Sommersemester 2015
317
orthogonalen Abbildung das durch ganz V laufende w durch F −1 (w) und erhält
wie gewünscht hF (v), wi = hv, F −1 (w)i .
Adjungiertheit ist zunächst als (symmetrische) Relation zwischen zwei Endomorphismen definiert; tatsächlich gibt es aber zu jedem F genau ein G, das mit F
in dieser Relation steht, wie wir jetzt zeigen werden. (Mit anderen Worten: die
Relation ist eine Abbildung, genauer der Graph einer Abbildung; siehe 1.1.16.)
Satz 4.4.6 Es sei (V, b) ein euklidischer Vektorraum.
a) Zu jedem Endomorphismus F von V gibt es einen eindeutigen adjungierten
Endomorphismus G, bezeichnet mit G =: F ad .
b) Für alle F, F1 , F2 ∈ End(V ) und jeden Skalar α gilt
(F1 ◦ F2 )ad = F2ad ◦ F1ad , (F1 + F2 )ad = F1ad + F2ad (αF )ad = αF ad .
c) Es sei B eine Orthonormalbasis von V und A = MBB (F ). Ein G ∈ End(V )
ist genau dann adjungiert zu F , wenn MBB (G) = At ist.
Beweis: zu c): Wir betrachten zunächst einen
Spezialfall: Es sei V = Rn und b das Standard-Skalarprodukt h , i. Es sei
A ∈ Rn×n . Dann ist FAt adjungiert zu FA , d.h.
hA~x, ~y i = h~x, At ~y i für alle ~x, ~y ∈ Rn .
Beweis hierzu: Dieser ergibt sich ohne das Rechnen mit Doppelsummen aus der
Darstellung des Standardskalarproduktes als Matrixprodukt Zeile mal Spalte”:
”
Für alle ~x, ~y ∈ Rn gilt
hA~x, ~y i = (A~x)t ~y = ~xt (At ~y ) = h~x, At ~y i.
Für den allgemeinen Fall schreiben wir
v=
n
X
i=1
xi v i ,
w=
n
X
yj vj ,
mit xi , yj ∈ R
j=1
und B = (v1 , . . . , vn ), d.h. wir benutzen den Basisisomorphismus ΦB : Rn → V .
Nach Bemerkung 2.10.23 (siehe auch 2.10.17) ist dieser eine orthogonale Abbildung, d.h. b(v, w) = h~x, ~y i, ensprechend auch für b(F (v), w) und b(v, G(w)).
Unter Benutzung der grundlegenden Formel aus Satz 2.8.2 (über die Koordinaten
von Bildvektoren) erhalten wir nun
b(F (v), w) = hA~x, ~y i,
b(v, G(w)) = h~x, B~y i,
318 Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
wobei B := MBB (G). Aus dem Spezialfall folgt nun sofort die gewünschte Gleichung im allgemeinen Fall, wenn B = At ist. Die umgekehrte Implikation, d.h.
die Aussage genau dann” aus c) folgt aus der in a) festgestellten Eindeutigkeit
”
der zu F adjungierten Abbildung.
zu a): Die Existenz einer adjungierten Abbildung folgt sofort aus c) (wir definieren G über seine Darstellungsmatrix). Die Eindeutigkeit folgt daraus, dass
jedes Skalarprodukt nicht-entartet ist: wenn G und G0 beide adjungiert zu F sind,
dann folgt für alle w ∈ V , dass hv, G(w) − G0 (w)i = 0 für alle v ∈ V und damit
G(w) − G0 (w) = 0.
zu b): Man rechnet nach, dass die jeweilige rechte Seite der Behauptung die
Bedingung an die zu bestimmende Adjungierten erfüllt und benutzt die Eindeutigkeit.
Wir wollen nun zeigen, dass selbstadjungierte Endomorphismen diagonalisierbar sind und für orthogonale Endomorphismen eine ähnliche, etwas schwächere
Aussage gilt. Hierfür müssen wir zunächst etwas über F -invariante Unterräume
wissen.
Lemma 4.4.7 Seien (V, h , i) ein euklidischer Vektorraum, F ∈ End(V ), und U
ein Unterraum von V . Wenn U F -invariant ist, dann ist U ⊥ F ad -invariant.
Beweis: Gegeben sei y ∈ U ⊥ . Für alle x ∈ U gilt
hx, F ad (y)i = hF (x), yi = 0,
weil F (x) ∈ U . Also ist F ad (y) ∈ U ⊥ , wie behauptet.
Lemma 4.4.8 Jeder (komplexe) Eigenwert einer reellen symmetrischen Matrix
ist reell.
Beweis: Wir benutzen das sogenannte komplexe Standard-Skalarprodukt
h~z, w
~ i :=
n
X
~ ∈ Cn .
zi wi , für alle ~z, w
i=1
Es gelten die Rechenregeln
h~z, λw
~ i = λh~z, w
~ i für alle ~z, w
~ ∈ Cn , λ ∈ C,
sowie hw,
~ ~z i = h~z, w
~ i; ansonsten gelten die Regeln eines (reellen) Skalarproduktes; insbesondere ist h~z, ~z i reell und positiv, wenn ~z 6= ~0 ist. Sei nun ~z ein
Eigenvektor zum Eigenwert λ ∈ C von A = At ∈ Rn×n . Dann ist
λh~z, ~z i = hλ~z, ~z i = hA~z, ~z i = h~z, A~z i = h~z, λ~z i = λh~z, ~z i.
Also ist λ = λ und damit λ ∈ R.
Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
319
Satz 4.4.9 (Spektralsatz) Es sei F ein selbstadjungierter Endomorphismus eines euklidischen Vektorraumes V .
a) Jeder F -invariante Unterraum besitzt ein F -invariantes Komplement.
b) F ist diagonalisierbar. Es gibt sogar eine Orthonormalbasis von V aus Eigenvektoren von F .
Beweis: Teil a) folgt sofort aus Lemma 4.4.7: Man nehme das orthogonale Komplement des Unterraums.
zu b): Nach Satz 4.4.6.c) kann F durch eine symmetrische Matrix dargestellt werden, hat also nach Lemma 4.4.8 einen (reellen) Eigenwert und damit
auch einen Eigenvektor v1 . Diesen können wir als normiert annehmen: kv1 k = 1.
Wir haben nach Satz 2.10.8 eine orthogonale Zerlegung V = Rv1 ⊕ v1⊥ . Nach
Lemma 4.4.7 ist v1⊥ F -invariant. Der von F auf v1⊥ induzierte Endomorphismus
ist trivialerweise wieder selbstadjungiert. Wenn wir für diesen Endomorphismus
entsprechend vorgehen, und so weiter, erhalten wir in n = dim V Schritten ein
System von n normierten Eigenvektoren, die alle senkrecht aufeinander stehen.
(Formal machen wir hier natürlich einen Induktionsbeweis über die Dimension
von V .)
Bemerkung: Die praktische Berechnung einer ON-Basis, ausgehend von einer
symmetrischen Darstellungsmatrix von F , wird nicht unbedingt dem im Beweis
angegebenen Weg folgen: Wenn die Eigenwerte bereits bekannt sind, bestimmt
man einfach alle Eigenräume. Diese sind orthogonal zueinander, was wir im folgenden Satz separat beweisen, und V ist ihre direkte Summe (weil F diagonalisierbar ist; vergleiche Korollar 3.4.8 und Satz 3.4.6). Man bestimmt dann für
jeden Eigenraum eine ansonsten völlig beliebige ON-Basis (etwa mit dem GramSchmidt-Verfahren) und setzt diese einzelnen Basen zu der gesuchten Basis des
Gesamtraumes zusammen.
Satz 4.4.10 Seien (V, h , i) ein euklidischer Vektorraum und F ∈ End(V ) selbstadjungiert. Dann sind Eigenvektoren aus verschiedenen Eigenräumen stets orthogonal zueinander.
Beweis: Für v ∈ Eig(F, λ), w ∈ Eig(F, µ) gilt λhv, wi = hF (v), wi = hv, F (w)i =
µhv, wi. Unter der Voraussetzung λ 6= µ folgt hieraus hv, wi = 0.
Korollar 4.4.11 Jede reelle symmetrische Matrix A ist diagonalisierbar, und
sogar mit einer orthogonalen Transformationsmatrix. D.h., zu A existiert eine
orthogonale Matrix S mit
S −1 AS = D = Diag(d1 , d2 , . . . , dn ),
S −1 = S t .
320 Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
Beweis: Wir betrachten den Rn mit dem Standardskalarprodukt und wenden
den Spektralsatz 4.4.9.b) auf den nach Satz 4.4.6 c) selbstadjungierten Endomorphismus FA von Rn an. Aus den Vektoren der hiernach existierenden Orthonormalbasis bilden wir spaltenweise eine Matrix S. Diese ist nach Satz 2.10.25 (iii)
orthogonal, und nach Konstruktion ist S −1 AS eine Diagonalmatrix.
Aus dem letzten Korollar, ergibt sich als weiteres Korollar die folgende, gegenüber
Satz 4.4.2 verbesserte (nämlich immer anwendbare) Methode zur Bestimmung der
Signatur.
Korollar 4.4.12 Es sei b eine symmetrische Bilinearform auf einem R-Vektorraum. Dann ergibt sich die Signatur (n+ , n− , n0 ) von b aus einer beliebigen GramMatrix A von b als die Anzahl (mit Vielfachheiten) der Eigenwerte von G, die
positiv, bzw. negativ, bzw. Null sind.
Beweis: Die zur gegebenen Gram-Matrix A gehörige Basis sei A, also A :=
GA (b). Wir wenden nun das Korollar 4.4.11 auf die Matrix A an. an. Wir definieren eine neue Basis B durch CAB = S und entnehmen der Gleichung S −1 = S t und
der Basiswechselformel aus Satz 4.2.5, dass D die Gram-Matrix von b bezüglich
B ist. Nach Definition der Signatur ist also n+ die Anzahl der positiven Diagonalelemente von D, entsprechend n− . Andererseits sind aber die Diagonalelemente
von D genau die Eigenwerte von D, also auch von A. Damit ist die Behauptung
bewiesen.
Lemma 4.4.13 Es sei F ein beliebiger Endomorphismus eines endlich-dimensionalen reellen Vektorraumes V . Dann besitzt V einen nicht-trivialen F -invarianten
Unterraum U der Dimension ≤ 2.
Beweis: Durch Wahl einer Basis reduziert man das Problem leicht auf den Fall
V = Rn , F = FA , A ∈ Rn×n . Es sei λ ∈ C eine Nullstelle des charakteristischen
Polynoms PF = PA . Falls λ ∈ R ist, ist λ ein Eigenwert von F , und ein Eigenvektor v ∈ V zu λ erzeugt sogar einen eindimensionalen F -invarianten Unterraum.
Neu zu behandeln ist also der Fall λ ∈ C r R. In diesem Fall besitzt immerhin noch die lineare Abbildung FA : Cn → Cn einen Eigenvektor ~z ∈ Cn , also
A~z = λ~z. Wir schreiben nun λ = α + iβ, α, β ∈ R, und ~z = ~x + i~y , ~x, ~y ∈ Rn .
Den Schluss des Beweises halten wir als eigenständige Aussage fest, die wir später
noch einmal zitieren werden.
Zusatz zu 4.4.13: Mit den eben eingeführten Bezeichnungen gilt: ~x und ~y sind
linear unabhängig, und der von ihnen erzeugte zweidimensionale Unterraum U
von Rn ist invariant unter FA . Die Darstellungsmatrix
von FA , eingeschränkt auf
!
α −β
U bezüglich der Basis ~x, −~y ist gleich
.
β α
Zum Beweis dieses Zusatzes stellen wir zunächst fest, dass ~z und sein konjugiert
komplexer Vektor ~z¯ = ~x − i~y linear unabhängig (über C) sind, weil sie zu verschiedenen Eigenwerten λ bzw. λ̄ gehören. Aus ~x = 21 (~z + ~z¯) und ~y = − 2i (~z − ~z¯)
Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
321
folgt dann sofort, dass auch ~x und ~y linear unabhhängig sind (über C, erst recht
über R). Wenn man in der Gleichung A~z = λ~z sowohl ~z = ~x + i~y als auch
λ = α + iβ einsetzt und dann Realteil und Imaginärteil vergleicht, erhält man
A~x = α~x − β~y , A~y = β~x + α~y , was genau die angegebene Darstellungsmatrix
liefert.
Wir erinnern noch daran, dass die eben angegebene 2 × 2-Matrix die Darstellungsmatrix der Multiplikationsabbildung z 7→ λz, C → C bezüglich der R-Basis
1, i von C ist.
Lemma 4.4.14 Seien K ein Körper, V ein endlich-dimensionaler K-Vektorraum, F : V → V linear und bijektiv und U ein F -invarianter Teilraum von
V . Dann ist U auch F −1 -invariant.
Beweis: Da U endlich-dimensional und F bijektiv ist, folgt aus F (U ) ⊆ U sogar
F (U ) = U , weiter U = F −1 (U ) und insbesondere F −1 (U ) ⊆ U .
Satz 4.4.15 Es sei F ein orthogonaler Automorphismus eines euklidischen Vektorraumes V .
a) Jeder F -invariante Unterraum besitzt ein F -invariantes Komplement.
b) Es gibt eine F -invariante Zerlegung von V als orthogonale Summe von Unterräumen der Dimension ≤ 2.
Beweis: Teil a) ergibt sich unmittelbar aus Lemma 4.4.7 zusammen mit Lemma
4.4.14. Teil b) folgt aus Teil a) zusammen mit Lemma 4.4.13.
Aus dem letzten Satz und der Klassifikation der orthogonalen Abbildungen bzw.
Matrizen aus Satz 2.10.26 ergibt sich leicht der folgende abschließende Klassifikationssatz für orthogonale Abbildungen. Wir erinnern an die Matrix
!
cos γ − sin γ
Rγ =
, γ ∈ R, 0 ≤ γ < 2π,
sin γ cos γ
die eine Drehung in der Ebene um den Winkel γ beschreibt.
Lemma 4.4.16 Für jeden (reellen) Eigenwert λ einer orthogonalen Abbildung
gilt λ = 1 oder λ = −1.
Beweis: Für v ∈ Eig(F, λ) r {0} gilt hv, vi = hF (v), F (v)i = hλv, λvi = λ2 hv, vi,
woraus λ = ±1 folgt.
322 Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
Satz 4.4.17 (Normalform orthogonaler Abbildungen)
Es sei F eine orthogonaler Automorphismus eines euklidischen Vektorraumes V .
Dann gibt es eine Orthonormalbasis von V derart, dass die zugehörige Darstellungsmatrix von F die folgende Gestalt hat:


1
 ..



.




1






−1


γ1 , . . . , γk ∈ R,


..
.


0 < γj < π,

,


−1


γ1 ≤ γ2 ≤ · · · ≤ γk


Rγ1






Rγ2




..
.


Rγk
Dabei ist die Matrix durch F eindeutig bestimmt.
Beweis: Nach Satz 4.4.15.b) gibt es eine Zerlegung von V als orthogonale direkte
Summe von eindimensionalen F -invarianten Unterräumen Rvi und von zweidimensionalen F -invarianten Unterräumen Uj . Die eindimensionalen liefern nach
Lemma 4.4.16 die behaupteten Werte ±1 auf der Diagonalen der Darstellungsmatrix.
Von den zweidimensionalen F -invarianten Unterräumen können wir annehmen, dass sie nicht mehr weiter in eindimensionale Unterräume zerfallen, d.h.
F|Uj hat keinen (reellen) Eigenwert. Nach Satz 2.10.26 ist F|Uj eine Drehung oder
Spiegelung. Der zweite Fall tritt unter den jetzigen Voraussetzungen nicht auf,
da dann F|Uj die Eigenwerte 1 und −1 hätte und Uj in zwei eindimensionale
Unterräume zerfallen würde. (Wir hatten dieses bereits in Beispiel 3.3.4 festgestellt.) Im Fall einer Drehung ist die Darstellungsmatrix von F|Uj eine Matrix
Rγ , zunächst mit 0 ≤ γ < 2π. Der Fall γ = 0 fällt weg, weil dann R0 = E2
die Einheitsmatrix wäre und wieder Uj in eindimensionale Unterräume zerfallen
würde (doppelter Eigenwert 1). Entsprechend fällt Rπ = −E2 weg (doppelter
Eigenwert −1, Drehung um 180 Grad). Wenn wir schließlich in einem der Uj
den zweiten Basisvektor durch sein Negatives ersetzen, dann werden die beiden
Matrixeinträge a12 und a21 (also ± sin γ) durch ihr Negatives ersetzt, was man
auch durch den Übergang von γ zu 2π − γ erreichen kann. (Anschaulich: Eine
Linksdrehung” um z.B. 270◦ wird als eine Rechtsdrehung” um 90◦ aufgefasst.)
”
”
Auf diese Art können wir alle auftretenden Werte γ auf den angegebenen Bereich
0 < γ < π einschränken.
Nun zur Eindeutigkeit der Matrix unter den angegebenen Nebenbedingungen. Die Anzahl der Einträge 1 ist gleich der Dimension des Eigenraumes zum
Lineare Algebra II – Sommersemester 2015
c Rudolf Scharlau
323
Eigenwert 1, ebenso für −1. (Tatsächlich sind diese geometrischen Vielfachheiten
des Eigenwertes ±1 auch gleich der jeweiligen algebraischen Vielfachheit.) Wir
müssen nun, ohne Bezug auf eine bestimmte Basis, feststellen, welche Werte γ
in den Zweierblöcken auftauchen, und wie oft jedes γ auftaucht. Dieses geschieht
mit Hilfe der komplexen Eigenwerte” von F , d.h. der komplexen Nullstellen von
”
PF , die nicht in R liegen. Wenn man das charakteristische Polynom von Rγ hinschreibt, sieht man, dass die Nullstellen genau λ = cos γ + i sin γ sind und das
konjugiert-komplexe λ̄ sind. Das beweist man mit dem Satz von Vieta”, mit dem
”
man aus den beiden Nullstellen die Koeffizienten des Polynomes zurückberechnet:
PF (X) = (X − λ)(X − λ̄) = X 2 − (λ + λ̄)X + λλ̄ = X 2 − 2 cos γ · X + 1 .
Ein Wert γ tritt also in der Matrix genau dann auf, wenn cos γ + i sin γ ein
Eigenwert von F ist. Mit jedem komplexen Eigenwert λ ist auch das konjugiertkomplexe λ̄ ein Eigenwert; das gilt für die Nullstellen eines beliebigen Polymons
mit reellen Koeffizienten. Aus der Eindeutigkeit der Zerlegung eines Polynoms in
Linearfaktoren folgt weiter, dass λ und λ̄ jeweils mit der gleichen Vielfachheit in
PF vorkommen. Diese gemeinsame Vielfachheit ist gleich der Anzahl der Blöcke
Rγ in der Darstellungsmatrix. Genauer gibt es in jedem Paar λ, λ̄ genau einen
mit positivem Imaginärteil, nämlich cos γ + i sin γ mit sin γ > 0, was genau zu
unserer Festlegung 0 < γ < π äquivalent ist.
Herunterladen