Lineare Algebra II – Sommersemester 2017 4.5 c Rudolf Scharlau 323 Der Spektralsatz für symmetrische Matrizen In diesem Unterkapitel geht es darum, noch einen anderen Blick auf reelle symmetrische Matrizen zu bekommen. Hierzu wird zunächst der Begriff des „adjungierten Endomorphismus” eingeführt; er bezieht sich auf Endomorphismen in euklidischen Vektorräumen. Man stellt fest, dass selbstadjungierte Endomorphismen bezüglich Orthonormalbasen durch symmetrische Matrizen dargestellt werden. Das zentrale Resultat ist dann der sogenannte Spektralsatz 4.5.6. Er besagt, dass selbstadjungierte Endomorphismen diagonalisierbar sind (und kann soweit auch als Ergänzung zu Kapitel 3.3 aufgefasst werden), und dass darüber hinaus die Diagonalisierung sogar durch eine Orthogonalbasis erfolgen kann. In Korollar 4.5.7 formulieren wir die Aussage des Spektralsatzes explizit für symmetrische Matrizen und erhalten auf diese Weise, durch Interpretation der gegebenen Matrix als Gram-Matrix, Anschluss an das vorige Unterkapitel 4.4. Es ergibt sich als unmittelbare Folgerung, dass man die Signatur auch aus den Vorzeichen der Eigenwerte ablesen kann (siehe Korollar 4.5.8). Definition 4.5.1 Es sei (V, h , i) ein euklidischer Vektorraum und F, G ∈ End(V ). a) G heißt adjungiert zu F , falls für alle v, w ∈ V gilt: hF (v), wi = hv, G(w)i . b) F heißt selbstadjungiert, falls F zu sich selbst adjungiert ist, d.h. für alle v, w ∈ V gilt: hF (v), wi = hv, F (w)i . Bemerkung 4.5.2 Es sei (V, h , i) ein euklidischer Vektorraum. Wir betrachten Endomorphismen F und G von V . a) Wenn G adjungiert zu F ist, dann ist auch F adjungiert zu G. b) F ist genau dann orthogonal , wenn F bijektiv und zu F −1 adjungiert ist. Beweis: Teil a) folgt daraus, dass die G kennzeichnende Gleichung hF (v), wi = hv, G(w)i äquivalent ist zu hG(w), vi = hw, F (v)i (die beiden Seiten vertauschen und benutzen, dass h , i symmetrisch ist). Die Bijektivität in Teil b) war bereits in Bemerkung 2.10.29 festgestellt worden: Jeder orthogonale Endomorphismus ist bijektiv, also ein Automorphismus. Man ersetzt nun in der Definition einer orthogonalen Abbildung das durch ganz V laufende w durch F −1 (w) und erhält wie gewünscht hF (v), wi = hv, F −1 (w)i . Adjungiertheit ist zunächst als (symmetrische) Relation zwischen zwei Endomorphismen definiert; tatsächlich gibt es aber zu jedem F genau ein G, das mit F in dieser Relation steht, wie wir jetzt zeigen werden. (Mit anderen Worten: die Relation ist eine Abbildung, genauer der Graph einer Abbildung; siehe 1.1.21.) Satz 4.5.3 Es sei (V, b) ein euklidischer Vektorraum. a) Zu jedem Endomorphismus F von V gibt es einen eindeutigen adjungierten Endomorphismus G, bezeichnet mit G =: F ad . 324 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau b) Für alle F, F1 , F2 ∈ End(V ) und jeden Skalar α gilt (F1 ◦ F2 )ad = F2ad ◦ F1ad , (F1 + F2 )ad = F1ad + F2ad , (αF )ad = α F ad . c) Es sei B eine Orthonormalbasis von V und A = MBB (F ). Ein G ∈ End(V ) ist genau dann adjungiert zu F , wenn MBB (G) = At ist. Beweis: zu c): Wir betrachten zunächst einen Spezialfall: Es sei V = Rn und b das Standard-Skalarprodukt h , i. Es sei A ∈ Rn×n . Dann ist FAt adjungiert zu FA , d.h. hA~x, ~y i = h~x, At ~y i für alle ~x, ~y ∈ Rn . Beweis hierzu: Dieser ergibt sich ohne das Rechnen mit Doppelsummen aus der Darstellung des Standardskalarproduktes als Matrixprodukt „Zeile mal Spalte”: Für alle ~x, ~y ∈ Rn gilt hA~x, ~y i = (A~x)t ~y = ~xt (At ~y ) = h~x, At ~y i. Für den allgemeinen Fall schreiben wir v= n X i=1 x i vi , w= n X yj vj , mit xi , yj ∈ R j=1 und B = (v1 , . . . , vn ), d.h. wir benutzen den Basisisomorphismus ΦB : Rn → V . Nach Bemerkung 2.10.28 (siehe auch 2.10.22) ist dieser eine orthogonale Abbildung, d.h. b(v, w) = h~x, ~y i, ensprechend auch für b(F (v), w) und b(v, G(w)). Unter Benutzung der grundlegenden Formel aus Satz 2.8.2 (über die Koordinaten von Bildvektoren) erhalten wir nun b(F (v), w) = hA~x, ~y i, b(v, G(w)) = h~x, B~y i, wobei B := MBB (G). Aus dem Spezialfall folgt nun sofort die gewünschte Gleichung im allgemeinen Fall, wenn B = At ist. Die umgekehrte Implikation, d.h. die Aussage „genau dann” aus c) folgt aus der in a) festgestellten Eindeutigkeit der zu F adjungierten Abbildung. zu a): Die Existenz einer adjungierten Abbildung folgt sofort aus c) (wir definieren G über seine Darstellungsmatrix). Die Eindeutigkeit folgt daraus, dass jedes Skalarprodukt nicht-entartet ist: wenn G und G0 beide adjungiert zu F sind, dann folgt für alle w ∈ V , dass hv, G(w)−G0 (w)i = 0 für alle v ∈ V und damit G(w) − G0 (w) = 0. zu b): Man rechnet nach, dass die jeweilige rechte Seite der Behauptung die Bedingung an die zu bestimmende Adjungierten erfüllt und benutzt die Eindeutigkeit. Wir wollen nun zeigen, dass selbstadjungierte Endomorphismen diagonalisierbar sind. Hierfür müssen wir zunächst etwas über F -invariante Unterräume wissen. Lemma 4.5.4 Seien (V, h , i) ein euklidischer Vektorraum, F ∈ End(V ), und U ein Unterraum von V . Wenn U F -invariant ist, dann ist U ⊥ F ad invariant. Beweis: Gegeben sei y ∈ U ⊥ . Für alle x ∈ U gilt hx, F ad (y)i = hF (x), yi = 0, weil F (x) ∈ U . Also ist F ad (y) ∈ U ⊥ , wie behauptet. Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau 325 Lemma 4.5.5 Jeder (komplexe) Eigenwert einer reellen symmetrischen Matrix ist reell. Beweis: Wir benutzen das sogenannte komplexe Standard-Skalarprodukt h~z, w ~ i := n X ~ ∈ Cn . zi wi , für alle ~z, w i=1 Es gelten die Rechenregeln h~z, λw ~ i = λh~z, w ~ i für alle ~z, w ~ ∈ Cn , λ ∈ C, sowie hw, ~ ~z i = h~z, w ~ i; ansonsten gelten die Regeln eines (reellen) Skalarproduktes; insbesondere ist h~z, ~z i reell und positiv, wenn ~z 6= ~0 ist. Sei nun ~z ein Eigenvektor zum Eigenwert λ ∈ C von A = At ∈ Rn×n . Dann ist λh~z, ~z i = hλ~z, ~z i = hA~z, ~z i = h~z, A~z i = h~z, λ~z i = λh~z, ~z i. Also ist λ = λ und damit λ ∈ R. Satz 4.5.6 (Spektralsatz) Es sei F ein selbstadjungierter Endomorphismus eines euklidischen Vektorraumes V . a) Jeder F -invariante Unterraum besitzt ein F -invariantes Komplement. b) F ist diagonalisierbar. Es gibt sogar eine Orthonormalbasis von V aus Eigenvektoren von F . Beweis: Teil a) folgt sofort aus Lemma 4.5.4: Man nehme das orthogonale Komplement des Unterraums. zu b): Nach Satz 4.5.3.c) kann F durch eine symmetrische Matrix dargestellt werden, hat also nach Lemma 4.5.5 einen (reellen) Eigenwert und damit auch einen Eigenvektor v1 . Diesen können wir als normiert annehmen: kv1 k = 1. Wir haben nach Satz 2.10.11 eine orthogonale Zerlegung V = Rv1 ⊕ v1⊥ . Nach Lemma 4.5.4 ist v1⊥ F -invariant. Der von F auf v1⊥ induzierte Endomorphismus ist trivialerweise wieder selbstadjungiert. Wenn wir für diesen Endomorphismus entsprechend vorgehen, und so weiter, erhalten wir in n = dim V Schritten ein System von n normierten Eigenvektoren, die alle senkrecht aufeinander stehen. (Formal machen wir hier natürlich einen Induktionsbeweis über die Dimension von V .) Korollar 4.5.7 (Spektralsatz für Matrizen) Jede reelle symmetrische Matrix A ist diagonalisierbar, und sogar mit einer orthogonalen Transformationsmatrix. D.h., zu A existiert eine orthogonale Matrix S mit S −1 AS = D = Diag(d1 , d2 , . . . , dn ), S −1 = S t . Das heißt, A ist gleichzeitig ähnlich und kongruent zu einer Diagonalmatrix. Beweis: Wir betrachten den Rn mit dem Standardskalarprodukt und wenden den Spektralsatz 4.5.6.b) auf den nach Satz 4.5.3 c) selbstadjungierten Endomorphismus FA von Rn an. Aus den Vektoren der hiernach existierenden Orthonormalbasis bilden wir spaltenweise eine Matrix S. Diese ist nach Satz 2.10.30 (iii) orthogonal, und nach Konstruktion ist S −1 AS eine Diagonalmatrix. Aus dem letzten Korollar, ergibt sich als weiteres Korollar die folgende, gegenüber Satz 4.4.7 in gewisser Weise verbesserte (nämlich immer anwendbare) Methode zur Bestimmung der Signatur. 326 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau Korollar 4.5.8 Es sei b eine symmetrische Bilinearform auf einem RVektorraum. Dann ergibt sich die Signatur (n+ , n− , n0 ) von b aus einer beliebigen Gram-Matrix A von b als die Anzahl (mit Vielfachheiten) der Eigenwerte von G, die positiv, bzw. negativ, bzw. Null sind. Beweis: Die zur gegebenen Gram-Matrix A gehörige Basis sei A, also A := GA (b). Wir wenden nun das Korollar 4.5.7 auf die Matrix A an. B an. Wir definieren eine neue Basis B durch MA (Id) = S und entnehmen −1 t der Gleichung S = S und der Basiswechselformel aus Satz 4.2.6, dass D die Gram-Matrix von b bezüglich B ist. Nach Definition der Signatur ist also n+ die Anzahl der positiven Diagonalelemente von D, entsprechend n− . Andererseits sind aber die Diagonalelemente von D genau die Eigenwerte von D, also auch von A. Damit ist die Behauptung bewiesen. Bemerkung 4.5.9 Die praktische Berechnung einer ON-Basis, ausgehend von einer symmetrischen Darstellungsmatrix von F , wird nicht unbedingt dem im Beweis von 4.5.6 angegebenen Weg folgen: Wenn die Eigenwerte bereits bekannt sind, bestimmt man einfach alle Eigenräume. Diese sind orthogonal zueinander, was wir im folgenden Satz 4.5.10 separat beweisen, und V ist ihre direkte Summe (weil F diagonalisierbar ist; siehe Bemerkung 3.3.5 und Satz 3.3.10). Man bestimmt dann für jeden Eigenraum eine ansonsten völlig beliebige ON-Basis (etwa mit dem Gram-Schmidt-Verfahren) und setzt diese einzelnen Basen zu der gesuchten Basis des Gesamtraumes zusammen; vergleiche auch Satz 3.3.12). Satz 4.5.10 Seien (V, h , i) ein euklidischer Vektorraum und F ∈ End(V ) selbstadjungiert. Dann sind Eigenvektoren aus verschiedenen Eigenräumen stets orthogonal zueinander. Beweis: Für v ∈ Eig(F, λ), w ∈ Eig(F, µ) gilt λhv, wi = hF (v), wi = hv, F (w)i = µhv, wi. Unter der Voraussetzung λ 6= µ folgt hieraus hv, wi = 0.