4.5 Der Spektralsatz für symmetrische Ma- trizen

Werbung
Lineare Algebra II – Sommersemester 2017
4.5
c Rudolf Scharlau
323
Der Spektralsatz für symmetrische Matrizen
In diesem Unterkapitel geht es darum, noch einen anderen Blick auf reelle
symmetrische Matrizen zu bekommen. Hierzu wird zunächst der Begriff
des „adjungierten Endomorphismus” eingeführt; er bezieht sich auf Endomorphismen in euklidischen Vektorräumen. Man stellt fest, dass selbstadjungierte Endomorphismen bezüglich Orthonormalbasen durch symmetrische Matrizen dargestellt werden. Das zentrale Resultat ist dann
der sogenannte Spektralsatz 4.5.6. Er besagt, dass selbstadjungierte Endomorphismen diagonalisierbar sind (und kann soweit auch als Ergänzung zu Kapitel 3.3 aufgefasst werden), und dass darüber hinaus die
Diagonalisierung sogar durch eine Orthogonalbasis erfolgen kann. In Korollar 4.5.7 formulieren wir die Aussage des Spektralsatzes explizit für
symmetrische Matrizen und erhalten auf diese Weise, durch Interpretation der gegebenen Matrix als Gram-Matrix, Anschluss an das vorige
Unterkapitel 4.4. Es ergibt sich als unmittelbare Folgerung, dass man
die Signatur auch aus den Vorzeichen der Eigenwerte ablesen kann (siehe Korollar 4.5.8).
Definition 4.5.1 Es sei (V, h , i) ein euklidischer Vektorraum und F, G ∈
End(V ).
a) G heißt adjungiert zu F , falls für alle v, w ∈ V gilt:
hF (v), wi = hv, G(w)i .
b) F heißt selbstadjungiert, falls F zu sich selbst adjungiert ist, d.h.
für alle v, w ∈ V gilt:
hF (v), wi = hv, F (w)i .
Bemerkung 4.5.2 Es sei (V, h , i) ein euklidischer Vektorraum. Wir
betrachten Endomorphismen F und G von V .
a) Wenn G adjungiert zu F ist, dann ist auch F adjungiert zu G.
b) F ist genau dann orthogonal , wenn F bijektiv und zu F −1 adjungiert ist.
Beweis: Teil a) folgt daraus, dass die G kennzeichnende Gleichung
hF (v), wi = hv, G(w)i äquivalent ist zu hG(w), vi = hw, F (v)i (die beiden
Seiten vertauschen und benutzen, dass h , i symmetrisch ist). Die Bijektivität in Teil b) war bereits in Bemerkung 2.10.29 festgestellt worden:
Jeder orthogonale Endomorphismus ist bijektiv, also ein Automorphismus. Man ersetzt nun in der Definition einer orthogonalen Abbildung
das durch ganz V laufende w durch F −1 (w) und erhält wie gewünscht
hF (v), wi = hv, F −1 (w)i .
Adjungiertheit ist zunächst als (symmetrische) Relation zwischen zwei
Endomorphismen definiert; tatsächlich gibt es aber zu jedem F genau ein
G, das mit F in dieser Relation steht, wie wir jetzt zeigen werden. (Mit
anderen Worten: die Relation ist eine Abbildung, genauer der Graph
einer Abbildung; siehe 1.1.21.)
Satz 4.5.3 Es sei (V, b) ein euklidischer Vektorraum.
a) Zu jedem Endomorphismus F von V gibt es einen eindeutigen adjungierten Endomorphismus G, bezeichnet mit G =: F ad .
324 Lineare Algebra II – Sommersemester 2017
c Rudolf Scharlau
b) Für alle F, F1 , F2 ∈ End(V ) und jeden Skalar α gilt
(F1 ◦ F2 )ad = F2ad ◦ F1ad ,
(F1 + F2 )ad = F1ad + F2ad ,
(αF )ad = α F ad .
c) Es sei B eine Orthonormalbasis von V und A = MBB (F ). Ein G ∈
End(V ) ist genau dann adjungiert zu F , wenn MBB (G) = At ist.
Beweis: zu c): Wir betrachten zunächst einen
Spezialfall: Es sei V = Rn und b das Standard-Skalarprodukt h , i. Es
sei A ∈ Rn×n . Dann ist FAt adjungiert zu FA , d.h.
hA~x, ~y i = h~x, At ~y i für alle ~x, ~y ∈ Rn .
Beweis hierzu: Dieser ergibt sich ohne das Rechnen mit Doppelsummen aus der Darstellung des Standardskalarproduktes als Matrixprodukt
„Zeile mal Spalte”: Für alle ~x, ~y ∈ Rn gilt
hA~x, ~y i = (A~x)t ~y = ~xt (At ~y ) = h~x, At ~y i.
Für den allgemeinen Fall schreiben wir
v=
n
X
i=1
x i vi ,
w=
n
X
yj vj ,
mit xi , yj ∈ R
j=1
und B = (v1 , . . . , vn ), d.h. wir benutzen den Basisisomorphismus ΦB :
Rn → V . Nach Bemerkung 2.10.28 (siehe auch 2.10.22) ist dieser eine orthogonale Abbildung, d.h. b(v, w) = h~x, ~y i, ensprechend auch für
b(F (v), w) und b(v, G(w)). Unter Benutzung der grundlegenden Formel
aus Satz 2.8.2 (über die Koordinaten von Bildvektoren) erhalten wir nun
b(F (v), w) = hA~x, ~y i,
b(v, G(w)) = h~x, B~y i,
wobei B := MBB (G). Aus dem Spezialfall folgt nun sofort die gewünschte Gleichung im allgemeinen Fall, wenn B = At ist. Die umgekehrte
Implikation, d.h. die Aussage „genau dann” aus c) folgt aus der in a)
festgestellten Eindeutigkeit der zu F adjungierten Abbildung.
zu a): Die Existenz einer adjungierten Abbildung folgt sofort aus c)
(wir definieren G über seine Darstellungsmatrix). Die Eindeutigkeit folgt
daraus, dass jedes Skalarprodukt nicht-entartet ist: wenn G und G0 beide
adjungiert zu F sind, dann folgt für alle w ∈ V , dass hv, G(w)−G0 (w)i =
0 für alle v ∈ V und damit G(w) − G0 (w) = 0.
zu b): Man rechnet nach, dass die jeweilige rechte Seite der Behauptung die Bedingung an die zu bestimmende Adjungierten erfüllt und
benutzt die Eindeutigkeit.
Wir wollen nun zeigen, dass selbstadjungierte Endomorphismen diagonalisierbar sind. Hierfür müssen wir zunächst etwas über F -invariante
Unterräume wissen.
Lemma 4.5.4 Seien (V, h , i) ein euklidischer Vektorraum, F ∈ End(V ),
und U ein Unterraum von V . Wenn U F -invariant ist, dann ist U ⊥ F ad invariant.
Beweis: Gegeben sei y ∈ U ⊥ . Für alle x ∈ U gilt
hx, F ad (y)i = hF (x), yi = 0,
weil F (x) ∈ U . Also ist F ad (y) ∈ U ⊥ , wie behauptet.
Lineare Algebra II – Sommersemester 2017
c Rudolf Scharlau
325
Lemma 4.5.5 Jeder (komplexe) Eigenwert einer reellen symmetrischen
Matrix ist reell.
Beweis: Wir benutzen das sogenannte komplexe Standard-Skalarprodukt
h~z, w
~ i :=
n
X
~ ∈ Cn .
zi wi , für alle ~z, w
i=1
Es gelten die Rechenregeln
h~z, λw
~ i = λh~z, w
~ i für alle ~z, w
~ ∈ Cn , λ ∈ C,
sowie hw,
~ ~z i = h~z, w
~ i; ansonsten gelten die Regeln eines (reellen) Skalarproduktes; insbesondere ist h~z, ~z i reell und positiv, wenn ~z 6= ~0 ist.
Sei nun ~z ein Eigenvektor zum Eigenwert λ ∈ C von A = At ∈ Rn×n .
Dann ist
λh~z, ~z i = hλ~z, ~z i = hA~z, ~z i = h~z, A~z i = h~z, λ~z i = λh~z, ~z i.
Also ist λ = λ und damit λ ∈ R.
Satz 4.5.6 (Spektralsatz) Es sei F ein selbstadjungierter Endomorphismus eines euklidischen Vektorraumes V .
a) Jeder F -invariante Unterraum besitzt ein F -invariantes Komplement.
b) F ist diagonalisierbar. Es gibt sogar eine Orthonormalbasis von V
aus Eigenvektoren von F .
Beweis: Teil a) folgt sofort aus Lemma 4.5.4: Man nehme das orthogonale Komplement des Unterraums.
zu b): Nach Satz 4.5.3.c) kann F durch eine symmetrische Matrix
dargestellt werden, hat also nach Lemma 4.5.5 einen (reellen) Eigenwert
und damit auch einen Eigenvektor v1 . Diesen können wir als normiert
annehmen: kv1 k = 1. Wir haben nach Satz 2.10.11 eine orthogonale Zerlegung V = Rv1 ⊕ v1⊥ . Nach Lemma 4.5.4 ist v1⊥ F -invariant. Der von F
auf v1⊥ induzierte Endomorphismus ist trivialerweise wieder selbstadjungiert. Wenn wir für diesen Endomorphismus entsprechend vorgehen, und
so weiter, erhalten wir in n = dim V Schritten ein System von n normierten Eigenvektoren, die alle senkrecht aufeinander stehen. (Formal
machen wir hier natürlich einen Induktionsbeweis über die Dimension
von V .)
Korollar 4.5.7 (Spektralsatz für Matrizen) Jede reelle symmetrische Matrix A ist diagonalisierbar, und sogar mit einer orthogonalen
Transformationsmatrix. D.h., zu A existiert eine orthogonale Matrix S
mit
S −1 AS = D = Diag(d1 , d2 , . . . , dn ), S −1 = S t .
Das heißt, A ist gleichzeitig ähnlich und kongruent zu einer Diagonalmatrix.
Beweis: Wir betrachten den Rn mit dem Standardskalarprodukt und
wenden den Spektralsatz 4.5.6.b) auf den nach Satz 4.5.3 c) selbstadjungierten Endomorphismus FA von Rn an. Aus den Vektoren der hiernach
existierenden Orthonormalbasis bilden wir spaltenweise eine Matrix S.
Diese ist nach Satz 2.10.30 (iii) orthogonal, und nach Konstruktion ist
S −1 AS eine Diagonalmatrix.
Aus dem letzten Korollar, ergibt sich als weiteres Korollar die folgende, gegenüber Satz 4.4.7 in gewisser Weise verbesserte (nämlich immer
anwendbare) Methode zur Bestimmung der Signatur.
326 Lineare Algebra II – Sommersemester 2017
c Rudolf Scharlau
Korollar 4.5.8 Es sei b eine symmetrische Bilinearform auf einem RVektorraum. Dann ergibt sich die Signatur (n+ , n− , n0 ) von b aus einer
beliebigen Gram-Matrix A von b als die Anzahl (mit Vielfachheiten) der
Eigenwerte von G, die positiv, bzw. negativ, bzw. Null sind.
Beweis: Die zur gegebenen Gram-Matrix A gehörige Basis sei A, also
A := GA (b). Wir wenden nun das Korollar 4.5.7 auf die Matrix A an.
B
an. Wir definieren eine neue Basis B durch MA
(Id) = S und entnehmen
−1
t
der Gleichung S
= S und der Basiswechselformel aus Satz 4.2.6,
dass D die Gram-Matrix von b bezüglich B ist. Nach Definition der
Signatur ist also n+ die Anzahl der positiven Diagonalelemente von D,
entsprechend n− . Andererseits sind aber die Diagonalelemente von D
genau die Eigenwerte von D, also auch von A. Damit ist die Behauptung
bewiesen.
Bemerkung 4.5.9 Die praktische Berechnung einer ON-Basis, ausgehend von einer symmetrischen Darstellungsmatrix von F , wird nicht
unbedingt dem im Beweis von 4.5.6 angegebenen Weg folgen: Wenn die
Eigenwerte bereits bekannt sind, bestimmt man einfach alle Eigenräume. Diese sind orthogonal zueinander, was wir im folgenden Satz 4.5.10
separat beweisen, und V ist ihre direkte Summe (weil F diagonalisierbar
ist; siehe Bemerkung 3.3.5 und Satz 3.3.10). Man bestimmt dann für jeden Eigenraum eine ansonsten völlig beliebige ON-Basis (etwa mit dem
Gram-Schmidt-Verfahren) und setzt diese einzelnen Basen zu der gesuchten Basis des Gesamtraumes zusammen; vergleiche auch Satz 3.3.12).
Satz 4.5.10 Seien (V, h , i) ein euklidischer Vektorraum und F ∈ End(V )
selbstadjungiert. Dann sind Eigenvektoren aus verschiedenen Eigenräumen stets orthogonal zueinander.
Beweis: Für v ∈ Eig(F, λ), w ∈ Eig(F, µ) gilt λhv, wi = hF (v), wi =
hv, F (w)i = µhv, wi. Unter der Voraussetzung λ 6= µ folgt hieraus hv, wi =
0.
Herunterladen