5 Eigenwerte, Eigenvektoren und Diagonali

Werbung
99
ME – Lineare Algebra HT 2008
5
Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
5.1
Ein Beispiel zur Motivation
Als einfachstes Beispiel eines dynamischen Systems“ untersuchen wir folgen”
des Differentialgleichungssystem (DGS) mit den Anfangsbedingungen (AB)




dv = 4v − 5w ,
dt


 dw = 2v − 3w ,
dt
v=8
für t = 0 ;
w=5
für t = 0
zusammen ein Anfangswertproblem“ (AWP).
”
In Matrix-Schreibweise lautet AWP kurz
du
= Au ,
dt
wobei
v(t)
u(t) =
w(t)
!
u = u0
für t = 0 ,
!
8
,
u0 =
5
,
4
A=
2
Im skalaren Fall
!
−5
.
−3
du
= au , u = u0 für t = 0
dt
kennt man (Trennung der Variablen; vgl. spätere Analysis-Vorlesung) die
Lösung u(t) = eat u0 .
Daher machen wir den Ansatz
(
v(t) = eλt y
w(t) = eλt z
y
mit Unbekannten λ, y, z oder kurz mit x =
z
!
u(t) = eλt x .
Diesen Ansatz setzen wir in das Differentialgleichungssystem (DGS) ein:



λeλt y = 4eλt y − 5eλt z
λeλt z = 2eλt y − 3eλt z ,
100
ME – Lineare Algebra HT 2008
kürzen durch den gemeinsamen Faktor eλt > 0; es bleibt
(
4y − 5z = λy
2y − 3z = λz
oder kurz
Ax = λx .
Dies ist die grundlegende Gleichung für den Eigenwert“ λ mit Eigenvektor“
”
”
x. Diese ist nichtlinear wegen des Produktes λx; ist aber ein Eigenwert λ
bekannt, bleibt für x ein lineares homogenes Glg.system:
(A − λI)x = 0 .
Wie bei jedem homogenen linearen Glg.system gibt es die triviale Lösung
x = 0; diese ist aber nutzlos, denn mit der Nullfunktion können wir die
Anfangsbedingungen nicht erfüllen. Also interessieren nur spezielle Werte λ,
zu denen es nichttriviale Lösungen (6= 0) gibt, d.h. A − λI muss singulär sein.
Folgerung:
λ ist Eigenwert von A mit einem Eigenvektor ⇐⇒ det(A − λI) = 0,
Dies ist die charakteristische Gleichung“ zum charakteristischen“
”
”
Polynom“ det(A − λI)
”
Im Beispiel:
det
4−λ
−5
2
−3 − λ
!
= (4 − λ)(−3 − λ) + 10 = λ2 − λ − 2 = (λ + 1)(λ − 2)
also zwei getrennte Eigenwerte: λ1 = −1, λ2 = 2
hierzu gehört jeweils ein Unterraum
für λ1 = −1
!
5 −5
(A − λ1 I) x =
2 −2
!
y
0
=
z
0
!
und
1
x1 =
1
!
ist eine Basis des Nullraums N (A − λ1 I), des Eigenraums“ zu λ1 = −1;
”
für λ2 = 2
!
2 −5
(A − λ2 I) x =
2 −5
!
0
y
=
z
0
!
und
5
x2 =
2
!
101
ME – Lineare Algebra HT 2008
ist eine Basis für N (A − λ2 I), des Eigenraums zu λ2 = 2.
Zurück zum AWP!
!
1
;
u 1 = e x1 = e
1
!
λ2 t
2t 5
u 2 = e x2 = e
2
λ1 t
−t
sind zwei spezielle (Exponential-) Lösungen des DGS. Da das DGS linear
und homogen ist, können wir superponieren “, d.h.
”
u(t) = γ1 eλ1 t x1 + γ2 eλ2 t x2
mit freien Parametern γ1 , γ2 ist auch Lösung. Durch Wahl dieser γ1 , γ2 lassen
sich (hoffentlich) die Anfangsbedingungen erfüllen:
γ1 u1 (0) + γ2 u2 (0) = γ1 x1 + γ1 x2 = u0
Im Beispiel
15
12
!
!
γ1
8
=
γ2
5
!
=⇒
inhomogenes lineares Glg.system
γ1 = 3, γ2 = 1.
Die Lösung zu obigem Anfangswertproblem ist
u(t) = 3e−t
!
5
1
+ e2t
2
1
!
oder für die einzelnen Komponenten
v(t) = 3e−t + 5e2t ; w(t) = 3e−t + 2e2t .
Da eine Gleichung n-ten Grades wie die charakteristische Gleichung für n ≥ 2
i.a. komplexe Wurzeln besitzt, benötigen wir spätestens jetzt Vektoren in
CI n als unitären Vektorraum, insbesondere Definition und Eigenschaften der
konjugierten Transponierten (Hermiteschen Transponierten).
102
ME – Lineare Algebra HT 2008
5.2
Das Eigenwertproblem, das charakteristische Polynom, die charakteristische Gleichung
Definition 5.1 Sei A ∈ CI n×n . Dann heißt λ ∈ CI ein Eigenwert“ von A und
”
x ∈ CI n ein zugehöriger Eigenvektor“, wenn x 6= 0 und die Eigengleichung“
”
”
Ax = λx
erfüllt ist.
Eigenwertproblem“: Finde alle Eigenwerte und Eigenvektoren von A.
”
Geometrische Deutung: A vermittelt lineare Abbildung CI n −→ CI n .
Aus Ax = λx folgt (∀α ∈ C)
I A α x = λ α x,
d.h. A bildet die Gerade CI x = {αx | α ∈ C}
I in sich selbst ab, CI x ist also
eine Fixgerade (eine Fixpunktgerade, nur falls λ = 1).
Eigenwertproblem: Finde alle Fixgeraden von A.
Mit anderen Worten: λ ∈ CI ist genau dann ein Eigenwert von A, wenn die
Eigengleichung (A − λI)x = 0 eine nichttriviale Lösung x 6= 0 besitzt. Dies
trifft genau dann zu, wenn die quadratische Matrix A − λI singulär ist oder
wenn λ die charakteristische“ Gleichung erfüllt:
”
det(A − λ I) = 0 .
(5.1)
Ausführlicher mit A = (ajk ) heißt diese charakteristische Gleichung
(a11 − λ)
a12
···
a21
(a22 − λ) · · ·
..
.
an1
···
a1n
a2n
· · · (ann − λ)
= 0.
Die linke Seite der Gleichung (5.1) ist ein Polynom in λ, denn wegen der
Summendarstellung (4.3) der Determinante in §4.2 ist jeder Summand ein
Polynom in λ. Diese Summe über die Permutationen ν enthält (- wählt man
gerade die Permutation ν als die Identität - ) das Produkt der Diagonalglieder

(a11 −λ)(a22 −λ) · · · (ann −λ) = (−1)n λn +(−1)n−1 
n
X
j=1

ajj  λn−1 +. . .+
n
Y
j=1
ajj ,
103
ME – Lineare Algebra HT 2008
ein Polynom n-ten Grades mit Höchstkoeffizienten (−1)n ; alle anderen Summanden sind Polynome niedrigeren Grades. Damit folgt:
Das charakteristische“ Polynom χA (λ) := det(A−λ I) ist ein Polynom vom
”
Grad n in λ.
Jetzt schreiben wir das charakteristische Polynom in Potenzen von −λ auf:
χA (λ) = det(A − λ I) =
n
X
cl (−λ)l ,
l=0
wobei wie bereits oben gesehen, cn = 1.
Zunächst Fall n = 2. Entwicklung nach den Spalten liefert
χA (λ) =
=
=
a11 − λ · 1 a12
a21 − λ · 0 a22 − λ
a11 a12
a21 a22 − λ
a11 a12
a21 a22
−
− λ
λ
1
0
a12
a22 − λ
a11 0 −λ
a21 1 = det A − (a11 + a22 )λ + λ2 .
(
1 a12
0 a22
−λ
)
1 0 0 1 Zu allgemeinem n schreiben wir mit Spaltenvektoren A = (a1 , . . . , an ), I =
(e1 , . . . , en ) und entwickeln in den Spalten
det(A − λI) = det(a1 − λe1 , a2 − λe2 , . . . , an − λen )
= det(a1 , a2 − λe2 , . . . , an − λen ) − λ det(e1 , a2 − λe2 , . . . , an − λen )
..
.
=
n
P
cl (−λ)l .
l=1
Also ist cl die Summe von Determinanten der Form det(z1 , . . . , zn ) mit zj = aj
oder zj = ej (j = 1, . . . , n). Einziger Term ohne λ ist det(a1 , . . . , an ), damit
wird
c0 = det A .
(5.2)
Die Terme zu (−λ)n−1 sind genau n Determinanten, nämlich det(z1 , . . . , zn )
mit einem zj = aj (j = 1, . . . , n), alle übrigen zj 0 = ej 0 für j 0 6= j, j 0 ∈
104
ME – Lineare Algebra HT 2008
{1, . . . , n}, also mit Entwickeln nach der jten Zeile det(z1 , . . . , zn ) = ajj .
Folglich erhalten wir die Spur“ von A,
”
cn−1 =
n
X
ajj =: Spur A .
(5.3)
j=1
Andererseits gibt es nach dem Fundamentalsatz der Algebra zu dem charakteristischen Polynom χA (λ) n-ten Grades r paarweise verschiedene Wurzeln
oder Nullstellen, wobei 1 ≤ r ≤ n, also r paarweise verschiedene Eigenwerte
λj , j = 1, . . . , r und es gilt
χA (λ) = (−1)n (λ − λ1 )k1 (λ − λ2 )k2 · . . . · (λ − λr )kr
(5.4)
mit k1 + k2 + . . . + kr = n und λj kj -facher Eigenwert von A.
Hierbei heißt kj ∈ IN algebraische Vielfachheit“ von λj .
”
Etwas ausführlicher und jeweils (-1) hineinmultipliziert schreibt sich
χA (λ) = (λ1 − λ) · . . . · (λ1 − λ) · . . . · (λr − λ) · . . . · (λr − λ) .
|
{z
k1 F aktoren
}
|
{z
kr F aktoren
}
Koeffizientenvergleich mit χA (λ) = c0 + c1 (−λ) + · · · + cn−1 (−λ)n−1 + (−λ)n
=⇒
cn−1 = k1 λ1 + . . . + kr λr
c0 = λk11 · . . . · λkr r
Mit (5.2) und (5.3) folgt:
det A = λk11 λk22 · . . . · λkr r ;
Spur A = k1 λ1 + k2 λ2 + . . . + kr λr .
(5.5)
(5.6)
Invarianz bei Ähnlichkeitstransformationen
Jede Matrix A ∈ CI n×n vermittelt bekanntlich die lineare Abbildung x ∈ CI n 7→
y = Ax ∈ CI n . Transformieren wir die Koordinaten x, y zu z = T x, w = T y mit
einer invertierbaren Transformationsmatrix“ T ∈ CI n×n (und führen somit
”
einen Basiswechsel“ durch, vgl. Beispiel zu Def. 2.8, S. 42 und Bemerkung
”
zu Korollar 2.2, S. 46 in §2.3), dann stellt sich dieselbe lineare Abbildung in
den neuen Koordinaten dar als z ∈ CI n 7→ w = T y = T Ax = T AT −1 z ∈ CI n ,
d.h. als z ∈ CI n 7→ w = Bz mit der Matrix B = T AT −1 . Dies motiviert
folgende Begriffsbildung.
105
ME – Lineare Algebra HT 2008
Definition 5.2 Seien A, B ∈ CI n×n . A und B heißen ähnlich“ oder B ist
”
aus A durch eine Ähnlichkeitstransformation“ hervorgegangen, falls es eine
”
nichtsinguläre Matrix M ∈ CI n×n gibt, so dass
B = M −1 AM .
Satz 5.1 Bei ähnlichen Matrizen A und B gilt χA = χB .
Beweis:
det(B − λ I) = det(M −1 AM − λ M −1 M ) = det(M −1 (A − λ I)M )
= (det M )−1 det(A − λ I) det M = det(A − λ I)
Folgerung
Bei Ähnlichkeitstransformationen bleiben unverändert:
i) alle Eigenwerte samt algebraischer Vielfachheiten,
ii) Determinante der Matrix,
iii) Spur der Matrix.
Im Fall n = 3 sind die Hauptinvarianten“ von χA (λ) = −λ3 + c2 λ2 − c1 λ + c0
”
c2 = Spur A
i
1h
(Spur A)2 − Spur A2
c1 =
2
i
1h
(Spur A)3 − 3 (Spur A)(Spur A2 ) + 2 Spur A3 .
c0 = det A =
6
5.3
Der Eigenraum, Diagonalisierbarkeit
Definition 5.3 Sei A ∈ CI n×n und λ ein Eigenwert zu A. Dann heißt der
Nullraum N (A − λ I) der Eigenraum“ zu λ, seine Dimension die
”
geometrische Vielfachheit“ g von λ.
”
Es gilt (vgl. §2.4)
g = dim N (A − λ I) = n − Rang (A − λ I)
(5.7)
106
ME – Lineare Algebra HT 2008
Bemerkungen zum Fall A ∈ IRn×n
(1) Ist auch λ reell, so liefert Gaußsche Elimination reelle Eigenvektoren aus
der Eigengleichung (A − λ I) x = 0 und eine Basis des Eigenraums zu λ lässt
sich aus g reellen Vektoren bilden.
(2) Ist dagegen Im λ 6= 0, dann sind auch alle Eigenvektoren echt“ komplex.
”
Mit λ ist auch λ̄ Eigenwert, denn aus χA (λ) = 0 folgt 0 = χA (λ) = χA (λ̄),
da χA ein reelles Polynom ist.
Satz 5.2 Für die geometrische Vielfachheit gj und die algebraische Vielfachheit kj eines Eigenwertes λj von A ∈ CI n×n gilt
1 ≤ g j ≤ kj .
Beweis:
Sei µ ein Eigenwert von A. Dann ist A − µI singulär und dazu äquivalent
Rang (A − µI) ≤ n − 1. Also ergibt sich die geometrische Vielfachheit als
Defekt von A − µI, d.h. g = n− Rang (A − µI) ≥ 1.
Um die zweite Ungleichung zu beweisen, gehen wir in zwei Schritten vor.
Zunächst ergänzen wir eine Basis {x(1) , . . . , x(g) } des g-dimensionalen Eigenraumes N (A−µI) zu einer Basis {x(1) , . . . , x(g) , x(g+1) , . . . , x(n) } des CI n . Dann
konstruieren wir eine zu A ähnliche Matrix B derart, dass µ mindestens ein
g-facher Eigenwert von B und damit auch von A ist.
1. Schritt: Konstruiere eine Basis des orthogonalen Komplements U ⊥ zu dem
Unterraum U := N (A − λI); denn CI n = U ⊥ ⊕ N (A − λI). Dazu löse in
y ∈ CI n die homogenen Gleichungen y ∗ x(j) = 0 ⇔ x(j)∗ y = 0 (j = 1, . . . , g).
Mit anderen Worten: Bilde die Matrix S = (x(1) , . . . , x(g) ) ∈ CI n×g mit Rang
(S) = g, löse das homogene LGS S ∗ y = 0 und finde eine Basis des (n − g)dimensionalen linken Nullraums N (S ∗ ), wobei ja S ∗ ∈ CI g×n und dim N (S ∗ ) =
n - Rang (S ∗ ) = n - Rang (S) = n − g.
2. Schritt: Wir gehen aus von einer Basis {x(1) , . . . , x(g) , x(g+1) , . . . , x(n) } des
CI n mit Ax(j) = µx(j) ; j = 1, . . . , g. Dann hat die Matrix T := (x(1) , . . . , x(n) ) ∈
CI n×n vollen Rang und die Inverse
T −1


t̃∗1
 . 
. 
=
 . 
t̃∗n
107
ME – Lineare Algebra HT 2008
mit den Zeilen t̃∗k ; k = 1, . . . , n. Es gilt
(T
−1
T )kl =
t̃∗k x(l)
= δkl =
(
1 k = l,
0 k=
6 l.
Andererseits schreibt sich das Matrizenprodukt AT
= A(x(1) , . . . , x(g) , x(g+1) , . . . , x(n) )
= (Ax(1) , . . . , Ax(g) , Ax(g+1) , . . . , Ax(n) )
= (µx(1) , . . . , µx(g) , ∗, . . . , ∗).
Darum schließen wir


t̃∗1
 . 
(1)
(g)

B := T −1 AT = 
 ..  (µx , . . . , µx , ∗, . . . , ∗)
t̃∗n
=







0
µ
..
0
.
µ
0

∗ 
.

C

Die zu A ähnliche Matrix B besteht also aus einer g × g-Diagonalmatrix links
oben und einer (n − g) × (n − g)-Matrix C rechts unten. Da wegen Satz 5.1
die charakteristischen Polynome von A und B übereinstimmen, erhalten wir
nach Entwicklung in den ersten g Spalten
χA (λ) = χB (λ) = det (B − λI) = (µ − λ)g det (C − λI).
Also ist µ mindestens g-facher Eigenwert von A.
Beispiel:
A=
3 1
α 3
!
χA (λ) = (3 − λ)2 − α = 0 ⇒
√
λ1,2 = 3 ± α, falls α ≥ 0
q
λ1,2 = 3 ± i |α|, falls α < 0
q.e.d.
108
ME – Lineare Algebra HT 2008
Fall α = 0
λ = 3; r = 1; k1 = 2. Der Nullraum
N
3−λ
1
0
3−λ
!
0 1
0 0
=N
!
!
1
wird z.B. aufgespannt von
;
0
aber: g1 = dim N (A − λI) = n-Rang = 2 − 1 = 1 < k1 !
Fall α = 4 (bereitet Ähnlichkeitstrafo auf Diagonalgestalt vor)
r = 2; λ1 = 5, λ2 = 1.
−2
1
4 −2
N (A − λ1 I) = N
wird z.B. aufgespannt von
−2 1
0 0
=N
!
!
1
=: x(1)
2
2 1
4 2
N (A − λ2 I) = N
wird z.B. aufgespannt von
!
!
2 1
0 0
=N
!
!
−1
=: x(2) .
2
Damit klar
1 −1
2
2
Ax(j) = λj x(j) (j = 1, 2); A x(1) , x(2) = λ1 x(1) , λ2 x(2)
Setze
(1)
S := x , x
(2)
=
Damit ist
(1)
AS = λ1 x , λ2 x
(2)
=S
!
λ1 0
0 λ2
!
Weil x(1) und x(2) linear unabhängig, ist S invertierbar. Daher äquivalente
Darstellung:
!
!
λ1 0
5 0
−1
S AS =
=
0 λ2
0 1
Der Fall α = 1 führt auf eine symmetrische Matrix A; hier sind die Eigenvektoren zu den Eigenwerten 2, 4 orthogonal.
109
ME – Lineare Algebra HT 2008
Betrachte jetzt Summe (vgl. §2.5) aller Eigenräume
r
X
j=1
N (A − λj I) ⊆ CI n
Wann gilt =“?
”
Dazu benötigen wir
Satz 5.3 Gehören die Eigenvektoren x1 , . . . , xs (1 ≤ s ≤ r) zu paarweise
verschiedenen Eigenwerten λ1 , . . . , λs der Matrix A ∈ CI n×n , dann sind sie
linear unabhängig.
Beweis:
s
P
Zu zeigen: Aus (*)
αk xk = 0 (αk ∈ C)
I folgt, dass alle αk = 0.
k=1
Dazu verwenden wir die Gleichung
(A − λj I)xk =
(
(λk − λj )xk
0
falls j 6= k
j=k
(j, k = 1, . . . , s) .
Fixiere Index l ∈ {1, . . . , s} und multipliziere (*) von links mit
(A − λ1 I) . . . (A − λl−1 I)(A − λl+1 I) . . . (A − λs I).
Bleibt nur αl (λl − λ1 ) . . . (λl − λl−1 )(λl − λl+1 ) . . . (λl − λs )xl = 0
Alle Klammern 6= 0, da EWe paarweise verschieden, und xl 6= 0 (EVektor!)
=⇒ αl = 0.
q.e.d.
Satz 5.4 A ∈ CI n×n habe n linear unabhängige Eigenvektoren x1 , . . . , xn .
Setzt man S = (x1 , . . . , xn ) ∈ CI n×n , folgt



S −1 AS = Λ := 



λ1
λ2
..
.
λn





Beweis:
Sei Axj = λj xj (j = 1, . . . , n). Da {x1 , . . . , xn } linear unabhängig, ist S
nichtsingulär. Berechne Produkt AS spaltenweise:
110
ME – Lineare Algebra HT 2008
A(x1 , x2 , . . . , xn ) = (λ1 x1 , λ2 x2 , . . . , λn xn )

λ1
=


(x1 , x2 , . . . , xn ) 


Also AS = SΛ oder S −1 AS = Λ oder A = SΛS −1
λ2
..

.
λn





q.e.d.
Definition 5.4 A ∈ CI n×n heißt diagonalisierbar“, falls A ähnlich zu einer
”
Diagonalmatrix ist.
Prozess: diagonalisieren“, auf Diagonalgestalt transformieren“, d.h. ge”
”
sucht ist: Diagonalmatrix Λ und Ähnlichkeitstransformation S.
Bemerkungen: Die Spalten von S müssen Eigenvektoren von A sein, andere
Matrizen transformieren nicht auf eine Diagonalmatrix Λ; denn aus AS = SΛ
folgt für die j-te Spalte yj von S, dass j-te Spalte von SΛ = λj yj und j-te
Spalte von AS = Ayj , also Ayj = λj yj .
Transformations-Matrix S ist nicht eindeutig.
(Eigenvektoren sind es ja auch nicht!)
Folgerung:
Eine Matrix A ∈ CI n×n mit genau n paarweise verschiedenen Eigenwerten ist
diagonalisierbar.
Beweis:
Zu EWerten λ1 , . . . , λn gehören EVektoren x1 , . . . , xn , die nach obigem Satz
linear unabhängig sind.
Allgemeiner folgt aus Obigem das
Diagonalisierbarkeitskriterium:
Eine Matrix ist diagonalisierbar ⇐⇒ für jeden Eigenwert der Matrix gilt
algebraische Vielfachheit = geometrische Vielfachheit.
Bemerkung: Nicht jede Matrix ist diagonalisierbar!
Obiges Beispiel g1 = 1 < 2 = k1 .
Jedoch ist jede symmetrische Matrix (siehe später in §6.3) diagonalisierbar.
Herunterladen