Kapitel 15 - Universität Magdeburg

Werbung
1
Vorlesung
Mathematik für Ingenieure 3
(Wintersemester 2008/09)
Kapitel 15: Eigenwerte und -vektoren
Volker Kaibel
Otto-von-Guericke Universität Magdeburg
(Version vom 19. November 2008)
2
Diagonalisierbarkeit
Definition 15.1
Eine Matrix A ∈ Kn×n heißt diagonalisierbar, wenn
es eine invertierbare Matrix S ∈ Kn×n gibt, so dass
D = S −1 AS eine Diagonalmatrix ist.
3
Eigenwerte und -vektoren
Definition 15.2
Eine Zahl λ ∈ K heißt ein Eigenwert von
A ∈ Kn×n , wenn es (wenigstens) einen Vektor
v ∈ Kn \ {On } gibt mit
Av = λv .
Diese Vektoren heißen dann Eigenvektoren zum
Eigenwert λ.
4
Kriterium für Diagonalisierbarkeit
Satz 15.3
Eine Matrix A ∈ Kn×n ist genau dann
diagonalisierbar, wenn es eine Basis von Kn aus
lauter Eigenvektoren von A gibt. Schreibt man diese
Basisvektoren als Spalten in eine Matrix S ∈ Kn×n ,
so ist S −1 AS eine Diagonalmatrix, auf deren
Diagonalen die zu den Basisvektoren gehörenden
Eigenwerte stehen.
5
Eigenräume
Definition 15.4
Für einen Eigenwert λ ∈ K von A ∈ Kn×n heißt
EigA (λ) = {v ∈ Kn | Av = λv }
der Eigenraum zum Eigenwert λ.
6
Das charakteristische Polynom
Definition 15.5
Für eine Matrix A ∈ Kn×n heißt
χA = det(A − x · In ) ∈ K[x]n
das charakteristische Polynom von A.
Satz 15.6
Die Eigenwerte von A ∈ Kn×n sind genau die
Nullstellen des charakteristischen Polynoms
χA ∈ K[x]n von A.
7
Konsequenzen
Bemerkung 15.7
Eine Matrix A ∈ Kn×n hat also höchstens n
Eigenwerte (weil χA den Grad n hat).
Satz 15.8
Jede Matrix in Cn×n hat wenigstens einen
Eigenwert; wegen Rn×n ⊆ Cn×n hat also jede Matrix
wenigstens einen Eigenwert in C.
8
Nicht-reelle Eigenwerte reeller Matrizen
Bemerkung 15.9
Die nicht-reellen Eigenwerte reeller Matrizen treten
als Paare zueinander komplex-konjugierter
komplexer Zahlen auf.
9
Vielfachheiten von Nullstellen
I
Jedes Polynom p(x) ∈ C[x] vom Grad n
zerfällt in n Linearfaktoren:
p(x) = α · (λ1 − x)k1 · (λ2 − x)k2 · · · · · (λr − x)kr
I
mit
α ∈ C \ {O} , λi 6= λj , k1 + k2 + · · · + kr = n
λ1 , . . . , λr sind genau die Nullstellen von p(x),
ihre Vielfachheiten sind k1 , . . . , kr .
10
Vielfachheiten von Eigenwerten
Definition 15.10
Ist λ ∈ K ein Eigenwert von A ∈ Kn×n , so ist die
algebraische Vielfachheit von λ die Vielfachheit
der Nullstelle λ des charakteristischen Polynoms χA
von A; die geometrische Vielfachheit von λ ist
dim (EigA (λ)).
11
Algebraische und geometrische
Vielfachheit
Satz 15.11
Die geometrische Vielfachheit eines Eigenwerts ist
höchstens so groß wie seine algebraische
Vielfachheit; für jeden Eigenwert gilt also:
1 ≤ geom. Vielf. ≤ alg. Vielf.
12
Diagonalisierbarkeit und Eigenwerte
Satz 15.12
Eine Matrix A ∈ Kn×n ist genau dann (über K)
diagonalisierbar, wenn ihr charakteristisches
Polynom χA (über K) in Linearfaktoren zerfällt und
für jeden Eigenwert die geometrische Vielfachheit so
groß wie die algebraische ist.
13
Determinante und Spur. . .
Satz 15.13
Sind λ1 , . . . , λr ∈ C die Eigenwerte einer Matrix
A ∈ Cn×n mit algebraischen Vielfachheiten
k1 , . . . , kr , so ist
k
k
I det (A) = λ 1 · λ 2 · · · · · λkr
r
2
1
I Spur (A) = k1 λ1 + k2 λ2 + · · · + kr λr
n
P
(Spur (A) =
Aii )
i=1
14
. . . im charakteristischen Polynom
Bemerkung 15.14
Für jede Matrix A ∈ Kn×n ist
χA = (−1)n x n +(−1)n−1 Spur (A)x n−1 +· · ·+det (A),
Spur und Determinante findet man also in den
Koeffizienten des charakteristischen Polynoms.
15
Komplex konjugierte Vektoren/Matrizen
Definition 15.15
Für v = (v1 , . . . , vn ) ∈ Cn sei v = (v1 , . . . , vn ) ∈ Cn
der zu v komplex konjugierte Vektor; für
A = (aij ) ∈ Cn×n sei A = (aij ) ∈ Cn×n die zu A
komplex konjugierte Matrix.
16
Symmetrische reelle Matrizen
Satz 15.16
Jede symmetrische reelle Matrix A ∈ Rn×n ist über
R diagonalisierbar.
Satz 15.17
Die Eigenräume zu verschiedenen Eigenwerten einer
symmetrischen reellen Matrix stehen orthogonal
zueinander (d.h., je zwei Vektoren aus verschiedenen
Eigenräumen haben Skalarprodukt Null).
17
Orthonormalbasen, orthogonale Matrizen
Definition 15.18
Eine Orthonormalbasis ist eine Basis von Rn ,
deren Vektoren paarweise orthogonal aufeinander
stehen und Norm Eins haben.
Definition 15.19
Eine Matrix S ∈ Rn×n heißt orthogonal, wenn
S T S = I (d. h. S −1 = S T ) gilt.
Bemerkung 15.20
Eine Matrix S ∈ Rn×n ist genau dann orthogonal,
wenn die Spalten von S eine Orthonormalbasis
von Rn bilden.
18
Reelle symmetrische Matrizen
Satz 15.21
Für jede symmetrische Matrix A ∈ Rn×n gibt es eine
orthogonale Matrix S ∈ Rn×n , so dass S T AS = D
Diagonalgestalt hat. Die Eigenwerte von A stehen
dabei mit ihren (algebraischen, geometrischen)
Vielfachheiten auf der Diagonalen von D. Die
Spalten von S bilden eine Orthonormalbasis von Rn
aus Eigenvektoren von A.
19
Hermitesche Matrizen
Definition 15.22
Eine Matix A ∈ Cn×n heißt hermitesch, wenn
T
A = A ist.
Satz 15.23
Jede hermitesche Matrix A ∈ Cn×n ist
diagonalisierbar und hat nur reelle Eigenwerte.
Herunterladen