Eigenwerte und Eigenvektoren

Werbung
Kapitel 6
Eigenwerte und Eigenvektoren
Für viele Fragen der linearen Algebra und der Geometrie ist es wichtig, welche Geraden (und
allgemeiner: welche Unterräume) von einem Endomorphismus in sich abgebildet werden. Dies
stellt man mit Hilfe der Eigenwerttheorie fest. Sie ermöglicht es außerdem, zumindest über dem
Körper C der komplexen Zahlen jeden Endomorphismus eines endlich–dimensionalen Vektorraumes durch eine obere Dreiecksmatrix, oft sogar durch eine Diagonalmatrix darzustellen.
Die Eigenwerttheorie hat zahlreiche Anwendungen, u. a. in der Physik und in den Ingenieurwissenschaften.
6.1
Polynome
Die in der Praxis am häufigsten benötigten Funktionen sind die Polynomfunktionen. Insbesondere werden wir sie zur Berechnung von Eigenwerten brauchen.
6.1.1 Definition. Eine Polynomfunktion über einem Körper K ist eine Summe von Monomfunktionen, d. h. von Funktionen der Form m : K −→ K, x 7→ αn xn mit n ∈ N0 und αn ∈ K.
6.1.2 Bemerkung. Für den Körper K = Z2 = {0, 1} ist die Polynomfunktion
(
f:
K −→ K
x
7−→ x2 − x
die Nullfunktion. Es erscheint aber unangebracht, x2 − x als „Nullpolynom“ zu bezeichnen.
Deshalb werden Polynome hier neu definiert.
Im Folgenden sei R ein Ring mit Nullelement 0 und Einselement 1, sowie R∗ = R \ {0}.
6.1.3 Definition. R[N0 ] bezeichnet die Menge der Funktionen f : N0 −→ R (d. h. der Folgen
in R), die an höchstens endlich vielen Stellen ungleich 0 sind. Die Addition auf RN0 und speziell
auf R[N0 ] ist koordinatenweise definiert durch
(f + g)i = fi + gi .
Wie im Fall von Körpern definiert man die Folgen ej ∈ R[N0 ] (j ∈ N0 ) durch
(
ej = (δij ) mit δij =
67
1, j = i
0, j 6= i
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
68
6.1.4 Satz und Definition. (Polynomringe)
Es gibt genau eine Multiplikation · auf R[N0 ] , so dass
(∗)
ej · ek = ej+k für alle j, k ∈ N0
gilt und R[N0 ] zu einem Ring wird.
Wir setzen x := e1 und erhalten den so genannten Polynomring
R[x] := R[N0 ]
in der Unbestimmten x. Seine Elemente heißen Polynome.
Für jedes n ∈ N0 gilt xn = en .
Jedes von der Nullfolge 0 verschiedene Polynom besitzt eine eindeutige Darstellung der Form
f=
n
X
fi xi mit fn 6= 0.
i=0
fn heißt höchster Koeffizient oder Leitkoeffizient von f und n der Grad von f , in Zeichen
n = grad f.
Für das Nullpolynom f = 0 setzt man grad f = −∞.
6.1.5 Bemerkung. Wie unsere Betrachtung des Körpers Z2 zeigt, sind Polynome nicht genau
das Gleiche wie Polynomfunktionen, sondern eigentlich Koeffizientenfolgen. Dennoch ist die
P
Schreibweise ni=0 fi xi nützlich, unzweideutig und suggestiv.
Die Problematik, was eine „Unbestimmte“ oder „Variable“ sei, wird zunächst durch die Festsetzung x := e1 umgangen. Wir werden aber bald sehen, dass man auch andere Objekte als
Unbestimmte oder Variable wählen kann.
6.1.6 Folgerung. (Cauchy–Produkt)
Die Multiplikation in R[x] erfüllt folgende Regel:
X
(
X
fi xi )(
gj xj ) =
j
i
X
hk xk mit hk =
k
k
X
i=0
fi gk−i =
X
fi gj .
i+j=k
6.1.7 Bemerkungen.
(1) In jeder der obigen Summen sind nur endlich viele Summanden ungleich Null.
(2) Aufgrund der Definition von R[x] ist z. B. x2 − x = (0, −1, 1, 0, . . . ).
(3) Da R nicht kommutativ zu sein braucht, kann f · g 6= g · f für f , g ∈ R[x] gelten!
6.1.8 Definition. Jedem Polynom f ∈ R[x] ordnet man die Polynomfunktion fR : R −→ R
zu, die durch
fR (a) =
X
fi ai
(a ∈ R)
i
definiert ist („a wird für x eingesetzt“). Meist schreibt man wieder f für fR .
Ein Element a ∈ R heißt Nullstelle von f bzw. fR , falls fR (a) = 0 gilt.
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
69
6.1.9 Satz. (Einsetzhomomorphismen)
(1) RR ist mit der komponentenweisen Addition und Multiplikation ein Ring.
(2) Die Abbildung
ER : R[x] −→ RR ,
f 7−→ fR
ist genau dann ein Ring–Homomorphismus, wenn R kommutativ ist.
(3) Das Bild von ER , d. h. die Menge der Polynomfunktionen, ist der kleinste Unterring von
RR , der die identische Abbildung id R und alle konstanten Abbildungen enthält.
(4) Ist R ein unendlicher Körper, so induziert ER einen Isomorphismus zwischen dem Polynomring R[x] und dem Ring der Polynomfunktionen.
(5) Ist R ein kommutativer Unterring eines Ringes P , so ist für a ∈ P die Abbildung
EPa : R[x] −→ P, f 7−→ fP (a)
ein Ring-Homomorphismus, im Falle fP (a) 6= 0 für alle f ∈ R[x]∗ sogar ein Isomorphismus zwischen R[x] und R[a], dem kleinsten R ∪ {a} enthaltenden Unterring von P .
6.1.10 Bemerkungen. Aufgrund der letzten Tatsache (5) kann man den konkret definierten
Polynomring R[x] durch jeden beliebigen Ring der Form R[a] ersetzen, bei dem a ein „transzendentes“ Element irgend eines Oberrings P von R ist, d. h. ein Element von P , das keine
Nullstelle eines Polynoms aus R[x]∗ ist. Dieser Begriff ist von zentraler Bedeutung für die
klassische Algebra. Ein berühmtes und schwieriges Beispiel: Die Kreiszahl π ist transzendent
über Q (aber natürlich nicht über R).
Indem man jedes Element a aus R mit dem „konstanten Polynom“ ca = ax0 identifiziert, kann
man R als Unterring des Polynomrings P = R[x] auffassen. Es ist dann tatsächlich f = f (x)
im Sinne des Einsetzhomomorphismus EPx , der sich in diesem Fall als Identität entpuppt.
Hingegen sollte man ein Polynom f generell nicht mit den Ringelementen f (a) verwechseln.
6.1.11 Lemma. (Gradformeln)
Für beliebige Polynome f , g ∈ R[x] gilt:
(1) grad (f + g) ≤ max{grad f, grad g}.
(2) grad (f · g) ≤ grad f + grad g,
und Gleichheit tritt ein, sofern R nullteilerfrei ist, d. h. ab ∈ R∗ für a, b ∈ R∗ gilt.
6.1.12 Satz. (Division mit Rest)
Es sei f ein Polynom, dessen höchster Koeffizient invertierbar ist. (Dies ist über einem Körper
K für f ∈ K[x]∗ stets erfüllt). Dann existieren zu jedem Polynom g eindeutig bestimmte
Polynome q und r mit
g = qf + r und grad r < grad f.
6.1.13 Bemerkung. Die Division von Polynomen funktioniert wie die von Dezimalzahlen.
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
6.1.14 Beispiel.
(
x5
g
+
70
f
1
)
− ( x5 + x3
)
(
x2
+ 1 ) = x3 − x = q
x +
1
= r
:
− x3
− x3 − x
6.1.15 Satz. (Abspaltung von Linearfaktoren)
Ein Element a ∈ R ist Nullstelle des Polynoms g genau dann, wenn g = q · (x − a) für ein
Polynom q gilt. Dieses Polynom ist dann eindeutig bestimmt.
Man berechnet q mit Hilfe des so genannten Horner–Schemas:
g = gn xn + · · · + g1 x + g0
gn
gn−1
gn−2
↓
↓
↓
a
gn a
gn
. . . g0
↓
a2
+ gn−1 a
gn % gn a + gn−1 %
g(a) = r
Dabei steht ↓ für die Addition und % für die Multiplikation mit a. In der untersten Zeile des
Schemas stehen die Koeffizienten des Polynoms q mit g = q · (x − a), falls g(a) = 0:
qn−1 = gn ,
qn−2 = qn−1 a + gn−1 , . . . , q0 = q1 a + g1 .
6.1.16 Bemerkung. Für Polynome über nichtkommutativen Ringen kann es vorkommen,
dass g = (x − a) · q und trotzdem g(a) 6= 0, insbesondere g 6= q · (x − a) gilt!
Zum Beispiel erhalten wir für q = x − b und g = (x − a) · q = x2 − (a + b)x + ab :
g(a) = 0 ⇐⇒ a2 − a2 − ba + ab = 0 ⇐⇒ ab = ba ⇐⇒ g = q · (x − a).
6.1.17 Satz. (Faktorzerlegung von Polynomen)
Über einem Körper K lässt sich jedes Polynom g ∈ K[x]∗ eindeutig in der Form
g = h · (x − λ1 )n1 (x − λ2 )n2 . . . (x − λk )nk
schreiben, wobei λ1 , . . . , λk alle Nullstellen von g sind und h keine Nullstellen in K hat.
Ein Polynom n–ten Grades über einem Körper hat also höchstens n Nullstellen.
6.1.18 Satz. (Fundamentalsatz der Algebra)
Über C zerfällt jedes Polynom g 6= 0 in Linearfaktoren, d. h.
g = γ · (x − λ1 ) . . . (x − λn ) mit γ, λ1 , . . . , λn ∈ C.
Dabei ist n = grad g, und es können mehrere λk gleich sein.
6.1.19 Satz. (Komplexe Nullstellen und reelle Zerlegung)
(1) Ist g ∈ R[x] und λ = α + ıβ (mit α, β ∈ R) eine komplexe Nullstelle von g, so auch die
konjugiert komplexe Zahl λ̄ = α − ıβ.
(2) Jedes Polynom aus R[x] zerfällt über R in Faktoren höchstens zweiten Grades.
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
6.2
71
Eigenwerte, Eigenvektoren und Eigenräume
Im Folgenden sei K stets ein Körper und V ein K–Vektorraum.
6.2.1 Definition. Sei F ein Endomorphismus, also F ∈ End K (V ) = Hom K (V, V ), und λ ∈ K.
Ein Vektor v ∈ V ∗ = V \ {0} heißt Eigenvektor (EV) zum Eigenwert (EW) λ von F , falls
F (v) = λv.
Der Unterraum
V (F, λ) := Kern (λ id V − F )
heißt Eigenraum (ER) von F zum Eigenwert λ. Ein Vektor v ist also genau dann Eigenvektor
zum Eigenwert λ von F , wenn v ∈ V (F, λ)∗ = V (F, λ) \ {0} gilt.
Die Menge der Eigenwerte von F heißt Spektrum von F und wird mit Spec F bezeichnet.
Analog definiert man Eigenwerte, Eigenvektoren, Eigenräume und Spektren einer quadratischen Matrix A ∈ K n×n als diejenigen der linearen Abbildung Ã. Ein Vektor u ∈ Kn∗ ist
also genau dann EV zum EW λ von A, wenn A u = λ u gilt, und Spec A ist die Menge der
Eigenwerte von A. Der Eigenraum zum Eigenwert λ ist
V (A, λ) = {u ∈ Kn | A u = λ u}.
6.2.2 Satz. (Eigenwertgleichung)
λ ist Eigenwert von A ∈ K n×n genau dann, wenn det(λE − A) = 0 gilt.
6.2.3 Satz. (Eigenwerte und Eigenvektoren von Endomorphismen)
Sei V ein n–dimensionaler K-Vektorraum, F ∈ End K (V ) und A ∈ K n×n die Darstellungsmatrix von F bezüglich einer geordneten Basis B, also A = MBB (F ). Dann gilt für den Koordinatenvektor KB (v):
v ist EV zum EW λ von F ⇐⇒ KB (v) ist EV zum EW λ von A.
Also induziert KB einen Isomorphismus zwischen V (F, λ) und V (A, λ).
Die Eigenwerte λ findet man mittels der Gleichung det(F − λ id V ) = 0.
6.2.4 Bemerkungen.
(1) Matrizen und Determinanten lassen sich ebenso über Ringen wie über Körpern bilden,
doch kann man nicht alle Sätze aus den Kapiteln 4 und 5 ohne weiteres auf diesen
allgemeineren Fall übertragen.
(2) Da man jedes Element von K als „konstantes“ Polynom aus K[x] auffassen kann, lässt
sich jede Matrix A ∈ K n×n auch als Matrix aus K[x]n×n ' K n×n [x] interpretieren.
6.2.5 Definition und Satz. Für A ∈ K n×n ist xE − A ∈ K[x]n×n , und χA = det(xE − A) ist
ein Polynom n–ten Grades mit Leitkoeffizient 1, das so genannte charakteristische Polynom.
Entsprechend heißt χF = χA charakteristisches Polynom des Endomorphismus F , falls F durch
A bezüglich einer geordneten Basis dargestellt wird. χF ist unabhängig von der Basiswahl.
Die Eigenwerte von A bzw. F sind genau die Nullstellen von χA bzw. χF .
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
72
6.2.6 Lösungsschema bei Eigenwertaufgaben.
(1) Berechnung des charakteristischen Polynoms der Matrix A.
(2) Bestimmung der Nullstellen von χA .
(3) Lösung der homogenen Gleichungssysteme (λE − A)x = 0, wobei λ Nullstelle von χA ist
(hier ist mit x natürlich nicht x = e1 gemeint, sondern ein beliebiger Vektor aus Kn ).
Der Lösungsraum ist der Eigenraum V (A, λ) = V (Ã, λ).
6.2.7 Bemerkungen.
(1) Häufig wird das charakteristische Polynom als det(A − x E) definiert; wegen der Regel (D1)
ist det(A − x E) = (−1)n χA . Für gerades n macht das keinen Unterschied; für ungerades n
gibt es einen Vorzeichenwechsel, aber die Nullstellen bleiben natürlich die gleichen.
(2) Aufgrund der vorangehenden Überlegungen lassen sich Eigenwertaufgaben für Endomorphismen stets auf solche für Matrizen zurückführen (und umgekehrt).
6.2.8 Lemma. (Transpositionsregel und Kästchenregel)
(1) Für A ∈ K n×n gilt χAT = χA .
(2) Für A =
B C
!
∈ K n×n mit B ∈ K m×m , C ∈ K m×(n−m) und D ∈ K (n−m)×(n−m) gilt:
0 D
χA = χB · χD .
6.2.9 Definition. Die algebraische Vielfachheit m(A, λ) eines Eigenwertes λ von A ist die
Vielfachheit k von λ als Nullstelle des charakteristischen Polynoms χA , d. h.
χA = h · (x − λ)k ,
h ∈ K[x],
h(λ) 6= 0.
Die geometrische Vielfachheit von λ ist die Dimension des Eigenraumes V (A, λ).
6.2.10 Satz. (Geometrische und algebraische Vielfachheit von Eigenwerten)
Die geometrische Vielfachheit ist höchstens so groß wie die algebraische Vielfachheit:
dim V (A, λ) ≤ m(A, λ) für A ∈ K n×n .
6.2.11 Bemerkung. Eine Matrix A ∈ Rn×n kann auch als Matrix aus Cn×n aufgefasst werden. Die Eigenvektoren zu nicht reellen Eigenwerten sind dann allerdings ebenfalls nicht reell.
Für konjugiert komplexe Eigenwerte λ und λ̄ gilt:
v ist EV von A zum EW λ ⇐⇒ v̄ ist EV von A zum EW λ̄.


0 1 2



6.2.12 Beispiel. Die Matrix 
 2 0 1  hat das charakteristische Polynom
1 2 0
x −1 −2 √
χA = −2 x −1 = x3 − 6x − 9 = (x − 3)(x2 + 3x + 3) = (x − 3)(x + 3+ı2 3 )(x +
−1 −2
√
3−ı 3
2 )
x √
√
−3−ı 3
−3+ı 3
und
.
2
2
√
√
√
−1∓ı 3 −1±ı 3 T
−3∓ı 3
,
) zu
.
2
2
2
mit der reellen Nullstelle 3 und den konjugiert komplexen Nullstellen
Zugehörige Eigenvektoren sind: (1, 1, 1)T zu 3 bzw. (1,
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
6.3
73
Diagonalisierung
Wir wenden uns nun der Kennzeichnung derjenigen Endomorphismen zu, die bei geeigneter
Basiswahl durch Diagonalmatrizen (oder wenigstens durch Dreiecksmatrizen) darstellbar sind.
6.3.1 Definition. (1) Ein Endomorphismus heißt diagonalisierbar, falls er durch eine Diagonalmatrix bezüglich einer geeigneten geordneten Basis dargestellt werden kann.
(2) Eine Matrix A ∈ K n×n heißt diagonalisierbar, falls es die zugehörige lineare Abbildung Ã
ist, d. h., falls eine invertierbare Matrix C ∈ GL (n, K) existiert mit
A = C diag (λ1 , . . . , λn ) C −1 .
(3) Zwei Matrizen A, A0 ∈ K n×n heißen ähnlich oder konjugiert, in Zeichen A ≈ A0 , falls ein
C ∈ GL (n, K) existiert mit
AC = CA0 (d. h. A = CA0 C −1 bzw. C −1 AC = A0 ).
6.3.2 Satz. (Ähnliche Matrizen)
(1) Ähnlichkeit impliziert Äquivalenz.
(2) ≈ ist eine Äquivalenzrelation auf der Menge K n×n .
(3) Zwei Matrizen sind genau dann ähnlich, wenn sie bezüglich gewisser geordneter Basen
den gleichen Endomorphismus darstellen (Basis–Transformation).
(4) Ähnliche Matrizen haben das gleiche charakteristische Polynom.
6.3.3 Satz. (Lineare Unabhängigkeit der Eigenvektoren)
Eigenvektoren zu verschiedenen Eigenwerten (eines Endomorphismus F oder einer Matrix A)
sind stets linear unabhängig. Die Summe der Eigenräume ist also stets direkt.
6.3.4 Satz. (Diagonalisierbare Matrizen)
Für eine Matrix A ∈ K n×n sind äquivalent:
(a) A ist diagonalisierbar.
(b) A ist ähnlich zu einer Diagonalmatrix.
(c) Jede zu A ähnliche Matrix ist diagonalisierbar.
(d) V hat eine Basis aus Eigenvektoren von A.
(e) V ist direkte Summe der Eigenräume von A.
(f) n ist die Summe der Dimensionen der Eigenräume von A.
(g) Das charakteristische Polynom zerfällt in Linearfaktoren, und für jeden Eigenwert stimmt
die algebraische Vielfachheit mit der geometrischen überein.
6.3.5 Bemerkungen.
(1) Die Bedingung (b) bedeutet explizit:
(b) Es gibt eine Matrix C = (c1 , ..., cn ) ∈ GL(n, K) mit A = C diag (λ1 , . . . , λn ) C −1 .
In diesem Fall ist automatisch jede Spalte cj Eigenvektor zum Eigenwert λj von A.
Entsprechend bedeuten die Bedingungen (e) – (g) explizit:
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
74
Sind λ1 , . . . , λr die verschiedenen Eigenwerte von A, und ist nj = dim V (A, λj ), so gilt:
(e)
r
M
V (A, λj ) = Kn ,
(f )
j=1
r
X
nj = n ,
(g) χA =
j=1
r
Y
(x − λj )nj .
j=1
(2) Durch Übergang von Matrizen zu Endomorphismen erhält man analoge Aussagen wie in
Satz 6.3.4 für beliebige Endomorphismen n–dimensionaler Vektorräume.
6.3.6 Folgerungen. Sei A ∈ K n×n .
(1) Hat A n verschiedene Eigenwerte, so ist A diagonalisierbar.
(2) Ist A diagonalisierbar, so zerfällt χA in Linearfaktoren.
Keine der beiden Aussagen ist allgemein umkehrbar.
6.3.7 Beispiele.
(1) Die Einheitsmatrix ist als Diagonalmatrix trivialerweise diagonalisierbar. Aber sie hat
nur einen Eigenwert, nämlich 1.
1 1
!
ist das charakteristische Polynom χA = (x − 1)2 .
0 1
A hat den einzigen Eigenwert 1 mit zugehörigem Eigenraum R (1, 0)T .
Wegen dim V (A, 1) = 1 < m(A, 1) = 2 ist A nicht diagonalisierbar, obwohl χA in Linearfaktoren zerfällt.
(2) Für A =
(3) Die Matrix A in Beispiel 6.2.12 ist diagonalisierbar über C, aber nicht über R.
(4) Die Matrix
0 1
2 0
!
√
ist diagonalisierbar über R (Eigenwerte ± 2), aber nicht über Q.
Im Folgenden sei A wahlweise eine n × n –Matrix oder ein Endomorphismus eines n–dimensionalen Vektorraums.
6.3.8 Definition. Für jedes Polynom f = f0 + f1 x + · · · + fk xk ∈ K[x] sei
f (A) = f0 E + f1 A + · · · + fk Ak .
6.3.9 Satz. (Polynomfunktionen von Matrizen und Endomorphismen)
(1) Ist f ∈ K[x] und v EV zum EW λ von A, so ist v auch EV zum EW f (λ) von f (A).
(2) Mit A ist auch f (A) diagonalisierbar:
A = C diag (λ1 , . . . , λn ) C −1 =⇒ f (A) = C diag (f (λ1 ), . . . , f (λn )) C −1 .
6.3.10 Satz. (Eigenwerte inverser Matrizen)
(1) Ist v EV zum EW λ von A ∈ GL (n, K), so ist λ 6= 0 und v EV zum EW λ−1 von A−1 .
(2) Ist A ∈ GL (n, K) diagonalisierbar, so auch A−1 : A = CDC −1 =⇒ A−1 = CD−1 C −1 .
6.3.11 Satz. (Rationale Funktionen von Matrizen und Eigenwerten)
Für p, q ∈ K[x] mit q(A) ∈ GL (n, K) und λ ∈ K mit q(λ) 6= 0 sei
r(λ) := p(λ)q(λ)−1 und r(A) := p(A)q(A)−1 .
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
75
Dann gilt:
(1) r(A) = q(A)−1 p(A).
(2) Es gibt ein Polynom s ∈ K[x] mit r(A) = s(A).
(3) Ist v EV zum EW λ von A, so ist v auch EV von r(A) zum EW r(λ).
(4) Ist A diagonalisierbar, so auch r(A):
A = C diag (λ1 , . . . , λn ) C −1 =⇒ r(A) = C diag (r(λ1 ), . . . , r(λn )) C −1 .
x−1
, A ∈ K n×n mit A2 = O.
x+1
Dann ist λ = 0 Eigenwert von A, q(λ) = 1 6= 0, p(A) = A − E, q(A) = A + E, und r(0) = −1
ist Eigenwert von r(A) = (A − E)−1 (A + E) = −(A + E)2 = −2A − E.
Ist v Eigenvektor zum Eigenwert 0 von A, d. h. Av = 0v = 0, so folgt tatsächlich
6.3.12 Beispiel. Es sei p(x) = x − 1, q(x) = x + 1, r(x) =
(−2A − E)v = −2Av − v = (−1)v.
6.3.13 Definition. Ein Endomorphismus heißt trigonalisierbar, falls er eine obere Dreiecksmatrix als Darstellungsmatrix hat. Entsprechend heißt eine Matrix trigonalisierbar, falls sie zu
einer oberen Dreiecksmatrix ähnlich ist.
6.3.14 Bemerkungen. (1) Ein Endomorphismus ist genau dann diagonalisierbar bzw. trigonalisierbar, wenn eine (jede) seiner Darstellungsmatrizen es ist.
(2) Ist A eine obere oder untere Dreiecksmatrix, so zerfällt das charakteristische Polynom in
Linearfaktoren:

∗
λ1
..

A=

.
λn
0

n
Y

 =⇒ χA =
(x − λj ).

j=1
6.3.15 Lemma. Ist λ Eigenwert der Matrix A ∈ K n×n , so existieren Matrizen B ∈ GL (n, K)
und A1 ∈ K (n−1)×(n−1) mit
A=B
λ
∗
!
B −1 .
0 A1
6.3.16 Satz. (Trigonalisierbare Matrizen und Endomorphismen)
Eine Matrix (bzw. ein Endomorphismus) ist genau dann trigonalisierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt.
6.3.17 Folgerung. Über C ist jede quadratische Matrix trigonalisierbar.
6.3.18 Definition. (1) Eine strikte obere Dreiecksmatrix ist eine Matrix A = (αij ) ∈ K n×n
mit αij = 0 für i ≥ j.
(2) Eine Matrix A (bzw. ein Endomorphismus F ) heißt nilpotent, falls ein k ∈ N mit Ak = O
(bzw. F k = 0) existiert.
KAPITEL 6. EIGENWERTE UND EIGENVEKTOREN
76
6.3.19 Satz. (Nilpotente Matrizen und Endomorphismen)
Für eine Matrix A ∈ K n×n sind äquivalent:
(a) A ist nilpotent.
(b) A ist zu einer strikten oberen Dreiecksmatrix ähnlich.
(c) A ist trigonalisierbar und hat nur den Eigenwert 0.
(d) χA = xn .
(e) An = O.
Entsprechendes gilt für Endomorphismen.
6.3.20 Definition. Für eine Matrix A = (αij ) ∈ K n×n heißt die Summe der Diagonalelemente
die Spur von A: n
Spur A :=
X
αjj .
j=1
Für Endomorphismen eines endlich–dimensionalen Vektorraums definiert man die Spur als
diejenige einer beliebigen Darstellungsmatrix (unabhängig von der Basiswahl nach 6.3.21(2)).
6.3.21 Satz. (Spuren von Matrizen)
Für Matrizen A, B ∈ K n×n gilt:
(1) Spur (AB) = Spur (BA).
(2) Spur A = Spur B, falls A und B ähnlich sind.
(3) χA = xn − Spur A · xn−1 + · · · ± · · · + (−1)n det A.
(4) Ist A trigonalisierbar, so ist Spur A die Summe und det A das Produkt der Eigenwerte
(mit entsprechenden Vielfachheiten).
6.3.22 Bemerkung. Ist f ∈ R[x] ein Polynom ungeraden Grades mit Leitkoeffizient 1, so gilt
limx→−∞ f (x) = −∞ und limx→∞ f (x) = ∞, so dass f eine reelle Nullstelle besitzen muss.
6.3.23 Satz. (Eigenwerte orthogonaler Matrizen)
(1) Für ungerades n ∈ N hat jede Matrix A ∈ Rn×n mindestens einen reellen Eigenwert.
(2) Alle Eigenwerte (auch die komplexen) einer Matrix A ∈ O(n, R) haben den Betrag 1.
(3) Jede Matrix A ∈ O(3, R) mit det A = 1 beschreibt eine Drehung. Die Drehachse ist der
ER zum EW 1, der Drehwinkel ϕ ist gegeben durch cos ϕ = 12 (Spur A − 1).
(4) Jede symmetrische Matrix A ∈ O(3, R) mit det A = −1 beschreibt eine Spiegelung. Die
Spiegelebene ist der ER zum EW 1, die dazu senkrechte Achse der ER zum EW −1.
(5) Jede nicht symmetrische Matrix A ∈ O(3, R) mit det A = −1 beschreibt eine Drehspiegelung und −A eine Drehung.
6.3.24 Satz. (Hauptachsentransformation)
Eine Matrix A ∈ R n×n ist genau dann symmetrisch, wenn sie nur reelle Eigenwerte und
eine Orthonormalbasis aus Eigenvektoren besitzt. Somit gibt es zu jeder symmetrischen Matrix
A ∈ Rn×n eine orthogonale Matrix C ∈ O(n, R) mit C −1 A C = diag (λ1 , ..., λn ).
Herunterladen