Determinanten, Eigenwerte und Eigenvektoren

Werbung
Determinanten
Motivation: Man betrachte das lineare Gleichungssystem
u
a b x
.
=
v
c d y
(1)
Sei o.B.d.A a 6= 0 und c 6= 0. Dann ist (1) äquivalent zu
cu
ca cb x
=
av
ac ad y
und ferner zu
cu
x
ca
cb
.
=
av − cu
0 ad − cb y
Falls ad − cb 6= 0, so erhalten wir
y=
av − cu
ad − cb
und x =
ud − vb
.
ad − cb
Daher spielt die Ungleichung ad − cb 6= 0 eine entscheidende Rolle für die eindeutigen Lösbarkeit von (1).
Die Verallgemeinerung der obigen Rechnung auf größere quadratische lineare Gleichungssysteme führt
nun zur Theorie der Determinanten.
Definition 23: Sei K ein Körper, dessen Charakteristik ungleich 2 ist (d.h. 1 + 1 6= 0), und sei V ein
K-Vektorraum mit dim V = n. Eine Determinantenform ist eine nicht-triviale, alternierende, multilineare
Abbildung
∆ : V × · · · × V → K,
{z
}
|
n−mal
d.h. ∆ erfüllt die folgenden Eigenschaften:
(D0) ∆ 6≡ 0.
(D1) Für alle i = 1, . . . , n und v1 , . . . , vn ∈ V ist die Abbildung
∆(v1 , . . . , vi−1 , · , vi+1 , . . . , vn ) : V → K
linear, d.h.
∆(v1 , . . . , vi−1 , αx + βy, vi+1 , . . . , vn ) =
α∆(v1 , . . . , vi−1 , x, vi+1 , . . . , vn ) + β∆(v1 , . . . , vi−1 , y, vi+1 , . . . , vn )
für alle x, y ∈ V und alle α, β ∈ K.
(D2) Für alle i, j = 1, . . . , n mit i 6= j und für alle v1 , . . . , vn ∈ V gilt
∆(v1 , . . . , vi , . . . , vj , . . . , vn ) = −∆(v1 , . . . , vj , . . . , vi , . . . , vn ).
Falls V = Kn , so können wir auf natürliche Weise jede Determinantenform ∆ : V × · · · × V → K mittels
der Definition
∆(A) := ∆(a1 , . . . , an ), A = a1 | . . . |an ∈ Kn×n
auch als Abbildung vom Kn×n ∼
= K × · · · × K nach K interpretieren.
Folgerung 12: Sei ∆ : V × · · · × V → K eine Determinantenform. Dann gilt:
(a) ∆(v1 , . . . , vi−1 , vi + λvj , vi+1 , . . . , vn ) = ∆(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ) für alle v1 , . . . , vn ∈ V , λ ∈
K und i 6= j.
1
(b) ∆(v1 , . . . , vn ) = 0, falls v1 , . . . , vn linear abhängig sind.
Bemerkung: Wir werden später sehen, dass auch die Umkehrung von Folgerung 12(b) gilt.
Beweis: (a) Sei o.B.d.A. i < j. Es gilt
∆(v1 , . . . , vi + αvj , . . . , vj , . . . , vn ) = ∆(v1 , . . . , vi , . . . , vj , . . . , vn ) + α ∆(v1 , . . . , vj , . . . , vj , . . . , vn )
|
{z
}
=0
= ∆(v1 , . . . , vi , . . . , vj , . . . , vn ),
wobei der zweite Summand in der ersten Zeile verschwindet, da ∆ alternierend ist.
Pn
(b) Sei o.B.d.A. v1 = i=2 λi vi . Dann gilt
!
n
n
X
X
λi ∆(vi , v2 , . . . , vn ) = 0.
∆(v1 , . . . , vn ) = ∆
λi vi , v2 , . . . , vn =
i=2
i=2
Satz 15 / Definition 24:
(a) Zwei Determinantenformen ∆1 und ∆2 auf V unterscheiden sich höchstens durch einen nichttrivialen skalaren Faktor, d.h. es existiert ein λ =
6 0 mit ∆2 = λ∆1 .
(b) Es gibt genau eine Determinantenform auf dem Kn (bzw. dem Kn×n ) mit ∆(e1 , . . . , en ) = 1 (bzw.
∆(In ) = 1). Diese Determinantenform bezeichnen wir im Weiteren als die Determinante auf dem
Kn (bzw. dem Kn×n ) und schreiben det statt ∆. Insbesondere gilt folgende Darstellung
det(A) =
X
sign(π)
π∈Sn
n
Y
aiπ(i) .
(2)
i=1
Dabei bezeichnet Sn die Menge aller Permutationen der Menge {1, . . . , n} und sign(π) das Vorzeichen der Permutation π. Dieses ist definiert durch
sign(π) := (−1)T (π) ,
wobei T (π) die Anzahl der Transpositionen ist, die man braucht um π zu darzustellen.
Bemerkung: Alternativ kann man das Vorzeichen einer Permutation auch wie folgt berechnen
sign(π) =
Y
1≤i<j≤n
π(i) − π(j)
.
i−j
Beweis: Zum Beweis sei auf die Literatur zur Linearen Algebra verwiesen; wir betrachten im Weiteren
nur zwei Beispiele.
Beispiele: Die Elemente von Sn sind per definitionem alle Permutationen, d.h. alle bijektiven Abbildungen der Menge {1, 2, . . . , n} in sich.
Da eine Permutation π eindeutig durch die Angabe ihrer Bil
der als n-Tupel π(1), π(2), . . . , π(n) festgelegt ist, können wir im Weiteren jedes n-Tupel (x1 , . . . , xn ),
xi ∈ {1, 2, . . . , n} und xi 6= xj , i 6= j eindeutig mit einer Permutation identifizieren. Man unterscheidet sogenannte gerade und ungerade Permutationen. Gerade Permutationen bestehen aus einer geraden
Anzahl von Transpositionen (Transposition = Vertauschung von genau zwei Elementen), ungerade dementprechend aus einer ungeraden Anzahl von Transpositionen.
1. Sei n = 2. Dann gilt S2 = {(1, 2), (2, 1)} und sign(1.2) = 1 sowie sign(2, 1) = −1. Damit erhalten
11 a12
wir aus (2) für die Determinante von A := [ aa21
a22 ] die Darstellung
11
det [ aa21
a12
a22
] = a11 a22 − a12 a21 .
2
2. Sei n = 3. Dann gilt S3 = {(1, 2, 3), (2, 3, 1), (3, 1, 2), (2, 1, 3), (3, 2, 1), (1, 3, 2)}. Nun zeigt man leicht
sign(1, 2, 3) = sign(2, 3, 1) = sign(3, 1, 2) = 1
und
sign(2, 1, 3) = sign(3, 2, 1) = sign(1, 3, 2) = −1.
h a11 a12 a13 i
Daraus folgt nun für A := aa21 aa22 aa23 die Identität
31
det A =
X
π∈S3
sign π
3
Y
32
33
aiπ(i)
i=1
= sign(1, 2, 3)a11 a22 a33 + sign(2, 3, 1)a12 a23 a31 + sign(3, 1, 2)a13 a21 a32
+ sign(2, 1, 3)a12 a21 a33 + sign(3, 2, 1)a13 a22 a31 + sign(1, 3, 2)a11 a23 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 .
Damit haben wir die sogenannte Regel von Sarrus gezeigt. Diese stellt eine
und anschauliche
einfache
Merkhilfe zur Berechnung der Determinante einer (3 × 3)-Matrix A =
a b c
d e f
g h i
dar.
Abbildung 1: Regel von Sarrus (Quelle: Wikipedia)
Regel von Sarrus: Erst schreibt man die ersten beiden Spalten der Matrix rechts neben die Matrix
und bildet die Produkte der sechs Diagonalen, d.h. die Produkte der Einträge, die auf den oben skizzierten Diagonalen stehen. Dann addiert bzw. subtrahiert man die sechs Terme gemäß des angegeben
Vorzeichenschemas und erhält auf diese Weise die Determinante von A als
det A = aei + bf g + cdh − gec − hf a − idb.
Satz 16: Die Abbildung det : Kn×n → K besitzt folgende Eigenschaften:
(a) det In = 1.
(b) det(AB) = det A · det B für alle A, B ∈ Kn×n .
(c) det A 6= 0 genau dann, wenn A invertierbar ist.
(d) det A−1 = (det A)−1 für alle A ∈ GLn (K).
(e) det A⊤ = det A für alle A ∈ Kn×n .
3
(f)

a11

a
det  21
 ..
.
an1
0
...
..
.
..
.
...
a22
..
.
...


0
.. 
. 
0
ann
a11
a12

 0
 = det  .
 .

a22
..
.
...
.
0
...
..
.
..
.
0

a1n
..  Y
n
. 
aii .
=

.. 
i=1
.
ann
Beweis: Siehe angegebene Literatur zur Linearen Albgebra.
Folgerung 12’: Die Spalten (bzw. Zeilen) von A ∈ Kn×n sind genau dann linear unabhängig, wenn
det A 6= 0 gilt.
Beweis: Man benutze Folgerung 12(b) und Satz 16(c) und (d).
bij diejenige
Satz 17 (Entwicklung von Determinanten): Sei A ∈ Kn×n , n ≥ 2 und bezeichne A
(n − 1) × (n − 1)-Matrix, die durch Streichen der i-ten Zeile sowie der j-ten Spalte entsteht. Dann gilt:
(a) Entwicklung nach der j-ten Spalte von A:
det A =
n
X
i=1
bij ,
(−1)i+j aij det A
wobei j ∈ {1, ..., n} beliebig, aber fest gewählt ist.
(b) Entwicklung nach der i-ten Zeile von A:
det A =
n
X
j=1
bij ,
(−1)i+j aij det A
wobei i ∈ {1, ..., n} beliebig, aber fest gewählt ist.
Beweis: Siehe angegebene Literatur zur Linearen Albgebra.
Beispiele:
1. Sei A =
2. Sei A =
h
"
1 3 −2
0 2 1
−1 3 2
i
. Dann gilt mittels Entwicklung nach der ersten Spalte
det A = 1 · det [ 23 12 ] − 0 ·
λ1 1
0
0
0
∗
λ2
0
0
∗
∗
λ3
0
∗
∗
∗
λ4
#
3 −2 3 2
+ (−1) ·
3 −2 2 1
= (4 − 3) − (3 + 4) = −6.
, wobei ein Stern für einen beliebiges Element aus K steht.
Dann gilt mittels wiederholter Entwicklung nach der ersten Spalte
λ2 ∗ ∗
det A = λ1 · det 0 λ3 ∗ − 0 + 0 − 0 = λ1 λ2 det λ03
0
0 λ4
Vergleiche auch Satz 16(f).
4
∗
λ4
= λ1 λ2 λ3 λ4 .
Eigenwerte, Eigenvektoren und das Spektrum einer Matrix
Motivation: Wir wollen für A ∈ Rn×n das Verhalten von Ak für k → ∞ bzw. das Verhalten von
e
tA
:=
∞ k k
X
t A
k=0
k!
für t → ∞ untersuchen. [Beachte: Die Kurve t → etA x0 ist die formale Lösung der gewöhnlichen Differentialgleichung ẋ = Ax mit x(0) = x0 .]

λ1

Falls A diagonal ist, d.h. A = 
0
 k
λ1

k
A =
0
also

0
..
.
λn

, so gilt offensichtlich

0
..
.
λkn


und etA
 tλ
e 1

=
0
0
..
.
etλn


,
Ak → 0 für |λi | < 1, i = 1, . . . , n und etA → 0 für |λi | < 0, i = 1, . . . , n
Problem: Wie kann man vorgeht, falls A nicht diagonal ist?
Angenommen, wir könnten eine invertierbare Matrix T finden, so dass T −1 AT diagonal ist, also

λ1

−1
T AT = 
0
0
..
.
λn


 =: Λ
A = T ΛT −1 .
bzw.
Dann wäre
Ak = T ΛT
und somit
−1 k
= T ΛT
|
−1
−1
T ΛT
{z
· · · T ΛT
k−mal
etA = T etΛ T −1
 tλ
e 1

=T
0
−1
}
= T Λk T −1
0
..
.
etλn
 k
λ1

=T
0
0
..
.
λkn

 −1
T

 −1
T .
Folglich hätte man das Problem auf den Fall, dass A diagonal ist, zurückgeführt. Daher ist es im Weiteren
unser Ziel zu verstehen, wann eine derartige, “diagonalisierende” Matrix T ∈ GLn (R) existiert.
Definition 25:
(a) Sei A ∈ Kn×n . Ein Skalar λ ∈ K heißt Eigenwert von A, falls es ein v ∈ Kn , v 6= 0 gibt mit
Av = λv.
(3)
Umgekehrt bezeichnen wir v 6= 0 als Eigenvektor von A zum Eigenwert λ, falls Gleichung (3) gilt.
Die Menge aller Eigenwerte einer Matrix A bezeichnen wir als ihr Spektrum σ(A), d.h.
σ(A) := {λ ∈ K | ∃v ∈ Kn \ {0} : Av = λv}.
5
(b) Eine Matrix A ∈ Kn×n heißt diagonalisierbar (über K), falls es eine invertierbare Matrix T ∈ Kn×n
gibt, so dass T −1 AT diagonal ist.
Bemerkung:
1. Die Diagonalisierbarkeit einer Matrix kann vom Körper K abhängen, so ist z.B. A :=
R2×2 ⊂ C2×2 über C, aber nicht über R diagonalisierbar.
0 1
−1 0
∈
2. Es gibt jedoch auch n × n Matrix (n ≥ 2), die über keinem Körper diagonalisierbar sind, z.B. ist
A := [ 00 10 ] niemals diagonalisierbar.
Satz 18: Eine Matrix A ∈ Kn×n ist genau dann diagonalisierbar, wenn es eine Basis aus Eigenvekn
toren, also n linear
unabhängige Eigenvektoren v1 , . . . , vn ∈ K von A gibt. Insbesondere ist dann
T := v1 |v2 | . . . |vn ∈ GLn (K) eine diagonalisierende Transformation, d.h. es gilt


λ1
0


λ2


T −1 AT = 
.
.
..


0
λn
Dabei bezeichne λi den Eigenwert zum Eigenvektor vi .
Beweis. ”⇒:” Sei A diagonalisierbar, d.h. es existiert eine invertierbare Matrix T ∈ GLn (K) mit


λ1
0


..
T −1 AT = 

.
0
λn
und somit gilt

λ1

AT = T 
0
0
..
.
λn


.
(4)
Bezeichnen wir nun mit ti ∈ Kn die i-te Spalte von T , d.h. T = t1 | t2 | . . . | tn , so ist (4) äquivalent zu
At1 = λ1 t1 ,
At2 = λ2 t2 ,
...,
Atn = λn tn ,
d.h. die Spalten von T bilden eine Basis aus Eigenvektoren von A.
”⇐:” Seien v1 , . . . , vn linear unabhängige Eigenvektoren von A. Setze T := v1 | v2 | . . . | vn . Dann gilt


λ1
0


..
AT = T 
,
.
0
λn
wobei λi den Eigenwert zu vi bezeichne. Somit ist T ∈ GLn (K) eine diagonalisierende Transformation
von A.
Satz 19: Sei A ∈ Kn×n . Ein Skalar λ ∈ K ist genau dann ein Eigenwert von A, wenn det(A − λIn ) = 0
gilt.
Beweis. Es gelten folgende Äquivalenzen:
λ ∈ σ(A)
⇐⇒
⇐⇒
∃ v 6= 0 : Av = λv ⇐⇒ ∃ v 6= 0 : (A − λIn )v = 0
Ker(A − λIn ) 6= {0} ⇐⇒ A − λIn ist nicht invertierbar
⇐⇒
det(A − λIn ) = 0
6
Definition 26:
(a) Sei A ∈ Kn×n . Wir bezeichnen das Polynom
χA (x) := det(A − xIn ) ∈ Pn (K)
als das charakteristische Polynom von A.
(b) Für jedes λ ∈ σ(A) definieren wir
EA (λ) := ker(A − λIn ) ⊂ Kn
als den Eigenraum von A zum Eigenwert λ.
Folgerung 13: Sei A ∈ Kn×n . Dann gilt:
(a)
v ∈ EA (λ) \ {0} ⇐⇒ v ist Eigenvektor von A zum Eigenwert λ
(b)
σ(A) = N S(χA ) := {λ ∈ K | χA (λ) = 0}.
Beweis. Die Behauptungen folgen unmittelbar aus Satz 19 und dessen Beweis.
Folgerung 14: Sei A ∈ Kn×n und sei T ∈ GLn (K). Dann gilt χA = χT −1 AT .
Beweis. Nach Satz 16 gilt
χT −1 AT (x) = det(T −1 AT − xIn ) = det T −1 (A − xIn )T
= det T −1 det(A − xIn ) det T = det(A − xIn ) = χA (x)
n×n
−1
Bemerkung: Matrizen A, B ∈ K
, für die ein T ∈ GLn (K) existiert mit B = T AT heißen ähnlich zueinander. Folgerung 14 besagt also, dass ähnliche Matritzen dasselbe charakteristische Polynom
besitzen.
Definitio 27: Sei A ∈ Kn×n und sei λ ∈ K ein Eigenwert von A. Somit ist λ nach Folgerung 13 auch eine
Nullstelle des charakteristischen Polynoms χA . Wir schreiben a(λ) für die Vielfachheit der Nullstelle λ im
charakteristischen Polynom und bezeichnen diese als die algebraische Vielfachheit des Eigenwerts λ, d.h.
χA (x) = (x − λ)a(λ) p(x) mit p(λ) 6= 0. Ferner heißt die Dimension des Eigenraum EA (λ) die geometrische
Vielfachheit des Eigenwerts λ. Wir schreiben hierfür g(λ) := dim EA (λ).
Bemerkung: Man kann nun leicht mit Hilfe von Folgerung 14 zeigen, dass die Ungleichung g(λ) ≤ a(λ)
immer erfüllt ist. Gleichheit gilt im Allgemeinen jedoch nicht (siehe auf Folgerung 16).
Satz 20: Sei A ∈ Kn×n und seien v1 , . . . , vk Eigenvektoren von A zu paarweise verschiedenen Eigenwerten
λ1 , . . . , λk . Dann sind v1 , . . . , vk linear unabhängig.
Beweis. Wir betrachten das lineare Gleichungssystem
µ1 v1 + µ2 v2 + . . . + µk vk = 0
(5)
und multiplizieren (5) von links mit der Matrix
B := (A − λ2 In )(A − λ3 In ) · · · (A − λk In ).
Damit erhalten wir
B(µ1 v1 + µ2 v2 + . . . + µk vk ) = µ1 (λ1 − λ2 )(λ1 − λ3 ) · · · (λ1 − λk )v1 = 0,
also µ1 = 0. Analog zeigt man µi = 0 für i = 2, . . . , k und somit sind die Vektoren v1 , . . . , vk linear
unabhängig.
7
Folgerung 15:
(a) Sei A ∈ Kn×n . Wenn das charakteristische Polynom χA in n paarweise verschiedene Nullstellen
(über K) zerfällt, so ist A (über K) diagonalisierbar.
Allgemeiner gilt:
(b) Die Matrix A ist genau dann diagonalisierbar, wenn EA (λ1 ) ⊕ EA (λ2 ) ⊕ · · · ⊕ EA (λk ) = Kn , wobei
λ1 , . . . , λk die paarweise verschiedene Nullstellen von χA bezeichne.
Beweis. (a) Dies folgt unmittelbar aus den Sätzen 18 und 20 sowie aus Folgerung 13.
(b) “=⇒:” Sei A diagonalisierbar. Dann folgt aus Satz 18 und Folgerung 13, dass EA (λ1 ) ⊕ EA (λ2 ) ⊕
· · · ⊕ EA (λk ) = Kn .
“⇐=:” Sei nun EA (λ1 ) ⊕ EA (λ2 ) ⊕ · · · ⊕ EA (λk ) = Kn . Aus Satz 20 folgt, dass die Summe EA (λ1 ) ⊕
Pk
Pk
EA (λ2 ) ⊕ · · · ⊕ EA (λk ) direkt ist, d.h. aus i=1 v1 = i=1 ṽi mit vi , ṽi ∈ EA (λi ) folgt vi = ṽi für alle
i = 1, . . . , k. Somit zeigt man leicht, dass B := B1 ∪ · · · ∪ Bk eine Basis aus Eigenvektoren liefert, falls Bi
jeweils eine Basis von EA (λi ) ist.
Folgerung 16: Sei A ∈ Kn×n und seien λ1 , . . . , λk die paarweise verschiedenen Nullstellen
Pk des charakteristischen Polynoms χA . Die Matrix A ∈ Kn×n ist genau dann diagonalisierbar, wenn i=1 g(λi ) = n.
Beweis. Die Behauptung folgt unmittelbar aus Satz 20 und Folgerung 15(b).
Abschließend zitieren wir einen tiefliegenden Satz der Linerane Algebra, der eine erstaunliche Eigenschaft
des charakteristischen Polynoms zeigt. Zum Beweis verweisen wir auf die angegebene Literatur.
Satz 21 (Satz von Cayley/Hamilton) Sei A ∈ Kn×n und sei χA (x) = xn + an−1 xn−1 + ...a1 x + a0 .
Dann gilt
An + an−1 An−1 + ...a1 A + a0 In = 0 ∈ Kn×n ,
oder kurz χA (A) = 0.
Beispiel zur Diagonalisierbarkeit: Sei
A=
h
1 20
2 10
−1 1 3
i
∈ R3×3 .
1. Schritt (Bestimmung der Eigenwerte):
Wir berechnen zuerst die Nullstellen des charakteristische Polynom χA (x) := det(A − xI3 ). Dazu entwickeln wir die folgende Determinante nach der letzten Spalte.
h 1−x 2 0 i
2
det(A − xI3 ) = det 2 1−x 0 = (3 − x) det 1−x
2 1−x
−1
=
1
3−x
(3 − x)(x2 − 2x − 3) = −(x − 3)2 (x + 1),
also σ(A) = {−1, 3}.
2. Schritt (Bestimmung der Eigenräume):
(1) Für λ = 3 erhalten wir EA (3) := ker(A − 3I3 ) als Lösung des linearen Gleichungssystems
h −2 2 0 i h x1 i
h0i
x2
2 −2 0
0
=
x3
0
−1 1 0
| {z }
A−3I3
Mittels elementarer Zeilenumformungen erhält man das äquivalente System
h0i
h −1 1 0 i h x1 i
x2
0
=
0 00
x
0 00
3
8
0
und somit
Ker(A − 3I3 ) =
n
x2
h1i
1
0
+ x3
o Dh 1 i h 0 iE
h 0 i
1 , 0
0 x2 , x3 ∈ R =
.
0
1
1
(2) Für λ = −1 ergibt sich EA (−1) := ker(A + I3 ) als Lösung von
h0i
h 2 2 0 i h x1 i
x2
2 20
0
=
x
−1 1 4
(6)
0
3
Wiederum durch elementare Zeilenumformungen bringt (6) in die äquivalent From
h0i
h 1 0 −2 i h x1 i
x2
0 .
=
00 0
x
01 2
Also gilt
Ker(A − 3I3 ) =
n
0
3
x3
h
2
−2
1
i
o Dh 2 iE
−2
.
x3 ∈ R =
1
Folglich finden wir eine Basis des R3 bestehend aus Eigenvektoren von A, z.B.
somit ist A diagonalisierbar (vgl. Satz 18 und Folgerung 16).
9
nh 1 i h 0 i h 2 io
1 , 0 , −2
und
0
1
1
Herunterladen