Lineare Algebra I

Werbung
Lineare Algebra I
Prof. Dr. M. Rost
Übungen — Blatt 11 (WS 2010/2011)
Abgabetermin: Donnerstag, 20. Januar
http://www.math.uni-bielefeld.de/~rost/la1
Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung:
Algebraisch abgeschlossene Körper
Ein Körper K heißt algebraisch abgeschlossen falls jedes nicht-konstante Polynom
mit Koeffizienten in K eine Nullstelle in K besitzt. Ist also
P (t) = tn + an−1 tn−1 + · · · + a1 t + a0
(ai ∈ K, n > 0)
ein beliebiges Polynom über K vom Grad ≥ 1, so gibt es ein α ∈ K mit P (α) = 0,
d. h.
αn + an−1 αn−1 + · · · + a1 α + a0 = 0
Über einem algebraisch abgschlossenen Körper zerfällt jedes Polynom vollständig
in Linearfaktoren:
P (t) = (t − α1 ) · · · (t − αn )
(αi ∈ K)
(Beweis mit Polynomdivision durch Induktion über den Grad, siehe Vorlesung.)
Der Fundamentalsatz der Algebra besagt, daß der Körper C der komplexen Zahlen
algebraisch abgeschlossen ist.
Zitat aus der Algebra: Jeder Körper K ist in einem algebraisch abgschlossenen
Körper enthalten.
Dies wird im Rahmen der Linearen Algebra nicht bewiesen, ist aber gut zu wissen.
Hat man nämlich ein Polnom P (t) über einem Körper K gegeben, das dummerweise nicht in Linearfaktoren zerfällt (oder sogar überhaupt keine Nullstelle in K
hat), so kann man zumindest nach Übergang zu einem algebraisch abgeschlossenen Körper H mit K ⊂ H die Nullstellen von P (t) in H betrachten. Z. B. redet
man oft von den komplexen Nullstellen eines reellen Polynomes.
2
Endomorphismen und Basiswechsel
An dieser Stelle will ich die Definition der Determinante und des charakteristischen Polynomes von Endomorphismen wiederholen.
Wichtig ist dabei der Begriff des Basiswechsels. Dieser wurde mehrfach erwähnt
und soll hier nochmal dargestellt werden, vor allem in Bezug auf die MatrizenDarstellung von Endomorphismen.
Es sei
f: V →V
ein Endomorphismus eines (endlich-dimensionalen) Vektorraumes V über einem
Körper K.
Wählt man eine Basis v1 , . . . , vn (n = dim V ) von V , so wird f bezüglich dieser
Basis dargestellt durch eine n × n-Matrix
A = (ai,j )
i=1,...,n
j=1,...,n
bestimmt durch
f (vj ) =
n
X
∈ Mn (K)
aij vi
i=1
(siehe Blatt 6, Seite 7).
Ist w1 , . . . , wn eine andere Basis, so erhält man eine andere Matrix; bezeichnen
wir sie mit B = (bi,j ) wobei
f (wj ) =
n
X
bij wi
i=1
Man betrachtet nun die Basiswechsel-Matrizen. Diese entstehen, wenn man eine
Basis durch eine andere Basis ausdrückt. In unserem Fall hat man die Matrizen
S = (si,j ) und T = (ti,j ) mit
wj =
n
X
sij vi
j=1
vj =
X
tij wi
j=1
Man stellt nun fest:
(1)
T S = ST = En
(2)
T A = BT
Zum Beweis von (1) siehe Blatt 7, Aufgaba 4 (a). Insbesondere gilt
S = T −1 ,
T = S −1
3
Zum Beweis von (2):
XX
X
X
X
(T A)kj wk
aij tki wk =
tki aij wk =
f (vj ) =
aij vi =
i
f (vj ) = f
X
tij wi
i
=
X
k
i,k
!
tij bki wk =
i,k
=
X
i
k
tij f (wi )
i
XX
k
bki tij wk =
i
X
(BT )kj wk
k
Koeffizientenverleich zeigt (2).
Wegen S = T −1 ergibt sich also
B = T AT −1 ,
A = SBS −1
was man je nach Geschmack auch so schreibt:
B = S −1 AS,
A = T −1 BT
Für die Determinanten der Matrizen A und B folgt nun
det(B) = det T AT −1 = det(T ) det(A) det(T −1 ) = det(A)
wegen det(T ) det(T −1 ) = 1.
Die Determinante von f ist nun definiert als die Determinante der darstellenden
Matrix bezüglich irgendeiner Basis von V . Das Ergebnis ist unabhänging von der
Wahl dieser Basis:
det(f ) = det(A) = det(B)
Entspechendes gilt für das charakteristische Polynom
χf (t) = Pf (t) = det(t · idV − f ) ∈ K[t]
von f das konkret gegeben ist durch das charakteristische Polynom der darstellenden Matrix bezüglich irgendeiner Basis von V :
Pf (t) = det(tEn − A) ∈ K[t]
Für B wie oben erhält man tatsächlich das gleiche Polynom:
det(tEn − B) = det tEn − T AT −1
= det tT T −1 − T AT −1 = det T (tEn − A)T −1
= det(T ) det(tEn − A) det(T −1 ) = det(tEn − A)
4
Die Koeffizienten des charakteristischen Polynomes
Schreibt man das charakteristische Polynom Pf (t) aus als
n
X
n
(−1)i ci tn−i = tn − c1 tn−1 + · · · + (−1)n cn
Pf (t) = t +
k=1
so erhält man gewisse Elemente ci des Körpers K.
Man erhält so für jeden Endomorphismus
f: V →V
eines n-dimensionalen Vektorraumes über K gewisse Zahlen
c1 , c2 , . . . , cn ∈ K
Diese Zahlen werden sozusagen von f gleich mitgeliefert. Ein wichtiges Thema
der Linearen Algebra ist es, zu versuchen, den Endomorphismus f aus diesen
Zahlen zu rekonstruieren, so gut es geht. Dies führt auf die sogenannte JordanNormalform.
Die Zahlen ci nennt man auch Invarianten von f . Der Name kommt von der
Invarianz (Unabhängigkeit) bei Basiswechseln. Man schreibt
ci = ci (f )
Ist A eine n × n-Matrix, so schreibt man entsprechend
n
X
(−1)i ci (A)tn−i = tn − c1 (A)tn−1 + · · · + (−1)n cn (A)
PA (t) = tn +
k=1
Wie bei der Determinante gilt dann
ci (f ) = ci (A) = ci (B)
falls A, B wie oben die Matrizen zu f bezüglich irgendwelchen Basen sind.
Die Spezialfälle c1 und cn .
Die Zahl cn (f ) ist einfach die Determinante:
(−1)n cn (f ) = Pf (0) = det(0 − f ) = (−1)n det(f )
Die Zahl c1 (f ) heißt die Spur (engl.: trace) von f bzw. A:
spur(f ) = c1 (f ),
spur(A) = c1 (A)
Dabei gilt für A = (aij )
spur(A) =
n
X
i=0
(siehe Blatt P11, Aufgabe 4).
aii = a11 + . . . + ann
5
Die eingeführten Vorzeichen der Koeffizienten sind praktisch in Bezug auf die
Nullstellen des Polynomes. Zerfällt Pf (t) in Linearfaktoren
Pf (t) = (t − α1 ) · · · (t − αn )
(αi ∈ K)
(die αi sind also die Eigenwerte von f ), so hat man die vorzeichenfreien Formeln
c 1 = α1 + · · · + αn
c n = α1 · · · αn
und allgemein
ci =
X
αr 1 · · · αr i
1≤r1 <···<ri ≤n
z. B.
c2 =
X
1≤r<s≤n
αr αs
6
Die Eigenraum-Zerlegung eines Endomorphismus
Hier ist eine kurze Vorschau.
Es sei
f: V →V
ein Endomorphismus eines n-dimensionalen Vektorraumes V über einem Körper
K mit charakteristischem Polynom
Pf (t) = det(t · idV − f ) ∈ K[t]
Nehmen wir an, der Grundkörper ist algebraisch abgschlossen (z. B. K = C).
Dann zerfällt das Polynom vollständig in Linearfaktoren. Dabei können Nullstellen mehrfach auftreten. Es sei
(∗)
Pf (t) = (t − α1 )n1 · · · (t − αr )nr
wobei r die Anzahl der Nullstellen (nicht mehrfach gezählt) und ni die Vielfachheit (Multiplizität) der Nullstelle αi ist. Dabei gilt αi 6= αj für i 6= j und
natürlich
n1 + · · · + nr = n = deg Pf (t) = dim V
Es ergibt sich nun, daß der Zerlegung (∗) des charakteristischen Polynomes Pf (t)
eine Zerlegung von V als direkte Summe von Untervektorräumen entspricht. Es
gibt Unterräume Vi (1 ≤ i ≤ r) von V mit
dim Vi = ni
und
f (Vi ) ⊂ Vi
sowie
V = V1 ⊕ · · · ⊕ Vr
Ist
fi = f |Vi : Vi → Vi
die Einschränkung von f auf Vi so ist also f die direkte Summe der fi :
f = f1 ⊕ · · · ⊕ fr
Dabei gilt
Pf (t) = Pf1 (t) · · · Pfr (t),
Pfi (t) = (t − αi )ni
Der Speziallfall r = n (also alle Nullstellen sind verschieden; insbesondere gilt
ni = 1 für die Multiplizitäten) wurde bereits in der Vorlesung behandelt. Dies
wird im Folgenden wiederholt.
7
Diagonalisierbare Matrizen
Eine n × n-Matrix D = (dij ) ∈ Mn (K) heißt diagonal, falls dij = 0 für i 6= j. Es
steht also außerhalb der Diagonale überall die 0. Wir schreiben


d1 0 · · · 0
 0 d2
0
D = diag(d1 , . . . , dn ) = 
.
.
..
 ..
. .. 
0
0
· · · dn
für Diagonal-Matrizen, also D = (dij ) mit dij = 0 für i 6= j und dii = di .
Eine n × n-Matrix A ∈ Mn (K) heißt diagonalisierbar, falls eine invertierbare
Matrix C gibt, so daß C −1 AC diagonal ist.
Ist A diagonalisierbar und kennt man die zugehörige Matrix C, so lassen sich
zum Beispiel die Potenzen von A leicht bestimmen. Ist etwa
A = C diag(d1 , . . . , dn )C −1
so folgt
A = C diag(dk1 , . . . , dkn )C −1
Dies folgt aus der bekannten Rechnung (ghg −1)k = ghk g −1 und diag(d1 , . . . , dn )k =
diag(dk1 , . . . , dkn ).
Lemma. Eine Matrix A ∈ Mn (K) ist genau dann diagonalisierbar wenn es eine
Basis aus Eigenvektoren gibt.
Beweis. Es sei v1 , . . . , vn eine Basis des K n bestehend aus Eigenvektoren von A zu
den Eigenwerten α1 , . . . , αn . Betrachtet man die vi wie üblich als Spaltenvektoren,
so hat
C = (v1 , . . . , vn )
die gewünschten Eigenschaften. Es gilt nämlich
ACei = Avi = αi vi
und andererseits
C diag(α1 , . . . , αn )ei = Cαi ei = αi vi
und damit
AC = C diag(α1 , . . . , αn )
also
C −1 AC = diag(α1 , . . . , αn )
Umgekehrt, ist A diagonalisierbar, so gibt es ein C mit
C −1 AC = diag(α1 , . . . , αn )
Dann bilden die Spalten
vi = Cei
8
eine Basis aus Eigenvektoren. Denn es ist
Avi = ACei = C diag(α1 , . . . , αn )ei = Cαi ei = αi vi
Satz. Ist A eine n × n-Matrix mit n verschiedenen Eigenwerten α1 , . . . , αn (das
charakteristische Polynom zerfällt also in n verschiedene Linearfaktoren (t−αi )),
so ist A diagonalisierbar. Genauer: Es gibt eine invertierbare Matrix C mit
C −1 AC = diag(α1 , . . . , αn )
Der Beweis wurde praktischerweise gleich für einen Endomorphismus
f: V →V
eines Vektorraumes über K geführt.
Satz. Ist f : V → V ein Endomorphismus eines n-dimensionalen Vektorraumes
mit n verschiedenen Eigenwerten α1 , . . . , αn und sind v1 , . . . , vn zugehörige Eigenvektoren, so ist v1 , . . . , vn eine Basis von V . Die darstellende Matrix bezüglich
dieser Basis ist die Diagonal-Matrix
diag(α1 , . . . , αn )
Beweis. Beim Beweis in der Vorlesung bestand die Hauptarbeit darin, zu zeigen,
daß die vi linear unabhängig sind. Der Rest ist dann klar.
Dazu zeigt man durch Induktion, daß für r ≥ 1 die Vektoren v1 , . . . , vr linear
unabhängig sind. Der Fall r = 1 ist klar. Wäre nun
r
X
ci vi = 0
i=1
(nicht alle ci = 0) so folgt
0=f
r
X
i=1
ci vi
!
=
r
X
i=1
ci f (vi ) =
r
X
ci αi vi
i=1
Multipliziert man die erste Gleichung mit αr und subtrahiert sie von der zweiten
Gleichung, so ergibt sich
(α1 − αr )c1 v1 + · · · + (αr−1 − αr )cr−1 vr−1 = 0
Dies ergibt eine lineare Abhängigkeit für die Vektoren v1 , . . . , vr−1 . Nach Induktionsannahme sind diese aber linear unabhängig, also gilt (αi − αr )ci = 0 für
i < r. Weil αi 6= αr für i < r, hätte man c1 = · · · = cr−1 = 0. Damit wäre aber
cr 6= 0. Es folgt vr = 0. Dies widerspricht der Annahme, daß vr ein Eigenvektor
ist.
9
Beweis des ersten Satzes. Hier ist V = K n und die Eigenvektoren vi bilden eine
Basis des K n nach dem zweiten Satz. Die Behauptung folgt nun aus dem Lemma.
Eigenräume:
Zu einem Eigenwert α gibt es per Definition immer einen Eigenvektor, aber nicht
“den” Eigenvektor — man kann ja einen Eigenvektor immer mit einem Skalar
multiplizieren. Allgemein macht man folgende Definition.
Für einen Endomorphismus
f: V →V
und α ∈ K definiert man den Eigenraum von f zu α als die Menge der Eigenvektoren (einschließlich des Nullvektors) mit Eigenwert α:
Eigen(f, α) = Kern(f − α · idV ) = { v ∈ V | f (v) = αv } ⊂ V
Dies ist immer ein K-Untervektrorraum von V . Ist α kein Eigenwert von f , so
ist Eigen(f, α) = 0.
Im zweiten Satz sind die Eigenräume
Vi = Eigen(f, αi )
alle 1-dimensional. Dabei wird Vi von vi erzeugt:
Vi = Kvi
Weil die vi eine Basis bilden, erhält man so eine Zerlegung
V = V1 ⊕ · · · ⊕ Vn
wie auf Seite 6.
10
Zu den Fragen über die Diagonalisierbarkeit siehe insbesondere das Lemma auf
Seite 7 und den ersten Satz auf Seite 8.
Aufgabe 1. Es sei


1 0 1
A =  0 1 2
−2 1 0
Man bestimme das charakteristische Polynom, alle Eigenwerte und alle Eigenvektoren. Ist A diagonalisierbar?
Aufgabe 2. Man zeige, daß die Matrix


−3 3a 10
b 0
A= 0
0 a 2
genau dann diagonalisierbar ist wenn b 6= −3, 2 oder wenn a = 0.
Aufgabe 3. Diagonalisieren Sie die komplexe Matrix
1 2 + 4i −1 + 3i
A=
5 −1 − 2i 3 + 6i
D. h. finden Sie die Eigenwerte α1 , α2 von A und eine Matrix C ∈ M2 (C) mit
C −1 AC = diag(α1 , α2 )
Aufgabe 4. Für eine quadratische Matrix A ∈ Mn (K) und ein Polynom
Q(t) = a0 + a1 t + · · · + ak tk ∈ K[t]
setzt man
Q(A) = a0 En + a1 A + · · · + ak Ak ∈ Mn (K)
Man zeige:
(1) Ist v ein Eigenvektor von A mit Eigenwert α, so ist v auch ein Eigenvektor
von P (A) mit Eigenwert P (α).
(2) Für S ∈ GLn (K) gilt
P (S −1 AS) = S −1 P (A)S
Herunterladen