Lineare Algebra I Prof. Dr. M. Rost Übungen — Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Algebraisch abgeschlossene Körper Ein Körper K heißt algebraisch abgeschlossen falls jedes nicht-konstante Polynom mit Koeffizienten in K eine Nullstelle in K besitzt. Ist also P (t) = tn + an−1 tn−1 + · · · + a1 t + a0 (ai ∈ K, n > 0) ein beliebiges Polynom über K vom Grad ≥ 1, so gibt es ein α ∈ K mit P (α) = 0, d. h. αn + an−1 αn−1 + · · · + a1 α + a0 = 0 Über einem algebraisch abgschlossenen Körper zerfällt jedes Polynom vollständig in Linearfaktoren: P (t) = (t − α1 ) · · · (t − αn ) (αi ∈ K) (Beweis mit Polynomdivision durch Induktion über den Grad, siehe Vorlesung.) Der Fundamentalsatz der Algebra besagt, daß der Körper C der komplexen Zahlen algebraisch abgeschlossen ist. Zitat aus der Algebra: Jeder Körper K ist in einem algebraisch abgschlossenen Körper enthalten. Dies wird im Rahmen der Linearen Algebra nicht bewiesen, ist aber gut zu wissen. Hat man nämlich ein Polnom P (t) über einem Körper K gegeben, das dummerweise nicht in Linearfaktoren zerfällt (oder sogar überhaupt keine Nullstelle in K hat), so kann man zumindest nach Übergang zu einem algebraisch abgeschlossenen Körper H mit K ⊂ H die Nullstellen von P (t) in H betrachten. Z. B. redet man oft von den komplexen Nullstellen eines reellen Polynomes. 2 Endomorphismen und Basiswechsel An dieser Stelle will ich die Definition der Determinante und des charakteristischen Polynomes von Endomorphismen wiederholen. Wichtig ist dabei der Begriff des Basiswechsels. Dieser wurde mehrfach erwähnt und soll hier nochmal dargestellt werden, vor allem in Bezug auf die MatrizenDarstellung von Endomorphismen. Es sei f: V →V ein Endomorphismus eines (endlich-dimensionalen) Vektorraumes V über einem Körper K. Wählt man eine Basis v1 , . . . , vn (n = dim V ) von V , so wird f bezüglich dieser Basis dargestellt durch eine n × n-Matrix A = (ai,j ) i=1,...,n j=1,...,n bestimmt durch f (vj ) = n X ∈ Mn (K) aij vi i=1 (siehe Blatt 6, Seite 7). Ist w1 , . . . , wn eine andere Basis, so erhält man eine andere Matrix; bezeichnen wir sie mit B = (bi,j ) wobei f (wj ) = n X bij wi i=1 Man betrachtet nun die Basiswechsel-Matrizen. Diese entstehen, wenn man eine Basis durch eine andere Basis ausdrückt. In unserem Fall hat man die Matrizen S = (si,j ) und T = (ti,j ) mit wj = n X sij vi j=1 vj = X tij wi j=1 Man stellt nun fest: (1) T S = ST = En (2) T A = BT Zum Beweis von (1) siehe Blatt 7, Aufgaba 4 (a). Insbesondere gilt S = T −1 , T = S −1 3 Zum Beweis von (2): XX X X X (T A)kj wk aij tki wk = tki aij wk = f (vj ) = aij vi = i f (vj ) = f X tij wi i = X k i,k ! tij bki wk = i,k = X i k tij f (wi ) i XX k bki tij wk = i X (BT )kj wk k Koeffizientenverleich zeigt (2). Wegen S = T −1 ergibt sich also B = T AT −1 , A = SBS −1 was man je nach Geschmack auch so schreibt: B = S −1 AS, A = T −1 BT Für die Determinanten der Matrizen A und B folgt nun det(B) = det T AT −1 = det(T ) det(A) det(T −1 ) = det(A) wegen det(T ) det(T −1 ) = 1. Die Determinante von f ist nun definiert als die Determinante der darstellenden Matrix bezüglich irgendeiner Basis von V . Das Ergebnis ist unabhänging von der Wahl dieser Basis: det(f ) = det(A) = det(B) Entspechendes gilt für das charakteristische Polynom χf (t) = Pf (t) = det(t · idV − f ) ∈ K[t] von f das konkret gegeben ist durch das charakteristische Polynom der darstellenden Matrix bezüglich irgendeiner Basis von V : Pf (t) = det(tEn − A) ∈ K[t] Für B wie oben erhält man tatsächlich das gleiche Polynom: det(tEn − B) = det tEn − T AT −1 = det tT T −1 − T AT −1 = det T (tEn − A)T −1 = det(T ) det(tEn − A) det(T −1 ) = det(tEn − A) 4 Die Koeffizienten des charakteristischen Polynomes Schreibt man das charakteristische Polynom Pf (t) aus als n X n (−1)i ci tn−i = tn − c1 tn−1 + · · · + (−1)n cn Pf (t) = t + k=1 so erhält man gewisse Elemente ci des Körpers K. Man erhält so für jeden Endomorphismus f: V →V eines n-dimensionalen Vektorraumes über K gewisse Zahlen c1 , c2 , . . . , cn ∈ K Diese Zahlen werden sozusagen von f gleich mitgeliefert. Ein wichtiges Thema der Linearen Algebra ist es, zu versuchen, den Endomorphismus f aus diesen Zahlen zu rekonstruieren, so gut es geht. Dies führt auf die sogenannte JordanNormalform. Die Zahlen ci nennt man auch Invarianten von f . Der Name kommt von der Invarianz (Unabhängigkeit) bei Basiswechseln. Man schreibt ci = ci (f ) Ist A eine n × n-Matrix, so schreibt man entsprechend n X (−1)i ci (A)tn−i = tn − c1 (A)tn−1 + · · · + (−1)n cn (A) PA (t) = tn + k=1 Wie bei der Determinante gilt dann ci (f ) = ci (A) = ci (B) falls A, B wie oben die Matrizen zu f bezüglich irgendwelchen Basen sind. Die Spezialfälle c1 und cn . Die Zahl cn (f ) ist einfach die Determinante: (−1)n cn (f ) = Pf (0) = det(0 − f ) = (−1)n det(f ) Die Zahl c1 (f ) heißt die Spur (engl.: trace) von f bzw. A: spur(f ) = c1 (f ), spur(A) = c1 (A) Dabei gilt für A = (aij ) spur(A) = n X i=0 (siehe Blatt P11, Aufgabe 4). aii = a11 + . . . + ann 5 Die eingeführten Vorzeichen der Koeffizienten sind praktisch in Bezug auf die Nullstellen des Polynomes. Zerfällt Pf (t) in Linearfaktoren Pf (t) = (t − α1 ) · · · (t − αn ) (αi ∈ K) (die αi sind also die Eigenwerte von f ), so hat man die vorzeichenfreien Formeln c 1 = α1 + · · · + αn c n = α1 · · · αn und allgemein ci = X αr 1 · · · αr i 1≤r1 <···<ri ≤n z. B. c2 = X 1≤r<s≤n αr αs 6 Die Eigenraum-Zerlegung eines Endomorphismus Hier ist eine kurze Vorschau. Es sei f: V →V ein Endomorphismus eines n-dimensionalen Vektorraumes V über einem Körper K mit charakteristischem Polynom Pf (t) = det(t · idV − f ) ∈ K[t] Nehmen wir an, der Grundkörper ist algebraisch abgschlossen (z. B. K = C). Dann zerfällt das Polynom vollständig in Linearfaktoren. Dabei können Nullstellen mehrfach auftreten. Es sei (∗) Pf (t) = (t − α1 )n1 · · · (t − αr )nr wobei r die Anzahl der Nullstellen (nicht mehrfach gezählt) und ni die Vielfachheit (Multiplizität) der Nullstelle αi ist. Dabei gilt αi 6= αj für i 6= j und natürlich n1 + · · · + nr = n = deg Pf (t) = dim V Es ergibt sich nun, daß der Zerlegung (∗) des charakteristischen Polynomes Pf (t) eine Zerlegung von V als direkte Summe von Untervektorräumen entspricht. Es gibt Unterräume Vi (1 ≤ i ≤ r) von V mit dim Vi = ni und f (Vi ) ⊂ Vi sowie V = V1 ⊕ · · · ⊕ Vr Ist fi = f |Vi : Vi → Vi die Einschränkung von f auf Vi so ist also f die direkte Summe der fi : f = f1 ⊕ · · · ⊕ fr Dabei gilt Pf (t) = Pf1 (t) · · · Pfr (t), Pfi (t) = (t − αi )ni Der Speziallfall r = n (also alle Nullstellen sind verschieden; insbesondere gilt ni = 1 für die Multiplizitäten) wurde bereits in der Vorlesung behandelt. Dies wird im Folgenden wiederholt. 7 Diagonalisierbare Matrizen Eine n × n-Matrix D = (dij ) ∈ Mn (K) heißt diagonal, falls dij = 0 für i 6= j. Es steht also außerhalb der Diagonale überall die 0. Wir schreiben d1 0 · · · 0 0 d2 0 D = diag(d1 , . . . , dn ) = . . .. .. . .. 0 0 · · · dn für Diagonal-Matrizen, also D = (dij ) mit dij = 0 für i 6= j und dii = di . Eine n × n-Matrix A ∈ Mn (K) heißt diagonalisierbar, falls eine invertierbare Matrix C gibt, so daß C −1 AC diagonal ist. Ist A diagonalisierbar und kennt man die zugehörige Matrix C, so lassen sich zum Beispiel die Potenzen von A leicht bestimmen. Ist etwa A = C diag(d1 , . . . , dn )C −1 so folgt A = C diag(dk1 , . . . , dkn )C −1 Dies folgt aus der bekannten Rechnung (ghg −1)k = ghk g −1 und diag(d1 , . . . , dn )k = diag(dk1 , . . . , dkn ). Lemma. Eine Matrix A ∈ Mn (K) ist genau dann diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Beweis. Es sei v1 , . . . , vn eine Basis des K n bestehend aus Eigenvektoren von A zu den Eigenwerten α1 , . . . , αn . Betrachtet man die vi wie üblich als Spaltenvektoren, so hat C = (v1 , . . . , vn ) die gewünschten Eigenschaften. Es gilt nämlich ACei = Avi = αi vi und andererseits C diag(α1 , . . . , αn )ei = Cαi ei = αi vi und damit AC = C diag(α1 , . . . , αn ) also C −1 AC = diag(α1 , . . . , αn ) Umgekehrt, ist A diagonalisierbar, so gibt es ein C mit C −1 AC = diag(α1 , . . . , αn ) Dann bilden die Spalten vi = Cei 8 eine Basis aus Eigenvektoren. Denn es ist Avi = ACei = C diag(α1 , . . . , αn )ei = Cαi ei = αi vi Satz. Ist A eine n × n-Matrix mit n verschiedenen Eigenwerten α1 , . . . , αn (das charakteristische Polynom zerfällt also in n verschiedene Linearfaktoren (t−αi )), so ist A diagonalisierbar. Genauer: Es gibt eine invertierbare Matrix C mit C −1 AC = diag(α1 , . . . , αn ) Der Beweis wurde praktischerweise gleich für einen Endomorphismus f: V →V eines Vektorraumes über K geführt. Satz. Ist f : V → V ein Endomorphismus eines n-dimensionalen Vektorraumes mit n verschiedenen Eigenwerten α1 , . . . , αn und sind v1 , . . . , vn zugehörige Eigenvektoren, so ist v1 , . . . , vn eine Basis von V . Die darstellende Matrix bezüglich dieser Basis ist die Diagonal-Matrix diag(α1 , . . . , αn ) Beweis. Beim Beweis in der Vorlesung bestand die Hauptarbeit darin, zu zeigen, daß die vi linear unabhängig sind. Der Rest ist dann klar. Dazu zeigt man durch Induktion, daß für r ≥ 1 die Vektoren v1 , . . . , vr linear unabhängig sind. Der Fall r = 1 ist klar. Wäre nun r X ci vi = 0 i=1 (nicht alle ci = 0) so folgt 0=f r X i=1 ci vi ! = r X i=1 ci f (vi ) = r X ci αi vi i=1 Multipliziert man die erste Gleichung mit αr und subtrahiert sie von der zweiten Gleichung, so ergibt sich (α1 − αr )c1 v1 + · · · + (αr−1 − αr )cr−1 vr−1 = 0 Dies ergibt eine lineare Abhängigkeit für die Vektoren v1 , . . . , vr−1 . Nach Induktionsannahme sind diese aber linear unabhängig, also gilt (αi − αr )ci = 0 für i < r. Weil αi 6= αr für i < r, hätte man c1 = · · · = cr−1 = 0. Damit wäre aber cr 6= 0. Es folgt vr = 0. Dies widerspricht der Annahme, daß vr ein Eigenvektor ist. 9 Beweis des ersten Satzes. Hier ist V = K n und die Eigenvektoren vi bilden eine Basis des K n nach dem zweiten Satz. Die Behauptung folgt nun aus dem Lemma. Eigenräume: Zu einem Eigenwert α gibt es per Definition immer einen Eigenvektor, aber nicht “den” Eigenvektor — man kann ja einen Eigenvektor immer mit einem Skalar multiplizieren. Allgemein macht man folgende Definition. Für einen Endomorphismus f: V →V und α ∈ K definiert man den Eigenraum von f zu α als die Menge der Eigenvektoren (einschließlich des Nullvektors) mit Eigenwert α: Eigen(f, α) = Kern(f − α · idV ) = { v ∈ V | f (v) = αv } ⊂ V Dies ist immer ein K-Untervektrorraum von V . Ist α kein Eigenwert von f , so ist Eigen(f, α) = 0. Im zweiten Satz sind die Eigenräume Vi = Eigen(f, αi ) alle 1-dimensional. Dabei wird Vi von vi erzeugt: Vi = Kvi Weil die vi eine Basis bilden, erhält man so eine Zerlegung V = V1 ⊕ · · · ⊕ Vn wie auf Seite 6. 10 Zu den Fragen über die Diagonalisierbarkeit siehe insbesondere das Lemma auf Seite 7 und den ersten Satz auf Seite 8. Aufgabe 1. Es sei 1 0 1 A = 0 1 2 −2 1 0 Man bestimme das charakteristische Polynom, alle Eigenwerte und alle Eigenvektoren. Ist A diagonalisierbar? Aufgabe 2. Man zeige, daß die Matrix −3 3a 10 b 0 A= 0 0 a 2 genau dann diagonalisierbar ist wenn b 6= −3, 2 oder wenn a = 0. Aufgabe 3. Diagonalisieren Sie die komplexe Matrix 1 2 + 4i −1 + 3i A= 5 −1 − 2i 3 + 6i D. h. finden Sie die Eigenwerte α1 , α2 von A und eine Matrix C ∈ M2 (C) mit C −1 AC = diag(α1 , α2 ) Aufgabe 4. Für eine quadratische Matrix A ∈ Mn (K) und ein Polynom Q(t) = a0 + a1 t + · · · + ak tk ∈ K[t] setzt man Q(A) = a0 En + a1 A + · · · + ak Ak ∈ Mn (K) Man zeige: (1) Ist v ein Eigenvektor von A mit Eigenwert α, so ist v auch ein Eigenvektor von P (A) mit Eigenwert P (α). (2) Für S ∈ GLn (K) gilt P (S −1 AS) = S −1 P (A)S