c Rudolf Scharlau LinAlg II – Version 1 – 2. Mai 2006 3.3 209 Das charakteristische Polynom Wir setzen die im vorigen Abschnitt begonnene Untersuchung von Eigenvektoren und Eigenwerten fort und stellen den Zusammenhang zu Determinanten her. Wie bisher ist K ein Körper, A ∈ K n×n eine quadratische Matrix und FA : K n → K n , ~x 7→ A~x der zugehörige Endomorphismus des Vektorraumes K n . Nach dem letzten Teil von Bemerkung 3.2.2 können wir die Eigenwerte von FA wie folgt beschreiben: ⇐⇒ ⇐⇒ λ ∈ K ist Eigenwert von FA Kern(FA − λ Id) 6= {~0} rang(A − λEn ) < n Wir wollen die Eigenwerte und Eigenvektoren von FA in Zukunft auch einfach als Eigenwerte bzw. -vektoren der Matrix A bezeichnen. Die Eigenvektoren von A zum Eigenwert λ sind also die nichttrivialen Lösungen des homogenen linearen Gleichungssystems zur Matrix A − λEn . Die obige Rangbedingung können wir mit Hilfe der Determinante wie folgt umformulieren: Bemerkung: λ ist Eigenwert von A ⇐⇒ det(A − λEn ) = 0 . Es geht nun darum, die auf K definierte Funktion λ 7→ det(A − λEn ) genauer zu untersuchen. Beispiel n = 2 A= ! a c , b d A − λE2 = a−λ c b d−λ ! . det(A − λE2 ) = λ2 − (a + d)λ + det A . Wir erhalten also ein quadratisches Polynom in λ; die Eigenwerte sind die Nullstellen einer quadratischen Gleichung. Wie wir später weiter ausführen werden, erhält man für Matrizen der Größe n entsprechend ein Polynom von Grad n. Wir wollen im folgenden nicht nur die entsprechende Funktion auf K betrachten, sondern λ durch eine “Unbestimmte” X ersetzen. Dieses führt uns auf Polynome als “formale Ausdrücke” mit Potenzen einer Unbestimmten, im Unterschied zu Polynomfunktionen. Der Grund hierfür ist, daß wir anstelle von X später nicht nur Skalare, sondern auch andere Objekte, insbesondere Matrizen oder Endomorphismen in das Polynom einsetzen wollen. Vorbereitend zur Beschreibung von Polynomen zunächst die Definition einer “neuen” algebraischen Struktur, die uns in Wirklichkeit jedoch schon mehrfach begegnet ist. 210 LinAlg II – Version 1 – 2. Mai 2006 c Rudolf Scharlau Definition 3.3.1 (K-Algebra) Es sei K ein Körper. Eine K-Algebra ist ein Ring R mit Einselement, der gleichzeitig ein K-Vektorraum ist (mit der gleichen Addition), in dem die folgende Verträglichkeitsbedingung zwischen skalarer Multiplikation und Ringmultiplikation · erfüllt ist: α(x · y) = (αx) · y = x · (αy) für alle α ∈ K, x, y ∈ R . Beispiele 3.3.2 1. C ist eine R-Algebra. Allgemeiner ist jeder Körper L, der unseren gegebenen Körper K als Teilkörper enthält, eine K-Algebra. Die skalare Multiplikation ist die Einschränkung der Multiplikation in L auf K × L. 2. Mn (K) = K n×n ist eine K-Algebra. 3. End(V ) ist eine K-Algebra; dabei ist V ein beliebiger K-Vektorraum. 4. F (I, R) (die Menge der auf I definierten reellen Funktionen) ist eine RAlgebra. Sie ist kommutativ. Wir kommen nun zu Polynomen, genauer zum Ring der Polynome über K. Wir nehmen einen ähnlichen Standpunkt wie bei der Behandlung der komplexen Zahlen in 2.9 ein: wir geben eine Beschreibung, die alles wesentliche enthält, aber weder eine axiomatische Kennzeichnung noch eine Konstruktion des Polynomrings. Erklärung 3.3.3 (Polynomring, Polynome) Gegeben sei ein Körper K. a) Der Polynomring K[X] ist eine kommutative K-Algebra. Es gibt hierin ein ausgezeichnetes Element X, die sog. Unbestimmte derart, daß K[X] = {a0 + a1 X + a2 X 2 + · · · + an X n | n ∈ N, a0 , a1 , . . . , an ∈ K} . Die Elemente aus K[X] heißen Polynome über K. b) Wenn zwei Polynome f = a0 + a1 X + a2 X 2 + · · · + an X n und g = b0 + b1 X + b2 X 2 + · · · + bn X n übereinstimmen, dann ist ai = bi für i = 0, . . . , n. c) In Polynome kann man Elemente β einer beliebigen K-Algebra R einsetzen: für f ∈ K[X] wie eben definiert man f (β) := a0 1R + a1 β + a2 β 2 + · · · + an β n . Das Einsetzen ist ein Ringhomomorphismus, d.h. (f + g)(β) = f (β) + g(β) und (f · g)β = f (β) · g(β) für festes β und alle f, g ∈ K[X]. LinAlg II – Version 1 – 2. Mai 2006 c Rudolf Scharlau 211 Wenn f = a0 + a1 X + a2 X 2 + · · · + an X n ein Polynom ist, dann nennen wir a0 auch der konstanten Term von f . Er kann auch als f (0) (Einsetzen von 0 ∈ K in f ) beschrieben werden. Wenn zusätzlich n so gewählt ist, daß an 6= 0 ist, dann heißt n der Grad von f , und an wird Leitkoeffizient von f genannt. Der Grad gibt also wie üblich die höchste in f vorkommende Potenz der Unbestimmten an. Wenn man Polynome miteinander multipliziert, addieren sich ihre Grade (und ihre Leitkoeffizienten werden multipliziert). Die Bedingung b) können wir eleganter wie folgt formulieren: die Menge {X k | k ∈ N0 } aller Potenzen der Unbestimmten ist linear unabhängig im Vektorraum K[X]. Durch das Einsetzen liefert jedes Polynom f insbesondere eine Funktion fe : K → K, α 7→ f (α), aber das Polynom ist nicht diese Funktion. Wenn der Körper K nur endlich viele Elemente hat, können verschiedene Polynome die gleiche Funktion liefern. 1 Beispiel Betrachte den Körper F2 = {0, 1} aus zwei!Elementen, das Polynom 0 1 der F2 -Algebra M2 (F2 ). g = X + X 2 ∈ F2 [X] sowie das Element S = 1 0 ! 1 1 Dann ist e g = 0 (die Nullfunktion auf F2 ), aber g(S) = . 1 1 Wir kehren nun zu der oben betrachteten Funktion λ 7→ det(A − λEn ) zurück und ersetzen –grob gesprochen– hierin λ durch die Unbestimmte X. Definition und Bemerkung 3.3.4 (Charakteristisches Polynom) Für eine n×n-Matrix A mit Koeffizienten in einem Körper K wird das charakteristische Polynom als PA := det(A − XEn ) definiert. Dabei wird dieses Polynom (induktiv über n) durch Entwicklung nach der ersten Spalte gemäß der Formel in 3.1.4 gebildet. PA ist ein Polynom vom Grad n mit Leitkoeffizient (−1)n und konstantem Term det A. Bemerkung. Der explizite Verweis auf die Entwicklung nach der ersten Spalte in der letzten Definition mag etwas unelegant wirken. Mit etwas größerem Aufwand kann man dieses in der Tat vermeiden. Wichtig ist nur, daß man eine explizite Formel hat, die erstens die Determinante als Funktion der Matrixeinträge aij audrückt und zweitens für Matrizen mit Koeffizienten in einem beliebigen kommutativen Ring (hier dem Polynomring K[X]) Sinn macht. Etwas mehr dazu im ergänzenden Abschnitt 3.6. Als zweites Hauptziel dieses Abschnittes steuern wir nun die Definition des charakteristischen Polynoms PF ∈ K[X] für einen Endomorphismus F eines beliebigen (allerdings endlich-dimensionalen) K-Vektorraumes an. Dieses geschieht 1 Weitere Informationen über Polynome, die im folgenden z.T. benutzt werden, findet man im ergänzenden Abschnitt 3.6; insbesondere 3.6.7 und 3.6.9 setzen wir im folgenden als bekannt voraus. c Rudolf Scharlau 212 LinAlg II – Version 1 – 2. Mai 2006 mit Hilfe einer der unter 2.6.11 ff. eingeführten Darstellungsmatrix. Wir müssen dafür klären, wie sich die Darstellungsmatrix MAA (F ) ändert, wenn wir die Basis A ändern. Vorbereitend leiten wir einen Satz über Produkte von Darstellungsmatrizen her. Wir wissen nach Satz 2.4.8, daß die Verkettung von linearen Abbildungen zwischen Standardvektorräumen K n der Multiplikation der zugehörigen Matrizen entspricht. Dieses übertragen wir im folgenden Satz auf beliebige lineare Abbildungen und ihre Darstellungsmatrizen MBA . Dabei muß man allerdings im mittleren“ Vektorraum zwei Mal dieselbe Basis nehmen. ” Satz 3.3.5 (Verkettung und Matrizenmultiplikation) Seien V, W, Z Vektorräume, F : V → W und G : W → Z lineare Abbildungen. Seien A, B, C Basen von V, W bzw. Z. Sei A die Matrix von F bezüglich A und B und B die Matrix von G bezüglich B und C. Dann ist Matrix von G ◦ F : V → Z bezüglich der Basen A und C gleich dem Matrizenprodukt BA. Kurz gefaßt: MCB (G) MBA (F ) = MCA (G ◦ F ) Beweis: Zusammensetzen der beiden A bzw. B definierenden Diagramme liefert F V −−−→ x Φ A F G W −−−→ x Φ B F Z x Φ C A B K n −−− → K m −−− → Kp Das äußere Diagramm ist ebenfalls kommutativ: (G ◦ F ) ◦ ΦA = ΦC ◦ (FB ◦ FA ). Wegen FBA = FB ◦ FA (siehe Satz 2.4.8) erfüllt also BA die definierende Bedingung für MCA (G ◦ F ). Wir wollen noch eine kleine Bezeichnungsvereinfachung vereinbaren. In einem Diagramm von Abbildungen wollen wir in Zukunft über den Pfeil einer linearen Abbildung K n −→ K m nicht mehr den Namen FA der Abbildung schreiben, sondern wir beschriften den Pfeil mit der Matrix selbst: A K n −−−→ K m . Dieses soll nicht heißen, daß wir die Unterscheidung zwischen Matrizen und den zugehörigen linearen Abbildungen jetzt aufgeben; es geht lediglich um eine kurze und zweckmäßige Beschriftung von Diagrammen. Als nächstes klären wir, wie sich die Matrix einer linearen Abbildung ändert, wenn man die zugrundeliegenden Basen des Definitionsbereiches V und des Zielraumes W ändert. Es zeigt sich, daß dieses durch Multiplikation (von links und rechts) mit regulären Matrizen geschieht. Hierzu zunächst eine Definition 3.3.6 Es seien A und A′ zwei Basen des K-Vektorraumes V . Die Matrix MAA′ (IdV ) heißt auch Matrix des Basiswechsels von A zu A′. c Rudolf Scharlau LinAlg II – Version 1 – 2. Mai 2006 213 Die Koeffzienten der Matrix des Basiswechsels drücken die “alten” Basisvektoren vj durch die “neuen” vi′ aus, nicht umgekehrt: vj = n X sij vi′ , j = 1, . . . , n . i=1 Lemma 3.3.7 Jede Basiswechselmatrix MAA′ (IdV ) ist invertierbar; ihre Inverse ′ ist die Matrix MAA (IdV ) des Basiswechsels von A′ zu A. Beweis: Es gilt nach ′ ′ MAA′ (Id) MAA (Id) = MAA′ (Id) = En ′ MAA (Id) MAA′ (Id) = MAA (Id) = En Übrigens kann in diesem Beweis im Prinzip auf die zweite Zeile verzichtet werden, wie an anderer Stelle schon bemerkt wurde (jede rechtsinverse Matrix ist auch linksinvers). Die Definition der Basiswechselmatrix wird unter anderem auch durch folgenden Satz gerechtfertigt. Satz 3.3.8 (Koordinatenumrechnung bei Basiswechsel) Es seien A und A′ zwei geordnete Basen desselben Vektorraumes V und S die Matrix des Basiswechsels von A zu A′ (siehe 3.3.6). Es sei v ∈ V ein Vektor, ~x und x~′ seine Koordinatenspalten bezüglich A bzw. A′ . Dann gilt x~′ = S~x. Beweis: Das folgt direkt aus der Definition von S durch das kommutative Diagramm Id V −−−→ V x x Φ ΦA′ A S K n −−−→ K n . −1 ~′ Es ergibt sich S~x = SΦ−1 A (v) = ΦA′ (v) = x . Wir kommen nun zum eigentlichen Ziel dieses Unterabschnittes: der folgende Satz enthält die angekündigte, oft gebrauchte Formel, die klärt, wie sich die Darstellungsmatrix einer linearen Abbildung ändert, wenn man die Basen wechselt. Satz 3.3.9 Es seien A, A′ Basen von V , S die Matrix des Basiswechsels von A zu A′ , B, B′ Basen von W , T die Matrix des Basiswechsel von B zu B′ , F : V → W eine lineare Abbildung, A die Matrix von F bezüglich A und B und A′ die Matrix von F bezüglich A′ und B′ . Dann gilt A′ = T AS −1 . c Rudolf Scharlau 214 LinAlg II – Version 1 – 2. Mai 2006 Beweis: Nach Definition gilt: ′ A = MBA (F ), S = MAA′ (Id), also S −1 = MAA (Id) (siehe 3.3.7), T = MBB′ (Id)). Mittels zweimaliger Anwendung von Satz 3.3.5 folgt T AS −1 = = = = ′ MBB′ (Id) MBA (F ) MAA (Id) ′ MBB′ (Id) MBA (F ◦ Id) ′ MBA′ (Id ◦F ◦ Id) ′ MBA′ (F ) = A′ Speziell für Endomorphismen F ∈ End V betrachtet man in aller Regel Darstellungsmatrizen S = MBB (F ) bezüglich einer Basis. Wenn man von B zu B′ wechselt, ändert sich die Matrix zu A′ = SAS −1 mit einer invertierbaren Matrix S. Dieses führt auf folgende Definition: Definition und Bemerkung 3.3.10 (Ähnlichkeit von Matrizen) Zwei n×n quadratische Matrizen A, B ∈ K heißen ähnlich, wenn eine invertierbare Matrix S ∈ GLn (K) existiert mit B = SAS −1 . Ähnlichkeit von Matrizen ist eine Äquivalenzrelation. Wir formulieren noch einmal ausdrücklich den Sachverhalt, der uns (anschließend an Satz 3.3.9) auf die Definition der Ähnlichkeit geführt hat: wennn F ein Endomorphismus eines endlich-dimensionalen K-Vektorraumes ist, dann sind alle Darstellungsmatrizen für F (bezüglich verschiedener Basen) ähnlich zueinander. Dieses führt auf folgenden Satz: Satz und Definition 3.3.11 Es sei F ein Endomorphismus von V und MAA (F ), MBB (F ) zwei Darstellungsmatrizen für F . Dann gilt det MAA (F ) = det MBB (F ). Dieses Zahl heißt auch Determinante von F , abgekürzt det F . Beweis: Zu zeigen ist, daß die Determinanten von ähnlichen Matrizen übereinstimmen. Dieses folgt aus dem Determinantenmultiplikationssatz 3.1.10: det(SAS −1 ) = det S det A det(S −1 ) = det S det A (det S)−1 = det A . Nach unserem Exkurs über zum Basiswechel steuern wir nun das eigentliche Ziel dieses Abschnittes an: die Kennzeichnung von Eigenwerten eines beliebigen Endomorphismus eines endlichdimensionalen Vektorraumes durch das charakteristische Polynom. Dieses muß im allgemeinen Fall erst einmal definiert werden. Dafür benötigt man folgenden Hilfssatz: LinAlg II – Version 1 – 2. Mai 2006 c Rudolf Scharlau 215 Lemma 3.3.12 Ähnliche Matrizen haben dasselbe charakteristische Polynom. Beweis: Wir beschränken uns auf den Fall, daß der Grundkörper K unendlich viele Elemente besitzt. Dann wird der Beweis deutlich einfacher, weil jedes Polynom P ∈ K[X] durch die zugehörige Polynomfunktion Pe : K → K, α 7→ P (α) eindeutig bestimmt ist: wenn P (α) = Q(α) für alle α ∈ K ist, dann gilt P = Q (Gleichheit von Polynomen, d.h. Gleichheit aller entsprechenden Koeffizienten). Aus dem letzten Beweis wissen wir schon, daß die Determinanten von ähnlichen Matrizen übereinstimmen: det(SAS −1 ) = det A . Für jedes λ ∈ K können wir dieses auch auf die Matrix A − λEn anwenden. Wegen S(A − λEn )S −1 = SAS −1 − λSEn S −1 = SAS −1 − λEn folgt dann PA (λ) = PSAS −1 (λ), wie behauptet. Bemerkung. Wenn man den Satz für beliebige Körper beweisen möchte, benötigt man den Determinantenmultiplikationssatz det(SA) = det S det A = det(AS) für den Fall, daß die Matrix A ihre Koeeffizienten in einer beliebigen kommutativen KAlgebra R hat (während weiterhin S eine Matrix über K ist). In der Anwendung ist dann R der Polynomring. Diesen Satz kann man mittels der Ergänzungen zu Abschnitt 2.5 herleiten. Man benutzt, daß S ein Produkt von sog. Elementarmatrizen ist, die elementare Zeilen- bzw. Spaltenumformungen beschreiben. Da für dieses Produkt der Multiplikationssatz bereits bewiesen ist, können wir uns auf den Fall beschränken, daß S selbst eine Elementarmatrix ist. Für alle drei Typen von Elementarmatrizen ergibt sich dann der Beweis durch scharfes Hinsehen unter Benutzung der expliziten (induktiv definierten) Formel für die Determinante über Ringen. Definition 3.3.13 Das charakteristische Polynom PF eines Endomorphismus F von V wird definiert als das charakteristische Polynom einer beliebigen Darstellungsmatrix von F : PF := PA = det(A − XEn ), wobei A = MBB (F ) , und B irgendeine Basis von V ist. Satz 3.3.14 Es sei K ein Körper und F ein Endomorphismus eines endlichdimensionalen K-Vektorraumes oder eine n×n-Matrix für ein n ∈ N. Ein Element λ ∈ K ist ein Eigenwert von F genau dann, wenn λ Nullstelle des charakteristischen Polynoms von F ist: PF (λ) = 0 Definition 3.3.15 Es sei F ein Endomorphismus eines endlich-dimensionalen Vektorraumes oder eine quadratische Matrix. Die Vielfachheit m =: m(PF , λ) einer Nullstelle λ ∈ K des charakteristischen Polynoms PF heißt auch algebraische Vielfachheit des Eigenwertes λ. Es ist also PF = (X − λ)m · g, mit g ∈ K[X], g(λ) 6= 0 . Die Dimension des Eigenraumes Eig(F, λ) heißt in diesem Zusammenhang auch geometrische Vielfachheit von λ. c Rudolf Scharlau 216 LinAlg II – Version 1 – 2. Mai 2006 Der folgende Satz klärt den Zusammenhang zwischen den beiden Vielfachheiten und darüber hinaus zumindest im Prinzip die Frage der Diagonalisierbarkeit. Der Teil b) beruht wesentlich auf unserer detailierten Untersuchung von direkten Summen in Satz 3.2.9 sowie dem Satz 3.2.10. Satz 3.3.16 a) Die geometrische Vielfachheit eines Eigenwertes ist höchstens gleich seiner algebraischen Vielfachheit: dim Eig(F, λ) ≤ m(PF , λ) für alle λ ∈ K. b) Ein Endomorphismus oder eine Matrix F ist genau dann diagonalisierbar, wenn das charakteristische Polynom PF in Linearfaktoren zerfällt, r r X Y mi (X − λi ) , wobei mi = n = dim V , PF = (−1) n i=1 i=1 und die geometrische Vielfachheit jedes Eigenwertes mit der algebraischen Vielfachheit übereinstimmt: dim Eig(F, λ) = m(PF , λ) für alle λ ∈ K.