Lineare Algebra II – Sommersemester 2017 3.2 c Rudolf Scharlau 215 Eigenwerte und das charakteristische Polynom In diesem kurzen, aber zentralen Abschnitt werden die zunächst Begriffe „Eigenwert” und „Eigenvektor” definiert. Sie beziehen sich auf einen Endomorphismus eines Vektorraumes, bzw. auf eine quadratische Matrix. Dann wird, aufbauend auf das Konzept der Determinante aus dem vorigen Abschnitt, das charakteristische Polynom einer quadratischen Matrix definiert. Mit Hilfe unserer Kenntnisse über Basiswechsel, insbesondere Satz 2.8.13 wird diese Definition auf Endomorphismen endlichdimensionaler Vektorräume übertragen. Nachdem all dieses entwickelt ist, erfordert es keinen Aufwand mehr, den zentralen Satz dieses Abschittes zu beweisen: Die Eigenwerte sind genau die Nullstellen des charakteristischen Polynoms. Definition 3.2.1 (Eigenwert, Eigenvektor) Es sei K ein Körper, V ein K-Vektorraum und F : V → V ein Endomorphismus von V . Ein Skalar λ ∈ K heißt Eigenwert von F , falls ein Vektor v ∈ V, v 6= 0 existiert mit F (v) = λv. Ein solcher Vektor v ∈ V heißt Eigenvektor von F zum Eigenwert λ. Wenn A ∈ K n×n eine quadratische Matrix ist, dann werden die Eigenwerte und Eigenvektoren des Endomorphismus FA von K n auch einfach als Eigenwerte bzw. Eigenvektoren von A bezeichnet. Bemerkung und Definition 3.2.2 (Eigenraum) Es sei F ein Endomorphismus von V und λ ∈ K. a) Wir bezeichnen mit Eig(F, λ) ⊆ V die Menge aller Eigenvektoren von F zum Eigenwert λ zusammen mit dem Nullvektor. Es gilt Eig(F, λ) = Kern(F − λ IdV ) . Insbesondere ist Eig(F, λ) ein Untervektorraum von V . Er heißt der zu λ gehörige Eigenraum von F . b) Ein Skalar λ ist genau dann ein Eigenwert von F , wenn der Kern von F − λ IdV nicht nur aus dem Nullvektor besteht, d.h. wenn F − λ IdV nicht injektiv ist. Entsprechend wird ein Eigenraum Eig(A, λ) einer quadratischen Matrix A als Eigenraum der zugehörigen linearen Abbildung FA definiert. Er ist gleich den Kern der Matrix A − λEn , also gleich dem Lösungsraum des zu dieser Matrix gehörigen homogenen Linearen Gleichungssystems: Eig(A, λ) = L(A − λEn , 0). Vor dem ersten Beispiel zu Eigenvektoren schieben wir noch eine kleine Definition ein. Definition und Bemerkung 3.2.3 (Fixpunkt) a) Es sei M irgendeine Menge und f : M → M eine Abbildung. Ein Fixpunkt von f ist ein Element x ∈ M , für das f (x) = x gilt. b) Die Fixpunkte einer linearen Abbildung sind genau die Eigenvektoren zum Eigenwert 1 zusammen mit dem Nullvektor. Fixpunkte spielen unter anderem in der Geometrie eine große Rolle. Der Begriff hat nicht speziell mit linearen Abbildungen zu tun. 216 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau Beispiel 3.2.4 Wir betrachten eine reelle 2 × 2-Matrix der Gestalt ! a b S= wobei a, b, ∈ R, a2 + b2 = 1 , b −a sowie die zugehörige lineare Abbildung FS : R 2 → R 2 , ~x 7→ S~x . In Satz 2.10.31 hatten wir behauptet, dass FS eine Spiegelung ist. Insbesondere besitzt FS Fixpunkte, nämlich alle Punkte auf der Geraden, an der gespiegelt wird. Betrachten der Matrix S − E2 gestattet es, dieses zu bestätigen und die Fixpunkte unmittelbar zu bestimmen. Übung. Man zeige, dass auch −1 Eigenwert von FS ist und jeder Eigenvektor zum Eigenwert −1 orthogonal zu jedem Eigenvektor zum Eigenwert 1 ist. Hierbei ist das Standardskalarprodukt auf R2 zugrundegelegt. Wir beginnen nun damit, die auf K definierte Funktion λ 7→ det(A − λEn ) genauer zu untersuchen. Die Nullstellen dieser Funktion sind genau die Werte λ, für die A−λEn nicht regulär ist, d.h. die Nullstellen sind genau die Eigenwerte. Beispiel 3.2.5 (Das charakteristische Polynom für n = 2) ! ! a c a−λ c A= , A − λE2 = . b d b d−λ det(A − λE2 ) = λ2 − (a + d)λ + det A . Wir erhalten also ein quadratisches Polynom in λ (genauer eine quadratische Polynomfunktion); die Eigenwerte sind die Nullstellen einer quadratischen Gleichung. Wie wir gleich sehen werden, erhält man für Matrizen der Größe n entsprechend eine Polynomfunktion vom Grad n. Wir wollen im folgenden nicht nur die entsprechende Funktion auf K betrachten, sondern λ durch eine Unbestimmte X ersetzen (vergleiche Kapitel 3.1). Der Grund hierfür ist, dass wir anstelle von X später nicht nur Skalare, sondern auch andere Objekte, insbesondere Matrizen oder Endomorphismen in das Polynom einsetzen wollen. Definition 3.2.6 (Charakteristisches Polynom) Für eine n×n-Matrix A mit Koeffizienten in einem Körper K wird das charakteristische Polynom als PA := det(A − XEn ) definiert. Dabei wird dieses Polynom (induktiv über n) durch Entwicklung nach der ersten Spalte gemäß der Formel in 3.1.3 gebildet. Bemerkung 3.2.7 Das charakteristische Polynom PA einer n×n-Matrix hat den Grad n, den Leitkoeffizient (−1)n und den konstantem Term det A. Beweis: Die ersten beiden Behauptungen ergeben sich mit Induktion über n sofort aus der Definition. Den konstanten Term a0 eines Polynoms f erhält man immer als a0 = f (0), also durch Einsetzen von Null. Für PA ergibt sich definitionsgemäß PA (0) = det A. Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau 217 Wir wollen nun die Definition des charakteristischen Polynoms von Matrizen auf Endomorphismen endlich-dimensionaler Vektorräume übertragen. Dieses geschieht, wie nicht anders zu erwarten, mit Hilfe der früher ausführlich behandelten Darstellungsmatrix. Im Abschnitt 2.8 wurde geA klärt, wie sich diese Matrix MA (F ) ändert, wenn wir die Basis A ändern: Man geht über zu einer ähnlichen Matrix. Wir haben diese Tatsache unter 3.1.14 bereits zur Definition der Determinante eines Endomorphismus genutzt. Nun geht es um den analogen Sachverhalt für das charakteristische Polynom: Lemma 3.2.8 Ähnliche Matrizen haben dasselbe charakteristische Polynom. Beweis: Wir machen für den folgenden Beweis eine zusätzliche, nicht unbedingt erforderliche Annahme, nämlich dass der Grundkörper K unendlich viele Elemente besitzt. Dann wird der Beweis deutlich einfacher, weil nach Korollar 1.4.21 jedes Polynom P ∈ K[X] durch die zugehörige Polynomfunktion Pe : K → K, α 7→ P (α) eindeutig bestimmt ist: Wenn P (α) = Q(α) für alle α ∈ K ist, dann gilt P = Q (Gleichheit von Polynomen, d.h. Gleichheit aller entsprechenden Koeffizienten). Aus dem Beweis von 3.1.14 wissen wir schon, dass die Determinanten von ähnlichen Matrizen übereinstimmen: det(SAS −1 ) = det A . Für jedes λ ∈ K können wir dieses auch auf die Matrix A − λEn anwenden. Wegen S(A − λEn )S −1 = SAS −1 − λSEn S −1 = SAS −1 − λEn folgt dann PA (λ) = PSAS −1 (λ), wie behauptet. Nach der Vorarbeit in Lemma 3.2.8 macht nun die folgende Definition Sinn: Definition 3.2.9 Das charakteristische Polynom PF eines Endomorphismus F von V wird definiert als das charakteristische Polynom einer beliebigen Darstellungsmatrix von F : PF := PA = det(A − XEn ), wobei A = MBB (F ) , und B irgendeine Basis von V ist. Nun können wir das Hauptergebnis dieses Abschnittes in definitiver Form formulieren und auch leicht beweisen: Satz 3.2.10 Es sei K ein Körper und F ein Endomorphismus eines endlichdimensionalen K-Vektorraumes oder eine n × n-Matrix für ein n ∈ N. Ein Element λ ∈ K ist ein Eigenwert von F genau dann, wenn λ Nullstelle des charakteristischen Polynoms von F ist: PF (λ) = 0. Aus Satz 1.4.20 (über die Anzahl der Nullstellen eines Polynoms) ergibt sich nun eine oft benutzt einfache Folgerung: Korollar 3.2.11 Eine quadratische Matrix der Größe n bzw. ein Endomorphismus eines n-dimensionalen Vektorraumes kann höchstens n verschiedene Eigenwerte haben. Statt eines Zahlenbeispiels notieren noch folgende allgemeine Folgerung aus Satz 3.2.10. Satz 3.2.12 Das charakteristische Polynom einer oberen Dreiecksmatrix A ∈ K n×n ergibt sich als PA = (−1)n n Y (X − aii ) . i=1 Ihre Eigenwerte sind genau die Diagonalelemente. 218 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau Beweis: Die Formel für PA ergibt sich mittels Induktion über n unmittelbar aus der von uns gewählten (induktiven) Definition 3.2.6 des charakteristischen Polynoms durch Entwicklung nach der ersten Spalte.2 Die Aussage über die Eigenwerte folgt dann aus Satz 3.2.10. 2 Den Satz 3.1.6.c) über die Determinante einer oberen Dreiecksmatrix kann man hier nicht benutzen, weil er (jedenfalls mit dem von uns gegebenen Beweis) keine Unbestimmte X in der Matrix erlaubt. Vergleiche hierzu die Zusatzannahme im Beweis von Lemma 3.2.8. Lineare Algebra II – Sommersemester 2017 3.3 c Rudolf Scharlau Diagonalisierbarkeit Eine Diagonalmatrix ist eine quadratische Matrix, die nur (höchstens) auf der Hauptdiagonalen von Null verschiedene Einträge besitzt. In diesem Abschnitt klären wir die Frage, wann ein Endomorphismus F diagonalisierbar ist, das heißt, bezüglich einer geeigneten Basis eine Diagonalmatrix als Darstellungsmatrix besitzt. Direkt aus den Definitionen folgt, dass eine Darstellungsmatrix von F genau dann Diagonalgestalt hat, wenn die benutzte Basis vollständig aus Eigenvektoren von F besteht (Bemerkung 3.3.3); die Diagonaleinträge der Matrix sind dann die Eigenwerte (Bemerkung 3.3.4.c). Die Basisvektoren müssen also in gewissen Unterräumen, den Eigenräumen, liegen. Um diese Fragestellung vollständig zu behandeln, muss man detaillierte Kenntnisse über „direkte Summen” von Unterräumen haben, die in den Sätzen 3.3.7 und 3.3.9 bereitgestellt werden. Diese haben eigentlich nichts speziell mit Endomorphismen oder Eigenwerten zu tun, sondern bilden eine Ergänzung zur grundlegenden Theorie von Unterräumen und Basen. Technisch führen wir hierfür in Definition 3.3.6 zunächst den Begriff der „Unabhängigheit” von Unterräumen ein, der die lineare Unabhängigkeit von Vektoren verallgemeinert. Dieser Begriff der Unabhängigkeit beschreibt eine bestimmte relative Lage von zwei oder (vor allem) mehr Unterräumen zueinander: die Unterräume sollten so „disjunkt wie möglich” sein. In der Literatur gibt es hierfür meistens keine separate Definition, vielmehr wird die entsprechende Bedingung direkt bei der Definition einer direkten Summe mit behandelt.3 Der Sachverhalt als solcher ist aber allgegenwärtig, und die Vokabel „unabhängig” scheint mir hierfür treffend zu sein. Ein weiterer grundlegender Satz 3.3.10 sagt dann, dass die Eigenräume zu den verschiedenen Eigenwerten unabhängig sind (also in üblicher Terminologie eine direkte Summe bilden). Dieses Resultat enthält die (anschaulich vielleicht leichter zugängliche) Aussage, dass Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind (Korollar 3.3.11). Diagonalisierbarkeit von F ist genau dann gegeben, wenn der aus den Eigenräumen gebildete Summenraum der ganze Vektorraum ist (Bemerkung 3.3.5). Beide Aussagen zusammengenommen ergeben zunächst einmal, dass man, Diagonalisierbarkeit vorausgesetzt, eine Basis aus Eigenvektoren erhält, indem man Basen der einzelnen Eigenräume zusammenfügt (Satz 3.3.12). Weiter kann man die Frage, wann Digonalsierbarkeit vorliegt, nunmehr auf eine reine Dimensionsbetrachtung reduzieren. Deren Lösung ergibt sich mit Hilfe der Vielfachheiten der Eigenwerte von F . Es gibt zwei Sorten von Vielfachheiten: die „algebraische Vielfachheit” von λ, das ist die Vielfachheit der Nullstelle λ im charakteristischen Polynom, deren Theorie wir aus Satz 1.4.19 kennen, und die „geometrische Vielfachheit”, das ist nach Definition die Dimension des Eigenraumes Eig(F, λ). Diagonalisierbarkeit ist gegeben, wenn das charakteristische Polynom in Linearfaktoren zerfällt und für jeden Eigenwert die algebraische mit der geometrischen Vielfachheit übereinstimmt. Diese ist die Aussage des letzten und abschließenden Satzes 3.3.14 dieses Abschnittes. Beispiel 3.3.1 Es sei S eine Matrix wie im Beispiel 3.2.4 (eine 2 × 2Spiegelungsmatrix) und v, w ∈ R2 Eigenvektoren von S zum Eigenwert 1 bzw. −1. Dann ist B = (v, w) eine Basis von R2 , und für die Darstel3 Auch in diesem Skript war das bis 2016 der Stand der Dinge. 219 220 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau lungsmatrix von FS bzgl. B gilt MBB (FS ) = 1 0 ! 0 . −1 Die darstellende Matrix hat also außerhalb der Diagonale nur Nullen. Man sagt auch, die Spiegelung FS ist „diagonalisierbar“. Die allgemeine Definition lautet wie folgt. Definition 3.3.2 a) Eine quadratische Matrix D = (dij ) heißt Diagonalmatrix, falls für alle Indizes i, j mit i 6= j gilt dij = 0. b) Ein Endomorphismus eines endlich-dimensionalen K-Vektorraumes heißt diagonalisierbar, falls eine Basis B von V existiert, für die MBB (F ) eine Diagonalmatrix ist. c) Seien d1 , d2 , . . . , dn Elemente aus K. Dann bezeichnet Diag(d1 , d2 , . . . , dn ) ∈ K n×n die Diagonalmatrix, deren Diagonaleinträge d1 , d2 , . . . , dn sind. Der erste Satz über Diagonalisierbarkeit ist so einfach, dass wir ihn lediglich als Bemerkung betiteln: Bemerkung 3.3.3 Ein Endomorphismus eines endlich-dimensionalen Vektorraumes V ist genau dann diagonalisierbar, wenn V eine Basis bestehend aus Eigenvektoren von F besitzt. Genauer gilt für eine beliebige Basis B von V die Äquivalenz MBB (F ) ist Diagonalmatrix ⇐⇒ B besteht aus Eigenvektoren von F. Der Beweis (beide Implikationen) ergibt sich sofort aus der Definition der Darstellungsmatrix. Klar ist dabei auch, dass die Diagonalemente der Darstellungsmatrix Eigenwerte sind. Von der Definition her nicht offensichtlich, aber ebenfalls korrekt ist die Tatsache, dass es keine weiteren Eigenwerte gibt. Hierzu haben wir die nächste Bemerkung. Bemerkung 3.3.4 a) Der Rang einer Diagonalmatrix ist gleich der Anzahl ihrer von Null verschiedenen Einträge. b) Eine Diagonalmatrix ist genau dann invertierbar, wenn alle Diagonalelemente di = dii ungleich Null sind. c) Die Eigenwerte einer Diagonalmatrix sind genau die Diagonalelemente di . Beweis: Teil a) ist klar. Teil b) folgt aus a). Ebenso folgt auch c) aus a). Denn wenn λ ∈ K beliebig ist, dann hat die Diagonalmatrix D − λEn genau dann eine Null auf der Diagonale, wenn λ gleich einem der di ist. Wir bemerken, dass Teil c) sogar allgemeiner für obere Dreiecksmatrizen gilt und aus Satz 3.2.12 bereits bekannt ist. In der Bemerkung soll betont werden, dass der Sachverhalt für Diagonalmatrizen unabhängig von Determinanten oder anderen Überlegungen völlig offensichtlich ist. Man beachte, dass an dieser Stelle die Vielfachheiten der Nullstellen noch nicht autauchen: Im Allgemeinen werden unter den di gleiche Werte vorkommen, was hier noch keine Rolle spielt. Als nächstes formulieren wir ein Kriterium für Diagonalisierbarkeit, das nicht einzelne Eigenvektoren, sondern die Eigenräume benutzt. Wir erinnern an die Definition des Summenraumes 2.1.11, die sich leicht auf (gegebenenfalls) mehr als zwei Unterräume U1 , U2 , . . . , Us erweitert: U1 + U2 + · · · + Us := {u1 + u2 + · · · + us | uj ∈ Uj , j = 1, . . . , s}. Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau 221 Der Summenraum ist der kleinste Unterraum des Gesamtraumes V , der alle Ui enthält. Eine Erzeugendensystem des Summenraumes erhält man, indem man Erzeugendensysteme der einzelnen Ui zusammenfügt (vergleiche den zweiten Teil des Beweises von 2.9.5). Allerdings erhält man nicht unbedingt eine Basis des Summenraumes, selbst wenn man mit Basen der einzelnen Ui startet. Dieser Frage werden wir uns gleich zuwenden. Vorher halten wir eine Folgerung dessen fest, was wir schon wissen. Aus der Bemerkung 3.3.3 folgt nämlich leicht die nächste Bemerkung: Bemerkung 3.3.5 Ein Endomorphismus eines endlich-dimensionalen Vektorraumes V ist genau dann diagonalisierbar, wenn der Summenraum aller Eigenräume von F gleich ganz V ist. Wir wollen im folgenden eine Weiterführung der letzten Bemerkung entwickeln, die (Diagonalisierbarkeit vorausgesetzt) auch die Frage einer Basis aus Eigenvektoren abschließend klärt. Hierfür soll die für zwei Summanden aus 2.9.6 bereits bekannte „direkte Summe” U1 ⊕ U2 ⊕ · · · ⊕ Us erklärt werden. Für s = 2 lautete die Bedingung hierfür: U1 ∩ U2 = {0}. Für s ≥ 3 wäre es eine erste naheliegende Verallgemeinerung zu verlangen, dass Ui ∩ Uj = {0} ist für alle i 6= j. Tatsächlich reicht dieses aber nicht aus. Die „korrekte” Bedingung an die Ui ist die in der Einleitung bereits angeprochene Unabhängigkeit der Ui ; sie wird in der folgenden Definition beschrieben: Definition 3.3.6 (Unabhängigkeit von Unterräumen) Ein System U1 , . . . , Ur von Untervektorräumen eines K-Vektorraumes V heißt unabhängig, falls folgendes gilt: Ui ∩ Vi = {0} für alle i ∈ {1, . . . , r} wobei Vi = U1 + · · · + Ui−1 + Ui+1 + · · · + Ur die Summe der Uj , j 6= i ist. Ähnlich wie bei der linearen Unabhängigkeit von Vektoren sagt man etwas lockerer auch „die Unterräume U1 , . . . , Ur sind unabhängig”. Wie der folgende Satz zeigt, hat die Unabhängigkeit von Unteräumen eng mit der linearen Unabhängikeit von Vektoren zu tun (deswegen auch die Namensgebung). Satz 3.3.7 Für ein System U1 , . . . , Ur von r Untervektorräumen eines K-Vektorraumes V sind die folgenden drei Bedingungen äquivalent: (i) U1 , U2 , . . . , Ur sind unabhängig im Sinne der Definition 3.3.6. (ii) Für alle Vektorsysteme u1 , . . . , ur mit ui ∈ Ui gilt: u1 + u2 + · · · + ur = 0 =⇒ ui = 0 für alle i ∈ {1, . . . , r}. (iii) Von Null verschiedene Vektoren uij ∈ Uij , j = 1, . . . , s sind immer linear unabhängig. Die Aussage (iii) ist so zu verstehen, dass man in gewissen der Ui , etwa U1 , U3 , U5 jeweils einen Vektor wählt, deshalb die Doppelindices ij (im Beispiel ist s = 3). Beweis: siehe Vorlesung. Definition 3.3.8 Ein Vektorraum V heißt direkte Summe von r Untervektorräumen U1 , U2 , . . . , Ur , in Zeichen V = U1 ⊕ U2 ⊕ · · · ⊕ Ur , falls 222 Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau (i) V = U1 + U2 + · · · + Ur (ii) Die r Unterräume U1 , . . . , Ur sind unabhängig im Sinne der Definition 3.3.6. Für zwei Unterräume, also r = 2, stimmt diese Definition mit der früheren Definition 2.9.6 überein. Hier ein ganz simples Konstrastbeispiel: Es seien U1 , U2 , U3 drei verschiedene Geraden im R2 . Dann ist Ui ∩Uj = {0} für alle i 6= j, aber trotzdem ist das System aller drei Unterräume nicht unabhängig. Zum Beispiel ist U1 ∩ V1 = U1 ∩ (U2 + U3 ) = U1 ∩ R2 = U1 6= {0}. Dementsprechend ist R2 nicht die direkte Summe von U1 , U2 und U3 . Die definierende Eigenschaft einer direkten Summe, also die Unabhängigkeit der benutzten Unterräume, hat einige Konsequenzen, die wir im nächsten Satz festhalten. Satz 3.3.9 (Eigenschaften einer direkte Summe) Es sei V ein endlich-dimensionaler K-Vektorraum, U1 , . . . , Ur ein unabhängiges System von Untervektorräumen. Wir betrachten den Summenraum V 0 := U1 + U2 + · · · + Ur = U1 ⊕ U2 ⊕ · · · ⊕ Ur Dann gilt folgendes: a) Für jedes v ∈ V 0 existieren eindeutige Vektoren u1 , . . . , ur mit ui ∈ Ui und v = u1 + u2 + · · · + ur . b) Für jede Wahl von Basen u11 , . . . , u1n1 u21 , . . . , u2n2 ... ur1 , . . . , urnr von U1 von U2 von Ur ist das zusammengesetzte Vektorsystem u11 , . . . , u1n1 , u21 . . . , u2n2 , . . . , ur1 . . . , urnr eine Basis von V 0 . c) dim V 0 = dim U1 + dim U2 + · · · + dim Ur Beweis: a) Übungsaufgabe; b) siehe Vorlesung; c) folgt aus b). Wir kehren nun zu den Eigenvektoren zurück und beweisen den folgenden grundlegenden Satz, der später in der Normalformentheorie noch stark verallgemeinert wird (siehe Satz 3.5.7). Satz 3.3.10 Es seien λ1 , . . . , λs verschiedene Eigenwerte von F ∈ End V . Dann sind die Eigenräume Eig(F, λi ), i = 1, . . . , s unabhängig (gemäß Definition 3.3.6). Beweisskizze: Man zeigt die Bedingung (ii) des Satzes 3.3.7; für Details verweisen wir auf die Vorlesung. Das folgende Korollar folgt sofort aus Aussage (iii) des Satzes 3.3.7. Korollar 3.3.11 Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. Lineare Algebra II – Sommersemester 2017 c Rudolf Scharlau Umgekehrt impliziert die Aussage dieses Korollars nach Satz 3.3.7 auch die volle Behauptung des Satzes 3.3.10. 4 Für sich genommen liefert das Korollar für die meisten Zwecke eine zu schwache Aussage. In der Anwendung auf Normalformen werden die Aussagen b) und c) aus 3.3.9 benötigt. Das Korollar 3.3.11 reicht aus, um einen neuen Beweis von Korollar 3.2.11 zu geben. Es seien nämlich λ1 , . . . , λs verschiedene Eigenwerte von F ∈ End V . Wähle zu jedem λi einen Eigenvektor ui . Diese Vektoren sind nach dem Korollar linear unabhängig. Ihre Anzahl s kann also höchstens gleich der Dimension von V sein. Aus Satz 3.3.10 und Teil b) von Satz 3.3.9 folgt nun unmittelbar die oben angekündigte Verbesserung der Wenn-Aussage in Bemerkung 3.3.5. Satz 3.3.12 Es sei F ein diagonalisierbarer Endomorphismus des endlich-dimensionalen K-Vektorraumes V . Dann erhält man eine Basis von V , die aus Eigenvektoren von F besteht, indem man Basen der einzelnen Eigenräume zusammenfügt. Da Basen eines Eigenraumes rechentechnisch Basen eines Kerns sind, löst dieser Satz auch das praktische Problem der Diagonalisierbarkeit einer Matrix, nämlich die Berechnung einer Transformationsmatrix S, die die Ähnlichkeit zu einer Diagonalmatrix vermittelt: Wenn die Spalten von S eine Basis von K n aus Eigenvektoren von A ∈ K n×n sind, dann ist S −1 AS eine Diagonalmatrix. (Man mache sich klar, dass das gerade beschriebene S in dieser Formel tatsächlich rechts von A steht, und dementsprechend S −1 links.) Die bisherigen Auführungen dieses Kapitels haben noch keine tieferliegende Aussage gemacht, wann Diagonalisierbarkeit wirklich vorliegt. Die Beantwortung dieser Frage erfordert einen genaueren Blick auf das charakteristische Polynom. Definition 3.3.13 Es sei F ein Endomorphismus eines endlich-dimensionalen Vektorraumes oder eine quadratische Matrix. Die Vielfachheit m = m(λ, PF ) einer Nullstelle λ ∈ K des charakteristischen Polynoms PF heißt auch algebraische Vielfachheit des Eigenwertes λ. Es ist also PF = (X − λ)m · g, mit g ∈ K[X], g(λ) 6= 0 . Die Dimension des Eigenraumes Eig(F, λ) heißt in diesem Zusammenhang auch geometrische Vielfachheit von λ. Der folgende Satz klärt den Zusammenhang zwischen den beiden Vielfachheiten und darüber hinaus zumindest im Prinzip die Frage der Diagonalisierbarkeit. Der Teil b) beruht wesentlich auf unserer detaillierten Untersuchung von direkten Summen in Satz 3.3.9 sowie dem Satz 3.3.10. Satz 3.3.14 a) Die geometrische Vielfachheit eines Eigenwertes ist höchstens gleich seiner algebraischen Vielfachheit: dim Eig(F, λ) ≤ m(λ, PF ) für alle λ ∈ K. b) Ein Endomorphismus oder eine Matrix F ist genau dann diagonalisierbar, wenn die beiden folgenden Bedingungen erfüllt sind: 4 In der Literatur wird tatsächlich in diesem Kontext oft nur das Korollar formuliert. Mir scheint es aber den wesentlichen Punkt nicht genau zu treffen, das tut schon eher die Bedingung (ii) des Satzes 3.3.7. 223 c Rudolf Scharlau 224 Lineare Algebra II – Sommersemester 2017 - das charakteristische Polynom PF zerfällt in Linearfaktoren, PF = (−1)n r Y i=1 (X − λi )mi , wobei r X mi = n = dim V , i=1 - für jeden Eigenwert λ von F stimmt die geometrische Vielfachheit mit der algebraischen Vielfachheit überein: dim Eig(F, λ) = m(λ, PF ). Beweis zu Teil a): siehe Vorlesung. Beweis zu b): Im Wesentlichen geht es nur noch um die Implikation „⇐”, also die Wenn-Aussage. Wir bezeichnen mit V 0 den Summenraum aller Eigenräume. Nach Bemerkung 3.3.5 wollen wir zeigen, dass V 0 = V ist. Hierzu reicht es zu zeigen, dass dim V 0 = dim V ist. Nach Satz 3.3.10 und Teil b) von Satz 3.3.9 ist dim V 0 die Summe der Dimensionen der einzelnen Eigenräume. Diese Dimensionen sind nach Voraussetzung die Zahlen mi , i = 1, . . . , r aus dem Satz (die algebraischen Vielfachheiten). Deren Summe ist aber, wie im Satz bereits festgehalten, gleich dim V . Also ist dim V 0 = dim V , wie gewünscht. Das nächste Korollar folgt zwar schon aus dem früheren Korollar 3.3.11, illustriert aber auch in einem einfachen Spezialfall, was im letzten Satz passiert. Korollar 3.3.15 Wenn ein Endomorphismus F eines n-dimensionalen Vektoraumes n verschiedene Eigenwerte besitzt, dann ist F digonalisierbar. Beweis (mittels Satz 3.3.14): Da das charakteristische Polynom den Grad n und nach Voraussetzung n verschiedene Nullstellen hat, muss es in Linearfaktoren zerfallen, und für jede Nullstelle λ (also für jeden Eigenwert von F ) kann die (algebraische) Vielfachheit nur noch 1 sein. Die geometrische Vielfachheit ist nach Teil a) des Satzes höchstens so groß, andererseits ungleich 0, weil λ Eigenwert ist. Also stimmen beide Vielfachheiten überein (sind beide gleich 1), und die Behauptung des Korollars folgt aus dem Satz.