Kurzskript Lineare Algebra Wintersemester 2006/2007 und Sommersemester 2007 Prof. Dr. Joachim Rosenthal Stand: 19. September 2007 Der erste Teil des Skriptes fasst die Vorlesung “Lineare Algebra I” von Joachim Rosenthal aus dem Wintersemester 2006/07 zusammen; die Ergänzungsvorlesungen sind nur zum Teil integriert worden. Der zweite Teil ist eine Ausarbeitung der Vorlesung “Lineare Algebra II” aus dem Sommersemester 2007. Das Skript basiert auf Mitschriften, die mir freundlicherweise von Aljoscha Epprecht bereitgestellt worden sind. Dafür möchte ich mich bedanken. Dieses Skript wurde in LATEX gesetzt. Weiterhin möchte ich mich insbesondere bei Jens Zumbrägel für das gründliche Korrekturlesen und seine vielen Korrekturen und Anmerkungen bedanken. Neben Jens möchte ich mich noch bei Joachim Rosenthal, Philippe Logaritsch, Martin Huber und Ariel Amir für ihre Korrekturen bedanken. Felix Fontein Zürich, Juli 2007 ii Inhaltsverzeichnis 1 Lineare Algebra I 1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 1.1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Intermezzo zu Beweisen . . . . . . . . . . . . . . . . . 1.1.4 Mächtigkeit von Mengen . . . . . . . . . . . . . . . . . 1.2 Gruppen und Körper . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Der Körper der komplexen Zahlen . . . . . . . . . . . . 1.3 Gleichungssysteme und Matrizenrechnung . . . . . . . . . . . 1.3.1 Gauß-Algorithmus und elementare Zeilenumformungen 1.3.2 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . 1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Erzeugendensysteme und Basen . . . . . . . . . . . . . 1.4.2 Rechnerische Probleme für Untervektorräume . . . . . 1.4.3 Lineare Gleichungssysteme: geometrische Interpretation 1.5 Ringe und Polynomringe . . . . . . . . . . . . . . . . . . . . . 1.5.1 Teilbarkeitstheorie . . . . . . . . . . . . . . . . . . . . 1.6 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 Charakterisierung von linearen Abbildungen . . . . . . 1.6.2 Der Vektorraum Hom(V, W ) . . . . . . . . . . . . . . . 1.6.3 Hintereinanderausführen von linearen Abbildungen . . 1.6.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . 1.6.5 Äquivalenz von Matrizen . . . . . . . . . . . . . . . . . 1.6.6 Der Dualraum eines Vektorraums . . . . . . . . . . . . 1.6.7 Determinanten . . . . . . . . . . . . . . . . . . . . . . 1.6.8 Matrizen über Ringen . . . . . . . . . . . . . . . . . . 1.7 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Lineare Algebra II 2.1 Basiswechsel bei Endomorphismen . . . . . . . . . . . . . . . . . . . . 2.1.1 Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Jordan-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Geometrische Interpretation der verallgemeinerten Eigenräume und Bemerkungen zur Numerik . . . . . . . . . . . . . . . . . 2.1.4 Eine algebraische Interpretation der Zerlegung in verallgemeinerte Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . 2.1.6 Funktionen von Matrizen . . . . . . . . . . . . . . . . . . . . . 2.1.7 Minimalpolynom und annullierende Polynome . . . . . . . . . 2.2 Quotientenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . iii 1 2 2 3 4 4 5 8 9 10 11 13 15 18 20 21 23 24 26 27 28 28 29 30 31 35 35 37 38 40 45 49 51 53 58 65 66 iv INHALTSVERZEICHNIS 2.3 2.4 2.5 Skalarprodukte im Rn und Cn . . . . . . . . . . . . . . . . . . . . . 2.3.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Skalarprodukte im Rn . . . . . . . . . . . . . . . . . . . . . 2.3.3 Basiswechsel für symmetrische Bilinearformen . . . . . . . . 2.3.4 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . 2.3.4.1 Anwendung in der Analysis . . . . . . . . . . . . . 2.3.5 Gram-Schmidt-Orthogonalisierung . . . . . . . . . . . . . . 2.3.6 Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . . 2.3.7 Adjungierte Endomorphismen . . . . . . . . . . . . . . . . . 2.3.8 Bilinearformen und Sesquilinearformen . . . . . . . . . . . . 2.3.8.1 Komplexifizierung . . . . . . . . . . . . . . . . . . 2.3.8.2 Reellifizierung . . . . . . . . . . . . . . . . . . . . . 2.3.8.3 Skalarprodukte auf C-Vektorräumen . . . . . . . . 2.3.9 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . 2.3.10 Anwendungsbeispiel: Methode der kleinsten Quadrate . . . . Multilineare Algebra und Tensorprodukte . . . . . . . . . . . . . . . 2.4.1 Tensorprodukte . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Tensoren in der Physik . . . . . . . . . . . . . . . . . . . . . 2.4.3 Raum der symmetrischen und alternierenden Tensoren . . . 2.4.4 Tensoralgebra und symmetrische Algebra . . . . . . . . . . . 2.4.5 Alternierende Tensoren . . . . . . . . . . . . . . . . . . . . . Lineare gewöhnliche Differentialgleichungen . . . . . . . . . . . . . 2.5.1 Lineare Differentialgleichungen mit konstanten Koeffizienten 2.5.2 Beschreibung einer linearen Differentialgleichung n-ter Ordnung durch ein lineares System erster Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 71 71 79 81 86 87 89 91 92 92 93 94 98 102 104 105 118 119 123 126 130 133 . 136 A Verschiedenes 139 A.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 A.1.1 Kombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . 140 A.1.2 Variationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Index 145 Kapitel 1 Lineare Algebra I 1 2 KAPITEL 1. LINEARE ALGEBRA I Literatur Diese Vorlesung ist an kein spezielles Buch angelehnt. Trotzdem empfiehlt es sich, insbesondere bei Problemen, Literatur zu konsultieren, etwa um andere Zugänge oder Beschreibungen von Problemen und Themenkomplexen kennenzulernen. Es gibt viele gute Bücher, die eine Einführung in die lineare Algebra bieten. Wir wollen hier drei vorstellen: • Albrecht Beutelspacher: “Lineare Algebra”. Vieweg-Verlag. Eine anschauliche, gut verständliche Einführung in die Lineare Algebra. • Siegfried Bosch: “Lineare Algebra”. Springer-Verlag Berlin. • Gerd Fischer: “Lineare Algebra”. Vieweg-Verlag. Ein sehr umfassendes, jedoch eher in einem knappen, mathematischen Stil geschriebenes Buch. 1.1 1.1.1 Mengen und Abbildungen Mengen Wir arbeiten in dieser Vorlesung mit einer naiven Mengenlehre und ignorieren vorerst die Probleme, die in einer solchen auftauchen können. Definition 1.1.1. Eine Menge ist eine Zusammenfassung von Objekten, welche Elemente genannt werden. Falls x ein Element einer Menge X ist, schreibt man x ∈ X. Wichtige Mengen • ∅ = {} = leere Menge • N = {0, 1, 2, . . . } = natürliche Zahlen • Z = {. . . , −2, −1, 0, 1, 2, . . . } = ganze Zahlen • Q = { pq | p, q ∈ Z, q 6= 0} = rationale Zahlen • R = reelle Zahlen • C = {a + ib | a, b ∈ R, i2 = −1} = komplexe Zahlen • H = Hamiltonsche Quaternionen Konstruktion von neuen Mengen (1) Teilmenge: Sei X eine Menge und A(x) eine Aussage, die zu einem Element x ∈ A entweder falsch oder richtig ist. Dann definiert Y := {x ∈ X | A(x)} eine Teilmenge von X, in der alle Elemente x ∈ X enthalten sind, für die die Aussage A(x) gilt. 3 1.1. MENGEN UND ABBILDUNGEN (2) Vereinigung: Sei I eine Indexmenge und zu jedem i ∈ I eine Menge Xi gegeben. Dann definiere [ Xi := {x | ∃i ∈ I : x ∈ Xi }. i∈I (3) Durchschnitt: Sei I eine Indexmenge und zu jedem i ∈ I eine Menge Xi gegeben. Dann definiere \ Xi := {x | ∀i ∈ I : x ∈ Xi }. i∈I (4) Differenz: Sind X und Y Mengen, so definiere die Differenz von X und Y als X \ Y := {x ∈ X | x 6∈ Y }. (5) (endliches) direktes Produkt: sind X1 , . . . , Xn Menge, so definiere n Y i=1 Xi := X1 × · · · × Xn := {(x1 , . . . , xn ) | x1 ∈ X1 , . . . , xn ∈ Xn }. Ein Element (x1 , . . . , xn ) ∈ 1.1.2 Abbildungen Qn i=1 Xi heisst n-tupel oder kurz Tupel. Seien X, Y Mengen. Eine Abbildung von X nach Y ist eine Vorschrift, welche jedem x ∈ X genau ein y ∈ Y zuordnet. Man schreibt: f :X→Y x 7→ y = f (x) Definition 1.1.2. Sei f : X → Y eine Abbildung. Dann heisst Im f := {y ∈ Y | ∃x ∈ X : f (x) = y} das Bild von f , und die Menge X heisst das Urbild von f . Bemerkung 1.1.3. Die Menge aller Abbildungen von X nach Y bildet selber eine Menge, die mit Y X bezeichnet wird. Definition 1.1.4. Sei f : X → Y eine Abbildung. Man sagt: (a) f ist injektiv, falls aus x1 , x2 ∈ X mit x1 6= x2 folgt f (x1 ) 6= f (x2 ); (b) f ist surjektiv, falls Im f = Y ist; (c) f ist bijektiv, falls f sowohl injektiv als auch surjektiv ist. Definition 1.1.5. Ist X eine Menge, so heisst die Abbildung IdX : X → X, x 7→ x die Identität auf X. Definition 1.1.6 (Hintereinanderausführen von Abbildungen). Gegeben seien Abbildungen f : X → Y und g : Y → Z. Definiere eine Abbildung g ◦ f durch g ◦ f : X → Z, x 7→ (g ◦ f )(x) := g(f (x)). Man spricht vom Produkt der Abbildungen. Notation: X f /Y g◦f g 7/ Z 4 KAPITEL 1. LINEARE ALGEBRA I Satz 1.1.7. Es sei f : X → Y eine bijektive Abbildung. Dann gibt es eine eindeutige Abbildung g : X → Y so, dass g ◦ f = IdX und f ◦ g = IdY ist. f ◦g X f /Y g /X : f # /Y g◦f Man sagt: g ist die Umkehrabbildung von f und schreibt g = f −1 . 1.1.3 Intermezzo zu Beweisen Die folgenden zwei “Beweise” sind falsch, wie die Endaussage deutlich zeigt. Der interessierte Leser möge sich überlegen, welche der Umformungsschritte Äquivalenzaussagen sind (“⇔”), und welche Implikationen in nur eine Richtung sind (“⇐” oder “⇒”): (1) a 2 − a2 = a 2 − a2 (a + a)(a − a) = a(a − a) a+a=a 2a = a 2=1 (2) −6 = − 6 4 − 10 = 9 − 15 2 2 − 2 · 2 · 25 = 32 − 2 · 3 · 52 ¡ ¢2 ¡ ¢2 22 − 2 · 2 · 52 + 25 = 32 − 2 · 3 · 52 + 25 ¢2 ¢2 ¡ ¡ 2 − 52 = 3 − 25 2 − 52 = 3 − 52 2=3 1.1.4 Mächtigkeit von Mengen Definition 1.1.8. Zwei Mengen X, Y heissen gleichmächtig, wenn es eine bijektive Abbildung f : X → Y gibt. Lemma 1.1.9. Falls X und Y gleichmächtig und Y und Z gleichmächtig sind, so sind auch X und Z gleichmächtig. Definition 1.1.10. Man sagt, dass eine Menge X endlich ist, wenn es eine natürliche Zahl n ∈ N gibt so, dass X gleichmächtig wie {1, 2, . . . , n} ist (wobei man im Fall n = 0 die Vereinbarung {1, 2, . . . , n} = ∅ trifft). In diesem Fall sagt man, X hat die Kardinalität n und schreibt |X| = n. Ist X nicht endlich, so schreibt man |X| = ∞. 1.2. GRUPPEN UND KÖRPER 5 Definition 1.1.11. Man sagt, dass eine Menge X abzählbar unendlich ist, wenn X gleichmächtig wie N ist. Definition 1.1.12. Sei X eine Menge. (a) Man sagt, X sei abzählbar, wenn X endlich ist oder abzählbar unendlich. (b) Ist X nicht abzählbar, so sagt man, dass X überabzählbar ist. Lemma 1.1.13. Seien X und Y endliche Mengen. Dann gilt: (1) |X × Y | = |X| · |Y |; (2) |X \ Y | = |X| − |Y | wenn Y ⊆ X ist; (3) |X ∪ Y | = |X| + |Y | − |X ∩ Y |; ¯ ¯ (4) ¯Y X ¯ = |Y ||X| . Lemma 1.1.14. Die Mengen Z, Q und Nr für r ∈ N sind abzählbar unendlich, also insbesondere gleichmächtig wie N. Satz 1.1.15. Die Menge (0, 1) := {x ∈ R | 0 < x < 1} ist überabzählbar unendlich. 1.2 Gruppen und Körper Definition 1.2.1. Sei M 6= ∅ eine Menge. Eine innere Verknüpfung auf M ist eine Abbildung ◦ : M × M → M . Definition 1.2.2. Eine Menge G zusammen mit einer inneren Verknüpfung ◦ : G × G → G heisst Gruppe, wenn gilt: (i) ◦ ist assoziativ, d.h. für alle a, b, c ∈ G gilt (a ◦ b) ◦ c = a ◦ (b ◦ c); (ii) es gibt ein neutrales Element e ∈ G, d.h. für alle a ∈ G gilt a ◦ e = a = e ◦ a; (iii) zu jedem a ∈ G gibt es ein b ∈ G mit a ◦ b = e = b ◦ a. Notation 1.2.3. Ist G eine Gruppe mit Verknüpfung ◦, so schreibt man (G, ◦) für die Gruppe. Definition 1.2.4. Eine Gruppe (G, ◦) heisst kommutativ oder Abelsch, wenn für alle a, b ∈ G gilt a ◦ b = b ◦ a. Beispiele 1.2.5. (1) (Z, +) ist eine Gruppe; (2) (R \ {0}, ·) ist eine Gruppe; (3) Betrachte ein gleichseitiges Dreieck ∆ und die Menge aller Drehungen G, welche , 4π } wenn wir jede Drehung mit ∆ auf sich selber abbilden. Dann ist G = {0, 2π 3 3 dem Drehwinkel identifizieren. Das Gruppengesetz kann dann durch folgende Tafel beschrieben werden: 6 KAPITEL 1. LINEARE ALGEBRA I ◦ 0 0 0 2π 3 4π 3 2π 3 4π 3 2π 3 2π 3 4π 3 0 4π 3 4π 3 6π =0 3 8π 2π = 3 3 Frage: wie sieht eine allgemeine Gruppe mit drei Elementen aus? Lemma 1.2.6. Ist (G, ◦) eine Gruppe, so ist das neutrale Element eindeutig, d.h. sind e, e′ ∈ G Elemente, die die Bedingung (ii) aus der Definition einer Gruppe erfüllen, so gilt e = e′ . Lemma 1.2.7. Sei G eine Gruppe. Dann ist zu jedem a ∈ G das inverse Element b ∈ G mit a ◦ b = e = b ◦ a eindeutig bestimmt, wobei e ∈ G das neutrale Element sei. Notation 1.2.8. Das eindeutig bestimmte Inverse zu a ∈ G, wobei (G, ◦) eine Gruppe ist, wird mit a−1 bezeichnet. Wenn die Gruppe additiv geschrieben wird, so schreiben wir auch −a für a−1 . Lemma 1.2.9. Sei (G, ◦) eine Gruppe und seien a, b, c ∈ G. Gilt a ◦ b = a ◦ c oder b ◦ a = c ◦ a, so ist b = c. Definition 1.2.10. Ein Körper K ist eine Menge mit zwei inneren Verknüpfungen + und · so, dass: (i) (K, +) eine Abelsche Gruppe ist mit neutralen Element 0 ∈ K; (ii) (K \ {0}, ·) eine Abelsche Gruppe ist mit neutralen Element 1; (iii) für alle a, b, c ∈ K gilt a · (b + c) = (a · b) + (a · c) und (b + c) · a = (b · a) + (c · a) (Distributivität); (iv) es gilt 0 6= 1. Notation 1.2.11. Wir schreiben (K, +, ·), wenn K bezüglich der Verknüpfungen + und · ein Körper ist. Beispiele 1.2.12. Beispiele für Körper sind R, Q und C (siehe unten). Definition 1.2.13. Eine Äquivalenzrelation ∼ auf einer Menge X ist dabei eine Relation1 , welche den folgenden drei Bedingungen genügt: (i) x ∼ x für alle x ∈ X (Reflexivität); (ii) x ∼ y impliziert y ∼ x für alle x, y ∈ X (Symmetrie); (iii) x ∼ y und y ∼ z impliziert x ∼ z für alle x, y, z ∈ X (Transitivität). Die Menge X wird in disjunkte Teilmengen zerlegt, die sogenannten Äquivalenzklassen bezüglich ∼. Zu x ∈ X schreiben wir [x] für die Äquivalenzklasse von x, also [x] = {y ∈ X | x ∼ y}. 1 Eine (binäre) Relation auf einer Menge X ist eine Teilmenge R ⊆ X × X. Man schreibt xRy für (x, y) ∈ R. 7 1.2. GRUPPEN UND KÖRPER Sei n ∈ N>0 fest gewählt. Definere auf Z die Relation x ∼ y genau dann, wenn n | (x − y), also wenn n ein Teiler von x − y ist. Dies ist eine Äquivalenzrelation. Zu a ∈ Z ist [a] = a + nZ := {a + nb | b ∈ Z}. Schreibe Zn := {[a] | a ∈ Z} für die Menge der Äquivalenzklassen. Wir schreiben häufig a anstelle [a], wenn wir von den Elementen aus Zn reden. Aus der Eindeutigkeit von Division mit Rest folgt, dass Zn = {[0], [1], . . . , [n − 1]} ist und |Zn | = n. Definiere nun zwei Operationen + und · auf Zn : [a] + [b] := [a + b] und [a] · [b] := [a · b]. Lemma 1.2.14. Diese Operationen sind wohldefiniert, d.h. ist [a] = [a′ ] und [b] = [b′ ] für a, a′ , b, b′ ∈ Z, so ist [a + b] = [a′ + b′ ] und [ab] = [a′ b′ ]. Lemma 1.2.15. (Zn , +) ist Abelsche Gruppe mit neutralem Element 0 = [0]. Lemma 1.2.16. Die Verknüpfung · auf Zn ist assoziativ, Abelsch und hat das neutrale Element 1. Bemerkung 1.2.17. Anstelle a ∼ b schreibt man auch oft a ≡ b (mod n) und sagt “a ist kongruent zu b modulo n”. Lemma 1.2.18. Ein Element [a] ∈ Zn hat genau dann ein multiplikativ Inverses, wenn a und n teilerfremd sind, also wenn ggT(a, n) = 1 ist. Korollar 1.2.19. Genau dann ist (Zn , +, ·) ein Körper, wenn n eine Primzahl ist. Ist n = p eine Primzahl, so schreiben wir auch Fp für Zp . Bemerkungen 1.2.20. Sei (K, +, ·) ein Körper. (i) Per Konvention wird das Zeichen · bei der Multiplikationsoperation oft weggelassen, d.h. man schreibt ab anstelle a · b. Es gilt auch Multiplikation vor Addition: ac + bc = (ac) + (bc). (ii) Die Bedingung 1 6= 0 folgt bereits aus Bedingung (ii) der Definition eines Körpers, da demnach (K \ {0}, ·) eine Gruppe ist, womit K \ {0} insbesondere nicht leer ist und die 1 enthält. (iii) Für alle a ∈ K gilt 0 · a = 0 = a · 0. (iv) Für alle a, b, c ∈ K gilt (ab)c = a(bc) und ab = ba. (v) Es sei a, b ∈ K. Ist ab = 0, so folgt a = 0 oder b = 0 (Nullteilerfreiheit). (vi) Es gilt a · (−b) = −(a · b) und (−a)(−b) = ab für alle a, b ∈ K. 8 KAPITEL 1. LINEARE ALGEBRA I 1.2.1 Der Körper der komplexen Zahlen Bezeichne mit C = R2 = {(a, b) | a, b ∈ R}. Betrachte die folgenden zwei inneren Verknüpfungen: • Addition: (a, b) + (c, d) = (a + c, b + d); • Multiplikation: (a, b) · (c, d) = (ac − bd, ad + bc). Dies ist ein Körper mit 0 = (0, 0), 1 = (1, 0) und −(a, b) = (−a, −b) und (a, b)−1 = a −b ( a2 +b 2 , a2 +b2 ). Beziehung von C zu R Betrachte ϕ : R → C, r 7→ (r, 0). Dies ist injektiv. Da (r, 0) + (r′ , 0) = (r + r′ , 0) und (r, 0) · (r′ , 0) = (rr′ , 0) ist, können wir also (r, 0) mit der reellen Zahl r identifizieren. Weiter rechnet man r(a, b) = (ra, rb) und i2 = −1 für i := (0, 1) ∈ C. Damit zeigt man (a, b) = a + ib. Ist z = a + ib ∈ C eine komplexe Zahl mit a, b ∈ R, so definieren wir das komplex konjugierte zu z als z := a − ib. Weiter definieren wir den Realteil von z als ℜz := a und den von z als ℑz := b, und weiter den (Absolut-)Betrag von z als √ √ Imaginärteil 2 2 |z| := zz = a + b . Man erhält folgende Rechenregeln für u, v ∈ C: (i) u + v = u + v; (ii) u · v = u · v; (iii) ℜ(u + v) = ℜu + ℜv; (iv) ℑ(u + v) = ℑu + ℑv; (v) |u · v| = |u| · |v|; (vi) |u + v| ≤ |u| + |v|. Polarkoordinaten-Beschreibung Sei z = a + ib ∈ C. Schreibe r := |z| = √ a2 + b2 und z = a + bi = r(cos α + i sin α) für ein α ∈ R. Ist z ′ = a′ + ib′ = r′ (cos α′ + i sin α′ ), so ist z · z ′ = rr′ (cos(α + α′ ) + i sin(α + α′ )) in Polarkoordinaten. Mittels der Eulerformel cos α + i sin α = eiα lassen sich komplexe Zahlen noch einfacher in Polarkoordinaten ausdrücken. Hierbei muss man zuerst erklären, wie eiα P k x zu verstehen ist. Die Taylor-Entwicklung von ex ist gegeben durch ∞ k=0 k! . Damit P k (iα) ist eiα = ∞ k=0 k! . Hat man eine komplexe Zahl in der Form z = reiα mit r, α ∈ R, so kann man z.B. z 100 sehr einfach ausrechnen, da z 100 = r100 ei100α ist. Hat man dagegen z = a + ib gegeben mit a, b ∈ R, so ist die Berechnung von z 100 = (a + ib)100 viel mühsamer. Bemerkung 1.2.21. Ein Polynom f (x) der Form f (x) = xn + an−1 xn−1 + · · · + a0 mit a0 , . . . , an−1 ∈ R hat höchstens n Nullstellen, manchmal weniger. Über C hat f immer n Nullstellen (mit Vielfachheiten gezählt). Über R ist das nicht immer so, wie etwa das√Polynom√f (x) = x2 + 2 zeigt: es hat keine Nullstelle in R, jedoch ist f (x) = (x + i 2)(x − i 2), womit f zwei komplexe Nullstellen hat. 1.3. GLEICHUNGSSYSTEME UND MATRIZENRECHNUNG 1.3 9 Gleichungssysteme und Matrizenrechnung Das Ziel ist, die vollständige Lösungsmenge des linearen Gleichungssystems n X aij xj = bi , i = 1, . . . , m (∗) j=1 zu beschreiben, wobei aij , bi Elemente eines Körpers K sind, i = 1, . . . , m, j = 1, . . . , n. Die Unbekannten sind hier x1 , . . . , xn . Betrachte die Matrix a11 · · · a1n .. ... A := (aij ) i=1,...,m = ... . j=1,...,n am1 · · · amn und die Vektoren x1 x := ... und b1 b := ... . bm xn Dann können wir das Gleichungssystem (∗) auch schreiben als Ax = b. Dabei ist a11 .. Ax = . am1 definiert als a1n x1 .. . . . . xn · · · amn ··· ... a11 x1 + · · · + a1n xn a21 x1 + · · · + a2n xn .. . am1 x1 + · · · + amn xn Pn a x i=1 1i i .. . . = Pn i=1 ami xi Definition 1.3.1. Man nennt A die Koeffizientenmatrix von (∗) und a11 · · · a1n b1 .. .. ... M = (A, b) = ... . . am1 · · · amn bm die erweiterte Koeffizientenmatrix von (∗). Unser Ziel ist es, die Lösungsmenge Lös(A, b) := {x ∈ K n | Ax = b} zu beschreiben. 10 KAPITEL 1. LINEARE ALGEBRA I 1.3.1 Gauß-Algorithmus und elementare Zeilenumformungen Betrachte die erweiterte Koeffizientenmatrix M = (A, b) des linearen Gleichungssystems (∗). Unter einer elementaren Zeilenoperation versteht man einen der folgenden Prozesse: • Typ 1: Vertauschen zweier Zeilen; • Typ 2: Multiplikation einer Zeile mit Skalar λ ∈ K \ {0}; • Typ 3: Addition eines beliebigen Vielfachen µ ∈ K einer Zeile von M zu einer anderen Zeile von M . Satz 1.3.2. Sei M̃ = (Ã, b̃) eine erweiterte Koeffizientenmatrix, die aus M = (A, b) durch einer Reihe von elementaren Zeilenumformungen entstanden ist. Dann gilt Lös(A, b) = Lös(Ã, b̃). Definition 1.3.3. Eine Matrix Z = (zij ) i=1,...,m ist in Zeilenstufenform, wenn gilt: j=1,...,n (i) es gibt ein r ∈ N mit r ≤ m so, dass die Zeilen 1, . . . , r alle nicht gleich Null sind, und die Zeilen r + 1, . . . , m alle Null sind; (ii) es gibt r Indices 1 ≤ j1 < · · · < jr ≤ n so, dass für alle i = 1, . . . , r gilt, dass zij = 0 ist für j < ji und zij 6= 0 ist für j = ji . Die Elemente ziji heissen Pivotelemente, und die Indices ji heissen Pivotindices. Lemma 1.3.4. Angenommen, Z = (A, b) ist in Zeilenstufenform mit Pivotindices ji , i = 1, . . . , r und Pivotelementen ziji , i = 1, . . . , r. Sei A eine m × n-Matrix und b ein m-Vektor. Dann ist Lös(A, b) = ∅ genau dann, wenn jr = n + 1 ist. Falls jr < n + 1 ist, so kann man die Variablen x1 , . . . , xn unterteilen in n − r freie Variablen und r abhängige Variablen und die Lösung kann iterativ geschrieben werden; dies wird in Bemerkung 1.3.6 demonstriert. Bemerkung 1.3.5. Die Eigenschaft “M̃ = (Ã, b̃) ging aus M = (A, b) durch eine Reihe von elementaren Zeilenumformungen hervor” ist eine Äquivalenzrelation auf dem Raum der m×(n+1)-Matrizen (den erweiterten Koeffizientenmatrizen). Daraus ergibt sich folgende Konsequenz: Die Äquivalenzrelation unterteilt die Menge der Koeffizientenmatrizen in Äquivalenzklassen und je zwei Elemente (A, b) und (Ã, b̃) einer solchen Klasse haben die gleiche Lösungsmenge, also Lös(A, b) = Lös(Ã, b̃). Dies führt zu der Frage, ob es in jeder Äquivalenzklasse [(A, b)] von (A, b) Elemente (Ã, b̃) gibt, so dass sich Lös(Ã, b̃) besonders einfach beschreiben lässt. 1.3. GLEICHUNGSSYSTEME UND MATRIZENRECHNUNG 11 Bemerkung 1.3.6. Falls die erweiterte Koeffizientenmatrix (A, b) in Zeilenstufenform ist mit Pivotelementen aiji , i = 1, . . . , r, so kann man die Variablen xj , j = 1, . . . , n, unterteilen in die unabhängigen (freien) Variablen xs , s ∈ {1, . . . , n} \ {j1 , . . . , jr }, und die abhängigen Variablen xt , t ∈ {j1 , . . . , jr }, und Lös(A, b) kann iterativ berechnet werden: Zur Vereinfachung nehmen wir an, dass ji = i ist, 1 ≤ i ≤ r. Dies kann etwa durch Umnummerieren der Variablen erreicht werden. Dann hat (A, b) die Form b1 a11 ∗ · · · · · · ∗ ∗ ··· ∗ .. .. .. .. ... ... . . . . 0 . . .. .. .. .. .. .. ... ... . . . . (A, b) = 0 · · · 0 a ∗ ∗ · · · ∗ b rr r 0 ··· ··· ··· ··· ··· ··· 0 br+1 . . . .. .. .. bm 0 ··· ··· ··· ··· ··· ··· 0 Dann folgt: (i) Lös(A, b) 6= ∅ genau dann, wenn br+1 = · · · = bm = 0; (ii) falls es eine Lösung gibt, wähle xr+1 = λ1 , . . . , xn = λk , wobei k = n − r ist und λ1 , . . . , λk beliebig sind. Mit xr = 1 (br − ar,r+1 λ1 − · · · − arn λk ) arr ergibt sich der Wert von xr , und hat man bereits xℓ+1 , . . . , xr berechnet, so ergibt sich xℓ durch xℓ = 1 (bℓ − aℓ,ℓ+1 xℓ+1 − · · · − aℓr xr − aℓ,r+1 λ1 − · · · − aℓn λk ). aℓℓ Es verbleibt nun die Frage, ob jede erweiterte Koeffizientenmatrix durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden kann. Satz 1.3.7 (Gauß). Jede m × n-Matrix lässt sich durch eine Reihe elementarer Zeilenumformungen in Zeilenstufenform bringen. Bemerkungen 1.3.8. (i) Betrachtet man die Äquivalenzrelation “A geht aus à durch eine Reihe von elementaren Zeilenumformungen hervor” auf der Menge der m × n-Matrizen, so zeigt der Satz von Gauß, dass jede Äquivalenzklasse [A] ein Element in Zeilenstufenform besitzt. Im Allgemeinen gibt es sogar viele solche Matrizen. (ii) Es gibt eine reduzierte Zeilenstufenform, welche eindeutig ist. Diese Form erreicht man, indem man jede Zeile der Zeilenstufenform durch das in ihr enthaltende Pivotelement teilt (mittels je einer Typ-2-Operation) und die Elemente oberhalb jedes Pivotelements mittels Typ-3-Operationen Null werden lässt. 1.3.2 Matrizenrechnung Bezeichne mit Matm×n (K) die Menge aller m × n-Matrizen mit Einträgen in K. 12 KAPITEL 1. LINEARE ALGEBRA I Addition Sind A = (aij ) und B = (bij ) zwei m × n-Matrizen, so definiert man A + B := (aij + bij ). Bemerkung 1.3.9. Haben die Matrizen A und B verschiedene Grössen, so ist die Addition nicht definiert! Lemma 1.3.10. (Matm×n (K), +) ist eine Abelsche Gruppe. Skalarmultiplikation Ist A ∈ Matm×n (K) und λ ∈ K mit A = (aij ), so definere λ · A := (λaij ) ∈ Matm×n (K). Matrizenmultiplikation Sei A = (aij ) ∈ Matℓ×m (K) und B = (bjk ) ∈ Matm×n (K). Dann definiere eine ℓ × n-Matrix A · B = (cik ) durch cik = m X aij bjk . j=1 Bemerkungen 1.3.11. (i) Falls die zweite Matrix nicht gleichviele Zeilen wie die erste Matrix Spalten hat, so ist die Matrizenmultiplikation für diese zwei Matrizen nicht definiert. (ii) Im Allgemeinen ist die Matrizenmultiplikation nicht kommutativ ! Lemma 1.3.12. Die Matrizenmultiplikation ist assoziativ. Rechenregeln für Matrizen Falls die Multiplikation bzw. Addition definiert sind, so gilt für Matrizen A, B, C und Skalare λ ∈ K: (i) A(B + C) = AB + AC; (ii) (A + B)C = AC + BC; (iii) λ(AB) = (λA)B = A(λB). Bemerkung 1.3.13. Wir haben gesehen, dass (Matm×n (K), +) eine Abelsche Gruppe ist. Wie steht es mit der Multiplikation? Da man zwei Matrizen A, B ∈ Matm×n (K) nur multiplizieren kann, wenn n = m ist, müssen wir uns auf Matn×n (K) beschränken. Lemma 1.3.14. Die Matrizenmultiplikation definiert auf Matn×n (K) eine assoziative innere Verknüpfung mit neutralem Element 1 0 ··· 0 . . . . . . .. . 0 En := . . . . .. . . . . 0 0 ··· 0 1 Definition 1.3.15. Seien A, B ∈ Matn×n (K) zwei Matrizen. Wir sagen, dass B ein Inverses von A ist, wenn AB = En = BA ist. 13 1.4. VEKTORRÄUME Lemma 1.3.16. Hat eine Matrix A ∈ Matn×n (K) ein Inverses, so ist dieses eindeutig. Notation 1.3.17. Falls A ∈ Matn×n (K) ein Inverses besitzt, so bezeichnen wir dieses mit A−1 . Wenn nun eine Matrix A ∈ Matn×n (K) ein Inverses besitzt, kann man dieses effektiv berechnen? Bemerkung 1.3.18. Betrachte das Gleichungssystem ¡ ¢ AX = En mit X = xij i,j=1,...,n . (Dies kann aufgefasst werden als n Gleichungssysteme der Form Ax(i) = b(i) , 1 ≤ i ≤ n, wobei x(i) die i-te Spalte von X ist und b(i) die i-te Spalte von En .) Existiert eine Lösung X ∈ Matn×n (K), so gilt AX = En . Gilt auch XA = En ? Lemma 1.3.19. Ist A eine Matrix und (En , B) die reduzierte Zeilenstufenform von (A, En ), so ist B das Inverse von A, also B = A−1 . Definition 1.3.20. Bezeichne mit Gln (K) die Menge aller n × n-Matrizen, die Inverse besitzen, also Gln (K) = {A ∈ Matn×n (K) | ∃B ∈ Matn×n (K) : AB = En = BA}. Die Abkürzung Gl steht hier für general linear group. Lemma 1.3.21. (Gln (K), ·) ist eine Gruppe bezüglich der Multiplikation. 1.4 Vektorräume Sei K ein Körper. Definition 1.4.1. Eine Abelsche Gruppe (V, +) zusammen mit einer Operation · : K × V → V , (λ, v) 7→ λv heisst K-Vektorraum, wenn: (i) die Distributivitätsgesetze gelten: (a) (λ + µ)v = λv + µv für alle λ, µ ∈ K, v ∈ V ; (b) λ(v + w) = λv + λw für alle λ ∈ K, v, w ∈ V ; (ii) für die Skalarmultiplikation gilt: (a) (λµ)v = λ(µv) für alle λ, µ ∈ K, v ∈ V ; (b) 1v = v für alle v ∈ V . Beispiele 1.4.2. (a) V = K n mit v 1 + w1 w1 v1 .. .. .. . + . := . vn und wn v n + wn λv1 v1 λ ... := ... . vn λvn 14 KAPITEL 1. LINEARE ALGEBRA I (b) V = Matm×n (K) mit der gewöhnlichen Matrizenaddition und λ(aij )ij := (λaij )ij . (c) Der Raum der Polynome V = K[x] := {a0 + a1 x + · · · + an xn | n ∈ N, ai ∈ K, i = 0, . . . , n} mit Koeffizienten in K mit der gewöhnlichen Addition und λ(a0 + a1 x + · · · + an xn ) := (λa0 ) + (λa1 )x + · · · + (λan )xn . (d) V = Abb(R, R) := {f : R → R Abbildung } mit K = R. Die Addition von f, g ∈ Abb(R, R) ist definiert durch (f + g)(x) := f (x) + g(x) und die Skalarmultiplikation durch (λf )(x) := λf (x), λ ∈ K = R. (e) Es seien L, K Körper so, dass K ⊆ L ein Unterkörper ist, d.h. für a, b ∈ K gilt a +K b = a +L b und a ·K b = a ·L b. Insbesondere ist dann 0K = 0L und 1K = 1L . (Beispielsweise ist R ein Unterkörper von C.) In dieser Situation ist L ein K-Vektorraum mit der Skalarmultiplikation (λ, v) 7→ λv, wobei hier λ als Element in L aufgefasst wird und dort die normale Multiplikation durchgeführt wird. Rechenregeln in einem K-Vektorraum Sei V ein K-Vektorraum. (i) Falls 0V ∈ V das Nullelement bezüglich der Addition ist, so gilt λ · 0V = 0V für alle λ ∈ K. (ii) Ist 0K ∈ K das Nullelement ist, so gilt 0K · v = 0V für alle v ∈ V . (iii) Es gilt (−λ)v = λ(−v) = −(λv) für alle λ ∈ K und v ∈ V . (iv) Sind λ ∈ K und v ∈ V , so gilt λv = 0 genau dann, wenn λ = 0K ist oder v = 0V . Definition 1.4.3. Sei V ein K-Vektorraum. Eine Teilmenge U ⊆ V heisst (K)Untervektorraum oder (K-)Unterraum von V , wenn gilt: (i) U 6= ∅; (ii) aus u, v ∈ U folgt u + v ∈ U ; (iii) aus λ ∈ K und u ∈ U folgt λu ∈ U . Bemerkung 1.4.4. Bedingungen (ii) und (iii) sind äquivalent zu: aus u, v ∈ U und λ, µ ∈ K folgt λu + µv ∈ U. 15 1.4. VEKTORRÄUME Beispiel 1.4.5. Sei A eine beliebige m × n-Matrix. Dann ist Lös(A) := Lös(A, 0) = {x ∈ K n | Ax = 0} ein K-Untervektorraum von K n . Lemma 1.4.6. Ist U ⊆ V ein K-Untervektorraum, dann ist U zusammen mit der auf U eingeschränkten Addition und Skalarmultiplikation wieder ein K-Vektorraum. Lemma 1.4.7. Sei V ein K-Vektorraum, I eine beliebige Indexmenge undTzu jedem i ∈ I sei ein K-Untervektorraum Ui ⊆ V von V gegeben. Dann ist U := i∈I Ui ebenfalls ein K-Untervektorraum von V . Definition 1.4.8. Sei V ein K-Vektorraum und T ⊆ V eine beliebige Teilmenge. Dann heisst \ hT i := {U | U ⊆ V Untervektorraum, T ⊆ U } der von T erzeugte Untervektorraum von V . Bemerkung 1.4.9. Der von T ⊆ V erzeugte Untervektorraum von V ist nach dem Lemma tatsächlich ein Untervektorraum. Er ist der kleinste Untervektorraum von V , welcher T enthält. Bemerkung 1.4.10. Der Nullvektor ist in jedem Untervektorraum enthalten. Satz 1.4.11. Sei T 6= ∅. Dann gilt hT i = 1.4.1 r nX i=1 ¯ o ¯ λi vi ¯ r ∈ N, λi ∈ K, vi ∈ T für i = 1, . . . , r . Erzeugendensysteme und Basen Definition 1.4.12. Sei V ein K-Vektorraum und U ⊆ V ein K-Untervektorraum. (i) Eine Teilmenge T ⊆ U heisst Erzeugendensystem von U , wenn hT i = U ist. (ii) Der Untervektorraum U heisst endlich erzeugt, wenn es ein Erzeugendensystem T von U gibt, welches endlich ist. Beispiel 1.4.13. Der Polynomring K[x] wird erzeugt von {1, x, x2 , . . . }, und man kann zeigen, dass K[x] nicht endlich erzeugt ist. Bemerkung 1.4.14. Jeder Untervektorraum U ⊆ V besitzt ein Erzeugendensystem; etwa mit T := U gilt hT i = U . Definition 1.4.15. Sei V ein Vektorraum. Eine Teilmenge T ⊆ V heisst linear unabhängig, wenn für jede endliche Teilmenge {v1 , . . . , vn } ⊆ T mit vi 6= vj für i 6= j gilt, dass aus λ1 v1 +· · ·+λn vn = 0 für λ1 , . . . , λn ∈ K bereits λ1 = · · · = λn = 0 folgt. Eine Menge heisst linear abhängig, wenn sie nicht linear unabhängig ist. Lemma 1.4.16. Folgende Bedingungen sind für eine Teilmenge T ⊆ V äquivalent: (1) T ist linear unabhängig; 16 KAPITEL 1. LINEARE ALGEBRA I (2) jeder Vektor v ∈ T kann eindeutig als endliche Linearkombination mit Vektoren aus T beschrieben werden, d.h. für v gibt es eindeutige Vektoren {v1 , . . . , vn } ⊆ T , vi 6= vj für i 6= j, und eindeutige λ1 , . . . , λn ∈ K \ {0} mit v = λ1 v1 + · · · + λn vn . Definition 1.4.17. Sei V ein Vektorraum. Eine Teilmenge B ⊆ V heisst Basis von V , wenn: (1) B ein Erzeugendensystem von V ist, also hBi = V ist, und wenn (2) B linear unabhängig ist. Satz 1.4.18 (Basisergänzungssatz). Es sei B ⊆ V eine Menge von Vektoren. Genau dann ist B eine Basis von V , wenn B eine maximal linear unabhängige Menge ist, d.h. B ist linear unabhängig und jede Menge B′ ⊆ V mit B $ B′ ist linear abhängig. Satz 1.4.19 (Basisauswahlsatz). Es sei B ⊆ V eine Menge von Vektoren. Genau dann ist B eine Basis von V , wenn B ein minimales Erzeugendensystem von V ist, d.h. B ist ein Erzeugendensystem von V und jede Teilmenge B′ $ B ist kein Erzeugendensystem von V . Satz 1.4.20 (Hauptsatz über Basen). Jeder K-Vektorraum besitzt eine Basis. Bemerkung 1.4.21. Im allgemeinen Fall benötigt man das Auswahlaxiom zum Beweis des Satzes. Ist dagegen V endlich erzeugt, so folgt dies aus dem Basisauswahlsatz. Von nun an sei V ein endlich erzeugter Vektorraum. Nach dem Basisauswahlsatz hat V eine endliche Basis B = {v1 , . . . , vn } mit |B| = n. Wir zeigen zuerst, dass die Zahl n nicht von B abhängt sondern nur von V . Lemma 1.4.22 (Austauschlemma). Sei B ⊆ V eine Basis und w ∈ V \ {0} ein Vektor. Dann gibt es einen Vektor v ∈ B so, dass B′ := (B \ {v}) ∪ {w} wieder eine Basis von V ist. Satz 1.4.23 (Austauschsatz von Steinitz). Sei B = {v1 , . . . , vn } eine Basis von V mit |B| = n. Sei C = {w1 , . . . , wm } ⊆ V eine linear unabhängige Menge mit |C| = m. Dann ist m ≤ n und es gibt n − m Vektoren aus B, ohne Einschränkung seien dies vm+1 , . . . , vn , so dass {w1 , . . . , wm , vm+1 , . . . , vn } eine Basis von V ist. Korollar 1.4.24. Je zwei Basen eines endlich erzeugten Vektorraums sind gleichmächtig. Bemerkung 1.4.25. Dies kann auch für nicht endlich erzeugte Vektorräume gezeigt werden. Definition 1.4.26. Sei V ein endlich erzeugter Vektorraum und B eine Basis von V . Dann heisst dim V := |B| die Dimension von V . Im Fall, dass V nicht endlich erzeugt ist, schreiben wir dim V = ∞. Ist V endlich erzeugt, so sagen wir auch, dass V endlichdimensional sei. Beispiel 1.4.27. Es ist dim K n = n für jedes n ∈ N und dim K[x] = ∞. 1.4. VEKTORRÄUME 17 Komplementärräume Definition 1.4.28. Sei U ⊆ V ein Untervektorraum. Ein zweiter Untervektorraum U ′ ⊆ V heisst Komplementärraum von U in V , wenn (i) hU, U ′ i = V ist und (ii) U ∩ U ′ = {0}. Aus dem Satz von Steinitz folgert man nun: Satz 1.4.29. Sei V ein endlich erzeugter Vektorraum und U ⊆ V ein Untervektorraum. Dann gibt es einen Komplementärraum zu U in V . Summe und direkte Summe von Untervektorräumen Korollar 1.4.30. Sind U1 , U2 ⊆ V Untervektorräume, so ist hU1 , U2 i = U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }. Man nennt U1 + U2 die Summe der Untervektorräume U1 und U2 . Bemerkung 1.4.31. Man kann dies auf endlich viele Untervektorräume verallgemeinern: sind U1 , . . . , Ur Unterräume von V , so ist hU1 , . . . , Ur i = U1 + · · · + Ur := {u1 + · · · + ur | ui ∈ Ui , 1 ≤ i ≤ r}. Satz 1.4.32 (Dimensionsformel). Ist V ein endlichdimensionaler Vektorraum und seien U1 , U2 ⊆ V Untervektorräume. Dann gilt dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ). Bemerkungen 1.4.33. (1) Sind U1 , U2 ⊆ V Komplementärräume, so hat man U1 + U2 = V und U1 ∩ U2 = {0}. Damit gilt also dim V = dim U1 + dim U2 . (2) In der Mengentheorie gilt eine ähnliche Formel: sind T1 , T2 Teilmengen von M , so gilt |T1 ∪ T2 | = |T1 | + |T2 | − |T1 ∩ T2 |. Definition 1.4.34. Sind U1 , U2 ⊆ V zwei Untervektorräume von V mit U1 ∩ U2 = {0}, so schreiben wir U1 ⊕ U2 für U1 + U2 und sprechen von einer (inneren) direkten Summe. Ist U1 ⊕ U2 eine direkte Summe, so gilt dim(U1 ⊕ U2 ) = dim U1 + dim U2 . Satz 1.4.35. Seien U1 , U2 ⊆ V zwei Untervektorräume von V und sei V endlich erzeugt. Dann sind äquivalent: (i) U1 + U2 = U1 ⊕ U2 ist eine direkte Summe; (ii) jedes x ∈ U1 + U2 kann eindeutig in der Form x = u1 + u2 mit ui ∈ Ui , i = 1, 2 geschrieben werden. 18 KAPITEL 1. LINEARE ALGEBRA I Definition 1.4.36. Seien U1 , . . . , Ur Untervektorräume von V . Wir sagen, dass U1 + · · · + Ur eine direkte Summe ist, wenn jedes x ∈ U1 + · · · + Ur eine eindeutige Darstellung x = u1 + · ·L · + ur mit ui ∈ Ui , 1 ≤ i ≤ r hat. Wir schreiben dann U1 ⊕ · · · ⊕ Ur oder auch ri=1 Ui . Satz 1.4.37. Seien U1 , . . . , Ur Untervektorräume von V . Dann sind folgende Bedingungen äquivalent: (i) U1 + · · · + Ur ist direkte Summe; P (ii) Ui ∩ k6=i Uk = {0} für i = 1, . . . , r; (iii) dim(U1 + · · · + Ur ) = dim U1 + · · · + dim Ur . 1.4.2 Rechnerische Probleme für Untervektorräume Fragen (i) Sei V ein endlich erzeugter Vektorraum und sei U = hu1 , . . . , ur i ein Untervektorraum. Sei v ∈ V . Wie findet man rechnerisch eine Basis von U und wie entscheidet man effektiv, ob v ∈ U ist? (ii) Es seien U1 , U2 ⊆ V Untervektorräume. Wie berechnet man eine Basis von U1 + U2 und wie verifiziert man, ob U1 = U2 ist? (iii) Wie berechnet man eine Basis für U1 ∩ U2 ? Darstellung mittels Koordinaten Im Folgenden nehmen wir an, dass V eine Basis B = {v1 , . . . , vn } hat mit |B| = n. Betrachte die Abbildung n φB : K → V, (λ1 , . . . , λn ) 7→ n X λk v k . k=1 Vorsicht: Hier ist die Reihenfolge der Basiselemente wichtig! Wir nehmen im Folgenden an, dass eine Reihenfolge fest gewählt wurde. Lemma 1.4.38. Die Abbildung φB ist bijektiv. Lemma 1.4.39. φB bildet Untervektorräume von K n bijektiv auf Untervektorräume von V ab, d.h.: n (a) Ist U ⊆ V ein Untervektorraum, so ist Z = φ−1 B (U ) ⊆ K ein Untervektorraum; (b) Ist Z ⊆ K n ein Untervektorraum, so ist U = φB (Z) ⊆ V ein Untervektorraum. P Sei U = hu1 , . . . , um i ein Untervektorraum von V , und schreibe ui = nj=1 aij vj , i = 1, . . . , m mit aij ∈ K. Dann ist n φ−1 B (ui ) = (ai1 , . . . , ain ) ∈ K . n Wie findet man nun eine Basis von Z = φ−1 B (U ) ⊆ K ? Es gilt Z = {(λ1 , . . . , λm )A | λ1 , . . . , λm ∈ K} mit a11 .. A= . ··· ... a1n .. . . am1 · · · amn 19 1.4. VEKTORRÄUME Definition 1.4.40. Gegeben sie eine m×n-Matrix A. Der Untervektorraum Z ⊆ K n heisst Zeilenraum von A, wenn Z = {vA | v ∈ K m } gilt. Man schreibt auch Z = spanZ (A). Man definiert den Zeilenrang von A durch RangZ (A) := dim spanZ (A). Lemma 1.4.41. Sei A eine m × n-Matrix und sei à aus A hervorgegangen durch elementare Zeilenumformungen. Dann gilt spanZ (A) = spanZ (Ã). Korollar 1.4.42. Sei à eine reduzierte Zeilenstufenform von A so, dass die ersten r Zeilen von à ungleich Null sind. Dann bilden die ersten r Zeilen von à eine K-Basis von spanZ (A). Insbesondere ist r = RangZ (A). Zurück zur ersten Frage. Diese kann so gelöst werden: Gegeben ein Untervektorraum U = hu1 , . . . , um i, berechne zi := φ−1 B (ui ). Wende Gauß-Elimination auf die Matrix z1 .. . zm an; dies liefert eine Matrix in Zeilenstufenform von Rang r. Die ersten r Zeilen bilden dann eine Basis von φ−1 B (U ), und deren Bilder unter φB eine Basis von U . Verbleibt der zweite Teil der Frage: gegeben sei v ∈ V , ist v ∈ U ? Dazu betrachte z := φ−1 B (v) = (c1 , . . . , cn ). Die Bedingung v ∈ U ist nun äquivalent zu z ∈ Z = φ−1 (U ) = spanZ (A). B Lemma 1.4.43. Betrachte die erweiterte Matrix µ ¶ A . à := z Dann ist z in spanZ (A) genau dann, wenn RangZ (A) = RangZ (Ã) ist. Nun zur zweiten Frage. Seien Z1 , Z2 die Zeilenräume von zwei Matrizen A1 , A2 , also Zi = spanZ (A µ i ), ¶i = 1, 2. Gesucht ist nun eine Basis von Z1 + Z2 . Nun ist A1 , womit die Gauß-Elimination wie bei der ersten Frage die Z1 + Z2 = spanZ A2 Antwort liefert. Wie sieht man nun, ob Z1 = Z2 ist? (1) Basierend auf dem ersten Lemma kann man überprüfen, ob µ ¶ A1 RangZ (A1 ) = RangZ (A2 ) = RangZ A2 ist. Dies ist genau dann der Fall, wenn Z1 = Z2 ist. 20 KAPITEL 1. LINEARE ALGEBRA I (2) Alternativ kann man die reduzierte Zeilenstufenform von A1 und A2 berechnen; seien diese mit Ã1 und Ã2 bezeichnet. Haben A1 und A2 das gleiche Format (andernfalls füge Nullzeilen zur Matrix mit weniger Zeilen hinzu), so gilt: Genau dann ist spanZ (A1 ) = spanZ (A2 ), wenn Ã1 = Ã2 ist: Satz 1.4.44. Die reduzierte Zeilenstufenform einer Matrix ist eindeutig. Korollar 1.4.45. Seien A1 , A2 ∈ Matm×n (K) zwei Matrizen mit reduzierten Zeilenstufenformen Ã1 , Ã2 , so gilt Ã1 = Ã2 genau dann, wenn spanZ (A1 ) = spanZ (A2 ) ist. Definition 1.4.46. Sei A ∈ Matm×n (K). Der Spaltenraum von A ist spanS (A) := {Av | v ∈ K n } ⊆ K m ; dies ist ein K-Untervektorraum von K m . Der Spaltenrang von A ist definiert als RangS (A) := dim spanS (A). Satz 1.4.47. Für jede Matrix A ∈ Matm×n (K) gilt RangZ (A) = RangS (A). Für den Beweis wird folgendes Hilfslemma benötigt: Hilfslemma 1.4.48. Es sei à aus A hervorgegangen durch eine Reihe von Zeilenumformungen. Dann sind die Spalten i1 < · · · < is von A genau dann linear abhängig, wenn die entsprechenden Spalten von à linear abhängig sind. Definition 1.4.49. Der Rang von A ∈ Matm×n (A) sei definiert als Rang(A) := RangS (A) = RangZ (A). 1.4.3 Lineare Gleichungssysteme: geometrische Interpretation Es sei A eine m × n-Matrix mit Rang(A) = r und b ∈ K m . Wir sind interessiert an dem linearen Gleichungssystem Ax = b. (∗) Satz 1.4.50 (Existenz von Lösungen linearer Gleichungssysteme). Das Gleichungssystem (∗) hat mindestens eine Lösung genau dann, wenn Rang(A) = Rang(A, b) ist. Satz 1.4.51 (Lösungsmenge linearer Gleichungssysteme). Sei s ∈ K n eine Lösung von (∗) und H = {x ∈ K n | Ax = 0} der Lösungsraum des homogenen Systems Ax = 0. Dann ist die allgemeine homogene Lösung H ⊆ K n ein Untervektorraum mit Dimension dim H = n − r, und die allgemeine Lösung von (∗) ist gegeben durch L = s + H = {s + h | h ∈ H}. Definition 1.4.52. Sei V ein K-Vektorraum. Eine Teilmenge H ⊆ V heisst affiner Unterraum von V , wenn es ein v ∈ V und einen Untervektorraum U ⊆ V gibt mit H = v + U. Insbesondere bilden also die Lösungen von (∗) einen affinen Unterrraum. 21 1.5. RINGE UND POLYNOMRINGE 1.5 Ringe und Polynomringe Sei K ein Körper und K[x] := {a0 + a1 x + · · · + an xn | n ∈ N, ai ∈ K, i = 0, . . . , n}. Dann heisst K[x] der Polynomring über K in der Unbestimmten x. Man kann K[x] als Unterraum von K N = {(a0 , a1 , a2 , . . . ) | ai ∈ K, i ∈ N} auffassen (Raum der Folgen mit Werten in K). In K[x] gibt es die folgenden Operationen: • Addition: ist f = a0 + a1 x + · · · + an xn und g = b0 + b1 x + · · · + bm xm , ohne Einschränkung sei m ≤ n, so ist f + g definiert als (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm + am+1 xm+1 + · · · + an xn . Wir haben gesehen, dass K[x] eine Abelsche Gruppe ist. • Skalarmultiplikation: ist f = a0 + a1 x + · · · + an xn und λ ∈ K, so ist λf := (λa0 ) + (λa1 )x + · · · + (λan )xn . Damit wird K[x] zu einem K-Vektorraum (wie wir bereits in Beispiel 1.4.2 (c) gesehen haben). • Man kann auf K[x] auch eine Multiplikation definieren: ist f = a0 + a1 x + · · · + an xn und g = b0 + b1 x + · · · + bm xm , so definiere f g := m+n X ci x i mit ci := i=0 i X k=0 ak bi−k , 0 ≤ i ≤ n + m. Mit dieser Multiplikation wird K[x] zu einem Ring: Definition 1.5.1. Eine Menge R mit zwei inneren Verknüpfungen + und · heisst Ring, wenn gilt: (i) (R, +) ist eine Abelsche Gruppe; (ii) · ist eine assoziative Verknüpfung auf R; (iii) es gelten die Distributivgesetze r(s + t) = rs + rt und (s + t)r = sr + tr für alle r, s, t ∈ R. Beispiele 1.5.2. (i) Jeder Körper ist ein Ring. (ii) Z ist ein Ring. (iii) Zn ist ein Ring. (iv) Matn×n (K) ist ein Ring. 22 KAPITEL 1. LINEARE ALGEBRA I (v) K[x] ist ein Ring. (vi) C[x1 , . . . , xn ] (Polynomring mit n Variablen über C) ist ein Ring. Der Ring K[x] kommt mit Einsetzungsabbildungen: Dazu sei α ∈ K. Definiere evα : K[x] → K, f 7→ f (α). Diese Abbildung ist linear, d.h. evα (f + g) = (f + g)(α) = f (α) + g(α) = evα (f ) + evα (g) und evα (λf ) = (λf )(α) = λf (α) = λevα (f ) für alle f, g ∈ K[x], λ ∈ K. Man sieht leicht, dass die Einsetzungsabbildungen Ringmorphismen sind: Definition 1.5.3. Seien R, S Ringe und f : R → S eine Abbildung. Dann heisst f Ringhomomorphismus oder Ringmorphismus, wenn für alle a, b ∈ R gilt f (a + b) = f (a) + f (b) und f (ab) = f (a)f (b). Definition 1.5.4. Sei f ∈ K[x] und sei L ein Erweiterungskörper von K. Ein Element α ∈ L heisst Nullstelle von f , wenn evα (f ) = f (α) = 0 ist. Schliesslich besitzt jedes f ∈ K[x] einen Grad : ist f = a0 + a1 x + · · · + an xn , so definiere grad(f ) := max{i | ai 6= 0}, wobei max ∅ := −∞ gesetzt wird. Wir können damit die Menge K ≤d [x] := {f ∈ K[x] | grad(f ) ≤ d} betrachten. Es zeigt sich, dass K[x] ein (d + 1)-dimensionaler K-Vektorraum ist. Lemma 1.5.5 (Gradformel). Es gilt grad(f g) = grad(f ) + grad(g), wobei man −∞ + x = −∞ definiert für alle x ∈ N ∪ {−∞}. Bemerkung 1.5.6. Weiterhin gilt grad(f + g) ≤ max{grad(f ), grad(g)}, wobei im Falle grad(f ) 6= grad(g) Gleichheit gilt. Man kann sich folgende fundemantale Fragen stellen: (i) Gegeben sei f ∈ K ≤d [x]. Gesucht sind alle α ∈ K (oder alle Elemente aus einem Erweiterungskörper) so, dass evα (f ) = f (α) = 0 ist. In anderen Worten: Wo sind die Nullstellen von f ? Die Antwort hierauf liefert im wesentlichen der Fundamentalsatz der Algebra (siehe unten). (ii) Gegeben seien α1 , . . . , αt ∈ K und β1 , . . . , βt ∈ K. Gesucht sind alle Polynome in f ∈ K ≤d [x] mit f (αi ) = βi , 1 ≤ i ≤ t. Die Antwort auf diese Frage wird durch Lagrange-Interpolation gegeben (siehe unten). Satz 1.5.7 (Fundamentalsatz der Algebra). Es sei f ∈ K[x] ein Polynom von Grad d mit höchstem Koeffizienten 1, d.h. f = xd + ad−1 xd−1 + · · · + a1 x + a0 . 23 1.5. RINGE UND POLYNOMRINGE (a) Es gibt höchstens d verschiedene Elemente α1 , . . . , αk ∈ F ⊇ K, wobei F ein beliebiger Oberkörper von K ist, so dass f (αi ) = 0 ist, 1 ≤ i ≤ k. (b) Es gibt einen Oberkörper F von K und Elemente α1 , . . . , αd ∈ F so, dass d Y f= (x − αi ) i=1 ist. Ein Beweis wird in der Vorlesung ‘Einführung in die Algebra’ gegeben. Weiterhin gibt es zu jeden Körper K einen Erweiterungskörper L so, dass jedes nicht-konstante Polynom über K mindestens eine Nullstelle in L hat. Ein minimaler solcher Körper L heisst algebraischer Abschluss von K. Kann man L = K wählen, so heisst K algebraisch abgeschlossen. Ist etwa K = R, so ist L = C ein algebraischer Abschluss von K. Ist dagegen K = Q und L = C, so hat jedes Polynom mit Koeffizienten in K eine Nullstelle in L, jedoch ist L nicht minimal. 1.5.1 Teilbarkeitstheorie Definition 1.5.8. Seien f, g ∈ K[x]. (a) Man sagt f teilt g, wenn es ein Polynom h ∈ K[x] gibt mit g = f · h. (b) Ein Polynom h ∈ K[x] heisst gemeinsamer Teiler von f und g, wenn h sowohl Teiler von f als auch von g ist. (c) Ein Polynom h ∈ K[x] heisst grösster gemeinsamer Teiler von f und g, wenn h gemeinsamer Teiler von f und g ist und für jeden anderen gemeinsamen Teiler h′ gilt, dass h′ ein Teiler von h ist. Satz 1.5.9 (Polynomdivision). Seien f, g ∈ K[x] mit g 6= 0. Dann gibt es eindeutig bestimmte Polynome q, r ∈ K[x] mit grad(r) < grad(g) so, dass f = q·g+r ist. Bemerkung 1.5.10 (Euklidischer Algorithmus). Seien f, g ∈ K[x] gegeben mit g 6= 0. Setze r0 := g und r−1 := f . Berechne iterativ ri−1 = qi+1 ri + ri+1 mit grad(ri+1 ) < grad(ri ), i = 0, 1, 2, . . . , bis rk 6= 0 und rk+1 = 0 ist. Dann ist rk ein grösster gemeinsamer Teiler von f und g. Lemma 1.5.11 (Bezóut). Seien f, g ∈ K[x] mit f 6= 0 6= g. Dann gibt es Polynome a, b ∈ K[x] so, dass af + bg ∈ K[x] ein grösster gemeinsamer Teiler von f und g ist. Man kann a und b effektiv mit Hilfe des Euklidischen Algorithmus berechnen. Lemma 1.5.12. Sei f ∈ K[x] und α ∈ K. Genau dann ist f (α) = 0, wenn x − α ein Teiler von f ist. Definition 1.5.13. Sei f ∈ K[x] und α ∈ K. Wir sagen, α sei eine Nullstelle mit Vielfachheit k von f , wenn (x − α)k ein Teiler von f ist, (x − α)k+1 dagegen nicht. Q Bemerkung 1.5.14. Kann man f = ki=1 (x − αi )ei schreiben mit paarweise verschiedenen αi ∈ L, wobei L ein Erweiterungskörper von K ist (etwa wie im Fundamentalsatz), so kann man zeigen, dass diese Darstellung bis auf Umordnung der αi eindeutig ist, und dass ei die Vielfachheit der Nullstelle αi ist. 24 KAPITEL 1. LINEARE ALGEBRA I Beweis des Fundamentalsatzes (Skizze) Wenn α eine Nullstelle von f in einem Oberkörper ist (also f (α) = 0), so kann man also f = (x − α) · g schreiben mit g ∈ K[x]. Weiterhin sieht man wegen der Nullteilerfreiheit von K, dass {β ∈ K | f (β) = 0} = {β ∈ K | g(β) = 0} ∪ {α} ist. Per Induktion nach grad(f ) erhält man somit die erste Aussage. Lagrange-Interpolation Es seien α1 , . . . , αk verschiedene Elemente von K und β1 , . . . , βk beliebige Elemente in K. Dann existiert genau ein Polynom f ∈ K <k [x] := K ≤k−1 [x] mit f (αi ) = βi für 1 ≤ i ≤ k. Das gesuchte Element f liegt in evα−11 (β1 ) ∩ · · · ∩ evα−1k (βk ). Idealtheorie Sei R ein kommutativer Ring mit Eins, also etwa R = Z, R = K[x] oder R = Zn . Definition 1.5.15. Eine Teilmenge I ⊆ R heisst Ideal, wenn (i) (I, +) eine Untergruppe von (R, +) ist und (ii) für alle r ∈ R und i ∈ I bereits ri ∈ I gilt. Beispiele 1.5.16. (a) Ist r ∈ R, so ist rR = {rr′ | r′ ∈ R} ein Ideal. Dann ist (r) := rR das kleinste Ideal, welches a enthält, da jedes weitere Ideal, welches a enthält, bereits (a) umfassen muss. (b) Sind a1 , . . . , an ∈ R, so ist (a1 , . . . , an ) := a1 R + · · · + an R = (a1 ) + · · · + (an ) das kleinste Ideal, welches a1 , . . . , an umfasst. Beispiele 1.5.17. (a) Im Spezialfall R = Z ist (a, b) = (c), wenn c ein grösster gemeinsamer Teiler von a und b ist. (b) Ebenso gilt in R = K[x], dass (f, g) = (h) ist, wenn h ein grösster gemeinsamer Teiler von f und g ist. 1.6 Lineare Abbildungen Definition 1.6.1. Seien V, W zwei K-Vektorräume. Eine Abbildung f : V → W heisst (K-)linear genau dann, wenn (i) f (v1 + v2 ) = f (v1 ) + f (v2 ) für alle v1 , v2 ∈ V und (ii) f (λv) = λf (v) für alle λ ∈ K, v ∈ V gilt. Man spricht auch von einem (K-linearen) Homomorphismus (strukturerhaltende Abbildung). 25 1.6. LINEARE ABBILDUNGEN Beispiele 1.6.2. (a) Die R-linearen Abbildungen f : R → R sind alle von der Form x 7→ cx für c := f (1). (b) Ist A ∈ Matm×n (K), so definiert f : K n → K m , x 7→ Ax eine lineare Abbildung. (c) Sei V ein n-dimensionaler Vektorraum mit Basis {v1 , . . . , vn }. Dann ist n φB : K → V, (λ1 , . . . , λn ) 7→ n X λi v i i=1 eine bijektive (siehe oben) lineare Abbildung. (d) Sei V = C ∞ (R, R) der R-Vektorraum der unendlich oft stetig differenzierbaren df d Abbildungen R → R. Dann ist dx : V → V , f 7→ dx eine R-lineare Abbildung. Bemerkung 1.6.3. Die Bedingungen (i) und (ii) aus der Definition einer linearen Abbildung sind äquivalent zu der Bedingung “für alle λ1 , λ2 ∈ K und v1 , v2 ∈ V gilt f (λ1 v1 + λ2 v2 ) = λ1 f (v1 ) + λ2 f (v2 ).” Definition 1.6.4. Sei f : V → W eine lineare Abbildung. (a) Wir sagen, dass f ein Endomorphismus ist, wenn V = W ist. (b) Wir sagen, dass f ein Monomorphismus ist, wenn f injektiv ist. (c) Wir sagen, dass f ein Epimorphismus ist, wenn f surjektiv ist. (d) Wir sagen, dass f ein Isomorphismus ist, wenn f bijektiv ist. (e) Wir sagen, dass f ein Automorphismus ist, wenn V = W und f bijektiv ist. Lemma 1.6.5. Sei f : V → W linear. (i) Es gilt f (0V ) = 0W . (ii) Es gilt f (−v) = −f (v) für alle v ∈ V . Satz 1.6.6. Sei f : V → W eine lineare Abbildung. (a) Falls U ⊆ V ein Untervektorraum ist, so ist f (U ) ⊆ W ebenfalls ein Untervektorraum. (b) Ist andersherum U ′ ⊆ W ein Untervektorraum, so ist f −1 (U ′ ) ⊆ V ein Untervektorraum. Lineare Abbildungen bilden also Untervektorräume auf Untervektorräume ab. Einige wichtige Spezialfälle des Satzes: • Im f := f (V ) ⊆ W ist ein Untervektorraum von W ; • Ker f := f −1 (0) = {v ∈ V | f (v) = 0} ist ein Untervektorraum von V . Definition 1.6.7. Sei f : V → W eine lineare Abbildung. 26 KAPITEL 1. LINEARE ALGEBRA I (i) Der Untervektorraum Ker f = f −1 (0) = {v ∈ V | f (v) = 0} heisst Kern von f. (ii) Der Untervektorraum Im f = f (V ) heisst Bild von f . Lemma 1.6.8. Eine lineare Abbildung f : V → W ist genau dann ein Monomorphismus, wenn Ker f = {0} ist. Lemma 1.6.9. Sei I eine Indexmenge. Seien V, W Vektorräume und B = {vi | i ∈ I} eine Basis von V . Genau dann ist f ein Monomorphismus, wenn {f (vi ) | i ∈ I} linear unabhängig ist und f (vi ) 6= f (vj ) ist für i 6= j. Korollar 1.6.10. Es sei V ein endlichdimensionaler Vektorraum und f : V → W ein Monomorphismus. Dann ist dim(V ) = dim(Im f ). Lemma 1.6.11. Sei I eine Indexmenge. Seien V, W Vektorräume und B = {vi | i ∈ I} eine Basis von V . (a) Genau dann ist f ein Epimorphismus, wenn {f (vi ) | i ∈ I} ein Erzeugendensystem von W ist. (b) Genau dann ist f ein Isomorphismus, wenn {f (vi ) | i ∈ I} eine Basis von W ist und f (vi ) 6= f (vj ) ist für i 6= j. Lemma 1.6.12. Sei die Abbildung f : K n → K m definiert durch x 7→ Ax für ein A ∈ Matm×n (K). (a) Genau dann ist f ein Monomorphismus, wenn n = Rang(A) ≤ m gilt. (b) Genau dann ist f ein Epimorphismus, wenn m = Rang(A) ≤ n gilt. (c) Genau dann ist f ein Isomorphismus, wenn n = m = Rang(A) gilt. Korollar 1.6.13. Sei f : V → W eine lineare Abbildung. Ist f ein Monomorphismus, so gilt dim(V ) ≤ dim(W ). Ist f ein Isomorphismus, so gilt dim(V ) = dim(W ). 1.6.1 Charakterisierung von linearen Abbildungen Satz 1.6.14. Seien V, W beliebige K-Vektorräume und I eine Indexmenge so, dass B = {vi | i ∈ I} eine Basis von V ist, und sei T = {wi | i ∈ I} eine Teilmenge von W . Dann gibt es genau eine lineare Abbildung f : V → W mit f (vi ) = wi für alle i ∈ I. Eine lineare Abbildung ist eindeutig beschrieben durch die Werte der Abbildung auf einer Basis. Seien V und W endlichdimensionale Vektorräume mit dim V = n und dim W = m, sei BV = {v1 , . . . , vn } eine Basis von V und BW = {w1 , . . . , wm } eine Basis von W . Ist f : V → W eine lineare Abbildung, so ist f nach obigen eindeutig durch die Bilder f (vi ), i = 1, . . . , n beschrieben. Da BW eine Basis von W ist, können wir f (vj ) als Linearkombination der wi s schreiben, etwa f (vj ) = m X i=1 aij wi , j = 1, . . . , n. 27 1.6. LINEARE ABBILDUNGEN Dann ist ··· ... a11 .. (f (v1 ), . . . , f (vn )) = (w1 , . . . , wm ) . a1n .. . . am1 · · · amn Hierbei verwenden wir folgende Notation: Sind v1 , . . . , vm Vektoren aus einem beliebigen K-Vektorraum V und ist A = (aij )ij ∈ Matm×n (K) eine Matrix, so soll (v1 , . . . , vm )A das n-tupel m m ³X ´ X aj1 vj , . . . , ajn vj ∈ V n j=1 j=1 sein, wobei A = (aij ) sei. Man nennt A := (aij ) ∈ Matm×n (K) die zu f zugehörige Transformationsmatrix und schreibt fBBWV := A. Lemma 1.6.15. In der Situation von oben gilt für alle λ1 , . . . , λn ∈ K f (λ1 v1 + · · · + λn vn ) = φBW (A(λ1 , . . . , λn )), also insbesondere gilt mit f = φBW ◦ fˆ ◦ φ−1 BV fˆ : K n → K m , x 7→ Ax. Korollar 1.6.16. Es seien V und W endlichdimensionale Vektorräume und f : V → W eine lineare Abbildung. Seien BV bzw. BW Basen von V bzw. W , und sei dim V = n und dim W = m. Sei A = fBBWV . Dann induziert φBV : V → K n einen Isomorphismus Ker f → {x ∈ K n | Ax = 0} und φBW : W → K m einen Isomorphismus Im f → spanS (A). Insbesondere ist Rang(A) = dim(Im f ). 1.6.2 Der Vektorraum Hom(V, W ) Definition 1.6.17. Es seien V und W K-Vektorräume. Die Menge aller K-linearen Abbildungen f : V → W bezeichnen wir mit Hom(V, W ). Lemma 1.6.18. Die Menge Hom(V, W ) hat die Struktur eines K-Vektorraums, wenn man die Addition per (f + g)(v) := f (v) + g(v) und die Skalarmultiplkation per (λf )(v) := λf (v) definiert, λ ∈ K, f, g ∈ Hom(V, W ). Satz 1.6.19. Es seien V und W Vektorräume mit dim V = n < ∞ und dim W = m < ∞. Sei BV = {v1 , . . . , vn } eine Basis von V und BW = {w1 , . . . , wm } eine Basis von W . Dann ist die Abbildung ϕ : Hom(V, W ) → Matm×n (K), f 7→ fBBWV ein Isomorphismus. Insbesondere gilt also dim(Hom(V, W )) = dim(Matm×n (K)) = dim(V ) · dim(W ). 28 KAPITEL 1. LINEARE ALGEBRA I 1.6.3 Hintereinanderausführen von linearen Abbildungen Satz 1.6.20. Seien V , W und U drei endlichdimensionale Vektorräume und seien f : V → W und g : W → U lineare Abbildungen. Sei BV eine Basis von V , BW eine Basis von W und BU eine Basis von U . Dann gilt (g ◦ f )BBVU = gBBUW · fBBWV . Isomorphismen Sei f : V → W ein Isomorphismus. Lemma 1.6.21. Die inverse Abbildung f −1 : W → V ist wieder ein Isomorphismus. Satz 1.6.22. Sei f : V → W ein Homomorphismus zwischen endlichdimensionalen Vektorräumen gleicher Dimension. Ist A = fBBWV die Transformationsmatrix von f , so ist A genau dann invertierbar, wenn f ein Isomorphismus ist. Bemerkung 1.6.23. Wir haben gesehen, dass Hom(V, W ) isomorph zu Matm×n (K) ist wenn dim V = n und dim W = m ist. Ist V = W , so ist Hom(V, W ) also isomorph zu der K-Algebra Matn×n (K) (eine K-Algebra ist ein Ring, der eine zur Ringstruktur kompatible K-Vektorraum-Struktur hat). Die Automorphismen f : V → V entsprechen unter dem Isomorphismus Hom(V, V ) → Matn×n (K) gerade den Elementen aus Gln (K). Dimensionsformel für lineare Abbildungen Satz 1.6.24 (Dimensionsformel). Sei f : V → W eine lineare Abbildung zwischen endlichdimensionalen K-Vektorräumen V und W . Dann gilt dim(Ker f ) + dim(Im f ) = dim(V ). 1.6.4 Basiswechsel Man hat eine lineare Abbildung f : V → W , wobei V, W endlichdimensional sind. Sei f beschrieben in Bezug auf die Basen BV = {v1 , . . . , vn } und BW = {w1 , . . . , wm }, wobei dim V = n und dim W = m sei. Seien nun zwei weitere Basen B̂V = {v̂1 , . . . , v̂n } von V und B̂W = {ŵ1 , . . . , ŵm } von W gegeben. Wie kann man nun fB̂B̂V aus fBBWV und den Koordinatentransformationen berechnen? W Dazu sei S die Matrix, welche (v̂1 , . . . , v̂n ) = (v1 , . . . , vn )S erfüllt, also die Transformationsmatrix (IdV )B̂BVV , und sei T = (IdW )B̂BW . W Satz 1.6.25. Es gilt ¡ ¢−1 BV fB̂B̂V = T −1 fBBWV S = (IdW )B̂BW fBW (IdV )B̂BVV . W W Dazu ein kleines Diagramm: B BV fB V =A W VO BW T S B̂V /W O V f B̂V B̂W =T −1 AS /W B̂W 29 1.6. LINEARE ABBILDUNGEN Bemerkung 1.6.26. Sei V = W . Es macht Sinn, BV = BW und B̂V = B̂W zu wählen. Wie sieht dann fBBVV in Bezug auf fB̂B̂V aus, wenn f : V → V ein EndomorV phismus ist? Ist S = IdB̂BVV , so ist nach dem Satz fB̂B̂V = S −1 fBBVV S. V Dies wirft die folgende, prinzipielle Frage auf: wenn ein Homomorphismus f : V → W gegeben ist, wie kann man eine Basis BV von V und eine Basis BW von W so wählen, dass fBBWV besonders “einfach” ist? Satz 1.6.27. Seien V, W endlichdimensionale Vektorräume und sei dim V = n, dim W = m. Ist f : V → W eine lineare Abbildung, so gibt es Basen BV von V und BW von W so, dass mit r := dim(Im f ) gilt 1 0 .. . 0 0 BV 1 fBW = ∈ Matm×n (K), 0 0 wobei der obere linke Block die Grösse r × r hat. 1.6.5 Äquivalenz von Matrizen Definition 1.6.28. Seien A, B ∈ Matm×n (K). Wir sagen, dass A und B äquivalent sind, wenn es invertierbare Matrizen R ∈ Glm (K) und S ∈ Gln (K) gibt mit A = RBS. Lemma 1.6.29. Die Äquivalenz von Matrizen ist eine Äquivalenzrelation auf der Menge Matm×n (K). Satz 1.6.30. Es gibt genau min{m, n}+1 Äquivalenzklassen auf Matm×n (K), welche repräsentiert werden durch die Matrizen ¶ µ Er 0 ∈ Matm×n (K), r ∈ {0, 1, . . . , min{m, n}}. 0 0 Korollar 1.6.31. Zwei Matrizen A, B ∈ Matm×n (K) sind genau dann äquivalent, wenn Rang(A) = Rang(B) ist. Ähnlichkeit für Endomorphismen Wir wollen eine weitere Äquivalenzrelation betrachten. Definition 1.6.32. Zwei Matrizen A, B ∈ Matn×n (K) heissen ähnlich, wenn es eine invertierbare Matrix S ∈ Gln (K) gibt mit A = S −1 BS. Lemma 1.6.33. Die so definierte Ähnlichkeit ist eine Äquivalenzrelation auf der Menge Matn×n (K). 30 KAPITEL 1. LINEARE ALGEBRA I Bemerkung 1.6.34. Zwei Matrizen A, C ∈ Matn×n (K) sind also genau dann ähnlich, wenn es einen Endomorphismus f : K n → K n und zwei Basen B und B̂ von K n gibt mit fBB = A und fB̂B̂ = C Die Klassifizierung der Äquivalenzklassen ist in diesem Fall wesentlich schwieriger als im Fall der im letzten Abschnitt definierten Äquivalenz. Dies wird erst in der Linearen Algebra II vollständig beantwortet, und dort auch nur im Fall, dass der Körper algebraisch abgeschlossen ist. 1.6.6 Der Dualraum eines Vektorraums Definition 1.6.35. Sei V ein K-Vektorraum. Der Dualraum V ∗ von V ist definiert als V ∗ := Hom(V, K). P Beispiel 1.6.36. Für A ∈ Matn×n (K) mit A = (aij ) definiere Spur(A) := ni=1 aii . Dann ist Spur ∈ Matn×n (K)∗ . Ist V n-dimensional, so ist Hom(V, K) isomorph zu Mat1×n (K). Insbesondere ist dann also dim V ∗ = n. Sei BV = {v1 , . . . , vn } eine Basis von V . Wenn wir die Basis {1} von K wählen, dann ist der Isomorphismus V ∗ → Mat1×n (K) explizit gegeben durch f 7→ (f (v1 ), . . . , f (vn )). Wir wählen die kanonische Basis {f1 , . . . , fn } von Mat1×n (K) mit fi = (0, . . . , 0, 1, 0, . . . , 0), wobei die 1 in der i-ten Komponente steht, 1 ≤ i ≤ n. Dann entsprechen die fi über den Isomorphismus V ∗ → Hom1×n (K) den Homomorphismen fˆi : V → K, die durch ( 1 für i = j fˆi : V → K, vj 7→ fi (vj ) = δij := 0 für i 6= j gegeben sind, 1 ≤ i ≤ n. Definition 1.6.37. Wir bezeichnen die duale Basis zu BV mit BV∗ := {fˆ1 , . . . , fˆn }. Wir haben also unter anderem gezeigt: Satz 1.6.38. Ist dim V = n, so ist dim V ∗ = n. Ist BV eine Basis von V , so ist BV∗ eine Basis von V ∗ . Der Doppeldualraum V ∗∗ Es ist V ∗∗ = (V ∗ )∗ = {f : V ∗ → K | f linear } der Doppeldualraum von V . Satz 1.6.39. Durch ϕ : V → V ∗∗ , v 7→ v ∗∗ : ( V∗ →K f 7→ f (v) ist ein basisunabhängiger Isomorphismus gegeben. Solche basisunabhängigen Abbildungen werden oft als natürliche Abbildungen bezeichnet. 1.6. LINEARE ABBILDUNGEN 1.6.7 31 Determinanten Axiomatische Definition der Determinante nach Weierstraß Definition 1.6.40. Eine Abbildung det : Matn×n (K) → K heisst Determinante, falls: (i) det multilinear ist, d.h. sind v1 , . . . , vn ∈ K n und ṽi ∈ K n und sind λ, µ ∈ K, so gilt v1 v1 v1 .. .. .. . . . vi−1 vi−1 vi−1 det λvi + µṽi = λ det vi + µ det ṽi ; vi+1 vi+1 vi+1 .. ... ... . vn vn vn (ii) det alternierend ist, d.h. falls A zwei gleiche Zeilen hat, so ist det A = 0; (iii) det normiert ist, d.h. det En = 1. Satz 1.6.41 (Hauptsatz über Determinanten). Zu jedem n gibt es genau eine Determinante det : Matn×n (K) → K. Der Beweis wird erst später geführt. Wir wollen zunächst einige Konsequenzen aus der Definition herleiten. Lemma 1.6.42. Ist A ∈ Matn×n (K), λ ∈ K und det eine Determinante, so ist det(λA) = λn det(A). Lemma 1.6.43. Ist A eine Matrix und B eine Matrix, die durch eine elementare Zeilenumformung von Typ 1 aus A entsteht (also durch Vertauschen zweier Zeilen), so gilt det(B) = − det(A) für jede Determinate det. Bemerkung 1.6.44. Die Bezeichnung “alternierend” für die Eigenschaft (ii) der Determinatendefinition stammt aus dieser Eigenschaft. Ist umgekehrt det : Matn×n (K) → K eine multilineare Abbildung so, dass der Tausch zweier Zeilen zu einem Vorzeichenwechsel führt, und ist 1 + 1 6= 0 in K, so folgt det(A) = 0. Lemma 1.6.45. Ist λ ∈ K und entsteht B aus A durch Addition des λ-fachen der i-ten Zeile zur j-ten Zeile (also durch eine Zeilenoperation vom Typ 3), so ist det A = det B für jede Determinante det. Lemma 1.6.46. Hat A ∈ Matn×n (K) eine Nullzeile, so gilt det(A) = 0 für jede Determinante det. Lemma 1.6.47. Ist A eine obere Dreiecksmatrix, also von der Form λ1 ∗ · · · ∗ . . . . . . .. . 0 A=. . , . .. .. ∗ .. 0 · · · 0 λn und ist det eine Determinante, so gilt det(A) = λ1 · · · λn . 32 KAPITEL 1. LINEARE ALGEBRA I Mit den vorhergehenden Lemmata folgt, dass wir die Determinante einer beliebigen Matrix effektiv ausrechnen können und das die Determinante eindeutig ist (wenn sie denn existiert): Jede Matrix A ∈ Matn×n (K) kann durch elementare Zeilenumformungen in Zeilenstufenform gebracht werden, und jede Zeilenstufenform enthält entweder eine Nullzeile oder ist eine obere Dreiecksmatrix. Bei Zeilenumformungen von Typ 1 (Vertauschen zweier Zeilen) wechselt das Vorzeichen der Determinante, bei Operationen von Typ 2 (Multiplizieren einer Zeile mit einer Konstanten 6= 0) wird die Determinante mit dieser Konstanten multipliziert, und bei Operationen von Typ 3 (Addition des λ-fachen einer Zeile zu einer anderen) ändert sich die Determinante nicht. Und sobald eine Zeilenstufenform vorliegt, hat man entweder eine Nullzeile (und die Determinante ist 0) oder eine obere Dreiecksmatrix und kann somit den Wert der Determiante ausrechen. Da diese Regeln für alle Determinanten gelten, das Ergebnis aber unabhängig von der Determinantenfunktion ist, gibt es somit höchstens eine Determinante. Satz 1.6.48. Sei A ∈ Matn×n (K). Angenommen, es existiere eine Determinante det. Dann sind folgende Eigenschaften äquivalent: (i) A ist invertierbar; (ii) die Zeilen von A sind linear unabhängig; (iii) die Spalten von A sind linear unabhängig; (iv) für jedes b ∈ K n hat das Gleichungssystem Ax = b eine Lösung; (v) det(A) 6= 0; (vi) die reduzierte Zeilenstufenform von A ist En ; (vii) es ist Rang(A) = n. Satz 1.6.49 (Determinantenproduktsatz). Seien A, B ∈ Matn×n (K). Ist det eine Determinante, so gilt det(AB) = det(A) det(B). Die symmetrische Gruppe Sn Um eine konkrete Determinantenfunktion nach Leibniz anzugeben, benötigen wir die symmetrische Gruppe. Definition 1.6.50. Wir bezeichnen mit Sn die Menge der bijektiven Abbildungen π : {1, . . . , n} → {1, . . . , n}. Diese Abbildungen heissen Permutationen und Sn heisst die symmetrische Gruppe. Bemerkung 1.6.51. Sind π, σ ∈ Sn , so ist π ◦ σ ∈ Sn . Satz 1.6.52. (Sn , ◦) ist eine Gruppe der Ordnung n!, wobei n! := von n ist. Qn i=1 i die Fakultät Definition 1.6.53. Eine Permutation τ ∈ Sn heisst Transposition, wenn es Indices j, k gibt mit 1 ≤ j < k ≤ n so, dass τ (j) = k, τ (k) = j ist und τ (i) = i für i ∈ {1, . . . , n} \ {j, k}. Lemma 1.6.54. Jede Permutation π ∈ Sn lässt sich als endliches Produkt von Transpositionen schreiben. 33 1.6. LINEARE ABBILDUNGEN Bemerkungen 1.6.55. (1) Es ist sogar möglich, eine beliebige Permutation als Produkt von benachbarten Transpositionen zu schreiben, also von Transpositionen τ mit τ (i) = i + 1 und τ (i + 1) = i für ein i. (2) Die Darstellung als Produkt von Transpositionen ist nicht eindeutig, und ebensowenig die Anzahl der Faktoren in der Darstellung. Definition 1.6.56. Sei π ∈ Sn eine Permutation. Ein Fehlstand von π ist ein Paar (i, j) mit 1 ≤ i < j ≤ n so, dass π(i) > π(j) ist. Definition 1.6.57. Das Signum einer Permutation π ∈ Sn ist sign(π) := (−1)s , wobei s die Anzahl der Fehlstände von π sei. Bemerkung 1.6.58. Für jede Transposition τ ∈ Sn gilt sign(τ ) = −1. Lemma 1.6.59. Für π ∈ Sn gilt sign(π) = σ(j) − σ(i) . j−i 1≤i<j≤n Y Satz 1.6.60. Für alle σ, τ ∈ Sn gilt sign(τ ◦ σ) = sign(τ ) · sign(σ). Bemerkung 1.6.61. Sind G, H Gruppen und ist f : G → H eine Abbildung mit f (gh) = f (g)f (h) für alle g, h ∈ G, so sagt man, dass f ein Gruppenhomomorphismus ist. Damit ist sign : Sn → {−1, 1} ein Gruppenhomomorphismus. Man kann zeigen, dass für Gruppenhomomorphismen Ker f = {g ∈ G | f (g) = eH } eine Untergruppe von G ist. Diese Untergruppe wird mit An bezeichnet und die alternierende Gruppe genannt. Für n > 1 gilt |An | = 21 n!: Sei σ ∈ Sn \ An ; betrachte dann die Abbildung ϕ : An → Sn , τ 7→ στ . Man rechnet leicht nach, dass ϕ(An ) = Sn \ An ist und dass ϕ bijektiv ist. Damit folgt |An | = |S2n | = 12 n!. Existenz der Determinante nach Leibniz Satz 1.6.62. Zu einer Matrix A = (aij ) ∈ Matn×n (K) definiere X det(A) := sign(σ)a1σ(1) · · · anσ(n) . σ∈Sn Dann ist det : Matn×n (K) → K eine Determinante. Die Transponierte Definition 1.6.63. Sei A = (aij ) ∈ Matm×n (K). Dann ist die Transponierte von A definiert als At = (bij ) ∈ Matn×m (K) mit bij := aji , 1 ≤ i ≤ n, 1 ≤ j ≤ m. Satz 1.6.64. Es gilt det(At ) = det(A). Lemma 1.6.65. Es sei A ∈ Matn×n (K) eine Blockdiagonalmatrix, d.h. von der Form A1 0 A2 A= , ... 0 Am Pm wobei Ai ∈ Matni ×ni (K) ist mit i=1 ni = n. Dann gilt det(A) = det(A1 ) · · · det(Am ). 34 KAPITEL 1. LINEARE ALGEBRA I Laplace-Entwicklung Zu einer Matrix A = (aij ) ∈ Matn×n (K) und zu i, j ∈ {1, . . . , n} definiere und a11 .. . ai−1,1 Aij := 0 ai+1,1 . .. an1 a11 .. . a Âij := i−1,1 ai+1,1 . .. an1 ··· ... a1,j−1 .. . 0 .. . · · · ai−1,j−1 ··· 0 · · · ai+1,j−1 .. ... . · · · an,j−1 ··· ... a1,j−1 .. . a1,j+1 .. . 0 ai−1,j+1 1 0 0 ai+1,j+1 .. .. . . 0 an,j+1 a1,j+1 .. . ··· ... · · · ai−1,j−1 ai−1,j+1 · · · · · · ai+1,j−1 ai+1,j+1 · · · .. .. ... ... . . · · · an,j−1 an,j+1 · · · ··· ... ··· ··· ··· ... ··· a1,n .. . ai−1,n 0 ∈ Matn×n (K) ai+1,n .. . ann a1,n .. . ai−1,n ∈ Mat(n−1)×(n−1) (K). ai+1,n .. . ann Lemma 1.6.66. Es ist det(Aij ) = (−1)i+j det(Âij ). Satz 1.6.67 (Laplace-Entwicklung). Sei A = (aij ) ∈ Matn×n (K). Dann gilt für jedes i ∈ {1, . . . , n} n X det(A) = aij (−1)i+j det(Âij ) j=1 und für jedes j ∈ {1, . . . , n} det(A) = n X aij (−1)i+j det(Âij ). i=1 Die erste Formel wird als Laplace-Entwicklung nach der j-ten Spalte bezeichnet, und die zweite als Laplace-Entwicklung nach der i-ten Zeile. Cramersche Regel Sei A ∈ Matn×n (K) und b ∈ K n . Wir interessieren uns für eine explizite Lösung des Gleichungssystems Ax = b. (∗) Definiere die Abbildung f : K n → K n , x 7→ Ax. Wir wissen, dass folgende Bedingungen äquivalent sind: (i) (∗) hat eine eindeutige Lösung für jedes b ∈ K n ; (ii) A ist invertierbar; (iii) Ker f = {0}; (iv) det(A) 6= 0; (v) Rang(A) = n; 1.7. EIGENWERTE UND EIGENVEKTOREN 35 (vi) die reduzierte Zeilenstufenform von A ist En ; (vii) f ist ein Automorphismus; (viii) der Zeilenraum von A ist K n ; (ix) der Spaltenraum von A ist K n . Sei A = (a1 , . . . , an ), wobei ai die i-te Spalte von A sei. Dann schreibt sich Ax = b als n X xj aj = b. j=1 Satz 1.6.68 (Cramersche Regel). Ist A = (a1 , . . . , an ) ∈ Gln (K) eine invertierbare Matrix, und ist b ∈ K n , so hat das lineare Gleichungssystem Ax = b genau eine Lösung x = (x1 , . . . , xn ) ∈ K n , und falls det eine Determinante ist, so gilt det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) xi = . det A Insbesondere kann man mittels der Cramerschen Regel auch das Inverse A−1 einer invertierbaren Matrix A ∈ Gln (A) bestimmen. 1.6.8 Matrizen über Ringen Wie sieht es aus, wenn man Matrizen über einem kommutativen Ring R mit Eins definiert? Man kann genauso wie bei Körpern eine Determinantenabbildung det : Matn×n (R) → R definieren. Sei R ein Ring, der kein Körper ist und mindestens zwei Elemente enthält. Dann gibt es Matrizen A ∈ Matn×n (R) mit det A 6= 0, die nicht invertierbar sind: ist etwa a ∈ R \ {0} keine Einheit, also gibt es kein b ∈ R mit ab = 1, so wähle a 0 1 A= . . . . 0 1 Der Determinantenproduktsatz zeigt, dass für invertierbare Matrizen A ∈ Gln (R) gilt, dass det(A) ∈ R∗ := {a ∈ R | ∃b ∈ R : ab = 1} ist. Ist nun A ∈ Matn×n (R) mit det A ∈ R∗ , so kann man mit der Cramerschen Regel eine Matrix B ∈ Matn×n (R) bestimmen mit AB = En . Daraus folgt also A ∈ Gln (R). Man erhält also Gln (R) = {A ∈ Matn×n (R) | det(A) ∈ R∗ }. 1.7 Eigenwerte und Eigenvektoren Es sei V ein K-Vektorraum und f : V → V ein Endomorphismus. Definition 1.7.1. Ein Vektor v ∈ V heisst Eigenvektor von f zum Eigenwert λ ∈ K, wenn v 6= 0 ist und f (v) = λv ist. 36 KAPITEL 1. LINEARE ALGEBRA I Bemerkung 1.7.2. Sei V ein endlichdimensionaler Vektorraum und BV eine Basis von V . Ist f : V → V ein Endomorphismus, so ist fBBVV genau dann eine Diagonalmatrix, wenn die Vektoren in V Eigenvektoren von f sind. Die Eigenwerte der Eigenvektoren sind dann die zugehörigen Einträge auf der Diagonalen von fBBVV . Definition 1.7.3. Ist A ∈ Matn×n (K) und v ∈ K n , so heisst v Eigenvektor zum Eigenwert λ ∈ K, wenn v 6= 0 ist und Av = λv ist. Bemerkung 1.7.4. Zu A ∈ Matn×n (K) definiere f : K n → K n , x 7→ Ax. Genau dann ist v ∈ K n ein Eigenvektor zu f mit Eigenwert λ ∈ K, wenn v ein Eigenvektor zu A mit Eigenwert λ ist. Definition 1.7.5. Sei A ∈ Matn×n (K). Dann heisst pA (x) := det(xEn − A) ∈ K[x] das charakteristische Polynom von A. Bemerkung 1.7.6. Hier wird die Determinate über dem Ring R = K[x] ausgerechnet. Lemma 1.7.7. Genau dann ist λ ∈ K ein Eigenwert von A ∈ Matn×n (K), wenn pA (λ) = 0 ist. Lemma 1.7.8. Das charakeristische Polynom pA einer Matrix A ist ein normiertes Polynom von Grad n, d.h. pA (x) = xn + an−1 xn−1 + · · · + a1 x + a0 . Es gilt an−1 = − Spur(A) und a0 = (−1)n det(A). Satz 1.7.9. Sind λ1 , . . . , λk paarweise verschiedene Eigenwerte von A ∈ Matn×n (K) und sind v1 , . . . , vk ∈ K n zugehörige Eigenvektoren, so ist das System {v1 , . . . , vn } linear unabhängig. Korollar 1.7.10. Ist A ∈ Matn×n (K) eine Matrix mit n paarweise verschiedenen Eigenwerten, so gibt es eine Matrix S ∈ Gln (K) so, dass S −1 AS eine Diagonalmatrix ist, auf deren Diagonalen genau die Eigenwerte stehen. Korollar 1.7.11. Ist dim V = n und f : V → V ein Endomorphismus mit n paarweise verschiedenen Eigenwerten, so gibt es eine Basis V , die aus Eigenvektoren von f besteht. Einsetzen von Matrizen in Polynomen Sei f ∈ K[x] ein Polynom und A ∈ Matn×n (K). Definition 1.7.12. Ist f (x) = a0 + a1 x + · · · + an xn , so setze f (A) := En + a1 A + · · · + an An . Bemerkung 1.7.13. Man kann dies ebenso für Potenzreihen definieren, etwa eA := 2 3 En + A + A2 + A6 + . . . . Satz 1.7.14. Seien f, g ∈ K[x] und sei A ∈ Matn×n (K) mit n paarweise verschiedenen Eigenwerten λ1 , . . . , λn ∈ K. Genau dann gilt f (A) = g(A), wenn f (λi ) = g(λi ), 1 ≤ i ≤ n gilt. Kapitel 2 Lineare Algebra II 37 38 KAPITEL 2. LINEARE ALGEBRA II Ist A ∈ Matm×n (K) eine Matrix, so induziert diese einen Endomorphismus ϕ : K n → K n, v 7→ Av. Wir definieren ker A := ker ϕ und Im A := Im ϕ = spanS A als den Kern und das Bild der Matrix A. 2.1 Basiswechsel bei Endomorphismen Das Ziel dieses Abschnittes ist es, zur Jordan-Zerlegung eines Endomorphismus zu gelangen. Sei V ein K-Vektorraum und f : V → V ein Endomorphismus. Wir nehmen an, dass dim V = n < ∞ ist. Sei BV = {v1 , . . . , vn } eine Basis von V und A := fBBVV die Darstellungsmatrix von A bezüglich BV , d.h. (f (v1 ), . . . , f (vn )) = (v1 , . . . , vn )A. Sei B̂V eine zweite Basis von V und  := fB̂B̂V . V Wir haben gesehen, dass mit S := (IdV )B̂BVV gilt  = S −1 AS. Das Ziel ist es, eine Basis B̂V zu finden so, dass  möglichst einfach wird. Definition 2.1.1. Eine Matrix A ∈ Matn×n (K) heisst diagonalisierbar, wenn es ein S ∈ Gln (K) gibt so, dass S −1 AS eine Diagonalmatrix ist, also wenn es Elemente λ1 , . . . , λn ∈ K gibt mit λ1 0 · · · 0 . . . . . . .. . 0 −1 S AS = . . . . .. .. 0 .. 0 · · · 0 λn Ein Endomorphismus f : V → V heisst diagonalisierbar, wenn für irgendeine Basis BV von V die Matrix fBBVV diagonalisierbar ist. Bemerkungen 2.1.2. (a) Wir werden sehen, dass λ1 , . . . , λn in diesem Fall die Eigenwerte von A sein werden. (b) Sind A, A′ ∈ Matn×n (K) ähnlich, so ist A genau dann diagonalisierbar, wenn A′ diagonalisierbar ist. (c) Ist f : V → V ein Endomorphismus, und sind BV und B̂V Basen von f , so ist nach obigen fBBVV und fB̂B̂V ähnlich. Die Definition von diagonalisierbar für V Endomorphismen ist also unabhängig von der Wahl der Basis. Satz 2.1.3. Ein Endomorphismus f : V → V ist genau dann diagonalisierbar, wenn V eine Basis bestehend aus Eigenvektoren von f besitzt. 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 39 Beweis. Ist BV = {v1 , . . . , vn } eine Basis von V und gibt es λi ∈ K mit f (vi ) = λi vi , i = 1, . . . , n, so ist λ1 0 ... fBBVV = . 0 λn Ist andersherum f diagonalisierbar, so gibt es eine Basis BV = {v1 , . . . , vn } von V so, dass fBBVV Diagonalmatrix ist, etwa fBBVV = λ1 0 ... 0 λn . Dann gilt jedoch f (vi ) = λi vi , i = 1, . . . , n, womit v1 , . . . , vn Eigenvektoren von f sind. Wann hat V eine Basis von Eigenvektoren von f ? Wenn f genau n paarweise verschiedene Eigenwerte hat, so ist f nach Korollar 1.7.10 diagonalisierbar: hat f die Eigenwerte ¡ λ1 , . . . , λ¢n ∈ K und ist vi ∈ V ein Eigenvektor zu λi , i = 1, . . . , n, so gilt mit S = v1 , . . . , vn , dass λ1 0 ... S −1 AS = 0 λn ist. Beispiele 2.1.4. Sei hier K = R. ¶ µ 3 −2 und V = R2 . Es ist pA (x) := det(xE2 − A) = x2 − (1) Sei A = −2 3 6x + 5 = (x − 5)(x − 1). Also hat A zweiµverschiedene Eigenwerte und ist somit ¶ −1 ein Eigenvektor zum Eigenwert 5 diagonalisierbar. Man sieht schnell, dass 1 ¶ µ µ ¶ −1 1 1 gilt ein Eigenvektor zum Eigenwert 1 ist, womit mit S = und 1 1 1 S (2) Sei −1 AS = µ ¶ 5 0 . 0 1 3 −2 0 A := −2 3 0 0 0 1 und V = R3 . Dann ist pA (x) := det(xE3 −A) = (x−5)(x−1)2 , womit A nicht drei paarweise Eigenwerte hat. Jedoch ist A trotzdem diagonalisierbar: verschiedene 0 1 es sind 1 und 0 zwei linear unabhängige Eigenvektoren zum Eigenwert 1 1 0 40 KAPITEL 2. LINEARE ALGEBRA II −1 und 1 ein Eigenvektor zum Eigenwert 0 −1 1 S= 1 1 0 0 gilt 5, womit mit 0 0 1 5 0 0 S −1 AS = 0 1 0. 0 0 1 (3) Sei A= µ cos α − sin α sin α cos α ¶ mit α ∈ (0, π) und sei V = R2 . Damit ist pA (x) := det(xE2 − A) = x2 − 2 cos αx + 1. Dieses Polynom hat zwei echt komplexe Nullstellen, womit diese Matrix über R nicht diagonalisiert werden kann. Über K = C (und V = C2 ) jedoch ist pA (x) = (x − λ1 )(x − λ2 ) mit √ λ1,2 = cos α ± cos2 α − 1 = e±iα , und mit passendem S ist S −1 AS = µ ¶ eiα 0 . 0 e−iα ¶ 1 1 und V = R2 . Dann ist pA (x) := det(xE2 −A) = (x−1)2 , jedoch (4) Sei A = 0 1 µ ¶ 0 (da Ker(A − E2 ) ist jeder Eigenvektor zum Eigenwert 1 ein Vielfaches von 1 von diesem Vektor erzeugt wird); damit besitzt V keine Basis bestehend aus Eigenvektoren von A, und A kann folglich nicht diagonalisiert werden. µ Man bemerke, dass hier die Wahl K = C und V = C2 nicht weiterhilft, da dort immernoch dim Ker(A − E2 ) = 1 < 2 ist. Sei eine Matrix A ∈ Matn×n (K) gegeben. Gesucht ist ein K-Vektorraum V , eine Basis BV von V und ein Endomorphismus f : V → V mit fBBVV = A. Dazu wählt man beispielsweise V = K n und f : V → V , v 7→ Av. Ist dann BV = {e1 , . . . , en }, wobei n = dim V ist und e1 , . . . , en die Standardeinheitsbasisvektoren von V sind, so ist fBBVV = A. 2.1.1 Eigenräume Sei f : V → V ein Endomorphismus und λ ∈ K beliebig. Sei weiter A ∈ Matn×n (K). Definition 2.1.5. Es heisst Eig(f, λ) := {v ∈ V | f (v) = λv} der Eigenraum von f bezüglich λ. 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Bemerkung 2.1.6. Sei A = µ 41 ¶ 1 1 und f : R2 → R2 , v 7→ Av. Dann ist 0 1 µ ¶ 1 i Eig(f, 1) = h 0 und Eig(f, λ) = {0} für alle λ 6= 1. Definition 2.1.7. Es heisst Eig(A, λ) := {x ∈ K n | Ax = λx} der Eigenraum von A bezüglich λ. Lemma 2.1.8. Es sind Eig(f, λ) ⊆ V und Eig(A, λ) ⊆ K n Untervektorräume. Weiterhin gilt Eig(f, λ) 6= {0} genau dann, wenn λ ein Eigenwert von f ist. Beweis. Man sieht sofort, dass 0 ∈ Eig(f, λ) ist, da f (0) = 0 = λ · 0 ist. Sind v1 , v2 ∈ Eig(f, λ) und c1 , c2 ∈ K, so gilt f (c1 v1 + c2 v2 ) = c1 f (v1 ) + c2 f (v2 ) = c1 λv1 + c2 λv2 = λ(c1 v1 + c2 v2 ), womit c1 v1 + c2 v2 ∈ Eig(f, λ) ist. Damit ist Eig(f, λ) ⊆ V ein Unterraum. Analog zeigt man, dass Eig(A, λ) ⊆ K n ein Unterraum ist. Schliesslich gilt λ Eigenvektor ⇐⇒ ∃v ∈ V \ {0} : f (v) = λv ⇐⇒ Eig(f, λ) 6= {0}. Definition 2.1.9. Sei ein Endomorphismus f : V → V und λ ∈ K gegeben. Dann wird µG (f, λ) := dim Eig(f, λ) die geometrische Multiplizität oder geometrische Vielfachheit des Eigenwerts λ von f genannt. Bemerkung 2.1.10. Es gilt µG (f, λ) ≥ 1 genau dann, wenn λ ein Eigenwert von f ist. Definition 2.1.11. Sei A ∈ Matn×n (K). Wir definieren µG (A, λ) := dim Eig(A, λ) als die geometrische Multiplizität oder geometrische Vielfachheit des Eigenwerts λ von A. Definition 2.1.12. Das charakteristische Polynom pA (x) ∈ K[x] von A ist definiert als pA (x) := det(xEn − A). Man nennt µA (A, λ) := max{r ∈ N | (x − λ)r teilt pA (x)} die algebraische Multiplizität oder algebraische Vielfachheit von A bezüglich λ. 42 KAPITEL 2. LINEARE ALGEBRA II ¶ 1 1 . Dann ist Beispiel 2.1.13. Sei A = 0 1 ( 1 falls λ = 1 µG (A, λ) = 0 sonst µ und wegen pA (x) = (x − 1)2 ist ( 2 falls λ = 1 µA (A, λ) = 0 sonst. Beispiele 2.1.14. (a) Sei 3 −2 0 A = −2 3 0 ∈ Mat3×3 (Q); 0 0 1 wir haben gesehen, dass pA (x) = (x − 5)(x − 1)2 ist, und dass 1 falls λ = 5, µG (λ) = 2 falls λ = 1, 0 sonst ist. Hier gilt also µA (A, λ) = µG (A, λ) für alle λ ∈ K. (b) Sei A ∈ Mat28×28 (Q) eine Matrix mit pA (x) = (x − 1)5 (x − 3)6 (x − 5)17 . Dann ist 5 falls λ = 1, 6 falls λ = 3, µA (λ) = 17 falls λ = 5, 0 sonst. Wir nehmen im Folgenden immer an, dass pA (x) über K in Linearfaktoren zerfällt, d.h. es gibt λ1 , . . . , λn ∈ K mit pA (x) = n Y (x − λi ). i=1 Beispiel 2.1.15. Das Polynom x2 +1 ∈ R[x] zerfällt über R nicht in Linearfaktoren, jedoch über C, da dort x2 + 1 = (x + i)(x − i) ist. Bemerkung 2.1.16. Nach dem Fundamentalsatz der Algebra 1.5.7 gibt es zu jedem Körper K und jedem Polynom f ∈ K[x] einen Erweiterungskörper L ⊇ K, über den f in Linearfaktoren zerfällt. Ist K = R oder K = Q, so kann immer L = C gewählt werden. Lemma 2.1.17. Seien λ1 , . . . , λk paarweise verschiedene Elemente aus K. Dann ist k M i=1 eine direkte Summe. Eig(A, λi ) 43 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Beweis. Wir zeigen dies per Induktion nach k. Für k = 1 ist dies klar. Sei v ∈ Pk Eig(A, λi ) mit v = v̂1 + · · · + v̂k = ṽ1 + · · · + ṽk mit v̂i , ṽi ∈ Eig(A, λi ), i=1 i = 1, . . . , k. Es ist zu zeigen, dass v̂i = ṽi ist für i = 1, . . . , k. Nun ist 0 = v − v = (ṽ1 − v̂1 ) + · · · + (ṽk − v̂k ) = v1 + · · · + vk mit vi := ṽi − v̂i ∈ Eig(A, λi ). Es reicht also zu zeigen, dass v1 = · · · = vk = 0 ist. Nun ist 0 = (λ1 En − A)0 = (λ1 En − A)v1 + (λ1 En − A)v2 + · · · + (λ1 En − A)vk = (λ1 − λ1 ) v1 + (λ1 − λ2 ) v2 + · · · + (λ1 − λk ) vk . | {z } | {z } | {z } =0 6=0 6=0 Wendet man die Induktionsvoraussetzung auf λ2 , . . . , λk an, so erhält man (λ1 − λi )vi = 0, i = 2, . . . , k, und da λ1 − λi 6= 0 für i = 2, . . . , k folgt vi = 0 für i = 2, . . . , k. Damit ist auch 0 = v1 , womit wir fertig sind. Lemma 2.1.18. Sei A ∈ Matn×n (K) und S ∈ Gln (K). Dann ist pA (x) = pS −1 AS (x). Beweis. Es ist pA (x) = det(xEn − A) = det(xSS −1 − S(S −1 AS)S −1 ) = det(S · (xEn − S −1 AS)S −1 ) = det S · pA (x) · det S −1 . Nun ist det S · det S −1 = det(SS −1 ) = det En = 1, womit die Behauptung folgt. Korollar 2.1.19. Sei A ∈ Matn×n (K) mit den Eigenwerten λ1 , . . . , λn . Dann ist Spur A = n X λi und det A = i=1 n Y λi . i=1 Insbesondere sind Spur A und det A invariant unter Basiswechseln. Beweis. Sei pA (x) = n Y i=1 n (x − λi ) = x − n ³X i=1 n ´ Y n−1 n λi x + · · · + (−1) λi . i=1 Weiterhin ist pA (x) = det(xEn − A) = xn − (Spur A)xn−1 + · · · + det(−A). Da det(−A) = (−1)n det A ist folgt also die Behauptung. Lemma 2.1.20. Für alle λ gilt µG (A, λ) ≤ µA (A, λ). Beweis. Sei v1 , . . . , vk ∈ K n eine Basis von Eig(A, λ) und seien vk+1 , . . . , vn ∈ K n so gewählt, dass v1 , . . . , vn eine Basis von K n ist. Durch einen passenden Basiswechsel erhalten wir (beachte, die algebraische Vielfachheit nach dem vorherigen Lemma 44 KAPITEL 2. LINEARE ALGEBRA II nicht von der gewählten Basis abhängt) vi = ei , der i-te Standardeinheitsbasisvektor. Damit ist λ 0 ··· 0 . . . . .. ∗ . 0 . . . . .. .. ... 0 A= 0 · · · 0 λ 0 · · · · · · 0 . . .. .. A′ 0 ··· ··· 0 und somit pA (x) = det(xEn − A) x − λ 0 ··· 0 .. ... ... . 0 . . . .. .. .. 0 = det 0 ··· 0 x − λ 0 ··· ··· 0 . .. .. . 0 ··· ··· 0 ∗ xEn−k − A′ Insbesondere ist jedoch µA (A, λ) ≥ k = µG (A, λ). = (x − λ)k pA′ (x). Satz 2.1.21. Angenommen, pA (x) zerfalle über K in Linearfaktoren. Genau dann ist A diagonalisierbar, wenn µA (A, λ) = µG (A, λ) für alle λ ∈ K gilt. Beweis. Seien λ1 , . . . , λk die verschiedenen Eigenwerte von A. Dann ist k Y pA (x) = (x − λi )µA (A,λi ) i=1 und es gilt k X µA (A, λi ) = n = grad pA (x). i=1 Gilt nun µA (A, λ) = µG (A, λ) für alle λ ∈ K, so hat man dim Eig(A, λi ) = µA (A, λi ) für i = 1, . . . , k. Wir zeigen n K = k M Eig(A, λi ), i=1 woraus folgt, dass K n eine Basis bestehend aus Eigenvektoren von A besitzt und somit A diagonalisierbar ist. Pk Nun wissen wir, dass dim Eig(A, λi ) = n = dim K n ist, und nach dem i=1 Lk ersten vorherigen Lemma ist i=1 Eig(A, λi ) ⊆ K n eine direkte Summe, also dim k M Eig(A, λi ) = i=1 Damit ist Lk i=1 Eig(A, λi ) = K n . k X i=1 dim Eig(A, λi ) = n. 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 45 n Nun zur Rückrichtung. Wenn A diagonalisierbar Lk ist, so hat K eine Basis beste-n hend aus Eigenvektoren von A. Damit enthält i=1 Eig(A, λi ) eine Basis von K L P und somit muss ki=1 Eig(A, λi ) = K n sein, also auch n = ki=1 dim Eig(A, λi ) = Pk λ ). Da nach dem vorherigen Lemma µG (A, λi ) ≤ µA (A, λi ) ist und i=1 µG (A, Pk i ebenfalls i=1 µA (A, λi ) = n ist, muss also µG (A, λi ) = µA (A, λi ) sein für alle i. 2.1.2 Jordan-Zerlegung Wir nehmen an, dass wir eine Matrix A ∈ Matn×n (K) haben und den zugehörigen Endomorphismus f : K n → K n , v 7→ Av. Dann ist A = fBB mit B = {e1 , . . . , en }, wobei e1 , . . . , en die Standardeinheitsbasisvektoren sind. Wir nehmen an, dass pA (x) über K in Linearfaktoren zerfällt, etwa pA (x) = k Y i=1 (x − λi )µi , wobei die λ1 , . . . , λk paarweise verschieden seien und µi ∈ N>0 , i = 1, . . . , k. Damit sind λ1 , . . . , λk alle Eigenwerte von A mit algebraischen Vielfachheiten µA (A, λi ) = µi . Im letzten Abschnitt haben wir gesehen, dass A genau dann diagonalisierbar ist, wenn k M Kn = Eig(A, λi ) i=1 ist. Die Summe auf der rechten Seite ist immer direkt, im Allgemeinen ist sie jedoch ein echter Untervektorraum von K n . Definition 2.1.22. Sei λ ∈ K. Dann heisst VEig(A, λ) := {v ∈ K n | ∃s ∈ N : (λEn − A)s v = 0} der verallgemeinerte Eigenraum oder Hauptraum von A bezüglich λ. Bemerkung 2.1.23. Man hat immer Eig(A, λ) ⊆ VEig(A, λ). ¶ µ 5 7 ∈ Mat2×2 (Q). Dann ist pA (x) = (x − 5)2 . Es ist Beispiel 2.1.24. Sei A = 0 5 µ ¶ 1 i Eig(A, 5) = h 0 und VEig(A, 5) = Q2 , da (5E2 − A)2 = 0 ist. Definition 2.1.25. Sei f : V → V ein Endomorphismus und W ⊆ V ein Untervektorraum. Wir sagen, dass W f -invariant sei, wenn f (W ) ⊆ W gilt. Ist A ∈ Matn×n (K) und f : K n → K n , v 7→ Av der zugehörige Endomorphismus, so heisst W A-invariant, wenn W f -invariant ist. Bemerkung 2.1.26. Ist W := VEig(A, λ) und G := λEn −A, so ist W G-invariant. Allgemeiner gilt: 46 KAPITEL 2. LINEARE ALGEBRA II Lemma 2.1.27. Seien λ, λ′ ∈ K und V = VEig(A, λ). Dann ist V A-invariant und (A − λ′ En )-invariant. P ¡¢ Beweis. Dazu beachte, dass (λEn − A)s = si=0 si λi (−A)s−i ist und somit s s µ ¶ X s λi (−1)s−i As−i+1 i i=0 s µ ¶ X s i =A λ (−A)s−i = A(λEn − A)s i i=0 (λEn − A) A = ist; ist also v ∈ VEig(A, λ), und s ∈ N mit (λEn − A)s v = 0, so ist (λEn − A)s Av = A(λEn − A)s v = A · 0 = 0, also Av ∈ VEig(A, λ). Ebenso zeigt man, dass (λEn − A)s (A − λ′ En ) = (A − λ′ En )(λEn − A)s ist, womit die V -Invarianz von A − λ′ En folgt. Lemma 2.1.28. Für jedes λ ∈ K besitzt VEig(A, λ) ein A-invariantes Komplement, d.h. es gibt einen A-invarianten Untervektorraum W ⊆ K n mit VEig(A, λ) ⊕ W = K n . Es gibt ein s ∈ N so, dass man W = Im(A − λEn )s wählen kann. Beispiel 2.1.29. Sei Dann ist 5 7 0 A := 0 5 0 ∈ Mat3×3 (Q). 0 0 3 1 Eig(A, 5) = h 0i 0 und wie man leicht sieht, ist und 0 1 VEig(A, 5) = h 0 , 1i, 0 0 0 h 0i 1 ein A-invarianter Unterraum. Damit ist 0 VEig(A, 5) ⊕ h 0i = Q3 . 1 Beweis des Lemmas. Betrachte G := λEn − A. Wir betrachten die folgenden zwei Ketten von Untervektorräumen: (i) {0} ⊆ Ker G ⊆ Ker G2 ⊆ Ker G3 ⊆ . . . und (ii) K n ⊇ Im G ⊇ Im G2 ⊇ Im G3 ⊇ . . . . Es gilt Ker Gi ⊆ VEig(A, λ) für alle i ∈ N. Sei s ∈ N ein Index mit Im Gs = Im Gs+1 ; ein solches s muss es geben, da dim K n = n < ∞ ist. Nun gilt Im Gs+i = Im Gs für alle i ∈ N: wir zeigen dies per Induktion. Gelte die Behauptung für alle i < j; dann ist Im Gs+j = Im GGs+j−1 = G Im Gs+j−1 = G Im Gs = Im Gs+1 = Im Gs . 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 47 Wegen der Dimensionsformel (Satz 1.6.24) gilt dim Ker Gs+i = n − dim Im Gs+i = n − dim Im Gs = dim Ker Gs für alle i ∈ N, womit Ker Gs+i = Ker Gs gilt für alle i ∈ N. Damit ist insbesondere Ker Gs+i = VEig(A, λ) für alle i ∈ N. Insbesondere gilt also dim VEig(A, λ) + dim Im Gs = n. Nun ist V := Im Gs G-invariant; es gilt sogar GV = V . Damit ist AV = (A − λEn + λEn )V ⊆ (A − λEn )V + λEn V = GV + λV = V. Wegen GV = V ist auch Gs V = V , weswegen die Einschränkung Gs |V : V → V surjektiv und somit, da V endlichdimensional ist, ebenfalls injektiv ist. Da Ker(Gs |V ) = Ker Gs ∩ V ist, ist somit VEig(A, λ) ∩ V = Ker Gs ∩ V = {0}. Damit und mit dim V + dim VEig(A, λ) = n folgt K n = V ⊕ VEig(A, λ). Lemma 2.1.30. Seien λ, λ′ ∈ K mit λ 6= λ′ . Dann ist (A − λEn )|VEig(A,λ′ ) : VEig(A, λ′ ) → VEig(A, λ′ ) ein Isomorphismus, und VEig(A, λ) ∩ VEig(A, λ′ ) = {0}. Beweis. Sei v ∈ VEig(A, λ′ ) mit (A − λEn )v = 0. Per Definition gibt es ein s ∈ N mit (A − λ′ En )s v = 0. Nun ist jedoch 0 = (A − λ′ En )s v = ((A − λEn ) + (λ − λ′ )En )s v s µ ¶ X s = (A − λEn )i ((λ − λ′ )En )s−i v = (λ − λ′ )s v, i i=0 da (A − λEn )i ((λ − λ′ )En )s−i v = (λ − λ′ )s−i (A − λEn )i v = (λ − λ′ )s−i 0 = 0 ist für alle i > 0. Nun ist jedoch λ − λ′ 6= 0, womit v = 0 sein muss. Somit ist (A − λEn )|VEig(A,λ′ ) injektiv und (da es ein Endomorphismus endlichdimensionaler Vektorräume ist) bijektiv. Ist nun v ∈ VEig(A, λ) ∩ VEig(A, λ′ ), so gilt (A − λEn )s v = 0 für ein s ∈ N. Sei s minimal gewählt mit dieser Eigenschaft. Ist s > 0, so ist (A − λEn )s−1 v ∈ Ker(A − λEn ), und (A − λEn )s−1 v ∈ VEig(A, λ′ ) da VEig(A, λ′ ) A-invariant und somit auch (A−λEn )s−1 -invariant ist. Nach obiger Rechnung ist dann jedoch (A−λEn )s−1 v = 0, ein Widerspruch zur Minimalität von s. Somit muss s = 0 sein und damit v = 0. Lemma 2.1.31. Sind λ, λ′ ∈ K mit λ 6= λ′ , und ist K n = VEig(A, λ) ⊕ V mit einem A-invarianten Unterraum V von K n , so gilt VEig(A, λ′ ) ⊆ V . Beweis. Sei v ∈ VEig(A, λ′ ). Schreibe v = v1 + v2 mit v1 ∈ VEig(A, λ) und v2 ∈ V . Nun ist (A − λ′ )s v = 0 für ein s ∈ N, womit (da VEig(A, λ) und V A-invariant sind) (A−λ′ )s v1 = 0 und (A−λ′ )s v2 = 0 ist. Also ist v1 ∈ VEig(A, λ)∩VEig(A, λ′ ) = {0}, womit v = v2 ∈ V ist. 48 KAPITEL 2. LINEARE ALGEBRA II Lemma 2.1.32. Sei A ∈ Matn×n (K). (a) Sei W ⊆ K n ein A-invarianter Untervektorraum. Das charakteristische Polynom von A|W teilt das charakteristische Polynom von A. Zerfällt also das charakteristische Polynom von A in Linearfaktoren, so auch das charakteristische Polynom von A|W . (b) Sei λ ein Eigenwert von A. Dann gilt µA (A, λ) = dim VEig(A, λ), und pA|VEig(A,λ) (x) = (x − λ)dim VEig(A,λ) . Wir benutzen im Beweis von Teil (b) des Lemmas die Aussage, dass jede Matrix A ∈ Matn×n (K) mit n > 0 einen Eigenwert hat. Dazu ist es eventuell nötig, den Körper K zu erweitern (etwa von R nach C überzugehen, oder allgemein zu einem algebraischen Abschluss von K). Im Beweis zeigt sich jedoch, dass jeder solche Eigenwert bereits in K liegt. Weiterhin wollen wir folgende Abkürzung einführen: ist A ∈ Matn×n (K) eine Matrix, so definiert diese einen Endomorphismus K n → K n , v 7→ Av. Ist nun U ⊆ K n ein Untervektorraum mit Au ∈ U für alle u ∈ U (oder anders geschrieben AU ⊆ U , also U ist A-invariant), so schreiben wir A|U sowohl für die Einschränkung dieses induzierten Endomorphismus auf U , also für den Endomorphismus U → U , u 7→ Au, als auch für eine Darstellungsmatrix dieses Endomorphismus für eine (beliebige, aber fest gewählte) Basis von U . Die konkrete Form der Darstellungsmatrix (die von der gewählten Basis abhängt) ist für die nächsten beiden Beweise (und auch später, wenn diese Notation erneut verwendet wird) unwichtig; daher wollen wir auf die technisch korrekte, aber umständliche Behandlung dieses Problems durch Basiswechselmatrizen etc. verzichten. Beweis. (a) Sei {v1 , . . . , vk } eine Basis von W , die zu einer Basis {v1 , . . . , vk , vk+1 , . . . , vn } von K n fortgesetzt sei. Sei A|W die Darstellungsmatrix von A eingeschränkt auf W bezüglich der Basis {v1 , . . . , vk }; dann hat die Darstellungsmatrix von A bezüglich der Basis {v1 , . . . , vn } die Form ¶ µ A|W B 0 C mit B ∈ Matk×(n−k) (K) und C ∈ Mat(n−k)×(n−k) (K). Insbesondere gilt dann ¶ µ xEk − A|W −B pA (x) = det(xEn − A) = det 0 xEn−k − C = det(xEk − A|W ) · det(xEn−k − C) = pA|W (x)pC (x). (b) Sei W ⊆ K n ein A-invarianter Untervektorraum mit K n = VEig(A, λ)⊕W (siehe Lemma 2.1.28). Nun ist pA|W (λ) 6= 0, da ansonsten A|W den Eigenwert λ hätte und somit W ∩ Eig(A, λ) 6= {0} wäre. Es gilt also µA (A, λ) ≤ dim VEig(A, λ). Ist λ′ ein Eigenwert (möglicherweise in einem Erweiterungskörper von K) von A|VEig(A,λ) mit einem Eigenvektor v, so gibt es ein s ∈ N mit (A − λEn )s v = 0. Nun ist jedoch (A − λEn )v = (λ′ − λ)v und somit 0 = (A − λEn )s v = (λ′ − λ)s v, womit λ′ − λ = 0 sein muss. Damit hat A|VEig(A,λ) das charakteristische Polynom pA|VEig(A,λ) (x) = (x − λ)dim VEig(A,λ) , und da dieses nach Teil (a) pA (x) teilt, folgt µ(A, λ) ≥ dim VEig(A, λ). 49 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Satz 2.1.33 (Hauptsatz der Hauptraumzerlegung). Sei A ∈ Matn×n (K) so, dass das charakteristische Polynom pA (x) in Linearfaktoren zerfalle, und seien λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von A. Dann gilt Kn = k M VEig(A, λi ). i=1 Beweis. Wir beweisen die Aussage per Induktion nach n. Wir benutzen hier unter anderen, dass die Einschränkung eines Endomorphismus auf einen Vektorraum von Dimension > 0 mindestens einen Eigenwert hat, dass also aus k = 0 folgt, dass n = 0 sein muss. L Ist n = 0, so hat A keinen Eigenwert und damit gilt K n = {0} = 0i=1 VEig(A, λi ). Sei n > 0. Nach Lemma 2.1.28 ist K n = VEig(A, λ1 ) ⊕ R1 , wobei R1 A-invariant ist. Betrachte A1 := A|R1 : R1 → R1 , v 7→ Av. Nach Lemma 2.1.32 ist k Y (x − λi )dim VEig(A,λi ) = pA (x) = pA|VEig(A,λ1 ) (x) · pA|R1 (x) i=1 = (x − λ1 )dim VEig(A,λ1 ) · pA|R1 (x), womit A|R1 gerade die Eigenwerte λ2 , . . . , λn hat und das charakteristische Polynom von A|R1 in Linearfaktoren zerfällt. Nach Induktionsvoraussetzung gilt also R1 = k M VEig(A|R1 , λi ). i=2 Nun ist VEig(A|R1 , λi ) = VEig(A, λi ) ∩ R1 = VEig(A, λi ) für i = 2, . . . , k nach Lemma 2.1.31. Damit ist n K = VEig(A, λ1 ) ⊕ 2.1.3 k M VEig(A, λi ) = i=2 k M VEig(A, λi ). i=1 Geometrische Interpretation der verallgemeinerten Eigenräume und Bemerkungen zur Numerik In diesem Abschnitt sei stets K = R. Betrachte A : K n → K n , v 7→ Av. Seien λ1 , . . . , λk die Eigenwerte von A und VEig(A, λ1 ), . . . , VEig(A, λk ) die verallgemeinerten Eigenräume von A. Ist v = v1 + · · · + vk mit vi ∈ VEig(A, λi ), so interessiert uns die Folge der Vektoren {v, Av, A2 v, A3 v, . . . , A10000 v, . . . } ⊆ V. Besonders interessant ist auch die Folge der Geraden {hvi, hAvi, hA2 vi, . . . }. Ohne Einschränkung wählen wir v ∈ VEig(A, λ) für ein λ ∈ {λ1 , . . . , λk }. Man kann zeigen, dass die Folge der Geraden {hAi vi | i ∈ N} gegen eine Gerade im Eigenraum Eig(A, λ) konvergiert. 50 KAPITEL 2. LINEARE ALGEBRA II ¶ λ 0 mit λ ∈ R \ {0}. Diese Matrix hat nur einen Beispiel 2.1.34. Sei A = 1 λ µ ¶ 0 i und VEig(A, λ) = R2 . Sei v0 = Eigenwert, nämlich λ, und Eig(A, λ) = h 1 µ ¶ x0 6∈ Eig(A, λ) ein beliebiger Vektor. Wir betrachten die Folge y0 µ vn+1 µ ¶ xn+1 := := Avn = An+1 v0 , yn+1 n ∈ N. Die Steigung der Geraden hvn+1 i = hAn+1 v0 i beträgt yn+1 xn + λyn yn 1 = = + . xn+1 λxn xn λ Die Steigung geht also gegen ∞ (falls λ > 0) bzw. −∞ (falls λ < 0), die Gerade konvergiert also gegen die y-Achse (welche gleich dem Eigenraum Eig(A, λ) ist). Beispiel 2.1.35. Sei 5 7 0 A = 0 5 0. 0 0 3 Was passiert mit einer beliebigen Gerade hv0 i mit x0 v0 := y0 ∈ R3 \ {0}, z0 wenn man die Folge hvn i, n ∈ N mit vn := An v0 betrachtet? Es ist 0 0 1 und VEig(A, 3) = h 0i, VEig(A, 5) = h 0 , 1 i 1 0 0 womit v = v1 + v2 ist mit x0 0 v1 = y0 ∈ VEig(A, 5) und v2 = 0 ∈ VEig(A, 3) = Eig(A, 3). 0 z0 Damit ist An v = An v1 + An v2 = An v1 + 3n v2 . Hier konvergiert hAn v1 i gegen 1 Eig(A, 5) = h0i. 0 In der Numerik werden mit solchen Iterationen die “grössten” Eigenwerte und damit die verallgemeinerten Eigenräume von λi berechnet. 51 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 2.1.4 Eine algebraische Interpretation der Zerlegung in verallgemeinerte Eigenräume Nach der geometrischen, numerischen Interpretation der verallgemeinerten Eigenräume aus dem letzten Abschnitt, die nur für Körper wie R oder C funktioniert, wollen wir nun eine rein algebraische Interpretation angeben, die über jeden Körper funktioniert. Sei A ∈ Matn×n (K). Lemma 2.1.36. Ist W ⊆ K n ein A-invarianter Untervektorraum und ist W ∩ VEig(A, λ) 6= {0} für ein λ ∈ K, so ist W ∩ Eig(A, λ) 6= {0}. Beweis. Sei v ∈ VEig(A, λ) ∩ W , v 6= 0. Dann gibt es ein s ∈ N mit (A − λ)s v = 0. Sei s minimal mit dieser Eigenschaft; insbesondere sei also (A − λ)s−1 v 6= 0. Da (A − λ)[(A − λ)s−1 v] = (A − λ)s v = 0 ist, ist somit (A − λ)s−1 v ∈ Eig(A, λ) \ {0}, und da W A-invariant und somit auch (A − λ)-invariant ist, ist ebenfalls (A − λ)s−1 v ∈ W . Bemerkung 2.1.37. Lemma 2.1.36 besagt, dass insbesondere jeder nicht-triviale W -invariante Untervektorraum von VEig(A, λ) den Eigenraum Eig(A, λ) nicht-trivial schneidet. Man kann es als die algebraische Interpretation der Konvergenz aus dem letzten Abschnitt auffassen: die Geradenschar hAn vi, n ∈ N kann man durch den von allen diesen Geraden erzeugen Untervektorraum W := hv, Av, A2 v, . . .i ersetzen: dieser ist A-invariant. Schneidet er nun einen verallgemeinerten Eigenraum, so muss er auch dessen darin enthaltenden Eigenraum schneiden: die Geraden konvergieren also sozusagen gegen eine Gerade, die durch Eigenvektoren beschrieben werden kann. Lemma 2.1.38. Seien λ1 , . . . , λk ∈ K paarweise verschiedene Elemente und W ⊆ k M VEig(A, λi ) i=1 ein A-invarianter Untervektorraum. Dann gilt k M W = (VEig(A, λi ) ∩ W ). i=1 Beweis. Das die Summen direkt sind folgt aus Satz 2.1.33. Die Inklusion “⊇” ist ebenfalls klar. Wie üblich zeigen wir dies per Induktion nach k. Sei w ∈ W und schreibe w= k X vi i=1 mit vi ∈ VEig(A, λi ). Sei s ∈ N mit (A − λk En )s vk = 0. Nun ist s (A − λk En ) w = k X i=1 s (A − λk En ) vi = k−1 X i=1 (A − λk En )s vi . 52 KAPITEL 2. LINEARE ALGEBRA II Nun sind W und die VEig(A, λi ), 1 ≤ i ≤ k jeweils (A − λk En )-invariant, womit (A−λk En )s vi ∈ VEig(A, λi ) und (A−λk En )s ∈ W ist. Per Induktionsvoraussetzung folgt nun (A − λk En )s vi ∈ W ∩ VEig(A, λi ), 1 ≤ i < k. Nun ist G := A − λk En auf VEig(A, λi ), i < k ein Automorphismus, und da W ∩ VEig(A, λi ) G|VEig(A,λi ) -invariant ist, folgt G(W ∩ VEig(A, λi )) = W ∩ VEig(A, λi ). Insbesondere folgt aus Gs vi ∈ VEig(A, λi ) ∩ W , dass auch vi ∈ W ∩ VEig(A, λi ) ist, 1 ≤ i < k. Schliesslich ist auch vk = w − k−1 X i=1 vi ∈ W, womit wir fertig sind. Bemerkung 2.1.39. Lemma 2.1.38 besagt, dass man A-invariante Untervektorräume näher unterteilen kann, indem man deren Schnitte mit den verallgemeinerten Eigenräumen betrachtet: diese zusammen ergeben wieder den ganzen A-invarianten Unterraum. Der folgende Satz gibt nun eine Interpretation der Hauptraumzerlegung als die feinste A-invariante Zerlegung mit der Eigenschaft aus Lemma 2.1.38: Satz 2.1.40. L Seien λ1 , . . . , λk ∈ K paarweise verschiedene Elemente und seien W1 , . . . , Wℓ ⊆ ki=1 VEig(A, λi ) A-invariante Untervektorräume so, dass Lℓ (i) j=1 Wj eine direkte Summe ist; und dass (ii) für jeden A-invarianten Untervektorraum W ⊆ Lℓ j=1 Wj gilt ℓ M W = (Wj ∩ W ). (∗) j=1 Dann gibt es zu jedem j ∈ {1, . . . , ℓ} eine natürliche Zahl nj ∈ N und Indices 1 ≤ ij1 < · · · < ijnj ≤ k mit Wj = nj M VEig(A, λiji ), i=1 1 ≤ j ≤ ℓ. Somit ist die Hauptraum-Zerlegung also die L feinste Zerlegung, welche die Eigenschaft (∗) für A-invariante Unterräume W ⊆ ki=1 VEig(A, λi ) erfüllt. Beweis. Wegen der Zerlegungseigenschaft ist VEig(A, λi ) = ℓ M (VEig(A, λi ) ∩ Wj ). j=1 Wir wollen zuerst zeigen, dass es höchstens ein j gibt mit VEig(A, λi ) ∩ Wj 6= {0}. Dazu nehmen wir an, dass es zwei solche Indices 1 ≤ j1 < j2 ≤ ℓ mit VEig(A, λi )∩ Wj1 6= {0} 6= VEig(A, λi ) ∩ Wj2 gibt. Nach Lemma 2.1.36 gibt es dann vt ∈ (Eig(A, λi ) ∩ Wjt ) \ {0}, t = 1, 2. Betrachte den eindimensionalen Unterraum W := L span{v1 +v2 } ⊆ Eig(A, λi ); dieser ist insbesondere A-invariant und liegt in ℓj=1 Wj . 53 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Da v1 + v2 6∈ Wj1 und v1 + v2 6∈ Wj2 , jedoch v1 + v2 ∈ Wj1 ⊕ Wj2 ist, kann jedoch nicht ℓ M W = (Wj ∩ W ) j=1 gelten, ein Widerspruch. Somit gilt entweder VEig(A, λi ) ∩ Wj = {0} oder VEig(A, λi ) ⊆ Wj für alle i und j. Wegen der Zerlegungseigenschaft der Haupträume (Lemma 2.1.38) gilt somit k M Wj = (VEig(A, λi ) ∩ Wj ) = i=1 M VEig(A, λi ), VEig(A,λi )⊆Wj was zu zeigen war. 2.1.5 Die Jordansche Normalform Sei A eine Matrix mit k Y pA (x) = (x − λi )µA (A,λi ) , i=1 λ1 , . . . , λm ∈ K paarweise verschieden. Wir haben gesehen, dass dann n K = k M VEig(A, λi ) i=1 gilt. Dazu korrespondiert eine Basis B von K n so, dass mit der Basiswechselmatrix S = (IdK n )BS gilt (hier ist S = {e1 , . . . , en } die Standardbasis des K n ) B1 0 B2  = S −1 AS = . . . 0 Bk wobei Bi eine quadratische Matrix der Grösse dim VEig(A, λi ) ist und der Einschränkung von A auf VEig(A, λi ) entspricht. Wir wollen im folgenden sehen, dass sich B so wählen lässt, dass die Bi eine sehr einfache Form haben. Im Folgenden sei B eine µ × µ-Matrix mit genau einem Eigenwert λ. Wir definieren N := λEµ − B. Lemma 2.1.41. Die Matrix N ist nilpotent, es gibt also ein k ∈ N mit N k = 0. Beweis. Betrachte die Sequenz von Unterräumen {0} ⊆ Ker N ⊆ Ker N 2 ⊆ Ker N 3 ⊆ . . . S Nun ist k∈N Ker N k = VEig(B, λ) = K µ . Weiterhin kann Ker N k nur für endlich viele k echt grösser werden (da dim Ker N k ∈ {1, . . . , µ} monoton steigt), womit es ein k ∈ N gibt mit Ker N k = K µ . Aber dies bedeutet gerade, dass N k = 0 ist. Definition 2.1.42. Sei N eine nilpotente Matrix. Dann heisst d := min{k ∈ N | N k = 0} der Nilpotenzindex von N . 54 KAPITEL 2. LINEARE ALGEBRA II Bemerkung 2.1.43. Ist N ∈ Matn×n (K) nilpotent, so ist der Nilpotenzindex ≤ n. Beweis. Sei d der Nilpotenzindex von N . Betrachte die aufsteigende Sequenz {0} = Ker N 0 ⊆ Ker N 1 ⊆ Ker N 2 ⊆ · · · ⊆ Ker N d = K n . Ist nun Ker N i = Ker N i+1 für ein i, so gilt Ker N i+2 = Ker N i und somit, per Induktion, Ker N i+j = Ker N i für alle j ∈ N. Damit muss Ker N i $ Ker N i+1 gelten für i = 0, . . . , d − 1, und n = dim K n = dim Ker N d ≥ dim Ker N d−1 + 1 ≥ dim Ker N d−2 + 2 ≥ · · · ≥ Ker N 0 + d = d. Lemma 2.1.44. Ist N ∈ Matn×n (K) eine nilpotente Matrix, so ist En − N invertierbar. Beweis. Sei d der Nilpotenzindex von N . Dann ist (En − N ) · d−1 X i N = i=0 d−1 X i=0 i N − d−1 X i=0 N i+1 = N 0 − N d = En . Lemma 2.1.45. Sei N eine nilpotente Matrix und es sei v ∈ K n mit N d−1 v 6= 0. Dann ist {v, N v, . . . , N d−1 v} linear unabhängig. Beweis. Sei 0= d−1 X ci N i v i=0 mit c0 , . . . , cd−1 ∈ K. Damit ist 0=N d−1 0= d−1 X ci N d−1+i v = c0 N d−1 v, i=0 womit c0 = 0 sein muss da N d−1 v 6= 0 ist. Weiter ist 0=N d−2 0= d−1 X ci N d−2+i v = c1 N d−1 v, i=1 womit c1 = 0 folgt, und durch Anwenden von N d−3 , . . . , N, En erhält man c2 = · · · = cd = 0. Definition 2.1.46. Ein Jordan-Block r × r-Matrix Jr (λ), λ ∈ K der Form λ 0 . Jr (λ) := .. . .. oder Jordan-Kästchen der Grösse r ist eine 1 ... ... 0 ··· 0 ··· 0 . . . . . . .. . ... ... 0 . ... ... 1 ··· 0 λ 55 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Eine Jordanmatrix ist eine Blockdiagonalmatrix der Form Jr1 (λ1 ) 0 ... 0 Jrk (λk ) mit r1 , . . . , rk ∈ N und λ1 , . . . , λk ∈ K (nicht notwendigerweise verschieden). Beispiel 2.1.47. Die Matrix λ 1 0 λ J = 0 0 λ 1 0 0 λ 1 0 0 λ ist eine Jordanmatrix und N = A − λE5 ist nilpotent mit Nilpotenzindex 3. Das Ziel der Jordanzerlegung ist es, eine Basis B von K n zu finden so, dass S AS eine Jordanmatrix ist, wobei S = (IdK n )BS die Basiswechselmatrix von der Standardbasis S = {e1 , . . . , en } zu der Basis B ist. Wir wollen dies zuerst für eine nilpotente Matrix N = B − λEµ durchführen; indem wir dies für jedes Ni = Bi − λEµi durchführen, erhalten wir eine Basis B von K n mit  = S −1 AS einer Jordanmatrix, S = (IdK n )BS . Wir betrachten die zwei Ketten von Untervektorräumen −1 {0} = Ker N 0 $ Ker N $ Ker N 2 $ · · · $ Ker N d−1 $ Ker N d = K µ und K n = Im N 0 % Im N % Im N 2 % · · · % Im N d−1 % Im N d = {0}. Es gilt immer dim Ker N i + dim Im N i = µ, i = 0, . . . , d; imµAllgemeinen gilt jedoch ¶ 0 1 .) nicht Ker N i + Im N i = K µ . (Betrachte zum Beispiel N = 0 0 Es sei Si := Im N i−1 ∩ Ker N , i = 1, . . . , d. Dann gilt Ker N = S1 ⊇ S2 ⊇ · · · ⊇ Sd 6= {0}. (Beachte, dass Sd 6= {0} ist, da Im N d−1 ⊆ Ker N gilt wegen N Im N d−1 = Im N d = Im 0 = {0}.) In Sd wähle eine Basis Bd = {x1i | i = 1, . . . , nd } mit nd = dim Sd . Da x1i ∈ Im N d−1 gibt es xdi ∈ K µ mit N d−1 xdi = x1i . Definiere xki := N d−k xdi , k = 1, . . . , d − 1. Erweitere nun die Basis Bd von Sd zu einer Basis Bd−1 = {x11 , . . . , x1nd , y11 , . . . , yn1 d−1 } von Sd−1 mit nd−1 + nd = dim Sd−1 . Finde wieder y1d−1 , . . . , ynd−1 mit N d−2 yid−1 = yi1 , d−1 i = 1, . . . , nd−1 und definiere yiℓ := N d−1−ℓ yid−1 , ℓ = 1, . . . , d − 2. 56 KAPITEL 2. LINEARE ALGEBRA II Fährt man so fort, so erhält man ein Schema wie folgt: Sd : xdi Sd−1 : xid−1 Sd−2 : xid−2 .. . .. . .. . .. . .. S1 : x1i yj1 zk1 ··· a1ℓ ··· 0 ² ² yjd−1 ² yjd−2 ² zkd−2 ² ² ² ² 0 ² 0 0 . ² Hier zeigen Pfeile nach unten (↓) eine Anwendung von N an. Wir behaupten nun, dass die Gesamtheit der Vektoren in diesem Schema (ausser der letzten Zeile mit den Nullvektoren) eine Basis von K µ bildet. Pd Eine notwendige Bedingung ist, dass ihre Anzahl gleich µ ist. Die Anzahl ist i=1 dim Si . Betrachte die lineare Abbildung ϕ : Ker N i → Im N i−1 ∩ Ker N, v 7→ N i−1 v. Da Ker N i−1 ⊆ Ker N i ist Ker N i−1 = Ker ϕ, womit nach der Dimensionsformel 1.6.24 dim Ker N i − dim Ker N i−1 = dim Im ϕ ist. Ist nun v ∈ Im N i−1 ∩ Ker N , so gibt es ein w ∈ V mit N i−1 w = v, und es gilt N i w = N N i−1 w = N v = 0. Damit ist w ∈ Ker N i , womit ϕ(w) = v ist. Also ist Im ϕ = Im N i−1 ∩ Ker N und somit ist dim Si = dim(Im N i−1 ∩ Ker N ) = dim Ker N i − dim Ker N i−1 . Daraus wiederum folgt d X i=1 dim Si = dim Ker N d − dim Ker N 0 = dim K µ − dim{0} = µ, was zu zeigen war. Es reicht also zu zeigen, dass die Vektoren linear unabhängig sind. Sei nd−1 d−1 nd X d X XX k ci,k xi + dj,k yjk + · · · = 0 i=1 k=1 j=1 k=1 mit ci,k , dj,k , . . . ∈ K. Multipliziert man diese Gleichung mit N d−1 , so erhält man nd X ci,d x1i = 0, i=1 womit ci,d = 0 ist für i = 1, . . . , nd . Multipliziert man die Gleichung mit N d−2 , so erhält man nd−1 nd X X 1 ci,d−1 xi + cj,d−1 yj1 = 0, i=1 j=1 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 57 womit ci,d−1 = dj,d−1 = 0 ist für i = 1, . . . , nd und j = 1, . . . , nd−1 . So fortfahrend erhält man schliesslich, dass alle Koeffizienten gleich 0 sind. Schliesslich rechnet man noch leicht nach, dass die Darstellungsmatrix von B bezüglich dieser neuen Basis gerade in Jordanscher Normalform ist: Da N xti = xt−1 i ist für t = 1, . . . , d und N x1i = 0, ist somit Bxti = λxti + xt−1 , t = 1, . . . , d und i Bx1i = λx1i . Damit hat die Einschränkung von B auf span{x1i , x2i , . . . , xdi } bezüglich der Basis {x1i , . . . , xdi } die Darstellungsmatrix Jd (λ). Folglich liefern die xti genau nd Jordankästchen der Grösse d zum Eigenwert λ. Genauso liefern die yjs genau nd−1 Jordankästchen der Grösse d − 1 zum Eigenwert λ, etc. Damit haben wir einen Grossteil des Beweises von folgendem Satz erledigt: Satz 2.1.48 (Satz über die Jordansche Normalform). Zerfällt das charakteristische Polynom von A ∈ Matn×n (K) in Linearfaktoren, so besitzt A eine Jordansche Normalform, d.h. es gibt eine Transformationsmatrix T ∈ Gln (K) so, dass T −1 AT in Jordanform ist. Die Jordansche Normalform ist eindeutig bis auf die Reihenfolge der Kästchen. Beweis. Es verbleibt, die Eindeutigkeit zu zeigen. Es reicht wieder aus, sich auf den Fall A = B zu beschränken, also den Fall pA (x) = (x − λ)µ . Ist S ∈ Glµ (K) mit S −1 AS in Jordanscher Normalform, etwa Jr1 (λ) ... S −1 AS = , Jrk (λ) so setze N := S −1 AS − λEµ . Nun ist j dim ker N = k X dim ker Jri (λ)j , i=1 und ( j + 1 wenn j < ri , dim ker Jri (λ)j = ri sonst. Daraus folgt, dass dim ker N j+1 − dim ker N j die Anzahl der Jordan-Kästchen der Grösse > j ist für j ∈ N. Somit ist die Anzahl und die Grösse der Kästchen bis auf Reihenfolge bereits eindeutig durch dim ker N j = dim ker(B − λEµ )j , j ∈ N bestimmt. Definition 2.1.49. Sei A ∈ Matn×n (K) und sei λ ∈ K. Der Nilpotenzindex von A zum Eigenwert λ sei der Nilpotenzindex von (A−λEn )|VEig(A,λ) . Ist λ kein Eigenwert, so ist der Nilpotenzindex A zu λ als 0 definiert. Lemma 2.1.50. Der Nilpotenzindex nλ zum Eigenwert λ von A ∈ Matn×n (K) ist die Grösse des grössten Jordan-Kästchens zu λ in einer Jordanschen Normalform von A. Beweis. Der Nilpotenzindex des Eigenwertes λ von A ist der Nilpotenzindex der Einschränkung von A−λEn auf VEig(A, λ), und diese ist nach Satz 2.1.48 bezüglich einer passenden Basis von der Form Jr1 (0) 0 ... N := 0 Jrk (0) 58 KAPITEL 2. LINEARE ALGEBRA II mit r1 , . . . , rk ∈ N. Nun ist Nℓ = Jr1 (0)ℓ ... 0 Jrk (0)ℓ , d.h. N ℓ = 0 ist genau dann der Fall, wenn Jri (0)ℓ = 0 ist für 1 ≤ i ≤ k. Nun rechnet man jedoch leicht nach, dass der Nilpotenxindex von Jr (0) gerade r ist, womit die Behauptung folgt. 2.1.6 Funktionen von Matrizen Sei f = am xm + · · · + a1 x + a0 ∈ K[x] und A ∈ Matn×n (K). Dann definiert man f (A) := am Am + · · · + a1 A + a0 En ∈ Matn×n (K). Die Definition kann erweitert werden für analytischen Funktionen1 , falls man über den reellen oder komplexen Zahlen arbeitet; beispielsweise ist 1 1 eA = En + A + A2 + A3 + . . . 2 6 für A ∈ Matn×n (C). Es verbleibt das Problem, wie man z.B. eA in endlich vielen Schritten für eine konkrete Matrix A ausrechenn kann. Bemerkung 2.1.51. Ist f : U → C analytisch, so müssen alle Eigenwerte von A in U liegen, damit f (A) berechnet werden kann. Dazu bestimmt man eine Hauptraumzerlegung k M n K = VEig(A, λi ) i=1 und berechnet f (A|VEig(A,λi ) ) für jedes i separat. ZurPBerechnung von f (A|VEig(A,λi ) ) ∞ ′ j wählt man eine Potenzreihendarstellung f (z ′ ) = i=0 aj (z − z) so, dass λi im P∞ Konvergenzbereich von j=0 aj (z ′ − z)j liegt. Satz 2.1.52. Sei A ∈ Matn×n (K) so, dass pA (x) über K in Linearfaktoren zerfällt. Dann besitzt A eine eindeutige Zerlegung A = D + N mit • D ∈ Matn×n (K) is diagonalisierbar, • N ∈ Matn×n (K) is nilpotent und • DN = N D. Beweis von Satz 2.1.52, Teil 1. Wir zeigen zuerst die Existenz. Es gibt ein S ∈ Gln (K) so, dass Jr1 (λ1 ) ... S −1 AS = Jrk (λk ) 1 Sei U ⊆ R oder U ⊆ C offen. Eine Funktion f : U → R oder f : U → C heisst analytisch, wenn es zu jedem Punkt P z ∈ U ein r > 0 und eine Folge (aj )j∈N gibt so, dass für alle z ′ ∈ U mit ∞ ′ ′ |z − z| < r gilt f (z ) = j=0 aj (z ′ − z)j . Beachte, dass jedes Polynom f ∈ R[x] bzw. f ∈ C[x] eine analytische Funktion f : R → R bzw. f : C → C definiert. 59 2.1. BASISWECHSEL BEI ENDOMORPHISMEN in Jordanscher Normalform ist. Nun gilt Jr (λ) = λEr + Nr mit 0 1 0 ··· 0 . .. . . . . . . . . . .. . . ... ... . Nr := 0 . , . . . . 1 .. 0 ··· ··· ··· 0 und es ist (λEr )Nr = Nr (λEr ). Mit λ1 Er1 ... D̂ := λk Erk und Nr 1 N̂ := ... Nr k ist also S −1 AS = N̂ + D̂ und N̂ D̂ = D̂N̂ . Mit D := S D̂S −1 und N := S N̂ S −1 ist also A = S(D̂ + N̂ )S −1 = D + N und N D = S N̂ D̂S −1 = S D̂N̂ S −1 = DN. Da D̂ Diagonalmatrix ist, ist D diagonalisierbar, und da die Ni nilpotent sind, ist auch N̂ und somit N nilpotent. Alternativ kann man auch mit der Hauptraumzerlegung arbeiten: es ist n K = k M VEig(A, λi ) i=1 und mit Bi := A|VEig(A,λi ) : VEig(A, λi ) → VEig(A, λi ) kann man Di := λi Eµi und Ni := Bi −Di setzen; dann gilt Di Ni = Ni Di und Di ist diagonalisierbar, während Ni nilpotent ist. Der zweite Teil des Beweises wird in Satz 2.1.65 erbracht. Im weiteren benötigen wir die Ableitung von Polynomen. Wenn K ⊆ R gilt, können wir mit der bekannten AbleitungPfür Polynome aus der Analysis arbeiten: die Ableitung des Polynoms f (x) = ni=0 ai xi ∈ K[x] ist gegeben durch ′ f (x) = n X i=1 iai xi−1 ∈ K[x]. Die k-fache Ableitung f (k) (x) ist dann f (k) (x) = n X i=k i(i − 1) · · · (i − k + 1)ai x i−k = n X i=k µ ¶ i ai xi−k . k! · k Ist K ein beliebiger Körper (und nicht notwendigerweise K ⊆ R), so definieren wir einfach µ ¶ n n X X i (k) i−k f (x) := i(i − 1) · · · (i − k + 1)ai x = k! · ai xi−k k i=k i=k und schreiben wie üblich f ′ := f (1) , f ′′ := f (2) , etc. Damit gelten die üblichen Rechenregeln: für alle f, g ∈ K[x] und λ ∈ K gilt 60 KAPITEL 2. LINEARE ALGEBRA II (a) (f (x) + λg(x))(k) = f (k) (x) + λg (k) (x); (b) (f g)′ (x) = f ′ (x)g(x) + f (x)g ′ (x); und (c) (f (g(x))′ = f ′ (g(x))g ′ (x). Wir benötigen im Folgenden die Taylor-Formel. Diese gilt jedoch in allgemeinen Körpern nicht mehr unbedingt. Beim ersten Durcharbeiten des Skriptes empfiehlt es sich, die folgenden Definitionen und Bemerkungen ersteinmal zu ignorieren und davon auszugehen, dass Q ⊆ K gilt; in diesem Fall gilt die Taylor-Formel (siehe Bemerkung 2.1.54). Wer dies einfach annehmen mag, kann mit Satz 2.1.57 fortfahren (auf Seite 61). Definition 2.1.53. Wir sagen, dass ein Körper K von Charakteristik 0 sei, wenn für alle n ∈ N \ {0} gilt n · 1K 6= 0. Bemerkung 2.1.54. Wenn K ein Körper von Charakteristik 0 ist, so gilt die TaylorFormel : grad f (k) ∞ X f (a) X f (k) (a) f (x) = (x − a)k = (x − a)k k! k! k=0 k=0 für alle a ∈ K und f ∈ K[x]. An der Formel sieht man auch schnell, wo das Problem liegt, wenn der Körper nicht von Charakteristik 0 ist: in diesem Fall gibt es ein k ∈ N \ {0} mit k · 1K = 0. Aber dann gilt für das Polynom f (x) = xk , dass f ′ (x) = kxk−1 = 0 ist; insbesondere (k) ist f (k) (x) = 0 und k! · 1K = 0, womit der Bruch f k!(x) keinen Sinn macht. Wenn K kein Körper von Charakteristik 0 ist, kann dieses Problem jedoch umgangen werden, indem ein anderer Ableitungsbegriff verwendet wird, nämlich die Hasse-Ableitung: P i Definition 2.1.55. Sei f ∈ K[x] gegeben durch f = m i=0 ai x und n ∈ N. Dann ist die n-te Hasse-Ableitung von f gegeben durch m µ ¶ X f (n) i ai xi−n ∈ K[x]. (x) := n! n i=n Wir schreiben f ′ := f (1) 1 und f ′′ 2 := f (2) . 2! Die Hasse-Ableitung verhält sich in vielerlei Hinsicht wie die gewöhnliche, oben definierte Ableitung: Bemerkung 2.1.56. Seien f, g ∈ K[x], λ ∈ K und n, m ∈ N: (a) Es gilt (f +λg)(n) n! = f (n) n! (n) + λ gn! . Die Hasse-Ableitung ist also K-linear. (n) (b) Es gilt n! · fn! (x) = f (n) (x) (hier steht auf der linken Seite die Hasse-Ableitung und auf der rechten Seite die gewöhnliche Ableitung). (c) Es gilt (f · g)′ = f ′ g + f g ′ . (d) Es gilt ³ f (n) n! ´(m) m! µ ¶ n + m f (n+m) = . n (n + m)! 61 2.1. BASISWECHSEL BEI ENDOMORPHISMEN (e) Es gilt die Taylor-Formel grad f f (x) = X f (k) (λ)(x − λ)k . k! k=0 Zum Beweis zeigt man zuerst die K-Linearität der Hasse-Ableitung. Dann reicht es aus, (b)–(e) für den Fall f (x) = xk , k ∈ N und g(x) = xℓ , ℓ ∈ N zu zeigen. Dabei ergeben sich (b) und (d) durch Rechnen mit Binomialkoeffizienten, (e) aus dem Binomischen Lehrsatz und (c) kann direkt aus (b) und der entsprechenden Eigenschaft für die gewöhnliche Ableitung gefolgert werden. (n) Insbesondere kann in den meisten Fällen die Hasse-Ableitung fn! problemlos anstelle der gewöhnlichen Ableitung n!1 f (n) verwendet werden. Wir wollen nun f (A) für eine Matrix A ∈ Matn×n (K) mit Hilfe einer der TaylorFormel sehr ähnlichen Formel auswerten. Wie dies geht, zeigt der folgende Satz: Satz 2.1.57. Sei f ∈ K[x] ein Polynom oder f : U → C eine analytische Funktion und sei A = D + N mit D diagonalisierbar, N nilpotent und N D = DN . Ist f analytisch, so fordern wir weiter, dass alle Eigenwerte von D in U liegen. Dann gilt f (n−1) f ′′ 2 (D)N n−1 . f (A) = f (D) + f (D)N + (D)N + · · · + 2 (n − 1)! ′ Dies wird auch als Taylor-Entwicklung im nilpotenten Teil bezeichnet. Beweis von Satz 2.1.57. Wir behandeln zuerst den Fall von Polynomen. (Der Fall von Potenzreihen folgt durch Grenzübergang.) Aus Linearitätsgründen reicht es aus, f (x) = xi zu betrachten für ein i ∈ N. Damit ist (wegen DN = N D) i f (A) = (D + N ) = i µ ¶ X i j=0 j Di−j N j . Beachte, dass N i = 0 ist für i ≥ n, und für 0 ≤ j ≤ i gilt µ ¶ i f (j) (D) = Di−j . j! j Damit ist min{i,n−1} (j) i µ ¶ n−1 (j) X f X X i f i−j j j f (A) = D N = (D)N = (D)N j . j j! j! j=0 j=0 j=0 Satz 2.1.58. Seien f, g ∈ K[x] zwei Polynome oder seien f, g : U → C zwei analytische Funktionen. Sind f, g analytisch, so seien alle Eigenwerte von A in U . Dann gilt f (A) = g(A) genau dann, wenn für alle Eigenwerte λ von A gilt, dass (i) f (i) (λ) = gi! (λ) ist für 0 ≤ i < nλ , wobei nλ der Nilpotenzindex von A zu λ sei. i! 62 KAPITEL 2. LINEARE ALGEBRA II Beispiele 2.1.59. (1) Habe A zwei Eigenwerte λ1 , λ2 mit λ1 6= λ2 . Seien die Nilpotenzindices von A bezüglich λi jeweils 1 (damit hat die Jordansche Normalform von A Diagonalform). Sei f = x1000 ∈ K[x]. Wir suchen nun ein Polynom g ∈ K[x] möglichst kleinen Grades mit f (λi ) = g(λi ), i = 1, 2. Dann gilt f (A) = g(A) nach dem vorherigen Satz. Dazu wähle eine Gerade g = mx + q mit m := f (λ2 ) − f (λ1 ) λ 2 − λ1 und q := f (λ1 ) − mλ1 . (2) Sei A ∈ Matn×n (C) eine Matrix mit nur einem Eigenwert λ und mit Nilpotenzindex 3. Wir wollen eA berechnen. Gesucht ist ein Polynom g ∈ C[x] mit g(λ) = g ′ (λ) = g ′′ (λ) = eλ . Für dieses gilt dann g(A) = eA . Korollar 2.1.60 (Satz von Cayley-Hamilton). Sei A ∈ Matn×n (K) so, dass pA (x) über K in Linearfaktoren zerfällt. Dann gilt pA (A) = 0. Beweis. Sei k Y pA (x) = (x − λi )µi ∈ K[x] i=1 mit paarweise verschiedenen λ1 , . . . , λk . Dann ist µi mindestens so gross wie der Nilpotenzindex von A bezüglich λi , womit (j) pA (λi ) = 0 j! gilt für alle i und 0 ≤ j < µi . Nimmt man f (x) = pA (x) und g(x) = 0 (Nullpolynom), so gilt nach Satz 2.1.58 also pA (A) = f (A) = g(A) = 0. Bemerkung 2.1.61. Zerfällt pA (x) ∈ K[x] nicht über K in Linearfaktoren, so geht man zu einem algebraischen Abschluss K von K über (im Fall K ⊆ C kann man auch K = C nehmen). Über diesem zerfällt pA (x) in Linearfaktoren, womit über K gilt pA (A) = 0. Da in der Auswertung von pA (A) nur Werte aus K auftauchen, gilt somit auch über K die Gleichheit pA (A) = 0, womit die Voraussetzung im Satz von Cayley-Hamilton weggelassen werden kann. Beweis von Satz 2.1.58. Sei S ∈ Gln (K) so gewählt, dass S −1 AS in Jordanscher Normalform ist. Dann gilt f (A) = g(A) ⇐⇒ S −1 f (A)S = S −1 g(A)S ⇐⇒ f (S −1 AS) = g(S −1 AS); die letzte Äquivalenz gilt, da S −1 f (A)S = f (S −1 AS) ist: für Polynome gilt dies wegen S −1 (am Am + · · · + a1 A + a0 En )S = am S −1 Am S + · · · + a1 S −1 AS + a0 S −1 En S = am (S −1 AS)m + · · · + a1 (S −1 AS) + a0 , und bei analytischen Funktionen zeigt man dies durch Grenzwertbildung. Es reicht also anzunehmen, dass A bereits in Jordanscher Normalform ist. 63 2.1. BASISWECHSEL BEI ENDOMORPHISMEN Schreibe A = D + N mit λ1 Er1 ... D := λk Erk Nr 1 ... N := und wobei wie im Beweis von Satz 2.1.52 0 1 0 ··· 0 . .. . . . . . . . . . .. . . ... ... Nr := 0 .. . . . . 1 .. 0 ··· ··· ··· 0 Nr k , sei. Offensichtlich gilt f (A) = g(A) genau dann, wenn die Gleichheit bereits für alle Jordan-Kästchen gilt. Nach Satz 2.1.57 gilt f (Jr (λ)) = f (λEr + Nr ) = f (λ) f ′ (λ) ... 0 . ... = .. .. . 0 ··· r−1 (i) X f i=0 i! f ′′ (λ) 2 (λ)Nri ... ··· ... ... ... ... ... ··· 0 f (r−1) (λ) (r−1)! .. . f ′′ . (λ) 2 ′ f (λ) f (λ) (i) Für ein Jordan-Kästchen Jr (λ) gilt also f (Jr (λ)) = g(Jr (λ)) genau dann, fi! (λ) = g (i) (λ) gilt für i = 0, . . . , r−1. Da der Nilpotenzindex nλ zum Eigenwert λ die Grösse i! des grössten Jordan-Kästchens Jr (λ) zum Eigenwert λ ist (siehe Lemma 2.1.50), folgt damit also die Behauptung. Das Ziel ist nun, die Eindeutigkeit der Zerlegung A = D + N mit D diagonalisierbar, N nilpotent und N D = DN zu zeigen. Lemma 2.1.62. Seien λ1 , . . . , λk ∈ K paarweise verschieden und B ∈ N. Dann (t) gibt es ein Polynom f ∈ K[x] mit f (λ1 ) = 1, ft! (λ1 ) = 0 für alle t = 1, . . . , B und f (t) (λi ) = 0 für alle i = 2, . . . , k und t = 0, . . . , B. t! Beweis. Definiere g := k Y i=2 (x − λi )B+1 . (t) (λi ) = 0 ist für alle Polynome h ∈ K[x], Dann hat g die Eigenschaft, dass (gh) t! alle i = 2, . . . , k und alle t = 0, . . . , B. Ist nun h ∈ K[x] ein gemeinsamer Teiler von g und dem Polynom (x − λ1 )B+1 , so muss h konstant sein: andernfalls gäbe es eine Nullstelle λ ∈ K von h in einem algebraischen Abschluss K von K (ist K ⊆ C, so kann man auch K = C wählen); da (x − λ1 )B+1 nur die Nullstelle λ1 besitzt, muss λ = λ1 sein, was jedoch ein Widerspruch ist, da g nur die Nullstellen λ2 , . . . , λk hat, die alle verschieden von λ1 sind. Also sind g und (x − λ1 )B+1 teilerfremd. Nach Lemma 1.5.11 (Bezóut) gibt es somit a, b ∈ K[x] mit 1 = ag +b(x−λ1 )B+1 . (t) Setze f := ag. Dann ist ft! (λi ) = 0 für i = 2, . . . , k und t = 0, . . . , B, und wegen (t) f = ag = 1 − b(x − λ1 )B+1 gilt f (λ1 ) = 1 und ft! (λ1 ) = 0 für t = 1, . . . , B. 64 KAPITEL 2. LINEARE ALGEBRA II Satz 2.1.63. Sei A = D + N mit D diagonalisierbar und N nilpotent so, dass DN = N D ist. Dann gibt es Polynome ϕ, ψ ∈ K[x] mit ϕ(A) = D und ψ(A) = N . Beweis. Es reicht, ein entsprechendes Polynom ϕ zu konstruieren, da dann mit ψ := x − ϕ folgt ψ(A) = A − D = N . Nach Satz 2.1.57 gilt für beliebiges ϕ ∈ K[x], dass ϕ(A) = n−1 (i) X ϕ i=0 i! (D)N i (i) ist. Gesucht ist also ein Polynom ϕ mit ϕi! (D) = 0 für i > 0 und ϕ(D) = D. Seien λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von D. Dann gibt es nach Lemma 2.1.62 ϕ1 , . . . , ϕk ∈ K[x] so, dass ϕi (λi ) = 1, ϕj (λi ) = 0 gilt für i 6= j (t) ϕi t! und dass Dann gilt (λj ) = 0 ist für alle i, j und t = 1, . . . , n−1. Setze ϕ := λ1 ϕ1 +· · ·+λk ϕk . ϕ(λi ) = λi und ϕ(t) (λi ) = 0 für t = 1, . . . , n − 1. Damit ist dann ϕ(A) = D. Beispiel 2.1.64. Sei A = µ ¶ 3 1 . Dann soll 0 3 2 a2 A + a1 A + a0 E2 = µ ¶ 3 0 0 3 sein. Hier eignet sich a2 = a1 = 0 und a0 = 3. Satz 2.1.65. Sei A = D + N = D′ + N ′ mit D, D′ diagonalisierbar, N, N ′ nilpotent und mit N D = DN und N ′ D′ = D′ N ′ . Dann gilt D = D′ und N = N ′ . Dies Vervollständigt den Beweis von Satz 2.1.52. Beweis. Es gilt D − D′ = N ′ − N . Da A = D + N = D′ + N ′ ist, folgt D′ A = D′ (D′ + N ′ ) = (D′ + N ′ )D′ = AD′ und ebenso N ′ A = AN ′ . Nach Satz 2.1.63 gibt es ϕ, ψ ∈ K[x] mit D = ϕ(A) und N = ψ(A). Damit ist DD′ = ϕ(A)D′ = D′ ϕ(A) = D′ D und genauso N N ′ = N ′ N. Nach Übungsaufgabe 3 auf dem vierten Übungsblatt folgt somit, dass D − D′ diagonalisierbar und N ′ − N nilpotent ist. Damit ist D − D′ = N ′ − N diagonalisierbar und nilpotent. Da es nilpotent ist, kann die Matrix D − D′ = N ′ − N nur den Eigenwert 0 haben2 , womit D − D′ als diagonalisierbare Matrix die Nullmatrix sein muss. Also gilt D − D′ = 0 = N ′ − N . 2 Ist N nilpotent mit Nilpotenzindex k, ist λ ein Eigenwert von N und v ein Eigenvektor von N bezüglich λ, so gilt 0 = N k v = λk v, womit λ = 0 sein muss. 2.1. BASISWECHSEL BEI ENDOMORPHISMEN 2.1.7 65 Minimalpolynom und annullierende Polynome Definition 2.1.66. Sei A ∈ Matn×n (K) und f ∈ K[x]. Dann heisst f annullierendes Polynom von A, falls f (A) = 0 ist. Ein von 0 verschiedenes Polynom ϕ ∈ K[x] von minimalem Grad mit der Eigenschaft, dass ϕ(A) = 0 ist, heisst Minimalpolynom von A. Bemerkungen 2.1.67. (1) Es gibt ein Polynom f ∈ K[x] von Grad höchstens n2 mit f (A) = 0: Durch f (A) = 0 wird ein lineares Gleichungssystem der Form Bx = 0 aufgestellt, wobei x der Koeffizientenvektor von f ist. Dieses Gleichungssystem hat n2 Gleichungen und n2 + 1 Unbestimmte, womit es eine nicht-triviale Lösung geben muss. (2) Nach Cayley-Hamilton (Korollar 2.1.60) hat das charakteristische Polynom pA die Eigenschaft, dass pA (A) = 0 ist. Beachte, dass deg pA (x) = n ist. Wie kann man nun ein Minimalpolynom bestimmen? Satz 2.1.68. Sei A ∈ Matn×n (K) so, dass pA (x) in Linearfaktoren zerfällt. Seien λ1 , . . . , λk die paarweise verschienden Eigenwerte von A und sei ni der Nilpotenzindex von A zu λi . Dann ist n Y ϕ(x) = (x − λi )ni i=1 ein Minimalpolynom von A, und jedes weitere Minimalpolynom ist ein konstantes Vielfaches von ϕ. Beweis. Gilt ϕ(A) = 0, so muss nach Satz 2.1.58 (angewendet auf ϕ und das NullQ (t) polynom) gelten ϕt! (λi ) = 0 für 0 ≤ i < ni . Dies ist für das Polynom ni=1 (x − λi )ni erfüllt. Ist weiterhin ϕ ∈ K[x] ein beliebiges Polynom mit ϕ(A) = 0, so folgt aus ϕ(t) (λi ) = 0 für t = 0, . . . , ni − 1, dass (x − λi )ni ein Teiler von ϕ sein muss3 . Nun t! sind die (x − λi )ni , i = 1, . . . , k paarweise teilerfremd, womit auch deren Produkt ein Teiler von ϕ sein muss. Daraus folgt die Behauptung. Bemerkung 2.1.69. Ist ϕ ∈ K[x] ein Minimalpolynom von A und ist f ∈ K[x] ein beliebiges Polynom mit f (A) = 0, so gilt ϕ | f : Schreibe f = qϕ + r mit q, r ∈ K[x] und grad r < grad ϕ (Division mit Rest). Dann ist r(A) = f (A) − q(A)ϕ(A) = 0, womit r = 0 sein muss (ansonsten gäbe es einen Widerspruch zur Minimalität von grad ϕ). Das bedeutet jedoch, dass ϕ | f gilt. Andersherum folgt aus ϕ | f , dass f (A) = 0 ist. Wir haben also f (A) = 0 ⇐⇒ ϕ | f. 3 Schreibe ϕ(x) = Pgrad ϕ j=0 aj (x − λi )j ; dann ist ϕ(t) t! (λi ) = at . 66 KAPITEL 2. LINEARE ALGEBRA II Beispiele 2.1.70. (1) Ist 1 0 ... ... A = Jn (1) = ∈ Matn×n (K), . . . 1 0 1 1 so ist pA (x) = (x − 1)n ein Minimalpolynom von A. (2) Ist 1 0 B = En = . . . ∈ Matn×n (K), 0 1 so ist pB (x) = (x − 1)n , jedoch ist ϕ(x) = x − 1 bereits ein Minimalpolynom von B. 2.2 Quotientenvektorräume Sei V ein beliebiger K-Vektorraum und U ein Untervektorraum. Gibt es einen KVektorraum W und eine lineare Abbildung f : V → W mit U = Ker f ? Beispiel 2.2.1. Wenn U ein direkter Summand von V ist, es also einen Unterraum W ⊆ V mit U ⊕ W = V gibt, so kann diese Frage mit “ja” beantwortet werden. Definiere f : V → W für v ∈ V durch f (v) := w, wobei v = u + w sei mit w ∈ W und u ∈ U . Man überlegt sich leicht, dass f eine lineare Abbildung ist mit Ker f = U . Beispiel 2.2.2. Sei K := R, V := {(an )n∈N | an ∈ K} und U := {(an )n∈N ∈ V | an 6= 0 für nur endlich viele n}. Dann ist U ein Untervektorraum von V . Kann man V = U ⊕W schreiben mit einem Untervektorraum W ⊆ V ? Es gibt keine “eindeutige” Zerlegung v = v ′ + v ′′ einer Folge v = (an )n∈N ∈ V in einen ‘endlichen’ Summanden v ′ ∈ U und einen ‘unendlichen’ Summanden v ′′ . Jedoch kann man zu zwei Folgen (an )n∈N , (bn )n∈N sagen, ob sie sich nur “unwesentlich” unterscheiden: Definition 2.2.3. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Für v, v ′ ∈ V schreibe v ∼U v ′ :⇐⇒ v − v ′ ∈ U. Wir sagen in dem Fall v ∼U v ′ , dass v und v ′ äquivalent modulo U sind. Bemerkung 2.2.4. (1) Die Relation ∼U ist eine Äquivalenzrelation: (a) Ist v ∈ V , so gilt v − v = 0 ∈ U , womit v ∼U v ist. 67 2.2. QUOTIENTENVEKTORRÄUME (b) Sind v, v ′ ∈ V mit v ∼U v ′ , so gilt v − v ′ ∈ U und damit auch v ′ − v ∈ U , also v ′ ∼U v. (c) Seien v, v ′ , v ′′ ∈ V mit v ∼U v ′ und v ′ ∼U v ′′ , also mit v − v ′ , v ′ − v ′′ ∈ U . Dann ist auch v − v ′′ = (v − v ′ ) + (v ′ − v ′′ ) ∈ U und somit v ∼U v ′′ . (2) Die Äquivalenzklasse [v]U := [v]∼U = {v ′ ∈ V | v ∼U v ′ } von v ∈ V ist v + U := {v + u | u ∈ U }. Die Äquivalenzklasse ist somit ein affiner Unterraum von V . Definition 2.2.5. Sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Wir bezeichnen mit V /U := {[v] | v ∈ V } = {v + U | v ∈ V } die Menge der affinen Unterräume. Wir sagen V modulo U zu V /U . Bemerkung 2.2.6. Seien T, T ′ ∈ V /U und λ ∈ K. Dann gelten: (a) T + T ′ := {v + v ′ | v ∈ T, v ′ ∈ T ′ } ∈ V /U ; und (b) λT := {λv | v ∈ T } ∈ V /U falls λ 6= 0. Beweis. Ist T = v + U und T ′ = v ′ + U , so ist T + T ′ = {(v + u) + (v ′ + u′ ) | u, u′ ∈ U } = {v + v ′ + u | u ∈ U } = (v + v ′ ) + U ∈ V /U und λT = {λ(v + u) | u ∈ U } = {λv + λu | u ∈ U } = {λv + u | u ∈ U } = λv + U ∈ V /U. Satz 2.2.7. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. (a) Die Verknüpfungen + : V /U × V /U → V /U, (v + U, v ′ + U ) 7→ (v + v ′ ) + U und · : K × V /U → V /U, (λ, v + U ) 7→ λv + U sind wohldefiniert und definieren eine K-Vektorraum-Struktur auf V /U . Sind λ ∈ K \ {0} und v + U, v ′ + U ∈ V /U , so stimmen die neuen Definitionen von + und · mit den aus der letzten Bemerkung überein, es gilt also (v + v ′ ) + U = (v + U ) +neu (v ′ + U ) = (v + U ) +alt (v ′ + U ) und (λv) + U = λ ·neu (v + U ) = λ ·alt (v + U ). (b) Die Abbildung π : V → V /U, ist ein Epimorphismus mit Ker π = U . v 7→ v + U 68 KAPITEL 2. LINEARE ALGEBRA II Definition 2.2.8. Der Vektorraum V /U wird als Quotientenvektorraum von V modulo U bezeichnet. Die Abbildung π : V → V /U , v 7→ v + U wird als Restklassenabbildung oder kanonische Projektion bezeichnet. Beweis von Satz 2.2.7. (a) Seien v̂ + U = v + U und v̂ ′ + U = v ′ + U . Dann gilt v − v̂, v ′ − v̂ ′ ∈ U . Es ist nun (v + U ) + (v ′ + U ) = (v + v ′ ) + U = (v̂ + v̂ ′ ) + (v − v̂) + (v ′ − v̂ ′ ) +U = (v̂ + v̂ ′ ) + U, {z } | ∈U womit die Addition wohldefiniert ist. Weiterhin ist λ(v + U ) = λv + U = λv̂ + λ(v − v̂) +U = λv̂ + U = λ(v̂ + U ), | {z } ∈U womit ebenfalls die Skalarmultiplikation wohldefiniert ist. Dass V /U mit + und · ein K-Vektorraum ist rechnet man leicht nach: (1) Sind v + U, v ′ + U, v ′′ + U ∈ V /U , so ist [(v + U ) + (v ′ + U )] + (v ′′ + U ) = ((v + v ′ ) + U ) + (v ′′ + U ) = ((v + v ′ ) + v ′′ ) + U = (v + (v ′ + v ′′ )) + U = (v + U ) + ((v ′ + v ′′ ) + U ) = (v + U ) + [(v ′ + U ) + (v ′′ + U )]. Weiterhin ist offensichtlich (v + U ) + (v ′ + U ) = (v + v ′ ) + U = (v ′ + v) + U = (v ′ + U ) + (v + U ) und (v + U ) + (0 + U ) = (v + 0) + U = v + U. Schliesslich ist (v + U ) + ((−v) + U ) = (v + (−v)) + U = 0 + U, womit (V /U, +) eine Abelsche Gruppe ist. (2) Seien v + U, v ′ + U ∈ V /U und λ, µ ∈ K. Dann gilt λ(µ(v + U )) = λ((µv) + U ) = (λ(µv)) + U = ((λµ)v) + U = (λµ)(v + U ), 1 · (v + U ) = (1 · v) + U = v + U und λ((v + U ) + (v ′ + U )) = λ((v + v ′ ) + U ) = (λ(v + v ′ )) + U = (λv + λv ′ ) + U = ((λv) + U ) + ((λv ′ ) + U ) = λ(v + V ) + λ(v ′ + U ). Schliesslich gilt (λ + µ)(v + U ) = (λ + µ)v + U = (λv + µv) + U = (λv + U ) + (µv + U ) = λ(v + U ) + µ(v + U ). 69 2.2. QUOTIENTENVEKTORRÄUME (b) Zu v + U ∈ V /U ist π(v) = v + U , womit π sicherlich surjektiv ist. Seien v + U, v ′ + U ∈ V /U und λ ∈ K. Dann ist π(v + v ′ ) = (v + v ′ ) + U = (v + U ) + (v ′ + U ) = π(v) + π(v ′ ) und π(λv) = λv + U = λ(v + U ) = λπ(v). Damit ist π ein Homomorphismus. Schliesslich gilt Ker π = {v ∈ V | π(v) = 0 + U = U } = {v ∈ V | v + U = U } = U. Bemerkung 2.2.9. Aus (b) und der Dimensionsformel (Satz 1.6.24) folgt, wenn dim V < ∞ ist, dass dim U + dim V /U = dim V ist, also dim V /U = dim V − dim U. Definition 2.2.10. Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Dann heisst dim V /U die Kodimension von U in V . Beispiel 2.2.11. Sei V der R-Vektorraum der konvergenten Folgen (an )n∈N und U der Untervektorraum aller Nullfolgen. Dann ist die Abbildung ϕ : V → R, (an )n∈N 7→ lim an n→∞ linear, surjektiv, und es ist U = Ker ϕ. Damit hat U Kodimension 1 in V , da V /U ∼ = R nach dem Homomorphiesatz gilt: Satz 2.2.12 (Homomorphiesatz). Sei f : V → W ein Homomorphismus und U ⊆ V ein Untervektorraum mit U ⊆ Ker f . Dann gibt es genau eine lineare Abbildung f : V /U → W so, dass das folgende Diagramm kommutiert: V CC f CC CC π CC ! V /U /W z< z zz zz zz f Hierbei ist π : V → V /U , v 7→ v + U die kanonische Projektion. (a) Es ist Im f = Im f . Somit ist f genau dann surjektiv, wenn f surjektiv ist. (b) Es ist Ker f = π(Ker f ). Genau dann ist f injektiv, wenn U = Ker f ist. Insbesondere gilt also Im f ∼ = V / Ker f . Beweis. Ist fˆ eine beliebige Abbildung fˆ : V /U → W mit fˆ ◦ π = f , so gilt fˆ(v + U ) = fˆ(π(v)) = (fˆ ◦ π)(v) = f (v) für alle v + U ∈ V /U . Somit kann es höchstens eine solche Abbildung fˆ geben. Wir definieren f (v + U ) := f (v) für v + U ∈ V /U . Ist v ′ + U ∈ V /U mit ′ v + U = v + U , also v ′ − v ∈ U ⊆ Ker f , so ist f (v ′ + U ) = f (v ′ ) = f (v + (v ′ − v)) = f (v) + f (v| ′ {z − v}) ∈Ker f = f (v) + 0 = f (v) = f (v + U ); 70 KAPITEL 2. LINEARE ALGEBRA II damit ist f wohldefiniert. Offensichtlich ist f ◦π = f , da für alle v ∈ V per Definition f (v) = f (v + U ) = f (π(v)) gilt. Mir müssen noch zeigen, dass f linear ist. Seien dazu v + U, v ′ + U ∈ V /U und λ ∈ K. Dann ist f ((v + U ) + (v ′ + U )) = f ((v + v ′ ) + U ) = f (v + v ′ ) = f (v) + f (v ′ ) = f (v + U ) + f (v ′ + U ) und f (λ(v + U )) = f (λv + U ) = f (λv) = λf (v) = λf (v + U ), womit die Linearität gezeigt wäre. (a) Es ist Im f = {f (v) | v ∈ V } = {f (v + U ) | v ∈ V } = {f (v + U ) | v + U ∈ V /U } = Im f ; damit folgt (a) (b) Es ist Ker f = {v + U ∈ V /U | f (v + U ) = 0} = {v + U ∈ V /U | f (v) = 0} = {π(v) | v ∈ Ker f } = π(Ker f ). Somit gilt f injektiv ⇐⇒ Ker f = {0 + U } ⇐⇒ π(Ker f ) = {0 + U } ⇐⇒ Ker f ⊆ Ker π = U. Da nach Voraussetzung U = Ker π ⊆ Ker f gilt, ist also f genau dann injektiv, wenn U = Ker f ist. Der Zusatz folgt, indem man die Einschränkung f : V → Im f auf das Bild von f betrachtet und U = Ker f wählt; die induzierte Abbildung f : V / Ker f → Im f ist dann nach (a) und (b) bijektiv, also ein Isomorphismus. Beispiel 2.2.13. Sei V ein beliebiger K-Vektorraum und seien U, U ′ ⊆ V Unterräume mit U ⊕ U ′ = V . Betrachte die Abbildung f : V → U ′, u + u′ 7→ u′ mit u ∈ U, u′ ∈ U ′ aus Beispiel 2.2.1. Wir wissen, dass Im f = U ′ ist und Ker f = U . Nach dem Homomorphiesatz gilt also U ′ = Im f ∼ = V / Ker f = V /U. 2.3. SKALARPRODUKTE IM RN UND CN 2.3 2.3.1 71 Skalarprodukte im Rn und Cn Bilinearformen Definition 2.3.1. Sei V ein beliebiger K-Vektorraum. Eine Abbildung ϕ : V × V → K heisst Bilinearform, wenn ϕ linear in jeder Komponente ist, d.h. wenn gilt ϕ(λ1 v1 + λ2 v2 , w) = λ1 ϕ(v1 , w) + λ2 ϕ(v2 , w) ϕ(w, λ1 v1 + λ2 v2 ) = λ1 ϕ(w, v1 ) + λ2 ϕ(w, v2 ) und für alle v1 , v2 , w ∈ V und λ1 , λ2 ∈ K. Beispiel 2.3.2. Sei K = R. Bezeichne mit V = C[a, b] (für a, b ∈ R) den RVektorraum aller stetigen Funktionen [a, b] → R. Definiere Z b ϕ : V × V → R, (f, g) 7→ f (x)g(x) dx. a Dann ist ϕ eine Bilinearform. Bemerkung 2.3.3. Sei V ein n-dimensionaler K-Vektorraum mit Basis BV = {v1 , . . . , vn }. Dann kann jede Bilinearform ϕ : V × V → K eindeutig durch eine n × n-Matrix beschrieben werden: P P Dazu seien x, y ∈ V mit x = ni=1 xi vi und y = ni=1 yi vi . Dann ist ϕ(x, y) = ϕ n ³X i=1 xi v i , n X ´ yi v i = j=1 n X n X xi yi ϕ(vi , vj ) i=1 j=1 y1 ϕ(v1 , v1 ) · · · ϕ(v1 , vn ) ¢ . . . . .. .. .. · · · xn .. . yn ϕ(vn , v1 ) · · · ϕ(vn , vn ) ¡ = x1 Die Matrix G = (ϕ(vi , vj )) 1≤i≤n heisst Gramsche Matrix von ϕ bezüglich der Ba1≤j≤n sis BV . Definition 2.3.4. Eine Bilinearform ϕ : V × V → K heisst symmetrisch, wenn ϕ(v, w) = ϕ(w, v) für alle v, w ∈ V gilt. Beispiel 2.3.5. Es ist Z b f (x)g(x) dx = a Z b g(x)f (x) dx. a Bemerkung 2.3.6. Ist V ein endlichdimensionaler Vektorraum, BV = {v1 , . . . , vn } eine Basis von V und A = (ϕ(vi , vj ))ij ∈ Matn×n (K), so ist ϕ genau dann symmetrisch, wenn A symmetrisch ist, wenn also A = At ist. 2.3.2 Skalarprodukte im Rn Im Folgenden sei K = R und V ein reeller Vektorraum. Definition 2.3.7. Eine symmetrische Bilinearform h•, •i : V ×V → R heisst positiv definit, wenn hv, vi ≥ 0 für alle v ∈ V gilt und hv, vi = 0 bereits v = 0 impliziert. 72 KAPITEL 2. LINEARE ALGEBRA II Definition 2.3.8. Eine symmetrische positiv definite Bilinearform h•, •i : V × V → R heisst Skalarprodukt. Rb Beispiel 2.3.9. Auf V = C[a, b] ist hf, gi := a f (x)g(x) dx ein Skalarprodukt: offensichtlich gilt Z b hf, f i = f (x)2 dx ≥ 0, a 2 da f (x) ≥ 0 auf [a, b] gilt. Sei f ∈ C[a, b] mit f 6= 0. Dann gibt es ein x ∈ [a, b] mit f (x) 6= 0. Da f stetig ist, gibt es ein ε > 0 mit |f (x′ )| ≥ 12 |f (x)| für alle x′ ∈ ]x − ε, x + ε[ ∩ [a, b] := {x′′ ∈ [a, b] | |x′′ − x| < ε}. Dann gilt jedoch Z Z Z b 2 2 f (t) dt = f (t) dt + f (t)2 dt hf, f i = ]x−ε,x+ε[∩[a,b] [a,b]\]x−ε,x+ε[ Za Z 1 1 ≥ |f (x)| dt + 0 dt ≥ ε · |f (x)| > 0, 2 ]x−ε,x+ε[∩[a,b] 2 [a,b]\]x−ε,x+ε[ da 21 |f (x)| > 0. Beispiel 2.3.10. Sei V = Rn . Definiere hx, yi := xt y; dann ist h•, •i ein Skalarprodukt auf Rn , genannt das Standardskalarprodukt oder das kanonische Skalarprodukt: Offensichtlich ist h•, •i bilinear. Da hx, yi ∈ R ist, gilt hx, yi = hx, yit = (xt y)t = y t x = hy, xi. Ist schliesslich x = (x1 , . . . , xn ), so ist hx, xi = n X i=1 x2i ≥ 0, und hx, xi = 0 impliziert xi = 0, i = 1, . . . , n und somit x = 0. Bemerkung 2.3.11. Falls h•, •i : V × V → R ein Skalarprodukt ist, so definiert p k•k : V → R≥0 , v 7→ hv, vi eine Norm auf V , d.h. es gilt (a) kvk = 0 genau dann, wenn v = 0 ist; (b) kλvk = |λ|kvk; und (c) kv1 + v2 k ≤ kv1 k + kv2 k. für alle v, v1 , v2 ∈ V und λ ∈ R. Die Eigenschaften (a) und (b) sind leicht zu überprüfen, für Eigenschaft (c) wird jedoch folgendes Lemma benötigt: Lemma 2.3.12 (Cauchy-Schwarz). Seien v, w ∈ V . Dann gilt |hv, wi| ≤ kvk · kwk. 2.3. SKALARPRODUKTE IM RN UND CN 73 Beweis. Für w = 0 ist die Behauptung klar, sei also w 6= 0. Für alle λ ∈ R gilt 0 ≤ kv − λwk2 = hv − λw, v − λwi. Nun ist hv − λw, v − λwi = hv, vi − λhv, wi − λ[hv, wi − λhw, wi]. Wähle λ := hv,wi . hw,wi Dann ist also |hv, wi|2 0 ≤ hv, vi − , hw, wi womit |hv, wi|2 ≤ kvk2 kwk2 ist. Damit kann die Eigenschaft (c) aus Bemerkung 2.3.11 wie folgt gezeigt werden: es ist kv1 + v2 k2 = hv + w, v + wi = hv, vi + 2hv, wi + hw, wi ≤ kvk2 + 2|hv, wi| + kwk2 ≤ kvk2 + 2kvkkwk + kwk2 = (kvk + kwk)2 . Bemerkung 2.3.13 (Winkel zwischen Vektoren). Es seien x, y ∈ Rn . Betrachte das kanonische Skalarprodukt hx, yi := xt y. Nach Cauchy-Schwarz gilt −1 ≤ hx, yi ≤ 1. kxkkyk Wir definieren den Winkel zwischen x und y durch ∢(x, y) := arccos hx, yi . kxkkyk D.h. α = ∢(x, y) ist der eindeutige Winkel α ∈ [0, π] mit cos α = Eigenschaften des Winkels: hx,yi . kxkkyk (1) Es gilt ∢(x, y) = ∢(y, x), d.h. er ist symmetrisch; (2) Es gilt ∢(λx, y) = ∢(x, y) = ∢(x, λy) falls λ 6= 0 ist. Ist n = 2, also sind wir im R2 , stimmt diese Definition von Winkel mit der aus der Schule bekannten Definition überein. Wir können ohne Einschränkung annehmen, dass kxk = kyk = 1 sei. Dann gibt es α, β ∈ R mit x = (cos α, sin α) und y = (cos β, sin β). Damit ist hx, yi = hx, yi = cos α cos β + sin α sin β = cos(β − α). kxkkyk Anwenden des Arcuscosinus liefert also den Winkel zwischen x und y. 74 KAPITEL 2. LINEARE ALGEBRA II Ist n beliebig, so gibt es eine orthogonale Transformation ϕ : Rn → Rn (dies ist eine lineare Abbildung mit hϕ(v), ϕ(w)i = hv, wi für alle v, w ∈ Rn ; dazu später mehr) mit x1 y1 x2 y2 ϕ(x) = 0 ϕ(y) = 0 . .. .. . . 0 0 Nun ist kϕ(x)k = kxk, kϕ(y)k = kyk und hϕ(x), ϕ(y)i = hx, yi, womit ∢(x, y) = ∢(ϕ(x), ϕ(y)) ist. Damit kann der Fall des beliebigen ns auf den Fall n = 2 zurückgeführt werden. Bemerkung 2.3.14. Ist V ein R-Vektorraum und k•k : V → R≥0 eine Norm auf V , so definiert k•k eine Metrik d : V × V → R≥0 , (v, w) 7→ kv − wk auf V , d.h. es gilt für alle x, y, z ∈ V (a) d(x, y) = 0 genau dann, wenn x = y ist; (b) d(x, y) = d(y, x); und (c) d(x, z) ≤ d(x, y) + d(y, z). Bemerkung 2.3.15. Ist V ein R-Vektorraum und d : V × V → R≥0 eine Metrik auf V , dann induziert die Metrik eine Topologie auf V : Eine Menge O ⊆ V heisst offen, wenn es zu jedem x ∈ O ein εx > 0 gibt so, dass die εx -Kugel um x, Bεx (x) := {x′ ∈ V | d(x, x′ ) < εx }, vollständig in O enthalten ist. Man prüft leicht nach, dass dies eine Topologie liefert. Definition 2.3.16. Ein reeller Vektorraum V zusammen mit einem Skalarprodukt h•, •i : V × V → R heisst Euklidischer (Vektor-)Raum. Wir schreiben auch (V, h•, •i) hierfür. Wir haben gesehen: Lemma 2.3.17. Sei (V, h•, •i) ein Euklidischer Vektorraum. Dann besitzt V eine Norm p k•k : V → R≥0 , v 7→ hv, vi und eine Metrik d : V × V → R≥0 , (v, w) 7→ kv − wk. Weiterhin ist zu zwei Vektoren x, y ∈ V \ {0} der Winkel ∢(x, y) := arccos definiert. hx, yi kxkkyk 2.3. SKALARPRODUKTE IM RN UND CN 75 Wir haben gesehen, dass für Rn mit dem Standardskalarprodukt diese Definition von Winkel gerade der Definition aus der Schule entspricht. Definition 2.3.18. Sei (V, h•, •i) ein Euklidischer Vektorraum und seien v, w ∈ V . Wir sagen, v und w seien orthogonal zueinander (bzgl. h•, •i), wenn hv, wi = 0 ist. Ist U ⊆ V ein Unterraum, so bezeichnen wir mit U ⊥ := {v ∈ V | ∀u ∈ U hv, ui = 0} das orthogonale Komplement von U . Beispiel 2.3.19. Sei R3 mit dem Standardskalarprodukt ausgestattet, und sei U = span{(1, 2, 3)t }. Dann ist ¯ ¯ x ¯ 3 ¯ ⊥ y ∈ R ¯ x + 2y + 3z = 0 . U = ¯ z Satz 2.3.20 (Satz vom orthogonalen Komplement). Es sei V ein endlichdimensionaler Euklidischer Vektorraum und U ⊆ V ein Unterraum. Dann gilt V = U ⊕ U ⊥. Beweis. Sei dim U = m und dim V = n. Wir zeigen zuerst, dass dim U ⊥ = n − m ist. Sei dazu {v1 , . . . , vm } eine Basis von U , die zu einer Basis {v1 , . . . , vn } von V fortgesetzt sei. Betrachte die Matrix S = (hvi , vj i)i,j ∈ Matn×n (R). Wir zeigen zuerst, dass S Rang n hat: Wäre Rang S < n, so gäbe es ein y = (y1 , . . . , yn ) ∈ Rn \{0} mit Sy = 0. Aber dann ist hy, yi = y t Sy = 0, ein Widerspruch zur positiven PDefinitheit. Sei ŷ = nj=1 yj vj ∈ U ⊥ beliebig. Für i = 1, . . . , m gilt nun D 0 = hvi , ŷi = vi , n X j=1 E yj v j = n X j=1 yj hvi , vj i. Dies kann auch als hv1 , v1 i · · · .. ... . hvm , v1 i · · · y1 hv1 , vn i .. .. . = 0 . hvm , vn i yn geschrieben werden. Insbesondere zeigt diese Rechnung, dass der Lösungsraum dieses ⊥ n Gleichungssystems Pn gerade das Urbild von U unter dem Isomorphismus φ : R → V , (x1 , . . . , xn ) 7→ i=1 xi vi ist. Die Matrix hat nun Rang m, womit der Lösungsraum die Dimension n − m hat, also dim U ⊥ = n − m. Es verbleibt also zu zeigen, dass U ∩ U ⊥ = {0} ist. Dazu sei v ∈ U ∩ U ⊥ . Da v ∈ U und v ∈ U ⊥ ist, gilt also hv, vi = 0, womit v = 0 ist. Korollar 2.3.21. Ist (V, h•, •i) ein Euklidischer Vektorraum und U ⊆ V ein endlichdimensionaler Unterraum, so gibt es eine Basis B = {v1 , . . . , vn } von U so, dass hvi , vj i = 0 ist für i 6= j und hvi , vi i = 1. Eine solche Basis heisst orthonormal. 76 KAPITEL 2. LINEARE ALGEBRA II Bemerkung 2.3.22. Wir werden im Abschnitt 2.3.5 sehen, wie eine solche Basis B rechnerisch mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahren gefunden werden kann. Beweis von Korollar 2.3.21. Wir zeigen dies per Induktion nach dim U . Ist dim U = 0, so ist ∅ eine Basis wie gesucht. Sei n := dim U > 0. Nun ist U zusammen mit der Einschränkung des Skalarproduktes auf U wieder ein Euklidischer Vektorraum, und da dim U > 0 ist, gibt es ein v ∈ U \ {0}. Setze W := span{v}; nach Satz 2.3.20 gilt nun U = W ⊕ W ⊥ (wobei hier das orthogonale Komplement von W im Euklidischen Vektorraum U genomment wird) und dim W ⊥ = dim U − dim W = dim U − 1, womit es per Induktionsvoraussetzung eine Basis B′ = {v2 , . . . , vn } von W ⊥ mit den geforderten Eigenschaften gibt. Setze v v1 := kvk und B := {v1 , v2 , . . . , vn }; offensichtlich ist dann B eine Basis von U . Weiter ist hvi , vi i = 1 für i = 1, . . . , n, und es ist hvi , vj i = 1 für i 6= j und i, j > 1, und wegen v1 ∈ W und vi ∈ W ⊥ , i > 1 folgt auch hv1 , vi i = 0 für i = 2, . . . , n. Wir wollen uns nun dem Ziel zuwenden, zu zeigen, dass alle symmetrischen reellen Matrizen diagonalisierbar sind. Dies liefert uns später ein Kriterium, die positive Definitheit einer Bilinearform anhand der Eigenwerte ihrer zugeordneten Matrix zu überprüfen. Zur Erinnerung: Definition 2.3.23. Eine Matrix M ∈ Matn×n (K) heisst symmetrisch, wenn At = A ist. Lemma 2.3.24. Sei S ∈ Matn×n (R) eine symmetrische Matrix. Dann sind alle Eigenwerte von S (aufgefasst als Matrix über C) reell. Zu einer Matrix A ∈ Matm×n (C) schreiben wir A ∈ Matm×n (C) für die Matrix (aij )ij , wobei A = (aij )ij sei und • : C → C die komplexe Konjugation. Sind A, B ∈ Matm×n (C), C ∈ Matn×k (C) und λ ∈ C, so gilt A + B = A + B, λ · A = λ · A und B · C = B · C. Beweis. Sei λ ∈ C ein beliebiger Eigenwert von S. Sei v ∈ Cn ein Eigenvektor von S zu λ mit v = (v1 , . . . , vn ). Nun ist Sv = λv, womit Sv = Sv = Sv = λv = λv ist (da S nur reelle Einträge hat). Somit ist v ein Eigenvektor zum Eigenwert λ von S. Nun ist v t Sv = v t (Sv) = v t λv = λ(v t v) und v t Sv = v t S t v = (Sv)t v = (λv)t v = λ(v t v). Damit ist (λ − λ)(v t v) = 0. Wenn wir also v t v 6= 0 zeigen, folgt λ = λ, d.h. λ ∈ R. Nun ist n n X X vtv = vi vi = |vi |2 > 0, i=1 da wegen v 6= 0 ein i mit vi 6= 0 existiert. i=1 2.3. SKALARPRODUKTE IM RN UND CN 77 Lemma 2.3.25. Sei S ∈ Matn×n (R) eine symmetrische Matrix und B = {v1 , . . . , vn } eine Basis von Rn mit hvi , vj i = 0 für i 6= j und hvi , vi i = 1, wobei h•, •i das Standardskalarprodukt von Rn sei. Ist T = (IdRn )BS , wobei S die Standardeinheitsbasis des Rn ist (also ist T die Matrix (v1 , . . . , vn )), so ist T −1 ST wieder symmetrisch. Beweis. Sei A := T t T = (aij )ij ; dann ist ( 1 wenn i = j, aij = hvi , vj i = 0 sonst, also T t T = En . Damit ist T −1 = T t (eine solche Matrix heisst orthogonal ; siehe dazu weiter unten), und somit (T −1 ST )t = (T t ST )t = T t ST = T −1 ST, was zu zeigen war. Satz 2.3.26. Sei S ∈ Matn×n (R) symmetrisch. Dann besitzt Rn eine Basis von paarweise orthogonalen Eigenvektoren von S. Bemerkung 2.3.27. Sind λ1 , λ2 ∈ R paarweise verschiedene Eigenwerte von einer symmetrischen Matrix S ∈ Matn×n (R) sind und vi ∈ Eig(S, λi ), i = 1, 2, so gilt hv1 , v2 i = 0, wobei h•, •i das Standardskalarprodukt von Rn sei. Beweis. Es gilt v1t Sv2 = v1t (Sv2 ) = v1t (λ2 v2 ) = λ2 (v1t v2 ) und v1t Sv2 = (Sv1 )t v2 = λ1 (v1t v2 ), womit (λ1 − λ2 )hv1 , v2 i = 0 sein muss. Da λ1 − λ2 6= 0 ist, muss hv1 , v2 i = 0 sein. Beweis von Satz 2.3.26. Wir zeigen dies per Induktion nach n. Für n = 1 ist die Behauptung klar. Sei also n > 1, und die Behauptung gelte für alle symmetrischen S ∈ Matk×k (R), k < n. Nach dem Fundamentalsatz der Algebra 1.5.7 hat S mindestens einen komplexen Eigenwert λ, der nach Lemma 2.3.24 reell ist. Sei u ∈ Eig(S, λ) \ {0} und betrachte U := span{u} und U ⊥ . Wir zeigen zuerst SU ⊥ ⊆ U ⊥ : Sei v ∈ U ⊥ und u ∈ U beliebig. Dann ist hu, Svi = ut Sv = (Su)t v = (λu)t v = λ(ut v) = λhu, vi = 0, womit Sv ∈ U ⊥ folgt. Nun gibt es nach Korollar 2.3.21 eine orthonormale Basis {v2′ , . . . , vn′ } von U ⊥ , u die zusammen mit kuk eine orthonormale Basis von Rn bildet (vergleiche den Beweis von Korollar 2.3.21). Ist also T die Basiswechselmatrix von der Standardbasis zur u Basis { kuk , v2′ , . . . , vn′ }, so ist T −1 ST von der Form λ1 0 .. . 0 0 ··· S|U ⊥ 0 , 78 KAPITEL 2. LINEARE ALGEBRA II wobei S|U ⊥ ∈ Mat(n−1)×(n−1) die Darstellungsmatrix der Einschränkung des durch S induzierten Endomorphismus auf U ⊥ bezüglich der Basis {v2′ , . . . , vn′ } von U ⊥ sei.4 Nach Lemma 2.3.25 ist S|U ⊥ dann ebenfalls symmetrisch. Nach Induktionsvoraussetzung gibt es eine Basis {v1 , . . . , vn−1 } von U ⊥ bestehend aus paarweise orthogonalen Eigenvektoren von S|U ⊥ (und somit auch Eigenvektoren von S). Mit vn := u ist {v1 , . . . , vn−1 , vn } eine gesuchte Basis von Rn . Korollar 2.3.28. Sei S ∈ Matn×n (R) symmetrisch. Dann gibt es eine invertierbare Matrix T ∈ Gln (R) so, dass (a) die Spalten von T paarweise orthogonal sind, (b) und λ1 0 ... T −1 ST = 0 λn ist, wobei λ1 , . . . , λn die Eigenwerte von S sind. Insbesondere gilt also Eig(S, λ) = VEig(S, λ) für alle λ ∈ R. Korollar 2.3.29. Sei S ∈ Matn×n (R) eine symmetrische Matrix mit Eigenwerten λ1 , . . . , λn . Dann gibt es eine invertierbare Matrix U ∈ Gln (R) mit U −1 = U t so, dass λ1 0 ... U t SU = 0 λn gilt. Definition 2.3.30. Eine Matrix U ∈ Gln (R) heisst orthogonal, wenn U t = U −1 ist. Beweis von Korollar 2.3.29. Seien v1 , . . . , vn paarweise verschiedene und orthogonale Eigenvektoren von S mit Svi = λi vi , i = 1, . . . , n. Definiere ui := vi vi =p . kvi k hvi , vi i Dann ist hui , ui i = 1, i = 1, . . . , n und hui , uj i = 0 für i 6= j. Ist U := (u1 , . . . , un ), so gilt also U t U = En , womit U −1 = U t ist. Damit folgt die Behauptung. Bemerkung 2.3.31. Ist U ∈ Gln (R) eine orthogonale Matrix, so bilden die Spalten von U eine orthonormale Basis von Rn , d.h. die Basisvektoren sind paarweise orthogonal und haben jeweils die Länge 1. Beispiel 2.3.32. Für jedes α ∈ R ist ¶ µ cos α − sin α sin α cos α orthogonal. (Dies sind die ‘winkelerhaltenden Matrizen’.) 4 Hier ist es wichtig, dass die gewählte Basis orthonormal ist! Welche orthonormale Basis gewählt ist, ist wiederum nicht wichtig; vergleiche Seite 48. 2.3. SKALARPRODUKTE IM RN UND CN 2.3.3 79 Basiswechsel für symmetrische Bilinearformen Sei V ein endlichdimensionaler K-Vektorraum und h•, •iP: V ×V → K eineP Bilinearn form. Sei BV = {v1 , . . . , vn } eine Basis von V . Sind v = i=1 xi vi und w = ni=1 yi vi zwei Vektoren, so ist y1 .. hv, wi = (x1 , . . . , xn )S . , yn wobei S = (hvi , vj i)ij ∈ Matn×n (K) die Gramsche Matrix von h•, •i ist. Betrachte eine weitere Basis B̂V = {v̂1 , . . . , v̂n } von V und die zugehörige Basiswechselmatrix T mit (v̂1 , . . . , v̂n ) = (v1 , . . . , vn )T . Für einen Vektor v sei x̂1 x̂1 x1 .. .. .. v = (v1 , . . . , vn ) . = (v̂1 , . . . , v̂n ) . = (v1 , . . . , vn )T . . x̂n x̂n xn Mit x = (x1 , . . . , xn )t und x̂ = (x̂1 , . . . , x̂n )t ist also x = T x̂. Sei genauso w = (v1 , . . . , vn )y = (v̂1 , . . . , v̂n )ŷ mit y = (y1 , . . . , yn )t ∈ K n und ŷ = (ŷ1 , . . . , ŷn )t ∈ K n ; dann gilt ebenso y = T ŷ. Damit ist hv, wi = xt Sy = (T x̂)t S(T ŷ) = x̂t (T t ST )ŷ. Wir haben also folgenden Satz gezeigt: Satz 2.3.33. Falls die Matrix S eine Bilinearform h•, •i : V × V → K in Bezug auf eine Basis BV beschreibt, und T eine Basiswechselmatrix von BV auf B̂V beschreibt, so wird h•, •i bezüglich B̂V durch die Matrix Ŝ = T t ST beschrieben. Dies liefert wieder die Frage, wie man unter allen möglichen Basen von V eine Basis B̂V so wählen kann, dass Ŝ = T t ST besonders einfach ist (mit T = (IdV )B̂BVv )? Wenn h•, •i eine reelle symmetrische Bilinearform ist, geht dies auf besonders schöne Art und Weise: Satz 2.3.34 (Trägheitssatz von Sylvester). Dann gibt es eine Matrix T ∈ Gln (R) so, dass Es 0s×t T t ST = 0t×s −Et 0u×s 0u×t Sei S ∈ Matn×n (R) symmetrisch. 0s×u 0t×u 0u×u ist mit natürlichen Zahlen s, t, u ∈ N mit s + t + u = n. Dabei sind diese Zahlen Invarianten jeder Bilinearform h•, •i, die bezüglich einer Basis durch S beschrieben werden kann, und man sagt, dass s + t der Rang der Bilinearform ist und s − t die Signatur. Bemerkung 2.3.35. In den neuen Koordinaten hat die Bilinearform die Gestalt hv, wi = x̂1 ŷ1 + · · · + x̂s ŷs − x̂s+1 ŷs+1 − · · · − x̂s+t ŷs+t + 0 + · · · + 0. 80 KAPITEL 2. LINEARE ALGEBRA II Beweis von Satz 2.3.34. Zuerst zur Existenz. Wir wissen bereits, dass es eine orthogonale Matrix U ∈ Gln (R) gibt mit λ1 0 ... U t SU = . 0 λn Mittels einer Permutationsmatrix P ∈ Gln (R) (in diesem Fall gilt P t = P −1 ) können wir den Fall λ̂1 0 ... (U P )t S(U P ) = P −1 (U t SU )P = 0 λ̂n mit λ̂1 , . . . , λ̂s > 0, λ̂s+1 , . . . , λ̂s+t < 0 und λ̂s+t+1 = · · · = λ̂n = 0 erreichen. Setze nun 1 q 0 |λ̂1 | ... q 1 ∈ Gln (R). R := λ̂ | | s+t 1 . . . 1 Dann ist (U P R)t S(U P R) = Rt ((U P )t S(U P ))R 1 .. . 1 −1 . , .. = −1 0 ... 0 wie gefordert. Nun zur Eindeutigkeit. Sei T̃ ∈ Gln (R) eine Matrix mit Es̃ , −Et̃ T t ST = 0ũ×ũ wobei s̃, t̃, ũ ∈ N seien mit s̃ + t̃ + ũ = n. Wir wollen zeigen, dass s = s̃, t = t̃ und u = ũ ist. Seien v1 , . . . , vn ∈ Rn die Spalten von T und ṽ1 , . . . , ṽn ∈ Rn die Spalten von T̃ . Setze V+ := span{v1 , . . . , vs }, V− := span{vs+1 , . . . , vs+t }, V0 := span{vs+t+1 , . . . , vn } Ṽ+ := span{ṽ1 , . . . , ṽs̃ }, und Ṽ− := span{ṽs̃+1 , . . . , ṽs̃+t̃ }, Ṽ0 := span{ṽs̃+t̃+1 , . . . , ṽn }. 2.3. SKALARPRODUKTE IM RN UND CN 81 Damit gilt V+ ⊕ V− ⊕ V0 = Rn = Ṽ+ ⊕ Ṽ− ⊕ Ṽ0 . Setze A0 := {v ∈ Rn | ∀w ∈ Rn : wt Sv = 0} = {v ∈ Rn | Sv = 0}. (Die Gleichheit erhält man durch Einsetzen der Standardeinheitsvektoren für w.) Wir zeigen A0 = V0 = Ṽ0 . Aus Symmetriegründen reicht es, A0 = V0 zu zeigen: Es ist klar, dass A0 ⊆ Rn ein Unterraum ist. Sei v ∈ V0 ; dann gilt wt Sv = wt 0 = 0 für alle w ∈ Rn , womit V0 ⊆ A0 ist. Sei nun v ∈ A0 . Schreibe v = T x mit x = (x1 , . . . , xn )t . Angenommen, es sei xi 6= 0 für i ∈ {1, . . . , s + t}, also v 6∈ V0 . Dann ist vit ST x = vit Sv = 0 und vit ST x = (vit ST )x = ±eti x = ±xi 6= 0, wobei ei der i-te Standardeinheitsvektor von Rn ist. Dies ist ein Widerspruch, weswegen v ∈ V0 sein muss. Insbesondere ist also u = dim V0 = dim Ṽ0 = ũ. Wir zeigen schliesslich dim V+ = dim Ṽ+ , womit s = dim V+ = dim Ṽ+ = s̃ und t = n − s − u = n − s̃ − ũ = t̃ ist: Betrachte V+ ∩(Ṽ− ⊕ Ṽ0 ) =: U . Wir wollen U = 0 zeigen, womit dim V+ ≤ n − dim Ṽ− − dim Ṽ0 = dim Ṽ+ folgt. Aus Symmetriegründen würde dann auch dim V+ ≥ dim Ṽ+ gelten, womit wir fertig wären. Angenommen, es gibt ein v ∈ U mit v 6= 0. Dann ist v t Sv > 0 da v ∈ V+ ist. Schreibe v = v ′ + v ′′ mit v ′ ∈ Ṽ− und v ′′ ∈ Ṽ0 ; dann ist (v ′ )t Sv ′ < 0 und wSv ′′ = 0 für alle w ∈ Rn , und somit v t Sv = (v ′ )t Sv ′ + (v ′ )t Sv ′′ + (v ′′ )t Sv ′ +(v ′′ )t Sv ′′ < 0, | {z } =(v ′ )t Sv ′′ ein Widerspruch! Definition 2.3.36. Sei h•, •i : V × V → K eine symmetrische Bilinearform. Der Entartungsraum von h•, •i sei definiert durch {v ∈ V | ∀w ∈ V : hw, vi = 0}. Bemerkung 2.3.37. Aus dem Beweis von Satz 2.3.34 haben wir gesehen, dass im Fall einer symmetrischen Bilinearform h•, •i : Rn × Rn → R die Dimension des Entartungsraumes gerade die Differenz von n und dem Rang von h•, •i ist. 2.3.4 Quadratische Formen Ist h•, •i : K n × K n → K eine Bilinearform mit y1 x1 .. .. x = . , y = . ∈ K n , yn xn so ist bekanntlich hx, yi = xt Sy 82 KAPITEL 2. LINEARE ALGEBRA II für die Gramsche Matrix S ∈ Matn×n (K) von h•, •i. Die Abbildung q : K n → K, x 7→ xt Sx heisst eine quadratische Form; sie hat die Eigenschaft q(λx) = λ2 q(x) für alle x ∈ K n und λ ∈ K. Ist beispielsweise n = 2, so ist durch q(x1 , x2 ) = x21 + x22 − 2x1 x2 eine quadratische Form gegeben: es gilt ¶µ ¶ µ 1 −1 x1 . q(x1 , x2 ) = (x1 , x2 ) x2 −1 1 Die zugehörige Bilinearform (im obigen Sinne) ist ¶µ ¶ µ ¶ µ ¶ µ x1 y1 1 −1 y1 . h , i = (x1 , x2 ) y2 −1 1 x2 y2 Wir wollen nun eine abstrakte Definition von quadratischer Form liefern. Dazu betrachten wir den Polynomring K[x1 , . . . , xn ] in den Unbestimmten x1 , . . . , xn ; dieser ist induktiv per K[x1 , . . . , xn−1 , xn ] := K[x1 , . . . , xn−1 ][xn ] definiert. Beispiel 2.3.38. Es ist K[x, y] = K[x][y] = {a0 + a1 y + a2 y 2 + · · · + an y n | ai ∈ K[x], i = 0, . . . , n} ¯ ( n n ) ¯ XX ¯ = aij xi y j ¯aij ∈ K . ¯ i=0 j=0 Ist f ∈ K[x1 , . . . , xn ] und a ∈ K n , etwa a = (a1 , . . . , an )t , so schreiben wir f (a) := f (a1 , . . . , an ) ∈ K. Definition 2.3.39. Ein Polynom ϕ ∈ K[x1 , . . . , xn ] ist eine Form vom Grad i, wenn f von der Form k X e f= aj x1j1 · · · xenjn j=1 ist mit aj ∈ K und ejℓ ∈ N, 1 ≤ j ≤ k, 1 ≤ ℓ ≤ n mit wenn die Monome von f alle den Totalgrad i haben. Pn ℓ=1 ejℓ = i für alle j, d.h. Beispiele 2.3.40. (a) Das Polynom 5x1 + 2x2 + 3x3 ist eine Form vom Grad 1. Solche Formen werden Linearformen genannt. (b) Das Polynom 3x21 + 2x22 + x3 x4 ist eine Form vom Grad 2. Solche Formen werden quadratische Formen genannt. 2.3. SKALARPRODUKTE IM RN UND CN 83 (c) Das Polynom x71 + x52 x23 ist eine Form vom Grad 7. Bemerkung 2.3.41. (a) Ist ϕ ∈ K[x1 , . . . , xn ] eine Form vom Grad i, so gilt f (λx) = λi f (x) für alle λ ∈ K und x ∈ K n . (b) Sei K ein Körper mit |K| = ∞ und sei f ∈ K[x1 , . . . , xn ] so, dass f (λx) = λi f (x) für alle x ∈ K n und λ ∈ K gilt. Dann kann man zeigen, dass f bereits eine Form vom Grad i ist. (c) Ist K ein Körper mit |K| < ∞, so gibt es Polynome f ∈ K[x1 , . . . , xn ] mit f (λx) = λi f (x) für alle x ∈ K n und λ ∈ K, obwohl f keine Form vom Grad i ist. Ist etwa |K| = q < ∞, so gilt xq = x für alle x ∈ K (dies wird in der Einführung in die Algebra gezeigt), womit f := x1q+i−1 + xi2 ∈ K[x1 , x2 ] keine Form vom Grad i ist, jedoch trotzdem f (λx) = λi f (x) für alle λ ∈ K und alle x ∈ K 2 gilt. Lemma 2.3.42. Sei K ein Körper mit 1 + 1 6= 0. Dann wird jede Form vom Grad 2 durch eine symmetrische Bilinearform induziert, d.h. zu jeder quadratischen Form ϕ ∈ K[x1 , . . . , xn ] gibt eine symmetrische Bilinearform ψ : K n × K n → K mit ϕ(x) = ψ(x, x) für alle x ∈ K n . Beweis. Sei q= X aij xi xj = 1≤i≤j≤n n X aii x2i + i=1 eine quadratische Form. Definiere a11 a212 a12 . . . S = 2. ... .. a1,n ··· 2 .. . ... an−1,n 2 aij xi xj i=1 j=i+1 a1,n 2 ··· ... n X n X ∈ Matn×n (K). an−1,n 2 ann Dann ist S offensichtlich symmetrisch, womit hx, yi := xt Sy eine symmetrische Bilinearform auf K n definiert. Für x = (x1 , . . . , xn )t ist ! à i−1 n n X X aji X a ij xj + aii xi + xj xi hx, xi = xt Sx = 2 2 j=i+1 j=1 i=1 = n X i−1 X aji i=1 j=1 Nun ist n X i−1 X aji i=1 j=1 2 2 xi xj = womit die Behauptung folgt. xi xj + n X i=1 aii x2i n X n X aij xi xj . + 2 i=1 j=i+1 n X n X n n X X aji aij xi xj = xi xj , 2 2 j=1 i=j+1 i=1 j=i+1 Bemerkung 2.3.43. Man kann aus dem Beweis erkennen, dass man durch hv, wi := 1 (q(v + w) − q(v) − q(w)) ebenfalls die gesuchte symmetrische Bilinearform erhalten 2 kann. 84 KAPITEL 2. LINEARE ALGEBRA II Korollar 2.3.44. Sei q : Rn → R eine quadratische Form. Dann gibt es eine invertierbare Matrix T ∈ Gln (R) und natürliche Zahlen s, t mit s + t ≤ n so, dass für x = (x1 , . . . , xn )t q(T x) = x21 + · · · + x2s − x2s+1 − · · · − x2s+t ist. Beweis. Nach Lemma 2.3.42 wird q durch eine symmetrische Bilinearform ϕ : Rn × Rn → R induziert, d.h. für alle v ∈ Rn gilt q(v) = ϕ(v, v). Sei G die Gramsche Matrix von ϕ; dann gilt ϕ(v, w) = v t Gw für alle v, w ∈ Rn . Nach dem Sylvesterschen Trägheitssatz (Satz 2.3.34) gibt es ein T ∈ Gln (R) so, dass Es −Et T t GT = 0u×u ist (mit s, t, u ∈ N und s + t + u = n). Damit ist gerade t t t q(T v) = ϕ(T v, T v) = (T v) G(T v) = v (T GT )v = s X i=1 vi2 − t X 2 vs+i , i=1 wenn v = (v1 , . . . , vn )t ∈ Rn ist. Definition 2.3.45. Eine quadratische Form q : Rn → R heisst positiv definit, wenn für alle v ∈ Rn \ {0} gilt q(v) > 0. Beispiel 2.3.46. Die durch q(x1 , x2 , x3 ) = x21 + 7x22 + 3x23 definierte quadratische Form R3 → R ist positiv definit. Definition 2.3.47. Eine quadratische Form q : Rn → R heisst negativ definit, wenn für alle v ∈ Rn \ {0} gilt q(v) < 0. Definition 2.3.48. Wir sagen, dass eine symmetrische Matrix S ∈ Matn×n (R) positiv definit bzw. negativ definit ist, wenn die quadratische Form q(x) := hx, xiS (wobei hv, wiS := v t Sw die zu S gehörige Bilinearform ist) positiv bzw. negativ definit ist. Bemerkung 2.3.49. Die Matrix A ∈ Matn×n (R) ist negativ definit genau dann, wenn −A positiv definit ist. Beachte, dass die Eigenwerte von A gerade von der Form −λ für Eigenwerte λ von −A sind. Satz 2.3.50. Sei S ∈ Matn×n (R) eine symmetrische Matrix. (a) Genau dann ist S positiv definit, wenn die Eigenwerte von S alle positiv sind. (b) Genau dann ist S negativ definit, wenn die Eigenwerte von S alle negativ sind. Beweis. Wegen Bemerkung 2.3.49 reicht es aus, (a) zu zeigen. Sei S ∈ Matn×n (R) symmetrisch. Nach Korollar 2.3.29 gibt es eine orthogonale Matrix T ∈ Gln (R) mit λ1 0 ... T t ST = , 0 λn 2.3. SKALARPRODUKTE IM RN UND CN 85 wobei λ1 , . . . , λn ∈ R die Eigenwerte von S sind. Nun gilt ∀x ∈ Rn \ {0} : xt Sx > 0 ⇐⇒ ∀y = T x ∈ Rn \ {0} : y t Sy > 0 ⇐⇒ ∀x ∈ Rn \ {0} : xt (T t ST )x = (T x)t S(T x) > 0. Insbesondere ist also S genau dann positiv definit, wenn T t ST es ist. Ohne Einschränkung können wir uns also auf den Fall λ1 0 ... S= 0 λn beschränken. Sind alle λi > 0, so ist für x = (x1 , . . . , xn ) ∈ Rn \ {0} t x Sx = n X λi x2i > 0. i=1 Gilt andersherum xt Sx > 0 für alle x ∈ Rn \ {0}, so insbesondere auch λi = eti Sei > 0, i = 1, . . . , n mit den Standardeinheitsvektoren e1 , . . . , en . Satz 2.3.51 (Hurwitz-Jakobi-Kriterium). Sei S = (sij )ij ∈ Matn×n (R) eine symmetrische Matrix. (a) Genau dann ist S positiv definit, wenn ist. s11 · · · s1k ∀k = 1, . . . , n : det ... . . . ... > 0 sk1 · · · skk (b) Genau dann ist S negativ definit, wenn ist. s11 · · · s1k ∀k = 1, . . . , n : (−1)k det ... . . . ... > 0 sk1 · · · skk Beweis. Wieder reicht es wegen Bemerkung 2.3.49 aus, (a) zu zeigen, da det(−B) = (−1)k det(B) ist für eine k × k-Matrix B. Wir zeigen (a) per Induktion nach n. Für n = 1 ist die Aussage klar. Sei s11 · · · s1,n−1 .. ... B := ... ∈ Matn−1,n−1 (R); . sn−1,1 · · · sn−1,n−1 86 KAPITEL 2. LINEARE ALGEBRA II dann ist B ebenfalls symmetrisch. Seien λ1 , . . . , λn−1 ∈ R die Eigenwerte von B. Dann gibt es ein λn ∈ R so, dass λ1 , . . . , λn−1 , λn die Eigenwerte von A sind. Weiterhin ist n−1 n Y Y det B = λi und det A = λi = det B · λn . i=1 i=1 Ist A positiv definit, so auch B. Nach Satz 2.3.50 Induktionsvoraussetzung (angewendet auf B) gilt s11 · · · .. . . ∀k = 1, . . . , n − 1 : det . . gilt λi > 0 für alle i, und per s1k .. > 0. . sk1 · · · skk Insbesondere ist det B > 0 und somit auch det A = det B · λn > 0. Folglich gilt auch s11 · · · s1n .. = det A > 0. det ... . . . . sn1 · · · snn Gilt andersherum s11 · · · s1k ∀k = 1, . . . , n : det ... . . . ... > 0, sk1 · · · skk so ist per Induktionsvoraussetzung B positiv definit, und es gilt det A > 0. Da B positiv definit ist, sind nach Satz 2.3.50 λ1 , . . . , λn−1 > 0, womit det B > 0 ist. det A > 0, womit nach Satz 2.3.50 A positiv definit ist. Damit ist ebenfalls λn = det B 2.3.4.1 Anwendung in der Analysis Sei f : Rn → R eine differenzierbare Funktion. Beispiel 2.3.52. Sei f : R3 → R gegeben durch f (x1 , x2 , x3 ) = cos x1 · sin x2 + ex3 . Analog zum Fall n = 1 lässt sich auch für Funktionen Rn → R eine TaylorEntwicklung durchführen. Sei f mindestens dreimal stetig differenzierbar. Dann gilt für x, x0 ∈ Rn µ ¶ x1 ∂f ∂f f (x0 + x) = f (x0 ) + (x0 ), . . . , (x0 ) ... ∂x1 ∂xn xn x1 µ 2 ¶ 1 ∂ f .. 2 + (x1 , . . . , xn ) (x0 ) . + o(kxk ), 2 ∂xi ∂xj 1≤i≤n 1≤j≤n xn wobei o(kxk2 ) für die Terme höherer Ordnung steht. Der Vektor µ ¶ ∂f ∂f grad f (x0 ) := (x0 ), . . . , (x0 ) ∂x1 ∂xn 2.3. SKALARPRODUKTE IM RN UND CN 87 heisst der Gradient von f in x0 , und die (nach dem Satz von Schwarz) symmetrische Matrix µ 2 ¶ ∂ f Hf (x0 ) := (x0 ) ∂xi ∂xj 1≤i≤n 1≤j≤n die Hesse-Matrix von f in x0 . Bemerkung 2.3.53. Sei f : Rn → R mindestens dreimal stetig differenzierbar und sei x0 ∈ Rn mit grad f (x0 ) = 0. (a) Ist Hf (x0 ) positiv definit, so hat f ein lokales Minimum in x0 , d.h. es gibt eine Umgebung U ⊆ Rn von x0 so, dass f (x) > f (x0 ) für alle x ∈ U \ {x0 } gilt. (b) Ist Hf (x0 ) negativ definit, so hat f ein lokales Maximum in x0 , d.h. es gibt eine Umgebung U ⊆ Rn von x0 so, dass f (x) < f (x0 ) für alle x ∈ U \ {x0 } gilt. (c) Ist Hf (x0 ) indefinit, hat also sowohl negative als auch positive Eigenwerte, so hat f einen Sattelpunkt in x0 . 2.3.5 Gram-Schmidt-Orthogonalisierung Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i. Es sei BV = {u1 , . . . , un } eine Basis von V , dim V = n. Definition 2.3.54. Sei B̂V = {v1 , . . . , vn } eine Basis von V . (a) Die Basis B̂V heisst orthogonal, wenn hvi , vj i = 0 ist für i 6= j. (b) Die Basis B̂V heisst orthonormal, wenn hvi , vj i = δij ist für alle i, j. Dabei ist δij := ( 1 wenn i = j 0 wenn i 6= j das Kronecker-Symbol. Bemerkungen 2.3.55. (a) Jede orthonormale Basis ist eine orthogonale Basis von V . (b) Ist B̂V = {v1 , . . . , vn } eine orthogonale Basis von V , so ist B̃V := {ṽ1 , . . . , ṽn } mit ṽi := kvvii k , 1 ≤ i ≤ n eine orthonormale Basis von V . Ist allgemein v ∈ V , v v 6= 0, so ist v̂ := kvk ein normierter Vektor, d.h. ein Vektor der Länge 1. (c) Ist {v1 , . . . , vn } eine orthonormale Basis von V und ist v ∈ V , so ist v= n X i=1 denn: ist v = Pn i=1 hv, vi ivi , λi vi , so ist hv, vj i = n X i=1 λi hvi , vj i = n X i=1 λi δij = λj . 88 KAPITEL 2. LINEARE ALGEBRA II Satz 2.3.56 (Gram-Schmidt). Es seien u1 , . . . , uk ∈ V linear unabhängig. Dann gibt es orthogonale Vektoren v1 , . . . , vk ∈ V (also hvi , vj i = 0 für i 6= j) mit span{v1 , . . . , vi } = span{u1 , . . . , ui } für alle i = 1, . . . , k. Es kann etwa vi := ui − i−1 X hui , vj i j=1 hvj , vj i vj gewählt werden. Ist insbesondere {u1 , . . . , un } eine Basis von V , so ist {v1 , . . . , vn } eine orthogonale Basis von V mit span{u1 , . . . , ui } = span{v1 , . . . , vi } für 1 ≤ i ≤ n. Beweis. Wir definieren induktiv v1 , . . . , vi . Setze v1 := u1 ; dann gilt offensichtlicherweise span{v1 } = span{u1 }. Angenommen, v1 , . . . , vi−1 seien schon konstruiert mit 1 < i ≤ k. Setze i−1 X hui , vj i vi := ui − vj . hv , v i j j j=1 Dann gilt span{v1 , . . . , vi−1 , vi } = span{v1 , . . . , vi−1 , ui } = span{u1 , . . . , ui−1 , ui }. Weiterhin ist für ℓ < i hvi , vℓ i = hui , vℓ i − i−1 X hui , vj i j=1 hvj , vj i hvj , vℓ i = hui , vℓ i − hui , vℓ i hvℓ , vℓ i = 0. hvℓ , vℓ i Bemerkung 2.3.57 (Geometrische Interpretation). Seien v1 , . . . , vk ∈ Rn P ii vi die orthogonal und sei U = span{v1 , . . . , vk }. Sei v ∈ Rn . Dann ist ki=1 hvhv,v i ,vi i orthogonale Projektion von v auf U . Dies liefert eine lineare Abbildung projU : V → U, Pk Für v = i=1 λi vi ist λi = Im projU = U . Weiterhin ist hv,vi i hvi ,vi i k X hv, vi i v 7→ vi . hvi , vi i i=1 und somit projU (v) = v; insbesondere ist also v ∈ Ker projU ⇐⇒ hv, vi i = 0 für i = 1, . . . , k ⇐⇒ v ∈ U ⊥ . Wir haben also Im projU = U , projU |U = IdU und Ker projU = U ⊥ . Damit erhalten wir erneut den Satz vom orthogonalen Komplement, Satz 2.3.20: Korollar 2.3.58 (Satz vom orthogonalen Komplement). Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i und sei U ⊆ V ein Untervektorraum. Sei U ⊥ = {v ∈ V | ∀u ∈ U : hv, ui = 0}. Dann gilt V = U ⊕ U ⊥. Beweis. Sei dazu {v1 , . . . , vk } eine orthonormale Basis von U , die zu einer orthonormalen Basis {v1 , . . . , vn } von V fortgesetzt sei. Nach der letzten Bemerkung ist U = projU (V ) = span{v1 , . . . , vk } 2.3. SKALARPRODUKTE IM RN UND CN 89 und U ⊥ = Ker projU ⊇ span{vk+1 , . . . , vn }, da projU (vi ) = 0 für i > k ist. Nach der Dimensionsformel (Satz 1.6.24) ist dim U ⊥ = dim V − dim Im projU = n − k, womit U ⊥ = span{vk+1 , . . . , vn } folgt. Daraus folgt direkt die Behauptung. Bemerkung 2.3.59. Ist V ein Euklidischer Vektorraum mit einer abzählbar unendlichen Basis, so kann Gram-Schmidt auch in diesem Fall angewendet werden: Beispiel 2.3.60. Sei V = R[x] mit Z 1 f (x)g(x) dx, hf, gi := −1 f, g ∈ V. Wir haben die Basis BV = {1, x, x2 , x3 , . . . }. Nun ist ¯1 Z 1 ¯ 1 1 i+j+1 ¯ i j i+j x (1 + (−1)i+j ). = hx , x i = x dx = ¯ i + j + 1 i + j + 1 −1 −1 Damit erhalten wir u0 (x) = 1, u1 (x) = x, u2 (x) = x2 − 13 , ... Bis auf konstanten Faktor erhält man die sogenannten Legendre-Polynome. 2.3.6 Orthogonale Abbildungen Definition 2.3.61. Sei V ein Euklidischer Vektorraum. Ein Endomorphismus ϕ : V → V heisst orthogonal, wenn für alle v, w ∈ V hϕ(v), ϕ(w)i = hv, wi gilt. Beispiel 2.3.62. Ist V = R2 , so ist für jedes α ∈ R der Endomorphismus ϕα : V → V , v 7→ Dα v mit ¶ µ cos α − sin α Dα = sin α cos α eine orthogonale Abbildung. Lemma 2.3.63. Sei ϕ : V → V ein orthogonaler Endomorphismus. Dann gilt: (a) Für alle v ∈ V ist kϕ(v)k = kvk; (b) Für alle v, w ∈ V gilt v⊥w =⇒ ϕ(v)⊥ϕ(w); (c) ϕ ist ein Monomorphismus, und ist V endlichdimensional, so ist ϕ ein Automorphismus; (d) Ist λ ∈ R ein Eigenwert von ϕ, so ist |λ| = 1. Ist λ ∈ C ein Eigenwert einer Darstellungsmatrix von ϕ, so ist |λ| = 1. 90 KAPITEL 2. LINEARE ALGEBRA II Beweis. (a) Klar wegen kvk = p hv, vi. (b) Klar wegen v⊥w ⇐⇒ hv, wi = 0. (c) Ist v ∈ V mit ϕ(v) = 0, so ist hv, vi = hϕ(v), ϕ(v)i = h0, 0i = 0, womit v = 0 sein muss. Also ist ϕ injektiv. Bei endlichdimensionalen Vektorräumen ist jeder injektive Endomorphismus bereits ein Automorphismus. (d) Sei λ ∈ R ein Eigenwert von ϕ und v ∈ V ein Eigenvektor zu λ. Dann ist 0 6= kvk = kϕ(v)k = kλvk = |λ|kvk, (a) womit |λ| = 1 sein muss. Der Zusatz kann entweder unter Verwendung von Satz 2.3.67 direkt gezeigt werden, oder folgt sofort aus Lemma 2.3.92 zusammen mit den Sätzen 2.3.67 und 2.3.91. Da wir dieses Resultat nicht benötigen, verzichten wir hier auf einen direkten Beweis. Lemma 2.3.64. Sei ϕ : V → V ein Endomorphismus. Genau dann ist ϕ orthogonal, wenn kvk = kϕ(v)k für alle v ∈ V gilt. Beweis. Die eine Richtung folgt direkt aus Lemma 2.3.63 (a). Gelte kvk = kϕ(v)k für alle v ∈ V . Sind v, w ∈ V , so ist kv + wk2 = hv + w, v + wi = kvk2 + kwk2 + 2hv, wi. Damit ist hv, wi = und somit ¢ 1¡ kv + wk2 − kvk2 − kwk2 , 2 ¢ 1¡ kv + wk2 − kvk2 − kwk2 2 ¢ 1¡ kϕ(v) + ϕ(w)k2 − kϕ(v)k2 − kϕ(w)k2 = hϕ(v), ϕ(w)i. = 2 hv, wi = Definition 2.3.65. Eine Matrix A ∈ Matn×n (R) heisst orthogonal, wenn At A = En ist, also wenn A ∈ Gln (R) ist mit A−1 = At . Lemma 2.3.66. Sei A ∈ Matn×n (R). Dann sind die folgenden Aussagen äquivalent: (i) Die Matrix A ist orthogonal; (ii) Die Zeilen von A sind eine orthonormale Basis von Rn bezüglich dem Standardskalarprodukt; (iii) Die Spalten von A sind eine orthonormale Basis von Rn bezüglich dem Standardskalarprodukt. 2.3. SKALARPRODUKTE IM RN UND CN 91 Beweis. Dies folgt daraus, dass das Standardskalarprodukt durch hv, wi = v t w gegeben ist, v, w ∈ Rn , und dass die Einheitsmatrix En = (δij )ij durch das KroneckerSymbol beschrieben werden kann. Satz 2.3.67. Sei V ein endlichdimensionaler Euklidischer Vektorraum mit Skalarprodukt h•, •i. Sei BV = {v1 , . . . , vn } eine orthonormale Basis, ϕ : V → V ein Endomorphismus und A = ϕBBVV . Genau dann ist ϕ orthogonal, wenn A orthogonal ist. Beweis. Zu v ∈ V ist v= n X i=1 womit hv, vi ivi , ¡ ¢ hv, wi = (hv, v1 i, . . . , hv, vn i) hvi , vj i ij (hw, v1 i, . . . , hw, vn i)t = (hv, v1 i, . . . , hv, vn i)En (hw, v1 i, . . . , hw, vn i)t = (hv, v1 i, . . . , hv, vn i)(hw, v1 i, . . . , hw, vn i)t ist. Weiter ist ϕ(v) = (ϕ(v1 ), . . . , ϕ(vn ))(hv, v1 i, . . . , hv, vn i)t = (v1 , . . . , vn )A(hv, v1 i, . . . , hv, vn i)t . Damit ist ¢ ¢t ¡ ¡ hϕ(v), ϕ(w)i = A(hv, v1 i, . . . , hv, vn i)t A(hw, v1 i, . . . , hw, vn i)t = (hv, v1 i, . . . , hv, vn i)At A(hw, v1 i, . . . , hw, vn i)t . Somit haben wir ϕ orthogonal ⇐⇒ ∀v, w ∈ V : hϕ(v), ϕ(w)i = hv, wi t t hw, v1 i hv, v1 i hv, v1 i hw, v1 i ⇐⇒ ∀v, w ∈ V : ... At A ... = ... ... hw, vn i hv, vn i hv, vn i hw, vn i ⇐⇒ ∀x, y ∈ K n : xt At Ay = xt y ⇐⇒ At A = En ⇐⇒ A orthogonal. 2.3.7 Adjungierte Endomorphismen Definition 2.3.68. Sei (V, h•, •i) ein Euklidischer Raum und ϕ : V → V ein Endomorphismus. Ein weiterer Endomorphismus ϕ∗ : V → V heisst adjungiert zu ϕ, wenn für alle v, w ∈ V gilt hϕ(v), wi = hv, ϕ∗ (w)i. Der Endomorphismus ϕ heisst selbstadjungiert, wenn ϕ adjungiert zu ϕ ist, d.h. wenn hϕ(v), wi = hv, ϕ(w)i für alle v, w ∈ V ist. 92 KAPITEL 2. LINEARE ALGEBRA II Bemerkung 2.3.69. Ist ϕ∗ adjungiert zu ϕ, so ist ϕ adjungiert zu ϕ∗ . Beweis. Für alle v, w ∈ V gilt hϕ∗ (v), wi = hw, ϕ∗ (v)i = hϕ(w), vi = hw, ϕ(v)i wegen der Symmetrie des Skalarproduktes. Satz 2.3.70. Sei ϕ : V → V ein Endomorphismus eines Euklidischen Raumes (V, h•, •i). Wir nehmen an, dass dim V < ∞ ist. (a) Dann gibt es genau einen Endomorphismus ϕ∗ : V → V , der zu ϕ adjungiert ist. (b) Ist BV eine Orthonormalbasis von V , A = ϕBBVV und B = (ϕ∗ )BBVV , so ist A = Bt. Damit ist ϕ selbstadjungiert genau dann, wenn A symmetrisch ist. Beweis. Sei BV eine Orthonormalbasis von V und sei A = ϕBBVV . Ist ψ : V → K n der Koordinatenisomorphismus bezüglich BV , so gilt hv, wi = ψ(v)t ψ(w) für alle v, w ∈ V , und es gilt ψ(ϕ(v)) = Aψ(v) für alle v ∈ V . Damit ist hϕ(v), wi = ψ(ϕ(v))t ψ(w) = (Aψ(v))t ψ(w) = ψ(v)t (At ψ(w)). Damit gilt für einen Endomorphismus ϕ∗ : V → V ϕ∗ ist adjungiert zu ϕ ⇐⇒ ∀x, y ∈ Rn : xt At y = xt (ϕ∗ )BBVV y ⇐⇒ At = (ϕ∗ )BBVV . Dies zeigt die Existenz und Eindeutigkeit aus (a) und es zeigt den ersten Teil von (b). Die Äquivalenz aus (b) ist damit ebenfalls klar, da A per Definition genau dann symmetrisch ist, wenn At = A ist. 2.3.8 Bilinearformen und Sesquilinearformen 2.3.8.1 Komplexifizierung Sei ein reeller Vektorraum V gegeben. Definition 2.3.71. Definiere V C := {v + iw | v, w ∈ V } = {(v, w) | v, w ∈ V } = V × V. Bemerkungen 2.3.72. (a) Die Menge V C ist auf natürliche Weise eine Abelsche Gruppe durch (v + iw) + (v ′ + iw′ ) := (v + v ′ ) + i(w + w′ ) für v, v ′ , w, w′ ∈ V . (b) Die Abelsche Gruppe ist durch die Verknüpfung λ(v + iw) := (λv) + i(λw) für v, w ∈ V , λ ∈ R auf eine natürliche Art und Weise ein R-Vektorraum, und als R-Vektorraum ist V C ∼ = V ×V. 2.3. SKALARPRODUKTE IM RN UND CN 93 (c) Ist λ = λ1 + iλ2 ∈ C mit λ1 , λ2 ∈ R und ist v = v1 + iv2 ∈ V C mit v1 , v2 ∈ V , so definiere λv := (λ1 v1 − λ2 v2 ) + i(λ1 v2 + λ2 v1 ). Dadurch wird V C zu einem C-Vektorraum. (d) Es gibt eine natürliche Inklusion ι : V → V C, v 7→ v + i0, die ein R-Monomorphismus ist. Wir identifizieren V hierüber als R-Untervektorraum von V C . (e) Ist B = {vi | i ∈ I} eine R-Basis von V , so ist B1 := {v + i0 | v ∈ B} ∪ {0 + iv | v ∈ B} eine R-Basis von V C und B2 := {v + i0 | v ∈ B} eine C-Basis von V C . Mit der Inklusion ι aus (d) gilt also B2 = ι(B). 2.3.8.2 Reellifizierung Sei V ein C-Vektorraum. Da R ein Unterkörper von C ist, ist V auf natürliche Art und Weise auch ein R-Vektorraum. Sei dimC V = n und B = {v1 , . . . , vn } eine C-Basis von V . (1) Betrachte V R := spanR {v1 , . . . , vn , iv1 , . . . , ivn }. Man rechnet leicht nach, dass {v1 , . . . , vn , iv1 , . . . , ivn } eine R-Basis von V ist, dass also dimR V = 2n ist. Dies folgt im Prinzip sofort daraus, dass eine komplexe Zahl z ∈ C eindeutig als z = a + ib mit a, b ∈ R darstellbar ist. (2) Definiere VRB := spanR {v1 , . . . , vn }. Dies ist ein n-dimensionaler R-Untervektorraum von V R , und auf natürliche Weise gilt (VRB )C ∼ = V als C-Vektorräume. Beispiel 2.3.73. Sei V = Rn = {(x1 , . . . , xn ) | xi ∈ R}. Dann ist V C = {x + iy | x, y ∈ R} = {(x1 + iy1 , . . . , xn + iyn ) | xi , yi ∈ R} = Cn . Umgekehrt ist (Cn )SR = Rn , wenn S = {e1 , . . . , en } die Standardbasis von Cn ist, und (Cn )R = R2n . 94 KAPITEL 2. LINEARE ALGEBRA II 2.3.8.3 Skalarprodukte auf C-Vektorräumen Sei V ein C-Vektorraum. Wir hätten gerne wie im reellen Fall eine Bilinearform h•, •i : V × V → C so, dass kvk2 := hv, vi eine Norm auf C induziert. Jedoch gibt es keine positiv definiten Bilinearformen auf V mit dim V ≥ 1: ist h•, •i : V × V → C eine Bilinearform und dim V > 1, so gibt es immer ein v ∈ V \ {0} mit hv, vi = 0 (siehe Aufgabe 4 auf Übungsblatt 8). Und wenn v ∈ V ein Element mit hv, vi > 0 ist, so ist hiv, ivi = i2 hv, vi = −hv, vi < 0. Wir benötigen also etwas schwächeres als eine Bilinearform. Definition 2.3.74. Eine Abbildung h•, •i : V × V → C heisst Sesquilinearform5 , wenn für alle v1 , v2 , v, w1 , w2 , w ∈ V und λ, µ ∈ C gilt (i) hv1 + v2 , wi = hv1 , wi + hv2 , wi; (ii) hλv, wi = λhv, wi; (iii) hv, w1 + w2 i = hv, w1 i + hv, w2 i; und (iv) hv, µwi = µhv, wi. Somit ist eine Sesquilinearform “halblinear” in der zweiten Komponente. Wie bei Bilinearformen können auch Sesquilinearformen über Matrizen beschrieben werden: P Bemerkung 2.3.75. Ist B = {v , . . . , v } eine Basis von V und sind v = λi v i 1 n P und w = µi vi , so gilt ¡ ¢ hv, wi = (λ1 , . . . , λn ) hvi , vj i 1≤i≤n (µ1 , . . . , µn )t . 1≤j≤n Die Matrix (hvi , vj i)i,j heisst Gramsche Matrix von ϕ bezüglich der Basis B. Eine Sesquilinearform kann nur dann symmetrisch sein, wenn sie bereits identisch 0 ist: sind v, w ∈ V mit hv, wi = 6 0, so ist wäre ihv, wi = hiv, wi = hw, ivi = ihw, vi = ihv, wi, also i = i = −i, ein Widerspruch. Wir benötigen also eine etwas schwächere Form der Symmetrie. Definition 2.3.76. Eine Sesquilinearform h•, •i auf V heisst Hermitesch, falls hv, wi = hw, vi für alle v, w ∈ V gilt. Man nennt eine Hermitesche Sesquilinearform auch einfach Hermitesche Form. Definition 2.3.77. Eine Sesquilinearform h•, •i auf V heisst positiv definit, wenn für alle v ∈ V gilt (i) hv, vi ∈ R; (ii) hv, vi ≥ 0; und (iii) hv, vi = 0 genau dann, wenn v = 0. Definition 2.3.78. Eine positiv definite Hermitesche Sesquilinearform heisst (unitäres, komplexes) Skalarprodukt. 5 Das lateinische Wort sesqui bedeutet 1 21 . 2.3. SKALARPRODUKTE IM RN UND CN 95 Definition 2.3.79. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt auf V . (a) Zwei Vektoren v, w ∈ V heissen orthogonal (in Bezug auf h•, •i), wenn hv, wi = 0 ist. (b) Eine Basis B = {v1 , . . . , vn } von V heisst Orthogonalbasis, wenn hvi , vj i = 0 ist für i 6= j. (c) Eine Basis B = {v1 , . . . , vn } von V heisst Orthonormalbasis, wenn hvi , vj i = δij ist, wobei ( 1 falls i = j, δij = 0 sonst wieder das Kronecker-Symbol ist. Bemerkung 2.3.80. Ist V ein C-Vektorraum, h•, •i ein unitäres Skalarprodukt P auf VP , B = {v1 , . . . , vn } eine Orthonormalbasis von V und ist v = λi vi und w = µi vi , so ist n X hv, wi = λi µi . i=1 Beispiel 2.3.81. Sei V = Cn und x = (x1 , . . . , xn )t , y = (y1 , . . . , yn )t ∈ Cn . Dann definiert n X t hx, yi := x y = xi yi i=1 ein unitäres Skalarprodukt auf V , genannt das (unitäre) Standardskalarprodukt. Definition 2.3.82. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt auf V . Dann heisst (V, h•, •i) ein unitärer Raum. Bemerkung 2.3.83. Sei V ein C-Vektorraum und h•, •i ein unitäres Skalarprodukt auf V . Dann definiert dieses Skalarprodukt eine Norm k•k auf V durch p kvk := hv, vi. Für die Dreiecksungleichung wird ebenfalls wieder die Cauchy-Schwarzsche Ungleichung benötigt: Lemma 2.3.84 (Cauchy-Schwarz). Sei (V, h•, •i) ein unitärer Raum und v, w ∈ V . Dann gilt |hv, wi| ≤ kvk · kwk. Beweis. Ist kwk = 0, so ist die Behauptung klar; sei also w 6= 0. Für alle λ ∈ C gilt 0 ≤ kv − λwk2 = hv − λw, v − λwi = hv, vi − (λhv, wi + λhv, wi) + λλhw, wi = hv, vi − 2ℜ(λhv, wi) + |λ|2 hw, wi. Mit λ := hv,wi hw,wi gilt 0 ≤ hv, vi − 2ℜ à |hv, wi|2 hw, wi womit die Behauptung folgt. ! |hv, wi|2 |hv, wi|2 + hw, wi = hv, vi − , hw, wi2 hw, wi 96 KAPITEL 2. LINEARE ALGEBRA II Bemerkung 2.3.85 (Polarisierung). Man kann aus der Norm k•k wieder das Skalarprodukt h•, •i erhalten, da für alle v, w ∈ V gilt 1 1 hv, wi = (kv + wk2 − kv − wk2 ) + i(kv + iwk2 − kv − iwk2 ). 4 4 Genauso wie im reellen gilt: Satz 2.3.86 (Gram-Schmidt). Sei (V, h•, •i) ein unitärer Raum und seien linear unabhängige Vektoren u1 , . . . , uk ∈ V gegeben. Dann gibt es orthogonale Vektoren v1 , . . . , vk ∈ V (also hvi , vj i = 0 für i 6= j) mit span{v1 , . . . , vi } = span{u1 , . . . , ui } Es kann etwa vi := ui − i−1 X hui , vj i j=1 hvj , vj i für alle i = 1, . . . , k. vj gewählt werden. Ist insbesondere {u1 , . . . , un } eine Basis von V , so ist {v1 , . . . , vn } eine orthogonale Basis von V mit span{u1 , . . . , ui } = span{v1 , . . . , vi } für 1 ≤ i ≤ n. Somit besitzt jeder endlichdimensionale unitäre Raum eine Orthogonalbasis und damit ebenfalls eine Orthonormalbasis, da zu v ∈ V \ {0} gilt ° ° ° v ° ° ° ° kvk ° = 1. Definition 2.3.87. Eine Matrix U ∈ Matn×n (C) heisst unitär, wenn U U ∗ = En t ist, wobei U ∗ := U ist. Ist O ∈ Matn×n (R) orthogonal, so ist O aufgefasst als Matrix in Matn×n (C) also unitär. Analog zum reellen Fall (Lemma 2.3.66) gilt für unitäre Matrizen: Lemma 2.3.88. Sei A ∈ Matn×n (C). Dann sind äquivalent: (i) A ist unitär; (ii) A ∈ Gln (C) und A−1 = A∗ ; (iii) die Zeilen von A bilden eine Orthonormalbasis von Cn bezüglich dem unitären Standardskalarprodukt; (iv) die Spalten von A bilden eine Orthonormalbasis von Cn bezüglich dem unitären Standardskalarprodukt; Beweis. Analog zum reellen Fall. Beispiel 2.3.89. Seien λ1 , . . . , λn ∈ R beliebig. Dann ist eiλ1 0 ... ∈ Matn×n (C) iλn 0 e unitär. 2.3. SKALARPRODUKTE IM RN UND CN 97 Definition 2.3.90. Sei (V, h•, •i) ein unitärer Vektorraum. Ein Endomorphismus ϕ : V → V heisst unitär, wenn für alle v, w ∈ V gilt hϕ(v), ϕ(w)i = hv, wi. Analog zum reellen Fall (bei orthogonalen Matrizen und Abbildungen, siehe Satz 2.3.67) gilt für die Beziehung zwischen unitären Matrizen und unitären Endomorphismen folgendes: Satz 2.3.91. Sei B = {v1 , . . . , vn } eine Orthonormalbasis des unitären Raumes (V, h•, •i). Sei ϕ : V → V ein Endomorphismus und sei A = ϕBB . Genau dann ist ϕ unitär, wenn A unitär ist. Beweis. Es gilt ∀v, w ∈ V : hϕ(v), ϕ(w)i = hv, wi ⇐⇒ ∀x, y ∈ Cn : (Ax)t (Ay) = xt y ⇐⇒ ∀x, y ∈ Cn : xt (At A)y = xt y ⇐⇒ At A = En . Lemma 2.3.92. Sei (V, h•, •i) ein unitärer Raum und sei λ ein Eigenwert eines unitären Endomorphismus ϕ : V → V . Dann gilt |λ| = 1. Bemerkung 2.3.93. Da C algebraisch abgeschlossen ist, hat jeder Endomorphismus V → V eines endlichdimensionalen C-Vektorraums V 6= {0} einen Eigenwert. Beweis von Lemma 2.3.92. Sei v ∈ V ein Eigenvektor zu λ. Dann gilt 0 6= kvk2 = hv, vi = hϕ(v), ϕ(v)i = hλv, λvi = λλhv, vi = |λ|2 kvk2 . Da kvk2 6= 0 ist, folgt |λ|2 = 1, also |λ| = 1. Bemerkungen 2.3.94. (a) Damit sind auch alle Eigenwerte einer unitären Matrix vom Betrag 1. (b) Ist ϕ unitär, so gilt kϕ(v)k = kvk für alle v ∈ V . Definition 2.3.95. Sei (V, h•, •i) ein unitärer Raum und ϕ : V → V ein Endomorphismus. Ein weiterer Endomorphismus ϕ∗ : V → V heisst adjungiert zu ϕ, wenn für alle v, w ∈ V gilt hϕ(v), wi = hv, ϕ∗ (w)i. Der Endomorphismus ϕ heisst selbstadjungiert, wenn ϕ adjungiert zu ϕ ist, d.h. wenn hϕ(v), wi = hv, ϕ(w)i für alle v, w ∈ V gilt. Bemerkung 2.3.96. Analog zum reellen Fall ist wieder ϕ adjungiert zu ϕ∗ . 98 KAPITEL 2. LINEARE ALGEBRA II Definition 2.3.97. Eine Matrix A ∈ Matn×n (C) heisst Hermitesch, wenn A = t A∗ = A ist. Analog zum reellen Fall (Satz 2.3.70) gilt: Satz 2.3.98. Sei ϕ : V → V ein Endomorphismus eines unitären Raumes (V, h•, •i). Wir nehmen an, dass dim V < ∞ ist. (a) Dann gibt es genau einen Endomorphismus ϕ∗ : V → V , der zu ϕ adjungiert ist. (b) Ist BV eine Orthonormalbasis von V , A = ϕBBVV und B = (ϕ∗ )BBVV , so ist A = B∗. Damit ist ϕ selbstadjungiert genau dann, wenn A Hermitesch ist. Beweis. Analog zum Beweis des reellen Satzes (Satz 2.3.70) gilt für alle Endomorphismen ϕ∗ : V → V , wenn A = ϕBB und B = (ϕ∗ )BB ist, ∀v, w ∈ V : hϕ(v), wi = hv, ϕ∗ (w)i ⇐⇒ ∀x, y ∈ Cn : (Av)t w = v t (Bw) ⇐⇒ ∀x, y ∈ Cn : v t At w = v t Bw t ⇐⇒ At = B ⇐⇒ A∗ = A = B, woraus ebenfalls alle Aussagen folgen. Lemma 2.3.99. Sei λ ∈ C ein Eigenwert der Hermiteschen Matrix H ∈ Matn×n (C). Dann gilt λ ∈ R. Beweis. Sei v ∈ Cn ein Eigenvektor zu λ. Dann gilt λhv, vi = hλv, vi = hAv, vi = hv, Avi = hv, λvi = λhv, vi, und da hv, vi = 6 0 ist, ist somit λ = λ, also λ ∈ R. 2.3.9 Normale Endomorphismen Definition 2.3.100. (a) Ein Endomorphismus ϕ : V → V eines endlichdimensionalen unitären Raumes (V, h•, •i) heisst normal, wenn ϕ∗ ϕ = ϕϕ∗ ist. (b) Eine Matrix A ∈ Matn×n (C) heisst normal, wenn A∗ A = AA∗ ist. Lemma 2.3.101. (a) Jeder unitäre und jeder selbstadjungierte Endomorphismus eines endlichdimensionalen unitären Raumes ist normal. (b) Jede unitäre und jede Hermitesche Matrix ist normal. 2.3. SKALARPRODUKTE IM RN UND CN 99 Beweis. (a) Ist ϕ : V → V selbstadjungiert, so ist ϕ∗ = ϕ und somit ϕϕ∗ = ϕ2 = ϕ∗ ϕ. Ist ϕ : V → V unitär, so ist hϕ(v), wi = hϕ(v), ϕ(ϕ−1 (w))i = hv, ϕ−1 (w)i für alle v, w ∈ V , womit ϕ∗ = ϕ−1 folgt. Damit ist ϕϕ∗ = IdV = ϕ∗ ϕ. (b) Es reicht, die Aussage für Matrizen zu beweisen. Sei A ∈ Matn×n (C). Ist A unitär, also gilt AA∗ = En , so gilt A∗ = A−1 und somit A∗ A = En . Ist A Hermitesch, so gilt A∗ = A, also A∗ A = A2 = AA∗ . Satz 2.3.102. Sei (V, h•, •i) ein n-dimensionaler unitärer Raum, n ∈ N, und BV = {v1 , . . . , vn } eine orthonormale Basis von V . Sei ϕ : V → V ein Endomorphismus. Genau dann ist ϕ normal, wenn ϕBBVV ∈ Matn×n (C) normal ist. Beweis. Nach Satz 2.3.98 ist (ϕ∗ )BBVV = A∗ . Damit ist A normal, also AA∗ = A∗ A ⇐⇒ ϕBBVV (ϕ∗ )BBVV = (ϕϕ∗ )BBVV = (ϕ∗ ϕ)BBVV = (ϕ∗ )BBVV ϕBBVV ⇐⇒ ϕϕ∗ = ϕ∗ ϕ, also ϕ normal. Lemma 2.3.103. Sei (V, h•, •i) ein endlichdimensionaler unitärer Raum und ϕ : V → V ein Endomorphismus. Genau dann ist ϕ normal, wenn für alle v, w ∈ V hϕ(v), ϕ(w)i = hϕ∗ (v), ϕ∗ (w)i gilt. Beweis. Es ist ϕ∗∗ = ϕ, da für alle v, w ∈ V hϕ∗ (v), wi = hw, ϕ∗ (v)i = hϕ(w), vi = hv, ϕ(w)i ist. Somit gilt für v, w ∈ V hϕ(v), ϕ(w)i = hϕ∗ (v), ϕ∗ (w)i ⇐⇒ hv, ϕ∗ (ϕ(w))i = hv, ϕ(ϕ∗ (w))i ⇐⇒ hv, ϕ∗ (ϕ(w)) − ϕ(ϕ∗ (w))i = 0. Dies gilt genau dann für ein festes w ∈ V und alle v ∈ V , wenn ϕ∗ (ϕ(w)) − ϕ(ϕ∗ (w)) = 0 ist; damit ist die Gleichung aus der Behauptung äquivalent zu ϕ∗ ϕ = ϕϕ∗ , also dazu, dass ϕ normal ist. Lemma 2.3.104. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und ϕ : V → V normal. Dann ist Ker ϕ = Ker ϕ∗ . Beweis. Für v ∈ V gilt kϕ(v)k2 = hϕ(v), ϕ(v)i = hϕ∗ (v), ϕ∗ (v)i = kϕ∗ (v)k2 . Also ist ϕ(v) = 0 genau dann der Fall, wenn ϕ∗ (v) = 0 ist. 100 KAPITEL 2. LINEARE ALGEBRA II Lemma 2.3.105. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und ϕ : V → V normal. Ist v ∈ V Eigenvektor von ϕ zum Eigenwert λ ∈ C, so ist v gleichzeitig auch Eigenvektor von ϕ∗ zum Eigenwert λ. Es ist also Eig(ϕ, λ) = Eig(ϕ∗ , λ). Beweis. Ist ϕ normal, so auch λ Id −ϕ: es ist (λ Id −ϕ)∗ = λ Id −ϕ∗ , und somit (λ Id −ϕ)(λ Id −ϕ)∗ = |λ|2 Id −λϕ − λϕ∗ + ϕϕ∗ = (λ Id −ϕ)∗ (λ Id −ϕ). Damit ist nach Lemma 2.3.104 Eig(ϕ, λ) = Ker(λ Id −ϕ) = Ker(λ Id −ϕ)∗ = Ker(λ Id −ϕ∗ ) = Eig(ϕ∗ , λ). Lemma 2.3.106. Sei (V, h•, •i) ein endlichdimensionaler unitärer Vektorraum und ϕ : V → V normal. Sind λ1 , λ2 ∈ C zwei verschiedene Eigenwerte von ϕ und ist vi ∈ Eig(ϕ, λi ), i = 1, 2, so ist hv1 , v2 i = 0. Beweis. Es ist (mit Lemma 2.3.105) und hϕ(v1 ), v2 i = hλ1 v1 , v2 i = λ1 hv1 , v2 i hv1 , ϕ∗ (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i. Nun ist jedoch hϕ(v1 ), v2 i = hv1 , ϕ∗ (v2 )i, womit (λ1 − λ2 )hv1 , v2 i = 0 ist; also folgt die Behauptung. Satz 2.3.107 (Hauptsatz über normale Endomorphismen). Sei (V, h•, •i) ein n-dimensionaler unitärer Raum, n ∈ N, BV = {v1 , . . . , vn } eine orthonormale Basis von V , ϕ : V → V ein Endomorphismus und A = ϕBBVV die Darstellungsmatrix von ϕ bzgl. BV . Dann sind die folgenden Aussagen äquivalent: (i) ϕ ist normal; (ii) V besitzt eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ; und (iii) es gibt eine unitäre Matrix U ∈ Gln (C) so, dass U ∗ AU in Diagonalform ist, d.h. A kann unitär diagonalisiert werden. Beweis. (i) ⇒ (ii): Wir beweisen die Implikation per Induktion nach n. Für n = 1 ist dies klar. Angenommen, dies gelte für alle k-dimensionalen unitären Vektorräume mit k < n. Sei dim V = n. Nach dem Fundamentalsatz der Algebra 1.5.7 gibt es einen Eigenwert λ1 ∈ C von ϕ; sei v1 ∈ V ein Eigenvektor zu λ1 . Definiere w1 := kvv11 k ; dann ist ϕ(w1 ) = λ1 w1 und kw1 k = 1. Betrachte nun W := span{w1 }⊥ = {w ∈ V | hw1 , wi = 0}. Dann ist dim W = n − 1. Ist w ∈ W , so gilt (mit Lemma 2.3.105) hϕ(w), w1 i = hw, ϕ∗ (w1 )i = hw, λ1 w1 i = λ1 hw, w1 i = 0, also ϕ(w) ∈ W . Damit gilt ϕ(W ) ⊆ W , womit die Einschränkung ϕ|W : W → W einen Endomorphismus liefert. 2.3. SKALARPRODUKTE IM RN UND CN 101 Ist w ∈ W , so gilt ebenfalls hw1 , ϕ∗ (w)i = hϕ(w1 ), wi = hλw1 , wi = λhw1 , wi = 0, also ϕ∗ (w) ∈ W . Somit ist auch die Einschränkung ϕ∗ |W : W → W wohldefiniert. Deswegen gilt (ϕ|W )∗ = (ϕ∗ )|W , womit direkt folgt, dass ϕ|W normal ist. Per Induktionsvoraussetzung gibt es also eine Orthonormalbasis {w2 , . . . , wn } von W bestehend aus Eigenvektoren von ϕ|W , insbesondere also auch aus Eigenvektoren von ϕ. Damit ist {w1 , w2 , . . . , wn } eine Orthonormalbasis von V bestehend aus Eigenvektoren von ϕ. (ii) ⇒ (iii): Sei B′ := {w1 , . . . , wn } eine Orthonormalbasis von V bestehend aus ′ ′ Eigenvektoren von ϕ. Sei U := (IdV )BB ; dann ist ϕBB′ = U −1 AU in Diagonalform. Sei ui die i-te Spalte von U ; dann gilt wi = (v1 , . . . , vn )ui . Somit ist der Eintrag in der i-ten Zeile und j-ten Spalte von U ∗ U also gegeben durch ui t uj = uti uj = hwi , wj i = δij , womit U ∗ U = En ist, U also unitär. (iii) ⇒ (i): Sei D = U ∗ AU in Diagonalform mit U ∈ Gln (C) unitär, also A = U DU ∗ . Dann ist A∗ A = (U DU ∗ )∗ (U DU ∗ ) = (U D∗ U ∗ )(U DU ∗ ) = U D∗ DU ∗ und AA∗ = (U DU ∗ )(U DU ∗ )∗ = (U DU ∗ )(U D∗ U ∗ ) = U DD∗ U ∗ ; da offensichtlich D∗ D = DD = DD = DD∗ ist folgt somit A∗ A = AA∗ , also A normal. Nach Satz 2.3.102 ist somit ϕ normal. Bemerkung 2.3.108. In Matrizenform erhält man also folgendes: Ist A ∈ Matn×n (C), so sind äquivalent: (i) A ist normal; (ii) es gibt eine Orthonormalbasis von Cn (bzgl. dem Standardskalarprodukt) bestehend aus Eigenvektoren von A; und (iii) es gibt eine unitäre Matrix U ∈ Gln (C) so, dass U ∗ AU in Diagonalform ist. Bemerkung 2.3.109. Folgende Klassen von Matrizen sind normal: (a) unitäre (und insbesondere orthogonale) Matrizen (die Eigenwerte haben immer Betrag 1); (b) Hermitesche (und insbesondere reelle symmetrische) Matrizen (die Eigenwerte sind immer reell); und (c) Diagonalmatrizen. Schliesslich erhalten wir: Satz 2.3.110 (Struktursatz für Hermitesche und unitäre Matrizen). Sei A ∈ Matn×n (C) und seien λ1 , . . . , λn ∈ C die Eigenwerte von A. (a) Genau dann ist A hermitesch, wenn A normal ist und λ1 , . . . , λn ∈ R sind. 102 KAPITEL 2. LINEARE ALGEBRA II (b) Genau dann ist A unitär, wenn A normal ist und |λi | = 1 ist, 1 ≤ i ≤ n. Beweis. Mit Satz 2.3.107 und Lemma 2.3.101 reicht es aus, mit λ1 0 ... D := ∈ Matn×n (C) 0 λn folgende Aussagen zu zeigen: (i) Genau dann ist D hermitesch, wenn λ1 , . . . , λn ∈ R sind. (ii) Genau dann ist D unitär, wenn |λi | = 1 ist, 1 ≤ i ≤ n. Diese folgen jedoch direkt aus Lemma 2.3.99, Bemerkung 2.3.94 (a), Beispiel 2.3.89 und dem Fakt, dass reelle Diagonalmatrizen Hermitesch sind. 2.3.10 Anwendungsbeispiel: Methode der kleinsten Quadrate Gegeben seien Punkte {(xi , yi ) ∈ R2 | i = 1, . . . , n} mit xi 6= xj für i 6= j. Betrachte den Vektorraum Vk := {f ∈ R[x] | grad(f ) < k} = R<k [x]. Gesucht ist nun ein f ∈ Vk so, dass 2 Q (f ) := n X i=1 (f (xi ) − yi )2 minimal ist. Lemma 2.3.111 (Lagrange-Interpolation). Ist k = n, so gibt es genau ein f ∈ Vk mit Q2 (f ) = 0, d.h. es gilt f (xi ) = yi für 1 ≤ i ≤ n. Beweis. Wir zeigen zuerst die Eindeutigkeit. Seien f, f˜ ∈ Vn mit f (xi ) = yi = f˜(xi ), 1 ≤ i ≤ n. Setze g := f − f˜; dann gilt g(xi ) = 0 für 1 ≤ i ≤ n und grad(g) ≤ max{grad(f ), grad(f˜)} ≤ n − 1. Nach Bemerkung 1.2.21 muss somit g das Nullpolynom sein, also f = f˜. Nun zur Existenz. Definiere Polynome von Grad n − 1 n Y x − xj fi (x) := ∈ Vn ; x i − xj j=1 j6=i dann gilt fi (xj ) = δij . Mit f (x) := n X i=1 yi fi (x) ∈ Vn ist also f (xi ) = yi fi (xi ) = yi , 1 ≤ i ≤ n, und grad(f ) ≤ max{grad(f1 ), . . . , grad(fn )} = n − 1, also f ∈ Vn . 2.3. SKALARPRODUKTE IM RN UND CN 103 Bemerkung 2.3.112. Betrachte die Auswertungsabbildung ev : Vn → Rn , f 7→ (f (x1 ), . . . , f (xn )). Diese ist linear, es ist dim Vn = n = dim Rn und der Kern ist nach Bemerkung 1.2.21 {0}, womit sie ein Isomorphismus ist. Daraus folgt ebenfalls direkt das vorherige Lemma; im Gegensatz zum obigen Beweis liefert diese Methode jedoch kein Verfahren, f explizit zu konstruieren. Sei f = a0 + a1 x + · · · + ak−1 xk−1 ∈ Vk , und setze v ist f (x1 ) a0 1 x1 x21 · · · xk−1 1 .. .. .. . . . .. .. .. ... . = . . f (xn ) 1 xn x2n · · · | {z =:M xk−1 n := (a0 , . . . , ak−1 )t ∈ Rk . Dann y1 e1 .. .. = . + . , ak−1 } | {z } =v wobei ei = f (xi ) − yi ist. Insbesondere ist also Q2 (f ) = ein v̂ ∈ Rk so, dass min kM v − yk = kM v̂ − yk yn | {z } en =:y Pn 2 i=1 ei . Wir suchen also v∈Rk ist. Geometrisch betrachtet haben wir also den Unterraum U := spanS M = {M v | v ∈ Rk } ⊆ Rn und suchen einen Vektor û = M v̂ ∈ U so, dass kû − yk = kM v̂ − yk minimal ist. Sei v̂ eine gesuchte Lösung. Dann muss y − M v̂ orthogonal auf U stehen, also (M v)t (y − M v̂) = 0 sein für alle v ∈ Rk . Dies ist äquivalent zu v t (M t y − M t M v̂) = 0 für alle v ∈ Rk , also zu M t y − M t M v̂ = 0. Aber dies bedeutet gerade v̂ ∈ Lös(M t M, M t y). Bemerkung 2.3.113. Sei k ≤ n. Die Matrix M t M ist symmetrisch und positiv definit, also insbesondere invertierbar. Beweis. Es ist (M t M )t = M t M , womit M symmetrisch ist. Sei v ∈ Rk , v 6= 0. Dann ist M v 6= 0, womit 0 < kM vk2 = hM v, M vi = v t (M t M )v ist. Die Lösung ist hier also eindeutig und durch v̂ = (M t M )−1 M t y gegeben. Bemerkung 2.3.114. Analytisch kann man das Problem wie folgt untersuchen. Betrachte die Funktion 1 φ : Rk → R, x 7→ kM x − yk2 . 2 In einem Minimum v̂ gilt grad(φ)(v̂) = 0, und nachrechnen liefert grad(φ)(x) = M t M x − M t y. 104 2.4 KAPITEL 2. LINEARE ALGEBRA II Multilineare Algebra und Tensorprodukte Im Folgenden seien K ein beliebiger Körper und V1 , . . . , Vk K-Vektorräume, nicht unbedingt von endlicher Dimension. Setze P := V1 × · · · × Vk ; dies ist das direkte Produkt der Vektorräume V1 , . . . , Vk P = {(v1 , . . . , vk ) | vi ∈ Vi , 1 ≤ i ≤ k} und ebenfalls wieder ein K-Vektorraum. Es gilt dim(V1 × · · · × Vk ) = dim V1 + · · · + dim Vk , wobei wir die Konvention ∞ + v = v + ∞ = ∞ für alle v ∈ Z ∪ {∞} benutzen. Beweis. Seien I1 , . . . , Ik Indexmengen und BVi = {vij | j ∈ Ii } Basen von Vi , 1 ≤ i ≤ k. Dann ist eine Basis von V1 × · · · × Vk durch {(0, . . . , 0, vij , 0, . . . , 0) | j ∈ Ii , 1 ≤ i ≤ k} gegeben. Definition 2.4.1. Sei W ein weiterer K-Vektorraum und ϕ : V1 × · · · × Vk → W eine Abbildung. Dann heisst ϕ multilinear, wenn für alle vi , ṽi ∈ Vi , 1 ≤ i ≤ k und λ, µ ∈ K und alle j ∈ {1, . . . , k} gilt ϕ(v1 , . . . , vj−1 , λvj + µṽj , vj+1 , . . . , vk ) = λϕ(v1 , . . . , vj−1 , vj , vj+1 , . . . , vk ) + µϕ(v1 , . . . , vj−1 , ṽj , vj+1 , . . . , vk ), wenn also ϕ linear in jeder Komponente ist. Definition 2.4.2. Bezeichne mit Mult(V1 × · · · × Vk , W ) die Menge aller multilinearen Abbildungen V1 × · · · × Vk → W . Ist k = 1, so ist Mult(V1 , W ) = Hom(V1 , W ). Satz 2.4.3. Mit komponentenweisen Verknüpfungen ist Mult(V1 × · · · × Vk , W ) ein K-Vektorraum der Dimension dim W · k Y dim Vj j=1 mit der Konvention ∞·v = v ·∞ = ∞ für alle v ∈ N>0 ∪{∞} und ∞·0 = 0 = 0·∞. Beweis. Seien ϕ1 , ϕ2 ∈ Mult(V1 × · · · × Vk , W ) und λ ∈ K. Dass durch die Definitionen ϕ1 + ϕ2 : V1 × · · · × Vk → W, (v1 , . . . , vk ) 7→ ϕ1 (v1 , . . . , vk ) + ϕ2 (v1 , . . . , vk ) 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 105 und λϕ1 : V1 × · · · × Vk → W, (v1 , . . . , vk ) 7→ λϕ1 (v1 , . . . , vk ) eine K-Vektorraumstruktur auf Mult(V1 × · · · × Vk , W ) definiert wird rechnet man leicht nach. Sei BVi = {vij | j ∈ Ii } einePBasis von Vi , 1 ≤ i ≤ k, und sei BW = {wj | j ∈ J} eine Basis von W . Sind vi = j∈Ii λij vij ∈ Vi , 1 ≤ i ≤ k, so hat man wegen der Multilinearität X X ϕ(v1 , . . . , vk ) = ··· λ1j1 · · · λkjk ϕ(v1j1 , . . . , vkjk ). j1 ∈I1 jk ∈Ik Man sieht analog zu linearen Abbildungen (siehe Satz 1.6.14), dass jede multilineare Abbildung genau einem Element aus W I1 × · · · × W Ik entspricht. Definiere ϕj1 ,...,jk : V1 × · · · × Vk → K, (v1 , . . . , vk ) 7→ λ1j1 · · · λkjk P (wobei wieder vi = λij vij ist); dann ist also {ϕj1 ,...,jk wℓ | ji ∈ Ii , 1 ≤ i ≤ k, ℓ ∈ J} eine Basis von Mult(V1 × · · · × Vk , W ). Bemerkung 2.4.4. Der Raum Mult(V1 × · · · × Vk , W ) hat im Allgemeinen eine wesentlich grössere Basis als der Raum Hom(V1 × · · · × Vk , W ). 2.4.1 Tensorprodukte Wir wollen im Folgenden einen K-Vektorraum T konstruieren zusammen mit einer multilinearen Abbildung ϕ : V1 × · · · × Vk → T so, dass jeder multilinearen Abbildung ψ ∈ Mult(V1 × · · · × Vk , W ) ein eindeutiges Element ρ ∈ Hom(T, W ) (mit ψ = ρ◦ϕ) entspricht. Letzteres Element kann (im endlichdimensionalen Fall) einfach durch Matrizen beschrieben werden. Definition 2.4.5. Ein K-Vektorraum T zusammen mit einer multilinearen Abbildung ϕ : V1 × · · · × Vk → T heisst Tensorprodukt von V1 , . . . , Vk , wenn sie eine Lösung des folgenden universellen Problems sind: Ist W ein beliebiger K-Vektorraum und ψ : V1 × · · · × Vk → W eine beliebige multilineare Abbildung, so gibt es genau eine lineare Abbildung ρ : T → W so, dass ψ = ρ ◦ ϕ ist. ϕ /T V1 × · · · ×M Vk MMM MMM ψ MMMM & W ~~ ~ ~ ~ ∃!ρ Man sagt auch, ein Tensorprodukt habe diese universelle Eigenschaft. Satz 2.4.6. Das Tensorprodukt (T, ϕ) ist eindeutig bis auf eindeutige Isomorphie; sind also (T, ϕ) und (T ′ , ϕ′ ) zwei Lösungen des obigen universellen Problems, so gibt es genau einen K-Vektorraumisomorphismus ρ : T → T ′ mit ρ ◦ ϕ = ϕ′ . 106 KAPITEL 2. LINEARE ALGEBRA II Beweis. Betrachte das Diagramm: V1 × · · · ×M Vk MMM ϕ′ MMM MMM M& r rrr r r rr x rr r ϕ T T′ Da (T, ϕ) eine Lösung des universellen Problems ist, gibt es genau eine lineare Abbildung ρ : T → T ′ mit ϕ′ = ρ ◦ ϕ. Da weiterhin (T ′ , ϕ′ ) ebenfalls eine Lösung des universellen Problems ist, gibt es genau eine lineare Abbildung ρ′ : T ′ → T mit ϕ = ρ′ ◦ ϕ′ . Wir haben also das folgende Diagramm: V1 × · · · ×M Vk MMM ϕ′ r MMM rrr r r MMM r r r _xrr _ _ _ _ _ ∃!ρ _ _ _ _ _ _ _M/& ′ T o_ _ _ _ _ _ _ ′_ _ _ _ _ _ T ϕ ∃!ρ Damit ist bereits die Eindeutigkeit von ρ gezeigt; es verbleibt zu zeigen, dass ρ ein Isomorphismus ist. Dazu zeigen wir, dass ρ ◦ ρ′ = IdT ′ und ρ′ ◦ ρ = IdT ist. Nun gilt (ρ ◦ ρ′ ) ◦ ϕ′ = ρ ◦ (ρ′ ◦ ϕ′ ) = ρ ◦ ϕ = ϕ′ , womit wir also das Diagramm T ′ V1 × · · · ×M Vk qq qqq q q q q x qq ϕ′ MMM ϕ′ MMM MMM M&/ / T′ ρ◦ρ′ IdT ′ haben. Da (T ′ , ϕ′ ) eine Lösung des obigen universellen Problems ist und sowohl IdT ′ ◦ϕ′ = ϕ′ und (ρ ◦ ρ′ ) ◦ ϕ′ = ϕ′ gilt, folgt also IdT ′ = ρ ◦ ρ′ . Genauso gilt (ρ′ ◦ ρ) ◦ ϕ = ϕ, und da (T, ϕ) eine Lösung des obigen universellen Problems ist, folgt völlig analog ρ′ ◦ ρ = IdT . Wegen des Satzes macht es Sinn, von dem Tensorprodukt von V1 , . . . , Vk zu sprechen. Bemerkung 2.4.7. In der Mathematik können viele Objekte durch universelle Eigenschaften eindeutig charakterisiert werden: (1) Das Produkt P = V1 × · · · × Vk kann beispielsweise durch folgende universelle Eigenschaft beschrieben werden (vergleiche auch Definition 2.4.37): Sei ein Vektorraum P und zu jedem i eine lineare Abbildung ιi : Vi → P (Inklusionen) gegeben. Dann heisst (P, (ι1 , . . . , ιk )) (äussere) direkte Summe von V1 , . . . , Vk , wenn es folgende universelle Eigenschaft erfüllt: Zu jedem Vektorraum W und linearen Abbildungen ψi : Vi → W , 1 ≤ i ≤ k gibt es genau eine lineare Abbildung ρ : P → W mit ρ ◦ ιi = ψi , 1 ≤ i ≤ k. Vi A ιi AA AA A ψi AAà W ~~ ~ ~ /P ~ ∃!ρ 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 107 Dieses Problem wird durch P = V1 × · · · × Vk mit ιi (v) = (0, . . . , 0, v, 0, . . . , 0), v ∈ Vi gelöst, wobei zu W und ψ1 , . . . , ψk das ρ durch ρ(v1 , . . . , vk ) = ψ1 (v1 ) + · · · + ψk (vk ) gegeben ist. (2) Sei R = Z die ganzen Zahlen. Dann können die rationalen Zahlen Q wie folgt beschrieben werden: Ein Körper Q zusammen mit einem Ringhomomorphismus ϕ : Z → Q heisst Quotientenkörper von K = Z, wenn er folgende universelle Eigenschaft erfüllt: Zu jedem Körper K und jedem injektiven Ringhomomorphismus ψ : Z → K gibt es genau einen Körperhomomorphismus ρ : Q → K mit ρ ◦ ϕ = ψ. ϕ Z ?? ?? ?? ψ ??  K Ä~ ~ ~ /Q ~ ∃!ρ Dieses Problem wird durch Q = Q und ϕ(x) = x 1 gelöst. Satz 2.4.8. Das universelle Problem aus Definition 2.4.5 hat eine Lösung, d.h. das Tensorprodukt existiert. Beweis. Seien BVi = {vij | j ∈ Ii } Basen von Vi , 1 ≤ i ≤ k. Definiere T als den K-Vektorraum mit der Basis BT := {v1i1 ⊗ · · · ⊗ vkik | i1 ∈ I1 , . . . , ik ∈ Ik }; dieser kann realisiert werden als der K-Vektorraum aller Abbildungen (von Mengen) I1 × · · · × Ik → K, die nur für endlich viele Argumente einen Wert 6= 0 annehmen; dabei entspricht v1i1 ⊗ · · · ⊗ vkik die Abbildung, welche (v1i1 , . . . , vkik ) auf 1 abbildet und alle anderen Basis-Tupel auf 0. Ein beliebiges Element aus T hat die Form X X ··· λi1 ...ik (v1i1 ⊗ · · · ⊗ vkik ), i1 ∈I1 ik ∈Ik wobei nur endlich viele der Koeffizienten λi1 ...ik ungleich 0 sind. Definiere ϕ : V1 × · · · × Vk → T, X X (v1 , . . . , vk ) 7→ ··· λ1i1 · · · λkik (v1i1 ⊗ · · · ⊗ vkik ), i1 ∈I1 wobei vi = X j∈Ii ik ∈Ik λij vij , λij ∈ K sei, 1 ≤ i ≤ k. Man rechnet schnell nach, dass ϕ multilinear ist. 108 KAPITEL 2. LINEARE ALGEBRA II Zum Nachweis der universellen Eigenschaft sei eine multilineare Abbildung ψ : V1 × · · · × Vk → W gegeben. Definiere ρ durch folgende Bilder der Basisvektoren: ρ(v1i1 ⊗ · · · ⊗ vkik ) := ψ(v1i1 , . . . , vkik ). Dann gilt ψ(v1 , . . . , vk ) = ψ ³X λ1i1 v1i1 , . . . , i1 ∈I1 = X i1 ∈I1 = X i1 ∈I1 =ρ ··· i1 ∈I1 λkik vkik ik ∈Ik ··· ³X X X ik ∈Ik X ik ∈Ik ··· ´ λ1i1 · · · λkik ψ(v1i1 , . . . , vkik ) λ1i1 · · · λkik ρ(v1i1 ⊗ · · · ⊗ vkik ) X ik ∈Ik ´ λ1i1 · · · λkik (v1i1 ⊗ · · · ⊗ vkik ) = ρ(ϕ(v1 , . . . , vk )). Diese Rechnung zeigt auch, dass ρ auf genau diese Weise gewählt werden muss, indem man vj = vjij wählt mit ij ∈ Ij , 1 ≤ j ≤ k; dann ist ψ(v1i1 , . . . , vkik ) = ρ(ϕ(v1i1 , . . . , vkik )) = ρ(v1i1 ⊗ . . . ⊗ vkik ). Definition 2.4.9. Wir schreiben V1 ⊗K · · · ⊗K Vk oder einfach V1 ⊗ · · · ⊗ Vk für T , und wir schreiben ϕ(v1 , . . . , vk ) = v1 ⊗ · · · ⊗ vk . Bemerkung 2.4.10. Aus dem Beweis von Satz 2.4.8 folgt, dass dim(V1 ⊗ . . . ⊗ Vk ) = k Y dim Vk i=1 ist. Beispiele 2.4.11. (1) Es ist C ⊗C C ∼ = C. (2) Es ist C ⊗R C ∼ = R4 ; eine R-Basis von C ⊗R C ist durch {1 ⊗ 1, 1 ⊗ i, i ⊗ 1, i ⊗ i} gegeben. (3) Die Komplexifizierung VC eines R-Vektorraums V (vergleiche Definition 2.3.71) kann durch V ⊗R C beschrieben werden; eine Basis ist durch {vj ⊗ 1 | j ∈ J} ∪ {vj ⊗ i | j ∈ J} gegeben, wenn {vj | j ∈ J} eine Basis von V ist. (4) Es ist K[x] ⊗K K[y] ∼ = K[x, y], zusammen mit ρ : K[x] × K[y] → K[x, y], (f (x), g(y)) 7→ f (x)g(y). Beispiel 2.4.12. Sei K = R, V = R[x1 , . . . , xn ] und W = C = spanR {1, i}. Sei weiter T = C[x1 , . . . , xn ] und ϕ : V × W → T durch ϕ(f, λ) = λ · f gegeben. Dann ist ϕ bilinear, und (T, ϕ) ist ein Tensorprodukt von V und W über K. 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 109 Beweis. Zum Beweis verwenden wir die Notation xj := xj11 · · · xjnn Wir schreiben weiterhin X′ für j = (j1 , . . . , jn ) ∈ Nn . aj x j , aj ∈ C j∈Nn für X aj x j , j∈Nn falls die Summe endlich ist, also |{j ∈ Nn | aj 6= 0}| < ∞ ist. Eine K-Basis von V ist durch {xj | j ∈ Nn } gegeben, und eine K-Basis von T durch {xj | j ∈ Nn } ∪ {ixj | j ∈ Nn }. Sei U ein beliebiger Vektorraum und ψ : V × W → U bilinear. Wir müssen zeigen, dass es genau eine lineare Abbildung ρ : T → U gibt mit ρ ◦ ϕ = ψ. Definiere ρ : T → U durch ρ(xj ) := ψ(xj , 1) und ρ(ixj ) = ψ(xj , i) für alle j ∈ Nn ; damit wird eine eindeutige lineare Abbildung T → U definiert. Sei (f, λ) ∈ V × W , und schreibe f= X′ aj x j , j∈Nn aj ∈ R, und λ = λ1 + iλ2 , λ1 , λ2 ∈ R. Dann ist ρ(ϕ(f, λ)) = ρ(λf ) = ρ ³ X′ j∈Nn = = X′ j∈Nn X′ ´ X′ (λ1 + iλ2 )aj xj = ρ(λ1 aj xj + iλ2 aj xj ) j∈Nn aj (λ1 ρ(xj ) + λ2 ρ(ixj )) = X′ j∈Nn aj (ψ(xj , λ1 ) + ψ(xj , iλ2 )) = j∈Nn =ψ aj (λ1 ψ(xj , 1) + λ2 ψ(xj , i)) X′ aj (ψ(xj , λ1 + iλ2 )) j∈Nn ³ X′ j∈Nn ´ aj xj , λ1 + iλ2 = ψ(f, λ). Es verbleibt nun, die Eindeutigkeit zu zeigen. Sei dazu ρ′ : T → U eine weitere lineare Abbildung mit ρ′ ◦ ϕ = ψ. Dann ist ρ′ (xj ) = ρ′ (ϕ(xj , 1)) = ψ(xj , 1) = ρ(xj ) und ρ′ (ixj ) = ρ′ (ϕ(xj , i)) = ψ(xj , i) = ρ(ixj ) für alle j ∈ Nn , womit ρ und ρ′ auf einer Basis von T übereinstimmen. Da beide linear sind, folgt somit ρ = ρ′ . 110 KAPITEL 2. LINEARE ALGEBRA II Satz 2.4.13. Seien V1 , . . . , Vk , W Vektorräume. Ist ρ ∈ Mult(V1 × · · · × Vk , W ), so gibt es nach der universellen Eigenschaft des Tensorproduktes genau einen Homomorphismus ρ̂ : V1 ⊗ . . . ⊗ Vk → W mit ρ̂(v1 ⊗ . . . ⊗ vk ) = ρ(v1 , . . . , vk ) für alle v1 ∈ V1 , . . . , vk ∈ Vk . Die hierdurch definierte Zuordnung Mult(V1 × · · · × Vk , W ) → Hom(V1 ⊗ . . . ⊗ Vk , W ), ρ 7→ ρ̂ ist ein Vektorraum-Isomorphismus. Beweis. Sei ϕ : V1 × · · · × Vk → V1 ⊗ . . . ⊗ Vk , (v1 , . . . , vk ) 7→ v1 ⊗ . . . ⊗ vk die kanonische Abbildung. Seien ρ, ρ′ ∈ Mult(V1 × · · · × Vk , W ) mit ρ̂ = ρ̂′ . Dann folgt direkt ρ = ρ̂ ◦ ϕ = ρ̂′ ◦ ϕ = ρ′ . Damit ist die Zuordnung injektiv. Ist ψ ∈ Hom(V1 ⊗ . . . ⊗ Vk , W ), so ist ρ := ψ ◦ ϕ ∈ Mult(V1 × · · · × Vk , W ). Wegen der Eindeutigkeit aus der universellen Eigenschaft folgt somit ρ̂ = ψ. Es verbleibt zu zeigen, dass die Zuordnung ein Homomorphismus ist. Seien dazu ′ ρ, ρ ∈ Mult(V1 × · · · × Vk , W ) und λ ∈ K. Dann gilt ρ\ + λρ′ (v1 ⊗ . . . ⊗ vk ) = (ρ + λρ′ )(v1 , . . . , vk ) = ρ(v1 , . . . , vk ) + λρ′ (v1 , . . . , vk ) = ρ̂(v1 ⊗ . . . ⊗ vk ) + λρ̂′ (v1 ⊗ . . . ⊗ vk ), womit wegen der Eindeutigkeit aus der universellen Eigenschaft folgt, dass ρ\ + λρ′ = ρ̂ + λρ̂′ ist. Man kann die universelle Eigenschaft des Tensorproduktes wie folgt formulieren: Bemerkung 2.4.14. Seien V1 , . . . , Vk Vektorräume, T ein weiterer Vektorraum und ϕ : V1 × · · · × Vk → T eine multilineare Abbildung. Genau dann ist (T, ϕ) ein Tensorprodukt von V1 , . . . , Vk , wenn für jeden Vektorraum U die lineare Abbildung Hom(T, U ) → Mult(V1 × · · · × Vk , U ), ρ 7→ ρ ◦ ϕ ein Isomorphismus ist. Das Tensorprodukt hat einige “algebraische” Eigenschaften: Bemerkungen 2.4.15. (a) Sind U , V und W Vektorräume, so gibt es eindeutige Homomorphismen (U ⊗ V ) ⊗ W → U ⊗ V ⊗ W, (u ⊗ v) ⊗ w 7→ u ⊗ v ⊗ w U ⊗(V ⊗ W ) → U ⊗ V ⊗ W, u ⊗(v ⊗ w) 7→ u ⊗ v ⊗ w. und Das Tensorprodukt ist also assoziativ. 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 111 (b) Ist σ ∈ Sk eine beliebige Permutation und sind V1 , . . . , Vk Vektorräume, so gibt es einen eindeutigen Isomorphismus ϕσ : V1 ⊗ . . . ⊗ Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k) , v1 ⊗ . . . ⊗ vk 7→ vσ(1) ⊗ . . . ⊗ vσ(k) . Das Tensorprodukt ist also kommutativ. (c) Sei V ein Vektorraum. Dann gibt es eindeutige Isomorphismen V ⊗ K → V, v ⊗ λ 7→ λv K ⊗ V → V, λ ⊗ v 7→ λv. und Der Grundkörper K verhält sich also wie ein neutrales Element beim Tensorprodukt. (d) Sind V1 , V2 , W Vektorräume, so gibt es einen eindeutigen Isomorphismus (V1 × V2 ) ⊗ W → (V1 ⊗ W ) × (V2 ⊗ W ), (v1 , v2 ) ⊗ w 7→ (v1 ⊗ w, v2 ⊗ w). Das Tensorprodukt ist also distributiv über ×. (Das Produkt × wird auch als direkte Summe bezeichnet. Vergleiche auch Definition 2.4.37 und die anschliessende Bemerkung.) Beweis. (a) Wir zeigen die eindeutige Existenz von (U ⊗ V ) ⊗ W → U ⊗ V ⊗ W ; die eindeutige Existenz des anderen Isomorphismus kann analog gezeigt werden. Wir konstruieren zuerst die Umkehrabbildung ρ′ : U ⊗ V ⊗ W → (U ⊗ V ) ⊗ W . Betrachte dazu die Abbildung ψ ′ : U × V × W → (U ⊗ V ) ⊗ W, (u, v, w) 7→ (u ⊗ v) ⊗ w. Diese ist trilinear; sind u1 , u2 ∈ U , v1 , v2 ∈ V , w1 , w2 ∈ W und λ ∈ K, so gilt f (u1 + λu2 , v1 , w1 ) = ((u1 + λu2 ) ⊗ v1 ) ⊗ w1 = (u1 ⊗ v1 + λ(u2 ⊗ v1 )) ⊗ w1 = (u1 ⊗ v1 ) ⊗ w1 + λ((u2 ⊗ v1 ) ⊗ w1 ) = f (u1 , v1 , w1 ) + λf (u2 , v1 , w1 ), f (u1 , v1 + λv2 , w1 ) = (u1 ⊗(v1 + λv2 )) ⊗ w1 = (u1 ⊗ v1 + λ(u1 ⊗ v2 )) ⊗ w1 = (u1 ⊗ v1 ) ⊗ w1 + λ((u1 ⊗ v2 ) ⊗ w1 ) = f (u1 , v1 , w1 ) + λf (u1 , v2 , w1 ), f (u1 , v1 , w1 + λw2 ) = (u1 ⊗ u2 ) ⊗(w1 + λw2 ) = (u1 ⊗ v1 ) ⊗ w1 + λ((u1 ⊗ v1 ) ⊗ w2 ) = f (u1 , v1 , w1 ) + λf (u1 , v1 , w2 ). 112 KAPITEL 2. LINEARE ALGEBRA II Nach der universellen Eigenschaft des Tensorproduktes gibt es eine eindeutig bestimmte lineare Abbildung ρ′ : U ⊗ V ⊗ W → (U ⊗ V ) ⊗ W mit ρ′ (u ⊗ v ⊗ w) = (u ⊗ v) ⊗ w für alle u ∈ U, v ∈ V, w ∈ W. Man kann den Beweis jetzt dadurch abschliessen, das man zeigt, dass ρ′ ein Isomorphismus ist; dann folgt auch die eindeutige Existenz der Umkehrfunktion mit der geforderten Eigenschaft. Dazu wählt man zuerst Basen {ui | i ∈ I}, {vj | j ∈ J} und {wℓ | ℓ ∈ L} von U , V bzw. W . Dann ist {ui ⊗ vj ⊗ wℓ | i ∈ I, j ∈ J, ℓL} eine Basis von U ⊗ V ⊗ W und {(ui ⊗ vj ) ⊗ wℓ | (i, j) ∈ I × J, ℓ ∈ L} eine Basis von (U ⊗ V ) ⊗ W , und man sieht sofort, dass ρ′ die obige Basis von U ⊗ V ⊗ W in die obige Basis von (U ⊗ V ) ⊗ W überführt; damit ist ρ′ ein Isomorphismus. Man kann die Behauptung auch zeigen, indem man explizit die Umkehrfunktion von ρ′ konstruiert und zeigt, dass die Verkettung jeweils die Identität ist. Dazu betrachtet man zuerst zu fest gewähltem w ∈ W die bilineare Abbildung ϕ′′ : U × V → U ⊗ V ⊗ W , (u, v) 7→ u ⊗ v ⊗ w. Nach der universellen Eigenschaft des Tensorproduktes gibt es hierzu genau eine lineare Abbildung ρw : U ⊗ V → U ⊗ V ⊗ W mit ρw (u ⊗ v) = u ⊗ v ⊗ w für alle (u, v) ∈ U × V . Betrachte nun die Abbildung ϕ : (U ⊗ V ) × W → U ⊗ V ⊗ W, (x, w) 7→ ρw (x). Diese ist bilinear: sind x1 , x2 ∈ U ⊗ V und λ ∈ K, so ist ϕ(x1 + λx2 , w) = ρw (x1 + λx2 ) = ρw (x1 ) + λρw (x2 ) = ϕ(x1 , w) + λϕ(x2 , w). Pk Seien nun x = i=1 ui ⊗ vi ∈ U ⊗ W mit ui ∈ U , vi ∈ V , 1 ≤ i ≤ k und w1 , w2 ∈ W , λ ∈ K. Dann ist ϕ(x, w1 ) + λϕ(x, w2 ) = ρw1 (x) + λρw2 (x) = = k X i=1 k X i=1 = = ρw1 (ui ⊗ vi ) + λ (ui ⊗ vi ⊗ w1 ) + k X ¡ i=1 k X i=1 k X i=1 k X i=1 ρw1 (ui ⊗ vi ) λ(ui ⊗ vi ⊗ w1 ) k ¢ X ui ⊗ vi ⊗ w1 + λ(ui ⊗ vi ⊗ w2 ) = (ui ⊗ vi ⊗(w1 + λw2 )) ρw1 +λw2 (ui ⊗ vi ) = ρw1 +λw2 = ρw1 +λw2 (x) = ϕ(x, w1 + λw2 ). i=1 k ³X i=1 ui ⊗ v i ´ 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 113 Folglich gibt es genau eine lineare Abbildung ρ : (U ⊗ V ) ⊗ W → U ⊗ V ⊗ W mit ρ((u ⊗ v) ⊗ w) = ϕ(u ⊗ v, w) = u ⊗ v ⊗ w für alle u ∈ U , v ∈ V , w ∈ W . Es verbleibt zu zeigen, dass ρ ◦ ρ′ : U ⊗ V ⊗ W → U ⊗ V ⊗ W die Identität auf U ⊗ V ⊗ W ist, und dass ρ′ ◦ ρ : (U ⊗ V ) ⊗ W → (U ⊗ V ) ⊗ W die Identität auf (U ⊗ V ) ⊗ W ist. Dies sieht man sofort, indem man einen Vektor u ⊗ v ⊗ w bzw. (u ⊗ v) ⊗ w einsetzt, u ∈ U , v ∈ V , w ∈ W , und da diese Vektoren jeweils U ⊗ V ⊗ W bzw. (U ⊗ V ) ⊗ W aufspannen. (b) Sei σ ∈ Sn . Betrachte die multilinearen Abbildungen ψσ : V1 × · · · × Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k) , (v1 , . . . , vk ) 7→ vσ(1) ⊗ . . . ⊗ vσ(k) und ψσ′ : Vσ(1) × · · · × Vσ(k) → V1 ⊗ . . . ⊗ Vk , (vσ(1) , . . . , vσ(k) ) 7→ v1 ⊗ . . . ⊗ vk ; dass diese multilinear sind, folgt direkt aus der Multilinearität des Tensorproduktes. Nach der universellen Eigenschaft des Tensorproduktes gibt es also eindeutig bestimmte lineare Abbildungen ρσ : V1 ⊗ . . . ⊗ Vk → Vσ(1) ⊗ . . . ⊗ Vσ(k) und ρ′σ : Vσ(1) ⊗ . . . ⊗ Vσ(k) → V1 ⊗ . . . ⊗ Vk mit ρσ (v1 ⊗ . . . ⊗ vk ) = vσ(1) ⊗ . . . ⊗ vσ(k) und ρ′σ (vσ(1) ⊗ . . . ⊗ vσ(k) ) = v1 ⊗ . . . ⊗ vk für alle vi ∈ Vi , 1 ≤ i ≤ k. Analog wie vorher zeigt man, dass ρσ ◦ ρ′σ = IdVσ(1) ⊗... ⊗ Vσ(k) und ρ′σ ◦ ρσ = IdV1 ⊗... ⊗ Vk ist. (c) Wie in (a) zeigen wir nur die eindeutige Existenz des einen Isomorphismus. Betrachte die bilineare Abbildung ψ : V × K → V, (v, λ) 7→ λv. Wieder mit der universellen Eigenschaft folgt die eindeutige Existenz eines Homomorphismus ρ : V ⊗K → V mit ρ(v ⊗ λ) = λv für alle v ∈ V, λ ∈ K. Betrachte die lineare Abbildung ρ′ : V → V ⊗ K, v 7→ v ⊗ 1. Man rechnet leicht nach, dass ρ′ ◦ ρ = IdV ⊗ K und ρ ◦ ρ′ = IdV ist; damit folgt, dass ρ ein Isomorphismus ist. 114 KAPITEL 2. LINEARE ALGEBRA II (d) Betrachte die lineare Abbildung ψ : (V1 × V2 ) × W → (V1 ⊗ W ) × (V2 ⊗ W ), ((v1 , v2 ), w) 7→ (v1 ⊗ w, v2 ⊗ w). Man rechnet leicht nach, dass diese bilinear ist. Nach der universellen Eigenschaft gibt es also eine eindeutig bestimmte lineare Abbildung ρ : (V1 × V2 ) ⊗ W → (V1 ⊗ W ) × (V2 ⊗ W ) mit ρ((v1 , v2 ) ⊗ w) = (v1 ⊗ w, v2 ⊗ w) für alle v1 ∈ V1 , v2 ∈ V2 , w ∈ W. Es verbleibt zu zeigen, dass diese lineare Abbildung ein Isomorphismus ist. Dazu konstruieren wir zuerst zwei bilineare Abbildungen ψi′ : Vi × W → (V1 × V2 ) ⊗ W mit ψ1′ (v1 , w) = (v1 , 0) ⊗ w und ψ2′ (v2 , w) = (0, v2 ) ⊗ w für alle v1 ∈ V1 , v2 ∈ V2 , w ∈ W . Nach der universellen Eigenschaft der Tensorprodukte V1 ⊗ W und V2 ⊗ W gibt es lineare Abbildungen ρ′i : Vi ⊗ W → (V1 × V2 ) ⊗ W mit ρ′i (vi ⊗ w) = ψi′ (vi , w) für alle vi ∈ Vi , w ∈ W. Betrachte die lineare Abbildung ρ′ : (V1 ⊗ W ) × (V2 ⊗ W ) → (V1 × V2 ) ⊗ W, (x, y) 7→ ρ′1 (x) + ρ′2 (y). Mit dieser gilt dann ρ ◦ ρ′ = Id(V1 ⊗ W )×(V2 ⊗ W ) und ρ′ ◦ ρ = Id(V1 ×V2 ) ⊗ W : P P ist etwa x = ki=1 v1i ⊗ w1i ∈ V1 ⊗ W und y = ℓj=1 v2j ⊗ w2j ∈ V2 ⊗ W , so ist (ρ ◦ ρ′ )(x, y) = ρ(ρ′ (x, y)) = ρ(ρ′1 (x) + ρ′2 (y)) k ℓ ³X ´ X ′ =ρ ρ1 (v1i ⊗ w1i ) + ρ′2 (v2j ⊗ w2j ) i=1 =ρ k ³X j=1 ψ1′ (v1i , w1i ) i=1 =ρ k ³X i=1 = k X i=1 = k X i=1 = + ℓ X ´ ψ2′ (v2j , w2j ) j=1 ((v1i , 0) ⊗ w1i ) + ρ((v1i , 0) ⊗ w1i ) + ℓ X j=1 ℓ X j=1 ´ ((0, v2j ⊗ w2j ) ρ((0, v2j ) ⊗ w2j ) ℓ X (v1i ⊗ w1i , 0 ⊗ w1i ) + (0 ⊗ w2j , v2j ⊗ w2j ) k ³X i=1 j=1 ℓ ´ ³ X ´ v1i ⊗ w1i , 0 + 0, v2j ⊗ w2j = (x, 0) + (0, y) = (x, y). Analog zeigt man ρ′ ◦ ρ = Id(V1 ×V2 ) ⊗ W . j=1 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 115 Korollar 2.4.16. Sei V ein K-Vektorraum und n ∈ N. Dann gibt es einen eindeutigen Isomorphismus K n ⊗ V → V n, (x1 , . . . , xn ) ⊗ v 7→ (x1 v, . . . , xn v). Beweis. Wir zeigen dies per Induktion. Sei die eindeutige Existenz von ϕn : K n ⊗ V → V n mit ϕn ((x1 , . . . , xn ) ⊗ v) = (x1 v, . . . , xn v) bereits gezeigt. Nun ist K n+1 = K n × K, womit es nach Bemerkung 2.4.15 (d) einen eindeutigen Isomorphismus K n+1 ⊗ V = (K n × K) ⊗ V ∼ = (K n ⊗ V ) × (K ⊗ V ) mit (x, y) ⊗ v 7→ (x ⊗ v, y ⊗ v) gibt. Nach Bemerkung 2.4.15 (c) gibt es nun einen eindeutigen Isomorphismus K ⊗V → V mit λ ⊗ v 7→ λv, und zusammen mit der eindeutigen Existenz von ϕn ergibt sich also ein eindeutiger Isomorphismus K n+1 ⊗ V ∼ = (K n ⊗ V ) × (K ⊗ V ) ∼ = V n × V = V n+1 mit ((x1 , . . . , xn ), xn+1 ) ⊗ v 7→ (ϕn ((x1 , . . . , xn ) ⊗ v), xn+1 v) = (x1 v, . . . , xn v, xn+1 v). Satz 2.4.17 (Funktorialität des Tensorproduktes). Seien fi : Vi → Wi lineare Abbildungen zwischen Vektorräumen Vi , Wi , 1 ≤ i ≤ k. Dann gibt es genau eine lineare Abbildung f : V1 ⊗ . . . ⊗ Vk → W1 ⊗ . . . ⊗ Wk mit f (v1 ⊗ . . . ⊗ vk ) = f1 (v1 ) ⊗ . . . ⊗ fk (vk ). Diese lineare Abbildung wird mit f1 ⊗ . . . ⊗ fk bezeichnet. Beweis. Betrachte die Abbildung fˆ : V1 × · · · × Vk → W1 ⊗ . . . ⊗ Wk , (v1 , . . . , vk ) 7→ f1 (v1 ) ⊗ . . . ⊗ fk (vk ). Man rechnet leicht nach, dass die Abbildung multilinear ist. Nach der universellen Eigenschaft des Tensorproduktes gibt es nun genau einen Homomorphismus f : V1 ⊗ . . . ⊗ Vk → W1 ⊗ × ⊗ Wk mit f (v1 ⊗ . . . ⊗ vk ) = fˆ(v1 , . . . , vk ) = f1 (v1 ) ⊗ . . . ⊗ fk (vk ), was zu zeigen war. Wir betrachten nun den Spezialfall Vi = K ni , Wi = K mi und fi : vi 7→ Ai vi mit Ai ∈ Matmi ×ni (K). In diesem Fall bildet f1 ⊗ . . . ⊗ fk den Vektor v1 ⊗ . . . ⊗ vk auf den Vektor Av1 ⊗ . . . ⊗ Avk ab. Die Darstellungsmatrix von f1 ⊗ . . . ⊗ fk entspricht bei passender Basiswahl dem Kroneckerprodukt der Matrizen A1 , . . . , Ak : 116 KAPITEL 2. LINEARE ALGEBRA II Definition 2.4.18. Sei A ∈ Matm×n (K) und B ∈ Matp×q (K). Sei A = (aij )ij . Dann ist das Kroneckerprodukt A ⊗ B ∈ Matmp×nq (K) definiert durch a11 B · · · a1n B .. . ... A ⊗ B := ... . am1 B · · · amn B Beispiel 2.4.19. Sei B ∈ Matp×q (K). Dann ist B 0 ... En ⊗ B = ∈ Matnp×nq (K). 0 B Lemma 2.4.20. Seien A, C ∈ Matm×n (K), F ∈ Matn×k (K) und B, D ∈ Matp×q (K), G ∈ Matq×s (K). (a) Es gilt (A ⊗ B)t = At ⊗ B t . (b) Es gilt (A ⊗ B)+(A ⊗ D) = A ⊗(B +D) und (A ⊗ B)+(C ⊗ B) = (A+C) ⊗ B. (c) Es gilt (A ⊗ B)(F ⊗ G) = (AF ⊗ BG). (d) Sind A ∈ Gln (K) und B ∈ Glp (K), so ist A ⊗ B ∈ Glnp (K) und (A ⊗ B)−1 = A−1 ⊗ B −1 . Ist A ∈ Matn×n (K), B ∈ Matp×p (K) so, dass A ⊗ B ∈ Glnp (K) ist, dann sind A ∈ Gln (K) und B ∈ Glp (K). (e) Ist K = R und sind A ∈ Gln (K) und B ∈ Glp (K) orthogonal, so ist auch A ⊗ B ∈ Glnp (K) orthogonal. Ist andersherum A ⊗ B orthogonal, so gibt es λ, µ ∈ R mit λµ = 1 so, dass λA und µB orthogonal sind. Beweis. (a) Sei A = (aij )ij . Dann ist t a11 B t · · · am1 B t a11 B · · · a1n B .. = At ⊗ B t . .. = .. ... ... (A ⊗ B)t = ... . . . t a1n B · · · amn B t am1 B · · · amn B (b) Sei A = (aij )ij und C = (cij )ij . Dann ist a11 D · · · a1n D a1n B .. .. + .. ... . . . am1 D · · · amn D am1 B · · · amn B a11 (B + D) · · · a1n (B + D) .. .. ... = = A ⊗(B + D) . . am1 (B + D) · · · amn (B + D) a11 B .. (A ⊗ B) + (A ⊗ D) = . ··· ... 117 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE und ··· ... a11 B .. (A ⊗ B) + (C ⊗ B) = . c11 B a1n B .. + .. . . am1 B · · · amn B (a11 + c11 )B · · · .. ... = . ··· ... c1n B .. . cm1 B · · · cmn B (a1n + c1n )B .. = (A + C) ⊗ B. . (am1 + cm1 )B · · · (amn + cmn )B (c) Sei A = (aij )ij und F = (cij )ij . Dann ist f11 G · · · f1k G a11 B · · · a1n B .. .. · .. ... ... (A ⊗ B)(F ⊗ G) = ... . . . fn1 G · · · fnk G am1 B · · · amn B Pn Pn i=1 a1i fi1 BG · · · i=1 a1i fik BG .. .. ... = . . Pn Pn i=1 ami fi1 BG · · · i=1 ami fik BG Pn Pn a f a f · · · i=1 1i ik i=1 1i i1 .. .. ... = ⊗(BG) Pn . Pn . i=1 ami fi1 · · · i=1 ami fik = (AF ) ⊗(BG). (d) Sind A ∈ Gln (K) und B ∈ Glp (K), so ist (A ⊗ B)(A−1 ⊗ B −1 ) = (AA−1 ) ⊗(BB −1 ) = En ⊗ Ep = Epn . (c) Damit ist A ⊗ B ∈ Glnp (K) und (A ⊗ B)−1 = A−1 ⊗ B −1 . Für die Rückrichtung nehme an, dass A oder B nicht invertierbar sei; ohne Einschränkung sei dies A. Dann gibt es ein v ∈ K n mit Av = 0, v 6= 0. Weiterhin sei w ∈ K p mit w 6= 0. Dann ist (A ⊗ B)(v ⊗ w) = (Av) ⊗(Bw) = 0 ⊗(Bw) = 0, jedoch ist (v ⊗ w) 6= 0. Damit ist A ⊗ B nicht invertierbar. (e) Sind A und B orthogonal, gilt also AAt = En und BB t = Ep , so ist (A ⊗ B)(A ⊗ B)t = (A ⊗ B)(At ⊗ B t ) = (AAt ) ⊗(BB t ) = En ⊗ Ep = Enp , (a) (c) womit auch A ⊗ B orthogonal ist. Sei nun A ⊗ B orthogonal, also Enp = (A ⊗ B)(A ⊗ B)t = (AAt ) ⊗(BB t ). 118 KAPITEL 2. LINEARE ALGEBRA II Ist C = (cij )ij = AAt und D = (dij )ij = BB t , so ist also Ep 0 · · · 0 c11 D · · · c1n D . . . . . . .. . .. .. = 0 ... C ⊗D = . , . ... . . . . . . 0 cn1 D · · · cnn D 0 · · · 0 Ep also cij D = 0 falls i 6= j und cii D = Ep für i 6= 0. Insbesondere muss cii 6= 0 und D 6= 0 sein, womit cii = cjj =: µ′ sein muss für alle i, j. Weiterhin muss cij = 0 sein für i 6= j, da ansonsten cij D 6= 0 wäre. Wir haben also AAt = C = µ′ En . Setze λ′ := µ1′ ; dann ist µ′ D = Ep , also BB t = D = λ′ Ep . Nun ist µ′ das Standardskalarprodukt√ von der ersten von A mit sich √ ′Spalte 1 ′ ′ selber, womit µ ≥ 0 folgt. Setze λ := λ und µ := µ = λ ; dann gilt folglich λµ = 1 und und (λA)(λA)t = λ′ AAt = λ′ µ′ En = En (µB)(µB)t = µ′ BB t = µ′ λ′ Ep = Ep . Bemerkung 2.4.21. Ist V = Matm×n (K) und W = Matp×q (K), so setze T = Matmp×nq (K) und ϕ : V × W → T , (A, B) 7→ A ⊗ B. Dann ist ϕ bilinear und (T, ϕ) ist ein Tensorprodukt von V und W . 2.4.2 Tensoren in der Physik Der Einfachkeit halber sei V ein n-dimensionaler Vektorraum mit Basis BV = {v1 , . . . , vn }. Sei V ∗ = Hom(V, K) der Dualraum mit der Dualbasis BV∗ = {v1∗ , . . . , vn∗ }; es gelte also vi∗ (vj ) = δij für alle 1 ≤ i, j ≤ n. In der Physik wird oft der Vektorraum . . ⊗ V} T p,q := |V ∗ ⊗ .{z . . ⊗ V }∗ ⊗ |V ⊗ .{z p mal q mal betrachtet. Die Elemente von T p,q heissen p-fach kovariante und q-fach kontravariante Tensoren. Für V ⊗ . . . ⊗ V schreiben wir von nun an Ok V oder V ⊗ k. Mit diesen Notationen hat man Op Oq T p,q = V∗⊗ V = (V ∗ )⊗ p ⊗ V ⊗ q . Die Elemente aus T p,q haben bezüglich der Standardbasis die Form X i1 ,...,ip ,j1 ,...,jq ∈{1,...,n} j ,...,j mit λi11,...,ipq ∈ K. j ,...,j λi11,...,ipq vi∗1 ⊗ . . . ⊗ vi∗p ⊗ vj1 ⊗ . . . ⊗ vjq 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 2.4.3 119 Raum der symmetrischen und alternierenden Tensoren Lemma 2.4.22. Sei V ein n-dimensionaler Vektorraum und {e1 , . . . , en } eine Basis von V . Dann ist Ok dim V = nk und {ei1 ⊗ . . . ⊗ eik | i1 , . . . , ik ∈ {1, . . . , n}} ist eine Basis von Nk V. Beweis. Folgt direkt aus Bemerkung 2.4.10. Definition 2.4.23. Sei ϕ:V · · × V} → W | × ·{z k mal eine multilineare Abbildung. (a) Dann heisst ϕ alternierend, wenn für alle v1 , . . . , vk ∈ V mit ∃i 6= j : vi = vj gilt ϕ(v1 , . . . , vk ) = 0. (b) Dann heisst ϕ symmetrisch, wenn für alle Permutationen σ ∈ Sk und alle v1 , . . . , vk ∈ V gilt f (v1 , . . . , vk ) = f (vσ(1) , . . . , vσ(k) ). Bemerkung 2.4.24. Gilt 1 + 1 6= 0 in K, so ist eine multilineare Abbildung ϕ : |V × ·{z · · × V} → W k mal genau dann alternierend, wenn für alle v1 , . . . , vk ∈ V und alle Permutationen σ ∈ Sk gilt ϕ(v1 , . . . , vk ) = sign(σ)ϕ(vσ(1) , . . . , vσ(k) ). Die folgenden zwei universellen Probleme haben (bis auf eindeutige Isomorphie) eindeutige Lösungen: V (1) Es gibtVeinen Vektorraum k V und eine multilineare alternierende Abbildung ψ : V k → k V mit folgender universellen Eigenschaft: Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare V alternierende Abbildung, so gibt es genau eine lineare Abbildung ρ : k V → W mit ϕ = ρ ◦ ψ. ψ / Vk V V kA AA AA ϕ AAA à W |z z z z ∃!ρ 120 KAPITEL 2. LINEARE ALGEBRA II (2) Es gibt einen Vektorraum S k V und eine multilineare symmetrische Abbildung ψ : V k → S k V mit folgender universellen Eigenschaft: Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare symmetrische Abbildung, so gibt es genau eine lineare Abbildung ρ : S k V → W mit ϕ = ρ ◦ ψ. ψ V k BB BB BB BB ! ϕ W |y y y / SkV y ∃!ρ Beispiele 2.4.25. Es ist S 1 V = V /{0} = V . (Hier identifizieren wir V /{0} mit V mittels dem kanonischen Isomorphismus v + {0} 7→ v.) Wir wollen zuerst S k V näher diskutieren. k k NkZur allgemeinen Konstruktion von S V betrachte den Untervektorraum U von V definiert durch span{v1 ⊗ . . . ⊗ vk − vσ(1) ⊗ . . . ⊗ vσ(k) | σ ∈ Sk , v1 , . . . , vk ∈ V }. Definiere S k V := Für v1 , . . . , vk ∈ K schreiben wir ³Ok ´ V /U k . v1 · v2 · · · · · vk := v1 ⊗ . . . ⊗ vk + U k ∈ S k V. Ist {e1 , . . . , en } eine Basis von V , so lässt sich ein allgemeines Element aus S k V eindeutig schreiben als X λi1 ...ik ei1 · · · eik . 1≤i1 ≤···≤ik ≤n Lemma 2.4.26. In S k V gelten folgende Rechenregeln: (a) v1 · · · vk = vσ(1) · · · vσ(k) und (b) (λv1 + µṽ1 ) · v2 · · · vk = λ(v1 · · · vk ) + µ(ṽ1 · v2 · · · vk ) für alle σ ∈ Sk , ṽ1 , v1 , . . . , vk ∈ V und λ, µ ∈ K. Beweis. (a) Per Definition ist v1 ⊗ · · · ⊗ vk − vσ(1) ⊗ · · · ⊗ vσ(k) ∈ U k . Damit gilt in S k V = N ( k V )/U k v1 ⊗ · · · ⊗ vk + U k = vσ(1) ⊗ · · · ⊗ vσ(k) + U k . (b) Dies folgt sofort aus der Multilinearität von Satz 2.4.27. Die Abbildung ψ : V k → S k V, Nk V. (v1 , . . . , vk ) 7→ v1 · · · vk ist multilinear und symmetrisch. Weiterhin ist (S k V, ψ) die Lösung des folgenden universellen Problems: 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 121 Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige multilineare symmetrische Abbildung, so gibt es genau eine lineare Abbildung ρ : S k V → W mit ϕ = ρ ◦ ψ. V k BB ψ BB B ϕ BBB ! W |y y y / SkV y ∃!ρ Beweis. Die Symmetrie folgt direkt wegen Teil (a) vom Lemma. Die Multilinearität braucht wegen der Symmetrie nur in der ersten Komponente nachgerechnet zu werden und folgt somit direkt aus Teil (b) des Lemmas. Um zu zeigen, dass (S k V, ψ) eine Lösung des universellen Problems ist, sei eine multilineare symmetrische Abbildung ϕ : V k → W gegeben. Nach der universellen Eigenschaft des Tensorproduktes gibt es nun genau eine lineare Abbildung ρ̂ : mit Ok V →W ρ̂(v1 ⊗ . . . ⊗ vk ) = ϕ(v1 , . . . , vk ) für alle v1 , . . . , vk ∈ V. Wir zeigen nun, dass U k ⊆ Ker ρ̂ gilt. Dann induziert ρ̂ N nach dem Homomorphiesatz 2.2.12 eine eindeutige lineare Abbildung ρ : S k V = ( k V )/U k → W mit ρ(v1 · · · vk ) = ρ̂(v1 ⊗ . . . ⊗ vk ) = ϕ(v1 , . . . , vk ) für alle v1 , . . . , vk ∈ V . / Nk V π / S k V  ww FF FF  ∃!ρ̂ wwww w ϕ FFF  " ² {www ∃!ρ V k FF W Dazu seien v1 , . . . , vk ∈ V und σ ∈ Sn ; es ist zu zeigen, dass ρ̂(v1 ⊗ . . . ⊗ vk − vσ(1) ⊗ . . . ⊗ vσ(k) ) = 0 ist. Jedoch ist ρ̂(v1 ⊗ . . . ⊗ vk − vσ(1) ⊗ . . . ⊗ vσ(k) ) = ρ̂(v1 ⊗ . . . ⊗ vk ) − ρ̂(vσ(1) ⊗ . . . ⊗ vσ(k) ) = ϕ(v1 , . . . , vk ) − ϕ(vσ(1) , . . . , vσ(k) ) = ϕ(v1 , . . . , vk ) − ϕ(v1 , . . . , vk ) = 0, da ϕ symmetrisch ist. Damit folgt die Existenz von ρ. Ist ρ′ : S k V → W eine Nweitere ′ ′ lineare Abbildung mit ϕ = ρN ◦ψ, so induziert ρN eine lineare Abbildung ρ̂′ : k → W mit ρ̂′ = ρ′ ◦ π, wobei π : k V → S k V = ( k V )/U k die kanonische Projektion ist. Nun ist ρ̂′ (v1 ⊗ . . . ⊗ vk ) = ρ′ (v1 · · · vk ) = (ρ′ ◦ ϕ)(v1 , . . . , vk ) = (ρ ◦ ϕ)(v1 , . . . , vk ) = ρ(v1 · · · vk ) = ρ̂(v1 ⊗ . . . ⊗ vk ), woraus mit der universellen Eigenschaft des Tensorproduktes folgt, dass ρ̂′ = ρ̂ ist, und damit wegen des Homomorphiesatzes auch ρ = ρ′ ist. Bemerkung 2.4.28. Analog zu Satz 2.4.6 zeigt man, dass (S n V, ψ) durch das universelle Problem eindeutig bis auf eindeutigen Isomorphismus definiert ist. 122 KAPITEL 2. LINEARE ALGEBRA II Wir betrachten den Polynomring K[x1 , . . . , xn ]. Für i = (i1 , . . . , in ) ∈ Nn schreiben wir kurz xi := xi11 · · · xinn . Damit lässt sich jedes Polynom f ∈ K[x1 , . . . , xn ] eindeutig in der Form X αi xi i∈Nn schreiben, wobei αi ∈ K ist, i ∈ Nn und {i ∈ Nn | αi 6= 0} endlich ist. Für ein Monom xi definieren wir den Totalgrad grad(xi ) := i1 + · · · + in . Definition 2.4.29. Definiere den Vektorraum der homogenen Polynome in den Unbestimmten x1 , . . . , xn von Grad k durch K[x1 , . . . , xn ](k) := span{xi | i ∈ Nn , grad(xi ) = k}. Beispiel 2.4.30. Es ist K[x1 , x2 ](3) = span{x31 , x21 x2 , x1 x22 , x32 }. Also ist dim K[x1 , x2 ](3) = 4. Lemma 2.4.31. Es ist dim K[x1 , . . . , xn ](k) = µ ¶ ¶ µ n+k−1 n+k−1 . = n−1 k Beweis. Eine Basis von K[x1 , . . . , xn ](k) ist durch {xi11 · · · xinn | i1 , . . . , in ∈ N, i1 + · · · + in = k} gegeben, woraus direkt die Behauptung mit Lemma A.1.3 folgt. Satz 2.4.32. Sei V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }. Definiere eine Abbildung Ok f: V → K[x1 , . . . , xn ], X X λi1 ...ik ei1 ⊗ . . . ⊗ eik 7→ λi1 ...ik xi1 · · · xin . Dann ist f eine lineare Abbildung mit Im(f ) = K[x1 , . . . , xn ](k) und Ker f = U k . Beweis. Man rechnet leicht nach, dass f linear ist. Da K[x1 , . . . , xn ](k) von den Elementen der Form xi1 · · · xik mit i1 , . . . , ik ∈ {1, . . . , n} erzeugt wird, folgt sofort dass Im(f ) = K[x1 , . . . , xn ](k) ist. Weiterhin gilt offensichtlich U k ⊆ Ker f . Sei schliesslich X λi1 ...ik ei1 ⊗ . . . ⊗ eik ∈ Ker f. Definiere zu (i1 , . . . , ik ) ∈ {1, . . . , n}k αi1 ,...,ik := |{(σ(i1 ), . . . , σ(ik )) | σ ∈ Sk }| > 0; |Sk | 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 123 damit ist X X X X λi1 ...ik ei1 ⊗ . . . ⊗ eik = ··· αi1 ,...,ik λiσ(1) ...iσ(k) eiσ(1) ⊗ . . . ⊗ eiσ(k) , 1≤i1 ≤···≤ik ≤n σ∈Sk und somit ist ³X ´ 0=f λi1 ...ik ei1 ⊗ . . . ⊗ eik ³X ´ X X = ··· αi1 ,...,ik λiσ(1) ...iσ(k) xi1 · · · xin . 1≤i1 ≤···≤ik ≤n Es ist also σ∈Sk X λiσ(1) ...iσ(k) = 0 σ∈Sk für alle 1 ≤ i1 ≤ · · · ≤ ik ≤ n. Aber damit ist X λiσ(1) ...iσ(k) eiσ(1) ⊗ · · · ⊗ eiσ(k) ∈ U k σ∈Sk für alle 1 ≤ i1 ≤ · · · ≤ ik ≤ n, womit Ker f ⊆ U k folgt. Korollar 2.4.33. Ist V ein n-dimensionaler Vektorraum, so gilt SkV ∼ = K[x1 , . . . , xn ](k) . Korollar 2.4.34. Ist V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }, so gilt µ ¶ n+k−1 k dim S V = , k und {ei1 · · · eik | 1 ≤ i1 ≤ · · · ≤ ik ≤ n} bildet eine Basis von S k V . 2.4.4 Tensoralgebra und symmetrische Algebra Sei K ein Körper. Definition 2.4.35. Ein K-Vektorraum A zusammen mit einer Multiplikation · : A × A → A, (a, b) 7→ ab := a · b heisst K-Algebra, wenn (A, +, ·) ein Ring ist und wenn · K-bilinear ist. Beispiel 2.4.36. Der Polynomring K[x1 , . . . , xn ] ist eine K-Algebra. Bevor wir fortfahren, benötigen wir die direkte Summe von einer beliebigen Familie von K-Vektorräumen. Definition 2.4.37. Sei I eine Indexmenge und sei zu jedem i ∈ I ein K-Vektorraum Vi gegeben. Definiere das direkte Produkt der Vi , i ∈ I als o n Y [ ¯¯ Vi := f : I → Vi ¯ f (i) ∈ Vi für alle i ∈ I i∈I i∈I und die (äussere) direkte Summe der Vi , i ∈ I als o n M Y ¯¯ Vi := f ∈ Vi ¯ f (i) = 0 für alle bis auf endlich viele i ∈ I . i∈I i∈I 124 KAPITEL 2. LINEARE ALGEBRA II Bemerkungen 2.4.38. (a) Durch die Verknüpfungen f +g :I → [ i 7→ f (i) + g(i) Vi , i∈I und λf : I → [ i 7→ λf (i) Vi , i∈I Q Q L für λ ∈ K, f, g ∈ i∈I Vi wird i∈IQVi zu einem K-Vektorraum, und i∈I Vi ist dann ein K-Untervektorraum von i∈I Vi . L P (b) Ist f ∈ i∈I Vi , so schreiben wir auch f = i∈I f (i), wenn es sich bei den Vi um verschiedene Vektorräume handelt. Dies macht Sinn, da alle f (i) bis auf endlich viele 0 sind und somit die Summe endlich ist. (c) Bei endlichen Indexmengen stimmen direktes Produkt und direkte Summe überein, und es gilt n Y i=1 Vi = V1 × · · · × Vn = n M i=1 Vi =: V1 ⊕ · · · ⊕ Vn . Bei beliebigen Indexmengen stimmen direktes Produkt und direkte Summe genau dann überein, wenn alle bis auf endlich viele der Vektorräume nur aus dem Nullvektor bestehen. (d) Das direkte Produkt und die direkte Summe können wieder über universelle Eigenschaften definiert werden. Dies wird im Folgenden nicht benötigt und soll nur der Vollständigkeit halber erwähnt werden. Q (i) Das direkte Produkt P = i∈I Vi kann durch folgende universelle Eigenschaft beschrieben werden: Sei ein Vektorraum P und zu jedem i ∈ I eine lineare Abbildung ρi : P → Vi (Projektion) gegeben. Dann heisst (P, (ρi )i∈I ) direktes Produkt der Vi , i ∈ I, wenn es folgende universelle Eigenschaft erfüllt: Zu jedem Vektorraum W und linearen Abbildungen ψi : W → Vi , i ∈ I gibt es genau eine lineare Abbildung ϕ : W → P mit ρi ◦ ϕ = ψi , i ∈ I. Vi o`A ρi AA AA A ψi AA W ~ ~ ~ P ~> ∃!ϕ Q Dieses Problem wird durch P = i∈I Vi mit ρi : P → Vi , f 7→ f (i), i ∈ I gelöst, wobei zu W und ψi , i ∈ I das ϕ durch ( S I → i∈I Vi ϕ : W → P, v 7→ i 7→ ψi (v) gegeben ist. 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 125 L (ii) (Vergleiche Bemerkung 2.4.7 (a).) Die direkte Summe P = i∈I Vi kann durch folgende universelle Eigenschaft beschrieben werden: Sei ein Vektorraum P und zu jedem i ∈ I eine lineare Abbildung ιi : Vi → P (Inklusionen) gegeben. Dann heisst (P, (ιi )i∈I ) (äussere) direkte Summe der Vi , i ∈ I, wenn es folgende universelle Eigenschaft erfüllt: Zu jedem Vektorraum W und linearen Abbildungen ψi : Vi → W , i ∈ I gibt es genau eine lineare Abbildung ρ : P → W mit ρ ◦ ιi = ψi , i ∈ I. ιi Vi A AA AA A ψi AAà W Dieses Problem wird durch P = L ~~ ~ ~ /P ~ ∃!ρ Vi mit S I → i∈I Vi , v 7→ j 7→ 0 wenn j 6= i, i 7→ v, ιi : Vi → P, i∈I i ∈ I gelöst, wobei zu W und ψi , i ∈ I das ρ durch X ρ(f ) = ψi (f (i)) i∈I gegeben ist. Betrachte den Vektorraum T (V ) := M³Ok k≥0 ´ V . Dieser besitzt auf natürliche Weise eine Multiplikation: sind v1 , . . . , vk , w1 , . . . , wℓ ∈ V , so sei Ok+ℓ (v1 ⊗ . . . ⊗ vk ) · (w1 ⊗ . . . ⊗ wℓ ) := v1 ⊗ . . . ⊗ vk ⊗ w1 ⊗ . . . ⊗ wℓ ∈ V. ∈ Nk ∈ V Nℓ V Dies setzt man bilinear zu einer Abbildung T (V ) × T (V ) → T (V ) fort. Man rechnet leicht nach, dass durch diese Multiplikation T (V ) zu einer K-Algebra wird. Wir bezeichnen diese als Tensoralgebra. Bemerkung 2.4.39. Sei V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }. Betrachte die K-lineare Abbildung f : T (V ) → K[x1 , . . . , xn ], Dann ist f surjektiv und Ker f = ei1 ⊗ . . . ⊗ eik 7→ xi1 · · · xik . M U k =: U. k≥0 Nach dem Homomorphiesatz gilt also K[x1 , . . . , xn ] ∼ = T (V )/U ∼ = Mµ³Ok k≥0 ¶ ´ k V /U . Definition 2.4.40. Der Quotient T (V )/U wird als symmetrische Algebra bezeichnet. Nach der Bemerkung gilt S(V ) := M k≥0 SkV ∼ = T (V )/U. 126 KAPITEL 2. LINEARE ALGEBRA II 2.4.5 In Nk Alternierende Tensoren V betrachte den Untervektorraum Ak := span{v1 ⊗ . . . ⊗ vk | v1 , . . . , vk ∈ V, ∃i 6= j : vi = vj }. Bezeichne mit ^k ³Ok V := ´ V /Ak den Vektorraum der alternierenden Tensoren von Grad k oder auch die äussere k-te Potenz von V . Für ein Element v1 ⊗ . . . ⊗ vk + Ak schreiben wir v1 ∧ · · · ∧ vk . Lemma 2.4.41. In Vk V gelten folgende Rechenregeln: (a) ist vi = vj für i 6= j, so ist v1 ∧ · · · ∧ vk = 0; (b) v1 ∧ · · · ∧ vk ist linear in jeder Komponente, es ist also v1 ∧ . . . vi−1 ∧ (vi + λṽi ) ∧ vi+1 ∧ · · · ∧ vk = v1 ∧ . . . vi−1 ∧ vi ∧ vi+1 ∧ · · · ∧ vk + λ(v1 ∧ . . . vi−1 ∧ ṽi ∧ vi+1 ∧ · · · ∧ vk ); und (c) ist σ ∈ Sk , so ist vσ(1) ∧ · · · ∧ vσ(k) = sign(σ) · v1 ∧ · · · ∧ vk für alle v1 , . . . , vk , ṽ1 , . . . , ṽk ∈ V und λ ∈ K. Beweis. Übung. Satz 2.4.42. Die Abbildung ψ :Vk → ^k V, (v1 , . . . , vk ) 7→ v1 ∧ · · · ∧ vk V ist multilinear und alternierend. Der Vektorraum k V zusammen mit ψ ist eine Lösung des folgenden universellen Problems: Ist W ein beliebiger Vektorraum und ϕ : V k → W eine beliebige Vk multilineare V → W mit alternierende Abbildung, so gibt es genau eine lineare Abbildung ρ : ϕ = ρ ◦ ψ. ψ / Vk V V kA AA AA ϕ AAA à W |z z z z ∃!ρ Beweis. Der Beweis verläuft völlig analog zum Beweis von Satz 2.4.27. 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 127 Lemma 2.4.43. Sei B = {vi | i ∈ I} eine Basis von V und sei Tk = {(ℓ, ℓ′ ) | 1 ≤ ℓ < ℓ′ ≤ k}. Zu (ℓ, ℓ′ ) ∈ Tk definiere die Transposition ′ x wenn x 6∈ {ℓ, ℓ }, σℓ,ℓ′ : {1, . . . , k} → {1, . . . , k}, x 7→ ℓ′ wenn x = ℓ, und ℓ wenn x = ℓ′ . Dann ist {vi1 ⊗ . . . ⊗ vik | i1 , . . . , ik ∈ I, ∃(ℓ, ℓ′ ) ∈ T k : iℓ = iℓ′ } ∪ {vi1 ⊗ . . . ⊗ vik + viσ ′ (1) ⊗ . . . ⊗ viσ ′ (k) | i1 , . . . , ik ∈ I, (ℓ, ℓ′ ) ∈ Tk , iℓ 6= iℓ′ } ℓ,ℓ ℓ,ℓ eine Basis von Ak . Beweisskizze. Man rechnet leicht nach, dass die Erzeuger von Ak von diesen Vektoren erzeugt werden, und dass die obigen Vektoren jeweils in Ak liegen. Es verbleibt also zu zeigen, dass die obigen Vektoren linear unabhängig sind, was jedoch ebenfalls nicht schwer ist. Satz 2.4.44. Sei V n-dimensional mit Basis {e1 , . . . , en }. Dann ist {ei1 ∧ · · · ∧ eik | 1 ≤ i1 < · · · < ik ≤ n} eine Basis von Vk V . Insbesondere ist dim und ^k ^k V = {0} µ ¶ n V = k für k > n. Beweis. Nach Lemma 2.4.41 (c) ist {ei1 ∧ · · · ∧ eik | 1 ≤ i1 < · · · < ik ≤ n} V ein Erzeugendensystem von k V . Man rechnet leicht nach, dass dieses linear unabhängig ist: seien λi1 ...ik ∈ K mit X X ··· λi1 ...ik ei1 ∧ · · · ∧ eik = 0, 1≤i1 <···<ik ≤n also mit X ··· X λi1 ...ik ei1 ⊗ . . . ⊗ eik ∈ Ak . 1≤i1 <···<ik ≤n Man sieht jedoch anhand des vorherigen Lemmas sofort, dass dies genau dann in Ak liegt, wenn λi1 ...ik = 0 ist für alle 1 ≤ i1 < · · · < ik ≤ n. Die Behauptung über die Kardinalität der Basis folgt direkt aus Lemma A.1.2. Beispiel 2.4.45 (Anwendung: Determinanten). Sei V = K n . Es gibt (bis auf Skalierung) genau eine multilineare alternierendeVAbbildung V n → K: wie in Satz 2.4.13 induziert die universelle Eigenschaft von n V einen Isomorphismus ³^n ´ Hom V, K ∼ = Alt(V n , K) := {ϕ : V n → K | ϕ multilinear, alternierend }, 128 KAPITEL 2. LINEARE ALGEBRA II und nach Satz 2.4.44 ist µ ¶ ³^n ´ ^n n dim Hom V, K = dim V = = 1. n Identifiziert man nun Matn×n (K) ∼ = V n, indem man die Matrix A mit den Spalten a1 , . . . , anVauf (a1 , . . . , an ) ∈ V n abbildet, so erhält man genau eine lineare Abbildung det : n V → K, welche det(En ) = 1 erfüllt (Normierung); verkettet man diese mit der alternierenden multilinearen Vn Abbildung Matn×n (K) → V , (a1 , . . . , an ) 7→ a1 ∧ · · · ∧ an , so erhält man die uns bekannte Determinante. Beispiel 2.4.46 (Anwendung: Vektorprodukt). Sei K = R und V = K 3 = R3 . Nach Satz 2.4.44 ist µ ¶ ^2 3 = 3, dim V = 2 V V2 also 2 V ∼ V → V und definiere = V . Wähle nun einen Isomorphismus f : ϕf : R3 × R3 → R3 , (v, w) 7→ f (v ∧ w). Dann hat ϕf folgende Eigenschaften: (1) ϕf ist bilinear; (2) ϕf ist alternierend, insbesondere gilt also ϕf (v, w) = −ϕf (w, v) für alle v, w ∈ R3 . Sei nun {e1 , e2 , e3 } die kanonische Basis von R3 , und wähle f so, dass f (e1 ∧ e2 ) = e3 , f (e2 ∧ e3 ) = e1 und f (e3 ∧ e1 ) = e2 ist. Dann ist gerade ϕf (v, w) = v × w, das Vektorprodukt von v und w! Sei nun V ein n-dimensionaler Vektorraum mit Basis {e1 , . . . , en }. Seien Vektoren v1 , . . . , vk ∈ V gegeben mit vi = n X aij ej , j=1 Setze A := (aij )ij ∈ Matk×n (K). Betrachte die Abbildung ϕ:Vk → Dann ist ϕ(v1 , . . . , vk ) = = à ^k n X X (v1 , . . . , vk ) 7→ v1 ∧ · · · ∧ vk . V, a1j1 ej1 j1 =1 n X j1 =1 = ··· ··· n X jk =1 ! ∧ ··· ∧ X ··· X X X¡ 1≤j1 <···<jk ≤n à n X jk =1 akjk ejk ! a1j1 · · · akjk ej1 ∧ · · · ∧ ejk 1≤j1 <···<jk ≤n σ∈Sk = 1 ≤ i ≤ k. sign(σ)aσ(1)j1 · · · aσ(k)jk ej1 ∧ · · · ∧ ejk ¢ det Aj1 ,...,jk ej1 ∧ · · · ∧ ejk , 2.4. MULTILINEARE ALGEBRA UND TENSORPRODUKTE 129 wobei Aj1 ,...,jk die Matrix (aijℓ )iℓ ∈ Matk×k (K) bezeichnet, die aus den Spalten j1 , . . . , jk von A besteht. Die det Aj1 ,...,jk , 1 ≤ j1 < · · · < jk ≤ n heissen Plücker-Koordinaten von v1 ∧ · · · ∧ vk . Lemma 2.4.47. Es gilt {v1 , . . . , vk } linear abhängig ⇐⇒ v1 ∧ · · · ∧ vk = 0. Beweis. Sind v1 , . . . , vk linear unabhängig, so gibt es k linear unabhängige Spalten mit Indices 1 ≤ j1 < · · · < jk ≤ n in A; in dem Fall ist die Plücker-Koordinate det Aj1 ,...,jk 6= 0. Sind dagegen v1 , . . . , vk linear abhängig, etwa vi = k X λℓ v ℓ , ℓ=1 ℓ6=i so ist v1 ∧ · · · ∧ vk = v1 ∧ · · · ∧ vi−1 ∧ = k X ℓ=1 ℓ6=i da für jedes ℓ 6= i gilt. k ³X ℓ=1 ℓ6=i ´ λℓ vℓ ∧ vi+1 ∧ · · · ∧ vk λℓ (v1 ∧ · · · ∧ vi−1 ∧ vℓ ∧ vi+1 ∧ · · · ∧ vk ) = 0, v1 ∧ · · · ∧ vi−1 ∧ vℓ ∧ vi+1 ∧ · · · ∧ vk = 0 Lemma 2.4.48. Seien v1 , . . . , vk , ṽ1 , . . . , ṽk ∈ V und seien v1 , . . . , vk linear unabhängig. Dann gilt span{v1 , . . . , vk } = span{ṽ1 , . . . , ṽk } ⇐⇒ span{v1 ∧ · · · ∧ vk } = span{ṽ1 ∧ · · · ∧ ṽk }. Beweis. Aus dem vorherigen Lemma folgt sofort die Behauptung, wenn ṽ1 , . . . , ṽk linear abhängig sind. Seien also ṽ1 , . . . , ṽk linear unabhängig und seien det Ãj1 ,...,jk , 1 ≤ j1 < · · · < jk ≤ n die Plücker-Koordinaten von ṽ1 ∧ · · · ∧ ṽk . Wir bemerken zuerst, dass span{v1 , . . . , vk } = span{ṽ1 , . . . , ṽk } äquivalent ist zu spanZ A = spanZ Ã. Wegen der Eindeutigkeit der reduzierten Zeilenstufenform ist dies dazu äquivalent, dass es ein T ∈ Glk (K) gibt mit T A = Ã. Weiterhin ist span{v1 ∧ · · · ∧ vk } = span{ṽ1 ∧ · · · ∧ ṽk } äquivalent zur Existenz eines λ ∈ K ∗ mit det Aj1 ,...,jk = λ det Ãj1 ,...,jk für alle 1 ≤ j1 < · · · < jk ≤ n. 130 KAPITEL 2. LINEARE ALGEBRA II • Gibt es also ein T ∈ Glk (K) mit T A = Ã, so ist T Aj1 ,...,jk = Ãj1 ,...,jk und somit det Aj1 ,...,jk = λ det Ãj1 ,...,jk mit λ := det T −1 für alle 1 ≤ j1 < · · · < jk ≤ n. • Angenommen, dass es ein λ gibt mit det Aj1 ,...,jk = λ det Ãj1 ,...,jk für alle 1 ≤ j1 < · · · < jk ≤ n. Wenn wir A durch SA und à durch S̃ à mit S, S̃ ∈ Glk (K) ersetzen, ändert sich nichts am Spann, nur λ ändert sich um einen konstanten Faktor 6= 0. Indem wir S und S̃ passend wählen, können wir also A und à in reduzierter Zeilenstufenform voraussetzen. 0···0 0 · · · 0 0 · · · 0 0 · · · 0 .. .. . . 1 0 0 0 .. . ∗···∗ 0···0 0···0 0···0 .. .. . . 0 1 0 0 .. . ∗···∗ ∗···∗ 0···0 0···0 .. .. . . 0 0 1 0 .. . ··· · · · · · · · · · ... Seien i1 , . . . , ik die Pivotspalten von A und j1 , . . . , jk die Pivotspalten von Ã. – Ist 1 ≤ ℓ1 < · · · < ℓk ≤ n mit ℓt ≤ it , 1 ≤ t ≤ k mit ℓt < it für ein t, so ist det Aℓ1 ,...,ℓt = 0. Weiterhin ist det Ai1 ,...,it = 1. Das ‘kleinste’ Paar (ℓ1 , . . . , ℓk ) (bzgl. der lexikographischen Ordnung) mit det Aℓ1 ,...,ℓk 6= 0 liefert also die Pivotindices von A. – Da det Aℓ1 ,...,ℓk = λ det Ãℓ1 ,...,ℓk für alle (ℓ1 , . . . , ℓk ) folgt also λ = 1 und it = jt , 1 ≤ t ≤ k. Damit haben A und à dieselben Pivotspalten. Es verbleibt zu zeigen, dass die restlichen Einträge ebenfalls gleich sind. – Dies folgt jedoch aus 0 ··· .. . ... 0 . .. . . . . . . . ... .. ai = det ... .. . . .. .. . 0 ··· ··· 1 0 .. . a1 .. . 0 ai−2 1 ai−1 0 ai .. . ai+1 .. .. . . .. .. . . 0 ak ··· 0 .. . .. . .. . .. ; 0 . .. ... . 1 . . . . . . .. 0 . .. . . . . . . 0 . 0 ··· 0 1 0 ··· .. . .. . .. . wählt man die Pivotspalten i1 , . . . , ij−1 , ij+1 , . . . , ik und die Spalte ℓ, so bekommt man ±aℓj , wobei das Vorzeichen (deterministisch) von der Wahl der Indices abhängt. 2.5 Lineare gewöhnliche Differentialgleichungen Eine Differentialgleichung ist eine Gleichung, in der eine gesuchte Funktion y : [a, b] → R zusammen mit ihren Ableitungen auftaucht. Wir wollen im Folgenden lineare gewöhnliche Differentialgleichungen untersuchen, also Gleichungen der Form k X i=0 λi y (i) = b, 2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 131 wobei b, λi : [a, b] → R, 0 ≤ i ≤ k ebenfalls Funktionen sind und y (i) die i-te Ableitung der gesuchten Funktion y ist. Ist b ≡ 0, so sagen wir, die Gleichung sei homogen. Beispiel 2.5.1. Betrachte die Gleichung y ′′ + y = 0. (In der Physik wird dies oft als ÿ + y = 0 geschrieben, wenn die Funktion y als Funktion in der Zeit t betrachtet wird: ein Punkt bedeutet erste Ableitung, zwei Punkte bedeuten zweite Ableitung.) Lösungen sind zum Beispiel durch y(x) = cos(x) und y(x) = eix y(x) = sin(x), gegeben (wobei letztere eine Funktion R → C ist). Wir bezeichnen im Folgenden mit VR = C ∞ (R, R) den reellen Vektorraum der beliebig oft differenzierbaren Funktionen R → R. Eine Lösung der linearen Differentialgleichung k X λi y (i) = b i=0 (mit λ0 , . . . , λk ∈ VR ) ist eine Funktion f ∈ VR mit k X i=0 λi (x)f (i) (x) = b(x) für alle x ∈ R. Wir bezeichnen die Menge der Lösungen mit LR = {f ∈ VR | f ist Lösung }. Lemma 2.5.2. Ist b ≡ 0, die Gleichung also homogen, so ist die Menge LR ein Untervektorraum von VR . Beweis. Seien f, g ∈ LR und λ, x ∈ R. Dann gilt k X (i) λi (x)(f + λg) (x) = i=0 = k X i=0 k X λi (x)(f (i) (x) + λg (i) (x)) (i) λi (x)f (x) + λ i=0 k X λi (x)g (i) (x) = 0, i=0 da f, g ∈ LR sind. Weiterhin ist h ∈ LR mit h(x) := 0 für alle x ∈ R, da h ∈ VR ist und k k X X (i) λi (x)h (x) = λi (x) · 0 = 0 i=0 ist. i=0 132 KAPITEL 2. LINEARE ALGEBRA II Definition 2.5.3. Seien f1 , . . . , fn ∈ VR . Definiere die Wronski-Determinante von f1 , . . . , fn als die Funktion f1 (x) ··· fn (x) f1′ (x) ··· fn′ (x) det W (f1 , . . . , fn ) : R → R, x 7→ det . .. .. ... . . (n−1) f1 (n−1) (x) · · · fn (x) Die Matrix W (f1 , . . . , fn ) wird als Wronski-Matrix bezeichnet. Hilfslemma 2.5.4. Seien f1 , . . . , fn ∈ VR . Gibt es ein x ∈ R mit det W (f1 , . . . , fn )(x) 6= 0, so sind f1 , . . . , fn linear unabhängig. Beweis. Sind f1 , . . . , fn linear abhängig, so gibt es λ1 , . . . , λn ∈ R mit 0= n X λi fi , i=1 also 0= n X i=1 Somit ist für jedes x ∈ R da Pn i=1 λi fi (x) für alle x ∈ R. det W (f1 , . . . , fn )(x) = det (j) λi fi = 0 ist für alle j ∈ N. f1 (x) f1′ (x) .. . ··· ··· ... fn (x) fn′ (x) .. . = 0, (n−1) (n−1) (x) f1 (x) · · · fn Beispiel 2.5.5. Sei f1 = cos x und f2 = sin x. Dann ist ¶ µ cos x sin x = cos2 x + sin2 x = 1, det W (cos x, sin x)(x) = det − sin x cos x womit cos x und sin x linear unabhängig sind. Bemerkungen 2.5.6. (a) Sind f1 , . . . , fn Lösungen einer (fest gewählten) homogenen linearen Differentialgleichung, so gilt auch die Umkehrung: sind f1 , . . . , fn linear unabhängig, so ist det W (f1 , . . . , fn )(x) 6= 0 für alle x ∈ R. (b) Gibt es zu f1 , . . . , fn keine lineare homogene Differentialgleichung, von der alle fi Lösung sind, so muss die Umkehrung nicht gelten. Betrachte etwa die Funktion f : R → R, ( 1 e− x2 x 7→ 0 falls x 6= 0, sonst. Diese Funktion ist unendlich oft differenzierbar und es gilt f (i) (0) = 0 für alle i ∈ N. Sind f2 , . . . , fn beliebige andere Funktionen, so gilt also immer det W (f, f2 , . . . , fn )(0) = 0, ganz egal ob f, f2 , . . . , fn linear unabhängig sind oder nicht. 133 2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 2.5.1 Lineare Differentialgleichungen mit konstanten Koeffizienten Wir wollen in diesem Abschnitt die linearen Differentialgleichungen der Form k X λi y (i) = b i=0 untersuchen mit λ0 , . . . , λk , b ∈ K, wobei im Folgenden immer K = R oder K = C sei. Wir betrachten also VK = C ∞ (R, K) = {f : R → K | f unendlich oft differenzierbar } und den Lösungsraum LK = {f ∈ VK | f Lösung }. Bemerkung 2.5.7. Ist K = C und f : R → C mit f (x) = a(x) + ib(x), wobei a, b : R → R Funktionen sind, so heisst f differenzierbar, wenn a und b differenzierbar sind, und wir schreiben f ′ = a′ + ib′ . Beispiel 2.5.8. Die Funktion R → C, x 7→ eix = cos x + i sin x ist unendlich oft differenzierbar. Im Folgenden betrachten wir die Gleichungen und y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = 0 y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = b (∗) (∗∗) mit a0 , . . . , an−1 , b ∈ K. Man nennt (∗) die allgemeine homogene lineare Differentialgleichung der Ordnung n mit konstanten Koeffizienten und (∗∗) die allgemeine inhomogene lineare Differentialgleichung der Ordnung n mit konstanten Koeffizienten, falls b 6= 0 ist. Wir bezeichnen wieder mit L = LK den Lösungsraum der homogenen Gleichung (∗). Wir werden ohne Beweis das folgende Resultat verwenden: Satz 2.5.9. Der Lösungsraum L ist ein K-Untervektorraum von C ∞ (R, K) der KDimension n. Die allgemeine Lösung des inhomogenen Systems (∗∗) ist von der Form y + ŷ, wobei y ∈ L eine beliebige Lösung von (∗) ist und ŷ eine fest gewählte Lösung von (∗∗). Zu gegebenen Anfangsbedingungen in einem Punkt x0 ∈ R y(x0 ) = c0 , y ′ (x0 ) = c1 , ... y (n−1) (x0 ) = cn−1 (∗ ∗ ∗) mit c0 , . . . , cn−1 ∈ K gibt es genau eine Lösung der Differentialgleichung (∗∗) mit diesen Anfangsbedingungen. Beachte die Analogie zu Lösungen von homogenen und inhomogenen linearen Gleichungssystemen; dort ist Lös(A, b) = Lös(A, 0) + x für eine beliebige Lösung x ∈ Lös(A, b). 134 KAPITEL 2. LINEARE ALGEBRA II Beispiel 2.5.10. Betrachte die Gleichung y ′′ + y = b, b ∈ R. Ist b = 0 und K = R, so ist der Lösungsraum LR = {λ1 cos x + λ2 sin x | λ1 , λ2 ∈ R}. Ist b = 0 und K = C, so ist der Lösungsraum LC = {λ1 eix + λ2 e−ix | λ1 , λ2 ∈ C}. Hat man Anfangsbedingungen y(0) = 0 und y ′ (0) = 5, so ergibt sich das lineare Gleichungssystem λ1 = λ1 cos(0) + λ2 sin(0) = 0, λ2 = −λ1 sin(0) + λ2 cos(0) = 5, womit die gesuchte Lösung zu diesen Anfangsbedingungen gerade f (x) = 5 sin(x) ist. Der Beweis des Hauptsatzes fusst auf folgender Aussage: Satz 2.5.11. Für gegebenes x0 ∈ R hat das Anfangswertproblem y (j) (x0 ) = 0, 0≤j<n genau eine Lösung, nämlich y = 0. 1 Die oben genannte Funktion f (x) = e− x2 für x 6= 0 und f (0) = 0 kann also keine Lösung einer linearen Differentialgleichung mit konstanten Koeffizienten sein. Aus dem Satz folgt: Lemma 2.5.12. Es ist dim LK ≤ n. Beweis. Seien f1 , . . . , fn+1 ∈ VK Lösungen von f1 f1′ W (f1 , . . . , fn , fn+1 ) = .. . (n) f1 (∗). Betrachte die Wronski-Matrix · · · fn fn+1 ′ · · · fn′ fn+1 .. .. . ... . . (n) · · · fn (n) fn+1 Multipliziert man sie von links mit dem Vektor (a0 , . . . , an−2 , an−1 , 1), so erhält man wegen (∗) gerade den Nullvektor für alle x ∈ R. Somit ist W (f1 , . . . , fn , fn+1 )(x) nicht invertierbar, also det W (f1 , . . . , fn , fn+1 )(x) = 0 für alle x ∈ R. Insbesondere gibt es zu jedem x0 ∈ R Koeffizienten c1 , . . . , cn+1 ∈ K mit c1 W (f1 , . . . , fn+1 )(x0 ) ... = 0. cn+1 Betrachte Dann ist ψ ∈ LK , und ψ := c1 f1 + · · · + cn+1 fn+1 . ψ (i) (x0 ) = 0 für 0 ≤ i ≤ n. Nach dem vorherigen Satz ist also ψ = 0 (als Funktion), womit f1 , . . . , fn+1 linear abhängig sind. 2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 135 Betrachte das Polynom κ(t) := tn + an−1 tn−1 + · · · + a1 t + a0 ∈ K[t]. Das Polynom κ(t) heisst das charakteristische Polynom der homogenen linearen Differentialgleichung (∗) mit konstanten Koeffizienten. Im Folgenden sei D die Abbildung D : VK → VK , f 7→ f ′ = ∂f . ∂x Lemma 2.5.13. Die Abbildung D ist linear, und für den Lösungsraum LK gilt LK = Ker κ(D). Beweis. Dass D linear ist verifiziert man schnell. Nun ist κ(D) = Dn + an−1 Dn−1 + · · · + a1 D + a0 Id, womit für f ∈ VK gilt κ(D)(f ) = 0 ⇐⇒ (Dn + an−1 Dn−1 + · · · + a1 D + a0 Id)f = 0 ⇐⇒ f (n) + an−1 f (n−1) + · · · + a1 f ′ + a0 f = 0 ⇐⇒ f ∈ LK . Nun kann man κ(t) = n Y i=1 (t − λi ), λ1 , . . . , λn ∈ C schreiben. Beispiel 2.5.14. Für y ′′ + y = 0 ist κ(t) = t2 + 1 = (t + i)(t − i). Lemma 2.5.15. Sei λ ∈ C eine k-fache Nullstelle von κ(t). Dann sind fj : R → C, x 7→ xj eλx , 0≤j<k Lösungen von (∗). Beweis. Wir zeigen zuerst per Induktion (D − λ)k xj eλx = 0 für 0 ≤ j < k. Für j = 0 ist (D − λ)k eλx = (D − λ)k−1 (D − λ)eλx = (D − λ)k−1 (λeλx − λeλx ) = 0. Sei j > 0; dann ist (D − λ)k xj eλx = (D − λ)k−1 (D − λ)xj eλx = (D − λ)k−1 (jxj−1 eλx + λxj eλx − λxj eλx ) = j · (D − λ)k−1 xj−1 eλx = 0. I.V. Sei κ(t) = (x − λ)k · h(t) für ein Polynom h ∈ K[t]. Dann ist also κ(D)fj (x) = h(D)(D − λ Id)k xj eλx = 0, was zu zeigen war. 136 KAPITEL 2. LINEARE ALGEBRA II Lemma 2.5.16. Sei κ(t) = k Y i=1 (x − λi )ei , wobei λ1 , . . . , λk ∈ C paarweise verschieden seien und e1 , . . . , ek ∈ N. Dann ist {xj eλℓ x | 0 ≤ j < eℓ , 1 ≤ ℓ ≤ k} eine Basis von LC . Beweis. Nach Lemma 2.5.15 sind die Funktionen fjℓ : R → C, x 7→ xj eλℓ x Lösungen von (∗); es reicht also zu zeigen, dass sie linear unabhängig sind. Der Einfachheit halber betrachten wir nur den Fall, dass e1 = · · · = ek = 1 ist, also dass κ(t) genau n = k verschiedene Nullstellen hat. Wähle x0 = 0. Dann ist f01 (x0 ) · · · f0n (x0 ) .. .. ... W (f01 , . . . , f0n )(x0 ) = . . (n−1) f 01 1 λ1 = .. . λ1n−1 (n−1) (x0 ) · · · f0n ··· 1 · · · λn .. , ... . n−1 · · · λn (x0 ) also die Vandermonde-Matrix, und da λ1 , . . . , λn per Voraussetzung paarweise verschieden sind, folgt det W (f01 , . . . , f0n )(x0 ) 6= 0, womit nach Hilfslemma 2.5.4 die Funktionen f01 , . . . , f0n linear unabhängig sind. 2.5.2 Beschreibung einer linearen Differentialgleichung nter Ordnung durch ein lineares System erster Ordnung Wir wollen die homogene lineare Differentialgleichung y (n) + an−1 y (n−1) + · · · + a1 y ′ + a0 y = 0 (∗) durch ein homogenes lineares Differentialgleichungssystem erster Ordnung beschreiben. Dazu führe Funktionen z1 , . . . , zn ein mit z1 = y, z2 = y ′ , z3 = y ′′ , ... zn = y (n−1) . Betrachte das System z1′ z1 d. .. . := = . dx . zn′ zn 0 1 0 ··· 0 .. .. z ... ... ... . . 1 .. .. ... ... . 0 . . 0 ··· ··· 0 1 zn −a0 · · · · · · −an−2 −an−1 (∗∗) Lemma 2.5.17. Die Lösungen y ∈ V von (∗) entsprechen genau den Lösungen (z1 , . . . , zn ) ∈ V n von (∗∗) via y 7→ (y, y ′ , y ′′ , . . . , y (n−1) ). 2.5. LINEARE GEWÖHNLICHE DIFFERENTIALGLEICHUNGEN 137 Beweis. Ist y eine Lösung von (∗), so verifiziert man sofort, dass (y, y ′ , . . . , y (n−1) ) eine Lösung von (∗∗) ist. Ist andersherum (z1 , . . . , zn ) eine Lösung von (∗∗), so muss zi′ = zi+1 sein, 1 ≤ i < n, und man verifiziert wiederum leicht, dass y := z1 eine Lösung von (∗) ist. Lemma 2.5.18. Sei 0 1 0 ··· 0 .. ... ... ... .. . . . . . A = .. . .. .. 0 0 ··· ··· 0 1 −a0 · · · · · · −an−2 −an−1 Dann ist pA (t) = tn + an−1 tn−1 + . . . a1 t + a0 = κ(t). Beweis. Wir zeigen dies per Induktion nach n. Für n = 1 ist ¢ ¡ A = −a0 , womit pA (t) = t + a0 ist. Sei n > 1. Dann ist t 0 pA (t) = det ... 0 a0 t 0 = t det ... Laplace 1. Spalte 0 a1 −1 ... ... 0 ... ... ··· ··· 0 t · · · an−2 −1 ... ... ··· ··· 0 ... ... 0 ··· −1 t + (−1)n+1 a0 det 0 . .. 0 ··· ... ... ··· ... ... t an−2 0 .. . 0 −1 t + an−1 0 .. . 0 −1 t + an−1 0 ··· ··· 0 .. ... ... . . . . . . . . . . .. . ... ... ... 0 ··· 0 t −1 = t(tn−1 + an−1 tn−2 + · · · + a2 t + a1 ) + (−1)(n+1)+(n−1) a0 I.V. = tn + an−1 tn−1 + · · · + a1 t + a0 = κ(t). Bemerkung 2.5.19. Man kann zeigen, dass das Minimalpolynom dieser Matrix ebenfalls tn + an−1 tn−1 + · · · + a1 t + a0 ist: Dies folgt daraus, dass alle Eigenräume eindimensional sind (man sieht sofort, dass die Matrix A − λEn für jedes λ ∈ K mindestens Rang n − 1 hat). Da die Eigenräume eindimensional sind, gibt es in der Jordanschen Normalform zu jedem 138 KAPITEL 2. LINEARE ALGEBRA II Eigenwert genau ein Jordan-Kästchen, womit der Exponent des Eigenwerts im Minimalpolynom gleich dem Exponent des Eigenwerts im charakteristischen Polynom ist. (Zerfällt das Polynom über K nicht in Linearfaktoren, so muss man wie üblich zu einem algebraischen Abschluss von K übergehen bzw. zu einem Erweiterungskörper, über dem das Polynom in Linearfaktoren zerfällt.) Hat man nun eine Matrix A dieser Form, so kann das homogene Differentialgleichungssystem erster Ordnung d z = Az (∗ ∗ ∗) dx mit d z1 z dx 1 d .. .. n z= . z=.∈V und dx d zn z dx n in eine homogene lineare Differentialgleichung der Ordnung n überführt werden; für diese kann man dann leicht die Lösungen ausrechnen, indem man das charakteristische Polynom κ faktorisiert. Zu einer allgemeinen Matrix A ∈ Matn×n (K) gibt es nun eine invertierbare Matrix T ∈ Gln (K) so, dass T −1 AT eine Blockdiagonalmatrix ist mit Diagonalblöcken von genau dieser Form (rationale Normalform der Matrix A); in diesem Fall kann man jeden Block getrennt betrachten und wie gerade beschrieben lösen, und durch Anwenden der linearen Transformation T auf die so erhaltenen Lösungen d von dx ẑ = T −1 AT ẑ alle Lösungen von (∗ ∗ ∗) erhalten. Alternativ kann man die Lösungen von (∗ ∗ ∗) auch direkt angeben. Ist z0 ∈ R und z(x0 ) ∈ Rn ein gegebener Anfangswert, so ist die eindeutige Lösung zu diesen Anfangswert gegeben durch z(x) = eA(x−x0 ) z(x0 ). Dazu zeigt man, dass die komponentenweise Ableitung von eAx nach x durch AeAx gegeben ist. Wenn man nun ohne Einschränkung z0 = 0 wählt, hat man d z(x) = (AeAx )z(0) = A(eAx z(0)) = Az(x). dx Mit Hilfe der Methoden aus Abschnitt 2.1.6 kann schliesslich ∞ X Ak k Ax e = x k! k=0 explizit berechnet werden: ist etwa A = D + N mit D diagonalisierbar und N nilpotent so, dass DN = N D ist (vergleiche Satz 2.1.52), so ist Ax = Dx + N x mit Dx diagonalisierbar und N x nilpotent und es gilt DxN x = N xDx. Nach Satz 2.1.57 gilt dann m−1 X eDx eAx = N k xk , k! k=0 wobei m ∈µ N mit N¶m = 0 gewählt sei (etwa m = n). Ist also T ∈ Gln (R) mit λ1 0 ... T −1 DT = , so gilt 0 λn k λ1 x x e 0 m−1 X (T −1 N T )k ... T −1 eAx T = ; k! k λ x k=0 0 x e n man beachte die Ähnlichkeiten zu Lemma 2.5.16. Anhang A Verschiedenes 139 140 A.1 ANHANG A. VERSCHIEDENES Kombinatorik Wir wollen in diesem Abschnitt einige grundlegende Formeln aus der Kombinatorik herleiten und erklären. Wir betrachten zuerst die Anzahl der verschiedenen Möglichkeiten, k Objekte aus einer Menge von n Objekten auszuwählen. Dabei beachten wir zwei verschiedene Kriterien: • Mit und ohne Zurücklegen: Nachdem ein Objekt ausgewählt wurde, wird es aus der Menge der Objekte entfernt (ohne Zurücklegen) oder dort belassen (mit Zurücklegen). • Mit und ohne Reihenfolge: Dies unterscheidet, ob die Reihenfolge der Entnahme beachtet oder ignoriert wird. Beispiel A.1.1. Wir haben drei Objekte A, B, C und wollen daraus zwei auswählen. (a) Mit Zurücklegen, mit Reihenfolge: man wählt zweimal ein Objekt aus {A, B, C} aus, wobei auch beide Male das gleiche Element ausgewählt werden kann. Man hat also 32 = 9 Möglichkeiten. (b) Mit Zurücklegen, ohne Reihenfolge: man wählt zweimal ein Objekt aus {A, B, C} aus, wobei die Reihenfolge keine Rolle spielt; wählt man etwa zuerst A und dann B, oder wählt man zuerst B und dann A, so wird dies als die gleiche Wahl gezählt. Man hat also 3·2 + 3 = 6 Möglichkeiten. 2 (c) Ohne Zurücklegen, mit Reihenfolge: man wählt zuerst ein Objekt X ∈ {A, B, C} aus und dann ein weiteres Objekt Y ∈ {A, B, C} \ {X}. Man hat also ebenfalls 3 · 2 = 6 Möglichkeiten. Jedoch gibt es hier im Gegensatz zu “mit Zurücklegen, ohne Reihenfolge” beispielsweise nicht die Möglichkeit, zweimal A zu ziehen. (d) Ohne Zurücklegen, ohne Reihenfolge: man wählt zwei verschiedene Objekte aus der Menge {A, B, C} aus, ohne auf die Reihenfolge zu achten. Dies ist gleich der Anzahl der Möglichkeiten, genau ein Element aus {A, B, C} zu wählen; es gibt also genau 3 Möglichkeiten. A.1.1 Kombinationen Man spricht von Kombinationen, wenn die Reihenfolge keine Rolle spielt. Lemma A.1.2 (Kombination ohne Widerholung). Die Anzahl der Möglichkeiten, k aus n Objekten ohne Zurücklegen und ohne Reihenfolge auszuwählen, ist µ ¶ µ ¶ n n = . k n−k Zu jeder solchen Möglichkeit gehört genau ein Element der Menge ozor Mk,n = {(i1 , . . . , ik ) ∈ {1, . . . , n}k | 1 ≤ i1 < · · · < ik ≤ n}. Alternativ gehört zu jeder solchen Möglichkeit genau ein Element aus der Menge ′ ozor Mk,n = {A ⊆ {1, . . . , n} | |A| = k}. 141 A.1. KOMBINATORIK Beweis. Man sieht schnell, dass die Abbildung ′ ozor ozor ψ : Mk,n → Mk,n , (i1 , . . . , ik ) 7→ {i1 , . . . , ik } ¯ ozor′ ¯ ¡ ¢ ¯ = n , und wir zeigen dies per Induktion ¯M eine Bijektion ist. Wir zeigen k,n k ¯ ozor′ ¯ ¯ ¯ ¡¢ ¡¢ ¯ = 1 = 0 für k = 0 und ¯M ozor′ ¯ = 0 = 0 für k > 0. nach n. Für n = 0 ist ¯Mk,n k,n 0 k Sei also n > 0. Die Teilmengen von A ⊆ {1, . . . , n} mit |A| = k kann man in zwei Klassen unterteilen, je nachdem ob n ∈ A oder n 6∈ A: ′ ′ ′ ozor ozor ozor • Ist n 6∈ A, so ist A ∈ Mk,n−1 , und umgekehrt ist Mk,n−1 ⊆ Mk,n . ′ ozor • Ist n ∈ A, so ist |A \ {n}| = k −1 und somit A\{n} ∈ Mk−1,n−1 . Ist umgekehrt ′ ′ ozor ′ ′ ozor′ A ∈ Mk−1,n−1 , so ist |A ∪ {n}| = k und A ∪ {n} ∈ Mn,k . Somit ist ¶ µ ¶ ¶ µ µ ¯ ¯ ¯ ¯ ¯ ¯ n n−1 n−1 ¯ ozor′ ¯ ¯ ozor′ ¯ ¯ ozor′ ¯ . = + ¯Mn,k ¯ = ¯Mk,n−1 ¯ + ¯Mk−1,n−1 ¯ = I.V. k k−1 k Lemma A.1.3 (Kombination mit Wiederholung). Die Anzahl der Möglichkeiten, k aus n Objekten mit Zurücklegen und ohne Reihenfolge auszuwählen, ist ¶ ¶ µ µ n+k−1 n+k−1 . = n−1 k Zu jeder solchen Möglichkeit gehört genau ein Element der Menge mzor Mk,n = {(i1 , . . . , ik ) ∈ {1, . . . , n}k | 1 ≤ i1 ≤ · · · ≤ ik ≤ n}. Beweis. Betrachte die Abbildung mzor ozor ϕ : Mk,n → Mk,n+k−1 , (i1 , . . . , ik ) 7→ (i1 , i2 + 1, i3 + 2, . . . , ik + (k − 1)). Diese ist offensichtlich wohldefiniert, da 1 ≤ i1 < i2 +1 < i3 +2 < · · · < ik +(k −1) ≤ n + k − 1 ist. Die Bijektivität dieser Abbildung sieht man ebenfalls schnell. Damit folgt sofort µ ¶ µ ¶ ¯ mzor ¯ ¯ ozor ¯ n + k − 1 n + k − 1 ¯Mk,n ¯ = ¯Mk,n+k−1 ¯ = = . k n−1 Bemerkung A.1.4 (Kombination mit Wiederholung). Die Möglichkeiten von Kombinationen mit Wiederholung können auch anders interpretiert werden. Man betrachte dazu folgendes Gitter (bzw. folgenden gerichteten Graph): .. .O .. .O .. .O (1,O 3) / (2, 3) O / (3, 3) O / ··· (1,O 2) / (2, 2) O / (3, 2) O / ··· (1, 1) / (2, 1) / (3, 1) / ··· 142 ANHANG A. VERSCHIEDENES mzor Die Anzahl der Elemente in Mk,n entspricht nun genau der Anzahl an Wegen von (1, 1) nach (n, k), die in jeden Schritt entweder ein Kästchen nach rechts oder ein Kästchen nach oben gehen (also genau den Pfaden von (1, 1) nach (n, k) in dem mzor gerichteten Graphen): der j-te Eintrag eines Tupels (i1 , . . . , ik ) ∈ Mk,n gibt an, in welcher Spalte das j-te mal nach oben gegangen werden soll. Bezeichnet also mn,k die Anzahl solcher Wege von (1, 1) nach (n, k), wo ist ¶ µ ¯ mzor ¯ n+k−1 ¯ = mn,k = ¯Mk,n k nach vorherigem Lemma. Über das obige Schema folgt direkt die Rekursionsformel ¶ ¶ µ ¶ µ µ n+k−2 n+k−2 n+k−1 . + = mn,k = mn−1,k + mn,k−1 = k−1 k k Diese erlaubt einen direkten Beweis des Lemmas über die Binomialkoeffizienten. Trägt man den Eintrag mn,k an die Stelle (n, k) ein, so erhält man das folgende Schema: .. .. .. .. .O .O .O .O 1O /4 O / 10 O / 20 O / ··· 1O /3 O /6 O / 10 O / ··· 1O /2 O /3 O /4 O / ··· /1 /1 /1 / ··· 1 Vergleicht man dies mit dem Pascalschen Dreieck, 1 1 1 1 1 1 .. . 3 4 5 .. . 1 2 1 3 6 10 .. . 1 4 10 .. . 1 5 .. . 1 .. . so sieht man schnell, dass das Schema gerade ein gedrehtes Pascalsches Dreieck ist. A.1.2 Variationen Man spricht von Variationen, wenn die Reihenfolge eine Rolle spielt. Im englischen Sprachgebrauch werden die Variationen auch als Permutationen bezeichnet, womit dieser Sachverhalt insbesondere deutlich wird. Lemma A.1.5 (Variation ohne Wiederholung). Die Anzahl der Möglichkeiten, k aus n Objekten ohne Zurücklegen und mit Reihenfolge auszuwählen, ist n! . (n − k)! Zu jeder solchen Möglichkeit gehört genau ein Element der Menge ozmr Mk,n = {(i1 , . . . , ik ) ∈ {1, . . . , n}k | ∀1 ≤ ℓ < ℓ′ ≤ k : iℓ 6= iℓ′ }. 143 A.1. KOMBINATORIK Beweis. Betrachte die Abbildung ′ ozmr ozor ϕ : Mk,n → Mk,n , (i1 , . . . , ik ) 7→ {i1 , . . . , ik }. Man sieht sofort, dass sie surjektiv ist. Wir zeigen, dass für jede Teilmenge A ∈ ozor′ Mk,n gilt |ϕ−1 (A)| = k!, womit ¯ ozmr ¯ ¯¯ ozor′ ¯¯ ¯Mk,n ¯ = ¯Mk,n ¯ · k! = n! n! k! = k!(n − k)! (n − k)! ′ ozor ist. Fixiere eine feste Menge A = {j1 , . . . , jk } ∈ Mk,n und betrachte die Abbildung ozmr ψ : Sk → Mk,n , σ 7→ (jσ(1) , . . . , jσ(k) ). Man sieht sofort, dass ϕ(ψ(σ)) = A ist für jedes σ ∈ Sk , und dass ψ injektiv ist. Sei ozmr weiter (i1 , . . . , ik ) ∈ Mk,n mit ϕ(i1 , . . . , ik ) = {i1 , . . . , ik } = A. Dann gibt es jedoch eine Permutation σ ∈ Sk mit i1 = jσ(1) , . . . , ik = jσ(k) , also (i1 , . . . , ik ) = ψ(σ). Damit ist das Urbild von A unter ϕ gerade das Bild von ψ und wegen der Injektivität von ψ folgt ¯ −1 ¯ ¯ϕ (A)¯ = |ψ(Sk )| = |Sk | = k!. Lemma A.1.6 (Variation mit Wiederholung). Die Anzahl der Möglichkeiten, k aus n Objekten mit Zurücklegen und mit Reihenfolge auszuwählen, ist nk . Zu jeder solchen Möglichkeit gehört genau ein Element der Menge mzmr Mk,n = {(i1 , . . . , ik ) ∈ {1, . . . , n}k }. Beweis. Man verifiziert leicht, dass die Menge aus genau nk Elementen besteht. 144 ANHANG A. VERSCHIEDENES Index Abelsch, 5 abhängige Variable, 11 Ableitung, 59 Absolutbetrag, 8 abzählbar, 5 abzählbar unendlich, 5 adjungierter Endomorphismus, 91, 97 affiner Unterraum, 20, 67 Algebra, 123 algebraisch abgeschlossen, 23 algebraische Multiplizität, 41 algebraische Vielfachheit, 41 alternierend, 31, 119 annullierendes Polynom, 65 äquivalente Matrizen, 29 Äquivalenzklasse, 6 Äquivalenzrelation, 6 äussere Potenz, 126 Austauschsatz von Steinitz, 16 Auswahlaxiom, 16 Automorphismus, 25 Basis, 16 Basisauswahlsatz, 16 Basisergänzungssatz, 16 bijektiv, 3 Bild, 3, 26, 38 Bilinearform, 71 symmetrisch, 71 Cauchy-Schwarz, 72, 95 Charakteristik 0, 60 charakteristisches Polynom, 41 Cramersche Regel, 35 Determinante, 31 Eindeutigkeit, 32 Existenz, 33 Determinantenproduktsatz, 32 diagonalisierbar, 38 Diagonalmatrix, 38 Dimension, 16 Dimensionsformel, 17, 28 direkte Summe äussere, 106, 123 innere, 17 direktes Produkt, 104, 123 Distributivitätsgesetz, 6 Doppeldualraum, 30 duale Basis, 30 Dualraum, 30 Eigenraum, 40, 41 verallgemeinerter, 45 Eigenvektor, 35 Eigenwert, 35 Einsetzungsabbildung, 22 Element, 2 elementare Zeilenoperation, 10 endlich erzeugt, 15 endlichdimensional, 16 endliche Menge, 4 Endomorphismus, 25 adjunigerter, 91, 97 normaler, 98 orthogonaler, 89 selbstadjunigerter, 91, 97 unitärer, 97 Entartungsraum, 81 Epimorphismus, 25 erweiterte Koeffizientenmatrix, 9 Erzeugendensystem, 15 Euklidischer Raum, 74 Eulerformel, 8 Fehlstand, 33 Form von Grad n, 82 freie Variable, 11 Fundamentalsatz der Algebra, 23 geometrische Multiplizität, 41 geometrische Vielfachheit, 41 gleichmächtig, 4 Grad eines Polynoms, 22 Gradient, 87 Gram-Schmidt-Orthogonalisierung, 88, 96 Gramsche Matrix, 71, 79, 94 Gruppe, 5 145 146 Gruppenhomomorphismus, 33 INDEX Linearform, 83 Hasse-Ableitung, 60 Matrix Hauptraum, 45 Hermitesche, 98, 102 Hauptsatz normale, 98 der Hauptraumzerlegung, 49 orthogonale, 78 über Basen, 16 symmetrische, 71, 76 über Determinanten, 31 unitäre, 96, 102 über normale Endomorphismen, 100 Menge, 2 Hermitesch, 94 Metrik, 74 Hermitesche Minimalpolynom, 65 Form, 94 Monomorphismus, 25 Matrix, 98, 102 multilinear, 31, 104 Hesse-Matrix, 87 negativ definit, 84 Hintereinanderausführung, 3 nilpotent, 53 Homomorphiesatz, 69 Nilpotenzindex, 53 Homomorphismus, 24 Norm, 95 Hurwitz-Jakobi-Kriterium, 85 normale Matrix, 98 Identität, 3 normaler Endomorphismus, 98 injektiv, 3 normiert, 31, 87 innere Verknüpfung, 5 Nullteilerfreiheit, 7 invarianter Unterraum, 45 offene Menge, 74 inverse Matrix, 12 orthogonal, 75, 87, 95 Isomorphismus, 25 Orthogonalbasis, 95 Jordan-Block, 55 orthogonale Jordan-Kästchen, 55 Matrix, 77, 78, 90 Jordanmatrix, 55 Projektion, 88 Jordansche Normalform, 57 orthogonaler Endomorphismus, 89 orthogonales Komplement, 75 K-Algebra, 123 orthonormal, 87 kanonische Projektion, 68 Orthonormalbasis, 95 kanonisches Skalarprodukt, 72 orthonormale Basis, 75, 78 Kern, 26, 38 Kodimension, 69 Permutation, 32 Koeffizientenmatrix, 9 Pivotelement, 10 kommutativ, 5 Pivotindex, 10 Komplementärraum, 17 Plücker-Koordinaten, 129 komplex konjugiert, 8 Polarisierung, 96 Komplexifizierung, 92, 108 Polynomdivision, 23 Körper, 6 Polynomring, 21 Kronecker-Symbol, 87 positiv definit, 71, 84, 94 Kroneckerprodukt, 116 Produkt zweier Abbildung, 3 Lagrange-Interpolation, 102 Laplace-Entwicklung, 34 Legendre-Polynome, 89 linear abhängig, 15 unabhängig, 15 lineare Abbildung, 24 quadratische Form, 83 Quotientenkörper, 107 Quotientenvektorraum, 68 Rang einer Bilinarform, 79 einer Matrix, 20 147 INDEX reduzierte Zeilenstufenform, 11 Eindeutigkeit, 20 Reellifizierung, 93 reflexiv, 6 Relation, 6 Restklassenabbildung, 68 Ring, 21 Ringhomomorphismus, 22 Satz Austauschsatz von Steinitz, 16 Basisauswahlsatz, 16 Basisergänzungssatz, 16 Cramersche Regel, 35 Determinantenproduktsatz, 32 Dimensionsformel, 17, 28 Existenz von Lösungen von LGSen, 20 Fundamentalsatz der Algebra, 23 Gram-Schmidt, 88, 96 Hauptsatz der Hauptraumzerlegung, 49 über Determinanten, 31 über Basen, 16 über normale Endomorphismen, 100 Homomorphiesatz, 69 Hurwitz-Jakobi-Kriterium, 85 Laplace-Entwicklung, 34 Lösungsmenge von LGSen, 20 Struktursatz für Hermitesche und unitäre Matrizen, 102 Trägheitssatz von Sylvester, 79 über die Jordansche Normalform, 57 vom orthogonalen Komplement, 75, 88 von Bezóut, 23 von Gauß, 11 selbstadjungiert, 91, 97 Sesquilinearform, 94 Signatur, 79 Skalarprodukt, 72 unitäres, 94 Standardskalarprodukt, 72, 95 Summe von Untervektorräumen, 17 surjektiv, 3 symmetrisch, 6, 119 symmetrische Algebra, 125 Bilinearform, 71 Gruppe, 32 Matrix, 71, 76 Taylor-Entwicklung im nilpotenten Teil, 61 Taylor-Formel, 60, 61 Tensoralgebra, 125 Tensorprodukt, 105 Eindeutigkeit, 105 Existenz, 107 Funktorialität, 115 Topologie, 74 Totalgrad, 122 Trägheitssatz von Sylvester, 79 transitiv, 6 Transponierte, 33 Transposition, 32 überabzählbar, 5 Umkehrabbildung, 4 unabhängige Variable, 11 unitäre Matrix, 96, 102 unitärer Endomorphismus, 97 Raum, 95 unitäres Skalarprodukt, 94 universelle Eigenschaft, 105, 106, 110, 119, 120, 124, 126 universelles Problem, 105, 106, 119, 120, 124, 126 Unterkörper, 14 Unterraum, 14 Untervektorraum, 14 Urbild, 3 Vektorraum, 13 verallgemeinerter Eigenraum, 45 Vielfachheit einer Nullstelle, 23 Wronski-Determinante, 132 Wronski-Matrix, 132 Zeilenoperation, elementare, 10 Zeilenrang, 19 Zeilenraum, 19 Zeilenstufenform, 10 reduzierte, 11