Skript: Lineare Algebra, I A. Kresch Herbst 2016 Inhaltsverzeichnis 1 Grundlagen und algebraische Strukturen 2 1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.5 Euklidische Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6 Restklassenkörper und Körpererweiterungen . . . . . . . . . . . . . . 22 2 Lineare Abbildung und Matrizen 25 2.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.2 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.3 Gauss’sches Eliminationsverfahren . . . . . . . . . . . . . . . . . . . 31 2.4 Lineare unabhängigkeit, Erzeugendensystem, Basis . . . . . . . . . . 37 2.5 Äquivalenz von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 48 2.6 Ähnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 52 2.7 Lineare Algebra über Ringen . . . . . . . . . . . . . . . . . . . . . . 54 3 Die Determinante 55 3.1 Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.2 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 58 3.3 Determinante als normierte alternierende Abbildung . . . . . . . . . 60 3.4 Weitere Eigenschaften der Determinante . . . . . . . . . . . . . . . . 63 1 2 1. Grundlagen und algebraische Strukturen 3.5 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Eigenwerte und Eigenvektoren 70 73 4.1 Definition und Diagonalisierbarkeitskriterium . . . . . . . . . . . . . 74 4.2 Charakteristisches Polynom und Trigonalisierbarkeit . . . . . . . . . 75 4.3 Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 79 4.4 Fundamentalsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 A Faktorzerlegungen eines Polynoms 85 B Deutsch-Englisches Vokabular 87 1 Grundlagen und algebraische Strukturen Das Interesse liegt hauptsächlich an zwei Sachen: • Lösungen von Gleichungen. • Aufbau von Strukturen. Gleichungen treten überall in der Mathematik sowie in der Praxis auf und man will sie lösen können. Grund für das Interesse an Strukturen ist zum Beginn nicht so klar; tatsächlich wird es unsere Aufgabe erleichtern, wenn wir scheinbaren Parallelen mathematische Substanz geben können – z.B., wie die Primzahlen 2, 3, 5 usw. als Bausteine aller ganzen Zahlen fungieren (Primzahlzerlegung), so kann man nicht nur ähnliche Bausteine der reellen (oder komplexen, oder . . . ) Polynome identifizieren, sondern auch eine Struktur nennen, die auf die ganzen Zahlen und auf (reelle/komplexe/. . . ) Polynome anwendbar ist. 1.1 Mengen Man wird in der Schule früh mit reellen Zahlen vertraut aber lernt erst später die rigorose Definition. Auch historisch sind grosse Fortschritte über mehrere Jahrzehnte erwiesen, obwohl die reellen Zahlen erst im 19. Jahrhundert rigoros definiert wurden. Als Grundlagen der Mathematik dient ZFC (Z =Zermelo, F =Fraenkel, C =Choice, d.h., Auswahlaxiom), eine im 20. Jahrhundert eingeführte axiomatische Mengenlehre. Alles ist Menge in der ZFC-Mengenlehre: die Elemente einer Menge sind auch Mengen! Aus Mengen baut man andere Mengen. Die Axiome gewährleisten, dass es genug Mengen gibt, um Zahlen darzustellen. 1.1. Mengen 3 In logischen Aussagen finden sich die Quantifikatoren ∀ (für alle) und ∃ (existiert), Symbole ∧ (und), ∨ (oder), ⇒ (impliziert), ⇔ (äquivalent), ¬ (nicht) der Aussagenlogik und Relationen = (gleich) und ∈ (Element von). Die Relation ⊂ (Teilmenge von) ist durch A ⊂ B :⇔ (∀X : X ∈ A ⇒ X ∈ B) zu verstehen. Die ZFC-Axiome sind: 1. Zwei Mengen sind genau dann gleich, wenn sie dieselben Elemente haben. 2. Es gibt ∅ (leere Menge, d.h., Menge ohne Elemente). 3. Für jedes Paar von Mengen A und B gibt es eine Menge {A, B}. (N.B. Falls B = A ist das die Menge {A}.) S 4. Für jede Menge A gibt es eine Menge X∈A X, zu der genau diejenigen Elemente gehören, die zu mindestens einem der Elemente von A gehören. 5. Es gibt eine Menge A mit den Eigenschaften: (i) ∅ ∈ A, (ii) für alle X ∈ A gilt X ∪ {X} ∈ A. 6. Für jede Menge A gibt es die Potenzmenge P(A), wobei X ∈ P(A) genau dann, wenn X ⊂ A. 7. Jede nichtleere Menge A enthält ein Element, das von A disjunkt ist. 8. Für jede Menge A und einstelliges Prädikat J gibt es die Menge {X ∈ A | J(X)} aller Elemente X aus A, die das Prädikat erfüllen. 9. Für jede Menge A und zweistelliges Prädikat F mit der Eigenschaft ∀B, C, D: (F (B, C) ∧ F (B, D) ⇒ C = D) gibt es die Menge {Y | ∃X : X ∈ A ∧ F (X, Y )}. (Informell betrachtet man F als mindestens teilweise definierte Funktion und {Y | ∃X : X ∈ A ∧ F (X, Y )} als die Menge aller Werte, die die Funktion an Elementen von A annimmt.) 10. Für jede Menge A mit paarweise disjunkten nichtleeren Elementen gibt es eine Menge, zu der für alle X ∈ A genau ein Element aus X gehört. Das letzte Axiom heisst Auswahlaxiom, das C (Axiom of Choice) in ZFC; ohne das Auswahlaxiom heisst es ZF-Mengenlehre. Es gibt die üblichen Mengenoperationen: S • A ∪ B (als X∈{A,B} X), T S • X∈A X (als {T ∈ X∈A X | ∀Y : Y ∈ A ⇒ T ∈ Y }), deshalb auch A ∩ B, • A × B: nach Kuratowski wird (X, Y ) als {{X}, {X, Y }} dargestellt, dann ist A × B eine mittels Prädikat zu bestimmende Teilmenge von P(P(A ∪ B)). 4 1. Grundlagen und algebraische Strukturen Wie erwähnt sollte es genug Mengen geben, um Zahlen darstellen zu können. Ist A wie im 5. Axiom, so kann man die Teilmenge von A betrachten, die aus den Elementen besteht, die auch zu A0 gehören für alle Mengen A0 wie im 5. Axiom. Diese Teilmenge, die mit N bezeichnet wird, kann als Durchschnitt aller Mengen mit den im 5. Axiom erwähnten Eigenschaften, ist also eindeutig bestimmt, denn es gilt: T ∈ N ⇔ (∀A : (∅ ∈ A ∧ (∀X ∈ A : X ∪ {X} ∈ A)) ⇒ T ∈ A). Wir schreiben S(X) für X ∪ {X} und nennen S(X) „Sukzessor von X“. Proposition 1.1. (i) Es gilt ∅ ∈ N und S(X) ∈ N für alle X ∈ N. (ii) Ist A eine Menge mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A, so gilt N ⊂ A. (iii) Ist M eine Menge mit ∅ ∈ M , S(X) ∈ M für alle X ∈ M und M ⊂ A für alle Mengen A, die ∅ sowie die Sukzessoren aller Elemente aus A enthalten, so gilt M = N. Beweis. Ein beliebiges T gehört genau dann zu N, wenn T ∈ A für jede Menge A mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A. Also ist ∅ ∈ N und für jedes X ∈ N ist S(X) ∈ N. Es folgt auch, dass N ⊂ A für jede Menge A mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A. Ist M wie in (iii), so gelten M ⊂ N nach (i) und N ⊂ M nach (ii), also haben wir M = N. Die Eigenschaft aus Proposition 1.1 (ii) wird oft als Prinzip der vollständigen Induktion so formuliert: Ist A eine Teilmenge von N mit ∅ ∈ A und S(X) ∈ A für alle X ∈ A, so gilt A = N. Beispiel. Durch vollständige Induktion folgt: • ∀X ∈ N : (X = ∅ ∨ ∃Y ∈ N : X = S(Y )), denn A := {X ∈ N : (X = ∅ ∨ ∃Y ∈ N : X = S(Y )) erfüllt ∅ ∈ A und Y ∈ A ⇒ Y ∈ N ⇒ S(Y ) ∈ A. • ∀X ∈ N : X ⊂ N; mit A := {X ∈ N : X ⊂ N} gilt ∅ ∈ A, X ∈ A ⇒ S(X) ∈ A. S Es folgt: X∈N X = N. (Proposition 1.1 (i) benutzen: A ∈ N ⇒ S(A) ∈ N.) Dann haben wir die folgende Variante der vollständigen Induktion: Ist A eine Teilmenge von N mit X ∈ A für alle X ∈ N mit X ⊂ A, so gilt A = N. (∅ ⊂ A und für X ∈ N mit X ⊂ A gilt S(X) ⊂ A, deshalb: für alle X ∈ N gilt X ⊂ A.) Beispiel. Durch diese Variante der vollständigen Induktion haben wir: • ∀X ∈ N : X ∈ / X (für A := {X ∈ N : X ∈ / X} gilt X ⊂ A ⇒ ∀T ∈ X : T 6= X). 1.1. Mengen 5 Die Elemente von N werden mit Zahlen 0, 1, . . . bezeichnet (natürliche Zahlen), z.B.: 0 := ∅, 1 := S(0) = {∅} = {0}, 2 := S(1) = {∅, {∅}} = {0, 1}, 3 := S(2) = {∅, {∅}, {∅, {∅}}} = {0, 1, 2}. Das offensichtliche Muster motiviert: Definition. Für Elemente A, B ∈ N wird die Relation A ∈ B mit A < B bezeichnet. Daher kann die Variante der vollständigen Induktion so formuliert werden: Sei A ⊂ N. Angenommen, für X ∈ N folgt stets aus Y ∈ A für alle Y ∈ N mit Y < X, dass X ∈ A gilt. Dann ist A = N. Als Vergleich der zwei Formen der vollständigen Induktion dient die folgende Tabelle, wobei eine Aussage P (N ) für alle N ∈ N zu beweisen ist. Beweis durch Induktion nach N Induktion nach N (Variante) IA (Induktionsanfang) : P (0) nur IS (Induktionsschritt) : IS (Induktionsschritt) : P (N ) ⇒ P (S(N )) (∀M < N : P (M )) ⇒ P (N ) Die Notation S(N ) steht nur provisorisch für den Sukzessor von N und wird bald mit N + 1 ersetzt, dann hat die Induktionsschritt links die Form P (N ) ⇒ P (N + 1). Wie üblich schreiben wir X ≤ Y für „X < Y ∨ X = Y “. Klar: X ≤ Y ⇔ X < S(Y ). Beispiel: 0 ≤ X für alle X ∈ N. (Induktion nach X: 0 ≤ X ⇔ 0 < S(X).) Proposition 1.2. Sind X, Y , Z ∈ N, so gilt: (i) X < Y , Y < Z ⇒ X < Z; auch, X ≤ Y , Y ≤ Z ⇒ X ≤ Z. (ii) X ≤ Y oder Y ≤ X gilt und beide gelten genau dann, wenn X = Y . (iii) X < Y ⇔ S(X) < S(Y ); auch, X ≤ Y ⇔ S(X) ≤ S(Y ). Beweis. Die erste Aussage von (i) behandeln wir durch Induktion nach Z, also durch die Betrachtung der Aussage, dass X < Z gilt für alle X, Y ∈ N mit Y < Z und X < Y , welche trivialerweise für Z = 0 stimmt (Induktionsanfang). Angenommen, die Aussage gilt für einen bestimmten Wert von Z. Es folgt aus Y < S(Z), dass Y < Z oder Y = Z. In beiden Fällen gilt X < Z für alle X < Y (mithilfe der Induktionshypothese falls Y < Z). Deshalb gilt auch X < S(Z) (Induktionsschritt). Der erste Aussage von (i) impliziert die zweite. Als Nächstes behandeln wir die „⇒“-Implikationen von (iii) und zwar die erste Aussage davon durch Induktion nach Y . Der Induktionsanfang ist trivial. Ist Y ∈ N derart, dass S(X) < S(Y ) für alle X < Y , so folgt aus X < S(Y ) – d.h., X < Y oder X = Y – dass S(X) < S(Y ) bzw. S(X) = S(Y ) gilt. Also folgt S(X) ≤ S(Y ), äquivalent, S(X) < S(S(Y )). Die erste Aussage von (iii) („⇒“-Implikation) impliziert die zweite. 6 1. Grundlagen und algebraische Strukturen In (ii) erledigen wir rasch den Fall X = Y . Somit können wir annehmen, dass X und Y verschieden sind. Mithilfe von (i) schliessen wir aus, dass X < Y und Y < X beide gelten. Es ist noch zu zeigen, dass X < Y oder Y < X gilt, und das machen wir durch Induktion nach Y . Aus 0 ≤ X ist der Induktionsanfang klar. Sei Y ∈ N derart, dass aus X 6= Y stets X < Y oder Y < X folgt und sei X 6= S(Y ). Nach der Induktionshypothese gilt X = Y oder X < Y oder Y < X. Ist X = Y oder X < Y , so gilt X < S(Y ). Sonst ist Y < X und nach (iii) („⇒“) gilt S(Y ) < S(X). Es folgt, S(Y ) < X. Mithilfe von (ii) folgen die „⇐“-Implikationen von (iii) direkt aus den „⇒“. Unter Ordnungsrelationen kennen wir (mindestens) zwei Sorten: Anforderungen Sorte Partialordnung X≤X, (X≤Y, Y ≤X)⇒X=Y, Totalordnung X≤X, (X≤Y, Y ≤X)⇒X=Y, (X≤Y, Y ≤Z)⇒X≤Z (X≤Y, Y ≤Z)⇒X≤Z, X≤Y oder Y ≤X Nach Proposition 1.2(i)–(ii) ist „≤“ auf N eine Totalordnung. Korollar 1.3. Ist Y ∈ N r {0}, so gibt es ein eindeutiges X ∈ N mit S(X) = Y . Beweis. Dass ein solches X gibt, haben wir schon gesehen. Für die Eindeutigkeit, seien X, X 0 ∈ N mit X 6= X 0 . Nach Proposition 1.2 gilt X 0 < X oder X < X 0 , und deshalb S(X 0 ) < S(X) bzw. S(X) < S(X 0 ). Als Anwendung der vollständigen Induktion gelten iterative Konstruktionen, wie zum Beispiel die Iteration einer Abbildung. Sind A und B Mengen, so wird eine Abbildung f : A → B verstanden als eine Teilmenge Γf ⊂ A × B, so dass es für alle X ∈ A ein eindeutiges Y ∈ B gibt mit (X, Y ) ∈ Γf ; dann wird X auf Y abgebildet. Als Bild bezeichnet man die Menge aller solchen Y , geschrieben: im(f ) (englisch: image) oder f (A), wobei auch mit f (A0 ) für ein A0 ⊂ A das Bild der Einschränkung von f auf A0 verstanden wird. Eine Abbildung f heisst injektiv, bzw. surjektiv, bzw. bijektiv, falls stets f (X) = f (X 0 ) ⇒ X = X 0 gilt, bzw. im(f ) = B, bzw. f injektiv und surjektiv. Proposition 1.4. Sei A eine Menge und f : A → A eine Abbildung. Dann gibt es eine eindeutige Abbildung If : A × N → A mit If (X, 0) = X für alle X ∈ A und N ∈ N. und If (X, S(N )) = f (If (X, N )) 1.1. Mengen 7 Beweis. Wir zeigen zuerst die Eindeutigkeit, also seien If und Jf zwei solche Abbildungen. Wir zeigen, dass If (X, N ) = Jf (X, N ) für alle X ∈ A und N ∈ N durch Induktion nach N . Es gilt If (X, 0) = X = Jf (X, 0). Gilt für N ∈ N, dass If (X, N ) = Jf (X, N ) für alle X ∈ A, so haben wir If (X, S(N )) = f (If (X, N )) = f (Jf (X, N )) = Jf (X, S(N )). Die Existenz erfolgt in zwei Schritten. Erster Schritt, zu zeigen: (i) für alle ` ∈ N es gibt eine eindeutige Abbildung if,` : A × N → A mit if,` (X, 0) = X, if,` (X, N ) = X für ` < N und if,` (X, S(N )) = f (if,` (X, N )) für N < `; (ii) folgende Formel gilt: ( if,` (X, N ), falls N 6= S(`), if,S(`) (X, N ) := f (if,` (X, `)), falls N = S(`). Eindeutigkeit in (i) kann gezeigt werden durch Induktion nach N mit Induktionsanfang und Induktionsschritt für N < ` genau wie oben, während if,` (X, S(N )) = X gelten muss für ` ≤ N . Existenz, durch Induktion nach `. Als Induktionsanfang dient if,0 (X, N ) := X. Angenommen, if,` existiert. Dann definieren wir if,S(`) durch die Formel in (ii). Es gilt if,S(`) (X, N ) = X falls N = 0 oder S(`) < N , während if,S(`) (X, S(N )) = if,` (X, S(N )) = f (if,` (X, N )) = f (if,S(`) (X, N )) gilt für N < `, sowie if,S(`) (X, S(`)) = f (if,` (X, `)) = f (if,S(`) (X, `)). Zweiter Schritt ist die Behauptung, dass If (X, `) := if,` (X, `) die gestellten Bedingungen erfüllt. Die Bedingung If (X, 0) = X ist klar erfüllt und es gilt If (X, S(N )) = if,S(N ) (X, S(N )) = f (if,S(N ) (X, N )) = f (if,N (X, N )) = f (If (X, N )). Die Iteration von S liefert Addition IS : N × N → N, die wir so schreiben: + : N × N → N. Aus Proposition 1.4 bzw. durch Induktion folgen, z.B., dass für n ∈ N gilt: • n + 0 = n (aus Proposition 1.4: n + 0 = IS (n, 0) = n). • n + 1 = S(n) (auch aus Proposition 1.4: IS (n, 1) = S(IS (n, 0))). • 0 + n = n (Induktion: 0 + n = n ⇒ 0 + S(n) = S(0 + n) = S(n)). • 1 + n = S(n) (ähnliche Induktion). Weitere Eigenschaften benutzen die folgende Kompatibilität von Iteration mit +. Proposition 1.5. Mit der Notation A, f , If aus Proposition 1.4 und + wie oben gilt If (X, m + n) = If (If (X, m), n) für alle X ∈ A und m, n ∈ N. 8 1. Grundlagen und algebraische Strukturen Beweis. Induktion nach n. Aus m + 0 = m und If (X, 0) = X haben wir den Induktionsanfang. Ist n ∈ N derart, dass If (X, m + n) = If (If (X, m), n) gilt für alle X ∈ A und m ∈ N, so folgt: If (X, m + S(n)) = If (X, S(m + n)) = f (If (X, m + n)) = f (If (If (X, m), n)). Letzteres ist If (If (X, m), S(n)), wie gewünscht. Angewandt auf die Sukzessor-Funktion auf N liefert Proposition 1.5 die folgenden Eigenschaften der Addition + : N × N → N, für `, m, n ∈ N: • (` + m) + n = ` + (m + n) (wird eindeutig so geschrieben: ` + m + n), • m + n = n + m, • ` + n = m + n ⇔ ` = m und das Gleiche, mit ≤ anstatt =, wobei das Erste sich direkt aus Proposition 1.5 ergibt und die weiteren Aussagen sich durch Induktion nach n beweisen lassen: m+n=n+m⇒ m + S(n) = S(m + n) = S(n + m) = n + S(m) = n + 1 + m = S(n) + m, bzw. (so, und das Gleiche mit ≤ anstatt =) (` + n = m + n ⇔ ` = m) ⇒ (` + S(n) = m + S(n) ⇔ S(`) = S(m) ⇔ ` = m). Wir hören auf, S(n) zu schreiben und schreiben stattdessen: n + 1. Proposition 1.6. Sind m, n ∈ N, so gilt m ≤ n genau dann, wenn es ein ` ∈ N gibt, mit ` + m = n. Beweis. Wir beweisen die „⇒“-Implikation durch Induktion nach n. Induktionsanfang, 0 + 0 = 0, denn aus m ≤ 0 folgt m = 0. Angenommen, n ∈ N ist derart, dass aus m ≤ n die Existenz eines ` ∈ N mit ` + m = n folgt. Ist m ≤ n + 1, so hat schon aus m ≤ n die Existenz eines ` ∈ N mit ` + m = n und deshalb (` + 1) + m = n + 1 als Folge; übrig ist nur der Fall m = n + 1, dann gilt 0 + (n + 1) = n + 1. Die „⇐“-Implikation erfolgt durch Induktion nach m. Der Induktionsanfang ist trivial. Aus der Induktionshypothese m ≤ ` + m folgt m + 1 ≤ ` + m + 1. Wir unterscheiden zwischen endlichen und unendlichen Mengen. Als Basis gilt die Tatsache, dass die Elemente aus N selbst Menge sind und zwar besteht n ∈ N genau aus den Elementen von N, die kleiner als n sind. 1.1. Mengen 9 Dieser Kniff aus der ZFC-Mengenlehre führt zu einer möglichen Verwirrung, wie im folgenden Beispiel. Ist f : {0, 1, 2} → A eine Abbildung, mit A = {X, Y, Z} und 0 7→ X, 1 7→ Y , 2 7→ Z, so hat f (2) zwei mögliche Bedeutungen, da 2 = {0, 1} gilt. Wir adoptieren die Konvention, N<n zu schreiben, wenn wir uns auf die Menge aller Elemente aus N, die kleiner als n sind, beziehen wollen. So gilt im obigen Beispiel: f (N<2 ) = {X, Y } sowie f (2) = Z. Definition. Eine Menge A heisst endlich, wenn es für ein n ∈ N eine bijektive Abbildung N<n → A gibt, sonst heisst A unendlich. Ist A eine endlich Menge und N<n → A eine bijektive Abbildung, so sagen wir, die Kardinalität von A ist n; in Zeichen: |A| = n. Proposition 1.7. Ist A eine endliche Menge, so ist das n ∈ N aus der Definition der endlichen Menge (für welches eine bijektive Abbildung N<n → A existiert) eindeutig bestimmt. Beweis. Es genügt, für m, n ∈ N mit m 6= n zu zeigen, dass es keine bijektive Abbildung N<m → N<n gibt. Ohne Beschränkung der Allgemeinheit können wir annehmen, m < n gilt. Dafür verwenden wir Induktion nach m. Es gibt für 0 < n keine bijektive Abbildung ∅ → N<n , denn N<n 6= ∅. Angenommen, m ∈ N ist derart, dass es stets für n ∈ N mit m < n keine bijektive Abbildung N<m → N<n gibt. Sei n ∈ N mit m + 1 < n und f : N<m ∪ {m} → N<n eine Abbildung. Wir müssen zeigen, dass f nicht bijektiv ist. Es genügt, dies zu machen, unter der Annahme, dass f (m0 ) 6= f (m) für alle m0 ∈ N<m , denn aus f (m0 ) = f (m) mit m0 < m würde folgen, dass f nicht injektiv ist. Sei p := f (m), mit f (m0 ) 6= p für alle m0 ∈ N<m . Sei n0 ∈ N so, dass n = n0 + 1. Also ist m < n0 . Wir definieren g : N<n → N<n durch g(`) := ` für 0 < ` < p, g(p) := n0 , g(`) := ` für p < ` < n0 , g(n0 ) := p. Die Einschränkung von g ◦ f auf N<m definiert eine Abbildung N<m → N<n0 und nach der Induktionshypothese ist dies nicht bijektiv. Es folgt, dass g ◦f nicht bijektiv ist. Aber g ist bijektiv, deshalb ist f nicht bijektiv. Proposition 1.8. Für eine Menge A sind folgende Aussagen äquivalent: (i) A ist unendlich. (ii) Es gibt eine injektive Abbildung N → A. (iii) Es gibt eine injektive, nicht surjektive Abbildung A → A. 10 1. Grundlagen und algebraische Strukturen Beweis. (i) ⇒ (ii): Sei A eine unendliche Menge. Wir behaupten: für alle n ∈ N lässt sich jede injektive Abbildung N<n → A zu einer injektiven Abbildung N<n ∪{n} → A erweitern. Eine injektive Abbildung f : N<n → A kann nicht surjektiv sein, weil A unendlich ist. Assoziiert zu f ist die nichtleere Menge M (f ) := A r im(f ) und jedes X ∈ M (f ) definiert durch n 7→ X eine Erweiterung von f zu einer injektiven Abbildung N<n ∪ {n} → A. Nach dem Auswahlaxiom gibt es eine Abbildung b : {Paare (n, f ) mit n ∈ N und f : N<n → A injektiv} → A mit b(n, f ) ∈ M (f ) für alle n und f . Die sukzessiven Erweiterungen bilden eine injektive Abbildung N → A. (ii) ⇒ (iii): Sei f : N → A eine injektive Abbildung und sei A0 := im(f ). Dann definiert f eine bijektive Abbildung f0 : N → A0 . Die Komposition f −1 n7→n+1 f0 0 N −−−→ N −→ A0 A0 −→ ist injektive aber nicht surjektiv. Die Erweiterung zu A → A durch X 7→ X für alle X ∈ A r A0 ist ebenso injektive aber nicht surjektiv. (iii) ⇒ (i): Es genügt, zu zeigen: Ist A endlich, so sind alle injektiven Abbildungen A → A auch surjektiv. Nach der Definition der endlichen Menge genügt es sogar, zu zeigen: Ist n ∈ N, so sind alle injektiven Abbildungen N<n → N<n auch surjektiv. Das machen wir durch Induktion nach n. Der Fall n = 0 ist trivial. Gegeben sei die Behauptung über Abbildungen N<n → N<n , wir betrachten eine injektive Abbildung f : N<n ∪ {n} → N<n ∪ {n}. Sei p := f (n). Wie im Beweis von Proposition 1.7 gibt es eine bijektive Abbildung g : N<n ∪ {n} → N<n ∪ {n} mit g(p) = n. Das bedeutet: (g ◦ f )(n) = n und (g ◦ f )(m) < n für alle m ∈ N<n . Nach der Induktionshypothese hat die Einschränkung von g ◦ f auf N<n ganzes N<n als Bild. Es folgt, dass g ◦ f surjektiv ist, deshalb ist auch f surjektiv. Definition. Eine Menge A heist abzählbar unendlich, wenn es eine bijektive Abbildung N → A gibt. Eine unendliche aber nicht abzählbar unendliche Menge heisst überabzählbar. Beispiel. Ist A eine Teilmenge von N, so ist A höchstens abzählbar, d.h., A ist endlich oder abzählbar unendlich. Denn ≤ auf N ist eine Wohlordnung und falls A unendlich ist, kann damit eine ordnungserhaltende (d.h., ≤-respektierende) bijektive Abbildung N → A definiert werden. Anforderungen Sorte Wohlordnung Totalordnung + jede nichtleere Teilmenge hat ein kleinstes Element 1.2. Gruppen 1.2 11 Gruppen Wir wollen N = {0, 1, 2, . . . } zu Z = {. . . , −2, −1, 0, 1, 2, . . . } erweitern. Da kommt unsere erste algebraische Struktur, die Gruppe. Ist G eine Menge, so wird eine Abbildung G × G → G Verknüpfung genannt und (g, h) 7→ g.h geschrieben (oder g · h, g ◦ h, g ∗ h usw., manchmal auch gh). Die Verknüpfung heisst assoziativ wenn (a.b).c = a.(b.c) gilt für alle a, b, c ∈ G. Definition. Eine Gruppe ist eine Menge G mit assoziativer Verknüpfung G × G → G, die die folgenden zwei Eigenschaften erfüllt: • Es gibt ein e ∈ G mit e.a = a = a.e für alle a ∈ G; solches e ∈ G ist eindeutig, denn aus ẽ.a = a = a.ẽ für alle a ∈ G würde ẽ = ẽ.e = e folgen. • Für alle a ∈ G gibt es ein a−1 ∈ G mit a−1 .a = e = a.a−1 . Das Element e heisst neutrales Element und das (auch eindeutig bestimmte) Element a−1 heisst inverses Element von a ∈ G. Eine Gruppe, in der zusätzlich gilt • a.b = b.a für alle a, b ∈ G, heisst abelsche Gruppe. Eine Verknüpfung, die die letzte Eigenschaft besitzt, heisst kommutativ, also ist die Verknüpfung einer abelschen Gruppe kommutativ. Die Verknüpfung einer abelschen Gruppe wird oft mit + bezeichnet, das neutrale Element 0 und das Inverse −a. Auf N haben wir schon die Verknüpfung + definiert. Dies ist assoziativ, es gibt das neutrale Element 0, aber Inverse fehlen (ausser von 0). Neben Ordnungsrelationen haben auch Äquivalenzrelationen platz. Sorte Anforderungen Äquivalenzrelation X ∼ X, X ∼ Y ⇒ Y ∼ X, (X ∼ Y, Y ∼ Z) ⇒ X ∼ Z, Ist A eine Menge mit Äquivalenzrelationen ∼, so heisst die Menge {Y ∈ A | Y ∼ X} für ein X ∈ A die Äquivalenzklasse von X ∈ A; in Zeichen: [X]. Mit A/∼ wird die Menge aller Äquivalenzklassen bezeichnet. Definition. Mit Z wird die Menge (N×N)/∼ bezeichnet, für die Äquivalenzerelation (m1 , n1 ) ∼ (m2 , n2 ) :⇔ m1 + n2 = m2 + n1 . Wir betrachten Z (ganze Zahlen) als Erweiterung von N, wobei ein n ∈ N mit [(n, 0)] ∈ Z identifiziert wird. 12 1. Grundlagen und algebraische Strukturen Mittels Eigenschaften von N (§1.1) sehen wir: ∼ ist eine Äquivalenzrelation und die analoge Relation mit ≤ anstatt = rechts liefert eine Totalordnung ≤ auf Z. Proposition 1.9. Durch [(m, n)]+[(m0 , n0 )] := [(m+m0 , n+n0 )] ist eine Verknüpfung +: Z × Z → Z definiert, die kompatibel mit + : N × N → N und mit der Z eine abelsche Gruppe ist. Beweis. Die Formel definiert eine Verknüpfung, denn aus (m1 , n1 ) ∼ (m2 , n2 ) folgt (m1 +m0 , n1 +n0 ) ∼ (m2 +m0 , n2 +n0 ) (denn m1 +m0 +n2 +n0 = m2 +m0 +n1 +n0 ) sowie (m + m1 , n + n1 ) ∼ (m + m2 , n + n2 ). Die Assoziativität und Kommutativität folgen aus denjenigen von + : N × N → N und die Kompatibilität ist klar. Wir verifizieren direkt, dass 0 das neutrale Element ist und [(m, n)] + [(n, m)] = 0. Es gilt [(m, n)] = m − n, was uns die umständliche Notation [(m, n)] beseitigen lässt. Nach Proposition 1.6 gilt −a ∈ N für alle a ∈ Z mit a ∈ / N. · 1 −1 1 1 −1 −1 −1 1 Auch in diesem Beispiel ist G abelsch. Mit den Beispielen sehen wir aber, dass Gruppen sowohl endlich als auch unendlich sein können. Als zweites Beispiel von Gruppe, G := {1, −1} mit · : G × G → G: Definition. Sind G und G0 Gruppen, so heisst eine Abbildung f : G → G0 Gruppenhomomorphismus, oder Homomorphismus, wenn für alle a, b ∈ G gilt: f (a).f (b) = f (a.b). Die Menge aller Homomorphismen G → G0 wird mit Hom(G, G0 ) bezeichnet. Unter dem trivialen Homomorphismus G → G0 wird alle Elemente aus G auf das neutrale Element e0 ∈ G0 abgebildet. Allgemeine Eigenschaften eines Homomorphismus f : G → G0 sind f (e) = e0 und f (a−1 ) = f (a)−1 für alle a ∈ G. Beispiel. Ist G eine abelsche Gruppe, so ist a 7→ a−1 ein Homomorphismus G → G. Je nach Eigenschaft der Abbildung f gelten restriktivere Bezeichnungen: Ein Homomorphismus, der auch . . . ist heisst injektiv Monomorphismus Epimorphismus1 surjektiv bijektiv Isomorphismus Ein Homomorphismus von einer Gruppe nach sich selbst heisst Endomorphismus. Beispiel: der identische Endomorphismus a 7→ a einer beliebigen Gruppe. Eine bijektiver Endomorphismus heisst Automorphismus. Tatsächlich deutet Epimorphismus die Eigenschaft an, dass für eine beliebige dritte Gruppe G00 und Homomorphismen g1 , g2 : G0 → G00 gilt: f ◦ g1 = f ◦ g2 ⇒ g1 = g2 . Konstruktionen aus der Algebra-Vorlesung werden zeigen lassen: diese Eigenschaft gilt genau dann, wenn f surjektiv ist. 1 1.3. Ringe 1.3 13 Ringe Die Multiplikation ist eine andere Verknüpfung auf Z. Bei einem Ring geht es um eine Menge mit zwei Verknüpfungen. Definition. Ein Ring ist eine Menge R mit zwei assoziativen Verknüpfungen +: R × R → R und · : R × R → R, so dass die folgenden zwei Eigenschaften erfüllt sind. • R mit + ist eine abelsche Gruppe. • Für alle a, b, c ∈ R gilt das Distributivgesetz : a · (b + c) = a · b + a · c (b + c) · a = b · a + c · a. sowie In einem Ring heisst ein Element 1 ∈ R Einselement falls gilt: • 1 · a = a = a · 1 für alle a ∈ R. Ein Ring heisst kommutativ falls zusätlich gilt: • a · b = b · a für alle a, b ∈ R. In einem Ring wird für die Verknüpfung + das neutrale Element mit 0 und das Inverse von a mit −a bezeichnet. Genau wie im Fall des neutralen Elements einer Gruppe, ist das Einselement eines Ringes eindeutig, falls es existiert. Andere Eigenschaften folgen aus der Definition, wie z.B., aus dem Distributivgesetz: • Es gilt 0 · a = 0 = a · 0 für alle a ∈ R. • In einem Ring mit Einselement 1 gilt (−1) · a = −a für alle a ∈ R. Beispiel. Ist G eine abelsche Gruppe, so ist die Menge End(G) aller Endomorphismen von G mit den Verknüpfungen Addition + : End(G) × End(G) → End(G), f + g := (a 7→ f (a) + g(a)), und üblicher Komposition ◦ : End(G) × End(G) → End(G) ein Ring. Der identische Endomorphismus idG gilt als Einselement. Mit der Bemerkung, dass für f , g ∈ End(G) auch die Summe f + g eine Endomorphismus ist (für welche es wichtig ist, dass G abelsch ist), geht die Verifikation, dass End(G) mit + eine abelsche Gruppe, ziemlich schnell. Die Verifikation des Distributivgesetzes: für f , g, h ∈ End(G) ist f ◦ (g + h) durch a 7→ f (g(a) + h(a)) und f ◦ g + f ◦ h durch a 7→ f (g(a))+f (h(a)) gegeben und nach der Definition des Homomorphismus: f (g(a) + h(a)) = f (g(a)) + f (h(a)). 14 1. Grundlagen und algebraische Strukturen Ein Element f ∈ End(Z) ist eindeutig durch f (1) charakterisiert. Denn aus f (1) = g(1) für f , g ∈ End(Z) folgt f (n) = g(n) für alle n ∈ N (Induktion nach n: f (0) = g(0) = 0 und f (n) = g(n) ⇒ f (n + 1) = f (n) + f (1) = g(n) + g(1) = g(n + 1)), deshalb f (m−n) = f (m)−f (n) = g(m)−g(n) = g(m−n) für alle m, n ∈ N. Zudem gibt es für jedes n ∈ Z ein f ∈ End(Z) mit f (1) = n. Da (f − g)(1) = f (1) − g(1) für f , g ∈ End(Z), genügt es den Fall n ∈ N zu behandeln; der triviale Endomorphismus dient als Induktionsanfang und aus f (1) = n folgt (f + idZ )(1) = n + 1. Für a ∈ Z schreiben wir µa für den eindeutigen Endomorphismus von Z, der 1 auf a abbildet. Wir erkennen µa als Multiplikation durch a und so definieren: · : Z × Z → Z, a · b := µa (b). Proposition 1.10. Mit Addition und Multiplikation ist Z ein kommutativer Ring mit Einselement 1. Beweis. Nach Proposition 1.9 ist Z mit Addition eine abelsche Gruppe. Seien a, b, c ∈ Z. Dann gilt a · (b + c) = µa (b + c) = µa (b) + µa (c) = a · b + a · c und (b + c) · a = µb+c (a) = (µb + µc )(a) = b · a + c · a, wobei µb+c = µb + µc aus µb+c (1) = (µb + µc )(1) folgt. Also ist Z ein Ring. Es gilt µ1 = idZ und µa (1) = a für alle a ∈ Z, deshalb 1·a = a = a·1. Für die Kommutativität genügt es, zu zeigen, dass m·n = n·m gilt für m, n ∈ N (nach dem Distributivgesetz); Induktion nach n: m · 0 = 0 = 0 · m ist schon bekannt und aus m·n = n·m folgt m·(n+1) = m·n+m = n·m+m = (n+1)·m. Es gibt auch Homomorphismen von Ringen, sogar zwei Sorten denn für Ringe mit Einselement kommt eine zusätzliche Anforderung. Definition. Sind R und R0 Ringe, so heisst eine Abbildung f : R → R0 Ringhomomorphismus wenn für alle a, b ∈ R gilt: f (a + b) = f (a) + f (b) und f (a · b) = f (a) · f (b). Sind R und R0 Ringe mit Einselementen 1R ∈ R und 1R0 ∈ R0 , so heisst eine Abbildung f : R → R0 Homomorphismus von Ringen mit Eins falls zusätzlich gilt: f (1R ) = 1R0 . In beiden Kontexten heisst die Menge aller Elemente aus R, die unter f auf 0 abgebildet werden, der Kern von f , geschrieben: ker(f ). Wichtige Eigenschaft: ker(f ) = 0 genau dann, wenn f injektiv ist. (Ist f (a) = f (b) mit a 6= b, so gilt f (a − b) = 0 und deshalb 0 6= a − b ∈ ker(f ).) Ein bijektiver Homomorphismus heisst in beiden Kontexten Isomorphismus. 1.4. Körper 15 Beispiel. Die Auswertung an 1 ist ein Isomorphismus von Ringen mit Eins End(Z) → Z. Die inverse Abbildung ist a 7→ µa . Die Kompatibilität mit + ist schon klar. Für alle a, b ∈ Z gilt (µa ◦ µb )(1) = µa (b) = a · b = µa (1) · µb (1). Es gilt idZ (1) = 1. 1.4 Körper Obwohl es additive Inverse in einem beliebigen Ring R gibt, kann es wohl Elemente geben, die kein multiplikatives Inverses haben. Vorausgesetzt, R ist ein Ring mit Einselement 1R , gilt als multiplikatives Inverses zu einem a ∈ R ein b ∈ R mit a · b = 1R = b · a. In Z, zum Beispiel, haben nur 1 und −1 multiplikative Inverse. Denn m · n ∈ N gilt für alle m, n ∈ N und ausser 0 + 0 = 0, 0 + 1 = 1 und 1 + 0 = 1 gibt es kein Paar von Elementen aus N, dessen Summe gleich 0 oder 1 ist. Es ist dann leicht, die Paare von Elementen aus N, deren Produkt gleich 0 oder 1 ist, zu charakterisieren, und mit (−a) · (−b) = a · b und (−a) · b = a · (−b) = −a · b, die Behandlung auf Z zu erweitern: 0 · a = a · 0 = 0 für alle a ∈ Z; 1 · 1 = (−1) · (−1) = 1; alle sonstigen Produkte sind 6= 0 und 6= 1. Definition. Ein Körper ist ein kommutativer Ring mit Einselement, in dem die Menge aller Elemente mit multiplikativen Inversen genau aus den von Null verschiedenen Elementen besteht. In einem kommutativen Ring R mit Einselement wird die Menge aller Elemente, die multiplikative Inverse besitzen, mit R× bezeichnet, die Einheiten von R. Also kann ein Körper beschrieben werden, als kommutativer Ring R mit Einselement, in dem R× = R r {0} gilt. Mit der multiplikativen Verknüpfung ist R× eine Gruppe, und falls R kommutativ ist, eine abelsche Gruppe; z.B., Z× = {1, −1}, das zweite Beispiel von Gruppe in §1.2. Da Z× ( Z r {0} = {1, −1, 2, −2, . . . }, ist Z kein Körper. Ein Körper aus Z zu konstruieren, ist möglich wenn man Brüche einführt. Definition. Mit Q wird die Menge Z × (Z r {0})/∼ bezeichnet, für die Äquivalenzrelation (a1 , b1 ) ∼ (a2 , b2 ) :⇔ a1 · b2 = a2 · b1 . Wir betrachten Q (rationale Zahlen) als Erweiterung von Z, wobei ein a ∈ Z mit [(a, 1)] identifiziert wird. 16 1. Grundlagen und algebraische Strukturen Dass dies ein Äquivalenzrelation ist, benötigt schon das oben erwähnte Eigenschaft, dass das Produkt zweier von Null verschiedener Elemente aus Z auch von Null verschieden ist. Wie üblich wird Elemente von Q mit Brüche bezeichnet: a := [(a, b)]. b Proposition 1.11. Die Formeln a a0 a · b0 + a0 · b + 0 := b b b · b0 und a · a0 a a0 · 0 := b b b · b0 definiern Verknüpfungen +: Q × Q → Q und · : Q × Q → Q, die kompatibel mit denjenigen auf Z sind und mit denen Q ein Körper ist. Beweis. Seien a1 , b1 , a2 , b2 ∈ Z mit b1 , b2 6= 0 und a1 · b2 = a2 · b1 . Dann gilt (a1 · b0 + a0 · b1 ) · b2 · b0 = a1 · b2 · b0 · b0 + b1 · b2 · a0 · b0 = a2 · b1 · b0 · b0 + b1 · b2 · a0 · b0 = (a2 · b0 + a0 · b2 ) · b1 · b0 , also a1 · b0 + a0 · b1 a2 · b0 + a0 · b2 = . b1 · b0 b2 · b0 Daraus folgt, dass + : Q×Q → Q wohldefiniert ist. Ähnlich geht die verifikation, dass · : Q × Q → Q wohldefiniert ist. Aus den Formeln folgt, dass + und · assoziativ und kommutativ sind. Ebenso folgt das Distributivgesetz. Also ist Q ein kommutativer Ring. Die Kompatibilität mit + und · auf Z ist klar. Als Einselement in Q gilt 1 (d.h., 11 ) und aus a b · =1 b a für alle a, b ∈ Z r {0} folgt Q× = Q r {0}. 1.5 Euklidische Ringe Ein kommutativer Ring R mit Einselement 1 6= 0, in dem das Produkt zweier von Null verschiedener Elemente stets von Null verschieden ist, heisst Integritätsbereich. Wichtigstes Beispiel: Z. In einem solchen Ring ist es sinnvoll, nach der Faktorzerlegung beliebiger Elemente zu fragen. Als Vorbild gilt die Primzahlzerlegung. Definition. Sei R ein Integritätsbereich. Eine Abbildung f : R r {0} → N heisst euklidischer Betrag falls gilt: 1.5. Euklidische Ringe 17 • Für alle a, b ∈ R mit b 6= 0 gibt es q, r ∈ R mit a = qb + r und r = 0 oder f (r) < f (b). Ein euklidischer Ring ist ein Integritätsbereich, auf dem es einen euklidischen Betrag gibt. (N.B. Wie oben lassen wir oft das Symbol · in Produkten weg.) Wir werden sehen, es gibt Faktorzerlegungen in einem euklidischen Ring, die analog sind zur Primzahlzerlegung. Es wird nützlich, Beispiele zu haben von Integritätsbereichen, auf denen es sinnvoll ist, nach der Existenz eines euklidischen Betrags zu fragen. Neben Z selbst gibt es √ Erweiterungen Z[ d] für Nichtquadrate d ∈ Z, die man formell und ohne Vorkenntnis √ von d (als reeller oder komplexer Zahl) definieren kann: √ Z[ d] := {(a, b) ∈ Z × Z} mit (a, b) + (a0 , b0 ) := (a + a0 , b + b0 ), √ √ (a, b) · (a0 , b0 ) := (aa0 + dbb0 , ab0 + a0 b) und Schreibweise a + b d := (a, b) ∈ Z[ d]. Andere wichtige Integritätsbereiche sind Polynomringe. Sei K ein Körper. Ein Polynom vom Grad d ∈ N über K wird durch eine Folge von Koeffizienten (ai )i∈N aus K (d.h., eine Abbildung N → K, i 7→ ai ) gegeben mit ad 6= 0 und ai = 0 für alle i > d. Als Polynome über K gelten das Nullpolynom (mit ai = 0 für alle i ∈ N) und die Polynome vom Grad d für alle d ∈ N. Man wählt ein Symbol wie, z.B., T aus und schreibt (ai )i∈N mit ai = 0 für alle i > d als ad T d + ad−1 T d−1 + · · · + a1 T + a0 . Die Summe mit dem Polynom be T e + be−1 T e−1 + · · · + b1 T + b0 mit Koeffizienten (bi )i∈N hat die Koeffizienten (ai + bi )i∈N , also für f ≥ max(d, e) kann als (af + bf )T f + (af −1 + bf −1 )T f −1 + · · · + (a1 + b1 )T + (a0 + b0 ) geschrieben werden. Das Produkt ist ad be T d+e + (ad−1 be + ad be−1 )T d+e−1 + · · · + (a0 b1 + a1 b0 )T + a0 b0 , wobei für alle k ∈ N der k-te Koeffizient die Summe von ai bj über alle 0 ≤ i ≤ d und 0 ≤ j ≤ e mit i + j = k ist. Es ist unkompliziert aber langwierig zu verifizieren, dass Polynome über K einen kommutativen Ring mit Eins bilden, der mit K[T ] (oder mit einem anderen ausgewählten Symbol anstatt T ) bezeichnet wird. Das Produkt eines Polynoms vom Grad d und eines Polynoms vom Grad e ist stets vom Grad d + e, deshalb ist K[T ] ein Integritätsbereich mit K[T ]× = K × . 18 1. Grundlagen und algebraische Strukturen Übrigens kann man Brüche einführen und – genau wie aus Z der Körper Q entstanden ist – aus K[T ] einen Körper konstruieren, die Körper K(T ) aller rationaler Funktionen in der Variablen T . Proposition 1.12. Folgende sind euklidische Beträge: • Der Absolutbetrag | | auf Z, wobei |n| := n falls n ∈ N, sonst |n| := −n. • Der Grad eines Polynoms auf K[T ] für einen beliebigen Körper K. Der Grad eines Polynoms p ∈ K[T ] r {0} wird mit deg(p) bezeichnet (englisch: degree). Beweis. Der Divisionsalgorithmus aus der Schule (Division mit Rest) besagt, für alle a ∈ Z und b ∈ N>0 gibt es ein q ∈ Z und ein r ∈ N<b mit a = qb + r. (Für ein gegebenes b: die Menge Sb aller solchen a enthält N<b und erfüllt a ∈ Sb ⇒ a+b ∈ Sb , deshalb durch Induktion auch N ⊂ Sb , sowie a + b ∈ Sb ⇒ a ∈ Sb , deshalb Sb = Z.) Die euklidishe Eigenschaft für | | folgt. Es gibt auch einen Divisionsalgorithmus für Polynome über einem Körper K. Ist g ein beliebiges Polynom und h ein Polynom vom Grad d, so gibt es q, r ∈ K[T ] mit g = qh + r, wobei r Null oder vom Grad < d ist. Diese Aussage, die der euklidishen Eigenschaft gleichkommt, ist trivial falls g = 0 oder vom Grad < d ist und folgt andernfalls durch Induktion nach deg(g). Bemerkung. Im Beweis von Proposition 1.12 sind die jeweiligen (q, r)-Paare in den Divisionsalgorithmen eindeutig bestimmt. Wer √ gut mit komplexen √ Zahlen vertraut ist, kann versuchen zu zeigen, dass der auf Z[ −1] durch f (a + b −1) := a2 + b2 definierte √ Betrag ein euklidischer Bertrag ist. √ Auf ähnliche Weise kann gezeigt werden, auf Z[ −2] ist f (a + b −2) :=√a2 + 2b2 ein euklidischer Bertrag. Aber es gibt keinen euklidischen Betrag auf Z[ −3]. Sei √ f : Z[ −3] r {0} → N eine√Abbildung, d der√kleinste Wert von √ √ der Einschränkung √ f auf Z[ −3] r {0, ±1, ± −3} und k + ` −3 ∈ Z[ −3] r {0, ±1, ± −3} mit √ √ f (k + ` −3) = d, dann: (i) falls ` = 0 haben wir mit a := 1 + −3 und b := k eine Widerspruch √zur euklidischen Eigenschaft, (ii) sonst haben wir mit a := 2 oder 3 und b := k + ` −3 eine Widerspruch zur euklidischen Eigenschaft. Proposition 1.13. Sei R ein euklidischer Ring. Sind a, b ∈ R, so gibt es s, t, u, v ∈ R mit (sa+tb)u = a und (sa+tb)v = b. Des Weiteren ist das Element d := sa+tb eindeutig bestimmt, bis auf Multiplikation mit einem Element aus R× . Beweis. Zuerst betrachten wir einige Spezialfälle: (i) a = b = 0, dann ist d = 0 eindeutig bestimmt; (ii) a 6= 0, b = 0, dann ist s ∈ R× , also d = sa ist eindeutig bestimmt, bis auf Multiplikation mit einer Einheit; (iii) a = 0, b 6= 0, ähnlich. 1.5. Euklidische Ringe 19 Sonst ist a 6= 0, b 6= 0. Wir zeigen, dass d eindeutig ist, bis auf Multiplikation mit einer Einheit. Also seien s, t, u, v, s0 , t0 , u0 , v 0 ∈ R mit (sa + tb)u = (s0 a + t0 b)u0 = a und (sa + tb)v = (s0 a + t0 b)v 0 = b, sei d := sa + tb und d0 := s0 a + t0 b. Dann gilt d = (su0 + tv 0 )d0 und d0 = (s0 u + t0 v)d und daraus folgt, su0 + tv 0 , s0 u + t0 v ∈ R× . Sei f : R r {0} → N ein euklidischer Betrag. Wir zeigen die Existenz geeigneter s, t, u, v ∈ R durch Induktion nach f (b) und zwar die Variante, wobei die Induktionshypothese aus der Aussage für alle kleineren Werte von f (b) besteht. Falls a = qb für ein q ∈ R, so ist mit s := 0, t := 1, u := q, v := 1 die Aussage bewiesen. Sonst gibt es q, r ∈ R mit a = qb + r, r 6= 0 und f (r) < f (b). Wir verwenden die Induktionshypothese mit den Paar (b, r), also gibt es q 0 , r0 , s0 , t0 ∈ R mit (s0 b + t0 r)u0 = b und (s0 b + t0 r)v 0 = r. Sei nun s := t0 , t := s0 − t0 q, u := qu0 + v 0 , v := u0 . Dann berechnen wir (sa + tb)u = (t0 a + (s0 − t0 q)b)(qu0 + v 0 ) = (s0 b + t0 r)(qu0 + v 0 ) = (s0 b + t0 r)qu0 + (s0 b + t0 r)v 0 = qb + r = a und (sa + tb)v = (t0 a + (s0 − t0 q)b)u0 = (s0 b + t0 r)u0 = b. In Proposition 1.13 ist d ein Teiler von a sowie von b, d.h., aus d bekommen wir a sowie b durch Multiplikation mit geeigneten Elementen. Trivialerwise ist aber auch 1 ein Teiler von a sowie von b. Eine zusätliche Eigenschaft von d stellt sicher, dass d bis auf Multiplikation mit einer Einheit eindeutig ist, nämlich, das alle gemeinsamen Teiler von a und b auch d teilen. Denn für e ∈ R folgt aus ke = a und `e = b für k, ` ∈ R, dass (sk + t`)e = d gilt. Definition. Sei R ein Integritätsbereich, seien a, b ∈ R. Als grösster gemeinsamer Teiler oder ggT von a und b gilt ein Element d ∈ R, falls (i) d ein Teiler ist von a sowie von b, und (ii) alle e ∈ R mit der Eigenschaft aus (i) auch d teilen. Ist 1 ∈ R ggT von a und b, so heissen a und b teilerfremd. Also besagt Proposition 1.13, das Element d := sa + tb für geeignete s, t ∈ R ist ggT von den gegebenen Elementen a, b ∈ R. In den Beispielen von euklidischen Ringen, die wir gesehen haben, gibt es einen günstigen euklidischen Betrag, dass nicht nur leicht zu berechnen ist, sonder auch auf algorithmische Weise erlaubt, aus gegebenen a und b passende q und r zu finden. Der Induktionsschritt im Beweise von Proposition 1.13 ist auch algorithmisch. Also kann auf algorithmische Weise ein ggT eines beliebigen Paares von Elementen berechnet werden, wie Euklid schon vor über 2000 Jahren im Fall von zwei positiven natürlichen Zahlen beschrieben hat (euklidischer Algorithmus). 20 1. Grundlagen und algebraische Strukturen Das nächste Resultat identifiziert die Bausteine eines beliebigen euklidischen Ringes, also Elemente, die analog sind zu den Primzahlen in Z. Proposition 1.14. Sei R ein euklidischer Ring und a ∈ R eine von Null verschiedene Nichteinheit. Dann sind die folgenden Aussagen äquivalent. (i) Für alle b ∈ R gilt: ist a kein Teiler von b, so gibt es ein c ∈ R derart, dass a Teiler von bc − 1 ist. (ii) Für alle b, b0 ∈ R gilt: ist a Teiler von bb0 , so ist a Teiler von b oder von b0 . (iii) Für alle b, b0 ∈ R gilt: ist a = bb0 , so ist b oder b0 eine Einheit. Beweis. (i) ⇒ (ii): Seien b, b0 , a0 ∈ R mit aa0 = bb0 . Angenommen, a ist kein Teiler von b. Es gibt also c, d ∈ R, mit ad = bc − 1. Es gilt aa0 c = bb0 c = (ad + 1)b0 und deshalb b0 = a(a0 c − b0 d). (ii) ⇒ (iii) ist klar, denn falls a Teiler von b und b auch Teiler von a ist, muss a aus b durch Multiplikation mit einer Einheit entstehen. (iii) ⇒ (i): Sei b ∈ R. Angenommen, a ist kein Teiler von b. Nach Proposition 1.13 gibt es s, t, u, v ∈ R mit du = a und dv = b, wobei d := sa + tb. Dann ist d oder u eine Einheit. Ist u ∈ R× , so folgt au−1 v = b, Widerspruch. Also ist d ∈ R× . Es gilt deshalb 1 = d−1 sa + d−1 tb und a ist Teiler von d−1 tb − 1. Die Aussagen (i)–(iii) wirken auf den ersten Blick wohl willkürlich. Aber sie entsprechen natürlichen Bedingungen auf R/aR: • Mit aR wird die Menge aller Vielfachen von a bezeichnet: aR = {ab | b ∈ R}. • Aus aR ensteht ein Äquivalenzrelation auf R, wobei b ∼ b0 :⇔ b − b0 ∈ aR; mit R/aR wird R/∼ für die Äquivalenzrelation ∼ bezeichnet. • Für b ∈ R ist b + aR die Äquivalenzklasse von b; mit b + aR wird die Summe von b mit allen Elementen von aR bezeichnet. • Die Verknüpfungen + und · auf R induzieren Verknüpfungen auf R/aR, damit R/aR auch ein kommutativer Ring mit Einselement ist. • Nun entspricht die Aussage (i) aus Proposition 1.14 der Bedingung, dass R/aR ein Körper ist und die Aussage (ii), dass R/aR ein Integritätsbereich ist. Die übrige Aussage (iii) besagt, dass a irreduzibel ist, siehe folgende Definition. Definition. Sei R ein Integritätsbereich und a ∈ R eine von Null verschiedene Nichteinheit. Dann heisst a irreduzibel, falls für alle Faktorisierungen a = bb0 in R gilt: b ∈ R× oder b0 ∈ R× . 1.5. Euklidische Ringe 21 In einem euklidischen Ring heisst eine von Null verschiedene Nichteinheit prim falls die Aussagen (i)–(iii) aus Proposition 1.14 gelten. Zum Beispiel, in Z: Primzahlen: 2, 3, 5, 7, . . . , Primelemente: ±2, ±3, ±5, ±7, . . . . Bis auf Multiplikation mit Einheiten Z× = {±1} spiegelt der neue Begriff die klassisch bekannten Bausteine der Primzahlzerlegung wider. Es wird praktisch, von einem euklidischen Betrag f : R r {0} → N zu verlangen, dass f (a) ≤ f (ab) für alle a, b ∈ R r {0}. (1) Ist f0 ein beliebiger euklidischer Betrag, so definiert f : R r {0} → N, a 7→ min{f0 (ab) | b ∈ R r {0}} einen euklidischen Betrag, für den auch (1) gilt. Denn sei a, b ∈ R mit b 6= 0, sei c ∈ R r {0} derart, dass f (b) = f0 (bc) gilt. Nach der euklidischen Eigenschaft gibt es q, r ∈ R mit a = qbc + r mit r = 0 oder f0 (r) < f0 (bc). Deshalb gilt a = (qc)b + r mit r = 0 oder f (r) < f (b). Ist f ein euklidischer Bertrag, für den (1) gilt, so sind f (a) und f (ab) genau dann gleich, wenn b ∈ R× . (Ist b ∈ R× so folgt die Gleichheit aus f (a) ≤ f (ab) und f (ab) ≤ f (abb−1 ) = f (a); ist f (a) = f (ab), so kommt es zu einer Widerspruch zur euklidischen Eigenschaft für das Paar von Elementen a und ab, ausser dem Fall, dass ab Teiler ist von a, d.h., b ∈ R× .) Lemma 1.15. Sei R ein euklidischer Ring und a ∈ R eine von Null verschiedene Nichteinheit. Dann gibt es ein m ∈ N>0 und Primelemente p1 , . . . , pm ∈ R, mit a = p1 · · · pm . Beweis. Sei f ein euklidischer Bertrag, für den (1) gilt. Wir verwenden Induktion nach f (a). Falls a schon irreduzibel ist, ist die Sache klar. Sonst gibt es Nichteinheiten b, b0 ∈ R mit a = bb0 . Es folgt: f (b) < f (a) und f (b0 ) < f (a). Nach der Induktionshypothese haben wir b = p1 · · · pm und b = p01 · · · p0m0 für geeignete m, m0 ∈ N>0 und Primelemente p1 , . . . , pm , p01 , . . . , p0m0 . Es folgt: a = p1 · · · pm p01 · · · p0m0 . Wir formulieren eine Aussage über die Eindeutigkeit einer Faktorisierung, wie in Lemma 1.15. Einfachheitshalber werden wir annehmen, dass ein Repräsentant aus jeder Menge der Form {up | u ∈ R× }, wobei p prim ist, ausgewählt worden ist. Solche Repräsentanten sind in den wichtigsten Beispielen schon vorhanden. In Z haben wir die Primzahlen. Für einen Körper K haben wir im Polynomring K[T ] die normierten irreduziblen Polynome; ein Polynom ad T d + ad−1 T d−1 + · · · + a0 ∈ K[T ] vom Grad d heisst normiert, wenn ad = 1. 22 1. Grundlagen und algebraische Strukturen Proposition 1.16. Sei R ein euklidischer Ring und P ⊂ R eine Menge von Primelementen, in der genau ein Repräsentant aus jeder Menge {up | u ∈ R× } mit p prim enthalten ist. Dann gibt es für jedes a ∈ R r {0} eine Faktorisierung a = up1 · · · pm mit u ∈ R× , m ∈ N und p1 , . . . , pm ∈ P . Die Einheit u und Zahl m sind eindeutig bestimmt und die Elemente p1 , . . . , pm ∈ P bis auf Reihenfolge eindeutig bestimmt. Beweis. Die Existenz einer solchen Faktorisierung folgt aus Lemma 1.15 und der Eigenschaft von P . Wir beweisen die Eindeutigkeit durch Induktion nach der kleinstmöglichen Anzahl der Primfaktoren in einer solchen Faktorisierung. Der Induktionsanfang, a ∈ R× , ist klar. Sei a = up1 · · · pm+1 eine Faktorisierung mit kleinstmöglicher Anzahl der Primfaktoren sowie a = u0 p01 · · · p0m0 +1 eine andere Faktorisierung für ein m0 ∈ N mit u0 ∈ R× und p01 , . . . , p0m0 +1 ∈ P . Also ist pm+1 ein Teiler von a und daraus folgt, pm+1 ist auch Teiler von p0i for ein i mit 1 ≤ i ≤ m0 + 1. Nach der Eigenschaft von P gilt p0i = pm+1 . Es folgt, up1 · · · pm = u0 p01 · · · p0i−1 p0i+1 · · · p0m0 +1 . Nach der Induktionshypothese haben wir u0 = u und m0 = m und unterscheiden sich p1 , . . . , pm und p01 , . . . , p0i−1 , p0i+1 , . . . , p0m0 +1 nur in der Reihenfolge. 1.6 Restklassenkörper und Körpererweiterungen Sind K und L Körper, so folgt direkt aus der Definition, dass alle Homomorphismen von Ringen mit Eins K → L injektiv sind. Deshalb spricht man von Körpereinbettungen von K oder, wenn es um eine Inklusion K ⊂ L geht, von einer Körpererweiterung L/K. Nach Proposition 1.14 entsteht für einen euklidischen Ring R und Primelement p ∈ R ein Restklassenkörper R/pR mit surjektivem Homomorphismus von Ringen mit Eins R → R/pR (Reduktion modulo p, oft geschrieben a 7→ ā). Aus Gründen der Effizienz erlauben wir auch p = 0 und in diesem Fall betrachten wir den injektiven Homomorphismus von R nach dem Körper, der durch die Einführung von Brüchen entsteht (siehe Diskussion vor Propositionen 1.11 und 1.12) – dem sogennanten Quotientenkörper. Für die wichtigsten euklidischen Ringe erhalten wir für p = 0 bzw. p ∈ P (§1.5): • Im Fall R = Z die Primkörper Q bzw. Z/pZ für alle Primzahlen p ∈ Z. • Im Fall R = K[T ] für einen Körper K die einfachen Körpererweiterungen K(T ) bzw. alle Körpererweiterung L/K derart, dass es ein x ∈ L gibt, so dass 1.6. Restklassenkörper und Körpererweiterungen 23 L = {c0 + c1 x + · · · + cn−1 xn−1 | c0 , . . . , cn−1 ∈ K} für ein n ∈ N>0 (ist n so klein wie möglich und xn als c0 +c1 x+· · ·+cn−1 xn−1 geschrieben, so entspricht L dem Fall p = T n − cn−1 T n−1 − · · · − c1 T − c0 ). Proposition 1.17. Sei R ein Ring mit Einselement 1R ∈ R. Dan gibt es einen eindeutigen Homomorphismus Z → R von Ringen mit Eins. Beweis. Sei s : R → R, s(a) := a + 1R . Mit der Iteration Is von s definieren wir f : N → R, f (n) := Is (0, n). Für m, n ∈ N gilt f (m + n) = f (m) + f (n) (Induktion nach n), deshalb lässt sich f durch f (m − n) := f (m) − f (n) zu einer Abbildung Z → R erweitern und es gilt f (a+b) = f (a)+f (b) für alle a, b ∈ Z. Aus f (a(n+1)) = f (an+a) = f (an)+f (a) ist durch Induktion nach n zu verifizieren: f (an) = f (a)f (n) für alle a ∈ Z und n ∈ N. Es folgt: f (ab) = f (a)f (b) für alle a, b ∈ Z. Wir haben f (1) = 1R , also ist f ein Homomorphismus von Ringen mit Eins. Sind f , g : Z → R Homomorphismen von Ringen mit Eins, so folgt aus f (1) = 1R = g(1) durch Induktion nach n, dass f (n) = g(n) gilt für alle n ∈ N, deshalb, f = g. Proposition 1.18. Sei K ein Körper, sei f : Z → K der eindeutige Homomorphismus von Ringen mit Eins (Proposition 1.17). Ist f injektiv, so gibt es eine eindeutige Erweiterung zu einer Körpereinbettung Q → K. Sonst ist die kleinste positive natürliche Zahl in ker(f ) eine Primzahl p und f induziert eine Körpereinbettung Z/pZ → K. Des Weiteren hat p := 0 im ersten Fall und die Primzahl p im zweiten Fall die Eigenschaft: ker(f ) = pZ. Beweis. Zuerst behandeln wir den Fall, dass f injektiv ist. Aus f (ab) = f (a)f (b) für alle a, b ∈ Z und f (b) 6= 0 für alle b ∈ Z r {0} folgt, dass f a := f (a)f (b)−1 b eine Erweiterung von f zu einer Abbildung Q → K definiert. Es gilt, für a, b, a0 , b0 ∈ Z mit b, b0 6= 0: f a a0 + 0 = (f (a)f (b0 ) + f (a0 )f (b))(f (b)f (b0 ))−1 = f (a)f (b)−1 + f (a0 )f (b0 )−1 b b a a0 +f 0 =f b b 24 1. Grundlagen und algebraische Strukturen und f a a0 a a0 · 0 = f (a)f (a0 )(f (b)f (b0 ))−1 = f (a)f (b)−1 f (a0 )f (b0 )−1 = f f 0 . b b b b Die Eindeutigkeit ist klar, durch die Betrachtung von f (a) = f ((a/b)b). Sei nun p ∈ N>0 mit f (p) = 0 aber f (n) 6= 0 für alle 0 < n < p. Sei a ∈ Z mit f (a) = 0. Nach der euklidischen Eigenschaft ist p ein Teiler von a, denn wir könnten sonst a = qp + r schreiben mit q, r ∈ Z und 0 < r < p, aber f (r) 6= 0, also Widerspruch. Wir behaupten, p ist eine Primzahl. Sonst gibt es b, b0 ∈ Z mit 1 < b, b0 < p und bb0 = p und wir haben aus f (b)f (b0 ) = f (p) = 0 und f (b), f (b0 ) 6= 0 eine Widerspruch. Da f (p) = 0 ist die Abbildung Z/pZ → K, a + pZ 7→ f (a), wohldefiniert. Definition. Die zum Körper K assoziierte Zahl p (Proposition 1.18) heisst Charakteristik von K und wird mit char(K) bezeichnet. Nach Proposition 1.17 ist klar: Ist L/K eine Körpererweiterung, so haben K und L dieselbe Charakteristik und das Gleiche gilt für eine beliebige Körpereinbettung K → L. √ √ Beispiele von Körpern der Charakteristik 0 sind Q und die Körper Q[ d] √ = Q( d), die für Nichtquadrate d ∈ Z entstehen, wenn man in der Definition von Z[ d] (§1.5) Z durch Q ersetzt. Sei p eine Primzahl. Neben dem Primkörper Z/pZ, der auch mit Fp bezeichnet wird (das F erinnert ans englische Wort für Körper: field ), sind auch deren einfache Körpererweiterungen sogar in Anwendungen (Kryptographie usw.) wichtig, zum Beispiel, im Fall p = 2 der Körper mit 4 Elementen F4 : • F4 kann als einfache Körpererweiterung von F2 realisiert werden, in dem wir p := T 2 + T + 1 in der Konstruktion von den Restklassenkörpern von F2 [T ] nehmen. • Konkret haben wir für F4 die folgende Additions- bzw. Multiplikationstabelle: + 0 1 x 1+x 0 0 1 x 1+x 1 1 0 1+x x x x 1+x 0 1 1+x 1+x x 1 0 · 0 1 x 1+x 0 1 x 1+x 0 0 0 0 0 1 x 1+x 0 x 1+x 1 0 1+x 1 x Zurück zur Charakteristik 0, so sitzt der Körper Q in einer Kette von Konstruktionen: N ⊂ Z ⊂ Q ⊂ R ⊂ C. 25 Auf N haben wir die Totalordnung ≤, die schon zum Ring Z erweitert worden ist und sich auf ähnliche Weise zum Körper Q erweitern lässt: für a, a0 ∈ Z, b, b0 ∈ N>0 , a a0 ≤ 0 :⇔ ab0 ≤ a0 b. b b Dann ist Q ein geordneter Körper, d.h., die Eigenschaften a≤b⇒a+c≤b+c und a, b ≥ 0 ⇒ ab ≥ 0 für alle a, b, c, die schon in Z nachgewiesen wurden, sind gültig in Q. Es ist Sache der Vorlesung Analysis I, die Erweiterung von Q auf R (reelle Zahlen) durchzuführen. Verschiedene Konstruktionen sind möglich. Unter den geordneten Körpern lässt sich R durch die Eigenschaften von Dedekind-Vollständigkeit charakterisieren, d.h., dass jede nichtleere und nach oben beschränkte Teilmenge eine kleinste obere Schranke besitzt. Zwischen zwei geordneten Körpern mit dieser Eigenschaft gibt es einen eindeutigen Isomorphismus von Körpern. Sobald der Körper √ R vorhanden ist, entsteht C (komplexe Zahlen) durch das Adjungieren von −1, genau wie schon mit dem Ring Z und dem Körper Q gemacht worden ist: C := {(a, b) ∈ R × R} mit (a, b) + (a0 , b0 ) := (a + a0 , b + b0 ), √ (a, b) · (a0 , b0 ) := (aa0 − bb0 , ab0 + a0 b) und Schreibweise a + b −1 ∈ C; √ −1 wird auch als i geschrieben und das allgemeine Element von C als a + bi mit a, b ∈ R. Es entsteht der Körper C: für 0 6= a + bi ∈ C (d.h., a 6= 0 oder b 6= 0) gilt (a + bi)−1 = a b − i. a2 + b2 a2 + b2 Die Abbildung C → C, a + bi 7→ a − bi, heisst komplexe Konjugation und ist ein Körperautomorphismus. Die zur z := a + bi konjugierte komplexe Zahl a − bi wird 2 2 mit z̄ bezeichnet. |z|2 , √ Wir erkennen a + b (aus obiger Formel) als z · z̄ und auch als 2 2 2 wobei |z| := a + b . Der Körper C kann nicht angeordnet werden, denn i = −1 während Quadrate in geordneten Körpern stets ≥ 0 sind. 2 Lineare Abbildung und Matrizen In der Praxis werden oft Gleichungssysteme gestellt, für die wir die Lösungsmenge in Rn suchen, wobei n die Anzahl der Unbekannten ist. Welche Struktur hat Rn ? Mit der üblichen komponentenweisen Addition ist Rn eine abelsche Gruppe. Aber ausser dem Trivialfall n = 1, dem Spezialfall n = 2, bei dem sich R2 mit C identifizieren 26 2. Lineare Abbildung und Matrizen lässt, und einem weiteren Spezialfall gibt es keine praxisbezogene zweite assoziative Verknüpfung,2 also sehen wir keine günstige Struktur als Ring oder Körper. Komponentenweise Multiplikation – eine denkbare Option – erweist sich selbt im Fall n = 2 als fernab der Geometrie. Nützlich hingegen ist die Skalarmultiplikation, wobei mit einer gegebenen reellen Zahl alle Koordinaten multipliziert werden. Durch die Skalarmultiplikation entsteht die zur linearen Algebra allgegenwärtige algebraische Struktur des Vektorraums. 2.1 Vektorräume Der Raum Rn = {(a1 , . . . , an ) | a1 , . . . , an ∈ R} wird mit Skalarmultiplikation als Vektorraum angesehen. Ist K ein beliebiger Körper, so wird ebenfalls K n angesehen. Definition. Sei K ein Körper. Ein Vektorraum über K ist eine Menge V mit Verknüpfung + : V × V → V und Skalarmultiplikation · : K × V → V , so dass die folgenden vier Eigenschaften erfüllt sind. • V mit + ist eine abelsche Gruppe. • Für alle a, b ∈ K und v ∈ V gilt (ab) · v = a · (b · v). • Für alle v ∈ V gilt 1 · v = v. • Für alle a, b ∈ K und v, w ∈ V gilt: a · (v + w) = a · v + a · w und (a + b) · v = a · v + b · v. Auch wird V als K-Vektorraum beschrieben. Es gibt formelle Ähnlichkeiten mit der Definition des Ringes. Ähnlich auch ist die Folgerung von anderen Eigenschaften aus der Definition des Vektorraums, wie z.B.: • 0 · v = 0 für alle v ∈ V und a · 0 = 0 für alle a ∈ K. • (−1) · v = −v für alle v ∈ V . Also ist K n ein Vektorraum über K mit Addition (b1 , . . . , bn ) + (c1 , . . . , cn ) := (b1 + c1 , . . . , bn + cn ) und Skalarmultiplikation a · (b1 , . . . , bn ) := (ab1 , . . . , abn ) 2 Beim Fall n = 4 lässt sich R4 mit den sogenannten Quaternionen identifizieren. Dass damit die Liste der Spezialfälle vollständig ist, wurde in einem gewissen Sinn durch ein Resultat von Frobenius rechtfertigt. 2.1. Vektorräume 27 für a ∈ K und (b1 , . . . , bn ), (c1 , . . . , cn ) ∈ K n . Es kommt häufig vor, dass eine Lösungsmenge, z.B., in Rn , auch die Struktur eines Vektorraums hat. Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge U ⊂ V heisst Untervektorraum wenn die folgenden drei Bedingungen erfüllt sind. • Es gilt 0 ∈ U . • Sind u, u0 ∈ U , so ist auch u + u0 ∈ U . • Für alle a ∈ K und u ∈ U ist a · u ∈ U . Mit + und · von V bekommt ein solches U die Struktur eines K-Vectorraums. Definition. Sei K ein Körper, seien V und W Vektorräume über K. Eine lineare Abbildung ist eine Abbildung f : V → W , die bezüglich der Gruppenstrukturen ein Homomorphismus ist und im folgenden Sinn kompatibel ist mit den jeweiligen Skalarmultiplikationen: f (a · v) = a · f (v) für alle a ∈ K und v ∈ V . Die Menge aller linearen Abbildungen V → W wird mit HomK (V, W ) bezeichnet. Mit f + g := (v 7→ f (v) + g(v)) und a · f := (v 7→ a · f (v)) für a ∈ K und f , g ∈ HomK (V, W ) ist HomK (V, W ) ein K-Vectorraum. Zu den wichtigen Eigenschaften einer linearen Abbildungen f : V → W gehören: • Das Bild im(f ) ist ein Untervektorraum von W . • Der Kern ker(f ) ist ein Untervektorraum von V . Wie in §1.3 wird ker(f ) := {v ∈ V | f (v) = 0} definiert; es gilt auch: ker(f ) = 0 ⇔ f ist injektiv. Es gibt die folgenden Verallgemeinerungen: • Das Bild f (U ) von einem beliebigen Untervektorraum U ⊂ V ist ein Untervektorraum von W . • Das Urbild f −1 (Z) von einem beliebigen Untervektorraum Z ⊂ W ist ein Untervektorraum von V . Das Urbild f −1 (Z) ist die Menge aller Elemente aus V , die unter f in Z abgebildet werden. Das Urbild f −1 (w) eines beliebigen Elements w ∈ W hingegen heisst Faser über w und ist nur im Fall w = 0 ein Untervektorraum von V . Definition. Sei K ein Körper, V ein K-Vektorraum und U ⊂ V ein Untervektoraum. Die Menge aller Äquivalenzklassen für die Äquivalenzrelation v ∼ v 0 :⇔ v − v 0 ∈ U 28 2. Lineare Abbildung und Matrizen auf V wird mit (v + U ) + (v 0 + U ) := v + v 0 + U a · (v + U ) := a · v + U und die Struktur eines K-Vektorraums gegeben, Quotientenvektorraum genannt und mit V /U bezeichnet. Ist W ein weiterer K-Vektorraum und f : V → W eine lineare Abbildung, so wird W/ im(f ) Kokern von f genannt und mit coker(f ) bezeichnet. In diesen Situationen gibt es offensichtliche surjektive lineare Abbildungen V → V /U bzw. W → coker(f ), wobei v ∈ V auf v + U abgeblidet wird, bzw. w ∈ W auf w + im(f ). Beide heissen kanonische lineare Abbildung. Wenn vom Kontext klar ist, um welchen Quotientenvektorraum es geht, wird v + U auch mit v̄ bezeichnet. 2.2 Matrizen Sei K ein Körper, seien m, n ∈ N. Wir haben die K-Vektorräume K m und K n . Wir betrachten nun die linearen Abbildungen f : K n → K m . In K n gibt es spezielle Elemente e1 := (1, 0, . . . , 0), e2 := (0, 1, . . . , 0), ... en := (0, . . . , 0, 1). Eine lineare Abbildung f : K n → K m ist eindeutig durch v1 := f (e1 ), v2 := f (e2 ), ... vn := f (en ) charakterisiert, denn ein allgemeines Element (a1 , . . . , an ) ∈ K n wird nach der Definition der linearen Abbildung auf a1 v1 + · · · + an vn abgebildet. Umgekehrt lässt sich für beliebige v1 , . . . , vn ∈ K m e1 7→ v1 , e2 7→ v2 , ... en 7→ vn zu einer lineare Abbildung erweitern. Also als Beschreibung einer linearen Abbildung von K n nach K m gilt ein n-Tupel von Elementen aus K m . Ein Element aus einem Vektorraum wird auch Vektor genannt. Im Fall eines v ∈ K m haben wir die Notation (a1 , . . . , am ) benutzt. (Formell betrachtet ist dies eine Abbildung von {i ∈ N | 1 ≤ i ≤ m} nach K und die Notation ein Kürzel von (ai )i∈N, 1≤i≤m .) Ein solcher Vektor wird auch als Spaltenvektor geschrieben: a1 .. . am 2.2. Matrizen 29 Für die Beschreibung einer linearen Abbildung f : K n → K m brauchen wir n solche Vektoren, die mithilfe eines Doppelindex auseinanderzuhalten sind: a11 a12 a1n .. .. . . , . , . . . , .. . am1 am2 amn So setzen wir die n Vektoren zusammen und die Matrix a11 a12 . . . a1n .. .. .. . . . am1 am2 . . . amn bilden. Eine solche Matrix wird als Matrix der Grösse m × n über K beschrieben und die Menge aller solchen Matrizen mit Mat(m × n, K) bezeichnet. Die Matrizen der Grösse m × n über K bilden einen Vektorraum mit Addition b11 b12 . . . b1n c11 c12 . . . c1n .. .. .. + .. .. .. . . . . . . bm1 bm2 . . . bmn cm1 cm2 . . . cmn b11 + c11 b12 + c12 . .. .. := . ... bm1 + cm1 bm2 + cm2 . . . und Skalarmultiplikation b11 b12 . . . .. .. a· . . bm1 bm2 . . . b1n ab11 .. := .. . . bmn ab12 .. . ... abm1 abm2 . . . b1n + c1n .. . bmn + cmn ab1n .. . . abmn Proposition 2.1. Sei K ein Körper, seien m, n ∈ N. Die Auswertung an e1 , . . . , en ∈ K n ergibt einen Isomorphismus von K-Vektorräumen HomK (K n , K m ) → Mat(m × n, K), wobei ein n-Tupel von Vektoren aus K m , als Spaltenvektoren betrachtet, zu einer m × n-Matrix zusammengesetzt wird. Beweis. Wie schoen erklärt, ergibt die Auswertung an e1 , . . . , en eine bijektive Abbildung. Die Kompatibilität mit Addition und Skalarmultiplikation ist klar. Der Kern bzw. das Bild einer Matrix ist der Kern bzw. das Bild der entsprechenden linearen Abbildung. Sei K ein Körper, seien `, m, n ∈ N. Die Komposition von linearen Abbildungen definiert eine Abbildung HomK (K m , K ` ) × HomK (K n , K m ) → HomK (K n , K ` ). 30 2. Lineare Abbildung und Matrizen Definition. Ist K ein Körper, sind `, m, n ∈ N, so nennen wir Matrixmultiplikation die zur Komposition von linearen Abbildungen entsprechenden Abbildung Mat(` × m, K) × Mat(m × n, K) → Mat(` × n, K). Das Produkt C := AB der Matrizen a11 a12 . . . a1m .. .. A := ... . . a`1 a`2 . . . a`m ist durch und b11 b12 . . . .. .. B := . . bm1 bm2 . . . c11 c12 . . . .. .. C := . . c`1 c`2 . . . (1) b1n .. . bmn c1n .. . c`n mit cij = ai1 b1j + · · · + aim bmj gegeben. Die angegebene Formel für AB wird dadurch erklärt, dass die zu B entsprechende lineare Abbildung durch ej 7→ (b1j , . . . , bmj ) für alle j charakterisiert ist und der Vektor rechts, unter der zu A entsprechenden linearen Abbildung, auf den Vektor mit i-tem Eintrag ai1 b1j + · · · + aim bmj für alle i abgebildet wird. Die Komposition von Abbildungen ist stets assoziativ. Es folgt, für einen Körper K und k, `, m, n ∈ N: (AB)C = A(BC) für alle A ∈ Mat(k × `, K), B ∈ Mat(` × m, K) und C ∈ Mat(m × n, K). Der Spezialfall n = 1 von (1) ist die Multipliation einer Matrix mit einem Spaltenvektor: a11 a12 . . . a1m b1 c1 .. .. .. .. = .. . . . . . a`1 a`2 . . . a`m bm c` mit ci = ai1 b1 + · · · + aim bm für alle i. Ist f : K m → K ` die zur Matrix entsprecheden Abbildung, so gilt auch f (b) = c, 2.3. Gauss’sches Eliminationsverfahren 31 wobei b = (b1 , . . . , bm ) ∈ K m und c = (c1 , . . . , c` ) ∈ K ` die entsprechenden Vektoren bezeichnen. Proposition 2.1 lässt sich auch so beschreiben: die zur Matrix A ∈ Mat(m × n, K) entsprechende Abbildung ist K n → K m , x 7→ Ax. Ein bemerkenswerter Fall ist HomK (K n , K n ) für einen Körper K und n ∈ N. Wie in §1.3 wird dies mit End(K n ) bezeichnet und mit den Verknüpfungen Addition und Komposition als Ring betrachtet. Durch Proposition 2.1 ist auch Mn (K) := Mat(n × n, K) mit Addition und Matrixmultiplikation ein Ring. Der zum identischen Endomorphismus idK n entsprechende Matrix wird mit En bezeichnet: 1 0 ... 0 0 1 . . . 0 En = . . . ∈ Mat(n × n, K). . . ... .. .. 0 0 ... 1 Die Matrix En heisst Einheitsmatrix und ist Einselement von Mn (R). Wir führen auch GLn (K) := Mn (K)× ein, die allgemeine lineare Gruppe. Für n ≥ 2 ist dies eine nichtabelsche Gruppe. 2.3 Gauss’sches Eliminationsverfahren Sei a11 x1 + a12 x2 + · · · + a1n xn = b1 , ... am1 x1 + am2 x2 + · · · + amn xn = bm , ein lineares Gleichungssystem über einem Körper K. Mit den Begriffen aus §2.1 ist eine lineare Abbildung f : K n → K m, eindeutig durch a1j ej 7→ ... amj für alle j angegeben, wobei als Lösungsmenge gilt der Faser f −1 (b) für b1 .. b := . . bm 32 2. Lineare Abbildung und Matrizen Der zu f entsprechende Matrix (§2.2) a11 .. A := . a12 .. . ... am1 am2 . . . a1n .. . amn führt zur Matrixform Ax = b des angegebenen Gleichungssystems, wobei x = (x1 , . . . , xn ) einen unbekannten Spaltenvektor bezeichnet. Falls b = 0 heisst das entsprechende Gleichungssystem homogen. Die Lösungsmenge ist ker(A). Im allgemeinen Fall kann die Lösungsmenge, wenn nicht leer, so beschrieben werden: ist x∗ ∈ K n eine Lösung, so ist die Lösungsmenge x∗ + ker(A). Wir beschreiben ein Verfahren, dass auf praktische Weise erlaubt, ker(A) zu berechnen, zu bestimmen ob eine Lösung existiert und falls ja eine bestimmte Lösung sowie die allgemeine Lösung zu berechnen. Die Strategie ist, das Gleichungssystem iterativ durch äquivalente Systeme zu ersetzen bis ein System steht, für das die Aufgaben leicht zu erledigen sind. Dabei betrachten wir zwei Gleichungssystems als äquivalent, wenn eine sich aus der anderen herleiten lässt sowie umgekehrt. Die folgenden zwei Operationen ersetzen ein angegebenes Gleichungssystem durch ein äquivalentes System: • Eine Gleichung mit einer von Null verschiedenen Konstanten multiplizieren. • Ein Vielfaches einer Gleichung zu einer anderen addieren. Entsprechend sind die Operationen, welche wir auf die Matrix A und auf den Spaltenvektor b anwenden: • Eine Zeile mit einer von Null verschiedenen Konstanten multiplizieren. • Ein Vielfaches einer Zeile zu einer anderen addieren. Eine solche Operation heisst elementare Zeilenumformung. Tätschlich lassen sich alle elementaren Zeilenumformung durchgeführt werden durch Linksmultiplikation mit geeigneten Elementarmatrizen aus GLm (K). Für 1 ≤ i ≤ 2.3. Gauss’sches Eliminationsverfahren 33 m und c ∈ K × bewirkt die Linksmultiplikation mit der Diagonalmatrix 1 ... 0 1 .. . .. .. . . c .. . 0 ... 1 mit (i, i)-Eintrag c das Multiplizieren der i-ten Zeile mit c. Für das Addieren eines Vielfachen der j-ten Zeile zu der i-ten: 1 ... 1 .. .. . . c 0 ... 0 .. . 1 mit Diagonaleinträgen 1 und c ∈ K an der (i, j)-Stelle (i 6= j). Das Gauss’sche Eliminationsverfahren ist eine Implementierung dieser Strategie. Wir beschreiben zuerst eine Klasse von Matrizen, for die es leicht ist, die Lösungsmenge eines entsprechenden Gleichungssystems zu beschreiben. Definition. Eine Matrix A ∈ Mat(m × n, K) über einem Körper K ist in Zeilenstufenform falls es ein r ∈ N mit r ≤ m und 1 ≤ p1 < p2 < · · · < pr ≤ n gibt, so dass: • Für alle i mit 1 ≤ i ≤ r findet sich in der i-ten Zeile von A ein von Null verschiedener Eintrag in der pi -ten Spalte und links davon ausschliesslich Null. • Für alle i mit r < i ≤ m ist die ganze i-te Zeile von A Null. Folgendes gilt als Mass, wie weit eine beliebige Matrix A von der Zeilenstufenform ist. Wir nehmen s ∈ N≤m so gross wie möglich, dass gilt: • Die ersten s Zeilen von A bilden eine Matrix in Zeilenstufenform für irgendein r ∈ N mit r ≤ s und 1 ≤ p1 < p2 < · · · < pr ≤ n. • Falls 1 ≤ s < m gilt r = s und aij = 0 für alle s < i ≤ m und 1 ≤ j ≤ ps . Mit s(A) wird dieses s ∈ N≤m bezeichnet. Nach der Definition gilt: s(A) = m genau dann, wenn A in Zeilenstufenform ist. 34 2. Lineare Abbildung und Matrizen Proposition 2.2 (Gauss-Verfahren). Sei A = (aij )1≤i≤m, 1≤j≤n ∈ Mat(m × n, K) eine Matrix über einem Körper K. Dann kann A in Zeilenstufenform gebracht werden durch die Iteration des folgenden Verfahrens, bei dem man aus A durch elementare Zeilenumformungen des Typs „ein Vielfaches einer Zeile zu einer anderen addieren“ zu einer Matrix A00 kommt und die Matrix A durch A00 ersetzt. Es sei s := s(A) < m und p1 < · · · < ps wie in der Definition von s(A). Sei j 0 ∈ N>0 so klein wie möglich, dass es ein i0 > s gibt mit ai0 j 0 6= 0. Dann sei i0 > s so klein wie möglich mit ai0 j 0 6= 0. Ist i0 > s + 1, so entsteht durch das Addieren der i0 -ten Zeile zur (s + 1)-ten eine Matrix A0 = (a0ij ) mit s(A0 ) = s, unveränderten p1 < · · · < ps und a0s+1,j 0 6= 0 mit a0ij = 0 für alle i > s und j < j 0 ; sonst setzen wir A0 := A. Dann entsteht A00 durch das Addieren der (−a0ij 0 /a0s+1,j 0 )-Vielfachen der (s + 1)-ten Zeile zur i-ten für alle i > s + 1. Beweis. Es genügt, zu zeigen: ist s := s(A) < m, so gilt s(A00 ) > s. Erstens kommt aus dem Verfahren eine Matrix A0 , deren erste s Zeilen unverändert sind im Vergleich mit A. Ist s ≥ 1, so gilt j 0 > ps und a0ij = 0 für alle i > s und j ≤ ps , also gilt s(A0 ) ≥ s. Ist i0 > s + 1, so gilt a0s+1,j 0 = a0i0 j 0 6= 0 und es folgt: s(A0 ) = s. Nach den weiteren elementaren Zeilenumformungen gilt für A00 = (a00ij ), dass a00ij 0 = 0 für alle i > s + 1, während noch a00ij = 0 für i ≥ s + 1 und j < j 0 . Also gilt s(A00 ) > s. Beispiel. Wir betrachten das Gleichungssystem über R: x1 − x2 − 2x3 = 1, −2x1 − x2 + x3 = 0, x1 + 2x1 + x3 = −1. Entsprechend sind: 1 −1 −2 A = −2 −1 1 1 2 1 1 b = 0 . −1 und Es gilt s(A) = 0, nach dem Gauss-Verfahren addieren wir zweimal der ersten Zeile zur zweiten und (−1)-mal der ersten zur dritten; das Gleiche auch mit dem Vektor: 1 −1 −2 1 A1 = 0 −3 −3 und b1 = 2 . 0 3 3 −2 (Der Index 1 deutet 1 Schritt Gauss-Verfahren an.) Es gilt s(A1 ) = 1, jetzt addieren wir die zweite Zeile zur dritten: 1 −1 −2 1 A2 = 0 −3 −3 und b2 = 2 . 0 0 0 0 2.3. Gauss’sches Eliminationsverfahren 35 Die Matrix A2 ist in Zeilenstufenform. Jetzt ist die Lösungen klar: x2 = −2/3 − x3 und x1 = 1 + x2 + 2x3 = 1/3 + x3 . In einer solchen Berechnung können die Matrix und Vektor zusammengesetzt werden: 1 −1 −2 1 1 −1 −2 1 1 −1 −2 1 −2 −1 1 0 −3 −3 2 0 −3 −3 2 0 1 2 1 −1 0 3 3 −2 0 0 0 0 Ist Ax = b die Matrixform eines Gleichungssystems, wobei A in Zeilenstufenform ist mit entsprechendem r sowie p1 < · · · < pr , so können wir die Lösungsmenge folgenderweise beschreiben: • Gibt es eine i > r mit bi 6= 0, so hat das Gleichungssystem keine Lösung. • Sonst ist die Lösungsmenge nicht leer und zwar kann der Wert von xj für alle 1 ≤ j ≤ n mit j ∈ / {p1 , . . . , pr } frei aus K ausgewählt werden und mit den r nichttrivialen Gleichungen eindeutig nach xpr , dann xpr−1 usw. bis xp1 aufgelöst. Für alle i wird der Matrixeintrag an der (i, pi )-Stelle Pivot genannt. Also dient das i-te Pivot das Auflösen nach xpi . Der Fall b = 0 führt zur Berechnung von ker(A). Bemerkung. Das Vertauschen zweier Zeilen wird oft auch als elementare Zeilenumformung bezeichnet. Immerhin können die i-te und j-te Zeilen (i 6= j) einer Matrix vertauscht werden, in dem wir die i-te zur j-ten addieren, das (−1)-fache der j-te zur i-ten, wieder die i-te zur j-ten addieren und die i-te mit −1 multiplizieren. Obwohl das Gauss-Verfahren ein wohldefinierter Algorithmus ist, können auch Varianten verwendet werden. Beispiel. Sei 0 1 A := 0 1 Wir berechnen ker(A) mit dem Gauss-Verfahren: 1 5 2 1 0 −2 −1 0 A 0 1 2 1 0 −1 −2 −1 2 3 1 4 1 1 2 0 0 1 ∈ Mat(4 × 4, R). 1 0 Gauss-Verfahren und mit einer Variante. Mit dem 1 5 2 1 0 −2 −1 0 0 0 3/2 1 0 0 −3/2 −1 1 5 2 1 0 −2 −1 0 0 0 3/2 1 . 0 0 0 0 36 2. Lineare Abbildung und Matrizen Als Variante nehmen wir im ersten Schritt i0 = 4 anstatt von wir: 1 6 1 0 1 6 1 0 1 0 −3 0 1 0 −3 0 0 1 A 0 1 0 0 0 2 1 2 4/3 0 −2 −1 0 0 0 −1 −2/3 0 2. Dann bekommen 6 −3 0 0 1 0 0 1 . 2 4/3 0 0 Definition. Eine Matrix A = (aij ) ∈ Mat(m × n, K) über einem Körper K ist in reduzierter Zeilenstufenform falls A in Zeilenstufenform mit einem r ∈ N und 1 ≤ p1 < p2 < · · · < pr ≤ n und zusätzlich gilt: • ai,pi = 1 für alle 1 ≤ i ≤ r. • ai,pj = 0 für alle 1 ≤ i < j ≤ r. Im letzten Beispiel können wir mit verschiedenen elementaren Zeilenumformungen (zweite Zeile durch −1/2 multiplizieren usw.) das Ergebnis des Gauss-Verfahrens in reduzierte Zeilenstufenform bringen: 1 0 0 4/3 0 1 0 −1/3 0 0 1 2/3 . 0 0 0 0 Auch die Matrix aus der Variante lässt sich durch elementare Zeilenumformungen in reduzierte Zeilenstufenform bringen und zwar zu derselben Matrix. Proposition 2.3. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K. Dann kann A durch elementare Zeilenumformungen in reduzierte Zeilenstufenform gebracht werden, in dem A zuerst durch elementare Zeilenumformungen in eine Matrix A0 = (a0ij ) in Zeilenstufenform überführt wird für ein r und p1 < · · · < pr , aus A0 00 00 durch das Multiplizieren der i-ten Zeile mit a0−1 i,pi für alle 1 ≤ i ≤ r ein A = (aij ) in 00 00 Zeilenstufenform mit ai,pi = 1 für alle i entstanden wird und A durch das Addieren des −a00i,pj -Vielfachen zur i-ten Zeil für j = 2, . . . , r und alle i < j in reduzierte Zeilenstufenform gebracht wird. Die aus A entstehende Matrix ist eindeutig im folgenden Sinn: sind S, S 0 ∈ GLm (K) derart, dass, SA und S 0 A in reduzierter Zeilenstufenform sind, so gilt SA = S 0 A. Für m × n-Matrizen entspricht eine elementare Zeilenumformung der Linksmultiplikation mit einer bestimmten Matrix aus GLm (K). Also entspricht eine Reihe von elementaren Zeilenumformung der Linksmultiplikation mit dem Produkt (in der richtigen Reihenfolge) der bestimmten Matrizen aus GLm (K). Wird der erste Schritt, in dem A in eine Matrix A0 in Zeilenstufenform überfürht wird, durch das Gauss-Verfahren vorgenommen, so entsteht Erweiterung des GaussVerfahrens namens Gauss-Jordan-Algorithmus. 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 37 Beweis. Die Richtigkeit des Algorithmus ist klar. Da durch Linksmultiplikation mit einer Matrix aus GLm (K) der Kern einer Matrix unverändert bleibt, genügt für die Eindeutigkeit zu zeigen: zwei verschiedene Matrizen B, B 0 ∈ Mat(m × n, K) in reduzierter Zeilenstufenform haben verschiedene Kerne. Sei j 0 kleinstmöglich, dass die j 0 -te Spalte von B und j 0 -te Spalte von B 0 verschieden sind. Es gibt zwei Möglichkeiten: (i) es gibt in einer der beiden Matrizen ein Pivot in der j 0 -ten Spalte, in der anderen nicht; (ii) es gibt weder in B noch in B 0 ein Pivot in der j 0 -ten Spalte. Im Fall (i) können wir wenn nötig die Matrizen B und B 0 vertauschen und dabei in jedem Fall annehmen, dass B kein Pivot in der j 0 -ten Spalte hat. Wir definieren ein x = (x1 , . . . , xn ) ∈ K n . Zuerst setzen wir xj 0 := 1 und xj := 0 für alle j > j 0 . Für alle j < j 0 , so dass es kein Pivot in der j-ten Spalte (von B und B 0 gleich), setzen wir auch xj := 0. Nach der Diskussion von Lösungen eines zu einer Matrix in Zeilenstufenform entsprechenden Gleichungssystems gibt es dann eindeutige bestimmte xpi für alle i mit pi < j 0 , so dass Bx = 0. Denn B hat kein Pivot in der j 0 -te Spalte, also gilt xj 0 als frei wählbar. Die Matrix B 0 − B hat mindestens einen von Null verschiedenen Eintrag in der j 0 -ten Spalte, während alle Spalten links davon Null sind. Also gilt (B 0 − B)x 6= 0 und deshalb B 0 x 6= 0. Dank der Eindeutigkeit in Proposition 2.3 können wir den Wert von r der Matrix in reduzierter Zeilenstufenform entnehmen und so als eine Invariante der ursprüngliche Matrix A betrachten. Dies ist aber nach Proposition 2.3 auch der Wert von r der Matrix A0 , wobei A0 wie in der Aussage ist. Definition. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K. Wird A durch elementare Zeilenumformungen in eine Matrix in Zeilenstufenform mit r Pivots überführt, so heisst r der Rang von A; in Zeichen: rk(A) = r. Es gibt auch elementare Spaltenumformung, wobei eine Spalte mit einer von Null verschiedenen Konstanten multipliziert bzw. ein Vielfaches einer Spalte zu einer anderen addiert wird. Entsprechend ist die Rechtsmultiplikation mit Matrizen derselben Form wie für die elementaren Zeilenumformung – aber der richtigen Grösse: wenn es um eine m×n-Matrix geht, ist Rechtsmultiplikation mit geeigneten Matrizen aus GLn (K) zu betrachten. 2.4 Lineare unabhängigkeit, Erzeugendensystem, Basis Es ist sehr praktisch, mit Matrizen zu arbeiten. Also sind wir gut vorbereitet, die Vektorräume K n für alle n und die linearen Abbildungen von und nach diesen Vektorräumen zu betrachten. Es wäre also vorteilhaft, soweit wie möglich alle Vektorräume im Rahmen der Vektorräume K n anschauen zu können. 38 2. Lineare Abbildung und Matrizen Dazu führen wir einige Begriffe ein. Die Begriffe lineare Unabhängigkeit, Erzeugendensystem und Basis sind zu einer gegebenen Familie von Vektoren aus einem Vektorraum V anwendbar. Möglich sind: eine Teilmenge S ⊂ V , eine Folge von durch positive natürliche Zahlen indexierten Vektoren v1 , . . . , vn ∈ V bzw. v1 , v2 , . . . ∈ V (mit Indexierung von Null als Variante) oder so mit beliebiger Indexmenge (vi )i∈I . In dem wir eine Teilmenge betrachten können als durch sich selbst indexiert, steht (vi )i∈I als allgemeine Form einer Familie von Vektoren aus einem Vektorraum. Wir haben schon e1 := (1, 0, . . . , 0), . . . , en := (0, . . . , 0, 1) ∈ K n gesehen und dabei davon profitiert, dass alle Elemente von K n als a1 e1 + · · · + an en für a1 , . . . , an ∈ K geschrieben werden können. Wenn es sich um eine unendliche Familie von Vektoren handelt ist die folgende Tücke zu beachten: für a1 , a2 , . . . ∈ K hat a1 v1 + a2 v2 + . . . keinen Sinn, ausser im Fall, dass nur endlich viele ai von Null verschieden sind. Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Familie (vi )i∈I von Vektoren aus V heisst linear unabhängig wenn für alle (ai )i∈I mit ai ∈ K und ai 6= 0 nur für endlich viele i ∈ I gilt: X ai vi = 0 ⇒ (∀i ∈ I : ai = 0). i∈I In Worten: (vi )i∈I heisst linear unabhängig, wenn keine nichttriviale Linearkombination von (vi )i∈I Null ergibt. Als erstes Beispiel gilt e1 , . . . , en ∈ K n . Im Allgemeinen gilt: ist (ai )i∈I linear unabhängig, so ist auch (ai )i∈I 0 für alle I 0 ⊂ I; in einer linear unabhängigen Familie (ai )i∈I gilt ai 6= aj für i, j ∈ I mit i 6= j; die leere Familie () ist stets linear unabhängig. Definition. Sei K ein Körper und V ein K-Vektorraum. Eine Familie (vi )i∈I von Vektoren aus V heisst Erzeugendensystem wenn es für alle w ∈ V ein (ai )i∈I mit ai ∈ K und ai 6= 0 nur für endlich viele i ∈ I gibt mit X ai vi = w. i∈I Zum Beispiel ist e1 , . . . , en ∈ K n auch ein Erzeugendensystem. Für eine beliebige Familie (vi )i∈I istPdie Menge aller Vektoren w ∈ V , so dass es ein (ai )i∈I wie in der Definition mit i∈I ai vi = w gibt, ein Untervektorraum W ⊂ V . Dieses W heisst lineare Hülle von (vi )i∈I oder der von (vi )i∈I aufgespannte Untervektorraum und wird mit span(vi )i∈I bezeichnet. 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 39 Definition. Eine Basis ist ein linear unabhängiges Erzeugendensystem eines Vektorraums. Also ist e1 , . . . , en ∈ K n eine Basis, die Standardbasis von K n . Für eine beliebige Indexmenge I bilden alle Familien (ai )i∈I von Elementen aus K mit ai 6= 0 nur für endlich viele i ∈ I ein K-Vektorraum mit Standardbasis (ei )i∈I , wobei ei die Familie bezeichnet mit genau einem von P Null verschiedenen Wert und zwar den Wert 1 an der i-ten Stelle. Es gilt dann i∈I ai ei = (ai )i∈I und daraus ist klar, dass (ei )i∈I eine Basis ist. Dieser Vektorraum ist die direkte Summe M K. i∈I Nämlich betrachten wir für alle i ∈ I den Vektorraum K (d.h., K n für n = 1), mit obiger Notation wird die direkte LSumme von K über alle i ∈ I angedeutet. Mit einer allgemeinen direkten Summe i∈I Vi wird für alle i ∈ I einen Vektorraum Vi angegeben und Familien (vi )i∈I mit vi ∈ Vi für alle i betrachtet und vi 6= 0 nur für endlich viele i ∈ I. Wird für jedes i ∈ I eineLBasis (vj )j∈Ji von Vi angegeben, so bilden die Familien zusammen eine Basis von i∈I Vi . Als Indexmenge gilt a i∈I Ji := [ {(j, i) | j ∈ Ji }. i∈I L Jedes vj ∈ Vi wird mit einem Element von i∈I Vi identifiziert, das wir mit vji bezeichnen und das als Familie genau einem von Null verschiedenen Wert hat ` und zwar den Wert vj anLder i-ten Stelle. DiePFamilie (vji ) indexiert durch (j, i) ∈` i∈I Ji aji vji = 0 (Summe über (j, i) ∈ i∈I Ji ) ist eine Basis vonP i∈I Vi . Denn aus folgt für jedes i: j∈Ji aji vj = 0 in Vi und deshalb aji = 0 für alle j ∈ Ji . Ähnlich ist zu sehen, das (vji ) auch ein Erzeugendensystem ist. Man kann auch die Bedingung, dass vi 6= 0 nur für endlich viele i ∈ I, weglassen Q und so auch einen Vektorraum bekommen, der direktes L Produkt heisst und mit i∈I Vi bezeichnet wird. Man Q kann, zum Beispiel, HomK ( i∈I K, V ) für einen beliebigen K-Vektorraum V mit i∈I V identifizieren durch f 7→ (f (ei ))i∈I . Es folgt von den Definitionen: ist (vi )i∈I eine linear unabhängige Familie von Vektoren aus einem Vektorraum, so ist (vi )i∈I eine Basis von span(vi )i∈I . Beispiel. Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I eine Basis und J ⊂ I eine Teilmenge. Wir setzen U := span(vi )i∈J , also ist (vi )i∈J eine Basis P von U . Für den Quotientvektorraum V /U gilt nun: (v̄i )i∈IrJ ist eine Basis. Sei also i∈IrJ ai v̄i = 0 eine lineare PRelation (d.h., ai ∈ K und ai 6= 0 nur für endlich P viele i ∈ I r J). Dies bedeutet, i∈IrJ P P ai vi = u für ein u ∈ U . Wir können u = j∈J bj vj schreiben. Aus a v = j folgt ai = 0 für alle i ∈ I (und auch bj = 0 für i∈IrJ i i j∈J bj vP Palle j ∈ J). Ist v ∈ V , so kann v = i∈I ai vi geschrieben werden und es folgt, v̄ = i∈IrJ ai v̄i . 40 2. Lineare Abbildung und Matrizen Proposition 2.4. Sei K ein Körper, V ein K-Vektorraum und (vi )i∈I eine Familie von Vektoren aus V . Dann sind die folgenden Aussagen äquivalent. (i) (vi )i∈I ist eine Basis von V . (ii) Für alle w ∈ V gibt es eine eindeutige Familie (ai )i∈I von Elementen aus K mit ai 6= 0 nur für endlich viele i ∈ I, so dass X ai vi = w. i∈I Beweis. (i) ⇒ (ii): Sei (vi )i∈I eine Basis, also ein linear unabhängiges Erzeugendensystem. Für w ∈ W gibt es ein (ai )i∈I wie in der Definition des Erzeugendensystems, P d.h., mit ai 6= 0 nur für endlich viele i ∈ I und i∈I ai vi = w. Sei (a0i )i∈I auch so. Dann gilt für (ai − a0i )i∈I : X (ai − a0i )vi = 0. i∈I Nach der Definition der linearen Unabhängigkeit folgt ai = a0i für alle i. (ii) ⇒ (i): Wir wenden die in (ii) erwähnte Eigenschaft zu 0 ∈ V auf. Also gilt für (ai )i∈I mit ai 6= 0 nur für endlich veile i ∈ I nach der Eigenschaft in (ii): X i∈I ai vi = 0 = X 0vi ⇒ (∀i : ai = 0). i∈I Deshalb ist (vi )i∈I linear unabhängig. Für alle w ∈ W gibt es ein (ai )i∈I mit ai 6= 0 P nur für endlich viele i ∈ I und i∈I ai vi = w. Also ist (vi )i∈I auch ein Erzeugendensystem. Proposition 2.4 deutet eine wichtige Eigenschaft einer Basis an: mit einer Basis eines Vektorraums V kann man alle Elementen aus V eindeutig als Linearkombinationen der Basiselemente darstellen. Anders gesagt entspricht eine Familie (vi )i∈I eine lineare Abbildung M f: K→V i∈I mit f (ei ) = vi für alle i ∈ I und dann: Die Familie (vi )i∈I ist genau dann eine Basis, wenn f ein Isomorphismus ist. Es ist auch zu sehen: • Die Familie (vi )i∈I ist genau dann linear unabhängig, wenn f injektiv ist. • Die Familie (vi )i∈I ist genau dann ein Erzeugendensystem, wenn f surjektiv ist. 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 41 Lemma 2.5. Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I eine Familie von Vektoren aus V und i0 ∈ I. (i) Angenommen, (vi )i∈Ir{i0 } ist linear unabhängig. Dann ist (vi )i∈I genau dann / span(vi )i∈Ir{i0 } ist. linear unabhängig, wenn vi0 ∈ (ii) Angenommen, (vi )i∈I ist ein Erzeugendensystem. Dann ist (vi )i∈Ir{i0 } genau dann ein Erzeugendensystem, wenn vi0 ∈ span(vi )i∈Ir{i0 } ist. Beweis.P(i), „⇒“: Aus vi0 ∈ span(vi )i∈Ir{i0 } würde eine lineare Relation der Form −vi0 + i∈Ir{i0 } ai vi = 0 entstehen, die nach der Definition der linearen Unabhängigkeit verboten wäre. P (i), „⇐“: Aus i∈I ai vi = 0 mit ai 6= 0 für mindestens ein i ∈ I wurde folgen, ai0 6= 0 (weil (vi )i∈Ir{i0 } linear unabhängig ist) und deshalb vi0 ∈ span(vi )i∈Ir{i0 } . (ii), „⇒“ ist trivial aus der Definition des Erzeugendensystems. P P (ii), „⇐“: Es gelte vi0 = i∈Ir{i0 } bi vi . Ist w ∈ V , so kann w als i∈I ai vi dargestellt werden. Es folgt, w = w0 + w00 , wobei X X w0 := ai0 bi vi und w00 := ai vi . i∈Ir{i0 } i∈Ir{i0 } Lemma 2.6 (Austauschlemma). Sei K ein Körper, V ein K-Vektorraum, (vi )i∈I eine Basis von V und w ∈ V ein von Null verschiedener Vektor mit (eindeutiger) Darstellung X w= ai vi . i∈I Sei i0 ∈ I, so dass ai0 6= 0. Wir setzen ( w, ṽi := vi , falls i = i0 , falls i = 6 i0 . Dann ist auch (ṽi )i∈I eine Basis. Beweis. Aus der Basis (vi )i∈I haben wir den entsprechenden Isomorphismus M f: K→V i∈I mit f (ei ) = vi für alle i ∈ I. Seien g, h : M i∈I K→ M K i∈I die linearen Abbildungen mit g(ei ) := ei und h(ei ) := ei für i 6= i0 und X ai 1 g(ei0 ) := (ai )i∈I , h(ei0 ) := ei0 − ei . ai0 ai0 i∈Ir{i0 } 42 2. Lineare Abbildung und Matrizen Wir verifizieren: sowohl g ◦ h als auch h ◦ g ist die identische Abbildung. Also ist g ein Isomorphismus und deshalb auch M f ◦ g: K → V. i∈I Die entsprechende Basis ist (ṽi )i∈I . Definition. Sei K ein Körper. Ein K-Vectorraum V heisst endlichdimensional wenn es für ein n ∈ N einen Isomorphismus K n → V gibt, sonst heisst V unendlichdimensional. Ist V ein endlichdimensionaler Vektorraum und K n → V ein Isomorphismus, so sagen wir, die Dimension von V ist n; in Zeichen: dim(V ) = n. Anders gesagt: V ist endlichdimensional, wenn V eine endliche Basis hat und dann ist dim(V ) die Kardinalität einer Basis. Das Austauschlemma wird iterativ angewandt, um eine gegebene Basis komplet durch eine andere zu erstezen. Sei v1 , . . . , vn ∈ V eine Basis und w1 , . . . , wn ∈ V eine linear unabhängige Familie. Es gibt a1 , . . . , an ∈ K mit w1 = a1 v1 + · · · + an vn und aus w1 6= 0 folgt, dass es ein i gibt mit ai 6= 0. In dem wir die Basiselemente v1 , . . . , vn vertauschen, können wir annehmen, i = 1. Dann ist nach dem Austauschlemma auch w1 , v2 , . . . , vn eine Basis. Für j < n haben wir nach j Schritten eine Basis w1 , . . . , wj , vj+1 , . . . , vn wir schreiben wj+1 = a1 w1 + · · · + aj wj + aj+1 vj+1 + · · · + an vn und aus wj+1 ∈ / span(w1 , . . . , wn ) folgern: es gibt ein i > j mit ai 6= 0. Durch das Vertauschen der Basiselemente vj+1 , . . . , vn können wir annehmen, i = j + 1. So ist nach dem Austauschlemma w1 , . . . , wj+1 , vj+2 , . . . , vn eine Basis. Am Schluss haben wir die Basis w1 , . . . , wn . Proposition 2.7. Ist K ein K örper und V ein endlichdimensionaler Vektorraum, so ist die Dimension von V wohldefiniert, d.h., es gibt ein eindeutiges n ∈ N, so dass es einen Isomorphismus K n → V gibt. Anders gesagt, sind v1 , . . . , vn und w1 , . . . , wm Basen von V , so gilt m = n. Beweis. Gegeben seien zwei endliche Basen, geschrieben wie oben. Wir können annehmen, m ≥ n. Durch das iterierte Austauschlemma (siehe oben) ist auch w1 , . . . , w n eine Basis von V und es folgt, m = n. 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 43 Es ist auch auszuschliessen, dass es für einen endlichdimensionalen Vektorraum eine unendliche Basis oder sogar eine unendliche linear unabhängige Familie gibt. Denn der Beweis von Proposition 2.7 ist anwendbar sobald wir eine linear unabhängige Familie w1 , . . . , wm haben mit m ≥ n. Sind U und V endlichdimensionale Vektorräume, so wird deren direkte Summe U ⊕V geschrieben. Aus der allgemeinen Beschreibung der Basis einer direkten Summe, die wir gesehen haben, ist zu sehen: U ⊕ V ist auch endlichdimensional und es gilt dim(U ⊕ V ) = dim(U ) + dim(V ). Die Summe zweier Untervektorräume U und V eines Vektorraums W ist der Untervektorraum U + V := {u + v | u ∈ U, v ∈ V }, d.h., U + V = span(U ∪ V ). Durch (u, v) 7→ u + v haben wir eine lineare Abbildung U ⊕V →W mit Bild U + V . Der Kern ist {(u, −u) | u ∈ U ∩ V } und kann deshalb mit U ∩ V identifiziert werden. Wenn U ∩ V = 0 und U + V = W haben wir also einen Isomorphismus U ⊕ V ∼ = W . In diesem Fall sagen wir, W ist die direkte Summe von U und V ; in Zeichen: W = U ⊕ V . Lemma 2.8. Ist K ein Körper, W ein Vektorraum und U ⊂ W ein Untervektorraum, so gibt es einen Untervektorraum V ⊂ W derart, dass gilt: (i) U ∩ V = 0 und (ii) U + V = W . Mit den Bedingungen (i)–(ii) ist W die direkte Summe von U und V . Ein solches V heisst Komplement zu U in W . Beweis. Wir betrachten die Menge aller Untervektorräume, die die Bedingung (i) erfüllen: A := {Untervektorräume U ⊂ W | U ∩ V = 0}. Angenommen, kein V ∈ A erfüllt auch (ii). Dann gilt stets für V ∈ A, dass U + V echt enthalten ist in W . Für w ∈ W r (U + V ) ist span(V ∪ {w}) eine Erweiterung von V , die auch zur Menge A gehört. Nach dem Auswahlaxiom existiert also eine Abbildung b: A → A mit V ( b(V ) für alle V ∈ A. Wir betrachten die Teilmengen J ⊂A mit den Eigenschaften: (J, ⊂) ist eine Wohlordnung; es gilt 0 ∈ J; für alle 0 6= V ∈ J gilt [ V =b V0 . V 0 ∈J V 0 (V 44 2. Lineare Abbildung und Matrizen Sind J und J 0 zwei solche Teilmengen, so behaupten wir, dass J ⊂ J 0 oder J 0 ⊂ J gilt und falls J ( J 0 auch V ⊂ V 0 gilt für alle V ∈ J und V 0 ∈ J 0 rJ. Für den Beweis nehmen wir an, J 0 6⊂ J, also können wir nach der Definition der Wohlordnung M 0 := min(J 0 r J) setzen. Dann ist zu überprüfen, dass J genau aus den echt in M 0 enthaltenen Elementen aus J 0 besteht. Angenommen, es ist nicht so. Dann gibt es ein V ∈ J mit V ∈ / J 0 oder M 0 ⊂ V und wir setzen N := min({V ∈ J | V ∈ / J 0 oder M 0 ⊂ V }). Für V ∈ J mit V ( N gilt also: V ∈ J 0 und V ⊂ M 0 . Wir definieren N 0 := min({V 0 ∈ J 0 | V 0 ∈ / J oder N ⊂ V 0 }). Es ist klar: N 0 ⊂ M 0 . Wir haben {V ∈ J | V ( N } = {V 0 ∈ J 0 | V 0 ( N 0 }. Die „⊃“-Inklusion ist klar aus der Definition von N 0 . Für die „⊂“-Inklusion ist V ∈ J mit V ( N zu betrachten, deshalb V ∈ J 0 und V ⊂ M 0 . Dass V = N 0 kann nach der Definition von N 0 ausgeschlossen. Auch kann ausgeschlossen werden, dass N 0 ( V gilt, denn wir würden mit N 0 ∈ J und N 0 ( N eine Widerspruch zur Definition von N 0 haben. Es folgt: [ [ N =b V =b V 0 = N 0. V ∈J V (N V 0 ∈J 0 V 0 (N 0 Also liegt N sowohl in J als auch in J 0 , nach der Definition von N muss M 0 ( N gelten und wir haben eine Widerspruch. Es folgt, die Vereinigung J aller Teilmengen J ⊂ A mit den oben genannten Eigenschaften erfüllt dieselben Eigenschaften. Aber auch [ J ∪ b V V ∈J erfüllt die Eigenschaften und das ist eine Widerspruch. Bemerkung. Mit einem ähnlichen Argument (mit dem Auswahlaxiom eine Erweiterungsabbildung bauen, geeignete wohlgeordenete Teilmengen betrachten und mit der Erweiterung von deren Vereinigung zu einer Widerspruch kommen) kann beweisen werden: Ist (A, ≤) eine Menge mit Partialordnung, in der jede total geordnete Teilmenge eine obere Schranke in A besitzt, so gibt es in A ein maximales Element. Ein maximales Element ist ein X ∈ A mit {Y ∈ A | X ≤ Y } = {X}. Diese Aussage 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 45 heisst Lemma von Zorn; für Details, siehe folgenden Artikel: J. Lewin, A simple proof of Zorn’s Lemma, American Mathematical Monthly Band 98 (1991) S. 353–354. Logisch lässt sich auch aus ZF-Mengenlehre und dem Lemma von Zorn die Aussage des Auswahlaxioms herleiten. Anhand vom Lemma von Zorn ist der Beweis von Lemma 2.8 sehr kurz: Die Menge A aus dem Beweis hat also ein maximales Element V und es gilt U + V = W , denn sonst würde es in A auch eine Erweiterung von V geben. Proposition 2.9. Sei K ein Körper. Für ein K-Vektorraum sind folgende Aussagen äquivalent. (i) V ist unendlichdimensional. (ii) Es gibt eine linear unabhängige Familie (vi )i∈N in V . (iii) Es gibt eine injektive, nicht surjektive linear Abbildung V → V . Beweis. (i) ⇒ (ii): Sei V ein unendlichdimensionaler K-Vektorraum. Wir behaupten: für alle n ∈ N lässt sich jede linear unabhängige Familie (vi )i∈N<n zu einer linear unabhängigen Familie (vi )i∈N<n ∪{n} erweitern. Denn span(vi )i∈N<n ist nicht ganzes V , also gibt es ein vn ∈ V r span(vi )i∈N<n . Nach Lemma 2.5 ist (vi )i∈N<n ∪{n} linear unabhängig. Nach dem Auswahlaxiom gibt es eine Abbildung, die jede linear unabhängige Familie (vi )i∈N<n auf ein solches (vi )i∈N<n ∪{n} abbildet. Durch die Iteration dieser Abbildung kommen wir zu einer linear unabhängigen Familie (vi )i∈N . (ii) ⇒ (iii): Sei (vi )i∈N eine linear unabhängige Familie und V1 := span(vi )i∈N . Es gibt eine injektive, nicht surjektive lineare Abbildung f : V1 → V1 , f (vi ) := vi+1 für alle i ∈ N. Nach Lemma 2.8 gibt es ein Komplement V2 zu V1 in V . Also kann alle w ∈ V eindeutig als w1 + w2 geschrieben werden mit w1 ∈ V1 und w2 ∈ V2 . Dann definiert w 7→ f (w1 ) + w2 eine injektive, nicht surjektive lineare Abbildung V → V . (iii) ⇒ (i): Angenommen, V ist endlichdimensional. Wir zeigen, ist f : V → V eine injektive lineare Abbildungen, so ist f auch surjektiv. Sei v1 , . . . , vn ∈ V eine Basis. Also ist w1 := f (v1 ), . . . , wn := f (vn ) eine linear unabhängige Familie. Durch das iterierte Austauschlemma ist auch w1 , . . . , wn eine Basis. Also gilt span(w1 , . . . , wn ) = V und f ist auch surjektiv. Proposition 2.10. Sei K ein Körper, seien V und W endlichdimensionale KVektorräume, seien n := dim(V ) und m := dim(W ). Für eine lineare Abbildung f : V → W gilt: (i) Falls m = n: f injektiv ⇔ f surjektive (ii) Falls m < n ist f nicht injektiv. (iii) Falls m > n ist f nicht surjektiv. ⇔ f bijektiv. 46 2. Lineare Abbildung und Matrizen Beweis. Für (i) müssen wir nur den Fall V = W und die Implikation f surjektive ⇒ f injektiv betrachten. Sei v1 , . . . , vn eine Basis von V , seien u1 , . . . , un ∈ V Elemente mit f (ui ) = vi für alle i. Dann ist u1 , . . . , un ∈ V eine linear unabhängige Familie. Durch das iterierte Austauschlemma ist u1 , . . . , un eine Basis und f deshalb auch injektiv. In (ii) gibt es eine injektive lineare Abbildung g : W → V , die nicht surjektiv ist. Also ist g ◦ f : V → V nicht surjektiv und deshalb auch nicht injektiv. Es folgt, dass f nicht injektiv ist. In (iii) gibt es eine surjektive lineare Abbildung g : W → V , die nicht injektiv ist. Also ist f ◦ g nicht injektiv und deshalb auch nicht surjektiv. Es folgt, dass f nicht surjektiv ist. Auch kann diese Proposition betreffend eine endliche Familie v1 , . . . , vn ∈ V umformuliert werden. Sei V ein endlichdimensionaler Vektorraum. (i) Falls dim(V ) = n: v1 , . . . , vn lin. unabh. ⇔ v1 , . . . , vn erzeugend ⇔ v1 , . . . , vn ist eine Basis. (ii) Falls dim(V ) < n ist v1 , . . . , vn ∈ V nicht linear unabhängig. (iii) Falls dim(V ) > n ist v1 , . . . , vn ∈ V nicht erzeugend. Proposition 2.11. Sei K ein Körper und V ein K-Vektorraum. (i) Ist v1 , . . . , vn ∈ V ein endliches Erzeugendensystem, so ist V endlichdimensional und wir erreichen aus einer beliebigen endlichen linear unabhängigen Familie w1 , . . . , wm ∈ V eine Basis von V , in dem wir iterativ mit einem nicht zur linearen Hülle gehörenden Vektor aus {v1 , . . . , vn } erweitern. (ii) Ist V Untervektorraum eines endlichdimensionalen Vektorraums, so ist V endlichdimensional und wir erreichen aus einer beliebigen endlichen linear unabhängigen Familie w1 , . . . , wm ∈ V eine Basis von V , in dem wir iterativ mit einem nicht zur linearen Hülle gehörenden Vektor aus V erweitern. Beweis. Zuerst zeigen wir: ist v1 , . . . , vn ∈ V ein endliches Erzeugendensystem, so ist V endlichdimensional. Es gibt ein maximales I ⊂ {1, . . . , n}, so dass (vi )i∈I linear unabhängig ist. Nach Lemma 2.5 gilt vi0 ∈ span(vi )i∈I für alle i0 ∈ {1, . . . , n} r I. Das bedeutet, v1 , . . . , vn ∈ span(vi )i∈I und deshalb, span(vi )i∈I = V . Also ist (vi )i∈I eine endliche Basis von V . Sei S := {v1 , . . . , vn } und d := dim(V ) in (i) und S := V und d := dim(W ) in (ii), wobei W ein endlichdimensionaler Vektorraum ist, in dem V enthalten ist. Weil S ein Erzeugendensystem ist, gilt: für einen Untervektorram U ⊂ V folgt stets aus v ∈ U für alle v ∈ S, dass U = V . Eine linear unabhängige Familie in V kann nicht mehr als d Elemente beinhalten. Also erreichen wir nach endlich vielen Iterationen eine linear unabhängige Familie 2.4. Lineare unabhängigkeit, Erzeugendensystem, Basis 47 w1 , . . . , wm0 mit m ≤ m0 ≤ d und u ∈ span(w1 , . . . , wm0 ) für alle u ∈ S. Es folgt, span(w1 , . . . , wm0 ) = V , also ist w1 , . . . , wm0 eine Basis von V . Proposition 2.12. Sei K ein Körper und V ein endlichdimensionaler K-Vektorraum. (i) Ist U ⊂ V ein Untervektorraum, so sind U und V /U endlichdimensional und es gilt dim(V ) = dim(U ) + dim(V /U ). (ii) Ist W ein K-Vektorraum und f : V → W eine lineare Abbildung, so ist im(f ) auch endlichdimensional und es gilt dim(V ) = dim(ker(f )) + dim(im(f )). In der Tat folgt (ii) direkt aus (i). Die Abbildung f : V → W lässt sich durch im(f ) faktorisieren: V → im(f ). Dies ist surjektiv. Sei U := ker(f ). Dann lässt sich die Abbildung nochmals faktorisieren, diesmal durch den kanonischen Homomorphismus V → V /U : V /U → im(f ). Dies ist nach wie vor surjektive und auch injektiv, weil der ganze Kern zum Element 0 ∈ V /U kollabiert ist. Also gilt dim(V /U ) = dim(im(f )). Wir haben dim(U ) = dim(ker(f )). So sehen wir, dass (ii) direkt aus (i) folgt. Beweis. Es genügt, (i) zu zeigen. Nach Proposition 2.11 (ii) ist U endlichdimensional, also gibt es eine Basis v1 , . . . , vm mit m = dim(U ). Dies lässt sich zu einer Basis v1 , . . . , vn von V erweitern. Dann wissen wir, v̄m+1 , . . . , v̄n ist eine Basis von V /U . Deshalb ist die Formel aus (i) gültig. Korollar 2.13 (Dimensionsformel). Sei K ein Körper und W ein K-Vektorraum. Sind U und V zwei endlichdimensionale Untervektorräume von W , so gilt dim(U ) + dim(V ) = dim(U + V ) + dim(U ∩ V ). Beweis. Wir haben die lineare Abbildung U ⊕ V → W gesehen, mit Bild U + V und Kern U ∩ V . Die Formel folgt also aus Proposition 2.12 (ii). Mit dem Lemma von Zorn können wir auch für unendlichedimensionale Vektorräume wie in Proposition 2.11 vorgehen. Proposition 2.14. Sei K ein Körper, V ein K-Vektorraum und (vi )i∈I eine Familie von Vektoren aus V . Angenommen, (vi )i∈I ist ein Erzeugendensystem. Dann kann eine beliebige linear unabhängige Familie (wj )j∈J von Vektoren aus V durch (vi )i∈I 0 für eine geeignete Teilmenge I 0 ⊂ I zu einer Basis von V erweitert werden. 48 2. Lineare Abbildung und Matrizen Insbesondere hat jeder Vektorraum eine Basis ((vi )i∈I = (v)v∈V und J = ∅ nehmen). Beweis. Anstelle von Familien können wir nur Teilmengen von V betrachten. Also sei T ⊂ V eine erzeugende Teilmenge und R ⊂ V eine linear unabhängige Teilmenge. Ohne Beschränkung der Allgemeinheit können wir annehmen, dass R ⊂ T . Wir setzen A := {S ⊂ T | R ⊂ S und S ist linear unabhängig}. Sei A0 ⊂ A eine total geordnete Teilmenge. Ist A0 leer, so gilt R ∈ A als obere Schranke. Sonst ist [ S∈A S∈A0 eine obere Schranke. Nach dem Lemma von Zorn besitzt A ein maximales Element M . Ist span(M ) ein echter Untervektorraum von V , so gibt es ein t ∈ T mit t ∈ / span(M ). Also haben wir M ∪ {t} ∈ A, eine Widerspruch. Es folgt, M ist eine Basis von V mit R ⊂ M ⊂ T . 2.5 Äquivalenz von Matrizen Sei f : V → W eine lineare Abbildung zwischen endlichdimensionalen Vektorräumen über einem Körper K. Wir können Basen von V und W auswählen und dadurch f beschreiben anhand von einer Matrix A. Für n := dim(V ) und m := dim(W ) ist dies eine m × n-Matrix. Der Kern von A wird mit ker(f ) identifiziert, also ist dim(ker(f )) = dim(ker(A)). In Proposition 2.12(ii) gibt es einen weiteren Ausdruck, dim(im(f )). Gibt es einen entsprechenden Ausdruck bezüglich Matrizen? Weil das Bild von den Spaltenvektoren aufgespannt ist, kommen wir zur Dimension der linearen Hülle der Spaltenvektoren. Definition. Die lineare Hülle der Spaltenvektoren einer Matrix heisst Spaltenraum. Die lineare Hülle der Zeilenvektoren heisst Zeilenraum. Wir verwenden die Notation SR(A) bzw. ZR(A) für den Spaltenraum bzw. Zeilenraum einer Matrix A. Analog zu den Spaltenvektoren gibt es die Zeilenvektoren. Für 1 ≤ i ≤ m ist der i-te Zeilenvektoren von A ∈ Mat(m × n, K) der Vektor mit den Einträgen aus der i-ten Zeile von A als Komponenten. Dass wir bis jetzt mit Spaltenvektoren gearbeitet haben, hat mit Konvention zu tun. Arbeitet man stattdessen mit Zeilenvektoren, so kann auch lineare Abbildungen mit Matrizen identifiziert werden, diesmal aber zu einem f : K n → K m eine n × mMatrix. Diese n × m-Matrix ist die Transponierte der üblichen m × n-Matrix aus 2.5. Äquivalenz von Matrizen 49 Proposition 2.1: a11 a12 . . . .. .. transponierte von A = . . am1 am2 . . . a1n a11 a21 . . . .. ist t A := .. .. . . . amn a1n a2n . . . am1 .. . . amn Sind A und B Matrizen über einem Körper K, so dass A gleich viele Spalten wie B Zeilen hat, so gilt t (AB) = t B t A. Bemerkung. Der Dualraum eines Vektorraums V ist V ∗ := HomK (V, K). Komposition mit einer linearen Abbildung f : V → W ist eine lineare Abbildung f ∗ : W ∗ → V ∗ . Im Fall V = K n hat V ∗ auch eine Standardbasis e∗1 , . . . , e∗n , wobei ( 1 falls i = j, e∗j (ei ) := 0 falls i 6= j. Sei f : K n → K m eine lineare Abbildung mit entsprechender Matrix A ∈ Mat(m × n, K). Die zu f ∗ : (K m )∗ → (K n )∗ entsprechende Matrix bezüglich der Standardbasen (e∗i )1≤i≤m und (e∗j )1≤j≤n ist t A ∈ Mat(n × m, K). Proposition 2.15. Sei A ∈ Mat(m × n, K) eine Matrix über einem Körper K und r := rk(A). (i) Es gibt ein S ∈ GLm (K) und ein T ∈ GLn (K), so dass 1 0 0 ... 0 .. . SAT = 0 . 1 0 . . . 0 0 ... 0 0 ... 0 Dabei hat SAT die Einheitsmatrix Er als oberen linken r × r-Block und ist sonst Null. (ii) Es gilt dim(SR(A)) = dim(ZR(A)) = r. Beweis. Wie im Beweis von Proposition 2.3 fangen wir damit an, A durch elementare Zeilenumformungen in Zeilenstufenform zu bringen und die Zeilen mit Konstanten zu multiplizieren, so dass alle Pivoteinträge 1 sind. Für den weiteren Schritt benutzen wir Spaltenumformungen anstatt Zeilenumformungen. Mit jedem Pivoteintrag werden die restlichen Einträge in derselben Zeile annuliert. Es bleibt noch die Pivots in die ersten r Spalten zu bringen und das ist mit weiteren elementaren Spaltenumformungen möglich. Dieses Verfahren zeigt (i). Durch Linksmultiplikation mit einer Matrix aus GLm (K) werden die Dimensionen der Spalten- und Zeilenräume unverändert und das Gleiche gilt für Rechtsmultiplikation mit einer Matrix aus GLn (K). Aus (i) und dieser Bemerkung folgt (ii). 50 2. Lineare Abbildung und Matrizen Korollar 2.16. Ist A ∈ Mat(m × n, K) vom Rang r über einem Körper K, so gilt: dim(ker(A)) = n − r. Beweis. Die Formel folgt aus Propositionen 2.12 (ii) und 2.15 (ii). Definition. Zwei Matrizen A, B ∈ Mat(m × n, K) derselben Grösse über einem Körper K heissen äquivalent, wenn es ein S ∈ GLm (K) und ein T ∈ GLn (K) gibt, so dass SAT = B. Die Relation „A ist äquivalent zu B“ ist eine Äquivalenzrelation. Proposition 2.15 zeigt, dass jede Matrix über einem Körper äquivalent ist zu einer Matrix, die den oberen linken Block Er hat und sonst Null ist. Für eine Matrix A ist dies nur mit r = rk(A) möglich, denn zwei äquivalente Matrizen haben Spaltenräume derselben Dimension und deshalb auch denselben Rang. Äquivalente Matrizen sind in der folgenen Situation relevant. Sei K ein Körper, seien V und W endlichdimensionale K-Vektorräume, n := dim(V ), m := dim(W ) und sei f : V → W eine lineare Abbildung. Zu jeder Auswahl von Basen von V und W entsteht eine zu f entsprechende Matrix. Also entspricht zu allen möglichen Basen von V und W eine Äquivalenzklasse von Matrizen. Denn aus zwei Basen v1 , . . . , vn und v10 , . . . , vn0 von V entsteht ein T ∈ GLn (K), das eindeutig bestimmt ist durch das kommutative Diagramm v1 , K n e1 7→ ... en 7→vn ! x7→T x Kn =V e1 7→v10 , ... 0 en 7→vn 0 Basen von W . Die zu f entsprechenden Matrizen Sei w1 , . . . , wm und w10 , . . . , wm seien A (zu v1 , . . . , vn ∈ V und w1 , . . . , wm ∈ W ) und A0 (zu v10 , . . . , vn0 ∈ V und 0 ∈ W ), d.h., das folgende Diagramm ist kommutativ: w10 , . . . , wm ei 7→vi ei 7→vi0 Kn / Km x7→Ax Kn ! =V f /W b x7→A0 x | ei 7→wi ei 7→wi0 / Km Wir setzen die beiden Diagramme zusammen und fügen ein analoges, verspiegeltes Dreieck zu mit K m → K m , y 7→ Sy als vertikalem Pfeil für ein S ∈ GLm (K). Es 2.5. Äquivalenz von Matrizen 51 folgt: A0 = SAT −1 . Aus gegebenen Basen v1 , . . . , vn ∈ V und w1 , . . . , wm ∈ W sowie gegebenen S ∈ GLm (K) und T ∈ GLn (K) kommen wir durch die kommutativen Dreiecke zu Basen 0 ∈ W . Dadurch ist klar, zwei zu f entsprechende v10 , . . . , vn0 ∈ V und w10 , . . . , wm Matrizen sind stets äquivalent und die Menge aller zu f entsprechenden Matrizen beträgt eine ganze Äquivalenzklasse von Matrizen. Wir definieren also rk(f ) als die Dimension des Bildes von f , d.h., rk(f ) ist der Rang einer beliebigen Matrix, die bezüglich Basen von V und W der linearen Abbildung f entspricht. Dann können wir für ein f : V → W mit r := rk(f ) die Matrix 1 0 0 ... 0 .. . 0 ∈ Mat(m × n, K), 1 0 . . . 0 0 ... 0 0 ... 0 die den oberen linken Block Er hat und sonst Null ist, als Normalform betrachten der zu f entsprechenden Matrizen. Proposition 2.17. Die folgenden Aussagen sind äquivalent für eine quadratische Matrix A ∈ Mat(n × n, K) über einem Körper K. (i) A ∈ GLn (K). (i0 ) Es gibt ein B ∈ Mat(n × n, K) mit BA = En . (i00 ) Es gibt ein C ∈ Mat(n × n, K) mit AC = En . (ii) Es gilt rk(A) = n. (ii0 ) A ist zu En äquivalent. (iii) A ist das Produkt einer endlichen Reihe von n-reihigen Elementarmatrizen. Beweis. Für A ∈ GLn (K) gibt es nach der Definition ein B ∈ Mat(n × n, K) mit BA = AB = Er , also folgen (i0 ) und (i00 ) aus (i). Nach Proposition 2.10 folgt (i) aus (i0 ) sowie aus (i00 ). Nach Proposition 2.15 und der nachfolgenden Diskussion sind (ii) und (ii0 ) äquivalent. Weil der Rang einer Matrix auch die Dimension des Spaltenraums ist, folgt (ii) aus (i). Ist rk(A) = n, so gibt es nach Proposition 2.3 eine Reihe von elementaren Zeilenumformungen, die A in reduzierte Zeilenstufenform bringt. Eine n × n-Matrix in reduzierter Zeilenstufenform muss soviele Pivots haben wie der Rang; ist der Rank n, so sind alle Diagonaleinträge Pivots, also haben wir die Matrix En . Das bedeutet, 52 2. Lineare Abbildung und Matrizen (ii) impliziert (iii). Weil alle n-reihigen Elementarmatrizen zu GLn (K) gehören, folgt (i) aus (iii). Definition. Eine quadratische Matrix über einem Körper, die die äquivalenten Bedingungen aus Proposition 2.17 erfüllt, heisst invertierbar. Nach der äquivalence (i) ⇔ (iii) aus Proposition 2.17 sagen wir, dass GLn (K) von den n-reihigen Elementarmatrizen erzeugt ist. Als Erzeuger einer beliebigen Gruppe G gilt eine Familie (gi )i∈I von Elementen aus G, wenn alle Elemente aus G als Produkt einer Reihe von Elementen der Form gi oder gi−1 für i ∈ I dargestellt werden können. Ist A eine n-reihige invertierbare Matrix, so ist für 1 ≤ i ≤ n die i-te Spalte von A−1 dadurch charakterisiert, dass Linksmultiplikation mit A das i-te Element ei der Standardbasis ergibt. Durch den Gauss-Jordan-Algorithmus kommen wir direkt zur Lösungsmenge von Ax = b für beliebiges b ∈ K n , insbesondere für b = ei für alle i. Es geht wie im folgenden Beispiel effizient, in dem wir alle i gleichzeitig behandeln. 1 −1 −2 1 0 −2 −1 1 0 1 1 3 1 0 0 1 −1 −2 1 0 −3 −3 2 0 0 −1 5/3 1 0 −1 1/3 0 1 1 −2/3 0 0 1 −5/3 0 0 1 1 −1 −2 1 0 0 0 −3 −3 2 1 0 0 4 3 −1 0 1 0 0 1 1 −1 −2 0 1 1 −2/3 1 0 4/3 1 0 0 1 −5/3 1 0 0 −4/3 −1/3 0 0 1 0 −1/3 0 1 −4/3 −1 0 0 1 −5/3 0 0 −1/3 0 −4/3 −1 −5/3 −1 1 1 −4/3 −1 Also gilt (über R oder über einem beliebigen Körper der Charakteristik 0) −1 1 −1 −2 −4/3 −5/3 −1 −2 −1 1 = 1 1 1 . 1 3 1 −5/3 −4/3 −1 2.6 Ähnlichkeit von Matrizen Wir behandeln einen Endomorphismus eines endlichdimensionalen Vektorraums auf die gleiche Weise, wie wir in §2.5 den Fall einer linearen Abbildung zwischen endlichdimensionalen Vektorräumen behandelt haben. Wir kommen nach wie vor zu einer Äquivalenzklasse von Matrizen bezüglich einer geeigneten Äquivalenzrelation. Sei K ein Körper, V ein endlichdimensionaler Vektorraum, n := dim(V ) und f : V → V eine lineare Abbildung. Zu einer Basis v1 , . . . , vn ∈ V gibt es eine entsprechende Matrix A ∈ Mn (K). Sei v10 , . . . , vn0 ∈ V eine zweite Basis, A0 ∈ Mn (K) die 2.6. Ähnlichkeit von Matrizen 53 entsprechende Matrix. Nach wie vor gibt es ein entsprechendes Diagramm ei 7→vi ! x7→Sx Kn / Km x7→Ax Kn =V ei 7→vi f /V a ei 7→vi0 } ei 7→vi0 x7→A0 x x7→Sx / Km für ein S ∈ GLn (K) und wir haben: SAS −1 = A0 . Aus der ursprünglichen Basis von V und einem beliebigen S ∈ GLn (K) wird nach wie vor eine zweite Basis v10 , . . . , vn ∈ V bestimmt, so dass das Diagramm kommutiert. Definition. Zwei Matrizen A, B ∈ Mn (K) heissen ähnlich, wenn es ein S ∈ GLn (K) gibt, so dass SAS −1 = B. Die Relation „A ist ähnlich zu B“ ist eine Äquivalenzrelation. Die obige Diskussion zeigt, zu einem Endomorphismus f : V → V ist eine Ähnlichkeitsklasse von darstellenden Matrizen assoziiert. Oft sucht man nach einem günstigen Repräsentanten einer Ähnlichkeitsklasse von Matrizen. Als günstig wäre, zum Beispiel, eine Diagonalmatrix. Geschätzt sind auch obere Dreicksmatrizen, d.h., Matrizen mit beliebigen Diagonaleinträgen sowie Einträgen oberhalb der Hauptdiagonale aber ausschliesslich Null unterhalb der Hauptdiagonale. Definition. Eine Matrix A ∈ Mn (K) heisst diagonalisierbar, bzw. trigonalisierbar, wenn A ähnlich ist zu einer Diagonalmatrix, bzw. zu einer Dreicksmatrix. Ist V ein endlichdimensionaler Vektorraum über K, so heisst ein Endomorphismus von V diagonal- bzw. trigonalisierbar wenn die entsprechende Matrix bezüglich einer geeigneten Basis von V so ist. Es gibt auch untere Dreicksmatrizen, die ausschliesslich Null oberhalb der Hauptdiagonale sind. Gibt es aber in der Ähnlichkeitsklasse von A eine untere Dreicksmatrix B, so kommen wir durch ann ∗ a11 0 0 1 0 1 ... .. .. ... = . . 1 0 1 0 ∗ ann 0 a11 zu einer oberen Dreieksmatrix in derselben Ähnlichkeitsklasse. 54 2. Lineare Abbildung und Matrizen Beispiel. Die Einheitsmatrix En ist immer allein in ihrer Ähnlichkeitsklasse. Das Gleiche gilt für ein Vielfaches aEn (a ∈ K). Eine grössere Ähnlichkeitsklasse, für die die Suche nach einem günstigen Repräsentanten noch dauern wird, ist 2̄ 2̄ 2̄ 1̄ 0̄ 2̄ 1̄ 2̄ 1̄ 1̄ 0̄ 1̄ . , , , , , 1̄ 2̄ 2̄ 2̄ 2̄ 1̄ 2̄ 0̄ 1̄ 0̄ 1̄ 1̄ in M2 (F3 ). Denn diese Matrizen sind nicht trigonalisierbar. 2.7 Lineare Algebra über Ringen Sei R ein kommutativer Ring mit Eins. Schreibt man die Definition des Vektorraums mit R anstelle von K um, so entsteht die Definition des R-Moduls. Definition. Sei R ein kommutativer Ring mit Einselement 1 ∈ R. Ein Modul über R ist eine Menge M mit Verknüpfung + : M ×M → M und Operation · : R×M → M , so dass die folgenden vier Eigenschaften erfüllt sind. • M mit + ist eine abelsche Gruppe. • Für alle a, b ∈ R und x ∈ M gilt (ab) · x = a · (b · x). • Für alle x ∈ M gilt 1 · x = x. • Für alle a, b ∈ R und x, y ∈ M gilt: a · (x + y) = a · x + a · y und (a + b) · x = a · x + b · x. Falls R = K, ein Körper, gibt es keinen Unterschied zwischen einem Modul und einem Vektorraum. Es gibt Untermoduln und R-lineare Abbildungen (mit denselben Definitionen). Letztere sind auch R-Modulhomomorphismen genannt. Ist L ein Untermodul von einem R-Modul M , so gibt es auch den Quotientenmodul M/L mit kanonischem RModulhomomorphismus M → M/L. Wie für Vektorräume gehören die Moduln Rn (n ∈ N) zu den Wichtigsten und können linearen Abbildungen Rn → Rm eindeutig mit m×n-Matrizen über R dargestellt werden. Die n-reihigen quadratischen Matrizen bilden Mn (R), ein Ring mit Einselement En , und nach wie vor setzen wir GLn (R) := Mn (R)× . Matrizen aus GLn (R) heissen invertierbar. Das Gauss-Verfahren ist stark von der Eigenschaft K × = K r {0} eines Körpers abhängig und fällt deshalb für Matrizen über Ringen aus. Elementare Zeilen- und Spaltenumformungen und Elementarmatrizen gibt es trotzdem. Für eine Familie linear unabhängig, erzeugend oder eine Basis zu sein, hat auch im Fall eines Moduls Sinn (mit denselben Definitionen, nur R anstelle von K). Auch 55 gültig ist die Charakterisierung durchL entsprechende lineare Abbildungen von direkL ten Summen. Es gibt direkte Summe i∈I R und, allgemeiner, i∈I Mi falls für alle i ∈ I ein R-Modul Mi angegeben wird. Zu einer Familie (xi )i∈I von Elementen aus L einem R-Modul M gibt es die entsprechende R-lineare Abbildung f : R → M. i∈I Also: f ist genau dann . . . wenn die Familie . . . ist injektiv linear unabhängig surjektiv erzeugend bijektiv eine Basis Für eine beliebige Familie (xi )i∈I von Elementen aus einem R-Modul M gibt es den von (xi )i∈I erzeugten Untermodul span(xi )i∈I ⊂ M . 3 Die Determinante Wir assoziieren zu jeder quadratischen Matrix A über einem Körper K ein Element von K, die Determinante von A. Die Definition ist ziemlich abstrakt: eine Reihe von Eigenschaften wird aufgelistet und es wird gezeigt, durch diese ist die Determinante eindeutig bestimmt. Praktisch geht es leichter: im 2 × 2-Fall ist a b = ad − bc det c d und im allgemeinen Fall kann det(A) für A ∈ Mn (K) berechnet werden, in dem wir mit dem Gauss-Verfahren durch elementare Zeilenumformungen eine A0 = (a0ij ) in Zeilenstufenform bekommen, dann gilt det(A) = n Y a0ii . i=1 Es wird aber auch vorteilhaft, das Ganze über einem beliebigen kommutativen Ring mit Eins R zu betrachten. Zu einer quadratischen Matrix über R wird ein Element von R assoziiert. In der ersten Instanz kann man immer R als K lesen und nur Matrizen über Körpern betrachten. 3.1 Symmetrische Gruppe Zuerst brauchen wir einiges über Permutationen. Ist S eine Menge, so wird mit Perm(S) die Gruppe aller bijektiven Abbildungen S → S mit Komposition von Abbildungen bezeichnet. Eine bijektive Abbildung von eine Menge nach sich selbst heisst Permutation. Der wichstigste Fall ist S = {1, . . . , n} für ein n ∈ N. 56 3. Die Determinante Definition. Für n ∈ N heisst die Gruppe aller Permutationen der Menge {1, . . . , n} die n-te symmetrische Gruppe, geschrieben: Sn . Sn ist eine endliche Gruppe. Mit einem induktiven Argument ist zu sehen, dass Sn genau n! Elemente hat. Für n ≥ 3 ist Sn nicht abelsch. Ein Element σ ∈ Sn kann auf verschiedene Weisen bezeichnet werden. Zum Beispiel, die Permutation σ ∈ S7 mit σ(j) = 8 − j für alle j wird so geschrieben: 1 2 3 4 5 6 • Zweizeilige Schreibweise 7 6 5 4 3 2 • Einzeilige Schreibweise 7 6 5 4 3 2 j = 1, . . . , n. 7 . Oben j, unten σ(j). 1 1 . Nur σ(j) wird geschrieben für • Zykelschreibweise (1, 7)(2, 6)(3, 5). Ein Zyklus ist ein Ausdruck (a, σ(a), σ 2 (a), . . . , σ r−1 (a)), wobei σ r (a) = a und r ∈ N>0 so klein wie möglich ist mit dieser Eigenschaft. Ist r = 1, so beschreibt man a als Fixpunkt von σ; den entsprechenden Zyklus (a) (im Beispiel, (4)) kann man weglassen. Sonst müssen alle Zahlen in {1, . . . , n} abgedeckt und zwar eindeutig abgedeckt werden: kommt j ∈ {1, . . . , n} in einem Zyklus vor, muss j in keinem anderen Zyklus vorkommen. Die Zykelschreibweise ist nicht eindeutig, z.B.: (1, 7)(2, 6)(3, 5) = (2, 6)(1, 7)(3, 5) und (1, 2, 3)(5, 6, 7) = (6, 7, 5)(3, 1, 2). Das Symbol ◦ (für Komposition) wird meistens weggelassen. So können wir, z.B., das Produkt von (1, 2) und (1, 3) als (1, 3, 2) berechnen (1 7→ 3 7→ 3, usw.) und deshalb schreiben: (1, 2)(1, 3) = (1, 3, 2). Ist σ ∈ Sn eine Permutation, so definieren wir: • die Menge der Fehlstände oder Inversionen von σ inv(σ) := {1 ≤ i < j ≤ n | σ(i) > σ(j)}, • die Fehlstandszahl | inv(σ)| von σ, • das Signum sgn(σ) := (−1)| inv(σ)| . von σ Beispiel. Eine Transposition σ := (i, j) ∈ Sn mit i < j hat die Fehlstände (i, j) sowie (i, c) und (c, j) für i < c < j, also: | inv(σ)| = 1 + 2(j − i − 1) und sgn(σ) = −1. 3.1. Symmetrische Gruppe 57 Proposition 3.1. Die Abbildung Sn → {±1}, σ 7→ sgn(σ), ist ein Gruppenhomomorphismus. Beweis. Es ist zu zeigen für σ, τ ∈ Sn : (−1)| inv(στ )| = (−1)| inv(σ)| (−1)| inv(τ )| . Wir setzen A := inv(σ), B := inv(τ ), C := inv(στ ), und definieren die bijektiven Abbildungen µ : {1, . . . , n} × {1, . . . , n} → {1, . . . , n} × {1, . . . , n}, µ(i, j) := (τ (i), τ (j)), ν : {1, . . . , n} × {1, . . . , n} → {1, . . . , n} × {1, . . . , n}, ν(i, j) := (τ (j), τ (i)). Wir behaupten, A ist disjunkte Vereinigung von µ(CrB) und ν(BrC). Sei (i, j) ∈ A. Wir setzen r := τ −1 (i) und s := τ −1 (j) und betrachten zwei Möglichkeiten: • Ist r < s, so gilt µ(r, s) = (i, j) mit (r, s) ∈ C r B. • Ist r > s, so gilt ν(s, r) = (i, j) mit (s, r) ∈ B r C. Es folgt, |A| = (|C| − |B ∩ C|) + (|B| − |B ∩ C|) und deshalb gilt (−1)|C| = (−1)|A| (−1)|B| . Permutationen σ ∈ Sn mit sgn(σ) = 1 heissen gerade, mit sgn(σ) = −1, ungerade. Definition. Für n ∈ N, n ≥ 2 ist die n-te alternierende Gruppe die Gruppe aller geraden Permutationen in Sn , geschrieben: An . Es gilt 1 |An | = n!, 2 d.h., genau die Hälfte aller Permutationen in Sn sind gerade. Denn Rechtsmultiplikation mit (1, 2) ergibt eine bijektive Abbildung von den geraden Permutationen nach den ungeraden Permutationen. Das Gleiche gilt auch für Rechtsmultiplikation mit einer beliebigen Transposition, zum Beispiel. Sei σ ∈ Sn . Ein k ∈ {1, . . . , n − 1} mit σ(k) > σ(k + 1) heisst Abstieg. Also hat σ maximal n−1 Abstiege. Die identische Permutation id hat keinen Abstieg und ist die einzige solche Permutation, denn mit A := inv(σ) und A(c) := {(i, j) ∈ A | j − i = c} wurde das Fehlen von Abstiegen A(1) = ∅ bedeuten und wir folgern A(c+1) = ∅ aus A(1) = A(c) = ∅ für 1 ≤ c ≤ n − 2, also durch Induktion, A = ∅ und deshalb σ = id. 58 3. Die Determinante Beispiel. Als Nächstes klassifieren wir Permutation mit höchstens einem Abstieg. Sei 1 ≤ k ≤ n − 1, sei σ ∈ Sn mit einzigem Abstieg an k oder gar keinem Abstieg. Also gilt σ(1) < σ(2) < · · · < σ(k) und σ(k + 1) < σ(k + 2) < · · · < σ(n). Durch {σ(1), . . . , σ(k)} ist σ eindeutig bestimmt, d.h., von der Menge solcher Permutation haben wir durch σ 7→ {σ(1), . . . , σ(k)} eine bijektive Abbildung nach der Menge aller Teilmengen I ⊂ {1, . . . , n} mit |I| = k. Entspricht eine solche Permutation σ die Menge I := {σ(1), . . . , σ(k)}, so definieren wir sgn(I) := sgn(σ). Es gibt auch eine Bijektion o n n {k-elementige Teilmengen I ⊂ {1, . . . , n}} → 1, . . . , k in dem wir eine Totalordnung auf den k-elementigen Teilmengen I ⊂ {1, . . . , n} auswählen. Zum Beispiel schreiben wir die Elemente einer Teilmenge steigend als Wort auf und ordnen die Wörter lexikographisch an. Lemma 3.2. Sei σ ∈ Sn eine Permutation mit Abstieg an k, sei σ̃ := σ(k, k + 1). Dann gilt | inv(σ̃)| = | inv(σ)| − 1. Beweis. Sei τ := (k, k + 1). Mit der Notation aus dem Beweis von Proposition 3.1 haben wir B = {(k, k + 1)}. Da σ Abstieg an k hat ist B ∩ C = ∅. Also gilt |A| = |C| + 1. Definition. Eine quadratische Matrix über einem Körper oder kommutativen Ring mit Eins gilt als Permutationsmatrix wenn es ein σ ∈ Sn gibt, so dass die (i, σ(i))Eintrag 1 für alle i ist, die anderen Einträge Null. Solche Matrix wird mit Pσ bezeichnet. Also ist Pσ die n × n-Matrix, deren i-te Zeilenvektor eσ(i) ist für i = 1, . . . , n. Dass die i-te Zeilenvektor eσ(i) sein soll ist eine Konvention. Es gilt also Pσ Pτ = Pτ σ für σ, τ ∈ Sn . 3.2 Multilineare Abbildungen Die Definition der Determinante benötigt multilineare Abbildungen. Wir verstehen schon lineare Abbildungen (von Vektorräumen, auch von Moduln über einem kommutativen Ring mit Eins). Eine Abbildung f : U × V → W heisst bilinear falls die 3.2. Multilineare Abbildungen 59 Abbildung einzeln linear ist in U und in V : f (u + u0 , v) = f (u, v) + f (u0 , v), f (u, v + v 0 ) = f (u, v) + f (u, v 0 ) f (au, v) = af (u, v), f (u, av) = af (u, v). (Dabei: u, u0 ∈ U und v, v 0 ∈ V , mit a aus dem Körper bzw. dem Ring.) Eine Abbildung V1 × · · · × Vn → W, die in diesem Sinn einzeln linear ist in jedem Vi heisst multilineare Abbildung. Uns interessiert hauptsächlich der Fall V1 = · · · = Vn = V für einen Vektorraum oder Modul V . Dann gibt es restriktivere Bezeichnungen: eine multilineare Abbildung f: Vn →W heisst . . . falls stets gilt symmetrisch f (. . . , v, . . . , v 0 , . . . ) = f (. . . , v 0 , . . . , v, . . . ) schiefsymmetrisch f (. . . , v, . . . , v 0 , . . . ) = −f (. . . , v 0 , . . . , v, . . . ) alternierend f (. . . , v, . . . , v, . . . ) = 0 Dabei ist für alle 1 ≤ i < j ≤ n die i-te und j-te Argumente von f zu vertauschen bzw. gleich zu setzen und die jeweilige Anfordung zu überprüfen. Eine alternierende multilineare Abbildung ist stets schiefsymmetrisch (v + v 0 in die ite und j-te Stellen setzen und multilineare und alternierende Eigenschaft anwenden). Wir betrachten eine n-reihige quadratische v1 .. . Matrix als n-Tupel ihrer Zeilenvektoren vn Auf diese Weise identifizieren wir Mn (K) bzw. Mn (R) mit V n , wobei V := K n bzw. Rn . Eine Abbildung Mn (K) → W wird als multilinear beschrieben bezüglich dieser Identifizierung. Lemma 3.3. Sei R ein kommutativer Ring mit Eins, n ∈ N>0 und f : Mn (R) → R eine schiefsymmetrische multilineare Abbildung. Dann gilt f (Pσ ) = sgn(σ)f (En ) für alle σ ∈ Sn . Beweis. Wir zeigen die Formel durch Induktion nach | inv(σ)|. Falls inv(σ) = ∅ ist σ = id und die Formel klar. Für den Induktionsschritt wenden wir Lemma 3.2 an. Ein σ 6= id hat Abstieg an k für ein 1 ≤ k ≤ n − 1 und wir setzen σ̃ := σ(k, k + 1). Nach der Induktionshypothese und dem Lemma gilt f (Pσ̃ ) = − sgn(σ)f (En ). Weil f schiefsymmetrisch ist, haben wir f (Pσ ) = −f (Pσ̃ ) = sgn(σ)f (En ). 60 3.3 3. Die Determinante Determinante als normierte alternierende Abbildung Eine Abbildung f : Mn (R) → R heisst normiert, falls f (En ) = 1. Theorem 3.4. Sei R ein kommutativer Ring mit Eins und n ∈ N. Dann gibt es eine eindeutige normierte alternierende multilineare Abbildung det : Mn (R) → R. Für A = (aij ) ∈ Mn (R) gilt die Formel X det(A) = sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) . σ∈Sn Des Weiteren ist für beliebiges r ∈ R die Abbildung r det die eindeutige alternierende multilineare Abbildung Mn (R) → R, die Er auf r abbildet. Beweis. Für die Eindeutigkeit behaupten wir, eine multilineare Abbildung Mn (R) → R ist charakterisiert durch die Werte an Matrizen mit Elementen aus der Standardbasis e1 , . . . , en als Zeilenvektoren. Dazu betrachten wir die Aussage, dass eine multilineare Abbildung Mn (R) → R charakterisiert ist, durch die Werte an Matrizen deren erste j Zeilen (0 ≤ j ≤ n) aus der Standardbasis kommen. Für j = 0 ist dies eine triviale Aussage. Ist die Aussage gültig für ein j, so gilt für eine multilineare Abbildung f : e i1 ei1 e i1 .. .. .. . . . eij eij eij f = a1 f e1 + · · · + an f en . a1 . . . an vj+2 vj+2 v j+2 .. .. .. . . . Mit diesem Induktionsschritt ist die Behauptung bewiesen. Ist f dazu alternierend, so ist die Wert an einer Martrix mit denselben Vektor in zwei Zeilen Null. Sonst gibt es nur Permutationsmatrizen zu betrachten und aus Lemma 3.3 sind die Werte an Permutationsmatrizen von dem Wert an En abhängig. Die Formel definiert eine normierte multilineare Abbildung. Für n ≥ 2 ist auch zu überprüfen, dass sie alternieriend ist. Also sei 1 ≤ k < ` ≤ n, sei A = (aij ) mit akj = a`j für alle j. Wie nach der Einführung der alternierenden Gruppe erwähnt ist Sn die disjunkte Vereinigung von An und {σ(k, `) | σ ∈ An }. Also: X X sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) = sgn(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) σ∈Sn σ∈An X − σ∈An = 0. sgn(σ)a1,σ(1) · · · ak,σ(`) · · · a`,σ(k) · · · an,σ(n) 3.3. Determinante als normierte alternierende Abbildung 61 Die Fälle n = 0 und n = 1 sind ziemlich trivial: det() = 1 und det(a) = a für a ∈ R. Der Fall n = 2 ergibt die im Voraus angesagte Formel. Es lohnt sich auch, die Formel für die Determinante einer 3 × 3-Matrix auswendig zu lernen: a b c det d e f = aej + bf g + cdh − ceg − af h − bdj. g h j Proposition 3.5. Sei n ∈ N. Für n × n-Matrizen über einem kommutativen Ring R mit Eins gilt: (i) det(A) = det(t A). (ii) det(AB) = det(A) det(B). (iii) Ist A = (aij )1≤i,j≤n eine Diagonalmatrix, obere Dreiecksmatrix oder untere Dreiecksmatrix, so gilt det(A) = a11 · · · ann . (iv) Ist A = (Aij )1≤i,j≤k eine Blockdiagonalmatrix, obere Blockdreiecksmatrix oder untere Blockdreiecksmatrix, so gilt det(A) = det(A11 ) · · · det(Akk ). (v) Die Determinante ist kompatibel mit Homomorphismen von kommutativen Ringen mit Eins. (vi) Entsteht A0 aus A durch eine elementare Zeilenumformung so gilt det(A0 ) = c det(A) im Fall des Multiplizierens einer Zeile mit c ∈ R× bzw. det(A0 ) = det(A) im Fall des Addierens eines Vielfachen einer Zeile zu einer anderen. Das Gleiche gilt für eine elementare Spaltenumformung. (vii) det(cA) = cn det(A) für c ∈ R. (viii) det(Pσ ) = sgn(σ) für σ ∈ Sn . In Proposition 3.5 betrachten wir Blockmatrizen der folgenden Form. Sei k ∈ N, seien `1 , . . . , `k ∈ N mit `1 + · · · + `k = n. Für A = (aij )1≤i,j≤n setzen wir Acd := (aij )`1 +···+`c−1 +1≤i≤`1 +···+`c , . `1 +···+`d−1 +1≤j≤`1 +···+`d Die Begriffe Blockdiagonalmatrix usw. sind bezüglich der Blöcke Acd analog wie Diagonalmatrix usw. definiert. Sei R0 ein zweiter kommutativer Ring mit Eins. Kompatibilität mit Homomorphismen in (v) bedeutet: ist f : R → R0 ein Homomorphismus von kommutativen Ringen mit Eins, so gilt für A = (aij )1≤i,j≤n ∈ Mn (R): det(f (aij ))1≤i,j≤n = f (det(A)). Beweis. Es gilt sgn(σ −1 ) = sgn(σ) für alle σ ∈ Sn , also für A = (aij ): X det(A) = sgn(σ)a1,σ−1 (1) a2,σ−1 (2) · · · an,σ−1 (n) . σ∈Sn = X σ∈Sn t sgn(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n . = det( A). 62 3. Die Determinante Sei B ∈ Mn (K). Die Abbildung A 7→ det(AB) ist alternierend multilinear und bildet En auf det(B) ab, also gilt det(AB) = det(B) det(A). Für σ ∈ Sn gilt (∀i : σ(i) ≤ i) ⇒ σ = id. Ist A = (aij ) eine Diagonal- oder untere Dreiecksmatrix, so analysieren wir die Summanden in der Formel für det(A): mit σ = id bekommen wir a11 · · · ann , mit σ 6= id bekommen wir stets Null. Mit det(t A) = det(A) ist der Fall einer oberen Dreiecksmatrix auch klar. Ähnlich behandeln wir der Fall einer Blockdreiecksmatrix. Permutationen, die alle der folgenden Mengen {1, . . . , `1 }, {`1 + 1, . . . , `1 + `2 }, . . . , {`1 + · · · + `k−1 + 1, . . . , `1 + · · · + `k } in sich abbilden, bilden eine Teilmenge, die mit S1 × · · · × Sk identifiziert werden kann. (Es gibt die sogenannte direkte Produkte von Gruppen, wobei S1 × · · · × Sk auch eine Gruppe ist, aber die Betrachtung als Menge reicht für diese Diskussion aus.) Für jedes σ auserhalb dieser Menge ist der entsprechende Summand in der Formel für det(A) Null. Übrig bleibt eine Summe über (σ1 , . . . , σk ) ∈ S1 × · · · × Sk und es folgt, det(A) = det(A11 ) . . . det(Akk ). Die Kompatibilität mit Homomorphismen ist klar aus der Formel für det(A). Weil elementare Spalten- und Zeilenumformungen der Multiplikation mit Elementarmatrizen entsprechen folgt (vi) aus (ii). Dann ist (vii) klar. Aus Lemma 3.3 folgt (viii). Nach Proposition 3.5 (iii) und (vi) folgt, die Determinante einer Matrix über einem Körper kann wie angekündigt berechnet werden, in dem wir die Matrix mit dem Gauss-Verfahren in Zeilenstufenform bringen und dann die Diagonaleinträge multiplizieren. Denn das in §2.3 vorgestellte Gauss-Verfahren macht nur von den elementaren Zeilenumformungen des Typs „ein Vielfaches einer Zeile zu einer anderen addieren“ Gebrauch. Als Beispiel berechnen wir det(A) für 1 3 −1 1 −2 −5 1 7 . A := 2 1 −1 −1 −3 −1 2 1 Aus dem Gauss-Verfahren 1 3 −1 1 0 1 −1 9 A 0 −5 1 −3 0 8 −1 4 1 0 0 0 3 −1 1 1 −1 9 0 −4 42 0 7 −68 1 0 0 0 3 −1 1 1 −1 9 0 −4 42 0 0 11/2 3.4. Weitere Eigenschaften der Determinante 63 haben wir det(A) = 1 · 1 · (−4) · (11/2) = −22. Mit der Formel für die Determinante sind 24 Produkte zu berechnen und kombinieren: 5 − 10 − 1 + 1 + 14 − 7 − 6 + 12 + 6 − 9 − 84 + 63 + 2 − 2 − 10 + 15 + 14 − 21 − (−4) + (−2) + (−20) − (−15) − (−2) + (−3) = −22. Es folgt auch, für eine quadratische Matrix A über einem Körper K: ⇔ A ist invertierbar det(A) ∈ K × . Korollar 3.6. Ist R ein kommutativer Ring mit Eins, n ∈ N, A ∈ Mn (R) und B ∈ GLn (R), so gilt det(BAB −1 ) = det(A). Beweis. Mit det(BAB −1 ) = det(BA) det(B −1 ) = det(B −1 ) det(BA) = det(B −1 BA) und B −1 B = En haben wir das Resultat. Mit Korollar 3.6 definieren wir det(f ) für einen Endomorphismus f ∈ End V eines endlichdimensionalen Vektorraums V über einem Körper. Sei dim(V ) = n. Ist v1 , . . . , vn eine Basis, so gibt es eine entsprechende Matrix A ∈ Mn (K). Wir definieren det(f ) := det(A). Entsprechend einer zweiten Basis v10 , . . . , vn0 ist eine Matrix A0 ∈ Mn (K) mit (§2.6) A0 = SAS −1 für ein S ∈ GLn (K). Also gilt nach Korollar 3.6: det(A0 ) = det(A). Wir haben also ker(f ) = 0 ⇔ im(f ) = V ⇔ f ∈ GL(V ) ⇔ det(f ) 6= 0, wobei GL(V ) die Gruppe aller Automorphismen (d.h., bijektiven Endomorphismen) von V bezeichnet. 3.4 Weitere Eigenschaften der Determinante Definition. Sei A = (aij ) ∈ Mat(m × n, R) eine Matrix über einem kommutativen Ring R mit Eins. Als Minoren der k-ten Ordnung für k ∈ N gelten die Determinante der Matrizen (aij )i∈I, j∈J für I ⊂ {1, . . . , m} und J ⊂ {1, . . . , n} mit |I| = |J| = k. Beispiel. Ist A eine Matrix über einem Körper K, so ist der Rang von A die grösster Ordnung eines von Null verschiedenen Minors. (Die grösste Ordnung eines von Null verschiedenen Minors bleibt unter elementaren Zeilenumformungen unverändert. Die Aussage ist klar für eine Matrix in Zeilenstufenform.) 64 3. Die Determinante Wichtig ist der Fall von Minoren der (n−1)-ten Ordnung einer quadratischen Matrix A ∈ Mat(n × n, R). Entsprechende I, J ⊂ {1, . . . , n} mit |I| = |J| = n − 1 sind durch c, d ∈ {1, . . . , n} bestimmt, in dem wir I := {1, . . . , n} r {c} und J := {1, . . . , n} r {d} setzen. Sei A0cd := (aij )i∈{1,...,n}r{c},j∈{1,...,n}r{d} . (1) Die Minoren der (n − 1)-ten Ordnung von A sind also det(A0cd ) für 1 ≤ c, d ≤ n. Proposition 3.7 (Laplacescher Entwicklungssatz). Sei A = (aij ) ∈ Mat(n × n, R) eine quadratische Matrix über einem kommutativen Ring R mit Eins und A0cd für 1 ≤ c, d ≤ n wie in (1). Dann gilt für 1 ≤ c ≤ n (Entwicklung nach der c-ten Zeile) det(A) = n X (−1)c+j acj det(A0cj ) j=1 sowie für 1 ≤ d ≤ n (Entwicklung nach der d-ten Spalte) det(A) = n X (−1)i+d aid det(A0id ). i=1 Beweis. Es genügt, die erste Formel zu beweisen. Wir schreiben A als v1 .. . v c−1 ac1 . . . acn vc+1 .. . Weil die Determinante multilinear ist, gilt v1 v1 .. .. . . det(A) = ac1 det vc−1 + · · · + acn det vc−1 e1 en .. .. . . . Den j-ten Term multiplizieren wir links mit der Permutationsmatrix P(c,1,...,c−1) und rechts mit P(1,...,j) , so entsteht eine Matrix mit erstem P Zeilenvektor e1 und unten rechts dem (n−1)×(n−1)-Block A0cj . Es gilt det(A) = nj=1 (−1)c−1 det(A0cj )(−1)j−1 nach Proposition 3.5 (ii), (iv) und (viii) und wir haben die gewünschte Formel. 3.4. Weitere Eigenschaften der Determinante 65 Beispiel. Eine Determinante lässt sich oft durch die Eigenschaften berechnen, wenn die Matrixeinträge einem Muster folgen. Als einfaches Beispiel, sei an die Determinante der n × n-Matrix 2 1 0 ... 0 1 2 1 0 0 1 2 1 0 ... 0 ... 0 1 2 über Z. Nach dem Laplaceschen Entwicklungssatz haben wir an = 2an−1 − an−2 . Wir berechnen a1 = 2, a2 = 3 und a3 = 4. Dass an = n + 1 für alle n ∈ N>0 ist durch Induktion bestätigt. Definition. Die zu A ∈ Mat(n×n, R) komplementäre Matrix ist A# = (a# ij )1≤i,j≤n i+j det(A0 ). mit a# ji ij := (−1) Das Vorzeichen (−1)i+j und Vertauschen der Indizes A0ji sind zu beachten! Korollar 3.8. Für eine quadratische Matrix A ∈ Mat(n × n, R) über einem kommutativen Ring R mit Eins gilt A# A = AA# = det(A)En . Beweis. Die Diagonaleinträge von A# A und AA# sind det(R) nach Proposition 3.7. Ebenfalls sind die Einträge von AA# ausserhalb der Hauptdiagonale die Determinanten von Matrizen, die jeweils zwei gleiche Zeilen haben. Analoges gilt für A# A, dann kommen Matrizen vor, die zwei gleiche Spalten haben. Die Determinante einer Matrix ist stets Null, wenn die Matrix zwei gleiche Zeilen oder Spalten hat. Korollar 3.9. Für eine quadratische Matrix A ∈ Mat(n × n, R) über einem kommutativen Ring R mit Eins sind folgende Aussagen äquivalent. (i) A ∈ GLn (R). (i0 ) Es gibt ein B ∈ Mat(n × n, K) mit BA = En . (i00 ) Es gibt ein C ∈ Mat(n × n, K) mit AC = En . (ii) det(A) ∈ R× . Beweis. Es folgt (i0 ) und (i00 ) direkt aus (i). Nach Proposition 3.5 (ii) folgt (ii) aus (i0 ) sowie aus (i00 ). Nach Korollar 3.8 haben wir (ii) ⇒ (i). Beispiel. Sei A ∈ GLn (R). Für b ∈ Rn hat die Gleichung Ax = b eine eindeutige Lösung x = (x1 , . . . , xn ) ∈ Rn . Die Cramersche Regel ist die folgende Formel: xj = (det(A))−1 det(A(j) ), 66 3. Die Determinante für alle j, wobei mit A(j) die Matrix bezeichnet wird, die aus A entsteht, wenn wir die j-te Spalte durch den Spaltenvektor b ersetzen. Es gibt auch eine Version von A# für gewisse nichtquadratische Matrizen. Sei A ∈ Mat(m × n, R) mit m ≥ n − 1. Wir setzen m k := m − n + 1 und M := . n−1 Wie wir schon gesehen haben, lässen sich die Teilmengen I ⊂ {1, . . . , m} mit |I| = k lexikographisch anordnen und so mit 1, . . . , M indexieren. Wir definieren A# = (a# ij )1≤i≤n, 1≤j≤M durch c+1 a# sgn(Id ) det(aij )i∈{1,...,m}rId , j∈{1,...,n}r{c} cd := (−1) für 1 ≤ c ≤ n und 1 ≤ d ≤ M . Der (c, d)-Eintrag von AA# ist (−1)c+` sgn(Id ) det(aij )i∈({1,...,m}rId )∪{c}, 1≤j≤n falls c zu Id gehört und zwar das `-te Element ist, wenn die Elemente aus Id steigend aufgelistet sind, und sonst ist Null. Wichtig ist die klassische Vandermonde-Determinante. Proposition 3.10. Sei Dann haben wir 1 1 det 1 R ein kommutativer Ring mit Eins und x1 , . . . , xn ∈ R. x1 x2 x21 x22 xn x2n . . . xn−1 1 Y . . . xn−1 2 = (xj − xi ). ... 1≤i<j≤n . . . xn−1 n Beweis. Sei ∆n (x1 , . . . , xn ) die Determinante. Mit elementaren Spaltenumformungen kommen wir zu einer Folge von Matrizen mit derselben Determinante: 0 1 x1 x21 . . . x1n−2 1 x2 x2 . . . xn−2 xn−2 (x2 − x1 ) 2 2 2 , ... 2 n−2 n−2 1 xn xn . . . xn xn (xn − x1 ) dann 1 x1 x21 . . . 0 0 1 x2 x2 . . . xn−3 (x2 − x1 ) xn−2 (x2 − x1 ) 2 2 2 , ... 2 n−3 n−2 1 xn xn . . . xn (xn − x1 ) xn (xn − x1 ) 3.4. Weitere Eigenschaften der Determinante usw. bis 1 0 0 1 x2 − x1 x2 (x2 − x1 ) 1 xn − x1 xn (xn − x1 ) 67 ... 0 0 . . . xn−3 (x2 − x1 ) x2n−2 (x2 − x1 ) 2 . ... n−3 n−2 . . . xn (xn − x1 ) xn (xn − x1 ) Deshalb gilt ∆n (x1 , . . . , xn ) = (x2 − x1 ) · · · (xn − x1 )∆n−1 (x2 , . . . , xn ). Mitsamt ∆1 (x) = 1 für alle x ∈ R folgt die angegebene Formel. Proposition 3.11 (Satz von Binet-Cauchy). Seien A, B ∈ Mat(m × n, R) zwei Matrizen derselben Grösse über einem kommutativen Ring R mit Eins. Dann gilt X det(A(t B)) = det(AI ) det(BI ), I⊂{1,...,n} |I|=m wobei mit Index I (wie AI , BI ) die aus den durch i ∈ I indexierten Spalten (von links nach rechts) bestehenden Matrix bezeichnet wird. Beweis. Beide Seiten sind multilinear in den Zeilen von A und den Zeilen von B. Deshalb genügt es, den Fall zu behandeln, bei dem die Zeilen von A sowie von B aus den Standardbasis e1 , . . . , en kommen. Also betrachten wir e c1 ed1 .. .. A := und B := . . . ecm edm Es gibt verschiedene Möglichkeiten. Gibt es i 6= j mit ci = cj , so haben A(t B) und AI stets zwei gleiche Zeilen. Beide Seiten sind also Null. Ähnlich behandeln wir den Fall, dass es i 6= j gibt, mit di = dj . Übrig bleibt der Fall, bei dem für alle j es höchstens ein i gibt mit ci = j sowie höchstens ein i0 gibt mit di0 = j. Insbesondere gibt es für alle i höchstens ein i0 mit ci = di0 . Dann hat A(t B) an der (i, i0 )-Stelle den Eintrag 1, während alle sonstigen Einträge Null sind. Nur in dem Fall, dass es für alle i ein i0 mit ci = di0 gibt, gilt det(A(t B)) 6= 0. Auch nur in dem Fall gibt es ein I ⊂ {1, . . . , n} mit |I| = m, so dass det(AI ) det(BI ) 6= 0. Also sei J := {j | es gibt ein i mit ci = j und ein i0 mit di0 = j}. mit |J| = m und J = {j1 , . . . , jm }, j1 < · · · < jm . Es gibt also σ, τ ∈ Sn , so dass ejσ(1) ejτ (1) .. .. A := und B := . . . ejσ(m) ejτ (m) 68 3. Die Determinante Dann haben wir A(t B) = Pτ −1 σ und deshalb det(A(t B)) = sgn(σ) sgn(τ ). An der rechten Seite gilt det(AI ) det(BI ) 6= 0 nur für I = J. Wir haben AJ = Pσ und BJ = Pτ und die Formel gilt. Seien V und W endlichdimensionale Vektorräume über einem Körper, n := dim(V ), m := dim(W ) und sei f : V → W eine lineare Abbildung. Ob f injektive oder surjektiv ist hängt direkt von rk(f ) ab: • Falls m = n: f ist injektiv ⇔ f ist surjektiv ⇔ rk(f ) = n. • Falls m < n ist f nicht injektiv. Es gilt: f ist surjektiv ⇔ rk(f ) = m. • Falls m > n ist f nicht surjektiv. Es gilt: f ist injektiv ⇔ rk(f ) = n. (Die Aussagen folgen aus Propositionen 2.10 und 2.12 (ii) und der Definition von rk(f ).) Seien jetzt V := Rn und W := Rm , wobei R ein kommutativer Ring mit Eins ist. Analog fragen wir, wenn ist eine R-lineare Abbildung f : V → W injektiv? surjektiv? Eine passende Antwort sollte ein Kriterium bezüglich der entsprechenden Matrix A ∈ Mat(m × n, R) sein. Proposition 3.12. Sei A ∈ Mat(m × n, R) eine Matrix über einem kommutativen Ring R mit Eins. Die zu A entsprechende R-lineare Abbildung Rn → Rm ist: (i) genau dann surjektiv, wenn 1 eine R-Linearkombination der Minoren von A der m-ten Ordnung ist. (ii) genau dann injektiv, wenn es kein 0 6= c ∈ R gibt mit cd = 0 für alle Minoren d von A der n-ten Ordnung. Beweis. (i), „⇒“: Ist Rn → Rm surjektiv, so gibt es ein B ∈ Mat(n × m, R) mit AB = Em . Nach dem Satz von Binet-Cauchy haben wir X 1 = det(AB) = det(AI ) det((t B)I ) I⊂{1,...,n} |I|=m und 1 ist eine R-Linearkombination der Minoren det(AI ). (i), P „⇐“: Gegeben sei (cI ), indexiertI durch I ⊂ {1, . . . , n} mit |I| = m, so dass cI det(AI ) = 1. Wir definieren M ∈ Mat(n × m, R) folgenderwise: in den von i ∈ I indexierten Zeilen setzen wir (AI )# , sonst ist M I Null. Sei X B := cI M I . I⊂{1,...,n} |I|=m 3.4. Weitere Eigenschaften der Determinante Dann haben wir X AB = cI AM I = I⊂{1,...,n} |I|=m X cI AI (AI )# = I⊂{1,...,n} |I|=m 69 X cI det(AI )Em = Em . I⊂{1,...,n} |I|=m (ii), „⇒“: durch Induktion nach n. Der Fall n = 1 ist klar. Sei A ∈ Mat(m×(n+1), R). Angenommen, es gibt ein 0 6= c ∈ R mit cd = 0 für alle Minoren d von A der (n + 1)ten Ordnung. Dann gilt cAA# = 0. Weil die zu A entsprechende lineare Abbildung injektiv ist, haben wir cA# = 0, d.h., c annuliert alle Minoren von A der n-ten Ordnung. Insbesondere annuliert c alle Minoren der n-ten Ordnung von A0 , wobei die Matrix A0 aus A durch die Entfernung der letzten Spalte entsteht. Nach der Induktionshypothese ist die zu A0 entsprechende lineare Abbildung nicht injektiv und wir haben eine Widerspruch. (ii), „⇐“: Wir schreiben A = (aij ). Sei x = (x1 , . . . , xn ) ∈ ker(A), sei 1 ≤ j ≤ n. Wir haben n X xk aik xj aij = − k=1 k6=j für alle i. Das heisst, die Matrix Aj , die aus A entsteht wenn wir die j-te Spalte mit xj multiplizieren, hat eine Spalte, die eine Linearkombination der anderen Spalten ist. Die Minoren von Aj der n-ten Ordnung sind also Null und es folgt, xj annuliert die Minoren von A der n-ten Ordnung. Also gilt xj = 0. Korollar 3.13. Sei R ein kommutativer Ring mit Einselement 1 6= 0. Gibt es für einen R-Modul M eine endliche Basis, so ist die Kardinalität einer endlichen Basis wohldefiniert, d.h., es gibt ein eindeutiges n ∈ N, so dass es einen Isomorphismus Rn → M gibt. Beweis. Gegeben seien zwei solchen Isomorphismen Rn → M und Rm → N . Wir nehmen an, n ≤ m. Es gibt also einen Isomorphismus Rn → Rm . Nach Proposition 3.12 (i) muss es einen Minor der m-ten Ordnung geben. Dies ist nur so für m = n. Sei R ein kommutativer Ring mit Einselement 1 6= 0, seien V := Rn und W := Rm , sei f : V → W eine R-lineare Abbildung. Es ist nicht mehr im Fall m = n so, im Allgemeinen, dass f genau dann injektiv ist, wenn f surjektiv ist (z.B., Z → Z, a 7→ 2a, ist injektiv aber nicht surjektiv). Wir können nach Proposition 3.12 die Folgenden behaupten. • Falls m = n: f ist surjektiv ⇒ f ist injektiv. • Falls m < n ist f nicht injektiv. • Falls m > n ist f nicht surjektiv. 70 3. Die Determinante Anders als für Vektorräume gibt es Moduln, für die es keine Basis gibt. Es gibt sogar Moduln mit endlichem Erzeugendensystem ohne Basis, wie z.B. die Z-Moduln Z/nZ für n ∈ Z, n ∈ / {0, 1, −1}. Definition. Ein R-Modul heisst endlich erzeugt falls es ein endliches Erzeugendensystem gibt. Ein R-Modul heisst frei falls es eine Basis gibt. Es gibt nur für endlich erzeugte freie R-Moduln eine endliche Basis. Für diejenigen Moduln können wir die Determinante eines Endomorphismus definieren, genau wie im Fall eines endlichdimensionalen Vektorraums über einem Körper (Diskussion nach Korollar 3.6). 3.5 Orientierung Sei S ⊂ Rm für ein m ∈ N. Wir definieren p∼q :⇔ ∃ ein Weg von p nach q für p, q ∈ S, wobei ein Weg von p nach q eine stetige Abbildung f vom abgeschlossenen Einheitsintervall [0, 1] nach S mit f (0) = p und f (1) = q ist. Dies ist eine Äquivalenzerelation. Die entsprechenden Äquivalenzklassen heissen Wegzusammenhangskomponenten. Der Begriff hat keinen Sinn für eine abstrakte Menge S. Falls eine Menge S in Rm eingebettet werden kann ist die obige Definition anwendbar, aber wohl möglich von der Einbettung abhängig. Wir werden annehmen, es gibt eine Familie von Einbettungen (ϕi : S → Rm )i∈I mit der Eigenschaft: Es gibt einen Homöomorphismus ψij : Rm → Rm mit ψij ◦ ϕi = ϕj (1) für alle i, j ∈ I. Ein Homöomorphismus ist eine stetige bijektive Abbildung mit stetigem Inversen. Bezüglich der Einbettungen (ϕi )i∈I sind die Wegzusammenhangskomponenten von S wohldefiniert. Sei V ein endlichdimensionaler reeller Vektorraum, n := dim(V ) und S := {Basen v1 , . . . , vn ∈ V }. 2 Es gibt eine durch S indexierte Familie von Einbettungen S → Rn . Eine Basis b1 , . . . , bn ∈ V bestimmt durch f (bi ) := ei einen Isomorphismus f : V → Rn . Unter dem Isomorphismus entsprechen Basiselemente v1 , . . . , vn Vektoren aus Rn , also haben wir 2 ϕ : S → Rn , ϕ(v1 , . . . , vn ) := (f (v1 ), . . . , f (vn )). Eine andere Basis b01 , . . . , b0n ∈ V bestimmt einen Isomorphismus f 0 : V → Rn sowie 2 entsprechende Einbettung ϕ0 : S → Rn und es gibt (§2.5) ein A ∈ GLn (R), so dass 3.5. Orientierung 71 der entsprechende Isomorphismus Rn → Rn in einem kommutativen Diagramm sitzt mit f und f 0 . Für die Blockdiagonalmatrix A 0 .. . 0 A 2 2 sitzt ein entsprechender Isomorphismus Rn → Rn , der auch ein Homöomorphismus ist, in einem kommutativen Diagramm mit ϕ und ϕ0 . Also gilt (1). Als andere Ansicht haben wir für jede Basis v1 , . . . , vn ∈ V eine Basis f (v1 ), . . . , f (vn ) von Rn . Also Faktorisiert ϕ als 2 S → GLn (R) ⊂ Mn (R) ∼ = Rn und wir kommen zur Aufgabe, die Wegzusammenhangskomponenten von GLn (R) zu beschreiben. Proposition 3.14. Für alle n ∈ N>0 besteht GLn (R) aus zwei Wegzusammenhangskomponenten. Spezifisch gehören zwei invertierbare reelle n × n-Matrizen genau dann zu derselben Wegzusammenhangskomponenten, wenn ihre Determinanten dasselbe Vorzeichen haben. Beweis. Entsteht eine invertierbare reelle Matrix aus einer anderen durch eine elementare Zeilenumformung des Typs „ein Vielfaches einer Zeile zu einer anderen addieren“, so gehören die beiden zu derselben Wegzusammenhangskomponente. Ein Weg von der einen nach der anderen wird gegeben durch Linksmultiplikation mit 1 ... 0 1 .. . .. .. . . tc 0 ... 1 für t ∈ [0, 1]. Das Gleiche gilt für das Multiplizieren einer Zeile mit einer positiven Konstanten: 1 ... 0 1 .. . . .. .. . t c . . . 0 ... 1 Es gibt eine Variante des Gauss-Jordan-Algorithmus wobei die elementaren Zeilenumformungen des Typs „eine Zeile mit einer von Null verschiedenen Konstanten 72 3. Die Determinante multiplizieren“ nur mit positiven Konstanten durchgeführt wird. Aus einer invertierbaren reellen Matrix wird eine Diagonalmatrix mit Diagonaleinträge ±1. Zum Abschluss entsteht durch Linksmultiplikation mit Matrizen der Form 1 0 .. . cos(πt) − sin(πt) .. . sin(πt) cos(πt) .. . 0 1 die Einheitsmatrix oder die Diagonalmatrix mit Diagonaleinträgen −1, 1, 1, . . . , 1. Wir haben also bewiesen, dass GLn (R) höchstens zwei Wegzusammenhangskomponenten hat. Aber det : GLn (R) → R× ist eine stetige Abbildung, also gibt es keinen Weg von einer Matrix mit negativer Determinante nach einer Matrix mit positiver Determinante. Definition. Sei V ein endlichdimensionaler reeller Vektorraum. Eine Orientierung auf V ist eine Wegzusammenhangskomponente der Basen von V . Für dim(V ) > 0 gibt es nach Proposition 3.14 genau zwei Orientierungen auf V . Die Orientierung der Standardbasis auf Rn heisst Standardorientierung. Im allgemeinen Fall gibt es keine kanonische Bestimmung einer Orientierung. Diesen Punkt können wir deutlich machen, in dem wir eine stetige Familie von Vektorräumen betrachten. Sei Ω ⊂ Rm . Man kann tatsächlich stetige Familien von Vektorräumen über Ω definieren, sogenannte Vektorbündel. Einfachheitshalber definieren wir nur stetige Familien von Untervektorräumen eines gegebenen Vektorraums V und zwar nur für V = Rp für ein p ∈ N. Seien n, p ∈ N mit n ≤ p. Eine Familie (Er )r∈Ω von n-dimensionalen Untervekttorräumen von Rp gilt als stetig, wenn es für alle r ∈ Ω eine offene Teilmenge U ⊂ Rm mit r ∈ U und eine stetige Abbildung B : Ω ∩ U → Mat(n × p, R) (2) Es = ZR(B(s)) (3) gibt mit für alle s ∈ Ω ∩ U . Sei zudem o(r) eine Orientierung auf Er für alle r ∈ Ω. Ist die Familie von Vektorräumen stetig, so gilt die Familie von Orientierungen als stetig wenn es für alle 73 r ∈ Ω eine offene Teilmenge U ⊂ Rm mit r ∈ U und stetige Abbildung (2) gibt, so dass nebst der Gleichheit (3) auch o(s) die Orientierung der Zeilenvektoren (von oben nach unten) von B(s) ist für alle s ∈ Ω ∩ U . Das Ganze heisst stetige Familie von orientierten n-dimensionalen Untervektorräumen von Rp . Sei (Er )r∈Ω eine stetige Familie von n-dimensionalen Untervektorräumen von Rp . Sei e := {(r, o) | r ∈ Ω und o ist eine Orientierung auf Er }. Ω e → Ω. Wir Durch (r, o) 7→ r haben wir die 2-zu-1 Orientierungsabdeckung ν : Ω −1 bestimmen zudem: für alle U und B wie in (2) soll ν (Ω ∩ U ) zu (Ω ∩ U ) × {±1} homöomorph sein, wobei für s ∈ Ω ∩ U , ( (s, 1), falls o die Orientierung der Zeilenvektoren von B(s) ist, (s, o) 7→ (s, −1), sonst. Für eine beliebige Teilmenge T ⊂ Rq mit q ∈ N folgt: Eine Abbildung e f˜: T → Ω ist genau dann stetig, wenn ν ◦ f˜: T → Ω stetig ist und (Eν(f˜(t)) )t∈T mit der Orientierung aus f˜(t) für alle t ∈ T eine stetige Familie von orientierten n-dimensionalen Untervektorräumen von Rp ist. Beispiel. Sei Ω der Einheitskreis in R2 , also Ω = {(cos(θ), sin(θ)) | θ ∈ R}. Dann ist E(cos(θ),sin(θ)) := {(t cos( 2θ ), t sin( 2θ )) | t ∈ R} eine stetige Familie von 1-dimensionalen Untervektorräumen von R2 (wohldefiniert, weil aus θ0 = θ +π stets (cos(θ0 /2), sin(θ0 /2)) = (− cos(θ/2), − sin(θ/2)) folgt, Stetigkeit mithilfe der Halbwinkelformeln der Trigonometrie). Die Orientierungsabdeckung ist auch zum Einheitskreis homömorph, Ω̃ ∼ = {(cos(ρ), sin(ρ)) | ρ ∈ R}, wobei (cos(ρ), sin(ρ)) ∈ Ω̃ dem orientierten Untervektorraum von R2 mit 1-elementiger Basis (cos(ρ), sin(ρ)) ∈ R2 entspricht, also ν(cos(ρ), sin(ρ)) = (cos(2ρ), sin(2ρ)). 4 Eigenwerte und Eigenvektoren Sei K ein Körper, V ein endlichdimensionaler Vektorraum über K und f : V → V ein Endomorphismus. Ist f diagonalisierbar (§2.6), so gibt es eine Basis v1 , . . . , vn , 74 4. Eigenwerte und Eigenvektoren bezüglich derer f durch eine Diagonalmatrix λ1 0 .. . 0 λn dargestellt wird. Die Eigenschaft f (vi ) = λi vi , die in diesem Fall für alle Basiselemente vi gilt, spielt eine wichtige Rolle, zum Beispiel in Diagonalisierbarkeitskriterien. 4.1 Definition und Diagonalisierbarkeitskriterium Definition. Sei K ein Körper, V ein Vektorraum über K und f : V → V ein Endomorphismus. Dann heisst λ ∈ K ein Eigenwert von f , falls es einen von Null verschiedenen Vektor v ∈ V gibt, mit f (v) = λv. Ein solcher Vektor v heisst Eigenvektor. Der Eigenraum eines beliebigen λ ∈ K ist Eig(f, λ) := ker(λ idV − f ). Die Eigenwerte, Eigenvektoren und Eigenräume einer quadratischen Matrix A ∈ Mn (K) sind diejenigen des assoziierten Endomorphismus von K n . Es ist klar, Eig(f, λ) ∩ Eig(f, µ) = 0 für λ, µ ∈ K mit λ 6= µ (weil λv = f (v) = µv für v ∈ Eig(f, λ) ∩ Eig(f, µ)). Allgemeiner gilt für m ∈ N>0 , paarwise verschiedene λ1 , . . . , λm ∈ K und v1 ∈ Eig(f, λ1 ), . . . , vm ∈ Eig(f, λm ): v1 + · · · + vm = 0 ⇒ v1 = · · · = vm = 0. Aus v1 + · · · + vm = 0 haben wir auch λj1 v1 + · · · + λjm vm = 0 für j = 1, . . . , m − 1. Sei A := (λj−1 )1≤i,j≤m die Vandermonde-Matrix von λ1 , . . . , λm (Proposition 3.10) i und A# = (a# ij ) die komplementäre Matrix. Dann haben wir 0= m X i−1 i−1 a# ij (λ1 v1 + · · · + λm vm ) i=1 = Y (λi0 − λi ) vj 1≤i<i0 ≤m für alle j. Weil λi 6= λi0 für alle 1 ≤ i < i0 ≤ m, folgt vj = 0 für alle j. Proposition 4.1. Sei K ein Körper, V ein endlichdimensionaler Vektorraum über K und f : V → V ein Endomorphismus. Dann sind die folgenden Aussagen äquivalent. (i) Der Endomorphismus f ist diagonalisierbar. 4.2. Charakteristisches Polynom und Trigonalisierbarkeit 75 (i0 ) Es gibt eine aus Eigenvektoren bestehende Basis von V . (ii) Die Summe von Eig(f, λ) über die Eigenwerte λ ist V . (ii0 ) V ist die direkte Summe von Eig(f, λ) über die Eigenwerte λ. Beweis. Es ist klar, (i) ⇔ (i0 ). Nach der obigen Bemekrung über die lineare Unabhängigkeit einer Familie der zu paarweise verschiedenen Eigenwerten gehörenden Eigenvektoren gilt (ii) ⇔ (ii0 ). Ist v1 , . . . , vn eine Basis, bezüglich derer f durch eine Diagonalmatrix dargestellt wird, so gibt es einen Eigenwert λi mit f (vi ) = λi vi , für alle i und Eig(f, λ1 ) + · · · + Eig(f, λn ) = V. Also haben wir (i) ⇒ (ii). Gilt (ii), so bilden Basen von Eig(f, λ) für alle Eigenwerte λ zusammen eine Basis von V und wir haben (ii) ⇒ (i). Für eine quadratische Matrix A ∈ Mn (K) gibt es ein analoges Kriterium, wobei die Diagonalisierbarkeit, die Existenz einer aus Eigenvektoren bestehenden Basis von K n und die Zugänglichkeit von K n als Summe bzw. direkte Summe von Eigenräumen äquivalent sind. 4.2 Charakteristisches Polynom und Trigonalisierbarkeit Die Bemerkung, dass ein Eigenvektor zum Kern von λ idV − f gehört, führt zu einem praktischen Verfahren im Fall eines Endomorphismus eines eindlichdimensionalen Vektorraums zur Berechnung aller Eingenwerte und deren Eigenräume. Denn für λ ∈ K gehört λ idV − f genau dann zu GL(V ), wenn det(λ idV − f ) 6= 0 (§3.3). Definition. Das charakteristische Polynom eines Endomorphismus f : V → V eines endlichdimensionalen Vektorraums V über einem Körper K ist Pf := det(T idV − f ) ∈ K[T ]. Das charakteristische Polynom einer quadratischen Matrix A ∈ Mn (K) ist PA := det(T En − A) ∈ K[T ]. Im zweiten Ausdruck betrachten wir A ∈ Mn (K) auch als Element von Mn (K[T ]). Dann gehört auch T En − A zu Mn (K[T ]) und wir haben det(T En − A) ∈ K[T ]. Als Beispiel, 1 3 T − 1 −3 A := ∈ M2 (R) T En − A = 4 2 −4 T − 2 det(T En − A) = (T − 1)(T − 2) − (−3)(−4) = T 2 − 3T − 10 ∈ R[T ]. 76 4. Eigenwerte und Eigenvektoren Wie im Fall von det(f ) wird det(T idV − f ) verstanden durch die Auswahl einer Basis für V , damit wir zu einer darstellenden Matrix A ∈ Mn (K) (mit n = dim(V )) kommen und det(T idV − f ) := det(T En − A) definieren. Eine andere Basis fürht zu einer Matrix A0 mit A0 = SAS −1 für ein S ∈ GLn (K). Auch S kann als Element von GLn (K[T ]) betrachtet werden und wir haben det(T En − A0 ) = det(S(T En − A)S −1 ) = det(T En − A) nach Korollar 3.6. Beispiel. Ein beliebiges normiertes Polynom T n + an−1 T n−1 + · · · + a1 T + a0 ist charakteristisches Polynom der sogennanten Begleitmatrix 0 0 . . . 0 −a0 1 0 . . . 0 −a1 . . . . . . 0 1 . . . . .. . . . . . 0 −a . . n−2 0 . . . 0 1 −an−1 Proposition 4.2. Die Eigenwerte eines Endomorphismus f : V → V eines endlichdimensionalen Vektorraums V über einem Körper K bzw. einer quadratischen Matrix A ∈ Mn (K) sind genau die Nullstellen des charakteristischen Polynoms Pf bzw. PA . Beweis. Im Allgemeinen gilt Pf (λ) = det(λ idV − f ) für λ ∈ K. Also haben wir Pf (λ) = 0 genau dann, wenn ker(λ idV − f ) 6= 0. Das Gleiche gilt mit einer quadratischen Matrix A. Im obigen Beispiel sind die Nullstellen −2 und 5. Die entsprechenden Eigenräume sind 1 −3 −3 Eig(A, −2) = ker = span −1 −4 −4 und Zur Verifikation: und 4 −3 3 Eig(A, 5) = ker = span . −4 3 4 1 3 1 −2 1 = = −2 4 2 −1 2 −1 1 3 4 2 3 15 3 = =5 . 4 20 4 4.2. Charakteristisches Polynom und Trigonalisierbarkeit 77 Sei λ ∈ K ein Eigenwert von f (oder von A). Weil λ eine Nullstelle von Pf (oder PA ) ist, teilt T − λ das charakteristische Polynom. In der entsprechenden Faktorisierung aus Proposition 1.16 kommt T − λ also mindestens einmal vor. Die Anzahl der Faktoren T − λ heisst algebraische Vielfachheit des Eigenwerts λ und ein Eigenwert der algebraischen Vielfachheit 1 wird als einfacher Eigenwert bezeichnet. Die Dimension der entsprechenden Eigenraum heisst geometrische Vielfachheit. Proposition 4.3. Sei f : V → V ein Endomorphismus eines endlichdimensionalen Vektorraums V über einem Körper K oder A eine quadratische Matrix über K. Die geometrische Vielfachheit eines Eigenwerts λ von f bzw. von A ist stets höchstens gleich der algebraischen Vielfachheit von λ. Beweis. Sei k die geometrische Vielfachheit, v1 , . . . , vk eine Basis des Eigenraums von λ und v1 , . . . , vn eine Erweiterung zu einer Basis von V (bzw. von K n ). Bezüglich dieser Basis wird f (oder der zu A entsprechenden Endomorphismus von K n ) durch eine Matrix dargestellt mit der folgenden Blockstruktur λEk B 0 C für ein B ∈ Mat(k × (n − k), K) und C ∈ Mat((n − k) × (n − k), K). Deshalb teilt (T − λ)k das charakteristische Polynom. Beispiel. Die Matrix A := 1 1 0 1 über einem beliebigen Körper hat den Eigenwert 1 mit algebraischer Vielfachheit 2 und geometrischer Vielfachheit 1. Denn 1 2 . PA = (T − 1) und Eig(A, 1) = span 0 Proposition 4.4. Ein Endomorphismus eines endlichdimensionalen Vektorraums über einem Körper K bzw. eine quadratische Matrix über K ist genau dann trigonalisierbar, wenn das charakteristische Polynom in Linearfaktoren in K[T ] zerfällt. Beweis. Ein trigonalisierbarer Endomorphismus wird bezüglich einer geeigneten Basis durch eine obere Dreiecksmatrix dargestellt. Also zerfällt das charakteristische Polynom in Linearfaktoren. Sei f ein Endomorphismus eines endlichdimensionalen Vektorraums V . Wir zeigen durch Induktion nach n := dim(V ): gibt es λ1 , . . . , λn ∈ K mit Pf = (T − λ1 ) · · · (T − λn ), 78 4. Eigenwerte und Eigenvektoren so ist f trigonalisierbar. Die Fälle n = 0 und n = 1 sind trivial und gelten als Induktionsanfang. Also nehmen wir an, n ≥ 2 und der Fall von Endomorphismen eines (n − 1)-dimensionalen Vektorraums ist schon bekannt. Wir lassen 0 6= v1 ∈ Eig(f, λ1 ) zu einer Basis v1 , . . . , vn von V erweitern. Die entsprechende Matrix A hat die Form λ1 ∗ . . . ∗ 0 ∗ . . . ∗ A= . .. .. . 0 ∗ ... ∗ und deshalb gilt Pf = PA = (T − λ1 )PB wobei B den unteren linken (n − 1) × (n − 1)-Block von A bezeichnet. Es folgt, PB = (T − λ2 ) · · · (T − λn ). Nach der Induktionshypothese gibt es ein S ∈ GLn−1 (K), so dass SBS −1 eine obere Dreiecksmatrix ist. Wir haben −1 1 0 ... 0 1 0 ... 0 0 0 A .. .. . . S S 0 0 1 0 ... 0 λ1 ∗ . . . 0 0 = . .. .. . S B 0 0 λ1 ∗ . . . ∗ 1 0 ... 0 0 = . . . . SB .. S −1 0 0 ∗ 1 0 ... 0 0 .. . S −1 0 0 λ1 ∗ ... ∗ 0 = .. . −1 . SBS 0 Letzteres ist auch eine obere Dreicksmatrix. Proposition 4.5. Sei A ∈ Mn (K) eine quadratische Matrix über einem Körper K. Dann sind die folgenden Aussagen äquivalent. (i) A ist zu einer echten oberen Dreiecksmatrix ähnlich. (ii) Es gilt PA = T n . (iii) Es gibt ein m ∈ N, so dass Am = 0. (iii0 ) Es gibt ein m ∈ N mit m ≤ n, so dass Am = 0. 4.3. Satz von Cayley-Hamilton 79 Beweis. Ist A zu einer echten oberen Dreiecksmatrix ähnlich, so haben wir (ii), (iii) und (iii0 ). Wir folgen genau dem Beweis von Proposition 4.4, im Fall λ1 = · · · = λn = 0 und erreichen dadurch die Implikation (ii) ⇒ (i). Übrig ist die Implikation (iii) ⇒ (i). Wir verwenden Induktion nach dem kleinsten m, so dass Am = 0. Der Fall m = 1 ist trivial und dient als Induktionsanfang. Sei m ∈ N>0 mit Am 6= 0, aber Am+1 = 0. Sei k die Dimension und v1 , . . . , vk eine Basis des Bildes von A und v1 , . . . , vn eine Erweiterung zu einer Basis von K n . Entsprechend ist eine zu A ähnliche Matrix mit der folgenden Blockstruktur B C , 0 0 wobei B eine k × k-Matrix ist mit B m = 0 und C eine k × (n − k)-Matrix ist. Wie im Beweis von Proposition 4.4 können wir mithilfe der Induktionshypothese folgern, dass A zu einer echt oberen Dreiecksmatrix ähnlich ist. Es gibt eine analoge Aussage für Endomorphismen eines endlichdimensionalen Vektorraums. Ein Endomorphismus f , bzw. eine quadratische Matrix A heisst nilpotent, falls es ein m ∈ N>0 gibt, so dass m-mal z }| { f ◦ f ◦ ··· ◦ f = 0 4.3 bzw. Am = 0. Satz von Cayley-Hamilton Sei A eine quadratische Matrix mit charakteristischem Polynom PA . Wir werden zeigen, PA (A) = 0. Dies gilt sowohl im klassischen Kontext von Matrizen über einem Körper, als auch über einem beliebigen kommutativen Ring mit Eins. Sei R ein kommutativen Ring mit Eins. Für n ∈ N haben wir den Ring Mn (R) mit Eins. Sobald n ≥ 2 und 1 6= 0 in R gilt, ist Mn (R) aber nicht kommutativ. Wichtig für uns ist für eine gegebene Matrix A ∈ Mn (R) nur die Matrizen der Form f (A) mit f ∈ R[T ] zu betrachten. Für f = ad T d + · · · + a1 T + a0 ∈ R[T ] verstehen wir f (A) ∈ Mn (R) als ad Ad + · · · + a1 A + a0 En . Ist g ∈ R[T ] ein zweites Polynom, so haben wir (f + g)(A) = f (A) + g(A) und (f g)(A) = f (A)g(A), also definiert f 7→ f (A) einen Homomorphismus von Ringen mit Eins R[T ] → Mn (R). Wir bezeichnen mit R[A] das Bild, deshalb haben wir einen surjektiven Homomorphismus von Ringen mit Eins R[T ] → R[A]. 80 4. Eigenwerte und Eigenvektoren Weil f (A)g(A) = (f g)(A) = (gf )(A) = g(A)f (A) ist R[A] ein kommutativer Ring mit Eins. Theorem 4.6 (Satz von Cayley-Hamilton). Sei R ein kommutativer Ring mit Eins und A ∈ Mn (R) eine quadratische Matrix über R mit charakteristischem Polynom pA . Dann gilt pA (A) = 0. Beweis. Wir haben die Matrix B := T En − A ∈ Mn (R[T ]), mit Determinante pA ∈ R[T ]. Weil die Determinante kompatibel ist mit Homomorphismen von kommutativen Ringen mit Eins (Proposition 3.5 (v)) ist pA (A) die Determinante der Matrix e = (b̃ij ) ∈ Mn (R[A]) B mit ( A − aii En b̃ij := −aij En falls i = j, falls i = 6 j. Für alle j haben wir n X b̃ij ei = Aej − i=1 n X aij ei = 0. i=1 e # = (b̃# ) die zu B e komplementäre Matrix. Dann gilt Sei B ij 0= n X b̃# ij (b̃1i e1 + · · · + b̃ni en ) = pA (A)ej i=1 für alle j und deshalb, pA (A) = 0. Im allgemeinen können wir die Menge aller Polynome p ∈ R[T ] betrachten, die die Bedingung p(A) = 0 erfüllen. Die Struktur dieser Menge ist am klarsten falls R = K, ein Körper, denn in diesem Fall haben wir mit K[T ] einen euklidischen Ring. Definition. Sei A ∈ Mn (K) eine quadratische Matrix über einem Körper. Ein normiertes Polynom f ∈ K[T ] heisst Minimalpolynom wenn: • f (A) = 0, • für alle 0 6= g ∈ K[T ] mit g(A) = 0 gilt deg(g) ≥ deg(f ). 4.3. Satz von Cayley-Hamilton 81 Nach dem Satz von Cayley-Hamilton erfüllt pA die erste Bedingung. Aber für die Einheitsmatrix En mit n ∈ N>0 zum Beispiel haben wir Minimalpolynom: T, charakteristisches Polynom: T n . Sei f Minimalpolynom einer quadratischen Matrix A ∈ Mn (K). Dann teilt f alle Polynome g ∈ K[T ] mit g(A) = 0. Sonst würde es nach dem euklidischen Algorithmus ein 0 6= r ∈ K[T ] geben mit r(A) = 0 und deg(r) < deg(f ). Das Minimalpolynom ist also wohldefiniert und ist zudem ein Teiler des charakteristischen Polynoms. Mit dem Minimalpolynom haben wir ein zweites Diagonalisierbarkeitskriterium. Proposition 4.7. Eine quadratische Matrix A ∈ Mn (K) über einem Körper K ist genau dann diagonalisierbar, wenn die folgenden zwei Bedingungen erfüllt sind: • Das charakteristische Polynom zerfällt in Linearfaktoren, also können wir pA = (T − λ1 )m1 · · · (T − λk )mk schreiben mit paarweise verschiedenen λ1 , . . . , λk ∈ K und m1 , . . . , mk ∈ N>0 . • Das Minimalpolynom hat dieselben Faktoren ohne Vielfachheit, d.h., ist (T − λ1 ) · · · (T − λk ). Der Beweis macht Gebrauch von Polynominterpolation: Sind λ1 , . . . , λn ∈ K paarweise verschieden und b1 , . . . , bn ∈ K beliebig, so gibt es ein eindeutiges Polynom g ∈ K[T ], dass entweder Null oder vom Grad kleiner n ist, mit g(λi ) = bi für i = 1, . . . , n. Ist g = cn−1 T n−1 +· · ·+c0 durch Unbekannte Koeffizienten c = (c0 , . . . , cn−1 ) gegeben, so hat das entsprechende Gleichungssystem die Form Ac = b, wobei A die Vandermonde-Matrix von λ1 , . . . , λn ist. Es gibt eine eindeutige Lösung, weil det(A) 6= 0. Eine explizite Formel ist auch vorhanden: g= n X j=1 bj (T − λ1 ) · · · (T − λj−1 )(T − λj+1 ) · · · (T − λn ) . (λj − λ1 ) · · · (λj − λj−1 )(λj − λj+1 ) · · · (λj − λn ) Beweis. Es ist klar, dass eine diagonalisierbare Matrix die Bedingungen erfüllt. Denn eine diagonalisierbare Matrix A mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk ∈QK erfüllt f (A) = 0 für f = (T − λ1 ) · · · (T − λk ). Für I ( {1, . . . , k} und g = i∈I (T − λi ) haben wir für j ∈ {1, . . . , k} r I und Eigenvektor v für λj : Y g(A)v = (λj − λi ) v 6= 0. i∈I 82 4. Eigenwerte und Eigenvektoren Angenommen, A erfüllt die zwei Bedingungen. Also sind λ1 , . . . , λk ∈ K die Eigenwerte von A. Wir zeigen, A ist die Summe von Eig(A, λi ) über alle i; nach Proposition 4.1 ist dies zur Diagonalisierbarkeit äquivalent. Nach der Polynominterpolation gilt k X (T − λ1 ) · · · (T − λi−1 )(T − λi+1 ) · · · (T − λk ) = 1. (λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λk ) i=1 Sei also (A − λ1 En ) · · · (A − λi−1 En )(A − λi+1 En ) · · · (A − λk En ) (λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λk ) Pn für i = 1, . . . , k. Für v ∈ K n gilt v = i=1 Ai v. Nach der Bedingung über das Minimalpolynom haben wir Ai v ∈ Eig(A, λi ) für alle i. Ai := Man definiert das Minimalpolynom auch für Endomorphismen eines endlichdimensionalen Vektorraums über einem Körper. Es gibt ein analoges zweites Diagonalisierbarkeitskriterium. 4.4 Fundamentalsätze Drei wichtige Fundamentalsätze der Mathematik sind: • Fundamentalsatz der Arithmetik : Existenz und Eindeutigkeit der Primzahlzerlegung für positive ganze Zahlen. • Fundamentalsatz der Analysis: das Integral einer stetigen reellwertigen Funktion f als Stammfunktion von f . • Fundamentalsatz der Algebra: jedes nicht konstantes Polynom über C hat eine Nullstelle. Der Fundamentalsatz der Arithmetik wurde schon als der Fall R = Z von Proposition 1.16 behandelt. Der Fundamentalsatz der Analysis wird in der Analysis-Vorlesung behandelt. Der Fundamentalsatz der Algebra benötigt wesentlichen Einsatz der Analysis. Insbesondere macht man vom Zwischenwertsatz Gebrauch, um zu sehen, dass jedes Polynom über R ungeraden Grades eine reelle Nullstelle hat. √ Es ist leicht zu verifizieren, jede komplexe Zahl a + bi (mit a, b ∈ R und i = −1) besitzt eine Quadratwurzel in C der Form s s √ √ 2 2 a+ a +b −a + a2 + b2 ±i . 2 2 4.4. Fundamentalsätze 83 Aus diesen zwei Fakten folgern wir mittels linearer Algebra den Fundamentalsatz der Algebra. Lemma 4.8. Sei V ein endlichdimensionaler reeller Vektorraum mit dim(V ) = 2k + 1 für ein k ∈ N, seien f und g zwei kommutierende Endomorphismen von V . Dann gibt es einen Vektor v ∈ V , der sowohl für f als auch für g Eigenvektor ist. Beweis. Durch Induktion nach k. Der Fall k = 0 ist trivial. Für den Induktionsschritt nehmen wir an, k > 0. Das charakteristische Polynom Pf hat eine Nullstelle, f deshalb einen Eigenwert λ ∈ R. Sei U := Eig(F, λ) = ker(λ idV − f ) und W das Bild von λ idV − f , also nach Proposition 2.12 (ii): 2k + 1 = dim(U ) + dim(W ). Wir haben g(U ) ⊂ U , denn f (g(u)) = g(f (u)) = g(λu) = λg(u) für alle u ∈ U . Ist dim(U ) ungerade, so hat die Einschränkung von g auf U einen Eigenvektor u, und u ist auch Eigenvektor für f . Sonst gilt dim(W ) = 2k 0 + 1 für ein k 0 ∈ N mit k 0 < k. Es ist leicht zu verifizieren, f (W ) ⊂ W und g(W ) ⊂ W . Nach der Induktionshypothese gibt es einen Vektor in W , der sowohl für f als auch für g Eigenvektor ist. Gewisse Räume von komplexen n × n-Matrizen sind wichtig: • Symmetrische Matrizen, gegeben durch A = t A, bilden einen C-Vektorraum Symn (C) der Dimension n(n + 1)/2. • Hermitesche Matrizen, gegeben durch A = t A, bilden einen R-Vektorraum Herm(n) der Dimension n2 . Zum Beispiel, die Matrix links ist symmetrisch und die Matrix rechts ist hermitesch: 1 1+i 1 1+i , . 1 + i 1 − 2i 1 − i −2 Wir beweisen den Fundamentalsatz der Algebra in der folgenden Form (vgl. §4.2: Begleitmatrix und Proposition 4.2). Proposition 4.9. Sei A ∈ Mn (C) mit n ∈ N>0 . Dann hat A einen Eigenwert. 84 4. Eigenwerte und Eigenvektoren Beweis. Wir schreiben n = 2m k mit m ∈ N und ungeradem k ∈ N und beweisen die Aussage durch Induktion nach m. Der Induktionsanfang ist der Fall, n ist ungerade. Wir haben kommutierende Endomorphismen f und g von Herm(n): 1 1 f (B) := (AB + B t A) und g(B) := (AB − B t A). 2 2i Nach Lemma 4.8 gibt es ein 0 6= B ∈ Herm(n) und λ, µ ∈ R mit 1 1 und (AB + B t A) = λB (AB − B t A) = µB. 2 2i Also haben wir AB = (λ + µi)B. Da B mindestens eine von Null verschiedene Spalte hat, ist λ + µi ein Eigenwert von A. Für den Induktionsschritt ist n = 2m k gerade. Zuerst bemerken wir, dass die Induktionshypothese in der folgenden Form vorhanden ist. Sei V eine endlichdimensionaler komplexer Vektorraum derart, dass dim(V ) nicht durch 2m teilbar ist, seien f und g zwei kommutierende Endomorphismen von V . Dann gibt es einen Vektor v ∈ V , der sowohl für f als auch für g Eigenvektor ist. Das Argument ist genau wie im Beweis von Lemma 4.8. Anstatt des Zwischenwertsatzes wird für die Existenz eines Eigenwertes von f die Induktionshypothese verwendet. Anstatt eine ungerade Summe dim(U ) + dim(W ) zu haben, wobei einer der Summanden ungerade sein muss, haben wir eine Summe, die nicht durch 2m teilbar ist und einer der Summanden muss deshalb nicht durch 2m teilbar sein. Wir haben den C-Vektorraum Symn (C), dessen Dimension 2m−1 k(n + 1) nicht durch 2m teilbar ist, und die folgenden kommutierenden Endomorphismen von Symn (C): f (B) := AB + B t A und g(B) := AB t A. Also gibt es ein 0 6= B ∈ Symn (C) und λ, µ ∈ C mit AB + B t A = λB und AB t A = µB. Es folgt, A2 B − λAB + µB = 0. Weil jede komplexe Zahl ein Quadratwurzel besitzt, können wir T 2 − λT + µ als (T − α)(T − β) in C[T ] faktorisieren für α, β ∈ C (gegeben durch die Lösungsformel für die quadratische Gleichung). Aus (A − αEn )(A − βEn )B = 0 folgt, dass α oder β ein Eigenwert von A ist. Ein Körper, über welchem jedes nicht konstantes Polynom eine Nullstelle hat, heisst algebraisch abgeschlossen. Also ist C nach dem Fundamentalsatz der Algebra ein algebraisch abgeschlossener Körper. Über einem algebraisch abgeschlossenen Körper sind nur lineare Polynome irreduzibel, deshalb zerfällt jedes nicht konstantes Polynom in Linearfaktoren. Korollar 4.10. Alle quadratischen Matrizen über C sind trigonalisierbar. Beweis. Das Kriterium aus Proposition 4.4 wird nach dem Fundamentalsatz der Algebra stets erfüllt. 85 A Faktorzerlegungen eines Polynoms Sei K ein Körper. Dann ist K[T ] ein euklidischer Ring (§1.5). Also gibt es für jedes 0 6= g ∈ K[T ] eine Faktorzerlegung g = cp1 · · · pm , wobei c ∈ K × der Leitkoeffizient von g ist und p1 , . . . , pm normierte irreduzible Polynome sind, die bis auf Reihenfolge eindeutig bestimmt sind. Haben wir die Möglichkeit, Elemente aus K darstellen und Berechnungen durchzuführen wie, z.B., für Q der Fall ist, so können wir den euklidischen Algorithmus durchführen und damit den ggT zweier Polynome f und g berechnen, auch in der Form von Proposition 1.13, wobei der ggT als K[T ]-Linearkombination von f und g geschrieben werden soll. Aber Proposition 1.14 ist nicht algorithmisch: Keine der äquivalenten Bedingungen führt zu einem Verfahren, die Irreduzibilität eines nicht konstanten Polynoms zu testen. Praktisches Beispiel: ist T 4 + 4 ∈ Q[T ] irreduzibel? Wenn wir die Irreduzibilität eines f ∈ Q[T ] betrachten ist es praktisch, wie in diesem Beispiel, den Fall der ganzzahligen Koeffizienten zu betrachten. Ein beliebiges f ∈ Q[T ] kann durch das Multiplizieren mit einer geeigneten positiven ganzen Zahl in so eine Form gebracht werden, ohne die Irreduzibilität zu beeinträchtigen. Hier sammeln wir einige Bemerkungen über irreduzible Polynome. Nullstellen und Irreduzibilität: Sei f ∈ K[T ] ein nicht konstantes Polynom und d := deg(f ). Alle linearen Polynome sind irreduzibel. Sei also d ≥ 2. Hat f eine Nullstelle, d.h., f (a) = 0 für ein a ∈ K, so ist T − a ein Teiler von f und f = (T − a)g mit g ∈ K[T ] vom Grad d − 1 eine Faktorisierung in Nichteinheiten. Also: Falls d ∈ {2, 3} : f irreduzibel ⇒ f hat keine Nullstelle in K. f irreduzibel ⇔ f hat keine Nullstelle in K. Denn eine Faktorisierung in Nichteinheiten f = gh benötigt deg(g), deg(h) < d. Falls d ∈ {2, 3} ist dies nur möglich, wenn g oder h linear ist. Im Fall K = Q gibt es den rationalen Nullstellentest: Ist p/q (mit p, q ∈ Z, q 6= 0, p und q teilerfremd) Nullstelle eines Polynoms ad T d + · · · + a0 mit ganzzahligen Koeffizienten, so ist a0 durch p und ad durch q teilbar. Faktorisierung und Körpererweiterung: Möglicherweise ist die Faktorzerlegung eines nicht konstanten Polynoms f ∈ K[T ] über einem Körper L bekannt für eine 86 A. Faktorzerlegungen eines Polynoms Körpererweiterung L/K. Sei also c ∈ K ∗ der Leitkoeffizient von f und q1 , . . . , qn normierte irreduzible Polynome in L[T ] mit f = cq1 · · · qn in L[T ]. Dann gibt es ein m ∈ N und paarweise disjunkte Teilmengen I1 , . . . , Im ⊂ {1, . . . , n} Sm Q mit j=1 Ij = {1, . . . , n}, so dass das Polynom pj := i∈Ij qi Koeffizienten in K hat und pj ∈ K[T ] irreduzibel ist für alle j; so können wir die Faktorzerlegung f = cp1 · · · pm in K[T ] bestimmen mit c ∈ K × und normierten irreduziblen Polynomen p1 , · · · , pm . (Ist f = cp1 · · · pm in K[T ] mit c ∈ K × und normierten irreduziblen p1 , · · · , pm und pi = gi1 · · · gi`i in L[T ] mit normierten irreduziblen gi1 , . . . , gi`i für alle i, so haben wir f = cg11 · · · g1`1 · · · gm1 · · · gm`m ; Eindeutigkeit aus Proposition 1.16 für L[T ] anwenden.) Im Fall von T 4 +4 ∈ Q[T ] gibt es keine Nullstelle in Q (nach dem rationalen Nullstellentest oder weil T 4 + 4 sogar keine reelle Nullstelle hat). Die komplexe Nullstellen √ sind die 4-ten Wurzeln von −4: die Quadratwurzeln sind ±2i (mit i = −1) und deren Quadratwurzeln 1 + i, 1 − i, −1 + i, −1 − i. Wir bestimmen Produkte der entsprechenden Linearfaktoren T − 1 − i, usw.: (T −1−i)(T −1+i) = T 2 −2T +2, (T −1−i)(T +1−i) = T 2 −2iT −2, usw. Tatsächlich gibt es ein Paar solcher Produkte, das zu einer Faktorisierung von T 4 + 4 in Q[T ] führt: T 4 + 4 = (T 2 − 2T + 2)(T 2 + 2T + 2). Im Fall eines reellen Polynoms sehen wir durch die Körpererweiterung C/R, dass die irreduziblen reellen Polynome die linearen und die quadratischen mit negativer Diskriminante sind. Lemma von Gauss: Wie oben betrachten wir ein f ∈ Q[T ] mit ganzzahligen Koeffizienten und deg(f ) = d. Wir werden ein Verfahren beschreiben, zu bestimmen ob f irreduzibel ist und falls nicht, eine Faktorisierung f = gh mit deg(g), deg(h) < d zu produzieren. Für d ≤ 3 genügt es, den rationalen Nullstellentest anzuwenden, also können wir annehmen, d ≥ 4 und f hat keine rationale Nullstelle. Wir behaupten, dass es genügt, ein Verfahren zu verwenden, das alle Faktorisierungen f = gh in Q[T ] in Polynome g und h mit ganzzahligen Koeffizienten auflistet. Dann beschreiben wir ein solches Verfahren. Seien g0 , h0 ∈ Q[T ] mit f = g0 h0 . Durch Multiplizieren mit geeigneten positiven ganzen Zahl bekommen wir g1 , h1 ∈ Q[T ] mit ganzzahligen Koeffizienten. Wir beseitigen allfällige gemeinsame Primteiler der Koeffizienten von g1 und so kommen zu 87 einem g ∈ Q[T ], ebenso mit ganzzahligen Koeffizienten aber ohne jeglichen gemeinsamen Primteiler. Analog behandeln wir h1 , so kommen wir zu einem h ∈ Q[T ] mit denselben Eigenschaften. Das Produkt gh ist also ein rationales Vielfaches von f . Sei p eine Primzahl. Ein Polynom mit ganzzahligen Koeffizienten lasst sich modulo p reduzieren, also aus g bekommen wir ḡ ∈ Fp [T ], aus h bekommen wir h̄ ∈ Fp [T ]. Wir haben ḡ 6= 0, sonst wäre p ein gemeinsamer Primteiler der Koeffizienten von g, und h̄ 6= 0, aus demselben Grund. Das Lemma von Gauss ist die Aussage, dass die Koeffizienten von gh auch keinen gemeinsamen Primteiler haben. Denn gh reduziert sich auf ḡ h̄ und im Integritätsbereich Fp [T ] ist das Produkt zweier von Null verschiedener Elemente von Null verschieden. Schlussendlich muss f ein ganzzahliges Vielfaches von gh sein, f = agh für ein a ∈ Z. Also ist f = (ag)h eine Faktorisierung, bei der die zwei Faktoren auch ganzzahlige Koeffizienten haben. Ein einfaches aber womöglich langwieriges Verfahren, alle Faktorisierungen f = gh in Q[T ] in Polynome g und h mit ganzzahligen Koeffizienten aufzulisten, basiert sich auf Polynominterpolation (§4.3). Nach unserer Annahme gilt f (a) 6= 0 für alle a ∈ Z, also hat f (a) nur endlich viele Teiler in Z. Wir listen alle Folgen b0 , b1 , ... bd von ganzen Zahlen auf, so dass bj ein Teiler ist von f (j) für j = 0, . . . , d. Es gibt nur endlich viele solche Folgen. Entsprechend jeder Folge ist ein eindeutiges Polynom g ∈ Q[T ] vom Grad ≤ d mit g(j) = bj für j = 0, . . . , d (Polynominterpolation). Auf der Liste kommen also alle g vor, die in einer Faktorisierung f = gh in Q[T ] in Polynome mit ganzzahligen Koeffizienten auftreten. B Deutsch-Englisches Vokabular Einheitsmatrix = identity matrix ganze Zahlen = integers grösster gemeinsamer Teiler (ggT) = greatest common divisor (gcd) komplementäre Matrix = adjugate matrix Körper = field neutrales Element = identity element normiertes Polynom = monic polynomial Spalte = column Verknüpfung = operation Zeile = row Zeilenstufenform = row echelon form