Lineare Algebra 1 Anton Deitmar WS 2013/14 Inhaltsverzeichnis 1 Grundlagen 1.1 Mengen . . . . . . . . . . 1.2 Abbildungen . . . . . . . 1.3 Komposition . . . . . . . 1.4 Produkte und Relationen 1.5 Vollständige Induktion . . . . . . 1 1 4 8 9 11 . . . . 18 18 22 25 30 3 Vektorräume 3.1 Räume und Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . 36 36 39 4 Dimension 4.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 43 45 48 5 Lineare Abbildungen und Matrizen 5.1 Erste Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 54 58 2 Gruppen und Körper 2.1 Gruppen . . . . . . . . 2.2 Körper . . . . . . . . . 2.3 Die Körper Q, R und C 2.4 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Algebra 1 5.3 5.4 5.5 5.6 Matrizen . . . . . . . Matrixmultiplikation Blockmatrizen . . . . Basiswechsel . . . . . ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 63 68 69 6 Gauß-Elimination 6.1 Zeilentransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 73 76 79 7 Determinanten 7.1 Permutationen . . . . . . . . . . . . . . . . . 7.2 Determinante und Zeilentransformationen 7.3 Multiplikativität . . . . . . . . . . . . . . . . 7.4 Laplace-Entwicklung . . . . . . . . . . . . . . . . . 81 81 85 88 89 . . . . 93 93 94 95 103 . . . . 108 108 111 113 115 8 Eigenwerte 8.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . 8.2 Lineare Unabhängigkeit von Eigenvektoren 8.3 Das charakteristische Polynom . . . . . . . 8.4 Der Satz von Cayley-Hamilton . . . . . . . 9 Der Jordan-Normalform Satz 9.1 Nilpotente Endomorphismen 9.2 Hauptraum-Zerlegung . . . . 9.3 Jordan-Matrizen . . . . . . . . 9.4 Berechnung der Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Dualraum und Quotient 117 10.1 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 10.2 Quotienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 11 Dimension 11.1 Das Lemma von Zorn . . . . . 11.2 Kardinalzahlen . . . . . . . . 11.3 Abzählbarkeit . . . . . . . . . 11.4 Basen beliebiger Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 127 128 131 134 Lineare Algebra 1 iii Lineare Algebra 1 1 1.1 1 Grundlagen Mengen Eine Menge ist eine (gedachte) Zusammenfassung von (wirklichen oder gedachten) Objekten, die die Elemente der Menge genannt werden. no Beispiele 1.1.1. • Die Leere Menge = ∅. n o • Die Menge 1, 2, 3 der Zahlen 1,2,3. n o • Die Menge N = 1, 2, 3, . . . der natürlichen Zahlen. Zwei Menge heißen gleich, falls sie die gleichen Elemente haben. In Worten: N=M ⇔ (x ∈ N ⇔ x ∈ M). Eine Menge A ist Teilmenge einer Menge B, falls jedes Element von A schon in B liegt, also A ⊂ B ⇔ (x ∈ A ⇒ x ∈ B). Folgerung. Zwei Mengen M, N sind genau dann gleich, wenn jede Teilmenge der anderen ist, also M = N ⇔ (M ⊂ N und N ⊂ M). Sei M eine Menge. Die Potenzmenge P(M) von M ist definiert als die Menge aller Teilmengen von M. n o Beispiel 1.1.2. Sei M = 1, 2, 3 . Dann ist n o P(M) = ∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3} . Seien A und B Mengen. Der Durchschnitt A ∩ B von A und B ist die Menge der gemeinsamen Elemente: x∈A∩B ⇔ x ∈ A und x ∈ B , oder, was das Gleiche bedeutet: n o A∩B= x∈A:x∈B . Lineare Algebra 1 2 Beispiel 1.1.3. n o n o n o 1, 2 ∩ 2, 3 = 2 . Zwei Menge A und B heißen disjunkt, falls A ∩ B = ∅, sie also keine gemeinsamen Elemente haben. Die Vereinigung zweier Mengen A ∪ B ist die Menge aller x, die in mindestens einer der beiden Mengen liegen, also x ∈ (A ∪ B) ⇔ x ∈ A oder x ∈ B . Beispiel 1.1.4. n o n o n o 1, 2 ∪ 2, 3 = 1, 2, 3 . Proposition 1.1.5. Sind A, B, C Mengen, dann gilt (a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), (b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). B A C Beweis. Für (a) rechnen wir ⇔ ⇔ ⇔ ⇔ ⇔ x ∈ A ∩ (B ∪ C) x ∈ A und x ∈ B ∪ C x ∈ A und (x ∈ B oder x ∈ C) (x ∈ A und x ∈ B) oder (x ∈ A und x ∈ C) (x ∈ A ∩ B) oder (x ∈ A ∩ C) x ∈ (A ∩ B) ∪ (A ∩ C) Def. Def. (*) Def. Def. Lineare Algebra 1 3 (*) Für beliebige Aussagen A, B, C gilt: A und (B oder C) ⇔ (A und B) oder (A und C). Die Aussage (*) schliesslich beweist man wie folgt. Es gibt folgende Möglichkeiten: Die Aussage A ist entweder wahr oder falsch. Ebenso für B und C. Daraus ergeben sich folgende mögliche Konstellationen: A B C B oder C A und (B oder C) w w w w f f f f w w f f w w f f w f w f w f w f w w w f w w w f w w w f f f f f und andererseits A B C A und B A und C (A und B) oder (A und C) w w w w f f f f w w f f w w f f w f w f w f w f w w f f f f f f w f w f f f f f w w w f f f f f Durch Vergleich der beiden letzten Spalten folgt (*). Teil (b) beweist man analog. Die Menge der natürlichen Zahlen n o N = 1, 2, 3, . . . Lineare Algebra 1 4 erweitert man zur Menge der ganzen Zahlen n o Z = . . . , −2, −1, 0, 1, 2, . . . und diese zur Menge der rationalen Zahlen p, q ∈ Z, q > 0 p : Q= q p und q sind teilerfremd . Wir haben also N ⊂ Z ⊂ Q ⊂ R |{z} ⊂ die reellen Zahlen C |{z} . die komplexen Zahlen Man beschreibt Teilmengen gern durch Eigenschaften n o x ∈ X : x hat Eigenschaft E . Beispiel 1.1.6. n o n o n ∈ N : n ≤ 5 = 1, 2, 3, 4, 5 . Ist Y ⊂ X, so heißt die Menge n o XrY= x∈X :x<Y das Komplement von Y in X. n o Beispiel 1.1.7. Z r N = . . . , −2, −1, 0 . Man verwendet die Schreibweise X r Y aber auch, wenn Y keine Teilmenge von X ist. n o n o n o Beispiel 1.1.8. 1, 2 r 2, 3 = 1 . 1.2 Abbildungen Sind X, Y Mengen, so ist eine Abbildung f : X → Y eine Zuordnung, die jedem Element x von X genau ein Element y = f (x) von Y zuordnet. n o n o Beispiele 1.2.1. • f : 1, 2, 3 → 4, 5 f (1) = 4, f (2) = 4 f (3) = 5. Lineare Algebra 1 5 • f :R→R f (x) = x2 . • Auf jeder gegebenen Menge X gibt es eine kanonische Abbildung X → X, nämlich die Identität IdX : X → X; x 7→ x. Definition 1.2.2. Eine Abbildung f : X → Y heißt injektiv, falls verschiedene Elemente verschiedene Bilder haben, also wenn für alle x, x0 ∈ X gilt x , x0 ⇒ f (x) , f (x0 ), oder, anders ausgedrückt, wenn f (x) = f (x0 ) ⇒ x = x0 . injektiv: '$ x x x x '$ x x - x - x x - &% &% nicht injektiv: '$ x x x x &% '$ : x x x x x &% Lineare Algebra 1 6 Beispiele 1.2.3. • Die Abbildung f : R → R mit f (x) = x2 ist nicht injektiv, denn f (1) = f (−1) = 1. • Die Abbildung f : R → R mit f (x) = x3 ist injektiv. Definition 1.2.4. Eine Abbildung f : X → Y heißt surjektiv, falls es zu jedem y ∈ Y ein x ∈ X gibt mit f (x) = y, wenn also jedes y ∈ Y getroffen wird. surjektiv: '$ x x x x '$ : &% x x x &% nicht surjektiv: '$ x x x x '$ : &% x x x x x &% Beispiele 1.2.5. • Die Abbildung F : R → R mit f (x) = x2 ist nicht surjektiv, da es kein x ∈ R gibt mir f (x) = −1. • Die Abbildung f : R → R mit f (x) = x3 ist surjektiv. Eine Abbildung f : X → Y die sowohl injektiv als auch surjektiv ist, heißt bijektiv. Lineare Algebra 1 7 Satz 1.2.6. Ist X eine endliche Menge und ist f : X → X eine Selbstabbildung, so sind äquivalent: (a) f ist injektiv, (b) f ist surjektiv, (c) f ist bijektiv. n o Beweis. Sei X = x1 , . . . , xn mit n Elementen. (a)⇒(b) Da f (x1 ), . . . , f (xn ) alle verschieden sind, sind es wieder n Elemente, also n o f (x1 ), . . . , f (xn ) = X, damit ist f surjektiv. (b)⇒(c) Sei f surjektiv. Wir haben zu zeigen, dass f injektiv ist. Wegen n o n o f (x1 ), . . . , f (xn ) = x1 , . . . , xn müssen die f (x1 ), . . . , f (xn ) paarweise verschieden sein, also ist f injektiv. Die Richtung (c)⇒(a) ist trivial. Definition 1.2.7. Eine Permutation auf einer Menge M ist eine bijektive Abbildung M → M. Mit Per(M) bezeichnen wir die Menge aller Permutationen auf M. Ist n = 1, 2, 3, . . . eine natürliche Zahl, so bezeichnet Per(n) die Menge der Permutationen n o auf der Menge 1, 2, 3, . . . , n . Die Menge Per(1) hat ein Element. Die Menge Per(2) hat zwei Elemente, die Menge Per(3) hat sechs Elemente: 1 2 3 1 2 3 1 2 3 1 3 2 1 2 3 2 1 3 1 2 3 1 2 3 3 2 1 3 1 2 1 2 3 2 3 1 . Lineare Algebra 1 1.3 8 Komposition Seien f : X → Y und g : Y → Z Abbildungen, so kann man ihre Komposition g ◦ f (lies: “geh nach eff”) bilden, dies ist eine Abbildung von X nach Z definiert durch g ◦ f (x) = g( f (x)). Man visualisiert dies durch ein Diagramm: f X g◦ f /Y g Z. Beispiel 1.3.1. Ist f : X → Y, dann gilt f ◦ IdX = f und IdY ◦ f = f . Lemma 1.3.2 (Assoziativität der Komposition). Seien f : W → X, g : X → Y und h : Y → Z Abbildungen. Dann gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f. Beweis. Sei w ∈ W, dann gilt h ◦ (g ◦ f )(w) = h(g ◦ f (w)) = h(g( f (w))) = (h ◦ g)( f (w)) = (h ◦ g) ◦ f (w). Proposition 1.3.3. Sind g und f beide injektiv, so ist g ◦ f injektiv. Ebenso für surjektiv. Beweis. Es seien beide injektiv und x , x0 in X. Da f injektiv ist, folgt f (x) , f (x0 ). Da g injektiv ist, folgt hieraus g ◦ f (x) = g( f (x)) , g( f (x0 )) = g ◦ f (x0 ). Also ist g ◦ f injektiv. Es seien beide surjektiv. Sei z ∈ Z. Da g surjektiv ist, gibt es ein y ∈ Y mit g(y) = z. Da f surjektiv ist, gibt es ein x ∈ X mit f (x) = y. Dann folgt g ◦ f (x) = g( f (x)) = g(y) = z. Also ist g ◦ f surjektiv. Insbesondere ist die Komposition bijektiver Abbildungen bijektiv. Eine Abbildung f : X → Y heißt invertierbar, wenn es eine Abbildung g : Y → X gibt mit g ◦ f = IdX und f ◦ g = IdY . Lineare Algebra 1 9 Satz 1.3.4. (a) Sei f eine invertierbare Abbildung. Dann ist die Abbildung g mit f ◦ g = IdY und g ◦ f = IdX eindeutig bestimmt. Wir nennen sie die inverse Abbildung oder Umkehrabbildung und schreiben g = f −1 . (b) Eine Abbildung f : X → Y ist genau dann invertierbar, wenn sie bijektiv ist. Beweis. (a) Wir nehmen an, es gibt eine weitere Abbildung h : Y → X mit h ◦ f = IdX und f ◦ h = IdY . Dann gilt g = g ◦ IdY = g ◦ ( f ◦ h) = (g ◦ f ) ◦ h = IdX ◦ h = h, also g = h wie behauptet. (b) Sei f : X → Y eine Abbildung. Wir müssen zeigen: f invertierbar ⇔ f bijektiv. “⇒” Sei f invertierbar und sei f −1 die Umkehrabbildung. Sind x, x0 ∈ X mit f (x) = f (x0 ), so gilt x = IdX (x) = f −1 ◦ f (x) = f −1 ( f (x)) = f −1 ( f (x0 )) = IdX (x0 ) = x0 , also x = x0 , somit ist f injektiv. Sei ferner y ∈ Y, so gibt es ein x ∈ X, nämlich x = f −1 (y) mit f (x) = f ( f −1 (y)) = y, also ist f auch surjektiv. “⇐” Sei f bijektiv und sei y ∈ Y. Dann existiert ein x ∈ X mit f (x) = y, da f surjektiv ist. Da f obendrein injektiv ist, ist x eindeutig bestimmt. Wir definieren also g(y) = x. Wir machen dies für jedes y ∈ Y und definieren so eine Abbildung g : Y → X, die nach Definition die Gleichung f ◦ g = IdY erfüllt. Sei x ∈ X und sei y = f (x), dann folgt x = g(y) und also g( f (x)) = x und also auch g ◦ f = IdX . 1.4 Produkte und Relationen Das Produkt oder auch das kartesische Produkt X × Y zweier Mengen X und Y ist definiert als die Menge aller Paare (x, y) wobei x ∈ X in y ∈ Y ist. n o n o n o Beispiele 1.4.1. • 1, 2 × 3, 4, 5 = (1, 3), (1, 4), (1, 5), (2, 3), (2, 4), (2, 5) . • Die Menge R × R kann als die Ebene verstanden werden. Lineare Algebra 1 10 Sei X eine Menge. Eine Relation auf X ist eine Teilmenge R ⊂ X × X. Wir schreiben dann x ∼R y oder einfach x ∼ y für (x, y) ∈ R. Beispiele 1.4.2. • X = Menge aller Menschen, x∼y ⇔ x ist Vetter von y • X = R, x∼y ⇔ x≤y • X = Z, x∼y ⇔ x − y ist gerade. Eine Relation ∼ heißt Äquivalenzrelation, falls für x, y, z ∈ X gilt 1. 2. 3. x∼x x∼y ⇒ y∼x x ∼ y, y ∼ z ⇒ x ∼ z Reflexivität Symmetrie Transitivität. Falls ∼ eine Äquivalenzrelation ist und x ∼ y gilt, so sagt man: x ist äquivalent zu y. Beispiele 1.4.3. • Die “Vetternwirtschaft” ist keine Äquivalenzrelation, denn es kann sein, dass x ein Vetter von y ist und y ein Vetter von z, aber x kein Vetter von z. • x ≤ y ist keine Äquivalenzrelation, denn 0 ≤ 1, aber 1 0. • x ∼ y ⇔ x − y ist gerade ist eine Äquivalenzrelation. Sei ∼ eine Äquivalenzrelation auf der Menge X. Für x ∈ X sei def [x] = n o y∈X:y∼x die Äquivalenzklasse von x. Proposition 1.4.4. Ist ∼ eine Äquivalenzrelation auf X, so zerfällt X in paarweise disjunkte Äquivalenzklassen. Ist umgekehrt eine Zerlegung von X in paarweise disjunkte Teilmengen gegeben: [ · X= Xi i∈I Lineare Algebra 1 11 So definiert man eine Äquivalenzrelation ∼ durch x∼y ⇔ x und y liegen in derselben Menge Xi . Man kann also sagen: Eine Äquivalenzrelation auf einer Menge X ist dasselbe wie eine disjunkte Zerlegung von X in Teilmengen. Beweis. Sei ∼ eine Äquivalenzrelation. Wegen der Reflexivität liegt jedes x ∈ X in einer Äquivalenzklasse, nämlich x ∈ [x]. Wir müssen zeigen, dass für x, y ∈ X gilt, dass entweder [x] = [y] oder [x] ∩ [y] = ∅. Dies geht wie folgt: Nimm an, dass [x] ∩ [y] , ∅, dann existiert ein z ∈ X mit z ∼ x und z ∼ y. Dann folgt x ∼ z wegen der Symmetrie. Nach Transitivität folgt dann x ∼ y, wir müssen hieraus folgern, dass [x] = [y] ist. Wir zeigen [x] ⊂ [y] und [y] ⊂ [x]. Sei zunächst u ∈ [x], also u ∼ x. Es gilt x ∼ y und daher nach Transitivität u ∼ y, also u ∈ [y], wir habe also [x] ⊂ [y] gezeigt. Wegen Symmetrie ist aber auch y ∼ x und daher folgt ebenso [y] ⊂ [x]. Die Tatsache, dass jede Zerlegung von X eine Äquivalenzrelation definiert, sei dem Leser zur Übung überlassen. 1.5 Vollständige Induktion Ist A(n) eine Aussage, die für eine natürliche Zahl n Sinn macht, so gilt ⇒ A(n) gilt für jedes n ∈ N. A(n) ⇒ A(n + 1) für jedes n ∈ N A(1) gilt, Beispiel 1.5.1. Für jede natürliche Zahl n gilt 1 + 2 + 3 + ··· + n = n(n + 1) . 2 Beweis. Induktionsanfang: Für n = 1 ist die Behauptung wahr, denn die linke Seite ist 1 1(1+1) und die rechte Seite ist 2 = 22 = 1. Induktionsschritt: n → n + 1 Wir nehmen an, die Behauptung A(n) gilt für n. Wir Lineare Algebra 1 12 rechnen dann 1 + 2 + · · · + n +(n + 1) = | {z } = n(n + 1) +n+1 2 n(n+1) 2 = n2 + n + 2n + 2 (n + 1)(n + 2) = . 2 2 Also haben wir gezeigt, dass aus der Behauptung für n folgt: 1 + 2 + · · · + n + (n + 1) = (n + 1)(n + 2) . 2 Dies ist aber gerade A(n + 1). Es kann auch passieren, dass eine Aussage A(n) erst ab einer bestimmten Zahl richtig ist. Wir zeigen dass an folgendem Beispiel 1.5.2. Für jede natürliche Zahl n ≥ 5 gilt 2n > n2 . Beweis. Induktionsanfang: n = 5. In diesem Fall rechnen wir 2n = 25 = 32 > 25 = n2 . Induktionsschritt: n → n + 1. Es gelte 2n > n2 und es sei n ≥ 5. Wir rechnen 2n+1 = 2 · 2n > 2 · n2 = n2 + n2 = n2 + (n − 1)n + n ≥ n2 + 2n + 1 = (n + 1)2 , |{z} für n≥3 dies ist gerade die Behauptung für n + 1. Es kommt auch vor, dass man im Induktionsschritt nicht nur (n) als Voraussetzung braucht, sondern dass der Induktionsschritt lautet: A(1), . . . A(n) ⇒ A(n + 1). Beispiel 1.5.3. Jede natürliche Zahl n ≥ 2 ist ein Produkt von Primzahlen, lässt sich also schreiben als n = p1 · p2 · · · pk , wobei die Zahlen p1 , . . . , pk Primzahlen sind. Beweis. Induktionsanfang: n = 2. Diese Zahl ist allerdings selbst eine Primzahl, also insbesondere ein Produkt von solchen. Lineare Algebra 1 13 Induktionsschritt: 2, . . . , n → n + 1. Die Behauptung sei wahr für 2, . . . , n. Ist nun n + 1 selbst eine Primzahl, so gilt die Behauptung auch für n + 1. Andernfalls hat n einen n o echten Teiler, sagen wir d. Dann gilt d, n+1 ∈ 2, 3, . . . , n , damit gilt also die Behauptung d n+1 für d und für d , welche damit beide Produkte von Primzahlen sind, also ist auch n+1=d· n+1 d ein Produkt von Primzahlen. Zur Abkürzung führen wir die das Summenzeichen ein: n X a j = a1 + a2 + · · · + an . j=1 Beispiel 1.5.4. Für jede natürliche Zahl n gilt n X (2k − 1) = n2 . k=1 Der Beweis ist eine Übungsaufgabe. Analog zum Summenzeichen haben wir das Produktzeichen n Y a j = a1 · a2 · · · an . j=1 So ist zum Beispiel die Fakultät der Zahl n ∈ N definiert als n! = n Y k = 1 · 2 · · · n. k=1 Proposition 1.5.5. Die Anzahl aller möglichen Anordnungen einer n-elementigen Menge ist n!. n o Beispiele: Alle Anordnungen der 2-elementigen Menge 1, 2 sind (1, 2), (2, 1) Lineare Algebra 1 14 n o also 2 Stück. Alle Anordnungen der 3-elementigen Menge 1, 2, 3 sind (1, 2, 3), (1, 3, 2), (2, 1, 3), (3, 1, 2), (2, 3, 1), (3, 2, 1), also 6 = 3 · 2 · 1 = 3!. Beweis. Wir wollen n-Elemente anordnen. Für die erste Position haben wir die freie Wahl unter allen n-Elementen. Haben wir die erste Position besetzt, so bleibt uns noch die Wahl unter n − 1 Elementen, für die ersten beiden Positionen haben wir also n · (n − 1) verschiedenen Wahlen. Für die dritte Position bleiben (n − 2) viele Wahlmöglichkeiten und so weiter, bis am Ende die letzte Position vorgegeben ist, so dass wir im Endeffekt n · (n − 1) · (n − 2) · · · 1 = n! viele Wahlmöglichkeiten haben. Es seien zwei ganze Zahlen 0 ≤ k ≤ n gegeben. Wir definieren den Binomialkoeffizienten nk durch ! Anzahl der k-elementigen Teilmengen n = k einer n-elementigen Menge Beispiele 1.5.6. • Ist k = 0 und n beliebig, so ist die leere Menge. n k = 1, denn man fischt immer nur n o • Ist k = 1, und n ≥ 1 beliebig, so ist nk = n, denn die Menge 1, . . . , n hat genau n o n o n o die 1-elementigen Teilmengen 1 , 2 , . . . , n . n(n−1) • Es gilt n2 = 2 , denn, suchen wir eine 2-elementige Teilmenge, so haben wir für das erste Element n-Wahlmöglichkeiten und für das zweite n − 1. Dann haben wir aber jede Teilmenge doppelt gezählt, weil ja beide mögliche Reihenfolgen auftreten. Proposition 1.5.7. Für 0 ≤ k ≤ n gilt ! n · (n − 1) · · · (n − k + 1) n n! = = . k k!(n − k)! k! Beweis. Wir wählen k Elemente aus n aus. Wählen wir zunächst mit Reihenfolge. Für das erste Element haben wir n Wahlmöglichkeiten, für das zweite n − 1 und so weiter, so dass wir insgesamt n · (n − 1) · · · (n − k + 1) Möglichkeiten haben. Jetzt treten aber alle möglichen Reihenfolgen der k Elemente auf, also müssen wir das Ergebnis noch durch k! dividieren. Lineare Algebra 1 15 Satz 1.5.8. Es gilt stets ! ! ! n−1 n−1 n = + , k−1 k k wobei n−1 k = 0 setzen, falls k > n − 1. n o Beweis. Sei A die Menge der k-elementigen Teilmengen der Menge 1, 2, 3, . . . , n . Dann gilt |A| = nk , wobei |A| die Anzahl der Elemente der Menge A bezeichnet. Sei A1 die Menge aller Teilmengen, die das Element 1 enthalten und sei A2 die Menge aller Teilmengen, die die 1 nicht enthalten. Dann ist A die disjunkte Vereinigung von A1 und A2 und daher folgt |A| = |A1 | + |A2 |. Es ist nun ! Anzahl der k − 1-elementigen Teilmengen n−1 n o |A1 | = = . k−1 von 2, 3, . . . , n Ebenso gilt ! Anzahl der k-elementigen Teilmengen n−1 n o |A2 | = = . k von 2, 3, . . . , n Zusammen folgt die Behauptung. Man verdeutlicht dieses Gesetz durch das sogenannte Pascalsche Dreieck: 1 1 1 1 1 1 2 3 4 1 3 6 1 4 1 Satz 1.5.9 (Binomischer Lehrsatz). Für jedes n ≥ 0 gilt ! n X n k n−k (x + y) = xy . k n k=0 n=0 1 2 3 5 Lineare Algebra 1 16 Insbesondere für y = 1 erhalten wir ! n X n k x. (x + 1) = k n k=0 Dieser Satz ist der Grund, warum die Zahlen n k die Binomialkoeffizienten heißen. Beweis. Induktion nach n. Für n = 0 ist nichts zu zeigen. Induktionsschritt n → n + 1: Wir rechnen (x + y) n+1 ! n X n k n−k = (x + y)(x + y) = (x + y) xy k k=0 ! ! n n X X n k+1 n−k n k n+1−k = x y + xy k k k=0 k=0 ! ! n+1 n X X n n k n+1−k k n+1−k = xy + xy k−1 k k=1 k=0 ! n+1 X n+1 = xk yn+1−k . k n k=0 Damit folgt die Behauptung. Folgerungen: ! n X n = 2n , k k=0 ! n X n (−1)k = 0. k k=0 Satz 1.5.10 (Geometrische Reihe). Für jedes n ∈ N gilt n X k=0 xk = 1 − xn+1 1−x Lineare Algebra 1 17 Beweis. Man kann diesen Satz durch Induktion nach n beweisen. Wir machen es aber anders, wir rechnen (1 − x) n X k=0 x = k n X k=0 k x − n X k=0 k+1 x = n X k=0 Nach Division durch (1 − x) folgt die Behauptung. k x − n+1 X xk = 1 − xn+1 . k=1 Lineare Algebra 1 2 18 Gruppen und Körper 2.1 Gruppen Sei M eine Menge. Eine Verknüpfung auf M ist eine Abbildung: M × M → M. Beispiele 2.1.1. • Addition und Multiplikation auf N sind Verknüpfungen: (m, n) 7→ m + n; N × N → N, sowie N × N → N, (m, n) 7→ mn. • Hintereinanderausführung von Permutationen: Per(M) × Per(M) → Per(M), (α, β) 7→ α ◦ β ist eine Verknüpfung. • Sei M = Q, R, so definiert das arithmetische Mittel a∗b= a+b 2 eine Verknüpfung auf M. Definition 2.1.2. Eine Gruppe ist eine Menge G mit einer Verknüpfung G × G → G, geschrieben als (a, b) 7→ ab, so dass für alle a, b, c ∈ G folgende Axiome erfüllt sind: • Assoziativgesetz a(bc) = (ab)c, • neutrales Element: es gibt ein e ∈ G mit ae = a, • inverses Element: zu jedem a ∈ G gibt es ein a0 ∈ G mit aa0 = e. Lineare Algebra 1 19 Beispiele 2.1.3. • Die Menge N ist mit der Addition keine Gruppe, denn sie enthält kein neutrales Element. • Die Menge der ganzen Zahlen: n o Z = . . . , −2, −1, 0, 1, 2, . . . ist eine Gruppe mit der Addition, denn die Null ist ein neutrales Element und das Inverse zu k ∈ Z ist −k ∈ Z. Ebenso sind (Q, +) und (R, +) Gruppen. n o • Die Menge Q× = Q r 0 , so ist G mit der Multiplikation eine Gruppe, ebenso n o R× = R r 0 • Die Menge R ist mit dem arithmetischen Mittel keine Gruppe, denn diese Verknuepfung ist nicht assoziativ. Es ist ! a+b c a b c a+b ∗c= + = + + (a ∗ b) ∗ c = 2 4 2 4 4 2 im Allgemeinen verschieden von ! a b c b+c = + + . a ∗ (b ∗ c) = a ∗ 2 2 4 4 • Ist M eine Menge, dann ist die Menge G = Per(M) aller Permutationen auf M mit der Hintereinanderausführung als Verknüpfung eine Gruppe. Das neutrale Element ist die identische Abbildung Id : M → M und die Inverse zu f ∈ Per(M) ist ihre Umkehrabbildung f −1 . Proposition 2.1.4. Sei G eine Gruppe. (a) Das neutrale Element e ist eindeutig bestimmt. (b) Das neutrale Element e erfüllt auch ea = a für jedes a ∈ G. (c) Zu gegebenem a ∈ G ist das inverse Element a0 eindeutig bestimmt. (d) Das Inverse a0 zu a erfüllt auch a0 a = e. Beweis. Wir beginnen mit der letzten Aussage (d). Ist a0 ein Rechtsinverses zu a und ist Lineare Algebra 1 20 a00 ein Rechtsinverses zu a0 , dann gilt a0 a = (a0 a)e neutrales Element = (a0 a)(a0 a00 ) inverses Element = (a0 (aa0 ))a00 Assoziativgesetz, mehrfach = (a0 e)a00 inverses Element = a0 a00 neutrales Element =e inverses Element Damit ist (d) bewiesen. Nun beweisen wir (b) unter Benutzung von (d). Es gilt ea = (aa0 )a inverses Element = a(a0 a) Assoziativgesetz = ae =a nach (d) neutrales Element Dies benutzen wir nun, um (a) zu zeigen. Sei e2 ein weiteres neutrales Element. Dann gilt e2 = ee2 =e nach (b) da e2 neutral Jetzt fehlt noch (c). Sei also a2 ein weiteres Inverses zu a. Dann gilt a2 = ea2 nach (b) = (a0 a)a2 nach (d) = a0 (aa2 ) Assoziativgesetz = a0 e da a2 invers zu a = a0 neutrales Element Damit ist die Proposition vollständig bewiesen. Da das inverse Element a0 zu a nun eindeutig bestimmt ist, schreiben wir a−1 für a0 . Korollar 2.1.5. Sei G eine Gruppe, dann gilt für alle a, b, x, y ∈ G, Lineare Algebra 1 21 (a) (a−1 )−1 = a, (b) (ab)−1 = b−1 a−1 , (c) ax = ay ⇒ x = y. Beweis. Es gilt a−1 a = e, also ist a ein Inverses zu a−1 und (a) folgt aus der Eindeutigkeit des Inversen. (b) Es gilt (b−1 a−1 )(ab) = b−1 (a−1 a)b = (b−1 e)b = b−1 b = e. (c) Multipliziere beide Seiten der Gleichung mit a−1 . Definition 2.1.6. Sei G eine Gruppe. Eine Teilmenge H ⊂ G heißt Untergruppe, falls H mit der Verknüpfung von G selbst wieder eine Gruppe ist. Lemma 2.1.7. Sei H eine Untergruppe der Gruppe G. (a) Das neutrale Element e von G liegt in H und ist das neutrale Element von H. (b) Ist h ∈ H, so liegt das Inverse h−1 zu h in H und ist das Inverse bzgl H Eine nichtleere Teilmenge H ⊂ G ist genau dann eine Untergruppe, wenn a, b ∈ H ⇒ ab−1 ∈ H gilt. Beweis. Sei eH das neutrale Element von H und e das von G. Dann gilt in G die Identität e = eH e−1 = (eH eH )e−1 = eH (eH e−1 ) = eH e = eH und (a) ist bewiesen. H H H (b) Sei h ∈ H und sei h0 das Inverse bezüglich H. Dann gilt hh0 = eh = e und damit ist h0 = h−1 das Inverse in G. Nun zur letzten Aussage. Ist H eine Untergruppe und sind a, b ∈ H, so folgt nach (b), dass b−1 ∈ H und damit ab−1 ∈ H. Sei umgekehrt H eine nichtleere Teilmenge, die der Bedingung des Lemmas genügt. Sei h ∈ H ein Element, dann ist e = hh−1 ∈ H, also enthält H das neutrale Element. Wir zeigen nun, dass H zu jedem Element h auch sein Inverses h−1 enthält. Hierzu schreibe h−1 = eh−1 ∈ H. Seien nun a, b ∈ H, dann liegt b−1 ∈ H und es gilt ab = a(b−1 )−1 ∈ H, also ist H abgeschlossen unter der Multiplikation. Zusammen folgt, dass H eine Untergruppe ist. Lineare Algebra 1 22 Definition 2.1.8. Eine Gruppe G heißt kommutativ oder abelsche Gruppe, falls für alle a, b ∈ G gilt ab = ba. Beispiele 2.1.9. • Die Gruppen (Z, +), (Q, +), (R, +), (Q× , ×), (R× , ×) sind abelsch. • Ist M eine Menge mit mehr als zwei Elementen, dann ist Per(M) nicht abelsch. n o Dies zeigen wir exemplarisch an dem Beispiel der Menge M = 1, 2, 3 . Seien Dann ist 1 2 3 , α = 2 1 3 1 2 3 . β = 1 3 2 1 2 3 , αβ = 2 3 1 1 2 3 . βα = 3 1 2 Beispiel 2.1.10. Sei m ∈ N eine natürliche Zahl. Auf der Menge n o Z/m = 0, 1, . . . , m − 1 definieren wir eine Addition durch a b = Rest von a + b bei Division nach m. Dann ist Z/m eine Gruppe. Das neutrale Element ist die Null und das Inverse zu a ist m − a, wenn a , 0. n o Für m = 1 ist Z/m = 0 die triviale Gruppe. n o Für m = 2 ist Z/m = 0, 1 und es gilt 1 1 = 0. Für m = 3 geben wir die Addition durch folgende Tabelle an: 2.2 0 1 2 0 1 2 1 2 0 2 0 1 0 1 2 Körper Definition 2.2.1. Ein Körper ist ein Tripel (K, +, ×) bestehend aus einer Menge K und zwei Verknüpfungen + und ×, wobei wir a × b als ab schreiben, so dass die folgenden Lineare Algebra 1 23 Axiome erfüllt sind: • (K, +) ist eine abelsche Gruppe. Wir schreiben das neutrale Element dieser Gruppe als 0 = 0K und nennen es das Nullelement. • (K r {0}, ×) ist eine abelsche Gruppe. Wir schreiben das neutrale Element als 1 = 1K und nennen es das Einselement. • Es gilt das Distributivgesetz: für alle a, b, c ∈ K gilt a(b + c) = ab + ac. Beispiele 2.2.2. • (Z, +, ×) ist kein Körper, da nicht jedes Element x , 0 ein multiplikatives Inverses besitzt, so gibt es zum Beispiel kein Inverses für x = 2. • (Q, +, ×) ist ein Körper und R ebenso. n o • Auf der Menge F2 = 0, 1 definieren wir Addition und Multiplikation durch + 0 1 × 0 1 0 1 1 0 0 1 0 1 0 1 0 0 Dann ist F2 ein Koerper. • Allgemeiner sei p eine Primzahl. Auf der Gruppe Fp = Z/p erklären wir Addition wie gehabt und die Mutiplikation durch a b = Rest von ab bei Division durch p. Dann ist (Fp , , ) ein Körper. Für F3 sind die Verknüpfungstabellen: + 0 1 2 × 0 1 2 0 1 2 1 2 0 2 0 1 0 1 2 0 1 2 0 2 1 0 1 2 0 0 0 Schreibweise: Wir schreiben −a für das additive Inverse zu a und a − b für a + (−b). Lineare Algebra 1 24 Satz 2.2.3. Sei K ein Körper. Dann gilt für alle a, b, c ∈ K: (a) 0 , 1, (b) 0 · a = 0 (c) ab = 0 a = 0 oder b = 0, ⇒ (d) a(−b) = −ab = (−a)b, (e) ab = ac, a , 0 ⇒ Nullteilerfreiheit (−a)(−b) = ab, b = c, (f) a(b − c) = ab − ac. n o Beweis. (a) Das Element 1 ist das neutrale Element von K× = K r 0 , also ist 1 , 0. (b) Für a ∈ K gilt 0a = (0 + 0)a = 0a + 0a. Nun addiere −0a auf beiden Seiten. (c) Ist a, b ∈ K× , so auch ab. (d) Es gilt ab + a(−b) = a(b − b) = a0 = 0. Also folgt wegen der Eindeutigkeit der Inversen, dass a(−b) = −ab. Der Rest geht ähnlich. (f) a(b − c) = a(b + (−c)) = ab + a(−c) = ab − ac. (e) Es gelte ab = ac mit a , 0. Dann hat a ein multiplikatives Inverses a−1 . Multipliziere beide Seiten der Gleichung mit a−1 und erhalte b = c. Definition 2.2.4. Sei K ein Körper. Die Zahl n o min n ∈ N : n · 1 = 0 , K K char(K) = 0 falls endlich, sonst, heißt die Charakteristik des Körpers K. Beispiele 2.2.5. • Die Charakteristik von Fp ist p. • Die Charakteristik von Q oder R ist 0. Bemerkung. Ist die Charakteristik des Körpers K gleich Null, dann ist die Abbildung N → K, n 7→ n · 1K injektiv. Also kann man in diesem Fall N als Teilmenge von K auffassen. Lineare Algebra 1 2.3 25 Die Körper Q, R und C Die Menge der rationalen Zahlen Q reicht nicht aus, um die Welt zu beschreiben. So hat etwa seit Pythagoras ein quadratischer Tisch der Kantenlaenge 1 eine √ Diagonallaenge von 2. Diese ist aber keine rationale Zahl. Proposition 2.3.1. Es gibt keine rationale Zahl r mit r2 = 2. Beweis. Angenommen doch, etwa r = p q mit teilerfremden p und q. Dann folgt p2 2 = r2 = q2 , also p2 = 2q2 . Damit ist p2 eine gerade Zahl und folglich ist auch p gerade, etwa p = 2k mit k ∈ Z. Es folgt 2q2 = (2k)2 = 4k2 , also q2 = 2k2 . Damit ist auch q eine gerade Zahl, was der angenommenen Teilerfremdheit widerspricht! Da die rationalen Zahlen also zur Erfassung der Welt nicht ausreichen, führt man die √ reellen Zahlen ein, in denen es unter anderem auch eine Zahl r = 2 gibt, deren Quadrat die Zahl 2 ist. In der Schule versteht man unter der Menge der reellen Zahlen die Menge aller Dezimalzahlen mit eventuell unendlich vielen Nachkommastellen, also zum Beipiel π = 3, 141592653589793... oder √ 2 = 1, 414213562373095... Es gibt auch Dezimalzahlen mit Ziffern, die sich endlos wiederholen. Dies deutet man üblicherweise durch einen Balken über den Ziffern an, also ist etwa 0, 123 dasselbe wie 0, 123123123 . . . . Es gibt allerdings Probleme mit der Dezimaldarstellung, da sie nicht eindeutig ist, so ist etwa 0, 99999... = 0, 9 dasselbe wie 1. Dieses Problem kann ausgeräumt werden, indem man nur solche Zahlen betrachtet, die nicht in einer 9-er Periode enden. Definition 2.3.2. Eine Dezimalzahl ist ein Ausdruck der Form ±aN . . . a1 , b1 b2 . . . wobei N ∈ N ist und a j , b j ∈ {0, . . . , 9} gilt. Ferner soll aN , 0 oder N = 1 sein. Eine Dezimalzahl heißt regulär, wenn sie nicht in einer 9-er Periode endet, d.h., wenn es zu jedem k ∈ N ein j > k gibt, so dass b j , 9 gilt. Die Menge R der reellen Zahlen wird definiert als die Menge aller regulären Dezimalzahlen. Lineare Algebra 1 26 Jede ganze Zahl k ∈ Z lässt sich auf genau eine Weise als Dezimalzahl k = ±aN . . . a1 , 0 = ± N X a j 10 j j=1 schreiben. Die Menge der Dezimalzahlen kann demzufolge mit der Menge Z × {0, . . . , 9}N identifiziert werden, wobei {0, . . . , 9}N die Menge aller Abbildungen von N nach {0, . . . , 9} ist. Die Menge R ist dann die Menge der regulären Elemente von Z × {0, . . . , 9}N . Durch schriftliche Division sieht man, dass sich jede rationale Zahl als Dezimalzahl schreiben lässt, etwa 14 = 0, 25 oder 13 = 0, 3. Diese Darstellung kann stets regulär gewählt werden. Satz 2.3.3. Eine reelle Zahl x liegt genau dann in Q, wenn sie am Ende periodisch ist, wenn x also von der Form x = ±aN . . . a1 , b1 . . . bk c1 . . . cl ist. Beweis. Sei x ∈ R. Es ist zu zeigen x∈Q ⇔ x = ±aN . . . a1 , b1 . . . bk c1 . . . cl . “⇒” Dies folgt aus dem Algorithmus der schriftlichen Division, den man in der Schule lernt, denn man erhält bei Division durch eine natürliche Zahl d eine Periode, sobald derselbe Rest bei den Nachkommastellen ein zweites Mal auftritt. Da die möglichen Reste aber nur die endlich vielen Zahlen 0, 1, . . . , d − 1 sind, muss irgendwann ein Rest zweimal auftreten. Man sieht das sehr schön, wenn man mal zum Beispiel 1 : 7 = 0, 142857 ausrechnet. “⇐” Sei x = ±aN . . . a1 , b1 . . . bk c1 . . . cl , wobei l ∈ N ist. Da x genau dann rational ist, Lineare Algebra 1 27 wenn −x rational ist, kann x ≥ 0 angenommen werden, also x = aN . . . a1 , b1 . . . bk c1 . . . cl . Dann ist 10k x = aN . . . a1 b1 . . . bk , c1 . . . cl . Sei n die Dezimalzahl aN . . . a1 b1 . . . bk ∈ N0 und sei y = 10k x − n, d.h. y = 0, c1 . . . cl . Dann ist aber def p = 10l y − y = c1 . . . cl ∈ N0 und es gilt daher y = p 10l −1 ∈ Q. Dann ist aber auch x = y−n 10k in Q. Der Koerper C Auf der Menge R2 führen wir folgende Verknüpfungen ein: Addition: (x, y) + (x0 , y0 ) = (x + x0 , y + y0 ) und Multiplikation: (x, y)(x0 , y0 ) = (xx0 − yy0 , xy0 + x0 y). Lemma 2.3.4. Mit diesen Verknüpfungen ist die Menge R2 ein Körper. Das Nullelement ist (0, 0) und das Einselement ist (1, 0). Das additive Inverse zu (a, b) ist (−a, −b) und das −b a , multiplikative Inverse zu (a, b) , 0 ist a2 +b 2 a2 +b2 . Beweis. Das muss man im Einzelnen nachrechnen, was langwierig ist, aber nicht schwierig. Als Beispiel rechnen wir die Assoziativität der Multiplikation. Seien also (x, y), (a, b), (u, v) ∈ R2 , dann gilt ((a, b)(u, v))(x, y) = (au − bv, av + bu)(x, y) = (aux − bvx − avy − buy, auy − bvy + avx + bux). Andererseits ist (a, b)((u, v)(x, y)) = (a, b)(ux − vy, uy + vx) = (aux − avy − buy − bvx, auy + avx + bux − bvy). Wir nennen die Menge R2 mit diesen Verknüpfungen die Menge der komplexen Lineare Algebra 1 28 Zahlen, geschrieben C und setzen 1C = (1, 0), i = (0, 1). Jede komplexe Zahl lässt sich eindeutig schreiben als z = a1C + bi mit a, b ∈ R. Die Abbildung a 7→ a1C identifiziert R mit einer Teilmenge von C. Es gilt i2 = −1. Man definiert den Realteil einer komplexen Zahl z = x + yi als Re(z) = x und den Imaginärteil als Im(z) = y. Es gilt dann also z = Re(z) + Im(z)i. Für z = x + yi definieren wir die komplex konjugierte zu z als z = x − yi. Es folgt unmittelbar 1 Re(z) = (z + z), 2 Im(z) = 1 (z − z). 2i Lemma 2.3.5. Für z, w ∈ C gilt (a) z = z, (b) z + w = z + w, (c) (zw) = z w. Beweis. Teil (a) und (b) sind trivial. Für (c) sei z = x + yi und w = u + vi, dann ist zw = (x + yi)(u + vi) = xu − yv + (xv + yu)i = xu − yv − (xv + yu)i = (x − yi)(u − vi) = z w. Definition 2.3.6. [Betrag einer komplexen Zahl] Für z = x + yi gilt zz = (x + yi)(x − yi) = x2 + y2 Lineare Algebra 1 29 und diese reelle Zahl ist ≥ 0. Wir definieren den Betrag einer komplexen Zahl z als √ |z| = zz. Satz 2.3.7. Für z, w ∈ C gilt (a) |z| ≥ 0 und |z| = 0 ⇔ z = 0, Definitheit (b) |zw| = |z||w|, Multiplikativität (c) |z + w| ≤ |z| + |w|. Dreiecksungleichung Beweis. Teil (a) ist klar. Für Teil (b) rechne √ |zw| = √ zwzw = √ zzww = √ zz ww = |z||w|. Schliesslich beweisen wir (c) |z + w|2 = (z + w)(z + w) = zz + ww + zw + wz . | {z } =2 Re(zw) Für jede komplexe Zahl w = u + vi gilt | Re(w)| ≤ |w|, also folgt |z + w|2 = |zz + ww + 2 Re(zw)| ≤ zz + ww + 2| Re(zw)| ≤ zz + ww + 2|z||w| = (|z| + |w|)2 . Durch Wurzelziehen folgt die Behauptung. Die folgenden Bilder verdeutlichen die Addition und Multiplikation in C. Lineare Algebra 1 30 z+w w z zw w z Hierbei ist der Winkel von zw die Summe der Winkel von z und w und die Länge ist das Produkt der Längen. 2.4 Polynome Sei K ein Körper. Der Polynomring K[x] ist die Menge der formalen Ausdrücke der Form a0 + a1 x + a2 x2 + · · · + an xn Lineare Algebra 1 31 mit n ∈ N und a0 , . . . , an ∈ K. Man hat eine Addition: (a0 + a1 x + a2 x2 + · · · + an xn ) + (b0 + b1 x + b2 x2 + · · · + bn xn ) = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn , wobei man bei verschiedenem Grad ein Polynom durch Nullen auffüllt. Ferner hat man eine Multiplikation (a0 + a1 x + a2 x2 + · · · + am xm )(b0 + b1 x + b2 x2 + · · · + bn xn ) X ak bl xp + . . . = a0 b0 + (a1 b0 + a0 b1 )x + · · · + k+l=p Präziser definieren wir den Polynomring als Menge aller Folgen (a0 , a1 , a2 , . . . ) in K mit der Eigenschaft, dass es ein j0 ∈ N gibt mit a j = 0 für j ≥ j0 . Wir definieren die Addition durch (a0 , a1 , a2 , . . . ) + (b0 , b1 , b2 , . . . ) = (a0 + b0 , a1 + b1 , . . . ) und die Multiplikation durch (a0 , a1 , a2 , . . . )(b0 , b1 , b2 , . . . ) = (c0 , c1 , c2 , . . . ) mit cp = P i+j=p a j bi . Beispiel 2.4.1. Sei K = F2 , dann gilt für jedes t ∈ K, dass 1 + t = 1 + t2 , aber die Polynome 1 + x und 1 + x2 sind verschiedene Elemente in F2 [x]. Man kann also K[x] nicht mit der Menge der polynomialen Abbildungen K → K identifizieren! Definition 2.4.2. Für ein Polynom f (x) = a0 + a1 x + · · · + an xn , das nicht gerade Null ist, sei der Grad von f das größte k ∈ N0 mit ak , 0. Man erweitert diese Definition durch grad(0) = −∞. Lineare Algebra 1 32 Dann gilt für beliebige Polynome f (x), g(x), dass grad( f g) = grad( f ) + grad(g), grad( f + g) ≤ max grad( f ), grad(g) , wenn man formal −∞ + n = n + (−∞) = −∞ rechnet. Satz 2.4.3 (Division mit Rest). Sind f, g ∈ K[x] und ist g , 0, so gibt es eindeutig bestimmte Polynome q, r ∈ K[x] so dass f = qg + r und grad(r) < grad(g). Beweis. Existenz: Wir geben ein Verfahren zur Berechnung an. Schreibe f (x) = an xn + · · · + a0 g(x) = bm xm + · · · + b0 mit an , 0 und bm , 0. Ist n < m, so setze r = f und q = 0, denn dann ist ja f = qg + r und grad(r) < grad(g). Ist hingegen n ≥ m, so setze q1 = bamn xn−m und f1 = f − q1 g. Dann folgt grad( f1 ) < grad( f ). Ersetze nun f durch f1 und wiederhole diesen Vorgang bis der Grad kleiner wird als grad(g). Nun zur Eindeutigkeit: Seien q0 , r0 ∈ K[x] zwei weitere Polynome mit f = q0 g + r0 und grad(r) < grad(g). Dann gilt 0 = f − f = (q − q0 )g + (r − r0 ). Also gilt (q − q0 )g = (r0 − r) und damit grad(q − q0 ) + grad(g) = grad(r0 − r) ≤ max(grad(r0 ), grad(r)) < grad(g). Daraus folgt grad(q − q0 ) < 0, also grad(q − q0 ) = −∞ und damit q = q0 , woraus auch Lineare Algebra 1 33 r = r0 folgt. Beispiel 2.4.4. Sei K = Q und f (x) = 3x3 + 2x + 1, sowie g(x) = x2 + 4x. Dann ist q(x) = 3x − 12 und r(x) = 50x + 1. Sei f ∈ K[x], etwa f (x) = a0 + a1 x + · · · + an xn . Für λ ∈ K setze f (λ) = a0 + a1 λ + a2 λ2 + · · · + an λn ∈ K. So definiert f eine polynomiale Abbildung K → K. Ein λ ∈ K mit f (λ) = 0 heißt Nullstelle des Polynoms f . Proposition 2.4.5. Ist λ ∈ K eine Nullstelle von f ∈ K[x], f , 0, dann existiert ein g(x) ∈ K[x] und ein p ∈ N mit f (x) = (x − λ)p g(x) und g(λ) , 0. Es folgt dann grad(g) = grad( f ) − p. Die Zahl p heißt die Vielfachheit der Nullstelle λ von f . Beweis. Nach Polynomdivision existiert g1 (x) und r(x) mit f (x) = (x − λ)g1 (x) + r(x) und grad(r) < grad(x − λ) = 1. Daher ist r(x) konstant. Aber wegen 0 = f (λ) = (λ − λ)g(λ) + r = r ist r = 0 und wir erhalten f (x) = (x − λ)g1 (x). Ist nun g1 (λ) , 0, setzen wir p = 1 und g = g1 . Andernfalls wiederholen wir den Schritt mit g1 und der Stelle von f , so lange, bis wir auf ein Polynom g mit g(λ) , 0 stossen. Korollar 2.4.6. Ist f ∈ K[x], f , 0 und ist k die Anzahl der Nullstellen von f . Dann gilt k ≤ grad( f ). Beweis. Sind λ1 , . . . , λk die verschiedenen Nullstellen von f , dann gilt f (x) = (x − λ1 )g1 (x) Lineare Algebra 1 34 für ein g1 ∈ K[x], g1 , 0. Dann ist 0 = f (λ2 ) = (λ2 − λ1 ) g1 (λ2 ) | {z } ,0 und also g1 (λ2 ) = 0. Daher gibt es ein g2 (x) , 0 mit g1 (x) = (x − λ2 )g2 (x) und daher f (x) = (x − λ1 )(x − λ2 )g2 (x). Wir wiederholen dies Argument bis zu f (x) = (x − λ1 )(x − λ2 ) · · · (x − λk )gk (x), mit gk , 0, was soviel heisst wie grad(gk ) ≥ 0. Daher ist grad( f ) = k + grad(gk ) ≥ k. Definition 2.4.7. Sei f ∈ K[x], f , 0 und λ ∈ K. Dann heißt n o µ( f, λ) = max n ∈ N : ∃ g∈K[x] f (x) = (x − λ)n g(x) die Vielfachheit der Nullstelle λ. Es ist µ( f, λ) = 0 falls λ gar keine Nullstelle ist. Sind λ1 , . . . , λk die verschiedenen Nullstellen von f und m j = µ( f, λ j ) die Vielfachheiten, dann gilt f (x) = (a − λ1 )m1 · · · (x − λk )mk g(x) für ein Polynom g, das keine Nullstelle hat. Beispiel 2.4.8. Das Polynom g(x) = 1 + x2 hat in K = R keine Nullstelle. Satz 2.4.9. Sei Φ : K[x] → Abb(K, K) die Abbildung, die einem Polynom die entsprechende Polynomiale Abbildung zuordnet, also Φ(a0 + a1 x + · · · + an xn )(α) = a0 + a1 α + · · · + an αn , verkürzt geschrieben als Φ( f )(α) = f (α), Lineare Algebra 1 35 oder, in der anderen Schreibweise, Φ(a0 , a1 , a2 , . . . )(α) = a0 + a1 α + a2 α2 + . . . Ist dann K ein unendlicher Körper, dann ist Φ injektiv. Beweis. Sei K unendlich und sei Φ( f ) = Φ(g). Wir müssen zeigen, dass f = g gilt. Für α ∈ K gilt Φ( f − g)(α) = f (α) − g(α) = Φ( f )(α) − Φ(g)(α) = 0. Das heißt, das Polynom h = f − g hat unendlich viele Nullstellen. Nach Korollar 2.4.6 muss es das Nullpolynom sein, also f − g = 0 oder f = g. Definition 2.4.10. Ein Koerper K heisst algebraisch abgeschlossen, falls jedes nichtkonstante Polynom f (x) ∈ K[x] eine Nullstelle hat. Beispiele 2.4.11. • K = Q ist nicht algebraisch abgeschlossen, weil f (x) = x2 − 2 keine Nullstelle hat. • K = R ist nicht algebraisch abgeschlossen, weil x2 + 1 keine Nullstelle hat. • Der Fundamentalsatz der Algebra besagt, dass der Körper C algebraisch abgeschlossen ist. • Man beweist in der Algebra, dass es zu jedem Körper K einen Erweiterungskörper K ⊃ K gibt, der algebraisch abgeschlossen ist. Jeder algebraisch abgeschlossene Körper hat unendlich viele Elemente. Lineare Algebra 1 3 36 Vektorräume 3.1 Räume und Unterräume Sei K ein Körper. Ein Vektorraum über K ist eine abelsche Gruppe (V, +) zusammen mit einer Abbildung K × V → V, (λ, v) 7→ λv, so dass für alle v, w ∈ V und alle λ, µ ∈ K gilt: (a) 1 · v = v, (b) (λµ)v = λ(µv) (c) (λ + µ)v = λv + µv, λ(v + w) = λv + λw. Beispiele 3.1.1. • Sei Kn = K × · · · × K die Menge der n-tupel (x1 , . . . , xn ) von Elementen von K. Aus Gründen, die später klar werden, schreiben wir die Elemente von Kn als Spalten: Kn = Die Addition : x1 , . . . , xn ∈ K xn x1 .. . + xn x1 .. . x1 + y1 .. = . yn xn + yn y1 .. . macht Kn zu einer abelschen Gruppe. Die skalare Multiplikation ist erklärt durch λ λx1 .. = . xn λxn x1 .. . für λ ∈ K. • Sei S irgendeine Menge mit S , ∅. Sei V = Abb(S, K) die Menge aller Lineare Algebra 1 37 Abbildungen f : S → K. Durch die Addition ( f + g)(s) = f (s) + g(s) wird V eine abelsche Gruppe und die Vorschrift (λ f )(s) = λ( f (s)) macht V zu einem Vektorraum. Beweis. Die Nullfunktion f0 (s) = 0 ist ein neutrales Element für die Addition, denn für jedes f ∈ V gilt ( f + f0 )(s) = f (s) + f0 (s) = f (s) + 0 = f (s). Die anderen Gruppeneigenschaften rechnet man ebenso nach. Wir zeigen noch die Vektorraumaxiome. Es gilt (1 · f )(s) = 1 · f (s) = f (s), für jedes s ∈ S, also 1 · f = f . Ferner ist für λ, µ ∈ K und f ∈ V, ((λµ) f )(s) = (λµ)( f (s)) = λ(µ( f (s)) = λ((µ f )(s)) = (λ(µ f ))(s). Schliesslich ist ((λ + µ) f )(s) = (λ + µ)( f (s)) = λ( f (s)) + µ( f (s)) = (λ f )(s) + (µ f )(s) = (λ f + µ f )(s). Und ebenso λ( f + g) = λ f + λg. Sei V ein Vektorraum. Eine Teilmenge U ⊂ V heißt Unterraum oder Untervektorraum, wenn U mit der Addition und der Skalarmultiplikation von V selbst ein Vektorraum ist. Proposition 3.1.2. Sei V ein K-Vektorraum. Eine nichtleere Teilmenge U ⊂ V ist genau dann ein Unterraum, wenn gilt (a) u, v ∈ U ⇒ (b) u ∈ U, λ ∈ K u + v ∈ U, ⇒ λu ∈ U. Lineare Algebra 1 38 Beweis. “⇒” Wenn U ein Unterraum ist, sind (a) und (b) offensichtlich erfüllt. “⇐” Sei U nichtleer mit (a) und (b). Nach (a) definiert + eine Verknüpfung auf U. Wir zeigen, dass (U, +) eine abelsche Gruppe ist. Assoziativgesetz (a + b) + c = a + (b + c) und Kummutativgesetz a + b = b + a sind klar, denn die sind in V erfüllt. Da U nichtleer ist, gibt es ein u0 ∈ U. Mit (b) folgt, dass (−1)u0 ∈ U und daher ist 0 = u0 + (−1)u0 ∈ U, also hat U ein neutrales Element. Für u ∈ U ist (−1)u ∈ U ein Inverses und die Behauptung ist gezeigt. Die verbleibenden Axiome gelten in U, da sie in V gelten. Beispiel 3.1.3. Sei S eine Menge und sei V = Abb(S, K). Fixiere ein s0 ∈ S und setze n o U = f ∈ V : f (s0 ) = 0 . Dann ist U ein Unterraum von V. Beweis. U ist nichtleer, da die Nullabbildung in U liegt. (a) Seien f, g ∈ U, so gilt ( f + g)(s0 ) = f (s0 ) + g(s0 ) = 0 + 0 = 0, also gilt f + g ∈ U. (b) Sei f ∈ U und λ ∈ K, so gilt (λ f )(s0 ) = λ( f (s0 )) = λ · 0 = 0. Also ist λ f ∈ U. Definition 3.1.4. Ist I irgendeine Indexmenge und ist für jedes i ∈ I eine Menge Ai gegeben, so definieren wir die Schnittmenge \ Ai i∈I als die Menge aller x, die in jeder der Mengen Ai liegen. Das heisst: x∈ \ Ai ⇔ x ∈ Ai fuer jedes i ∈ I. i∈I Proposition 3.1.5. Sind U, W Unterräume von V, so ist U ∩ W ein Unterraum. Lineare Algebra 1 39 Allgemeiner gilt: Ist I eine Indexmenge und ist für jedes i ∈ I ein Unterraum Ui gegeben, so ist U= \ Ui i∈I ein Unterraum von V. Beweis. Wir zeigen nur die zweite, allgemeinere Aussage. Zunächst ist U , ∅, da die Null in jedem Ui und damit in U liegt. Seien u, v ∈ U. Dann gilt u, v ∈ Ui für jedes i ∈ I. Also ist u + v ∈ Ui für jedes i ∈ I und daher ist u + v ∈ U. Ist λ ∈ K und u ∈ U, so sieht man ebenso, dass λu ∈ U ist. 3.2 Summen und direkte Summen Definition 3.2.1. Sei V ein K-Vektorraum und seien U, W ⊂ V Unterräume. Die Summe von U und W ist definiert als n o U + W = u + w : u ∈ U, w ∈ W . Beispiel 3.2.2. Sei K = R und V = R3 , sowie x U= : x ∈ R 0 0 und 0 W= : y ∈ R . y 0 Dann sind U und W zwei verschiedene Geraden im dreidimensionalen Raum. Es ist dann x U+W = : x, y ∈ R y 0 eine Ebene. Definition 3.2.3. Sind U1 , . . . Um ⊂ V Unterräume von V, so definiert man n o U1 + · · · + Um = u1 + · · · + um : u1 ∈ U1 , . . . , um ∈ Um . Lineare Algebra 1 40 n Beispiel 3.2.4. Sei V = K , sowie e1 = 1 0 .. . 0 0 0 . 1 . . , e2 = 0 , . . . , en = . Für jedes 0 . .. 1 0 n o j ∈ 1, . . . , n sei n o λe j : λ ∈ K | {z } U j = Ke j = =von e j aufgespannte Gerade Dann gilt U1 + · · · + Un = V. Bemerkung. Für einen Unterraum U ⊂ V gilt U + U = U. Beweis. “⊂” Sei v ∈ U + U. Dann gibt es u1 , u2 ∈ U mit v = u1 + u2 . Da U ein Unterraum ist, folgt v ∈ U. “⊃” Sei u ∈ U. Dann ist u = u + 0 ∈ U + U. Definition 3.2.5. Seien U1 , . . . , Um Unterräume von V. Die Summe U = U1 + . . . Um ist eine direkte Summe, wenn jedes u ∈ U auf genau eine Weise als u = u1 + · · · + um geschrieben werden kann. Ist dies der Fall, so schreiben wir U = U1 ⊕ U2 ⊕ · · · ⊕ Um = m M U j. j=1 Beispiele 3.2.6. • Sei V = K3 und x U= : x, y ∈ K , y 0 sowie 0 W= : y, z ∈ K . y z Dann ist die Summe U + W nicht direkt, denn die Null kann auf zwei Weisen Lineare Algebra 1 41 geschrieben werden: 0 0 0 = 1 + −1 . 0 0 0 = 0 + 0, |{z} |{z} ∈U ∈W • Sei V = K3 , U1 = Ke1 und U2 = Ke2 . Dann ist die Summe U = U1 + U2 direkt Beweis. Sei u ∈ U mit u = u1 + u2 = u01 + u02 , wobei u j , u0j ∈ U j gilt. Wir müssen zeigen, dass u1 = u01 und u2 = u02 gilt. Hierzu schreibe u1 = λ1 e1 , u2 = λ2 e2 , sowie u01 = λ01 e1 und u02 = λ02 e2 . Es folgt 0 λ1 λ1 λ = λ e + λ e = u = λ0 e + λ0 e = λ0 2 2 1 2 1 1 2 2 2 1 0 0 . Also folgt λ1 = λ01 sowie λ2 = λ02 , also u1 = u01 sowie u2 = u02 . Proposition 3.2.7. Seien U, W, U1 , . . . , Um Unterräume eines Vektorraums V. (a) Die Summe U + W ist genau dann direkt, wenn U ∩ W = 0. (b) Die Summe U1 + · · · + Um ist genau dann direkt, wenn für alle u1 ∈ U1 , . . . , um ∈ Um gilt u1 + · · · + um = 0 ⇒ u1 = · · · = um = 0. Beweis. (a) Sei die Summe direkt und sei v ∈ U ∩ W. Dann sind 0= 0 + 0 = v + (−v) |{z} |{z} |{z} |{z} ∈U ∈W ∈U ∈W zwei Schreibweisen der Null. Diese müssen nach Definition der direkten Summe gleich sein, also v = 0. Sei umgekehrt U ∩ W = 0 und sei u + w = u0 + w0 mit u, u0 ∈ U und w, w0 ∈ W. Dann ist u − u0 = w0 − w ∈ U ∩ W also gleich Null und damit u = u0 und w = w0 . (b) “⇒” folgt direkt aus der Definition. Wir zeigen “⇐”: Sei u1 + · · · + um = u01 + · · · + u0m mit u j , u0j ∈ U j . Dann ist u1 − u01 + · · · + um − u0m = 0, Lineare Algebra 1 also u1 = u01 , . . . , um = u0m . 42 Lineare Algebra 1 4 43 Dimension 4.1 Linearkombinationen Seien v1 , . . . , vm Elemente des Vektorraums V. Eine Linearkombination der Vektoren v1 , . . . , vm ist jeder Vektor der Gestalt λ1 v1 + · · · + λm vm wobei λ1 , . . . , λm ∈ K. Die Menge aller Linearkombinationen ist der Spann von v1 , . . . , vm , also n o Spann(v1 , . . . , vm ) = λ1 v1 + · · · + λm vm : λ1 , . . . , λm ∈ K . Beispiele 4.1.1. • Seien K = R, V = R3 . Seien weiter v1 , v2 ∈ V, wobei keiner ein Vielfaches des anderen ist. Dann ist Spann(v1 , v2 ) die eindeutig bestimmte Ebene, die die Punkte 0, v1 , v2 enthält. 1 2 7 • Sei K = Q. der Vektor 2 liegt im Spann der Vektoren 1 und 0 1 3 9 , denn es gilt 1 2 7 2 = 2 1 + 3 0 1 3 9 . Proposition 4.1.2. Sei V ein Vektorraum und u1 , . . . , um ∈ V. Dann ist Spann(u1 , . . . , um ) ein Untervektorraum von V. Beweis. Sei U = Spann(u1 , . . . , um ). Wir müssen zeigen: u, v ∈ U ⇒ u + v ∈ U, u ∈ U, λ ∈ K ⇒ λu ∈ U. Seien also u = λ1 u1 + · · · + λm um und v = µ1 u1 + · · · + µm um und λ ∈ K. Dann ist u + v = (λ1 + µ1 )u1 + · · · + (λm + µm )um ∈ U, Lineare Algebra 1 44 sowie λu = (λλ1 )u1 + · · · + (λλm )um ∈ U. Definition 4.1.3. Gilt V = Spann(v1 , . . . , vm ), so sagen wir, dass die Vektoren v1 , . . . , vm den Vektorraum V aufspannen. Ist dies der Fall, sagen wir, dass v1 , . . . , vm ein Erzeugendensystem von V ist. 0 1 . . 0 . Beispiel 4.1.4. Sei V = Kn . Die Vektoren e1 = . , . . . , en = spannen der Raum V 0 .. 1 0 auf, denn es gilt für v ∈ V, v = = x1 e1 + · · · + xn en . xn x1 .. . Definition 4.1.5. Ein Vektorraum V heißt endlich-dimensional, falls es ein endliches Erzeugendensystem gibt. Ansonsten heißt er unendlich-dimensional. Beispiele 4.1.6. • Der Raum Kn ist endlich-dimensional. • Der Polynomring K[x] ist mit der Skalarmultiplikation λ(a0 + · · · + an xn ) = (λa0 ) + · · · + (λan )xn ein Vektorraum. Dieser ist nicht endlich-dimensional. Beweis. Angenommen, K[x] wäre endlich-dimensional, also etwa erzeugt von f1 , . . . , fm . Sei dann N das Maximum der grade grad( f j ) für j = 1, . . . , m. Dann ist xN+1 nicht als Linearkombination der f j darstellbar. Widerspruch! • Sei S eine nichtleere Menge. Ist S endlich, dann ist V = Abb(S, K) endlich-dimensional. n o Beweis. Sei S = s1 , . . . , sn Für 1 ≤ j ≤ n sei δ j : S → K definiert durch 1 δ j (t) = 0 t = s j, t , s j. Lineare Algebra 1 45 Wir behaupten, dass δ1 , . . . , δn ein Erzeugendensystem ist. Sei hierzu f ∈ V und sei λ j = f (s j ) ∈ K für j = 1, . . . , n. Wir zeigen f = λ1 δ1 + · · · + λn δn . Sei s ∈ S. Dann gibt es genau ein 1 ≤ i ≤ n mit s = si . Es ist dann f (s) = f (si ) = λi = λ1 δ1 (s) + · · · + λn δn (s). Damit folgt die Behauptung. 4.2 Lineare Unabhängigkeit Sei V = Spann(v1 , . . . , vm ). Dann kann jedes v ∈ V in der Form v = λ1 v1 + · · · + λm vm geschrieben werden. Diese Darstellung ist im Allgemeinen nicht eindeutig, denn es könnte zum Beispiel v1 = 0 sein, was bedeutet, dass man für λ1 jeden Wert einsetzen kann. Ist also v = µ1 v1 + · · · + µm vm eine zweite Darstellung, so folgt 0 = v − v = v = (λ1 − µ1 )v1 + · · · + (λm − µm )vm . Es stellt sich heraus, dass die Darstellung genau dann eindeutig ist, wenn v1 , . . . , vm linear unabhängig im Sinne der folgenden Definition sind. Definition 4.2.1. Die Vektoren v1 , . . . , vm ∈ V heißen linear unabhängig, falls es keine Linearkombination der Null gibt, außer der trivialen, also wenn gilt λ1 v1 + · · · + λm vm = 0 ⇒ λ1 = · · · = λm = 0. Mit anderen Worten, die Vektoren sind linear unabhängig, wenn es nur eine Linearkombination der Null gibt. Beispiel 4.2.2. Die Vektoren e1 , . . . , en ∈ Kn sind linear unabhängig, denn ist Lineare Algebra 1 46 λ1 e1 + · · · + λn en = 0, so heißt das 0 = λ1 e1 + · · · + λn en = ... 0 λn λ1 .. . , also λ1 = · · · = λn = 0. Lemma 4.2.3. Sind die Vektoren w1 , . . . , wm ∈ V linear unabhängig, so gilt für 1 ≤ j ≤ m, bj . . . , wm ), w j < Spann(w1 , . . . w wobei bj . . . , wm ) = (w1 , . . . , w j−1 , w j+1 , . . . , wm ) (w1 , . . . w die Familie w1 , . . . , wm ohne den Eintrag w j bezeichnet. Beweis. Angenommen, w j liegt in dem Spann, dann gibt es λ1 , . . . , b λ j , . . . , λm ∈ K mit w j = λ1 w1 + · · · + λ j−1 w j−1 + λ j+1 w j+1 + · · · + λm wm . Hieraus folgt λ1 w1 + · · · + λ j−1 w j−1 + (−1)w j + λ j+1 w j+1 + · · · + λm wm = 0, also λ1 = · · · = λn = 0 und (−1) = 0, Widerspruch! Definition 4.2.4. Die Vektoren v1 , . . . , vm heißen linear abhängig, wenn sie nicht linear unabhängig sind, also wenn es eine nichttriviale Linearkombination der Null gibt. 2 1 7 Beispiel 4.2.5. Sei K = Q. Die Vektoren 3 , −1 , 3 ∈ Q3 sind linear abhängig, 1 2 8 denn 2 1 7 2 3 + 3 −1 + (−1) 3 = 0. 1 2 8 Lemma 4.2.6. Sind v1 , . . . , vm linear abhängig und ist v1 , 0, dann existiert ein n o j ∈ 2, 3, . . . , m so dass (a) v j ∈ Spann(v1 , . . . , v j−1 ), Lineare Algebra 1 47 (b) Spann(v1 , . . . b v j . . . , vm ) = Spann(v1 , . . . , vm ). Beweis. Da die v1 , . . . , vm linear abhängig sind, existieren Koeffizienten λ1 , . . . , λn ∈ K, nicht alle Null, so dass λ1 v1 + · · · + λm vm = 0. Sei j der größte Index mit λ j , 0. Dann ist also λ j+1 = · · · = λm = 0, es folgt λ1 v1 + · · · + λ j v j = 0 und wegen v1 , 0 ist j > 0. Da λ j , 0, erhalten wir ! ! −λ j−1 λ1 vj = − v1 + · · · + v j−1 , λj λj also folgt (a). Für (b) sei v ∈ Spann(v1 , . . . , vm ), etwa v = µ1 v1 + · · · + µm vm . In Linearkombination können wir v j durch den Ausdruck dieser λ j−1 λ1 v j . . . , vm ) − λ j v1 + · · · + λ j v j−1 ersetzen und wir sehen, dass v ∈ Spann(v1 , . . . b gilt. Lemma 4.2.7. (a) Ist w ∈ Spann(v1 , . . . , vm ), dann ist die Familie w, v1 , . . . , vm linear abhängig. (b) Ist w < Spann(v1 , . . . , vm ) und ist v1 , . . . , vm linear unabhängig, dann ist w, v1 , . . . , vm linear unabhängig. Beweis. (a) Ist w = λ1 v1 + · · · + λm vm , dann ist 0 = (−1)w + λ1 v1 + · · · + λm vm eine nichttriviale Linearkombination der Null. (b) Sei λw + λ1 v1 + · · · + λm vm = 0. Dann muss λ = 0 sein, denn sonst wäre λm λ1 w= − v1 + · · · + − vm , λ λ was der Voraussetzung widerspricht. Also ist λ = 0, und dann folgt λ1 = . . . , λm = 0, da die v1 , . . . , vm linear unabhängig sind. Lineare Algebra 1 48 Satz 4.2.8. Sei V ein endlich-dimensionaler Vektorraum. Die Länge einer linear unabhängigen Familie ist ≤ der Länge jedes Erzeugendensystems. Mit anderen Worten: Gilt V = Spann(v1 , . . . , vn ) und sind w1 , . . . , wk linear unabhängig, dann ist k ≤ n. Beweis. 1. Schritt. Da die v1 , . . . , vn den Raum aufspannen, ist w1 , v1 , . . . , vn linear abhängig. Nach Lemma 4.2.6 können wir eines der v j entfernen und haben immer noch ein Erzeugendensystem. Wir wiederholen diesen Schritt. (j+1)-ter Schritt. Nach Schritt j wissen wir, dass die Familie w1 , . . . , w j , vi1 , . . . , vin− j ) ein Erzeugendensystem ist. deshalb ist die Liste w1 , . . . , w j+1 , vi1 , . . . , vin− j ) linear abhängig. Nach Lemma 4.2.6 gibt es einen Vektor, der in dem Span der vorhergehenden liegt. Dies kann keiner der w1 , . . . , w j+1 sein, denn die sind linear unabhängig. Wir können also eines der vi entfernen und behalten immer noch ein Erzeugendensystem. Dieser Prozess stoppt erst nach dem k-ten Schritt und liefert ein Erzeugendensystem der Länge n von der Form (w1 , . . . , wk , ∗), wobei der Stern für einige der v j steht. Damit folgt k ≤ n. Proposition 4.2.9. Jeder Unterraum eines endlich-dimensionalen Raums ist endlich-dimensional. Beweis. Sei U ein Unterraum eines endlich-dimensionalen Raums V, etwa V = Spann(v1 , . . . , vn ). Jede linear unabhängige Liste u1 , . . . , uk hat eine Länge k ≤ n. Sei k die maximale Länge einer solchen Liste. Dann behaupten wir, dass u1 , . . . , uk bereits ein Erzeugendensystem von U ist. Wäre dem nicht so, dann gäbe es einen Vektor u0 ∈ U mit u0 < Spann(u1 , . . . , uk ). Dann ist nach Lemma 4.2.7 aber u0 , u1 , . . . , uk linear unabhängig, was der Maximalität von k widerspricht. 4.3 Basen Definition 4.3.1. Eine Basis eines Vektorraums V ist ein linear unabhängiges Erzeugendensystem. Lineare Algebra 1 49 Mit anderen Worten: v1 , . . . , vn ist Basis von V, falls (a) V = Spann(v1 , . . . , vn ) und (b) v1 , . . . , vn sind linear unabhängig. Beispiele 4.3.2. • e1 , . . . , en ist eine Basis von Kn . 1 1 eine Basis von K2 . • Ist char(k) , 2, dann ist , 1 −1 Proposition 4.3.3. Die Familie v1 , . . . , vn ist genau dann eine Basis von V, wenn sich jeder Vektor v ∈ V auf genau eine Weise als v = λ1 v1 + · · · + λn vn schreiben lässt. Beweis. “⇒” Sei v1 , . . . , vn eine Basis und sei v ∈ V. Da v1 , . . . , vn ein Erzeugendensystem ist, gibt es Koeffizienten λ1 , . . . , λn ∈ K so dass v = λ1 v1 + · · · + λn vn . Es bleibt zu zeigen, dass die λ j eindeutig bestimmt sind. Ist v = µ1 v1 + · · · + µn vn eine weitere Darstellung, dann folgt 0 = v − v = (λ1 − µ1 )v1 + · · · + (λn − µn )vn . Wegen der linearen Unabhängigkeit folgt λ1 = µ1 , . . . , λn = µn . “⇐” Lässt sich jeder Vektor so schreiben, ist die Familie ein Erzeugendensystem. Ist die Darstellung der Null eindeutig, folgt die lineare Unabhängigkeit. Satz 4.3.4. Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis. Beweis. Sei v1 , . . . , vn ein Erzeugendensystem. Ist es nicht linear unabhängig, dann kann man nach Lemma 4.2.6 einen Vektor rauswerfen und hat immer noch ein Erzeugendensystem. Diesen Schritt wiederholt man, bis es linear unabhängig ist. Beispiel 4.3.5. Nach diesem Verfahren reduziert sich das Erzeugendensystem 1 3 4 , , 2 6 7 5 , zu 1 , 4 9 2 7 . Korollar 4.3.6. Jeder endlich-dimensionale Vektorraum hat eine Basis. Lineare Algebra 1 50 Satz 4.3.7. Sei V endlich-dimensional und seien v1 , . . . , vk linear unabhängig. Dann gibt es vk+1 , . . . , vn so dass v1 , . . . , vn eine Basis ist. Beweis. Ist v1 , . . . , vk nicht schon eine Basis, dann gibt es ein vk+1 ∈ V mit vk+1 < Spann(v1 , . . . , vk ). Nach Lemma 4.2.6 ist dann v1 , . . . , vk+1 wieder linear unabhängig. Diesen Schritt wiederholen wir so lange, bis wir eine Basis haben. Das Verfahren muss nach endlich vielen Schritten abbrechen, denn nach Satz 4.2.8 kann die Länge einer linear unabhängigen Familie nicht die eines Erzeugendensytems überschreiten und wir wissen ja, dass es eines endlicher Länge gibt. Proposition 4.3.8. Sei U ⊂ V ein Unterraum des endlich-dimensionalen Vektorraums V. Dann existiert ein Unterraum W ⊂ V so dass V = U ⊕ W. Der Raum W wird ein Komplementärraum zu U genannt. Beweis. Nach Proposition 4.2.9 ist U endlich-dimensional. Nach Korollar 4.3.6 hat U eine Basis v1 , . . . , vk . Nach Satz 4.3.7 lässt sich diese zu einer Basis v1 , . . . , vn von V verlängern. Setze W = Spann(vk+1 , . . . , vn ). Dann ist V = U + W, da sich jedes v ∈ V als Linearkombination der 1 , . . . , vn schreiben lässt. Ferner ist U ∩ W = 0, denn ist v ∈ U ∩ W, dann ist einerseits v = λ1 v1 + · · · + λk vk für geeignete Koeffizienten λ1 , . . . , λk ∈ K und andererseits v = λk+1 vk+1 + · · · + λn vn für Koeffizienten λk+1 , . . . , λn ∈ K. Es folgt 0 = v − v = λ1 v1 + · · · + λk vk + (−λk+1 )vk+1 + · · · + (−λn )vn , woraus wegen der linearen Unabhängigkeit λ1 = · · · = λn = 0 und damit v = 0 folgt. Beispiel 4.3.9. Sei K = Q und V = Q2 , sowie U = Qe1 . Dann ist Qe2 ein Komplementärraum. Allerdings ist auch Q(λe1 + e2 ) ein Komplementärraum für jedes λ ∈ Q. Damit gibt es unendlich viele verschieden Komplementärräume. Lineare Algebra 1 51 Satz 4.3.10. Je zwei Basen eines Vektorraums haben dieselbe Länge. Sind also v1 , . . . , vn und w1 , . . . , wm Basen des Vektorraums V, dann folgt m = n. Diese gemeinsame Länge wird die Dimension des Raums V genannt. Beweis. Da v1 , . . . , vn linear unabhängig und w1 , . . . , wm ein Erzeugendensystem ist, folgt nach Satz 4.2.8, dass n ≤ m ist. Aus Symmetrie folgt auch n ≥ m. Beispiel 4.3.11. Es ist dim(Kn ) = n, da e1 , . . . , en eine Basis ist. Proposition 4.3.12. (a) Ist U ⊂ V ein Unterraum des endlich-dimensionalen Vektorraums V, so gilt dim U ≤ dim V. (b) Ist dim V = n, so ist jedes Erzeugendensystem der Länge n eine Basis. Ebenso ist jede linear unabhängige Familie der Länge n eine Basis. (c) Für jeden Vektorraum V gilt V=0 ⇔ dim V = 0. Beweis. (a) Jede Basis von U kann zu einer Basis von V verlängert werden. (b) Sei v1 , . . . , vn ein Erzeugendensystem der Länge n. Nach Satz 4.3.4 enthält es eine Basis. Diese muss aber die Länge n haben, also ist v1 , . . . , vn selbst eine Basis. Sei v1 , . . . , vn eine linear unabhängige Familie. dann kann sie nach Satz 4.3.7 zu einer Basis verlängert werden. Diese muss die Länge n haben, also ist sie gleich v1 , . . . , vn . (c) Ist V = 0, so ist die leere Familie eine Basis und umgekehrt. Beispiele 4.3.13. 5 1 • , ist eine Basis von Q2 . 7 3 n o • 1, x, 1 + x2 ist eine Basis von f ∈ K[x] : grad( f ) ≤ 2 . Satz 4.3.14 (Dimensionsformel für Unterräume). Sind U und W Unterräume des endlich-dimensionalen Raums V, dann gilt dim(U + W) = dim U + dim W − dim(U ∩ W). Lineare Algebra 1 52 Beweis. Sei v1 , . . . , vk eine Basis von U ∩ W. Wir setzen sie fort zu einer Basis v1 , . . . , vk , vk+1 , . . . , vm von U. Andererseits können wir sie aber auch zu einer Basis v1 , . . . , vk , vm+1 , . . . , vn von W fortsetzen. Wir behaupten, dass v1 , . . . , vk , vk+1 , . . . , vm , vm+1 , . . . , vn eine Basis von U + W ist. Da U, W ⊂ Spann(v1 , . . . , vn ) ⊂ U + W, ist v1 , . . . , vn ein Erzeugendensystem. Wir zeigen lineare Unabhängigkeit. Sei hierzu λ1 v1 + · · · + λn vn = 0 eine Linearkombination der Null. Seien v = λ1 v1 + · · · + λk vk ∈ U ∩ W, u = λk+1 vk+1 + · · · + λm vm ∈ U, w = λm+1 vm+1 + · · · + λn vn ∈ W. Dann ist v + u + w = 0. Also ist w = −v − u ∈ U und ebenso ist u = −v − w ∈ W und damit v, u, w ∈ U ∩ W. Es existieren also α1 , . . . , αk ∈ K mit u = α1 v1 + · · · + αk vk = λk+1 vk+1 + · · · + λm vm . Wegen der linearen Unabhängigkeit von v1 , . . . , vm folgt u = 0 und damit λk+1 = · · · = λm = 0. Ebenso folgt w = 0 und λm+1 = · · · = λn = 0 und wegen v + u + w = 0 schliesslich v = 0 und λ1 = · · · = λk = 0. Damit ist dim(U + W) = n = m + (n − m + k) − k = dim U + dim W − dim(U ∩ W). Beispiel 4.3.15. Sei V = K3 , sowie U= W= a b : a, b ∈ K 0 0 b : b, c ∈ K c Lineare Algebra 1 Dann ist 53 0 U∩W = , : b ∈ K b 0 man hat dim U = dim W = 2 und dim U ∩ W = 1. Schliesslich ist V = U + W und dim V = 3 = 2 + 2 − 1 = dim U + dim W − dim(U ∩ W). Proposition 4.3.16. Sei V ein endlich-dimensionaler Vektorraum und seien U1 , . . . , Um Unterräume mit V = U1 + · · · + Um und dim V = dim U1 + · · · + dim Um . Dann gilt V = U1 ⊕ U2 ⊕ · · · ⊕ Um . Beweis. Wir müssen zeigen, dass die Summe direkt ist. Seien u1 ∈ U1 , . . . um ∈ Um mit u1 + · · · + um = 0. Nach Proposition 3.2.7 ist zu zeigen, dass u1 = · · · = um = 0 ist. Hierzu wähle Basen für jeden der Räume U1 , . . . , Um . Füge diese Basen zusammen zu einem Erzeugendensystem von V. Nach Voraussetzung ist die Länge dieses Erzeugendensystems gleich der Dimension von V, also ist es eine Basis von V, damit insbesondere linear unabhängig. Wegen u1 + · · · + um = 0 sind sämtliche Koeffizienten gleich Null, also u1 = · · · = um = 0. Lineare Algebra 1 5 54 Lineare Abbildungen und Matrizen 5.1 Erste Eigenschaften Definition 5.1.1. Seien V, W Vektorräume über dem Körper K. Eine lineare Abbildung ist eine Abbildung T : V → W mit • T(v + v0 ) = T(v) + T(v0 ) • T(λv) = λT(v) für alle v, v0 ∈ V und jedes λ ∈ K. Beispiele 5.1.2. • T : V → W die Nullabbildung T(v) = 0 ist linear. • Die identische Abbildung Id : V → V; v 7→ v ist linear. • Sein V = K3 und W = K2 . Dann ist die Abbildung a a + b T b = c c linear. • Ist K = R und V der Raum aller stetigen Abbildungen f : [0, 1] → R, dann ist T : V → R, Z 1 T( f ) = f (x) dx 0 linear. • Sei V = K[x] und sei T : V → V gegeben durch T( f ) = f 0 mit (a0 + a1 x + a2 x2 + · · · + an xn )0 = a1 + 2a2 x + · · · + nan xn−1 die formale Ableitung. Dann ist T linear. Lemma 5.1.3. Eine lineare Abbildung schickt die Null auf die Null. Beweis. Sei T : V → W linear. Dann gilt 0 = T(0) − T(0) = T(0 − 0) = T(0). Lineare Algebra 1 55 Proposition 5.1.4. Sei v1 , . . . , vn eine Basis von V. Für jede Familie w1 , . . . , wn in W existiert genau eine lineare Abbildung T : V → W mit T(v1 ) = w1 , . . . , T(vn ) = wn . Beweis. Sei eine Familie w1 , . . . , wn gegeben. Definiere T : V → W durch T(λ1 v1 + · · · + λn vn ) = λ1 w1 + · · · + λn wn , für beliebige λ1 , . . . , λn ∈ K. Da die Koeffizienten λ j für einen gegebenen Vektor v = λ1 v1 + · · · + λn vn eindeutig gegeben sind, ist T wohldefiniert, diese Vorschrift definiert also eine Abbildung T : V → W. Wir zeigen, dass diese linear ist. Seien v, v0 ∈ V. Schreibe diese in der Basis als v = λ1 v1 + · · · + λn vn , v0 = λ01 v1 + · · · + λ0n vn . Dann ist T(v + v0 ) = T((λ1 + λ01 )v1 + · · · + (λn + λ0n )vn ) = (λ1 + λ01 )w1 + · · · + (λn + λ0n )wn = λ1 w1 + · · · + λn wn + λ01 w1 + · · · + λ0n wn = T(v) + T(v0 ). Für λ ∈ K gilt außerdem T(λv) = T(λλ1 v1 + · · · + λλn vn ) = λλ1 w1 + · · · + λλn wn = λ(λ1 v1 + · · · + λn vn ) = λT(v). Zum Schluss brauchen wir die Eindeutigkeit von T. Sei also T0 eine weitere lineare Abbildung mit T0 (v j ) = w j . Für ein beliebiges v = λ1 v1 + · · · + λn vn ∈ V gilt dann T0 (v) = T0 (λ1 v1 + · · · + λn vn ) = λ1 T0 (v1 ) + · · · + λn T0 (vn ) = λ1 w1 + · · · + λn wn = λ1 T(v1 ) + · · · + λn T(vn ) = T(λ1 v1 + · · · + λn vn ) = T(v) Proposition 5.1.5 (Komposition und Umkehrabbildung). (a) Sind T : V → W und Lineare Algebra 1 56 S : W → U lineare Abbildungen, so ist die Komposition S ◦ T : V → U linear. (b) Ist T : V → W linear und bijektiv, so ist die Umkehrabbildung T−1 : W → V ebenfalls linear. In diesem Fall nennen wir T einen linearen Isomorphismus. Beweis. (a) Seien v, v0 ∈ V. Dann gilt S ◦ T(v + v0 ) = S(T(v + v0 ) = S(T(v) + T(v0 )) = S(T(v)) + S(T(v0 )) = S ◦ T(v) + S ◦ T(v0 ). Ist außerdem λ ∈ K, so gilt S ◦ T(λv) = S(T(λv)) = S(λT(v)) = λS(T(v)) = λS ◦ T(v). (b) Seien w, w0 ∈ W dann gilt T−1 (w + w0 ) = T−1 (T(T−1 (w)) + T(T−1 (w0 ))) = T−1 (T(T−1 (w) + T−1 (w0 ))) = T−1 (w) + T−1 (w0 ). Ist ferner λ ∈ K, so gilt T−1 (λw) = T−1 (λT(T−1 (w))) = T−1 (T(λT−1 (w))) = λT−1 (w). Definition 5.1.6. Sind S, T : V → W zwei lineare Abbildungen, so definieren wir ihre Summe durch: S + T : V → W, v 7→ S(v) + T(v). Diese Summe wird auch als die punktweise Summe bezeichnet. Für λ ∈ K definieren wir λT : V → W, v 7→ λT(v). Lemma 5.1.7. Die Summe S + T und das Produkt λT sind wieder lineare Abbildungen. Lineare Algebra 1 57 Beweis. Für v, v0 ∈ V ist (S + T)(v + v0 ) = S(v + v0 ) + T(v + v0 ) = S(v) + S(v0 ) + T(v) + T(v0 ) = S(v) + T(v) + S(v0 ) + T(v0 ) = (S + T)(v) + (S + T)(v0 ). Die Beweise der anderen Eigenschaften bestehen ebenso in einer einfachen Auflösung der Definitionen. Definition 5.1.8. Es folgt, dass die Menge n o Lin(V, W) = T : V → W : linear aller linearen Abbildungen von V nach W selbst wieder ein Vektorraum ist. Wir werden später sehen, dass für endlich-dimensionale Räume gilt dim Lin(V, W) = (dim V)(dim W). Ein besonderer Fall ist der Fall W = K, der Raum V ∗ = Lin(V, K) wird der Dualraum von V genannt. Lemma 5.1.9. Sei v1 , . . . , vn eine Basis von V. Fuer jedes 1 ≤ j ≤ n sei die lineare Abbildung v∗j : V → K definiert durch v∗j (λ1 v1 + · · · + λn vn ) = λ j . Dann ist v∗1 , . . . , v∗n eine Basis von V ∗ , genannt die zu (v1 , . . . , vn ) duale Basis. Es gilt also 1 ∗ vi (v j ) = 0 falls i = j, sonst. Insbesondere ist V ∗ endlich-dimensional, wenn V es ist und es gilt dann dim V ∗ = dim V. Lineare Algebra 1 58 Beweis. Es gelte µ1 v∗1 + · · · + µn v∗n = 0. Fuer jedes 1 ≤ j ≤ n gilt dann 0 = (µ1 v∗1 + · · · + µn v∗n ) v j = µ1 v∗1 (v j ) + · · · + µn v∗n (v j ) = µ j v∗j (v j ) = µ j . Damit ist also µ1 = · · · = µn = 0, also sind die v∗j linear unabhaengig. Bleibt zu zeigen, dass die v∗j den Raum V ∗ erzeugen. Sei α ∈ V ∗ . Setze λ j = α(v j ). Wir behaupten, dass α = λ1 v∗1 + · · · + λn v∗n gilt. Nun ist aber (λ1 v∗1 + · · · + λn v∗n ) v j = λ j = α(v j ), also stimmen die beiden linearen Abbildungen α und λ1 v∗1 + · · · + λn v∗n auf einer Basis ueberein, muessen also gleich sein. 5.2 Kern und Bild Definition 5.2.1. Sei T : V → W linear. Der Kern von T ist definiert als die Menge n o ker T = v ∈ V : T(v) = 0 . Beispiele 5.2.2. a • Sei T : K2 → K gegeben durch T = a + b, dann ist b 1 a ker T = b : a + b = 0 = K −1 . • Sei T : Q[x] → Q[x] die formale Ableitung: T( f ) = f 0 . Dann ist ker T die Menge aller konstanten Polynome. Proposition 5.2.3. (a) Sei T : V → W linear. Dann ist der Kern von T ein Untervektorraum von V. (b) Eine lineare Abbildung T : V → W ist genau dann injektiv, wenn ker T = 0 ist. Lineare Algebra 1 59 Beweis. (a) Seien v, v0 ∈ ker T. Dann gilt T(v + v0 ) = T(v) + T(v0 ) = 0 + 0 = 0, also ist v + v0 ∈ ker T. Ist λ ∈ K, so gilt T(λv) = λT(v) = λ0 = 0, also ist auch λv ∈ ker T. (b) Sei T injektiv und sei T(v) = 0 = T(0). Aus der Injektivität folgt dann v = 0, also ist ker T = 0. Sei umgekehrt ker T = 0 und seien v, v0 ∈ V mit T(v) = T(v0 ). Dann ist T(v − v0 ) = T(v) − T(v0 ) = 0, also v − v0 ∈ ker T = 0 und damit v − v0 = 0, also v = v0 , so dass T injektiv ist. Beispiele 5.2.4. a 7 • Die lineare Abbildung T : K → K ; → b 2 2 b ist injektiv. a a 7 a + b ist nicht injektiv. • Die lineare Abbildung T : K2 → K; → b Definition 5.2.5. Sei T : V → W linear. Das Bild von T ist die Menge n o Bild T = T(v) : v ∈ V . x x Beispiele 5.2.6. • Sei T : K2 → K3 gegeben durch T = y , dann ist das Bild y x x die Menge aller Vektoren y mit z = x. z Proposition 5.2.7. Sei T : V → W linear. Dann ist das Bild von T ein Untervektorraum von W. Beweis. Das Bild enthält den Nullvektor, also ist es nicht leer. Seien w, w0 im Bild, also etwa w = T(v) und w0 = T(v0 ), dann ist w + w0 = T(v) + T(v0 ) = T(v + v0 ) wieder im Bild. Ist schliesslich λ ∈ K, so gilt λw = λT(v) = T(λv), also λw ∈ Bild T. Lineare Algebra 1 60 Satz 5.2.8 (Dimensionsformel für lineare Abbildungen). Sei T : V → W linear und sei V endlich-dimensional. Dann gilt dim V = dim ker T + dim Bild T . Insbesondere ist das Bild endlich-dimensional. Beweis. Sei v1 , . . . , vk eine Basis von ker T. Erweitere diese zu einer Basis v1 , . . . , vn von V. Wir behaupten, dass T(vk+1 ), . . . , T(vn ) eine Basis von Bild T ist. Zunächst zeigen wir lineare Unabhängigkeit. Dazu sei λk+1 T(vk+1 ) + · · · + λn T(vn ) = 0. Dann ist λk+1 vk+1 + · · · + λn vn im Kern von T, also ausdrückbar in der Form λ1 v1 + · · · + λk vk . Es folgt λ1 v1 + . . . λk vk + (−λk+1 )vk+1 + · · · + (−λn )vn = 0 und daher wegen der linearen Unabhängigkeit λk+1 = · · · = λn = 0, also sind T(vk+1 ). . . . , T(vn ) linear unabhängig. Es bleibt zu zeigen, dass sie das Bild erzeugen. Sei also w ∈ Bild T, also etwa w = T(v) und v = µ1 v1 + . . . µn vn für geeignete µ j ∈ K. Dann ist w = T(µ1 v1 + · · · + µn vn ) = µ1 T(v1 ) + · · · + µk T(vk ) +µk+1 T(vk+1 ) + · · · + µn T(vn ) | {z } =0 = µk+1 T(vk+1 ) + · · · + µn T(vn ). Also ist T(vk+1 ), . . . , T(vn ) auch ein Erzeugendensystem von Bild T. Korollar 5.2.9. Seien V, W endlich-dimensionale K-Vektorräume. (a) Gilt dim V > dim W, so gibt es keine injektive lineare Abbildung V → W. (b) Gilt dim V < dim W, so gibt es keine surjektive lineare Abbildung V → W. Beweis. (a) Sei T : V → W linear. Dann gilt dim ker T = dim V − dim Bild T ≥ dim V − dim W > 0. Lineare Algebra 1 61 (b) Mit derselben Notation gilt dim Bild T = dim V − dim ker T ≤ dim V < dim W. Satz 5.2.10. Ist V endlich-dimensional und T : V → V, so sind die folgenden äquivalent: (a) T ist injektiv, (b) T ist surjektiv, (c) T ist bijektiv. Beweis. Wir haben dim V = dim ker T + dim Bild T . daher ist T injektiv ⇔ dim ker T = 0 ⇔ dim V = dim Bild T ⇔ T surjektiv. 5.3 Matrizen Seien V, W endlich-dimensionale Vektorräume mit Basen v1 , . . . .vn und w, , . . . , wm . Sei T : V → W linear. Dann existieren eindeutig bestimmte Zahlen ai, j ∈ K mit T(v j ) = a1,j w1 + · · · + am,j wm für j = 1, . . . , n. Wir schreiben diese Körperelemente in ein rechteckiges Schema, genannt Matrix a1,1 . . . a1,n . .. .. . . am,1 . . . am,n Wir schreiben Mm×n (K) für die Menge aller Matrizen über K mit m Zeilen und n Spalten. Ist m = n, so schreiben wir auch Mn (K) für Mn×n (K). Wir erhalten also zu jeder Lineare Algebra 1 62 linearen Abbildung T : V → W eine Matrix M(T). Diese hängt allerdings von der Wahl der Basen ab, also schreiben wir besser MA,B (T), wobei A = (v1 , . . . , vn ) die gegebene Basis von V ist und B = (w1 , . . . , wm ) die von W. Definition 5.3.1. Auf der Menge der Matrizen Mm×n (K) definieren wir eine Addition a1,1 . . . .. . am,1 . . . a1,n .. . am,n b1,1 . . . .. + . bm,1 . . . b1,n .. . bm,n a1,1 + b1,1 . . . .. = . am,1 + bm,1 . . . a1,n + b1,n .. . am,n + bm,n und eine skalare Multiplikation a1,1 . . . . λ .. am,1 . . . a1,n .. . am,n λa1,1 . . . .. = . λam,1 . . . λa1,n .. . λam,n Mit diesen Operationen wird Mm×n (K) ein K-Vektorraum. Jede Durchnummerierung der Einträge liefert einen linearen Isomorphismus Mm×n (K) −→ Kmn . Wir folgern also dim Mm×n (K) = mn. Proposition 5.3.2. Seien Basen (v1 , . . . , vn ) und (w1 , . . . , wm ) der Vektorräume V und W gegeben. Dann ist die Abbildung M : Lin(V, W) → Mm×n (K), die jeder linearen Abbildung ihre Matrix zuordnet, ein linearer Isomorphismus. Beweis. Wir zeigen zunächst, dass M linear ist. Seien M(T) = (ai, j ) und M(S) = (bi,j ). Wir wollen zeigen, dass M(S + T) = M(S) + M(T). Sei hierzu 1 ≤ j ≤ n. Dann gilt (T + S)(v j ) = T(v j ) + S(v j ) = a1,j w1 + · · · + am,j wm + b1, j w1 + · · · + bm, j wm = (a1, j + b1,j )w1 + · · · + (am,j + bm,j )wm . Hieraus folgt M(S + T) = M(S) + M(T). Die Gleichung M(λT) = λM(T) zeigt man Lineare Algebra 1 63 ebenso. Die Abbildung M ist injektiv, denn ist M(T) = 0, so folgt T(v j ) = a1, j w1 + · · · + am,j wm = 0 und damit T = 0. Schliesslich ist M surjektiv, denn sei A = (ai,j ) irgendeine Matrix, dann definiert nach Proposition die Vorschrift T(v j ) = a1,j w1 + · · · + am, j wm eine lineare Abbildung T. Für diese gilt M(T) = A. Wir benutzen ab jetzt die Schreibweise n X xi = x1 + x2 + · · · + xn . i=1 Also etwa T(v j ) = a1, j w1 + · · · + am, j wm = n X ai, j wi . i=1 5.4 Matrixmultiplikation Seien U, V, W endlich-dimensionale Vektorräume. Fixiere Basen u1 , . . . , up von U, v1 , . . . , vn von V und w1 , . . . , wm von W. Seien S : U → V und T : V → W. Wir wollen die Matrix M(T ◦ S) durch M(S) und M(T) ausdrücken. Seien die Einträge von M(T) Lineare Algebra 1 64 mit ai,j bezeichnet und die von M(S) mit bi,j . Dann gilt T ◦ S(uk ) = T(S(uk )) n X b j,k v j = T j=1 = n X b j,k T(v j ) j=1 = n X b j,k m X j=1 = ai, j wi i=1 m X n X ai, j b j,k wi i=1 j=1 | {z } =ci,k Also M(T ◦ S) = (ci,k ) ∈ Mm×p (K). Definition 5.4.1. Wir definieren die Matrixmultiplikation Mm×n (K) × Mn×p (K) → Mm×p (K) durch die Vorschrift ((ai,j ), (bi,j )) 7→ (ci,j ) mit ci,k = n X ai, j b j,k . j=1 Lemma 5.4.2. Mit dieser Definition der Matrixmultiplikation gilt M(T ◦ S) = M(T)M(S). Beweis. Haben wir bereits gerechnet. Beispiel 5.4.3. Beispiel a b x y ax + bz ay + bw c d z w = cx + dz cy + dw Lineare Algebra 1 65 Betrachte den Spezialfall p = 1. Sei A ∈ Mm×n (K). Die Abbildung Kn → Km definiert durch x 7→ Ax, also 7→ xn x1 .. . a1,1 . . . .. . am,1 . . . a1,n .. . am,n a1,1 x1 + · · · + a1,n xn .. = . xn am,1 x1 + · · · + am,n xn x1 .. . ist eine lineare Abbildung. Der Kern dieser Abbildung ist die Lösungsmenge des linearen Gleichungssystems a1,1 x1 + · · · + a1,n xn = 0 .. . am,1 x1 + · · · + am,n xn = 0. Proposition 5.4.4. Die Matrixmultiplikation ist assoziativ und distributiv, d.h. es gilt A(BC) = (AB)C und A(B + B0 ) = AB + AB0 (A + A0 )B = AB + A0 B für alle Matrizen A, A0 , A, B0 , C mit den passenden Formaten, so dass die Produkte existieren. Beweis. Mit Hilfe von Proposition 5.3.2 folgt dies sofort aus den entsprechenden Eigenschaften linearer Abbildungen und der Tatsache, dass M(T ◦ S) = M(T)M(S). Proposition 5.4.5. Jede lineare Abbildung Kn → Kn ist von der Form x 7→ Ax für eine eindeutig bestimmte Matrix A ∈ Mn (K) = Mn×n (K). Beweis. Klar nach Proposition 5.3.2. Definition 5.4.6. Wir nennen eine Matrix A ∈ Mn (K) invertierbar, falls die induzierte lineare Abbildung Kn → Kn bijektiv ist. Die Umkehrabbildung ist dann ebenfalls durch eine Matrix gegeben, die wir mit A−1 bezeichnen. Wir schreiben GLn (K) für die Menge aller invertierbaren Matrizen in Mn (K). Lineare Algebra 1 66 Proposition 5.4.7. Eine Matrix A ∈ Mn (K) ist genau dann invertierbar, wenn es eine Matrix A−1 ∈ Mn (K) gibt mit AA−1 = A−1 A = I, 1 ... wobei I = die Einheitsmatrix ist. 1 Beweis. A−1 ist gerade die Matrix der Umkehrabbildung. Lemma 5.4.8. Seien A, B ∈ Mn (K) mit AB = I, dann gilt auch BA = I und daher B = A−1 . Beweis. Wegen AB = I ist die Abbildung x 7→ Ax surjektiv und x 7→ Bx injektiv. Nach Satz 5.2.10 sind beide Abbildungen bijektiv. Es bleibt zu zeigen, dass BA = I ist. Es gilt BA = BA(BA)(BA)−1 = B (AB) A(BA)−1 = BA(BA)−1 = I. |{z} =I Definition 5.4.9. Für eine Matrix A = (ai, j ) ∈ Mm×n (K) sei die transponierte Matrix At definiert durch a1,1 . . . am,1 . .. At = .. . , a1,n . . . am,n also (ai, j )t = (a j,i ). Beispiele 5.4.10. t 1 2 1 3 = , • 3 4 2 4 t 1 4 1 2 3 = 2 5 . • 4 5 6 3 6 t 1 • 2 = 1 2 3 . 3 Proposition 5.4.11. Für A, A0 ∈ Mm×n (K) und B ∈ Mn,p (K) gilt (a) (A + A0 )t = At + (A0 )t , (b) (AB)t = Bt At , (At )t = A, Lineare Algebra 1 67 (c) Ist m = n so ist A genau dann invertierbar, wenn At dies ist und dann ist (At )−1 = (A−1 )t . Beweis. (a) ist klar. Zum Beweis von (b) benutzen wir die folgende Schreibweise: wir schreiben Ai, j für den (i, j)-ten Eintrag von A. Die Matrixmultiplikation schreibt sich dann als X (AB)i,j = Ai,k Bk, j k und die Transposition als Ati, j = A j,i . Zusammengenommen folgt (AB)ti, j = (AB) j,i = X k A j,k Bk,i = X Bti,k Atk, j = (Bt At )i, j . j (c) Ist A invertierbar, so rechnen wir At (A−1 )t = (A−1 A)t = It = I, Im anderen Fall vertauschen wir die Rollen von A und At . Beispiel 5.4.12. Es gilt 1 1 1 −1 = I 1 1 und 1 1 1 1 −1 1 = I. Beispiel 5.4.13. Wir wollen an einem Beispiel zeigen, wie man die Matrix zu einer linearen Abbildung bestimmt. Hierzu sei V der Raum aller Polynome vom Grad ≤ 2 und T : V → V sei die formale Ableitung, also T(a0 + a1 x + a2 x2 ) = a1 + 2a2 x. Wir bestimmen die Matrix A = MA (T) bezüglich der Basis A = (1, x, x2 ). Der erste Basisvektor 1 wird auf die Null geworfen, deshalb ist die erste Spalte von A gleich Null. Der zweite Basisvektor wird auf den ersten geworfen, deshalb ist die zweite Lineare Algebra 1 68 1 Spalte 0 . Der dritte Basisvektor wird auf das 2-fache des zweiten geworfen, also ist 0 0 die dritte spalte 2 . Damit ist die Matrix 0 0 1 0 A = 0 0 2 . 0 0 0 5.5 Blockmatrizen Der folgende Satz liefert eine Rechentechnik, die für Induktionsbeweise sehr nützlich ist. Satz 5.5.1. Seien S und T zwei Matrizen so dass ST definiert ist. Teilen wir S und T in kleinere Untermatrizen auf, schreiben also A B , S = C D X Y , T = Z W wobei wir annehmen, dass die Blockaufteilung so ist, dass AX existiert. Dann gilt A B X Y AX + BZ AY + BW = . ST = C D Z W CX + DZ CY + DW Beweis. Die Bedingung, dass ST und AX definiert sind, impliziert, dass die Lineare Algebra 1 69 Blockgroessen wie folgt verteilt sind: k q m ( n ( p A C B D r z}|{ z}|{ z}|{ z}|{ ( und k ( m X Y Z W A 0 X Y AX AY , was aus der Definition der = Wir rechnen nun zum Beispiel 0 0 0 Z W 0 Matrixmultiplikation folgt. Damit ergibt sich A B X Y ST = C D Z W A 0 0 B 0 0 0 0 X Y + + + = 0 0 0 0 C 0 0 D Z W A 0 X Y 0 B X Y 0 0 X + + = 0 0 Z W 0 0 Z W C 0 Z AX AY BZ BW 0 0 0 + + + = 0 0 0 0 CX CY DZ AX + BZ AY + BW . = CX + DZ CY + DW 5.6 Y 0 0 X Y + W 0 D Z W 0 DW Basiswechsel Identifizieren wir Kn mit Mn×1 (K), dann liefert jede Matrix A ∈ Mn×n (K) eine lineare Abbildung TA : Kn → Kn definiert durch TA : x 7→ Ax. Ist E = (e1 , . . . , en ) die Standard-Basis, so gilt A = ME,E (TA ), wie man leicht nachrechnet. Wir identifizieren ab jetzt jede Matrix A mit der linearen Abbildung TA auf Kn . Sei V ein endlich-dimensionaler Vektorraum. Die Wahl einer Basis B = (v1 , . . . , vn ) Lineare Algebra 1 70 induziert einen Isomorphismus ΦB : V −→ Kn λ1 v1 + · · · + λn vn → 7 . λn λ1 .. . Lemma 5.6.1. Ist T : V → W linear und C = (w1 , . . . , wm ) eine Basis von W, so macht die Matrix MB,C (T) ∈ Mm×n (K) das Diagramm /W T V ΦC ΦB Kn MB,C (T) / Km kommutativ, d.h. ΦC T = MB,C (T)ΦB . Proof. Sei A = MB,C (T), also T(v j ) = m X Ai, j wi . i=1 Nun ist m X ΦC T(v j ) = ΦC Ai, j wi i=1 = = m X i=1 m X Ai, j ΦC (wi ) Ai, j ei i=1 = Ae j = AΦB (v j ). Wir wollen nun untersuchen, was passiert, wenn man andere Basen wählt. Sei Lineare Algebra 1 71 D = (v01 , . . . , v0n ) eine weitere Basis von V. Dann gilt vk = n X s j,k v0j j=1 für eindeutig bestimmte Koeffizienten s j,k ∈ K. Dies liefert eine Matrix SB,D , die Basiswechselmatrix. Satz 5.6.2. Das Diagramm ΦB V / Kn ΦD SB,D Kn kommutiert. Beweis. Sei 1 ≤ k ≤ n, so gilt ΦB (vk ) = ek , also P P P 0 SB,D ΦB (vk ) = SB,D (ek ) = nj=1 s j,k e j = j s j,k ΦD (v0j ) = ΦD s v = ΦD (vk ). j,k j j Satz 5.6.3 (Basiswechselsatz). Sind B, D Basen von V und C, E Basen von W, so kommutiert das Diagramm MB,C (T) Kn ` ΦC ΦB V SB,D / T / W SC,E ~ Kn m K = ΦD ΦE MD,E (T) / ! Km für jede lineare Abbildung T : V → W. Insbesondere ist also MD,E (T) = SC,E MB,C (T)(SB,D )−1 . Im Spezialfall W = V, C = B und E = D schreibe S = SB , sowie MB (T) = MB (T) und D B D MD (T) = MD (T), dann gilt MD (T) = SMB (T)S−1 . Lineare Algebra 1 72 Beweis. Das obere und das untere Viereck kommutieren nach Definition von M(T). Das rechte und linke Dreieck kommutiert nach Satz 5.6.2. Lineare Algebra 1 6 73 Gauß-Elimination Ab jetzt rechnen wir nur noch mit quadratischen Matrizen. Dies reicht, denn man kann jede Matrix durch Nullen zu einer quadratischen Matrix auffüllen. 6.1 Zeilentransformationen Sei A ∈ Mn (K). Eine Zeilentransformation ist eine der folgenden Operationen 1. Für λ ∈ K addiere das λ-fache der j-ten Zeile zur i-ten. (j , i) 2. Multipliziere die j-te Zeile mit µ ∈ K× . 3. Vertausche zwei Zeilen. Beispiele 6.1.1. • 13 24 7→ 1 2 5 8 , (das doppelte der ersten zur zweiten addiert), • 1 2 3 4 7→ 2 4 3 4 , (die erste mit 2 multipliziert), • 1 2 3 4 7→ 3 4 1 2 . Die erste Operation ist gegeben durch A 7→ Ai,j (λ)A, wobei 1 .. . Ai,j (λ) = . λ .. 1 , wobei λ in der i-ten Zeile und j-ten Spalte steht. Operation 2. ist gegeben durch A 7→ Mi (µ), wobei 1 ... 1 Mi (µ) = µ 1 .. . wobei das µ in der i-ten Zeile und Spalte steht. , Lineare Algebra 1 74 Die dritte Operation st gegeben durch A 7→ Si, j A, wobei 1 0 1 Si, j = 1 1 0 1 , Wobei die nichtdiagonalen Einsen in der i-ten Zeile und j-ten Spalte und umgekehrt stehen. Die Matrizen Ai,j (λ), Mi (µ), Si, j werden Elementarmatrizen genannt. Lemma 6.1.2. Die Elementarmatrizen sind alle invertierbar. Wenn also eine Matrix B aus einer Matrix A durch wiederholte Zeilentransformationen hervorgeht, existiert eine invertierbare Matrix T mit B = TA. Beweis. Man rechnet nach: Ai,j (λ)Ai,j (−λ) = I, Mi (µ)Mi (µ−1 ) = I, Si, j Si,j = I. Definition 6.1.3. Eine Matrix A ∈ Mn (K) heißt obere Dreiecksmatrix, wenn A unterhalb der Diagonale nur Nullen hat, wenn also gilt Ai,j = 0 für i > j. D.H wenn A von der Form a1,1 ∗ .. A = . 0 an,n ist. Satz 6.1.4. Jede Matrix kann durch wiederholte Zeilentransformationen auf obere Dreiecksform gebracht werden, wobei man außerdem erreichen kann, dass auf der Diagonalen nur Nullen und Einsen stehen. Man sagt, dass man A in Zeilenstufenform bringen kann. Lineare Algebra 1 75 Beweis. Ist die erste Spalte von A gleich Null, so kann man induktiv mit der Untermatrix A0 weitermachen, für die 0 ∗ A = 0 A0 gilt. Ist die erste Spalte ungleich Null, so kann man durch Zeilenvertauschung und erreicht erreichen, dass a1,1 , 0. Dann multipliziert man die erste Zeile mit a−1 1,1 a1,1 = 1. Subtrahiere dann das a j,1 -fache der ersten Zeile von der j-ten für j = 2, . . . , n und erreiche 1 ∗ . . . ∗ 0 . A = . A1 .. 0 Mache nun Induktiv mit A1 weiter. Beispiel 6.1.5. 1 1 2 3 4 1 2 { 0 3 4 1 3 1 { 0 3 1 { 0 0 1 { 0 0 1 { 0 0 2 3 −7 −10 4 1 2 3 1 10/7 4 1 2 3 1 10/7 −2 −8 2 3 1 10/7 0 (10/7) − 8 2 3 1 10/7 0 1 Lineare Algebra 1 6.2 76 Lineare Gleichungssysteme Verfahren zum Finden aller Lösungen eines Gleichungssystems Ax = b mit gegebenen A ∈ Mn (K) und b ∈ Kn : 1. Bringe A in Zeilenstufenform A0 . und führe alle Transformationen gleichzeitig an dem Vektor b aus. Notiere die ausgeführten Transformationen in der Weise, dass das entsprechende Produkt von Elementarmatrizen S notiert wird. A { A0 = SA, b { b0 = Sb. 2. Löse das System A0 x = b0 . Das ist vergleichsweise einfach. Dann ist jede Lösung des modifizierten Systems auch eine des ursprünglichen Systems, denn A0 x = b0 ⇔ SAx = SB ⇔ Ax = b, da S invertierbar ist. 1 2 , sowie b = 1 . Dies machen Beispiel 6.2.1. Löse Ax = b mit K = Q und A = 2 3 4 wir wie folgt: 1 2 1 1 2 1 { 3 4 2 0 −2 −1 1 2 1 . { 0 1 1/2 Das modifizierte Gleichungssystem ist x1 + 2x2 = 1 1 x2 = 2 0 . Der einzige Lösungsvektor ist x = 1/2 Definition 6.2.2. Ein affiner Unterraum eines Vektorraums V ist eine Teilmenge der Gestalt S = v0 + U Lineare Algebra 1 77 für einen linearen Unterraum U. Beispiel 6.2.3. Jede Gerade in der Ebene R2 oder im Raum R3 ist ein affiner Unterraum. Ein affiner Unterraum ist genau dann ein Untervektorraum, wenn er die Null enthält. Jede Matrix A ∈ Mn (K) liefert eine lineare Abbildung Kn → Kn . Wir identifizieren die Matrix mit dieser Abbildung und schreiben n o ker A = x ∈ Kn : Ax = 0 n o Bild A = Ax : x ∈ Kn . Satz 6.2.4. Ein lineares Gleichungssystem Ax = b ist genau dann lösbar, wenn b ∈ Bild A. Ist dies der Fall, so ist die Lösungsmenge L = {x ∈ Kn : Ax = b} ein affiner Unterraum L = v0 + U, wobei U = ker A und v0 ein beliebiges Element aus L ist. Beweis. Die erste Aussage ist offensichtlich. Sei b ∈ Bild A. Dann existiert ein v0 ∈ Kn mit Av0 = b. Sei U = ker A. Wir zeigen L = v0 + U. “⊂” Sei v ∈ L, also Av = b. Sei u = v − v0 , dann folgt Au = Av − Av0 = b − b = 0, also ist u ∈ U und damit ist v = v0 + u ∈ v0 + U. “⊃” Sei u ∈ U, dann gilt A(v0 + u) = Av0 + Au = b + 0 = b, also ist v0 + u ∈ L. 1 2 3 1 Beispiel 6.2.5. Sei K = Q und A = 2 4 6 , sowie b = 2 . Wir lösen das System −1 3 2 1 mit Zeilentransformationen: 1 2 3 1 2 4 6 2 3 2 1 −1 1 { 0 0 1 { 0 0 2 3 1 0 0 0 −4 −8 −4 2 3 1 1 2 1 0 0 0 Lineare Algebra 1 78 −1/2 Basislösung v0 = 0 . Ferner ist 1/2 1 U = ker A = Q −2 , 1 also −1/2 1 L = 0 + Q −2 . 1/2 1 Lemma 6.2.6. Ist A eine obere Dreiecksmatrix mit Diagonaleinträgen d1 , . . . , dn . Die Matrix A ist genau dann invertierbar, wenn alle Diagonbaleinträge ungleich Null sind. Die Inverse Matrix A−1 ist ebenfalls eine obere Dreiecksmatrix. Ihre Diagonaleinträge sind d−1 , . . . , d−1 n . 1 Beweis. Induktion nach n. Für n = 1 ist die Behauptung klar. t b Induktionsschritt n → n + 1: Wir schreiben A in der Form 0a D mit D ∈ Mn (K). Ist A t invertierbar so ist a , 0, da sonst e1 im Kern von A läge. Schreibe A−1 = Cα βE , so folgt ∗ ∗ I = A−1 A = aC Cbt +ED , also ist C = 0 und ED = In und damit ist nach Induktion E eine obere Dreiecksmatrix. Insgesamt ist A−1 eine obere Dreiecksmatrix. Die Diagonaleinträge von D sind nach Induktion ungleich Null, also sind alle Diagonaleinträge von A ungleich Null. Man sieht auch, dass die Diagonaleinträge von A−1 die Inversen der von A sind. Für die Umkehrung nimm an, dass die Diagonaleinträge von A ungleich Null sind. Nach Induktion ist D invertierbar, nach Multiplikation mit der Matrix 1 D−1 kann man also annehmen, dass A von der Form t a b 0 I ist. Dann kann man durch Zeilentransformationen den Vektor b zu Null machen, was ja bedeutet, dass man A von links mit invertierbaren Matrizen multipliziert um auf die invertierbare Matrix ( a I ) zu kommen. Damit ist A invertierbar. Satz 6.2.7. Ist die Matrix A ∈ Mn (K) invertierbar, dann kann die erweiterte Matrix (A, I) ∈ Mn,2n (K) durch Zeilentransformationen in die Form (I, B) gebracht werden. Dann ist B = A−1 die Inverse zu A. Beweis. Sei S ein Produkt der Elementarmatrizen, die A auf eine Zeilenstufenform D bringen. Da D = SA und A, S invertierbar, ist auch D invertierbar. Da D auf Lineare Algebra 1 79 Zeilenstufenform ist, sind alle Diagonaleinträge gleich 1. Nun kann man durch weitere Zeilentransformationen die Matrix zur Einheitsmatrix machen, hat also SA = I, damit ist S = A−1 . Folgerung. Jede invertierbare Matrix ist ein Produkt von Elementarmatrizen. 1 2 über K = Q. Beispiel 6.2.8. Bestimme die Inverse zu A = 1 1 1 2 1 0 1 1 0 1 { { { 1 2 1 0 0 −1 −1 1 1 2 1 0 0 1 1 −1 1 0 −1 2 . 0 1 1 −1 In der Tat, man stellt fest, dass 1 2 −1 2 1 1 1 1 −1 = 1 ist und damit A−1 6.3 −1 2 . = 1 −1 Rang Definition 6.3.1. Ist A ∈ Mm×n (K) eine Matrix, so definieren wir den Spaltenrang von A als SRang(A) = dim Spann(a1 , . . . , an ), wenn a1 , . . . , an die Spalten von A sind. Analog definiere den Zeilenrang und ZRang(A) = dim Spann(z1 , . . . , zm ), wobei die z j die Zeilen von A sind. Es gilt dann ZRang(A) = SRang(At ). Lineare Algebra 1 80 Beachte SRang(A), ZRang(A) ≤ min(m, n). Satz 6.3.2. Für jede Matrix in Mm×n (K) gilt SRang(A) = ZRang(A). Beweis. Sind die Spalten a1 , . . . , an der Matrix A linear abhängig, so gibt es ein j, so dass a j eine Linearkombination der anderen Spalten ist. Sei A0 die Matrix, die durch Streichen dieser Spalte entsteht. Dann ist SRang(A0 ) = SRang(A). Wir wollen zeigen, dass das gleiche für den Zeilenrang gilt. Nimm hierzu an, dass a j = λ1 a1 + . . .b a j · · · + λn an (*) gilt. Seien zi1 , . . . , zik linear unabhängige Zeilen mit k = ZRang(A) und seien z0i1 , . . . , z0ik die entsprechenden Zeilen der Matrix A0 , Gilt µ1 z0i1 + · · · + µk z0ik = 0, so gilt diese Gleichung für alle Einträge bis auf den j-ten der Zeilen zi1 , . . . , zik . Aber wegen (*) gilt diese Gleichung dann auch für den j-ten Eintrag und daher folgt µ1 zi1 + · · · + µk zik = 0 und damit µ1 = · · · = µk = 0. Damit sind die z0i j linear unabhängig und ZRang(A0 ) = ZRang(A). Durch wiederholte Reduktion der Matrix können wir also n = SRang(A) annehmen. Ist m ≥ n, dann sind die Zeilen linear abhängig und wir können ebenso Zeilen entfernen bis m = n gilt. Damit folgt n = SRang(A) ≥ ZRang(A). Ersetze nun A durch At um die umgekehrte Ungleichung zu erhalten. Definition 6.3.3. Ist T : V → W linear, so definieren wir den Rang von T als Rang(T) = dim Bild(T). Fassen wir eine Matrix als lineare Abbildung auf, ist der Rang gleich dem Spaltenrang, also auch gleich dem Zeilenrang. Lineare Algebra 1 7 81 Determinanten 7.1 Permutationen Sei Per(n) die Menge aller Permutationen in n Elementen, d.h., die Gruppe aller bijektiven Abbildungen σ : {1, . . . , n} → {1, . . . , n}. Eine Transposition ist eine Permutation τ, die zwei Zahlen vertauscht und den Rest gleich lässt. Für 1 ≤ i < j ≤ n sei τi,j die Transposition, die i und j vertauscht. Es gilt τ2i, j = Id. Satz 7.1.1. Jede Permutation σ ∈ Per(n) lässt sich als Produkt von Transpositionen schreiben: σ = τ1 · · · τk Die Transpositionen τ1 , . . . , τk sind nicht eindeutig bestimmt, aber die Parität von k ist eindeutig bestimmt. Das bedeutet, dass für jede andere Darstellung σ = δ1 · · · δm mit Transpositionen δ j gilt (−1)k = (−1)m . Wir nennen diese Zahl das Signum von σ, also sign(σ) = (−1)k . Das Signum ist eine Abbildung sign : Per(n) → {±1} mit sign(αβ) = sign(α) sign(β). Beweis. Sei σ ∈ Per(n) mit σ , Id. Sei k die kleinste Zahl mit σ(k) , k. Sei j = σ(k) und betrachte die Permutation σ1 = τk, j σ. Dann folgt σ1 (i) = i für alle i ≤ k. Wir wiederholen diesen Schritt bis wir am Ende Id = τk · · · τ1 σ Lineare Algebra 1 82 mit Transpositionen τ j erhalten. Hieraus folgt σ = τ1 · · · τk wie behauptet. Sei nun σ = δ1 · · · δm eine zweite Darstellung. Für eine beliebige Permutation γ sei n fehl(γ) = # (i, j) : 1≤i<j≤n γ(i)>γ(j) o die Anzahl der Fehlstände von γ. Wir beobachten nun: Ist τ eine Transposition, so gilt fehl(στ) = fehl(σ) + eine ungerade Zahl. Hierzu sei τ = τi, j . Sind k, k0 beide von i und j verschieden, so folgt (k, k0 ) ist Fehlstand von σ ⇔ (k, k0 ) ist Fehlstand von στ. ⇔ (k, j) ist Fehlstand von στ. Ist k < i < j, so gilt (k, i) ist Fehlstand von σ Ist i < k < j, so gilt (i, k) ist Fehlstand von σ ⇔ (k, j) ist kein Fehlstand von στ, (i, k) ist Fehlstand von στ ⇔ (k, j) ist kein Fehlstand von σ. Damit ergeben diese k eine gerade Anzahl von Veränderungen. Bleibt der Fall (i, j). Hier gilt (i, j) ist Fehlstand von σ ⇔ (i, j) ist kein Fehlstand von στ. Daher ist die Anzahl der Veränderungen gleich ±1 plus einer geraden Zahl. Ist also σ = τ1 · · · τk , so folgt (−1)k = (−1)fehl(σ) und damit ist das Signum wohldefiniert. Außerdem ist es multiplikativ, was man sieht, indem man Darstellungen von α und β hintereinander schreibt. Beispiel 7.1.2. Sei σ ∈ Per(3) definiert durch 1 2 3 2 3 1 . Lineare Algebra 1 83 Dann ist sign(σ) = 1, denn σ = τ1 τ2 mit 1 2 3 , τ1 = 1 3 2 1 2 3 . τ2 = 3 2 1 Definition 7.1.3. Sei A = (ai,j ) ∈ Mn (K). Definiere die Determinante von A durch det(A) = X sign(σ) a1,σ(1) a2,σ(2) · · · an,σ(n) . σ∈Per(n) • n = 1, det(A) = a1,1 . a b = ad − bc. • n = 2, det c d Beispiele 7.1.4. a b c • n = 3, det d e f = aej + b f g + cdh − ceg − bdj − a f h. g h j Proposition 7.1.5. Ist A eine obere Dreiecksmatrix, a1,1 .. A = . ∗ , an,n dann ist det(A) = a1,1 · · · an,n . Beweis. Sei σ ∈ Per(n) mit a1,σ(1) · · · an,σ(n) , 0, dann folgt σ(j) ≥ j für jedes j. Dann aber ist σ( j) = j für jedes j, also σ = Id. Proposition 7.1.6. Für jede quadratische Matrix A ∈ Mn (K) gilt det A = det At , also det A = X sign(σ)aσ(1),1 · · · aσ(n),n . σ∈Per(n) Beweis. Es gilt Ati, j = Ai, j . Für σ ∈ Per(n) ordne das Produkt a1,σ(1) · · · an,σ(n) nach dem zweiten Index und erhalte aσ0 (1),1 · · · aσ0 (n),n , wobei σ0 die zu σ inverse Permutation ist. Lineare Algebra 1 84 Ist σ = τ1 · · · τk als Produkt von Transpositionen, so ist σ0 = τk · · · τ1 , also folgt sign(σ0 ) = sign(σ). Damit ist det A = = = X σ X σ X sign(σ)a1,σ(1) · · · an,σ(n) sign(σ)aσ0 (1),1 · · · aσ0 (n),n sign(σ)aσ(1),1 · · · aσ(n),n σ = det At . Lemma 7.1.7. Hat die Matrix A zwei gleiche Zeilen oder zwei gleiche Spalten, so ist det A = 0. Beweis. Wegen det(A) = det(At ) reicht es, anzunehmen, dass A zwei gleiche Zeilen hat. Es gebe also i , j mit ai,k = a j,k für jedes k. Dann gilt det A = X sign(σ) σ = n Y aν,σ(ν) ν=1 X sign(σ) n Y aν,σ(ν) + ν=1 σ:σ(i)<σ(j) X sign(σ) n Y σ:σ(i)>σ(j) aν,σ(ν) . ν=1 Sei τ = τi, j die Transposition, die i und j vertauscht. Dann folgt det A = X sign(σ) σ:σ(i)<σ(j) n Y aν,σ(ν) + ν=1 X sign(στ) n Y aν,στ(ν) ν=1 σ:σ(i)<σ(j) Fuer jedes k gilt aτ(ν),k = aν,k . Daher sehen wir, indem wir das Produkt nach τ(ν) ordnen: n Y ν=1 aν,στ(ν) = n Y aτ(ν),σ(ν) = ν=1 Da sign(στ) = − sign(σ), ergibt sich det A = 0. 1 2 3 Beispiel 7.1.8. Es ist det 1 2 3 = 0. 4 5 6 n Y aν,σ(ν) . ν=1 Lemma 7.1.9. Die Determinanten-Abbildung det : Mn (K) → K ist linear in jeder Zeile oder Spalte. Lineare Algebra 1 85 Genauer: sind a1 , . . . , an , a0j Spaltenvektoren, so gilt det(a1 , . . . , a j + a0j , . . . , an ) = det(a1 , . . . , a j , . . . , an ) + det(a1 , . . . , a0j , . . . , an ) und für λ ∈ K gilt det(a1 , . . . , λa j , . . . , an ) = λ det(a1 , . . . , a j , . . . , an ) und analog für Zeilen. Beweis. Es gilt det a1,1 . . . .. . a1, j + a01,j . . . .. . a1,n .. . an,1 . . . an, j + a0n, j . . . an,n X = sign(σ)aσ(1),1 · · · (aσ(j),j + a0σ(j),j ) · · · aσ(n),n σ X = sign(σ)aσ(1),1 · · · aσ(j),j · · · aσ(n),n + σ X σ sign(σ)aσ(1),1 · · · a0σ(j), j · · · aσ(n),n . Die zweite Gleichung folgt ähnlich. Die Aussage über Zeilen folgt aus der für Spalten und det A = det At . 7.2 Determinante und Zeilentransformationen Satz 7.2.1. Die Determinante hat folgende Eigenschaften. (a) Falls die Matrix B aus A durch Addition des λ-fachen einer Zeile zu einer anderen hervorgeht (Zeilentrafo 1), so gilt det B = det A. (b) Falls B aus A durch Multiplikation einer Zeile mit µ ∈ K hervorgeht (Zeilentrafo 2), so gilt det B = µ det A. Lineare Algebra 1 86 (c) Falls die Matrix B aus A durch Vertauschung zweier Zeilen hervorgeht (Zeilentrafo 3), so gilt det B = − det A. Beweis. (a) Seien z1 , . . . , zn Zeilenvektoren. Dann gilt z1 .. . det z j + λzi .. . zn = det z1 .. . zj .. . zn + λ z1 .. . det zi .. . z n | {z } = det z1 .. . zj .. . zn . =0 (zwei gleiche Spalten) Teil (b) folgt ebenso. Für (c) rechne det z1 .. . zi .. . zj .. . zn z1 .. . zi + z j .. = . z j .. . zn z1 .. . zi + z j .. = . z j − (zi + z j ) .. . z n z1 .. . zi + z j .. = . −zi .. . zn = = − zn 1 .. . 1 Mi (µ) = µ 1 .. . , z1 .. . zj .. . −zi .. . zn z1 .. . zj .. . zi .. . Wir erinnern an die Elementarmatrizen: 1 ... Ai,j (λ) = . λ .. 1 , . Lineare Algebra 1 87 1 0 1 Si, j = 1 1 0 1 , Wobei wir jetzt auch µ = 0 zulassen wollen. Dann ist allerdings Mi (µ) nicht mehr invertierbar. Lemma 7.2.2. Jede Matrix A ∈ Mn (K) ist ein Produkt von Elementarmatrizen. Beweis. Sei A ∈ Mn (K). Nach dem Gaußschen Eliminationsverfahren gibt es eine Matrix S, die ein Produkt aus invertierbaren Elementarmatrizen ist, so dass die Matrix U = SA in Zeilenstufenform ist, also u1 ∗ . .. U = 0 un n o mit u j ∈ 0, 1 . Falls un = 0 ist, dann ist u1 ∗ .. U = Mn (0) . . 0 1 Durch Multiplizieren von links mit Matrizen der Form Ai, j (λ) können wir die rechte Matrix in die Form ∗ 0 u1 .. .. . . un 0 0 1 bringen. Wir wiederholen dies für die Untermatrix und erhalten im Endeffekt U = S2 I, wobei S2 ein Produkt von Elementarmatrizen ist. Beispiel 7.2.3. Wir haben 1 2 1 2 1 1 3 4 = 3 1 −3 1 . Lineare Algebra 1 7.3 88 Multiplikativität Satz 7.3.1. Für Matrizen A, B ∈ Mn (K) gilt det(AB) = det(A) det(B). Ferner gilt A ist invertierbar ⇔ det A , 0. Beweis. Für die Elementarmatrizen gilt det Ai,j (λ) = 1, det Mi (µ) = µ, det Si, j = −1. Daher folgt aus Satz 7.2.1, dass det(SA) = det S det A, falls S eine Elementarmatrix ist. Seien A, B beliebig. Nach Lemma 7.2.2 können wir schreiben: A = S1 · · · Sk , B = T1 · · · Tm , wobei S1 , . . . , Sk , T1 , . . . Tm Elementarmatrizen sind. Es folgt det(AB) = det(S1 · · · Sk T1 · · · Tm ) = det(S1 ) · · · det(Sk ) det(T1 ) · · · det(Tm ) | {z }| {z } =det(S1 ···Sk ) =det(T1 ···Tm ) = det(A) det(B). Sei nun A invertierbar. Dann ist 1 = det(I) = det(AA−1 ) = det(A) det(A−1 ), also ist det(A) , 0. Ist umgekehrt det A , 0, so schreibe A = S1 · · · Sk als Produkt von Elementarmatrizen. Dann folgt 0 , det(A) = det(S1 ) · · · det(Sk ), also ist det(S j ) , 0 für jedes S j . Daher ist keine der S j gleich einer Matrix Mi (0) und daher sind alle S j invertierbar, also ist A invertierbar. Proposition 7.3.2. Eine Matrix A ∈ Mn (K) ist genau dann invertierbar, wenn der Rang von A gleich n ist. Beweis. A ist genau dann invertierbar, also bijektiv, wenn A surjektiv ist, wenn also Rang(A) = dim Bild(A) = n gilt. Lineare Algebra 1 7.4 89 Laplace-Entwicklung Definition 7.4.1. Sei A ∈ Mn (K), n ≥ 2 und für 1 ≤ i, j ≤ n sei C(i, j) ∈ Mn−1 (K) die Matrix, die aus A durch Wegstreichen der i-ten Zeile und j-ten Spalte entsteht. 1 2 3 Beispiel 7.4.2. Ist A = 4 5 6 , dann ist 7 8 9 1 2 3 1 3 C(2, 2) = 4 5 6 = 7 9 7 8 9 Es ist leicht zu sehen, dass a1,1 .. . a i−1,1 det(C(i, j)) := det ai+1,1 .. . an,1 ... ... ... ... a1,1 .. . ai−1,1 = (−1)i+j det 0 ai+1,1 .. . a n,1 a1,j−1 .. . ... a1, j+1 .. . ai−1,j−1 ai−1, j+1 . . . ai+1,j−1 ai+1, j+1 . . . .. .. . . an,j−1 an,j+1 . . . ... a1, j−1 .. . ... ... ... ai−1, j−1 0 ai+1, j−1 .. . ... an, j−1 0 .. . an,n 0 ai−1, j+1 1 0 0 ai+1,j+1 .. .. . . 0 an, j+1 Satz 7.4.3. Für jedes j = 1, . . . , n gilt n X (−1)i+j ai, j det(C(i, j)) i=1 ai−1,n ai+1,n .. . a1, j+1 .. . gilt. det A = a1,n .. . ... a1,n .. . ... ... ... ai−1,n 0 ai+1,n .. . ... an,n Lineare Algebra 1 90 und für jedes i = 1, . . . , n gilt n X (−1)i+j ai,j det(C(i, j)). det A = j=1 Beweis. a1,1 .. . ai−1,1 i+j (−1) ai, j det(C(i, j)) = ai, j det 0 ai+1,1 . .. a n,1 a1,1 .. . ai−1,1 = det 0 ai+1,1 .. . a n,1 = X ... a1,j−1 .. . ... ... ... ai−1, j−1 0 ai+1, j−1 .. . ... an,j−1 ... ... ... ... ... a1, j−1 .. . 0 .. . 0 .. . a1, j+1 .. . 0 ai−1, j+1 1 0 0 ai+1, j+1 .. .. . . 0 an, j+1 a1, j+1 .. . ai−1,j−1 0 ai−1,j+1 0 ai, j 0 ai+1,j−1 0 ai+1,j+1 .. .. .. . . . an, j−1 0 an, j+1 ... a1,n .. . ... ... ... ai−1,n 0 ai+1,n .. . ... an,n ... a1,n .. . ... ... ... ai−1,n 0 ai+1,n .. . ... an,n sign(σ)a1,σ(1) · · · an,σ(n) . σ∈Per(n) σ(i)=j Also ist n X i=1 (−1) ai, j det(C(i, j)) = i+j n X X sign(σ)a1,σ(1) · · · an,σ(n) = det A. i=1 σ∈Per(n) σ(i)=j Die andere Aussage beweist man analog. Lineare Algebra 1 91 Beispiel 7.4.4. det 1 1 1 5 7 2 1 0 6 8 3 0 0 0 0 4 3 0 1 3 5 1 0 2 2 = −54. Satz 7.4.5 (Axiomatische Charakterisierung der Determinante). Sei D : Mn (K) eine Abbildung, die • linear in jeder Zeile ist, • D(A) = 0 erfüllt, falls A zwei gleiche Zeilen hat und • D(I) = 1 erfüllt. Dann gilt D(A) = det A für jedes A ∈ Mn (K). Beweis. Wie im Beweis von Satz 7.2.1 zeigt man, dass D(SA) = det(S)D(A) falls S eine Elementarmatrix ist. Da jede Matrix ein Produkt von Elementarmatrizen ist, folgt die Behauptung. Definition 7.4.6. Sei A ∈ Mn (K) und Sei C(i, j) die Matrix aus der Laplace-Entwicklung. Sei schliesslich A# die Matrix mit den Einträgen A#i,j = (−1)i+j det(C(j, i)). Man nennt A# ∈ Mn (K) die Komplementärmatrix zu A. Satz 7.4.7. Ist A ∈ Mn (K) und A# die Komplementärmatrix, so gilt AA# = A# A = det(A)I. Beweis. Sind a1 , . . . , an die Spalten von A, so gilt A j,i = det(a1 , . . . , a j−1 , ei , a j+1 , . . . , an ). Lineare Algebra 1 92 Daher ist (A A) j,k = # n X A#j,i Ai,k i=1 = n X det(a1 , . . . , a j−1 , ei , a j+1 , . . . , an )ai,k i=1 n X ai,k ei , a j+1 , . . . , an = det a1 , . . . , a j−1 , i=1 = det a1 , . . . , a j−1 , ak , a j+1 , . . . , an = δ j,k det A, wobei δ j,k 1 = 0 j = k, j , k. Das Symbol δ j,k wird auch Kronecker-Delta genannt. Der das Produkt AA# berechnet man analog. Lineare Algebra 1 8 8.1 93 Eigenwerte Ein Beispiel 2 0 ∈ Mn (R). Die Abbildung x 7→ Ax von R2 nach R2 Betrachte die Matrix A = 0 3 1 0 streckt den Vektor e1 = um den Faktor 2 und den Vektor e2 = 0 1 um den Faktor 3. Sie bildet also den Kreis mit Radius 1 auf eine Ellipse ab: 1 1 Wir betrachten nun die Basis v1 = , v2 = 2 1 und entsprechend die 1 1 , so gilt Se1 = v1 und Se2 = v2 . Wir berechnen die Inverse Basiswechselmatrix S = 1 2 2 −1 . Aus Se j = v j folgt dann S−1 v j = e j . Sei dann B = SAS−1 , so gilt zu S−1 = −1 1 Bv1 = SAS−1 v1 = SAe1 = S(2e1 ) = 2v1 1 1 beschreibt also dieselbe Abbildung nur und ebenso Bv2 = 3v2 . Die Matrix B = −2 4 in der Basis v1 , v2 . Lineare Algebra 1 8.2 94 Lineare Unabhängigkeit von Eigenvektoren Definition 8.2.1. Sei T : V → V linear. Ein Vektor v ∈ V heißt Eigenvektor von T zum Eigenwert λ ∈ K, falls • v , 0 und • T(v) = λv. 2 1 . Dann ist der Vektor v = 1 ein Eigenvektor Beispiel 8.2.2. Sei K = Q und T = 0 0 3 zum Eigenwert 2. Ferner ist 1 T = 1 3 = 3 1 3 , 1 1 also ist ein Eigenvektor zu Eigenwert 3. 1 Satz 8.2.3. Sei T : V → V linear und seien v1 , . . . , vk Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , . . . , λk . Dann sind die v1 , . . . , vk linear unabhängig. Beweis. Induktion nach k. Für k = 1 ist nichts zu zeigen, da Eigenvektoren stets , 0 sind. k → k + 1: Seien µ1 v1 + · · · + µk+1 vk+1 = 0 (I) eine Linearkombination der Null. Wir wenden T hierauf an und erhalten µ1 λ1 v1 + · · · + µk+1 λk+1 vk+1 = 0. (II) Wir multiplizieren (I) mit λk+1 und erhalten µ1 λk+1 v1 + · · · + µk+1 λk+1 vk+1 = 0. (III) Lineare Algebra 1 95 Nun ziehen wir (III) von (II) ab und erhalten µ1 (λ1 − λk+1 )v1 + · · · + (λk − λk+1 )µk vk = 0. (II)-(III) Nach Induktionsvoraussetzung ist µ j (λ j − λk+1 ) = 0 für jedes j = 1, . . . , k. Da λ j , λk+1 , folgt µ1 = · · · = µk = 0. Damit folgt aus (I), dass µk+1 vk+1 = 0 und da auch vk+1 , 0, ist auch µk+1 = 0. 8.3 Das charakteristische Polynom Definition 8.3.1. Sei A ∈ Mn (K) mit Einträgen (ai, j ). Dann ist die Determinante det(A) = X sign(σ)a1,σ(1) · · · an,σ(n) σ ein “Polynom” in den Einträgen ai,j . Daraus folgt: Ist F(x) eine Matrix F1,1 (x) . . . .. F(x) = . Fn,1 (x) . . . F1,n (x) .. . Fn,n (x) , wobei die Einträge Polynome Fi, j (x) ∈ K[x] sind, dann ist det(F(x)) ein Polynom in K[x]. Wir wenden dies an auf x − a1,1 . . . −a1,n .. .. ... F(x) = xI − A = . . −an,1 . . . x − an,n . Das Polynom χA (x) = det(xI − A) nennt man das charakteristische Polynom von A. 1 2 Beispiel 8.3.2. Sei A = , dann ist 3 4 x − 1 −2 = (x − 1)(x − 4) − 6 = x2 − 5x − 2. χA (x) = det −3 x − 4 Lineare Algebra 1 96 Satz 8.3.3. Die Eigenwerte einer Matrix A ∈ Mn (K) sind genau die Nullstellen des charakteristischen Polynoms χA (x). Beweis. Sei λ ein Eigenwert von A. Dann existiert ein Vektor v , 0 in Kn mit Av = λv, also (λI − A)v = 0. Daher ist ker(λI − A) , 0, also ist die Matrix (λI − A) nicht invertierbar, also folgt χA (λ) = det(λI − A) = 0 nach Satz 7.3.1. Ist umgekehrt λ eine Nullstelle von χA (x), dann ist die Matrix (λI − A) nicht invertierbar, hat also einen nichttrivialen Kern, damit gibt es einen Vektor v ∈ Kn mit v , 0 und Av = λv. 1 1 . Dann ist Beispiel 8.3.4. Sei A = 1 1 x − 1 −1 = (x − 1)2 − 1 = x2 − 2x = x(x − 2). χA (x) = det −1 x − 1 Dieses Polynom hat genau die Nullstellen x = 0 und x = 2. Hierzu gehören die 1 und 1 . Eigenvektoren 1 −1 Korollar 8.3.5. Jede Matrix in Mn (C) hat einen Eigenwert. Korollar 8.3.6. Ist K algebraisch abgeschlossen und ist f (x) ∈ Mn (K) ein nichtkonstantes Polynom, dann zerfällt f in Linearfaktoren, d.h., f (x) = c(x − λ1 ) · · · (x − λn ), wobei c, λ1 , . . . , λn ∈ K sind. Beweis. Ist λ eine Nullstelle von f , dann ist f (x) = (x − λ)g(x) für ein Polynom g. Wir wiederholen dies für g, bis wir bei einer Konstanten c ankommen. Definition 8.3.7. Zwei Matrizen A, B ∈ Mn (K) heißen ähnlich, falls es eine invertierbare Matrix S ∈ GLn (K) gibt mit B = S−1 AS. Lineare Algebra 1 97 Satz 8.3.8. Sind die Matrizen A, B ∈ Mn (K) ähnlich, dann haben sie dasselbe charakteristische Polynom. Beweis. Sei B = S−1 AS, dann gilt χB (x) = det(xI − B) = det(xS−1 S − S−1 AS) = det(S−1 (xI − A)S) = det(S−1 ) det(xI − A) det(S) = det(S−1 S) det(xI − A) = χA (x). 2 2 1 und S = . Man berechnet die inverse Matrix als Beispiel 8.3.9. Sei A = 1 1 1 1 −1 −1 S = . Dann ist −1 2 1 −1 2 2 1 2 −1 2 1 3 1 . = = B = S AS = −1 2 1 1 1 −2 2 1 1 −2 0 −1 Wir haben χA (x) = (x − 2)(x − 1) und x − 3 −1 = (x − 3)x + 2 = x2 − 3x + 2 = (x − 2)(x − 1). χB (x) det 2 x Definition 8.3.10. Sei T : V → V linear, wobei V endlich-dimensional ist. Wähle dann eine Basis α von V und betrachte die Matrix A = Mα (T). Definiere dann das charakteristische Polynom von T als χT (x) = χA (T) = det(xI − A). Nach Satz 8.3.8 und dem Basiswechselsatz 5.6.3 hängt χT nicht von der Wahl der Basis ab. Definition 8.3.11. Eine Matrix A ∈ Mn (K) heißt trigonalisierbar, wenn sie zu einer oberen Dreiecksmatrix ähnlich ist. Lineare Algebra 1 98 Satz 8.3.12. Eine quadratische Matrix A ist genau dann trigonalisierbar, wenn ihr charakteristisches Polynom in ein Produkt von Linearfaktoren zerfällt. In diesem Fall ist A ähnlich zu einer Matrix der Form λ1 ∗ ... D = 0 λn , wobei λ1 , . . . , λn die (nicht notwendig verschiedenen) Nullstellen von χA sind. Ist K algebraisch abgeschlossen, dann ist jede Matrix trigonalisierbar. Beweis. Sei A trigonalisierbar, also ähnlich zu einer Matrix λ1 ∗ . .. D = 0 λn x − λ1 ∗ . .. Dann ist χA (x) = χD (x) = det 0 x − λn , = (x − λ1 ) · · · (x − λn ). Umgekehrt sei χA (x) = (x − λ1 ) · · · (x − λn ). Dann hat A einen Eigenvektor v1 zum Eigenwert λ1 . Ergänze v1 zu einer Basis v1 , . . . , vn von Kn . Sei dann S die Matrix mit den Spalten v1 , . . . , vn . Dann ist der Rang von S gleich n, also ist S invertierbar. Setze A1 = S−1 AS. Dann folgt A1 e1 = S−1 ASe1 = S−1 Av1 = λ1 S−1 v1 = λ1 e1 . Also ist A1 von der λ1 ∗ für eine Matrix C mit χC (x) = (x − λ2 ) · · · (x − λn ). Eine Induktion nach n Form 0 C liefert die Existenz einer invertierbaren (n − 1) × (n − 1) Matrix Ũ mit λ2 ∗ 1 .. . Mit der Matrix U = folgt dann Ũ−1 CŨ = . Ũ λn λ1 ∗ ... U−1 A1 U = . λn Lineare Algebra 1 99 λ1 .. Definition 8.3.13. Eine Matrix, die zu einer Diagonalmatrix . λn ähnlich ist, heißt diagonalisierbar. Proposition 8.3.14. Hat die Matrix A ∈ Mn (K) n paarweise verschiedene Eigenwerte, dann ist A diagonalisierbar. Beweis. Seien λ1 , . . . , λn die Eigenwerte und seien v1 , . . . , vn Eigenvektoren dazu. Dann sind v1 , . . . , vn linear unabhängig nach Satz 8.2.3. Daher ist die Matrix S mit den Spalten v1 , . . . , vn invertierbar und es gilt S−1 ASek = S−1 Avk = λk S−1 vk = λk ek , mit anderen Worten: λ1 ... A = λn . −7 2 1 . Finde S mit S−1 AS = Beispiel 8.3.15. Sei A = −1. −24 7 Satz 8.3.16. Für A, B ∈ Mn (K) gilt χAB = χBA . Beweis. Ist A invertierbar, so gilt χAB = χA−1 (AB)A = χBA . Betrachte nun den Fall, dass A nicht invertierbar ist. Wir können annehmen, dass K unendlich viele Elemente hat, da wir sonst zu einem Erweiterungskörper übergehen. Dann ist die Matrix A − λI für unendlich viele λ ∈ K invertierbar, da das Polynom λ 7→ det(A − λI) nur endlich viele Nullstellen hat. Für jedes solche λ gilt χ(A−λI)B (x) = χB(A−λI) (x) Lineare Algebra 1 100 für alle x ∈ K. Fixiere ein x ∈ K. Dann hat die Polynomabbildung λ 7→ χ(A−λI)B (x) − χB(A−λI) (x) unendlich viele Nullstellen, ist also identisch Null. Man kann also λ = 0 einsetzen und findet χAB (x) − χBA (x) = 0 fuer jedes x ∈ K. Da K unendlich viele Elemente hat, ist das Polynom auf der linken Seite Null, also χAB = χBA . Definition 8.3.17. Sei A = (ai, j ). Dann gilt χA (x) = (x − a1,1 ) . . . (x − an,n ) + Terme vom Grad ≤ n − 2 = xn − (a1,1 + · · · + an,n )xn−1 + Terme vom Grad ≤ n − 2. Wir definieren daher tr(A) = a1,1 + · · · + an,n und nennen diesen Ausdruck die Spur der Matrix A. Satz 8.3.18. Die Abbildung tr : Mn (K) ist linear und erfüllt tr(AB) = tr(BA). Beweis. Dies folgt aus der Tatsache, dass − tr(A) der (n − 1)-te Koeffizient von χA (x) ist. Zerfällt χA (x) in linearfaktoren, dann ist A trigonalisierbar mit den Eigenwerten auf der Diagonalen, daher ist dann tr(A) = Summe der Eigenwerte von A. Definition 8.3.19. Sei λ ∈ K und A ∈ Mn (K). Wir definieren den Eigenraum zu λ durch n o Eig(A, λ) = v ∈ Kn : Av = λv . Lineare Algebra 1 101 Es gilt dann λ ist Eigenwert ⇔ Eig(A, λ) , 0. Ist λ eine Eigenwert von A, so nennen ist die algebraische Vielfachheit m(A, λ) von λ gleich der Vielfachheit der Nullstelle λ von χA . Wir definieren die geometrische Vielfachheit von λ als die Dimension des Eigenraums Eig(A, λ). 3 . Dann ist χA (x) = (x − 3)2 , also ist die Beispiele 8.3.20. • Sei A = 3 algebraische Vielfachheit des Eigenwertes 3 gleich 2. In diesem Fall ist dies auch gleich der geometrischen Vielfachheit, denn Eig(A, 3) = K2 . 3 1 . Dann ist χB (x) = (x − 3)2 , also ist auch hier die algebraische • Sei B = 3 Vielfachheit gleich 2, aber die geometrische ist gleich 1, denn Eig(B, 3) = Ke1 . Satz 8.3.21. Die geometrische Vielfachheit eines Eigenwertes ist stets kleiner oder gleich der algebraischen, also dim Eig(A, λ) ≤ m(A, λ). Beweis. Sei v1 , . . . , vk eine Basis von Eig(A, λ). Erweitere diese zu einer Basis v1 , . . . , vn von Kn . Sei S die Matrix mit den Spaltenvektoren v1 , . . . , vn . Für 1 ≤ j ≤ k = dim Eig(A, λ) gilt S−1 ASe j = S−1 Av j = λ j S−1 v j = λ j e j . Daher ist und es folgt χA (x) = (x − λ)k χC (x). λI ∗ k S−1 AS = 0 C Lineare Algebra 1 102 Definition 8.3.22. Sei T : V → V linear, wobei dim V < ∞. Dann heißt T diagonalisierbar, wenn es eine Basis gibt, bezüglich der T durch eine Diagonalmatrix dargestellt wird. Es gilt also T diagonalisierbar ⇔ Mα (T) ist diagonalisierbar, wobei α irgendeine Basis ist. Satz 8.3.23. Für eine lineare Abbildung T : V → V auf einem endlich-dimensionalen Raum V sind äquivalent: (a) T ist diagonalisierbar, (b) χT (x) zerfällt in Linearfaktoren und dim Eig(T, λ) = m(T, λ) für jedes λ ∈ K, L (c) V = Eig(T, λ). λ∈K Beweis. (a)→(b) Ist T diagonalisierbar, so gibt es eine Basis α bzgl der T durch eine Diagonalmatrix mit Diagonale λ1 , . . . , λ1 , λ2 , . . . , λk , wobei jeder Eigenwert λ j gemäß Q seiner algebraischen Vielfachheit m j wiederholt wird. Dann ist χT (x) = kj=1 (x − λ j )m j und m j = dim Eig(T, λ j ). (b)→(c) Die Summe Eig(T, λ1 ) ⊕ · · · ⊕ Eig(T, λk ) ist direkt nach Satz 8.2.3. Ferner ist P dim V = j dim Eig(T, λ j ) und daher folgt die Behauptung. (c)→(a) ist klar. Satz 8.3.24. (a) Ist T : V → V diagonalisierbar und ist U ⊂ V ein Unterraum mit T(U) ⊂ U, dann ist T|U : U → U diagonalisierbar. (b) Sind S, T : V → V linear, beide diagonalisierbar und gilt ST = TS, dann sind die beiden lineare Abbildungen simultan diagonalisierbar, d.h. es gibt eine Basis v1 , . . . , vn bestehend aus simultanen Eigenvektoren. Beweis. (a) Seien λ, . . . , λk die verschiedenen Eigenwerte von T und V j = Eig(T, λ j ). Dann gilt V = V1 ⊕ · · · ⊕ Vk . Sei nun u ∈ U, dann gilt u = u1 + · · · + uk mit eindeutig Lineare Algebra 1 103 bestimmten u j ∈ V j . Wir müssen zeigen, dass jedes u j wieder in U liegt. Anwendung von T einerseits und Multiplikation mit λk andererseits liefert Tu = λ1 u1 + · · · + λk uk , λk u = λk u1 + · · · + λk uk . Wir nehmen die Differenz und sehen (λ1 − λk )u1 + · · · + (λk−1 − λk )uk−1 ∈ U. Wir wenden denselben Schluss nochmals an: (λ1 − λk )(λ1 − λk−1 )u1 + · · · + (λk−2 − λk )(λk−2 − λk−1 )uk−2 ∈ U. Wir wiederholen dies bis zu (λ1 − λk ) · · · (λ1 − λ2 )u1 ∈ U. Da die Eigenwerte verschieden sind, folgt u1 ∈ U. Aus Symmetriegründen folgt u j ∈ U für jedes j. (b) Sei λ ein Eigenwert von S und v ein Eigenvektor. Dann gilt S(Tv) = T(Sv) = T(λv) = λTv, also liegt Tv wieder in Eig(S, λ). Anwendung von (a) auf den Unterraum U = Eig(S, λ) zeigt, dass T auf diesem Raum diagonalisierbar ist, d.h. Eig(S, λ) hat eine Basis aus simultanen Eigenvektoren. Da dies für jeden Eigenraum gilt, folgt die Behauptung. 8.4 Der Satz von Cayley-Hamilton Definition 8.4.1. Sei T : V → V linear. Für jedes k ∈ N definiere die k-te Potenz von T durch Tk = T ◦ T ◦ · · · ◦ T | {z } k-mal Lineare Algebra 1 104 Ferner sei T0 = IdV . Ist dann f (x) = a0 + a1 x + · · · + an xn ein Polynom, dann setze f (T) = a0 IdV + a1 T + · · · + an Tn . Dann ist f (T) eine lineare Abbildung auf V. 1 1 Beispiel 8.4.2. Sei V = K2 und T = . Sei f (x) = 1 + x + x2 . Es ist 1 2 1 1 1 1 2 3 1 1 1 2 3 4 4 2 = . Also ist f (T) = T = 1 + 1 2 + 3 5 = 4 8. 1 2 1 2 3 5 Ist hingegen g(x) = 1 − 3x + x2 , so gilt 1 1 1 2 3 0 0 − 3 g(T) = 1 2 + 3 5 = 0 0 = 0. 1 Satz 8.4.3 (Cayley-Hamilton). Ist A ∈ Mn (K) und ist f (x) = χA (x) = det(x − A) das charakteristische Polynom, dann gilt f (A) = 0. Beweis. Für jedes Polynom g(x) gilt g(S−1 AS) = S−1 g(A)S. Der Körper K besitzt einen algebraischen Abschluss K̄, über dem das charakteristische Polynom in Linearfaktoren zerfällt, also die Matrix A trigonalisierbar ist. Wir können also λ1 ∗ ... annehmen, dass A = gilt. Dann ist f (x) = (x − λ1 ) · · · (x − λn ). λn Wir zeigen durch Induktion, dass (A − λ1 ) · · · (A − λ j I)e j = 0. Für j = 1 ist dies klar. Lineare Algebra 1 105 j → j + 1: Da A eine obere Dreiecksmatrix ist, liegt (A − λ j+1 )e j+1 in Spann(e1 , . . . , e j ). Nach Induktionsvoraussetzung gilt (A − λ1 ) · · · (A − λ j )e1 = 0 .. . (A − λ1 ) · · · (A − λ j )e j = 0 Damit folgt (A − λ1 ) · · · (A − λ j+1 )e j+1 = 0. Definition 8.4.4. Ein Polynom f heißt normiert, falls der Leitkoeffizient gleich 1 ist, wenn also f von der Form a0 + a1 x + · · · + an−1 xn−1 + xn ist. Satz 8.4.5. Für eine gegebene Matrix A ∈ Mn (K) existiert ein eindeutig bestimmtes normiertes Polynom mA (x), das Minimalpolynom, so dass mA (A) = 0 und der Grad von mA ist minimal unter allen Polynomen g mit g(A) = 0. Ist g ein Polynom mit g(A) = 0, so existiert ein Polynom q, so dass g(x) = q(x)mA (x). Sind A und B ähnlich, so ist mA = mB . Beweis. Nach dem Satz von Cayley-Hamilton gibt es ein Polynom f , 0 mit f (A) = 0. Sei ν der minimale Grad eines Polynoms g mit g(A) = 0. Sei m(x) ein Polynom vom Grad ν mit m(A) = 0. Indem wir durch den Leitkoeffizienten teilen, können wir m als normiert annehmen. Damit ist die Existenz bewiesen. Wir brauchen die Eindeutigkeit. Sei also n(x) ein weiteres normiertes Polynom vom Grad ν mit n(A) = 0. Dann ist der Grad von g(x) = m(x) − n(x) echt kleiner als ν und es ist g(A) = m(A) − n(A) = 0. da der Lineare Algebra 1 106 Grad ν minimal war, ist g(x) = 0, also m = n. Damit ist der erste Teil des Satzes bewiesen. Für den zweiten sei g , 0 ein Polynom mit g(A) = 0. Dann ist der Grad von g größer oder gleich ν. Nach Polynomdivision existieren Polynome q(x), r(x) mit grad(r) < ν und g(x) = q(x)m(x) + r(x). Es folgt r(A) = g(A) − q(A)m(A) = 0 − 0 = 0. Da grad(r) < ν, folgt r = 0, also g(x) = q(x)m(x). Schliesslich die letzte Aussage des Satzes. Sei B = S−1 AS, dann gilt mA (B) = mA (S−1 AS) = S−1 mA (A)S = 0. Damit existiert ein Polynom q mit mA (x) = q(x)mB (x). Der Schluss funktioniert mit umgekehrten Rollen ebensogut, also existiert auch ein Polynom p(x) mit mB (x) = p(x)mA (x). Daher mA (x) = p(x)q(x)mA (x), woraus folgt, dass p und q konstant sind. Da mA und mB normiert sind, sind p = q = 1, also mA = mB . 1 . Dann ist χ (x) = (x − 1)(x − 2)2 . Das Beispiel 8.4.6. Sei A = 2 A 2 Minimalpolynom mA muss ein Teiler von χA sein, also bleibt (x − 1), (1 − 2), (x − 2)2 , (x − 1)(x − 2), (x − 1)(x − 2)2 . Nur die letzten beiden annullieren A, also ist mA (x) = (x − 1)(x − 2). Proposition 8.4.7. Das charakteristische Polynom von A zerfalle in Linearfaktoren (etwa wenn K = K̄). Seien λ1 , . . . , λk die verschiedenen Eigenwerte von A. Sei k Y χA (x) = (x − λ j )n j j=1 das charakteristische Polynom. Dann ist das Minimalpolynom mA von der Form k Y mA (x) = (x − λ j )m j , j=1 wobei gilt 1 ≤ mj ≤ nj für j = 1, . . . , k. Insbesondere hat das Minimalpolynom dieselben Nullstellen wie das charakteristische Polynom. Lineare Algebra 1 107 Beweis. Da mA das charakteristische Polynom teilt, muss es von der angegebenen Form sein für Exponenten 0 ≤ m j ≤ n. Es bleibt zu zeigen, dass jeder Eigenwert eine Nullstelle von mA ist. Sei λi ein Eigenwert und sei v ein Eigenvektor zu diesem Eigenwert, also Av = λi v. Es gilt 0 = mA (A)v = Y (A − λ j )m j v j Y = (λi − λ j )m j v j − λ j )m j kann aber nur Null sein, wenn mi ≥ 1 ist. 2 1 , dann ist χA (x) = mA (x) = (x − 2)2 . Beispiele 8.4.8. • Ist A = 0 2 Der Faktor Q j (λi 2 0 , dann ist χB (B) = (x − 2)2 und mB (x) = x − 2. • Ist B = 0 2 Satz 8.4.9. Ist A ∈ Mn (K) diagonalisierbar, dann hat das Minimalpolynom nur einfache Nullstellen. Das heißt, sind λ1 , . . . , λk die verschiedenen Eigenwerte, dann gilt k Y mA (x) = (x − λ j ). j=1 Beweis. Indem wir A durch S−1 AS ersetzen für ein S ∈ GLn (K), können wir annehmen, Q dass A von Diagonalgestalt ist. Dann ist kj=1 (A − λ j Id) ein Produkt von Diagonalmatrizen. Für jede Position ν = 1, . . . , n hat mindestens einer der Faktoren (A − λ j ) eine Null in der ν-ten Position. Daher ist das Produkt gleich Null. Lineare Algebra 1 9 108 Der Jordan-Normalform Satz 9.1 Nilpotente Endomorphismen Definition 9.1.1. Ein Endomorphismus T : V → v heißt nilpotent, falls es ein m ∈ N gibt, so dass Tm = 0 gilt. Ist T nilpotent, so gibt es zu jedem v ∈ V eine Zahl m(v) ∈ N0 so dass Tm(v) v , 0 = Tm(v)+1 v. Lemma 9.1.2. Sei T : V → V nilpotent und dim V < ∞. Dann existieren Vektoren v1 , . . . , vk ∈ V so dass (a) v1 , Tv1 , . . . , Tm(v1 ) v1 , v2 , . . . , vk , Tvk , . . . , Tm(vk ) vk ist eine Basis von V und (b) Tm(v1 ) v1 , . . . , Tm(vk ) vk ist eine Basis von ker T. Beweis. Ist T nilpotent, etwa Tm = 0 und V , 0, dann ist T nicht injektiv, denn sonst wäre T invertierbar und damit wäre auch 0 = Tm invertierbar. Also folgt dim Bild(T) < dim V. Induktiv können wir annehmen, dass die Behauptung auf allen Räumen der Dimension < dim V gilt. Wir wenden das Lemma also mal auf den Raum Bild T und T|Bild T an. Daher gibt es Vektoren u1 , . . . , u j so dass (i) u1 , Tu1 , . . . , Tm(u1 ) u1 , . . . , u j , . . . , Tm(u j ) u j ist eine Basis von Bild T und (ii) Tm(u1 ) u1 , . . . , Tm(u j ) u j ist eine Basis von ker T ∩ Bild T. Wähle v1 , . . . v j mit Tvν = uν . Es folgt m(vν ) = m(uν ) + 1. Sei W ein Unterraum von ker T so dass ker T = (ker T ∩ Bild T) ⊕ W und wähle eine Basis v j+1 , . . . , vk von W. Es gilt dann m(v j+1 ) = · · · = m(vk ) = 0. Wir behaupten, dass v1 , . . . , vk das Lemma erfüllt. Lineare Unabhängigkeit. Sei k m(v X Xr ) r=1 s=0 λr,s Ts vr = 0 Lineare Algebra 1 109 eine Linearkombination der Null. Wendet man T auf diese Gleichung an, erhält man 0= k m(v X Xr ) λr,s T s+1 vr = r=1 s=0 j m(u X Xr ) λr,s Ts ur r=1 s=0 Daher folgt λr,s = 0 für 1 ≤ r ≤ j und 0 ≤ s ≤ m(vr ) − 1. Wir erhalten also 0 = λ1,m(v1 ) Tm(v1 ) v1 + · · · + λ j,m(v j ) Tm(v j ) v j + λ j+1,0 v j+1 + · · · + λk,0 vk . Die Terme in der ersten Zeile sind alle in ker T ∩ Bild T, die in der zweiten Zeile in W. Es folgt also 0 = λ1,m(v1 ) Tm(v1 ) v1 + · · · + λ j,m(v j ) Tm(v j ) v j = λ1,m(v1 ) Tm(u1 ) u1 + · · · + λ j,m(v j ) Tm(u j ) u j und 0 = λ j+1,0 v j+1 + · · · + λk,0 vk . Damit ist die Lineare Unabhängigkeit klar. Erzeugendensystem. Es ist j = dim ker T ∩ Bild T und k = dim ker T. Aus (i) folgt j j X X dim Bild T = (m(ur ) + 1) = m(vr ). r=1 r=1 Die Familie in (a) hat die Länge j k X X (m(vr ) + 1) = k + m(vr ) r=1 r=1 = dim ker T + dim Bild T = dim V. Damit ist (a) bewiesen. Schliesslich ist (Tm(v1 ) v1 , . . . , Tm(vk ) vk ) = (Tm(u1 ) u1 , . . . , Tm(u j ) u j , v j+1 , . . . , vk ). Wegen (ii) und ker T = ker T ∩ Bild T ⊕ W ist dies eine Basis von ker T. Lineare Algebra 1 110 Satz 9.1.3. Sei T : V → V nilpotent und dim V < ∞. Dann existiert eine Basis, bezüglich der T dargestellt wird durch eine Matrix der Form Jd1 .. J = . Jdk , wobei Jd die d × d-Matrix 0 1 ... ... Jd = . . . 1 0 bezeichnet. Man nennt die Matrizen Jd auch Jordan-Bloecke und die Gesamtmatrix J eine Jordan-Matrix. Die Jordan-Bloecke sind in bis auf die Reihenfolge eindeutig bestimmt. Beweis. Seien v1 , . . . , vk wie in dem Lemma. und sei wn , wn−1 , . . . , w1 die Basis v1 , Tv1 , . . . , Tm(v1 ) v1 , v2 , . . . , vk , Tvk , . . . , Tm(vk ) vk , also dieselbe Basis nur rueckwaerts aufgeschrieben. Dann gilt Tw1 = 0, ferner ist Tw2 entweder Null oder gleich w1 und so weiter. Man sieht also, dass T in dieser Basis durch eine Jordan-Matrix dargestellt wird. Man beachte, dass auf Spann(v j , Tv j , . . . , Tm(v j ) v j die Abbildung T durch einen Jordan-Block der Laenge m(v j ) + 1 dargestellt wird. Nun zur Eindeutigkeit. Es ist zu zeigen: ist T ebenfalls konjuguiert zu einer Jordan-Matrix J0 mit Jordan-Bloecken Jd01 , . . . , Jd0s , dann ist s = k und die d0j bis auf Reihenfolge gleich den d j . Indem man die Basis, bezueglich der T die Matrix J0 hat, umgekehrt aufschreibt, erhaelt man eine Basis wie im Lemma, also von der Form 0 0 0 0 v01 , Tv01 , . . . , Tm(v1 ) v01 , v02 , . . . , vk Tv0s , . . . , Tm(vs ) v0s und ebenfalls so dass Tm(v1 ) v01 , . . . , Tm(vs ) v0s eine Basis von ker(T) ist. Damit folgt s = k. Nun ist aber Tm(v1 ) v1 , . . . , Tm(vk ) vk erweitert um Tm(v1 )−1 v1 , . . . , Tm(vk )−1 vk , wobei nur die v j auftreten mit m(v j ) ≥ 1, eine Basis von ker(T2 ) und damit sieht man, dass die Anzahl der j mit m(v j ) = 0 mit der entsprechenden Anzahl der v0j uebereinstimmt. Man betrachtet dann ker(T3 ) und so weiter, so dass man sieht, dass man nach Verttauschen der Reihenfolge m(v0j ) = m(v j ) erreichen kann, was der behaupteten Eindeutigkeit entspricht. Lineare Algebra 1 9.2 111 Hauptraum-Zerlegung Lemma 9.2.1. Fuer A ∈ Mn (K) gilt ker An+k = ker An und Bild(An+k ) = Bild(An ) für jedes k ∈ N. Ferner gilt Kn = ker(An ) ⊕ Bild(An ). Beweis. Sei V j = ker A j , dann gilt V0 = 0 ⊂ V1 ⊂ . . . . Wir zeigen, dass es ein k ∈ N0 gibt, so dass V0 , V1 , · · · , Vk = Vk+1 = . . . . Hierzu reicht es zu zeigen, dass aus Vk = Vk+1 schon Vk+1 = Vk+2 folgt. Die Inklusion “⊂” gilt immer. Sei also v ∈ ker(Ak+2 ), dann ist Av ∈ ker(Ak+1 ) = ker(Ak ), so dass v ∈ ker(Ak+1 ) ist. Da nun die Dimension bei jedem Schritt V j , V j+1 höchstens um 1 wachsen kann, ist spätestens bei Vn Schluss. Die duale Aussage über die Bilder folgt aus der Dimensionsformel. Fuer die letzte Aussage reicht es ker(An ) ∩ ker(Bn ) = 0 zu zeigen, da dann die Behauptung aus der Dimensionsformel folgt. Sei v ∈ ker(An ) ∩ Bild(An ). Dann folgt v = An u fuer ein u ∈ Kn und wegen An v = 0 folgt A2n u = 0, dann ist nach dem ersten Teil schon An u = 0, also v = 0 so dass wir ker(An ) ∩ Bild(An ) = 0 schliessen koennen. Definition 9.2.2. Fuer λ ∈ K sei ker((A − λ)n ) der Hauptraum zu λ. Lemma 9.2.3. Die Hauptraeume bilden eine direkte Summe, das heisst jeder Hauptraum hat trivialen Schnitt mit der Summe aller anderen. Beweis. Sei λ ∈ K, sei V = P µ,λ ker(A − µ)n . Wir muessen zeigen, dass V ∩ ker(A − λ)n = 0 gilt. Sei also v in diesem Schnitt, also (A − λ)n v = 0 und v = v1 + · · · + vs mit (A − λ j )n v j = 0 fuer 1 ≤ j ≤ s und die Eigenwerte λ1 , . . . , λs sind alle verschieden von λ. Es folgt (A − λ1 )n · · · (A − λs )n v = 0. Wir nehmen an, dass v , 0 ist. Sei dann 1 ≤ r ≤ s die kleinste Zahl mit der Eigenschaft (A − λ1 )n · · · (a − λr )n v = 0. Der Vektor Lineare Algebra 1 112 0 , w = (A − λ1 )n · · · (A − λr−1 )n v liegt in ker(A − λr )n ∩ ker(A − λ)n . Wir zeigen, dass |{z} µ dieser Schnitt Null ist und erreichen so einen Widerspruch. Sei also u ∈ ker(A − λ)n ∩ ker(A − µ)n . Wieder nehmen wir an, dass u , 0 ist. Sei dann 1 ≤ r ≤ n die kleinste natuerliche Zahl so dass (A − λ)r u = 0, dann ist der Vektor u0 = (A − λ)r−1 in ker(A − λ) ∩ ker(A − µ)n . Sei dann 1 ≤ s ≤ n die kleinste Zahl so dass (A − µ)s u0 = 0, dann ist der Vektor 0 , u00 = (A − µ)s−1 in ker(A − λ) ∩ ker(A − µ) ist also Eigenvektor zu zwei verschiedenen Eigenwerten, Widerspruch! Lemma 9.2.4. Seien A1 , . . . , Ak : V → V lieneare Abbildungen die paarweise miteinander kommutieren, also die GleichungAi A j = A j Ai erfuellen. Mit n = dim V gilt dann ker(An1 · · · Ank ) = ker(An1 ) + · · · + ker(Ank ). Beweis. Da die Abbildungen vertauschen, ist die Inklusion “⊃” klar. Sei die andere Richtung fuer k = 2 bewiesen. Wegen ker(An1 · · · Ank ) = ker((A1 · · · Ak−1 )n Ank ) = ker((A1 · · · Ak−1 )n ) + ker(Ank ) kann dann iterativ der allgemeine Fall geschlossen werden. Es bleibt also zu zeigen, dass ker(An Bn ) = ker(An ) + ker(Bn ), wobei wir A = A1 und B = A2 geschrieben haben. Indem wir V durch ker(An Bn ) ersetzen, koennen wir annehmen, dass An Bn = Bn An = 0 gilt. Dies bedeutet aber Bild(An ) ⊂ ker(Bn ), so dass folgt V = ker(An ) ⊕ Bild(An ) ⊂ ker(An ) + ker(Bn ) ⊂ V. Damit folgt Gleichheit ueberall und also folgt V = ker(An ) + ker(Bn ) und damit die Behauptung. Satz 9.2.5 (Hauptraum-Zerlegung). Sei A ∈ Mn (K) und χA (x) = k Y (x − λ j )n j . j=1 Dann ist K = n k M j=1 ker(A − λ j )n . Lineare Algebra 1 113 Insbesondere folgt n j = dim ker(A − λ j )n , d.h. die algebraische Vielfachheit ist genau die Dimension des Hauptraums. Beweis. Es sei χA (x) = Qk j=1 (x − λ j )n j . Nach dem Satz von Cayley-Hamilton gilt k k Y Y n (A − λ j ) = (A − λ j )n−n j χA (A) = 0. |{z} j=1 j=1 =0 Dammit folgt aus Lemma 9.2.4, dass Kn = ker(A − λ1 )n + · · · + ker(A − λk )n . Nach Lemma 9.2.3 schliesslich ist die Summe direkt. Die Zusatzaussage folgt dann aus χA = Y χA|V j , j wobei V j = ker(Anj ). 9.3 Jordan-Matrizen Definition 9.3.1. Ein Jordan-Block ist eine Matrix der Form λ 1 ... ... , Jk (λ) = ... 1 λ wobei λ ∈ K und Jk (λ) ∈ Mk (K) ist. Eine Jordan-Matrix ist eine Matrix der Form Jk1 (λ1 ) ... Jks (λs ) , Lineare Algebra 1 114 d.h., es sind Jordan-Blöcke auf der Diagonale, sonst Nullen. 1 1 ist ein Jordan-Block. Beispiele 9.3.2. • 0 1 1 1 • 1 1 1 • 2 2 ist eine Jordan-Matrix. 2 ist keine Jordan-Matrix. Satz 9.3.3 (Jordan-Normalform-Satz). Sei A ∈ Mn (K). Das charakteristische Polynom χA zerfalle in Linearfaktoren. Dann ist A ähnlich zu einer Jordan-Matrix Jk1 (λ1 ) .. . Jks (λs ) . Hierbei sind λ1 , . . . , λs die (nicht notwendig verschiedenen) Eigenwerte von A. Die Jordan-Matrix ist eindeutig bestimmt bis auf die Reihenfolge der Blöcke. Man nennt diese Jordan-Matrix die Jordan-Normalform von A. Beweis. Sei Kn = ker(A − λ1 )n ⊕ · · · ⊕ ker(A − λk )n die Hauptraumzerlegung. Da die Haupträume invariant sind, reicht es zu zeigen, dass A auf jedem dieser Räume durch eine Jordan-Matrix dargestellt wird. Wir können also annehmen, dass A nur einen einzigen Eigenwert λ hat. Dann ist (A − λ) nilpotent, es gibt also eine Basis bezgl der A − λ in Jordan-Form ist, dann ist in derselben Basis auch A in Jordan-Form. Die Eindeutigkeit der Jordan-Bloecke folgt aus der Eindeutigkeit bei nilpotenten Matrizen. 1 1 ist 1 . Beispiele 9.3.4. • Die Jordan-Normalform von 2 2 1 1 2 1 ist • Die Jordan-Normalform von 2. −1 3 Lineare Algebra 1 9.4 115 Berechnung der Normalform Proposition 9.4.1. Sei A ∈ Mn (K) und seien λ1 , . . . , λk die verschiedenen Eigenwerte. Sei k Y (x − λ j )m j mA (x) = j=1 das Minimalpolynom. Dann ist m j die Länge des längsten Jordan-Blocks mit dem Eigenwert λ j. Beweis. Wir nehmen an, dass A in Jordan-Normalform ist und die Blöcke nach Eigenwerten geordnet sind. Wir können dann A durch die Untermatrix zu einem festen Eigenwert ersetzen und also annehmen, dass A nur einen einzigen Eigenwert λ hat. Dann besteht A − λ ebenfalls aus Jordan-Blöcken, aber zum Eigenwert Null. Man stellt nun fest, dass Jk (0)k−1 , 0, aber Jk (0)k = 0 ist. Damit folgt die Behauptung. 2 1 , dann ist m (x) = (x − 2)2 . Beispiele 9.4.2. • Ist A = 2 A 2 2 1 • Ist A = 2 1 , dann ist mA (x) = (x − 2)3 . 2 Proposition 9.4.3. Sei K algebraisch abgeschlossen. Für jede Matrix A in M2 (K) oder M3 (K) ist die JNF durch das charakteristische Polynom und das Minimalpolynom eindeutig festgelegt. Beweis. Es reicht, den Fall A ∈ M3 (K) zu betrachten. In diesem Fall hat A maximal drei verschiedene Eigenwerte und für das charakteristische Polynom gibt es folgende Fälle: 1. Fall: Es gibt drei verschiedene Eigenwerte, χA (x) = (x − λ)(x − µ)(x − ν). Dann ist A diagonalisierbar. 2. Fall: Es gibt zwei verschieden Eigenwerte: χ)A(x) = (x − λ)2 (x − µ). Ist dann mA (x) = (x − λ)(x − µ), so ist A diagonalisierbar. Ist mA (x) = (x − λ)2 (x − µ), so hat A die λ 1 . JNF = λ µ Lineare Algebra 1 116 3. Fall: Es gibt nur einen Eigenwert, χA (x) = (x − λ)3 . Ist dann mA (x) = (x − λ), dann ist A diagonalisierbar. Ist mA (x) = (x − λ)2 , dann gibt es zwei Jordan-Blöcke der Längen 2 und 1. Ist schliesslich mA (x) = (x − λ)3 so gibt es einen Jordan-Block der Länge 3. Beispiel 9.4.4. Für n = 4 reicht diese Information nicht mehr aus, denn die Matrizen 1 1 1 1 1 1 1 1 1 und 1 1 haben dasselbe charakteristische und dasselbe Minimalpolynom. Proposition 9.4.5. Sei K = K̄ und λ ∈ K ein Eigenwert der Matrix A ∈ Mn (K). Die geometrische Vielfachheit dim Eig(A, λ) ist gleich der Anzahl der Jordan-Blöcke zum Eigenwert λ. Beweis. Es reicht, anzunehmen, dass λ der einzige Eigenwert ist. Sei dann A in Jordan-Form und seien Jk1 (λ), . . . , Jks (λ) die entsprechenden Jordan-Blöcke. Dann sind die Vektoren e1 , ek1 +1 , . . . , ek1 +···+ks−1 +1 eine Basis des Eigenraums, also folgt dim Eig(A, λ) = s. 3 1 −1 1 2 1 0 2 0 0 2 ist . Beispiel 9.4.6. Die JNF von 1 0 1 1 2 1 0 −1 0 2 2 Proposition 9.4.7. Sei K = K̄ und A ∈ Mn (K). Dann ist dim ker(A − λ) j+1 − dim ker(A − λ) j gleich der Anzahl der Jordan-Blöcke mit Eigenwert λ und Länge ≥ j + 1. λ 1 .. .. . . gilt Beweis. Für einen Jordan-Block A = . . . 1 λ ker(A − λ) j = Spann(e1 , . . . , e j ). Lineare Algebra 1 117 Damit folgt die Behauptung. Damit ergibt sich der Algorithmus zur Bestimmung der Jordan-Normalform 1. Bestimme χA (x). 2. Bestimme die Nullstellen, also die Eigenwerte λ1 , . . . , λn . Algebraische Vielfachheit = Länge der Jordan-Matrix zum jeweiligen Eigenwert. 3. Bestimme N j = dim ker(A − λ) j . Dann gibt es N1 Jordan-Blöcke. Davon haben N2 − N1 die Länge ≥ 2 und N3 − N2 die Länge ≥ 3 usf. 10 10.1 Dualraum und Quotient Der Dualraum Definition 10.1.1. Sei V ein Vektorraum über dem Körper K. Eine Linearform auf V ist eine lineare Abbildung α : V → K. Sind α, β Linearformen und sind λ, µ ∈ K, so ist λα + µβ, definiert durch (λα + µβ)(v) = λα(v) + µβ(v), wieder eine Linearform. Man sieht, dass V ∗ ein linearer Unterraum des Vektorraums Abb(V, K) ist. Beispiele 10.1.2. λ ∈ K. • Ist V = K, so ist jede Linearform von der Form x 7→ λx für ein • Ist V = Kn , so ist jede Koordinatenabbildung v 7→ v j eine Linearform. • Ist S eine Menge in V = Abb(S, K) der Vektorraum aller Abbildungen von S nach K, so ist für jedes s ∈ S die Punktauswertung δs : V → K; f 7→ f (s) eine Linearform. Definition 10.1.3. Sei v1 , . . . , vn eine Basis von V. Für j = 1, . . . , n sei v∗j die Linearform v∗j (λ1 v1 + · · · + λn vn ) = λ j . Lineare Algebra 1 118 Warnung: Die Vektoren v∗1 , . . . , v∗n hängen von der Wahl der gesamten Basis B = (v1 , . . . , vn ) ab, es sollte also besser v∗1,B , . . . , v∗n,B heißen. Beispiele 10.1.4. • Sei V = Kn und e1 , . . . , en die Standard-Basis. Dann gilt ∗ e j = x j . xn x1 .. . 1 1 • Sei die Charakteristik von K , 2 und sei v1 = , sowie v2 = 1 −1 . Dann ist v1 , v2 eine Basis von K2 und es gilt v∗1 x x + y , = 2 y v∗2 x x − y . = 2 y Lemma 10.1.5. Ist v1 , . . . , vn eine Basis von V, so ist v∗1 , . . . , v∗n eine Basis von V ∗ , genannt die duale Basis. Insbesondere ist V endlich-dimensional, falls V dies ist. Beweis. Sei α ∈ V ∗ . definiere λ j = α(v j ). Wir behaupten, dass α = λ1 v∗1 + · · · + λn v∗n . Es reicht zu zeigen, dass diese beiden linearen auf den Basisvektoren übereinstimmen. Es ist aber gerade (λ1 v∗1 + · · · + λn v∗n )(v j ) = λ1 v∗1 (v j ) + · · · + λn v∗n (v j ) = λ j = α(v j ). damit ist also α = λ1 v∗1 + · · · + λn v∗n und v∗n , . . . , v∗n ein Erzeugendensystem. Um die lineare Unabhängigkeit zu zeigen nimm an wir habe eine Linearkombination der Null: µ1 v∗1 + · · · + µn v∗n = 0. Für 1 ≤ j ≤ n gilt dann 0 = (µ1 v∗1 + · · · + µn v∗n )(v j ) = µ j , also µ1 = · · · = µn = 0. Bemerkungen. • Ist V endlich-dimensional und v1 , . . . , vn eine Basis, so liefert die lineare Abbildung gegeben durch v j 7→ v∗j einen Isomorphismus der Vektorräume V → V ∗ . Dieser hängt allerdings von der Wahl der Basis ab. • Ist V unendlich-dimensional, so ist V ∗ nicht isomorph zu V (ohne Beweis). Lineare Algebra 1 119 Beispiele 10.1.6. • Ist V = Kn , so ist der durch die Standard-Basis induzierte Isomorphismus V → V ∗ gegeben durch x 7→ xt , wobei xt für die transponierte Matrix steht und damit für die lineare Abbildung y 7→ xt y. 1 1 von K2 induziert einen Isomorphismus • Die Basis v1 = und v2 − 1 −1 K2 → (K2 )∗ gegeben durch x 7→ ( 21 x)t . Lemma 10.1.7. Sei T : V → W eine lineare Abbildung, so ist T∗ : W ∗ → V ∗ , gegeben durch T∗ (α) = α ◦ T eine lineare Abbildung. Sie heißt die zu T duale Abbildung. Es gilt (λT + µS)∗ = λT∗ + µS∗ , sowie (T ◦ R)∗ = R∗ ◦ T∗ , wobei T, S : V → W, R : U → V linear sind und λ, µ ∈ K. Beweis. Wir müssen zuerst zeigen, dass f ∗ (α) wieder linear ist. Hierzu rechnen wir T∗ (α)(λv + µv0 ) = α(T(λv + µv0 ) = α(λT(v) + µT(v0 ) = λα(T(v)) + µα(T(v0 )) = λT∗ (α)(v) + µT∗ (α)(v0 ). Daher ist T∗ (α) wieder linear und T∗ : W ∗ → V ∗ wohldefiniert. Als nächstes ist zu zeigen, dass α 7→ T∗ (α) linear ist. Dies sieht man durch T∗ (λα + µβ)(v) = (λα + µβ)(T(v)) = λα(T(v)) + µβ(T(v)) = λT∗ (α)(v) + µT∗ (β)(v). Schließlich ist zu zeigen, dass für festes α die Abbildung T 7→ T∗ (α) linear ist, was man ähnlich zeigt. Am Ende schließlich zur Hintereinanderausführung: (T ◦ R)∗ (α) = α ◦ (T ◦ R) = (α ◦ T) ◦ R = (T∗ (α)) ◦ R = R∗ (T∗ (α)) = R∗ ◦ T∗ (α). Lemma 10.1.8. Die Duale Abbildung wird durch die transponierte Matrix dargestellt. Genauer, sei T : V → W eine lineare Abbildung. Sei B eine Basis von V und C eine von W. Dann gilt t ∗ MCB∗ (T∗ ) = MB (T) . C Lineare Algebra 1 120 (T), das heißt Beweis. Sei A = MB C T(v j ) = m X ai,j wi . i=1 Damit T∗ (w∗k )(v j ) = w∗k (T(v j )) = ak,j , also T ∗ (w∗k ) = n X ak,j v∗j , j−1 was gerade bedeutet, dass T∗ durch die Matrix At dargestellt wird. Korollar 10.1.9. Sei T : V → W linear, wobei V und W endlich-dimensional sind. Dann gilt (a) dim Bild T = dim Bild T∗ , (b) dim ker T − dim ker T∗ = dim V − dim W, (c) T injektiv ⇔ T∗ surjektiv, (d) T∗ injektiv ⇔ T surjektiv, (e) T bijektiv ⇔ T∗ bijektiv. Beweis. (a) Sei T durch die Matrix A dargestellt. Dann ist dim Bild T gerade der Rang von A. Dieser ist gleich dem Rang von At , also gleich dim Bild(T∗ ). (b) Nach den Dimensionsformeln und Teil (a) ist dim ker T − dim ker T∗ = (dim V − dim Bild T) − (dim W ∗ − dim Bild T∗ ) = dim V − dim W. (c) T ist genau dann injektiv, wenn dim ker T = 0 und dies ist nach (b) äquivalent zu dim ker T∗ = dim W − dim V oder dim V = dim Bild T∗ nach Dimensionsformel. (d) folgt ähnlich und (e) folgt aus (c) und (d). Definition 10.1.10. Eine Sequenz von linearen Abbildungen T S U −→ V −→ W heißt exakt bei V, falls ker S = Bild T Lineare Algebra 1 121 gilt. Eine Sequenz · · · → Vi−1 → Vi → Vi+1 → . . . heißt exakt, falls sie an jeder Stelle exakt ist. Beispiele 10.1.11. • Ist V = U ⊕ V eine direkte Summe zweier Unterräume, dann ist die entstehende Sequenz 0→U→V→W→0 exakt. • Für jede lineare Abbildung T : V → W ist die Sequenz T 0 → ker(T) → V −→ W exakt. • Ist T S U −→ V −→ W exakt, dann ist insbesondere S ◦ T = 0. Lemma 10.1.12. Die Dualisierung verwandelt exakte Sequenzen in exakte Sequenzen, d.h. ist T S S∗ T∗ U −→ V −→ W exakt, dann ist W ∗ −→ V ∗ −→ U∗ exakt. Beweis. Es ist (T∗ ) ◦ (S∗ ) = (S ◦ T)∗ = 0 und damit folgt Bild(S∗ ) ⊂ ker(T∗ ). Sei also α ∈ ker(T∗ )., d.h. α ◦ T = 0, also α(Bild(T)) = 0 und damit α(ker(S)) = 0. Wir definieren β : Bild(S) → K durch β(S(v)) = α(v). Da α(ker(S)) = 0, ist β wohldefiniert. Dann ist β linear und kann durch die Wahl eines Komplemantärraums nach W fortgesetzt werden. Dann ist β ∈ W ∗ und α = S∗ (β), also α ∈ Bild(S∗ ). Definition 10.1.13. Sei V ein Vektorraum. Sei V ∗∗ = (V ∗ )∗ der Bidualraum. Betrachte die Abbildung δ : V → V ∗∗ , v 7→ δv mit δv (α) = α(v). Lineare Algebra 1 122 Satz 10.1.14. Ist V endlich-dimensional, dann ist δ ein Isomorphismus. Beweis. Wir zeigen zunächst, dass δ linear ist. Für v, w ∈ V und λ, µ ∈ K, sowie α ∈ V ∗ gilt δλv+µw (α) = α(λv + µw) = λα(v)µ α(w) = λδv (α) + µδw (α), also δλv+µw = λδv + µδw . Damit ist δ linear. Sei v1 , . . . , vn eine Basis von V, sei v∗1 , . . . , v∗n ∗∗ die Duale Basis und sei v∗∗ , . . . , v∗∗ n die hierzu duale Basis von V . Wir zeigen 1 δv j = δ(v j ) = v∗∗j . Hierzu berechne δv j (v∗k ) = v∗k (v j ) = δk,j = v∗∗j (v∗k ). 10.2 Quotienten Sei U ⊂ V ein linearer Unterraum des Vektorraums V. Auf V erkläre eine Äquivalenzrelation v ∼ v0 ⇔ v − v0 ∈ U. Nachweis der Äquivalenzeigenschaft. Es gilt v ∼ v, denn v − v = 0 ∈ U. ist v ∼ v0 dann folgt v0 ∼ v, da mit v − v0 auch −(v − v0 ) = v0 − v in U liegt. Schließlich sei v ∼ v0 und v0 ∼ v00 , also v − v0 , v0 − v00 ∈ U. Dann liegt auch die Summe v − v00 in U, es ist also v ∼ v00 . Die Aequivalenzklassen sind genau die affinen Unterraeume mit U als linearem Anteil, also [v] = v + U fuer jedes v ∈ V. Definition 10.2.1. Sei dann V/U die Menge aller Äquivalenzklassen, also n o V/U = v + U : v ∈ V ⊂ P(V). Lineare Algebra 1 123 Auf V/U definieren wir die Struktur eines Vektorraums wie folgt: (v + U) + (w + U) = (v + w + U) Addition λ(v + U) = (λv + U) Skalarmultiplikation Nachweis der Wohldefiniertheit. Ist v + U = v0 + U und w + U = w0 + U, dann ist zu zeigen, dass v + w + U = v0 + w0 + U folgt. Es gilt (v + w) − (v0 + w0 ) = v − v0 + w − w0 ∈ U, |{z} | {z } ∈U ∈U daher folgt (v + w) ∼ (v0 + w0 ), also v + w + U = v0 + w0 + U und damit ist die Addition wohldefiniert. Ebenso gilt λv − λv0 ∈ U und also λv + U = λv + U und damit ist die skalare Multiplikation wohldefiniert. Im Beispiel K = R, V = R2 , U = R(1, 1)t sind die Aequivalenzklassen genau die zu U paprallelen Geraden. Proposition 10.2.2. Ist W ein Komplementärraum zu U, also V = U ⊕ W, dann ist die Abbildung ψ : W → V/U; w 7→ [w] ein linearer Isomorphismus. Beweis. ψ ist linear, denn ψ(λw + w0 ) = (λw + w0 + U = λ(w + U) + (w0 + U) = λψ(w) + ψ(w0 ). Lineare Algebra 1 124 Die Abbildung ψ ist injektiv, denn ψ(w) = 0 ⇒ w ∈ U ⇒ w = 0, da w ∈ W. ψ ist surjektiv, denn sei v ∈ V, dann kann man v = u + w schreiben mit u ∈ U und w ∈ W. Es folgt v + U = w + U = ψ(w) und daher ist ψ surjektiv. Korollar 10.2.3. Ist U ⊂ V ein linearer Unterraum, so liefern die natürlichen Abbildungen eine exakte Sequenz β α 0 → U −→ V −→ V/U → 0. Beweis. α ist die Inklusion des Unterraums, also injektiv. β ist die Projektion des Quotienten, also surjektiv. Das Bild von α ist U und dies ist der Kern von β. Proposition 10.2.4 (Universelle Eigenschaft). Sei U ⊂ V ein Unterraum und sei P : V → V/U die Projektion. Zu jeder linearen Abbildung T:V→W mit T(U) = 0 gibt es genau eine linear Abbildung S : V/U → W so dass das Diagramm V / T P ! WO S V/U kommutiert. Diese universelle Eigenschaft induziert einen linearen Isomorphismus n o T ∈ Lin(V, W) : T(U) = 0 −→ Lin(V/U, W). Beweis. Sei die Situation wie oben. Definiere S : V/U → W durch S(v + U) = T(v). Für die Wohldefiniertheit sei v + U = v0 + U. Dann folgt v − v0 ∈ U, also T(v − v0 ) = 0 oder T(v) = T(v0 ), was die Wohldefiniertheit zeigt. Für v ∈ V gilt nun T(v) = S(v + U) = S(P(v)), also T = S ◦ P und damit kommutiert das Diagramm. Zur Eindeutigkeit sei S0 : V/U → W eine weitere Abbildung, die das Diagramm Lineare Algebra 1 125 kommutativ macht. Es gilt dann S0 (v + U) = T(v) = S(v + U). n o Sei dann ψ : T ∈ Lin(V, W) : T(U) = 0 → Lin(V/U, W) die entstehende Abbildung. Eine Standardverifikation zeigt, dass ψ linear ist. Fuer die Injektivitaet sei T gegeben mit S = ψ(T) = 0. Aus der Formel T = S ◦ P folgt dann auch T = 0 und damit ist ψ injkektiv. Fuer die Surjektivitaet sei S gegeben, dann definiere T durch T = S ◦ P, so folgt ψ(T) = S. Definition 10.2.5. Sei T : V → W linear. Den Quotienten W/ Bild(T) nennt man den Cokern von T und schreibt ihn als coker(T). Dann ist die Sequenz T 0 → ker(T) → V −→ W → coker(T) → 0 exakt. Satz 10.2.6 (Homomorphiesatz). Sei T : V → W linear, dann ist die Abbildung T̃ : v + ker(T) 7→ T(v) ein Isomorphismus V/ ker(T) −→ Bild(T). Beweis. Da T(ker(T)) = 0, ist die lineare Abbildung T̃ wohldefiniert. Sie ist offensichtlich injektiv und surjektiv. Satz 10.2.7. Sei V ein K-Vektorraum und seien U, W Unterraeume. (a) Die Abbildung φ : u + (U ∩ W) 7→ u + U + W ist ein Isomorphismus U/(U ∩ W) → (U + W)/W. (b) Gilt W ⊂ U, dann ist die Abbildung ψ : (v + W) + (U/W) 7→ v + U ein Isomorphismus . V/W U/W → V/U. Lineare Algebra 1 126 Beweis. Die Wohldefiniertheit ist bei beiden Abbildungen leicht einzusehen. Zur Injektivitaet von φ sei u ∈ U mit φ u + (U ∩ W) = 0. Dann folgt u ∈ W, also u ∈ U ∩ W, also u + (U ∩ W) = 0 + (U ∩ W), die Abbildung φ ist also injektiv. Fuer die Surjektivitaet sei u + w + W ∈ (U + W)/W gegeben. Dann gilt u + w + W = u + W = φ(u + (U ∩ W)). . Fuer die Injektivitaet von ψ sei v + W + (U/W) ∈ V/W U/W mit ψ (v + W + (U/W)) = 0 gegeben. Das bedeutet, dass v ∈ U liegt, damit also v + W in U + W und daher ist v + W + (U/W) das Nullelement. Die Surjektivitaet von ψ ist klar. Korollar 10.2.8 (Alternative Formulierung des letzten Satzes). Sei V ein K-Vektorraum und seien U, W Unterraeume. Wir schreiben die Elemente von V/U nun als Aequivalenzklassen [v]U , v ∈ V. (a) Die Abbildung φ : [u]U+W 7→ [u]W ist ein Isomorphismus U/(U ∩ W) −→ (U + W)/W. (b) Gilt W ⊂ U, dann ist die Abbildung ψ : [[v]W ]U+W 7→ [v]U ein Isomorphismus . V/W U/W −→ V/U. Lineare Algebra 1 11 11.1 127 Dimension Das Lemma von Zorn Definition 11.1.1. Eine partielle Ordnung auf einer Menge M ist eine Relation ≤ auf I so dass für alle x, y, z ∈ M gilt (a) x ≤ x (Reflexivität) ⇒ x=y (Antisymmetrie) (c) x ≤ y, y ≤ z ⇒ x≤z (Transitivität) (b) x ≤ y, y ≤ x Beispiele 11.1.2. • Auf jeder Menge ist die Identität “=” eine partielle Ordnung. • Auf der Menge N der natürlichen Zahlen ist die übliche “kleiner gleich” Relation eine partielle Ordnung. Desgleichen für Z, Q, R. • Ist X irgendeine Menge. Auf der Potenzmenge P(X) liefert die Mengeninklusion eine partielle Ordnung. Definition 11.1.3. Eine partiell geordnete Menge (M, ≤) heißt vollständig geordnet oder linear geordnet, wenn je zwei Elemente vergleichbar sind. Also wenn für je zwei Elemente x, y mit x , y entweder x ≤ y oder y ≤ y gilt. Beispiele 11.1.4. • Die Identität “=” auf M ist genau dann linear, wenn die Menge höchstens ein Element hat. • Die natürliche Ordnungen auf N, Z, Q, R sind alle linear. • Die Ordnung auf der Potenzmenge P(X) ist in der Regel nicht linear. (Nur dann, wenn |X| ≤ 1) Lemma 11.1.5 (Lemma von Zorn). Sei (M, ≤) eine partiell geordnete Menge. Existiert zu jeder linear geordneten Teilmenge L ⊂ M eine obere Schranke s ∈ M, dann hat M maximale Elemente. Hierbei ist s ∈ M eine obere Schranke zu L ⊂ M, wenn x ≤ s für jedes x ∈ L gilt. Ferner heißt ein Element m ∈ M maximales Element, wenn m ≤ x ⇒ m = x gilt. Lineare Algebra 1 128 Die Bedingung, dass jede linear geordnete Teilmenge eine obere Schranke besitzt, wird auch Kettenbedingung genannt. Diese Sprechweise kommt daher, dass linear geordnete Teilmengen auch Ketten genannt werden. Man kann das Lemma von Zorn aus dem Auswahlaxiom der Mengenlehre folgern. Dieses Axiom besagt, dass ein Produkt nichtleerer Mengen eine nichtleere Menge ist. Genauer besagt es, dass zu einer gegebenen Indexmenge I , ∅ und gegebene Mengen Q Xi , ∅ das Produkt X = i∈I Xi eine nichtleere Menge ist. (D.h., man kann simultan in allen Mengen Xi jeweils ein Element auswählen.) Man kann sogar zeigen, dass das Lemma von Zorn, auf der Basis der anderen Axiome der Mengenlehre, zum Auswahlaxiom äquivalent ist. Es ist daher legitim, das Lemma von Zorn selbst als ein Axiom aufzufassen. Wir werden es nur benutzen. 11.2 Kardinalzahlen Definition 11.2.1. Zwei Mengen M, N heißen gleichmächtig, oder haben die gleiche Mächtigkeit, wenn es eine Bijektion M −→ N gibt. Wir schreiben dann |M| = |N|. Wir sagen ferner, die Mächtigkeit einer Menge A ist kleiner gleich der von B, wenn es eine Injektion A ,→ B gibt und wir schreiben dies als |A| ≤ |B|. Beachte, dass fuer jede Menge A gilt |∅| ≤ |A|. Satz 11.2.2. (a) Sind A und B nichtleere Mengen, so gibt es genau dann eine Injektion B ,→ A wenn es eine Surjektion A B gibt. (b) Sind M, N Mengen und gibt es surjektive Abbildungen φ : M → N und ψ : N → M, dann gibt es eine Bijektion b : M −→ N. Dasselbe gilt für injektive Abbildungen. Mit anderen Worten, ist |M| ≤ |N| und |N| ≤ |N|, dann folgt |M| = |N|. Lineare Algebra 1 129 (c) Sind A, B Mengen, dann gibt es immer eine Abbildung A → B die injektiv oder eine B → A die injektiv ist, d.h. es gilt immer |A| ≤ |B| oder |B| ≤ |A|. Beweis. (a) Sei φ : A → B surjektiv. Wir wählen zu jedem b ∈ B ein Urbild ψ(b) ∈ A, so erhalten wir eine Injektion ψ : B → A. Sei umgekehrt eine Injektion ψ : B → A gegeben und sei b0 ∈ B ein festes Element. Definiere φ : A → B durch b φ(a) = b0 a = ψ(b), a < Bild(ψ). Dann ist φ eine Surjektion. (b) Nach Teil (a) können wir annehmen, dass es injektive Abbildungen φ : M ,→ N und ψ : N ,→ M gibt. Setze M0 = M und N0 = N und N j+1 = φ(M j ) sowie M j+1 = ψ(N j ). T T Sei schließlich M∞ = j M j und N∞ = j N j . Wir stellen fest (i) M j+1 ⊂ M j und ebenso für N. (ii) M ist die disjunkte Zerlegung aus M∞ und M j r M j+1 für j = 0, 1, . . . und ebenso für N. (iii) φ ist eine Bijektion M∞ → N∞ . (iv) φ ist eine Bijektion M j r M j+1 → N j+1 r N j+2 und ebenso für ψ mit M und N vertauscht. Wir beweisen (i) durch eine (leichte) Induktion nach j. Damit ist auch (ii) klar. (iii) folgt sofort und ebenso (iv). Wir definieren nun eine Bijektion b : M → M durch x ∈ M∞ , φ(x) b(x) = φ(x) x ∈ M2j r M2j+1 , j ≥ 0, ψ−1 (x) x ∈ M2j+1 r M2j+2 , j ≥ 0. Lineare Algebra 1 130 M0 ψ φ N0 M1 N1 M2 N2 M3 N3 .. . .. . M∞ .. . N∞ Man sieht leicht ein, dass b eine Bijektion ist. (c) Sei S die Menge aller Paare (T, φ) wobei T ⊂ A und φ : T ,→ B eine Injektion ist. Dann wird S partiell geordnet durch (T, φ) ≤ (S, ψ) falls T ⊂ S Und ψ eine Fortsetzung von φ ist. Das Lemma von Zorn liefert ein maximales Element (T, φ). Ist T = A, dann gibt es eine Injektion wie verlangt. Ist T , A, dann muss φ surjektiv sein, denn sonst könnte man φ auf eine größere Menge ausdehnen. Indem man den Rest von A auf ein festes Element wirft, erhält man dann eine Surjektion A → B. Proposition 11.2.3. Für jede Menge X gilt |X| < |P(X)|. Beweis. Die Abbildung x 7→ {x} ist eine Injektion X ,→ P(X), daher gilt |P(X)| ≥ |X|. Wir zeigen, dass es keine Surjektion X → P(X) geben kann. Sei also f : X → P(X) eine gegeben Abbildung. Betrachte M = {x ∈ X : x < f (x)} Dann liegt M nicht im Bild von f , denn Angenommen, M = f (x0 ) für ein x0 ∈ X. Ist dann x0 ∈ M, dann folgt x0 < f (x0 ) = M, ein Widerspruch!. Ist andererseits x0 < M, dann ist ja x0 < f (x0 ), erfüllt also die Bedingung, zu M zu gehören, es folgt x0 ∈ M, ebenfalls Widerspruch! Lineare Algebra 1 11.3 131 Abzählbarkeit Definition 11.3.1. Eine Menge A heißt abzählbar, wenn |A| ≤ |N|. In dem Fall ist A entweder endlich, oder abzählbar unendlich. In letzterem Fall gibt es eine Bijektion A → N. Jede solche Bijektion nennen wir Abzählung von A. Beispiel 11.3.2. N ist abzählbar, ebenso Z, denn die Abbildung f : Z → N, gegeben durch 2k k > 0, f (k) = 1 − 2k k < 0, 1 k = 0, ist eine Bijektion. Lemma 11.3.3. (a) Eine endliche Menge ist abzählbar. (b) Eine nichtleere Teilmenge einer abzählbaren Menge ist abzählbar. (c) Eine Vereinigung von abzählbar vielen endlichen Mengen ist abzählbar. (d) Eine Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar. Beweis. (a) Ist X = {x1 , . . . , xn } eine nichtleere endliche Menge, so definiere φ : N → X durch x j falls j ≤ n, φ( j) = x sonst. 1 Dann ist φ surjektiv. Für (b) sei nun X abzählbar und ∅ , Y ⊂ X. Sei φ : N → X eine surjektive Abbildung. Fixiere ein Element y0 ∈ Y. Wir definieren eine Abbildung ψ : N → Y durch φ(n) falls φ(n) ∈ Y, ψ(n) = y0 sonst. (c) Für jedes n ∈ N sei eine endliche Menge En gegeben. Wir wollen zeigen, dass die S Vereinigung V = n∈N En abzählbar ist. Wir können annehmen, dass jedes En nichtleer ist. Sei also En = {xn1 , xn2 , . . . , xnk(n) }. Sei K(n) = k(1) + k(2) + . . . k(n) und definiere K(0) = 0, Für jedes j ∈ N gibt es dann genau ein n ≥ 0 mit K(n) < j ≤ K(n + 1). Lineare Algebra 1 132 Setze φ( j) = xnj−K(n) , falls K(n) < j ≤ K(n + 1). Dann ist φ eine surjektive Abbildung N → V. (d) Seien nun A1 , A2 , . . . abzählbare Mengen, etwa An = {an1 , . . . }. S µ Sei A = n∈N An . Sei Bn = {aν ∈ A : ν + µ = n} Dann ist B1 = ∅, B2 = {a11 }, B3 {a12 , a21 } und so weiter. Jedenfalls ist jedes Bn endlich und es ist A= [ Bn n∈N eine abzählbare Vereinigung endlicher Mengen. Damit ist A nach Teil (c) abzählbar. Satz 11.3.4. Die Menge der rationalen Zahlen Q ist abzählbar. Beweis. Die Menge N der natürlichen Zahlen ist trivialerweise abzählbar. Die Menge Z = N ∪ {0} ∪ {−n : n ∈ N} ist abzählbar nach dem Lemma. Die Menge Z×Z= [ {k} × Z k∈Z ist ebenfalls abzählbar nach dem Lemma. Die Abbildung Q → Z × Z, gegeben durch p 7→ (p, q), q wobei p ∈ Z, q ∈ N und p und q teilerfremd, ist injektiv, also kann Q mit einer Teilmenge von Z × Z identifiziert werden, ist also abzählbar. Satz 11.3.5. Die Menge R der reellen Zahlen ist nicht abzählbar. Beweis. Wir zeigen, dass schon das Intervall (0, 1) nicht abzählbar ist. Angenommen, es gibt eine surjektive Abbildung φ : N → (0, 1). Dann lässt sich jedes φ(n) als Lineare Algebra 1 133 Dezimalzahl schreiben φ(1) = 0, a1,1 a1,2 a1,3 a1,4 . . . φ(2) = 0, a2,1 a2,2 a2,3 a2,4 . . . φ(3) = 0, a3,1 a3,2 a3,3 a3,4 . . . .. . n o mit Zahlen ai, j ∈ 0, 1, . . . , 9 . Wir benutzen hier ohne Beweis, dass die Dezimalzahldarstellung eindeutig ist, wenn man Neunerschwänze vermeidet, d.h. wenn man verlangt, dass es zu jedem i und zu jedem j ein k ≥ j gibt, so dass ai,k , 9 ist. Wir definieren dann eine Zahl x ∈ (0, 1) durch x = x1 x2 x3 . . . wobei 4 xj = 5 a j,j , 4, a j,j = 4. Da x ∈ (0, 1), muss x in der Abzählung vorkommen, also gibt es ein j mit φ( j) = x. Dann ist aber x j = a j,j , Widerspruch! Bemerkung. Wir haben also gezeigt, dass |N| < |R|. Die Kontinuumshypothese besagt, dass es keine Kardinalzahl dazwischen gibt, das heißt, dass jede unendliche Teilmenge von R entweder abzählbar oder gleichmächtig zu R ist. Diese Hypothese ist allerdings weder wahr noch falsch, denn in der 1960-ger Jahren hat Paul Cohen gezeigt, dass die Kontinuumshypothese von den anderen Axiomen der Mengenlehre unabhängig ist. Das heißt, man kann sie annehmen oder auch nicht. Es gibt Modelle der Mengenlehre, in denen sie gilt und andere, in denen sie nicht gilt. Lemma 11.3.6. Für jede unendliche Menge I gilt |I| = |I × N|. Beweis. Die Projektion I × N → I ist surjektiv. Wir müssen nur zeigen, dass es eine surjektive Abbildung I → I × N gibt. Wir benutzen das Lemma von Zorn. Sei S die Menge aller surjektiven Abbildungen ψ : T → T × N, wobei T eine Teilmenge von I ist. Wir ordnen S partiell durch (ψ, T) ≤ (ψ0 , T0 ) falls T ⊂ T0 und ψ0 eine Fortsetzung von ψ ist. Wir müssen uns klarmachen, dass S nicht leer ist. Hierzu sei η : N → N × N eine surjektive Abbildung, welche nach Lemma 11.3.3 existiert, da man N × N als abzählbare Vereinigung von Kopien von N schreiben kann. Ist dann A = {a1 , a2 , . . . } Lineare Algebra 1 134 eine abzählbar unendliche Teilmenge von I, dann ist ψ : A → A × N; a j 7→ (aη(j)1 , η( j)2 ) surjektiv und damit ist S , ∅. Die Vereinigung ist eine obere Schranke zu jeder linear geordneten Teilmenge, also liefert das Lemma von Zorn ein maximales Element (ψ, T). Wir behaupten, dass T = I ist. Ist T , I und ist I r T endlich, dann existiert eine Bijektion zwischen I und T und durch Vor- und Nachschalten dieser kann man ψ nach I transportieren und hat das Lemma bewiesen. Ist I r T unendlich, enthält es eine abzählbar unendliche Teilmenge B und man hat eine Surjektive Abbildung B → B × N, die man mit ψ zusammenstecken kann um eine Erweiterung von ψ zu erhalten, ein Widerspruch! 11.4 Basen beliebiger Vektorräume Definition 11.4.1. Sei V ein K-Vektorraum und sei (vi )i∈I eine Familie von Vektoren. Eine Linearkombination der vi ist eine Summe der Gestalt X λ i vi , i∈I wobei fast alle Koeffizienten λi ∈ K gleich Null sind. Hierbei heißt fast alle dasselbe wir alle, bis auf endlich viele. Die Familie heißt linear unabhängig, falls jede Linearkombination der Null bereits P trivial ist, also wenn aus i∈I λi vi = 0 schon folgt, dass alle Koeffizienten λi gleich Null sind. Die Menge aller Linearkombinationen schreiben wir als Spann((vi )i∈I ). Dies ist ein Untervektorraum von V. Eine Familie von Vektoren (vi )i∈I heißt Erzeugendensystem von V, falls sich jeder Vektor von V als Linearkombination der vi schreiben lässt, also wenn V = Spann((vi∈I ) gilt. Eine Basis oder auch Hamel-Basis ist ein linear unabhängiges Erzeugendensystem. Satz 11.4.2. (a) Ein minimales Erzeugendensystem ist eine Basis. Lineare Algebra 1 135 (b) Ein maximales linear unabhängiges System ist eine Basis. (c) Jeder Vektorraum hat eine Basis. Genauer enthält jedes Erzeugendensystem eine Basis und jedes linear unabhängige System kann zu einer Basis erweitert werden. Beweis. (a) Sei (vi )i∈I ein minimales Erzeugendensystem und sei X λ i vi = 0 i∈I eine Linearkombination der Null. Angenommen, ein Koeffizienten λi0 ist ungleich Null. Dann folgt X −λ i vi0 = vi , λi0 i,i 0 daher ist die Familie (vi )i,i0 immer noch ein Erzeugendensystem, was der Minimalität Widerspricht! Wegen des Widerspruchs müssen alle Koeffizienten λi gleich Null sein. (b) Sei (vi )i∈I eine linear unabhängige Familie und sei v ∈ V mit v < Spann((vi )i∈I ). Wie in LA1 zeigt man, dass dann die um v erweiterte Familie ebenfalls linear unabhängig ist. Eine maximale linear unabhängige Familie muss daher ein Erzeugendensystem sein. (c) Wir benutzen Zorns Lemma, indem wir zeigen, dass es eine maximale linear unabhängige Familie gibt. Sei M die Menge aller linear unabhängigen Familien, partiell geordnet durch (vi )i∈I ≤ (w j ) j∈J genau dann, wenn I ⊂ J und vi = wi für alle i ∈ I. Sei L ⊂ M eine linear geordnete Teilmenge. Wir konstruieren eine obere Schranke s = (vν )ν∈N wie folgt: N ist die Vereinigung aller Mengen I, die als Indexmengen von Elementen (vi )i∈I ∈ L auftreten, also [ N := I. I:∃(vi )i∈I ∈L Für ν ∈ N gibt es ein (vi )i∈I ∈ L so dass ν = i für ein i ∈ I gilt. Definiere dann vν = vi . Da L linear geordnet ist, ist dies wohldefiniert und wir erhalten ein Element (vν )ν∈N , welches eine obere Schranke zu L ist. Lineare Algebra 1 136 Nach dem Lemma von Zorn existiert also eine maximale linear unabhängige Familie, d.h., eine Basis. Ebenso sieht man, dass ein gegebenes Erzeugendensystem eine maximale linear unabhängige Teilfamilie enthält. Diese muss dann eine Basis sein. Auch zeigt das Lemma von Zorn, dass es zu einem gegebenen linear unabhängigen System eine maximale linear unabhängige Erweiterung gibt. Die muss dann ebenfalls eine Basis sein. Korollar 11.4.3. Zu zwei Vektorräumen V, W gibt es immer eine lineare Abbildung φ : V → W die injektiv oder surjektiv ist. Beweis. Wähle Basen und wende Satz 11.2.2 (c) auf die Basen an. Satz 11.4.4. Je zwei Basen eines Vektorraums V sind gleichmächtig. Zwei Vektorräume V und W sind genau dann isomorph, wenn sie Basen gleicher Mächtigkeit haben. Die Mächtigkeit einer Basis wird die Dimension des Vektorraums genannt. Beweis. Der Satz ist in der LA1 bewiesen worden, falls V endlich-dimensional ist. Sei also V unendlich-dimensional. Seien (vi )i∈I und (w j ) j∈J Basen. Für jedes i ∈ I gibt es genau eine Darstellung X vi = λi,j w j . j∈J Für i ∈ I sei E(i) ⊂ J die Menge aller j ∈ J mit λi,j , 0. Dann ist E(i) stets endlich und S J = i∈I E(i). Sei E(i) = {ji,1 , . . . } eine Aufzählung der Elemente, bei der Elemente mehrfach vorkommen (müssen!). Definiere die Abbildung φ : I × N → J, (i, k) 7→ ji,k . Dann ist φ surjektiv. Da es nach Lemma 11.3.6 eine Surjektive Abbildung I → I × N gibt, gibt es insgesamt eine surjektive Abbildung I → J. Aus Symmetriegründen gibt es auch eine Surjektion J → I und damit eine Bijektion I → J. Für die zweite Aussage des Satzes ist Sei φ : V → W ein Isomorphismus. Dann ist das Bild einer Basis eine Basis und daher bleibt die Mächtigkeit derselben erhalten. Seien Lineare Algebra 1 137 umgekehrt (vi )i∈I und (w j ) j∈J Basen gleicher Mächtigkeit, dann können wir I und J vermittels einer Bijektion identifizieren und I = J annehmen. Die Abbildung vi 7→ wi setzt sich in eindeutiger Weise zu eine linearen Bijektion V → W fort. Index Z/m, 22 GLn (K), 65 Mn (K), 61 Mm×n (K), 61 Per(M), 7 τi, j , 81 a−1 , 20 Äquivalenzklasse, 10 Äquivalenzrelation, 10 ähnlich, 96 Dezimalzahl, 25 diagonalisierbar, 99, 102 Dimension, 51, 136 direkte Summe, 40 disjunkt, 2 Distributivgesetz, 23 duale Abbildung, 119 duale Basis, 57, 118 Dualraum, 57 Durchschnitt, 1 Abbildung, 4 abelsche Gruppe, 22 abzählbar, 131 abzählbar unendlich, 131 Abzählung, 131 affiner Unterraum, 76 algebraisch abgeschlossen, 35 algebraische Vielfachheit, 101 arithmetische Mittel, 18 aufspannen, 44 Auswahlaxiom, 128 Eigenraum, 100 Eigenvektor, 94 Eigenwert, 94 Einheitsmatrix, 66 Einselement, 23 Elementarmatrizen, 74 Elemente, 1 endlich-dimensional, 44 Erzeugendensystem, 44, 134 exakt, 121 exakt bei V, 120 Basis, 48, 134 Basiswechselmatrix, 71 Betrag einer komplexen Zahl, 29 Bidualraum, 121 bijektiv, 6 Bild, 59 Binomialkoeffizienten, 14, 16 Fakultät, 13 fast alle, 134 Fehlstände, 82 formale Ableitung, 54 Fundamentalsatz der Algebra, 35 Charakteristik, 24 charakteristische Polynom, 95, 97 Cokern, 125 Determinante, 83 ganzen Zahlen, 4 geometrische Vielfachheit, 101 gleich, 1 gleichmächtig, 128 Grad, 31 Gruppe, 18 138 Lineare Algebra 1 Hamel-Basis, 134 Hauptraum, 111 Identität, 5 Imaginärteil, 28 injektiv, 5 inverse Abbildung, 9 invertierbar, 8, 65 Jordan-Block, 113 Jordan-Bloecke, 110 Jordan-Matrix, 110, 113 Jordan-Normalform, 114 Körper, 22 kartesische Produkt, 9 Kern, 58 Kettenbedingung, 128 kommutativ, 22 Komplement, 4 Komplementärmatrix, 91 Komplementärraum, 50 komplex konjugierte, 28 Komposition, 8 Kontinuumshypothese, 133 Kronecker-Delta, 92 linear abhängig, 46 linear geordnet, 127 linear unabhängig, 45, 134 lineare Abbildung, 54 linearen Isomorphismus, 56 Linearform, 117 Linearkombination, 43, 134 Mächtigkeit, 128 Matrix, 61 Matrixmultiplikation, 64 maximales Element, 127 139 Menge, 1 Menge der komplexen Zahlen, 28 Minimalpolynom, 105 natürlichen Zahlen, 1, 3 nilpotent, 108 normiert, 105 Nullabbildung, 54 Nullelement, 23 Nullstelle, 33 obere Dreiecksmatrix, 74 obere Schranke, 127 partielle Ordnung, 127 Pascalsche Dreieck, 15 Permutation, 7 Permutationen, 81 polynomiale Abbildung, 33 Polynomring, 30 Potenzmenge, 1 Produkt, 9 Produktzeichen, 13 punktweise Summe, 56 Rang, 80 rationalen Zahlen, 4 Realteil, 28 reellen Zahlen, 25 regulär, 25 Relation, 10 Schnittmenge, 38 Signum, 81 Spaltenrang, 79 Spann, 43 Spur, 100 Summe, 39 Summenzeichen, 13 Lineare Algebra 1 surjektiv, 6 Teilmenge, 1 transponierte Matrix, 66 Transposition, 81 trigonalisierbar, 97 Umkehrabbildung, 9 Untergruppe, 21 Unterraum, 37 Untervektorraum, 37 Vektorraum, 36 Vereinigung, 2 Verknüpfung, 18 Vielfachheit, 33, 34 vollständig geordnet, 127 Zeilenrang, 79 Zeilenstufenform, 74 Zeilentransformation, 73 140