Skript zur Vorlesung Lineare Algebra I Joachim König Sommersemester 2016 Achtung! Dieses Skript ersetzt nicht die Vorlesung! Es ist unvollständig und nicht korrektur-gelesen; es kann (und wird) also Fehler enthalten! Inhaltsverzeichnis 0 Grundlagen 3 0.1 Zur Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 0.2 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1 Algebraische Strukturen 6 1.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.1 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.2 Die Körper Z/pZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2 Vektorräume und ihre Struktur 18 2.1 Der Begriff des Vektorraums . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2 Unterräume und Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3 2.2.1 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.2 Schnitte und Summen von Unterräumen . . . . . . . . . . . . . . . 22 2.2.3 Faktorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.3.1 Begriffe und zentrale Eigenschaften . . . . . . . . . . . . . . . . . . 26 2.3.2 Basis und Dimension von Unterräumen und Faktorräumen . . . . 31 3 Lineare Abbildungen 34 3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Die Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1 INHALTSVERZEICHNIS 2 3.3 Existenz- und Eindeutigkeitsaussagen . . . . . . . . . . . . . . . . . . . . 38 3.4 Abbildungsräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.5 Lineare Abbildungen und Faktorräume . . . . . . . . . . . . . . . . . . . . 41 4 Matrizen 43 4.1 Darstellungsmatrizen linearer Abbildungen . . . . . . . . . . . . . . . . . 43 4.2 Matrixmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.3 Rang und Kern von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.5 Äquivalenz von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5 Lineare Gleichungssysteme 53 5.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.2 Lösbarkeit und Struktur der Lösungsmenge . . . . . . . . . . . . . . . . . 54 5.3 Elementare Umformungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.4 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5.5 Bestimmung der Lösungsmenge linearer Gleichungssysteme . . . . . . . . 60 5.6 Die Transponierte einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . 63 5.7 Bestimmung der Inversen einer Matrix . . . . . . . . . . . . . . . . . . . . 64 6 Determinanten 65 6.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6.2 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 69 6.3 6.2.1 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . 69 6.2.2 Determinanten von Endomorphismen . . . . . . . . . . . . . . . . 73 6.2.3 Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . 74 Exkurs: Multilinearformen und Tensorprodukte . . . . . . . . . . . . . . . 77 Kapitel 0 Grundlagen 0.1 Zur Notation Die natürlichen Zahlen N verstehen wir als {1, 2, 3, ...}. Für die Menge {0, 1, 2, 3, ...} schreiben wir N0 . 0.2 Relationen Relationen sind ein grundlegendes Konzept für viele Bereiche der Mathematik. Insbesondere Äquivalenzrelationen werden uns im Laufe der Vorlesung noch oft begegnen. Deshalb zunächst eine kurze Einführung. Definition 0.1 (Relation). Seien A und B Mengen. Eine Relation zwischen A und B ist eine Teilmenge R des kartesischen Produkts A × B := {(a, b) | a ∈ A, b ∈ B}. Falls (a, b) ∈ R, dann schreiben wir a ∼R b oder auch nur a ∼ b. Ist A = B, dann spricht man von einer Relation auf A. Eine Relation R auf einer Menge A heißt reflexiv, falls stets a ∼R a gilt (für alle a ∈ A). Sie heißt symmetrisch, falls aus a ∼R b stets b ∼R a folgt (für alle a, b ∈ A). Sie heißt transitiv, falls aus a ∼R b und b ∼R c stets a ∼R c folgt (für alle a, b, c ∈ A). Definition 0.2 (Äquivalenzrelation, Äquivalenzklasse). Eine reflexive, symmetrische und transitive Relation R auf einer Menge A heißt Äquivalenzrelation. Sei R eine Äquivalenzrelation auf A und sei x ∈ A. Die Menge [x] := {a ∈ A | x ∼R a} heißt die Äquivalenzklasse von x. Jedes Element y ∈ [x] heißt Repräsentant der Äquivalenzklasse [x]. Die Menge der Äquivalenzklassen der Äquivalenzrelation R auf A wird auch kurz als A/R bezeichnet. Die Abbildung π : A 7→ A/R, definiert durch x 7→ [x], die jedem Element seine Äquivalenzklasse zuordnet, heißt kanonische Projektion. 3 KAPITEL 0. GRUNDLAGEN 4 Satz 0.1. Ist R eine Äquivalenzrelation auf A, dann bilden die Äquivalenzklassen eine Partition von A, d.h. i) S x∈A [x] = A und ii) aus [x] 6= [y] folgt schon [x] ∩ [y] = ∅. S Beweis. Wegen der Reflexivität gilt x ∈ [x] für alle x ∈ A, also x ∈ a∈A [a] und folglich S S A ⊆ [a]. Aber sowieso a∈A a∈A [a] ⊆ A nach Definition der Äquivalenzklassen, also S a∈A [a] = A. Seien nun x, y ∈ A so, dass [x] ∩ [y] 6= ∅. Wir müssen [x] = [y] zeigen. Da [x] ∩ [y] 6= ∅ existiert ein z ∈ A mit z ∈ [x] und z ∈ [y]. Sei nun a ∈ [x] beliebig, dann gelten x ∼ a, x ∼ z und y ∼ z. Mit der Symmetrie und Transitivität der Relation folgt a ∼ x ∼ z ∼ y, also y ∼ a, d.h. a ∈ [y]. Da das für alle a ∈ [x] gilt, folgt [x] ⊆ [y]. Genauso zeigt man [y] ⊆ [x], also insgesamt Gleichheit. Beispiele: a) Jede Abbildung f : A → B ist eine Relation. b) Durch die Vorschrift a ∼R b :⇔ a ≤ b (für a, b ∈ R) wird eine Relation auf R definiert. Sie ist reflexiv und transitiv, aber nicht symmetrisch und deshalb keine Äquivalenzrelation. c) Sei n ∈ N. Durch die Vorschrift a ∼R b :⇔ a − b ist durch n teilbar1 (für a, b ∈ Z) wird eine Äquivalenzrelation auf der Menge Z definiert. Statt a ∼R b schreiben wir hier auch a ≡ b mod n (sprich: “a kongruent b modulo n”). Die Äquivalenzklassen sind genau [0], [1],..., [n − 1]. Sie heißen auch die Restklassen modulo n. Es gilt [a] = {..., a−n, a, a+n, a+2n, ...} = {a+nk|k ∈ Z}. Dieses Beispiel wird auch in den folgenden Abschnitten wichtig bleiben. d) Sind M, N zwei Mengen und f : M → N eine Abbildung, dann ist durch x ∼R y :⇔ f (x) = f (y) (für x, y ∈ M ) eine Äquivalenzrelation auf M definiert. Die Äquivalenzklassen sind gerade die Fasern f −1 (z) := {x ∈ M |f (x) = z} für z im Bild von f . Insbesondere ist f auf jeder Äquivalenzklasse konstant, und somit ist die Abbildung f : M/R → N , [x] 7→ f (x), wohldefiniert. Es gilt gerade f = f ◦ π, mit der kanonischen Projektion π. Einen solchen Zusammenhang stellt man in der Mathematik oft durch ein kommutierendes Diagramm dar: 1 Hiermit meinen wir wiederum, dass ein k ∈ Z existiert mit a − b = kn KAPITEL 0. GRUNDLAGEN M f 5 N π f M/R Abbildungen sind in solchen Diagrammen jeweils durch Pfeile repräsentiert. “Kommutierendes Diagramm” bedeutet hierbei, dass zwei Wege aus Pfeilen mit dem selben Anfangs- und Zielort stets das gleiche Ergebnis liefern. Kapitel 1 Algebraische Strukturen Der zentrale Begriff der linearen Algebra ist der des Vektorraums. Um diesen allgemein zu definieren und damit zu arbeiten, brauchen wir zunächst einige Grundlagen über Gruppen, Ringe und Körper, sowie einige wichtige Beispiele. Gruppen werden uns außerdem später im Kapitel über Determinanten wieder begegnen, Ringe (im Kapitel über Matrizen und) in der Linearen Algebra II im Zusammenhang mit Polynomen. 1.1 Gruppen Definition 1.1 (Verknüpfung). Sei M eine nicht-leere Menge. Eine (zweistellige) Verknüpfung auf M ist eine Abbildung ◦ : M × M → M . Eine Verknüpfung heißt assoziativ, wenn (a ◦ b) ◦ c = a ◦ (b ◦ c) für alle a, b, c ∈ M gilt. Sie heißt kommutativ, wenn a ◦ b = b ◦ a für alle a, b ∈ M gilt. Definition 1.2 (Gruppe). Sei G eine nicht leere Menge und ◦ eine Verknüpfung auf G. Das Paar (G, ◦) heißt Gruppe, wenn gelten: G1) ◦ ist assoziativ. G2) Es existiert ein neutrales Element, d.h. ein e ∈ G, so dass für alle g ∈ G gilt: g ◦ e = e ◦ g = g. G3) Zu jedem Element g ∈ G existiert ein Inverses, d.h. ein h ∈ G mit g ◦h = h◦g = e. Ist die Verknüpfung ◦ zusätzlich kommutativ, dann heißt die Gruppe (G, ◦) abelsch.1 Beispiele: 1 Niels Henrik Abel (1802-1829) 6 KAPITEL 1. ALGEBRAISCHE STRUKTUREN 7 a) R, Q und Z sind jeweils abelsche Gruppen bezüglich der Addition. (N, +) bzw. (N0 , +) sind keine Gruppen, da im ersten Fall das Neutrale, im zweiten Fall die Inversen fehlen. b) R\{0} und Q\{0} sind abelsche Gruppen bezüglich der Multiplikation. (Z\{0}, ·) ist keine Gruppe. c) Ist M eine nicht-leere Menge, dann ist die Menge Sym(M ) := {f : M → M | f bijektiv} mit der Hintereinanderausführung von Abbildungen als Verknüpfung eine Gruppe, mit der identischen Abbildung id : M → M, x 7→ x∀x∈M , als Neutralem. Die Forderung “f bijektiv” ist nötig um ein Inverses (die Umkehrabbildung!) zu erhalten. Sym(M ) heißt die symmetrische Gruppe auf M und ihre Elemente heißen Permutationen von M . Ist M = {1, ..., n}, dann schreibt man auch Sn statt Sym(M ). Rein kombinatorisch sieht man, dass Sn genau n! := 1 · 2 · ... · n Elemente hat. Die symmetrische Gruppe Sym(M ) ist für |M | ≥ 3 nicht abelsch. Direkt aus den Gruppenaxiomen folgt: Korollar 1.1. Sei (G, ◦) eine Gruppe. Dann gelten: a) Es gibt genau ein neutrales Element in G, und zu jedem g ∈ G existiert genau ein Inverses. b) Es gelten die Kürzungsregeln: Aus a ◦ x = b ◦ x folgt a = b, und aus x ◦ a = x ◦ b folgt a = b. c) Bezeichnet man mit g −1 das Inverse von g ∈ G, dann gilt (x ◦ y)−1 = y −1 ◦ x−1 für alle x, y ∈ G.2 Beweis: Zu a): Sind e und f zwei neutrale Elemente, dann gilt sowohl e ◦ f = e als auch e ◦ f = f , also e = f . Hat weiter g ∈ G zwei Inverse h1 , h2 , dann folgt h2 = h2 ◦e = h2 ◦(g ◦h1 ) = (h2 ◦g)◦h1 = e ◦ h1 = h1 . b),c): Übung. Bemerkungen: a) Falls keine Verwechslungsgefahr besteht, sagt man auch einfach ”G ist Gruppe” (anstelle von ”(G, ◦) ist Gruppe”). 2 Diese wichtige Rechenregel wird im Englischen gelegentlich as “Shoes and Socks Property” bezeichnet: Beim Invertieren des Anziehvorgangs (auch als Ausziehen bekannt) sollte man nämlich sinnvollerweise die Reihenfolge vertauschen - erst die Schuhe, dann die Socken. KAPITEL 1. ALGEBRAISCHE STRUKTUREN 8 b) Oft bezeichnet man das Neutrale einer Gruppe mit 1, das Inverse des Elementes g mit g −1 , das Produkt g ◦ ... ◦ g mit g n (n ∈ N) und dessen Inverses (g n )−1 als g −n . | {z } n Faktoren Den Ausdruck g 0 definiert man als 1. Man verifiziert dann schnell die Potenzrechenregeln (g n )m = g nm sowie g n · g m = g n+m für alle g ∈ G und m, n ∈ Z.3 Klammern lässt man wegen des Assoziativgesetzes oft weg. In abelschen Gruppen schreibt man manchmal + für das Verknüpfungssymbol (natürlich nur, wenn es sinnvoll ist; z.B. ist R× := R \ {0} mit der Multiplikation eine abelsche Gruppe, es wäre aber natürlich unsinnig, für die Multiplikation das +-Zeichen zu verwenden!). In diesem Fall bezeichnet man das Neutrale als 0, das Inverse von g als −g und das Element g + ... + g als ng. | {z } n−mal In multiplikativ geschriebenen Gruppen lässt man das Verknüpfungszeichen auch oft weg und schreibt einfach gh statt g · h. c) Warnung: Die Definition einer Gruppe umfasst neben den Eigenschaften G1 bis G3 noch die Nicht-Leerheit von G und die Tatsache, dass ◦ eine Verknüpfung ist. Das wird oft vergessen, wenn in Übungsaufgaben verifiziert werden soll, dass ein bestimmtes (G, ◦) eine Gruppe ist. Die Nicht-Leerheit ist dabei häufig offensichtlich, die Verknüpfungseigenschaft aber nicht immer: man muss zeigen, dass ◦ tatsächlich nach G abbildet, dass also g ◦ h ∈ G für alle g, h ∈ G! Um die Struktur von Gruppen genauer untersuchen zu können, benötigt man das Konzept der Untergruppe. Definition 1.3 (Untergruppe). Eine nicht-leere Teilmenge U einer Gruppe (G, ◦) heißt Untergruppe von G (und man schreibt U ≤ G), wenn gelten: U1) Für alle u, v ∈ U ist u ◦ v ∈ U . U2) Für alle u ∈ U ist u−1 ∈ U . Bemerkung: Diese Definition ist äquivalent dazu, dass (U, ◦) selbst wieder eine Gruppe ist. Die Eigenschaft U1 besagt nämlich gerade, dass die Einschränkung von ◦ auf U wieder eine Verknüpfung ist, U2 liefert die Inversenexistenz, die Assoziativität der Verknüpfung vererbt sich von G, und die Existenz des Neutralen in U erhält man wie folgt: Zunächst gibt es wegen U 6= ∅ ein u ∈ U . Mit U2 ist dann auch u−1 ∈ U , und somit schließlich mit U1: 1 = u ◦ u−1 ∈ U . Beispiele: 3 Dagegen gilt aber die Rechenregel g n · hn = (gh)n im Allgemeinen nur in abelschen Gruppen! KAPITEL 1. ALGEBRAISCHE STRUKTUREN 9 a) In jeder Gruppe ist die Menge {e}, die nur aus dem neutralen Element besteht, eine Untergruppe. b) Für jedes n ∈ N0 ist die Menge nZ := {nk|k ∈ Z} eine Untergruppe der additiven Gruppe (Z, +). c) Die positiven reellen Zahlen sind eine Untergruppe der multiplikativen Gruppe (R \ {0}, ·). Man rechnet direkt nach: Lemma 1.2. Der Schnitt wieder eine Untergruppe. T i∈I Ui beliebig vieler Untergruppen Ui einer Gruppe G ist Dagegen ist die Vereinigung zweier Untergruppen im Allgemeinen keine Untergruppe. Dies führt auf den Begriff des Erzeugnisses. Satz 1.3. Sei G eine Gruppe und sei M eine Teilmenge von M . Dann ist die Menge hM i := {g1k1 · · · gnkn | n ∈ N0 ; g1 , ..., gn ∈ M ; k1 , ..., kn ∈ Z} eine Untergruppe von G, und zwar die kleinste Untergruppe, die M enthält.4 Man nennt hM i das Erzeugnis von M . Beweis: hM i ist nicht leer, da das leere Produkt (bestehend aus 0 Faktoren), welches man grundsätzlich als 1 definiert, immer in hM i liegt (selbst dann, wenn M = ∅!). Weiter ist das Produkt zweier Elemente aus hM i offensichtlich wieder von der in der Definition von hM i geforderten Gestalt, und ebenso das Inverse eines Elements g1k1 · · · gnkn ∈ hM i, wegen (g1k1 · · · gnkn )−1 = gn−kn · · · g1−k1 . Weiter enthält hM i alle g ∈ M , also M ⊂ hM i. Umgekehrt muss jede Untergruppe U , die M enthält, auf Grund der Abgeschlossenheit gegenüber Multiplikation und Inversenbildung auch alle g k (mit g ∈ M , k ∈ Z) enthalten, und damit auch alle endlichen Produkte solcher Elemente, also hM i. Damit ist hM i die kleinste Untergruppe, die M enthält. Im Spezialfall, dass M = {g} einelementig ist, ist das Erzeugnis hgi := hM i also als {g k |k ∈ Z} definiert. Gruppen, die das Erzeugnis eines einzelnen Elementes sind, nennt man zyklische Gruppen. Man sieht schnell, dass zyklische Gruppen immer abelsch sind (das folgt sofort aus den Potenzrechenregeln). Für eine beliebige Gruppe G bezeichnet man die Mächtigkeit |G| von G auch als Ordnung von G. Die Ordnung |g| eines Elementes g ∈ G ist definiert als die Ordnung der von g erzeugten zyklischen Gruppe. Beispiele zyklischer Gruppen: 4 “Die kleinste” bedeutet hier, dass hM i in jeder M umfassenden Untergruppe enthalten ist. hM i ist also der Schnitt aller M umfassenden Untergruppen, was ja wie eben bemerkt tatsächlich wieder eine Untergruppe ist. KAPITEL 1. ALGEBRAISCHE STRUKTUREN 10 a) Die ganzen Zahlen (Z, +) sind eine unendliche zyklische Gruppe, erzeugt von 1 ∈ Z. b) Für n ∈ N definiere auf der Menge {[k] := k + nZ | k ∈ {0, ..., n − 1}} der Restklassen modulo n eine Addition durch [k] + [m] := [k + m]. Da der Repräsentant k der Restklasse [k] nicht eindeutig ist, muss man sich zunächst klarmachen, dass diese Definition eindeutig ist! Anschließend folgen die Assoziativität und Kommutativität der so definierten Addition direkt aus den entsprechenden Eigenschaften der Addition in Z; ebenso offensichtlich ist [0] das Neutrale und [−m] das Inverse von [m]. Damit ist die Menge der Restklassen modulo n eine Gruppe der Ordnung n, und zwar zyklisch, denn [1] ist ein Erzeuger. Wir schreiben diese Gruppe als (Z/nZ, +) (in Worten: “Z modulo nZ”). Satz 1.4. Sei G eine Gruppe und sei g ∈ G mit endlicher Ordnung n ∈ N. Dann gelten: a) hgi besteht genau aus den Elementen g i mit 0 ≤ i ≤ n − 1. b) n ist die kleinste natürliche Zahl k mit g k = 1. c) Für i, j ∈ Z ist g i = g j genau dann, wenn i − j durch n teilbar ist. Insbesondere ist g k = 1 genau dann, wenn k durch n teilbar ist. Beweis: Angenommen es gäbe i 6= j ∈ Z (o.E. i < j) vom Abstand kleiner als n mit g i = g j . Dann wäre also g k = 1 für k := j − i(∈ {1, ..., n − 1}). Sei nun m ∈ Z beliebig. Da es genau die Restklassen [0], [1], ..., [k − 1] modulo k gibt, lässt sich m in der Form qk + r schreiben, mit q ∈ Z und r ∈ {0, ..., k − 1}. Dann ist g m = g qk+r = (g k )q · g r = g r . Also hat hgi höchstens die k(< n) verschiedenen Elemente g r mit 0 ≤ r ≤ k − 1, im Widerspruch zu Voraussetzung. Also sind die n Elemente g 0 , ..., g n−1 paarweise verschieden. Da aber |hgi| = n, sind das schon alle Elemente in hgi (also gilt a)). Insbesondere muss g n mit einem dieser n Elemente identisch sein, und nach obigem Argument bleibt nur g n = g 0 = 1. Das zeigt b). Ist nun i − j durch n teilbar, d.h. i − j = an für ein a ∈ Z, dann ist sicher g i−j = g an = (g n )a = 1a = 1. Ist umgekehrt i − j nicht durch n teilbar, dann ist i − j = qn + r für ein 1 ≤ r ≤ n − 1. Wäre nun g i−j = 1, dann auch g i−j = (g n )q · g r = g r 6= 1 wegen 1 ≤ r ≤ n − 1. Das zeigt c). Definition 1.4 (Nebenklassen). Seien (G, ·) eine Gruppe, U ≤ G eine Untergruppe und g ∈ G. Dann heißt die Menge g · U := {g · u | u ∈ U } die Linksnebenklasse von U durch g. Ebenso heißt U · g := {u · g | u ∈ U } die Rechtsnebenklasse von U durch g. Beispiel: Ist G = Z (natürlich mit Addition als Verknüpfung!) und U = nZ für ein n ∈ N, dann sind die Nebenklassen (ob “Links-” oder “Rechts-” ist hier egal, da die Gruppe KAPITEL 1. ALGEBRAISCHE STRUKTUREN 11 ja kommutativ ist) genau die Mengen a + nZ, also genau die Restklassen [a] modulo n (a = 0, ..., n − 1). Man beachte, dass aus gU = hU im Allgemeinen nicht g = h folgt (man kann also nicht einfach U ”kürzen”)! Vielmehr folgt U = g −1 · gU = g −1 hU , und daraus folgt g −1 h ∈ U (denn natürlich g −1 h = g −1 h · 1 ∈ g −1 hU ). Auch die Umkehrung gilt, d.h. falls g −1 h ∈ U , dann ist U = g −1 hU und somit gU = gg −1 hU = hU . Tatsächlich sind Nebenklassen ein Spezialfall von Äquivalenzklassen; denn die durch g ∼ h :⇔ g −1 h ∈ U auf G gegebene Relation ist • reflexiv, da g −1 g = 1 ∈ U für alle g ∈ G, • symmetrisch, da aus g −1 h ∈ U auch h−1 g = (g −1 h)−1 ∈ U folgt, • transitiv, da aus g −1 h ∈ U und h−1 k ∈ U auch g −1 k = (g −1 h) · (h−1 k) ∈ U folgt, und somit eine Äquivalenzrelation! Die Äquivalenzklasse [g] eines Elementes g bezüglich dieser Relation ist genau [g] = {h ∈ G|g −1 h ∈ U } = {h ∈ G|h ∈ gU }, also genau die Linksnebenklasse gU . Die bisherigen Bemerkungen über Nebenklassen liefern schnell den folgenden wichtigen Satz. Satz 1.5 (Lagrange5 ). Sei U eine Untergruppe der endlichen Gruppe G. Dann ist |U | ein Teiler von |G|. Beweis: Sei g ∈ G beliebig, dann ist die Abbildung U → gU , definiert durch u 7→ gu eine Bijektion von U auf gU (die Surjektivität ist klar, und mit der Kürzungsregel (gu1 = gu2 ⇒ u1 = u2 ) folgt auch die Injektivität). Insbesondere sind alle Linksnebenklassen gleich groß (nämlich von der Mächtigkeit |U |). Da die Linksnebenklassen als Äquivalenzklassen (siehe oben!) die Menge G partitionieren, folgt |G| = k · |U |, mit k =Anzahl der Linksnebenklassen.6 Wählt man insbesondere im Satz von Lagrange U = hgi zyklisch (mit einem g ∈ G), dann ergibt sich sofort: Korollar 1.6. Die Ordnung eines Elements g einer endlichen Gruppe G ist stets ein Teiler der Gruppenordnung. Wir geben noch eine weitere Anwendung für Gruppen, deren Ordnung eine Primzahl ist. 5 Joseph-Louis de Lagrange (1736-1813) Das gleiche Argument funktioniert natürlich auch für Rechtsnebenklassen. Insbesondere ist die Anzahl der Links- gleich der Anzahl der Rechtsnebenklassen von U . Diese Anzahl heißt der Index von U in G, kurz [G : U ]. Es ist also gerade [G : U ] = |G| . |U | 6 KAPITEL 1. ALGEBRAISCHE STRUKTUREN 12 Korollar 1.7. Jede Gruppe von Primzahlordnung ist zyklisch. Beweis: Sei G eine Gruppe und |G| = p eine Primzahl. Sei g ∈ G\{1} nicht das neutrale Element. Da 1, g ∈ hgi, ist die Ordnung von g sicher größer als 1. Andererseits ist sie nach dem vorangegangenen Korollar ein Teiler von |G| = p. Da p Primzahl ist, bleibt nur |hgi| = p, also ist G = hgi zyklisch. 1.2 Ringe Definition 1.5 (Ring). Sei R eine nicht-leere Menge mit zwei Verknüpfungen + und ·. Dann heißt (R, +, ·) ein Ring, falls gelten: R1) (R, +) ist eine abelsche Gruppe. R2) · ist assoziativ und es existiert ein neutrales Element 1.7 R3) Es gelten die Distributivgesetze (x + y) · z = xz + yz sowie x · (y + z) = xy + xz für alle x, y, z ∈ R. Falls zusätzlich die Multiplikation auf R kommutativ ist, bezeichnet man R als kommutativen Ring. Beispiele: a) Die ganzen Zahlen sind mit der üblichen Addition und Multiplikation ein (kommutativer) Ring. b) Ist n ∈ N, dann wird die Menge der Nebenklassen [k] := k + nZ, k = 0, ..., n − 1, mit der bereits definierten Addition [k] + [m] := [k + m] sowie der Multiplikation [k] · [m] := [km] zu einem kommutativen Ring. Wir bezeichnen ihn als den Restklassenring Z/nZ. Für die Restklasse [k] = k + nZ ∈ Z/nZ schreibt man auch einfach k, wobei man sich dann klar sein muss, dass damit nicht die ganze Zahl k ∈ Z gemeint ist! c) Wichtige Beispiele nicht-kommutativer Ringe werden wir später kennenlernen, siehe das Kapitel über Matrizen. Lemma 1.8. Sei (R, +, ·) ein Ring. Dann gelten: 7 Das heißt, dass (R, ·) alle Gruppenaxiome bis auf die Inversenexistenz erfüllt. Eine solche Struktur heißt auch Monoid. KAPITEL 1. ALGEBRAISCHE STRUKTUREN 13 a) Für alle r ∈ R gilt 0 · r = r · 0 = 0. b) Ist |R| > 1, dann gilt 0 6= 1 in R. c) Besitzt r ∈ R ein multiplikatives Inverses, dann ist rs 6= 0 für alle s ∈ R \ {0}, und ebenso sr 6= 0. Beweis: Zu a): Es ist 0 · r = (0 + 0) · r = 0 · r + 0 · r. Addiert man auf beiden Seiten das Negative (=das additive Inverse) von 0 · r, ergibt sich 0 = 0 · r. Analog zeigt man r · 0 = 0. Zu b): Aus 0 = 1 folgt für jedes r ∈ R: 0 = 0 · r = 1 · r = r, also R = {0}. Zu c): Aus rs = 0 folgt durch Linksmultiplikation mit dem Inversen r−1 die Gleichung s = r−1 rs = r−1 0 = 0. Noch einige grundlegende Begriffe aus der Ringtheorie: Definition 1.6 (Einheiten, Nullteiler). Sei R ein Ring. Ein Element x ∈ R\{0}, welches ein multiplikatives Inverses besitzt, heißt Einheit. Ein Element r ∈ R \ {0}, für das ein s ∈ R \ {0} existiert mit rs = 0 oder sr = 0, heißt Nullteiler. R heißt nullteilerfrei, wenn es keine Nullteiler in R gibt. Bemerkungen: a) Es ist eine einfache Übungsaufgabe, nachzurechnen, dass die Menge der Einheiten eines Ringes R eine multiplikative Gruppe bildet. Sie wird als Einheitengruppe von R bezeichnet und mit R× abgekürzt. b) Lemma 1.8c) besagt gerade, dass Einheiten nie zugleich Nullteiler sind. c) Beispiele von Ringen mit Nullteilern liefern z.B. die Restklassenringe. So gilt etwa in Z/4Z: [2] · [2] = [0]. Polynome Wichtige Beispiele von Ringen sind Polynomringe über kommutativen Ringen. Wir führen den Begriff des Polynoms zunächst in einer möglicherweise überraschenden, dafür aber formal korrekten Weise ein: Definition 1.7 (Polynome). Sei R ein kommutativer Ring. Ein Polynom über R ist eine Folge8 (ai )i∈N0 = (a0 , a1 , a2 , ...), mit ai ∈ R, so dass nur endlich viele der ai von Null verschieden sind. Der maximale Index i, so dass ai 6= 0 gilt, heißt Grad (geschrieben deg(p)) des Polynoms p := (ai )i∈N0 .9 Die Menge aller Polynome über R bezeichnet man als R[X]. 8 Dies wiedederum ist formal gesehen eine Abbildung f : N0 → R, i 7→ ai . Für das Nullpolynom (0, 0, 0, ...) existiert überhaupt kein solches i. Man definiert den Grad des Nullpolynoms deswegen als −∞. 9 KAPITEL 1. ALGEBRAISCHE STRUKTUREN 14 Man rechnet dann völlig elementar (wenn auch etwas technisch) nach: Satz 1.9 (Polynomring). Mit der Addition (a0 , a1 , a2 , ...) + (b0 , b1 , b2 , ...) := (a0 + b0 , a1 + b1 , a2 + b2 , ...) sowie der Multiplikation (a0 , a1 , a2 , ...) · (b0 , b1 , b2 , ...) := (c0 , c1 , c2 , ...), mit ci := a0 · bi + a1 · bi−1 + ... + ai · b0 wird R[X] zu einem kommutativen Ring, mit Nullelement 0 := (0, 0, 0, ...) und Einselement 1 := (1, 0, 0, ....). Die obige Definition bedarf einiger Erklärungen. Natürlich stellt man sich ein Polynom nicht in der eben eingeführten Form vor. Wir definieren deshalb X als diejenige Folge (ai )i∈N0 , die nur den Eintrag a1 = 1 und sonst lauter Nulleinträge hat, also X := (0, 1, 0, 0, ...). Dann sieht man schnell, dass mit der eben eingeführten Multiplikation X n gerade das Element ist, das nur an der n-ten Stelle den Eintrag 1 und sonst lauter 0 Nulleinträge hat (für alle n ∈ N). Zusammen mit der Konvention 1 folgt also, Pn X := dass (a0 , a1 , a2 , ...an , 0, 0, ...) ∈ R mit dem Element p(X) := i=0 ai · X i identisch ist, und dass die oben eingeführte Addition und Multiplikation genau diejenigen sind, die man für solche Ausdrücke p(X) P aus der Schule kennt. Die ai bezeichnen wir als die Koeffizienten des Polynoms ni=0 ai · X i . Der Aufwand bei der Definition von Polynomen kommt daher, dass man zunächst sauber erklären muss, was eigentlich mit X gemeint P sein soll. Wir stellen uns also in Zukunft ein Polynom als eine “formale Summe” ni=0 ai · X i vor (“formale Summe” bedeutet hier, dass zwei Polynome nur dann gleich sind, wenn sie in allen Koeffizienten übereinstimmen). Bemerkung/Warnung: Es wäre naheliegend gewesen, Polynome einfach als Abbildungen p : R → R, R 3 x 7→ ai · xi , einzuführen, wie man es von (z.B. reellen) Polynomen aus der Schule kennt. Über allgemeinen Ringen würde das aber zu Problemen führen: Z.B. liefert über dem Ring R = Z/2Z das Polynom X 2 + X die Nullabbildung (denn 12 + 1 = 2 = 0 = 02 + 0); trotzdem ist dieses Polynom aber, als formale Summe gesehen, nicht das Nullpolynom! Lemma 1.10. Seien f, g ∈ R[X] Polynome über dem kommutativen Ring R. Dann gelten: i) deg(f + g) ≤ max deg(f ), deg(g). ii) deg(f · g) ≤ deg(f ) + deg(g). Ist R nullteilerfrei, dann gilt in ii) sogar Gleichheit, und insbesondere ist dann R[X] auch nullteilerfrei. KAPITEL 1. ALGEBRAISCHE STRUKTUREN 15 Beweis: Seien ohne Einschränkung f und g P nicht das Nullpolynom. Setze m := deg(f ), Pm i n := deg(g). Es ist f = i=0 ai X und g = nj=0 bj X j (mit geeigneten Koeffizienten ai und bj ). Offensichtlich ist ak = bk = 0 für alle k > max{m, n}, und somit gilt a). Weiter ist f · g = a0 b0 X 0 + (a1 b0 + a0 b1 )X 1 + ... + am bn X m+n , also gilt auch b). Ist R nullteilerfrei, dann ist am bn 6= 0, also gilt in b) sogar Gleichheit, und insbesondere ist f · g nicht das Nullpolynom. 1.3 Körper Definition 1.8 (Körper). Ein kommutativer Ring K heiß Körper, falls |K| > 1 und jedes x ∈ K \ {0} ein multiplikatives Inverses besitzt. Bemerkung: Zusammen mit den Ringaxiomen (und der Aussage, dass die Menge der multiplikativ invertierbaren Elemente eine Gruppe bildet) sieht man also, dass K (mit den Verknüpfungen + und ·) genau dann ein Körper ist, wenn: K1) (K, +) ist eine abelsche Gruppe. K2) (K \ {0}, ·) ist eine abelsche Gruppe K3) Das Distributivgesetz x(y + z) = xy + xz gilt für alle x, y, z ∈ K. Beispiele: Die reellen Zahlen R und die rationalen Zahlen Q sind Körper. Weitere wichtige Beispiele sind die komplexen Zahlen C und die Restklassenringe Z/pZ mit einer Primzahl p. Siehe dazu die folgenden Abschnitte. 1.3.1 Die komplexen Zahlen Satz 1.11. Die Menge R2 = {(a, b) | a, b ∈ R} wird durch die Definitionen (a, b) + (c, d) := (a + b, c + d) sowie (a, b) · (c, d) := (ac − bd, ad + bc) zu einem Körper. Wir bezeichnen diesen Körper als den Körper der komplexen Zahlen, kurz C. Das Einselement in C ist (1, 0). Die Menge aller Elemente (a, 0) ∈ C (mit a ∈ R) bildet selbst einen Körper, den wir in natürlicher Weise mit R identifizieren können. Wir schreiben deswegen das Element (a, 0) auch einfach als a. Das Element (0, 1) ∈ C bezeichnen wir als i. Dann gilt i2 = −1, und für alle (a, b) ∈ C ist (a, b) = a + ib. Man bezeichnet a ∈ R als den Realteil und b ∈ R als den Imaginärteil der komplexen Zahl z := a + ib (Schreibweise a = <(z), b = =(z)). KAPITEL 1. ALGEBRAISCHE STRUKTUREN 16 Die merkwürdig erscheinende Definition der Multiplikation erklärt sich nachträglich durch die Identität (a, b) = a + ib. Man hat (a + ib)(c + id) = ac + ibc + iad + i2 bd = (ac − bd) + i(ad + bc). Man beachte auch, dass die auf den ersten Blick natürlicher erscheinende Festlegung (a, b) · (c, d) := (ac, bd) keinen Körper liefern würde: z.B. wäre dann (1, 0) · (0, 1) = (0, 0) das Nullelement, und damit hätte (1, 0) nach Lemma 1.8c) kein multiplikatives Inverses! Für z := a + ib ∈ C definiert man z als z := a − ib und den √ das Komplex-Konjugierte + 2 2 komplexen Betrag |z| als |z| = a + b (∈ R0 ). Folgende Rechenregeln prüft man dann sofort nach: Lemma 1.12. Seien z, w ∈ C, dann gelten: a) z + w = z + w sowie zw = z · w. b) |z|2 = z · z und |zw| = |z| · |w| c) z + z = 2<(z) und z − z = 2i · =(z). Auch wenn komplexe Zahlen auf den ersten Blick weniger “natürlich” wirken als komplexe Zahlen, hat ihre Verwendung zahlreiche Vorteile. Das wird insbesondere im zweiten Semester deutlich werden. 1.3.2 Die Körper Z/pZ Satz 1.13. Der Restklassenring Z/nZ ist genau dann ein Körper, wenn n eine Primzahl ist. Beweis: Schreibe [k] für die Restklasse k + nZ. Zunächst ist Z/1Z = {Z} einelementig, also nach Definition kein Körper. Ist weiter n eine zusammengesetzte Zahl, also n = km mit zwei natürlichen Zahlen 1 < k, m < n, dann gilt [k][m] = [km] = [0], aber sowohl [k] 6= [0] als auch [m] 6= [0]. Nach Lemma 1.8 c) kann Z/nZ dann kein Körper sein. Sei nun n eine Primzahl. Angenommen, es gäbe ein nicht-invertierbares Element [k] ∈ Z/nZ \ {[0]} (mit k ∈ {1, ..., n − 1}). Da also unter den n Werten [a] · [k], mit a ∈ {0, ..., n − 1}, nicht der Wert [1] auftritt, müssen zwei dieser Werte zusammenfallen: [a] · [k] = [b] · [k] für geeignete 0 ≤ a < b ≤ n − 1. Aber dann ist [b − a][k] = ([b] − [a])[k] = [b][k] − [a][k] = [0], d.h. das Produkt aus b − a und k ist durch n teilbar. Da n Primzahl ist, muss einer der Faktoren durch n teilbar sein; aber sowohl b − a als auch k lagen in {1, ..., n − 1}; ein Widerspruch. Bemerkungen: KAPITEL 1. ALGEBRAISCHE STRUKTUREN 17 a) Die bekannten Körper Q, R und C sind ineinander enthalten: Q ⊂ R ⊂ C. Die endlichen Körper Z/pZ sind aber nicht in C enthalten! Auch wenn die Elemente von Z/pZ der Einfachheit halber oft als 0, 1, ..., p − 1 geschrieben werden, darf man sie nicht einfach mit den genauso geschriebenen ganzen Zahlen identifizieren (z.B. gelten in Z/pZ Identitäten wie 1 + (p − 1) = 0, in den ganzen Zahlen aber natürlich nicht!). Sie bilden vielmehr ein eigenes “Universum”. b) Es gibt auch endliche Körper, deren Mächtigkeit keine Primzahl ist, aber nach obigem Satz sind diese dann nicht von der Form Z/nZ. Kapitel 2 Vektorräume und ihre Struktur 2.1 Der Begriff des Vektorraums Definition 2.1 (Vektorraum). Sei V eine nicht-leere Menge, + eine Verknüpfung auf V , K ein Körper und · : K × V → V . Dann heißt (V, +, ·) ein K-Vektorraum, falls gelten: V1) (V, +) ist eine abelsche Gruppe. V2) Die Abbildung · erfüllt (λµ) · v = λ · (µ · v) für alle λ, µ ∈ K und alle v ∈ V (”gemischte Assoziativität”), sowie 1 · v = v für alle v ∈ V (”Normiertheit”). V3) Es gelten (λ+µ)·v = λ·v+µ·v für alle λ, µ ∈ K, v ∈ V , sowie λ·(v+w) = λ·v+λ·w für alle λ ∈ K, v, w ∈ V (”gemischte Distributivitäten”). 1 Die Elemente von V heißen Vektoren, die Elemente von K Skalare. Bemerkungen: • In der Definition eines Vektorraums wird nicht verwendet, dass man Elemente von K \ {0} multiplikativ invertieren kann. Die Definition lässt sich also ohne Weiteres verallgemeinern, indem man den Körper K durch einen beliebigen Ring R ersetzt. Man sagt dann, V ist ein R-Modul. Wir beschränken uns in dieser Vorlesung aber auf die Betrachtung von K-Moduln, also Vektorräumen. • Man beachte, dass in der Definition eines Vektorraums nur eine Skalarmultiplikation definiert ist, nicht aber eine Multiplikation zwischen zwei Vektoren! Zwar gibt 1 Man beachte, dass hier zwei verschiedene Arten von + auftauchen, nämlich die Addition innerhalb von K und die innerhalb von V . Wir bezeichnen beide mit dem selben Symbol. Das ist zwar eigentlich eine Ungenauigkeit, aber in der Anwendung sehr praktikabel. Ebenso bezeichnen wir sowohl das additive Neutrale des Körpers, als auch dasjenige des Vektorraums (d.h. den Nullvektor) mit 0. 18 KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 19 es einige sehr spezielle Vektorräume, die gleichzeitig Ringe sind; in allgemeinen Vektorräumen sind aber Ausdrücke der Form v · w, oder gar v −1 , nicht sinnvoll! Lemma 2.1 (Rechenregeln). Sei V ein K-Vektorraum. a) Für alle v ∈ V gilt 0 · v = 0 und für alle λ ∈ K gilt λ · 0 = 0. b) Ist 0 6= v ∈ V und 0 6= λ ∈ K, dann ist λv 6= 0. c) Für alle v ∈ V ist (−1) · v = −v. Beweis: Zu a): Es ist 0 · v = (0 + 0) · v = 0 · v + 0 · v, also 0 = 0 · v. Analog zeigt man den zweiten Teil. Zu b): Wäre λv = 0, dann 0 = λ−1 ·0 = λ−1 (λv) = (λ−1 λ)v = 1·v = v, ein Widerspruch. Zu c): Es gilt v + (−1) · v = (1 + (−1)) · v = 0 · v = 0, und somit ist (−1) · v das additive Inverse von v. Beispiele: a) Sind L ein Körper und K ein Teilkörper von L, dann ist L in natürlicher Weise ein K-Vektorraum; als Skalarmultiplikation λ · v (für λ ∈ K, v ∈ L) wählt man einfach die normale Körpermultiplikation aus L. b) Ist M eine nicht-leere Menge und K ein Körper, dann wird die Menge V := Abb(M, K) := {f : M → K} der Abbildungen von M nach K in natürlicher Weise ein Vektorraum. Man muss hierzu definieren, was die Summe f + g zweier Abbildungen sein soll, und tut dies durch (f + g)(x) := f (x) + g(x) (für f, g ∈ V , x ∈ M ). Beachte, dass das + auf der rechten Seite die Addition in K, also bereits definiert, ist. Ebenso muss man eine Skalarmultiplikation definieren und tut dies durch (λ · f )(x) = λ · f (x), für λ ∈ K, f ∈ V und x ∈ M . Nun lassen sich die Vektorraumaxiome leicht nachrechnen. b’) Die Vektorräume K n Das vorige Beispiel ist sehr allgemein! Ein wichtiger Spezialfall ergibt sich, wenn |M | =: n endlich ist. Ohne Einschränkung setzen wir dann M = {1, ..., n}. Eine Abbildung f : M → K ist dann nichts anderes, als ein n-Tupel (x1 , ..., xk ) (mit xi ∈ K), wobei der i-te Eintrag gerade das Bild f (i) bedeute. Die oben definierte Addition funktioniert dann ”komponentenweise”, d.h. (x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn ), und analog für die Skalarmultiplikation: λ · (x1 , ..., xn ) = (λx1 , ..., λxn ). Wir bezeichnen diesen Vektorraum als K n . Sonderfälle wie R2 oder R3 sind bereits aus der Schule bekannt. Diese Vektorräume sind durchaus wichtig und hilfreich fürs Verständnis. Es lohnt sich, bei kommenden Definitionen und Sätzen immer wieder zu überprüfen, was diese in den geometrisch anschaulichen Räumen R2 oder R3 bedeuten. Gleichzeitig sollte man sich aber klar KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 20 sein, dass es viele weitere Vektorräume gibt; Argumente mit der geometrischen Anschauung sind also nicht geeignet, um Aussagen über allgemeine Vektorräume zu zeigen! b”) Folgenräume Ein weiterer Spezialfall ergibt sich für M := N. Dann ist V = K N der Vektorraum der K-wertigen Folgen, d.h. den Abbildungen f : N → K. Wir schreiben (xn )n∈N := (x1 , x2 , x3 , ...) mit xi ∈ K für die Folge f mit f (i) = xi (i ∈ N). Reelloder komplexwertige Folgen sind etwa in der Analysis besonders wichtig. c) Polynomräume Sei K ein Körper und K[X] der Polynomring über K. Dann ist (K[X], +) bereits eine additive abelsche Gruppe. Definieren wir zusätzlich noch eine Skalarmultiplikation durch n n X X k λ· ak X := (λak )X k , k=0 k=0 (für λ, a0 , ..., an ∈ K), dann wird K[X] damit zu einem K-Vektorraum. Bemerkung: Ist K ein endlicher Körper, dann sieht man rein kombinatorisch, dass der Vektorraum K n genau |K|n Elemente hat. Ist dagegen K unendlich, dann ist auch K n unendlich. 2.2 2.2.1 Unterräume und Faktorräume Unterräume Definition 2.2 (Unterraum). Sei V ein K-Vektorraum und U ⊂ V eine nichtleere Teilmenge. U heißt Unterraum von V , wenn gelten: U1) λu ∈ U für alle λ ∈ K, u ∈ U , sowie U2) u + v ∈ U für alle u, v ∈ U . Lemma 2.2. Für eine nicht-leere Teilmenge U eines K-Vektorraums V sind äquivalent: i) U ist Unterraum. ii) U ist bzgl. der Addition und Skalarmultiplikation von V selbst wieder ein Vektorraum. iii) Für alle λ, µ ∈ K und u, v ∈ U ist λu + µv ∈ U . KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 21 Beweis: i)⇒ii): Sei U Unterraum, u ∈ U . Mit λ = 0 in Def. 2.2 erhalten wir 0 ∈ U . Außerdem ist U bezüglich Addition und auch unter additiver Inversenbildung (setze hierzu λ = −1) abgeschlossen. Damit ist (U, +) abelsche Gruppe (da Untergruppe von (V, +)). Weiter ist U auch unter Skalarmultiplikation abgeschlossen. Die übrigen Vektorraumaxiome vererben sich von V . ii)⇒iii): Ist U selbst Vektorraum, dann ist U abgeschlossen unter Addition und Skalarmultiplikation, also ist |{z} λu + µv ∈ U für alle u, v ∈ U , λ, µ ∈ K. |{z} ∈U ∈U iii)⇒i): Mit µ = 0 erhält man U1) aus Def. 2.2; mit λ = µ = 1 erhält man U2). Also ist U Unterraum. Beispiele: • In jedem Vektorraum V ist der Nullraum {0} ein Unterraum. λa • Sei K ein Körper und seien a, b ∈ K, nicht beide gleich 0. Dann ist { |λ∈ λb K} ein Unterraum von K 2 . Man beachte den Spezialfall K = R: die Unterräume der angegebenen Form sind genau die Ursprungsgeraden in der reellen Ebene! Geraden, die nicht durch den Ursprung verlaufen, sind dagegen keine Unterräume, da ihnen der Nullvektor fehlt. • Im R-Vektorraum V = Abb(R, R) aller Abbildungen von R in sich selbst ist die Menge aller stetigen Abbildungen ein Unterraum. Das liegt daran, dass Summen und skalare Vielfache stetiger Funktionen wieder stetig sind (was aber nicht hier, sondern in der Analysis bewiesen wird). Ebenso ist die Menge aller differenzierbaren Abbildungen ein Unterraum von V . • Sei V der Vektorraum aller reellen Polynome und n ∈ N0 . Dann ist die Menge aller Polynome vom Grad höchstens n ein Unterraum von V . Definition 2.3 (Linearkombination).P Seien v1 , ..., vn endlich viele Vektoren des KVektorraums V . Ein Element der Form ni=1 λi vi heißt Linearkombination über v1 , ..., vn . Ist M ⊂ V eine beliebige (evtl. auch unendliche) Teilmenge, dann bezeichnet man anaP log jedes Element v∈S λv · v mit λv ∈ K und einer endlichen Teilmenge S von M als Linearkombination über M . Die Bedeutung des Begriffs der Linearkombination sehen wir erstmals folgendermaßen: P Ist U ⊂ V Unterraum, dann gilt sogar ni=1 λi ui ∈ U für alle n ∈ N, λ1 , ..., λn ∈ K und u1 , ..., un ∈ U . Das erhält man einfach durch sukzessive Anwendung der Unterraumeigenschaft aus Def. 2.2. Unterräume sind also abgeschlossen unter der Bildung von Linearkombinationen. Damit zeigt man die folgende Aussage (vergleiche die verwandte Aussage über Gruppen in Satz 1.3): KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 22 Satz 2.3. Sei V ein K-Vektorraum und M ⊂ V irgendeine Teilmenge. Dann ist die Menge n X hM i := { λi mi | n ∈ N0 ; λ1 , ...λn ∈ K; m1 , ..., mn ∈ M } i=1 aller Linearkombinationen über M gerade der kleinste Unterraum von V , der M enthält. Man nennt hM i die lineare Hülle (oder das Erzeugnis) von M ; umgekehrt nennt man M ein Erzeugendensystem des Unterraums U , falls hM i = U gilt. Beweis: hM i ist nicht-leer (die als 0 definierte leere Summe ist immer enthalten) und erfüllt die Unterraumeigenschaft aus Def. 2.2, denn wenn u, v ∈ M zwei Linearkombinationen über M und λ ∈ K sind, dann sind auch λu und u + v wieder eine Linearkombination über M . Also ist hM i ein Unterraum von V , der M enthält. Umgekehrt muss nach obiger Bemerkung jeder M enthaltende Unterraum auch alle Linearkombinationen über M , und damit ganz hM i enthalten. Ein und den selben Vektorraum kann man auf sehr unterschiedliche, und vor allem auch unterschiedlich effektive, Weisen erzeugen. Beispielsweise ist der Vektorraum R3 das Erzeugnis der drei Vektoren (1, 0, 0), (0, 1, 0) und (0, 0, 1). Andererseits kann man ihn natürlich auch als Erzeugnis unendlich vieler Vektoren schreiben, etwa R3 = h{(α, β, γ) | α, β, γ ∈ R \ {0}}i. Die zweite Variante ist ganz klar unpraktischer, weil das Erzeugendensystem viel größer als nötig ist. Solche Überlegungen werden wir in Kürze noch präzisieren. 2.2.2 Schnitte und Summen von Unterräumen Um mehr über die Struktur der Unterräume eines Vektorraums herauszufinden, lohnt es sich, Schnitte und Vereinigungen zweier Unterräume zu betrachten. Wie schon bei den Untergruppen stellt man fest, das sich die Vereinigungsbildung (anders als der Schnitt) nicht mit der Unterraumeigenschaft verträgt. Das führt auf den Begriff der Summe von zwei (oder auch mehr) Unterräumen. Satz 2.4 (Schnitt und Summe von Unterräumen). Seien U1 , U2 Unterräume des Vektorraums V , dann sind auch U1 ∩ U2 und U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 } Unterräume von V . Weiter ist U1 + U2 = hU1 ∪ U2 i, also der kleinste Unterraum, der U1 und U2 enthält. Beweis: Die Unterraumeigenschaft prüft man jeweils direkt nach. Zur Zusatzaussage: Da U1 + U2 ein Unterraum ist, der U1 ∪ U2 enthält, enthält er auch alle Linearkombinationen dieser Menge, also ganz hU1 ∪U2 i. Andererseits ist jedes Element von U1 +U2 eine (sogar sehr spezielle) Linearkombination über U1 ∪ U2 , also in hU1 ∪ U2 i enthalten. Definition 2.4 (Direkte Summe (aus zwei Unterräumen), Komplement). Falls die Unterräume U1 und U2 von V sich trivial schneiden, also U1 ∩ U2 = {0}, dann sagt man, KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 23 dass U1 und U2 ihre direkte Summe bilden, und man schreibt auch U1 ⊕ U2 für U1 + U2 . U2 heißt dann ein Komplement von U1 im Vektorraum W := U1 + U2 . Beispiele: • Seien U1 := { λ0 ∈ R2 | | λ ∈ R}(= he1 i), U2 := { µ0 ∈ R2 | | µ ∈ R}(= he2 i) und U3 := {( µµ ) ∈ R2 | | µ ∈ R}(= he1 + e2 i). Dann ist R2 = U1 ⊕ U2 und ebenso R2 = U1 ⊕ U3 . Daran sieht man schon, dass ein gegebener Unterraum U1 im Allgemeinen kein eindeutiges Komplement besitzt. λ 0 • Seien U1 := { µ ∈ R3 | | λ, µ ∈ R}(= he1 , e2 i) und U2 := { λ ∈ R3 | | λ, µ ∈ µ 0 R}(= he2 , e3 i). Dann ist R3 = U1 + U2 , die Summe ist jedoch nicht direkt. • Definiere die Menge der geraden Polynome über K als G := { n X α2k · X 2k | n ∈ N0 , α0 , ..., α2n ∈ K} k=0 und die Menge der ungeraden Polynome als n X α2k+1 · X 2k+1 | n ∈ N0 , α1 , ..., α2n+1 ∈ K}. U := { k=0 Dann sind G und U Unterräume des Raums aller Polynome über K, und dieser ist die direkte Summe aus G und U . Das folgende Lemma liefert eine wichtige Charakterisierung für direkte Summen: Lemma 2.5. Seien U1 und U2 Unterräume von V . Dann gilt V = U1 ⊕ U2 genau dann, wenn für jedes v ∈ V genau ein u1 ∈ U1 und genau ein u2 ∈ U2 existieren mit v = u1 + u2 . Beweis: Die Existenz solcher u1 , u2 ist äquivalent dazu, dass V = U1 + U2 . Man nehme nun an, es gäbe für ein v ∈ V zwei Darstellungen v = u1 + u2 = u01 + u02 (mit ui , u0i ∈ Ui ). Dann ist u1 − u01 = u02 − u2 ∈ U1 ∩ U2 . Falls nun U1 ∩ U2 = {0}, also folgt u1 = u01 und u2 = u02 , also die Eindeutigkeit der Summendarstellung. Ist dagegen U1 ∩ U2 6= {0}, dann gibt es ein 0 6= u ∈ U1 ∩ U2 und es hat schon der Nullvektor zwei verschiedene Darstellungen 0 = |{z} 0 + |{z} 0 = |{z} u + −u . |{z} ∈U1 ∈U2 ∈U1 ∈U2 Bemerkung: Bisher haben wir uns auf Schnitte und Summen von zwei Unterräumen beschränkt. Die KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 24 Begriffe lassen sich aber auch auf beliebig viele Unterräume Ui ⊂ V (mit irgendeiner Indexmenge I) ausdehnen. FürTden Schnitt ergibt sich dabei nichts Neues: man sieht völlig analog zu Satz 2.4, dass i∈I Ui wieder ein Unterraum ist. Ebenso lässt sich die Definition der Summe von Unterräumen völlig analog auf endlich 2 viele Pn Unterräume U1 , ..., Un verallgemeinern . Man erhält genauso die Aussage, dass i=1 Ui := U1 + ... + Un der kleinste Unterraum ist, der alle Unterräume Ui enthält. Bei der Definition der direkten Summe muss man aber aufpassen: Definition 2.5 (Direkte Summe endlich vieler Unterräume). Seien U1 , ..., Un Unterräume des Ln Vektorraums V . Die Summe U1 + ... + Un heißt direkt (schreibe: U1 ⊕ ... ⊕ Un oder i=1 Ui ), wenn für alle i = 1, ..., n gilt: Ui ∩ ( n X Ui ) = {0}. j=1 j6=i Der Schnitt jeweils eines der Unterräume mit der gesamten restlichen Summe muss also trivial sein! Würde man nur Ui ∩ Uj = {0} fordern (für alle 1 ≤ i 6= j ≤ n), erhielte man nicht das Gewünschte (wie z.B. die Eindeutigkeit der Darstellung, analog zu Lemma 2.5). 2.2.3 Faktorräume Ein weiterer wichtiger Begriff, der eng mit dem des Unterraums zusammenhängt, ist der des affinen Unterraums. Definition 2.6 (Affiner Unterraum). Sei V ein Vektorraum, U ⊂ V ein Unterraum und v ∈ V . Dann bezeichnet man die Menge v + U := {v + u | u ∈ U } als affinen Unterraum. Bemerkung: • Achtung! Affine Unterräume sind im allgemeinen keine Unterräume! Insbesondere folgt aus 0 ∈ v + U schon v = −u für ein u ∈ U , also v ∈ U ! • Vielmehr sind affine Unterräume gerade die Nebenklassen der additiven Untergruppe U von (V, +). Entsprechend folgt aus v+U = w+U im Allgemeinen nicht v = w! Stattdessen gilt v + U = w + U genau dann, wenn v − w ∈ U (vgl. die Bemerkung nach Definition 1.4). Wir fixieren nun einen Unterraum U und betrachten die Menge aller affinen Unterräume v + U (mit v ∈ V ). Geometrisch gesehen kann man diese als “Parallelverschiebungen” von U interpretieren. Wir werden nun sehen, dass wir diese affinen Unterräume 2 Sogar auf unendlich viele, wobei man dann fordern muss, dass ein festes Element der Summe immer nur aus endlich vielen Summanden besteht (vgl. die Definition der Linearkombination). KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 25 wieder in natürlicher Weise als Vektoren eines neuen Vektorraums auffassen können des Faktorraums V /U . Satz 2.6 (Faktorraum). Sei V ein Vektorraum und U ⊂ V ein Unterraum. Dann wird die Menge V /U := {v + U | v ∈ V } auf natürliche Weise zu einem Vektorraum via (v + U ) + (w + U ) := (v + w) + U und λ · (v + U ) := (λ · v) + U. Man nennt V /U den Faktorraum von V über U . Beweis: Zunächst ist die Wohldefiniertheit der oben definierten Verknüpfungen zu zeigen. Seien dazu v1 , v2 , w1 , w2 ∈ V so, dass v1 + U = v2 + U und w1 + U = w2 + U . Nach obiger Bemerkung liegen dann v1 − v2 und w1 − w2 in U . Damit liegt aber auch (v1 + w1 ) − (v2 + w2 ) in U und es folgt (v1 + w1 ) + U = (v2 + w2 ) + U , womit die Addition auf V /U wohldefiniert ist. Ebenso ist λv1 − λv2 ∈ U , also (λv1 ) + U = (λv2 ) + U , womit auch die Skalarmultiplikation wohldefiniert ist. Die Vektorraumaxiome für V /U folgert man nun sehr schnell aus denen für V (man beachte etwa, dass 0 + U (= U ) das additive Neutrale in V /U ist). Skizze: Faktorräume und Komplemente W v2 0 v1 U + v2 U U + v1 Faktorräume und Komplemente haben durchaus etwas miteinander zu tun: Ist V = U ⊕ W , dann ist die Abbildung W → V /U , definiert durch w 7→ w + U eine Bijektion3 3 Und sogar ein Isomorphismus, siehe das Kapitel über lineare Abbildungen. KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 26 (die Surjektivität folgt daraus, dass jedes v ∈ V in der Form v = u + w (u ∈ U , w ∈ W ) geschrieben werden kann, und u + w + U = w + U ; die Injektivität folgt, da w1 +U = w2 +U schon w1 −w2 ∈ U ∩W = {0} erzwingt). Falls U ein Komplement besitzt (was, wie wir bald sehen werden, in endlich-dimensionalen Vektorräumen immer der Fall ist), kann man also ein solches Komplement in gewisser Weise mit V /U identifizieren. Trotzdem hat die Betrachtung von Faktorräumen ihre Vorteile. Z.B. ist ein Komplement im Allgemeinen nicht eindeutig. Der Unterraum U := {(x, 0) ∈ R2 |x ∈ R} (also die x-Achse!) hat jede Menge Komplemente im Vektorraum R2 , nämlich jede von der xAchse verschiedene Ursprungsgerade! Dagegen ist der Faktorraum V /U etwas eindeutig Definiertes (seine Elemente sind alle zur x-Achse parallelen Geraden). 2.3 2.3.1 Basis und Dimension Begriffe und zentrale Eigenschaften Wir kommen nun zu einem der zentralen Begriffe der linearen Algebra: Definition 2.7 (Basis). Eine Teilmenge B ⊂ V eines Vektorraums V heißt Basis, wenn hBi = V und hCi = 6 V für alle echten Teilmengen C von B. (D.h., B ist ein (bezüglich Inklusion) minimales Erzeugendensystem von V ). Sofort aus der Definition folgt: Lemma 2.7. Jeder Vektorraum V , der sich von einer endlichen Menge erzeugen lässt, besitzt eine Basis. Definition 2.8 (Lineare Abhängigkeit bzw. Unabhängigkeit). Vektoren v1 , ..., vn eines Vektorraums V heißen linear unabhängig, falls sich der Nullvektor nur auf “triviale Weise” als Linearkombination über v1 , ..., vn schreiben lässt; falls also aus 0= n X λi vi , mit λ1 , ..., λn ∈ K i=1 bereits λ1 = ... = λn = 0 folgt. Anderenfalls heißen v1 , ..., vn linear abhängig. Analog zur Definition von Linearkombination sind lineare Abhängigkeit bzw. Unabhängigkeit auch für beliebige Mengen von Vektoren definiert. So heißt eine Teilmenge M eines Vektorraums V linear unabhängig, falls aus X 0= λv · vmit einer endlichen Teilmenge S ⊂ M v∈S schon λv = 0 für alle v ∈ S folgt. Einige einfache Folgerungen: KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 27 Lemma 2.8. a) Die leere Menge ist linear unabhängig, und {0} ist die einzige einelementige Teilmenge eines Vektorraums, die linear abhängig ist. b) Teilmengen linear unabhängiger Mengen sind linear unabhängig, und Obermengen linear abhängiger Mengen sind linear abhängig. Bemerkung: In Definition 2.8 ergibt sich ein feiner Unterschied zwischen der Definition für Vektoren v1 , ..., vn und für Mengen. Ist nämlich im ersten Fall vi = vj = v für gewisse i 6= j ∈ {1, .., n}, dann ist 0 = 1 · vi − 1 · vj eine nicht-triviale Darstellung der 0 als Linearkombination, also sind v1 , ..., vn linear abhängig. Die zugehörige Menge {v1 , ..., vn } enthält dagegen jeden Vektor nur einmal, und ist damit nicht notwendigerweise linear abhängig. Das folgende Lemma ist nützlich um nach und nach größere linear unabhängige Mengen zu finden. Lemma 2.9. Sei M ⊂ V eine linear unabhängige Menge und v ∈ V , mit v ∈ / M . Dann ist M ∪ {v} genau dann linear unabhängig, wenn v ∈ / hM i. P Beweis: IstP v ∈ hM i, dann v = ni=1 αi vi für geeignete αi ∈ K, vi ∈ M . Dann ist aber 0 = 1 · v − ni=1 αi vi , also ist die Menge M ∪ {v} linear abhängig. Sei nun M ∪ {v} wäre linear abhängig. Dann lässt sich der Nullvektor als nicht-triviale Linearkombination über M ∪ {v} darstellen, und da ja M linear unabhängig ist, muss in dieser Linearkombination der Vektor v mit einem Vorfaktor λ 6= 0 vorkommen. Also Pn 1 Pn 0 = λv + i=1 αi vi (n ∈ N0 , αi ∈ K, vi ∈ M ). Aber dann ist v = − λ i=1 αi vi ∈ hM i. Im Folgenden einige wichtige Charakterisierungen von Basen: Lemma 2.10. Sei V Vektorraum und B ⊂ V . Dann sind äquivalent: i) B ist Basis von V . ii) B ist ein linear unabhängiges Erzeugendensystem von V . iii) B ist eine (bezüglich Inklusion) maximale linear unabhängige Teilmenge von V . iv) Jedes v ∈P V besitzt eine (bis auf Reihenfolge der Summanden) eindeutige Darstellung v = ni=1 λi bi (mit einem n ∈ N0 , λi 6= 0 und paarweise verschiedenen bi ∈ B) als Linearkombination über B. Pn Beweis: Sei zunächst B Basis von V . Angenommen i=1 λi bi = 0 für ein n ∈ N und λi ∈ P K, bi ∈ B (i = 1, ..., n). Wäre hier ein λj von 0 verschieden, dann wäre bj = − λ1j ni=1 λi bi , und somit bj ∈ hB \ {bj }i. Aber dann wäre B ⊂ hB \ {bj }i und i6=j somit hBi = hB \ {bj }i, im Widerspruch zur Minimalität von B. Das zeigt i)⇒ii). KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 28 Sei nun B linear unabhängiges Erzeugendensystem von V . Wegen hBi = V hat jedes Pn v ∈ V \ B eine Darstellung P der Form v = i=1 λi bi (mit n ∈ N und λi ∈ K, bi ∈ B). Dann ist aber 0 = v − ni=1 λi bi eine lineare Abhängigkeit der Menge B ∪ {v}. Also ist B maximal linear unabhängig. Das zeigt ii)⇒iii). Nun sei B maximal linear unabhängig. LemmaP 2.9 zeigt, dass v ∈ hBi für alle v ∈ V gilt. n Insbesondere hat jedes Pnv eine Darstellung v = i=1 λi bi als Linearkombination über B. Angenommen v = i=1 µi bi wäre eine weitere solche Darstellung für v (wir können hier annehmen, dass beide Linearkombinationen über die selbe Teilmenge P von B laufen, indem wir gegebenfalls mit Vorfaktoren 0 auffüllen). Dann ist aber 0 = ni=1 (λi − µi )bi , und wegen der linearen Unabhängigkeit von B folgt λi = µi für alle i. Das zeigt iii)⇒iv). Gelte schließlich iv). Dann ist B offensichtlich Erzeugendensystem von V . Wäre B nicht Pn minimal, dann gäbe es b ∈ B mit hB \ {b}i = V . Insbesondere wäre dann b = i=1 λi bi mit geeigneten λi ∈ K und bi ∈ B \ {b}. Hier stehen aber links und rechts des Gleichheitszeichens zwei verschiedene Darstellungen von b als Linearkombination über B, im Widerspruch zur Voraussetzung. Also gilt iv)⇒i). Man mache sich die Bedeutung der verschiedenen Charakterisierungen in obigem Lemma klar. Z.B. besagt ii), dass jeder Vektor aus V als Linearkombination über B darstellbar ist (Erzeugendeneigenschaft) und dass im Fall des Nullvektors diese Darstellung auch eindeutig ist (lineare Unabhängigkeit!). Die Folgerung ii)⇒iv) liefert dann schon, dass jeder Vektor aus V eine solche eindeutige Darstellung besitzt. Wir konzentrieren uns im Folgenden auf endlich erzeugte Vektorräume. Unser Ziel ist zu zeigen, dass hier alle Basen die gleiche Mächtigkeit haben. Lemma 2.11 (Austauschlemma). Sei B = {v1 , ..., vn } eine Basis des Vektorraums V und sei w ∈ V \ {0}. Dann existiert ein j ∈ {1, ..., n}, so dass auch B 0 := (B \ {vj }) ∪ {w} eine Basis ist. Man kann also einen geeigneten Vektor aus der Basis B gegen w austauschen, ohne die Basis-Eigenschaft zu verlieren. Beweis: Da P B Basis ist, existiert eine Darstellung von w als Linearkombination über B, also w = ni=1 λi vi . Da w 6= 0, existiert ein j ∈ {1, ..., n} mit λj 6= 0. Dann ist n X 1 vj = (w − λi vi ) ∈ h(B \ {vj }) ∪ {w}i. λj | {z } i=1 i6=j =:B 0 Damit ist aber auch ganz V = h{v1 , ..., vn }i ∈ hB 0 i, also ist B 0 Erzeugendensystem von V. B 0 ist auch linear unabhängig, also Basis von V , denn: P Gäbe es eine lineare Abhängigkeit 0 = λ · w + ni=1 λi vi in B 0 , dann wäre sicher i6=j der Vorfaktor λ von w ungleich 0, denn ansonsten hätte man ja sogar eine lineare Abhängigkeit innerhalb von B, im Widerspruch zur Basis-Eigenschaft. λ 6= 0 liefert KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR aber w = − λ1 Pn i=1 29 λi vi , und damit ist w auf zwei verschiedene Weisen als Linearkom- i6=j bination über B darstellbar, nämlich einmal mit nicht-trivialem Vorfaktor bei vj (siehe oben), und einmal ohne. Wegen Punkt iv) in Lemma 2.10 ist das ein Widerspruch dazu, dass B Basis ist. Bemerkung: Wir haben das Austauschlemma zunächst als reine Existenzaussage formuliert. Der Beweis liefert aber mehr: er zeigt, gegen welche Basisvektoren vi man den Vektor P w austauschen kann, nämlich gegen alle, für die in der (eindeutigen) Darstellung w = ni=1 λi vi der Vorfaktor λi ungleich 0 ist! Satz 2.12 (Austauschsatz von Steinitz4 ). Sei V ein endlich erzeugter Vektorraum, B := {v1 , ..., vn } eine Basis von V und {w1 , ..., wk } eine linear unabhängige Teilmenge von V . Dann gelten: a) k ≤ n. b) Es gibt k paarweise verschiedene Indizes i1 , ..., ik ∈ {1, ..., n}, so dass die Menge B 0 := (B \ {vi1 , ..., vik }) ∪ {w1 , ..., wk } wieder eine Basis von V ist. Beweis: (Induktion über k.) Für k = 0 ist nichts zu zeigen. Gelte die Behauptung nun für alle k − 1-elementigen linear unabhängigen Teilmengen (k ∈ N fest). Es existieren also paarweise verschiedene b := (B \{vi , ..., vi })∪{w1 , ..., wk−1 } wieder eine Basis i1 , ..., ik−1 ∈ {1, ..., n}, so dass B 1 k−1 b den man von V ist. Nach dem vorigen Lemma existiert ein Vektor v in der Menge B, gegen wk austauschen kann, ohne die Basis-Eigenschaft zu verlieren. Wir sind fertig, wenn wir zeigen können, dass v aus der Menge B \ {vi1 , ..., vik−1 } wählbar ist (dann ist auch k ≤ n gezeigt, da sonst ja B \ {vi1 , ..., vik−1 } leer wäre). b darstellen, und der Der Vektor wk lässt sich als Linearkombination über der Basis B b austauschen Beweis des Austauschlemmas zeigt, dass wir wk gegen jeden Vektor aus B können, der in dieser Darstellung einen Vorfaktor 6= 0 hat. Wären nur die Vorfaktoren von w1 ,..., wk−1 ungleich 0, dann hätten wir eine lineare Abhängigkeit innerhalb der Menge {w1 , ..., wk }, im Widerspruch zur Voraussetzung. Also enthält B \ {vi1 , ..., vik−1 } wenigstens ein Element, dessen Vorfaktor in unserer Darstellung von wk ungleich 0 ist, und gegen dieses lässt sich wk austauschen. Aus dem Austauschsatz folgt sofort eines der zentralen Ergebnisse der linearen Algebra: Satz 2.13. Sei V ein endlich erzeugter K-Vektorraum. Dann haben alle Basen von V die gleiche Mächtigkeit n ∈ N0 . Dieses n heißt die Dimension von V , kurz n = dimK (V ), bzw. oft auch nur n = dim(V ). 4 Ernst Steinitz (1871-1928) KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 30 Beweis: Da V endlich erzeugt ist, existiert auch eine endliche Basis B := {v1 , ..., vn }. Sei B 0 eine weitere (noch nicht als endlich vorausgesetzte) Basis und M ⊂ B 0 irgendeine endliche Teilmenge. Dann ist M 0 linear unabhängig, und mit Satz 2.12a) folgt sofort |M | ≤ |B| = n. Da das für alle endlichen Teilmengen von B 0 gilt, muss B 0 selbst endlich sein, mit |B 0 | ≤ |B|. Aber genauso folgt |B| ≤ |B 0 |, also insgesamt Gleichheit. Beispiele: a) Im Vektorraum K n bilden die Elemente e1 := (1, 0, ..., 0), e2 := (0, 1, 0, ..., 0),..., en := (0, ..., 0, 1) eine linear unabhängiges Erzeugendensystem, also eine Basis (Nachrechnen!). Der K n hat also die Dimension n. Wir bezeichnen die Basis {e1 , ..., en } als die Standardbasis des K n . Die Standardbasis ist oft für praktische Berechnung im K n besonders nützlich. Trotzdem sollte man sich im Klaren sein, dass es auch viele andere Basen des K n gibt. b) Der Nullraum {0} hat die Dimension 0, denn er wird von der leeren Menge erzeugt, die damit auch eine Basis ist. c) C hat als Vektorraum über R die Dimension 2, denn {1, i} ist eine Basis. d) Der Vektorraum K[X] aller Polynome über K hat unendliche Dimension,denn die Monome 1, X, X 2 , ... bilden eine Basis. Genauer gesagt ist die Dimension also abzählbar unendlich. Der Unterraum aller Polynome vom Grad höchstens n hat die Dimension n + 1, denn die Monome 1, X, ..., X n bilden eine Basis. e) Sei V = RN der Vektorraum aller reellen Folgen. Dann lässt sich V nicht von endlich vielen, und noch nicht einmal von abzählbar unendlich vielen Elementen erzeugen. Mit Hilfe des Auswahlaxioms der Mengenlehre lässt sich zwar zeigen, dass jeder Vektorraum eine Basis besitzt, aber hier kann man keine Basis explizit angeben.5 Bemerkung: Hat V eine unendliche Basis, dann muss jede Basis unendlich sein, und wir schreiben auch dim(V ) = ∞. In Zukunft sprechen wir statt von endlich erzeugten Vektorräumen nur noch von endlich-dimensionalen Vektorräumen. Die folgenden beiden Korollare sind im Wesentlichen schon in Satz 2.12 enthalten, aber ihre explizite Formulierung ist oft nützlich: 5 Es liegt nahe, die abzählbar vielen Elemente ei (i ∈ N), definiert durch e1 := (1, 0, 0, ...), e2 := (0, 1, 0, 0, ...) etc., als eine Basis des Folgenraums zu vermuten (in Analogie mit dem Beispiel K n ), aber diese Intuition ist falsch! Z.B. lässt sich die Folge (1, 1, 1, ...) nicht als Linearkombination aus diesen Elementen darstellen, denn eine Linearkombination muss ja immer aus endlich vielen Summanden bestehen! KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 31 Korollar 2.14. In einem n-dimensionalen Vektorraum ist jede Menge der Mächtigkeit > n linear abhängig. Insbesondere ist jede linear unabhängige Menge mit n Elementen eine Basis. Beweis: Der erste Teil ist nur eine Umformulierung von Satz 2.12a) (erweitert um den Begriff der Dimension). Der zweite Teil folgt mit der Charakterisierung von Basen als maximale linear unabhängige Teilmengen. Korollar 2.15 (Basisergänzungssatz). Jede linear unabhängige Teilmenge M ⊂ V eines endlich-dimensionalen Vektorraums V lässt sich zu einer Basis B ⊃ M von V ergänzen. Beweis: M ist nach dem vorigen Korollar endlich (und sogar von der Mächtigkeit ≤ dim(V )). Also tut die in Satz 2.12b) konstruierte Basis B 0 das Gewünschte. Wir geben noch eine weitere Interpretation der bisherigen Ergebnisse über Existenz von Basen und Eindeutigkeit der Dimension. Sie stellt den Zusammenhang zu direkten Summen her. Genauer gesagt liefert jede Basis eines endlich-dimensionalen Vektorraums V eine Zerlegung von V als direkte Summe eindimensionaler Unterräume: Satz 2.16 (Struktursatz). Jeder endlich-dimensionale Vektorraum V ist die direkte Summe von eindimensionalen Unterräumen. Genauer gilt: V = n M hvi i, i=1 mit einer beliebigen Basis {v1 , ..., vn } von V . Pn Beweis: Die Summeneigenschaft V = i=1 hvi i folgt sofort aus der Tatsache, dass {v1 , ..., vn } Erzeugendensystem ist. Ferner ist für alle i ∈ {1, ..., n}: n X hvi i ∩ hvj i = hvi i ∩ h{v1 , ..., vn } \ {vi }i = {0} j=1 j6=i wegen der linearen Unabhängigkeit von {v1 , ..., vn }. Damit folgt die Behauptung. 2.3.2 Basis und Dimension von Unterräumen und Faktorräumen Aus dem Basisergänzungssatz lassen sich einige wichtige Aussagen über Dimensionen von Unterräumen und Faktorräumen gewinnen. Lemma 2.17. Sei U ein Unterraum des endlich-dimensionalen Vektorraums V . Dann gelten: a) U ist endlich-dimensional und dim(U ) ≤ dim(V ). KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 32 b) Aus dim(U ) = dim(V ) folgt schon U = V . Beweis: a) folgt direkt daraus, dass sich eine Basis von U zu einer von V ergänzen lässt. Ist dim(U ) = dim(V ), dann kommen bei dieser Ergänzung keine neuen Vektoren hinzu, also ist eine Basis von U schon eine von V . Das zeigt b). Satz 2.18. Sei U ein Unterraum des n-dimensionalen Vektorraums V , sei B := {v1 , ..., vr } eine Basis von U und sei B 0 := B ∪ {vr+1 , ..., vn } eine B enthaltende Basis von V (so ein B 0 existiert nach dem Basisergänzungssatz!). Dann gelten: a) W := h{vr+1 , ..., vn }i ist ein Komplement von U in V , also V = U ⊕ W . Weiter ist {vr+1 , ..., vn } eine Basis von W , und insbesondere gilt dim(U ⊕ W ) = dim(U ) + dim(W ). b) {vr+1 + U, ..., vn + U } ist eine Basis des Faktorraums V /U , also insbesondere dim(V /U ) = dim(V ) − dim(U ). Beweis: Zu a): Wegen V = h{v1 , ..., vn }i ⊆ hU ∪ W i ist V = U + W . Die Pr Summe ist auchP direkt, denn ist v ∈ UP∩ W , dannPexistieren Basisdarstellungen v = i=1 αi vi und v = ni=r+1 βi vi , also 0 = ri=1 αi vi − nj=r+1 βj vj , und da {v1 , ..., vn } linear unabhängig ist, müssen alle αi und βj gleich 0 sein, also v = 0. Weiter ist {vr+1 , ..., vn } ein linear unabhängiges Erzeugendensystem von W , also Basis. Damit folgt auch sofort die Dimensionsformel. Zu b): Die Elemente vr+1 + U ,..., vn + U sind (paarweise verschiedenPund) linear unPn abhängig, denn eine Linearkombination 0 + U = i=r+1 αi (vi + U ) = ( ni=r+1 αi vi ) + U Pn würde bedeuten, dass i=r+1 αi vi ∈ U gilt. Aber sowieso ist diese Summe in W , also auch in U ∩ W = {0}. Damit sind alle αi gleich 0. Ferner ist {vP r+1 + U, ..., vn + U } auch ein P Erzeugendensystem von V /U , denn für beliebiges v = ni=1 αi vi ∈ V gilt v + U = ni=r+1 αi (vi + U ). Die Dimensionsformel folgt wieder sofort. Teil a) des vorangegangenen Satzes enthält neben der Aussage, dass jeder Unterraum eines endlich-dimensionalen Vektorraums ein Komplement besitzt, auch eine Dimensionsformel für direkte Summen. Falls die Summe U + W zweier Unterräume nicht direkt ist, summieren sich die Dimensionen dagegen nicht einfach auf. Stattdessen gilt allgemein: Satz 2.19 (Dimensionsformel für Unterräume). Sei V ein endlich-dimensionaler Vektorraum, U1 und U2 Unterräume von V , dann gilt dim(U1 ) + dim(U2 ) = dim(U1 + U2 ) + dim(U1 ∩ U2 ). Insbesondere gilt dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) dann und nur dann, wenn U1 und U2 ihre direkte Summe bilden. KAPITEL 2. VEKTORRÄUME UND IHRE STRUKTUR 33 Beweis: Sei {u1 , ..., uk } eine Basis von U1 ∩U2 , die wir nach Basisergänzungssatz zu einer Basis B := {u1 , ..., uk , uk+1 , ..., ur } von U1 und zu einer Basis C := {u1 , ..., uk , wk+1 , ..., ws } von U2 fortsetzen können. Offensichtlich ist B ∪ C = {v1 , ..., vk , uk+1 , ..., ur , w1 , ..., ws } ein Erzeugendensystem von hU1 ∪ U2 i = U1 + U2 und hat Mächtigkeit dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ). Die Behauptung folgt also, sobald wir zeigen können, dass B ∪ C auch linear unabhängig (und damit Basis von U1 + U2 ) ist. Ps Pr Sei also 0 = j=1 βj wj eine lineare Abhängigkeit. Da {u1 , ..., ur } noch i=1 αi ui + s X linear unabhängig ist, folgt βj 6= 0 für mindestens ein j. Aber dann ist 0 6= − β j wj = j=1 | Pr i=1 αi ui {z =:w } ∈ U1 ∩ U2 = hu1 , ..., uk i. Dann ist aber C linear abhängig, ein Widerspruch. Kapitel 3 Lineare Abbildungen 3.1 Grundlagen Definition 3.1 (Lineare Abbildungen). Seien V und W K-Vektorräume. Eine lineare Abbildung (oder ein Homomorphismus) zwischen V und W ist eine Abbildung ϕ : V → W , die folgendes erfüllt: ϕ(λv) = λϕ(v) für alle λ ∈ K, v ∈ V, und ϕ(v + w) = ϕ(v) + ϕ(w) für alle v, w ∈ V. Ist ϕ zusätzlich injektiv/ surjektiv/ bijektiv, dann heißt ϕ ein Monomorphismus/ Epimorphismus/ Isomorphismus. Falls ein Isomorphismus ϕ : V → W existiert, dann sagt man, V und W sind isomorph - in Formel: V ∼ = W. Eine lineare Abbildung ϕ : V → V heißt Endomorphismus, und ein bijektiver Endomorphismus heißt Automorphismus. Bemerkung: Sofort aus der Definition folgt, dass eine lineare Abbildung ϕ : V → W sogar ϕ( n X i=1 λ i vi ) = n X λi ϕ(vi ) für alle n ∈ N; λ1 , ..., λn ∈ K; v1 , ..., vn ∈ V i=1 erfüllt. Definition 3.2 (Kern und Bild linearer Abbildungen). Sei ϕ : V → W linear. Die Menge ker(ϕ) := {v ∈ V | ϕ(v) = 0} heißt der Kern der linearen Abbildung ϕ. Die Menge im(ϕ) := ϕ(V ) = {ϕ(v) ∈ W | v ∈ V } heißt das Bild von V unter ϕ. Beispiele: 34 KAPITEL 3. LINEARE ABBILDUNGEN 35 • Sei V der Vektorraum aller differenzierbaren Funktionen R → R und W der Vektorraum aller Funktionen R → R, dann ist die Abbildung ϕ : V → W definiert durch ϕ(f ) := f 0 , linear. • Sei V = C, aufgefasst als R-Vektorraum. Dann ist ϕ : C → R, ϕ(z) := <(z) linear. • Sei V = RN der Vektorraum aller reellen Folgen (x1 , x2 , x3 , ...). Dann sind der Links-Shift ϕl : V → V , definiert durch ϕl ((x1 , x2 , x3 , ...)) := (x2 , x3 , ...) und der Rechts-Shift ϕr : V → V , definiert durch ϕr ((x1 , x2 , x3 , ...)) := (0, x1 , x2 , x3 , ...) Endomorphismen von V . Man prüfe nach, dass ϕl surjektiv, aber nicht injektiv und ϕr injektiv, aber nicht surjektiv ist. Das ist deshalb interessant, weil wir für Endomorphismen von endlich-dimensionalen Vektorräumen bald zeigen werden, dass Surjektivität und Injektivität äquivalent zueinander sind! • Wichtige weitere Beispiele folgen in den nächsten Abschnitten, z.B. dem Kapitel über Matrizen. Lemma 3.1. Die Verkettung zweier linearer Abbildungen ist wieder linear, und die Verkettung von zweier Isomorphismen sowie die Umkehrabbildung eines Isomorphismus sind wieder Isomorphismen. Insbesondere ist Isomorphie von Vektorräumen eine Äquivalenzrelation. Beweis: Seien ϕ : V → W und ψ : W → Z lineare Abbildungen zwischen K-Vektorräumen V , W bzw. Z. Seien λ, µ ∈ K und v1 , v2 ∈ V . Dann ist (ψ ◦ ϕ)(λv1 + µv2 ) = ψ(ϕ(λv1 + µv2 )) = ψ(λϕ(v1 ) + µϕ(v2 )) = λψ(ϕ(v1 )) + µψ(ϕ(v2 )). Das zeigt die Linearität. Da zusätzlich auch die Verkettung zweier bijektiver Abbildungen auch wieder bijektiv ist, folgt auch direkt die Aussage über Verkettung von Isomorphismen. Sei schließlich ϕ : V → W ein Isomorphismus und ϕ−1 seine Umkehrabbildung. Seien λ, µ ∈ K und w1 , w2 ∈ W . Wegen der Surjektivität von ϕ existieren v1 , v2 ∈ V mit ϕ(vi ) = wi . Es folgt λϕ−1 (w1 ) + µϕ−1 (w2 ) = λv1 + µv2 = ϕ−1 (ϕ(λv1 + µv2 )) = ϕ−1(λϕ(v1 ) + µϕ(v2 )) = ϕ−1 (λw1 + µw2 ). Das zeigt, dass ϕ−1 wieder linear ist, und sowieso auch bijektiv als Umkehrabbildung einer Bijektion. Lemma 3.2. Sei ϕ : V → W eine lineare Abbildung. Dann gelten: a) ϕ(0V ) = 0W . b) Bilder unter ϕ von Unterräumen von V sind stets Unterräume von W , und Urbilder von Unterräumen von W sind stets Unterräume von V . Insbesondere ist ker(ϕ) ist ein Unterraum von V , und im(ϕ) ist ein Unterraum von W . c) ϕ ist injektiv genau dann, wenn ker(ϕ) = {0}. KAPITEL 3. LINEARE ABBILDUNGEN 36 Beweis: a) folgt sofort aus ϕ(0V ) = ϕ(0V + 0V ) = ϕ(0V ) + ϕ(0V ). Zu b): Sei U ein Unterraum von V und seien w1 , w2 ∈ ϕ(U ) und λ1 , λ2 ∈ K. Es existieren u1 , u2 ∈ U mit w1 = ϕ(u1 ) und w2 = ϕ(u2 ). Dann ist λ1 w1 + λ2 w2 = λ1 ϕ(u1 ) + λ2 ϕ(u2 ) = ϕ(λ1 u1 + λ2 u2 ) ∈ ϕ(U ). Also ist ϕ(U ) ein Unterraum. Sei nun U ein Unterraum von W . Das Urbild ϕ−1 (U ) ist nicht leer, denn 0 ∈ V ist das Urbild von 0 ∈ U nach a). Seien v1 , v2 ∈ ϕ−1 (U ), dann existieren u1 , u2 ∈ U mit u1 = ϕ(v1 ) und u2 = ϕ(v2 ). Für alle λ1 , λ2 ∈ K gilt dann ϕ(λ1 v1 + λ2 v2 ) = λ1 ϕ(v1 ) + λ2 ϕ(v2 ) = λ1 u1 + λ2 u2 ∈ U, also gilt λ1 v1 + λ2 v2 ∈ ϕ−1 (U ). Somit ist ϕ−1 (U ) ein Unterraum. Die Aussagen über Kern und Bild folgen sofort daraus, dass ker(ϕ) per Definition das Urbild des Nullraums und im(ϕ) das Bild von V ist. Zu c): Ist ker(ϕ) ein von {0} verschiedener Unterraum, dann kann ϕ nicht injektiv sein. Ist umgekehrt ker(ϕ) = {0} und ϕ(u) = ϕ(v) für u, v ∈ V , dann ist ϕ(u − v) = 0, also u − v ∈ ker(ϕ) = {0}. Das zeigt, dass ϕ injektiv ist. Nach Teil b) des vorigen Lemmas machen folgende Definitionen Sinn: Definition 3.3 (Rang und Defekt). Sei ϕ : V → W eine lineare Abbildung zwischen endlich-dimensionalen Vektorräumen V und W . Dann heißt def(ϕ) := dim(ker(ϕ)) der Defekt von ϕ und rg(ϕ) := dim(im(ϕ)) der Rang von ϕ. Eine erste einfache Beobachtung über den Rang: Lemma 3.3. Sind V, W Vektorräume, E ⊂ V ein Erzeugendensystem von V und ϕ : V → W linear, dann ist {ϕ(b) | b ∈ B} ein Erzeugendensystem von im(ϕ). Falls insbesondere V, W endlich-dimensional sind, dann ist rg(ϕ) ≤ min{dim(V ), dim(W )}. P P Beweis: Aus der Linearität folgt sofort ϕ( ni=1 αi vi ) = ni=1 αi ϕ(vi ), für beliebige vi ∈ E, αi ∈ K. Damit ist jeder Bildvektor aus im(ϕ) im Erzeugnis von C := {ϕ(v) | v ∈ E} enthalten. Im endlich-dimensionalen Fall wähle als E eine Basis von V . Dann hat C höchstens dim(V ) Elemente, also folgt rg(ϕ) ≤ dim(V ); und rg(ϕ) ≤ dim(W ) gilt sowieso, da das Bild ja in W enthalten ist. Als Korollar erhält man ein oft nützliches Kriterium dafür, wann eine gegebene lineare Abbildung die Nullabbildung ist. Korollar 3.4. Sei ϕ : V → W eine lineare Abbildung, B eine Basis von V und ϕ(b) = 0 für alle b ∈ B. Dann folgt bereits ϕ ≡ 0. KAPITEL 3. LINEARE ABBILDUNGEN 3.2 37 Die Dimensionsformel Wir kommen nun zu einem der wichtigsten Sätze über lineare Abbildungen: Satz 3.5 (Dimensionsformel für lineare Abbildungen ). Sei V ein endlich-dimensionaler Vektorraum, ϕ : V → W eine lineare Abbildung. Dann gilt: dim(V ) = def(ϕ) + rg(ϕ) (= dim(ker(ϕ)) + dim(im(ϕ))) . Beweis: Sei {v1 , ..., vr } eine Basis von ker(ϕ). Nach Basisergänzungssatz können wir diese zu einer Basis {v1 , ..., vn } von V ergänzen (0 ≤ r ≤ n). Der Unterraum U := hvr+1 , ..., vn i ist also ein Komplement von ker(ϕ) in V , mit Basis {vr+1 , ..., vn }. Wir zeigen, dass die Vektoren ϕ(vr+1 ), ..., ϕ(vn ) eine Basis von im(ϕ) bilden. Damit folgt sofort die Behauptung. Pn Pn Pn Zunächst folgt aus 0 = i=r+1 λi ϕ(vi ) = ϕ( i=r+1 αi vi ) schon, dass i=r+1 αi vi ∈ U ∩ ker(ϕ) = {0}. Das zeigt die lineare Unabhängigkeit. Pn Weiter sei w ∈ im(ϕ). Dann existieren λ , ..., λ ∈ K so, dass w = ϕ( 1 n i=1 λi vi ) = Pn Pn λ ϕ(v ) = λ ϕ(v ). Das zeigt, dass {ϕ(v ), ..., ϕ(v )} Erzeugendeni i i i r+1 n i=1 i=r+1 | {z } =0 für i≤r system von im(ϕ) ist, also folgt die Behauptung. Als Korollar erhält man sofort: Korollar 3.6. Sei ϕ : V → V ein Endomorphismus des endlich-dimensionalen Vektorraums V . Dann gilt: ϕ ist injektiv ⇔ ϕ ist surjektiv ⇔ ϕ ist bijektiv. Beweis: Nur die erste Äquivalenz ist zu zeigen, der Rest folgt aus der Definition “bijektiv = injektiv + surjektiv”. Wir wissen schon, dass ϕ genau dann injektiv ist, wenn ker(ϕ) = {0}. Nach Dimensionsformel ist dies wiederum äquivalent dazu, dass dim(im(ϕ)) = dim(V ), was äquivalent zu im(ϕ) = V , also zur Surjektivität ist. Einige Abschätzungen von Rang und Defekt einer Hintereinanderausführung linearer Abbildungen. Zunächst sagt folgender Satz, dass bei einer Verkettung mehrerer linearer Abbildungen der Rang höchstens kleiner wird. Satz 3.7. Seien V, W, Z endlich-dimensional und ϕ : V → W und ψ : W → Z linear. Dann gelten: a) rg(ψ ◦ ϕ) ≤ rg(ϕ) und def(ψ ◦ ϕ) ≥ def(ϕ). Falls ψ injektiv ist, gilt jeweils Gleichheit. KAPITEL 3. LINEARE ABBILDUNGEN 38 b) rg(ψ ◦ ϕ) ≤ rg(ψ), und falls ϕ surjektiv ist, gilt Gleichheit. Beweis: a): Ist v ∈ ker(ϕ), dann auch ψ(ϕ(v)) = ψ(0) = 0, also v ∈ ker(ψ ◦ϕ). Das zeigt die Defekt-Ungleichung, und die Rang-Ungleichung folgt sofort mit der Dimensionsformel für lineare Abbildungen. Falls weiter ψ injektiv ist, dann folgt aus ψ(ϕ(v)) = 0 schon ϕ(v) = 0, also ker(ψ ◦ ϕ) = ker(ϕ), und damit Gleichheit überall. b): Die Rangungleichung folgt sofort aus im(ψ ◦ ϕ) = im(ψ|im(ϕ) ) ⊂ im(ψ), wobei ψ|im(ϕ) die Einschränkung von ψ auf den Unterraum im(ϕ) sei. Ist ϕ zusätzlich surjektiv, dann ist im(ϕ) = V , und somit gilt oben Gleichheit. Folgender Satz liefert eine Abschätzung in die umgekehrte Richtung für den Rang einer Verkettung linearer Abbildungen: Satz 3.8. Seien V, W, Z endlich-dimensional und ϕ : V → W und ψ : W → Z linear. Dann gilt rg(ψ ◦ ϕ) ≥ rg(ψ) + rg(ϕ) − dim(W ). Beweis: Übung. 3.3 Existenz- und Eindeutigkeitsaussagen Bisher haben wir einige spezielle Beispiele linearer Abbildungen kennen gelernt. Tatsächlich gibt es zwischen zwei endlich-dimensionalen Vektorräumen eine Fülle linearer Abbildungen, wie der folgende Satz zeigt: Satz 3.9 (Fortsetzungssatz). Seien V und W K-Vektorräume, dim(V ) =: n < ∞, B := {v1 , ..., vn } eine Basis von V und w1 , ..., wn ∈ W beliebig. Dann gibt es genau eine lineare Abbildung ϕ : V → W mit ϕ(vi ) = wi (für alle i = 1, ..., n), nämlich definiert durch n n X X ϕ: λi vi 7→ λi wi (λ1 , ..., λn ∈ K). i=1 i=1 Insbesondere sind zwei lineare Abbildungen ϕ, ψ : V → W bereits dann gleich, wenn ihre Einschränkungen auf die Basis B gleich sind. Beweis: Zunächst ist die angegebene P Abbildung ϕ wohldefiniert, da jeder Vektor aus V eine eindeutige Basisdarstellung vP= ni=1 λi vi bezüglich P B hat. Sie ist auch linear, denn für v = ni=1 λi vi und w = ni=1 µi vi sowie α, β ∈ K ist n n n n X X X X ϕ(αv+βw) = ϕ( (αλi +βµi )vi ) = (αλi +βµi )wi = α λi wi +β µi wi = αϕ(v)+βϕ(w). i=1 i=1 i=1 i=1 KAPITEL 3. LINEARE ABBILDUNGEN 39 Eine Pnweitere lineare Pn Abbildung Φ P:n V → W mit Φ(vi ) = wi gibt es nicht, denn wegen Φ( i=1 λi vi ) = i=1 λi Φ(vi ) = i=1 λi wi ist die lineare Abbildung Φ durch die Bilder der Basisvektoren vi schon komplett festgelegt. Die Existenzaussage über lineare Abbildungen in Satz 3.9 hat starke Konsequenzen. Insbesondere reicht im endlich-dimensionalen Fall allein die Angabe der Dimension (und natürlich des Skalarenkörpers K), um den Vektorraum “bis auf Isomorphie” zu kennen. Korollar 3.10. Zwei endlich-dimensionale K-Vektorräume V und W sind genau dann isomorph, wenn dim(V ) = dim(W ). Insbesondere ist jeder n-dimensionale K-Vektorraum isomorph zu K n . Beweis: Ein Isomorphismus ϕ : V → W erfüllt immer ker(ϕ) = {0}, also dim(V ) = dim(im(ϕ)) = dim(W ) nach Dimensionsformel. Sei umgekehrt dim(V ) = dim(W ) =: n, und seien {v1 , ..., vn } Basis von V und {w1 , ..., wn } Basis von W . Dann existiert nach Satz 3.9 eine lineare Abbildung ϕ : V → W mit ϕ(vi ) = wi (für alle i = 1, ..., n). Diese ist surjektiv und damit folgt nach Dimensionsformel dim(ker(ϕ)) = dim(V ) − dim(W ) = 0, also ist ϕ auch injektiv, also ein Isomorphismus. Ein wichtiger Spezialfall eines solchen Isomorphismus zweier Vektorräume gleicher Dimension ist die Koordinatenabbildung von einem beliebigen n-dimensionalen K-Vektorraum V in den Raum K n : Korollar 3.11 (Koordinatenabbildung). Sei V ein n-dimensionaler K-Vektorraum mit P n , definiert durch Φ ( n λ v ) := Basis B := {v , ..., v }. Dann ist Φ : V → K 1 n B B i=1 i i λ1 .. . , ein Isomorphismus. λn ΦB heißt Koordinatenabbildung bezüglich der Basis B. Beweis: Für die Linearität setze in Satz 3.9 W := K n und wi := ei für i = 1, ..., n. Da ΦB (B) = {e1 , ..., en } Basis des K n ist, folgt die Bijektivität. Nachtrag zu Korollar 3.11: Damit die Koordinatenabbildung ΦB , so wie hier angegeben, wirklich wohldefiniert ist, sollte man die Basis B mit einer festen Reihenfolge der Vektoren versehen. Man braucht also hier schon eine geordnete Basis B, siehe dazu auch S.43. 3.4 Abbildungsräume Die Menge aller linearen Abbildungen zwischen zwei gegebenen Vektorräumen hat selbst wieder eine Vektorraumstruktur. KAPITEL 3. LINEARE ABBILDUNGEN 40 Satz 3.12. Seien V und W K-Vektorräume, und bezeichne HomK (V, W ) die Menge der linearen Abbildungen von V nach W . Dann ist HomK (V, W ) mit der elementweisen Addition und Skalarmultiplikation (d.h. ϕ+ψ wird definiert durch (ϕ+ψ)(v) := ϕ(v)+ψ(v) und analog λ · ϕ durch (λ · ϕ)(v) := λ · ϕ(v)) ein Vektorraum. Falls zusätzlich V = W , dann wird HomK (V, V ) =: EndK (V ) mit der Hintereinanderausführung von Abbildungen als Multiplikation zu einem Ring, dem Endomorphismenring von V . Dessen Einheitengruppe ist die Menge AutK (V ) aller Automorphismen von V. Beweis. Dass Hintereinanderausführung von linearen Abbildungen wieder linear ist, wissen wir schon. Ebenso macht man sich leicht klar, dass Summe und skalare Vielfache von linearen Abbildungen wieder linear sind. Weiter sind die Nullabbildung als additives Neutrales und im zweiten Fall auch die Identität als multiplikatives Neutrales in der jeweiligen Menge enthalten. Die übrigen Vektorraumaxiome rechnet man schnell nach - sie folgen im Wesentlichen aus der komponentenweisen Definition von Addition und Skalarmultiplikation (damit werden viele Eigenschaften auf die entsprechenden Eigenschaften in V zurückgeführt). Wir rechnen noch die Distributivität der Ring-Addition und -multiplikation nach: Seien dazu ϕ, ψ, θ ∈ EndK (V ), v ∈ V , dann ist (ϕ ◦ (ψ + θ))(v) = ϕ(ψ(v) + θ(v)) = (ϕ ◦ ψ)(v) + (ϕ ◦ θ)(v) = (ϕ ◦ ψ + ϕ ◦ θ)(v), und in ähnlicher Weise folgt die umgekehrte Distributivität. Mit Hilfe von Satz 3.9 erhalten wir (für den Fall, dass V und W endlich-dimensional sind) auch die Dimension des Vektorraumes HomK (V, W ): Satz 3.13. Sind V und W zwei endlich-dimensionale K-Vektorräume der Dimensionen n und m, dann ist dim(Hom(V, W )) = m · n. Beweis: Seien {v1 , ..., vn } und {w1 , ..., wm } Basen von V bzw. von W . Nach Satz 3.9 gibt es für jedes 1 ≤ i ≤ m und jedes 1 ≤ j ≤ n genau eine lineare Abbildung ϕi,j : V → W mit ( wi falls k = j ϕi,j (vk ) := 0 sonst. Wir zeigen, dass die ϕi,j (mit 1 ≤ i ≤ m und 1 ≤ j ≤ n) eine Basis von Hom(V, W ) bilden. P Zunächst zur linearen Unabhängigkeit: Wir nehmen an, dass i,j αi,j ϕi,j = 0 die Nullabbildung (das ist der Nullvektor in Hom(V, W )!) ist. Dann gilt für alle k = 1, ..., n: X X X 0=( αi,j ϕi,j )(vk ) = αi,j · ϕi,j (vk ) = αi,k wi . i,j i,j i Da aber {w1 , ..., wm } Basis ist, folgt hieraus schon αi,k = 0 für alle i = 1, ..., m; und dies wiederum für alle k = 1, ..., n. Das zeigt die lineare Unabhängigkeit. KAPITEL 3. LINEARE ABBILDUNGEN 41 P Nun zur Erzeugendeneigenschaft: Sei ϕ : V → W linear und sei ϕ(vj ) = m i=1 αi,j wi die eindeutige Darstellung P von Pn ϕ(vj ) bzgl. der Basis {w1 , ..., wm } von W (für j = 1, ..., n). Dann gilt ϕ(v) = m alle v P ∈ {v1 , ..., vn }, und damit i=1 j=1 αi,j ϕi,j (v) zumindest für P m nach Satz 3.9 sogar schon für alle v ∈ V . Also ist ϕ = i=1 nj=1 αi,j ϕi,j ein Element des Erzeugnisses der ϕi,j . Ein wichtiger Spezialfall ergibt sich für W = K (als eindimensionaler K-Vektorraum gesehen): Definition 3.4 (Dualraum). Sei V ein K-Vektorraum. Der Vektorraum Hom(V, K) heißt der Dualraum von V und wird auch mit V ? bezeichnet. Die Abbildungen aus V ? heißen auch Linearformen. Satz 3.13 zeigt also, dass im endlich-dimensionalen Fall dim(V ? ) = dim(V ) gilt. 3.5 Lineare Abbildungen und Faktorräume Lineare Abbildungen und Faktorräume hängen in verschiedener Weise zusammen. Zunächst gehört zu jedem Faktorraum eine besonders natürliche lineare Abbildung (die wir, natürlich ohne die Eigenschaft der Linearität, auch schon aus dem Abschnitt über Äquivalenzrelationen kennen): Lemma 3.14 (Kanonischer Epimorphismus). Ist U ≤ V ein Unterraum, dann ist die Abbildung π : V → V /U , definiert durch π(v) := v + U , linear und surjektiv. Ihr Kern ist gerade U . π heißt kanonischer Epimorphismus. Damit können wir auch die Struktur der Faktorräume genauer mit denen des Ausgangsvektorraums V in Verbindung bringen: Satz 3.15 (Korrespondenzsatz). Die Unterräume des Faktorraums V /U sind genau die W/U , wobei W ein Unterraum von V mit W ⊃ U ist. Beweis: Ist W ⊃ U ein Unterraum, dann ist W/U wieder ein Vektorraum (nach der Konstruktion von Faktorräumen), und auch Teilmenge von V /U , also Unterraum. c Unterraum von V /U , und W das Urbild von W c unter der kanonischen Sei umgekehrt W Projektion π. Da diese linear ist, ist W ein Unterraum, und W enthält auch sicher U = π −1 ({0V /U }). Nun sei ϕ : V → W eine lineare Abbildung. Dann ist der Faktorraum V / ker(ϕ) besonders interessant, denn für v1 , v2 ∈ V gilt: ϕ(v1 ) = ϕ(v2 ) ⇔ ϕ(v1 − v2 ) = 0 ⇔ v1 − v2 ∈ ker(ϕ) ⇔ v1 + ker(ϕ) = v2 + ker(ϕ). KAPITEL 3. LINEARE ABBILDUNGEN 42 Die Abbildung ϕ ist also auf jedem affinen Unterraum v + ker(ϕ) (mit v ∈ V ) konstant! ϕ “lebt” also in gewisser Weise auf dem Faktorraum V / ker(ϕ). Konkret meinen wir damit, dass ϕ eine wohldefinierte Abbildung ϕ b auf dem Faktorraum V / ker(ϕ), mit ϕ(x+ b ker(ϕ)) := ϕ(x) induziert. (Vergleiche das allererste Kapitel über Äquivalenzrelationen!) Mit ϕ ist offensichtlich auch ϕ b linear. V π ϕ W ϕ b V / ker(ϕ) Das führt zu folgendem Satz: Satz 3.16 (Homomorphiesatz). Sei ϕ : V → W eine lineare Abbildung. Dann gilt V / ker(ϕ) ∼ = im(ϕ). Beweis: Definiere ϕ b : V / ker(ϕ) → im(ϕ) durch ϕ(v b + ker(ϕ)) := ϕ(v). Diese Abbildung ist wohldefiniert, denn für v + ker(ϕ) = w + ker(ϕ) ist v − w ∈ ker(ϕ), also ϕ(v) − ϕ(w) = ϕ(v − w) = 0. Weiter ist sie ein Homomorphismus, wie man sofort nachrechnet, und offensichtlich auch surjektiv. Schließlich ist ϕ b auch injektiv, denn aus ϕ(v b + ker(ϕ)) = ϕ(w b + ker(ϕ)) folgt ϕ(v) = ϕ(w), also v − w ∈ ker(ϕ) und somit v + ker(ϕ) = w + ker(ϕ). Bemerkung: Falls V endlich-dimensional ist, dann folgt die Aussage des Homomorphiesatzes aus der Dimensionsformel für lineare Abbildungen (die dazu führt, dass V / ker(ϕ) und im(ϕ) die gleiche Dimension haben) sowie der Aussage, dass endlichdimensionale K-Vektorräume der selben Dimension stets isomorph sind. Andererseits haben wir die Dimensionsformel nicht für den Beweis des Homomorphiesatzes benutzt. Man mache sich klar, wie diese nochmals als Korollar aus dem Homomorphiesatz folgt! Kapitel 4 Matrizen 4.1 Darstellungsmatrizen linearer Abbildungen Da es im Folgenden auf die Reihenfolge der Basisvektoren ankommen wird, betrachten wir von hier an geordnete Basen, also Tupel (v1 , ..., vn ) (mit vi ∈ V ) anstelle von Mengen {v1 , ..., vn }. Bemerkung: Im Folgenden werden auch geordnete Basen manchmal einfach nur als “Basen” bezeichnet, wenn durch den Kontext klar ist, dass die Reihenfolge der Vektoren berücksichtigt werden soll. Wird insbesondere eine lineare Abbildung auf eine geordnete Basis angewendet, dann versteht sich stillschweigend, dass auch die Bilder der Basisvektoren wieder “mit Reihenfolge”, also als Tupel von Vektoren betrachtet werden. Seien also V und W endlich-dimensional der Dimensionen n bzw. m, P und (v1 , ..., vn ) bzw. (w1 , ..., wm ) geordnete Basen. Sei φ : V → W linear und ϕ(vj ) = m i=1 αi,j wi die eindeutige Basisdarstellung des Bildes ϕ(vj ) bezüglich der Basis C (j = 1, ..., n). Nach Satz 3.9 legen die Bilder ϕ(vj ), j = 1, ..., n die lineare Abbildung ϕ schon vollständig fest. Es genügt also die Kenntnis der Koordinaten αi,j (i = 1, ..., m, j = 1, ..., n), um ϕ zu kennen. Das motiviert die folgende Definition: Definition 4.1 (Matrix, Darstellungsmatrix). Seien m, × n-Matrix über n ∈ N. Eine m a1,1 · · · a1,n .. mit a ∈ K .. einem Körper K ist ein rechteckiges Schema A := ... i,j . . am,1 · · · am,n (i = 1, ..., m, j = 1, ..., n). Eine m × n-Matrix hat also m Zeilen und n Spalten. Wenn die Einträge von A nicht schon konkret benannt sind, bezeichnen wir den Eintrag in der i-ten Zeile und j-ten Spalte auch mit A[i, j]. Die Menge aller m × n-Matrizen über K heißt K m×n . Seien V und W endlich-dimensionale K-Vektorräume der Dimensionen n bzw. m, und B := (v1 , ..., vn ) bzw. C := (w1 , ..., wm ) geordnete Basen. Sei φ : V → W linear 43 KAPITEL 4. MATRIZEN 44 P und ϕ(vj ) = m i=1 αi,j wi die eindeutige Basisdarstellung des Bildes ϕ(vj ) bezüglich der Basis C (j = 1, ..., n). Dann nennt man die Matrix MB,C (ϕ) ∈ K m×n , definiert durch MB,C (ϕ)[i, j] := αi,j , (i = 1, ...m; j = 1, ..., n) die Darstellungsmatrix von ϕ bezüglich der Basen B und C. In der j-ten Spalte stehen also gerade die Koordinaten von ϕ(vj ) bezüglich der Basis C, diese Spalte (als Vektor im K m gesehen) ist also gleich ΦC (ϕ(vi )), mit der Koordinatenabbildung ΦC . Bemerkungen: a) Satz 3.9 besagt, dass - für gegebene Basen B von W und V von W - die Abbildung Hom(V, W ) → K m×n , ϕ 7→ MB,C (ϕ) eine Bijektion ist. b) K m×n wird in natürlicher Weise zu einem K-Vektorraum, wenn wir die Addition und die Skalarmultiplikation einfach komponentenweise definieren, d.h. A + B sei definiert via (A + B)[i, j] := A[i, j] + B[i, j] und λ · A durch (λ · A)[i, j] := λ · A[i, j]. Sind α, β : V → W linear und λ, µ ∈ K, dann ist auch λα + µβ linear (siehe Satz 3.12!). Sind Aα und Aβ die Darstellungsmatrizen von α und β (bezüglich der festen Basen B von V und C von W !) dann sieht man mit der obigen Definition sofort, dass λAα + µAβ die Darstellungsmatrix von λα + µβ ist. Die Abbildung Hom(V, W ) → K m×n , α 7→ MB,C (α) ist also nicht nur bijektiv, sondern sogar ein Isomorphismus von K-Vektorräumen. Es ist dim(K m×n ) = m · n (vgl. auch Satz 3.13!), und die Menge {Ei,j ∈ K m×n |1 ≤ i ≤ m, 1 ≤ j ≤ n} - wobei Ei,j die Matrix ist, die nur an der Stelle [i, j] den Eintrag 1 und sonst lauter Nulleinträge hat - ist eine Basis von K m×n (die Standardbasis). c) Die Isomorphie von Hom(V, W ) und K m×n bedeutet, dass man Fragestellungen zu linearen Abbildungen endlich-dimensionaler Vektorräume und zu Matrizen oft ineinander übersetzen kann. Trotzdem sollte man nicht vergessen, dass es auch lineare Abbildungen auf unendlich-dimensionalen Vektorräumen gibt. Hier hat man keine Matrizen zur Verfügung! 4.2 Matrixmultiplikation Wir betrachten als nächstes, wie die Darstellungsmatrix einer Hintereinanderausführung von linearen Abbildungen aussieht. Seien dazu V, W und Z Vektorräume der Dimensionen n, m bzw. `, mit fest gewählten geordneten Basen B = (v1 , ..., vn ), C = (w1 , ..., wm ) bzw. D P = (z1 , ..., z` ). Seien β : V → W und P α : W → Z linear, definiert durch ` β(vj ) = m β w (j = 1, ..., n) sowie α(w ) = k,j k k k=1 i=1 αi,k zi (k = 1, ..., m). Dann ist α ◦ β : V → Z linear mit (α ◦ β)(vj ) = α( m X k=1 βk,j wk ) = m X k=1 βk,j · α(wk ) = m X ` X k=1 i=1 βk,j αi,k zi = ` X m X ( αi,k · βk,j )zi . i=1 k=1 KAPITEL 4. MATRIZEN 45 Die Darstellungsmatrix von α◦β ist also aus K `×n und hat an der Stelle [i, j] den Eintrag P m k=1 αi,k · βk,j stehen. `×m und Wir definieren nun einfach eine Multiplikation zwischen Pmzwei Matrizen A ∈ K m×n `×n B ∈K durch A · B ∈ K mit (A · B)[i, j] := k=1 A[i, k] · B[k, j] (i = 1, ..., `, j = 1, ..., n). (Merkregel: An der Stelle [i, j] steht das Produkt aus i-ter Zeile der ersten und j-ter Spalte der zweiten Matrix.) Die obigen Beobachtungen liefern dann sofort: Satz 4.1. Seien V, W, Z endlich-dimensionale Vektorräume mit Basen B, C bzw. D und seien β : V → W und α : W → Z linear, mit Darstellungsmatrizen Aα := MC,D (α) und Aβ := MB,C (β). Dann hat α ◦ β bezüglich der Basen B und D die Darstellungsmatrix Aα · Aβ . Die Matrizenmultiplikation ist also nur auf den ersten Blick etwas unintuitiv definiert. In Wahrheit ist sie genau richtig definiert, um zu erreichen, dass die Darstellungsmatrix eines “Produktes” (=Hintereinanderausführung) linearer Abbildungen das Produkt der einzelnen Darstellungsmatrizen ist. Bemerkung: Die Matrizenmultiplikation hat einige Eigenschaften, die auf den ersten Blick überraschend sein mögen (und die man jedenfalls von der Multiplikation etwa von reellen Zahlen nicht gewohnt ist): a) Man beachte zunächst, dass zwei beliebige Matrizen nicht unbedingt miteinander multiplizierbar sind. Damit das Produkt A · B definiert ist, müssen die Formate zusammenpassen, d.h. die Spaltenzahl von A muss gleich der Zeilenzahl von B sein. b) Matrizenmultiplikation ist i.Allg. nicht kommutativ (selbst wenn die Produkte AB und BA beide definiert sind). Sei z.B. A = ( 01 00 ) und B = ( 00 01 ) (über einem beliebigen Körper). Dann ist AB = ( 00 00 ) 6= ( 01 00 ) = BA. Noch deutlicher wird es, wenn die Matrizen nicht quadratisch sind. Ist z.B. A ∈ K 3×2 und B ∈ K 2×3 , dann ist AB vom Format 3 × 3, aber BA vom Format 2 × 2! c) Für Matrizen folgt aus AB = 0 nicht notwendigerweise A = 0 oder B = 0. Das zeigt schon das Beispiel aus b)! Einige weitere Anmerkungen zur Matrizenmultiplikation: Lemma 4.2. a) Matrizenmultiplikation ist assoziativ: (A · B) · C = A · (B · C) für alle Matrizen A, B, C, deren Formate kompatibel sind. b) Es gelten die Distributivgesetze A(B + C) = AB + AC und (A + B)C = AC + BC (jeweils für Matrizen A, B, C von passenden Formaten). KAPITEL 4. MATRIZEN 46 ( 1, falls i = j c) Sei En ∈ K n×n definiert durch En [i, j] := 0, sonst. Dann gilt A · En = En · A = A für alle A ∈ K n×n . 1 En heißt die (n × n-)Einheitsmatrix. d) Eine quadratische Matrix A ∈ K n×n mit A[i, j] = 0 für alle 1 ≤ i 6= j ≤ n heißt Diagonalmatrix . Sind a1 := A[1, 1],..., an := A[n, n] die Diagonaleinträge einer Diagonalmatrix A, dann schreiben wir A auch platzsparend in der Form A =: diag(a1 , ..., an ). Für das Produkt zweier Diagonalmatrizen gilt dann diag(a1 , ..., an ) · diag(b1 , ..., bn ) = diag(a1 b1 , ..., an bn ). Beweis: a) folgt sofort aus Satz 4.1 und der Tatsache, dass Hintereinanderausführung von Abbildungen assoziativ ist. b) rechnet man sofort anhand der Definitionen nach. c) kann man entweder direkt nachrechnen; oder man beachte, dass En = MB,B (id) die Darstellungsmatrix der Identität auf einem Vektorraum V bezüglich der Basis B (im Bild- und im Urbildraum) ist. Damit folgt nämlich für A = MB,C (ϕ) sofort A = MB,C (id ◦ ϕ) = MC,C (id) ◦ MB,C (ϕ) = En · A. d) folgt wieder direkt aus der Definition der Matrizenmultiplikation. Wir wissen bereits, dass K m×n ein Vektorraum, also insbesondere eine additive abelsche Gruppe ist. Aus Teil a) bis c) von Lemma 4.2 folgt, dass im Fall m = n noch mehr gilt, nämlich: Korollar 4.3. Die Menge K n×n der quadratischen Matrizen vom Format n × n ist mit Matrizenaddition und -multiplikation ein Ring. Definition 4.2. Die Gruppe der (multiplikativ) invertierbaren Elemente des Ringes K n×n heißt die allgemeine lineare Gruppe (“general linear group”) GLn (K). Invertierbare Matrizen aus K n×n heißen auch regulär, nicht-invertierbare auch singulär. In Zukunft schreiben wir Elemente des Vektorraums K n oft als Spalten, identifizieren also K n mit K n×1 . Dann gilt: Satz 4.4. Sei A ∈ K m×n . dann ist die Abbildung ϕA : K n → K m , x 7→ A · x linear. Ihre Darstellungsmatrix bezüglich der (geordneten) Standardbasen (e1 , ..., en ) von K n ( 1, falls i = j , abhängig von i und j, kommt in der Linearen 0, sonst Algebra recht häufig vor. Um sich die Schreibarbeit zu sparen, schreibt man für diesen Ausdruck auch einfach δi,j . Man bezeichnet ihn auch als Kronecker-Delta. 1 Die Definition von Objekten als KAPITEL 4. MATRIZEN 47 und (e01 , ..., e0m ) von K m ist gerade A. Ferner ist jede lineare Abbildung K n → K m von der Form ϕA für eine geeignete Matrix A ∈ K m×n . Beweis: Es ist A(x + y) = Ax + Ay wegen Distributivität der Matrizenmultiplikation. Außerdem ist A(λx) = λ · Ax für alle λ ∈ K. Also ist ϕA linear. Weiter rechnet man sofort (A · ej )[i, 1] = A[i, j] für alle 1 ≤ i ≤ m, 1 ≤ j ≤ n. Also P nach, dass 0 . Damit ist A Darstellungsmatrix von ϕ bzgl. der Standardbasen. A[i, j]e A · ej = m A i i=1 Die letzte Aussage folgt sofort daraus, dass es zu jedem A genau eine lineare Abbildung mit dieser Darstellungsmatrix (bzgl. fest vorgegebenen Basen) gibt. Der folgende Satz verdeutlicht den Zusammenhang zwischen der Abbildung x 7→ A · x zwischen den Koordinatenräumen K n , K m und einer beliebigen linearen Abbildung ϕ : V → W mit Darstellungsmatrix A (bezüglich gegebener Basen von V und W ): Satz 4.5. Sei ϕ : V → W linear und seien ΦB := V → K n und ΦC : W → K m die Koordinatenabbildungen (bezüglich Basen B von V und C von W ). Sei A := MB,C (ϕ) und sei ϕA : K n → K m definiert durch x 7→ Ax. Dann ist ϕA ◦ ΦB = ΦC ◦ ϕ. Hat insbesondere v ∈ V bezüglich B den Koordinatenvektor x ∈ K n , dann hat ϕ(v) bezüglich C den Koordinatenvektor A · x(∈ K m ). Beweis: Seien B =: (v1 , ..., vn ) und C =: (w1 , ..., wm ). Bezeichne mit (e1 , ..., en ) bzw. (e01 , ..., e0m ) die Standardbasen von K n bzw. K m . Dann gilt: (ϕA ◦ ΦB )(vj ) = Aej = m X i=1 A[i, j]e0i m X = ΦC ( A[i, j]wj ) = (ΦC ◦ ϕ)(vj ), i=1 für alle j = 1, ..., n. Also stimmen die linearen Abbildungen ϕA ◦ ΦB und ΦC ◦ ϕ auf der Basis B überein und sind somit schon identisch. V ϕ ΦB Kn 4.3 W ΦC ϕA Km Rang und Kern von Matrizen Angesichts von Satz 4.4 definiert man den Kern ker(A) einer Matrix A ∈ K m×n als den Kern (⊂ K n ) der linearen Abbildung x 7→ A · x, das Bild im(A) von A als das Bild KAPITEL 4. MATRIZEN 48 (⊂ K m ) von x 7→ Ax, sowie den Rang rg(A) bzw. den Defekt def(A) als die Dimension von im(A) bzw. von ker(A). Die Analogie zwischen Matrizen und linearen Abbildungen führt dazu, dass wir die Rangungleichungen für lineare Abbildungen nun auf Matrizen übertragen können: Satz 4.6 (Rangungleichung für Matrizen). : Seien A ∈ K m×n , B ∈ K n×r , dann gilt rg(AB) ≤ min{rg(A), rg(B)}. Beweis: Folgt wegen der Definition der Matrixmultiplikation direkt aus Satz 3.7. Speziell für die Multiplikation einer Matrix mit einer invertierbaren Matrix von passendem Format ergibt sich, dass der Rang gleich bleibt: Satz 4.7. Sei A ∈ K m×n und seien P ∈ K m×m und Q ∈ K n×n invertierbare Matrizen. Dann ist rg(P A) = rg(AQ) = rg(A). Beweis: Die Rangungleichung liefert rg(A) = rg(P −1 P A) ≤ rg(P A) ≤ rg(A), also Gleichheit überall. Genauso für rg(AQ). Weitere Aussagen, wie etwa die Dimensionsformel für lineare Abbildungen, übertragen sich selbstverständlich ebenso auf Matrizen. Direkt aus den Definitionen folgen auch: Lemma 4.8. Sei A ∈ K m×n und ϕA : K n → K m , ϕA (x) := Ax. Dann gelten: a) im(A) ist das Erzeugnis der Spaltenvektoren von A. b) ϕA ist surjektiv genau dann, wenn die Spalten von A ein Erzeugendensystem von K m bilden und injektiv genau dann, wenn sie linear unabhängig sind. Beweis: Die Spaltenvektoren von A sind genau die ϕA (ej ), j = 1, ..., n. Deren Erzeugnis ist gerade ϕA (K n ) = im(ϕA ). Daraus folgt auch sofort, dass die Surjektivität von ϕA äquivalent dazu ist, dass dieses Erzeugnis ganz K m ist. Ebenso ist Injektivität äquivalent zu ker A = {0}, was mit Dimensionsformel äquivalent zu rg(A) = n ist. Das bedeutet aber genau, dass das Erzeugendensystem ϕA (e1 ), ..., ϕA (en ) von im(ϕA ) linear unabhängig ist. Im Spezialfall quadratischer Matrizen ergibt sich: Satz 4.9. Folgende Aussagen sind für A ∈ K n×n äquivalent: i) A ist invertierbar. ii) ϕA : K n → K n , x 7→ Ax ist ein Isomorphismus. KAPITEL 4. MATRIZEN 49 iii) rg(A) = n (d.h. ϕA : x 7→ Ax ist surjektiv). iv) ker(A) = {0} (d.h. ϕA : x 7→ Ax ist injektiv). Beweis: Die Äquivalenz von ii) bis iv) folgt sofort aus Korollar 3.6. ii)⇒ i): Ist ϕA : x 7→ Ax ein Isomorphismus dann ist auch die Umkehrabbildung ϕ−1 A linear. Sei B deren Darstellungsmatrix bezüglich der Standardbasis (im Bild- und im Urbild-Raum), dann ist AB die Darstellungsmatrix von ϕ ◦ ϕ−1 A = id bezüglich der Standardbasis, also AB = En und ebenso BA = En . Also ist A invertierbar. i)⇒ iv): Sei x ∈ ker(A), dann ist 0 = A−1 · 0 = A−1 Ax = En · x = x. Da für Abbildungen Surjektivität gleichbedeutend mit der Existenz einer Rechtsinversen (und Injektivität mit der Existenz einer Linksinversen) ist, besagen die Äquivalenzen des vorangegangenen Satzes, dass für A ∈ K n×n bereits die Existenz einer Matrix B mit AB = En (oder BA = En ) ausreicht, um die Invertierbarkeit von A zu zeigen. Die Inverse ist dann automatisch dieses B. Wir hatten zunächst Rang und Kern einer Matrix mit Hilfe einer konkreten linearen Abbildung mit Darstellungsmatrix A (nämlich ϕ : A : x 7→ A · x) definiert. Der folgende Satz zeigt, dass wir genauso gut jede andere lineare Abbildung mit Darstellungsmatrix A hätten verwenden können. Satz 4.10. Die lineare Abbildung ϕ : V → W habe bezüglich Basen B und C die Darstellungsmatrix A ∈ K m×n . Dann gelten: a) Es gilt rg(A) = rg(ϕ) und def(A) = def(ϕ). b) Ist zusätzlich dim(V ) = dim(W ), dann ist ϕ genau dann ein Isomorphismus, wenn A invertierbar ist. Beweis: Zu a): Der Rang von A war definiert als der Rang von ϕA : K n → K m , x 7→ Ax. −1 Da nach Satz 4.5 gilt ϕ = Φ−1 C ◦ ϕA ◦ ΦB , mit den Isomorphismen ΦC und ΦB , folgt wegen Satz 3.7: rg(ϕ) = rg(ϕA ), also gilt die behauptete Ranggleichung. Die Aussage über die Kerne folgt nun direkt aus der Dimensionsformel für lineare Abbildungen. Zu b): Ist dim(V ) = dim(W ), dann ist ϕ genau dann Isomorphismus, wenn ker(ϕ) = {0}, was mit a) äquivalent zu ker(A) = {0} ist. Dies ist wiederum mit Satz 4.9 äquivalent zur Invertierbarkeit von A. Bemerkung: Man beachte den subtilen, aber entscheidenden Fortschritt von Satz 4.9 zu Satz 4.10b): Im ersteren wird die Invertierbarkeit einer quadratischen Matrix A mit einer ganz bestimmten linearen Abbildung (nämlich ϕ : x 7→ A · x) in Verbindung gebracht; im letzteren dagegen ist ϕ irgendeine lineare Abbildung mit Darstellungsmatrix A. KAPITEL 4. MATRIZEN 4.4 50 Basiswechsel Die Darstellungsmatrix einer linearen Abbildung ist immer nur im Bezug auf fest gewählte Basen im Urbild- und Bild-Raum definiert. Tatsächlich liefern verschiedene Wahlen von Basen im Allgemeinen verschiedene Darstellungsmatrizen für ein und die selbe lineare Abbildung ϕ : V → W . In Anwendungen ist es oft wichtig, aus der Darstellungsmatrix MB,C (ϕ) bezüglich eines Basenpaares (B, C) die Darstellungsmatrix MB 0 ,C 0 (ϕ) bezüglich eines anderen Basenpaares zu berechnen. Wegen ϕ = idW ◦ ϕ ◦ idV ist MB 0 ,C 0 (ϕ) = MC,C 0 (idW ) · MB,C (ϕ) · MB 0 ,B (idV ). Wir müssen also die Darstellungsmatrizen MB 0 ,B (id) der Identität bezüglich eines gegebenen Basenpaares ausrechnen. Man nennt so eine Matrix Basiswechselmatrix. Basen B0 V Re V ΦB 0 Kn B V idV ΦB C0 C W ϕ ΦC Kn Km idW W ΦC 0 Km Ein wichtiger Spezialfall ergibt sich für Endomorphismen ϕ : V → V . Hier ist es oft sinnvoll, die Basis im Bild- und im Urbildraum gleich zu wählen, also B = C und B 0 = C 0 . Wir erhalten dann MB 0 ,B 0 (ϕ) = MB,B 0 (idV )·MB,B (ϕ)·MB 0 ,B (idV ) = T −1 ·MB,B (ϕ)·T, mit T := MB 0 ,B (idV ). Die letzte Gleichung gilt wegen En = MB,B (idV ) = MB,B (idV ◦ idV ) = MB,B 0 (idV ) · MB 0 ,B (idV ). Wie sehen die Basiswechselmatrizen MB 0 ,B (idV ) genau aus (für geordnete Basen B = (v1 , ..., vn ) und B 0 = (v10 , ...vn0 ))? Nach Definition der Darstellungsmatrix stehen in der j-ten Spalte gerade die Koordinaten von id(vj0 ) = vj0 bezüglich der PnBasis B. Wir müssen 0 also die Koeffizienten der eindeutigen Basisdarstellung vj = i=1 αi,j vi finden. Das führt auf das Lösen eines linearen Gleichungssystems. Natürlich sind Basiswechselmatrizen invertierbar (als Darstellungsmatrizen des Isomorphismus id, vgl. Satz 4.10).Umgekehrt ist auch jede invertierbare Matrix eine Basiswechselmatrix (Beweis: Übung). 4.5 Äquivalenz von Matrizen Definition 4.3 (Äquivalenz). Zwei Matrizen A, B ∈ K m×n heißen äquivalent, wenn es invertierbare Matrizen P ∈ GLm (K) und Q ∈ GLn (K) gibt mit B = P AQ. KAPITEL 4. MATRIZEN 51 Man rechnet sofort nach: Lemma 4.11. Äquivalenz von Matrizen ist eine Äquivalenzrelation auf K m×n . Da invertierbare Matrizen nichts anderes als Basiswechselmatrizen sind, erhalten wir: Satz 4.12. Zwei Matrizen A, B ∈ K m×n sind genau dann äquivalent, wenn es eine lineare Abbildung ϕ gibt, die sowohl A als auch B als Darstellungsmatrizen (bezüglich verschiedener Basen im Bild und im Urbildraum) besitzt. Beweis: Sind A und B Darstellungsmatrizen der linearen Abbildung ϕ, dann ist nach dem vorigen Abschnitt B = P AQ mit geeigneten Basiswechselmatrizen P ∈ K m×m , Q ∈ K n×n , und wie schon gesehen, sind diese Basiswechselmatrizen invertierbar. Sei umgekehrt B = P AQ mit P ∈ GLm (K), Q ∈ GLn (K). Sei ϕ : K n → K m , x 7→ Ax. Bekanntlich hat ϕ bzgl. der Standardbasen E des K n und E 0 des K m die Darstellungsmatrix A. Nach Lemma 4.8b) und Satz 4.9 bilden die Spalten einer invertierbaren Matrix M ∈ GLn (K) eine Basis des K n . Sei also B die Basis des K n , die aus den Spalten von Q besteht und C die Basis des K m , die aus den Spalten von P −1 besteht. Dann ist Q = MB,E (id) und P = ME 0 ,C (Übung!), und somit ist B = P AQ = MB,C (ϕ) Darstellungsmatrix von ϕ. Wir wollen untersuchen, woran man erkennen kann, ob zwei gegebene Matrizen äquivalent sind. Die überraschende Antwort lautet, dass man nur den Rang der Matrizen zu kennen braucht: Haben beide den gleichen Rang, so sind sie äquivalent, sonst nicht. Insbesondere gibt es genau min{m, n} + 1 Äquivalenzklassen (für jeden Rang von 0 bis zum maximalen Rang genau eine). Lemma 4.13. Jede lineare Abbildung ϕ : V → W zwischen endlich-dimensionalen Er 0 , mit r ≥ 0. Vektorräumen besitzt eine Darstellungsmatrix der Blockgestalt 0 0 Hierbei ist r = rg(ϕ). Beweis: Sei n := dim(V ). Nach Dimensionsformel hat ker(ϕ) die Dimension n − r. Wähle eine Basis B := {v1 , ..., vn } von V , welche eine Basis {vr+1 , ..., vn } von ker(ϕ) enthält. Die Bilder der vi erzeugen den Raum im(ϕ); diese Bilder sind ϕ(v1 ), ..., ϕ(vr ), 0, ..., 0. Da das Bild Dimension r hat, müssen die ersten r dieser Vektoren linear unabhängig sein. Setze wi := ϕ(vi ) (für i = 1, ..., r) und ergänze die linear unabhängige Menge {w1 , ..., wr } zu einer Basis C := {w1 , ..., wm } von W . Dann hat die Darstellungsmatrix MB,C (ϕ) genau die geforderte Form. Insbesondere sehen wir, dass jede Matrix A äquivalent zu einer Matrix der Form M := Er 0 ist. Andererseits ist hierbei r eindeutig bestimmt, denn r ist gerade der Rang 0 0 KAPITEL 4. MATRIZEN 52 von M , und äquivalente Matrizen haben wegen Satz 4.7 den gleichen Rang! Wir erhalten damit: Satz 4.14. Zwei Matrizen A, B ∈ K m×n sind genau dann äquivalent, wenn sie den gleichen Rang haben. Beweis: Sind die Ränge gleich, dann sind beide Matrizen äquivalent zur selben Matrix Er 0 , und damit auch äquivalent zueinander. Sind die Ränge dagegen verschieden, 0 0 dann haben wir schon gesehen, dass die beiden Matrizen nicht äquivalent sein können. Kapitel 5 Lineare Gleichungssysteme 5.1 Grundlagen Definition 5.1 (Lineares Gleichungssystem). Sei K ein Körper, m, n ∈ N, ai,j ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n, und bi ∈ K für 1 ≤ i ≤ m. Ein n-Tupel von Gleichungen der Form a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1 , a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2 , ··· am,1 x1 + am,2 x2 + ... + am,n xn = bm mit Unbekannten x1 , ..., xn heißt ein lineares Gleichungssystem. Ist b1 = ... = bm = 0, dann spricht man von einem homogenen linearen Gleichungssystem, ansonsten von einem inhomogenen. Die Definition der Matrixmultiplikation ermöglicht sofort eine kompakte Schreibweise für lineare Gleichungssysteme. x1 Definiert man nämlich A ∈ K m×n durch A[i, j] := ai,j und setzt x := ... ∈ K n xn b1 sowie b := ... ∈ K m , dann ist x genau dann eine Lösung des obigen linearen Glebm ichungssystems, wenn Ax = b gilt. Diese Matrixschreibweise eines linearen Gleichungssystems ist insbesondere auch für die Berechnung von Lösungen deutlich praktischer als die Langschreibweise. 53 KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 54 Lineare Gleichungssysteme sind uns schon in den vorigen Kapiteln mehrmals implizit begegnet, z.B. bei folgenden Fragestellungen: • Darstellung eines Vektors als Linearkombination über eine gegebenen Basis. • Test auf lineare Unabhängigkeit. • Bestimmung einer Basis des Schnittes zweier Unterräume. • Bestimmung der Darstellungsmatrix einer linearen Abbildung bezüglich gegebener Basen. • Berechnung einer Basiswechselmatrix. Bemerkungen: a) Ein lineares Gleichungssystem Ax = b muss keine Lösung besitzen. Das sieht man schon an dem trivialen 1 × 1-Beispiel 0 · x = 1. Andererseits kann es unendlich viele Lösungen besitzen; z.B. ist jeder Vektor der Form x = ( xx11 ) mit x1 ∈ R eine −1 Lösung des reellen Gleichungssystems 21 −2 · x = ( 00 ). b) Wie eigentlich immer in der linearen Algebra ist der Körper K nicht zu vernachlässigen: Z.B. hat das lineare Gleichungssystem 1 −1 · x = ( 0 ) 1 1 1 1/2 über dem Körper K = R die Lösung x = 1/2 , über dem Körper Z/2Z(= {0, 1}) aber keine Lösung (beachte, dass dort 1 = −1 gilt). c) Die Lösungsmenge eines homogenen LGS Ax = 0 ist gerade ker(A) (nach Definition!). 5.2 Lösbarkeit und Struktur der Lösungsmenge Bevor wir untersuchen, wie man die Lösungsmenge eines allgemeinen linearen Gleichungssystems algorithmisch bestimmt, einige Bemerkungen über die Struktur der Lösungsmenge: Satz 5.1. Sei A ∈ K m×n , b ∈ K m . Falls das lineare Gleichungssystem Ax = b eine Lösung besitzt, dann ist die Lösungsmenge von der Form x0 +ker(A)(= {x0 +u | u ∈ ker(A)}), wobei x0 ∈ K n irgendeine Lösung des Systems ist. Insbesondere ist die Lösungsmenge also ein affiner Unterraum. Beweis: Sei x1 eine Lösung. Dann ist A(x1 − x0 ) = Ax1 − Ax0 = b − b = 0. Also x1 − x0 ∈ ker(A), was äquivalent zu x1 ∈ x0 + ker(A) ist. Umgekehrt ist jedes Element der Form x0 + u, u ∈ ker(A), auch wirklich eine Lösung, denn A(x0 + u) = Ax0 + Au = b + 0 = b. KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 55 Bemerkungen: a) Ist K ein unendlicher Körper, dann folgt aus obigem Lemma sofort, dass ein lineares Gleichungssystem über K nur entweder keine, genau eine oder unendlich viele Lösungen haben kann (denn die Mächtigkeit eines affinen Unterraums x0 + U ist gleich der des zugehörigen Unterraums U , und bereits eindimensionale Unterräume über einem unendlichen Körper sind unendlich). b) Das homogene LGS Ax = 0 ist immer lösbar (die Lösungsmenge ist ja gerade ker(A)), ein inhomogenes LGS dagegen nicht immer. Falls es aber lösbar ist, dann hat es nach obigem Lemma genauso viele Lösungen, wie das zugehörige homogene System. Definition 5.2 (Erweiterte Koeffizientenmatrix). Sei A ∈ K m×n und b ∈ K m . Die erweiterte Koeffizientenmatrix des Gleichungssystems Ax = b ist die Matrix aus K m×(n+1) , die aus A durch Anhängen des Spaltenvektors b entsteht. Sie wird als (A|b) geschrieben. Das folgende Kriterium ist, wie wir noch sehen werden, auch in der Praxis nützlich, um zu entscheiden, ob ein lineares Gleichungssystem lösbar ist. Satz 5.2. Seien A ∈ K m×n und b ∈ K m . Dann ist das LGS Ax = b genau dann lösbar, wenn rg(A) = rg(A|b) gilt. Ferner gilt im Falle der Lösbarkeit: Die Lösung ist genau dann eindeutig, wenn rg(A)(= rg(A|b)) = n. Beweis: Es gilt sowieso immer rg(A) ≤ rg(A|b), nach der Charakterisierung des Rangs als Dimension des Erzeugnisses der Spalten. Also gilt rg(A) = rg(A|b) genau dann, wenn b bereits im Erzeugnis der Spalten von A, also im Bild von x 7→ Ax, liegt. Aber b ∈ {Ax|x ∈ K n } ist offensichtlich äquivalent dazu, dass Ax = b lösbar ist. Im Falle der Lösbarkeit ist die Lösung nach dem vorigen Lemma genau dann eindeutig, wenn ker(A) = {0} gilt, was nach Dimensionsformel äquivalent zu rg(A) = dim(K n ) = n ist. 5.3 Elementare Umformungen Wir versuchen nun systematisch, lineare Gleichungssysteme zu lösen. Dazu werden wir nur die in der folgenden Definition beschriebenen Umformungen verwenden. Definition 5.3 (Elementare Zeilen- und Spaltenumformungen). Sei A ∈ K m×n eine Matrix. Bezeichne ai := (A[i, 1], ..., A[i, n]) die i-te Zeile von A. Eine elementare Zeilenumformung ist eine Operation von einer der drei folgenden Formen: Z1) Multiplikation einer Zeile mit einem Skalar λ 6= 0 (also Erzetzung der Zeile ai durch λai ). KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 56 Z2) Addition eines beliebigen Vielfachen einer Zeile zu einer anderen Zeile (also Ersetzung der Zeile ai durch ai + λaj , mit λ ∈ K und i 6= j). Z3) Vertauschung zweier Zeilen von A. Analog definiert man elementare Spaltenumformungen. Eine wichtige Erkenntnis ist, dass jede elementare Zeilen- oder Spaltenumformung durch Multiplikation von A mit einer geeigneten invertierbaren Matrix ausgedrückt werden kann. Definition 5.4 (Elementarmatrizen). Seien λ ∈ K und seien 1 ≤ i, j ≤ n. Falls i = j, dann sei zusätzlich λ 6= 0. Eine Elementarmatrix ist eine quadratische Matrix Ei,j (λ) ∈ K n×n , die an der Stelle [i, j] den Eintrag λ hat und an jeder anderen Stelle den gleichen Eintrag wie die Einheitsmatrix. Satz 5.3. a) Elementarmatrizen sind stets invertierbar und ihre Inversen sind wieder Elementarmatrizen. b) Jede elementare Zeilenumformung einer Matrix A ∈ K m×n kann durch Linksmultiplikation A 7→ P · A und jede elementare Spaltenumformung durch Rechtsmultiplikation A 7→ A · Q erreicht werden, mit geeigneten Produkten P und Q von Elementarmatrizen (P ∈ GLm (K) bzw. Q ∈ GLn (K)). c) Elementare Zeilen- und Spaltenumformungen ändern nicht den Rang einer Matrix. Beweis: Zu a): Die Elementarmatrizen der Form Ei,i (λ) sind Diagonalmatrizen und folglich invertierbar mit Inverser Ei,i (1/λ). Ist i 6= j, dann rechnet man nach, dass Ei,j (λ) · Ei,j (−λ) = En (der einzige Eintrag des Produkts, der vom entsprechenden Eintrag der Einheitsmatrix abweichen könnte, entsteht an der Stelle [i, j], also bei der Multiplikation “i-te Zeile mal j-te Spalte”; er ist aber gleich 1 · (−λ) + λ · 1 = 0). Zu b): Man rechne direkt nach, dass Linksmultiplikation von A mit Ei,i (λ) gerade die Zeilenumformung Z1 ergibt und Linksmultiplikation mit Ei,j (λ) (i 6= j) gerade die Zeilenumformung Z2. Analog für Spaltenumformungen und Rechtsmultiplikation. Die Umformungen Z3 lassen sich als Verkettung von Umformungen der Typen Z1 und Z2 und damit nach eben Gezeigtem durch Linksmultiplikation mit Produkten von Elementarmatrizen - schreiben, nämlich wie folgt: Multipliziere zuerst die i-te Zeile ai mit −1, und addiere dann zu ihr die j-te Zeile aj . Ziehe dann von der j-ten Zeile die neue i-te Zeile (also aj − ai ) ab. Damit lautet die neue j-te Zeile ai . Addiere noch diese zur i-ten Zeile (momentan aj − ai ); diese lautet dann aj . Damit folgt b). Zu c): Folgt direkt aus a), b) und Satz 4.7. KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 5.4 57 Der Gauß-Algorithmus Wir verwenden nun Zeilen- und Spaltenumformungen, um ein Gleichungssystem Ax = b auf eine besonders einfache Form zu bringen, an der die Lösung sehr leicht abzulesen ist. Dazu hilft zunächst folgende Bemerkung: Lemma 5.4. Sei A ∈ K m×n und b ∈ K m . Wendet man elementare Zeilenumformungen auf die erweiterte Koeffizientenmatrix (A|b) an, dann ändert sich die Lösungsmenge des zugehörigen Gleichungssystems nicht. Beweis: Es wurde bereits gezeigt, dass Zeilenumformungen der Linksmultiplikation mit geeigneten invertierbaren Matrizen entsprechen. Elementare Zeilenumformungen überführen also (A|b) nach (P A|P b), mit einer Matrix P ∈ GLm (K). Nun folgt aus Ax = b natürlich auch (P A)x = P b, und genauso umgekehrt (man kann ja von links wieder mit P −1 multiplizieren). Also ist die Lösungsmenge von Ax = b die gleiche wie die von P Ax = P b. Wir versuchen also, um ein Lineares Gleichungssystem zu lösen (oder auch um zunächst die Lösbarkeit zu entscheiden), die erweiterte Matrix (A|b) mit Zeilenumformungen auf eine möglichst einfache Form zu bringen. 1 Eine solche einfache Form ist die sogenannte Zeilenstufenform. Definition 5.5 (Zeilenstufenform, reduzierte Zeilenstufenform). Eine Matrix A ∈ K m×n ist in Zeilenstufenform, wenn es ein 0 ≤ r ≤ m so dass genau die Zeilen Nummer r + 1 bis m von A Nullzeilen sind, und für alle 1 ≤ i ≤ r folgendes gilt: Ist ki der minimale Index mit A[i, ki ] 6= 0, dann gilt A[j, k] = 0 für alle i < j ≤ n und alle 1 ≤ k ≤ ki . Die Elemente A[i, ki ] (1 ≤ i ≤ r) heißen Pivotelemente. (Anschaulich gesprochen müssen also alle Elemente senkrecht unterhalb oder links unterhalb eines Pivotelements gleich Null sein.) Falls alle Pivotelemente A[i, ki ] gleich 1 sind und alle Einträge A[l, ki ] mit l < i (also alle Einträge senkrecht über den Pivotelementen) gleich 0 sind, sagt man, dass A in reduzierter Zeilenstufenform ist. Beispiel: 1 0 −1 2 00 2 1 00 0 3 00 0 0 ist in Zeilenstufenform, 1 2 0 0 0010 0001 ist in reduzierter Zeilenstufenform. Der Rang einer Matrix A in Zeilenstufenform ist besonders leicht abzulesen. Lemma 5.5. Sei A ∈ K m×n in Zeilenstufenform und b ∈ K m . Dann gelten: a) Der Rang von A ist genau die Anzahl r der Nicht-Nullzeilen von A. 1 Bei Spaltenumformungen ist dagegen Vorsicht angebracht: Rechtsmultiplikation mit einer invertierbaren Matrix Q ∈ GLn (K) ändert sehr wohl die Lösungsmenge, denn aus Ax = b folgt nicht AQx = bQ! KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 58 b) Das LGS Ax = b ist genau dann lösbar, wenn br+1 = ... = bm = 0. Beweis: A hat den Rang r, denn das Bild von A ist gerade das Erzeugnis der ersten r Standardbasisvektoren e1 , ..., er von K m . Damit folgt a). Genau für br+1 = ... = bm = 0 liegt b auch in diesem Bild, d.h. (A|b) hat den selben Rang r. Damit folgt b) aus Satz 5.2. Wir geben nun einen Algorithmus an, der eine beliebige Matrix durch elementare Zeilenumformungen in reduzierte Zeilenstufenform bringt. Anschließend untersuchen wir, wie die Lösungsmenge eines linearen Gleichungssystems Ax = b aussieht, bei dem die Matrix A in Zeilenstufenform ist. Gauß-Algorithmus2 1.Schritt: Falls A die Nullmatrix ist, dann brich ab (diese ist schon in Zeilenstufenform). Sonst: 2.Schritt: Es gibt ein j ∈ {1, ..., n} so, dass die j-te Spalte von A keine Nullspalte ist. Wähle j minimal mit dieser Eigenschaft. Durch maximal eine Zeilenvertauschung können wir erreichen, dass der erste Eintrag der j-ten Spalte ungleich 0 ist, also A[1, j] 6= 0. 3.Schritt: Als nächstes subtrahieren wir jeweils von der i-ten Zeile das A[i, j]/A[1, j]fache der ersten Zeile, für alle i = 2, ..., m. Dadurch werden alle Einträge A[i, j] zu 0 gemacht. 4.Schritt: Lasse von nun an die erste Zeile unverändert, und betrachte die Teilmatrix, die aus der nun erhaltenen Matrix entsteht, wenn man die erste Zeile streicht. Beginne mit dieser Matrix (statt mit A) wieder bei Schritt 1. Beachte, dass dieser Algorithmus nach endlich vielen Durchläufen abbricht, da in jedem neuen Durchlauf eine Matrix mit einer Zeile weniger als zuvor betrachtet wird. Weiter wird in jedem Durchlauf nur eine bestimmte Spalte geändert, sagen wir die jk -te Spalte im k-ten Durchlauf. Da nach diesem Durchlauf in der Restmatrix, mit der weitergemacht wird, alle Spalten bis einschließlich zur jk -ten Nullspalten sind, werden danach nur noch Spalten weiter rechts bearbeitet. Es gilt also j1 < j2 < ... und insbesondere auch immer jk > k. Satz 5.6. Der Gauß-Algorithmus überführt eine Matrix A (in endlich vielen Schritten) in Zeilenstufenform. Beweis: Wir behaupten, dass nach dem k-ten Durchlauf die Teilmatrix, die aus den ersten jk Spalten besteht, in Zeilenstufenform ist (beim Abbruch des Algorithmus ist dann also die ganze Matrix in Zeilenstufenform). Das sieht man induktiv. Wir können 2 Carl Friedrich Gauß (1777-1855) KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 59 dazu annehmen, dass die Teilmatrix der ersten jk−1 Spalten bereits in Zeilenstufenform ist (für k−1 = 0 setze j0 := 0), d.h. die Pivotelemente der Zeilen 1 bis k−1 erfüllen bereits die Bedingung aus Definition 5.5. Da diese Bedingung nur von Elementen maximal der jk−1 -ten Spalte abhängt, wird daran nun auch nichts mehr geändert. Ferner wird nun im k-ten Durchlauf in Zeile k ein Pivotelement ungleich 0 an der Stelle [k, jk ] erzeugt. Alle Elemente links unterhalb dieses Elements sind bereits = 0 (denn so wurde der Spaltenindex jk ja ausgewählt); die Elemente senkrecht unterhalb werden aber nun durch Schritt 3 ebenfalls zu 0 gemacht. Damit ist auch für das Element an der Stelle [k, jk ] die Pivotbedingung von Definition 5.5 erfüllt, d.h. die Matrix bis einschließlich zur jk -ten Spalte ist nun in Zeilenstufenform. Das war zu zeigen. Beispiel: 1 Wir führen den Gauß-Algorithmus einmal am Beispiel der Matrix A = 2 R3×4 0 −1 2 0 2 1 3 −2 1 1 ∈ durch. Um Platz zu sparen führen wir Zeilenoperationen, die sich nicht gegenseitig beeinflussen, jeweils in einem Schritt durch. 1 0 −1 2 z2 +−2z1 1 0 −1 2 1 0 −1 2 −−−−−→ z2 ↔z3 2 0 2 1 z3 +−3z1 0 0 4 −3 −− −−→ 0 −2 4 −5 − − − − − → 3 −2 1 1 0 −2 4 −5 0 0 4 −3 Lemma 5.5 bedeutet, dass man mit dem Gauß-Algorithmus sehr effektiv den Rang einer Matrix bestimmen kann, und auch die Frage der Lösbarkeit eines linearen Gleichungssystems entscheiden kann. Um nun ein LGS explizit zu lösen, bringen wir die Matrix A weiter auf reduzierte Zeilenstufenform. Das geht mit folgender Erweiterung des GaußAlgorithmus: Gauß-Jordan-Algorithmus3 1.Schritt: Bringe die Matrix A mit dem Gauß-Algorithmus in Zeilenstufenform. r sei die Anzahl der Nicht-Nullzeilen. 2.Schritt:4 Für i = 1, ..., r: Tausche die Spalte, in der das Pivotelement der i-ten Zeile steht, mit der i-ten Spalte. Danach stehen die Pivotelemente also an den Stellen [1, 1], [2, 2],..., [r, r], und die Matrix ist nach wie vor in Zeilenstufenform (denn die Pivotelemente wurden höchstens nach links verschoben). 3.Schritt: Teile jede der ersten r Zeilen durch ihr Pivotelement. Nun ist die Matrix in Zeilenstufenform mit Pivoteinträgen = 1 an den Stellen [1, 1],..., [r, r]. 3 Wilhelm Jordan (1842-1899). Fälschlicherweise wird auch immer wieder der wesentlich bedeutendere französische Mathematiker Camille Jordan (1838-1922), der uns im zweiten Semester noch begegnen wird, mit diesem Algorithmus in Verbindung gebracht. 4 Dieser Schritt ist nicht nötig um reduzierte Zeilenstufenform zu erreichen. Man braucht ihn nur, wenn man die besonders angenehm hinschreibbare Form aus Satz 5.7b) bekommen will. Insbesondere ist dieser Schritt der einzige, der Spaltenvertauschungen benötigt. Reduzierte Zeilenstufenform erhält man also auch alleine durch Zeilenumformungen. KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 60 4.Schritt: Der Reihe nach für j = r, ..., 2 (absteigend): Für alle 1 ≤ i < j subtrahiere das A[i, j]-fache der j-ten Zeile von der i-ten Zeile. (Damit werden alle Einträge oberhalb der Pivotelemente zu 0 gemacht, und die Zeilenstufenform bleibt weiter erhalten.) Beispiel: Wir führen das oben begonnene Beispiel fort und bringen die Matrix 0 −1 2 0 −2 4 −5 0 0 4 −3 1 weiter auf reduzierte Zeilenstufenform: (−1/2)×z2 1 0 −1 2 1 0 −1 2 1 0 0 5/4 z1 +1z3 0 −2 4 −5 −−−−−−→ 0 1 −2 5/2 −−−−→ 0 1 0 1 z2 +2z3 (1/4)×z3 − − − − → 0 0 4 −3 −−−−−→ 0 0 1 −3/4 0 0 1 −3/4 5.5 Bestimmung der Lösungsmenge linearer Gleichungssysteme Wir fassen unsere bisherigen Ergebnisse kurz zusammen: Satz 5.7. Sei A ∈ K m×n . Dann gelten: a) A lässt sich durch elementare Zeilenumformungen in (reduzierte) Zeilenstufenform bringen. b) A lässt sich durch sowie Spaltenvertauschungen in eine Matrix Zeilenumformungen E ∗ r umwandeln. der Form A0 = 0 0 c) A ∈ K m×n lässt sich durch elementare Zeilen- und Spaltenumformungen in eine E 0 r umwandeln. Dabei ist r der Rang von A. Matrix der Form A0 = 0 0 Beweis: a) und b) folgen aus der bereits gezeigten Korrektheit des Gauß-Algorithmus bzw. des Gauß-Jordan-Algorithmus. Wir müssen nun nur noch die Matrix aus b) mit Spaltenumformungen in die Form aus c) überführen. Das geht einfach folgendermaßen: Subtrahiere der Reihe nach, für i = r, ..., 1 (absteigend), jeweils ein geeignetes Vielfaches der i-ten Spalte von allen Spalten vom Index > r, um alle Einträge A[i, j], j > r auf Null zu bringen. Das überführt die Matrix in eine der Form E0r 00 . Bemerkungen: Teil c) von Satz 5.7 ist eher theoretisch relevant. Er zeigt insbesondere, dass jede Matrix durch Links- und Rechtsmultiplikation mit geeigneten invertierbaren Matrizen auf eine besonders einfache Form gebracht werden kann. Das folgt in dieser Form übrigens auch schon aus den Beobachtungen im Kapitel über Darstellungsmatrizen (Basiswechsel!). KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 61 Fürs praktische Lösen von Gleichungssystemen sind dagegen a) und b) nützlicher. Man beachte, dass Spaltentausch einer Umbenennung der Variablen x1 , ..., xn entspricht. Vertauscht man also die Spalten i und j einer Matrix und erhält für die umgeformte Matrix den Lösungsvektor (x1 , ..., xn ), dann hatte das ursprüngliche System die Lösung j−ter Eintrag (x1 , ..., xj |{z} , ..., z}|{ xi , ..., xn ). Falls nacheinander mehrere Spaltenvertauschun- i−ter Eintrag gen angewendet wurden, muss man diese entsprechend im Lösungsvektor in umgekehrter Reihenfolge rückgängig machen. Wir bestimmen nun noch die Lösungsmenge eines linearen Gleichungssystems mit Matrix in reduzierter Zeilenstufenform. Wir nehmen dabei der Einfachheit halber an, dass die Er ∗ Pivotelemente auf der Hauptdiagonalen stehen, also A = , vgl. Satz 5.7b).5 0 0 Ferner nehmen wir an, dass das LGS Ax = b überhaupt lösbar ist, also br+1 = ... = bn = 0, siehe Lemma 5.5. In ausgeschriebener Form haben wir also das Gleichungssystem n X x1 + a1,j xj = b1 j=r+1 n X x2 + a2,j xj = b2 j=r+1 ... n X xr + ar,j xj = br . j=r+1 Zunächst sieht man sehr leicht eine spezielle Lösung eines solchen Systems: m×n in reduzierter Zeilenstufenform von der Satz 5.8 (Spezielle Lösung). Sei A ∈ K ! b1 Er ∗ .. , und sei b = ∈ K m . Das LGS Ax = b sei lösbar. Gestalt A = . 0 0 bm v1 Dann ist der Vektor v := ... , mit vi = bi für alle i = 1, ..., r und vr+1 = ... = vn = 0, eine Lösung. vn Um ausgehend von der speziellen Lösung die gesamte Lösungsmenge zu erhalten, müssen wir den Kern von A bestimmen, also die Lösungsmenge von x1 + n X a1,j xj = 0 j=r+1 5 Natürlich lassen sich die folgenden Ergebnisse auch für den Fall beliebiger reduzierter Zeilenstufenform anpassen. KAPITEL 5. LINEARE GLEICHUNGSSYSTEME x2 + n X 62 a2,j xj = 0 j=r+1 ... xr + n X ar,j xj = 0. j=r+1 Auch das ist nicht mehr schwer: m×n in reduzierter Zeilenstufenform Satz 5.9 (Kern und allgemeine Lösung). Sei A ∈ K Er ∗ von der Gestalt A = . Dann bilden die folgenden n − r Vektoren eine Basis 0 0 von ker(A): (−A[1, r + 1], ..., −A[r, r + 1], 1, 0, ..., 0)t , ..., (−A[1, n], ..., −A[r, n], 0, ..., 0, 1)t . Beweis: Dass diese Vektoren im Kern liegen, prüft man sofort nach. Ebenso ist die lineare Unabhängigkeit klar. Da rg(A) = r, gilt dim(ker(A)) = n − r, also ist das Erzeugnis der angegebenen Vektoren schon ganz ker(A). Beispiel: 1 0 −1 2 1 Wir lösen das lineare Gleichungssystem 2 0 2 1 x = 0 (über dem Körper R). 0 |{z} | 3 −2{z1 1 } =:b =:A Dazu müssen wir (A|b) mit dem Gauß-Jordan-Algorithmus so in (A0 |b0 ) umformen, dass A0 in reduzierter Zeilenstufenform ist. Für die Matrix A haben wir das in den vorigen Abschnitten schon gemacht, und man sieht leicht, dass sich, wenn man denVektor b noch als letzte Spalte angehängt hätte, die Form (A0 |b0 ) = 1 0 0 5/4 | 1/2 0 1 0 1 | 1/2 0 0 1 −3/4 | −1/2 ergeben würde. Da nur Zeilenumformungen verwendet wurden, wissen wir, dass A0 x = b0 die gleiche Lösungsmenge hat wie Ax = b (siehe Lemma 5.4). ! Nun liefert Satz 5.8 die spezielle Lösung x0 := ! h −5/4 −1 3/4 1 1/2 1/2 −1/2 0 , und Satz 5.9 liefert ker(A) = i. Die Gesamtlösung ist dann mit Satz 5.1 gleich x0 + ker(A) = { 1/2−5/4λ 1/2−λ −1/2+3/4λ λ ! | λ ∈ R} Bemerkung: Beim Lösen von homogenen linearen Gleichungssystemen Ax = 0 muss man den Nullvektor nicht an die Matrix A anhängen, da Zeilenumformungen diesen sowieso unverändert lassen. KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 63 Wir zeigen noch einige interessante theoretische Konsequenzen von Satz 5.7c). Satz 5.10. Jede invertierbare quadratische Matrix ist ein Produkt von Elementarmatrizen. D.h., die Menge der n×n-Elementarmatrizen erzeugt die lineare Gruppe GLn (K). Beweis: Ist A ∈ K n×n invertierbar, dann ist rg(A) = n. Satz 5.7 c) sagt aus, dass es Produkte P und Q von n × n-Elementarmatrizen gibt, sodass P AQ = En . Es folgt A = P −1 Q−1 , also ist A ein Produkt von Inversen von Elementarmatrizen. Da diese Inversen wieder Elementarmatrizen sind, folgt die Behauptung. 5.6 Die Transponierte einer Matrix Definition 5.6 (Transponierte Matrix). Ist A ∈ K m×n , dann nennt man die Matrix At ∈ K n×m , definiert durch At [i, j] := A[j, i], die Transponierte von A. Satz 5.7c) liefert: Satz 5.11. Für A ∈ K m×n gilt stets rg(A) = rg(At ). Da der Rang von At gerade die Dimension des Erzeugnisses der Zeilen von A (=Spalten von At ) ist, wird die obige Aussage auch oft in der Form “Zeilenrang = Spaltenrang” formuliert. Bevor wir Satz 5.11 beweisen, brauchen wir noch einige (auch sonst nützliche) Aussagen über die Transponierte einer Matrix: Lemma 5.12. a) Seien A ∈ K m×n , B ∈ K n×r . Dann gilt (AB)t = B t At . b) Sei A ∈ GLn (K), dann ist auch At invertierbar und es gilt: (At )−1 = (A−1 )t . Beweis: a) rechnet man sofort an der Definition des Matrixproduktes nach. b): Nach a) ist En = Ent = (AA−1 )t = (A−1 )t At , also At invertierbar, mit der Inversen (A−1 )t . Beweis von Satz 5.11:Nach Satz 5.7c) existieren invertierbare Matrizen P ∈ GLm (K), Q ∈ Er 0 GLn (K) mit P AQ = =: A0 . Also A = P −1 A0 Q−1 . 0 0 Offensichtlich ist rg(A0 ) = rg((A0 )t ) = r. Weiter wissen wir bereits, dass Multiplikation mit invertierbaren Matrizen den Rang nicht ändert. Also folgt 5.12 rg(At ) = rg((Qt )−1 A0t (P t )−1 ) = rg(A0t ) = rg(A0 ) = rg(P −1 A0 Q−1 ) = rg(A). KAPITEL 5. LINEARE GLEICHUNGSSYSTEME 5.7 64 Bestimmung der Inversen einer Matrix In Anwendungen muss man oft mehrere Gleichungssysteme A · x1 = b1 ,..., A · xr = br (xi ∈ K n , bi ∈ K m ) mit der gleichen Koeffizientenmatrix A ∈ K m×n lösen. Dazu muss man den Gaußalgorithmus nicht r-mal in Folge anwenden, sondern nur einmal. Man bilde eine Matrix B ∈ K m×r aus den Spalten b1 ,..., br und führe den Gaußalgorithmus mit der erweiterten Matrix (A|B) - statt wie bisher (A|b) - durch. Das ist nichts anderes, als die Matrixgleichung A · X = B zu lösen (mit Lösungen X ∈ K n×r ), wobei jede Spalte von X eine Lösung eines linearen Gleichungssystems A · xi = bi ist. Ein typischer Fall einer solchen Matrixgleichung ergibt sich beim Invertieren einer gegebenen quadratischen Matrix A ∈ K n×n , denn hier soll gerade die Matrixgleichung A · X = En gelöst werden. Wir beginnen also mit der erweiterten Matrix (A|En ) und bringen nun A mit dem Gauß-Jordan-Algorithmus (nur mit Zeilenumformungen!) auf reduzierte Zeilenstufenform. Falls die Matrix invertierbar ist, dann ist diese reduzierte Zeilenstufenform gerade die Einheitsmatrix En (falls sie nicht invertierbar ist, dann erhält man eine Zeilenstufenform mit Nullzeilen; man kann also den Algorithmus durchführen, auch ohne vorher über die Invertierbarkeit Bescheid zu wissen). Sei also (En |B) das Endergebnis des Algorithmus. Dann ist AX = En äquivalent zu En X = B. Also ist B = A−1 die gesuchte Inverse. Kapitel 6 Determinanten Determinanten sind ein nützliches Hilfsmittel um gewisse Eigenschaften von quadratischen Matrizen bzw. von Endomorphismen zu untersuchen. Um sie sauber zu definieren, brauchen wir zunächst noch einen Exkurs in die Gruppentheorie, genauer die Theorie der Permutationen. 6.1 Permutationen Wir erinnern noch einmal daran, dass eine bijektive Selbstabbildung σ : M → M einer Menge M als eine Permutation von M bezeichnet wird. Die Menge aller Permutationen von M bezeichnen wir mit Sym(M ), oder im Fall M = {1, ..., n} auch mit Sn . Mit Hintereinanderausführung von Abbildungen als Verknüpfung wird Sym(M ) eine Gruppe. Rein kombinatorisch sieht man, dass die Gruppe Sn genau n! = 1 · 2 · · · n Elemente hat. Wie kann man Permutationen σ ∈ Sn beschreiben? Natürlich unter anderem einfach durch Angabe aller Bilder σ(1), ..., σ(n). Das ist aber oft nicht geeignet um daran Eigenschaften von σ direkt abzulesen. Wir wollen eine besonders praktische Notationsweise für Permutationen aus Sn einführen, die sogenannte Zykelnotation. Um zu sehen, dass diese wohldefiniert ist, brauchen wir ein Hilfsergebnis. Lemma 6.1. Sei n ∈ N und σ ∈ Sn . Dann bilden die Mengen Sα := {α, σ(α), σ 2 (α), ...}, mit α ∈ {1, .., n}, eine Partition von {1, ..., n}. Weiter gilt: Ist d ∈ N minimal mit σ d (α) = α, dann besteht Sα genau aus den d verschiedenen Elementen α, σ(α),..., σ d−1 (α). Beweis: Beachte zunächst, dass σ ∈ Sn wegen |Sn | < ∞ endliche Ordnung hat. Bezeichnet D diese Ordnung, dann ist σ D (α) = α (für alle α ∈ {1, ..., n}). Insbesondere existiert für ein gegebenes α auch ein minimales d wie angegeben. Wir zeigen nun, dass durch α ∼ β :⇔ ∃r∈N0 : σ r (α) = β eine Äquivalenzrelation auf {1, ..., n} gegeben ist. Damit folgt der erste Teil der Behauptung, da die Sα gerade die zugehörigen Äquivalenzklassen 65 KAPITEL 6. DETERMINANTEN 66 sind. Die Reflexivität ist klar, auch die Transitivität folgt leicht, denn aus α ∼ β und β ∼ γ folgt γ = σ r (β) = σ r (σ s (α)) = σ r+s (α) für geeignete r, s ∈ N0 , also α ∼ γ. Schließlich ist die Relation auch symmetrisch, denn ist σ r (α) = β, dann gilt für jedes Vielfache N der Ordnung von σ: σ N −r (β) = σ N (σ −r (β)) = σ N (α) = α. Wähle nur das Vielfache N hinreichend groß, so dass N − r ≥ 0, dann folgt β ∼ α. Sei nun d ∈ N minimal mit σ d (α) = α, dann ist wegen σ k·d+j (α) = σ j (α) (für alle k ∈ N, j = 0, ..., d − 1) schon Sα = {α, σ(α), ..., σ d−1 (α)}; und diese d Elemente sind auch verschieden, denn aus σ i (α) = σ j (α) für 0 ≤ i < j ≤ d − 1 würde folgen α = σ 0 (α) = σ j−i (α), mit 0 < j − i < d - ein Widerspruch zur Definition von d. Definition 6.1 ((Disjunkte) Zykelnotation, Zykellänge). Seien n ∈ N und σ ∈ Sn . Wir schreiben die disjunkten Sα aus obigem Lemma in der Form (α σ(α)...σ d−1 (α)) hintereinander. Dies ist die (disjunkte) Zykelnotation für σ ∈ Sn . (α σ(α)...σ d−1 (α)) heißt ein Zykel. Die Anzahl d der Elemente eines Zykels heißt die Länge dieses Zykels. Zykel der Länge 1 lässt man oft auch weg (es sei denn, es gibt nur solche Zykel, was bei σ = id der Fall ist; hier sollte man wenigstens einen Zykel stehen lassen). Beispiel: Die Zykelnotation σ = (1, 4, 5)(2, 3) für σ ∈ S5 bedeutet, dass σ(1) = 4, σ(4) = 5, σ(5) = 1 und ebenso σ(2) = 3, σ(3) = 2 gilt. Man kann also aus der Zykelnotation recht bequem entnehmen, was die entsprechende Permutation mit den Zahlen 1, ..., n tut. Man beachte, dass in der Zykelnotation die Reihenfolge der Zykel nicht eindeutig ist. Auch ist das erste Element eines Zykels nicht eindeutig. Die Zykelschreibweise (2, 3)(4, 5, 1) bezeichnet also genau dasselbe Element σ ∈ S5 . Bemerkung: Wir wissen schon (aus den Übungen), dass für n ≥ 3 die Gruppe Sn nicht abelsch ist. Permutationen kommutieren also im Allgemeinen nicht. Allerdings gilt immerhin: Lemma 6.2. Seien σ, τ ∈ Sn disjunkte Zykel.1 Dann gilt σ ◦ τ = τ ◦ σ. Beweis: Sei α ∈ {1, ..., n}. Wir müssen zeigen (στ )(α) = (τ σ)(α). • 1.Fall: τ (α) 6= α. Da dann sowohl α als auch τ (α) im Zykel τ vorkommen, müssen beide von σ fixiert werden. Also gilt (στ )(α) = σ(τ (α)) = τ (α) = τ (σ(α)). 1 Das soll heißen, dass kein Element α ∈ {1, ..., n} sowohl im Zykel σ als auch im Zykel τ vorkommt. KAPITEL 6. DETERMINANTEN 67 • 2.Fall: τ (α) = α. Ohne Einschränkung ist dann σ(α) 6= α (denn wenn sowohl τ als auch σ den Punkt α fixieren, ist sowieso σ(τ (α)) = α = τ (σ(α))). Nun verläuft der Beweis aus Symmetriegründen analog wie im 1.Fall. Konsequenz: Ist σ ∈ Sn in (disjunkter) Zykelnotation geschrieben - σ = σ1 · · · σr mit Zykeln σi , dann vertauschen alle σi untereinander. Damit kann man Potenzen von σ “zykelweise” berechnen, d.h. σ k = σ1k · · · σrk . Definition 6.2 (Transposition). Eine Transposition ist ein Element τ ∈ Sym(M ), das genau zwei Elemente a 6= b ∈ M vertauscht (also τ (a) = b und τ (b) = a) und sonst alle Elemente fixiert. In Zykelnotation ist also τ = (a, b). Lemma 6.3. Jede Permutation σ ∈ Sn lässt sich als (endliches) Produkt von Transpositionen schreiben. Beweis: Da jedes σ ein Produkt von Zykeln ist, genügt es zu zeigen, dass sich jeder Zykel als Produkt von Transpositionen schreiben lässt. Durch Umbenennung der Elemente können wir uns sogar auf den Zykel (1 2 . . . k) beschränken (k ≤ n). Für diesen zeigt man sehr leicht mit Induktion, dass (1 2 . . . k) = (1 2)(2 3) · · · (k − 1 k). Definition 6.3. Eine Permutation σ heißt gerade/ungerade, wenn sie sich als Produkt einer geraden/ ungeraden Anzahl von Transpositionen schreiben lässt. Die Bedeutung dieser Definition liegt in folgendem Lemma: Lemma 6.4. Eine Permutation σ ∈ Sn kann nicht gleichzeitig gerade und ungerade sein. Beweis: Seien τ1 · · · τ2k = σ = ρ1 · · · ρ2m+1 zwei Darstellungen von σ als Produkt von gerade vielen Transpositionen τi und als Produkt von ungerade vielen Transpositionen −1 ρj . Dann ist id = σ · σ −1 = τ1 · · · τ2k · (ρ1 · · · ρ2m+1 )−1 = τ1 · · · τ2k · ρ−1 = 2m+1 · · · ρ1 τ1 · · · τ2k · ρ2m+1 · · · ρ1 . Die letzte Gleichheit gilt, da jede Transposition ihr eigenes Inverses ist. Also haben wir die Identität id als Produkt ungerade vieler Transpositionen geschrieben. Wir zeigen nun durch Induktion, dass so etwas nicht möglich ist. Zunächst kann sicher eine einzige Transposition nicht gleich id sein. Sei nun für ein n ∈ N gezeigt, dass id kein Produkt aus 2n − 1 Transpositionen ist. Man nehme nun an, dass id ein Produkt aus 2n + 1 Transpositionen ist: id = τ1 · · · τ2n+1 . Betrachte nun die rechtesten beiden Transpositionen in diesem Produkt; die rechteste davon sei mit (a, b) KAPITEL 6. DETERMINANTEN 68 bezeichnet. Wegen (a, b) = (b, a) gibt es nur folgende Möglichkeiten für das Produkt dieser beiden (mit geeigneten von a und b verschiedenen Elementen c, d): (a, b)(a, b) = id, (a, c)(a, b) = (a, b)(b, c), (b, c)(a, b) = (a, c)(b, c), (c, d)(a, b) = (a, b)(c, d). Falls die erste Möglichkeit vorliegt, ist das gesamte Produkt um die Länge 2 verkürzbar, im Widerspruch zur Induktionsannahme. Die Gleichungen in den anderen Fällen zeigen aber, dass das Produkt (ohne die Anzahl der Transpositionen zu ändern) so umgeformt werden kann, dass das “rechteste” Auftreten von a um einen Zykel nach links verschoben wird. Man iteriere dieses Verfahren. Entweder stoßen dabei irgendwann zwei gleiche Transpositionen aufeinander und man erhält wie eben einen Widerspruch zur Induktionsannahme. Oder aber, das rechteste Auftreten von a kann bis in den “linkesten” Zykel verschoben werden; das ist aber auch ein Widerspruch, denn dann wird a von genau einer der Transpositionen bewegt, also sicher nicht vom Produkt fixiert - dieses Produkt ist aber id. Der Widerspruch zeigt, dass id auch kein Produkt von 2n + 1 Transpositionen sein kann. Das obige Lemma zeigt, dass folgende Definition sinnvoll ist: Definition 6.4. Die Abbildung sgn : Sn → {±1}, definiert durch sgn(σ) := (−1)k , wobei σ als ein Produkt ( von k Transpositionen schreibbar sei, heißt Signumsfunktion. 1, falls σ gerade Es gilt also sgn(σ) = , −1, falls σ ungerade Folgende Eigenschaften des Signums folgen leicht: Lemma 6.5. a) Die Funktion sgn ist multiplikativ, d.h. für alle σ, τ ∈ Sn gilt sgn(στ ) = sgn(σ) · sgn(τ ). b) Für alle σ ∈ Sn ist sgn(σ) = sgn(σ −1 ). c) Für n ≥ 2 gibt es genauso viele gerade wie ungerade Permutationen in Sn , also jeweils n!/2. d) Das Signum eines Zykels der Länge k (1 ≤ k ≤ n) ist (−1)k−1 . Beweis: a) folgt direkt aus den Definitionen. b) folgt aus a) wegen 1 = sgn(id) = sgn(σσ −1 ) = sgn(σ) · sgn(σ −1 ). Zu c): Ist (a, b) ∈ Sn eine Transposition, dann ist durch σ 7→ (a, b) · σ (für σ gerade) eine Bijektion von der Menge der geraden auf die Menge der ungeraden Permutationen KAPITEL 6. DETERMINANTEN 69 definiert (τ 7→ (a, b)τ (für τ ungerade) ist die Umkehrabbildung). Schließlich folgt d) sofort aus der Darstellbarkeit eines Zykels der Länge k als Produkt von k − 1 Transpositionen, wie im Beweis von Lemma 6.3 gesehen. Wir halten noch ein interessantes Ergebnis über gerade Permutationen in Sn fest: Satz 6.6. Die Menge An der geraden Permutationen in Sn ist eine Untergruppe von Sn . An heißt alternierende Gruppe. Beweis: An ist selbstverständlich nicht leer (id ∈ An ), und für σ, τ ∈ An (also sgn(σ) = sgn(τ ) = 1) ist auch sgn(στ ) = 1 wegen Multiplikativität des Signums. Also ist στ ∈ An . Ebenso ist 1 = sgn(id) = sgn(σσ −1 ) = sgn(σ) · sgn(σ −1 ), also folgt σ −1 ∈ An . 6.2 Determinanten von Matrizen 6.2.1 Definition und Eigenschaften Determinanten von Matrizen sind in verschiedenen Bereichen der linearen Algebra wichtig, z.B. bei der Untersuchung von Endomorphismen. Wir definieren die Determinante zunächst axiomatisch, weisen dann ihre Existenz und Eindeutigkeit nach, bevor wir uns Gedanken über ihre genaue Bedeutung machen. Aus notationstechnischen Gründen schreiben wir eine n × n-Matrix A im Folgenden oft als A = (a1 , ..., an ). Damit ist gemeint, dass die ai die Spalten von A sind. Definition 6.5 (Determinantenfunktion). Eine Abbildung det : K n×n → K heißt Determinantenfunktion (oder einfach Determinante), wenn gelten: D1 det(En ) = 1. (Normiertheit) D2 Falls zwei Spalten von A identisch sind, dann gilt det(A) = 0. (Alternierende Eigenschaft) D3 Für alle i = 1, .., n und alle λ, µ ∈ K gilt det(a1 , ..., λai + µbi , ..., an ) = λ · det(a1 , ..., ai , ..., an ) + µ · det(a1 , ..., bi , ..., an ) (Multilinearität in den Spalten) Warnung: Man beachte, dass Determinanten nur für quadratische Matrizen definiert sind! Aus der Definition ergeben sich sofort einige wichtige Eigenschaften von Determinanten: Lemma 6.7. Sei det : K n×n → K eine Determinantenfunktion. Dann gelten: KAPITEL 6. DETERMINANTEN 70 a) Sind a1 , ..., an die Spalten von A und ist σ ∈ Sn eine Permutation, dann ist det(aσ(1) , ..., aσ(n) ) = sgn(σ) · det(A). Insbesondere ändert Vertauschen zweier Spalten das Vorzeichen von det. b) det(A) = 0, falls die Spalten von A linear abhängig sind (also falls rg(A) < n). Beweis: Zu a): Wir zeigen zunächst den Spezialfall, dass σ = (i, j) eine Transposition ist. Wegen Eigenschaft D2 ist 0 = det(a1 , ..., ai + aj , ..., aj + ai , ..., an ). Wegen Eigenschaft D3 ist dies aber auch gleich det(a1 , ..., ai +, ..., aj + ai , ..., an ) + det(a1 , ..., aj , ..., aj + ai , ..., an ) = det(a1 , ..., ai , ..., ai , ..., an ) + det(a1 , ..., ai , ..., aj , ..., an )+det(a1 , ..., aj , ..., ai , ..., an )+ | {z } =0 det(a1 , ..., aj , ..., aj , ..., an ). Damit folgt die Behauptung für σ = (i, j). {z } | =0 Ist nun σ eine beliebige Permutation, die als Produkt von k Transpositionen geschrieben werden kann, dann folgt durch iteratives Anwenden: det(aσ(1) , ..., aσ(n) ) = (−1)k · det(A), und nach Definition des Signums ist (−1)k = sgn(σ). Zu b): Sind die Spalten a1 ,P ..., an linear abhängig, dann ist eine davon eine Linearkombination der anderen: ai = nj=1 λj aj . Mit der Multilinearität folgt dann j6=i det(a1 , ..., an ) = n X λj det(a1 , ..., j=1 aj , ..., an ). |{z} i-te Stelle j6=i Da in jedem der Summanden zwei gleiche Spalten aj vorkommen, folgt mit D2, dass det(a1 , ..., an ) = 0 gilt. Satz 6.8 (Existenz und Eindeutigkeit der Determinante). Es existiert genau eine Determinantenfunktion auf K n×n , und zwar X det : K n×n → K, det(A) := sgn(σ) · A[σ(1), 1] · · · A[σ(n), n]. σ∈Sn (Diese Darstellung der Determinante ist auch unter dem Namen “Leibniz-Formel” bekannt.2 ) Beweis: Zunächst zur Eindeutigkeit: Ist δ irgendeine Determinantenfunktion auf K n×n , und A ∈ K n×n , dann schreibe die Spalten a1 , ..., Pann von A als Linearkombinationen über der Standardbasis {e1 , ..., en }, d.h. aj = i=1 A[i, j]ei . Es ist dann δ(A) = 2 Nach Gottfried Wilhelm Leibniz (1646-1716), Philosoph, Mathematiker und unfreiwilliger Namensgeber des gleichnamigen Kekses. KAPITEL 6. DETERMINANTEN 71 P P δ( ni=1 A[i, 1]ei , ..., ni=1 A[i, n]ei ). Wegen der Multilinearität kann man alle Summenzeichen und Skalaren ausklammern;es bleiben (sehr viele) Terme der Form δ(ek1 , ..., ekn ), mit k1 , ..., kn ∈ {1, ..., n}. Für diese Terme gibt es zwei Möglichkeiten: Entweder zwei der k1 , ..., kn sind gleich, dann ist δ(ek1 , ..., ekn ) = 0. Oder die ki sind paarweise verschieden, dann gibt es eine Permutation σ von {1, ..., n} mit σ(i) = ki für alle i = 1, ..., n. Aber dann ist mit Lemma 6.7a): δ(ek1 , ..., ekn ) = sgn(σ) · δ(e1 , ..., en ) = sgn(σ). Das heißt, dass alle Terme, die in der Entwicklung von δ(A) vorkommen, schon durch die Eigenschaften D1 bis D3 einer Determinantenfunktion eindeutig bestimmt sind. Also gibt es höchstens eine Determinantenfunktion auf K n×n . Wir zeigen nun noch, dass die angegebene Funktion det die Eigenschaften D1 bis D3 erfüllt. Zunächst ist für die Einheitsmatrix En [i, j] = 0 für alle i 6= j. Damit ist jeder Summand sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] gleich 0, sobald σ ∈ Sn wenigstens eine der Zahlen 1, ..., n bewegt. Damit bleibt nur der Summand für σ = id übrig, und es ist also det(En ) = sgn(id) · En [1, 1] · · · En [n, n] = 1. Die Multilinearität von det prüft man leicht nach. Man beachte dazu, dass jeder Summand aus jeder Spalte der Matrix genau einen Eintrag enthält. Multipliziert man also eine Spalte mit einem Skalar λ, dann wird auch jeder Summand von det(A) mit λ multipliziert. Ferner gilt X det(a1 , ..., ai +bi , ..., an ) = sgn(σ)·A[σ(1), 1] · · · (A[σ(i), i]+B[σ(i), i]) · · · A[σ(n), n] = σ∈Sn X sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] + X sgn(σ) · A[σ(1), 1] · · · B[σ(i), i] · · · A[σ(n), n] = σ∈Sn σ∈Sn = det(a1 , ..., ai , ..., an ) + det(a1 , ..., bi , ..., an ). Schließlich ist det auch alternierend, denn: Seien die Spalten ai und aj der Matrix A gleich (für feste 1 ≤ i < j ≤ n). Sei τ := (i, j) ∈ Sn . Dann sieht man, analog zum Beweis von Lemma 6.5c), dass die Abbildung An 3 σ 7→ σ · τ die geraden Permutationen aus Sn bijektiv auf die ungeraden abbildet. Damit ist X det(A) = sgn(σ) · A[σ(1), 1] · · · A[σ(n), n] = σ∈Sn X A[σ(1), 1] · · · A[σ(n), n] − σ∈An = n X Y σ∈An k=1 A[σ(k), k] − X A[στ (1), 1] · · · A[στ (n), n] = σ∈An X σ∈An ( n Y k=1 k∈{i,j} / A[σ(k), k]) · A[σ(j), i] | {z } =A[σ(j),j], wegen der Vorauss. ai =aj · A[σ(i), j] = 0. | {z } =A[σ(i),i] KAPITEL 6. DETERMINANTEN 72 Anschaulich-geometrisch gesehen kann man sich die Determinante einer n × n-Matrix als eine Art Volumen vorstellen. Genauer: Durch die lineare Abbildung K n → K n , x 7→ Ax, wird der Einheitswürfel (also der von der Standardbasis des K n aufgespannte n-dimensionale Würfel) auf ein Parallelotop abgebildet (nämlich aufgespannt durch die Spalten von A). Dessen Volumen ist die Determinante von A, wobei negatives Vorzeichen möglich ist. Das Vorzeichen gibt die Orientierung an. Satz 6.9 (Eigenschaften der Determinante). Seien A, B ∈ K n×n . Dann gelten: a) det(A) = det(At ). b) det(AB) = det(A) · det(B). (“Determinantenmultiplikationssatz”) c) det(A) 6= 0 genau dann, wenn A invertierbar ist. d) Falls A invertierbar ist, dann det(A−1 ) = det(A)−1 . P Q Beweis: Zu a): Es ist det(At ) = σ∈Sn sgn(σ) ni=1 A[i, σ(i)]. Nun durchläuft mit i auch j := σ(i) die Zahlen von 1 bis n, und es ist i = σ −1 (j). Weiter ist sgn(σ) = sgn(σ −1 ). P Qn −1 −1 ganz S −1 Es folgt det(At ) = n j=1 A[σ (j), j]. Da mit σ auch σ σ∈Sn sgn(σ ) durchläuft, ist dies gerade = det(A). Bevor wir b) beweisen, wollen wir sehen, wie c) und d) aus b) folgen. Dass det(A) = 0 für nicht-invertierbare A gilt, ist schon bekannt. Sei also A invertierbar. Dann ist aber nach b): 1 = det(En ) = det(A · A−1 ) = det(A) · det(A−1 ). Hieraus folgt sofort, dass det(A) 6= 0 (also c)) und dass det(A−1 ) das multiplikative Inverse von det(A) in K ist (also d)). Es bleibt noch b) zu zeigen.Seien dazu A, B ∈ K n×n . Wir können ohne Einschränkung annehmen, dass sowohl A als auch B invertierbar sind, denn sonst ist auch AB nicht invertierbar, und es folgt sofort 0 = det(AB) = det(A) · det(B). Nach Korollar 5.10 ist jede invertierbare Matrix ein Produkt von Elementarmatrizen, also A = E1 · · · Er und B = F1 · · · Fs mit Elementarmatrizen Ei und Fj . Im folgenden Hilfssatz zeigen wir, dass det(E · M ) = det(E) · det(M ) gilt für jede quadratische Matrix M und jede Elementarmatrix E. Damit folgt dann sukzessive, dass det(AB) = det(E1 ) · · · det(Fs ), und ebenso det(A) = det(E1 ) · · · det(Er ) und det(B) = det(F1 ) · · · det(Fs ), also insgesamt det(AB) = det(A) · det(B). Um den Beweis des Determinantenmultiplikationssatzes zu beenden, müssen wir noch sehen, wie sich die Determinante unter elementaren Zeilen- (und Spalten-)Umformungen verhält. Aus der Definition der Determinante und den Eigenschaften in Lemma 6.7 folgt direkt: • Die Umformung Z1 (Multiplikation einer Zeile mit λ) führt dazu, dass sich die Determinante ebenfalls mit λ multipliziert. KAPITEL 6. DETERMINANTEN 73 • Z2 ändert die Determinante gar nicht. • Z3 (Zeilentausch) ändert nur das Vorzeichen der Determinante. Der folgende Hilfssatz beendet den Beweis des Determinantenmultiplikationssatzes: Lemma 6.10. Sei Ei,j (λ) ∈ GLn (K) eine Elementarmatrix. Dann ist ( 1, falls i 6= j det(Ei,j (λ)) = λ, falls i = j. Insbesondere gilt det(Ei,j (λ) · M ) = det(Ei,j (λ)) · det(M ) für alle M ∈ K n×n . Beweis: Sei zunächst i 6= j. In Spaltenschreibweise ist Ei,j (λ) = (e1 , ... ei , ..., λei + ej , ...en ), |{z} | {z } (i) (j) und somit det(Ei,j (λ)) = det(e1 , ..., ei , ..., λei , ..., en ) + det(En ) = 0 + det(En ) = 1. Ist dagegen i = j, dann ist Ei,j (λ) = (e1 , ..., λei , ..., en ) und somit det(Ei,j (λ)) = λ · det(En ) = λ. Die Folgerung ergibt sich sofort mit der vorangegangenen Bemerkung, denn Multiplikation einer Matrix M von links mit Ei,j (λ) entspricht bekanntlich einer elementaren Zeilenumformung, und zwar vom Typ Z1 für i = j und vom Typ Z2 für i 6= j. 6.2.2 Determinanten von Endomorphismen Bisher haben wir nur Determinanten von (quadratischen) Matrizen betrachtet. Hier wollen wir nun diese Definition auf Endomorphismen übertragen, mit dem Hintergedanken, dass jeder Endomorphismus ϕ eines endlich-dimensionalen Vektorraums V quadratische Darstellungsmatrizen hat. Natürlich ist die Darstellungsmatrix im Allgemeinen nicht eindeutig, sondern hängt von der Basis ab. Dennoch ist die Determinante aller Darstellungsmatrizen MB,B (ϕ) von ϕ (mit einer Basis B von V ) die selbe.3 Der Grund dafür liegt im Determinantenmultiplikationssatz. Sind nämlich M1 := MB,B (ϕ) und M2 := MC,C (ϕ) zwei Darstellungsmatrizen von ϕ, dann ist M2 = T −1 M1 T mit der Basiswechselmatrix T = MC,B (id). Nach Satz 6.9 gilt aber det(M2 ) = det(T −1 )·det(M1 )·det(T ) = det(T )−1 · det(M1 ) · det(T ) = det(M1 ) (wir können det(T ) kürzen, denn alle Determinanten sind ja Elemente des Körpers K, vertauschen also miteinander!). Das zeigt, dass alle Darstellungsmatrizen MB,B (ϕ), mit einer Basis B von V , die selbe Determinante haben. Folgende Definition ist also sinnvoll: Definition 6.6. Sei ϕ : V → V ein Endomorphismus des endlich-dimensionalen Vektorraums V und M = MB,B (ϕ) eine Darstellungsmatrix von ϕ. Dann ist die Determinante von ϕ definiert als det(ϕ) := det(M ). 3 Wir betrachten hier, wie bei Endomorphismen üblich, nur Darstellungsmatrizen bezüglich der selben Basis ϕ im Urbild und im Bildraum (beides ist ja der Vektorraum V ). KAPITEL 6. DETERMINANTEN 74 Sofort aus der Definition und den entsprechenden Eigenschaften von Determinanten von Matrizen ergibt sich: Korollar 6.11. Für Endomorphismen ϕ, ψ eines endlich-dimensionalen Vektorraums V gelten: a) det(ϕ) 6= 0 genau dann, wenn ϕ ein Automorphismus von V ist. b) det(ϕ ◦ ψ) = det(ϕ) · det(ψ). 6.2.3 Berechnung von Determinanten Die Berechnung von Determinanten direkt mit der Definition ist nur für die allerkleinsten Beispiele praktikabel, denn es sind |Sn | = n! Summanden nötig um die Determinante einer n × n-Matrix zu berechnen. Für den 2 × 2-Fall erhält man die Formel det ac db = ad − bc und für den 3 × 3-Fall die (auch als Regel von Sarrus bezeichnete) Formel a b c det d e f = aei + bf g + cdh − gec − hf a − idb. g h i Für größere Matrizen hilft zunächst folgende Beobachtung: Satz 6.12. Sei A ∈ K n×n eine obere Dreiecksmatrix, d.h. A[i, j] = 0 für alle 1 ≤ j < i ≤ n.4 Dann gilt n Y det(A) = A[i, i]. i=1 Beweis: Übung. Weiter wissen wir schon, dass elementare Zeilenumformungen die Determinante nur sehr kontrolliert ändern. D.h. Determinanten lassen sich mit dem Gauß-Algorithmus berechnen. Dieser bringt nämlich eine quadratische Matrix nur mit Umformungen vom Typ Z2 und Z3 auf Zeilenstufenform, was für quadratische Matrizen insbesondere obere Dreiecksgestalt bedeutet. Satz 6.12 gibt an, wie die Determinante einer solchen oberen Dreiecksmatrix aussieht. Dieses Ergebnis muss man also nur noch mit (−1)k , k die Anzahl der angewendeten Zeilenvertauschungen, multiplizieren, um die Determinante der ursprünglichen Matrix zu erhalten. 4 Anschaulich: Alle Einträge unterhalb der Hauptdiagonalen von A sind = 0. KAPITEL 6. DETERMINANTEN 75 Für den Gaußalgorithmus sind bei einer n×n-Matrix maximal (n−1)+(n−2)+...+1 = n(n−1) Zeilenoperationen vom Typ Z2 nötig (und zusätzlich maximal n − 1 Zeilenver2 tauschungen), jede solche Operation erfordert O(n) einzelne Rechenschritte5 (Additionen bzw. Multiplikationen zweier Skalare). Insgesamt lässt sich damit also die Determinante in höchstens O(n3 ) Rechenschritten berechnen. Dagegen würde die Berechnung mit der Definition n! Summanden, mit jeweils noch O(n) einzelnen Rechenschritten bei jedem Summanden, erfordern, also Gesamtaufwand O((n + 1)!), was schon für relativ kleine n katastrophal groß wird. Für den Spezialfall von Blockdreiecksmatrizen lässt sich die Determinante sehr leicht auf die Determinante kleinerer Matrizen zurückführen. A B Satz 6.13 (Determinante einer Blockdreiecksmatrix). Sei M = ∈ K (m+n)×(m+n) 0 C eine obere Blockdreiecksmatrix,6 mit Blöcken A ∈ K n×n , B ∈ K n×m , C ∈ K m×m . Dann gilt: det(M ) = det(A) · det(C). Beweis: In der Formel det(M ) = X sgn(σ) · M [σ(1), 1] · · · M [σ(n + m), n + m] σ∈Sn+m liefern nur diejenigen σ einen Anteil ungleich 0, welche die Mengen {1, .., n} und {n + 1, ..., n + m} jeweils in sich abbilden (denn M [i, j] = 0 für alle i > n und j ≤ n). Jedes solche σ lässt sich also in eindeutiger Weise als ρτ schreiben, mit ρ ∈ Sn , τ ∈ 0 für Sym({n + 1, ..., n + m}), Sym({n + 1, ..., n + m}). Schreibe aus Platzgründen Sm und sortiere die Summe nun so, dass zunächst jeweils über alle σ summiert wird, die eingeschränkt auf {1, ..., n} die gleiche Permutation ρ ∈ Sn liefern, dann ergibt sich X X det(M ) = sgn(ρτ ) ·(M [ρ(1), 1] · · · M [ρ(n), n])·(M [τ (n+1), n+1] · · · M [τ (n+m), n+m]) | {z } 0 ρ∈Sn τ ∈Sm =( X ρ∈Sn =sgn(ρ)sgn(τ ) sgn(ρ)A[ρ(1), 1] · · · A[ρ(n), n])·( X sgn(τ )C[τ (1), 1] · · · C[τ (m), m]) = det(A)·det(C). τ ∈Sm Für Matrizen von sehr spezieller Gestalt, insbesondere solche mit vielen Nulleinträgen ist auch folgender Satz zur Berechnung der Determinante nützlich: Satz 6.14 (Entwicklungssatz von Laplace7 ). Sei A ∈ K n×n und sei Ai,j die ((n − 1) × (n − 1)-)Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte hervorgeht. Dann gelten: 5 Mit der Notation O(n) ist gemeint, dass sich die Anzahl maximal um einen konstanten Faktor c von n unterscheidet (für n → ∞). 6 Selbstverständlich gilt die analoge Aussage für untere Blockdreiecksmatrizen 7 Pierre-Simon Laplace (1749-1827) KAPITEL 6. DETERMINANTEN 76 a) Für festes j ∈ {1, ..., n} ist det(A) = nach der j-ten Spalte) Pn · A[i, j] · det(Ai,j ). (Entwicklung b) Für festes i ∈ {1, ..., n} ist det(A) = nach der i-ten Zeile) Pn · A[i, j] · det(Ai,j ). (Entwicklung i+j i=1 (−1) i+j j=1 (−1) Beweis: Es genügt a) zu zeigen. b) folgt dann sofort wegen det(A) = det(At ). Sei j fest, und bezeichne für 1 ≤ i ≤ n mit Ai diejenige Matrix, die aus A entsteht, wenn man die j-te Spalte durch den Standardbasisvektor ei ersetzt. Wegen der Linearität der Determinante in der j-ten Spalte gilt det(A) = A[1, j] det(A1 ) + ... + A[n, j] det(An ). Wir müssen also nur zeigen, dass det(Ai ) = (−1)i+j det(Ai,j ) gilt (für alle i). Permutiere nun, ausgehend von der Matrix Ai , Spalten mit der Permutation (1 2 ... j) (soll heißen: die ehemalige j-te Spalte wird nun die erste Spalte, die ehemalige erste wird die zweite, etc.) und danach Zeilen mit der Permutation (1 2 ... i). Das Ergebnis ist 1 ? die Blockdreiecksmatrix . Deren Determinante ist gleich det(Ai,j ), und da sie 0 Ai,j durch (j − 1) + (i − 1) = i + j − 2 Zeilen- bzw. Spaltentranspositionen aus Ai entstand, folgt die Behauptung wegen (−1)i+j = (−1)i+j−2 . Das folgende Kriterium bringt die Inverse einer Matrix mit Determinanten in Zusammenhang. Es ist zur praktischen Berechnung der Inversen weniger geeignet, hat aber manchmal theoretische Anwendungen: Satz 6.15. Sei A ∈ K n×n . Definiere die Adjunkte à ∈ K n×n durch Ã[i, j] := (−1)i+j det(Aj,i ), mit den Streichungsmatrizen Aj,i wie in Satz 6.14 definiert. Dann gilt A · à = à · A = det(A) · En . Insbesondere ist im Fall der Invertierbarkeit von A: 1 A−1 = · Ã. det(A) Beweis: Das Produkt à · A hat an der Stelle [i, k] den Eintrag n X ãi,j aj,k . j=1 Wie im Beweis von Satz 6.14 gesehen, ist ãi,j = (−1)i+j det(Aj,i ) = det(Aj ), wobei Aj die Matrix ist, die entsteht, wenn man in A die i-te Spalte durch ej ersetzt. Das liefert weiter n n X X ãi,j aj,k = aj,k · det(a1 , ..., ai−1 , ej , ai+1 , ..., an ) j=1 j=1 KAPITEL 6. DETERMINANTEN 77 = det(a1 , ..., ai−1 , n X aj,k ej , ai+1 , ..., an ) j=1 = det(a1 , ..., ai−1 , ak , ai+1 , ..., an ), und wegen der Determinanteneigenschaft ist dieser Ausdruck = det(A) für i = k und = 0 sonst. Damit gilt à · A = det(A) · En . Das umgekehrte Produkt berechnet man analog. Für 2 × 2-Matrizen erhält man damit eine einfache Formel für die Inverse: Korollar 6.16. Sei A ∈ GL2 (K), A = ac db . Dann ist A−1 = 1 ad − bc d −b −c a . Eine Anwendung von Satz 6.15 erhält man bei der Betrachtung von Matrizen über Ringen, die nicht notwendigerweise Körper sind. Sei etwa R ⊂ K ein Teilring des Körpers K und sei A ∈ Rn×n eine quadratische Matrix mit Einträgen in R. Da das Berechnen der Determinante nur Ringoperationen (Addition und Multiplikation) erfordert ist auch die Adjunkte über R definiert. Nach Satz 6.15 ist die Adjunkte einer invertierbaren Matrix aber schon “fast” (bis auf einen konstanten Faktor) die Inverse. Ist nun noch det(A) ∈ R eine Einheit von R, dann ist (A invertierbar und) A−1 auch Element von Rn×n . Ist also z.B. A eine quadratische Matrix mit Einträgen in Z und ist det(A) ∈ {−1, 1}, dann liefert der Satz, dass auch die Inverse wieder ganzzahlige Einträge hat. 6.3 Exkurs: Multilinearformen und Tensorprodukte Wir haben bisher Multilinearität nur als eine Eigenschaft der Determinantenabbildung kennengelernt. Tatsächlich ist diese Eigenschaft aber auch in allgemeinerem Kontext wichtig: Definition 6.7. Sei V ein n-dimensionaler K-Vektorraum und m ∈ N. Eine Multilinearform ist eine multilineare Abbildung Φ : V m → K, d.h. Φ(v1 , ..., αvi + βwi , ...vn ) = αΦ(..., vi , ...) + βΦ(..., wi , ...). Eine alternierende Multilinearform ist eine, die Φ(v1 , ..., vm ) = 0 erfüllt, sobald vi = vj für zwei i 6= j ∈ {1, ..., m} gilt. Definition 6.8 (Tensorprodukt von Vektorräumen). Seien V und W K-Vektorräume mit Basen B bzw. B 0 . Setze B ⊗ B 0 := {(b, b0 ) P | b ∈ B, b0 ∈ B 0 }, und definiere V ⊗ W als die Menge der formalen Linearkombinationen v∈B⊗B 0 λv · v (mit λv ∈ K). Dann ist V ⊗ W ein K-Vektorraum, genannt das Tensorprodukt aus V und W . Für die Basisvektoren (b, b0 ) schreibt man auch b ⊗ b0 . KAPITEL 6. DETERMINANTEN 78 Sofort aus der Definition ergibt sich Lemma 6.17. Sind V und W endlich-dimensional, dann ist dim(V ⊗ W ) = dim(V ) · dim(W ). Bemerkung: Setzt man (v + v 0 ) · w := v ⊕ w + v 0 ⊕ w, (αv) ⊕ w := (αv) ⊕ w, und analog für Summen und skalare Vielfache im hinteren Argument, so sind in V ⊗ W auch Audrücke der Form v ⊕ w definiert für beliebige Vektoren v ∈ V , w ∈ W (nicht nur für Vektoren aus den vorgegebenen Basen). Trotzdem ist nicht jedes Element von V ⊕ W von dieser Gestalt, sondern man muss nach wie vor auch Linearkombinationen solcher Ausdrücke betrachten. Insbesondere ist der Vektorraum V ⊗W nicht zu verwechseln mit der (formalen) direkten Summe V + W := {(v, w) | v ∈ V, w ∈ W }. Letzteres ist zwar auch ein K-Vektorraum, aber von der Dimension dim(V ) + dim(W )! Beispiel: Das Tensorprodukt K m ⊗ K n ist in natürlicher Weise isomorph zum Matrizenraum K m×n . Konkret ist m X n X λi,j · (ei , ej ) 7→ A, i=1 j=1 mit A[i, j] := λi,j ein Isomorphismus. Iteratives Anwenden der Definition liefert auch r-fache Tensorprodukte V1 ⊗ ... ⊗ Vr . Interessant ist insbesondere der Fall V1 = ...Vr =: V . Hier schreiben wir für das r-fache Tensorprodukt auch V ⊗r . Satz 6.18 (Fortsetzungssatz für Multilinearformen). Sei V ein n-dimensionaler KVektorraum mit Basis B = {v1 , ..., vn }, und sei m ∈ N. Seien λi1 ,...,im ∈ K gegeben für i1 , ..., im ∈ {1, ..., n}. Dann existiert genau eine Multilinearform Φ : V m → K mit Φ(vi1 , ..., vim ) = λi1 ,...,im für alle (i1 , ..., im ) ∈ {1, ..., n}m . Satz 6.19 (Raum der Multilinearformen). Sei m ∈ N. Die Menge der Multilinearformen Φ : V m → K bildet (mit punktweiser Addition und Skalarmultiplikation) einen K-Vektorraum. Dieser Vektorraum ist auf natürliche Weise isomorph zum Raum der Linearformen V ⊗m → K. Insbesondere ist Dimension dieses Raumes gleich nm . Wie allgemeine Multilinearformen lassen sich auch alternierende Multilinearformen mit Linearformen auf einem bestimmten Vektorraum identifizieren. Betrachte dazu das Erzeugnis U := hv1 ⊗ ... ⊗ vm ∈ V ⊗m | v1 , ..., vm ∈ V ; vi = vj für zwei Indizes i 6= ji. Definiere V ∧m := V ⊗m /U als den zugehörigen Faktorraum. Dann kann man zeigen, dass der Vektorraum aller alternierenden Multilinearformen V m → K in natürlicher Weise isomorph zu Hom(V ∧m , K) ist. KAPITEL 6. DETERMINANTEN 79 Sei im Folgenden m = n. Wie bei den Determinanten im K n×n kann man nun zeigen, dass alternierende Multilinearformen immer existieren, und auch schon “fast” eindeutig sind: Satz 6.20. Sei V ein n-dimensionaler K-Vektorraum und sei λ ∈ K. Sei (v1 , ..., vn ) eine geordnete Basis von V . Dann existiert genau eine alternierende Multilinearform Φλ : V n → K mit der Eigenschaft Φ(v1 , ..., vn ) = λ, nämlich definiert durch n n X X X Φ( ai,1 vi , ..., ai,n vi ) = λ · sgn(σ) · a1,σ(1) · · · an,σ(n) . i=1 i=1 σ∈Sn Insbesondere ist Φλ = λ · Φ1 . Beweis: Der Beweis verläuft exakt analog zum Beweis von Satz P 6.8: Mit Hilfe P der Multilinearität und alternierenden Eigenschaft wird der Wert Φ( ni=1 ai,1 vi , ..., ni=1 ai,n vi ) auf den Wert Φ(v1 , ..., vn ) =: λ zurückgeführt. Durch diesen einen Wert ist also Φ schon vollständig festgelegt. Dass die angegebene Abbildung tatsächlich alternierend und multilinear ist, zeigt man ebenfalls genau wie in Satz 6.8. Hiermit ergibt sich ein alternativer Zugang zu Determinanten: Sei V ein beliebiger n-dimensionaler K-Vektorraum, f : V → V ein Endomorphismus und (v1 , ..., vn ) eine Basis von V . Sei Φ eine alternierende Multilinearform auf V , nicht konstant ≡ 0 (nach dem vorangegangenen Satz ist also Φ(v1 , ..., vn ) 6= 0). Definiere dann (v1 ),...,f (vn )) det(f ) := Φ(fΦ(v . Da sich alle alternierenden Multilinearformen jeweils nur um 1 ,...,vn ) einen konstanten Faktor voneinander unterscheiden, ist diese Definition unabhängig vom konkret gewählten Φ. Ebenso ist sie unabhängig von der Wahl der Basis (v1 , ..., vn ). Man kann nun zeigen, dass diese Definition von det(f ) exakt zum gleichen Ergebnis wie unsere Definition der Determinante eines Endomorphismus führt. Stichwortverzeichnis Äquivalenzklasse, 3 Äquivalenzrelation, 3 Adjunkte, 76 Affiner Unterraum, 24 Basis, 26 -ergänzungssatz, 31 Determinante, 69 einer quadratischen Matrix, 69 eines Endomorphismus, 73 Dimension, 29 Dimensionsformel für lineare Abbildungen, 37 für Unterräume, 32 Erzeugendensystem, 22 Faktorraum, 25 Gauß-Algorithmus, 57 Gruppe, 6 allgemeine lineare, 46 abelsche, 6 alternierende, 69 symmetrische, 7 zyklische, 9 Gruppenordnung, 9 Körper, 15 C, 15 Q, 15 R, 15 Z/pZ, 16 Komplement, 23 Lineare (Un)abhängigkeit, 26 Lineare Abbildung, 34 Bild, 34 Defekt, 36 Kern, 34 Rang, 36 Lineare Hülle, 22 Lineares Gleichungssystem, 53 homogenes, 53 inhomogenes, 53 Linearkombination, 21 Matrix, 43 Basiswechsel-, 50 Darstellungs-, 44 Diagonal-, 46 Einheits-, 46 Elementar-, 56 invertierbare, 46 Multilinearform, 77 alternierende, 77 Nebenklasse Links-, 10 Rechts-, 10 Permutation, 7 Relation, 3 Restklassen, 4 Ring, 12 Signum, 68 Skalar, 18 Summe von Unterräumen, 22 direkte, 23 Untergruppe, 8 80 STICHWORTVERZEICHNIS Unterraum, 20 Vektor, 18 Null-, 18 Vektorraum, 18 K n , 19 der Polynome, 20 Verknüpfung, 6 81