LINEARE ALGEBRA I Ernst Bönecke Universität Hamburg 2015 VORWORT Dieser Text ist entstanden aus mehreren Vorlesungen über Lineare Algebra, insbesondere den drei Kursen aus den Jahren 2000 - 2004, und anderen Vorlesungen,die ich als Dozent an der Universität Hamburg gehalten habe. Er ist kein reines Vorlesungsskript, denn er enthält mehr als man in 14 Semesterwochen schaffen kann, insbesondere mehr Beispiele. Der Aufbau richtet sich nicht nach didaktischen, sondern allein nach mathematischen Gesichtspunkten. So werden bereits in §2 Faktorgruppen behandelt - ein Thema, das Anfänger häufig als abstrakt empfinden. Ich hoffe aber, den Text so ausführlich aufgeschrieben zu haben, dass man danach die Lineare Algebra auch vor Beginn eines Mathematik- oder Physikstudiums lernen kann. Kenntnisse in Analysis werden nicht vorausgesetzt, außer der Existenz von Quadratwurzeln nichtnegativer reeller Zahlen. Auch das Induktionsaxiom, das eher in die Analysis gehört, und die Konstruktion des Körpers der komplexen Zahlen werden nicht vorausgesetzt, sondern ausführlich behandelt. Der Text knüpft an Schulkenntnisse an, z.B. wird die analytische Geometrie im R2 und im R3 in §1 wiederholt. Er richtet sich also an alle Anfänger mit Studienfach Mathematik oder Physik und eignet sich gut dafür, sich zwischen Schule und Hochschule auf das Studium vorzubereiten. Hamburg, im November 2015 1 Inhaltsverzeichnis §1 Grundbegiffe 1.1 1.2 1.3 1.4 1.5 1.6 1.7 Einiges über Aussagen und Mengen Relationen, Induktion Funktionen Etwas analytische Geometrie im Rn Geraden im R2 Geraden und Ebenen im R3 Aufgaben 4 10 14 19 23 26 31 §2 Gruppen 34 2.1 2.2 2.3 2.4 Allgemeines Untergruppen und Normalteiler Homomorphismen von Gruppen Aufgaben 34 38 47 53 §3 Ringe und Körper 55 3.1 3.2 3.3 3.4 3.5 3.6 Etwas Ringtheorie Der Ring der ganzen Zahlen Der Polynomring in einer Unbestimmten Der Körper der Brüche Der Körper der komplexen Zahlen Aufgaben 55 59 70 82 87 94 §4 Vektorräume 98 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 Definition und Beispiele Basis und Dimension Lineare Abbildungen Matrizen Der Rang einer Matrix Lineare Gleichungssysteme Summen von Vektorräumen Anwendung: Körpererweiterungen Die Algebra der n × n-Matrizen, Quaternionen Aufgaben 4 2 98 104 115 121 132 142 152 157 160 167 §5 5.1 5.2 5.3 5.4 5.5 Determinanten 171 Permutationen 171 Definition der Determinante 176 Der Laplacesche Entwicklungssatz 185 Determinante eines Endomorphismus 191 Aufgaben 193 Literaturverzeichnis 195 Verzeichns der Definitionen 196 3 §1 Grundbegriffe 1.1 Einiges über Aussagen und Mengen Mengenlehre und Logik sind für uns nicht Selbstzweck, sondern man braucht sie, um mathematische Sachverhalte kurz und unmissverständlich zu formulieren. Wir werden uns auf das Notwendigste beschränken. Definition 1.1.1 : Unter einer Aussage A verstehen wir ein sprachliches oder schriftliches Gebilde, das entweder wahr ( w ) ist oder falsch ( f ) . Man sagt auch, die Aussage A hat den Wahrheitswert w oder f . Beispiel 1.1.2 Aussage Es gibt keinen Studierenden in diesem Hörsaal 1·2=2 1 · 2 = 2 und 3 · 4 = 4 1 · 2 = 2 oder 3 · 4 = 4 Wenn Ptolemäus Recht hat , dann ist die Erde eine Scheibe Wahrheitswert f w f w w 2 Wichtig ist für uns die Verknüpfung von Aussagen : Mathematische Sätze sind logisch verknüpfte Aussagen. Man definiert so eine Verknüpfung, indem man den Wahrheitswert der verknüpften Aussage in Abhängigkeit von den Wahrheitswerten der gegebenen Aussage festlegt: Definition 1.1.3 : Seien A und B zwei gegebene Aussagen. Dann definieren wir die Wahrheitswerte von a) A und B , in Zeichen: A ∧ B , durch folgende Tabelle: A B A∧B w w w w f f f f w f f f A ∧ B ist also genau dann wahr, wenn sowohl A als auch B wahr sind. b) A oder B , in Zeichen: A ∨ B , durch folgende Tabelle: A B A∨B w w w w f w f w w f f f A ∨ B ist also auch dann wahr, wenn beide Aussagen wahr sind. Man sieht 4 hier, wie sinnvoll es ist, solche Verabredungen am Anfang zu treffen, um Missverständnisse oder sprachlich unschöne Formulierungen wie “und/oder”, die man in juristischen Texten häufig findet, zu vermeiden. c)Aus A folgt B , in Zeichen: A =⇒ B , man sagt auch: A impliziert B oder : Wenn A gilt, dann gilt B , durch folgenden Tabelle: A B A =⇒ B w w w f w f f w w w f f Man beachte: A =⇒ B ist stets wahr, wenn A falsch ist. Das mag manchen erstaunen, ist aber eine sinnvolle Definition, die sich sogar mit dem umgangssprachlichen Gebrauch deckt, wie das Beispiel “Wenn Ptolemäus Recht hat, dann ist die Erde eine Scheibe” zeigt, das wahr ist , obwohl beide Teilaussagen falsch sind. d) A gleichbedeutend mit B , in Zeichen : A ⇐⇒ B , man sagt auch: A gilt genau dann, wenn B gilt , durch folgende Tabelle: A B w w w f f w f f A ⇐⇒ w f f w B e) nicht A , in Zeichen : ¬A , auch non A , durch die Tabelle A ¬A w f f w Solche Tabellen mit Wahrheitswerten wie diese fünf hier nennt man auch Wahrheitstafeln. 2 Wahrheitstafeln verwendet man auch, um die Wahrheitswerte von weiteren verknüpften Aussagen wie A ∧ (B ∧ C) (¬A) ∨ B ¬(A ∨ B) auszurechnen. Dabei muss man sämtliche möglichen Wahrheitswerte von A, B und C berücksichtigen, z.B. für (¬A) ∨ B : 5 A B w w w f f w f f ¬A (¬A) ∨ B f w f f w w w w Wir sehen an diesem Beispiel, dass (¬A) ∨ B dieselbe Wahrheitstafel hat wie A =⇒ B . Man wird die Aussagen “A =⇒ B ” und “(¬A) ∨ B” deshalb “logisch gleichwertig” nennen: Definition 1.1.4 : Gegeben seien mehrere Aussagen A, B, C, . . . und zwei Aussagen X und Y , die beide durch Verknüpfung dieser Aussagen A, B, C, . . . entstanden sind. Wenn die Aussage X ⇐⇒ Y für alle möglichen Wahrheitswerte der Aussagen A, B, C, . . . den Wahrheitswert w annimmt, so sagt man: X und Y sind (logisch) gleichwertig . Die Aussage “X ⇐⇒ Y ” bezeichnet man dann als eine Tautologie . Satz 1.1.5 : Wenn A, B, C Aussagen sind, dann gelten folgende Tautologien: a) ¬(¬A) ⇐⇒ A b) A ∧ B ⇐⇒ B ∧ A c) (A ∧ B) ∧ C ⇐⇒ A ∧ (B ∧ C) d) A ∨ B ⇐⇒ B ∨ A e) (A ∨ B) ∨ C ⇐⇒ A ∨ (B ∨ C) f) A ∧ (B ∨ C) ⇐⇒ (A ∧ B) ∨ (A ∧ C) g) A ∨ (B ∧ C) ⇐⇒ (A ∨ B) ∧ (A ∨ C) h) ¬(A ∧ B) ⇐⇒ (¬A) ∨ (¬B) i) ¬(A ∨ B) ⇐⇒ (¬A) ∧ (¬B) j) (A =⇒ B) ⇐⇒ ((¬B) =⇒ (¬A)) Man beweist diesen Satz durch Wahrheitstafeln, z.B. für h) : A B w w w f f w f f A∧B w f f f ¬(A ∧ B) f w w w ¬A f f w w ¬B f w f w (¬A) ∨ (¬B) f w w w h) w w w w 2 Zur Schreibweise : Bei den Formeln in Satz 1.1.5 haben wir Klammern weggelassen: Statt d) hätten wir genauer (A ∨ B) ⇐⇒ 6 (B ∨ A) schreiben müssen. Man kann die Klammern weglassen, wenn man vereinbart: Die Verknüpfungen sind in der Reihenfolge erst ¬ , dann ∧ , dann ∨ , dann =⇒ und dann ⇐⇒ auszuführen, soweit Klammern nichts Anderes festlegen. Neben Aussagen hat man es in der Mathematik zu tun mit Zahlen oder Buchstaben, die man zusammenfassen möchte zu einer Menge. Es bereitet nun erhebliche Schwierigkeiten, exakt zu definieren, was eine Menge ist. Da wir uns hier nicht mit Grundlagen der Mathematik beschäftigen wollen, reicht für uns die folgende Definition 1.1.6 : Unter einer Menge M verstehen wir eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens, welche die Elemente der Menge M genannt werden, zu einem Ganzen. Ist x ein Element von M , so schreiben wir x∈M ; ist diese Aussage falsch, so schreiben wir x∈ /M . Definition 1.1.7 (Schreibweise von Mengen) : Man kann eine Menge auf zwei Arten angeben: Entweder, man schreibt in geschweiften Klammern alle Elemente der Menge hin, etwa {1, 2, 5, x} , das soll bedeuten, dass die Menge aus den Elementen 1, 2, 5 und x besteht, oder man schreibt in den geschweiften Klammern ein Symbol für die Elemente, einen senkrechten Strich und dann die Eigenschaft, die die Elemente haben sollen. Z.B. ist { x | x ist ganze Zahl und 2 teilt x } die Menge der geraden ganzen Zahlen. Definition und Beispiel 1.1.8 : Mengen, die bei uns immer wieder vorkommen, sind N0 = {0, 1, 2, . . .} (Pünktchen setzt man, wenn man nicht alle Elemente hinschreiben will oder kann, aber sich denken kann, wie es weitergeht), die Menge der natürlichen Zahlen mit Null , N = {1, 2, 3, . . .} 7 die Menge der natürlichen Zahlen, (es ist Definitionssache, ob man 0 zu den natürlichen Zahlen rechnet; wir wollen das hier nicht tun), {0, 1, −1, 2, −2, 3, −3, . . .} = Z die Menge der ganzen Zahlen , nr o Q = r ∈ Z ∧ s ∈ Z ∧ s 6= 0 s die Menge der rationalen Zahlen , schließlich die Mengen R der reellen und C der komplexen Zahlen , die in 3.5 eingeführt werden. Wir wollen noch vereinbaren, dass es eine Menge gibt, die gar kein Element enthält, die leere Menge ∅ . Definition 1.1.9 (Gleichheit zweier Mengen) : Zwei Mengen M und N heißen gleich , man schreibt M = N , wenn jedes Element von M auch Element von N , und jedes Element von N auch Element von M ist. Wir wollen diese Definition etwas formaler aufschreiben und dabei auch gleich zwei neue Symbole kennenlernen : M = N :⇐⇒ ∀ x : (x ∈ M ⇐⇒ x ∈ N) , das Zeichen :⇐⇒ bedeutet, dass die linke Aussage durch die rechte definiert wird, man liest es : “nach Definition gleichbedeutend”. Das Zeichen ∀ heißt: “für alle” . Definition 1.1.10 (Teilmenge): Seien M und N Mengen. Man sagt, M ist Teilmenge von N , wenn jedes Element von M auch Element von N ist. Formal : M ⊂ N :⇐⇒ ∀ x : (x ∈ M =⇒ x ∈ N ). Beispiel 1.1.11 : a) Es gilt N ⊂ Z und Z ⊂ Q . b) Es gilt für jede Menge M : ∅ ⊂ M . Beweis: Es gilt ∀ x : (x ∈ ∅ =⇒ x ∈ M ) , denn die Aussage “x ∈ ∅ ” ist für alle x falsch, nach Definition der leeren Menge. 2 Wir definieren drei Operationen zwischen Mengen: Definition 1.1.12 : Seien M und N Mengen. a) Den Durchschnitt der Mengen M und N definieren wir als M ∩N := { x | x∈M ∧x∈N } . Dabei bedeutet das Zeichen “ := ”, dass die linke Menge durch die rechte Menge definiert wird. Man liest es: “nach Definition gleich”. b) Als Vereinigung der Mengen M und N definieren wir M ∪N := { x | x∈M ∨x∈N } . 8 c) Als Differenz von M und N definieren wir M \N { x | x∈M ∧x∈ /N }. := Bemerkung 1.1.13 : Wir haben inzwischen einige Zeichen kennengelernt: ∧ , ∨ , ¬ , =⇒ , ⇐⇒ , :⇐⇒ stehen zwischen zwei Aussagen . Die Zeichen ∩ , ∪ , \ , ⊂ , = , := stehen zwischen zwei Mengen . Das ist klar, wird aber von Anfängern häufig falsch gemacht. - In der Mathematik geht man davon aus , dass die Elemente von Mengen selbst wieder Mengen sind. Deshalb können die Zeichen = , := auch zwischen Elementen einer Menge stehen. Falls N ⊂ M ist, hat man für M \ N eine besondere Bezeichnung: Definition 1.1.14 : Seien M und N Mengen, N ⊂ M . Dann heißt {N := M \N das Komplement von N (bezüglich M , genauer kann man auch {M N schreiben). Aus Satz 1.1.5 folgen einige Rechenregeln für ∩, ∪, { : Satz 1.1.15 : Seien R, S, T Mengen, dann gilt a) R ∩ S = S ∩ R b) (R ∩ S) ∩ T = R ∩ (S ∩ T ) c) R ∪ S = S ∪ R d) (R ∪ S) ∪ T = R ∪ (S ∪ T ) e) R ∩ (S ∪ T ) = (R ∩ S) ∪ (R ∩ T ) f) R ∪ (S ∩ T ) = (R ∪ S) ∩ (R ∪ T ) Sind S und T Teilmengen einer Menge M , so gilt für das Komplement bezüglich M : g) {({S) = S h) {(S ∪ T ) = {S ∩ {T i) {(S ∩ T ) = {S ∪ {T Beweis mit den Regeln aus Satz 1.1.5 ; wir wollen das an einem Beispiel 9 vorführen, etwa: e) Nach Definition 1.1.9 muss man zeigen, dass jedes Element von R ∩(S ∪T ) auch Element von (R ∩ S) ∪ (R ∩ T ) ist, und umgekehrt: Nun gilt für jedes Element x : 1.1.12 x ∈ R ∩ (S ∪ T ) ⇐⇒ 1.1.12 x∈R ∧ x∈S∪T ⇐⇒ 1.1.5 x ∈ R ∧ (x ∈ S ∨ x ∈ T ) ⇐⇒ 1.1.12 (x ∈ R ∧ x ∈ S) ∨ (x ∈ R ∧ x ∈ T ) ⇐⇒ 1.1.12 x∈R∩S ∨x∈R∩T ⇐⇒ x ∈ (R ∩ S) ∪ (R ∩ T ) . 2 Definition 1.1.16 : Seien M und N Mengen, dann heißt M ×N := { (x, y) | x ∈ M ∧ y ∈ N } das cartesische Produkt der Mengen M und N . Die Elemente von M × N heißen geordnete Paare von Elementen von M und N . Wir wollen nicht definieren, was ein geordnetes Paar ist, man muss nur wissen, wann zwei geordnete Paare gleich sind: Seien (x1 , y1 ) , (x2 , y2 ) ∈ M × N , dann gilt (x1 , y1 ) = (x2 , y2 ) ⇐⇒ x1 = x2 ∧ y1 = y2 . Es kommt also auf die Reihenfolge an : (2, 3) 6= (3, 2) ! 1.2 Relationen, Induktion Definition 1.2.1 : Sei M eine Menge. Eine Relation in M ist eine Teilmenge R von M × M . Statt (x, y) ∈ R sagt man dann: “ x steht in Relation R zu y ”. (1.2.2) Beispiele für Relationen sind a) ∅, b) D := { (x, y) ∈ M | x = y } , die Gleichheitsrelation in M . c) Ein weiteres Beispiel ist die (1.2.3) Anordnung ≤ in Z: Man setzt ≤ := { (x, y) ∈ Z | es gibt ein z ∈ N0 : x + z = y } , 10 und wir schreiben im Folgenden x ≤ y statt (x, y) ∈≤. Statt a ≤ b schreibt man auch : b ≥ a für a, b ∈ Z, und man schreibt a < b statt a ≤ b ∧ a 6= b , b > a statt a < b . Es gilt dann (O1) ∀ x ∈ Z : x ≤ x , (O2) ∀ x, y ∈ Z : (x ≤ y ∧ y ≤ x =⇒ x = y ), (O3) ∀ x, y, z ∈ Z : (x ≤ y ∧ y ≤ z =⇒ x ≤ z ) . 2 Für “es gibt ein” führt man eine Abkürzung ein: Definition 1.2.4 : Statt “es existiert ein” schreiben wir : “ ∃ ”. Sei also M eine Menge und A(x) ein sprachliches Gebilde, in das man für x ein Element aus M einsetzen kann und dann eine Aussage erhält. In der Logik nennt man das ein einstelliges Prädikat . Dann ist ∃ x ∈ M : A(x) eine Aussage. (1.2.5) Beachten Sie: a) “ ∃ x ∈ M : A(x) ” heißt, dass es mindestens ein Element x mit der Eigenschaft A(x) gibt, es kann auch mehrere solche Elemente geben ! Will man ausdrücken, dass es genau ein Element x mit der Eigenschaft A(x) gibt, so schreibt man: ∃1 x ∈ M : A(x) . b) Es gibt einige logische Regeln für “ ∃ ” und “∀ ”: Seien M und N Mengen, A(x), B(x) einstellige Prädikate und C(x, y) ein zweistelliges Prädikat (d.h. hier muss man für x und y Elemente einsetzen, um eine Aussage zu erhalten). Dann gelten die Regeln: (1) ¬(∀ x ∈ M : A(x)) ⇐⇒ ∃ x ∈ M : (¬A(x)) (2) ¬(∃ x ∈ M : A(x)) ⇐⇒ ∀ x ∈ M : (¬A(x)) (3) ∀ x ∈ M : A(x) ∧ ∀ x ∈ M : B(x) ⇐⇒ ∀ x ∈ M : (A(x) ∧ B(x)) (4) ∀ x ∈ M : A(x) ∨ ∀ x ∈ M : B(x) =⇒ ∀ x ∈ M : (A(x) ∨ B(x)) (5) ∃ x ∈ M : (A(x) ∨ B(x)) ⇐⇒ ∃ x ∈ M : A(x) ∨ ∃ x ∈ M : B(x) (6) ∃ x ∈ M : (A(x) ∧ B(x)) =⇒ ∃ x ∈ M : A(x) ∧ ∃ x ∈ M : B(x) (7) ∀ x ∈ M ∀ y ∈ N : C(x, y) ⇐⇒ ∀ y ∈ N ∀ x ∈ M : C(x, y) (8) ∃ x ∈ M ∃ y ∈ N : C(x, y) ⇐⇒ ∃ y ∈ N ∃ x ∈ M : C(x, y) (9) ∃ x ∈ M ∀ y ∈ N : C(x, y) =⇒ ∀ y ∈ N ∃ x ∈ M : C(x, y) . Man mache sich an Beispielen klar, dass bei (4),(6) und (9) nicht “ ⇐⇒ ” steht! 11 Definition 1.2.6 : Sei M eine Menge und R eine Relation in M , die die drei Eigenschaften (Ä1) ∀ x ∈ M : (x, x) ∈ R (“Reflexivität”), (Ä2) ∀ x, y ∈ M : ((x, y) ∈ R =⇒ (y, x) ∈ R) ( “Symmetrie”) (Ä3) ∀ x, y, z ∈ M : ((x, y) ∈ R ∧ (y, z) ∈ R =⇒ (x, z) ∈ R) ( “Transitivität”) hat, dann heißt R eine Äquivalenzrelation auf M . Man schreibt dann meist ∼ statt R und x ∼ y statt (x, y) ∈ R. Definition und Satz 1.2.7 : Sei M eine Menge und ∼ eine Äquivalenzrelation auf M . Für x ∈ M nennt man x := { y∈M | y∼x } die Äquivalenzklasse von x . Es gilt (1) ∀ x ∈ M : x ∈ x, (2) ∀ x, y ∈ M : (x = y [ x = M. (3) ∨ x ∩ y = ∅), x∈M Der Beweis ist eine leichte Übungsaufgabe. 2 Eine Eigenschaft der Menge N der natürlichen Zahlen ist das (1.2.8) Induktionsaxiom (IP) : Sei P (n) ein einstelliges Prädikat, das für natürliche Zahlen n definiert ist. Dann gilt (P (1) ∧ ∀ m ∈ N : (P (m) =⇒ P (m + 1))) =⇒ ∀ n ∈ N : P (n) . 2 Man kann damit Induktionsbeweise führen, um eine Aussage der Form ∀ n ∈ N : P (n) zu beweisen. Entsprechend dem Induktionsaxiom besteht so ein Induktionsbeweis aus zwei (!) Schritten: Induktionsanfang : Man zeigt, dass P (1) wahr ist. Induktionsschluss : Man zeigt für jedes m ∈ N : Wenn P (m) wahr ist (Induktionsvoraussetzung), dann gilt auch P (m + 1). 12 Aus diesen beiden Aussagen folgt dann, dass die Aussage ∀ n ∈ N : P (n) wahr ist. 2 Bemerkung 1.2.9 : In der Schule lernt man häufig folgendes Schema für Induktionsbeweise: Induktionsanfang : Man zeigt, dass P (1) wahr ist. Induktionsvoraussetzung: Sei m ∈ N, und P (m) sei wahr. Induktionsschluss: Man zeigt, dass dann auch P (m + 1) wahr ist. Wenn man das Induktionsaxiom verstanden hat, mag diese Schreibweise angehen. Aber man darf dieses Schema nicht lesen als P (1) ∧ ∀ m ∈ N : P (m) =⇒ ∀ m ∈ N : P (m + 1) dann hat man das Induktionsaxiom nicht verstanden. Die obige, zweiteilige, Form des Induktionsbeweises, bei der die Induktionsvoraussetzung (I.V.) Teil des Induktionsschlusses ist, ist logisch durchsichtiger. 2 Man kann auch den Induktionsanfang bei einer Zahl k ∈ Z und den Induktionsschluss für alle m ∈ Z mit m ≥ k machen, dann gilt P (n) für alle n ∈ Z mit n ≥ k. Bemerkung 1.2.10 : Man kann das Induktionsaxiom auch für rekursive Definitionen verwenden: Wenn man für alle n ∈ N ein Element x(n) definieren will, definiert man (1.) x(1) , und (2.) für jedes m ∈ N : x(m + 1) mit Hilfe von x(m), dann ist nach dem Induktionaxiom x(n) für jedes n ∈ N definiert. Ein Beispiel ist die Definition des Summenzeichens: Definition 1.2.11: Sei M eine Menge, in der eine Addition + definiert ist. Seien m, n ∈ Z , m ≤ n . Für jede Zahl k in Z mit m ≤ k ≤ n sei ak ∈ M gegeben. Dann setzen wir m P (I) für n = m : ak := am (II) für n ≥ m : k=m n+1 P k=m ak := n P ak + an+1 , k=m wenn auch an+1 ∈ M ist. Übrigens: wenn M genau ein Element 0 mit der Eigenschaft ∀a ∈ M : a + 0 13 = a besitzt, definiert man noch die leere Summe n X ak := 0 für n < m . k=m Wir brauchen das Summenzeichen häufig etwas allgemeiner: Bei der in M definierten Addition + komme es auf die Reihenfolge der Summanden nicht an, es sei a + b = b + a für alle a, b. Sei I = {j1 , . . . , jn } mit n ∈ N0 eine Menge und seien aj1 , . . . , ajn ∈ M . Dann setzen wir X k∈I ak := n X aj k . k=1 2 Es gibt noch zwei Aussagen über natürliche Zahlen, die zum Induktionsaxiom (IP) gleichbedeutend sind. Das wollen wir aber hier nicht beweisen: (1.2.12) Prinzip der Ordnungsinduktion (OI): Sei P (n) ein einstelliges Prädikat, das für natürliche Zahlen n definiert ist. Dann gilt P (1)∧∀ m ∈ N : ((∀ k ∈ N : (k < m =⇒ P (k))) =⇒ P (m)) =⇒ ∀ n ∈ N : P (n) Das liest sich etwas kompliziert, sagt aber nur: Man macht den Induktionsschluss nicht vom m auf m + 1, sondern von allen Zahlen k < m auf m. (1.2.13) Wohlordnung der natürlichen Zahlen (WO) : Jede nichtleere Teilmenge M von N besitzt ein kleinstes Element, d.h. ∃ a ∈ M∀ x ∈ M : a ≤ x . So ein Element (das dann eindeutig bestimmt ist) nennen wir min(M) . 1.3 Funktionen Definition 1.3.1 : Seien M und N Mengen, dann heißt eine Vorschrift f , die jedem Element x ∈ M genau ein Element aus N zuordnet, das man mit f (x) bezeichnet, eine Funktion (Abbildung) von M in N . Man schreibt zur Abkürzung f : M −→ N x 7−→ f (x) . 14 Die Menge M heißt der Definitionsbereich von f , die Menge N der Wertebereich von f , das Element f (x) der Funktionswert von x . Für die Menge aller Funktionen von M in N schreiben wir: F(M, N ) . Bemerkung 1.3.2 : Falls Sie die Begriffe “Vorschrift” und “Zuordnung” unpräzis finden, machen Sie es formaler (aber weniger einprägsam): Seien M und N Mengen und F eine Teilmenge von M × N mit den beiden Eigenschaften: (1) ∀ x ∈ M ∃y ∈ N : (x, y) ∈ F , (2) ∀ x ∈ M ∀y1 , y2 ∈ N : ((x, y1 ) ∈ F ∧ (x, y2 ) ∈ F =⇒ y1 = y2 ) . Dann heißt das Paar f := (F, N ) eine Funktion von M in N . Mit dieser etwas formaleren Definition kann man beweisen: Satz 1.3.3 : Seien M1 , M2 , N1 , N2 Mengen. Zwei Funktionen f : M1 −→ N1 und g : M2 −→ N2 sind gleich , wenn gilt M1 = M2 ∧ N1 = N2 ∧ ∀ x ∈ M1 : f (x) = g(x) , also wenn Definitions- und Wertebereiche und für alle x ∈ M1 die Funktionswerte übereinstimmen. Definition 1.3.4 : Sei f : M −→ N eine Abbildung. Sei A ⊂ M und B ⊂ N . Dann heißt f (A) := { y ∈ N | ∃ x ∈ A : y = f (x) } das Bild von A unter f und −1 f (B) := { x ∈ M | f (x) ∈ B } 2 das Urbild von B unter f . Definition 1.3.5 : Sei f : M Dann heißt die durch f |A : A −→ N −→ N eine Abbildung und A ⊂ M . , f |A (x) := f (x) definierte Abbildung die Restriktion (Einschränkung) von f auf A . f |A hat also einen kleineren Definitionsbereich als f ; die Funktionswerte f |A (x) sind für x ∈ A aber die gleichen wie die Funktionswerte f (x) . 2 Zusätzliche Eigenschaften von Funktionen haben besondere Namen: 15 Definition 1.3.6 : Sei f : M −→ N eine Abbildung. f heißt a) surjektiv (Abbildung von M auf N ) , wenn f (M ) = N ist, oder, was nach Definition 1.3.4 gleichbedeutend ist: ∀ y ∈ N ∃ x ∈ M : f (x) = y , b) injektiv ( eineindeutig ), wenn verschiedene Elemente von M verschiedene Funktionswerte haben, oder, was gleichbedeutend ist: ∀ x, x0 ∈ M : ( f (x) = f (x0 ) =⇒ x = x0 ) , c) bijektiv , wenn f surjektiv und injektiv ist. Definition 1.3.7 : Sei f : M −→ N bijektiv. Sei y ∈ N , dann gibt es dazu, da f surjektiv ist, ein, und da f injektiv ist, genau ein Element aus M , dessen Funktionswert gleich y ist, wir nennen es f −1 (y) . Die Funktion f −1 : N −→ M , y 7−→ f −1 (y) heißt die Umkehrfunktion von f . (1.3.8) Beachten Sie : Sei f : M −→ N , dann ist für B ⊂ N das −1 Urbild f (B) definiert. Nur, wenn f bijektiv ist, ist die Umkehrfunktion f −1 definiert. Für B ⊂ N ist dann allerdings −1 f −1 (B) = f (B) , so dass es keine Missverständnisse gibt. (1.3.9) Beispiele : 1) Ist M eine Menge, so heißt idM : M −→ M x 7−→ x die identische Abbildung von M . Sie bildet jedes Element auf sich selbst ab und ist bijektiv. 2) Sei f : R −→ R , f (x) := x2 , so ist f nicht surjektiv, denn zu −1 gibt es kein x ∈ R mit f (x) = −1 . f ist auch nicht injektiv, denn f (2) = Setzt man aber R∗+ f (−2) := = 4 , aber 2 6= −2 . { x ∈ R | x > 0 } und betrachtet g : R∗+ −→ R∗+ , g(x) := x2 , so ist g bijektiv. Um das zu beweisen, muss man zeigen, dass es zu jedem y ∈ R∗+ ein x ∈ R∗+ mit y = x2 gibt, also dass man aus positiven reellen 16 Zahlen Quadratwurzeln ziehen kann. Man lernt das in der Analysis. Definition 1.3.10 : Seien f : L −→ M und g : M −→ N Abbildungen, dann kann man die Hintereinanderausführung von f und g bilden : g ◦ f : L −→ N , x 7−→ g(f (x)) . Beachten Sie, dass man (g ◦ f )(x) erhält, indem man zuerst f auf x und dann g auf f (x) anwendet. 2 Bildet man die Hintereinanderausführung von drei oder mehr Funktionen, so kommt es nicht auf die Reihenfolge der Klammern an: Satz 1.3.11 (Assoziativität der Hintereinanderausführung) : Seien f : K −→ L , g : L −→ M , h : M −→ N Abbildungen, dann gilt (h ◦ g) ◦ f h ◦ (g ◦ f ) . = Beweis : (h ◦ g) ◦ f und h ◦ (g ◦ f ) sind beides Abbildungen von K in N , und für alle x ∈ K gilt ((h ◦ g) ◦ f )(x) = (h ◦ g)(f (x)) = h(g(f (x))) , (h ◦ (g ◦ f ))(x) = h((g ◦ f )(x)) = h(g(f (x))) . Nach Satz 1.3.3 gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f 2 . Wir wollen noch ein Kriterium dafür beweisen, wann eine Funktion injektiv, surjektiv oder bijektiv ist: Satz 1.3.12 : Sei f : M −→ N eine Funktion und seien M, N 6= ∅ . Dann gilt: a) f ist injektiv genau dann, wenn es eine Abbildung g : N −→ M mit g ◦ f = idM gibt. b) f ist surjektiv genau dann, wenn es eine Abbildung g : N −→ M mit f ◦ g = idN gibt. c) f ist bijektiv genau dann, wenn es eine Abbildung g : N −→ M mit f ◦ g = idN 17 und g ◦ f = idM gibt. In diesem Fall ist g = f −1 die Umkehrfunktion von f . Beweis : a) 1.) Sei f injektiv. Sei y ∈ N , dann gibt es zwei Möglichkeiten: Entweder ist y ∈ f (M ) , dann gibt es, da f injektiv ist, genau ein x mit y = f (x) . Wir setzen g(y) := x . Oder es ist y ∈ / f (M ) . Wegen M 6= ∅ gibt es ein Element x0 ∈ M . Wir setzen dann g(y) := x0 . Dann ist g◦f = idM , denn für alle x ∈ M gilt (g ◦ f )(x) = x . 2.) Es gebe ein g : N −→ M mit g ◦ f = idM . Seien x, x0 ∈ M , dann gilt f (x) = f (x0 ) g(f (x)) = g(f (x0 )) =⇒ x = x0 =⇒ , idM (x) = idM (x0 ) =⇒ also ist f injektiv. b) 1.) Sei f surjektiv. Sei y ∈ N , dann gibt es mindestens ein x ∈ M −1 mit y = f (x) , es ist f ({y}) 6= ∅ . −1 (∗) Wir wählen ein x ∈ f ({y}) und setzen g(y) := x , dann gilt f ◦g = idN , denn für y ∈ N gilt g(y) = x , wobei f (x) = y ist, also f (g(y)) = y . 2.) Es gebe ein g : N −→ M mit f ◦ g = idN . Sei y ∈ N ,dann ist y = (f ◦ g)(y) = f (g(y)) , also gibt es ein x ∈ M mit y = f (x) , nämlich x := g(y) . Also ist f surjektiv. c) 1.) Wenn es ein g : N −→ M mit f ◦ g = idN und g ◦ f = idM gibt, folgt aus a) und b) , dass f bijektiv ist. 2.) Wenn f bijektiv ist, haben wir die Umkehrfunktion f −1 : N −→ M , die die beiden Gleichungen f ◦ f −1 = idN f −1 ◦ f = idM , erfüllt. 3.) Sei f bijektiv und es gebe g : N −→ M mit f ◦ g = idN , g ◦ f = idM 18 , dann folgt f −1 = f −1 ◦ (f ◦ g) = (f −1 ◦ f ) ◦ g = idN ◦ g = g . Bei (∗) haben wir gebraucht, dass man aus (möglicherweise unendlich vielen) Mengen je ein Element auswählen kann; das “Auswahlaxiom” der Mengenlehre besagt, dass das geht. Wir wollen auf solche Fragen der Grundlagen der Mathematik hier nicht eingehen. 2 Definition 1.3.13 : a) Für n ∈ N setzen wir := n n := { m∈N | m≤n } {1, 2, . . . , n} , 0 , also und zusätzlich ∅ . := b) Sei M eine Menge. M heißt endlich , wenn es ein n ∈ N0 und eine bijektive Abbildung f : n −→ M gibt. Man kann dann (mit Induktion) beweisen, dass das n eindeutig bestimmt ist. Es ist daher sinnvoll, #(M ) := n die Mächtigkeit von M zu nennen. c) Ist die Menge M nicht endlich, so heißt M eine unendliche Menge. 1.4 Etwas analytische Geometrie im Rn Wir wollen dieses Kapitel voranstellen, auch wenn wir hinterher Vieles allgemeiner machen. Aber Sie sollen zunächst mal etwas lernen, das an die “Vektorrechnung” anknüpft, die Sie von der Schule kennen: Bemerkung 1.4.1 : Mit der Einführung der reellen Zahlen beschäftigen Sie sich in der Analysis. Hier brauchen Sie zunächst nur zu wissen, dass man für a, b ∈ R die Summe a + b ∈ R und das Produkt a · b ∈ R hat, die Rechenregeln setzen wir auch mal als bekannt voraus, auch, dass man die reellen Zahlen anordnen kann, so dass a < b , a ≤ b ,b > a ,b ≥ a für a, b ∈ R definierte Aussagen sind. Wir brauchen noch: Für a ∈ R, a ≥ 0, ist √ √ √ a ∈ R definiert , ( a)2 = a , a ≥ 0. 19 Definition 1.4.2 : Sei n ∈ N. Dann definieren wir mit Def.1.1.16 Rn rekursiv durch R1 := R , Rn+1 := Rn × R für n ∈ N, also Rn = { (x1 , . . . , xn ) | ∀ j ∈ n : xj ∈ R } , also ist Rn die Menge der geordneten n−tupel reeller Zahlen. Man kann Elemente aus Rn addieren, (x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ) und mit einem λ ∈ R multiplizieren: λ(x1 , . . . , xn ) := (λ · x1 , . . . , λ · xn ), für x1 , . . . , xn , y1 , . . . yn ∈ R . Für n = 2 und n = 3 kann man diese Addition von “Vektoren” und die Multiplikation mit reellen Zahlen geometrisch veranschaulichen (etwa für n = 2): x2 x+y 7 6 y > x x2 6 > λx > x - x1 Noch zur Schreibweise: Man hat die reelle Zahl 0 , und 0 := (0, . . . , 0) ∈ Rn , wir schreiben für beide Elemente dasselbe Zeichen. Zu x = (x1 , . . . , xn ) ∈ Rn hat man −x := (−x1 , . . . , −xn ) ∈ Rn , x + (−x) = 0. Für x, y ∈ Rn schreiben wir auch x − y := x + (−y). 20 dafür gilt - x1 Definition 1.4.3 : Seien x = (x1 , . . . , xn ) , y = (y1 , . . . , yn ) ∈ Rn . Dann nennen wir hx, yi := n X xj y j j=1 das kanonische Skalarprodukt von x und y. Man hat also die Abbildung h , i : Rn × Rn −→ R , (x, y) 7−→ hx, yi , d,h. zwei “Vektoren” x, y ∈ Rn wird ein “Skalar” hx, yi ∈ R zugeordnet. Behauptung 1.4.4 : Für alle x, x0 , y ∈ Rn , λ ∈ R gilt (H1) hx+x0 , yi = hx, yi+hx0 yi , hλx, yi = λ hx, yi , (H2) hx, yi = hy, xi , (H4) hx, xi ≥ 0 und (x 6= 0 =⇒ hx, xi > 0 ). Beweisen kann man diese Aussagen direkt mit der Definition. Bei (H4) braucht man noch, was man in der Analysis lernt : ∀ a ∈ R : (a 6= 0 =⇒ ∀a, b ∈ R : (a, b ≥ 0 a2 > 0) , =⇒ und a + b ≥ 0). 2 Wegen (H4) ist die folgende Definition sinnvoll: Definition 1.4.5 : Für x = (x1 , . . . , xn ) ∈ Rn nennen wir q p k x k := hx, xi = x21 + . . . + x2n die Norm (Länge) von x . Den Winkel zwischen zwei “Vektoren” wollen wir jetzt nicht definieren, dazu fehlen uns Kenntnisse aus der Analysis. Aber wir können “senkrecht stehen” von Vektoren definieren: Definition 1.4.6 : Seien x, y ∈ Rn . Wir sagen, x und y sind zueinander 21 orthogonal , oder: x und y stehen senkrecht aufeinander, in Zeichen : x⊥y , wenn hx, yi = 0 ist. 2 Ganz einfach zu beweisen (aber letztlich nur eine Folge davon, dass wir unsere Definitionen passend gewählt haben) ist Satz 1.4.7 (Pythagoras) Seien x, y ∈ Rn , x⊥y, dann gilt k x k2 + k y k2 = k x − y k2 . H y 6HHH H HH HH x − y H HH H x H j H - Beweis : k x − y k2 1.4.5 hx − y, x − yi (H1) hx, x − yi − hy, x − yi = = (H1),(H2) hx, xi − hx, yi − hy, xi + hy, yi (*) k x k2 + k y k2 , = = wobei wir bei (*) verwendet haben, dass x⊥y gilt. 2 Definition 1.4.8 : Sei n ∈ N und seien p, a ∈ Rn , a 6= 0 . Dann heißt die Menge Gp,a := { p + λa | λ ∈ R } , kurz geschrieben: Gp,a = p + R · a die Gerade durch p mit Richtung a . Die Schreibweise Gp,a = p + R · a 22 heißt eine Parameterdarstellung von Gp,a . Bemerkung 1.4.9 (1.5) : Zu einer Geraden G ⊂ Rn sind p , a mit G = Gp,a nicht eindeutig bestimmt. Bitte überlegen Sie sich: Für p, q, a, b ∈ Rn mit a, b 6= 0 gilt Gp,a = Gq,b ⇐⇒ q ∈ Gp,a ∧ ∃ µ ∈ R \ {0} : b = µa . 2 Man kann mit der Parameterdarstellung durchaus rechnen, z.B. kann man Schnittpunkte ausrechnen, wenn sie existieren. Im R2 kann man Geraden auch anders, als Lösungsmenge einer linearen Gleichung, angeben: 1.5 Geraden im R2 Bemerkung 1.5.1 : Sei G ⊂ R2 eine Gerade, dann gibt es p, a ∈ R2 mit a 6= 0 und G = x Gp,a = { p + λa | λ ∈ R } (x1 , x2 ) ∈ G = , also gilt : ⇐⇒ ∃ λ ∈ R : (x1 = p1 + λ a1 ∧ x2 = p2 + λ a2 ) . Wir multiplizieren die erste Gleichung mit a2 , die zweite mit a1 und subtrahieren die beiden Gleichungen voneinander : a2 x1 − a1 x2 = a2 p1 − a1 p2 , dann wird G ⊂ x ∈ R2 h x, (−a2 , a1 ) i = h p, (−a2 , a1 ) i , wir werden gleich sehen, dass hier nicht nur “⊂ ”, sondern sogar “ = ” steht. Zunächst Definition und Satz 1.5.2 : Für a = (a1 , a2 ) ∈ R2 definieren wir a⊥ := (−a2 , a1 ) . Dann gilt für alle a, b ∈ R2 , λ ∈ R : (1) (a + b)⊥ = a⊥ + b⊥ , (λ a)⊥ = λ a⊥ (2) h a, a⊥ i = 0 , h a, b⊥ i = −h a⊥ , bi , ka⊥ k = kak , (a⊥ )⊥ = −a . Beweis als Übungsaufgabe (1.5). 2 23 Definition und Satz 1.5.3 : Sei c ∈ R2 \ {0} und α ∈ R , dann ist Hc,α := x ∈ R2 h x, c i = α = x ∈ R2 c1 x1 + c2 x2 = α eine Gerade im R2 , und zwar (∗) Hc,α = G α ·c,c⊥ kck2 . Hc,α heißt die Gleichungsdarstellung der Geraden G := G α 2 ·c,c⊥ kck denn Hc,α ist die Menge der Lösungen x der linearen Gleichung c1 x 1 + c2 x 2 = , α . Beweis : Wenn wir die Gleichheit (∗) zeigen, ist bewiesen, dass Hc,α eine Gerade ist : 1.) Sei x ∈ G α 2 ·c,c⊥ , dann gibt es ein λ ∈ R mit kck x α c + λ c⊥ kck2 = also h x, c i = h x, c i 2.) Sei x ∈ Hc,α hx − α kck2 kck2 = α c, c i kck2 α h c, c i + λ h c⊥ , c i , kck2 = α , also h x, c i = α , , h x, c i − = , also x ∈ Hc,α . dann folgt α h c, c i kck2 α−α = = 0 . α Für y := x − kck 2 c gilt also h y, c i = 0 , und es ist c 6= 0 . Ist c1 6= 0 , so folgt aus 0 = h y, c i = y1 c1 + y2 c2 : y1 = y2 · (−c2 ) , c1 also y und sowieso : y2 = = y2 ⊥ ·c c1 y2 c1 c1 , . Ist c2 6= 0 , so folgt y2 = − y1 · c1 c2 , und sowieso : y1 = − also y = 24 − y1 ⊥ ·c c2 , y1 · (−c2 ) , c2 auf jeden Fall: ∃ λ ∈ R : y = λc⊥ x− also x ∈ G α ·c,c⊥ kck2 α c = λc⊥ 2 kck , , x = α c + λc⊥ 2 kck , . 2 Bemerkung 1.5.4 : Mit der Formel (∗) Hc,α = G α ·c,c⊥ kck2 erhält man zu einer Geraden in Gleichungsdarstellung leicht eine Parameterdarstellung. Umgekehrt geht das auch: Für p, a ∈ R2 mit a 6= 0 gilt (∗∗) Gp,a = Ha⊥ ,ha⊥ ,pi . Beweis als Übung. 2 (1.5.5) Schnittpunkt zwischen Geraden im R2 : Hat man zwei Geraden im R2 , etwa in Parameterform Gp,a und Gq,b mit p, q, a, b ∈ R2 , a, b 6= 0 , so kann man fragen, ob sie einen eindeutig bestimmten Schnittpunkt s besitzen. Ist s ∈ Gp,a ∩ Gq,b , so gibt es λ, µ ∈ R mit s = p + λa = q + µb , und wenn wir das Skalarprodukt mit a⊥ bilden : (0) h p, a⊥ i = h q, a⊥ i + µh b, a⊥ i , und es gibt genau dann eine eindeutig bestimmte Lösung für µ , wenn h b, a⊥ i = 6 0 ist : h p − q, a⊥ i (1) Gp,a ∩ Gq,b = q+ b für h b, a⊥ i = 6 0 . h b, a⊥ i Ist h b, a⊥ i = 0 , so sieht man: Für h p − q, a⊥ i = 6 0 gibt es keinen Schnittpunkt, für h p − q, a⊥ i = 0 ist jedes µ ∈ R Lösung von (0) . 25 Man sieht, dass h b, a⊥ i = 0 bedeutet, dass die Geraden Gp,a und Gq,b parallel sind. Wir halten es schon einmal fest: Eine lineare Gleichung mit einer Unbekannten, wie (0) , besitzt durchaus nicht immer eine eindeutig bestimmte Lösung; es kann auch sein, dass sie keine Lösung besitzt oder dass alle reellen Zahlen Lösungen sind ! Der Vollständigkeit halber geben wir noch Formeln für den Schnittpunkt an, wenn mindestens eine der Geraden in Gleichungsdarstellung gegeben ist: Für a, b, c, p ∈ R2 , a, b, c 6= 0 und α, β ∈ R gilt 1 ⊥ ⊥ (βa − αb ) für h a⊥ , b i = 6 0 , (2) Ha,α ∩ Hb,β = ⊥ ha ,bi Gp,a ∩ Hc,α (3) = α − h p, c i p+ a h a, c i für h a, c i = 6 0 . Beweisen können Sie diese Formeln leicht. Auswendig lernen sollten Sie sie keineswegs ! 2 Es liegt nahe, dass man so etwas wie den Vektor x⊥ , der “die” zu x senkrechte Richtung angibt, falls x 6= 0 ist, im Rn für n ≥ 3 nicht definieren kann. x x⊥ H Y HH H HH H 1.6 Geraden und Ebenen im R3 Zuvor die Definition 1.6.1 : Seien a, b ∈ Rn , n ∈ N . Dann heißt das Paar (a, b) linear unabhängig, wenn für alle λ, µ ∈ R gilt λa + µb = 0 =⇒ 26 λ = µ = 0 . Bemerkung 1.6.2 : Seien p, a ∈ R3 , a 6= 0 , so ist Gp,a = { p + λa | λ ∈ R } die Gerade durch p mit Richtung a , in Parameterdarstellung. Aber: Ist c ∈ R3 , c 6= 0 , und α ∈ R , so ist Hc,α = x ∈ R3 h x, c i = α , also die Menge der Lösungen (x1 , x2 , x3 ) der linearen Gleichung c1 x 1 + c2 x 2 + c3 x 3 = α keine Gerade: Sei p ∈ Hc,α , also p eine feste Lösung dieser Gleichung (die wegen c 6= 0 existiert: Ist etwa c1 6= 0 , so ist α p = , 0, 0 eine Lösung ), c1 dann gilt für beliebiges x ∈ Hc,α : (1) h x − p, c i = h x, c i − h p, c i = α−α = 0 , Hc,α ist die Menge der x ∈ R3 , für die x − p auf c senkrecht steht : Anschaulich gesehen, ist das eine Ebene: x3 c XXX XXX x2 XXX XX XXX X X XX XX X E XXXX XXX XXX X x1 Sei E := { y ∈ R3 | h y, c i = 0 } , dann gibt es wegen c 6= 0 stets zwei Lösungen a, b von h y, c i = 0 , also zwei Elemente aus E , die verschiedene “Richtungen” haben: Ist etwa c1 6= 0 , so kann man c2 c3 a := − , 1, 0 , b := − , 0, 1 c1 c1 27 wählen, entsprechend für die Fälle c2 6= 0 bzw. c3 6= 0 . Dass a und b verschiedene “Richtungen” haben, kann man mit Definition 1.6.1 so ausdrücken: Das Paar (a, b) ist linear unabhängig. Es gilt dann (2) E = { λ a + µ b | α, µ ∈ R } . Beweis von (2): 1.) Aus h a, c i = h b, c i = 0 folgt hλa + µb, ci = λ h a, c i + µ h b, c i = 0 für alle λ, µ ∈ R , also { λ a + µ b | λ, µ ∈ R } ⊂ E . 2.) Wir zeigen E ⊂ { λa + µb | λ, µ ∈ R } für den Fall c1 = 6 0 und obiges a, b : Sei y = (y1 , y2 , y3 ) ∈ E , dann setzen wir λ := y2 und µ := y3 . Wegen h y, c i = 0 gilt dann y1 = − c3 c2 y2 − y3 c1 c1 , also y1 = λa1 + µb1 , y2 = λa2 + µb2 wegen a2 = 1 , b2 = 0 , y3 = λa3 + µb3 wegen a3 = 0 , b3 = 1 , y = λa + µb also Aus (1) und (2) folgt dann Hc,α = { p + λa + µb | λ, µ ∈ R } , wobei p eine feste Lösung von h x, c i = α ist, und a, b Lösungen von h y, c i = 0 sind, noch so, dass das Paar (a, b) linear unabhängig ist. 2 Wir haben gesehen: Eine lineare Gleichung h x, c i = α , c ∈ R3 \ {0} , α ∈ R beschreibt eine Ebene im R3 . Kann man eine Gerade im R3 vielleicht durch mehrere lineare Gleichungen beschreiben ? Definition und Satz 1.6.3 : Seien b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) ∈ R3 , dann nennen wir b ×c := (b2 c3 − b3 c2 , −b1 c3 + b3 c1 , b1 c2 − b2 c1 ) das Vektorprodukt von b und c . Es gilt (0) h b, b × c i = h c, b × c i = 0 , 28 d.h. b und c stehen auf b × c senkrecht. Beweis : Die Gleichung (0) ist Aufgabe (1.9) e). 2 Bemerkung 1.6.4 : 1.) Sei Gp,a = mit a, p ∈ R3 , a 6= 0 { p + λa | λ ∈ R } eine Gerade im R3 Dann gilt für x ∈ Gp,a , x = (x1 , x2 , x3 ) : xj = pj + λaj für j ∈ 3 . Man kann eine dieser Gleichungen nach λ auflösen und auf diese Weise λ eliminieren: Wegen a 6= 0 ist eins der aj ungleich 0 . Sei etwa a1 6= 0 , dann 1 a2 a2 1 x1 − p1 und x2 = p2 + x1 − p1 , also haben wir λ = a1 a1 a1 a1 a1 x2 − a2 x1 = a1 p2 − a2 p1 a1 x 3 − a3 x 1 = a1 p 3 − a3 p 1 , entsprechend : . Setzen wir b := (−a2 , a1 , 0) , (∗) c := (−a3 , 0, a1 ) , β := a1 p2 − a2 p1 , γ := a1 p3 − a3 p1 , so ist Gp,a ⊂ x ∈ R3 h b, x i = β ∧ h c, x i = γ , wobei die Familie (b, c) wegen a1 6= 0 linear unabhängig ist, und b und c stehen auf dem Richtungsvektor a von Gp,a senkrecht: b⊥a wegen h (−a2 , a1 , 0), (a1 , a2 , a3 ) i = 0 , ebenso : c⊥a . 2.) Wir zeigen nun : Für eine linear unabhängige Familie (b, c) mit b, c ∈ R3 und β, γ ∈ R ist x ∈ R3 h b, x i = β ∧ h c, x i = γ eine Gerade im R3 , deren Richtungsvektor auf b und c senkrecht steht. Damit ist dann auch gezeigt, dass in (∗) das Gleichheitszeichen steht: Aus der linearen Unabhängigkeit von (b, c) folgt, dass b und c ungleich 0 sind. 29 Sei etwa b1 6= 0 . Wir multiplizieren die Gleichung h b, x i = β mit c1 und die Gleichung h c, x i = γ mit b1 , b1 c 1 x 1 + b2 c 1 x 2 + b3 c 1 x 3 = c1 β , b1 c 1 x 1 + b1 c 2 x 2 + b1 c 3 x 3 = b1 γ , und subtrahieren: (b2 c1 − b1 c2 )x2 + (b3 c1 − b1 c3 ) x3 = c1 β − b1 γ Angenommen, b2 c1 − b1 c2 = 0 ∧ b3 c1 − b1 c3 = 0 , c2 = . dann folgt c1 c1 c1 b2 ∧ c3 = b3 , sowieso: c1 = b1 b1 b1 b1 , c1 b , also (b, c) nicht linear unabhängig, Widerspruch. Also ist b1 b2 c1 − b1 c2 6= 0 ∨ b3 c1 − b1 c3 6= 0 . Sei etwa also c = b2 c1 − b1 c2 6= 0 , dann können wir c 1 β − b1 γ − b3 c 1 + b1 c 3 b2 c 1 − b1 c 2 1 p1 := (β − b2 p2 − b3 p3 ) b1 wählen, dann ist p eine Lösung von p3 := 1 , p2 := h b, p i = β ∧ h c, p i = γ und . Für jede weitere Lösung x von h b, x i = β ∧ h c, x i = γ gilt dann h b, x − p i = 0 ∧ h c, x − p i = 0 , also ist y := x − p eine Lösung von h c, y i = 0 . (b2 c1 − b1 c2 )y2 + (b3 c1 − b1 c3 )y3 = 0 . (∗∗) h b, y i = Mit derselben Rechnung wie oben folgt Wenn wir y3 := b1 c2 − b2 c1 setzen, folgt y2 = −b1 c3 + b3 c1 , und aus h b, y i = 0 : 30 b1 y1 + b2 (−b1 c3 + b3 c1 ) + b3 (b1 c2 − b2 c1 ) = 0 , b1 y1 + b1 (c2 b3 − c3 b2 ) y1 y = = = 0 , −c2 b3 + c3 b2 , also (b2 c3 − b3 c2 , −b1 c3 + b3 c1 , b1 c2 − b2 c1 ) = b×c , und jede andere Lösung von (∗∗) ist ein λ−faches dieses Vektors, λ ∈ R . Für jede Lösung x von h b, x i = β ∧ h c, x i = γ gilt x = p + λ ( b × c) , also x ∈ R3 h b, xi = β ∧ h c, x i = γ = Gp,b×c . 2 Bemerkung 1.6.5 : Sie sehen: Es ist gar nicht von vornherein klar, wie die Lösungsmenge von m Gleichungen mit n Unbekannten im Rn geometrisch aussieht. Wir werden im Laufe dieses Semesters eine Theorie dafür entwickeln. Das ist auch deshalb sinnvoll, weil wir bei unseren bisherigen Überlegungen oft nur Spezialfälle betrachtet haben, wenn wir gesagt haben: Sei b ∈ R3 , b 6= 0 , dann ist eine der drei Komponenten 6= 0 . Sei etwa b1 6= 0 , dann folgt . . . . 1.7 Aufgaben (1.1) Sei f : M −→ N eine Abbildung. Zeigen Sie: −1 a) Für alle A ⊂ M gilt A ⊂ f (f (A)) . b) f ist genau dann injektiv, wenn für alle A ⊂ M gilt −1 A = f (f (A)) . −1 c) Für alle B ⊂ N gilt f ( f (B)) ⊂ B . d) f ist genau dann surjektiv, wenn für alle B ⊂ N gilt −1 B = f ( f (B)) . e) Ist f bijektiv, so ist für alle B ⊂ N das Bild von B unter f −1 gleich dem Urbild von B unter f : f −1 (B) −1 = 31 f (B) . (1.2) Sei f : M −→ N eine Abbildung und seien A, B ⊂ M , C, D ⊂ N . Zeigen Sie : −1 −1 f (C ∪ D) a) = −1 b) c) d) e) f) −1 f (C)∪ f (D) −1 −1 f (C ∩ D) = f (C)∩ f (D) f (A ∪ B) = f (A) ∪ f (B) f (A ∩ B) ⊂ f (A) ∩ f (B) Es gilt ∀ A, B ⊂ M : f (A ∩ B) = f (A) ∩ f (B) genau dann, wenn f injektiv ist. Geben Sie eine Funktion f : M −→ N und Teilmengen A, B von M an mit f (A) ∩ f (B) 6= f (A ∩ B) . (1.3.) Seien L, M, N nichtleere Mengen, f : L −→ M a) b) c) d) , g : M −→ N Funktionen. Zeigen Sie : Sind f und g surjektiv, so ist g ◦ f surjektiv. Sind f und g injektiv, so ist g ◦ f injektiv. Ist g ◦ f surjektiv, so ist g surjektiv . Ist g ◦ f injektiv, so ist f injektiv. (1.4) Seien c ∈ R2 \ {0} , α ∈ R und p ∈ R2 . Sei G := { x ∈ R2 | < c, x > = α } . a) Berechnen Sie den “Fußpunkt f des Lots von p auf G ”, d.h. den Schnittpunkt der auf G senkrechten Geraden durch p mit G , und damit den “Abstand von p und G ”, d.h. kp − f k . b) Zeigen Sie: Ist G in der Form G = x ∈ R2 hc, xi = α mit kck = 1 (“Hessesche Normalform”) gegeben, so ist der Abstand von p und G gleich | hc, pi − α | . (1.5) Beweisen Sie, dass für alle a, b ∈ R2 , λ ∈ R gilt: a) (a + b)⊥ = a⊥ + b⊥ , (λa)⊥ = λ · a⊥ , b) ha, a⊥ i = 0 , ha, b⊥ i = −ha⊥ , bi , c) ka⊥ k = kak , d) (a⊥ )⊥ = −a . 32 (1.6) Seien a, b, c R2 mit a 6= b , c ∈ / Ga,b−a gegeben. Als “Höhen im Dreieck (a, b, c) ” bezeichnet man die Geraden durch die Punkte a, b, c, die auf den Geraden durch die anderen beiden Punkte senkrecht stehen. Zeigen Sie, dass sich die drei Höhen in genau einem Punkt h schneiden, und geben Sie eine Formel zur Berechnung dieses “Höhenschnittpunkts” an. (1.7) Sei m ∈ R2 und r ∈ R , r > 0 , dann heißt K := { x ∈ R2 | kx − mk = r } der “Kreis mit Mittelpunkt m und Radius r ”. Zeigen Sie: a) Sei p ∈ R2 mit kp − mk < r . Sei S eine Gerade durch p . Dann gibt es genau zwei Schnittpunkte aS , bS von S mit K , und das Produkt kaS − pk · kbS − pk hängt nicht von S ab. (“Zwei-Sehnen-Satz”). b) Sei p ∈ R2 mit kp − mk > r . Sei S eine Gerade durch p , die zwei Schnittpunkte aS , bS mit K hat, und T eine Gerade durch p , die K in genau einem Punkt q schneidet. Dann gilt kaS − pk · kbS − pk = kq − pk2 . (“Sehnen-Tangenten-Satz”). (1.8) Seien p, q, a, b ∈ R3 und (a, b) linear unabhängig. Berechnen Sie, analog zu Aufgabe (1.4), den Abstand d des Punktes q von der Ebene Ep,a,b . (1.9) Sei P (x, y) das für ganze Zahlen x, y definierte zweistellige Prädikat x ≤y . Zeigen Sie an diesem Beispiel, dass in Regel 1.2.5 (9) in der Mitte kein ⇐⇒ stehen kann. 33 §2 Gruppen 2.1 Allgemeines Definition 2.1.1 : Sei H eine nichtleere Menge und τ eine Verknüpfung auf H , d.h. eine Abbildung τ : H × H −→ H , (x, y) 7−→ xτ y . Wenn die Aussage (G1) ∀ x, y, z ∈ H : xτ (yτ z) = (xτ y)τ z (Assoziativgesetz) gilt, dann heißt H (genauer: das Paar (H, τ ) ) eine Halbgruppe . Definition 2.1.2 : Sei G eine nichtleere Menge und τ eine Verknüpfung auf G , d.h. eine Abbildung τ : G × G −→ G , (x, y) 7−→ xτ y . Wenn die Aussagen (G1) ∀ x, y, z ∈ G : xτ (yτ z) = (xτ y)τ z (Assoziativgesetz) (G2) ∃ e ∈ G ∀ x ∈ G : eτ x = x (Existenz eines linksneutralen Elements) (G3) ∀ x ∈ G ∃ x∗ ∈ G : x∗ τ x = e (Existenz eines Linksinversen) richtig sind, dann heißt G (genauer: das Paar (G, τ )) eine Gruppe . Wenn zusätzlich (G4) ∀ x, y ∈ G : xτ y = yτ x (Kommutativgesetz) gilt, heißt (G, τ ) eine abelsche (kommutative) Gruppe . 2 Jede Gruppe ist also auch eine Halbgruppe. Bemerkung 2.1.3 : In Def. 2.1.1 steht mit Absicht möglichst Wenig, damit man wenig Arbeit hat, wenn man nachweisen will, dass eine gegebene Menge G mit einer Verknüpfung τ eine Gruppe ist. Tatsächlich folgt aus (G1) - (G3) mehr: Folgerung 2.1.4 : Sei (G, τ ) eine Gruppe, e ein linksneutrales Element. Dann gilt für alle x, y ∈ G : (a) Wenn x∗ ∈ G ist mit x∗ τ x = e, dann ist auch xτ x∗ = e . (b) xτ e = x . (c) Sei f ∈ G mit ∀ a ∈ G : f τ a = a , dann ist f = e. Das linksneutrale Elementist also eindeutig bestimmt, und wegen (b) es ist auch rechtsneutral. Man spricht daher von dem neutralen Element von 34 (G, τ ) . (d) ∃1 x∗ ∈ G : x∗ τ x = e , und es gilt auch xτ x∗ = e . x∗ heißt daher das Inverse von x, und wir schreiben meist x−1 statt x∗ . (e) e∗ = e. (f) Es gelten die Kürzungsregeln : ∀ a ∈ G : (aτ x = aτ y =⇒ x = y ∧ xτ a = yτ a =⇒ x = y) . (g) ∃1 a ∈ G : xτ a = y ∧ ∃1 b ∈ G : bτ x = y . (h) ∀ x, y ∈ G : ((x−1 )−1 = x ∧ (xτ y)−1 = y −1 τ x−1 ) . Beweis : (a) Wegen (G3) hat man (x∗ )∗ ∈ G mit (x∗ )∗ τ x∗ = e , also xτ x∗ (G2) eτ (xτ x∗ ) = ((x∗ )∗ τ x∗ )τ (xτ x∗ ) = (x∗ )∗ τ (x∗ τ (xτ x∗ )) = = (x∗ )∗ τ ((x∗ τ x)τ x∗ ) = (x∗ )∗ τ (eτ x∗ ) = (x∗ )∗ τ x∗ = e . (b) xτ e (G3) xτ (x∗ τ x) (G1) (xτ x∗ )τ x (a) = = = eτ x = x. (c) e = f τ e (b) = f. ∗ (d) Seien x und x0 Linksinverse von x , dann gilt 0 (b) 0 x∗ = eτ x∗ = (x0 τ x)τ x∗ = x0 τ (xτ x∗ ) (a) = x τe = x , das Linksinverse x∗ zu x ist also eindeutig bestimmt, und nach (a) auch rechtsneutral. (e) eτ e (G2) e und e∗ τ e (G3) e . Nach (d) folgt e = e∗ . = = (f) Aus aτ x = aτ y folgt a∗ τ (aτ x) = a∗ τ (aτ y), und mit (G1) : (a∗ τ a)τ x = (a∗ τ a)τ y; und mit (G3) : eτ x = eτ y, also mit (G2) : x = y. Entsprechend zeigt man die zweite Implikation, wobei man noch (d) braucht. (g) Setzen wir a := x∗ τ y , so folgt xτ a = xτ (x∗ τ y) = (xτ x∗ )τ y = eτ y = y. Zum Beweis der zweiten Aussage setzt man b := yτ x∗ . Dass a und b eindeutig bestimmt sind, folgt aus (f). (h) Wegen (d) haben wir x−1 τ x = xτ x−1 = e , 35 und da das Inverse eindeutig bestimmt ist, ist x das Inverse von x−1 , also (x−1 )−1 = x. Für x, y ∈ G gilt (y −1 τ x−1 )τ (xτ y) = (y −1 τ (x−1 τ x))τ y = (y −1 τ e)τ y = y −1 τ y = e , also folgt (wieder mit (d)) : (xτ y)−1 = y −1 τ x−1 . 2 In Halbgruppen kann man Potenzen mit Exponenten aus N definieren, in Gruppen sogar mit Exponenten aus Z : Definition 2.1.5 : Sei (G, τ ) eine Halbgruppe und x ∈ G . Dann definieren wir Potenzen von x rekursiv durch x1 := x , (∗) xn+1 := xn τ x für n ∈ N . Ist (G, τ ) eine Gruppe, e ihr neutrales Element, so setzen wir zusätzlich x0 := x und für n ∈ N : (∗∗) x−n := (x−1 )n . Bemerkung 2.1.6 : Beim Beweis von Folgerung 2.1.7 setzen wir die folgende Eigenschaft der ganzen Zahlen als bekannt voraus: Es ist N0 ⊂ Z , und wenn m ∈ Z, m ∈ / N0 ist, dann ist −m ∈ N. Also ist Z = N0 ∪ { −k | k ∈ N } . Folgerung 2.1.7 : Sei (G, τ ) eine Halbgruppe und seien x, y ∈ G , n, m ∈ N . Dann gilt (1) xn τ xm = xn+m (2) (xn )m = xn·m (3) Wenn xτ y = yτ x ist: (xτ y)n = xn τ y n . Ist (G, τ ) eine Gruppe , so gelten diese Regeln für alle n, m ∈ Z . Beweis : (1) a) Sei (G, τ ) eine Halbgruppe. Dann beweisen wir (1) durch Induktion nach m : Induktionsanfang: Sei n ∈ N beliebig und m = 1 : Dann gilt xn τ x1 = xn+1 nach Definition (∗). Induktionsschluss: Sei n ∈ N beliebig und für m sei (1) richtig (I.V.), dann folgt n m n m (I.V.) xn+m τ x (∗) xn+m+1 xn τ xm+1 (∗) = x τ (x τ x) = (x τ x )τ x = = 36 . b) Sei nun (G, τ ) eine Gruppe und x ∈ G . b1 ) Wir zeigen zunächst ∀ m ∈ Z : xm+1 = xm τ x. Beweis von b1 ) : Für m ∈ N ist das die Definition (∗). Für m = −1 oder m = 0 gilt das nach Definition von x0 . Sei m ∈ Z , m ≤ −2 , dann ist m = −k mit k ≥ 2 , also k − 1 ∈ N . Nach Def. (∗∗) folgt xm τ x = (x−1 )−m τ x = (x−1 )−m−1 τ x−1 τ x = (x−1 )−m−1 = xm+1 . b2 ) Wir zeigen nun ∀ n ∈ Z ∀ m ∈ N0 : xn τ xm = xn+m durch Induktion nach m : Induktionsanfang: Für m = 0 gilt xn τ x0 = xn τ e = xn = xn+0 . Induktionsschluss: Sei m ∈ N0 , und für alle n ∈ Z sei xn τ xm = xn+m richtig. Dann folgt xn τ xm+1 = xn τ xm τ x = xn+m τ x b=1 ) xn+m+1 . b3 ) Wir verwenden b2 ) für x−1 statt x. Dann haben wir ∀ n ∈ Z ∀ m ∈ N0 : (x−1 )n τ (x−1 )m = (x−1 )n+m und nach (∗∗). ∀ n ∈ Z ∀ m ∈ N0 : x−n τ x−m = x−(n+m) . Mit n ∈ Z ist auch −n ∈ Z, und mit m ∈ N0 ist −m ∈ Z \ N , also gilt ∀ n ∈ Z ∀ m ∈ Z \ N : xn τ xm = x−(−(n+m)) = xn+m . c) Mit b2 ) und b3 ) haben wir gezeigt: ∀ n ∈ Z ∀ m ∈ Z : xn τ xm = xn+m . (2) und (3) zeigt man ähnlich. 2 (2.1.8) Additive und multiplikative Schreibweise : Häufig haben wir in einer Menge G zwei Verknüpfungen. Dafür kann man dann nicht immer 37 “τ ” schreiben: a) Schreibt man die Verknüpfung als Addition + , so schreibt man, falls vorhanden, • für das neutrale Element : 0 , und spricht vom Nullelement, • für das inverse Element eines x ∈ M : −x, und spricht vom Negativen von x, • für die n−te Potenz von x , n ∈ N bzw. Z : nx , und spricht vom n−fachen von x. b) Schreibt man die Verknüpfung als Multiplikation ·, so schreibt man, falls vorhanden, • für das neutrale Element : 1G oder einfach 1 , und spricht vom Einselement. • für das Inverse eines x ∈ M : wie bisher, x−1 , • und für Potenzen von x wie bisher: xn . 2.2 Untergruppen und Normalteiler Definition 2.2.1 : Sei (G, ·) eine Gruppe. Eine Menge U heißt eine Untergruppe von G, wenn gilt (U1) U 6= ∅ und U ⊂ G, (U2) ∀ a, b ∈ U : a−1 · b ∈ U . - Die Definition ist sinnvoll, denn es gilt die Behauptung 2.2.2 : Sei U eine Untergruppe von (G, ·), dann ist U mit der auf U eingeschränkten Verknüpfung · selbst eine Gruppe, mit dem neutralen Element e von G als neutralem Element von U . Beweis : (1) Wegen U 6= ∅ gibt es ein Element a ∈ U . Dafür ist nach (U2) a−1 · a ∈ U , also e ∈ U . Für a, b ∈ U ist dann nach (U2) auch a−1 = a−1 · e ∈ U , und damit a · b = (a−1 )−1 · b ∈ U , also ist die Restriktion von · auf U × U eine Abbildung von U × U nach U ! Und die Gruppenaxiome (G1)-(G3) gelten für U . 2 Beispiel (2.2.3) : Sei (G, ·) eine Gruppe und a ∈ G fest. Dann ist < a >:= { an | n ∈ Z } 38 eine Untergruppe. < a > heißt die von a erzeugte zyklische Untergruppe von G. Dass { an | n ∈ Z } eine Untergruppe ist, sieht man leicht mit der Potenzregel (1) aus 2.1.6. Andererseits: Jede Untergruppe U mit a ∈ U enthält auch < a >, denn sie enthält a, a−1 , und mit Induktion folgt dann, dass auch alle Potenzen von a in U liegen. Bemerkung 2.2.4 : Sei U eine Untergruppe von (G, ·) , dann wird durch a∼b :⇐⇒ a−1 · b ∈ U eine Äquivalenzrelation in G definiert. Die Äquivalenzklassen sind die Mengen a · U := { a · u | u ∈ U } . Die Mengen a · U heißen die Linksnebenklassen von G bezüglich U . Beweis : Es gilt für alle a, b, c ∈ G: (Ä1) a ∼ a wegen a−1 · a = e ∈ U. (Ä2) Aus a ∼ b folgt a−1 · b ∈ U , also (a−1 · b)−1 ∈ U, b−1 · a ∈ U , also b ∼ a. (Ä3) Aus a ∼ b und b ∼ c folgt a−1 ·b ∈ U und b−1 ·c ∈ U , also a−1 ·c = a−1 ·b·b−1 ·c ∈ U also a ∼ c . Beachten Sie, dass wir hier die (wegen des Assoziativgesetzes (G1) überflüssigen) Klammern weggelassen haben. Sei a die Äquivalenzlasse von a , also a = { b∈G | b∼a } , und u ∈ U , dann ist a · u ∈ a wegen a−1 · (a · u) = u ∈ U , also a · U ⊂ a, und wenn b ∈ a ist, gilt a ∼ b, also u := a−1 · b ∈ U , b = a · u ∈ a · U . 2 (2.2.5) Satz von Lagrange : Sei (G, ·) eine endliche Gruppe, d.h die Menge G sei endlich, und U eine Untergruppe von G. Sei [G : U ] die Anzahl der Linksnebenklassen von G bezüglich U , dann gilt #(G) = [G : U ] · #(U ). Beweis : Nach Bemerkung 2.2.4 wird durch a∼b :⇐⇒ a−1 · b ∈ U für a, b ∈ G eine Äquivalenzrelation auf G definiert, wobei die Äquivalenzklassen die Linksnebenklassen a · U , a ∈ G sind, also gilt nach Satz 1.2.7(3) : [ (∗) G = a·U . a∈G 39 Die Nebenklassen sind endliche Mengen, da sie Teilmengen der endlichen Menge G sind. (1) Alle Nebenklassen haben die gleiche Mächtigkeit. Beweis: Wegen U ⊂ G gibt es ein m ∈ N mit #(U ) = m. Sei a ∈ G und f : U −→ a · U , f (x) := a · x , dann ist f surjektiv nach Definition von a·U , und injektiv nach der Kürzungsregel 2.1.4(f), also bijektiv. Also ist auch #(a · U ) = m , und zwar für alle a ∈ G dasselbe m . Alle Nebenklassen haben also die Mächtigkeit #(U ). (2) Zwei verschiedene Linksnebenklassen haben nach Satz 1.2.7(2) kein Element gemeinsam, und es gilt (∗). Es gibt also insgesamt [G : U ] Linksnebenklassen, die je #(U ) Elemente enthalten. Also ist #(G) = [G : U ] · #(U ) . 2 Anwendung 2.2.6 : Sei (G, ·) eine Gruppe. Wenn man die Teilmengen U von G sucht, die Untergruppen von G sind, so kann man sich also auf die Teilmengen U beschränken, für die gilt ∃ n ∈ N : #(G) = n · #(U ) , man sagt: “Die Mächtigkeit von U ist ein Teiler von #(G)”. Bemerkung 2.2.7 : Sei (G, ·) eine Gruppe und U eine Untergruppe, so hat man die Menge G/U := { a · U | a ∈ G } . Wir fragen uns, ob diese Menge G/U durch die Definition (∗∗) (a · U ) ◦ (b · U ) := (a · b) · U , also a ◦ b := a · b für a = a · U , a, b ∈ G eine Gruppe (G/U , ◦) wird. Die Frage dabei ist, ob durch a ◦ b := a · b überhaupt eindeutig eine Abbildung ◦ : G/U × G/U −→ G/U 40 definiert ist, ob also aus a · U = a0 · U ∧ b · U = b 0 · U (a · b) · U = (a0 · b0 ) · U immer folgt. Wenn ja, dann sagt man: ◦ ist wohldefiniert . Wenn die Gruppe (G, ·) nicht kommutativ ist, ist das nicht immer der Fall. Man muss von U etwas mehr fordern als nur die Untergruppen-Eigenschaft: Definition 2.2.8 : Sei (G, ·) eine Gruppe und N eine Untergruppe von G. Wenn auch noch (N) ∀ x ∈ G ∀ u ∈ N : x·u·x−1 ∈ N gilt, dann heißt N ein Normalteiler in G. Bemerkung 2.2.9 : Man sieht, dass in einer kommutativen Gruppe jede Untergruppe ein Normalteiler ist! - Es wird Zeit, einige Beispiele anzugeben: (2.2.10) Die symmetrische Gruppe Sei M eine nichtleere Menge. Wir setzen SM := { f : M −→ M | f ist bijektiv } , Man rechnet nach, dass für f, g ∈ SM auch die Hintereinanderausführung f ◦ g und die Umkehrfunktion f −1 bijektiv, also Elemente von SM , sind. Dass die Hintereinanderausführung ◦ assoziativ ist, wissen wir aus Satz 1.3.11, und für die in 1.3.9 definierte identische Abbildung idM gilt ∀ f ∈ SM : f ◦ idM = idM ◦ f = f . Also ist (SM , ◦) eine Gruppe, mit idM als neutralem Element. Sie heißt die symmetrische Gruppe von M . Für #(M ) ≥ 3 ist sie nicht abelsch: Seien a, b, c drei verschiedene Elemente von M und seien f, g : M −→ M, f (a) := b , f (b) := c , f (c) := a , g(a) := b , g(b) := a , g(c) := c und f (x) := g(x) := x für x ∈ / {a, b, c}, dann gilt (f ◦ g)(c) = f (c) = a , (g ◦ f )(c) = g(a) = b , 41 also f ◦ g 6= g ◦ f . Wenn M eine unendliche Menge ist, ist auch SM unendlich. Uns interessieren mehr die endlichen Gruppen, die man bekommt, wenn man M := n für n ∈ N nimmt. Wir schreiben dann Sn statt Sn und nennen die Elemente dieser Gruppe Permutationen der Menge n . Im Zusammenhang mit Determinanten werden wir uns noch ausführlich mit diesen Gruppen beschäftigen. Wir beginnen mit Beispiel (2.2.11) : Die Gruppe S3 Wie gesagt, ist sie nicht kommutativ. Wir werden gleich Bezeichnungen für ihre Elemente einführen, deren Sinn sich in (2.2.13) erschließen wird. Wir definieren hier mal die Permutationen (1, 2, 3) , (1, 3, 2) , (1, 2) , (1, 3) , (2, 3) (das sollen jetzt keine Tripel bzw. Paare ganzer Zahlen, sondern Bezeichnungen für Permutationen sein) durch (1, 2, 3) : 1 7→ 2 , 2 7→ 3 , 3 7→ 1 , (1, 3, 2) : 1 7→ 3 , 2 7→ 1 , 3 7→ 2 , (1, 2) : 1 7→ 2 , 2 7→ 1 , 3 7→ 3 , (1, 3) : 1 7→ 3 , 2 7→ 2 , 3 7→ 1 , (2, 3) : 1 7→ 1 , 2 7→ 3 , 3 7→ 2 . Zusammen mit id3 sind das alle Permutationen von 3. Die Verknüpfung ◦ schreibt man sich am besten in einer Gruppentafel auf: Seien a, b ∈ S3 . In die linke Spalte schreibt man das a von a ◦ b, in die obere Zeile das b, und in die Kreuzung der Zeile von a und der Spalte von b die Hintereinanderausführung a ◦ b: id3 (1,2,3) (1,3,2) (1,2) (1,3) (2,3) ◦ id3 id3 (1,2,3) (1,3,2) (1,2) (1,3) (2,3) id3 (1,3) (2,3) (1,2) (1,2,3) (1,2,3) (1,3,2) (1,3,2) (1,3,2) id3 (1,2,3) (2,3) (1,2) (1,3) (1,2) (1,2) (2,3) (1,3) id3 (1,3,2) (1,2,3) (1,3) (1,3) (1,2) (2, 3) (1,2, 3) id3 (1,3,2) (2,3) (2,3) (1,3) (1,2) (1,3,2) (1,2,3) id3 (a) Wegen Anwendung (2.2.6) wissen wir, dass eine Untergruppe U von (S3 , ◦) nur 1, 2, 3 oder 6 42 Elemente enthalten kann. Mit 1 bzw. 6 Elementen haben wir die trivialen Untergruppen { id3 } bzw. S3 . Aus der Gruppentafel sehen wir, dass U3 := { id3 , (1, 2)} , U2 := { id3 , (1, 3)} , U1 := { id3 , (2, 3)} Untergruppen mit zwei Elementen sind, und zwar die einzigen. Und V := { id3 , (1, 2, 3), (1, 3, 2)} ist die einzige Untergruppe mit drei Elementen. (b) Nehmen wir mal die Untergruppe U3 und bilden einige Linksnebenklassen: (1, 2, 3) ◦ U3 = (1, 3) ◦ U3 = {(1, 2, 3), (1, 3)} , (1, 3, 2) ◦ U3 = (2, 3) ◦ U3 = {(1, 3, 2), (2, 3} . Aber: Es ist ((1, 2, 3) ◦ (1, 3, 2)) ◦ U3 = id3 ◦ U3 = {(1, 2), id3 } , ((1, 3) ◦ (2, 3)) ◦ U3 = (1, 3, 2) ◦ U3 = {(1, 3, 2), (2, 3)} , man sieht, dass durch (∗∗) in (2.2.7) keine eindeutige Verknüpfung in S3 /U3 definiert ist! (c) Für die Untergruppe V kann man anhand der Gruppentafel nachrechnen: ∀ x ∈ S3 ∀ v ∈ V : x ◦ v ◦ x−1 ∈ V , V ist also ein Normalteiler in S3 . Man hat zwei verschiedene Linksnebenklassen id3 ◦ V = V und (1, 2) ◦ V = {(1, 2), (2, 3), (1, 3)} . Satz und Definition 2.2.12: Sei (G, ·) eine Gruppe und N ein Normalteiler in G. Dann wird die Menge der Linksnebenklassen G/N = { a · N | a ∈ G } (∗∗) (a·N )◦(b·N ) := (a·b)·N mit der durch für a, b ∈ G definierten Verknüpfung ◦ eine Gruppe, genannt die Faktorgruppe von G modulo N . Die Nebenklasse N (= e · N , wenn e 43 das neutrale Element von G ist,) ist das neutrale Element von (G/N , ◦) Bemerkung : Das Zeichen ◦ bedeutet hier nicht, wie in (2.2.10)und (2.2.11), die Hintereinanderausführung von Funktionen, sondern ist nur ein Zeichen für eine von · verschiedene Verknüpfung (und wir werden später auch dafür wieder · schreiben, wenn keine Verwechslungen zu befürchten sind). Beweis : (1) Wir zeigen, dass durch (∗∗) eindeutig eine Verknüpfung ◦ auf G/N definiert ist: Seien a, a0 , b, b0 ∈ G und a · N = a0 · N a ∈ a0 · N ∃ u ∈ N : a = a0 · u ∧ und b · N = b0 · N und b ∈ b0 · N , , dann gilt also ∃ v ∈ N : b = b0 · v , also ∀ w ∈ N : a · b · w = (a0 · u) · (b0 · v) · w = a0 · u · b0 · v · w = a0 · b0 · (b0 )−1 · u · b0 · v · w . . Nach Definition des Normalteilers (angewendet auf (b0 )−1 ∈ G und u ∈ N ) gibt es ein u0 ∈ U mit (b0 )−1 · u · b0 = u0 a · b · w = a0 · b0 · u0 · v · w , , also mit u0 · v · w ∈ U a · b · w ∈ a0 · b 0 · N , also . Also ist (a · b) · N ⊂ (a0 · b0 ) · N , und ebenso zeigt man (a0 · b0 ) · N ⊂ (a · b)· N , die beiden Nebenklassen sind also gleich. Durch (∗∗) ist also eindeutig eine Verknüpfung ◦ auf G/N definiert. (2) Die Gültigkeit des Assoziativgesetzes in (G/N , ◦) folgt aus der Def. (∗∗) und dem Assoziativgesetz in (G, ·). Ist e das neutrale Element von (G, ·) , so ist e·N = N das neutrale Element von (G/N , ◦) , und zu x · N ∈ G/N ist x−1 · N das Inverse. 2 - Wir wollen uns noch einmal mit der in Beispiel (2.2.11) verwendeten Schreibweise beschäftigen, damit Sie sehen, was es mit Bezeichnungen wie “(1,3,2)” oder “(2,3)” auf sich hat, und um weitere Beispiele angeben zu können: (2.2.13) Schreibweise von Permutationen : Sei n ∈ N , n ≥ 2. Ein 44 σ ∈ Sn kann man dadurch angeben, dass man für 1, . . . , n die Funktionswerte hinschreibt, wie in (2.2.11) : σ : 1 7→ σ(1), . . . , n 7→ σ(n) . Das ist ziemlich viel Schreibarbeit. Einfacher ist es, man schreibt nur eine Zeile hin, beginnend mit einer runden Klammer, schreibt eine Zahl j ∈ n hin, dahinter ihren Funktionswert k := σ(j) , also (j, k, . . . , danach σ(k) usw. Irgendwann wird ein l mit σ(l) = j auftreten, dann schließt man die Klammer : (j, k, . . . , l) . Z.B. ist (1, 3, 4) eine Abkürzung für σ : 1 7→ 3 , 3 7→ 4 , 4 7→ 1 , σ ∈ S4 , wenn man vereinbart, dass Zahlen, die nicht in der Klammer auftauchen, auf sich selbst abgebildet werden. Wir formulieren das etwas genauer: Definition 2.2.14 : Eine Permutation σ ∈ Sn heißt ein Zyklus, wenn es eine Teilmenge {a1 , . . . , ar } ⊂ n , r ≥ 1 , gibt, so dass ∀ j ∈ r − 1 : σ(aj ) = aj+1 , für j = r : σ(ar ) = a1 und ∀ j ∈ n \ {a1 , . . . , ar } : σ(j) = j gilt . Ist r = 1 , so ist σ = idn und man schreibt (1) := idn . Ist r > 1 , so schreibt man für σ kurz (a1 , a2 , . . . , ar ) . Bemerkungen 2.2.15 : 1) Nicht jedes σ ∈ Sn ist ein Zyklus, sondern i.A. ein Produkt mehrerer Zyklen, z.B. ist σ = (1, 2) ◦ (3, 4) ∈ S4 kein Zyklus. 2) Die Zyklenschreibweise ist nicht eindeutig, z.B. ist (1, 2, 3) = (2, 3, 1) ∈ S3 . 3) Mit der Zyklenschreibweise kann man gut rechnen: Etwa in S3 rechnet man σ := (1, 3, 2) ◦ (2, 3) so aus: Man nimmt eine Zahl aus 3 , etwa 1 , wendet darauf den hinten stehenden Zyklus an, das ergibt in diesem Fall wieder 1 , darauf dan den vorderen Zyklus, das ergibt hier 3, man schreibt (1, 3 45 hin und wiederholt das Spiel mit 3 : Der hintere Zyklus,angewendet auf 3 , ergibt 2 , der vordere, angewendet auf 2 , ergibt 1 . Das hatten wir schon, man schließt die Klammer: (1, 3) Zur Probe kann man noch nachrechnen, dass σ(2) = 2 ist. Also ist σ = (1, 3). Es kann sein, dass weitere Zyklen hinzukommen (bei Sn mit n ≥ 4 ). Beispiel (2.2.16) : Die Gruppe V4 In der Gruppe (S4 , ◦) sei V4 := {e, a, b, c} mit e := id4 , a := (1, 2) ◦ (3, 4) , b := (1, 3) ◦ (2, 4) , c := (1, 4) ◦ (2, 3) , dann rechnen wir folgende Produkte aus: ◦ e a e e a a a e b b c c c b b c b c c b e a a e Man sieht aus dieser Tabelle: Für alle x, y ∈ V4 gilt x−1 = x und x · y ∈ V4 . Also ist V4 eine Untergruppe von S4 , also (V4 , ◦) eine Gruppe und obige Tabellle die Gruppentafel von (V4 , ◦) . (V4 , ◦) heißt die Kleinsche Vierergruppe . Beispiel (2.2.17) : Die zyklischen Gruppen Zn Sei n ∈ N , n ≥ 2. Wir nehmen die Gruppe (Sn , ◦) und darin die Permutation α := (1, 2, . . . , n) , jede Zahl aus n wird also auf die folgende abgebildet, und n auf 1 . Führt man die Permutation α genau n mal aus, so erhält man die identische Abbildung idn , und n ist die kleinste Zahl k ∈ N mit αk = idn . Die von α erzeugte zyklische Untergruppe j < α >= α j∈n bezeichnen wir mit Zn und nennen (Zn , ◦) die zyklische Gruppe mit n Elementen . 46 - Um das etwas deutlicher zu machen, nehmen wir n := 4 : Beispiel (2.2.18): Die zyklische Gruppe Z4 In S4 nehmen wir α := (1, 2, 3, 4) , dann ist α2 = (1, 3) ◦ (2, 4) , α3 = (1, 4, 3, 2) , α4 = id4 . Wir schreiben uns die Gruppentafel von (Z4 , ◦) auf: ◦ id4 α α2 α3 id4 id4 α α2 α3 α α α2 α3 id4 α2 α2 α3 id4 α α3 α3 id4 α α2 Wir sehen einen wesentlichen Unterschied zur Gruppentafel von V4 in (2.2.16): Beide Gruppen bestehen aus 4 Elementen. In V4 ist das Quadrat jedes Elements gleich dem neutralen Element, in Z4 gilt das nur für zwei Elemente. Und in V4 gilt ∀ x ∈ V4 : < x > 6= V4 , wir sagen: V4 ist keine zyklische Gruppe . Solche Unterschiede werden im nächsten Abschnitt deutlicher: 2.3 Homomorphismen von Gruppen Definition 2.3.1 : Seien (G, ·) und (H, ◦) Halbgruppen. Eine Abbildung ϕ : G −→ H heißt ein Homomorphismus von (G, ·) in (H, ◦) wenn gilt ∀ x, y ∈ G : ϕ(x · y) = ϕ(x) ◦ ϕ(y) . Zusatz 2.3.2 : Ein Homomorphismus der Halbgruppe (G, ·) in die Halbgruppe (H, ◦) heißt ein Endomorphismus , wenn (G, ·) = (H, ◦) , Monomorphismus , wenn ϕ injektiv, Epimorphismus, wenn ϕ surjektiv, Isomorphismus, wenn ϕ bijektiv, Automorphismus, wenn ϕ bijektiv und (G, ·) = (H, ◦) ist. 2 47 (2.3.3) Beispiele :(1) Seien (G, ·) und (H, ◦) Gruppen, eH das neutrale Element von H , dann ist ϕ : G −→ H x 7→ eH , ein Homomorphismus. (2) Sei (G, ·) eine Gruppe, a ∈ G ein festes Element, dann ist ϕa : G −→ G , x 7→ a · x · a−1 ein Automorphismus von (G, ·). Falls (G, ·) abelsch oder a das neutrale Element von (G, ·) ist, ist ϕa = idG . - Das ist Übungsaufgabe (2.5 b)! (3) Ein Beispiel aus der Analysis: Sei (R, +) die additive Gruppe der reellen Zahlen und (R∗+ , ·) mit R∗+ := { x ∈ R | x > 0 } die multiplikative Gruppe der positiven reellen Zahlen, dann ist die Exponentialfunktion exp : R −→ R∗+ ein Isomorphismus der Gruppe (R, +) in (R∗+ , ·). (4) Sei (G, ·) eine Gruppe, N ein Normalteiler in (G, ·) und (G/N , ◦) die Faktorgruppe von G modulo N . Da wir (a · N ) ◦ (b · N ) := (a · b) · N für a, b ∈ G definiert hatten, ist die surjektive Abbildung κN : G −→ G/N , a 7→ a · N ein Epimorphismus von Gruppen. κN heißt der kanonische Nebenklassenepimorphismus von G auf G/N . (“kanonisch” bedeutet: “naheliegend”). 2 Satz 2.3.4 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG bzw. eH , und ϕ : G −→ H ein Homomorphismus von (G, ·) in (H, ◦). Dann gilt (1) ϕ(eG ) = eH , (2) ∀ x ∈ G : ϕ(x−1 ) = (ϕ(x))−1 , 48 (3) ∀ x ∈ G ∀ n ∈ Z : ϕ(xn ) = (ϕ(x))n Beweis : (1) Es ist eG ◦ eG = eG , also . ϕ(eG ) ◦ ϕ(eG ) = ϕ(eG ) = ϕ(eG ) ◦ eH . Mit der Kürzungsregel (2.1.4)(f) folgt ϕ(eG ) = eH . −1 (2) ϕ(x) ◦ ϕ(x−1 ) = ϕ(x · x−1 ) = ϕ(eG ) (1) = eH , also ist ϕ(x ) das (eindeutig bestimmte) Inverse von ϕ(x) in der Gruppe (H, ◦) , also ϕ(x−1 ) = (ϕ(x))−1 . (3) Für n = 0 ist das Regel (1). (a) Sei n ∈ N, dann machen wir Induktion nach n : Für n = 1 gilt ϕ(x1 ) = ϕ(x) = (ϕ(x))1 . Sei n ∈ N und für n sei (3) richtig, dann folgt ϕ(xn+1 ) = ϕ(xn · x) = ϕ(xn ) ◦ ϕ(x) = (ϕ(x))n ◦ ϕ(x) = (ϕ(x))n+1 , wobei wir die Definition 2.1.5(∗) der Potenzen in den Gruppen (G, ·) und (H, ◦) verwendet haben. (b) Für negative Exponenten −n , n ∈ N erhalten wir nach (2.1.5)(∗∗) und (a) : −1 n −1 n (2) −1 n (∗∗) −n (a) ϕ(x−n ) (∗∗) = ϕ((x ) ) = (ϕ(x )) = ((ϕ(x)) ) = ϕ(x) . 2 (2.3.5) Sprechweise : Seien (G, ·) und (H, ◦) Gruppen. Es gebe einen Isomophismus der beiden Gruppen ϕ : G −→ H , dann haben wir wegen der Bijektivität von ϕ die Umkehrfunktion ϕ−1 : H −→ G . Sie ist auch ein Gruppen-Homomorphismus, denn seien x, y ∈ H , dann gibt es a, b ∈ G mit ϕ(a) = x , ϕ(b) = y , also a = ϕ−1 (x) , b = ϕ−1 (y), und wir erhalten ϕ−1 (x ◦ y) = ϕ−1 (ϕ(a) ◦ ϕ(b)) = ϕ−1 (ϕ(a · b)) = a · b = ϕ−1 (x) · ϕ−1 (y) . 49 Man kann daher sagen : (G, ·) ist isomorph zu (H, ◦) und schreiben : G∼ = H. Für Gruppen (G, ·), (H, ◦) und (L, τ ) hat man dann die Aussagen (Ä1) G ∼ =G, (Ä2) G ∼ = H =⇒ H ∼ =G, ∼ ∼ (Ä3) G = H ∧ H = L =⇒ G ∼ =L, wie bei einer Äquivalenzrelation, aber man kann nicht sagen, dass ∼ = eine Äquivalenzrelation ist, da die “Menge aller Gruppen” nicht existiert! Man kann nicht beliebige Objekte zu einer Menge zusammenfassen, das führt zu logischen Widersprüchen. 2 (2.3.6) Beispiel : Die Gruppen (V4 , ◦) und (Z4 , ◦) sind nicht isomorph! Die beiden Mengen V4 und Z4 haben jeweils vier Elemente, es gibt also eine bijektive Abbildung von V4 auf Z4 . Aber angenommen, ϕ : Z4 −→ V4 ist ein Isomorphismus der Gruppen (Z4 , ◦) und (V4 , ◦), dann gilt nach Satz 2.3.4 (1) : ∀ x ∈ V4 : ϕ(x2 ) (2.1.6) ϕ( id4 ) = id4 , = also für das in (2.2.17) definierte α ∈ Z4 : ∃ y ∈ V4 : α = ϕ(y) und damit α2 = (ϕ(y))2 = ϕ(y 2 ) = ϕ( id4 ) = id4 , was nach der Tabelle in (2.2.18) falsch ist. Definition und Satz 2.3.7 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG bzw. eH , und ϕ : G −→ H ein Homomorphismus von G nach H. Dann heißt ker ϕ := { x ∈ G | ϕ(x) = eH } der Kern des Homomorphismus ϕ . ker ϕ ist ein Normalteiler in (G, ·). Beweis : Es ist ker ϕ ⊂ G nach Definition und eG ∈ ker ϕ nach 2.3.4 (1), also ker ϕ 6= ∅ . Seien a, b ∈ ker ϕ , dann gilt nach (2.3.4) (2) : ϕ(a−1 · b) = ϕ(a−1 ) ◦ ϕ(b) = (ϕ(a))−1 ◦ eH = (eH )−1 ◦ eH = eH , also ist ker ϕ eine Untergruppe von G. Sei x ∈ G und a ∈ ker ϕ , dann gilt ϕ(x·a·x−1 ) = ϕ(x)◦ϕ(a)◦ϕ(x−1 ) = ϕ(x)◦eH ◦(ϕ(x))−1 = ϕ(x)◦(ϕ(x))−1 = eH , 50 also x · a · x−1 ∈ ker ϕ . Also ist ker ϕ ein Normalteiler in G . 2 Bemerkung (2.3.8) : Seien M und N Mengen und f : M −→ N , und will man zeigen, dass f injektiv ist, so muss man ∀ a, b ∈ M : (f (a) = f (b) =⇒ a = b) zeigen. Hat man einen Gruppenhomomorphismus ϕ : G −→ H von zwei Gruppen (G, ·) und (H, ◦) , mit neutralen Elementen eG bzw. eH , so muss man nur ∀ a ∈ G : (ϕ(a) = eH =⇒ a = eG ) zeigen, wegen ϕ(eG ) = eH und des folgenden Satzes: Satz 2.3.9 : Seien (G, ·) und (H, ◦) Gruppen, mit neutralen Elementen eG bzw. eH , und ϕ : G −→ H ein Gruppenhomomorphismus. Dann gilt ⇐⇒ ϕ ist ein Monomorphismus ker ϕ = {eG } . Beweis : a) Sei ϕ ein Monomorphismus, also ein injektiver Homomorphismus, und ϕ(eG ) , also ϕ(x) = eH (2.3.4)(1) = x ∈ ker ϕ , dann folgt x = eG . Also: ker ϕ ⊂ {eG } , und “⊃” folgt aus (2.3.4)(1). b) Sei ker ϕ = {eG } und seien a, b ∈ G mit ϕ(a) = ϕ(b). Dann folgt ϕ(a) ◦ (ϕ(b))−1 = eH , also a · b−1 = eG also a = b. Also ist ϕ injektiv. , also ϕ(a · b−1 ) = eH , a · b−1 ∈ ker ϕ , 2 (2.3.10) Homomorphiesatz für Gruppen : Seien (G, ·) und (H, τ ) Gruppen , ϕ : G −→ H ein Epimorphismus von Gruppen. Sei κ : G −→ G/ ker ϕ , x 7→ x · ( ker ϕ) der kanonische Nebenklassenepimorphismus von G auf die Faktorgruppe G/ ker ϕ , dann gibt es genau einen Gruppen-Isomorphismus ι : G/ ker ϕ −→ H mit ι ◦ κ 51 = ϕ . ( “ ◦ ” ist hier die Hintereinanderausführung von Abbildungen.) Man sagt, dass das folgende “Diagramm kommutativ” wird: ϕ G - H κ ∃1 ι ? G/ ker ϕ Beweis : a) Wir zeigen zunächst: Wenn ein Homomorphismus ι mit ι◦κ = ϕ existiert, so ist ι eindeutig bestimmt: Es gilt dann nämlich für x ∈ G : ι(x · ker ϕ) = ι(κ(x)) = (ι ◦ κ)(x) = ϕ(x) , man kann also ι nicht anders als durch (∗) ι(x · ker ϕ) := ϕ(x) definieren: b) Wir definieren ι durch (∗). Dann ist ι eindeutig definiert, denn seien x, x0 ∈ G mit x · ker ϕ = x0 · ker ϕ , dann ist x−1 · x0 ∈ ker ϕ , also ϕ(x−1 · x0 ) = eG , also ϕ(x) = ϕ(x0 ). ι ist ein Gruppenhomomorphismus, denn für x · ker ϕ , y · ker ϕ ∈ G/ ker ϕ gilt ι((x · ker ϕ) ∗ (y · ker ϕ)) = ι((x · y) · ker ϕ) = ϕ(x · y) = ϕ(x)τ ϕ(y) = ι(x · ker ϕ)τ ι(y · ker ϕ) . Hier haben wir mit ∗ die Verknüpfung in der Faktorgruppe G/ ker ϕ bezeichnet. ι ist injektiv nach Satz 2.3.9, denn aus ι(x · ker ϕ) = eH folgt ϕ(x) = eH , also x ∈ ker ϕ , und damit ist x · ker ϕ = ker ϕ = eG · ker ϕ das neutrale Element in (G/ ker ϕ , ∗). Und ι ist surjektiv, weil ϕ surjektiv ist: Sei z ∈ H, dann gibt es ein x ∈ G mit z = ϕ(x), also z = ι(x · ker ϕ) . Die Gleichung ι ◦ κ = ϕ folgt aus der Def. (∗) von ι . 2 52 2.4 Aufgaben (2.1) Sei (G, ·) eine Gruppe. Zeigen Sie: Sei a ∈ G, dann ist la : G −→ G , la (x) := a · x bijektiv. Die Abbildung l : G −→ SG , a 7→ la ist ein Monomorphismus der Gruppe (G, ·) in die symmetrische Gruppe (SG , ◦). (Interpretation: Wegen G ∼ = l(G) ist also jede Gruppe isomorph zu einer Untergruppe einer symmetrischen Gruppe.) (2.2) (Regeln für das Rechnen mit Zyklen :) Sei n ∈ N und seien a1 , . . . , ak paarweise verschiedene Elemente aus n. Zeigen Sie : a) (a1 , . . . , ak )−1 = (ak , ak−1 , . . . , a1 ), b) (a1 , a2 )−1 = (a1 , a2 ), c) ∀ τ ∈ Sn : τ ◦ (a1 , . . . , ak ) ◦ τ −1 = (τ (a1 ), . . . , τ (ak )) , d) seien auch b1 , . . . , bl paarweise verschiedene Elemente aus n und {b1 , . . . , bl } ∩ {a1 , . . . , ak } = ∅, so gilt (a1 , . . . , ak ) ◦ (b1 , . . . , bl ) = (b1 , . . . bl ) ◦ (a1 , . . . , ak ) . (2.3) In der symmetrischen Gruppe (S4 , ◦) sei γ := (1, 2, 3, 4) und δ := (2, 4) . a) Berechnen Sie γ m für m ∈ 4 , δ n für n ∈ 2 . b) Zeigen Sie γ ◦ δ = δ ◦ γ 3 . c) Zeigen Sie, dass D4 := { δ n ◦ γ m | m ∈ {0, 1, 2, 3} ∧ n ∈ {0, 1} } eine Untergruppe von (S4 , ◦) mit 8 Elementen ist. (D4 , ◦) heißt die Diedergruppe (gesprochen: Di-edergruppe) mit 8 Elementen. (2.4) In der symmetrischen Gruppe (S8 , ◦) sei e := id8 , n := (1, 5) ◦ (2, 6) ◦ (3, 7) ◦ (4, 8) , i := (1, 2, 5, 6) ◦ (3, 4, 7, 8) , j := (1, 3, 5, 7) ◦ (2, 8, 6, 4) , k := (1, 4, 5, 8) ◦ (2, 3, 6, 7) . Zeigen Sie, dass Q := {e, n, i, j, k, i−1 , j −1 , k −1 } eine nicht kommutative Untergruppe von (S8 , ◦) ist. Rechnen Sie dazu möglichst nur n2 , i2 , j 2 , k 2 , i ◦ j, j ◦ k, k ◦ i 53 aus und berechnen Sie die übrigen Produkte mit den Regeln aus (2.1.4) h) . Q heißt die Quaternionengruppe . (2.5) Sei (G, ·) eine Gruppe. Zeigen Sie : a) Aut(G) := { ψ : G −→ G | ψ ist ein Automorphismus von G } ist eine Untergruppe von (SG , ◦) . Aut(G) heißt die Automorphismengruppe von G. b) Für jedes a ∈ G ist ϕa : G −→ G , ϕa (x) := a · x · a−1 ein Automorphismus von G (siehe auch 2.3.3 (2)) . ϕa heißt ein innerer Automorphismus von G. c) Sei Inn(G) := { ϕa | a ∈ G } die Menge der inneren Automorphismen von G, dann ist Inn(G) ein Normalteiler in (Aut(G), ◦) . d) Zählen Sie nach, dass #(Inn(S3 )) = #(Aut(S3 )) = 6 ist, und damit Aut(S3 ) = Inn(S3 ). (Hinweis: Überlegen Sie sich, dass ein ψ ∈ Aut(S3 ) bereits durch ψ((1, 2)) und ψ((1, 2, 3)) bestimmt ist, und dass es für diese Funktionswerte nur 3 bzw.2 Möglichkeiten gibt.) e) Sei (Z4 , ◦) die in (2.2.18) definierte zyklische Gruppe k Z4 = α k ∈ {0, 1, 2, 3} mit α = (1, 2, 3, 4) . Zeige, dass durch ψ : Z4 −→ Z4 , ψ(αj ) := α3j für j ∈ N0 ein Automorphismus von Z4 definiert ist, der kein innerer Automorphismus von Z4 ist . (2.6) Zeigen Sie: Die in (2.2.16) definierte Gruppe V4 ist ein Normalteiler in (S4 , ◦), und es gilt S4 /V4 ∼ = S3 . 54 §3 Ringe und Körper 3.1 Etwas Ringtheorie Definition 3.1.1 : Sei R eine Menge. Es gebe zwei Verknüpfungen + : R × R −→ R , (x, y) 7→ x + y · : R × R −→ R , (x, y) 7→ x · y , , die wir Addition und Multiplikation nennen, so dass gilt: (R1) (R, +) ist eine abelsche Gruppe. Das neutrale Element dieser Gruppe bezeichnen wir mit 0, und statt vom “Inversen” eines Elements x sprechen wir vom Negativen und schreiben: −x, siehe auch (2.1.7), (R2) (R, ·) ist eine Halbgruppe. Nach Def.2.1.1 bedeutet das: ∀ x, y, z ∈ R : x · (y · z) = (x · y) · z . (R3) ∃ 1 ∈ R : (1 6= 0 ∧ ∀ x ∈ R : 1 · x = x · 1 = x), es gibt also ein neutrales Element bezüglich ·. Wir nennen 1 das Einselement von (R, +, ·), (R4) ∀ x, y, z ∈ R : (x·(y +z) = (x·y)+(x·z) ∧ (x+y)·z = (x·z)+(y ·z)) (Distributivgesetz) , dann heißt R , genauer: Das Tripel (R, +, ·) , ein Ring . (3.1.2) Bemerkungen : (1) Das, was wir hier als “Ring” definiert haben, heißt in der Literatur genauer “assoziativer Ring mit Eins”, aber das ist uns zu lang. Man kann aber auch eine Theorie ohne die Axiome (R2) und (R3) entwickeln. (2) Das neutrale Element 1 mit der Eigenschaft aus (R3) ist eindeutig bestimmt, denn sei auch 10 ∈ R mit ∀ x ∈ R : 10 · x = x · 10 = x , dann folgt 10 = 10 · 1 = 1 . (3) Auf die Klammern auf der rechten Seite der Regeln im Distributivgesetz werden wir verzichten: Wir definieren: “Punktrechnung geht vor Strichrechnung”, dann bedeutet also x·y+x·z dasselbe wie (x · y) + (x · z) . Definition 3.1.3 : Sei (R, +, ·) ein Ring. Gilt zusätzlich zu den Axiomen (R1) - (R4) noch 55 (R5) ∀ x, y ∈ R : x · y = y · x (Kommutativgesetz der Multiplikation) , so heißt (R, +, ·) ein kommutativer Ring . Gilt (R6) ∀ x, y ∈ R \ {0} : x · y 6= 0 , so heißt (R, +, ·) ein nullteilerfreier Ring . Folgerung 3.1.4 : Sei (R, +, ·) ein Ring, 0 das Nullelement und 1 das Einselement von (R, +, ·), dann gilt für alle x, y ∈ R : (1) x · 0 = 0 , (2) 0 · x = 0 , (3) (−x) · y = x · (−y) = −(x · y) , (4) (−1) · x = −x , (5) (−x) · (−y) = x · y . (R4) Beweis : (1) Aus 0 + 0 = 0 folgt x · 0 = x · (0 + 0) = x · 0 + x · 0 , andererseits gilt auch x · 0 + 0 = x · 0 , also nach der Kürzungsregel in der Gruppe (R, +) : x·0 = 0 . (2) zeigt man analog zu (1) mit (R4). (R4) (2) (3) x · y + (−x) · y = (x + (−x)) · y = 0 · y = 0 , also ist (−x) · y das eindeutig bestimmte Negative von x · y , (−x) · y = −(x · y) , und ebenso (R4) (1) x · (−y) + x · y = x · ((−y) + y) = x · 0 = 0 , also x · (−y) = −(x · y) . (3) (4) (−1) · x = −(1 · x) = −x , (3) (3) (2.1.4)(h) (5) (−x) · (−y) = −(x · (−y)) = −(−(x · y)) = x·y . 2 Bemerkung 3.1.5 : Alles, was wir für Gruppen gelernt haben, gilt auch für die abelsche Gruppe (R, +) eines Ringes (R, +, ·). Statt Potenzen in (R, +) spricht man nach (2.1.8) von Vielfachen na für a ∈ R , n ∈ Z , und da (R, ·) eine Halbgruppe ist, hat man auch Potenzen an für a ∈ R , n ∈ N . Wegen (R3) können wir noch definieren: a0 := 1 für a ∈ R , 56 dann sind also Potenzen an für n ∈ N0 definiert und alle a ∈ R , auch 00 = 1 . (Die untere 0 ist die 0 aus R, die obere die aus N0 .) Definition 3.1.6 : Sei (R, +, ·) ein Ring, mit Einselement 1 und U ⊂ R . Es gelte (I1) U ist eine Untergruppe von (R, +) , d.h. U 6= ∅ ∧ ∀ a, b ∈ U : b − a ∈ U , und (UR) 1 ∈ U ∧ ∀ a, b ∈ U : a · b ∈ U , dann heißt U ein Unterring von (R, +, ·). 2 Bemerkungen 3.1.7 (1) Die Definition ergibt Sinn: Ist U Unterring von (R, +, ·), so ist (U, +, ·) selbst wieder ein Ring, mit demselben Nullelement und Einselement wie in (R, +, ·). (2) Da (R, +) abelsch ist, ist eine Teilmenge U von R, die (I1) erfüllt, ein Normalteiler in (R, +) . Man kann daher die Faktorgruppe (R/U , ⊕) (a + U ) ⊕ (b + U ) = (a + b) + U mit bilden, aber man möchte diese Linksnebenklassen nun auch multiplizieren. Damit das “wohldefiniert” wird, und nicht nur Triviales ergibt, nimmt man statt Unterringen “Ideale”: Definition 3.1.8 : Sei (R, +, ·) ein Ring und I ⊂ R. Es gelte (I1) I ist eine Untergruppe von (R, +), d.h. I 6= ∅ ∧ ∀ a, b ∈ I : b − a ∈ I , und (I2) ∀r ∈ R ∀a ∈ I : (r · a ∈ I ∧ a · r ∈ I) , , dann heißt I ein Ideal in (R, +, ·). - Man beachte, dass wir hier keineswegs gefordert haben, dass 1 ∈ I ist. Ist nämlich 1 ∈ I, so ist wegen (I2) : ∀r ∈ R : r · 1 ∈ I , dann ist also R ⊂ I , also I = R. Wir wollen aber auch “nichttriviale” Ideale haben ! Definition und Satz 3.1.9 : Sei (R, +, ·) ein Ring, mit Nullelement 0 und Einselement 1 . Sei I ein Ideal in R. Dann hat man die durch (a + I) ⊕ (b + I) := (a + b) + I für a, b ∈ R gemäß (2.2.12) definierte Faktorgruppe (R/I , ⊕) , mit dem Nullelement 0 + I = I. Durch (∗) (a + I) (b + I) := (a · b) + I 57 wird eindeutig eine Verknüpfung auf R/I definiert. (R/I , ⊕, ) ist dann ein Ring, mit Nullelement 0 + I und Einselement 1 + I . (R/I , ⊕, ) heißt der Faktorring von R modulo I . Beweis : (1) Wir zeigen, dass durch (∗) eindeutig eine Abbildung : R/I × R/I −→ R/I definiert ist: Seien a, a0 , b, b0 ∈ R mit a + I = a0 + I und b + I = b0 + I , dann gilt a − a0 ∈ I und b − b0 ∈ I , also a · b − a0 · b0 = a · b − a · b0 + a · b0 − a0 · b0 = a · (b − b0 ) + (a − a0 ) · b0 , und das liegt in I , denn b−b0 ∈ I und a−a0 ∈ I , nach (I2) also a·(b−b0 ) ∈ I und (a − a0 ) · b0 ∈ I, und nach (I1) liegt auch die Summe in I . Also gilt a·b+I = a0 · b 0 + I . (2) Die anderen Ringaxiome gelten in (R/I , ⊕, ), da sie in (R, +, ·) gelten. 2 Um Homomorphismen von Ringen zu definieren, müssen wir zwei evtl. verschiedene Mengen R und S nehmen, mit verschiedener Addtion und Multiplikation. Um die Formeln aber nicht zu unübersichtlich werden zu lassen, schreiben wir die Zeichen + und · für die Verknüpfungen in beiden Ringen. Für die Einselemente schreiben wir aber 1R bzw. 1S : Definition 3.1.9 : Seien (R, +, ·) und (S, +, ·) Ringe, mit Einselementen 1R bzw. 1S . Eine Abbildung ψ : R −→ S heßt ein (RH1) (RH2) (RH3) Ringhomomorphismus, wenn gilt ∀ a, b ∈ R : ψ(a + b) = ψ(a) + ψ(b) , ∀ a, b ∈ R : ψ(a · b) = ψ(a) · ψ(b) , ψ(1R ) = 1S . 2 Man beachte, dass (RH3) nicht aus Satz 2.3.4(1) folgt, denn (R, ·) und (S, ·) sind keine Gruppen! 58 Wie bei Gruppen-Homomorphismen definiert man den Kern : Definition und Satz 3.1.10 : Seien (R, +, ·) und (S, +·) Ringe, ψ : R −→ S ein Homomorphismus. Dann heißt ker ψ := { x ∈ R | ψ(x) = 0 } der Kern des Ringhomomorphismus ψ . ( Die 0 hier ist natürlich die 0 in S .) ker ψ ist ein Ideal in R . Beweis : (I1) ker ψ ist ein Normalteiler, also eine Untergruppe, von (R, +) nach Satz 2.3.7 . (I2) Für r ∈ R und a ∈ ker ψ gilt ψ(r · a) = ψ(r) · ψ(a) = ψ(r) · 0 = 0 und ψ(a · r) = ψ(a) · ψ(r) = 0 · ψ(r) = 0 , also r · a, a · r ∈ ker ψ . 2 Man hat also den Faktorring R/ ker ψ , und kann damit den Homomorphiesatz für Ringe formulieren: (3.1.11) Homomorphiesatz für Ringe : Seien (R, +, ·) und (S, +, ·) Ringe , ψ : R −→ S ein Epimorphismus von Ringen. Sei κ : R −→ R/ ker ψ , x 7→ x + ( ker ψ) der kanonische Nebenklassenepimorphismus von R auf den Faktorring R/ ker ψ , dann gibt es genau einen Ring-Isomorphismus ι : R/ ker ψ −→ S mit ι ◦ κ = ψ . ( “ ◦ ” ist hier die Hintereinanderausführung von Abbildungen.) Beweis : Da Satz 2.3.9 schon bewiesen ist, muss man nur noch nachrechnen, dass κ und ι die Bedingungen (RH2) und (RH3) für einen Ringhomomorphismus erfüllt. Das ist eine leichte Übungsaufgabe. 2 3.2 Der Ring der ganzen Zahlen Das Rechnen mit ganzen Zahlen sollte aus der Schule bekannt sein, d.h. wir wissen, dass (Z, +, ·) mit der gewöhnlichen Addition + und der gewöhnlichen 59 Multiplikation · ein kommutativer, nullteilerfreier Ring ist, mit der Zahl 0 als Nullelement und der Zahl 1 als Einselement. Bemerkung 3.2.1 : Mit der Anordnung der ganzen Zahlen, dem Induktionsaxiom und gleichbedeutenden Aussagen hatten wir uns schon in Abschnitt 1.2 beschäftigt. Wir setzen als bekannt voraus, dass außer den Axiomen (O1) - (O3) auch noch (O4) ∀ x, y ∈ Z : (x ≤ y ∨ y ≤ x) , (O5) ∀ x, y, z ∈ Z : (x ≤ y =⇒ x + z ≤ y + z), (O6) ∀ x, y, z ∈ Z : (x ≤ y ∧ z ≥ 0 =⇒ x · z ≤ y · z) gilt. Satz 3.2.2 : Sei m eine feste ganze Zahl. Dann ist die Menge (m) := { km | k ∈ Z } ein Ideal in (Z, +, ·) . Dabei bezeichnet km für k ∈ Z das k−fache von m - das aber gleich dem Produkt k · m in Z ist. Beweis : (I1) (m) ⊂ Z sieht man, und (m) 6= ∅ wegen 0 = 0 · m ∈ (m). Seien a, b ∈ (m), dann gibt es k, l ∈ Z mit a = km , b = lm , also b − a = (l − k)m ∈ (m). (I2) Sei r ∈ Z und a ∈ (m), dann gibt es ein k ∈ Z mit a = km , also a · r = r · a = r · (km) = r · (k · m) = (r · k) · m = (r · k)m ∈ (m) . 2 Wir wollen zeigen, dass die Ideale (m) , m ∈ N0 , sogar alle Ideale von (Z, +, ·) sind. Dazu brauchen wir den Satz 3.2.3 (Division mit Rest in Z): Sei n ∈ Z, a ∈ N, dann gibt es eindeutig bestimmte Zahlen v ∈ Z, r ∈ N0 mit n = v·a+r und 0 ≤ r < a . Beweis : a) Wir zeigen die Existenz von v und r: a1 ) Sei zunächst n ∈ N0 . Dann zeigen wir die Aussage ∀ a ∈ N ∃ v ∈ N0 ∃ r ∈ N0 : (n = v · a + r ∧ r < a) | {z } ⇐⇒ : P (n) durch Induktion nach n: Induktionsanfang: Für n = 0 gilt 0 = 0·a+0 ∧ 0<a , 60 für beliebiges a ∈ N. Die Aussage ist also für n = 0 richtig. Induktionsschluss: Sei n ∈ N0 , und für n sei P (n) richtig. Dann folgt n + 1 = (v · a + r) + 1 = v · a + (r + 1) , mit 0 ≤ r < a , also 0 ≤ r + 1 ≤ a. Wenn r + 1 < a ist, sind wir fertig, es gilt dann auch P (n + 1). Anderenfalls gilt r + 1 = a und wir haben n + 1 = v · a + a = (v + 1) · a + 0 , und auch in diesem Fall gilt P (n + 1). a2 ) Sei nun n ∈ Z \ N und a ∈ N gegeben. Dann ist −n ∈ N , also nach a1 ) : ∃ v ∈ N0 ∃ r ∈ N0 : (−n = v · a + r ∧ r < a) , n = (−v) · a − r also mit 0 ≤ r < a . Ist hier r = 0 , so haben wir die Behauptung gezeigt, mit −v ∈ Z. Ist 0 < r < a , so ist 0 < a − r < a, wir haben n = (−v − 1) · a + (a − r) mit −v − 1 ∈ Z, also gilt die Behauptung auch in diesem Fall. b) Wir zeigen nun die Eindeutigkeit von v und r: Sei auch n = v 0 · a + r0 mit v 0 ∈ Z , 0 ≤ r0 < a , v · a + r = v 0 · a + r0 0 dann folgt . 0 Ist hier v = v , so folgt auch r = r und wir haben die Eindeutigkeit. Angenommen, v 6= v 0 , so ist eine der beiden Zahlen die kleinere, etwa v < v 0 , also existiert ein w ∈ N mit v + w = v 0 , v · a + r = (v + w) · a + r0 r = w · a + r0 , , mit r < a, aber w · a + r0 ≥ w · a > a , was ein Widerspruch ist. 2 Satz 3.2.4 : Sei I ein Ideal von (Z, +, ·) , dann gibt es genau ein m ∈ N0 mit I = (m) . Beweis : Sei I ein Ideal von (Z, +, ·) , dann kann I = {0} sein, dann ist I 61 = (0) . Sei I 6= {0} , dann gibt es ein c ∈ I, c 6= 0. Es kann c ∈ N sein, sonst ist −c ∈ N , aber auch −c ∈ I , da I Untergruppe von (Z, +) ist. Jedenfalls ist M I ∩N := 6= ∅ , und nach (1.2.13) existiert m := min(M ) , also ist m ∈ I , und da I Untergruppe ist, auch ∀ v ∈ Z : vm ∈ I also (m) ⊂ I , . Sei nun n ∈ I , dann dividieren wir n mit Rest durch m : Nach Satz 3.2.3 haben wir ein r ∈ N0 und ein v ∈ Z mit n = v·m+r und 0 ≤ r < m , also r = n − v · m . Da die rechte Seite in I liegt, ist auch r ∈ I. Aus 0 < r < m würde folgen, dass in I ∩ N noch ein kleineres Element als m liegt, Widerspruch zur Definition von m , also r = 0, n = v · m ∈ (m). 2 Definition 3.2.5 : Seien a, b ∈ Z. Wir sagen: a b , gesprochen: a teilt b :⇐⇒ ∃ c ∈ Z : a · c = b . Definition 3.2.6 : Sei p ∈ N , p 6= 1 . p heißt eine Primzahl, wenn gilt ∀ a, b ∈ Z : ( p a · b =⇒ p a ∨ p b ) . Satz 3.2.7 : Eine Zahl p ∈ N ist genau dann eine Primzahl, wenn gilt (∗) ∀ k, l ∈ N : (p = k · l k = 1 ∨ l = 1) . =⇒ Beweis : 1) p sei eine Primzahl und seien k, l ∈ N mit p = k·l , dann gilt p · 1 p |k · l = k·l , nach Definition 3.2.6 also p | k oder p | l . Aus p | k folgt ∃t ∈ Z : p · t 62 = k , , also sogar t ∈ N wegen p, k ∈ N , also k = p·t ≥ p·1 = p . Aus k > p oder l > 1 würde dann k·l > p·1 = p folgen, Widerspruch, also k = p und l = 1 . Analog: Aus p | l folgt k = 1 . 2) Für p gelte (∗) . Seien a, b in Z ; es gelte p|a · b , aber nicht p | a . Dann ist I := { n · p + m · a | n, m ∈ Z } ein Ideal von (Z, +, ·) , was man leicht nachrechnet. Nach Satz 3.2.4 gibt es genau ein d ∈ N0 mit I = (d) , sogar d ∈ N , denn p = 1 · p + 0 · a ∈ I , also I 6= {0} . Es ist p ∈ (d) , also gibt es ein s ∈ Z mit p = s·d , sogar s ∈ N wegen p, d ∈ N . Nach (∗) folgt s = 1 oder d = 1 . Aus s = 1 würde folgen: p = d , a = 0 · p + 1 · a ∈ I ∈ (d) = (p) , ∃t ∈ Z : a = t · p , p|a , also Widerspruch. Also ist d = 1 , also 1 ∈ I , also ∃ u, v ∈ Z : 1 b = = u·p+v·a , also u·p·b+v·a·b , und wegen p | p , p | a · b folgt: p | b . Also ist p eine Primzahl. 2 Bemerkung 3.2.8 : Wir kennen nun alle Ideale von (Z, +, ·), es sind die Ideale (m) mit m ∈ N0 , und wollen uns nun die zugehörigen Faktorringe 63 Z/(m) ansehen: Ist m = 0 , so haben wir (0) = { k · 0 | k ∈ Z } = {0} , und der Faktorring Z/(0) ist isomorph zu Z : Die Abbildung Z −→ Z/(0) , z 7→ z + (0) ist ein Ring-Isomorphismus. Auch für m = 1 erhalten wir nichts Neues: Es ist (1) = { k · 1 | k ∈ Z } = Z , und Z/Z ∼ = (0) . Wir nehmen daher im Folgenden m ∈ N , m ≥ 2. Folgerung 3.2.9 : Sei m ∈ N , m ≥ 2. Wenn wir die Nebenklassen a + (n) für a ∈ Z mit a bezeichnen, so ist Z/(m) = {0, 1, . . . , m − 1} und Summe und Produkt von a, b ∈ Z/(m) erhält man, indem man die ganzen Zahlen a, b addiert bzw. multipliziert und vom Ergebnis c den nach Satz 3.2.3 existierenden Divisionsrest c0 modulo m nimmt, d.h. man sucht sich die Zahl c0 ∈ N0 mit 0 ≤ c0 < n und c − c0 ∈ (n), und bildet dazu c0 . Sei nämlich c − c0 ∈ (n), dann gilt c + (n) = c0 + (n) , also c = c0 . a) Die additive Gruppe (Z/(n) , +) ist für uns nichts Neues: Sei (Zn , ◦) die aus Beispiel (2.1.16) bekannte Gruppe, dann ist Zn = < α > = {α0 , α1 , α2 , . . . , αn−1 } mit α = (1, 2, · · · , n) und die Abbildung ϕ : Zn −→ Z/(n) , αk 7→ k für k ∈ {0, . . . , n − 1} ist ein Isomorphismus der Gruppe (Zn , ◦) auf die Gruppe (Z/(n) , +). Wir sehen uns als Beispiel die Gruppentafeln für (Z/(5) , +) und (Z/(6) , +) an, wobei wir zur Unterscheidung ã für die Elemente aus Z/(6) schreiben: 64 (Z/(5) , +) : (Z/(6) , +) + 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 1 2 3 4 0 2 3 4 0 1 3 4 0 1 2 + 0̃ 1̃ 2̃ 3̃ 4̃ 5̃ 0̃ 1̃ 2̃ 3̃ 4̃ 5̃ 3̃ 4̃ 5̃ 0̃ 1̃ 2̃ 4 0 1 2 3 0̃ 1̃ 2̃ 3̃ 4̃ 5̃ 1̃ 2̃ 3̃ 4̃ 5̃ 0̃ 2̃ 3̃ 4̃ 5̃ 0̃ 1̃ 4̃ 5̃ 0̃ 1̃ 2̃ 3̃ 5̃ 0̃ 1̃ 2̃ 3̃ 4̃ Deutliche Unterschiede in der Struktur haben die multiplikativen Halbgruppen (Z/(5) , ·) und (Z/(6) , ·) : (Z/(5) , ·) : (Z/(6) , ·) : · 0 1 2 3 · 4 0̃ 1̃ 2̃ 3̃ 4̃ 5̃ 0̃ 0̃ 0̃ 0̃ 0̃ 0̃ 0̃ 1̃ 0̃ 1̃ 2̃ 3̃ 4̃ 5̃ 2̃ 0̃ 2̃ 4̃ 0̃ 2̃ 4̃ 3̃ 0̃ 3̃ 0̃ 3̃ 0̃ 3̃ 4̃ 0̃ 4̃ 2̃ 0̃ 4̃ 2̃ 5̃ 0̃ 5̃ 4̃ 3̃ 2̃ 1̃ Dass in den Tabellen jeweils in der ersten Zeile und Spalte, also bei den Produkten mit dem Nullelement, nur das Nullelement steht, ist nach Folgerung 3.1.4 klar. Aber wir sehen: In Z/(5) \ {0} besitzt jedes Element ein Inverses bezüglich · : 0 1 2 3 4 0 0 0 0 0 0 1 2 3 4 0 2 4 1 3 −1 1 0 3 1 4 2 0 4 3 2 1 = 1 , −1 2 = 3 , −1 3 = 2 , −1 4 = 4 . In Z/(6) \ {0̃} gilt das nicht, schlimmer noch: Es gibt Produkte von Elementen ungleich 0̃, die 0̃ sind. Wir haben hier ein Beispiel für einen Ring, der nicht nullteilerfrei ist. Das liegt daran, dass 5 eine Primzahl ist, 6 aber nicht. Allgemein: Sei n ∈ N , n ≥ 2 und n keine Primzahl, Z/(n) = { ã | a ∈ {0, 1, . . . , n − 1} } mit ã := a + (n) , dann gibt es nach Satz 3.2.7 zwei Zahlen k, l ∈ N mit 1 < k < n , 1 < l < n und n = k · l k̃ · ˜l = 0̃ und k̃, ˜l 6= 0̃ . 65 , also Satz und Definition 3.2.11 : Sei (R, +, ·) ein Ring, 1 das Einselement von R. Dann ist die Menge der Elemente, die ein Inverses bezüglich · besitzen, also R× := { a ∈ R | ∃ a∗ ∈ R : a · a∗ = a∗ · a = 1 } mit · eine Gruppe, genannt die Einheitengruppe von R . Beweis : Sind a, b ∈ R× , so haben wir (a · b) · (b∗ · a∗ ) = (a · (b · b∗ )) · a∗ = (a · 1) · a∗ = a · a∗ = 1 , ebenso: (b∗ · a∗ ) · (a · b) = 1 . Also ist a · b ∈ R× , · ist eine Verknpfung auf R× . (G1) Das Assoziativgesetz für · gilt in R× , da es in R gilt. (G2) Wegen 1 · 1 = 1 ist 1 ∈ R× und ∀ a ∈ R× : 1 · a = a . (G3) Sei a ∈ R× , dann haben wir nach Def. von R× ein a∗ ∈ R mit a∗ ·a = 1. Dieses a∗ gehört aber sogar zu R× wegen a · a∗ = 1, wir können also (a∗ )∗ := a nehmen. (R× , ·) erfüllt also die Gruppenaxiome. 2 Beisiele 3.2.12 : 1) Es ist Z× = {1, −1} . 2) Ist n eine Primzahl, so ist (Z/(n) )× = Z/(n) \ {0} für 0 = 0 + (n) . 3) Es gilt (Z/(8) )× = {1, 3, 5, 7} , mit a := a + (8) , (Z/(10) )× = {1̃, 3̃, 7̃, 9̃} ã := a + (10) für a ∈ Z und wir haben folgende Gruppentafeln: ((Z/(8) )× , ·) · 1 3 5 7 Wir ((Z/(10) )× , ·) · 1 3 5 7 1 3 3 1 5 7 7 5 sehen: 5 7 7 5 1 3 3 1 (Z/(8) )× ∼ = V4 , 1̃ 3̃ 7̃ 9̃ 1̃ 1̃ 3̃ 3̃ 3̃ 9̃ 7̃ 7̃ 1̃ 9̃ 9̃ 7̃ × ∼ (Z/(10) ) = Z4 . 66 7̃ 1̃ 9̃ 3̃ 9̃ 7̃ 3̃ 1̃ Ist jedenfalls n eine Primzahl p, so ist Z/(p) \ {0 + (p)} mit der auf diese Menge eingeschränkten Multiplikation eine kommutative Gruppe. Bevor wir das beweisen, noch ein neuer Begriff: Definition 3.2.13 : Sei (K, +, ·) ein kommutativer Ring, mit Nullelement 0 und Einselement 1. Wenn dann (zusätzlich zu den Axiomen (R1) - (R5) ) noch gilt (KK) ∀ x ∈ K\{0} ∃ x−1 ∈ K : x−1 ·x = 1 , dann nennen wir (K, +, ·) einen Körper . 2 Folgerung 3.2.14 : Ist (K, +, ·) ein Körper, mit Nullelement 0 und Einselement 1, so ist K \ {0} mit der darauf eingeschränkten Multiplikation · eine kommutative Gruppe. Beweis : Wegen der Kommutativität von (K, ·) und nach Axiom (KK) ist K \ {0} = K× die Einheitengruppe von (K, +, ·) , also nach Satz 3.2.11 eine Gruppe. Wegen (R5) ist diese Gruppe kommutativ. 2 Sie kennen aus der Schule Beispiele für Körper: (Q, +, ·) , den Körper der rationalen Zahlen, (R, +, ·) , den Körper der reellen Zahlen, dessen genaue Charakterisierung in die Analysis gehört, und vielleicht noch (C, +, ·) , den Körper der komplexen Zahlen, den wir hier (sicherheitshalber) noch einführen werden. Aber nun eben auch: Satz 3.2.15 : Sei p eine Primzahl, dann ist (Z/(p) , +, ·) ein Körper. Z/(p) enthält genau p Elemente. Beweis : Für a ∈ Z setzen wir wieder a = a + (p) , dann wissen wir: Z/(p) = {0, . . . , p − 1} , 67 und die angegebenen p Elemente sind verschieden. Dass (Z/(p) , +, ·) ein Ring ist, gilt nach Satz 3.1.9 , und kommutativ ist er, da (Z, +, ·) ein kommutativer Ring ist. 1 ist das Einselement von (Z/(p) , +, ·) . Sei a ∈ Z/(p) mit (∗) a 6= 0 , also 0 < a < p . Sei I := { r · a + s · p | r, s ∈ Z } , dann ist I ein Ideal im Ring (Z, +, ·) , mit a = 1 · a + 0 · p ∈ I und p = 0 · a + 1 · p ∈ I . Nach Satz 3.2.5 gibt es ein d ∈ N0 mit I = (d) , sogar d ∈ N wegen p ∈ I , also I 6= (0) . Es ist dann p ∈ (d) , also ∃t ∈ Z : p = t · d , sogar t ∈ N wegen p, d ∈ N . Nun ist p ∈ P , also folgt aus p = t · d nach Satz 3.2.8 : d = 1 oder t = 1. Angenommen, t = 1, dann würde d = p und a ∈ I = (d) = (p) folgen, also a = a + (p) = 0 + (p) = 0 folgen, Widerspruch zu (∗). Also ist t = 1 falsch und es gilt d = 1 , I = (d) = (1) = Z , { r · a + s · p | r, s ∈ Z } also = Z , und das heißt, zu jedem z ∈ Z gibt es r, s ∈ Z mit z = r · a + s · p , insbesondere ∃r ∈ Z ∃s ∈ Z : 1 = r · a + s · p , und mit diesem r folgt 1 − r · a = s · p ∈ (p) , 1 = r·a . Wir haben also ein Inverses zu a gefunden: Es gilt (KK) . 2 -Zwischen den Körpern Q, R, C einerseits und den Körpern Z/(p) andererseits gibt es einen wesentlichen Unterschied: Nimmt man die 1 dieser Körper und bildet die Vielfachen n 1 für n ∈ N , 68 so sind diese in Q, R und C niemals 0. In Z/(5) = {0, 1, 2, 3, 4} mit dem Einselement 1 gilt aber 51 = 1 + 1 + 1 + 1 + 1 = 0 . Definition und Satz 3.2.16 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring, mit Nullelement 0 und Einselement 1. Wenn alle Vielfachen n 1 für n ∈ N ungleich dem Nullement 0 sind, dann sagen wir: R hat die Charakteristik 0 und schreiben : char R = 0. Anderenfalls ist { n ∈ N | n1 = 0 } eine nichtleere Teilmenge von N , und char R := p := min { n ∈ N | n 1 = 0 } ist eine natürliche Zahl, sogar eine Primzahl. Wir sagen dann: R hat die Charakteristik p . Beweisen müssen wir nur, dass p eine Primzahl ist: Angenommen, p ist keine Primzahl, dann haben wir nach Satz 3.2.8 zwei Zahlen k, l ∈ N mit p = k · l und (1 < k < p) ∧ (1 < l < p) . Aus p 1 = 0 folgt dann (k 1) · (l 1) (∗) = (k · l) 1 = p 1 = 0 und da (R, +, ·) nullteilerfrei ist: k1 = 0 ∨ l1 = 0, aber k, l < p , Widerspruch zur Minimalität von p. Die Formel (∗) ∀ m, n ∈ N0 : (n 1) · (m 1) = (n · m) 1 folgt mit Induktion aus dem Distributivgesetz und der Potenzregel 2.1.7(1). 2 Wir haben also : char Q = 0 , char Z/(p) = p für alle p ∈ P. 69 3.3 Der Polynomring in einer Unbestimmten (3.3.1) Zur Motivation : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring, dann heißt eine Funktion f : R −→ R eine Polynomfunktion , wenn es ein n ∈ N0 und a0 , . . . , an ∈ R gibt, so dass n X f (t) = ak · tk für alle t ∈ R gilt. k=0 Ist R = Q oder R , so haben diese Polynomfunktionen die angenehme Eigenschaft, dass ihre Koeffizienten eindeutig bestimmt sind: Seien n, m ∈ N0 , a0 , . . . an , b0 , . . . , bm ∈ R und ∀t ∈ R : n X ak · tk = m X bk · tk , etwa n ≤ m , k=0 k=0 dann folgt ak = bk für k ∈ {0, . . . , n} und bk = 0 für k > n . Für andere Ringe oder Körper gilt das nicht: Sei etwa K := Z/(3) und f, g : K −→ K f (t) := t und g(t) := t3 , , dann gilt f (0) = 0 = g(0) , f (1) = 1 = g(1) , f (2) = 2 = g(2) , also f = g , f (t) = 0 + 1 · t + 0 · t2 + 0 · t3 , g(t) = 0 + 0 · t + 0 · t2 + 1 · t3 , aber die Koeffizienten sind also nicht eindeutig bestimmt und es ist daher nicht möglich, den Grad einer solchen Polynomfunktion zu definieren. (Soll der Grad von f nun 1 oder 3 sein ?) Man führt daher statt Polynomfunktionen Polynome n X ak · X k k=0 mit einem Element X ∈ / K ein. In manchen Büchern werden nun Polynome n P als “formale Ausdrücke ak X k ” eingeführt, das ist im Grunde genau so k=0 70 unverständlich, wie wenn man √ versucht, die komplexen Zahlen dadurch √ einzuführen, dass man sagt: “ −1 existiert nicht. Wir setzen daher i := −1 ”. Wie bei der Einführung von C muss man sich die Mühe machen, die Menge K zu erweitern. Das geht natürlich nicht ganz schnell, aber das Ergebnis ist so, wie man es haben will. Dazu zunächst eine Abkürzung: Definition 3.3.2 : Sei M eine Menge und P (y) ein einstelliges Prädikat, in das man Elemente y ∈ M einsetzen kann. Dann sagen wir: Für fast alle y ∈ M gilt P (y) , in Zeichen : ∀0 y ∈ M : P (y) , wenn die Menge { z ∈ M | ¬P (z) } endlich ist. 2 Was Folgen in M sind, wissen Sie vielleicht aus der Analysis, nämlich Funktionen a von N0 in M , die wir aber etwas anders schreiben, nämlich (aj )j∈N0 statt a und aj statt a(j) : Definition 3.3.3 : Sei R ein kommutativer Ring und F(N0 , R) die Menge der Folgen (aj )j∈N0 mit aj ∈ R . Dann setzen wir R[X] := { (aj )j∈N0 ∈ F(N0 , R) | ∀0 j ∈ N0 : aj = 0 } . Hilfssatz und Definition 3.3.4 : Sei M eine nichtleere, endliche Teilmenge von N0 . Dann besitzt M ein größtes Element, also ein m∈M mit ∀ a ∈ M : a ≤ m . Dieses Element bezeichnen wir mit max M . Beweis durch Induktion nach n := #(M ): Induktionsanfang: Ist #(M ) = 1, also M = {a1 } , so leistet m := a1 das Gewünschte. Induktionsschluss: Sei n ∈ N, und für Mengen M 0 mit #(M 0 ) = n sei die Behauptung richtig. Sei M eine Teilmenge von N0 mit n + 1 Elementen und b ∈ M , dann hat M 0 := M \ {b} nur m Elemente, es gibt ein m0 mit m0 ∈ M 0 und ∀ a ∈ M 0 : a ≤ m0 . Es kann b ≤ m0 sein, dann setzen wir m := m0 . Ist b > m, so setzen wir m := b. 2 71 Definition 3.3.5 : Sei (aj )j∈N0 ∈ R[X] . Es kann (aj )j∈N0 = (0, 0, . . .) sein. Anderenfalls ist { j ∈ N0 | aj 6= 0 } nichtleer und endlich. Wir nennen deg(aj )j∈N0 := max { j ∈ N0 | aj 6= 0 } den Grad von (aj )j∈N0 . Für (0, 0, . . .) definieren wir keinen Grad. Satz 3.3.6 : Sei R ein kommutativer Ring. Setzt man für (aj )j∈N0 , (bj )j∈N0 ∈ R[X] : (aj )j∈N0 + (bj )j∈N0 (aj )j∈N0 · (bj )j∈N0 := := (aj + bj )j∈N0 ! j X ak · bj−k k=0 , , j∈N0 so wird (R[X], +, ·) ein kommutativer Ring, mit Nullelement (0, 0, 0, . . .) und Einselement (1, 0, 0, . . .) . Den Beweis dafür wollen wir nicht im Einzelnen führen. Man muss sich zunächst überlegen, dass aus ∀0 j ∈ N0 : aj = 0 und ∀0 j ∈ N0 : bj = 0 auch 0 0 ∀ j ∈ N0 : aj + bj = 0 und ∀ j ∈ N0 : j X ak · bj−k = 0 k=0 folgt. Für letzteres und den Beweis der Assoziativität und Kommutativität von · ist es nützlich, zu verwenden, dass j X k=0 ak · bj−k X = ak · b l (k,l)∈N0 ×N0 mit k+l=j gilt. Bemerkung 3.3.7 : Man möchte haben, dass R ⊂ R[X] gilt. Das ist dasselbe Problem wie bei der Zahlbereichserweiterung von Z zu Q . Dort sieht man zunächst nicht, dass ganze Zahlen n ∈ Z Brüche sind, aber man kann n n mit ∈ Q identifizieren. 1 Hier wird man ein a ∈ R mit dem Element 72 (a, 0, 0, . . . ) identifizieren; das geht wegen der Beh. 3.3.8 : ϕ : R −→ R[X] , Ringhomomorphismus. Der Beweis ist leicht. a 7−→ (a, 0, 0, . . .) ist ein injektiver 2 Folgerung 3.3.9 : Wenn wir für a ∈ R a statt (a, 0, 0, . . .) ∈ R[X] schreiben, ist es egal, ob wir a + b oder a · b in R oder in R[X] bilden, und dann ist R ⊂ R[X] . Wir setzen noch X X∈ /R, := (0, 1, 0, 0, . . .) , und ∀ k ∈ N0 : X k Sei nun (aj )j∈N0 ∈ R[X] , aj = 0 für dann gilt = ( |{z} 0 , . . . , 0, |{z} 1 , 0, . . .) . 0-te Stelle k-te Stelle dann gibt es ein n ∈ N0 mit j > n, (aj )j∈N0 = = also (a0 , a1 , . . . , an , 0, 0, . . .) n X (0, . . . , 0, ak , 0, . . .) k=0 = n X (ak , 0, 0, . . .) · (0, . . . , 0, k=0 = n X ak · X k 1 , 0, . . .) |{z} k-te Stelle . k=0 Zwischen Folgen (aj )j∈N0 und (bj )j∈N0 , also Funktionen von N0 nach R , hat man (aj )j∈N0 = (bj )j∈N0 ⇐⇒ ∀ j ∈ N0 : aj = bj . Mit dem oben definierten X und der Schreibweise ∞ P ak · X k statt (a0 , a1 , . . . , an , 0, . . .) erhält man k=0 Satz und Definition 3.3.10 : Sei (R, +, ·) ein kommutativer Ring. Dann ist ( ∞ ) X R[X] = ak · X k ∀ k ∈ N0 : ak ∈ R ∧ ∀0 k ∈ N0 : ak = 0 k=0 73 , und (R[X], +, ·) ist ein kommutativer Ring, wenn man ∞ X ak · X k + k=0 ∞ X ∞ X bk · X k ∞ X := k=0 ! ak · X k · k=0 (ak + bk ) · X k , k=0 ! ∞ X bk · X k := k=0 ∞ X j X j=0 k=0 ! ak · bj−k · Xj setzt. Es ist X ∈ R[X] , X ∈ /R . (R[X], +, ·) heißt der Polynomring in der Unbestimmten X über R . Es gilt in R[X] : ∞ X k ak · X = ∞ X k=0 bk · X k ⇐⇒ ∀ k ∈ N0 : ak = bk . k=0 ∞ P Damit ist dann für f (X) = ak · X k 6= 0 k=0 deg f (X) = max { k ∈ N0 | ak 6= 0 } definiert. Die Elemente von R[X] heißen Polynome in X . Definition 3.3.11 : Sei R ein kommutativer Ring, mit Einselement 1 , und f (X) ∈ R[X] , f (X) 6= 0 , dann ist also n = deg f (X) definiert, und man hat a0 , . . . , an ∈ R mit f (X) = n X ak · X k und an 6= 0 . k=0 Das Element `(f ) := an heißt der Leitkoeffizient des Polynoms f (X) . Ist f (X) 6= 0 und `(f ) = 1 , so heißt das Polynom f (X) normiert . Behauptung 3.3.12 : Sei R ein kommutativer, nullteilerfreier Ring . Seien f (X) , g(X) ∈ R[X] \ {0} , dann gilt deg(f (X) · g(X)) = deg f (X) + deg g(X) , 74 `(f · g) `(f ) · `(g) , = und der Polynomring ist auch nullteilerfrei. Beweis : Sei n := deg f (X) , m := deg g(X) , dann ist f (X) = n X ak · X k mit `(f ) = an 6= 0 , bk · X k mit `(g) = bm 6= 0 , k=0 g(X) = m X und k=0 f (X) · g(X) = ∞ X j X j=0 k=0 ! · Xj ak · bj−k . Ist j > n + m und k ∈ {0, . . . , j} , so kann (1) k ≤ n sein, dann ist j − k > n + m − n = m , also bj−k = 0 , oder es kann (2) k > n sein, dann ist ak = 0 , auf jeden Fall : ak · bj−k = 0 . Also ist f (X) · g(X) = n+m X j X j=0 k=0 ! ak · bj−k · Xj , und für j = n + m gilt ak bj−k 6= 0 höchstens für k = n und j − k = m . Also ist n+m X ak · bn+m−k = an · b m = `(f ) · `(g) . k=0 Also ist f (X) · g(X) 6= 0 , R[X] ist nullteilerfrei und wir haben die angegebenen Formeln. 2 Definition 3.3.13 (Einsetzen in Polynome) : Sei R ein kommutativer, nullteilerfreier Ring und f (X) = n X ak · X k ∈ R[X] k=0 75 ein Polynom, dann kann man für X jedes Element aus R[X] einsetzen, man kann etwa n X f (X 2 ) := ak · X 2k k=0 bilden. Insbesondere kann man jedes λ ∈ R einsetzen, man kann f (λ) n X := ak · λ k ∈ R k=0 bilden und erhält so zu f (X) ∈ R[X] eine Polynomfunktion f˜ ∈ F(R, R) , f˜(λ) := f (λ) . Macht man nun die Menge F(R, R) zu einem Ring (F(R, R), +, ·) , indem man für g, h ∈ F(R, R) g + h : R −→ R durch (g + h)(λ) := g(λ) + h(λ) , g · h : R −→ R durch (g · h)(λ) := g(λ) · h(λ) für λ ∈ R definiert, so wird die Abbildung g : R[X] −→ F(R, R) , f (X) 7−→ f˜ ein Ring-Homomorphismus (wozu man ˜ ˜ f^ 1 + f2 = f1 + f2 , ˜ ˜ f^ 1 · f2 = f1 · f2 für f1 , f2 ∈ R[X] im Einzelnen nachrechnen müsste). g ist i.A. nicht surjektiv; man sieht, etwa für R := R , leicht, dass es Funktionen gibt, die keine Polynomfunktionen sind. Z.B. ist sin : R −→ R ungleich 0 und hat unendlich viele “Nullstellen”. Nach dem nächsten Satz haben Polynomfunktionen 6= 0 aber nur endlich viele Nullstellen. Die Abbildung g ist i.A. aber auch nicht injektiv, wie wir in (3.3.1) gesehen haben: f (X) := X und g(X) := X 3 ∈ Z/(3) [X] sind verschiedene Polynome, aber für die Polynomfunktionen gilt f˜(λ) = λ = λ3 = g̃(λ) für alle λ ∈ Z/(3) f˜ = g̃ 76 . , also g ist aber injektiv, wenn R unendlich viele Elemente hat, das ist Satz 3.3.15 . Zunächst Definition und Satz 3.3.14 : Sei R ein kommutativer, nullteilerfreier Ring. Für f (X) ∈ R[X] heißt N (f (X)) { α ∈ R | f (α) = 0 } := die Menge der Nullstellen von f (X) . Es gilt dann für f (X) 6= 0 : #(N (f (X))) ≤ deg f (X) . Beweis durch Induktion nach deg f (X) : Induktionsanfang: Ist deg f (X) = 0 , so ist f (X) a0 ∈ R , = a0 6= 0 , es gibt kein α ∈ R mit f (α) = 0 , also #(N (f (X))) = 0 = deg f (X) . Induktionsschluss: Sei n ∈ N , und für Polynome vom Grad n − 1 sei die Beh. richtig. Sei nun f (X) ∈ R[X] \ {0} und deg f (X) = n . Es kann sein, dass es keine Nullstelle von f (X) gibt, dann ist #(N (f (X))) = 0 < n = deg f (X) , die Behauptung ist also für f (X) richtig. Sonst: Sei α eine Nullstelle von f (X) , n X f (X) = ak · X k mit an 6= 0 , k=0 dann ist f (α) = 0 , also f (X) = f (X) − f (α) = n X k ak ·X − k=0 n X k ak ·α = k=0 n X ak ·(X k −αk ) . k=1 Wie Sie durch Ausmultiplizieren (ohne Induktion) beweisen können, ist für alle j ∈ N : X j − αj = (X − α) · j−1 X X l · αj−1−l , also l=0 f (X) = (X − α) · n X ak · k−1 X j=0 k=1 77 ! X j · αk−1−j . n P Nun ist g(X) := ak · ! k−1 P X j · αk−1−j ein Polynom vom Grad n − 1 , j=0 k=1 denn die höchste Potenz von X , die darin vorkommt, ist X n−1 , mit dem Koeffizienten an 6= 0 . Also ist f (X) = (X − α) · g(X) mit deg g(X) = n−1 , und da R nullteilerfrei ist, ist eine Nullstelle von f (X) eine Nullstelle von X − α oder von g(X) , und g(X) hat höchstens n − 1 Nullstellen. Also ist 2 #(N (f (X))) ≤ 1+(n−1) = n . Man erhält damit den Satz 3.3.15: Sei R ein kommutativer, nullteilerfreier Ring und unendlich vielen Elementen, dann ist die Abbildung ˜ : R[X] −→ F(R, R) , die dem Polynom f (X) = n X ak · X k ∈ R[X] k=0 die Polynomfunktion f˜ : R −→ R , f˜(λ) := n X ak · λk k=0 zuordnet, injektiv. Beweis : Seien f1 (X) , f2 (X) ∈ R[X] und f˜1 f˜2 = , dann hat das Polynom f1 (X) − f2 (X) unendlich viele Nullstellen, nämlich alle λ ∈ R . Nach Satz 3.3.14 geht das nur, wenn f1 (X) − f2 (X) das Nullpolynom ist, also: f1 (X) = 2 f2 (X) . Für den folgenden Satz braucht man nun einen Körper K. Für die Elemente aus K[X]werden wir im Rest dieses Abschnitts, wie schon in 3.3.13, einfach f , g, ,... statt f (X) , g(X) , . . . 78 schreiben: Satz 3.3.16 : Sei K ein Körper, f, g ∈ K[X] und g 6= 0 . Dann gibt es eindeutig bestimmte Polynome q, r ∈ K[X] mit f = q · g + r ∧ (r = 0 ∨ deg r < deg g) . Beweis : 1) der Eindeutigkeit von q und r : Seien auch q 0 , r0 ∈ K[X] mit f = q 0 · g + r0 ∧ (r0 = 0 ∨ deg r0 < deg g ) , 0 (q − q 0 ) · g + (r − r0 ) , = 0 (q − q ) · g 0 r −r = dann folgt also . Aus q − q 0 6= 0 würde folgen: deg(q − q 0 ) ≥ 0 , also nach Behauptung 3.3.12: deg(r0 − r) deg((q − q 0 ) · g) = = deg(q − q 0 ) + deg g ≥ deg g , aber (r = 0 ∨ deg r < deg g) ∧ (r0 = 0 ∨ deg r0 < deg g) , also r − r0 = 0 ∨ deg(r − r0 ) < deg g , Widerspruch. Also ist q − q 0 = 0 , q = q 0 , und damit r − r0 = 0 , r = r0 . 2) der Existenz von q, r : a) Ist f = 0 , so kann man q := r := 0 nehmen. b) Ist f 6= 0 , so beweisen wir die Existenz von q, r durch Induktion nach deg f : Induktionsanfang : Ist deg f = 0 , so ist f (X) = a ∈ K \ {0} . Ist deg g = 0, also g(X) = b ∈ K \ {0} , so ist a = a · b−1 · b + 0 , wir können also q := a · b−1 und r := 0 nehmen. Ist deg g ≥ 1 , so haben wir a = 0 · g + a , wir können also q := 0 und r := a nehmen. Induktionsschluss : Sei deg f = m ∈ N , und für Polynome u ∈ K[X] mit deg u < m sei die Behauptung richtig. Trivial ist der Fall deg g > m : Dann können wir r := f , q := 0 nehmen, dann ist f = 0 · g + f ∧ deg f < deg g . Sei nun deg g ≤ m , also f (X) = m X ak · X k , g(X) k=0 = n X bk · X k mit am , bn 6= 0 k=0 und n ≤ m , so ist u(X) := f (X) − am · bn −1 · g(X) · X m−n 79 ein Polynom, bei dem X m den Koeffizienten am − am · bn −1 · bn = 0 hat, also ist deg u < m oder u = 0 . Ist u = 0 , so haben wir f (X) q(X) · g(X) + 0 mit q(x) = := am · bn −1 · X m−n . Ist deg u < m , so können wir die Induktionsvoraussetzung anwenden: Es gibt q1 , r ∈ K[X] mit u f (X) und mit q(X) q1 · g + r ∧ (r = 0 ∨ deg r < deg g) , = = := also (q1 (X) + am · bn −1 · X m−n ) · g(X) + r(X) , q1 (X) + am · bn −1 · X m−n folgt die Behauptung. 2 Man kann also im Polynomring K[X] , wenn K ein Körper ist, “mit Rest dividieren”, so wie wir es in Satz 3.2.3 für Z bewiesen haben. Man definiert daher allgemein: Definition 3.3.17 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring. R heißt ein euklidischer Ring , wenn es eine Funktion δ : R \ {0} −→ N0 gibt mit folgender Eigenschaft: Zu a, b ∈ R mit b 6= 0 gibt es Elemente q, r ∈ R mit a = q·b+r und entweder r = 0 oder δ(r) < δ(b) . Die Abbildung δ heißt dann eine Gradfunktion . 2 (3.3.18) Beispiele: (1) Setzt man für c ∈ Z \ {0} : c für 0<c | c | := −c für c<0 , so kann man δ(c) := | c | für c 6= 0 setzen. Z mit δ wird dann ein euklidischer Ring. (2) Sei K ein Körper, dann wird der Polynomring K[X] mit δ := deg ein euklidischer Ring. 80 Der Vorteil dieser allgemeinen Definition ist, dass man damit sehr übersichtlich folgenden Satz beweisen kann - den wir für Z schon als Satz 3.2.5 bewiesen haben: Satz 3.3.19 : Sei (R, +, ·) ein euklidischer Ring, und I ein Ideal von R. Dann gibt es ein d ∈ R mit I = (d) := { x · d | x ∈ R } . Beweis : Sei δ die Gradfunktion von R. Ist I = {0}, so können wir d := 0 nehmen. Sonst ist M := { δ(x) | x ∈ I \ {0} } eine nichtleere Teilmenge von N0 , es existiert also min M , und dazu ein d ∈ M mit δ(d) = min M . Sei nun y ∈ I beliebig. Dann gibt es q, r ∈ R mit y = q·d+r und (r = 0 ∨ δ(r) < δ(d)) . Wegen d, y ∈ I folgt r ∈ I , und aus r 6= 0 würde δ(r) < δ(d) = min M folgen, Widerspruch zur Definition von M . Also ist r = 0 und damit y = q · d ∈ (d) , und damit I ⊂ (d) . (d) ⊂ I gilt wegen d ∈ I. 2 Wie in Z kann man in K[X] Teilbarkeit und Primelemente definieren: Definition 3.3.20 : Sei K ein Körper und seien f, g ∈ K[X]. Wir sagen: f g , gesprochen: f teilt g :⇐⇒ ∃ h ∈ K[X] : f · h = g . Definition 3.3.21 : Sei p ∈ K[X] \ {0} , deg(p) 6= 0 . p heißt ein Primpolynom, wenn gilt ∀ f, g ∈ K[X] : ( p f · g =⇒ p f ∨ p g ) . Mit einem Beweis, den man fast wörtlich bei Satz 3.2.8 abschreiben kann (und den wir besser gleich allgemeiner für euklidische Ringe bewiesen hätten) zeigt man, dass man Primpolynome nicht in ein Produkt von Polynomen mit kleinerem Grad zerlegen kann - außer einer der Faktoren hat den Grad 0 : Satz 3.3.22 : Sei K ein Körper. Ein Polynom p ∈ K[X]\{0} ist genau dann ein Primpolynom, wenn gilt ∀ f, g ∈ K[X] : (p = f · g =⇒ 81 deg f = 0 ∨ deg g = 0) 2 Bemerkung 3.3.23 : Ist R ein kommutativer, nullteilerfreier Ring, so haben wir in 3.3.10 und 3.3.12 gesehen, dass auch R[X] ein kommutativer, nullteilerfreier Ring ist. Wir können daher den Polynomring in einer Unbestimmten über R[X] bilden, mit einer Unbestimmten, die nicht in R[X] liegt und die wir daher nicht X nennen können. Nennen wir sie Y , so haben wir R[X, Y ] := (R[X])[Y ] und nennen (R[X, Y ], +, ·) den Polynomring in zwei Unbestimmten über R . Als Menge ist ( ∞ ) X R[X, Y ] = ajk · X j · Y k ajk ∈ R ∧ ajk = 0 für fast alle j, k ∈ N0 . j,k=0 Man muss aber vorsichtig sein, nicht alle Eigenschaften des Polynomrings in einer Unbestimmten hat auch der Polynomring in zwei Unbestimmten, z.B.: Hat man einen Körper K , so ist K[X] nach Satz 3.3.16 und Def. 3.3.17 ein euklidischer Ring. K[X, Y ] ist es aber nicht ! 2 3.4 Der Körper der Brüche Aus der Schule wissen Sie, dass man den Ring (Z, +, ·) der ganzen Zahlen erweitern kann zum Körper der rationalen Zahlen. Das geht allgemein für kommutative, nullteilerfreie Ringe : Satz und Definition 3.4.1 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring, mit Nullelement 0 und Einselement 1. Wir setzen R∗ := R \ {0} . Dann wird durch (a, f ) ∼ (b, g) :⇐⇒ a·g = b·f für a, b ∈ R , f, g ∈ R∗ eine Äquivalenzrelation auf der Menge R × R∗ definiert. Für die Äquivalenza klasse von (a, f ) schreiben wir: . Dann wird f a ∗ Q(R) := a ∈ R, f ∈ R f 82 1 0 ein Körper (Q(R), ⊕, ), mit Nullelement und Einselement , wenn man 1 1 definiert: a b a·g+b·f ⊕ := , f g f ·g a b a·b := f g f ·g , für a, b ∈ R, f, g ∈ R∗ . (Q(R), ⊕, ) heißt der Körper der Brüche oder auch der Quotientenkörper von R . In Q(R) können wir “kürzen“: Es gilt (Kü) a·g a = f ·g f für alle a ∈ R , f, g ∈ R∗ . Beweis : Im Folgenden seien stets a, b, c, a0 , b0 ∈ R , f, g, h, f 0 , g 0 ∈ R∗ . (1) Wir zeigen zunächst, dass ∼ eine Äquivalenzrelation auf R × R∗ ist: Es gilt (Ä1) (a, f ) ∼ (a, f ) wegen a · f = a · f , (Ä2) ( (a, f ) ∼ (b, g) =⇒ (b, g) ∼ (a, f ) ) wegen a·g = b·f =⇒ b·f = a·g . (Ä3) ( (a, f ) ∼ (b, g) ∧ (b, g) ∼ (c, h) ) =⇒ (a · g = b · f ∧ b · h = c · g) =⇒ (a · g · h = b · f · h ∧ b · h · f = c · g · f ) . Wegen der Kommutativität des Ringes R folgt daraus a·h·g = c·f ·g , also (a · h − c · f ) · g = 0 . Wegen der Nullteilerfreiheit von R, und wegen g ∈ R∗ , also g 6= 0, folgt daraus a·h−c·f = 0 , also a · h = c · f also (a, f ) ∼ (c, h) . , (Kü) folgt sofort aus der Definition von ∼ . (2) Wir zeigen nun, dass Addition ⊕ und Multiplikation in Q(R) eindeutig definiert (also “wohldefiniert”) sind : Es gelte a a0 = 0 f b und b b0 = 0 g g (a, f ) ∼ (a0 , f 0 ) ∧ (b, g) ∼ (b0 , g 0 ) , 83 , dann gilt also a · f 0 = a0 · f ∧ b · g 0 = b0 · g (∗) . Aus (∗) erhalten wir : a · f 0 · g · g 0 = a0 · f · g · g 0 ∧ b · g 0 · f · f 0 = b0 · g · f · f 0 . Wir addieren die beiden Gleichungen. Unter Verwendung der Kommutativität der Multiplikation und des Distributivgesetzes in R folgt : (a · g + b · f ) · g 0 · f 0 = (a0 · g 0 + b0 · f 0 ) · g · f , (a · g + b · f, f · g) ∼ (a0 · g 0 + b0 · f 0 , f 0 · g 0 ) , a·g+b·f a0 · g 0 + b 0 · f 0 = f ·g f 0 · g0 also also . ⊕ ist also wohldefiniert. Und aus (∗) folgt durch Multiplikation der beiden Gleichungen: a · b · f 0 · g 0 = a0 · b 0 · f · g , also (a · b, f · g) ∼ (a0 · b0 , f 0 · g 0 ) , also a0 · b 0 a·b = 0 0 f ·g f ·g . Also ist auch wohldefiniert. (3) Ohne Probleme, aber mühsam, können wir nun zeigen, dass (Q(R), ⊕) eine abelsche Gruppe ist. Wir verwenden dabei die Rechenregeln im Ring (R, +, ·), ohne sie jedesmal zu erwähnen: a b c a·g+b·f c (a · g + b · f ) · h + c · (f · g) ⊕ ⊕ = ⊕ = f g h f ·g h (f · g) · h = a·g·h+b·f ·h+c·f ·g f ·g·h und das erhält man auch , wenn man b c a ⊕ ⊕ f g h ausrechnet, also gilt das Assoziativgesetz für ⊕ . Und a b ⊕ f g = a·g+b·f f ·g b·f +a·g g·f = = es gilt also auch das Kommutativgesetz für ⊕ . Wegen a 0 ⊕ f 1 = a·1+0·f f ·1 84 = a f b a ⊕ g f , , a −a 0 das neutrale Element in (Q(R), ⊕). Zu haben wir das Negative , 1 f f denn a −a a · f + (−a) · f (a + (−a)) · f ⊕ = = f f f ·f f ·f ist (Kü) a + (−a) = f Bezüglich ⊕ haben wir also − a f 0 f = −a f = = 0 · f (Kü) 0 = . 1·f 1 . (4) Einfacher ist es, nachzurechnen, dass (Q(R), ) eine Halbgruppe ist: Es gilt a b c a·b c = = f g h f ·g h (a · b) · c a · (b · c) a b c = = . (f · g) · h f · (g · h) f g h Es gilt auch das Kommutativgesetz für : b a f g (5) = a·b f ·g = b·a g·f 1 ist das Einselement in (Q(R), ·) wegen 1 a·1 a 1 = = f 1 f ·1 b a g f = a f . . (6) Nun zum Distributivgesetz: Da kommutativ ist, brauchen wir nur eine Gleichung nachzurechnen. Es gilt b c a·g+b·f c (a · g + b · f ) · c a ⊕ = = f g h f ·g h (f · g) · h = a·c·g+b·c·f f ·g·h = a·c b·c ⊕ f ·h g·h (Kü) = a = f a·c·g·h+b·c·f ·h (f · h) · (g · h) c b c ⊕ . h g h (5) Um den Beweis, dass (Q(R), ⊕, ) ein Körper ist, zu vervollständigen, müssen wir nur noch die Eigenschaft (KK) nachweisen: Sei a ∈ Q(R) , f 85 a 0 6= f 1 , dann ist a ∈ R∗ , denn aus a = 0 würde a 0 0·f = = f f f folgen. Zu (Kü) = 0 1 a mit a ∈ R∗ haben wir aber f f ∈ Q(R) , a und f a a f = f ·a a·f (Kü) = 1 1 . In (Q(R), ) haben wir also −1 a f = f a für a, f ∈ R∗ . 2 Folgerung 3.4.2 : Sei (R, +, ·) ein kommutativer, nullteilerfreier Ring und Q(R) der in 3.4.1 definierte Körper der Brüche von R. Dann ist durch j : R −→ Q(R) , a 7→ a 1 ein injektiver Ringhomomorphismus von (R, +, ·) in (Q(R), ⊕, ) definiert. Wenn wir nun a für a ∈ R a statt 1 und + statt ⊕ , · statt in Q(R) schreiben, ist (R, +, ·) ein Unterring von (Q(R), +, ·) . 2 (3.4.3) Beispiele für Körper der Brüche: (1) (Z, +, ·) ist ein kommutativer, nullteilerfreier Ring. Der Körper der Brüche ist der Körper Q(Z) = Q der rationalen Zahlen. Das wissen Sie aus der Schule, aber es ist zu bezweifeln, dass Sie das dort so ausführlich wie in Satz 3.4.1 bewiesen haben ! (2) Sei K ein Körper. Nach (3.3.10) und (3.3.12) ist dann der Polynomring K[X] ein kommutativer, nullteilerfreier Ring , und daher können wir f (X) K(X) := Q(K[X]) = f (X), g(X) ∈ K[X] ∧ g(X) 6= 0 g(X) 86 bilden. K(X) heißt der Körper der rationalen Funktionen mit Koeffizienten in K . 3.5 Der Körper der komplexen Zahlen Die Einführung der komplexen Zahlen ist eigentlich Schulstoff. Da aber erfahrungsgemäß nicht jeder Abiturient die komplexen Zahlen kennt, und wir sie von §4 an ständig brauchen, geben wir hier eine kurze Einführung. (3.5.1) Die Anordnung der reellen Zahlen : Wir wollen hier nicht auch noch die reellen Zahlen definieren, und nicht mal alle Axiome angeben, durch die der Körper (R, +, ·) charakterisiert ist. Was wir brauchen, ist die Anordnung der reellen Zahlen. Man muss wissen: (R, +, ·) ist ein Körper, mit Nullelement 0 und Einselement 1. In R gibt es eine Teilmenge R∗+ von Zahlen, die man als positive reelle Zahlen bezeichnet, mit den Eigenschaften: (AK1) Für alle a ∈ R gilt genau eine der drei Aussagen: a ∈ R∗+ , a = 0 , −a ∈ R∗+ . (AK2) ∀ a, b ∈ R∗+ : a + b ∈ R∗+ , (AK3) ∀ a, b ∈ R∗+ : a · b ∈ R∗+ . Der Vollständigkeit halber, aber man braucht es nur in der Analysis: Es gilt noch (AK4) ∀ a ∈ R ∃ n ∈ N : n 1 − a ∈ R∗+ . Man kann damit für a, b ∈ R definieren: a<b :⇐⇒ b − a ∈ R∗+ , und : a≤b :⇐⇒ (a < b ∨ a = b) . Wir schreiben gelegentlich noch b > a statt a < b und b ≥ a statt a ≤ b. Für reelle Zahlen gelten dann die Anordnungsaxiome (O1) - (O6) , wie wir sie aus 1.2.3 und 3.2.1 für die ganzen Zahlen kennen. Folgerung 3.5.2 : (i) Für alle reellen Zahlen a gilt 0 ≤ a2 , (ii) −1 < 0 . Beweis : (i) Ist a = 0 , so gilt nach Folgerung 3.1.4(1) : a2 = 0 · 0 = 0. Ist a ∈ R∗+ , so ist a2 = a · a ∈ R∗+ nach (AK3) . Ist a ∈ / R∗+ und a 6= 0, so ist −a ∈ R∗+ nach (AK1) , und nach Folgerung 3.1.4(5): a2 = a · a = (−a) · (−a) ∈ R∗+ nach (AK3) , in jedem Fall also 0 ≤ a2 . (ii) Nach (i) und wegen 1 6= 0 ist 0 < 1 · 1 = 1, also 1 ∈ R∗+ , also 87 0 − (−1) ∈ R∗+ , also −1 < 0 . 2 Man entnimmt dieser Folgerung: −1 ist nicht Quadrat einer reellen Zahl. Wir wollen nun R so zu einem Körper C erweitern, dass es in C ein Element mit −1 als Quadrat gibt. Das wird dann aber kein Körper sein, in dem es eine Teilmenge mit den Eigenschaften (AK1)- (AK3) gibt. Definition 3.5.3 : In der Menge C := { (x, y) | x, y ∈ R } definieren wir eine Addition ⊕ und eine Multiplikation durch (a, b) ⊕ (u, v) := (a + u, b + v) , (a, b) (u, v) := (a · u − b · v, a · v + b · u) für a, b, u, v ∈ R. Satz und Definition 3.5.4 : Mit der in 3.5.3 definierten Addition ⊕ und Multiplikation erhalten wir einen Körper (C, ⊕, ), mit Nullelement (0, 0) und Einselement (1, 0),den wir den Körper der komplexen Zahlen nennen. Beweis : Man sieht, dass ⊕ und Abbildungen von C × C nach C, also Verknüpfungen auf C, sind. Seien im Folgenden (a, b), (u, v), (s, t) ∈ C. (1) Wir zeigen, dass (C, ⊕) , eine abelsche Gruppe ist: Es gilt ((a, b)⊕(u, v))⊕(s, t) = (a+u, b+v)⊕(s, t) = ((a+u)+s, (b+v)+t) = (a+(u+s), b+(v+t)) = (a, b)⊕(u+s, v+t) = (a, b)⊕((u, v)⊕(s, t)) , (a, b) ⊕ (u, v) = (a + u, b + v) = (u + a, v + b) = (u, v) ⊕ (a, b) , (a, b) ⊕ (0, 0) = (a + 0, b + 0) = (a, b) , also ist (0, 0) das Nullelement, und (a, b) ⊕ (−a, −b) = (a + (−a), b + (−b)) also ist (−a, −b) das Negative von (a, b) ∈ C −(a, b) = = (0, 0) , , (−a, −b) . (2) Wir zeigen nun, dass (C, ⊕, ) ein kommutativer Ring ist: Es gilt ((a, b) (u, v)) (s, t) = (a · u − b · v, a · v + b · u) (s, t) 88 = ((a · u − b · v) · s − (a · v + b · u) · t, (a · u − b · v) · t + (a · v + b · u) · s) = (a · u · s − b · v · s − a · v · t − b · u · t, a · u · t − b · v · t + a · v · s + b · u · s) = (a · (u · s − v · t) − b · (u · t + v · s), a · (u · t + v · s) + b · (u · s − v · t)) = (a, b) (u · s − v · t, u · t + v · s) = (a, b) ((u, v) (s, t)) , (a, b)(u, v) = (a·u−b·v, a·v+b·u) = (u·a−v·b, v·a+u·b) = (u, v)(a, b) , (a, b) (1, 0) = (a · 1 − b · 0, a · 0 + b · 1) = (a, b) , also ist (1, 0) das Einselement, und es gilt das Distributivgesetz: (a, b) ((u, v) ⊕ (s, t)) = (a, b) (u + s, v + t) = (a·(u+s)−b·(v +t), a·(v +t)+b·(u+s)) = (a · u + a · s − b · v − b · t, a · v + a · t + b · u + b · s) = (a · u − b · v, a · v + b · u) ⊕ (a · s − b · t, a · t + b · s) = ((a, b)(u, v))⊕((a, b)(s, t)) . (3) Nun zum Axiom (KK) : Sei (a, b) ∈ C , (a, b) 6= (0, 0). Dann gilt nach Folgerung 3.5.2 : 0 ≤ a2 und 0 ≤ b2 , und wegen (a, b) 6= (0, 0) gilt nicht a2 = b2 = 0 , eine der beiden Zahlen ist also nicht Null, und für die Summe gilt daher 0 < a2 + b2 nach (AK2) . Daher haben wir t := (a2 + b2 )−1 ∈ R . Es folgt (a, b)(a·t, −b·t) = (a·(a·t)−b·(−b·t), a·(−b·t)+b·(a·t)) = (a2 · t + b2 · t, −a · (b · t) + a · (b · t)) = ((a2 + b2 ) · t, 0) = (1, 0) . Wir haben also ein Inverses zu (a, b) 6= (0, 0), (a, b)−1 = (a · ((a2 + b2 )−1 ), −b · ((a2 + b2 )−1 )) . Insgesamt: (C, ⊕, ) ist ein Körper. 2 So ähnlich, wie wir in 3.3.9 gesehen haben, dass man R als Unterring von R[X], und in 3.4.2, dass man R als Unterring von Q(R) auffassen kann, sehen wir, dass man R als Unterring (in diesem Fall muss man besser sagen: als 89 Unterkörper) von C auffassen kann: Folgerung 3.5.5 : Die Abbildung ι : R −→ C , a 7→ (a, 0) ist ein injektiver Ringhomomorphismus von (R, +, ·)in (C, ⊕, ) . Wir schreiben daher a statt (a, 0) , dann wird R ⊂ C . Wenn wir nun auch noch + statt ⊕ , · statt für die Verknüpfungen in C schreiben, wird (R, +, ·) ein Unterring von (C, +, ·). Da beide Körper sind, sagen wir: (R, +, ·) ist ein Unterkörper von (C, +, ·). Wenn wir diese Schreibweisen verwenden, also a statt (a, 0) schreiben, gilt für beliebiges (a, b) ∈ C : (a, b) = (a, 0) + (0, b) = (a, 0) + (0, 1) · (b, 0) = a + (0, 1) · b . Das Element (0, 1) gehört zu C, aber nicht zu R . Wir nennen i := (0, 1) die imaginäre Einheit . Dann gilt für jedes (a, b) ∈ C : (a, b) = a + i · b , (∗) C = { a + i · b | a, b ∈ R } und damit . Es gilt i2 = (0, 1) · (0, 1) = (−1, 0) = −1 , aber i ist nicht die einzige Zahl mit Quadrat −1, denn es gilt auch (−i)2 = (−i) · (−i) = i · i = −1 . √ Die Schreibweise i = −1 sollte man deshalb besser nicht verwenden ! Mit der Schreibweise (∗) für C - und mit i2 = −1 - kann man auch die Definition von Addition und Multiplikation in C übersichtlicher schreiben als (a + ib) + (u + iv) = (a + u) + i(b + v) , (a + ib) · (u + iv) = (a · u − b · v) + i(a · v + b · u) . 90 Definition 3.5.6: Sei z ∈ C , z = x + iy = (x, y) mit x, y ∈ R . Aus der Definition des cartesischen Produkts folgt (x, y) = (x0 y 0 ) ⇐⇒ (x = x0 ∧ y = y 0 ) für x, x0 , y, y 0 ∈ R . Hat man also z = x + i · y mit x, y ∈ R, so sind x und y eindeutig bestimmt. Man nennt x den Realteil von z , und schreibt Re z := x , und y den Imaginärteil von z , und schreibt Im z := y . Und man nennt noch z := x − i · y das Konjugiert-Komplexe von z. Folgerung 3.5.7 : Die Abbildung : C −→ C , z 7→ z ist ein Automorphismus des Körpers (C, +, ·) , d.h. gilt (∗) ist bijektiv, und es ∀ z, w ∈ C : (z + w = z+w ∧z · w = z·w) . Und es gilt (∗∗) ∀z ∈ C : z = z . Beweis : Die Regeln (∗) und (∗∗) kann man leicht nachrechnen. Aus (∗∗) sich selbst als Umkehrfunktion hat und daher folgt, dass die Abbildung bijektiv ist. 2 Bemerkung 3.5.8 : In der Analysis lernt man: Zu jedem a ∈ R mit a ≥ 0 √ gibt es genau ein y ∈ R mit y 2 = a und y ≥ 0. Wir setzen a := y und haben damit die Wurzelfunktion √ √ : { a ∈ R | a ≥ 0 } −→ { a ∈ R | a ≥ 0 } , a 7→ a . √ √ √ √ Es gilt ∀ a, b ∈ R : a · b = a · b . Damit ist ein Endomorphismus der Gruppe (R∗+ , ·) (aber keineswegs ein Homomorphismus bezüglich +) . Die Wurzelfunktion ist streng monoton wachsend: Es gilt √ √ (M) ∀ a, b ∈ R : (0 ≤ a < b =⇒ a < b) . Beweis : von (M) : Es gelte 0 ≤ a < b. Dann ist √ √ a+ b>0 , 91 √ √ √ √ denn aus a + b = 0 würde a = b = 0 folgen. Aus b − a ≤ 0 und der Gleichung √ √ √ √ ( b + a) · ( b − a) = b − a √ √ würde b − a ≤ 0 folgen, Widerspruch zu a < b . Also : b − a > 0 . 2 Definition 3.5.9 : Sei z ∈ C , z = x + i · y mit x, y ∈ R. Nach Folgerung 3.5.2(1) und nach (AK2) gilt dann x2 + y 2 ≥ 0. Wir können daher definieren: p | z | := x2 + y 2 und nennen diese Zahl den Betrag von z . Auch für eine reelle Zahl x ist √ damit |x| definiert, als |x| = x2 . Nachrechnen kann man die (3.5.10) Rechenregeln für den Betrag : Für alle z, w ∈ C gilt √ (a) |z| = z · z, (b) |z| = |z|, (c) |Re z| ≤ |z| und |Im z| ≤ |z| und es gelten die folgenden, auch für den Betrag reeller Zahlen wichtigen, Regeln (d) |z| ≥ 0 und (|z| = 0 ⇐⇒ z = 0) , (e) |z + w| ≤ |z| + |w| , (f) |z · w| = |z| · |w| und daher auch die aus (e) und (f) folgende Regel (g) | |z| − |w| | ≤ |z − w| . 2 (3.5.11) Die komplexe Zahlenebene: Man kann sich die komplexen Zahlen, das Konjugiert-Komplexe und die Summe komplexer Zahlen geometrisch veranschaulichen. Wir hatten C eingeführt als cartesisches Produkt C = R × R, daher kann man sich C vorstellen als die Gaußsche Zahlenebene , in der die komplexen Zahlen in der Form z = x + i · y mit x, y ∈ R eingetragen sind: 92 Im Imaginäre Achse i·y HH HH H * z =x+i·y x HH H HH H HH H −i · y HH H j Re Reelle Achse z |z| ist dann die Länge des “Vektors” z = x + iy , z der Vektor, den man durch Spiegelung von z an der reellen Achse bekommt, und die Summe ist die aus 1.2 bekannte Summe von Vektoren aus R2 : Im 7 w > z z+w Re Zur Veranschaulichung des Produkts braucht man Winkel, das gehört in die 93 Analysis. Für den nächsten Satz brauchen wir noch das Produktzeichen, das man ähnlich wie das Summenzeichen in 1.2.11 definiert: Definition 3.5.12 : Sei (R, +, ·) ein Ring. Seien m, n ∈ Z. Dann definieren wir rekursiv (i) für n < m: n Y aj := 1 (“leeres Produkt”), j=m (ii) für m ≤ n und am , . . . , an ∈ R : n Y aj := j=m n−1 Y aj · an . j=m (3.5.13) Fundamentalsatz der Algebra : Sei f (X) ∈ C[X] ein Polynom, f (X) 6= 0 , so dass n := degf (X) definiert ist, n ∈ N0 . Dann gibt es (nicht notwendig verschiedene) Zahlen a1 , . . . , an ∈ C und ein c ∈ C \ {0} mit f (X) = c· n Y (X − aj ) . j=1 Man sagt dazu: f (X) zerfällt in ein Produkt von Linearfaktoren. 2 Was der Name des Satzes nicht vermuten lässt: Der Satz lässt sich nur mit Mitteln der Analysis beweisen, der Beweis gehört also nicht hierher. Der Beweis geht am Einfachsten mit Sätzen aus der Theorie der differenzierbaren Funktionen einer komplexen Variablen (“Funktionentheorie”). Wir werden ihn aber später bei der Theorie der Eigenwerte brauchen. 2 3.6 Aufgaben (3.1) Sei K ein Körper. Zeigen Sie: a) Sei I ein Ideal im Polynomring K[X], dann gibt es ein Polynom m(X) mit I = (m(X)) := { f (X) · m(X) | f (X) ∈ K(X) } 94 . b) In K[X, Y ] ist I := X ajk · X j · Y k (j,k)∈N0 ×N0 mit (j,k)6=(0,0) ajk ∈ K ein Ideal, aber es gibt kein Polynom m(X, Y ) ∈ K[X, Y ] mit I = { f (X, Y ) · m(X, Y ) | f (X, Y ) ∈ K[X, Y ] } . (3.2) Sei (A, +) eine abelsche Gruppe, 0 ihr neutrales Element. Sei End(A) := { ϕ : A −→ A | ϕ ist ein Gruppen-Endomorphismus von A } . Für ϕ, ψ ∈ End(A) definiere ϕ + ψ durch (ϕ + ψ)(x) := ϕ(x) + ψ(x) für x ∈ A . Sei ◦ die Hintereinanderausführung von Abbildungen. Zeigen Sie, dass ( End(A), +, ◦) ein Ring ist. (3.3) Sei M eine nichtleere Menge und (R, +, ·) ein Ring. Für f, g : M −→ R und x ∈ M setze (f + g)(x) := f (x) + g(x) , (f · g)(x) := f (x) · g(x) . Zeigen Sie, dass (F(M, R), +, ·) ein Ring ist, der für #(M ) ≥ 2 nicht nullteilerfrei ist. (3.4) Sei R ein kommutativer Ring, 1 das Einselement, 1 , 1 6= 0 . Für u(X) = ∞ X j aj X ∈ K[X] sei D(u(X)) := j=0 ∞ X (j + 1) aj+1 X j . j=0 Zeigen Sie (ohne Benutzung von Regeln aus der Analysis), dass für u(X), v(X) ∈ R[X] und a ∈ R gilt a) D(a · u(X)) = a · D(u(X)) , b) D(u(X) + v(X)) = D(u(X)) + D(v(X)) , c) D(u(X) · v(X)) = D(u(X)) · v(X) + u(X) · D(v(X)) . Ist die Abbildung D : R[X] −→ R[X] , u(X) 7−→ D(u(X)) ein Homomorphismus von Ringen ? 95 (3.5) Sei (R, +, ·) ein kommutativer Ring und α ∈ R . Sei Rα := R × R , und für (a, b), (c, d) ∈ Rα (a,b) ⊕(c, d) := (a + b, c + d) , (a, b) ◦ (c, d) := (a · c + α · b · d, a · d + b · c) . sei Zeigen Sie: a) (Rα , ⊕, ◦) ist ein kommutativer Ring mit Eins, ϕ : R −→ Rα , ϕ(a) := (a, 0) ist ein injektiver Ringhomomorphismus, und es gibt ein (x, y) ∈ Rα mit (x, y)2 = (α, 0) . b) Ist R ein Körper, und gibt es kein x ∈ R mit x2 = α , so ist (Rα , ⊕, ◦) ein Körper. (Hinweis: Mit R := R und α := −1 ist C := R−1 der Körper der komplexen Zahlen, wir haben hier also nur eine Verallgemeinerung von Satz 3.5.4 .) (3.6) Zeigen Sie, etwa mit Aufgabe (3.5), dass es Körper mit 9 und mit 25 Elementen gibt. (3.7) Sei K := Z/(3) . Geben Sie alle normierten Primpolynome vom Grad 3 aus K[X] an. Hinweis: Für alle α ∈ K gilt α3 = α . Zu den folgenden Aufgaben: Sei n ∈ Z \ {0, 1}, und n sei quadratfrei, d.h. es Quadratzahl in N \ {1}, die Teiler von n ist. Für n < 0 setze √ √ gebe keine n := i −n. Zeigen Sie: √ √ Z[ n] := { a + b n | a, b ∈ Z } , und für n − 1 ∈ (4)( d.h. wenn 4 Teiler von n − 1 ist ) auch √ 1 + n On := a+b a, b ∈ Z 2 sind Unterringe √ von √C . √ b) Für z = a + b n ∈ Z[ n] setze z := a − b n , und für √ √ 1+ n 1− n z = a+b ∈ On setze z := a + b . 2 2 √ Dann gilt für alle z, w ∈ Z[ n] bzw. On N (z) := z · z ∈ Z , N (z · w) = N (z) · N (w) (3.8) a) 96 √ und damit: Zu z existiert genau dann ein z ∗ ∈ Z[ n] bzw. On mit z · z ∗ = 1 , wenn N (z) ∈ {±1} ist. (3.9) Sei (R, +, ·) ein Ring, 1 das Einselement von R . Nach Satz 3.2.11 ist die Menge R× der invertierbaren Elemente von R, also R× := { a ∈ R | ∃ a∗ ∈ R : a · a∗ = a∗ · a = 1 } mit · eine Gruppe , die Einheitengruppe von R . a) Bestimmen Sie mit Aufgabe (3.4) b) die Einheitengruppen der in Aufgabe √ (3.4) a) definierten Ringe √ Z[ −1] ,√ Z[ −2] , O−3 . b) Zeigen Sie, dass Z[ 3]× unendlich √ viele Elemente hat. Tipp: Wenn Sie ein Element z1 ∈ Z[ 3]× , z1 6= ±1 , gefunden haben, sind alle z1n , n ∈ N0 , verschieden und liegen auch √ dann × in Z[ 3] . √ √ (3.10) Alle Q( n) := { a + b n | a, b ∈ Q } sind Unterkörper von C , im Falle von n > 0 auch von R . 97 §4 Vektorräume 4.1 Definition und Beispiele (4.1.1) Zur Motivation : Wenn man von “Vektoren” spricht , denkt man von der Schule her meistens an “Vektoren im dreidimensionalen Raum” , wie wir das in 1.6 gemacht haben. Wir wollen hier aber von der Vorstellung loskommen, dass Vektoren “Pfeile” sind. Gleich die ersten Beispiele werden zeigen, dass es auch etwas allgemeiner sein muss. Definition 4.1.2 : V sei eine nichtleere Menge und K ein Körper, 1 das Einselement von K . Es gebe eine Verknüpfung + : V × V −→ V (a, b) 7−→ a + b , und eine äußere Operation ω : K × V −→ V , (α, a) 7−→ αa , so dass gilt : (V1) (V, +) ist eine abelsche Gruppe. (V2) Für alle α, β ∈ K und alle a, b ∈ V gilt (a) α(a + b) = αa + αb , (b) (α + β)a = αa + βa , (c) (α · β)a = α(βa) , (d) 1 a = a . Dann heißt V (genauer: Das Tripel (V, +, ω) ) ein K-(Links-)Vektorraum . Die Elemente von V heißen Vektoren, die Elemente von K Skalare . 2 Beispiel 4.1.3 : Sei L ein Körper und K ein Unterkörper von L , d.h. ein Unterring, der auch noch Körper ist. Dann ist (L, +) eine abelsche Gruppe, es gilt also (V1) für (L, +) . Als äußere Operation von K auf L nehmen wir die Multiplikation in L , eingeschränkt auf K × L ; wir setzen also ω : K × L −→ L , ω(α, a) := α |{z} · a , ↑ Multiplikation in L also αa := α · a . Auf diese Weise wird L ein K−Vektorraum, denn die Rechenregeln (V2) (a) und (b) folgen dann aus dem Distributivgesetz in L , (c) aus dem Assoziativgesetz für (L, ·) , und 98 (d) daraus, dass 1 das Einselement von L ist . Wir erhalten damit gleich weitere Beispiele: a.) Sei (K, +, ·) ein Körper, dann ist K ein Unterkörper von sich selbst. K selbst ist also ein K−Vektorraum. b.) Q, R, C sind Körper mit Q ⊂ R ⊂ C, Q ist Unterkörper von R und R ist Unterkörper von C . Also sind Q, R, C jeweils Q−Vektorräume , R und C auch R−Vektorräume , und C ist ein C−Vektorraum. Beispiel 4.1.4 : Sei (K, +, ·) ein Körper, A eine nichtleere Menge und V ein K−Vektorraum, den wir schon kennen (z.B. V = K ). Dann wird F(A, V ), die Menge der Funktionen von A nach V , wieder ein K−Vektorraum, wenn wir für f, g ∈ F(A, V ) definieren: (∗) (f +g)(x) := f (x)+g(x) für alle x ∈ A ↑ Addition in V , dann ist also f + g ∈ F(A, V ) für alle f, g ∈ F(A, V ) , und wir definieren die äußere Operation von K auf F(A, V ) durch (∗∗) (λf )(x) := λ f (x) für alle λ ∈ K und f ∈ F(A, V ) , ↑ äußere Operation von K auf V , dann ist also λf ∈ F(A, V ) . Wir prüfen nach, ob die Axiome (V1) , (V2) gelten: (V1) + ist eine Verknüpfung auf F(A, V ) . Es gilt (G1) ∀ f, g, h ∈ F(A, V ) : (f + g) + h = f + (g + h) , denn (V, +) ist eine Gruppe, und damit gilt nach (∗) : ∀ x ∈ A : ((f + g) + h)(x) = = = (f (x) + g(x)) + h(x) f (x) + (g + h)(x) (f + g)(x) + h(x) = = f (x) + (g(x) + h(x)) (f + (g + h))(x) . (G4) ∀ f, g ∈ F(A, V ) : f + g = g + f , denn (V, +) ist eine abelsche Gruppe, also gilt ∀ x ∈ A : (f +g)(x) = f (x)+g(x) = g(x)+f (x) = (g+f )(x) . (G2) Sei 0 : A −→ V , 0(x) := 0, wobei die hintere 0 das Nullelement der abelschen Gruppe (V, +) ist, dann gilt für alle f ∈ F(A, V ) : 0+f = f wegen (0 + f )(x) = 0(x) + f (x) = 0 + f (x) = f (x) . 99 (G3) Zu f ∈ F(A, V ) haben wir −f , definiert durch (−f )(x) := −f (x) für x ∈ A. Dafür gilt (−f )+f = 0 wegen ((−f )+f )(x) = (−f )(x)+f (x) = −f (x) + f (x) = 0 = 0(x) für x ∈ A . Also ist (F(A, V ), +) eine abelsche Gruppe. (V2) Für beliebige α, β ∈ K, f, g ∈ F(A, V ), x ∈ A gilt nun nach (∗∗) : ((α + β)f )(x) = = = (α + β)f (x) αf (x) + βf (x) wegen (V2)(b) für V (αf )(x) + (βf )(x) (α + β)f = = (αf + βf )(x), αf + βf also , also gilt (V2)(b) für F(A, V ) , (α(f + g))(x) = = = α(f + g)(x) = α(f (x) + g(x)) αf (x) + αg(x) wegen (V2)(a) für V (αf )(x) + (αg)(x) α(f + g) = = (αf + αg)(x) , αf + αg also , also gilt (V2)(a) für F(A, V ) , (α(βf ))(x) = = α(βf )(x) = α(β(f (x))) (α · β)f (x) wegen (V2)(c) für V = ((α · β)f )(x) , α(βf ) (α · β)f = , also , also gilt (V2)(c) für F(A, V ) , und (1f )(x) = 1f (x) = f (x) 1f wegen (V2)(d) für V = f , also , also gilt (V2)(d) für F(A, V ) . Insgesamt haben wir gezeigt: F(A, V ) ist ein K−Vektorraum. 2 Beispiel 4.1.5 : Sei K ein Körper. Nach Beispiel 4.1.3 a.) ist K selbst ein K−Vektorraum, wenn man die Multiplikation von K als “äußere” Operation 100 von K auf K nimmt. Nach Beispiel 4.1.4 ist dann für eine beliebige nichtleere Menge A auch F(A, K) ein K−Vektorraum, wenn man für f, g ∈ F(A, K) und α ∈ K f +g und αf definiert durch (∗) (f + g)(x) := f (x) + g(x) und (∗∗) (αf )(x) := für x ∈ A . Einen wichtigen Spezialfall betrachten wir gleich. α · f (x) Definition 4.1.6 : Seien J und M Mengen. Für a : J −→ M j 7−→ a(j) , schreiben wir auch (aj )j∈J statt a und aj statt a(j) , und sprechen von der Familie (aj )j∈J in M mit der Indexmenge J statt von der Funktion a . - Familien sind also einfach Funktionen, etwas anders geschrieben. Familien mit Indexmenge N bzw. N0 hatten wir in §3 , das waren Folgen. Die Familie (aj )j∈J heißt endlich , wenn J eine endliche Menge ist. Ist I ⊂ J , so heißt a|I = (aj )j∈I 2 eine Teilfamilie von (aj )j∈J . Beispiel 4.1.7: Der K−Vektorraum K n Sei K ein Körper und n ∈ N . Wir hatten definiert: n = {1, . . . , n} . Nach Beispiel 4.1.5 ist dann F(n, K) = { (aj )j∈n | ∀ j ∈ n : aj ∈ K } ein Vektorraum, mit den durch (∗) und (∗∗) definierten Rechenoperationen, die sich in der Schreibweise mit Familien schreiben lassen als (∗) (aj )j∈n + (bj )j∈n (∗∗) λ (aj )j∈n := := (aj +bj )j∈n (λ· aj )j∈n für (a1 , . . . , an ) := , (aj )j∈n , (bj )j∈n ∈ F(n, K) , λ ∈ K Schreibt man nun 101 (aj )j∈n , . so sieht man , dass F(n, K) die Menge der n−tupel von Elementen aus K ist. Man schreibt K n := F(n, K) , und K n wird also ein K−Vektorraum, wenn man (∗) (a1 , . . . , an )+(b1 , . . . , bn ) (∗∗) λ(a1 , . . . , an ) := := (a1 +b1 , . . . , an +bn ) , (λa1 , . . . , λan ) definiert. Insbesondere erhalten wir damit für K := R die R−Vektorräume R2 und R3 als Beispiele. 2 Einige Rechenregeln für Vektorräume folgen direkt aus den Axiomen: Satz 4.1.8 : Sei K ein Körper, 1 das Einselement von K , und V ein K−Vektorraum. Dann gilt für alle a ∈ V und alle α ∈ K : (1) 0a = 0 , (2) α 0 = 0 , ↑ ↑ ↑ ↑ 0 in K 0 in V 0 in V (3) (−α)a = −(α a) = α(−a) , man kann daher für alle drei Elemente −αa schreiben, (4) (−1)a = −a . (V2)(b) = 0a + 0a , also Beweis : (1) 0 a = (0 + 0)a 0a + (−(0a)) = 0a + 0a + (−0a) , also 0 = 0a . (V1) (V2)(a) (2) α0 = α (0 + 0) = α0 + α0 , und Addition von −(α 0) ergibt 0 = α 0 . (1) (V2)(b) (3) 0 = 0 a = (α + (−α))a = α a + (−α)a , also (−α)a = −(αa) , und (2) (V1) (V2)(a) 0 = α 0 = α(a + (−a)) = αa + α(−a) , also α(−a) = −(αa) . (3) (V2)(d) (4) (−1)a = −(1 a) = −a . 2 Satz 4.1.9 : Sei V ein K−Vektorraum. Dann gilt ∀ α ∈ K ∀ a ∈ V : ( αa = 0 ⇐⇒ α = 0 ∨ a = 0) . Beweis : “ ⇐= ” gilt nach Satz 4.1.8 (1) und (2) . “ =⇒ ” : Sei αa = 0 . Es kann α = 0 sein, dann sind wir fertig, oder α 6= 0 , also α ∈ K ∗ . Dann existiert α−1 ∈ K ∗ , und es folgt 0 = α−1 0 = α−1 (α a) (V2)(c) (V2)(d) = = (α−1 α)a = 1a = a . 102 In jedem Fall gilt α = 0 ∨ a = 0 . Definition 4.1.10 : Sei K ein Körper und V ein K−Vektorraum. heißt ein Untervektorraum ( Unterraum, Teilraum ) von V , falls (UV1) W ⊂ V ∧ W 6= ∅ (UV2) ∀ v, w ∈ W : v + w ∈ W (UV3) ∀ v ∈ W ∀ λ ∈ K : λ v ∈ W . 2 W gilt 2 Die Definition des Untervektorraums ist sinnvoll wegen Satz 4.1.11 : Ist V ein K−Vektorraum und W ein Untervektorraum von V , so ist W mit der auf W × W eingeschränkten Verknpfung + und der auf K × W eingeschränkten äußeren Operation selbst ein K−Vektorraum. Beweis : Die Axiome (UV2) und (UV3) sagen, dass die Restriktionen +|W × W : W × W −→ V , (v, w) 7−→ v + w , und ω|K × W : K × W −→ V , (λ, v) 7−→ λv tatsächlich Abbildungen nach W sind. Man hat also eine Addition und eine äußere Operation auf W . Die Rechenregeln u + (v + w) u+v λ(u + v) (λ + µ)u (λ · µ)u 1u = = = = = = (u + v) + w v+u λu + λv λu + µu λ(µ u) u für alle u, v, w ∈ W und alle λ, µ ∈ K gelten, da sie sogar für alle u, v, w ∈ V gelten. Damit hat man (V2), und einen Teil von (V1). Sei v ∈ W , dann ist nach (UV3) auch −v = (−1) v ∈ W . Damit hat man zu v, u ∈ W ein x ∈ W mit v + x = u , nämlich x := (−v) + u ∈ W nach (UV2) . Auch ist W 6= ∅ . Also gilt auch (V1) für W . 2 Beispiele 4.1.12 : a.) Sei V ein beliebiger Vektorraum, dann sind {0} und V Untervektorräume von V . b.) Sei v ∈ R2 , v 6= 0 und Rv := { λv | λ ∈ R } , dann ist R v ein Untervektorraum des R−Vektorraums R2 . Man kann sich R v vorstellen als Gerade durch den Nullpunkt, wobei v die “Richtung” 103 angibt. (4.1.13) Sei K ein Körper. Dann haben wir nach 3.3.10 den Polynomring (K[X], +, ·) mit ( ∞ ) X K[X] = ak · X k ak ∈ K , ∀0 k ∈ N0 : ak = 0 . k=0 Die Multiplikation · in K[X] ist eine Abbildung · : K[X] × K[X] −→ K[X] , wir schränken sie ein auf K × K[X] , dann haben wir eine äußere Operation ω : K × K[X] −→ K[X] , (α, ∞ X k ak · X ) 7−→ ∞ X (α · ak ) · X k k=0 k=0 und aus den Rechenregeln im Ring K[X] folgt, dass (K[X], +, ω) ein K−Vektorraum ist. 4.2 Basis und Dimension Grundlegend für die Lineare Algebra sind die Begriffe “lineare Unabhängigkeit” und “Erzeugendensystem”: Definition und Satz 4.2.1 : Sei K ein Körper , V ein K−Vektorraum, n ∈ N und (vj )j∈n eine Familie von Vektoren aus V . Sei ) ( n X . a ∈ V | ∃ (α1 , . . . , αn ) ∈ K n : a = αj vj span(vj )j∈n := j=1 Dann ist span(vj )j∈n ein Untervektorraum von V . Er heißt der von der Familie (vj )j∈n aufgespannte Untervektorraum von V . Die Elemente von span(vj )j∈n heißen Linearkombinationen von (vj )j∈n . Es gilt : (1) v1 , . . . , vn ∈ span(vj )j∈n . (2) Für jeden Untervektorraum U von V mit {v1 , . . . , vn } ⊂ U ist span(vj )j∈n ⊂ U , d.h. span(vj )j∈n ist der “kleinste” Untervektorraum von V , der die Vektoren v1 , . . . , vn enthält. - Man setzt noch : span(vj )j∈0 := {0} . Beweis : Sei n ∈ N0 und T := span(vj )j∈n . (0) Wir zeigen zunächst, dass T ein Untervektorraum von V ist: 104 Für n = 0 ist das klar. Sei nun n ∈ N . Es gilt T ⊂ V nach Definition, und n P (UV1) T 6= ∅ , da 0 = 0 vj ∈ T . j=1 ↑ ↑ ∈V ∈K (UV2,3) Seien a, b ∈ T und λ ∈ K , dann gibt es (α1 , . . . , αn ) , (β1 , . . . , βn ) ∈ K n mit n n P P a = αj vj und b = βj vj , also j=1 a+b = j=1 n P (αj + βj )vj , λa = j=1 n P (λ αj )vj , also j=1 a + b ∈ T , λ a ∈ T wegen (αj + βj )j∈n , (λ αj )j∈n ∈ K n . (1) Für n = 0 ist bei (1) und (2) nichts zu zeigen. Sei n ∈ N , dann gilt für alle k ∈ n : n P 1 für j = k vk = δjk vj mit δjk = , 0 für j 6= k j=1 also vk ∈ T . (2) Sei U ein Untervektorraum von V mit {v1 , . . . , vn } ⊂ U , dann sind alle vj ∈ U für j ∈ n , und für beliebiges αj ∈ K ist nach (UV3) auch αj vj ∈ U . Nach (UV2), und mit Induktion nach n , folgt auch n P αj vj ∈ U . j=1 2 Also gilt T ⊂ U . Definition 4.2.2 : Sei V ein K−Vektorraum. Gibt es ein n ∈ N0 und eine Familie (vj )j∈n mit vj ∈ V und V = span(vj )j∈n , dann heißt V endlich erzeugt und die Familie (vj )j∈n ein Erzeugendensystem von V . Formal etwas komplizierter ist der Begriff “linear unabhängig”: Definition 4.2.3 : Sei K ein Körper und V ein K−Vektorraum. Sei n ∈ N , und seien a1 , . . . , an ∈ V . Die Familie (a1 , . . . , an ) = (aj )j∈n heißt linear unabhängig , wenn gilt 105 2 n ∀ (α1 , . . . , αn ) ∈ K : n P αk ak = 0 =⇒ ∀ j ∈ n : αj = 0 . k=1 Die Familie (v1 , . . . , vn ) heißt linear abhängig , wenn sie nicht linear unabhängig ist, d.h. wenn gilt n P n ∃ (α1 , . . . , αn ) ∈ K : α k ak = 0 ∧ ∃ j ∈ n : α j = 6 0 . k=1 2 Die “leere Familie” (aj )j∈0 nennen wir linear unabhängig. Bemerkung 4.2.4 : Nach Definition 4.2.1 heißt der Vektor n P αk vk eine k=1 Linearkombination von (v1 , . . . , vn ) . Man nennt nun eine n P Linearkombination αk vk , in der nicht alle αk = 0 sind, eine k=1 nichttriviale Linearkombination von (v1 , . . . , vn ) , und die Linearkombination n X αk vk mit ∀ k ∈ n : αk = 0 k=1 die triviale Linearkombination. Also besagt Definition 4.2.3 : Eine Familie (v1 , . . . , vn ) mit n ∈ N ist • linear unabhängig genau dann, wenn nur die triviale Linearkombination von (v1 , . . . , vn ) Null ist, und • linear abhängig, wenn es eine nichttriviale Linearkombination von (v1 , . . . , vn ) gibt, die Null ist. 2 Beispiel 4.2.5 : Für eine beliebige Teilmenge A von R , A 6= ∅ , ist nach Beispiel 4.1.5 F(A, R) = { f : A −→ R } ein R−Vektorraum, mit den dort durch (∗) und (∗∗) definierten Rechenoperationen. Für x ∈ A sei f1 (x) := |x| , f2 (x) := x2 + x , f3 (x) := x2 − x . a) Sei A := R und (α1 , α2 , α3 ) ∈ R3 mit α1 f1 + α2 f2 + α3 f3 = 0 ∈ F(A, R) , dann gilt für alle x ∈ A = R : α1 f1 (x) + α2 f2 (x) + α3 f3 (x) = 0(x) = 0 ∈ R , 106 α1 |x| + α2 (x2 + x) + α3 (x2 − x) = 0 , insbesondere für x = 1, 2, −1 : α1 + 2α2 =0 , also 2α1 + 6α2 + 2α3 = 0 , also α1 , also + 2α3 = 0 1 α2 = − α1 , 2 α3 = 1 α1 , 2 2α1 = 0, also α1 = 0 und damit auch α2 = α3 = 0 . Also ist (f1 , f2 , f3 ) im R−Vektorraum F(R, R) linear unabhängig. b) Sei nun A := R∗+ , dann gilt für alle x ∈ A : f1 (x) = x , −2x + (x2 + x) − (x2 − x) = 0 , also −2f1 + 1 · f2 + (−1)f3 = 0 , 2 also ist (f1 , f2 , f3 ) im R−Vektorraum F(R∗+ , R) linear abhängig. - Was bedeutet “lineare Unabhängigkeit” für zwei Vektoren ? Bemerkung 4.2.6 : Seien a1 , a2 ∈ V , und (a1 , a2 ) sei linear abhängig, dann gibt es α1 , α2 ∈ K mit α1 a1 + α2 a2 = 0 und α1 , α2 sind nicht beide 0 . Ist α1 6= 0 , so folgt a1 = −(α1−1 · α2 )a2 , ist α1 = 0 , so folgt α2 6= 0 und α2 a2 = 0 , also a2 = 0 , also a2 = 0 a1 . Jedenfalls ist einer der beiden Vektoren (man weiß aber nicht, welcher) ein λ− faches des anderen. Das gilt im Prinzip genau so für mehr als zwei Vektoren: Satz 4.2.7 : Sei V ein K−Vektorraum . Sei n ∈ N , n ≥ 2 und (a1 , . . . , an ) eine Familie von Vektoren aus V . Dann gilt: (a1 , . . . , an ) ist linear abhängig ⇐⇒ es gibt ein k ∈ n , so dass ak Linearkombination von (a1 , . . . , ak−1 , ak+1 , . . . , an ) ist. Beweis : “ =⇒ ” Sei (a1 , . . . , an ) linear abhängig, dann gibt es (α1 , . . . , αn ) ∈ K n , (α1 , . . . , αn ) 6= 0 , mit n P 0 = α j aj . j=1 Es gibt ein k ∈ n mit αk 6= 0 , also ist ak = −αk−1 · X α j aj = j∈n\{k} X j∈n\{k} 107 (−αk−1 · αj )aj . “ ⇐= ”: Sei ak Linearkombination von (a1 , . . . , ak−1 , ak+1 , . . . , an ) , dann gibt es eine Familie (βj )j∈n\{k} ∈ K n−1 mit P ak = βj aj , also mit βk := −1 : j∈n\{k} n P βj aj = 0 und (β1 , . . . , βk , . . . , βn ) 6= 0 , j=1 2 also ist (a1 , . . . , an ) linear abhängig . Definition 4.2.8 : Sei V ein endlich erzeugter K−Vektorraum . Sei n ∈ N0 . Eine Familie (vj )j∈n von Elementen aus V heißt eine Basis von V , wenn gilt (B1) V = span(vj )j∈n , d.h. (vj )j∈n ist ein Erzeugendensystem von V , und (B2) (vj )j∈n ist linear unabhängig. Die Zahl n heißt die Länge der Basis (vj )j∈n . 2 Hier in diesem Paragraphen beschäftigen wir uns hauptsächlich mit endlich erzeugten Vektorräumen. Wir definieren aber auch, was eine Basis eines nicht endlich erzeugten Vektorraums ist: Definition 4.2.9 : Sei V ein K−Vektorraum , V 6= {0} . Eine Familie (vj )j∈J von Vektoren vj ∈ V , wobei J eine beliebige Menge ist, heißt eine Basis von V , wenn gilt (B1’) (vj )j∈J ist ein Erzeugendensystem von V , d.h. zu jedem a ∈ V gibt es eine endliche Teilmenge {j1 , . . . , jn } von J , so dass a ∈ span(vj1 , . . . , vjn ) ist, und (B2’) (vj )j∈J ist linear unabhängig , d.h. für jede endliche Teilmenge {j1 , . . . , jn } von J ist (vj1 , . . . , vjn ) linear unabhängig. 2 Satz 4.2.10 : Sei V ein K−Vektorraum und (vj )j∈n mit n ∈ N eine Familie in V . Dann gilt: n P (vj )j∈n ist Basis von V ⇐⇒ ∀ v ∈ V ∃1 (α1 , . . . , αn ) ∈ K n : v = αj vj , j=1 d.h. (vj )j∈n ist genau dann eine Basis von V , wenn man jeden Vektor aus V eindeutig als Linearkombination von (vj )j∈n erhält. Beweis : “ =⇒ ” : Sei v ∈ V , dann gilt wegen V = span(vj )j∈n : n P ∃ (α1 , . . . , αn ) ∈ K n : v = αj vj . j=1 Sei auch (β1 , . . . , βn ) ∈ K n mit v = n P βj vj , dann ist j=1 n X (αj − βj ) vj = j=1 108 v−v = 0 , und da (vj )j∈n linear unabhängig ist : ∀ j ∈ n : αj − βj = 0 , also ∀ j ∈ n : αj = βj , also n P ∃1 (α1 , . . . , αn ) ∈ K n : v = jαj vj . j=1 “ ⇐= ” : Es gelte ∀ v ∈ V ∃1 (α1 , . . . , αn ) ∈ K n : v = n P αj vj , dann j=1 ist (vj )j∈n ein Erzeugendensystem von V . Sei n P (α1 , . . . , αn ) ∈ K n mit αj vj = 0 , j=1 dann folgt wegen 0 = n P 0 vj , und da sich 0 eindeutig als j=1 Linearkombination von (vj )j∈n darstellen lässt, ∀ j ∈ n : αj = 0 . Also ist (vj )j∈n linear unabhängig. 2 Beispiel 4.2.11 : Sei n ∈ N , dann ist K n , die Menge der n−tupel von Elementen in K , mit den in 4.1.7 definierten Rechenoperationen ein K−Vektorraum . Setzen wir für k ∈ n : 1 für j = k , ek := (0, . . . , 0, 1, 0, . . . , 0) = (δjk )j∈n mit δjk = 0 für j 6= k ↑ k−te Stelle so ist (ek )k∈n eine Basis von K n . Sie heißt die kanonische oder Standard-Basis von K n . n P Beweis: Sei αk ek = 0 ∈ K n mit (α1 , . . . , αn ) ∈ K n , dann ist k=1 (α1 , . . . , αn ) = (0, . . . , 0) , also ∀ k ∈ n : αk = 0 , nach Definition der Gleichheit zweier Funktionen bzw. Familien. Also ist (ek )k∈n linear unabhängig. Sei (α1 , . . . , αn ) ∈ K n beliebig, dann gilt n P (α1 , . . . , αn ) = αk ek , k=1 also ist (ek )k∈n ein Erzeugendensystem von K n . 2 Beispiel 4.2.12 : Sei K ein Körper. In dem in 4.1.13 definierten K−Vektorraum K[X] der Polynome mit Koeffizienten aus K sei fj (X) := X j für j ∈ N0 . Wir behaupten: (fj (X))j∈N0 ist eine Basis von K[X] . Beweis: (B1’) ist klar, denn sei f (X) ∈ K[X] , dann gibt es ein n ∈ N0 und a0 , . . . , an ∈ K , so dass 109 n P f (X) = aj · X j = j=0 f (X) n P aj fj (X) ist, also j=0 n P = aj fj (X) . j=0 f (X) ist eine Linearkombination Pder endlichen Teilfamilie (fj (X))j∈n∪{0} . (B2’) Sei J ⊂ N0 endlich und αj fj (X) = 0 . Setzen wir noch j∈J αj := 0 für j ∈ N0 \ J ∞ P αj X j = 0 . , so haben wir j=0 Nach Folgerung 3.3.9 sind die Koeffizienten eines Polynoms eindeutig bestimmt, also ∀ j ∈ N0 : αj = 0 . Also ist (fj (X))j∈N0 linear unabhängig. 2 Bemerkung 4.2.13 : Unser Ziel ist es, zu zeigen: (I) Jeder Vektorraum besitzt eine Basis. Für endlich erzeugte Vektorräume folgt der Beweis. (II) Ist V endlich erzeugt, so haben zwei Basen von V die gleiche Länge. Zum Beweis brauchen wir den Basisergänzungssatz und den Austauschsatz, die beide nicht wirklich schwierig zu beweisen sind : Basisergänzungssatz 4.2.14 : Sei V ein endlich erzeugter K−Vektorraum . Sei (aj )j∈r mit r ∈ N0 ein endliches Erzeugendensystem von V und (bk )k∈s mit s ∈ N0 eine linear unabhängige Familie in V . Dann gibt es t Vektoren bs+1 , . . . , bs+t ∈ {a1 , . . . , ar } , so dass (bk )k∈s+t eine Basis von V ist. Also: Man kann jede linear unabhängige Familie durch Hinzunahme geeigneter Vektoren aus V zu einer Basis von V ergänzen. Beweis : Es kann sein, dass gilt : (a) (bk )k∈s ist ein Erzeugendensystem von V , dann ist (bk )k∈s bereits eine Basis von V , wir brauchen also nichts hinzuzunehmen, können also t := 0 nehmen. Wenn (a) nicht gilt, ist jedenfalls (b1 , . . . , bs , a1 , . . . , ar ) ein Erzeugendensystem von V , denn sei v ∈ V , dann gilt r P ∃ (αj )j∈r ∈ K r : v = αj aj , also j=1 v = s P k=1 0 bk + r P αj aj ∈ span(b1 , . . . , bs , a1 , . . . , ar ) . j=1 110 Dabei kann es sein, dass man nicht alle der Vektoren a1 , . . . , ar braucht , um - zusammen mit den b1 , . . . , bs - V zu erzeugen. Sei M := {m ∈ N0 | ∃{c1 , . . . , cm } ⊂ {a1 , . . . , ar } : V = span(b1 , . . . , bs , c1 , . . . , cm ) } , dann ist 0 ∈ / M , da (a) nicht gilt, also M ⊂ N . Es ist r ∈ M , also M 6= ∅ , und nach Satz 1.2.13 existiert t min M ∈ N . := Dann ist (b1 , . . . , bs , c1 , . . . , ct ) mit {c1 , . . . , ct } ⊂ {a1 , . . . , ar } ein Erzeugendensystem von V , und auch linear unabhängig, denn seien β1 , . . . , βs , γ1 , . . . , γt ∈ K mit s t P P β k bk + γl cl = 0 , k=1 l=1 dann könnte gelten : (1) ∃ j ∈ t : γj 6= 0 , dann folgt für dieses j : cj s P = (−γj−1 βk )bk + k=1 (−γj−1 γl )cl P , l∈t\{j} also cj ∈ span(b1 , . . . , bs , c1 , . . . , cj−1 , cj+1 , . . . , ct ) , also (∗) V = span(b1 , . . . , bs , c1 , . . . , cj−1 , cj+1 , . . . , ct ) , denn zu jedem v ∈ V gibt es α1 , . . . , αs , δ1 , . . . , δt ∈ K mit v = s X α k bk + k=1 v = s X t X δl cl , also l=1 (αk − δj γj−1 βk )bk + k=1 X (δl − δj γj−1 γl )cl . l∈t\{j} Aus (∗) folgt aber : t − 1 ∈ M , Widerspruch zu t = min M . Also gilt (1) nicht, sondern (2) ∀ l ∈ t : γl = 0 , und damit s P βk bk = 0 , also, da (bk )k∈s linear unabhängig ist, auch k=1 ∀k ∈ s : βk = 0 , und wir sind fertig. 2 Folgerung 4.2.15 : Sei V ein K−Vektorraum und 111 (aj )j∈r mit r ∈ N0 ein Erzeugendensystem von V . Dann gibt es ein n ∈ N0 , n ≤ r und eine Teilfamilie (c1 , . . . , cn ) von (aj )j∈r , die Basis von V ist. Beweis : Man wende Satz 4.2.14 mit s := 0 an. 2 Folgerung 4.2.16 : Jeder endlich erzeugte K−Vektorraum V besitzt eine Basis. 2 Bemerkung 4.2.17 : Auch Vektorräume, die nicht endlich erzeugt sind, besitzen eine Basis. Wir wollen das aber nicht beweisen. Hilfssatz 4.2.18 : Sei V ein K−Vektorraum und (b1 , . . . , bn ) eine Basis von V . Seien u, v ∈ V beliebig, dann ist (u, v, b2 , . . . , bn ) linear abhängig. Beweis : Wegen u, v ∈ span (bj )j∈n gilt : ∃ (βj )j∈n ∈ K n : u = n P β j bj ∧ ∃ (γj )j∈n ∈ K n : v = j=1 n P γj bj , j=1 also γ1 u − β1 v = n P (γ1 βj − β1 γj ) bj , j=2 und wenn γ1 6= 0 oder β1 6= 0 ist, folgt die Beh. Für γ1 = 0 haben wir n P 0 u + (−1)v + γj bj = 0 , j=2 und wegen −1 6= 0 folgt die Behauptung. 2 Austauschsatz 4.2.19 : Sei V ein K−Vektorraum , (b1 , . . . , bn ) eine Basis von V und (a1 , . . . , am ) ein Erzeugendensystem von V . Dann gilt für alle k ∈ N0 : Wenn k ≤ n ist, gibt es k Vektoren ai1 , . . . , aik ∈ {a1 , . . . , am } , so dass (ai1 , . . . , aik , bk+1 , . . . , bn ) eine Basis von V ist. Beweis durch Induktion nach k : (I) Für k = 0 ist die Behauptung trivialerweise wahr. (II) Sei k ∈ N0 , und für k sei die Behauptung wahr. Ist k ≤ n , so haben wir dann eine Basis (ai1 , . . . , aik , bk+1 , . . . , bn ) mit ai1 , . . . , aik ∈ {a1 , . . . , am } von V . Ist nun k + 1 > n , so ist die Behauptung für k + 1 richtig. Ist k + 1 ≤ n , so ist k < n , und (ai1 , . . . , aik , bk+2 . . . , bn ) ist eine aus n − 1 Vektoren bestehende, linear unabhängige, Familie in 112 V . Nach Satz 4.2.14 kann man sie durch Hinzunahme von Vektoren aus {a1 , . . . , am } ergänzen zu einer Basis von V . Zwei (oder mehr) Vektoren aus {a1 , . . . , am } können es nach Hilfssatz 4.2.18 nicht sein, denn dann wäre die entstehende Familie linear abhängig, da wir aus (ai1 , . . . , aik , bk+1 , bk+2 , . . . , bn ) nur den einen Vektor bk+1 herausgenommen haben. 0 Vektoren aus {a1 , . . . , am } können es auch nicht sein, denn dann wäre bereits (ai1 , . . . , aik , bk+2 , . . . , bn ) eine Basis von V , also bk+1 eine Linearkombination dieser Basis und damit (ai1 , . . . , aik , bk+1 , . . . , bn ) linear abhängig. Also können wir einen Vektor aus {a1 , . . . , am } finden, den wir aik+1 nennen, so dass 2 (ai1 , . . . , aik+1 , bk+2 , . . . , bn ) eine Basis von V ist. Folgerung 4.2.20 : Sei V ein K−Vektorraum . Seien m, n ∈ N0 , (a1 , . . . , am ) ein Erzeugendensystem und (b1 , . . . , bn ) eine Basis von V . Dann gilt n ≤ m . Beweis : Wir wenden den Austauschsatz an mit k := n : Es gibt n Vektoren ai1 , . . . , ain ∈ {a1 , . . . , am } , so dass (ai1 , . . . , ain ) eine Basis von V ist. Die Vektoren ai1 , . . . , ain sind alle verschieden, denn gäbe es j, k ∈ n mit j 6= k und aij = aik , dann hätten wir 1 · aij + (−1)aik + X 0 · ail = 0 , l∈n\{j,k} im Widerspruch zur linearen Unabhängigkeit von (ai1 , . . . , ain ) . Also liegen in {a1 , . . . , am } mindestens n verschiedene Elemente; es ist n ≤ m . 2 Folgerung 4.2.21 : Sei V ein K−Vektorraum . Seien n, m ∈ N0 , und seien (a1 , . . . , am ) und (b1 , . . . , bn ) Basen von V . Dann gilt n = m, d.h. zwei Basen von V haben gleiche Länge. Beweis : Jede Basis ist auch ein Erzeugendensystem von V , also gilt nach Folgerung 4.2.20 : 2 n ≤ m und m ≤ n . Definition 4.2.22 : Sei V ein K−Vektorraum . a) Ist V endlich erzeugt, so gibt es nach Folgerung 4.2.15 eine Basis endlicher Länge. Sei n die Länge einer beliebigen endlichen Basis 113 von V . (Das n ist nach Folgerung 4.2.21 eindeutig bestimmt.) Dann setzen wir dim V := dimK V := n und nennen n die Dimension von V (über K ). b) Ist V nicht endlich erzeugt, so schreiben wir : dim V = dimK V = ∞ und nennen V einen unendlichdimensionalen K−Vektorraum. 2 Beispiel 4.2.11 : Sei n ∈ N . Im K−Vektorraum K n war (e1 , . . . , en ) mit ek = (δjk )j∈n eine Basis, also ist dimK K n = n . Beispiel 4.2.12 : Im K−Vektorraum K[X] war (fj (X))j∈N0 mit fj (X) = X j eine Basis. K[X] ist nicht endlich erzeugt, denn wäre dimK K[X] = n ∈ N0 , dann könnte man die aus n+1 Elementen bestehende Familie (fj (X))j∈n∪{0} zu einer Basis ergänzen, die dann mehr als n Elemente hätte, Widerspruch zu Folgerung 4.2.21. Also ist dimK K[X] = ∞. Beispiel 4.2.23 : Nach Beispiel 4.1.3 ist C ein R−Vektorraum. Zu jedem z ∈ C gibt es eindeutig bestimmte a, b ∈ R mit z = a·1+b·i , also ist (1, i) eine Basis des R−Vektorraums C , also ist dimR C = 2 . Nach Beispiel 4.2.11 ist andererseits wegen C = C1 : dimC C = 1 . Satz 4.2.24 : Sei V ein K−Vektorraum . V sei endlichdimensional, d.h. es gebe ein n ∈ N0 mit dimK V = n . Dann gilt für jeden Untervektorraum U von V : (1) Auch U ist endlich erzeugt, und dimK U ≤ dimK V . (2) Aus dimK U = dimK V folgt U = V . Beweis : (1) Es gibt eine Basis (b1 , . . . , bn ) von V . Angenommen, es ist dimK U = ∞ oder dimK U = m > n , dann gibt es in U eine linear unabhängige Familie (u1 , . . . , un+1 ) , 114 die dann auch in V linear unabhängig ist. Nach dem Basisergänzungssatz 4.2.14 lässt sie sich ergänzen zu einer Basis (u1 , . . . , un+1 , . . . , ur ) von V , mit r ≥ n + 1 > n , Widerspruch zu Folgerung 4.2.21. Also ist dim U ≤ n . (2) Sei dimK U = dimK V = n , dann gibt es eine Basis (a1 , . . . , an ) von U . (a1 , . . . , an ) ist linear unabhängig in V , lässt sich also nach 4.2.21 ergänzen zu einer Basis (a1 , . . . , an , c1 , . . . , ct ) mit t ∈ N0 , c1 , . . . , ct ∈ V von V , die dann die Länge n + t hat. Nach 4.2.21 folgt n + t = n , also t = 0 , also ist (a1 , . . . , an ) Basis von V , V = span (a1 , . . . , an ) = U . 2 4.3 Lineare Abbildungen Definition 4.3.1 : Sei K ein Körper, V und W seien K−Vektorräume (also Vektorräume über demselben Körper). Eine Abbildung F : V −→ W heißt eine K−lineare Abbildung (oder ein K−Vektorraum-Homomorphismus ), wenn gilt (L1) ∀ a, b ∈ V : F (a + b) = F (a) + F (b) , und ↑ ↑ Addition in V , Addition in W (L2) ∀ a ∈ V ∀ λ ∈ K : F (λa) = λF (a) . ↑ ↑ äußere Operation auf V , auf W . Die Begriffe Endo-, Mono-, Epi-, Iso- und Auto-morphismus von Vektorräumen definiert man wie in 2.3.2. Bemerkung 4.3.2 : Seien V , W K−Vektorräume und F : V −→ W sei K−linear. Dann ist F nach (L1) ein Gruppenhomomorphismus von (V, +) in (W, +). Aus Satz 2.3.4 folgt daher F (0) = 0 und ∀ b ∈ V : F (−b) = −F (b) und damit ∀ a, b ∈ V : F (a − b) = F (a) − F (b) . Satz 4.3.3 : (1) Sei (v1 , . . . , vn ) linear abhängig in V , dann ist (F (v1 ), . . . , F (vn )) linear abhängig in W . (2) Ist V 0 ein Untervektorraum von V , so ist F (V 0 ) ein Untervektorraum von W . −1 (3) Ist W 0 ein Untervektorraum von W , so ist F (W 0 ) ein 115 Untervektorraum von V . (4) dim F (V ) ≤ dim V , wenn man für ∈ N0 ∪ {∞} setzt: n ≤ ∞. Beweis : (1),(2),(3) als Übungsaufgabe. (4) Für dim V = ∞ ist das sicher richtig. Sei dim V = n ∈ N0 , dann haben wir eine Basis (v1 , . . . , vn ) von V . Zu y ∈ F (V ) gibt es ein v ∈ V mit y = F (v) , und ∃ (αj )j∈n ∈ K n : v = n X αj vj , also j=1 F (v) = F ( n X n n (L1) X (L2) X αj vj ) = F (αj vj ) = αj F (vj ) , j=1 j=1 j=1 also ist (F (v1 ), . . . , F (vn )) ein Erzeugendensystem von F (V ) , und nach Folgerung 4.2.20 : dimK F (V ) ≤ n . 2 Bemerkung 4.3.4 : Sei F : V −→ W K−linear, dann definiert man den Kern von F als Kern des Gruppenhomorphismus F von (V, +) in (W, +), also ker F := −1 F ({0}) = { v ∈ V | F (v) = 0 } . Nach 4.3.3(3) ist ker F ein Untervektorraum von V . Nach Satz 2.3.9 gilt F ist injektiv ⇐⇒ ker F = {0} . 2 (4.3.5) Beispiele für lineare Abbildungen Triviale Beispiele sind 0 : V −→ W , 0(v) := 0 ∈ W für alle v ∈ V , und idV : V −→ V , idV (x) := x für alle x ∈ V . Ein weiteres Beispiel für lineare Abbildungen steht in Satz und Definition 4.3.6 : Sei V ein K−Vektorraum mit dimk V = n ∈ N und B := (v1 , . . . , vn ) eine Basis von V , dann ist ΦB : K n −→ V , ΦB (β1 , . . . , βn ) := n X βj vj j=1 ein K−Vektorraum-Isomorphismus. .ΦB heißt der durch B gegebene Basisisomorphismus von K n nach V . 116 2 Der Beweis ist eine sehr leichte Übungsaufgabe. Satz und Definition 4.3.7 : Seien V und W HomK (V, W ) := K−Vektorräume, dann ist { F ∈ F(V, W ) | F ist K − linear } ein Untervektorraum von F(V, W ) . Für V = W schreibt man EndK (V ) := HomK (V, V ) , die Elemente von EndK (V ) sind also die Endomorphismen von V . Für W = K nennt man V ∗ := HomK (V, K) den Dualraum von V und die Elemente von V ∗ Linearformen auf V. Beweis : Nach Definition ist HomK (V, W ) ⊂ F(V, W ) und HomK (V, W ) 6= ∅ , da 0 : V −→ W , v 7−→ 0 , K− linear ist. Seien F, G ∈ HomK (V, W ) und λ ∈ K , dann sind auch F + G , λF ∈ HomK (V, W ) , denn für a, b ∈ V und α ∈ K gilt (∗) (1) (F + G)(a + b) = F (a + b) + G(a + b) = F (a) + F (b) + G(a) + G(b) (∗) = F (a) + G(a) + F (b) + G(b) = (F + G)(a) + (F + G)(b) , (∗) (1) (F + G)(αa) = F (αa) + G(αa) = αF (a) + αG(a) (∗) = α(F (a) + G(a)) = α(F + G)(a) , (∗∗) (1) (λF )(a + b) = λF (a + b) = λ(F (a) + F (b)) (∗∗) = λF (a) + λF (b) = (λF )(a) + (λF )(b) , (∗∗) (1) (λF )(αa) = λF (αa) = λ(αF (a))) = (λ · α)F (a) (∗∗) = (α · λ)F (a) = α(λF (a)) = α(λF )(a) . Bei (∗) und (∗∗) haben wir die Definition der Rechenoperationen in F(V, W ) benutzt, bei (1) die Linearität von F und G . 2 Auch die Hintereinanderausführung linearer Abbildungen ist linear : Satz 4.3.8 : Seien U, V, W K−Vektorräume, G ∈ HomK (U, V ) und F ∈ HomK (V, W ) , dann ist F ◦ G ∈ HomK (U, W ) . Beweis : F ◦ G ist eine Abbildung von U in W . F ◦ G ist K−linear, denn für alle a, b ∈ U und alle α ∈ K gilt G linear (F ◦ G)(a + b) = F (G(a + b)) = F (G(a) + G(b)) 117 F linear = F (G(a)) + F (G(b)) = (F ◦ G)(a) + (F ◦ G)(b) , G linear (F ◦ G)(αa) = F (G(αa)) = F (αG(a)) F linear = αF (G(a)) = α(F ◦ G)(a) . 2 Definition und Satz 4.3.9 : Sei K ein Körper, V ein K−Vektorraum und W ein Untervektorraum von V . Dann hat man nach 2.2.12 die Faktorgruppe V /W = { v + W | v ∈ V } , wobei v+W = { v+w | w ∈W } ist , und es gilt für u, v ∈ V : (u + W ) + (v + W ) = (u + v) + W ⇐⇒ u+W = v+W , u − v ∈ W. Wenn man für v ∈ V , λ ∈ K definiert: ω(λ, v + W ) := λ(v + W ) := (λv) + W , dann wird (V /W , +, ω) ein K−Vektorraum. V /W heißt der Quotienten-Vektorraum von V modulo W . Beweis : Das Axiom (V2) für V /W gilt, da es für (V, +, ω) gilt. 2 Beispiel 4.3.10 : Nehmen wir V := 2 R und W := R· 1 2 , dann sind die Elemente von V /W Geraden, die zu R · 1 2 parallel sind. - Der Homomorphiesatz für Gruppen gilt auch für Quotienten-Vektorräume: (4.3.11) Homomorphiesatz für Vektorräume : Seien V und U K−Vektorräume, F : V −→ U eine surjektive lineare Abbildung . Sei κ : V −→ V / ker F 118 , x 7→ x + ker F der kanonische Nebenklassenepimorphismus von V auf den Quotienten-Vektorraum V / ker F , dann gibt es genau einen VektorraumIsomorphismus ι : V / ker F −→ U mit ι ◦ κ = F . Als Diagramm: F V - U κ ∃1 ι ? V / ker F Beweis : Da Satz 2.3.9 gilt, müssen wir nur noch zeigen, dass κ und ι die Linearitätsbedingung (L2) erfüllen. Das ist aber leicht zu sehen. 2 Satz 4.3.12 : Sei V ein endlichdimensionaler K−Vektorraum und W ein Untervektorraum von V , dann ist dim V /W = dim V − dim W . Es gilt: (∗) Wenn (w1 , . . . , wk ) eine Basis von W ist, und wir diese durch v1 , . . . , vr zu einer Basis (w1 , . . . , wk , v1 , . . . , vr ) von V ergänzen können, dann ist (v1 + W, . . . , vr + W ) eine Basis von V /W . Beweis : Nach Satz 4.2.24 ist auch W endlichdimensional. Sei (w1 , . . . , wk ) eine Basis von W , dann können wir diese Basis nach Satz 4.2.14 ergänzen zu einer Basis (w1 , . . . , wk , v1 , . . . , vr ) von V und behaupten: (∗) (v1 + W, . . . , vr + W ) ist eine Basis von V /W 119 . Wenn wir das gezeigt haben, folgt dim V /W = r = (r + k) − k dim V − dim W = . (4.3.13) Dimensionsformel für lineare Abbildungen : Seien V, U K−Vektorräume, F : V −→ U K − linear und dimk V < ∞ . Dann gilt die Formel dim V = dim ker F + dim F (V ) . (∗) Nach 4.2.24 existiert eine endliche Basis (w1 , . . . , wk ) von ker F , die wir durch v1 , . . . , vr zu einer Basis (w1 , . . . , wk , v1 , . . . vr ) von V ergänzen können. Dann ist (F (v1 ), . . . , F (vr )) eine Basis von F (V ) . Beweis : Wir schränken den Wertebereich von F ein, indem wir G : V −→ F (V ) , G(x) := F (x) setzen, dann ist G linear und surjektiv, und es ist ker G = ker F . Nach Satz 4.3.12 ist dann dim V = dim ker F + dim V / ker F . Nach dem Homomorphiesatz 4.3.11 gibt es einen Isomorphismus ι : V / ker F −→ F (V ) , also dim V / ker F = dim F (V ), womit dim V = dim ker F + dim F (V ) bewiesen ist. Der Rest folgt aus (∗) von Satz 4.3.12 : Wenn wir eine Basis (w1 , . . . , wr ) von ker F haben, und diese durch (v1 , . . . , vr ) zu einer Basis von V ergänzen, ist (v1 + ker F, . . . , vr + ker F ) eine Basis von V / ker F . Die folgenden Aussagen (mit κ(x) := x + ker F ) sind gleichbedeutend: (κ(v1 ), . . . , κ(vr )) ist eine Basis von V / ker F 120 . und da ι ein Isomorphismus ist: (ι(κ(v1 )), . . . , ι(κ(vr ))) ist eine Basis von F (V ) . und wegen ι ◦ κ = F : (F (v1 ), . . . , F (vr )) ist eine Basis von F (V ) . 2 4.4 Matrizen Unser Ziel ist es, einer linearen Abbildung F : V −→ W , wobei V und W endlichdimensionale Vektorräume über einem Körper K sind, eine Matrix zuzuordnen. Matrizen sind aber auch für sich genommen interessante Objekte in der Algebra. Wir beschäftigen uns daher zunächst mit Matrizen und den Rechenoperationen zwischen ihnen: Definition 4.4.1 : Seien m, n ∈ N . Eine m × n - Matrix mit Einträgen aus einer Menge R ist eine Familie A = (akj )(k,j)∈m×n mit akj ∈ R , kurz: A = (akj ) , also eine Abbildung A ∈ F(m × n, R) , A(k, j) := akj . Man schreibt sich eine Matrix A = (akj )(k,j)∈m×n zumeist als “rechteckiges Schema” auf: a11 . . . a1n .. . A = ... . am1 . . . amn Für die Menge aller m × n - Matrizen mit Einträgen aus R schreiben wir M (m × n, R) , und für A = (akj ) ∈ M (m × n, R) nennen wir die ak := (ak1 , . . . , akn ) für k ∈ m die Zeilenvektoren von A , und die a1j aj := ... für j ∈ n die Spaltenvektoren von A . amj 121 Ist m = n , so heißt die Matrix A quadratisch . Nach unserer Definition ist M (m × n, R) = F(m × n, R) . Damit ist auch definiert, wann zwei Matrizen A = (akj ) , B = (bkj ) gleich sind: Es gilt (akj ) = (bkj ) ⇐⇒ ∀ (k, j) ∈ m × n : akj = bkj . Definition 4.4.2 : Sei (R, +, ·) ein kommutativer Ring, m, n ∈ N . Dann definieren wir für (akj ), (bkj ) ∈ M (m × n, R) und λ ∈ R: (akj ) + (bkj ) := (akj + bkj ) , (∗) λ(akj ) := (λ · akj ) Wenn 0 das Nullelement und 1 das Einselement von R bezeichnet, setzen wir für (k, j) ∈ m × n: 0 .. 0 . 0 0 Ekj := 0 . . . 0 1 0 . . . 0 ←− k − te Zeile 0 . .. 0 0 0 ↑ j−te Spalte Folgerung 4.4.3 : Ist K ein Körper, so ist M (m × n, K) = F(m × n, K) mit der in (∗) definierten Adition und äußeren Operation nach Beispiel 4.1.4 ein K−Vektorraum, und da für jedes A = (akj )) ∈ M (m × n, K) A = m X n X k=1 akj Ekj j=1 gilt, mit eindeutig bestimmten Koeffizienten akj , ist (Ekj )(k,j)∈m×n eine Basis von M (m × n, K) , und damit dimK M (m × n, K) = m · n . 122 2 Definition 4.4.4 : Seien m, n, r ∈ N, R ein kommutativer Ring. Dann definiert man das Produkt der Matrizen A = A·B (akj ) ∈ M (m × n, R) , := B = (bjl ) ∈ M (n × r, R) als (ckl ) ∈ M (m × r, R) mit ckl n X := akj bjl . j=1 (4.4.5) Bemerkungen : 1) Man kann also nicht beliebige Matrizen multiplizieren, A · B ist nur definiert, wenn A ∈ M (m × n, R) , B ∈ M (n × r, R) ist, d.h. wenn die Spaltenzahl der ersten gleich der Zeilenzahl der zweiten Matrix ist. 2) Man merkt sich die Definition des Matrizenprodukts ! n X = (ckl ) A·B = akj bjl j=1 (k,l)∈m×r am besten so: Um ckl auszurechnen, bildet man das “Skalarprodukt” des k−ten Zeilenvektors von A mit dem l−ten Spaltenvektor von B . Satz 4.4.6 : Seien m, n, r, t ∈ N , R ein kommutativer Ring und A ∈ M (m × n, K) , B ∈ M (n × r, K) , C ∈ M (r × t, K) , dann gilt A · (B · C) = (A · B) · C . Beweis : Sei A = (akj ) , B = (bjl ) , C = (cls ) mit k ∈ m, j ∈ n, l ∈ r, s ∈ t , dann gilt !! n r X X A · (B · C) = akj · bjl cls j=1 = r X n X l=1 j=1 l=1 ! akj bjl (k,s)∈m×t ! · cls = (A · B) · C . (k,s)∈m×t 2 Das Matrizenprodukt ist also assoziativ. Kommutativ ist es nicht, auch wenn der Ring (R, +, ·) kommutativ ist: Bemerkungen 4.4.7 : Sei (R, +, ·) ein kommutativer Ring. 123 (1) Wir rechnen das Produkt der in 4.4.2 definierten Elemente Ekj = (δku · δjv )(u,v)∈m×n ∈ M (m × n, R) mit Est = (δsv · δtw )(v,w)∈n×r ∈ M (n × r, R) für m, n, r ∈ N aus. Am besten geht das, indem man sich ein Blatt Papier nimmt, die Matrizen Ekj und Est hinschreibt und dann gemäß (4.4.5) 2) multipliziert (und es ist wichtig, dass Sie einen Blick dafür entwickeln, wie man einfache Matrizenprodukte schnell ausrechnet). Aber wenn Sie es formal mit der Definition in 4.4.4 ausrechnen wollen: Ekj · Est = (δku · δjv )(u,v)∈m×n · (δsv · δtw )(v,w)∈n×r ! n X = , δku · δjv · δsv · δtw v=1 (u,w)∈m×r und da δjv δsv nur für v = j = s gleich 1 und sonst 0 ist: Ekj · Est = (δku · δjs · δsw )(u,w)∈m×r = δjs (δku · δsw )(u,w)∈m×r , also (∗∗) Ekj ·Est = δjs Ekt für k ∈ m, j, s ∈ n, t ∈ r . Wir werden diese Formel noch brauchen, z.B. für (2) Wir sehen uns quadratische Matrizen an, also M (n × n, R), und behaupten, dass die Multiplikation in M (n × n, R) für n ≥ 2 nicht kommutativ ist. Für ein Gegenbeispiel setzen wir C := n X Ekk , A := E11 + E12 + E21 + C , B := E12 + E21 + C , k=3 dann folgt nach (∗∗) in (1) : A · B = (E11 + E12 + E21 + C) · (E12 + E21 + C) = E11 + E12 + E22 + C , B · A = (E12 + E21 + C) · (E11 + E12 + E21 + C) = E11 + E21 + E22 + C , Sei (dkj ) := A · B und (fkj ) := B · A , dann gilt also d21 = 0 , aber f21 = 1 , also A · B 6= B · A . Übrigens: Zu A und B gibt es Metrizen A−1 und B −1 mit A · A−1 = A−1 · A = En und B · B −1 = B −1 · B = En , nämlich 124 A−1 := E12 + E21 − E22 + C und B −1 := B . Wir brauchen das in 4.4.9 . Satz 4.4.8 : Sei n ∈ N, R ein kommutativer Ring. Dann ist die Menge M (n × n, R) mit der in Definition 4.4.2 definierten Addition + und der in 4.4.4 definierten Multiplikation · ein Ring, mit dem Einselement 1 0 1 für k = j . . En := . = (δkj ) mit δkj = . 0 für k 6= j 0 1 En heißt die Einsmatrix in M (n × n, R). Für n ≥ 2 ist dieser Ring weder kommutativ noch nullteilerfrei. Beweis : Für A, B ∈ M (n × n, R) sind A + B , A · B ∈ M (n × n, R) nach 4.4.2 bzw.4.4.4. + und · sind also Verknüpfungen in M (n × n, R). (R1) Dass (M (n × n, R), +) eine abelsche Gruppe ist, rechnet man leicht nach. Das Nullelement ist die Nullmatrix 0 ... 0 .. , 0 := ... . 0 ... 0 das Negative von (akj ) ist (−akj ). (R2) Das Assoziativgesetz für · haben wir gerade als Satz 4.4.6 bewiesen. (R3) Seien (akj ), (bkj ), (ckj ) ∈ M (n × n, R), dann gilt (((akj ) + (bkj )) · (ckj ) = ! n X (akl + bkl ) · clj = = l=1 = n X (akj + bkj ) · (ckj ) n X akl · clj + l=1 ! akl · clj + l=1 n X n X ! bkl · clj l=1 ! bkl · clj = (akj ) · (ckj ) + (bkj ) · (ckj ) , l=1 entsprechend die zweite Gleichung des Distributivgesetzes. (R4) Sei A = (akj ) ∈ M (n × n, R) , dann gilt ! n X A · En = akl δlj . l=1 In dieser Summe ist höchstens der Summand mit l = j ungleich 0, also A · En = (akj · 1) 125 = A . entsprechend En ·A = A. En ist also das Einselement des Ringes M (n×n, R). Kommutativ ist (M (n × n, R), +, ·) nicht, das folgt aus Bemerkung (2) in (4.4.7). Es gilt E12 · E11 = 0 , also ist (M (n × n, R), +, ·) nicht nullteilerfrei . 2 Bemerkung: M (n × n, R) ist mit · keine Gruppe, weil (M (n × n, R), +, ·) nicht nullteilerfrei ist. Aber man kann die Einheitengruppe M (n × n, R)× betrachten. Man nennt sie GL(n, R) . Dass für einen beliebigen Ring (S, +, ·), mit Einselement 1, die Menge S × = { a ∈ R | ∃ a∗ ∈ R : a∗ · a = a · a∗ = 1 } eine Gruppe ist, hatten wir schon in 3.2.11 bewiesen. Dass GL(n, R) nicht kommutativ ist, folgt aus dem Gegenbeispiel in (4.4.7) 2) : Satz und Definition 4.4.9 : Sei n ∈ N , R ein kommutativer Ring und GL(n, R) := { A ∈ M (n × n, R) | ∃ A−1 ∈ M (n × n, R) : A−1 · A = A · A−1 = En } , dann ist (GL(n, R), ·) eine, für n ≥ 2 nicht kommutative, Gruppe. Sie heißt die allgemeine lineare Gruppe vom Grad n über R . 2 Nun kommen wir zum Thema: Matrizen linearer Abbildungen von K−Vektorräumen. Dabei sei also stets K ein Körper. Satz 4.4.10 : Sei V ein endlichdimensionaler K−Vektorraum, (v1 , . . . , vn ) eine Basis von V , und seien b1 , . . . , bn beliebige Vektoren aus einem K−Vektorraum W . Dann gibt es genau eine lineare Abbildung F : V −→ W mit F (vj ) = bj für alle j ∈ n , d.h. man kann eine lineare Abbildung dadurch definieren, dass man die Funktionswerte von Basiselementen festlegt. Beweis : (1) Es gibt höchstens eine lineare Abbildung F : V −→ W mit F (vj ) = bj für alle j ∈ n , denn man kann jedes v ∈ V eindeutig als Linearkombination v = n X αj v j mit (α1 , . . . , αn ) ∈ K n j=1 126 schreiben, und aus der Linearität von F folgt dann ! n n n X X X (∗) F (v) = F αj vj = αj F (vj ) = α j bj j=1 j=1 . j=1 Wir wissen also, wie F (v) zu berechnen ist, wenn überhaupt so ein F ∈ HomK (V, W ) existiert. (2) Um die Existenz eines F ∈ HomK (V, W ) mit ∀j ∈ n : F (vj ) = bj zu zeigen, definieren wir F durch (∗) : F (v) n X := α j bj für v = j=1 n X αj v j . j=1 Da die αj durch v eindeutig bestimmt sind, ist F auf diese Weise eindeutig festgelegt, also eine Abbildung. F ist linear, denn für n n P P v = αj vj , v 0 = βj vj , λ ∈ K gilt j=1 0 j=1 F (v + v ) = F n X ! (αj + βj )vj = j=1 F (λ v) = F n X (αj + βj )bj = F (v) + F (v 0 ) und j=1 n X ! (λαj )vj = j=1 n X (λαj )bj = λ F (v) . j=1 Es gilt ∀ k ∈ n : F (vk ) = bk , denn n P 1 vk = δjk vj mit δjk = 0 j=1 n P F (vk ) = δjk bj = bk . für j = k für j = 6 k , also 2 j=1 Bemerkung : In Satz 4.4.10 ist (vj )j∈n eine Basis von V , aber (bj )j∈n i.A. keine Basis von W . Man kann aber die bj als Linearkombinationen einer Basis von W schreiben, dann erhält man (4.4.11) Die zu einer linearen Abbildung gehörige Matrix : Seien V und W endlichdimensionale K−Vektorraume und sei F : V −→ W K−linear. Gegeben seien feste Basen (v1 , . . . , vn ) von V und (w1 , . . . , wm ) von W , mit n, m ∈ N . Dann hat man für alle j ∈ n bj := F (vj ) , die Vektoren bj sind durch F eindeutig bestimmt, und umgekehrt ist nach 127 Satz 4.4.10 auch F durch (F (v1 ), . . . , F (vn )) eindeutig festgelegt. Da (w1 , . . . , wm ) eine Basis von W ist, kann man die bj eindeutig als Linearkombinationen von (w1 , . . . , wm ) schreiben : b1 = a11 w1 + . . . + am1 wm .. .. . . bn = a1n w1 + . . . + amn wm mit gewissen m−tupeln (a1j , . . . , amj ) ∈ K m , die natürlich von j abhängen. Kurz als Formel, die man sich unbedingt merken muss : (4.4.12) a1j m P ∀ j ∈ n ∃1 ... ∈ K m : F (vj ) = akj wk k=1 amj Auf diese Weise kann man bei gegebenem F und festgelegten Basen (v1 , . . . , vn ) von V und (w1 , . . . , wm ) von W die Elemente akj für j ∈ n und k ∈ m berechnen, die zusammen eine Matrix (akj ) ∈ M (m × n, K) bilden : Definition und Satz 4.4.13 : Seien V und W K−Vektorräume, K ein Körper, A := (v1 , . . . , vn ) sei Basis von V und B := (w1 , . . . , wm ) sei Basis von W , mit n, m ∈ N . Sei MBA : HomK (V, W ) −→ M (m × n, K) , MBA (F ) := F (vj ) (akj ) , = m X wobei akj akj wk durch für j ∈ n k=1 MBA ein K−Vektorraum-Isomorphismus. definiert ist, dann ist Beweis : (1) Nach (4.4.11) ist MBA eine Abbildung. (2) Seien F , G ∈ HomK (V, W ) und λ ∈ K , dann gilt für j ∈ n : (F + G)(vj ) = F (vj ) + G(vj ) = m X akj wk + k=1 m X k=1 wenn MBA (G) = (bkj ) ist, also (F + G)(vj ) = m X k=1 128 (akj + bkj )wk , bkj wk , nach Formel (4.4.12) also 4.4.2 MBA (F + G) = (akj + bkj ) = (akj ) + (bkj ) = MBA (F ) + MBA (G) , ähnlich: (λ F )(vj ) = λ F (vj ) = λ m X akj wk m X = k=1 (λakj )wk , k=1 also nach Formel (4.4.12) : 4.4.5 MBA (λ F ) = (λ akj ) = λ (akj ) = λ MBA (F ) . MBA ist also K−linear. (3) MBA ist injektiv, denn sei F ∈ ker MBA , also MBA (F ) = 0 das Nullelement von M (m × n, K) also 0 ... 0 .. die Nullmatrix , MBA (F ) = ... . 0 ... 0 dann gilt nach Formel (4.4.12) : m X ∀ j ∈ n : F (vj ) = 0 wk = 0 ∈ W , k=1 also ist F die Nullabbildung , F = 0 ∈ HomK (V, W ) . Nach Bemerkung 4.3.4 ist MBA injektiv. (4) MBA ist surjektiv, denn sei (akj ) ∈ M (m × n, K) , dann ist durch F : V −→ W , F (vj ) := m X akj wk k=1 nach Satz 4.4.10 genau eine lineare Abbildung F ∈ HomK (V, W ) definiert. Für dieses F gilt dann nach (4.4.12) wieder MBA (F ) = (akj ) . Insgesamt : MBA ist ein Vektorraum-Isomorphismus. Bemerkung 4.4.14 : In Satz 4.3.8 haben wir gesehen: Sind U, V, W K− Vektorräume, und 129 2 G : U −→ V , F : V −→ W K−linear , dann ist auch F ◦ G : U −→ W K−linear . Sind nun U, V, W endlichdimensional, mit Basen A = (u1 , . . . , ur ) von U , B = (v1 , . . . , vn ) von V , C = (w1 , . . . , wm ) von W , dann hat man Matrizen A := MCB (F ) = (akj ) ∈ M (m × n, K) , B := MBA (G) = (bjl ) ∈ M (n × r, K) , die gemäß Formel (4.4.12) definiert sind durch F (vj ) m X = für j ∈ n , akj wk k=1 G(ul ) n X = für l ∈ r bjl vj . j=1 Aus diesen Gleichungen erhält man für l ∈ r : (F ◦ G)(ul ) = F (G(ul )) n X = bjl F (vj ) j=1 = n X m X bjl j=1 akj wk = k=1 m X n X k=1 j=1 ! akj bjl wk , also gilt für die − nach 4.4.13 eindeutig bestimmte − Matrix C := (ckl ) = MCA (F ◦ G) ∈ M (m × r, K) mit (F ◦ G)(ul ) = m X ckl wk : k=1 ckl = n X akj bjl für k ∈ m , l∈r . j=1 C ist daher das Produkt der Matrizen A = (akj ) ∈ M (m × n, K) , C = A·B := B = (ckl ) mit ckl (bjl ) ∈ M (n × r, K) , := n X j=1 130 akj bjl , also es gilt also die Formel MCA (F ◦ G) (4.4.15) MCB (F ) · MBA (G) , = d.h. bezüglich festgelegter Basen ist die Matrix der Hintereinanderausführung F ◦ G gleich dem Produkt der Matrizen von F und von G . Bemerkung 4.4.16 : Seien V und W K−Vektorräume, F : V −→ W K−linear, dimk V = n , dimk W = m , dann hatten wir in 4.4.11 die Matrix von F bezüglich gegebener Basen A = (a1 , . . . , an ) von V , B = (b1 , . . . , bm ) von W A definiert, also A := MB (F ) ∈ M (m × n, K) , und zwar durch Formel (4.4.12) . Wählt man nun andere Basen von V bzw. W , so haben sie die gleiche Länge. Sei also auch A0 = (a01 , . . . , a0n ) eine Basis von V und B0 = (b01 , . . . , b0m ) eine Basis von W , 0 so hat man A0 := MBA0 (F ) ∈ M (m × n, K) . Wie kann man A0 aus A berechnen ? Das geht ganz einfach (und ohne dass man viele Indizes hinschreiben muss) so: Sicher ist F = idW ◦ F ◦ idV , aber wir nehmen jetzt folgende Basen : idV −→ V F −→ V W | | | mit Basis A0 mit Basis A mit Basis B dann gilt nach Formel (4.4.15) : 0 0 (∗ ∗ ∗) MBA0 (F ) = MBA0 ( idW ◦ F ◦ idV ) = = 0 MBB0 ( idW )· MBA (F ◦ idV ) = idW −→ W | mit Basis B0 , 0 MBA0 ( idW ◦ (F ◦ idV )) 0 MBB0 ( idW )· MBA (F )· MAA ( idV ) . Wir setzen S := MBB0 ( idW ) , dann ist S ∈ M (m × m, K) , und wegen 0 MBB0 ( idW ) · MBB ( idW ) 0 4.4.12 4.4.15 B0 = MB0 ( idW ) = Em MBB ( idW ) · MBB0 ( idW ) , 4.4.15 B 4.4.12 = MB ( idW ) = Em 0 ist sogar S ∈ GL(m, K) , S −1 = MBB ( idW ). Ebenso gilt für T := MAA0 ( idV ) : 0 T ∈ GL(n, K) und T −1 = MAA ( idV ) . Setzen wir das in (∗) ein, so erhalten 131 wir A0 S · A · T −1 = A = MBA (F ) , für 0 A0 = MBA0 (F ) (4.4.17) mit den Transformationsmatrizen T := MAA0 ( idV ) , S := MBB0 ( idW ) Dabei haben wir (4.4.11) benutzt, um MBB ( idW ) = Em zu zeigen: Es gilt r X ∀ r ∈ m : idW (br ) = br = δlr bl und (δlr ) = Em . l=1 Man braucht die Formel (4.4.11) auch, wenn man S und T konkret ausrechnen will: T = (tkj ) ∈ M (n × n, K) ist nach Formel (4.4.11) definiert durch n X tkj a0k , also ∀ j ∈ n : idV (aj ) = k=1 ∀ j ∈ n : aj = n X tkj a0k , k=1 d.h. man erhält die Einträge tkj der Transformationsmatrix T , indem man die Basisvektoren von A als Linearkombinationen der Basisvektoren von A0 darstellt. Entsprechend ist S = (slr ) ∈ GL(m, K) gegeben durch ∀ r ∈ m : br = r X slr b0l 2 . l=1 Wir brauchen die Transformationsformel (4.4.17) schon im nächsten Abschnitt. Den wiederum brauchen wir zur Lösung linearer Gleichungssysteme: 4.5 Der Rang einer Matrix Definition 4.5.1 : Seien m, n ∈ N , K ein Körper, A = (akj )(k,j)∈m×n ∈ M (m × n, K) , dann definieren wir die transponierte Matrix t A ∈ M (n × m, K) als t A := (bjk )(j,k)∈n×m 132 mit bjk := akj . Rechenregeln 4.5.2 : Seien n, m, r ∈ N , K ein Körper, A, C ∈ M (m × n, K) , B ∈ M (n × r, K) , λ∈K , dann (1) (3) (5) gilt t (A + C) = t A +t C , (2) t (λA) = λ t A , t t ( A) = A , (4) t (A · B) = t B ·t A . Ist m = n und A ∈ GL(n, K) , so ist auch t A ∈ GL(n, K) , und es gilt (t A)−1 = t (A−1 ) . Beweis : (1) ,(2) und (3) sind leicht einzusehen. (4) Es ist t A = (αjk )(j,k)∈n×m mit αjk := akj , t B = (βlj )(l,j)∈r×n mit βlj := bjl für k ∈ m , j ∈ n , l ∈ r , also ist t B ·t A ∈ M (r × m, K) definiert, ! n X t B ·t A = βlj αjk = j=1 n X ! bjl akj j=1 (5) Aus A · A = A (A−1 ) ·t A −1 n X ! t = akj bjl j=1 (l,k)∈r×m −1 t = (l,k)∈r×m (A · B) . (l,k)∈r×m · A = En folgt nach (4) : = t A ·t (A−1 ) = t En = En , also t A ∈ GL(n, K) und (t A)−1 = t (A−1 ) . Definition 4.5.3 : Seien m, n ∈ N , K ein Körper, A = (akj ) ∈ M (m × n, K) , dann hatten wir in 4.4.1 die ak = (ak1 , . . . , akn ) für k ∈ m die Zeilenvektoren, und die a1j aj = ... ∈ K m für j ∈ n die Spaltenvektoren von A amj genannt. Besser ist es übrigens, alle n− und m−tupel als Spalten zu schreiben, dann sind also t a1 , . . . ,t am ∈ K n die Zeilenvektoren von A . Wir nennen nun ZRg(A) := dim span(t a1 , . . . ,t am ) den Zeilenrang von A und SRg(A) := dim span(a1 , . . . , an ) den Spaltenrang von A . 133 Bemerkung 4.5.4 : Es ist span(t a1 , . . . ,t am ) ⊂ K n , span(a1 , . . . , an ) ⊂ K m , wir haben also Untervektorräume verschiedener Vektorräume. Wir werden aber zeigen, dass sie gleiche Dimension haben, dass also ZRg(A) = SRg(A) gilt. Dazu zunächst die Schreibweise (4.5.5) : Seien m, n ∈ N , K ein Körper und A ∈ M (m × n, K) . Sei fA : K n −→ K m , fA (x) A·x , := wobei unter A · x das Produkt der m × n−Matrix A mit der n × 1−Matrix x ∈ K n = M (n×1, K) verstanden wird, dann ist fA eine lineare Abbildung. Hilfssatz 4.5.6 : Sei K ein Körper, n ∈ N , U ein Untervektorraum von K n und T ∈GL(n, K) . Dann gilt dim fT (U ) = dim U . Beweis : Sei F : U −→ fT (U ) , F (x) := fT (x) , dann ist F linear, da fT linear ist, und surjektiv, also F (U ) = fT (U ) . F ist auch injektiv, denn für x, y ∈ U gilt F (x) = F (y) =⇒ fT (x) = fT (y) =⇒ T ·x = T ·y , und da T −1 ∈ GL(n, K) existiert, folgt T −1 · (T · x) = T −1 · (T · y) , also (T −1 · T ) · x = (T −1 · T ) · y , also x = y . Nach Bemerkung 4.3.4 ist ker F = {0} , und nach der Dimensionsformel (4.3.13) folgt dim U = dim ker F + dim F (U ) = 0 + dim fT (U ) . 2 Hilfssatz 4.5.7 : Sei A ∈ M (m × n, K) , S ∈GL(m, K) und T ∈GL(n, K) . Dann gilt (1) SRg(S · A · T ) = SRg(A) , (2) ZRg(S · A · T ) = ZRg(A) . 134 Beweis : (1) a) Seien a1 , . . . , an die Spaltenvektoren von A und e1 , . . . , en die kanonischen Basisvektoren von K n , als Spalten geschrieben, dann gilt aj A · ej = für j ∈ n , wie man mit scharfem Blick für die Matrizenmultiplikation sieht, also SRg(A) dim span(fA (e1 ), . . . , fA (en )) = = dim fA (K n ) . Nach Hilfssatz 4.5.6 ist dim fT (K n ) = dim K n = n , also wegen fT (K n ) ⊂ K n nach Satz 4.2.24(2) : fT (K n ) = K n , also SRg(A) = dim fA (fT (K n )) = dim fA·T (K n ) dim(fA ◦ fT )(K n ) = SRg(A · T ) . = b) Es ist SRg(S · A) dim fS·A (K n ) = dim fS (fA (K n )) , = und Hilfssatz 4.5.6, angewendet auf den Untervektorraum fA (K n ) von K m , ergibt dim fS (fA (K n )) = dim fA (K n ) , also SRg(S · A) dim fA (K n ) = = SRg(A) . Insgesamt folgt aus b), angewendet auf A · T statt A , und aus a) : SRg(S · A · T ) (2) Es ist ZRg(A) t = SRg(A · T ) = SRg(t A) , (S · A · T ) = t = SRg(A) . und T ·t A ·t S nach 4.5.2 (4) , und nach 4.5.2 (5) sind auch t T und t S invertierbar, also gilt nach (1) : ZRg(S · A · T ) (1) = = SRg(t (S · A · T )) SRg(t A) = ZRg(A) . 135 = SRg(t T ·t A ·t S) 2 Satz und Definition 4.5.8 : Seien m, n ∈ N , K ein Körper und A ∈ M (m × n, K) . Dann gilt SRg(A) = ZRg(A) , d. h. Zeilenrang und Spaltenrang von A sind gleich. Wir nennen diese Zahl den Rang von A , also Rg A Beweis : Sei K := L := := SRg(A) = ZRg(A) . (e1 , . . . , en ) die kanonische Basis von K n und (f 1 , . . . , f m ) die kanonische Basis von K m . Dann gilt ∀ j ∈ n : fA (ej ) = A · ej aj = = n X akj f k , also k=1 MLK (fA ) = A . Nun haben wir in (4.3.13)(*) (bei der Dimensionsformel für lineare Abbildungen) bewiesen: Es gibt eine Basis B := (w1 , . . . , wr ) von fA (K n ) und eine Basis A := (u1 , . . . , ur , v1 , . . . , vk ) von K n (also r + k = n), so dass fA (uj ) = wj für j ∈ r und fA (vl ) = 0 für l ∈ k ist. Ergänzen wir B zu einer Basis C := (w1 , . . . , wr , wr+1 , . . . , wm ) von K m , so wird nach (4.4.12): B := MCA (fA ) = 1 0 | .. r Zeilen . | 0 0 1 | − − − + − 0 | 0 Er | 0 = − + − ∈ M (m×n, K) . 0 | 0 r Spalten Für die Matrix B gilt nun offensichtlich SRg(B) = ZRg(B) . Andererseits gilt nach der Formel für die Koordinatentransformation aus (4.4.17) : MLK (fA ) = MLC ( idK m ) · MCA (fA ) · MAK ( idK n ) , 136 also mit T := MAK ( idK n ) ∈ GL(n, K) , S := MLC ( idK m ) ∈ GL(m, K) : A = S·B·T , und nach dem Hilfssatz 4.5.7 : SRg(A) ↓ = SRg(B) = ZRg(B) ↓ = ZRg(A) . 2 Wie kann man nun den Rang praktisch berechnen ? Es ist dazu nicht nötig, Basen von K n bzw. K m zu finden, so dass die Matrix von fA bezüglich dieser Basen die Form Er | 0 − + − mit r = RgA 0 | 0 hat, es geht etwas einfacher. Man überlegt sich, dass gewisse Umformungen den Rang von A nicht ändern : Definition 4.5.9 : Sei A ∈ M (m × n, K) , mit Zeilenvektoren a1 , . . . , am ∈ K n (als Zeilen geschrieben). Unter einer elementaren Zeilenumformung von A versteht man eine Umformung der folgenden Art: (I) Multiplikation der k−ten Zeile mit λ ∈ K \ {0} : Aus a1 a1 .. .. . . A = ak wird AI := λak . . . .. .. am am (II) Addition der j−ten Zeile zur k−ten Zeile, j 6= k : Aus a1 a1 .. .. . . ak ak + aj . .. wird AII := . . A = . . a a j j . .. .. . am am Durch Hintereinanderausführung mehrerer Umformungen vom Typ (I) oder (II) erhält man noch folgende Umformungen: 137 (III) Addition des λ−fachen der j−ten Zeile zur k−ten Zeile, k 6= j , λ ∈ K : Aus .. .. . . ak ak + λaj . .. III , A = := . .. wird A a a j j .. .. . . und zwar erhält man das folgendermaßen: Für λ = 0 macht man gar nichts. Für λ 6= 0 formt man so um : .. .. .. .. . . . . ak ak ak + λaj a + λa I II I mit λ−1 k . j . −→ . −→ . .. .. .. .. −→ a λa λa aj j j j .. .. .. .. . . . . (IV) Vertauschen der k−ten Zeile mit der j−ten Zeile, k 6= j : Aus .. .. . . ak aj . wird AIV := ... , . A = . a a j k .. .. . . und zwar erhält man .. . ak I . −→ .. a j .. . III −→ das folgendermaßen: .. .. . . ak ak II . −→ .. .. . −a a −a j j k .. .. . . .. . ak − (ak − aj ) .. . ak − aj .. . .. . aj .. . = a −a j k .. . 138 .. . aj .. . a k .. . II −→ . Entsprechend definiert man elementare Spaltenumformungen . Hilfssatz 4.5.10 : Entsteht B aus A durch elementare Zeilen- bzw. Spaltenumformungen, so gilt Rg A = Rg B . Beweis für Zeilenumformungen: Es reicht, den Satz für eine el. Umformung vom Typ I oder II zu beweisen. Durch Induktion nach der Anzahl solcher Umformungen folgt er dann auch für endlich viele Umformungen vom Typ I - IV : I) Es ist AI = Sk (λ) · A mit 1 0 .. .. . . 0 1 0 Sk (λ) := 0 . . . 0 λ 0 . . . 0 ←− k − te Zeile , 0 1 . . .. .. 0 0 1 ↑ k−te Spalte, Sk (λ) ∈ M (m × m, K) , sogar Sk (λ) ∈ GL(m, K) wegen Sk (λ) · Sk (λ−1 ) = Sk (λ−1 ) · Sk (λ) = Em . Nach Hilfssatz 4.5.7 und Satz 4.5.8 folgt RgAI = RgA . II) Es ist AII = Qjk (1) · A mit 1 0 .. .. . 0 . 0 1 0 0 . . . 0 1 0 . . . 0 λ 0 . . . 0 ←− k − te Zeile , 1 0 j . . .. .. Qk (λ) := 1 0 0 1 0 0 1 . . .. .. 0 1 ↑ j−te Spalte, 139 für λ ∈ K . Es ist Qjk (λ) ∈ M (m × m, K) , sogar Qjk (λ) ∈ GL(m, K) , denn es existiert Qjk (λ)−1 = Qjk (−λ) . Nach Hilfssatz 4.5.7 und Satz 4.5.8 folgt RgAII = RgA . Für Spaltenumformungen folgt die Behauptung daraus wegen RgA = SRg(A) = ZRg(t A) = Rgt A . Definition und Satz 4.5.11 : Man sagt, eine Matrix M ∈ M (m × n, K) hat Zeilenstufenform , wenn es Zahlen j1 , . . . , jr ∈ n gibt mit 1 ≤ j1 < j2 < . . . < jr ≤ n , so dass B die Form | | b1j1 | | ∗ b2j2 ... | | 0 brjr hat, mit b1j1 , . . . , brjr 6= 0 , Nullen unterhalb der “Stufenlinie” und irgendwelchen Einträgen oberhalb der bkjk . Es gilt dann RgB = ZRg(B) = r . Beweis : (b1 , . . . , br ) ist eine Basis von span(b1 , . . . , br , . . . , bm ) , denn br+1 , . . . , bm = 0 , und aus r P β k bk = 0 k=1 folgt zunächst, wenn man die j1 −te Komponente dieser Summe betrachtet : β1 b1j1 = 0 , also wegen b1j1 6= 0 : β1 = 0 . r P Mit der Gleichung βk bk = 0 kann man so fortfahren und erhält k=2 140 0 = β2 = . . . = βr Also ist ZRg(B) = r . . 2 Bei einer Matrix in Zeilenstufenform kann man also den Rang leicht ablesen, es ist die “Anzahl der Stufen” dieser Matrix. Es gilt nun Satz 4.5.12 : Jede Matrix A ∈ M (m × n, K) kann man durch endlich viele elementare Zeilenumformungen auf Zeilenstufenform bringen. Beweis : Wir machen hier keinen exakten Induktionsbeweis, sondern geben die Schritte an, die man praktisch macht und auch so programmieren kann: Ist A = 0 , so sind wir fertig: A hat Zeilenstufenform, mit 0 Stufen. (∗) Sei nun A 6= 0 , so gibt es mindestens ein akj 6= 0 . Die j1 −te Spalte sei diejenige mit dem kleinsten Index, in der nicht nur Nullen stehen, also a1 = . . . = aj1 −1 = 0 , und ∃ k ∈ m : akj1 6= 0 . Wenn nicht schon a1j1 6= 0 ist, vertauschen wir die 1. mit der k−ten Zeile (das ist eine Umformung vom Typ IV) und erhalten eine Matrix A0 mit a01j1 6= 0 . In der Matrix A0 addieren wir nun zur k−ten Zeile, k = 2, . . . , m , jeweils a0kj1 das − 0 −fache der 1.Zeile, das sind m − 1 Umformungen vom Typ III, a1j1 und erhalten so eine Matrix A00 mit a0kj a00kj1 = a0kj1 − 0 1 · a01j1 = 0 . a1j1 00 A hat also die Form A00 = | | a001j1 0 .. . 0 | | | ∗ B1 . Ist nun B1 = 0 oder j1 = n , so sind wir fertig, A00 hat Zeilenstufenform. Anderenfalls ist B1 eine Matrix mit m − 1 Zeilen, und wir fangen wieder bei (∗) an, mit B1 statt A . Nach r solchen Schritten, r ≤ m , erhält 141 man eine Matrix der Form B = | | b1j1 | | ∗ b2j2 ... | | 0 brjr . Bemerkung 4.5.13 : Unser Problem, den Rang einer Matrix zu bestimmen, ist damit gelöst: Man formt die Matrix durch elementare Zeilenumformungen so um, dass man auf eine Matrix in Zeilenstufenform kommt, die denselben Rang hat. Man kann zur Vereinfachung der Matrix auch elementare Spaltenumformungen verwenden; diese ändern den Rang auch nicht. 4.6 Lineare Gleichungssysteme Definition 4.6.1 : Sei K ein Körper, m, n ∈ N , b1 A = (akj ) ∈ M (m × n, K) und b = ... ∈ K m bm seien gegeben. Dann heißen die m Gleichungen a11 x1 + . . . + a1n xn = b1 .. .. .. (1) . . . a x + . . . + a x = b m1 1 mn n m , wobei x1 , . . . , xn gesucht sind, ein lineares Gleichungssystem von m Gleichungen mit n Unbekannten. Fasst man den gesuchten Vektor x1 x = ... ∈ K n xn als n × 1−Matrix und b als m × 1−Matrix auf, so kann man statt (1) kürzer schreiben: 142 (2) A·x = b . Das System (1) bzw. (2) heißt homogen , falls b = 0 ist, sonst inhomogen. Die Menge Lös(A, b) := { x ∈ Kn | A · x = b } ⊂ Kn heißt die Lösungsmenge von (1) bzw.(2) . A · x = b heißt lösbar , wenn 6= Lös(A, b) ∅ ist. Bemerkung 4.6.2 : Zu A ∈ M (m × n, K) haben wir nach (4.5.5) die lineare Abbildung fA : K n −→ K m , fA (x) := A · x . Statt (2) kann man daher auch (3) fA (x) = b schreiben. Auf diese Weise können wir unsere Sätze über lineare Abbildungen auf lineare Gleichungssysteme anwenden. Satz 4.6.3 : Das lineare Gleichungssystem A · x = b sei lösbar, und a ∈ K n sei eine Lösung. Dann ist die Lösungsmenge Lös(A, b) = a + ker fA := { a + y | y ∈ ker fA } , wobei fA (x) = A · x ist. Man erhält also alle Lösungen von A · x = b , indem man zu einer festen Lösung a alle Lösungen des “zugehörigen homogenen Systems” A · y = 0 addiert. Beweis : 1) Sei x ∈ Lös(A, b) , dann folgt wegen a ∈ Lös(A, b) : fA (x) = b und fA (a) = b , also für y := x − a : fA (y) = fA (x) − fA (a) = 0 , y ∈ ker fA , also x = a + y mit y ∈ ker fA . 2) Sei x = a + y mit y ∈ ker fA , dann gilt fA (x) = fA (a)+fA (y) = b+0 = b , also x ∈ Lös(A, b) . Bemerkung 4.6.4 : Bei einem inhomogenen linearen Gleichungssystem fA (x) = b , also mit b 6= 0 , ist Lös(A, b) kein Untervektorraum von K n , denn wegen fA (0) = 0 6= b ist 0 ∈ / Lös(A, b) . Bei einem homogenen linearen Gleichungssystem fA (x) = 0 ist Lös(A, 0) = ker fA , also Lös(A, 0) ein Untervektorraum von K n , also 0 ∈ Lös(A, 0) ; das System hat also auf jeden Fall die triviale Lösung 143 x = 0 , und es hat nichttriviale Lösungen, also Lösungen 6= 0 , wenn ker fA 6= {0} , also dim ker fA > 0 ist. Diese Dimension kann man mit der Dimensionsformel (4.3.13) berechnen: Satz 4.6.5 : Sei A ∈ M (m×n, K) , dann gilt für den Lösungsraum Lös(A, 0) von A · x = 0 : dim Lös(A, 0) = n − RgA . Beachte: n ist die Anzahl der Unbekannten im System A · x = 0 . Beweis : Es ist Lös(A, 0) = ker fA für fA : K n −→ K m , fA (x) = A · x , und nach der Dimensionsformel (4.3.13) gilt für fA : dim K n = dim ker fA + dim fA (K n ) , also n = dim Lös(A, 0) + dim fA (K n ) . Sei (e1 , . . . , en ) die kanonische Basis des K n , dann ist (fA (e1 ), . . . , fA (en )) ein Erzeugendensystem von fA (K n ) . Nun gilt für j ∈ n : a1j fA (ej ) = A · ej = ... = aj , amj wobei aj der j−te Spaltenvektor von A ist. Also gilt dim fA (K n ) = dim span(a1 , . . . , an ) = SRg(A) = RgA . 2 Damit wissen wir alles über homogene lineare Gleichungssysteme. Wann ist nun ein inhomogenes System A · x = b lösbar ? Definition 4.6.6 : Sei A ∈ M (m × n, K) und b ∈ K m . Dann heißt die Matrix A die einfache Matrix des Systems A · x = b und die m × (n + 1)−Matrix, die entsteht, wenn man zu A den Vektor b als zusätzliche Spalte nimmt, also a11 . . . a1n b1 .. .. (A, b) := ... . . am1 . . . amn bm die erweiterte Matrix des Systems A · x = b . 144 Satz 4.6.7 : Für die Lösungsmenge des linearen Gleichungssystems A·x = b mit A ∈ M (m × n, K) , Lös (A, b) 6= ∅ ⇐⇒ RgA = b ∈ Km Rg (A, b) gilt : , wobei (A, b) die erweiterte Matrix des Systems ist. Beweis : Sei fA : K n −→ K m x 7−→ A · x , , dann gilt: Lös (A, b) 6= ∅ ⇐⇒ ∃ x ∈ K n : fA (x) ⇐⇒ b ∈ fA (K n ) . = b Wie wir beim Beweis von Satz 4.6.5 gesehen haben, ist fA (K n ) = span(a1 , . . . , an ) , wobei a1 , . . . , an die Spaltenvektoren von A sind, also gilt Lös (A, b) 6= ∅ b ∈ span(a1 , . . . , an ) ⇐⇒ span(a1 , . . . , an , b) = span(a1 , . . . , an ) 4.2.24 (2) ⇐⇒ dim span(a1 , . . . , an , b) = dim span(a1 , . . . , an ) ⇐⇒ ⇐⇒ Rg (A, b) = RgA . Man mache sich bei jedem Schritt klar, warum “ ⇐⇒ ” gilt. 2 Es kann durchaus sein, dass A · x = b mehrere Lösungen hat. Es gilt Satz 4.6.8 : Für A ∈ M (m × n, K) und b ∈ K m sind folgende Aussagen gleichbedeutend: (i) A · x = b ist eindeutig lösbar. (ii) RgA = Rg (A, b) = n . Beweis : (i) =⇒ (ii) : A · x = b sei eindeutig lösbar, dann ist A · x = b lösbar, und nach Satz 4.6.7 folgt RgA = Rg (A, b) . Für die Lösungsmenge von A · x = b gilt nach Satz 4.6.3 : 145 Lös (A, b) = a + ker fA , wobei a eine feste Lösung ist. Da A · x = b eindeutig lösbar ist, ist ker fA = {0} , also dim ker fA = 0 , dim Lös(A, 0) = 0 , also nach Satz 4.6.5 : n − RgA = 0 , also n = RgA . (ii) =⇒ (i) : Es gelte RgA = Rg (A, b) = n . Wegen RgA = Rg (A, b) folgt nach Satz 4.6.7 : A · x = b ist lösbar, und nach Satz 4.6.3: Lös (A, b) = a + ker fA , wobei a eine Lösung ist, und nach Satz 4.6.5: dim ker fA = dim Lös(A, 0) = n − RgA = 0 , also ker fA = {0} , Lös (A, b) = {a} . 2 - Wie kann man nun ein lineares Gleichungssystem A · x = b praktisch lösen? Man bringt dazu die erweiterte Matrix (A, b) durch elementare Zeilenumformungen auf Zeilenstufenform (B, c) und löst dann B·x = c , was, wie wir sehen werden, ganz einfach ist. Zunächst Hilfssatz 4.6.9 : Wird aus der m × (n + 1)−Matrix (A, b) durch endlich viele elementare Zeilenumformungen die Matrix (B, c) , so gilt Lös (A, b) = Lös(B, c) , d.h. an der Lösungsmenge ändert sich nichts. Beweis : Beim Beweis von Hilfssatz 4.5.10 haben wir gesehen, dass man elementare Zeilemformungen einer Matrix A durch Multiplikation von links mit Matrizen aus GL(m, K) erhält : Aus A ∈ M (m × n, K) wird F1 · F2 · . . . · Fr · A mit r ∈ N0 und F1 , . . . , Fr ∈ GL(m, K) . Da GL(m, K) eine Gruppe ist, ist auch r Q F := Fj ∈ GL(m, K) , j=1 und durch elementare Zeilenumformungen wird aus (A, b) also die Matrix F · (A, b) . Nun gilt für x ∈ K n : A · x = b ⇐⇒ F · A · x = F · b , , wobei man für “⇐= ” braucht, dass F invertierbar ist. Also ist Lös (A, b) = Lös(F · A, F · b) = Lös(B, c) . 2 Warnung : Für elementare Spaltenumformungen an (A, b) gilt 4.6.9 nicht. Sie ändern zwar den Rang von (A, b) nicht, wohl aber die Lösungsmenge von A · x = b . 2 146 (4.6.10) Gaußsches Eliminationsverfahren : Gegeben sei ein lineares Gleichungssystem A · x = b mit A ∈ M (m × n, K) , b ∈ K m gegeben, und x ∈ K n gesucht. Dann schreibt man sich die erweiterte Koeffizientenmatrix (A, b) auf und bringt sie, wie in Satz 4.5.12 beschrieben, durch endlich viele elementare Zeilenumformungen auf Zeilenstufenform (B, c) , und nach Hilfssatz 4.6.9 sind die Lösungen von B · x = c genau die Lösungen von A · x = b , und es gilt nach Hilfssatz 4.5.10 : RgA = RgB und Rg (A, b) = Rg(B, c) . Die Matrix (B, c) hat die Form | | | | b1j1 | | ∗ b2j2 .. . | | 0 brjr | | | | | | | | c1 .. . .. . cr cr+1 0 und daraus kann man alles ablesen, was man wissen möchte: a) Ist cr+1 6= 0 , so ist RgB = r , Rg(B, c) = r + 1 , also ist das System nach Satz 4.6.7 nicht lösbar. b) Ist cr+1 = 0 , so ist RgB = Rg(B, c) = r , das System ist also lösbar, und eindeutig lösbar, wenn auch noch r = n = Anzahl der Unbekannten ist. Die Lösungen erhält man folgendermaßen: Für die Unbekannten xj , j ∈ / {j1 , . . . , jr } kann man beliebige Werte aus K einsetzen. Die Unbekannten xj1 , . . . , xjr erhält man in Abhängigkeit von diesen Unbekannten, 147 wenn man die Gleichungen brjr xjr + . . . .. . = cr .. . b1j1 xj1 + . . . = c1 in dieser Reihenfolge nach xjr , . . . , xj1 auflöst. Man sieht das am besten an Beispielen. Beispiele 4.6.11 : 1) Gegeben sei das lineare Gleichungssystem x1 x1 3x1 2x1 2x1 + + + − + 2x2 4x2 2x2 2x2 6x2 Die erweiterte Matrix − x3 − 5x3 + 5x3 + 10x3 − 6x3 1 1 −1 1 4 −5 3 2 5 2 −2 10 2 6 −6 + x4 + 2x4 + 4x4 + x4 0 4 | 1 3 | 2 2 | 4 −1 | 1 7 | + + + − + 4x5 3x5 2x5 x5 7x5 2 1 12 11 3 = 2 = 1 = 12 = 11 = 3 bringen wir, wie im Beweis von Satz 4.5.12 beschrieben, auf Zeilenstufenform: 1 2 −1 0 4 | 2 0 2 −4 1 −1 | −1 0 0 6 (A , b ) = 0 −4 8 2 −10 | , 0 −6 12 4 −9 | 7 0 2 −4 1 −1 | −1 1 2 −1 0 4 | 2 0 2 −4 1 −1 | −1 00 00 , 0 0 0 4 −12 | 4 (A , b ) = 0 0 0 7 −12 | 4 0 0 0 0 0 | 0 1 2 −1 0 4 | 2 0 2 −4 1 −1 | −1 000 000 4 (A , b ) = 0 0 0 4 −12 | . 0 0 0 0 9 | −3 0 0 0 0 0 | 0 148 Wir sehen: RgA000 = Rg(A000 , b000 ) = 4 6= 5 , das System ist also lösbar, aber nicht eindeutig lösbar. Wir wählen x3 ∈ R beliebig und erhalten damit 1 9x5 = −3 , also x5 = − , 3 4x4 − 12x5 = 4 , also x4 = 1 + 3x5 = 0 , 1 1 2 1 2x2 −4x3 +x4 −x5 = −1 , also x2 = 2x3 − −0− · = 2x3 − , 2 2 3 3 4 4 14 − 3x3 . x1 + 2x2 − x3 + 4x5 = 2 , also x1 = 2 − 4x3 + + x3 + = 3 3 3 2) x1 + 2x2 − x3 = 1 , 2x1 − x2 + x3 = 2 , −x1 + 3x2 − 2x3 = 1 . Die erweiterte Matrix ist 1 2 −1 | 1 (A, b) = 2 −1 1 | 2 , −1 3 −2 | 1 wir bringen sie auf Zeilenstufenform: 1 2 −1 | 0 0 0 −5 3 | (A , b ) = 0 5 −3 | 1 2 −1 | 00 00 0 −5 3 | (A , b ) = 0 0 0 | Wir sehen: Es war RgA = 2 , aber Rg (A, b) = 3 , das System ist also nicht lösbar. 1 0 , 2 1 0 . 2 2 Für das nächste Rechenverfahren brauchen wir Satz 4.6.12 : Sei n ∈ N und K ein Körper. Dann sind für eine Matrix A ∈ M (n × n, K) die folgenden Aussagen gleichbedeutend: (i) A ∈ GL(n, K) , (ii) Rg A = n , (iii) fA : K n −→ K n , fA (x) := A·x ist ein Isomorphismus. Beweis : Sei K := (e1 , . . . , en ) die kanonische Basis des K n (als Spaltenvektoren geschrieben), dann ist A = MKK (fA ) . 149 (i) =⇒ (ii) : Ist A ∈ GL(n, K) , so gilt 4.5.7 RgA = ZRg(A) = ZRg(A · En ) = ZRg(En ) = n . (ii) =⇒ (iii) : Wenn (ii) gilt, haben wir n = Rg A = dim span(a1 , . . . , an ) dim span(fA (e1 ), . . . , fA (en )) = dim fA (K n ) , = also fA (K n ) = K n , also ist fA surjektiv. Nach der Dimensionsformel (4.3.13) ist dim ker fA = 0 , also ist fA injektiv. Also ist fA ein Isomorphismus. (iii) =⇒ (i) : Ist fA ein Isomorphismus, so ist fA bijektiv, wir haben also die Umkehrfunktion G : K n −→ K n , die, wie wir nachrechnen können, wiederum K−linear ist. Aus fA ◦ G = G ◦ fA = idK n folgt nach (4.4.15) : MKK (fA ) · MKK (G) MKK (G) · MKK (fA ) = = MKK ( idK n ) , also für B := MKK (G) : A·B = B·A = En , 2 also A ∈ GL(n, K) . Anwendung 4.6.13 : Man kann das Gaußsche Eliminationsverfahren anwenden, um mit geringem Rechenaufwand das Inverse einer Matrix A ∈ M (n × n, K) auszurechnen, und man sieht bei der Rechnung auch, ob es existiert : Die inverse Matrix B = (bkj ) := A−1 , erfüllt, falls sie existiert, die Gleichung A · B = En , also n X 1 für k = j akl · blj = δkj = ∀ k, j ∈ n : 0 für k 6= j . l=1 Das sind n2 lineare Gleichungen mit den n2 Unbekannten bkj , aber man muss erfreulicherweise nicht alle diese Gleichungen hinschreiben: Für jedes feste j ∈ n hat man n Gleichungen mit n Unbekannten b1j , . . . , bnj : n X akl · blj = l=1 150 δkj , also A · bj = ej mit dem unbekannten Spaltenvektor bj . Die einfache Matrix A ist für alle j ∈ n dieselbe, nur die “rechte Seite” hängt von j ab. Wir lösen nun diese n Gleichungssysteme (mit jeweils n Gleichungen mit n Unbekannten) dadurch, dass wir alle “rechten Seiten”, also die Spaltenvektoren ej , auf einmal rechts neben die Matrix A schreiben, das ergibt die Matrix a11 . . . a1n | 1 0 .. .. .. . = (A | En ) , . . | an1 . . . ann | 0 1 und mit allen rechten Seiten gleichzeitig, also mit En , die elementaren Zeilenumformungen ausführen. Wir kommen dann zunächst auf eine Matrix der Form ( A0 | C 0 ) . Hat dieses A0 nun weniger als n Stufen, so war Rg A = Rg A0 < n und nach Satz 4.6.12 ist A nicht invertierbar, wir brauchen also nicht weiter zu rechnen. Hat man n Stufen, so ist | a011 ∗ | 0 | a 22 | A0 = , mit a011 , . . . , a0nn 6= 0 , .. . 0 0 | ann | und man führt weitere elementare Zeilenumformungen an (A0 | C 0 ) aus: Man dividiert die k−te Zeile durch a0kk , für k = 1, . . . , n, und addiert dann, beginnend mit der letzten Zeile, passende Vielfache jeder Zeile zu den vorhergehenden, so dass man auch oberhalb der Diagonale nur noch Nullen hat. Insgesamt hat man dann die Matrix ( En | C ) , und wenn man sich nun wieder die einzelnen Gleichungssysteme ansieht, so steht da E n · bj = c j für j = 1, . . . , n, 151 für die “unbekannten” Vektoren bj . Also gilt cj = bj , C = B , die rechts stehende Matrix ist also die Inverse von A : ( En | A−1 ) . 2 4.7 Summen von Vektorräumen Definition und Satz 4.7.1 : Sei K ein Körper, n ∈ N , und für jedes j ∈ n sei Vj ein K−Vektorraum. Dann ist nach Definition 1.0.16 das cartesische Produkt Y Vj := V1 × V2 × . . . × Vn j∈n definiert. Diese Menge wird ein K−Vektorraum, wenn man für Y (v1 , . . . , vn ) , (w1 , . . . , wn ) ∈ Vj und λ ∈ K definiert : j∈n (v1 , . . . , vn ) + (w1 , . . . , wn ) λ(v1 , . . . , vn ) := (v1 + w1 , . . . , vn + wn ) , := (λv1 , . . . , λvn ) . Dieser K−Vektorraum heißt das äußere direkte Produkt von V1 , . . . , Vn . Sind V1 , . . . , Vn endlichdimensional, dim Vj = kj so ist auch Y für j ∈ n , Vj endlichdimensional, j∈n dimK Y Vj = k1 + . . . + kn . j∈n Beweis : Dass für Y Vj die Vektorraum-Axiome gelten, kann man nach- j∈n rechnen. Hat man dimK Vj = kj ∈ N0 für j ∈ n , so hat man für jedes j ∈ n Basen (j) (j) (b1 , . . . , bkj ) von Vj (1) , (1) und man sieht, dass (2) (2) ((b1 , 0, . . . , 0) , . . . , (bk1 , 0, . . . , 0) , (0, b1 , 0, . . . , 0) , . . . , (0, bk2 , 0, . . . , 0) , 152 (n) (n) . . . , (0, . . . , 0, b1 ) , . . . , (0, . . . , 0, bkn )) Y eine Basis von Vj ist. j∈n 2 - Meistens benutzt man diese Konstruktion für n = 2 . Aber man kann diese Konstruktion sogar für beliebig (möglicherweise unendlich) viele Vektorräume machen : Definition und Satz 4.7.2 : Sei I eine nichtleere Menge, K ein Körper, und für jedes j ∈ I sei Vj ein K−Vektorraum. Dann setzt man ( ) Y [ Vj := (vj )j∈I ∈ F(I, Vj ) ∀ j ∈ I : vj ∈ Vj , j∈I j∈I man nimmt also die Menge aller Familien (vj )j∈I , bei denen vj ∈ Vj für jedes j ∈ I gilt, und definiert und λ ∈ K : für (vj )j∈I , (wj )j∈I dann wird Y (vj )j∈I + (wj )j∈I := (vj + wj )j∈I λ (vj )j∈I := (λ vj )j∈I , , Vj ein K−Vektorraum, den man das äußere direkte j∈I Produkt der Vektorräume Vj , j ∈ I , nennt. Man hat darin den Untervektorraum ( ) M Y 0 Vj := (vj )j∈I ∈ Vj ∀ j ∈ I : vj = 0 , j∈I j∈I also M die Menge der Familien, bei denen fast alle Komponenten Null sind. Vj heißt die äußere direkte Summe der Vj , j ∈ I , und für eine j∈I endliche Indexmenge I ist M Vj = j∈I Y Vj , j∈I es ist dann also egal, ob man von der äußeren direkten Summe oder dem äußeren direkten Produkt spricht. Der Beweis dieser Aussagen ist leicht. 2 153 (4.7.3) Beachte hierbei, dass die Vj beliebige K−Vektorräume sind. Sie können ganz verschieden sein. Es kann aber auch V1 = V2 =: V und I = {1, 2} gelten, dann hat man M V1 × V2 = Vj = V × V , j∈2 und wenn dim V = n ist, ist dim(V × V ) = 2n . Soweit war alles ganz einfach. Etwas verwirrend wird die Situation dadurch, dass man noch eine andere Konstruktion hat: Definition 4.7.4 : Sei V ein K−Vektorraum, r ∈ N und W1 , . . . , Wr seien Untervektorräume von V . Dann setzt man r X Wj := W1 + . . . + Wr j=1 := { v ∈ V | ∀ j ∈ r ∃ wj ∈ Wj : v = w1 + . . . + wr } = { w1 + . . . + wr | ∀ j ∈ r : wj ∈ Wj } . Satz und Definition 4.7.5 : Sei V ein K−Vektorraum, r ∈ N , und W1 , . . . , Wr seien Untervektorräume von V . Dann sind folgende Aussagen gleichbedeutend : r P (1) Zu jedem w ∈ Wj gibt es ein eindeutig bestimmtes r−tupel j=1 (w1 , . . . , wr ) ∈ W1 × . . . × Wr mit w (2) (3) = w1 + . . . + wr . Für jedes j ∈ r sei wj ∈ Wj , und es sei w1 + . . . + wr = 0 , dann folgt: ∀ j ∈ r : wj = 0 . X Für alle k ∈ r ist Wk ∩ Wj = {0} . j∈r\{k} Falls eine dieser drei Aussagen erfüllt ist (und damit alle drei Aussagen gelr X ten) , nennen wir W := Wj die innere direkte Summe der Wj und j=1 schreiben W = W1 ⊕ W2 ⊕ . . . ⊕ Wr = r M j=1 154 Wj . Beweis : (1) r X (2) ist trivial: Wenn sich jeder Vektor w ∈ =⇒ Wj j=1 eindeutig als w = w1 + . . . + wr mit wj X ∈ Wj darstellen läßt, dann auch 0 . Wj , dann gibt es zu jedem (2) =⇒ (3) : Sei w ∈ Wk ∩ j∈r\{k} j ∈ r \ {k} ein wj ∈ Wj mit X w = wj , und es ist wk := −w ∈ Wk , also j∈r\{k} 0 r X = wj mit wj ∈ Wj für alle j ∈ r . j=1 Nach (2) folgt daraus ∀ j ∈ r : wj = 0 , (3) =⇒ insbesondere w = −wk = 0 . r X (1) : Sei w ∈ Wj , dann gibt es w1 , . . . , wr mit j=1 w = r X wj und ∀ j ∈ r : wj ∈ Wj vj mit ∀ j ∈ r : vj ∈ Wj . Sei auch j=1 w = r X , j=1 dann gilt für jedes k ∈ r : vk − wk = X (wj − vj ) ∈ j∈r\{k} X Wj ∩ Wk , j∈r\{k} und nach (3) : vk − wk = 0 , also ∀ k ∈ r : vk = wk . 2 Bemerkung 4.7.6 : Sei V ein K−Vektorraum, r ∈ N , und seien W1 , . . . , Wr Untervektorräume von V , für die die Aussage 155 Für alle k ∈ r ist Wk ∩ (3) X Wj = {0} j∈r\{k} gilt, dann hat man also die innere direkte Summe r X Wj . Man kann aber j=1 auch die Vektorräume Y Wj nehmen und gemäß Definition 4.7.1 deren äußeres direktes Produkt Wj bilden (das wir in 4.7.2 auch als äußere direkte j∈r Summe bezeichnet hatten). Erfreulicherweise gibt es keine Verwechslungsgefahr, denn innere und äußere direkte Summe sind in diesem Fall isomorph. Genauer: Sei Y ϕ : Wj r M −→ j∈r Wj (w1 , . . . , wr ) 7−→ w1 + . . . + wr , , j=1 | {z } | {z } äußere , innere direkte Summe dann ist ϕ ein Isomorphismus. Y Wj Beweis : Seien (v1 , . . . , vr ) , (w1 , . . . , wr ) ∈ und λ ∈ K , dann j∈r gilt ϕ((v1 , . . . , vr ) + (w1 , . . . , wr )) = v1 + w1 + . . . + vr + wr = = = ϕ(v1 + w1 , . . . , vr + wr ) v1 + . . . + vr + w1 + . . . + wr ϕ(v1 , . . . , vr ) + ϕ(w1 , . . . , wr ) , ϕ(λ(v1 , . . . , vr )) = = ϕ(λv1 , . . . , λvr ) λ(v1 + . . . + vr ) = = λv1 + . . . + λvr λϕ(v1 , . . . , vr ) , also: ϕ ist K−linear. ϕ ist surjektiv, denn r M Wj = { w1 + . . . + wr | ∀ j ∈ r : wj ∈ Wj } j=1 = { ϕ(w1 , . . . , wr ) | ∀j ∈ r : wj ∈ Wj } = ϕ r Y ! Wj j=1 Und: ϕ ist injektiv, denn sei (w1 , . . . , wr ) ∈ ker ϕ , dann ist w1 + . . . + wr = 0 . Es gilt die Aussage (3), also auch die Aussage (2), von Satz 4.7.5, also ∀ j ∈ r : wj = 0 , also (w1 , . . . , wr ) = (0, 0, . . . , 0) . 156 . 2 Folgerung 4.7.7 : Äußere und innere direkte Summe von Vektorräumen W1 , . . . , Wr (wobei man die innere direkte Summe nur bilden kann, wenn alle Wj , j ∈ r , Unter-Vektorräume eines Vektorraums V sind), sind zwar nicht gleich, aber isomorph. 2 4.8 Anwendung: Körpererweiterungen Bemerkung 4.8.1 : Sei (K, +, ·) ein Körper. Dann suchen wir zunächst den “kleinsten” in K enthaltenen Körper, den wir P (K) nennen, d.h. den Körper P (K) , für den für jeden Unterkörper U von K gilt: P (K) ⊂ U ⊂ K . P (K) heißt der Primkörper von K . P (K) ist dann ein Unterring von (K, +, ·) , und wenn wir das Einselement von K mal mit 1K bezeichnen, gilt 1K ∈ P (K) . Da (K, +) eine abelsche Gruppe ist, folgt mit Induktion ∀ n ∈ N0 : n 1K ∈ P (K) und da auch das Negative dazugehört, ∀ n ∈ Z : n 1K ∈ P (K) . n 1k bezeichnet dabei stets das n−fache von 1K . Also ist UK := { n 1K | n ∈ Z } eine Teilmenge von K, sogar ein Untering. Man braucht dazu die Potenzregeln 2.1.6 (umgeschrieben für die Vielfachen von 1K ), und die Regel (∗) aus dem Beweis von Satz 3.2.16. Die Abbildung ϕ : Z −→ UK , n 7→ n 1K ist dann ein surjektiver Ring-Homomorphismus. In Def. und Satz 3.2.16 hatten wir nun die Charakteristik von K definiert, und das ergibt für P (K) zwei Möglichkeiten: (1.) char K = p , p eine Primzahl: Dann ist p 1K = 0 , 157 p ist die kleinste natürliche Zahl n mit n 1K = 0 , und wir haben ker ϕ = (p) . Nach dem Homomorphiesatz für Ringe (3.1.11) haben wir genau einen RingIsomorphismus ι : Z/ ker ϕ −→ UK mit ι(a + ker ϕ) = ϕ(a) für a ∈ Z , ι : Z/(p) −→ UK a + (p) 7→ a 1K , also . Da Z/(p) ein Körper ist, ist auch UK ein Körper: Das Inverse eines Elements x ∈ UK \ {0} ist x−1 = ι((ι−1 (x))−1 ) mit (ι−1 (x))−1 ∈ Z/(p) . Es ist also P (K) = UK und damit P (K) ∼ = Z/(p) . (2.) char K = 0. Dann sind alle Elemente aus UK verschieden, denn wäre etwa n 1k = m 1k mit n, m ∈ Z , n < m , dann wäre m − n ∈ N, die Menge { k ∈ N | k 1K = 0 } wäre nichtleer, Widerspruch zu char K = 0. Die Abbildung ϕ ist nur ein Isomorphismus von Ringen, UK ist kein Körper. In P (K) liegen aber auch die Inversen der Elemente von UK \ {0}, wir setzen BK := (n 1K ) · (m 1K )−1 n, m ∈ Z ∧ m 6= 0 , dann ist BK ⊂ P (K) und ψ : Q −→ BK , n 7→ (n 1K ) · (m 1k )−1 m ist ein Ring-Isomorphismus. Dazu müssen wir nur zeigen, dass ψ wohldefiniert ist: Seien n, n0 ∈ Z , m, m0 ∈ Z \ {0}, dann gilt n n0 = 0 m m =⇒ n·m0 = m·n0 =⇒ =⇒ (n 1K )·(m0 1K ) = (m 1K )·(n0 1K ) (n 1K ) · (m 1K )−1 = (n0 1K ) · (m0 1K )−1 , 158 die Homomorphiebedingungen (RH1) - (RH3) sind offensichtlich erfüllt. Da Q ein Körper ist, ist es auch BK und damit P (K) = BK ∼ =Q . 2 Folgerung 4.8.2 : Für einen beliebigen Körper K haben wir also den Unterkörper P (K), und nach Folgerung 4.1.3 ist K ein P (K)−Vektorraum, wir haben also dimP (K) K ∈ N oder dimP (K) K = ∞ . Allgemein mit Körpererweiterungen beschäftigt man sich in der Algebra. Hier nur einige Beispiele 4.8.3 :(1) Sei K ein endlicher Körper. Dann ist auch P (K) endlich, also existieren eine Primzahl p mit P (K) ∼ = Z/(p) und ein n ∈ N mit dimP (K) K = n. Man kann dann nachzählen: #(K) = pn . Körper mit 6 Elementen braucht man also gar nicht erst zu suchen. (2) Der Primkörper von R und C ist also Q. Es ist dimQ R = ∞ . √ Zum Beweis kann man zeigen, dass die Familie ( p)p∈P eine linear unabhängige Familie ist, oder auch: Q ist abzählbar, d.h. es gibt eine bijektive Abbildung von Z auf Q, aber für R gilt das nicht. Das gehört aber in die Analysis. (3) Schreibt man die komplexen Zahlen z als a + i · b mit a, b ∈ R , so sind a und b eindeutig bestimmt. Daher ist (1, i) eine Basis des R−Vektorraums C, dimR C = 2 . ⊂ ⊂ Daraus sieht man, dass es keinen Körper K mit R 6= K 6= C gibt, weil es keine Zahl n ∈ N mit 1 < n < 2 gibt. (4) Für einen beliebigen Köper K und den Körper K(X) der rationalen Funktionen mit Koeffizienten aus K gilt dimK K(X) = ∞ . ⊂ ⊂ ⊂ ⊂ (5) Es gibt beliebig viele Körper K mit Q 6= K 6= R oder Q 6= K 6= C. Dazu gehören 159 √ √ Q( 2) := a + b · 2 a, b ∈ Q , √ √ Q( −3) := a + b · i · 3 a, b ∈ Q , auch Q(i) := { a + b · i | a, b ∈ Q } . Mit solchen Körpern und Unterringen davon beschäftigt man sich in der Zahlentheorie. (6) Es gibt keinen Körper K mit ⊂ C 6= K und dimC K = n ∈ N . Angenommen, es gibt doch so einen Körper K, dann haben wir ein a ∈ K \C. Die Familie (a0 , a1 , . . . , an ) ist dann eine linear abhängige Familie im C−Vektorraum K, da sie aus n + 1 Elementen besteht. Es gibt dann α0 , . . . , αn ∈ C mit (α0 , . . . , αn ) 6= 0 und n X α j aj = 0 , j=0 also ein Polynom f (X) := n X αj · X j ∈ C[X] \ {0} mit f (a) = 0 . j=0 Man hat dann k := deg f (X) , 0 ≤ k ≤ n, und nach dem Fundamentalsatz der Algebra (3.5.13) : ∃ c, b1 , . . . , bk ∈ C : f (X) = c · k Y (X − bj ) . j=1 Wegen f (a) = 0 folgt daraus a ∈ {b1 , . . . , bk } ⊂ C , Widerspruch. Sie sehen also, dass man Sätze und Methoden der Linearen Algebra in anderen Gebieten der Mathematik, insbesondere der Algebra und der Zahlentheorie, braucht ! 4.9 Die Algebra der n × n-Matrizen, Quaternionen Bemerkung 4.9.1 : Sei n ∈ N und K rin Körper. Nach Bemerkung 4.4.5 160 hat man eine Addition + : M (n×n, K)×M (n×n, K) −→ M (n×n, K) , ((akj ), (bkj )) 7→ (akj +bkj ) und eine äußere Operation ω, ω : K × M (n × n, K) −→ M (n × n, K) , (λ, (akj )) 7→ (λ · akj ) , so dass (M (n × n, K), +, ω) ein K−Vektorraum ist. Nach Definition 4.4.9 haben wir in M (n × n, K) auch noch eine Multiplikation · , und damit ist (M (n × n, K), +, ·) nach Satz 4.4.13 ein Ring. Die Regel (L) ∀ λ ∈ K ∀ A, B ∈ M (n×n, K) : λ(A·B) = (λA)·B = A·(λB) kann man nachrechnen. Man sagt: (M (n×n, K), +, ·, ω) ist eine K−Algebra: Defnition 4.9.2 : Sei K ein Körper. A sei eine Menge mit zwei Verknüpfungen +, · und einer äußeren Operation ω von K auf A, so dass gilt (R) (A, +, ·) ist ein Ring. (V) (A, +, ω) ist ein K−Vektorraum. (L) ∀ λ ∈ K ∀a, b ∈ A : λ(a · b) = (λa) · b = a · (λb) , dann heißt (A, +, ·, ω) (kurz: A) eine K−Algebra (Plural : K−Algébren). 2 Bemerkung 4.9.3 : Wir wollen die K−Algebra M (n × n, K) etwas genauer untersuchen. Nach Bemerkung 4.4.3 ist die Familie (Ejk )(j,k)∈n×n , wobei Ejk die Matrix ist, die am Schnittpunkt der j−ten Zeile mit der k−ten Spalte die 1 aus K hat und sonst nur Nullen, eine Basis des K−Vektorraums M (n × n, K). Für jedes A = (ajk ) ∈ M (n × n, K) gilt also A = n X ajk Ejk . j,k=1 Die Matrizen-Multiplikation wird nun sehr einfach, wenn man die Regel 4.4.7 (1) für die Multiplikation der Basiselemente verwendet: Es war Ejk · Ers = δkr δkr Ejs für j, k, r, s ∈ n, 1 für k = r = . 0 für k 6= r mit Definition und Satz 4.9.4 : Sei (R, +, ·) ein Ring. Dann heißt Z(R) := { a ∈ R | ∀ r ∈ R : a · r = r · a } 161 das Zentrum von R. Z(R) ist ein Unterring von R. Beweis : Sei 1 das Einselement von R. Dann ist 1 ∈ Z(R), also Z(R) 6= ∅. Für alle a, b ∈ Z(R) und alle r ∈ R gilt (a − b) · r = a · r − b · r = r · a − r · b = r · (a − b) und (a · b) · r = a · (b · r) = a · (r · b) = (a · r) · b = (r · a) · b = r · (a · b) , also a − b ∈ Z(R), a · b ∈ Z(R). 2 Wie sieht nun das Zentrum des Ringes M (n × n, K) aus? Es zeigt sich, dass nur die Matrizen dazu gehören, von denen man das sowieso erwartet: Satz 4.9.5 : Sei K ein Körper, n ∈ N. Dann ist Z(M (n × n, K)) = K En := { λEN | λ ∈ K } . Beweis : Für n = 1 ist das klar, da (M (1 × 1), ·) kommutativ ist und M (1 × 1, K) = K E1 ist. Sei nun n ≥ 2, und seien s, t ∈ n zwei Indizes mit s 6= t. Sei A = (ajk )(j,k)∈n×n ∈ Z(M (n × n, K)). Wir haben nach 4.4.3 : A = n X n X ajk Ejk . j=1 k=1 Dann gilt Est · A Est · = n X n X A · Est ajk Ejk , = j=1 k=1 n X n X ajk Est · Ejk n X n X ajk Ejk · Est , ajk Ejk · Est , j=1 k=1 = j=1 k=1 n X n X j=1 k=1 und nach der Multiplikationsregel in 4.4.7 : n X n X j=1 k=1 ajk δtj Esk = n X n X j=1 k=1 162 ajk δks Ejt . Links enthält die Summe über j höchstens einen Summanden ungleich 0, nämlich den mit j = t . Rechts enthält die Summe über k höchstens einen Summanden ungleich 0, nämlich den mit k = s. Wir erhalten n X atk Esk = ajs Ejt , j=1 k=1 n X (∗) n X atk Esk − n X ajs Ejt = 0 . j=1 k=1 Nun ist die Familie (Ejk )(j,k)∈n×n linear unabhängig. Wir sehen daher aus der Gleichung (∗): (1.) Für k 6= t ist atk = 0, da Esk in der zweiten Summe nicht vorkommt, ebenso: ajs = 0 für j 6= s. Jedenfalls ist A eine Matrix mit 0 außerhalb der Diagonale. (2.) Die Gleichung (∗) vereinfacht sich also zu att Est = ass Est , A ist also eine Diagonalmatrix, bei der alle Diagonalelemente gleich sind, etwa att =: λ ∈ K , A = λ En ∈ K En , also Z(M (n × n, K)) ⊂ K En . Dass K En ⊂ Z(M (n × n, K)) gilt, sieht man mit Regel (L) und der Tatsache En ∈ Z(M (n × n, K)). 2 In 3.1.8 haben wir gelernt, was das Ideal eines Ringes ist, hier haben wir den Satz 4.9.6 : Sei K ein Körper, n ∈ N . Dann enthält (M (n × n, K), +, ·) nur die Ideale {0} und M (n × n, K). Beweis : Sei I ein Ideal in M (n × n, K). Es kann I = {0} sein. Anderenfalls enthält I eine Matrix A = n X n X ajk Ejk , j=1 k=1 in der nicht alle ajk = 0 sind. Seien etwa s, t ∈ n mit ast 6= 0. Da I ein Ideal ist, enthält I mit A auch Ess · A = n X n X j=1 k=1 ajk Ess · Ejk = n X n X j=1 k=1 163 ajk δsj Esk = n X k=1 ask Esk , und I enthält auch Ess · A · Ett = n X ask Esk · Ett = k=1 n X ask δkt Est = ast Est , k=1 und auch ((ast )−1 En ) · Ess · A · Ett = (ast )−1 · ast Est = Est , für dieses feste Paar (s, t). Sei nun aber j ∈ n beliebig, dann enthält I auch (Ejs · Est ) · Etj = Ejt · Etj = Ejj und damit auch n P Ejj = En . Für eine beliebige Matrix B ∈ M (n × n, K) j=1 enthält I dann auch B = B · En . Also ist I = M (n × n, K). 2 Satz und Definition 4.9.7 : In M (2 × 2, C) sei u v H := u, v ∈ C −v u , wobei u das Konjugiert-Komplexe von u bezeichnet. Dann gilt: a) H ist ein Unterring von (M (2 × 2, C), +, ·), mit Einselement E2 . b) Wegen R ⊂ C ist ω(α, A) := α A für α ∈ R und A ∈ H definiert, und H wird auf diese Weise ein R−Vektorraum. Eine Basis dieses R−Vektorraums ist (E2 , I, J, K) mit i 0 0 1 0 i I := , J := , K := . 0 −i −1 0 i 0 Für die Produkte gilt I · J = −J · I = K , J · K = −K · J = I , K · I = −I · K = J , I · I = J · J = K · K = −E2 . H ist eine R−Algebra. c) Jedes Element aus H \ {0} besitzt bezüglich · ein Inverses. 164 d) Die Abbildung ϕ : C −→ H , u 7→ u 0 0 u ist ein injektiver Ringhomomorphismus. ϕ ist R−linear, aber nicht C−linear. (H, +, ·, ω) heißt die Algebra der ( Hamiltonschen ) Quaternionen . Beweis : a) Es ist H ⊂ M (2 × 2, C), 0 0 H 6= ∅ wegen ∈ H . Seien 0 0 u v x y , ∈H , −v u −y x also u, v, x, y ∈ C. Dann gilt u, v x, y u − x, v − y − = −v, u −y, x −v + y, u − x u − x, v−y = ∈H , −(v − y), u − x u·y+v·x x, y u · x − v · y, u, v · = −v · x − u · y, −v · y + u · x −y, x −v, u u · x − v · y, u·y+v·x = ∈H , −(u · y + v · x), (u · x − v · y) 1 0 1 0 ∈H . E2 = = 0 1 −0 1 u v b) Sei ∈ H , dann gibt es eindeutig bestimmte a, b, c, d ∈ R mit −v u u = a + ib , v = c + id , also u v a + ib c + id = = aE2 + bI + cJ + dK . −v u −c + id a − ib Also ist (E2 , I, J, K) eine Basis von H als R−Vektorraum. Die Produkte der Basiselemente rechnen wir hier nicht alle aus, vielleicht ein Beispiel: i 0 0 1 I ·J = · = K = −J · I . 0 −i −1 0 165 Dass H die Algebra-Bedingung (L) erfüllt, folgt daraus, dass M (2 × 2, C) eine C−Algebra ist. u v 0 0 c) Sei q := 6= , dann ist −v u 0 0 N (q) := u · u − v · (−v) = u · u + v · v = |u|2 + |v|2 ∈ R∗+ . Also ist 1 N (q) u −v v u 1 = N (q) u −v −(−v) u ∈H , wobei wir auch noch benutzt haben, dass H ein R−Vektorraum ist. Es gilt 1 1 u v u · u + v · v −u · v + v · u u −v · = −v u N (q) v u N (q) −v · u + v · u v · v + u · u 1 N (q) 0 = = E2 0 N (q) N (q) und ebenso 1 N (q) u −v v u u v · = E2 −v u . Wir haben also q −1 1 = N (q) u −v v u u v −v u für q = + . d) Schreiben wir zur Abkürzung · für + oder ·, so gilt für u, x ∈ C: ! + u · x 0 + + u 0 + x 0 ϕ(u · x) = = · = ϕ(u) · ϕ(x) , + 0 x 0 u 0 u · x und es gilt ϕ(1) = 1 0 0 1 = E2 , ϕ ist also ein Ring-Homomorphismus, und injektiv wegen ker ϕ = { u ∈ C | ϕ(u) = 0 } u 0 0 0 = = {0} . = u ∈ C 0 u 0 0 166 ϕ ist R− linear, denn für λ ∈ R , u ∈ C gilt λu 0 λu 0 u 0 ϕ(λ u) = = = λ = λ ϕ(u) . 0 λu 0 u 0 λu Für λ ∈ C gilt das zweite Gleichheitszeichen im Allgemeinen nicht! Bemerkung 4.9.8 : H erfüllt also alle Körperaxiome, bis auf die Kommutativität von · , was man an den Produkten der Basiselemente sieht. Man nennt H deshalb auch einen Schiefkörper . Wegen (4.9.7) (d) kann man C als Unterring von H auffassen. Aber H ist kein C−Vektorraum, und Körper ⊂ K mit C 6= K und dimC K ∈ N gibt es ja nach 4.8.3 (6) nicht ! (4.10) Aufgaben (4.1) a) C ist ein R-Vektorraum mit dimR C = 2. Zeigen Sie, dass die Abbildung : C −→ C , z 7→ z R−linear ist. Bestimmen Sie MBB ( ) bezüglich der Basis a1 ) B := (1, i) , a2 ) B := (1 + i, 1 − i). auch C−linear? b) Ist (4.2) (Hier werden einfache Analysis-Kenntnisse vorausgesetzt:) Im R−Vektorraum F(R, R) haben wir die Funktionen sin, cos, exp. Zeigen Sie, dass die Familie B := (sin, cos, exp) linear unabhängig ist. Sei V := span(B) und D(f ) := f 0 für f ∈ V die erste Ableitung von f . Zeigen Sie, dass durch D(f ) := f 0 eine lineare Abbildung von V nach V definiert ist, und berechnen Sie B := MBB (D) . Besitzt B ein Inverses? (4.3) Sei V ein K−Vektorraum und B = (bj )j∈I eine Basis von V . Nach Definition 4.3.7 war V ∗ = HomK (V, K) der Dualraum von V . Zeigen Sie: 1 für j=k a) Durch βj (bk ) := δjk , δjk := für j, k ∈ I 0 für j 6= k sind Elemente βj ∈ V ∗ definiert, und B∗ := (βj )j∈I ist in V ∗ linear unabhängig. b) Ist n ∈ N und I = n , so ist B∗ sogar eine Basis von V ∗ . B∗ heißt die zu B duale Basis von V ∗ . c) Ist I nicht endlich, so wird durch β(bj ) := 1 für alle j ∈ I ein Element aus V ∗ definiert, für das β ∈ / span B∗ gilt. 167 (4.4) Sei V ein K−Vektorraum und V ∗ der Dualraum von V . a) Zeigen Sie, dass ϕ : V −→ (V ∗ )∗ , ϕ(a) := fa , wobei fa (β) := β(a) für a ∈ V , β ∈ V ∗ ist, ein Vektorraum-Homomorphismus von V in (V ∗ )∗ ist. b) Sei dimK V ∈ N , dann ist ϕ sogar ein Isomorphismus. (Man kann Aufgabe (4.3) b) verwenden.) (4.5) Sei V ein K−Vektorraum, U und W seien Untervektorräume von V . Nach Definition 4.7.4 ist U +W := { u+w | u∈U ∧ w ∈W } ein Untervektorraum von V , und nach Definition 4.7.1 ist U ×W := { (u, w) | u ∈ U ∧ w ∈ W } ein K−Vektorraum. Zeigen Sie : a) F : U × W −→ U + W , F (u, w) := u + w ist K−linear und surjektiv. Bestimmen Sie ker F . b) Seien U und W endlichdimensional, dann gilt dim(U + W ) + dim(U ∩ W ) = dim U + dim W . (4.6) Seien a, b ∈ C und P (X) := X 2 − a · X − b ∈ C[X] . Zeigen Sie, dass U := { (un )n∈N0 ∈ F(N0 , C) | ∀ n ∈ N0 : un+2 = a · un+1 + b · un } ein Untervektorraum von F(N0 , C) ist, und dass gilt: a) Hat P (X) zwei verschiedene Wurzeln λ, µ ∈ C ,so bilden die Folgen (λn )n∈N0 und (µn )n∈N0 eine Basis von U . b) Hat P (X) eine zweifache Nullstelle λ ∈ C , gilt also a2 + 4b = 0 , und ist b 6= 0 , so bilden die Folgen (λn )n∈N0 und (nλn )n∈N0 eine Basis von U . c) Finden Sie eine Basis von U für den Fall a = b = 0 . d) Geben Sie mit a) eine nicht-rekursive Formel zur Berechnung der durch F0 := 0 , F1 := 1 , Fn+2 := Fn+1 + Fn definierten Fibonacci-Zahlen an. 168 für n ∈ N0 (4.7) Bestimmen Sie den Rang von 1 i√ −2 3 0√ 2 1 1 − 2i 3 2 0 1 1 2 1 0 √ ∈ M (3 × 3, C) . − 2i 3 (4.8) Bestimmen Sie für n ∈ N die Lösungsmenge L ⊂ Rn des linearen Gleichungssystems n X 1 für j = k (1 − δjk )xj = 1 , k ∈ n , wobei δjk = 0 für j = 6 k . j=1 (4.9) Für welche λ ∈ R ist die Matrix 1 λ λ 1 A := 0 λ 0 0 0 0 1 λ 0 0 ∈ M (4 × 4, R) 0 1 invertierbar? Berechnen Sie A−1 für diese λ . (4.10) Eine Matrix A ∈ M (3 × 3, R) heißt ein magisches Quadrat, wenn es ein c ∈ R gibt, so dass alle Zeilensummen, alle Spaltensummen und alle Diagonalsummen gleich c sind. Zeigen Sie, dass die Menge V aller magischen Quadrate ein Untervektorraum von M (3 × 3, R) ist, und geben Sie eine Basis von V an. (Tipp: Setzen Sie a := a12 , b := a21 und drücken Sie die anderen Marixelemente durch a, b und c aus.) (4.11) Konstruieren Sie einen Körper mit 4 Elementen. (4.12) Im Körper Z/(5) sei a := Lösungsmenge L ⊂ (Z/(5) )4 für 1 3 1 2 2 4 A := 4 1 0 0 2 3 a + (5) für a ∈ Z . Bestimmen Sie die des linearen Gleichungssystems A · x = b 3 0 2 4 , 0 1 b := 2 0 . (4.13) Sei n ∈ N . Eine Matrix A ∈ M (n × n, K) heißt nilpotent, wenn es ein m ∈ N mit Am = 0 gibt. Zeigen Sie: 169 a) A sei eine echte obere Dreiecksmatrix , d.h. A = (akj ) mit akj = 0 für k ≥ j , dann ist A nilpotent. b) A sei nilpotent. Dann ist En − A invertierbar. (Tipp: Eine Idee liefert die geometrische Reihe aus der Analysis: Für q ∈ R mit | q | < 1 gilt −1 (1 − q) = ∞ X s=0 170 qs . ) §5 Determinanten 5.1 Permutationen (5.1.1) Zur Wiederholung : Schon in (2.2.10) hatten wir für n ∈ N die symmetrische Gruppe Sn kennengelernt, das war die Menge aller bijektiven Abbildungen von n = {1, . . . , n} auf sich selbst, mit der Hintereinanderausführung ◦ von Abbildungen als Verknüpfung. Die Elemente von Sn hatten wir Permutationen von n genannt. Behauptung (5.1.2) : #(Sn ) = n! , wobei n! für n ∈ N0 rekursiv definiert ist durch 0! := 1 , (n + 1)! := n! · (n + 1) . Beweis : Wir zeigen mit Induktion nach n die folgende, scheinbar allgemeinere Aussage: (P (n)) : Seien S, T Mengen mit #(S) = #(T ) = n , n ∈ N , dann gibt es genau n! bijektive Abbildungen von S auf T . Induktionsanfang: Für n = 1 hat man je genau ein Element a ∈ S, b ∈ T , es gibt genau eine bijektive Abbildung von S auf T , nämlich die Abbildung mit a 7→ b. Wegen 1 = 1! ist P (1) richtig. Induktionsschluss : Sei n ∈ N . Sei nun #(S) = n + 1 und #(T ) = n + 1, dann hat man ein a ∈ S und S 0 := S \ {a}, so dass S = S 0 ∪ {a} und #(S 0 ) = n ist, und es ist T = {b1 , . . . , bn+1 } mit n + 1 verschiedenen Elementen b1 , . . . , bn+1 . Für j ∈ n + 1 setzen wir Mj := { f : S −→ T | f ist bijektiv und f (a) = bj } . Wenn nun P (n) richtig ist, hat Mj genau n! Elemente, nämlich so viele, wie es bijektive Abbildungen von S 0 auf T \ {bj } gibt. Und { f : S −→ T | f ist bijektiv } = n+1 [ Mj , j=1 wobei rechts die Vereinigung elementfremder Mengen steht. Also ist #( { f : S −→ T | f ist bijektiv } ) 171 = (n+1)·n! = (n+1)! , was zu beweisen war. Für S = T = n erhalten wir die Behauptung. 2 Definition 5.1.3 : Sei n ∈ N , τ ∈ Sn und es gebe j, k ∈ n , j 6= k , mit τ = (j, k) , dann heißt τ eine Transposition . Man sieht, dass für Transpositionen τ gilt τ = τ −1 . Satz 5.1.4 : Sei n ∈ N , dann ist jedes σ ∈ Sn ein Produkt von endlich vielen Zyklen. Beweis : Für jedes σ ∈ Sn setzen wir B(σ) { j ∈ n | σ(j) 6= j } := . Wir beweisen die Behauptung durch Induktion nach #(B(σ)) : Induktionsanfang : Ist #(B(σ)) = 0 , so ist σ = idn = (1) . Induktionsschluss : Sei k ∈ N0 , und für die ϕ ∈ Sn mit #(B(ϕ)) ≤ k sei die Behauptung richtig. Sei σ ∈ Sn mit #(B(σ)) = k + 1 , also B(σ) {a1 , . . . , ak+1 } ⊂ n , = dann ist σ(ak+1 ) gleich einem der aj mit j 6= k + 1 und τ := (τ ◦ σ)(ak+1 ) (aj , ak+1 ) ∈ Sn = τ (aj ) = . Es gilt ak+1 , also B(τ ◦ σ) ⊂ {a1 , . . . , ak } , denn für die l ∈ n \ {a1 , . . . , ak+1 } gilt (τ ◦ σ)(l) = τ (l) = l , sie werden weder von τ noch von σ verändert. Also ist #(B(τ ◦ σ)) ≤ k und daher τ ◦ σ ein Produkt endlich vieler Zyklen: Es gibt Zyklen ψ1 , . . . , ψm ∈ Sn mit τ ◦σ = ψ1 ◦ . . . ◦ ψm , 172 und wegen τ = τ −1 : 2 σ τ ◦ ψ1 ◦ . . . ◦ ψm = . Da auch τ ein Zyklus ist, gilt die Behauptung auch für σ . Definition 5.1.5 : Für jedes σ ∈ Sn nennen wir sign σ Y := (k,j)∈n×n mit k<j 2 σ(j) − σ(k) j−k das Signum von σ . Folgerung 5.1.6 : Es ist sign σ ∈ {−1, 1} , und zwar sign σ = +1 , wenn die Anzahl der Fehlstände von σ , worunter man die Paare (k, j) ∈ n × n mit k < j , aber σ(k) > σ(j) versteht, gerade ist, und sign σ = −1 , , wenn die Anzahl der Fehlstände von σ ungerade ist. Beweis : In dem Bruch Y (k,j)∈n×n mit k<j σ(j) − σ(k) j−k treten im Nenner für alle zweielementigen Teilmengen {k, j} von n die Differenzen auf, genau einmal und mit positivem Vorzeichen. Da σ bijektiv ist, sind auch die Mengen {σ(k), σ(j)} mit (k, j) ∈ n × n und k < j alle zweielementigen Teilmengen von n . Also treten auch im Zähler alle Differenzen j − k auf, aber mit negativem Vorzeichen, wenn σ(j) < σ(k) ist. Bis auf diese Vorzeichen kürzt sich alles weg, und es bleiben so viele Faktoren (−1) übrig, wie σ Fehlstände hat. 2 Beispiele 5.1.7: In S3 gilt (1 − 2)(3 − 2)(3 − 1) a) sign (1, 2) = = −1 , (2 − 1)(3 − 1)(3 − 2) (1 − 3)(2 − 3)(2 − 1) b) sign (1, 3, 2) = = 1 . (2 − 1)(3 − 1)(3 − 2) 173 Satz 5.1.8 : Für σ, τ ∈ Sn gilt sign (τ ◦ σ) Beweis : Es gilt = sign (τ ◦ σ) = sign τ · sign σ Y (k,j)∈n×n mit k<j a := Y (k,j)∈n×n mit k<j . τ (σ(j)) − τ (σ(k)) = a · b mit j−k τ (σ(j)) − τ (σ(k)) σ(j) − σ(k) , Y b := (k,j)∈n×n mit k<j σ(j) − σ(k) j−k . Es ist b = sign σ , und a = Y (k,j)∈n×n mit k<j∧σ(k)<σ(j) = Y (k,j)∈n×n mit k<j∧σ(k)<σ(j) τ (σ(j)) − τ (σ(k)) · σ(j) − σ(k) τ (σ(j)) − τ (σ(k)) · σ(j) − σ(k) Y (k,j)∈n×n mit k<j∧σ(k)>σ(j) Y (k,j)∈n×n mit k>j∧σ(k)<σ(j) τ (σ(j)) − τ (σ(k)) σ(j) − σ(k) τ (σ(j)) − τ (σ(k)) , σ(j) − σ(k) hier haben wir im zweiten Produkt zuerst die Variablen umbenannt ( j in k und k in j) , und dann mit −1 erweitert. Also ist a = Y (k,j)∈n×n mit σ(k)<σ(j) τ (σ(j)) − τ (σ(k)) σ(j) − σ(k) , denn mit k < j und k > j erhält man (wegen σ(k) < σ(j) , also k 6= j ) alle Paare (k, j) ∈ n × n mit σ(k) < σ(j) . Da σ bijektiv ist, enthält a bis auf die Reihenfolge dieselben Faktoren wie Y (k,j)∈n×n mit k<j also a = sign τ τ (j) − τ (k) j−k , . 2 Korollar 5.1.9 : Für alle σ ∈ Sn gilt sign σ −1 = sign σ Beweis : Es ist σ ◦ σ −1 = idn , also nach 5.1.8 : sign σ · sign σ −1 = 5.1.6 sign idn = 1 , 174 . also sign σ −1 = 1 , und wegen sign σ ∈ {1, −1} ist das gleich sign σ sign σ . 2 Korollar 5.1.10 : Sei n ∈ N , n ≥ 2 und τ ∈ Sn eine Transposition. Dann ist sign τ = −1 . Beweis : Nach Definition 5.1.3 gibt es k, l ∈ n mit k 6= l und τ = (k, l) . = (1, 2) und a) Ist {k, l} = {1, 2} , so ist τ sign τ = = n n n 2 Y Y Y Y τ (j) − τ (k) τ (j) − τ (k) = j−k j−k k=1 j=k+1 k=1 j=k+1 n n n n Y τ (j) − 2 Y τ (j) − 1 1−2 Y j−2 Y j−1 · = · · = −1 . j − 1 j − 2 2 − 1 j − 1 j − 2 j=2 j=3 j=3 j=3 Haben {k, l} und {1, 2} genau ein Element gemeinsam, etwa k = 2 , so gilt (l, 1) ◦ (1, 2) ◦ (l, 1) = (l, 2) = (2, l) = (k, l) = τ , also sign τ = sign (l, 1) · sign (1, 2) · sign (l, 1) = (−1) · (sign (l, 1))2 = −1 . c) Ist {k, l} ∩ {1, 2} = ∅ , so gilt (k, 1) ◦ (l, 2) ◦ (1, 2) ◦ (k, 1) ◦ (l, 2) = (k, l) = τ , also sign τ = sign (1, 2) · (sign (k, 1))2 · (sign (l, 2))2 = sign (1, 2) = −1 . 2 Hilfssatz 5.1.11 : Ist n ∈ N, n ≥ 2 , so gibt es zu jedem σ ∈ Sn Transpositionen τ1 , . . . , τq ∈ Sn mit σ = τ1 ◦ . . . ◦ τq , also nach Satz 5.1.8 und Korollar 5.1.10 : (∗) sign σ = (−1)q . Weder q noch die Transpositionen τ1 , . . . , τq sind eindeutig bestimmt. Wegen (∗) ist durch σ aber festgelegt, ob q gerade oder ungerade ist. 175 Beweis : Nach Satz 5.1.4 wissen wir, dass σ ein Produkt von endlich vielen Zyklen ist. Wir müssen also nur zeigen, dass jeder Zyklus (a1 , . . . , aq ) mit verschiedenen Elementen a1 , . . . , aq ∈ n ein Produkt von Transpositionen ist: Man rechnet nach: (a1 , aq ) ◦ (a1 , aq−1 ) ◦ . . . ◦ (a1 , a2 ) = (a1 , . . . , aq ) . Dass q nicht eindeutig bestimmt ist, sieht man an idn = (1, 2) ◦ (1, 2) , hier kann man also q = 0 oder q = 2 nehmen. 2 Definition und Satz 5.1.12 : Sei n ∈ N , n ≥ 2 , dann setzen wir An := { σ ∈ Sn | sign σ = 1 } . (An , ◦) ist eine Untergruppe von (Sn , ◦) und heißt die alternierende Gruppe vom Grad n . n! An enthält Elemente. 2 Beweis : 1) Nach Definition ist An ⊂ Sn , und es ist An 6= ∅ wegen idn ∈ An . Seien σ, τ ∈ An , dann gilt σ ◦ τ −1 ∈ Sn und sign (σ ◦ τ −1 ) = sign σ · sign τ −1 = 1 · 1 = 1 , denn wegen τ ◦ τ −1 = idn ist auch sign τ −1 = 1. Also ist σ ◦ τ −1 ∈ An . Also ist An eine Untergruppe von (Sn , ◦). 2) Nach dem Satz von Lagrange (2.2.5) haben wir #(Sn ) = [Sn : An ] · #(An ) , wobei [Sn : An ] die Anzahl der Linksnebenklassen von Sn bezüglich An ist. Außer An selbst gibt es nur noch die Linksnebenklasse (1, 2) ◦ An , die aus allen Permutationen aus Sn mit Signum −1 besteht. Also ist [Sn : An ] = 2 1 n! und damit #(An ) = #( Sn ) = . 2 2 2 5.2 Definition der Determinante Definition 5.2.1 : Sei n ∈ N und R ein kommutativer Ring. Eine Abbildung 176 det : M (n × n, R) −→ R , A 7−→ det A heißt (eine) Determinante, falls gilt : (D1) det ist R -linear als Funktion jedes Zeilenvektors. Das soll heißen: Ist j ∈ n fest und gilt für den j−ten Zeilenvektor von A : (a) aj = a0j + a00j , so gilt a1 a1 .. .. a1 . . .. . aj−1 aj−1 det aj = det a0j + det a00j , . aj+1 aj+1 .. . . .. .. an an an (b) aj = λa0j mit λ ∈ R , so gilt a1 .. . aj−1 0 λ det aj aj+1 . .. an a1 .. . det aj . .. an = . (D2) det ist alternierend, das soll heißen: Gilt aj = ak für zwei Zeilenvektoren aj , ak mit k 6= j , so ist det A = 0 . e1 (D3) det ist normiert , d.h. det En = det ... = 1 . en (5.2.2) Motivation dafür, warum man eine Funktion mit diesen Eigenschaften sucht: Hat man n Vektoren a1 , . . . , an im Rn , so soll das Volumen des von a1 , . . . , an aufgespannten Parallelotops ( n ) X P (a1 , . . . , an ) := αj aj ∀ j ∈ n : 0 ≤ αj ≤ 1 j=1 gerade die Eigenschaften (D1) - (D3) haben. Für n = 3 nennt man ein Parallelotop auch einen Spat, und für n = 2 ein Parallelogramm. 177 Die Eigenschaften (D1) - (D3) sind dann folgende Eigenschaften, die man von einem Flächeninhalt erwartet: (D1)(a) Hat man zwei Parallelogramme P 0 und P 00 mit den Seiten a01 und a2 bzw. a001 und a2 mit den Flächeninhalten F 0 bzw. F 00 , so hat das Parallelogramm mit den Seiten a01 + a001 und a2 den Flächeninhalt F 0 + F 00 , (b) Hat das Parallelogramm mit den Seiten a1 und a2 den Flächeninhalt F und ist λ ∈ R , so hat das Parallelogramm mit den Seiten λa1 und a2 den Flächeninhalt λF . (D2) Ein Parallelogramm mit den Seiten a1 und a1 hat den Flächeninhalt 0. (D3) Das Parallelogramm mit den kanonischen Basisvektoren e1 und e2 als Seiten hat den Flächeninhalt 1 . 2 Bevor wir zeigen, dass es genau eine Abbildung det mit den Eigenschaften (D1) - (D3) gibt, wollen wir aus diesen Eigenschaften einige Folgerungen ziehen: Satz 5.2.3 : Sei R ein kommutativer Ring, n ∈ N . Eine Determinante det : M (n × n, R) −→ R hat die folgenden weiteren Eigenschaften: (D4) Für alle λ ∈ R ist det(λA) = λn det A . (D5) Ist eine Zeile von A der Nullvektor, so ist det A = 0 . (D6) Entsteht B aus A durch eine Zeilenvertauschung, so gilt det B = − det A . (Daher kommt der Name “alternierend” !) Also: Eine elementare Zeilenumformung vom Typ IV ändert an det A das Vorzeichen. (D7) Ist λ ∈ R , und entsteht B aus A durch Addition des λ−fachen der j−ten Zeile zur k−ten Zeile, k 6= j , so ist 178 det B = det A . Also: Eine elementare Zeilenumformung vom Typ III ändert nichts an det A . Beweis : (D4) Nach (D1)(b) , n mal angewendet, gilt λa1 det(λA) = det ... = λn det A . λan (D5) Ist j ∈ n und aj = 0 , so gilt aj = 0 · aj , also nach (D1)(b) : det A = 0 · det A = 0 . (D6) B entstehe aus A durch Vertauschen der Zeilen ak und aj . Schreiben wir uns in A und B die unveränderten Zeilen al , l ∈ / {k, j} , gar nicht erst hin, so gilt .. .. . . ak aj . . (D2) det A + det B = det .. + det .. = a a j k .. .. . . .. . aj .. . .. . aj .. . + det det + det a a j k .. .. . . .. .. . . aj ak . . + det . . det . . a +a a +a k k j j .. .. . . .. . ak .. . + det a j .. . (D1)(a) = det also det B = − det A . 179 .. . ak .. . (D1)(a) = a k .. . .. . aj + ak (D2) .. = 0 , . aj + ak .. . (D7) Mit derselben Schreibweise wie eben gilt .. . ak + λaj (D1)(a) .. det B = det = det . aj .. . .. . aj .. . (D1)(b) = det A + λ det a j .. . .. . ak .. . a j .. . .. . λaj .. . + det a j .. . (D2) = det A + 0 . 2 Eine Verallgemeinerung von (D6) ist Korollar 5.2.4 : Sei R ein kommutativer Ring, n ∈ N , b1 , . . . , bn seien (Zeilen-)Vektoren aus Rn und σ ∈ Sn . Dann gilt b1 bσ(1) det ... = sign σ · det ... . bσ(n) bn Beweis : Nach Hilfssatz 5.1.11 gibt es Transpositionen τ1 , . . . , τq ∈ Sn mit σ = τ1 ◦ . . . ◦ τq , und es ist sign σ = (−1)q . Wir zeigen nun (∗) b(τ1 ◦...◦τq )(1) .. det . b(τ1 ◦...◦τq )(n) = b1 (−1)q det ... bn durch Induktion nach q : Induktionsanfang: Für q = 0 ist (∗) trivial wegen τ1 ◦ . . . ◦ τq = idn . Induktionsschluss : Sei q ∈ N und für q − 1 sei (∗) richtig. τq ist eine Transposition, etwa τq = (k, j) mit k, j ∈ n und k 6= j . Dann ensteht die Matrix b(τ1 ◦...◦τq )(1) b(τ1 ◦...◦τq−1 )(1) .. .. 0 A = aus A := . . b(τ1 ◦...◦τq )(n) b(τ1 ◦...◦τq−1 )(n) 180 durch Vertauschung der k-ten mit der j-ten Zeile, also durch eine Vertauschung, also nach (D6) : b1 b1 (∗∗) det A = − det A0 = −(−1)q−1 det ... = (−1)q det ... , bn bn wobei wir bei (∗∗) die Induktionsvoraussetzung benutzt haben. 2 Satz 5.2.5 : Ist n ∈ N und R ein kommutativer Ring, so gibt es genau eine Funktion det : M (n × n, R) −→ R mit den Eigenschaften (D1) - (D3) , und zwar die für A = (akj ) ∈ M (n × n, R) durch X sign σ · a1σ(1) · . . . · anσ(n) (∗) det A := σ∈Sn definierte Funktion. Bemerkung 5.2.6 : (∗) heißt die Leibniz-Formel für det . Zur Berechnung von det ist sie − außer für n ∈ {1, 2} − unpraktisch, da man die Summe über n! Summanden zu bilden hat. Zur Berechnung von det verwendet man besser die Eigenschaften (D1)-(D7) und weitere Sätze, die folgen. Beweis von Satz 5.2.5 : (1) Wir zeigen, dass aus (D1) - (D3) die Regel (∗) folgt, dass es also für det A nur eine Möglichkeit gibt, also die Eindeutigkeit von det : Für l ∈ N seien die al die Zeilenvektoren von A , dann gilt al = al1 e1 + . . . + aln en , wobei e1 , . . . , en die (als Zeilen geschriebenen) kanonischen Basisvektoren von K n sind, und wir wenden (D1) nacheinander für alle Zeilen an : n P a e e 1k k 1 1 k 1 k =1 a1 n 1 a2 X .. a2 det . = det a1k1 det .. = . .. k1 =1 . an an an 181 = n X a1k1 · k1 =1 n X k2 =1 a2k2 det ek1 ek2 a3 .. . = ... an = n X n X ... k1 =1 k2 =1 n X a1k1 a2k2 · . . . · ankn kn =1 ek1 det ... ekn . Hier wird also summiert über alle n−tupel (k1 , . . . , kn ) ∈ nn , also über nn Summanden. Ist in einem solchen n−tupel aber kj = kl für ein Paar (j, l) ∈ n × n mit j 6= l , so ist nach (D2) ek1 .. . ekj . det .. = 0 . e kl . .. ekn Wir müssen also nur summieren über die n−tupel (k1 , . . . , kn ) , für die die Abbildung σ : n −→ n , σ(j) := kj injektiv ist, also, da n endlich ist, bijektiv ist. Also ist a1 e σ(1) X det ... = a1σ(1) · . . . · anσ(n) · det ... , σ∈Sn eσ(n) an und nach Korollar 5.2.4 : det A = X a1σ(1) · . . . · anσ(n) σ∈Sn e1 · sign σ · det ... en , und aus (D3) folgt (∗) . Um die Existenz einer Funktion det mit den Eigenschaften (D1) - (D3) zu 182 zeigen, definieren wir det A durch die Leibniz-Formel (∗) und zeigen, dass das so definierte det A die Eigenschaften (D1) - (D3) hat: (D1)(a) Ersetzt man in A die Zeile aj durch a0j + a00j , so erhält man aus (∗) .. . X sign σ · a1σ(1) · . . . · (a0jσ(j) + a00jσ(j) ) · . . . · anσ(n) det a0j + a00j = .. σ∈Sn . X = sign σ · a1σ(1) · . . . · a0jσ(j) · . . . · anσ(n) σ∈Sn X + sign σ · a1σ(1) · . . . · a00jσ(j) · . . . · anσ(n) σ∈Sn a1 a1 .. .. . . det a0j + det a00j . . .. .. an an = (b) Ersetzt man . .. det λaj .. . , aj durch λaj , λ ∈ R , so wird X sign σ · a1σ(1) · . . . · λajσ(j) · . . . · anσ(n) = σ∈Sn = λ X sign σ a1σ(1) · . . . · ajσ(j) · . . . · anσ(n) σ∈Sn = . .. λ det aj .. . . (D2) Sei A eine Matrix, in der die k−te und die l−te Zeile gleich sind, etwa k < l . Sei τ die Transposition (k, l) , dann ist Sn = An ∪ An ◦ τ und An ∩ An ◦ τ = ∅ . Für σ ∈ An ist sign σ = 1 . Wenn σ die Gruppe An durchläuft, durchläuft σ ◦ τ die Menge An ◦ τ , und es ist sign (σ ◦ τ ) = −1 . Also ist X X (∗∗) det A = a1σ(1) · . . . · anσ(n) − a1σ(τ (1)) · . . . · anσ(τ (n)) . σ∈An σ∈An 183 Die k−te und die l−te Zeile sind gleich, also gilt wegen τ = (k, l) : a1σ(τ (1)) · a1σ(1) a1σ(1) a1σ(1) · · ··· . . . · akσ(τ (k)) · . . . · alσ(τ (l)) · . . . · anσ(τ (n)) = ... · ... · ... · · ... · · ... · · ... · akσ(l) alσ(l) akσ(k) alσ(k) akσ(k) alσ(l) · ... · · ... · · ... · anσ(n) anσ(n) anσ(n) ↓ = = , im letzten Schritt haben wir die Kommutativität von (K, ·) benutzt. In (∗∗) heben sich also immer zwei Summanden gegenseitig auf, es ist det A = 0 . 1 für k = j (D3) Es ist En = (δkj ) mit δkj = also nach (∗) : 0 für k 6= j X det En = sign σ · δ1σ(1) · . . . · δnσ(n) . σ∈Sn Ist nun σ 6= idn , so steht im Produkt δ1σ(1) · . . . · δnσ(n) ein Faktor δjσ(j) mit σ(j) 6= j , also 0 . Also ist det En sign idn · δ11 · . . . · δnn = = 1 . 2 Korollar 5.2.7 : Sei n ∈ N , R ein kommutativer Ring und A ∈ M (n × n, R) . Dann gilt det t A = det A . Beweis : Für A = (akj ) ist t A = (a0kj ) mit a0kj = ajk , also nach der Leibniz-Formel: X det t A = sign σ · a01σ(1) · . . . · a0nσ(n) σ∈Sn X = sign σ · aσ(1)1 · . . . · aσ(n)n σ∈Sn Da (R, ·) kommutativ ist, gilt für b1 , . . . , bn ∈ R : n Y bj j=1 det t A = = n Y bσ−1 (j) , also folgt j=1 X sign σ · aσ(σ−1 (1)),σ−1 (1) · . . . · aσ(σ−1 (n)),σ−1 (n) σ∈Sn 184 und wegen sign σ = sign σ −1 : X det t A = sign σ −1 · a1,σ−1 (1) · . . . · an,σ−1 (n) σ∈Sn Da die Abbildung Sn −→ Sn , σ 7−→ σ −1 bijektiv ist, können wir den “Summationsindex” σ −1 durch σ ersetzen : X det t A = sign σ · a1σ(1) · . . . · anσ(n) σ −1 ∈Sn = X sign σ · a1σ(1) · . . . · anσ(n) = det A . 2 σ∈Sn Korollar 5.2.8 : Die Aussagen (D1) - (D7) für die Determinante bleiben richtig, wenn man überall “Zeile” durch “Spalte” ersetzt. 5.3 Der Laplacesche Entwicklungssatz Definition 5.3.1 : Sei n ∈ N und R ein kommutativer Ring, A ∈ M (n × n, R) und seien j, k ∈ n fest. Dann bezeichnen wir mit A0jk die Matrix, die aus A durch Streichen der j−ten Zeile und k−ten Spalte entsteht, also a11 . . . a1,k−1 | a1,k+1 . . . a1n .. .. .. .. . | . . . aj−1,1 . . . aj−1,k−1 | aj−1,k+1 . . . aj−1,n − − + − − − ∈ M ((n−1)×(n−1), K) . A0jk := − aj+1,1 . . . aj+1,k−1 | aj+1,k+1 . . . aj+1,n . .. .. .. .. . | . . an1 . . . an,k−1 | an,k+1 . . . ann Hilfssatz 5.3.2 : Sei n ∈ N , R ein kommutativer Ring. Seien j, k ∈ n fest, und die Matrix A ∈ M (n × n, R) habe als j−ten Zeilenvektor den Vektor ek = (δkl )l∈n , es sei also a11 . . . a1k . . . a1n .. .. .. . . . aj−1,1 . . . aj−1,k . . . aj−1,n ... 1 ... 0 . A = 0 aj+1,1 . . . aj+1,k . . . aj+1,n . .. .. .. . . an1 . . . ank . . . ann 185 Dann gilt det A = (−1)j+k det A0jk . Beweis : 1) Im Spezialfall j = k = n hat man a11 . . . a1,n−1 a1n .. .. .. . . . A = an−1,1 . . . an−1,n−1 an−1,n 0 ... 0 1 . Nach der Leibniz - Formel ist X det A = sign σ · a1σ(1) · . . . · anσ(n) . σ∈Sn Ist nun σ ∈ Sn mit σ(n) = 6 n , so ist anσ(n) = 0 . Wir müssen also nur über die σ ∈ Sn mit σ(n) = n summieren. Für diese ist σ 0 : n − 1 −→ n − 1 , σ 0 (l) := σ(l) ein Element aus Sn−1 , die Abbildung 0 : { σ ∈ Sn | σ(n) = n } −→ Sn−1 , σ 7−→ σ 0 ist eine Bijektion, und es gilt noch sign σ 0 = sign σ . Also ist X det A = sign σ 0 · a1σ0 (1) · . . . · an−1,σ0 (n−1) · 1 σ 0 ∈Sn−1 = det A0nn = (−1)n+n det A0nn , in diesem Fall ist die Behauptung also richtig. 2) Seien nun j, k ∈ n beliebig. Durch n−j Zeilenvertauschungen in A bringen wir die Zeile ek nach unten, das gibt nach (D6) n−j Vorzeichenwechsel. Nun bringen wir durch n − k Spaltenvertauschungen die unten stehende 1 nach hinten, das gibt nach (D6) und Korollar 5.2.8 n − k Vorzeichenwechsel. Dann können wir 1) anwenden auf die Matrix | a1k .. | . | aj−1,k A0jk | − | aj+1,k und erhalten insgesamt : .. | . | a nk − − − + − 0 ... 0 | 1 186 det A = (−1)n−j · (−1)n−k det A0jk 2 (−1)j+k det A0jk . = Satz 5.3.3 (Laplacescher Entwicklungssatz) : Sei R ein kommutativer Ring, n ∈ N , n ≥ 2 und A ∈ M (n × n, R) . Dann gilt für feste j, k, l ∈ n : n X (1) asl · (−1)s+j det A0sj δlj · det A , = s=1 für l = j nennt man diese Formel die “Entwicklung von det A nach der j−ten Spalte”, und n X (2) als · (−1)k+s det A0ks δlk · det A , = s=1 für l = k heißt das “Entwicklung von det A nach der k−ten Zeile ”. Beweis : (2) Für die k−te Zeile ak von A gilt ak = n X aks es mit den Zeilenvektoren es = (0, . . . , 0, 1 0, . . . , 0) , s=1 ↑ s−te Stelle t n es ∈ K . Nach (D1) ist det linear als Funktion der k−ten Zeile, also a1 a1 .. . .. . ak−1 n P ak−1 X n a e (∗) det A = det = aks det es ks s s=1 s=1 a ak+1 . k+1 .. . .. an an {z | } = (−1) det A0ks nach Hilfssatz 5.3.2. Für l = k haben wir damit (2) bewiesen. Für l 6= k betrachten wir statt A die Matrix B , die aus A entsteht, wenn man die k−te Zeile durch die l−te Zeile ersetzt. B hat dann zwei gleiche Zeilen, also gilt nach (D2) : det B = 0 . k+s Entwickeln wir nun B nach der k−ten Zeile, so erhalten wir nach (∗) : 0 = n X als (−1)k+s det A0ks s=1 187 ; wegen δlk = 0 also (2) in diesem Fall. (1) folgt nach Kor. 5.2.7 durch Vertauschen von Zeilen und Spalten aus (2). 2 Es mag merkwürdig erscheinen, den Laplaceschen Entwicklungssatz auch hinzuschreiben für l 6= j bzw. l 6= k . Man erhält damit aber sofort den Satz 5.3.4 : Sei R ein kommutativer Ring, n ∈ N und A ∈ M (n × n, R) . Sei det A ∈ R× , dann besitzt A die inverse Matrix A−1 = (ckj )(k,j)∈n×n mit ckj := (det A)−1 · (−1)k+j det A0jk . Beweis : Mit den so definierten ckj gilt nach den Formeln (1) und (2) im Laplaceschen Entwicklungssatz für j, k, l ∈ n : n n P P (1) cjs asl = δjl , (2) als csk = δlk , also s=1 s=1 C ·A also C = A−1 = En A·C , = En , . 2 (5.3.5) Bemerkungen : 1) Man beachte die Indexvertauschung: ckj = (det A)−1 (−1)k+j det A0jk . 2) Sei R ein Körper. Zur numerischen Berechnung von A−1 ist Satz 5.3.4 für n ≥ 3 ungeeignet, da man n2 Determinanten ausrechnen muss. Das als Anwendung 4.6.13 angegebene Verfahren geht schneller. Aber für theoretische Zwecke ist es gut, dass man überhaupt eine Formel zur Berechnung von A−1 hat. 3) Sei R ein kommutativer Ring. Für a b A = ∈ M (2×2, R) mit det A = ad−bc ∈ R× erhält man c d d −b −1 −1 A = (ad − bc) . −c a 2 Satz 5.3.6 (Determinanten-Multiplikationssatz) : Sei n ∈ N , R ein kommutativer Ring und seien A, B ∈ M (n × n, R) . Dann gilt det(A · B) = 188 det A · det B Beweis : Sei A = (alk )(l,k)∈n×n , B = (bkj )(k,j)∈n×n , dann ist A·B = (clj ) mit clj = n X alk bkj , k=1 A · B hat also die Zeilenvektoren cl = n X alk bk , k=1 wobei bk = (bk1 , . . . , bkn ) der k−te Zeilenvektor von B ist. Also gilt n P k =1 a1k1 bk1 c1 1 .. . . det(A · B) = det . = det . n P cn ankn bkn kn =1 (D1) = n X k1 =1 ... n X a1k1 · . . . · ankn kn =1 bk 1 det ... bkn . Wir summieren also über alle n−tupel k := (k1 , . . . , kn ) ∈ nn : b k 1 X det(A · B) = a1k1 · . . . · ankn det ... . k∈nn bkn Da det alternierend ist , also wegen (D2) , ist bk 1 det ... = 0 , falls es r, s ∈ n mit r 6= s und kr = ks gibt, bk n wir müssen also nur über die n−tupel summieren, für die σ : n −→ n , det(A · B) = σ(r) := kr bijektiv ist : b σ(1) X a1σ(1) · . . . · anσ(n) · det ... σ∈Sn bσ(n) 189 , also nach Korollar 5.2.4 : det(A · B) = b 1 X a1σ(1) · . . . · anσ(n) · sign (σ) · det ... σ∈S bn | n {z } | {z } det A det B wobei wir hier für det A die Leibniz-Formel verwendet haben. , 2 Folgerung 5.3.7 : Sei n ∈ N , R ein kommutativer Ring. Eine Matrix A ∈ M (n × n, R) ist genau dann invertierbar, wenn det A ∈ R× ist, also det A invertierbar in R. Beweis : 1) Sei det A ∈ R× , dann existiert A−1 = (det A)−1 (−1)k+j det A0jk (k,j)∈n×n nach Satz 5.3.4. 2) Ist A invertierbar, so existiert A−1 ∈ M (n × n, R) mit A · A−1 = En , also nach Satz 5.3.6 : (D3) det A · det A−1 = det En = 1 , also det A ∈ R× . 2 Satz 5.3.8 : Sei n ∈ N , R ein kommutativer Ring. Die Determinante det : M (n × n, R) −→ R hat noch die Eigenschaften: (D8) Ist A eine obere Dreiecksmatrix, also λ1 ∗ ... A = mit λ1 , . . . , λn ∈ R 0 λn und irgendwelchen Elementen aus R bei ∗, so ist det A = λ1 · . . . · λn . (D9) Sei A ∈ M (n × n, R) , n ≥ 2 , von der Form B | C A = − + − , wobei B und D quadratisch sind, so gilt 0 | D 190 det A = det B · det D . Beweis : (D9) Sei B ∈ M (r × r, R) , D ∈ M ((n − r) × (n − r), R) , mit 1 ≤ r < n , dann haben wir B | C Er | C B | 0 A = − + − = − + − · − + − 0 | D 0 | D 0 | En−r , wie man mit der Definition des Matrizenprodukts nachrechnet, also mit Er | C B | 0 D0 := − + − , B 0 := − + − : 0 | D 0 | En−r det A = det D0 · det B 0 nach dem Determinanten-Multiplikationssatz 5.3.6 . Entwickelt man det D0 nacheinander nach der 1. bis r−ten Spalte und det B 0 nacheinander nach der n−ten bis (r + 1)−ten Spalte, so erhält man: det D0 = det D , det B 0 = det B , also die Beh. (D8) folgt aus (D9) durch Induktion nach n : Für n = 1 gilt det A = det(λ1 ) = λ1 nach der Leibniz-Formel, und wenn (D8) für n − 1 ∈ N richtig ist , folgt nach (D9) : λ1 ∗ | .. λ ∗ 1 . | ∗ .. det 0 = det · det(λn ) . λ | n−1 − − 0 λn−1 − + − 0 | λn = λ1 · . . . · λn−1 · λn . 2 5.4 Determinante eines Endomorphismus Definition 5.4.1 : Sei V ein K−Vektorraum mit dimK V = n , n ∈ N , K ein Körper, und F ∈ EndK V = HomK (V, V ) , 191 also nach Definition 4.3.8 : F ein Endomorphismus von V . Sei A eine Basis von V , dann ist A MAA (F ) ∈ M (n × n, K) := nach Formel (4.4.12) definiert. Bezüglich einer anderen Basis B von V haben wir B := MBB (F ) ∈ M (n × n, K) , und nach der Formel (4.4.17) für die Koordinatentransformation haben wir B S · A · S −1 = mit S = MAB ( idV ) ∈ GL(n, K) , also nach dem Determinanten - Multiplikationssatz 5.3.6 : det B = det S · det A · det(S −1 ) = det S · det S −1 · det A = det(S · S −1 ) · det A = det En · det A = det A, die Determinante det MAA (F ) ist also unabhängig davon, welche Basis A von V wir nehmen, und wir können (5.4.2) det F := det MAA (F ) setzen, wobei es egal ist, welche Basis A von V wir wählen. Folgerung 5.4.3 : Sei V ein n−dimensionaler K−Vektorraum, K ein Körper, n ∈ N , dann sind für einen Endomorphismus F : V −→ V die folgenden Eigenschaften gleichbedeutend : (i) F ist ein Vektorraum-Automorphismus, d.h. F ist bijektiver Endomorphismus. (ii) det F 6= 0 . Beweis : Sei A eine Basis von V , dann gilt: F ist Automorphismus von V ⇐⇒ ∃ G ∈ End(V ) : G ◦ F = F ◦ G = idV ⇐⇒ ∃ G ∈ End(V ) : MAA (G) · MAA (F ) = MAA (F ) · MAA (G) = En (∗) ⇐⇒ MAA (F ) ∈ GL(n, K) (5.3.7) ⇐⇒ det MAA (F ) 6= 0 (5.4.2) ⇐⇒ det F 6= 0 . Bei (∗) , “⇐= ” benutzen wir, dass 192 MAA : EndK (V ) −→ M (n × n, K) ein Vektorraumisomorphismus ist, zu B := ( MAA (F ))−1 hat man also ein G ∈ EndK (V ) mit MAA (G) = B . 2 5.5 Aufgaben (5.1) Sei K ein Körper, n ∈ N und a1 , . . . , an , b1 , . . . , bn ∈ K . Berechnen Sie die Determinante D von 1 1 1 ... 1 b 1 a1 a1 . . . a1 b 1 b 2 a2 . . . a2 a) , b 3 .. .. .. . . .. . . . . . b1 b2 b3 . . . bn an a1 + b 1 b2 b3 ... bn b1 a2 + b 2 b3 ... bn b1 b a + b b . . . b 2 3 3 4 n .. b) .. , . b3 . . . . . .. .. .. .. bn b1 b2 b3 . . . bn−1 an + bn c) (1 − δjk )(j,k)∈n×n . (5.2) Sei K ein Körper, 1 das Einselement von K und a, b ∈ M (n × 1, K) . Zeigen Sie : det(En + a ·t b) = 1 +t a · b . (5.3) Sei K ein Körper, n ∈ N , char K 6= 2 und A ∈ M (n × n, K) schiefsymmetrisch , d.h. A = −t A . Zeigen Sie: a) Ist n ungerade, so ist det A = 0 . b) Ist n gerade, so ist det A ein Quadrat in K . Zeigen Sie dazu, dass man A für n > 2 durch elementare Zeilen- und Spaltenumformungen auf die Form 0 α 0 −α 0 ∗ B 193 mit α ∈ K und einer schiefsymmetrischen Matrix B bringen kann, und machen Sie Induktion. (5.4) Sei K ein Körper, n ∈ N , A ∈ GL(n, K) und b ∈ M (n × 1, K) ein Spaltenvektor. Dann hat das lineare Gleichungssystem A·x = b die eindeutig bestimmte Lösung x = A−1 · b mit x = (xj )j∈n und xj = (det A)−1 · det Bj , wobei Bj die Matrix ist, die man erhält, wenn man aus A die j−te Spalte herausnimmt und sie durch den Spaltenvektor b ersetzt (Cramersche Regel). Achtung: Obwohl diese Regel elegant aussieht, sollte man sie nicht zum Lösen linearer Gleichungssysteme benutzen: Man kann zeigen, dass der Rechenaufwand dabei proportional zu n3 ist, bei dem in (4.6.10) beschriebenen Gaußschen Eliminationsverfahren aber nur proportional zu n2 - abgesehen davon, dass (4.6.10) auch funktioniert, wenn das System nicht eindeutig lösbar ist. (5.5) Sei K ein Körper, a −b det −c −d a, b, c, d ∈ K. Zeigen Sie: b c d a −d c = (a2 + b2 + c2 + d2 )2 d a −b −c b a . (5.6) (Vandermondesche Determinante:) Sei K ein Körper, a1 , . . . , an ∈ K. Zeigen Sie : 1 a1 a21 . . . an−1 1 1 a2 a2 . . . an−1 Y 2 2 (aj − ak ) . det .. .. = . . (k,j)∈n×n mit k<j 1 an a2n . . . an−1 n (Tipp: Zum Beweis subtrahiere man nacheinander für k = n, n−1, . . . , 3, 2 das a1 −fache der (k−1)−ten Spalte von der k−ten Spalte und forme dann so um, dass man Induktion nach n machen kann.) 194 Empfehlenswerte Literatur zur Linearen Algebra : Gerd Fischer : Lineare Algebra, eine Einführung für Studienanfänger. 18.Auflage. Springer 2014. Bertram Huppert, Wolfgang Willems : Lineare Algebra, 2., überarbeitete und erweiterte Auflage. Vieweg+Teubner 2010. Max Koecher : Lineare Algebra und analytische Geometrie. 4.Auflage, Springer Berlin 1997. H.-J.Kowalsky, G.O.Michler : Lineare Algebra. 12., überarbeitete Auflage. De Gruyter Lehrbuch, Berlin 2008. M.Roczen und H.Wolter, W.Pohl, D.Popescu, R.Laza: Lineare Algebra individuell. Online Ver. 0.62, 20.3.2010. zur Analysis : Konrad Königsberger: Analysis 1, 6.Auflage. Springer-Lehrbuch 2004. Otto Forster : Analysis 1, 11., erweiterte Auflage. Springer Spektrum 2013. Harro Heuser : Lehrbuch der Analysis, Teil 1. 15.Auflage. Vieweg+Teubner, 2003. zur Algebra : Siegfried Bosch : Algebra, 6.Auflage. Springer-Lehrbuch 2006. Nathan Jacobson : Basic Algebra I, 2nd edition, Dover Publications 2009. Chr.Kapfinger, K.Meyberg : Algebra, 3.Auflage.Springer Spektrum 2013. zur elementaren Zahlentheorie : Ivan Niven, Herbert S.Zuckerman, Hugh L.Montgomery : An Introduction to the Theory of Numbers. 5th edition, Wiley 1991. Harold M.Stark : An Introduction to Number Theory. New edition, MIT Press 1978. 195 Verzeichnis der Definitionen Abkürzungen: e. : einer, eines, v. : von A abelsche Gruppe, 34 Abbildung, 14 - auf, 16 - , lineare, 115 Addition, 55 Algebra über K, 161 Äquivalenzklasse, 12 Äquivalenzrelation, 12 äußere direkte Summe, 153 äußere Operation, 98 äußeres direktes Produkt, 152, 153 allgemeine lineare Gruppe, 126 alternierende Abbildung, 177 alternierende Gruppe, 176 aufgespannter Untervektorraum , 104 Anordnung - in R, 87 - in Z, 10 Automorphismus - von Gruppen, 47 - , innerer, 54 Aus A folgt B, 5 Aussage, 4 Austauschsatz, 112 B Basis, 108 Basisergänzungssatz, 110 Basisisomorphismus, 116 Betrag e.komplexen Zahl, 92 bijektiv, 16 Bild, 15 Brüche, Körper der, 83 196 C cartesisches Produkt, 10 Charakteristik, 69 Cramersche Regel, 194 D Definitionsbereich, 15 Determinante, 177 - e.Endomorphismus, 191 -nmultiplikationssatz, 188 Diedergruppe, 53 Dimension, 114 Dimensionsformel für lineare Abbildungen, 120 direktes Produkt, 152 Division mit Rest, 60 Dreiecksmatrix, echte obere, 170 duale Basis, 167 Dualraum, 117 Durchschnitt, 8 E echte obere Dreiecksmatrix, 170 eineindeutig, 16 einfache Matrix, 144 Einheit, imaginäre, 90 Einheitengruppe e.Rings, 66 Einschränkung, 15 Einselement, 38,55 Einsetzen in Polynome, 75 Einsmatrix, 125 einstelliges Prädikat, 11 Einträge e.Matrix, 121 noch E G Element, 7 elementare Spaltenumformung, 139 elementare Zeilenumformung, 137 endlich erzeugt, 105 endliche Familie, 101 endliche Menge, 19 Endomorphismus v.Gruppen, 47 Entwicklungssatz v.Laplace, 187 Epimorphismus, Nebenklassen-, 48 Epimorphismus v. Gruppen, 47 erweiterte Matrix, 144 Erzeugendensystem, 105 - in beliebigen Vektorräumen, 108 erzeugte zyklische Untergruppe, 39 euklidischer Ring, 80 ganze Zahl, 8 Gaußsche Zahlenebene, 92 Gaußsches Eliminationsverfahren, 147 geordnetes Paar, 10 Gerade, 4 gilt genau dann, wenn, 5 GL(n, K), 130 gleichbedeutend, 6 Gleichheit v. Mengen, 8 Gleichheitsrelation, 10 Gleichungsdarstellung e.Geraden, 24 Gleichungssystem, lineares, 142 gleichwertig, 6 Grad e. Polynoms, 72 Gradfunktion, 79 Grassmann-Identität, 33 größtes Element, 71 Gruppe, 34 - , allgemeine lineare, 130 - , alternierende, 176 - , symmetrische, 41 Gruppentafel, 42 F F, 15 faches, 38 Faktorgruppe, 43 Faktorring, 58 falsch, 4 Familie, 101 fast alle, 71 Fehlstände, 173 Fibonacci-Zahlen, 168 Folge, 71 für alle, 8 Fundamentalsatz der Algebra, 94 Funkltion, 14 - swert, 15 H Halbgruppe, 34 Hintereinanderausführung, 17 homogenes lineares Gleichungssystem, 143 Homomorphiesatz - für Gruppen, 51 - für Ringe, 59 - für Vektorräume, 118 Homomorphismus v. Gruppen , 47 Homomorphismus v. Ringen, 58 197 I noch K Ideal, 57 identische Abbildung, 16 imaginäre Einheit, 90 Imaginärteil, 91 impliziert, 5 Indexmenge, 101 Induktionsaxiom, 12 Induktionsbeweis, 12 inhomogenes lineares Gleichungssystem, 143 innere direkte Summe, 154 innerer Automorphismus, 54 Inverses, 35 Isomorphie v.Gruppen, 50 Isomorphismus v.Gruppen, 47 komplexe Zahlen, 8,88 -ebene, 92 Konjugiert-Komplexes, 91 Kürzungsregeln, 35 L Lagrange, Satz von, 39 Länge e.Vektors im Rn , 21 Länge e.Basis, 108 Laplacescher Entwicklungssatz, 187 leere Menge, 6 leere Summe, 14 Leibniz-Formel, 181 Leitkoeffizient, 74 linear abhängig, 106 J linear unabhängig, 105 Jacobi-Identität, 33 - im Rn , 26 - in beliebigen Vektorräumen, 108 lineare Abbildung, 115, 177 K lineares Gleichungssystem, 142 kanonische Linearform, 117 n - Basis v. K ,109 Linearkombination, 104 -r Nebenklassenepimorphismus, 48 - , nichttriviale, 106 -s Skalarprodukt, 21 Links-Vektorraum, 98 Kern Linksnebenklasse, 39 - e.Gruppenhomomorphismus, 50 lösbares lineares - e.linrearen Abbildung, 116 Gleichungssystem, 143 - e.Ringhomomorphismus, 59 Lösung, triviale, 143 Kleinsche Vierergruppe,46 Lösungsmenge, 143 Körper, 67 logisch gleichwertig, 6 - der Brüche, 83 - der komplexen Zahlen, 88 - der rationalen Funktionen, 87 kommutative Gruppe, 34 kommutativer Ring, 56 Komplement, 9 198 M O Mächtigkeit, 19 magisches Quadrat, 169 Matrix, 121 - e.linearen Abbildung, 127 - , einfache, 144 - , erweiterte, 144 - , m × n−, 123 - , quadratische, 122 - , schiefsymmetrische, 193 - , transponierte, 132 Matrizenprodukt, 123 max M , 71 Menge, 7 modulo, 43, 198 Monomorphismus, 47 Multiplikation, 554 oder, 4 Operation, äußere, 98 Ordnungsinduktion, 14 orthogonal im Rn , 22 P Parallelogramm, 177 Parallelotop, 177 Parameterdarstellung e.Geraden, 23 Permutation, 42 Polynom - , normiertes, 74 -funktion, 70 -ring in e.Unbestimmten, 74 -ring in zwei Unbestimmten, 82 positive reelle Zahl, 87 Potenz, 36 Prädikat, 11 Primkörper, 157 Primpolynom, 81 Primzahl, 62 Produkt von Matrizen, 123 Produkt, äußeres direktes, 152 Produktzeichen, 94 Pythagoras, 22 N n−faches, 38 n−tupel, 102 nach Definition gleich, 8 - - -bedeutend, 8 natürliche Zahlen, 8 - - mit 0, 7 Nebenklassenepimorphismus, 48 Negatives, 38 - in Ringen, 57 neutrales Element, 34 Q nicht A, 5 -triviale Linearkombination, 106 quadratfreie ganze Zahl, 96 non A, 6 quadratische Matrix, 122 n Norm e.Vektors im R , 21 Quaternionen, 165 Normalteiler, 41 -gruppe, 54 normierte lineare Abbildung Quotienten von M (n × n, K) in K, 177 -körper, 83 normiertes Polynom, 74 - -Vektorraum, 118 Nullelement, 38 199 R T Rang e.Matrix,136 rationale Funktionen, 87 rationale Zahlen, 8 Realteil, 91 reelle Zahlen, 8 rekursive Definition, 13 Relation, 10 Restriktion, 15 Richtung e.Geraden, 22 Ring, 55 - , euklidischer, 79 - , kommutativer, 56 - , nullteilerfreier, 56 Ringhomomorphismus, 58 Tautologie, 6 Teiler - in R[X], 81 - in Z, 62 Teilfamilie, 101 Teilmenge, 8 Teilraum, 103 Transformationsmatrix, 132 transponierte Matrix, 132 Transposition, 172 triviale Lösung, 143 triviale Linearkombination, 106 triviale Untergruppe, 43 tupel, 102 S U Schiefkörper, 167 Umkehrfunktion, 16 schiefsymmetrische Matrix, 193 Unbekannte, 142 Schnittpunkt v.Geraden, 25 und, 4 n senkrecht stehen im R , 22 unendlich Signum e.Permutation, 173 -dimensionaler Vektorraum, 114 Skalar, 98 -e Menge, 19 n -produkt, kanonisches im R , 21 Untergruppe, 38 Spaltenrang, 133 - , triviale, 43 Spaltenumformung, elementare, 139 Unterkörper, 90 Spaltenvektor e.Matrix, 121 Unterring, 57 span, 104 Untervektorraum, 103 Spat, 177 - , aufgespannter, 104 Urbild, 15 Standard-Basis v. K n , 109 streng monoton wachsend, 91 Summenzeichen, 13 surjektiv, 16 symmetrische Gruppe, 41 200 V Z Vandermondesche Determinante, 194 Zeilenstufenform, 140 Vektoren, 98 Zeilenrang, 133 3 Vektorprodukt im R , 28 Zeilenumformung, elementare, 137 Vektorraum, 98 Zeilenvektor e.Matrix, 121 - -Homomorphismus, 115 Zentrum, 162 Vereinigung, 8 zyklische Gruppe, 47 Verknüpfung, 34 - - mit n Elementen, 46 - - Z4 , 47 - - Zn , 46 W zyklische Untergruppe, 39 wahr, 4 Zyklus, 45 Wahrheitstafel, 5 Wahrheitswert, 4 Wenn A gilt, dann gilt B, 5 Wertebereich, 15 wohldefiniert, 41 Wohlordnung, 14 Wurzelfunktion, 91 201