2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A ∈ K(m,n) . Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 6= 0 in jeder Zeile 6= 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1] enthält, hat alle anderen Einträge = 0. [Z3] Keine Nullzeile steht oberhalb einer Zeile 6= 0. [Z4] Die Zeilen 1, . . . r seien die Zeilen 6= 0. Die 1-Einträge nach [Z1] treten an den Positionen (1, j1 ), . . . , (r, jr ) auf. Dann gilt j1 < j2 < . . . < jr . Satz 2.5.2 Jede Matrix A ist zeilenäquivalent zu einer Matrix in zeilenreduzierter Normalform. Beweis Wir wollen diesen Satz algorithmisch beweisen, d.h. wir wollen ein Verfahren angeben, wie man A in zeilenreduzierte Form bringen kann. Das hier angegebene Verfahren heißt der Gauß-Jordan Algorithmus. Zunächst wollen wir erklären, was ein Pivotschritt ist. Sei dazu A = (αi,j ) eine beliebige m × n-Matrix, αr,s 6= 0. Dann sei Pr,s die Hintereinanderausführung folgender elementarer Zeilenumformungen: Er,i (− αi,s ), αr,s i = 1, . . . , m, i 6= r. 38 1 sowie abschließend Er ( αr,s ). Dadurch wird aus der s-ten Spalte von B 0 0 . . . 0 1 0 . .. 0 wobei der Eintrag 1 an der r-ten Position steht. Nun zum Verfahren: Wir setzen r = 1 und verfahren mit der Matrix A wie folgt: Suche die erste Spalte jr α1,jr .. . αm,jr so, dass nicht alle αr,jr , . . . , αm,jr gleich 0 sind. Sonst STOP, der Algorithmus terminiert. Durch Zeilenvertauschungen erreicht man αr,jr 6= 0. Dann pivotisiere Pr,jr . Die so erhaltene Matrix nennen wir jetzt A und setzen r auf r + 1. Nun wiederholen wir den oben beschriebenen Schritt. Das Verfahren terminiert, weil jr < jr+1 gilt. Die Anzahl Zeilen 6= 0 in einer Matrix, die zeilenreduziert ist, nennt man den Rang r der Matrix. Es ist zunächst nicht klar, ob der Rang eine Invariante unter Zeilenäquivalenz ist (das ist zwar der Fall, erfordert aber einigen Aufwand, es zu beweisen; wir können den Beweis erst führen, wenn wir einiges über Vektorräume wissen). Wenn A in zeilenreduzierter Normalform mit r Zeilen 6= 0 ist, dann können die n − r Variablen xi , die zu den Spalten i 6= j1 , . . . jr gehören, frei gewählt werden. Wir sagen auch, das System hat n − r Freiheitsgrade! 39 2.6 Gauß-Verfahren Zum Lösen von linearen Gleichungssystemen genügt es, die Matrix in zeilenreduzierte Form zu bringen. Dazu ist es nicht nötig, dass die Einträge über den Pivots an den Stellen (i, jr ) alle 0 sind, und der (i, jr )-Eintrag muss auch nicht auf 1 normiert werden. Definition 2.6.1 Eine Matrix A ∈ K(m,n) heißt zeilenreduziert, wenn gilt: [ZR1] Keine Nullzeile steht oberhalb einer Zeile 6= 0, d.h. die ersten r Zeilen seien die Zeilen 6= 0. [ZR1] Wenn der erste Eintrag 6= 0 in Zeile i in der Spalte ji auftritt, so gilt j1 < j2 . . . < jr . Man kann eine Matrix offenbar mit weniger Aufwand in zeilenreduzierte Form als in zeilenreduzierte Normalform bringen. Wir verwenden dazu ein ähnliches Verfahren wie zuvor, wobei wir den Schritt Pr,s durch die Hintereinanderausführung von αi,s Er,i (− ), i = r + 1, . . . , m, αr,s ersetzen. Wir nennen dieses Verfahren das Gauß-Verfahren Bemerkung 2.6.2 (1.) Man kommt beim Gauß-Verfahren ohne die Umformungen [E1] aus. (2.) Wir werden später sehen, dass jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent ist. Das ist der Grund, warum man von einer Normalform spricht. Es gibt verschiedene zeilenreduzierte Matrizen, die zeilenäquivalent sind. (3.) Das (einfachere) Gauß-Verfahren ist ausreichend, wenn man lineare Gleichungssysteme lösen möchte. (4.) Es sei noch einmal darauf hingewiesen, dass das Gauß- und das GaußJordan-Verfahren über allen Körpern funktioniert. Es funktioniert i.a. nicht, wenn man Gleichungen über Ringen lösen möchte. 40 2.7 Lösungsmengen linearer Gleichungssysteme Wir wollen hier einige einfache Folgerungen notieren, die aus der Tatsache folgen, dass jede Matrix in zeilenreduzierte Form gebracht werden kann. Die Sätze sind aber noch etwas unbefriedigend, weil wir nicht zeigen können, dass der Rang einer Matrix (vgl. Abschnitt 2.5) vernünftig definiert ist. Satz 2.7.1 Sei A ∈ K(m,n) mit m < n. Dann hat das lineare Gleichungssystem Ax = 0 mindestens eine Lösung x 6= 0. Beweis Nach Umformung von A in zeilenreduzierte Form gibt es mindestens einen Freiheitsgrad, weil r < n gilt. Dabei ist r die Anzahl der Zeilen 6= 0. Satz 2.7.2 Sei A ∈ K(n,n) . Dann gilt: Ax = 0 hat nur die triviale Lösung ⇔ A ist zeilenäquivalent zu I. Beweis “⇐”: klar. “⇒”: Angenommen, A ist zu einer Matrix in zeilenreduzierter Form äquivalent, die r < n Zeilen 6= 0 hat. Dann hat A aber eine Lösung x 6= 0, Widerspruch zur Annahme. Inhomogene Systeme Ax = b lassen sich im Prinzip genauso lösen wie homogene Systeme: Die Umformungen, die auf die Zeilen von A ∈ K(m,n) angewendet werden, wendet man auch auf b an. Genauer: Satz 2.7.3 Das lineare Gleichungssystem Ax = b hat dieselbe Lösungsmenge wie A′ x = b′ , wenn die erweiterte Matrix (A′ b′ ) durch elementare Zeilenumformungen aus (A b) hervorgeht. Wenn man die Matrix (A b) in zeilenreduzierte Form (A′ b′ ) gebracht hat, kann man also schnell erkennen, ob das System überhaupt eine Lösung hat: Es hat genau dann eine Lösung, wenn die Matrix A′ genauso viele Zeilen 6= 0 hat wie die Matrix (A′ b′ ). Wenn diese Zahl r ist, so hat das inhomogene System, ähnlich wie im homogenen Fall, genau n − r Freiheitsgrade. 41 2.8 Matrixmultiplikation Wir wollen jetzt ein etwas vertieftes Verständnis von elementaren Zeilenumformungen sowie von Satz 2.7.2 bekommen. Dazu müssen wir eine Multiplikation auf der Menge der Matrizen einführen, die zunächst sehr künstlich wirkt: Definition 2.8.1 (Matrizenmultiplikation) Sei A ∈ K(m,n) , B ∈ K(n,p) , A = (αi,j ) und B = (βi,j ). Dann ist C := A · B eine m × p-Matrix (γi,j ) mit n X γi,j := αi,k βk,j . k=1 Achtung: Man kann nicht alle Matrizen miteinander multiplizieren. Die Größen der Matrizen müssen zueinander passen! Jetzt wird klar, dass die Notation Ax = b sinnvoll ist. Es handelt sich hier um eine Matrixgleichung β1 x1 α1,1 . . . α1,n .. .. · .. = .. . . . . . xn αm,1 . . . αm,n βm Die Matrizenmultiplikation ist eine binäre Verknüpfung. Diese Verknüpfung ist sicherlich nicht kommutativ, weil ja evtl. das Produkt AB definiert ist, nicht aber BA. Aber selbst, wenn sowohl AB als auch BA erklärt sind (wenn also sowohl A als auch B in K(n,n) liegen), kann AB 6= BA gelten: 0 1 0 1 1 0 = 0 0 0 0 0 0 aber 0 1 1 0 0 0 = 0 0 0 0 0 0 Das Beispiel zeigt auch, dass das Produkt von zwei Matrizen 0 sein kann. Man kann zeigen, dass das Produkt von Matrizen assoziativ ist. Wir können auch noch eine (komponentenweise) Addition von Matrizen einführen: 42 Definition 2.8.2 (Matrizenaddition) Sei A ∈ K(m,n) , B ∈ K(m,n) , A = (αi,j ) und B = (βi,j ). Dann ist C := A + B eine m × n-Matrix (γi,j ) mit γi,j := αi,j + βi,j . Man kann nun zeigen: Satz 2.8.3 Die Matrizen (K(n,n) , +, ·, 0, I) bilden einen im allgemeinen nichtkommutativen Ring mit neutralem Element I. Beweis (Skizze) Nicht trivial ist nur die Assoziativität der Multipliklation, die man aber nachrechnen kann. Wir wollen nun zeigen, dass elementare Zeilenumformungen von A nichts anderes bedeuten als die Multiplikation der Matrix A von links mit einer sogenannten Elementarmatrix. Definition 2.8.4 Elementarmatrizen sind diejenigen quadratischen Matrizen, die aus I durch eine elementare Zeilenumformung hervorgehen. Es gibt drei Typen von Elementarmatrizen (γi,j ): Er (γ) = (γi,j ) mit γi,j 0 = 1 γ Es,r (γ) = (γi,j ) mit r 6= s und γ γi,j = 1 0 wenn i 6= j wenn i = j, i 6= r wenn i = j = r wenn i = r, j = s wenn i = j sonst 43 Es,r = (γi,j ) mit r 6= s und 1 wenn i = j, i 6= r, s γi,j = 1 wenn (i, j) = (r, s) oder (s, r) 0 sonst Überlegen wir uns das für Es,r (γ) = (γi,j ). Wir betrachten den (i, j)-Eintrag ′ = (Es,r · A)i,j αi,j von Es,r · A. Es gilt ′ αi,j = n X γi,k αk,j k=1 ′ ′ Für i 6= r gilt offenbar αi,j = αi,j . Für i = r erhalten wir αr,j = γαs,j + αr,j . Lemma 2.8.5 (1.) Er (γ) · Er (γ −1 ) = Er (γ −1 ) · Er (γ) = I (2.) Es,r (γ) · Es,r (−γ) = Es,r (−γ) · Es,r (γ) = I (3.) Er,s · Er,s = I d.h. zu jeder Elementarmatrix E gibt es eine Elementarmatrix E′ mit EE′ = E′ E = I. Aus naheliegenden Gründen wird E′ mit E−1 bezeichnet. Satz 2.8.6 Seien A, B ∈ K(m,n) . Dann ist B zeilenäquivalent zu A genau dann wenn es ein Produkt P von Elementarmatrizen gibt mit A = PB, P ∈ K(n,n) . Wir haben für quadratische Matrizen gesehen, dass A zu I zeilenäquivalent sein kann, d.h. I = PA, wobei z.B. P = E1 . . . Er , wobei die Ei Elementarmatrizen sind. Dann gilt I = P·A I = E1 · · · Er · A E−1 = E2 · · · Er · A 1 ... = ... −1 −1 Er Er−1 . . . E−1 = A 1 −1 −1 −1 Er Er−1 . . . E2 = AE1 ... = ... I = AP 44 −1 −1 −1 Wir bezeichnen E−1 r Er−1 . . . E1 als P . Dann gilt für zeilenäquivalente Ma−1 trizen PB = A und B = P A. Definition 2.8.7 Wir nennen A ∈ K(n,n) invertierbar wenn es eine Matrix B gibt mit AB = I. Satz 2.8.8 A ∈ K(n,n) invertierbar ⇔ A zeilenäquivalent zu I. Beweis “⇐”: klar “⇒”: Angenommen, A ist nicht zu I zeilenäquivalent, aber invertierbar, z.B. AB = I. Dann hat eine zeilenreduzierte Normalform von A eine Nullzeile, ist also nicht invertierbar. Es gibt also ein Produkt P von Elementarmatrizen so, dass PA nicht invertierbar ist, aber P und A sind invertierbar. Dann ist aber (PA)(BP−1) = I, also ist PA doch invertierbar. Korollar 2.8.9 A ist invertierbar ⇔ trizen. A ist Produkt von Elementarma- Wenn AB = I, dann ist auch BA = I. Ferner gibt es nur eine Matrix B mit AB = I. Beweis Das A genau dann invertierbar ist wenn es ein Produkt von Elementarmatrizen ist, folgt aus Satz 2.8.6 und 2.8.8. Wenn AB = I und A das Produkt von Elementarmatrizen ist, dann gilt nach den Bemerkungen vor Satz 2.8.8 auch BA = I. Beachten Sie bitte, dass diese Vertauschbarkeit nur gilt, weil A Produkt von Elementarmatrizen ist. Nun zur Eindeutigkeit: AB = BA = I und AB′ = I. Dann gilt B = B(AB′) = (BA)B′ = B′ . Wir können dieses Korollar direkt in einen Algorithmus zur Bestimmung der Inversen von A umsetzen (siehe Vorlesung). Der folgende Satz fasst noch einmal zusammen, was für lineare Gleichungssysteme Ax = b und die Invertierbarkeit von A gilt. 45 Satz 2.8.10 Sei A ∈ K(n,n) . Dann sind die folgenden Aussagen äquivalent: (1.) A ist invertierbar. (2.) Ax = 0 hat genau eine Lösung. (3.) Ax = b hat für ein b genau eine Lösung. (4.) Ax = b hat für jedes b genau eine Lösung. (5.) A ist zeilenäquivalent zu I. Beweis Die Äquivalenz von (1.), (2.), und (5.) folgt aus Satz 2.8.8. Wenn wir die inhomogenen Systeme in (3.) und (4.) umformen, erhalten wir A′ x = b′ für eine zeilenreduzierte Normalform A′ . Wenn diese Matrix eine Nullzeile hat, dann hat das System A′ x = b′ mehr als eine Lösung (weil nämlich eine Variable frei gewählt werden kann), oder aber keine Lösung (wenn die Nullzeile zu einer Gleichung 0x1 + 0x2 + . . . + 0xn = β 6= 0 gehört). Das heißt aber, dass A′x = b′ nur dann eindeutig lösbar ist, wenn A′ = I. Das liefert (1.) ⇔ (3.) sowie (1.) ⇔ (4.) 2.9 Zusammenfassung • Sie haben gelernt, wie man lineare Gleichungssysteme löst. Das ist eines der wesentlichen Ziele der Vorlesung! • Sie sollen lineare Gleichungssysteme über beliebigen Körpern lösen können. • Die theoretische Behandlung von linearen Gleichungssystemen ist noch etwas unbefriedigend, weil der Rang noch nicht eindeutig definiert werden konnte. Unbefriedigend ist auch noch, dass wir nicht wissen, ob jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform äquivalent ist. • Neben R und Q sollten Sie nun auch in den endlichen Körper Fp sowie den komplexen Zahlen C rechnen können. • Machen Sie sich mit der modularen Arithmetik vertraut. 46 • Sie können Matrizen invertieren. • Sie können Matrizen miteinander multiplizieren und haben verstanden, das elementare Zeilenumformungen Matrizenmultiplikation von links mit Elementarmatrizen sind. 47 Kapitel 3 Vektorräume 3.1 Definition und Beispiele Definition 3.1.1 Sei (V, ⊕, 0) eine Menge, auf der eine Verknüpfung ⊕ definiert ist, die ein Element 0 enthält und die folgende Eigenschaften hat: [G1] u ⊕ (v ⊕ w) = (u ⊕ v) ⊕ w ∀u, v, w ∈ V. [G2] u⊕v = v⊕u [G3] Es gibt ein Element 0 ∈ V mit der Eigenschaft v ⊕ 0 = v V (neutrales Element). [G4] Zu jedem v ∈ V gibt es ein Element w ∈ V mit v ⊕ w = 0. Bezeichnung für dieses Element w = −v (inverses Element). ∀u, v ∈ V. ∀v ∈ Sei (K, +, ·, 0, 1) ein Körper, und sei ⊙ eine Abbildung V ×K → V (Skalarmultiplikation). Das Element ⊙(v, λ) schreiben wir naheliegenderweise als v ⊙ λ (v ∈ V, λ ∈ K). Es gelte [S1] v⊙1 =v ∀v ∈ V . [S2] v ⊙ (λ1 · λ2 ) = (v ⊙ λ1 ) ⊙ λ2 [S3] (v1 ⊕ v2 ) ⊙ λ = (v1 ⊙ λ) ⊕ (v2 ⊙ λ) ∀v1 , v2 ∈ V, λ ∈ K. 48 ∀v ∈ V, λ1 , λ2 ∈ K. [S4] v ⊙ (λ1 ⊕ +λ2 ) = (v ⊙ λ1 ) + (v ⊙ λ2 ) ∀v ∈ V, λ1 , λ2 ∈ K. Dann heißt V ein K-Vektorraum. Die Elemente aus V heißen Vektoren, die Elemente aus K Skalare. Wir werden Skalare meistens mit griechischen Buchstaben bezeichnen, Vektoren mit lateinischen Buchstaben. Beachten Sie, dass wir die Skalare von rechts an die Vektoren multiplizieren. Beispiel 3.1.2 (1.) Der in dieser Vorlesung wohl wichtigste Vektorraum ist x1 x2 Kn := { .. : x1 , . . . , xn ∈ K} . xn die Menge aller n-Tupel von Elementen aus K. Nun ist das zunächst nur eine Menge, auf der keine Verknüpfung definiert ist. Das kann aber leicht nachgeholt werden: x1 y1 x1 + y1 x2 y2 x2 + y2 .. ⊕ .. := .. . . . xn yn xn + yn sowie x1 · λ x1 x2 · λ x2 .. ⊙ λ := .. . . xn · λ xn Man muss jetzt nachrechnen, dass die Menge Kn mit diesen Verknüpfungen wirklich zu einem Vektorraum wird. Das ist sehr einfach! (2.) Die Menge K(m,n) der m × n-Matrizen ist ebenfalls ein K-Vektorraum: Die Addition von Matrizen wurde bereits erklärt, die Skalarmultiplikation ist α1,1 · · · α1,n α1,1 · λ · · · α1,n · λ .. .. ⊙ λ = .. .. . . . . αm,1 · · · αm,n αm,1 · λ · · · αm,n · λ 49 Als Vektorraum betrachtet sind Kmn und K(m,n) fast identisch. Das werden wir später präzisieren. (3.) Wir bezeichnen mit K[x] := { m X ci xi : ci ∈ K, m ∈ N} i=0 die Menge aller Polynome Pm i über K. Beachten Sie, dass m hier nicht fest gewählt ist. Ist f = i ci x , so heißt max{i : ci 6= 0} der Grad des Polynoms f . Das Nullpolynom (alle ci = 0) hat demnach keinen Grad; manchmal sagt man, Pn das iNullpolynom habe den Grad −∞. P i c x und Zwei Polynome m i=0 di x heißen gleich, wenn sie denselben i=0 i Grad gr haben und ci = di für alle i ≤ gr gilt. Wir können K[x] zu einem K-Vektorraum machen: m X i ci x ⊕ i=0 sowie n X i=0 m X i=0 i m X di x = (ci + di )xi i i=0 ci x ⊗ λ = m X (ci · λ)xi . i=0 Pm Pn i i Bemerkung zur Addition: Wenn wir i=0 ci x und i=0 di x mit n < m addieren wollen, so setzen wir einfach ci = 0 für m ≥ i > n. Als K-Vektorraum können wir K[x] auch wie folgt erklären: Dieser Vektorraum besteht aus allen Tupeln (c0 , c1 , c2 , . . .) wobei ci 6= 0 für nur endlich viele i gilt (alle abbrechenden Folgen). Wir haben also keine “echten” Folgen mit unendlich vielen Einträgen 6= 0. Sie können aber auch den Vektorraum aller nicht abbrechenden Folgen (c0 , c1 , c2 , . . .) 50 definieren. Dieser Vektorraum wird mit K[[x]] bezeichnet, eine intuitive Notation dafür wäre etwa K[[x]] = { ∞ X ci xi : ci ∈ K} i=0 Hier man aber aufpassen: Wir haben nur eine formale Summe f = P∞ muss i i=0 ci x und wir setzen für x nichts ein, d.h. wir werten f nicht an irgendeiner Stelle x aus. Das können wir ja auch nicht, denn unendliche Summen gibt es bei uns in der linearen Algebra nicht! Das geht nur in der Analysis, wo man Begriffe wie Konvergenz kennt. Wenn wir uns aber auf Polynome, d.h. K[x] beschränken, so können wir sehr wohl für x etwas einsetzen, nämlich z.B. irgendwelche Elemente aus K. So können wir aus jedem Polynom auch eine Abbildung K → K machen. Polynome sind aber nicht dieselben Objekte wie solche Polynomabbildungen, weil zu verschiedenen Polynomen dieselben Abbildungen gehören können: Beispiel 3.1.3 Das Polynom f = x2 + x ∈ F2 [x] liefert bei Einsetzung der Elemente aus F2 stets den Wert 0, aber f ist nicht das Nullpolynom. 4. Sei S eine beliebige Menge. Die Menge Abb(S; K) = {f : f ist Abbildung S → K} ist ein K-Vektorraum. Die Addition auf Abb(S; K) ist f ⊕g : S → K s 7→ f (s) + g(s) und die Skalarmultiplikation f ⊗λ : S → K s 7→ f (s) · λ Lemma 3.1.4 In einem K-Vektorraum gilt für alle v ∈ V : 1. v · 0 = 0 2. v · 1 = v 51 3. v · λ = 0 ⇔ v = 0 oder λ = 0 4. v · (−1) = −v Wir wollen in diesem Kapitel abschließend noch den Begriff der Linearkombination definieren: Definition 3.1.5 Sei V ein K-Vektorraum, und sei S ⊆ V . Dann heißt ein Vektor v eine Linearkombination von Vektoren aus S, wenn es v1 , . . . , vn ∈ S und Skalare λ1 , . . . λn gibt mit v= n X vi · λi . i=1 52