1 Ausarbeitung der Vorlesung Lineare Algebra 1 Studiengänge Bachelor, Master, Diplom und Lehramt Mathematik SS 2006 - apl. Prof. Dr. G. Herbort Bergische Universität Wuppertal 2 Bücher zur Vorlesung M. Köcher: Lineare Algebra, Springer Grundwissen Mathematik, Band 4 H.J. Kowalski: Lineare Algebra, de Gruyter-Verlag G. Fischer: Lineare Algebra, Vieweg-Verlag F. Lorenz: Lineare Algebra I und II, BI-Taschenbuch U. Storch: Lehrbuch der Mathematik, Band II: Lineare Algebra, BI-Verlag Mannheim E. Brieskorn: Lineare Algebra und analytische Geometrie II, Vieweg-Verlag 1985 W. Klingenberg, P. Klein: Lineare Algebra und analytische Geometrie II, BI-Verlag Mannheim, Band 749 R. Valenza: Linear Algebra , Springer-Verlag, Undergraduate Text, 1993 T.S. Blyth, E. Robertson: Further Linear Algebra , Springer-Verlag, Undergraduate Text, 2002 Inhaltsverzeichnis 1 Lineare Gleichungssysteme 1.1 Elementares über Mengen . . . . . . . . . . 1.2 Lösbarkeit linearer Gleichungssysteme . . . . 1.2.1 Matrixkalkül . . . . . . . . . . . . . . 1.3 Allgemeine Vektorraumstrukturen . . . . . . 1.3.1 Gruppen und Körper . . . . . . . . . 1.3.2 Vektorräume. Der Dimensionsbegriff 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 11 13 26 26 36 4 INHALTSVERZEICHNIS Kapitel 1 Lineare Gleichungssysteme Abstrakte Vektorraumstrukturen 1.1 Elementares über Mengen Wir wollen uns zuerst mit Schreibweisen aus der Mengenlehre bekannt machen. Die Mengenlehre selbst ist von dem Mathematiker Georg Cantor (1845 - 1918) ”erfunden” worden. Anlass dazu waren Fragen zur Konvergenz von Fourierreihen. Für uns sollen die Schreibweisen und Grundregeln der Mengenlehre nur insofern Bedeutung haben, als sie das angemessene Ausdrucksmittel sind, mit dem sich mathematische Inhalte in der gewünschten Klarheit beschreiben lassen. Die folgende Definition einer Menge stammt von Cantor: Definition. Eine Menge ist eine Zusammenfassung von wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens zu einem Ganzen. Ist also M eine Menge, so schreiben wir x ∈ M , wenn das Objekt x zur Menge M gehört und x∈ / M , wenn es nicht zu M gehört. Zwei Mengen M1 und M2 sind genau dann gleich, wenn jedes Objekt x, das zu M1 gehört, auch schon zu M2 gehört und ebenso jedes Objekt x, das zu M2 gehört, auch schon zu M1 gehört. Die Objekte, welche zu einer Menge gehören, werden als deren Elemente bezeichnet. Beispiele. Die natürlichen Zahlen, die ganzen Zahlen, die rationalen Zahlen oder auch die reellen Zahlen bilden wichtige Beispiele von Mengen. Sie werden mir IN, ZZ, Q bezw. mit IR bezeichnet. Wir werden später noch die Menge C der komplexen Zahlen kennen lernen. Man kann Mengen zum Beispiel durch Aufzählen ihrer Elemente darstellen M = {x1 , x2 , x3 , ....} sofern man ihre Elemente abzählen kann: 5 6 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Beispiele: Die Menge ZZ der ganzen Zahlen: ZZ = {0, 1, −1, 2, −2, 3, −3, 4, −4, ....} oder die Menge IN 2 aller Paare natürlicher Zahlen IN 2 = {(1, 1), (1, 2), (2, 1), (1, 3), (2, 2), (3, 1), (1, 4), (2, 3), (3, 2), (4, 1), ....} Achtung: Eine solche Aufzählung ist aber nicht immer möglich: Beispiel: Die reellen Zahlen lassen sich nicht abzählen, ebenso nicht irgendein Intervall reeller Zahlen! Wir können zwei Mengen miteinander vergleichen Definition. Sind A und M zwei Mengen, so nennen wir A eine Teilmenge von M , wenn jedes Element von A schon zu M gehört. Wir schreiben dann: x ∈ A =⇒ x ∈ M , oder A⊂M oder M ⊃A Folgendes leuchtet nun ein: • Stets ist M ⊂ M , • Es ist A = M genau dann, wenn A ⊂ M und M ⊂ A gilt, • Wenn B ⊂ A und A ⊂ M , so ist auch B ⊂ M . Auswahlregel. Ist M eine Menge, so kann man auf folgende Weise neue Mengen aus M gewinnen: • Ist P ein Merkmal, das Objekte aus M haben können oder nicht, so kann man alle Elemente x aus M , die das Merkmal P aufweisen, zu einer Menge zusammenfassen: {x ∈ M | x hat P} Achtung: Dieses Prinzip funktioniert nur innerhalb einer gegebenen Menge (hier M ). Merkmale allein definieren im allgemeinen keine Menge! Als Beispiel denke man an die Russelschen Antinomien (B. Russel (1872-1970), britischer Mathematiker, Philosoph, Nobelpreisträger für Literatur). Das Gebilde M := {S | S Menge S ∈ / S} kann keine Menge sein! 1.1. ELEMENTARES ÜBER MENGEN 7 Vereinigung von Mengen Angenommen, M sei eine gegebene Menge. Für zwei Teilmengen A, B von M sei dann A ∪ B die Menge derjenigen Elemente von M , welche zu A oder zu B gehören. Dabei ist zugelassen, dass Elemente sowohl zu A als auch zu B gehören. Die so entstehende Menge heißt dann die Vereinigung von A und B. Für sie verwenden wir das Symbol A ∪ B, also A ∪ B = {x ∈ M | x ∈ A oder x ∈ B} Beispiele: 1) Für die Menge der ganzen Zahlen haben wir die Zerlegung ZZ = {x ∈ ZZ | x ist von der Form x = 2k, k ∈ ZZ} ∪{x ∈ ZZ | x ist von der Form x = 2k + 1, k ∈ ZZ} 2) Die Menge M aller Paare (x, y) mit |x| = |y| ist darstellbar als M = {(x, x) | x ∈ IR} ∪ {(x, −x) | x ∈ IR} Wir notieren einfache Regeln für die Vereinigungsbildung: Sind A, B und C Teilmengen einer Menge M , so gilt • A∪B =B∪A • (A ∪ B) ∪ C = A ∪ (B ∪ C) • Genau dann ist A ⊂ B, wenn A ∪ B = B, Es lassen sich auch Vereinigungen beliebig vieler Mengen bilden. Wir können dies so formulieren: Sei I eine beliebige Menge (etwa I = IN oder I = ZZ, oder I = IR). Angenommen, zu jedem i ∈ I sei eine Teilmenge Ai ⊂ M gegeben. Dann bezeichnet [ Ai A := i∈I die Teilmenge von M , welche genau aus allen Elementen all dieser Ai besteht. Anders gesagt: Eine Element x ∈ M gehört genau dann zu A, wenn es zu einer der Mengen Ai gehört. Beispiele. 1) Ist etwa I = {k ∈ IN | k ≥ 2} und bezeichnen wir mit Ak die Menge aller ganzen Zahlen, die sich durch k teilen lassen, so ist ZZ \ {−1, 1} = ∞ [ Ak k=2 2) Ist etwa M die Menge, die aus der Ebene durch Herausnehmen des Ursprungs (0, 0) entsteht, und ist Mt für t > 0 die Menge aller Punkte, die vom Ursprung einen Abstand von mindestens t haben, so ist [ M= Mt t>0 8 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Durchschnitte von Mengen. Sei wieder M eine Menge. Für zwei Teilmengen A, B von M sei dann A ∩ B die Menge von Elementen aus M , die sowohl Element von A als auch von B sind. Diese Menge heißt der Durchschnitt von A mit B und wird mit A ∩ B bezeichnet, also A ∩ B = {x ∈ M | x ∈ A und x ∈ B } Beispiele. 1) Ist etwa M = ZZ und Ak die Menge aller der Zahlen, welche durch k teilbar sind, so haben wir A6 = A2 ∩ A3 Allgemeiner: Wenn m und ` zwei teilerfremde ganze Zahlen sind (d.h.: Es gibt keine ganze Zahl d, die m und gleichzeitig ` teilt), so ist Am` = Am ∩ A` Es gelten sinngemäß die Regeln, die wir auch schon bei der Vereinigungsbildung notiert haben. Sind A, B und C Teilmengen einer Menge M , so gilt • A∩B =B∩A • (A ∩ B) ∩ C = A ∩ (B ∩ C), • Genau dann ist A ⊂ B, wenn A ∩ B = A. Desgleichen können wir auch Durchschnitte beliebig vieler Teilmengen von M bilden: Ist also I eine Indexmenge und (Ai )i∈I eine Familie von Teilmengen von M , so bezeichnet \ A := Ai i∈I die Teilmenge von M , deren Elemente in allen Ai zugleich gelegen sind. Anders gesagt: Eine Element x ∈ M gehört genau dann zu A, wenn es zu jeder der Mengen Ai gehört. Beispiel. Ist M die ganze Ebene und t > 0, so sei At der Kreis um den Ursprung O mit Radius t. Dann gilt \ {O} = At t>0 Die leere Menge. Es kommt vor, dass innerhalb einer Menge M keine Elemente existieren, die ein bestimmtes Merkmal P aufweisen: Man kann diesen Sachverhalt innerhalb der Mengenlehre mit Hilfe der leeren Menge, ausdrücken, die durch das Symbol ∅ beschrieben wird: {x ∈ M | x hat P} = ∅ 1.1. ELEMENTARES ÜBER MENGEN 9 Diese Menge vertritt in etwa dieselbe Rolle beim Rechnen mit Mengen wie die Null beim Addieren von Zahlen. Man denkt sie sich als Menge, die kein Element enthält und vereinbart, dass ∅ Teilmenge jeder Menge ist. Ein oft auftretendes Merkmal ist etwa dieses: Sind A und B zwei Teilmengen von M , die keine gemeinsamen Elemente haben, so kann man das durch A∩B =∅ darstellen. Man nennt A und B dann disjunkt. Etwas allgemeiner schreibt man für endlich viele Mengen A1 , A2 , ..., An ⊂ M , dass A1 ∩ A2 ∩ ... ∩ An = ∅ wenn keine Elemente in M existieren, die in allen A1 , ..., An zugleich enthalten sind. Übungsaufgabe: Die Aussage A1 ∩ A2 ∩ ... ∩ An = ∅ ist gleichbedeutend damit, dass zu jedem Element x ∈ M ein Index j ∈ {1, ..., n} existiert, so dass x ∈ / Aj . Die Operationen der Vereinigung und Durchschnittsbildung ”vertragen” sich in dem folgenden Sinne gut miteinander: 1.1.1 Lemma. Sind A, B, C Teilmengen einer gegebenen Menge M , so gilt • (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) • (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) Komplementbildung. Ist A Teilmenge einer Menge M , so fasst man alle nicht zu A gehörenden Elemente aud M zu einer neuen Menge Ac zusammen, die man das Komplement von A in M nennt. Man schreibt auch Ac = M \ A dafür: / A} Ac = M \ A = {x ∈ M | x ∈ Folgende Regeln sind offensichtlich • (Ac )c = A für jede Menge A ⊂ M • M c = ∅, und ∅c = M , • Genau dann ist A ⊂ B, wenn B c ⊂ Ac gilt Mit den Vereinigungs-und Durchschnittsbildungen verträgt sich die Komplementbildung ebenfalls: 1.1.2 Lemma.(de Morgansche Regeln) Sind A und B Teilmengen einer gegebenen Menge M , so gelten die Regeln 10 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME • (A ∪ B)c = Ac ∩ B c • (A ∩ B)c = Ac ∪ B c Entsprechendes gilt bei unendlichen Vereinigungen und Durchschnitten: Ist I eine Indexmenge und (Ai )i∈I eine Familie von Teilmengen von M , so wird !c [ \ Ai = Aci i∈I und \ i∈I i∈I !c Ai = [ Aci i∈I Potenzmenge einer Menge Die Welt ist nicht nur in Mengen und Elemente eingeteilt: Was eben noch als Menge angesehen wurde, kann bei anderer Gelegenheit selbst Element einer Menge sein. Dafür lernen wir ein erstes Beispiel kennen: Ist M eine Menge, so können wir die Gesamtheit aller Teilmengen von M selbst zu einer Menge zusammenfassen. Diese wird die Potenzmenge von M genannt und mit dem Symbol P(M ) bezeichnet, also P(M ) = {A | A ⊂ M } Der Name rührt von der Tatsache her, dass, wenn etwa M eine Menge mit ` Elementen ist, dann P(M ) genau 2` Elemente hat. Beispiel. a) Ist etwa M = ∅, so haben wir P(M ) = {∅} b) Ist M = {1}, so wird P(M ) = {∅, M }, c) Wenn M = {1, 2} ist, so folgt P(M ) = {∅, {1}, {2}, M } d) Schließlich sei M = {1, 2, 3}, so finden wir P(M ) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, M } e) Angenommen nun, es sei M = IN . Dann ist die Menge P(M ) schon so groß, dass man ihre Elemente nicht mehr abzählen kann. ( Diese Menge ist überabzählbar!) Kartesische Produkte Angenommen, wir haben zwei Mengen M1 und M2 gegeben. Dann können wir alle Paare (x1 , x2 ), die aus einem Element x1 ∈ M1 und einem Element x2 ∈ M2 bestehen, zu einer neuen Menge M1 × M2 zusammemfassen, die man das kartesische Produkt von M1 und M2 nennt (benannt nach dem frz. Mathematiker René Descartes (1596-1650) ). 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 11 Beispiele. 1) Werfen wir mit 2 Würfeln, so lässt sich die Menge M aller möglichen Ergebnisse als kartesisches Produkt schreiben: M = {1, 2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6} 2) Die Ebene IR2 ist darstellbar als kartesisches Produkt von IR mit sich selbst, also IR2 = IR × IR Entsprechend kann man das kartesische Produkt von endlich vielen Mengen M1 , ..., Mk bilden: Das ist die Menge aller Kollektionen (x1 , ..., xk ) (man nennt diese auch k-Tupel) von Elementen, wobei x1 ∈ M1 , x2 ∈ M2 ,..., xk ∈ Mk gehört. M1 × M2 × ... × Mk = {(x1 , ..., xk ) | x1 ∈ M1 , x2 ∈ M2 , ..., xk ∈ Mk } Sind alle Mengen M1 , ..., Mk gleich einer Menge M , so schreibt man kurz M k statt M × .... × M . Beispiele. 1) Angenommen, an einem Empfang nehmen k Personen teil und man fragt, mit welcher Wahrscheinlichkeit haben zwei von ihnen am selben Tag Geburtstag, so kann man für dieses Problem ein mathematisches Modell entwerfen, bei dem man die Menge S aller Verteilungen von Geburtstagen auf Personen verwenden muss. Diese ist gegeben durch S = {1, 2, 3, 4, ...., 365}k 2) Der Anschauungsraum ist nichts anderes als die Menge IR3 , 3) Datensätze, etwa die Ergebnisse einer Messreihe sind durch Elemente aus der Menge IRn aller n-Tupel reeller Zahlen (Vektoren) darstellbar. 1.2 Lösbarkeit linearer Gleichungssysteme Jeder hat schon einmal ein lineares Gleichungssystem gesehen. Es lässt sich allgemein so darstellen: Man hat eine Anzahl d von Gleichungen, welche von n Variablen erfüllt werden sollen: a11 x1 + a12 x2 + ... + a1n xn = b1 a21 x1 + a22 x2 + ... + a2n xn = b2 .. .. .. . . . ad1 x1 + ad2 x2 + ... + adn xn = bd Dann sind die folgenden Rechenregeln erfüllt Dabei sind a11 , ..., adn Zahlen, ebenso die b1 , ..., bn . Die x1 , ..., xn sind die Unbekannten. Es stellen sich folgende Fragen 12 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME • Wie entscheidet man, ob es Lösungen gibt oder nicht? • Wie errechnet man alle Lösungen, wenn es denn solche gibt? Dazu ist ein Kalkül entwickelt worden, der auch Gauß-Algorithmus genannt wird. Das Koeffizientenschema a11 a12 . . . a1n a21 a22 . . . a2n A = .. .. .. . . . heißt die Matrix und die Spalte b = b1 b2 .. . (1.2.1) ad1 ad2 . . . adn nennen wir die Daten des linearen Gleichungssystems. bd Allgemeiner wollen wir Spalten mit n reellen Einträgen, künftig auch Spaltenvektoren genannt, zu einer Menge IRn zusammenfassen. Der Ausdruck x ∈ IRn bedeutet: x soll ein n-komponentiger Spaltenvektor sein. Auch die Gesamtheit aller Matrizen mit d Zeilen und n Spalten, auch d×n-Matrizen genannt, fassen wir zu einer Menge zusammen, die wir mit M (d × n, IR) bezeichnen wollen. (Denn alle Koeffizienten sollen dem Zahlenbereich IR der reellen Zahlen angehören). Die Notation A ∈ M (d × n, IR) soll bedeuten: A ist eine d × n-Matrix. Wir schreiben statt (1.2.1) auch A = (aij )1≤i≤d,1≤j≤n Wir können auf IRn und M (d × n, IR) Strukturen feststellen. • Addition zweier Spaltenvektoren: x1 y1 Für x = ... , y = ... setzen wir xn yn x1 + y1 .. x + y := . xn + yn • Addition zweier Matrizen: Zwei Matrizen a11 a12 . . . a1n a21 a22 . . . a2n A = .. .. .. , . . . ad1 ad2 . . . adn B= b11 b12 . . . b1n b21 b22 . . . b2n .. .. .. . . . bd1 bd2 . . . bdn 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME lassen sich addieren, wenn wir setzen: a11 + b11 a12 + b12 . . . a1n + b1n a21 + b21 a22 + b22 . . . a2n + b2n A + B := .. .. .. . . . ad1 + bd1 ad2 + bd2 . . . adn + bdn 13 n Ferner können wir eine reelle Zahl α mit Spaltenvektor x ∈ IR und mit einer Matrix einem x1 .. A ∈ M (d × n, IR) multiplizieren: Sei x = . ∈ IRn und A ∈ M (d × n, IR). Dann sei xn αa11 αa12 . . . αa1n αx1 αa21 αa22 . . . αa2n .. αx := . , αA := .. .. .. . . . αxn αad1 αad2 . . . αadn Es gelten dann die folgenden Rechenregeln Für Spaltenvektoren x, y, z ∈ IRn und Matrizen A, B, C ∈ M (d × n, IR) und reelle Zahlen α, β gilt (x + y) + z = x + (y + z), x + y = y + x, α(x + y) = αx + αy, (α + β)x = αx + βx, α(βx) = (αβ)x, 1.2.1 (A + B) + C = A + (B + C), Assoziativität A + B = B + A, Kommutativität α(A + B) = αA + αB Distributivgesetze (α + β)A = αA + βA α(βA) = (αβ)A, gemischtes Assoziativgesetz Matrixkalkül Es gibt eine weitere, feinsinnigere Struktur: • Multiplikation bei Matrizen: x1 Sei A = (aij )1≤i≤d,1≤j≤n ∈ M (d × n, IR) und x = ... ∈ IRn , so soll A · x das folgende xn bedeuten a11 x1 + a12 x2 + a13 x3 + ... + a1n xn a21 x1 + a22 x2 + a23 x3 + ... + a2n xn A · x := .. . ad1 x1 + ad2 x2 + ad3 x3 + ... + adn xn 14 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Dies ist also eine Spalte mit d Einträgen. Beispiele. 1) Es gilt etwa 3 36 4 8 −3 5 3 −2 −1 6 · 2 = 12 −1 2 1 0 2 1 1 2) Sei e1 die Spalte mit n Einträgen, deren erster Eintrag gleich 1 ist, während die anderen alle Null sein sollen. Weiter sei e2 die Spalte mit n Einträgen, deren zweiter Eintrag gleich 1 ist, während die anderen alle Null sein sollen. Allgemein bezeichnen wir mit ej diejenige Spalte, deren j-te Stelle gleich 1 ist, während die anderen gleich Null sind. Dann ist a1j a2j A · ej = .. . adj gerade die j-te Spalte der Matrix A. • Wichtig: Der Ausdruck A · x kann nur gebildet werden, wenn x soviele Komponenten hat, wie A Spalten besitzt!! • Matrixprodukt: Sei A ∈ M (d × k, IR) und B ∈ M (k × n, IR). Dann soll mit A · B diejenige Matrix bezeichnet werden, deren j-te Spalte gerade durch A · (B · ej ) gegeben ist. Dabei kann j die Werte 1, ..., n annehmen. Somit ist also A · B eine (d × n)-Matrix. Der Eintrag, der in dieser Matrix in der i-ten Zeile und j-ten Spalte steht, ist also gerade ai1 b1j + .... + aik bkj wenn aij die Einträge von A Beispiele. Es gilt 2 −2 8 Das Matrixprodukt und br` diejeingen von B bezeichnet. −1 5 2 3 3 1 1 −4 · −2 −4 = −10 −54 25 14 1 11 1 11 2 3 1 2 3 −2 −4 · −2 1 −4 8 1 11 1 11 ist dagegen nicht definiert. Wir stellen fest, dass folgende Rechenregeln für die Matrixmultiplikation gelten: 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 15 1.2.3 Lemma. a) Ist A = (aij )1≤i≤d,1≤j≤n ∈ M (d × n, IR) eine Matrix und sind x, y ∈ IRn , so gilt A · (αx + βy) = αA · x + βA · y b) Sei A wie unter a). Für zwei Matrizen B, C mit n Zeilen und r Spalten gilt dann A · (B + C) = A · B + A · C c) Seien B ∈ M (n × k, IR) und C ∈ M (k × r, IR). Dann gilt das Assoziativgesetz A · (B · C) = (A · B) · C Beweis. a) wird nachgerechnet. b) folgt aus a) zusammen mit der Definition des Matrizenproduktes. c) Wir vergleichen die j-te Spalte der links und rechts stehenden Matrix. Sei etwa C = (cij )1≤i≤k,1≤j≤r . Dann gilt, wenn ei die r-komponentige Spalte bezeichnet, an deren i-ter Stelle 1 steht und an den anderen Stellen 0: C · ej = c1j e01 + c2j e02 + . . . + ckj e0k wobei die e0` ∈ IRk analoge Bedeutung haben, wie die ej . Es folgt mit Hilfe von a) (B · C) · ej = B(c1j e01 + c2j e02 + . . . + ckj e0k ) = c1j Be01 + c2j Be02 + . . . + ckj Be0k Nun bilden wir A · (B · C)ej . Das ist die j-te Spalte der links stehenden Matrix. Wieder mit a) erhalten wir A · (B · C)ej = = = = A · (c1j Be01 + c2j Be02 + . . . + ckj Be0k ) c1j A · Be01 + c2j A · Be02 + . . . + ckj A · Be0k A · B · (c1j e01 + c2j e02 + . . . + ckj e0k ) (A · B) · (C · ej ) Letzterer Ausdruck ist aber gerade die j-te Spalte von (A · B) · C. Die jeweiligen Spalten beider Matrizen stimmen überein, also insgesamt beide Matrizen. • Achtung: Die Matrixmultiplikation erfüllt kein Kommutativgesetz, auch nicht, wenn die Matrizen genauso viele Zeilen wie Spalten haben. Hier ist ein Beispiel 0 1 0 0 1 0 · = 0 0 1 0 0 0 aber 0 0 1 0 0 1 0 0 · = 0 0 0 1 16 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Wir können nun ein lineares Gleichungssystem stets in der Form A·x=b schreiben, wobei A die Koeffizientenmatrix, b die Daten und x die Spalte gebildet aus den Unbekannten x1 , ..., xn bedeutet. Das sieht formal aus wie die leicht zu lösende lineare Gleichung ax = b mit Zahlen a 6= 0 und b. Hier kann die Lösung durch x = ab gefunden werden. Mit der Division durch Matrizen ist es aber nicht so einfach bestellt. An die Stelle der Division tritt nun das Verfahren, die Matrix A und die Daten b innerhalb gewisser Regeln derart umzuformen, dass bei den Zwischenschritten lineare Gleichungssysteme entstehen, welche dem gegebenen äquivalent sind, also dieselbe Lösungsmenge besitzen. Invertierbare Matrizen Die Matrizen aus M (n, IR) := M (n × n, IR) nennen wir künftig quadratische Matrizen. Für eine Klasse von quadratischen Matrizen lässt sich eine zur Matrixmultiplikation inverse Operation durchführen. Als n × n-Einheitsmatrix bezeichnen wir die folgende Matrix aus M (n, IR): 1 0 ... 0 0 1 ... 0 En := .. . . . .. . . 0 ... 1 Das ist also die quadratische n-reihige Matrix, deren Diagonalelemente alle 1 sind, während alle anderen Einträge 0 sein sollen. Wir rechnen leicht aus, dass En sich bei Multiplikation neutral verhält: Ist x ∈ IRn und A ∈ M (n × k, IR) und B ∈ M (d × n, IR) so ist En · x = x, En · A = A, B · En = B Definition. Wir nennen eine Matrix A ∈ M (n, IR) invertierbar, wenn eine Matrix A0 ∈ M (n, IR) mit A0 · A = En existiert. Die Menge der invertierbaren Matrizen wird mit GL (n, IR) bezeichnet. Zum Beispiel ist En invertierbar. Hier sind erste Eigenschaften invertierbarer Matrizen: 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 17 1.2.4 Lemma. a) Mit zwei Matrizen A, B ∈ GL (n, IR) ist auch A · B invertierbar. b) Angenommen, es sei A ∈ M (d × n, IR) und B ∈ GL (d, IR). Dann löst x ∈ IR das genau dann das lineare Gleichungssystem A · x = b, wenn x Lösung zum linearen Gleichungssystem BA · x = B · b ist. Beweis. a) Sind A, B ∈ GL (n, IR) und A0 und B 0 zu A und B so gewählt, dass A0 · A = B 0 · B = En , so gilt B 0 · A0 · (A · B) = B 0 · (A0 · A) · B = B 0 · B = En b) Ist x Lösung zu A · x = b, so folgt leicht B · A · x = B · b. Ist umgekehrt x eine Lösung zu B · A · x = B · b, und ist B 0 eine d × d-Matrix mit B 0 · B = Ed , so ist A · x = (B 0 · B) · (A · x) = B 0 · (B · A · x) = B 0 · (B · b) = b Sei nun wieder A eine allgemeine d × n-Matrix und b ∈ IRd . Wir wollen nun durch Multiplikation von A mit geeigneten Matrizen aus GL (d, IR) das lineare Gleichungssystem A·x=b äquivalent umformen, um zu einem neuen linearen Gleichungssystem zu gelangen, das einfacher strukturiert ist und dennoch dieselbe Lösungsmenge hat wie das gegebene. Dazu arbeiten wir mit sog. Elementarmatrizen: Das sind Matrizen vom folgenden Typ: i) Für 1 ≤ i < j ≤ d sei P(i, j) := 1 .. . 0 .. . 0 .. . 0 j.te Spalte 0 ... ... ... 0 .. . ... ... 1 ... 0 .. . ... 1 ... ... 0 .. . 0 ... ... ... 1 i.te Spalte i.te Zeile j.te Zeile 18 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Das ist genau die Matrix, die aus Ed entsteht, wenn wir die Spalten Nummer i und j vertauschen. Da P(i, j) · P(i, j) = Ed , ist sicher P(i, j) ∈ GL (d, IR). Dann wird P(i, j) · A die Matrix werden, die durch Vertauschen der Zeilen Nummer i und j aus A entsteht. ii) Sei für α 6= 0 und 1 ≤ i ≤ d: 1 ... ... 0 . .. . . . . . . . .. . .. .. . . . α . i.te − Stelle M(i, α) := . . . . . .. .. . . . 0 ... ... 1 M(i, α) entseht also aus Ed dadurch, dass das i.te Diagonalelement durch α ersetzt wird. Wegen α 6= 0 ist M(i, α) ∈ GL (d, IR), und M(i, α) · M(i, 1/α) = M(i, 1/α) · M(i, α) = Ed Die Matrix M(i, α)·A entsteht dann aus A dadurch, dass in A die i.te Zeile mit α multipliziert wird. iii) Für 1 ≤ i, j ≤ d sei Eij die Matrix, deren in Zeile i und Spalte j stehender Eintrag gleich 1 ist, während alle anderen Einträge 0 sind. Dann haben wir zunächst 0, wenn j 6= k Eij · Ek` = Ei` , wenn j = k Wenn nun i 6= j, ist für jedes α ∈ IR die Matrix Ed + αEij invertierbar, und ihre Inverse ist Ed − αEij . Multiplizieren wir nun A von links mit Ed + αEij , so bewirkt dies bei A, dass zur i.ten Zeile von A das α-fache der j.ten Zeile addiert wird. Zeilenstufenform einer Matrix Definition. Gegeben sei eine Matrix A ∈ M (d×n). Dann sagen wir, A sei in Zeilenstufenform, wenn gilt: • Es existiert eine Zahl 1 ≤ r ≤ d, so dass genau die ersten r Zeilen von A ungleich Null sind und • bezeichnen wir für k ∈ {1, ..., r} mit jk die Nummer der ersten Stelle in der k.-ten Zeile, an der ein von 0 verschiedenes Element steht, so ist j1 < j2 < j3 < ... < jr ≤ n 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 19 Beispiele: a) Diese Matrix hat Zeilenstufenform: (hier ist d = n = 5) A= 1 0 0 0 0 3 −2 2 4 0 4 4 8 0 0 0 −1 0 0 0 0 0 0 0 0 denn es gilt r = 3 und j1 = 1, j2 = 3, j3 = 5. b) Diese Matrix ist dagegen nicht in Zeilenstufenform: A= 1 3 −2 2 4 −1 −1 4 4 8 0 1 0 0 −1 0 0 0 0 0 0 0 0 0 0 denn es ist j1 = j2 (= 1). Allgemein hat eine Matrix A ∈ M (d × n, IR) in Zeilenstufenform also solch ein Aussehen: A= 0 0 0 .. . . . . a1j1 . . . . . . . . . . . . . . . . . . . . . . . . . . . a2j2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a3j3 . . . . . . . . . . . . . . . . . . . . . . . . . .. 0 ... 0 ... 0 0 .. .. . . 0 0 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . . . . .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . . . arjr ... ... ... ... . . . a1n . . . a2n . . . a3n . . . . .. . . . . .. . . . arn 0 0 .. .. . . 0 0 Wir zeigen jetzt: 1.2.5 Satz. Jede Matrix A ∈ M (d × n, IR) kann durch Linksmultiplikationen mit Elementarmatrizen (man nennt dies auch elementare Zeilenumformungen von A) in eine Matrix in Zeilenstufenform gebracht werden. Beweis. Angenommen, es sei 20 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME A= a11 , a21 , a31 , .. . .. . ad1 , a12 , a22 , a32 , .. . .. . ad2 , . . . . . . a1n . . . . . . a2n . . . . . . a3n . . . . . . . .. . . . . . . . .. . . . . . . adn Wir suchen die erste Spalte in A, die nicht nur aus Nullen besteht. Ihre Nummer nennen wir j1 . Folgende Schritte werden ausgeführt: • Wir suchen einen Eintrag in Spalte j1 , der nicht Null ist. Wenn a1j1 = 0, so steht an einer Stelle i1 ∈ {2, ..., d} ein derartiger Eintrag. In diesem Fall vertauschen wir die Zeilen 1 und i1 miteinander Das führt auf die Matrix A(1) = 0 . . . 0 ai1 j1 , ai1 j1 +1 , 0 . . . 0 a2j1 , a2j1 +1 , 0 . . . 0 a3j1 , a3j1 +1 , .. .. 0 ... 0 . . 0 . . . 0 0, a1j1 +1 , .. .. 0 ... 0 . . .. .. 0 ... 0 . . 0 . . . 0 adj1 , adj1 +1 , . . . . . . ai1 n . . . . . . a2n . . . . . . a3n . . . . . . . .. . . . . . . a1n . . . . . . . .. . . . . . . . .. . . . . . . adn i1 . − te Stelle Ist a1j1 6= 0, so brauchen wir an der Matrix A keine Zeilenvertauschungen vorzunehmen. Der nächste Schritt: • Man subtrahiere für jedes ` = 2, ...., d, für das a`j1 6= 0 ist, von der `.-ten Zeile das der 1. Zeile. a`j1 -fache ai1 j1 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME Es entsteht eine Matrix der Gestalt: 0 . . . 0 ai1 j1 , 0 . . . 0 0, 0 . . . 0 0, .. 0 ... 0 . (2) A = 0 . . . 0 0, .. 0 ... 0 . . .. 0 ... 0 0 ... 0 0 ai1 j1 +1 , a02j1 +1 , a03j1 +1 , .. . a01j1 +1 , .. . .. . a0d j1 +1 , . . . . . . ai1 n . . . . . . a02n . . . . . . a03n . . . . . . . .. . . . . . . a01n . . . . . . . .. . . . . . . . .. . . . . . . a0dn 21 Nächster Schritt: • Wir suchen in A(2) die erste Spalte, bei der an einer der Stellen 2 bis d ein von Null verschiedener Eintrag steht. Ist keine solche Spalte da, so sind wir fertig, und es ist r = 1. Anderenfalls gibt es eine solche Spalte, deren Nummer wir j2 nennen. Dann ist j2 > j1 . An einer geeigneten Stelle in der j2 .ten Spalte von A(2) steht ein von Null verschiedenes Element, etwa an der i2 .ten Stelle, (mit 2 ≤ i2 ≤ d). Sollte i2 nicht gleich 2 wählbar sein, so vertauschen wir in A(2) die Zeilen 2 und i2 miteinander und erhalten eine neue Matrix von der Form: 0 . . . 0 ai1 j1 , ai1 j1 +1 , . . . . . . . . . . . . . ai1 n 0 . . . 0 0, 0 . . . ai2 j2 . . . . . . . . . a0i2 n 0 0 . . . 0 0, 0, . . . a . . . . . . . . . a 3j 2 3n .. .. .. .. 0 ... 0 . . . ... ... ... ... . (2) .. A = 0 0 . . . 0 0, 0, . . . . . . . . . . . . . a 1n .. .. .. .. 0 ... 0 . . . . . . . . . . . . . . . . .. .. .. .. 0 ... 0 . ... . ... . ... ... . 0 . . . 0 0, 0 . . . adj2 . . . . . . . . . a0dn a Für ` = 3, ..., d subtrahieren wir von der `.-ten Zeile das ai` jj2 -fache der 2. Zeile. Heraus kommt 2 2 dann eine Matrix von der Gestalt: 0 . . . 0 ai1 j1 , ai1 j1 +1 , . . . . . . . . . . . . . ai1 n 0 . . . 0 0, 0 . . . ai2 j2 . . . . . . . . . a0i2 n 0 0 . . . 0 0, 0, . . . 0 . . . . . . . . . a 3n .. .. .. 0 ... 0 . . . . . 0 . . . . . . . . . . (3) .. A = 0 . . . . . . . . . . a 0 . . . 0 0, 0, . . . 1n .. .. .. .. 0 ... 0 . . . . . . . . . . . . . . . . .. .. .. .. 0 ... 0 . ... . ... . ... ... . 0 . . . 0 0, 0 . . . 0 . . . . . . . . . a0dn 22 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Hat der Teil der Matrix A(3) , der unterhalb der 2. Zeile liegt, keine von Null verschiedene Spalte mehr, so ist das Verfahren zu Ende, und r = 2, sonst fahren wir in analoger Weise fort, solange bis wir auf eine Matrix von Zeilenstufengestalt kommen, was nach spätestens d Schritten erreicht ist. Beispiel. Die Matrix A= Hier ist j1 = 2. Subtrahieren wir von 2-fache der 1. Zeile, so entsteht A0 = 0 1 2 −4 0 0 0 0 0 1 2 −4 0 1 2 −4 0 2 4 −8 der 3. und 4. 0 0 0 0 0 1 0 0 0 0 29 −41 40 −69 −3 3 53 −60 18 −17 Zeile die 1. Zeile und von der 5. Zeile das 2 −4 29 −41 0 0 40 −69 0 0 −32 44 0 0 24 −19 0 0 −40 65 In A0 addieren wir zur 2. Zeile die 3. Zeile und 0 1 2 0 0 0 A00 = 0 0 0 0 0 0 0 0 0 finden die −4 29 0 8 0 −32 0 24 0 −40 Matrix −41 −25 44 −19 65 Nun addieren wir hierin zur 3. Zeile das 4-fache der 2. Zeile, zur 4. Zeile das (−3)-fache der 2. Zeile und zur 5. Zeile das 5-fache der 2. Zeile und gelangen zu der Matrix 0 1 2 −4 29 −41 0 0 0 0 8 −25 000 A = 0 0 0 0 0 −56 0 0 0 0 0 56 0 0 0 0 0 −60 Nun addieren wir zur 4. Zeile die 3. Zeile entsteht die Zeilenstufenmatrix 0 0 Azsf = 0 0 0 und zur 5. Zeile das (−15/14)-fache der 3. Zeile. Es 1 0 0 0 0 2 −4 29 −41 0 0 8 −25 0 0 0 −56 0 0 0 0 0 0 0 0 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 23 Für die Diskussion um die Lösbarkeit linearer Gleichungssyssteme ergibt sich aus dem Satz von der Zeilenstufengestalt einer Matrix das folgende Lösbarkeitskriterium. 1.2.6 Satz. Angenommen, es sei A ∈ M (d × n, IR) und b ∈ IRd . Nehmen wir an A Zeilenoperationen vor, um A in Zeilenstufengestalt Azsf zu bringen, so bedeute b∗ den Vektor, der aus b dadurch entsteht, dass man alle diese Zeilenoperationen auch an b vornimmt. Wenn dann die oberen r Zeilen in Azsf ungleich Null sind und ab der (r +1)-ten alle Zeilen in Azsf verschwinden, so hat das lineareGleichungssystem A · x = b genau dann mindestens eine Lösung, wenn b∗ die b∗1 .. . ∗ b Form b∗ = r hat. 0 . .. 0 Beweis. Bezeichnen wir das Produkt aller Elementarmatrizen, die zur Gewinnung einer Zeilenstufenform von A nötig sind, mit M(∈ GL (d, IR) ), so ist also b∗ = M · b. Angenommen, das Gleichungssystem A · x = b habe mindestens eine Lösung. Dann gilt dies auch für das Gleichungssystem Azsf · x = M · A · x = b∗ . Nun hat aber Azsf von der (r + 1)-ten Stelle an nur noch Nullzeilen, so dass auch b∗ ab der (r + 1)-ten Stelle nur noch Nullen haben darf. ∗ b1 .. . ∗ b ∗ Umgekehrt nehmen wir jetzt an, es sei b = r . Dann machen wir für einen gesuchten 0 . .. 0 Lösungsvektor x den Ansatz: x = xj1 ej1 + ... + xjr ejr wobei ek ∈ IRn den früher schon eingeführten ”Basisvektor” (mit 1 an der k-ten Stelle und 0 anden anderen Stellen) bedeuten soll. Dann soll also der nunmehr r-komponentige Vektor xj1 .. x e = . ein lineares Gleichungssystem der Form xjr b∗1 D·x e = ... b∗r 24 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME lösen, wobei D ∈ M (r, IR) aus Azsf dadurch entsteht, dass die letzten d − r Zeilen und dann noch die Spalten mit Nummer k ∈ / {j1 , j2 , ...., jr } weggelassen werden. Dann hat D die Gestalt d11 d12 . . . d1r 0 d22 . . . d2r D = .. .. . . . . . 0 . . . . . . drr mit d11 , ...., drr 6= 0. b∗1 Die letzte der Gleichungen in D · x e = ... lautet nun einfach drr xjr = b∗r und wird durch b∗r ∗ xjr = dbrrr gelöst. Damit gehen wir in die zweitletzte Geichung ein, also dr−1 r−1 xjr−1 + dr−1 r xjr = b∗r−1 , was dann eine lineare Gleichung in xjr−1 ergibt, die wegen dr−1 r−1 6= 0 nach xjr−1 aufgelöst werden kann. So fahren wir fort und finden den Lösungsvektor x e und damit auch x. Beispiele. Wir studieren das Gleichungssystem 5x1 + 4x2 − 4x3 − x4 = 2 3x1 + 2x2 + 2x3 + 4x4 = t −14x1 − 12x2 + 20x3 + 12x4 = s 2 Hier ist d = 3, n = 4 und b = t . Wir fügen b als weitere Spalte zu A hinzu und erhalten s die erweiterte Koeffizientenmatrix 5 4 −4 −1 2 2 2 4 t Ab = 3 −14 −12 20 12 s Dieses Gleichungssystems ist genau dann lösbar, wenn s − 2t + 8 = 0. Das sehen wir so: Die Operation: 2.Zeile- 35 mal 1. Zeile überführt (A, ~b) in 5 4 −4 −1 2 2 22 23 t− 6 A1 = 0 − 5 5 5 5 −14 −12 20 12 s 1.2. LÖSBARKEIT LINEARER GLEICHUNGSSYSTEME 25 Die Operation: 3.Zeile+ 14 mal 1. Zeile überführt A1 in 5 5 4 2 A2 = 0 −5 0 −4 5 −4 −1 2 22 23 t− 6 5 5 5 44 46 s + 28 5 5 5 Schließlich subtrahieren wir von der 3. Zeile das 2-fache der 2. Zeile und erhalten die neue Matrix 5 4 −4 −1 2 5 4 −4 −1 2 ZSF 2 22 23 = 0 − 2 22 23 t − 6 t− 6 A 0 − := 5 5 5 5 5 5 5 5 6 s − 2t + 8 0 0 0 0 s + 28 − 2(t − ) 0 0 0 0 5 5 2 . Daran können wir alles Nun ist j1 = 1, j2 = 2, und r = 2. Ferner: b∗ = t − 65 s − 2t + 8 ablesen. Eine Matrix kann auf verschiedene Weisen in Zeilenstufenform gebracht werden. Vertauschen wir etwa in der obigen erweiterten Matrix Ab die Zeilen 1 und 3 miteinander, so entsteht −14 −12 20 12 s 3 t 2 2 4 5 4 −4 −1 2 3 5 Nun addieren wir zur 2. das ( 14 )-fache der 1. Zeile und zur 3. das ( 14 )-fache der 1. Zeile und finden −14 −12 20 12 s 4 3 44 46 0 − t + s 7 7 7 14 5 23 2 + 0 − 27 22 s 7 7 14 26 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Schließlich subtrahieren wir von der 3. Zeile das ( 12 )-fache der 2. Zeile und erhalten −14 −12 20 12 s 4 3 44 46 0 − 7 7 7 t + 14 s 5 3 0 0 0 0 2 + 14 s − 12 t − 28 s Die Bedingung 2 + 5 s 14 − 12 t − 3 s 28 = 0 ist mit s − 2t + 8 = 0 äquivalent. Es werden folgende Fragen nahegelegt: • Ist die Zahl r aus dem Satz von der Zeilenstufenform einer Matrix eindeutig bestimmt, also unabhängig von der Art, in der die Matrix auf Zeilenstufenform gebracht wurde? • Wie können wir zuverlässig klären, ob die Menge der Lösungen, die wir mit dem Zeilenstufenverfahren für das lineare Gleichungssystem gefunden haben, vollständig ist, also alle Lösungen auf diesem Wege gefunden sind? Da etwa im Zusammenhang mit Aufgaben aus der linearen Optimierung (Minimierung von Transportkosten u.ä.) lineare Gleichungssysteme mit sehr vielen Unbekannten auftreten, ist eine allgemeine Theorie nötig, Beispielrechnungen reichen nicht. Die für unsere Probleme relevante Theorie zu entwickeln, soll Anliegen des nächsten Abschnittes sein. Gleichzeitig wollen wir in Bezug auf den Zahlenbereich (hier die Menge der reellen Zahlen) Abstraktionen vornehmen. 1.3 1.3.1 Allgemeine Vektorraumstrukturen Gruppen und Körper Bei den Rechnungen des vorherigen Abschnitts haben wir im Bereich der reellen Zahlen gearbeitet. Der Grund hierfür ist a) In IR haben wir die Rechenoperationen ”+” und ”·”, welche den folgenden Regeln genügen i) Mit x, y ∈ IR ist auch x + y ∈ IR ii) Für x, y, z ∈ IR gilt (x + y) + z = x + (y + z) iii) Es gilt x + 0 = x für jedes x ∈ IR 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 27 iv) Es gilt x + (−x) = 0 für jedes x ∈ IR Entsprechend haben wir für die Menge IR∗ := IR \ {0} i’) Mit x, y ∈ IR∗ ist auch x · y ∈ IR∗ ii’) Für x, y, z ∈ IR∗ gilt (x · y) · z = x · (y · z) iii’) Es gilt x · 1 = x für jedes x ∈ IR∗ iv’) Es gilt x · (1/x) = 1 für jedes x ∈ IR∗ Weiter haben wir v) Es gilt x · (y + z) = x · y + x · z für alle x, y, z ∈ IR. Die auf IR durch i)-iv) und auf IR∗ durch i’)-iv’) beschriebene Struktur ist das Ausschlaggebende, nicht die Menge IR selbst. Unser erster Abstraktionsschritt ist nun dieser: Definition. Eine nicht-leere Menge G, auf der eine Rechenoperation ”·” erklart ist, wird eine Gruppe genannt, wenn gilt: G1) Mit x, y ∈ G ist auch x · y ∈ G G2) Für x, y, z ∈ G gilt (x · y) · z = x · (y · z) G3) Es gibt ein Element e ∈ G mit e · x = x für alle x ∈ G G4) Zu jedem x ∈ G existiert ein x0 ∈ G mit x0 · x = e Wir schreiben auch xy statt x · y und nennen e auch das neutrale Element von G. Das in G4) zu x ∈ G geforderte Element x0 ∈ G heißt zu x invers. Wenn zu den Gruppenaxiomen G1)-G4) noch das Gesetz xy = yx für alle x, y ∈ G erfüllt wird, so wird G auch abelsche Gruppe genannt (nach dem norwegischen Mathematiker Niels Hendrik Abel (1802-1829)). Der folgende Satz besagt, dass der Gruppenbegriff insofern konsistent ist, dass nur ein neutrales Element und zu jedem x ∈ G nur ein inverses Element existiert. 1.3.1 Satz. Ist G mit der Rechenoperation ”·” eine Gruppe, so gilt a) Ist x ∈ G und x0 ∈ G wie in G4) gewählt, so gilt x · x0 = e b) Für jedes x ∈ G ist x · e = x c) Zu jedem x ∈ G existiert genau ein inverses Element c) Es gibt nur genau ein Element e ∈ G, dass Forderung G3) erfüllt. Beweis. Zu a). Wir wählen zu x0 ∈ G ein inverses Element x00 . Dann wird (wiederholte Ausnutzung von G2)!) x · x0 = (x00 · x0 ) · (x · x0 ) = x00 · (x0 · (x · x0 )) = x00 · ((x0 · x) · x0 ) = x00 · (e · x0 ) = x00 · x0 = e b) Sei x ∈ G und x0 ∈ G zu x invers. Dann ist x · e = x · (x0 · x) = (x · x0 ) · x = e · x = x 28 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Zu c) Sind x01 , x02 ∈ G inverse Elemente zu x ∈ G, so folgt x02 = e · x02 = (x01 · x) · x02 = x01 · (x · x02 ) = x01 · e = x01 nach b), also kann es zu x nicht zwei verschiedene inverse Elemente geben. Zu d) Angenommen, e, f ∈ G erfüllen beide Axiom G3). Dann folgt aus b) e=e·f =f Beispiele. Neben den Gruppen (IR,00 +00 ) und IR∗ ,00 ·00 ) gibt es viele weitere Beipiele für Gruppenstrukturen: a) Man kann IR durch den Bereich Q der rationalen Zahlen ersetzen. b) Wir definieren auf der Menge G := {1, 2, 3, 4} die folgende ”Multiplikation” 1 ◦ 1 = 1, 1 ◦ 2 = 2, 1 ◦ 3 = 3, 1◦4=4 2 ◦ 1 = 2, 2 ◦ 2 = 4, 2 ◦ 3 = 1, 2◦4=3 3 ◦ 1 = 3, 3 ◦ 2 = 1, 3 ◦ 3 = 4, 3◦4=2 4 ◦ 1 = 4, 4 ◦ 2 = 3, 4 ◦ 3 = 2, 4◦4=1 Dann wird G eine Gruppe. Dazu beobachten wir, dass x ◦ y = r ist, wobei r der Rest ist, der beim Teilen von xy durch 5 bleibt. Zu G2): Seien x, y, z ∈ G. Zu zeigen ist, dass (x ◦ y) ◦ z = x ◦ (y ◦ z) gilt. Man könnte dies durch Fallunterscheidungen verifizieren, wobei 43 = 64 Fälle durchzugehen wären. Das können wir aber vermeiden: Wir schreiben xy = 5m + r und rz = 5k + s mit m, k ∈ ZZ und r, s ∈ {1, 2, 3, 4}. Dann wird x ◦ y = r und (x ◦ y) ◦ z = r ◦ z = s Entsprechend schreiben wir yz = 5µ + ρ und xρ = 5κ + σ mit µ, κ ∈ ZZ und ρ, σ ∈ {1, 2, 3, 4}. Dann ist x ◦ (y ◦ z) = x ◦ ρ = σ Aus (xy)z = x(yz) folgt nun sogleich 5(mz + k) + s = (xy)z = x(yz) = 5(µx + κ) + σ also sind σ und s ganze Zahlen aus {1, 2, 3, 4}, deren Differenz durch 5 teilbar ist. Das geht nur, wenn s = σ ist. Das heißt aber gerade, dass (x ◦ y) ◦ z = x ◦ (y ◦ z) 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 29 Zu G3) Offenbar dient 1 als neutrales Element. Zu G4) 1 ist zu sich selbst invers, 2 und 3 sind zueinander invers und 4 wieder zu sich selbst. Da obige Tabelle zur Diagonalen symmetrisch ist, ist G sogar abelsch. Wir verallgemeinern das obige Beispiel wie folgt: Sei p eine Primzahl, also p > 1 und nur 1 und p sei Teiler von p. Für eine Zahl x ∈ ZZ sei rp (x) der Rest, der beim Teilen von x durch p bleibt, also x = a · p + rp (x), mit a ∈ ZZ, rp (x) ∈ {0, 1, 2, 3, ..., p − 1} Wir setzen dann IF ∗p := {1, ..., p − 1}, versehen mit der Multiplikation x ◦ y := rp (xy) Dann ist (IF ∗p , ◦) eine abelsche Gruppe mit 1 als neutralem Element. Zu G2) Wir wiederholen das Argument von früher: Seien x, y, z ∈ IF ∗p . Dann schreiben wir xy = mp + r und rz = kp + s mit m, k ∈ ZZ und r, s ∈ {1, 2, ..., p − 1}. Dann wird x ◦ y = r und (x ◦ y) ◦ z = r ◦ z = s Entsprechend schreiben wir yz = µp+ρ und xρ = κp+σ mit µ, κ ∈ ZZ und ρ, σ ∈ {1, 2, ..., p−1}. Dann ist x ◦ (y ◦ z) = x ◦ ρ = σ Aus (xy)z = x(yz) folgt nun sogleich (mz + k)p + s = (xy)z = x(yz) = (µx + κ)p + σ also sind σ und s ganze Zahlen aus {1, 2, ..., p − 1}, deren Differenz durch p teilbar ist. Das geht nur, wenn s = σ ist. Das beweist das Assoziativgesetz in IF ∗p . Zu G3) Wieder dient 1 als neutrales Element. Zu G4) Sei a ∈ {1, ..., p − 1}. Gesucht ist ein b ∈ {1, ..., p − 1}, so dass ab − 1 durch p teilbar ist. Dann gilt nämlich a ◦ b = 1 in IF ∗p . Zur Auffindung von b untersuchen wir die folgende Menge: I = {x ∈ ZZ | es gibt α, β ∈ ZZ mit x = α a + βp} Können wir nachweisen, dass 1 3 I , so gibt es b, c ∈ ZZ mit ba + cp = 1, also ist ba − 1 = −cp durch p teilbar, wie gewünscht. Nachdem wir, wenn nötig, von b ein Vielfaches von p abziehen, erreichen wir, dass zusätzlich b ∈ {1, ...., p − 1}. Die Menge I ist mit der Addition ganzer Zahlen eine Gruppe. Weiter folgt aus x ∈ I und k ∈ ZZ, dass sogar kx ∈ I . Offenbar ist a, p ∈ I . Es gibt nun eine kleinste positive ganze Zahl 30 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME r ∈ I . Wir behaupten, dass r = 1 sein muss. Anderenfalls könnten wir p mit Rest r > s ≥ 1 durch r teilen, also p = qr + s. Aber dann wäre ja s = p − qr ∈ I , also wäre r nicht die kleinste positive Zahl in I ! So erkennen wir, dass 1 ∈ I sein muss, und wir haben gezeigt, dass G4) erfüllt ist. Zu G1): Sind a, b ∈ IF ∗p , so ist zunächst mit geeigneten k, ` ∈ ZZ doch ka + `p = 1. Wäre nun a·b ∈ / {1, ..., p − 1}, so müsste ab durch p teilbar sein, also wäre b = k ab + `bp durch p teilbar, Widerspruch! Beispiele a) Sei p = 127 und a = 45. Dann ist p = 2a + 37. Weiter ist 45 = 37 + 8 und 37 = 4 · 8 + 5. Sodann finden wir 8 = 5 + 3 und weiter 5 = 3 + 2. Nun verfolgen wir alles zurück und sehen 1 = = = = = = 3−2 3 − (5 − 3) = −5 + 2 · 3 2 · 8 − 3 · 5 = 2 · 8 − 3 · (37 − 4 · 8) −3 · 37 + 14 · 8 = −3 · 37 + 14 · (45 − 37) 14a − 17 · 37 = 14a − 17(p − 2a) 48a − 17p Also 48 · 45 = 17 · 127 + 1, d.h.: Es ist 48 ◦ 45 = 1 in IF ∗127 . b) Sei p = 7919 und a = 1232. Dann ist p = 6a + 527, weiter a = 2 · 527 + 178 und 527 = 2 · 178 + 171, sowie 178 = 171 + 7 und 171 = 24 · 7 + 3. Dann haben wir 7 = 2 · 3 + 1. Das führt auf 1 = = = = 7 − 2 · 3 = 7 − 2(171 − 24 · 7) = 49 · 7 − 2 · 171 49 · 178 − 51 · 171 = 49 · 178 − 51(527 − 2 · 178) = 151 · 178 − 51 · 527 151(a − 2 · 527) − 51 · 527 = 151a − 353 · 527 = 151a − 353(p − 6a) 2269a − 353p Somit finden wir 1232 ◦ 2269 = 1 in IF ∗7919 . Allgemein sei nun p prim und a ∈ {2, ...., p − 1}. Dann schreiben wir p = k1 a + a1 , mit k1 ∈ ZZ und a2 ∈ {1, ...., a − 1}. Dann: a = k2 a1 + a2 , mit k2 ∈ ZZ und a2 < a1 . Da a1 kein Teiler von p ist, muss a2 ≥ 1 sein. Danach schreiben wir a1 = k3 a2 + a3 , wobei k3 ganz und der Rest a3 ≥ 1 sein muss und kleiner als a2 . (Warum?) So fortfahrend erhalten wir eine Folge a > a1 > a2 > .... ≥ 1 von Zahlen a` , für die immer a`−2 = k` a`−1 + a` mit ganzzahligem k` gilt. Diese Folge muss irgendwann etwa im Schritt s bei as = 1 endigen. Dann erhalten wir 1 = = = = as−2 − ks as−1 as−2 − ks (as−3 − ks−1 as−2 ) = −ks as−3 + (1 + ks ks−1 )as−2 −ks as−3 + (1 + ks ks−1 )(as−4 − ks−3 as−3 ) −(ks + (1 + ks ks−1 )ks−3 )as−3 + (1 + ks ks−1 )as−4 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 31 So fortfahrend gelangen wir zu einer Darstellung ma + tp = 1 mit ganzen Zahlen m ∈ {1, ...., p − 1} und t. a b Beispiel (Invertierbare 2 × 2-Matrizen): Ist A = ∈ M (2, IR), so ist c d d −b d −b ·A=A· = (ad − bc)E2 , −c a −c a so dass wir sehen können: Ist ad − bc 6= 0, so ist A ∈ GL (2, IR) Ist umgekehrt A ∈ GL (2, IR), so gibt es ein A0 ∈ M (2, IR) mit A0 · A = E2 . Wäre nun ad − bc = 0, folgte also d −b d −b d −b 0 0 = (A · A) · =A · A· = (ad − bc)A0 = 0 −c a −c a −c a Dann müsste auch A die Nullmatrix gewesen sein, was der Annahme der Invertierbarkeit von A d −b 1 0 widerspräche. Das zeigt, dass, wenn A ∈ GL (2, IR), dann die Matrix A = ad−bc −c a wieder zu A invers und wieder invertierbar ist. Nun folgt, dass GL (2, IR) mit der Matrixmultiplikation eine Gruppe ist. Für das Folgende werden wir aber mit Gruppenstrukturen allein noch nicht auskommen. Wir benötigen eine Struktur mit 2 Rechenoperationen, so dass die Regeln gelten, die wir auch innerhalb der Bereiche der reellen und der rationalen Zahlen kennen. Definition. Unter einem Körper verstehen wir eine nicht-leere Menge K, auf der 2 Rechenoperationen 00 +00 und 00 ·00 gegeben sind, so dass folgendes gilt K1) (K, +) ist eine abelsche Gruppe K2) Ist 0 das neutrale Element in (K, +), ist K ∗ := K \ {0} nicht-leer und mit 00 ·00 eine abelsche Gruppe K3) Es gilt das Distributivgesetz x · (y + z) = x · y + x · z für alle x, y, z ∈ K. Die Zahlenbereiche IR und Q sind Körper. Wir lernen nun einen weiteren wichtigen Körper kennen, nämlich den Körper C der komplexen Zahlen. x Für die Punkte der Ebene IR2 kennen wir die Addition: y x1 x2 x1 + x2 + = y1 y2 y1 + y2 32 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Diese definiert auf dem IR2 die Struktur einer abelschen Gruppe. Jetzt definieren wir die Multiplikation: x1 x2 x1 x2 − y1 y2 · = y1 y2 x1 y2 + x2 y1 und stellen fest: (IR2 \ {0},00 ·00 ) ist ebenfalls eine abelsche Gruppe. Das prüfen wir nach. • Zum Assoziativgesetz: x1 x2 x3 x1 x2 − y1 y2 x3 · · = · y1 y2 y3 x1 y2 + x2 y1 y3 (x1 x2 − y1 y2 )x3 − (x1 y2 + x2 y1 )y3 = (x1 y2 + x2 y1 )x3 + (x1 x2 − y1 y2 )y3 x1 x2 x3 − y1 y2 x3 − x1 y2 y3 − y1 x2 y3 = x1 y2 x3 + y1 x2 x3 + x1 x2 y3 − y1 y2 y3 Genauso rechnen wir aus x1 x2 x3 x1 x2 x3 − y2 y3 · · = · y1 y2 y3 y1 x2 y3 + y2 x3 x1 (x2 x3 − y2 y3 ) − y1 (x2 y3 + y2 x3 ) = x1 (x2 y3 + y2 x3 ) + y1 (x2 x3 − y2 y3 ) x1 x2 x3 − y1 y2 x3 − x1 y2 y3 − y1 x2 y3 = x1 y2 x3 + y1 x2 x3 + x1 x2 y3 − y1 y2 y3 Das beweist das Assoziativgesetz. • Das Kommutativgesetz gilt ebenfalls, wie man auf dieselbe Weise nachprüft. 1 • Der Vektor ist neutrales Element: 0 1 x x · = 0 y y x für alle . y x x 1 • Ist 6= 0, so ist x2 +y2 wohldefiniert und es gilt y −y 1 x 1 x = · 2 2 −y 0 y x +y 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 33 Schließlich haben wir auch das • Distributivgesetz: x1 x2 x3 x1 x2 + x3 x1 (x2 + x3 ) − y1 (y2 + y3 ) · + = · = x1 (y2 + y3 ) + y1 (x2 + x3 ) y1 y2 y3 y1 y2 + y3 x1 x2 − y1 y2 x1 x3 − y1 y3 = + x1 y2 + y1 x2 x1 y3 + y1 x3 x1 x2 x1 x3 = · + · y1 y2 y1 y3 Wir stellen fest Verwenden wir die übliche Notation: so kann jeder Punkt x y 1 0 0 1 2 =− =: 1, 0 1 1 0 =: i als x y =x 0 1 +y 0 1 = x + iy dargestellt werden. Man nennt die ”Zahl” i nach L. Euler die imaginäre Einheit. Es gilt i2 = −1. Im Bild: z1 + z z 1 2 z2 i z2 z 1 34 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Die Ebene IR2 , ausgestattet mit diesen Rechenoperationen heißt der Bereich der komplexen Zahlen und wird mit C bezeichnet. Beispiele. Man hat etwa √ 1+i 2 1+i 3 3 (4 + 7i)(3 + 8i) = −44 + 53i, ( √ ) = i, ) = −1 ( 2 2 und 64 + 5i 310 + 153i = , 5 − 2i 29 1 − 3i 6 − i 504 − 129i + = 2 + 5i 4 − i 493 Eine besondere Eigenschaft der komplexen Zahlen ist die folgende 1.3.2 Lemma. Man kann aus jeder Zahl w ∈ C eine Quadratwurzel ziehen. Ist z eine Quadratwurzel aus w, so auch −z. Beweis. Ist eine komplexe Zahl w = u + iv gegeben, so sehen wir uns das folgende Gleichungssystem an x2 − y 2 = u, 2xy = v Zunächst sei v 6= 0. Wir multiplizieren mit 4x2 und finden 4x4 − 4x2 y 2 = 4x2 u also 4x4 − v 2 = 4x2 u, 1 x4 − ux2 = v 2 4 Diese Gleichung lösen wir auf nach x2 : 1√ 2 1 x2 = u + u + v2 2 2 Da die rechte Seite nicht-negativ ist, können wir die Quadratwurzel ziehen und finden r 1 1√ 2 x= u+ u + v2 2 2 Da v 6= 0, ist auch x 6= 0. Wir wählen dann y = v/2x und erhalten eine Lösung der Gleichung (x + iy)2 = x2 − y 2 + 2ixy = u + iv = w √ Ist nun v = 0, so müssen wir, wenn u > 0 ist, nur x = u und y = 0 und bei u < 0 nur x = 0 √ und y = −u nehmen, um eine Quadratwurzel aus w zu erhalten. 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 35 Das erlaubt das Lösen aller quadratischer Gleichungen: Ist z 2 + pz + q = 0 eine quadratische Gleichung, so wählen wir eine Quadratwurzel ζ aus ∆ := p2 − 4q. Dann werden 1 1 z1 := (−p + ζ), z2 = (−p − ζ) 2 2 Lösungen der gegebenen quadratischen Gleichung. Hier ist ein Beispiel eines endlichen Körpers: Beispiel. Ist p eine Primzahl, so sei IF p := {0, 1, 2, 3, ..., p − 1}. Wir definieren auf IF p die folgende Addition x ⊕ y := rp (x + y) wobei wieder rp (m) der Rest ist, der bei Division der ganzen Zahl m durch p bleibt. Wir prüfen die Gruppenaxiome nach: G1). Mit x, y ∈ IF p ist per definitionem auch x ⊕ y ∈ IF p . G2) Seien x, y, z ∈ IF p und r := rp (x + y), sowie s = rp (r + z). Dann ist für geeignete m1 , k1 ∈ ZZ wieder x + y = m1 p + r, r + z = k1 p + s, und (x ⊕ y) ⊕ z = r ⊕ z = s Ebenso ist y + z = m2 p + ρ, x + ρ = k2 p + σ, wobei ρ = rp (y + z), σ = rp (x + ρ) und x ⊕ (y ⊕ z) = x ⊕ ρ = σ Es folgt (m1 + k1 )p + s = (x + y) + z = x + (y + z) = (m2 + k2 )p + σ Angenommen, es sei s > σ. Dann ist s − σ ∈ {1, ..., p − 1} und gleichzeitig durch p teilbar, was nicht geht. Ebenso sehen wir, dass σ > s nicht möglich ist. Also ist s = σ. Somit ist das Assoziativgesetz erfüllt. G3) Offenbar ist x ⊕ 0 = 0 ⊕ x = x für alle x ∈ IF p . G4) Für jedes x ∈ IF p haben wir x ⊕ (−x) = 0. Nun setzen wir x · 0 := 0, wenn x ∈ IF p und definieren das Produkt zweier Elemente aus IF p \ {0} wie zuvor. Dann sind die Forderungen K1) und K2) an einen Körper durch IF p erfüllt. Die Überprüfung des Distributivgesetzes ist eine Übungsaufgabe. 36 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME 1.3.2 Vektorräume. Der Dimensionsbegriff Nun wollen wir den Begriff des (abstrakten) Vektorraumes einführen: Definition. Gegeben sei ein Körper K. Dann verstehen wir unter einem K-Vektorraum V eine nichtleere Menge V mit folgender Struktur: • Es ist auf V eine Addition ”+” erklärt, mit der V eine abelsche Gruppe wird • Man kann jedes Element α ∈ K mit jedem x ∈ V multiplizieren, so dass folgende Regeln gelten a) α(x + y) = αx + αy b) (α + β)x = αx + βx c) 1 · x = x, wobei 1 das neutrale Element aus (K,00 ·00 ) sein soll, d) (αβ)x = α(βx), für alle α, β ∈ K und x, y ∈ V . Dies sind genau die Strukturen, die wir schon bei der Menge der Spaltenvektoren aus IRn und der Menge der reellen (d × n)-Matrizen beobachtet haben. Dies sind also erste Beispiele für IR-Vektorräume. Weitere Beispiele a) Der Raum K n der Spaltenvektoren mit Einträgen aus K trägt in analoger Weise wie der IR die Struktur eines K-Vektorraumes, ebenso wie der Raum Kn der n-tupel (x1 , ..., xn ) mit Einträgen aus K. b) Die Menge M (d × n, K) der (d × n)-Matrizen mit Einträgen aus K ist ein K-Vektorraum. Alle für K = IR definierten Rechenoperationen werden analog für allgemeines K definiert. n Definition. Ist V ein K-Vektorraum, so nennen wir eine Teilmenge U ⊂ V einen Unterraum von V , wenn U mit den Rechenoperationen von V selbst wieder ein K-Vektorraum ist. 1.3.3 Satz. Sei V ein K-Vektorraum. Eine Menge U ⊂ V ist genau dann ein Unterraum von V , wenn gilt: • 0∈U • Mit x, y ∈ U ist auch x − y ∈ U • Mit λ ∈ K und x ∈ U ist auch λx ∈ U 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 37 Beweis. Die Menge U ist mit der Addition eine abelsche Gruppe: Die Axiome G2) und G3) gelten in V , also erst recht in U , ebenso das Kommutativgesetz. Zu G4) und G1): Sind x, y ∈ U , so ist zunächst −y = 0−y ∈ U , also auch x+y = x−(−y) ∈ U . Die Gesetze der Skalarenmultiplikation gelten in U , da sie sogar in V gelten. Erfüllt also U die drei genannten Bedingungen, so ist U ein Vektorraum über K. Umgekehrt gelten die drei Bedingungen offensichtlich in jedem Unterraum von V . Definition. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so sagen wir, ein x ∈ V sei Linearkombination von Elementen aus E, wenn es α1 , ..., αr ∈ K und v1 , ..., vr ∈ E gibt, so dass x = α1 v1 + . . . + αr vr 1.3.4 Lemma. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so ist die Menge Lin (E) aller Linearkombinationen von Elementen aus E selbst ein Unterraum von V . Ist F ⊂ V ein Unterraum von V , der E enthält, so gilt schon Lin (E) ⊂ F . Wenn E1 ⊂ E2 ⊂ V , so ist Lin (E1 ) ⊂ Lin (E2 ). Beweis. Ü.A. Definition. Ist V ein Vektorraum über einem Körper K und E ⊂ V , so sagen wir, E erzeuge V , wenn V = Lin (E). Kann man sogar ein endliches Erzeugendensystem E für V finden, nennen wir V auch endlich erzeugt. Beispiele. Die Räume der Spaltenvektoren und der Matrizen sind endlich erzeugt, nicht aber der Raum der Zahlenfolgen (etwa über Q oder IR). Ist V irgendein Vektorraum, so gilt Lin (∅) = {0}. Folgender Begriff ist von grundlegender Bedeutung: Definition. Seien K und V wie bisher. Dann nennen wir die Elemente v1 , ...., vr ∈ V linear unabhängig, wenn gilt • Sind α1 , ..., αr ∈ K und α1 v1 + ... + αr vr = 0, so muss schon α1 = ... = αr = 0 sein. Äquivalent dazu ist • Wenn immer α1 , ..., αr ∈ K nicht alle null sind, so muss α1 v1 + ... + αr vr 6= 0 gelten. Wir bezeichnen eine Menge E ⊂ V als linear unabhängig, wenn je endlich viele ihrer Elemente linear unabhängig sind. Unter einer Basis von V verstehen wir ein linear unabhängiges Erzeugendensystem für V . Die Elemente x1 , ...., xr ∈ V werden linear abhängig genannt, wenn sie nicht linear unabhängig sind. Das heißt also: Es gibt β1 , ...., βr ∈ K, die nicht alle Null sind, für die aber dennoch β1 x1 + . . . + βr xr = 0 wird. 38 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Äquivalent hierzu ist: Unter den x1 , ...., xr gibt es einen Vektor xj , der sich als Linearkombination der anderen schreiben lässt. Insbesondere sind x1 , ..., xr immer linear abhängig, wenn einer der Vektoren der Nullvektor ist. Zuerst kennzeichnen wir Basen eines Vektorraumes. 1.3.5 Satz. Angenommen, es sei V ein K-Vektorraum und E ein Erzeugendensystem von V . Dann sind folgende Aussagen über E äquivalent i) E ist eine Basis für V , ii) Keine echte Teilmenge E 0 ⊂ E erzeugt V . Beweis. Aus i) folgt ii): Angenommen, es sei E 0 ⊂ E und es gebe ein Element x0 ∈ E \ E 0 . Angenommen, E 0 erzeuge V . Dann könnten wir schreiben x0 = α1 x1 + . . . + αr xr mit α1 , ..., αr ∈ K und geeigneten x1 , ..., xr ∈ E 0 . Dann wäre aber die Menge {x0 , x1 , ....., xr } ⊂ E nicht mehr linear unabhängig, entgegen der Annahme über E. Aus ii) folgt i). Wir müssen begründen, dass E linear unabhängig ist. Seien also v1 , ..., vk ∈ E und λ1 , ..., λk ∈ K, so dass λ1 v1 + . . . + λk vk = 0 Wäre eines der λi nicht null, etwa λ1 6= 0, so hätte man v1 ∈ Lin {v2 , ...., vk } ⊂ Lin (E 0 ) wobei E 0 = E \ {v1 }. Da auch E 0 ⊂ Lin (E 0 ), folgte E ⊂ Lin (E 0 ), also auch V = Lin (E) ⊂ Lin (E 0 ), so dass V sogar von E 0 erzeugt würde, im Widerspruch zur Unverkürzbarkeit von E als Erzeugendensystem von V . Ein entsprechender Satz gilt für linear unabhängige Mengen: 1.3.6 Satz. Es sei wieder V ein K-Vektorraum und B ⊂ V eine linear unabhängige Menge. Dann sind äquivalent i) B ist eine Basis für V ii) Keine echte Obermenge B 0 ⊃ B ist linear unabhängig Beweis. i) impliziert ii): Sei V ⊃ B 0 ⊃ B und es gebe ein x0 ∈ B 0 \ B. Da x0 ∈ V = Lin (B), gibt es x1 , ..., xk ∈ B, so dass {x0 , x1 , ..., xk } eine linear abhängige Teilmenge von B 0 wird. ii) impliziert i): Wir zeigen, dass V durch B erzeugt ist. Wäre das nicht so, gäbe es ein x0 ∈ V , dass nicht als Linearkombination von Elementen aus B dargestellt werden könnte. Sei 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 39 nun B 0 = B ∪ {x0 }. Dann ist B 0 ebenfalls linear unabhängig. Denn ist B1 := {y1 , ...., y` } eine Teilmenge von B 0 , so ist B1 wieder linear unabhängig. Das ist klar, wenn keines der yi gleich x0 ist, da dann B1 ⊂ B. Ist aber etwa y1 = x0 , und gilt α1 y1 + . . . + α` y` = 0 mit α1 , ...., α` ∈ K, so muss α1 = 0 sein, anderenfalls x0 ∈ Lin ({y2 , ..., y` }) ⊂ Lin (B) wäre, was der Wahl von x0 widerspräche. Dann ist aber schon α2 y2 +. . .+α` y` = 0, also, da {y2 , ..., y` } ⊂ B, schon α2 = . . . = α` = 0. Wir wollen uns im Folgenden auf endlich erzeugte Vektorräume konzentrieren. Zunächst folgern wir aus dem Satz 1.3.5 : 1.3.7 Satz. Jeder endlich erzeugte K-Vektorraum V hat eine Basis. 0 Beweis. Wir bilden eine Folge (Ej0 )j von Erzeugendensystemen von V , für die Ek0 ( Ek−1 ist. Sei etwa E = {b1 , ..., bk } ein endliches Erzeugendensystem für V . Dann prüfen wir, ob E10 := E \ {bk } ebenfalls Erzeugendensystem für V ist. Wenn ja, ersetzen wir E durch E10 , anderenfalls prüfen wir, ob in E auf bk−1 verzichtet werden kann, also E \{bk−1 } ein Erzeugendensystem ist. So gehen wir alle bi ’s durch. Sollte keiner der Vektoren aus E weggelassen werden können, ohne die Erzeugendeneigenschaft von E zu zerstören, muss E selbst linear unabhängig, also eine Basis von V sein. Anderenfalls finden wir ein Erzeugendensystem E10 ⊂ E von E, das ein Element weniger hat als E. Dann wenden wir dieselbe Prozedur auf E10 an, die wir soeben auf E angewendet haben. Entweder ist dann E10 ein unverkürzbares Erzeugendensystem von V , oder es gibt ein E20 ⊂ E10 , das V erzeugt und ein Element weniger hat als E10 . So kommen wir nach endlich vielen Schritten zu einer Teilmenge E 0 ⊂ E, welche ebenfalls V erzeugt, aber aus der kein Element mehr weggelassen werden kann, ohne dass die Erzeugendeneigenschaft verloren geht. Dann ist E 0 nach Satz 1.3.5 eine Basis für V . In einem endlich erzeugten Vektorraum gibt es keine linear unabhängige Menge mit unendlich vielen Elementen. Das ist ein erster nicht-trivialer Sachverhalt in unserer allgemeinen Theorie. 1.3.8 Satz (Steinitz). Ist E = {x1 , ...., xr } ein Erzeugendensystem für den K-Vektorraum V und B = {y1 , ..., ys } eine linear unabhängige Menge, so gibt es zu jeder Zahl ` mit ` ≤ r, ` ≤ s eine Menge E` ⊂ E mit ` Elementen, so dass V auch von (E \ E` ) ∪ {y1 , ...., y` } erzeugt wird. Beweis. Da beweisen wir durch Induktion nach `. Sei ` = 1. Wir schreiben y1 = α1 x1 + . . . + αr xr . Sicher muss einer der Koeffizienten αi ∈ K ungleich Null sein, sonst wäre ja y1 = 0, also B nicht linear unabhängig. Sei etwa αi1 6= 0. Dann ist 1 α1 αi −1 αi +1 αr xi1 = y1 + x1 + . . . + 1 xi1 −1 + 1 xi1 +1 + . . . + xr ∈ Lin ( (E \ E1 ) ∪ {y1 }) αi1 αi1 αi1 αi+1 αi1 40 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME wenn wir E1 = {xi1 } wählen. Offenbar ist E \ E1 ⊂ Lin ( (E \ E1 ) ∪ {y1 }), also E ⊂ Lin ( (E \ E1 ) ∪ {y1 }), woraus folgt, dass V durch (E \ E1 ) ∪ {y1 } erzeugt wird. Sei nun ` ≥ 2 und angenommen, die Behauptung sei für ` − 1 richtig. Dann finden wir eine (` − 1)-elementige Menge E`−1 ⊂ E, so dass V durch (E \ E`−1 ) ∪ {y1 , ..., y`−1 } erzeugt wird. Wir schreiben E \ E`−1 = {xi` , ..., xir } Wir können dann y` als Linearkombination y` = β1 y1 + . . . + β`−1 y`−1 + αi` xi` + . . . + αir xir mit Koeffizienten βν , αiµ ∈ K darstellen. Nun können aber nicht alle αiµ Null sein, da sonst y` Linearkombination der y1 , ..., y`−1 wäre entgegen der Annahme über die Menge B. Sei etwa αij 6= 0 für ein j ∈ {`, ..., r}. Sei E` = E`−1 ∪ {xij }. Dann sehen wir wieder, dass xij ∈ Lin ( E \ E` ∪ {y1 , ..., y` }). Da offenbar ({y1 , ..., y`−1 } ∪ E \ E`−1 ) \ {xij } = {y1 , ..., y`−1 } ∪ E \ E` ⊂ Lin ( E \ E` ∪ {y1 , ..., y` }), gehört {y1 , ..., y`−1 } ∪ E \ E`−1 zu Lin ( E \ E` ∪ {y1 , ..., y` }), woraus V = Lin ( E \ E` ∪ {y1 , ..., y` }) folgt. Je zwei Basen in einem endlich erzeugten Vektorraum müssen nun die gleiche Anzahl von Elementen haben. 1.3.9 Satz. Sei E = {x1 , ...., xr } Erzeugendensystem eines K-Vektorraumes V . a) Ist dann B = {y1 , ...., ys } eine linear unabhängige Menge, so muss schon s ≤ r sein. b) Je zwei Basen B und B 0 von V haben gleichviele Elemente. Beweis. a) In der Tat kann nicht s > r sein, sonst könnten wir nach dem Steinitzschen Austauschsatz y1 , ..., yr gegen die Vektoren aus E austauschen und fänden, dass V durch y1 , ..., yr erzeugt würde. Dann wäre aber yr+1 Linearkombination von y1 , ..., yr , Widerspruch! b) Wende a) an. B 0 hat nicht mehr Elemente als B. Vertauschen wir die Rollen von B und B 0 , so folgt, dass B nicht mehr Elemente als B 0 haben kann. So wird der folgende Begriff sinnvoll: Definition. Ist V endlich erzeugt, so sagen wir, V habe die Dimension n, wenn eine Basis mit n Elementen für V existiert. Wir schreiben dann dim (V ) = n. Folgende Beispiele sind einfach: dim K n = n, dim M (d × n, K) = nd. 1.3.10 Lemma. Ist V endlich erzeugt und dim (V ) = n, so ist jedes n-elementige Erzeugendensystem E von V eine Basis von V . Ebenso ist jede n-elementige linear unabhängige Menge B in V eine Basis von V . 1.3. ALLGEMEINE VEKTORRAUMSTRUKTUREN 41 Beweis. Gäbe es eine echte Teilmenge E 0 ⊂ E, die ebenfalls V erzeugte, so müsste jede linear unabhängige Teilmenge von V weniger als n Elemente haben, so dass dim (V ) < n folgte, Widerspruch. Nach Satz 1.3.5 ist dann E eine Basis für V . Sei B1 eine Basis von V . Dann hat B1 also n Elemente. Jede linear unabhängige Menge in V hat daher nicht mehr als n Elemente. Daher kann es keine echte Obermenge B 0 von B geben, die noch linear unabhängig wäre. Mit Satz 1.3.6 muss dann B bereits eine Basis von V sein. Die folgenden Sätze scheinen offensichtlich zu sein, sind aber ohne den Steinitzschen Satz nicht zu erhalten: 1.3.11 Satz (Basisergänzungssatz). Ist B1 eine linear unabhängige Menge in einem endlich erzeugten K-Vektorraum V , so gibt es eine Basis B für V mit B1 ⊂ B. Beweis. Wir wählen eine endliche Basis E mit n Elementen für V und wenden den Austauschsatz an: Es können dann, wenn s die Anzahl der Elemente von B1 bezeichnet, s der Vektoren aus E gegen die Vektoren aus B1 ausgetauscht werden. Es entsteht ein Erzeugendensystem B = E 0 ∪ B1 , wobei E 0 ⊂ E eine Menge mit n − s Elementen ist. Da die Menge B wieder n Elemente hat, ist sie sogar eine Basis. 1.3.12 Satz. Sei V endlich erzeugter K-Vektorraum. Dann ist auch jeder Unterraum U ⊂ V endlich erzeugt, und es ist dim U ≤ dim V . Gilt dim U = dim V , so ist bereits U = V . Beweis. Sei n = dim (V ). Angenommen, U ) {0}. Wäre U nicht endlich erzeugt, könnten wir wie folgt eine linear unabhängige Menge M ⊂ U ⊂ V mit mehr als n Elementen finden: Sei y1 6= 0. Da nicht U = Lin ({y1 }) sein kann, gibt es ein y2 ∈ U , so dass {y1 , y2 } linear unabhängig sind. Da auch Lin ({y1 , y2 }) 6= U , gibt es y3 ∈ U \ Lin ({y1 , y2 }). Dann ist {y1 , y2 , y3 } linear unabhängig. So fahren wir fort und gelangen im (n + 1)-ten Schritt zu einer linear unabhängigen Teilmenge von U und damit von V , welche zuviele Elemente hat. Also ist U endlich erzeugt. Eine Basis von U ist eine linear unabhängige Teilmenge von V , kann also nicht mehr als n Elemente haben. Somit ist dim (U ) ≤ n. Wenn nun dim (U ) = n ist, so ist eine Basis von U schon eine Basis von V , da sie eine n-elementige linear unabhängige Teilmenge von V darstellt. Die Vektorsumme zweier Unterräume Wir können uns leicht Beispiele dafür überlegen, dass die Vereinigung zweier Unterräume eines Vektorraumes im Allgemeinen kein Unterraum von V sein wird. Definition. Sind U, W ⊂ V Unterräume eines (nicht notwendig endlich erzeugten) Vektorraumes V , so bezeichnen wir als Vektorsumme von U und W den folgenden Unterraum U + W := Lin (U ∪ W ) 42 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Bemerkung (Ü.A.) Jedes Element aus U + W ist darstellbar als Summe eines Vektors aus U und eines Vektors aus W . Wir haben die folgende Dimensionsformel: 1.3.13 Satz. Sei V endlich erzeugt, etwa n = dim (V ). Dann gilt für zwei Unterräume U, W von V dim (U + W ) = dim U + dim W − dim (U ∩ W ) Beweis. Sei etwa dim (U ) = r, dim (W ) = s und dim (U ∩ W ) = t. Sollte t = r oder t = s sein, ist U ∩ W = U und U + W = W bzw. U ∩ W = W und U + W = U , und die Formel ist trivial. Ist nun Sei also t < r, t < s. Ist nun B 000 := {b1 , ...., bt } eine Basis von U ∩W , so verlängern wir B 000 zu einer Basis B 0 = B 000 ∪ {ct+1 , ..., cr } von U und zu einer Basis B 00 = B 000 ∪ {bt+1 , ..., bs } von W . Wir behaupten, dass dann B = B 0 ∪ {bt+1 , ..., bs } = B 000 ∪ {ct+1 , ..., cr } ∪ {bt+1 , ..., bs } eine Basis von U + W ist. Da B nun r + s − t Elemente hat, folgt die Dimensionsformel. B erzeugt U + W : Sei x ∈ U + W . Dann gibt es u ∈ U, w ∈ W mit x = u + w. Nun ist u ∈ Lin (B 0 ) ⊂ Lin (B) und w ∈ Lin (B 00 ) ⊂ Lin (B), also U + W ⊂ Lin (B). Da B ⊂ U ∪ W , ist Lin (B) ⊂ Lin (U ∪ W ) = U + W . B ist linear unabhängig: Angenommen, es sei α1 b1 + . . . + αt bt + βt+1 ct+1 + ... + βr cr + γt+1 bt+1 + ... + γr bs = 0 für gewisse Koeffizienten αi , βi , γi ∈ K. Dann ist z := γt+1 bt+1 + ... + γr bs ∈ Lin ({b1 , ..., bt , ct+1 , ..., cr }) = U, also z ∈ U ∩ W . Dann aber haben wir auch z = α10 b1 + . . . + αt0 bt mit geeigneten αi0 ∈ K. Es folgt dann aber durch Gleichsetzen beider Ausdrücke für z (α1 + α10 )b1 + . . . + (αt + αt0 )bt + βt+1 ct+1 + ... + βr cr = 0 Nun ist aber die Menge {b1 , ..., bt , ct+1 , ..., cr } linear unabhängig (da sie eine Basis von U ist). Also gilt insbesondere βt+1 = . . . = βr = 0. Das ergibt aber α1 b1 + . . . + αt bt + γt+1 bt+1 + ... + γr bs = 0 Da nun {b1 , ..., bt , bt+1 , ..., bs } als Basis von W ebenfalls linear unabhängig ist, folgt, dass alle αi und alle γj Null sein müssen. Folgerung. Sind U und W zwei Unterräume von V und dim (U ) + dim (W ) > dim (V ), so ist dim (U ∩ W ) > 0.