Lineare Algebra I und II Prof. Dr. Jürgen Stückrad Mathematisches Institut der Universität Leipzig Wintersemester 2011/2012 und Sommersemester 2012 letzte Änderung: 13. Juni 2012 Inhaltsverzeichnis Einleitung 1 1 Lineare Gleichungssysteme 1.1 Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . 1.2 Gaußscher Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . 3 5 11 2 Matrizen 2.1 Gruppen, Ringe, Körper . . . . . 2.2 Matrizen . . . . . . . . . . . . . . 2.2.1 Grundlegende Definitionen 2.2.2 Matrizenringe . . . . . . . 2.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 27 27 28 37 3 Vektorräume, Moduln, Ideale 3.1 Operationen auf Mengen . . . . 3.2 Moduln . . . . . . . . . . . . . 3.3 Erzeugendensysteme und Basen 3.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 47 58 66 4 Lineare Abbildungen 4.1 Grundbegriffe . . . . . . . 4.2 Koordinaten . . . . . . . . 4.3 Fundamentalsatz . . . . . 4.4 Matrizendarstellungen . . 4.5 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 83 92 95 101 112 5 Endomorphismen 5.1 Nullstellen . . . . . . . . . . . . . . . 5.2 Determinanten . . . . . . . . . . . . 5.3 Eigenwerte . . . . . . . . . . . . . . . 5.4 Klassifizierung von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 119 123 130 137 . . . . . . . . . . . . . . . A Mengen und Logik . . . . . . . . . . 145 i ii INHALTSVERZEICHNIS A.1 Allgemeine Bemerkungen . . . . . . . . . . . A.2 Mengen . . . . . . . . . . . . . . . . . . . . A.3 Aussagen . . . . . . . . . . . . . . . . . . . A.3.1 Aussagenlogik . . . . . . . . . . . . . A.3.2 Prädikatenlogik . . . . . . . . . . . . A.4 Relationen . . . . . . . . . . . . . . . . . . . A.4.1 Definitionen, Beispiele . . . . . . . . A.4.2 Ordnungs- und Äquivalenzrelationen A.4.3 Äquivalenzklassen, Partitionen . . . . A.5 Abbildungen . . . . . . . . . . . . . . . . . . A.6 Kardinalzahlen . . . . . . . . . . . . . . . . A.6.1 Endliche und abzählbare Mengen . . A.6.2 Endliche Kardinalzahlen . . . . . . . B Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 146 149 149 152 155 155 155 157 158 163 164 167 175 Einleitung Schlägt man in älteren Lexika nach, so wird Algebra meist erklärt als Lehre von den Gleichungen und ihren Lösungen. Dementsprechend wäre lineare Algebra dann die Lehre von den linearen Gleichungen. Historisch gesehen ist das auch gar nicht so abwegig, denn fragt man nach der Bedeutung des Wortes ”Algebra”, so stößt man auf den berühnmten arabischen Gelehrten Al-Chwarizmi (Abu Dscha’far Muhammad ibn Musa al-Chwarizmi), der um 780 in der Nähe des Aralsees geboren wurde und nach 835 vermutlich in Bagdad starb. Er verbrachte den größten Teil seines Lebens in Bagdad und hatte dort zwischen 813 und 835 seine Hauptschaffenszeit als Universalgelehrter (d. h. als Mathematiker, Astronom, Geograph). In seinem um 820 erschienenen ersten Werk ”Kitab al-Dscham’wal-tafriq bi-hisab al-Hind”, das nur noch in lateinischer Übersetzung aus dem 12. Jahrhundert mit dem Titel ”Liber Algorithmi de numero Indorum” überliefert ist, ging es um das Rechnen mit Dezimalzahlen (von ihm ”indische Zahlen” genannt) und es wurde die Ziffer Null in das arabische Zahlsystem eingeführt (arabisch: ”sifr”). Aus der Verballhornung seines Namens in der lateinischen Übersetzung (”Algorithmi” statt ”Al-Chwarizmi”) entstand übrigens der Begriff ”Algorithmus”. In seinem Hauptwerk ”Kitab al-muchtasar fi hisab al-dschabr wa-l-muqabala”, auf deutsch ”Buch über das Rechnen durch Ergänzen und Ausgleich”, das um 830 erschien, behandelt er systematisch Lösungsstrategien für lineare und quadratische Gleichungen, wozu er wohl erstmals auch geometrischen Darstellungen verwendete. Dieses Buch stellte über Jahrhunderte ein Standardwerk zu dieser Thematik dar und wurde vielfach - auch in Auszügen - ins Lateinische übersetzt. Dabei entstand auch der Begriff ”Algebra” aus der Latinisierung des Wortes ”al-dschabr” im ursprünglichen Titel. In diesem Sinn gehört die Mathematik und insbesondere die Algebra zu den ältesten Wissenschaften überhaupt, denn es sind Keilschriftentexte aus dem Sumerischen Reich überliefert, die belegen, dass man sich schon vor mehr als 4500 Jahren mit Gleichungen und Strategien zum Auffinden ihrer Lösungen beschäftigt hat. Heute geht es in der Algebra um das Studium mathematischer Strukturen, das sind - grob gesagt - Mengen, auf den zusätzliche Operationen und ggf. Relationen 1 2 EINLEITUNG erklärt sind, und um die Beziehungen zwischen solchen Strukuren. Die Algebra war und ist der Vorreiter dieser Denkweise, die mittlerweile weite Teile der Mathematik, der Informatik und der Naturwissenschaften beherrscht. Nach heutigem Verständnis erhebt sich das Gebäude der modernen Mathematik auf drei fundamentalen Säulen: Der formalen Logik, den formalen Sprachen und der Mengenlehre, wobei die beiden erstgenannten derzeit wohl eher der (theoretischen) Informatik zuzuordnen sind. Wir werden uns mit diesen grundlegenden Dingen zunächst nur am Rande beschäftigen und statt dessen versuchen, die der modernen Mathematik zugrunde liegende axiomatsche Herangehensweise anhand konkreter Fragestellungen der linearen Algebra und später der Algebra zu studieren und zu trainieren. Zu einigen mengentheoretischen und logischen Grundlagen wird im Anhang A des Skriptes eingegangen und im weiteren Verlauf jeweils verwiesen. Zu Beginn dieser Vorlesung wollen wir uns - wie gesagt - kurz mit mengentheoretischen und logischen Grundlagen der Mathematik beschäftigen. Danach geht es um die Untersuchung linearer Gleichungssysteme mit beliebiger (aber endlicher) Anzahl von Unbestimmten und Gleichungen. Es ist klar, daß man zur Behandlung solcher Systeme Zahlbereiche benötigt, in welchen Addition einschließlich Subtraktion und Multiplikation ausführbar sind und hierfür die ”üblichen” Regeln gelten. Solche Bereiche werden als Ringe bezeichnet. Z. B. bildet die Menge Z der ganzen Zahlen einen Ring. Bei genauerer Betrachtung stellt sich heraus, daß zur vollständigen Lösung auch noch die Division (außer durch 0) ausführbar sein muß. Derartige Zahlbereiche werden dann Körper genannt. Beispiele hierfür sind die rationalen Zahlen Q und die reellen Zahlen R. Der Einführung und ersten Untersuchung solcher Strukturen wie Ringe, Körper, Gruppen usw. werden uns zu Beginn des zweiten Kapitels beschäftigen. Die Koeffizienten der in diesem Kurs behandelten linearen Gleichungssysteme stammen i. a. aus einem derartigen Körper K. Dabei werden wir spezielle Probleme wie etwa die Frage nach der Positiviät der Komponenten in den Lösungstupeln (falls sie überhaupt sinnvoll ist) außer acht lassen. Im dritten Kapitel werden dann die für die lineare Algebra typischen Strukturen, die Vektorrüme oder allgemeiner Moduln, betrachtet und untersucht. Danach werden wir im vierten Kapitel strukturerhaltende Abbildungen zwischen derartigen algebraischen Strukturen behandeln und dann in den folgenden Kapiteln im Rahmen der Vorlesung ”Lineare Algebra II” wichtige Anwendungen studieren. Kapitel 1 Lineare Gleichungssysteme In der Schule werden häufig Konstruktionsaufgaben behandelt, bei denen es um (meist ebene) geometrische Figuren geht. Dabei werden z. B. Fragen nach der gegenseitigen Lage, den gemeinsamen Schnittpunkten usw. solcher Figuren diskutiert oder es geht um Aussagen über Flächen- bzw. Längenverhältnisse von Teilfiguren oder -strecken. Beispiele sind: • Man konstruiere die Innenwinkelhalbierenden eines gegebenen Dreiecks und zeige, daß sie sich in genau einem Punkt schneiden und daß dieser Punkt der Mittelpunkt des Inkreises des gegebenen Dreiecks ist. • Man konstruiere die Seitenhalbierenden eines gegebenen Dreiecks und zeige, daß sie sich in einem Punkt schneiden und daß dieser Punkt jede der Seitenhalbierenden im Verhältnis 2 : 1 teilt. Man lernt dabei, daß es zur Lösung derartiger Probleme oft hilfreich ist, ein (rechtwinkliges) Koordinatensystem einzuführen und damit die geometrische Fragestellung in eine oder mehrere Gleichungen zu ”übersetzen”, deren Lösung(en) dann die gesuchten Schnittpunktkoordinaten, Verhältniszahlen usw. liefern. Das geometrische Problem ist also in ein algebraisches überführt worden, für dessen Lösung man dann ggf. analytische Methoden heranzieht. Umgekehrt kann man natürlich versuchen, vorgelegte analytische oder algebraische Problemstellungen auf diese Weise geometrisch zu interpretieren und so zu lösen (daher die Bezeichnungen ”analytische” oder ”algebraische” Geometrie). Dabei stößt man in der Mathematik, den Natur-, Ingenieur- und Wirtschaftswissenschaften häufig auf Probleme, bei denen die entsprechenden algebraischen Modelle ”linear” sind, d. h. die Unbestimmten, die die jeweiligen System-, Steueroder sonstigen Größen repräsentieren, kommen in den auftretenden Gleichungen höchstens linear vor, d. h. Produkte mehrerer Unbestimmter treten nicht auf. 3 4 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Als Beispiel hierfür mag die folgende einfache Problemstellung dienen: Hat z. B. ein Händler Waren W1 , . . . , Wn zu Stückpreisen p1 , . . . , pn vorrätig und kauft ein Kunde davon Stückzahlen w1 , . . . , wn , so berechnet sich der zu entrichtende Preis p wie folgt p = p1 w 1 + . . . + pn w n (∗) Hat umgekehrt ein Kunde nur ein bestimmtes Budget p zur Verfügung, so kann man nach den Warenkörben fragen, die er dafür erwerben könnte. Mathematisch bedeutet das, in obiger Gleichung (∗) w1 , . . . , wn als Unbestimmte aufzufassen und alle Warenkörbe zu ermitteln, die den Preis p liefern. Ein Warenkorb ist dann ein geordnetes n-Tupel (x1 , . . . , xn ), wobei xi für i = 1, . . . , n die Anzahl der Ware Wi bezeichnet, die jeweils erworben werden kann. Entsprechend nennt man (∗) lineare Gleichnug mit Koeffizienten p, p1 , . . . , pn in den Unbestimmten w1 , . . . , wn . Ein geordnetes n-Tupel (x1 , . . . , xn ) ganzer oder allgemeiner reeller Zahlen, das (∗) erfüllt, heißt Lösung von (∗). Die in (∗) auftretenden Größen können aber auch ganz andere Bedeutungen haben. Z. B. könnten die W1 , . . . , Wn Transportmittel mit Kapazitäten w1 , . . . , wn sein und p1 , . . . , pn sind Anzahlen von Einsätzen. Dann ist p die dabei insgesamt transportierte Menge. Ist umgekehrt eine bestimmte Menge p zu transportieren, so kann man mit (∗) eine entsprechende Auslastungsstrategie ermitteln, wobei dann allerdings die p1 , . . . , pn als Unbestimmte zu betrachten wären. Sind dabei unterschiedliche Güter zu transportieren, so ergeben sich mehrere Gleichungen des Typs (∗). Man spricht dann von einem linearen Gleichnugssystem in den Unbestimmten p1 , . . . , pn . Es erhebt sich hierbei zunächst einmal die Frage, aus welchen Zahlbereichen die Komponenten unserer Lösungstupel stammen. Sind die Koeffizienten - wie in obigem Beispiel - rationale oder allgemeiner reelle Zahlen, so kann man auch nur Lösungstupel mit rationalen oder reellen Komponenten erwarten. Handelt es sich bei den gesuchten Größen wie oben um Mengenangaben, so sind i. a. nur solche Lösungstupel sinnvoll, deren Komponenten nicht negativ sind. Beschreiben sie Anzahlen, so würden nur ganzzahlige Lösungstupel in Frage kommen usw. Es stellt sich z. B. heraus, daß etwa die Bestimmung aller ganzzahligen Lösungstupel bei einem linearen Gleichungssystem mit ganzzahligen Koeffizienten einen wesentlich höheren Aufwand erfordert als die Bestimmung aller rationalzahligen Lösungstupel. In diesem Kapitel der Vorlesung werden wir uns mit derartigen linearen Gleichungssystemen beschäftigen, wobei es - wie gesagt - erst einmal um die Bestimmung ihrer Lösungsmengen geht. Hierzu werden wir geeignete Verfahren behandeln, mit deren Hilfe wir auch die Struktur dieser Lösungsmengen genauer beschreiben können. 1.1. GRUNDLEGENDE DEFINITIONEN 1.1 5 Grundlegende Definitionen Gegeben sei eine Gleichung a1 X 1 + a2 X 2 + . . . + an X n = b (1.1) mit (zunächst) reellen Zahlen a1 , a2 , . . . , an , b und Unbestimmten X1 , X2 , . . . , Xn . Eine solche Gleichung heißt lineare Gleichung, die a1 , . . . , an heißen Koeffizienten und b konstantes Glied oder konstanter Term oder auch nur Konstante von (1.1). Die Gleichung 1.1 heißt homogen, wenn b = 0 Gesucht wird die Menge L := {(x1 , . . . , xn ) ∈ Rn | a1 x1 + . . . + an xn = b} ⊆ Rn . Sie heißt Lösungsmenge von (1.1), ihre Elemente heißen Lösungen von (1.1). (Rn := {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R} ist die Menge der geordneten n-Tupel reeller Zahlen, s. Anhang A, Abschnitt A.2.) Bemerkungen 1.1. 1. L ändert sich nicht, wenn man 1.1 mit einer von 0 verschiedenen reellen Zahl multipliziert, d. h. wenn man statt 1.1 die Gleichung (αa1 )X1 + (αa2 )X2 + . . . + (αan )Xn = αb mit α ∈ R \ {0} betrachtet. 2. Man erkennt sofort, dass • L=∅ ⇔ a1 = . . . = an = 0, b 6= 0 und • L = Rn ⇔ a1 = . . . = an = b = 0. In allen anderen Fällen gilt somit ∅ ⊂ L ⊂ Rn . L kann relativ einfach ermittelt werden, wie wir an einem Beispiel verdeutlichen wollen. Beispiel 1.2. Man bestimme die Lösungsmenge der Gleichung 2X1 − 6X2 − 5X3 = 3 (1.2) Lösung: Es ist hier n = 3, a1 = 2, a2 = −6, a3 = −5 und b = 3. Werden zwei der drei Unbestimmten beliebig gewählt, so kann die dritte dann berechnet werden. Wenn wir z. B. X2 = t1 , X3 = t2 mit beliebigen t1 , t2 ∈ R setzen, so erhalten wir X1 = 23 + 3t1 + 25 t2 und somit gilt L = {( 32 + 3t1 + 52 t2 , t1 , t2 ) | t1 , t2 ∈ R} = {( 23 , 0, 0) + t1 (3, 1, 0) + t2 ( 25 , 0, 1) | t1 , t2 ∈ R}. Diese Darstellungen von L (insbesondere die letzte) werden als Parameterdarstellungen von L mit Parametern t1 und t2 bezeichnet. 6 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Bemerkungen 1.3. 1. Eine solche Parameterdarstellung ist i. a. nicht eindeutig (z. B. hätten wir X1 und X2 beliebig wählen können, um dann X3 zu bestimmen). Allerdings scheint die Anzahl der frei wählbaren Parameter eindeutig bestimmt zu sein. 2. Die lineare Gleichung 2X1 − 6X2 − 5X3 = 0 heißt zu (1.2) gehörige homogene Gleichung. Ihre Lösungsmenge L0 hat die Gestalt L0 = {t1 (3, 1, 0) + t2 ( 52 , 0, 1) | t1 , t2 ∈ R}. Sie kann sofort aus L bestimmt werden, indem in einer Parameterdarstel lung von L der ”konstante Term” in unserem Fall ( 32 , 0, 0) weggelassen wird. Darauf werden wir später nochmal genauer eingehen. 3. In unserem Beispiel stammen Koeffizienten und konstanter Term von 1.2 aus Q (sogar aus Z). Daher könnte man auch nach den Lösungen aus Q3 fragen. Man erkennt sofort, daß man diese erhält, wenn t1 , t2 beliebig aus Q gewählt werden. (Die Frage nach den ganzzahligen Lösungen ist i. a. viel schwieriger zu beantworten und soll hier auch nicht weiter verfolgt werden. In unserem Beispiel wäre t1 als beliebige ganze und t2 als beliebige ungerade ganze Zahl zu wählen.) Wir kommen nun zum allgemeinen Fall. Hier sind mehrere lineare Gleichungen in Unbestimmten X1 , . . . , Xn vorgelegt und es wird die Menge ihrer gemeinsamen Lösungen gesucht. Man spricht dann von einem linearen Gleichungssystem in n Unbestimmten. Definition 1.4. Vorgelegt sei das lineare Gleichungssystem a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . (1.3) am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m linearen Gleichungen in n Unbestimmten X1 , . . . , Xn (m ≥ 0, n ≥ 1) mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Termen b1 , . . . , bm aus R. Es heißt homogen, wenn b1 = . . . = bm = 0. (a) Die Menge L := {(x1 , . . . , xn ) ∈ Rn | ai1 x1 +. . .+ain xn = bi für alle i = 1, . . . , m} ⊆ Rn heißt Lösungsmenge von 1.3, ihre Elemente heißen Lösungen von 1.3. Wenn L = ∅, so sagen wir, 1.3 sei unlösbar. 1.1. GRUNDLEGENDE DEFINITIONEN 7 (b) Zwei lineare Gleichungssysteme in jeweils n Unbestimmten heißen äquivalent, wenn sie die gleiche Lösungsmenge besitzen. (c) Das System a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = 0 = 0 .. . am1 X1 + am2 X2 + . . . + amn Xn = 0 heißt zu 1.3 gehöriges homogenes System. Es ist stets lösbar, denn (0, . . . , 0) ist eine Lösung. Diese nennt man triviale Lösung (manchmal auch Nullösung). Bemerkungen 1.5. 1. Mit Gleichungen kann man ”rechnen”. Man kann eine Gleichung mit einer reellen Zahl multiplizieren (s. Bemerkung 1.1.1) oder Gleichungen addieren. Z. B. ist die Summe der beiden Gleichungen a1 X1 + . . . + an Xn = b und a01 X1 + . . . + a0n Xn = b0 (a1 , . . . , an , a01 , . . . , a0n , b, b0 ∈ R) die Gleichung (a1 + a01 )X1 + . . . + (an + a0n )Xn = b + b0 . Beides kann man auch kombinieren, d. h. man kann ein Vielfaches einer Gleichung zu einer anderen addieren usw. 2. Aus 1.3 entsteht ein äquivalentes System, wenn man für beliebige i, j ∈ {1, . . . , m} mit i 6= j • ein Vielfaches der i-ten Gleichung zur j-ten Gleichung addiert oder • die i-te Gleichungen mit der j-ten Gleichung vertauscht. Unser Ziel ist es nun, ein vorgelegtes lineares Gleichungssystem in ein ”leicht lösbares” äquivalentes System zu überführen, wobei folgende Umformungen zugelassen werden: (I) Addition eines Vielfachen einer Gleichung zu einer anderen (II) Vertauschen von Gleichungen (III) Vertauschen der Reihenfolge der Unbestimmten. Nach Bemerkung 1.5.2 ist klar, dass durch diese Umformungen das gegebene System in ein äquivalentes überführt wird. Wie diese Umformungen eingesetzt werden, soll an den folgenden Beispielen verdeutlicht werden. Dabei ist klar, daß durch diese Umformungen die Lösungsmenge nicht verändert wird. 8 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Beispiele 1.6. (1) Man bestimme die Lösungsmenge des linearen Gleichungssystems X1 − 3X2 + X3 2X1 + X2 − X3 3X1 − X2 − X3 = 1 = 3 = 3 X1 − 3X2 + X3 7X2 − 3X3 8X2 − 4X3 = 1 = 1 = 0 X1 − 3X2 + 7X2 − X3 3X3 − 47 X3 Ziel der ersten Umformung: Koeffizient von X1 ab der zweiten Gleichung wird Null. Dazu: (−2)(1.Gl.) + (2.Gl.) (−3)(1.Gl.) + (3.Gl.) Ziel der zweiten Umformung: Koeffizient von X2 ab der dritten Gleichung wird Null. Dazu: (− 87 )(2.Gl.) + (3.Gl.) = 1 = 1 = − 87 Dieses System, das - wie gesagt - die gleiche Lösungsmenge wie unser ursprüngliches System besitzt, hat nun aber eine wesentlich einfachere Gestalt (man spricht von einer ”Dreiecksgestalt”) und kann Schritt für Schritt ”von unten nach oben” gelöst werden. Konkret geht man nun wie folgt vor: Aus der letzten Gleichung − 74 X3 = − 87 ergibt sich X3 = 2. Dies setzt man in die ersten beiden Gleichungen ein und erhält das folgende System (welches wiederum Dreiecksgestalt besitzt) X1 − 3X2 7X2 = −1 = 7 Hieraus ergibt sich nun analog wie vorher X2 = 1 und schließlich entsteht nach Einsetzen in die erste Gleichung das System X1 = 2 Die Lösungsmenge ist also L = {(2, 1, 2)} ⊂ R3 . (2) Man bestimme die Lösungsmenge des linearen Gleichungssystems 2X1 3X1 −2X2 + X3 2 X + X3 − 3 2 + 4X2 − X3 = −2 = 1 = 13 2 Ziel der ersten Umformung: Koeffizient von X1 in der ersten Gleichung wird 6= 0. Dazu: Vertauschen von erster und zweiter Gleichung Das nun entstandene System lautet 2X1 − 3X1 2 X 3 2 −2X2 + 4X2 Es entsteht + X3 + X3 − X3 = 1 = −2 = 13 2 Ziel der zweiten Umformung: Koeffiz ient von X1 ab der zweiten Gleichung wird Null. Dazu: (− 32 )(1.Gl.) + (3.Gl) 1.1. GRUNDLEGENDE DEFINITIONEN 2 X 3 2 2X1 − + + − −2X2 5X2 X3 X3 5 X 2 3 = 1 = −2 = 5 9 Ziel der dritten Umformung: Koeffizient von X2 ab der dritten Gleichung wird Null. Dazu: ( 52 )(2.Gl.) + (3.Gl) und wir erhalten (Gleichungen der Gestalt 0 = 0 werden nicht weiter betrachtet) 2X1 − 2 X 3 2 + X3 −2X2 + X3 = 1 = −2 Eine weitere Vereinfachung ist nun nicht mehr möglich, das System hat ”Trapezgestalt”. X3 kann frei gewählt werden: Wir setzen X3 = t1 mit einem frei wählbaren t1 ∈ R (t1 wird Parameter genannt) und erhalten 2 X 3 2 2X1 − = 1 − t1 = −2 − t1 −2X2 Dieses System hat Dreiecksgestalt und wird wie in (1) von unten nach oben gelöst: Aus der zweiten Gleichung ergibt sich X2 = 1 + t21 . Dies wird in die vorhergehenden Gleichungen eingesetzt (also hier in die erste Gleichung) und wir erhalten 2X1 = 5 3 − 2t1 3 Dies liefert schließlich X1 = 5 6 − t1 3 und die Lösungsmenge ist L = {( 56 − t31 , 1 + t21 , t1 ) | t1 ∈ R} = {( 65 , 1, 0) + t1 (− 31 , 12 , 1) | t1 ∈ R} ⊂ R3 (3) Man bestimme die Lösungsmenge des linearen Gleichungssystems −X1 3X1 −2X1 X1 + 2X2 − 6X2 + 4X2 − 2X2 − 2X3 + X3 + X3 − 3X3 + X4 − 2X4 − X4 = 1 = −1 = −4 = 1 Ziel der ersten Umformung: Koeffizient von X1 ab der zweiten Gleichung wird Null. Dazu: 3(1.Gl.) + (2.Gl.) (−2)(1.Gl.) + (3.Gl.) (1.Gl.) + (4.Gl.) und es entsteht das System −X1 + 2X2 − 2X3 −5X3 5X3 −5X3 + X4 + X4 − 3X4 + X4 = 1 = 2 = −6 = 2 Die Koeffizienten von X2 ab der zweiten Gleichung sind alle Null. Ziel der zweiten Umformung: An der Stelle (2, 2) einen von Null verschiedenen Koeffizienten erzeugen. Dazu Vertauschen von X2 und X3 So erhalten wir folgendes System −X1 − 2X3 −5X3 5X3 −5X3 + 2X2 + X4 + X4 − 3X4 + X4 = 1 = 2 = −6 = 2 Ziel der dritten Umformung: Die Koeffizienten von X3 ab der dritten Gleichung werden Null. Dazu (2.Gl.) + (3.Gl.) (−1)(2.Gl.) + (4.Gl.) 10 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Das entstehende System hat die Gestalt −X1 − 2X3 −5X3 + 2X2 + + − X4 X4 2X4 = 1 = 2 = −4 Die Koeffizienten von X2 ab der dritten Gleichung sind alle Null. Ziel der vierten Umformung: An der Stelle (3, 3) einen von Null verschiedenen Koeffizienten erzeugen. Dazu Vertauschen von X2 und X4 Wir erhalten dann −X1 − 2X3 −5X3 + + X4 X4 −2X4 + 2X2 = 1 = 2 = −4 Eine weitere Vereinfachung ist nun nicht mehr möglich, denn das System hat wiederum ”Trapezgestalt”. X2 kann frei gewählt werden: Wir setzen X2 = t1 mit einem Parameter t1 ∈ R und erhalten −X1 − 2X3 −5X3 + + X4 X4 −2X4 = 1 − 2t1 = 2 = −4 Jetzt haben wir Dreiecksgestalt erreicht und können nun die Lösungsmenge analog wie in (1) (oder (2)) bestimmen. Wir erhalten dabei zunächst X4 = 2, sodann entsteht nach Einsetzen von X4 = 2 das System −X1 − 2X3 −5X3 = −1 − 2t1 = 0 aus dem man nun X3 = 0 und schließlich −X1 = −1 − 2t1 , d. h. X1 = 1 + 2t1 erhält. Die Lösungsmenge ist also L = {(1, 0, 0, 2) + t1 (2, 1, 0, 0) | t1 ∈ R} ⊂ R4 . Wir bemerken, daß es zweckmäßiger gewesen wäre, bei der zweiten Umformung X2 gleich mit X3 und mit X4 zu vertauschen, X2 also an die letzte Stelle zu setzen. (4) Man bestimme die Lösungsmenge des linearen Gleichungssystems X1 2X1 2X2 − 3X3 + X4 − 3X2 + 2X4 − 9X3 + 7X4 = −5 = 1 = 0 Die einzelnen Umformung werden wir jetzt nicht mehr gesondert beschreiben, da sie unmittelbar zu erkennen sind. Dabei erhalten wir im einzelnen X1 − 3X2 + 2X4 2X2 − 3X3 + X4 2X1 − 9X3 + 7X4 = 1 = −5 = 0 1.2. GAUßSCHER ALGORITHMUS 11 sodann X1 − 3X2 + 2X4 2X2 − 3X3 + X4 6X2 − 9X3 + 3X4 = 1 = −5 = −2 und schließlich X1 − 3X2 + 2X4 = 1 2X2 − 3X3 + X4 = −5 0 = 13 Nun ist Trapezgestalt erreicht und man erkennt sofort, daß L = ∅, denn die letzte der drei Gleichnungen ist unlösbar (s. Bemerkung 1.1.2. Beobachtungen: 1. In den ersten drei Beispielen besteht die Lösungsmenge L jeweils aus einem ”konstanten Teil” (nämlich (2, 1, 2), ( 56 , 1, 0) bzw. (1, 0, 0, 2)) und einem ”parameterabhängigen Teil” (nämlich 0, t1 (− 31 , 12 , 1) bzw. t1 (2, 1, 0, 0)). Letzterer bildet stets die Lösungsmenge des jeweils zugehörigen homogenen Systems, wie man sofort erkennt. 2. Bei Anwendung der Umformungen vom Typ I, II bzw. III werden nur die Koeffizienten und die Absolutglieder beeinflußt. Es reicht daher, nur diese zu betrachten. Bei Anwendung von Umformungen vom Typ III muß man sich dann jedoch die durchgeführten Vertauschungen merken, um sie abschließend wieder rückgängig machen zu können. 1.2 Gaußscher Algorithmus zur Lösung linearer Gleichungssysteme Vorgelegt sei wiederum das lineare Gleichungssystem (1.3) a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m ≥ 0 linearen Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Gliedern b1 , . . . , bm . In Verallgemeinerung der vorangegangenen Beispiele 1.6 kommt man auf folgendes Verfahren zur Bestimmung eines zu (1.3) äquivalenten linearen Gleichungssystems, das ”einfach” zu lösen ist. Dieses Verfahren heißt Gaußscher Algorithmus und sieht wie folgt aus: 12 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME ρ := 0 Solange es i, j ∈ N gibt mit ρ < i ≤ m, ρ < j ≤ n und aij 6= 0, führe aus: (a) Erreiche durch Anwendung von II und/oder III, daß aρ+1,ρ+1 6= 0 ai,ρ+1 (b) Addiere für i = ρ+2, . . . , m das − aρ+1,ρ+1 -fache der (ρ+1)-ten Gleichung zur i-ten Gleichung (c) Ersetze ρ durch ρ + 1 Bemerkungen 1.7. 1. Die im Gaußschen Algorithmus auftauchende Zahl ρ stellt lediglich einen Steuerparameter (Schrittzähler) dar. Neben anderen Kriterien kann der Algorithmus mit Hilfe von ρ beendet werden (z. B. wenn ρ den Wert m oder n erreicht hat). 2. Wie bei Algorithmen üblich, überschreiben wir die alten Werte von ρ, aij und bi bei Neuberechnung ohne Bezeichnungsänderung. Wir fassen zusammen: Theorem 1.8 (Analyse des Gaußschen Algorithmus). (1) Der Gaußsche Algorithmus bricht nach höchstens min{m, n} Schritten (d. h. Durchläufen der ”Solange”-Schleife) ab. Dabei ist die Anzahl der Schritte gleich dem Wert, den ρ nach Abbruch hat. Diesen Wert bezeichnen wir mit r. r hängt nicht ab von b1 , . . . , bm . (2) Es gilt 0 ≤ r ≤ min{m, n}. r = 0 bedeutet, daß entweder gar keine Gleichung vorliegt (d. h. es gilt m = 0) oder daß alle Koeffizienten von 1.3 gleich Null sind. In letzterem Fall hat 1.3 die Gestalt 0 = b1 0 = b2 .. .. . . 0 = bm und es gilt somit im Fall r = 0 L= Rn ∅ falls b1 = . . . = bm = 0 falls bi = 6 0 für ein i, 1 ≤ i ≤ m (3) Sei r ≥ 1. Da r ≤ min{m, n}, hat (1.3) nach Abbruch des Gaußschen Algo- 1.2. GAUßSCHER ALGORITHMUS 13 rithmus die Gestalt a011 X10 + a012 X20 + . . . + a01r Xr0 + . . . + a01n Xn0 = a022 X20 + . . . + a02r Xr0 + . . . + a02n Xn0 = .. .. .. . . . a0rr Xr0 + . . . + a0rn Xn0 = 0 = .. . b01 b02 .. . b0r b0r+1 .. . (1.4) 0 = b0m mit a011 , . . . , a0rr 6= 0 und wobei (X10 , . . . , Xn0 ) aus (X1 , . . . , Xn ) durch Vertauschen der Reihenfolge hervorgeht. Man nennt sie Trapezgestalt. Wenn r = n (dann ist wegen r ≤ min{m, n} notwendigerweise m ≥ n !), so sagt man, das System habe Dreiecksgestalt. Ist (1.3) homogen, so auch (1.4). (4) Für die Lösungsmenge L0 eines linearen Gleichungssystems vom Typ (1.4) gilt: (a) L0 = ∅ ⇐⇒ es gibt ein i ∈ N mit r < i ≤ m und b0i 6= 0 (nur möglich, wenn r < m). (b) Sei L0 6= ∅, d. h. b0r+1 = . . . = b0m = 0. Dann kann L0 wie folgt ermittelt werden: 0 0 = t1 , . . . , Xn0 = tn−r , . . . , Xn0 beliebig, d. h. setze Xr+1 • Wähle Xr+1 mit beliebigen t1 , . . . , tn−r ∈ R. • Setze diese Werte in das System ein. Dann entsteht mit b00i := b0i − a0i,r+1 t1 − . . . − a0i,n tn−r , i = 1, . . . , r , das Gleichungssystem a011 X10 + a012 X20 + . . . + a01r Xr0 = b001 a022 X20 + . . . + a02r Xr0 = b002 .. .. .. . . . 0 0 arr Xr = b00r Es hat Diagonalgestalt und kann ”von unten nach oben” iterativ wie folgt gelöst werden (s. Beispiel 1.6(1)): • Bestimme Xr0 aus der r-ten Gleichung (möglich, da a0rr 6= 0). Falls 00 r > 1, setze diesen Wert x0r := ab0r in die ersten r − 1 Gleichungen rr für Xr0 ein und bringe für i = 1, . . . r − 1 den Wert a0i,r x0r auf die rechte Seite der i-ten Gleichung. Es entsteht ein Gleichungssystem in Diagonalgestalt bestehend aus r − 1 Gleichungen. 14 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME 0 , . . . , X10 . Dabei ist klar, daß die • So fortfahrend ermittle man Xr−1 entsprechenden Werte x0r , x0r−1 , . . . , x01 von t1 , . . . , tn−r abhängen.Nun gilt L0 = {(x01 , . . . , x0r , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R} . (5) Mit den Bezeichnungen aus (4) sei wieder L0 6= ∅. L0 hat folgende Struktur: Für i = 1, . . . , r gibt es αi,1 , . . . , αi,n−r , γi ∈ R, so daß x0i = γi + n−r X αi,j tj , j=1 wobei die αi,1 , . . . , αi,n−r nur von ap,q , 1 ≤ p ≤ m, 1 ≤ q ≤ n, abhängen und γ1 = . . . = γr = 0 gilt, falls (1.3) homogen ist (d. h. falls b1 = . . . = bm = 0). Setzen wir für i = 1, . . . , r und j = 1, . . . , n − r si := n−r X αi,j tj , j=1 a0j := (α1,j , . . . , αr,j , 0, . . . , 0, c0 := (γ1 , . . . , γr , 0, . . . , 0), (r+j)−te Stelle 1 , 0, . . . , 0) sowie so gilt L0 = {(γ1 + s1 , . . . , γr + sr , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R} = {c0 + t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R} Diese Darstellungen, insbesondere die letzte, heißen Parameterdarstellungen von L0 mit Parametern t1 , . . . , tn−r . Dabei gilt • c0 ∈ L0 • L00 := {t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R} ist Lösungsmenge des zu (1.4) gehörenden homogenen Systems. (6) L kann aus L0 gewonnen werden, indem die Komponenten der Elemente von L0 entsprechend den im Verlauf des Gaußschen Algorithmus ggf. vorgenommenen Unbestimmtenvertauschungen rückgetauscht werden. Entstehen auf diese Weise aus den n-Tupeln a01 , . . . , a0n−r , c0 die n-Tupel a1 , . . . , an−r , c, so gilt L = {c + t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} und L0 = {t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} , wenn L0 die Lösungsmenge des zu (1.3) gehörenden homogenen Systems ist. 1.2. GAUßSCHER ALGORITHMUS 15 Ziel des Gaußschen Algorithmus ist also, ein vorgelegtes lineares Gleichungssystem (1.3) mit Hilfe der Umformungsregeln I - III auf Trapezgestalt (1.4) zu bringen. Es ist dann gesichert, daß bis auf die durch Umformungen vom Typ III bewirkten Vertauschungen der Unbestimmten, also bis auf eine entsprechende Vertauschung der Reihenfolge der Eintragungen in den geordneten n-Tupeln, die Lösungsmengen von (1.3) und von (1.4) übereinstimmen. Insbesondere stellt sich heraus, daß eine enge Beziehung zwischen der Lösungsmenge eines linearen Gleichungssystems und der Lösungsmenge des zugehörigen homogenen Systems besteht. Dies kann man ganz allgemein wie folgt formulieren: Lemma 1.9. Sei L 6= ∅ Lösungsmenge eines linearen Gleichungssystems in n ≥ 1 Unbestimmten. Dann gilt für c ∈ L: L = {c + a | a ∈ L0 }, wenn L0 die Lösungsmenge des zugehörigen homogenen Systems ist. Beweis. Wir nehmen an, das System habe die Gestalt (1.3). Sei c =: (γ1 , . . . , γn ) mit γ1 , . . . , γn ∈ R. Für a ∈ L0 , a =: (α1 , . . . , αn ) mit α1 , . . . , αn ∈ R gilt c+a = (γ1 +α1 , . . . , γn +αn ) und wir erhalten für i = 1, . . . , m: n X aij (γj + αj ) = j=1 n X aij γj + j=1 n X aij αj = bi + 0 = bi , j=1 d. h. c + a ∈ L. Somit folgt {c + a | a ∈ L0 } ⊆ L. Sei umgekehrt d ∈ L, d =: (δ1 , . . . , δn ) mit δ1 , . . . , δn ∈ R. Mit a0 := d − c gilt a0 = (δ1 − γ1 , . . . , δn − γn ) und wir erhalten für i = 1, . . . , m: n X aij (δj − γj ) = j=1 n X aij δj − j=1 n X aij γj = bi − bi = 0, j=1 d. h. a0 = d − c ∈ L0 . Somit folgt d = c + a0 ∈ {c + a | a ∈ L0 }, also L ⊆ {c + a | a ∈ L0 }, Bemerkung 1.10. Häufig verwendet man die Schreibweise c + L0 := {c + a | a ∈ L0 }. Damit lautet das Resultat von Lemma 1.9 L = c + L0 . Dies formuliert man dann oft wie folgt: ”Allgemeine Lösung eines linearen Gleichungssystems = spezielle Lösung dieses Systems + allgemeine Lösung des zugehörigen homogenen Systems”. 16 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Probleme: (A) Ist die vom Gaußschen Algorithmus produzierte Zahl r (s. Theorem 1.8(1)) und damit die Anzahl der frei wählbaren Parameter in der Lösungsmenge L (falls diese nicht leer ist, s. Theorem 1.8(4b)) eindeutig durch das lineare Gleichungssystem (1.3) bestimmt oder kann sie von der Auswahl der Algorithmusschritte abhängen? (B) Welche geometrische Struktur hat L, d. h. welche Teilmengen des Rn sind Lösungsmengen von linearen Gleichungssystemen in n Unbestimmten? Bemerkungen 1.11. 1. Wenn L 6= ∅, so ist L bereits eindeutig festgelegt durch die Angabe von n − r + 1 Elementen des Rn . Mit den Bezeichnungen aus Theorem 1.8(6) sind dies c, a1 , . . . , an−r . 2. Zur Ermittlung von L ist es völlig ausreichend, wenn die Koeffizienten und konstanten Terme von 1.3 aus einem Zahlbereich stammen, in welchem die folgenden Operationen uneingeschränkt ausführbar sind • Addition und Subtraktion • Multiplikation • Division außer durch 0 und die ”üblichen” Regeln hierfür gelten. Ist K ein solcher Zahlbereich (etwa K = Q, K = R oder auch K = C, jedoch nicht K = Z), so liegen auch alle Koeffizienten von (1.4) in K. Damit liegt L0 und folglich L in K n , vorausgesetzt, die Parameter t1 , . . . , tn−r werden aus K gewählt. Auf jeden Fall liegen die in 1. erwähnten Tupel c, a1 , . . . , an−r in K n . Derartige Strukturen werden wir im nächsten Kapitel definieren und erste Eigenschaften hiervon untersuchen. 3. Ändert man Punkt (b) im Gaußschen Algorithmus wie folgt ab (b)1 Multipliziere die (ρ + 1)-te Gleichung mit a−1 ρ+1,ρ+1 (b)2 Addiere für i = 1, . . . , m, i 6= ρ + 1, das (−ai,ρ+1 )-fache der (ρ + 1)-ten Gleichung zur i-ten Gleichung, indem man noch die Umformungsregel (II)’ Multiplikation einer Gleichung mit einer von 0 verschiedenen Zahl hinzufügt, die die Lösungsmenge auch nicht verändert, so kann man erreichen, daß das Gleichungssystem nach Abbruch dieser Version des Gauß- 1.2. GAUßSCHER ALGORITHMUS 17 schen Algorithmus folgende Gestalt hat X10 X20 ... Xr0 0 +a01,r+1 Xr+1 + . . . + a01n Xn0 0 0 +a2,r+1 Xr+1 + . . . + a02n Xn0 .. .. . . 0 0 0 0 +ar,r+1 Xr+1 + . . . + arn Xn 0 .. . = b01 = b02 .. . = b0r = b0r+1 .. . 0 = b0m Der Vorteil ist, daß L0 und damit L hieraus unmittelbar abgelesen werden können. Diese Version des Gaußschen Algorithmus wird als modifizierter Gaußscher Algorithmus bezeichnet. 18 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Kapitel 2 Matrizen Im Mittelpunkt dieses Kapitel stehen Matrizen, wobei wir insbesondere strukturelle Eigenschaften untersuchen wollen. Daher wenden wir uns zunächst den grundlegenden algebraischen Strukturen zu. Als erste Anwendung werden wir erkennen, dass die Verwendung von Matrizen wesentliche begriffliche Vereinfachungen beim Studium linearer Gleichungssysteme mit sich bringt. Darüber hinaus werden wir damit in Kapitel 3 Gestalt und Eigenschaften von Lösungsmengen linearer Gleichungssysteme vollständig aufklären können, so daß dieser Problemkreis dann erschöpfend abgehandelt sein wird. 2.1 Gruppen, Ringe, Körper - die algebraischen Grundlagen Bisher sind uns schon verschiedentlich Mengen begegnet, auf denen ”Operationen” mit ganz speziellen Eigenschaften erklärt waren. Beispiele 2.1. 1. R mit der Addition, Schreibweise (R; +). Es gelten dabei (u. a.) folgende Regeln: (a) (a + b) + c = a + (b + c) (b) a + 0 = 0 + a = a für alle a, b, c ∈ R für alle a ∈ R (c) a + (−a) = (−a) + a = 0 für alle a ∈ R (d) a + b = b + a für alle a, b ∈ R Ersetzt man + durch ·, 0 durch 1 und −x für x ∈ R jeweils durch x1 = x−1 , so kann man entsprechend (R \ {0}; ·) betrachten. Auch hierfür gelten die 19 20 KAPITEL 2. MATRIZEN (a) - (d) entsprechenden Regeln. Außerdem haben wir für alle a, b, c ∈ R (e) (a + b) · c = a · c + b · c und c · (a + b) = c · a + c · b. 2. Sei X eine Menge. Auf der Potenzmenge P (X) von X (s. Abschnitt A.2) betrachten wir die durch A ∗ B := (A ∪ B) \ (A ∩ B) für all A, B ∈ P (X) definierte Operation ∗ (die sogenannte symmetrische Differenz, s. Übungsaufgabe 8) sowie die Operation ∩ (Durchschnitt). Setzt man hierbei 0 := ∅ und −A := A für A ∈ P (X), so gelten (a) - (d) aus 1. entsprechend für ∗, s. Übungsaufgabe 8. Für ∩ gelten (a), (b) und (d) aus 1., wenn man 0 := X setzt. Außerdem gilt Regel (e) aus 1., wenn man + durch ∗ und · durch ∩ ersetzt, wie man schnell bestätigt. 3. Sei X eine Menge. Wir betrachten die Menge Abb (X, X) aller Abbildungen von X nach X mit der Hintereinanderschaltung ◦ von Abbildungen als Operation, kurz (Abb (X, X), ◦), s. Abschnitt A.5. (Statt g ◦ f werden wir oft kurz gf schreiben.) Es gilt: (a) (hg)f = h(gf ) für alle f, g, h ∈ Abb (X, X) (b) f idX = idX f = f für alle f ∈ Abb (X, X). Sei S(X) := {f | f ∈ Abb (X, X), f bijektiv}. Dann gilt idX ∈ S(X) und zusätzlich zu (a) und (b) haben wir (c) Für alle f ∈ S(X) gibt es ein f 0 ∈ S(X) mit f f 0 = f 0 f = idX . Bemerkung: S(X) heißt symmetrische Gruppe von X. 4. Sind auf einer Menge X mehrere Operationen ∗, ◦, ... gegeben, so schreibt man in naheliegender Weise (X; ∗, ◦, ...). Dies können wir wie folgt verallgemeinern: Definition 2.2. Sei X eine Menge, X 6= ∅, und n ∈ N. Eine n-stellige Operation auf X ist eine Abbildung X n → X, wobei nullstellige Operationen verstanden werden als Auswahl eines Elementes aus X. Bemerkungen 2.3. 1. Einstellige Operationen auf X sind genau die Abbildungen von X nach X. Z. B. ist durch n 7→ −n, n ∈ Z, eine einstellige Operation auf Z gegeben. Eine zweistellige Operation auf X ist eine Abbildung X × X → X. 2. Ist • eine zweistellige Operation auf einer Menge X 6= ∅, so schreibt man statt •(x1 , x2 ) mit x1 , x2 ∈ X, in der Regel x1 • x2 und nennt • das Operationszeichen. Häufig verwendete Operationszeichen sind +, ·, ◦, •. 2.1. GRUPPEN, RINGE, KÖRPER 21 Definition 2.4 (Halbgruppen, Monoide). (a) Eine Halbgruppe ist eine nicht leere Menge H zusammen mit einer zweistelligen Operation • auf H, so daß (a • b) • c = a • (b • c) für alle a, b, c ∈ H (Assoziativgesetz) Hierfür schreibt man (H; •). (b) Eine Halbgruppe (H; •) heißt kommutativ, wenn a • b = b • a für alle a, b ∈ H (Kommutativgesetz) (c) Ein Element e einer Halbgruppe (H; •) heißt - linksneutrales (rechtsneutrales) Element von (H; •), wenn e • a = a (a • e = a) für alle a ∈ H. - neutrales Element von (H; •), wenn e links- und rechtsneutral ist. (d) Ein Monoid ist eine Halbgruppe (M ; •), welche ein neutrales Element besitzt. Lemma 2.5. (1) Besitzt eine Halbgruppe ein linksneutrales Element e0 und ein rechtsneutrales Element e00 , so gilt e0 = e00 , d. h. eine Halbgruppe besitzt höchstens ein neutrales Element. (2) Ein Monoid besitzt genau ein neutrales Element. Beweis. Es gilt e0 = e0 •e00 = e00 , wenn • die Operation der Halbgruppe bezeichnet, Definition 2.6 (invertierbare Elemente). Sei (M ; •) ein Monoid mit neutralem Element e und sei m ∈ M . (a) Ein Element m0 ∈ M heißt Linksinverses (Rechtsinverses) von m, wenn m0 • m = e (m • m0 = e). m0 heißt Inverses von m, wenn m0 Links- und Rechtsinverses von m ist. (b) m heißt invertierbar, wenn m ein Inverses in M besitzt. (c) Die Menge der invertierbaren Elemente von (M ; •) wird mit (M ; •)∗ oder kurz mit M ∗ bezeichnet. Lemma 2.7. Sei (M ; •) ein Monoid mit neutralem Element e. (1) Besitzt ein Element m ∈ M ein Linksinverses m0 und ein Rechtsinverses m00 , so gilt m0 = m00 , d. h. m ist invertierbar. 22 KAPITEL 2. MATRIZEN (2) Jedes invertierbare Element m von M besitzt genau ein Inverses. Dieses wird häufig mit m−1 bezeichnet. (3) e ∈ M ∗ und es gilt e−1 = e. (4) Wenn m, n ∈ M ∗ , so folgt m • n ∈ M ∗ und es gilt (m • n)−1 = n−1 • m−1 . (5) Wenn m ∈ M ∗ , so folgt m−1 ∈ M ∗ und es gilt (m−1 )−1 = m. Beweis. (1) Sei m ∈ M und seien m0 ∈ M Linksinverses von m und m00 ∈ M Rechtsinverses von m. Dann gilt m0 = m0 • e = m0 • (m • m00 ) = (m0 • m) • m00 = e • m00 = m00 . (2) folgt aus (1). (3) ist klar, da e • e = e. (4) Sei p := n−1 • m−1 . Dann gilt (m • n) • p = m • (n • n−1 ) • m−1 = m • e • m−1 = m • m−1 = e und p • (m • n) = n−1 • (m−1 • m) • m = n−1 • e • n = n−1 • n = e, d. h. m • n ∈ M ∗ und (m • n)−1 = p = n−1 • m−1 . (5) ist ebenfalls klar, da m−1 • m = m • m−1 = e, Definition 2.8 (Gruppen). (a) Eine Gruppe ist ein Monoid, in welchem jedes Element invertierbar ist. (b) Kommutative Gruppen werden zu Ehren des norwegischen Mathematikers Niels Henrik Abel (1802 - 1829) als abelsche Gruppen bezeichnet. In abelschen Gruppen wird oft das Operationszeichen + verwendet und das Inverse eines Elementes x mit −x bezeichnet (statt mit x−1 ). Das neutrale Element einer abelschen Gruppe G bezeichnet man dann mit 0G oder nur mit 0. Bemerkungen, Beispiele 2.9. Nachfolgend einige Beispiele für 1. Halbgruppen: • (N+ ; +) • ({x ∈ R | 0 < x < 1}; ·). 2. Monoide: • (N; ), wenn definiert ist durch a b := ab + a + b für alle a, b ∈ N, s. auch Übungsaufgabe 21. • (P (X); ∩), X Menge, s. Beispiel 2.1.2. 2.1. GRUPPEN, RINGE, KÖRPER 23 • (Abb (X, X); ◦), X Menge. 3. Gruppen: • (Z; +) • (P (X); ∗), X Menge, s. Beispiel 2.1.2. • (S(X); ◦), X Menge, wobei offenbar S(X) = Abb (X, X)∗ • (L; +), wenn L ⊆ Rn Lösungsmenge eines linearen homogenen Gleichungssystems in n Unbestimmten ist, s. Übungsaufgabe 10. • (M ; •)∗ für ein Monoid (M ; •) mit der Einschränkung von • auf (M ; •)∗ (s. Lemma 2.7(4), (5)). (Nach Definition 2.13 unten bildet (M ; •)∗ damit eine Untergruppe des Monoids (M ; •) und wird daher in der Form (M ∗ ; •) oder nur M ∗ aufgeschrieben, s. auch Bemerkung 2.14.1.) 4. In einer kommutativen Halbgruppe sind die Eigenschaften, ”linksneutral”, ”rechtsneutral” und ”neutral”, äquivalent. Entsprechend sind in einem kommutativen Monoid die Eigenschaften ”linksinvers”, ”rechtsinvers” und ”invers” äquivalent. Definition 2.10 (Ringe, Schiefkörper, Körper). (a) Ein Ring ist eine Menge R mit zwei zweistelligen Operationen + (Addition) und · (Multiplikation), so daß • (R; +) abelsche Gruppe, • (R; ·) Halbgruppe ist und für alle r, s, t ∈ R gilt • (r + s) · t = r · t + s · t r · (s + t) = r · s + r · t (Distributivgesetze) Das neutrale Element von (R; +) heißt Nullelement (von R) und wird mit 0R oder nur mit 0 bezeichnet. Für r ∈ R bezeichnet man mit −r ∈ R das bezüglich 00 +00 Inverse von r. (b) Ein Ring (R; +, ·), bei welchem (R; ·) ein Monoid ist, heißt Ring mit Einselement. In diesem Fall nennt man das neutrale Element von (R; ·) Einselement (von R) und bezeichnet es mit 1R oder nur mit 1. Ist r ∈ R invertierbar bezüglich ·, so bezeichnet man das bezüglich · Inverse von r mit r−1 oder auch mit 1r . (c) Ein Ring (R; +, ·) heißt kommutativ, wenn (R; ·) kommutativ ist. (d) Ein Schiefkörper (Körper) ist ein Ring (K; +, ·), bei welchem (K; ·)∗ = K \ {0K } nach Lemma 2.7(4), (5) ist dies eine (abelsche) Gruppe . 24 KAPITEL 2. MATRIZEN Bemerkungen 2.11. a, b ∈ G: 1. Ist (G; +) eine abelsche Gruppe, so setzt man für a − b := a + (−b), wenn −b das Inverse von b in G bezeichnet. Wir bemerken, daß für alle a, b, c ∈ G gilt: a − (b − c) = (a − b) + c. Ist (R; +, ·) ein Ring so gilt für alle r, s, t ∈ R außerdem: r · (s − t) = r · s − r · t, (r − s) · t = r · t − s · t 2. Sei (R; +, ·) ein Ring. Dann gilt für r ∈ R wegen r − r = 0R : r · 0R = r · (r − r) = r · r − r · r = 0R und entsprechend 0R · r = 0R . 3. Ist (R; +, ·) Ring mit Einselement, so bezeichnet man in Anlehnung an Definition 2.6(c) mit R∗ die Menge der bezüglich · invertierbaren Elemente von R. Die Elemente von R∗ heißen Einheiten von R. Offensichtlich ist 1R Einheit von R, d. h. R∗ 6= ∅. Nach Bemerkung 2.9.3. bildet (R∗ ; ·) eine Gruppe. 4. Häufig ergeben sich Operationen auf einer Menge aus dem Kontext. Dann werden wir sagen ”sei G eine Gruppe” oder ”sei R ein Ring” und verzichten auf die explizite Angabe der Operationszeichen. 5. Lineare Gleichungssysteme können natürlich auch untersucht werden, wenn ihre Koeffizienten aus einem beliebigen Ring stammen. Die Definitionen und Ergebnisse aus Kapitel 1 bleiben aber auf jeden Fall alle gültig, wenn wir voraussetzen, daß die Koeffizienten aus einem beliebigen Körper K stammen. Dann sind die Lösungsmengen Teilmengen von K n , wenn n die Anzahl der Unbestimmmten ist und die evtl. auftretenden Parameter aus K gewählt werden. (In Kapitel 1 hatten wir vorausgesetzt, daß K = R.) Beispiele 2.12. 1. Aus der Schule sind neben den Körpern Q und R der Ring Z der ganzen Zahlen und der Ring R[X] der Polynome in einer Unbestimmten X mit reellen Koeffizienten bekannt. All diese Ringe sind kommutativ. 2. Sei X eine Menge. Dann ist (P (X); ∗, ∩) ein kommutativer Ring mit Einselement, s. Beispiel 2.1.2 und Übungsaufgabe 8. 3. Sei (R, +) eine abelsche Gruppe mit neutralem Element 0. Durch r · s := 0 für alle r, s ∈ R 2.1. GRUPPEN, RINGE, KÖRPER 25 wird (R, +, ·) zu einem kommutativen Ring. Man sagt, die Multiplikation in R sei trivial. Damit ist die triviale abelsche Gruppe {0} auch ein Ring (kommutativ und sogar mit Einselement). Er wird Nullring genannt. 4. Sei R ein Ring mit Einselement. Wenn 1R = 0R , so folgt für beliebiges r ∈ R: r = r · 1R = r · 0R = 0R , d. h. R ist der Nullring. Daher werden wir in der Regel voraussetzten, daß 1R 6= 0R . Wir bemerken, daß dies bei Schiefkörpern und damit bei Körpern definitionsgemäß der Fall ist. Definition 2.13 (Unterstrukturen). Sei A eine Halbgruppe (ein Monoid, eine Gruppe, ein Ring, ein Schiefkörper, ein Körper). Eine Teilmenge B von A heißt Unterhalbgruppe (Untermonoid, Untergruppe, Unterring, Teilschiefkörper, Teilkörper) von A, wenn B mit den in A vorliegenden Operationen selbst eine Halbgruppe (ein Monoid, eine Gruppe, ein Ring, ein Schiefkörper, ein Körper) ist. Bemerkungen 2.14. Sei (A; •) eine Halbgruppe und B ⊆ A. 1. Damit B Unterstruktur von (A; •) ist, muß auf jeden Fall gelten B 6= ∅ und b1 • b2 ∈ B für alle b1 , b2 ∈ B. Man sagt in diesem Fall auch, B sei abgeschlossen bezüglich •. Damit liefert aber die Einschränkung •0 von • auf B × B ⊆ A × A sogar eine Abbildung B × B → B, also eine zweistellige Operation auf B. Der Einfachheit halber bezeichnet man sie meist wieder mit •. 2. Ist B nicht leer und abgeschlossen bezüglich •, so gilt das Assoziativgesetz automatisch in B, d. h. (B, •) ist dann auf jeden Fall Unterhalbgruppe von A. Gleiches gilt für das Kommutativgesetz und die Distributivgesetze, vorausgesetzt, sie gelten in A. Man sagt, diese Eigenschaften vererben sich auf B. 3. Besitzt A ein neutrales Element e bezüglich •, so besagt Definition 2.13, daß e auch neutrales Element von B sein muß, wenn B Untermonoid von A ist. Dazu reicht es zu fordern, daß e ∈ B. Wir bemerken, daß dies sich nicht aus den anderen Axiomen ergibt, wie folgendes Beispiel zeigt: Sei A = {a, b} mit a 6= b. • sei wie folgt erklärt: a • a = a, a • b = b • a = b, b • b = b. 26 KAPITEL 2. MATRIZEN Man bestätigt sofort, daß (A; •) ein kommutatives Monoid mit neutralem Element a ist. B := {b} ⊂ A ist abgeschlossen bezüglich • und (B; •) ist selbst Monoid (sogar eine Gruppe), jedoch mit neutralem Element b. (Damit ist (B; •) kein Untermonoid von (A; •), sondern lediglich Unterhalbgruppe). 4. Ist (A; •) eine Gruppe, so muß die Existenz von Inversen für B gefordert werden, wenn B Untergruppe von A sein soll. Auch hier reicht es zu fordern, daß für b ∈ B das in A vorhandene Inverse b0 von b bereits in B liegt. 5. Man kann in Verallgemeinerung von Definition 2.13 auch Untergruppen von Monoiden oder Teilkörper von Ringen mit Einselement usw. betrachten. Hingegen sind Begriffsbildungen wie ”Untermonoid einer Halbgruppe” o. ä. eher unüblich. Beispielsweise ist für ein Monoid M die Menge M ∗ der invertierbaren Elemente von M Untergruppe von M , s. Bemerkung 2.9.4. Lemma 2.15 (Untergruppenkriterium). Sei G eine Gruppe und H ⊆ G. H ist Untergruppe von G genau dann, wenn H 6= ∅ und wenn für alle g, h ∈ H gilt gh0 ∈ H, wenn h0 das Inverse von h in G bezeichnet. Beweis. Ist H Untergruppe von G, so gilt definitionsgemäß H 6= ∅. Sind g, h ∈ H, so folgt g, h0 ∈ H und somit gh0 ∈ H. Umgekehrt gelte H 6= ∅ und gh0 ∈ H für alle g, h ∈ H. Weiter sei e das neutrale Element von G. Wähle x ∈ H. Dann folgt e = xx0 ∈ H. Ist h ∈ H, so erhalten wir damit h0 = eh0 ∈ H. Seien nun g, h ∈ H. Dann haben wir g, h0 ∈ H und somit gh = g(h0 )0 ∈ H, d. h. H ist abgeschlossen und damit Gruppe, Folgerung 2.16 (Unterringkriterium). (1) Sei R ein Ring und sei S ⊆ R. S ist Unterring von R genau dann, wenn S 6= ∅ und wenn r − s, rs ∈ S für alle r, s ∈ S. Betrachtet man Ringe mit Einselement, so ist zusätzlich zu fordern, daß 1R ∈ S (womit dann die Bedingung S 6= ∅ automatisch erfüllt wäre). (2) Sei K ein Schiefkörper und sei L ⊆ K. L ist Teilschiefkörper von K genau dann, wenn ]L ≥ 2 und wenn für alle x, y ∈ L mit y 6= 0K gilt x − y, xy −1 ∈ L. √ Beispiel 2.17. Sei L := {a + b 2 | a, b ∈ Q} ⊆ R. √ √ Seien x, y ∈ L, y 6= 0. Wir schreiben x = a + b 2, y = c + d 2 mit a, b, c, d ∈ Q √ und erhalten mit ȳ := c − d 2 (6= 0): √ x − y = (a − c) + (b − d) 2 ∈ L sowie ac − 2bd −ad + bc √ xy −1 = xȳ(y ȳ)−1 = 2 + 2 2∈L c − 2d2 c − 2d2 2.2. MATRIZEN 27 (man beachte, daß c2 − 2d2 = y ȳ 6= 0). √ Damit ist L ein Teilkörper von R, Bezeichnung L = Q[ 2]. 2.2 2.2.1 Matrizen Grundlegende Definitionen Sei X eine nicht leere Menge. Wir erinnern daran, dass für n ∈ N+ mit X n die Menge der geordneten n-Tupel mit Einträgen aus X bezeichnet wird, s. Abschnitt A.2. Ein solches Tupel wird in der Form (x1 , . . . , xn ) aufgeschrieben. Natürlich x1 .. n könnte man die Elemente von X auch in der Form . , also als Spaltenxn tupel Wir verwenden hierfür jedoch die (platzsparendere) Schreibwei notieren. x1 .. se . =: (x1 , . . . , xn )T und nennen dieses Spaltentupel Transpositum von xn (x1 , . . . , xn ). Sei nun m ∈ N+ und seien (x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) ∈ X n . Dann haben wir (x11 , . . . , x1n ) T .. (x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) = . . (xm1 , . . . , xmn ) Vereinfachend schreibt man hierfür x11 . . . x1n .. . A := ... . xm1 . . . xmn (2.1) Definition 2.18. Ein Schema der Gestalt 2.1 nennt man (m, n)-Matrix oder Matrix vom Format (oder auch vom Typ) (m, n) mit Einträgen aus X. (a) Für i ∈ {1, . . . , m} und j ∈ {1, . . . , n} heißt xij Eintrag von A an der Stelle (i, j). x1,j (b) Die (xi1 , . . . , xin ), i = 1, . . . , m, heißen Zeilen von A und die ... = xm,j 28 KAPITEL 2. MATRIZEN (x1,j , . . . , xm,j )T , j = 1, . . . , n, heißen Spalten von A. Dementsprechend nennt man m auch die Zeilen(an)zahl und n die Spalten(an)zahl von A. x11 . . . xm1 .. heißt Transpositum oder Transponier(c) Die (n, m)-Matrix ... . x1n . . . xnm te von A und wird mit AT bezeichnet. (d) Die Menge der (m, n)-Matrizen mit Einträgen aus X wird mit X m,n bezeichnet. Falls m = n, so spricht man von quadratischen Matrizen. Eine (1, 1)Matrix (x) wird mit x identifiziert, so daß X 1,1 = X. Bemerkungen 2.19. 1. Für m = 1 entstehen dann wieder Zeilen-n-Tupel und für n = 1 Spalten-m-Tupel. Damit setzt man X 1,n = X n . 2. Ist A ∈ X m,n mit Einträgen xij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, so schreibt man mitunter A = ((xi,j ))1≤i≤m 1≤j≤n 3. Die Stellen (1, 1), . . . , (n, n) einer quadratischen (n, n)-Matrix nennt man Hauptdiagonale dieser Matrix. Entsprechend nennt man die Stellen (1, n), (2, n − 1), . . . , (n, 1) Nebendiagonale dieser Matrix. 4. Sei m = m1 + m2 und n = n1 + n2 mit m1 , m2 , n1 , n2 ∈ N+ . Weiter seien B11 ∈ X m1 ,n1 , B12 ∈ X m1 ,n2 , B21 ∈ X m2 ,n1 und B22 ∈ X m2 ,n2 . Durch Zusammenfügen entsteht die (m, n)-Matrix B11 B12 ∈ X m,n , A := B21 B22 wobei die inneren Klammern weggelassen werden. Eine solche Matrix nennt man Blockmatrix. 5. Das Transpositum AT einer Matrix A entsteht aus A durch Vertauschen von Zeilen und Spalten. Offenbar gilt (AT )T = A. 2.2.2 Matrizenringe In diesem Abschnitt bezeichne R durchweg einen Ring. Definition 2.20. Seienm, n, p, q ∈ N+ und A ∈Rm,n , B ∈ Rp,q . Wir schreiben a11 . . . a1n b11 . . . b1q .. . .. . .. , B =: ... A =: . . am1 . . . amn bp1 . . . bpq 2.2. MATRIZEN 29 (1) Wenn p = m und q = n, so ist die Summe definiert durch a11 + b11 . . . a1n + b1n .. .. A + B := . . am1 + bm1 . . . amn + bmn A + B ∈ Rm,n von A und B . Achtung: A + B kann nur gebildet werden, wenn A und B gleiches Format haben. (2) Sei r ∈ R. Die Matrizen rA, Ar ∈ Rm,n sind definiert durch ra11 . . . ra1n a11 r . . . a1n r .. , Ar := .. .. . rA := ... . . . ram1 . . . ramn am1 r . . . amn r (3) Wenn p = n, so ist das Produkt A · B ∈ Rm,p von A und B definiert durch c11 . . . c1q .. , A · B := ... . cm1 . . . cmq wobei cij := ai1 b1j + . . . + ain bnj = Pn l=1 ail blj , i = 1, . . . , m, j = 1, . . . , p. Achtung: A · B (oder kurz AB) kann nur gebildet werden, wenn n (=Spaltenzahl von A) = p (= Zeilenzahl von B). Diese Bedingung nennt man Verkettungsbedingung und sagt, A und B seien verkettet. Bemerkungen, Beispiele 2.21. 1. Wenn mit obigen Bezeichnungen gilt m = 1, n = p und q = 1, d. h. A = (a1 , . . . , an ), B = (b1 , . . . , bn )T , so haben wir A · B = a1 b1 + . . . + an bn . Wir bemerken, daß hierfür A · B = B T · AT gilt, wenn R kommutativ ist. 2. Sind nun wiederum mit obigen Bezeichnungen m, q beliebig, aber n = p, und sind a1 , . . . , am die Zeilen von A, bT1 , . . . , bTq die Spalten von B, so gilt damit A · B = ((ai · bTj ))1≤i≤m . 1≤j≤n Ist R kommutativ, so ergibt sich hieraus und aus 1. sofort, daß (A · B)T = B T · AT . 30 KAPITEL 2. MATRIZEN 3. Diejenige (m, n)-Matrix, deren Einträge sämtlich gleich 0R sind, nennt man (m, n)-Nullmatrix. Sie wird mit 0m,n oder, wenn Verwechslungen ausgeschlossen sind, kurz nur mit 0 bezeichnet. Offensichtlich gilt 0m,n · B = 0m,q und C · 0m,n = 0p,n für alle B ∈ Rn,q und alle C ∈ Rp,m . Mitunter ist es nützlich, hier den Fall m = 0 oder n = 0 zuzulassen: Dann versteht man unter 0m,n jeweils die leere Matrix. 4. Seien m, n, p, q beliebig und A ∈ Rm,n , B ∈ Rp,q . A · B und B · A können genau dann gebildet werden, wenn die Verkettungsbedingungen n = p und q = m erfüllt sind, d. h. wenn B eine (n, m)-Matrix ist. Dann ist A · B eine (m, m)- und B · A eine (n, n)-Matrix. Wenn also m 6= n, so gilt auf jeden Fall A · B 6= B · A. Die Frage, ob A · B = B · A gilt, ist also nur dann sinnvoll, wenn A und B quadratische Matrizen gleichen Formats sind. 5. Sei n ∈ N+ und A, B ∈ Rn,n . Ist die Multiplikation in R nicht trivial, so gilt für n ≥ 2 i. a. nicht A· B = B · A.Seien hierzu r, s ∈ R mit rs 6= 0R . 01,m s 0m,1 0m,m , B := erhalten wir Mit m := n − 1 und A := r 01,m 0m,m 0m,1 nämlich 0m,m 0m,1 sr 01,m A·B = und B · A = , 01,m rs 0m,1 0m,m also A · B 6= B · A. 6. Sei n ∈ N+ . Matrizen der Gestalt r1 0R . . . 0R 0R r2 . . . 0R n,n Diagn (r1 , . . . , rn ) := .. .. . . .. ∈ R . . . . 0R 0R . . . rn mit r1 , r2 , . . . , rn ∈ R heißen (n, n)-Diagonalmatrizen. Besitzt R ein Einselement, so heißt En := Diagn (1R , . . . , 1R ) (n, n)-Einheitsmatrix (manchmal auch nur Einheitsmatrix). Offenbar gilt Em · A = A = A · En für alle A ∈ Rm,n . Für m, n ∈ N+ , k ∈ N mit k ≤ min{m, n} und r1 , . . . , rk ∈ R sei Diagk (r1 , . . . , rk ) 0k,n−k Diagm,n;k (r1 , . . . , rk ) := ∈ Rm,n . 0m−k,k 0m−k,n−k Solche Matrizen nennt man verallgemeinerte Diagonalmatrizen. 2.2. MATRIZEN 31 Besitzt R ein Einselement, so setzen wir Em,n;k := Diagm,n;k (1R , . . . , 1R ). Wir bemerken, daß Em,n;0 = 0m,n und Diagm,n (r, . . . , r) = rEm,n;k (r ∈ R). | {z } k−mal + 7. R besitze ein Einselement. Für m, n, i, j ∈ N mit i ≤ m und j ≤ n sei i,j Em,n ∈ Rm,n diejenige Matrix, deren Einträge außer an Stelle (i, j) überall i,j schreiben 0R sind und die an der Stelle (i, j) den Eintrag 1R hat. Statt En,n i,j wir kurz En . Wir bemerken, daß es für jede Matrix A ∈ Rm,n eindeutig bestimmte apq ∈ R (p = 1, . . . , m, q = 1, . . . , n) gibt mit P p,q A = 1≤p≤m apq Em,n . 1≤q≤n Offensichtlich sind die apq , p = 1, . . . , m, q = 1, . . . , n, die Einträge von A. Lemma 2.22. Seien m, n, p ∈ N+ . Dann gilt: (1) Rm,n bildet mit der Matrizenaddition eine abelsche Gruppe mit Nullelement r11 . . . r1n .. .. ∈ Rm,n : 0m,n . Dabei gilt für A =: . . rm1 . . . rmn −r11 . . . −r1n .. . −A = ... . −rm1 . . . −rmn (2) Für alle r, s ∈ R und alle A, B ∈ Rm,n gilt (a) rA = Diagm (r, . . . , r) · A, Ar = A · Diagn (r, . . . , r) (b) (r + s)A = rA + sA (c) r(A + B) = rA + rB (d) r(A · B) = (rA) · B (e) (rs)A = r(sA) (f ) 1R A = A (g) (A + B)T = AT + B T (h) (rA)T = rAT . (3) Ist R kommutativ, so gilt für alle r ∈ R und alle A ∈ Rm,n , B ∈ Rn,p 32 KAPITEL 2. MATRIZEN (a) r(A · B) = (rA) · B = A · (rB) sowie (b) (A · B)T = B T · AT . Die behaupteten Eigenschaften ergeben sich sofort aus den entsprechenden Eigenschaften für R bzw. aus den jeweiligen Definitionen. Lemma 2.23. Seien m, n, p, q ∈ N+ . (1) Für alle A, A1 , A2 ∈ Rm,n und alle B, B1 , B2 ∈ Rn,p gilt A · (B1 + B2 ) = A · B1 + A · B2 und (A1 + A2 ) · B = A1 · B + A2 · B. (2) Für alle A ∈ Rm,n , B ∈ Rn,p und C ∈ Rp,q gilt (A · B) · C = A · (B · C). Beweis. (1) ergibt sich sofort aus der Gültigkeit der Distributivgesetze in R. (2) Sei i ∈ {1, . . . , m} und j ∈ {1, . . . , q}. Dann ist (a · B) · cT der Eintrag von (A · B) · C an der Stelle (i, j) und a · (B · cT ) der Eintrag von A · (B · C) an der Stelle (i, j), wenn a die i-te Zeile von A und cT die j-te Spalte von C ist. Daher dürfen wir o. B. d. A. annehmen, daß m = q = 1. Sei also A =: (a1 , . . . , an ) und C =: (c1 , . . . , cp )T sowie B =: ((bkl ))1≤k≤n . Dann gilt 1≤l≤p A·B = n X ak bk1 , . . . , k=1 B·C = p X b1l cl , . . . , p n X X l=1 = ak bkp , k=1 l=1 (A · B) · C = n X ! p X bnl cl l=1 ! ak bkl cl = k=1 p n X X ak bkl cl = k=1 l=1 n X k=1 T und somit p n X X ak bkl cl l=1 k=1 p ak X bkl cl l=1 = A · (B · C) , Folgerung 2.24. Sei n ∈ N+ . Dann gilt (1) Rn,n bildet mit der Matrizenaddition und -multiplikation einen Ring. Besitzt R ein Einselement, so auch Rn,n (nämlich die Einheitsmatrix En über R). (2) Sei R kommutativ mit Einselement. Wenn A ∈ Rn,n Einheit in Rn,n ist (d. h. A ∈ (Rn,n )∗ ), so ist auch AT Einheit in Rn,n und es gilt (AT )−1 = (A−1 )T . 2.2. MATRIZEN 33 Dies ergibt sich sofort aus Lemma 2.22(1), Lemma 2.23 und Lemma 2.22(3). Definition 2.25 (invertierbare Matrizen). Sei R Ring mit Einselement und sei n ∈ N+ . Eine Matrix A ∈ Rn,n heißt invertierbar, wenn A Einheit in Rn,n ist (d. h. wenn es eine Matrix B ∈ Rn,n gibt mit A · B = B · A = En ). Die Menge der invertierbaren Matrizen aus Rn,n (also (Rn,n )∗ ) bildet mit der Matrizenmultiplikation eine Untergruppe von (Rn,n , ·), s. Bemerkung 2.9.3. Man nennt sie n-te allgemeine lineare Gruppe über R und bezeichnet sie mit GlR (n). Mit Hilfe von Matrizen lassen sich lineare Gleichungssysteme wesentlich einfacher darstellen. Hierzu betrachten wir wieder das lineare Gleichungssystem (1.3): a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m ≥ 1 Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn mit Koeffizienten aus einem Körper K. Die Matrix a11 . . . a1n .. A := ... . am1 . . . amn heißt Koeffizientenmatrix von (1.3) und die Matrix a11 . . . a1n b1 a21 . . . a2n b2 B := .. .. .. . . . am1 . . . amn bm erweiterte Koeffizientenmatrix von (1.3). Mitunter schreibt man B = (A , bT ), wenn b := (b1 , . . . , bm ). Setzen wir X := (X1 , . . . , Xn ), so können wir (1.3) in der Form A · XT = bT schreiben (Matrizenschreibweise linearer Gleichungssysteme). Als erstes Ergebnis haben wir Satz 2.26. Vorgelegt sei ein lineares Gleichungssystem (1.3) mit Koeffizienten aus einem Körper K und m ≤ n. L ⊆ K n bezeichne seine Lösungsmenge. Dann gilt ]L = 1 ⇐⇒ m = n und A ist invertierbar, 34 KAPITEL 2. MATRIZEN wenn A die Koeffizientenmatrix von (1.3) ist. In diesem Fall haben wir L = {b · (A−1 )T }, wobei wieder b := (b1 , . . . , bm ). Beweis. Sei ] L = 1. Dann ist (1.3) lösbar und nach dem Gaußschen Algorithmus sind n − r Unbestimmte frei wählbar, wenn r die vom Algorithmus produzierte Zahl ist. Somit gilt n = r ≤ min{m, n} ≤ m ≤ n, also m = n = r. Damit führt der Gaußsche Algorithmus (1.3) in Dreiecksgestalt über. Dies ist dann natürlich auch der Fall, wenn b durch ein beliebiges anderes n-Tupel ersetzt wird. Wenn wir i−te Stelle für i = 1, . . . , n setzen eni := (0K , . . . , 0K , 1K , 0K , . . . , 0K ) ∈ K n , so ist daher das System A · XT = eTni lösbar. Sei xi eine Lösung hiervon. Dann gilt A · A0 = En , wenn A0 := (xT1 , . . . xTn ) ∈ K n,n . Hieraus folgt nun A · A0 · A = En · A = A = A · En und wir erhalten A · (A0 · A − En ) = 0. Die Spalten von A0 · A − En sind also Lösungen des zu (1.3) gehörenden homogenen Gleichungssystems, das nach Lemma 1.9 nur die triviale Lösung besitzt. Daher gilt A0 · A − En = 0, d. h. A0 · A = En , und damit ist A invertierbar. Sei nun m = n und A sei invertierbar. Dann gilt mit x := b · (A−1 )T : A · xT = A · ((A−1 )T )T · bT = A · A−1 · bT = En · bT = bT , d. h. x ∈ L. Ist y ∈ L, so folgt yT = En · yT = A−1 · A · yT = A−1 · bT = xT , also y = x und somit ] L = 1, Folgerung 2.27. Sei n ∈ N+ und A ∈ K n,n , wobei K ein Körper ist. Die folgenden Bedingungen sind äquivalent: (i) A ist invertierbar (ii) Es gibt ein A0 ∈ K n,n mit A · A0 = En (iii) Es gibt ein A00 ∈ K n,n mit A00 · A = En Sind diese äquivalenten Bedingungen erfüllt, so gilt für die nach (ii) bzw. (iii) existierenden Matrizen A0 bzw. A00 : A0 = A00 = A−1 . Beweis. Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich unmittelbar aus der Definition. (iii) ⇒ (i): Sei x Lösung des linearen homogenen Gleichungssystems A · XT = 0. Dann folgt xT = En · xT = A00 · A · xT = 0, also x = 0. Nach Satz 2.26 ist A damit invertierbar. 2.2. MATRIZEN 35 (ii) ⇒ (i): Aus A · A0 = En ergibt sich (A0 )T · AT = (A · A0 )T = (En )T = En , s. Lemma 2.22(3b). Nach dem soeben Gezeigten ist damit AT invertierbar und die Behauptung ergibt sich aus Folgerung 2.24(2), Bemerkung 2.28. Die Aussage von Folgerung 2.27 bleibt richtg, wenn K ein beliebiger kommutativer Ring ist. Der Beweis erfordert allerdings spezielle ringtheoretische Methoden. Ist eine Matrix A ∈ K n,n vorgelegt, wobei K ein Körper ist, so kann die Frage nach der Existenz einer Inversen somit auf die Frage nach der Existenz einer Matrix A0 mit A · A0 = En reduziert werden. Die i-te Spalte von A0 , i = 1, . . . , n, ist Lösung des linearen Gleichungssystems A · XT = eTni , wobei eni wie im Beweis von Satz 2.26 erklärt ist. Damit ist A genau dann invertierbar, wenn die linearen Gleichnungssysteme A · XT = eTni für i = 1, . . . , n lösbar sind. Ist das der Fall und ist xi Lösung von A · XT = eTni , i = 1, . . . , n, so ist A−1 = (xT1 , . . . , xTn ). Bemerkung 2.29. Der Gaußsche Algorithmus kann auf Matrizen aus K m,n , K ein Körper, angewandt werden, wenn man die Umformungen I, II und III entsprechend interpretiert: (I) Vertauschen zweier Zeilen (II) Addition eines Vielfachen einer Zeile zu einer anderen (III) Vertauschen zweier Spalten Dadurch kann eine (m, n)-Matrix A in eine (m, n)-Matrix A0 überführt werden, die Trapezgestalt besitzt, d. h. es gibt ein r ∈ N mit r ≤ min{m, n}, so daß A0 = ((a0ij ))1≤i≤m , wobei 1≤j≤n a0ij = 0 für alle i, j mit j = 1, . . . , n und i > min{r, j} sowie a0ii 6= 0 für alle i = 1 . . . , r. Ist nun ein lineares Gleichungssystem A · XT = bT in n Unbestimmten mit Koeffizienten aus einem Körper K bestehend aus m Gleichungen gegeben, so reicht es, zur Vereinfachung des Systems den Gaußschen Algorithmus auf die erweiterte Koeffizientenmatrix B = (A , bT ) anzuwenden, wobei allerdings die letzte Spalte (also bT ) nicht in die Spaltenvertauschungen 36 KAPITEL 2. MATRIZEN (also Umformungen vom Typ III) einbezogen werden darf. Dann entsteht eine (m, n + 1)-Matrix der Gestalt B̃ = à , b̃ T , wobei à Trapezgestalt hat. Dies stellt z. B. eine wesentliche Vereinfachung dar, wenn mehrere lineare Gleichungssysteme mit jeweils gleicher Koeffizientenmatrix vorgelegt sind. Wenn diese etwa die Gestalt A · XT = bTk , k = 1, . . . p, haben, so wendet man den Gaußschen Algorithmus auf die (m, n + p)-Matrix B := (A , bT1 , . . . , bTp ) an, wobei die letzten p Spalten (also bT1 , . . . , bTp ) nicht in die Spaltenvertauschungen (also Umformungen vom Typ III) einbezogen werden dürfen. Wenn daraus die Matrix B̃ = (à , b̃T1 , . . . , b̃Tp ) entsteht, wobei à Trapezgestalt hat, so erhält man die zu den jeweiligen Ausgangssystemen äquivalenten Gleichnungssysteme à · XT = b̃k T , k = 1, . . . p. Zur Erläuterung diskutieren wir das folgende Beispiel 1 −2 Beispiel 2.30. Gegeben sei die Matrix A = ∈ Q2,2 . Man prüfe, ob 2 −3 A invertierbar ist und berechne ggf. ihre Inverse. Lösung: Wie wir oben gesehen haben, ist zu prüfen, ob die linearen Gleichungssysteme A · XT = (1, 0)T und A · XT = (0, 1)T lösbar sind. Hierzu wenden wir den Gaußschen Algorithmus auf 1 −2 1 0 2 −3 0 1 an und erhalten 1 −2 1 0 0 1 −2 1 Die beiden linearen Gleichungssysteme à · XT = (1, −2)T und à · XT = (0, 1)T , 2.3. SPEZIELLE MATRIZEN 37 1 −2 wobei à = , sind lösbar und damit ist A invertierbar. Da (−3, −2) 0 1 bzw. (2, 1) jeweils Lösungen des ersten bzw. zweiten Systems sind, erhalten wir −3 2 −1 A = −2 1 Wir bemerken, dass man bei Anwendung des modifizierten Gaußschen Algorithmus die Inverse - vorausgesetzt sie existiert - unmittelbar ablesen kann. Ist nämlich B := (A , eT1 , . . . , eTn ) = (A , En ) und entsteht hieraus durch Anwendung des modifizierten Gaußschen Algorithmus die Matrix B̃, so ist A genau dann invertierbar, wenn B̃ die Gestalt B̃ = (En , A0 ) mit einer (n, n)-Matrix A0 hat. In diesem Fall gilt dann A−1 = A0 . 2.3 Spezielle Matrizen In diesem Abschnitt sei R ein Ring mit Einselement. m, n seien positive ganze Zahlen. Zu den Umformungsregeln I, II und III für Matrizen (s. Bemerkung 2.29) fügen wir hier noch die weitere Regel (IV) Addition eines Vielfachen einer Spalte zu einer anderen hinzu. Wir zeigen zunächst, dass diese Umformungen durch Multiplikation mit geeigneten invertierbaren Matrizen realisiert werden können. Hierzu definieren wir: Definition 2.31. Mnk (r) (a) Für k ∈ {1, . . . , n} und r ∈ R setzen wir := En + (r − 1R )Enk,k k−te Stelle = Diagn (1R , . . . , 1R , r , 1R , . . . , 1R ). Sei nun n ≥ 2 und i, j seien natürliche Zahlen mit 1 ≤ i, j ≤ n und i 6= j. (b) Mit Vni,j ∈ Rn,n bezeichnen wir diejenige (n, n)-Matrix, deren Einträge an den Stellen (k, k) mit k ∈ {1, . . . , n} \ {i, j} sowie (i, j) und (j, i) jeweils 1R und ansonsten 0R sind. 38 KAPITEL 2. MATRIZEN n,n i,j . (c) Für r ∈ R setzen wir Ai,j n (r) := En + rEn ∈ R Die in (a) definierten Matrizen heißen Multiplikationsmatrizen, die in (b) Vertauschungsmatrizen und die (c) Additionsmatrizen. Eine Matrix aus Rn,n heißt Elementarmatrix, wenn sie entweder Additionsmatrix oder Multiplikationsmatrix der Gestalt Mnk (−1R ) mit k ∈ {1, . . . , n} ist. Die Menge aller endlichen Produkte von Elementarmatrizen aus Rn,n bezeichnen wir mit ER (n). Lemma 2.32. Sei A ∈ Rm,n . k (r) (Mnk (r)) mit (a) Multiplikation von A mit einer Multiplikationsmatrix Mm k ∈ {1, . . . , m} (k ∈ {1, . . . , n}) und r ∈ R von links (rechts) bewirkt die Multiplikation der k-ten Zeile (Spalte) von A mit r von links (rechts). (a) Multiplikation von A mit einer Vertauschungsmatrix Vmi,j (Vni,j ) mit i, j ∈ {1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, von links (rechts) bewirkt die Vertauschung der i-ten und j-ten Zeile (Spalte) von A. i,j (b) Multiplikation von A mit einer Additionsmatrix Ai,j m (r) (An (r)) mit i, j ∈ {1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, und r ∈ R von links (rects) bewirkt die Addition des links- (rechts-)r-fachen der j-ten Zeile von A zur i-ten Zeile von A (i-ten Spalte von A zur j-ten Spalte von A). Der Beweis liegt auf der Hand, so dass wir darauf verzichten. Elementarmatrizen haben allerdings wichtige strukturelle Eigenschaften, die wir nun untersuchen wollen. Lemma 2.33. Sei n ≥ 2. (a) Für alle k ∈ {1, . . . , n} und alle r, s ∈ R gilt Mnk (r) · Mnk (s) = Mnk (rs) . Insbesondere ist Mnk (r) genau dann invertierbar, wenn r ∈ R∗ . In diesem Fall gilt Mnk (r)−1 = Mnk (r−1 ). (b) Für alle i, j ∈ {1, . . . , n}, i 6= j, und alle r, s ∈ R gilt i,j i,j Ai,j n (r) · An (s) = An (r + s) . i,j −1 Insbesondere ist Ai,j = Ai,j n (r) invertierbar mit An (r) n (−r). T j,i Außerdem gilt Ai,j n (r) = An (r). (c) Für alle i, j ∈ {1, . . . , n}, i 6= j, gilt (Vni,j )2 = En . Insbesondere ist Vni,j invertierbar mit (Vni,j )−1 = Vni,j = (Vni,j )T . 2.3. SPEZIELLE MATRIZEN 39 (d) ER (n) ist Untergruppe von GlR (n) mit Vni,j ∈ ER (n) für alle i, j ∈ {1, . . . , n}, i 6= j. Ist R kommutativ, so gilt außerdem P T ∈ ER (n) für alle P ∈ ER (n). Beweis. Seien i, j, k ∈ {1, . . . , n} mit i 6= j. Dann gilt für r, s ∈ R Mnk (r) · Mnk (s) = Mnk (rs) , i,j 2 i,j i,j i,j i,j i,j Ai,j n (r) · An (s) = (En + rEn ) · (En + sEn ) = En + rEn + sEn + rs (En ) | {z } =0 = En + (r + s)Eni,j = Ai,j n (r + s) . Schließlich ist klar, dass (Vni,j )2 = En und (Vni,j )T = Vni,j . (a) Wenn r ∈ R∗ , so gilt Mnk (r) · Mnk (r−1 ) = En = Mnk (r−1 ) · Mnk (r), d. h. Mnk (r) ist invertierbar mit Mnk (r−1 ) als inverser Matrix. Sei nun umgekehrt Mnk (r) invertierbar. Dann gibt es ein A ∈ Rn,n mit Mnk (r) · A = A · Mnk (r) = En . Hieraus folgt ra = ar = 1R , wenn a der Eintrag von A an der Stelle (k, k) ist, d. h. r ∈ R∗ . (b) ist klar, da Ai,j n (0R ) = En . i,j j i,j i,j (d) Wegen Vni,j = Aj,i n (1R ) · An (−1R ) · An (1R ) · Mn (−1R ) liegt Vn in ER (n). Insbesondere ist damit ER (n) nicht leer. Seien nun A, B ∈ ER (n). Dann gibt es Elementarmatrizen A1 , . . . , As und B1 , . . . Bt in Rn,n mit A = A1 ·. . .·As und B = B1 ·. . .·Bt . Nach (a), (b) und Lemma 2.7(c) ist B invertierbar und es gilt B −1 = Bt−1 ·. . .·B1−1 . Wiederum nach (a) und (b) sind B1−1 , . . . , Bt−1 Elementarmatrizen und daher folgt A · B −1 ∈ ER (n). Somit ist ER (n) Untergruppe von GlR (n) nach Lemma 2.15. Sei nun R kommutativ und sei A ∈ ER (n). Dann gibt es Elementarmatrizen A1 , . . . , As ∈ Rn,n mit A = A1 ·. . .·As und es folgt AT = ATs ·. . .·AT1 ∈ ER (n) nach (b) und (c), Folgerung 2.34. Sei K ein Körper (1) Für jede Matrix A ∈ K m,n gibt es Matrizen P ∈ GlK (m) und Q ∈ EK (n) sowie ein r ∈ N mit r ≤ min{m, n}, so dass P · A · Q = Em,n;r . (2) Für jede Matrix A ∈ K m,n gibt es Matrizen U ∈ EK (m) und V ∈ EK (n) sowie ein r ∈ N mit r ≤ min{m, n} und a1 , . . . , ar ∈ K ∗ , so dass U · A · V = Diagm,n (a1 , . . . , ar ). 40 KAPITEL 2. MATRIZEN Beweis. (2) ergibt sich mit Lemma 2.32 sofort durch Anwendung des Gaußschen Algorithmus auf A und AT . (1) Multipliziert man die nach (2) entstehende Matrix U ·A·V = Diagm,n (a1 , . . . Q k . . . , ar ) von links mit M := rk=1 Mm (a−1 k ) ∈ GlK (m), so ergibt sich die Aussage mit P := M · U und Q := V , Definition 2.35. Seien m, n ∈ N+ . (a) ER (n) heißt n-te elementare Gruppe über R. (b) Matrizen A, B ∈ Rm,n heißen äquivalent, kurz A ∼ B, wenn es Matrizen P ∈ GlR (m) und Q ∈ GlR (n) gibt mit B = P · A · Q. (c) Matrizen A, B ∈ Rn,n heißen ähnlich, wenn B = P · A · P −1 mit einer Matrix P ∈ GlR (n). Lemma 2.36. Äquivalenz bzw. Ähnlichkeit sind Äquivalenzrelationen auf Rm,n bzw. auf Rn,n . Ähnliche Matrizen sind äquivalent. Beweis. Reflexivität: Sei A ∈ Rn,n (A ∈ Rm,n ). Dann gilt A = P · A · P −1 mit P = En (A = P · A · Q mit P = Em , Q = En ), also sind A, A ähnlich (äquivalent). Symmetrie: Seien A, B ∈ Rn,n ähnlich (A, B ∈ Rm,n äquivalent), d. h. B = P · A · P −1 mit P ∈ GlR (n) (B = P · A · Q mit P ∈ GlR (m), Q ∈ GlR (n)). Dann folgt A = P −1 · B · P = P −1 · B · (P −1 )−1 (A = P −1 · B · Q−1 ), also sind B, A ähnlich (äquivalent). Transitivität: Seien A, B ∈ Rn,n , B, C ∈ Rn,n jeweils ähnlich (A, B ∈ Rm,n , B, C ∈ Rm,n jeweils äquivalent), d. h. B = P · A · P −1 , C = P̃ · B · P̃ −1 mit P, P̃ ∈ GlR (n) (B = P · A · Q, C = P̃ · B · Q̃ mit P, P̃ ∈ GlR (m), Q, Q̃ ∈ GlR (n)). Dann folgt C = (P̃ · P ) · A · (P −1 · P̃ −1 ) = (P̃ · P ) · A · (P̃ · P )−1 (C = (P̃ · P ) · A · (Q · Q̃)), also sind A, C ähnlich (äquivalent), Satz und Definition 2.37 (Rang einer Matrix). Sei K ein Körper und sei s := min{m, n}. (1) Es gibt genau s+1 paarweise verschiedene Äquivalenzklassen bzgl. ∼ in K m,n . Dies sind die durch Em,n;k für k = 0, 1, . . . , s repräsentierten Klassen. (2) Für jede Matrix A ∈ K m,n gibt es ein eindeutig bestimmtes r ∈ {0, . . . , s} mit A ∼ Em,n;r , d. h. für geeignete P ∈ GlK (M ), Q ∈ GlK (n) gilt P AQ = Em,n;r . Diese Zahl r heißt K-Rang von A oder auch nur Rang von A und wird mit rangK A oder, wenn Verwechslungen ausgeschlossen sind, mit rangA bezeichnet. 2.3. SPEZIELLE MATRIZEN 41 (3) Für Matrizen A, B ∈ K m,n gilt A ∼ B genau dann, wenn rang A = rang B. (4) Für A ∈ K m,n gilt rang A = rang (P · A · Q) für alle P ∈ GlK (m) und alle Q ∈ GlK (n). (5) Für alle A ∈ K m,n gilt rang A = rang AT . (6) Für A ∈ K n,n gilt A ∈ GlK (n) genau dann, wenn rang A = n. Beweis. (1) Nach Folgerung 2.34(1) gibt es für jede Matrix A ∈ K m,n ein r ∈ {0, . . . , s} mit A ∼ Em,n;r . Daher ist nur noch zu zeigen, dass Em,n;k 6∼ Em,n;l für alle k, l ∈ {0, . . . , s} mit k 6= l. Seien k, l ∈ {0, . . . , s} und P ∈ GlK (m), Q ∈ GlK (n), so dass Em,n;l = P · Em,n;k· Q. O. B. d. A. gelte k ≤ l. Sei A := P −1 · Em,n;l . Da A = Em,n;k · Q, B O gilt A = mit B ∈ K k,l und Nullmatrizen jeweils passenden Formats. O O U W Wir schreiben entsprechend P = mit U ∈ K k,k , V ∈ K m−k,k , W ∈ V W0 K k,m−k , W 0 ∈ K m−k,m−k . Weiter sei B = (C D) mit C ∈ K k,k , D ∈ K k,l−k . Dann gilt U ·B O U ·C U ·D O Em,n;l = P · A = = , V ·B O V ·C V ·D O El−k also folgt U · C = Ek , U · D = O, V · C = O und V · D = (V · D 6= O, O wenn k < l). Wegen U · C = Ek gilt auch C · U = Ek nach Folgerung 2.27 und wir erhalten V · D = V · (C · U ) · D = (V · C) · (U · D) = O, also k = l. (2) ist nach (1) klar. (3) Seien A, B ∈ K m,n . Dann gilt A ∼ Em,n;r , B ∼ Em,n,ρ mit r := rang A, ρ := rang B nach (1) und wir erhalten A ∼ B ⇐⇒ Em,n;r ∼ Em,n;ρ ⇐⇒ r = ρ wiederum nach (1). (4) ergibt sich unmittelbar aus (3). (5) Sei r := rang A. Dann gibt es P ∈ GlK (m) und Q ∈ GlK (n) mit P · A · Q = T Em,n;r . Hieraus folgt QT · AT · P T = Em,n;r = En,m;r und wegen QT ∈ GlK (n), P T ∈ GlK (m) (s. Folgerung 2.24(2)) ergibt sich rang AT = r nach (2). (6) Wenn rang A = n, also A ∼ En,n;n = En , so gibt es P, Q ∈ GlK (n) mit A = P · En · Q = P · Q ∈ GlK (n). Wenn umgekehrt A ∈ GlK (n), so folgt P · A · Q = En = En,n;n mit P := A−1 ∈ GlK (n) und Q := En ∈ GlK (n), also rang A = n, 42 KAPITEL 2. MATRIZEN Später (s. Satz 3.44 im Zusammenhang mit Definition 3.38) werden wir eine andere und elegantere Variante zur Rangdefinition kennenlernen. Mit der hier vorgestellte Definition haben wir jedoch eine Möglichkeit an der Hand, den Rang einer Matrix effektiv zu berechnen. Wie wir nämlich jetzt abschließend sehen werden, kann der Rang mit Hilfe des Gaußschen Algorithmus bestimmt werden. Genauer ist der Rang die Zahl r, die vom Algorithmus (u. a.) produziert wird. Damit ist auch Problem (A) in Kapitel 1 positiv gelöst: r hängt nicht ab von der Auswahl der Algorithmusschritte, sondern nur von der vorgelegten Matrix (in diesem Fall der Koeffizientenmatrix des gegebenen linearen Gleichungssystems). Lemma 2.38. Sei A ∈ K m,n , wobei K ein Körper ist. Wenn durch Anwendung des Gaußschen Algorithmus auf A eine Matrix A0 ∈ K m,n entsteht (die dann Trapezgestalt hat), so ist rang A = rang A0 die Anzahl der vom Nulltupel verschiedenen Zeilen von A0 . Beweis. Da A0 = P · A · Q mit geeigneten Matrizen P ∈ GlK (m), Q ∈ GlK (n), gilt rang A = rang A0 nach Satz 2.37(4), so dass wir annehmen können, dass A bereits Trapezgestalt hat. Bezeichnen wir mit aij , i = 1, . . . , m, j = 1, . . . , n, die Einträge von A, so gilt daher aij = 0R für alle i, j ∈ N mit 1 ≤ j ≤ n und min{r, j} < i ≤ m sowie aii 6= 0R für alle i = 1, . . . , r, wenn r die Anzahl der vom Nulltupel verschiedenen Zeilen von A ist. Wenden wir den Gaußschen Algorithmus auf AT an, so kommen hierbei nur Umformungen vom Typ II vor und es entsteht die Martix B := Diagm,n (a11 , . . . , arr )T . Somit gibt es eine Matrix 0 Q0 ∈ GlK (n) mit A · Q Qr = B kund−1wir haben daher rang A = rang B nach Satz 2.37(4). Wenn M := k=1 Mm (akk ) ∈ GlK (m), so gilt M · B = Em,n;r und wir erhalten rangA = rang B = rang M · B = r wiederum nach Satz 2.37(4), B Folgerung 2.39. Sei A wie in Lemma 2.38. Wenn A die Gestalt A = mit O B ∈ K p,n , p ∈ {0, . . . , m}, oder A = (B O) mit B ∈ K m,q , q ∈ {0, . . . , n}, und Nullmatrizen jeweils passenden Formats hat, so gilt rang A = rang B Beweis. Wegen rang A = rang AT (s. Satz 2.37(4)) reicht es, den ersten Fall zu betrachten. Dann ergibt sich die Behauptung aber sofort aus Lemma 2.38, da in dieser Situation bei Anwendung des Gaußschen Algorithmus auf A die letzten m − p Zeilen von A, die alle gleich dem Nulltupel sind, unverändert bleiben, −1 4 2 0 1 und Beispiel 2.40. Man bestimme den Rang r von A := 2 −2 0 −1 −2 −2 −1 berechne P ∈ GlQ (3) und Q ∈ GlQ (4), so dass P · A · Q = E3,4;r . 2.3. SPEZIELLE MATRIZEN 43 −1 4 2 0 Lösung: Der Gaußsche Algorithmus überführt A in A0 := 0 6 4 1. Damit 0 0 0 0 gilt r = 2. Außerdem haben wir 1 0 0 2,1 3,1 2 1 0 · A. A0 = A3,2 3 (1) · A3 (−1) · A3 (2) · A = 1 1 1 1 −4 −2 0 1 2 Sei M := M31 (−1)·M32 ( 61 ) = Diag(−1, 16 , 1). Dann gilt M ·A0 = 0 1 3 6 0 0 0 0 und wir erhalten 1 4 23 − 23 2 1 1,3 2,3 2,4 0 0 1 − 3 − 6 2 1 E3,4;2 = M ·A0 ·A1,2 (4)·A (2)·A (− )·A (− ) = M ·A · . 4 4 4 4 3 6 0 0 1 0 0 0 0 1 Damit folgt 1 1 0 0 0 −1 0 0 0 1 0 0 = E3,4;2 = 2 1 0 · A · 0 3 6 0 1 1 1 0 0 0 0 0 4 23 − 23 1 − 32 − 16 . 0 1 0 0 0 1 44 KAPITEL 2. MATRIZEN Kapitel 3 Vektorräume, Moduln, Ideale Die Untersuchung von Moduln bzw. Vektorräumen und strukturerhaltenden Abbildungen zwischen ihnen (den sogenannten linearen Abbildungen) steht im Mittelpunkt der modernen linearen Algebra. Im weiteren Verlauf werden wir uns diesen Fragen eingehend widmen und vielfältige weitere Anwendungen u. a. in der Geometrie studieren. 3.1 Operationen auf Mengen Definition 3.1. Sei (H; •) eine Halbgruppe und X eine nicht leere Menge. (a) Man sagt, H operiert von links auf X, wenn es eine Abbildung ϕ : H × X → X gibt mit ϕ(g • h, x) = ϕ(g, ϕ(h, x)) für alle g, h ∈ H, x ∈ X. Statt ϕ(h, x) schreibt man meist hx, manchmal auch h(x). Dann lautet obige Bedingung: (g • h)x = g(hx) für alle g, h ∈ H, x ∈ X. Ist (H; •) Monoid mit neutralem Element e, so fordert man zusätzlich ex = x für alle x ∈ X. (b) H operiere von links auf X. Für x ∈ X und H 0 ⊆ H sei H 0 x := {hx | h ∈ H 0 } ⊆ X. H 0 x heißt Bahn oder Orbit von x bezüglich H 0 . Eine Teilmenge Y von X heißt Bahn oder Orbit bezüglich H 0 , wenn Y = H 0 x für ein x ∈ X. 45 46 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (c) H operiere von links auf X. Man sagt, daß H einfach auf X operiert, wenn für alle g, h ∈ H mit g 6= h und alle x ∈ X gilt gx 6= hx. (d) H operiere von links auf X. Man sagt, daß H transitiv auf X operiert, wenn es ein x ∈ X gibt mit Hx = X. Bemerkungen, Beispiele 3.2. 1. Sei (H; •) Halbgruppe und X nicht leere Menge. Dann ist eine Operation von H von rechts auf X definiert als eine Abbildung X × H → X, so daß die entsprechenden Eigenschaften gelten (d. h. x(g • h) = (xg)h für alle g, h ∈ H, x ∈ X und, wenn (H; •) Monoid mit neutralem Element e ist, xe = x für alle x ∈ X). Ist H kommutativ und operiert H von links auf einer Menge X 6= ∅, so ist durch xh := hx für alle h ∈ H, x ∈ X eine Operation von H auf X von rechts erklärt (und umgekehrt), wie man schnell bestätigt, so daß man in diesem Fall nur von einer Operation von H auf X spricht. In diesen Fällen werden wir die Operationen in der Regel als Operationen von links schreiben. 2. Sei G ein Monoid. Die entsprechende zweistellige Operation auf G ist gleichzeitig Links- und Rechts-Operation von G auf sich selbst. 3. Sei G eine Gruppe, die auf einer Menge X 6= ∅ (von links) operiert. Dann bilden die Bahnen bezüglich G eine Partition von X, denn zunächst gilt x ∈ Gx für alle x ∈ X, d. h. die Bahnen sind nicht leer und ihre Vereinigung ist X. Wenn Gx ∩ Gy 6= ∅ für x, y ∈ X, so gibt es g, h ∈ G mit gx = hy. Sei x0 ∈ Gx, sagen wir, x0 = g 0 x mit g 0 ∈ G. Dann gilt x0 = g 0 x = g 0 g −1 gx = g 0 g −1 hy ∈ Gy und wir erhalten Gx ⊆ Gy. Umgekehrt gilt natürlich auch Gy ⊆ Gx, also folgt Gx = Gy. Wenn G transitiv auf X operiert, so gilt damit Gx = X für jedes x ∈ X. 4. Ein Monoid (G; •) operiere von links auf einer Menge X 6= ∅. Für jedes g ∈ G ist durch x 7→ gx für alle x ∈ X eine Abbildung λg : X → X gegeben. Man nennt sie Linkstranslation mit g. Für alle g, h ∈ G und alle x ∈ X gilt λg•h (x) = (g • h)x = g(hx) = λg (λh (x)) = (λg ◦ λh )(x) sowie λe (x) = ex = x , wenn e das neutrale Element von (G; •) ist, d. h. wir haben λg•h = λg ◦ λh und λe = idX . 3.2. MODULN 3.2 47 Moduln Definition 3.3 (Moduln, Vektorräume). (a) Sei R ein Ring. Ein Links-R-Modul ist eine abelsche Gruppe (M ; +M ), auf der die multiplikative Halbgruppe (R; ·) von R von links operiert, so daß zusätzlich folgendes gilt: • r(u +M v) = ru +M rv für alle r ∈ R, u, v ∈ M und • (r +R s)u = ru +M su für alle r, s ∈ R, u ∈ M . (b) Entsprechend sind Rechts-R-Moduln erklärt. (c) Ist R kommutativ, so spricht man lediglich von R-Moduln, siehe Bemerkung 3.2.1. (d) Sei K ein Körper. K-Moduln werden als K-Vektorräume bezeichnet. Bemerkungen 3.4. Mit den Bezeichnungen von Definition 3.3 haben wir: 1. Besitzt R ein Einselement und ist M ein Links-R-Modul, so gilt definitionsgemäß 1R m = m für alle m ∈ M . 2. Die unterschiedliche Bezeichnug der Operationszeichen (+R , +M ) unterbleibt in Zukunft, da Verwechslungen i. a. ausgeschlossen sind. 3. Sei R ein Ring (ein Körper). Ein Links-R-Modul (bzw. ein R-Vektorraum) ist laut Definition eine abelsche Gruppe (M ; +) zusammen mit einer Abbildung R × M → M , wobei man das Bild von (r, u) ∈ R × M in M mit ru bezeichnet, so daß gilt: • r(u + v) = ru + rv für alle r ∈ R, u, v ∈ M • (r + s)u = ru + su für alle r, s ∈ R, u ∈ M • (r · s)u = r(su) für alle r, s ∈ R, u ∈ M • 1R u = u für alle u ∈ M , falls R ein Einselement besitzt. Lemma 3.5 (Rechenregeln für Moduln). Sei R ein Ring und M ein Links-RModul. Dann gilt: (1) 0R u = 0M für alle u ∈ M (2) r0M = 0M für alle r ∈ R (3) (−r)u = −(ru) = r(−u) für alle r ∈ R, u ∈ M (4) r(u − v) = ru − rv für alle r ∈ R, u, v ∈ M (5) (r − s)u = ru − su für alle r, s ∈ R, u ∈ M (6) Ist R Schiefkörper und gilt ru = 0M für r ∈ R, u ∈ M , so folgt r = 0R oder u = 0M . 48 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) 0M = 0R u − 0R u = (0R + 0R )u − 0R u = 0R u + 0R u − 0R u = 0R u (2) 0M = r0M − r0M = r(0M + 0M ) − r0M = r0M + r0M − r0M = r0M (3) ru+(−r)u = (r+(−r))u = 0R u = 0M , ru+r(−u) = r(u+(−u)) = r0M = 0M , also folgt (−r)u = −(ru) = r(−u) (4) r(u − v) = r(u + (−v)) = ru + r(−v) = ru + (−rv) = ru − rv (5) (r − s)u = (r + (−s))u = ru + (−s)u = ru + (−su) = ru − su (6) Wenn r 6= 0R , so folgt u = 1R u = r−1 ru = r−1 0M = 0M , Bemerkungen, Beispiele 3.6. 1. Sei M eine abelsche Gruppe. Es kann vorkommen, daß M Links-R-Modul und Rechts-S-Modul für Ringe R, S ist. Man sagt dann, M sei ein (R, S)-Bimodul. 2. Sei R ein Ring. Die Multiplikation in R definiert, wie man sofort sieht, eine Operation von R von links und von rechts auf sich selbst (s. Bemerkung 3.2.5). Damit ist R ein Links-R- und ein Rechts-R-Modul, also ein (R, R)Bimodul. Insbesondere ist jeder Körper K damit ein K-Vektorraum. 3. Sei R ein Ring und {0} die triviale Gruppe (mit neutralem Element 0 als einzigem Element). Sie ist abelsch und wird meist einfach mit 0 bezeichnet. Durch r0 := 0 bzw. 0r := 0 für alle r ∈ R ist eine Operation von R auf 0 von links und von rechts erklärt, bezüglich derer 0 sowohl ein Links- also auch ein Rechts-R-Modul ist. Er heißt Nullmodul. 4. Sei (M ; +) eine abelsche Gruppe. Für n ∈ Z und u ∈ M setzen wir (s. Übungsaufgabe 31) u + . . . + u falls n > 0 | {z } n−mal nu := ∈ M. 0M falls n = 0 −((−n)u) falls n < 0 Nach der Bemnerkung zu Übungsaufgabe 31 ist M damit ein Z-Modul. Folglich ist jede abelsche Gruppe ein Z-Modul, d. h. ”Z-Modul” und ”abelsche Gruppe” sind Synonyma. 5. Sei R ein Ring und seien m, n ∈ N+ . Die Regeln für das Rechnen mit Matrizen liefern, daß die Menge Rm,n der (m, n)-Matrizen mit Eintragungen aus R mit der Matrizenaddition als Operation nicht nur eine abelsche Gruppe bilden (s. Lemma 2.22(1)), sondern auch • einen Links-R-Modul (s. Lemma 2.22(2)). Die entsprechend formulierten Regeln liefern natürlich auch, daß Rm,n ein Rechts-R-Modul ist. 3.2. MODULN 49 • einen Links-Rm,m -Modul (s. Lemma 2.23) und entsprechend einen Rechts-Rn,n -Modul. Damit ist Rm,n ein (Rm,m , Rn,n )-Bimodul. Ist K ein Körper, so bildet K m,n einen K-Vektorraum. Insbesondere ist damit K n ein K-Vektorraum. 6. Für n ∈ N ∪ {∞} sei CnR (I) die Menge der auf einem Intervall I ⊆ R definierten n-mal stetig differenzierbaren Funktionen. Mit der üblichen (punktweisen) Addition von Funktionen und der Multiplikation von Funktionen mit Skalaren ist CnR (I) ein R-Vektorraum. Mit der (punktweisen) Addition von Funktionen und der (punktweisen) Multipliktion von Funktionen ist CnR (I) überdies ein kommutativer Ring mit Einselement. Identifiziert man die reellen Zahlen mit den entsprechenden konstanten Funktionen, so ist R Unterring von CnR (I). Mehr noch, wir haben eine Kette von Ringen (m ∈ N beliebig) m 0 R ⊂ C∞ R (I) ⊂ CR (I) ⊂ . . . ⊂ CR (I). Hier heißt ⊂, daß nicht nur eine (echte) Teilmenge, sondern sogar eine (echte) Unterstruktur vorliegt. 7. Viel allgemeiner als soeben dargestellt gilt: Sei R ein Ring und I eine Menge. Auf der Menge RI := Abb (I, R) definieren wir für f, g ∈ RI Abbildungen f + g, f · g : I → R durch (f + g)(x) := f (x) + g(x) für alle x ∈ I (f · g)(x) := f (x) · g(x) für alle x ∈ I Man bestätigt sofort, daß RI damit ein Ring ist. Er ist kommutativ, wenn R es ist, und besitzt ein Einselement, wenn R ein solches besitzt. Diese zweistelligen Operationen + und · auf RI werden punktweise Addition bzw. Multiplikation genannt. Definiert man für f ∈ RI und r ∈ R Abbildungen rf, f r : I → R durch (rf )(x) := r(f (x)) bzw. (f r)(x) := (f (x))r für alle x ∈ I , so wird RI damit zu einem Links-R-Modul bzw. zu einem Rechts-R-Modul, also zu einem (R, R)-Bimodul. Ist K ein Körper, so ist K I damit einerseits ein kommutativer Ring mit Einselement und gleichzeitig ein K-Vektorraum. Außerdem gilt für f, g ∈ K I und α ∈ K: α(f · g) = (αf ) · g = f · (αg). 50 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE 8. Sei A ein kommutativer und R ein beliebiger Ring, der - als abelsche Gruppe (R; +) - gleichzeitig A-Modul ist. Wenn a(s · t) = (as) · t = s · (at) für alle a ∈ A, s, t ∈ R, so nennt man R eine A-Algebra. Z. B. ist K I eine K-Algebra, wenn K ein Körper und I eine Menge ist, und nach 4. ist jeder Ring eine Z-Algebra, wie man sofort bestätigt. Definition 3.7 (Untermoduln). Sei R ein Ring und M ein Links-R-Modul. (a) Ein Links-R-Untermodul von M ist eine Untergruppe (N ; +) von (M ; +), die mit der vorliegenden Operation von R auf M ebenfalls ein Links-R-Modul ist. (b) Entsprechend sind Rechts-R-Untermoduln von M und (R, S)-Biuntermoduln von M erklärt, wenn M ein Rechts-R-Modul bzw. ein (R, S)-Bimodul ist, S weiterer Ring. (c) Ist R kommutativ, so spricht man von R-Untermoduln von M . Ist K Körper, so nennt man K-Untermoduln von K-Vektorräumen entsprechend KUntervektorräume. (d) Links-(Rechts-)R-Untermoduln von R heißen Linksideale (Rechtsideale) von R, (R, R)-Biuntermoduln von R heißen zweiseitige Ideale von R. Ist R kommutativ, so spricht man lediglich von Idealen von R. Lemma 3.8 (Untermodulkriterium). Sei R ein Ring und M ein Links-R-Modul. Für eine Teilmenge U von M sind die folgenden Bedingungen äquivalent: (i) U ist Links-R-Untermodul von M (ii) U 6= ∅ und für alle r ∈ R und alle u, v ∈ U gilt u − v, ru ∈ U . Besitzt R ein Einselement, so sind (i) und (ii) zusätzlich äquivalent zu (iii) U 6= ∅ und für alle r, s ∈ R und alle u, v ∈ U gilt ru + sv ∈ U (iv) U 6= ∅ und für alle n ∈ N, alle r1 , . . . , rn ∈ R und alle u1 , . . . , un ∈ U gilt r1 u1 + . . . + rn un ∈ U . Beweis. Die Implikation (i) =⇒ (ii) ergibt sich sofort aus dem Untergruppenkriterium (Lemma 2.15) und der Definition, denn aus dem Untergruppenkriterium folgt U 6= ∅ und u − v ∈ U für alle u, v ∈ U . Aus r ∈ R und u ∈ U ergibt sich schließlich ru ∈ U . (ii) =⇒ (i): Aus dem Untergruppenkriterium folgt zunächst, daß (U ; +) Untergruppe von (M ; +) ist. Wegen ru ∈ U für alle r ∈ R, u ∈ U , operiert R von links auf U und diese Operation ist (trivialerweise) gegeben durch Einschränkung der Operation von R auf M . Da die entsprechenden Beziehungen (s. Definition 3.3(a)) 3.2. MODULN 51 in M gelten, gelten sie erst recht in U und damit ist U Links-R-Untermodul von M. Nehmen wir nun an, daß R ein Einselement 1R besitzt. (i) =⇒ (vi): Aus r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U folgt r1 u1 , . . . , rn un ∈ U und somit r1 u1 + . . . + rn un ∈ U . Die Implikation (iv) ⇒ (iii) ist trivial (setze n = 2) und die Implikation (iii) =⇒ (ii) ist unter Beachtung der Rechenregeln 1 und 3 für Moduln klar (s. Lemma 3.5, setze zunächst r = 1R , s = −1R und dann s = 0R ), Bemerkungen, Beispiele 3.9. 1. Der Nullmodul (s. Bemerkung 3.6.3) ist Untermodul jedes Links-, Rechts- bzw. Bimoduls. Der Nulluntermodul eines Ringes R wird auch als Nullideal von R bezeichnet. 2. Jeder Links-R-Modul M besitzt die trivialen Links-Untermoduln 0 und M . 3. Sei R ein Ring und I eine Menge. Für f ∈ RI sei suppf := {x | x ∈ I, f (x) 6= 0R } ⊆ I (Träger oder Support von f ). Wir setzen R(I) := {f | f ∈ RI , suppf endlich}. R(I) ist sowohl Links- als auch Rechts-R-Untermodul von RI und für endliches I gilt R[I) = RI . 4. Sei m ∈ Z. Die Menge Zm := {nm | n ∈ Z} ⊆ Z ist Ideal von Z. Offenbar gilt Zm = Z(−m), Z0 = 0 (Nullideal) und Z1 = Z. Nach Übungsaufgabe 22 hat jedes Ideal von Z die Gestalt Zm für ein eindeutig bestimmtes m ∈ N. 5. Unter Verwendung der Bezeichnungen von Lemma 3.8 nennt man einen Ausdruck der Form r1 u1 + . . . + rn un mit r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U eine Links-Linearkombination der u1 , . . . , un (mit Koeffizienten aus R). Für eine Teilmenge X von M sei RX die Menge aller Links-Linearkombinationen jeweils endlich vieler Elemente aus X, d. h. RX := {r1 x1 + . . . + rn xn | n ∈ N, x1 , . . . , xn ∈ X, r1 , . . . , rn ∈ R}. Damit besagt Lemma 3.8 zum einen, daß ein Links-R-Untermodul U von M mit jeder Teilmenge X auch alle Links-Linearkombinationen jeweils endlich vieler Elemente von X enthält, d. h. RX ⊆ U . Da U natürlich auch abelsche 52 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Untergruppe von M und somit Z-Untermodul des Z-Moduls M ist, gilt auch X ⊆ ZX ⊆ U für jede Teilmenge X von U , d. h. wir haben X ⊆ RX + ZX ⊆ U . Aus Lemma 3.8 folgt weiter, daß RX + ZX für jede Teilmenge X von M bereits ein Links-R-Untermodul von M ist. Damit ist RX + ZX der bzgl. ⊆ kleinste Links-R-Untermodul von M , der X enthält. Besitzt R ein Einselement, so gilt natürlich ZX ⊆ RX, so daß RX für jede Teilmenge X von M ein Links-R-Untermodul von M ist. Er ist dann der bzgl. ⊆ kleinste Links-R-Untermodul von M , der X enthält. Entsprechendes gilt für Rechts-R-Moduln bzw. (R, S)-Bimoduln, S weiterer Ring. 6. Sind U, V Links-R-Untermoduln eines Links-R-Moduls M , so ist U ∪ V genau dann Links-R-Untermodul von M , wenn U ⊆ V oder V ⊆ U , d. h. Vereinigungen von Untermoduln sind i. a. keine Untermoduln (im Unterschied zu Durchschnitten und Summen, s. Folgerung 3.10). In Verallgemeinerung S hiervon gilt: Ist K eine Kette von Links-R-Untermoduln von M , so ist U ∈K U ebenfalls Links-R-Untermodul von M . (Kette heißt ”bzgl. ⊆ vollständig geordnete Teilmenge”, d. h. für alle U, V ∈ K gilt entweder U ⊆ V oder V ⊆ U , s. Definition A.13(b).) Seien U1 , U2 Links-R-Untermoduln eines Links-R-Moduls M . Wir setzen U1 + U2 := {u1 + u2 | u1 ∈ U, u2 ∈ U2 }. Dies läßt sich leicht verallgemeinern: Sei I eine Menge und Uι , ι ∈ I, eine Familie von Links-R-Untermoduln von M . Dann setzen wir ( ) X X Uι := uι | uι ∈ Uι für alle ι ∈ I und uι = 0 für fast alle ι ∈ I . ι∈I ι∈I Folgerung 3.10 (aus Lemma 3.8). Sei M ein Links-R-Modul, I eine Menge und Uι , ι ∈ I, eine Familie von Links-R-Untermoduln von M . Dann sind \ X Uι und Uι ι∈I ι∈I T S P Linksuntermoduln von M mit ι∈I Uι ⊆ Uλ ⊆ ι∈I Uι ⊆ ι∈I Uι für alle λ ∈ I. P S Dabei ist ι∈I Uι der bzgl. ⊆ kleinste Links-R-Untermodul von M , der ι∈I Uι enthält. 3.2. MODULN 53 Definition 3.11. Seien R ein Ring, M ein Links-R-Modul und X Teilmenge von M . Ein Links-R-Untermodul U von M heißt maximal (in Bezug auf X), wenn (U ∩ X = ∅), U 6= M und für alle Links-R-Untermoduln V von M mit (V ∩ X = ∅,) U ⊆ V und V 6= M gilt V = U . Entsprechend sind maximale Rechts- bzw. Bimoduln (in Bezug auf eine Teilmenge X) eines gegebenen Rechts- bzw. Bimoduls sowie maximale Links-, Rechts- bzw. zweiseitige Ideale von R (in Bezug auf eine Teilmenge X von R) definiert. Lemma 3.12. Sei R ein Ring und M ein Links-R-Modul (Rechts-R-Modul, (R, S)-Bimodul mit einem weiteren Ring S). (1) Für jede Teilmenge X von M mit X 6= ∅ und 0M 6∈ X besitzt M einen in Bezug auf X maximalen Links-R-Untermodul (Rechts-R-Untermodul, (R, S)Biuntermodul). (2) Hat R ein Einselement 1R 6= 0R , so besitzt R maximale Linksideale (Rechtsideale, zweiseitige Ideale). Beweis. (1) Sei U die Menge aller Links-R-Untermoduln U von M mit U ∩X = ∅. Wegen 0M 6∈ X gilt 0 ∈ U, d.Sh. U = 6 ∅. Sei K ⊆ U Kette (bzgl. ”⊆”). Da U ∩ X = ∅ für alle U ∈ K, gilt U ∈K U ∈ U und nach dem Zornschen Lemma (s. Bemerkung A.16.2) besitzt U maximale Elemente. Sei U0 ein solches. Wegen X 6= ∅ und U0 ∩ X = ∅ gilt U0 6= M . Entsprechend verfährt man für Rechts- bzw. Bimoduln, so daß (1) gezeigt ist. (2) folgt aus (1), da ein Linksideal (Rechtsideal, zweiseitiges Ideal) von R genau dann maximal ist, wenn es maximal in Bezug auf {1R } ist, Wir kommen nun zu einem wichtigen Konstruktionsprinzip für Moduln, den sogenannten Restklassenmoduln. Dazu greifen wir wesentlich auf die Ausführungen in Anhang A, Abschnitt A.4.3 zurück. Definition 3.13. Sei (M ; +) eine abelsche Gruppe und (U ; +) Untergruppe von M . Wir definieren eine Relation ≡U auf M , indem wir für alle m, m0 ∈ M setzen : m ≡U m0 ⇐⇒ m − m0 ∈ U. ≡U heißt Kongruenz modulo (oder auch bzgl.) U auf M . Hierfür gilt nun: Lemma 3.14. Sei R ein Ring und U Links-R-Untermodul eines Links-R-Moduls M. (1) ≡U ist Äquivalenzrelation auf M . 54 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (2) Für alle m, m0 , n, n0 ∈ M und alle r ∈ R gilt: Wenn m ≡U m0 und n ≡U n0 , so folgt m + n ≡U m0 + n0 und rm ≡U rm0 . (3) Ist I zweiseitiges Ideal von R und gilt r ≡I r0 und s ≡I s0 für r, r0 , s, s0 ∈ R, so folgt rs ≡I r0 s0 . (4) Sei K Äquivalenzklasse von M bzgl. ≡U . Dann gilt für alle m ∈ K K = m + U := {m + u | u ∈ U } . Beweis. (1) Seien m, m0 , n, n0 , p ∈ M und r ∈ R. Dann gilt: • m ≡U m, da m − m = 0M ∈ U . • Aus m ≡U n, d. h. m − n ∈ U , folgt n − m = −(m − n) ∈ U , also n ≡U m. • Aus m ≡U n und n ≡U p, d. h. m − n, n − p ∈ U , folgt m − p = m − n + n − p ∈ U , also m ≡U p. Damit ist ≡U Äquivalenzrelation. (2) Wenn für m, m0 , n, n0 ∈ M gilt m ≡U m0 und n ≡U n0 , d. h. m−m0 , n−n0 ∈ U , so folgt m+n−(m0 +n0 ) = m−m0 +n−n0 ∈ U und rm−rm0 = r(m−m0 ) ∈ U , also m + n ≡U m0 + n0 und rm ≡U rm0 . (3) Aus r ≡I r0 und s ≡I s0 , d. h. r − r0 , s − s0 ∈ I, folgt rs − r0 s0 = r(s − s0 ) + (r − r0 )s0 ∈ I, also rs ≡I r0 s0 . (4) Sei K ∈ M/U und sei m ∈ K. Da für alle m0 ∈ K gilt m0 − m ∈ U , folgt m0 ∈ {m + u | u ∈ U } = m + U , d. h. wir haben K ⊆ m + U . Ist umgekehrt m0 ∈ m + U , sagen wir, m0 = m + u mit u ∈ U , so folgt m0 − m = u ∈ U , d. h. m0 ≡U m. Somit gilt aber m0 ∈ K und wir haben daher m + U ⊆ K, zusammengenommen also K = m + U , Definition 3.15. Sei R ein Ring und U Links-R-Untermodul eines Links-RModuls M . Die Menge der Äquivalenzklassen bezüglich ≡U bezeichnen wir mit M/U (sprich: M modulo (oder nach) U ), d. h. M/U = {m + U | m ∈ M }. Die Elemente von M/U heißen Restklassen von M modulo (oder nach) U . Ein Element einer solchen Klasse wird Repräsentant dieser Klasse genannt. (Ist m ein Repräsentant einer Restklasse K von M modulo U , so gilt K = m + U , s. Lemma 3.14(4).) Damit haben wir: 3.2. MODULN 55 Lemma 3.16. Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M und I zweiseitiges Ideal von R. (1) Sind m, m0 , n, n0 ∈ M mit m + U = m0 + U , n + U = n0 + U und ist r ∈ R, so folgt m + n + U = m0 + n0 + U und rm + U = rm0 + U . (2) Sind r, r0 , s, s0 ∈ R mit r + I = r0 + I, s + I = s0 + I, so folgt rs + I = r0 s0 + I. (3) Durch (m + U ) + (n + U ) := (m + n) + U (m, n ∈ M ) und r(m + U ) := (rm) + U (m ∈ M, r ∈ R) sind eine zweistellige Operation auf M/U und eine Operation von R auf M/U erklärt, bezüglich derer M/U ein Links-R-Modul ist. Sein Nullelement ist 0M + U = U (d. h. 0M/U = U ) und es gilt −(m + U ) = −m + U für alle m ∈ M. (4) Durch (r + I) · (s + I) := rs + I (r, s ∈ R) ist eine zweistellige Operation auf R/I definiert. Damit ist (R/I; +, ·) ein Ring. Er ist kommutativ, wenn R kommutativ ist und besitzt ein Einselement, wenn R eines besitzt (nämlich 1R/I = 1R + I). Bemerkung 3.17. Man sagt, die in Lemma 3.16(3),(4) eingeführten Operationen auf M/U , von R auf M/U bzw. auf R/I seien repräsentantenweise definiert. Hieraus ergibt sich sofort, daß Assioziatvität, Distributivität (einschließlich der entsprechenden Eigenschaften für Moduln) und ggf. Kommutativität gelten. Beweis. (1) ergibt sich sofort aus Lemma 3.14(1),(2) und (4), da demnach m + U = m0 + U , n + U = n0 + U genau dann gilt, wenn m ≡U m0 , n ≡U n0 . (2) ergibt sich entsprechend aus Lemma 3.14(3). (3) Seien K, L ∈ M/U . Wir wählen m ∈ K, n ∈ L mit K = m+U , L = n+U . Da dann m+n+U, rm+U ∈ M/U nach (1) unabhängig von der Wahl von m ∈ K und n ∈ L sind, sind K + L := m + n + U sowie rK := rm + U eindeutig durch K und L sowie K und r festgelegt (repräsentantenunabhängig oder wohldefiniert, wie man sagt). Nach obiger Bemerkung 3.17 ist ”+” damit assoziative und kommutative Operation auf M/U und R operiert von links auf M/U . Da für alle m ∈ M gilt (m + U ) + U = (m + U ) + (0M + U ) = m + U und (m + U ) + (−m + U ) = m − m + U = U , ist U neutrales Element von (M/U ; +) und für alle m ∈ M ist m + U invertierbar in (M/U ; +) mit −(m + U ) = −m + U , so daß (M/U ; +) eine 56 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE abelsche Gruppe ist. Damit ist M/U aber auch bereits ein Links-R-Modul, denn besitzt R ein Einselement, so gilt 1R (m + U ) = 1R m + U = m + U . (4) Nach (2) ist ”·” wohldefiniert und damit bildet (R/I; +, ·) nach Bemerkung 3.17 einen Ring, welcher kommutativ ist, wenn R es ist. Besitzt R ein Einselement, so ist 1R + I Einselement von R/I, Beispiel 3.18. Sei R = M = Z. Die Untermoduln von Z sind die Ideale von Z und jedes Ideal I von Z hat nach Übungsaufgabe 22 die Gestalt Zm für ein eindeutig bestimmtes m ∈ N. Für a, b ∈ Z gilt offensichtlich a ≡I b ⇐⇒ a − b ∈ I ⇐⇒ m | a − b ⇐⇒ a ≡ b mod m. Die Restklassen modulo I sind dann die Mengen a + I = {a + nm | n ∈ Z} ⊆ Z, mit a ∈ Z. Für m = 0, also I = 0 (Nullidelal), erhalten wir daher als Restklassen die Mengen {a}, a ∈ Z, also die einelementigen Teilmengen von Z. Sei m ≥ 1 und sei a ∈ Z. Wir dividieren a mit Rest durch Z (s. Übungsaufgabe 3), d. h. wir bestimmen q, r ∈ Z mit 0 ≤ r < m und a = qm + r. Da somit a − r = qm ∈ I, gilt a ≡I r und somit a + I = r + I, d. h. die Restklassen modulo I sind die Mengem I, 1 + I, . . . , m − 1 + I. Identifizieren wir im Fall m = 0 die einelementige Menge {a} ⊂ Z mit a ∈ Z und im Fall m ≥ 1 für r = 0, . . . , m − 1 die Restklasse r + I ⊆ Z mit r ∈ Z, so gilt mit den Bezeichnungen von Übungsaufgabe W6 Z/Zm = Lm . Man bestätigt sofort, daß damit die Ringstruktur von Lm (s. Übungsaufgabe W6) mit der in Lemma 3.16(4) gegebenen Ringstruktur von Z/Zm übereinstimmt. Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M und I zweiseitiges Ideal von R. Wir wollen nun abschließend die Links-R-Untermoduln von M/U bzw. die Ideale von R/I bestimmen. Sei hierzu V ein Links-R-Untermoduln von M mit U ⊆ V . Dann haben wir V /U = {v + U | v ∈ V } ⊆ {m + U | m ∈ M } = M/U und nach dem Untermodulkriterium (s. Lemma 3.8) ist klar, daß V /U Links-R-Untermodul von M/U ist. Mit diesen Bezeichnungen haben wir sogar: Satz 3.19. (1) Durch V 7→ V /U , V Links-R-Untermodul von M mit U ⊆ V , ist eine inklusionserhaltende bijektive Abbildung Φ : {V | V Links-R-Untermodul von M mit U ⊆ V } → → {V | V Links-R-Untermodul von M/U } 3.2. MODULN 57 gegeben. (2) Durch J 7→ J/I, J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J, ist eine inklusionserhaltende bijektive Abbildung Ψ : {J | J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J} → → {J | J Links- (Rechts-, zweiseitiges) Ideal von R/I} gegeben. Beweis. (1) Wie wir oben bereits gesehen haben, ist V /U = Φ(V ) Links-RUntermodul von M/U für jeden Links-R-Untermodul V von M mit U ⊆ V . Wir zeigen zunächst: Seien V, W Links-R-Untermoduln von M mit U ⊆ V, W . Dann gilt V /U ⊆ W/U genau dann, wenn V ⊆ W . Begründung. Wenn V ⊆ W , so folgt mit dem oben Gezeigten, daß V /U ⊆ W/U . Gelte nun umgekehrt V /U ⊆ W/U . Dann gibt es für jedes v ∈ V ein w ∈ W mit v + U = w + U . Da v = v + 0M ∈ v + U = w + U , gibt es somit für jedes v ∈ V ein w ∈ W und ein u ∈ U mit v = w + u, d. h. es gilt v = u + w ∈ U + W = W und damit folgt V ⊆ W wie behauptet. Hieraus folgt zum einen, daß Φ inklusionserhaltend ist. Zum anderen ergibt sich die Injektivität von Φ: Wenn für Links-R-Untermoduln V, W von M mit U ⊆ V, W gilt Φ(V ) = Φ(W ), also V /U = W/U , so folgt V = W . Damit ist nur noch die Surjektivität von Φ zu zeigen. Sei hierzu V ein LinksR-Untermodul von M/U . Wir setzen V := {m ∈ M | m + U ∈ V}. Dann gilt zunächst definitionsgemäß {v + U | v ∈ V } = V. Wegen U = 0M/U ∈ V folgt u + U = U ∈ V für alle u ∈ U , also U ⊆ V und insbesondere V 6= ∅. Seien nun v, v 0 ∈ V und sei r ∈ R. Da somit v + U, v 0 + U ∈ V, gilt v − v 0 + U = (v + U ) − (v 0 + U ) ∈ V und rv + U = r(v + U ) ∈ V, also v − v 0 , rv ∈ V . Nach dem Untermodulkriterium (s. Lemma 3.8) ist V damit ein Links-R-Untermodul von M und es gilt V = V /U = Φ(V ), d. h. Φ ist surjektiv. (2) folgt unmittelbar aus (1), da die Links- (Rechts-, zweiseitigen) Ideale von R genau die Links-R-Untermoduln (Rechts-R-Untermoduln, (R, R)-Biuntermoduln) von R sind, Als wichtige Anwendung geben wir das folgende Resultat: Lemma 3.20. Sei R ein kommutativer Ring mit Einselement 1R 6= 0R . (1) R ist Körper genau dann, wenn 0 und R die einzigen Ideale von R sind. (2) Ein Ideal I von R ist maximal genau dann, wenn R/I ein Körper ist. 58 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) Sei R ein Körper und sei J Ideal von R. Wenn J 6= 0, so wähle x ∈ J \ {0R }. Da 1R = x−1 x ∈ J, gilt J = R. Seien umgekehrt 0 und R die einzigen Ideale von R und sei x ∈ R, x 6= 0R . Da Rx 6= 0, gilt Rx = R und folglich gibt es ein y ∈ R mit xy = yx = 1R . Somit gilt x ∈ R∗ , d. h. R ist ein Körper. (2) Nach Lemma 3.19(2) ist I maximal genau dann, wenn I/I = 0 und R/I die einzigen Ideale von R/I sind. Die Behauptung folgt damit aus (1), 3.3 Erzeugendensysteme und Basen Mit Bemerkung 3.9.5 können wir definieren Definition 3.21. Sei R ein Ring und M ein Links-R-Modul. (a) Sei X ⊆ M . Der Durchschnitt U (X) aller Links-R-Untermoduln V von M mit X ⊆ V ist ein Links-R-Untermodul von M . U (X) ist der bezüglich ⊆ kleinste Links-R-Untermodul von M , der X enthält und heißt von X erzeugter Links-R-Untermodul von M . Es gilt U (X) = RX + ZX. Ist R Ring mit Einselement, so haben wir sogar U (X) = RX. (b) Eine Teilmenge X von M heißt Erzeugendensystem von M , wenn M = U (X). (c) M heißt endlich erzeugt, wenn M = U (X) für eine endliche Teilmenge X ⊆ M. (d) Ist M endlich erzeugt, so heißt die Zahl µR (M ) := min{n | n ∈ N, n = ]X, M = U (X)} minimale Erzeugendenzahl von M . (e) M heißt zyklisch, wenn M = U (x) für ein x ∈ M (statt U ({x}) schreiben wir kurz U (x)), d. h. wenn µR (M ) ≤ 1. Bemerkungen 3.22. Sei R ein Ring, M ein Links-R-Modul und X, Y ⊆ M . 1. Es gilt U (X∪Y ) = U (X)+U (Y ), denn wegen U (X), U (Y ) ⊆ U (X∪Y ) folgt U (X) + U (Y ) ⊆ U (X ∪ Y ) und X ∪ Y ⊆ U (X) + U (Y ) liefert U (X ∪ Y ) ⊆ U (X) + U (Y ). 3.3. ERZEUGENDENSYSTEME UND BASEN 59 2. Ist E Erzeugendensystem von M und gilt E = X ∪ Y , so ist Ȳ := {y + U (X) | y ∈ Y } ⊆ M/U (X) Erzeugendensystem von M/U (X), wenn U (X) wieder den von X erzeugten Links-R-Untermodul von M bezeichnet. Für jedes m ∈ M gibt es nämlich x1 , . . . , xn ∈ X, y1 , . . . , ym ∈ Y , r1 , . . . , rn , s1 , . . . , sm ∈ R ∪ Z mit m = r1 x1 + . . . + rn xn + s1 y1 + . . . + sm ym . Dann folgt aber wegen x1 , . . . , xn ∈ X ⊆ U , also x̄1 , . . . , x̄n = 0M/U : m̄ = r1 x̄1 + . . . + rn x̄n + s1 ȳ1 + . . . + sm ȳm = s1 ȳ1 + . . . + sm ȳm ∈ RȲ + ZȲ , wenn wir für m ∈ M setzen m̄ := m + U (X). Somit gilt M/U (X) ⊆ RȲ + ZȲ und damit natürlich M/U (X) = RȲ + ZȲ , d. h. Ȳ ist in der Tat Erzeugendensystem von M/U (X). Wir kommen nun zu einem zentralen Begriff der Mathematik, der linearen Abhängigkeit bzw. linearen Unabhängigkeit. Zur Erläuterung betrachten wir die folgende Situation. Seien a, b1 , b2 ∈ R2 gegeben durch a = (1, 2), b1 = (2, 4) und b2 = (3, −1). Zwischen den Vektorpaaren a, b1 und a, b2 besteht ein wesentlicher Unterschied: Im Gegensatz zu b2 ist b1 ist Vielfaches von a. Genauer gesagt gilt b1 = 2a oder, anders geschrieben (−2)a + b1 = 0 (= (0, 0)). Zwischen a und b2 besteht jedoch keine derartige Beziehung, wie man sofort nachrechnet. Das hat weitreichende Konsequenzen: Während man jedes Element (x, y) ∈ R2 als Linearkombination von a und b2 darstellen kann, ist das bei Verwendung von a und b1 nicht möglich. Wir sagen, a, b1 sind linear abhängig, während a, b2 linear unabhängig genannt werden. Dies wollen wir nun verallgemeinern. Hierzu werden wir generell folgendes voraussetzen: Alle nun betrachteten Ringe besitzen ein vom Nullelement verschiedenes Einselement. Definition 3.23. Sei R ein Ring und M ein Links-R-Modul. (a) m1 , . . . , mp ∈ M heißen linear abhängig über R, wenn es r1 , . . . , rp ∈ R gibt, die nicht alle gleich 0R sind, so daß r1 m1 + . . . + rp mp = 0M . Ist das nicht der Fall, d. h. folgt aus r1 m1 +. . .+rp mp = 0M mit r1 , . . . , rp ∈ R stets r1 = . . . = rp = 0R , so heißen m1 , . . . , mp linear unabhängig über R. (b) Eine Teilmenge X von M heißt linear abhängig über R, wenn es paarweise verschiedene x1 , . . . , xp ∈ X gibt, die linear abhängig über R sind. 60 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Ansonsten, d. h. wenn je endlich viele paarweise verschiedene Elemente von X linear unabhängig über R sind, heißt X linear unabhängig über R. (c) M heißt frei über R oder freier R-Modul, wenn M ein über R linear unabhängiges Erzeugendensystem besitzt. (d) Ist M frei über R, so heißt ein über R linear unabhängiges Erzeugendensystem von M R-Basis (manchmal auch freie R-Basis) von M . Der Zusatz ”über R” oder ”R-” wird weggelassen, wenn sich aus dem Kontext ergibt, welcher Ring zugrunde liegt. Bemerkungen, Beispiele 3.24. Sei R ein Ring und M ein Links-R-Modul. 1. Sei X Teilmenge von M . Ist X linear unabhängig, so ist auch jede Teilmenge von X linear unabhängig. Enthält X eine linear abhängige Teilmenge, so ist auch X linear abhängig. Die leere Menge ist stets linear unabhängig. Damit ist der Nullmodul frei, denn er wird von der leeren Menge erzeugt. 2. Wenn • für m1 , . . . , mp ∈ M gilt mi = mj für 1 ≤ i < j ≤ p, so sind m1 , . . . , mp linear abhängig, da dann r1 m1 + . . . + rp mp = 0M mit falls l=i 1R −1R falls l=j , l = 1, . . . , p rl := 0R sonst d. h. 1R mi + (−1R ) mj = 0M und 1R 6= 0R . • 0M ∈ X für X ⊆ M , so ist X linear abhängig, denn 1R 0M = 0M und 1R 6= 0R . Sind also m1 , . . . , mp ∈ M linear unabhängig, so sind sie paarweise verschieden und von 0M verschieden. 3. Ob m1 , . . . , mp ∈ M linear abhängig oder linear unabhägig sind, hängt nicht ab von der Reihenfolge der m1 , . . . , mp . 4. Sei R = K ein Körper und M = K m mit m ∈ N+ . Weiter seien a1 , . . . , an ∈ K m mit n ∈ N+ gegeben. Um zu überprüfen, ob a1 , . . . , an linear abhängig (bzw. linear unabhängig) sind, kann man wie folgt vorgehen: Sei A ∈ K m,n diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn . Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das homogene lineare Gleichungssystem AXT = 0 eine nichttriviale Lösung besitzt (nur die triviale Lösung besitzt), denn für α1 , . . . , αn ∈ K gilt A(α1 , . . . , αn )T = 0 genau dann, wenn α1 a1 +. . .+αn an = 0. Da zur Bestimmung der Lösungsmenge von AXT = 0 nach Lemma 2.38 genau n − rang A 3.3. ERZEUGENDENSYSTEME UND BASEN 61 Unbestimmte frei gewählt werden können, ist dies äquivalent zu rang A < n (rang A = n). 5. {1R } ist Basis von R als Links- und als Rechts-R-Modul. Damit ist R freier zyklischer Modul über sich selbst. Allgemeiner haben wir: Lemma 3.25. Sei R ein Ring und n ∈ N. Dann ist Rn frei und zwar sowohl als Links- als auch als Rechts-R-Modul. Ist n ≥ 1, so ist {en1 , . . . , enn } Basis von Rn , wenn en1 := (1R , 0R , 0R , . . . , 0R ), en2 := (0R , 1R , 0R , . . . , 0R ), . . . , enn := (0R , . . . , 0R , 1R ). Beweis. Für n = 0 ist Rn der Nullmodul und dieser ist frei. Für n > 0 wird Rn als Links- und auch als Rechts-R-Modul erzeugt von {en1 , . . . , enn }, denn für (x1 , . . . , xn ) ∈ Rn gilt (x1 , . . . , xn ) = x1 en1 + . . . + xn enn ∈ R{en1 , . . . , enn } und (x1 , . . . , xn ) = en1 x1 +. . .+enn xn ∈ {en1 , . . . , enn }R. Andererseits sind en1 , . . . , enn linear unabhänig, denn aus x1 en1 + . . . + xn enn = 0 bzw. en1 x1 + . . . + enn xn = 0 folgt (trivialerweise) x1 = . . . = xn = 0. Damit ist {en1 , . . . , enn } Basis von Rn als Links- und als Rechts-R-Modul, Bemerkung 3.26. Für n ∈ N+ nennt man die Basis {en1 , . . . , enn } des Rn oft kanonische Basis von Rn . Satz 3.27. Sei R ein Ring. Dann gilt: (1) Eine Teilmenge X eines Links-R-Moduls M ist Basis von M genau dann, wenn es für jedes m ∈ M eindeutig bestimmte Elemente rm,x ∈ R, x ∈ X, gibt, so daß • rm,x = 0R für fast alle x ∈ X und P • m = x∈X rm,x x, d. h. P für jedes m ∈ M gibt es ein eindeutig bestimmtes ρm ∈ R(X) mit m = x∈X ρm (x)x, s. Beispiel 3.9.3. (2) Jede Basis X eines freien Links-R-Moduls M ist maximale linear unabhängige Teilmenge von M (d. h. X ∪ {y} ist linear abhängig für alle y ∈ M \ X) und minimales Erzeugendensystem von M (d. h. für alle x ∈ X ist X \ {x} kein Erzeugendensystem von M ). (3) Sei R ein Körper und V ein R-Vektorraum. Für eine Teilmenge X von V sind äquivalent: (i) X ist Basis von V (ii) X ist maximale linear unabhängige Teilmenge von V (iii) X ist minimales Erzeugendensystem von V . 62 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) Sei X Basis von M . Da X insbesondere Erzeugendensystem von M ist, gibt es für jedes m ∈ M Elemente x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R mit m = r1 x1 + . . . + rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp paarweise verschieden sind. Wir setzen nun für alle x ∈ X ri falls x = xi für ein i, 1 ≤ i ≤ p rm,x := 0R falls x 6∈ {x1 , . . . xp } P Dann gilt offensichtlich m = x∈X rm,x x und wir müssen nur noch die Eindeutigkeit der Darstellung nachweisen. P P 0 Sei hierzu m ∈ M und seien m = x∈X rm,x x sowie m = x∈X rm,x x Darstellungen von m mit den geforderten Eigenschaften. Sei Y := {x | x ∈ 0 6= 0R }. Y ist endliche Teilmenge von X, sagen wir, X, rm,x 6= 0R oder rm,x Y = {x1 , . . . , xp } mit p := ]Y ∈ N und paarweise verschiedenen x1 , . . . , xp . 0 . Dann gilt Für jedes i = 1, . . . p sei ri := rm,xi − rm,x i r1 x1 + . . . + rp xp = X x∈X rm,x x − X 0 rm,x x = m − m = 0M . x∈X Da X linear unabhängig ist, folgt hieraus r1 = . . . = rp = 0R , d. h. wir haben 0 0 rm,x − rm,x = 0R für alle x ∈ Y und damit rm,x = rm,x für alle x ∈ X. Wir bemerken, daß damit für jedes m ∈ M P durch x 7→ rm,x P, x ∈ X, ein (X) Element ρm ∈ R definiert ist und daß m = x∈X rm,x x = x∈X ρm (x)x. Sei nun X keine Basis von M . Dann ist X entweder kein Erzeugendensystem von M oder X ist linear abhängig. Im ersten Fall ist klar, daß nicht für alle m ∈ M Elemente rm,x , x ∈ X, mit den geforderten Eigenschaften existieren. Im zweiten Fall gibt es für m = 0M neben der trivialen Darstellung als Linearkombination von Elementen aus X mindestens eine weitere, so daß die geforderte Eindeutigkeit nicht gegeben ist (”trivial” heißt, daß alle Koeffizienten gleich 0R sind). (2) Sei y ∈ M \ X. Da X Basis und somit Erzeugendensystem von M ist, gibt es x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R mit y = r1 x1 + . . . rp xp . O. B. d. A. dürfen wir wieder annehmen, daß x1 , . . . , xp paarweise verschieden sind. Dann sind wegen y 6∈ X auch y, x1 , . . . , xp paarweise verschieden und wir haben (−1R )y + r1 x1 + . . . + rp xp = 0M , d. h. y, x1 , . . . , xp sind linear abhängig und damit ist X ∪{y} linear abhängig. Sei x ∈ X. Angenommen, Y := X \ {x} ist auch noch Erzeugendensystem von M . Dann gibt es x1 , . . . , xp ∈ X \ {x} und r1 , . . . , rp ∈ R mit x = r1 x1 + . . . rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp paarweise 3.3. ERZEUGENDENSYSTEME UND BASEN 63 verschieden sind. Dann sind auch x, x1 , . . . , xp paarweise verschieden und wir haben (−1R )x + r1 x1 + . . . + rp xp = 0M im Widerspruch zur linearen Unabhängigkeit von X. Damit ist X minimales Erzeugendensystem von M . (3) Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich aus (2). (ii) ⇒ (i): Es ist zu zeigen, daß X Erzeugendensystem von V ist. Sei hierzu W := RX der von X erzeugte Untervektorraum von V und sei v ∈ V . Wir müssen zeigen, daß v ∈ W . Dies ist sicher richtig, wenn v ∈ X. Sei also v 6∈ X. Dann ist X ∪ {v} linear abhängig, d. h. es gibt paarweise verschiedene x0 , . . . , xp ∈ X ∪ {v} und r0 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß r0 x0 + r1 x1 + . . . + rp xp = 0V . Da X linear unabhängig ist, muß gelten v ∈ {x0 , . . . , xp }. O. B. d. A. sei v = x0 . Wenn r0 = 0R , so hätten wir r1 x1 + . . . + rp xp = 0V im Widerspruch zur linearen Unabhängigkeit von X. Damit ist r0 6= 0R und wir erhalten mit ri0 := −r0−1 ri ∈ R, i = 1, . . . , p : v = r10 x1 + . . . + rp0 xp ∈ W. (iii) ⇒ (i): Es ist lediglich die lineare Unabhängigkeit von X zu zeigen. Angenommen, X wäre nicht linear unabhängig. Dann gibt es paarweise verschiedene x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß r1 x1 + . . . + rp xp = 0V . O. B. d. A. gelte r1 6= 0R . Wie im Beweis der Implikation (ii) ⇒ (i) folgt dann, daß x1 ∈ R{x2 , . . . , xp } ⊆ RY mit Y := X \ {x1 }. Dann gilt aber V = RX = RY + Rx1 = RY , denn wegen x1 ∈ RY folgt Rx1 ⊆ RY . Damit wäre aber Y bereits Erzeugendensystem von V im Widerspruch zur Minimalität von X. Somit ist X linear unabhängig, also Basis von V , Die Äquivalenz (i) ⇔ (ii) in Satz 3.27(3) kann wie folgt verschärft werden: Folgerung 3.28. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X eines Erzeugendensystems E von V ist Basis von V genau dann, wenn X maximale linear unabhängige Teilmenge von E ist. Beweis. Ist X Basis von V mit X ⊆ E, so ist X maximale linear unabhägige Teilmenge von V nach Satz 3.27(3), also erst recht maximale linear unabhägige Teilmenge von E. 64 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Ist umgekehrt X maximale linear unabhägige Teilmenge von E, so sei W := KX der von X erzeugte Untervektorraum von V . Angenommen, E 6⊆ W , d. h. es gibt ein v ∈ E mit v 6∈ W . Völlig analog wie im Beweis von Satz 3.27(3), (ii) ⇒ (i) führt dies zu einem Widerspruch. Damit gilt E ⊆ W und folglich V = KE ⊆ W ⊆ V , also V = W , d. h. X ist Erzeugendensystem und damit Basis von V , Lemma 3.29. Sei R ein Ring, M ein Links-R-Modul und X ein Erzeugendensystem von M . Dann gilt: (1) Ist X unendlich, so enthält jedes Erzeugendensystem von M ein Erzeugendensystem Z von M mit ]Z ≤ ]X. (2) Ist X endlich, so enthält jedes Erzeugendensystem von M ein endliches Erzeugendensystem von M . Beweis. Sei Y weiteres Erzeugendensystem von M . Zu jedem x S ∈ X gibt es eine endliche Teilmenge E(x) 6= ∅ von Y mit x ∈ RE(x). Sei Z := x∈X E(x) ⊆ Y . Da dann x ∈ RE(x) ⊆ RZ für alle x ∈ X, folgt X ⊆ RZ, somit M = RX ⊆ RZ ⊆ RY = M , also RZ = M . Ist X endlich, so ist auch Z endlich nach Satz A.32(1). Ist X unendlich, so gilt ]Z ≤ ]X nach Satz A.33(2), Theorem 3.30. Sei R ein Ring und M ein freier Links-R-Modul. Dann gilt: (1) Sind X, Y Basen von M und ist X unendlich, so folgt ]Y = ]X. (2) Ist R kommutativ, so haben alle Basen von M die gleiche Kardinalzahl. Beweis. (1) Nach Lemma 3.29(1) enthält Y ein Erzeugendensystem Z von M mit #Z ≤ #X. Nach Satz 3.27(2) gilt Y = Z und damit ]Y ≤ ]X. Wäre Y endlich, so enthielte X nach Lemma 3.29(2) ein endliches Erzeugendensystem Z 0 von M , Widerspruch, denn aus Satz 3.27(2) würde folgen X = Z 0 . Daher ist Y unendlich und wir erhalten analog wie eben ]X ≤ ]Y . Nach dem Satz von Schröder-Bernstein folgt hieraus ]Y = ]X. (2) Mit (1) ist der Beweis nur noch für den Fall zu erbringen, daß M eine endliche Basis besitzt. Dann sind alle Basen von M endlich nach (1). Insbesondere ist M ein endlich erzeugter R-Modul, d. h. wir haben µR (M ) < ∞. Im Hinblick auf Folgerung 3.32 zeigen wir allgemeiner: Sei X Basis von M , sagen wir, X = {x1 , . . . , xm } mit m = ]X. Dann gilt m = µR (M ). Sei hierzu Y Erzeugendensystem von M mit ]Y = µR (M ), sagen wir Y = {y1 , . . . , yn }, n := µR (M ). Da auch X Erzeugendensystem von P M ist, gilt m ≥ n und für i = 1, . . . , m gibt es ri1 , . . . , rin ∈ R mit xi = nj=1 rij yj . Entsprechend gibt es für j = 1, . . . , n Elemente sj1 , . . . , sjm ∈ R mit yj = 3.3. ERZEUGENDENSYSTEME UND BASEN 65 Pn sjk xk . Durch Einsetzen in die vorhergehende Gleichung erhalten wir für i = 1, . . . , m k=1 xi = n X m X rij sjk xk = j=1 k=1 m n X X k=1 rij sjk xk . j=1 Wegen der linearen Unabhängigkeit von X folgt hieraus für i, k = 1, . . . , m n X 1R wenn i = k rij sjk = , 0R wenn i 6= k j=1 r11 . . . r1n s11 . . . s1m .. und B := .. .. . d. h. A · B = Em , wenn A := ... . . . rm1 . . . rmn sn1 . . . snm Om,m−n ∈ Rm,m und Dann gilt aberauch à · B̃ = Em , wenn à := A B B·A On,m−n m,m . B̃ := ∈ R . Wir bemerken, daß B̃ · à = Om−n,n Om−n,m−n Om−n,m Sei nun m ein maximales Ideal von R (s. Lemma 3.12). Mit A bzw. B bezeichnen wir diejenigen Matrizen in (R/m)m,m , die aus à bzw. B̃ entstehen, wenn man die jeweiligen Eintragungen durch ihre Restklassen modulo m ersetzt. Dann gilt ebenfalls A · B = Em und, da R/m nach Lemma 3.20(2) ein Körper ist, ergibt sich aus Folgerung 2.27, daß B · A = Em . Dies ist aber unmöglich, wenn m > n (da dann die letzten m − n Zeilen und Spalten von B · A Nulltupel wären). Somit gilt m = n wie behauptet, Damit können wir definieren: Definition 3.31. (a) Sei R ein kommutativer Ring und F ein freier R-Modul. Die Kardinalzahl einer (und damit jeder, s. Theorem 3.30(2)) Basis von F wird als R-Rang oder, falls Verwechslungen ausgeschlossen sind, auch nur als Rang von F bezeichnet, Schreibweise rangR F oder rang F . (b) Ist K ein Körper und V ein K-Vektorraum, so wird der K-Rang von V oft auch als K-Dimension oder nur Dimension von V bezeichnet, kurz dimK V oder dim V . Folgerung 3.32 (aus Theorem 3.30). Sei R ein kommutativer Ring. Dann gilt (1) rangR F = µR (F ) für jeden endlich erzeugten freien R-Modul F . (2) Für jedes n ∈ N ist Rn endlich erzeugter freier R-Modul mit rang Rn = n. Dies ergibt sich unmittelbar aus dem Beweis von Theorem 3.30(2) sowie aus Lemma 3.25. 66 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE 3.4 Vektorräume Wir wenden uns nun der genaueren Untersuchung von Vektorräumen zu. Lemma 3.33. Sei K ein Körper und V ein K-Vektorraum. Ferner sei E ein Erzeugendensystem von V und Y linear unabhängige Teilmenge von E. Dann gibt eine linear unabhängige Menge Z ⊆ E \ Y , so daß folgendes gilt: (1) Y ∪ Z ist Basis von V . (2) Ist U := KY der von Y erzeugte Untervektorraum von V , so ist Z̄ := {z + U | z ∈ Z} ⊆ V /U Basis von V /U . (3) Die durch z 7→ z + U gegebene Abbildung f : Z → Z̄ ist Bijektion und damit gilt ]Z̄ = ]Z. Beweis. Sei U := {X | Y ⊆ X ⊆ E, X linear unabhängig}. Wegen Y ∈ U ist U nicht leere undSbezüglich ⊆ teilweise geordnete Menge. Sei K eine Kette in U und sei X 0 := X∈K X. Sicherlich gilt Y ⊆ X 0 ⊆ E. Seien nun x1 , . . . xn paarweise verschiedene Elemente aus X 0S(n ∈ N+ ). Dann gibt es X1 , . . . , Xn ∈ K mit xi ∈ Xi , i = 1, . . . , n. Sei X := ni=1 Xi . Da K Kette ist, gilt X ∈ K und damit sind x1 , . . . , xn wegen x1 , . . . , xn ∈ X linear unabhängig. Somit ist X 0 linear unabhängig, d. h. X 0 ∈ U. Nach Lemma A.17 besitzt U damit maximale Elemente. Sei X0 ein solches. Da X0 somit eine maximale linear unabhängige Teilmenge von E ist, ist X0 Basis von V nach Folgerung 3.28. Setzen wir Z := X0 \ Y , so ist (1) gezeigt. Wir zeigen nun (2) und (3). Für m ∈ M sei m̄ := m + U . Seien z1 , . . . , zn paarweise verschiedene Elemente aus Z. Angenommen, für r1 , . . . , rn ∈ K gilt r1 z̄1 + . . . + rn z̄n = 0V /U . Dann folgt r1 z1 + . . . + rn zn ∈ U , d. h. es gibt y1 , . . . , ym ∈ Y und s1 , . . . , sm ∈ K mit r1 z1 + . . .+rn zn = s1 y1 +. . .+sm ym . O. B. d. A. dürfen wir voraussetzen, daß y1 , . . . , ym paarweise verschieden sind. Wegen Z ⊂ E\Y sind dann auch z1 , . . . , zn , y1 , . . . , ym paarweise verschieden und aus r1 z1 + . . . + rn zn − s1 y1 − . . . − sm ym = 0V folgt wegen der linearen Unabhängigkeit von Y ∪Z insbesondere r1 = . . . = rn = 0K , d. h. z̄1 , . . . , z̄n sind linear unabhängig. Da somit z̄1 , . . . , z̄n insbesondere paarweise verschieden sind, ist f injektiv und mithin bijektiv. (Es ist klar, daß f surjektiv ist.) Außerdem ist Z̄ linear unabhängig. Da Y ∪ Z Erzeugendensystem von V ist, ist Z̄ Erzeugendensystem von V /U (s. Bemerkung 3.22.2) und damit Basis von V /U , 3.4. VEKTORRÄUME 67 Folgerung 3.34. Sei K ein Körper. Jedes Erzeugendensystem eines K-Vektorraumes V enthält eine Basis von V . Insbesondere besitzt jeder K-Vektorraum eine Basis (ist also ein freier K-Modul) und je zwei Basen ein und desselben K-Vektorraumes haben die gleiche Mächtigkeit. Folgerung 3.35 (Basisergänzungssatz). Sei K ein Körper und V ein K-Vektorraum. Ist Y ⊂ V linear unabhängig, so gibt es eine linear unabhängige Menge Z ⊂ V \ Y , so daß Y ∪ Z Basis von V ist. Ist dabei E ein Erzeugendensystem von V mit Y ⊆ E, so kann Z ⊆ E \ Y gewählt werden. Folgerung 3.36 (Steinitzscher Austauschsatz). Sei K ein Körper und V ein K-Vektorraum. Sind B, C Basen von V , so gibt es zu jeder Teilmenge X von B eine Teilmenge Y von C mit ]X = ]Y , so daß (B \ X) ∪ Y wieder Basis von V ist. Beweis. (B \ X) ∪ C ist (trivialerweise) Erzeugendensystem von V , das die linear unabhängige Menge B \ X enthält. Nach Lemma 3.33(1) gibt es eine linear unabhängige Menge Y ⊆ ((B \ X) ∪ C) \ (B \ X) = C \ (B \ X), so daß (B \ X) ∪ Y Basis von V ist. Da natürlich auch (B \ X) ∪ X = B Basis von V ist, sind X̄ := {x + U | x ∈ X} und Ȳ := {y + U | y ∈ Y } nach Lemma 3.33(2) Basen von V /U , wenn U := K(B \ X) der von B \ X erzeugte Untervektorraum von V ist. Nach Theorem 3.30(2) und Lemma 3.33(3) gilt daher ]X = ]X̄ = ]Ȳ = ]Y , Wir wollen nun den Rangbegriff allgemeiner für beliebige Teilmengen eines Vektorraumes einführen. Hierzu zeigen wir zunächst: Lemma 3.37. Sei K ein Körper, V ein K-Vektorraum und X Teilmenge von V . Weiter sei U := KX der von X erzeugte Untervektorraum von V . Dann gilt: (1) Es gibt eine Basis Y von U mit Y ⊆ X. (2) Eine Teilmenge Y von X ist Basis von U genau dann, wenn Y maximale linear unabhängige Teilmenge von X ist. (3) Ist Y linear unabhängige Teilmenge von X, so gibt es eine maximale linear unabhängige Teilmenge von Z von X mit Y ⊆ Z. Insbesondere enthält X maximale linear unabhängige Teilmengen. (4) Je zwei maximale linear unabhängige Teilmengen von X sind gleichmächtig. Beweis. Laut Konstruktion ist X Erzeugendensystem von U . (1) Nach Folgerung 3.34 enthält X somit eine Basis von U . (2) ergibt sich damit unmittelbar aus Folgerung 3.28. (3) Nach Folgerung 3.35 gibt es Basis Z von U mit Y ⊆ Z ⊆ X und nach (2) ist Z maximale linear unabhängige Teilmenge von X. 68 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (4) Da nach (2) maximale linear unabhängige Teilmengen von X Basen von U sind, sind je zwei maximale linear unabhängige Teilmengen von X gleichmächtig nach Theorem 3.30(2), Für X = V liefert Lemma 3.37 bekannte Aussagen über Basen in Vektorräumen, denn maximale linear unabhängige Teilmengen von V sind Basen von V , s. Satz 3.27(3). Definitionsgemäß ist somit rangK V die Kardinalzahl einer (und damit jeder) maximalen linear unabhängigen Teilmenge von V . Diese Beobachtung stellt den Zusammenhang von Definition 3.31 zu der folgenden allgemeineren Definition her. Definition 3.38. Sei K ein Körper und V ein K-Vektorraum. Ist X Teilmenge von V , so bezeichnet man die Kardinalzahl einer (und damit jeder, s. Lemma 3.37(4)) maximalen linear unabhängigen Teilmenge von X als K-Rang von X oder, falls Verwechslungen ausgeschlossen sind, auch nur als Rang von X, Schreibweise rangK X oder rang X. Bemerkungen, Beispiele 3.39. 1. Sei V ein K-Vektorraum und X Erzeugendensystem von V . Nach Lemma 3.37(3) enthält X eine maximale linear unabhängige Teilmenge Y , die nach Lemma 3.37(2) Basis von V ist. Daher gilt rang V = ] Y = rang X ≤ ] X . 2. Folgerung 3.34 ist nicht richtig, wenn K kein Körper ist: Sei hierzu K = V := Z. Z ist freier Z-Modul (s. Bemerkung 3.24.5) und {2, 3} ist Erzeugendensystem von Z, denn für n ∈ Z gilt n = 2 · (−n) + 3 · n ∈ {2, 3}Z. {2, 3} ist aber keine Basis von Z, da (−3) · 2 + 2 · 3 = 0. {2, 3} enthält auch keine Basis und nicht einmal ein Erzeugendensystem von Z, da weder {2} noch {3} Erzeugendensystem von Z ist. Damit ist {2, 3} sogar minimales Erzeugendensystem von Z, d. h. auch Satz 3.27(3) ist nicht richtig, wenn K kein Körper ist. Es läßt sich sogar leicht zeigen, daß es für jedes µ ∈ N+ minimale Erzeugendensysteme von Z bestehend aus µ Elementen gibt. 3. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit n := rang V . Dann sind n + 1 Elemente von V stets linear abhängig. Dies ergibt sich sofort aus dem Basisergänzungssatz (Folgerung 3.35). Das ist übrigens auch richtig, wenn K lediglich ein kommutativer Ring ist. Dann gilt sogar: Ist M ein beliebiger endlich erzeugter K-Modul. Dann sind je n + 1 Elemente von M linear abhängig, wenn n := µK (M ). Der Beweis hierfür ist jedoch mit den jetzt zur Verfügung stehenden Mitteln nicht zu erbringen. 3.4. VEKTORRÄUME 69 4. Statt ”endlich erzeugter Vektorraum” sagt man mitunter auch noch ”endlichdimensionaler Vektorraum”. Lemma 3.40. Sei K ein Körper, V ein K-Vektorraum, U Untervektorraum von V und X, Y Teilmengen von V mit Y ⊆ X. (1) Es gilt rang Y ≤ rang X mit Gleichheit, wenn X ⊆ KY . (2) Wenn rang X < ∞, so sind die folgenden Bedingungen äquivalent (i) rang Y = rang X (ii) X ⊆ KY (iii) KY = KX. (3) Es gilt rang U ≤ rang V . (4) Ist V endlich erzeugt, so auch U und es gilt rang U = rang V genau dann, wenn U = V . Beweis. (1) Da jede maximale linear unabhängige Teilmenge von Y (s. Lemma 3.37(3)) linear unabhängige Teilmenge von X ist, gilt rangY ≤ rangX. Wenn X ⊆ KY , so folgt hieraus (s. Bemerkung 3.39.1) rang Y ≤ rang X ≤ rang KY = rang Y, also rang Y = rang X nach dem Satz von Schröder-Bernstein. (2) (i) ⇒ (iii): Wenn rangY = rangX < ∞, so ist jede maximale linear unabhängige Teilmenge Y 0 von Y bereits maximale linear unabhängige Teilmenge von X, denn sonst hätten wir (s. Folgerung A.31(1)) rang X > #Y 0 = rang Y = rang X, Widerspruch. Nach Lemma 3.37(2) ist Y 0 daher nicht nur Basis von KY , sondern auch von KX, so daß KX = KY 0 = KY . (iii) ⇒ (ii): Aus KX = KY folgt X ⊆ KX = KY . (ii) ⇒ (i) ergibt sich aus (1). (3) folgt aus (1). (4) Ist X endliches Erzeugendensystem von V , so gilt mit (3) und Bemerkung 3.39.1 zunächst rang U ≤ rang V = rang X ≤ #X < ∞, d. h. auch U ist endlich erzeugt. Wenn U = V , so ist klar, dass rang U = rangV . Wenn umgekehrt rang U = rang V , so wählen wir eine Basis B von U . Nach Folgerung 3.35 kann B zu einer Basis C von V ergänzt werden. Da nun #B = rang U = rang V = #C und rangV < ∞, sind B, C endlich und es folgt B = C (s. Folgerung A.31(1)), d. h. U = KB = KC = V , 70 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Satz 3.41 (Rang- oder Dimensionsformeln). Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und U, U 0 K-Untervektorräume von V . Dann gilt: (1) rang U + rang V /U = rang V (2) rang (U ∩ U 0 ) + rang (U + U 0 ) = rang U + rang U 0 . Beweis. Nach Lemma 3.40(4) sind mit V auch U , U 0 , U ∩ U 0 und U + U 0 endlich erzeugt. (1) In Lemma 3.33 setzen wir E = V und wählen für Y eine Basis von U . Mit den Bezeichnungen von Lemma 3.33 gilt dann rang U + rang V /U = = = = ]Y + ]Z̄ (Lemma 3.33(2)) ]Y + ]Z (Lemma 3.33(3)) ](Y ∪ Z) (Satz A.32(1b)) rang V (2) Sei A Basis von U ∩ U 0 . Nach Folgerung 3.35 können wir A durch linear unabhängige Mengen Z ⊆ U \ A bzw. Z 0 ⊆ U 0 \ A zu einer Basis B := A ∪ Z von U bzw. B 0 := A ∪ Z 0 von U 0 ergänzen. Dann gilt rang U = ]B bzw. rang U 0 = ]B 0 = ]A + ]Z 0 (s. Satz A.32(1b)), also folgt rang U + rang U 0 = ]B + (]A + ]Z 0 ) = ]A + (]B + ]Z 0 ). Wir bemerken, daß U + U 0 = KB + KB 0 = KA + KZ + KA + KZ 0 = K(A ∪ Z ∪ Z 0 ) = K(B ∪ Z 0 ), d. h. B ∪ Z 0 ist Erzeugendensystem von U + U 0 . Seien b1 , . . . , br paarweise verschiedene Elemente aus B und z10 , . . . , zs0 paarweise verschiedene Elemente aus Z 0 . Angenommen, es gilt β1 b1 + . . . + βr br + γ1 z10 + . . . + γs zs0 = 0V mit β1 , . . . , βr , γ1 , . . . , γs ∈ K. Dann folgt z 0 := γ1 z10 + . . . + γs zs0 ∈ U 0 und andererseits z 0 = −(β1 b1 + . . . + βr br ) ∈ KB = U , also z 0 ∈ U ∩ U 0 = KA. Daher gibt es a1 . . . , at ∈ A und α1 , . . . , αt ∈ K mit z 0 = α1 a1 + . . . αt at . O. B. d. A. dürfen wir voraussetzen, daß a1 . . . , at paarweise verschieden sind. Da A ∩ Z 0 = ∅, sind auch a1 . . . , at , z10 , . . . , zs0 paarweise verschieden. Wegen (−α1 )a1 + . . . + (−αt )at + γ1 z10 + . . . + γs zs0 = −(α1 a1 +. . .+αt at )+z 0 = 0V und der linearen Unabhängigkeit von B 0 = A∪Z 0 folgt hieraus γ1 = . . . = γs = 0K . Dies liefert aber β1 b1 + . . . + βr br = 0V und wegen der linearen Unabhängigkeit von B ergibt sich hieraus schließlich β1 = . . . = βr = 0K . Damit sind b1 , . . . , br , z10 , . . . , zs0 linear unabhängig und damit paarweise verschieden, d. h. es gilt B ∩ Z 0 = ∅ und B ∪ Z 0 ist linear unabhängig und somit Basis von U + U 0 . Damit haben wir (s. Satz A.32(1b)) rang (U + U 0 ) = ](B ∪ Z 0 ) = ]B + ]Z 0 , zusammen also rang U + rang U 0 = ]A + (]B + ]Z 0 ) = rang (U ∩ U 0 ) + rang (U + U 0 ), 3.4. VEKTORRÄUME 71 Alternativer Beweis: Sei V := (U + U 0 )/(U ∩ U 0 ), U := U/(U ∩ U 0 ) und U0 := U 0 /(U ∩ U 0 ). Dann gilt U + U0 = V, U ∩ U0 = (U ∩ U 0 )/(U ∩ U 0 ) = 0 und nach (1) rang (U ∩ U 0 ) + rang (U + U 0 ) − rang U − rang U 0 = rang V − rang U − rang U0 . O. B. d. A. dürfen wir daher annehmen, dass U + U 0 = V , U ∩ U 0 = 0 und haben zu zeigen, daß rang V = rang U + rang U 0 . Sei B := {b1 , . . . , bm }, m := rang U , Basis von U und C := {c1 , . . . , cn }, n := rangU 0 , Basis von U 0 . Angenommen β1 b1 +. . . βm bm +γ1 c1 +. . .+γn cn = 0 mit β1 , . . . , βm , γ1 , . . . , γn ∈ K. Da somit β1 b1 +. . . βm bm = −(γ1 c1 +. . .+γn cn ) ∈ U ∩U 0 = 0, folgt β1 = · · · = βm = γ1 = · · · = γn = 0K , d. h. b1 , . . . , bm , c1 , . . . , cn sind linear unabhängig, insbesondere folgt B ∩ C = ∅. Wegen V = U + U 0 = KB + KC = K(B ∪ C) ist B ∪ C linear unabhängiges Erzeugendensystem, also Basis von V , und wir erhalten rang V = #(B ∪ C) = #B + #C = rang U + rang U 0 Folgerung 3.42. Sei K ein Körper und seien X, Y endliche Teilmengen eines K-Vektorraumes V . Dann gilt rang (X ∪ Y ) ≤ rangX + rang Y ≤ rang X + ] Y. Beweis. Nach Lemma 3.40(1), Bemerkung 3.22.1 und Satz 3.41(2) gilt rang (X ∪ Y ) = rang K(X ∪ Y ) = rang (KX + KY ) ≤ rang KX + rang KY = rang X + rang Y ≤ rang X + ] Y, Satz 3.43. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit d := rangV . Für Elemente v1 , . . . , vd ∈ V sind die folgenden Aussagen äquivalent: (i) {v1 , . . . , vd } ist Basis von V (ii) v1 , . . . , vd sind linear unabhängig (iii) v1 , . . . , vd erzeugen V . Beweis. Die Implikationen (i) =⇒ (ii) und (i) =⇒ (iii) sind klar. (ii) =⇒ (i): Sei B := {v1 , . . . , vd }. B ist linear unabhängig und ]B = d (s. Bemerkung 3.24.2). Nach Folgerung 3.35 kann B zu einer Basis C von V ergänzt werden. Da somit B ⊆ C und ]B = d = rang V = ]C, folgt B = C, s. Folgerung A.31(1) (C ist endlich). (iii) =⇒ (i): Nach Folgerung 3.34(2) enthält {v1 , . . . , vd } eine Basis C von V und daher gilt ]C = rang V = d ≥ ]{v1 , . . . , vd } ≥ ]C, d. h. wir haben ]C = ]{v1 , . . . , vd } und somit {v1 , . . . , vd } = C (s. Folgerung A.31(1)), 72 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Sei K ein Körper und seien a1 , . . . , an ∈ K m , m, n ∈ N. Wie geht man vor, wenn man überprüfen will, ob a1 , . . . , an linear abhängig (bzw. linear unabhängig) sind oder wenn man sogar den Rang von {a1 , . . . , an } bestimmen möchte? O. B. d. A. nehmen wir dabei an, daß m, n > 0, denn wenn m = 0, so ist K m der Nullvektorraum und wenn n = 0, so ist {a1 , . . . , an } leer, also linear unabhängig (s. Bemerkung 3.24.1). Eine erste Antwort liefert Bemerkung 3.24.4: Sei hierzu A ∈ K m,n diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn . Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das homogene lineare Gleichungssystem A · XT = 0 eine nichttriviale Lösung besitzt (nur die triviale Lösung besitzt) und dies wiederum ist äquivalent zu rang A < n (rang A = n). Damit kann die lineare Abhängigkeit bzw. Unabhängigkeit von a1 , . . . , an z. B. durch Anwendung des Gaußschen Algorithmus auf A überprüft werden. Auf diese Weise kann man aber sogar rang {a1 , . . . , an } bestimmen, wie Satz 3.44 zeigen wird. Damit ist auch die Brücke zur Rangdefinition von Matrizen geschlagen, s. Satz und Definition 2.37. Satz 3.44. Sei K ein Körper und seien a1 , . . . , an ∈ K m , wobei m, n ∈ N+ . Weiter sei A := (aT1 , . . . , aTn ) ∈ K m,n . Dann gilt: rang A = rang {a1 , . . . , an } = rang {b1 , . . . , bm }, wenn b1 , . . . , bm die Zeilen von A sind. Beweis. Sei S(A) := K{a, . . . an } ⊆ K m der von den Spalten von A erzeugte K-Untervektorraum des K m (mitunter als Spaltenraum von A bezeichnet) und Z(A) := K{b1 , . . . , bm } ⊆ K n der von den Zeilen von A erzeugte KUntervektorraum des K n (Zeilenraum von A). Wir zeigen zunächst: (a) S(A) = Z(AT ) und Z(A) = S(AT ). (b) Für B ∈ K n,p und C ∈ K q,m (p, q ∈ N+ ) gilt S(A · B) ⊆ S(A) mit Gleichheit, wenn B ∈ GlK (n) und Z(C · A) ⊆ Z(A) mit Gleichheit, wenn C ∈ GlK (m) . (c) Für P ∈ GlK (n) gilt S(P ) = Z(P ) = K n . Begründung: (a) ergibt sich sofort aus der Definition. Damit können wir uns bei den folgenden Aussagen z. B. auf die Spaltenräume beschränken. (b) die erste Aussage ist klar, da die Spalten von A · B Linearkombinationen der Spalten von A sind. 3.4. VEKTORRÄUME 73 Sei nun B ∈ GlK (n). Dann gilt S(A) = S(A · B · B −1 ) ⊆ S(A · B), also S(A · B) = S(A). (c) Wegen P −1 ∈ GlK (n) gilt nach (b) S(P ) = S(P · P −1 ) = S(En ) = K n , Nach Bemerkung 3.39.1 ist zu zeigen, daß rang S(A) = rang Z(A) = rang A. Da nach Satz und Definition 2.37(5) gilt rang A = rang AT , reicht es nach (a), rang S(A) = rang A nachzuweisen. Sei r := rang A. Dann gibt es P ∈ GlK (m), Q ∈ GlK (n) mit P · A · Q = Em,n;r (s. Satz und Definition 2.37(2)) und wir erhalten mit (c) und Bemerkung 3.39.1 rang S(A) = rang S(A · Q) = rang S(P −1 Em,n;r ) = rang {c1 , . . . , cr } = r , wenn P −1 =: (cT1 , . . . , cTm ) (man beachte, daß c1 , . . . , cm nach (c) und Satz 3.43 linear unabhängig sind und daß P −1 · Em,n;r = (cT1 , . . . , cTr , 0T , . . . , 0T ), Folgerung 3.45. Sei K ein Körper und seien A, K m,n , B ∈ K n,p , wobei m, n, p ∈ N+ . Dann gilt rangK A · B ≤ min{rangK A, rangK B} . Beweis. Aus dem Beweis von Satz 3.44 ergibt sich zusammen mit Lemma 3.40(3) rang A · B = rang S(A · B) ≤ rang S(A) = rang A und damit (s. auch Satz 2.37(5)) rang A · B = rang (A · B)T = rang B T · AT ≤ rang B T = rang B , zusammengenommen also rangK A · B ≤ min{rangK A, rangK B}, Folgerung 3.46. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N+ . A werde durch den Gaußschen Algorithmus in ein Matrix A0 ∈ K m,n in Trapezgestalt überführt. Dann sind insbesondere diejenigen Zeilen (Spalten) von A linear unabhängig, die bei den dabei erfolgten Zeilenvertauschungen (Spaltenvertauschungen) in die ersten r Zeilen (Spalten) von A0 übergehen, wobei r := rang A = rang A0 (s. Lemma 2.38). Beweis. Seien a1 , . . . , ak ∈ K n . Vertauscht man die Einträge dieser Tupel auf ein und dieselbe Weise, so ändert sich r := rang {a1 , . . . , ak } dadurch nicht, denn nach Satz 3.44 gilt r = rang C, wenn C := (aT1 , . . . , aTk ) ∈ K k,n , und der Rang von C ändert sich ebenfalls nach Satz 3.44 nicht, wenn man die Zeilen von C vertauscht. Angenommen, beim Gaußschen Algorithmus sind keine Zeilenvertauschungen erforderlich. Ist Vi für i ∈ {1, . . . , m} der von den ersten i Zeilen von A und Vi0 74 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE der von den ersten i Zeilen von A0 erzeugte K-Untervektorraum von K n , so gilt mit obiger Überlegung dann Vi = Vi0 , womit die Aussage hinsichtlich der Zeilen von A in diesem Fall gezeigt ist. Nehmen wir nun an, daß Zeilenvertauschungen erforderlich sind. Da für i, j, k, l ∈ {1, . . . , m} mit l < i < j, l < k und α ∈ K gilt Vmij ij kl Am (α) · Vm ij · Akl Ajl m (α) = m (α) · Vm il Am (α) · Vmij wenn k 6∈ {i, j} wenn k = i wenn k = j , kann man die notwendigen Zeilenvertauschungen zu Beginn ausführen, so daß die Aussage hinsichtlich der Zeilen von A auf obigen Spezialfall zurückgeführt und damit gezeigt ist. Wir zeigen nun die Aussage hinsichtlich der Spalten von A. Es ist zunächst klar, daß die ersten r Spalten von A0 linear unabhängig sind. Weiter gilt A0 = P · A · Q, wobei P ∈ GlK (m) Produkt von Adddtions- und Vertauschungsmatrizen und Q ∈ GlK (n) Produkt von Vertauschungsmatrizen ist. Somit folgt A = P −1 · A0 · Q−1 . Da P −1 invertierbar ist, sind die ersten r Spalten von P −1 A0 ebenfalls linear unabhängig, denn aus (P −1 · A0 ) · xT = O mit x := (α1 , . . . , αr , 0K , . . . , 0K ) ∈ K n folgt A0 · xT = O und damit α1 = . . . = αr = 0K . Folglich sind diejenigen Spalten von A linear unabhängig, die gemäß der Multiplikation mit Q−1 aus den ersten r Spalten von P −1 · A0 hervorgehen, also durch den Gaußschen Algorithmus in die ersten r Spalten von A0 überführt werden, Bemerkung 3.47. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N. Nach Satz 3.44 ist der Rang von A gleich der Maximalzahl linear unabhängiger Zeilen von A und ebenso gleich der Maximalzahl linear unabhängiger Spalten von A. Mitunter bezeichnet man die beiden letztgenannten Zahlen als Zeilen- bzw. Spaltenrang von A. Diese beiden Zahlen stimmen also überein und sind gleich dem Rang von A. Mitunter beweist man die Übereinstimmung von Zeilen- und Spaltenrang einer Matrix unabhängig von den Überlegungen in Abschnitt 2.3 und definiert den Rang einer Matrix dann als ihren Zeilen- bzw. Spaltenrang. Seien a1 , . . . , an ∈ K m (K ein Körper, m, n ∈ N+ ) gegeben und sei U der von {a1 , . . . , an } erzeugte Untervektorraum von K m . Dann können wir z. B. die folgenden Fragestellungen behandeln: Problem 1: (a) Man berechne rang U = rang {a1 , . . . , an }. (b) Man bestimme eine Basis B ⊆ {a1 , . . . , an } von U . 3.4. VEKTORRÄUME 75 Lösung: Beide Fragen können simultan behandelt werden. Man betrachte hierzu diejenige Matrix A ∈ K n,m , deren Zeilen a1 , . . . , an sind (bzw. diejenige Matrix A ∈ K m,n , deren Spalten aT1 , . . . , aTn sind) und wende darauf den Gaußschen Algorithmus an. Entsteht hieraus die Matrix A0 , so gilt nach Folgerung 3.46: rang {a1 , . . . , an } = rang A = rang A0 = Anzahl der von O verschiedenen Zeilen von A0 . Eine Basis B ⊆ {a1 , . . . , an } von U erhält man, wenn man diejenigen Zeilen (Spalten) von A nimmt, die beim Gaußschen Algorithmus in die ersten r := rangA Zeilen (Spalten) von A0 überführt wurden. Problem 2: Seien b1 , . . . , bp ∈ K m . (a) Man überprüfe, ob b1 , . . . , bp linear unabhängig sind. (b) Man entscheide, ob b1 , . . . , bp ∈ U . (c) Falls b1 , . . . , bp ∈ U linear unabhängig sind, so bestimme man eine Teilmenge C der in Problem 1(b) gefundenen Basis B von U , so daß {b1 , . . . , bp } ∪ C wieder Basis von U ist. (Dies ist nach dem Steinitzschen Austauschsatz möglich, s. Folgerung 3.36.) Lösung: (a) kann wie Problem 1(a) behandelt werden, da b1 , . . . , bp genau dann linear unabhängig sind, wenn rang {b1 , . . . , bp } = p. (b) Sei B ∈ K p,m diejenige Matrix, deren Zeilen b1 , . . . , bp sind (bzw. diejenige Matrix B ∈ K m,p , deren Spalten bT1 , . . . , bTp sind). Dann gilt b1 , . . . , bp ∈ B U genau dann, wenn rang = rang A (bzw. rang (B A) = rang A). A Begründung: Es gilt b1 , . . . , bp ∈ U genau dann, wenn U = V , wobei V der von {b1 , . . . , bp , a1 , . . . , an } erzeugte Untervektorraum von K m ist. Wegen U ⊆ V gilt aber nach Lemma 3.40 U = V genau dann, wenn rang U = rang V und dies ist nach Problem 1(a) äquivalent zur Ranggleichheit der beiden Matrizen, 2 (c) Indem wir ggf. überflüssige Element weglassen, können wir o. B. d. A. annehmen, daß B = {a1 , . . . , an } und damit rang A = n, s. Problem 1(a). Mit den B Bezeichnungen aus (b) betrachten wir nun die Matrix C := ∈ K p+n,m . A Hierauf wenden wir den Gaußschen Algorithmus an, ohne allerdings die letzten n Zeilen von C (also a1 , . . . , an ) bei evtl. erforderlichen Zeilenvertauschungen während der ersten p Algorithmusschritte einzubeziehen. Hierbei entsteht 76 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE B0 aus C eine Matrix C 0 der Gestalt C 0 = Ok,p A0 , wobei B 0 ∈ K p,m und On−k,m 0 k,m−p A ∈K jeweils Trapezgestalt haben mit k := rang A0 ≤ n (man beachte, daß wegen b1 , . . . , bp ∈ U und der linearen Unabhängigkeit von b1 , . . . , bp gilt p ≤ rang U = rang A = n). Dann ist {b1 , . . . , bp } ∪ C Basis von U , wenn C z. B. aus denjenigen der a1 , . . . , an besteht, die bei den evtl. erforderlichen Zeilenvertauschungen bei Anwendung des Gaußschen Algorithmus auf C in die (p + 1)-te bis r-te Zeile von C 0 übergehen. Begründung: B 0 ist wegen der Einschränkung bei den Zeilenvertauschungen diejenige Matrix, die aus B durch Anwendung des Gaußschen Algorithmus nur auf B entsteht. Da b1 , . . . , bp linear unabhängig sind, gilt nach Folgerung 3.46 rang B 0 = rang B = p und da {b1 , . . . , bp } ∪ B Erzeugendensystem von U ist, gilt rang C 0 = rang C = n wiederum nach Folgerung 3.46. Weil C 0 Trapezgestalt hat, hat C 0 somit die beschriebene Gestalt. Wiederum wegen der Einschränkung bei den Zeilenvertauschungen werden bei Anwendung des Gaußschen Algorithmus auf C bei evtl. erforderlichen Vertauschungen die letzten n Zeilen nur untereinander vertauscht. Daher ergibt sich die Behauptung aus Problem 1(b), 2 Wir bemerken abschließend, daß die in Problem 2 behandelten Fragen auch simultan beantwortet werden können, wenn man die Matrix C (s. Lösung von Problem 2(c)) unter Berücksichtigung der Vorgehensweise in Problem 1 geeignet behandelt. Zur Verdeutlichung dieser Problematik betrachten wir nun die folgenden Beispiele. Beispiele 3.48. 1. Bildet B := {(1, −1, 1), (2, 1, −1), (1, 3, 0)} Basis von Q3 ? Lösung: 1(a) wenden wir den Gaußschen Gemäß Problem Algorithmus auf 1 −1 1 1 −1 1 A := 2 1 −1 an und erhalten die Matrix A0 = 0 3 −3. 1 3 0 0 0 3 Daher gilt rang {(1, −1, 1), (2, 1, −1), (1, 3, 0)} = rang A = rang A0 = 3 nach Folgerung 3.46 und somit sind (1, −1, 1), (2, 1, −1), (1, 3, 0) linear unabhängig. B bildet damit nach Satz 3.43 eine Basis von Q3 . 2. Seien a1 := (−1, 3, 2, 4), a2 := (0, 1, 0, −2), a3 := (2, −2, 0, −1) und a4 := (1, 2, 2, 1) sowie b1 := (1, 0, 2, 5) und b2 := (0, 3, 4, 9) Elemente aus Q4 . U := Q{a1 , a2 , a3 , a4 } bezeichne den von {a1 , a2 , a3 , a4 } erzeugten Untervektorraum von Q4 . 3.4. VEKTORRÄUME 77 (a) Man bestimme eine Basis B ⊆ {a1 , a2 , a3 , a4 } von U . (b) Man zeige, daß b1 , b2 ∈ U linear unabhängig sind und ergänze {b1 , b2 } durch geeignete Elemente aus B zu einer Basis von U . Lösung: (a) Gemäß Problem 1 betrachten wir die Matrix −1 3 2 4 0 1 0 −2 A := 2 −2 0 −1 . 1 2 2 1 Sie wird durch den Gaußschen Algorithmus überführt in −1 3 2 4 0 1 0 −2 A0 := 0 0 4 15 . 0 0 0 0 Damit gilt rang U = 3 und, da bei der Anwendung des Gaußschen Algorithmus keine Zeilenvertauschungen erforderlich waren, ist B := {a1 , a2 , a3 } Basis von U . (b) Gemäß Problem 2(c) betrachten wir nun die Matrix 1 0 2 5 0 3 4 9 C := −1 3 2 4 . 0 1 0 −2 2 −2 0 −1 Hierauf wenden wir den Gaußschen Algorithmus an, ohne jedoch die letzten drei Zeilen in evtl. erforderliche Vertauschungen bei Behandlung der ersten beiden Zeilen einzubeziehen. Dann entsteht die Matrix 1 0 2 5 0 3 4 9 0 4 C := 0 0 − 3 −5 . 0 0 0 0 0 0 0 0 Da die ersten zwei Zeilen dieser Matrix linear unabhängig sind, ist klar, daß auch b1 , b2 linear unabhängig sind (Problem 2(a)) und wegen rang C = rang C 0 = 3 = rang A gilt b1 , b2 ∈ U (Problem 2(b)). Da bei Anwendung des Gaußschen Algorithmus auf C die 3. und 5. Zeile vertauscht wurden, bildet {b1 , b2 , a2 } (jedoch nicht {b1 , b2 , a1 } !) Basis von U (s. Problem 2(c)). 78 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Mit Hilfe von Lemma 3.40 und Folgerung 3.42 wollen wir nützliche Abschätzungen für den Rang eines Produktes zweier Matrizen herleiten. Lemma 3.49. Sei K ein Körper, und seien m, n, p ∈ N+ sowie A ∈ K m,n , B ∈ K n,p . Dann gilt rangK A + rangK B − n ≤ rangK A · B ≤ min{rangK A, rangK B}. Beweis. Aus Folgerung 3.45 ergibt sich bereits rang A · B ≤ min{rang A, rang B}. Seien P ∈ GlK (m) und Q ∈ GlK (n). Setzen wir A0 := P ·A·Q und B 0 := Q−1 ·B, so gilt rangA0 = rangA, rangB 0 = rangB sowie rangA0 ·B 0 = rangP ·A·B = rangA·B, s. Satz 2.37(4). Daher können wir zum Nachweis der zweiten Ungleichung A durch A0 und B durch B 0 ersetzen. Wir wählennun P und Q so, daß A0 = Em,n;r mit B 00 , wenn B 00 ∈ K r,p die aus den ersten r r := rang A. Dann gilt A0 · B 0 = Om−r,p Zeilen von B 0 bestehende Matrix ist. Nach Satz 3.44 gilt dann rang A0 · B 0 = rang B 00 ≥ rang B 0 − (n − r) = rang A0 + rang B 0 − n, Am Ende dieses Kapitels wollen uns nochmals der Behandlung linearer Gleichungssysteme zuwenden. Insbesondere erhalten wir mit den nun zur Verfügung stehenden Mitteln ein Lösbarkeitskriterium und können im Falle der Lösbarkeit genauere Aussagen über die Struktur der Lösungsmenge treffen. Satz und Definition 3.50 (Lösbarkeitskriterium für lineare Gleichungssysteme). Sei K ein Körper und seien m, n ∈ N, n ≥ 1. Vorgelegt sei ein lineares Gleichungssystem A · XT = bT mit Koeffizientenmatrix A ∈ K m,n und erweiterter Koeffizientenmatrix B := (A bT ) ∈ K m,n+1 . Mit L bezeichnen wir seine Lösungsmenge und mit L0 die Lösungsmenge des zugehörigen homogenen Systems A · XT = 0 (L, L0 ⊆ K n ). Dann gilt (1) Das System ist lösbar (d. h. es gilt L 6= ∅) genau dann, wenn rang A = rangB (”Rang der Koeffizientenmatrix = Rang der erweiterten Koeffizientenmatrix”). (2) L0 ist Untervektorraum von K n mit rang L0 = n − rang A. (3) Das System sei lösbar und c ∈ L sei eine Lösung. Dann gilt L = c + L0 . 3.4. VEKTORRÄUME 79 Die Anzahl der frei wählbaren Parameter, die zur Darstellung von L (und L0 ) erforderlich sind, ist gleich n−rangA (= rangL0 ). Diese Zahl heißt Rang, oft auch - wie bei Vektorräumen - Dimension von L, kurz rangK L oder rang L. Es gilt also rang L = n − rang A. Bemerkung 3.51. Im Falle der Lösbarkeit ist L ein Element von K n /L0 . L kann gedeutet werden als die ”um c verschobene” Lösungsmenge des zughörigen homogenen Systems. Beweis. (1) Wir verwenden die Bezeichnungen und Ergebnisse aus dem Beweis von Satz 3.44. Da S(A) ⊆ S(B) = S(A) + Kb, gilt rang S(A) ≤ rang S(B) ≤ 1 + rang S(A) (s. Folgerung 3.42), d. h. wir haben rang A ≤ rang B ≤ 1 + rang A. Ist das System lösbar und ist c ∈ L, so gilt b ∈ S(bT ) = S(A · cT ) ⊆ S(A), d. h. wir haben S(A) = S(B) und damit rang A = rang B. Gelte nun umgekehrt rang A = rang B. Dann folgt rang S(A) = rang S(B), und somit S(A) = S(B) nach Lemma 3.40(4). Folglich gilt aber b ∈ S(A), d. h. es gibt c ∈ K n mit bT = A · cT . Damit ist aber c Lösung des Systems. (2) Nach Übungsaufgabe 10 ist L0 K-Untervektorraum von K n (s. Lemma 3.8). Sei {c1 , . . . , cs } Basis von L0 mit s := rang L0 . Wir setzen C := (cT1 , . . . , cTs ) ∈ K n,s . Dann gilt A · C = O und aus Lemma 3.49 folgt rang A + rang C − n ≤ rang A · C = 0, also rang L0 = rang C ≤ n − rangA. Wir wählen nun P ∈GlK (m), Q ∈ GlK (n) mit P ·A·Q = Em,n;r , r := rang A, Or,n−r und setzen D := Q · . Dann gilt rang D = rang Z(D) = rang K n−r = En−r n − r und wir haben Or,n−r −1 −1 −1 A · D = P · Em,n;r · Q · D = P · Em,n;r · = O. En−r Da somit S(D) ⊆ L0 , gilt rang L0 ≥ rang S(D) = rang D = n − r, also rang L0 = n − r. (3) folgt nun aus Lemma 2.38 und Lemma 1.9, Sei n ∈ N+ . Wir kommen nun abschließend zur Charakterisierung der Lösungsmengen homogener linearer Gleichungssysteme in n Unbestimmten. Zusammen mit der Bemerkung 3.51 haben wir damit eine Charakterisierung der Lösungsmengen beliebiger linearer Gleichungssysteme in n Unbestimmten gefunden. Dies löst Problem (B) aus Abschnitt 1.2. Satz 3.52. Sei K ein Körper und sei n ∈ N+ . Dann gilt: 80 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (1) Eine Teilmenge L0 ⊆ K n ist Lösungsmenge eines homogenen linearen Gleichungssystems in n Unbestimmten mit Koeffizienten aus K genau dann, wenn L0 Untervektorraum von K n ist. (2) Eine Teilmenge L ⊆ K n ist Lösungsmenge eines linearen Gleichungssystems in n Unbestimmten mit Koeffizienten aus K genau dann, wenn L = ∅ oder L = c + V mit c ∈ K n und einem Untervektorraum V von K n . Beweis. Sei L (L0 ) ⊆ K n Lösungsmenge eines linearen (homogenen) Gleichungssystems in n Unbestimmten mit Koeffizienten aus K. Nach Satz 3.50(2,3) ist L0 Untervektorraum von K n und, falls L 6= ∅, L = c + V mit c ∈ K n und einem Untervektorraum V von K n . n Sei nun L0 Untervektorraum von K und sei {c1 , . . . , cm } Erzeugendensystem c1 .. von L0 . Wir setzen C := . ∈ K m,n . L00 sei Lösungsmenge des linearen cm homogenen Gleichungssystems C · XT = 0 in n Unbestimmten. Dann gilt nach Satz und Definition 3.50(2) mit r := rang L00 r = n − rang C = n − rang L0 . a1 Sei nun {a1 , . . . , ar } Basis von L00 und A := ... ∈ K r,n . Wegen C · aTi = 0, i = ar T 1, . . . , r, haben wir C ·A = 0 und folglich A·C T = (CAT )T = 0, d. h. c1 , . . . , cm ∈ L000 , wenn L000 die Lösungsmenge des linearen homogenen Gleichungssystems A · XT = 0 in n Unbestimmten bezeichnet. Daher gilt L0 ⊆ L000 . Weil rang L000 = n − rang A = n − r = n − (n − rang L0 ) = rang L0 (s. Satz 3.50(2)), folgt L0 = L000 nach Lemma 3.40(4) und damit ist (1) gezeigt. Sicher ist ∅ Lösungsmenge eines (unlösbaren) linearen Gleichungssystems in n Unbestimmten (z. B. 0 = 1). Sei also L = c + V , wobei c ∈ K n und V Untervektorraum von K n ist. V sei Lösungsmenge des linearen homogenen Gleichungssystems A · XT = 0 in n Unbestimmten, wobei A ∈ K m,n (s. (1)). Wir setzen b := cAT . Dann ist L Lösungsmenge des linearen Gleichungssystems A · XT = bT , wie man sofort bestätigt, Beispiel 3.53. Sei V der von (−2, 1, 0, 1), (−2, 0, 1, 0) und (0, 1, −1, 1) erzeugte Untervektorraum des R4 . Welches lineare homogene Gleichungssystem hat V als Lösungsmenge? 3.4. VEKTORRÄUME 81 Lösung: Nach der Vorgehensweise im Beweis von Satz 3.52(1) müssen wir zunächst Gleichungssystems C · XT = 0 bedie Lösungsmenge L00 des linearen homogenen −2 1 0 1 stimmen, wobei C := −2 0 1 0. Anwendung des Gaußschen Algorith0 1 −1 1 −2 1 0 1 mus führt C über in C 0 := 0 −1 1 −1, so daß 0 0 0 0 L00 = {t1 ( 21 , 1, 1, 0) + t2 (0, −1, 0, 1) | t1 , t2 ∈ R} = R{( 12 , 1, 1, 0), (0, −1, 0, 1)}. Damit ist V Lösungsmenge des linearen homogenen Gleichungssystems 1 1 1 0 2 · XT = 0, d. h. von 0 −1 0 1 1 X 2 1 + X2 + X3 = 0 − X2 + X4 = 0. 82 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Kapitel 4 Lineare Abbildungen Alle Ringe mögen ein vom Nullelement verschiedenes Einselement besitzten. Bis jetzt haben wir (algebraische) Strukturen untersucht. In diesem Abschnitt beginnen wir nun, solche Strukturen miteinander zu ”vergleichen”, d. h. wir betrachten Abbildungen zwischen ihnen, die die jeweilige Struktur ”respektieren”. Dabei wird es zunächst im wesentlichen um Moduln bzw. spezieller um Vektorräume gehen. 4.1 Grundbegriffe Definition 4.1. (a) Seien (H; ◦), (H 0 ; •) Halbgruppen (Monoide mit neutralen Elementen e bzw. e0 ). Eine Abbildung f : H → H 0 heißt (Monoid-)Homomorphismus, wenn für alle a, b ∈ H gilt f (a ◦ b) = f (a) • f (b) (und f (e) = e0 ). (b) Seien R, R0 Ringe. Eine Abbildung f : R → R0 heißt Ringhomomorphismus, wenn f Homomorphismus in Bezug auf die jeweiligen additiven abelschen Gruppen sowie Monoidhomomorphismus in Bezug auf die jeweiligen multiplikativen Monoide ist, d. h. wenn für alle a, b ∈ R gilt f (a + b) = f (a) + f (b), f (a · b) = f (a) · f (b) und f (1R ) = 1R0 . (c) Injektive (Monoid-, Ring-)Homomorphismen heißen Monomorphismen, surjektive Epimorphismen und bijektive Isomorphismen (ggf. mit dem Zusatz ”Monoid-” bzw. ”Ring-”). 83 84 KAPITEL 4. LINEARE ABBILDUNGEN Bemerkungen 4.2. 1. Seien H, H 0 Halbgruppen (Monoide, Ringe) mit H ⊆ H 0 . Genau dann ist H Unterhalbgruppe (Untermonoid, Unterring) von H 0 , wenn die Einbettung H ⊆ H 0 (Monoid-, Ring-)Homomorphismus ist. 2. Sei H eine Halbgruppe bzw. ein Monoid. Die Potenzgesetze besagen (s. Übungsaufgabe I 31(a)), dass für jedes a ∈ H die durch n 7→ an für alle n ∈ N+ bzw. n ∈ N gegebene Abbildung N+ → H bzw. N → H Homomorphismen sind (wobei die N+ bzw. N zugrunde liegende Operation die Addition sei). 3. Seien M, M 0 Monoide. Fassen wir M.M 0 lediglich als Halbgruppen auf, so ist nicht jeder Homomorphismus f : M → M 0 automatisch ein Monoidhomomorphismus. Ein einfaches Beispiel hierfür liefert Bemerkung 2.14.3: Mit den dortigen Bezeichnungen setzte man M = A, M 0 = B und wähle für f die Einnbettung B ⊆ A. Daher hat man zwischen ”Homomorphismen” und ”Monoidhomomorphismen” zu unterscheiden. Sind jedoch Verwechslungen ausgeschlossen. so lässt man bei Monoidhomomorphismen den Zusatz ”Monoid” in der Regel weg, s. auch Bemerkung 4.4. 4. Ein Ringhomomorphismus respektiert definitionsgemäß die Einselemente. Aus dem nachfolgenden Lemma 4.3 ergibt sich, daß er dann auch die Nullelemente sowie die Inversenbildung bzgl. der Addition und - falls ausführbar - bzgl. der Multiplikation respektiert, s. Bemerkung 4.4. Lemma 4.3. Seien M, M 0 Monoide. (1) Sei f : M → M 0 Monoidhomomorphismus. Für alle a ∈ M ∗ gilt dann f (a) ∈ M 0 ∗ , genauer f (a−1 ) = f (a)−1 . Damit induziert f durch Einschränkung einen Homomorphismus ∗ f∗ : M∗ → M0 , den man der Einfachheit halber meist auch nur mit f bezeichnet. (2) Ist M 0 eine Gruppe, so ist jeder Homomorphismus M → M 0 bereits Monoidhomomorphismus. Insbesondere ist jeder Homomorphismus zwischen Gruppen ein Monoidhomomorphismus. Beweis. Seien e bzw. e0 die neutralen Elemente von M bzw. M 0 . (1) Sei a ∈ M ∗ . Da f (a)f (a−1 ) = f (aa−1 ) = f (e) = e0 und f (a−1 )f (a) = f (a−1 a) = f (e) = e0 , gilt f (a) ∈ H 0 ∗ und f (a)−1 = f (a−1 ). Der Rest ist wieder klar. 4.1. GRUNDBEGRIFFE 85 (2) Für jeden Homomorphismus f : M → M 0 gilt e0 = f (e)f (e)−1 = f (ee)f (e)−1 = f (e)f (e)f (e)−1 = f (e) , Bemerkung 4.4. Die Aussagen von Lemma 4.3 besagen insbesondere, dass jeder Homomorphismus zwischen Gruppen bereits die neutralen Elemente und die Inversenbildungen respektiert, also ein ”Gruppenhomomorphismus” ist. Daher reicht es in diesen Fällen, nur von ”Homomorphismen” zu sprechen. Vorsicht ist - wie gesagt - lediglich geboten, wenn es dabei um Monoide geht, die keine Gruppen sind, s. auch Bemerkung 4.2.3. Lemma 4.5. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f : H → H 0 (Monoid-, Ring-) Homomorphismus. Dann gilt (1) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U von H ist f (U ) := {f (a) | a ∈ U } Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 . (2) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U 0 von H 0 mit U 0 ∩ Bild f 6= ∅ ist f −1 (U 0 ) := {a ∈ H | f (a) ∈ U 0 } Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, wobei die Bedingung ” U 0 ∩ Bild f 6= ∅ ” im Monoid- oder Ringfall stets erfüllt ist. (3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von H und U 0 von H 0 mit f (U ) ⊆ U 0 induziert f durch Einschränkung einen (Monoid-, Ring-)Homomorphismus f 0 : U → U 0 . (4) Mit den Bezeichnungen von (3) gilt: Ist f Monomorphismus, so auch f 0 . Wenn U 0 = f (U ), so ist f 0 Epimorphismus. (5) Ist f (Monoid-, Ring-)Isomorphismus, so ist auch f −1 (Monoid-, Ring-)Isomorphismus. Beweis. (1) Sicher gilt f (U ) 6= ∅ und e0 = f (e) ∈ f (U ), wenn H, H 0 Monoide mit neutralen Elementen e bzw. e0 sind und f Monoidhomomorphismus ist. Seien a0 , b0 ∈ f (U ). Wir wählen a, b ∈ U mit a0 = f (a), b0 = f (b) und erhalten a0 b0 = f (a)f (b) = f (ab) ∈ f (U ). Nach Bemerkung 2.14.2, 3 ist f (U ) damit Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist mit Lemma 4.3 und Bemerkung 2.14.4 klar. 86 KAPITEL 4. LINEARE ABBILDUNGEN (2) Wegen U 0 ∩ Bild f 6= ∅ gilt f −1 (U 0 ) 6= ∅. Sind H, H 0 Monoide mit neutralen Elementen e, e0 und ist f Monoidhomomorphismus, so gilt f (e) = e0 ∈ U 0 ∩ Bild f , also U 0 ∩ Bild f 6= ∅ und e ∈ f −1 (U 0 ). Seien nun a, b ∈ f −1 (U 0 ). Da f (ab) = f (a)f (b) ∈ U 0 , gilt ab ∈ f −1 (U 0 ) und nach Bemerkung 2.14 ist f (U ) damit Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist wiederum nach Lemma 4.3 klar. (3) ist mit (1) bzw. (2) klar. (4) ergibt sich aus einfachen mengentheoretischen Überlegungen. (5) Seien a0 , b0 ∈ H 0 . Wegen f (f −1 (a0 )f −1 (b0 )) = f (f −1 (a0 ))f (f −1 (b0 ))) = a0 b0 , folgt f −1 (a0 )f −1 (b0 ) = f −1 (a0 b0 ). Sind H, H 0 Monoide mit neutralen Elementen e bzw. e0 und ist f Monoidisomorphismus, so gilt f −1 (e0 ) = e, denn f (e) = e0 . Der Rest ist damit klar, Folgerung 4.6. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f : M → M 0 (Monoid-, Ring-) Homomorphismus. Dann gilt (1) Durch U 7→ f (U ), U Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, ist eine inklusionserhaltende Abbildung Φ von der Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H in die Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H 0 gegeben. (2) Durch U 0 7→ f −1 (U 0 ), U 0 Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 mit U 0 ∩ Bildf 6= ∅, ist eine inklusionserhaltende Abbildung Φ0 von der Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H 0 , die mit Bild f einen nicht leeren Durchschnitt haben, in die Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H gegeben. (3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von H gilt U ⊆ f −1 (f (U )) . (4) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U 0 von H 0 gilt f (f −1 (U 0 )) = U 0 ∩ Bild f . Beweis. (1) und (2) ergeben sich mit einfachen mengentheoretischen Überlegungen unmittelbar aus Lemma 4.5 (1) und (2). (3) und (4) sind elementare mengentheoretische Aussagen, 4.1. GRUNDBEGRIFFE 87 Definition 4.7. Sei R ein Ring und seien M, N Links-R-Moduln. Eine Abbildung f :M →N heißt R-linear oder R-Homomorphismus, wenn für alle m, m0 ∈ M und alle r ∈ R gilt (i) f (m + m0 ) = f (m) + f (m0 ) und (ii) f (rm) = rf (m). Sind Verwechslungen ausgeschlossen, so spricht man nur von linearen Abbildungen bzw. von Homomorphismen. (a) Injektive (surjektive, bijektive) R-Homomorphismen heißen R-Monomorphismen (R-Epimorphismen, R-Isomorphismen), wobei der Zusatz ”R-” ggf. weggelassen werden kann, s. oben. (b) Mit HomR (M, N ) bezeichnet man die Menge aller R-Homomorphismen von M nach N . Bemerkungen, Beispiele 4.8. 1. Ist K ein Körper und sind V, W K-Vektorräume, so wird statt des Begriffes ”K-Homomorphismus” häufiger die Bezeichnung ”K-lineare Abbildung” oder manchmal auch ”K-linearer Operator” verwendet. 2. Mit den Bezeichnungen von Definition 4.7 besagt (i), daß ein R-Homomorphismus f : M → N ein Homomorphismus der unterliegenden abelschen Gruppen ist. Damit gilt insbesondere f (0M ) = 0N und f (−m) = −f (m) für alle m ∈ M . 3. Wie man sofort sieht, sind (i) und (ii) aus Definition 4.7 äquivalent zu f (rm + r0 m0 ) = rf (m) + r0 f (m0 ) für alle m, m0 ∈ M, r, r0 ∈ R. Induktiv über n ∈ N+ folgt hieraus, daß f (r1 m1 + . . . + rn mn ) = r1 f (m1 ) + . . . + rn f (mn ) für alle m1 , . . . , mn ∈ M, r1 , . . . , rn ∈ R, d. h. eine R-lineare Abbildung führt eine Linkslinearkombination von Elementen aus M in die entsprechende Linkslinearkombination der jeweiligen Bildelemente über. 4. Sei R ein Ring. Die Aussagen der Lemmata 4.5 und 4.3 sowie von Folgerung 4.6 gelten ganz analog für R-Homomorphismen zwischen Links- bzw. Rechts-R-Moduln. 5. Sei R ein Ring. Für Links-R-Moduln M, N ist die durch m 7→ 0N für alle m ∈ M gegebene Abbildung offensichtlich ein R-Homomorphismus. Er heißt Nullhomomorphismus oder Nullabbildung und wird meist kurz mit 0 bezeichnet. Damit gilt übrigens HomR (M, N ) 6= ∅. 88 KAPITEL 4. LINEARE ABBILDUNGEN 6. Die Hintereinanderschaltung von R-Homomorphismen ist wieder R-Homomorphismus. 7. Sei A eine abelsche Gruppe und X eine Menge. Dann ist Abb(X, A) mit der punktweisen Addition wieder eine abelsche Gruppe. (Für f, g ∈ Abb (X, A) ist f + g ∈ Abb (X, A) definiert durch (f + g)(x) := f (x) + g(x) für alle x ∈ X, s. auch Bemerkung 3.6.7.) Ist nun R ein Ring und sind M, N Links-R-Moduln, so ist HomR (M, N ) Untergruppe von Abb (M, N ), wie man sofort bestätigt, und demnach selbst eine abelsche Gruppe (”Homomorphismen können addiert werden”). Hierfür gilt: (f1 + f2 ) ◦ g = f1 ◦ g + f2 ◦ g und f ◦ (g1 + g2 ) = f ◦ g1 + f ◦ g2 , wenn f, f1 , f2 ∈ HomR (N, P ), g, g1 , g2 ∈ HomR (M, N ) für Links-R-Moduln M, N, P . Ist R kommutativ, so ist für r ∈ R und f ∈ HomR (M, N ) durch (rf )(m) := rf (m) (= f (rm)) für alle m ∈ M ein R-Homomorphismus rf : M → N erklärt. Dadurch ist eine Operation von R auf HomR (M, N ) definiert. Man sieht sofort, daß HomR (M, N ) damit selbst ein R-Modul ist und daß (rf ) ◦ g = r(f ◦ g) = f ◦ (rf ). 8. Sei R ein Ring und M ein Links-R-Modul. Mit der punktweisen Addition und der Hintereinanderschaltung als Multiplikation ist HomR (M, M ) nach 7. ein Ring, s. auch Definition 4.12 unten. 9. Sei R ein kommutativer Ring und M ein R-Modul. Für jedes r ∈ R ist die durch m 7→ rm für alle m ∈ M definierte Abbildung hr : M → M ein R-Homomorphismus und heißt Homothetie oder Streckung (von M ) mit r. h r r Statt M −→ M schreiben wir meist kurz M −→ M . Dabei ist h1R = idM und h0R = 0. Außerdem gilt hr+s = hr + hs und hrs = hr ◦ hs , r, s ∈ R, wie man sofort bestätigt. Damit haben wir: Die Abbildung h : R → HomR (M, M ), die für alle r ∈ R durch h(r) := hr definiert ist, ist ein Ringhomomorphismus. 10. Für k ∈ N ∪ {∞} sei CkR (I) der R-Vektorraum der auf dem Intervall I ⊆ R k-mal stetig differenzierbaren Funktionen (s. Beispiel 3.6.6). Für k > 0 definieren wir D : CkR (I) → CRk−1 (I) durch D(f ) := f 0 (Ableitung von f ) für alle f ∈ CkR (I). Da (f +g)0 = f 0 +g 0 und (αf )0 = αf 0 für alle f, g ∈ CkR (I) und alle α ∈ R, ist D eine R-lineare Abbildung. (Für k = ∞ sei k − 1 := ∞.) 4.1. GRUNDBEGRIFFE 89 11. Sei R ein Ring, M ein Links-R-Modul und U ein Links-R-Untermodul von M . Durch m 7→ m + U ∈ M/U , m ∈ M , ist ein R-Epimorphismus π : M → M/U erklärt. Er wird als kanonischer Homomorphismus (Epimorphismus) bezeichnet, s. auch Satz 4.22(1). Definition 4.9. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Homomorphismus. Wir setzen (a) Kern f := {m | m ∈ M, f (m) = 0N } ⊆ M (b) Bild f := {f (m) | m ∈ M } = f (M ) ⊆ N (c) Kokern f := N/Bild f (Kern von f ) (Bild von f ) (Kokern von f ). Lemma 4.10. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Homomorphismus. Dann gilt: (1) Kern f ist Links-R-Untermodul von M , Bild f ist Links-R-Untermodul von N und durch m 7→ f (m), m ∈ M , ist ein R-Epimorphismus f 0 : M → Bild f gegeben mit f = ι ◦ f 0 , wenn ι die Einbettung Bild f ⊆ N bezeichnet. (2) (Injektivitätskriterium) f ist Monomorphismus genau dann, wenn Kern f = 0. (3) (Surjektivitätskriterium) f ist Epimorphismus genau dann, wenn Kokern f = 0. Beweis. (1) ergibt sich wegen Kern f = f −1 (0) aus Lemma 4.5(1)-(3) zusammen mit Bemerkung 4.8.4. (2) Sei f Monomorphismus und sei m ∈ Kern f . Da dann f (m) = 0N = f (0M ), folgt m = 0M und damit Kern f = 0. Es gelte nun Kern f = 0. Wenn für m, m0 ∈ M gilt f (m) = f (m0 ), so folgt f (m − m0 ) = f (m) − f (m0 ) = 0N , d. h. m − m0 ∈ Kern f = 0. Wir haben also m − m0 = 0M , d. h. m = m0 , und damit ist f Monomorphismus. (3) f Epimorphismus ⇐⇒ Bild f = N ⇐⇒ Kokern f = N/Bild f = 0, Wir werden nun u. a. Ergebnisse aus Folgerung 4.6 verschärfen. Dies wird für zahlreiche Anwendungen von zentraler Bedeutung sein. Lemma 4.11. Sei R ein Ring und seien M, M 0 Links-R-Moduln. Ferner sei f : M → M 0 ein R-Homomorphismus. Dann gilt für alle Links-R-Untermoduln U von M und alle Links-R-Untermoduln U 0 von M 0 f −1 (f (U )) = U + Kern f und f (f −1 (U 0 )) = U 0 ∩ Bild f . 90 KAPITEL 4. LINEARE ABBILDUNGEN Damit induzieren die Abbildungen Φ bzw. Φ0 aus Folgerung 4.6(1) bzw. (2) zueinander inverse bijektive Abbildungen zwischen der Menge der Links-R-Untermoduln von M , die Kern f enthalten, und der Menge Links-R-Untermoduln von Bild f . Beweis. Nach Folgerung 4.6 ist nur noch zu zeigen, daß für alle Links-R-Untermoduln U von M gilt f −1 (f (U )) = U + Kern f . Sei also U ein Links-R-Untermodul von M . Es ist klar, daß U + Kern f ⊆ f −1 (f (U )). Sei m ∈ f −1 (f (U )). Dann gilt f (m) ∈ f (U ) und folglich gibt es ein u ∈ U mit f (m) = f (u), also f (m − u) = 0N . Somit gilt m − u ∈ Kern f , d. h. m ∈ U + Kern f . Wir haben daher f −1 (f (U )) ⊆ U + Kern f , also f −1 (f (U )) = U + Kern f , Definition 4.12. Sei R ein Ring. (a) Links-R-Moduln M, N heißen R-isomorph, kurz M ∼ = N , wenn es einen RIsomorphismus f : M → N gibt. (b) Sei M ein Links-R-Modul. R-Homomorphismen von M in sich heißen REndomorphismen von M , bijektive R-Endomorphismen von M werden RAutomorphismen von M genannt. (c) Wir setzen EndR (M ) := HomR (M, M ) sowie AutR (M ) := {f ∈ EndR (M ) | f bijektiv} Bemerkungen 4.13. 1. Mit punktweiser Addition und Hintereinanderschaltung als Multiplikation bildet EndR (M ) nach Bemerkung 4.8.8 einen Ring mit Einselement idM . Man nennt ihn Endomorphismenring von M . Ist R kommutativ, so ist EndR (M ) nach Bemerkung 4.8.7 sogar eine R-Algebra (s. Bemerkung 3.6.8). 2. Nach Lemma 4.5(5) gilt AutR (M ) = EndR (M )∗ . Nach Bemerkung 2.11.2 bildet AutR (M ) daher mit der Hintereinanderschaltung eine Gruppe, die Automorphismengruppe von M . 3. In Definition 2.25 hatten wir für n ∈ N+ die n-te allgemeine lineare Gruppe GlR (n) über R eingeführt. In Bemerkung 4.39.3 werden wir sehen, daß GlR (n) ∼ = AutR (Rn ). Daher verwendet man für die Automorphismengruppe von M auch die Bezeichnung GlR (M ) und nennt sie dann entsprechend allgemeine lineare Gruppe von M . Im folgenden Lemma wollen wir u. a. untersuchen, wann die Bilder linear unabhängiger Elemente unter einem Homomorphismus wieder linear unabhängig sind. 4.1. GRUNDBEGRIFFE 91 Lemma 4.14. Sei R ein Ring und seien M, N Links-R-Moduln. f : M → N sei ein R-Homomorphismus. Ferner seien m1 , . . . , mp ∈ M und E ⊆ M . Dann gilt: (1) Wenn f (m1 ), . . . , f (mp ) ∈ N linear unabhängig sind, so sind auch m1 , . . . , mp linear unabhängig. (2) Wenn f Monomorphismus ist, so sind f (m1 ), . . . , f (mp ) ∈ N genau dann linear (un)abhängig, wenn m1 , . . . , mp ∈ M linear (un)abhängig sind. (3) Ist f ein Epimorphismus und ist E Erzeugendensystem von M , so ist f (E) Erzeugendensystem von N . Beweis. (1) Wenn für r1 , . . . , rp ∈ R gilt r1 m1 + . . . + rp mp = 0M , so folgt (s. Bemerkung 4.8.3) r1 f (m1 )+. . .+rp f (mp ) = f (r1 m1 +. . .+rp mp ) = f (0M ) = 0N und damit r1 = . . . = rp = 0R , d. h. m1 , . . . , mp sind linear unabhängig. (2) Nach (1) reicht es zu zeigen, daß für injektives f aus der linearen Unabhängigkeit von m1 , . . . , mp die lineare Unabhängigkeit von f (m1 ), . . . , f (mp ) folgt. Seien also m1 , . . . , mp linear unabhängig und gelte r1 f (m1 ) + . . . + rp f (mp ) = 0N , wobei r1 , . . . , rp ∈ R. Dann folgt f (r1 m1 + . . . + rp mp ) = r1 f (m1 ) + . . . + rp f (mp ) = 0N = f (0M ), also r1 m1 + . . . + rp mp = 0M wegen der Injektivität von f . Da m1 , . . . , mp linear unabhängig sind, erhalten wir hieraus r1 = . . . = rp = 0R , d. h. f (m1 ), . . . , f (mp ) sind linear unabhängig. (3) Nach Bemerkung 4.8.3 gilt f (RE) = Rf (E) und wegen der Surjektivität von f folgt damit N = f (M ) = f (RE) = Rf (E), Folgerung 4.15. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Monomorphismus und X Teilmenge von M . (1) X ist linear unabhängig genau dann, wenn f (X) linear unabhängig ist. (2) Sei M frei und sei f Isomorphismus. Dann ist auch N frei. Ist dabei X Basis von M , so ist f (X) Basis von N . Ist R kommutativ oder X unendlich, so gilt rangR M = rangR N . Folgerung 4.16. Sei K ein Körper und seien V, W K-Vektorräume. Ferner sei f : V → W ein K-Monomorphismus. Dann gilt rangK X = rangK f (X) für jede Teilmenge X von V . Beweis. Indem wir V durch KX und W durch Kf (X) = f (KX) ersetzen, dürfen wir o. B. d. A. annehmen, daß f surjektiv und damit bijektiv, also ein Isomorphismus ist. Die Behauptung ergibt sich dann aber aus Folgereung 4.15(2), 92 4.2 KAPITEL 4. LINEARE ABBILDUNGEN Koordinaten Sei R ein Ring, F ein freier Links-R-Modul und f ∈ F . Ist B Basis von F , so gibt es nach Satz 3.27(1) für jedes b ∈ BP ein eindeutig bestimmtes rf,b ∈ R, so daß rf,b = 0R für fast alle b ∈ B und f = b∈B rf,b b. Sei f ∈ F . Durch b 7→ rf,b , b ∈ B, ist damit eine Abbildung κf : B → R gegeben mit κf (b) = 0R für fast alle b ∈ B, d. h. κf ∈ R(B) = {ϕ | ϕ : B → R, ϕ(b) = 0R für fast alle b ∈ B} , s. Bemerkung 3.9.3. P Ist umgekehrt ϕ ∈ R(B) und setzen wir kϕ := b∈B ϕ(b)b ∈ F , so gilt P für alle f ∈ F und kκf = b∈B κf (b)b = f κkϕ = ϕ für alle ϕ ∈ R(B) , denn für b ∈ B gilt κfϕ (b) = ϕ(b). Damit sind durch f 7→ κf , f ∈ F , und ϕ 7→ kϕ , ϕ ∈ R(B) , zueinander inverse Abbildungen κ : F → R(B) und k : R(B) → F gegeben. Insbesondere ist κ bijektiv. Definition 4.17. Sei R ein Ring und F ein freier Links-R-Modul. B sei Basis von F . (a) Für f ∈ F heißt das oben beschriebene Element κf ∈ R(B) Koordinatenvektor (manchmal auch Darstellungsvektor) von f bezüglich B. (b) Die oben definierte bijektive Abbildung κ : F → R(B) , die jedem Element f ∈ F seinen Koordinatenvektor κf ∈ R(B) zuordnet, heißt Koordinatenabbildung bezüglich B. Um diese Abhängigkeit von B auszudrücken, schreibt man auch κB statt nur κ und entsprechend für f ∈ F κB,f statt κf . Lemma 4.18. Sei R ein Ring und F ein freier Links-R-Modul. Für jede Basis B von F ist die Koordinatenabbildung κB : F → R(B) ein R-Isomorphismus. Beweis. Sei B Basis von F . Nach Lemma 4.5(4) und Bemerkung 4.8.4 reicht es zu zeigen, daß die zu κB inverse Abbildung kB : R(B) → F ein R-Homomorphismus ist. Seien hierzu ϕ, ϕ1 , ϕ2 ∈ R(B) und r ∈ R. Dann gilt X X kB (ϕ1 + ϕ2 ) = (ϕ1 + ϕ2 )(b)b = (ϕ1 (b) + ϕ2 (b))b b∈B = X b∈B kB (rϕ) = X b∈B b∈B ϕ1 (b)b + X ϕ2 (b)b = kB (ϕ1 ) + kB (ϕ2 ) und b∈B (rϕ)(b)b = X b∈B rϕ(b)b = r X b∈B ϕ(b)b = rkB (ϕ), 4.2. KOORDINATEN 93 Bemerkung 4.19. Sei wieder R ein Ring und F ein freier Links-R-Modul. Wenn F eine endliche Basis besitzt, so ergibt sich eine Besonderheit: Sei B := {b1 , . . . bn } eine Basis von F mit n := #B. Durch ϕ 7→ (ϕ(b1 ), . . . , ϕ(bn )) ∈ Rn , ϕ ∈ R(B) , ist eine bijektive Abbildung R(B) → Rn gegeben, die - wie man sofort bestätigt - ebenfalls ein R-Isomorphismus ist. Dieser hängt natürlich von der gewählten Reihenfolge der b1 , . . . , bn ab. Fixieren wir eine solche Reihenfolge, d. h. betrachten wir statt B = {b1 , . . . bn } das geordnete n-Tupel B := (b1 , . . . bn ), so spricht man von einer geordneten Basis B. Diese gibt dann Anlaß zu einem eindeutig bestimmten Isomorphismus πB : RB (= R(B) ) → Rn , der wie oben definiert ist. Dementsprechend betrachtet man in diesen Fällen statt der Koordinatenabbildung κB : F → RB die Hintereinanderschaltung κB : F → Rn von κB mit obigem Isomorphismus πB , d. h. für f ∈ F gilt dann κB (f ) = (r1 , . . . , rn ), Pn wenn f = i=1 ri bi mit (eindeutig bestimmten) r1 , . . . , rn ∈ R. Das n-Tupel (r1 , . . . , rn ) heißt dann entsprechend Koordinatenvektor von f bezüglich der geordneten Basis B, Schreibweise (r1 , . . . , rn ) =: fB . Beispiel 4.20. Man zeige, daß {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von C3 ist und bestimme den Koordinatenvektor von b := (1, 1 + i, 0) bezüglich der geordneten Basis B := ((1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)) des C3 . Lösung: Basistest und Darstellung eines Vektors als Linearkombination gegebener Vektoren sind Fragestellungen, die allgemein für K-Untervektorräume des K n (K Körper, n ∈ N) mit einem gemeinsamen Ansatz gelöst werden können, s. hierzu auch die Lösung von Problem 2 in Kapitel 3. Wir wollen dies an unserem Beispiel verdeutlichen. Seien hierzu b1 := (1 + i, i, −1), b2 := (0, 2i, 1 − i) und b3 := (1, −1, i) sowie A := (bT1 , bT2 , bT3 ) ∈ C3,3 . Dann gilt b = α1 b1 + α2 b2 + α3 b3 mit α1 , α2 , α3 ∈ C ⇐⇒ (α1 , α2 , α3 ) ist Lösung von AXT = bT , X := (X1 , X2 , X3 ). Sei nun B die erweiterte Koeffizientenmatrix dieses Systems, d. h. 1+i 0 1 1 2i −1 1 + i . B = (A , b) = i −1 1 − i i 0 Anwendung des modifizierten Gaußschen Algorithmus hierauf führt B über in 1 0 0 −i B 0 := (E3 , b0T ) = 0 1 0 1 , 0 0 1 i 94 KAPITEL 4. LINEARE ABBILDUNGEN wobei b0 := (−i, 1, i). Damit gilt zum einen rang A = 3, d. h. wegen rang C3 = 3 ist {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von C3 (s. Satz 3.43), und zum anderen ist (−i, 1, i) Lösung von AXT = bT . Wir erhalten also (1, 1 + i, 0) = −ib1 + b2 + ib3 = −i(1 + i, i, −1) + (0, 2i, 1 − i) + i(1, −1, i) oder, bei Verwendung unserer obigen Bezeichnung, (1, 1 + i, 0)B = (−i, 1, i). Wir bemerken, daß −i 1 1 = A−1 1 + i , i 0 d. h. (bB )T = A−1 bT , und letzteres gilt dann natürlich für alle b ∈ C3 . Dies läßt sich wie folgt verallgemeinern: Satz 4.21. Sei K ein Körper und V ein K-Vektorraum. b1 , . . . , bn ∈ V seien linear unabhängige Elemente. Mit U bezeichnen wir den von b1 , . . . , bn erzeugten K-Untervektorraum von V . (Dann ist {b1 , . . . , bn } Basis von U .) Seien weiter a1 , . . . , am ∈ U . Für i = 1, . . . , m sei (αi,1 , . . . , αi,n ) ∈ K n Koordinatenvektor von ai bezüglich der geordneten Basis B := (b1 , . . . , bn ) von U . α11 . . . α1n .. . Dann gilt Wir setzen A := ... . αm1 . . . αmn rang {a1 , . . . , am } = rang A. Beweis. Definitionsgemäß ist B := {b1 , . . . , bn } Basis von U . Für i = 1, . . . , m sei ai := (αi,1 , . . . , αi,n ). Dann gilt (s. Satz 3.44): rang A = rang {a1 , . . . , am }. Da {a1 , . . . , am } = κB ({a1 , . . . , am }), ergibt sich die Behauptung daher aus Folgerung 4.16, 4.3. FUNDAMENTALSATZ 4.3 95 Fundamentalsatz der linearen Algebra Unser nächstes Ziel ist, eine Klassifikation aller K-Vektorräume zu erreichen, wenn K ein fester Körper ist. Dabei heißt ”Klassifikation”, einem K-Vektorraum gewisse Daten so zuzuordnen, daß er dadurch bis auf K-Isomorphie eindeutig bestimmt ist. Es ist klar, daß diese Daten invariant gegenüber K-Isomorphismen sein müssen, d. h. solche Daten müssen für isomorphe K-Vektorräume übereinstimmen. Man nennt sie daher auch Invarianten eines K-Vektorraumes. Wir werden dieses Problem etwas allgemeiner lösen, indem wir statt dessen freie Moduln über einem kommutativen Ring R betrachten. Es wird sich herausstellen, daß zur Klassifikation von freien R-Moduln (und damit natürlich auch von Vektorräumen über einem Körper) eine einzige Invariante ausreicht: der Rang, s. Definition 3.31. Wir bemerken, daß der Rang tatsächlich eine Invariante ist, da nach Folgerung 4.15(2) isomorphe freie R-Moduln den gleichen Rang haben. Satz 4.22 (Homomorphiesatz für Moduln). Sei R ein Ring. (1) Sei M ein Links-R-Modul und U ein Links-R-Untermodul von M . Der durch π(m) := m + U für alle m ∈ M definierte kanonische Epimorphismus π : M → M/U (s. Bemerkung 4.8.11) hat folgende Eigenschaft: Für jeden Links-R-Modul N und jeden R-Homomorphismus f : M → N mit U ⊆ Kern f gibt es genau einen R-Homomorphismus g : M/U → N mit f = g ◦ π. (2) Seien M, N Links-R-Moduln und sei f : M → N ein R-Homomorphismus. Es gibt einen R-Isomorphismus ϕ : M/Kernf → Bildf mit f = ι◦ϕ◦π, wenn π : M → M/Kern f den kanonischen Epimorphismus und ι die Einbettung Bild f ⊆ N bezeichnen. ϕ ist durch diese Eigenschaft eindeutig festgelegt. Beweis. (1) Sei f : M → N ein R-Homomorphismus in einen weiteren Links-RModul N mit U ⊆ Kern f . Seien m, m0 ∈ M mit m + U = m0 + U , d. h. m − m0 ∈ U . Wegen U ⊆ Kern f gilt somit m − m0 ∈ Kern f und es folgt f (m) − f (m0 ) = f (m − m0 ) = 0N , d. h. f (m) = f (m0 ). Daher ist durch m + U 7→ f (m), m ∈ M , eine Abbildung g : M/U → N definiert. Offensichtlich gilt hierfür f = g ◦ π und damit ist g nach Übungsaufgabe 9 ein R-Homomorphismus, der zudem durch f = g ◦ π eindeutig bestimmt ist. (2) Nach (1) gibt es einen eindeutig bestimmten R-Homomorphismus g : M/Kern f → N mit f = g ◦ π. Sei m ∈ M , so daß m + Kern f ∈ Kern g. Dann gilt 0N = g(m + Kern f ) = f (m), d. h. m ∈ Kern f und somit m + Kern f = Kern f = 0M/Kern f . Wir haben also Kern g = 0 und Lem- 96 KAPITEL 4. LINEARE ABBILDUNGEN ma 4.10(2) liefert, daß g injektiv, also Monomorphismus ist. Weiter gilt Bild g = {g(m + Kern f ) | m ∈ M } = {f (m) | m ∈ M } = Bild f. Wir setzen (s. Lemma 4.10) ϕ := g 0 . Weil g injektiv ist, ist auch g 0 = ϕ injektiv und damit bijektiv, also Isomorphismus. Da g = ι◦g 0 , gilt f = ι◦ϕ◦π. Wegen der Eindeutigkeit von g und der Injektivität von ι ist auch ϕ eindeutig durch f bestimmt (s. die Modul-Variante von Übungsaufgabe 4), Satz und Definition 4.23 (Prinzip der linearen Fortsetzung). Sei R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. Ferner sei B Basis von F . Dann gilt: Zu jeder Abbildung ϕ : B → N gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ϕ. f heißt (R-)lineare Fortsetzung von ϕ. Beweis. 1. Existenz von f : Sei κ : F → R(B) die Koordinatenabbildung bezüglich B, s. Definition 4.17(b). Der Übersichtlichkeit halber schreiben wir für x ∈ F statt κ(x) einfach wieder κx und setzen X κx (b)ϕ(b) ∈ N. f (x) := b∈B Da für x, y ∈ F , r, s ∈ R gilt (man beachte, daß κ ein R-Homomorphismus ist) f (rx + sy) = X κrx+sy (b)ϕ(b) = (rκx + sκy )(b)ϕ(b) b∈B b∈B = X X (rκx (b) + sκy (b))ϕ(b) b∈B = r X κx (b)ϕ(b) + s b∈B X κx (b)ϕ(b) b∈B = rf (x) + sf (y), ist f ein R-Homomorphismus. Da weiter für c ∈ B gilt X f (c) = κc (b)ϕ(b) = 1R ϕ(c) = ϕ(c), b∈B haben wir auch f |B = ϕ. 2. Eindeutigkeit von f : 4.3. FUNDAMENTALSATZ 97 Sei P g : F → N ein R-Homomorphismus mit g|B = ϕ und sei x ∈ F . Da x = b∈B κx (b)b, erhalten wir ! g(x) = g X b∈B κx (b)b = X κx (b)g(b) = b∈B X κx (b)ϕ(b) = f (x), b∈B d. h. g = f , Bemerkungen 4.24. R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. 1. Nach dem Prinzip der linearen Fortsetzung ist ein R-Homomorphismus f : F → N umkehrbar eindeutig durch die Werte festgelegt, die f auf einer Basis B von F annimmt. Diese Werte können umgekehrt beliebig vorgegeben werden, d. h. es gilt HomR (F, N ) ∼ = Abb (B, N ) = N B . Sind f, g : F → N R-Homomorphismen und gilt f (b) = g(b) für alle b ∈ B, so folgt daher f = g. 2. Wenn es einen R-Isomorphismus f : F → N gibt, so ist nach Folgerung 4.15(2) auch N frei. Ist B Basis von F , so ist die Koordinatenabbildung κB : F → R(B) ein R-Isomorphismus. Damit ist R(B) frei und {κB (b) | b ∈ B} ist Basis von R(B) , s. wiederum Folgerung 3.6 (2). Nun gilt aber für b, c ∈ B: 1R wenn c = b (κB (b))(c) = κb (c) = 0R wenn c 6= b Dies läßt sich nun wie folgt verallgemeinern: Lemma 4.25. Sei R ein Ring und X eine Menge. Für x ∈ X sei ϕx : X → R definiert durch 1R wenn y = x ϕx (y) := , y∈X 0R wenn y 6= x Wir setzen X := {ϕx | x ∈ X}. Dann gilt (1) X ⊆ R(X) (2) R(X) ist frei als Links- und Rechts-R-Modul und X ist jeweils Basis von R(X) . Man nennt diese Basis kanonische Basis von R(X) . (3) Ist R kommutativ oder X unendlich, so gilt rangR R(X) = #X. Beweis. Es ist klar, daß ϕx ∈ R(X) für alle x ∈ X, d. h. es gilt X ⊆ R(X) . 98 KAPITEL 4. LINEARE ABBILDUNGEN Sei ϕ ∈ R(X) . Dann gilt für y ∈ X P P ϕ(y) = ϕ(y)1R = x∈X ϕ(x)ϕx (y) = x∈X ϕ(x)ϕx (y) und P P ϕ(y) = 1R ϕ(y) = x∈X ϕx (y)ϕ(x) = ϕ ϕ(x) (y), x x∈X P P d. h. wir haben ϕ = x∈X ϕ(x)ϕx ∈ RX und ϕ = x∈X ϕx ϕ(x) ∈ X R . Somit ist X Erzeugendensystem von R(X) als Links-R-Modul und als Rechts-R-Modul. Seien nun x1 , . . . , xn paarweise verschiedene Elemente aus X und nehmen wir an, daß r1 ϕx1 + . . . + rn ϕxn = 0R(X) für r1 , . . . , rn ∈ R. Dann gilt für j = 1, . . . , n P P rj = rj 1R = ni=1 ri ϕxi (xj ) = ( ni=1 ri ϕxi ) (xj ) = 0R(X) (xj ) = 0R , d. h. ϕx1 , . . . , ϕxn sind linear unabhängig. Damit ist X linear unabhängige Menge, also Basis von R(X) als Links-R-Modul. Entsprechend ergibt sich, daß X Basis von R(X) auch als Rechts-R-Modul ist wie behauptet. Wir bemerken, daß mit x1 , . . . , xn auch ϕx1 , . . . , ϕxn paarweise verschieden sind und daß damit durch x 7→ ϕx , x ∈ X, eine bijektive Abbildung ψX : X → X gegeben ist. Ist R kommutativ oder X und damit X unendlich, so gilt daher rangR R(X) = #X = #X, s. Definition 3.31, Bemerkungen 4.26. 1. Seien X, R wie in Lemma 4.25. Identifiziert man die Elemente von X ⊆ R(X) vermöge der Bijektion ψX : X → X mit den entsprechenden Elementen von X, so kann man o. B. d. A. X ⊆ R(X) annehmen. Daher nennt man R(X) auch den von X erzeugten freien Linksbzw. Rechts-R-Modul. 2. Sei X endlich, sagen wir, X = {x1 , . . . , xn }. Dann gilt (s. Bemerkung 4.19) R(X) ∼ = Rn , wobei dieser Isomorphismus von einer Reihenfolge der Elemente von X abhängt. Fixieren wir etwa die Reihenfolge (x1 , . . . , xn ) und bezeichnenen den entsprechenden Isomorphismus R(X) ∼ = Rn mit π, so gilt für i = 1, . . . , n π(xi ) = (ϕxi (x1 ), . . . , ϕxi (xn )) = (0R , . . . , 0R , 1R , 0R , . . . , 0R ) = en,i , |{z} i−te Stelle d. h. wir haben π(X) = {en,1 , . . . , en,n }. Folgerung 4.27 (aus Satz 4.23). Sei R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. Sei B Basis von F und C Teilmenge von N . Zu jeder Abbildung ψ : B → C gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ψ. Hierfür gilt: (1) f ist Monomorphismus genau dann, wenn ψ injektiv und ψ(B) ⊆ C linear unabhängig ist. 4.3. FUNDAMENTALSATZ 99 (2) f ist Epimorphismus genau dann, wenn ψ(B) Erzeugendensystem von N ist. Beweis. (1) Ist f Monomorphismus, so ist f injektiv und daher ist ψ wegen ψ = f |B ebenfalls injektiv. Da ψ(B) = f (B), ist ψ(B) nach Lemma 4.14(2) linear unabhängig. Sei nun umgekehrt ψ injektiv und ψ(B) linear unabhängig. Wenn f (m) = 0N für m ∈ F , so schreiben wir m = r1 b1 + . . . + rn bn mit r1 , . . . , rn ∈ R und paarweise verschiedenen b1 , . . . , bn ∈ B. Da dann auch ψ(b1 ), . . . , ψ(bn ) paarweise verschieden und linear unabhängig sind und da r1 ψ(b1 ) + . . . + rn ψ(bn ) = r1 f (b1 ) + . . . + rn f (bn ) = f (r1 b1 + . . . + rn bn = f (m) = 0N , folgt r1 = . . . = rn = 0R und damit m = 0F . Nach dem Injektivitätskriterium (s. Lemma 4.10(2)) ist f ein Monomorphismus. (2) Wegen F = RB und ψ(B) = f (B) haben wir f (F ) = f (RB) = Rf (B) = Rψ(B) und damit gilt f Epimorphismus ⇐⇒ f (F ) = N ⇐⇒ Rψ(B) = N ⇐⇒ ψ(B) Erzeugendensystem von N, Folgerung 4.28 (aus Satz 4.23). Sei R ein Ring und seien X, Y Mengen. Wenn #X = #Y , so gilt R(X) ∼ = R(Y ) . Die Umkehrung ist richtig, wenn R kommutativ oder X unendlich ist. Beweis. Nach Bemerkung 4.26 ist X Basis von R(X) und Y Basis von R(Y ) . Wegen #X = #Y gibt es eine bijektive Abbildung X → Y . Diese setzen wir zu einem R-Homomorphismus f : R(X) → R(Y ) fort. Nach Folgerung 4.27 ist f Isomorphismus. Ist R kommutativ oder ist X unendlich, so ergibt sich die Umkehrung der Aussage aus Folgerung 4.15(2) in Zusammenhang mit Lemma 4.25(3), Folgerung 4.29 (aus Satz 4.23). Sei R ein Ring und M ein (endlich erzeugter) Links-R-Modul. Dann gibt es einen (endlich erzeugten) freien Links-R-Modul F und einen R-Epimorphismus F → M . Beweis. Sei X (endliches) Erzeugendensystem von M . O. B. d. A. gelte X ⊆ R(X) (s. Bemerkung 4.26.1). Weiter sei ϕX : X → M die Einbettung X ⊆ M . Da X nach Lemma 4.25(2) Basis von R(X) (als Links-R-Modul) ist, besitzt ϕX nach 100 KAPITEL 4. LINEARE ABBILDUNGEN Satz 4.23 eine Fortsetzung f : R(X) → M mit f |X = ϕX . Da somit f (X) = ϕX (X) = X, ist f Epimorphismus nach Folgerung 4.27(2), Theorem 4.30 (Fundamentalsatz der linearen Algebra). Sei R ein kommutativer Ring. (1) Sei V ein freier R-Modul und sei B Basis von V . Dann gilt V ∼ = R(B) . (2) Freie R-Moduln V, W sind isomorph genau dann, wenn rangR V = rangR W . (3) Für jede Kardinalzahl λ gibt es bis auf Isomorphie genau einen freien RModul vom Rang λ. Beweis. (1) Dies ergibt sich sofort aus Lemma 4.18 mit der Koordinatenabbildung κB : V → R(B) . (2) Wenn V ∼ = W , so gilt rangR V = rangR W nach Folgerung 4.15(2). Sei also umgekehrt rangR V = rangR W . Wir wählen Basen B von V und C von W . Da #B = rang V = rang W = #C, haben wir R(B) ∼ = R(C) nach Folgerung 4.28. Nach (1) erhalten wir dann Isomorphismen −1 κC κB V −→ R(B) ∼ = R(C) −→ W. (3) Sei nun λ eine Kardinalzahl und sei X Menge mit #X = λ. Nach Lemma 4.25(3) gilt dann rangR R(X) = #X = λ, Folgerung 4.31. Sei R ein kommutativer Ring. Bis auf Isomorphie sind die R-Moduln Rn , n = 0, 1, . . ., die einzigen endlich erzeugten freien R-Moduln. Dabei gilt Rm ∼ 6= Rn für alle m, n ∈ N mit m 6= n. Folgerung 4.32. Sei K ein Körper. K-Vektorräume V, W sind isomorph genau dann, wenn rangK V = rangK W . Für jede Kardinalzahl λ gibt es bis auf Isomorphie genau einen K-Vektorraum vom Rang λ. Satz 4.33 (Rangformel). Sei K ein Körper und sei f : V → W eine K-lineare Abbildung, wobei V, W K-Vektorräume sind. Dann gilt rangK V = rangK Kern f + rangK Bild f. Beweis. Sei zunächst rang V < ∞, d. h. V ist endlich erzeugt. Dann ergibt sich aus Satz 3.41(1) zusammen mit Satz 4.22(2): rang V = rang Kern f + rang V /Kern f = rang Kern f + rang Bild f. Sei nun rang V = ∞, d. h. V ist nicht endlich erzeugt. Wenn auch Kern f nicht endlich erzeugt ist, so sind wir fertig. Nehmen wir also an, Kern f sei endlich 4.4. MATRIZENDARSTELLUNGEN 101 erzeugt. Sei B Basis von Kern f . Wir ergänzen B durch eine linear unabhängige Menge Z ⊂ V \ B zu einer Basis B ∪ Z von V (s. Folgerung 3.35). Nach Lemma 3.33(2) ist Z̄ := {z + Kern f | z ∈ Z} Basis von V /Kern f . Da rang V = ∞ und rangKernf < ∞, ist Z unendlich. Nach Lemma 3.33(3) ist Z̄ ebenfalls unendlich, d. h. rang Bild f = ∞ und wir sind fertig, 4.4 Matrizendarstellungen linearer Abbildungen Obwohl einige der nachfolgenden Resultate auch allgemeiner gelten, wollen wir uns hier auf die Untersuchung endlich erzeugter freier Moduln über kommutativen Ringen beschränken. Wenn nicht ausdrücklich anders gesagt, sind in diesem Abschnitt alle betrachteten Ringe kommutativ und alle Moduln sind endlich erzeugt. Sei nun R ein Ring und seien V, W freie R-Moduln mit m := rangR V und n := rangR W . Ferner seien geordnete Basen B := (b1 , . . . , bm ) von V und C := (c1 , . . . , cn ) von W vorgelegt. Ein Ergebnis der nachfolgenden Überlegungen ist, daß HomR (V, W ) ein freier R-Modul mit rangR HomR (V, W ) = m · n ist. Dazu werden wir aus den vorgelegten geordneten Basen von V und W eine geeignete geordnete Basis von HomR (V, W ) konstruieren und damit für R-Homomorphismen f : V → W (also für Elemente von HomR (V, W )) Koordinatendarstellungen bzgl. dieser Basis zu bestimmen. Dabei stellt es sich heraus, dass es zweckmäßig ist, das Konzept der geordneten Basis in diesem Kontext so zu modifizieren, daß diese Koordinatendarstellungen nicht in Form von m · n-Tupeln, sondern von (m, n)-Matrizen erfolgen. Sei f : V → W ein R-Homomorphismus. Problem 1: Für v ∈ V berechne man f (v). Nach Satz 4.23 ist f bereits umkehrbar eindeutig festgelegt durch die Angabe von f (b1 ), . . . , f (bm ) ∈ W . Die Lösung ergibt sich daher aus dem folgenden Satz: n Satz 4.34. Für i = 1, . . . , m sei mit obigen Bezeichnungen bi := i )C ∈ R f (bn,m T T Koordinatenvektor von f (bi ) bzgl. C. Weiter sei A := b1 , . . . , bm ∈ R . T Für alle v ∈ V gilt dann f (v)TC = AvB und A ist durch diese Eigenschaft eindeutig bestimmt. Beweis. Sei vB =: (α1 , . . . , αm ) und bi =: (βi1 , . . . , βin ), i = 1, . . . , m. Für j = 102 KAPITEL 4. LINEARE ABBILDUNGEN 1, . . . , n gilt dann mit γj := α1 β1j + . . . + αm βmj : f (v) = f (α1 b1 + . . . + αm bm ) = α1 f (b1 ) + . . . + αm f (bm ) = α1 (β11 c1 + . . . + β1n cn ) + . . . + αm (βm1 c1 + . . . + βmn cn ) = γ1 c1 + . . . + γn cn , T Damit folgt f (v)TC = (γ1 , . . . , γn )T = AvB . T mit einer Matrix à ∈ Rn,m , so gilt für alle Wenn für alle v ∈ V gilt f (v)TC = ÃvB i = 1, . . . , m wegen (bi )B = eni (s. Lemma 3.25): bTi = f (bi )TC = Ã(bi )TB = ÃeTni , d. h. die i-te Spalte von à stimmt mit der i-ten Spalte von A überein und damit gilt à = A, Definition 4.35. Seien R, V, W, B, C, f wie soeben beschrieben. Die Matrix A := f (b1 )TC , . . . , f (bm )TC ∈ Rn,m heißt Koordinatenmatrix, manchmal auch Darstellungsmatrix, von f bzgl. der geordneten Basen B und C, Schreibweise: A = fB,C . Ist f Endomorphismus von V , so schreiben wir statt fB,B kurz fB und nennen diese Matrix Koordinatenmatrix von f bzgl. der geordneten Basis B. (Dennoch kann man natürlich auch die Koordinatenmatrix eines Endomorphismus von V bzgl. verschiedener geordneter Basen von V betrachten, s. hierzu auch Definition 4.46) Beispiel 4.36. Seien b1 := (−4, −1, 2), b2 := (1, 0, −1), b3 := (0, 2, 3) Elemente des Q3 und c1 := (−1, 1), c2 := (2, −1), c3 := (1, 0) Elemente des Q2 . Wir setzen B := {b1 , b2 , b3 } und C := {c1 , c2 , c3 }. Weiter sei ψ : B → C die durch bi 7→ ci , i = 1, 2, 3, gegebene Abbildung. (a) Man zeige, daß B Basis von Q3 und {c1 , c2 } Basis von Q2 ist. (b) Sei f : Q3 → Q2 die durch f |B = ψ eindeutig bestimmte Q-lineare Abbildung (s. Folgerung 4.27). Man berechne die Koordinatenmatrix von f bezüglich der geordneten Basen B := (b1 , b2 , b3 ) des Q3 bzw. E := (e21 , e22 ) des Q2 sowie die Koordinatenmatrix von f bezüglich B und der geordneten Basis C := (c1 , c2 ) des Q2 . (c) Man berechne f (1, 1, −1). (d) Man bestimme Bild f und Kern f . Lösung: 4.4. MATRIZENDARSTELLUNGEN 103 (a) Nach Folgerung 3.32(2) gilt rangQ3 = 3 und nach Satz 3.44 ist daher B Basis −4 −1 2 3 0 −1 = 3. des Q genau dann, wenn rang 1 0 2 3 Anwendung des Gaußschen Algorithmus liefert −4 −1 2 1 0 −1 1 0 −1 1 0 −1 ; 0 −1 −2 ; 0 −1 −2, 0 2 3 0 2 3 0 0 −1 −4 −1 2 1 0 −1 0 −1 = rang 0 −1 −2 = 3 und damit ist d. h. es gilt rang 1 0 2 3 0 0 −1 B Basis des Q3 . −1 1 −1 1 Analog ergibt sich rang = rang = 2 und damit ist 2 −1 0 1 {c1 , c2 } Basis des Q2 . (b) Laut Definition gilt (f (b1 )TE , f (b2 )TE , f (b3 )TE = cT1 , cT2 , cT3 −1 2 1 = sowie 1 −1 0 = f (b1 )TC , b2 )TC , f (b3 )TC = (c1 )TC , (c2 )TC , (c3 )TC 1 0 1 = , 0 1 1 fB,E = fB,C da c1 = 1c1 + 0c2 , c2 = 0c1 + 1c2 und c3 = 1c1 + 1c2 . (c) Da mit A := fB,E gilt f (1, 1, −1)T = f (1, 1, −1)TE = A(1, 1, −1)TB , benötigen wir das Tripel (α, β, γ) := (1, 1, −1)B . Wegen αb1 + βb2 + γb3 = (1, 1, −1) ist (α, β, γ) Lösung des linearen Gleichungssystems mit erweiterter Koeffizientenmatrix bT1 , bT2 , bT3 , (1, 1, −1)T . Anwendung des modifizierten Gaußschen Algorithmus auf diese Matrix liefert −4 1 0 1 −1 0 2 1 −1 0 2 1 ; 0 −1 7 1 ; 2 −1 3 −1 0 1 −8 −3 −1 0 2 1 1 0 0 3 ; 0 −1 7 1 ; 0 1 0 13 . 0 0 −1 −2 0 0 1 2 104 KAPITEL 4. LINEARE ABBILDUNGEN Hieraus folgt (α, β, γ) = (3, 13, 2) und somit erhalten wir f (1, 1, −1)T = A(3, 13, 2)T = (25, −10)T , d. h. f (1, 1, −1) = (25, −10). (d) Da ψ(B) = C und da C eine Basis von Q2 enthält (s. (a)) und somit Erzeugendensystem des Q2 ist, ist f Epimorphismus nach Folgerung 4.27(2). Folglich gilt Bild f = Q2 . Sei v ∈ Kernf und sei a := vB . Dann gilt AaT = f (v)T = 0, d. h. a ist Lösung des homogenen linearen Gleichungssystems AXT = 0. Ist umgekehrt a ∈ Q3 Lösung von AXT = 0, so ist a Koordinatenvektor eines Elementes aus Kern f bzgl. der geordneten Basis B von Q3 . Die Lösungsmenge von AXT = 0 ist {(−1, −1, 1)t | t ∈ Q}, so daß Kern f = {−tb1 − tb2 + tb3 | t ∈ Q} = {t(3, 3, 2) | t ∈ Q} = Q(3, 3, 2). Lemma 4.37. Sei R ein Ring und seien U, V, W freie R-Moduln mit geordneten Basen B, C, D. Weiter seien f, f 0 : U → V R-Homomorphismen mit Koordinatenmatrizen A, A0 bezüglich B und C und g : V → W R-Homomorphismus mit Koordinatenmatrix à bezüglich C und D. Dann gilt (1) A + A0 ist Koordinatenmatrix von f + f 0 bezüglich B und C, d. h. 0 (f + f 0 )B,C = fB,C + fB,C . (2) à · A ist Koordinatenmatrix von g ◦ f bezüglich B und D, d. h. (g ◦ f )B,D = gC,D · fB,C . (3) Die Koordinatenmatrix von idU bezüglich B ist die Einheitsmatrix, d. h. (idU )B = En , wenn n := rangR U . (4) Für α ∈ R ist αA Koordinatenmatrix von αf bezüglich B und C, d. h. (αf )B,C = αfB,C . Beweis. Für alle u ∈ U gilt (f + f 0 )(u)TC = = = = (g ◦ f )(u)TD = = = T idU (u)B = (αf )(u)TC = = = κC ((f + f 0 )(u))T = κC (f (u) + f 0 (u))T κC (f (u))T + κC (f 0 (u))T = f (u)TC + f 0 (u)TC AuTB + A0 uTB (A + A0 )uTB , κD ((g ◦ f )(u))T = (κD (g(f (u)))T = g(f (u))TD Ã(f (u)C )T = Ã(AuTB ) (ÃA)uTB , κB ((idU (u))T = κB (u)T = uTB = En uTB und κC ((αf )(u))T = κC (αf (u))T = α(κC (f (u))T ) α(f (u)TC ) = α(AuTB ) (αA)uTB . 4.4. MATRIZENDARSTELLUNGEN 105 Damit folgt die Behauptung aus der Eindeutigkeitsaussage von Satz 4.34, Satz 4.38. Sei R ein Ring und seien V, W freie R-Moduln mit geordneten Basen B, C. Wir setzen m := rangR V , n := rangR W . Dann gilt (1) Die Abbildung cB,C : HomR (V, W ) → Rn,m , die jedem R-Homomorphismus f : V → W seine Koordinatenmatrix fB,C bezüglich B und C zuordnet, ist ein R-Isomorphismus. (2) Die Abbildung cB := cB,B : EndR (V ) → Rm,m ist ein Ringisomorphismus (sogar ein R-Algebra-Isomorphismus). Beweis. Aus Lemma 4.37(1) und (4) ergibt sich unmittelbar, daß cB,C R-Homomorphismus ist. Nach Lemma 4.37(2) und (3) ist cB damit ein R-Algebra-Homomorphismus, so daß nur noch die Bijektivität von cB,C zu zeigen ist. Für A ∈ Rn,m definieren wir eine Abbildung ψA : V → W , indem wir für v ∈ V , v = β1 b1 + . . . + βm bm (d. h. (β1 , . . . , βm ) = vB ), setzen ψA (v) := γ1 c1 + . . . + γn cn , T wenn (γ1 , . . . , γn )T := A(β1 , . . . , βm )T = AvB = A(κB (v))T . Da κB R-Homomorphismus ist, ist somit auch ψA R-Homomorphismus. Durch A 7→ ψA , A ∈ Rn,m , ist eine Abbildung ψB,C : Rn,m → HomR (V, W ) gegeben, für die gilt ψB,C ◦ cB,C = idHomR (V,W ) und cB,C ◦ ψB,C = idRn,m . Damit ist aber cB,C bijektiv (und es gilt c−1 B,C = ψB,C ), Bemerkungen 4.39. 1. Ist R nicht kommutativ, so bleiben die Aussagen (1) und (3) aus Lemma 4.37 gültig. Aussage (4) aus Lemma 4.37 ist gegenstandslos, da αf für nicht kommutatives R i. a. kein R-Homomorphismus ist. Damit ist cB,C in Satz 4.38(1) lediglich ein Isomorphismus abelscher Gruppen. Für Rechts-R-Moduln sind auch Lemma 4.37(2) und der erste Teil von Aussage (2) aus Satz 4.38 richtig. Für Links-R-Moduln müßte die Aussage von Satz 4.34 mit den dortigen Bezeichnungen lauten f (v)C = vB AT . Lemma 4.37(2) und Satz 4.38(2) sind dann nicht mehr richtig. 2. Lemma 4.37(2) besagt, daß die Abbildungen cB,C mit der Hintereinanderschaltung verträglich sind, wenn man ”Hintereinanderschaltung” bei Matrizen als Multiplikation interpretiert. 106 KAPITEL 4. LINEARE ABBILDUNGEN 3. Sei R ein Ring und V ein freier R-Modul vom Rang n mit geordneter Basis B. Der Ringisomorphismus cB : EndR (V ) → Rn,n induziert einen Gruppenisomorphismus c∗B : GlR (V ) → GlR (n). Folgerung 4.40. Sei R ein Ring und seien V, W freie R-Moduln. Dann ist HomR (V, W ) ebenfalls freier R-Modul und es gilt rangR HomR (V, W ) = rangR V · rangR W. Beweis. Sei m := rangR V und n := rangR W . Für i, j ∈ N, 1 ≤ i ≤ n, 1 ≤ j ≤ ij ∈ Rn,m diejenige (n, m)-Matrix, bei welcher an der Stelle (i, j) 1R m sei En,m und ansonsten 0R steht (s. Bemerkung 2.21.7). Nach Bemerkung 2.21.7 und Satz ij 3.27(1) bildet {En,m | 1 ≤ i ≤ n, 1 ≤ j ≤ m} eine Basis von Rn,m . Damit ist Rn,m freier R-Modul und wegen HomR (V, W ) ∼ = Rn,m ist auch HomR (V, W ) frei (s. Folgerung 4.15(2)) und es gilt ij rangR HomR (V, W ) = rangR Rn,m = #{En,m | 1 ≤ i ≤ n, 1 ≤ j ≤ m} = m · n, Satz 4.38 erlaubt es, Untersuchungen über Homomorphismen zwischen endlich erzeugten freien Moduln auf Fragen zurückzuführen, die mit Hilfe des Matrizenkalküls behandelt werden können. Für den Fall von Vektorräumen läßt sich dieser Zusammenhang etwas genauer beschreiben. Zunächst definieren wir Definition 4.41. Sei K ein Körper und seien V, W K-Vektorräume. Ist f : V → W K-lineare Abbildung, so setzen wir rangK f := rangK Bild f. Bemerkungen 4.42. 1. In Definition 4.41 müssen V und W nicht notwendig endlich erzeugt sein. 2. Definition 4.41 ist für beliebige (kommutative) Ringe i. a. nicht sinnvoll, selbst wenn vorausgesetzt wird, daß V, W freie Moduln sind, da ein Untermodul eines freien Moduls (in diesem Fall Bild f ) dann i. a. nicht frei ist. Lemma 4.43. Mit den Bezeichnungen von Definition 4.41 sei A Koordinatenmatrix von f bzgl. geordneter Basen B von V und C von W . Dann gilt rangK f = rangK A. 4.4. MATRIZENDARSTELLUNGEN 107 Beweis. Da κC Isomorphismus ist, gilt Bild f ∼ = κC (Bild f ). κC (Bild f ) wird aber T von den Zeilen von A erzeugt (s. die Definition von A) und daher folgt rangK f = rangK Bild f = rangK κC (Bild f ) = rangK A, In Verallgemeinerung von Folgerung 2.27 haben wir Satz 4.44. Sei K ein Körper und seien V, W K-Vektorräume mit rangK V = rangK W < ∞. Für f ∈ HomK (V, W ) sind die folgenden Bedingungen äquivalent (i) f ist Isomorphismus (ii) f ist Monomorphismus (iii) f ist Epimorphismus (iv) Es gibt ein g ∈ HomK (W, V ) mit g ◦ f = idV (v) Es gibt ein g ∈ HomK (W, V ) mit f ◦ g = idW (vi) rangK f = rangK W . Beweis. Die Implikationen (i) ⇒ (iv) ⇒ (ii) und (i) ⇒ (v) ⇒ (iii) ⇒ (vi) sind klar. Die Implikation (ii) ⇒ (vi) ergibt sich aus Lemma 4.10(2) und Satz 4.33. Es gelte nun (vi). Aus Satz 4.33 folgt rang Kern f = rang V − rang Bild f = rang W − rang f = 0, also Kern f = 0, und Lemma 4.10(2) liefert die Injektivität von f . Wegen Bild f ⊆ W und rang W = rang f = rang Bild f folgt Bild f = W , also die Surjektivität von f , aus Lemma 3.40(4). Damit ist f bijektiv, d. h. die Implikation (vi) ⇒ (i) ist gezeigt, Folgerung 4.45. Seien K ein Körper und V ein endlich erzeugter K-Vektorraum. Für f ∈ EndK (V ) sind die folgenden Bedingungen äquivalent (i) f ∈ GlK (V ), d. h. f ist Automorphismus von V (ii) f ist Monomorphismus (iii) f ist Epimorphismus (iv) Es gibt ein g ∈ EndK (V ) mit g ◦ f = idV (v) Es gibt ein g ∈ EndK (V ) mit f ◦ g = idV (vi) rangK f = rangK V . Abschließend wollen wir die folgenden Probleme diskutieren und in diesem Zusammenhang einige Beispiele betrachten. Problem 2: Seien V, W freie R-Moduln, die jeweils mit geordneten Basen B, B0 bzw. C, C0 ausgerüstet sind. 108 KAPITEL 4. LINEARE ABBILDUNGEN Welche Beziehung besteht zwischen den Koordinatenmatrizen fB,C und fB0 ,C0 eines R-Homomorphismus f : V → W bzgl. B und C bzw. bzgl. B0 und C0 ? Es stellt sich heraus, daß dieses Problem in engem Zusammenhang steht mit Problem 3: Sei V ein freier R-Modul mit geordneten Basen B und B0 und sei v ∈V. Welche Beziehung besteht zwischen den Koordinatenvektoren vB von v bzgl. B und vB0 von v bzgl. B0 ? Zur Lösung definieren wir zunächst: Definition 4.46. Sei R ein Ring und V ein freier R-Modul. B und B0 seien geordnete Basen von V . Die Koordinatenmatrix von idV bzgl. B und B0 heißt Transformationsmatrix von Koordinaten bzgl. B in Koordinaten bzgl. B0 . Wir bezeichnen sie mit tB,B0 . (Dann gilt also tB,B0 = (idV )B,B0 .) Bemerkung 4.47. Wenn mit diesen Bezeichnungen B = (b1 , . . . , bn ), B0 = (b01 , . . . , b0n ), wobei n := rang V , so schreiben wir für i = 1, . . . , n bi = αi1 b01 + . . . + αin b0n mit αi1 , . . . , αin ∈ R, d. h. (αi1 , . . . , αin ) = (bi )B0 . Dann gilt α11 . . . αn1 .. . tB,B0 = ... . α1n . . . αnn Damit können wir nun Problem 2 und 3 lösen. Dies soll mit dem nachfolgenden Satz 4.48 geschehen. Satz 4.48. Sei R ein Ring und seien V, W freie R-Moduln. B, B0 , B00 seien geordnete Basen von V und C, C0 geordnete Basen von W . (1) Es gilt tB,B00 = tB0 ,B00 · tB,B0 . Insbesondere ist tB,B0 invertierbar mit t−1 B,B0 = tB0 ,B . (2) Für alle v ∈ V gilt T T vB 0 = tB,B0 vB . 4.4. MATRIZENDARSTELLUNGEN 109 (3) Ist f : V → W R-Homomorphismus, so gilt −1 fB0 ,C0 = tC,C0 · fB,C · tB,B 0 = tC,C0 · fB,C · tB0 ,B . (4) Ist f ein R-Endomorphismus von V , so gilt fB0 = tB,B0 · fB · t−1 B,B0 = tB,B0 · fB · tB0 ,B . Beweis. (1) Nach Lemma 4.37(2), (3) gilt mit n := rang V tB0 ,B00 ·tB,B0 = (idV )B0 ,B00 ·(idV )B,B0 = (idV ◦idV )B,B00 = (idV )B,B00 = tB,B00 . Setzt man hier B00 := B, so folgt tB0 ,B · tB,B0 = tB,B = (idV )B = En . Vertauscht man nun B mit B0 , so folgt schließlich tB,B0 · tB0 ,B = En . (2) Nach Satz 4.34 gilt T T T tB,B0 vB = (idV )B,B0 vB = (idV (v))TB0 = vB 0. (3) Nach (1) und nach Lemma 4.37(2) gilt tC,C0 · fB,C · t−1 B,B0 = tC,C0 · fB,C · tB0 ,B = (idW )C,C0 · fB,C · (idV )B0 ,B = (idW ◦ f ◦ idV )B0 ,C0 = fB0 ,C0 . (4) folgt unmittelbar aus (3), Bemerkungen 4.49. 1. Sei R ein Ring und seien m, n ∈ N+ . Nach Satz 4.48(3) und (4) haben wir mit den dortigen Bezeichnungen: Die Koordinatenmatrizen fB,C und fB0 ,C0 von f bzgl. geordneter Basen B, B0 von V und C, C0 von W sind äquivalent. Ist f Endomorphismus von V , so sind die Koordinatenmatrizen fB und fB0 von f bzgl. B und B0 ähnlich, s. hierzu Definition 2.35. 2. Seien K ein Körper, n ∈ N+ und b1 , . . . , bn , b01 , . . . , b0n ∈ K n . Wir setzen 0 0 0 T T B := (b1 , . . . , bn ), B := (b1 , . . . , bn ) sowie A := b1 , . . . , bn ∈ K n,n , A0 := b01 T , . . . , b0n T ∈ K n,n . 110 KAPITEL 4. LINEARE ABBILDUNGEN Sind B := {b1 , . . . , bn } und B 0 := {b01 , . . . , b0n } Basen von K n , so überführt der modifizierte Gaußsche Algorithmus (A0 | A) in (En | tB,B0 ), wie man sofort mit Bemerkung 4.47 erkennt, so dass die Transformationsmatrix tB,B0 auf diese Weise berechnet werden kann. Etwas allgemeiner reicht es hierzu zu wissen, daß B Basis von K n ist. Überführt dann der modifizierte Gaußsche Algorithmus die Matrix (A0 | A) in eine Matrix der Gestalt (En | A00 ), so ist auch B 0 Basis von K n und es gilt tB,B0 = A00 . Beispiele 4.50. Für n ∈ N+ sei En die geordnete kanonische Basis des Rn , d. h. En = (en1 , . . . , enn ). 1. Sei E := E3 und B := (b1 , b2 , b3 ) mit b1 := (−1, 2, 0), b2 := (0, −1, −1) und b3 := (1, 0, 3). Man zeige, daß {b1 , b2 , b3 } Basis des R3 ist und bestimme die Transformationsmatrix tE,B von E nach B. Ferner ermittle man den Koordinatenvektor von (−1, 1, −1) bzgl. B. −1 0 1 Lösung: Sei A := 2 −1 0. Nach Bemerkung 4.49.2 reicht es, den 0 −1 3 modifizierten Gaußschen Algorithmus auf (A | E3 ) anzuwenden. Da dieser −1 0 1 1 0 0 1 0 −1 −1 0 0 (A | E3 ) = 2 −1 0 0 1 0 ; 0 −1 2 2 1 0 0 −1 3 0 0 1 0 −1 3 0 0 1 1 0 −1 −1 0 0 1 0 0 −3 −1 1 ; 0 1 −2 −2 −1 0 ; 0 1 0 −6 −3 2 0 0 1 −2 −1 1 0 0 1 −2 −1 1 liefert, ist {b1 , b2 , b3 } in der Tat Basis von R3 und es gilt −3 −1 1 tE,B = −6 −3 2 . −2 −1 1 −1 1 Da somit tE,B 1 = 1, gilt schließlich (−1, 1, −1)B = (1, 1, 0). −1 0 2. Vorgelegt seien die Vektoren b01 := (−2, −1, 1, 0), b02 := (−1, 1, 3, 1), b03 := (0, −2, −3, −1) und b04 := (3, 0, −1, 1) des R4 . (a) Man zeige, daß {b01 , b02 , b03 , b04 } Basis des R4 ist. (b) Sei f : R4 → R3 die durch f (b01 ) := (1, −1, 0), f (b02 ) := (−1, 2, 1), f (b03 ) := (0, −1, 1) und f (b04 ) := (1, 1, 1) eindeutig festgelegte R-lineare 4.4. MATRIZENDARSTELLUNGEN 111 Abbildung (s. Satz 4.23). Man bestimme rangf und gebe die Koordinatenmatrizen fB0 ,E3 von f bzgl. B0 := (b01 , b2 ,0 b03 , b04 ) und E3 sowie fE4 ,E3 von f bzgl. E4 und E3 an. −2 −1 −1 1 Lösung: (a) Sei A := 1 3 0 1 Basis von R4 ist . Wir wenden auf (A | E4 ) an und erhalten 0 3 −2 0 = tB0 ,E4 , wenn {b01 , b02 , b03 , b04 } −3 −1 −1 1 den modifizierten Gaußschen Algorithmus −2 −1 0 3 1 0 0 0 −1 1 −2 0 0 1 0 0 (A | E4 ) = 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 1 3 −3 −1 0 0 1 0 0 5 −6 1 1 0 2 0 ; 0 4 −5 −1 0 1 1 0 0 1 −1 1 0 0 0 1 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 ; 0 0 1 4 −1 0 −2 5 0 0 −1 −5 0 1 1 −4 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 ; 0 0 1 4 −1 0 −2 5 0 0 0 1 1 −1 1 −1 1 0 0 0 4 −4 5 −7 0 1 0 0 −6 5 −7 11 ; 0 0 1 0 −5 4 −6 9 . 0 0 0 1 1 −1 1 −1 Nach Bemerkung 4.49.2 4 −4 5 −6 5 −7 tE4 ,B0 = −5 4 −6 1 −1 1 ist damit {b01 , b02 , b03 , b04 } Basis von R4 und es gilt −7 11 = A−1 . 9 −1 (b) Laut Definition gilt B 0 := fB0 ,E3 1 −1 0 1 = −1 2 −1 1. Aus Satz 0 1 1 1 112 KAPITEL 4. LINEARE ABBILDUNGEN 4.48(3) folgt dann B := fE4 ,E3 = tE3 ,E3 · fB0 ,E3 · tE4 ,B0 = B 0 · A−1 Nach Lemma 4.43(3) gilt rang f = rang Gaußschen Algorithmus auf B 0 liefert 1 −1 0 1 1 0 −1 2 −1 1 ; 0 B = 0 1 1 1 0 1 −1 0 1 0 1 −1 2 , ; 0 0 2 −1 11 8 13 27 19 . = −10 9 14 −10 8 −12 −19 B 0 = rang B. Anwendung des −1 0 1 1 −1 2 1 1 1 d. h. wir haben rang f = 3. (Damit gilt übrigens Bild f = R3 , d. h. f ist Epimorphismus.) 4.5 Multilineare Abbildungen Sei X eine Menge. Die Menge S(X) der bijektiven Abbildungen X → X bildet mit der Hintereinanderschaltung als Verknüpfung eine Gruppe, die symmetrische Gruppe von X, s. Beispiel 2.1.3 und 2.9.3. Ihre Elemente nennt man auch Permutationen (der Elemente) von X. Für n ∈ N setzen wir Sn := S({1, . . . , n}) und nennen diese Gruppe n-te symmetrische Gruppe. Sie besitzt genau n! Elemente, s. Übungsaufgabe 14(b). Definition 4.51. Sei n ∈ N+ und σ ∈ Sn . Ein geordnetes Paar (i, j) ∈ N × N mit 1 ≤ i < j ≤ n heißt Fehlstellung von σ, wenn σ(j) < σ(i). Mit z(σ) bezeichnen wir die Anzahl der Fehlstellungen von σ und setzen sign σ := (−1)z(σ) ∈ {−1, 1} (Signum von σ). σ heißt gerade Permutation, wenn sign σ = 1, ansonsten heißt σ ungerade Permutation. Bemerkung 4.52. Offenbar gilt für σ ∈ Sn : sign σ = σ(j) − σ(i) . j−i 1≤i<j≤n Y 4.5. MULTILINEARE ABBILDUNGEN 113 Lemma 4.53. Für alle σ, τ ∈ Sn gilt sign (στ ) = sign σ · sign τ, d. h. die durch σ 7→ sign σ für alle σ ∈ Sn gegebene Abbildung sign : Sn → ({−1, 1}, ·) ist ein Homomorphismus (für n ≥ 2 sogar ein Epimorphismus). Beweis. sign (στ ) = (στ )(j) − (στ )(i) j−i 1≤i<j≤n Y = Y τ (j) − τ (i) σ(τ (j)) − σ(τ (i)) · τ (j) − τ (i) j−i 1≤i<j≤n 1≤i<j≤n = Y τ (j) − τ (i) σ(v) − σ(u) · v−u j−i 1≤i<j≤n 1≤u<v≤n Y Y = sign σ · sign τ, Folgerung 4.54. Die Menge An := {σ | σ ∈ Sn , sign σ = 1} ⊆ Sn der geraden Permutationen von {1, . . . , n} ist ein Normalteiler der Sn . Sie heißt n-te alternierende Gruppe. Beweis. Dies ergibt sich aus Übungsaufgabe 5(c), da An = Kern sign , Sei nun R ein kommutativer Ring. Definition 4.55. (a) Seien M1 , . . . , Mp , N R-Moduln, wobei p ∈ N. Eine Abbildung f : M1 × . . . × Mp → N heißt p-fach R-linear (kurz: R-p-linear) oder allgemeiner R-multilinear, wenn f komponentenweise R-linear (also ein R-Homomorphismus) ist, d. h. wenn für alle i = 1, . . . , p gilt: 114 KAPITEL 4. LINEARE ABBILDUNGEN Seien m1 ∈ M1 , . . . , mi−1 ∈ Mi−1 , mi+1 ∈ Mi+1 , . . . , mp ∈ Mp . Dann gilt für alle m, m0 ∈ Mi und alle r ∈ R f (m1 , . . . , mi−1 , m + m0 , mi+1 , . . . , mp ) = = f (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ) + +f (m1 , . . . , mi−1 , m0 , mi+1 , . . . , mp ) und f (m1 , . . . , mi−1 , rm, mi+1 , . . . , mp ) = = rf (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ). f heißt R-p-Linearform, wenn N = R. Die Menge der R-p-linearen Abbildungen f : M1 × . . . × Mp → N wird mit MultR (M1 , . . . , Mp ; N ) bezeichnet. Falls M1 = . . . = Mp =: M , so setzt man MultR (M1 , . . . , Mp ; N ) =: MultpR (M ; N ). Für p = 2 nennt man die Elemente von MultR (M1 , M2 ; N ) R-bilineare Abbildungen bzw., wenn N = R, R-Bilinearformen. (b) Seien M, N R-Moduln und sei p ∈ N+ . f ∈ MultpR (M ; N ) heißt • symmetrisch, wenn f (mπ(1) , . . . , mπ(p) ) = f (m1 , . . . , mp ) für alle m1 , . . . . . . , mp ∈ M und alle π ∈ Sp • alternierend, wenn f (m1 , . . . , mp ) = 0N für alle m1 , . . . , mp ∈ M , für die es i, j ∈ N mit 1 ≤ i < j ≤ p und mi = mj gibt. Die Menge der symmetrischen bzw. alternierenden R-p-linearen Abbildungen von M p nach N wird mit SympR (M ; N ) bzw. AltpR (M ; N ) bezeichnet. Bemerkungen, Beispiele 4.56. Unter Verwendung der Bezeichnungen aus Definition 4.55 haben wir: 1. Analog wie bei Homomorphismen ist klar, daß MultR (M1 , . . . , Mr ; N ) mit der punktweisen Addition und der üblichen Operation von R auf Abb (M1 × . . . × Mp , N ) ein R-Untermodul von Abb (M1 × . . . × Mp , N ) ist, also insbesondere selbst R-Modul ist. 2. SympR (M ; N ) und AltpR (M ; N ) sind R-Untermoduln von MultpR (M ; N ). 3. M1 × . . . × Mp ist mit komponentenweiser Addition und mit komponentenweiser Multiplikation mit Elementen aus R ein R-Modul, den man mit M1 ⊕ . . . ⊕ Mp bezeichnet, s. Übungsaufgabe 2. Jedoch sind für p ≥ 2 Rp-lineare Abbildungen M1 ⊕ . . . ⊕ Mp → N i. a. nicht R-linear, also keine R-Homomorphismen. 4. Für p = 0 gilt M1 × . . . × Mp = 0, so daß MultR (M1 , . . . , Mp ; N ) = 0 und somit Sym0R (M ; N ) = Alt0R (M ; N ) = Mult0R (M ; N ) = HomR (0, N ) = 0. Für p = 1 gilt Sym1R (M ; N ) = Alt1R (M ; N ) = Mult1R (M ; N ) = HomR (M, N ). 4.5. MULTILINEARE ABBILDUNGEN 115 5. Sei f ∈ MultR (M1 , . . . , Mp ; N ). Sind m1 ∈ M1 , . . . , mp ∈ Mp und gilt mi = 0Mi für ein i ∈ N, 1 ≤ i ≤ p, so folgt f (m1 , . . . , mp ) = 0N . 6. Sei f ∈ AltpR (M ; N ). Sind m1 , . . . , mp ∈ M sowie i, j ∈ N mit 1 ≤ i < j ≤ p, so folgt f (m1 . . . , mi−1 , mj , mi+1 , . . . , mj−1 , mi , mj+1 , . . . , mp ) = = −f (m1 . . . , mi−1 , mi , mi+1 , . . . , mj−1 , mj , mj+1 , . . . , mp ), d. h. eine Vertauschung zweier Argumente an verschiedenen Stellen bewirkt einen Vorzeichenwechsel des Wertes. Dies ergibt sich sofort aus der Definition, da f (. . . , mj , . . . , mi , . . .) + f (. . . , mi , . . . , mj , . . .) = = f (. . . , mi , . . . , mi , . . .) +f (. . . , mj , . . . , mi , . . .) {z } | =0 +f (. . . , mi , . . . , mj , . . .) + f (. . . , mj , . . . , mj , . . .) | {z } =0 = f (. . . , mi + mj , . . . , mi , . . .) + f (. . . , mi + mj , . . . , mj , . . .) = f (. . . , mi + mj , . . . , mi + mj , . . .) = 0N . 7. Allgemeiner haben wir: Sei f ∈ AltpR (M ; N ). Dann gilt für π ∈ Sp und m1 , . . . , mp ∈ M : f (mπ(1) , . . . , mπ(p) ) = (sign π)f (m1 , . . . , mp ). 8. (a) Sei M = N . Die durch (m1 , . . . , mp ) 7→ m1 +. . .+mp (m1 , . . . , mp ∈ M ) gegebene Abbildung M p → M ist R-linear (d. h. ein R-Homomorphismus), aber für p ≥ 2 und M 6= 0 nicht R-p-linear. (b) Sei M = N = R und p ≥ 2. Die durch (r1 , . . . , rp ) 7→ r1 · . . . · rp (r1 , . . . , rp ∈ R) gegebene Abbildung Rp → R ist R-p-linear, aber nicht R-linear. Sie ist symmetrisch, jedoch nicht alternierend. 9. Sei M = Rn mit n ∈ N, N = R und p = 2. Die durch (r1 , . . . , rn ), (s1 , . . . , sn ) 7→ r1 s1 + . . . + rn sn gegebene Abbildung Rn × Rn → R ist eine symmetrische R-Bilinearform. Lemma 4.57. Seien M1 , . . . , Mp freie R-Moduln mit Basen B1 , . . . , Bp und sei N ein beliebiger R-Modul. Dann ist jedes f ∈ MultR (M1 , . . . , Mp ; N ) umkehrbar eindeutig festgelegt durch die Werte, die f auf B1 × . . . × Bp annimmt. 116 KAPITEL 4. LINEARE ABBILDUNGEN Genauer gilt für m1 ∈ M1 , . . . , mp ∈ Mp X f (m1 , . . . , mp ) = κB1 ,m1 (b1 ) · . . . · κBp ,mp (bp ) · f (b1 , . . . , bp ). (b1 ,...,bp )∈B1 ×...×Bp Damit folgt insbesondere MultR (M1 , . . . , Mp ; N ) ∼ = N B1 ×...×Bp . Beweis. Zunächst ergibt sich obige Gleichung für f ∈ MultR (M1 , . . . , Mp ; N ) unmittelbar aus der Definition R-multilinearer Abbildungen. Ist umgekehrt eine Abbildung B1 × . . . × Bp → N gegeben, so liefert obige Formel eine Abbildung M1 × . . . × Mp → N , deren R-Multilinearität sich aus der R-Linearität der auftretenden Koordinatenabbildungen κB1 ,m1 = κB1 (m1 ), . . . . . . , κBp ,mp = κBp (mp ) (in Bezug auf m1 , . . . , mp ) zusammen mit Bemerkung 4.56.8(b) ergibt. Die Eindeutigkeit ist dann klar, Folgerung 4.58. Seien M, N R-Moduln, wobei M frei sei. B sei Basis von M . Wir rüsten B mit einer vollständigen Ordnung ≤ aus und setzen für p ∈ N+ Up := {(b1 , . . . , bp ) ∈ B p | b1 ≤ . . . ≤ bp } sowie Up+ := {(b1 , . . . , bp ) ∈ B p | b1 < . . . < bp }. Für (b1 , . . . , bp ) ∈ Up sei X(b1 , . . . , bp ) die Menge aller (c1 , . . . , cp ) ∈ B p , so daß {c1 , . . . , cp } = {b1 , . . . , bp } und die Häufigkeit, mit welcher jedes Element von {c1 , . . . , cp } in (c1 , . . . , cp ) und in (b1 , . . . , bp ) auftritt, übereinstimmt. Dann gilt: (1) Jedes f ∈ SympR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte, die f auf Up annimmt. Genauer gilt f (m1 , . . . , mp ) = X = (b1 ,...,bp )∈Up X κB,m1 (c1 ) · . . . · κB,mp (cp ) f (b1 , . . . , bp ). (c1 ,...,cp )∈X(b1 ,...,bp ) Damit folgt insbesondere SympR (M ; N ) ∼ = N Up . (2) Jedes f ∈ AltpR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte, die f auf Up+ annimmt. Genauer gilt f (m1 , . . . , mp ) = X X = (sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ) f (b1 , . . . , bp ). (b1 ,...,bp )∈Up+ π∈Sp + Damit folgt insbesondere AltpR (M ; N ) ∼ = N Up . 4.5. MULTILINEARE ABBILDUNGEN 117 Beweis. Ist f ∈ SympR (M ; N ) bzw. f ∈ AltpR (M ; N ) gegeben, so ergeben sich die Gleichungen in (1) bzw. (2) aus Lemma 4.57 zusammen mit den jeweiligen Definitionen. Ist umgekehrt eine Abbildung Up → N bzw. Up+ → N gegeben, so liefern die Formeln in (1) bzw. (2) nach Lemma 4.57, Bemerkung 4.56.8 und den Definitionen jeweils eindeutig bestimmte R-multilineare Abbildungen M1 × . . . × Mp → N . (1) ist dann klar, weil für alle (b1 , . . . , bp ) ∈ Up und alle σ ∈ Sp gilt X κB,mσ(1) (c1 ) · . . . · κB,mσ(p) (cp ) = (c1 ,...,cp )∈X(b1 ,...,bp ) X = κB,m1 (cσ−1 (1) ) · . . . · κB,mp (cσ−1 (p) ) (c1 ,...,cp )∈X(b1 ,...,bp ) X = κB,m1 (c1 ) · . . . · κB,mp (cp ). (c1 ,...,cp )∈X(b1 ,...,bp ) (2) Für alle (b1 , . . . , bp ) ∈ Up+ und alle σ ∈ Sp gilt mit Lemma 4.53 X (sign π) κB,mσ(1) (bπ(1) ) · . . . · κB,mσ(p) (bπ(p) ) = π∈Sp = X sign (πσ −1 )sign σ κB,m1 (b(πσ−1 )(1) ) · . . . · κB,mp (b(πσ−1 )(p) ) π∈Sp = (sign σ) X (sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ), π∈Sp Folgerung 4.59. Seien M1 , . . . , Mp , M, N freie R-Moduln, wobei M1 , . . . , Mp , M endlich erzeugt seien. Dann gilt: (1) MultR (M1 , . . . , Mp ; N ) ist freier R-Modul mit rangR MultR (M1 , . . . , Mp ; N ) = rangR M1 · . . . · rangR Mp · rangR N. (2) SympR (M ; N ) und AltpR (M ; N ) sind für alle p ∈ N freie R-Moduln mit rangR M + p − 1 p rangR SymR (M ; N ) = · rangR N und p rangR M p · rangR N. rangR AltR (M ; N ) = p Beweis. Dies ergibt sich aus Folgerung 4.58 zusammen mit Übungsaufgabe 21, 118 KAPITEL 4. LINEARE ABBILDUNGEN Satz 4.60. Sei R ein Ring und seien M, N R-Moduln. Wenn M endlich erzeugt ist, so gilt AltpR (M ; N ) = 0 für alle p > µR (M ). Beweis. Wir setzen µ := µR (M ). Sei {e1 , . . . , eµ } ein Erzeugendensystem von M . + Sei weiter i = 1, . . . , p schreiben wir Pµ p ∈ N und seien m1 , . . . , mp ∈ M . Für mi = j=1 rij ej mit ri1 , . . . , riµ ∈ R. Sei f ∈ MultpR (M ; N ). Dann gilt wegen der p-Linearität von f f (m1 , . . . , mp ) = µ X r1j1 · . . . · rpjp f (ej1 , . . . , ejp ). (∗p ) j1 ,...,jp =1 Wenn f ∈ AltpR (M ; N ) und p > µ, so gibt es für alle j1 , . . . , jp ∈ {1, . . . , µ} u, v ∈ N mit 1 ≤ u < v ≤ p und ju = jv . Damit gilt f (ej1 , . . . , ejp ) = 0 und mit (∗p ) erhalten wir f (m1 , . . . , mp ) = 0, Kapitel 5 Endomorphismen endlich erzeugter Vektorräume Ziel der nachfolgenden Untersuchungen ist es, zu einem gegebenen endlich erzeugten K-Vektorraum (K ein Körper) und einem K-Endomorphismus f von V eine Basis von V so zu finden, daß die Koordinatenmatrix von f bzgl. dieser Basis (s. Definition 4.35) eine ”möglichst einfache” Gestalt hat. Wir bemerken, daß die so entstehenden Matrizen quadratisch sind und es wird sich herausstellen, daß man eine Basis von V so wählen kann, daß unter bestimmten Voraussetzungen, die an den Körper zu stellen sind, die Koordinatenmatrix bei geeigneter Basiswahl Dreiecksgestalt, mitunter sogar Diagonalgestalt hat. Schließlich werden wir verschiedene Anwendungen studieren. Die weitergehende Aufgabe, auf diese Weise eine Klassifikation der Endomorphismen eines endlich erzeugten K-Vektorraums zu erreichen, kann mit den derzeit zur Verfügung stehenden Mitteln nur teilweise gelöst werden. Wir beginnen wieder mit etwas ”Algebra”. Alle betrachteten Ringe besitzen ein vom Nullelement verschiedenes Einselement. 5.1 Nullstellen von Polynomen Sei R ein Ring, X eine Unbestimmte und f ∈ R[X], s. Anhang B. Wenn f 6= 0, so schreiben wir f = rn X n + rn−1 X n−1 + . . . + r0 mit r0 , . . . , rn ∈ R und rn 6= 0R . Dann gilt n = grad f und rn = lk f (Leitkoeffizient von f , s. Definition B.5(b)). Wenn f = 0, so setzen wir lk f = 0R . Satz und Definition 5.1 (Division mit Rest). Sei R ein Ring und X eine Unbestimmte. Weiter sei f ∈ R[X] ein vom Nullploynom verschiedenes Polynom 119 120 KAPITEL 5. ENDOMORPHISMEN mit lk f ∈ R∗ . Dann gilt: Für jedes g ∈ R[X] gibt es eindeutig bestimmte q, r ∈ R[X] mit g = qf + r und grad r < grad f. r heißt Rest der Division von g durch f und q heißt partieller Quotient dieser Division. Beweis. 1. Existenz von q und r: Wir definieren δ(f, g) := grad g − grad f ∈ Z ∪ {−∞}. Wenn δ(f, g) < 0, also grad g < grad f , so setzen wir q := 0 und r := g. Wir benutzen nun Induktion nach ∆(f, g) := max{0, 1 + δ(f, g)}. Wenn ∆(f, g) = 0, so folgt gradg < gradf und wir sind fertig. Sei also ∆(f, g) > 0, d. h. δ(f, g) ≥ 0. Insbesondere gilt daher g 6= 0 und wir können setzen g 0 := g − (lk g)(lk f )−1 f X δ(f,g) . = grad g (s. Lemma B.8(2)) und Da einerseits grad (lk g)(lk f )−1 f X δ(f,g) andererseits lk (lk g)(lk f )−1 f X δ(f,g) = lk g, gilt grad g 0 < grad g (s. Lemma B.8(1)) und somit ∆(f, g 0 ) < ∆(f, g). Nach Induktionsvoraussetzung gibt es daher q 0 , r ∈ R[X] mit grad r < grad f und g 0 = q 0 f + r. Mit q := q 0 + (lk g)(lk f )−1 X δ(f,g) folgt dann aber g = qf + r. 2. Eindeutigkeit von q und r: Angenommen, es gibt q̃, r̃ ∈ R[X] mit g = q̃f + r̃ und grad r̃ < grad f . Dann folgt (q − q̃)f − (r̃ − r) = g − g = 0R[X] , also gilt (q − q̃)f = r̃ − r. Lemma B.8(2) und (1) liefert dann grad (q − q̃) + grad f = grad (q − q̃)f = grad (r̃ − r) ≤ max{grad r̃, grad r} < grad f. Daher folgt grad (q − q̃) < 0, d. h. q − q̃ = 0. Wir haben also q̃ = q und somit r̃ = r, Sei R ein kommutativer Ring und sei S eine R-Algebra. s ∈ S heißt Nullstelle von f ∈ R[X], wenn f (s) = 0S , d. h. wenn f ∈ Kern s , s : R[X] → S Einsetzungshomomorphismus mit s, s. Übungsaufgabe 26. Damit haben wir: Folgerung 5.2. Sei R ein kommutativer Ring und f ∈ R[X], X Unbestimmte, ein vom Nullpolynom verschiedenes Polynom. 5.1. NULLSTELLEN 121 (1) Wenn x ∈ R Nullstelle von f ist, so gibt es ein h ∈ R[X] mit grad h = grad f − 1 und f = (X − x)h. (2) Für jedes x ∈ R gibt eindeutig bestimmte i ∈ N und g ∈ R[X] mit f = (X − x)i g und g(x) 6= 0R . Beweis. (1) Wir dividieren f mit Rest durch X − x ∈ R[X] und erhalten f = (X − x)h + r mit h, r ∈ R[X], grad r < grad (X − x) = 1. Da 0R = f (x) = (x − x)h(x) + r(x) = r(x) = r (man beachte, daß r wegen grad r ≤ 0 konstantes Polynom ist), folgt f = (X − x)h. Nach Lemma B.8(2) gilt grad f = 1 + grad h. (2) Die Existenz von i und g ergibt sich mittels Induktion nach grad f aus (1), wobei i = 0 und g = f , falls f (x) 6= 0R . Angenommen f = (X − x)i g = (X − x)j g̃ mit i, j ∈ N und g, g̃ ∈ R[X]. O. B. d. A. gelte i ≤ j. Dann folgt (X − x)i (g − (X − x)j−i g̃) = f − f = 0. Nach Lemma B.8(3) folgt hieraus g − (X − x)j−i g̃ = 0. Wäre j > i, so hätten wir g(x) = 0R , Widerspruch. Somit gilt j = i und damit g̃ = g, Dies gibt Anlaß zu folgender Definition: Definition 5.3. Sei R ein kommutativer Ring, X eine Unbestimmte und f ∈ R[X], f 6= 0. Für x ∈ R heißt die Zahl i ∈ N mit f = (X − x)i g, wobei g ∈ R[X], g(x) 6= 0R , (s. Folgerung 5.2(2)) x-Ordnung von f, kurz ordx f . Ist x Nullstelle von f , so wird ordx f auch als Vielfachheit oder Multiplizität von x (in Bezug auf f ) bezeichnet. Bemerkungen 5.4. Mit den Bezeichnungen von Definition 5.3 haben wir 1. Es gilt 0 ≤ ordx f ≤ grad f . 2. x ist Nullstelle von f genau dann, wenn ordx f > 0. 3. Ist R Integritätsring, so besitzt jedes vom Nullpolynom verschiedene Polynom f ∈ R[X] höchstens grad f paarweise verschiedene Nullstellen in R, vgl. hierzu Übungsaufgabe 30. f besitzt demzufolge auch in jedem Erweiterungsring S von R höchstens grad f paarweise verschiedene Nullstellen, vorausgesetzt, S ist ebenfalls Integritätsring. Ist S kein Integritätsring, so ist dies i. a. falsch, wie das folgende Beispiel zeigt. 122 KAPITEL 5. ENDOMORPHISMEN Beispiel 5.5. Sei R := Z, S := Z[T ]/2T Z[T ], T Unbestimmte, und t := T + 2T Z[T ] ∈ S. Wie man sofort bestätigt, ist durch n 7→ n + 2T Z[T ], n ∈ Z, ein injektiver Ringhomomorphismus Z → S gegeben. Indem wir n ∈ Z mit n + 2T Z[T ] ∈ S identifizieren, können wir daher Z als Unterring von S auffassen, d. h. S ist Erweiterungsring von Z. Sei X Unbestimmte. Das Polynom 2X ∈ Z[X] ⊆ S[X] hat in Z (nur) die Nullstelle 0. Jedoch ist die Menge der Nullstellen von 2X in S gleich {st | s ∈ S}, d. h. 2X hat in S sogar unendlich viele Nullstellen. Ohne Beweis geben wir nun Theorem 5.6 (Fundamentalsatz der Algebra, Gauß 1799). Jedes nichtkonstante Polynom aus C[X] besitzt eine Nullstelle in C. Definition 5.7. Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nichtkonstante Polynom aus K[X] in K eine Nullstelle besitzt. Bemerkung 5.8. Man kann zeigen (s. Kurs ”Algebra I”), daß jeder Körper Teilkörper eines algebraisch abgeschlossen Körpers ist. Folgerung 5.9. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X], f 6= 0. Wenn grad f =: n, so gibt es x1 , . . . , xn ∈ K mit f = c(X − x1 ) · . . . · (X − xn ), wobei c := lk f, d. h. jedes nichtkonstante Polynom aus K[X] zerfällt in K[X] vollständig in Linearfaktoren. Man kann zeigen, daß diese Zerlegung eindeutig ist, s. auch Folgerung 5.10 unten. Die generelle Frage ist, inwieweit Zerlegungen eines Polynoms in unzerlegbare Faktoren - auch allgemeinerer Art - eindeutig sind, wobei wir natürlich zu präzisieren hätten, was wir unter ”eindeutig” verstehen wollen. (Z. B. würde man die Zerlegungen 1X = (−1)(−X) sicherlich nicht als ”verschieden” ansehen wollen.) Genaueres hierzu kann man im Kurs ”Algebra I” unter den Stichworten ”Teilbarkeitslehre” und ”faktorielle Ringe” hören. Die Aussage von Folgerung 5.9 kann mit den Bezeichnungen aus Definition 5.3 auch so formuliert werden: Folgerung 5.10. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X] ein vom Nullpolynom verschiedenes Polynom. Dann gilt f = lk f · Y x∈K (X − x)ordx f . 5.2. DETERMINANTEN 5.2 123 Determinanten Alle betrachteten Ringe sind kommutativ und besitzen ein vom Nullelement verschiedenes Einselement. Wir erinnern an folgende Bezeichnung: Sei R ein Ring und sei n ∈ N+ . Für r1 , . . . , rn ∈ R sei diag(r1 , . . . , rn ) diejenige Diagonalmatrix aus Rn,n , deren Diagonalelemente r1 , . . . , rn sind (in dieser Reihenfolge). Definition 5.11(Determinanten). Sei R ein Ring und sei n ∈ N+ . Für A := r11 . . . r1n .. .. ∈ Rn,n heißt . . rn1 . . . rnn X (sign π)r1π(1) · . . . · rnπ(n) ∈ R π∈Sn Determinante von A, kurz det A oder manchmal auch |A|. Bemerkung 5.12. Nach Folgerung 4.59(2) ist AltnR (Rn ; R) freier R-Modul mit rangR AltnR (Rn ; R) = 1. Damit gilt AltnR (Rn ; R) ∼ = R. Wiederum nach Folgerung n n 4.58(2) gibt es genau ein ∆ ∈ AltR (R ; R) mit ∆(en,1 , . . . , en,n ) = 1 und nach Übungsaufgabe 29 ist dieses Element Basiselement von AltnR (Rn ; R). Sei A ∈ Rn,n . Sind a1 , . . . , an die Zeilen von A (in dieser Reihenfolge von oben nach unten numeriert), so liefert Folgerung 4.58(2) ∆(a1 , . . . , an ) = det A. Determinanten von Matrizen aus Rn,n sind somit (spezielle) alternierende R-nlineare Abbildungen (Rn )n → R, wenn man - wie soeben beschrieben - Rn,n mit (Rn )n identifiziert. Lemma 5.13 (Rechenregeln für Determinanten). Sei R ein Ring und sei n ∈ N+ . Ferner sei A ∈ Rn,n . (1) det A = det AT . (2) Besteht für i ∈ N, 1 ≤ i ≤ n, die i-te Zeile (Spalte) von A nur aus Nullen, so gilt det A = 0. (3) Stimmen für i, j ∈ N, 1 ≤ i < j ≤ n, die i-te Zeile (Spalte) und die j-te Zeile (Spalte) von A überein, so gilt det A = 0. (4) Ist A0 ∈ Rn,n diejenige Matrix, die aus A durch Vertauschen der Zeilen (Spalten) von A gemäß π ∈ Sn entsteht, so gilt det A0 = (sign π) det A. 124 KAPITEL 5. ENDOMORPHISMEN (5) Ist A Diagonalmatrix, sagen wir A = diag(r1 , . . . , rn ) mit r1 , . . . , rn ∈ R, so gilt det A = r1 · . . . · rn . Insbesondere haben wir det En = 1R . (6) Sei i ∈ N mit 1 ≤ i ≤ n und seien A0 , A00 ∈ Rn,n Matrizen, die sich von A nur in den Einträgen der i-ten Zeile (Spalte) unterscheiden. Dann gilt: (a) Wenn die i-te Zeile (Spalte) von A Summe der i-ten Zeile (Spalte) von A0 und der i-ten Zeile (Spalte) von A00 ist, so haben wir det A = det A0 + det A00 . (b) Wenn die i-te Zeile (Spalte) von A das r-fache der i-ten Zeile (Spalte) von A0 ist, wobei r ∈ R, so haben wir det A = r det A0 . Insbesondere ergibt sich hieraus det(rA) = rn det A . (c) Wenn A aus A0 durch Addition des r-fachen der j-ten Zeile (Spalte) von A0 zur i-ten Zeile (Spalte) von A0 entsteht, wobei r ∈ R und j ∈ {1, . . . , n} \ {i}, so haben wir det A = det A0 . (7) Sei n ≥ 2 und seien i, j ∈ {1, . . . , n} Besteht die i-te Zeile (j-te Spalte) von A außer an der Stelle (i, j) nur aus Nullen, so gilt det A = (−1)i+j rij det Ã, wenn rij der Eintrag von A an der Stelle (i, j) ist und à ∈ Rn−1,n−1 diejenige Matrix bezeichnet, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. r11 . . . r1n .. . Dann haben wir Beweis. Sei A =: ... . rn1 . . . rnn (1) Wegen sign π = sign π −1 (π ∈ Sn ) gilt X det A = (sign π)r1π(1) · . . . · rnπ(n) π∈Sn = X (sign π −1 )rπ−1 (1)1 · . . . · rπ−1 (n)n π∈Sn = X (sign σ)rσ(1)1 · . . . · rσ(n)n σ∈Sn = det AT , 5.2. DETERMINANTEN 125 denn durchläuft π die Sn , so durchläuft π −1 ebenfalls die Sn . Damit können wir uns zum Beweis der folgenden Aussagen auf die die Zeilen betreffenden Varianten beschränken. Hierzu deuten wir Determinanten gemäß Bemerkung 5.12 stillschweigend als alternierenden Abbildungen. (2) ergibt sich aus Bemerkung 4.56.5. (3) ist unmittelbare Konsequenz aus der Definition alternierender Abbildungen. (4) ergibt sich aus Bemerkung 4.56.7. (5) det diag(r1 , . . . , rn ) = ∆(r1 en,1 , . . . , rn en,n ) = r1 · . . . · rn ∆(en,1 , . . . , en,n ) = r1 · . . . · rn . (6) (a) und (b) sind wiederum unmittelbare Konsequenz aus der Definition multilinearer Abbildungen und (c) folgt hieraus mit (3). (7) Nach (4) dürfen wir o. B. d. A. annehmen, daß i = j = n. Dann gilt aber X (sign π)r1π(1) · . . . · rnπ(n) det A = π∈Sn X = rnn (sign π)r1π(1) · . . . · rn−1π(n−1) π∈Sn π(n)=n X = rnn (sign π 0 )r1π0 (1) · . . . · rn−1π0 (n−1) π 0 ∈Sn−1 = rnn det Ã, Beispiele 5.14. 1. Sei R ein Ring. (a) n = 1. Da S1 = {id}, gilt (trivialerweise) für r ∈ R: det(r) = r (b) n = 2. Da S2 = 1 2 id, , gilt für r1,1 , r1,2 , r2,1 , r2,2 ∈ R: 2 1 r1,1 r1,2 det = r1,1 r2,2 − r1,2 r2,1 r2,1 r2,2 Merkregel: Produkt der Elemente auf der Hauptdiagonale minus Produkt der Elemente auf der Nebendiagonale 126 KAPITEL 5. ENDOMORPHISMEN 1 2 3 1 2 3 1 2 3 1 2 3 (c) n = 3. Da S3 = id, , , , , 3 2 1 1 3 2 2 3 1 3 1 2 1 2 3 , gilt für r1,1 , r1,2 , r1,3 , r2,1 , r2,2 , r2,3 , r3,1 , r3,2 , r3,3 ∈ R: 2 1 3 r1,1 r1,2 r1,3 det r2,1 r2,2 r2,3 = r1,1 r2,2 r3,3 + r1,2 r2,3 r3,1 + r1,3 r2,1 r3,2 r3,1 r3,2 r3,3 −r1,3 r2,2 r3,1 − r1,1 r2,3 r3,2 − r1,2 r2,1 r3,3 Merkregel (Sarrussche Regel): Durch Wiederholung der ersten beiden Spalten entsteht die Matrix r1,1 r1,2 r1,3 r1,1 r1,2 r2,1 r2,2 r2,3 r2,1 r2,2 . Hier addiert man die Produkte der Eler3,1 r3,2 r3,3 r3,1 r3,2 mente entlang der drei ”Hauptdiagonalen” und subtrahiert hiervon die Produkte der Elemente entlang der drei ”Nebendiagonalen” (Sarrussche Regel). Achtung: Dies funktioniert nur für n = 3 ! 2 −1 3 10 0 5 −1 −22 2. Man berechne det 6 −2 4 −1 . 0 1 17 90 Hier müßte man 4! = 24 Produkte berechnen. Wegen der auftretenden Nullen sind davon nur 12 von Null verschieden, jedoch sind unter diesen betragsmäßig recht große Zahlen. Daher empfiehlt es sich, analog wie beim Gaußschen Algorithmus vorzugehen: Nach Rechenregel 6 (c) ändert die Determinante ihren Wert nicht, wenn man ein Vielfaches einer Zeile oder Spalte zu einer anderen addiert. Daher kann man versuchen, in einer Zeile oder Spalte möglichst viele Nullen zu ”erzeugen” und dann Regel (7) anzuwenden. In unserem Fall kann man das (−3)-fache der ersten zur dritten Zeile addieren. Dann entsteht 2 −1 3 10 2 −1 3 10 0 5 −1 −22 = det 0 5 −1 −22 det 0 1 −5 −31 6 −2 4 −1 0 1 17 90 0 1 17 90 5 −1 −22 = 2 · det 1 −5 −31 . 1 17 90 Auf die hier auftretende Determinante könnte man nun die Sarrussche Regel anwenden. Aber auch dabei entstehen noch betragsmäßig recht große Zahlen. Stattdessen könnte man das (−5)-fache der zweiten zur ersten Zei- 5.2. DETERMINANTEN le und dann das entsteht 5 2 · det 1 1 127 (−1)-fache der dritten zur zweiten Zeile addieren. Dann −1 −22 0 24 133 −5 −31 = 2 · det 0 −22 −121 17 90 1 17 90 24 133 = 2 · 1 · det −22 −121 = 2 · (24 · (−121) − 133 · (−22)) = 44. 24 133 Zur Berechnung von det kann man aber auch die zweite −22 −121 zur ersten Zeile addieren (mit dem Ziel, dort betragsmäßig kleine Zahlen zu ”erzeugen”) und dann gemäß Rechenregel 6 (b) aus der ersten Zeile 2 und aus der zweiten Zeile −11 ausklammern. Dann würde entstehen 24 133 1 6 2 · det = 2 · 2 · (−11) · det −22 −121 2 11 = (−44) · (1 · 11 − 6 · 2) = 44. Später werden wir sehen, wie diese Vorgehensweise verallgemeinert werden kann, s. Satz 5.17. + T T Folgerung 5.15. Sei R ein Ring und sei n ∈ N . Weiter sei A = (a1 , . . . , an ) ∈ a1 .. n,n R bzw. A := . ∈ Rn,n mit a1 , . . . , an ∈ Rn . an Wenn es r1 , . . . , rn ∈ R gibt, die nicht alle Nullteiler in R sind, so daß r1 a1 + . . . + rn an = 0, so gilt det A = 0R . Beweis. O. B. d. A. sei r1 Nichtnullteiler in R (s. Lemma 5.13(4)). Wiederum nach Lemma 5.13(6b), (6c) und (2) gilt dann r1 det A = det(r1 aT1 + r2 aT2 + . . . + rn aTn , aT2 , . . . , aTn ) = 0R , also det A = 0R , Für das nächste Resultat verwenden wir (mit Verweis auf den Kurs ”Algebra I”), daß es für jeden Integritätsring R einen Körper K mit folgenden Eigeschaften gibt: • R ist Unterring von K und 128 KAPITEL 5. ENDOMORPHISMEN • für jedes α ∈ K gibt es ein r ∈ R \ {0R } mit rα ∈ R. Folgerung 5.16. Sei R ein Integritätsring und sei A ∈ Rn,n , wobei n ∈ N+ . (1) Dann gilt det A = 0R genau dann, wenn die Zeilen (Spalten) von A linear abhängig sind. (2) Ist R ein Körper, so gilt det A = 0R genau dann, wenn rangR A < n. Beweis. Es ist klar, daß (2) aus (1) folgt, so daß wir nur (1) zeigen. Sind die Zeilen (Spalten) von A linear abhängig, so folgt det A = 0R nach Folgerung 5.15. Gelte nun umgekehrt det A = 0R . Wir wählen einen Körper K mit den oben genannten Eigenschaften und fassen A als Element von K n,n auf. Anwendung des modifizierten Gaußschen Algorithmus auf A und sodann auf das Transpositum der sich dabei ergebenden Matrix liefert eine Diagonalsmatrix A0 . Nach Lemma 5.13(4), (6c) gilt det A0 = ± det A = 0K . Da det A0 das Produkt der Hauptdiagonaleinträge von A0 ist, gilt rangK A = rangK A0 < n und damit gibt es α1 , . . . , αn ∈ K, nicht alle gleich 0K , so daß α1 a1 + . . . + αn an = 0, wenn a1 , . . . , an ∈ Rn die Zeilen von A sind. Nun wählen wir ein r ∈ R \ {0R } mit ri := rαi ∈ R für alle i = 1, . . . , n. Dann folgt r1 a1 + . . . + rn an = 0, d. h. die Zeilen von A sind linear abhängig (über R). Entsprechendes gilt für die Spalten von A, Folgerung 5.17 (Laplacescher Entwicklungssatz). Sei R ein Ring und sei A ∈ (q) Rn,n , wobei n ∈ N+ , n ≥ 2. Für p, q ∈ {1, . . . , n} sei Ap ∈ Rn−1,n−1 diejenige Matrix, die aus A durch Streichen von p-ter Zeile und q-ter Spalte entsteht. r11 . . . r1n .. . Für i, j ∈ {1, . . . , n} gilt dann: Wir schreiben A =: ... . rn1 . . . rnn (k) (Entwicklung von A nach i-ter Zeile) (j) (Entwicklung von A nach j-ter Spalte) (1) det A = Pn det Ai (2) det A = Pn det Ak i+k rik k=1 (−1) k+j rkj k=1 (−1) Beweis. Nach Lemma 5.13(1) reicht es, (1) zu zeigen. Für k = 1, . . . , n sei Ak ∈ Rn,n diejenige Matrix, die in allen Zeilen außer der i-ten mit A übereinstimmt und deren i-te Zeile rik eni ist. Dann gilt nach Lemma 5.13(6a), (7) det A = n X k=1 det Ak = n X k=1 (k) (−1)i+k rik det Ai , 5.2. DETERMINANTEN 129 Satz 5.18 (Multiplikationssatz für Determinanten). Sei R ein Ring und seien A, B ∈ Rn,n , wobei n ∈ N+ . Dann gilt det(AB) = det A · det B, d. h. durch A 7→ det A, A ∈ Rn,n , ist ein surjektiver Monoidhomomorphismus det : (Rn,n , ·) → (R, ·) gegeben. Dieser induziert einen Gruppenepimorphismus det : GlR (n) → R∗ . Insbesondere gilt damit det A−1 = (det A)−1 für alle A ∈ GlR (n). Beweis. Sei f : Rn → Rn der durch f (x) := xB für alle x ∈ Rn definierte RHomomorphismus. Nach Übungsaufgabe 31(b) gilt dann ∆ ◦ f n ∈ AltR (Rn ; R), wenn ∆ ∈ AltR (Rn ; R) wie in Bemerkung 5.12 definiert ist. Wiederum nach Bemerkung 5.12 gibt es ein ρ ∈ R mit ∆ ◦ f n = ρ · ∆. Seien a1 , . . . , an die Zeilen von A. Da dann a1 B, . . . , an B die Zeilen von AB sind, gilt det(AB) = ∆(a1 B, . . . , an B) = (∆ ◦ f n )(a1 , . . . , an ) = ρ∆(a1 , . . . , an ) = ρ · det A = det A · ρ. Setzen wir hier A = En , so folgt det B = det(En B) = ρ · det En = ρ. Wegen det En = 1R ist det somit ein Monoidhomomorphismus, der nach Lemma 4.3 einen Homomorphismus GlR (n) → R∗ induziert. Die Surjektivität ist jeweils klar, da für jedes r ∈ R gilt r = det diag(r, 1R , . . . , 1R ). Der Rest ergibt sich aus Lemma 4.3, Definition 5.19 (Adjunktenmatrix). Sei R ein Ring und sei A ∈ Rn,n , wobei n ∈ N, n ≥ 2. Dann heßt (−1)1+1 det A1 .. := . (1) ... (−1)n+1 det An (1) ... Aad (n) T (−1)1+n det A1 .. . (n) n+n (−1) det An zu A adjungierte Matrix oder auch Adjunkte von A. (Der Eintrag von Aad an der (i) Stelle (i, j) ist also (−1)i+j det Aj , i, j = 1, . . . , n.) Satz 5.20. Sei R ein Ring und sei A ∈ Rn,n , wobei n ∈ N, n ≥ 2. Dann gilt: (1) A · Aad = Aad · A = det A · En . (2) A ist invertierbar genau dann, wenn det A ∈ R∗ . (3) Ist A invertierbar, so folgt A−1 = (det A)−1 · Aad . 130 KAPITEL 5. ENDOMORPHISMEN r11 . . . r1n .. und b Eintrag von A · Aad an der Stelle Beweis. (1) Sei A =: ... ij . rn1 . . . rnn (i, j), wobei i, j ∈ {1, . . . , n}. Weiter sei Bij ∈ Rn,n diejenige Matrix, die aus A entsteht, wenn die j-te Zeile von A durch die i-te Zeile von A ersetzt wird. Dann gilt mit Folgerung 5.17(1) und Lemma 5.13(3) ( n X 0R i 6= j (k) bij = rik (−1)j+k det Aj = det Bij = det A i = j k=1 d. h. A · Aad = det A · En . Hieraus folgt mit Lemma 5.13(1) T T Aad · A = ((AT )T )ad · (AT )T = (AT )ad · (AT )T = AT · (AT )ad T = det AT · En = det A · En . (2) und (3) Sei A invertierbar. Dann gilt det A ∈ R∗ nach Folgerung 5.18. Sei umgekehrt det A ∈ R∗ . Mit A0 := (det A)−1 ·Aad gilt dann A·A0 = A0 ·A = En nach (1), d. h. A ist invertierbar und es gilt A−1 = (det A)−1 · Aad , 5.3 Eigenwerte Wir wollen uns nun der Untersuchung von Endomorphismen endlich erzeugter K-Vektorräume (K ein Körper) zuwenden. Wir beginnen mit folgendem Problem: Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und f ∈ EndK V . Gibt es eine geordnete Basis B0 von V derart, daß die Koordinatenmatrix A0 von f bzgl. B0 (s. Definition 4.35) möglichst ”einfach” ist, genauer, kann man B0 so wählen, daß mit n := rangK V gilt A0 = Diag(λ1 , . . . , λn ) oder wenigstens λ1 ∗ .. A0 = . 0 λn mit geeigneten λ1 , . . . , λn ∈ K ? Im ersten Fall heißt f diagonalisierbar und im zweiten trigonalisierbar. Offensichtlich gilt: f ist diagonalisierbar genau dann, wenn es eine geordnete Basis (b01 , . . . , b0n ) von V und λ1 , . . . , λn ∈ K gibt mit f (b0i ) = λi b0i , i = 1, . . . , n. 5.3. EIGENWERTE 131 In Matrizenschreibweise heißt dies (s. Satz 4.48): Sei A ∈ K n,n . Gibt es eine invertierbare Matrix T ∈ GlK (n) mit T AT −1 = Diag(λ1 , . . . , λn ) oder wenigstens λ1 ∗ .. T AT −1 = . 0 λn mit geeigneten λ1 , . . . , λn ∈ K ? Entsprechend nennt man A im ersten Fall diagonalisierbar und im zweiten trigonalisierbar. Hierzu definieren wir: Definition 5.21. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndR V . (a) v ∈ V heißt Eigenvektor von f , wenn v 6= 0V und wenn es ein λ ∈ K gibt mit f (v) = λv. (Dieses λ ist wegen v 6= 0V eindeutig durch v bestimmt.) (b) λ ∈ K heißt Eigenwert von f , wenn es ein v ∈ V , v 6= 0V , gibt mit f (v) = λv. Jedes v ∈ V , v = 6 0V , mit f (v) = λv für ein λ ∈ K heißt Eigenvektor von f zum Eigenwert λ. (c) Für λ ∈ K setzen wir VK (λ, f ) := {v | v ∈ V, f (v) = λv} ⊆ V. Ist λ Eigenwert von f , so heißt VK (λ, f ) Eigenraum von f zum Eigenwert λ (von f ). Bemerkungen 5.22. Mit den Bezeichnungen von Definition 5.21 haben wir: 1. Sei λ ∈ K. Dann gilt für v ∈ V : f (v) = λv ⇐⇒ (f − λ · idV )(v) = 0V ⇐⇒ v ∈ Kern (f − λ · idV ) und damit ist VK (λ, f ) K-Untervektorraum von V . Offenbar ist λ Eigenwert von f genau dann, wenn VK (λ, f ) 6= 0. 2. Um Definition 5.21 formulieren zu können, reicht es, wenn K ein kommutativer Ring und V ein R-Modul ist. Hierfür bleibt auch die Aussage in 1. richtig, d. h. VK (λ, f ) ist dann ein K-Untermodul von V . Gleiches gilt auch für Definition 5.23, Definition 5.27(a) und Lemma 5.25. Da aber die meisten der nachfolgenden Aussagen nur gelten, wenn K Körper und V endlich erzeugt ist, beschränken wir uns hier generell auf diesen Fall. 132 KAPITEL 5. ENDOMORPHISMEN 3. Sei n := rangK V < ∞ und sei v ∈ V \ {0V } Eigenvektor von f zum Eigenwert λ ∈ K. Wir ergänzen {v} zu einer geordneten Basis (v, b2 , . . . , bn ) von V . Dann hat die Koordinatenmatrix A0 von f bzgl. (v, b2 , . . . , bn ) die Gestalt λ 0K A0 = .. B . 0K mit einer geeigneten (n, n − 1)-Matrix B ∈ K n,n−1 . 4. f ist diagonalisierbar genau dann, wenn V eine Basis besitzt, die nur aus Eigenvektoren von f besteht. 5. Sei B := (b1 , . . . , bn ), n := rangK V , geordnete Basis von V . A ∈ K n,n sei Koordinatenmatrix von f bzgl. B. Für λ ∈ K ist dann A − λEn Koordinatenmatrix von f − λ · idV bzgl. B (s. Lemma 4.37) und somit gilt für v ∈V: T (f − λ · idV )(v) = 0V ⇐⇒ (A − λ · En )vB = 0. Daher ist v Eigenvektor von f zum Eigenwert λ genau dann, wenn vB nichttriviale Lösung des linearen homogenen Gleichungssystems (A − λ · En )XT = 0, X := (X1 , . . . Xn ), ist. Der Eigenraum VK (λ, f ) ist damit gegeben durch die Lösungsmenge L dieses Systems, genauer, o nP n x b (x , . . . , x ) ∈ L . VK (λ, f ) = 1 n i=1 i i Damit ist aber auch klar, welche λ ∈ K Eigenwerte von f sind. Es gilt nämlich (s. Satz 3.50(2) und Satz 5.16(2)): λ∈K ⇐⇒ ⇐⇒ ⇐⇒ ist Eigenwert von f ⇐⇒ (A − λ · En )XT = 0 besitzt nichttriviale Lösungen rangK (A − λ · En ) < n det(A − λ · En ) = 0K Definition 5.23. Sei K ein Körper und X eine Unbestimmte. Weiter sei n ∈ N+ und A ∈ K n,n . (a) Das Polynom χA := det(A − XEn ) ∈ K[X] heißt charakteristisches Polynom von A. 5.3. EIGENWERTE 133 (b) Die Nullstellen von χA (in K) heißen Eigenwerte von A (in K). (c) Ist λ ∈ K Eigenwert von A, so heißt die Lösungsmenge L ⊆ K n des homogenen linearen Gleichungssystems (A − λEn )XT = 0, X := (X1 , . . . , Xn ), Eigenraum von A zum Eigenwert λ (von A). Er wird mit VK (λ, A) bezeichnet. Die von 0V verschiedenen Elemente von VK (λ, A) heißen Eigenvektoren von A zum Eigenwert λ. Bemerkung 5.24. Selbstverständlich kann man auch Nullstellen λ von χA betrachten, die nicht in K, sondern in einem Erweiterungskörper L von K liegen, s. Beispiel 5.29(b) unten. In diesem Fall faßt man A (stillschweigend) als Element von Ln,n auf und betrachtet den Eigenraum VL (λ, A), der dann natürlich Untervektorraum von Ln ist. Dann muß man aber auch für diejenigen Eigenwerte µ von A, die in K liegen, den zugehörigen Eigenraum in Ln betrachten, also VL (µ, A) statt VK (µ, A). Im Hinblick auf Definition 5.27 ist zu erwähnen, daß rangK VK (µ, A) = rangL VL (µ, A). Lemma 5.25. Sei K ein Körper und sei A ∈ K n,n , wobei n ∈ N+ . Dann gilt grad χA = n. Wenn wir für i ∈ {0, 1, . . . , n} mit ai (A) ∈ K den Koeffizienten von X n−i in χA bezeichnen, so haben wir weiter (1) a0 (A) = lk χA = (−1K )n , (2) a1 (A) = (−1)n−1 spur A und (3) an (A) = det A. a11 . . . a1n .. . Aus der Determinantendefinition folgt Beweis. Sei A =: ... . an1 . . . ann χA = (a11 − X) · . . . · (ann − X) + (Polynome vom Grad ≤ n − 2) = (−1)n X n + (−1)n−1 (a11 + . . . + ann )X n−1 + (Polynome vom Grad ≤ n − 2) und hieraus ergibt sich grad χA = n sowie (1) und (2). Weiter gilt an (A) = χA (0K ) = det A, 134 KAPITEL 5. ENDOMORPHISMEN Alle von nun betrachteten Vektorräume sind - wenn nicht ausdrücklich anders gesagt - endlich erzeugt. Lemma 5.26. Sei K ein Körper und V ein K-Vektorraum mit n := rangK V . B, B0 seien geordnete Basen von V . Weiter sei f ∈ EndK V . A ∈ K n,n sei Koordinatenmatrix von f bzgl. B und A0 ∈ K n,n sei Koordinatenmatrix von f bzgl. B0 . Dann gilt: (1) χA = χA0 . (2) λ ∈ K ist Eigenwert von f genau dann, wenn χA (λ) = 0K , d. h. wenn λ Eigenwert von A ist. Beweis. (1) Nach Satz 4.48 gibt es eine Matrix T ∈ GlK (n) mit A0 = T AT −1 . Hieraus folgt T (A − XEn )T −1 = T AT −1 − XT En T −1 = A0 − XEn und wir erhalten mit Folgerung 5.18 χA0 = det(A0 − XEn ) = det T det(A − XEn ) det T −1 = det A χA (det A)−1 = χA . (2) ist unmittelbare Konsequenz aus den Überlegungen in Bemerkung 5.22.5, Damit definieren wir: Definition 5.27. Sei V ein K-Vektorraum und f ∈ EndK V . (a) Wir setzen χf := χA und ai (f ) := ai (A), i = 0, . . . , n sowie spur f := spur A und det f := det A, wenn A Koordinatenmatrix von f bzgl. einer geordneten Basis von V ist. χf heißt charakteristisches Polynom von f und entsprechend nennt man spur f bzw. det f Spur bzw. Determinante von f . (b) Sei λ ∈ K Eigenwert von f . Dann heißt • ordλ (χf ) (s. Definition 5.3) algebraische Vielfachheit des Eigenwertes λ von f und • rangK V (λ, f ) geometrische Vielfachheit des Eigenwertes λ von f . (c) Wie in (b) sind algebraische und geometrische Vielfachheit eines Eigenwertes einer quadratischen Matrix mit Einträgen aus K erklärt. 5.3. EIGENWERTE 135 Bemerkung 5.28. Mit diesen Bezeichnungen ist die durch f 7→ det f gegebene Abbildung det : EndK V → K ein surjektiver Homomorphismus der jeweils unterliegenden multiplikativen Monoide, der einen Gruppenepimorphismus det : GlK (V ) → K ∗ induziert, (s. Satz 5.18) und die durch f 7→ spur f gegebene Abbildung spur : EndK V → K ist K-linear (s. Übungsaufgabe 32(a)). Beispiele 5.29. Man bestimme die Eigenwerte und die jeweils zugehörigen Eigenräume der Matrizen 1 1 (a) A := ∈ Q2,2 und −6 −4 0 −1 5 0 1 0 0 0 ∈ Q4,4 . (b) A := 0 0 1 1 0 0 0 1 Lösung: (a) 1. Ermittlung der Eigenwerte von A: χA = X 2 − (spur A)X + det A = X 2 + 3X + 2 = (X + 1)(X + 2) (s. Lemma 5.25). Die Eigenwerte von A sind also λ1 = −1 und λ2 = −2 2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten: VQ (−1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A + E2 )XT = 0, X := (X1 , X2 ), d. h. von 2X1 + X2 = 0 −6X1 − 3X2 = 0 Damit gilt VQ (−1, A) = {t(−1, 2) | t ∈ Q} = Q(−1, 2). VQ (−2, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A + 2E2 )XT = 0, d. h. von 3X1 + X2 = 0 −6X1 − 2X2 = 0 Damit gilt VQ (−2, A) = {t(−1, 3) | t ∈ Q} = Q(−1, 3). Wir bemerken, daß die Basisvektoren (−1, 2) von VQ (−1, A) und (−1, 3) von VQ (−2, A) linear unabhängig sind. (b) 1. Ermittlung der Eigenwerte von A: 136 KAPITEL 5. ENDOMORPHISMEN Nach Übungsaufgabe 33 gilt χA = det(A − XE4 ) 1 1 0 −1 = det − XE2 · det − XE2 1 0 0 1 = (X 2 + 1)(X − 1)2 und damit hat A über Q lediglich den Eigenwert λ1 = 1. Dieser hat die algebraische Vielfachheit 2. Fassen wir A als Matrix über C auf, so kommen die Eigenwerte λ2,3 = ±i hinzu, beide mit der algebraischen Vielfachheit 1. 2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten: VQ (1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A − E2 )XT = 0, X := (X1 , X2 , X3 , X4 ), d. h. von −X1 − X2 + 5X3 X1 − X2 X4 = 0 = 0 = 0 Damit gilt VQ (1, A) = {t(5, 5, 2, 0) | t ∈ Q} = Q(5, 5, 2, 0) und VC (1, A) = {t(5, 5, 2, 0) | t ∈ C} = C(5, 5, 2, 0). VC (±i, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A ∓ iE2 )XT = 0, d. h. von ∓iX1 − X2 + X1 ∓ iX2 5X3 (1 ∓ i)X3 + X4 (1 ∓ i)X4 = = = = 0 0 0 0 Damit gilt VC (±i, A) = {t(±i, 1, 0, 0) | t ∈ C} = C(±i, 1, 0, 0). Wir bemerken wie in Beispiel (a), daß (5, 5, 2, 0), (i, 1, 0, 0), (−i, 1, 0, 0) linear unabhängige Vektoren sind. Satz 5.30. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Dann gilt für jeden Eigenwert λ ∈ K von f : 1 ≤ rangK VK (λ, f ) ≤ ordλ (χf ). Beweis. Sei m := rangK VK (λ, f ). Wegen rangK VK (λ, f ) 6= 0 gilt m ≥ 1. Sei {b1 , . . . , bm } Basis von VK (λ, f ). Wir ergänzen {b1 , . . . , bm } zu einer Basis {b1 , . . . . . . , bn }, n := rangK V , von V . Bzgl. der geordneten Basis (b1 , . . . , bn ) von V hat f die Koordinatenmatrix λEm ∗ A := 0 A0 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 137 mit A0 ∈ K n−m,n−m , s. Bemerkung 5.22.3. Dann gilt mit Übungsaufgabe 33: χf = χA = det(A − XEn ) = det (λ − X)Em · det(A0 − XEn−m ) = (−1)m (X − λ)m χA0 und hieraus folgt m ≤ ordλ (χA ) = ordλ (χf ), 5.4 Klassifizierung von Endomorphismen endlich erzeugter Vektorräume I Satz 5.31. Seien K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Weiter sei Λ ⊆ K eine Menge von Eigenwerten von f . Dann gilt: (1) VK (λ, f ) ∩ VK (µ, f ) = 0 für alle λ, µ ∈ Λ mit λ 6= µ. (2) Ist Xλ ⊂ VK (λ, f ) für jedes λ ∈ Λ eine linear S unabhängige Menge, so sind die Xλ , λ ∈ Λ, paarweise disjunkt und X := λ∈Λ Xλ ist linear unabhängige Teilmenge von V . Beweis. (1) Seien λ, µ ∈ Λ, λ 6= µ. Wenn v ∈ VK (λ, f ) ∩ VK (µ, f ), so folgt (λ − µ)v = λv − µv = f (v) − f (v) = 0V , also v = 0V (da λ 6= µ). (2) Die erste Aussage von ergibt sich sofort aus (1). Zum Nachweis der zweiten Aussage dürfen wir o. B. d. A. annehmen, daß Λ endlich ist, sagen wir Λ = {λ1 , . . . , λm } mit paarweise verschiedenen λ1 , . . . , λm ∈ K. Hierzu benutzen wir nun Induktion nach m, wobei für m = 1 nichts zu zeigen ist. Sei also m > 1. Wir vereinbaren, daß wir für x ∈ X mit λx den zu x gehörenden Eigenwert bezeichnen (d. h. λx = λi , wenn x ∈ Xλi , i ∈ {1, . . . , m}). Schließlich setzen Sm−1 wir Y := i=1 Xλi . Angenommen, wir haben X x∈X αx x = 0V , 138 KAPITEL 5. ENDOMORPHISMEN wobei αx ∈ K für alle x ∈ X und αx = 0K für fast alle x ∈ X. Dann folgt X X X X αy (λm − λy )y = αx (λm − λx )x = λm αx x − α x λx x y∈Y x∈X = − X x∈X αx f (x) = −f x∈X x∈X | {z } =0V ! X αx x = −f (0V ) x∈X = 0V , also haben wir nach Induktionsvoraussetzung αy (λm − λy ) = 0K für alle y ∈ Y . Wegen sich hieraus αy = 0K für alle P λm 6= λy für alle y ∈ Y ergibt P y ∈ Y . Da x∈X αx x = 0V folgt hieraus x∈Xλm αx x = 0V , also αx = 0K für alle x ∈ Xλm , denn laut Voraussetzung ist Xλm linear unabhängige Menge. Zusammengenommen haben wir αx = 0K für alle x ∈ X, d. h. X ist linear unabhängige Menge, Sei nun K ein Körper. Wenn nicht ausdrücklich anders gesagt, sind alle KVektorräume endlich erzeugt. Folgerung 5.32. Sei V ein K-Vektorraum und f ∈ EndK V . Wenn χf in K[X] vollständig in Linearfaktoren zerfällt und wenn ordλ (χf ) = 1 für jeden Eigenwert λ von f , d. h. wenn χf genau n := rangK V paarweise verschiedene Nullstellen λ1 , . . . , λn ∈ K besitzt, so besitzt V eine Basis B, die nur aus Eigenvektoren von f besteht. Wenn B =: {x1 , . . . , xn }, wobei xi Eigenvektor von λi ist, i = 1 . . . , n, so ist Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B := (x1 , . . . , xn ) von V , d. h. ist f diagonalisierbar. Beweis. Zu jedem λi , i = 1, . . . , n, wählen wir einen Eigenvektor xi ∈ V . Nach Satz 5.31 sind x1 , . . . , xn paarweise verschieden und B := {x1 , . . . , xn } ist linear unabhängig, also Basis von V , s. Satz 3.43. Definitionsgemäß ist Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B := (x1 , . . . , xn ), Wir können nun zeigen Theorem 5.33. Sei f ein K-Endomorphismus eines K-Vektorraums V . Dann gilt: (1) Folgende Aussagen sind äquivalent: (i) f ist trigonalisierbar (ii) χf zerfällt in K[X] vollständig in Linearfaktoren. (2) Folgende Aussagen sind äquivalent: 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 139 (i) f ist diagonalisierbar (ii) χf zerfällt in K[X] vollständig in Linearfaktoren und für alle Eigenwerte λ von f gilt rangK VK (λ, f ) = ordλ (χf ). Beweis. Sei n := rangK V (< ∞). ∗ λ1 Nehmen wir zunächst an, daß f trigonalisierbar ist. A := .. . ∈ 0 λn K sei Koordinatenmatrix von f bzgl. einer geeigneten geordneten Basis B = (b1 , . . . , bn ) von V . Nach Übungsaufgabe 33 gilt dann n,n χf = χA = (−1)n (X − λ1 ) · . . . · (X − λn ), d. h. χf zerfällt in K[X] vollständig in Linearfaktoren. Ist f sogar diagonalisierbar und gilt A = Diag(λ1 , . . . , λn ) bzgl. B, so besteht B nur aus Eigenvektoren von f , genauer, bi ist Eigenvektor zum zum Eigenwert λi , i = 1, . . . , n. Sei i ∈ {1, . . . , n} und nehmen wir o. B. d. A. an, daß λ := λi = . . . = λi+m−1 mit m := ordλi (χf ). Da rangK VK (λ, f ) ≤ m (s. Satz 5.30) und da bi , . . . bi+m−1 linear unabhängige Vektoren aus VK (λ, f ) sind, muß sogar gelten rangK VK (λ, f ) = m. Daher haben wir im Falle der Diagonalisierbarkeit von f rangK VK (λ, f ) = ordλ (χf ) für alle Eigenwerte λ von f und die Implikationen (i) =⇒ (ii) in (1) und (2) sind gezeigt. χf zerfalle nun in K[X] vollständig in Linearfaktoren. Dann können wir schreiben (s. Lemma 5.25 zusammen mit Definition 5.27) χf = (−1)n (X − λ1 )m1 · . . . · (X − λp )mp mit paarweise verschieden λ1 , . . . , λp ∈ K und m1 , . . . , mp ∈ N+ . λ1 , . . . , λp sind somit die Nullstellen von χf und folglich die Eigenwerte von f und es gilt mi = ordλi (χf ) > 0, i = 1, . . . , p, sowie m1 + . . . + mp = n. Wenn rangK VK (λi , f ) = mi für alle i = 1, . . . , p, so wählen wir eine Basis Xi von VK (λi , f ), i = 1, . . . , p. Nach Satz 5.31(2) ist dann X := X1 ∪ . . . ∪ Xp ⊂ V linear unabhängige Menge und es gilt ]X = ]X1 + . . . + ]Xp = m1 + . . . + mp = n. Somit ist X Basis von V (s. Satz 3.43) bestehend aus Eigenvektoren von f , d. h. f ist diagonalisierbar (s. Bemerkung 5.22.4), und (2) ist gezeigt. Um schließlich noch die Implikation (ii) =⇒ (i) von (1) zu zeigen, benutzen wir Induktion nach n, wobei für n = 1 nichts zu zeigen ist. Sei also n ≥ 2 und sei 140 KAPITEL 5. ENDOMORPHISMEN v1 ∈ V Eigenvektor zum Eigenwert λ1 . Wir ergänzen v1 zu einer geordneten Basis B0 := (v1 , b2 , . . . , bn ) von V . Bzgl. B0 hat f die Koordinatenmatrix λ1 β2 . . . βn 0 A := 0 B0 mit β2 , . . . , βn ∈ K und B 0 ∈ K n−1,n−1 , s. Bemerkung 5.22.3. Sei nun W := K{b2 , . . . , bn } der von {b2 , . . . , bn } erzeugte K-Untervektorraum von V und g ∈ EndK W mit g(b2 ,...,bn ) = B 0 (s. Satz 4.38(2)). Für j = 2, . . . , n gilt dann f (bj ) = βj v1 + g(bj ) und mit Übungsaufgabe 33 haben wir χf = χA0 = −(X − λ1 )χB 0 = −(X − λ1 )χg . Da K[X] Integritätsring ist (s. Folgerung B.10), folgt hieraus, daß χg = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp , d. h. auch χg zerfällt in K[X] vollständig in Linearfaktoren. Da rangK W = n − 1, gibt es nach Induktionsvoraussetzung eine geordnete Basis (v2 , . . . , vn ) von W , bzgl.derer die Koordinatenmatrix von g eine obere Dreiecksmatrix ist, sagen µ2 ∗ ... wir . Nun ist B := (v1 , . . . , vn ) geordnete Basis von V . Da 0 µn für j = 2, . . . , n gilt f (vj ) = βj0 v1 + g(vj ) mit geeigneten β20 , . . . , βn0 ∈ K, hat µ1 ∗ .. die Koordinatenmatrix A von f bzgl. B die Gestalt A = mit . 0 µn µ1 := λ1 , d. h. f ist trigonalisierbar, Folgerung 5.34. Ist ein Endomorphismus f eines K-Vektorraumes V trigonalisierbar und ist B geordnete Basis von V bzgl. derer die Koordinatenmatrix A von f eine obere Dreiecksmatrix ist, so sind die Einträge auf der Hauptdiagonale von A genau die Eigenwerte von f (mit den jeweiligen algebraischen Vielfachheiten). Beweis. Aus dem Beweis der Implikation (ii) =⇒ (i) der Aussage (1) von Satz 5.33 ergibt sich mit den dortigen Bezeichnungen (−1)n (X − λ1 )m1 · . . . · (X − λp )mp = χf = χA = (−1)n (X − µ1 ) · . . . · (X − µn ). Damit folgt etwa durch Einsetzen zunächst {µ1 , . . . , µn } = {λ1 , . . . , λp }. Die entsprechenden Nullstellenordnugen stimmen dann aber wegen ihrer Eindeutigkeit (s. Folgerung 5.2(2) zusammen mit Definition 5.3) auch überein, 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 141 Bemerkung 5.35. Für Matrizen aus K n,n , n ∈ N+ , gelten natürlich die Analoga der Aussagen aus Satz 5.33 und Folgerung 5.34. Dies werden wir in Zukunft stets stillschweigend voraussetzen. Folgerung 5.36. Sei K ein Körper und B ∈ K n,n , wobei n ∈ N, n ≥ 2. Es gelte χB = (−1)n (X−λ1 )m1 ·. . .·(X−λp )mp mit paarweise verschiedenen λ1 , . . . , λp ∈ K und m1 , . . . , mp ∈ N+ . (1) Man bestimmt eine Matrix T ∈ GlK (n), so daß T · B · T −1 obere Dreiecksmatrix ist, wie folgt: i. Man wählt einen Eigenvektor v1 von B zum Eigenwert λ1 , ergänzt {v1 } zu einer geordneten Basis (v1 , b2 , . . . , bn ) von K n und setzt S := v1T , bT2 , . . . −1 S ist Transformationsmatrix von Koordinaten bzgl. der ka. . . , bTn nonischen Basis En von K n in Koordinaten bzgl. (v1 , b2 , . . . , bn ) . λ1 ∗ 0 −1 0 ii. Sei A := S · B · S . Dann gilt A = mit B 0 ∈ K n−1,n−1 und 0 B0 χB 0 = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp . iii. Man bestimmt eine Matrix T 0 ∈ GlK (n − 1), so daß T 0 · B 0 · (T 0 )−1 obere Dreiecksmatrix ist. 1K 0 iv. Mit T̃ := und T := T̃ · S ist A := T · B · T −1 = T̃ · A0 · T̃ −1 0 T0 obere Dreiecksmatrix. (2) Ist B diagonalisierbar, so bestimmt man eine Matrix T ∈ GlK (n), so daß T · B · T −1 Diagonalgestalt hat wie folgt: Für i = 1, . . . , p berechne man eine geordnete Basis (vi1 , . . . , vimi ) des Eigen−1 T T T T . Dann , . . . , v , . . . , v , . . . , v1m raumes VK (λi , B) und setze T := v11 pm p1 p 1 gilt T · B · T −1 = Diag λ1 , . . . , λ1 , . . . , λp , . . . , λp . | {z } | {z } m1 −mal mp −mal 2 −1 1 Beispiel 5.37. Sei B := −1 2 −1 ∈ Q3,3 . Man prüfe, ob B diagonali2 2 3 sierbar oder trigonalisierbar ist und - falls ja - gebe man eine Matrix T ∈ GlQ (3) an, so daß T BT −1 Diagonal- bzw. Dreiecksgestalt hat. 2−X −1 1 2−X −1 = −(X − 1)(X − 3)2 und Lösung: Es gilt χB = det −1 2 2 3−X damit ist B auf jeden Fall trigonalisierbar. Die Eigenwerte von B sind λ1 = 1 und λ2 = 3 (letzterer mit Vielfachheit 2). 142 KAPITEL 5. ENDOMORPHISMEN Berechnung von VQ (1, B): VQ (1, B) ist Lösungsmenge des homogenen Gleichungssystems X 1 − X2 + X3 = 0 −X1 + X2 − X3 = 0 2X1 + 2X2 + 2X3 = 0 Anwendung des Gaußschen Algorithmus führt es über in X1 − X2 + X3 = 0 4X2 = 0 und damit gilt VQ (1, B) = Q(1, 0, −1). Berechnung von VQ (3, B): VQ (3, B) ist Lösungsmenge des homogenen Gleichungssystems −X1 − X2 + X3 = 0 −X1 − X2 − X3 = 0 2X1 + 2X2 = 0 Anwendung des Gaußschen Algorithmus führt es über in −X1 − X2 + X3 = 0 −2X3 = 0 und damit gilt VQ (3, B) = Q(1, −1, 0). Da rangQ VQ (3, B) = 1 < 2 = ord3 χB ist B nach Satz 5.33(2) nicht diagonalisierbar. Berechnung einer Matrix T ∈ GlQ (3), so daß T BT −1 Dreiecksgestalt hat: i. Setze v1 := (1, 0, −1) und ergänze {v1 } zu einer geordneten Basis (v1 , b2 , b3 ) 1 0 0 von Q3 , z. B. zu (v1 , e3,2 , e3,3 ) (da mit C := 0 1 0 gilt rang C = 3). −1 0 1 1 0 0 Setze S := C −1 = 0 1 0. 1 0 1 1 −1 1 2 −1 0 −1 −1 0 ii. Sei A := S · B · S = C · B · C = 0 2 −1 und B := . 1 4 0 1 4 Dann gilt χB 0 = (X − 3)2 . 0 0 iii. VQ (3, B 0 ) = Q(−1, 1). Mit v2 := (−1, 1) ist (v2 , e2,2 ) geordnete Basis −1 0 −1 (da mit D := gilt rang D = 2). Mit T 0 := D−1 = 1 1 1 3 1 dann T 0 · B 0 · (T 0 )−1 = . 0 3 2 von Q 0 gilt 1 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 143 1 0 0 1 0 0 1 0 0 iv. Mit T := T̃ · S = 0 −1 0 · 0 1 0 = 0 −1 0 gilt: 0 1 1 1 0 1 1 1 1 A = T · B · T −1 1 2 1 = 0 3 1 . 0 0 3 Wir sind nun in der Lage, eine vorläufige Klassifizierung von K-Endomorphismen eines endlich erzeugten K-Vektorraumes zu geben. ”Vorläufig” soll dabei heißen, daß wir im Moment nur diagonalisierbare Endomorphismen endlich erzeugter K-Vektorräume klassifizieren können. Für eine vollständige Klassifizierung benötigt man Methoden und Hilfsmittel, die derzeit noch nicht zur Verfügung stehen (Jordansche Normalform). ”Klassifizierung” bedeutet, daß wir jedem Endomorphismus gewisse Daten zuordnen, die diesen bis auf Ähnlichkeit eindeutig festlegen, wobei ”Ähnlichkeit” von Endomorphismen in Anlehnung an Definition 2.35(b) wie folgt definiert ist: Definition 5.38. Sei K ein Körper. Endomorphismen f, g ∈ EndK V eines (nicht notwendig endlich erzeugten) K-Vektorraumes V heißen ähnlich, wenn es einen Automorphismus h ∈ GlK (V ) von V gibt mit g = h ◦ f ◦ h−1 . Wie bei Matrizen ist klar, daß die Ähnlichkeit von K-Endomorphismen eines K-Vektorraumes V eine Äquivalenzrelation auf EndK V ist, s. Lemma 2.36. Satz 5.39. Sei V ein K-Vektorraum und seien f, g ∈ EndK V diagonalisierbare Endomorphismen von V . Dann sind die folgenden Eigenschaften äquivalent: (i) f und g sind ähnlich (ii) die Eigenwerte von f und g stimmen überein (d. h. sind λ1 , . . . , λn die Eigenwerte von f und µ1 , . . . , µn die Eigenwerte von g, n := rangK V , so gibt es eine Permutation π ∈ Sn mit µi = λπ(i) , i = 1, . . . , n) (iii) χf = χg . Beweis. Sei A bzw. A0 die Koordinatenmatrix von f bzw. g bzgl. einer geordneten Basis B von V . Da f, g diagonalisierbar sind, sind A bzw. A0 ähnlich zu Diagonalmatrizen D bzw. D0 , deren Diagonaleinträge nach Folgerung 5.34 genau die Eigenwerte von f bzw. g mit den jeweiligen algebraischen Vielfachheiten sind. (i) ⇒ (iii): Sei h ∈ GlK (V ) mit g = h ◦ f ◦ h−1 und sei C ∈ GlK (n) Koordinatenmatrix von h bzgl. B. Da dann A0 = CAC −1 (s. Satz 4.38(2)), folgt wegen 144 KAPITEL 5. ENDOMORPHISMEN det C det C −1 = det En = 1K (s. Definition 5.27 und Folgerung 5.18): χf = = = = χA = det(A − XEn ) = det C det(A − XEn ) det C −1 det C(A − XEn )C −1 = det CAC −1 − XCC −1 det(A0 − XEn ) = χA0 χg . (iii) ⇒ (ii) ist klar, da die Eigenwerte eines Endomorphismus genau die Nullstellen seines charakteristischen Polynoms sind. (ii) ⇒ (i): Nach Übungsaufgabe 40(b) sind D und D0 ähnlich. Somit sind A und A0 ähnlich, d. h. es gibt ein C ∈ GlK (n) mit A0 = CAC −1 . Sei h ∈ GlK (V ) der durch hB = C eindeutig bestimmte K-Automorphismus (s. Satz 4.38(2)). Dann gilt g = h ◦ f ◦ h−1 wiederum nach Satz 4.38(2), d. h. f und g sind ähnlich, Anhang A Mengentheoretische und logische Grundlagen A.1 Allgemeine Bemerkungen Grundlegende Objekte der Mathematik sind Mengen. Sie bestehen aus Elementen. Dabei muß für ein gegebenes Element x und eine Menge X entweder x Element von X sein, kurz x ∈ X, oder x ist nicht Element von X, kurz x 6∈ X. Eine Menge kann durch explizite Angabe ihrer Elemente angegeben werden, wie z. B. X = {1, 2, 3} oder durch Eigenschaften, die ihre Elemente haben sollen, z. B. N+ := {n ∈ N | n > 0}. (N : Menge der natürlichen Zahlen, N = {0, 1, 2, . . .}). Hinsichtlich der grundlegenden Definitionen und Eigenschaften der Zahlbereiche wie natürliche Zahlen (N), ganze Zahlen (Z), rationale Zahlen (Q), reelle Zahlen (R) und komplexe Zahlen (C) verweisen wir auf den Kurs ”Analysis I”. Weiterhin werden Aussagen verwendet, die im Unterschied zur Umgangssprache nach strengen Regeln aufgebaut sind. Eine mathematische Aussage ist demnach ein im Zusammenhang mit einer mathematischen Theorie formuliertes sinnvolles sprachliches Konstrukt, das entweder wahr oder falsch ist. Was dabei z. B. ”sinnvoll” heißt, wird im Rahmen der formalen Logik durch eine entsprechende Axiomatik geklärt, die wir hier jedoch nicht behandeln wollen. Die exakte Definition (Axiomatik) von Mengen und die Untersuchung ihrer Eigenschaften, auf die wir hier ebenfalls nicht eingehen wollen, ist Gegenstand der Mengenlehre. Sie bildet zusammen mit der formalen Logik und den formalen Sprachen die drei Grundsäulen der Mathematik (s. Einleitung). Beispiele A.1. 1. Mengen dürfen nicht beliebig gebildet werden Sei X eine Menge. Man erwartet intuitiv, daß X 6∈ X. Sei also X die Menge 145 146 ANHANG A. MENGEN UND LOGIK aller Mengen, die sich nicht selbst als Element enthalten, d. h. X = {X | X Menge, X 6∈ X}. Nun sieht man sofort, daß weder X ∈ X noch X 6∈ X gilt, d. h. obiges Prinzip ist verletzt. In der Tat verbietet die Axiomatik der Mengenlehre diese Bildung. Ebenso ist die Bildung der ”Menge aller Mengen” nicht zulässig. Dennoch ist es oft nötig, Gesamtheiten von Mengen zu betrachten. Wenn man nicht sicher ist, ob es sich dabei um eine Menge handelt oder nicht, so spricht man in solchen Fällen häufig von einer ”Klasse”. In diesem Sinne kann man von der ”Klasse aller Mengen” reden. 2. Bei der Verwendung der ”Umgangssprache” in der Mathematik ist Vorsicht geboten Natürliche Zahlen kann man mit Sätzen der deutschen Sprache beschreiben. Da nur endlich viele Buchstaben und Satzzeichen (einschließlich Leerzeichen) existieren, kann man nur endlich viele Sätze der deutschen Sprache bilden, die aus maximal 200 Zeichen bestehen. Wir bilden nun den Satz: Betrachte die kleinste natürliche Zahl, die sich nicht mit einem Satz der deutschen Sprache beschreiben läßt, der aus maximal zweihundert Zeichen besteht. Dieser Satz besteht aus weniger als 200 Zeichen und damit hätten wir gerade eine Zahl betrachtet, die es gar nicht geben darf! Dies ist aber nur ein scheinbarer Widerspruch, denn die Axiomatik der Arithmetik (PeanoAxiome) gestattet die Bildung einer derartigen ”Zeichenkette” gar nicht. Anders gesagt: Aus Sicht der Arithmetik ist diese Zeichenkette inhaltsleer, wie etwa auch ”Sechs ist eine trockene Zahl”, und damit kann sie auch keinen Widerspruch darstellen. Wir wenden uns nun zunächst den Mengen zu. A.2 Mengen Seien X, Y Mengen. Wir sagen, daß X Teilmenge von Y ist, kurz X ⊆ Y , wenn für alle x ∈ X gilt x ∈ Y . Äquivalente Bezeichnung: Y ist Obermenge von X, kurz Y ⊇ X. Ist X Teilmenge von Y und gilt X 6= Y , so bezeichnen wir dies mit X ⊂ Y (oder Y ⊃ X) und sagen, X sei echte Teilmenge von Y . A.2. MENGEN 147 Die leere Menge enthält keine Elemente. Sie wird mit ∅ bezeichnet und ist gekennzeichnet durch die Eigenschaft ∅ ⊆ A für alle Mengen A. Jede Menge X enthält die Teilmengen ∅ und X selbst. Seien X, Y Mengen. Folgende Mengen können gebildet werden X ∪ Y := {z | z ∈ X oder z ∈ Y } Vereinigung von X und Y X ∩ Y := {z | z ∈ X und z ∈ Y } X \ Y := {z | z ∈ X und z 6∈ Y } X × Y := {(x, y) | x ∈ X, y ∈ Y } Durchschnitt von X und Y Differenz von X und Y Produkt von X und Y Für eine Menge A kann die Menge P (A) := {X | X ⊆ A} aller Teilmengen von A gebildet werden. Sie heißt Potenzmenge von A. Beispielsweise ist P (∅) = {∅} (dies ist nicht die leere Menge!) und P ({x}) = {∅, {x}}. Für X ∈ P (A) sei X := A \ X ∈ P (A). X heißt Komplement von X (bzgl. A). Hierfür gelten ein ganze Reihe von Regeln, von denen hier nur einige genannt werden sollen. Satz A.2. Für alle Mengen X, Y, Z gilt (1) Assoziativität (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z) und (X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z) (2) Distributivität (X ∪ Y ) ∩ Z = (X ∩ Z) ∪ (Y ∩ Z) und (X ∩ Y ) ∪ Z = (X ∪ Z) ∩ (Y ∪ Z) (3) Kommutativität X ∪Y X ∩Y = Y ∪ X und = Y ∩X Nehmen wir nun an, daß X, Y ∈ P (A) mit einer weiteren Menge A. Dann gilt (4) X=X (5) de Morgansche Gesetze X ∪Y X ∩Y = X ∩ Y und = X ∪Y 148 ANHANG A. MENGEN UND LOGIK Auf den Beweis verzichten wir, da er sich sofort aus den Definitionen und Satz A.5 ergibt. Vereinigungen und Durchschnitte können auch von ”beliebig vielen” Mengen gebildet werden: Sei X eine Menge von Mengen. Dann können die Mengen [ X := {z | z ∈ X für ein X ∈ X } (Vereinigung der X ∈ X ) X∈X \ X := {z | z ∈ X für alle X ∈ X } (Durchschnitt der X ∈ X ) X∈X gebildet werden. Hierfür gelten entsprechende Regeln wie oben. Sind X1 , . . . , Xn Mengen, so kann auch das Produkt X1 ×. . .×Xn gebildet werden: X1 × . . . × Xn := {(x1 , . . . , xn ) | xi ∈ Xi , 1 ≤ i ≤ n}, Bezeichnung: Qn i=1 Xi . Für X1 = . . . = Xn =: X schreibt man X . . × X} =: X n . | × .{z n−mal Diese Menge wird auch als Menge der geordneten n-Tupel (mit Einträgen aus X) bezeichnet. Bemerkung A.3. Häufig beschreibt man Mengen von Mengen mit Hilfe von Indexmengen, d. h. man hat eine Menge I (die Indexmenge) und für jedes ι ∈ I (also für jeden Index ι aus I) eine Menge Xι . Dann wäre X = {Xι | ι ∈ I} zwar eine Menge von Mengen, der Vorteil der Indexschreibweise ist jedoch, daß Wiederholungen noch ”erkennbar” sind. Wenn nämlich Xι = Xλ =: X für verschiedene Indizes ι, λ ∈ I, so erscheint X in X nur einmal, was mitunter zu begrifflichen Schwierigkeiten führen kann. Um diese Problematik an einem Beispiel zu verdeutlichen, setzen wir I = Z und setzen für alle i ∈ Z: Xi := {n | n ∈ Z, n ist durch i teilbar}. Dann gilt z. B. X0 = {0}, X1 = Z = X−1 , X2 = {. . . , −4, −2, Q 0, 2, 4, . . .} = X−2 usw. Wenn X := {Xi | − 1 ≤ i ≤ 1}, so ist offensichtlich X∈X X = {0} × Z. Q Q Q Hingegen gilt 1i=−1 Xi = Z×{0}×Z, d. h. X∈X X ist von 1i=−1 Xi verschieden. Indizierte Mengen werden oft Mengenfamilien (über der gegebenen Indexmenge) genannt und mit (Xι )ι∈I oder auch nur Xι , ι ∈ I, bezeichnet. A.3. AUSSAGEN A.3 149 Aussagen A.3.1 Aussagenlogik Wie bereits einleitend festgestellt wurde, ist eine mathematische Aussage ein nach bestimmten Regeln aufgebautes (sprachliches) Konstrukt. Genauer geht man wie folgt vor: Zunächst definiert man (logische) Ausdrücke. Hierzu gibt man eine nicht leere Menge A, deren Elemente Aussagenvariable genannt werden, und weitere Symbole ¬ ∧ ∨ ⇒ ⇔ (Negation), (und), (oder), (Implikation), (Äquivalenz), die als logische Operatoren bezeichnet werden, sowie die beiden Klammersymbole ”(”, ”)” vor. Dann legt man fest: (i) Jede Aussagenvarible ist ein Ausdruck. (ii) Sind A, B Ausdrücke, so auch ¬ A, (A ∧ B), (A ∨ B), (A ⇒ B), (A ⇔ B). (iii) Eine Zeichenreihe in den Aussagenvariablen, den logischen Operatoren und den Klammersymbolen ist ganau dann Ausdruck, wenn er es auf Grund von (i) und (ii) ist. Für p, q, r, s ∈ A sind beispielsweise ¬p, ((p ⇒ q) ∨ r), ((p ∧ q) ⇔ (r ∨ s)) Ausdrücke. Keine Ausdrücke sind z. B. (⇒ p), ((r∧) ∨ s) oder (p ¬ q). Wir bemerken, daß man bei Ausdrücken Klammern einsparen kann, wenn man vereinbart, daß die Bindung der Symbole ¬, ∧, ∨, ⇒, ⇔ von links nach rechts gesehen schwächer wird. Dies bezeichnet man auch als Klammerkonvention. Damit kann man z. B. vereinfachend schreiben (¬p)∨q =: ¬p∨q oder (p∧q)∨q =: p∧q∨q. Aussagen können ”wahr” oder ”falsch” sein. Genauer faßt man diese beiden Begriffe wie folgt: Man definiert eine Menge W := {w, f } mit w 6= f (w soll ”wahr” und f ”falsch” suggerieren) und erklärt mittels der Symbole ¬, ∧, ∨, ⇒, ⇔ Wahrheitsfuntionen, indem man setzt ¬w := f, ¬f := w und x ∧ y, x ∨ y, x ⇒ y, x ⇔ y ∈ W für x, y ∈ W entsprechend nachfolgender 150 ANHANG A. MENGEN UND LOGIK Tabelle definiert x w w f f y x∧y x∨y x⇒y x⇔y w w w w w f f w f f w f w w f f f w w f Damit kann man nun jedem logischen Ausdruck Wahrheitwerte in W zuordenen, indem man zunächst jeder Aussagenvariablen einen der Werte w oder f (beliebig) zuordnet und sodann den entsprechenden Wahrheitwert v(A) eines Ausdrucks A obigem iterativen Aufbau folgend definiert durch (B, C Ausdrücke) v(¬B) v(B ∧ C) v(B ∨ C) v(B ⇒ C) v(B ⇔ C) := := := := := ¬v(B), v(B) ∧ v(C), v(B) ∨ v(C), v(B) ⇒ v(C), v(B) ⇔ v(C). Beispielsweise gilt ( f v((p ⇒ q) ∨ q) = (v(p) ⇒ v(q)) ∨ v(q) = w wenn v(p) = w, v(q) = f sonst. Zur Darstellung der Wahrheitsfunktion v benutzt man oft auch eine sogenannte Wahrheitstabelle, d. h. eine Wertetabelle für v. In diesem Fall würde sie wie folgt aussehen: p w w f f q (p ⇒ q) ∨ q w w f f w w f w Es ist klar, daß der Wahrheitswert v(A) eines logischen Ausdrucks A nur von den Wahrheitswerten der in A vorkommenden Aussagenvariablen abhängt. Eine Zuordnung von Wahrheitswerten zu den in A vorkommenden Aussagenvariablen nennt man auch Belegung von A (mit Wahrheitswerten). Definition A.4. (a) Ein logischer Ausdruck A heißt Tautologie, wenn v(A) = w bei jeder Belegung der in A vorkommenden Aussagenvariablen. (b) Zwei logische Ausdrücke A, B heißen äquivalent, kurz A ∼ = B, wenn v(A) = v(B) für jede Belegung der in A oder B vorkommenden Aussagenvariablen. A.3. AUSSAGEN 151 Beispiele für Tautologien sind p ⇒ p ∨ q, p ∧ q ⇒ p, (p ⇔ q) ⇒ (p ⇒ q), wie man sofort mit Hilfe der jeweiligen Wahrheitstabellen erkennt. Ersetzt man in einer Tautologie die darin vorkommenden Aussagenvariablen jeweils durch logische Ausdrücke, so entsteht wieder eine Tautologie. Will man bei einem logischen Ausdruck A überprüfen, ob es sich um eine Tautologie handelt (oder nicht), so kann man daher Teilausdrücke von A durch nicht in A vorkommende Aussagenvariable ersetzen. Offenbar ist A genau dann eine Tautologie, wenn der so entstehende Ausdruck B Tautologie ist. Tautologien bilden die logische Grundlage der Mathematik: Beweise bestehen auf der fortgesetzten Anwendung von Tautologien. Einige der wichtigsten stellen wir nachfolgend zusammen: Satz A.5. Folgende Ausdrücke sind Tautologien (p, q, r Aussagenvariable): (1) (p ∨ q) ∨ r (p ∧ q) ∧ r ⇐⇒ ⇐⇒ p ∨ (q ∨ r) p ∧ (q ∧ r) (Assoziativgesetze) (2) (p ∨ q) ∧ r (p ∧ q) ∨ r ⇐⇒ ⇐⇒ (p ∧ r) ∨ (q ∧ r) (p ∨ r) ∧ (q ∨ r) (Distributivgesetze) (3) p∨q p∧q (4) ¬¬ p ⇐⇒ p (5) (p ⇒ q) ⇐⇒ (¬ q ⇒ ¬ p) (6) ¬(p ∨ q) ¬(p ∧ q) (7) (p ⇒ q) ∧ p ⇒ q ⇐⇒ ⇐⇒ q∨p q∧p ⇐⇒ ⇐⇒ (Kommutativgesetze) (Negation der Negation) ¬p ∧ ¬q ¬p ∨ ¬q (Kontraposition der Implikation) (de Morgansche Regeln) (modus ponens oder Abtrennungsregel) Auf den Beweis verzichten wir, da er auf einer etwas aufwendigen aber einfachen Auswertung der jeweilgen Wahrheitstabellen beruht. Regel (7) wurde übrigens bereits im antiken Griechenland diskutiert (Theophrast von Eresos, 372 - 287 v.Chr.) Schließlich sei bemerkt, daß der hier eingeschlagene Weg zum Aufbau der Aussagenenlogik (ebenso wie der zum Aufbau der Prädikatenlogik ertser Stufe im nächsten Abschnitt) schon allein deshalb problematisch ist, weil hierzu selbst Aussagen verwendet werden. Diese Schwierigkeiten kann man vermeiden, wenn man den axiomatischen Aufbau mit Axiomen und Ableitungsregeln verwendet. Hierzu sei allerdings auf die Literatur verwiesen, z. B. G. Asser, Einführung in die mathematische Logik I, II. Mit Hilfe dieser Axiomatik gelingt es z. B. auch, einen Überblick über alle möglichen Tautologien zu gewinnen. 152 ANHANG A. MENGEN UND LOGIK A.3.2 Prädikatenlogik Ganz allgemein gesagt geht es hier um Eigenschaften von Elementen einer bestimmten nicht leeren Menge, die oft als Individualbereich bezeichnet wird, und um Relationen zwischen diesen Elementen. Nimmt man als Individualbereich z. B. die ganzen Zahlen Z, so wären z. B. (a) x ist gerade, (b) x ist Primzahl, (c) x teilt y, (d) x + y = z Eigenschaften ganzer Zahlen bzw. Relationen zwischen ihnen. Bei (a) und (b) spricht man von einstelligen und bei (c) bzw. (d) von zwei- bzw. dreistelligen Prädikaten. Setzt man für x, y, z jeweils konkrete ganze Zahlen ein, so stellt jedes dieser Prädikate eine wahre oder falsche Aussage dar. n-stellige Prädikate definieren in diesem Fall also Teilmengen von Zn derjenigen geordneten n-Tupel ganzer Zahlen, die nach Einsetzen jeweils eine wahre Aussage liefern (in unseren Fällen ist n = 1, 2 oder 3). Konkret handelt es sich in den einzelnen Fällen um die folgenden Mengen (a) G := {2a | a ∈ Z} ⊂ Z, (b) P ⊂ Z, die Menge der Primzahlen, (c) T := {(a, ab) | a, b ∈ Z} ⊂ Z2 , (d) S := {(a, b, a + b) | a, b ∈ Z} ⊂ Z3 . Seien nun B, X nicht leere Mengen mit B∩X = ∅. B nennen wir Individualbereich (oben war B = Z) und die Elemente von X Individualvariable (oben war X = {x}, X = {x, y} bzw. X = {x, y, z}). Zur Darstellung der Eigenschaften der Elemente von B bzw. der Relationen zwischen ihnen verwendet man weiterhin Teilmengen von B n , n ∈ N+ (oben sind dies G, P, T, S). Man bildet dann zunächst Ausdrücke der Gestalt Ry1 . . . yn mit n ∈ N+ , R ⊆ B n und y1 , . . . , yn ∈ B ∪X. Wir nennen sie Elementarausdrücke (der Prädikatenlogik). Elementarausdrücke Rx1 . . . xn mit x1 , . . . , xn ∈ X heißen n-stellige Prädikate. Ist := Ry1 . . . yn ein Elementarausdruck und ist x eine darin vorkommende Individualvariable, so kann man x durch ein beliegiges Element b ∈ B ersetzen. Man sagt, der so gebildete Elementarausdruck 0 entstehe aus durch Belegung von x mit b. Insbesondere kann man alle in vorkommenden Individualvariablen A.3. AUSSAGEN 153 durch Elemente aus B belegen. Dann entsteht ein Elementarausdruck der Gestalt Rb1 . . . bn mit (b1 , . . . , bn ) ∈ B n . Einem solchen Elementarausdruck kann sodann man einen Wahrheitswert zuweisen: ( w wenn (b1 , . . . , bn ) ∈ R v(Rb1 , . . . , bn ) := f sonst In unserem obigen Beispiel (d) gilt z. B. v(S111) = f , v(S123) = w usw. Wir kommen nun zu den Ausdrücken der Prädikatenlogik erster Stufe. Hierzu betrachten wir Zeichenketten, in denen außer den Elementen von B ∪ X, Teilmengen von B n , n ∈ N+ , und den logischen Operatoren ¬, ∧, ∨, ⇒, ⇔ noch die weiteren Symbole ∀ und ∃ vorkommen. Sei Z eine derartige Zeichenkette und x ∈ X eine in Z vorkommende Individualvariable. Man sage, x kommt in Z vollfrei vor, wenn keine der Zeichenketten ∀x und ∃x in Z vorkommt. Ansonsten sagt man, x sei in Z gebunden. Wir können nun die Ausdrücke der Prädikatenlogik erster Stufe bilden, wobei man ähnlich vorgeht wie im Fall der Aussagenlogik: (i) Jeder Elementarausdruck ist ein Ausdruck. (ii) Ist A Ausdruck, in welchem die Individualvariable x vollfrei vorkommt, so sind ∀xA, ∃xA Ausdrücke. (iii) Ist A Ausdruck, so auch ¬ A. (iv) Sind A, B Ausdrücke, so daß die in A und B gemeinsam auftretenden Individualvariablen jeweils vollfrei vorkommen, so sind auch (A ∧ B), (A ∨ B), (A ⇒ B), (A ⇔ B) Ausdrücke. (v) Eine Zeichenreihe der oben beschriebenen Art ist genau dann Ausdruck, wenn er es auf Grund (i) - (iv) ist. Bemerkungen A.6. 1. Die Operatoren ∀ und ∃ nennt man Quantoren, genauer heißt ∀ Allquantor und ∃ Existenzquantor. 2. Die Bedingung in (iv) hinsichtlich der gemeinsam auftretenden Individualvariablen hat folgenden Hintergrund: Ohne diese Bedingung wäre z. B. ((∃xRx) ∧ Sx) mit Teilmengen R, S von B ein Ausdruck. Dann dürfte aber ∀x((∃xRx) ∧ Sx) nach (ii) nicht gebildet werden, was aber eigentlich nicht einzusehen ist, da die Individualvariable x im Teilausdruck ∃xRx gebunden ist und daher nicht mehr ”stören” kann. Diese Schwierigkeit kann man jedoch umgehen, indem man ∃xRx durch den logisch äquivalenten Ausdruck ∃yRy mit einer weiteren Individualvariablen y (s. Bemerkung A.8.2 unten) ersetzt und dann statt dessen ∀x((∃yRy) ∧ Sx) bildet. 154 ANHANG A. MENGEN UND LOGIK 3. Analog wie in der Aussagenlogik kann man auch hier Klammern einsparen, indem man zusätzlich fordert, daß die Quantoren ∀ und ∃ stärker binden als die logischen Operatoren ∧, ∨, ⇒, ⇔, jedoch schwächer als ¬. Sei A ein Ausdruck. Jede in A vollfrei vorkommende Individualvariable kann mit einem beliebigen Element aus B belegt werden. Sind alle Individualvariablen eines Ausdrucks A gebunden, so kann man A wie folgt einen eindeutig bestimmten Wahrheitswert v(A) ∈ W := {w, f } zuweisen. Hierzu legen wir die iterative Definition der Ausdrücke der Prädikatenlogik erster Stufe zugrunde: Wenn A Elementarausdruck ist, so ist gilt A = Rb1 . . . bn mit n ∈ N+ und (b1 , . . . , bn ) ∈ B n und wir definiern v(A) wie oben angegeben. Wenn A Ausdruck gemäß (ii) oder (iii) ist, so definieren wir v(A) wie in der Aussagenlogik mittels der Wahrheitswerte der in A vorkommenden Teilausdrücke. Sei nun A Ausdruck gemäß (iv). Dann gilt A = ∀xB oder A = ∃xB mit einem Ausdruck B, in dem genau eine Individualvariable x vollfrei vorkommt. Für b ∈ B bezeichnen wir mit B(b) denjenigen Ausdruck, der aus B durch die Belegung von x durch b entsteht. Wir setzen dann C := {b ∈ B | v(B(b)) = w} und definieren ( w v(∀xB) := f wenn C = B sonst ( w und v(∃xB) := f wenn C 6= ∅ sonst. Definition A.7. (a) Ein Ausdruck A heißt Tautologie, wenn bei jeder Belegung der in A vollfrei vorkommenden Individualvariablen mit Elementen aus B ein Ausdruck mit Wahrheitswert w entsteht. (b) Zwei Ausdrücke A, B heißen logisch äquivalent, kurz A ∼ = B, wenn A und B nach jeder Belegung der in A, B vorkommenden vollfreien Individualvariablen mit Elementen aus B den gleichen Wahrheitswert haben. Bemerkungen A.8. 1. Bei der Überprüfung der logischen Äquivalenz zweier Ausdrücke sind in beiden Ausdrücken jeweils vollfrei vorkommende Individualvariable stets mit dem gleichen Wert zu belegen. 2. Sind A, B Ausdrücke, wobei B aus A entsteht, indem eine in A gebunden auftretende Individualvariable x durch eine ansonsten nicht in A auftretende Individualvariable y ersetzt wird, so sind A und B logisch äquivalent. A.4. RELATIONEN A.4 A.4.1 155 Relationen Definitionen, Beispiele Definition A.9. Sei X eine Menge. Eine n-stellige Relation auf X ist eine Teilmenge R von X n . Besonders wichtig ist dabei der Fall n = 2. Eine zweistellige Relation oder kurz nur eine Relation auf X ist somit eine Teilmenge R von X ×X. Statt (x1 , x2 ) ∈ R (x1 , x2 ∈ X) schreibt man häufig x1 R x2 und sagt ”x1 und x2 stehen in der Relation R”. Beispiele A.10. 1. Die Teilmenge ∆X := {(x, x) | x ∈ X} von X 2 heißt Diagonale von X. Da für (x1 , x2 ) ∈ X 2 genau dann (x1 , x2 ) ∈ ∆X gilt, wenn x1 = x2 , beschreibt ∆X die übliche Gleichheitsrelation (auf X). 2. A := X 2 heißt Allrelation (auf X). 3. Sei M die Menge aller Menschen und V := {(x, y) | x, y ∈ M, x ist mit y verheiratet}. Definition A.11. Eine Relation R auf einer Menge X heißt • reflexiv, wenn x R x für alle x ∈ X (d. h. ∆X ⊆ R) • symmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 folgt x2 R x1 (d. h. aus (x1 , x2 ) ∈ R folgt (x2 , x1 ) ∈ R) • antisymmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 und x2 R x1 folgt x1 = x2 (d. h. aus (x1 , x2 ), (x2 , x1 ) ∈ R folgt x1 = x2 ) • transitiv, wenn für alle x1 , x2 , x3 ∈ X gilt: Aus x1 R x2 und x2 R x3 folgt x1 R x3 (d. h. aus (x1 , x2 ), (x2 , x3 ) ∈ R folgt (x1 , x3 ) ∈ R). A.4.2 Ordnungs- und Äquivalenzrelationen Wir definieren nun die folgenden wichtigen Relationen Definition A.12. Eine Relation heißt (a) Ordnungsrelation, wenn sie reflexiv, antisymmetrisch und transitiv ist. (b) Äquivalenzrelation, wenn sie reflexiv, symmetrisch und transitiv ist. Ordnungsrelationen werden oft mit ≤, usw. bezeichnet. Ist ≤ Ordnungsrelation auf einer Menge X, so schreibt man für x1 ≤ x2 und x1 6= x2 kurz x1 < x2 (x1 , x2 ∈ X). Mitunter ist es auch nützlich, neben ≤ (bzw. , . . .) noch das 156 ANHANG A. MENGEN UND LOGIK Symbol ≥ (bzw. , . . .) zu verwenden, wobei x1 ≥ x2 genau dann gilt, wenn x2 ≤ x1 (bzw. x1 x2 genau dann, wenn x2 x1 usw.). Definition A.13. Eine Menge X mit einer Ordnungsrelation ≤ wird auch als teilweise geordnete Menge bezeichnet, Schreibweise (X, ≤). Sei (X, ≤) teilweise geordnete Menge. (a) ≤ heißt vollständig (oder auch total), wenn für alle x1 , x2 ∈ X gilt x1 ≤ x2 oder x2 ≤ x1 . (b) Eine bzgl. ≤ vollständig geordnete Teilmenge von X heißt Kette von X (bzgl. ≤). (c) Ist ≤ vollständig und besitzt jede nicht leere Teilmenge von X bzgl. ≤ ein kleinstes Element, so heißt ≤ Wohlordnung (auf X). Beispiele A.14. lation. 1. Die Gleichheitsrelation ist Ordnungs- und Äquivalenzre- 2. Ist R Äquivalenzrelation (Ordnungsrelation) auf einer Menge X, so ist R|Y := Y 2 ∩ R für jede Teilmenge Y von X Äquivalenzrelation (Ordnungsrelation) auf Y . Mann nennt sie die durch R auf Y induzierte Relation. 3. Die übliche Ordnung ≤ auf den Mengen N, Z, Q und R ist jeweils eine vollständige Ordnungsrelation. Sie ist Wohlordnung auf N, jedoch nicht auf Z (und damit auch nicht auf Q und R). 4. Sei X eine Menge. Die Teilmengenrelation ⊆ ist eine Ordnungsrelation auf der Potenzmenge P (X) von X. Nach 2. induziert sie eine Ordnungsrelation auf jeder Teilmenge von P (X). 5. Die Teilbarkeitsrelation | auf der Menge N der natürlichen Zahlen ist eine def nicht vollständige Ordnungsrelation. (Für a, b ∈ N gilt a|b ⇐⇒ ac = b für ein c ∈ N.) 6. Sei n ∈ Z. Die Kongruenz ≡ n modulo n ist Äquivalenzrelation auf Z. (Für def a, b ∈ Z gilt a ≡ n b ⇐⇒ n|a − b.) 7. Das Wohlordnungsaxiom oder Wohlordnungspostulat besagt, daß jede Menge wohlgeordnet werden kann, d. h. daß auf jeder Menge eine Wohlordnung existiert. Es gehört zu den grundlegenden Axiomen der Mengenlehre, s. Bemerkung A.16.3. Definition A.15. Sei (X, ≤) eine teilweise geordnete Menge. (a) Ein Element x ∈ X heißt maximal (minimal), wenn für alle y ∈ X aus x ≤ y (x ≥ y) folgt y = x. (b) Ein Element x ∈ X heißt obere (untere) Schranke einer Teilmenge Y von X, wenn y ≤ x (y ≥ x) für alle y ∈ Y . A.4. RELATIONEN 157 (c) Ein Element x ∈ X heißt obere (untere) Grenze einer Teilmenge Y von X, wenn x kleinste (größte) obere (untere) Schranke von Y ist. √ Bemerkungen, Beispiele A.16. 1. Die Menge {y ∈ Q | y < 2} besitzt in Q zwar obere Schranken (nämlich alle positiven rationalen Zahlen q mit q 2 > 2), aber keine obere Grenze. 2. Das Lemma von Zorn besagt, daß eine nicht leere teilweise geordnete Menge X maximale Elemente besitzt, wenn jede Kette von X (s. Definition A.13(b)) eine obere Schranke in X hat. Das Zornsche Lemma zählt ebenso wie das Wohlordnungsaxiom (s. Definition A.14.7) und das Auswahlaxiom (s. Bemerkung A.21.2) zu den grundlegenden Axiomen der Mengenlehre. 3. Man kann zeigen, daß Wohlordnungsaxiom, Zornsches Lemma und Auswahlaxiom äquivalente Aussagen sind. Keine dieser Aussagen kann aber aus den übrigen mengentheoretischen Axiomen abgeleitet werden. Das folgende Lemma ist oft hilfreich, wenn die Existenz maximaler Elemente in einer teilweise geordneten Menge nachgewiesen werden muß. Lemma S A.17. Sei X nicht leere Teilmenge der Potenzmenge einer Menge X . Wenn K∈K K ∈ X für jede Kette K in X, so besitzt X bzgl. ⊆ maximale Elemente. S Beweis. Dies ergibt sich sofort aus dem Zornschen Lemma, da K∈K K ∈ X für eine Kette K in X ⊆ P (X ) obere Schranke (sogar obere Grenze) in P (X ) und damit in X ist, A.4.3 Äquivalenzklassen, Partitionen Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Für jedes x ∈ X sei Kx := {y | y ∈ X, y ∼ x} ⊆ X. Dann gilt für x, y ∈ X x ∈ Kx Kx = Ky genau dann, wenn x ∼ y Kx ∩ Ky = ∅ falls x 6∼ y. und Die Äquivalenzrelation ∼ liefert somit eine Menge K := {Kx | x ∈ X} nicht leerer Teilmengen von X mit folgenden Eigenschaften [ K=X (A.1) K∈K K ∩ K 0 = ∅ für alle K, K 0 ∈ K mit K 6= K 0 . (A.2) K wird mit meist X/ ∼ bezeichnet, Sprechweise ”X modulo ∼” oder auch ”X nach ∼”. Die Elemente von K werden Äquivalenzklassen bzgl. ∼ genannt. 158 ANHANG A. MENGEN UND LOGIK Allgemein heißt eine Menge K nicht leerer Teilmengen von X, die (A.1) und (A.2) erfüllt, Partition (manchmal auch Klasseneinteilung) von X. Eine Äquivalenzrelation auf X führt also zu einer Partition von X. Umgekehrt gibt jede Partition K von X Anlaß zu einer Äquivalenzrelation ∼ auf X, indem man für x, y ∈ X setzt: x∼y genau dann, wenn es ein K ∈ K gibt mit x, y ∈ K. Äquivalenzrelationen auf X und Partitionen von X entsprechen sich also umkehrbar eindeutig. A.5 Abbildungen Seien X, Y Mengen. Eine Teilmenge F von X × Y heißt • Funktion von X nach Y , wenn es für alle x ∈ X höchstens ein y ∈ Y gibt mit (x, y) ∈ F • Abbildung von X nach Y , wenn es für alle x ∈ X genau ein y ∈ Y gibt mit (x, y) ∈ F . Eine Abbildung ist also eine spezielle Funktion. Ist F Funktion von X nach Y , so heißen die Mengen D(F ) := {x | x ∈ X und es gibt ein y ∈ Y mit (x, y) ∈ F } ⊆ X bzw. W (F ) := {y | y ∈ Y und es gibt ein x ∈ X mit (x, y) ∈ F } ⊆ Y Definitionsbereich bzw. Wertebereich von F . X bzw. Y selbst heißen Quelle bzw. Ziel von F . Offenbar ist F eine Abbildung genau dann, wenn D(F ) = X. Wir werden es hier in der Regel mit Abbildungen zu tun haben (im Unterschied zur Analysis). Sei also F ⊆ X × Y eine Abbildung und sei x ∈ X. Laut DefiF nition gibt es genau ein y ∈ Y mit (x, y) ∈ F . Man schreibt x 7→ y (oder auch nur x 7→ y) bzw. y = F (x), wodurch eine ”Zuordnungsvorschrift” gegeben ist. Um von der ursprünglich gegeben Menge F zu unterscheiden, wählt man hierfür in der Regel ein anderes Symbol, etwa f . Dementsprechend werden Abbildungen f meist durch f : X → Y bzw. X → Y und y = f (x), wenn (x, y) ∈ F , bezeichnet. Die ursprünglich gegebene Menge F ⊆ X × Y heißt dann Graph von f . Der Zusammenhang zwischen F und f wird durch F = {(x, f (x)) | x ∈ X} beschrieben. Beispiele A.18. 1. Sei X := R und F := {(x, x2 ) | x ∈ R} ⊂ R × R. Dies ist offensichtlich eine Abbildung von R nach R, die üblicherweise in der Form ”f (x) = x2 für alle x ∈ R ” aufgeschrieben wird. Ihr Graph (also A.5. ABBILDUNGEN 159 F ) kann in der mit einem kartesischen Koordinatensystem ausgestatteten reellen Ebene als Parabel dargestellt werden. 2. Sei X eine nicht leere Menge. Die Diagonale ∆X ⊆ X × X (s. Beispiel A.10.1) ist auch eine Abbildung. Die entsprechende Zuordnungsvorschrift X → X wird mit idX bezeichnet und heißt identische Abbildung (von X). Offensichtlich gilt idX (x) = x für alle x ∈ X. 3. Sei X eine Menge und Y nicht leere Teilmenge von X. Da jedes Element von Y auch Element von X ist, ist durch y 7→ y ∈ X für alle y ∈ Y eine Abbildung ι : Y → X gegeben (mit ι(y) = y für alle y ∈ Y ). ι wird als Einbettung (von Y in X) bezeichnet. Der Graph von ι ist ∆Y , aufgefaßt allerdings als Teilmenge von X × Y (⊇ Y × Y ). Im Fall Y = X ist ι die identische Abbildung. 4. Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Durch x 7→ Kx für alle x ∈ X (Kx ist diejenige Klasse bzgl. ∼, die x enthält, s. Abschnitt A.4.3) ist eine Abbildung p : X → X/ ∼ definiert. Sie wird (natürliche) Projektion von X auf X/ ∼ genannt. Im folgenden führen wir eine Reihe wichtiger Begriffe ein, ohne dazu eigenständige Definitionen zu formulieren. Für Mengen X, Y sei Abb (X, Y ), ältere Bezeichnung Y X , die Menge aller Abbildungen von X nach Y . (Dies ist in der Tat eine Menge, da unter Verwendung der ursprünglichen Definition gilt Abb (X, Y ) ⊆ P (X × Y ). Da ∅ × Y = ∅, ist Abb (∅, Y ) ⊆ P (∅) = {∅}. Wegen ∅ ⊆ Y , deuten wir dies in Anlehnung an Beispiel A.18.3 oben als Einbettung ι : ∅ → Y , d. h. wir haben damit für jede Menge Y : Abb (∅, Y ) 6= ∅, genauer, Abb (∅, Y ) = {ι}. Hingegen setzt man Abb (X, ∅) = ∅ für jede Menge X 6= ∅. Sind X, Y, Z Mengen und sind f : X → Y und g : Y → Z Abbildungen, so ist durch ϕ(x) := g(f (x)) für alle x ∈ X offensichtlich eine Abbildung ϕ : X → Z definiert. Sie heißt Hintereinanderschaltung (oder manchmal Verkettung) von f und g, Schreibweise: ϕ = g ◦ f oder auch nur ϕ = gf . Hierfür gilt Assoziativität (s. auch Abschnitt A.2): Ist U weitere Menge und ist h : Z → U Abbildung, so haben wir (h ◦ g) ◦ f = h ◦ (g ◦ f ) oder kurz (hg)f = h(gf ), wie man sofort bestätigt. Außerdem gilt für eine beliebige Abbildung f : X → Y : idY ◦ f = f ◦ idX = f. Laut Definition kann die Hintereinanderschaltung zweier Abbildungen f und g nur gebildet werden, wenn das Ziel von f mit der Quelle von g übereinstimmt. 160 ANHANG A. MENGEN UND LOGIK Dies werden wir immer stillschweigend voraussetzen, wenn wir von Hintereinanderschaltungen von Abbildungen sprechen. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Für jede Teilmenge U von X ist dann f (U ) := {f (x) | x ∈ U } Teilmenge von Y . Man nennt sie Bild von U (unter f ). Insbesondere nennt man das Bild von X unter f , also die Teilmenge f (X) von Y , Bild von f , kurz Bild f . Ist U Teilmenge von X, so ist durch u 7→ f (u), u ∈ U , eine Abbildung U → Y definiert. Sie heißt Einschränkung von f auf U und wird mit f |U bezeichnet. Damit gilt z. B. f (U ) = Bild f |U . Natürlich kann man auch das Ziel einschränken. Sei U Teilmenge von X. Für jede Teilmenge V von Y mit f (U ) ⊆ V ist durch u 7→ f (u), u ∈ U , eine Abbildung U → V gegeben, die man mitunter mit f |VU bezeichnet. Eine Abbildung f : X → Y (X, Y Mengen) heißt • injektiv, falls für alle x1 , x2 ∈ X gilt: Aus f (x1 ) = f (x2 ) folgt x1 = x2 • surjektiv, falls es für alle y ∈ Y ein x ∈ X gibt mit f (x) = y • bijektiv, falls f injektiv und surjektiv ist. Es ist klar, daß die Hintereinanderschaltung injektiver (surjektiver, bijektiver) Abbildungen wieder injektiv (surjektiv, bijektiv) ist. Offensichtlich ist die identische Abbildung einer Menge bijektiv. Außerdem bestätigt man sofort, daß folgendes gilt: Ist die Hintereinanderschaltung gf zweier Abbildungen f, g injektiv (surjektiv), so ist f injektiv (g surjektiv). f (U ) Sei f : X → Y eine Abbildung (X, Y Mengen). Es ist klar, daß f |U : U → f (U ) für jede Teilmenge U von X surjektiv ist. Insbesondere induziert f damit eine surjektive Abbildung f |f (X) : X → f (X), die man der Einfachheit halber meist wieder mit f bezeichnet. Ist f injektiv, so ist f |U für jede Teilmenge U von X injektiv und wir haben durch die soeben beschriebene Einschränkung des Zieles von fU eine Bijektion U → f (U ), insbesondere also eine Bijektion X → f (X). Satz und Definition A.19. Seien X, Y Mengen und sei f : X → Y eine Abbildung. f ist bijektiv genau dann, wenn es eine Abbildung g : Y → X gibt mit g ◦ f = idX und f ◦ g = idY . Ist f bijektiv, so ist diese Abbildung g eindeutig durch f bestimmt und heißt zu f inverse Abbildung. Bezeichnung: g = f −1 . A.5. ABBILDUNGEN 161 Beweis. Nehmen wir an, daß es eine Abbildung g : Y → X gibt mit g ◦ f = idX und f ◦ g = idY . Da idX und idY bijektiv sind, folgt aus f ◦ g = idY , daß f injektiv ist, und aus g ◦ f = idX , daß f surjektiv ist (s. die Vorbemerkung zu dieser Aussage). Damit ist f aber bijektiv. Sei nun f bijektiv. Bezeichnen wir mit F den Graph von f , so gibt es laut Definition für alle y ∈ Y genau ein x ∈ X mit (x, y) ∈ F . Damit ist aber G := {(y, x) | x ∈ X, y ∈ Y, (x, y) ∈ F } ⊆ Y × X eine Abbildung (von Y nach X). Bezeichnen wir die entsprechende Zuordnungsvorschrift mit g, so gilt - wie man sofort bestätigt - g ◦ f = idX und f ◦ g = idY . Angenommen, es gibt eine weitere Abbildung g 0 : Y → X mit g 0 ◦ f = idX (und f ◦ g 0 = idY ). Dann folgt g 0 = g 0 ◦ idY = g 0 ◦ (f ◦ g) = (g 0 ◦ f ) ◦ g = idX ◦ g = g, Seien X, Y, V, W Mengen und seien f : X → Y und g : V → W Abbildungen. Wir definieren eine Abbildung h : X × V → Y × W durch h((x, v)) := (f (x), g(v)) für alle x ∈ X, v ∈ V. h nennt man entsprechend Produkt von f und g und schreibt dafür h =: f × g. Es ist klar, daß f × g genau dann injektiv (surjektiv, bijektiv) ist, wenn f und g injektiv (surjektiv, bijektiv) sind. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Für eine Teilmenge U von Y setzt man f −1 (U ) := {x ∈ X | f (x) ∈ U } ⊆ X Urbild von U (unter f ). Für y ∈ Y schreibt man kurz f −1 (y) := f −1 ({y}) und nennt diese Menge Faser von f über y. Es ist klar, daß für y ∈ Y gilt f −1 (y) 6= ∅ genau dann, wenn y ∈ Bild f . Außerdem überzeugt man sich schnell davon, daß durch def x1 ∼ x2 ⇐⇒ f (x1 ) = f (x2 ), x1 , x2 ∈ X, eine Äquivalenzrelation auf X gegeben ist, deren Klassen genau die nicht leeren Fasern von f sind. Mit Hilfe von Abbildungen lassen sich auch Produkte von beliebig vielen Mengen definieren: Definition A.20. Sei (Xι )ι∈I eine (über der Indexmenge I indizierte) Mengenfamilie. Dann heißt Y [ Xι := f : I → Xι | f (ι) ∈ Xι für alle ι ∈ I ι∈I ι∈I 162 ANHANG A. MENGEN UND LOGIK Produkt der Xι , ι ∈ I. Die Elemente von tionen auf (Xι )ι∈I bezeichnet. Q ι∈I Xι werden auch als Auswahlfunk- Bemerkungen A.21. Mit den Bezeichnungen von Definition A.20 haben wir Q 1. ι∈I S Xι ist leer, wenn I 6= ∅ undQXι = ∅ für ein ι ∈ I. (Ist I = ∅, so setzt man ι∈I Xι = ∅ und damit ist ι∈I Xι einelementige Menge.) 2. Wenn I 6= ∅ und Xι 6= ∅ für alle ι ∈ I, so besagt das sogenannte Auswahlaxiom oder Auswahlpostulat, das zu den grundlegenden Axiomen der MenQ genlehre zählt, daß es Auswahlfunktionen gibt, d. h. daß ι∈I Xι 6= ∅, s. hierzu auch Bemerkung A.16.3. Q 3. Wenn I = {1, . . . , n} mit n ∈ N, so kann man f ∈ ι∈I Xι mit seiner ”Wertetabelle”, also mit (f (1), . . . , f (n)) ∈ X1 × . . . × Xn identifizieren. Damit hat man dann n Y Xi := i=1 Y Xι = X1 × . . . × Xn . ι∈{1,...,n} 4. Zur Definition von Produkten kann man natürlich auch von einer Menge X von Mengen ausgehen (statt von einer indizierten Mengenfamilie). Die entsprechende Definition lautet dann Y [ X := f : X → X | f (X) ∈ X für alle X ∈ X . X∈X X∈X Entsprechend werden die Elemente von X bezeichnet. Q X∈X X als Auswahlfunktionen auf Definition A.22. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Ein Schnitt von f ist eine Abbildung g : Y → X mit f g = idY . Lemma A.23. Für Mengen X, Y gilt (1) Eine Abbildung f : X → Y besitzt genau dann einen Schnitt, wenn f surjektiv ist. (2) Sei Y = 6 ∅. Eine Abbildung g : Y → X ist Schnitt einer Abbildung X → Y genau dann, wenn g injektiv ist. Beweis. Besitzt eine Abbildung f : X → Y einen Schnitt g : Y → X oder ist eine Abbildung g : Y → X Schnitt einer Abbildung f : X → Y , so gilt f g = idY und damit ist f surjektiv und g injektiv. Sei nun eine surjektive Abbildung f : X → Y gegeben. Wenn X = ∅, so folgt Y = ∅ und f ist trivialerweise Schnitt Q von sich selbst. Sei also X 6= ∅. Dann ist auch Y nicht leer und somit gilt P := y∈Y f −1 (y) 6= ∅, denn da f surjektiv ist, A.6. KARDINALZAHLEN 163 ist keine Faser von f leer. Sei g ∈ P . Da für alle y ∈ Y gilt g(y) ∈ f −1 (y) und somit (f g)(y) = f (g(y)) = y, folgt f g = idY . Jedes Element von P ist daher ein Schnitt von f ; insbesondere besitzt f einen Schnitt. Sei nun Y 6= ∅ und g : Y → X injektive Abbildung. Dann sind die Fasern von g leer oder einelementig. Wir wählen y0 ∈ Y und definieren eine Abbildung f : X → Y , indem wir für alle x ∈ X setzen ( y f (x) := y0 falls g −1 (x) = {y} falls g −1 (x) = ∅. Laut Konstruktion von f ist klar, daß f g = idY , d. h. g ist Schnitt von f , A.6 Kardinalzahlen Definition A.24. Zwei Mengen X und Y heißen gleichmächtig, wenn es eine Bijektion X → Y gibt. Man bestätigt sofort, daß damit eine Äquivalenzrelation ∼ = auf der Klasse aller ∼ Mengen gegeben ist. Eine Äquivalenzklasse bzgl. = besteht somit aus einer Klasse von Mengen, die paarweise gleichmächtig sind. Definition A.25. (a) Eine Äquivalenzklasse bzgl. der Gleichmächtigkeitsrelation ∼ = auf der Klasse aller Mengen heißt Kardinalzahl. (b) Sei X eine Menge. Diejenige Äquivalenzklasse bzgl. ∼ = (also diejeniige Kardinalzahl), welche X enthält, heißt Kardinalzahl von X, Bezeichnung: ] X oder mitunter auch |X|. (c) Für Kardinalzahlen κ, κ0 setzt man κ ≤ κ0 , wenn es Mengen X, X 0 mit ] X = κ, ] X 0 = κ0 und eine injektive Abbildung X → X 0 gibt. Ohne Beweis geben wir das folgende Resultat, welches zeigt, daß ≤ eine Ordnungsrelation auf der Klasse der Kardinalzahlen ist. Satz A.26 (Schröder-Bernstein). Für Kardinalzahlen κ, λ, µ gilt • κ≤κ • Aus κ ≤ λ und λ ≤ κ folgt κ = λ • Aus κ ≤ λ und λ ≤ µ folgt κ ≤ µ. 164 ANHANG A. MENGEN UND LOGIK A.6.1 Endliche und abzählbare Mengen Definition A.27. (a) Eine Menge X heißt endlich, wenn folgendes gilt: Ist Y Teilmenge von X und gibt es eine surjektive Abbildung Y → X, so folgt schon Y = X. Nicht endliche Mengen werden unendliche Mengen genannt. (b) Eine Menge X heißt abzählbar, wenn es eine bijektive Abbildung N → X gibt, d. h. wenn X und N gleichmächtig sind. (c) Mengen, die endlich oder abzählbar sind, werden als höchstens abzählbar bezeichnet. (d) Mengen, die nicht endlich und nicht abzählbar sind, heißen überabzählbar. Sind X, Y gleichmächtige Mengen, so ist offensichtlich X endlich (abzählbar, überabzählbar) genau dann, wenn Y endlich (abzählbar, überabzählbar) ist. Wir bemerken, daß für eine endliche Menge X gilt: Ist f : X → X surjektiv, so ist f schon bijektiv. Wenn nämlich f (x) = f (y) für x, y ∈ X, x 6= y, so wäre f |Y : Y → X für Y := X \ {y} ebenfalls surjektiv. Wegen Y ⊂ X hätten wir aber einen Widerspruch. Damit ist f injektiv und somit bijektiv. Wir bemerken ferner, daß die Menge N der natürlichen Zahlen nicht endlich ist, denn durch i 7→ i − 1, i ∈ N+ , ist eine surjektive Abbildung N+ → N gegeben (obwohl N+ ⊂ N). Damit sind abzählbare Mengen nicht endlich. Hingegen ist z. B. die leere Menge ∅ endlich, da sie keine echten Teilmengen enthält. Lemma A.28. Teilmengen endlicher Mengen sind endlich. Beweis. Sei X endliche Menge und Y ⊆ X. Weiter sei Z ⊆ Y und f : Z → Y surjektive Abbildung. Wir setzen Z 0 := Z ∪ (X \ Y ) ⊆ X und definieren durch f (z 0 ) falls z 0 ∈ Z 0 g(z ) := für alle z 0 ∈ Z 0 z0 falls z 0 6∈ Z eine Abbildung g : Z 0 → X. Wie man sofort sieht, ist g ebenfalls surjektiv. Nach Voraussetzung gilt daher Z 0 = X und folglich Z = Z 0 ∩ Y = X ∩ Y = Y , Satz A.29. Für eine natürliche Zahl n ∈ N sei Λn := {1, 2, . . . , n} ⊂ N (Λ0 = ∅). Dann gilt: (1) Für jedes n ∈ N ist Λn endliche Menge. A.6. KARDINALZAHLEN 165 (2) Für jede endliche Menge X gibt es eine eindeutig bestimmte natürliche Zahl n und eine Bijektion X → Λn . (3) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent: (i) X ist höchstens abzählbar (ii) Es gibt eine injektive Abblildung X → N (iii) Es gibt eine surjektive Abbildung N → X. (4) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent: (i) X ist unendlich (ii) Es gibt eine injektive Abblildung N → X (iii) Es gibt eine surjektive Abbildung X → N. Beweis. Sei X 6= ∅ eine (wohlgeordnete) Menge. Für alle n ∈ N definieren wir induktiv über n Abbildungen fn : Λn → X mit fn+1 |Λn = fn und Elemente xn ∈ X wie folgt: Für n = 0 sei f0 die Einbettung ∅ ⊆ X der leeren Menge ∅ = Λ0 in X und x0 sei ein beliebiges Element von X (x0 := min X). Sind fn : Λn → X und xn ∈ X für n ≥ 0 schon definiert, so sei zunächst fn+1 erklärt durch fn (i) falls i ≤ n fn+1 (i) := für alle i ∈ Λn+1 . xn falls i = n + 1. Wenn fn+1 (Λn+1 ) = X, so setzen wir xn+1 := xn . Wenn fn+1 (Λn+1 ) 6= X, so wäh len wir xn+1 ∈ X \ fn+1 (Λn+1 ) beliebig setzen wir xn+1 := min(X \ fn+1 (Λn+1 ) . Laut Konstruktion ist klar, daß für alle n ∈ N gilt: • fn+1 (Λn+1 ) = {x0 , . . . , xn } • x > xn für alle x ∈ X \ fn+1 (Λn+1 ), falls X wohlgeordnet ist • fn+1 |Λn = fn • xn 6∈ fn (Λn ), falls fn nicht surjektiv ist. Damit ist fn+1 injektiv genau dann, wenn fn injektiv ist und fn (Λn ) ⊂ X (d. h. wenn fn injektiv aber nicht surjektiv ist). Nun definieren wir nun eine Abbildung f : N+ → X, indem wir für alle i ∈ N+ setzen f (i) := fi (i). 166 ANHANG A. MENGEN UND LOGIK Es ist klar, daß f |Λn = fn für alle n ∈ N. Wie man sofort bestätigt, sind daher die folgenden Aussagen äquivalent: (i) f ist injektiv (ii) fn ist injektiv für alle n ∈ N (iii) fn ist nicht bijektiv für alle n ∈ N. (1) Wir benutzen vollständige Induktion nach n. Für n = 0 gilt Λ0 = ∅ und diese Menge ist endlich (s. o.). Angenommen, die Aussage ist für n ≥ 0 richtig. Sei Y Teilmenge von Λn+1 und sei ϕ : Y → Λn+1 eine surjektive Abbildung. Wir setzen Z := {y | y ∈ Y, ϕ(y) 6= n + 1} ⊆ Y . Da ϕ surjektiv ist, gilt sogar Z ⊂ Y . Wir definieren nun ψ : Z → Λn durch ψ(z) := ϕ(z) für alle z ∈ Z (d. h. ψ = ϕ|ΛZn ). Da ϕ surjektiv ist, ist auch ψ surjektiv, wie man sofort aus der Definition von Z erkennt. Wenn n + 1 6∈ Z, so ist Z ⊆ Λn und damit gilt nach Induktionsvoraussetzung Z = Λn und folglich Λn+1 \ Y ⊂ Λn+1 \ Z = Λn+1 \ Λn = {n + 1}. Dies ist nur möglich, wenn Λn+1 \ Y = ∅, d. h. Y = Λn+1 . Nehmen wir nun an, daß n+1 ∈ Z. Wegen Z ⊂ Y gibt es ein i ∈ Y mit i 6∈ Z. Wir setzen Z 0 := (Z \ {n + 1}) ∪ {i} ⊆ Λn und definieren eine Abbildung ψ 0 : Z 0 → Λn , indem wir für alle z 0 ∈ Z 0 setzen ψ(z 0 ) wenn z 0 ∈ Z 0 0 ψ (z ) := ψ(n + 1) wenn z 0 = i Da ψ surjektiv ist, ist ψ 0 ebenfalls surjektiv und damit gilt nach Induktionsvoraussetung Z 0 = Λn . Völlig analog wie im vorangehenden Fall folgt nun auch hier Y = Λn+1 und damit ist (1) bewiesen. (2) Sei nun X eine endliche Menge. Wenn X = ∅, so ist nichts mehr zu zeigen. Sei also X 6= ∅. Wir betrachten die eingangs konstruierten Abbildungen fn : Λn → X, n = 0, 1, 2, . . . , sowie f : N+ → X. Wäre f injektiv, so würde f eine Bijektion N+ → f (N+ ) induzieren. Da N+ nicht endlich ist, wäre dann auch f (N+ ) nicht endlich im Widerspruch zu f (N+ ) ⊆ X, s. Lemma A.28. Daher ist f nicht injektiv. Weil f0 trivialerweise injektiv ist, gibt es somit ein n ∈ N derart, daß fn injektiv und fn+1 nicht injektiv ist. Wie wir oben gesehen haben, bedeutet das aber, daß fn surjektiv und damit bijektiv ist. Folglich ist fn−1 : X → Λn Bijektion. Angenommen, es gibt m, n ∈ N und Bijektionen g : X → Λm und h : X → Λn . O. B. d. A. gelte m ≤ n. Dann ist Λm ⊆ Λn und wir haben eine Bijektion A.6. KARDINALZAHLEN 167 hg −1 : Λm → Λn . Nach (1) gilt daher Λm = Λn und somit m = n. Dies zeigt die behauptete Eindeutigkeit von n. (3) (i) ⇒ (iii): Wenn X abzählbar ist, so gibt es definitionsgemäß eine Bijektion N → X und wir sind fertig. Wenn X endlich ist, so dürfen wir nach (2) o. B. d. A. annehmen, daß X = Λn für ein n ∈ N. Wir definieren nun τ : N → Λn durch i + 1 falls i < n τ (i) := für alle i ∈ N. n falls i ≥ n Es ist klar, daß τ surjektiv ist. (iii) ⇒ (ii): Sei τ : N → X surjektive Abbildung und sei σ : X → N Schnitt von τ (s. Lemma A.23). Dann ist σ injektiv. (ii) ⇒ (i): Wir dürfen o. B. d. A. annehmen, daß X ⊆ N und daß X unendlich ist. Dann ist die eingangs definierte Abbildung f : N+ → X injektiv, da fn nach (1) und (2) für kein n ∈ N bijektiv sein kann. Außerdem ist X als Teilmenge von N wohlgeordnet. Wäre f nicht surjektiv, so würde für x ∈ X \ f (N+ ) auf Grund der Definition von f im wohlgeordneten Fall y < x für alle y ∈ f (N+ ) gelten, d. h. wir hätten f (N+ ) ⊆ {0, 1, . . . , n − 1} ∼ = Λn (vermöge i 7→ i + 1, i = 0, 1, . . . , n − 1). Nach Lemma A.28 wäre dann f (N+ ) endlich, Widerspruch. Damit ist f surjektiv, mithin bijektiv, d. h. X ist abzählbar. (4) (i) ⇒ (ii): Wir betrachten wieder die eingangs definierte Abbildung f : N+ → X. Da fn nach (1) und (2) für kein n ∈ N bijektiv ist, ist f injektiv. (ii) ⇒ (iii): Sei ι : N → X injektive Abbildung und sei π : X → N so gewählt, daß ι ein Schnitt π ist (s. Lemma A.23). Dann ist π surjektiv. (iii) ⇒ (i): Sei π : X → N surjektive Abbildung und sei ι : N → X Schnitt von π (s. Lemma A.23). Dann ist ι injektiv, so daß o. B. d. A. N ⊆ X. Nach Lemma A.28 ist X unendlich (da N unendlich ist), A.6.2 Endliche Kardinalzahlen Definition A.30. (a) Eine Kardinalzahl κ heißt endlich, wenn es eine endliche Menge X gibt mit ]X = κ (d. h. X ∈ κ). (b) Eine endliche Kardinalzahl κ wird mit der nach Satz A.29(2) eindeutig bestimmten natürlichen Zahl n identifiziert, für die ]Λn = κ gilt, d. h. man setzt ]X = n für jede zu Λn gleichmächtige Menge X. (c) Die Kardinalzahl der abzählbaren Mengen (= ] N) wird mit ℵ0 bezeichnet (ℵ: erster Buchstabe des hebräischen Alphabets, sprich: aleph). 168 ANHANG A. MENGEN UND LOGIK Wie wir bereits festgestellt haben, ist jede Teilmenge einer endlichen Menge wieder endlich. Wir haben nun aber sogar Folgerung A.31 (aus Satz A.29). (1) Sei X eine endliche Menge. Dann gilt ] Y ≤ ] X für jede Teilmenge Y von X und ] Y < ] X für jede echte Teilmenge Y von X. (2) Jede Teilmenge einer abzählbaren Menge ist höchstens abzählbar. Beweis. (2) ergibt sich aus Satz A.29(3). Um (1) zu zeigen, setzen wir n := ] X und m := ] Y . Nach Satz A.29 (2) haben wir Bijektionen f : X → Λn und g : Y → Λm . Wenn m ≥ n, so wählen wir einen Schnitt h : Λm → Λn der Einbettung ι : Λn → Λm (vgl. Lemma A.23). Da dann hι = idΛn , sind h und folglich f −1 hg : Y → X surjektiv. Es gilt also Y = X und somit m = n, Satz A.32. Seien X, Y Mengen. (1) Ist X endlich, so sind X ∩ Y und X \ Y ebenfalls endlich und es gilt (a) ] (X ∩ Y ) + ] (X \ Y ) = ] X. Ist auch Y endlich, so sind X ∪ Y und X × Y endlich und es gilt (b) ] (X ∪ Y ) + ] (X ∩ Y ) = ] X + ] Y (c) ] (X × Y ) = ] X · ] Y (2) Ist X abzählbar, so gilt (a) X ∩ Y und X \ Y sind höchstens abzählbar. (b) Ist Y endlich, so ist X \ Y abzählbar. (c) Ist Y höchstens abzählbar, so sind X ∪Y und, falls Y nicht leer ist, X ×Y abzählbar. (3) Ist X endlich, so ist P (X) endlich und es gilt ] P (X) = 2] X . (4) Es gibt keine surjektive Abbildung X → P (X). Ist X abzählbar, so ist damit P (X) überabzählbar. Beweis. (1) X ∩ Y und X \ Y sind als Teilmengen von X endlich. Sei zunächst auch Y endlich. Wir setzen m := ] X und n := ] Y . Dann gibt es Bijektionen f : X → Λm und g : Y → Λn und somit ist f × g : X × Y → Λm × Λn ebenfalls Bijektion (vgl. Abschnitt A.5). Zum Nachweis von (c) A.6. KARDINALZAHLEN 169 reicht es daher zu zeigen, daß es eine Bijektion h : Λm × Λn → Λm·n gibt. Da Z × ∅ = ∅ × Z = ∅ für jede Menge Z, dürfen wir dazu o. B. d. A. annehmen, daß m, n ≥ 1. Wir definieren nun eine Abbildung h : Λm × Λn → Λm·n , indem wir für alle (i, j) ∈ Λm × Λn (d. h. 1 ≤ i ≤ m, 1 ≤ j ≤ n) setzen h((i, j)) := n · (i − 1) + j. Eine einfache Rechnung zeigt, daß h bijektiv ist und damit ist (c) gezeigt. Wenn zusätzlich X ∩ Y = ∅, so definieren wir eine Abbildung ϕ : X ∪ Y → Λm+n , indem wir für z ∈ X ∪ Y setzen f (z) wenn z ∈ X ϕ(z) := m + g(z) wenn z ∈ Y Man bestätigt sofort, daß ϕ eine Bijektion ist. Damit ist X ∪ Y endlich und (b) ist in diesem Fall gezeigt. Sei nun Y beliebig. Da (X ∩Y )∩(X \Y ) = ∅, folgt aus dem soeben Gezeigten wegen X = (X ∩ Y ) ∪ (X \ Y ) : ] (X ∩ Y ) + ] (X \ Y ) = ] ((X ∩ Y ) ∪ (X \ Y )) = ] X und damit ist (a) gezeigt. Sei nun Y wieder endlich und X ∩Y beliebig. Wegen X ∪Y = X ∪(Y \(X ∩Y )) und X ∩ (Y \ (X ∩ Y )) = ∅ ist nach dem oben Gezeigten X ∪ Y endlich und wir erhalten unter Verwendung von (a): ] (X ∪ Y ) + ] (X ∩ Y ) = = = = ] (X ∪ (Y \ (X ∩ Y ))) + ] (X ∩ Y ) ] X + ] (Y \ (X ∩ Y )) + ] (X ∩ Y ) ] X + ] Y − ] (X ∩ Y ) + ] (X ∩ Y ) ] X + ] Y. (2) X ∩Y und X \Y sind als Teilmengen von X nach Folgerung A.31(2) höchstens abzählbar. Sei Y endlich. Wäre X \Y endlich, so wäre X = (X \Y )∪Y nach (1) ebenfalls endlich, Widerspruch, und damit ist X \ Y in diesem Fall abzählbar. Sei nun Y höchstens abzählbar. Falls Y 6= ∅ gibt es nach Satz A.29(3) eine surjektive Abbildung g : N → Y . Da X abzählbar ist, haben wir eine bijektive Abbildung f : N → X. f × g : N × N → X × Y ist dann surjektiv (vgl. Abschnitt A.5) Wir zeigen nun, daß N × N abzählbar ist. Hierzu definieren wir eine Abbildung f : N × N → N durch f ((i, j)) := 21 (i + j)(i + j + 1) + i für alle (i, j) ∈ N × N (d. h. i, j ∈ N). Es ist leicht nachzurechnen, daß f bijektiv ist und damit ist N × N abzählbar. Nach Satz A.29(3) ist daher 170 ANHANG A. MENGEN UND LOGIK X × Y höchstens abzählbar. Sei y ∈ Y . Durch x 7→ (x, y), x ∈ X, ist eine Abbildung X → X × {y} gegeben, die offensichtlich bijektiv ist. Damit ist X × {y} insbesondere nicht endlich und wegen X × {y} ⊆ X × Y ist damit auch X × Y nicht endlich und folglich abzählbar. Wenn Y = ∅, so ist X ∪ Y = X sicherlich abzählbar. Sei also Y 6= ∅. Da X abzählbar und somit nicht endlich ist, gibt es eine echte Teilmenge X0 von X und eine surjektive Abbildung f : X0 → X. Nun definieren wir eine Abbildung g : X × Y → X ∪ Y durch f (x) falls x ∈ X0 g((x, y)) := für alle (x, y) ∈ X × Y. y falls x 6∈ X0 Es ist klar, daß g surjektiv ist und somit ist X∪Y nach Satz A.29(3) höchstens abzählbar. Da X ⊆ X ∪ Y ist X ∪ Y nicht endlich und damit abzählbar. (3) Sei m := ] X. Wir benutzen vollständige Induktion nach m, wobei für m = 0 gilt X = ∅ und folglich P (X) = {∅}, so daß in diesem Fall nichts mehr zu zeigen ist. Wenn m = 1, also X = {x} für x ∈ X, so gilt P (X) = {∅, {x}} und dies ist offensichtlich eine endliche Menge mit ] P (X) = 2 = 21 . Sei also m ≥ 2. Wir wählen x ∈ X und setzen Y := X\{x}. Dann gilt ] Y = m−1 und nach Induktionsvoraussetzung ist P (Y ) endliche Menge mit ] P (Y ) = 2m−1 . Wir definieren nun eine Abbildung ρ : P (Y ) × {∅, {x}} → P (X) durch | {z } =P ({x}) ρ((A, B)) := A∪B für alle (A, B) ∈ P (Y )×{∅, {x}} (d. h. A ⊆ Y , B ⊆ {x}). Es ist klar, daß ρ eine Bijektion ist und damit folgt die Behauptung aus (1c). (4) Angenommen, es gibt eine surjektive Abbildung f : X → P (X). Sei Y := {x ∈ X | x 6∈ f (x)}. Wegen der Surjektivität von f gibt es ein y ∈ X mit f (y) = Y . Wäre y ∈ Y , so würde folgen y 6∈ f (y) = Y , Widerspruch. Also gilt y 6∈ Y und damit y ∈ f (y) = Y , was ebenfalls einen Widerspruch darstellt. Damit war die Annahme falsch und die erste Aussage ist gezeigt. Zum Nachweis der zweiten Aussage sei X abzählbare Menge und ϕ : X → N eine Bijektion. Angenommen, P (X) ist höchstens abzählbar. Dann gibt es nach Satz A.29 (3) eine surjektive Abbildung f : N → P (X) und damit ist f ϕ : X → P (X) ebenfalls surjektiv, was aber nach dem soeben Gezeigten unmöglich ist, Für unendliche Mengen gibt es demgegenüber Besonderheiten, von denen einige der Vollständigkeit halber in dem folgenden Satz zusammenfaßt werden sollen. Satz A.33. Sei X eine unendliche und Y 6= ∅ eine höchstens abzählbare Menge. Weiter seien Y0 , Y1 , . . . Mengen mit ] Yi ≤ ] X für alle i ∈ N. Ferner sei für jedes x ∈ X eine höchstens abzählbare Menge Zx gegeben. Dann gilt A.6. KARDINALZAHLEN (1) ] S (2) ] S i≥0 171 Yi ≤ ] X. x∈X Zx ≤ ] X. (3) ] (X × Y ) = ] X. Beweis. Für alle i ∈ N und alle x ∈ X wählen wir injektive Abbildungen S µi : Yi → X und νx : Zx → N. Außerdem S definieren wir eine Abbildung Φ : x∈X Zx → P (X), indemQwir für alle z ∈ x∈X Zx setzen Φ(z) := {x ∈ X | S z ∈ Zx } = 6 ∅, und wählen πS∈ z∈Z Φ(z). Damit definieren wir Abbildungen S µ : i≥0 Yi → X × N und S ν : x∈X Zx → X × N, indem wir für alle y ∈ i≥0 Yi bzw. für alle z ∈ x∈X Zx setzen • µ(y) := (µi (y), i), wenn i := min{n ∈ N | y ∈ Yn } und • ν(z) := (π(z), νπ(z) (z)). Man bestätigt sofort, daß µ, ν injektiv sind, so daß nur (3) bewiesen werden muß. Wir bemerken, daß bei Vorliegen nur endlich vieler Mengen Y0 , . . . , Yn mit den Sn entsprechenden Eigenschaften eine injektive Abbildung i=0 Yi → X × {0, . . . , n} existiert. Wir zeigen zunächst: Ist Y endlich, so gilt ] (X ∪ Y ) = ] X. Mittels Induktion nach ] Y können wir uns hierzu auf den Fall ] Y = 1, d. h. Y = {y} beschränken. Wenn y ∈ X, so sind wir fertig. Sei also y 6∈ X. Da X unendlich ist, gibt es laut Definition eine echte Teilmenge X 0 ⊂ X von X und eine Bijektion ψ : X → X 0 . Wir wählen nun x ∈ X \ X 0 und definieren eine Abbildung ϕ : X ∪ Y → X, indem wir für alle z ∈ X ∪ Y setzen ( ψ(z) wenn z ∈ X ϕ(z) := x wenn z = y. Man bestätigt sofort, daß ϕ injektiv ist. Da X ⊆ X ∪Y , ergibt sich ] (X ∪Y ) = ] X aus dem Satz von Schröder-Bernstein, s. Satz A.26. Sei nun Y beliebig. Wir setzen U := {(U, ϕ) | U ⊆ X, ϕ : U × Y → U Bijektion} Nach Satz A.29(4) enthält X eine abzählbare Teilmenge U und nach Satz A.32(2c) ist U × Y abzählbar, d. h. es gibt eine Bijektion ϕ : U × Y → U . Da somit (U, ϕ) ∈ U, gilt U 6= ∅. Für (U, ϕ), (V, ψ) ∈ U gelte (U, ϕ) (V, ψ), wenn U ⊆ V und ϕ = ψ|U ×Y . Man bestätigt sofort, daß Ordnungsrelation auf U ist und daß jede Kette in U ein Supremum in U besitzt. Nach dem Zornschen Lemma besitzt U damit maximale Elemente. Sei (U0 , ϕ0 ) ein solches. 172 ANHANG A. MENGEN UND LOGIK Wäre X \ U0 unendlich, so gäbe es wiederum nach Satz A.29(4) eine abzählbare Teilmenge Z ⊆ X \ U0 und eine bijektive Abbildung ψ : Z × Y → Z (s. oben). Dann wäre aber die durch ( ϕ0 (x) wenn x ∈ U0 (x, y) 7→ , (x, y) ∈ (U0 ∪ Z) × Y ψ(x) wenn x ∈ Z definierte Abbildung ϕ : (U0 ∪ Z) × Y → U0 ∪ Z bijektiv, Widerspruch. Damit ist X \ U0 endlich. Ist auch Y endlich, so ist (X \ U0 ) × Y endlich nach Satz A.32(1c) und wir erhalten mit dem bereits Gezeigten ] (X × Y ) = ] ((U0 × Y ) ∪ ((X \ U0 ) × Y )) = ] (U0 × Y ) = ] U0 = ]X. Sei nun Y abzählbar. Nach dem gerade Gezeigten ist dann Y1 := (X \ U0 ) × Y leer oder abzählbar. Nach den Konstruktionen zu Beginn dieses Beweises haben wir mit Y0 := U0 × Y einen Monomorphismus µ : X × Y = Y0 ∪ Y1 → X × {0, 1} und daher gilt ] (X × Y ) ≤ ] (X × {0, 1}) = ]X nach dem bereits Gezeigten. Sei y0 ∈ Y . Durch x 7→ (x, y0 ), x ∈ X, ist eine injektive Abbildung X → X × Y gegeben, so daß ] X ≤ ] (X × Y ). Aus dem Satz von Schröder-Bernstein (s. Satz A.26) folgt nun die Behauptung, Beispiele A.34. (a) Z und Q sind abzählbar. (b) R ist überabzählbar. Begründung. (a) Setzen wir −N := {−n | n ∈ N} ⊆ Z, so ist durch n 7→ −n, n ∈ N, eine Bijektion N → −N gegeben und damit ist −N abzählbar. Nach Satz A.32(2c) ist daher Z = N ∪ −N abzählbar. Für q ∈ Q \ {0} gibt es eindeutig bestimmte teilerfremde Zahlen nq ∈ Z \ {0} und zq ∈ N+ mit q = nzqq . Setzen wir n0 := 0 und z0 := 1, so ist durch q 7→ (nq , zq ), q ∈ Q, eine injektive Abbildung Q → Z × N gegeben. Nach Satz A.32(2c) und Folgerung A.31(2) ist daher Q höchstens abzählbar. Wegen N ⊂ Q ist Q nicht endlich und damit abzählbar. (b) Angenommen, R wäre höchstens abzählbar. Dann gäbe es nach Satz A.29(3) eine surjektive Abbildung f : N → R. Für jedes n ∈ N schreiben wir die Dezimaldarstellung von f (n) wir folgt auf f (n) = an , zn1 zn2 . . . mit an ∈ Z, zni ∈ {0, . . . , 9} für alle i ∈ N+ . A.6. KARDINALZAHLEN 173 Sei dann ( 1 falls zii 6= 1 ρ := 0, u1 u2 . . . ∈ R mit ui := , i = 1, 2, . . . 2 sonst Man bestätigt sofort, daß sich f (m) und ρ für jedes m ∈ N in der m-ten Nachkommastelle unterscheiden, d. h. es gilt f (m) 6= ρ für alle m ∈ N im Widerspruch zur Surjektivität von f , Bemerkung A.35. Man kann zeigen, daß es unter allen Kardinalzahlen, die echt größer sind als ℵ0 , eine kleinste gibt. Diese bezeichnet man mit ℵ1 . Aus Beispiel A.34(b) ergibt sich ]R ≥ ℵ1 . Die sogenannte Kontinuumshypothese (Kontinuum: ältere Bezeichnung für die Menge der reellen Zahlen) besagt, daß hierbei Gleichheit gelten sollte. 1940 zeigte Gödel jedoch, daß die Kontinuumshypothese unabhängig ist von den übrigen mengentheoretischen Axiomen, also nicht aus diesen abgeleitet (bewiesen) werden kann. 1963 zeigte Cohen, daß dies auch für das Negat der Kontinuumshypothese gilt. Ist also die Mengentheorie ohne Kontinuumshypothese bzw. ihrem Negat widerspruchsfrei, so ist sie sowohl mit Kontinuumshypothese als auch mit dem Negat der Kontinuumshypothese widerspruchsfrei. 174 ANHANG A. MENGEN UND LOGIK Anhang B Polynome Sei R ein Ring. Indem wir Abbildungen N → R mit ihren Wertetabellen identifizieren, haben wir (s. Bemerkung 3.9.3) RN = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R} und R(N) = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R, ri = 0R für fast alle i ∈ N}. RN ist Links- und Rechts-R-Modul, R(N) ist Links- und Rechts-R-Untermodul von RN und beide sind mit der komponentenweisen Addition insbesondere abelsche Gruppen. Wir definieren nun eine Multiplikation in RN und in R(N) , die sich von der in Bemerkung 3.6.7 eingeführten Multiplikation unterscheidet. Definition B.1 (Cauchyprodukt). Sei R ein Ring. Für (r0 , r1 , . . . ), (s0 , s1 , . . . ) ∈ RN setzen wir n−te Stelle z }| { P (r0 , r1 , . . . ) · (s0 , s1 , . . . ) := (r0 s0 , r1 s0 + r0 s1 , . . . , ni=0 rn−i si , . . . ) ∈ RN . Wir bemerken, daß damit für (r0 , r1 , . . . ) ∈ RN und s ∈ R gilt: s(r0 , r1 , r2 , . . . ) = (sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . ) · (r0 , r1 , r2 , . . . ) und (r0 , r1 , r2 , . . . )s = (r0 s, r1 s, r2 s, . . . ) = (r0 , r1 , r2 , . . . ) · (s, 0R , 0R , . . . ). Wir haben nun Lemma B.2. Sei R ein Ring. Dann gilt: (1) RN ist mit der komponentenweisen Addition und dem Cauchyprodukt ein Ring mit Einselement (1R , 0R , . . . ) und R(N) ist Unterring von RN . Ist R kommutativ, so sind RN und R(N) kommutative R-Algebren (s. Bemerkung 3.6.8) (2) Durch r 7→ (r, 0R , 0R , . . . ), r ∈ R, ist ein injektiver Ringhomomorphismus R → R(N) definiert, vermöge dessen wir R als Unterring von R(N) und so175 176 ANHANG B. POLYNOME mit von RN auffassen, d. h. für jedes r ∈ R wird das Element der Gestalt (r, 0R , 0R , . . . ) aus RN mit r identifiziert. (3) Z(RN ) = Z(R)N und Z(R(N) ) = Z(R)(N) (zur Definition von Z(R) s. Übungsaufgabe I43). i−te i Stelle (0R , . . . , 0R , 1R , 0R , . . . ) (4) Mit X := (0R , 1R , 0R , 0R , . . . ) gilt X = ∈ Z(R(N) ) für alle i ∈ N und mit der in (2) beschriebenen Identifizierung haben wir damit R(N) = {r0 + r1 X + r2 X 2 + . . . | r0 , r1 , . . . ∈ R, ri = 0R für fast alle i ∈ N} = R[X] . Beweis. (1) Es ist klar, daß das Cauchyprodukt von Elementen aus R(N) wieder in R(N) liegt und daß (1R , 0R , . . . ) ∈ R(N) ⊂ RN neutrales Element bzgl. des Cauchyproduktes ist. Seien nun f := (r0 , r1 , . . . ), g := (s0 , s1 , . . . ), h := (t0 , t1 , . . . ) Elemente aus RN . Bezeichnen wir für n ∈ N mit un ∈ R die n-te Komponente von (f g)h und mit vn ∈ R die n-te Komponente von (f + g)h , so gilt un = n n−i X X i=0 j=0 k n X n−i n X X X sk−l tl rn−k rn−i−j sj ti = rn−i−j sj ti = i=0 j=0 k=0 l=0 und dies ist die n-te Komponente von f (gh), d. h. wir haben (f g)h = f (gh). Weiter gilt n n n n X X X X vn = (rn−i + sn−i )ti = (rn−i ti + sn−i ti ) = rn−i ti + sn−i ti i=0 i=0 i=0 i=0 und dies ist die n-te Komponente von f h + gh, d. h. wir haben (f + g)h = f h + gh und entsprechend f (g + h) = f g + f h. Ist R kommutativ, so sind RN und R(N) nach (3) kommutativ. Da RN und R(N) R-Moduln sind, folgt die R-Algebra-Struktur aus obigen Vorüberlegungen. (2) ergibt sich sofort aus der Definition des Cauchyproduktes, wonach für r, s ∈ R gilt (r, 0R , 0R , . . . ) · (s, 0R , 0R , . . . ) = (rs, 0R , 0R , . . . ). (3) Sei (r0 , r1 , r2 , . . . ) ∈ Z(RN ) (∈ Z(R(N) )). Für alle s ∈ R gilt dann (s. oben) (sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . )(r0 , r1 , r2 , . . . ) = (r0 , r1 , r2 , . . . )(s, 0R , 0R , . . . ) = (r0 s, r1 s, r2 s, . . . ), 177 also sri = ri s und damit ri ∈ Z(R) für alle i ∈ N. Folglich gilt (r0 , r1 , . . . ) ∈ Z(R)N (∈ Z(R)(N) ) und dies liefert Z(RN ) ⊆ Z(R)N (Z(R(N) ) ⊆ Z(R)(N) ). Die jeweils umgekehrte Inklusion ergibt sich unmittelbar aus der Definition des Cauchyproduktes. (4) folgt mittels Induktion nach i, Definition B.3. Sei R ein Ring. (a) R(N) heißt mit der in Lemma B.2 beschrieben Ringstruktur Polynomring in einer Unbestimmten mit Koeffizienten aus R. Seine Elemente nennt man Polynome (in einer Unbestimmten). Das Polynom X := (0R , 1R , 0R , 0R , . . . ) heißt Unbestimmte. Faßt man R als Unterring von R(N) auf, so gilt R(N) = R[X] (sprich ”R adjungiert X”), so daß man kurz vom Polynomring in X über R spricht und seine Elemente in der Form r0 + r1 X + r2 X 2 + . . . mit r0 , r1 , r2 , . . . ∈ R, ri = 0R für fast alle i ∈ N, aufschreibt. r0 , r1 , . . . heißen Koeffizienten von r0 + r1 X + r2 X 2 + . . . ∈ R[X]. Dabei können Summanden der Form 0R X i (i ∈ N) fortgelassen werden. (b) In Analogie zu (a) schreibt man die Elemente von RN in der Form r0 + r1 X + r2 X 2 +. . . auf und nennt sie demzufolge formale Potenzreihen in einer Unbestimmten. Entsprechend nennt man RN formalen Potenzreihenring in einer Unbestimmten mit Koeffizienten aus R (oder kurz: in X über R) und bezeichnet ihn mit R[[X]]. (c) Für f ∈ R[[X]], f = r0 + r1 X + r2 X 2 + . . ., setzen wir supp f := {i ∈ N | ri 6= 0R } (Support oder Träger von f ). Bemerkungen B.4. 1. Die in Definition B.3 (a) bzw. (b) anstelle der Tupelschreibweise eingeführte Schreibweise der Elemente von R[X] bzw. von R[[X]] hat den Vorteil, daß die Multiplikation durch distributives Ausmultiplizieren der Faktoren bewerkstelligt werden kann, z. B. (1R −X)(1R +X +X 2 +. . .) = 1R +X +X 2 +. . .−X −X 2 −X 3 −. . . = 1R . 2. Für f ∈ R[[X]] gilt f = 0 genau dann, wenn supp f = ∅ und f ∈ R[X] genau dann, wenn supp f endlich ist. 3. Die Unbestimmte kann natürlich auch anders bezeichnet werden. Man sagt dann z. B.: ”Sei R[Y ] Polynomring (oder R[[Y ]] formaler Potenzreihenring), wobei R ein Ring und Y eine Unbestiimmte ist”. 4. Nach Lemma B.2(2) ist R Unterring von R[X]. Die Elemente von R nennt man daher auch konstante Polynome. 178 ANHANG B. POLYNOME 5. Das Nullelement von R[X], also dasjenige Polynom, dessen Koeffizienten sämtlich gleich 0R sind, wird Nullpolynom genannt und meist kurz mit 0 bezeichnet. Es stimmt mit dem konstanten Polynom 0R überein. 6. Sind X, Y Unbestimmte, so kann man entsprechend den Polynomring bzw. den formalen Potenzreihenring R[X][Y ] bzw. R[[X]][[Y ]] definieren. Da Y ∈ Z(R[X]) = Z(R)[X] und entsprechend Y ∈ Z(R[[X]]) = Z(R)[[X]], kommt es auf die Reihenfolge der Unbestimmten dabei nicht an, d. h. wir können schreiben R[X, Y ] := R[X][Y ] und entsprechend R[[X, Y ]] := R[[X]][[Y ]]. 7. Damit kann man induktiv über n ∈ N den Polynomring und den formalen Potenzreihenring in n Unbestimmten über R definieren. Da auch hier die Unbestimmten jeweils zentrale Elemente sind, kommt es dabei auf deren Reihenfolge nicht an. Sind A, B jeweils endliche Mengen von Unbestimmten, so sind R[A] und R[B] Unterringe von R[A ∪ B]. Ist nun X eine beliebige Menge von Unbestimmten, so kann man daher den Polynomring R[X ] in X über R definieren durch S R[X ] := R[A] . A⊆X A endlich Entsprechend ist der formale Potenzreihenring R[[X ]] erklärt. Definition B.5 (Grad eines Polynoms). Sei R ein Ring und X eine Unbestimmte. Für f ∈ R[X] setzen wir ( max supp f f 6= 0 (a) grad f := (Grad von f ). −∞ f =0 (b) Wenn f 6= 0 und f = r0 +r1 X +. . .+rd X d mit d := gradf und r0 , . . . , rd ∈ R, so heißt rd Leitkoeffizient von f , kurz lk f . Für f = 0 setzen wir lk 0 := 0R . Bevor wir erste Aussagen formulieren, vereinbaren wir, daß die übliche Ordnungsrelation und die übliche Addition in Z wie folgt auf Z ∪ {−∞} (und damit auf N ∪ {−∞}) erweitert wird: −∞ ≤ x und − ∞ + x = x + (−∞) = −∞ für alle x ∈ Z ∪ {−∞}. Der Vollständigkeit halber wiederholen wir eine Definition aus Übungsaufgabe W4: Definition B.6 (Nullteiler). Sei R ein Ring. (a) Ein Element r ∈ R heißt linker (rechter) Nullteiler in R, wenn es ein t ∈ R gibt mit t 6= 0R und rt = 0R (tr = 0R ). r heißt Nullteiler in R, wenn r linker oder rechter Nullteiler in R ist. 179 (b) Ein Element r ∈ R heißt Nichtnullteiler in R, wenn r kein Nullteiler in R ist. (c) Man sagt, R sei nullteilerfrei, wenn R außer 0R keine Nullteiler besitzt. Ein Integritätsring ist ein kommutativer nullteilerfreier Ring. Bemerkungen B.7. 1. Jede Einheit eines Ringes R ist Nichtnullteiler in R. 2. Ein Ring R ist nullteilerfrei genau dann, wenn für alle x, y ∈ R \ {0R } gilt xy 6= 0R (oder aus xy = 0R folgt, daß x = 0R oder y = 0R ). 3. Jeder Unterring eines nullteilerfreien Ringes ist wieder nullteilerfrei. 4. Z ist Integritätsring. 5. Jeder Unterring eines Körpers ist ein Integritätsring. Man kann zeigen, daß auch die Umkehrung hiervon gilt, d. h. jeder Integritätsring ist Unterring eines Körpers. Lemma B.8. Sei R ein Ring und X eine Unbestimmte. Dann haben wir für f, g ∈ R[X]: (1) grad (f + g) ≤ max{grad f, grad g}. Dabei gilt grad (f + g) < max{grad f, grad g} genau dann, wenn grad f = grad g ≥ 0 und lk f + lk g = 0R . (2) grad f g ≤ grad f + grad g. Dabei gilt grad f g < grad f + grad g genau dann, wenn f, g 6= 0 und (lk f )(lk g) = 0R . (3) Wenn lk f Nichtnullteiler in R ist, so ist f Nichtnullteiler in R[X]. Beweis. (3) folgt aus (2). (1) und (2) sind klar, wenn f = 0 oder g = 0. Gelte also f 6= 0, g 6= 0. Sei f =: r0 + r1 X + . . . + rm X m , m := grad f ≥ 0 und g =: s0 + s1 X + . . . + sn X n , n := grad g ≥ 0. Dann gilt lk f = rm 6= 0R und lk g = sn 6= 0R . Wir setzen f + g =: u0 + u1 X + . . . und f g =: v0 + v1 X + . . .. (1) Da up = rp + sp für alle p ∈ N, gilt up = 0R für alle p > max{m, n}, d. h. grad (f + g) ≤ max{m, n}. Wenn m = n ≥ 0 und lk f + lk g = 0R , so folgt um = 0R , also gilt grad (f + g) < m = max{m, n}. Wenn umgekehrt grad (f + g) < max{m, n}, so gilt rm + sm = um = 0R oder rn + sn = un = 0R . Wegen rm 6= 0R und sn 6= 0R ist dies aber nur möglich, wenn m = n und rm + sm = 0R . Pp (2) Da vp = i=0 rp−i si , gilt vp = 0R für alle p > m + n, d. h. wir haben grad f g ≤ m + n. Da vm+n = rm sn , gilt grad f g < m + n genau dann, wenn rm sn = 0R , 180 ANHANG B. POLYNOME Definition B.9. Sei R ein Ring und X eine Unbestimmte. Man sagt, in R[X] gelte der Gradsatz, wenn grad f g = grad f + grad g für alle f, g ∈ R[X]. Folgerung B.10. Sei R ein Ring und X eine Unbestimmte. Dann sind die folgenden Aussagen äquivalent: (i) In R[X] gilt der Gradsatz (ii) R ist nullteilerfrei (iii) R[X] ist nullteilerfrei Beweis. (i) =⇒ (iii): Seien f, g ∈ R[X] \ {0}. Da grad f g = grad f + grad g ≥ 0 + 0 = 0 > −∞, gilt f g 6= 0, d. h. R[X] ist nulltiterfrei. (iii) =⇒ (ii) ist trivial, da R Unterring von R[X] ist. (ii) =⇒ (i) ergibt sich sofort aus Lemma B.8(2),