Lineare Algebra I und II Prof. Dr. Jürgen Stückrad Mathematisches Institut der Universität Leipzig Wintersemester 2011/2012 und Sommersemester 2012 letzte Änderung: 15. Oktober 2012 Inhaltsverzeichnis Einleitung 1 1 Lineare Gleichungssysteme 1.1 Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . 1.2 Gaußscher Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . 3 5 11 2 Matrizen 2.1 Gruppen, Ringe, Körper . . . . . 2.2 Matrizen . . . . . . . . . . . . . . 2.2.1 Grundlegende Definitionen 2.2.2 Matrizenringe . . . . . . . 2.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 27 27 28 37 3 Vektorräume, Moduln, Ideale 3.1 Operationen auf Mengen . . . . 3.2 Moduln . . . . . . . . . . . . . 3.3 Erzeugendensysteme und Basen 3.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 47 58 66 4 Lineare Abbildungen 4.1 Grundbegriffe . . . . . . . 4.2 Koordinaten . . . . . . . . 4.3 Fundamentalsatz . . . . . 4.4 Matrizendarstellungen . . 4.5 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 83 92 95 101 112 5 Endomorphismen 5.1 Nullstellen . . . . . . . . . . . . . . . 5.2 Determinanten . . . . . . . . . . . . 5.3 Eigenwerte . . . . . . . . . . . . . . . 5.4 Klassifizierung von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 119 123 130 137 . . . . . . . . . . . . . . . 6 Euklidische Vektorräume . . . . . . . . . . 145 i ii INHALTSVERZEICHNIS 6.1 6.2 6.3 6.4 6.5 Quadratische Formen . . . . . Euklidische Vektorräume . . . Euklidische Abbildungen . . . Spektralsatz . . . . . . . . . . Hauptachsentransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Mengen und Logik A.1 Allgemeine Bemerkungen . . . . . . . . . . . A.2 Mengen . . . . . . . . . . . . . . . . . . . . A.3 Aussagen . . . . . . . . . . . . . . . . . . . A.3.1 Aussagenlogik . . . . . . . . . . . . . A.3.2 Prädikatenlogik . . . . . . . . . . . . A.4 Relationen . . . . . . . . . . . . . . . . . . . A.4.1 Definitionen, Beispiele . . . . . . . . A.4.2 Ordnungs- und Äquivalenzrelationen A.4.3 Äquivalenzklassen, Partitionen . . . . A.5 Abbildungen . . . . . . . . . . . . . . . . . . A.6 Kardinalzahlen . . . . . . . . . . . . . . . . A.6.1 Endliche und abzählbare Mengen . . A.6.2 Endliche Kardinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 154 162 167 173 . . . . . . . . . . . . . 177 177 178 181 181 184 187 187 187 189 190 195 196 199 B Polynome 207 C Übungsaufgaben 213 Einleitung Schlägt man in älteren Lexika nach, so wird Algebra meist erklärt als Lehre von den Gleichungen und ihren Lösungen. Dementsprechend wäre lineare Algebra dann die Lehre von den linearen Gleichungen. Historisch gesehen ist das auch gar nicht so abwegig, denn fragt man nach der Bedeutung des Wortes ”Algebra”, so stößt man auf den berühnmten arabischen Gelehrten Al-Chwarizmi (Abu Dscha’far Muhammad ibn Musa al-Chwarizmi), der um 780 in der Nähe des Aralsees geboren wurde und nach 835 vermutlich in Bagdad starb. Er verbrachte den größten Teil seines Lebens in Bagdad und hatte dort zwischen 813 und 835 seine Hauptschaffenszeit als Universalgelehrter (d. h. als Mathematiker, Astronom, Geograph). In seinem um 820 erschienenen ersten Werk ”Kitab al-Dscham’wal-tafriq bi-hisab al-Hind”, das nur noch in lateinischer Übersetzung aus dem 12. Jahrhundert mit dem Titel ”Liber Algorithmi de numero Indorum” überliefert ist, ging es um das Rechnen mit Dezimalzahlen (von ihm ”indische Zahlen” genannt) und es wurde die Ziffer Null in das arabische Zahlsystem eingeführt (arabisch: ”sifr”). Aus der Verballhornung seines Namens in der lateinischen Übersetzung (”Algorithmi” statt ”Al-Chwarizmi”) entstand übrigens der Begriff ”Algorithmus”. In seinem Hauptwerk ”Kitab al-muchtasar fi hisab al-dschabr wa-l-muqabala”, auf deutsch ”Buch über das Rechnen durch Ergänzen und Ausgleich”, das um 830 erschien, behandelt er systematisch Lösungsstrategien für lineare und quadratische Gleichungen, wozu er wohl erstmals auch geometrischen Darstellungen verwendete. Dieses Buch stellte über Jahrhunderte ein Standardwerk zu dieser Thematik dar und wurde vielfach - auch in Auszügen - ins Lateinische übersetzt. Dabei entstand auch der Begriff ”Algebra” aus der Latinisierung des Wortes ”al-dschabr” im ursprünglichen Titel. In diesem Sinn gehört die Mathematik und insbesondere die Algebra zu den ältesten Wissenschaften überhaupt, denn es sind Keilschriftentexte aus dem Sumerischen Reich überliefert, die belegen, dass man sich schon vor mehr als 4500 Jahren mit Gleichungen und Strategien zum Auffinden ihrer Lösungen beschäftigt hat. Heute geht es in der Algebra um das Studium mathematischer Strukturen, das sind - grob gesagt - Mengen, auf den zusätzliche Operationen und ggf. Relationen 1 2 EINLEITUNG erklärt sind, und um die Beziehungen zwischen solchen Strukuren. Die Algebra war und ist der Vorreiter dieser Denkweise, die mittlerweile weite Teile der Mathematik, der Informatik und der Naturwissenschaften beherrscht. Nach heutigem Verständnis erhebt sich das Gebäude der modernen Mathematik auf drei fundamentalen Säulen: Der formalen Logik, den formalen Sprachen und der Mengenlehre, wobei die beiden erstgenannten derzeit wohl eher der (theoretischen) Informatik zuzuordnen sind. Wir werden uns mit diesen grundlegenden Dingen zunächst nur am Rande beschäftigen und statt dessen versuchen, die der modernen Mathematik zugrunde liegende axiomatsche Herangehensweise anhand konkreter Fragestellungen der linearen Algebra und später der Algebra zu studieren und zu trainieren. Zu einigen mengentheoretischen und logischen Grundlagen wird im Anhang A des Skriptes eingegangen und im weiteren Verlauf jeweils verwiesen. Zu Beginn dieser Vorlesung wollen wir uns - wie gesagt - kurz mit mengentheoretischen und logischen Grundlagen der Mathematik beschäftigen. Danach geht es um die Untersuchung linearer Gleichungssysteme mit beliebiger (aber endlicher) Anzahl von Unbestimmten und Gleichungen. Es ist klar, daß man zur Behandlung solcher Systeme Zahlbereiche benötigt, in welchen Addition einschließlich Subtraktion und Multiplikation ausführbar sind und hierfür die ”üblichen” Regeln gelten. Solche Bereiche werden als Ringe bezeichnet. Z. B. bildet die Menge Z der ganzen Zahlen einen Ring. Bei genauerer Betrachtung stellt sich heraus, daß zur vollständigen Lösung auch noch die Division (außer durch 0) ausführbar sein muß. Derartige Zahlbereiche werden dann Körper genannt. Beispiele hierfür sind die rationalen Zahlen Q und die reellen Zahlen R. Der Einführung und ersten Untersuchung solcher Strukturen wie Ringe, Körper, Gruppen usw. werden uns zu Beginn des zweiten Kapitels beschäftigen. Die Koeffizienten der in diesem Kurs behandelten linearen Gleichungssysteme stammen i. a. aus einem derartigen Körper K. Dabei werden wir spezielle Probleme wie etwa die Frage nach der Positiviät der Komponenten in den Lösungstupeln (falls sie überhaupt sinnvoll ist) außer acht lassen. Im dritten Kapitel werden dann die für die lineare Algebra typischen Strukturen, die Vektorrüme oder allgemeiner Moduln, betrachtet und untersucht. Danach werden wir im vierten Kapitel strukturerhaltende Abbildungen zwischen derartigen algebraischen Strukturen behandeln und dann in den folgenden Kapiteln im Rahmen der Vorlesung ”Lineare Algebra II” wichtige Anwendungen studieren. Kapitel 1 Lineare Gleichungssysteme In der Schule werden häufig Konstruktionsaufgaben behandelt, bei denen es um (meist ebene) geometrische Figuren geht. Dabei werden z. B. Fragen nach der gegenseitigen Lage, den gemeinsamen Schnittpunkten usw. solcher Figuren diskutiert oder es geht um Aussagen über Flächen- bzw. Längenverhältnisse von Teilfiguren oder -strecken. Beispiele sind: • Man konstruiere die Innenwinkelhalbierenden eines gegebenen Dreiecks und zeige, daß sie sich in genau einem Punkt schneiden und daß dieser Punkt der Mittelpunkt des Inkreises des gegebenen Dreiecks ist. • Man konstruiere die Seitenhalbierenden eines gegebenen Dreiecks und zeige, daß sie sich in einem Punkt schneiden und daß dieser Punkt jede der Seitenhalbierenden im Verhältnis 2 : 1 teilt. Man lernt dabei, daß es zur Lösung derartiger Probleme oft hilfreich ist, ein (rechtwinkliges) Koordinatensystem einzuführen und damit die geometrische Fragestellung in eine oder mehrere Gleichungen zu ”übersetzen”, deren Lösung(en) dann die gesuchten Schnittpunktkoordinaten, Verhältniszahlen usw. liefern. Das geometrische Problem ist also in ein algebraisches überführt worden, für dessen Lösung man dann ggf. analytische Methoden heranzieht. Umgekehrt kann man natürlich versuchen, vorgelegte analytische oder algebraische Problemstellungen auf diese Weise geometrisch zu interpretieren und so zu lösen (daher die Bezeichnungen ”analytische” oder ”algebraische” Geometrie). Dabei stößt man in der Mathematik, den Natur-, Ingenieur- und Wirtschaftswissenschaften häufig auf Probleme, bei denen die entsprechenden algebraischen Modelle ”linear” sind, d. h. die Unbestimmten, die die jeweiligen System-, Steueroder sonstigen Größen repräsentieren, kommen in den auftretenden Gleichungen höchstens linear vor, d. h. Produkte mehrerer Unbestimmter treten nicht auf. 3 4 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Als Beispiel hierfür mag die folgende einfache Problemstellung dienen: Hat z. B. ein Händler Waren W1 , . . . , Wn zu Stückpreisen p1 , . . . , pn vorrätig und kauft ein Kunde davon Stückzahlen w1 , . . . , wn , so berechnet sich der zu entrichtende Preis p wie folgt p = p1 w 1 + . . . + pn w n (∗) Hat umgekehrt ein Kunde nur ein bestimmtes Budget p zur Verfügung, so kann man nach den Warenkörben fragen, die er dafür erwerben könnte. Mathematisch bedeutet das, in obiger Gleichung (∗) w1 , . . . , wn als Unbestimmte aufzufassen und alle Warenkörbe zu ermitteln, die den Preis p liefern. Ein Warenkorb ist dann ein geordnetes n-Tupel (x1 , . . . , xn ), wobei xi für i = 1, . . . , n die Anzahl der Ware Wi bezeichnet, die jeweils erworben werden kann. Entsprechend nennt man (∗) lineare Gleichnug mit Koeffizienten p, p1 , . . . , pn in den Unbestimmten w1 , . . . , wn . Ein geordnetes n-Tupel (x1 , . . . , xn ) ganzer oder allgemeiner reeller Zahlen, das (∗) erfüllt, heißt Lösung von (∗). Die in (∗) auftretenden Größen können aber auch ganz andere Bedeutungen haben. Z. B. könnten die W1 , . . . , Wn Transportmittel mit Kapazitäten w1 , . . . , wn sein und p1 , . . . , pn sind Anzahlen von Einsätzen. Dann ist p die dabei insgesamt transportierte Menge. Ist umgekehrt eine bestimmte Menge p zu transportieren, so kann man mit (∗) eine entsprechende Auslastungsstrategie ermitteln, wobei dann allerdings die p1 , . . . , pn als Unbestimmte zu betrachten wären. Sind dabei unterschiedliche Güter zu transportieren, so ergeben sich mehrere Gleichungen des Typs (∗). Man spricht dann von einem linearen Gleichnugssystem in den Unbestimmten p1 , . . . , pn . Es erhebt sich hierbei zunächst einmal die Frage, aus welchen Zahlbereichen die Komponenten unserer Lösungstupel stammen. Sind die Koeffizienten - wie in obigem Beispiel - rationale oder allgemeiner reelle Zahlen, so kann man auch nur Lösungstupel mit rationalen oder reellen Komponenten erwarten. Handelt es sich bei den gesuchten Größen wie oben um Mengenangaben, so sind i. a. nur solche Lösungstupel sinnvoll, deren Komponenten nicht negativ sind. Beschreiben sie Anzahlen, so würden nur ganzzahlige Lösungstupel in Frage kommen usw. Es stellt sich z. B. heraus, daß etwa die Bestimmung aller ganzzahligen Lösungstupel bei einem linearen Gleichungssystem mit ganzzahligen Koeffizienten einen wesentlich höheren Aufwand erfordert als die Bestimmung aller rationalzahligen Lösungstupel. In diesem Kapitel der Vorlesung werden wir uns mit derartigen linearen Gleichungssystemen beschäftigen, wobei es - wie gesagt - erst einmal um die Bestimmung ihrer Lösungsmengen geht. Hierzu werden wir geeignete Verfahren behandeln, mit deren Hilfe wir auch die Struktur dieser Lösungsmengen genauer beschreiben können. 1.1. GRUNDLEGENDE DEFINITIONEN 1.1 5 Grundlegende Definitionen Gegeben sei eine Gleichung a1 X 1 + a2 X 2 + . . . + an X n = b (1.1) mit (zunächst) reellen Zahlen a1 , a2 , . . . , an , b und Unbestimmten X1 , X2 , . . . , Xn . Eine solche Gleichung heißt lineare Gleichung, die a1 , . . . , an heißen Koeffizienten und b konstantes Glied oder konstanter Term oder auch nur Konstante von (1.1). Die Gleichung 1.1 heißt homogen, wenn b = 0 Gesucht wird die Menge L := {(x1 , . . . , xn ) ∈ Rn | a1 x1 + . . . + an xn = b} ⊆ Rn . Sie heißt Lösungsmenge von (1.1), ihre Elemente heißen Lösungen von (1.1). (Rn := {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R} ist die Menge der geordneten n-Tupel reeller Zahlen, s. Anhang A, Abschnitt A.2.) Bemerkungen 1.1. 1. L ändert sich nicht, wenn man 1.1 mit einer von 0 verschiedenen reellen Zahl multipliziert, d. h. wenn man statt 1.1 die Gleichung (αa1 )X1 + (αa2 )X2 + . . . + (αan )Xn = αb mit α ∈ R \ {0} betrachtet. 2. Man erkennt sofort, dass • L=∅ ⇔ a1 = . . . = an = 0, b 6= 0 und • L = Rn ⇔ a1 = . . . = an = b = 0. In allen anderen Fällen gilt somit ∅ ⊂ L ⊂ Rn . L kann relativ einfach ermittelt werden, wie wir an einem Beispiel verdeutlichen wollen. Beispiel 1.2. Man bestimme die Lösungsmenge der Gleichung 2X1 − 6X2 − 5X3 = 3 (1.2) Lösung: Es ist hier n = 3, a1 = 2, a2 = −6, a3 = −5 und b = 3. Werden zwei der drei Unbestimmten beliebig gewählt, so kann die dritte dann berechnet werden. Wenn wir z. B. X2 = t1 , X3 = t2 mit beliebigen t1 , t2 ∈ R setzen, so erhalten wir X1 = 23 + 3t1 + 25 t2 und somit gilt L = {( 32 + 3t1 + 52 t2 , t1 , t2 ) | t1 , t2 ∈ R} = {( 23 , 0, 0) + t1 (3, 1, 0) + t2 ( 25 , 0, 1) | t1 , t2 ∈ R}. Diese Darstellungen von L (insbesondere die letzte) werden als Parameterdarstellungen von L mit Parametern t1 und t2 bezeichnet. 6 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Bemerkungen 1.3. 1. Eine solche Parameterdarstellung ist i. a. nicht eindeutig (z. B. hätten wir X1 und X2 beliebig wählen können, um dann X3 zu bestimmen). Allerdings scheint die Anzahl der frei wählbaren Parameter eindeutig bestimmt zu sein. 2. Die lineare Gleichung 2X1 − 6X2 − 5X3 = 0 heißt zu (1.2) gehörige homogene Gleichung. Ihre Lösungsmenge L0 hat die Gestalt L0 = {t1 (3, 1, 0) + t2 ( 52 , 0, 1) | t1 , t2 ∈ R}. Sie kann sofort aus L bestimmt werden, indem in einer Parameterdarstel lung von L der ”konstante Term” in unserem Fall ( 32 , 0, 0) weggelassen wird. Darauf werden wir später nochmal genauer eingehen. 3. In unserem Beispiel stammen Koeffizienten und konstanter Term von 1.2 aus Q (sogar aus Z). Daher könnte man auch nach den Lösungen aus Q3 fragen. Man erkennt sofort, daß man diese erhält, wenn t1 , t2 beliebig aus Q gewählt werden. (Die Frage nach den ganzzahligen Lösungen ist i. a. viel schwieriger zu beantworten und soll hier auch nicht weiter verfolgt werden. In unserem Beispiel wäre t1 als beliebige ganze und t2 als beliebige ungerade ganze Zahl zu wählen.) Wir kommen nun zum allgemeinen Fall. Hier sind mehrere lineare Gleichungen in Unbestimmten X1 , . . . , Xn vorgelegt und es wird die Menge ihrer gemeinsamen Lösungen gesucht. Man spricht dann von einem linearen Gleichungssystem in n Unbestimmten. Definition 1.4. Vorgelegt sei das lineare Gleichungssystem a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . (1.3) am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m linearen Gleichungen in n Unbestimmten X1 , . . . , Xn (m ≥ 0, n ≥ 1) mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Termen b1 , . . . , bm aus R. Es heißt homogen, wenn b1 = . . . = bm = 0. (a) Die Menge L := {(x1 , . . . , xn ) ∈ Rn | ai1 x1 +. . .+ain xn = bi für alle i = 1, . . . , m} ⊆ Rn heißt Lösungsmenge von 1.3, ihre Elemente heißen Lösungen von 1.3. Wenn L = ∅, so sagen wir, 1.3 sei unlösbar. 1.1. GRUNDLEGENDE DEFINITIONEN 7 (b) Zwei lineare Gleichungssysteme in jeweils n Unbestimmten heißen äquivalent, wenn sie die gleiche Lösungsmenge besitzen. (c) Das System a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = 0 = 0 .. . am1 X1 + am2 X2 + . . . + amn Xn = 0 heißt zu 1.3 gehöriges homogenes System. Es ist stets lösbar, denn (0, . . . , 0) ist eine Lösung. Diese nennt man triviale Lösung (manchmal auch Nullösung). Bemerkungen 1.5. 1. Mit Gleichungen kann man ”rechnen”. Man kann eine Gleichung mit einer reellen Zahl multiplizieren (s. Bemerkung 1.1.1) oder Gleichungen addieren. Z. B. ist die Summe der beiden Gleichungen a1 X1 + . . . + an Xn = b und a01 X1 + . . . + a0n Xn = b0 (a1 , . . . , an , a01 , . . . , a0n , b, b0 ∈ R) die Gleichung (a1 + a01 )X1 + . . . + (an + a0n )Xn = b + b0 . Beides kann man auch kombinieren, d. h. man kann ein Vielfaches einer Gleichung zu einer anderen addieren usw. 2. Aus 1.3 entsteht ein äquivalentes System, wenn man für beliebige i, j ∈ {1, . . . , m} mit i 6= j • ein Vielfaches der i-ten Gleichung zur j-ten Gleichung addiert oder • die i-te Gleichungen mit der j-ten Gleichung vertauscht. Unser Ziel ist es nun, ein vorgelegtes lineares Gleichungssystem in ein ”leicht lösbares” äquivalentes System zu überführen, wobei folgende Umformungen zugelassen werden: (I) Addition eines Vielfachen einer Gleichung zu einer anderen (II) Vertauschen von Gleichungen (III) Vertauschen der Reihenfolge der Unbestimmten. Nach Bemerkung 1.5.2 ist klar, dass durch diese Umformungen das gegebene System in ein äquivalentes überführt wird. Wie diese Umformungen eingesetzt werden, soll an den folgenden Beispielen verdeutlicht werden. Dabei ist klar, daß durch diese Umformungen die Lösungsmenge nicht verändert wird. 8 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Beispiele 1.6. (1) Man bestimme die Lösungsmenge des linearen Gleichungssystems X1 − 3X2 + X3 2X1 + X2 − X3 3X1 − X2 − X3 = 1 = 3 = 3 X1 − 3X2 + X3 7X2 − 3X3 8X2 − 4X3 = 1 = 1 = 0 X1 − 3X2 + 7X2 − X3 3X3 − 47 X3 Ziel der ersten Umformung: Koeffizient von X1 ab der zweiten Gleichung wird Null. Dazu: (−2)(1.Gl.) + (2.Gl.) (−3)(1.Gl.) + (3.Gl.) Ziel der zweiten Umformung: Koeffizient von X2 ab der dritten Gleichung wird Null. Dazu: (− 87 )(2.Gl.) + (3.Gl.) = 1 = 1 = − 87 Dieses System, das - wie gesagt - die gleiche Lösungsmenge wie unser ursprüngliches System besitzt, hat nun aber eine wesentlich einfachere Gestalt (man spricht von einer ”Dreiecksgestalt”) und kann Schritt für Schritt ”von unten nach oben” gelöst werden. Konkret geht man nun wie folgt vor: Aus der letzten Gleichung − 74 X3 = − 87 ergibt sich X3 = 2. Dies setzt man in die ersten beiden Gleichungen ein und erhält das folgende System (welches wiederum Dreiecksgestalt besitzt) X1 − 3X2 7X2 = −1 = 7 Hieraus ergibt sich nun analog wie vorher X2 = 1 und schließlich entsteht nach Einsetzen in die erste Gleichung das System X1 = 2 Die Lösungsmenge ist also L = {(2, 1, 2)} ⊂ R3 . (2) Man bestimme die Lösungsmenge des linearen Gleichungssystems 2X1 3X1 −2X2 + X3 2 X + X3 − 3 2 + 4X2 − X3 = −2 = 1 = 13 2 Ziel der ersten Umformung: Koeffizient von X1 in der ersten Gleichung wird 6= 0. Dazu: Vertauschen von erster und zweiter Gleichung Das nun entstandene System lautet 2X1 − 3X1 2 X 3 2 −2X2 + 4X2 Es entsteht + X3 + X3 − X3 = 1 = −2 = 13 2 Ziel der zweiten Umformung: Koeffiz ient von X1 ab der zweiten Gleichung wird Null. Dazu: (− 32 )(1.Gl.) + (3.Gl) 1.1. GRUNDLEGENDE DEFINITIONEN 2 X 3 2 2X1 − + + − −2X2 5X2 X3 X3 5 X 2 3 = 1 = −2 = 5 9 Ziel der dritten Umformung: Koeffizient von X2 ab der dritten Gleichung wird Null. Dazu: ( 52 )(2.Gl.) + (3.Gl) und wir erhalten (Gleichungen der Gestalt 0 = 0 werden nicht weiter betrachtet) 2X1 − 2 X 3 2 + X3 −2X2 + X3 = 1 = −2 Eine weitere Vereinfachung ist nun nicht mehr möglich, das System hat ”Trapezgestalt”. X3 kann frei gewählt werden: Wir setzen X3 = t1 mit einem frei wählbaren t1 ∈ R (t1 wird Parameter genannt) und erhalten 2 X 3 2 2X1 − = 1 − t1 = −2 − t1 −2X2 Dieses System hat Dreiecksgestalt und wird wie in (1) von unten nach oben gelöst: Aus der zweiten Gleichung ergibt sich X2 = 1 + t21 . Dies wird in die vorhergehenden Gleichungen eingesetzt (also hier in die erste Gleichung) und wir erhalten 2X1 = 5 3 − 2t1 3 Dies liefert schließlich X1 = 5 6 − t1 3 und die Lösungsmenge ist L = {( 56 − t31 , 1 + t21 , t1 ) | t1 ∈ R} = {( 65 , 1, 0) + t1 (− 31 , 12 , 1) | t1 ∈ R} ⊂ R3 (3) Man bestimme die Lösungsmenge des linearen Gleichungssystems −X1 3X1 −2X1 X1 + 2X2 − 6X2 + 4X2 − 2X2 − 2X3 + X3 + X3 − 3X3 + X4 − 2X4 − X4 = 1 = −1 = −4 = 1 Ziel der ersten Umformung: Koeffizient von X1 ab der zweiten Gleichung wird Null. Dazu: 3(1.Gl.) + (2.Gl.) (−2)(1.Gl.) + (3.Gl.) (1.Gl.) + (4.Gl.) und es entsteht das System −X1 + 2X2 − 2X3 −5X3 5X3 −5X3 + X4 + X4 − 3X4 + X4 = 1 = 2 = −6 = 2 Die Koeffizienten von X2 ab der zweiten Gleichung sind alle Null. Ziel der zweiten Umformung: An der Stelle (2, 2) einen von Null verschiedenen Koeffizienten erzeugen. Dazu Vertauschen von X2 und X3 So erhalten wir folgendes System −X1 − 2X3 −5X3 5X3 −5X3 + 2X2 + X4 + X4 − 3X4 + X4 = 1 = 2 = −6 = 2 Ziel der dritten Umformung: Die Koeffizienten von X3 ab der dritten Gleichung werden Null. Dazu (2.Gl.) + (3.Gl.) (−1)(2.Gl.) + (4.Gl.) 10 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Das entstehende System hat die Gestalt −X1 − 2X3 −5X3 + 2X2 + + − X4 X4 2X4 = 1 = 2 = −4 Die Koeffizienten von X2 ab der dritten Gleichung sind alle Null. Ziel der vierten Umformung: An der Stelle (3, 3) einen von Null verschiedenen Koeffizienten erzeugen. Dazu Vertauschen von X2 und X4 Wir erhalten dann −X1 − 2X3 −5X3 + + X4 X4 −2X4 + 2X2 = 1 = 2 = −4 Eine weitere Vereinfachung ist nun nicht mehr möglich, denn das System hat wiederum ”Trapezgestalt”. X2 kann frei gewählt werden: Wir setzen X2 = t1 mit einem Parameter t1 ∈ R und erhalten −X1 − 2X3 −5X3 + + X4 X4 −2X4 = 1 − 2t1 = 2 = −4 Jetzt haben wir Dreiecksgestalt erreicht und können nun die Lösungsmenge analog wie in (1) (oder (2)) bestimmen. Wir erhalten dabei zunächst X4 = 2, sodann entsteht nach Einsetzen von X4 = 2 das System −X1 − 2X3 −5X3 = −1 − 2t1 = 0 aus dem man nun X3 = 0 und schließlich −X1 = −1 − 2t1 , d. h. X1 = 1 + 2t1 erhält. Die Lösungsmenge ist also L = {(1, 0, 0, 2) + t1 (2, 1, 0, 0) | t1 ∈ R} ⊂ R4 . Wir bemerken, daß es zweckmäßiger gewesen wäre, bei der zweiten Umformung X2 gleich mit X3 und mit X4 zu vertauschen, X2 also an die letzte Stelle zu setzen. (4) Man bestimme die Lösungsmenge des linearen Gleichungssystems X1 2X1 2X2 − 3X3 + X4 − 3X2 + 2X4 − 9X3 + 7X4 = −5 = 1 = 0 Die einzelnen Umformung werden wir jetzt nicht mehr gesondert beschreiben, da sie unmittelbar zu erkennen sind. Dabei erhalten wir im einzelnen X1 − 3X2 + 2X4 2X2 − 3X3 + X4 2X1 − 9X3 + 7X4 = 1 = −5 = 0 1.2. GAUßSCHER ALGORITHMUS 11 sodann X1 − 3X2 + 2X4 2X2 − 3X3 + X4 6X2 − 9X3 + 3X4 = 1 = −5 = −2 und schließlich X1 − 3X2 + 2X4 = 1 2X2 − 3X3 + X4 = −5 0 = 13 Nun ist Trapezgestalt erreicht und man erkennt sofort, daß L = ∅, denn die letzte der drei Gleichnungen ist unlösbar (s. Bemerkung 1.1.2. Beobachtungen: 1. In den ersten drei Beispielen besteht die Lösungsmenge L jeweils aus einem ”konstanten Teil” (nämlich (2, 1, 2), ( 56 , 1, 0) bzw. (1, 0, 0, 2)) und einem ”parameterabhängigen Teil” (nämlich 0, t1 (− 31 , 12 , 1) bzw. t1 (2, 1, 0, 0)). Letzterer bildet stets die Lösungsmenge des jeweils zugehörigen homogenen Systems, wie man sofort erkennt. 2. Bei Anwendung der Umformungen vom Typ I, II bzw. III werden nur die Koeffizienten und die Absolutglieder beeinflußt. Es reicht daher, nur diese zu betrachten. Bei Anwendung von Umformungen vom Typ III muß man sich dann jedoch die durchgeführten Vertauschungen merken, um sie abschließend wieder rückgängig machen zu können. 1.2 Gaußscher Algorithmus zur Lösung linearer Gleichungssysteme Vorgelegt sei wiederum das lineare Gleichungssystem (1.3) a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m ≥ 0 linearen Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn mit Koeffizienten aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n und konstanten Gliedern b1 , . . . , bm . In Verallgemeinerung der vorangegangenen Beispiele 1.6 kommt man auf folgendes Verfahren zur Bestimmung eines zu (1.3) äquivalenten linearen Gleichungssystems, das ”einfach” zu lösen ist. Dieses Verfahren heißt Gaußscher Algorithmus und sieht wie folgt aus: 12 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME ρ := 0 Solange es i, j ∈ N gibt mit ρ < i ≤ m, ρ < j ≤ n und aij 6= 0, führe aus: (a) Erreiche durch Anwendung von II und/oder III, daß aρ+1,ρ+1 6= 0 ai,ρ+1 (b) Addiere für i = ρ+2, . . . , m das − aρ+1,ρ+1 -fache der (ρ+1)-ten Gleichung zur i-ten Gleichung (c) Ersetze ρ durch ρ + 1 Bemerkungen 1.7. 1. Die im Gaußschen Algorithmus auftauchende Zahl ρ stellt lediglich einen Steuerparameter (Schrittzähler) dar. Neben anderen Kriterien kann der Algorithmus mit Hilfe von ρ beendet werden (z. B. wenn ρ den Wert m oder n erreicht hat). 2. Wie bei Algorithmen üblich, überschreiben wir die alten Werte von ρ, aij und bi bei Neuberechnung ohne Bezeichnungsänderung. Wir fassen zusammen: Theorem 1.8 (Analyse des Gaußschen Algorithmus). (1) Der Gaußsche Algorithmus bricht nach höchstens min{m, n} Schritten (d. h. Durchläufen der ”Solange”-Schleife) ab. Dabei ist die Anzahl der Schritte gleich dem Wert, den ρ nach Abbruch hat. Diesen Wert bezeichnen wir mit r. r hängt nicht ab von b1 , . . . , bm . (2) Es gilt 0 ≤ r ≤ min{m, n}. r = 0 bedeutet, daß entweder gar keine Gleichung vorliegt (d. h. es gilt m = 0) oder daß alle Koeffizienten von 1.3 gleich Null sind. In letzterem Fall hat 1.3 die Gestalt 0 = b1 0 = b2 .. .. . . 0 = bm und es gilt somit im Fall r = 0 L= Rn ∅ falls b1 = . . . = bm = 0 falls bi = 6 0 für ein i, 1 ≤ i ≤ m (3) Sei r ≥ 1. Da r ≤ min{m, n}, hat (1.3) nach Abbruch des Gaußschen Algo- 1.2. GAUßSCHER ALGORITHMUS 13 rithmus die Gestalt a011 X10 + a012 X20 + . . . + a01r Xr0 + . . . + a01n Xn0 = a022 X20 + . . . + a02r Xr0 + . . . + a02n Xn0 = .. .. .. . . . a0rr Xr0 + . . . + a0rn Xn0 = 0 = .. . b01 b02 .. . b0r b0r+1 .. . (1.4) 0 = b0m mit a011 , . . . , a0rr 6= 0 und wobei (X10 , . . . , Xn0 ) aus (X1 , . . . , Xn ) durch Vertauschen der Reihenfolge hervorgeht. Man nennt sie Trapezgestalt. Wenn r = n (dann ist wegen r ≤ min{m, n} notwendigerweise m ≥ n !), so sagt man, das System habe Dreiecksgestalt. Ist (1.3) homogen, so auch (1.4). (4) Für die Lösungsmenge L0 eines linearen Gleichungssystems vom Typ (1.4) gilt: (a) L0 = ∅ ⇐⇒ es gibt ein i ∈ N mit r < i ≤ m und b0i 6= 0 (nur möglich, wenn r < m). (b) Sei L0 6= ∅, d. h. b0r+1 = . . . = b0m = 0. Dann kann L0 wie folgt ermittelt werden: 0 0 = t1 , . . . , Xn0 = tn−r , . . . , Xn0 beliebig, d. h. setze Xr+1 • Wähle Xr+1 mit beliebigen t1 , . . . , tn−r ∈ R. • Setze diese Werte in das System ein. Dann entsteht mit b00i := b0i − a0i,r+1 t1 − . . . − a0i,n tn−r , i = 1, . . . , r , das Gleichungssystem a011 X10 + a012 X20 + . . . + a01r Xr0 = b001 a022 X20 + . . . + a02r Xr0 = b002 .. .. .. . . . 0 0 arr Xr = b00r Es hat Diagonalgestalt und kann ”von unten nach oben” iterativ wie folgt gelöst werden (s. Beispiel 1.6(1)): • Bestimme Xr0 aus der r-ten Gleichung (möglich, da a0rr 6= 0). Falls 00 r > 1, setze diesen Wert x0r := ab0r in die ersten r − 1 Gleichungen rr für Xr0 ein und bringe für i = 1, . . . r − 1 den Wert a0i,r x0r auf die rechte Seite der i-ten Gleichung. Es entsteht ein Gleichungssystem in Diagonalgestalt bestehend aus r − 1 Gleichungen. 14 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME 0 , . . . , X10 . Dabei ist klar, daß die • So fortfahrend ermittle man Xr−1 entsprechenden Werte x0r , x0r−1 , . . . , x01 von t1 , . . . , tn−r abhängen.Nun gilt L0 = {(x01 , . . . , x0r , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R} . (5) Mit den Bezeichnungen aus (4) sei wieder L0 6= ∅. L0 hat folgende Struktur: Für i = 1, . . . , r gibt es αi,1 , . . . , αi,n−r , γi ∈ R, so daß x0i = γi + n−r X αi,j tj , j=1 wobei die αi,1 , . . . , αi,n−r nur von ap,q , 1 ≤ p ≤ m, 1 ≤ q ≤ n, abhängen und γ1 = . . . = γr = 0 gilt, falls (1.3) homogen ist (d. h. falls b1 = . . . = bm = 0). Setzen wir für i = 1, . . . , r und j = 1, . . . , n − r si := n−r X αi,j tj , j=1 a0j := (α1,j , . . . , αr,j , 0, . . . , 0, c0 := (γ1 , . . . , γr , 0, . . . , 0), (r+j)−te Stelle 1 , 0, . . . , 0) sowie so gilt L0 = {(γ1 + s1 , . . . , γr + sr , t1 , . . . , tn−r ) | t1 , . . . , tn−r ∈ R} = {c0 + t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R} Diese Darstellungen, insbesondere die letzte, heißen Parameterdarstellungen von L0 mit Parametern t1 , . . . , tn−r . Dabei gilt • c0 ∈ L0 • L00 := {t1 a01 + . . . + tn−r a0n−r | t1 , . . . , tn−r ∈ R} ist Lösungsmenge des zu (1.4) gehörenden homogenen Systems. (6) L kann aus L0 gewonnen werden, indem die Komponenten der Elemente von L0 entsprechend den im Verlauf des Gaußschen Algorithmus ggf. vorgenommenen Unbestimmtenvertauschungen rückgetauscht werden. Entstehen auf diese Weise aus den n-Tupeln a01 , . . . , a0n−r , c0 die n-Tupel a1 , . . . , an−r , c, so gilt L = {c + t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} und L0 = {t1 a1 + . . . + tn−r an−r | t1 , . . . , tn−r ∈ R} , wenn L0 die Lösungsmenge des zu (1.3) gehörenden homogenen Systems ist. 1.2. GAUßSCHER ALGORITHMUS 15 Ziel des Gaußschen Algorithmus ist also, ein vorgelegtes lineares Gleichungssystem (1.3) mit Hilfe der Umformungsregeln I - III auf Trapezgestalt (1.4) zu bringen. Es ist dann gesichert, daß bis auf die durch Umformungen vom Typ III bewirkten Vertauschungen der Unbestimmten, also bis auf eine entsprechende Vertauschung der Reihenfolge der Eintragungen in den geordneten n-Tupeln, die Lösungsmengen von (1.3) und von (1.4) übereinstimmen. Insbesondere stellt sich heraus, daß eine enge Beziehung zwischen der Lösungsmenge eines linearen Gleichungssystems und der Lösungsmenge des zugehörigen homogenen Systems besteht. Dies kann man ganz allgemein wie folgt formulieren: Lemma 1.9. Sei L 6= ∅ Lösungsmenge eines linearen Gleichungssystems in n ≥ 1 Unbestimmten. Dann gilt für c ∈ L: L = {c + a | a ∈ L0 }, wenn L0 die Lösungsmenge des zugehörigen homogenen Systems ist. Beweis. Wir nehmen an, das System habe die Gestalt (1.3). Sei c =: (γ1 , . . . , γn ) mit γ1 , . . . , γn ∈ R. Für a ∈ L0 , a =: (α1 , . . . , αn ) mit α1 , . . . , αn ∈ R gilt c+a = (γ1 +α1 , . . . , γn +αn ) und wir erhalten für i = 1, . . . , m: n X aij (γj + αj ) = j=1 n X aij γj + j=1 n X aij αj = bi + 0 = bi , j=1 d. h. c + a ∈ L. Somit folgt {c + a | a ∈ L0 } ⊆ L. Sei umgekehrt d ∈ L, d =: (δ1 , . . . , δn ) mit δ1 , . . . , δn ∈ R. Mit a0 := d − c gilt a0 = (δ1 − γ1 , . . . , δn − γn ) und wir erhalten für i = 1, . . . , m: n X aij (δj − γj ) = j=1 n X aij δj − j=1 n X aij γj = bi − bi = 0, j=1 d. h. a0 = d − c ∈ L0 . Somit folgt d = c + a0 ∈ {c + a | a ∈ L0 }, also L ⊆ {c + a | a ∈ L0 }, Bemerkung 1.10. Häufig verwendet man die Schreibweise c + L0 := {c + a | a ∈ L0 }. Damit lautet das Resultat von Lemma 1.9 L = c + L0 . Dies formuliert man dann oft wie folgt: ”Allgemeine Lösung eines linearen Gleichungssystems = spezielle Lösung dieses Systems + allgemeine Lösung des zugehörigen homogenen Systems”. 16 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Probleme: (A) Ist die vom Gaußschen Algorithmus produzierte Zahl r (s. Theorem 1.8(1)) und damit die Anzahl der frei wählbaren Parameter in der Lösungsmenge L (falls diese nicht leer ist, s. Theorem 1.8(4b)) eindeutig durch das lineare Gleichungssystem (1.3) bestimmt oder kann sie von der Auswahl der Algorithmusschritte abhängen? (B) Welche geometrische Struktur hat L, d. h. welche Teilmengen des Rn sind Lösungsmengen von linearen Gleichungssystemen in n Unbestimmten? Bemerkungen 1.11. 1. Wenn L 6= ∅, so ist L bereits eindeutig festgelegt durch die Angabe von n − r + 1 Elementen des Rn . Mit den Bezeichnungen aus Theorem 1.8(6) sind dies c, a1 , . . . , an−r . 2. Zur Ermittlung von L ist es völlig ausreichend, wenn die Koeffizienten und konstanten Terme von 1.3 aus einem Zahlbereich stammen, in welchem die folgenden Operationen uneingeschränkt ausführbar sind • Addition und Subtraktion • Multiplikation • Division außer durch 0 und die ”üblichen” Regeln hierfür gelten. Ist K ein solcher Zahlbereich (etwa K = Q, K = R oder auch K = C, jedoch nicht K = Z), so liegen auch alle Koeffizienten von (1.4) in K. Damit liegt L0 und folglich L in K n , vorausgesetzt, die Parameter t1 , . . . , tn−r werden aus K gewählt. Auf jeden Fall liegen die in 1. erwähnten Tupel c, a1 , . . . , an−r in K n . Derartige Strukturen werden wir im nächsten Kapitel definieren und erste Eigenschaften hiervon untersuchen. 3. Ändert man Punkt (b) im Gaußschen Algorithmus wie folgt ab (b)1 Multipliziere die (ρ + 1)-te Gleichung mit a−1 ρ+1,ρ+1 (b)2 Addiere für i = 1, . . . , m, i 6= ρ + 1, das (−ai,ρ+1 )-fache der (ρ + 1)-ten Gleichung zur i-ten Gleichung, indem man noch die Umformungsregel (II)’ Multiplikation einer Gleichung mit einer von 0 verschiedenen Zahl hinzufügt, die die Lösungsmenge auch nicht verändert, so kann man erreichen, daß das Gleichungssystem nach Abbruch dieser Version des Gauß- 1.2. GAUßSCHER ALGORITHMUS 17 schen Algorithmus folgende Gestalt hat X10 X20 ... Xr0 0 +a01,r+1 Xr+1 + . . . + a01n Xn0 0 0 +a2,r+1 Xr+1 + . . . + a02n Xn0 .. .. . . 0 0 0 0 +ar,r+1 Xr+1 + . . . + arn Xn 0 .. . = b01 = b02 .. . = b0r = b0r+1 .. . 0 = b0m Der Vorteil ist, daß L0 und damit L hieraus unmittelbar abgelesen werden können. Diese Version des Gaußschen Algorithmus wird als modifizierter Gaußscher Algorithmus bezeichnet. 18 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME Kapitel 2 Matrizen Im Mittelpunkt dieses Kapitel stehen Matrizen, wobei wir insbesondere strukturelle Eigenschaften untersuchen wollen. Daher wenden wir uns zunächst den grundlegenden algebraischen Strukturen zu. Als erste Anwendung werden wir erkennen, dass die Verwendung von Matrizen wesentliche begriffliche Vereinfachungen beim Studium linearer Gleichungssysteme mit sich bringt. Darüber hinaus werden wir damit in Kapitel 3 Gestalt und Eigenschaften von Lösungsmengen linearer Gleichungssysteme vollständig aufklären können, so daß dieser Problemkreis dann erschöpfend abgehandelt sein wird. 2.1 Gruppen, Ringe, Körper - die algebraischen Grundlagen Bisher sind uns schon verschiedentlich Mengen begegnet, auf denen ”Operationen” mit ganz speziellen Eigenschaften erklärt waren. Beispiele 2.1. 1. R mit der Addition, Schreibweise (R; +). Es gelten dabei (u. a.) folgende Regeln: (a) (a + b) + c = a + (b + c) (b) a + 0 = 0 + a = a für alle a, b, c ∈ R für alle a ∈ R (c) a + (−a) = (−a) + a = 0 für alle a ∈ R (d) a + b = b + a für alle a, b ∈ R Ersetzt man + durch ·, 0 durch 1 und −x für x ∈ R jeweils durch x1 = x−1 , so kann man entsprechend (R \ {0}; ·) betrachten. Auch hierfür gelten die 19 20 KAPITEL 2. MATRIZEN (a) - (d) entsprechenden Regeln. Außerdem haben wir für alle a, b, c ∈ R (e) (a + b) · c = a · c + b · c und c · (a + b) = c · a + c · b. 2. Sei X eine Menge. Auf der Potenzmenge P (X) von X (s. Abschnitt A.2) betrachten wir die durch A ∗ B := (A ∪ B) \ (A ∩ B) für all A, B ∈ P (X) definierte Operation ∗ (die sogenannte symmetrische Differenz, s. Übungsaufgabe 8) sowie die Operation ∩ (Durchschnitt). Setzt man hierbei 0 := ∅ und −A := A für A ∈ P (X), so gelten (a) - (d) aus 1. entsprechend für ∗, s. Übungsaufgabe 8. Für ∩ gelten (a), (b) und (d) aus 1., wenn man 0 := X setzt. Außerdem gilt Regel (e) aus 1., wenn man + durch ∗ und · durch ∩ ersetzt, wie man schnell bestätigt. 3. Sei X eine Menge. Wir betrachten die Menge Abb (X, X) aller Abbildungen von X nach X mit der Hintereinanderschaltung ◦ von Abbildungen als Operation, kurz (Abb (X, X), ◦), s. Abschnitt A.5. (Statt g ◦ f werden wir oft kurz gf schreiben.) Es gilt: (a) (hg)f = h(gf ) für alle f, g, h ∈ Abb (X, X) (b) f idX = idX f = f für alle f ∈ Abb (X, X). Sei S(X) := {f | f ∈ Abb (X, X), f bijektiv}. Dann gilt idX ∈ S(X) und zusätzlich zu (a) und (b) haben wir (c) Für alle f ∈ S(X) gibt es ein f 0 ∈ S(X) mit f f 0 = f 0 f = idX . Bemerkung: S(X) heißt symmetrische Gruppe von X. 4. Sind auf einer Menge X mehrere Operationen ∗, ◦, ... gegeben, so schreibt man in naheliegender Weise (X; ∗, ◦, ...). Dies können wir wie folgt verallgemeinern: Definition 2.2. Sei X eine Menge, X 6= ∅, und n ∈ N. Eine n-stellige Operation auf X ist eine Abbildung X n → X, wobei nullstellige Operationen verstanden werden als Auswahl eines Elementes aus X. Bemerkungen 2.3. 1. Einstellige Operationen auf X sind genau die Abbildungen von X nach X. Z. B. ist durch n 7→ −n, n ∈ Z, eine einstellige Operation auf Z gegeben. Eine zweistellige Operation auf X ist eine Abbildung X × X → X. 2. Ist • eine zweistellige Operation auf einer Menge X 6= ∅, so schreibt man statt •(x1 , x2 ) mit x1 , x2 ∈ X, in der Regel x1 • x2 und nennt • das Operationszeichen. Häufig verwendete Operationszeichen sind +, ·, ◦, •. 2.1. GRUPPEN, RINGE, KÖRPER 21 Definition 2.4 (Halbgruppen, Monoide). (a) Eine Halbgruppe ist eine nicht leere Menge H zusammen mit einer zweistelligen Operation • auf H, so daß (a • b) • c = a • (b • c) für alle a, b, c ∈ H (Assoziativgesetz) Hierfür schreibt man (H; •). (b) Eine Halbgruppe (H; •) heißt kommutativ, wenn a • b = b • a für alle a, b ∈ H (Kommutativgesetz) (c) Ein Element e einer Halbgruppe (H; •) heißt - linksneutrales (rechtsneutrales) Element von (H; •), wenn e • a = a (a • e = a) für alle a ∈ H. - neutrales Element von (H; •), wenn e links- und rechtsneutral ist. (d) Ein Monoid ist eine Halbgruppe (M ; •), welche ein neutrales Element besitzt. Lemma 2.5. (1) Besitzt eine Halbgruppe ein linksneutrales Element e0 und ein rechtsneutrales Element e00 , so gilt e0 = e00 , d. h. eine Halbgruppe besitzt höchstens ein neutrales Element. (2) Ein Monoid besitzt genau ein neutrales Element. Beweis. Es gilt e0 = e0 •e00 = e00 , wenn • die Operation der Halbgruppe bezeichnet, Definition 2.6 (invertierbare Elemente). Sei (M ; •) ein Monoid mit neutralem Element e und sei m ∈ M . (a) Ein Element m0 ∈ M heißt Linksinverses (Rechtsinverses) von m, wenn m0 • m = e (m • m0 = e). m0 heißt Inverses von m, wenn m0 Links- und Rechtsinverses von m ist. (b) m heißt invertierbar, wenn m ein Inverses in M besitzt. (c) Die Menge der invertierbaren Elemente von (M ; •) wird mit (M ; •)∗ oder kurz mit M ∗ bezeichnet. Lemma 2.7. Sei (M ; •) ein Monoid mit neutralem Element e. (1) Besitzt ein Element m ∈ M ein Linksinverses m0 und ein Rechtsinverses m00 , so gilt m0 = m00 , d. h. m ist invertierbar. 22 KAPITEL 2. MATRIZEN (2) Jedes invertierbare Element m von M besitzt genau ein Inverses. Dieses wird häufig mit m−1 bezeichnet. (3) e ∈ M ∗ und es gilt e−1 = e. (4) Wenn m, n ∈ M ∗ , so folgt m • n ∈ M ∗ und es gilt (m • n)−1 = n−1 • m−1 . (5) Wenn m ∈ M ∗ , so folgt m−1 ∈ M ∗ und es gilt (m−1 )−1 = m. Beweis. (1) Sei m ∈ M und seien m0 ∈ M Linksinverses von m und m00 ∈ M Rechtsinverses von m. Dann gilt m0 = m0 • e = m0 • (m • m00 ) = (m0 • m) • m00 = e • m00 = m00 . (2) folgt aus (1). (3) ist klar, da e • e = e. (4) Sei p := n−1 • m−1 . Dann gilt (m • n) • p = m • (n • n−1 ) • m−1 = m • e • m−1 = m • m−1 = e und p • (m • n) = n−1 • (m−1 • m) • m = n−1 • e • n = n−1 • n = e, d. h. m • n ∈ M ∗ und (m • n)−1 = p = n−1 • m−1 . (5) ist ebenfalls klar, da m−1 • m = m • m−1 = e, Definition 2.8 (Gruppen). (a) Eine Gruppe ist ein Monoid, in welchem jedes Element invertierbar ist. (b) Kommutative Gruppen werden zu Ehren des norwegischen Mathematikers Niels Henrik Abel (1802 - 1829) als abelsche Gruppen bezeichnet. In abelschen Gruppen wird oft das Operationszeichen + verwendet und das Inverse eines Elementes x mit −x bezeichnet (statt mit x−1 ). Das neutrale Element einer abelschen Gruppe G bezeichnet man dann mit 0G oder nur mit 0. Bemerkungen, Beispiele 2.9. Nachfolgend einige Beispiele für 1. Halbgruppen: • (N+ ; +) • ({x ∈ R | 0 < x < 1}; ·). 2. Monoide: • (N; ), wenn definiert ist durch a b := ab + a + b für alle a, b ∈ N, s. auch Übungsaufgabe 21. • (P (X); ∩), X Menge, s. Beispiel 2.1.2. 2.1. GRUPPEN, RINGE, KÖRPER 23 • (Abb (X, X); ◦), X Menge. 3. Gruppen: • (Z; +) • (P (X); ∗), X Menge, s. Beispiel 2.1.2. • (S(X); ◦), X Menge, wobei offenbar S(X) = Abb (X, X)∗ • (L; +), wenn L ⊆ Rn Lösungsmenge eines linearen homogenen Gleichungssystems in n Unbestimmten ist, s. Übungsaufgabe 10. • (M ; •)∗ für ein Monoid (M ; •) mit der Einschränkung von • auf (M ; •)∗ (s. Lemma 2.7(4), (5)). (Nach Definition 2.13 unten bildet (M ; •)∗ damit eine Untergruppe des Monoids (M ; •) und wird daher in der Form (M ∗ ; •) oder nur M ∗ aufgeschrieben, s. auch Bemerkung 2.14.1.) 4. In einer kommutativen Halbgruppe sind die Eigenschaften, ”linksneutral”, ”rechtsneutral” und ”neutral”, äquivalent. Entsprechend sind in einem kommutativen Monoid die Eigenschaften ”linksinvers”, ”rechtsinvers” und ”invers” äquivalent. Definition 2.10 (Ringe, Schiefkörper, Körper). (a) Ein Ring ist eine Menge R mit zwei zweistelligen Operationen + (Addition) und · (Multiplikation), so daß • (R; +) abelsche Gruppe, • (R; ·) Halbgruppe ist und für alle r, s, t ∈ R gilt • (r + s) · t = r · t + s · t r · (s + t) = r · s + r · t (Distributivgesetze) Das neutrale Element von (R; +) heißt Nullelement (von R) und wird mit 0R oder nur mit 0 bezeichnet. Für r ∈ R bezeichnet man mit −r ∈ R das bezüglich 00 +00 Inverse von r. (b) Ein Ring (R; +, ·), bei welchem (R; ·) ein Monoid ist, heißt Ring mit Einselement. In diesem Fall nennt man das neutrale Element von (R; ·) Einselement (von R) und bezeichnet es mit 1R oder nur mit 1. Ist r ∈ R invertierbar bezüglich ·, so bezeichnet man das bezüglich · Inverse von r mit r−1 oder auch mit 1r . (c) Ein Ring (R; +, ·) heißt kommutativ, wenn (R; ·) kommutativ ist. (d) Ein Schiefkörper (Körper) ist ein Ring (K; +, ·), bei welchem (K; ·)∗ = K \ {0K } nach Lemma 2.7(4), (5) ist dies eine (abelsche) Gruppe . 24 KAPITEL 2. MATRIZEN Bemerkungen 2.11. a, b ∈ G: 1. Ist (G; +) eine abelsche Gruppe, so setzt man für a − b := a + (−b), wenn −b das Inverse von b in G bezeichnet. Wir bemerken, daß für alle a, b, c ∈ G gilt: a − (b − c) = (a − b) + c. Ist (R; +, ·) ein Ring so gilt für alle r, s, t ∈ R außerdem: r · (s − t) = r · s − r · t, (r − s) · t = r · t − s · t 2. Sei (R; +, ·) ein Ring. Dann gilt für r ∈ R wegen r − r = 0R : r · 0R = r · (r − r) = r · r − r · r = 0R und entsprechend 0R · r = 0R . 3. Ist (R; +, ·) Ring mit Einselement, so bezeichnet man in Anlehnung an Definition 2.6(c) mit R∗ die Menge der bezüglich · invertierbaren Elemente von R. Die Elemente von R∗ heißen Einheiten von R. Offensichtlich ist 1R Einheit von R, d. h. R∗ 6= ∅. Nach Bemerkung 2.9.3. bildet (R∗ ; ·) eine Gruppe. 4. Häufig ergeben sich Operationen auf einer Menge aus dem Kontext. Dann werden wir sagen ”sei G eine Gruppe” oder ”sei R ein Ring” und verzichten auf die explizite Angabe der Operationszeichen. 5. Lineare Gleichungssysteme können natürlich auch untersucht werden, wenn ihre Koeffizienten aus einem beliebigen Ring stammen. Die Definitionen und Ergebnisse aus Kapitel 1 bleiben aber auf jeden Fall alle gültig, wenn wir voraussetzen, daß die Koeffizienten aus einem beliebigen Körper K stammen. Dann sind die Lösungsmengen Teilmengen von K n , wenn n die Anzahl der Unbestimmmten ist und die evtl. auftretenden Parameter aus K gewählt werden. (In Kapitel 1 hatten wir vorausgesetzt, daß K = R.) Beispiele 2.12. 1. Aus der Schule sind neben den Körpern Q und R der Ring Z der ganzen Zahlen und der Ring R[X] der Polynome in einer Unbestimmten X mit reellen Koeffizienten bekannt. All diese Ringe sind kommutativ. 2. Sei X eine Menge. Dann ist (P (X); ∗, ∩) ein kommutativer Ring mit Einselement, s. Beispiel 2.1.2 und Übungsaufgabe 8. 3. Sei (R, +) eine abelsche Gruppe mit neutralem Element 0. Durch r · s := 0 für alle r, s ∈ R 2.1. GRUPPEN, RINGE, KÖRPER 25 wird (R, +, ·) zu einem kommutativen Ring. Man sagt, die Multiplikation in R sei trivial. Damit ist die triviale abelsche Gruppe {0} auch ein Ring (kommutativ und sogar mit Einselement). Er wird Nullring genannt. 4. Sei R ein Ring mit Einselement. Wenn 1R = 0R , so folgt für beliebiges r ∈ R: r = r · 1R = r · 0R = 0R , d. h. R ist der Nullring. Daher werden wir in der Regel voraussetzten, daß 1R 6= 0R . Wir bemerken, daß dies bei Schiefkörpern und damit bei Körpern definitionsgemäß der Fall ist. Definition 2.13 (Unterstrukturen). Sei A eine Halbgruppe (ein Monoid, eine Gruppe, ein Ring, ein Schiefkörper, ein Körper). Eine Teilmenge B von A heißt Unterhalbgruppe (Untermonoid, Untergruppe, Unterring, Teilschiefkörper, Teilkörper) von A, wenn B mit den in A vorliegenden Operationen selbst eine Halbgruppe (ein Monoid, eine Gruppe, ein Ring, ein Schiefkörper, ein Körper) ist. Bemerkungen 2.14. Sei (A; •) eine Halbgruppe und B ⊆ A. 1. Damit B Unterstruktur von (A; •) ist, muß auf jeden Fall gelten B 6= ∅ und b1 • b2 ∈ B für alle b1 , b2 ∈ B. Man sagt in diesem Fall auch, B sei abgeschlossen bezüglich •. Damit liefert aber die Einschränkung •0 von • auf B × B ⊆ A × A sogar eine Abbildung B × B → B, also eine zweistellige Operation auf B. Der Einfachheit halber bezeichnet man sie meist wieder mit •. 2. Ist B nicht leer und abgeschlossen bezüglich •, so gilt das Assoziativgesetz automatisch in B, d. h. (B, •) ist dann auf jeden Fall Unterhalbgruppe von A. Gleiches gilt für das Kommutativgesetz und die Distributivgesetze, vorausgesetzt, sie gelten in A. Man sagt, diese Eigenschaften vererben sich auf B. 3. Besitzt A ein neutrales Element e bezüglich •, so besagt Definition 2.13, daß e auch neutrales Element von B sein muß, wenn B Untermonoid von A ist. Dazu reicht es zu fordern, daß e ∈ B. Wir bemerken, daß dies sich nicht aus den anderen Axiomen ergibt, wie folgendes Beispiel zeigt: Sei A = {a, b} mit a 6= b. • sei wie folgt erklärt: a • a = a, a • b = b • a = b, b • b = b. 26 KAPITEL 2. MATRIZEN Man bestätigt sofort, daß (A; •) ein kommutatives Monoid mit neutralem Element a ist. B := {b} ⊂ A ist abgeschlossen bezüglich • und (B; •) ist selbst Monoid (sogar eine Gruppe), jedoch mit neutralem Element b. (Damit ist (B; •) kein Untermonoid von (A; •), sondern lediglich Unterhalbgruppe). 4. Ist (A; •) eine Gruppe, so muß die Existenz von Inversen für B gefordert werden, wenn B Untergruppe von A sein soll. Auch hier reicht es zu fordern, daß für b ∈ B das in A vorhandene Inverse b0 von b bereits in B liegt. 5. Man kann in Verallgemeinerung von Definition 2.13 auch Untergruppen von Monoiden oder Teilkörper von Ringen mit Einselement usw. betrachten. Hingegen sind Begriffsbildungen wie ”Untermonoid einer Halbgruppe” o. ä. eher unüblich. Beispielsweise ist für ein Monoid M die Menge M ∗ der invertierbaren Elemente von M Untergruppe von M , s. Bemerkung 2.9.4. Lemma 2.15 (Untergruppenkriterium). Sei G eine Gruppe und H ⊆ G. H ist Untergruppe von G genau dann, wenn H 6= ∅ und wenn für alle g, h ∈ H gilt gh0 ∈ H, wenn h0 das Inverse von h in G bezeichnet. Beweis. Ist H Untergruppe von G, so gilt definitionsgemäß H 6= ∅. Sind g, h ∈ H, so folgt g, h0 ∈ H und somit gh0 ∈ H. Umgekehrt gelte H 6= ∅ und gh0 ∈ H für alle g, h ∈ H. Weiter sei e das neutrale Element von G. Wähle x ∈ H. Dann folgt e = xx0 ∈ H. Ist h ∈ H, so erhalten wir damit h0 = eh0 ∈ H. Seien nun g, h ∈ H. Dann haben wir g, h0 ∈ H und somit gh = g(h0 )0 ∈ H, d. h. H ist abgeschlossen und damit Gruppe, Folgerung 2.16 (Unterringkriterium). (1) Sei R ein Ring und sei S ⊆ R. S ist Unterring von R genau dann, wenn S 6= ∅ und wenn r − s, rs ∈ S für alle r, s ∈ S. Betrachtet man Ringe mit Einselement, so ist zusätzlich zu fordern, daß 1R ∈ S (womit dann die Bedingung S 6= ∅ automatisch erfüllt wäre). (2) Sei K ein Schiefkörper und sei L ⊆ K. L ist Teilschiefkörper von K genau dann, wenn ]L ≥ 2 und wenn für alle x, y ∈ L mit y 6= 0K gilt x − y, xy −1 ∈ L. √ Beispiel 2.17. Sei L := {a + b 2 | a, b ∈ Q} ⊆ R. √ √ Seien x, y ∈ L, y 6= 0. Wir schreiben x = a + b 2, y = c + d 2 mit a, b, c, d ∈ Q √ und erhalten mit ȳ := c − d 2 (6= 0): √ x − y = (a − c) + (b − d) 2 ∈ L sowie ac − 2bd −ad + bc √ xy −1 = xȳ(y ȳ)−1 = 2 + 2 2∈L c − 2d2 c − 2d2 2.2. MATRIZEN 27 (man beachte, daß c2 − 2d2 = y ȳ 6= 0). √ Damit ist L ein Teilkörper von R, Bezeichnung L = Q[ 2]. 2.2 2.2.1 Matrizen Grundlegende Definitionen Sei X eine nicht leere Menge. Wir erinnern daran, dass für n ∈ N+ mit X n die Menge der geordneten n-Tupel mit Einträgen aus X bezeichnet wird, s. Abschnitt A.2. Ein solches Tupel wird in der Form (x1 , . . . , xn ) aufgeschrieben. Natürlich x1 .. n könnte man die Elemente von X auch in der Form . , also als Spaltenxn tupel Wir verwenden hierfür jedoch die (platzsparendere) Schreibwei notieren. x1 .. se . =: (x1 , . . . , xn )T und nennen dieses Spaltentupel Transpositum von xn (x1 , . . . , xn ). Sei nun m ∈ N+ und seien (x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) ∈ X n . Dann haben wir (x11 , . . . , x1n ) T .. (x11 , . . . , x1n ), . . . , (xm1 , . . . , xmn ) = . . (xm1 , . . . , xmn ) Vereinfachend schreibt man hierfür x11 . . . x1n .. . A := ... . xm1 . . . xmn (2.1) Definition 2.18. Ein Schema der Gestalt 2.1 nennt man (m, n)-Matrix oder Matrix vom Format (oder auch vom Typ) (m, n) mit Einträgen aus X. (a) Für i ∈ {1, . . . , m} und j ∈ {1, . . . , n} heißt xij Eintrag von A an der Stelle (i, j). x1,j (b) Die (xi1 , . . . , xin ), i = 1, . . . , m, heißen Zeilen von A und die ... = xm,j 28 KAPITEL 2. MATRIZEN (x1,j , . . . , xm,j )T , j = 1, . . . , n, heißen Spalten von A. Dementsprechend nennt man m auch die Zeilen(an)zahl und n die Spalten(an)zahl von A. x11 . . . xm1 .. heißt Transpositum oder Transponier(c) Die (n, m)-Matrix ... . x1n . . . xnm te von A und wird mit AT bezeichnet. (d) Die Menge der (m, n)-Matrizen mit Einträgen aus X wird mit X m,n bezeichnet. Falls m = n, so spricht man von quadratischen Matrizen. Eine (1, 1)Matrix (x) wird mit x identifiziert, so daß X 1,1 = X. Bemerkungen 2.19. 1. Für m = 1 entstehen dann wieder Zeilen-n-Tupel und für n = 1 Spalten-m-Tupel. Damit setzt man X 1,n = X n . 2. Ist A ∈ X m,n mit Einträgen xij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, so schreibt man mitunter A = ((xi,j ))1≤i≤m 1≤j≤n 3. Die Stellen (1, 1), . . . , (n, n) einer quadratischen (n, n)-Matrix nennt man Hauptdiagonale dieser Matrix. Entsprechend nennt man die Stellen (1, n), (2, n − 1), . . . , (n, 1) Nebendiagonale dieser Matrix. 4. Sei m = m1 + m2 und n = n1 + n2 mit m1 , m2 , n1 , n2 ∈ N+ . Weiter seien B11 ∈ X m1 ,n1 , B12 ∈ X m1 ,n2 , B21 ∈ X m2 ,n1 und B22 ∈ X m2 ,n2 . Durch Zusammenfügen entsteht die (m, n)-Matrix B11 B12 ∈ X m,n , A := B21 B22 wobei die inneren Klammern weggelassen werden. Eine solche Matrix nennt man Blockmatrix. 5. Das Transpositum AT einer Matrix A entsteht aus A durch Vertauschen von Zeilen und Spalten. Offenbar gilt (AT )T = A. 2.2.2 Matrizenringe In diesem Abschnitt bezeichne R durchweg einen Ring. Definition 2.20. Seienm, n, p, q ∈ N+ und A ∈Rm,n , B ∈ Rp,q . Wir schreiben a11 . . . a1n b11 . . . b1q .. . .. . .. , B =: ... A =: . . am1 . . . amn bp1 . . . bpq 2.2. MATRIZEN 29 (1) Wenn p = m und q = n, so ist die Summe definiert durch a11 + b11 . . . a1n + b1n .. .. A + B := . . am1 + bm1 . . . amn + bmn A + B ∈ Rm,n von A und B . Achtung: A + B kann nur gebildet werden, wenn A und B gleiches Format haben. (2) Sei r ∈ R. Die Matrizen rA, Ar ∈ Rm,n sind definiert durch ra11 . . . ra1n a11 r . . . a1n r .. , Ar := .. .. . rA := ... . . . ram1 . . . ramn am1 r . . . amn r (3) Wenn p = n, so ist das Produkt A · B ∈ Rm,p von A und B definiert durch c11 . . . c1q .. , A · B := ... . cm1 . . . cmq wobei cij := ai1 b1j + . . . + ain bnj = Pn l=1 ail blj , i = 1, . . . , m, j = 1, . . . , p. Achtung: A · B (oder kurz AB) kann nur gebildet werden, wenn n (=Spaltenzahl von A) = p (= Zeilenzahl von B). Diese Bedingung nennt man Verkettungsbedingung und sagt, A und B seien verkettet. Bemerkungen, Beispiele 2.21. 1. Wenn mit obigen Bezeichnungen gilt m = 1, n = p und q = 1, d. h. A = (a1 , . . . , an ), B = (b1 , . . . , bn )T , so haben wir A · B = a1 b1 + . . . + an bn . Wir bemerken, daß hierfür A · B = B T · AT gilt, wenn R kommutativ ist. 2. Sind nun wiederum mit obigen Bezeichnungen m, q beliebig, aber n = p, und sind a1 , . . . , am die Zeilen von A, bT1 , . . . , bTq die Spalten von B, so gilt damit A · B = ((ai · bTj ))1≤i≤m . 1≤j≤n Ist R kommutativ, so ergibt sich hieraus und aus 1. sofort, daß (A · B)T = B T · AT . 30 KAPITEL 2. MATRIZEN 3. Diejenige (m, n)-Matrix, deren Einträge sämtlich gleich 0R sind, nennt man (m, n)-Nullmatrix. Sie wird mit 0m,n oder, wenn Verwechslungen ausgeschlossen sind, kurz nur mit 0 bezeichnet. Offensichtlich gilt 0m,n · B = 0m,q und C · 0m,n = 0p,n für alle B ∈ Rn,q und alle C ∈ Rp,m . Mitunter ist es nützlich, hier den Fall m = 0 oder n = 0 zuzulassen: Dann versteht man unter 0m,n jeweils die leere Matrix. 4. Seien m, n, p, q beliebig und A ∈ Rm,n , B ∈ Rp,q . A · B und B · A können genau dann gebildet werden, wenn die Verkettungsbedingungen n = p und q = m erfüllt sind, d. h. wenn B eine (n, m)-Matrix ist. Dann ist A · B eine (m, m)- und B · A eine (n, n)-Matrix. Wenn also m 6= n, so gilt auf jeden Fall A · B 6= B · A. Die Frage, ob A · B = B · A gilt, ist also nur dann sinnvoll, wenn A und B quadratische Matrizen gleichen Formats sind. 5. Sei n ∈ N+ und A, B ∈ Rn,n . Ist die Multiplikation in R nicht trivial, so gilt für n ≥ 2 i. a. nicht A· B = B · A.Seien hierzu r, s ∈ R mit rs 6= 0R . 01,m s 0m,1 0m,m , B := erhalten wir Mit m := n − 1 und A := r 01,m 0m,m 0m,1 nämlich 0m,m 0m,1 sr 01,m A·B = und B · A = , 01,m rs 0m,1 0m,m also A · B 6= B · A. 6. Sei n ∈ N+ . Matrizen der Gestalt r1 0R . . . 0R 0R r2 . . . 0R n,n Diagn (r1 , . . . , rn ) := .. .. . . .. ∈ R . . . . 0R 0R . . . rn mit r1 , r2 , . . . , rn ∈ R heißen (n, n)-Diagonalmatrizen. Besitzt R ein Einselement, so heißt En := Diagn (1R , . . . , 1R ) (n, n)-Einheitsmatrix (manchmal auch nur Einheitsmatrix). Offenbar gilt Em · A = A = A · En für alle A ∈ Rm,n . Für m, n ∈ N+ , k ∈ N mit k ≤ min{m, n} und r1 , . . . , rk ∈ R sei Diagk (r1 , . . . , rk ) 0k,n−k Diagm,n;k (r1 , . . . , rk ) := ∈ Rm,n . 0m−k,k 0m−k,n−k Solche Matrizen nennt man verallgemeinerte Diagonalmatrizen. 2.2. MATRIZEN 31 Besitzt R ein Einselement, so setzen wir Em,n;k := Diagm,n;k (1R , . . . , 1R ). Wir bemerken, daß Em,n;0 = 0m,n und Diagm,n (r, . . . , r) = rEm,n;k (r ∈ R). | {z } k−mal + 7. R besitze ein Einselement. Für m, n, i, j ∈ N mit i ≤ m und j ≤ n sei i,j Em,n ∈ Rm,n diejenige Matrix, deren Einträge außer an Stelle (i, j) überall i,j schreiben 0R sind und die an der Stelle (i, j) den Eintrag 1R hat. Statt En,n i,j wir kurz En . Wir bemerken, daß es für jede Matrix A ∈ Rm,n eindeutig bestimmte apq ∈ R (p = 1, . . . , m, q = 1, . . . , n) gibt mit P p,q A = 1≤p≤m apq Em,n . 1≤q≤n Offensichtlich sind die apq , p = 1, . . . , m, q = 1, . . . , n, die Einträge von A. Lemma 2.22. Seien m, n, p ∈ N+ . Dann gilt: (1) Rm,n bildet mit der Matrizenaddition eine abelsche Gruppe mit Nullelement r11 . . . r1n .. .. ∈ Rm,n : 0m,n . Dabei gilt für A =: . . rm1 . . . rmn −r11 . . . −r1n .. . −A = ... . −rm1 . . . −rmn (2) Für alle r, s ∈ R und alle A, B ∈ Rm,n gilt (a) rA = Diagm (r, . . . , r) · A, Ar = A · Diagn (r, . . . , r) (b) (r + s)A = rA + sA (c) r(A + B) = rA + rB (d) r(A · B) = (rA) · B (e) (rs)A = r(sA) (f ) 1R A = A (g) (A + B)T = AT + B T (h) (rA)T = rAT . (3) Ist R kommutativ, so gilt für alle r ∈ R und alle A ∈ Rm,n , B ∈ Rn,p 32 KAPITEL 2. MATRIZEN (a) r(A · B) = (rA) · B = A · (rB) sowie (b) (A · B)T = B T · AT . Die behaupteten Eigenschaften ergeben sich sofort aus den entsprechenden Eigenschaften für R bzw. aus den jeweiligen Definitionen. Lemma 2.23. Seien m, n, p, q ∈ N+ . (1) Für alle A, A1 , A2 ∈ Rm,n und alle B, B1 , B2 ∈ Rn,p gilt A · (B1 + B2 ) = A · B1 + A · B2 und (A1 + A2 ) · B = A1 · B + A2 · B. (2) Für alle A ∈ Rm,n , B ∈ Rn,p und C ∈ Rp,q gilt (A · B) · C = A · (B · C). Beweis. (1) ergibt sich sofort aus der Gültigkeit der Distributivgesetze in R. (2) Sei i ∈ {1, . . . , m} und j ∈ {1, . . . , q}. Dann ist (a · B) · cT der Eintrag von (A · B) · C an der Stelle (i, j) und a · (B · cT ) der Eintrag von A · (B · C) an der Stelle (i, j), wenn a die i-te Zeile von A und cT die j-te Spalte von C ist. Daher dürfen wir o. B. d. A. annehmen, daß m = q = 1. Sei also A =: (a1 , . . . , an ) und C =: (c1 , . . . , cp )T sowie B =: ((bkl ))1≤k≤n . Dann gilt 1≤l≤p A·B = n X ak bk1 , . . . , k=1 B·C = p X b1l cl , . . . , p n X X l=1 = ak bkp , k=1 l=1 (A · B) · C = n X ! p X bnl cl l=1 ! ak bkl cl = k=1 p n X X ak bkl cl = k=1 l=1 n X k=1 T und somit p n X X ak bkl cl l=1 k=1 p ak X bkl cl l=1 = A · (B · C) , Folgerung 2.24. Sei n ∈ N+ . Dann gilt (1) Rn,n bildet mit der Matrizenaddition und -multiplikation einen Ring. Besitzt R ein Einselement, so auch Rn,n (nämlich die Einheitsmatrix En über R). (2) Sei R kommutativ mit Einselement. Wenn A ∈ Rn,n Einheit in Rn,n ist (d. h. A ∈ (Rn,n )∗ ), so ist auch AT Einheit in Rn,n und es gilt (AT )−1 = (A−1 )T . 2.2. MATRIZEN 33 Dies ergibt sich sofort aus Lemma 2.22(1), Lemma 2.23 und Lemma 2.22(3). Definition 2.25 (invertierbare Matrizen). Sei R Ring mit Einselement und sei n ∈ N+ . Eine Matrix A ∈ Rn,n heißt invertierbar, wenn A Einheit in Rn,n ist (d. h. wenn es eine Matrix B ∈ Rn,n gibt mit A · B = B · A = En ). Die Menge der invertierbaren Matrizen aus Rn,n (also (Rn,n )∗ ) bildet mit der Matrizenmultiplikation eine Untergruppe von (Rn,n , ·), s. Bemerkung 2.9.3. Man nennt sie n-te allgemeine lineare Gruppe über R und bezeichnet sie mit GlR (n). Mit Hilfe von Matrizen lassen sich lineare Gleichungssysteme wesentlich einfacher darstellen. Hierzu betrachten wir wieder das lineare Gleichungssystem (1.3): a11 X1 a21 X1 .. . + a12 X2 + a22 X2 .. . + . . . + a1n Xn + . . . + a2n Xn .. . = b1 = b2 .. . am1 X1 + am2 X2 + . . . + amn Xn = bm bestehend aus m ≥ 1 Gleichungen in n ≥ 1 Unbestimmten X1 , . . . , Xn mit Koeffizienten aus einem Körper K. Die Matrix a11 . . . a1n .. A := ... . am1 . . . amn heißt Koeffizientenmatrix von (1.3) und die Matrix a11 . . . a1n b1 a21 . . . a2n b2 B := .. .. .. . . . am1 . . . amn bm erweiterte Koeffizientenmatrix von (1.3). Mitunter schreibt man B = (A , bT ), wenn b := (b1 , . . . , bm ). Setzen wir X := (X1 , . . . , Xn ), so können wir (1.3) in der Form A · XT = bT schreiben (Matrizenschreibweise linearer Gleichungssysteme). Als erstes Ergebnis haben wir Satz 2.26. Vorgelegt sei ein lineares Gleichungssystem (1.3) mit Koeffizienten aus einem Körper K und m ≤ n. L ⊆ K n bezeichne seine Lösungsmenge. Dann gilt ]L = 1 ⇐⇒ m = n und A ist invertierbar, 34 KAPITEL 2. MATRIZEN wenn A die Koeffizientenmatrix von (1.3) ist. In diesem Fall haben wir L = {b · (A−1 )T }, wobei wieder b := (b1 , . . . , bm ). Beweis. Sei ] L = 1. Dann ist (1.3) lösbar und nach dem Gaußschen Algorithmus sind n − r Unbestimmte frei wählbar, wenn r die vom Algorithmus produzierte Zahl ist. Somit gilt n = r ≤ min{m, n} ≤ m ≤ n, also m = n = r. Damit führt der Gaußsche Algorithmus (1.3) in Dreiecksgestalt über. Dies ist dann natürlich auch der Fall, wenn b durch ein beliebiges anderes n-Tupel ersetzt wird. Wenn wir i−te Stelle für i = 1, . . . , n setzen eni := (0K , . . . , 0K , 1K , 0K , . . . , 0K ) ∈ K n , so ist daher das System A · XT = eTni lösbar. Sei xi eine Lösung hiervon. Dann gilt A · A0 = En , wenn A0 := (xT1 , . . . xTn ) ∈ K n,n . Hieraus folgt nun A · A0 · A = En · A = A = A · En und wir erhalten A · (A0 · A − En ) = 0. Die Spalten von A0 · A − En sind also Lösungen des zu (1.3) gehörenden homogenen Gleichungssystems, das nach Lemma 1.9 nur die triviale Lösung besitzt. Daher gilt A0 · A − En = 0, d. h. A0 · A = En , und damit ist A invertierbar. Sei nun m = n und A sei invertierbar. Dann gilt mit x := b · (A−1 )T : A · xT = A · ((A−1 )T )T · bT = A · A−1 · bT = En · bT = bT , d. h. x ∈ L. Ist y ∈ L, so folgt yT = En · yT = A−1 · A · yT = A−1 · bT = xT , also y = x und somit ] L = 1, Folgerung 2.27. Sei n ∈ N+ und A ∈ K n,n , wobei K ein Körper ist. Die folgenden Bedingungen sind äquivalent: (i) A ist invertierbar (ii) Es gibt ein A0 ∈ K n,n mit A · A0 = En (iii) Es gibt ein A00 ∈ K n,n mit A00 · A = En Sind diese äquivalenten Bedingungen erfüllt, so gilt für die nach (ii) bzw. (iii) existierenden Matrizen A0 bzw. A00 : A0 = A00 = A−1 . Beweis. Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich unmittelbar aus der Definition. (iii) ⇒ (i): Sei x Lösung des linearen homogenen Gleichungssystems A · XT = 0. Dann folgt xT = En · xT = A00 · A · xT = 0, also x = 0. Nach Satz 2.26 ist A damit invertierbar. 2.2. MATRIZEN 35 (ii) ⇒ (i): Aus A · A0 = En ergibt sich (A0 )T · AT = (A · A0 )T = (En )T = En , s. Lemma 2.22(3b). Nach dem soeben Gezeigten ist damit AT invertierbar und die Behauptung ergibt sich aus Folgerung 2.24(2), Bemerkung 2.28. Die Aussage von Folgerung 2.27 bleibt richtg, wenn K ein beliebiger kommutativer Ring ist. Der Beweis erfordert allerdings spezielle ringtheoretische Methoden. Ist eine Matrix A ∈ K n,n vorgelegt, wobei K ein Körper ist, so kann die Frage nach der Existenz einer Inversen somit auf die Frage nach der Existenz einer Matrix A0 mit A · A0 = En reduziert werden. Die i-te Spalte von A0 , i = 1, . . . , n, ist Lösung des linearen Gleichungssystems A · XT = eTni , wobei eni wie im Beweis von Satz 2.26 erklärt ist. Damit ist A genau dann invertierbar, wenn die linearen Gleichnungssysteme A · XT = eTni für i = 1, . . . , n lösbar sind. Ist das der Fall und ist xi Lösung von A · XT = eTni , i = 1, . . . , n, so ist A−1 = (xT1 , . . . , xTn ). Bemerkung 2.29. Der Gaußsche Algorithmus kann auf Matrizen aus K m,n , K ein Körper, angewandt werden, wenn man die Umformungen I, II und III entsprechend interpretiert: (I) Vertauschen zweier Zeilen (II) Addition eines Vielfachen einer Zeile zu einer anderen (III) Vertauschen zweier Spalten Dadurch kann eine (m, n)-Matrix A in eine (m, n)-Matrix A0 überführt werden, die Trapezgestalt besitzt, d. h. es gibt ein r ∈ N mit r ≤ min{m, n}, so daß A0 = ((a0ij ))1≤i≤m , wobei 1≤j≤n a0ij = 0 für alle i, j mit j = 1, . . . , n und i > min{r, j} sowie a0ii 6= 0 für alle i = 1 . . . , r. Ist nun ein lineares Gleichungssystem A · XT = bT in n Unbestimmten mit Koeffizienten aus einem Körper K bestehend aus m Gleichungen gegeben, so reicht es, zur Vereinfachung des Systems den Gaußschen Algorithmus auf die erweiterte Koeffizientenmatrix B = (A , bT ) anzuwenden, wobei allerdings die letzte Spalte (also bT ) nicht in die Spaltenvertauschungen 36 KAPITEL 2. MATRIZEN (also Umformungen vom Typ III) einbezogen werden darf. Dann entsteht eine (m, n + 1)-Matrix der Gestalt B̃ = à , b̃ T , wobei à Trapezgestalt hat. Dies stellt z. B. eine wesentliche Vereinfachung dar, wenn mehrere lineare Gleichungssysteme mit jeweils gleicher Koeffizientenmatrix vorgelegt sind. Wenn diese etwa die Gestalt A · XT = bTk , k = 1, . . . p, haben, so wendet man den Gaußschen Algorithmus auf die (m, n + p)-Matrix B := (A , bT1 , . . . , bTp ) an, wobei die letzten p Spalten (also bT1 , . . . , bTp ) nicht in die Spaltenvertauschungen (also Umformungen vom Typ III) einbezogen werden dürfen. Wenn daraus die Matrix B̃ = (à , b̃T1 , . . . , b̃Tp ) entsteht, wobei à Trapezgestalt hat, so erhält man die zu den jeweiligen Ausgangssystemen äquivalenten Gleichnungssysteme à · XT = b̃k T , k = 1, . . . p. Zur Erläuterung diskutieren wir das folgende Beispiel 1 −2 Beispiel 2.30. Gegeben sei die Matrix A = ∈ Q2,2 . Man prüfe, ob 2 −3 A invertierbar ist und berechne ggf. ihre Inverse. Lösung: Wie wir oben gesehen haben, ist zu prüfen, ob die linearen Gleichungssysteme A · XT = (1, 0)T und A · XT = (0, 1)T lösbar sind. Hierzu wenden wir den Gaußschen Algorithmus auf 1 −2 1 0 2 −3 0 1 an und erhalten 1 −2 1 0 0 1 −2 1 Die beiden linearen Gleichungssysteme à · XT = (1, −2)T und à · XT = (0, 1)T , 2.3. SPEZIELLE MATRIZEN 37 1 −2 wobei à = , sind lösbar und damit ist A invertierbar. Da (−3, −2) 0 1 bzw. (2, 1) jeweils Lösungen des ersten bzw. zweiten Systems sind, erhalten wir −3 2 −1 A = −2 1 Wir bemerken, dass man bei Anwendung des modifizierten Gaußschen Algorithmus die Inverse - vorausgesetzt sie existiert - unmittelbar ablesen kann. Ist nämlich B := (A , eT1 , . . . , eTn ) = (A , En ) und entsteht hieraus durch Anwendung des modifizierten Gaußschen Algorithmus die Matrix B̃, so ist A genau dann invertierbar, wenn B̃ die Gestalt B̃ = (En , A0 ) mit einer (n, n)-Matrix A0 hat. In diesem Fall gilt dann A−1 = A0 . 2.3 Spezielle Matrizen In diesem Abschnitt sei R ein Ring mit Einselement. m, n seien positive ganze Zahlen. Zu den Umformungsregeln I, II und III für Matrizen (s. Bemerkung 2.29) fügen wir hier noch die weitere Regel (IV) Addition eines Vielfachen einer Spalte zu einer anderen hinzu. Wir zeigen zunächst, dass diese Umformungen durch Multiplikation mit geeigneten invertierbaren Matrizen realisiert werden können. Hierzu definieren wir: Definition 2.31. Mnk (r) (a) Für k ∈ {1, . . . , n} und r ∈ R setzen wir := En + (r − 1R )Enk,k k−te Stelle = Diagn (1R , . . . , 1R , r , 1R , . . . , 1R ). Sei nun n ≥ 2 und i, j seien natürliche Zahlen mit 1 ≤ i, j ≤ n und i 6= j. (b) Mit Vni,j ∈ Rn,n bezeichnen wir diejenige (n, n)-Matrix, deren Einträge an den Stellen (k, k) mit k ∈ {1, . . . , n} \ {i, j} sowie (i, j) und (j, i) jeweils 1R und ansonsten 0R sind. 38 KAPITEL 2. MATRIZEN n,n i,j . (c) Für r ∈ R setzen wir Ai,j n (r) := En + rEn ∈ R Die in (a) definierten Matrizen heißen Multiplikationsmatrizen, die in (b) Vertauschungsmatrizen und die (c) Additionsmatrizen. Eine Matrix aus Rn,n heißt Elementarmatrix, wenn sie entweder Additionsmatrix oder Multiplikationsmatrix der Gestalt Mnk (−1R ) mit k ∈ {1, . . . , n} ist. Die Menge aller endlichen Produkte von Elementarmatrizen aus Rn,n bezeichnen wir mit ER (n). Lemma 2.32. Sei A ∈ Rm,n . k (r) (Mnk (r)) mit (a) Multiplikation von A mit einer Multiplikationsmatrix Mm k ∈ {1, . . . , m} (k ∈ {1, . . . , n}) und r ∈ R von links (rechts) bewirkt die Multiplikation der k-ten Zeile (Spalte) von A mit r von links (rechts). (a) Multiplikation von A mit einer Vertauschungsmatrix Vmi,j (Vni,j ) mit i, j ∈ {1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, von links (rechts) bewirkt die Vertauschung der i-ten und j-ten Zeile (Spalte) von A. i,j (b) Multiplikation von A mit einer Additionsmatrix Ai,j m (r) (An (r)) mit i, j ∈ {1, . . . , m} (i, j ∈ {1, . . . , n}), i 6= j, und r ∈ R von links (rects) bewirkt die Addition des links- (rechts-)r-fachen der j-ten Zeile von A zur i-ten Zeile von A (i-ten Spalte von A zur j-ten Spalte von A). Der Beweis liegt auf der Hand, so dass wir darauf verzichten. Elementarmatrizen haben allerdings wichtige strukturelle Eigenschaften, die wir nun untersuchen wollen. Lemma 2.33. Sei n ≥ 2. (a) Für alle k ∈ {1, . . . , n} und alle r, s ∈ R gilt Mnk (r) · Mnk (s) = Mnk (rs) . Insbesondere ist Mnk (r) genau dann invertierbar, wenn r ∈ R∗ . In diesem Fall gilt Mnk (r)−1 = Mnk (r−1 ). (b) Für alle i, j ∈ {1, . . . , n}, i 6= j, und alle r, s ∈ R gilt i,j i,j Ai,j n (r) · An (s) = An (r + s) . i,j −1 Insbesondere ist Ai,j = Ai,j n (r) invertierbar mit An (r) n (−r). T j,i Außerdem gilt Ai,j n (r) = An (r). (c) Für alle i, j ∈ {1, . . . , n}, i 6= j, gilt (Vni,j )2 = En . Insbesondere ist Vni,j invertierbar mit (Vni,j )−1 = Vni,j = (Vni,j )T . 2.3. SPEZIELLE MATRIZEN 39 (d) ER (n) ist Untergruppe von GlR (n) mit Vni,j ∈ ER (n) für alle i, j ∈ {1, . . . , n}, i 6= j. Ist R kommutativ, so gilt außerdem P T ∈ ER (n) für alle P ∈ ER (n). Beweis. Seien i, j, k ∈ {1, . . . , n} mit i 6= j. Dann gilt für r, s ∈ R Mnk (r) · Mnk (s) = Mnk (rs) , i,j 2 i,j i,j i,j i,j i,j Ai,j n (r) · An (s) = (En + rEn ) · (En + sEn ) = En + rEn + sEn + rs (En ) | {z } =0 = En + (r + s)Eni,j = Ai,j n (r + s) . Schließlich ist klar, dass (Vni,j )2 = En und (Vni,j )T = Vni,j . (a) Wenn r ∈ R∗ , so gilt Mnk (r) · Mnk (r−1 ) = En = Mnk (r−1 ) · Mnk (r), d. h. Mnk (r) ist invertierbar mit Mnk (r−1 ) als inverser Matrix. Sei nun umgekehrt Mnk (r) invertierbar. Dann gibt es ein A ∈ Rn,n mit Mnk (r) · A = A · Mnk (r) = En . Hieraus folgt ra = ar = 1R , wenn a der Eintrag von A an der Stelle (k, k) ist, d. h. r ∈ R∗ . (b) ist klar, da Ai,j n (0R ) = En . i,j j i,j i,j (d) Wegen Vni,j = Aj,i n (1R ) · An (−1R ) · An (1R ) · Mn (−1R ) liegt Vn in ER (n). Insbesondere ist damit ER (n) nicht leer. Seien nun A, B ∈ ER (n). Dann gibt es Elementarmatrizen A1 , . . . , As und B1 , . . . Bt in Rn,n mit A = A1 ·. . .·As und B = B1 ·. . .·Bt . Nach (a), (b) und Lemma 2.7(c) ist B invertierbar und es gilt B −1 = Bt−1 ·. . .·B1−1 . Wiederum nach (a) und (b) sind B1−1 , . . . , Bt−1 Elementarmatrizen und daher folgt A · B −1 ∈ ER (n). Somit ist ER (n) Untergruppe von GlR (n) nach Lemma 2.15. Sei nun R kommutativ und sei A ∈ ER (n). Dann gibt es Elementarmatrizen A1 , . . . , As ∈ Rn,n mit A = A1 ·. . .·As und es folgt AT = ATs ·. . .·AT1 ∈ ER (n) nach (b) und (c), Folgerung 2.34. Sei K ein Körper (1) Für jede Matrix A ∈ K m,n gibt es Matrizen P ∈ GlK (m) und Q ∈ EK (n) sowie ein r ∈ N mit r ≤ min{m, n}, so dass P · A · Q = Em,n;r . (2) Für jede Matrix A ∈ K m,n gibt es Matrizen U ∈ EK (m) und V ∈ EK (n) sowie ein r ∈ N mit r ≤ min{m, n} und a1 , . . . , ar ∈ K ∗ , so dass U · A · V = Diagm,n (a1 , . . . , ar ). 40 KAPITEL 2. MATRIZEN Beweis. (2) ergibt sich mit Lemma 2.32 sofort durch Anwendung des Gaußschen Algorithmus auf A und AT . (1) Multipliziert man die nach (2) entstehende Matrix U ·A·V = Diagm,n (a1 , . . . Q k . . . , ar ) von links mit M := rk=1 Mm (a−1 k ) ∈ GlK (m), so ergibt sich die Aussage mit P := M · U und Q := V , Definition 2.35. Seien m, n ∈ N+ . (a) ER (n) heißt n-te elementare Gruppe über R. (b) Matrizen A, B ∈ Rm,n heißen äquivalent, kurz A ∼ B, wenn es Matrizen P ∈ GlR (m) und Q ∈ GlR (n) gibt mit B = P · A · Q. (c) Matrizen A, B ∈ Rn,n heißen ähnlich, wenn B = P · A · P −1 mit einer Matrix P ∈ GlR (n). Lemma 2.36. Äquivalenz bzw. Ähnlichkeit sind Äquivalenzrelationen auf Rm,n bzw. auf Rn,n . Ähnliche Matrizen sind äquivalent. Beweis. Reflexivität: Sei A ∈ Rn,n (A ∈ Rm,n ). Dann gilt A = P · A · P −1 mit P = En (A = P · A · Q mit P = Em , Q = En ), also sind A, A ähnlich (äquivalent). Symmetrie: Seien A, B ∈ Rn,n ähnlich (A, B ∈ Rm,n äquivalent), d. h. B = P · A · P −1 mit P ∈ GlR (n) (B = P · A · Q mit P ∈ GlR (m), Q ∈ GlR (n)). Dann folgt A = P −1 · B · P = P −1 · B · (P −1 )−1 (A = P −1 · B · Q−1 ), also sind B, A ähnlich (äquivalent). Transitivität: Seien A, B ∈ Rn,n , B, C ∈ Rn,n jeweils ähnlich (A, B ∈ Rm,n , B, C ∈ Rm,n jeweils äquivalent), d. h. B = P · A · P −1 , C = P̃ · B · P̃ −1 mit P, P̃ ∈ GlR (n) (B = P · A · Q, C = P̃ · B · Q̃ mit P, P̃ ∈ GlR (m), Q, Q̃ ∈ GlR (n)). Dann folgt C = (P̃ · P ) · A · (P −1 · P̃ −1 ) = (P̃ · P ) · A · (P̃ · P )−1 (C = (P̃ · P ) · A · (Q · Q̃)), also sind A, C ähnlich (äquivalent), Satz und Definition 2.37 (Rang einer Matrix). Sei K ein Körper und sei s := min{m, n}. (1) Es gibt genau s+1 paarweise verschiedene Äquivalenzklassen bzgl. ∼ in K m,n . Dies sind die durch Em,n;k für k = 0, 1, . . . , s repräsentierten Klassen. (2) Für jede Matrix A ∈ K m,n gibt es ein eindeutig bestimmtes r ∈ {0, . . . , s} mit A ∼ Em,n;r , d. h. für geeignete P ∈ GlK (M ), Q ∈ GlK (n) gilt P AQ = Em,n;r . Diese Zahl r heißt K-Rang von A oder auch nur Rang von A und wird mit rangK A oder, wenn Verwechslungen ausgeschlossen sind, mit rangA bezeichnet. 2.3. SPEZIELLE MATRIZEN 41 (3) Für Matrizen A, B ∈ K m,n gilt A ∼ B genau dann, wenn rang A = rang B. (4) Für A ∈ K m,n gilt rang A = rang (P · A · Q) für alle P ∈ GlK (m) und alle Q ∈ GlK (n). (5) Für alle A ∈ K m,n gilt rang A = rang AT . (6) Für A ∈ K n,n gilt A ∈ GlK (n) genau dann, wenn rang A = n. Beweis. (1) Nach Folgerung 2.34(1) gibt es für jede Matrix A ∈ K m,n ein r ∈ {0, . . . , s} mit A ∼ Em,n;r . Daher ist nur noch zu zeigen, dass Em,n;k 6∼ Em,n;l für alle k, l ∈ {0, . . . , s} mit k 6= l. Seien k, l ∈ {0, . . . , s} und P ∈ GlK (m), Q ∈ GlK (n), so dass Em,n;l = P · Em,n;k· Q. O. B. d. A. gelte k ≤ l. Sei A := P −1 · Em,n;l . Da A = Em,n;k · Q, B O gilt A = mit B ∈ K k,l und Nullmatrizen jeweils passenden Formats. O O U W Wir schreiben entsprechend P = mit U ∈ K k,k , V ∈ K m−k,k , W ∈ V W0 K k,m−k , W 0 ∈ K m−k,m−k . Weiter sei B = (C D) mit C ∈ K k,k , D ∈ K k,l−k . Dann gilt U ·B O U ·C U ·D O Em,n;l = P · A = = , V ·B O V ·C V ·D O El−k also folgt U · C = Ek , U · D = O, V · C = O und V · D = (V · D 6= O, O wenn k < l). Wegen U · C = Ek gilt auch C · U = Ek nach Folgerung 2.27 und wir erhalten V · D = V · (C · U ) · D = (V · C) · (U · D) = O, also k = l. (2) ist nach (1) klar. (3) Seien A, B ∈ K m,n . Dann gilt A ∼ Em,n;r , B ∼ Em,n,ρ mit r := rang A, ρ := rang B nach (1) und wir erhalten A ∼ B ⇐⇒ Em,n;r ∼ Em,n;ρ ⇐⇒ r = ρ wiederum nach (1). (4) ergibt sich unmittelbar aus (3). (5) Sei r := rang A. Dann gibt es P ∈ GlK (m) und Q ∈ GlK (n) mit P · A · Q = T Em,n;r . Hieraus folgt QT · AT · P T = Em,n;r = En,m;r und wegen QT ∈ GlK (n), P T ∈ GlK (m) (s. Folgerung 2.24(2)) ergibt sich rang AT = r nach (2). (6) Wenn rang A = n, also A ∼ En,n;n = En , so gibt es P, Q ∈ GlK (n) mit A = P · En · Q = P · Q ∈ GlK (n). Wenn umgekehrt A ∈ GlK (n), so folgt P · A · Q = En = En,n;n mit P := A−1 ∈ GlK (n) und Q := En ∈ GlK (n), also rang A = n, 42 KAPITEL 2. MATRIZEN Später (s. Satz 3.44 im Zusammenhang mit Definition 3.38) werden wir eine andere und elegantere Variante zur Rangdefinition kennenlernen. Mit der hier vorgestellte Definition haben wir jedoch eine Möglichkeit an der Hand, den Rang einer Matrix effektiv zu berechnen. Wie wir nämlich jetzt abschließend sehen werden, kann der Rang mit Hilfe des Gaußschen Algorithmus bestimmt werden. Genauer ist der Rang die Zahl r, die vom Algorithmus (u. a.) produziert wird. Damit ist auch Problem (A) in Kapitel 1 positiv gelöst: r hängt nicht ab von der Auswahl der Algorithmusschritte, sondern nur von der vorgelegten Matrix (in diesem Fall der Koeffizientenmatrix des gegebenen linearen Gleichungssystems). Lemma 2.38. Sei A ∈ K m,n , wobei K ein Körper ist. Wenn durch Anwendung des Gaußschen Algorithmus auf A eine Matrix A0 ∈ K m,n entsteht (die dann Trapezgestalt hat), so ist rang A = rang A0 die Anzahl der vom Nulltupel verschiedenen Zeilen von A0 . Beweis. Da A0 = P · A · Q mit geeigneten Matrizen P ∈ GlK (m), Q ∈ GlK (n), gilt rang A = rang A0 nach Satz 2.37(4), so dass wir annehmen können, dass A bereits Trapezgestalt hat. Bezeichnen wir mit aij , i = 1, . . . , m, j = 1, . . . , n, die Einträge von A, so gilt daher aij = 0R für alle i, j ∈ N mit 1 ≤ j ≤ n und min{r, j} < i ≤ m sowie aii 6= 0R für alle i = 1, . . . , r, wenn r die Anzahl der vom Nulltupel verschiedenen Zeilen von A ist. Wenden wir den Gaußschen Algorithmus auf AT an, so kommen hierbei nur Umformungen vom Typ II vor und es entsteht die Martix B := Diagm,n (a11 , . . . , arr )T . Somit gibt es eine Matrix 0 Q0 ∈ GlK (n) mit A · Q Qr = B kund−1wir haben daher rang A = rang B nach Satz 2.37(4). Wenn M := k=1 Mm (akk ) ∈ GlK (m), so gilt M · B = Em,n;r und wir erhalten rangA = rang B = rang M · B = r wiederum nach Satz 2.37(4), B Folgerung 2.39. Sei A wie in Lemma 2.38. Wenn A die Gestalt A = mit O B ∈ K p,n , p ∈ {0, . . . , m}, oder A = (B O) mit B ∈ K m,q , q ∈ {0, . . . , n}, und Nullmatrizen jeweils passenden Formats hat, so gilt rang A = rang B Beweis. Wegen rang A = rang AT (s. Satz 2.37(4)) reicht es, den ersten Fall zu betrachten. Dann ergibt sich die Behauptung aber sofort aus Lemma 2.38, da in dieser Situation bei Anwendung des Gaußschen Algorithmus auf A die letzten m − p Zeilen von A, die alle gleich dem Nulltupel sind, unverändert bleiben, −1 4 2 0 1 und Beispiel 2.40. Man bestimme den Rang r von A := 2 −2 0 −1 −2 −2 −1 berechne P ∈ GlQ (3) und Q ∈ GlQ (4), so dass P · A · Q = E3,4;r . 2.3. SPEZIELLE MATRIZEN 43 −1 4 2 0 Lösung: Der Gaußsche Algorithmus überführt A in A0 := 0 6 4 1. Damit 0 0 0 0 gilt r = 2. Außerdem haben wir 1 0 0 2,1 3,1 2 1 0 · A. A0 = A3,2 3 (1) · A3 (−1) · A3 (2) · A = 1 1 1 1 −4 −2 0 1 2 Sei M := M31 (−1)·M32 ( 61 ) = Diag(−1, 16 , 1). Dann gilt M ·A0 = 0 1 3 6 0 0 0 0 und wir erhalten 1 4 23 − 23 2 1 1,3 2,3 2,4 0 0 1 − 3 − 6 2 1 E3,4;2 = M ·A0 ·A1,2 (4)·A (2)·A (− )·A (− ) = M ·A · . 4 4 4 4 3 6 0 0 1 0 0 0 0 1 Damit folgt 1 1 0 0 0 −1 0 0 0 1 0 0 = E3,4;2 = 2 1 0 · A · 0 3 6 0 1 1 1 0 0 0 0 0 4 23 − 23 1 − 32 − 16 . 0 1 0 0 0 1 44 KAPITEL 2. MATRIZEN Kapitel 3 Vektorräume, Moduln, Ideale Die Untersuchung von Moduln bzw. Vektorräumen und strukturerhaltenden Abbildungen zwischen ihnen (den sogenannten linearen Abbildungen) steht im Mittelpunkt der modernen linearen Algebra. Im weiteren Verlauf werden wir uns diesen Fragen eingehend widmen und vielfältige weitere Anwendungen u. a. in der Geometrie studieren. 3.1 Operationen auf Mengen Definition 3.1. Sei (H; •) eine Halbgruppe und X eine nicht leere Menge. (a) Man sagt, H operiert von links auf X, wenn es eine Abbildung ϕ : H × X → X gibt mit ϕ(g • h, x) = ϕ(g, ϕ(h, x)) für alle g, h ∈ H, x ∈ X. Statt ϕ(h, x) schreibt man meist hx, manchmal auch h(x). Dann lautet obige Bedingung: (g • h)x = g(hx) für alle g, h ∈ H, x ∈ X. Ist (H; •) Monoid mit neutralem Element e, so fordert man zusätzlich ex = x für alle x ∈ X. (b) H operiere von links auf X. Für x ∈ X und H 0 ⊆ H sei H 0 x := {hx | h ∈ H 0 } ⊆ X. H 0 x heißt Bahn oder Orbit von x bezüglich H 0 . Eine Teilmenge Y von X heißt Bahn oder Orbit bezüglich H 0 , wenn Y = H 0 x für ein x ∈ X. 45 46 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (c) H operiere von links auf X. Man sagt, daß H einfach auf X operiert, wenn für alle g, h ∈ H mit g 6= h und alle x ∈ X gilt gx 6= hx. (d) H operiere von links auf X. Man sagt, daß H transitiv auf X operiert, wenn es ein x ∈ X gibt mit Hx = X. Bemerkungen, Beispiele 3.2. 1. Sei (H; •) Halbgruppe und X nicht leere Menge. Dann ist eine Operation von H von rechts auf X definiert als eine Abbildung X × H → X, so daß die entsprechenden Eigenschaften gelten (d. h. x(g • h) = (xg)h für alle g, h ∈ H, x ∈ X und, wenn (H; •) Monoid mit neutralem Element e ist, xe = x für alle x ∈ X). Ist H kommutativ und operiert H von links auf einer Menge X 6= ∅, so ist durch xh := hx für alle h ∈ H, x ∈ X eine Operation von H auf X von rechts erklärt (und umgekehrt), wie man schnell bestätigt, so daß man in diesem Fall nur von einer Operation von H auf X spricht. In diesen Fällen werden wir die Operationen in der Regel als Operationen von links schreiben. 2. Sei G ein Monoid. Die entsprechende zweistellige Operation auf G ist gleichzeitig Links- und Rechts-Operation von G auf sich selbst. 3. Sei G eine Gruppe, die auf einer Menge X 6= ∅ (von links) operiert. Dann bilden die Bahnen bezüglich G eine Partition von X, denn zunächst gilt x ∈ Gx für alle x ∈ X, d. h. die Bahnen sind nicht leer und ihre Vereinigung ist X. Wenn Gx ∩ Gy 6= ∅ für x, y ∈ X, so gibt es g, h ∈ G mit gx = hy. Sei x0 ∈ Gx, sagen wir, x0 = g 0 x mit g 0 ∈ G. Dann gilt x0 = g 0 x = g 0 g −1 gx = g 0 g −1 hy ∈ Gy und wir erhalten Gx ⊆ Gy. Umgekehrt gilt natürlich auch Gy ⊆ Gx, also folgt Gx = Gy. Wenn G transitiv auf X operiert, so gilt damit Gx = X für jedes x ∈ X. 4. Ein Monoid (G; •) operiere von links auf einer Menge X 6= ∅. Für jedes g ∈ G ist durch x 7→ gx für alle x ∈ X eine Abbildung λg : X → X gegeben. Man nennt sie Linkstranslation mit g. Für alle g, h ∈ G und alle x ∈ X gilt λg•h (x) = (g • h)x = g(hx) = λg (λh (x)) = (λg ◦ λh )(x) sowie λe (x) = ex = x , wenn e das neutrale Element von (G; •) ist, d. h. wir haben λg•h = λg ◦ λh und λe = idX . 3.2. MODULN 3.2 47 Moduln Definition 3.3 (Moduln, Vektorräume). (a) Sei R ein Ring. Ein Links-R-Modul ist eine abelsche Gruppe (M ; +M ), auf der die multiplikative Halbgruppe (R; ·) von R von links operiert, so daß zusätzlich folgendes gilt: • r(u +M v) = ru +M rv für alle r ∈ R, u, v ∈ M und • (r +R s)u = ru +M su für alle r, s ∈ R, u ∈ M . (b) Entsprechend sind Rechts-R-Moduln erklärt. (c) Ist R kommutativ, so spricht man lediglich von R-Moduln, siehe Bemerkung 3.2.1. (d) Sei K ein Körper. K-Moduln werden als K-Vektorräume bezeichnet. Bemerkungen 3.4. Mit den Bezeichnungen von Definition 3.3 haben wir: 1. Besitzt R ein Einselement und ist M ein Links-R-Modul, so gilt definitionsgemäß 1R m = m für alle m ∈ M . 2. Die unterschiedliche Bezeichnug der Operationszeichen (+R , +M ) unterbleibt in Zukunft, da Verwechslungen i. a. ausgeschlossen sind. 3. Sei R ein Ring (ein Körper). Ein Links-R-Modul (bzw. ein R-Vektorraum) ist laut Definition eine abelsche Gruppe (M ; +) zusammen mit einer Abbildung R × M → M , wobei man das Bild von (r, u) ∈ R × M in M mit ru bezeichnet, so daß gilt: • r(u + v) = ru + rv für alle r ∈ R, u, v ∈ M • (r + s)u = ru + su für alle r, s ∈ R, u ∈ M • (r · s)u = r(su) für alle r, s ∈ R, u ∈ M • 1R u = u für alle u ∈ M , falls R ein Einselement besitzt. Lemma 3.5 (Rechenregeln für Moduln). Sei R ein Ring und M ein Links-RModul. Dann gilt: (1) 0R u = 0M für alle u ∈ M (2) r0M = 0M für alle r ∈ R (3) (−r)u = −(ru) = r(−u) für alle r ∈ R, u ∈ M (4) r(u − v) = ru − rv für alle r ∈ R, u, v ∈ M (5) (r − s)u = ru − su für alle r, s ∈ R, u ∈ M (6) Ist R Schiefkörper und gilt ru = 0M für r ∈ R, u ∈ M , so folgt r = 0R oder u = 0M . 48 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) 0M = 0R u − 0R u = (0R + 0R )u − 0R u = 0R u + 0R u − 0R u = 0R u (2) 0M = r0M − r0M = r(0M + 0M ) − r0M = r0M + r0M − r0M = r0M (3) ru+(−r)u = (r+(−r))u = 0R u = 0M , ru+r(−u) = r(u+(−u)) = r0M = 0M , also folgt (−r)u = −(ru) = r(−u) (4) r(u − v) = r(u + (−v)) = ru + r(−v) = ru + (−rv) = ru − rv (5) (r − s)u = (r + (−s))u = ru + (−s)u = ru + (−su) = ru − su (6) Wenn r 6= 0R , so folgt u = 1R u = r−1 ru = r−1 0M = 0M , Bemerkungen, Beispiele 3.6. 1. Sei M eine abelsche Gruppe. Es kann vorkommen, daß M Links-R-Modul und Rechts-S-Modul für Ringe R, S ist. Man sagt dann, M sei ein (R, S)-Bimodul. 2. Sei R ein Ring. Die Multiplikation in R definiert, wie man sofort sieht, eine Operation von R von links und von rechts auf sich selbst (s. Bemerkung 3.2.5). Damit ist R ein Links-R- und ein Rechts-R-Modul, also ein (R, R)Bimodul. Insbesondere ist jeder Körper K damit ein K-Vektorraum. 3. Sei R ein Ring und {0} die triviale Gruppe (mit neutralem Element 0 als einzigem Element). Sie ist abelsch und wird meist einfach mit 0 bezeichnet. Durch r0 := 0 bzw. 0r := 0 für alle r ∈ R ist eine Operation von R auf 0 von links und von rechts erklärt, bezüglich derer 0 sowohl ein Links- also auch ein Rechts-R-Modul ist. Er heißt Nullmodul. 4. Sei (M ; +) eine abelsche Gruppe. Für n ∈ Z und u ∈ M setzen wir (s. Übungsaufgabe 31) u + . . . + u falls n > 0 | {z } n−mal nu := ∈ M. 0M falls n = 0 −((−n)u) falls n < 0 Nach der Bemnerkung zu Übungsaufgabe 31 ist M damit ein Z-Modul. Folglich ist jede abelsche Gruppe ein Z-Modul, d. h. ”Z-Modul” und ”abelsche Gruppe” sind Synonyma. 5. Sei R ein Ring und seien m, n ∈ N+ . Die Regeln für das Rechnen mit Matrizen liefern, daß die Menge Rm,n der (m, n)-Matrizen mit Eintragungen aus R mit der Matrizenaddition als Operation nicht nur eine abelsche Gruppe bilden (s. Lemma 2.22(1)), sondern auch • einen Links-R-Modul (s. Lemma 2.22(2)). Die entsprechend formulierten Regeln liefern natürlich auch, daß Rm,n ein Rechts-R-Modul ist. 3.2. MODULN 49 • einen Links-Rm,m -Modul (s. Lemma 2.23) und entsprechend einen Rechts-Rn,n -Modul. Damit ist Rm,n ein (Rm,m , Rn,n )-Bimodul. Ist K ein Körper, so bildet K m,n einen K-Vektorraum. Insbesondere ist damit K n ein K-Vektorraum. 6. Für n ∈ N ∪ {∞} sei CnR (I) die Menge der auf einem Intervall I ⊆ R definierten n-mal stetig differenzierbaren Funktionen. Mit der üblichen (punktweisen) Addition von Funktionen und der Multiplikation von Funktionen mit Skalaren ist CnR (I) ein R-Vektorraum. Mit der (punktweisen) Addition von Funktionen und der (punktweisen) Multipliktion von Funktionen ist CnR (I) überdies ein kommutativer Ring mit Einselement. Identifiziert man die reellen Zahlen mit den entsprechenden konstanten Funktionen, so ist R Unterring von CnR (I). Mehr noch, wir haben eine Kette von Ringen (m ∈ N beliebig) m 0 R ⊂ C∞ R (I) ⊂ CR (I) ⊂ . . . ⊂ CR (I). Hier heißt ⊂, daß nicht nur eine (echte) Teilmenge, sondern sogar eine (echte) Unterstruktur vorliegt. 7. Viel allgemeiner als soeben dargestellt gilt: Sei R ein Ring und I eine Menge. Auf der Menge RI := Abb (I, R) definieren wir für f, g ∈ RI Abbildungen f + g, f · g : I → R durch (f + g)(x) := f (x) + g(x) für alle x ∈ I (f · g)(x) := f (x) · g(x) für alle x ∈ I Man bestätigt sofort, daß RI damit ein Ring ist. Er ist kommutativ, wenn R es ist, und besitzt ein Einselement, wenn R ein solches besitzt. Diese zweistelligen Operationen + und · auf RI werden punktweise Addition bzw. Multiplikation genannt. Definiert man für f ∈ RI und r ∈ R Abbildungen rf, f r : I → R durch (rf )(x) := r(f (x)) bzw. (f r)(x) := (f (x))r für alle x ∈ I , so wird RI damit zu einem Links-R-Modul bzw. zu einem Rechts-R-Modul, also zu einem (R, R)-Bimodul. Ist K ein Körper, so ist K I damit einerseits ein kommutativer Ring mit Einselement und gleichzeitig ein K-Vektorraum. Außerdem gilt für f, g ∈ K I und α ∈ K: α(f · g) = (αf ) · g = f · (αg). 50 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE 8. Sei A ein kommutativer und R ein beliebiger Ring, der - als abelsche Gruppe (R; +) - gleichzeitig A-Modul ist. Wenn a(s · t) = (as) · t = s · (at) für alle a ∈ A, s, t ∈ R, so nennt man R eine A-Algebra. Z. B. ist K I eine K-Algebra, wenn K ein Körper und I eine Menge ist, und nach 4. ist jeder Ring eine Z-Algebra, wie man sofort bestätigt. Definition 3.7 (Untermoduln). Sei R ein Ring und M ein Links-R-Modul. (a) Ein Links-R-Untermodul von M ist eine Untergruppe (N ; +) von (M ; +), die mit der vorliegenden Operation von R auf M ebenfalls ein Links-R-Modul ist. (b) Entsprechend sind Rechts-R-Untermoduln von M und (R, S)-Biuntermoduln von M erklärt, wenn M ein Rechts-R-Modul bzw. ein (R, S)-Bimodul ist, S weiterer Ring. (c) Ist R kommutativ, so spricht man von R-Untermoduln von M . Ist K Körper, so nennt man K-Untermoduln von K-Vektorräumen entsprechend KUntervektorräume. (d) Links-(Rechts-)R-Untermoduln von R heißen Linksideale (Rechtsideale) von R, (R, R)-Biuntermoduln von R heißen zweiseitige Ideale von R. Ist R kommutativ, so spricht man lediglich von Idealen von R. Lemma 3.8 (Untermodulkriterium). Sei R ein Ring und M ein Links-R-Modul. Für eine Teilmenge U von M sind die folgenden Bedingungen äquivalent: (i) U ist Links-R-Untermodul von M (ii) U 6= ∅ und für alle r ∈ R und alle u, v ∈ U gilt u − v, ru ∈ U . Besitzt R ein Einselement, so sind (i) und (ii) zusätzlich äquivalent zu (iii) U 6= ∅ und für alle r, s ∈ R und alle u, v ∈ U gilt ru + sv ∈ U (iv) U 6= ∅ und für alle n ∈ N, alle r1 , . . . , rn ∈ R und alle u1 , . . . , un ∈ U gilt r1 u1 + . . . + rn un ∈ U . Beweis. Die Implikation (i) =⇒ (ii) ergibt sich sofort aus dem Untergruppenkriterium (Lemma 2.15) und der Definition, denn aus dem Untergruppenkriterium folgt U 6= ∅ und u − v ∈ U für alle u, v ∈ U . Aus r ∈ R und u ∈ U ergibt sich schließlich ru ∈ U . (ii) =⇒ (i): Aus dem Untergruppenkriterium folgt zunächst, daß (U ; +) Untergruppe von (M ; +) ist. Wegen ru ∈ U für alle r ∈ R, u ∈ U , operiert R von links auf U und diese Operation ist (trivialerweise) gegeben durch Einschränkung der Operation von R auf M . Da die entsprechenden Beziehungen (s. Definition 3.3(a)) 3.2. MODULN 51 in M gelten, gelten sie erst recht in U und damit ist U Links-R-Untermodul von M. Nehmen wir nun an, daß R ein Einselement 1R besitzt. (i) =⇒ (vi): Aus r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U folgt r1 u1 , . . . , rn un ∈ U und somit r1 u1 + . . . + rn un ∈ U . Die Implikation (iv) ⇒ (iii) ist trivial (setze n = 2) und die Implikation (iii) =⇒ (ii) ist unter Beachtung der Rechenregeln 1 und 3 für Moduln klar (s. Lemma 3.5, setze zunächst r = 1R , s = −1R und dann s = 0R ), Bemerkungen, Beispiele 3.9. 1. Der Nullmodul (s. Bemerkung 3.6.3) ist Untermodul jedes Links-, Rechts- bzw. Bimoduls. Der Nulluntermodul eines Ringes R wird auch als Nullideal von R bezeichnet. 2. Jeder Links-R-Modul M besitzt die trivialen Links-Untermoduln 0 und M . 3. Sei R ein Ring und I eine Menge. Für f ∈ RI sei suppf := {x | x ∈ I, f (x) 6= 0R } ⊆ I (Träger oder Support von f ). Wir setzen R(I) := {f | f ∈ RI , suppf endlich}. R(I) ist sowohl Links- als auch Rechts-R-Untermodul von RI und für endliches I gilt R[I) = RI . 4. Sei m ∈ Z. Die Menge Zm := {nm | n ∈ Z} ⊆ Z ist Ideal von Z. Offenbar gilt Zm = Z(−m), Z0 = 0 (Nullideal) und Z1 = Z. Nach Übungsaufgabe 22 hat jedes Ideal von Z die Gestalt Zm für ein eindeutig bestimmtes m ∈ N. 5. Unter Verwendung der Bezeichnungen von Lemma 3.8 nennt man einen Ausdruck der Form r1 u1 + . . . + rn un mit r1 , . . . , rn ∈ R, u1 , . . . , un ∈ U eine Links-Linearkombination der u1 , . . . , un (mit Koeffizienten aus R). Für eine Teilmenge X von M sei RX die Menge aller Links-Linearkombinationen jeweils endlich vieler Elemente aus X, d. h. RX := {r1 x1 + . . . + rn xn | n ∈ N, x1 , . . . , xn ∈ X, r1 , . . . , rn ∈ R}. Damit besagt Lemma 3.8 zum einen, daß ein Links-R-Untermodul U von M mit jeder Teilmenge X auch alle Links-Linearkombinationen jeweils endlich vieler Elemente von X enthält, d. h. RX ⊆ U . Da U natürlich auch abelsche 52 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Untergruppe von M und somit Z-Untermodul des Z-Moduls M ist, gilt auch X ⊆ ZX ⊆ U für jede Teilmenge X von U , d. h. wir haben X ⊆ RX + ZX ⊆ U . Aus Lemma 3.8 folgt weiter, daß RX + ZX für jede Teilmenge X von M bereits ein Links-R-Untermodul von M ist. Damit ist RX + ZX der bzgl. ⊆ kleinste Links-R-Untermodul von M , der X enthält. Besitzt R ein Einselement, so gilt natürlich ZX ⊆ RX, so daß RX für jede Teilmenge X von M ein Links-R-Untermodul von M ist. Er ist dann der bzgl. ⊆ kleinste Links-R-Untermodul von M , der X enthält. Entsprechendes gilt für Rechts-R-Moduln bzw. (R, S)-Bimoduln, S weiterer Ring. 6. Sind U, V Links-R-Untermoduln eines Links-R-Moduls M , so ist U ∪ V genau dann Links-R-Untermodul von M , wenn U ⊆ V oder V ⊆ U , d. h. Vereinigungen von Untermoduln sind i. a. keine Untermoduln (im Unterschied zu Durchschnitten und Summen, s. Folgerung 3.10). In Verallgemeinerung S hiervon gilt: Ist K eine Kette von Links-R-Untermoduln von M , so ist U ∈K U ebenfalls Links-R-Untermodul von M . (Kette heißt ”bzgl. ⊆ vollständig geordnete Teilmenge”, d. h. für alle U, V ∈ K gilt entweder U ⊆ V oder V ⊆ U , s. Definition A.13(b).) Seien U1 , U2 Links-R-Untermoduln eines Links-R-Moduls M . Wir setzen U1 + U2 := {u1 + u2 | u1 ∈ U, u2 ∈ U2 }. Dies läßt sich leicht verallgemeinern: Sei I eine Menge und Uι , ι ∈ I, eine Familie von Links-R-Untermoduln von M . Dann setzen wir ( ) X X Uι := uι | uι ∈ Uι für alle ι ∈ I und uι = 0 für fast alle ι ∈ I . ι∈I ι∈I Folgerung 3.10 (aus Lemma 3.8). Sei M ein Links-R-Modul, I eine Menge und Uι , ι ∈ I, eine Familie von Links-R-Untermoduln von M . Dann sind \ X Uι und Uι ι∈I ι∈I T S P Linksuntermoduln von M mit ι∈I Uι ⊆ Uλ ⊆ ι∈I Uι ⊆ ι∈I Uι für alle λ ∈ I. P S Dabei ist ι∈I Uι der bzgl. ⊆ kleinste Links-R-Untermodul von M , der ι∈I Uι enthält. 3.2. MODULN 53 Definition 3.11. Seien R ein Ring, M ein Links-R-Modul und X Teilmenge von M . Ein Links-R-Untermodul U von M heißt maximal (in Bezug auf X), wenn (U ∩ X = ∅), U 6= M und für alle Links-R-Untermoduln V von M mit (V ∩ X = ∅,) U ⊆ V und V 6= M gilt V = U . Entsprechend sind maximale Rechts- bzw. Bimoduln (in Bezug auf eine Teilmenge X) eines gegebenen Rechts- bzw. Bimoduls sowie maximale Links-, Rechts- bzw. zweiseitige Ideale von R (in Bezug auf eine Teilmenge X von R) definiert. Lemma 3.12. Sei R ein Ring und M ein Links-R-Modul (Rechts-R-Modul, (R, S)-Bimodul mit einem weiteren Ring S). (1) Für jede Teilmenge X von M mit X 6= ∅ und 0M 6∈ X besitzt M einen in Bezug auf X maximalen Links-R-Untermodul (Rechts-R-Untermodul, (R, S)Biuntermodul). (2) Hat R ein Einselement 1R 6= 0R , so besitzt R maximale Linksideale (Rechtsideale, zweiseitige Ideale). Beweis. (1) Sei U die Menge aller Links-R-Untermoduln U von M mit U ∩X = ∅. Wegen 0M 6∈ X gilt 0 ∈ U, d.Sh. U = 6 ∅. Sei K ⊆ U Kette (bzgl. ”⊆”). Da U ∩ X = ∅ für alle U ∈ K, gilt U ∈K U ∈ U und nach dem Zornschen Lemma (s. Bemerkung A.16.2) besitzt U maximale Elemente. Sei U0 ein solches. Wegen X 6= ∅ und U0 ∩ X = ∅ gilt U0 6= M . Entsprechend verfährt man für Rechts- bzw. Bimoduln, so daß (1) gezeigt ist. (2) folgt aus (1), da ein Linksideal (Rechtsideal, zweiseitiges Ideal) von R genau dann maximal ist, wenn es maximal in Bezug auf {1R } ist, Wir kommen nun zu einem wichtigen Konstruktionsprinzip für Moduln, den sogenannten Restklassenmoduln. Dazu greifen wir wesentlich auf die Ausführungen in Anhang A, Abschnitt A.4.3 zurück. Definition 3.13. Sei (M ; +) eine abelsche Gruppe und (U ; +) Untergruppe von M . Wir definieren eine Relation ≡U auf M , indem wir für alle m, m0 ∈ M setzen : m ≡U m0 ⇐⇒ m − m0 ∈ U. ≡U heißt Kongruenz modulo (oder auch bzgl.) U auf M . Hierfür gilt nun: Lemma 3.14. Sei R ein Ring und U Links-R-Untermodul eines Links-R-Moduls M. (1) ≡U ist Äquivalenzrelation auf M . 54 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (2) Für alle m, m0 , n, n0 ∈ M und alle r ∈ R gilt: Wenn m ≡U m0 und n ≡U n0 , so folgt m + n ≡U m0 + n0 und rm ≡U rm0 . (3) Ist I zweiseitiges Ideal von R und gilt r ≡I r0 und s ≡I s0 für r, r0 , s, s0 ∈ R, so folgt rs ≡I r0 s0 . (4) Sei K Äquivalenzklasse von M bzgl. ≡U . Dann gilt für alle m ∈ K K = m + U := {m + u | u ∈ U } . Beweis. (1) Seien m, m0 , n, n0 , p ∈ M und r ∈ R. Dann gilt: • m ≡U m, da m − m = 0M ∈ U . • Aus m ≡U n, d. h. m − n ∈ U , folgt n − m = −(m − n) ∈ U , also n ≡U m. • Aus m ≡U n und n ≡U p, d. h. m − n, n − p ∈ U , folgt m − p = m − n + n − p ∈ U , also m ≡U p. Damit ist ≡U Äquivalenzrelation. (2) Wenn für m, m0 , n, n0 ∈ M gilt m ≡U m0 und n ≡U n0 , d. h. m−m0 , n−n0 ∈ U , so folgt m+n−(m0 +n0 ) = m−m0 +n−n0 ∈ U und rm−rm0 = r(m−m0 ) ∈ U , also m + n ≡U m0 + n0 und rm ≡U rm0 . (3) Aus r ≡I r0 und s ≡I s0 , d. h. r − r0 , s − s0 ∈ I, folgt rs − r0 s0 = r(s − s0 ) + (r − r0 )s0 ∈ I, also rs ≡I r0 s0 . (4) Sei K ∈ M/U und sei m ∈ K. Da für alle m0 ∈ K gilt m0 − m ∈ U , folgt m0 ∈ {m + u | u ∈ U } = m + U , d. h. wir haben K ⊆ m + U . Ist umgekehrt m0 ∈ m + U , sagen wir, m0 = m + u mit u ∈ U , so folgt m0 − m = u ∈ U , d. h. m0 ≡U m. Somit gilt aber m0 ∈ K und wir haben daher m + U ⊆ K, zusammengenommen also K = m + U , Definition 3.15. Sei R ein Ring und U Links-R-Untermodul eines Links-RModuls M . Die Menge der Äquivalenzklassen bezüglich ≡U bezeichnen wir mit M/U (sprich: M modulo (oder nach) U ), d. h. M/U = {m + U | m ∈ M }. Die Elemente von M/U heißen Restklassen von M modulo (oder nach) U . Ein Element einer solchen Klasse wird Repräsentant dieser Klasse genannt. (Ist m ein Repräsentant einer Restklasse K von M modulo U , so gilt K = m + U , s. Lemma 3.14(4).) Damit haben wir: 3.2. MODULN 55 Lemma 3.16. Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M und I zweiseitiges Ideal von R. (1) Sind m, m0 , n, n0 ∈ M mit m + U = m0 + U , n + U = n0 + U und ist r ∈ R, so folgt m + n + U = m0 + n0 + U und rm + U = rm0 + U . (2) Sind r, r0 , s, s0 ∈ R mit r + I = r0 + I, s + I = s0 + I, so folgt rs + I = r0 s0 + I. (3) Durch (m + U ) + (n + U ) := (m + n) + U (m, n ∈ M ) und r(m + U ) := (rm) + U (m ∈ M, r ∈ R) sind eine zweistellige Operation auf M/U und eine Operation von R auf M/U erklärt, bezüglich derer M/U ein Links-R-Modul ist. Sein Nullelement ist 0M + U = U (d. h. 0M/U = U ) und es gilt −(m + U ) = −m + U für alle m ∈ M. (4) Durch (r + I) · (s + I) := rs + I (r, s ∈ R) ist eine zweistellige Operation auf R/I definiert. Damit ist (R/I; +, ·) ein Ring. Er ist kommutativ, wenn R kommutativ ist und besitzt ein Einselement, wenn R eines besitzt (nämlich 1R/I = 1R + I). Bemerkung 3.17. Man sagt, die in Lemma 3.16(3),(4) eingeführten Operationen auf M/U , von R auf M/U bzw. auf R/I seien repräsentantenweise definiert. Hieraus ergibt sich sofort, daß Assioziatvität, Distributivität (einschließlich der entsprechenden Eigenschaften für Moduln) und ggf. Kommutativität gelten. Beweis. (1) ergibt sich sofort aus Lemma 3.14(1),(2) und (4), da demnach m + U = m0 + U , n + U = n0 + U genau dann gilt, wenn m ≡U m0 , n ≡U n0 . (2) ergibt sich entsprechend aus Lemma 3.14(3). (3) Seien K, L ∈ M/U . Wir wählen m ∈ K, n ∈ L mit K = m+U , L = n+U . Da dann m+n+U, rm+U ∈ M/U nach (1) unabhängig von der Wahl von m ∈ K und n ∈ L sind, sind K + L := m + n + U sowie rK := rm + U eindeutig durch K und L sowie K und r festgelegt (repräsentantenunabhängig oder wohldefiniert, wie man sagt). Nach obiger Bemerkung 3.17 ist ”+” damit assoziative und kommutative Operation auf M/U und R operiert von links auf M/U . Da für alle m ∈ M gilt (m + U ) + U = (m + U ) + (0M + U ) = m + U und (m + U ) + (−m + U ) = m − m + U = U , ist U neutrales Element von (M/U ; +) und für alle m ∈ M ist m + U invertierbar in (M/U ; +) mit −(m + U ) = −m + U , so daß (M/U ; +) eine 56 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE abelsche Gruppe ist. Damit ist M/U aber auch bereits ein Links-R-Modul, denn besitzt R ein Einselement, so gilt 1R (m + U ) = 1R m + U = m + U . (4) Nach (2) ist ”·” wohldefiniert und damit bildet (R/I; +, ·) nach Bemerkung 3.17 einen Ring, welcher kommutativ ist, wenn R es ist. Besitzt R ein Einselement, so ist 1R + I Einselement von R/I, Beispiel 3.18. Sei R = M = Z. Die Untermoduln von Z sind die Ideale von Z und jedes Ideal I von Z hat nach Übungsaufgabe 22 die Gestalt Zm für ein eindeutig bestimmtes m ∈ N. Für a, b ∈ Z gilt offensichtlich a ≡I b ⇐⇒ a − b ∈ I ⇐⇒ m | a − b ⇐⇒ a ≡ b mod m. Die Restklassen modulo I sind dann die Mengen a + I = {a + nm | n ∈ Z} ⊆ Z, mit a ∈ Z. Für m = 0, also I = 0 (Nullidelal), erhalten wir daher als Restklassen die Mengen {a}, a ∈ Z, also die einelementigen Teilmengen von Z. Sei m ≥ 1 und sei a ∈ Z. Wir dividieren a mit Rest durch Z (s. Übungsaufgabe 3), d. h. wir bestimmen q, r ∈ Z mit 0 ≤ r < m und a = qm + r. Da somit a − r = qm ∈ I, gilt a ≡I r und somit a + I = r + I, d. h. die Restklassen modulo I sind die Mengem I, 1 + I, . . . , m − 1 + I. Identifizieren wir im Fall m = 0 die einelementige Menge {a} ⊂ Z mit a ∈ Z und im Fall m ≥ 1 für r = 0, . . . , m − 1 die Restklasse r + I ⊆ Z mit r ∈ Z, so gilt mit den Bezeichnungen von Übungsaufgabe W6 Z/Zm = Lm . Man bestätigt sofort, daß damit die Ringstruktur von Lm (s. Übungsaufgabe W6) mit der in Lemma 3.16(4) gegebenen Ringstruktur von Z/Zm übereinstimmt. Sei R ein Ring, U Links-R-Untermodul eines Links-R-Moduls M und I zweiseitiges Ideal von R. Wir wollen nun abschließend die Links-R-Untermoduln von M/U bzw. die Ideale von R/I bestimmen. Sei hierzu V ein Links-R-Untermoduln von M mit U ⊆ V . Dann haben wir V /U = {v + U | v ∈ V } ⊆ {m + U | m ∈ M } = M/U und nach dem Untermodulkriterium (s. Lemma 3.8) ist klar, daß V /U Links-R-Untermodul von M/U ist. Mit diesen Bezeichnungen haben wir sogar: Satz 3.19. (1) Durch V 7→ V /U , V Links-R-Untermodul von M mit U ⊆ V , ist eine inklusionserhaltende bijektive Abbildung Φ : {V | V Links-R-Untermodul von M mit U ⊆ V } → → {V | V Links-R-Untermodul von M/U } 3.2. MODULN 57 gegeben. (2) Durch J 7→ J/I, J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J, ist eine inklusionserhaltende bijektive Abbildung Ψ : {J | J Links- (Rechts-, zweiseitiges) Ideal von R mit I ⊆ J} → → {J | J Links- (Rechts-, zweiseitiges) Ideal von R/I} gegeben. Beweis. (1) Wie wir oben bereits gesehen haben, ist V /U = Φ(V ) Links-RUntermodul von M/U für jeden Links-R-Untermodul V von M mit U ⊆ V . Wir zeigen zunächst: Seien V, W Links-R-Untermoduln von M mit U ⊆ V, W . Dann gilt V /U ⊆ W/U genau dann, wenn V ⊆ W . Begründung. Wenn V ⊆ W , so folgt mit dem oben Gezeigten, daß V /U ⊆ W/U . Gelte nun umgekehrt V /U ⊆ W/U . Dann gibt es für jedes v ∈ V ein w ∈ W mit v + U = w + U . Da v = v + 0M ∈ v + U = w + U , gibt es somit für jedes v ∈ V ein w ∈ W und ein u ∈ U mit v = w + u, d. h. es gilt v = u + w ∈ U + W = W und damit folgt V ⊆ W wie behauptet. Hieraus folgt zum einen, daß Φ inklusionserhaltend ist. Zum anderen ergibt sich die Injektivität von Φ: Wenn für Links-R-Untermoduln V, W von M mit U ⊆ V, W gilt Φ(V ) = Φ(W ), also V /U = W/U , so folgt V = W . Damit ist nur noch die Surjektivität von Φ zu zeigen. Sei hierzu V ein LinksR-Untermodul von M/U . Wir setzen V := {m ∈ M | m + U ∈ V}. Dann gilt zunächst definitionsgemäß {v + U | v ∈ V } = V. Wegen U = 0M/U ∈ V folgt u + U = U ∈ V für alle u ∈ U , also U ⊆ V und insbesondere V 6= ∅. Seien nun v, v 0 ∈ V und sei r ∈ R. Da somit v + U, v 0 + U ∈ V, gilt v − v 0 + U = (v + U ) − (v 0 + U ) ∈ V und rv + U = r(v + U ) ∈ V, also v − v 0 , rv ∈ V . Nach dem Untermodulkriterium (s. Lemma 3.8) ist V damit ein Links-R-Untermodul von M und es gilt V = V /U = Φ(V ), d. h. Φ ist surjektiv. (2) folgt unmittelbar aus (1), da die Links- (Rechts-, zweiseitigen) Ideale von R genau die Links-R-Untermoduln (Rechts-R-Untermoduln, (R, R)-Biuntermoduln) von R sind, Als wichtige Anwendung geben wir das folgende Resultat: Lemma 3.20. Sei R ein kommutativer Ring mit Einselement 1R 6= 0R . (1) R ist Körper genau dann, wenn 0 und R die einzigen Ideale von R sind. (2) Ein Ideal I von R ist maximal genau dann, wenn R/I ein Körper ist. 58 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) Sei R ein Körper und sei J Ideal von R. Wenn J 6= 0, so wähle x ∈ J \ {0R }. Da 1R = x−1 x ∈ J, gilt J = R. Seien umgekehrt 0 und R die einzigen Ideale von R und sei x ∈ R, x 6= 0R . Da Rx 6= 0, gilt Rx = R und folglich gibt es ein y ∈ R mit xy = yx = 1R . Somit gilt x ∈ R∗ , d. h. R ist ein Körper. (2) Nach Lemma 3.19(2) ist I maximal genau dann, wenn I/I = 0 und R/I die einzigen Ideale von R/I sind. Die Behauptung folgt damit aus (1), 3.3 Erzeugendensysteme und Basen Mit Bemerkung 3.9.5 können wir definieren Definition 3.21. Sei R ein Ring und M ein Links-R-Modul. (a) Sei X ⊆ M . Der Durchschnitt U (X) aller Links-R-Untermoduln V von M mit X ⊆ V ist ein Links-R-Untermodul von M . U (X) ist der bezüglich ⊆ kleinste Links-R-Untermodul von M , der X enthält und heißt von X erzeugter Links-R-Untermodul von M . Es gilt U (X) = RX + ZX. Ist R Ring mit Einselement, so haben wir sogar U (X) = RX. (b) Eine Teilmenge X von M heißt Erzeugendensystem von M , wenn M = U (X). (c) M heißt endlich erzeugt, wenn M = U (X) für eine endliche Teilmenge X ⊆ M. (d) Ist M endlich erzeugt, so heißt die Zahl µR (M ) := min{n | n ∈ N, n = ]X, M = U (X)} minimale Erzeugendenzahl von M . (e) M heißt zyklisch, wenn M = U (x) für ein x ∈ M (statt U ({x}) schreiben wir kurz U (x)), d. h. wenn µR (M ) ≤ 1. Bemerkungen 3.22. Sei R ein Ring, M ein Links-R-Modul und X, Y ⊆ M . 1. Es gilt U (X∪Y ) = U (X)+U (Y ), denn wegen U (X), U (Y ) ⊆ U (X∪Y ) folgt U (X) + U (Y ) ⊆ U (X ∪ Y ) und X ∪ Y ⊆ U (X) + U (Y ) liefert U (X ∪ Y ) ⊆ U (X) + U (Y ). 3.3. ERZEUGENDENSYSTEME UND BASEN 59 2. Ist E Erzeugendensystem von M und gilt E = X ∪ Y , so ist Ȳ := {y + U (X) | y ∈ Y } ⊆ M/U (X) Erzeugendensystem von M/U (X), wenn U (X) wieder den von X erzeugten Links-R-Untermodul von M bezeichnet. Für jedes m ∈ M gibt es nämlich x1 , . . . , xn ∈ X, y1 , . . . , ym ∈ Y , r1 , . . . , rn , s1 , . . . , sm ∈ R ∪ Z mit m = r1 x1 + . . . + rn xn + s1 y1 + . . . + sm ym . Dann folgt aber wegen x1 , . . . , xn ∈ X ⊆ U , also x̄1 , . . . , x̄n = 0M/U : m̄ = r1 x̄1 + . . . + rn x̄n + s1 ȳ1 + . . . + sm ȳm = s1 ȳ1 + . . . + sm ȳm ∈ RȲ + ZȲ , wenn wir für m ∈ M setzen m̄ := m + U (X). Somit gilt M/U (X) ⊆ RȲ + ZȲ und damit natürlich M/U (X) = RȲ + ZȲ , d. h. Ȳ ist in der Tat Erzeugendensystem von M/U (X). Wir kommen nun zu einem zentralen Begriff der Mathematik, der linearen Abhängigkeit bzw. linearen Unabhängigkeit. Zur Erläuterung betrachten wir die folgende Situation. Seien a, b1 , b2 ∈ R2 gegeben durch a = (1, 2), b1 = (2, 4) und b2 = (3, −1). Zwischen den Vektorpaaren a, b1 und a, b2 besteht ein wesentlicher Unterschied: Im Gegensatz zu b2 ist b1 ist Vielfaches von a. Genauer gesagt gilt b1 = 2a oder, anders geschrieben (−2)a + b1 = 0 (= (0, 0)). Zwischen a und b2 besteht jedoch keine derartige Beziehung, wie man sofort nachrechnet. Das hat weitreichende Konsequenzen: Während man jedes Element (x, y) ∈ R2 als Linearkombination von a und b2 darstellen kann, ist das bei Verwendung von a und b1 nicht möglich. Wir sagen, a, b1 sind linear abhängig, während a, b2 linear unabhängig genannt werden. Dies wollen wir nun verallgemeinern. Hierzu werden wir generell folgendes voraussetzen: Alle nun betrachteten Ringe besitzen ein vom Nullelement verschiedenes Einselement. Definition 3.23. Sei R ein Ring und M ein Links-R-Modul. (a) m1 , . . . , mp ∈ M heißen linear abhängig über R, wenn es r1 , . . . , rp ∈ R gibt, die nicht alle gleich 0R sind, so daß r1 m1 + . . . + rp mp = 0M . Ist das nicht der Fall, d. h. folgt aus r1 m1 +. . .+rp mp = 0M mit r1 , . . . , rp ∈ R stets r1 = . . . = rp = 0R , so heißen m1 , . . . , mp linear unabhängig über R. (b) Eine Teilmenge X von M heißt linear abhängig über R, wenn es paarweise verschiedene x1 , . . . , xp ∈ X gibt, die linear abhängig über R sind. 60 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Ansonsten, d. h. wenn je endlich viele paarweise verschiedene Elemente von X linear unabhängig über R sind, heißt X linear unabhängig über R. (c) M heißt frei über R oder freier R-Modul, wenn M ein über R linear unabhängiges Erzeugendensystem besitzt. (d) Ist M frei über R, so heißt ein über R linear unabhängiges Erzeugendensystem von M R-Basis (manchmal auch freie R-Basis) von M . Der Zusatz ”über R” oder ”R-” wird weggelassen, wenn sich aus dem Kontext ergibt, welcher Ring zugrunde liegt. Bemerkungen, Beispiele 3.24. Sei R ein Ring und M ein Links-R-Modul. 1. Sei X Teilmenge von M . Ist X linear unabhängig, so ist auch jede Teilmenge von X linear unabhängig. Enthält X eine linear abhängige Teilmenge, so ist auch X linear abhängig. Die leere Menge ist stets linear unabhängig. Damit ist der Nullmodul frei, denn er wird von der leeren Menge erzeugt. 2. Wenn • für m1 , . . . , mp ∈ M gilt mi = mj für 1 ≤ i < j ≤ p, so sind m1 , . . . , mp linear abhängig, da dann r1 m1 + . . . + rp mp = 0M mit falls l=i 1R −1R falls l=j , l = 1, . . . , p rl := 0R sonst d. h. 1R mi + (−1R ) mj = 0M und 1R 6= 0R . • 0M ∈ X für X ⊆ M , so ist X linear abhängig, denn 1R 0M = 0M und 1R 6= 0R . Sind also m1 , . . . , mp ∈ M linear unabhängig, so sind sie paarweise verschieden und von 0M verschieden. 3. Ob m1 , . . . , mp ∈ M linear abhängig oder linear unabhägig sind, hängt nicht ab von der Reihenfolge der m1 , . . . , mp . 4. Sei R = K ein Körper und M = K m mit m ∈ N+ . Weiter seien a1 , . . . , an ∈ K m mit n ∈ N+ gegeben. Um zu überprüfen, ob a1 , . . . , an linear abhängig (bzw. linear unabhängig) sind, kann man wie folgt vorgehen: Sei A ∈ K m,n diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn . Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das homogene lineare Gleichungssystem AXT = 0 eine nichttriviale Lösung besitzt (nur die triviale Lösung besitzt), denn für α1 , . . . , αn ∈ K gilt A(α1 , . . . , αn )T = 0 genau dann, wenn α1 a1 +. . .+αn an = 0. Da zur Bestimmung der Lösungsmenge von AXT = 0 nach Lemma 2.38 genau n − rang A 3.3. ERZEUGENDENSYSTEME UND BASEN 61 Unbestimmte frei gewählt werden können, ist dies äquivalent zu rang A < n (rang A = n). 5. {1R } ist Basis von R als Links- und als Rechts-R-Modul. Damit ist R freier zyklischer Modul über sich selbst. Allgemeiner haben wir: Lemma 3.25. Sei R ein Ring und n ∈ N. Dann ist Rn frei und zwar sowohl als Links- als auch als Rechts-R-Modul. Ist n ≥ 1, so ist {en1 , . . . , enn } Basis von Rn , wenn en1 := (1R , 0R , 0R , . . . , 0R ), en2 := (0R , 1R , 0R , . . . , 0R ), . . . , enn := (0R , . . . , 0R , 1R ). Beweis. Für n = 0 ist Rn der Nullmodul und dieser ist frei. Für n > 0 wird Rn als Links- und auch als Rechts-R-Modul erzeugt von {en1 , . . . , enn }, denn für (x1 , . . . , xn ) ∈ Rn gilt (x1 , . . . , xn ) = x1 en1 + . . . + xn enn ∈ R{en1 , . . . , enn } und (x1 , . . . , xn ) = en1 x1 +. . .+enn xn ∈ {en1 , . . . , enn }R. Andererseits sind en1 , . . . , enn linear unabhänig, denn aus x1 en1 + . . . + xn enn = 0 bzw. en1 x1 + . . . + enn xn = 0 folgt (trivialerweise) x1 = . . . = xn = 0. Damit ist {en1 , . . . , enn } Basis von Rn als Links- und als Rechts-R-Modul, Bemerkung 3.26. Für n ∈ N+ nennt man die Basis {en1 , . . . , enn } des Rn oft kanonische Basis von Rn . Satz 3.27. Sei R ein Ring. Dann gilt: (1) Eine Teilmenge X eines Links-R-Moduls M ist Basis von M genau dann, wenn es für jedes m ∈ M eindeutig bestimmte Elemente rm,x ∈ R, x ∈ X, gibt, so daß • rm,x = 0R für fast alle x ∈ X und P • m = x∈X rm,x x, d. h. P für jedes m ∈ M gibt es ein eindeutig bestimmtes ρm ∈ R(X) mit m = x∈X ρm (x)x, s. Beispiel 3.9.3. (2) Jede Basis X eines freien Links-R-Moduls M ist maximale linear unabhängige Teilmenge von M (d. h. X ∪ {y} ist linear abhängig für alle y ∈ M \ X) und minimales Erzeugendensystem von M (d. h. für alle x ∈ X ist X \ {x} kein Erzeugendensystem von M ). (3) Sei R ein Körper und V ein R-Vektorraum. Für eine Teilmenge X von V sind äquivalent: (i) X ist Basis von V (ii) X ist maximale linear unabhängige Teilmenge von V (iii) X ist minimales Erzeugendensystem von V . 62 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Beweis. (1) Sei X Basis von M . Da X insbesondere Erzeugendensystem von M ist, gibt es für jedes m ∈ M Elemente x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R mit m = r1 x1 + . . . + rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp paarweise verschieden sind. Wir setzen nun für alle x ∈ X ri falls x = xi für ein i, 1 ≤ i ≤ p rm,x := 0R falls x 6∈ {x1 , . . . xp } P Dann gilt offensichtlich m = x∈X rm,x x und wir müssen nur noch die Eindeutigkeit der Darstellung nachweisen. P P 0 Sei hierzu m ∈ M und seien m = x∈X rm,x x sowie m = x∈X rm,x x Darstellungen von m mit den geforderten Eigenschaften. Sei Y := {x | x ∈ 0 6= 0R }. Y ist endliche Teilmenge von X, sagen wir, X, rm,x 6= 0R oder rm,x Y = {x1 , . . . , xp } mit p := ]Y ∈ N und paarweise verschiedenen x1 , . . . , xp . 0 . Dann gilt Für jedes i = 1, . . . p sei ri := rm,xi − rm,x i r1 x1 + . . . + rp xp = X x∈X rm,x x − X 0 rm,x x = m − m = 0M . x∈X Da X linear unabhängig ist, folgt hieraus r1 = . . . = rp = 0R , d. h. wir haben 0 0 rm,x − rm,x = 0R für alle x ∈ Y und damit rm,x = rm,x für alle x ∈ X. Wir bemerken, daß damit für jedes m ∈ M P durch x 7→ rm,x P, x ∈ X, ein (X) Element ρm ∈ R definiert ist und daß m = x∈X rm,x x = x∈X ρm (x)x. Sei nun X keine Basis von M . Dann ist X entweder kein Erzeugendensystem von M oder X ist linear abhängig. Im ersten Fall ist klar, daß nicht für alle m ∈ M Elemente rm,x , x ∈ X, mit den geforderten Eigenschaften existieren. Im zweiten Fall gibt es für m = 0M neben der trivialen Darstellung als Linearkombination von Elementen aus X mindestens eine weitere, so daß die geforderte Eindeutigkeit nicht gegeben ist (”trivial” heißt, daß alle Koeffizienten gleich 0R sind). (2) Sei y ∈ M \ X. Da X Basis und somit Erzeugendensystem von M ist, gibt es x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R mit y = r1 x1 + . . . rp xp . O. B. d. A. dürfen wir wieder annehmen, daß x1 , . . . , xp paarweise verschieden sind. Dann sind wegen y 6∈ X auch y, x1 , . . . , xp paarweise verschieden und wir haben (−1R )y + r1 x1 + . . . + rp xp = 0M , d. h. y, x1 , . . . , xp sind linear abhängig und damit ist X ∪{y} linear abhängig. Sei x ∈ X. Angenommen, Y := X \ {x} ist auch noch Erzeugendensystem von M . Dann gibt es x1 , . . . , xp ∈ X \ {x} und r1 , . . . , rp ∈ R mit x = r1 x1 + . . . rp xp . O. B. d. A. dürfen wir annehmen, daß x1 , . . . , xp paarweise 3.3. ERZEUGENDENSYSTEME UND BASEN 63 verschieden sind. Dann sind auch x, x1 , . . . , xp paarweise verschieden und wir haben (−1R )x + r1 x1 + . . . + rp xp = 0M im Widerspruch zur linearen Unabhängigkeit von X. Damit ist X minimales Erzeugendensystem von M . (3) Die Implikationen (i) ⇒ (ii) und (i) ⇒ (iii) ergeben sich aus (2). (ii) ⇒ (i): Es ist zu zeigen, daß X Erzeugendensystem von V ist. Sei hierzu W := RX der von X erzeugte Untervektorraum von V und sei v ∈ V . Wir müssen zeigen, daß v ∈ W . Dies ist sicher richtig, wenn v ∈ X. Sei also v 6∈ X. Dann ist X ∪ {v} linear abhängig, d. h. es gibt paarweise verschiedene x0 , . . . , xp ∈ X ∪ {v} und r0 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß r0 x0 + r1 x1 + . . . + rp xp = 0V . Da X linear unabhängig ist, muß gelten v ∈ {x0 , . . . , xp }. O. B. d. A. sei v = x0 . Wenn r0 = 0R , so hätten wir r1 x1 + . . . + rp xp = 0V im Widerspruch zur linearen Unabhängigkeit von X. Damit ist r0 6= 0R und wir erhalten mit ri0 := −r0−1 ri ∈ R, i = 1, . . . , p : v = r10 x1 + . . . + rp0 xp ∈ W. (iii) ⇒ (i): Es ist lediglich die lineare Unabhängigkeit von X zu zeigen. Angenommen, X wäre nicht linear unabhängig. Dann gibt es paarweise verschiedene x1 , . . . , xp ∈ X und r1 , . . . , rp ∈ R, die nicht alle gleich 0R sind, so daß r1 x1 + . . . + rp xp = 0V . O. B. d. A. gelte r1 6= 0R . Wie im Beweis der Implikation (ii) ⇒ (i) folgt dann, daß x1 ∈ R{x2 , . . . , xp } ⊆ RY mit Y := X \ {x1 }. Dann gilt aber V = RX = RY + Rx1 = RY , denn wegen x1 ∈ RY folgt Rx1 ⊆ RY . Damit wäre aber Y bereits Erzeugendensystem von V im Widerspruch zur Minimalität von X. Somit ist X linear unabhängig, also Basis von V , Die Äquivalenz (i) ⇔ (ii) in Satz 3.27(3) kann wie folgt verschärft werden: Folgerung 3.28. Sei K ein Körper und V ein K-Vektorraum. Eine Teilmenge X eines Erzeugendensystems E von V ist Basis von V genau dann, wenn X maximale linear unabhängige Teilmenge von E ist. Beweis. Ist X Basis von V mit X ⊆ E, so ist X maximale linear unabhägige Teilmenge von V nach Satz 3.27(3), also erst recht maximale linear unabhägige Teilmenge von E. 64 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Ist umgekehrt X maximale linear unabhägige Teilmenge von E, so sei W := KX der von X erzeugte Untervektorraum von V . Angenommen, E 6⊆ W , d. h. es gibt ein v ∈ E mit v 6∈ W . Völlig analog wie im Beweis von Satz 3.27(3), (ii) ⇒ (i) führt dies zu einem Widerspruch. Damit gilt E ⊆ W und folglich V = KE ⊆ W ⊆ V , also V = W , d. h. X ist Erzeugendensystem und damit Basis von V , Lemma 3.29. Sei R ein Ring, M ein Links-R-Modul und X ein Erzeugendensystem von M . Dann gilt: (1) Ist X unendlich, so enthält jedes Erzeugendensystem von M ein Erzeugendensystem Z von M mit ]Z ≤ ]X. (2) Ist X endlich, so enthält jedes Erzeugendensystem von M ein endliches Erzeugendensystem von M . Beweis. Sei Y weiteres Erzeugendensystem von M . Zu jedem x S ∈ X gibt es eine endliche Teilmenge E(x) 6= ∅ von Y mit x ∈ RE(x). Sei Z := x∈X E(x) ⊆ Y . Da dann x ∈ RE(x) ⊆ RZ für alle x ∈ X, folgt X ⊆ RZ, somit M = RX ⊆ RZ ⊆ RY = M , also RZ = M . Ist X endlich, so ist auch Z endlich nach Satz A.32(1). Ist X unendlich, so gilt ]Z ≤ ]X nach Satz A.33(2), Theorem 3.30. Sei R ein Ring und M ein freier Links-R-Modul. Dann gilt: (1) Sind X, Y Basen von M und ist X unendlich, so folgt ]Y = ]X. (2) Ist R kommutativ, so haben alle Basen von M die gleiche Kardinalzahl. Beweis. (1) Nach Lemma 3.29(1) enthält Y ein Erzeugendensystem Z von M mit #Z ≤ #X. Nach Satz 3.27(2) gilt Y = Z und damit ]Y ≤ ]X. Wäre Y endlich, so enthielte X nach Lemma 3.29(2) ein endliches Erzeugendensystem Z 0 von M , Widerspruch, denn aus Satz 3.27(2) würde folgen X = Z 0 . Daher ist Y unendlich und wir erhalten analog wie eben ]X ≤ ]Y . Nach dem Satz von Schröder-Bernstein folgt hieraus ]Y = ]X. (2) Mit (1) ist der Beweis nur noch für den Fall zu erbringen, daß M eine endliche Basis besitzt. Dann sind alle Basen von M endlich nach (1). Insbesondere ist M ein endlich erzeugter R-Modul, d. h. wir haben µR (M ) < ∞. Im Hinblick auf Folgerung 3.32 zeigen wir allgemeiner: Sei X Basis von M , sagen wir, X = {x1 , . . . , xm } mit m = ]X. Dann gilt m = µR (M ). Sei hierzu Y Erzeugendensystem von M mit ]Y = µR (M ), sagen wir Y = {y1 , . . . , yn }, n := µR (M ). Da auch X Erzeugendensystem von P M ist, gilt m ≥ n und für i = 1, . . . , m gibt es ri1 , . . . , rin ∈ R mit xi = nj=1 rij yj . Entsprechend gibt es für j = 1, . . . , n Elemente sj1 , . . . , sjm ∈ R mit yj = 3.3. ERZEUGENDENSYSTEME UND BASEN 65 Pn sjk xk . Durch Einsetzen in die vorhergehende Gleichung erhalten wir für i = 1, . . . , m k=1 xi = n X m X rij sjk xk = j=1 k=1 m n X X k=1 rij sjk xk . j=1 Wegen der linearen Unabhängigkeit von X folgt hieraus für i, k = 1, . . . , m n X 1R wenn i = k rij sjk = , 0R wenn i 6= k j=1 r11 . . . r1n s11 . . . s1m .. und B := .. .. . d. h. A · B = Em , wenn A := ... . . . rm1 . . . rmn sn1 . . . snm Om,m−n ∈ Rm,m und Dann gilt aberauch à · B̃ = Em , wenn à := A B B·A On,m−n m,m . B̃ := ∈ R . Wir bemerken, daß B̃ · à = Om−n,n Om−n,m−n Om−n,m Sei nun m ein maximales Ideal von R (s. Lemma 3.12). Mit A bzw. B bezeichnen wir diejenigen Matrizen in (R/m)m,m , die aus à bzw. B̃ entstehen, wenn man die jeweiligen Eintragungen durch ihre Restklassen modulo m ersetzt. Dann gilt ebenfalls A · B = Em und, da R/m nach Lemma 3.20(2) ein Körper ist, ergibt sich aus Folgerung 2.27, daß B · A = Em . Dies ist aber unmöglich, wenn m > n (da dann die letzten m − n Zeilen und Spalten von B · A Nulltupel wären). Somit gilt m = n wie behauptet, Damit können wir definieren: Definition 3.31. (a) Sei R ein kommutativer Ring und F ein freier R-Modul. Die Kardinalzahl einer (und damit jeder, s. Theorem 3.30(2)) Basis von F wird als R-Rang oder, falls Verwechslungen ausgeschlossen sind, auch nur als Rang von F bezeichnet, Schreibweise rangR F oder rang F . (b) Ist K ein Körper und V ein K-Vektorraum, so wird der K-Rang von V oft auch als K-Dimension oder nur Dimension von V bezeichnet, kurz dimK V oder dim V . Folgerung 3.32 (aus Theorem 3.30). Sei R ein kommutativer Ring. Dann gilt (1) rangR F = µR (F ) für jeden endlich erzeugten freien R-Modul F . (2) Für jedes n ∈ N ist Rn endlich erzeugter freier R-Modul mit rang Rn = n. Dies ergibt sich unmittelbar aus dem Beweis von Theorem 3.30(2) sowie aus Lemma 3.25. 66 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE 3.4 Vektorräume Wir wenden uns nun der genaueren Untersuchung von Vektorräumen zu. Lemma 3.33. Sei K ein Körper und V ein K-Vektorraum. Ferner sei E ein Erzeugendensystem von V und Y linear unabhängige Teilmenge von E. Dann gibt eine linear unabhängige Menge Z ⊆ E \ Y , so daß folgendes gilt: (1) Y ∪ Z ist Basis von V . (2) Ist U := KY der von Y erzeugte Untervektorraum von V , so ist Z̄ := {z + U | z ∈ Z} ⊆ V /U Basis von V /U . (3) Die durch z 7→ z + U gegebene Abbildung f : Z → Z̄ ist Bijektion und damit gilt ]Z̄ = ]Z. Beweis. Sei U := {X | Y ⊆ X ⊆ E, X linear unabhängig}. Wegen Y ∈ U ist U nicht leere undSbezüglich ⊆ teilweise geordnete Menge. Sei K eine Kette in U und sei X 0 := X∈K X. Sicherlich gilt Y ⊆ X 0 ⊆ E. Seien nun x1 , . . . xn paarweise verschiedene Elemente aus X 0S(n ∈ N+ ). Dann gibt es X1 , . . . , Xn ∈ K mit xi ∈ Xi , i = 1, . . . , n. Sei X := ni=1 Xi . Da K Kette ist, gilt X ∈ K und damit sind x1 , . . . , xn wegen x1 , . . . , xn ∈ X linear unabhängig. Somit ist X 0 linear unabhängig, d. h. X 0 ∈ U. Nach Lemma A.17 besitzt U damit maximale Elemente. Sei X0 ein solches. Da X0 somit eine maximale linear unabhängige Teilmenge von E ist, ist X0 Basis von V nach Folgerung 3.28. Setzen wir Z := X0 \ Y , so ist (1) gezeigt. Wir zeigen nun (2) und (3). Für m ∈ M sei m̄ := m + U . Seien z1 , . . . , zn paarweise verschiedene Elemente aus Z. Angenommen, für r1 , . . . , rn ∈ K gilt r1 z̄1 + . . . + rn z̄n = 0V /U . Dann folgt r1 z1 + . . . + rn zn ∈ U , d. h. es gibt y1 , . . . , ym ∈ Y und s1 , . . . , sm ∈ K mit r1 z1 + . . .+rn zn = s1 y1 +. . .+sm ym . O. B. d. A. dürfen wir voraussetzen, daß y1 , . . . , ym paarweise verschieden sind. Wegen Z ⊂ E\Y sind dann auch z1 , . . . , zn , y1 , . . . , ym paarweise verschieden und aus r1 z1 + . . . + rn zn − s1 y1 − . . . − sm ym = 0V folgt wegen der linearen Unabhängigkeit von Y ∪Z insbesondere r1 = . . . = rn = 0K , d. h. z̄1 , . . . , z̄n sind linear unabhängig. Da somit z̄1 , . . . , z̄n insbesondere paarweise verschieden sind, ist f injektiv und mithin bijektiv. (Es ist klar, daß f surjektiv ist.) Außerdem ist Z̄ linear unabhängig. Da Y ∪ Z Erzeugendensystem von V ist, ist Z̄ Erzeugendensystem von V /U (s. Bemerkung 3.22.2) und damit Basis von V /U , 3.4. VEKTORRÄUME 67 Folgerung 3.34. Sei K ein Körper. Jedes Erzeugendensystem eines K-Vektorraumes V enthält eine Basis von V . Insbesondere besitzt jeder K-Vektorraum eine Basis (ist also ein freier K-Modul) und je zwei Basen ein und desselben K-Vektorraumes haben die gleiche Mächtigkeit. Folgerung 3.35 (Basisergänzungssatz). Sei K ein Körper und V ein K-Vektorraum. Ist Y ⊂ V linear unabhängig, so gibt es eine linear unabhängige Menge Z ⊂ V \ Y , so daß Y ∪ Z Basis von V ist. Ist dabei E ein Erzeugendensystem von V mit Y ⊆ E, so kann Z ⊆ E \ Y gewählt werden. Folgerung 3.36 (Steinitzscher Austauschsatz). Sei K ein Körper und V ein K-Vektorraum. Sind B, C Basen von V , so gibt es zu jeder Teilmenge X von B eine Teilmenge Y von C mit ]X = ]Y , so daß (B \ X) ∪ Y wieder Basis von V ist. Beweis. (B \ X) ∪ C ist (trivialerweise) Erzeugendensystem von V , das die linear unabhängige Menge B \ X enthält. Nach Lemma 3.33(1) gibt es eine linear unabhängige Menge Y ⊆ ((B \ X) ∪ C) \ (B \ X) = C \ (B \ X), so daß (B \ X) ∪ Y Basis von V ist. Da natürlich auch (B \ X) ∪ X = B Basis von V ist, sind X̄ := {x + U | x ∈ X} und Ȳ := {y + U | y ∈ Y } nach Lemma 3.33(2) Basen von V /U , wenn U := K(B \ X) der von B \ X erzeugte Untervektorraum von V ist. Nach Theorem 3.30(2) und Lemma 3.33(3) gilt daher ]X = ]X̄ = ]Ȳ = ]Y , Wir wollen nun den Rangbegriff allgemeiner für beliebige Teilmengen eines Vektorraumes einführen. Hierzu zeigen wir zunächst: Lemma 3.37. Sei K ein Körper, V ein K-Vektorraum und X Teilmenge von V . Weiter sei U := KX der von X erzeugte Untervektorraum von V . Dann gilt: (1) Es gibt eine Basis Y von U mit Y ⊆ X. (2) Eine Teilmenge Y von X ist Basis von U genau dann, wenn Y maximale linear unabhängige Teilmenge von X ist. (3) Ist Y linear unabhängige Teilmenge von X, so gibt es eine maximale linear unabhängige Teilmenge von Z von X mit Y ⊆ Z. Insbesondere enthält X maximale linear unabhängige Teilmengen. (4) Je zwei maximale linear unabhängige Teilmengen von X sind gleichmächtig. Beweis. Laut Konstruktion ist X Erzeugendensystem von U . (1) Nach Folgerung 3.34 enthält X somit eine Basis von U . (2) ergibt sich damit unmittelbar aus Folgerung 3.28. (3) Nach Folgerung 3.35 gibt es Basis Z von U mit Y ⊆ Z ⊆ X und nach (2) ist Z maximale linear unabhängige Teilmenge von X. 68 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (4) Da nach (2) maximale linear unabhängige Teilmengen von X Basen von U sind, sind je zwei maximale linear unabhängige Teilmengen von X gleichmächtig nach Theorem 3.30(2), Für X = V liefert Lemma 3.37 bekannte Aussagen über Basen in Vektorräumen, denn maximale linear unabhängige Teilmengen von V sind Basen von V , s. Satz 3.27(3). Definitionsgemäß ist somit rangK V die Kardinalzahl einer (und damit jeder) maximalen linear unabhängigen Teilmenge von V . Diese Beobachtung stellt den Zusammenhang von Definition 3.31 zu der folgenden allgemeineren Definition her. Definition 3.38. Sei K ein Körper und V ein K-Vektorraum. Ist X Teilmenge von V , so bezeichnet man die Kardinalzahl einer (und damit jeder, s. Lemma 3.37(4)) maximalen linear unabhängigen Teilmenge von X als K-Rang von X oder, falls Verwechslungen ausgeschlossen sind, auch nur als Rang von X, Schreibweise rangK X oder rang X. Bemerkungen, Beispiele 3.39. 1. Sei V ein K-Vektorraum und X Erzeugendensystem von V . Nach Lemma 3.37(3) enthält X eine maximale linear unabhängige Teilmenge Y , die nach Lemma 3.37(2) Basis von V ist. Daher gilt rang V = ] Y = rang X ≤ ] X . 2. Folgerung 3.34 ist nicht richtig, wenn K kein Körper ist: Sei hierzu K = V := Z. Z ist freier Z-Modul (s. Bemerkung 3.24.5) und {2, 3} ist Erzeugendensystem von Z, denn für n ∈ Z gilt n = 2 · (−n) + 3 · n ∈ {2, 3}Z. {2, 3} ist aber keine Basis von Z, da (−3) · 2 + 2 · 3 = 0. {2, 3} enthält auch keine Basis und nicht einmal ein Erzeugendensystem von Z, da weder {2} noch {3} Erzeugendensystem von Z ist. Damit ist {2, 3} sogar minimales Erzeugendensystem von Z, d. h. auch Satz 3.27(3) ist nicht richtig, wenn K kein Körper ist. Es läßt sich sogar leicht zeigen, daß es für jedes µ ∈ N+ minimale Erzeugendensysteme von Z bestehend aus µ Elementen gibt. 3. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit n := rang V . Dann sind n + 1 Elemente von V stets linear abhängig. Dies ergibt sich sofort aus dem Basisergänzungssatz (Folgerung 3.35). Das ist übrigens auch richtig, wenn K lediglich ein kommutativer Ring ist. Dann gilt sogar: Ist M ein beliebiger endlich erzeugter K-Modul. Dann sind je n + 1 Elemente von M linear abhängig, wenn n := µK (M ). Der Beweis hierfür ist jedoch mit den jetzt zur Verfügung stehenden Mitteln nicht zu erbringen. 3.4. VEKTORRÄUME 69 4. Statt ”endlich erzeugter Vektorraum” sagt man mitunter auch noch ”endlichdimensionaler Vektorraum”. Lemma 3.40. Sei K ein Körper, V ein K-Vektorraum, U Untervektorraum von V und X, Y Teilmengen von V mit Y ⊆ X. (1) Es gilt rang Y ≤ rang X mit Gleichheit, wenn X ⊆ KY . (2) Wenn rang X < ∞, so sind die folgenden Bedingungen äquivalent (i) rang Y = rang X (ii) X ⊆ KY (iii) KY = KX. (3) Es gilt rang U ≤ rang V . (4) Ist V endlich erzeugt, so auch U und es gilt rang U = rang V genau dann, wenn U = V . Beweis. (1) Da jede maximale linear unabhängige Teilmenge von Y (s. Lemma 3.37(3)) linear unabhängige Teilmenge von X ist, gilt rangY ≤ rangX. Wenn X ⊆ KY , so folgt hieraus (s. Bemerkung 3.39.1) rang Y ≤ rang X ≤ rang KY = rang Y, also rang Y = rang X nach dem Satz von Schröder-Bernstein. (2) (i) ⇒ (iii): Wenn rangY = rangX < ∞, so ist jede maximale linear unabhängige Teilmenge Y 0 von Y bereits maximale linear unabhängige Teilmenge von X, denn sonst hätten wir (s. Folgerung A.31(1)) rang X > #Y 0 = rang Y = rang X, Widerspruch. Nach Lemma 3.37(2) ist Y 0 daher nicht nur Basis von KY , sondern auch von KX, so daß KX = KY 0 = KY . (iii) ⇒ (ii): Aus KX = KY folgt X ⊆ KX = KY . (ii) ⇒ (i) ergibt sich aus (1). (3) folgt aus (1). (4) Ist X endliches Erzeugendensystem von V , so gilt mit (3) und Bemerkung 3.39.1 zunächst rang U ≤ rang V = rang X ≤ #X < ∞, d. h. auch U ist endlich erzeugt. Wenn U = V , so ist klar, dass rang U = rangV . Wenn umgekehrt rang U = rang V , so wählen wir eine Basis B von U . Nach Folgerung 3.35 kann B zu einer Basis C von V ergänzt werden. Da nun #B = rang U = rang V = #C und rangV < ∞, sind B, C endlich und es folgt B = C (s. Folgerung A.31(1)), d. h. U = KB = KC = V , 70 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Satz 3.41 (Rang- oder Dimensionsformeln). Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und U, U 0 K-Untervektorräume von V . Dann gilt: (1) rang U + rang V /U = rang V (2) rang (U ∩ U 0 ) + rang (U + U 0 ) = rang U + rang U 0 . Beweis. Nach Lemma 3.40(4) sind mit V auch U , U 0 , U ∩ U 0 und U + U 0 endlich erzeugt. (1) In Lemma 3.33 setzen wir E = V und wählen für Y eine Basis von U . Mit den Bezeichnungen von Lemma 3.33 gilt dann rang U + rang V /U = = = = ]Y + ]Z̄ (Lemma 3.33(2)) ]Y + ]Z (Lemma 3.33(3)) ](Y ∪ Z) (Satz A.32(1b)) rang V (2) Sei A Basis von U ∩ U 0 . Nach Folgerung 3.35 können wir A durch linear unabhängige Mengen Z ⊆ U \ A bzw. Z 0 ⊆ U 0 \ A zu einer Basis B := A ∪ Z von U bzw. B 0 := A ∪ Z 0 von U 0 ergänzen. Dann gilt rang U = ]B bzw. rang U 0 = ]B 0 = ]A + ]Z 0 (s. Satz A.32(1b)), also folgt rang U + rang U 0 = ]B + (]A + ]Z 0 ) = ]A + (]B + ]Z 0 ). Wir bemerken, daß U + U 0 = KB + KB 0 = KA + KZ + KA + KZ 0 = K(A ∪ Z ∪ Z 0 ) = K(B ∪ Z 0 ), d. h. B ∪ Z 0 ist Erzeugendensystem von U + U 0 . Seien b1 , . . . , br paarweise verschiedene Elemente aus B und z10 , . . . , zs0 paarweise verschiedene Elemente aus Z 0 . Angenommen, es gilt β1 b1 + . . . + βr br + γ1 z10 + . . . + γs zs0 = 0V mit β1 , . . . , βr , γ1 , . . . , γs ∈ K. Dann folgt z 0 := γ1 z10 + . . . + γs zs0 ∈ U 0 und andererseits z 0 = −(β1 b1 + . . . + βr br ) ∈ KB = U , also z 0 ∈ U ∩ U 0 = KA. Daher gibt es a1 . . . , at ∈ A und α1 , . . . , αt ∈ K mit z 0 = α1 a1 + . . . αt at . O. B. d. A. dürfen wir voraussetzen, daß a1 . . . , at paarweise verschieden sind. Da A ∩ Z 0 = ∅, sind auch a1 . . . , at , z10 , . . . , zs0 paarweise verschieden. Wegen (−α1 )a1 + . . . + (−αt )at + γ1 z10 + . . . + γs zs0 = −(α1 a1 +. . .+αt at )+z 0 = 0V und der linearen Unabhängigkeit von B 0 = A∪Z 0 folgt hieraus γ1 = . . . = γs = 0K . Dies liefert aber β1 b1 + . . . + βr br = 0V und wegen der linearen Unabhängigkeit von B ergibt sich hieraus schließlich β1 = . . . = βr = 0K . Damit sind b1 , . . . , br , z10 , . . . , zs0 linear unabhängig und damit paarweise verschieden, d. h. es gilt B ∩ Z 0 = ∅ und B ∪ Z 0 ist linear unabhängig und somit Basis von U + U 0 . Damit haben wir (s. Satz A.32(1b)) rang (U + U 0 ) = ](B ∪ Z 0 ) = ]B + ]Z 0 , zusammen also rang U + rang U 0 = ]A + (]B + ]Z 0 ) = rang (U ∩ U 0 ) + rang (U + U 0 ), 3.4. VEKTORRÄUME 71 Alternativer Beweis: Sei V := (U + U 0 )/(U ∩ U 0 ), U := U/(U ∩ U 0 ) und U0 := U 0 /(U ∩ U 0 ). Dann gilt U + U0 = V, U ∩ U0 = (U ∩ U 0 )/(U ∩ U 0 ) = 0 und nach (1) rang (U ∩ U 0 ) + rang (U + U 0 ) − rang U − rang U 0 = rang V − rang U − rang U0 . O. B. d. A. dürfen wir daher annehmen, dass U + U 0 = V , U ∩ U 0 = 0 und haben zu zeigen, daß rang V = rang U + rang U 0 . Sei B := {b1 , . . . , bm }, m := rang U , Basis von U und C := {c1 , . . . , cn }, n := rangU 0 , Basis von U 0 . Angenommen β1 b1 +. . . βm bm +γ1 c1 +. . .+γn cn = 0 mit β1 , . . . , βm , γ1 , . . . , γn ∈ K. Da somit β1 b1 +. . . βm bm = −(γ1 c1 +. . .+γn cn ) ∈ U ∩U 0 = 0, folgt β1 = · · · = βm = γ1 = · · · = γn = 0K , d. h. b1 , . . . , bm , c1 , . . . , cn sind linear unabhängig, insbesondere folgt B ∩ C = ∅. Wegen V = U + U 0 = KB + KC = K(B ∪ C) ist B ∪ C linear unabhängiges Erzeugendensystem, also Basis von V , und wir erhalten rang V = #(B ∪ C) = #B + #C = rang U + rang U 0 Folgerung 3.42. Sei K ein Körper und seien X, Y endliche Teilmengen eines K-Vektorraumes V . Dann gilt rang (X ∪ Y ) ≤ rangX + rang Y ≤ rang X + ] Y. Beweis. Nach Lemma 3.40(1), Bemerkung 3.22.1 und Satz 3.41(2) gilt rang (X ∪ Y ) = rang K(X ∪ Y ) = rang (KX + KY ) ≤ rang KX + rang KY = rang X + rang Y ≤ rang X + ] Y, Satz 3.43. Sei K ein Körper und V ein endlich erzeugter K-Vektorraum mit d := rangV . Für Elemente v1 , . . . , vd ∈ V sind die folgenden Aussagen äquivalent: (i) {v1 , . . . , vd } ist Basis von V (ii) v1 , . . . , vd sind linear unabhängig (iii) v1 , . . . , vd erzeugen V . Beweis. Die Implikationen (i) =⇒ (ii) und (i) =⇒ (iii) sind klar. (ii) =⇒ (i): Sei B := {v1 , . . . , vd }. B ist linear unabhängig und ]B = d (s. Bemerkung 3.24.2). Nach Folgerung 3.35 kann B zu einer Basis C von V ergänzt werden. Da somit B ⊆ C und ]B = d = rang V = ]C, folgt B = C, s. Folgerung A.31(1) (C ist endlich). (iii) =⇒ (i): Nach Folgerung 3.34(2) enthält {v1 , . . . , vd } eine Basis C von V und daher gilt ]C = rang V = d ≥ ]{v1 , . . . , vd } ≥ ]C, d. h. wir haben ]C = ]{v1 , . . . , vd } und somit {v1 , . . . , vd } = C (s. Folgerung A.31(1)), 72 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Sei K ein Körper und seien a1 , . . . , an ∈ K m , m, n ∈ N. Wie geht man vor, wenn man überprüfen will, ob a1 , . . . , an linear abhängig (bzw. linear unabhängig) sind oder wenn man sogar den Rang von {a1 , . . . , an } bestimmen möchte? O. B. d. A. nehmen wir dabei an, daß m, n > 0, denn wenn m = 0, so ist K m der Nullvektorraum und wenn n = 0, so ist {a1 , . . . , an } leer, also linear unabhängig (s. Bemerkung 3.24.1). Eine erste Antwort liefert Bemerkung 3.24.4: Sei hierzu A ∈ K m,n diejenige Matrix, deren Spalten aT1 , . . . , aTn sind, d. h. A = aT1 , . . . , aTn . Dann sind a1 , . . . , an linear abhängig (unabhängig) genau dann, wenn das homogene lineare Gleichungssystem A · XT = 0 eine nichttriviale Lösung besitzt (nur die triviale Lösung besitzt) und dies wiederum ist äquivalent zu rang A < n (rang A = n). Damit kann die lineare Abhängigkeit bzw. Unabhängigkeit von a1 , . . . , an z. B. durch Anwendung des Gaußschen Algorithmus auf A überprüft werden. Auf diese Weise kann man aber sogar rang {a1 , . . . , an } bestimmen, wie Satz 3.44 zeigen wird. Damit ist auch die Brücke zur Rangdefinition von Matrizen geschlagen, s. Satz und Definition 2.37. Satz 3.44. Sei K ein Körper und seien a1 , . . . , an ∈ K m , wobei m, n ∈ N+ . Weiter sei A := (aT1 , . . . , aTn ) ∈ K m,n . Dann gilt: rang A = rang {a1 , . . . , an } = rang {b1 , . . . , bm }, wenn b1 , . . . , bm die Zeilen von A sind. Beweis. Sei S(A) := K{a, . . . an } ⊆ K m der von den Spalten von A erzeugte K-Untervektorraum des K m (mitunter als Spaltenraum von A bezeichnet) und Z(A) := K{b1 , . . . , bm } ⊆ K n der von den Zeilen von A erzeugte KUntervektorraum des K n (Zeilenraum von A). Wir zeigen zunächst: (a) S(A) = Z(AT ) und Z(A) = S(AT ). (b) Für B ∈ K n,p und C ∈ K q,m (p, q ∈ N+ ) gilt S(A · B) ⊆ S(A) mit Gleichheit, wenn B ∈ GlK (n) und Z(C · A) ⊆ Z(A) mit Gleichheit, wenn C ∈ GlK (m) . (c) Für P ∈ GlK (n) gilt S(P ) = Z(P ) = K n . Begründung: (a) ergibt sich sofort aus der Definition. Damit können wir uns bei den folgenden Aussagen z. B. auf die Spaltenräume beschränken. (b) die erste Aussage ist klar, da die Spalten von A · B Linearkombinationen der Spalten von A sind. 3.4. VEKTORRÄUME 73 Sei nun B ∈ GlK (n). Dann gilt S(A) = S(A · B · B −1 ) ⊆ S(A · B), also S(A · B) = S(A). (c) Wegen P −1 ∈ GlK (n) gilt nach (b) S(P ) = S(P · P −1 ) = S(En ) = K n , Nach Bemerkung 3.39.1 ist zu zeigen, daß rang S(A) = rang Z(A) = rang A. Da nach Satz und Definition 2.37(5) gilt rang A = rang AT , reicht es nach (a), rang S(A) = rang A nachzuweisen. Sei r := rang A. Dann gibt es P ∈ GlK (m), Q ∈ GlK (n) mit P · A · Q = Em,n;r (s. Satz und Definition 2.37(2)) und wir erhalten mit (c) und Bemerkung 3.39.1 rang S(A) = rang S(A · Q) = rang S(P −1 Em,n;r ) = rang {c1 , . . . , cr } = r , wenn P −1 =: (cT1 , . . . , cTm ) (man beachte, daß c1 , . . . , cm nach (c) und Satz 3.43 linear unabhängig sind und daß P −1 · Em,n;r = (cT1 , . . . , cTr , 0T , . . . , 0T ), Folgerung 3.45. Sei K ein Körper und seien A, K m,n , B ∈ K n,p , wobei m, n, p ∈ N+ . Dann gilt rangK A · B ≤ min{rangK A, rangK B} . Beweis. Aus dem Beweis von Satz 3.44 ergibt sich zusammen mit Lemma 3.40(3) rang A · B = rang S(A · B) ≤ rang S(A) = rang A und damit (s. auch Satz 2.37(5)) rang A · B = rang (A · B)T = rang B T · AT ≤ rang B T = rang B , zusammengenommen also rangK A · B ≤ min{rangK A, rangK B}, Folgerung 3.46. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N+ . A werde durch den Gaußschen Algorithmus in ein Matrix A0 ∈ K m,n in Trapezgestalt überführt. Dann sind insbesondere diejenigen Zeilen (Spalten) von A linear unabhängig, die bei den dabei erfolgten Zeilenvertauschungen (Spaltenvertauschungen) in die ersten r Zeilen (Spalten) von A0 übergehen, wobei r := rang A = rang A0 (s. Lemma 2.38). Beweis. Seien a1 , . . . , ak ∈ K n . Vertauscht man die Einträge dieser Tupel auf ein und dieselbe Weise, so ändert sich r := rang {a1 , . . . , ak } dadurch nicht, denn nach Satz 3.44 gilt r = rang C, wenn C := (aT1 , . . . , aTk ) ∈ K k,n , und der Rang von C ändert sich ebenfalls nach Satz 3.44 nicht, wenn man die Zeilen von C vertauscht. Angenommen, beim Gaußschen Algorithmus sind keine Zeilenvertauschungen erforderlich. Ist Vi für i ∈ {1, . . . , m} der von den ersten i Zeilen von A und Vi0 74 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE der von den ersten i Zeilen von A0 erzeugte K-Untervektorraum von K n , so gilt mit obiger Überlegung dann Vi = Vi0 , womit die Aussage hinsichtlich der Zeilen von A in diesem Fall gezeigt ist. Nehmen wir nun an, daß Zeilenvertauschungen erforderlich sind. Da für i, j, k, l ∈ {1, . . . , m} mit l < i < j, l < k und α ∈ K gilt Vmij ij kl Am (α) · Vm ij · Akl Ajl m (α) = m (α) · Vm il Am (α) · Vmij wenn k 6∈ {i, j} wenn k = i wenn k = j , kann man die notwendigen Zeilenvertauschungen zu Beginn ausführen, so daß die Aussage hinsichtlich der Zeilen von A auf obigen Spezialfall zurückgeführt und damit gezeigt ist. Wir zeigen nun die Aussage hinsichtlich der Spalten von A. Es ist zunächst klar, daß die ersten r Spalten von A0 linear unabhängig sind. Weiter gilt A0 = P · A · Q, wobei P ∈ GlK (m) Produkt von Adddtions- und Vertauschungsmatrizen und Q ∈ GlK (n) Produkt von Vertauschungsmatrizen ist. Somit folgt A = P −1 · A0 · Q−1 . Da P −1 invertierbar ist, sind die ersten r Spalten von P −1 A0 ebenfalls linear unabhängig, denn aus (P −1 · A0 ) · xT = O mit x := (α1 , . . . , αr , 0K , . . . , 0K ) ∈ K n folgt A0 · xT = O und damit α1 = . . . = αr = 0K . Folglich sind diejenigen Spalten von A linear unabhängig, die gemäß der Multiplikation mit Q−1 aus den ersten r Spalten von P −1 · A0 hervorgehen, also durch den Gaußschen Algorithmus in die ersten r Spalten von A0 überführt werden, Bemerkung 3.47. Sei K ein Körper und sei A ∈ K m,n , wobei m, n ∈ N. Nach Satz 3.44 ist der Rang von A gleich der Maximalzahl linear unabhängiger Zeilen von A und ebenso gleich der Maximalzahl linear unabhängiger Spalten von A. Mitunter bezeichnet man die beiden letztgenannten Zahlen als Zeilen- bzw. Spaltenrang von A. Diese beiden Zahlen stimmen also überein und sind gleich dem Rang von A. Mitunter beweist man die Übereinstimmung von Zeilen- und Spaltenrang einer Matrix unabhängig von den Überlegungen in Abschnitt 2.3 und definiert den Rang einer Matrix dann als ihren Zeilen- bzw. Spaltenrang. Seien a1 , . . . , an ∈ K m (K ein Körper, m, n ∈ N+ ) gegeben und sei U der von {a1 , . . . , an } erzeugte Untervektorraum von K m . Dann können wir z. B. die folgenden Fragestellungen behandeln: Problem 1: (a) Man berechne rang U = rang {a1 , . . . , an }. (b) Man bestimme eine Basis B ⊆ {a1 , . . . , an } von U . 3.4. VEKTORRÄUME 75 Lösung: Beide Fragen können simultan behandelt werden. Man betrachte hierzu diejenige Matrix A ∈ K n,m , deren Zeilen a1 , . . . , an sind (bzw. diejenige Matrix A ∈ K m,n , deren Spalten aT1 , . . . , aTn sind) und wende darauf den Gaußschen Algorithmus an. Entsteht hieraus die Matrix A0 , so gilt nach Folgerung 3.46: rang {a1 , . . . , an } = rang A = rang A0 = Anzahl der von O verschiedenen Zeilen von A0 . Eine Basis B ⊆ {a1 , . . . , an } von U erhält man, wenn man diejenigen Zeilen (Spalten) von A nimmt, die beim Gaußschen Algorithmus in die ersten r := rangA Zeilen (Spalten) von A0 überführt wurden. Problem 2: Seien b1 , . . . , bp ∈ K m . (a) Man überprüfe, ob b1 , . . . , bp linear unabhängig sind. (b) Man entscheide, ob b1 , . . . , bp ∈ U . (c) Falls b1 , . . . , bp ∈ U linear unabhängig sind, so bestimme man eine Teilmenge C der in Problem 1(b) gefundenen Basis B von U , so daß {b1 , . . . , bp } ∪ C wieder Basis von U ist. (Dies ist nach dem Steinitzschen Austauschsatz möglich, s. Folgerung 3.36.) Lösung: (a) kann wie Problem 1(a) behandelt werden, da b1 , . . . , bp genau dann linear unabhängig sind, wenn rang {b1 , . . . , bp } = p. (b) Sei B ∈ K p,m diejenige Matrix, deren Zeilen b1 , . . . , bp sind (bzw. diejenige Matrix B ∈ K m,p , deren Spalten bT1 , . . . , bTp sind). Dann gilt b1 , . . . , bp ∈ B U genau dann, wenn rang = rang A (bzw. rang (B A) = rang A). A Begründung: Es gilt b1 , . . . , bp ∈ U genau dann, wenn U = V , wobei V der von {b1 , . . . , bp , a1 , . . . , an } erzeugte Untervektorraum von K m ist. Wegen U ⊆ V gilt aber nach Lemma 3.40 U = V genau dann, wenn rang U = rang V und dies ist nach Problem 1(a) äquivalent zur Ranggleichheit der beiden Matrizen, 2 (c) Indem wir ggf. überflüssige Element weglassen, können wir o. B. d. A. annehmen, daß B = {a1 , . . . , an } und damit rang A = n, s. Problem 1(a). Mit den B Bezeichnungen aus (b) betrachten wir nun die Matrix C := ∈ K p+n,m . A Hierauf wenden wir den Gaußschen Algorithmus an, ohne allerdings die letzten n Zeilen von C (also a1 , . . . , an ) bei evtl. erforderlichen Zeilenvertauschungen während der ersten p Algorithmusschritte einzubeziehen. Hierbei entsteht 76 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE B0 aus C eine Matrix C 0 der Gestalt C 0 = Ok,p A0 , wobei B 0 ∈ K p,m und On−k,m 0 k,m−p A ∈K jeweils Trapezgestalt haben mit k := rang A0 ≤ n (man beachte, daß wegen b1 , . . . , bp ∈ U und der linearen Unabhängigkeit von b1 , . . . , bp gilt p ≤ rang U = rang A = n). Dann ist {b1 , . . . , bp } ∪ C Basis von U , wenn C z. B. aus denjenigen der a1 , . . . , an besteht, die bei den evtl. erforderlichen Zeilenvertauschungen bei Anwendung des Gaußschen Algorithmus auf C in die (p + 1)-te bis r-te Zeile von C 0 übergehen. Begründung: B 0 ist wegen der Einschränkung bei den Zeilenvertauschungen diejenige Matrix, die aus B durch Anwendung des Gaußschen Algorithmus nur auf B entsteht. Da b1 , . . . , bp linear unabhängig sind, gilt nach Folgerung 3.46 rang B 0 = rang B = p und da {b1 , . . . , bp } ∪ B Erzeugendensystem von U ist, gilt rang C 0 = rang C = n wiederum nach Folgerung 3.46. Weil C 0 Trapezgestalt hat, hat C 0 somit die beschriebene Gestalt. Wiederum wegen der Einschränkung bei den Zeilenvertauschungen werden bei Anwendung des Gaußschen Algorithmus auf C bei evtl. erforderlichen Vertauschungen die letzten n Zeilen nur untereinander vertauscht. Daher ergibt sich die Behauptung aus Problem 1(b), 2 Wir bemerken abschließend, daß die in Problem 2 behandelten Fragen auch simultan beantwortet werden können, wenn man die Matrix C (s. Lösung von Problem 2(c)) unter Berücksichtigung der Vorgehensweise in Problem 1 geeignet behandelt. Zur Verdeutlichung dieser Problematik betrachten wir nun die folgenden Beispiele. Beispiele 3.48. 1. Bildet B := {(1, −1, 1), (2, 1, −1), (1, 3, 0)} Basis von Q3 ? Lösung: 1(a) wenden wir den Gaußschen Gemäß Problem Algorithmus auf 1 −1 1 1 −1 1 A := 2 1 −1 an und erhalten die Matrix A0 = 0 3 −3. 1 3 0 0 0 3 Daher gilt rang {(1, −1, 1), (2, 1, −1), (1, 3, 0)} = rang A = rang A0 = 3 nach Folgerung 3.46 und somit sind (1, −1, 1), (2, 1, −1), (1, 3, 0) linear unabhängig. B bildet damit nach Satz 3.43 eine Basis von Q3 . 2. Seien a1 := (−1, 3, 2, 4), a2 := (0, 1, 0, −2), a3 := (2, −2, 0, −1) und a4 := (1, 2, 2, 1) sowie b1 := (1, 0, 2, 5) und b2 := (0, 3, 4, 9) Elemente aus Q4 . U := Q{a1 , a2 , a3 , a4 } bezeichne den von {a1 , a2 , a3 , a4 } erzeugten Untervektorraum von Q4 . 3.4. VEKTORRÄUME 77 (a) Man bestimme eine Basis B ⊆ {a1 , a2 , a3 , a4 } von U . (b) Man zeige, daß b1 , b2 ∈ U linear unabhängig sind und ergänze {b1 , b2 } durch geeignete Elemente aus B zu einer Basis von U . Lösung: (a) Gemäß Problem 1 betrachten wir die Matrix −1 3 2 4 0 1 0 −2 A := 2 −2 0 −1 . 1 2 2 1 Sie wird durch den Gaußschen Algorithmus überführt in −1 3 2 4 0 1 0 −2 A0 := 0 0 4 15 . 0 0 0 0 Damit gilt rang U = 3 und, da bei der Anwendung des Gaußschen Algorithmus keine Zeilenvertauschungen erforderlich waren, ist B := {a1 , a2 , a3 } Basis von U . (b) Gemäß Problem 2(c) betrachten wir nun die Matrix 1 0 2 5 0 3 4 9 C := −1 3 2 4 . 0 1 0 −2 2 −2 0 −1 Hierauf wenden wir den Gaußschen Algorithmus an, ohne jedoch die letzten drei Zeilen in evtl. erforderliche Vertauschungen bei Behandlung der ersten beiden Zeilen einzubeziehen. Dann entsteht die Matrix 1 0 2 5 0 3 4 9 0 4 C := 0 0 − 3 −5 . 0 0 0 0 0 0 0 0 Da die ersten zwei Zeilen dieser Matrix linear unabhängig sind, ist klar, daß auch b1 , b2 linear unabhängig sind (Problem 2(a)) und wegen rang C = rang C 0 = 3 = rang A gilt b1 , b2 ∈ U (Problem 2(b)). Da bei Anwendung des Gaußschen Algorithmus auf C die 3. und 5. Zeile vertauscht wurden, bildet {b1 , b2 , a2 } (jedoch nicht {b1 , b2 , a1 } !) Basis von U (s. Problem 2(c)). 78 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Mit Hilfe von Lemma 3.40 und Folgerung 3.42 wollen wir nützliche Abschätzungen für den Rang eines Produktes zweier Matrizen herleiten. Lemma 3.49. Sei K ein Körper, und seien m, n, p ∈ N+ sowie A ∈ K m,n , B ∈ K n,p . Dann gilt rangK A + rangK B − n ≤ rangK A · B ≤ min{rangK A, rangK B}. Beweis. Aus Folgerung 3.45 ergibt sich bereits rang A · B ≤ min{rang A, rang B}. Seien P ∈ GlK (m) und Q ∈ GlK (n). Setzen wir A0 := P ·A·Q und B 0 := Q−1 ·B, so gilt rangA0 = rangA, rangB 0 = rangB sowie rangA0 ·B 0 = rangP ·A·B = rangA·B, s. Satz 2.37(4). Daher können wir zum Nachweis der zweiten Ungleichung A durch A0 und B durch B 0 ersetzen. Wir wählennun P und Q so, daß A0 = Em,n;r mit B 00 , wenn B 00 ∈ K r,p die aus den ersten r r := rang A. Dann gilt A0 · B 0 = Om−r,p Zeilen von B 0 bestehende Matrix ist. Nach Satz 3.44 gilt dann rang A0 · B 0 = rang B 00 ≥ rang B 0 − (n − r) = rang A0 + rang B 0 − n, Am Ende dieses Kapitels wollen uns nochmals der Behandlung linearer Gleichungssysteme zuwenden. Insbesondere erhalten wir mit den nun zur Verfügung stehenden Mitteln ein Lösbarkeitskriterium und können im Falle der Lösbarkeit genauere Aussagen über die Struktur der Lösungsmenge treffen. Satz und Definition 3.50 (Lösbarkeitskriterium für lineare Gleichungssysteme). Sei K ein Körper und seien m, n ∈ N, n ≥ 1. Vorgelegt sei ein lineares Gleichungssystem A · XT = bT mit Koeffizientenmatrix A ∈ K m,n und erweiterter Koeffizientenmatrix B := (A bT ) ∈ K m,n+1 . Mit L bezeichnen wir seine Lösungsmenge und mit L0 die Lösungsmenge des zugehörigen homogenen Systems A · XT = 0 (L, L0 ⊆ K n ). Dann gilt (1) Das System ist lösbar (d. h. es gilt L 6= ∅) genau dann, wenn rang A = rangB (”Rang der Koeffizientenmatrix = Rang der erweiterten Koeffizientenmatrix”). (2) L0 ist Untervektorraum von K n mit rang L0 = n − rang A. (3) Das System sei lösbar und c ∈ L sei eine Lösung. Dann gilt L = c + L0 . 3.4. VEKTORRÄUME 79 Die Anzahl der frei wählbaren Parameter, die zur Darstellung von L (und L0 ) erforderlich sind, ist gleich n−rangA (= rangL0 ). Diese Zahl heißt Rang, oft auch - wie bei Vektorräumen - Dimension von L, kurz rangK L oder rang L. Es gilt also rang L = n − rang A. Bemerkung 3.51. Im Falle der Lösbarkeit ist L ein Element von K n /L0 . L kann gedeutet werden als die ”um c verschobene” Lösungsmenge des zughörigen homogenen Systems. Beweis. (1) Wir verwenden die Bezeichnungen und Ergebnisse aus dem Beweis von Satz 3.44. Da S(A) ⊆ S(B) = S(A) + Kb, gilt rang S(A) ≤ rang S(B) ≤ 1 + rang S(A) (s. Folgerung 3.42), d. h. wir haben rang A ≤ rang B ≤ 1 + rang A. Ist das System lösbar und ist c ∈ L, so gilt b ∈ S(bT ) = S(A · cT ) ⊆ S(A), d. h. wir haben S(A) = S(B) und damit rang A = rang B. Gelte nun umgekehrt rang A = rang B. Dann folgt rang S(A) = rang S(B), und somit S(A) = S(B) nach Lemma 3.40(4). Folglich gilt aber b ∈ S(A), d. h. es gibt c ∈ K n mit bT = A · cT . Damit ist aber c Lösung des Systems. (2) Nach Übungsaufgabe 10 ist L0 K-Untervektorraum von K n (s. Lemma 3.8). Sei {c1 , . . . , cs } Basis von L0 mit s := rang L0 . Wir setzen C := (cT1 , . . . , cTs ) ∈ K n,s . Dann gilt A · C = O und aus Lemma 3.49 folgt rang A + rang C − n ≤ rang A · C = 0, also rang L0 = rang C ≤ n − rangA. Wir wählen nun P ∈GlK (m), Q ∈ GlK (n) mit P ·A·Q = Em,n;r , r := rang A, Or,n−r und setzen D := Q · . Dann gilt rang D = rang Z(D) = rang K n−r = En−r n − r und wir haben Or,n−r −1 −1 −1 A · D = P · Em,n;r · Q · D = P · Em,n;r · = O. En−r Da somit S(D) ⊆ L0 , gilt rang L0 ≥ rang S(D) = rang D = n − r, also rang L0 = n − r. (3) folgt nun aus Lemma 2.38 und Lemma 1.9, Sei n ∈ N+ . Wir kommen nun abschließend zur Charakterisierung der Lösungsmengen homogener linearer Gleichungssysteme in n Unbestimmten. Zusammen mit der Bemerkung 3.51 haben wir damit eine Charakterisierung der Lösungsmengen beliebiger linearer Gleichungssysteme in n Unbestimmten gefunden. Dies löst Problem (B) aus Abschnitt 1.2. Satz 3.52. Sei K ein Körper und sei n ∈ N+ . Dann gilt: 80 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE (1) Eine Teilmenge L0 ⊆ K n ist Lösungsmenge eines homogenen linearen Gleichungssystems in n Unbestimmten mit Koeffizienten aus K genau dann, wenn L0 Untervektorraum von K n ist. (2) Eine Teilmenge L ⊆ K n ist Lösungsmenge eines linearen Gleichungssystems in n Unbestimmten mit Koeffizienten aus K genau dann, wenn L = ∅ oder L = c + V mit c ∈ K n und einem Untervektorraum V von K n . Beweis. Sei L (L0 ) ⊆ K n Lösungsmenge eines linearen (homogenen) Gleichungssystems in n Unbestimmten mit Koeffizienten aus K. Nach Satz 3.50(2,3) ist L0 Untervektorraum von K n und, falls L 6= ∅, L = c + V mit c ∈ K n und einem Untervektorraum V von K n . n Sei nun L0 Untervektorraum von K und sei {c1 , . . . , cm } Erzeugendensystem c1 .. von L0 . Wir setzen C := . ∈ K m,n . L00 sei Lösungsmenge des linearen cm homogenen Gleichungssystems C · XT = 0 in n Unbestimmten. Dann gilt nach Satz und Definition 3.50(2) mit r := rang L00 r = n − rang C = n − rang L0 . a1 Sei nun {a1 , . . . , ar } Basis von L00 und A := ... ∈ K r,n . Wegen C · aTi = 0, i = ar T 1, . . . , r, haben wir C ·A = 0 und folglich A·C T = (CAT )T = 0, d. h. c1 , . . . , cm ∈ L000 , wenn L000 die Lösungsmenge des linearen homogenen Gleichungssystems A · XT = 0 in n Unbestimmten bezeichnet. Daher gilt L0 ⊆ L000 . Weil rang L000 = n − rang A = n − r = n − (n − rang L0 ) = rang L0 (s. Satz 3.50(2)), folgt L0 = L000 nach Lemma 3.40(4) und damit ist (1) gezeigt. Sicher ist ∅ Lösungsmenge eines (unlösbaren) linearen Gleichungssystems in n Unbestimmten (z. B. 0 = 1). Sei also L = c + V , wobei c ∈ K n und V Untervektorraum von K n ist. V sei Lösungsmenge des linearen homogenen Gleichungssystems A · XT = 0 in n Unbestimmten, wobei A ∈ K m,n (s. (1)). Wir setzen b := cAT . Dann ist L Lösungsmenge des linearen Gleichungssystems A · XT = bT , wie man sofort bestätigt, Beispiel 3.53. Sei V der von (−2, 1, 0, 1), (−2, 0, 1, 0) und (0, 1, −1, 1) erzeugte Untervektorraum des R4 . Welches lineare homogene Gleichungssystem hat V als Lösungsmenge? 3.4. VEKTORRÄUME 81 Lösung: Nach der Vorgehensweise im Beweis von Satz 3.52(1) müssen wir zunächst Gleichungssystems C · XT = 0 bedie Lösungsmenge L00 des linearen homogenen −2 1 0 1 stimmen, wobei C := −2 0 1 0. Anwendung des Gaußschen Algorith0 1 −1 1 −2 1 0 1 mus führt C über in C 0 := 0 −1 1 −1, so daß 0 0 0 0 L00 = {t1 ( 21 , 1, 1, 0) + t2 (0, −1, 0, 1) | t1 , t2 ∈ R} = R{( 12 , 1, 1, 0), (0, −1, 0, 1)}. Damit ist V Lösungsmenge des linearen homogenen Gleichungssystems 1 1 1 0 2 · XT = 0, d. h. von 0 −1 0 1 1 X 2 1 + X2 + X3 = 0 − X2 + X4 = 0. 82 KAPITEL 3. VEKTORRÄUME, MODULN, IDEALE Kapitel 4 Lineare Abbildungen Alle Ringe mögen ein vom Nullelement verschiedenes Einselement besitzten. Bis jetzt haben wir (algebraische) Strukturen untersucht. In diesem Abschnitt beginnen wir nun, solche Strukturen miteinander zu ”vergleichen”, d. h. wir betrachten Abbildungen zwischen ihnen, die die jeweilige Struktur ”respektieren”. Dabei wird es zunächst im wesentlichen um Moduln bzw. spezieller um Vektorräume gehen. 4.1 Grundbegriffe Definition 4.1. (a) Seien (H; ◦), (H 0 ; •) Halbgruppen (Monoide mit neutralen Elementen e bzw. e0 ). Eine Abbildung f : H → H 0 heißt (Monoid-)Homomorphismus, wenn für alle a, b ∈ H gilt f (a ◦ b) = f (a) • f (b) (und f (e) = e0 ). (b) Seien R, R0 Ringe. Eine Abbildung f : R → R0 heißt Ringhomomorphismus, wenn f Homomorphismus in Bezug auf die jeweiligen additiven abelschen Gruppen sowie Monoidhomomorphismus in Bezug auf die jeweiligen multiplikativen Monoide ist, d. h. wenn für alle a, b ∈ R gilt f (a + b) = f (a) + f (b), f (a · b) = f (a) · f (b) und f (1R ) = 1R0 . (c) Injektive (Monoid-, Ring-)Homomorphismen heißen Monomorphismen, surjektive Epimorphismen und bijektive Isomorphismen (ggf. mit dem Zusatz ”Monoid-” bzw. ”Ring-”). 83 84 KAPITEL 4. LINEARE ABBILDUNGEN Bemerkungen 4.2. 1. Seien H, H 0 Halbgruppen (Monoide, Ringe) mit H ⊆ H 0 . Genau dann ist H Unterhalbgruppe (Untermonoid, Unterring) von H 0 , wenn die Einbettung H ⊆ H 0 (Monoid-, Ring-)Homomorphismus ist. 2. Sei H eine Halbgruppe bzw. ein Monoid. Die Potenzgesetze besagen (s. Übungsaufgabe I 31(a)), dass für jedes a ∈ H die durch n 7→ an für alle n ∈ N+ bzw. n ∈ N gegebene Abbildung N+ → H bzw. N → H Homomorphismen sind (wobei die N+ bzw. N zugrunde liegende Operation die Addition sei). 3. Seien M, M 0 Monoide. Fassen wir M.M 0 lediglich als Halbgruppen auf, so ist nicht jeder Homomorphismus f : M → M 0 automatisch ein Monoidhomomorphismus. Ein einfaches Beispiel hierfür liefert Bemerkung 2.14.3: Mit den dortigen Bezeichnungen setzte man M = A, M 0 = B und wähle für f die Einnbettung B ⊆ A. Daher hat man zwischen ”Homomorphismen” und ”Monoidhomomorphismen” zu unterscheiden. Sind jedoch Verwechslungen ausgeschlossen. so lässt man bei Monoidhomomorphismen den Zusatz ”Monoid” in der Regel weg, s. auch Bemerkung 4.4. 4. Ein Ringhomomorphismus respektiert definitionsgemäß die Einselemente. Aus dem nachfolgenden Lemma 4.3 ergibt sich, daß er dann auch die Nullelemente sowie die Inversenbildung bzgl. der Addition und - falls ausführbar - bzgl. der Multiplikation respektiert, s. Bemerkung 4.4. Lemma 4.3. Seien M, M 0 Monoide. (1) Sei f : M → M 0 Monoidhomomorphismus. Für alle a ∈ M ∗ gilt dann f (a) ∈ M 0 ∗ , genauer f (a−1 ) = f (a)−1 . Damit induziert f durch Einschränkung einen Homomorphismus ∗ f∗ : M∗ → M0 , den man der Einfachheit halber meist auch nur mit f bezeichnet. (2) Ist M 0 eine Gruppe, so ist jeder Homomorphismus M → M 0 bereits Monoidhomomorphismus. Insbesondere ist jeder Homomorphismus zwischen Gruppen ein Monoidhomomorphismus. Beweis. Seien e bzw. e0 die neutralen Elemente von M bzw. M 0 . (1) Sei a ∈ M ∗ . Da f (a)f (a−1 ) = f (aa−1 ) = f (e) = e0 und f (a−1 )f (a) = f (a−1 a) = f (e) = e0 , gilt f (a) ∈ H 0 ∗ und f (a)−1 = f (a−1 ). Der Rest ist wieder klar. 4.1. GRUNDBEGRIFFE 85 (2) Für jeden Homomorphismus f : M → M 0 gilt e0 = f (e)f (e)−1 = f (ee)f (e)−1 = f (e)f (e)f (e)−1 = f (e) , Bemerkung 4.4. Die Aussagen von Lemma 4.3 besagen insbesondere, dass jeder Homomorphismus zwischen Gruppen bereits die neutralen Elemente und die Inversenbildungen respektiert, also ein ”Gruppenhomomorphismus” ist. Daher reicht es in diesen Fällen, nur von ”Homomorphismen” zu sprechen. Vorsicht ist - wie gesagt - lediglich geboten, wenn es dabei um Monoide geht, die keine Gruppen sind, s. auch Bemerkung 4.2.3. Lemma 4.5. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f : H → H 0 (Monoid-, Ring-) Homomorphismus. Dann gilt (1) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U von H ist f (U ) := {f (a) | a ∈ U } Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 . (2) Für jede(s,n) Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) U 0 von H 0 mit U 0 ∩ Bild f 6= ∅ ist f −1 (U 0 ) := {a ∈ H | f (a) ∈ U 0 } Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, wobei die Bedingung ” U 0 ∩ Bild f 6= ∅ ” im Monoid- oder Ringfall stets erfüllt ist. (3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von H und U 0 von H 0 mit f (U ) ⊆ U 0 induziert f durch Einschränkung einen (Monoid-, Ring-)Homomorphismus f 0 : U → U 0 . (4) Mit den Bezeichnungen von (3) gilt: Ist f Monomorphismus, so auch f 0 . Wenn U 0 = f (U ), so ist f 0 Epimorphismus. (5) Ist f (Monoid-, Ring-)Isomorphismus, so ist auch f −1 (Monoid-, Ring-)Isomorphismus. Beweis. (1) Sicher gilt f (U ) 6= ∅ und e0 = f (e) ∈ f (U ), wenn H, H 0 Monoide mit neutralen Elementen e bzw. e0 sind und f Monoidhomomorphismus ist. Seien a0 , b0 ∈ f (U ). Wir wählen a, b ∈ U mit a0 = f (a), b0 = f (b) und erhalten a0 b0 = f (a)f (b) = f (ab) ∈ f (U ). Nach Bemerkung 2.14.2, 3 ist f (U ) damit Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist mit Lemma 4.3 und Bemerkung 2.14.4 klar. 86 KAPITEL 4. LINEARE ABBILDUNGEN (2) Wegen U 0 ∩ Bild f 6= ∅ gilt f −1 (U 0 ) 6= ∅. Sind H, H 0 Monoide mit neutralen Elementen e, e0 und ist f Monoidhomomorphismus, so gilt f (e) = e0 ∈ U 0 ∩ Bild f , also U 0 ∩ Bild f 6= ∅ und e ∈ f −1 (U 0 ). Seien nun a, b ∈ f −1 (U 0 ). Da f (ab) = f (a)f (b) ∈ U 0 , gilt ab ∈ f −1 (U 0 ) und nach Bemerkung 2.14 ist f (U ) damit Unterhalbgruppe (Untermonoid) von H 0 . Der Rest ist wiederum nach Lemma 4.3 klar. (3) ist mit (1) bzw. (2) klar. (4) ergibt sich aus einfachen mengentheoretischen Überlegungen. (5) Seien a0 , b0 ∈ H 0 . Wegen f (f −1 (a0 )f −1 (b0 )) = f (f −1 (a0 ))f (f −1 (b0 ))) = a0 b0 , folgt f −1 (a0 )f −1 (b0 ) = f −1 (a0 b0 ). Sind H, H 0 Monoide mit neutralen Elementen e bzw. e0 und ist f Monoidisomorphismus, so gilt f −1 (e0 ) = e, denn f (e) = e0 . Der Rest ist damit klar, Folgerung 4.6. Seien H, H 0 Halbgruppen (Monoide, Gruppen, Ringe) und f : M → M 0 (Monoid-, Ring-) Homomorphismus. Dann gilt (1) Durch U 7→ f (U ), U Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H, ist eine inklusionserhaltende Abbildung Φ von der Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H in die Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H 0 gegeben. (2) Durch U 0 7→ f −1 (U 0 ), U 0 Unterhalbgruppe (Untermonoid, Untergruppe, Unterring) von H 0 mit U 0 ∩ Bildf 6= ∅, ist eine inklusionserhaltende Abbildung Φ0 von der Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H 0 , die mit Bild f einen nicht leeren Durchschnitt haben, in die Menge der Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) von H gegeben. (3) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U von H gilt U ⊆ f −1 (f (U )) . (4) Für alle Unterhalbgruppen (Untermonoide, Untergruppen, Unterringe) U 0 von H 0 gilt f (f −1 (U 0 )) = U 0 ∩ Bild f . Beweis. (1) und (2) ergeben sich mit einfachen mengentheoretischen Überlegungen unmittelbar aus Lemma 4.5 (1) und (2). (3) und (4) sind elementare mengentheoretische Aussagen, 4.1. GRUNDBEGRIFFE 87 Definition 4.7. Sei R ein Ring und seien M, N Links-R-Moduln. Eine Abbildung f :M →N heißt R-linear oder R-Homomorphismus, wenn für alle m, m0 ∈ M und alle r ∈ R gilt (i) f (m + m0 ) = f (m) + f (m0 ) und (ii) f (rm) = rf (m). Sind Verwechslungen ausgeschlossen, so spricht man nur von linearen Abbildungen bzw. von Homomorphismen. (a) Injektive (surjektive, bijektive) R-Homomorphismen heißen R-Monomorphismen (R-Epimorphismen, R-Isomorphismen), wobei der Zusatz ”R-” ggf. weggelassen werden kann, s. oben. (b) Mit HomR (M, N ) bezeichnet man die Menge aller R-Homomorphismen von M nach N . Bemerkungen, Beispiele 4.8. 1. Ist K ein Körper und sind V, W K-Vektorräume, so wird statt des Begriffes ”K-Homomorphismus” häufiger die Bezeichnung ”K-lineare Abbildung” oder manchmal auch ”K-linearer Operator” verwendet. 2. Mit den Bezeichnungen von Definition 4.7 besagt (i), daß ein R-Homomorphismus f : M → N ein Homomorphismus der unterliegenden abelschen Gruppen ist. Damit gilt insbesondere f (0M ) = 0N und f (−m) = −f (m) für alle m ∈ M . 3. Wie man sofort sieht, sind (i) und (ii) aus Definition 4.7 äquivalent zu f (rm + r0 m0 ) = rf (m) + r0 f (m0 ) für alle m, m0 ∈ M, r, r0 ∈ R. Induktiv über n ∈ N+ folgt hieraus, daß f (r1 m1 + . . . + rn mn ) = r1 f (m1 ) + . . . + rn f (mn ) für alle m1 , . . . , mn ∈ M, r1 , . . . , rn ∈ R, d. h. eine R-lineare Abbildung führt eine Linkslinearkombination von Elementen aus M in die entsprechende Linkslinearkombination der jeweiligen Bildelemente über. 4. Sei R ein Ring. Die Aussagen der Lemmata 4.5 und 4.3 sowie von Folgerung 4.6 gelten ganz analog für R-Homomorphismen zwischen Links- bzw. Rechts-R-Moduln. 5. Sei R ein Ring. Für Links-R-Moduln M, N ist die durch m 7→ 0N für alle m ∈ M gegebene Abbildung offensichtlich ein R-Homomorphismus. Er heißt Nullhomomorphismus oder Nullabbildung und wird meist kurz mit 0 bezeichnet. Damit gilt übrigens HomR (M, N ) 6= ∅. 88 KAPITEL 4. LINEARE ABBILDUNGEN 6. Die Hintereinanderschaltung von R-Homomorphismen ist wieder R-Homomorphismus. 7. Sei A eine abelsche Gruppe und X eine Menge. Dann ist Abb(X, A) mit der punktweisen Addition wieder eine abelsche Gruppe. (Für f, g ∈ Abb (X, A) ist f + g ∈ Abb (X, A) definiert durch (f + g)(x) := f (x) + g(x) für alle x ∈ X, s. auch Bemerkung 3.6.7.) Ist nun R ein Ring und sind M, N Links-R-Moduln, so ist HomR (M, N ) Untergruppe von Abb (M, N ), wie man sofort bestätigt, und demnach selbst eine abelsche Gruppe (”Homomorphismen können addiert werden”). Hierfür gilt: (f1 + f2 ) ◦ g = f1 ◦ g + f2 ◦ g und f ◦ (g1 + g2 ) = f ◦ g1 + f ◦ g2 , wenn f, f1 , f2 ∈ HomR (N, P ), g, g1 , g2 ∈ HomR (M, N ) für Links-R-Moduln M, N, P . Ist R kommutativ, so ist für r ∈ R und f ∈ HomR (M, N ) durch (rf )(m) := rf (m) (= f (rm)) für alle m ∈ M ein R-Homomorphismus rf : M → N erklärt. Dadurch ist eine Operation von R auf HomR (M, N ) definiert. Man sieht sofort, daß HomR (M, N ) damit selbst ein R-Modul ist und daß (rf ) ◦ g = r(f ◦ g) = f ◦ (rf ). 8. Sei R ein Ring und M ein Links-R-Modul. Mit der punktweisen Addition und der Hintereinanderschaltung als Multiplikation ist HomR (M, M ) nach 7. ein Ring, s. auch Definition 4.12 unten. 9. Sei R ein kommutativer Ring und M ein R-Modul. Für jedes r ∈ R ist die durch m 7→ rm für alle m ∈ M definierte Abbildung hr : M → M ein R-Homomorphismus und heißt Homothetie oder Streckung (von M ) mit r. h r r Statt M −→ M schreiben wir meist kurz M −→ M . Dabei ist h1R = idM und h0R = 0. Außerdem gilt hr+s = hr + hs und hrs = hr ◦ hs , r, s ∈ R, wie man sofort bestätigt. Damit haben wir: Die Abbildung h : R → HomR (M, M ), die für alle r ∈ R durch h(r) := hr definiert ist, ist ein Ringhomomorphismus. 10. Für k ∈ N ∪ {∞} sei CkR (I) der R-Vektorraum der auf dem Intervall I ⊆ R k-mal stetig differenzierbaren Funktionen (s. Beispiel 3.6.6). Für k > 0 definieren wir D : CkR (I) → CRk−1 (I) durch D(f ) := f 0 (Ableitung von f ) für alle f ∈ CkR (I). Da (f +g)0 = f 0 +g 0 und (αf )0 = αf 0 für alle f, g ∈ CkR (I) und alle α ∈ R, ist D eine R-lineare Abbildung. (Für k = ∞ sei k − 1 := ∞.) 4.1. GRUNDBEGRIFFE 89 11. Sei R ein Ring, M ein Links-R-Modul und U ein Links-R-Untermodul von M . Durch m 7→ m + U ∈ M/U , m ∈ M , ist ein R-Epimorphismus π : M → M/U erklärt. Er wird als kanonischer Homomorphismus (Epimorphismus) bezeichnet, s. auch Satz 4.22(1). Definition 4.9. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Homomorphismus. Wir setzen (a) Kern f := {m | m ∈ M, f (m) = 0N } ⊆ M (b) Bild f := {f (m) | m ∈ M } = f (M ) ⊆ N (c) Kokern f := N/Bild f (Kern von f ) (Bild von f ) (Kokern von f ). Lemma 4.10. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Homomorphismus. Dann gilt: (1) Kern f ist Links-R-Untermodul von M , Bild f ist Links-R-Untermodul von N und durch m 7→ f (m), m ∈ M , ist ein R-Epimorphismus f 0 : M → Bild f gegeben mit f = ι ◦ f 0 , wenn ι die Einbettung Bild f ⊆ N bezeichnet. (2) (Injektivitätskriterium) f ist Monomorphismus genau dann, wenn Kern f = 0. (3) (Surjektivitätskriterium) f ist Epimorphismus genau dann, wenn Kokern f = 0. Beweis. (1) ergibt sich wegen Kern f = f −1 (0) aus Lemma 4.5(1)-(3) zusammen mit Bemerkung 4.8.4. (2) Sei f Monomorphismus und sei m ∈ Kern f . Da dann f (m) = 0N = f (0M ), folgt m = 0M und damit Kern f = 0. Es gelte nun Kern f = 0. Wenn für m, m0 ∈ M gilt f (m) = f (m0 ), so folgt f (m − m0 ) = f (m) − f (m0 ) = 0N , d. h. m − m0 ∈ Kern f = 0. Wir haben also m − m0 = 0M , d. h. m = m0 , und damit ist f Monomorphismus. (3) f Epimorphismus ⇐⇒ Bild f = N ⇐⇒ Kokern f = N/Bild f = 0, Wir werden nun u. a. Ergebnisse aus Folgerung 4.6 verschärfen. Dies wird für zahlreiche Anwendungen von zentraler Bedeutung sein. Lemma 4.11. Sei R ein Ring und seien M, M 0 Links-R-Moduln. Ferner sei f : M → M 0 ein R-Homomorphismus. Dann gilt für alle Links-R-Untermoduln U von M und alle Links-R-Untermoduln U 0 von M 0 f −1 (f (U )) = U + Kern f und f (f −1 (U 0 )) = U 0 ∩ Bild f . 90 KAPITEL 4. LINEARE ABBILDUNGEN Damit induzieren die Abbildungen Φ bzw. Φ0 aus Folgerung 4.6(1) bzw. (2) zueinander inverse bijektive Abbildungen zwischen der Menge der Links-R-Untermoduln von M , die Kern f enthalten, und der Menge Links-R-Untermoduln von Bild f . Beweis. Nach Folgerung 4.6 ist nur noch zu zeigen, daß für alle Links-R-Untermoduln U von M gilt f −1 (f (U )) = U + Kern f . Sei also U ein Links-R-Untermodul von M . Es ist klar, daß U + Kern f ⊆ f −1 (f (U )). Sei m ∈ f −1 (f (U )). Dann gilt f (m) ∈ f (U ) und folglich gibt es ein u ∈ U mit f (m) = f (u), also f (m − u) = 0N . Somit gilt m − u ∈ Kern f , d. h. m ∈ U + Kern f . Wir haben daher f −1 (f (U )) ⊆ U + Kern f , also f −1 (f (U )) = U + Kern f , Definition 4.12. Sei R ein Ring. (a) Links-R-Moduln M, N heißen R-isomorph, kurz M ∼ = N , wenn es einen RIsomorphismus f : M → N gibt. (b) Sei M ein Links-R-Modul. R-Homomorphismen von M in sich heißen REndomorphismen von M , bijektive R-Endomorphismen von M werden RAutomorphismen von M genannt. (c) Wir setzen EndR (M ) := HomR (M, M ) sowie AutR (M ) := {f ∈ EndR (M ) | f bijektiv} Bemerkungen 4.13. 1. Mit punktweiser Addition und Hintereinanderschaltung als Multiplikation bildet EndR (M ) nach Bemerkung 4.8.8 einen Ring mit Einselement idM . Man nennt ihn Endomorphismenring von M . Ist R kommutativ, so ist EndR (M ) nach Bemerkung 4.8.7 sogar eine R-Algebra (s. Bemerkung 3.6.8). 2. Nach Lemma 4.5(5) gilt AutR (M ) = EndR (M )∗ . Nach Bemerkung 2.11.2 bildet AutR (M ) daher mit der Hintereinanderschaltung eine Gruppe, die Automorphismengruppe von M . 3. In Definition 2.25 hatten wir für n ∈ N+ die n-te allgemeine lineare Gruppe GlR (n) über R eingeführt. In Bemerkung 4.39.3 werden wir sehen, daß GlR (n) ∼ = AutR (Rn ). Daher verwendet man für die Automorphismengruppe von M auch die Bezeichnung GlR (M ) und nennt sie dann entsprechend allgemeine lineare Gruppe von M . Im folgenden Lemma wollen wir u. a. untersuchen, wann die Bilder linear unabhängiger Elemente unter einem Homomorphismus wieder linear unabhängig sind. 4.1. GRUNDBEGRIFFE 91 Lemma 4.14. Sei R ein Ring und seien M, N Links-R-Moduln. f : M → N sei ein R-Homomorphismus. Ferner seien m1 , . . . , mp ∈ M und E ⊆ M . Dann gilt: (1) Wenn f (m1 ), . . . , f (mp ) ∈ N linear unabhängig sind, so sind auch m1 , . . . , mp linear unabhängig. (2) Wenn f Monomorphismus ist, so sind f (m1 ), . . . , f (mp ) ∈ N genau dann linear (un)abhängig, wenn m1 , . . . , mp ∈ M linear (un)abhängig sind. (3) Ist f ein Epimorphismus und ist E Erzeugendensystem von M , so ist f (E) Erzeugendensystem von N . Beweis. (1) Wenn für r1 , . . . , rp ∈ R gilt r1 m1 + . . . + rp mp = 0M , so folgt (s. Bemerkung 4.8.3) r1 f (m1 )+. . .+rp f (mp ) = f (r1 m1 +. . .+rp mp ) = f (0M ) = 0N und damit r1 = . . . = rp = 0R , d. h. m1 , . . . , mp sind linear unabhängig. (2) Nach (1) reicht es zu zeigen, daß für injektives f aus der linearen Unabhängigkeit von m1 , . . . , mp die lineare Unabhängigkeit von f (m1 ), . . . , f (mp ) folgt. Seien also m1 , . . . , mp linear unabhängig und gelte r1 f (m1 ) + . . . + rp f (mp ) = 0N , wobei r1 , . . . , rp ∈ R. Dann folgt f (r1 m1 + . . . + rp mp ) = r1 f (m1 ) + . . . + rp f (mp ) = 0N = f (0M ), also r1 m1 + . . . + rp mp = 0M wegen der Injektivität von f . Da m1 , . . . , mp linear unabhängig sind, erhalten wir hieraus r1 = . . . = rp = 0R , d. h. f (m1 ), . . . , f (mp ) sind linear unabhängig. (3) Nach Bemerkung 4.8.3 gilt f (RE) = Rf (E) und wegen der Surjektivität von f folgt damit N = f (M ) = f (RE) = Rf (E), Folgerung 4.15. Sei R ein Ring und seien M, N Links-R-Moduln. Ferner sei f : M → N ein R-Monomorphismus und X Teilmenge von M . (1) X ist linear unabhängig genau dann, wenn f (X) linear unabhängig ist. (2) Sei M frei und sei f Isomorphismus. Dann ist auch N frei. Ist dabei X Basis von M , so ist f (X) Basis von N . Ist R kommutativ oder X unendlich, so gilt rangR M = rangR N . Folgerung 4.16. Sei K ein Körper und seien V, W K-Vektorräume. Ferner sei f : V → W ein K-Monomorphismus. Dann gilt rangK X = rangK f (X) für jede Teilmenge X von V . Beweis. Indem wir V durch KX und W durch Kf (X) = f (KX) ersetzen, dürfen wir o. B. d. A. annehmen, daß f surjektiv und damit bijektiv, also ein Isomorphismus ist. Die Behauptung ergibt sich dann aber aus Folgereung 4.15(2), 92 4.2 KAPITEL 4. LINEARE ABBILDUNGEN Koordinaten Sei R ein Ring, F ein freier Links-R-Modul und f ∈ F . Ist B Basis von F , so gibt es nach Satz 3.27(1) für jedes b ∈ BP ein eindeutig bestimmtes rf,b ∈ R, so daß rf,b = 0R für fast alle b ∈ B und f = b∈B rf,b b. Sei f ∈ F . Durch b 7→ rf,b , b ∈ B, ist damit eine Abbildung κf : B → R gegeben mit κf (b) = 0R für fast alle b ∈ B, d. h. κf ∈ R(B) = {ϕ | ϕ : B → R, ϕ(b) = 0R für fast alle b ∈ B} , s. Bemerkung 3.9.3. P Ist umgekehrt ϕ ∈ R(B) und setzen wir kϕ := b∈B ϕ(b)b ∈ F , so gilt P für alle f ∈ F und kκf = b∈B κf (b)b = f κkϕ = ϕ für alle ϕ ∈ R(B) , denn für b ∈ B gilt κfϕ (b) = ϕ(b). Damit sind durch f 7→ κf , f ∈ F , und ϕ 7→ kϕ , ϕ ∈ R(B) , zueinander inverse Abbildungen κ : F → R(B) und k : R(B) → F gegeben. Insbesondere ist κ bijektiv. Definition 4.17. Sei R ein Ring und F ein freier Links-R-Modul. B sei Basis von F . (a) Für f ∈ F heißt das oben beschriebene Element κf ∈ R(B) Koordinatenvektor (manchmal auch Darstellungsvektor) von f bezüglich B. (b) Die oben definierte bijektive Abbildung κ : F → R(B) , die jedem Element f ∈ F seinen Koordinatenvektor κf ∈ R(B) zuordnet, heißt Koordinatenabbildung bezüglich B. Um diese Abhängigkeit von B auszudrücken, schreibt man auch κB statt nur κ und entsprechend für f ∈ F κB,f statt κf . Lemma 4.18. Sei R ein Ring und F ein freier Links-R-Modul. Für jede Basis B von F ist die Koordinatenabbildung κB : F → R(B) ein R-Isomorphismus. Beweis. Sei B Basis von F . Nach Lemma 4.5(4) und Bemerkung 4.8.4 reicht es zu zeigen, daß die zu κB inverse Abbildung kB : R(B) → F ein R-Homomorphismus ist. Seien hierzu ϕ, ϕ1 , ϕ2 ∈ R(B) und r ∈ R. Dann gilt X X kB (ϕ1 + ϕ2 ) = (ϕ1 + ϕ2 )(b)b = (ϕ1 (b) + ϕ2 (b))b b∈B = X b∈B kB (rϕ) = X b∈B b∈B ϕ1 (b)b + X ϕ2 (b)b = kB (ϕ1 ) + kB (ϕ2 ) und b∈B (rϕ)(b)b = X b∈B rϕ(b)b = r X b∈B ϕ(b)b = rkB (ϕ), 4.2. KOORDINATEN 93 Bemerkung 4.19. Sei wieder R ein Ring und F ein freier Links-R-Modul. Wenn F eine endliche Basis besitzt, so ergibt sich eine Besonderheit: Sei B := {b1 , . . . bn } eine Basis von F mit n := #B. Durch ϕ 7→ (ϕ(b1 ), . . . , ϕ(bn )) ∈ Rn , ϕ ∈ R(B) , ist eine bijektive Abbildung R(B) → Rn gegeben, die - wie man sofort bestätigt - ebenfalls ein R-Isomorphismus ist. Dieser hängt natürlich von der gewählten Reihenfolge der b1 , . . . , bn ab. Fixieren wir eine solche Reihenfolge, d. h. betrachten wir statt B = {b1 , . . . bn } das geordnete n-Tupel B := (b1 , . . . bn ), so spricht man von einer geordneten Basis B. Diese gibt dann Anlaß zu einem eindeutig bestimmten Isomorphismus πB : RB (= R(B) ) → Rn , der wie oben definiert ist. Dementsprechend betrachtet man in diesen Fällen statt der Koordinatenabbildung κB : F → RB die Hintereinanderschaltung κB : F → Rn von κB mit obigem Isomorphismus πB , d. h. für f ∈ F gilt dann κB (f ) = (r1 , . . . , rn ), Pn wenn f = i=1 ri bi mit (eindeutig bestimmten) r1 , . . . , rn ∈ R. Das n-Tupel (r1 , . . . , rn ) heißt dann entsprechend Koordinatenvektor von f bezüglich der geordneten Basis B, Schreibweise (r1 , . . . , rn ) =: fB . Beispiel 4.20. Man zeige, daß {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von C3 ist und bestimme den Koordinatenvektor von b := (1, 1 + i, 0) bezüglich der geordneten Basis B := ((1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)) des C3 . Lösung: Basistest und Darstellung eines Vektors als Linearkombination gegebener Vektoren sind Fragestellungen, die allgemein für K-Untervektorräume des K n (K Körper, n ∈ N) mit einem gemeinsamen Ansatz gelöst werden können, s. hierzu auch die Lösung von Problem 2 in Kapitel 3. Wir wollen dies an unserem Beispiel verdeutlichen. Seien hierzu b1 := (1 + i, i, −1), b2 := (0, 2i, 1 − i) und b3 := (1, −1, i) sowie A := (bT1 , bT2 , bT3 ) ∈ C3,3 . Dann gilt b = α1 b1 + α2 b2 + α3 b3 mit α1 , α2 , α3 ∈ C ⇐⇒ (α1 , α2 , α3 ) ist Lösung von AXT = bT , X := (X1 , X2 , X3 ). Sei nun B die erweiterte Koeffizientenmatrix dieses Systems, d. h. 1+i 0 1 1 2i −1 1 + i . B = (A , b) = i −1 1 − i i 0 Anwendung des modifizierten Gaußschen Algorithmus hierauf führt B über in 1 0 0 −i B 0 := (E3 , b0T ) = 0 1 0 1 , 0 0 1 i 94 KAPITEL 4. LINEARE ABBILDUNGEN wobei b0 := (−i, 1, i). Damit gilt zum einen rang A = 3, d. h. wegen rang C3 = 3 ist {(1 + i, i, −1), (0, 2i, 1 − i), (1, −1, i)} Basis von C3 (s. Satz 3.43), und zum anderen ist (−i, 1, i) Lösung von AXT = bT . Wir erhalten also (1, 1 + i, 0) = −ib1 + b2 + ib3 = −i(1 + i, i, −1) + (0, 2i, 1 − i) + i(1, −1, i) oder, bei Verwendung unserer obigen Bezeichnung, (1, 1 + i, 0)B = (−i, 1, i). Wir bemerken, daß −i 1 1 = A−1 1 + i , i 0 d. h. (bB )T = A−1 bT , und letzteres gilt dann natürlich für alle b ∈ C3 . Dies läßt sich wie folgt verallgemeinern: Satz 4.21. Sei K ein Körper und V ein K-Vektorraum. b1 , . . . , bn ∈ V seien linear unabhängige Elemente. Mit U bezeichnen wir den von b1 , . . . , bn erzeugten K-Untervektorraum von V . (Dann ist {b1 , . . . , bn } Basis von U .) Seien weiter a1 , . . . , am ∈ U . Für i = 1, . . . , m sei (αi,1 , . . . , αi,n ) ∈ K n Koordinatenvektor von ai bezüglich der geordneten Basis B := (b1 , . . . , bn ) von U . α11 . . . α1n .. . Dann gilt Wir setzen A := ... . αm1 . . . αmn rang {a1 , . . . , am } = rang A. Beweis. Definitionsgemäß ist B := {b1 , . . . , bn } Basis von U . Für i = 1, . . . , m sei ai := (αi,1 , . . . , αi,n ). Dann gilt (s. Satz 3.44): rang A = rang {a1 , . . . , am }. Da {a1 , . . . , am } = κB ({a1 , . . . , am }), ergibt sich die Behauptung daher aus Folgerung 4.16, 4.3. FUNDAMENTALSATZ 4.3 95 Fundamentalsatz der linearen Algebra Unser nächstes Ziel ist, eine Klassifikation aller K-Vektorräume zu erreichen, wenn K ein fester Körper ist. Dabei heißt ”Klassifikation”, einem K-Vektorraum gewisse Daten so zuzuordnen, daß er dadurch bis auf K-Isomorphie eindeutig bestimmt ist. Es ist klar, daß diese Daten invariant gegenüber K-Isomorphismen sein müssen, d. h. solche Daten müssen für isomorphe K-Vektorräume übereinstimmen. Man nennt sie daher auch Invarianten eines K-Vektorraumes. Wir werden dieses Problem etwas allgemeiner lösen, indem wir statt dessen freie Moduln über einem kommutativen Ring R betrachten. Es wird sich herausstellen, daß zur Klassifikation von freien R-Moduln (und damit natürlich auch von Vektorräumen über einem Körper) eine einzige Invariante ausreicht: der Rang, s. Definition 3.31. Wir bemerken, daß der Rang tatsächlich eine Invariante ist, da nach Folgerung 4.15(2) isomorphe freie R-Moduln den gleichen Rang haben. Satz 4.22 (Homomorphiesatz für Moduln). Sei R ein Ring. (1) Sei M ein Links-R-Modul und U ein Links-R-Untermodul von M . Der durch π(m) := m + U für alle m ∈ M definierte kanonische Epimorphismus π : M → M/U (s. Bemerkung 4.8.11) hat folgende Eigenschaft: Für jeden Links-R-Modul N und jeden R-Homomorphismus f : M → N mit U ⊆ Kern f gibt es genau einen R-Homomorphismus g : M/U → N mit f = g ◦ π. (2) Seien M, N Links-R-Moduln und sei f : M → N ein R-Homomorphismus. Es gibt einen R-Isomorphismus ϕ : M/Kernf → Bildf mit f = ι◦ϕ◦π, wenn π : M → M/Kern f den kanonischen Epimorphismus und ι die Einbettung Bild f ⊆ N bezeichnen. ϕ ist durch diese Eigenschaft eindeutig festgelegt. Beweis. (1) Sei f : M → N ein R-Homomorphismus in einen weiteren Links-RModul N mit U ⊆ Kern f . Seien m, m0 ∈ M mit m + U = m0 + U , d. h. m − m0 ∈ U . Wegen U ⊆ Kern f gilt somit m − m0 ∈ Kern f und es folgt f (m) − f (m0 ) = f (m − m0 ) = 0N , d. h. f (m) = f (m0 ). Daher ist durch m + U 7→ f (m), m ∈ M , eine Abbildung g : M/U → N definiert. Offensichtlich gilt hierfür f = g ◦ π und damit ist g nach Übungsaufgabe 9 ein R-Homomorphismus, der zudem durch f = g ◦ π eindeutig bestimmt ist. (2) Nach (1) gibt es einen eindeutig bestimmten R-Homomorphismus g : M/Kern f → N mit f = g ◦ π. Sei m ∈ M , so daß m + Kern f ∈ Kern g. Dann gilt 0N = g(m + Kern f ) = f (m), d. h. m ∈ Kern f und somit m + Kern f = Kern f = 0M/Kern f . Wir haben also Kern g = 0 und Lem- 96 KAPITEL 4. LINEARE ABBILDUNGEN ma 4.10(2) liefert, daß g injektiv, also Monomorphismus ist. Weiter gilt Bild g = {g(m + Kern f ) | m ∈ M } = {f (m) | m ∈ M } = Bild f. Wir setzen (s. Lemma 4.10) ϕ := g 0 . Weil g injektiv ist, ist auch g 0 = ϕ injektiv und damit bijektiv, also Isomorphismus. Da g = ι◦g 0 , gilt f = ι◦ϕ◦π. Wegen der Eindeutigkeit von g und der Injektivität von ι ist auch ϕ eindeutig durch f bestimmt (s. die Modul-Variante von Übungsaufgabe 4), Satz und Definition 4.23 (Prinzip der linearen Fortsetzung). Sei R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. Ferner sei B Basis von F . Dann gilt: Zu jeder Abbildung ϕ : B → N gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ϕ. f heißt (R-)lineare Fortsetzung von ϕ. Beweis. 1. Existenz von f : Sei κ : F → R(B) die Koordinatenabbildung bezüglich B, s. Definition 4.17(b). Der Übersichtlichkeit halber schreiben wir für x ∈ F statt κ(x) einfach wieder κx und setzen X κx (b)ϕ(b) ∈ N. f (x) := b∈B Da für x, y ∈ F , r, s ∈ R gilt (man beachte, daß κ ein R-Homomorphismus ist) f (rx + sy) = X κrx+sy (b)ϕ(b) = (rκx + sκy )(b)ϕ(b) b∈B b∈B = X X (rκx (b) + sκy (b))ϕ(b) b∈B = r X κx (b)ϕ(b) + s b∈B X κx (b)ϕ(b) b∈B = rf (x) + sf (y), ist f ein R-Homomorphismus. Da weiter für c ∈ B gilt X f (c) = κc (b)ϕ(b) = 1R ϕ(c) = ϕ(c), b∈B haben wir auch f |B = ϕ. 2. Eindeutigkeit von f : 4.3. FUNDAMENTALSATZ 97 Sei P g : F → N ein R-Homomorphismus mit g|B = ϕ und sei x ∈ F . Da x = b∈B κx (b)b, erhalten wir ! g(x) = g X b∈B κx (b)b = X κx (b)g(b) = b∈B X κx (b)ϕ(b) = f (x), b∈B d. h. g = f , Bemerkungen 4.24. R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. 1. Nach dem Prinzip der linearen Fortsetzung ist ein R-Homomorphismus f : F → N umkehrbar eindeutig durch die Werte festgelegt, die f auf einer Basis B von F annimmt. Diese Werte können umgekehrt beliebig vorgegeben werden, d. h. es gilt HomR (F, N ) ∼ = Abb (B, N ) = N B . Sind f, g : F → N R-Homomorphismen und gilt f (b) = g(b) für alle b ∈ B, so folgt daher f = g. 2. Wenn es einen R-Isomorphismus f : F → N gibt, so ist nach Folgerung 4.15(2) auch N frei. Ist B Basis von F , so ist die Koordinatenabbildung κB : F → R(B) ein R-Isomorphismus. Damit ist R(B) frei und {κB (b) | b ∈ B} ist Basis von R(B) , s. wiederum Folgerung 3.6 (2). Nun gilt aber für b, c ∈ B: 1R wenn c = b (κB (b))(c) = κb (c) = 0R wenn c 6= b Dies läßt sich nun wie folgt verallgemeinern: Lemma 4.25. Sei R ein Ring und X eine Menge. Für x ∈ X sei ϕx : X → R definiert durch 1R wenn y = x ϕx (y) := , y∈X 0R wenn y 6= x Wir setzen X := {ϕx | x ∈ X}. Dann gilt (1) X ⊆ R(X) (2) R(X) ist frei als Links- und Rechts-R-Modul und X ist jeweils Basis von R(X) . Man nennt diese Basis kanonische Basis von R(X) . (3) Ist R kommutativ oder X unendlich, so gilt rangR R(X) = #X. Beweis. Es ist klar, daß ϕx ∈ R(X) für alle x ∈ X, d. h. es gilt X ⊆ R(X) . 98 KAPITEL 4. LINEARE ABBILDUNGEN Sei ϕ ∈ R(X) . Dann gilt für y ∈ X P P ϕ(y) = ϕ(y)1R = x∈X ϕ(x)ϕx (y) = x∈X ϕ(x)ϕx (y) und P P ϕ(y) = 1R ϕ(y) = x∈X ϕx (y)ϕ(x) = ϕ ϕ(x) (y), x x∈X P P d. h. wir haben ϕ = x∈X ϕ(x)ϕx ∈ RX und ϕ = x∈X ϕx ϕ(x) ∈ X R . Somit ist X Erzeugendensystem von R(X) als Links-R-Modul und als Rechts-R-Modul. Seien nun x1 , . . . , xn paarweise verschiedene Elemente aus X und nehmen wir an, daß r1 ϕx1 + . . . + rn ϕxn = 0R(X) für r1 , . . . , rn ∈ R. Dann gilt für j = 1, . . . , n P P rj = rj 1R = ni=1 ri ϕxi (xj ) = ( ni=1 ri ϕxi ) (xj ) = 0R(X) (xj ) = 0R , d. h. ϕx1 , . . . , ϕxn sind linear unabhängig. Damit ist X linear unabhängige Menge, also Basis von R(X) als Links-R-Modul. Entsprechend ergibt sich, daß X Basis von R(X) auch als Rechts-R-Modul ist wie behauptet. Wir bemerken, daß mit x1 , . . . , xn auch ϕx1 , . . . , ϕxn paarweise verschieden sind und daß damit durch x 7→ ϕx , x ∈ X, eine bijektive Abbildung ψX : X → X gegeben ist. Ist R kommutativ oder X und damit X unendlich, so gilt daher rangR R(X) = #X = #X, s. Definition 3.31, Bemerkungen 4.26. 1. Seien X, R wie in Lemma 4.25. Identifiziert man die Elemente von X ⊆ R(X) vermöge der Bijektion ψX : X → X mit den entsprechenden Elementen von X, so kann man o. B. d. A. X ⊆ R(X) annehmen. Daher nennt man R(X) auch den von X erzeugten freien Linksbzw. Rechts-R-Modul. 2. Sei X endlich, sagen wir, X = {x1 , . . . , xn }. Dann gilt (s. Bemerkung 4.19) R(X) ∼ = Rn , wobei dieser Isomorphismus von einer Reihenfolge der Elemente von X abhängt. Fixieren wir etwa die Reihenfolge (x1 , . . . , xn ) und bezeichnenen den entsprechenden Isomorphismus R(X) ∼ = Rn mit π, so gilt für i = 1, . . . , n π(xi ) = (ϕxi (x1 ), . . . , ϕxi (xn )) = (0R , . . . , 0R , 1R , 0R , . . . , 0R ) = en,i , |{z} i−te Stelle d. h. wir haben π(X) = {en,1 , . . . , en,n }. Folgerung 4.27 (aus Satz 4.23). Sei R ein Ring und seien F, N Links-R-Moduln, wobei F frei ist. Sei B Basis von F und C Teilmenge von N . Zu jeder Abbildung ψ : B → C gibt es einen eindeutig bestimmten R-Homomorphismus f : F → N mit f |B = ψ. Hierfür gilt: (1) f ist Monomorphismus genau dann, wenn ψ injektiv und ψ(B) ⊆ C linear unabhängig ist. 4.3. FUNDAMENTALSATZ 99 (2) f ist Epimorphismus genau dann, wenn ψ(B) Erzeugendensystem von N ist. Beweis. (1) Ist f Monomorphismus, so ist f injektiv und daher ist ψ wegen ψ = f |B ebenfalls injektiv. Da ψ(B) = f (B), ist ψ(B) nach Lemma 4.14(2) linear unabhängig. Sei nun umgekehrt ψ injektiv und ψ(B) linear unabhängig. Wenn f (m) = 0N für m ∈ F , so schreiben wir m = r1 b1 + . . . + rn bn mit r1 , . . . , rn ∈ R und paarweise verschiedenen b1 , . . . , bn ∈ B. Da dann auch ψ(b1 ), . . . , ψ(bn ) paarweise verschieden und linear unabhängig sind und da r1 ψ(b1 ) + . . . + rn ψ(bn ) = r1 f (b1 ) + . . . + rn f (bn ) = f (r1 b1 + . . . + rn bn = f (m) = 0N , folgt r1 = . . . = rn = 0R und damit m = 0F . Nach dem Injektivitätskriterium (s. Lemma 4.10(2)) ist f ein Monomorphismus. (2) Wegen F = RB und ψ(B) = f (B) haben wir f (F ) = f (RB) = Rf (B) = Rψ(B) und damit gilt f Epimorphismus ⇐⇒ f (F ) = N ⇐⇒ Rψ(B) = N ⇐⇒ ψ(B) Erzeugendensystem von N, Folgerung 4.28 (aus Satz 4.23). Sei R ein Ring und seien X, Y Mengen. Wenn #X = #Y , so gilt R(X) ∼ = R(Y ) . Die Umkehrung ist richtig, wenn R kommutativ oder X unendlich ist. Beweis. Nach Bemerkung 4.26 ist X Basis von R(X) und Y Basis von R(Y ) . Wegen #X = #Y gibt es eine bijektive Abbildung X → Y . Diese setzen wir zu einem R-Homomorphismus f : R(X) → R(Y ) fort. Nach Folgerung 4.27 ist f Isomorphismus. Ist R kommutativ oder ist X unendlich, so ergibt sich die Umkehrung der Aussage aus Folgerung 4.15(2) in Zusammenhang mit Lemma 4.25(3), Folgerung 4.29 (aus Satz 4.23). Sei R ein Ring und M ein (endlich erzeugter) Links-R-Modul. Dann gibt es einen (endlich erzeugten) freien Links-R-Modul F und einen R-Epimorphismus F → M . Beweis. Sei X (endliches) Erzeugendensystem von M . O. B. d. A. gelte X ⊆ R(X) (s. Bemerkung 4.26.1). Weiter sei ϕX : X → M die Einbettung X ⊆ M . Da X nach Lemma 4.25(2) Basis von R(X) (als Links-R-Modul) ist, besitzt ϕX nach 100 KAPITEL 4. LINEARE ABBILDUNGEN Satz 4.23 eine Fortsetzung f : R(X) → M mit f |X = ϕX . Da somit f (X) = ϕX (X) = X, ist f Epimorphismus nach Folgerung 4.27(2), Theorem 4.30 (Fundamentalsatz der linearen Algebra). Sei R ein kommutativer Ring. (1) Sei V ein freier R-Modul und sei B Basis von V . Dann gilt V ∼ = R(B) . (2) Freie R-Moduln V, W sind isomorph genau dann, wenn rangR V = rangR W . (3) Für jede Kardinalzahl λ gibt es bis auf Isomorphie genau einen freien RModul vom Rang λ. Beweis. (1) Dies ergibt sich sofort aus Lemma 4.18 mit der Koordinatenabbildung κB : V → R(B) . (2) Wenn V ∼ = W , so gilt rangR V = rangR W nach Folgerung 4.15(2). Sei also umgekehrt rangR V = rangR W . Wir wählen Basen B von V und C von W . Da #B = rang V = rang W = #C, haben wir R(B) ∼ = R(C) nach Folgerung 4.28. Nach (1) erhalten wir dann Isomorphismen −1 κC κB V −→ R(B) ∼ = R(C) −→ W. (3) Sei nun λ eine Kardinalzahl und sei X Menge mit #X = λ. Nach Lemma 4.25(3) gilt dann rangR R(X) = #X = λ, Folgerung 4.31. Sei R ein kommutativer Ring. Bis auf Isomorphie sind die R-Moduln Rn , n = 0, 1, . . ., die einzigen endlich erzeugten freien R-Moduln. Dabei gilt Rm ∼ 6= Rn für alle m, n ∈ N mit m 6= n. Folgerung 4.32. Sei K ein Körper. K-Vektorräume V, W sind isomorph genau dann, wenn rangK V = rangK W . Für jede Kardinalzahl λ gibt es bis auf Isomorphie genau einen K-Vektorraum vom Rang λ. Satz 4.33 (Rangformel). Sei K ein Körper und sei f : V → W eine K-lineare Abbildung, wobei V, W K-Vektorräume sind. Dann gilt rangK V = rangK Kern f + rangK Bild f. Beweis. Sei zunächst rang V < ∞, d. h. V ist endlich erzeugt. Dann ergibt sich aus Satz 3.41(1) zusammen mit Satz 4.22(2): rang V = rang Kern f + rang V /Kern f = rang Kern f + rang Bild f. Sei nun rang V = ∞, d. h. V ist nicht endlich erzeugt. Wenn auch Kern f nicht endlich erzeugt ist, so sind wir fertig. Nehmen wir also an, Kern f sei endlich 4.4. MATRIZENDARSTELLUNGEN 101 erzeugt. Sei B Basis von Kern f . Wir ergänzen B durch eine linear unabhängige Menge Z ⊂ V \ B zu einer Basis B ∪ Z von V (s. Folgerung 3.35). Nach Lemma 3.33(2) ist Z̄ := {z + Kern f | z ∈ Z} Basis von V /Kern f . Da rang V = ∞ und rangKernf < ∞, ist Z unendlich. Nach Lemma 3.33(3) ist Z̄ ebenfalls unendlich, d. h. rang Bild f = ∞ und wir sind fertig, 4.4 Matrizendarstellungen linearer Abbildungen Obwohl einige der nachfolgenden Resultate auch allgemeiner gelten, wollen wir uns hier auf die Untersuchung endlich erzeugter freier Moduln über kommutativen Ringen beschränken. Wenn nicht ausdrücklich anders gesagt, sind in diesem Abschnitt alle betrachteten Ringe kommutativ und alle Moduln sind endlich erzeugt. Sei nun R ein Ring und seien V, W freie R-Moduln mit m := rangR V und n := rangR W . Ferner seien geordnete Basen B := (b1 , . . . , bm ) von V und C := (c1 , . . . , cn ) von W vorgelegt. Ein Ergebnis der nachfolgenden Überlegungen ist, daß HomR (V, W ) ein freier R-Modul mit rangR HomR (V, W ) = m · n ist. Dazu werden wir aus den vorgelegten geordneten Basen von V und W eine geeignete geordnete Basis von HomR (V, W ) konstruieren und damit für R-Homomorphismen f : V → W (also für Elemente von HomR (V, W )) Koordinatendarstellungen bzgl. dieser Basis zu bestimmen. Dabei stellt es sich heraus, dass es zweckmäßig ist, das Konzept der geordneten Basis in diesem Kontext so zu modifizieren, daß diese Koordinatendarstellungen nicht in Form von m · n-Tupeln, sondern von (m, n)-Matrizen erfolgen. Sei f : V → W ein R-Homomorphismus. Problem 1: Für v ∈ V berechne man f (v). Nach Satz 4.23 ist f bereits umkehrbar eindeutig festgelegt durch die Angabe von f (b1 ), . . . , f (bm ) ∈ W . Die Lösung ergibt sich daher aus dem folgenden Satz: n Satz 4.34. Für i = 1, . . . , m sei mit obigen Bezeichnungen bi := i )C ∈ R f (bn,m T T Koordinatenvektor von f (bi ) bzgl. C. Weiter sei A := b1 , . . . , bm ∈ R . T Für alle v ∈ V gilt dann f (v)TC = AvB und A ist durch diese Eigenschaft eindeutig bestimmt. Beweis. Sei vB =: (α1 , . . . , αm ) und bi =: (βi1 , . . . , βin ), i = 1, . . . , m. Für j = 102 KAPITEL 4. LINEARE ABBILDUNGEN 1, . . . , n gilt dann mit γj := α1 β1j + . . . + αm βmj : f (v) = f (α1 b1 + . . . + αm bm ) = α1 f (b1 ) + . . . + αm f (bm ) = α1 (β11 c1 + . . . + β1n cn ) + . . . + αm (βm1 c1 + . . . + βmn cn ) = γ1 c1 + . . . + γn cn , T Damit folgt f (v)TC = (γ1 , . . . , γn )T = AvB . T mit einer Matrix à ∈ Rn,m , so gilt für alle Wenn für alle v ∈ V gilt f (v)TC = ÃvB i = 1, . . . , m wegen (bi )B = eni (s. Lemma 3.25): bTi = f (bi )TC = Ã(bi )TB = ÃeTni , d. h. die i-te Spalte von à stimmt mit der i-ten Spalte von A überein und damit gilt à = A, Definition 4.35. Seien R, V, W, B, C, f wie soeben beschrieben. Die Matrix A := f (b1 )TC , . . . , f (bm )TC ∈ Rn,m heißt Koordinatenmatrix, manchmal auch Darstellungsmatrix, von f bzgl. der geordneten Basen B und C, Schreibweise: A = fB,C . Ist f Endomorphismus von V , so schreiben wir statt fB,B kurz fB und nennen diese Matrix Koordinatenmatrix von f bzgl. der geordneten Basis B. (Dennoch kann man natürlich auch die Koordinatenmatrix eines Endomorphismus von V bzgl. verschiedener geordneter Basen von V betrachten, s. hierzu auch Definition 4.46) Beispiel 4.36. Seien b1 := (−4, −1, 2), b2 := (1, 0, −1), b3 := (0, 2, 3) Elemente des Q3 und c1 := (−1, 1), c2 := (2, −1), c3 := (1, 0) Elemente des Q2 . Wir setzen B := {b1 , b2 , b3 } und C := {c1 , c2 , c3 }. Weiter sei ψ : B → C die durch bi 7→ ci , i = 1, 2, 3, gegebene Abbildung. (a) Man zeige, daß B Basis von Q3 und {c1 , c2 } Basis von Q2 ist. (b) Sei f : Q3 → Q2 die durch f |B = ψ eindeutig bestimmte Q-lineare Abbildung (s. Folgerung 4.27). Man berechne die Koordinatenmatrix von f bezüglich der geordneten Basen B := (b1 , b2 , b3 ) des Q3 bzw. E := (e21 , e22 ) des Q2 sowie die Koordinatenmatrix von f bezüglich B und der geordneten Basis C := (c1 , c2 ) des Q2 . (c) Man berechne f (1, 1, −1). (d) Man bestimme Bild f und Kern f . Lösung: 4.4. MATRIZENDARSTELLUNGEN 103 (a) Nach Folgerung 3.32(2) gilt rangQ3 = 3 und nach Satz 3.44 ist daher B Basis −4 −1 2 3 0 −1 = 3. des Q genau dann, wenn rang 1 0 2 3 Anwendung des Gaußschen Algorithmus liefert −4 −1 2 1 0 −1 1 0 −1 1 0 −1 ; 0 −1 −2 ; 0 −1 −2, 0 2 3 0 2 3 0 0 −1 −4 −1 2 1 0 −1 0 −1 = rang 0 −1 −2 = 3 und damit ist d. h. es gilt rang 1 0 2 3 0 0 −1 B Basis des Q3 . −1 1 −1 1 Analog ergibt sich rang = rang = 2 und damit ist 2 −1 0 1 {c1 , c2 } Basis des Q2 . (b) Laut Definition gilt (f (b1 )TE , f (b2 )TE , f (b3 )TE = cT1 , cT2 , cT3 −1 2 1 = sowie 1 −1 0 = f (b1 )TC , b2 )TC , f (b3 )TC = (c1 )TC , (c2 )TC , (c3 )TC 1 0 1 = , 0 1 1 fB,E = fB,C da c1 = 1c1 + 0c2 , c2 = 0c1 + 1c2 und c3 = 1c1 + 1c2 . (c) Da mit A := fB,E gilt f (1, 1, −1)T = f (1, 1, −1)TE = A(1, 1, −1)TB , benötigen wir das Tripel (α, β, γ) := (1, 1, −1)B . Wegen αb1 + βb2 + γb3 = (1, 1, −1) ist (α, β, γ) Lösung des linearen Gleichungssystems mit erweiterter Koeffizientenmatrix bT1 , bT2 , bT3 , (1, 1, −1)T . Anwendung des modifizierten Gaußschen Algorithmus auf diese Matrix liefert −4 1 0 1 −1 0 2 1 −1 0 2 1 ; 0 −1 7 1 ; 2 −1 3 −1 0 1 −8 −3 −1 0 2 1 1 0 0 3 ; 0 −1 7 1 ; 0 1 0 13 . 0 0 −1 −2 0 0 1 2 104 KAPITEL 4. LINEARE ABBILDUNGEN Hieraus folgt (α, β, γ) = (3, 13, 2) und somit erhalten wir f (1, 1, −1)T = A(3, 13, 2)T = (25, −10)T , d. h. f (1, 1, −1) = (25, −10). (d) Da ψ(B) = C und da C eine Basis von Q2 enthält (s. (a)) und somit Erzeugendensystem des Q2 ist, ist f Epimorphismus nach Folgerung 4.27(2). Folglich gilt Bild f = Q2 . Sei v ∈ Kernf und sei a := vB . Dann gilt AaT = f (v)T = 0, d. h. a ist Lösung des homogenen linearen Gleichungssystems AXT = 0. Ist umgekehrt a ∈ Q3 Lösung von AXT = 0, so ist a Koordinatenvektor eines Elementes aus Kern f bzgl. der geordneten Basis B von Q3 . Die Lösungsmenge von AXT = 0 ist {(−1, −1, 1)t | t ∈ Q}, so daß Kern f = {−tb1 − tb2 + tb3 | t ∈ Q} = {t(3, 3, 2) | t ∈ Q} = Q(3, 3, 2). Lemma 4.37. Sei R ein Ring und seien U, V, W freie R-Moduln mit geordneten Basen B, C, D. Weiter seien f, f 0 : U → V R-Homomorphismen mit Koordinatenmatrizen A, A0 bezüglich B und C und g : V → W R-Homomorphismus mit Koordinatenmatrix à bezüglich C und D. Dann gilt (1) A + A0 ist Koordinatenmatrix von f + f 0 bezüglich B und C, d. h. 0 (f + f 0 )B,C = fB,C + fB,C . (2) à · A ist Koordinatenmatrix von g ◦ f bezüglich B und D, d. h. (g ◦ f )B,D = gC,D · fB,C . (3) Die Koordinatenmatrix von idU bezüglich B ist die Einheitsmatrix, d. h. (idU )B = En , wenn n := rangR U . (4) Für α ∈ R ist αA Koordinatenmatrix von αf bezüglich B und C, d. h. (αf )B,C = αfB,C . Beweis. Für alle u ∈ U gilt (f + f 0 )(u)TC = = = = (g ◦ f )(u)TD = = = T idU (u)B = (αf )(u)TC = = = κC ((f + f 0 )(u))T = κC (f (u) + f 0 (u))T κC (f (u))T + κC (f 0 (u))T = f (u)TC + f 0 (u)TC AuTB + A0 uTB (A + A0 )uTB , κD ((g ◦ f )(u))T = (κD (g(f (u)))T = g(f (u))TD Ã(f (u)C )T = Ã(AuTB ) (ÃA)uTB , κB ((idU (u))T = κB (u)T = uTB = En uTB und κC ((αf )(u))T = κC (αf (u))T = α(κC (f (u))T ) α(f (u)TC ) = α(AuTB ) (αA)uTB . 4.4. MATRIZENDARSTELLUNGEN 105 Damit folgt die Behauptung aus der Eindeutigkeitsaussage von Satz 4.34, Satz 4.38. Sei R ein Ring und seien V, W freie R-Moduln mit geordneten Basen B, C. Wir setzen m := rangR V , n := rangR W . Dann gilt (1) Die Abbildung cB,C : HomR (V, W ) → Rn,m , die jedem R-Homomorphismus f : V → W seine Koordinatenmatrix fB,C bezüglich B und C zuordnet, ist ein R-Isomorphismus. (2) Die Abbildung cB := cB,B : EndR (V ) → Rm,m ist ein Ringisomorphismus (sogar ein R-Algebra-Isomorphismus). Beweis. Aus Lemma 4.37(1) und (4) ergibt sich unmittelbar, daß cB,C R-Homomorphismus ist. Nach Lemma 4.37(2) und (3) ist cB damit ein R-Algebra-Homomorphismus, so daß nur noch die Bijektivität von cB,C zu zeigen ist. Für A ∈ Rn,m definieren wir eine Abbildung ψA : V → W , indem wir für v ∈ V , v = β1 b1 + . . . + βm bm (d. h. (β1 , . . . , βm ) = vB ), setzen ψA (v) := γ1 c1 + . . . + γn cn , T wenn (γ1 , . . . , γn )T := A(β1 , . . . , βm )T = AvB = A(κB (v))T . Da κB R-Homomorphismus ist, ist somit auch ψA R-Homomorphismus. Durch A 7→ ψA , A ∈ Rn,m , ist eine Abbildung ψB,C : Rn,m → HomR (V, W ) gegeben, für die gilt ψB,C ◦ cB,C = idHomR (V,W ) und cB,C ◦ ψB,C = idRn,m . Damit ist aber cB,C bijektiv (und es gilt c−1 B,C = ψB,C ), Bemerkungen 4.39. 1. Ist R nicht kommutativ, so bleiben die Aussagen (1) und (3) aus Lemma 4.37 gültig. Aussage (4) aus Lemma 4.37 ist gegenstandslos, da αf für nicht kommutatives R i. a. kein R-Homomorphismus ist. Damit ist cB,C in Satz 4.38(1) lediglich ein Isomorphismus abelscher Gruppen. Für Rechts-R-Moduln sind auch Lemma 4.37(2) und der erste Teil von Aussage (2) aus Satz 4.38 richtig. Für Links-R-Moduln müßte die Aussage von Satz 4.34 mit den dortigen Bezeichnungen lauten f (v)C = vB AT . Lemma 4.37(2) und Satz 4.38(2) sind dann nicht mehr richtig. 2. Lemma 4.37(2) besagt, daß die Abbildungen cB,C mit der Hintereinanderschaltung verträglich sind, wenn man ”Hintereinanderschaltung” bei Matrizen als Multiplikation interpretiert. 106 KAPITEL 4. LINEARE ABBILDUNGEN 3. Sei R ein Ring und V ein freier R-Modul vom Rang n mit geordneter Basis B. Der Ringisomorphismus cB : EndR (V ) → Rn,n induziert einen Gruppenisomorphismus c∗B : GlR (V ) → GlR (n). Folgerung 4.40. Sei R ein Ring und seien V, W freie R-Moduln. Dann ist HomR (V, W ) ebenfalls freier R-Modul und es gilt rangR HomR (V, W ) = rangR V · rangR W. Beweis. Sei m := rangR V und n := rangR W . Für i, j ∈ N, 1 ≤ i ≤ n, 1 ≤ j ≤ ij ∈ Rn,m diejenige (n, m)-Matrix, bei welcher an der Stelle (i, j) 1R m sei En,m und ansonsten 0R steht (s. Bemerkung 2.21.7). Nach Bemerkung 2.21.7 und Satz ij 3.27(1) bildet {En,m | 1 ≤ i ≤ n, 1 ≤ j ≤ m} eine Basis von Rn,m . Damit ist Rn,m freier R-Modul und wegen HomR (V, W ) ∼ = Rn,m ist auch HomR (V, W ) frei (s. Folgerung 4.15(2)) und es gilt ij rangR HomR (V, W ) = rangR Rn,m = #{En,m | 1 ≤ i ≤ n, 1 ≤ j ≤ m} = m · n, Satz 4.38 erlaubt es, Untersuchungen über Homomorphismen zwischen endlich erzeugten freien Moduln auf Fragen zurückzuführen, die mit Hilfe des Matrizenkalküls behandelt werden können. Für den Fall von Vektorräumen läßt sich dieser Zusammenhang etwas genauer beschreiben. Zunächst definieren wir Definition 4.41. Sei K ein Körper und seien V, W K-Vektorräume. Ist f : V → W K-lineare Abbildung, so setzen wir rangK f := rangK Bild f. Bemerkungen 4.42. 1. In Definition 4.41 müssen V und W nicht notwendig endlich erzeugt sein. 2. Definition 4.41 ist für beliebige (kommutative) Ringe i. a. nicht sinnvoll, selbst wenn vorausgesetzt wird, daß V, W freie Moduln sind, da ein Untermodul eines freien Moduls (in diesem Fall Bild f ) dann i. a. nicht frei ist. Lemma 4.43. Mit den Bezeichnungen von Definition 4.41 sei A Koordinatenmatrix von f bzgl. geordneter Basen B von V und C von W . Dann gilt rangK f = rangK A. 4.4. MATRIZENDARSTELLUNGEN 107 Beweis. Da κC Isomorphismus ist, gilt Bild f ∼ = κC (Bild f ). κC (Bild f ) wird aber T von den Zeilen von A erzeugt (s. die Definition von A) und daher folgt rangK f = rangK Bild f = rangK κC (Bild f ) = rangK A, In Verallgemeinerung von Folgerung 2.27 haben wir Satz 4.44. Sei K ein Körper und seien V, W K-Vektorräume mit rangK V = rangK W < ∞. Für f ∈ HomK (V, W ) sind die folgenden Bedingungen äquivalent (i) f ist Isomorphismus (ii) f ist Monomorphismus (iii) f ist Epimorphismus (iv) Es gibt ein g ∈ HomK (W, V ) mit g ◦ f = idV (v) Es gibt ein g ∈ HomK (W, V ) mit f ◦ g = idW (vi) rangK f = rangK W . Beweis. Die Implikationen (i) ⇒ (iv) ⇒ (ii) und (i) ⇒ (v) ⇒ (iii) ⇒ (vi) sind klar. Die Implikation (ii) ⇒ (vi) ergibt sich aus Lemma 4.10(2) und Satz 4.33. Es gelte nun (vi). Aus Satz 4.33 folgt rang Kern f = rang V − rang Bild f = rang W − rang f = 0, also Kern f = 0, und Lemma 4.10(2) liefert die Injektivität von f . Wegen Bild f ⊆ W und rang W = rang f = rang Bild f folgt Bild f = W , also die Surjektivität von f , aus Lemma 3.40(4). Damit ist f bijektiv, d. h. die Implikation (vi) ⇒ (i) ist gezeigt, Folgerung 4.45. Seien K ein Körper und V ein endlich erzeugter K-Vektorraum. Für f ∈ EndK (V ) sind die folgenden Bedingungen äquivalent (i) f ∈ GlK (V ), d. h. f ist Automorphismus von V (ii) f ist Monomorphismus (iii) f ist Epimorphismus (iv) Es gibt ein g ∈ EndK (V ) mit g ◦ f = idV (v) Es gibt ein g ∈ EndK (V ) mit f ◦ g = idV (vi) rangK f = rangK V . Abschließend wollen wir die folgenden Probleme diskutieren und in diesem Zusammenhang einige Beispiele betrachten. Problem 2: Seien V, W freie R-Moduln, die jeweils mit geordneten Basen B, B0 bzw. C, C0 ausgerüstet sind. 108 KAPITEL 4. LINEARE ABBILDUNGEN Welche Beziehung besteht zwischen den Koordinatenmatrizen fB,C und fB0 ,C0 eines R-Homomorphismus f : V → W bzgl. B und C bzw. bzgl. B0 und C0 ? Es stellt sich heraus, daß dieses Problem in engem Zusammenhang steht mit Problem 3: Sei V ein freier R-Modul mit geordneten Basen B und B0 und sei v ∈V. Welche Beziehung besteht zwischen den Koordinatenvektoren vB von v bzgl. B und vB0 von v bzgl. B0 ? Zur Lösung definieren wir zunächst: Definition 4.46. Sei R ein Ring und V ein freier R-Modul. B und B0 seien geordnete Basen von V . Die Koordinatenmatrix von idV bzgl. B und B0 heißt Transformationsmatrix von Koordinaten bzgl. B in Koordinaten bzgl. B0 . Wir bezeichnen sie mit tB,B0 . (Dann gilt also tB,B0 = (idV )B,B0 .) Bemerkung 4.47. Wenn mit diesen Bezeichnungen B = (b1 , . . . , bn ), B0 = (b01 , . . . , b0n ), wobei n := rang V , so schreiben wir für i = 1, . . . , n bi = αi1 b01 + . . . + αin b0n mit αi1 , . . . , αin ∈ R, d. h. (αi1 , . . . , αin ) = (bi )B0 . Dann gilt α11 . . . αn1 .. . tB,B0 = ... . α1n . . . αnn Damit können wir nun Problem 2 und 3 lösen. Dies soll mit dem nachfolgenden Satz 4.48 geschehen. Satz 4.48. Sei R ein Ring und seien V, W freie R-Moduln. B, B0 , B00 seien geordnete Basen von V und C, C0 geordnete Basen von W . (1) Es gilt tB,B00 = tB0 ,B00 · tB,B0 . Insbesondere ist tB,B0 invertierbar mit t−1 B,B0 = tB0 ,B . (2) Für alle v ∈ V gilt T T vB 0 = tB,B0 vB . 4.4. MATRIZENDARSTELLUNGEN 109 (3) Ist f : V → W R-Homomorphismus, so gilt fB0 ,C0 = tC,C0 · fB,C · t−1 B,B0 = tC,C0 · fB,C · tB0 ,B . (4) Ist f ein R-Endomorphismus von V , so gilt fB0 = tB,B0 · fB · t−1 B,B0 = tB,B0 · fB · tB0 ,B . Beweis. (1) Nach Lemma 4.37(2), (3) gilt mit n := rang V tB0 ,B00 · tB,B0 = (idV )B0 ,B00 · (idV )B,B0 = (idV ◦ idV )B,B00 = (idV )B,B00 = tB,B00 . Setzt man hier B00 := B, so folgt tB0 ,B · tB,B0 = tB,B = (idV )B = En . Vertauscht man nun B mit B0 , so folgt schließlich tB,B0 · tB0 ,B = En . (2) Nach Satz 4.34 gilt T T T tB,B0 vB = (idV )B,B0 vB = (idV (v))TB0 = vB 0. (3) Nach (1) und nach Lemma 4.37(2) gilt tC,C0 · fB,C · t−1 B,B0 = tC,C0 · fB,C · tB0 ,B = (idW )C,C0 · fB,C · (idV )B0 ,B = (idW ◦ f ◦ idV )B0 ,C0 = fB0 ,C0 . (4) folgt unmittelbar aus (3), Bemerkungen 4.49. 1. Sei R ein Ring und seien m, n ∈ N+ . Nach Satz 4.48(3) und (4) haben wir mit den dortigen Bezeichnungen: Die Koordinatenmatrizen fB,C und fB0 ,C0 von f bzgl. geordneter Basen B, B0 von V und C, C0 von W sind äquivalent. Ist f Endomorphismus von V , so sind die Koordinatenmatrizen fB und fB0 von f bzgl. B und B0 ähnlich, s. hierzu Definition 2.35. 2. Seien K ein Körper, n ∈ N+ und b1 , . . . , bn , b01 , . . . , b0n ∈ K n . Wir setzen 0 0 0 T T B := (b1 , . . . , bn ), B := (b1 , . . . , bn ) sowie A := b1 , . . . , bn ∈ K n,n , A0 := b01 T , . . . , b0n T ∈ K n,n . 110 KAPITEL 4. LINEARE ABBILDUNGEN Sind B := {b1 , . . . , bn } und B 0 := {b01 , . . . , b0n } Basen von K n , so überführt der modifizierte Gaußsche Algorithmus (A0 | A) in (En | tB,B0 ), wie man sofort mit Bemerkung 4.47 erkennt, so dass die Transformationsmatrix tB,B0 auf diese Weise berechnet werden kann. Etwas allgemeiner reicht es hierzu zu wissen, daß B Basis von K n ist. Überführt dann der modifizierte Gaußsche Algorithmus die Matrix (A0 | A) in eine Matrix der Gestalt (En | A00 ), so ist auch B 0 Basis von K n und es gilt tB,B0 = A00 . Beispiele 4.50. Für n ∈ N+ sei En die geordnete kanonische Basis des Rn , d. h. En = (en1 , . . . , enn ). 1. Sei E := E3 und B := (b1 , b2 , b3 ) mit b1 := (−1, 2, 0), b2 := (0, −1, −1) und b3 := (1, 0, 3). Man zeige, daß {b1 , b2 , b3 } Basis des R3 ist und bestimme die Transformationsmatrix tE,B von E nach B. Ferner ermittle man den Koordinatenvektor von (−1, 1, −1) bzgl. B. −1 0 1 Lösung: Sei A := 2 −1 0. Nach Bemerkung 4.49.2 reicht es, den 0 −1 3 modifizierten Gaußschen Algorithmus auf (A | E3 ) anzuwenden. Da dieser −1 0 1 1 0 0 1 0 −1 −1 0 0 (A | E3 ) = 2 −1 0 0 1 0 ; 0 −1 2 2 1 0 0 −1 3 0 0 1 0 −1 3 0 0 1 1 0 −1 −1 0 0 1 0 0 −3 −1 1 ; 0 1 −2 −2 −1 0 ; 0 1 0 −6 −3 2 0 0 1 −2 −1 1 0 0 1 −2 −1 1 liefert, ist {b1 , b2 , b3 } in der Tat Basis von R3 und es gilt −3 −1 1 tE,B = −6 −3 2 . −2 −1 1 −1 1 Da somit tE,B 1 = 1, gilt schließlich (−1, 1, −1)B = (1, 1, 0). −1 0 2. Vorgelegt seien die Vektoren b01 := (−2, −1, 1, 0), b02 := (−1, 1, 3, 1), b03 := (0, −2, −3, −1) und b04 := (3, 0, −1, 1) des R4 . (a) Man zeige, daß {b01 , b02 , b03 , b04 } Basis des R4 ist. (b) Sei f : R4 → R3 die durch f (b01 ) := (1, −1, 0), f (b02 ) := (−1, 2, 1), f (b03 ) := (0, −1, 1) und f (b04 ) := (1, 1, 1) eindeutig festgelegte R-lineare 4.4. MATRIZENDARSTELLUNGEN 111 Abbildung (s. Satz 4.23). Man bestimme rangf und gebe die Koordinatenmatrizen fB0 ,E3 von f bzgl. B0 := (b01 , b2 ,0 b03 , b04 ) und E3 sowie fE4 ,E3 von f bzgl. E4 und E3 an. −2 −1 0 3 −1 1 −2 0 = tB0 ,E4 , wenn {b01 , b02 , b03 , b04 } Lösung: (a) Sei A := 1 3 −3 −1 0 1 −1 1 4 Basis von R ist . Wir wenden den modifizierten Gaußschen Algorithmus auf (A | E4 ) an und erhalten −2 −1 0 3 1 0 0 0 −1 1 −2 0 0 1 0 0 (A | E4 ) = 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 1 3 −3 −1 0 0 1 0 0 5 −6 1 1 0 2 0 ; 0 4 −5 −1 0 1 1 0 0 1 −1 1 0 0 0 1 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 ; 0 0 1 4 −1 0 −2 5 0 0 −1 −5 0 1 1 −4 1 3 −3 −1 0 0 1 0 0 1 −1 1 0 0 0 1 ; 0 0 1 4 −1 0 −2 5 0 0 0 1 1 −1 1 −1 1 0 0 0 4 −4 5 −7 0 1 0 0 −6 5 −7 11 ; 0 0 1 0 −5 4 −6 9 . 0 0 0 1 1 −1 1 −1 Nach Bemerkung 4.49.2 4 −4 5 −6 5 −7 tE4 ,B0 = −5 4 −6 1 −1 1 ist damit {b01 , b02 , b03 , b04 } Basis von R4 und es gilt −7 11 = A−1 . 9 −1 (b) Laut Definition gilt B 0 := fB0 ,E3 1 −1 0 1 = −1 2 −1 1. Aus Satz 0 1 1 1 112 KAPITEL 4. LINEARE ABBILDUNGEN 4.48(3) folgt dann B := fE4 ,E3 = tE3 ,E3 · fB0 ,E3 · tE4 ,B0 = B 0 · A−1 Nach Lemma 4.43(3) gilt rang f = rang Gaußschen Algorithmus auf B 0 liefert 1 −1 0 1 1 0 −1 2 −1 1 ; 0 B = 0 1 1 1 0 1 −1 0 1 0 1 −1 2 , ; 0 0 2 −1 11 8 13 27 19 . = −10 9 14 −10 8 −12 −19 B 0 = rang B. Anwendung des −1 0 1 1 −1 2 1 1 1 d. h. wir haben rang f = 3. (Damit gilt übrigens Bild f = R3 , d. h. f ist Epimorphismus.) 4.5 Multilineare Abbildungen Sei X eine Menge. Die Menge S(X) der bijektiven Abbildungen X → X bildet mit der Hintereinanderschaltung als Verknüpfung eine Gruppe, die symmetrische Gruppe von X, s. Beispiel 2.1.3 und 2.9.3. Ihre Elemente nennt man auch Permutationen (der Elemente) von X. Für n ∈ N setzen wir Sn := S({1, . . . , n}) und nennen diese Gruppe n-te symmetrische Gruppe. Sie besitzt genau n! Elemente, s. Übungsaufgabe 14(b). Definition 4.51. Sei n ∈ N+ und σ ∈ Sn . Ein geordnetes Paar (i, j) ∈ N × N mit 1 ≤ i < j ≤ n heißt Fehlstellung von σ, wenn σ(j) < σ(i). Mit z(σ) bezeichnen wir die Anzahl der Fehlstellungen von σ und setzen sign σ := (−1)z(σ) ∈ {−1, 1} (Signum von σ). σ heißt gerade Permutation, wenn sign σ = 1, ansonsten heißt σ ungerade Permutation. Bemerkung 4.52. Offenbar gilt für σ ∈ Sn : sign σ = σ(j) − σ(i) . j−i 1≤i<j≤n Y 4.5. MULTILINEARE ABBILDUNGEN 113 Lemma 4.53. Für alle σ, τ ∈ Sn gilt sign (στ ) = sign σ · sign τ, d. h. die durch σ 7→ sign σ für alle σ ∈ Sn gegebene Abbildung sign : Sn → ({−1, 1}, ·) ist ein Homomorphismus (für n ≥ 2 sogar ein Epimorphismus). Beweis. sign (στ ) = (στ )(j) − (στ )(i) j−i 1≤i<j≤n Y = Y τ (j) − τ (i) σ(τ (j)) − σ(τ (i)) · τ (j) − τ (i) j−i 1≤i<j≤n 1≤i<j≤n = Y τ (j) − τ (i) σ(v) − σ(u) · v−u j−i 1≤i<j≤n 1≤u<v≤n Y Y = sign σ · sign τ, Folgerung 4.54. Die Menge An := {σ | σ ∈ Sn , sign σ = 1} ⊆ Sn der geraden Permutationen von {1, . . . , n} ist ein Normalteiler der Sn . Sie heißt n-te alternierende Gruppe. Beweis. Dies ergibt sich aus Übungsaufgabe 5(c), da An = Kern sign , Sei nun R ein kommutativer Ring. Definition 4.55. (a) Seien M1 , . . . , Mp , N R-Moduln, wobei p ∈ N. Eine Abbildung f : M1 × . . . × Mp → N heißt p-fach R-linear (kurz: R-p-linear) oder allgemeiner R-multilinear, wenn f komponentenweise R-linear (also ein R-Homomorphismus) ist, d. h. wenn für alle i = 1, . . . , p gilt: 114 KAPITEL 4. LINEARE ABBILDUNGEN Seien m1 ∈ M1 , . . . , mi−1 ∈ Mi−1 , mi+1 ∈ Mi+1 , . . . , mp ∈ Mp . Dann gilt für alle m, m0 ∈ Mi und alle r ∈ R f (m1 , . . . , mi−1 , m + m0 , mi+1 , . . . , mp ) = = f (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ) + +f (m1 , . . . , mi−1 , m0 , mi+1 , . . . , mp ) und f (m1 , . . . , mi−1 , rm, mi+1 , . . . , mp ) = = rf (m1 , . . . , mi−1 , m, mi+1 , . . . , mp ). f heißt R-p-Linearform, wenn N = R. Die Menge der R-p-linearen Abbildungen f : M1 × . . . × Mp → N wird mit MultR (M1 , . . . , Mp ; N ) bezeichnet. Falls M1 = . . . = Mp =: M , so setzt man MultR (M1 , . . . , Mp ; N ) =: MultpR (M ; N ). Für p = 2 nennt man die Elemente von MultR (M1 , M2 ; N ) R-bilineare Abbildungen bzw., wenn N = R, R-Bilinearformen. (b) Seien M, N R-Moduln und sei p ∈ N+ . f ∈ MultpR (M ; N ) heißt • symmetrisch, wenn f (mπ(1) , . . . , mπ(p) ) = f (m1 , . . . , mp ) für alle m1 , . . . . . . , mp ∈ M und alle π ∈ Sp • alternierend, wenn f (m1 , . . . , mp ) = 0N für alle m1 , . . . , mp ∈ M , für die es i, j ∈ N mit 1 ≤ i < j ≤ p und mi = mj gibt. Die Menge der symmetrischen bzw. alternierenden R-p-linearen Abbildungen von M p nach N wird mit SympR (M ; N ) bzw. AltpR (M ; N ) bezeichnet. Bemerkungen, Beispiele 4.56. Unter Verwendung der Bezeichnungen aus Definition 4.55 haben wir: 1. Analog wie bei Homomorphismen ist klar, daß MultR (M1 , . . . , Mr ; N ) mit der punktweisen Addition und der üblichen Operation von R auf Abb (M1 × . . . × Mp , N ) ein R-Untermodul von Abb (M1 × . . . × Mp , N ) ist, also insbesondere selbst R-Modul ist. 2. SympR (M ; N ) und AltpR (M ; N ) sind R-Untermoduln von MultpR (M ; N ). 3. M1 × . . . × Mp ist mit komponentenweiser Addition und mit komponentenweiser Multiplikation mit Elementen aus R ein R-Modul, den man mit M1 ⊕ . . . ⊕ Mp bezeichnet, s. Übungsaufgabe 2. Jedoch sind für p ≥ 2 Rp-lineare Abbildungen M1 ⊕ . . . ⊕ Mp → N i. a. nicht R-linear, also keine R-Homomorphismen. 4. Für p = 0 gilt M1 × . . . × Mp = 0, so daß MultR (M1 , . . . , Mp ; N ) = 0 und somit Sym0R (M ; N ) = Alt0R (M ; N ) = Mult0R (M ; N ) = HomR (0, N ) = 0. Für p = 1 gilt Sym1R (M ; N ) = Alt1R (M ; N ) = Mult1R (M ; N ) = HomR (M, N ). 4.5. MULTILINEARE ABBILDUNGEN 115 5. Sei f ∈ MultR (M1 , . . . , Mp ; N ). Sind m1 ∈ M1 , . . . , mp ∈ Mp und gilt mi = 0Mi für ein i ∈ N, 1 ≤ i ≤ p, so folgt f (m1 , . . . , mp ) = 0N . 6. Sei f ∈ AltpR (M ; N ). Sind m1 , . . . , mp ∈ M sowie i, j ∈ N mit 1 ≤ i < j ≤ p, so folgt f (m1 . . . , mi−1 , mj , mi+1 , . . . , mj−1 , mi , mj+1 , . . . , mp ) = = −f (m1 . . . , mi−1 , mi , mi+1 , . . . , mj−1 , mj , mj+1 , . . . , mp ), d. h. eine Vertauschung zweier Argumente an verschiedenen Stellen bewirkt einen Vorzeichenwechsel des Wertes. Dies ergibt sich sofort aus der Definition, da f (. . . , mj , . . . , mi , . . .) + f (. . . , mi , . . . , mj , . . .) = = f (. . . , mi , . . . , mi , . . .) +f (. . . , mj , . . . , mi , . . .) {z } | =0 +f (. . . , mi , . . . , mj , . . .) + f (. . . , mj , . . . , mj , . . .) | {z } =0 = f (. . . , mi + mj , . . . , mi , . . .) + f (. . . , mi + mj , . . . , mj , . . .) = f (. . . , mi + mj , . . . , mi + mj , . . .) = 0N . 7. Allgemeiner haben wir: Sei f ∈ AltpR (M ; N ). Dann gilt für π ∈ Sp und m1 , . . . , mp ∈ M : f (mπ(1) , . . . , mπ(p) ) = (sign π)f (m1 , . . . , mp ). 8. (a) Sei M = N . Die durch (m1 , . . . , mp ) 7→ m1 +. . .+mp (m1 , . . . , mp ∈ M ) gegebene Abbildung M p → M ist R-linear (d. h. ein R-Homomorphismus), aber für p ≥ 2 und M 6= 0 nicht R-p-linear. (b) Sei M = N = R und p ≥ 2. Die durch (r1 , . . . , rp ) 7→ r1 · . . . · rp (r1 , . . . , rp ∈ R) gegebene Abbildung Rp → R ist R-p-linear, aber nicht R-linear. Sie ist symmetrisch, jedoch nicht alternierend. 9. Sei M = Rn mit n ∈ N, N = R und p = 2. Die durch (r1 , . . . , rn ), (s1 , . . . , sn ) 7→ r1 s1 + . . . + rn sn gegebene Abbildung Rn × Rn → R ist eine symmetrische R-Bilinearform. Lemma 4.57. Seien M1 , . . . , Mp freie R-Moduln mit Basen B1 , . . . , Bp und sei N ein beliebiger R-Modul. Dann ist jedes f ∈ MultR (M1 , . . . , Mp ; N ) umkehrbar eindeutig festgelegt durch die Werte, die f auf B1 × . . . × Bp annimmt. 116 KAPITEL 4. LINEARE ABBILDUNGEN Genauer gilt für m1 ∈ M1 , . . . , mp ∈ Mp X f (m1 , . . . , mp ) = κB1 ,m1 (b1 ) · . . . · κBp ,mp (bp ) · f (b1 , . . . , bp ). (b1 ,...,bp )∈B1 ×...×Bp Damit folgt insbesondere MultR (M1 , . . . , Mp ; N ) ∼ = N B1 ×...×Bp . Beweis. Zunächst ergibt sich obige Gleichung für f ∈ MultR (M1 , . . . , Mp ; N ) unmittelbar aus der Definition R-multilinearer Abbildungen. Ist umgekehrt eine Abbildung B1 × . . . × Bp → N gegeben, so liefert obige Formel eine Abbildung M1 × . . . × Mp → N , deren R-Multilinearität sich aus der R-Linearität der auftretenden Koordinatenabbildungen κB1 ,m1 = κB1 (m1 ), . . . . . . , κBp ,mp = κBp (mp ) (in Bezug auf m1 , . . . , mp ) zusammen mit Bemerkung 4.56.8(b) ergibt. Die Eindeutigkeit ist dann klar, Folgerung 4.58. Seien M, N R-Moduln, wobei M frei sei. B sei Basis von M . Wir rüsten B mit einer vollständigen Ordnung ≤ aus und setzen für p ∈ N+ Up := {(b1 , . . . , bp ) ∈ B p | b1 ≤ . . . ≤ bp } sowie Up+ := {(b1 , . . . , bp ) ∈ B p | b1 < . . . < bp }. Für (b1 , . . . , bp ) ∈ Up sei X(b1 , . . . , bp ) die Menge aller (c1 , . . . , cp ) ∈ B p , so daß {c1 , . . . , cp } = {b1 , . . . , bp } und die Häufigkeit, mit welcher jedes Element von {c1 , . . . , cp } in (c1 , . . . , cp ) und in (b1 , . . . , bp ) auftritt, übereinstimmt. Dann gilt: (1) Jedes f ∈ SympR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte, die f auf Up annimmt. Genauer gilt f (m1 , . . . , mp ) = X = (b1 ,...,bp )∈Up X κB,m1 (c1 ) · . . . · κB,mp (cp ) f (b1 , . . . , bp ). (c1 ,...,cp )∈X(b1 ,...,bp ) Damit folgt insbesondere SympR (M ; N ) ∼ = N Up . (2) Jedes f ∈ AltpR (M ; N ) ist umkehrbar eindeutig festgelegt durch die Werte, die f auf Up+ annimmt. Genauer gilt f (m1 , . . . , mp ) = X X = (sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ) f (b1 , . . . , bp ). (b1 ,...,bp )∈Up+ π∈Sp + Damit folgt insbesondere AltpR (M ; N ) ∼ = N Up . 4.5. MULTILINEARE ABBILDUNGEN 117 Beweis. Ist f ∈ SympR (M ; N ) bzw. f ∈ AltpR (M ; N ) gegeben, so ergeben sich die Gleichungen in (1) bzw. (2) aus Lemma 4.57 zusammen mit den jeweiligen Definitionen. Ist umgekehrt eine Abbildung Up → N bzw. Up+ → N gegeben, so liefern die Formeln in (1) bzw. (2) nach Lemma 4.57, Bemerkung 4.56.8 und den Definitionen jeweils eindeutig bestimmte R-multilineare Abbildungen M1 × . . . × Mp → N . (1) ist dann klar, weil für alle (b1 , . . . , bp ) ∈ Up und alle σ ∈ Sp gilt X κB,mσ(1) (c1 ) · . . . · κB,mσ(p) (cp ) = (c1 ,...,cp )∈X(b1 ,...,bp ) X = κB,m1 (cσ−1 (1) ) · . . . · κB,mp (cσ−1 (p) ) (c1 ,...,cp )∈X(b1 ,...,bp ) X = κB,m1 (c1 ) · . . . · κB,mp (cp ). (c1 ,...,cp )∈X(b1 ,...,bp ) (2) Für alle (b1 , . . . , bp ) ∈ Up+ und alle σ ∈ Sp gilt mit Lemma 4.53 X (sign π) κB,mσ(1) (bπ(1) ) · . . . · κB,mσ(p) (bπ(p) ) = π∈Sp = X sign (πσ −1 )sign σ κB,m1 (b(πσ−1 )(1) ) · . . . · κB,mp (b(πσ−1 )(p) ) π∈Sp = (sign σ) X (sign π) κB,m1 (bπ(1) ) · . . . · κB,mp (bπ(p) ), π∈Sp Folgerung 4.59. Seien M1 , . . . , Mp , M, N freie R-Moduln, wobei M1 , . . . , Mp , M endlich erzeugt seien. Dann gilt: (1) MultR (M1 , . . . , Mp ; N ) ist freier R-Modul mit rangR MultR (M1 , . . . , Mp ; N ) = rangR M1 · . . . · rangR Mp · rangR N. (2) SympR (M ; N ) und AltpR (M ; N ) sind für alle p ∈ N freie R-Moduln mit rangR M + p − 1 p rangR SymR (M ; N ) = · rangR N und p rangR M p · rangR N. rangR AltR (M ; N ) = p Beweis. Dies ergibt sich aus Folgerung 4.58 zusammen mit Übungsaufgabe 21, 118 KAPITEL 4. LINEARE ABBILDUNGEN Satz 4.60. Sei R ein Ring und seien M, N R-Moduln. Wenn M endlich erzeugt ist, so gilt AltpR (M ; N ) = 0 für alle p > µR (M ). Beweis. Wir setzen µ := µR (M ). Sei {e1 , . . . , eµ } ein Erzeugendensystem von M . + Sei weiter i = 1, . . . , p schreiben wir Pµ p ∈ N und seien m1 , . . . , mp ∈ M . Für mi = j=1 rij ej mit ri1 , . . . , riµ ∈ R. Sei f ∈ MultpR (M ; N ). Dann gilt wegen der p-Linearität von f f (m1 , . . . , mp ) = µ X r1j1 · . . . · rpjp f (ej1 , . . . , ejp ). (∗p ) j1 ,...,jp =1 Wenn f ∈ AltpR (M ; N ) und p > µ, so gibt es für alle j1 , . . . , jp ∈ {1, . . . , µ} u, v ∈ N mit 1 ≤ u < v ≤ p und ju = jv . Damit gilt f (ej1 , . . . , ejp ) = 0 und mit (∗p ) erhalten wir f (m1 , . . . , mp ) = 0, Kapitel 5 Endomorphismen endlich erzeugter Vektorräume Ziel der nachfolgenden Untersuchungen ist es, zu einem gegebenen endlich erzeugten K-Vektorraum (K ein Körper) und einem K-Endomorphismus f von V eine Basis von V so zu finden, daß die Koordinatenmatrix von f bzgl. dieser Basis (s. Definition 4.35) eine ”möglichst einfache” Gestalt hat. Wir bemerken, daß die so entstehenden Matrizen quadratisch sind und es wird sich herausstellen, daß man eine Basis von V so wählen kann, daß unter bestimmten Voraussetzungen, die an den Körper zu stellen sind, die Koordinatenmatrix bei geeigneter Basiswahl Dreiecksgestalt, mitunter sogar Diagonalgestalt hat. Schließlich werden wir verschiedene Anwendungen studieren. Die weitergehende Aufgabe, auf diese Weise eine Klassifikation der Endomorphismen eines endlich erzeugten K-Vektorraums zu erreichen, kann mit den derzeit zur Verfügung stehenden Mitteln nur teilweise gelöst werden. Wir beginnen wieder mit etwas ”Algebra”. Alle betrachteten Ringe besitzen ein vom Nullelement verschiedenes Einselement. 5.1 Nullstellen von Polynomen Sei R ein Ring, X eine Unbestimmte und f ∈ R[X], s. Anhang B. Wenn f 6= 0, so schreiben wir f = rn X n + rn−1 X n−1 + . . . + r0 mit r0 , . . . , rn ∈ R und rn 6= 0R . Dann gilt n = grad f und rn = lk f (Leitkoeffizient von f , s. Definition B.5(b)). Wenn f = 0, so setzen wir lk f = 0R . Satz und Definition 5.1 (Division mit Rest). Sei R ein Ring und X eine Unbestimmte. Weiter sei f ∈ R[X] ein vom Nullploynom verschiedenes Polynom 119 120 KAPITEL 5. ENDOMORPHISMEN mit lk f ∈ R∗ . Dann gilt: Für jedes g ∈ R[X] gibt es eindeutig bestimmte q, r ∈ R[X] mit g = qf + r und grad r < grad f. r heißt Rest der Division von g durch f und q heißt partieller Quotient dieser Division. Beweis. 1. Existenz von q und r: Wir definieren δ(f, g) := grad g − grad f ∈ Z ∪ {−∞}. Wenn δ(f, g) < 0, also grad g < grad f , so setzen wir q := 0 und r := g. Wir benutzen nun Induktion nach ∆(f, g) := max{0, 1 + δ(f, g)}. Wenn ∆(f, g) = 0, so folgt gradg < gradf und wir sind fertig. Sei also ∆(f, g) > 0, d. h. δ(f, g) ≥ 0. Insbesondere gilt daher g 6= 0 und wir können setzen g 0 := g − (lk g)(lk f )−1 f X δ(f,g) . = grad g (s. Lemma B.8(2)) und Da einerseits grad (lk g)(lk f )−1 f X δ(f,g) andererseits lk (lk g)(lk f )−1 f X δ(f,g) = lk g, gilt grad g 0 < grad g (s. Lemma B.8(1)) und somit ∆(f, g 0 ) < ∆(f, g). Nach Induktionsvoraussetzung gibt es daher q 0 , r ∈ R[X] mit grad r < grad f und g 0 = q 0 f + r. Mit q := q 0 + (lk g)(lk f )−1 X δ(f,g) folgt dann aber g = qf + r. 2. Eindeutigkeit von q und r: Angenommen, es gibt q̃, r̃ ∈ R[X] mit g = q̃f + r̃ und grad r̃ < grad f . Dann folgt (q − q̃)f − (r̃ − r) = g − g = 0R[X] , also gilt (q − q̃)f = r̃ − r. Lemma B.8(2) und (1) liefert dann grad (q − q̃) + grad f = grad (q − q̃)f = grad (r̃ − r) ≤ max{grad r̃, grad r} < grad f. Daher folgt grad (q − q̃) < 0, d. h. q − q̃ = 0. Wir haben also q̃ = q und somit r̃ = r, Sei R ein kommutativer Ring und sei S eine R-Algebra. s ∈ S heißt Nullstelle von f ∈ R[X], wenn f (s) = 0S , d. h. wenn f ∈ Kern s , s : R[X] → S Einsetzungshomomorphismus mit s, s. Übungsaufgabe 26. Damit haben wir: Folgerung 5.2. Sei R ein kommutativer Ring und f ∈ R[X], X Unbestimmte, ein vom Nullpolynom verschiedenes Polynom. 5.1. NULLSTELLEN 121 (1) Wenn x ∈ R Nullstelle von f ist, so gibt es ein h ∈ R[X] mit grad h = grad f − 1 und f = (X − x)h. (2) Für jedes x ∈ R gibt eindeutig bestimmte i ∈ N und g ∈ R[X] mit f = (X − x)i g und g(x) 6= 0R . Beweis. (1) Wir dividieren f mit Rest durch X − x ∈ R[X] und erhalten f = (X − x)h + r mit h, r ∈ R[X], grad r < grad (X − x) = 1. Da 0R = f (x) = (x − x)h(x) + r(x) = r(x) = r (man beachte, daß r wegen grad r ≤ 0 konstantes Polynom ist), folgt f = (X − x)h. Nach Lemma B.8(2) gilt grad f = 1 + grad h. (2) Die Existenz von i und g ergibt sich mittels Induktion nach grad f aus (1), wobei i = 0 und g = f , falls f (x) 6= 0R . Angenommen f = (X − x)i g = (X − x)j g̃ mit i, j ∈ N und g, g̃ ∈ R[X]. O. B. d. A. gelte i ≤ j. Dann folgt (X − x)i (g − (X − x)j−i g̃) = f − f = 0. Nach Lemma B.8(3) folgt hieraus g − (X − x)j−i g̃ = 0. Wäre j > i, so hätten wir g(x) = 0R , Widerspruch. Somit gilt j = i und damit g̃ = g, Dies gibt Anlaß zu folgender Definition: Definition 5.3. Sei R ein kommutativer Ring, X eine Unbestimmte und f ∈ R[X], f 6= 0. Für x ∈ R heißt die Zahl i ∈ N mit f = (X − x)i g, wobei g ∈ R[X], g(x) 6= 0R , (s. Folgerung 5.2(2)) x-Ordnung von f, kurz ordx f . Ist x Nullstelle von f , so wird ordx f auch als Vielfachheit oder Multiplizität von x (in Bezug auf f ) bezeichnet. Bemerkungen 5.4. Mit den Bezeichnungen von Definition 5.3 haben wir 1. Es gilt 0 ≤ ordx f ≤ grad f . 2. x ist Nullstelle von f genau dann, wenn ordx f > 0. 3. Ist R Integritätsring, so besitzt jedes vom Nullpolynom verschiedene Polynom f ∈ R[X] höchstens grad f paarweise verschiedene Nullstellen in R, vgl. hierzu Übungsaufgabe 30. f besitzt demzufolge auch in jedem Erweiterungsring S von R höchstens grad f paarweise verschiedene Nullstellen, vorausgesetzt, S ist ebenfalls Integritätsring. Ist S kein Integritätsring, so ist dies i. a. falsch, wie das folgende Beispiel zeigt. 122 KAPITEL 5. ENDOMORPHISMEN Beispiel 5.5. Sei R := Z, S := Z[T ]/2T Z[T ], T Unbestimmte, und t := T + 2T Z[T ] ∈ S. Wie man sofort bestätigt, ist durch n 7→ n + 2T Z[T ], n ∈ Z, ein injektiver Ringhomomorphismus Z → S gegeben. Indem wir n ∈ Z mit n + 2T Z[T ] ∈ S identifizieren, können wir daher Z als Unterring von S auffassen, d. h. S ist Erweiterungsring von Z. Sei X Unbestimmte. Das Polynom 2X ∈ Z[X] ⊆ S[X] hat in Z (nur) die Nullstelle 0. Jedoch ist die Menge der Nullstellen von 2X in S gleich {st | s ∈ S}, d. h. 2X hat in S sogar unendlich viele Nullstellen. Ohne Beweis geben wir nun Theorem 5.6 (Fundamentalsatz der Algebra, Gauß 1799). Jedes nichtkonstante Polynom aus C[X] besitzt eine Nullstelle in C. Definition 5.7. Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nichtkonstante Polynom aus K[X] in K eine Nullstelle besitzt. Bemerkung 5.8. Man kann zeigen (s. Kurs ”Algebra I”), daß jeder Körper Teilkörper eines algebraisch abgeschlossen Körpers ist. Folgerung 5.9. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X], f 6= 0. Wenn grad f =: n, so gibt es x1 , . . . , xn ∈ K mit f = c(X − x1 ) · . . . · (X − xn ), wobei c := lk f, d. h. jedes nichtkonstante Polynom aus K[X] zerfällt in K[X] vollständig in Linearfaktoren. Man kann zeigen, daß diese Zerlegung eindeutig ist, s. auch Folgerung 5.10 unten. Die generelle Frage ist, inwieweit Zerlegungen eines Polynoms in unzerlegbare Faktoren - auch allgemeinerer Art - eindeutig sind, wobei wir natürlich zu präzisieren hätten, was wir unter ”eindeutig” verstehen wollen. (Z. B. würde man die Zerlegungen 1X = (−1)(−X) sicherlich nicht als ”verschieden” ansehen wollen.) Genaueres hierzu kann man im Kurs ”Algebra I” unter den Stichworten ”Teilbarkeitslehre” und ”faktorielle Ringe” hören. Die Aussage von Folgerung 5.9 kann mit den Bezeichnungen aus Definition 5.3 auch so formuliert werden: Folgerung 5.10. Sei K ein algebraisch abgeschlossener Körper und sei f ∈ K[X] ein vom Nullpolynom verschiedenes Polynom. Dann gilt f = lk f · Y x∈K (X − x)ordx f . 5.2. DETERMINANTEN 5.2 123 Determinanten Alle betrachteten Ringe sind kommutativ und besitzen ein vom Nullelement verschiedenes Einselement. Wir erinnern an folgende Bezeichnung: Sei R ein Ring und sei n ∈ N+ . Für r1 , . . . , rn ∈ R sei diag(r1 , . . . , rn ) diejenige Diagonalmatrix aus Rn,n , deren Diagonalelemente r1 , . . . , rn sind (in dieser Reihenfolge). Definition 5.11(Determinanten). Sei R ein Ring und sei n ∈ N+ . Für A := r11 . . . r1n .. .. ∈ Rn,n heißt . . rn1 . . . rnn X (sign π)r1π(1) · . . . · rnπ(n) ∈ R π∈Sn Determinante von A, kurz det A oder manchmal auch |A|. Bemerkung 5.12. Nach Folgerung 4.59(2) ist AltnR (Rn ; R) freier R-Modul mit rangR AltnR (Rn ; R) = 1. Damit gilt AltnR (Rn ; R) ∼ = R. Wiederum nach Folgerung n n 4.58(2) gibt es genau ein ∆ ∈ AltR (R ; R) mit ∆(en,1 , . . . , en,n ) = 1 und nach Übungsaufgabe 29 ist dieses Element Basiselement von AltnR (Rn ; R). Sei A ∈ Rn,n . Sind a1 , . . . , an die Zeilen von A (in dieser Reihenfolge von oben nach unten numeriert), so liefert Folgerung 4.58(2) ∆(a1 , . . . , an ) = det A. Determinanten von Matrizen aus Rn,n sind somit (spezielle) alternierende R-nlineare Abbildungen (Rn )n → R, wenn man - wie soeben beschrieben - Rn,n mit (Rn )n identifiziert. Lemma 5.13 (Rechenregeln für Determinanten). Sei R ein Ring und sei n ∈ N+ . Ferner sei A ∈ Rn,n . (1) det A = det AT . (2) Besteht für i ∈ N, 1 ≤ i ≤ n, die i-te Zeile (Spalte) von A nur aus Nullen, so gilt det A = 0. (3) Stimmen für i, j ∈ N, 1 ≤ i < j ≤ n, die i-te Zeile (Spalte) und die j-te Zeile (Spalte) von A überein, so gilt det A = 0. (4) Ist A0 ∈ Rn,n diejenige Matrix, die aus A durch Vertauschen der Zeilen (Spalten) von A gemäß π ∈ Sn entsteht, so gilt det A0 = (sign π) det A. 124 KAPITEL 5. ENDOMORPHISMEN (5) Ist A Diagonalmatrix, sagen wir A = diag(r1 , . . . , rn ) mit r1 , . . . , rn ∈ R, so gilt det A = r1 · . . . · rn . Insbesondere haben wir det En = 1R . (6) Sei i ∈ N mit 1 ≤ i ≤ n und seien A0 , A00 ∈ Rn,n Matrizen, die sich von A nur in den Einträgen der i-ten Zeile (Spalte) unterscheiden. Dann gilt: (a) Wenn die i-te Zeile (Spalte) von A Summe der i-ten Zeile (Spalte) von A0 und der i-ten Zeile (Spalte) von A00 ist, so haben wir det A = det A0 + det A00 . (b) Wenn die i-te Zeile (Spalte) von A das r-fache der i-ten Zeile (Spalte) von A0 ist, wobei r ∈ R, so haben wir det A = r det A0 . Insbesondere ergibt sich hieraus det(rA) = rn det A . (c) Wenn A aus A0 durch Addition des r-fachen der j-ten Zeile (Spalte) von A0 zur i-ten Zeile (Spalte) von A0 entsteht, wobei r ∈ R und j ∈ {1, . . . , n} \ {i}, so haben wir det A = det A0 . (7) Sei n ≥ 2 und seien i, j ∈ {1, . . . , n} Besteht die i-te Zeile (j-te Spalte) von A außer an der Stelle (i, j) nur aus Nullen, so gilt det A = (−1)i+j rij det Ã, wenn rij der Eintrag von A an der Stelle (i, j) ist und à ∈ Rn−1,n−1 diejenige Matrix bezeichnet, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. r11 . . . r1n .. . Dann haben wir Beweis. Sei A =: ... . rn1 . . . rnn (1) Wegen sign π = sign π −1 (π ∈ Sn ) gilt X det A = (sign π)r1π(1) · . . . · rnπ(n) π∈Sn = X (sign π −1 )rπ−1 (1)1 · . . . · rπ−1 (n)n π∈Sn = X (sign σ)rσ(1)1 · . . . · rσ(n)n σ∈Sn = det AT , 5.2. DETERMINANTEN 125 denn durchläuft π die Sn , so durchläuft π −1 ebenfalls die Sn . Damit können wir uns zum Beweis der folgenden Aussagen auf die die Zeilen betreffenden Varianten beschränken. Hierzu deuten wir Determinanten gemäß Bemerkung 5.12 stillschweigend als alternierenden Abbildungen. (2) ergibt sich aus Bemerkung 4.56.5. (3) ist unmittelbare Konsequenz aus der Definition alternierender Abbildungen. (4) ergibt sich aus Bemerkung 4.56.7. (5) det diag(r1 , . . . , rn ) = ∆(r1 en,1 , . . . , rn en,n ) = r1 · . . . · rn ∆(en,1 , . . . , en,n ) = r1 · . . . · rn . (6) (a) und (b) sind wiederum unmittelbare Konsequenz aus der Definition multilinearer Abbildungen und (c) folgt hieraus mit (3). (7) Nach (4) dürfen wir o. B. d. A. annehmen, daß i = j = n. Dann gilt aber X (sign π)r1π(1) · . . . · rnπ(n) det A = π∈Sn X = rnn (sign π)r1π(1) · . . . · rn−1π(n−1) π∈Sn π(n)=n X = rnn (sign π 0 )r1π0 (1) · . . . · rn−1π0 (n−1) π 0 ∈Sn−1 = rnn det Ã, Beispiele 5.14. 1. Sei R ein Ring. (a) n = 1. Da S1 = {id}, gilt (trivialerweise) für r ∈ R: det(r) = r (b) n = 2. Da S2 = 1 2 id, , gilt für r1,1 , r1,2 , r2,1 , r2,2 ∈ R: 2 1 r1,1 r1,2 det = r1,1 r2,2 − r1,2 r2,1 r2,1 r2,2 Merkregel: Produkt der Elemente auf der Hauptdiagonale minus Produkt der Elemente auf der Nebendiagonale 126 KAPITEL 5. ENDOMORPHISMEN 1 2 3 1 2 3 1 2 3 1 2 3 (c) n = 3. Da S3 = id, , , , , 3 2 1 1 3 2 2 3 1 3 1 2 1 2 3 , gilt für r1,1 , r1,2 , r1,3 , r2,1 , r2,2 , r2,3 , r3,1 , r3,2 , r3,3 ∈ R: 2 1 3 r1,1 r1,2 r1,3 det r2,1 r2,2 r2,3 = r1,1 r2,2 r3,3 + r1,2 r2,3 r3,1 + r1,3 r2,1 r3,2 r3,1 r3,2 r3,3 −r1,3 r2,2 r3,1 − r1,1 r2,3 r3,2 − r1,2 r2,1 r3,3 Merkregel (Sarrussche Regel): Durch Wiederholung der ersten beiden Spalten entsteht die Matrix r1,1 r1,2 r1,3 r1,1 r1,2 r2,1 r2,2 r2,3 r2,1 r2,2 . Hier addiert man die Produkte der Eler3,1 r3,2 r3,3 r3,1 r3,2 mente entlang der drei ”Hauptdiagonalen” und subtrahiert hiervon die Produkte der Elemente entlang der drei ”Nebendiagonalen” (Sarrussche Regel). Achtung: Dies funktioniert nur für n = 3 ! 2 −1 3 10 0 5 −1 −22 2. Man berechne det 6 −2 4 −1 . 0 1 17 90 Hier müßte man 4! = 24 Produkte berechnen. Wegen der auftretenden Nullen sind davon nur 12 von Null verschieden, jedoch sind unter diesen betragsmäßig recht große Zahlen. Daher empfiehlt es sich, analog wie beim Gaußschen Algorithmus vorzugehen: Nach Rechenregel 6 (c) ändert die Determinante ihren Wert nicht, wenn man ein Vielfaches einer Zeile oder Spalte zu einer anderen addiert. Daher kann man versuchen, in einer Zeile oder Spalte möglichst viele Nullen zu ”erzeugen” und dann Regel (7) anzuwenden. In unserem Fall kann man das (−3)-fache der ersten zur dritten Zeile addieren. Dann entsteht 2 −1 3 10 2 −1 3 10 0 5 −1 −22 = det 0 5 −1 −22 det 0 1 −5 −31 6 −2 4 −1 0 1 17 90 0 1 17 90 5 −1 −22 = 2 · det 1 −5 −31 . 1 17 90 Auf die hier auftretende Determinante könnte man nun die Sarrussche Regel anwenden. Aber auch dabei entstehen noch betragsmäßig recht große Zahlen. Stattdessen könnte man das (−5)-fache der zweiten zur ersten Zei- 5.2. DETERMINANTEN le und dann das entsteht 5 2 · det 1 1 127 (−1)-fache der dritten zur zweiten Zeile addieren. Dann −1 −22 0 24 133 −5 −31 = 2 · det 0 −22 −121 17 90 1 17 90 24 133 = 2 · 1 · det −22 −121 = 2 · (24 · (−121) − 133 · (−22)) = 44. 24 133 Zur Berechnung von det kann man aber auch die zweite −22 −121 zur ersten Zeile addieren (mit dem Ziel, dort betragsmäßig kleine Zahlen zu ”erzeugen”) und dann gemäß Rechenregel 6 (b) aus der ersten Zeile 2 und aus der zweiten Zeile −11 ausklammern. Dann würde entstehen 24 133 1 6 2 · det = 2 · 2 · (−11) · det −22 −121 2 11 = (−44) · (1 · 11 − 6 · 2) = 44. Später werden wir sehen, wie diese Vorgehensweise verallgemeinert werden kann, s. Satz 5.17. + T T Folgerung 5.15. Sei R ein Ring und sei n ∈ N . Weiter sei A = (a1 , . . . , an ) ∈ a1 .. n,n R bzw. A := . ∈ Rn,n mit a1 , . . . , an ∈ Rn . an Wenn es r1 , . . . , rn ∈ R gibt, die nicht alle Nullteiler in R sind, so daß r1 a1 + . . . + rn an = 0, so gilt det A = 0R . Beweis. O. B. d. A. sei r1 Nichtnullteiler in R (s. Lemma 5.13(4)). Wiederum nach Lemma 5.13(6b), (6c) und (2) gilt dann r1 det A = det(r1 aT1 + r2 aT2 + . . . + rn aTn , aT2 , . . . , aTn ) = 0R , also det A = 0R , Für das nächste Resultat verwenden wir (mit Verweis auf den Kurs ”Algebra I”), daß es für jeden Integritätsring R einen Körper K mit folgenden Eigeschaften gibt: • R ist Unterring von K und 128 KAPITEL 5. ENDOMORPHISMEN • für jedes α ∈ K gibt es ein r ∈ R \ {0R } mit rα ∈ R. Folgerung 5.16. Sei R ein Integritätsring und sei A ∈ Rn,n , wobei n ∈ N+ . (1) Dann gilt det A = 0R genau dann, wenn die Zeilen (Spalten) von A linear abhängig sind. (2) Ist R ein Körper, so gilt det A = 0R genau dann, wenn rangR A < n. Beweis. Es ist klar, daß (2) aus (1) folgt, so daß wir nur (1) zeigen. Sind die Zeilen (Spalten) von A linear abhängig, so folgt det A = 0R nach Folgerung 5.15. Gelte nun umgekehrt det A = 0R . Wir wählen einen Körper K mit den oben genannten Eigenschaften und fassen A als Element von K n,n auf. Anwendung des modifizierten Gaußschen Algorithmus auf A und sodann auf das Transpositum der sich dabei ergebenden Matrix liefert eine Diagonalsmatrix A0 . Nach Lemma 5.13(4), (6c) gilt det A0 = ± det A = 0K . Da det A0 das Produkt der Hauptdiagonaleinträge von A0 ist, gilt rangK A = rangK A0 < n und damit gibt es α1 , . . . , αn ∈ K, nicht alle gleich 0K , so daß α1 a1 + . . . + αn an = 0, wenn a1 , . . . , an ∈ Rn die Zeilen von A sind. Nun wählen wir ein r ∈ R \ {0R } mit ri := rαi ∈ R für alle i = 1, . . . , n. Dann folgt r1 a1 + . . . + rn an = 0, d. h. die Zeilen von A sind linear abhängig (über R). Entsprechendes gilt für die Spalten von A, Folgerung 5.17 (Laplacescher Entwicklungssatz). Sei R ein Ring und sei A ∈ (q) Rn,n , wobei n ∈ N+ , n ≥ 2. Für p, q ∈ {1, . . . , n} sei Ap ∈ Rn−1,n−1 diejenige Matrix, die aus A durch Streichen von p-ter Zeile und q-ter Spalte entsteht. r11 . . . r1n .. . Für i, j ∈ {1, . . . , n} gilt dann: Wir schreiben A =: ... . rn1 . . . rnn (k) (Entwicklung von A nach i-ter Zeile) (j) (Entwicklung von A nach j-ter Spalte) (1) det A = Pn det Ai (2) det A = Pn det Ak i+k rik k=1 (−1) k+j rkj k=1 (−1) Beweis. Nach Lemma 5.13(1) reicht es, (1) zu zeigen. Für k = 1, . . . , n sei Ak ∈ Rn,n diejenige Matrix, die in allen Zeilen außer der i-ten mit A übereinstimmt und deren i-te Zeile rik eni ist. Dann gilt nach Lemma 5.13(6a), (7) det A = n X k=1 det Ak = n X k=1 (k) (−1)i+k rik det Ai , 5.2. DETERMINANTEN 129 Satz 5.18 (Multiplikationssatz für Determinanten). Sei R ein Ring und seien A, B ∈ Rn,n , wobei n ∈ N+ . Dann gilt det(AB) = det A · det B, d. h. durch A 7→ det A, A ∈ Rn,n , ist ein surjektiver Monoidhomomorphismus det : (Rn,n , ·) → (R, ·) gegeben. Dieser induziert einen Gruppenepimorphismus det : GlR (n) → R∗ . Insbesondere gilt damit det A−1 = (det A)−1 für alle A ∈ GlR (n). Beweis. Sei f : Rn → Rn der durch f (x) := xB für alle x ∈ Rn definierte RHomomorphismus. Nach Übungsaufgabe 31(b) gilt dann ∆ ◦ f n ∈ AltR (Rn ; R), wenn ∆ ∈ AltR (Rn ; R) wie in Bemerkung 5.12 definiert ist. Wiederum nach Bemerkung 5.12 gibt es ein ρ ∈ R mit ∆ ◦ f n = ρ · ∆. Seien a1 , . . . , an die Zeilen von A. Da dann a1 B, . . . , an B die Zeilen von AB sind, gilt det(AB) = ∆(a1 B, . . . , an B) = (∆ ◦ f n )(a1 , . . . , an ) = ρ∆(a1 , . . . , an ) = ρ · det A = det A · ρ. Setzen wir hier A = En , so folgt det B = det(En B) = ρ · det En = ρ. Wegen det En = 1R ist det somit ein Monoidhomomorphismus, der nach Lemma 4.3 einen Homomorphismus GlR (n) → R∗ induziert. Die Surjektivität ist jeweils klar, da für jedes r ∈ R gilt r = det diag(r, 1R , . . . , 1R ). Der Rest ergibt sich aus Lemma 4.3, Definition 5.19 (Adjunktenmatrix). Sei R ein Ring und sei A ∈ Rn,n , wobei n ∈ N, n ≥ 2. Dann heßt (−1)1+1 det A1 .. := . (1) ... (−1)n+1 det An (1) ... Aad (n) T (−1)1+n det A1 .. . (n) n+n (−1) det An zu A adjungierte Matrix oder auch Adjunkte von A. (Der Eintrag von Aad an der (i) Stelle (i, j) ist also (−1)i+j det Aj , i, j = 1, . . . , n.) Satz 5.20. Sei R ein Ring und sei A ∈ Rn,n , wobei n ∈ N, n ≥ 2. Dann gilt: (1) A · Aad = Aad · A = det A · En . (2) A ist invertierbar genau dann, wenn det A ∈ R∗ . (3) Ist A invertierbar, so folgt A−1 = (det A)−1 · Aad . 130 KAPITEL 5. ENDOMORPHISMEN r11 . . . r1n .. und b Eintrag von A · Aad an der Stelle Beweis. (1) Sei A =: ... ij . rn1 . . . rnn (i, j), wobei i, j ∈ {1, . . . , n}. Weiter sei Bij ∈ Rn,n diejenige Matrix, die aus A entsteht, wenn die j-te Zeile von A durch die i-te Zeile von A ersetzt wird. Dann gilt mit Folgerung 5.17(1) und Lemma 5.13(3) ( n X 0R i 6= j (k) bij = rik (−1)j+k det Aj = det Bij = det A i = j k=1 d. h. A · Aad = det A · En . Hieraus folgt mit Lemma 5.13(1) T T Aad · A = ((AT )T )ad · (AT )T = (AT )ad · (AT )T = AT · (AT )ad T = det AT · En = det A · En . (2) und (3) Sei A invertierbar. Dann gilt det A ∈ R∗ nach Folgerung 5.18. Sei umgekehrt det A ∈ R∗ . Mit A0 := (det A)−1 ·Aad gilt dann A·A0 = A0 ·A = En nach (1), d. h. A ist invertierbar und es gilt A−1 = (det A)−1 · Aad , 5.3 Eigenwerte Wir wollen uns nun der Untersuchung von Endomorphismen endlich erzeugter K-Vektorräume (K ein Körper) zuwenden. Wir beginnen mit folgendem Problem: Sei K ein Körper, V ein endlich erzeugter K-Vektorraum und f ∈ EndK V . Gibt es eine geordnete Basis B0 von V derart, daß die Koordinatenmatrix A0 von f bzgl. B0 (s. Definition 4.35) möglichst ”einfach” ist, genauer, kann man B0 so wählen, daß mit n := rangK V gilt A0 = Diag(λ1 , . . . , λn ) oder wenigstens λ1 ∗ .. A0 = . 0 λn mit geeigneten λ1 , . . . , λn ∈ K ? Im ersten Fall heißt f diagonalisierbar und im zweiten trigonalisierbar. Offensichtlich gilt: f ist diagonalisierbar genau dann, wenn es eine geordnete Basis (b01 , . . . , b0n ) von V und λ1 , . . . , λn ∈ K gibt mit f (b0i ) = λi b0i , i = 1, . . . , n. 5.3. EIGENWERTE 131 In Matrizenschreibweise heißt dies (s. Satz 4.48): Sei A ∈ K n,n . Gibt es eine invertierbare Matrix T ∈ GlK (n) mit T AT −1 = Diag(λ1 , . . . , λn ) oder wenigstens λ1 ∗ .. T AT −1 = . 0 λn mit geeigneten λ1 , . . . , λn ∈ K ? Entsprechend nennt man A im ersten Fall diagonalisierbar und im zweiten trigonalisierbar. Hierzu definieren wir: Definition 5.21. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndR V . (a) v ∈ V heißt Eigenvektor von f , wenn v 6= 0V und wenn es ein λ ∈ K gibt mit f (v) = λv. (Dieses λ ist wegen v 6= 0V eindeutig durch v bestimmt.) (b) λ ∈ K heißt Eigenwert von f , wenn es ein v ∈ V , v 6= 0V , gibt mit f (v) = λv. Jedes v ∈ V , v = 6 0V , mit f (v) = λv für ein λ ∈ K heißt Eigenvektor von f zum Eigenwert λ. (c) Für λ ∈ K setzen wir VK (λ, f ) := {v | v ∈ V, f (v) = λv} ⊆ V. Ist λ Eigenwert von f , so heißt VK (λ, f ) Eigenraum von f zum Eigenwert λ (von f ). Bemerkungen 5.22. Mit den Bezeichnungen von Definition 5.21 haben wir: 1. Sei λ ∈ K. Dann gilt für v ∈ V : f (v) = λv ⇐⇒ (f − λ · idV )(v) = 0V ⇐⇒ v ∈ Kern (f − λ · idV ) und damit ist VK (λ, f ) K-Untervektorraum von V . Offenbar ist λ Eigenwert von f genau dann, wenn VK (λ, f ) 6= 0. 2. Um Definition 5.21 formulieren zu können, reicht es, wenn K ein kommutativer Ring und V ein R-Modul ist. Hierfür bleibt auch die Aussage in 1. richtig, d. h. VK (λ, f ) ist dann ein K-Untermodul von V . Gleiches gilt auch für Definition 5.23, Definition 5.27(a) und Lemma 5.25. Da aber die meisten der nachfolgenden Aussagen nur gelten, wenn K Körper und V endlich erzeugt ist, beschränken wir uns hier generell auf diesen Fall. 132 KAPITEL 5. ENDOMORPHISMEN 3. Sei n := rangK V < ∞ und sei v ∈ V \ {0V } Eigenvektor von f zum Eigenwert λ ∈ K. Wir ergänzen {v} zu einer geordneten Basis (v, b2 , . . . , bn ) von V . Dann hat die Koordinatenmatrix A0 von f bzgl. (v, b2 , . . . , bn ) die Gestalt λ 0K A0 = .. B . 0K mit einer geeigneten (n, n − 1)-Matrix B ∈ K n,n−1 . 4. f ist diagonalisierbar genau dann, wenn V eine Basis besitzt, die nur aus Eigenvektoren von f besteht. 5. Sei B := (b1 , . . . , bn ), n := rangK V , geordnete Basis von V . A ∈ K n,n sei Koordinatenmatrix von f bzgl. B. Für λ ∈ K ist dann A − λEn Koordinatenmatrix von f − λ · idV bzgl. B (s. Lemma 4.37) und somit gilt für v ∈V: T (f − λ · idV )(v) = 0V ⇐⇒ (A − λ · En )vB = 0. Daher ist v Eigenvektor von f zum Eigenwert λ genau dann, wenn vB nichttriviale Lösung des linearen homogenen Gleichungssystems (A − λ · En )XT = 0, X := (X1 , . . . Xn ), ist. Der Eigenraum VK (λ, f ) ist damit gegeben durch die Lösungsmenge L dieses Systems, genauer, o nP n x b (x , . . . , x ) ∈ L . VK (λ, f ) = 1 n i=1 i i Damit ist aber auch klar, welche λ ∈ K Eigenwerte von f sind. Es gilt nämlich (s. Satz 3.50(2) und Satz 5.16(2)): λ∈K ⇐⇒ ⇐⇒ ⇐⇒ ist Eigenwert von f ⇐⇒ (A − λ · En )XT = 0 besitzt nichttriviale Lösungen rangK (A − λ · En ) < n det(A − λ · En ) = 0K Definition 5.23. Sei K ein Körper und X eine Unbestimmte. Weiter sei n ∈ N+ und A ∈ K n,n . (a) Das Polynom χA := det(A − XEn ) ∈ K[X] heißt charakteristisches Polynom von A. 5.3. EIGENWERTE 133 (b) Die Nullstellen von χA (in K) heißen Eigenwerte von A (in K). (c) Ist λ ∈ K Eigenwert von A, so heißt die Lösungsmenge L ⊆ K n des homogenen linearen Gleichungssystems (A − λEn )XT = 0, X := (X1 , . . . , Xn ), Eigenraum von A zum Eigenwert λ (von A). Er wird mit VK (λ, A) bezeichnet. Die von 0V verschiedenen Elemente von VK (λ, A) heißen Eigenvektoren von A zum Eigenwert λ. Bemerkung 5.24. Selbstverständlich kann man auch Nullstellen λ von χA betrachten, die nicht in K, sondern in einem Erweiterungskörper L von K liegen, s. Beispiel 5.29(b) unten. In diesem Fall faßt man A (stillschweigend) als Element von Ln,n auf und betrachtet den Eigenraum VL (λ, A), der dann natürlich Untervektorraum von Ln ist. Dann muß man aber auch für diejenigen Eigenwerte µ von A, die in K liegen, den zugehörigen Eigenraum in Ln betrachten, also VL (µ, A) statt VK (µ, A). Im Hinblick auf Definition 5.27 ist zu erwähnen, daß rangK VK (µ, A) = rangL VL (µ, A). Lemma 5.25. Sei K ein Körper und sei A ∈ K n,n , wobei n ∈ N+ . Dann gilt grad χA = n. Wenn wir für i ∈ {0, 1, . . . , n} mit ai (A) ∈ K den Koeffizienten von X n−i in χA bezeichnen, so haben wir weiter (1) a0 (A) = lk χA = (−1K )n , (2) a1 (A) = (−1)n−1 spur A und (3) an (A) = det A. a11 . . . a1n .. . Aus der Determinantendefinition folgt Beweis. Sei A =: ... . an1 . . . ann χA = (a11 − X) · . . . · (ann − X) + (Polynome vom Grad ≤ n − 2) = (−1)n X n + (−1)n−1 (a11 + . . . + ann )X n−1 + (Polynome vom Grad ≤ n − 2) und hieraus ergibt sich grad χA = n sowie (1) und (2). Weiter gilt an (A) = χA (0K ) = det A, 134 KAPITEL 5. ENDOMORPHISMEN Alle von nun betrachteten Vektorräume sind - wenn nicht ausdrücklich anders gesagt - endlich erzeugt. Lemma 5.26. Sei K ein Körper und V ein K-Vektorraum mit n := rangK V . B, B0 seien geordnete Basen von V . Weiter sei f ∈ EndK V . A ∈ K n,n sei Koordinatenmatrix von f bzgl. B und A0 ∈ K n,n sei Koordinatenmatrix von f bzgl. B0 . Dann gilt: (1) χA = χA0 . (2) λ ∈ K ist Eigenwert von f genau dann, wenn χA (λ) = 0K , d. h. wenn λ Eigenwert von A ist. Beweis. (1) Nach Satz 4.48 gibt es eine Matrix T ∈ GlK (n) mit A0 = T AT −1 . Hieraus folgt T (A − XEn )T −1 = T AT −1 − XT En T −1 = A0 − XEn und wir erhalten mit Folgerung 5.18 χA0 = det(A0 − XEn ) = det T det(A − XEn ) det T −1 = det A χA (det A)−1 = χA . (2) ist unmittelbare Konsequenz aus den Überlegungen in Bemerkung 5.22.5, Damit definieren wir: Definition 5.27. Sei V ein K-Vektorraum und f ∈ EndK V . (a) Wir setzen χf := χA und ai (f ) := ai (A), i = 0, . . . , n sowie spur f := spur A und det f := det A, wenn A Koordinatenmatrix von f bzgl. einer geordneten Basis von V ist. χf heißt charakteristisches Polynom von f und entsprechend nennt man spur f bzw. det f Spur bzw. Determinante von f . (b) Sei λ ∈ K Eigenwert von f . Dann heißt • ordλ (χf ) (s. Definition 5.3) algebraische Vielfachheit des Eigenwertes λ von f und • rangK V (λ, f ) geometrische Vielfachheit des Eigenwertes λ von f . (c) Wie in (b) sind algebraische und geometrische Vielfachheit eines Eigenwertes einer quadratischen Matrix mit Einträgen aus K erklärt. 5.3. EIGENWERTE 135 Bemerkung 5.28. Mit diesen Bezeichnungen ist die durch f 7→ det f gegebene Abbildung det : EndK V → K ein surjektiver Homomorphismus der jeweils unterliegenden multiplikativen Monoide, der einen Gruppenepimorphismus det : GlK (V ) → K ∗ induziert, (s. Satz 5.18) und die durch f 7→ spur f gegebene Abbildung spur : EndK V → K ist K-linear (s. Übungsaufgabe 32(a)). Beispiele 5.29. Man bestimme die Eigenwerte und die jeweils zugehörigen Eigenräume der Matrizen 1 1 (a) A := ∈ Q2,2 und −6 −4 0 −1 5 0 1 0 0 0 ∈ Q4,4 . (b) A := 0 0 1 1 0 0 0 1 Lösung: (a) 1. Ermittlung der Eigenwerte von A: χA = X 2 − (spur A)X + det A = X 2 + 3X + 2 = (X + 1)(X + 2) (s. Lemma 5.25). Die Eigenwerte von A sind also λ1 = −1 und λ2 = −2 2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten: VQ (−1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A + E2 )XT = 0, X := (X1 , X2 ), d. h. von 2X1 + X2 = 0 −6X1 − 3X2 = 0 Damit gilt VQ (−1, A) = {t(−1, 2) | t ∈ Q} = Q(−1, 2). VQ (−2, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A + 2E2 )XT = 0, d. h. von 3X1 + X2 = 0 −6X1 − 2X2 = 0 Damit gilt VQ (−2, A) = {t(−1, 3) | t ∈ Q} = Q(−1, 3). Wir bemerken, daß die Basisvektoren (−1, 2) von VQ (−1, A) und (−1, 3) von VQ (−2, A) linear unabhängig sind. (b) 1. Ermittlung der Eigenwerte von A: 136 KAPITEL 5. ENDOMORPHISMEN Nach Übungsaufgabe 33 gilt χA = det(A − XE4 ) 1 1 0 −1 = det − XE2 · det − XE2 1 0 0 1 = (X 2 + 1)(X − 1)2 und damit hat A über Q lediglich den Eigenwert λ1 = 1. Dieser hat die algebraische Vielfachheit 2. Fassen wir A als Matrix über C auf, so kommen die Eigenwerte λ2,3 = ±i hinzu, beide mit der algebraischen Vielfachheit 1. 2. Ermittlung der Eigenräume zu den einzelnen Eigenwerten: VQ (1, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A − E2 )XT = 0, X := (X1 , X2 , X3 , X4 ), d. h. von −X1 − X2 + 5X3 X1 − X2 X4 = 0 = 0 = 0 Damit gilt VQ (1, A) = {t(5, 5, 2, 0) | t ∈ Q} = Q(5, 5, 2, 0) und VC (1, A) = {t(5, 5, 2, 0) | t ∈ C} = C(5, 5, 2, 0). VC (±i, A) ist Lösungsmenge des linearen homogenen Gleichungssystems (A ∓ iE2 )XT = 0, d. h. von ∓iX1 − X2 + X1 ∓ iX2 5X3 (1 ∓ i)X3 + X4 (1 ∓ i)X4 = = = = 0 0 0 0 Damit gilt VC (±i, A) = {t(±i, 1, 0, 0) | t ∈ C} = C(±i, 1, 0, 0). Wir bemerken wie in Beispiel (a), daß (5, 5, 2, 0), (i, 1, 0, 0), (−i, 1, 0, 0) linear unabhängige Vektoren sind. Satz 5.30. Sei K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Dann gilt für jeden Eigenwert λ ∈ K von f : 1 ≤ rangK VK (λ, f ) ≤ ordλ (χf ). Beweis. Sei m := rangK VK (λ, f ). Wegen rangK VK (λ, f ) 6= 0 gilt m ≥ 1. Sei {b1 , . . . , bm } Basis von VK (λ, f ). Wir ergänzen {b1 , . . . , bm } zu einer Basis {b1 , . . . . . . , bn }, n := rangK V , von V . Bzgl. der geordneten Basis (b1 , . . . , bn ) von V hat f die Koordinatenmatrix λEm ∗ A := 0 A0 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 137 mit A0 ∈ K n−m,n−m , s. Bemerkung 5.22.3. Dann gilt mit Übungsaufgabe 33: χf = χA = det(A − XEn ) = det (λ − X)Em · det(A0 − XEn−m ) = (−1)m (X − λ)m χA0 und hieraus folgt m ≤ ordλ (χA ) = ordλ (χf ), 5.4 Klassifizierung von Endomorphismen endlich erzeugter Vektorräume I Satz 5.31. Seien K ein Körper, V ein K-Vektorraum und f ∈ EndK V . Weiter sei Λ ⊆ K eine Menge von Eigenwerten von f . Dann gilt: (1) VK (λ, f ) ∩ VK (µ, f ) = 0 für alle λ, µ ∈ Λ mit λ 6= µ. (2) Ist Xλ ⊂ VK (λ, f ) für jedes λ ∈ Λ eine linear S unabhängige Menge, so sind die Xλ , λ ∈ Λ, paarweise disjunkt und X := λ∈Λ Xλ ist linear unabhängige Teilmenge von V . Beweis. (1) Seien λ, µ ∈ Λ, λ 6= µ. Wenn v ∈ VK (λ, f ) ∩ VK (µ, f ), so folgt (λ − µ)v = λv − µv = f (v) − f (v) = 0V , also v = 0V (da λ 6= µ). (2) Die erste Aussage von ergibt sich sofort aus (1). Zum Nachweis der zweiten Aussage dürfen wir o. B. d. A. annehmen, daß Λ endlich ist, sagen wir Λ = {λ1 , . . . , λm } mit paarweise verschiedenen λ1 , . . . , λm ∈ K. Hierzu benutzen wir nun Induktion nach m, wobei für m = 1 nichts zu zeigen ist. Sei also m > 1. Wir vereinbaren, daß wir für x ∈ X mit λx den zu x gehörenden Eigenwert bezeichnen (d. h. λx = λi , wenn x ∈ Xλi , i ∈ {1, . . . , m}). Schließlich setzen Sm−1 wir Y := i=1 Xλi . Angenommen, wir haben X x∈X αx x = 0V , 138 KAPITEL 5. ENDOMORPHISMEN wobei αx ∈ K für alle x ∈ X und αx = 0K für fast alle x ∈ X. Dann folgt X X X X αy (λm − λy )y = αx (λm − λx )x = λm αx x − α x λx x y∈Y x∈X = − X x∈X αx f (x) = −f x∈X x∈X | {z } =0V ! X αx x = −f (0V ) x∈X = 0V , also haben wir nach Induktionsvoraussetzung αy (λm − λy ) = 0K für alle y ∈ Y . Wegen sich hieraus αy = 0K für alle P λm 6= λy für alle y ∈ Y ergibt P y ∈ Y . Da x∈X αx x = 0V folgt hieraus x∈Xλm αx x = 0V , also αx = 0K für alle x ∈ Xλm , denn laut Voraussetzung ist Xλm linear unabhängige Menge. Zusammengenommen haben wir αx = 0K für alle x ∈ X, d. h. X ist linear unabhängige Menge, Sei nun K ein Körper. Wenn nicht ausdrücklich anders gesagt, sind alle KVektorräume endlich erzeugt. Folgerung 5.32. Sei V ein K-Vektorraum und f ∈ EndK V . Wenn χf in K[X] vollständig in Linearfaktoren zerfällt und wenn ordλ (χf ) = 1 für jeden Eigenwert λ von f , d. h. wenn χf genau n := rangK V paarweise verschiedene Nullstellen λ1 , . . . , λn ∈ K besitzt, so besitzt V eine Basis B, die nur aus Eigenvektoren von f besteht. Wenn B =: {x1 , . . . , xn }, wobei xi Eigenvektor von λi ist, i = 1 . . . , n, so ist Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B := (x1 , . . . , xn ) von V , d. h. ist f diagonalisierbar. Beweis. Zu jedem λi , i = 1, . . . , n, wählen wir einen Eigenvektor xi ∈ V . Nach Satz 5.31 sind x1 , . . . , xn paarweise verschieden und B := {x1 , . . . , xn } ist linear unabhängig, also Basis von V , s. Satz 3.43. Definitionsgemäß ist Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B := (x1 , . . . , xn ), Wir können nun zeigen Theorem 5.33. Sei f ein K-Endomorphismus eines K-Vektorraums V . Dann gilt: (1) Folgende Aussagen sind äquivalent: (i) f ist trigonalisierbar (ii) χf zerfällt in K[X] vollständig in Linearfaktoren. (2) Folgende Aussagen sind äquivalent: 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 139 (i) f ist diagonalisierbar (ii) χf zerfällt in K[X] vollständig in Linearfaktoren und für alle Eigenwerte λ von f gilt rangK VK (λ, f ) = ordλ (χf ). Beweis. Sei n := rangK V (< ∞). ∗ λ1 Nehmen wir zunächst an, daß f trigonalisierbar ist. A := .. . ∈ 0 λn K sei Koordinatenmatrix von f bzgl. einer geeigneten geordneten Basis B = (b1 , . . . , bn ) von V . Nach Übungsaufgabe 33 gilt dann n,n χf = χA = (−1)n (X − λ1 ) · . . . · (X − λn ), d. h. χf zerfällt in K[X] vollständig in Linearfaktoren. Ist f sogar diagonalisierbar und gilt A = Diag(λ1 , . . . , λn ) bzgl. B, so besteht B nur aus Eigenvektoren von f , genauer, bi ist Eigenvektor zum zum Eigenwert λi , i = 1, . . . , n. Sei i ∈ {1, . . . , n} und nehmen wir o. B. d. A. an, daß λ := λi = . . . = λi+m−1 mit m := ordλi (χf ). Da rangK VK (λ, f ) ≤ m (s. Satz 5.30) und da bi , . . . bi+m−1 linear unabhängige Vektoren aus VK (λ, f ) sind, muß sogar gelten rangK VK (λ, f ) = m. Daher haben wir im Falle der Diagonalisierbarkeit von f rangK VK (λ, f ) = ordλ (χf ) für alle Eigenwerte λ von f und die Implikationen (i) =⇒ (ii) in (1) und (2) sind gezeigt. χf zerfalle nun in K[X] vollständig in Linearfaktoren. Dann können wir schreiben (s. Lemma 5.25 zusammen mit Definition 5.27) χf = (−1)n (X − λ1 )m1 · . . . · (X − λp )mp mit paarweise verschieden λ1 , . . . , λp ∈ K und m1 , . . . , mp ∈ N+ . λ1 , . . . , λp sind somit die Nullstellen von χf und folglich die Eigenwerte von f und es gilt mi = ordλi (χf ) > 0, i = 1, . . . , p, sowie m1 + . . . + mp = n. Wenn rangK VK (λi , f ) = mi für alle i = 1, . . . , p, so wählen wir eine Basis Xi von VK (λi , f ), i = 1, . . . , p. Nach Satz 5.31(2) ist dann X := X1 ∪ . . . ∪ Xp ⊂ V linear unabhängige Menge und es gilt ]X = ]X1 + . . . + ]Xp = m1 + . . . + mp = n. Somit ist X Basis von V (s. Satz 3.43) bestehend aus Eigenvektoren von f , d. h. f ist diagonalisierbar (s. Bemerkung 5.22.4), und (2) ist gezeigt. Um schließlich noch die Implikation (ii) =⇒ (i) von (1) zu zeigen, benutzen wir Induktion nach n, wobei für n = 1 nichts zu zeigen ist. Sei also n ≥ 2 und sei 140 KAPITEL 5. ENDOMORPHISMEN v1 ∈ V Eigenvektor zum Eigenwert λ1 . Wir ergänzen v1 zu einer geordneten Basis B0 := (v1 , b2 , . . . , bn ) von V . Bzgl. B0 hat f die Koordinatenmatrix λ1 β2 . . . βn 0 A := 0 B0 mit β2 , . . . , βn ∈ K und B 0 ∈ K n−1,n−1 , s. Bemerkung 5.22.3. Sei nun W := K{b2 , . . . , bn } der von {b2 , . . . , bn } erzeugte K-Untervektorraum von V und g ∈ EndK W mit g(b2 ,...,bn ) = B 0 (s. Satz 4.38(2)). Für j = 2, . . . , n gilt dann f (bj ) = βj v1 + g(bj ) und mit Übungsaufgabe 33 haben wir χf = χA0 = −(X − λ1 )χB 0 = −(X − λ1 )χg . Da K[X] Integritätsring ist (s. Folgerung B.10), folgt hieraus, daß χg = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp , d. h. auch χg zerfällt in K[X] vollständig in Linearfaktoren. Da rangK W = n − 1, gibt es nach Induktionsvoraussetzung eine geordnete Basis (v2 , . . . , vn ) von W , bzgl.derer die Koordinatenmatrix von g eine obere Dreiecksmatrix ist, sagen µ2 ∗ ... wir . Nun ist B := (v1 , . . . , vn ) geordnete Basis von V . Da 0 µn für j = 2, . . . , n gilt f (vj ) = βj0 v1 + g(vj ) mit geeigneten β20 , . . . , βn0 ∈ K, hat µ1 ∗ .. die Koordinatenmatrix A von f bzgl. B die Gestalt A = mit . 0 µn µ1 := λ1 , d. h. f ist trigonalisierbar, Folgerung 5.34. Ist ein Endomorphismus f eines K-Vektorraumes V trigonalisierbar und ist B geordnete Basis von V bzgl. derer die Koordinatenmatrix A von f eine obere Dreiecksmatrix ist, so sind die Einträge auf der Hauptdiagonale von A genau die Eigenwerte von f (mit den jeweiligen algebraischen Vielfachheiten). Beweis. Aus dem Beweis der Implikation (ii) =⇒ (i) der Aussage (1) von Satz 5.33 ergibt sich mit den dortigen Bezeichnungen (−1)n (X − λ1 )m1 · . . . · (X − λp )mp = χf = χA = (−1)n (X − µ1 ) · . . . · (X − µn ). Damit folgt etwa durch Einsetzen zunächst {µ1 , . . . , µn } = {λ1 , . . . , λp }. Die entsprechenden Nullstellenordnugen stimmen dann aber wegen ihrer Eindeutigkeit (s. Folgerung 5.2(2) zusammen mit Definition 5.3) auch überein, 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 141 Bemerkung 5.35. Für Matrizen aus K n,n , n ∈ N+ , gelten natürlich die Analoga der Aussagen aus Satz 5.33 und Folgerung 5.34. Dies werden wir in Zukunft stets stillschweigend voraussetzen. Folgerung 5.36. Sei K ein Körper und B ∈ K n,n , wobei n ∈ N, n ≥ 2. Es gelte χB = (−1)n (X−λ1 )m1 ·. . .·(X−λp )mp mit paarweise verschiedenen λ1 , . . . , λp ∈ K und m1 , . . . , mp ∈ N+ . (1) Man bestimmt eine Matrix T ∈ GlK (n), so daß T · B · T −1 obere Dreiecksmatrix ist, wie folgt: i. Man wählt einen Eigenvektor v1 von B zum Eigenwert λ1 , ergänzt {v1 } zu einer geordneten Basis (v1 , b2 , . . . , bn ) von K n und setzt S := v1T , bT2 , . . . −1 S ist Transformationsmatrix von Koordinaten bzgl. der ka. . . , bTn nonischen Basis En von K n in Koordinaten bzgl. (v1 , b2 , . . . , bn ) . λ1 ∗ 0 −1 0 ii. Sei A := S · B · S . Dann gilt A = mit B 0 ∈ K n−1,n−1 und 0 B0 χB 0 = (−1)n−1 (X − λ1 )m1 −1 · (X − λ2 )m2 · . . . · (X − λp )mp . iii. Man bestimmt eine Matrix T 0 ∈ GlK (n − 1), so daß T 0 · B 0 · (T 0 )−1 obere Dreiecksmatrix ist. 1K 0 iv. Mit T̃ := und T := T̃ · S ist A := T · B · T −1 = T̃ · A0 · T̃ −1 0 T0 obere Dreiecksmatrix. (2) Ist B diagonalisierbar, so bestimmt man eine Matrix T ∈ GlK (n), so daß T · B · T −1 Diagonalgestalt hat wie folgt: Für i = 1, . . . , p berechne man eine geordnete Basis (vi1 , . . . , vimi ) des Eigen−1 T T T T . Dann , . . . , v , . . . , v , . . . , v1m raumes VK (λi , B) und setze T := v11 pm p1 p 1 gilt T · B · T −1 = Diag λ1 , . . . , λ1 , . . . , λp , . . . , λp . | {z } | {z } m1 −mal mp −mal 2 −1 1 Beispiel 5.37. Sei B := −1 2 −1 ∈ Q3,3 . Man prüfe, ob B diagonali2 2 3 sierbar oder trigonalisierbar ist und - falls ja - gebe man eine Matrix T ∈ GlQ (3) an, so daß T BT −1 Diagonal- bzw. Dreiecksgestalt hat. 2−X −1 1 2−X −1 = −(X − 1)(X − 3)2 und Lösung: Es gilt χB = det −1 2 2 3−X damit ist B auf jeden Fall trigonalisierbar. Die Eigenwerte von B sind λ1 = 1 und λ2 = 3 (letzterer mit Vielfachheit 2). 142 KAPITEL 5. ENDOMORPHISMEN Berechnung von VQ (1, B): VQ (1, B) ist Lösungsmenge des homogenen Gleichungssystems X 1 − X2 + X3 = 0 −X1 + X2 − X3 = 0 2X1 + 2X2 + 2X3 = 0 Anwendung des Gaußschen Algorithmus führt es über in X1 − X2 + X3 = 0 4X2 = 0 und damit gilt VQ (1, B) = Q(1, 0, −1). Berechnung von VQ (3, B): VQ (3, B) ist Lösungsmenge des homogenen Gleichungssystems −X1 − X2 + X3 = 0 −X1 − X2 − X3 = 0 2X1 + 2X2 = 0 Anwendung des Gaußschen Algorithmus führt es über in −X1 − X2 + X3 = 0 −2X3 = 0 und damit gilt VQ (3, B) = Q(1, −1, 0). Da rangQ VQ (3, B) = 1 < 2 = ord3 χB ist B nach Satz 5.33(2) nicht diagonalisierbar. Berechnung einer Matrix T ∈ GlQ (3), so daß T BT −1 Dreiecksgestalt hat: i. Setze v1 := (1, 0, −1) und ergänze {v1 } zu einer geordneten Basis (v1 , b2 , b3 ) 1 0 0 von Q3 , z. B. zu (v1 , e3,2 , e3,3 ) (da mit C := 0 1 0 gilt rang C = 3). −1 0 1 1 0 0 Setze S := C −1 = 0 1 0. 1 0 1 1 −1 1 2 −1 0 −1 −1 0 ii. Sei A := S · B · S = C · B · C = 0 2 −1 und B := . 1 4 0 1 4 Dann gilt χB 0 = (X − 3)2 . 0 0 iii. VQ (3, B 0 ) = Q(−1, 1). Mit v2 := (−1, 1) ist (v2 , e2,2 ) geordnete Basis −1 0 −1 (da mit D := gilt rang D = 2). Mit T 0 := D−1 = 1 1 1 3 1 dann T 0 · B 0 · (T 0 )−1 = . 0 3 2 von Q 0 gilt 1 5.4. KLASSIFIZIERUNG VON ENDOMORPHISMEN 143 1 0 0 1 0 0 1 0 0 iv. Mit T := T̃ · S = 0 −1 0 · 0 1 0 = 0 −1 0 gilt: 0 1 1 1 0 1 1 1 1 A = T · B · T −1 1 2 1 = 0 3 1 . 0 0 3 Wir sind nun in der Lage, eine vorläufige Klassifizierung von K-Endomorphismen eines endlich erzeugten K-Vektorraumes zu geben. ”Vorläufig” soll dabei heißen, daß wir im Moment nur diagonalisierbare Endomorphismen endlich erzeugter K-Vektorräume klassifizieren können. Für eine vollständige Klassifizierung benötigt man Methoden und Hilfsmittel, die derzeit noch nicht zur Verfügung stehen (Jordansche Normalform). ”Klassifizierung” bedeutet, daß wir jedem Endomorphismus gewisse Daten zuordnen, die diesen bis auf Ähnlichkeit eindeutig festlegen, wobei ”Ähnlichkeit” von Endomorphismen in Anlehnung an Definition 2.35(b) wie folgt definiert ist: Definition 5.38. Sei K ein Körper. Endomorphismen f, g ∈ EndK V eines (nicht notwendig endlich erzeugten) K-Vektorraumes V heißen ähnlich, wenn es einen Automorphismus h ∈ GlK (V ) von V gibt mit g = h ◦ f ◦ h−1 . Wie bei Matrizen ist klar, daß die Ähnlichkeit von K-Endomorphismen eines K-Vektorraumes V eine Äquivalenzrelation auf EndK V ist, s. Lemma 2.36. Satz 5.39. Sei V ein K-Vektorraum und seien f, g ∈ EndK V diagonalisierbare Endomorphismen von V . Dann sind die folgenden Eigenschaften äquivalent: (i) f und g sind ähnlich (ii) die Eigenwerte von f und g stimmen überein (d. h. sind λ1 , . . . , λn die Eigenwerte von f und µ1 , . . . , µn die Eigenwerte von g, n := rangK V , so gibt es eine Permutation π ∈ Sn mit µi = λπ(i) , i = 1, . . . , n) (iii) χf = χg . Beweis. Sei A bzw. A0 die Koordinatenmatrix von f bzw. g bzgl. einer geordneten Basis B von V . Da f, g diagonalisierbar sind, sind A bzw. A0 ähnlich zu Diagonalmatrizen D bzw. D0 , deren Diagonaleinträge nach Folgerung 5.34 genau die Eigenwerte von f bzw. g mit den jeweiligen algebraischen Vielfachheiten sind. (i) ⇒ (iii): Sei h ∈ GlK (V ) mit g = h ◦ f ◦ h−1 und sei C ∈ GlK (n) Koordinatenmatrix von h bzgl. B. Da dann A0 = CAC −1 (s. Satz 4.38(2)), folgt wegen 144 KAPITEL 5. ENDOMORPHISMEN det C det C −1 = det En = 1K (s. Definition 5.27 und Folgerung 5.18): χf = = = = χA = det(A − XEn ) = det C det(A − XEn ) det C −1 det C(A − XEn )C −1 = det CAC −1 − XCC −1 det(A0 − XEn ) = χA0 χg . (iii) ⇒ (ii) ist klar, da die Eigenwerte eines Endomorphismus genau die Nullstellen seines charakteristischen Polynoms sind. (ii) ⇒ (i): Nach Übungsaufgabe 40(b) sind D und D0 ähnlich. Somit sind A und A0 ähnlich, d. h. es gibt ein C ∈ GlK (n) mit A0 = CAC −1 . Sei h ∈ GlK (V ) der durch hB = C eindeutig bestimmte K-Automorphismus (s. Satz 4.38(2)). Dann gilt g = h ◦ f ◦ h−1 wiederum nach Satz 4.38(2), d. h. f und g sind ähnlich, Kapitel 6 Euklidische Vektorräume 6.1 Quadratische Formen Alle hier betrachteten Ringe sind kommutativ mit Einselement und für jeden derartigen Ring R gilt 1R 6= 0R sowie 2R := 1R + 1R ∈ R∗ . Sind Verwechslungen ausgeschlossen, so bezeichnen wir mit 21 das Inverse von 2R in R. Definition 6.1. Sei R ein Ring und V ein R-Modul. Eine quadratische Form auf V ist eine Abbildung Q : V → R, die die beiden folgenden Bedingungen erfüllt: (i) Q(rv) = r2 Q(v) für alle r ∈ R, v ∈ V und (ii) Die durch q(v, w) := 12 Q(v + w) − Q(v) − Q(w) für alle v, w ∈ V gegebene Abbildung q : V × V → R ist eine Bilinearform auf V . Die in (ii) erklärte Bilinearform q heißt zu Q assoziierte Bilinearform. Es ist klar, daß q symmetrisch ist. Bemerkungen, Beispiele 6.2. 1. Sei R ein Ring, V := Rn (n ∈ N+ ) und QE := Rn → R sei für alle x ∈ Rn definiert durch QE (x) := x · xT = x21 + . . . + x2n , wenn x =: (x1 , . . . , xn ) . QE ist quadratische Form auf Rn mit assoziierter Bilinearform qE , wobei qE (x, y) := x · yT für alle x, y ∈ Rn s. Bemerkung 4.56.9. QE bzw. qE heißt Einheitsform auf Rn . 2. Ist q symmetrische Bilinearform auf dem R-Modul V , so ist durch Q(v) := q(v, v), v ∈ V 145 146 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME eine quadratische Q Form auf V erklärt, wie man sofort bestätigt. Die zu Q assoziierte Bilinearform ist wieder q, denn für v, w ∈ V gilt 1 Q(v + w) − Q(v) − Q(w) = 2 = 21 q(v + w, v + w) − q(v, v) − q(w, w) = 12 (q(v, v) + q(v, w) + q(w, v) + q(w, w) − q(v, v) − q(w, w)) = q(v, w). 3. Die Menge QuadR V der quadratischen Formen auf dem R-Modul V ist mit punktweiser Addition und punktweiser Operation von R ein R-Modul. Ordnet man jeder quadratischen Form auf V ihre assoziierte Bilinearform zu, so beschreibt dies einen R-Isomorphismus QuadR V → Sym2R (V ; R). 4. Seien V, V 0 R-Moduln und sei f : V → V 0 ein R-Homomorphismus. Ist Q0 quadratische Form auf V 0 mit assoziierter Bilinearform q 0 , so ist Q := Q0 ◦ f quadratische Form auf V mit assoziierter Bilinearform q 0 ◦ f 2 (s. Übungsaufgabe 31(b)) und durch Q0 7→ Q0 ◦ f , Q0 ∈ QuadR V 0 , ist ein R-Homomorphismus QuadR V 0 → QuadR V gegeben. Definition 6.3. Sei V 6= 0 ein endlich erzeugter freier R-Modul mit n := rangR V und q eine Bilinearformen auf V . Ferner sei B := (b1 , . . . , bn ) eine geordnete Basis von V . (a) Die Matrix Aq,B := ((q(bi , bj )))1≤i,j≤n ∈ Rn,n heißt Gramsche Matrix oder Strukturmatrix von q bzgl. B. (b) ist Q quadratische Form auf V mit assoziierter Bilinearform q, so heißt Aq,B Gramsche Matrix oder Strukturmatrix von Q bzgl. B. Dementsprechend schreibt man hierfür auch AQ,B . (c) Sind Verwechslungen ausgeschlossen, so schreibt man kurz Aq bzw. AQ statt Aq,B bzw. AQ,B und nennt diese Matrizen Gramsche Matrix bzw. Strukturmatrix von q bzw. Q. Bemerkungen 6.4. Mit den Bezeichnungen von Definition 6.3 haben wir: 1. Seien v, w ∈ V , v = r1 b1 + . . . + rn bn , w = s1 b1 + . . . + sn bn mit r1 , . . . , rn , s1 , . . . , sn ∈ R (d. h. (r1 , . . . , rn ) =: vB und (s1 , . . . , sn ) =: wB ). Dann gilt 6.1. QUADRATISCHE FORMEN 147 wegen der Bilinearität von q q(v, w) = n X ri q(bi , w) = i=1 n X n X ri sj q(bi , bj ) i=1 j=1 = (r1 , . . . , rn )Aq (s1 , . . . , sn )T T = vB Aq wB , d. h. eine Bilinearform auf V ist durch ihre Strukturmatrix eindeutig bestimmt. 2. Eine Bilinearform auf V ist symmetrisch genau dann, wenn ihre Strukturmatrix symmetrisch ist, denn mit den Bezeichnungen aus 1. gilt T T T T q(v, w) = vB Aq wB = vB Aq wB = wB ATq vB . 3. Ist A ∈ Rn,n , so ist durch T (v, w) 7→ vB AwB ∈ R, , v, w ∈ V eine bilineare Abbildung qA : V × V → R, also eine Bilinearform qA auf V erklärt, deren Strukturmatrix offensichtlich A ist. Da somit AqA = A für jede Matrix A ∈ Rn,n und qAq = q für jede Bilinearform q ∈ Mult2R (V ; R) (s. 1.), ist durch q 7→ Aq , q ∈ Mult2R (V ; R) bzw. q ∈ Sym2R (V ; R), ein (von B abhängiger) R-Isomorphismus Mult2R (V ; R) → Rn,n bzw. Sym2R (V ; R) → {A | A ∈ Rn,n , A symmetrisch} erklärt. (Die hierzu inverse Abbildung ist jeweils durch A 7→ qA , A (symmetrische) Matrix in Rn,n , gegeben.) Damit ergibt sich aus 2. sofort, daß eine Matrix A ∈ Rn,n symmetrisch ist genau dann, wenn qA eine symmetrische Bilinearform auf V ist. 4. Allgemeiner gilt für eine Matrix A ∈ Rn,n und v, w ∈ V (siehe 2.): T T qA (v, w) = vB AwB = wB AT vB = qAT (w, v). 5. Für eine symmetrische Matrix A ∈ Rn,n sei QA die durch QA (v) := qA (v, v) für alle v ∈ V definierte quadratische Form auf V (s. 3. und Bemerkung 6.2.2). Nach 3. ist klar, daß durch Q 7→ AQ , Q ∈ QuadR V , ebenfalls ein (von B abhängiger) R-Isomorphismus QuadR V → {A | A ∈ Rn,n , A symmetrisch} 148 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME erklärt ist. (Die hierzu inverse Abbildung ist analog wie in 3. durch A 7→ QA , A symmetrische Matrix in Rn,n , gegeben.) 6. Sei n ∈ N+ und sei Q eine quadratische Form auf Rn . A =: ((rij ))1≤i,j≤n sei ihre Strukturmatrix bzgl. der kanonischen geordneten Basis (en1 , . . . , enn ) des Rn . Dann gilt nach 1. für x ∈ Rn : Q(x) = xAxT , d. h. Q(x) entsteht durch Einsetzen von x in das Polynom Q̃ := n X rij Xi Xj ∈ R[X1 , . . . , Xn ], X1 , . . . , Xn Unbestimmte. i,j=1 Da A symmetrisch ist, können wir schreiben Q̃ = n X i=1 rii Xi2 + 2 X rij Xi Xj . 1≤i<j≤n Deswegen verwenden manche Autoren dieses Polynom Q̃ zur Definition quadratischer Formen (auf Rn ). Definition 6.5. Sei R ein Ring. (a) Quadratische Formen Q, Q0 auf einem R-Modul V heißen kongruent, wenn Q0 = Q ◦ f mit einen R-Automorphismus f ∈ GlR (V ) von V . (b) Sei n ∈ N+ . Matrizen A, A0 ∈ Rn,n heißen kongruent, wenn A0 = S T AS mit einer invertierbaren Matrix S ∈ GlR (n). Bemerkungen 6.6. Mit den Bezeichnungen aus Definition 6.5 haben wir: 1. Seien q bzw. q 0 die zu Q bzw. Q0 assoziierten Bilinearformen. Für f ∈ EndR (V ) gilt dann Q0 = Q ◦ f genau dann, wenn q 0 = q ◦ f 2 (zur Definition von f 2 := f ⊕ f s. Übungsaufgabe 27(a)). Sei nun V endlich erzeugt und frei und sei B geordnete Basis von V . Sind A bzw. A0 die Strukturmatrizen von Q bzw. Q0 und S Koordinatenmatrix von f jeweils bzgl. B, so gilt Q0 = Q ◦ f genau dann, wenn A0 = S T AS. Damit sind Q und Q0 in diesem Fall genau dann kongruent, wenn A und A0 kongruent sind. 2. Die Kongruenz quadratischer Formen bzw. quadratischer Matrizen ist Äquivalenzrelation. 3. Symmetrische Matrizen B, B 0 ∈ Rn,n sind genau dann kongruent, wenn sie Strukturmatrizen einer quadratischen Form Q auf einem freien R-Modul V vom Rang n bzgl. geordneter Basen B, B0 dieses R-Moduls sind. 6.1. QUADRATISCHE FORMEN 149 Genauer gilt: Sind B, B 0 kongruent, sagen wir B 0 = S T BS mit einer Matrix S ∈ GlR (n), T T so wähle geordnete Basen B, B0 von V derart, daß S = tB0 ,B (d. h. vB = SvB 0 für alle 0T v ∈ V ) und setze q := qB,B ∈ SymR (V ; R) (d. h. q(v, w) = vB BwB für alle v, w ∈ V ). Q sei die zugehörige quadratische Form (d. h. Q(v) = q(v, v) für alle v ∈ V ). Dann ist B Strukturmatrix von Q bzgl. B. Da andererseits für alle v, w ∈ V gilt q(v, w) = T 0 T 0 0 vB0 S T BSwB 0 = vB0 B wB0 , ist B Strukturmatrix von Q bzgl. B . Wenn umgekehrt B, B 0 Strukturmatrizen einer quadratischen Form Q mit assoziierter Bilinearform q auf einem freien R-Modul V vom Rang n bzgl. geordneter Basen B, B0 T T von V sind, so sei S := tB0 ,B . Da für alle v, w ∈ V gilt vB0 S T BSwB 0 = vB BwB = T 0 T q(v, w) = vB0 B 0 wB 0 , gilt B = S BS. Definition 6.7. Sei R ein Ring und V 6= 0 ein R-Modul. (a) Eine Bilinearform q auf V heißt nicht ausgeartet, wenn (i) aus q(v, w) = 0R für alle v ∈ V folgt w = 0V und (ii) aus q(v, w) = 0R für alle w ∈ V folgt v = 0V . (Ist q symmetrisch, so sind (i) und (ii) äquivalent.) (b) Eine quadratische Form auf V heißt nicht ausgeartet, wenn ihre assoziierte Bilinearform nicht ausgeartet ist. Lemma 6.8. Sei R ein Ring und V ein endlich erzeugter freier R-Modul mit n := rangR V > 0. q sei Bilinearform auf V und A sei Strukturmatrix von q bzgl. einer geordneten Basis B von V . Ferner seien f bzw. f T diejenigen REndomorphismen von V , deren Koordinatenmatrizen bzgl. B A bzw. AT sind. Dann gilt: (1) q ist nicht ausgeartet genau dann, wenn f und f T injektiv sind. (2) Wenn det A Nichtnullteiler in R ist, so ist q nicht ausgeartet. (3) Ist R Integritätsring, so ist q nicht ausgeartet genau dann, wenn det A 6= 0R . (4) Ist R ein Körper, so ist q nicht ausgeartet genau dann, wenn A invertierbar ist. Beweis. Wir definieren q T : V × V → R durch q T (v, w) := q(w, v) für alle v, w ∈ V . Offensichtlich ist q T Bilinearform auf V mit Strukturmatrix AT bzgl. B. Außerdem ist klar, daß q genau dann nicht ausgeartet ist, wenn q T nicht ausgeartet ist. Ferner bemerken wir, daß für v, w ∈ V gilt (s. Definition 4.35 und Lemma 4.34) T T q(v, w) = vB AwB = vB f (w)TB = f T (v)B wB . (1) Sei q nicht ausgeartet. Nach obiger Vorbemerkung reicht es zu zeigen, daß f injektiv ist. Angenommen, das wäre nicht so. Dann gibt es ein w ∈ V , 150 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME T = f (w)TB = 0. Hieraus folgt aber w 6= 0V , mit f (w) = 0V , d. h. es gilt AwB q(v, w) = 0R für alle v ∈ V nach obiger Überlegung, Widerspruch, d. h. f ist injektiv. Seien nun umgekehrt f und f T injektiv. Wiederum auf Grund obiger Überlegung reicht es zu zeigen, daß Bedingung (i) aus Definition 6.7 erfüllt ist. Sei also w ∈ V und q(v, w) = 0R für alle v ∈ V . Dann folgt vB f (w)TB = q(v, w) = 0R für alle v ∈ V , also gilt ei f (w)TB = (bi )B f (w)TB = 0R für alle i = 1, . . . , n, wenn B =: (b1 , . . . , bn ). Damit haben wir aber f (w)B = 0, d. h. w ∈ Kern f . Da f injektiv ist, folgt hieraus aber w = 0V und (1) ist gezeigt. (2) Wenn det A Nichtnullteiler in R ist, so besitzt das lineare Gleichungssystem AXT = 0 nach der Cramerschen Regel nur die triviale Lösung in Rn und damit ist f injektiv, denn für v ∈ V gilt: v ∈ Kern f ⇐⇒ vB ist Lösung von AXT = 0. Wegen det AT = det A ist somit auch f T injektiv und (2) folgt daher aus (1). (3) Wenn det A 6= 0R , so ist det A Nichtnullteiler in R und damit ist q nicht ausgeartet nach (1). Wenn det A = 0, so sind die Spalten von A linear abhängig nach Folgerung 5.16(1), d. h. das lineare Gleichungssystem AXT = 0 besitzt eine nichttriviale Lösung v ∈ Rn . Im Beweis von (2) haben wir gesehen, daß dann v ∈ Kern f . Damit ist aber f nicht injektiv und q folglich ausgeartet nach (1). (4) folgt aus (3), da nach Satz 5.20(2) A genau dann invertierbar ist, wenn det A 6= 0R (R ist jetzt ein Körper), Definition 6.9. Sei R ein Ring und V ein freier R-Modul. Weiter sei Q eine quadratische Form auf V mit assoziierter Bilinearform q. Eine Basis B von V heißt (a) Orthogonalbasis von V bzgl. Q, wenn q(b, b0 ) = 0R für alle b, b0 ∈ B mit b 6= b0 . (b) Orthonormalbasis von V bzgl. Q, wenn B Orthogonalbasis von V bzgl. Q ist mit Q(b) = 1R für alle b ∈ B. Bemerkungen 6.10. Mit den Bezeichnungen von Definition 6.9 haben wir: 1. Sei v ∈ V , so daß Q(v) = α2 mit einem α ∈ R∗ . Dann gilt Q α−1 v = 1R . Man sagt in diesem Fall, α−1 v entstehe aus v durch Normieren, s. hierzu auch Bemerkung 6.25.5. Ist B Orthogonalbasis von V , so daßes für alle b ∈ B ein βb ∈ R∗ gibt mit Q(b) = βb2 , so ist B̃ := βb−1 b | b ∈ B offensichtlich Orthonormalbasis von V . Man sagt auch in diesem Fall, B̃ entstehe aus B durch Normieren. 6.1. QUADRATISCHE FORMEN 151 2. Ist V endlich erzeugt und 6= 0 und ist B eine geordnete Basis von V , so ist B Orthogonalbasis bzgl. Q genau dann, wenn die Strukturmatrix von Q bzgl. B eine Diagonalmatrix ist. B ist Orthonormalbasis bzgl. Q genau dann, wenn die Strukturmatrix von Q bzgl. B die Einheitsmatrix ist. Lemma 6.11. Sei R ein Ring, V ein R-Modul und sei n ∈ N+ . Weiter sei Q quadratische Form auf V mit assoziierter Bilinearform q. Sind v1 , . . . , vn ∈ V , so daß Q(vi ) Nichtnullteiler in R ist für alle i ∈ {1, . . . , n} und q(vi , vj ) = 0R für alle i, j ∈ {1, . . . , n} mit i 6= j, so sind v1 , . . . , vn linear unabhängig. Beweis. Seien α1 , . . . , αn ∈ R, so daß α1 v1 + . . . + αn vn = 0V Dann folgt für i = 1, . . . , n P P 0K = q(vi , 0V ) = q vi , nj=1 αj vj = nj=1 αj q(vi , vj ) = αi Q(vi ), also αi = 0K , Folgerung 6.12. Sei K ein Körper und V ein K-Vektorraum mit n = rangK V < ∞. Weiter sei Q quadratische Form auf V mit assoziierter Bilinearform q. Wenn für v1 , . . . , vn ∈ V gilt Q(vi ) 6= 0 für alle i = 1, . . . , n und q(vi , vj ) = 0R für alle i, j ∈ {1, . . . , n} mit i 6= j, so ist {v1 , . . . , vn } Orthogonalbasis von V . Satz 6.13 (Existenz von Orthogonalbasen für endlich erzeugte Vektorräume). Sei K ein Körper und V ein endlich erzeugter K-Vektorraum. Q sei eine quadratische Form auf V . Dann gilt (1) V besitzt eine Orthogonalbasis B bzgl. Q. (2) Sei B eine Orthogonalbasis von V bzgl. Q. Q ist nicht ausgeartet genau dann, wenn Q(b) 6= 0K für alle b ∈ B. Beweis. Sei q die zu Q assoziierte Bilinearform. Wir benutzen Induktion nach n := rangK V , wobei für n = 0, 1 nichts zu zeigen ist. Sei also n ≥ 2. Wenn Q = 0, so ist q = 0 und jede Basis von V ist Orthogonalbasis bzgl. Q. Sei also Q 6= 0. Wir wählen b1 ∈ V mit Q(b1 ) 6= 0K . Sei g : V → K die durch v 7→ q(b1 , v) für alle v ∈ V definierte Abbildung. Es ist klar, daß g K-linear ist. Da g(b1 ) = q(b1 , b1 ) = Q(b1 ) 6= 0K , ist Bild g 6= 0. Da 0 und K die einzigen K-Untervektorräume von K sind, gilt somit Bild g = K, d. h. g ist surjektiv. Folglich gilt mit W := Kern g nach Satz 4.33: rangK W = rangK V − rangK Bild g = n − 1. Nach Induktionsvoraussetzung gibt es eine Orthogonalbasis {b2 , . . . , bn } von W bzgl. der Einschränkung von Q auf W . Da b1 6∈ Kern g = W , ist {b1 , b2 , . . . , bn } n-elementige linear unabhängige Menge und folglich Basis von V , s. Satz 3.43. 152 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Da q(b1 , bj ) = g(bj ) = 0V wegen bj ∈ Kern g für j = 2, . . . , n, ist {b1 , b2 , . . . , bn } Orthogonalbasis von V bzgl. Q. Bzgl. dieser Basis ist die Strukturmatrix A von Q eine Diagonalmatrix, genauer A = Diag(Q(b1 ), . . . , Q(bn )). Nach Lemma 6.8(4) ist Q nicht ausgeartet genau dann, wenn det A 6= 0K . Da det A = Q(b1 ) · . . . · Q(bn ), ist dies äquivalent zu Q(bi ) 6= 0K für alle i = 1, . . . , n, Das nächste Resultat gibt an, wie man unter speziellen Voraussetzungen an Q aus einer vorgegebenen (beliebigen) Basis von V eine Orthogonalbasis konstruieren kann. Lemma 6.14 (Schmidtsches Orthogonalisierungsverfahren). Sei R ein Ring, V ein freier R-Modul mit n := rangK V < ∞ und (b1 , . . . , bn ) geordnete Basis von V . Sei weiter Q quadratische Form auf V mit assoziierter Bilinearform q. Für i = 1, . . . , n setzen wir Wi := R(b1 , . . . , bi ). (Dann gilt W1 ⊂ . . . ⊂ Wn = V .) Wenn Q(v) ∈ R∗ für alle v ∈ V \ {0V }, so liefert das folgende Verfahren eine geordnete Orthogonalbasis (v1 , . . . , vn ) von V bzgl. Q, wobei vi ∈ Wi , i = 1, . . . , n: Setze v1 := b1 ∈ W1 \ {0V }. Sind v1 ∈ W1 \ {0V }, . . . , vi ∈ Wi \ {0V } für i ∈ {1, . . . , n − 1} bereits definiert, so setze P q(bi+1 ,vj ) vj ∈ Wi+1 \ {0V } . vi+1 := bi+1 − ij=1 Q(v j) Beweis. Mittels Induktion nach i = 1, . . . , n zeigen wir, daß q(vj , vk ) = 0K für alle j, k = 1, . . . , i mit j < k. Für i = 1 ist das klar. Angenommen, die Aussage ist für i ∈ {1, . . . , n−1} gezeigt. Dann ist noch zu zeigen, daß q(vj , vi+1 ) = 0K für alle j = 1, . . . , i. Nun gilt aber für j = 1, . . . , i q(vj , vi+1 ) = q vj , bi+1 − Pi = q(vj , bi+1 ) − = 0K . q(bi+1 ,vk ) v k k=1 Q(vk ) Pi q(bi+1 ,vk ) k=1 Q(vk ) q(vj , vk ) = q(vj , bi+1 ) − q(bi+1 , vj ) Nach Lemma 6.11 bildet (v1 , . . . , vn ) eine Orthogonalbasis von V , Bemerkungen6.15. 1. Mit den Bezeichnungen von Lemma 6.14 sei Ak =: q(bi , bj ) 1≤i,j≤k für k = 1, . . . , n die sogenannte k-te Hauptminore der Strukturmatrix von Q bzgl. (b1 , . . . , bn ). Statt der Voraussetzung ”Q(v) ∈ 6.1. QUADRATISCHE FORMEN 153 R∗ für alle v ∈ V \{0V }” würde zum Beweis von Lemma 6.14 die schwächere Voraussetzung det Ak ∈ R∗ für alle k = 1, . . . , n ausreichen, vgl. hierzu auch Satz 6.20. 2. Die Voraussetzung ”Q(v) ∈ R∗ für alle v ∈ V \ {0V }” in Lemma 6.14 ist i. a. nicht erfüllt. Für R = R ist das jedoch für positiv oder negativ definites Q (s. Definition 6.18 unten) immer richtig. 3. Wenn man in Lemma 6.14 zusätzlich voraussetzt, daß Q(v) für alle v ∈ V \ {0V } Quadrat eines Elementes aus R∗ ist (z. B. für R = R und positiv definites Q), so kann man durch Normieren sogar eine Orthonormalbasis von V gewinnen, s. Bemerkung 6.10.1. Definition 6.16. Sei R ein Ring. (a) Sei V ein R-Modul und Q eine quadratische Form auf V mit assoziierter Bilinearform q. (i) Ein R-Automorphismus s ∈ GlR (V ) von V heißt R-Isometrie von V bzgl. Q (oder auch bzgl. q), wenn Q = Q ◦ s (s. auch Definition 6.5). (ii) Die Menge der R-Isometrien von V bzgl. Q, die offensichtlich eine Untergruppe von GlR (V ) bildet, heißt orthogonale Gruppe von V bzgl. Q (oder q) und wird mit OR (V, Q) bezeichnet. (iii) Ist V endlich erzeugt und frei, so heißt die Untergruppe SOR (V, Q) := OR (V, Q) ∩ SlR (V ) von GlR (V ) (s. Übungsaufgabe 41) spezielle orthogonale Gruppe von V bzgl. Q (oder q). (b) (Orthogonale Matrizen) Sei n ∈ N+ . (i) Eine Matrix S ∈ GlR (n) heißt orthogonale Matrix, wenn S −1 = S T . (ii) Die Menge der orthogonalen Matrizen aus GlR (V ) bildet eine Untergruppe von GlR (n) und heißt n-te orthogonale Gruppe. Sie wird mit OR (n) bezeichnet. (iii) Die Untergruppe SOR (n) := OR (n) ∩ SlR (n) (s. Übungsaufgabe 41) von GlR (n) heißt n-te spezielle orthogonale Gruppe. Bemerkungen 6.17. Mit den Bezeichnungen aus Definition 6.16 haben wir: 1. Sei V freier R-Modul mit rangR V < ∞ und A sei Strukturmatrix von Q bzgl. einer festen geordneten Basis B von V . Nach Bemerkung 6.6.1 gilt: s ∈ GlR (V ) ist R-Isometrie von V bzgl. Q genau dann, wenn A = S T AS, wobei S Koordinatenmatrix von s bzgl. B ist. Hieraus folgt det A = det S T det A det S = (det S)2 det A. 154 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Nehmen wir an, daß R Integritätsring ist und daß det A 6= 0R , (nach Lemma 6.8(3) ist das genau dann der Fall, wenn Q nicht ausgeartet ist). Dann ergibt sich hieraus, daß det S(= det s) = ±1R , d. h. für alle s ∈ OR (V, Q) gilt det s = ±1. 2. Sei V = Rn und Q = QE die Einheitsform auf Rn (vgl. Bemerkung 6.2.1). Da deren Strukturmatrix bzgl. der kanonischen geordneten Basis von Rn die Einheitsmatrix ist, ergibt sich nach 1., daß OR (Rn , QE ) ∼ = OR (n) vermöge der Koordinatenabbildung bzgl. der kanonischen geordneten Basis von Rn , d. h. die Koordinatenmatrizen der Isometrien des Rn bzgl. der Einheitsform sind genau die orthogonalen Matrizen. Es ist daher auch auf diesem Wege klar, daß det A = ±1R für jede orthogonale Matrix A ∈ OR (n), wenn R Integritätsring ist. (Ist R kein Integritätsring, so ist das i. a. falsch wie das Beispiel R = Z/8Z zeigt.) 3. Sei V ein endlich erzeugter K-Vektorraum (K Körper). Die Frage nach der Kongruenz zweier quadratischer Formen Q, Q0 auf V bezeichnet man als Klassifikationsproblem für quadratische Formen (auf V ). Nach Bemerkung 6.6.3 und Übungsaufgabe 46(a) ist diese Frage äquivalent zur Frage nach der Kongruenz zweier Diagonalmatrizen aus K n,n , n ∈ N+ . Dabei kann man o. B. d. A. annehmen, daß deren Diagonalelemente sämtlich 6= 0K sind (d. h. daß die Matrizen invertierbar sind). Es ist im allgemeinen ungelöst und hängt wesentlich von K ab. In Übungsaufgabe 46(b) wird gezeigt, daß es lösbar ist, wenn man in K Quadratwurzeln ziehen kann. Es ist auch gelöst für K = R (Sylvesterscher Trägheitssatz) und K = Q, wobei letzteres ein wesentliches Resultat der Zahlentheorie darstellt (Hasse/Minkowski). Auch für endliche Körper ist das Klassifikationsproblem gelöst. 6.2 Euklidische Vektorräume In diesem Abschnitt betrachten wir ausschließlich R-Vektorräume, d. h. ”Vektorraum” heißt grundsätzlich ”R-Vektorraum”. Definition 6.18. Eine quadratische Form Q auf einem Vektorraum V heißt • positiv semidefinit, wenn Q(v) ≥ 0 für alle v ∈ V • positiv definit, wenn Q(v) > 0 für alle v ∈ V \ {0V } • negativ semidefinit, wenn Q(v) ≤ 0 für alle v ∈ V • negativ definit, wenn Q(v) < 0 für alle v ∈ V \ {0V } • indefinit, wenn es v1 , v2 ∈ V gibt mit Q(v1 ) > 0 und Q(v2 ) < 0. 6.2. EUKLIDISCHE VEKTORRÄUME 155 Entsprechend heißt eine symmetrische Matrix A ∈ Rn,n , n ∈ N+ , positiv semidefinit, positiv definit, ..., wenn die zugehörige quadratische Form QA auf dem Rn (s. Bemerkung 6.4.5) die jeweilige Eigenschaft hat, d. h. x · A · xT ≥ 0 für alle x ∈ Rn , x · A · xT > 0 für alle x ∈ Rn \ {0}, ... . Bemerkungen 6.19. 1. Eine quadratische Form Q auf einem Vektorraum V bzw. eine symmetrische Matrix A ∈ Rn,n , n ∈ N+ , ist negativ (semi)definit genau dann, wenn −Q bzw. −A positiv (semi)definit ist. 2. Die Einheitsform auf dem Rn ist positiv definit. 3. Eine positiv (negativ) definite quadratische Form auf einem Vektorraum V ist nicht ausgeartet. 4. Sei V endlich erzeugter Vektorraum und Q quadratische Form auf V . A sei Strukturmatrix von Q bzgl. einer geordneten Basis von V . Dann gilt: Q ist positiv semidefinit (positiv definit, negativ semidefinit, negativ definit, indefinit) genau dann, wenn A die entsprechende Eigenschaft hat. 5. Sei n ∈ N+ und f : U → R eine auf der offenen Menge ∅ = 6 U ⊆ Rn zweimal stetig differenzierbare Funktion. Für P ∈ U sei 2 ∂ f (P ) H(P ) := ∂xi ∂xj 1≤i,j≤n die Hessematrix von f im Punkt P . Wenn ∂f (P ) = 0 für alle i = 1, . . . , n, ∂xi so gilt: • H(P ) positiv definit ⇒ f besitzt in P ein lokales Minimum • H(P ) negativ definit ⇒ f besitzt in P ein lokales Maximum • H(P ) indefinit ⇒ f besitzt in P kein lokales Extremum. Satz 6.20. Sei n ∈ a11 . . . a1n .. .. A =: . . an1 . . . ann + n,n N eine symmetrische Matrix, sagen wir und A ∈ R a11 . . . a1k . .. ∈ Rk,k . . Für k = 1, . . . , n sei Ak := .. . ak1 . . . akk (1) Wenn A positiv (negativ) semidefinit ist, so gilt det A ≥ 0 ((−1)n det A ≥ 0). (2) A ist positiv (negativ) definit genau dann, wenn für alle k = 1, . . . , n gilt det Ak > 0 (−1)k det Ak > 0 . 156 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Beweis. Nach Bemerkung 6.19.1 ist klar, daß wir nur den positiv (semi)definiten Fall zu betrachten brauchen. (1) Nach Satz 6.13(1), Bemerkung 6.10.2 und Bemerkung 6.6.3 gibt es eine Matrix S ∈ GlR (n) und r1 , . . . , rn ∈ R, so daß S T AS = Diag(r1 , . . . , rn ). Dann gilt r1 · . . . · rn = det Diag(r1 , . . . , rn ) = det S T det A det S = (det S)2 det A. Wäre det A < 0, so gäbe es ein i ∈ {1, . . . , n} mit ri < 0. Dann hätten wir aber (eni S T )A(eni S T )T = eni (S T AS)eTni = ri < 0, Widerspruch. (2) Wir benutzen Induktion nach n, wobei die Aussage für n = 1 trivialerweise T A b mit A := An−1 , b ∈ Rn−1 und gilt. Sei also n ≥ 2. Dann gilt A = b a a ∈ R. Nehmen wir an, daß rang A = n − 1. Dann gibt es r1 , . . . , rn−1 ∈ R mit b = r1 z1 + . . . + rn−1 zn−1 , wenn z1 , . . . , zn−1 die Zeilen von A sind. En−1 cT ∈ GlR (n) und à := S T AS. Wir setzen c := (r1 , . . . , rn−1 ), S := 0 −1 A 0T Dann gilt det S = −1, à = mit geeignetem a ∈ R und 0 a a·det A = det à = (det S)2 det A = det A. (#) Für v ∈ Rn sei ṽ := v(S T )−1 . Wenn ṽ =: (s1 , . . . , sn ) so setzen wir v := (s1 , . . . , sn−1 ) ∈ Rn−1 und v0 := sn ∈ R. Damit haben wir für v ∈ Rn : vAvT = ṽÃṽT = v A vT +a v20 . (∗) Nehmen wir nun an, daß det Ak > 0 für alle k = 1, . . . , n. Dann gilt insbesondere det A 6= 0, also gilt rang A = n − 1 wie oben angenommen (s. Folgerung 5.16). Ausserdem ist A positiv definit nach Induktionsvoraussetzung. Da auch det A = det An > 0, folgt weiter a > 0 nach (#). Sei v ∈ Rn , v 6= 0. Dann gilt ṽ 6= 0 (wegen S ∈ GlR (n)) und wir erhalten mit (∗): vAvT = v A vT + a v20 > 0, denn v A vT , a v20 ≥ 0 und wegen ṽ 6= 0 gilt entweder v 6= 0 und daher v A vT > 0 oder v0 6= 0, also a v20 > 0. Somit ist A positiv definit. 6.2. EUKLIDISCHE VEKTORRÄUME 157 Sei nun umgekehrt A positiv definit. Angenommen, es gibt ein k ∈ N, 1 ≤ k ≤ n − 1 mit det Ak ≤ 0. Nach Induktionsvoraussetzung gibt es dann ein w ∈ Rk mit w 6= 0 und wAk wT ≤ 0. Sei w =: (s1 , . . . , sk ). Dann gilt vAvT = wAk wT ≤ 0, wenn v := (s1 , . . . , sk , 0, . . . . . . , 0) ∈ Rn , Widerspruch, da v 6= 0. Damit haben wir det Ak > 0 für alle k = 1, . . . , n − 1, insbesondere det A = det An−1 > 0, also wie eben rang A = n − 1. Wir setzen nun in (∗) v = enn S T und erhalten damit a = vAvT > 0. Dies liefert schließlich mit (#): det An = det A = a · det A > 0, Folgerung 6.21. Sei Q eine quadratische Form auf dem endlich erzeugten Vektorraum V . Die folgenden Eigenschaften sind äquivalent: (i) Q ist positiv definit (ii) V besitzt eine Orthonormalbasis bzgl. Q (iii) Es gibt eine Orthogonalbasis B von V bzgl. Q mit Q(b) > 0 für alle b ∈ B. (iv) Für jede Orthogonalbasis B von V bzgl. Q gilt Q(b) > 0 für alle b ∈ B. Beweis. (i) =⇒ (iv) ergibt sich sofort aus der Definition und (iv) =⇒ (iii) ist mit Satz 6.13 trivial. (iii) =⇒ (ii): Sei B Orthogonalbasis von V bzgl. Q, so daß Q(b) > 0 für alle 1 b ∈ B. Wir setzen B̃ := {Q(b)− 2 · b | b ∈ B}. Nach Bemerkung 6.10.1 ist klar, daß B̃ Orthonormalbasis von V bzgl. Q ist. (ii) =⇒ (i) ergibt sich aus Satz 6.20(2), Folgerung 6.22 (Cauchy-Schwarzsche Ungleichung). Sei Q eine positiv semidefinite quadratische Form auf dem Vektorraum V mit assoziierter Bilinearform q. Dann gilt für alle v, w ∈ V q(v, w)2 ≤ Q(v) · Q(w). Ist Q positiv definit, so gilt dabei Gleichheit genau dann, wenn v, w linear abhängig sind. Beweis. O. B. d. A. dürfen wir annehmen, daß V = R(v, w), da die Aussage nur von v und w abhängt. Wenn rang V ≤ 1 (⇔ v, w sind linear abhängig), so sei z. B. w = αv mit α ∈ R. Dann gilt q(v, w)2 = q(v, αv)2 = α2 q(v, v)2 = α2 Q(v)2 = Q(v) · Q(w). 158 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Q(v) q(v, w) Wenn rang V = 2, so ist {v, w} Basis von V und A := ist q(v, w) Q(w) Strukturmatrix von Q bzgl. (v, w). Dann gilt mit Satz 6.20(1) Q(v) · Q(w) − q(v, w)2 = det A ≥ 0 bzw., falls Q positiv definit ist, mit Satz 6.20(2) Q(v) · Q(w) − q(v, w)2 = det A > 0, Folgerung 6.23. Sei n ∈ N+ . Dann gilt für alle x1 , . . . , xn , y1 , . . . , yn ∈ R: n X xi y i 2 ≤ n X i=1 i=1 x2i n X yi2 . i=1 Dabei gilt Gleichheit genau dann, wenn (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ Rn linear abhängig sind. Definition 6.24. (a) Ein euklidischer Vektorraum ist eingeordnetesPaar (V, Q), wobei V ein Vektorraum und Q eine positiv definite quadratische Form auf V ist. Die Abbildung Q:V →R bezeichnet man meist als (euklidische) Norm auf V . Für v ∈ V nennt man Q(v) auch (Q-)Norm von v. (b) Sei (V, Q) ein euklidischer Vektorraum. Für jedes v ∈ V setzen wir p kvkQ := Q(v) und nennen kvkQ Betrag von v (bzgl. Q). Die entsprechende Abbildung k · kQ : V → R heißt dementsprechend Betragsabbildung. Bemerkungen, Beispiele 6.25. 1. Für n ∈ N+ ist (Rn , QE ), QE die Einheitsform auf Rn , ein euklidischer Vektorraum. Der entsprechende Betrag ist gegeben durch p kxkQE = xxT , x ∈ Rn . Bis auf Kongruenz ist dies übrigens die einzige Möglichkeit, den Rn zu einem euklidischen Vektorraum zu machen, s. Bemerkung 6.10.2 und Folgerung 6.21. Wenn wir in Zukunft von dem ”euklidischen Vektorraum Rn ” sprechen, so ist - falls nicht ausdrücklich anders gesagt - stets die Einheitsform als begleitende quadratische Form gemeint. 6.2. EUKLIDISCHE VEKTORRÄUME 159 2. Sei (V, Q) ein euklidischer Vektorraum. Ist W Untervektorraum von V , so ist (W, Q|W ) ebenfalls euklidischer Vektorraum. 3. Sei (V, Q) ein euklidischer Vektorraum. Da im allgemeinen aus dem Kontext klar ist, welche quadratische Form gemeint ist, wird diese dann meist nicht mehr gesondert erwähnt. Ist q die assoziierte Bilinearform, so schreibt man daher statt q(v, w) meist kurz hv, wi und nennt dies ein Skalarprodukt auf V. Dementsprechend sagt man dann auch: ”Sei V ein euklidischer Vektorraum mit Skalarprodukt h , i” und bezeichnet die zugehörige Norm z. B. einfach mit N . 4. Sei V ein euklidischer Vektorraum. Für v, w ∈ V ergibt sich aus der CauchySchwarzschen Ungleichung nach Radizieren die folgende Ungleichung, die man mitunter auch als Cauchy-Schwarzsche Ungleichung bezeichnet: |hv, wi| ≤kvk · kwk . Wenn v, w 6= 0V , so gilt daher −1 ≤ hv,wi kvk·kwk ≤ 1. 5. Ein Vektor v eines euklidischen Vektorraums V heißt Einheitsvektor, wenn kvk= 1. Ist v ∈ V ein beliebiger von 0V verschiedener Vektor, so ist w := kvk−1 v ∈ V Einheitsvektor, s. 7. unten. Man sagt auch, w entstehe aus v durch Normieren (vgl. hierzu auch Bemerkung 6.10.1). 6. Jeder endlich erzeugte euklidische Vektorraum V besitzt eine Orthonormalbasis (bzgl. h , i , s. Folgerung 6.21). Diese kann z. B. aus einer gegebenen Orthogonalbasis (s. Satz 6.13) durch Normieren gewonnen werden. 7. Der Betrag auf einem euklidischen Vektorraum V hat folgende Eigenschaften: • kvk> 0 für alle v ∈ V, v 6= 0V • kαvk= |α| kvk für alle v ∈ V , α ∈ R • kv + wk≤kvk + kwk für alle v, w ∈ V (Minkowski-Ungleichung) Zur Begründung: Die die beiden ersten Eigenschaften sind klar. Die Minkowski-Ungleichung ergibt sich aus 4. wie folgt: kv + wk2 = = ≤ = hv + w, v + wi = hv, vi + 2hv, wi + hw, wi kvk2 +2hv, wi+ kwk2 kvk2 +2 kvk · kwk + kwk2 (kvk + kwk)2 , woraus die Behauptung nach Radizieren folgt. 160 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME 8. Sei I := [0, 1] ⊂ R das Einheitsintervall. Wir setzen V := CR (I) (RVektorraum der auf I definierten stetigen R-wertigen Funktionen). Die durch Z 1 f 2 (t)dt, f ∈ CR (I) Q(f ) := 0 definierte Abbildung ist eine positiv definite quadratische Form auf CR (I). Das zugehörige Skalarprodukt ist gegeben durch Z 1 f (t)g(t)dt, f, g ∈ CR (I). hf, gi = 0 Damit ist CR (I) ein euklidischer Vektorraum. Definition 6.26. Sei (V, Q) ein euklidischer Vektorraum. Räume der Form (W, Q|W ), wobei W Untervektorraum von V ist, heißen euklidische Untervektorräume von (V, Q). Definition 6.27. Sei V ein euklidischer Vektorraum und seien v, w ∈ V . (a) v, w heißen orthogonal, kurz v⊥w, wenn hv, wi = 0. (b) Wir definieren eine reelle Zahl ϕ mit 0 ≤ ϕ ≤ π wie folgt: Falls v, w 6= 0V , so hv,wi eindeutig bestimmte reelle Zahl (s. Bemerkung sei ϕ die durch cos ϕ = kvk·kwk 6.25.4). Falls v = 0V oder w = 0V , so setzen wir ϕ := π2 . ϕ heißt Winkel zwischen v und w, kurz ϕ =: <)(v, w). Bemerkungen 6.28. Sei V ein euklidischer Vektorraum. ( 0 wenn v 6= 0V 1. Für v ∈ V gilt <)(v, v) = π . wenn v = 0V 2 2. Für alle v, w ∈ V gilt hv, wi =kvkkwk cos <)(v, w). 3. Für Vektoren v, w ∈ V gilt: v⊥w ⇐⇒ <)(v, w) = π . 2 4. Von 0V verschiedene und paarweise orthogonale Vektoren v1 , . . . , vn von V sind linear unabhängig, s. Lemma 6.11. Lemma 6.29. Sei V ein euklidischer Vektorraum. Dann gilt für alle v, w ∈ V (1) kv + wk2 =kvk2 + kwk2 +2 kvkkwk cos<)(v, w) (2) kvk sin <)(v, w) =kv + wk sin <)(v + w, w) (3) kvk2 + kwk2 =kv + wk2 ⇐⇒ v⊥w (Cosinussatz) (Sinussatz) (Satz des Pythagoras) 6.2. EUKLIDISCHE VEKTORRÄUME 161 wenn αβ > 0 wenn αβ < 0 für alle α, β ∈ R und ins wenn αβ = 0 2 besondere <)(v, −w) = <)(−v, w) = π − <)(v, w). <)(v, w) π − <)(v, w) (4) <)(αv, βw) = π (5) Wenn v, w linear unabhängig sind, so gilt <)(v, w) 6∈ {0, π}. Die Umkehrung hiervon ist richtig, wenn v, w 6= 0V . Beweis. (1) ergibt sich sofort aus der Definition des Winkels. (2) Für alle v, w ∈ V gilt kvk2 kwk2 (1 − cos2 <)(v, w)) = = kvk2 kwk2 −hv, wi2 = kv + wk2 kwk2 −hv + w, wi2 − − kv + wk2 − kvk2 − kwk2 −2hv, wi kwk2 | {z } =0 2 2 = kv + wk kwk −hv + w, wi2 = kv + wk2 kwk2 (1 − cos2 <)(v + w, w)) und hieraus folgt kvk2 (1 − cos2 <)(v, w)) =kv + wk2 (1 − cos2 <)(v + w, w)). Da sin α ≥ 0 für alle α ∈ [0, π], ergibt sich schließlich p kvk2 (1 − cos2 <)(v, w)) kvk sin <)(v, w) = p = kv + wk2 (1 − cos2 <)(v + w, w)) = kv + wk sin <)(v + w, w). (3) Nach (1) haben wir die folgenden Äquivalenzen kvk2 + kwk2 =kv + wk2 ⇐⇒ 2 kvkkwk cos <)(v, w) = 0 ⇐⇒ kvk= 0 oder kwk= 0 oder cos <)(v, w) = 0 ⇐⇒ v = 0V oder w = 0V oder <)(v, w) = π2 ⇐⇒ v⊥w. (4) ist richtig, wenn v = 0V oder w = 0V oder α = 0 oder β = 0. Wir nehmen daher an, daß v, w 6= 0V und α, β 6= 0. Dann gilt hαv, βwi αβ hv, wi αβ = = cos <)(v, w) kαvkkβwk |α||β| kvkkwk |αβ| ( cos <)(v, w) αβ > 0 = − cos <)(v, w) = cos(π − <)(v, w)) αβ < 0. ( <)(v, w) αβ > 0 Damit folgt <)(αv, βw) = π − <)(v, w) αβ < 0. cos <)(αv, βw) = 162 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME (5) Wenn <)(v, w) ∈ {0, π}, so gilt hv, wi =kvkkwk cos <)(v, w) = ± kvkkwk, also hv, wi2 =kvk2 kwk2 , und aus der Cauchy-Schwarzschen Ungleichung folgt, daß v, w linear abhängig sind (s. Folgerung 6.22). Wenn v, w ∈ V \ {0V } linear abhängig sind, so gibt es ein α ∈ R∗ mit w = αv und wir erhalten cos <)(v, w) = hv, wi αhv, vi α = = ∈ {1, −1}, kvkkwk kvk |α| kvk |α| also <)(v, w) ∈ {0, π}, 6.3 Euklidische Abbildungen Definition 6.30. Seien V, W euklidische Vektorräume. (a) Eine Abbildung ϕ : V → W heißt • Ähnlichkeitsabbildung, wenn ϕ(0V ) = 0W und es ein λ ∈ R+ gibt, so daß kϕ(v) − ϕ(u)k = λ kv − uk für alle u, v ∈ V . • Kongruenzabbildung oder euklidisch, wenn ϕ(0V ) = 0W und kϕ(v) − ϕ(u)k=kv − uk für alle u, v ∈ V . (b) Bijektive Ähnlichkeitsabbildungen (Kongruenzabbildungen) V → V heißen Ähnlichkeitstransformationen (Kongruenztransformationen) von V . Bemerkungen 6.31. Mit den Bezeichnungen aus Definition 6.30 haben wir: 1. Wenn V = 0, so ist der Nullhomomorphismus V → W die einzige Ähnlichkeitsabbildung. Sie ist sogar Kongruenzabbildung. 2. Setzen wir lediglich voraus, daß W euklidischer Vektorraum ist und daß ϕ : V → W R-lineare Abbildung ist, so ist die quadratische Form QV := QW ◦ϕ auf V (s. Bemerkung 6.2.4) positiv semidefinit, wenn QW die die euklidische Struktur definierende quadratische Form auf W ist. QV ist positiv definit genau dann, wenn ϕ injektiv (also Monomorphismus) ist. In diesem Fall ist (V, QV ) euklidischer Vektorraum und ϕ ist euklidisch (bzgl. der durch QV bzw. QW gegebenen euklidischen Strukturen auf V bzw. W ). Lemma 6.32. Seien V, W euklidische Vektorräume und sei ϕ : V → W Ähnlichkeitsabbildung. Ist λ ∈ R+ mit kϕ(v) − ϕ(u)k= λ kv − uk für alle u, v ∈ V , so gilt: 6.3. EUKLIDISCHE ABBILDUNGEN 163 (1) ϕ ist injektiv. (2) kϕ(v)k= λ kvk für alle v ∈ V . (3) hϕ(u), ϕ(v)i = λ2 hu, vi für alle u, v ∈ V . (4) <)(ϕ(u), ϕ(v)) =<)(u, v) für alle u, v ∈ V . (5) Wenn V 6= 0, so ist λ eindeutig durch ϕ bestimmt. Beweis. (1) Seien u, v ∈ V . Wenn ϕ(u) = ϕ(v), so folgt ku − vk= λ−1 kϕ(u) − ϕ(v)k= λ−1 k0W k= 0, also u − v = 0V und damit u = v. (2) Wegen ϕ(0V ) = 0W gilt für alle v ∈ V kϕ(v)k=kϕ(v) − 0W k=kϕ(v) − ϕ(0V )k= λ kv − 0V k= λ kvk . (3) Nach (2) gilt für alle u, v ∈ V wegen k−ϕ(v)k=kϕ(v)k und k−vk=kvk hϕ(u), ϕ(v)i = = = = = −hϕ(u), −ϕ(v)i − 12 kϕ(u) − ϕ(v)k2 − kϕ(u)k2 − k−ϕ(v)k2 − 21 λ2 ku − vk2 −λ2 kuk2 −λ2 k−vk2 −λ2 hu, −vi λ2 hu, vi. (4) Seien u, v ∈ V . Wenn ϕ(u) = 0W oder ϕ(v) = 0W , so gilt u = 0V oder v = 0V nach (1) und damit gilt <)(ϕ(u), ϕ(v)) =<)(u, v) in diesem Fall. Nehmen wir also an, daß ϕ(u), ϕ(v) 6= 0W . Dann gilt u, v 6= 0V und wir haben mit (2) und (3) hϕ(u), ϕ(v)i λ2 hu, vi hu, vi = = kϕ(u)k · kϕ(v)k λ kuk ·λ kvk kuk · kvk = cos <)(u, v), cos <)(ϕ(u), ϕ(v)) = also <)(ϕ(u), ϕ(v)) =<)(u, v). (5) Für (jedes) v ∈ V \ {0V } gilt λ = kϕ(v)k kvk nach (2), Definition 6.33. Seien V, W euklidische Vektorräume und sei ϕ : V → W Ähnlichkeitsabbildung. Wenn V 6= 0, so heißt die nach Lemma 6.32(5) eindeutig bestimmte positive reelle Zahl λ mit kϕ(v) − ϕ(u)k= λ k(v − u)k für alle u, v ∈ V Streckungsfaktor von ϕ. Bemerkungen 6.34. Seien U, V, W Vektorräume. 164 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME 1. Eine Ähnlichkeitsabbildung ϕ : V → W ist genau dann Kongruenzabbildung, wenn V = 0 oder im Fall V 6= 0 der Streckungsfaktor von ϕ gleich 1 ist. 2. Die Hintereinanderschaltung zweier Ähnlichkeitsabbildungen ψ : U → V und ϕ : V → W ist Ähnlichkeitsabbildung. Wenn dabei U 6= 0, so ist V 6= 0 und der Streckungsfaktor von ϕ ◦ ψ ist λµ, wenn µ bzw. λ die Streckungsfaktoren von ψ bzw. ϕ sind. 3. Ist ϕ : V → W bijektive Ähnlichkeitsabbildung, so ist ϕ−1 : W → V Ähnlichkeitsabbildung. Wenn dabei V 6= 0 und λ Streckungsfaktor von ϕ ist, so ist λ−1 Streckungsfaktor von ϕ−1 . 4. Aus 2. und 3. ergibt sich, daß die Menge der (bijektiven) Ähnlichkeitsabbildungen V → V mit der Hintereinanderschaltung ein Monoid (eine Gruppe) bildet. Im Anschluß (s. Satz 6.35(1)) werden wir sehen, daß sich dabei um ein Untermonoid (eine Untergruppe) von EndR V (von GlR (V )) handelt. Entsprechendes gilt für die Menge der (bijektiven) Kongruenzabbildungen V → V , s. hierzu auch die Bemerkungen 6.37.1 und 6.372. Satz 6.35. Seien V, W euklidische Vektorräume. Für eine Abbildung ϕ : V → W sind die folgenden Bedingungen äquivalent: (i) ϕ ist Ähnlichkeitsabbildung (ii) ϕ ist R-linear und es gibt ein λ ∈ R+ , so daß kϕ(v)k= λ kvk für alle v ∈ V . (iii) ϕ ist R-linear und für alle u, v ∈ V gilt <)(ϕ(u), ϕ(v)) =<)(u, v). Sind diese Bedingungen erfüllt, so ist ϕ insbesondere injektiv (also ein R-Monomorphismus) und die reelle Zahl λ in (ii) ist im Fall V 6= 0 der Streckungsfaktor von ϕ. Beweis. Für V = 0 ist das klar. Sei also V 6= 0 und sei ϕ : V → W Ähnlichkeitsabbildung mit Streckungsfaktor λ ∈ R+ . Nach Lemma 6.32(2) gilt kϕ(v)k= λ kvk für alle v ∈ V . Wir zeigen zunächst, daß ϕ R-linear ist. Seien hierzu v1 , v2 ∈ V und α1 , α2 ∈ R. Wir setzen w := ϕ(α1 v1 + α2 v2 ) − α1 ϕ(v1 ) − α2 ϕ(v2 ) ∈ W . Dann gilt für alle u ∈ V hw, ϕ(u)i = hϕ(α1 v1 + α1 v2 ), ϕ(u)i − α1 hϕ(v1 ), ϕ(u)i − α2 hϕ(v2 ), ϕ(u)i = λ2 hα1 v1 + α2 v2 , ui − α1 hv1 , ui − α2 hv2 , ui = 0. 6.3. EUKLIDISCHE ABBILDUNGEN 165 Hieraus folgt kwk2 = hw, wi = hw, ϕ(α1 v1 + α2 v2 )i − α1 hw, ϕ(v1 )i − α2 hw, ϕ(v2 )i = 0, also gilt w = 0W , d. h. ϕ(α1 v1 + α2 v2 ) = α1 ϕ(v1 ) + α2 ϕ(v2 ). Damit ist ϕ R-linear. (i) ⇒ (iii) ergibt sich nun mit Lemma 6.32(4). (ii) ⇒ (i): Da für alle u, v ∈ V gilt kϕ(v) − ϕ(u)k=kϕ(v − u)k= λ kv − uk und, da ϕ R-linear ist, ist ϕ Ähnlichkeitsabbildung mit Streckungsfaktor λ. (iii) ⇒ (ii): Wir wählen zunächst v0 ∈ V \ {0V } und setzen λ :=kϕ(v0 )k · kv0k−1 . Wegen <)(ϕ(v0 ), ϕ(v0 )) = <)(v0 , v0 ) = 0 (s. Bemerkung 6.28.1) gilt ϕ(v0 ) 6= 0W und damit folgt λ > 0. Wir zeigen, daß kϕ(v)k= λ kvk für alle v ∈ V . Sei v ∈ V . Fall 1: v0 , v sind linear abhängig. Wegen v0 6= 0V gibt es ein µ ∈ R mit v = µv0 und es gilt kϕ(v)k=kµϕ(v0 )k= |µ| kϕ(v0 )k= |µ|λ kv0k= λ kµv0k= λ kvk . Fall 2: v0 , v sind linear unabhängig. Wir setzen u := v0 −v, α0 :=<)(v0 , u) und α :=<)(v, u). Da dann auch v0 , u und v, u jeweils linear unabhängig sind, gilt α0 , α 6= 0, π und folglich sin α0 , sin α 6= 0. Aus α0 ∈ R \ {0}. dem Sinussatz (Lemma 6.29(2)) folgt dann kvk= τ kv0k mit τ := sin sin α Wegen <)(ϕ(v0 ), ϕ(v0 ) − ϕ(v)) =<)(ϕ(v0 ), ϕ(v0 − v)) = α0 und entsprechend <)(ϕ(v), ϕ(v0 ) − ϕ(v)) = α, gilt wiederum mit dem Sinussatz kϕ(v)k= τ kϕ(v0 )k. Hieraus ergibt sich dann kϕ(v)k= τ kϕ(v0 )k= τ λ kv0k= λ kvk, Folgerung 6.36. Seien V, W euklidische Vektorräume, wobei V endlich erzeugt sei. Dann gilt: (1) Wenn rangR V = 1, so ist eine Abbildung ϕ : V → W genau dann Ähnlichkeitsabbildung, wenn ϕ R-Monomorphismus ist. (2) Jede Ähnlichkeitsabbildung (Kongruenzabbildung) V → V ist bereits Ähnlichkeitstransformation (Kongruenztransformation). 166 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Beweis. Ist ϕ : V → W Ähnlichkeitsabbildung, so ist ϕ R-Monomorphismus nach Lemma 6.32(1) und Satz 6.35. Wenn insbesondere W = V , so ist ϕ daher bereits bijektiv, s. Satz 4.44, und (2) ist gezeigt. Sei nun rangR V = 1 und ϕ : V → W R-Monomorphismus. Wir gehen vor wie im Beweis von Fall 1 der Implikation (iii) ⇒ (ii) im Beweis von Satz 6.35, wobei jetzt ϕ(v0 ) 6= 0W aus der Injektivität von ϕ folgt, und erhalten wir dort kϕ(v)k= λ kvk, wobei λ :=kϕ(v0 )k · kv0 k−1 . Nach Satz 6.35 ist ϕ damit eine Ähnlichkeitsabbildung, Bemerkungen 6.37. Sei V ein euklidischer Vektorraum. 1. Die Kongruenztransformationen von V sind genau die R-Isometrien von V (bzgl. h·, ·i, s. Definition 6.16(a)). Sie bilden daher die orthogonale Gruppe von V , die wir kurz mit OR (V ) bezeichnen (OR (V ) ist Untergruppe von GlR (V )). 2. Die Ähnlichkeitstransformationen von V bilden ebenfalls eine Untergruppe der GlR (V ), die die OR (V ) als Untergruppe enthält. Man nennt sie mitunter verallgemeinerte orthogonale Gruppe von V (bzgl. h·, ·i) und bezeichnet sie dann mit vOR (V ). 3. Ist U euklidischer Untervektorraum von V , so ist die Einbettung U ⊆ V Kongruenzabbildung. 4. Ist W weiterer euklidischer Vektorraum und ist ϕ : V → W Ähnlichkeitsabbildung mit Streckungsfaktor λ, so induziert ϕ einen R-Isomorphismus ψ : V → Bild ϕ. ψ ist bijektive Ähnlichkeitsabbildung ebenfalls mit Streckungsfaktor λ und ϕ ist Hintereinanderschaltung von ψ mit der Einbettung Bild ϕ ⊆ W . Daher kann man sich beim Studium von Ähnlichkeitsabbildungen auf Isomorphismen beschränken. Satz 6.38. Seien V, W endlich erzeugte euklidische Vektorräume. (1) Wenn rangR V = rangR W so gibt es einen euklidischen Isomorphismus ϕ : V → W . Dabei ist die Koordinatenmatrix ϕB,C von ϕ bzgl. geordneter Orthonormalbasen B von V und C von W eine Orthogonalmatrix. (2) Wenn n := rangR V , so gibt es einen euklidischen Isomorphismus V ∼ = Rn . Beweis. Wir zeigen zuerst (2). Sei hierzu f : Rn → V ein R-Isomorphismus (s. Folgerung 4.31) und sei Q die durch Q(v) :=kf (v)k für alle v ∈ Rn definierte positiv definite quadratische Form auf Rn , s. Bemerkung 6.31.2. Mit A bezeichnen wir die Strukturmatrix von Q bzgl. der geordneten kanonischen Basis En des Rn . Sei nun B := (b1 , . . . , bn ) geordnete Orthonormalbasis von Rn bzgl. Q und sei 6.4. SPEKTRALSATZ 167 S := (bT1 , . . . , bTn ) ∈ GlR (n). Dann gilt S T AS = En , s. Bemerkung 6.6.3, denn S ist Transformationsmatrix von Koordinaten bzgl. B in Koordinaten bzgl. En . ρ ∈ GlR (Rn ) sei nun derjenige R-Automorphismus von Rn , dessen Koordinatenmatrix bzgl. En S ist. Dann gilt mit η := f ◦ ρ : Rn → V für alle v ∈ Rn kη(v)k2 = Q(ρ(v)) = vS T ASvT = vvT =kvk2 , also kη(v)k=kvk und damit ist η euklidischer Isomorphismus. Wir zeigen nun (1). Nach (2) gibt es euklidische Isomorphismen η : Rn → V und σ : Rn → W . Dann ist ϕ := σ ◦ η −1 : V → W euklidischer Isomorphismus. Seien B := (b1 , . . . , bn ) bzw. C geordnete Orthonormalbasen von V bzw. von W , n := rangR V = rangR W . Dann ist ϕB,C = (ϕ(b1 )TC , . . . , ϕ(bn )TC ) und wegen ϕ(bi )C · ϕ(bj )TC = hϕ(bi ), ϕ(bj )i = hbi , bj i = δij für alle i, j ∈ {1, . . . , n} ist ϕB,C Orthogonalmatrix, Für die nächste Aussage benötigen wir folgenden Begriff (s. auch Bemerkung 6.37.2): Sei R ein Ring und sei n ∈ N+ . Eine Matrix A ∈ Rn,n heißt verallgemeinerte Orthogonalmatrix, wenn es ein λ ∈ R∗ gibt mit A·AT = AT ·A = λEn . Man erkennt sofort, daß die Menge vOR (n) der verallgemeinerten Orthogonalmatrizen aus Rn,n eine Untergruppe von GlR (n) bildet, die ihrerseits OR (n) als Untergruppe enthält. Folgerung 6.39. Seien V, W 6= 0 endlich erzeugte euklidische Vektorräume und sei ϕ : V → W eine R-lineare Abbildung. Dann ist ϕ genau dann bijektive Ähnlichkeitsabbildung, wenn rangR V = rangR W und die Koordinatenmatrix ϕB,C von ϕ bzgl. geordneter Orthonormalbasen B von V und C von W eine verallgemeinerte Orthogonalmatrix ist. −2 T Genauer gilt ϕ−1 B,C = λ ϕB,C , wenn λ Streckungsfaktor von ϕ ist. Dies ergibt sich völlig analog wie die entsprechende Aussage im Beweis von Satz 6.38(1). 6.4 Der Spektralsatz für endlich erzeugte euklidische Vektorräume Definition 6.40. Seien V, W euklidische Vektorräume mit Skalarprodukten h , iV bzw. h , iW . R-lineare Abbildungen f : V → W und g : W → V heißen adjungiert in Bezug auf h , iV und h , iW , wenn für alle v, w ∈ V gilt hf (v), wiW = hv, g(w)iV . 168 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Dementsprechend heißt ein R-Endomorphismus f von V selbstadjungiert in Be zug auf h , iV , wenn für alle v, w ∈ V gilt hf (v), wiV = hv, f (w)iV . Bemerkung 6.41. Mit den Bezeichnungen von Definition 6.40 seien f, g ad jungiert bzgl. h , iV und h , iW . Da h , iV , h , iW nicht ausgeartet sind (s. Bemerkung 6.19.3), ist g eindeutig durch f bestimmt (und umgekehrt ist f eindeutig durch g bestimmt). Lemma 6.42. Seien V, W endlich erzeugte euklidische Vektorräume und seien B geordnete Orthonormalbasis von V bzgl. h , iV sowie C geordnete Orthonormalbasis von W bzgl. h , iW . (1) Seien f : V → W und g : W → V R-lineare Abbildungen mit Koordinatenmatrix B von f bzgl. B, C und Koordinatenmatrix C von g bzgl. C, B. f, g sind genau dann adjungiert bzgl. h , iV und h , iW , wenn C = B T . (2) Ein R-Endomorphismus f von V ist selbstadjungiert genau dann, wenn seine Koordinatenmatrix bzgl. B symmetrisch ist. (3) Sei V endlich erzeugt und sei f selbstadjungierter R-Endomorphismus von V . Sind v1 , v2 ∈ V Eigenvektoren von f zu verschiedenen Eigenwerten λ1 , λ2 von f , so gilt v1 ⊥v2 . Beweis. (1) Da für alle v ∈ V und alle w ∈ W gilt hf (v), wiW = f (v)C · wCT = vB · B T · wCT und hv, g(w)iV = vB · g(w)B = vB · C · wCT , gilt hf (v), wiW = hv, g(w)iV für alle v ∈ V , w ∈ W genau dann, wenn C = BT . (2) Folgt aus (1). (3) Mit µ := (λ1 − λ2 )−1 haben wir hv1 , v2 i = = = = = µh(λ1 − λ2 )v1 , v2 i = µλ1 hv1 , v2 i − µλ2 hv1 , v2 i µhλ1 v1 , v2 i − µhv1 , λ2 v2 i µhf (v1 ), v2 i − µhv1 , f (v2 )i µhv1 , f (v2 )i − µhv1 , f (v2 )i 0, Satz 6.43. Sei n ∈ N + . Jede symmetrische Matrix A ∈ Rn,n besitzt einen Eigenwert in R. 6.4. SPEKTRALSATZ 169 α11 . . . α1n .. und sei Q := Q (d. h. Q ist die durch Beweis. Sei A =: ... A . αn1 . . . αnn T n Q(x) := xAx für alle x ∈ Rn gegebene p quadratische Form auf R ). Wir setzen n−1 n S := {x | x ∈ R , kxk= 1} (kxk= xxT ist der Betrag bzgl. der Einheitsform auf dem Rn . S n−1 heißt übrigens (n − 1)-dimensionale Einheitssphäre. Sie ist Oberfläche der n-dimensionalen Einheitskugel B n := {x | x ∈ Rn , kxk≤ 1}.) Sei f : S n−1 → Rn die Einschränkung von Q auf S n−1 . f ist stetig und besitzt somit auf der kompakten Menge S n−1 ein Minimum, sagen wir, in z ∈ S n−1 . Nun definieren wir F : Rn \ {0} → R durch x für alle x ∈ Rn \ {0}. F (x) := f kxk (Man beachte, daß x kxk ∈ S n−1 für x ∈ Rn \ {0}.) Damit gilt für alle x ∈ Rn \ {0}: F (x) ≥ f (z) = F (z), d. h. F besitzt in z ein (absolutes) Minimum. Sei z =: (z1 , . . . , zn ). Da F (beliebig ∂F (z) = 0 für alle i = 1, . . . , n und hieraus folgt oft) differenzierbar ist, gilt daher ∂x i 2 wegen Q(x) =kxk ·F (x) für alle x ∈ Rn \ {0}: 2 Xn j=1 ∂Q (z) ∂xi Pn X n ∂( k=1 x2k ) 2 ∂F (z)F (z) + zk (z) = k=1 ∂xi ∂xi | {z } αij zj = =0 = 2zi F (z), oder in Matrizenschreibweise (nach Kürzen von 2) AzT = F (z)zT . Somit ist z Eigenvektor von A und F (z) ∈ R ist demzufolge Eigenwert von A, Bemerkung 6.44. Mit diesen Bezeichnungen ist F (z) der kleinste (reelle) Eigenwert von A, denn F (z) ist der kleinste Wert, den QA auf S n−1 annimmt. Satz 6.45 (Spektralsatz für endlich erzeugte euklidische Vektorräume). Sei V ein endlich erzeugter euklidischer Vektorraum. Für jeden selbstadjungierten Endomorphismus f von V gibt es eine Orthonormalbasis von V , die aus lauter Eigenvektoren von f besteht. Damit ist f insbesondere diagonalisierbar und alle Eigenwerte von f sind reell. Es gibt sogar eine Orthonormalbasis von V bzgl. derer die Koordinatenmatrix von f Diagonalgestalt hat. 170 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Beweis. Mit Q bezeichnen wir die zugrunde liegende quadratische Form auf V . Sei B := {v1 , . . . , vn }, n := rang V , eine Orthonormalbasis von V bzgl. Q. A sei Koordinatenmatrix von f bzgl. B := (v1 , . . . , vn ). Nach Lemma 6.42.2 gilt AT = A und daher besitzt A einen Eigenwert λ1 ∈ R. Sei b1 ∈ V \ {0V } ein zugehöriger Eigenvektor, d. h. f (b1 ) = λ1 b1 . Indem wir ggf. durch kb1k dividieren, dürfen wir o. B. d. A. annehmen, daß kb1k= 1. Dann ist Q(b1 ) = 1 6= 0. Der Beweis verläuft nun ähnlich wie der Beweis von Satz 6.13: Wir benutzen Induktion nach n, wobei für n ≤ 1 nichts zu zeigen ist. Sei also n ≥ 2 und g : V → R wie im Beweis von Satz 6.13 definiert (d. h. g(v) := hb1 , vi für alle v ∈ V ). Entsprechend setzen wir W := Kern g. W ist euklidischer Untervektorraum von V vom Rang n − 1 (s. Bemerkung 6.25.2). Für w ∈ W gilt g(f (w)) = hb1 , f (w)i = hf (b1 ), wi = hλ1 b1 , wi = λ1 hb1 , wi = λ1 g(w) = 0, d. h. f (w) ∈ W . Damit haben wir f (W ) ⊆ W und folglich ist f |W Endomorphismus von W . Er ist trivialerweise selbstadjungiert. Nach Induktionsvoraussetzung besitzt W somit eine Orthonormalbasis {b2 , . . . , bn }, die aus lauter Eigenvektoren von f |W besteht. Dann ist aber B 0 := {b1 , b2 , . . . , bn } eine Orthonormalbasis von V , die aus lauter Eigenvektoren von f besteht. Es ist klar, daß die Koordinatenmatrix A0 von f bzgl. der geordneten Orthonormalbasis B0 = (b1 , b2 , . . . , bn ) von V Diagonalgestalt hat, genauer, A0 = Diag(λ1 , . . . , λn ), wenn λ1 , . . . , λn die jeweils zugehörigen Eigenwerte sind, Folgerung 6.46. Sei n ∈ N+ und A ∈ Rn,n eine symmetrische Matrix. Wenn λ1 , . . . , λn die Eigenwerte von A sind, so gibt es eine Matrix S ∈ OR (n) mit S T AS = Diag(λ1 , . . . , λn ). Insbesondere sind λ1 , . . . , λn reell. Beweis. In Satz 6.45 bzw. in seinem Beweis setzen wir V = Rn und B := {en1 , . . . , enn }. f sei der durch f (x) := xA, x ∈ Rn , definierte Endomorphismus von Rn . (Dann ist A Koordinatenmatrix von f bzgl. B := (en1 , . . . , enn ).) Wegen AT = A ist f selbstadjungiert (s. Lemma 6.42.2). Sei {b1 , . . . , bn } Orthonormalbasis von Rn , die aus lauter Eigenvektoren von f besteht. Sind λ1 , . . . , λn die entsprechenden Eigenwerte, so ist Diag(λ1 , . . . , λn ) Koordinatenmatrix von f bzgl. der geordneten Basis B0 := (b1 , . . . , bn ) des Rn . Sei S := (bT1 , . . . , bTn ). Dann gilt S T S = En , d. h. S ∈ OR (n). Andererseits ist S Transformationsmatrix von Koordinaten bzgl. B0 in Koordinaten bzgl. B und damit gilt Diag(λ1 , . . . , λn ) = fB0 = S −1 fB S = S T AS, 6.4. SPEKTRALSATZ 171 Bemerkung 6.47. Wir verwenden die Bezeichnungen von Satz 6.45 und Folgerung 6.46. Sei n := rang V . Folgende Strategie liefert die gesuchte Orthonormalbasis von V in Satz 6.45 bzw. die Matrix S ∈ OR (n) in Folgerung 6.46: 1. Bestimme eine (beliebige) geordnete Orthonormalbasis B von V und berechne die Koordinatenmatrix A ∈ Rn,n von f bzgl. B. Nach Lemma 6.42.2 ist A symmetrisch, da f selbstadjungiert ist. 2. Ermittle die paarweise verschiedenen Eigenwerte λ1 , . . . , λp ∈ R von A. (Nach Folgerung 6.46 sind alle Eigenwerte von A reell.) 3. Berechne für j = 1, . . . , p die Eigenräume V (λj , A) ⊆ Rn sowie eine Orthonormalbasis Bj S von V (λj , A). (Nach Satz 6.13 und Folgerung 6.21 ist dies möglich.) B := pj=1 Bj ist nach Lemma 6.42.3 Orthonormalbasis von Rn . Sei S ∈ Rn,n diejenige Matrix, deren Spalten die Elemente von Bj für j = 1, . . . , p sind. Offensichtlich ist S orthogonale Matrix und es gilt S T AS = Diag(λ1 , . . . , λ1 , . . . , λp , . . . , λp ), wobei jeder der Eigenwerte so oft auftritt, wie seine (algebraische) Vielfachheit angibt. 4. Bestimme für j = 1, . . . , p das Urbild Bj0 ⊆ V von Bj bzgl. der Koordinatenabbildung κB : V → Rn . Da B Orthonormalbasis von V ist, ist Bj0 Orthonormalbasis von V (λj , f ), denn die Strukturmatrix von h , i auf V bzgl. B ist die Einheitsmatrix und somit gilt für b, c ∈ Bj0 : 0 falls b 6= c T hb, ci = bB cB = 1 falls b = c S 0 5. B 0 := m j=1 Bj ist dann Orthonormalbasis von V , bzgl. derer (bei entsprechender Anordnung ihrer Elemente) die Koordinatenmatrix von f die Matrix Diag(λ1 , . . . , λ1 , . . . , λp , . . . , λp ) (s. 2.) ist. Beispiele 6.48. 1. Sei f : R4 → R4 die durch f (e41 ) := 3e41 + e44 , f (e42 ) := 3e42 + e43 , f (e43 ) = e42 + 3e43 , f (e44 ) = e41 + 3e44 eindeutig bestimmte R-lineare Abbildung (s. Satz und Definition 4.23). Man zeige, daß f selbstadjungiert ist und bestimme eine Orthonormalbasis des R4 , bzgl. derer die Koordinatenmatrix von f die Gestalt Diag(λ1 , . . . , λ4 ) hat, wenn λ1 , . . . , λ4 die Eigenwerte von f sind. Lösung: Sei B die kanonische geordnete Basis des R4 (sie ist Orthonormalbasis desR4 ) und sei A Koordinatenmatrix von f bzgl. B. Da A = 3 0 0 1 0 3 1 0 T 0 1 3 0, ist f wegen A = A nach Lemma 6.42.2 selbstadjungiert. 1 0 0 3 172 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME Es gilt χA = (X − 2)2 (X − 4)2 und daher sind λ1 = 2 und λ2 = 4 die Eigenwerte von A jeweils mit algebraischer Vielfachheit 2. Weiter haben wir VR (2, A) = R{(−1, 0, 0, 1), (0, −1, 1, 0)} und VR (4, A) = R{(1, 0, 0, 1), (0, 1, 1, 0)}. Damit ist B1 := √12 (−1, 0, 0, 1), √12 (0, −1, 1, 0) Orthonormalbasis von VR (2, A) und B2 := √12 (1, 0, 0, 1), √12 (0, 1, 1, 0) ist Orthonormalbasis von VR (4, A). −1 0 1 0 0 −1 0 1 gilt S ∈ OR (4) und S T AS = Diag(2, 2, 4, 4). Mit S := √12 0 1 0 1 1 0 1 0 Damit ist B0 := √12 (−1, 0, 0, 1), √12 (0, −1, 1, 0), √12 (1, 0, 0, 1), √12 (0, 1, 1, 0) geordnete Orthonormalbasis des R4 , bzgl. derer die Koordinatenmatrix von f die Gestalt Diag(2, 2, 4, 4) hat. 2. Sei I := [0, 1] ⊂ R das Einheitsintervall. Ist X ein Unbestimmte, so fassen wir ein Polynom f ∈ R[X] stillschweigend als Funktion I → R auf. (Derartige Fuktionen heißen polynomiale Funktionen auf I.) Es ist klar, daß polynomiale Funktionen beliebig oft differenzierbar sind. Folglich ist R[X] Untervektorraum von CR∞ (I) und damit insbesondere Untervektorraum von R1 CR (I). Indem wir das durch hf, gi = 0 f (t)g(t)dt, f, g ∈ CR (I), gegebene Skalarprodukt auf CR (I) (s. Bemerkung 6.25.8) verwenden, wird R[X] damit zu einem euklidischen Vektorraum. (a) Für n ∈ N sei √ 2n + 1 dn n n X (X − 1) ∈ R[X]. pn := n! dX n pn heißt n-tes Legendresches Polynom (auf I). Es hat den Grad n. √ √ Insbesondere gilt p0 = 1, p1 = 3(2X − 1), p2 = 5(6X 2 − 6X + 1) usw. Behauptung: Die Menge P := {pn | n ∈ N} der Legendreschen Polynome bildet eine Orthonormalbasis von R[X]. Insbesondere bildet für m ∈ N die Menge Pm := {pn | n ∈ N, n ≤ m} der Legendrepolynome vom Grad ≤ m eine Orthonormalbasis des Untervektorraumes R[X]m ⊆ R[X] der Polynome vom Grad ≤ m. (Beweis: Übung) (b) Sei V := R[X]2 die Menge der Polynome von Grad ≤ 2. Weiter sei dϕ g : V → V der durch g(ϕ) := dX für alle ϕ ∈ R[X] gegebene Endomorphismus von V . g ist nicht selbstadjungiert, wie man sofort bestätigt. 6.5. HAUPTACHSENTRANSFORMATIONEN 173 Daher betrachten wir stattdessen f := 21 (g + g T ), wobei g T derjenige Endomorphismus von V ist, dessen Koordinatenmatrix bzgl. einer (und T damit jeder) geordneten Orthonormalbasis B von V die Matrix gB ist. (Damit ist klar, daß f selbstadjungiert ist.) (c) Man bestimme nun eine Orthonormalbasis von V , die aus lauter Eigenvektoren von f besteht. Lösung: Wir starten mit der geordneten Orthonormalbasis B := (p0 , p1 , p2 ) von V . Die Koordinatenmatrix von f bzgl. B ist √ 3 √0 √0 A := 3 √0 15 . 0 15 0 √ √ λ1 := q 0, λ2 := 3 2 und λ3 := −3 2 sind die Eigenwerte von A. √ √ b01 := ( 56 , 0, − √16 ), b02 := ( 2√1 3 , √12 , 2√53 ) und b03 := ( 2√1 3 , − √12 , 2√53 ) sind jeweils zugehörige Einheitseigenvektoren. Damit ist √ √ √ √ √ − 30X(X −1), 3 5X 2 −(5− 2)X +1− √12 , 3 5X 2 −(5+ 2)X + 1 + √12 √ √ geordnete Orthonormalasis von V , bzgl. derer Diag(0, 3 2, −3 2) Koordinatenmatrix von f ist. 6.5 Hauptachsentransformationen Sei K ein Körper mit 2 · 1K 6= 0K und seien X1 , . . . , Xn Unbestimmte, wobei n ∈ N+ . Weiter sei f ∈ K[X1 , . . . , Xn ] ein vom Nullpolynom verschiedenes Polynom vom Grad 2. Wir können f wie folgt aufschreiben: f = a11 X12 + 2a12 X1 X2 + . . . + 2a1n X1 Xn + a22 X22 + 2a23 X2 X3 + . . . + ann Xn2 +2b1 X1 + . . . + 2bn Xn + c mit a11 , a12 , . . . , ann , b1 , . . . , bn , c ∈ K. Die Menge VK (f ) := {x ∈ K n | f (x) = 0K } ⊆ K n heißt Quadrik (über K). Mitunter ist es zweckmäßig und auch notwendig, VL (f ) ⊆ Ln für einen Erweiterungskörper L von K zu betrachten. a11 . . . a1n .. ∈ K n,n , wobei a := a für i, j ∈ N, Setzen wir nun A := ... ji ij . an1 . . . ann 174 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME 1 ≤ i < j ≤ n, sowie b := (b1 , . . . , bn ), so gilt A = AT und f = XAXT + 2bXT + c, wobei X := (X1 , . . . , Xn ). Sei nun K = R. Unser Ziel ist, f durch geeignete orthogonale Koordinatentransformationen in eine möglichst einfache Form zu überführen. ”Möglichst einfach” soll heißen, daß keine gemischten Produkte der Unbestimmten auftreten und daß möglichst viele Koeffizienten des linearen Teils von f Null sind. Es stellt sich heraus, daß diese Form i. w. eindeutig durch f bestimmt ist (also nicht von der gewählten Koordinatentransformation abhängt). Deswegen spricht man auch von einer Normalform von f . Wir gehen nun wie folgt vor: 1. Man bestimme die Eigenwerte λ1 , . . . , λn ∈ R von A, wobei mit r := rang A(> 0) o. B. d. A. gelte λ1 , . . . , λr 6= 0, λr+1 = . . . = λn = 0 und λ1 ≤ . . . ≤ λr . (Wegen A = AT liegen nach Folgerung 6.46 alle Eigenwerte von A in R.) 2. Man bestimme eine Matrix S0 ∈ OR (n) mit S0T AS0 = Diag(λ1 , . . . , λn ) (s. Folgerung 6.46). Setze bS0 =: (µ1 , . . . , µn ) ∈ Rn . 3. Man unterscheidet nun zwei Fälle (a) µr+1 = . . . = µn = 0. (Dies ist stets erfüllt, wenn r = n.) Setze S := S0 ∈ OR (n), −1 n s := (µ1 λ−1 1 , . . . , µr λr , 0, . . . , 0) ∈ R , X r ρ := c − µ2i λ−1 i ∈ R. i=1 Dann gilt mit Y := XS + s (d. h. X = (Y − s)S T ): f = Y(λ1 , . . . , λn )YT + ρ = λ1 Y12 + . . . + λr Yr2 + ρ, wenn Y =: (Y1 , . . . , Yn ). (b) Es gibt ein i ∈ {r +p 1, . . . , n} mit µi 6= 0. (Dies ist nur möglich, wenn 0 2 2 r < n.)Setze σ := µ r+1 + . . . + µn (> 0), wähle S ∈ OR (n − r) mit σ −1 µr+1 .. S0 = ∗ (möglich, da der vorgegebene Spaltenvektor . −1 σ µn Einheitsvektor ist und somit zu einer von Rn−r er Orthonormalbasis Er 0 gänzt werden kann) und setze S1 := . Dann ist S1 ∈ OR (n). 0 S0 6.5. HAUPTACHSENTRANSFORMATIONEN 175 Weiter sei S := S0 S1 ∈ OR (n) und −1 s := µ1 λ−1 1 , . . . , µr λr , 0, . . . , 0, 1 2 −1 n (c − µ21 λ−1 1 − . . . − µr λr ) ∈ R . 2σ Dann gilt mit Y := XS + s (d. h. X = (Y − s)S T ): f = Y(λ1 , . . . , λn )YT + 2σYn = λ1 Y12 + . . . + λr Yr2 + 2σYn , wenn wiederum Y =: (Y1 , . . . , Yn ). Fassen wir zusammen: Satz und Definition 6.49 (Hauptachsentransformation). Sei f := XAXT + 2bXT + c ∈ R[X] mit A ∈ Rn,n , A 6= 0, A = AT , b ∈ Rn , c ∈ R, X := (X1 , . . . , Xn ) (X1 , . . . , Xn Unbestimmte). Weiter seien λ1 , . . . , λr ∈ R, r := rang A, die von Null verschiedenen Eigenwerte von A, wobei λ1 ≤ . . . ≤ λr . dann gibt es eine orthogonale Matrix S ∈ OR (n) und ein s ∈ Rn , so daß f durch die Transformation X 7→ (X − s)S T in genau eine der beiden Gestalten überführt wird (a) g = λ1 X12 + . . . + λr Xr2 + ρ, (ρ ∈ R) oder (b) g = λ1 X12 + . . . + λr Xr2 + 2σXn , (σ ∈ R+ ). Die quadratischen Polynome aus (a) bzw. (b) heißen Normalform von f . Die Spaltenvektoren von S (sie sind alle Eigenvektoren von A) nennt man ein System von Hauptachsen für die Quadrik f . Eine Quadrik, deren Normalform die Gestalt (a) hat, heißt Mittelpunktsquadrik; −sS T ∈ Rn heißt Mittelpunkt. Hat ihre Normalform die Gestalt (b), so sagt man, sie sei vom parabolischen Typ. f ist Mittelpunktsquadrik genau dann, wenn rang (A, bT ) = rang A. In diesem Fall sagt man, f sei vom exzentrischen Typ, wenn ρ 6= 0. Ist ρ = 0, so sagt man, f sei vom Kegeltyp. Ist f Mittelpunktsquadrik vom exzentrischen Typ, so nennt man für i = 1, . . . , r r die Zahlen λρi mitunter auch Länge der i-ten Halbachse. Betrachten wir abschließend ebene Quadriken, d. h. es sei n = 2. Folgende Fälle können auftreten (r := rang A ∈ {1, 2}): 176 KAPITEL 6. EUKLIDISCHE VEKTORRÄUME 1. r = 2 (Es handelt sich um eine Mittelpunktsquadrik) Normalform: f = λ1 X12 + λ2 X22 + ρ (λ1 , λ2 6= 0, λ1 ≤ λ2 ) 1.1 ρ = 0 (Kegeltyp) (a) λ1 λ2 > 0 : VR (f ) = {(0, 0)} (b) λ1 λ2 < 0 : VR (f ) ist eine Doppelgerade 1.2 ρ 6= 0 (exzentrischer Typ) Division durch −ρ liefert ρ1 X12 + ρ2 X22 − 1 (ρi := − λρi , i = 1, 2). (a) ρ1 , ρ2 > 0 : VR (f ) ist eine Ellipse (ein Kreis für ρ1 = ρ2 ) (b) ρ1 , ρ2 < 0 : VR (f ) = ∅ (c) ρ1 ρ2 < 0 : VR (f ) ist eine Hyperbel 2. r = 1 (parabolischer Typ) Normalform: f = λ1 X12 + 2σX2 (σ > 0). λ1 Division durch −2σ liefert X2 − pX12 (p := − 2σ und, indem man ggf. die Transformation X2 7→ −X2 verwendet, o. B. d. A. p > 0) : VR (f ) ist eine Parabel. √ Beispiel 6.50. Man überführe f := X12 − 2 2X1 X2 + 2X2 − 1 ∈ R[X1 , X2 ] in Normalform. √ 1 − 2 √ Lösung: Es gilt A = , b = (0, 1) und c = −1. Damit haben − 2 0 wir r = rang A = 2, χA = X 2 − X − 2 und somit sind λ1 = −1, λ2 = 2√die Eigenwerte von A. Jeweils zugehörige Einheitseigenvektoren sind v1 = √13 (1, 2) √ √ 1 − 2 1 1 T T √ √ √ und v2 = 3 (− 2, 1)) und damit haben wir S0 = (v1 , v2 ) = 3 , 2 1 q √ bS0 = √13 ( 2, 1), d. h. µ1 = 23 und µ2 = √13 . √ Wir sind also in Fall (a) und erhalten daher S = S0 , s = 2√1 3 (−2 2, 1) und √ √ ρ = − 21 . Durch (X1 , X2 ) 7→ (Y − s)S T = √13 (Y1 − 2Y2 , 2Y1 + Y2 ) + ( √12 , 21 ) und Division durch 12 geht f über in −2Y12 + 4Y22 − 1. Es handelt sich also um eine Hyperbel. Ihre Halbachsen haben die Längen und 21 . √1 2 Anhang A Mengentheoretische und logische Grundlagen A.1 Allgemeine Bemerkungen Grundlegende Objekte der Mathematik sind Mengen. Sie bestehen aus Elementen. Dabei muß für ein gegebenes Element x und eine Menge X entweder x Element von X sein, kurz x ∈ X, oder x ist nicht Element von X, kurz x 6∈ X. Eine Menge kann durch explizite Angabe ihrer Elemente angegeben werden, wie z. B. X = {1, 2, 3} oder durch Eigenschaften, die ihre Elemente haben sollen, z. B. N+ := {n ∈ N | n > 0}. (N : Menge der natürlichen Zahlen, N = {0, 1, 2, . . .}). Hinsichtlich der grundlegenden Definitionen und Eigenschaften der Zahlbereiche wie natürliche Zahlen (N), ganze Zahlen (Z), rationale Zahlen (Q), reelle Zahlen (R) und komplexe Zahlen (C) verweisen wir auf den Kurs ”Analysis I”. Weiterhin werden Aussagen verwendet, die im Unterschied zur Umgangssprache nach strengen Regeln aufgebaut sind. Eine mathematische Aussage ist demnach ein im Zusammenhang mit einer mathematischen Theorie formuliertes sinnvolles sprachliches Konstrukt, das entweder wahr oder falsch ist. Was dabei z. B. ”sinnvoll” heißt, wird im Rahmen der formalen Logik durch eine entsprechende Axiomatik geklärt, die wir hier jedoch nicht behandeln wollen. Die exakte Definition (Axiomatik) von Mengen und die Untersuchung ihrer Eigenschaften, auf die wir hier ebenfalls nicht eingehen wollen, ist Gegenstand der Mengenlehre. Sie bildet zusammen mit der formalen Logik und den formalen Sprachen die drei Grundsäulen der Mathematik (s. Einleitung). Beispiele A.1. 1. Mengen dürfen nicht beliebig gebildet werden Sei X eine Menge. Man erwartet intuitiv, daß X 6∈ X. Sei also X die Menge 177 178 ANHANG A. MENGEN UND LOGIK aller Mengen, die sich nicht selbst als Element enthalten, d. h. X = {X | X Menge, X 6∈ X}. Nun sieht man sofort, daß weder X ∈ X noch X 6∈ X gilt, d. h. obiges Prinzip ist verletzt. In der Tat verbietet die Axiomatik der Mengenlehre diese Bildung. Ebenso ist die Bildung der ”Menge aller Mengen” nicht zulässig. Dennoch ist es oft nötig, Gesamtheiten von Mengen zu betrachten. Wenn man nicht sicher ist, ob es sich dabei um eine Menge handelt oder nicht, so spricht man in solchen Fällen häufig von einer ”Klasse”. In diesem Sinne kann man von der ”Klasse aller Mengen” reden. 2. Bei der Verwendung der ”Umgangssprache” in der Mathematik ist Vorsicht geboten Natürliche Zahlen kann man mit Sätzen der deutschen Sprache beschreiben. Da nur endlich viele Buchstaben und Satzzeichen (einschließlich Leerzeichen) existieren, kann man nur endlich viele Sätze der deutschen Sprache bilden, die aus maximal 200 Zeichen bestehen. Wir bilden nun den Satz: Betrachte die kleinste natürliche Zahl, die sich nicht mit einem Satz der deutschen Sprache beschreiben läßt, der aus maximal zweihundert Zeichen besteht. Dieser Satz besteht aus weniger als 200 Zeichen und damit hätten wir gerade eine Zahl betrachtet, die es gar nicht geben darf! Dies ist aber nur ein scheinbarer Widerspruch, denn die Axiomatik der Arithmetik (PeanoAxiome) gestattet die Bildung einer derartigen ”Zeichenkette” gar nicht. Anders gesagt: Aus Sicht der Arithmetik ist diese Zeichenkette inhaltsleer, wie etwa auch ”Sechs ist eine trockene Zahl”, und damit kann sie auch keinen Widerspruch darstellen. Wir wenden uns nun zunächst den Mengen zu. A.2 Mengen Seien X, Y Mengen. Wir sagen, daß X Teilmenge von Y ist, kurz X ⊆ Y , wenn für alle x ∈ X gilt x ∈ Y . Äquivalente Bezeichnung: Y ist Obermenge von X, kurz Y ⊇ X. Ist X Teilmenge von Y und gilt X 6= Y , so bezeichnen wir dies mit X ⊂ Y (oder Y ⊃ X) und sagen, X sei echte Teilmenge von Y . A.2. MENGEN 179 Die leere Menge enthält keine Elemente. Sie wird mit ∅ bezeichnet und ist gekennzeichnet durch die Eigenschaft ∅ ⊆ A für alle Mengen A. Jede Menge X enthält die Teilmengen ∅ und X selbst. Seien X, Y Mengen. Folgende Mengen können gebildet werden X ∪ Y := {z | z ∈ X oder z ∈ Y } Vereinigung von X und Y X ∩ Y := {z | z ∈ X und z ∈ Y } X \ Y := {z | z ∈ X und z 6∈ Y } X × Y := {(x, y) | x ∈ X, y ∈ Y } Durchschnitt von X und Y Differenz von X und Y Produkt von X und Y Für eine Menge A kann die Menge P (A) := {X | X ⊆ A} aller Teilmengen von A gebildet werden. Sie heißt Potenzmenge von A. Beispielsweise ist P (∅) = {∅} (dies ist nicht die leere Menge!) und P ({x}) = {∅, {x}}. Für X ∈ P (A) sei X := A \ X ∈ P (A). X heißt Komplement von X (bzgl. A). Hierfür gelten ein ganze Reihe von Regeln, von denen hier nur einige genannt werden sollen. Satz A.2. Für alle Mengen X, Y, Z gilt (1) Assoziativität (X ∪ Y ) ∪ Z = X ∪ (Y ∪ Z) und (X ∩ Y ) ∩ Z = X ∩ (Y ∩ Z) (2) Distributivität (X ∪ Y ) ∩ Z = (X ∩ Z) ∪ (Y ∩ Z) und (X ∩ Y ) ∪ Z = (X ∪ Z) ∩ (Y ∪ Z) (3) Kommutativität X ∪Y X ∩Y = Y ∪ X und = Y ∩X Nehmen wir nun an, daß X, Y ∈ P (A) mit einer weiteren Menge A. Dann gilt (4) X=X (5) de Morgansche Gesetze X ∪Y X ∩Y = X ∩ Y und = X ∪Y 180 ANHANG A. MENGEN UND LOGIK Auf den Beweis verzichten wir, da er sich sofort aus den Definitionen und Satz A.5 ergibt. Vereinigungen und Durchschnitte können auch von ”beliebig vielen” Mengen gebildet werden: Sei X eine Menge von Mengen. Dann können die Mengen [ X := {z | z ∈ X für ein X ∈ X } (Vereinigung der X ∈ X ) X∈X \ X := {z | z ∈ X für alle X ∈ X } (Durchschnitt der X ∈ X ) X∈X gebildet werden. Hierfür gelten entsprechende Regeln wie oben. Sind X1 , . . . , Xn Mengen, so kann auch das Produkt X1 ×. . .×Xn gebildet werden: X1 × . . . × Xn := {(x1 , . . . , xn ) | xi ∈ Xi , 1 ≤ i ≤ n}, Bezeichnung: Qn i=1 Xi . Für X1 = . . . = Xn =: X schreibt man X . . × X} =: X n . | × .{z n−mal Diese Menge wird auch als Menge der geordneten n-Tupel (mit Einträgen aus X) bezeichnet. Bemerkung A.3. Häufig beschreibt man Mengen von Mengen mit Hilfe von Indexmengen, d. h. man hat eine Menge I (die Indexmenge) und für jedes ι ∈ I (also für jeden Index ι aus I) eine Menge Xι . Dann wäre X = {Xι | ι ∈ I} zwar eine Menge von Mengen, der Vorteil der Indexschreibweise ist jedoch, daß Wiederholungen noch ”erkennbar” sind. Wenn nämlich Xι = Xλ =: X für verschiedene Indizes ι, λ ∈ I, so erscheint X in X nur einmal, was mitunter zu begrifflichen Schwierigkeiten führen kann. Um diese Problematik an einem Beispiel zu verdeutlichen, setzen wir I = Z und setzen für alle i ∈ Z: Xi := {n | n ∈ Z, n ist durch i teilbar}. Dann gilt z. B. X0 = {0}, X1 = Z = X−1 , X2 = {. . . , −4, −2, Q 0, 2, 4, . . .} = X−2 usw. Wenn X := {Xi | − 1 ≤ i ≤ 1}, so ist offensichtlich X∈X X = {0} × Z. Q Q Q Hingegen gilt 1i=−1 Xi = Z×{0}×Z, d. h. X∈X X ist von 1i=−1 Xi verschieden. Indizierte Mengen werden oft Mengenfamilien (über der gegebenen Indexmenge) genannt und mit (Xι )ι∈I oder auch nur Xι , ι ∈ I, bezeichnet. A.3. AUSSAGEN A.3 181 Aussagen A.3.1 Aussagenlogik Wie bereits einleitend festgestellt wurde, ist eine mathematische Aussage ein nach bestimmten Regeln aufgebautes (sprachliches) Konstrukt. Genauer geht man wie folgt vor: Zunächst definiert man (logische) Ausdrücke. Hierzu gibt man eine nicht leere Menge A, deren Elemente Aussagenvariable genannt werden, und weitere Symbole ¬ ∧ ∨ ⇒ ⇔ (Negation), (und), (oder), (Implikation), (Äquivalenz), die als logische Operatoren bezeichnet werden, sowie die beiden Klammersymbole ”(”, ”)” vor. Dann legt man fest: (i) Jede Aussagenvarible ist ein Ausdruck. (ii) Sind A, B Ausdrücke, so auch ¬ A, (A ∧ B), (A ∨ B), (A ⇒ B), (A ⇔ B). (iii) Eine Zeichenreihe in den Aussagenvariablen, den logischen Operatoren und den Klammersymbolen ist ganau dann Ausdruck, wenn er es auf Grund von (i) und (ii) ist. Für p, q, r, s ∈ A sind beispielsweise ¬p, ((p ⇒ q) ∨ r), ((p ∧ q) ⇔ (r ∨ s)) Ausdrücke. Keine Ausdrücke sind z. B. (⇒ p), ((r∧) ∨ s) oder (p ¬ q). Wir bemerken, daß man bei Ausdrücken Klammern einsparen kann, wenn man vereinbart, daß die Bindung der Symbole ¬, ∧, ∨, ⇒, ⇔ von links nach rechts gesehen schwächer wird. Dies bezeichnet man auch als Klammerkonvention. Damit kann man z. B. vereinfachend schreiben (¬p)∨q =: ¬p∨q oder (p∧q)∨q =: p∧q∨q. Aussagen können ”wahr” oder ”falsch” sein. Genauer faßt man diese beiden Begriffe wie folgt: Man definiert eine Menge W := {w, f } mit w 6= f (w soll ”wahr” und f ”falsch” suggerieren) und erklärt mittels der Symbole ¬, ∧, ∨, ⇒, ⇔ Wahrheitsfuntionen, indem man setzt ¬w := f, ¬f := w und x ∧ y, x ∨ y, x ⇒ y, x ⇔ y ∈ W für x, y ∈ W entsprechend nachfolgender 182 ANHANG A. MENGEN UND LOGIK Tabelle definiert x w w f f y x∧y x∨y x⇒y x⇔y w w w w w f f w f f w f w w f f f w w f Damit kann man nun jedem logischen Ausdruck Wahrheitwerte in W zuordenen, indem man zunächst jeder Aussagenvariablen einen der Werte w oder f (beliebig) zuordnet und sodann den entsprechenden Wahrheitwert v(A) eines Ausdrucks A obigem iterativen Aufbau folgend definiert durch (B, C Ausdrücke) v(¬B) v(B ∧ C) v(B ∨ C) v(B ⇒ C) v(B ⇔ C) := := := := := ¬v(B), v(B) ∧ v(C), v(B) ∨ v(C), v(B) ⇒ v(C), v(B) ⇔ v(C). Beispielsweise gilt ( f v((p ⇒ q) ∨ q) = (v(p) ⇒ v(q)) ∨ v(q) = w wenn v(p) = w, v(q) = f sonst. Zur Darstellung der Wahrheitsfunktion v benutzt man oft auch eine sogenannte Wahrheitstabelle, d. h. eine Wertetabelle für v. In diesem Fall würde sie wie folgt aussehen: p w w f f q (p ⇒ q) ∨ q w w f f w w f w Es ist klar, daß der Wahrheitswert v(A) eines logischen Ausdrucks A nur von den Wahrheitswerten der in A vorkommenden Aussagenvariablen abhängt. Eine Zuordnung von Wahrheitswerten zu den in A vorkommenden Aussagenvariablen nennt man auch Belegung von A (mit Wahrheitswerten). Definition A.4. (a) Ein logischer Ausdruck A heißt Tautologie, wenn v(A) = w bei jeder Belegung der in A vorkommenden Aussagenvariablen. (b) Zwei logische Ausdrücke A, B heißen äquivalent, kurz A ∼ = B, wenn v(A) = v(B) für jede Belegung der in A oder B vorkommenden Aussagenvariablen. A.3. AUSSAGEN 183 Beispiele für Tautologien sind p ⇒ p ∨ q, p ∧ q ⇒ p, (p ⇔ q) ⇒ (p ⇒ q), wie man sofort mit Hilfe der jeweiligen Wahrheitstabellen erkennt. Ersetzt man in einer Tautologie die darin vorkommenden Aussagenvariablen jeweils durch logische Ausdrücke, so entsteht wieder eine Tautologie. Will man bei einem logischen Ausdruck A überprüfen, ob es sich um eine Tautologie handelt (oder nicht), so kann man daher Teilausdrücke von A durch nicht in A vorkommende Aussagenvariable ersetzen. Offenbar ist A genau dann eine Tautologie, wenn der so entstehende Ausdruck B Tautologie ist. Tautologien bilden die logische Grundlage der Mathematik: Beweise bestehen auf der fortgesetzten Anwendung von Tautologien. Einige der wichtigsten stellen wir nachfolgend zusammen: Satz A.5. Folgende Ausdrücke sind Tautologien (p, q, r Aussagenvariable): (1) (p ∨ q) ∨ r (p ∧ q) ∧ r ⇐⇒ ⇐⇒ p ∨ (q ∨ r) p ∧ (q ∧ r) (Assoziativgesetze) (2) (p ∨ q) ∧ r (p ∧ q) ∨ r ⇐⇒ ⇐⇒ (p ∧ r) ∨ (q ∧ r) (p ∨ r) ∧ (q ∨ r) (Distributivgesetze) (3) p∨q p∧q (4) ¬¬ p ⇐⇒ p (5) (p ⇒ q) ⇐⇒ (¬ q ⇒ ¬ p) (6) ¬(p ∨ q) ¬(p ∧ q) (7) (p ⇒ q) ∧ p ⇒ q ⇐⇒ ⇐⇒ q∨p q∧p ⇐⇒ ⇐⇒ (Kommutativgesetze) (Negation der Negation) ¬p ∧ ¬q ¬p ∨ ¬q (Kontraposition der Implikation) (de Morgansche Regeln) (modus ponens oder Abtrennungsregel) Auf den Beweis verzichten wir, da er auf einer etwas aufwendigen aber einfachen Auswertung der jeweilgen Wahrheitstabellen beruht. Regel (7) wurde übrigens bereits im antiken Griechenland diskutiert (Theophrast von Eresos, 372 - 287 v.Chr.) Schließlich sei bemerkt, daß der hier eingeschlagene Weg zum Aufbau der Aussagenenlogik (ebenso wie der zum Aufbau der Prädikatenlogik ertser Stufe im nächsten Abschnitt) schon allein deshalb problematisch ist, weil hierzu selbst Aussagen verwendet werden. Diese Schwierigkeiten kann man vermeiden, wenn man den axiomatischen Aufbau mit Axiomen und Ableitungsregeln verwendet. Hierzu sei allerdings auf die Literatur verwiesen, z. B. G. Asser, Einführung in die mathematische Logik I, II. Mit Hilfe dieser Axiomatik gelingt es z. B. auch, einen Überblick über alle möglichen Tautologien zu gewinnen. 184 ANHANG A. MENGEN UND LOGIK A.3.2 Prädikatenlogik Ganz allgemein gesagt geht es hier um Eigenschaften von Elementen einer bestimmten nicht leeren Menge, die oft als Individualbereich bezeichnet wird, und um Relationen zwischen diesen Elementen. Nimmt man als Individualbereich z. B. die ganzen Zahlen Z, so wären z. B. (a) x ist gerade, (b) x ist Primzahl, (c) x teilt y, (d) x + y = z Eigenschaften ganzer Zahlen bzw. Relationen zwischen ihnen. Bei (a) und (b) spricht man von einstelligen und bei (c) bzw. (d) von zwei- bzw. dreistelligen Prädikaten. Setzt man für x, y, z jeweils konkrete ganze Zahlen ein, so stellt jedes dieser Prädikate eine wahre oder falsche Aussage dar. n-stellige Prädikate definieren in diesem Fall also Teilmengen von Zn derjenigen geordneten n-Tupel ganzer Zahlen, die nach Einsetzen jeweils eine wahre Aussage liefern (in unseren Fällen ist n = 1, 2 oder 3). Konkret handelt es sich in den einzelnen Fällen um die folgenden Mengen (a) G := {2a | a ∈ Z} ⊂ Z, (b) P ⊂ Z, die Menge der Primzahlen, (c) T := {(a, ab) | a, b ∈ Z} ⊂ Z2 , (d) S := {(a, b, a + b) | a, b ∈ Z} ⊂ Z3 . Seien nun B, X nicht leere Mengen mit B∩X = ∅. B nennen wir Individualbereich (oben war B = Z) und die Elemente von X Individualvariable (oben war X = {x}, X = {x, y} bzw. X = {x, y, z}). Zur Darstellung der Eigenschaften der Elemente von B bzw. der Relationen zwischen ihnen verwendet man weiterhin Teilmengen von B n , n ∈ N+ (oben sind dies G, P, T, S). Man bildet dann zunächst Ausdrücke der Gestalt Ry1 . . . yn mit n ∈ N+ , R ⊆ B n und y1 , . . . , yn ∈ B ∪X. Wir nennen sie Elementarausdrücke (der Prädikatenlogik). Elementarausdrücke Rx1 . . . xn mit x1 , . . . , xn ∈ X heißen n-stellige Prädikate. Ist := Ry1 . . . yn ein Elementarausdruck und ist x eine darin vorkommende Individualvariable, so kann man x durch ein beliegiges Element b ∈ B ersetzen. Man sagt, der so gebildete Elementarausdruck 0 entstehe aus durch Belegung von x mit b. Insbesondere kann man alle in vorkommenden Individualvariablen A.3. AUSSAGEN 185 durch Elemente aus B belegen. Dann entsteht ein Elementarausdruck der Gestalt Rb1 . . . bn mit (b1 , . . . , bn ) ∈ B n . Einem solchen Elementarausdruck kann sodann man einen Wahrheitswert zuweisen: ( w wenn (b1 , . . . , bn ) ∈ R v(Rb1 , . . . , bn ) := f sonst In unserem obigen Beispiel (d) gilt z. B. v(S111) = f , v(S123) = w usw. Wir kommen nun zu den Ausdrücken der Prädikatenlogik erster Stufe. Hierzu betrachten wir Zeichenketten, in denen außer den Elementen von B ∪ X, Teilmengen von B n , n ∈ N+ , und den logischen Operatoren ¬, ∧, ∨, ⇒, ⇔ noch die weiteren Symbole ∀ und ∃ vorkommen. Sei Z eine derartige Zeichenkette und x ∈ X eine in Z vorkommende Individualvariable. Man sage, x kommt in Z vollfrei vor, wenn keine der Zeichenketten ∀x und ∃x in Z vorkommt. Ansonsten sagt man, x sei in Z gebunden. Wir können nun die Ausdrücke der Prädikatenlogik erster Stufe bilden, wobei man ähnlich vorgeht wie im Fall der Aussagenlogik: (i) Jeder Elementarausdruck ist ein Ausdruck. (ii) Ist A Ausdruck, in welchem die Individualvariable x vollfrei vorkommt, so sind ∀xA, ∃xA Ausdrücke. (iii) Ist A Ausdruck, so auch ¬ A. (iv) Sind A, B Ausdrücke, so daß die in A und B gemeinsam auftretenden Individualvariablen jeweils vollfrei vorkommen, so sind auch (A ∧ B), (A ∨ B), (A ⇒ B), (A ⇔ B) Ausdrücke. (v) Eine Zeichenreihe der oben beschriebenen Art ist genau dann Ausdruck, wenn er es auf Grund (i) - (iv) ist. Bemerkungen A.6. 1. Die Operatoren ∀ und ∃ nennt man Quantoren, genauer heißt ∀ Allquantor und ∃ Existenzquantor. 2. Die Bedingung in (iv) hinsichtlich der gemeinsam auftretenden Individualvariablen hat folgenden Hintergrund: Ohne diese Bedingung wäre z. B. ((∃xRx) ∧ Sx) mit Teilmengen R, S von B ein Ausdruck. Dann dürfte aber ∀x((∃xRx) ∧ Sx) nach (ii) nicht gebildet werden, was aber eigentlich nicht einzusehen ist, da die Individualvariable x im Teilausdruck ∃xRx gebunden ist und daher nicht mehr ”stören” kann. Diese Schwierigkeit kann man jedoch umgehen, indem man ∃xRx durch den logisch äquivalenten Ausdruck ∃yRy mit einer weiteren Individualvariablen y (s. Bemerkung A.8.2 unten) ersetzt und dann statt dessen ∀x((∃yRy) ∧ Sx) bildet. 186 ANHANG A. MENGEN UND LOGIK 3. Analog wie in der Aussagenlogik kann man auch hier Klammern einsparen, indem man zusätzlich fordert, daß die Quantoren ∀ und ∃ stärker binden als die logischen Operatoren ∧, ∨, ⇒, ⇔, jedoch schwächer als ¬. Sei A ein Ausdruck. Jede in A vollfrei vorkommende Individualvariable kann mit einem beliebigen Element aus B belegt werden. Sind alle Individualvariablen eines Ausdrucks A gebunden, so kann man A wie folgt einen eindeutig bestimmten Wahrheitswert v(A) ∈ W := {w, f } zuweisen. Hierzu legen wir die iterative Definition der Ausdrücke der Prädikatenlogik erster Stufe zugrunde: Wenn A Elementarausdruck ist, so ist gilt A = Rb1 . . . bn mit n ∈ N+ und (b1 , . . . , bn ) ∈ B n und wir definiern v(A) wie oben angegeben. Wenn A Ausdruck gemäß (ii) oder (iii) ist, so definieren wir v(A) wie in der Aussagenlogik mittels der Wahrheitswerte der in A vorkommenden Teilausdrücke. Sei nun A Ausdruck gemäß (iv). Dann gilt A = ∀xB oder A = ∃xB mit einem Ausdruck B, in dem genau eine Individualvariable x vollfrei vorkommt. Für b ∈ B bezeichnen wir mit B(b) denjenigen Ausdruck, der aus B durch die Belegung von x durch b entsteht. Wir setzen dann C := {b ∈ B | v(B(b)) = w} und definieren ( w v(∀xB) := f wenn C = B sonst ( w und v(∃xB) := f wenn C 6= ∅ sonst. Definition A.7. (a) Ein Ausdruck A heißt Tautologie, wenn bei jeder Belegung der in A vollfrei vorkommenden Individualvariablen mit Elementen aus B ein Ausdruck mit Wahrheitswert w entsteht. (b) Zwei Ausdrücke A, B heißen logisch äquivalent, kurz A ∼ = B, wenn A und B nach jeder Belegung der in A, B vorkommenden vollfreien Individualvariablen mit Elementen aus B den gleichen Wahrheitswert haben. Bemerkungen A.8. 1. Bei der Überprüfung der logischen Äquivalenz zweier Ausdrücke sind in beiden Ausdrücken jeweils vollfrei vorkommende Individualvariable stets mit dem gleichen Wert zu belegen. 2. Sind A, B Ausdrücke, wobei B aus A entsteht, indem eine in A gebunden auftretende Individualvariable x durch eine ansonsten nicht in A auftretende Individualvariable y ersetzt wird, so sind A und B logisch äquivalent. A.4. RELATIONEN A.4 A.4.1 187 Relationen Definitionen, Beispiele Definition A.9. Sei X eine Menge. Eine n-stellige Relation auf X ist eine Teilmenge R von X n . Besonders wichtig ist dabei der Fall n = 2. Eine zweistellige Relation oder kurz nur eine Relation auf X ist somit eine Teilmenge R von X ×X. Statt (x1 , x2 ) ∈ R (x1 , x2 ∈ X) schreibt man häufig x1 R x2 und sagt ”x1 und x2 stehen in der Relation R”. Beispiele A.10. 1. Die Teilmenge ∆X := {(x, x) | x ∈ X} von X 2 heißt Diagonale von X. Da für (x1 , x2 ) ∈ X 2 genau dann (x1 , x2 ) ∈ ∆X gilt, wenn x1 = x2 , beschreibt ∆X die übliche Gleichheitsrelation (auf X). 2. A := X 2 heißt Allrelation (auf X). 3. Sei M die Menge aller Menschen und V := {(x, y) | x, y ∈ M, x ist mit y verheiratet}. Definition A.11. Eine Relation R auf einer Menge X heißt • reflexiv, wenn x R x für alle x ∈ X (d. h. ∆X ⊆ R) • symmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 folgt x2 R x1 (d. h. aus (x1 , x2 ) ∈ R folgt (x2 , x1 ) ∈ R) • antisymmetrisch, wenn für alle x1 , x2 ∈ X gilt: Aus x1 R x2 und x2 R x1 folgt x1 = x2 (d. h. aus (x1 , x2 ), (x2 , x1 ) ∈ R folgt x1 = x2 ) • transitiv, wenn für alle x1 , x2 , x3 ∈ X gilt: Aus x1 R x2 und x2 R x3 folgt x1 R x3 (d. h. aus (x1 , x2 ), (x2 , x3 ) ∈ R folgt (x1 , x3 ) ∈ R). A.4.2 Ordnungs- und Äquivalenzrelationen Wir definieren nun die folgenden wichtigen Relationen Definition A.12. Eine Relation heißt (a) Ordnungsrelation, wenn sie reflexiv, antisymmetrisch und transitiv ist. (b) Äquivalenzrelation, wenn sie reflexiv, symmetrisch und transitiv ist. Ordnungsrelationen werden oft mit ≤, usw. bezeichnet. Ist ≤ Ordnungsrelation auf einer Menge X, so schreibt man für x1 ≤ x2 und x1 6= x2 kurz x1 < x2 (x1 , x2 ∈ X). Mitunter ist es auch nützlich, neben ≤ (bzw. , . . .) noch das 188 ANHANG A. MENGEN UND LOGIK Symbol ≥ (bzw. , . . .) zu verwenden, wobei x1 ≥ x2 genau dann gilt, wenn x2 ≤ x1 (bzw. x1 x2 genau dann, wenn x2 x1 usw.). Definition A.13. Eine Menge X mit einer Ordnungsrelation ≤ wird auch als teilweise geordnete Menge bezeichnet, Schreibweise (X, ≤). Sei (X, ≤) teilweise geordnete Menge. (a) ≤ heißt vollständig (oder auch total), wenn für alle x1 , x2 ∈ X gilt x1 ≤ x2 oder x2 ≤ x1 . (b) Eine bzgl. ≤ vollständig geordnete Teilmenge von X heißt Kette von X (bzgl. ≤). (c) Ist ≤ vollständig und besitzt jede nicht leere Teilmenge von X bzgl. ≤ ein kleinstes Element, so heißt ≤ Wohlordnung (auf X). Beispiele A.14. lation. 1. Die Gleichheitsrelation ist Ordnungs- und Äquivalenzre- 2. Ist R Äquivalenzrelation (Ordnungsrelation) auf einer Menge X, so ist R|Y := Y 2 ∩ R für jede Teilmenge Y von X Äquivalenzrelation (Ordnungsrelation) auf Y . Mann nennt sie die durch R auf Y induzierte Relation. 3. Die übliche Ordnung ≤ auf den Mengen N, Z, Q und R ist jeweils eine vollständige Ordnungsrelation. Sie ist Wohlordnung auf N, jedoch nicht auf Z (und damit auch nicht auf Q und R). 4. Sei X eine Menge. Die Teilmengenrelation ⊆ ist eine Ordnungsrelation auf der Potenzmenge P (X) von X. Nach 2. induziert sie eine Ordnungsrelation auf jeder Teilmenge von P (X). 5. Die Teilbarkeitsrelation | auf der Menge N der natürlichen Zahlen ist eine def nicht vollständige Ordnungsrelation. (Für a, b ∈ N gilt a|b ⇐⇒ ac = b für ein c ∈ N.) 6. Sei n ∈ Z. Die Kongruenz ≡ n modulo n ist Äquivalenzrelation auf Z. (Für def a, b ∈ Z gilt a ≡ n b ⇐⇒ n|a − b.) 7. Das Wohlordnungsaxiom oder Wohlordnungspostulat besagt, daß jede Menge wohlgeordnet werden kann, d. h. daß auf jeder Menge eine Wohlordnung existiert. Es gehört zu den grundlegenden Axiomen der Mengenlehre, s. Bemerkung A.16.3. Definition A.15. Sei (X, ≤) eine teilweise geordnete Menge. (a) Ein Element x ∈ X heißt maximal (minimal), wenn für alle y ∈ X aus x ≤ y (x ≥ y) folgt y = x. (b) Ein Element x ∈ X heißt obere (untere) Schranke einer Teilmenge Y von X, wenn y ≤ x (y ≥ x) für alle y ∈ Y . A.4. RELATIONEN 189 (c) Ein Element x ∈ X heißt obere (untere) Grenze einer Teilmenge Y von X, wenn x kleinste (größte) obere (untere) Schranke von Y ist. √ Bemerkungen, Beispiele A.16. 1. Die Menge {y ∈ Q | y < 2} besitzt in Q zwar obere Schranken (nämlich alle positiven rationalen Zahlen q mit q 2 > 2), aber keine obere Grenze. 2. Das Lemma von Zorn besagt, daß eine nicht leere teilweise geordnete Menge X maximale Elemente besitzt, wenn jede Kette von X (s. Definition A.13(b)) eine obere Schranke in X hat. Das Zornsche Lemma zählt ebenso wie das Wohlordnungsaxiom (s. Definition A.14.7) und das Auswahlaxiom (s. Bemerkung A.21.2) zu den grundlegenden Axiomen der Mengenlehre. 3. Man kann zeigen, daß Wohlordnungsaxiom, Zornsches Lemma und Auswahlaxiom äquivalente Aussagen sind. Keine dieser Aussagen kann aber aus den übrigen mengentheoretischen Axiomen abgeleitet werden. Das folgende Lemma ist oft hilfreich, wenn die Existenz maximaler Elemente in einer teilweise geordneten Menge nachgewiesen werden muß. Lemma S A.17. Sei X nicht leere Teilmenge der Potenzmenge einer Menge X . Wenn K∈K K ∈ X für jede Kette K in X, so besitzt X bzgl. ⊆ maximale Elemente. S Beweis. Dies ergibt sich sofort aus dem Zornschen Lemma, da K∈K K ∈ X für eine Kette K in X ⊆ P (X ) obere Schranke (sogar obere Grenze) in P (X ) und damit in X ist, A.4.3 Äquivalenzklassen, Partitionen Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Für jedes x ∈ X sei Kx := {y | y ∈ X, y ∼ x} ⊆ X. Dann gilt für x, y ∈ X x ∈ Kx Kx = Ky genau dann, wenn x ∼ y Kx ∩ Ky = ∅ falls x 6∼ y. und Die Äquivalenzrelation ∼ liefert somit eine Menge K := {Kx | x ∈ X} nicht leerer Teilmengen von X mit folgenden Eigenschaften [ K=X (A.1) K∈K K ∩ K 0 = ∅ für alle K, K 0 ∈ K mit K 6= K 0 . (A.2) K wird mit meist X/ ∼ bezeichnet, Sprechweise ”X modulo ∼” oder auch ”X nach ∼”. Die Elemente von K werden Äquivalenzklassen bzgl. ∼ genannt. 190 ANHANG A. MENGEN UND LOGIK Allgemein heißt eine Menge K nicht leerer Teilmengen von X, die (A.1) und (A.2) erfüllt, Partition (manchmal auch Klasseneinteilung) von X. Eine Äquivalenzrelation auf X führt also zu einer Partition von X. Umgekehrt gibt jede Partition K von X Anlaß zu einer Äquivalenzrelation ∼ auf X, indem man für x, y ∈ X setzt: x∼y genau dann, wenn es ein K ∈ K gibt mit x, y ∈ K. Äquivalenzrelationen auf X und Partitionen von X entsprechen sich also umkehrbar eindeutig. A.5 Abbildungen Seien X, Y Mengen. Eine Teilmenge F von X × Y heißt • Funktion von X nach Y , wenn es für alle x ∈ X höchstens ein y ∈ Y gibt mit (x, y) ∈ F • Abbildung von X nach Y , wenn es für alle x ∈ X genau ein y ∈ Y gibt mit (x, y) ∈ F . Eine Abbildung ist also eine spezielle Funktion. Ist F Funktion von X nach Y , so heißen die Mengen D(F ) := {x | x ∈ X und es gibt ein y ∈ Y mit (x, y) ∈ F } ⊆ X bzw. W (F ) := {y | y ∈ Y und es gibt ein x ∈ X mit (x, y) ∈ F } ⊆ Y Definitionsbereich bzw. Wertebereich von F . X bzw. Y selbst heißen Quelle bzw. Ziel von F . Offenbar ist F eine Abbildung genau dann, wenn D(F ) = X. Wir werden es hier in der Regel mit Abbildungen zu tun haben (im Unterschied zur Analysis). Sei also F ⊆ X × Y eine Abbildung und sei x ∈ X. Laut DefiF nition gibt es genau ein y ∈ Y mit (x, y) ∈ F . Man schreibt x 7→ y (oder auch nur x 7→ y) bzw. y = F (x), wodurch eine ”Zuordnungsvorschrift” gegeben ist. Um von der ursprünglich gegeben Menge F zu unterscheiden, wählt man hierfür in der Regel ein anderes Symbol, etwa f . Dementsprechend werden Abbildungen f meist durch f : X → Y bzw. X → Y und y = f (x), wenn (x, y) ∈ F , bezeichnet. Die ursprünglich gegebene Menge F ⊆ X × Y heißt dann Graph von f . Der Zusammenhang zwischen F und f wird durch F = {(x, f (x)) | x ∈ X} beschrieben. Beispiele A.18. 1. Sei X := R und F := {(x, x2 ) | x ∈ R} ⊂ R × R. Dies ist offensichtlich eine Abbildung von R nach R, die üblicherweise in der Form ”f (x) = x2 für alle x ∈ R ” aufgeschrieben wird. Ihr Graph (also A.5. ABBILDUNGEN 191 F ) kann in der mit einem kartesischen Koordinatensystem ausgestatteten reellen Ebene als Parabel dargestellt werden. 2. Sei X eine nicht leere Menge. Die Diagonale ∆X ⊆ X × X (s. Beispiel A.10.1) ist auch eine Abbildung. Die entsprechende Zuordnungsvorschrift X → X wird mit idX bezeichnet und heißt identische Abbildung (von X). Offensichtlich gilt idX (x) = x für alle x ∈ X. 3. Sei X eine Menge und Y nicht leere Teilmenge von X. Da jedes Element von Y auch Element von X ist, ist durch y 7→ y ∈ X für alle y ∈ Y eine Abbildung ι : Y → X gegeben (mit ι(y) = y für alle y ∈ Y ). ι wird als Einbettung (von Y in X) bezeichnet. Der Graph von ι ist ∆Y , aufgefaßt allerdings als Teilmenge von X × Y (⊇ Y × Y ). Im Fall Y = X ist ι die identische Abbildung. 4. Sei X eine Menge und ∼ eine Äquivalenzrelation auf X. Durch x 7→ Kx für alle x ∈ X (Kx ist diejenige Klasse bzgl. ∼, die x enthält, s. Abschnitt A.4.3) ist eine Abbildung p : X → X/ ∼ definiert. Sie wird (natürliche) Projektion von X auf X/ ∼ genannt. Im folgenden führen wir eine Reihe wichtiger Begriffe ein, ohne dazu eigenständige Definitionen zu formulieren. Für Mengen X, Y sei Abb (X, Y ), ältere Bezeichnung Y X , die Menge aller Abbildungen von X nach Y . (Dies ist in der Tat eine Menge, da unter Verwendung der ursprünglichen Definition gilt Abb (X, Y ) ⊆ P (X × Y ). Da ∅ × Y = ∅, ist Abb (∅, Y ) ⊆ P (∅) = {∅}. Wegen ∅ ⊆ Y , deuten wir dies in Anlehnung an Beispiel A.18.3 oben als Einbettung ι : ∅ → Y , d. h. wir haben damit für jede Menge Y : Abb (∅, Y ) 6= ∅, genauer, Abb (∅, Y ) = {ι}. Hingegen setzt man Abb (X, ∅) = ∅ für jede Menge X 6= ∅. Sind X, Y, Z Mengen und sind f : X → Y und g : Y → Z Abbildungen, so ist durch ϕ(x) := g(f (x)) für alle x ∈ X offensichtlich eine Abbildung ϕ : X → Z definiert. Sie heißt Hintereinanderschaltung (oder manchmal Verkettung) von f und g, Schreibweise: ϕ = g ◦ f oder auch nur ϕ = gf . Hierfür gilt Assoziativität (s. auch Abschnitt A.2): Ist U weitere Menge und ist h : Z → U Abbildung, so haben wir (h ◦ g) ◦ f = h ◦ (g ◦ f ) oder kurz (hg)f = h(gf ), wie man sofort bestätigt. Außerdem gilt für eine beliebige Abbildung f : X → Y : idY ◦ f = f ◦ idX = f. Laut Definition kann die Hintereinanderschaltung zweier Abbildungen f und g nur gebildet werden, wenn das Ziel von f mit der Quelle von g übereinstimmt. 192 ANHANG A. MENGEN UND LOGIK Dies werden wir immer stillschweigend voraussetzen, wenn wir von Hintereinanderschaltungen von Abbildungen sprechen. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Für jede Teilmenge U von X ist dann f (U ) := {f (x) | x ∈ U } Teilmenge von Y . Man nennt sie Bild von U (unter f ). Insbesondere nennt man das Bild von X unter f , also die Teilmenge f (X) von Y , Bild von f , kurz Bild f . Ist U Teilmenge von X, so ist durch u 7→ f (u), u ∈ U , eine Abbildung U → Y definiert. Sie heißt Einschränkung von f auf U und wird mit f |U bezeichnet. Damit gilt z. B. f (U ) = Bild f |U . Natürlich kann man auch das Ziel einschränken. Sei U Teilmenge von X. Für jede Teilmenge V von Y mit f (U ) ⊆ V ist durch u 7→ f (u), u ∈ U , eine Abbildung U → V gegeben, die man mitunter mit f |VU bezeichnet. Eine Abbildung f : X → Y (X, Y Mengen) heißt • injektiv, falls für alle x1 , x2 ∈ X gilt: Aus f (x1 ) = f (x2 ) folgt x1 = x2 • surjektiv, falls es für alle y ∈ Y ein x ∈ X gibt mit f (x) = y • bijektiv, falls f injektiv und surjektiv ist. Es ist klar, daß die Hintereinanderschaltung injektiver (surjektiver, bijektiver) Abbildungen wieder injektiv (surjektiv, bijektiv) ist. Offensichtlich ist die identische Abbildung einer Menge bijektiv. Außerdem bestätigt man sofort, daß folgendes gilt: Ist die Hintereinanderschaltung gf zweier Abbildungen f, g injektiv (surjektiv), so ist f injektiv (g surjektiv). f (U ) Sei f : X → Y eine Abbildung (X, Y Mengen). Es ist klar, daß f |U : U → f (U ) für jede Teilmenge U von X surjektiv ist. Insbesondere induziert f damit eine surjektive Abbildung f |f (X) : X → f (X), die man der Einfachheit halber meist wieder mit f bezeichnet. Ist f injektiv, so ist f |U für jede Teilmenge U von X injektiv und wir haben durch die soeben beschriebene Einschränkung des Zieles von fU eine Bijektion U → f (U ), insbesondere also eine Bijektion X → f (X). Satz und Definition A.19. Seien X, Y Mengen und sei f : X → Y eine Abbildung. f ist bijektiv genau dann, wenn es eine Abbildung g : Y → X gibt mit g ◦ f = idX und f ◦ g = idY . Ist f bijektiv, so ist diese Abbildung g eindeutig durch f bestimmt und heißt zu f inverse Abbildung. Bezeichnung: g = f −1 . A.5. ABBILDUNGEN 193 Beweis. Nehmen wir an, daß es eine Abbildung g : Y → X gibt mit g ◦ f = idX und f ◦ g = idY . Da idX und idY bijektiv sind, folgt aus f ◦ g = idY , daß f injektiv ist, und aus g ◦ f = idX , daß f surjektiv ist (s. die Vorbemerkung zu dieser Aussage). Damit ist f aber bijektiv. Sei nun f bijektiv. Bezeichnen wir mit F den Graph von f , so gibt es laut Definition für alle y ∈ Y genau ein x ∈ X mit (x, y) ∈ F . Damit ist aber G := {(y, x) | x ∈ X, y ∈ Y, (x, y) ∈ F } ⊆ Y × X eine Abbildung (von Y nach X). Bezeichnen wir die entsprechende Zuordnungsvorschrift mit g, so gilt - wie man sofort bestätigt - g ◦ f = idX und f ◦ g = idY . Angenommen, es gibt eine weitere Abbildung g 0 : Y → X mit g 0 ◦ f = idX (und f ◦ g 0 = idY ). Dann folgt g 0 = g 0 ◦ idY = g 0 ◦ (f ◦ g) = (g 0 ◦ f ) ◦ g = idX ◦ g = g, Seien X, Y, V, W Mengen und seien f : X → Y und g : V → W Abbildungen. Wir definieren eine Abbildung h : X × V → Y × W durch h((x, v)) := (f (x), g(v)) für alle x ∈ X, v ∈ V. h nennt man entsprechend Produkt von f und g und schreibt dafür h =: f × g. Es ist klar, daß f × g genau dann injektiv (surjektiv, bijektiv) ist, wenn f und g injektiv (surjektiv, bijektiv) sind. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Für eine Teilmenge U von Y setzt man f −1 (U ) := {x ∈ X | f (x) ∈ U } ⊆ X Urbild von U (unter f ). Für y ∈ Y schreibt man kurz f −1 (y) := f −1 ({y}) und nennt diese Menge Faser von f über y. Es ist klar, daß für y ∈ Y gilt f −1 (y) 6= ∅ genau dann, wenn y ∈ Bild f . Außerdem überzeugt man sich schnell davon, daß durch def x1 ∼ x2 ⇐⇒ f (x1 ) = f (x2 ), x1 , x2 ∈ X, eine Äquivalenzrelation auf X gegeben ist, deren Klassen genau die nicht leeren Fasern von f sind. Mit Hilfe von Abbildungen lassen sich auch Produkte von beliebig vielen Mengen definieren: Definition A.20. Sei (Xι )ι∈I eine (über der Indexmenge I indizierte) Mengenfamilie. Dann heißt Y [ Xι := f : I → Xι | f (ι) ∈ Xι für alle ι ∈ I ι∈I ι∈I 194 ANHANG A. MENGEN UND LOGIK Produkt der Xι , ι ∈ I. Die Elemente von tionen auf (Xι )ι∈I bezeichnet. Q ι∈I Xι werden auch als Auswahlfunk- Bemerkungen A.21. Mit den Bezeichnungen von Definition A.20 haben wir Q 1. ι∈I S Xι ist leer, wenn I 6= ∅ undQXι = ∅ für ein ι ∈ I. (Ist I = ∅, so setzt man ι∈I Xι = ∅ und damit ist ι∈I Xι einelementige Menge.) 2. Wenn I 6= ∅ und Xι 6= ∅ für alle ι ∈ I, so besagt das sogenannte Auswahlaxiom oder Auswahlpostulat, das zu den grundlegenden Axiomen der MenQ genlehre zählt, daß es Auswahlfunktionen gibt, d. h. daß ι∈I Xι 6= ∅, s. hierzu auch Bemerkung A.16.3. Q 3. Wenn I = {1, . . . , n} mit n ∈ N, so kann man f ∈ ι∈I Xι mit seiner ”Wertetabelle”, also mit (f (1), . . . , f (n)) ∈ X1 × . . . × Xn identifizieren. Damit hat man dann n Y Xi := i=1 Y Xι = X1 × . . . × Xn . ι∈{1,...,n} 4. Zur Definition von Produkten kann man natürlich auch von einer Menge X von Mengen ausgehen (statt von einer indizierten Mengenfamilie). Die entsprechende Definition lautet dann Y [ X := f : X → X | f (X) ∈ X für alle X ∈ X . X∈X X∈X Entsprechend werden die Elemente von X bezeichnet. Q X∈X X als Auswahlfunktionen auf Definition A.22. Seien X, Y Mengen und sei f : X → Y eine Abbildung. Ein Schnitt von f ist eine Abbildung g : Y → X mit f g = idY . Lemma A.23. Für Mengen X, Y gilt (1) Eine Abbildung f : X → Y besitzt genau dann einen Schnitt, wenn f surjektiv ist. (2) Sei Y = 6 ∅. Eine Abbildung g : Y → X ist Schnitt einer Abbildung X → Y genau dann, wenn g injektiv ist. Beweis. Besitzt eine Abbildung f : X → Y einen Schnitt g : Y → X oder ist eine Abbildung g : Y → X Schnitt einer Abbildung f : X → Y , so gilt f g = idY und damit ist f surjektiv und g injektiv. Sei nun eine surjektive Abbildung f : X → Y gegeben. Wenn X = ∅, so folgt Y = ∅ und f ist trivialerweise Schnitt Q von sich selbst. Sei also X 6= ∅. Dann ist auch Y nicht leer und somit gilt P := y∈Y f −1 (y) 6= ∅, denn da f surjektiv ist, A.6. KARDINALZAHLEN 195 ist keine Faser von f leer. Sei g ∈ P . Da für alle y ∈ Y gilt g(y) ∈ f −1 (y) und somit (f g)(y) = f (g(y)) = y, folgt f g = idY . Jedes Element von P ist daher ein Schnitt von f ; insbesondere besitzt f einen Schnitt. Sei nun Y 6= ∅ und g : Y → X injektive Abbildung. Dann sind die Fasern von g leer oder einelementig. Wir wählen y0 ∈ Y und definieren eine Abbildung f : X → Y , indem wir für alle x ∈ X setzen ( y f (x) := y0 falls g −1 (x) = {y} falls g −1 (x) = ∅. Laut Konstruktion von f ist klar, daß f g = idY , d. h. g ist Schnitt von f , A.6 Kardinalzahlen Definition A.24. Zwei Mengen X und Y heißen gleichmächtig, wenn es eine Bijektion X → Y gibt. Man bestätigt sofort, daß damit eine Äquivalenzrelation ∼ = auf der Klasse aller ∼ Mengen gegeben ist. Eine Äquivalenzklasse bzgl. = besteht somit aus einer Klasse von Mengen, die paarweise gleichmächtig sind. Definition A.25. (a) Eine Äquivalenzklasse bzgl. der Gleichmächtigkeitsrelation ∼ = auf der Klasse aller Mengen heißt Kardinalzahl. (b) Sei X eine Menge. Diejenige Äquivalenzklasse bzgl. ∼ = (also diejeniige Kardinalzahl), welche X enthält, heißt Kardinalzahl von X, Bezeichnung: ] X oder mitunter auch |X|. (c) Für Kardinalzahlen κ, κ0 setzt man κ ≤ κ0 , wenn es Mengen X, X 0 mit ] X = κ, ] X 0 = κ0 und eine injektive Abbildung X → X 0 gibt. Ohne Beweis geben wir das folgende Resultat, welches zeigt, daß ≤ eine Ordnungsrelation auf der Klasse der Kardinalzahlen ist. Satz A.26 (Schröder-Bernstein). Für Kardinalzahlen κ, λ, µ gilt • κ≤κ • Aus κ ≤ λ und λ ≤ κ folgt κ = λ • Aus κ ≤ λ und λ ≤ µ folgt κ ≤ µ. 196 ANHANG A. MENGEN UND LOGIK A.6.1 Endliche und abzählbare Mengen Definition A.27. (a) Eine Menge X heißt endlich, wenn folgendes gilt: Ist Y Teilmenge von X und gibt es eine surjektive Abbildung Y → X, so folgt schon Y = X. Nicht endliche Mengen werden unendliche Mengen genannt. (b) Eine Menge X heißt abzählbar, wenn es eine bijektive Abbildung N → X gibt, d. h. wenn X und N gleichmächtig sind. (c) Mengen, die endlich oder abzählbar sind, werden als höchstens abzählbar bezeichnet. (d) Mengen, die nicht endlich und nicht abzählbar sind, heißen überabzählbar. Sind X, Y gleichmächtige Mengen, so ist offensichtlich X endlich (abzählbar, überabzählbar) genau dann, wenn Y endlich (abzählbar, überabzählbar) ist. Wir bemerken, daß für eine endliche Menge X gilt: Ist f : X → X surjektiv, so ist f schon bijektiv. Wenn nämlich f (x) = f (y) für x, y ∈ X, x 6= y, so wäre f |Y : Y → X für Y := X \ {y} ebenfalls surjektiv. Wegen Y ⊂ X hätten wir aber einen Widerspruch. Damit ist f injektiv und somit bijektiv. Wir bemerken ferner, daß die Menge N der natürlichen Zahlen nicht endlich ist, denn durch i 7→ i − 1, i ∈ N+ , ist eine surjektive Abbildung N+ → N gegeben (obwohl N+ ⊂ N). Damit sind abzählbare Mengen nicht endlich. Hingegen ist z. B. die leere Menge ∅ endlich, da sie keine echten Teilmengen enthält. Lemma A.28. Teilmengen endlicher Mengen sind endlich. Beweis. Sei X endliche Menge und Y ⊆ X. Weiter sei Z ⊆ Y und f : Z → Y surjektive Abbildung. Wir setzen Z 0 := Z ∪ (X \ Y ) ⊆ X und definieren durch f (z 0 ) falls z 0 ∈ Z 0 g(z ) := für alle z 0 ∈ Z 0 z0 falls z 0 6∈ Z eine Abbildung g : Z 0 → X. Wie man sofort sieht, ist g ebenfalls surjektiv. Nach Voraussetzung gilt daher Z 0 = X und folglich Z = Z 0 ∩ Y = X ∩ Y = Y , Satz A.29. Für eine natürliche Zahl n ∈ N sei Λn := {1, 2, . . . , n} ⊂ N (Λ0 = ∅). Dann gilt: (1) Für jedes n ∈ N ist Λn endliche Menge. A.6. KARDINALZAHLEN 197 (2) Für jede endliche Menge X gibt es eine eindeutig bestimmte natürliche Zahl n und eine Bijektion X → Λn . (3) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent: (i) X ist höchstens abzählbar (ii) Es gibt eine injektive Abblildung X → N (iii) Es gibt eine surjektive Abbildung N → X. (4) Für eine nicht leere Menge X sind die folgenden Aussagen äquivalent: (i) X ist unendlich (ii) Es gibt eine injektive Abblildung N → X (iii) Es gibt eine surjektive Abbildung X → N. Beweis. Sei X 6= ∅ eine (wohlgeordnete) Menge. Für alle n ∈ N definieren wir induktiv über n Abbildungen fn : Λn → X mit fn+1 |Λn = fn und Elemente xn ∈ X wie folgt: Für n = 0 sei f0 die Einbettung ∅ ⊆ X der leeren Menge ∅ = Λ0 in X und x0 sei ein beliebiges Element von X (x0 := min X). Sind fn : Λn → X und xn ∈ X für n ≥ 0 schon definiert, so sei zunächst fn+1 erklärt durch fn (i) falls i ≤ n fn+1 (i) := für alle i ∈ Λn+1 . xn falls i = n + 1. Wenn fn+1 (Λn+1 ) = X, so setzen wir xn+1 := xn . Wenn fn+1 (Λn+1 ) 6= X, so wäh len wir xn+1 ∈ X \ fn+1 (Λn+1 ) beliebig setzen wir xn+1 := min(X \ fn+1 (Λn+1 ) . Laut Konstruktion ist klar, daß für alle n ∈ N gilt: • fn+1 (Λn+1 ) = {x0 , . . . , xn } • x > xn für alle x ∈ X \ fn+1 (Λn+1 ), falls X wohlgeordnet ist • fn+1 |Λn = fn • xn 6∈ fn (Λn ), falls fn nicht surjektiv ist. Damit ist fn+1 injektiv genau dann, wenn fn injektiv ist und fn (Λn ) ⊂ X (d. h. wenn fn injektiv aber nicht surjektiv ist). Nun definieren wir nun eine Abbildung f : N+ → X, indem wir für alle i ∈ N+ setzen f (i) := fi (i). 198 ANHANG A. MENGEN UND LOGIK Es ist klar, daß f |Λn = fn für alle n ∈ N. Wie man sofort bestätigt, sind daher die folgenden Aussagen äquivalent: (i) f ist injektiv (ii) fn ist injektiv für alle n ∈ N (iii) fn ist nicht bijektiv für alle n ∈ N. (1) Wir benutzen vollständige Induktion nach n. Für n = 0 gilt Λ0 = ∅ und diese Menge ist endlich (s. o.). Angenommen, die Aussage ist für n ≥ 0 richtig. Sei Y Teilmenge von Λn+1 und sei ϕ : Y → Λn+1 eine surjektive Abbildung. Wir setzen Z := {y | y ∈ Y, ϕ(y) 6= n + 1} ⊆ Y . Da ϕ surjektiv ist, gilt sogar Z ⊂ Y . Wir definieren nun ψ : Z → Λn durch ψ(z) := ϕ(z) für alle z ∈ Z (d. h. ψ = ϕ|ΛZn ). Da ϕ surjektiv ist, ist auch ψ surjektiv, wie man sofort aus der Definition von Z erkennt. Wenn n + 1 6∈ Z, so ist Z ⊆ Λn und damit gilt nach Induktionsvoraussetzung Z = Λn und folglich Λn+1 \ Y ⊂ Λn+1 \ Z = Λn+1 \ Λn = {n + 1}. Dies ist nur möglich, wenn Λn+1 \ Y = ∅, d. h. Y = Λn+1 . Nehmen wir nun an, daß n+1 ∈ Z. Wegen Z ⊂ Y gibt es ein i ∈ Y mit i 6∈ Z. Wir setzen Z 0 := (Z \ {n + 1}) ∪ {i} ⊆ Λn und definieren eine Abbildung ψ 0 : Z 0 → Λn , indem wir für alle z 0 ∈ Z 0 setzen ψ(z 0 ) wenn z 0 ∈ Z 0 0 ψ (z ) := ψ(n + 1) wenn z 0 = i Da ψ surjektiv ist, ist ψ 0 ebenfalls surjektiv und damit gilt nach Induktionsvoraussetung Z 0 = Λn . Völlig analog wie im vorangehenden Fall folgt nun auch hier Y = Λn+1 und damit ist (1) bewiesen. (2) Sei nun X eine endliche Menge. Wenn X = ∅, so ist nichts mehr zu zeigen. Sei also X 6= ∅. Wir betrachten die eingangs konstruierten Abbildungen fn : Λn → X, n = 0, 1, 2, . . . , sowie f : N+ → X. Wäre f injektiv, so würde f eine Bijektion N+ → f (N+ ) induzieren. Da N+ nicht endlich ist, wäre dann auch f (N+ ) nicht endlich im Widerspruch zu f (N+ ) ⊆ X, s. Lemma A.28. Daher ist f nicht injektiv. Weil f0 trivialerweise injektiv ist, gibt es somit ein n ∈ N derart, daß fn injektiv und fn+1 nicht injektiv ist. Wie wir oben gesehen haben, bedeutet das aber, daß fn surjektiv und damit bijektiv ist. Folglich ist fn−1 : X → Λn Bijektion. Angenommen, es gibt m, n ∈ N und Bijektionen g : X → Λm und h : X → Λn . O. B. d. A. gelte m ≤ n. Dann ist Λm ⊆ Λn und wir haben eine Bijektion A.6. KARDINALZAHLEN 199 hg −1 : Λm → Λn . Nach (1) gilt daher Λm = Λn und somit m = n. Dies zeigt die behauptete Eindeutigkeit von n. (3) (i) ⇒ (iii): Wenn X abzählbar ist, so gibt es definitionsgemäß eine Bijektion N → X und wir sind fertig. Wenn X endlich ist, so dürfen wir nach (2) o. B. d. A. annehmen, daß X = Λn für ein n ∈ N. Wir definieren nun τ : N → Λn durch i + 1 falls i < n τ (i) := für alle i ∈ N. n falls i ≥ n Es ist klar, daß τ surjektiv ist. (iii) ⇒ (ii): Sei τ : N → X surjektive Abbildung und sei σ : X → N Schnitt von τ (s. Lemma A.23). Dann ist σ injektiv. (ii) ⇒ (i): Wir dürfen o. B. d. A. annehmen, daß X ⊆ N und daß X unendlich ist. Dann ist die eingangs definierte Abbildung f : N+ → X injektiv, da fn nach (1) und (2) für kein n ∈ N bijektiv sein kann. Außerdem ist X als Teilmenge von N wohlgeordnet. Wäre f nicht surjektiv, so würde für x ∈ X \ f (N+ ) auf Grund der Definition von f im wohlgeordneten Fall y < x für alle y ∈ f (N+ ) gelten, d. h. wir hätten f (N+ ) ⊆ {0, 1, . . . , n − 1} ∼ = Λn (vermöge i 7→ i + 1, i = 0, 1, . . . , n − 1). Nach Lemma A.28 wäre dann f (N+ ) endlich, Widerspruch. Damit ist f surjektiv, mithin bijektiv, d. h. X ist abzählbar. (4) (i) ⇒ (ii): Wir betrachten wieder die eingangs definierte Abbildung f : N+ → X. Da fn nach (1) und (2) für kein n ∈ N bijektiv ist, ist f injektiv. (ii) ⇒ (iii): Sei ι : N → X injektive Abbildung und sei π : X → N so gewählt, daß ι ein Schnitt π ist (s. Lemma A.23). Dann ist π surjektiv. (iii) ⇒ (i): Sei π : X → N surjektive Abbildung und sei ι : N → X Schnitt von π (s. Lemma A.23). Dann ist ι injektiv, so daß o. B. d. A. N ⊆ X. Nach Lemma A.28 ist X unendlich (da N unendlich ist), A.6.2 Endliche Kardinalzahlen Definition A.30. (a) Eine Kardinalzahl κ heißt endlich, wenn es eine endliche Menge X gibt mit ]X = κ (d. h. X ∈ κ). (b) Eine endliche Kardinalzahl κ wird mit der nach Satz A.29(2) eindeutig bestimmten natürlichen Zahl n identifiziert, für die ]Λn = κ gilt, d. h. man setzt ]X = n für jede zu Λn gleichmächtige Menge X. (c) Die Kardinalzahl der abzählbaren Mengen (= ] N) wird mit ℵ0 bezeichnet (ℵ: erster Buchstabe des hebräischen Alphabets, sprich: aleph). 200 ANHANG A. MENGEN UND LOGIK Wie wir bereits festgestellt haben, ist jede Teilmenge einer endlichen Menge wieder endlich. Wir haben nun aber sogar Folgerung A.31 (aus Satz A.29). (1) Sei X eine endliche Menge. Dann gilt ] Y ≤ ] X für jede Teilmenge Y von X und ] Y < ] X für jede echte Teilmenge Y von X. (2) Jede Teilmenge einer abzählbaren Menge ist höchstens abzählbar. Beweis. (2) ergibt sich aus Satz A.29(3). Um (1) zu zeigen, setzen wir n := ] X und m := ] Y . Nach Satz A.29 (2) haben wir Bijektionen f : X → Λn und g : Y → Λm . Wenn m ≥ n, so wählen wir einen Schnitt h : Λm → Λn der Einbettung ι : Λn → Λm (vgl. Lemma A.23). Da dann hι = idΛn , sind h und folglich f −1 hg : Y → X surjektiv. Es gilt also Y = X und somit m = n, Satz A.32. Seien X, Y Mengen. (1) Ist X endlich, so sind X ∩ Y und X \ Y ebenfalls endlich und es gilt (a) ] (X ∩ Y ) + ] (X \ Y ) = ] X. Ist auch Y endlich, so sind X ∪ Y und X × Y endlich und es gilt (b) ] (X ∪ Y ) + ] (X ∩ Y ) = ] X + ] Y (c) ] (X × Y ) = ] X · ] Y (2) Ist X abzählbar, so gilt (a) X ∩ Y und X \ Y sind höchstens abzählbar. (b) Ist Y endlich, so ist X \ Y abzählbar. (c) Ist Y höchstens abzählbar, so sind X ∪Y und, falls Y nicht leer ist, X ×Y abzählbar. (3) Ist X endlich, so ist P (X) endlich und es gilt ] P (X) = 2] X . (4) Es gibt keine surjektive Abbildung X → P (X). Ist X abzählbar, so ist damit P (X) überabzählbar. Beweis. (1) X ∩ Y und X \ Y sind als Teilmengen von X endlich. Sei zunächst auch Y endlich. Wir setzen m := ] X und n := ] Y . Dann gibt es Bijektionen f : X → Λm und g : Y → Λn und somit ist f × g : X × Y → Λm × Λn ebenfalls Bijektion (vgl. Abschnitt A.5). Zum Nachweis von (c) A.6. KARDINALZAHLEN 201 reicht es daher zu zeigen, daß es eine Bijektion h : Λm × Λn → Λm·n gibt. Da Z × ∅ = ∅ × Z = ∅ für jede Menge Z, dürfen wir dazu o. B. d. A. annehmen, daß m, n ≥ 1. Wir definieren nun eine Abbildung h : Λm × Λn → Λm·n , indem wir für alle (i, j) ∈ Λm × Λn (d. h. 1 ≤ i ≤ m, 1 ≤ j ≤ n) setzen h((i, j)) := n · (i − 1) + j. Eine einfache Rechnung zeigt, daß h bijektiv ist und damit ist (c) gezeigt. Wenn zusätzlich X ∩ Y = ∅, so definieren wir eine Abbildung ϕ : X ∪ Y → Λm+n , indem wir für z ∈ X ∪ Y setzen f (z) wenn z ∈ X ϕ(z) := m + g(z) wenn z ∈ Y Man bestätigt sofort, daß ϕ eine Bijektion ist. Damit ist X ∪ Y endlich und (b) ist in diesem Fall gezeigt. Sei nun Y beliebig. Da (X ∩Y )∩(X \Y ) = ∅, folgt aus dem soeben Gezeigten wegen X = (X ∩ Y ) ∪ (X \ Y ) : ] (X ∩ Y ) + ] (X \ Y ) = ] ((X ∩ Y ) ∪ (X \ Y )) = ] X und damit ist (a) gezeigt. Sei nun Y wieder endlich und X ∩Y beliebig. Wegen X ∪Y = X ∪(Y \(X ∩Y )) und X ∩ (Y \ (X ∩ Y )) = ∅ ist nach dem oben Gezeigten X ∪ Y endlich und wir erhalten unter Verwendung von (a): ] (X ∪ Y ) + ] (X ∩ Y ) = = = = ] (X ∪ (Y \ (X ∩ Y ))) + ] (X ∩ Y ) ] X + ] (Y \ (X ∩ Y )) + ] (X ∩ Y ) ] X + ] Y − ] (X ∩ Y ) + ] (X ∩ Y ) ] X + ] Y. (2) X ∩Y und X \Y sind als Teilmengen von X nach Folgerung A.31(2) höchstens abzählbar. Sei Y endlich. Wäre X \Y endlich, so wäre X = (X \Y )∪Y nach (1) ebenfalls endlich, Widerspruch, und damit ist X \ Y in diesem Fall abzählbar. Sei nun Y höchstens abzählbar. Falls Y 6= ∅ gibt es nach Satz A.29(3) eine surjektive Abbildung g : N → Y . Da X abzählbar ist, haben wir eine bijektive Abbildung f : N → X. f × g : N × N → X × Y ist dann surjektiv (vgl. Abschnitt A.5) Wir zeigen nun, daß N × N abzählbar ist. Hierzu definieren wir eine Abbildung f : N × N → N durch f ((i, j)) := 21 (i + j)(i + j + 1) + i für alle (i, j) ∈ N × N (d. h. i, j ∈ N). Es ist leicht nachzurechnen, daß f bijektiv ist und damit ist N × N abzählbar. Nach Satz A.29(3) ist daher 202 ANHANG A. MENGEN UND LOGIK X × Y höchstens abzählbar. Sei y ∈ Y . Durch x 7→ (x, y), x ∈ X, ist eine Abbildung X → X × {y} gegeben, die offensichtlich bijektiv ist. Damit ist X × {y} insbesondere nicht endlich und wegen X × {y} ⊆ X × Y ist damit auch X × Y nicht endlich und folglich abzählbar. Wenn Y = ∅, so ist X ∪ Y = X sicherlich abzählbar. Sei also Y 6= ∅. Da X abzählbar und somit nicht endlich ist, gibt es eine echte Teilmenge X0 von X und eine surjektive Abbildung f : X0 → X. Nun definieren wir eine Abbildung g : X × Y → X ∪ Y durch f (x) falls x ∈ X0 g((x, y)) := für alle (x, y) ∈ X × Y. y falls x 6∈ X0 Es ist klar, daß g surjektiv ist und somit ist X∪Y nach Satz A.29(3) höchstens abzählbar. Da X ⊆ X ∪ Y ist X ∪ Y nicht endlich und damit abzählbar. (3) Sei m := ] X. Wir benutzen vollständige Induktion nach m, wobei für m = 0 gilt X = ∅ und folglich P (X) = {∅}, so daß in diesem Fall nichts mehr zu zeigen ist. Wenn m = 1, also X = {x} für x ∈ X, so gilt P (X) = {∅, {x}} und dies ist offensichtlich eine endliche Menge mit ] P (X) = 2 = 21 . Sei also m ≥ 2. Wir wählen x ∈ X und setzen Y := X\{x}. Dann gilt ] Y = m−1 und nach Induktionsvoraussetzung ist P (Y ) endliche Menge mit ] P (Y ) = 2m−1 . Wir definieren nun eine Abbildung ρ : P (Y ) × {∅, {x}} → P (X) durch | {z } =P ({x}) ρ((A, B)) := A∪B für alle (A, B) ∈ P (Y )×{∅, {x}} (d. h. A ⊆ Y , B ⊆ {x}). Es ist klar, daß ρ eine Bijektion ist und damit folgt die Behauptung aus (1c). (4) Angenommen, es gibt eine surjektive Abbildung f : X → P (X). Sei Y := {x ∈ X | x 6∈ f (x)}. Wegen der Surjektivität von f gibt es ein y ∈ X mit f (y) = Y . Wäre y ∈ Y , so würde folgen y 6∈ f (y) = Y , Widerspruch. Also gilt y 6∈ Y und damit y ∈ f (y) = Y , was ebenfalls einen Widerspruch darstellt. Damit war die Annahme falsch und die erste Aussage ist gezeigt. Zum Nachweis der zweiten Aussage sei X abzählbare Menge und ϕ : X → N eine Bijektion. Angenommen, P (X) ist höchstens abzählbar. Dann gibt es nach Satz A.29 (3) eine surjektive Abbildung f : N → P (X) und damit ist f ϕ : X → P (X) ebenfalls surjektiv, was aber nach dem soeben Gezeigten unmöglich ist, Für unendliche Mengen gibt es demgegenüber Besonderheiten, von denen einige der Vollständigkeit halber in dem folgenden Satz zusammenfaßt werden sollen. Satz A.33. Sei X eine unendliche und Y 6= ∅ eine höchstens abzählbare Menge. Weiter seien Y0 , Y1 , . . . Mengen mit ] Yi ≤ ] X für alle i ∈ N. Ferner sei für jedes x ∈ X eine höchstens abzählbare Menge Zx gegeben. Dann gilt A.6. KARDINALZAHLEN (1) ] S (2) ] S i≥0 203 Yi ≤ ] X. x∈X Zx ≤ ] X. (3) ] (X × Y ) = ] X. Beweis. Für alle i ∈ N und alle x ∈ X wählen wir injektive Abbildungen S µi : Yi → X und νx : Zx → N. Außerdem S definieren wir eine Abbildung Φ : x∈X Zx → P (X), indemQwir für alle z ∈ x∈X Zx setzen Φ(z) := {x ∈ X | S z ∈ Zx } = 6 ∅, und wählen πS∈ z∈Z Φ(z). Damit definieren wir Abbildungen S µ : i≥0 Yi → X × N und S ν : x∈X Zx → X × N, indem wir für alle y ∈ i≥0 Yi bzw. für alle z ∈ x∈X Zx setzen • µ(y) := (µi (y), i), wenn i := min{n ∈ N | y ∈ Yn } und • ν(z) := (π(z), νπ(z) (z)). Man bestätigt sofort, daß µ, ν injektiv sind, so daß nur (3) bewiesen werden muß. Wir bemerken, daß bei Vorliegen nur endlich vieler Mengen Y0 , . . . , Yn mit den Sn entsprechenden Eigenschaften eine injektive Abbildung i=0 Yi → X × {0, . . . , n} existiert. Wir zeigen zunächst: Ist Y endlich, so gilt ] (X ∪ Y ) = ] X. Mittels Induktion nach ] Y können wir uns hierzu auf den Fall ] Y = 1, d. h. Y = {y} beschränken. Wenn y ∈ X, so sind wir fertig. Sei also y 6∈ X. Da X unendlich ist, gibt es laut Definition eine echte Teilmenge X 0 ⊂ X von X und eine Bijektion ψ : X → X 0 . Wir wählen nun x ∈ X \ X 0 und definieren eine Abbildung ϕ : X ∪ Y → X, indem wir für alle z ∈ X ∪ Y setzen ( ψ(z) wenn z ∈ X ϕ(z) := x wenn z = y. Man bestätigt sofort, daß ϕ injektiv ist. Da X ⊆ X ∪Y , ergibt sich ] (X ∪Y ) = ] X aus dem Satz von Schröder-Bernstein, s. Satz A.26. Sei nun Y beliebig. Wir setzen U := {(U, ϕ) | U ⊆ X, ϕ : U × Y → U Bijektion} Nach Satz A.29(4) enthält X eine abzählbare Teilmenge U und nach Satz A.32(2c) ist U × Y abzählbar, d. h. es gibt eine Bijektion ϕ : U × Y → U . Da somit (U, ϕ) ∈ U, gilt U 6= ∅. Für (U, ϕ), (V, ψ) ∈ U gelte (U, ϕ) (V, ψ), wenn U ⊆ V und ϕ = ψ|U ×Y . Man bestätigt sofort, daß Ordnungsrelation auf U ist und daß jede Kette in U ein Supremum in U besitzt. Nach dem Zornschen Lemma besitzt U damit maximale Elemente. Sei (U0 , ϕ0 ) ein solches. 204 ANHANG A. MENGEN UND LOGIK Wäre X \ U0 unendlich, so gäbe es wiederum nach Satz A.29(4) eine abzählbare Teilmenge Z ⊆ X \ U0 und eine bijektive Abbildung ψ : Z × Y → Z (s. oben). Dann wäre aber die durch ( ϕ0 (x) wenn x ∈ U0 (x, y) 7→ , (x, y) ∈ (U0 ∪ Z) × Y ψ(x) wenn x ∈ Z definierte Abbildung ϕ : (U0 ∪ Z) × Y → U0 ∪ Z bijektiv, Widerspruch. Damit ist X \ U0 endlich. Ist auch Y endlich, so ist (X \ U0 ) × Y endlich nach Satz A.32(1c) und wir erhalten mit dem bereits Gezeigten ] (X × Y ) = ] ((U0 × Y ) ∪ ((X \ U0 ) × Y )) = ] (U0 × Y ) = ] U0 = ]X. Sei nun Y abzählbar. Nach dem gerade Gezeigten ist dann Y1 := (X \ U0 ) × Y leer oder abzählbar. Nach den Konstruktionen zu Beginn dieses Beweises haben wir mit Y0 := U0 × Y einen Monomorphismus µ : X × Y = Y0 ∪ Y1 → X × {0, 1} und daher gilt ] (X × Y ) ≤ ] (X × {0, 1}) = ]X nach dem bereits Gezeigten. Sei y0 ∈ Y . Durch x 7→ (x, y0 ), x ∈ X, ist eine injektive Abbildung X → X × Y gegeben, so daß ] X ≤ ] (X × Y ). Aus dem Satz von Schröder-Bernstein (s. Satz A.26) folgt nun die Behauptung, Beispiele A.34. (a) Z und Q sind abzählbar. (b) R ist überabzählbar. Begründung. (a) Setzen wir −N := {−n | n ∈ N} ⊆ Z, so ist durch n 7→ −n, n ∈ N, eine Bijektion N → −N gegeben und damit ist −N abzählbar. Nach Satz A.32(2c) ist daher Z = N ∪ −N abzählbar. Für q ∈ Q \ {0} gibt es eindeutig bestimmte teilerfremde Zahlen nq ∈ Z \ {0} und zq ∈ N+ mit q = nzqq . Setzen wir n0 := 0 und z0 := 1, so ist durch q 7→ (nq , zq ), q ∈ Q, eine injektive Abbildung Q → Z × N gegeben. Nach Satz A.32(2c) und Folgerung A.31(2) ist daher Q höchstens abzählbar. Wegen N ⊂ Q ist Q nicht endlich und damit abzählbar. (b) Angenommen, R wäre höchstens abzählbar. Dann gäbe es nach Satz A.29(3) eine surjektive Abbildung f : N → R. Für jedes n ∈ N schreiben wir die Dezimaldarstellung von f (n) wir folgt auf f (n) = an , zn1 zn2 . . . mit an ∈ Z, zni ∈ {0, . . . , 9} für alle i ∈ N+ . A.6. KARDINALZAHLEN 205 Sei dann ( 1 falls zii 6= 1 ρ := 0, u1 u2 . . . ∈ R mit ui := , i = 1, 2, . . . 2 sonst Man bestätigt sofort, daß sich f (m) und ρ für jedes m ∈ N in der m-ten Nachkommastelle unterscheiden, d. h. es gilt f (m) 6= ρ für alle m ∈ N im Widerspruch zur Surjektivität von f , Bemerkung A.35. Man kann zeigen, daß es unter allen Kardinalzahlen, die echt größer sind als ℵ0 , eine kleinste gibt. Diese bezeichnet man mit ℵ1 . Aus Beispiel A.34(b) ergibt sich ]R ≥ ℵ1 . Die sogenannte Kontinuumshypothese (Kontinuum: ältere Bezeichnung für die Menge der reellen Zahlen) besagt, daß hierbei Gleichheit gelten sollte. 1940 zeigte Gödel jedoch, daß die Kontinuumshypothese unabhängig ist von den übrigen mengentheoretischen Axiomen, also nicht aus diesen abgeleitet (bewiesen) werden kann. 1963 zeigte Cohen, daß dies auch für das Negat der Kontinuumshypothese gilt. Ist also die Mengentheorie ohne Kontinuumshypothese bzw. ihrem Negat widerspruchsfrei, so ist sie sowohl mit Kontinuumshypothese als auch mit dem Negat der Kontinuumshypothese widerspruchsfrei. 206 ANHANG A. MENGEN UND LOGIK Anhang B Polynome Sei R ein Ring. Indem wir Abbildungen N → R mit ihren Wertetabellen identifizieren, haben wir (s. Bemerkung 3.9.3) RN = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R} und R(N) = {(r0 , r1 , . . . ) | r0 , r1 , · · · ∈ R, ri = 0R für fast alle i ∈ N}. RN ist Links- und Rechts-R-Modul, R(N) ist Links- und Rechts-R-Untermodul von RN und beide sind mit der komponentenweisen Addition insbesondere abelsche Gruppen. Wir definieren nun eine Multiplikation in RN und in R(N) , die sich von der in Bemerkung 3.6.7 eingeführten Multiplikation unterscheidet. Definition B.1 (Cauchyprodukt). Sei R ein Ring. Für (r0 , r1 , . . . ), (s0 , s1 , . . . ) ∈ RN setzen wir n−te Stelle z }| { P (r0 , r1 , . . . ) · (s0 , s1 , . . . ) := (r0 s0 , r1 s0 + r0 s1 , . . . , ni=0 rn−i si , . . . ) ∈ RN . Wir bemerken, daß damit für (r0 , r1 , . . . ) ∈ RN und s ∈ R gilt: s(r0 , r1 , r2 , . . . ) = (sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . ) · (r0 , r1 , r2 , . . . ) und (r0 , r1 , r2 , . . . )s = (r0 s, r1 s, r2 s, . . . ) = (r0 , r1 , r2 , . . . ) · (s, 0R , 0R , . . . ). Wir haben nun Lemma B.2. Sei R ein Ring. Dann gilt: (1) RN ist mit der komponentenweisen Addition und dem Cauchyprodukt ein Ring mit Einselement (1R , 0R , . . . ) und R(N) ist Unterring von RN . Ist R kommutativ, so sind RN und R(N) kommutative R-Algebren (s. Bemerkung 3.6.8) (2) Durch r 7→ (r, 0R , 0R , . . . ), r ∈ R, ist ein injektiver Ringhomomorphismus R → R(N) definiert, vermöge dessen wir R als Unterring von R(N) und so207 208 ANHANG B. POLYNOME mit von RN auffassen, d. h. für jedes r ∈ R wird das Element der Gestalt (r, 0R , 0R , . . . ) aus RN mit r identifiziert. (3) Z(RN ) = Z(R)N und Z(R(N) ) = Z(R)(N) (zur Definition von Z(R) s. Übungsaufgabe I43). i−te i Stelle (0R , . . . , 0R , 1R , 0R , . . . ) (4) Mit X := (0R , 1R , 0R , 0R , . . . ) gilt X = ∈ Z(R(N) ) für alle i ∈ N und mit der in (2) beschriebenen Identifizierung haben wir damit R(N) = {r0 + r1 X + r2 X 2 + . . . | r0 , r1 , . . . ∈ R, ri = 0R für fast alle i ∈ N} = R[X] . Beweis. (1) Es ist klar, daß das Cauchyprodukt von Elementen aus R(N) wieder in R(N) liegt und daß (1R , 0R , . . . ) ∈ R(N) ⊂ RN neutrales Element bzgl. des Cauchyproduktes ist. Seien nun f := (r0 , r1 , . . . ), g := (s0 , s1 , . . . ), h := (t0 , t1 , . . . ) Elemente aus RN . Bezeichnen wir für n ∈ N mit un ∈ R die n-te Komponente von (f g)h und mit vn ∈ R die n-te Komponente von (f + g)h , so gilt un = n n−i X X i=0 j=0 k n X n−i n X X X sk−l tl rn−k rn−i−j sj ti = rn−i−j sj ti = i=0 j=0 k=0 l=0 und dies ist die n-te Komponente von f (gh), d. h. wir haben (f g)h = f (gh). Weiter gilt n n n n X X X X vn = (rn−i + sn−i )ti = (rn−i ti + sn−i ti ) = rn−i ti + sn−i ti i=0 i=0 i=0 i=0 und dies ist die n-te Komponente von f h + gh, d. h. wir haben (f + g)h = f h + gh und entsprechend f (g + h) = f g + f h. Ist R kommutativ, so sind RN und R(N) nach (3) kommutativ. Da RN und R(N) R-Moduln sind, folgt die R-Algebra-Struktur aus obigen Vorüberlegungen. (2) ergibt sich sofort aus der Definition des Cauchyproduktes, wonach für r, s ∈ R gilt (r, 0R , 0R , . . . ) · (s, 0R , 0R , . . . ) = (rs, 0R , 0R , . . . ). (3) Sei (r0 , r1 , r2 , . . . ) ∈ Z(RN ) (∈ Z(R(N) )). Für alle s ∈ R gilt dann (s. oben) (sr0 , sr1 , sr2 , . . . ) = (s, 0R , 0R , . . . )(r0 , r1 , r2 , . . . ) = (r0 , r1 , r2 , . . . )(s, 0R , 0R , . . . ) = (r0 s, r1 s, r2 s, . . . ), 209 also sri = ri s und damit ri ∈ Z(R) für alle i ∈ N. Folglich gilt (r0 , r1 , . . . ) ∈ Z(R)N (∈ Z(R)(N) ) und dies liefert Z(RN ) ⊆ Z(R)N (Z(R(N) ) ⊆ Z(R)(N) ). Die jeweils umgekehrte Inklusion ergibt sich unmittelbar aus der Definition des Cauchyproduktes. (4) folgt mittels Induktion nach i, Definition B.3. Sei R ein Ring. (a) R(N) heißt mit der in Lemma B.2 beschrieben Ringstruktur Polynomring in einer Unbestimmten mit Koeffizienten aus R. Seine Elemente nennt man Polynome (in einer Unbestimmten). Das Polynom X := (0R , 1R , 0R , 0R , . . . ) heißt Unbestimmte. Faßt man R als Unterring von R(N) auf, so gilt R(N) = R[X] (sprich ”R adjungiert X”), so daß man kurz vom Polynomring in X über R spricht und seine Elemente in der Form r0 + r1 X + r2 X 2 + . . . mit r0 , r1 , r2 , . . . ∈ R, ri = 0R für fast alle i ∈ N, aufschreibt. r0 , r1 , . . . heißen Koeffizienten von r0 + r1 X + r2 X 2 + . . . ∈ R[X]. Dabei können Summanden der Form 0R X i (i ∈ N) fortgelassen werden. (b) In Analogie zu (a) schreibt man die Elemente von RN in der Form r0 + r1 X + r2 X 2 +. . . auf und nennt sie demzufolge formale Potenzreihen in einer Unbestimmten. Entsprechend nennt man RN formalen Potenzreihenring in einer Unbestimmten mit Koeffizienten aus R (oder kurz: in X über R) und bezeichnet ihn mit R[[X]]. (c) Für f ∈ R[[X]], f = r0 + r1 X + r2 X 2 + . . ., setzen wir supp f := {i ∈ N | ri 6= 0R } (Support oder Träger von f ). Bemerkungen B.4. 1. Die in Definition B.3 (a) bzw. (b) anstelle der Tupelschreibweise eingeführte Schreibweise der Elemente von R[X] bzw. von R[[X]] hat den Vorteil, daß die Multiplikation durch distributives Ausmultiplizieren der Faktoren bewerkstelligt werden kann, z. B. (1R −X)(1R +X +X 2 +. . .) = 1R +X +X 2 +. . .−X −X 2 −X 3 −. . . = 1R . 2. Für f ∈ R[[X]] gilt f = 0 genau dann, wenn supp f = ∅ und f ∈ R[X] genau dann, wenn supp f endlich ist. 3. Die Unbestimmte kann natürlich auch anders bezeichnet werden. Man sagt dann z. B.: ”Sei R[Y ] Polynomring (oder R[[Y ]] formaler Potenzreihenring), wobei R ein Ring und Y eine Unbestiimmte ist”. 4. Nach Lemma B.2(2) ist R Unterring von R[X]. Die Elemente von R nennt man daher auch konstante Polynome. 210 ANHANG B. POLYNOME 5. Das Nullelement von R[X], also dasjenige Polynom, dessen Koeffizienten sämtlich gleich 0R sind, wird Nullpolynom genannt und meist kurz mit 0 bezeichnet. Es stimmt mit dem konstanten Polynom 0R überein. 6. Sind X, Y Unbestimmte, so kann man entsprechend den Polynomring bzw. den formalen Potenzreihenring R[X][Y ] bzw. R[[X]][[Y ]] definieren. Da Y ∈ Z(R[X]) = Z(R)[X] und entsprechend Y ∈ Z(R[[X]]) = Z(R)[[X]], kommt es auf die Reihenfolge der Unbestimmten dabei nicht an, d. h. wir können schreiben R[X, Y ] := R[X][Y ] und entsprechend R[[X, Y ]] := R[[X]][[Y ]]. 7. Damit kann man induktiv über n ∈ N den Polynomring und den formalen Potenzreihenring in n Unbestimmten über R definieren. Da auch hier die Unbestimmten jeweils zentrale Elemente sind, kommt es dabei auf deren Reihenfolge nicht an. Sind A, B jeweils endliche Mengen von Unbestimmten, so sind R[A] und R[B] Unterringe von R[A ∪ B]. Ist nun X eine beliebige Menge von Unbestimmten, so kann man daher den Polynomring R[X ] in X über R definieren durch S R[X ] := R[A] . A⊆X A endlich Entsprechend ist der formale Potenzreihenring R[[X ]] erklärt. Definition B.5 (Grad eines Polynoms). Sei R ein Ring und X eine Unbestimmte. Für f ∈ R[X] setzen wir ( max supp f f 6= 0 (a) grad f := (Grad von f ). −∞ f =0 (b) Wenn f 6= 0 und f = r0 +r1 X +. . .+rd X d mit d := gradf und r0 , . . . , rd ∈ R, so heißt rd Leitkoeffizient von f , kurz lk f . Für f = 0 setzen wir lk 0 := 0R . Bevor wir erste Aussagen formulieren, vereinbaren wir, daß die übliche Ordnungsrelation und die übliche Addition in Z wie folgt auf Z ∪ {−∞} (und damit auf N ∪ {−∞}) erweitert wird: −∞ ≤ x und − ∞ + x = x + (−∞) = −∞ für alle x ∈ Z ∪ {−∞}. Der Vollständigkeit halber wiederholen wir eine Definition aus Übungsaufgabe W4: Definition B.6 (Nullteiler). Sei R ein Ring. (a) Ein Element r ∈ R heißt linker (rechter) Nullteiler in R, wenn es ein t ∈ R gibt mit t 6= 0R und rt = 0R (tr = 0R ). r heißt Nullteiler in R, wenn r linker oder rechter Nullteiler in R ist. 211 (b) Ein Element r ∈ R heißt Nichtnullteiler in R, wenn r kein Nullteiler in R ist. (c) Man sagt, R sei nullteilerfrei, wenn R außer 0R keine Nullteiler besitzt. Ein Integritätsring ist ein kommutativer nullteilerfreier Ring. Bemerkungen B.7. 1. Jede Einheit eines Ringes R ist Nichtnullteiler in R. 2. Ein Ring R ist nullteilerfrei genau dann, wenn für alle x, y ∈ R \ {0R } gilt xy 6= 0R (oder aus xy = 0R folgt, daß x = 0R oder y = 0R ). 3. Jeder Unterring eines nullteilerfreien Ringes ist wieder nullteilerfrei. 4. Z ist Integritätsring. 5. Jeder Unterring eines Körpers ist ein Integritätsring. Man kann zeigen, daß auch die Umkehrung hiervon gilt, d. h. jeder Integritätsring ist Unterring eines Körpers. Lemma B.8. Sei R ein Ring und X eine Unbestimmte. Dann haben wir für f, g ∈ R[X]: (1) grad (f + g) ≤ max{grad f, grad g}. Dabei gilt grad (f + g) < max{grad f, grad g} genau dann, wenn grad f = grad g ≥ 0 und lk f + lk g = 0R . (2) grad f g ≤ grad f + grad g. Dabei gilt grad f g < grad f + grad g genau dann, wenn f, g 6= 0 und (lk f )(lk g) = 0R . (3) Wenn lk f Nichtnullteiler in R ist, so ist f Nichtnullteiler in R[X]. Beweis. (3) folgt aus (2). (1) und (2) sind klar, wenn f = 0 oder g = 0. Gelte also f 6= 0, g 6= 0. Sei f =: r0 + r1 X + . . . + rm X m , m := grad f ≥ 0 und g =: s0 + s1 X + . . . + sn X n , n := grad g ≥ 0. Dann gilt lk f = rm 6= 0R und lk g = sn 6= 0R . Wir setzen f + g =: u0 + u1 X + . . . und f g =: v0 + v1 X + . . .. (1) Da up = rp + sp für alle p ∈ N, gilt up = 0R für alle p > max{m, n}, d. h. grad (f + g) ≤ max{m, n}. Wenn m = n ≥ 0 und lk f + lk g = 0R , so folgt um = 0R , also gilt grad (f + g) < m = max{m, n}. Wenn umgekehrt grad (f + g) < max{m, n}, so gilt rm + sm = um = 0R oder rn + sn = un = 0R . Wegen rm 6= 0R und sn 6= 0R ist dies aber nur möglich, wenn m = n und rm + sm = 0R . Pp (2) Da vp = i=0 rp−i si , gilt vp = 0R für alle p > m + n, d. h. wir haben grad f g ≤ m + n. Da vm+n = rm sn , gilt grad f g < m + n genau dann, wenn rm sn = 0R , 212 ANHANG B. POLYNOME Definition B.9. Sei R ein Ring und X eine Unbestimmte. Man sagt, in R[X] gelte der Gradsatz, wenn grad f g = grad f + grad g für alle f, g ∈ R[X]. Folgerung B.10. Sei R ein Ring und X eine Unbestimmte. Dann sind die folgenden Aussagen äquivalent: (i) In R[X] gilt der Gradsatz (ii) R ist nullteilerfrei (iii) R[X] ist nullteilerfrei Beweis. (i) =⇒ (iii): Seien f, g ∈ R[X] \ {0}. Da grad f g = grad f + grad g ≥ 0 + 0 = 0 > −∞, gilt f g 6= 0, d. h. R[X] ist nulltiterfrei. (iii) =⇒ (ii) ist trivial, da R Unterring von R[X] ist. (ii) =⇒ (i) ergibt sich sofort aus Lemma B.8(2), Anhang C Übungsaufgaben 213 Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 1 Abgabe in den Seminaren der Woche vom 17. 10. - 21. 10. 2011 1. Für eine reelle Zahl x seien m, n diejenigen eindeutig durch x bestimmten ganzen Zahlen, für die x − 1 < m ≤ x ≤ n < x + 1 gilt. m nennt man Abrundung von x, kurz bxc, und n Aufrundung von x, kurz dxe. Zeigen Sie: (a) Für alle reellen Zahlen x gilt bxc + d−xe = 0 . (b) Für alle ganzen Zahlen m und alle reellen Zahlen x gilt bm + xc = m + bxc und dm + xe = m + dxe . 2. Zeigen Sie, dass für alle ganzen Zahlen a, b mit b > 0 gilt jak a+1 +1= . b b 3. (Division mit Rest) Sei m von 0 verschiedene ganze Zahl. Dann gibt es für jede ganze Zahl n eindeutig bestimmte ganze Zahlen q, r mit 0 ≤ r < |m| und n = qm + r. q heißt partieller Quotient und r Rest der Division von n durch m. (a) Zeigen Sie, dass ( n , wenn m > 0 q = m n , wenn m < 0 m (b) Ermitteln Sie den partiellen Quotienten und den Rest der Division von 1126 durch −143 4. (Zusatzaufgabe) Mit N × N bezeichnen wir die Menge der geordneten Paare natürlicher Zahlen, d. h. N × N = {(i, j) | i, j ∈ N}, und definieren eine Abbildung f : N × N → N durch 1 f (i, j) := (i + j)(i + j + 1) + i für alle (i, j) ∈ N × N . 2 Zeigen Sie, dass f bijektiv ist. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 2 Abgabe in den Seminaren vom 24. 10. - 27. 10. 2011 5. Zeigen Sie, dass ein rechtwinkliges Dreieck mit ganzzahligen Seitenlängen einen ganzzahligen Flächeninhalt hat. 6. Zeigen Sie, dass für Mengen X, Y gilt P (X) ∩ P (Y ) = P (X ∩ Y ). (Für eine Menge A ist P (A) die Potenzmenge von A, also die Menge aller Teilmengen von A, s. Abschnitt A2 des Vorlesungsskriptes.) Gilt eine entsprechende Aussage auch, wenn man dabei ”∩” überall durch ”∪” ersetzt? 7. Beweisen Sie die de Morganschen Gesetze: Für Teilmengen X, Y einer Menge A gilt (a) A \ (X ∪ Y ) = (A \ X) ∩ (A \ Y ) und (b) A \ (X ∩ Y ) = (A \ X) ∪ (A \ Y ). 8. (Zusatzaufgabe) Für Mengen X, Y setzen wir X ∗ Y := (X ∪ Y ) \ (X ∩ Y ) (symmetrische Differenz vonX und Y ). Zeigen Sie, dass für Mengen X, Y, Z gilt (a) X ∗ Y = Y ∗ X (b) X ∗ ∅ = X (c) X ∗ X = ∅ (d) (X ∗ Y ) ∗ Z = X ∗ (Y ∗ Z) Hinweis: Sie können verwenden, dass (X ∗ Y ) ∗ Z = (X ∪ Y ∪ Z) \ (X ∩ Y ) ∪ (X ∩ Z) ∪ (Y ∩ Z) ∪ (X ∩ Y ∩ Z) . (e) (X ∗ Y ) ∩ Z = (X ∩ Z) ∗ (Y ∩ Z). Hinweis: Sie können verwenden, dass für Mengen A, B, C gilt (A \ B) ∩ C = (A ∩ C) \ (B ∩ C) . 9. (Zusatzaufgabe) Sei n ∈ N, n ≥ 2. Zeigen Sie: n ist Primzahl genau dann, wenn n Teiler von n i ist für alle i = 1, . . . , n−1. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 3 Abgabe in den Seminaren vom 1. - 3. und 10. 11. 2011 10. Sei L ⊆ Rn Lösungsmenge eines linaren homogenen Gleichungssystems in n Unbestimmten mit reellen Koeffizienten. Zeigen Sie, dass L 6= ∅ und für alle x, y ∈ L und alle α ∈ R gilt x ± y ∈ L und αx ∈ L . 11. Man bestimme für die folgenden linearen Gleichungssysteme jeweils die Lösungsmenge L ⊆ Rn , wobei n = 3 in (a) und n = 4 in (b): X1 + 2X2 − 6X3 = 1 (a) 2X1 − X2 + 3X3 = 7 5X1 − X2 + 3X3 = 16 3X1 − 2X2 + 5X3 − 2X4 = −1 1 (b) −2X1 + X2 − 3X3 + 3X4 = −X1 − X3 + 4X4 = 0 12. Sei n ∈ N+ . Bestimmen Sie in Abhängigkeit von λ ∈ R die Lösungsmenge L(λ) des folgenden linearen Gleichungssystems λX1 + X2 + X3 + . . . X1 + λX2 + X3 + . . . .. .. .. . . . X 1 + X 2 + X3 + . . . + + Xn Xn .. . = 1 = 1 .. . + λXn = 1 13. (Zusatzaufgabe, Korrespondenzen I) Seien X, Y Mengen. Eine Teilmenge F von X × Y heißt Korrepondenz von X nach Y . X nennt man Quelle und Y Ziel von F . Sei F ⊆ X × Y . Wir setzen (s. hierzu auch Abschnitt A.5 des Skriptes) D(F ) := {x ∈ X | es gibt ein y ∈ Y mit (x, y) ∈ F } ⊆ X bzw. W (F ) := {y ∈ Y | es gibt ein x ∈ X mit (x, y) ∈ F } ⊆ Y, den Definitionsbereich bzw. den Wertebereich von F sowie F −1 := {(y, x) | (x, y) ∈ F } ⊆ Y × X (zu F inverse Korrespondenz). Es ist klar, daß (F −1 )−1 = F und D(F −1 ) = W (F ), W (F −1 ) = D(F ). Ist Z weitere Menge und ist G ⊆ Y ×Z, so wird die Hintereinanderschaltung oder Verkettung G ◦ F ⊆ X × Z von F und G erklärt durch G ◦ F := {(x, z) | es gibt ein y ∈ Y mit (x, y) ∈ F und (y, z) ∈ G}. Wir bemerken, daß G ◦ F nur definiert ist, wenn die Quelle von G mit dem Ziel von F übereinstimmt. Diese Forderung bezeichnet man auch als Verkettungsbedingung. Es ist klar, dass genau dann G ◦ F 6= ∅ gilt, wenn W (F ) ∩ D(G) 6= ∅. Zeigen Sie, dass mit diesen Bezeichnungen gilt: (a) (H ◦ G) ◦ F = H ◦ (G ◦ F ) für alle H ⊆ Z × U , U weitere Menge (Assoziativität der Hintereinanderschaltung) (b) ∆D(F ) ⊆ F −1 ◦ F und ∆W (F ) ⊆ F ◦ F −1 (c) (G ◦ F )−1 = F −1 ◦ G−1 (d) D(G ◦ F ) ⊆ D(F ) mit Gleichheit, wenn W (F ) ⊆ D(G) (e) W (G ◦ F ) ⊆ W (G) mit Gleichheit, wenn D(G) ⊆ W (F ). Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 4 Abgabe in den Seminaren vom 07. 11. - 10. 11. 2011 14. Man bestimme für die folgenden linearen Gleichungssysteme jeweils die Lösungsmenge L ⊆ R4 X1 2X1 (a) X1 X1 (b) + 2X2 + X2 + 2X2 + X2 X2 2X1 − 3X2 3X1 − 7X2 X1 − 4X2 + X3 + X3 + 2X3 + X3 + X4 + 2X4 + X4 + X4 = = = = 0 1 2 1 − X3 − X4 − X3 − 5X4 + X3 − 5X4 + 2X3 = = = = −1 −7 −8 −1 15. Bestimmen Sie in Abhängigkeit von λ ∈ Q die Lösungsmenge L(λ) ⊆ Q3 des folgenden linearen Gleichnugssystems X1 + X2 + X3 = λ X1 + (1 + λ)X2 + X3 = 2λ X1 + X2 + (1 + λ)X3 = 0 16. Für welche s ∈ Q ist das folgende lineare Gleichungssystem lösbar? Für diese Werte von s bestimme man jeweils die Lösungsmenge 2X1 − 3X2 + 8X3 = 2 X1 − X2 + 2X3 = s2 3X1 − X2 − 2X3 = 3s3 17. (Zusatzaufgabe) Seien a, b, c ∈ Q mit a + b + c 6= 0. Zeigen Sie, dass das folgende homogene lineare Gleichungssystem nur die Nulllösung besitzt aX1 + bX2 + cX3 aX2 + bX3 + cX4 aX3 + bX4 + cX5 cX1 + aX4 + bX5 bX1 + cX2 + aX5 = = = = = 0 0 0 0 0 18. (Zusatzaufgabe, Korrespondenzen II) Seien X, Y Mengen und F ⊆ X × Y (d. h. F ist eine Korrepondenz von X nach Y , s. Übungsaufgabe 13). F heißt monomorph (oder auch injektiv), wenn für alle x1 , x2 ∈ X gilt: Wenn es ein y ∈ Y gibt mit (x1 , y), (x2 , y) ∈ F , so folgt x1 = x2 . F heißt Funktion (Abbildung), wenn es für jedes x ∈ X höchstens (genau) ein y ∈ Y gibt mit (x, y) ∈ F . (Damit ist eine Funktion genau dann Abbildung, wenn ihr Definitionsbereich mit ihrer Quelle übereinstimmt.) Sei Z weitere Menge und G ⊆ Y × Z. Zeigen Sie: (a) F ist Funktion genau dann, wenn F −1 monomorph ist. (b) F −1 ◦ F = ∆D(F ) genau dann, wenn F monomorph ist. (c) F ◦ F −1 = ∆W (F ) genau dann, wenn F eine Funktion ist. (d) Wenn G ◦ F monomorph ist mit W (F ) ⊆ D(G), so ist F monomorph. (e) Wenn G ◦ F Funktion ist mit D(G) ⊆ W (F ), so ist G Funktion. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 5 Abgabe in den Seminaren am 14., 15., 17. und 23. 11. 2011 n . 19. Sei n ∈ N mit n ≥ 2 und seien b1 , . . . , bn ∈ Q. Wir setzen b := b1 +...+b n−1 n Zeigen Sie, dass (b − b1 , . . . , b − bn ) ∈ Q einzige Lösung des linearen Gleichungssystems X2 + X3 + . . . + Xn−2 + Xn−1 + Xn = b1 X1 + X3 + . . . + Xn−2 + Xn−1 + Xn = b2 ................................................................... X1 + X2 + X3 + . . . + Xn−2 + Xn = bn−1 X1 + X2 + X3 + . . . + Xn−2 + Xn−1 = bn ist. 20. Sei L ⊆ Rn (n ∈ N+ ) Lösungsmenge eines linearen Gleichungssystems in n Unbestimmten mit reellen Koeffizienten. Weiter seien x0 , . . . , xp ∈ L (p ∈ N). Zeigen Sie o nP Pp p s = 1 ⊆ L. s x | s , . . . , s ∈ R, k k k 0 p k=0 k=0 21. Für alle a, b ∈ Q setzen wir a b := a · b + a + b. (a) Zeigen Sie, dass (Z, ) ein kommutatives Monoid ist und bestimmen Sie alle bzgl. invertierbaren Elemente von Z. (b) Zeigen Sie, dass (Q \ {−1}, ) eine abelsche Gruppe ist. 22. (Zusatzaufgabe, Ideale in Z) Eine Teilmenge I von Z heißt Ideal von Z, wenn I 6= ∅ und für alle x, y ∈ I und alle a ∈ Z gilt x + y, ax ∈ I. (Z. B. sind {0} und Z Ideale von Z. {0} wird Nullideal genannt und meist kurz mit 0 bezeichnet. Offensichtlich gilt 0 ⊆ I für jedes Ideal I von Z.) Zeigen Sie: (a) Für jedes n ∈ Z ist Zn := {kn | k ∈ Z} Ideal von Z. (b) Für m, n ∈ Z gilt Zm = Zn genau dann, wenn m = ±n. (c) Für ein Ideal I von Z gilt I ∩ N+ 6= ∅ genau dann, wenn I 6= 0. (d) Für jedes Ideal I von Z gibt es ein eindeutig bestimmtes n ∈ N mit I = Zn. Hinweise zu den Aufgaben: Aufgabe 19: Man zeige zunächst, dass das angegebene Tupel Lösung ist. Dann addiere man alle Gleichungen. Aufgabe 20: Man gehe davon aus, dass das System die Gestalt (1.3) P der Vorlesung hat. Für k = 0, . . . , p schreibe man xk = (xk1 , . . . , xkn ). Dann gilt nj=1 aij xkj = bi , k = 0, . . . , p. P P Sind nun s0 , . . . , sp ∈ R mit pk=0 sk P = 1 und ist y := pk=0 sk xk , so schreibe man y = (y1 , . . . , yn ). Dann gilt yj = pk=0 P sk xkj , j = 1, . . . , n. Nun setze man (y1 , . . . , yn ) in (1.3) ein, d. h. man berechne nj=1 aij yj für alle i = 1, . . . , m. Aufgabe 21: Man zeige zunächst, dass auch (Q, ) kommutatives Monoid ist. Hierzu ist vielleicht die Beziehung a b = (a + 1) · (b + 1) − 1 hilfreich. Aufgabe 22(d): Im Fall I 6= 0 wende man (c) an und beachte, dass jede nicht leere Menge natürlicher Zahlen ein kleinstes Element besitzt. Dann verwende man Division mit Rest (s. Übungsaufgabe 3) und schließlich (b). Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 6 Abgabe in den Seminaren vom 21. - 24. 11. 2011 23. Sei H eine nicht leere Menge. Zeigen Sie, dass es genau eine zweistellige Operation • auf H gibt, so dass (H; •) Halbgruppe ist und jedes Element von H bzgl. • linksneutral ist. 24. Sei f ∈ Abb (N, N) definiert durch f (n) := n + 1 für alle n ∈ N. Zeigen Sie, dass f bzgl. der Hintereinanderschaltung von Abbildungen unendlich viele Linksinverse und kein Rechtsinverses besitzt. 25. (Grundregeln der Teilbarkeit) Sei R ein kommutativer Ring mit Einselement. Für a, b ∈ R nennt man a Teiler von b (in R), wenn es ein c in R gibt mit b = c · a, Bezeichnung: a | b. Zeigen Sie, dass für alle a, b, c, d ∈ R gilt: (a) Aus a | b und b | c folgt a | c. (b) Aus a | b und c | d folgt ac | bd. (c) Aus a | b und a | c folgt a | ub + vc für alle u, v ∈ R. (d) Wenn a ∈ R∗ , so folgt a | b. (e) Aus a | b und b ∈ R∗ folgt a ∈ R∗ . 26. (Zusatzaufgabe) Für z ∈ C, z := a + ib mit a, b ∈ R, sei z := a − ib (zu z konjugiert komplexe Zahl), := z · z = a2 + b2 ∈ R (Norm von z) und p √ |z| := z · z = a2 + b2 ∈ R (Betrag von z). kzk Weiter sei G := {z ∈ C | kzk = 1} und f : R → C definiert durch f (x) := cos x + i sin x für alle x ∈ R. Zeigen Sie: (a) Für alle z1 , z2 ∈ C gilt z1 + z2 = z1 + z2 , z1 · z2 = z1 · z2 und kz1 · z2k = kz1k · kz2k . (b) (G, ·) ist abelsche Gruppe. (c) Für alle x, y ∈ R gilt f (x + y) = f (x) · f (y). (d) Für alle x ∈ R gilt f (−x) = 1 f (x) . (e) Für x, y ∈ R gilt f (x) = f (y) genau dann, wenn es ein n ∈ Z gibt mit x − y = 2πn. (f) Bild f = G. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 7 Abgabe in den Seminaren vom 28. 11. - 01. 12. 2011 27. (Die Teilaufgaben (c), (d) und (e) sind Zusatzaufgabe) Für einen Ring R sei (C(R); +, ·) definiert durch • C(R) := R × R = {(a, b) | a, b ∈ R} • (a1 , b1 ) + (a2 , b2 ) := (a1 + a2 , b1 + b2 ) und • (a1 , b1 ) · (a2 , b2 ) := (a1 · a2 − b1 · b2 , a1 · b2 + a2 · b1 ) für alle (a1 , b1 ), (a2 , b2 ) ∈ C(R). Zeigen Sie: (a) (C(R); +, ·) ist ein Ring. Hinweis: Sie können verwenden, dass (C(R); +) eine abelsche Gruppe ist. (b) C(R) besitzt ein Einselelement genau dann, wenn R eines besitzt. (c) Identifiziert man für r ∈ R das Element (r, 0R ) ∈ C(R) mit r, so ist R Unterring von C(R). (d) C(R) ist kommutativ genau dann, wenn R kommutativ ist. (e) C(R) ist genau dann ein Körper, wenn R ein Körper ist mit x2 +1R 6= 0R für alle x ∈ R. 28. (Vgl. Übungsaufgabe 25) Sei R ein kommutativer Ring mit Einselement. Für a ∈ R setzen wir Ra := {ra | r ∈ R}. Zeigen Sie: (a) Für a ∈ R ist Ra Untergruppe von (R; +) mit sx ∈ Ra für alle s ∈ R, x ∈ Ra und a ∈ Ra. (b) Für a, b ∈ R sind folgende Eigenschaften äquivalent: (i) a | b (ii) b ∈ Ra (iii) Rb ⊆ Ra. (c) Für a ∈ R gilt a ∈ R∗ genau dann, wenn Ra = R. √ √ 29. Sei Z[ 5] := {a + b 5 | a, b ∈ Z} ⊆ R. √ (a) Zeigen Sie, dass Z[ 5] ist Unterring von R (mit Einselement) ist. √ √ (b) Zeigen Sie, dass für a, b ∈ Z genau dann a + b 5 ∈ Z[ 5]∗ gilt, wenn a2 − 5b2 = ±1. (c) Bestimmen Sie wenigstens vier verschiedene Einheiten von √ √ paarweise ∗ Z[ 5] (also Elemente von Z[ 5] ). Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 8 Abgabe in den Seminaren vom 05. 12. - 08. 12. 2011 30. (Magische Quadrate) Sei n ∈ N mit n ≥ 2 und sei (G; +) eine abelsche Gruppe. Für s ∈ G heißt eine Matrix A ∈ Gn,n magisches Quadrat zur Summe s, wenn die Summe der Einträge jeder Zeile, jeder Spalte und der beiden Diagonalen von A jeweils gleich s ist. A heißt magisches Quadrat, wenn es ein s ∈ G gibt, so dass A magisches Quadrat zur Summe s ist. (a) Zeigen Sie: Sind A, B ∈ Gn,n magische Quadrate zur Summe s bzw. t, so ist A + B magisches Quadrat zur Summe s + t. (b) Bestimmen Sie alle magischen Quadrate in Q3,3 (bzgl. der Addition in Q). Welche Summen sind hierbei möglich, wenn nur magische Quadrate in Z3,3 betrachtet werden? (c) (Zusatzaufgabe) Zeigen Sie, dass es im Fall n ≥ 4 in Zn,n für jedes s ∈ Z magische Quadrate (bzgl. ”+”) zur Summe s gibt. Ermitteln Sie ferner für n ≥ 4 und festes s ∈ Z die maximale Anzahl ρn der frei wählbaren Einträge einer Matrix A ∈ Zn,n , so dass A bei geeigneter Wahl der restlichen Einträge magisches Quadrat zur Summe s ist. 31. (Potenzgesetze) Sei (H, ·) eine Halbgruppe. für h ∈ H und n ∈ N+ setzen wir hn := |h · .{z . . · h}. Ist H Monoid mit neutralem Element e, so sei h0 := e. n−mal Sei H Halbgruppe (Monoid). Zeigen Sie, dass für alle a, b ∈ H gilt: (a) am+n = am · an für alle m, n ∈ N+ (m, n ∈ N). (b) Wenn a · b = b · a, so folgt ai · bj = bj · ai für alle i, j ∈ N+ (i, j ∈ N) und es gilt (a · b)n = an · bn für alle n ∈ N+ (n ∈ N). Bemerkung: Ist (H, +) kommutative Halbgruppe, so schreibt man nh statt hn (n ∈ N+ , h ∈ H). Die entsprechenden Beziehungen lauten dann mit obigen Bezeichnungen (m + n)a = ma + na und n(a + b) = na + nb. 32. Sei R ein Ring mit Einselement und seien x, y ∈ R mit x · y = y · x. Zeigen Sie, dass für alle n ∈ N gilt: Pn n i=0 i xn−i · y i (Binomische Formel) Pn−1 n−1−i i (b) xn − y n = (x − y) · i=0 x ·y . (a) (x + y)n = Hinweis: Für n = 0 steht rechts die ”leere Summe”. Man setzte sie gleich 0R . Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 9 Abgabe in den Seminaren am 12. 12. - 15. 12. 2011 33. Sei R ein Ring und sei n ∈ N+ . Ein Matrix A ∈ Rn,n heißt symmetrisch (schiefsymmetrisch), wenn AT = A (AT = −A). Zeigen Sie: (a) Die Summe symmetrischer (schiefsymmetrischer) Matrizen aus Rn,n ist symmetrisch (schiefsymmetrisch). (b) Für A ∈ Rn,n ist A + AT symmetrisch und A − AT schiefsymmetrisch. (c) Sei R kommutativ und seien A, B ∈ Rn,n mit A · B = B · A. Sind A, B beide symmetrisch oder beide schiefsymmetrisch, so ist A · B symmetrisch. Ist A symmetrisch, B schiefsymmetrisch oder A schiefsymmetrisch, B symmetrisch, so ist A · B schiefsymmetrisch. 34. Sei K ein Ring mit Einselement und sei A ∈ K m,n , wobei m, n ∈ N+ . Zeigen Sie: (a) Wenn es Matrizen B, C ∈ K n,m gibt mit B · A = En und A · C = Em , so folgt B = C. (b) Sei K ein Körper. Wenn m < n (m > n), so gibt es kein B ∈ K n,m mit B · A = En (A · B = Em ). Bemerkung: Dies gilt auch, wenn K ein beliebiger kommutativer Ring mit Einselement ist. 35. Sei A := 3 1 4 ∈ Q2,3 . Bestimmen Sie alle B ∈ Q3,2 mit A · B = E2 . 1 0 1 36. (Zusatzaufgabe, Potenzgesetze II) Sei (H, ·) ein Monoid. Für h ∈ H ∗ und n ∈ N+ setzen wir h−n := (h0 )n , wenn h0 ∈ H das Inverse von h bezeichnet. Zeigen Sie, dass für alle a, b ∈ H ∗ gilt (s. auch Übungsaufgabe 31): (a) am+n = am · an für alle m, n ∈ Z. (b) Wenn a · b = b · a, so folgt ai · bj = bj · ai für alle i, j ∈ Z und (a · b)n = an · bn für alle n ∈ Z . Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 10 Abgabe in den Seminaren am 19., 20. 12. 2011, 4., 5. 1. 2012 37. Prüfen Sie, welche der folgenden Matrizen invertierbar sind und berechnen Sie ggf. die Inverse: 1 −2 0 cos x sin x (a) ∈ R2,2 , x ∈ R (b) 0 4 −1 ∈ Q3,3 − sin x cos x 2 0 −1 1 i 0 (c) −i 0 1 + i ∈ C3,3 . 1−i 1 0 38. (a) Sei H eine Halbgruppe T und U eine Menge von Unterhalbgruppen von H. Zeigen T Sie, daß U ∈U U genau dann Unterhalbgruppe von H ist, wenn U ∈U U 6= ∅. (b) Sei M ein Monoid (eine Gruppe) und U eine Menge von UntermoT noiden (Untergruppen) von M . Zeigen Sie, daß U ∈U U Untermonoid (Untergruppe) von M ist. (c) Sei R ein Ring (Ring mit Einselement, Schiefkörper) und S eine Menge von Unterringen (Unterringen mit Einselement, Teilschiefkörpern) T von R. Zeigen Sie, dass S∈S S Unterring (Unterring mit Einselement, Teilschiefkörper) von R ist. 39. Sei R ein Ring und sei n ∈ N+ . Eine Matrix A ∈ Rn,n heißt obere (untere) Dreiecksmatrix, wenn die Einträge von A unterhalb (oberhalb) der Hauptdiagonale alle gleich 0R sind, d. h. ist A =: ((aij ))1≤i,j≤n , so gilt aij = 0R für alle i, j ∈ {1, . . . , n} mit i > j (i < j). n,n n,n Zeigen Sie, dass die Menge R+ der oberen und die Menge R− der unn,n n,n teren Dreiecksmatrizen aus R Unterringe von R bilden. Besitzt R ein n,n n,n n,n n,n ∩ R− . Einselement, so auch R+ und R− . Bestimmen Sie den Ring R+ 40. (Zusatzaufgabe) Sei R ein kommutativer Ring mit Einselement und sei n ∈ N+ . Zeigen Sie, dass für eine obere (untere) Dreiecksmatrix A ∈ Rn,n die folgenden Aussagen äquivalent sind: (i) A ∈ GlR (n) (ii) Es gibt eine obere (untere) Dreiecksmatrix A0 ∈ Rn,n mit AA0 = A0 A = En (iii) Alle Einträge auf der Hauptdiagonale von A liegen in R∗ . Hinweis: Verwenden Sie Induktion nach n. Stellen Siezum Beweis der InduktionsbehaupB aT tung eine obere Dreiecksmatrix A in der Form A = dar, wobei B ∈ Rn−1,n−1 0 a obere Dreiecksmatrix ist, a ∈ Rn−1 und a ∈ R. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 11 Abgabe in den Seminaren vom 9. 1. - 12. 1. 2012 41. Berechnen Sie den Rang der folgenden Matrizen −7 8 3 0 2 0 −1 4 4,4 (a) A = 5 −6 −3 5 ∈ Q . 0 −2 1 −9 1 ... n n+1 . . . 2n n,n (b) A = .. .. ∈ Q , n ∈ N, n ≥ 2. . . n2 − n + 1 . . . n2 42. Seien K ein Körper, m, n ∈ N+ und A ∈ K m,n . Bestimmen Sie in folgenden Fällen r := rang A sowie geeignete invertierbare Matrizen P ∈ GlK (m), Q ∈ GlK (n) mit P AQ = Em,n;r : cos x sin x (a) K = R, m = n = 2, A = (x ∈ R). − sin x cos x 1 −2 0 −1 (b) K = Q, m = 3, n = 4, A = 0 4 −1 1 . 2 0 −1 −1 43. Sei H eine Halbgruppe. Wir setzen Z(H) := {h ∈ H | gh = hg für alle g ∈ H} Zentrum von H . Ist R ein Ring, so definiert man das Zentrum Z(R) von R als das Zentrum der multiplikativen Halbgruppe (R; ·) von R. Zeigen Sie: (a) Sei H Halbgruppe. Wenn Z(H) 6= ∅, so ist Z(H) kommutative Unterhalbgruppe von H. (b) Ist M Monoid (Gruppe), so ist Z(M ) kommutatives Untermonoid (abelsche Untergruppe) von M . (c) Ist R Ring (Ring mit Einselement, Schiefkörper), so ist Z(R) kommutativer Unterring (Unterring mit Einselement, Teilkörper) von R. 44. (Zusatzaufgabe) Sei R ein Ring mit Einselement und sei n ∈ N+ . Zeigen Sie Z(Rn,n ) = {rEn | r ∈ Z(R)} . Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 12 Abgabe in den Seminaren vom 16. - 19. 1. 2012 45. Zeigen Sie, dass für endliche Mengen X, Y gilt #Abb (Y, X) = (#X)#Y , wobei hier 00 := 1. Bemerkung: Aus diesem Grund verwendet man statt Abb (Y, X) oft noch die ältere Schreibweise X Y . 46. Sei R ein Ring und M ein Links-R-Modul. Zeigen Sie: (a) Für Links-R-Untermoduln U, V von M ist U ∪ V genau dann LinksR-Untermodul von M , wenn U ⊆ V oder V ⊆ U . (b) Sei K eine nicht leere Kette von S Links-R-Untermoduln von M bzgl. ⊆ (s. Definition A13(b)). Dann ist U ∈K U Links-R-Untermodul von M . 47. Sei R ein Ring mit Einselement und X eine Menge. Für eine Teilmenge Y von X setzen wir I(Y ) := {f ∈ RX | f (y) = 0R für alle y ∈ Y } ⊆ RX . Zeigen Sie, dass I(Y ) zweiseitiges Ideal von RX ist. 48. (Zusatzaufgabe) Sei K ein Körper und seien m, n ∈ N+ . Zeigen Sie: (a) K m,n besitzt nur triviale (K m,m , K n,n )-Biuntermoduln. (b) Rn,n besitzt nur triviale zweiseitige Ideale. (c) Jeder Links-Rm,m -Untermodul (Rechts-Rn,n -Unter modul) von K m,n ist endlich erzeugt. Wieviele erzeugende Elemente werden dazu höchstens benötigt? Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Serie 13 Abgabe in den Seminaren vom 23. 1. - 26. 1. 2012 Sei m ∈ Z und I := Zm. Statt ”Restklasse modulo I” sagt man auch ”Restklasse modulo m”. Da somit die Restklassen modulo m mit denen modulo −m übereinstmmen, kann man m ∈ N annehmen. Zur Definition größter gemeinsamer Teiler s. Übungsaufgabe W3. 49. Zeigen Sie: Wenn für a, b ∈ Z gilt a ≡ b mod m, so folgt ggt{a, m} = ggt{b, m} (d. h. für α ∈ Z/I gilt ggt{a, m} = ggt{b, m} für alle a, b ∈ α). Für welche m ∈ N gilt die Umkehrung hiervon? 50. Zeigen Sie: J ⊆ Z/I ist Ideal von Z/I genau dann, wenn J = Zn/I mit einem Teiler n ∈ N von m. Wieviele Ideale besitzt Z/Z18? 51. Zeigen Sie, dass für alle α, β ∈ Z/I gilt: (a) {u + v | u ∈ α, v ∈ β} = α + β. (b) {u · v | u ∈ α, v ∈ β} ⊆ α · β. (In Worten: Die Summe zweier Restklassen stimmt mit ihrer Komplexsumme überein, das Produkt zweier Restklassen ist die (eindeutig bestimmte!) Restklasse, die ihr Komplexprodukt enthält.) 52. (Zusatzaufgabe) α ∈ Z/I heißt prime Restklasse modulo m, wenn für ein (und damit für alle, s. Aufgabe 49) a ∈ α gilt ggt{a, m} = 1. Zeigen Sie: (a) (Z/I)∗ ist die Menge der modulo m primen Restklassen. (b) β ∈ Z/I ist genau dann Nullteiler, wenn β keine prime Restklasse modulo m ist. Übungsaufgaben zur Vorlesung Lineare Algebra I Wintersemester 2011/12 Zusatzaufgaben zu Weihnachten 2011 Abgabe bis spätestens 4. Februar 2012 (W1) (Primideale, Primelemente in Z) Ein Ideal I von Z (s. Übungsaufgabe 22) heißt Primideal, wenn I 6= Z und für alle a, b ∈ Z gilt: Aus a · b ∈ I folgt a ∈ I oder b ∈ I. p ∈ Z heißt Primelement, wenn p 6= 0 und Zp Primideal ist. Primelemente aus N heißen Primzahlen. Zeigen Sie: (a) Das Nullideal von Z ist Primideal. (b) Für p ∈ Z sind die folgenden Bedingungen äquivalent: (i) p ist Primelement (ii) p 6= 0, 1, −1 und für alle a, b ∈ Z gilt: Aus p|a · b folgt p|a oder p|b. (iii) p 6= 0, 1, −1 und für alle a, b ∈ Z gilt: Aus p = a · b folgt a = ±1 oder b = ±1. Bemerkung: Elemente, die Bedingung (iii) erfüllen, nennt man irreduzibel. (2) besagt damit: Ein Element aus Z ist genau dann Primelement, wenn es irreduzibel ist. (W2) (Vgl. die Übungsaufgaben 25 und 28) Sei R ein kommutativer Ring mit Einselement. Man nennt a, b ∈ R assoziiert (in R), kurz a ∼ b, wenn a | b und b | a. Zeigen Sie: (a) Für a ∈ R und u ∈ R∗ gilt a ∼ u · a. (b) Für a, b, c ∈ R gilt: Aus a ∼ b und b ∼ c folgt a ∼ c). (c) Für a, b ∈ R gilt a ∼ b genau dann, wenn Ra = Rb. (d) Für a ∈ R sind folgende Bedingungen äquivalent: (i) a ∈ R∗ (ii) a ∼ 1R (iii) Ra = R. (e) Wenn R = Z, so gilt a ∼ b genau dann, wenn a = ±b. (W3) (Größte gemeinsame Teiler und kleinste gemeinsame Vielfache) Für eine Teilmenge X von Z sei Pk ZX := n x | k ∈ N, x , . . . , x ∈ X, n , . . . , n ∈ Z i i 1 k 1 k i=1 die Menge aller endlichen Z-Linearkombinationen von Elementen aus X. z ∈ Z heißt größter gemeinsamer Teiler (kleinstes gemeinsames Vielfaches) von X ⊆ Z, wenn folgendes gilt: • z|x (x|z) für alle x ∈ X und • s|z (z|s) für alle s ∈ Z mit s|x (x|s) für alle x ∈ X. Mit Ggt X (Kgv X) bezeichnen wir die Menge aller größten gemeinsamen Teiler (kleinsten gemeinsamen Vielfachen) von X. Offensichtlich gilt Ggt ∅ = Ggt {0} = {0} = Kgv Z und Ggt Z = {1, −1} = Kgv ∅, s. Übungsaufgabe 28(c). Zeigen Sie: (a) ZX ist Ideal von Z. (b) GgtX = Ggt ZX (c) Sei I Ideal von Z. Für n ∈ Z sind äquivalent: (i) n ∈ GgtI (ii) n ∈ I und n|m für alle m ∈ I (iii) I = Zn. (d) KgvX = Ggt T x∈X Zx. (e) Ggt X und Kgv X sind für jede Teilmenge X von Z nicht leer. (f) Für alle z ∈ GgtX gibt es n1 , . . . , nk ∈ Z und x1 , . . . , xk ∈ X mit z = n 1 x1 + . . . + n k xk . Bemerkungen: (1) Nach Übungsaufgabe 22 gibt es eindeutig bestimmte m, n ∈ N mit ZX = Zn und T x∈X Zx = Zm. Dann gilt GgtX = {n, −n} und KgvX = {m, −m}. Meist bezeichnet man n als den größten gemeinsamen Teiler und m als das kleinste gemeinsame Vielfache von X und setzt ggtX := n sowie kgvX := m. (2) Entsprechend kann man größte gemeinsame Teiler und kleinste gemeinsame Vielfache für Teilmengen eines beliebigen kommutativen Ringes mit Einselement definieren. Dann sind aber die Aussagen (c) und (e) ebenso wie Bemerkung (1) i. A. nicht mehr richtig. (W4) (Nullteiler) Sei R ein Ring. Ein Element x ∈ R heißt linker (rechter) Nullteiler, wenn es ein y ∈ R gibt mit y 6= 0R und xy = 0R (yx = 0R ). x ∈ R heißt Nullteiler, wenn x linker oder rechter Nullteiler ist. Elemente von R, die keine Nullteiler sind, nennt man Nichtnullteiler. R heißt nullteilerfrei, wenn R außer 0R keine Nullteiler besitzt. Kommutative nullteilerfreie Ringe mit vom Nullelement verschiedenem Einselement nennt man Integritätsringe. Zeigen Sie: (a) R ist genau dann der Nullring, wenn 0R Nichtnullteiler ist. (b) Besitzt R ein Einselement 1R 6= 0R , so ist die Menge der Nichtnullteiler von R Untermonoid von (R, ·), das R∗ als Untergruppe enthält. (c) Wenn R = K n,n mit einem Körper K und n ∈ N+ , so sind für A ∈ R die folgenden Bedingungen äquivalent: (i) A ist linker Nullteiler (ii) A ist rechter Nullteiler (iii) rang A < n. (d) Z ist Integriätsring und jeder Körper ist Integritätsring. (W5) (Division mit Rest II) Sei n ∈ Z. Für m ∈ Z setzen wir: ( m wenn n = 0 rn (m) := r wenn n 6= 0, wobei r im Fall n 6= 0 die eindeutig bestimmte ganze Zahl ist mit 0 ≤ r < |n| und m = qn + r für geeignetes q ∈ Z, s. Übungsaufgabe 3. Zeigen Sie: (a) Für a, b ∈ Z gilt rn (a) = rn (b) genau dann, wenn n|a − b. (b) Für alle a, b ∈ Z gilt rn (a + b) = rn (rn (a) + b) = rn (rn (a) + rn (b)) und rn (a · b) = rn (rn (a) · b) = rn (rn (a) · rn (b)). (W6) (Division mit Rest III) Für n ∈ N setzen wir ( Z n=0 Ln := {0, 1, . . . , n − 1} n = 6 0 und definieren zweistellige Operationen ⊕n und n auf Ln , indem wir für alle a, b ∈ Ln setzen (s. Übungsaufgabe W5) a ⊕n b := rn (a + b) und a n b := rn (a · b). (Da offensichtlich Ln = L−n , ⊕n = ⊕−n und n = −n , kann man sich bei den nachfolgenden Überlegungen auf den Fall n ∈ N beschränken.) Zeigen Sie: (a) (Ln , ⊕n , n ) ist für alle n ∈ Z ein kommutativer Ring mit Einselement. Hinweis: Man verwende die Übungsaufgaben 3 und W5. (b) Für n ∈ Z \ {0} sind die folgenden Bedingugen äquivalent: (i) n ist Primelement (ii) Ln ist Integritätsring (iii) Ln ist Körper. Hinweis: Verwenden Sie folgende Konsequenz aus Übungsaufgabe 22: Ist n Primelement und a ∈ Z mit n - a, so gibt es u, v ∈ Z mit ua + vn = 1. Bemerkung: Statt ⊕n und n schreibt man kurz + und ·. (W7) Sei K ein Körper und A ∈ K n,n eine quadratische Matrix, wobei n ∈ N+ . Zeigen Sie: Wenn bei Anwendung des Gaußschen Algorithmus auf A in einem Algorithmusschritt eine Spaltenvertauschung erforderlich ist, so ist A nicht invertierbar. (W8) Sei H eine Halbgruppe. Ein Element x ∈ H heißt linkskürzbar (rechtskürzbar), wenn für alle a, b ∈ H gilt: Aus xa = xb (ax = bx) folgt a = b. x heißt kürzbar, wenn x links- und rechtskürzbar ist. Man sagt, in H gilt die Kürzungsregel, wenn jedes Element von H kürzbar ist. Zeigen Sie: (a) In jeder Gruppe gilt die Kürzungsregel. (b) H ist Gruppe genau dann, wenn H ein linksneutrales Element e besitzt und es für jedes x ∈ H ein x0 ∈ H gibt mit x0 x = e. (c) Sei H eine endliche Halbgruppe. Genau dann besitzt H ein linksneutrales (rechtsneutrales, neutrales) Element, wenn H ein linkskürzbares (rechtskürzbares, kürzbares) Element besitzt. (d) Eine endliche Halbgruppe H ist genau dann eine Gruppe, wenn in H die Kürzungsregel gilt. Hinweis: Für x ∈ H betrachte man die durch h 7→ xh bzw. h 7→ hx für alle h ∈ H gegebenen Abbildungen λx , ρx : H → H (Linkstranslation, Rechtstranslation mit x) und beachte, dass x genau dann linkskürzbar bzw. rechtskürzbar ist, wenn λx bzw. ρx injektiv ist. (W9) (S. auch Übungsaufgabe 40) Sei R ein Ring mit Einselement und sei n ∈ N mit n ≥ 2. Zeigen Sie, dass die folgenden Bedingungen äquivalent sind: (i) Jedes bzgl. · linksinvertierbare Element von R ist auch rechtsinvertierbar (also invertierber) (ii) Jedes bzgl. · rechtsinvertierbare Element von R ist auch linksinvertierbar (also invertierber) (iii) Die Inverse jeder invertierbaren oberen (unteren) Dreiecksmatrix aus Rn,n ist obere (untere) Dreiecksmatrix. In diesem Fall gelten die äquivalenten Bedingungen aus Übungsaufgabe 40 entsprechend für Matrizen aus Rn,n . (W10) 17 Weihnachtsmänner, von denen jeder einen Weihnachtsbaum bei sich hat, gehen in einen Raum und stellen dort ihre Weihnachtsbäume so auf, dass die Abstände zwischen jeweils zwei Bäumen alle untereinander verschieden sind. Dann zündet jeder Weihnachtsmann auf dem seinem Baum am nächsten stehenden Baum eines anderen Weihnachtsmannes (also nicht auf seinem eigenen) genau eine Kezze an. Beantworten Sie folgende Fragen: (a) Wieviele Kerzen werden dann maximal auf einem Baum brennen können? (b) Gibt es Bäume, auf denen keine Kerzen brennen? Wie lauten die Antworten, wenn die Anzahl der Weihnachtsmänner nicht 17 ist? Hinweis: Sei W die Menge der Weihnachtsmänner und f : W → W sei so definiert, dass f (m) für einen Weihnachtsmann m der Weihnachtsmann ist, auf dessen Baum m eine Kerze anzündet. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 1 Abgabe in den Seminaren vom 16. 4. - 19. 4. 2012 1. Sei V ⊆ Q4 der von A := {(1, −1, 2, 0), (−1, 2, 0, −1), (0, 1, 2, −1)} erzeugte Q-Untervektorraum des Q4 . (a) Bestimmen Sie rangQ A und eine Basis B ⊆ A von V . (b) Geben Sie ein lineares Gleichungssystem in vier Unbestimmten mit Koeffizienten aus Q an, dessen Lösungsmenge (1, 0, 0, −1) + V ist. (c) Prüfen Sie, ob a := ( 12 , 0, 2, − 12 ) ∈ V . Wenn ja, so ergänzen Sie {a} durch Elemente aus A zu einer Basis von V . 2. Sei R ein Ring und seien M1 , . . . , Mn Links-R-Moduln. Zeigen Sie, daß M1 × . . . × Mn mit komponentenweiser Addition und Multiplikation mit Elementen aus R d. h. für alle (m1 , . . . , mn ), (m01 , . . . , m0n ) ∈ M1 ×. . .×Mn und alle r ∈ R setzt man (m1 , . . . , mn ) + (m01 , . . . , m0n ) := (m1 + m01 , . . . , mn + m0n ) und r(m1 , . . . , mn ) := (rm1 , . . . , rmn ) . ein Links-R-Modul ist. Er wird mit M1 ⊕ . . . ⊕ Mn bezeichnet und Koprodukt, mitunter auch noch direkte Summe der M1 , . . . , Mn genannt. 3. (Zusatzaufgabe, Produkte und Koprodukte) Sei R ein Ring. In Verallgemeinerung von Aufgabe 2 und Beispiel 3.9.3 definiert man für eine Familie (Mι )ι∈I von Links-R-Moduln (I beliebige Indexmenge, s. auch Definition A.20): ` Q Q ι∈I Mι := f ∈ ι∈I Mι | f (ι) = 0Mι für fast alle ι ∈ I} ⊆ ι∈I Mι und nennt diese Menge Koprodukt der Mι , ι ∈ I. Zeigen Sie: Q (a) ι∈I Mι ist mit komponentenweiser (oder auch punktweiser) Addition Q und Multiplikation mit Elementen aus R d. h. für alle f, g ∈ ι∈I Mι und alle r ∈ R sind f + g und rf erklärt durch (f + g)(ι) := f (ι) + g(ι) und (rf )(ι) := rf (ι) für alle ι ∈ I ein Links-R-Modul. ` Q (b) Qι∈I Mι ist Links-R-Untermodul von ι∈I Mι , der für endliches I mit ι∈I Mι übereinstimmt. 4. Seien X, Y Mengen und f : X → Y eine Abbildung. Zeigen Sie, dass f genau dann injektiv (surjektiv) ist, wenn folgendes gilt: Für alle Mengen Z und alle Abbildungen g, g 0 : Z → X (g, g 0 : Y → Z) mit g 6= g 0 folgt f g 6= f g 0 (gf 6= g 0 f ). Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 2 Abgabe in den Seminaren vom 23. 4. - 26. 4. 2012 5. (Normalteiler, Kerne von Homomorphismen) Sei G eine Gruppe mit neutralem Element e. Einen Untergruppe N von G heißt Normalteiler oder normale Untergruppe von G, kurz N / G, wenn für alle n ∈ N und alle g ∈ G gilt gng −1 ∈ N . Ist f : G → G0 Homomorphismus in eine weitere Gruppe G0 mit neutralem Element e0 , so setzt man Kernf := f −1 (e0 ) = {g ∈ G | f (g) = e0 } (Kern von f ). Zeigen Sie: (a) {e}, G / G. (b) Ist G abelsch, so ist jede Untergruppe von G Normalteiler von G. (c) Für jeden Homomorphismus f : G → G0 in eine weitere Gruppe G0 ist Kern f Normalteiler von G. 6. Seien R, R0 Ringe und f : R → R0 ein Ringhomomorphismus. Man setzt Kern f := f −1 (0R0 ) = {r ∈ R | f (r) = 0R0 }. Zeigen Sie: (a) Kern f ist zweiseitiges Ideal von R (s. Definition 3.7(d)). (b) Wenn R kommutativ und R0 nullteilerfrei ist (s. Übungsaufgabe W4), so ist Kern f Primideal von R. Dabei heißt ein Ideal P eines kommutativen Ringes R Primideal, wenn P 6= R und für alle a, b ∈ R gilt: Aus ab ∈ P folgt a ∈ P oder b ∈ P , s. auch Übungsaufgabe W1. (c) Für n ∈ Z sei ρn : Z → Ln die durch ρn (m) := rn (m) für alle m ∈ Z definierte Abbildung (s. Übungsaufgabe W6 zusammen mit Beispiel 3.18). Zeigen Sie, dass ρn Ringepimorphismus ist und berechnen Sie Kern ρn . 7. (Zusatzaufgabe) Sei K ein kommutativer Ring und sei A ∈ K m,n , wobei m, n ∈ N+ . Wir definieren eine Abbildung ϕA : K n → K m , indem wir für alle x ∈ K n setzen ϕA (x)T := A · xT . Zeigen Sie: (a) ϕA ist K-Homomorphismus. Sei nun K ein Körper (b) rangK Bild ϕA = rangK A. (c) ϕA ist surjektiv genau dann, wenn rangK A = m. (d) ϕA ist injektiv genau dann, wenn rangK A = n. (e) ϕA ist bijektiv 1 −1 0 −1 8. Sei A := −1 0 1 −2 genau dann, wenn m = n und A ∈ GlK (n). 0 2 1 −2 ∈ Q4,4 . 4 −2 1 0 (a) Berechnen Sie rangQ Kern ϕA und rangQ Bild ϕA . (b) Geben Sie ein lineares Gleichungssystem in vier Unbestimmten an, dessen Lösungsmenge Bild ϕA ist. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 3 Abgabe in den Seminaren vom 23. 4. - 26. 4. 2012 9. Seien H, H 0 , H 00 Halbgruppen (Monoide, Links-R-Moduln über einem Ring R), f : H → H 00 , h : H → H 0 (Monoid-, R-)Homomorphismen und g : H 0 → H 00 Abbildung, so dass f = g ◦ h. Zeigen Sie: Ist h surjektiv, so ist auch g (Monoid-, R-)Homomorphismus. g ist eindeutig durch f und h bestimmt. 10. Sei R ein Ring und S Unterring von Z(R) (zur Definition von Z(R) s. Übungsaufgabe I43). Zeigen Sie, dass für alle x ∈ R der Ring P i S[x] = i∈N si x | s0 , s1 , . . . ∈ S, si = 0 für fast alle i ∈ N kommutativer Unterring von R ist. Geben Sie ein hinreichendes und notwendiges Kriterium dafür an, dass S[x] ⊆ Z(R). 11. Sei Sei R ein Ring, der Q als Unterring enthält.−1Für x ∈ R und m ∈ Nxsetzt x man m := x(x − 1) · · · . . . · · · (x − m + 1)(m!) . Damit gilt z. B. 0 = 1 x und 1 = x. Zeigen Sie, dass Q ⊆ Z(R) und dass für alle x ∈ R und alle p ∈ N gilt x (a) xp + p+1 = x+1 (Stifelsche Beziehung) p+1 Pp x+i (b) = x+p+1 . i=0 i p 12. (Zusatzaufgabe) Sei R ein Ring und seien M, M 0 , M 00 , N, N 0 , N 00 Links-RModuln, Weiter seien f ∈ HomR (M, M 0 ) und g ∈ HomR (N, N 0 ). Zeigen Sie: (a) Durch ϕ 7→ ϕ ◦ f , ϕ ∈ HomR (M 0 , N ), ist ein Homomorphismus HomR (M 0 , N ) → HomR (M, N ) (abelscher Gruppen) gegeben, den man mit HomR (f, N ) bezeichnet. Dabei gilt für alle f1 , f2 ∈ HomR (M, M 0 ) HomR (f1 + f2 , N ) = HomR (f1 , N ) + HomR (f2 , N ) . (b) Durch ψ 7→ g ◦ ψ, ψ ∈ HomR (M, N ), ist ein Homomorphismus HomR (M, N ) → HomR (M, N 0 ) (abelscher Gruppen) gegeben, den man mit HomR (M, g) bezeichnet. Dabei gilt für alle g1 , g2 ∈ HomR (N, N 0 ) HomR (M, g1 + g2 ) = HomR (M, g1 ) + HomR (M, g2 ) . (c) Für alle f 0 ∈ HomR (M 0 , M 00 ) und alle g 0 ∈ HomR (N 0 , N 00 ) gilt HomR (f, N ) ◦ HomR (f 0 , N ) = HomR (f 0 ◦ f, N ) und HomR (M, g 0 ) ◦ HomR (M, g) = HomR (M, g 0 ◦ g). (d) Es gilt HomR (idM , N ) = idHomR (M,N ) = HomR (M, idN ). (e) Ist R kommutativ, so sind HomR (f, N ) und HomR (M, g) sogar RHomomorphismen. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 4 Abgabe in den Seminaren vom 7. 5. - 10. 5. 2012 13. Sei R ein Ring und seien M, N Links-R-Moduln. E sei Erzeugendensystem von M . Zeigen Sie: Sind f, g : M → N R-Homomorphismen mit f (e) = g(e) für alle e ∈ E, so folgt f = g. 14. Seien X, Y endliche Mengen. Zeigen Sie, dass mit m := #X, n := #Y gilt: n (a) Es gibt genau m! · m = n · (n − 1) · . . . · (n − m + 1) paarweise verschiedene injektive Abbildungen X → Y . (b) Wenn m = n, so gibt es genau n! paarweise verschiedene bijektive Abbildungen X → Y . 15. Seien b1 := (1, 0, 1, 0), b2 := (0, 1, 1, 0), b3 := (1, 2, 3, 4) und b4 := (3, 2, 1, 2) Elemente von (L17 )4 (s. Übungsaufgabe W6). Zeigen Sie, dass {b1 , b2 , b3 , b4 } Basis von (L17 )4 ist und berechnen Sie die Koordinatenvektoren von c := (13, 4, 2, 1) und d := (11, 2, 7, 4) bzgl. der geordneten Basis B := (b1 , b2 , b3 , b4 ) von (L17 )4 . 16. (Zusatzaufgabe) Sei R ein kommutativer Ring. Zeigen Sie: Für jeden R-Modul M und jedes m ∈ M ist durch r 7→ rm, r ∈ R, ein R-Homomorphismus λM,m : R → M (also ein Element von HomR (R, M )) gegeben und durch m 7→ λM,m , m ∈ M , ist ein R-Isomorphismus λM : M → HomR (R, M ) definiert. Dabei gilt für alle R-Moduln M, N und alle f ∈ HomR (M, N ): λN ◦ f = HomR (R, f ) ◦ λM . Man sagt auch, das Diagramm λ M M −−− → HomR (R, M ) f Hom (R,f ) y y R λ N N −−− → HomR (R, N ) sei kommutativ. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 5 Abgabe in den Seminaren vom 14. 5. - 17. 5. 2012 17. Zeigen Sie, dass Q als Z-Modul nicht frei ist. Hinweis: Zeigen Sie zunächst, dass je zwei Elemente aus Q über Z linear anhängig sind. (Über Q ist das richtig, denn als Q-Modul ist Q frei vom Rang 1.) 18. (Zusatzaufgabe) Sei R ein Ring und seien x, y ∈ R mit x 6= y. Zeigen Sie: (a) Genau dann bildet {x, y} eine Basis von R als Links-Modul über sich selbst, wenn es r, s ∈ R gibt mit rx + sy = 1R , xr = 1R , xs = 0R , yr = 0R und ys = 1R . (b) Bildet {x, y} eine Basis von R als Links-Modul über sich selbst, so auch {xn , yxn−1 , . . . , yx, y} für alle n ∈ N+ . 19. Seien b1 := (1, 1 + i, i), b2 := (i, 0, −1) und b3 := (−1, 1 − i, −1) Vektoren aus C3 . Zeigen Sie: (a) {b1 , b2 , b3 } bildet eine Basis von C3 . (b) Es gibt genau einen C-Endomorphismus f von C3 mit f (b1 ) = (1, 0, 1), f (b2 ) = (2, 2i, 0) und f (b3 ) = (0, 2i, −2). (c) Bestimmen Sie die Koordinatenmatrix fB von f bzgl. der geordneten Basis B := (b1 , b2 , b3 ) von C3 . (d) Berechnen Sie Kern f und rangC Bild f . Hinweis: (a) und (c) können simultan gelöst werden, indem man den modifizierten Gauß schen Algorithmus auf die Matrix bT1 , bT2 , bT3 | f (b1 )T , f (b2 )T , f (b3 )T ∈ C3,6 anwendet. 20. Wie muß a ∈ R gewählt werden, damit es eine R-lineare Abbildung f : R3 → R3 gibt mit f (1, −e, 2) = (a, 1, 0), f (−2, 2e, −1) = (−1, 0, 2) und f (1, −e, −1) = (0, −1, −2) (e : Eulersche Zahl). Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 6 Abgabe in den Seminaren vom 21. 5. - 24. 5. 2012 21. Sei A 6= ∅ eine endliche vollständig geordnete Menge und sei p ∈ N+ . Wir setzen Up (A) := {(a1 , . . . , ap ) ∈ Ap | a1 ≤ . . . ≤ ap } und Up+ (A) := {(a1 , . . . , ap ) ∈ Ap | a1 < . . . < ap } . Zeigen Sie, dass mit n := #A gilt n+p−1 n + #Up (A) = und #Up (A) = . p p i. Stelle 22. Sei S ein Ring. Für i ∈ N sei ei := (0S , . . . , 0S , 1S , 0S . . . ) ∈ S (N) . (Dann ist {e0 , e1 , . . . } die kanonische Basis des freien Links-S-Moduls F := S (N) .) Zeigen Sie (a) Es gibt eindeutig bestimmte S-Endomorphismen x, y, r, s von F mit ( e i wenn i gerade 2 r(ei ) = e2i , x(ei ) = 0 sonst, ( e i−1 wenn i ungerade 2 y(ei ) = s(ei ) = e2i+1 , 0 sonst, i ∈ N. (b) x, y, r, s erfüllen die fünf Bedingungen aus Übungsaufgabe 18(a) und damit besitzt der Endomorphismenring R := EndS (F ) von F als LinksModul über sich selbst für jedes n ∈ N+ eine Basis bestehend aus n Elementen. (R ist also frei, besitzt aber keinen Rang.) 23. (Zusatzaufgabe) Seien X, Y Mengen mit ]X = ]Y . Mit Bij(X, Y ) bezeichnen wir die Menge der bijektiven Abbildungen X → Y . Sei f ∈ Bij(X, Y ). Zeigen Sie, daß durch π 7→ f ◦ π, π ∈ S(X), und ϕ 7→ ϕ ◦ f −1 , ϕ ∈ Bij(X, Y ), bijektive Abbildungen λ : S(X) → Bij(X, Y ) und µ : Bij(X, Y ) → S(Y ) gegeben sind, deren Hintereinanderschaltung ein Gruppenisomorphismus S(X) → S(Y ) ist. Bemerkung: S(X) ist demnach bis auf Isomorphie eindeutig durch ]X festgelegt. 24. Wir setzen b1 := (1, 1, 1, 1), b2 := (1, −1, 1, −1), b3 := (1, 2, 4, 8), b4 := (1, −2, 4, −8) sowie b01 := (0, 1, 1, 1), b02 := (1, 0, 2, 6), b03 := (2, 2, 4, 8) und b04 = (0, 0, 0, 6). (a) Zeigen Sie, daß B := {b1 , b2 , b3 , b4 } und B 0 := {b01 , b02 , b03 , b04 } Basen von Q4 sind. (b) Bestimmen Sie tB,B0 mit B := b1 , b2 , b3 , b4 und B0 := b01 , b02 , b03 , b04 . (c) Berechnen Sie uB0 für u := b1 + b2 + b3 + b4 . Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 7 Abgabe in den Seminaren vom 29. 5. - 31. 5. 2012 und in der Vorlesung am 30. 5. 2012 25. Sei V := {(α1 , α2 , α3 , α4 ) ∈ Q4 | α1 − 2α2 + 3α3 − 4α4 = 0} ⊆ Q4 . (a) Zeigen Sie, dass V Q-Untervektorraum von Q4 ist und dass {b1 , b2 , b3 } mit b1 := (1, 2, 1, 0), b2 := (1, 0, 1, 1) und b3 := (3, 1, 1, 1) Basis von V ist. (b) Überprüfen Sie, welche der folgenden Quadrupel in V liegen und bestimmen Sie für diese jeweils den Koordinatenvektor bzgl. der geordneten Basis (b1 , b2 , b3 ) von V : (1, 1, 1, 1), (1, −2, 1, 2), (0, 0, 4, 3), (1, 21 , 13 , 41 ). 26. Sei R ein kommutativer Ring, X eine Unbestimmte und S eine R-Algebra d. h. ein Ring, der gleichzeitig ein R-Modul ist, so dass r(s · t) = (rs) · t = s · (rt) für alle r ∈ R, s, t ∈ S, s. Bemerkung 3.6.8 . Für s ∈ S definieren wir eine Abbildung s : R[X] → S, indem wir für jedes f ∈ R[X] setzen: Wenn f =: rn X n + rn−1 X n−1 + . . . + r1 X + r0 mit r0 , r1 , . . . , rn ∈ R, so sei s (f ) := rn sn + rn−1 sn−1 + . . . + r1 s + r0 1S ∈ S. Zeigen Sie, daß s für jedes s ∈ S ein Ringhomomorphismus ist. Er heißt Einsetzungshomomorphismus (mit s). Statt s (f ) (s ∈ S, f ∈ R[X]) schreibt man meist kurz f (s). 27. (s. Übungsaufgabe 2) Sei Links-R-Moduln, wobei p Homomorphismus fi : Mi g : M1 ⊕ . . . ⊕ Mp → M10 M1 ⊕ . . . ⊕ Mp setzen R ein Ring und seien M1 , . . . , Mp , M10 , . . . , Mp0 ∈ N+ . Für jedes i = 1, . . . , p sei weiter ein R→ Mi0 gegeben. Wir definieren eine Abbildung ⊕ . . . ⊕ Mp0 , indem wir für alle (m1 , . . . , mp ) ∈ g(m1 , . . . , mp ) := (f1 (m1 ), . . . , fp (mp )). Zeigen Sie: (a) g ist R-Homomorphismus. Man bezeichnet ihn mit f1 ⊕ . . . ⊕ fp . (b) Kern (f1 ⊕ . . . ⊕ fp ) = Kern f1 ⊕ . . . ⊕ Kern fp . (c) Bild (f1 ⊕ . . . ⊕ fp ) = Bild f1 ⊕ . . . ⊕ Bild fp . 28. (Zusatzaufgabe) Sei R ein kommutativer Ring und V ein freier R-Modul mit 1 ≤ m := rangR V < ∞. Weiter sei B geordnete Basis von V und C ∈ Rm,m . (a) Zeigen Sie, dass C genau dann invertierbar ist, wenn C = tB,B0 mit einer weiteren geordneten Basis B0 von V . In diesem Fall ist B0 eindeutig durch B und C bestimmt. (b) Sei R = Q und V ⊂ Q4 der Q-Vektorraum aus Übungsaufgabe 25. Weiter sei B := (b1 , b2 , b3 ) die dort angegebene geordnete Basis von 1 −2 3 V und C := −1 2 −2. Zeigen Sie, dass C ∈ GlQ (3) und be3 −4 5 stimmen Sie die geordnete Basis B0 von V gemäß (a). Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 8 Abgabe in den Seminaren vom 4. 6. - 7. 6. 2012 29. (Zusatzaufgabe) Seien R ein Ring, M ein Links-R-Modul und X, Y Mengen mit Y ⊆ M \ {0M }. Für alle (x, y) ∈ X × Y definieren wir eine Abbildung ϕx,y : X → M , indem wir für alle z ∈ X setzen ( y z=x ϕx,y (z) := ∈ M (X) 0M z 6= x Zeigen Sie: (a) Die durch (x, y) 7→ ϕx,y , (x, y) ∈ X × Y , gegebene Abbildung ϕ : X × Y → {ϕx,y | (x, y) ∈ X × Y } ⊆ M (X) ist bijektiv. (b) Ist Y Erzeugendensystem von M , so ist {ϕx,y | (x, y) ∈ X × Y } Erzeugendensystem von M (X) . (c) Ist Y linear unabhängige Teilmenge von M , so ist {ϕx,y | (x, y) ∈ X × Y } linear unabhängige Teilmenge von M (X) . (d) Ist M frei, so auch M (X) . (e) Ist R kommutativ und M frei, so gilt rangR M (X) = #X · rangR M . 30. Sei R ein Integritätsring, X eine Unbestimmte und f ∈ R[X] ein vom Nullpolynom verschiedenes Polynom. Zeigen Sie, dass f in R höchstens grad f paarweise verschiedene Nullstellen besitzt. 31. (s. Übungsaufgabe 27) Sei R ein Ring und seien M1 , . . . , Mp , M10 , . . . , Mp0 Links-R-Moduln, wobei p ∈ N+ . Für jedes i = 1, . . . , p sei weiter ein RHomomorphismus fi : Mi → Mi0 gegeben. Zeigen Sie: (a) f1 ⊕ . . . ⊕ fp ist Monomorphismus (Epimorphismus, Isomorphismus) genau dann, wenn alle f1 , . . . , fp Monomorphismen (Epimorphismen, Isomorphismen) sind. (b) Sei R kommutativ und sei N weiterer R-Modul. Ist ϕ0 ∈ MultR (M10 , . . . . . . , Mp0 ; N ), so ist ϕ := ϕ0 ◦ (f1 ⊕ . . . ⊕ fp ) ∈ MultR (M1 , . . . , Mp ; N ). Wenn dabei M1 = . . . = Mp =: M , M10 = . . . = Mp0 =: M 0 sowie f1 = . . . = fp und ϕ0 ∈ SympR (M 0 ; N ) (ϕ0 ∈ AltpR (M 0 ; N )), so ist ϕ ∈ SympR (M ; N ) (ϕ ∈ AltpR (M ; N )). 32. Seien R ein kommutativer Ring und n ∈ N+ . Für A ∈ Rn,n sei spur A ∈ R die Summe der Hauptdiagonaleinträge von A. Zeigen Sie: (a) Die durch A 7→ spur A, A ∈ Rn,n , definierte Abbildung spur : Rn,n → R ist ein R-Epimorphismus. (b) spur(AB) = spur(BA) für alle A, B ∈ Rn,n . (c) Sind A, B ∈ Rn,n ähnlich (d. h. B = P AP −1 mit einer Matrix P ∈ GlR (n), s. Definition 2.35(b)), so gilt spurA = spurB. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 9 Abgabe in den Seminaren vom 11. 6. - 14. 6. 2012 33. (Zusatzaufgabe) Sei R ein kommutativer Ring und seien n, k, p1 , . . . , pk ∈ N+ mit n = p1 +. . .+pk. Für i = 1, . . . , k seien weiter Ai ∈ Rpi ,pi , Bi ∈ Rpi ,qi und Ci := 0pi ,ri , Ai , Bi ∈ Rpi ,n , wobei qi := pi+1 + . . . + pk und ri := n − pi − qi . Ci .. Wir setzen nun A := . ∈ Rn,n . Zeigen Sie Ck det A = det A1 · . . . · det Ak . Bemerkung: Man nennt eine Matrix Blockmatrix, wenn sie sich aus Teilmatrizen (s. Übungsaufgabe 36) zueinander passenden Formats zusammensetzt, den sogenannten (Matrix)-Blöcken; hier sind dies neben Nullmatrizen passenden Formats die Matrizen A1 , . . . , Ak , B1 , . . . , Bk . Die quadratischen Blöcke A1 , . . . , Ak liegen in diesem Fall entlang der Hauptdiagonale von A; unterhalb dieser Blöcke sind alle Einträge Null. Die Einträge oberhalb von A1 , . . . , Ak , also die Blöcke B1 , . . . , Bk , haben keinen Einfluss auf det A. Schließen Sie daraus, daß die Determinante einer oberen (unteren) Dreiecksmatrix aus Rn,n (n ∈ N+ ) das Produkt der Hauptdiagonaleinträge dieser Matrix ist. 34. (Vandermondesche Determinante) Sei R ein kommutativer Ring und seien x0 , x1 , . . . , xn ∈ R, wobei n ∈ N. Zeigen Sie, daß 1R x0 . . . xn0 1R x1 . . . xn Y 1 det .. (xj − xi ). .. .. = . . . 0≤i<j≤n 1R xn . . . xnn 35. Berechnen Sie det A in folgenden Fällen −7 8 3 0 2 0 −1 4 4,4 (a) A = 5 −6 −3 5 ∈ Q . 0 −2 1 −9 17 −141 (b) A = 13 8 a b b a (c) A = c b a c −231 −41 25 452 −13 8 ∈ R4,4 . 8 0 0 5 0 0 c a b c ∈ R4,4 , a, b, c ∈ R, R kommutativer Ring. a b b a 36. (Minoren, Rangkriterium von Frobenius) Sei R ein Ring und sei A ∈ Rm,n , wobei m, n ∈ N+ . Eine Matrix B ∈ Rp,q mit p, q ∈ N+ heißt Teilmatrix von A, wenn p ≤ m, q ≤ n und es i1 , . . . , ip , j1 , . . . , jq ∈ N gibt mit 1 ≤ i1 < . . . < ip ≤ m, 1 ≤ j1 < . . . < jq ≤ n, so dass die Einträge von B genau aus den Zeilen von A mit den Nummern i1 , . . . , ip und den Spalten von A mit den Nummern j1 , . . . , jq (jeweils in dieser Reihenfolge) stammen. Für r ∈ N nennt man die Determinanten quadratischer (r, r)-Untermatrizen von A r-Minoren von A, wobei 0-Minoren von A gleich 1R und r-Minoren von A mit r > min{m, n} gleich 0R gesetzt werden. Sei nun R ein Körper. Beweisen Sie das Rangkriterium von Frobenius: rangR A = max{r ∈ N | A besitzt eine von 0R verschiedene r-Minore} . Hinweis: Man wende Folgerung 5.16(2) an. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 10 Abgabe in den Seminaren vom 18. 6. - 21. 6. 2009 1 −2 3 −6 ∈ Q3,3 . Bestimmen Sie alle t ∈ Q, 37. Für t ∈ Q sei At := −4 5 7 −8 9 + t für welche At invertierbar ist und berechnen Sie A−1 für diese t mit Hilfe t der Adjunktenmatrix von At . Für welche dieser t liegt A−1 in Z3,3 ? t 38. Sei R ein Ring und sei n ∈ N ungerade. Zeigen Sie, dass 2 det A = 0R für jede schiefsymmetrische Matrix A ∈ Rn,n . 39. (Zusatzaufgabe, Permutationsmatrizen) Sei R ein (nicht notwendig kommutativer) Ring mit Einselement und sei n ∈ N+ . Für π ∈ Sn sei Aπ ∈ Rn,n diejenige Matrix, deren Eintragan der Stelle (i, j) (mit i, j ∈ {1, . . . , n}) das Element 1R 0R wenn j = π(i) sonst ist. Matrizen der Gestalt Aπ mit π ∈ Sn heißen Permutationsmatrizen. Zeigen Sie: (a) Für alle π ∈ Sn gilt Aπ ∈ Z(R)n,n und det Aπ = sign π · 1R . (b) Für alle π, σ ∈ Sn gilt Aπ·σ = Aσ · Aπ . (c) Für alle π ∈ Sn ist Aπ invertierbar d. h. Aπ ∈ GlZ(R) (n) ⊆ GlR (n) T und es gilt A−1 π = Aπ −1 = Aπ . (d) Durch π 7→ ATπ , π ∈ Sn , ist ein Gruppenmonomorphismus Sn → GlR (n) gegeben. Bemerkung: Permutationsmatrizen verallgemeinern die in Definition 2.31(b) eingeführten Vertauschungsmatrizen. Genauer gilt mit den dortigen Bezeichnungen Vnij = Aπ , wenn π ∈ Sn die durch Vertauschung von i und j gegebene Permutation ist. 40. Sei R ein (nicht notwendig kommutativer) Ring mit Einselement und seien m, n ∈ N+ . Zeigen Sie: (a) Für alle σ ∈ Sm , alle π ∈ Sn und alle B ∈ Rm,n , B =: ((bij ))1≤i≤m , gilt 1≤j≤n Aσ · B · A−1 π = bσ(i)π(j) 1≤i≤m . 1≤j≤n (b) Für alle π ∈ Sn und alle x1 , . . . , xn ∈ R gilt Aπ · Diag x1 , . . . , xn · A−1 π = Diag xπ(1) , . . . , xπ(n) . Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 11 Abgabe in den Seminaren vom 25. 6. - 28. 6. 2012 41. (Spezielle lineare Gruppen) Seien R ein kommutativer Ring und F ein freier R-Modul mit n := rangR F < ∞, wobei n ∈ N+ . Zeigen Sie: (a) Sind A, A0 ∈ Rn,n ähnlich, so gilt det A = det A0 . (b) Sei f ∈ EndR F . Sind A, A0 ∈ Rn,n Koordinatenmatrizen von f bzgl. geordneter Basen B, B0 von F , so gilt det A = det A0 . Damit definiert man det f := det A , wenn A Koordinatenmatrix von f bzgl. einer geordneten Basis von R ist, und SlR (F ) := {f ∈ GlR (F ) | det f = 1R } . SlR (F ) heißt spezielle lineare Gruppe von F . Entsprechend heißt SlR (n) := {A ∈ GlR (n) | det A = 1R } n-te spezielle lineare Gruppe von R. (c) SlR (F ) bzw. SlR (n) sind Normalteiler von GlR (F ) bzw. von GlR (n) (zur Definition von Normalteilern s. Übungsaufgabe 5). 42. Für die nachfolgenden Matrizen bestimme gehörige Eigenräume über Q : 0 1 3 0 1 (a) 0 1 0 (b) 0 −2 2 1 1 man jeweils Eigenwerte und zu2 1 −2 0 0 0 2 3 0 0 2 1 Welche dieser Matrizen ist diagonalisierbar? Für diese bestimme man jeweils eine dazu ähnliche Diagonalmatrix. 43. Sei K ein Körper und sei A ∈ K n,n , wobei n ∈ N+ . Zeigen Sie: (a) χA = χAT . (b) die Eigenwerte von A stimmen mit den Eigenwerten von AT einschließlich ihrer algebraischen und geometrischen Vielfachheiten überein. (c) A ist genau dann diagonalisierbar, wenn AT diagonalisierbar ist. 44. (Zusatzaufgabe) Sei K ein Körper und sei n ∈ N+ . Zeigen Sie: (a) Für eine Matrix A ∈ K n,n gilt det A = 1K genau dann, wenn A ein Produkt von (n, n)-Additionsmatrizen ist (s. Definition 2.29). Hinweis: Sei A ∈ K n,n , so dass die erste Zeile oder Spalte von A von Null verschieden ist. Sie können verwenden: Wenn n ≥ 2, so gibt es Produkte U, V von 1K 0 n,n 0 n−1,n−1 (n, n)-Additionsmatrizen aus K und A ∈ K mit U AV = . 0 A0 (b) Für eine Matrix A ∈ K n,n sind die folgenden Bedingungen äquivalent: (i) A ∈ EK (n) (ii) det A = ±1K (iii) A ist Produkt von (n, n)-Additionsmatrizen aus K n,n und evtl. einer Multiplikationsmatrix der Gestalt Mn1 (−1R ). Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 12 Abgabe in den Seminaren vom 2. 7. - 5. 7. 2012 45. Zeigen Sie, dass die folgenden Matrizen B trigonalisierbar bzw. diagonalisierbar sind und bestimmen Sie jeweils invertierbare Matrizen T , so dass T BT −1 Dreiecks- bzw. Diagonalgestalt hat. 3 −1 −1 0 1 −i − 1 0 4 −1 −1 3 ∈ Q4,4 i 0 ∈ C3,3 (b) B = (a) B = 0 0 0 1 −1 i−1 i+1 i 0 0 1 3 46. Sei K ein Körper und n ∈ N+ . Zeigen Sie (a) Jede symmetrische Matrix aus K n,n ist kongruent zu einer Diagonalmatrix aus K n,n . (b) Wenn für jedes α ∈ K ein β ∈ K existiert mit α = β 2 , so ist jede symmetrische Matrix A ∈ K n,n kongruent zu einer Matrix der Form Er 0r,n−r , wobei r := rangK A. 0n−r,r 0n−r,n−r Insbesondere ist jede invertierbare symmetrische Matrix aus K n,n kongruent zur (n, n)-Einheitsmatrix. 47. Sei R ein Ring und sei n ∈ N+ . Zeigen Sie: (a) Wenn A, A0 ∈ Rn,n kongruent sind, so ist A symmetrisch genau dann, wenn A0 symmetrisch ist. (b) A ∈ Rn,n ist kongruent zur Einheitsmatrix genau dann, wenn es eine Matrix S ∈ GlR (n) gibt mit A = S T S. Die beiden folgenden Aufgaben sind Zusatzaufgaben. Hierfür seien R ein Ring, M ein R-Modul und p ∈ N+ . Für jedes σ ∈ Sp wird eine Abbildung vσ : M p → M p durch vσ (m1 , . . . , mp ) := (mσ(1) , . . . , mσ(p) ) für alle (m1 , . . . , mp ) ∈ M p definiert. Es ist klar, dass vσ R-Automorphismus von M p ist, d. h. vσ ∈ GlR (M p ). Damit definieren wir R-Endomorphismen s, a ∈ EndR (M p ) X X (sign σ)vσ . s := vσ und a := σ∈Sp (s und a sind i. a. keine Automorphismen!) σ∈Sp 48. Zeigen Sie: (a) Durch σ 7→ vσ , σ ∈ Sp , ist ein Gruppenhomomorphismus v : Sp → GlR (M p ) gegeben, der für M 6= 0 injektiv ist. (b) Für alle π ∈ Sp gilt s ◦ vπ = vπ ◦ s = s sowie a ◦ vπ = vπ ◦ a = (sign π)a und damit s2 (= s ◦ s) = p ! s sowie a2 = p ! a. 49. Zeigen Sie: (a) Seien m1 , . . . , mp ∈ M . (i) Für alle π ∈ Sp gilt s mπ(1) , . . . , mπ(p) = s m1 , . . . , mp (ii) Wenn es i, j ∈ {1, . . . , p} gibt mit i 6= j und mi = mj , so gilt a(m1 , . . . , mp ) = 0. (b) Durch ϕ 7→ ϕ ◦ s bzw. ϕ 7→ ϕ ◦ a, ϕ ∈ MultpR (M, N ), sind R-Homomorphismen S : MultpR (M, N ) → SympR (M, N ) bzw. A : MultpR (M, N ) → AltpR (M, N ) gegeben. Sie heißen Symmetrisierungs- bzw. Antisymmetrisierungsoperator. Übungsaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Serie 13 Abgabe in den Seminaren vom 9. 7. - 12. 7. 2012 50. Sei n ∈ N+ . Zeigen Sie: (a) Seien A, A0 ∈ Rn,n kongruent. Dann ist A genau dann positiv (semi)definit, negativ (semi)definit oder indefinit, wenn A0 die entsprechende Eigenschaft hat. (b) Jede symmetrische Matrix A ∈ Rn,n ist kongruent zu einer Diagonalmatrix der Gestalt Diag(1 , . . . , n ) mit 1 , . . . , n ∈ {0, 1, −1}. (c) Eine symmetrische Matrix in A ∈ Rn,n ist genau dann positiv definit, wenn A kongruent zur Einheitsmatrix ist. 1 1 1 1 1 2 2 2 4,4 51. Für t ∈ R sei A(t) := 1 2 t t ∈ R . 1 2 t 3 (a) Bestimmen Sie alle t ∈ R, für die A(t) positiv definit ist. (b) Was kann man über die Definitheit von A(3) und A(4) sagen (positiv, negativ (semi)definit, indefinit)? 52. Sei n ∈ N+ und A ∈ Rn,n . Bestimmen Sie Matrix S ∈ GlR (n) und eine Diagonalmatrix 2 1 2 (b) A = −3 (a) A = 2 3 3 in den folgenden Fällen eine D ∈ Rn,n , so daß S T AS = D: −3 3 1 −2 −2 2 In welchen Fällen ist A nicht ausgeartet, positv (semi)definit, negativ (semi)definit, indefinit? 53. (Zusatzaufgabe) Sei n ∈ N+ . Für eine Matrix symmetrische Matrix A ∈ Rn,n und k ∈ {1, . . . , n} sei Ak ∈ Rk,k die Teilmatrix von A, deren Einträge aus den ersten k Zeilen und Spalten von A stammen. Zeigen Sie: (a) Ist eine symmetrische Matrix A ∈ Rn,n positiv (negativ) semidefinit, so gilt det Ak ≥ 0 (−1)k det Ak ≥ 0 für alle k = 1, . . . , n. (b) Wenn n ≤ 2, so gilt die Umkehrung der Aussage aus (a) für symmetrische invertierbare Matrizen. (c) Wenn n ≥ 2, so gibt es eine symmetrische indefinite Matrix A ∈ Rn,n k mit det Ak ≥ 0 (−1) det Ak ≥ 0 für alle k = 1, . . . , n. Dabei kann A für n ≥ 3 sogar aus GlR (n) gewählt werden. Zusatzaufgaben zur Vorlesung Lineare Algebra II Sommersemester 2012 Abgabe bis spätestens 13. Juli 2012 Z1. Seien M, X, Y Mengen. Wir definieren eine Abbildung indem wir für λ ∈ M X×Y y ∈ Y . Zeigen Sie ϕ : M X×Y → (M X )Y , setzen: (ϕ(λ))(y) (x) = λ(x, y) für alle x ∈ X, (a) ϕ ist eine Bijektion. (b) Ist M ein Links-R-Modul für einen Ring R, so ist ϕ ein R-Isomorphismus. Durch Einschränkung liefert ϕ außerdem einen R-Isomorphismus M (X×Y ) → (M (X) )(Y ) . Z2. (s. Übungsaufgabe 3) Seien R ein Ring und (Mι )ι∈I (I Indexmenge) eine Familie von Links-R-Moduln. Zeigen Sie Q (a) Für alle κQ ∈ I ist die durch ϕ 7→ ϕ(κ), ϕ ∈ ι∈I Mι , definierte Abbildung πκ : ι∈I Mι → Mκ ein R-Epimorphismus. Die πκ , κ ∈ I, nennt man auch kanonische Epimorphismen. (b) Q ι∈I Mι erfüllt folgende Bedingung: Für jeden Links-R-Modul N und jede Familie (ϕι )ι∈I von R-Homomorphismen ϕι : N → Mι , ι ∈QI, gibt es einen eindeutig bestimmten R-Homomorphismus f : N → ι∈I Mι mit πι ◦ f = ϕι für alle ι ∈ I, wenn πι der kanonische Epimorphismus ist (s. (a)). Q Q (c) ι∈I Mι ist zusammen mit den Homomorphismen πκ : ι∈I Mι → Mι , κ ∈ I, durch die Bedingung aus (b) bis auf einen eindeutig bestimmten Isomorphismus eindeutig bestimmt (man bezeichnet diese Bedingung daher auch als Universalitätsbedingung). ` (d) Für alle κ (∈ I und alle m ∈ Mκ sei µκ,m ∈ ι∈I Mι definiert durch m wenn ι = κ µκ,m (ι) := für alle ι ∈ I. 0Mι sonst Damit ` ist die durch m 7→ µκ,m , m ∈ Mκ , definierte Abbildung µκ : Mκ → ι∈I Mι ein R-Monomorphismus. Die µκ , κ ∈ I, nennt man auch kanonische Monomorphismen. (e) ` ι∈I Mι erfüllt folgende Bedingung: Für jeden Links-R-Modul N und jede Familie (ψι )ι∈I von R-Homomorphismen fι : Mι → N `, ι ∈ I, gibt es einen eindeutig bestimmten R-Homomorphismus f : ι∈I Mι → N mit f ◦ µι = ψι für alle ι ∈ I, wenn µι der kanonische Monomorphismus ist (s. (d)). ` ` (f) ι∈I Mι ist zusammen mit den Homomorphismen µκ : Mκ → ι∈I Mι , κ ∈ I, durch die Bedingung aus (e) bis auf einen eindeutig bestimmten Isomorphismus eindeutig bestimmt (man bezeichnet diese Bedingung daher analog wie in (c) als (Ko-)Universalitätsbedingung). Z3. Seien R ein Ring, N ein Links-R-Modul und (Mι )ι∈I (I Indexmenge) eine Familie von Links-R-Moduln. Wir definieren Abbildungen Q Q ρ : HomR N, ι∈I Mι → ι∈I HomR (N, Mι ) und ` Q σ : HomR ι∈I Mι , N → ι∈I HomR (Mι , N ) , Q ` indem wir für alle g ∈ HomR N, ι∈I Mι , h ∈ HomR ι∈I Mι , N und alle κ ∈ I setzen (ρ(g))(κ) := πκ ◦ g und (σ(h))(κ) := h ◦ µκ , Q wenn πκ : ι∈I Mι → Mκ der R-Epimorphismus aus Übungsaufgabe Z2(a) ` und µκ : Mκ → ι∈I Mι der R-Monomorphismus aus Übungsaufgabe Z2(d) ist. Zeigen Sie, dass ρ, σ Isomorphismen sind. Ist R kommutativ, so sind ρ, σ sogar R-Isomorphismen. Z4. Zeigen Sie, dass mit den Bezeichnungen aus Übungsaufgabe Z3 gilt: Q Q Der Isomorphismus ρ−1 : ι∈I HomR (N, Mι ) → HomR N, ι∈I Mι induziert durch Einschränkung einen Monomorphismus ` ` ρ0 : ι∈I HomR (N, Mι ) → HomR N, ι∈I Mι . ρ0 ist Isomorphismus, wenn N endlich erzeugt ist. Ist R kommutativ, so ist ρ0 R-Monomorphismus bzw., wenn N endlich erzeugt ist, R-Isomorphismus. ` Q ` Q Bemerkung: Wegen ι∈I Mι ⊆ ι∈I Mι gilt HomR N, ι∈I Mι ⊆ HomR N, ι∈I Mι , ` wenn man jeden R-Homomorphismus f : N → ι∈I Mι mit der Hintereinanderschaltung ` Q von f und der Einbettung ι∈I Mι ⊆ ι∈I Mι identifiziert. Z5. (s. Übungsaufgabe 2 und Z2) Sei R ein Ring und seien M1 , . . . . . . , Mp LinksR-Moduln, wobei p ∈ N+ . Für i = 1, . . . , p sei πi : M1 ⊕ . . . ⊕ Mp → Mi der Epimorphismus aus Übungsaufgabe Z2(a) und µi : Mi → M1 ⊕ . . . ⊕ Mp der Monomorphismus aus Übungsaufgabe Z2(d) man beachte, dass M1 ⊕ . . . ⊕ Q ` Mp = pi=1 Mi = pi=1 Mi . Zeigen Sie: (a) Für alle i ∈ {1, . . . , p} und alle (m1 , . . . , mp ) ∈ M1 ⊕ . . . ⊕ Mp gilt πi (m1 , . . . , mp ) = mi (b) Für alle i ∈ {1, . . . , p} und alle m ∈ Mi gilt µi (m) = 0M1 , . . . , 0Mi−1 , m, 0Mi+1 , . . . , 0Mp (c) Für alle i, j ∈ {1, . . . , p} gilt ( idMi π i ◦ µj = 0 (d) Pp i=1 wenn i = j wenn i = 6 j µi ◦ πi = idM1 ⊕...⊕Mp Z6. (affine Unabhängigkeit) Sei K ein Körper und sei V ein K-Vektorraum. Elemente v0 , . . . , vn ∈ V (n ∈ N) heißen affin abhängig, wenn es α0 , . . . , αn ∈ K gibt mit (α0 , . . . , αn ) 6= 0K n+1 (= (0K , . . . , 0K )), so daß α0 v0 + . . . + αn vn = 0V und α0 + . . . + αn = 0K . Ist das nicht der Fall, so heißen v0 , . . . , vn affin unabhängig. Zeigen Sie, daß für v0 , . . . , vn ∈ V folgende Bedingungen äquivalent sind: (i) v0 , . . . , vn sind affin abhängig (ii) v1 − v0 , . . . , vn − v0 sind linear abhängig (iii) Für jedes i = 0, . . . , n sind v0 − vi , . . . , vi−1 − vi , vi+1 − vi , . . . , vn − vi linear abhängig (iv) (1K , v0 ), . . . , (1K , vn ) ∈ K ⊕ V sind linear abhängig. Z7. (Dualmoduln I) Sei R ein kommutativer Ring. Für einen R-Modul M setzen wir M ν := HomR (M, R). M ν heißt Dualmodul von M . Ist N weiterer R-Modul und ist f ∈ HomR (M, N ), so setzt man f ν := HomR (f, R) : N ν → M ν , s. Übungsaufgabe 12(a). Zeigen Sie: (a) Durch f 7→ f ν , f ∈ HomR (M, N ), ist ein R-Homomorphismus ν : HomR (M, N ) → HomR (N ν , M ν ) definiert. (b) Für alle R-Moduln M, N, P und alle f ∈ HomR (M, N ), g ∈ HomR (N, P ) gilt (g ◦ f )ν = f ν ◦ g ν . (c) idνM = idM ν . Z8. (Dualmoduln II) Sei R ein kommutativer Ring. (a) Sei M ein R-Modul. Für m ∈ M sei ψM,m : M ν → R definiert durch ψM,m (ϕ) := ϕ(m) für alle ϕ ∈ M ν . Zeigen Sie, dass ψM,m ∈ M νν und dass durch m 7→ ψM,m , m ∈ M , ein R-Homomorphismus ψM : M → M νν definiert ist. (b) Für alle R-Moduln M, N und alle f ∈ HomR (M, N ) gilt ψN ◦ f = f νν ◦ ψM . Z9. (Dualmoduln III) Sei R ein kommutativer Ring und V 6= 0 ein freier R-Modul. ν B sei Basis von V . Fürjedes b ∈ B definieren wir fb ∈ V als lineare Fortset0 1K wenn b = b zung der durch b0 7→ , b0 ∈ B, definierten Abbildung 0K wenn b0 6= b ϕb : B → R und setzen B ν := {fb | b ∈ B} ⊆ V ν . Zeigen Sie: (a) Die durch b 7→ fb , b ∈ B, definierte Abbildung β : B → B ν ist bijektiv und B ν ist linear unabhängige Teilmenge von V ν . (b) B ν ist Basis von V ν genau dann, wenn rangR V < ∞. In diesem Fall nennt man B ν zu B duale Basis von V ν . (c) Wenn rangR V < ∞, so ist V ν ebenfalls freier R-Modul mit rangR V ν = rangR V . (d) ψV : V → V νν (s. Übungsaufgabe Z8) ist Monomorphismus. (e) ψV ist Isomorphismus genau dann, wenn rangR V < ∞.