Skriptum Lineare Algebra Prof. Dr. René Grothmann Stand: Oktober 2009 2 Inhaltsverzeichnis 1 Grundlagen der Mathematik 11 1.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2 Mathematische Logik . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.1 Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.2 Axiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.3 Sätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.4 Logische Aussagen . . . . . . . . . . . . . . . . . . . . . . 16 1.2.5 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.6 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . 25 1.3.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.3.2 Gleichheit von Mengen . . . . . . . . . . . . . . . . . . . . 26 1.3.3 Potenzmenge . . . . . . . . . . . . . . . . . . . . . . . . . 28 1.3.4 Vereinigung und Schnitt . . . . . . . . . . . . . . . . . . . 28 1.3.5 Relationen und Abbildungen . . . . . . . . . . . . . . . . 32 1.3.6 Bild, Urbild, Umkehrabbildung . . . . . . . . . . . . . . . 34 Die natürlichen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 41 1.4.1 Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 1.4.2 Rekursive Konstruktion . . . . . . . . . . . . . . . . . . . 45 1.4.3 Endliche Mengen . . . . . . . . . . . . . . . . . . . . . . . 47 1.4.4 Abzählbare Mengen . . . . . . . . . . . . . . . . . . . . . 52 1.4.5 Das Auswahlaxiom . . . . . . . . . . . . . . . . . . . . . . 55 1.3 1.4 3 4 INHALTSVERZEICHNIS 2 Vektorräume 2.1 2.2 2.3 57 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.1.1 Definition, Eigenschaften und Beispiele . . . . . . . . . . . 57 2.1.2 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . 61 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.2.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.2.4 Aufgespannter Unterraum . . . . . . . . . . . . . . . . . . 68 2.2.5 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.2.6 Endlich-Dimensionale Vektorräume . . . . . . . . . . . . . 75 2.2.7 Summen von Unterräumen . . . . . . . . . . . . . . . . . 79 Analytische Geometrie . . . . . . . . . . . . . . . . . . . . . . . . 81 2.3.1 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . 82 2.3.2 Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . 85 2.3.3 Strecken und konvexe Mengen 88 . . . . . . . . . . . . . . . 3 Lineare Abbildungen 3.1 3.2 3.3 93 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.1.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.1.2 Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . . 97 3.1.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.1.4 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . 108 Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.2.1 Gaußscher Algorithmus . . . . . . . . . . . . . . . . . . . 112 3.2.2 Berechnung von Basen . . . . . . . . . . . . . . . . . . . . 119 3.2.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 3.2.4 Berechnung der inversen Matrix . . . . . . . . . . . . . . 121 3.2.5 Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . 122 3.2.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . 124 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 3.3.1 Analytische Geometrie . . . . . . . . . . . . . . . . . . . . 131 3.3.2 Affine Abbildungen . . . . . . . . . . . . . . . . . . . . . . 133 3.3.3 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . 136 3.4 Quotientenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 3.5 Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 INHALTSVERZEICHNIS 4 Das Skalarprodukt 4.1 4.2 4.3 4.1.1 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . 145 4.1.2 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 4.2.1 Senkrechte Vektoren . . . . . . . . . . . . . . . . . . . . . 154 4.2.2 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . 161 4.2.3 Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . 167 4.2.4 Orthogonale Unterräume . . . . . . . . . . . . . . . . . . 171 4.2.5 Die adjungierte Abbildung . . . . . . . . . . . . . . . . . . 172 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 Ausgleichsrechung und Lineare Regression . . . . . . . . . 174 5 Determinanten 5.2 6.2 179 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . 179 5.1.1 Determinante als Fläche . . . . . . . . . . . . . . . . . . . 179 5.1.2 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . 180 5.1.3 Die Determinante . . . . . . . . . . . . . . . . . . . . . . 182 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 5.2.1 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . 191 5.2.2 Das Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . 192 5.2.3 Volumen und Fläche . . . . . . . . . . . . . . . . . . . . . 194 5.2.4 Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . 195 5.2.5 Dreieckstraversalen . . . . . . . . . . . . . . . . . . . . . . 197 6 Eigenwerte 6.1 145 Skalarprodukte und Normen . . . . . . . . . . . . . . . . . . . . . 145 4.3.1 5.1 5 203 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . 203 6.1.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 6.1.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . 208 6.1.3 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . 212 6.1.4 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . 219 6.1.5 Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . 220 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 6.2.1 Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . 230 6.2.2 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 6.2.3 Singulärwerte . . . . . . . . . . . . . . . . . . . . . . . . . 241 6.2.4 Drehungen . . . . . . . . . . . . . . . . . . . . . . . . . . 245 6.2.5 Differenzengleichungen . . . . . . . . . . . . . . . . . . . . 247 6 INHALTSVERZEICHNIS Vorwort Das Skript Dieses Skript entstand für eine Vorlesung über ”‘Lineare Algebra und Analytische Geometrie”’ im Winter- und Sommersemester 2004/2005 an der Katholischen Universität Eichstätt. Mit dem Aufkommen der Massenuniversitäten im 19. Jahrhundert etablierte sich der noch heute übliche Stil der Vorlesung mit begleitenden Übungen. In der oft überfüllten Vorlesung trägt der Dozent aus einem vorbereiteten Skript vor. Die Studenten schreiben so weit wie möglich mit und machen sich zusätzliche Notizen. In der Mathematik führt dies dazu, dass der Dozent ein vollständiges Skript an der Tafel entwirft und die Studenten dieses Skript mitschreiben, ohne Zeit zu haben, den Stoff gedanklich zu begleiten. Erst durch eine Nachbereitung (wenn sie erfolgt) und durch das Bearbeiten der Übungen wird der Stoff verstanden. Die offensichtliche Ineffizienz eines bloßen Mitschreibens soll das vorliegende Skript vermeiden helfen. Der Student kann sich auf zusätzliche Notizen beschränken. Er soll damit in die Lage versetzt werden, der Vorlesung zu folgen. Gedankenloses Mitschreiben wird vermieden. Natürlich wird es immer Dinge geben, die der Dozent dem Skript hinzufügt. Zum einen geht er vielleicht auf Zwischenfragen ein, zum anderen rechnet er möglicherweise zusätzliche Beispiele vor, oder er fertigt Skizzen an, die nicht im Skript enthalten sind. Nicht alles, was im Skript steht, muss auch in der Vorlesung detailliert behandelt werden. Stattdessen sollte der Dozent Wert auf das Vermitteln von Verständnis, Motivation und auf die beispielhafte Demonstration von Beweisund Rechentechniken setzen. Es ist besser ein Detail genau und verständlich vorzutragen, oder einen Gedanken zu vertiefen, als durch den Stoff zu hetzen. An anderen Stellen kann eventuell auf eine oberflächliche Darstellung zurückgegriffen werden. Ein Skript ist kein Lehrbuch. Lehrbücher unterscheiden sich von Skripten durch längere Texte und durch kürzere Rechnungen. Sie eignen sich nicht als Vorlesungsskripte. Natürlich nimmt man in ein gedrucktes Skript zur Erhöhung der Lesbarkeit auch Texte auf, die der Dozent normalerweise nicht an die Tafel schreibt, sondern nur als Kommentar sagt. 7 8 INHALTSVERZEICHNIS Studium der Mathematik Während die Schule sich mehr auf Rechentechniken und deren Anwendung konzentriert, steht in der Universität die Abstraktion und das Beweisen im Vordergrund. Dieser Kulturschock ist für die angehenden Mathematiker nur schwer verdaulich. In Wirklichkeit gibt es aber zahlreiche Überlappungen. Der Dozent der Hochschule sollte sich im Gespräch um das Vorwissen der Studenten bemühen, und die bekannten Dinge zum Stoff in Beziehung setzen. Dadurch entstehen für den Studenten gedankliche Anknüpfungspunkte und er fühlt sich weniger verloren. Leider tendiert auch der Autor dieser Zeilen dazu, den Schulstoff zu sehr zu vernachlässigen. Umgekehrt sollte sich die Schule bemühen, mehr als bisher Beweise und Grundlagen in den Unterricht aufzunehmen. In der Tat gibt es viele Lehrer, die sich dieser Herausforderung bewusst sind. Man muss sich darüber im Klaren sein, dass das Studium der Mathematik auf verschiedensten Ebenen stattfindet. • Auf der untersten Sprosse steht das sachliche Verständnis der Tatsachen, die in der Vorlesung gelehrt werden. Dies allein ist eine Herausforderung, da die Aussagen logisch verstanden werden müssen, ebenso wie die korrekte Definition der mathematischen Objekte. • Die direkte Anwendung der Vorlesung und der dort vorgestellten Methoden ist der nächste Schritt. Übungen sollten einen großen Anteil an Rechenaufgaben enthalten, ebenso wie die Beispiele der Vorlesung. Die Anwendung der Mathematik ist auch motivationsfördernd. • Schwieriger ist es schon, Beweise und Begründungen nachvollziehen zu können. Es ist aber für einen Mathematiker nicht nur wichtig zu wissen, was gilt, sondern auch warum. • Das nächste Level ist das Auffinden eigener Beweise zu vorgegebenen Zusammenhängen. Knobelaufgaben sind ein wichtiger Bestandteil der Übungen, die sich nicht nur auf Rechenaufgaben beschränken dürfen. • Auf der obersten Sprosse steht das Entdecken neuer Zusammenhäge. Dies wird leider zu sehr vernachlässigt, obwohl schon auf niedrigem Niveau neue Fragen aufgeworfen werden könnten. Selbst viele Diplomarbeiten enthalten keine vom Studenten selbst entdeckte und begründete neue Zusammenhänge. Ziel des Mathematikstudiums sind nicht nur mathematische Sätze, sondern auch Grundlagen, systematisches und logisches Denken, sowie Hartnäckigkeit beim Lösen von Problemen. Lineare Algebra Lineare Algebra beschäftigt sich im Kern mit dem Studium linearer Gleichungen, also Gleichungen, in denen die Variablen nur linear vorkommen (nicht quadriert oder ähnliches). In der Schule werden neben Geradengleichungen auch INHALTSVERZEICHNIS 9 Systeme lineare Gleichungen behandelt. Außerdem werden Ebenengleichungen behandelt (Hessesche Normalform). Diese Theorie wird ausgebaut, die Lösungsmenge von linearen System beschrieben, und es werden andere Koeffizientenmengen behandelt (zum Beispiel Gleichungen mit komplexen Koeffizienten). Die Matrizenrechnung vereinfacht weiter den Umgang mit linearen Gleichungen. Darüber hinaus werden Determinanten, Skalarprodukte und Eigenwerte behandelt. Die ersten beiden Stoffgebiete tauchen möglicherweise auch schon in der Schule auf, zumindest in Spezialfällen. Eigenwerte sind normalerweise völlig neu. Eine wichtige Anwendung der Techniken der linearen Algebra ist die analytische Geometrie, also das Studium von geometrischen Objekten in der Ebene oder im Raum mit Hilfe von Koordinaten. Auch hier gibt es reiche Anknüpfungspunkte mit der Schule, wie etwa Geraden- und Ebenengleichungen, sowie senkrechten Vektoren. Aus der Schule stammt die Bezeichnung ”‘Vektorrechnung”’. Ein spezieller Gegenstand sind Quadriken, die in der Schule möglicherweise in Form von Ellipsen auftauchen. Das vorliegende Skript legt aber auch Wert auf algebraische Strukturen, also Mengen, in denen man nach vorgegeben Gesetzen rechnen kann. Die wichtigsten behandelten Strukturen sind Körper und Vektorräume. In dem Kapitel über Grundlagen werden Gruppen als Beispiel behandelt. Nichtkommutative Gruppen kommen in Form von Abbildungsräumen vor. Aber auch Skalarprodukte und Determinanten sind wichtige algebraische Strukturen. Literatur Gerd Fischer, Lineare Algebra, Vieweg Verlag. Gerd Fischer, Analytische Geometrie, Vieweg Verlag. 10 INHALTSVERZEICHNIS Kapitel 1 Grundlagen der Mathematik 1.1 Einführung Oft wird Mathematik mit Rechnen gleichgesetzt. Natürlich ist das Berechnen von Werten oder das numerische Lösen von Gleichungen eine der Hauptanwendungen der Mathematik. Aber Mathematik ist mehr. Sie ist darüber hinaus die Fähigkeit, zu abstrahieren. Das bedeutet, dass wir ein konkretes Problem in eine mathematische Welt übersetzen und dort studieren. Dabei werden sehr unterschiedliche Probleme mit denselben mathematischen Methoden behandelt. • Lösen von Gleichungen. Schon in der Schule wird das Lösen von Gleichungen in verschiedenen Zusammenhängen angewendet. Man kann damit Bewegungsprobleme lösen, Geldbeträge oder Zinsen berechnen, oder auch geometrische Größen, wie Flächen, Strecken oder Winkel, bestimmen. • Wahrscheinlichkeitsrechung. Die Wahrscheinlichkeitsrechnung überall angewandt, wo der Zufall mathematisch erfasst werden soll, vom Würfeln bis zur Umfrage. Immer wird dieselbe mathematische Theorie verwendet. • Differential- und Integralrechnung. Diese schon in der Schule verwendeten Kalküle haben ebenfalls vielfältige Anwendungen, von der Bestimmung der Extremwerte von Funktionen bis zur Berechnung des freien Falls in der Physik. Solche Theorien mit breitem Anwendungsspektrum zeigen die Nützlichkeit der mathematischen Abstraktion. Der Nutzen der mathematischen Abstraktion besteht darin, dass die unterschiedlichsten Probleme in denselben mathematischen Rahmen gestellt werden und dort exakt und allgemeingültig lösbar sind. 11 12 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Eine mathematische Theorie abstrahiert also von einem konkreten Problem, indem sie die wichtigsten Eigenschaften und Zusammenhänge erfasst und für andere, ähnlich gelagerte Probleme zur Verfügung stellt. Außerdem werden so die wesentlichen Dinge herausgehoben, und Unwesentliches weggelassen. In Abbildung 1.1 ist das schematisch festgehalten. Dort wird für ein konkretes Problem das Wort ”‘Modell”’ verwendet. Man könnte stattdessen von auch ”‘Realisierung”’ oder ”‘Anwendung”’ einer mathematischen Theorie sprechen. Abbildung 1.1: Mathematische Theorie und ihre Modelle 1.2 Mathematische Logik Wie funktioniert nun diese Übertragung von konkreten Modellen in mathematische Theorien? 1.2.1 Modelle Ein Modell für eine mathematische Theorie ist eine gedachte Gesamtheit (wir wollen noch nicht ”‘Menge”’ sagen) von Objekten. Dies kann eine endliche Gesamtheit oder eine unendliche Gesamtheit sein. Die Zahlen der Zahlgerade R bilden zum Beispiel eine unendliche Gesamtheit. Wir sind in einer mathematischen Theorie interessiert an gewissen Eigenschaften, die die Objekte haben oder nicht haben. Für ein Objekt x könnten wir 1.2. MATHEMATISCHE LOGIK 13 diese Eigenschaft als A(x) schreiben, und für jedes konkrete Objekt x nehmen wir an, dass A(x) entweder wahr ist oder falsch. 1.1. Beispiel: Für die reellen Zahlen ist x > 0 so eine Eigenschaft, die entweder wahr ist oder falsch. Es kann auch Beziehungen zwischen zwei oder mehr Objekten geben, die erfüllt sind oder nicht erfüllt sind. Für zwei Objekte x und y könnten wir die Beziehung als R(x, y) schreiben, und für je zwei Objekte ist diese Beziehung entweder erfüllt oder nicht. 1.2. Beispiel: Eine Beziehung zwischen zwei reellen Zahlen ist etwa x < y, und eine Beziehung zwischen drei reellen Zahlen ist x + y = z. Außerdem kann es sein, dass wir gewisse Objekte als Konstante auszeichnen und mit einem eindeutigen Namen versehen. Ein Objekt mit diesem Namen muss dann in jedem Modell unserer Theorie vorhanden sein. 1.3. Beispiel: Bei den reellen Zahlen könnten wir die Konstanten 0 und 1 festlegen. Wir sind in unseren Modellen an Eigenschaften von Objekten, Beziehungen zwischen Objekten und speziellen Objekten, den Konstanten, interessiert. 1.4. Beispiel: Wir treffen oft Gesamtheiten von Objekten an, in denen man addieren kann. Als Beziehung betrachten wir dann eine Beziehung zwischen je drei Objekten x, y, z, die besagt, dass die Summe von x und y gleich z ist. Man schreibt das, wie gewohnt, als x + y = z. Beispiele für Additions-Modelle aus der Schule sind die natürlichen Zahlen, die Brüche, die reellen Zahlen und die Vektoren. Man kann darüber hinaus aber auch Funktionen addieren, oder Matrizen. Diese Schreibweise ist also universell einsetzbar. 1.2.2 Axiome Axiome sind Aussagen, die in jedem Modell der Theorie gelten sollen. Jedes Modell der Theorie muss also alle Axiome erfüllen. Durch die Axiome werden unsere Theorien exakt festgelegt. Wir legen Axiome fest, die in allen für uns interessanten Modellen gelten sollen. 1.5. Beispiel: Wir kehren zurück zu unserem Beispiel mit der Addition. Dafür legen wir nun Axiome fest, die schon aus der Schule bekannt sein sollten. 14 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK 1. Das erste Axiom erscheint selbstverständlich, verdient es aber, festgehalten werden. Für alle x, y existiert genau ein z mit x + y = z. Dies entspricht unserer Vorstellung von Addition. Aufgrund dieses Axioms machen Ausdrücke wie (a + b) + c erst Sinn und wir können wie gewohnt rechnen. Wenn nämlich a+b nicht eindeutig bestimmt wäre, was soll dann (a + b) + c bedeuten? 2. Als nächstes Axiom haben wir Für alle x, y gilt x + y = y + x. Dies ist das Kommutativgesetz. 3. Weiter Für alle x, y, z gilt (x + y) + z = x + (y + z). Dies ist das Assoziativgesetz. 4. Wir nehmen auch die Existenz eines neutralen Elements und des Inversen an. Es gibt ein Element 0, so dass gilt x+0=x für alle x, und Für alle x existiert ein y mit x + y = 0. Diese Axiome nennt man Axiome einer Gruppe (engl.: group) (genauer, einer kommutativen Gruppe). Wie wir wissen, erfüllen die reellen Zahlen diese Axiome, aber auch die Vektoren. Es gibt aber noch zahlreiche andere interessante Gruppen, denen wir in dieser Vorlesung begegnen werden. Axiome sollen unabhängig sein. Das heißt, dass man kein Axiom weglassen kann. Das ist der Fall, wenn es ein Modell gibt, dass die anderen Axiome erfüllt, aber das wegzulassende Axiom nicht. Axiome sollen widerspruchsfrei sein. Das bedeutet, dass kein Axiom den übrigen widerspricht. Dies ist genau dann der Fall, wenn es überhaupt ein Modell für die Theorie gibt. 1.2.3 Sätze Ein Satz einer Theorie ist eine Aussage, die in allen Modellen der Theorie wahr ist. Das heißt, in jedem denkbaren Modell, in dem die Axiome erfüllt sind, gilt auch der Satz. Damit wird die Theorie allgemein gültig. Solange die Voraussetzungen erfüllt sind, stimmen die Resultate der Theorie. 1.6. Beispiel: Kehren wir zu den Gruppen zurück. Die folgende Aussage ist ein Satz der Gruppentheorie. Es gibt genau ein neutrales Element. 1.2. MATHEMATISCHE LOGIK 15 Das bedeutet ausgeschrieben: Wenn 0 und 0̃ beide die Eigenschaften eines neutralen Elementes erfüllen, dann ist 0 = 0̃. Ein Satz muss bewiesen werden. Dazu verwenden wir logische Argumente die zeigen, dass der Satz in jedem Modell gelten muss, in dem die Axiome gelten. Man darf dabei keine zusätzlichen Annahmen machen, oder nur Spezialfälle betrachten. Sätze sind allgemein gültige Aussagen. Ihre Aussagen sind in jedem Modell gültig, in dem die Voraussetzungen gelten. Ein Beweis ist eine Argumentation, die die Allgemeingültigkeit nachweist. 1.7. Beispiel: Beweisen wir den oben erwähnten Satz über die Eindeutigkeit des neutralen Elements. In einer kommutativen Gruppe ist das nicht schwer. Seien also 0 und 0̃ neutrale Elemente. Dann gilt 0 + 0̃ = 0, weil 0̃ neutrales Element ist. Außerdem gilt 0̃ + 0 = 0̃, weil 0 neutrales Element ist. Aufgrund des Kommutativgeseztes hat man also 0 = 0 + 0̃ = 0̃ + 0 = 0̃. Damit ist 0 = 0̃ bewiesen. Wir haben dazu lediglich das Kommutativgesetz benötigt. 1.8. Beispiel: Wir zeigen, dass in einer Gruppe auch inverse Elemente eindeutig bestimmt sind. Das ist schon schwerer. Sei x also ein Element der Gruppe und y zu x invers, also x + y = 0. Sei ỹ ebenfalls ein inverses Element, also x + ỹ = 0. Dann addieren wir in der ersten Gleichung ỹ auf beiden Seiten und in der zweiten y. Also ỹ + (x + y) = ỹ + 0 = ỹ, y + (x + ỹ) = y + 0 = y. Die beiden linken Seiten sind aber gleich. Denn ỹ + (x + y) = (ỹ + x) + y = y + (ỹ + x) = y + (x + ỹ). Also folgt y = ỹ. Bei dieser Argumentation haben wir alle Axiome verwendet! 1.9. Bemerkung: Die beiden Aussagen über die Eindeutigkeit bleiben richtig, wenn man das Kommutativgesetz streicht. Aber sie sind dann nur mit deutlich mehr Aufwand zu beweisen. 16 1.2.4 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Logische Aussagen Da es erfahrungsgemäß am Anfang schwierig ist, in Beweisen exakt und logisch zu argumentieren, lohnt es sich, logische Aussagen etwas genauer unter die Lupe zu nehmen. Elementare Aussagen (Prädikate) Die in unserem Modell betrachteten Eigenschaften und Beziehungen sind die elementaren Aussagen unserer Theorie. Bei den Gruppen ist die einzige elementare Aussage x + y = z. Die Gleichheit v = w ist in jedem Modell eine elementare Aussage, die für je zwei Objekte v und w wahr ist oder falsch. Man sagt, die Objekte seien unterscheidbar. Boolesche Aussagen Und. Zwei Aussagen A und B lassen sich mit ”‘und”’ verknüpfen. Die Aussage ”‘A und B gelten”’ ist genau dann wahr, wenn die Aussagen A und B beide wahr sind. Oder. Zwei Aussagen A und B lassen sich auch mit ”‘oder”’ verknüpfen. Im Gegensatz zur Umgangssprache bedeutet dies, dass eine der beiden Aussagen oder auch beide wahr sind. Nicht. Die Bedeutung der Aussage ”‘A gilt nicht”’ ist klar. Implikation. Über die Aussage ”‘Aus A folgt B”’ herrschen dagegen oft Unklarheiten. Die Aussage ist richtig, wenn in jedem Modell, in dem A gilt auch B gelten muss. Wenn A in einem Modell nicht gilt, ist es egal, ob B gilt oder nicht. Das bedeutet, dass die Aussage gleichbedeutend ist mit ”‘A gilt nicht, oder B gilt”’. Wenn die Aussage A immer, also in jedem Modell, falsch ist, dann ist die Aussage ”‘Aus A folgt B”’ richtig, wenngleich sinnlos (ex falso quodlibet). 1.10. Beispiel: Ein Satz einer Theorie wird gewöhnlich in der Form Aus A1 und A2 und . . . und An folgt B wiedergegeben. B muss gelten, wenn alle Voraussetzungen A1 , . . . , An gelten. Wenn eine der Voraussetzungen immer falsch ist, dann ist der Satz richtig, aber sinnlos. Man nennt A1 bis An die Prämissen des Satzes und B die Konklusion. Äquivalenz. Die Bedeutung der Aussage ”‘A gilt genau dann, wenn B gilt”’ ist offensichtlich. Die Aussage beweist man in zwei Teilen. Zuerst zeigt man, dass aus A die Aussage B folgt, und dann zeigt man, dass aus B die Aussage A folgt. Man sagt auch oft, dass die Aussagen A und B äquivalent sind. 1.2. MATHEMATISCHE LOGIK 17 In der Booleschen Algebra werden für diese Verknüpfungen Zeichen eingeführt, die wir hier aber bis auf ⇒ und ⇔ nur selten verwenden. Diese Zeichen sind A ∧ B, A und B, A ∨ B, A oder B, A ⇒ B, Aus A folgt B, A ⇔ B, A und B sind äquivalent, ¬A, Nicht A. Außerdem lernt man, mit booleschen Ausdrücken zu rechnen. In Wahrheitstafeln wird für einen booleschen Ausdruck der Wahrheitswert, abhängig vom Wahrheitswert der Variablen festgehalten. Hier ist die Wahrheitstafel für die bisher behandelten booleschen Ausdrücke. A w w f f B w f w f A∨B w w w f A∧B w f f f A ⇒ B w f w w A ⇔ B w f f w 1.11. Beispiel: Wann ist die Aussage ”‘A und B”’ falsch? Das Gegenteil der Aussage ”‘A und B”’ ist offensichtlich die Aussage ”‘Nicht A oder nicht B”’. In der booleschen Algebra stellt sich mit Hilfe von Wahrheitstafeln heraus, dass die Aussage ¬(A ∧ B) ⇔ (¬A) ∨ (¬B). immer wahr ist. Man nennt solche Aussagen Tautologien. 1.12 Aufgabe: Vervollständigen Sie die folgende Wahrheitstafel. A w w f f B w f w f ¬A ¬B A∧B (¬A) ∨ (¬B) 1.13 Aufgabe: Wann ist die Aussage ”‘A oder B”’ falsch? 1.14 Aufgabe: Angenommen, alle Kreter sind Lügner. Wenn nun Sokrates ein Kreter ist, muss er Lügner sein. Was kann daraus geschlossen werden, dass Sokrates Lügner ist? Was kann daraus geschlossen werden, dass Sokrates kein Lügner ist? 1.15 Aufgabe: Welche der folgenden Aussagen sind Tautologien? A ⇒ B ⇔ B ⇒ A A ⇒ B ⇔ ¬B ⇒ ¬A (A ⇒ B) ∧ A ⇒ B (A ⇒ B) ∧ ¬B ⇒ ¬A (A ⇒ B) ∧ ¬A ⇒ ¬B 18 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Quantoren Allquantor. Wir betrachten die Aussage ”‘Für alle x gilt A(x)”’. Dabei ist A(x) eine Aussage, die x als freie Variable enthält. Eine freie Variable ist eine Variable, die nicht schon durch einen anderen Quantor gebunden ist. Die Aussage ist in einem Modell richtig, wenn A(x) in dem Modell immer richtig ist, egal welches konkrete Objekt x man einsetzt. Man schreibt ∀x A(x). 1.16. Beispiel: Das Kommutativgesetz in einer Gruppe schreibt sich dann als ∀x ∀y (x + y = y + x) . Dies sind eigentlich zwei ineinander geschachtelte Allquantoren. Man schreibt das einfach als ∀x,y (x + y = y + x) , da es auf die Reihenfolge der Allquantoren offenbar nicht ankommt. Existenzquantor. Die Aussage ”‘Es gibt ein x mit A(x)”’ ist genau dann in einem Modell erfüllt, wenn es dort ein konkretes Objekt x gibt, für das A(x) wahr ist. Wir schreiben ∃x A(x). 1.17. Beispiel: Die Existenz des Inversen in einer Gruppe lässt sich damit als ∀x ∃y (x + y = 0) schreiben, wobei 0 das neutrale Element der Gruppe sei. Hier kommt es natürlich schon auf die Reihenfolge der Quantoren an! 1.18 Aufgabe: Schreiben Sie das Axiom von der Existenz des neutralen Elements mit Hilfe von Quantoren. 1.19. Beispiel: In der Graphentheorie betrachtet man Modelle mit der Beziehung x→y zwischen x und y. In Abbildung 1.2 ist das durch Pfeile angedeutet. Die Punkte stellen die Objekte des Modells dar. Wie man sieht, geht von jedem Punkt ein Pfeil aus. Also ist die Aussage ∀x ∃y (x → y) in diesem Modell wahr. 1.20 Aufgabe: Überprüfen Sie im Graphen 1.2 die folgenden Aussagen. (1) ∃x ∀y (x → y) (2) ∀x ∃y (y → x) 1.2. MATHEMATISCHE LOGIK 19 Abbildung 1.2: Ein Graph (3) Es gibt x, y, z, v mit x → y, y → z, z → v, v → x. Wann ist die Aussage ∀x A(x) falsch? Das ist genau dann der Fall, wenn die Aussage ”‘Es gibt kein x, für das A(x) falsch ist”’ richtig ist. In Zeichen ¬∀x A(x) ⇔ ∃x ¬A(x). Umgekehrt ist die Aussage ∃x A(x) falsch, wenn für alle x die Aussage ¬A(x) richtig ist. Sehr oft formuliert man auch die Aussage ”‘Es gibt genau ein x mit A(x)”’. Diese Aussage zerlegt sich in zwei Teile, nämlich die Existenz ∃x A(x) und die Eindeutigkeit ∀x,y (A(x) und A(y) ⇒ x = y) . Beispielsweise haben wir schon gezeigt, dass es in einer Gruppe genau ein neutrales Element gibt. Im Beweis haben wir angenommen, dass es zwei solche Elemente gibt, und gezeigt, dass diese Elemente gleich sein müssen. 1.21 Aufgabe: Gibt es in Abbildung 1.2 zu jedem x genau ein y mit x → y? 1.22 Aufgabe: Formulieren Sie die folgenden Aussagen in logischen Ausdrücken, die nur All- und Existenzquantoren, sowie die Booleschen Grundelemente enthalten. A und B seien hier beliebige Aussagen, die für x bzw. y gelten oder nicht gelten. 20 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK (1) Es gibt mindestens zwei Objekte x und y, für die die Aussage A gilt. (2) Es gibt genau zwei Objekte x und y, für die die Aussage A gilt. (3) Es gibt höchstens ein Objekt x, für das die Aussage A gilt. (4) Kein x, für das A gilt, erfüllt auch B. (5) Obwohl A nicht gilt, gilt die Aussage B. (6) Entweder gilt A oder B. 1.2.5 Definitionen Definitionen sind einfach Abkürzungen für häufig verwendete Eigenschaften oder Objekte. 1.23. Beispiel: Da es zu jedem Gruppenelement x ein eindeutig bestimmtes inverses Element gibt, kann man für das Inverse das Zeichen −x definieren und dann damit rechnen. Ebenfalls definiert man x − y := x + (−y). Das Zeichen ”‘:=”’ steht für ”‘definiert als”’. Definitionen von Zeichen machen nur Sinn, wenn diese Zeichen eindeutig bestimmte Objekte angeben. 1.24. Beispiel: Wir zeigen, dass in jeder Gruppe für alle x, y −(x + y) = (−x) + (−y) gilt. Dazu rechnen wir nach, dass (x + y) + ((−x) + (−y)) = 0 gilt. Dies ist eine leichte Aufgabe, die wir dem Leser überlassen. Wenn wir das nachgerechnet haben, ist also (−x) + (−y) ein inverses Element zu x + y. Die Behauptung folgt also aus der Eindeutigkeit des inversen Elementes, die wir ja schon bewiesen haben. 1.25 Aufgabe: Zeigen Sie −(−x) = x für alle Elemente x in einer Gruppe. Man kann auch Eigenschaften von Objekten definieren. In den Voraussetzung eines Satzes braucht man dann nur noch zu sagen, dass das Objekt die definierte Eigenschaft hat, anstatt diese Eigenschaft explizit auszuschreiben. 1.26. Beispiel: Ein Punkt x in einem Graphen heiße erreichbar, wenn es ein y gibt mit y → x. Dies ist eine Definition der Eigenschaft ”‘Erreichbarkeit”’, die ein Punkt hat oder nicht hat. 1.2. MATHEMATISCHE LOGIK 1.2.6 21 Beweise Auch korrektes Beweisen fällt anfangs oftmals schwer. Natürlich gewinnt man mit der Zeit Übung. Wir wollen hier aber dennoch einige allgemeine, und immer wiederkehrende Beweisstrategien behandeln. Die normale Formulierung eines Satzes besteht darin, gewisse Voraussetzungen anzugeben und eine Behauptung, die aus diesen Voraussetzungen folgt. Implizit werden immer die Axiome der Theorie als Voraussetzungen angenommen. Mit logischen Zeichen ist ein mathematischer Satz also von der Form V1 , . . . , V n ⇒ A Dabei sind V1 , . . . , Vn die Voraussetzungen des Satzes (einschließlich der Axiome) und A die Behauptung. Wir haben das Komma als Abkürzung für ”‘und”’ verwendet. Ein Beweis eines Satzes muss für den Leser zwingend darlegen, warum die Behauptung des Satzes aus den Voraussetzungen folgt. Abbildung 1.3: Mathematische Sätze Es ist dabei immer hilfreich, an ein beliebiges Modell zu denken, von dem man nichts weiß, außer, dass dort die Voraussetzungen des Satzes gelten müssen. Man muss lediglich der Versuchung widerstehen, zusätzliche Annahmen zu machen, obwohl sie vielleicht naheliegend erscheinen. 22 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Implikation Behauptungen vom Typ A1 ⇒ A2 beweist man, indem man zusätzlich zu den Voraussetzungen des Satzes annimmt, dass A1 gilt, und daraus schließt, dass A2 gilt. Bei Äquivalenzen A1 ⇔ A2 sind zwei Richtungen zu beweisen, also A1 ⇒ A2 , A2 ⇒ A1 . 1.27. Beispiel: In der Schule werden oft Gleichungen einfach untereinander geschrieben. Es ist dabei wichtig zu beachten, ob die nächste Gleichung im Rechengang aus der vorigen Folgt, oder ob die Gleichungen äquivalent sind. Innerhalb der reellen Zahlen folgt zum Beispiel aus x = y immer x2 = y 2 , aber der umgekehrte Schluss ist falsch. Das Wurzelziehen auf beiden Seiten einer Gleichung ist keine erlaubte Operation, wenn man Äquivalenz aufrecht erhalten will. Gleiches gilt für das Kürzen von Faktoren auf beiden Seiten, von denen nicht sichergestellt ist, dass sie ungleich 0 sind. Aussagen mit Allquantoren Wenn die Aussage vom Typ ∀x A(x) ist, so nimmt man ein ”‘beliebiges, aber festes”’ x in einem beliebigen Modell der Theorie und beweist die Aussage A(x) für dieses x. Dabei darf man natürlich keine speziellen Annahmen über x oder das Modell machen. 1.28. Beispiel: In einer Gruppe gilt für alle x, y, ỹ die folgende Aussage y + x = ỹ + x ⇒ y = ỹ. Diesen Satz beweisen wir, indem wir x, y, ỹ als beliebig vorgegeben annehmen. Dann gilt, wenn wir die Notation −x für das Inverse von x verwenden, y = y + 0 = y + (x + (−x)) = (y + x) + (−x) = (ỹ + x) + (−x) = ỹ + (x + (−x)) = ỹ + 0 = ỹ. Wir haben also de facto −x auf beiden Seiten der Gleichung y + x = ỹ + x addiert. 1.29. Beispiel: Die Umkehrung y = ỹ ⇒ y + x = ỹ + x. für alle x, y, ỹ in einer Gruppe braucht nicht bewiesen zu werden. Sie ist eine logische Selbstverständlichkeit. Für gleiche Objekte gelten dieselben Beziehungen. 1.30. Beispiel: In einer Gruppe gilt für alle x, y, z die Äquivalenz x + y = z ⇔ x = z − y. 1.2. MATHEMATISCHE LOGIK 23 Zum Beweis haben wir zwei Richtungen zu zeigen, nachdem wir x, y, und z beliebig aus der Gruppe festgelegt haben. ”‘ ⇒ ”’: Nimmt man x + y = z an, so gilt x = x + (y + (−y)) = (x + y) + (−y) = z − y. Man beachte, dass wir praktisch auf beiden Seiten der Gleichung x + y = z den Wert −y addiert haben. Diese Idee haben wir dann nur kompakt aufgeschrieben. ”‘⇐”’: Nimmt man x = z − y an, so gilt x + y = (z − y) + y = (z + (−y)) + y = z + ((−y) + y) = z + (y + (−y)) = z + 0 = z. Fallunterscheidungen Möglicherweise ist in einem Beweis für x eine Fallunterscheidung nötig. In diesem Fall ist es wichtig, dass man alle Fälle vollständig behandelt. 1.31. Beispiel: Innerhalb der reellen Zahlen gilt für alle x die Aussage x2 ≥ 0. Der Beweis geht über die Fallunterscheidung x ≥ 0 und x < 0, die alle möglichen Fälle umfasst. Im ersten Fall folgt aus den Regeln für ”‘≥”’ direkt x2 = x·x ≥ 0. Im zweiten Fall folgt −x > 0 und daher x2 = (−x)2 > 0. Aussagen mit Existenzquantoren Eine Aussage vom Typ ∃x A(x) kann man konstruktiv beweisen. Dazu konstruiert man aus anderen Objekten, deren Existenz aus den Voraussetzungen folgt, das gewünschte x. Die Konstruktion muss natürlich mit den Axiomen oder den Voraussetzungen möglich sein. 1.32. Beispiel: In den reellen Zahlen existiert ein Element x > 0 mit x2 = 2. Diese Aussage wird in der √ Analysis konstruktiv bewiesen, indem eine Folge konstruiert wird, die gegen 2 konvergiert. Es ist aber auch möglich, die Existenzaussage dadurch zu beweisen, dass man das Gegenteil widerlegt. Man zeigt also, dass die Aussage ∀x ¬A(x) falsch ist, zum Beispiel durch einen Widerspruchsbeweis, den wir im folgenden Abschnitt behandeln. 1.33. Beispiel: Beispiele für nicht-konstruktive Existenzbeweise tauchen in der Analysis erst recht spät auf. Man kann zum Beispiel zeigen, dass es tranzendente Zahlen (Zahlen, die nicht Nullstellen von ganzzahligen Polynomen sind) gibt, ohne eine solche Zahl konkret angeben zu können. Allerdings gibt es dafür inzwischen auch konstruktive Beweise, denn π und e wurden als transzendent erkannt. 24 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Widerspruchsbeweise Dieser Beweistyp tritt recht häufig auf, wird aber oft falsch verstanden. Um eine Aussage A zu beweisen, nehmen wir an, dass A nicht gilt. Man zeigt dann, dass sich ein Widerspruch zu einer der Voraussetzungen ergibt, dass also diese Voraussetzung doch nicht gelten kann. Da jede Aussage aber entweder gilt oder nicht gilt, kann das nicht sein. Daher muss A doch gelten. Noch besser versteht man den Widerspruchsbeweis, wenn man an Modelle denkt. Angenommen, alle Voraussetzungen gelten in einem Modell, da sonst ja nichts zu zeigen ist. Es gibt nun zwei Fälle. Falls A gilt, sind wir fertig. Falls A nicht gilt, so zeigen wir im Widerspruchsbeweis, dass auch eine der Voraussetzungen nicht gelten kann. Daher kann dieser Fall nicht eintreten. Man kann dass mit logischen Zeichen so ausdrücken. Wenn V1 bis Vn Voraussetzungen einer Behauptung A sind, und V1 , . . . , Vn , ¬A ⇒ ¬Vi für eine der Voraussetzungen Vi , dann ist V1 , . . . , Vn ⇒ A bewiesen. 1.34. Beispiel: Der berühmte Beweis dafür, dass es unendlich viele Primzahlen gibt, wird am einfachsten als Widerspruchsbeweis formuliert. Angenommen, es gäbe nur endlich viele Primzahlen p1 , . . . , pn . Dann teilt keine dieser Primzahlen die Zahl x = p1 · . . . · pn + 1. Da wir wissen, dass x eine Primfaktorzerlegung hat, ist x selbst eine Primzahl. x ist aber verschieden von p1 , . . . , pn . Dies ist ein Widerspruch dazu, dass p1 bis pn die einzigen Primzahlen sind. √ 1.35. Beispiel: Ein anderes bekanntes Beispiel ist der Beweis dafür, dass 2 kein Bruch ist. Wir nehmen das Gegenteil an. Also √ p 2= q mit teilerfremden p, q. Dann folgt 2q 2 = p2 . Also ist p2 gerade, und damit auch p. Also ist p2 durch 4 teilbar. Da p und q teilerfremd sind, ist q ungerade. Nun hat man den Widerspruch, da 2q 2 nicht durch 4 teilbar ist. √ Aus diesem Widerspruch schließt man, dass die Annahme falsch war, dass 2 ein Bruch ist. Viele Beweise, die auch direkt geführt werden könnten, werden manchmal unnötigerweise als Widerspruchsbeweise aufgeschrieben. Das Problem ist, dass sich die Voraussetzungen auch gegenseitig widersprechen können. In diesem Fall führt ein Widerspruchsbeweis natürlich immer zum Erfolg. Wir haben dann einen wahren, aber sinnlosen Satz bewiesen, dessen Voraussetzungen niemals alle erfüllt sind. 1.3. MENGEN UND ABBILDUNGEN 1.3 1.3.1 25 Mengen und Abbildungen Mengen Die Sprache der Mengenlehre dominiert heute die Mathematik. In vielen Fällen, vor allem bei endlichen Mengen, ist sie lediglich eine Sprechvereinfachung für logische Ausdrücke. Insbesondere bei unendlichen Mengen verselbständigt sich aber die Mengenlehre und bringt neue Objekte hervor. Diese Objekte sind zum Teil wahre Monster, deren Existenz nicht jeder Mathematiker akzeptiert. Wir versuchen, in diesem Skript so konstruktiv und endlich wie möglich zu bleiben. Wenn wir uns ein konkretes Modell vorstellen, so kann man in diesem Modell die Gesamtheit aller Elemente mit einer gewissen Eigenschaft A(x) aussondern. Man erhält die Gesamtheit aller Objekte x, die die Eigenschaft A(x) erfüllen, die wir als Menge (engl.: set) M = {x : A(x)}, bezeichnen. Wenn x Element der Menge M ist, so schreiben wir x ∈ M. Es gilt also x ∈ M ⇔ A(x). x ∈ M ist quasi nur eine Abkürzung für A(x). Diese Art, Mengen zu bilden, nennt man naive Mengenlehre. Jede Menge ist erlaubt, solange nur ihre definierende Eigenschaft klar gegeben ist. 1.36. Beispiel: Es ist in einer Gruppe möglich, dass x+x = 0 ist, obwohl x 6= 0 ist. Solche Gruppen werden wir später kennen lernen. In den reellen Zahlen ist das natürlich nicht der Fall. Wir können nun M := {x : x + x = 0} definieren. In den reellen Zahlen enthält M nur das Element 0. 1.37 Aufgabe: Beweisen Sie x, y ∈ M ⇒ x + y ∈ M für die oben definierte Menge M einer Gruppe. Wir können nun Mengen wieder als Objekte betrachten. Damit entsteht die Möglichkeit, diese Mengen zu neuen Mengen zusammen zu fassen. Mengen können damit wieder Elemente von Mengen werden. Es gibt eine Vielzahl von neuen Konstruktionsmöglichkeiten. Diese neuen Möglichkeiten wollen wir in diesem Abschnitt genauer betrachten. Auch Abbildungen werden hier als Mengen dargestellt. Mengenlehre beginnt dann, wenn wir die Mengen selbst wieder als Objekte unserer Modells betrachten, und Mengen von Mengen bilden. 26 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK 1.38. Bemerkung: Dass diese Art der Mengenbildung innere Widersprüche hervorbringt, ist schon lange bekannt. Nehmen wir an, Mengen können sich auch selbst als Element enthalten. Dann könnten wir die Menge M aller Mengen bilden, die sich nicht selbst als Element enthalten. Nun kann aber weder M ∈ M , noch M ∈ / M gelten. Dieses Pradoxon nennt man Russelsches Paradoxon. Man kann die Aussage dieses Paradoxon so deuten, dass es kein Modell für diese naive Mengenlehre geben kann. Ein ähnliches Paradoxon tritt auch in endlichen Mengen auf. Wenn ein Barbier behauptet, dass er alle Männer im Dorf rasiert, die sich nicht selbst rasieren, so kann er diese Behauptung nicht einhalten. Rasiert er sich selbst, so darf er sich nicht selbst rasieren. Für dieses Axiom gibt es also kein Modell. 1.39 Aufgabe: Überlegen Sie sich, warum im Russelschen Paradoxon weder M ∈ M , noch M ∈ / M gelten kann. Die Konstruktionsmöglichkeiten, die wir hier kennenlernen werden, fasst man als Axiome der Mengenlehre (engl.: set theory) zusammen. Akzeptiert man diese Axiome, so besteht ein Modell nicht mehr nur aus den Objekten, an die man zunächst gedacht hat, sondern auch aus Mengen von Objekten, Mengen von Mengen, Abbildungen und Mengen von Abbildungen. In der Praxis werden wir dann von der Menge der Objekte in unserem Modell sprechen. Eigenschaften von Objekten entsprechen dann Teilmengen dieser Menge und Beziehungen zwischen Objekten entsprechen Abbildungen. Alles wird in der Sprache der Mengenlehre ausgedrückt. Der Vorteil der Mengenlehre ist die einheitliche Sprechweise, die man damit gewinnt. ”‘Die Mengenlehre ist ein Paradies, aus dem uns niemand vertreiben kann.”’ Die axiomatische Mengenlehre geht sogar einen Schritt weiter und bildet einen Rahmen, in den sämtliche denkbaren Modelle hinein passen. Genau die Dinge, die dort konstruierbar sind, existieren mathematisch. Wir wollen hier pragmatischer bleiben und eine für viele Mathematiker zweifelhafte mathematische Gesamttheorie vermeiden. Auch werden wir die Konstruktionsmechanismen der Mengenlehre sparsam anwenden. Es gibt einen konstruktiven Ansatz zur Mathematik, in dem viele der hier wie selbstverständlich vorausgesetzten Mengebildungen nicht akzeptiert werden. 1.3.2 Gleichheit von Mengen Als wichtigstes Axiom der Mengenlehre halten wir fest, dass zwei Mengen genau dann gleich sind, wenn sie dieselben Elemente enthalten. Das heißt, A und B sind genau dann gleich, wenn ∀x (x ∈ A ⇔ x ∈ B) gilt. 1.3. MENGEN UND ABBILDUNGEN 27 Es ist klar, dass gleiche Mengen dieselben Elemente enthalten. Schließlich haben gleiche Objekte dieselben Eigenschaften. Die Umkehrung ist von der Anschauung her selbstverständlich, muss aber festgehalten werden. 1.40. Definition: Eine Menge A heißt Teilmenge (engl.: subset) von B, wenn jedes Element aus A auch in B ist. Das heißt ∀x (x ∈ A ⇒ x ∈ B) . Der folgende Satz ist aufgrund unseres Axioms über die Gleichheit von Mengen offensichtlich. 1.41 Satz: Zwei Mengen A und B sind genau dann gleich, wenn A ⊆ B und B ⊆ A gilt. Ein weiteres Axiom der Mengenlehre erlaubt uns, aus einer gegebenen Menge A aller Elemente mit einer gewissen Eigenschaft A(x) auszusondern. Es entsteht die Teilmenge M := {x ∈ A : A(x)}. Das bedeutet x ∈ M ⇔ (x ∈ A und A(x)) . Da M durch seine Elemente festgelegt ist, ist diese Menge eindeutig definiert. 1.42. Bemerkung: Wir haben hier ”‘:=”’ für die Definition eines Objektes verwendet. Dies wollen wir in Zukunft zur Verdeutlichung, dass es sich um eine definitionsgemäße und nicht um eine behauptete Gleichheit handelt, beibehalten. Dabei muss natürlich immer gesichert sein, dass das Objekt auf der rechten Seite eindeutig bestimmt ist. 1.43. Definition: Die leere Menge ∅ ist die Menge, die keine Elemente enthält. Sie ist dadurch eindeutig charakterisiert, dass x∈ /∅ für alle x gilt. Sie ist folglich Teilmenge jeder anderen Menge, also ∅ ⊆ A. für jede Menge A. 1.44 Aufgabe: Schreiben Sie die leere Menge in der Form ∅ = {x ∈ A : . . .}, wobei A eine beliebige vorgegebene Menge ist. 1.45. Bemerkung: Die Elemente einer Menge können wieder Mengen sein. Wir machen bei allen Mengenoperationen keinen Unterschied zwischen Mengen und den Grundobjekten, von denen wir ausgehen. Der einzige Unterschied ist, dass wir uns nicht für die Elemente der Grundobjekte interessieren. Grundobjekte tauchen nur auf der linken Seite der Elementbeziehung auf und werden nie als Menge betrachtet. 28 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Ein weiteres Axiom erlaubt uns, aus zwei oder mehr Elementen eine neue Menge durch Aufzählung zu bilden. Wenn also x und y gegeben sind, so ist die Menge M = {x, y} dadurch festgelegt, dass die Elemente von M genau x oder y sind. Also t ∈ M ⇔ t = x oder t = y. Dasselbe gilt für ein Element, oder auch für drei oder mehr Elemente. Natürlich gilt {x, y} = {y, x}. 1.3.3 Potenzmenge 1.46. Definition: Die Potenzmenge P(A) einer Menge A ist die Menge aller Teilmengen von A. Also M ∈ P(A) ⇔ M ⊆ A. Ein weiteres, sehr mächtiges Axiom der Mengenlehre garantiert die Existenz der Potenzmenge einer beliebigen Menge. Dadurch werden sehr mächtige und unvorstellbar große Mengen geschaffen. Die Potenzmenge einer endlichen Menge ist allerdings endlich. 1.47. Beispiel: Sei x 6= y und M = {x, y}. Dann besteht P(M ) aus 4 Elementen, denn jedes der beiden Elemente kann in der Menge sein oder nicht, was 4 Möglichkeiten ergibt. Es ist P(M ) = {∅, {x}, {y}, {x, y}}. Denn die angezeigten Mengen sind genau alle Teilmengen von {x, y}. 1.48 Aufgabe: Geben Sie P{x, y, z} für drei verschiedene Elemente x, y, z an. 1.3.4 Vereinigung und Schnitt 1.49. Definition: Zu je zwei Mengen A und B definieren wir die Vereinigung (engl.: union) A ∪ B := {x : x ∈ A oder x ∈ B}. Die Existenz der Vereinigung gilt per Axiom der Mengenlehre. Man hat x ∈ A ∪ B ⇔ (x ∈ A oder x ∈ B) . 1.50. Beispiel: Für alle Mengen A und B gilt A ⊆ A ∪ B, B ⊆ A ∪ B. (1.1) 1.3. MENGEN UND ABBILDUNGEN 29 Denn jedes Element, dass in A (bzw. B) ist, ist nach Definition offenbar auch in A ∪ B. 1.51. Definition: Aus der Vereinigung können wir die Elemente aussondern, die in beiden Mengen liegen. Man bezeichnet diese Menge als Schnitt (engl.: intersection) von A und B. Also A ∩ B := {x ∈ A ∪ B : x ∈ A und x ∈ B}. (1.2) Abbildung 1.4: Vereinigung und Schnitt 1.52. Bemerkung: Die Skizze in Abbildung 1.4 bezeichnet man als VennDiagramm. Für zwei Mengen A, B entstehen vier Flächen, die den vier Fällen x ∈ A, x ∈ B, x∈ / A, x ∈ B, x ∈ A, x ∈ / B, x∈ / A, x ∈ /B entsprechen. Bei drei Mengen entstehen dann 8 Flächen usw. Man kann auf diese Art Beweise über die Gleichheit von Mengenrelationen für endlich vielen Mengen beweisen, indem man das Venn-Diagramm für die linke und die rechte Seite der Gleichung zeichnet. Es handelt sich um einen nicht-verbalen Beweis durch Fallunterscheidung. Wir ziehen hier verbale Beweise vor. 1.53. Bemerkung: Wegen (1.1) und (1.2) ist das Rechnen mit Vereinigung und Schnitt identisch zum Rechnen mit Booleschen Ausdrücken. Als erstes Beispiel für einen etwas komplexeren Sachverhalt beweisen wir den folgenden Satz. 1.54 Satz: Für drei Mengen A, B, C gelten die beiden Beziehungen A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C), A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). Beweis: Wir zeigen nur die erste Gleichheit. Um eine Mengengleichheit zu zeigen, müssen wir aufgrund von Satz 1.41 zwei Teilmengenbeziehungen beweisen. 30 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK ”‘⊆”’: Sei x ∈ A ∪ (B ∩ C). (1.3) ”‘beliebig, aber fest”’. Dann ist x ∈ A oder x ∈ (B ∩ C). Wir unterscheiden diese beiden Fälle. 1. Fall: x ∈ A. Dann ist x ∈ A ∪ B und x ∈ A ∪ C. Also x ∈ (A ∪ B) ∩ (A ∪ C). (1.4) 2. Fall: x ∈ (B ∩ C). Dann ist x ∈ B und x ∈ C. Also x ∈ A ∩ B und x ∈ A ∩ C. Folglich haben wir wieder (1.4). ”‘⊇”’: Es gelte (1.4). Dann ist x ∈ A ∪ B und x ∈ A ∪ C. Wieder unterscheiden wir zwei Fälle. 1. Fall: x ∈ A. Man erhält (1.3). 2. Fall: x ∈ / A. Wegen x ∈ A ∪ B muss dann x ∈ B sein. Analog muss auch 2 x ∈ C gelten. Also x ∈ B ∩ C. Es folgt wieder (1.3). 1.55 Aufgabe: Beweisen Sie die zweite Mengengleichheit mit denselben Methoden. Zeichnen Sie für beide Mengengleichheiten Venn-Diagramme der linken und der rechten Seite. 1.56. Definition: Die Differenz zweier Mengen A und B ist die Menge A \ B = {x ∈ A : x ∈ / B}. A \ B ist offenbar eine Teilmenge von A. Es gilt A = (A \ B) ∪ B, und diese Vereinigung ist disjunkt (disjoint), das heißt (A \ B) ∩ B = ∅. ˙ notiert. Disjunkte Vereinigungen werden manchmal mit dem Zeichen ”‘∪”’ 1.57 Aufgabe: Welche der folgenden Aussagen sind allgemein richtig (also Sätze) und welche nicht? Beweisen Sie die richtigen Aussagen, und widerlegen Sie die falschen durch ein Gegenbeispiel. Die richtigen Aussagen beweisen Sie einmal verbal, und ein anderes Mal mit Venn-Diagrammen. (1) Für alle Mengen A, B, C gilt A \ (B ∪ C) = (A \ B) ∩ (A \ C) (2) Für alle Mengen A, B, C gilt (A \ B) \ C = A \ (B \ C). (3) Definiert man für zwei Mengen A, B die symmetrische Differenz ∆(A, B) := (A \ B) ∪ (B \ A) 1.3. MENGEN UND ABBILDUNGEN 31 so gilt ∆(A, B) = ∆(B, A). (4) Es gilt für alle Mengen A, B ∆(A, B) = ∅ ⇔ A = B. (5) Für drei Mengen A, B, C gilt ∆(∆(A, B), C) = ∆(A, ∆(B, C)). Unendliche Schnitte und Vereinigungen Schwieriger zu verstehen ist die Vereinigung und der Schnitt über eine Menge von Mengen (die auch unendlich vielen Mengen enthalten kann). Mengen von Mengen nennt man auch Mengensysteme. Sei also A ein Mengensystem. Dann definiert man [ A := {x : x ∈ A für ein A ∈ A}, \ A := {x : x ∈ A für alle A ∈ A}. Die Vereinigung existiert per Axiom, der Schnitt ist eine Teilmenge der Vereinigung und kann aus dieser ausgesondert werden. Man schreibt auch [ \ A, A A∈A A∈A 1.58. Beispiel: Seien x, y, z verschiedene Elemente und A = {{x, y}, {y, z}, {x, z}}. Dann ist [ A = {x, y, z}. Es ist sozusagen die Vereinigung über alle drei Mengen in A. 1.59 Satz: Für ein Mengensystem A und eine Menge M gilt M\ [ A= \ (M \ A). A∈A Beweis: ”‘⊆”’: Sei x Element der linken Seite. Dann ist x ∈ M, x∈ / [ A. S Das bedeutet, nach der Definition von ”‘ ”’ x∈ / A, für alle A ∈ A. 32 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Also x ∈ M \ A, für alle A ∈ A. Daher ist x Element der rechten Seite. ”‘⊇”’: Sei umgekehrt x Element der rechten Seite, also x ∈ M \A für alle A ∈ A. Es folgt x ∈ M , aber x ∈ / A für alle A ∈ A. Also ist x Element der linken Seite. 2 1.60 Aufgabe: Zeigen Sie analog zu diesem Satz \ [ M\ A= (M \ A). A∈A Zeigen Sie auch [ [ A \M = (A \ M ). A∈A 1.3.5 Relationen und Abbildungen 1.61. Definition: Zu je zwei Objekten a und b definieren wir das Paar (a, b) := {{a}, {a, b}}. 1.62. Bemerkung: Wichtig für uns ist hier lediglich, wann zwei Paare gleich sind. Es gilt (a, b) = (ã, b̃) ⇔ a = ã und b = b̃ . (1.5) Wenn a 6= b ist, ist insbesondere (a, b) 6= (b, a). Man darf das Paar (a,b) also nicht mit der Menge {a, b} verwechseln. 1.63. Bemerkung: Um (1.5) zu beweisen, benötigt man ein weiteres Axiom der Mengenlehre, dass pathologische Mengen verhindert. Genauer darf niemals A ∈ A gelten, oder auch A ∈ B und B ∈ A und ähnliche Zyklen. Wir gehen darauf hier nicht weiter ein. 1.64. Definition: Die Menge aller Paare (a, b) mit a ∈ A und b ∈ B bezeichnen wir als Kreuzprodukt (engl.: product) von A und B, in Zeichen A × B := {(a, b) : a ∈ A und b ∈ B}. Eine Teilmenge R von A × B bezeichnen wir als Relation zwischen A und B. Eine Relation f heißt Abbildung (mapping) von A nach B, wenn für alle x genau ein y existiert mit (x, y) ∈ f . Wir schreiben in diesem Fall y = f (x), und, als Zeichen dafür, dass f eine Abbildung von A nach B ist f : A → B. Gelegentlich schreiben wir auch x 7→ f (x). 1.3. MENGEN UND ABBILDUNGEN 33 Relationen R zwischen einer Menge M und sich selbst nennt man Relationen auf M . 1.65. Bemerkung: Die Schreibweise f (x) macht für Abbildungen Sinn, da ja y mit (x, y) ∈ f eindeutig bestimmt ist, wenn x gegeben ist. 1.66. Beispiel: Der gerichtete Graph in Abbildung 1.2 kann als eine Relation auf M , wobei M die Menge der dort abgebildeten Punkte ist. (x, y) ∈ R soll genau dann gelten, wenn ein Pfeil von x nach y geht. 1.67. Beispiel: In Abbildung 1.5 ist eine Abbildung f :A→B mit Pfeilen dargestellt. Man beachte, dass von jedem a ∈ A genau ein Pfeil ausgeht. Sonst wäre diese Relation keine Abbildung. Abbildung 1.5: Eine Abbildung zwischen endlichen Mengen 1.68. Beispiel: Eine typische Relation ist R := {(x, y) ∈ R × R : x ≤ y}. Natürlich schreiben wir niemals (x, y) ∈ R, sondern einfach x ≤ y. 1.69. Beispiel: Die Addition in Gruppen kann als Abbildung +:G×G→G gedeutet werden. Dabei ist G die Menge aller Gruppenobjekte. Man schreibt natürlich nicht +(x, y) = z, 34 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK sondern einfach x + y = z. Man bezeichnet eine solche Abbildung als Operator auf G. Dieses Beispiel zeigt, wie universell die Sprache der Mengenlehre ist. 1.70. Bemerkung: Als Funktionen (function) bezeichnet man reellwertige Abbildungen, gewöhnlich durch eine Rechenvorschrift festgelegt. 1.71. Beispiel: Die Relation R := {(x, y) ∈ R × R : x2 = y} auf R ist eine Abbildung von R nach R. Man hat x 7→ x2 . Die Relation R̃ := {(x, y) ∈ R × R : y 2 = x} ist dagegen keine Abbildung, weil es zum Beispiel zu x = 1 zwei Elemente y gibt mit (x, y) ∈ R̃, denn (1, −1) ∈ R̃, (1, 1) ∈ R̃. Beide Relationen sind Teilmengen von R2 und können daher wie aus der Schule gewohnt in ein Koordinatensystem eingezeichnet werden. Falls die Relation R eine Abbildung ist, so bezeichnet man R als Graph der Abbildung. 1.72 Aufgabe: Zeichnen Sie die beiden Relation R und R̃ aus dem Beispiel in ein Koordinatensystem ein. 1.73 Aufgabe: Ist die Relation R := {(x, y) ∈ R × R : |y| + 2y = x} eine Abbildung? Beweisen Sie Ihre Entscheidung! Zeichnen Sie diese Relation in ein Koordinatensystem ein. 1.3.6 Bild, Urbild, Umkehrabbildung 1.74. Definition: Bei einer Abbildung f :A→B nennen wir A den Definitionsbereich und B den Bildbereich. Schränkt man den Definitionsbereich auf eine Teilmenge M ⊆ A ein, so erhält man die Einschränkung (engl.: restriction) f |M : M → B. Also f |M (x) = f (x) für alle x ∈ M . 1.3. MENGEN UND ABBILDUNGEN 35 Es ist manchmal interessant, eine Abbildung f : M → B von einer Teilmenge M ⊂ A zu einer Fortsetzung (engl.: continuation) g : A → B auf ganz A fortzusetzen. Es soll also g|M = f gelten. Meist sollen dabei gewisse Eigenschaften, wie Stetigkeit oder Differenzierbarkeit erhalten bleiben. Die interessante Frage ist immer, ob das möglich ist. 1.75. Beispiel: Seien a, b zwei verschiedene reelle Punkte. Dann lässt sich jede Abbildung f : {a, b} → R eindeutig zu einer Geraden g(x) = mx + c fortsetzen. Es gilt also für diese Gerade g(a) = f (a), g(b) = f (b). Es ist interessant zu fragen, wann man die Gleichung f (x) = y nach y auflösen kann, also y = g(x), und wann diese Auflösung eindeutig ist. 1.76. Definition: Sei f : A → B eine Abbildung. Wenn f (x) = y ist, so heißt x ein Urbild von y. (1) Wenn jedes y ∈ B höchstens ein Urbild hat, so nennt man f injektiv (engl.: injective, one-to-one). (2) Wenn jedes y ∈ B mindestens ein Urbild hat, so nennt man f surjektiv (engl.: surjective, mapping onto). (3) Wenn f injektiv und surjektiv ist, so nennt man f bijektiv (engl.: bijectiv, one-to-one and onto). Bijektive Abbildungen sind also dadurch gekennzeichnet, dass jedes y ∈ B genau ein Urbild hat. 1.77. Bemerkung: Um nachzuweisen, dass f : A → B injektiv ist, muss man offenbar für alle x1 , x2 ∈ A zeigen f (x1 ) = f (x2 ) ⇒ x1 = x2 . Um nachzuweisen, dass f surjektiv ist, muss man zu jedem y ∈ B ein x ∈ A finden mit f (x) = y. 1.78. Beispiel: Die Funktion f : R → R, definiert durch f (x) = x2 ist weder injektiv, noch surjektiv. Denn einerseits ist f (−1) = f (1) = 1. Also ist f nicht injektiv, weil y = 1 zwei Urbilder hat. Andererseits hat y = −1 gar kein Urbild. 1.79 Satz: Wenn f : A → B bijektiv ist, dann existiert eine eindeutig bestimmte Umkehrabbildung (engl: inverse mapping) f −1 : B → A, so dass gelten f −1 (f (x)) = x für alle x ∈ A, 36 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK und f (f −1 (y)) = y für alle y ∈ B. Beweis: Nach unserer Definition ist die bijektive Abbildung f dadurch gekennzeichnet, dass jedes y ∈ B genau ein Urbild hat. Dieses eindeutig bestimmte Urbild definieren wir als f −1 (y). Als Relation geschrieben, können wir f −1 übrigens einfach als f −1 = {(y, x) : (x, y) ∈ f }. definieren. Mit dieser Definition sind die beiden verlangten Beziehungen offenbar 2 erfüllt. 1.80. Beispiel: Wir betrachten dieselbe Funktion f (x) = x2 wie im vorigen Beispiel als Abbildung f : [0, ∞) → [0, ∞). Wir schränken also den Definitionsbereich und die Bildmenge ein. Dann ist f bijektiv. Die Umkehrabbildung f −1 : [0, ∞) → [0, ∞). ist f −1 (y) = √ y. 1.81 Aufgabe: Geben Sie zwei möglichst große Intervalle ein, auf denen die Funktion f (x) = x2 + x + 1 injektiv ist. Schränken Sie auf diesen beiden Intervallen den Bildbereich ein, so dass f bijektiv ist, und geben Sie die beiden Umkehrfunktionen an. 1.82 Aufgabe: Für welche a ∈ R ist die Abbildung f (x) = |x| + ax bijektiv? Geben Sie jeweils die Umkehrabbildung an. 1.83. Beispiel: Sei G eine Gruppe und a ∈ G fest gewählt. Die Umkehrabbildung der Abbildung f : G → G, definiert durch f (x) := x + a, ist offenbar f −1 (y) = y − a. Denn f −1 (f (x)) = f −1 (x + a) = (x + a) − a = x. Außerdem f (f −1 (y)) = f −1 (y) + a = (y − a) + a = y. 1.84. Bemerkung: Es ist ohne Differentialrechnung nicht so leicht zu klären, ob eine Funktion wie f (x) := x + ex 1.3. MENGEN UND ABBILDUNGEN 37 eine Umkehrabbildung hat, oder nicht. Die Frage ist äquivalent damit, die Gleichung y = x + ex nach x aufzulösen. Mit Hilfe der Differentialrechnung gelingt der Nachweis allerdings sehr leicht, indem man die Monotonie nachprüft und die Grenzwerte in ±∞. Noch schwieriger wird dies bei Gleichungen, in denen y nur implizit gegeben ist, wie xy = y x . 1.85 Aufgabe: Finden Sie Mengen A und B, eine Abbildung f : A → B und eine Abbildung g : B → A, so dass g(f (x)) = x für alle x ∈ A gilt, aber f nicht bijektiv ist. Zeigen Sie, dass f aber injektiv sein muss, wenn diese Bedingung erfüllt ist. Zeigen Sie ebenfalls, dass f surjektiv sein muss, wenn f (g(y)) = y für alle y ∈ A gilt. 1.86. Definition: Sei f : A → B eine Abbildung und M ⊆ A. Dann ist das Bild (engl.: image) der Menge M unter der Abbildung f definiert als f (M ) := {f (x) : x ∈ M }. Sei umgekehrt N ⊆ B. Dann ist das Urbild (engl.: preimage) der Menge N unter f die Menge aller Urbilder von Elementen von N , also die Menge f −1 (N ) := {x ∈ A : f (x) ∈ N }. Dies entspricht der Menge aller Urbilder von Elementen y ∈ N . 1.87. Bemerkung: Verwechseln Sie nicht f −1 (N ) mit der Umkehrabbildung. Das Urbild von Mengen hat damit zunächst nichts zu tun. Wenn allerdings f bijektiv ist, so ist das Urbild von N in der Tat das Bild unter der Umkehrabbildung. Also ist in diesem f −1 (N ) gleich, egal wie man diesen Ausdruck interpretiert. Wir werden uns in der linearen Algebra sehr häufig mit Bildern und Urbildern von Mengen beschäftigen. Es lohnt sich also, sich mit diesen Begriffen genau auseinander zu setzen. Es gilt y ∈ f (M ) ⇔ ∃x∈M f (x) = y, und x ∈ f −1 (N ) ⇔ f (x) ∈ N, Als Beispiel für die Argumentation mit diesen Begriffen beweisen wir den folgenden Satz. 1.88 Satz: Sei f : A → B eine Abbildung und M ⊆ A. Dann gilt M ⊆ f −1 (f (M )). 38 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Abbildung 1.6: f −1 (f (M )) Sei N ⊆ B. Dann gilt f (f −1 (N )) ⊆ N. . Beweis: Sei x ∈ M . Dann ist f (x) ∈ f (M ). Also ist x ein Urbild von f (x) ∈ f (M ) und es folgt x ∈ f −1 (f (M )). Dies ist die erste Teilmengenrelation. Sei y ∈ f (f −1 (N )). Dann existiert nach Definition ein x ∈ f −1 (N ) mit f (x) = y. Wenn x ∈ f −1 (N ) ist, dann ist nach Definition f (x) ∈ N . Also y = f (x) ∈ N. 2 1.89 Aufgabe: Betrachten Sie wieder die Funktion f : R → R definiert durch f (x) = x2 + x + 1. Berechnen Sie f [−1, 1] und f −1 [−1, 1]. 1.90 Aufgabe: Sei f : R → R die Funktion f (x) = x3 − x. Zeichnen Sie den Graph der Funktion, berechnen Sie die lokalen Extrema mit Ihrem Schulwissen, und lesen Sie am Graph die folgenden Mengen ab. f [1, 2], f [0, 1], f −1 [0, 5]. 1.3. MENGEN UND ABBILDUNGEN 39 1.91 Aufgabe: Geben Sie für die folgenden Funktionen Intervalle I1 , I2 ⊆ R an, so dass die Funktionen als Abbildung f : I1 → I2 bijektiv sind, und geben Sie jeweils die Umkehrfunktion an. f (x) = x2 + x, 1.92 Satz: f (x) = |x| + x, f (x) = sin(x). Sei f : A → B eine Abbildung und M1 , M2 ⊆ A. Dann gilt f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 ), f (M1 ∩ M2 ) ⊆ f (M1 ) ∩ f (M2 ). Sei N1 , N2 ∈ B. Dann gilt f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 ), f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 ). Beweis: Wir zeigen die erste Gleichheit. ”‘⊆”’: Sei y ∈ f (M1 ∪ M2 ). Dann gibt es ein x ∈ M1 ∪ M2 mit f (x) = y. Falls x ∈ M1 ist, so ist y = f (x) ∈ f (M1 ) Also y ∈ f (M1 ) ∪ f (M2 ). Falls x ∈ M2 ist, gilt dasselbe. ”‘⊇”’: Sei y ∈ f (M1 ) ∪ f (M2 ). Falls y ∈ f (M1 ) ist, so existiert ein x ∈ M1 mit f (x) = y. Also y ∈ f (M1 ∪ M2 ). Falls y ∈ f (M2 ) ist, so gilt dasselbe. Wir zeigen nun die erste Gleichheit für die Umkehrabbildung ”‘⊆”’: Sei x ∈ f −1 (N1 ∪ N2 ). Dann gilt f (x) ∈ N1 ∪ N2 . Falls f (x) ∈ N1 ist, so ist x ∈ f −1 (N1 ), also x ∈ f −1 (N1 ) ∪ f −1 (N2 ). Falls f (x) ∈ N2 ist, so gilt dasselbe. ”‘⊇”’: Falls x ∈ f −1 (N1 ) ist, so ist f (x) ∈ N1 und daher f (x) ∈ N1 ∪ N2 . Es folgt x ∈ f −1 (N1 ∪ N2 ). Falls x ∈ f −1 (N2 ) ist, so gilt dasselbe. 2 40 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK 1.93 Aufgabe: Beweisen Sie auf dieselbe Art und Weise die fehlenden Mengenrelationen. Geben Sie ein Gegenbeispiel dafür an, dass die Gleichheit in der zweiten Relation nicht gilt. 1.94. Definition: Zwei Abbildungen f : A → B, g:B→C lassen sich verketten. Man definiert die Verkettung (engl.: concetanation) (Hintereinanderausführung) der Abbildungen als die Abbildung g ◦ f : A → C, x 7→ g(f (x)). 1.95. Beispiel: Die Verkettung der reellen Funktionen f (x) = x+1 und g(x) = x2 ist (g ◦ f )(x) = g(f (x)) = (x + 1)2 . Man beachte, dass diese Abbildung verschieden von (f ◦ g)(x) = f (g(x)) = x2 + 1. ist. Die Verkettung ist also nicht kommutativ. 1.96 Aufgabe: Überlegen Sie sich, dass die Verkettung assoziativ ist. Das heißt h ◦ (g ◦ f ) = (h ◦ g) ◦ f. für Abbildungen f : A → B, g : B → C, h : C → D. 1.97. Beispiel: Wenn f :A→A bijektiv ist, so gibt es die Umkehrabbildung f −1 : A → A. Dann gilt f ◦ f −1 = f −1 ◦ f = id. wobei id : A → A die identische Abbildung (engl.: identity) id : A → A x 7→ x ist. Für diese beiden Abbildungen gilt also das Kommutativgesetz. 1.98 Satz: Für invertierbare Abbildungen f, g : A → A gilt, dass auch f ◦ g invertierbar ist und (g ◦ f )−1 = f −1 ◦ g −1 . 1.4. DIE NATÜRLICHEN ZAHLEN 41 1.99 Aufgabe: Beweisen Sie diesen Satz. 1.100. Beispiel: Betrachtet man die Menge S(A) aller bijektiven Abbildungen einer Menge A in sich selbst, so ist die Verkettung zweier Elemente in S(A) wieder in S(A). Es gilt das Assoziativgesetz und jedes Element f ∈ S(A) hat ein inverses Element bezüglich der Multiplikation ”‘◦”’. Allerdings gilt das Kommutativgesetz nicht. S(A) ist das typische Beispiel einer nicht-kommutativen Gruppe. 1.101 Aufgabe: Geben Sie die Mengen S({1}), S({1, 2}), S({1, 2, 3}) an. 1.102. Definition: Für eine endliche Menge M heißt eine bijektive Abbildung π : M → M eine Permutation von M . 1.103. Definition: Die Menge aller Abbildungen von A nach B bezeichnen wir mit A(A, B). 1.104 Aufgabe: Geben Sie für A = {1}, A = {1, 2}, A = {1, 2, 3} die Mengen A(A, A) an. 1.105. Bemerkung: Für eine Menge A ist die Verkettung zweier Abbildungen aus A(A, A) wieder in A(A, A). Wir können zwei solche Abbildungen also wieder mit ”‘◦”’ multiplizieren. Allerdings hat nicht jedes Element von A(A, A) ein Inverses. Eine solche Struktur, in der das Assoziativgesetz gilt. bezeichnet man als Halbgruppe. In diesem Fall hat unsere Halbgruppe ein neutrale Element id. Das Kommutativgesetz gilt nicht. 1.4 1.4.1 Die natürlichen Zahlen Induktion Wir nehmen hier an, dass die natürlichen Zahlen in der Vorlesung über Analysis als Teilmenge der reellen Zahlen eingeführt werden. Uns steht also schon eine Addition ”‘+”’, eine Multiplikation ”‘·”’ und eine Ordnung ”‘≤”’ zur Verfügung. In diesem Abschnitt beschäftigen wir uns mit der wesentliche Eigenschaft der natürlichen Zahlen, nämlich der Induktion. Zunächst jedoch geben wir auf einem abstrakten Niveau die Peano-Axiome wieder, die die natürlichen Zahlen festlegen. Inspiriert sind diese Axiome durch den Zählprozess 1 7→ 2 7→ 3 7→ . . . der alle natürlichen Zahlen durchlaufen soll, aber keine doppelt. 42 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Die Idee der natürlichen Zahlen ist, dass der Zählprozess alle Zahlen genau einmal durchläuft. 1.106. Definition: Eine induktive Menge ist eine Menge N mit einer Abbildung N : N → N, n 7→ N (n) die jedem n ∈ N einen Nachfolger N (n) zuordnet. Außerdem gibt es ein festes Element 1 ∈ N. Es sollen die folgenden Beziehungen gelten. (1) Es gibt kein n ∈ N mit N (n) = 1. (2) Die Abbildung N ist injektiv, also N (n) = N (m) ⇒ n = m für alle n, m ∈ N 1.107. Definition: Die natürlichen Zahlen N sind eine minimale induktive Menge. Das heißt, wenn M ⊂ N ebenfalls eine induktive Menge ist mit derselben 1 und der Nachfolgerabbildung, dann ist M = N. Dies bedeutet, dass alle Teilmengen M ⊂ N, die 1 enthalten, und für die gilt n ∈ M ⇒ N (n) ∈ M für alle n ∈ M gleich N sind. 1.108. Bemerkung: Die Eigenschaften (1) und (2) stellen sicher, dass kein Element vom Zählprozess doppelt durchlaufen wird. Die Minimalität stellt sicher, dass jede Zahl einmal durchlaufen wird, wenn man mit 1 beginnt. 1.109. Bemerkung: Die reellen Zahlen enthalten, wie jeder andere angeordnete Körper, eine minimale induktive Teilmenge. Die Nachfolgeabbildung ist dort N (n) = n + 1. Details dazu werden in der Vorlesung über Analysis gegeben. Man kann aber auch umgekehrt die Existenz der natürlichen Zahlen axiomatisch fordern, und daraus die reellen Zahlen konstruieren. Diese Konstruktion gehört in eine Vorlesung ”‘Aufbau des Zahlensystems”’, und sie benötigt den vollen Apparat der Mengenlehre. 1.110. Definition: Unser N ⊆ R enthält die 0 nicht. Man schreibt N0 = N ∪ {0}. Dies ist eine Vereinbarung, die oft auch anders getroffen wird. Wir werden im folgenden annehmen, dass wir die natürlichen Zahlen als Teilmenge der reellen Zahlen haben, und schreiben daher einfach n + 1 für den Nachfolger von n. 1.4. DIE NATÜRLICHEN ZAHLEN 43 Aus der Minimalität folgt das wichtigste Prinzip in N, die vollständige Induktion. 1.111 Satz: (Vollständige Induktion) Sei A(n) eine beliebige Aussage mit freier Variable n. Es gelte A(1) und A(n) ⇒ A(n + 1) für alle n ∈ N Dann gilt A(n) für alle n ∈ N. Beweis: Sei M := {n ∈ N : A(n) gilt}. durch Aussonderung gewonnen. Dann ist M nach Voraussetzung induktiv. Es folgt M = N. 2 Man bezeichnet die Aussage A(1) als Induktionsanfang. Die Folgerung A(n) ⇒ A(n + 1) bezeichnet man als Induktionsschritt. 1.112. Beispiel: Wir geben zunächst ein Beispiel aus der Analysis. Es gilt (1 + x)n ≥ 1 + nx. für alle x ≥ −1 und n ∈ N. Dazu fixieren wir x ≥ −1 und zeigen die Behauptung für alle n ∈ N. Induktionsanfang: Für n = 1 ist die Behauptung offensichtlich richtig. Induktionsschritt: Die Behauptung gelte für n ∈ N, also (1 + x)n ≥ 1 + nx. Wegen 1 + x ≥ 0 bleibt diese Ungleichung richtig, wenn man sie mit 1 + x multipliziert. Es gilt also (1 + x)n+1 ≥ (1 + nx)(1 + x) = 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x. Damit gilt die Behauptung auch für n + 1. Nun beweisen wir einige Aussagen eher technischer Natur mit vollständiger Induktion. 1.113. Beispiel: Als simpelstes Beispiel für vollständige Induktion zeigen wir, dass jedes n ∈ N, n 6= 1 einen Vorgänger hat. Unsere Aussage A(n) ist also ∀n∈N,n6=1 ∃m∈N n = m + 1. Man beachte, dass wir die Operation ”‘−”’ in den reellen Zahlen nicht verwenden wollen. Sie würde uns auch nicht helfen, da zunächst unklar ist, ob n−1 ebenfalls eine natürliche Zahl ist. Das ist nämlich gerade die Aussage, die wir beweisen wollen. Induktionsanfang: Die Aussage ist für n = 1 wahr, denn dort ist die Voraussetzung n 6= 1 nicht erfüllt, 44 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Induktionsschritt: Die Aussage gelte für n. Wir müssen zeigen, dass n + 1 einen Vorgänger hat. Das ist aber offensichtlich richtig, weil n der Vorgänger von n + 1 ist. 1.114 Aufgabe: Zeigen Sie n ≥ 1 für alle n ∈ N durch vollständige Induktion. 1.115. Beispiel: Der Nachteil des vorigen Beispiels liegt in seiner Einfachheit. Schwieriger ist schon der folgende Sachverhalt. Zwischen n ∈ N und n + 1 liegt keine weitere natürliche Zahl. Das heißt, es gibt kein m ∈ N mit n < m < n + 1. Nun beweisen wir unsere Aussage durch Induktion nach n. Induktionsanfang: Wir führen den Beweis durch Widerspruch. Angenommen, 1 < m < 2 := 1 + 1 für m ∈ N. Aufgrund der Aussage des vorigen Beispiels hat m einen Vorgänger k = m − 1. Aufgrund der Rechenregeln für angeordnete Körper folgt k < 1. Dies widerspricht der obigen Aufgabe. Induktionsschritt: Angenommen, n + 1 < m < n + 2. für n, m ∈ N. Dann ist 1 ≤ n + 1 < m, also 1 6= m und m hat daher einen Vorgänger m − 1 = k ∈ N. Es folgt n < k < n + 1. Dies widerspricht der Induktionsannahme. Es gibt eine Reihe weiterer Sätze über N, die in ähnlicher Weise anschaulich klar sind. Wir verzichten hier auf eine weitere Diskussion, und werden solche Sachverhalte als gegeben voraussetzen. Der folgende Satz ist bisweilen nützlich. Er dient als Ersatz für das Induktionsprinzip. 1.116 Satz: Jede nicht-leere Teilmenge M ⊆ N enthält ein kleinstes Element, also ein Minimum. Das heißt, es gibt ein n ∈ M mit n≤m für alle m ∈ M . Beweis: Sei also M ⊆ N nicht leer. Wir führen den Beweis durch Widerspruch. Angenommen, M hat kein kleinstes Element. Dann zeigen wir durch vollständige Induktion nach n, dass für alle n ∈ N gilt n ≤ m, für alle m ∈ M . Daraus folgt natürlich sofort der Widerspruch, da dann jedes n ∈ M minimales Element von M wäre. 1.4. DIE NATÜRLICHEN ZAHLEN 45 Induktionsanfang: Es gilt 1 ≤ m für alle m ∈ N, also insbesondere für alle m ∈ M. Induktionsschritt: Die Behauptung gelte für n ∈ N. Da M kein kleinstes Element hat, folgt n ∈ / M . Aus der Behauptung in Beispiel 1.115 folgt n+1≤m für alle m ∈ N. 2 1.117. Bemerkung: Damit lässt das Induktionsprinzip erweitern. Sei A(n) eine Aussage, die wir für alle n ∈ N beweisen wollen. Wenn man nun zu jedem n ∈ N, für das die Aussage A(n) nicht gilt, ein m ∈ N mit m < n finden kann, so dass A(m) ebenfalls nicht gilt (unendlicher Abstieg), dann muss A(n) für alle n ∈ N gelten. Denn die Menge der Elemente für die A(n) nicht gilt, kann dann kein kleinstes Element enthalten. Sie muss also leer sein. 1.4.2 Rekursive Konstruktion Wir können mit Hilfe von Induktion nicht nur Aussagen beweisen, sondern auch Objekte konstruieren. 1.118. Definition: Sei M eine beliebige Menge. Eine Abbildung a : N → M heißt Folge (engl: sequence) in M . Man schreibt an := a(n). Für die gesamte Folge schreibt man (an )n∈N Aufgrund des Zählprinzips ist eine Folge also durch a1 , a2 , a3 , . . . festgelegt. 1.119. Beispiel: Die einfachsten Folgen sind durch eine Rechenvorschrift gegeben. Also etwa n 1 . xn = 2 Wir werden nun Folgen rekursiv konstruieren. Dazu legen wir zunächst a1 fest. Danach legen wir an+1 mit Hilfe von an fest. Aufgrund unserer Vorstellung vom Zählprozess, ist damit die Folge vollständig festgelegt. 1.120. Bemerkung: Sei g : M → M eine Abbildung. Dann existiert zu jedem fest vorgegebenem a1 ∈ M genau eine Folge in m mit an+1 = g(an ) für alle n ∈ N. 46 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Die Existenz dieser Folge kann mit einer cleveren Mengenkonstruktion bewiesen werden, auf die wir hier nicht eingehen. Für die Folge an = (1/2)n lautet die rekursive Definition 1 an a1 = , an+1 = . 2 2 In den meisten Fällen wird allerdings das Glied an+1 außer von an auch von n abhängen, also an+1 = g(an , n), wobei g eine Abbildung auf M × N ist. Auch in diesem Fall ist die Existenz und die Eindeutigkeit der Folge für jedes gewählte Anfangsglied a1 ∈ M gesichert. Man kann sogar Folgen konstruieren, die von mehr als einem oder von allen vorigen Gliedern abhängen, etwa an+1 = g(an , an−1 ) In diesem Fall benötigt man für eine korrekte Definition natürlich 2 Anfangswerte a1 , a2 ∈ M . Dieses Konstruktionsprinzip ist sehr mächtig. Wir verwenden es oft in salopper Weise. 1.121. Beispiel: (1) Anstatt etwa die Fakultät n! rekursiv durch (n + 1)! = n! · (n + 1) 0! = 1! = 1, zu definieren, schreiben wir einfach 0! = 1, n! := 1 · 2 · . . . · n. (2) Als Beispiel für eine zweigliedrige rekursive Folge sei die Fibonacci-Folge genannt, die durch a1 = a2 = 1 und an+1 = an + an−1 festgelegt ist. 1.122. Beispiel: Sei (an )n∈N eine Folge in einer Gruppe G. Dann definiert man die Summenschreibweise, bzw. die Produktschreibweise n X ai := a1 + . . . + an i=1 n Y ai := a1 · . . . · an i=0 in naheliegender Weise rekursiv durch 0 X ai = 0, i=1 0 Y i=1 ai = 1, n+1 X ai = n X i=1 i=1 n+1 Y n Y i=1 ai = i=1 ! ai + an+1 , ! ai · an+1 . 1.4. DIE NATÜRLICHEN ZAHLEN 47 Die leere Summe ist also vereinbarungsgemäß gleich 0, das leere Produkt gleich 1. Man beachte, dass dies der Klammerung n X ai = (. . . (a1 + a2 ) + a3 ) + . . .) + an i=1 entspricht, also von links nach rechts ausgewertet ist. Allerdings ist aufgrund des Assoziativgesetzes die Klammerung gleichgültig. Das heißt, es gilt ! ! n n−1 X X a1 + ai = ai + an . i=2 i=1 Zieht man noch das Kommutativgesetz heran, so gilt für jede Permutation π von {1, . . . , n} n n X X ai = aπ(i) . i=1 i=1 Dies Aussage beweist man per Induktion (Übung). 1.123 Aufgabe: Zeigen Sie durch vollständige Induktion 1 + ... + n = n(n + 1) . 2 1.124 Aufgabe: (1) Definieren Sie die Folge q n für q ∈ R, n ∈ N rekursiv. (2) Schreiben Sie für q ∈ R die Folge an = 1 + q + . . . + q n in der Summenschreibweise und definieren Sie sie rekursiv. (3) Zeigen Sie für q 6= 1 durch vollständige Induktion an = q n+1 − 1 q−1 1.125 Aufgabe: Was ist an folgendem Induktionsbeweis falsch? Wir zeigen, dass alle natürlichen Zahlen gleich sind, indem wir per Induktion nach n zeigen, dass die Zahlen von 1 bis n gleich sind. Für n = 1 ist nichts zu zeigen. Die Induktionsvoraussetzung besagt, dass 1 = . . . = n ist, insbesondere n − 1 = n. Also ist auch n = n + 1 und wir erhalten 1 = . . . = n = n + 1, können also den Induktionsschritt durchführen. 1.4.3 Endliche Mengen 1.126. Definition: Für n ∈ N ist die Menge {1, . . . , n} := {k ∈ N : 1 ≤ k ≤ n} definiert. Eine Menge M heißt endlich (engl.: finite), wenn es eine bijektive Abbildung φ : {1, . . . , n} → M 48 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK gibt, oder wenn M = ∅ ist. Man nennt |M | = ]M = n die Mächtigkeit von M . Natürlich muss man dazu beweisen, dass die Mächtigkeit einer Menge eindeutig bestimmt ist. Dies ist Inhalt des folgenden, sehr intuitiven Satzes. 1.127 Satz: Es gibt keine bijektive Abbildung φ : {1, . . . , n} → {1, . . . , m} wenn n, m ∈ N und n 6= m ist. Beweis: Der Beweis ist sehr technisch. Wir zeigen den Satz für n < m durch Induktion nach n. Für n = 1 ist die Behauptung klar. Angenommen, n + 1 < m ist und φ : {1, . . . , n + 1} → {1, . . . , m} bijektiv. Die folgende Aufgabe zeigt, dass es dann eine bijektive Abbildung ψ : {1, . . . , n} → {1, . . . , m − 1} gibt. Dies ist aber nicht nach Induktionsvoraussetzung nicht möglich. 2 1.128 Aufgabe: Sei φ : {1, . . . , n + 1} → M bijektiv und m ∈ M . Konstruieren Sie dann eine bijektive Abbildung von {1, . . . , n} nach M \ {m}. 1.129 Aufgabe: Wieso folgt aus diesem Satz, dass die Mächtigkeit einer Menge eindeutig bestimmt ist? 1.130 Satz: Teilmengen von endlichen Mengen sind endlich. Beweis: Auch diesen Satz kann man durch Induktion nach n = |N | beweisen, wobei M ⊂ N und N endlich sei. Für n = 1 ist nichts zu zeigen. Ansonsten sei |N | = n + 1. Wenn M = N ist, ist nichts zu zeigen. Sei m ∈ M \ N . Aufgrund der obigen Aufgabe ist M \ {m} endlich mit der Mächtigkeit n. Nach Induktionsvoraussetzung ist M endlich. 2 1.131 Aufgabe: (1) Seien M1 , M2 endliche Mengen, die disjunkt (engl.: disjoint) sind, das heißt es gilt M1 ∩ M2 = ∅. Zeigen Sie, dass dann M1 ∪ M2 endlich ist, und |M1 | + |M2 | = |M1 ∪ M2 | (2) Folgern Sie für alle endlichen Mengen M1 , M2 |M1 ∪ M2 | = |M1 \ M2 | + |M2 \ M1 | + |M1 ∩ M2 | (3) Folgern Sie für alle endlichen Mengen M1 , M2 |M1 ∪ M2 | = |M1 | + |M2 | − |M1 ∩ M2 | 1.4. DIE NATÜRLICHEN ZAHLEN 49 1.132 Aufgabe: (1) Zeigen Sie für endliche Mengen M1 , . . . , Mn |M1 ∩ . . . ∩ Mn | ≥ n X |Mi | − (n − 1)|M1 ∪ . . . ∪ Mn |. i=1 Hinweis: Verwenden Sie (V \ M1 ) ∪ . . . ∪ (V \ Mn ) = V \ (M1 ∩ . . . ∩ Mn ). wobei V = M1 ∪ . . . ∪ Mn sei. (2) Seien nun die Größen |M1 |, . . . , |Mn |, |M1 ∪ . . . ∪ Mn | vorgegeben und sei n X |Mi | − (n − 1)|M1 ∪ . . . ∪ Mn | ≥ 0. i=1 Geben Sie ein Beispiel an, in dem in (1) Gleichheit auftritt. (2) Seien nun drei Mengen der Mächtigkeit 10 gegeben, deren Vereinigung die Mächtigkeit 14 hat. Zeigen Sie, dass dann der Schnitt nicht leer ist. (3) Konstruieren Sie umgekehrt drei Mengen mit je 10 Elementen, deren Vereinigung 15 Elemente hat, so dass der Schnitt der drei Mengen leer ist. (4) Seien 10 Mengen der Mächtigkeit 10 gegeben, deren Vereinigung 11 Elemente enthält. Zeigen Sie, dass dann der Schnitt ein Element enthalten muss. (5) Zeigen Sie, dass dies bei 11 Mengen nicht mehr der Fall zu sein braucht. 1.133 Aufgabe: Seien M1 , M2 endlich. Zeigen Sie |M1 × M2 | = |M1 | · |M2 |. 1.134 Aufgabe: Zeigen Sie per Induktion nach |M |, dass jede endliche Teilmenge M ⊆ N ein maximales Element haben muss. 1.135. Definition: Eine bijektive Abbildung f : {1, . . . , n} → {1, . . . , n} heißt Permutation von {1, . . . , n}. Die Menge aller solcher Permutationen wird mit Sn bezeichnet. Wir werden uns später mit Permutationen genauer beschäftigen. Hier interessieren uns nur Mächtigkeiten, also Ergebnisse der Kombinatorik. 1.136 Satz: Es gilt für alle n ∈ N |Sn | = n! 50 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Beweis: Sei f ∈ Sn . Dann gibt es anschaulich gesehen für f (1) genau n Möglichkeiten, für f (2) noch n − 1 etc. Man sollte diese Idee aber auch als 2 induktiven Beweis formulieren können. 1.137 Aufgabe: Beweisen Sie Sn = n! durch Induktion nach n. 1.138. Definition: Eine Klassenaufteilung einer Menge M ist ein System (eine Menge) S ⊆ P(M ) von nicht-leeren Teilmengen von M , so dass je zwei Mengen in S disjunkt sind und [ S=M ist. 1.139 Aufgabe: Zeigen Sie, dass ein System {S1 , . . . , Sn } von nicht-leeren Teilmengen einer endlichen Menge M genau dann eine Klassenaufteilung von M ist, wenn |S1 | + . . . + |Sn | = |M | ist und die Mengen S1 , . . . , Sn paarweise disjunkt sind. 1.140. Definition: Für n ∈ R und m ∈ N0 ist der Binomialkoeffizient definiert als n n(n − 1) · . . . · (n − (m − 1)) = , für m ≥ 1, m m! und n 0 = 1. 1.141. Bemerkung: Diese Definition ist auch für n ∈ / N geeignet. Sie lautet rekursiv n n n n−m = 1, = · . 0 m+1 m m+1 Es gilt n = 0, m Wir definieren außerdem n = 0, m für alle n ∈ N0 , m ∈ N, m > n für alle n ∈ R, m ∈ Z, m < 0 1.142. Bemerkung: Für n ∈ N0 und m ∈ N0 , m ≤ n kann man den Binomialkoeffizienten auch als n n! = m m!(n − m)! schreiben. 1.143 Aufgabe: Zeigen Sie per Induktion nach m n+1 n n+1 · = m n+1−m m 1.4. DIE NATÜRLICHEN ZAHLEN 51 für alle n ∈ R, m ∈ N, m 6= n + 1. 1.144 Aufgabe: Zeigen Sie n m + n m+1 = n+1 m+1 für alle n ∈ R, m ∈ Z. Für m ≥ 1 verwenden Sie dabei Induktion nach m. Für m = 0 und m < 0 verwenden Sie die speziellen Festlegungen für diese Werte. 1.145. Definition: Eine bijektive Abbildung x : {1, . . . , m} → M definierte ein m-Tupel (x1 , . . . , xm ) in M , wobei es üblich ist xi = x(i) zu schreiben. 1.146 Satz: Es gibt genau n(n − 1) · . . . · (n − m + 1) = n m m! m-Tupel ohne Wiederholungen in einer n-elementigen Menge M . Insgesamt gibt es nm verschiedene m-Tupel, wenn man Wiederholungen zulässt. Ein Tupel hat genau dann keine Wiederholungen, wenn die zugrunde liegende Abbildung injektiv ist. Beweis: Der Beweis dieses Satzes ist ganz analog zur Herleitung der Mächtigkeit von Sn . In der Tat ist Sn die Menge aller n-Tupeln ohne Wiederholungen in {1, . . . , n}. 2 1.147 Satz: Es gibt genau n m verschiedene Teilmengen der Mächtigkeit m in einer n-elementigen Menge M . Beweis: Wir teilen alle m-Tupel in M in Klassen auf, die dieselben Elemente enthalten. Jede Klasse entspricht eindeutig einer Teilmenge der Mächtigkeit m. Wenn allerdings zwei m-Tupel ohne Wiederholungen (x1 , . . . , xm ), (x̃1 , . . . , x̃m ) dieselben Elemente enthalten, so gibt es eine bijektive Abbildung mit φ : {x1 , . . . , xm } → {x1 , . . . , xm } φ(xi ) = x̃i also eine Permutation von {x1 , . . . , xm }. Umgekehrt führt jede solche Permutation ein Tupel in ein anderes mit denselben Elementen über. Die Größe einer Klasse ist also m!. Die Anzahl der Klassen ist der Quotient aus der Gesamtanzahl der Tupel n(n − 1) · . . . · (n − m + 1) 52 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK 2 und der Größe jeder Klasse m! nach Aufgabe 1.139. Man kann diesen Satz auch anders formulieren. Es gibt genau dene geordnete Tupel 1 ≤ x1 < . . . < xm ≤ n. n m verschie- Bildet man die Differenzen dieser Zahlen, so kann man die folgende Aufgabe lösen. 1.148 Aufgabe: Auf wieviele verschiedene Arten kann man eine Zahl n ∈ N in m Summanden zerlegen? Dabei soll nach der Reihenfolge der Summanden unterschieden werden. In anderen Worten, wieviele verschiedene Tupel (n1 , . . . , nm ) in N gibt es, so dass n1 + . . . + nm = n ist. 1.149 Aufgabe: Zeigen Sie für eine endliche Menge M |P(M )| = 2|M | . 1.4.4 Abzählbare Mengen 1.150. Definition: Eine Menge M heißt abzählbar (engl.: countable), wenn es eine bijektive Abbildung x:N→M gibt. Wir schreiben, wie bei Tupeln, xi = x(i) und M = {x1 , x2 , x3 , . . .}. 1.151. Bemerkung: Endliche Mengen sind nicht abzählbar in obigem Sinn. Denn wenn T endlich ist und gleichzeitig abzählbar, dann gibt es bijektive Abbildungen {1, . . . , n} ↔ T ↔ N, also eine bijektive Abbildung von {1, . . . , n} to N. Dies ist aber nicht möglich, da das Bild von {1, . . . , n} als endliche Teilmenge von N ein Maximum haben muss. Wir fassen die wesentlichen Resultate über abzählbare Mengen in folgenden Satz zusammen, den wir allerdings nur zum Teil beweisen. 1.152 Satz: (1) Das Bild einer abzählbaren Menge ist abzählbar oder endlich. (2) Jede Teilmenge einer abzählbaren Menge ist abzählbar oder endlich. (3) Das Kreuzprodukt zweier abzählbaren Mengen ist abzählbar. (4) Die Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar. 1.4. DIE NATÜRLICHEN ZAHLEN 53 Beweis: Wir lassen einige technische Details der Beweise aus. Der Leser ist eingeladen, sich diese Details zu überlegen. (1) Es genügt zu zeigen, dass M abzählbar ist, wenn φ:N→M surjektiv ist, M aber nicht endlich. Dazu konstruieren wir eine bijektive Abbildung ψ:N→M per Induktion. Wir wählen ψ(1) = φ(1). Wenn ψ(1), . . . , ψ(n) definiert sind, so setzen wir ψ(n + 1) = φ(k), wobei k ∈ N das kleinste Element ist mit φ(k) ∈ / {ψ(1), . . . , ψ(n)} Dadurch ist offenbar gewährleistet, dass ψ injektiv ist. ψ ist aber in der Tat auch surjektiv, also bijektiv. (2) Dies folgt unmittelbar aus (1), weil man leicht eine surjektive Abbildung von einer Menge auf eine Teilmenge angeben kann. (3) Es gilt N × N = {(1, 1), (2, 1), (1, 2), (3, 1), (2, 2), (1, 3), . . .}. Daraus folgt die Behauptung. (4) Sei S ein abzählbares Mengensystem von abzählbaren Mengen, etwa S = {S1 , S2 , . . .}. Dann gibt es bijektive Abbildungen φi = N → Si . Die Abbildung φ:N×N→ [ S definiert durch φ(i, j) = φi (j) S ist nun aber surjektiv. Daher ist S abzählbar oder endlich. Da es aber zum Beispiel S1 umfasst, kann es nicht endlich sein. 2 1.153 Aufgabe: Begründen Sie exakt, warum es im Beweis von (1) genügt, die Menge N zu betrachten. Der folgende Satz zeigt, dass es überabzählbare Mengen geben muss. 1.154 Satz: (1) Die Menge aller Abbildungen von einer abzählbaren Menge nach {1, 2} ist nicht abzählbar und nicht endlich. (2) Die Menge aller Folgen in einer abzählbaren Menge ist nicht abzählbar und nicht endlich. (3) Die Potenzmenge einer abzählbaren Menge ist nicht abzählbar. 54 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Beweis: (1) Es genügt, die Aussage für N zu beweisen. Sei φ : N → A(N, {1, 2}) eine Abbildung. Dann definieren wir ψ : N → {1, 2} durch ( ψ(n) = 1, φ(n)(n) = 2, 2, φ(n)(n) = 1. Es folgt ψ(n) 6= φ(n)(n) für alle n ∈ N. Also ψ 6= φ(n) für alle n ∈ N. Also ist φ nicht surjektiv. Man nennt dieses Argument Cantorsches Diagonalargument. (2) Nach (1) lässt sich nicht einmal die Menge der Folgen abzählen, die nur 1 und 2 enthalten, und dies wäre eine Teilmenge der Menge aller Folgen. 2 1.155 Aufgabe: Beweisen Sie (3), indem Sie eine bijektive Abbildung φ : P(M ) → A(M, {1, 2}) angeben. 1.156. Definition: Zwei Mengen heißen gleichmächtig, wenn eine bijektive Abbildung zwischen ihnen existiert. Also ist eine n-elementige Menge gleichmächtig mit {1, . . . , n} und eine abzählbare Menge gleichmächtig mit N. 1.157 Satz: Keine Menge ist gleichmächtig mit ihrer Potenzmenge. Beweis: Angenommen, es gäbe für eine Menge M eine bijektive Abbildung φ : M → P(M ). Dann definieren wir N = {m ∈ M : m ∈ / φ(m)}. Es muss nun ein n ∈ M geben mit φ(n) = N . Es folgt n ∈ φ(n) ⇔ n ∈ / φ(n). Dies ist ein Widerspruch. 2 1.4. DIE NATÜRLICHEN ZAHLEN 1.4.5 55 Das Auswahlaxiom Ein umstrittenes Axiom der Mengenlehre ist das Auswahlaxiom. Es besagt, dass man aus jedem Element eines Mengensystems S mit paarweise disjunkten, nicht leeren Mengen genau ein Element auswählen kann und daraus eine neue Menge S bilden. Daraus folgt die Existenz einer Abbildung [ φ:S→ S, so dass φ(S) ∈ S für alle S ∈ S gilt. Offenbar sichert dieses Axiom die Existenz von vielen Abbildungen, die nicht konstruktiv anzugeben sind. Daher gilt es als problematisch. 1.158. Bemerkung: Das Auswahlaxiom braucht natürlich nicht angewendet zu werden, wenn jedes S ∈ S genau ein Element enthält. Es braucht auch dann nicht angewendet zu werden, wenn man für jedes S ∈ S ein s ∈ S eindeutig konstruktiv angeben kann. 1.159. Bemerkung: Das Auswahlaxiom wird gewöhnlich akzeptiert und in der Analysis auch verwendet, wenn S abzählbar ist, wie es im obigen Beispiel der Fall ist. Wir werden seine Verwendung hier vollständig vermeiden. 1.160. Beispiel: Um zu zeigen, dass es eine Folge von rationalen Zahlen gibt, √ die gegen 2 konvergiert, kann man konstruktiv oder nicht konstruktiv vorgehen. Eine konstruktive Folge ist etwa die rekursiv durch 1 2 x0 = 1, xn+1 = xn + . 2 xn definierte Folge. Eine nicht-konstruktive Lösung erhält man, indem man zeigt, dass ein xn ∈ Q, xn > 0 existiert mit 2− 1 1 ≤ x2n ≤ 2 + . n n Mit Hilfe des Auswahlaxioms erhält man die gewünschte Folge. 1.161. Beispiel: Ein anderes Beispiel aus der Analysis ist die Konstruktion einer Folge, die gegen das Supremum einer nach oben beschränkten, nicht-leeren Menge M ⊆ R konvergiert. Man ”‘wählt”’ xn ∈ [sup M − 1 , sup M ] ∩ M. n 1.162. Bemerkung: Für endliche Mengensysteme S braucht man das Auswahlaxiom nicht. Da man es hier durch Induktion nach |S| beweisen kann. 56 KAPITEL 1. GRUNDLAGEN DER MATHEMATIK Kapitel 2 Vektorräume In diesem Kapitel lernen wir eine allgemeine Theorie über Vektoren kennen. In der Schule tauchen Vektoren nur als Pfeile in der Zahlenebene oder im Raum auf. Schon dort werden Vektoren addiert und mit reellen Zahlen multipliziert. Vektoren lassen sich aber wesentlich allgemeiner definieren und nutzen. 2.1 2.1.1 Körper Definition, Eigenschaften und Beispiele In der Schule betrachtet man Vektoren in der Ebene R2 , und stellt sie als Pfeile dar. Vektoren kann man addieren, indem man die Pfeile hintereinander hängt. v, w 7→ v + w. Sie bilden eine Gruppe mit dieser Addition. Zu jedem Vektor v ist außerdem das Vielfache λv definiert, wobei λ ∈ R ist. λ, v 7→ λv. Der Pfeil wird um das λ-fache in seiner Länge gestreckt. Natürlich kann man R auch durch Q, die Menge der Brüche, ersetzten. Die möglichen Zahlräume, die hier sinnvoll sind, werden in diesem Abschnitt vorgestellt. 2.1. Definition: Eine Menge K, auf der eine Addition +:K ×K →K x, y 7→ x + y und eine Multiplikation ∗:K ×K →K x, y 7→ xy 57 58 KAPITEL 2. VEKTORRÄUME gegeben sind, heißt Körper (engl.: field), wenn diese Operationen die folgenden Bedingungen erfüllen. (1) Es gibt Elemente 0 ∈ K und 1 ∈ K mit 0 6= 1. (2) Für die Addition gilt für alle x, y ∈ K, x+y =y+x für alle x, y, z ∈ K, x + (y + z) = (x + y) + z x+0=x für alle x ∈ K, und zu jedem x ∈ K existiert ein Inverses Element −x ∈ K mit x + (−x) = 0. (3) Für die Multiplikation gilt für alle x, y ∈ K, xy = yx x(yz) = (xy)z für alle x, y, z ∈ K, für alle x ∈ K, 1x = x und zu jedem x ∈ K mit x 6= 0 existiert ein Inverses Element x−1 ∈ K mit xx−1 = 1. (4) Es gilt x(y + z) = xy + xz für alle x, y, z ∈ K. Die Rechenregel (4) heißt Distributivgesetz. Die anderen Rechenregeln haben wir schon bei der Betrachtung von Gruppen kennen gelernt. 2.2. Bemerkung: Jeder Körper K ist eine Gruppe bezüglich der Addition. Die Menge K \ {0} ist eine Gruppe bezüglich der Multiplikation. Denn die Rechenregeln gelten wörtlich genauso, wenn man ”‘+”’ durch ”‘·”’ ersetzt. Wie wir gleich sehen werden, kann 0 kein multiplikatives Inverses haben, so dass es explizit ausgenommen werden muss. Wir können also alle Resultate über Gruppen auch in Körpern anwenden. Wir schreiben für die Multiplikation xy = x ∗ y = x · y. Außerdem schreiben wir, wie üblich, x − y := x + (−y) x := xy −1 . y Man beachte, dass die Division laut Definition nur für y 6= 0 definiert ist. 2.3 Satz: Das neutrale Element und das Inverse der Addition sind eindeutig festgelegt. In K \{0} ist das neutrale Element und das Inverse der Multiplikation eindeutig festgelegt. Es gilt x + y = x + ỹ ⇒ y = ỹ für alle x, y, ỹ ∈ K 2.1. KÖRPER 59 und xy = xỹ ⇒ y = ỹ für alle x, y, ỹ ∈ K, x 6= 0. Es gilt −(x + y) = (−x) + (−y) −1 (xy) =x −1 −1 für alle x, y ∈ K für alle x, y ∈ K \ {0} y Weiter gilt 0x = 0 für alle x ∈ K. Beweis: Die meisten Behauptungen und die Eindeutigkeiten haben wir schon im Rahmen von Gruppen bewiesen. Aufgrund des Distributivgesetzes gilt 0x + 0 = 0x = (0 + 0)x = 0x + 0x. 2 Es folgt 0x = 0. Man beachte, dass aus xy = x nur dann y = 1 folgt, wenn x 6= 0 ist. Im Fall x = 0, gilt die Gleichheit für jedes y ∈ K. Aufgrund des Satzes hat 0 kein Inverses Element bezüglich der Multiplikation. 2.4. Bemerkung: Es ist auch sinnvoll, nicht-kommutative Körper zu betrachten. In diesem Fall fällt das Kommutiativgesezt für die Multiplikation weg. Man kann dann trotzdem beweisen, dass das kommutative Inverse und die 1 dennoch eindeutig bestimmt sind. 2.5 Aufgabe: Beweisen Sie die folgenden bekannten Rechenregeln für Brüche. a c ac · = für alle a, c und b 6= 0, d 6= 0, b d bc a −1 b = für alle a 6= 0, b 6= 0, b a a ac = für alle a und b 6= 0, c 6= 0, b bc a c ad + cb + = für alle a, c und b 6= 0, d 6= 0, b d bd 2.6 Aufgabe: Zeigen Sie (−x)y = −xy (−x)(−y) = xy −1 (−x) = −x −1 für alle x, y, für alle x, y, für alle x 6= 0 2.7. Beispiel: Die wichtigsten Beispiele sind natürlich die rationalen Zahlen und die reellen Zahlen. Wir verweisen für diese Körper auf die Vorlesung in Analysis. Die komplexen Zahlen werden im nächsten Abschnitt behandelt. 2.8. Beispiel: Der kleinste Körper ist der Körper, der nur aus den Elementen 0 und 1 besteht, K = {0, 1}. Die Addition und die Multiplikation lässt sich hier per Aufzählung definieren. 0 + 0 = 1 + 1 = 0, 0 + 1 = 1 + 0 = 0, 0 · 1 = 1 · 0 = 0 · 0 = 0, 1 · 1 = 1. 60 KAPITEL 2. VEKTORRÄUME Man rechnet nach, dass diese Operationen die Körperaxiome erfüllen. Dieser Körper ist interessant, weil man 0 als ”‘falsch”’ und 1 als ”‘wahr”’ interpretieren kann. Die Operation ”‘+”’ ist dann als ”‘entweder, oder”’ zu lesen, und die Operation ”‘·”’ entspricht ”‘und”’. 2.9 Aufgabe: Rechnen Sie nach, dass K = {0, 1} mit diesen Operationen tatsächlich ein Körper ist. 2.10. Beispiel: Eine Erweiterung des vorherigen Beispiels sind die Restklassenkörper. Für eine Primzahl p definieren wir K := {0, . . . , p − 1} und definieren die Addition ”‘+K ”’ und die Multiplikation ”‘·K ”’ durch x +K y = x + y x ·K y = xy mod p, mod p. Das bedeutet, wir berechnen die gewöhnliche Summe, und das gewöhnliche Produkt in Z und nehmen für das Ergebnis den Rest modulo p. Man zeigt, dass auch diese Rechenoperationen einen Körper definieren. Man bezeichnet diesen Körper mit Zp . 2.11 Aufgabe: Weisen Sie nach, dass Zp für eine Primzahl p tatsächlich ein Körper ist. Hinweis: Für die Existenz des multiplikativen Inversen beweisen Sie, dass die Zahlen a, 2a, . . . , (p − 1)a alle verschiedene Reste modulo p haben müssen, und dass deswegen der Rest 1 unter diesen Resten vorkommen muss. 2.12. Beispiel: In der Algebra sind Körper der Form √ K = {a + b 2 : a, b, ∈ Q} interessant. Es gilt Q ⊂ K ⊂ R. K erfüllt natürlich die Rechengesetze, die auch R erfüllt. Man muss aber 0 ∈ K, 1 ∈ K sowie x + y ∈ K, xy ∈ K für alle x, y ∈ K und x ∈ K ⇒ −x ∈ K, x ∈ K \ {0} ⇒ x−1 ∈ K zeigen. 2.13 Aufgabe: Zeigen Sie, dass K tatsächlich ein Unterkörper von R ist. 2.1. KÖRPER 2.1.2 61 Die komplexen Zahlen Löst man die quadratische Gleichung x2 + ax + b = 0 mit a, b ∈ R nach x auf, so entstehen die beiden Lösungen r a a2 − b. x=− ± 2 4 Damit reelle Lösungen existieren, muss a2 /4 ≥ b sein. Die komplexen Zahlen sind nun ein Zahlkörper R ⊂ C, in dem diese Gleichung immer Lösungen hat. Es genügt dazu, die Lösung √ i = −1 der Gleichung x2 = −1 zu den reellen Zahlen ”‘dazu zu nehmen”’. Wie dies genau geschehen kann, wird in der folgenden Definition ausgeführt. 2.14. Definition: Wir führen auf dem R2 eine Addition und eine Multiplikation ein. Dazu setzen wir. (a, b) + (c, d) = (a + c, b + d), (a, b) · (c, d) = (ac − bd, ad + bc). Es wird sich herausstellen, dass R2 mit diesen Operationen ein Körper ist, den wir den Körper der komplexen Zahlen C nennen. 2.15. Bemerkung: Mit Hilfe der bijektiven Abbildung x ∈ R 7→ (x, 0) ∈ C identifizieren wir R mit der Teilmenge {(x, 0) ∈ R2 : x ∈ R}, die wir ebenfalls mit R ⊂ C bezeichnen. Man beachte, dass tatsächlich x + y 7→ (x + y, 0) = (x, 0) + (y, 0), xy 7→ (xy, 0) = (x, 0) · (y, 0). Daher kann man ebensogut in R ⊂ C rechnen wie in R. Außerdem definieren wir i = (0, 1). Es gilt dann i2 = (0, 1) · (0, 1) = (−1, 0) = −1. Es folgt für a, b ∈ R ⊂ C. a + ib = (a, 0) + (0, 1) · (b, 0) = (a, b). Wir schreiben im folgenden die komplexen Zahlen nur noch in dieser Form, also C = {a + ib : a, b ∈ R}. 62 KAPITEL 2. VEKTORRÄUME a heißt Realteil und b Imaginärteil von a + ib. 2.16. Bemerkung: Nun erklärt sich auch die seltsame Definition der Multiplikation. Wenn C ein Körper ist, so muss nach den Rechengesetzen für Körper gelten (a + ib)(c + id) = ac + i2 bd + i(ad + bc) = ac − bd + i(ad + bc). Dies entspricht genau unserer Definition. 2.17 Aufgabe: Rechnen Sie nach, dass C tatsächlich ein Körper ist. Verwenden Sie (a + ib)−1 = b a − 2 i. a2 + b2 a + b2 2.18. Definition: Für komplexe Zahlen definiert man |a + ib| = p a2 + b2 , a + ib = a − ib. 2.19. Bemerkung: Trägt man die komplexen Zahlen in der Zahlenebene R2 auf, so dass der Realteil auf der x-Achse und der Imaginärteil auf der y-Achse abgetragen wird, so ist • |z| der Abstand von z zu 0, • z die Spiegelung von z an der x-Achse, • Die Addition z + w die normale Vektoraddition in R2 . Mit Hilfe von Mitteln der Analysis wird sich herausstellen, dass die Multiplikation zw die Winkel von z und w zur positiven x-Achse addiert und die Beträge multipliziert. 2.20 Aufgabe: Zeigen Sie |zw| = |z| |w| zz = |z|2 zw = z · w für alle z, w ∈ C. 2.21 Aufgabe: Zeigen Sie für z 6= 0 1 z = . z |z|2 2.2. VEKTORRÄUME 2.2 2.2.1 63 Vektorräume Definition 2.22. Definition: Eine nicht leere Menge V heißt Vektorraum (engl.: vector space) über einem Körper K, wenn es eine Addition + : V × V → V, v, w ∈ V 7→ v + w ∈ V auf V gibt, die die Axiome einer Gruppe erfüllt, und eine Multiplikation ∗ : K × V → V, λ ∈ K, v ∈ V 7→ λv ∈ V, für die gelten (1) (λµ)v = λ(µv) für alle λ, µ ∈ K, v ∈ V , (2) (λ + µ)v = λv + µv für alle λ, µ ∈ K, v ∈ V , λ(v + w) = λv + λw für alle λ ∈ K, v, w ∈ V , (3) (4) 1v = v für alle v ∈ V . Wir schreiben natürlich wieder λ · v = λ ∗ v = λv. Niemals schreiben wir vλ. Manchmal schreibt man 1 v := v. λ λ Wir werden diese Schreibweise hier vermeiden. 2.23 Satz: Die Addition erfüllt alle für Gruppen bisher gezeigten Rechengesetze. Insbesondere ist 0 und −v für alle v ∈ V eindeutig bestimmt, und es gilt −(−v) = v. Außerdem gilt in Vektorräumen V λ · v = 0 ⇔ λ = 0 oder v = 0 für alle λ ∈ K, v ∈ V und (−λ) · v = −λv für alle λ ∈ K, v ∈ V . Man beachte, dass zum Beispiel in der Gleichung 0 · v = 0 auf der linken Seite die Null des Körpers gemeint ist, und auf der rechten Seite die Null des Vektorraums. Derartige Schreibweisen sind üblich. Man vermeidet sie durch eine Indizierung 0K · v = 0V , 64 KAPITEL 2. VEKTORRÄUME die wir aber nur noch im folgenden Beweis verwenden wollen. Beweis: Um 0K v = 0V zu zeigen, können wir ganz analog zum Beweis von 0x = 0 in Körpern vorgehen. Also 0K v + 0V = 0K v = (0K + 0K )v = 0K v + 0K v. Weil V eine Gruppe bezüglich der Addition ist, folgt daraus 0V = 0K v. Außerdem gilt λ · 0V = λ · (0V + 0V ) = λ · 0V + λ · 0V . Es folgt λ · 0V = 0V . Sei umgekehrt λv = 0V , aber λ 6= 0K . Dann gilt 0V = λ−1 0V = λ−1 λv = 1v = v. Die zweite Gleichung gilt wegen 0V = 0K v = (1 + (−1))v = 1v + (−1)v = v + (−1)v. Addiert man −v auf beiden Seiten, so erhält man −v = (−1)v. 2.2.2 2 Beispiele 2.24. Beispiel: Das ”‘kanonische”’ Beispiel für einen Vektorraum über K ist der K n . Dieser Raum besteht aus allen Spaltenvektoren der Länge n, n ∈ N, mit Einträgen aus K. x1 K n := { ... : x1 , . . . , xn ∈ K}. xn Mengentheoretisch ist jeder Vektor ein n-Tupel aus K. Ob man das Tupel als Spalte oder Zeile darstellt, scheint im Moment egal zu sein. Später werden wir jedoch einen Unterschied machen. Manchmal wird der Raum der Zeilenvektoren als Kn := { x1 · · · xn : x1 , . . . , xn ∈ K}. definiert. Wir werden diese Notation hier vermeiden. Die Addition definiert man als x1 y1 x1 + y1 .. .. .. . + . := , . xn yn xn + yn die Multiplikation als x1 λx1 λ · ... := ... . xn λxn 2.25 Aufgabe: Zeigen Sie, dass der K n mit dieser Addition und Multiplikation ein Vektorraum über K ist. 2.26. Beispiel: Der für uns wichtigste Vektorraum ist natürlich der Rn als Vektorraum über R. Wir werden sogar meist im Qn bleiben. Normiert man Vektoren 2.2. VEKTORRÄUME 65 in Qn , so tritt aufgrund der Wurzeln der Rn auf. Im Zusammenhang mit Eigenwerten tritt auch der Cn auf, da wir beliebige Nullstellen von Polynomen betrachten. Wie man in der Schule lernt, kann man die Vektoren im R2 oder R3 als gerichtete Pfeile interpretieren. Die Addition ist dann geometrisch das Hintereinanderhängen von Pfeilen, die Multiplikation das Strecken von Pfeilen um den Faktor λ. In Abbildung 2.1 ist dies dargestellt. Man beachte dass für λ < 0 die Richtung des Pfeiles umgedreht wird. Abbildung 2.1: Vektoraddition und -Multiplikation im R2 2.27. Bemerkung: Den K 1 identifizieren wir mit K, also K 1 = K. Der K 0 ist der Vektorraum, der nur aus der 0 besteht, also K 0 := {0}. Auch dieser Nullraum ist ein Vektorraum über K, wie man sich leicht überlegt. 2.28. Beispiel: Sei K = {0, 1} der Körper mit zwei Elementen. Sei v1 .. v = . ∈ Kn vn 66 KAPITEL 2. VEKTORRÄUME ein Vektor, der die Zustände von n Lampen enthält. Dabei steht 0 für ”‘aus”’ und 1 für ”‘ein”’. Der Vektor w1 w = ... ∈ K n wn werde als ein Vektor mit Schaltern interpretiert, wobei 1 für ”‘schalten”’ und 0 für ”‘nicht schalten”’ stehe. Dann ist w + v = v + w der Vektor der Lampenzustände, wenn die Schaltvorgänge von w auf die Lampenzustände von v angewendet werden. 2.29. Beispiel: Ein wichtiger Raum ist der Raum aller Abbildungen einer Menge M in einen Körper K also die Menge A(M, K). Auf diesem Abbildungsraum ist die Addition zweier Abbildungen f, g : M → K ist punktweise definiert. Also für alle x ∈ M . (f + g)(x) = f (x) + g(x) Genauso ist die Multiplikation definiert, also (λf )(x) = λf (x) für alle x ∈ M . 2.30. Beispiel: Als wichtigen Spezialfall denke man an die Menge aller reellwertigen Funktionen auf einem reellen Intervall. Die Summe zweier Funktionen wird einfach punktweise berechnet. Wenn etwa f (x) = x2 , g(x) = 1 zwei Funktionen auf R sind, so folgt für die Funktion 2f + g (2f + g)(x) = 2x2 + 1. 2.31 Aufgabe: Zeigen Sie, dass A(M, K) mit diesen Operationen ein Vektorraum über K ist. 2.32. Beispiel: Noch allgemeiner sei V ein Vektorraum über K. Dann ist die Menge aller Abbildungen von A(M, V ) von M nach V ein Vektorraum über K, wenn die Addition und die Multiplikation wieder punktweise definiert sind. 2.33. Bemerkung: Da jeder Vektor in K n ein Tupel ist, also eine Abbildung von {1, . . . , n} nach K, können wir den K n mit dem Abbildungsraum K n = A({1, . . . , n}, K). identifizieren. Der K n ist also nur ein Spezialfall eines Abbildungsraums. 2.34 Aufgabe: Machen Sie die Menge der Folgen in R zu einem Vektorraum. Schreiben Sie diesen Raum als Abbildungsraum und definieren Sie die Addition und die Multiplikation explizit. 2.35. Bemerkung: Man kann Funktionen f, g : M → K natürlich auch punktweise multiplizieren, also (f g)(x) = f (x)g(x) für alle x ∈ M . 2.2. VEKTORRÄUME 67 Diese Multiplikation ist kommutativ und erfüllt das Distributivgesetz f (g + h) = f g + gh Man stricht in diesem Fall von einer Funktionenalgebra. 2.2.3 Unterräume 2.36. Definition: Sei V ein Vektorraum über K und U ⊆ V . Dann heißt U ein Unterraum (engl.: subspace) von V , wenn U mit der in V definierten Addition und Multiplikation selbst ein Vektorraum über K ist. Es ist klar, dass dann v+w ∈ U für alle v, w ∈ U sein muss. Man sagt, U muss abgeschlossen bezüglich der Addition sein. Dasselbe gilt für die Multiplikation. In der Tat sind diese Bedingungen hinreichend dafür, dass U ein Unterraum von V ist. 2.37 Satz: Sei V ein Vektorraum über einem Körper K. Dann ist U ⊆ V genau dann ein Unterraum von V , wenn U 6= ∅ ist und die Bedingungen v, w ∈ U ⇒ v + w ∈ U, λ ∈ K, v ∈ U ⇒ λv ∈ U für alle v, w ∈ U , λ ∈ K gelten. Beweis: Es ist klar, dass diese Bedingungen notwendig sind. Sonst sind ”‘+”’ und ”‘·”’ nicht richtig auf U definiert. Wenn umgekehrt diese Bedingungen gelten, dann sind die Abbildungen wohldefiniert. Es ist 0=0·v ∈U für alle v ∈ V , und −v = (−1) · v ∈ U für alle v ∈ U . Also erfüllt die Addition die Gruppenaxiome auf U . Auch die Axiome für die Multiplikation sind dann in U erfüllt. 2 2.38. Beispiel: Jeder Vektorraum V enthält die trivialen Unterräume {0} (den Nullraum) und V . 2.39. Beispiel: Sei V ein Vektorraum über dem Körper K, v ∈ V . Dann ist U := {λv : λ ∈ K} ein Unterraum von V . Im Fall V = Rn ist U die Gerade die durch 0 geht in Richtung v. 2.40. Beispiel: Es gibt zahlreiche interessante Unterräume von A(R, R). Ein typisches Beispiel ist die Menge aller stetigen Abbildung f : R → R. C(R) := {f ∈ A(R, R) : f ist stetig auf R} 68 KAPITEL 2. VEKTORRÄUME Nach einem Satz der Analysis sind Summen und Vielfache von stetigen Funktionen wieder stetig. Analog ist C[a, b] ein Unterraum von A([a, b], R). 2.41. Beispiel: Ebenso gibt es zahlreiche interessante Unterräume des Folgenraums auf R. Beispiele sind l∞ = {(xn )n∈N : (xn ) ist beschränkt}, P∞ l1 = {(xn )n∈N : n=1 |xn | < ∞}, lc = {(xn )n∈N : Nur endlich viele xn 6= 0}. 2.42. Beispiel: Ein anderes Beispiel ist der Raum aller Polynome vom Grad n, n ∈ N0 , den wir mit Pn bezeichnen. Dies ist der Unterraum aller Funktionen mit einer Darstellung f (x) = a0 + a1 x + . . . + an xn , wobei a0 , . . . , an ∈ R Koeffizienten sind und n ∈ N. Wir können die Polynome als Funktionen in C(R) betrachten und erhalten einen Unterraum Pn ⊂ C(R). Wir werden später aber Polynome auch als abstrakte Ausdrücke betrachten, mit denen man dennoch rechnen kann. 2.43 Aufgabe: Welche der folgenden Mengen sind Unterräume des Rn ? Begründen Sie die Entscheidung! Zeichnen Sie diese Mengen für n = 2 in ein Koordinatensystem. Skizzieren Sie die Mengen für n = 3. {x ∈ Rn : x1 + . . . + xn = 1}, {x ∈ Rn : x1 = 1}, {x ∈ Rn : x1 = x2 }. (Hier wird immer implizit x = (x1 , . . . , xn ) gesetzt). 2.2.4 Aufgespannter Unterraum 2.44. Definition: Sei V ein Vektorraum über K und M ⊆ V . Dann heißt der kleinste Unterraum U , der M enthält, der von M aufgespannte Unterraum (spanned subspace) span (M ). Das heißt, span (M ) ist ein Unterraum mit der Eigenschaft, dass jeder Unterraum, der M enthält auch span (M ) enthalten muss. U Unterraum mit M ⊆ U ⇒ span (M ) ⊆ U. Die Frage ist, ob dieser Raum existiert. Dies ergibt sich aber aus dem folgenden Satz, in dem wir span (M ) konstruktiv angeben. Wir benötigen zunächst eine Definition. 2.45. Definition: Seien v1 , . . . , vn Elemente eines Vektorraums V über K und λ1 , . . . , λn ∈ K. Man nennt einen Ausdruck der Form λ1 v1 + . . . + λn vn 2.2. VEKTORRÄUME 69 eine Linearkombination von v1 , . . . , vn . 2.46 Satz: Sei V ein Vektorraum über dem Körper K und M ⊆ V , M 6= ∅. Dann ist der aufgespannte Unterraum gleich der Menge aller Linearkombinationen aus M , also ( n ) X span (M ) = λi vi : v1 , . . . , vn ∈ M , λ1 , . . . , λn ∈ K, n ∈ N i=1 Beweis: Sei U der Raum aller Linearkombinationen. Dann ist U ein Unterraum, weil Summe und Vielfache von Linearkombinationen offenbar wieder Linearkombinationen sind (Man beweise das, wobei man genau begründet, welche Axiome des Vektorraums dabei verwendet werden). Andererseits muss jeder Unterraum, der M enthält auch alle Linearkombinationen aus M enthalten. Also ist der Raum aller Linearkombinationen der 2 gesuchte aufgespannte Unterraum. Dieser Beweis der Existenz von span (M ) war konstruktiv. Es gibt aber auch eine direkte Möglichkeit, die in vielen ähnlichen Situationen funktioniert, etwa bei der aufgespannten Untergruppe, oder beim aufgespannten Unterkörper. Dazu halten wir zunächst ein Hilfsresultat fest 2.47 Satz: Der Durchschnitt eines Systems von Unterräumen eines Vektorraums V ist ein Unterraum. 2.48 Aufgabe: Beweisen Sie diesen Satz. 2.49 Aufgabe: Gilt dies auch für die Vereinigung von Unterräumen? 2.50 Satz: Sei V ein Vektorraum über K und M ⊆ V , M 6= ∅. Dann sei U die Menge der Unterräume, die M enthalten, also U := {U ⊆ V : U Unterraum von V mit M ⊆ U }. Es gilt dann span (M ) = \ \ U. U. Beweis: Wir setzen D := Wir wissen, dass D wieder ein Unterraum ist. Dann gilt für jeden Unterraum U mit M ⊆ U , dass U ∈ U ist, und daher D ⊆ U . 2 2.51. Bemerkung: Der Nullraum wird offenbar von der leeren Menge erzeugt. Denn er ist offenbar der kleinste Unterraum, der die leere Menge enthält. Die leere Menge selbst ist kein Unterraum, weil jeder Vektorraum eine {0} enthalten muss. Der obige Satz ist auch in diesem Fall richtig. 2.52. Beispiel: Wenn M = {v1 , . . . , vn } 70 KAPITEL 2. VEKTORRÄUME eine endliche Teilmenge von V ist, so ist n X span (M ) = { λi vi : λ1 , . . . , λn ∈ K}. i=1 Dies folgt unmittelbar aus Satz 2.46, da man Linearkombinationen von Teilmengen von M durch Summanden 0vi auffüllen kann. Wir sprechen in diesem Fall einfach von dem durch v1 , . . . , vn erzeugten (oder aufgespannten) Unterraum. 2.53. Beispiel: Für v ∈ Rn , v 6= 0, n = 2, 3, ist span {v} = {λv : λ ∈ R} die von v aufgespannte Gerade durch 0. Für v, w ∈ R3 , v, w 6= 0, ist span {v, w} = {λv + µw : λ, µ ∈ R} die Ebene durch 0, die die Geraden span {v} und span {w} enthält, wenn die beiden Vektoren nicht in dieselbe Richtung zeigen. 2.54 Aufgabe: Skizzieren Sie im R2 die folgenden Mengen und die davon aufgespannten Unterräume. { 1 }, 1 { 1 1 , }, 1 2 { 1 2 , }, 1 2 2.55 Aufgabe: Sei V ein Vektorraum über K, und M1 , M2 ⊆ V mit M1 ⊆ M2 . Zeigen Sie span (M1 ) ⊆ span (M2 ). 2.56. Beispiel: Betrachtet man die Funktionen fi (x) = xi , i = 0, . . . , n, wobei x0 für die Funktion 1 steht, so sind diese Funktionen Elemente von C(R). Offenbar gilt span {f0 , . . . , fn } = Pn . Es gilt nämlich n X i=0 ! λi fi (x) = n X i=0 λi fi (x) = n X i=0 λi xi . 2.2. VEKTORRÄUME 2.2.5 71 Basen In diesem Abschnitt studieren wir die Mengen, die einen Vektorraum aufspannen. Man nennt solche Mengen Erzeugendensysteme des Vektorraums. Wir sind daran interessiert, Erzeugendensysteme minimaler Größe zu finden, so genannte Basen. Es wird sich herausstellen, dass die Länge einer Basis (die Dimension) charakteristisch für den Vektorraum ist. Außerdem ist für jeden Vektor die Darstellung als Linearkombination von Basisvektoren eindeutig. Basen sind deswegen ein theoretisch und praktisch zentrales Mittel zum Studium von Vektorräumen. 2.57. Definition: Wenn ein Vektorraum V von einer Menge M ⊆ V aufgespannt wird, so nennt man M ein Erzeugendensystem von V . Ein Erzeugendensystem heißt Basis, wenn es minimal ist. Das heißt, jede echte Teilmenge M̃ ⊆ M, M̃ 6= M ist kein Erzeugendensystem von V mehr. Eine Basis eines Vektorraums ist ein minimales Erzeugendensystem des Vektorraums. Wir interessieren uns hier hauptsächlich, aber nicht ausschließlich, für Vektorräume und Untervektorräume, die ein endliches Erzeugendensystem haben. Man nennt solche Vektorräume endlich erzeugt. 2.58. Definition: Eine Teilmenge M eines Vektorraums V heißt linear unabhängig, wenn kein Element von M Linearkombination von anderen Vektoren in M ist. Das heißt v∈ / span (M \ {v}) für alle v ∈ M . 2.59 Aufgabe: Sei M = {v1 , v2 } ⊂ V. Zeigen Sie, dass dann M genau dann linear unabhängig ist, wenn v1 6= 0 ist und v2 kein Vielfaches von v1 ist. 2.60. Bemerkung: Offenbar ist jede Teilmenge eines linear unabhängigen Systems wieder linear unabhängig. 2.61. Bemerkung: Ein linear unabhängige Menge von Vektoren kann die 0 nicht enthalten, weil 0 ∈ {0} = span ∅ ist. Insbesondere ist die Menge {0} nicht linear unabhängig. Aber die leere Menge ∅ ist linear unabhängig und daher Basis des Nullraums. Wir charakterisieren nun linear unabhängige Systeme auf eine äquivalente Art und Weise, die manchmal als Definition für lineare Unabhängigkeit verwendet wird. 2.62 Satz: Eine Teilmenge M eines Vektorraums V . Dann sind äquivalent: 72 KAPITEL 2. VEKTORRÄUME (1) M ist linear unabhängig. (2) Für je endlich viele paarweise verschiedene v1 , . . . , vn ∈ M und beliebige λ1 , . . . , λn ∈ K gilt λ1 v1 + . . . + λn vn = 0 ⇒ λ1 = . . . = λn = 0. (3) Jedes v ∈ span (M ) \ {0} lässt sich eindeutig (bis auf die Reihenfolge) als Linearkombination v = λ1 v1 + . . . + λn vn mit λ1 , . . . , λn ∈ K \ {0} und paarweise verschiedenen v1 , . . . , vn ∈ M darstellen. Beweis: (1) ⇒ (2): Sei M linear unabhängig. Seien dann v1 , . . . , vn ∈ M paarweise verschieden und λ1 , . . . , λn ∈ K mit λ1 v1 + . . . + λn vn = 0. Wir führen den Beweis durch Widerspruch. Angenommen zum Beispiel λ1 6= 0. Dann kann man schreiben v1 = −λ2 −λn v2 + . . . + vn . λ1 λ1 Also v1 ∈ span {v2 , . . . , vn }. Dies ist ein Widerspruch dazu, dass M linear unabhängig ist. Also muss λ1 = 0 sein. Analog zeigt man λ2 = . . . = λn = 0. (2) ⇒ (3): Wir führen den Beweis durch Widerspruch. Angenommen v sei auf zweierlei Arten als Linearkombination darstellbar. Dann können wir annehmen, dass v = λ 1 v1 + . . . + λ n vn = µ1 v1 + . . . + µn vn mit paarweise verschiedenen v1 , . . . , vn ∈ M ist und die beiden Darstellungen voneinander verschieden sind. (Dazu sei {v1 , . . . , vn } die Vereinigung der Vektoren, die in beiden, verschiedenen Darstellungen vorkommen.) Es folgt 0 = (λ1 − µ1 )v1 + . . . + (λn − µn )vn . Nach Voraussetzung erhält man λ1 = µ1 , . . . , λn = µn . Dies ist ein Widerspruch dazu, dass v auf zwei verschiedene Arten darstellbar sein soll. (3) ⇒ (1): Wieder führen wir den Beweis durch Widerspruch. Angenommen, M ist nicht linear unabhängig. Dann gibt es ein v ∈ M , das von den übrigen linear abhängig ist. Also v = λ1 v1 + . . . + λn vn mit v1 , . . . , vn ∈ M \{v} und λ1 , . . . , λn ∈ K. Aber wir haben in dieser Gleichung offenbar zwei verschiedene Darstellungen des Vektors v vorliegen. Dies ist ein Widerspruch zu (3). 2 2.2. VEKTORRÄUME 73 Im Fall M = ∅ gelten alle drei Bedingungen. Der Satz ist also auch für diesen Sonderfall richtig. 2.63. Bemerkung: Für endliche Systeme M = {v1 , . . . , vn } spricht man einfach von linearer Unabhängigkeit der Vektoren v1 , . . . , vn , oder auch von linearer Unabhängigkeit des Tupels A = (v1 , . . . , vn ). Man nennt solche Tupel von Vektoren nur dann linear unabhängig, wenn die Vektoren paarweise verschieden sind. Wenn zwei Vektoren gleich sind, kann die Menge {v1 , . . . , vn } linear unabhängig sein, ohne dass es das Tupel dieser Vektoren ist. Nach Bedingung (2) des eben bewiesenen Satz muss außerdem für alle λ1 , . . . , λn ∈ K gelten n X λi vi = 0 ⇒ λ1 = . . . = λn = 0. i=0 Äquivalent müssen nach Bedingung (3) die Darstellungen als Linearkombination eindeutig sein. Also n X i=1 λi vi = n X µi vi ⇒ λi = µi für i = 1, . . . , n. i=1 Man beachte, aus der Eindeutigkeit der Darstellung unmittelbar die Bedingung (2) folgt. Der folgende Satz dient uns zum Generieren von Basen. Wir streichen aus einem System solange linear abhängige Vektoren, bis dies nicht mehr geht. 2.64 Satz: Sei M ein Erzeugendensystem von V , und v ∈ M von den übrigen Vektoren in M linear abhängig, also v ∈ span (M \ {v}). Dann ist M \ {v} ebenfalls ein Erzeugendensystem von V . Beweis: Wenn v = 0 ist, so ist M \ {v} in jedem Fall ebenfalls ein Erzeugendensystem von V (auch wenn V der Nullraum ist). Wenn v 6= 0 ist, so gibt es nach Voraussetzung v1 , . . . , vn ∈ M \ {v} und λ1 , . . . , λn ∈ K mit v = λ1 v1 + . . . + λn vn . Wir müssen zeigen, dass M \ {v} dann auch ein Erzeugendensystem von V ist. Sei also w ∈ V und w = µ1 w1 + . . . + µk wk mit paarweise verschiedenen w1 , . . . , wk ∈ M und Koeffizienten µ1 , . . . , µk ∈ K. Dann müssen wir w als Linearkombination aus M \{v} darstellen. Wenn v unter den Vektoren w1 , . . . , wk nicht vorkommt, so sind wir fertig. Wenn etwa v = w1 ist, so gilt w = µ1 λ1 v1 + . . . + µ1 λn vn + µ2 w2 + . . . + µk wk ∈ span (M \ {v}) 74 KAPITEL 2. VEKTORRÄUME 2 Analog für v = w2 etc. Den nächsten Satz beweisen wir hier nur für endliche Systeme. In der nachfolgenden Bemerkung gehen wir kurz auf den unendlich dimensionalen Fall ein. 2.65 Satz: Sei v1 , . . . , vn ein Erzeugendensystem von V . Dann gibt es ein Teilsystem, das eine Basis von V ist. Also ist jeder endlich erzeugte Vektorraum endlich-dimensional. Beweis: Gemäß dem vorigen Satz streichen wir solange Vektoren aus diesem Erzeugendensystem, bis wir ein linear unabhängiges System erhalten, das aber immer noch Erzeugendensystem ist. Dieses Erzeugendensystem ist minimal, weil kein Vektor mit Hilfe der übrigen darstellbar ist. 2 2.66 Aufgabe: Sei M linear unabhängig in V und M ∪ {v} linear abhängig. Zeigen Sie, dass dann v ∈ span (M ) sein muss. Folgern Sie, dass für linear unabhängiges M ⊆ V und v ∈ / span (M ) das System M ∩ {v} linear unabhängig ist. 2.67. Bemerkung: Man kann auch für nicht endlich erzeugte Vektorräume beweisen, dass sie eine Basis besitzen, wenn man das Auswahlaxiom zugrunde legt. Diese Basen sind aber nicht konstruktiv beschreibbar und für praktische Zwecke unbrauchbar. Außerdem ist der Beweis der Existenz mengentheoretisch geprägt und würde uns zu weit abseits führen. Es folgt ein wichtiger Satz, mit dem wir Basen, also minimale Erzeugendensysteme, mit Hilfe von linearer Unabhängigkeit charakterisieren können. 2.68 Satz: Sei M eine Teilmenge eines Vektorraums V . Dann sind äquivalent: (1) M ist ein minimales Erzeugendensystem von V (also eine Basis). (2) M ist ein linear unabhängiges Erzeugendensystem. (3) M ist ein maximales linear unabhängiges System in V . (Das heißt, jede echte Obermenge von M ist nicht mehr linear unabhängig.) Beweis: (1) ⇒ (2): Sei M eine Basis. Es muss nur gezeigt werden, dass M linear unabhängig ist. Dies folgt aber unmittelbar aus Satz 2.64. (2) ⇒ (3): Diesen Beweis führen wir durch Widerspruch. Sei also M ein linear unabhängiges Erzeugendensystem. Angenommen M̃ ist eine echte Obermenge von M , die linear unabhängig ist. Sei v ∈ M̃ \ M . Dann ist M ∪ {v} also als Teilmenge einer linear unabhängigen Menge selbst linear unabhängig. Es folgt v∈ / span (M ). Also wäre M kein Erzeugendensystem. Dies ist ein Widerspruch. (3) ⇒ (1): Sei M ein maximales linear unabhängiges System in V . Dann lässt sich jedes v ∈ V als Linearkombination aus M darstellen, weil sonst M ∪{v} nach Aufgabe 2.66 linear unabhängig wäre. Also ist M ein Erzeugendensystem. Kein w ∈ M lässt sich als Linearkombination von anderen Elementen in M darstellen, weil M linear unabhängig ist. Also ist M ein minimales Erzeugendensystem. 2 2.2. VEKTORRÄUME 75 Jedes linear unabhängige Erzeugendensystem ist ein minimales Erzeugendensystem und ein maximales System von linear unabhängigen Vektoren Wir halten noch den folgenden Sachverhalt fest, der sich unmittelbar aus den obigen Sätzen ergibt. 2.69 Satz: Ein Tupel A = (v1 , . . . , vn ) von Vektoren aus V ist genau dann eine Basis von V , wenn sich jedes v ∈ V eindeutig als Linearkombination v = λ1 v1 + . . . λn vn schreiben lässt. 2.2.6 Endlich-Dimensionale Vektorräume 2.70. Definition: Wenn M = {v1 , . . . , vn } mit paarweise verschiedenen Vektoren vi eine Basis von V ist, so heißt n die Dimension von V . Man schreibt dim V = n. In diesem Fall nennt man V endlich-dimensional. 2.71. Bemerkung: Der Nullraum {0} hat vereinbarungsgemäß die Dimension 0. Man muss aber bei Beweisen über Dimensionen diesen Sonderfall stets im Auge behalten. Die Definition von Erzeugendensystem, Basis und Dimension gilt natürlich auch für Unterräume, die ja selber Vektorräume sind. Wir müssen noch zeigen, dass die Dimension eine eindeutig bestimmte Zahl ist. Zuvor jedoch ein paar Beispiele. 2.72. Beispiel: Die Vektoren 1 0 e1 := . , .. 0 ..., 0 .. en := . 0 1 sind eine Basis des K n . Denn jedes Element wird eindeutig als x1 .. . = x1 e1 + . . . + xn en xn dargestellt. Man nennt die Basis die kanonische Basis des K n und die Vektoren die Einheitsvektoren. Es gilt also dim K n = n. 76 KAPITEL 2. VEKTORRÄUME 2.73. Beispiel: Zwei Vektoren v1 , v2 ∈ R3 spannen genau dann eine Ebene auf, wenn sie linear unabhängig sind. Die Dimension dieser Ebenen ist dann 2. Sonst gilt entweder v1 = v2 = 0, und die Vektoren spannen den Nullraum mit Dimension 0 auf, oder ein Vektor ist Vielfaches des anderen, und die Vektoren spannen eine Gerade mit Dimension 1 auf. 2.74. Beispiel: Der Nachweis der linearen Unabhängigkeit nach der Bedingung (2) aus Satz 2.62 oder die Berechnung einer Linearkombination im K n erfordern das Aufstellen und Lösen eines linearen Gleichungssystems, wie man in der folgenden Aufgabe sieht. 2.75 Aufgabe: Gegeben seien die Vektoren 1 1 v1 = 1 , v2 = 0 , 1 1 im R3 . Stellen Sie den Vektor 1 v3 = 1 0 1 v = 2 3 als Linearkombination von v1 , v2 , v3 dar, und weisen Sie nach, dass die Vektoren v1 , v2 , v3 linear unabhängig sind. Verwenden Sie dazu jeweils ein lineares Gleichungssystem mit 3 Unbekannten und drei Gleichungen. 2.76. Beispiel: Wir betrachten wieder den Raum aller Polynome n-ten Grades Pn ⊂ C(R). Wir zeigen, dass die Funktionen fi (x) = xi , i = 0, . . . , n eine Basis von Pn bilden. Diese Funktionen sind ein Erzeugendensystem, wie wir schon gesehen haben. Wir zeigen, dass die Funktionen linear unabhängig sind. Sei n X p := λi fi = 0, i=0 wobei mit 0 die Nullfunktion gemeint ist, die auf ganz R identisch 0 ist. Wir müssen zeigen, dass alle λi = 0 sind. Es folgt also p(x) = λ0 + λ1 x + . . . + λn xn = 0 für alle x ∈ R. Insbesondere p(0) = λ0 = 0. Da p identisch 0 ist, folgt durch k-faches Ableiten auch p(k) (0) = k!λk = 0, für k = 1, . . . , n. In der Tat folgt also λ0 = λ1 = . . . = λn = 0. 2.2. VEKTORRÄUME 77 Wir zeigen nun, dass die Längen aller Basen eines endlich-dimensionalen Vektorraums gleich sind. Die Dimension ist also wohlbestimmt. 2.77 Satz: (Steinitzscher Austauschsatz) Sei V ein Vektorraum, v1 , . . . , vn ein Erzeugendensystem von V und w1 , . . . , wk linear unabhängig. Dann gilt k≤n und man kann k Vektoren der v1 , . . . , vn durch w1 , . . . , wk ersetzen, so dass man wieder ein Erzeugendensystem erhält. Beweis: Wir setzen induktiv einen Vektor wi nach dem anderen in das Erzeugendensystem ein. Sei zunächst w1 = n X λi v i . i=1 Wegen der linearen Unabhängigkeit ist w1 6= 0. Also zum Beispiel λ1 6= 0. Dann ersetzen wir v1 durch w1 . Wir müssen nun zeigen, dass w1 , v2 , . . . , vn noch immer ein Erzeugendensystem von V ist. Klar ist, dass w1 , v1 , v2 , . . . , vn ein Erzeugendensystem ist. Es gilt aber v1 = λ2 λn 1 w1 − v2 − . . . − vn . λ1 λ1 λ1 Nach Satz 2.64 kann man daher v1 streichen und erhält immer noch ein Erzeugendensystem. Wenn wir w1 , . . . , wm , m < k ersetzt haben, so können wir nach Umnummerierung der vi annehmen, dass ein Erzeugendensystem w1 , . . . , wm , vm+1 , . . . , vn entstanden ist. Sei nun wm+1 = λ1 w1 + . . . + λm wm + λm+1 vm+1 + . . . + λn vn . Wegen der linearen Unabhängigkeit der wi muss einer der Koeffizienten λm+1 , . . . , λn ungleich 0 sein. Insbesondere muss m < n sein. Wenn zum Beispiel λm+1 6= 0 ist, so können wir mit demselben Argument wie oben wm+1 gegen vm+1 tauschen. Wir setzen den Austausch fort, bis alle wi eingetauscht sind. 2 Der folgende Satz besagt, dass die Dimension eines endlich erzeugten Vektorraums eine wohldefinierte Größe ist. 2.78 Satz: Alle Basen eines endlich-dimensionalen Vektorraums haben die gleiche Länge. 78 KAPITEL 2. VEKTORRÄUME Beweis: Für den Nullraum ist diese Aussage klar. Ansonsten seien v1 , . . . , vn und w1 , . . . , wm zwei Basen. Nach dem Austauschsatz ist m ≤ n und n ≤ m. 2 Wir geben nun noch zwei Sätze über endlich-dimensionale Vektorräume an, die sehr nützlich sein werden. 2.79 Satz: Sei V ein Vektorraum, n ∈ N0 . (1) Genau dann ist dim V ≥ n, wenn jedes Erzeugendensytem mindestens n Vektoren umfasst. (2) Wenn dim V ≥ n ist, so ist jedes Erzeugendensystem der Länge n eine Basis und folglich dim V = n. (3) Genau dann ist dim V ≤ n, wenn jedes linear unabhängige System höchstens n Vektoren umfasst. (4) Wenn dim V ≤ n ist, so ist jedes System mit n linear unabhängigen Vektoren eine Basis und folglich dim V = n. Beweis: (1) Sei dim V = k ≥ n. Im Fall k = ∞ kann es gar kein endliches Erzeugendensystem geben. Falls k = n = 0, so ist die Behauptung klar. Sonst gäbe es ein Basis v1 , . . . , vk von V . Wenn w1 , . . . , wm ein Erzeugendensystem ist, so gilt nach dem Austauschsatz k ≤ m. Also n ≤ m. Wenn umgekehrt jedes Erzeugendensystem n Vektoren umfasst, so kann dim V < n nicht gelten, weil sonst V eine Basis mit kleinerer Länge als n haben müsste. (2) Nach (1) ist jedes Erzeugendensystem der Länge n ≤ dim V minimal, also Basis. (3) Sei dim V = k ≤ n und v1 , . . . , vm linear unabhängig. Dann ist nach dem Austauschsatz m ≤ k. Also m ≤ n. Umfasse jedes linear unabhängige System höchstens n Vektoren. Da jede Basis aus linear unabhängigen Vektoren besteht, folgt dim V ≤ n. (4) Es gebe also eine Basis der Länge k ≤ n und ein linear unabhängiges System v1 , . . . , vn . Nach dem Austauschsatz ist n ≤ k, also n = k, und v1 , . . . , vn ist 2 dann auch Erzeugendensystem, also Basis. 2.80 Satz: Jedes linear unabhängige System eines endlich-dimensionalen Vektorraums lässt sich zu einer Basis ergänzen. Beweis: Für die leere Menge stimmt der Satz. Sei w1 , . . . , wm linear unabhängig und v1 , . . . , vn eine Basis von V . Nach dem Steinitzschen Austauschsatz ist m ≤ n, und man kann die wi in die Basis eintauschen, so dass man ein Erzeugendensystem der Länge n erhält, das die Vektoren w1 , . . . , wm umfasst. Dies ist nach dem letzten Satz eine Basis von V . 2 2.2. VEKTORRÄUME 79 Den folgenden, nicht trivialen Satz erhalten wir nunmehr leicht aus dem bisherigen Sätzen. Der Satz erlaubt es, Unterräume mit ihrer Dimension zu charakterisieren. 2.81 Satz: Sei V ein endlich-dimensionaler Vektorraum und U ein Unterraum. Dann ist auch U endlich-dimensional und dim U ≤ dim V Außerdem gilt U = V ⇔ dim U = dim V Beweis: Die Maximalgröße eines Systems von linear unabhängiger Vektoren in U ist kleiner als in V . Also dim U ≤ dim V . Sei nun dim U = dim V . Dann ist jede Basis von U ein linear unabhängiges System in V der Länge dim V . Nach dem vorigen Satz ist jede Basis von U also auch Basis von V . Es folgt U = V . 2 2.82. Beispiel: Im R2 gibt es einen Unterraum der Dimension 0, nämlich {0}, Unterräume der Dimension 1, nämlich Geraden durch 0, und einen Unterraum der Dimension 2, nämlich den R2 . Im R3 gibt es echte Unterräume der Dimension 2, nämlich die Ebenen durch 0. 2.83. Bemerkung: Der obige Satz gilt natürlich auch für Unterräume. Wenn also U1 ⊆ U2 ⊆ V Unterräume sind, so folgt dim U1 ≤ dim U2 . Falls dim U1 = dim U2 ist, so folgt U1 = U2 . 2.84 Aufgabe: Sei U ⊂ Pn der Raum der Polynome mit p(0) = 0. Zeigen Sie, dass dies ein Unterraum von Pn ist und geben Sie eine Basis für diesen Raum an. 2.2.7 Summen von Unterräumen 2.85. Beispiel: Seien v1 , v2 ∈ R3 linear unabhängig. Es gibt dann eine Ebene durch 0, die die Geraden G1 = span {v1 }, G2 = span {v2 } enthält, nämlich E = span {v1 , v2 }. Da v1 , v2 linear unabhängig sind, lässt sich jedes v ∈ E eindeutig als v = λ1 v1 + λ2 v2 = w1 + w2 mit w1 ∈ G1 und w2 ∈ G2 schreiben. Man kann also E als die Summe der Geraden auffassen E = G1 + G2 := {w1 + w2 : w1 ∈ G1 , w2 ∈ G2 }. 80 KAPITEL 2. VEKTORRÄUME 2.86. Definition: Seien U1 , U2 Unterräume eines Vektorraums V . Dann definieren wir die Summe der Unterräume U1 , U2 als U1 + U2 := {u1 + u2 : u1 ∈ U1 , u2 ∈ U2 }. Wenn jedes u ∈ U1 +U2 eine eindeutige Summendarstellung hat, so heißt U1 +U2 direkte Summe der Vektorräume und man schreibt für die Summe in diesem Fall U1 ⊕ U2 . Für den folgenden Satz erinnern wir uns, dass der Durchschnitt zweier Unterräume wieder ein Unterraum ist. 2.87 Satz: (Dimensionsformel) Es gilt für zwei endlich-dimensionale Unterräume U1 , U2 eines Vektorraums dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ). Beweis: U1 ∩ U2 ist ein Unterraum von U1 . Falls einer der beteiligten Unterräume die Dimension 0 hat, so wird dieser Sonderfall in der folgenden Aufgabe behandelt. Ansonsten wählen wir eine Basis v1 , . . . , vk von U1 ∩U2 und ergänzen diese Basis zu einer Basis v1 , . . . , vk , wk+1 , . . . , wn von U1 . Analog ergänzen wir diese Basis zu einer Basis v1 , . . . , vk , sk+1 , . . . , sm von U2 . Unmittelbar aus der Definition der Summe U1 + U2 folgt dann, dass v1 , . . . , vk , wk+1 , . . . , wn , sk+1 , . . . , sm ein Erzeugendensystem von U1 + U2 ist. Wir zeigen nun, dass dieses System linear unabhängig ist. Sei dazu 0= k X i=1 λ i vi + n X i=k+1 µi wi + m X ηi si . i=k+1 Da v1 , . . . , vk , wk+1 , . . . , wn linear unabhängig sind, genügt es zu zeigen dass alle Koeffizienten ηk+1 , . . . , ηm gleich 0 sind. Es gilt aber aufgrund der obigen Darstellung m X h := ηi si ∈ U1 ∩ U2 . i=k+1 Also ist h als Linearkombination von v1 , . . . , vk darstellbar. Aufgrund der linearen Unabhängigkeit von v1 , . . . , vk , sk+1 , . . . , sm ist aber h eindeutig mit diesem Koeffizienten darstellbar. Es folgt h = 0 und ηk+1 = . . . = ηm = 0. 2.3. ANALYTISCHE GEOMETRIE 81 2 2.88 Aufgabe: Überlegen Sie sich, dass die Dimensionsformel auch für die Sonderfälle dim U1 = 0, dim U2 = 0, dim(U1 ∩ U2 ) = 0 korrekt ist. 2.89 Satz: Genau dann ist U1 + U2 direkte Summe von U1 , U2 wenn U1 ∩ U2 = {0} ist. Falls U1 und U2 endlich-dimensional sind, so gilt in diesem Fall dim(U1 ⊕ U2 ) = dim U1 + dim U2 . Beweis: Sei U1 ∩ U2 = {0}. Es gebe zwei Darstellungen v = u1 + u2 = ũ1 + ũ2 mit u1 , ũ1 ∈ U1 und u2 , ũ2 ∈ U2 . Dann folgt u1 − ũ1 = ũ2 − u2 ∈ U1 ∩ U2 . Also nach Voraussetzung u1 = ũ1 und u2 = ũ2 . Sei umgekehrt die Darstellung immer eindeutig, und v ∈ U1 ∩ U2 . Dann sind v+0=0+v zwei Darstellungen von v als Summe aus U1 und U2 . Da diese Darstellungen gleich sein sollen, muss v = 0 sein. 2 2.90 Aufgabe: Sei V endlich-dimensional und U1 ⊆ V ein Unterraum. Zeigen Sie, dass es einen Unterraum U2 ⊆ V gibt, so dass V = U1 ⊕ U2 ist. 2.3 Analytische Geometrie Als ”‘analytische Geometrie”’ bezeichnet man Geometrie, die Koordinaten verwendet. Studiert werden geometrische Objekte und Beziehungen im R2 und R3 . In diesem Abschnitt studieren wir lediglich Geraden, Ebenen und Strecken im Raum. Im Gegensatz zur analytischen Geometrie steht die ”‘synthetische Geometrie”’, die geometrische Objekte axiomatisch festlegt. Wir betrieben diese Geometrie, die auf die Griechen zurück geht und Jahrtausende lang eine wichtige Säule der Mathematik war, hier nicht. 82 2.3.1 KAPITEL 2. VEKTORRÄUME Affine Unterräume 2.91. Definition: Sei V ein Vektorraum über K und U ein Unterraum von V . Zu a ∈ V bezeichnet man dann die Menge a + U := {a + u : u ∈ U } als affinen Unterraum (affine subspace) von V . Die Dimension des affinen Unterraums ist die Dimension von U . Die Summe oder Differenz von Mengen oder eines Vektors mit einer Menge ist eine nützliche Notation. Sie muss aber mit Vorsicht benutzt werden. So gilt etwa für jeden Unterraum U U − U := {u1 − u2 : u1 , u2 ∈ U } = U. 2.92. Beispiel: Man kann in beliebigen Vektorräumen Geraden als 1-dimensionale affine Unterräume definieren. Eine Gerade ist damit von der Form G = {a + λv : λ ∈ R} mit a, v ∈ V und v 6= 0 (siehe Abbildung 2.2). In diesem Fall ist U = span {v}. Falls v = 0 ist, so besteht G = a + U nur aus einem Punkt und ist keine Gerade mehr. Im R3 werden wir außerdem Ebenen als 2-dimensionale affine Unterräume charakterisieren (siehe Abbildung 2.3). Die Dimension eines affinen Unterraums scheint von der konkreten Darstellung abzuhängen. Die folgende Aufgabe zeigt, das das nicht so ist. 2.93 Aufgabe: Sei E =a+U ein affiner Unterraum und b ∈ E. Zeigen Sie E = b + U. 2.94. Bemerkung: Aufgrund dieser Aufgabe ist der Unterraum U , der zu einem affinen Unterraum E gehört, eindeutig durch U =E−a gegeben, wobei a ∈ E beliebig gewählt werden kann. 2.95 Satz: Der Schnitt eines nicht-leeren Systems A von affinen Unterräumen ist entweder leer, oder der affine Unterraum \ \ A=b+ (E − b). E∈A mit einem beliebigen b ∈ T A. 2.3. ANALYTISCHE GEOMETRIE Beweis: Wenn der Schnitt nicht leer ist, so wählen wir ein beliebiges b ∈ Aufgrund von Aufgabe 2.93 ist 83 T A. E = b + (E − b), für alle E ∈ A, wobei E −b jeweils der zu E gehörige Unterraum ist. Der Schnitt dieser Unterräume \ U= E−b E∈A ist ein Unterraum. T ”‘⊆”’: Sei c ∈ A, und E ∈ A. Dann ist c ∈ E und nach der vorigen Aufgabe ist E = b + (E − b). Es folgt c = b + u mit einem u ∈ E − b. Es bleibt u ∈ U zu zeigen. Sei dazu Ẽ ∈ A beliebig. Genau wie eben zeigt man c = b + ũ mit einem u ∈ Ẽ − b. Es folgt u = ũ und daher c ∈ b + (Ẽ − b). ”‘⊇”’: Sei umgekehrt c = b + u mit u ∈ U und E ∈ A. Wegen u ∈ E − b ist 2 dann c ∈ E = b + (E − b). Dass der Schnitt von beliebig vielen affinen Unterräumen ein affiner Unterraum ist, lässt sich auch mit dem folgenden Satz beweisen, der affine Unterräume charakterisiert. 2.96 Satz: Eine nicht-leere Teilmenge E eines reellen Vektorraums V ist genau dann affiner Unterraum von V , wenn sie für alle x, y ∈ E die Gerade G(x, y) = {x + λ(y − x) : λ ∈ R} durch x und y enthält. Beweis: Sei E = b + U ein affiner Unterraum. Sei dann x = b + u1 und y = b + u2 . Dann gilt G(x, y) = {b + u1 + λ(u1 − u2 ) : λ ∈ R} ⊆ E. Umgekehrt enthalte E mit zwei Punkten jeweils die Gerade durch diese Punkte. Wir wählen b ∈ E fest. Zu zeigen ist, dass U = E − b ein Unterraum ist. Es gilt offenbar 0 ∈ U . Außerdem für alle x, y ∈ E G(x, y) = {x + λ(y − x) : λ ∈ R} = {(x + b) + λ((y + b) − (x + b)) − b : λ ∈ R} = G(x + b, y + b) − b. Wenn also x, y ∈ U sind, so ist x + b, y + b ∈ E und daher G(x + b, y + b) ⊆ E, also G(x, y) ⊆ E − b = U. Also enthält auch U zu je zwei Punkten die Gerade durch diese Punkte. Sei nun x ∈ E und λ ∈ R. Dann ist λx ∈ G(0, x) ⊆ U. 84 KAPITEL 2. VEKTORRÄUME Seien x, y ∈ U . Dann ist 1 x + y = 2x + (2y − 2x) ∈ G(2x, 2y) ⊆ U. 2 2 Also ist U ein Unterraum. 2.97 Aufgabe: Seien A1 = a1 + U1 , A2 = a2 + U2 zwei affine Unterräume. (1) Zeigen Sie, dass genau dann A1 ⊆ A2 gilt, wenn A1 ∩ A2 6= ∅ ist und U1 ⊆ U2 . (2) Folgern Sie, dass genau dann A1 = A2 gilt, wenn A1 ∩ A2 6= ∅ ist und U1 = U2 . 2.98 Satz: Sei V ein n-dimensionaler Vektorraum, wobei wir n = ∞ zulassen, k ≤ n und a1 , . . . , ak+1 ∈ V Punkte, die in keinem k − 1-dimensionalen affinen Unterraum liegen. Dann gibt es genau einen affinen Raum E der Dimension k, der alle diese Punkte enthält. Beweis: Existenz: Die Existenz ist sehr einfach zu zeigen. Dazu setzen wir a = a1 , v1 = a2 − a1 , . . . , vk = ak+1 − a1 . und setzen E = a + span {v1 , . . . , vk }. Wegen a1 = a + 0, a2 = a + v1 , . . . , ak+1 = a + vk enthält E alle Punkte a1 , . . . , ak+1 . Offenbar gilt dim E = dim span {v1 , . . . , vk } ≤ k Aufgrund der Annahme folgt dim E = k. Eindeutigkeit: Nehmen wir an, dass H ein zweiter affiner Unterraum der Dimension k ist, der die Punkte enthält. Dann gilt also a = a1 ∈ E ∩ H. Es gilt v1 , . . . , v k ∈ H − a Also E − a = span {v1 , . . . , vk } ⊆ H − a. Andererseits haben diese Unterräume dieselbe Dimension k. Also sind sie nach Satz 2.81 gleich. Es folgt E = H. 2 2.99. Definition: Für eine beliebige nicht-leere Teilmenge M eines reellen Vektorraums V kann man den erzeugten affinen Unterraum E definieren. Dies ist der kleinste affine Unterraum, der M umfasst, also \ E = {A : A ist affiner Unterraum von V mit M ⊆ A}. 2.3. ANALYTISCHE GEOMETRIE 85 2.100 Aufgabe: Zeigen Sie E = v + span (M − v) für beliebiges v ∈ M . Falls M = {v0 , v1 , . . . , vn } ist, so haben wir also E = {v0 + n X λ1 (vi − v0 ) : λ1 , . . . , λn ∈ R} i=1 2.101 Aufgabe: Zeigen Sie für den von M ⊆ V aufgespannten affinen Unterraum E={ n X λi vi : λ1 , . . . , λn ∈ R, Pn i=1 λi = 1, v1 , . . . , vn ∈ M , n ∈ N}. i=1 Man nennt eine Summe v= n X λi v i , i=1 n X λi = 1. i=1 eine Affinkombination von v1 , . . . , vn . Folgern Sie, dass eine Teilmenge E ⊆ V genau dann ein affiner Unterraum von V ist, wenn er mit v1 , . . . , vn alle Affinkombinationen dieser Vektoren enthält. 2.102 Aufgabe: Seien a1 , . . . , ak+1 Punkte im Rn , die nicht in einem affinen Unterraum der Dimension k − 1 liegen und k ≤ n. Zeigen Sie, dass sich dann jeder Punkte des Rn eindeutig in der Form x = λ1 a1 + . . . + λk+1 ank+1 λ1 + . . . + λk+1 = 1 schreiben lässt. Man nennt die Koordinaten in obiger Aufgabe baryzentrische Koordinaten. 2.103. Definition: Ein affiner Unterraum E1 = a1 + U1 verläuft parallel zu einem anderen affinen Unterraum E2 = a2 + U2 , wenn sich E1 und E2 nicht schneiden und U1 ⊆ U2 ist. Die affinen Unterräume heißen parallel, wenn sie sich nicht schneiden und U1 = U2 ist. Eine Gerade kann also parallel zu einer Ebene verlaufen, aber nur affine Unterräume gleicher Dimension können zueinander parallel sein. 2.3.2 Geraden und Ebenen Ein 0-dimensionaler affiner Unterraum ist nur ein Punkt. Der erste interessante affine Unterraum hat die Dimension 1. 2.104. Definition: Eine Gerade im Rn ist definiert als eine 1-dimensionaler affiner Unterraum, also G = {a + λv : λ ∈ R}, wobei a ∈ Rn ein Punkt ist, und v ∈ Rn , v 6= 0, der Richtungsvektor. Wir haben also G = a + span {v}. 86 KAPITEL 2. VEKTORRÄUME span {v} ist ein eindimensionaler Unterraum von Rn , nämlich eine Gerade durch 0. 2.105. Beispiel: Im Bild 2.2 ist die Gerade G = a + span {v} eingezeichnet. Setzt man die Wert für a und v ein, so ergibt sich 0.2 + 0.4λ G={ : λ ∈ R}. 0.7 + 0.2λ Abbildung 2.2: Eine Gerade G im R2 Nach Satz 2.98 gibt es im Rn genau eine Gerade durch zwei verschiedene Punkte. Denn zwei verschiedene Punkte können nicht gemeinsam in einem 0dimensionalen affinen Unterraum von R liegen. Wie im Beweis von Satz 2.98 festgestellt wurde, ist die Gerade durch a und b die Menge G := {a + λ(b − a) : λ ∈ R}. 2.106. Definition: Eine Ebene im R3 ist ein 2-dimensionaler affiner Unterraum, also E = a + span {v1 , v2 } mit linear unabhängigen Vektoren v1 , v2 ∈ R3 , und a ∈ R3 . 2.3. ANALYTISCHE GEOMETRIE 87 Abbildung 2.3: Ebene im R3 Als Beispiel für die Art von Sachverhalten, die man mit Hilfe der Dimension beweisen kann, geben wir folgenden Satz an. 2.107 Satz: Der Schnitt zweier Ebenen im R3 ist leer, eine Gerade oder beide Ebenen sind gleich. Beweis: Wenn der Schnitt der Ebenen nicht leer ist, so haben beide Ebenen eine Darstellung E1 = b + U1 , E2 = b + U2 (siehe dazu den Beweis von Satz 2.95) mit dim U1 = dim U2 = 2. Es gilt dann E1 ∩ E2 = b + (U1 ∩ U2 ). Die Frage ist, welche Dimensionen U1 ∩ U2 haben kann. Nach Satz 2.87 gilt dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ) = 4 − dim(U1 ∩ U2 ). Andererseits gilt nach Satz 2.81 dim(U1 + U2 ) ≤ dim(R3 ) = 3. Also dim(U1 ∩ U2 ) ≥ 1. Falls diese Dimension gleich 1 ist, so ist der Schnitt also eine Gerade. Falls sie gleich 2 ist, so folgt wegen dim U1 = dim U2 = 2, wieder aus Satz 2.81, dass 2 U1 ∩ U2 = U1 = U2 ist. Also sind die Ebenen in diesem Fall gleich. 88 KAPITEL 2. VEKTORRÄUME 2.108 Aufgabe: Sei G eine Gerade im R2 und b ∈ R2 , b ∈ / G. Zeigen Sie, dass es genau eine zu G parallele Gerade durch b gibt. 2.109 Aufgabe: Sei E eine Ebene im R3 und b ∈ R3 , b ∈ / E. (1) Zeigen Sie, dass es unendliche viele Geraden durch b gibt, die parallel zu E verlaufen. (2) Zeigen Sie, dass jede Gerade durch b entweder parallel zu E verläuft oder E schneidet. 2.3.3 Strecken und konvexe Mengen Bei der Definition von Strecken nutzen wir zum ersten Mal die Anordnung der reellen Zahlen. Aus diesem Grund werden Strecken und konvexe Mengen auch als Teilgebiet der Analysis betrachtet. Sie sind aber ein wichtiger Bestandteil in der analytischen Geometrie. Daher behandeln wir die Grundlagen hier. Wir reden in diesem Abschnitt zunächst über beliebige Vektorräume über dem Körper R, die wir ”‘reelle Vektorräume”’ nennen. 2.110. Definition: Eine Strecke (engl.: line segment) in einem reellen Vektorraum ist eine Menge der Form S = {a + λ(b − a) : 0 ≤ λ ≤ 1}. a und b heißen die Endpunkte der Strecke. Wir schreiben für die Strecke mit Endpunkten a und b in diesem Abschnitt einfach S(a, b). 2.111 Aufgabe: Zeigen Sie S(a, b) = S(b, a). Der folgende, erstaunlich umständlich zu beweisende Satz zeigt, dass zwei Strecken nur dann gleich sein können, wenn sie dieselben Endpunkte haben. 2.112 Satz: Seien S(a, b) = S(ã, b̃) zwei gleiche Strecken. Dann ist (a, b) = (ã, b̃) oder (a, b) = (b̃, ã). Beweis: Wenn a = b ist, so degeneriert die Strecke zu einem Punkt. Es muss dann offenbar a = b = ã = b̃ gelten. Sei also a 6= b, und v = b − a. Dann ist S(ã, b̃) = S(a, b) ⊂ a + span {v}. Also gibt es λa und λb mit ã = a + λa v, b̃ = a + λb v. Aufgrund der obigen Aufgabe können wir λa < λb annehmen. Wir zeigen λa = 0 und λb = 1, woraus die Behauptung folgt. Zunächst sei festgehalten, dass S(a, b) genau die Punkte a + λv, 0≤λ≤1 2.3. ANALYTISCHE GEOMETRIE 89 enthält. Wegen ã, b̃ ∈ S(a, b) folgt λa ≥ 0 und λb ≤ 1. Wenn aber λa > 0 wäre, so könnte S(ã, b̃) den Punkt a nicht enthalten. Analog widerlegt man λb < 1. 2 2.113. Definition: Eine Teilmenge M eines reellen Vektorraums heißt konvex, wenn gilt S(a, b) ⊆ M für alle a, b ∈ M . Abbildung 2.4: Konvexe Menge und nicht konvexe Menge 2.114 Aufgabe: Zeigen Sie, dass jede Strecke S(a, b) konvex ist. 2.115 Aufgabe: Zeigen Sie dass der Durchschnitt von konvexen Mengen konvex ist. 2.116 Aufgabe: Zeigen sie, dass jeder affine Unterraum eines reellen Vektorraums konvex ist. 2.117. Definition: Zu einer Menge M eines reellen Vektorraums V definieren wir die konvexe Hülle von M als die kleinste konvexe Menge, die M enthält. Für diese Menge schreiben wir conv (M ). Diese Definition macht natürlich nur Sinn, wenn die konvexe Hülle existiert. Wie bei der Definition des aufgespannten Unterraums gibt es einen konstruktiven und einen weniger konstruktiven Weg, die Existenz nachzuweisen. Der weniger konstruktive benutzt \ conv (M ) = {K ⊂ V : M ⊆ K und K konvex}. 90 KAPITEL 2. VEKTORRÄUME Auf der rechten Seite steht nach der obigen Aufgabe eine konvexe Menge. Diese konvexe Menge ist dann in allen konvexen Mengen enthalten, die M umfassen. Man beachte, dass V selbst konvex ist, so dass der Schnitt nicht leer ist. Es ist nützlich, zunächst mit endlichen Mengen M zu beginnen. Man nennt einen Ausdruck der Form k X λ i xi i=0 mit λ1 , . . . , λk ≥ 0 und x1 , . . . , x k . P λi = 1 eine Konvexkombination der Punkte 2.118 Aufgabe: Zeigen Sie, dass die Strecke S(a, b) die Menge alle Konvexkombinationen von a und b ist. 2.119 Aufgabe: Zeigen Sie, dass die Menge aller Konvexkombinationen der Punkte x1 , . . . , xk konvex ist. 2.120 Satz: Sei x1 , . . . , xk Elemente eines reellen Vektorraums V . Dann ist conv {x1 , . . . , xk } die Menge aller Konvexkombinationen der Punkte x1 , . . . , xk . Beweis: Aufgrund der obigen Aufgabe müssen wir nur noch zeigen, dass alle Konvexkombinationen in der konvexen Hülle liegen müssen. Dies zeigen wir durch Induktion nach k. Für k = 1 ist die Aussage klar, da dort x1 = 1 · x1 die einzige Konvexkombination ist, und die konvexe Hülle eines Punktes dieser Punkt ist. Sei k X x= λi xi i=0 eine Konvexkombination. Wenn λk = 1 ist, so ist λ1 = . . . = λk−1 = 0 und x = xk . Der Punkt xk muss natürlich in der konvexen Hülle der Punkte {x1 , . . . , xk } sein. Wenn λk 6= 1 ist, so schreiben wir x = (1 − λk )x̃ + λk xk mit x̃ = k−1 X i=0 λi xi . 1 − λk Wegen k−1 X i=0 Pk−1 λi λi = i=0 =1 1 − λk 1 − λk ist x̃ eine Konvexkombination von {x1 , . . . , xk−1 }. Nach Induktionsvoraussetzung folgt x̃ ∈ conv {x1 , . . . , xk−1 } ⊆ conv {x1 , . . . , xk }. Aufgrund unserer Darstellung ist x ∈ Sx̃,xk . Für die konvexe Hülle der Punkte muss aber gelten Sx̃,xk ⊆ conv {x1 , . . . , xk }. 2.3. ANALYTISCHE GEOMETRIE 91 2 2.121 Satz: Sei M Teilmenge eines reellen Vektorraums. Dann ist conv (M ) die Vereinigung aller konvexen Hüllen von je endlich vielen Punkten aus M . Also ( k ) X P conv (M ) = λi xi : λ1 , . . . , λk ≥ 0, λi = 1, x1 , . . . , xk ∈ M , k ∈ N i=0 Beweis: Es genügt nun zu zeigen, dass die Vereinigung aller Konvexkombinationen konvex ist. Es ist aber nicht schwer nachzuprüfen, dass die Konvexkombination zweier Konvexkombinationen von zwei endlichen Teilmengen aus 2 M selbst wieder Konvexkombination ist. Die bisherigen Resultate über konvexe Mengen gelten in beliebigen reellen Vektorräumen. Wenn wir uns aber auf den Rn zurück ziehen, kann man mehr aussagen. 2.122 Satz: (Carathéodory) Die konvexe Hülle einer Teilmenge M eines n-dimensionalen reellen Vektorraums V ist die Vereinigung der konvexen Hüllen aller höchstens n + 1-elementigen Teilmengen von M . Also (n+1 ) X P conv (M ) = λi xi : λ1 , . . . , λn+1 ≥ 0, λi = 1, x1 , . . . , xn+1 ∈ M i=0 Beweis: Wir müssen nur noch zeigen, dass wir eine Konvexkombination x= k X λ i xi i=1 als Konvexkombination einer echten Teilmenge der Punkte {x1 , . . . , xk } schreiben können, solange k > n + 1 ist. Wir können also λi > 0 für i = 1, . . . , k annehmen. Weil in V höchstens Systeme mit n Vektoren linear unabhängig sein können, sind für k > n + 1 die k − 1 Vektoren x2 − x1 , . . . , x k − x1 linear abhängig. Angenommen k X µi (xi − x1 ) = 0, i=2 wobei nicht alle Koeffizienten µi gleich 0 sind. Addiert man dann das c-fache dieser Gleichung zu x, so folgt x = (λ1 − c k X i=2 µi )x1 + k X (λi + cµi )xi i=2 92 KAPITEL 2. VEKTORRÄUME Wir stellen zunächst fest, dass die Summe der Koeffizienten dieser Darstellung (λ1 − c k X i=2 µi ) + k k X X (λi + cµi ) = λi = 1 i=2 i=1 ist. Für c = 0 sind die Koeffizienten positiv. Wir wählen nun gemäß Aufgabe 2.123 ein c, so dass einer dieser Koeffizienten 0 wird, die anderen aber immer noch nicht-negativ sind. Damit haben wir x als Konvexkombination einer echten 2 Teilmenge der Punkte dargestellt. 2.123 Aufgabe: Seien λ1 , . . . , λ m > 0 reelle Zahlen und µ1 , . . . , µ m ∈ R nicht alle gleich 0. Dann existiert ein c ∈ R, so dass λ1 + cµ1 , . . . , λm + cµm ≥ 0 ist, und mindestens eine dieser Zahlen gleich 0 wird. 2.124. Beispiel: Im R2 ist ein Dreieck die Konvexkombination der drei Eckpunkte. Nach dem Satz von Caratheodory ist die konvexe Hülle einer Teilmenge M ⊆ R2 die Vereinigung aller Dreiecke mit Ecken in M . Im R3 hat man Tetraeder statt Dreiecke zu betrachten. 2.125 Aufgabe: (a) Schreiben Sie Ecken eines Dreiecks als Konvexkombination der Eckpunkte. (b) Schreiben Sie die Seitenmitten eines Dreiecks als Konvexkombination der Eckpunkte. (c) Die Strecken zwischen den Seitenmitten und den gegenüber liegenden Ecken nennt man Seitenhalbierende. Zeigen Sie, dass der Schwerpunkt s= 1 (a + b + c) 3 auf allen Seitenhalbierenden liegt, indem Sie den Punkt als Konvexkombination der Ecken und der Seitenmitten schreiben. Kapitel 3 Lineare Abbildungen 3.1 3.1.1 Lineare Abbildungen Eigenschaften 3.1. Definition: Seien V, W Vektorräume über einem Körper K. Dann heißt eine Abbildung φ : V → W linear, wenn die folgenden Bedingungen gelten. (1) φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) für alle v1 , v2 ∈ V , (2) φ(λv) = λφ(v) für alle v ∈ V , λ ∈ K. 3.2. Beispiel: Die identische Abbildung id : V → V ist linear, ebenso wie die Nullabbildung 0, die konstant gleich 0 ist. 3.3 Aufgabe: Zeigen Sie, dass im Rn die Streckung tc : Rn → Rn , definiert durch für alle x ∈ Rn , tc (x) = a + cx genau dann linear ist, wenn a = 0 ist. Welches sind die Fixpunkte der Streckung, also die Punkte mit tc (x) = x, in Abhängigkeit von a und c? 3.4. Bemerkung: Für eine lineare Abbildung φ : V → W gilt φ(λ1 v1 + . . . + λn vn ) = λ1 φ(v1 ) + . . . + λn φ(vn ), wobei λ1 , . . . , λn ∈ K und v1 , . . . , vn ∈ V seien. Dies folgt aus den Bedinungungen (1) und (2) der Linearität per Induktion. 3.5 Aufgabe: Zeigen Sie φ(0) = 0 für alle lineare Abbildungen φ : V → W . 3.6. Beispiel: In Abbildung 3.1 ist eine lineare Abbildung φ : R2 → R2 dargestellt. Eingezeichnet sind die Einheitsvektoren e1 , e2 (in blau) und deren Bilder 0.9 0.4 φ(e1 ) = w1 = , φ(e2 ) = w2 = −0.2 0.5 93 94 KAPITEL 3. LINEARE ABBILDUNGEN Abbildung 3.1: Lineare Abbildung φ : R2 → R2 (in braun). Man kann dann für jeden Punkt λ1 v= = λ1 e1 + λ2 e2 λ2 das Bild φ(v) = λ1 φ(e1 ) + λ2 φ(e2 ) berechnen. Beispielsweise ist v= 0.2 1 und damit φ(v) = 0.2w1 + 1w2 = 0.2 · 0.9 + 0.4 0.58 = . 0.2 · (−0.2) + 0.5 0.46 Macht man dasselbe für die vier anderen Ecken des Viereck (in blau), so entsteht das eingezeichnete Bildviereck (in braun). 3.7. Bemerkung: Lineare Abbildungen machen nur dann Sinn, wenn Definitionsbereich und Bildraum Vektorräume über demselben Körper sind. 3.8. Bemerkung: Eine lineare Abbildung φ : V → K bezeichnet man als Funktional auf V . Dabei identifizieren wir K = K 1 , damit K ein Vektorraum über K wird. 3.9. Beispiel: Lineare Gleichungen, die zwischen Punkten eines Vektorraums erfüllt sind, sind auch zwischen den Bildern unter einer linearen Abbildung 3.1. LINEARE ABBILDUNGEN 95 erfüllt. Seien beispielsweise a, b ∈ V zwei Punkte und m= 1 (a + b) 2 die Mitte zwischen diesen beiden Punkten. Sei φ : V → W linear. Dann ist φ(m) die Mitte zwischen φ(a) und φ(b). Denn φ(m) = 1 (φ(a) + φ(b)) 2 aufgrund der Bedingungen (1) und (2). Allgemeiner erhält eine lineare Abbildung im Rn Verhältnisse, etwa Konvexkombinationen φ(λa + µb) = λφ(a) + µφ(b) für jede Konvexkombination λ + µ = 1. Daraus folgt, dass das Bild einer konvexen Menge eine konvexe Menge ist. Lineare Abbildungen erhalten also Streckenverhältnisse und bilden konvexe Mengen auf konvexe Mengen ab. 3.10 Satz: Sei φ : V → W linear. (1) Wenn U ⊆ V ein Unterraum von V ist, dann ist das Bild φ(U ) dieses Unterraums ein Unterraum von W . (2) Wenn U ⊆ W ein Unterraum von W ist, dann ist das Urbild φ−1 (U ) ein Unterraum von V . Beweis: (1) Sei w1 , w2 in φ(U ). Dann gibt es v1 , v2 ∈ U mit φ(v1 ) = w1 , φ(v2 ) = w2 . Es folgt φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) = w1 + w2 . Also w1 +w2 ∈ φ(U ). Ganz analog zeigt man die Bedingung (2) für Unterräume. (2) Bleibt dem Leser als Aufgabe überlassen. 2 3.11 Aufgabe: Zeigen Sie (2) in dem obigen Satz. 3.12. Definition: Sei φ : V → W linear. Dann bezeichnet man den Unterraum φ−1 {0} = {x ∈ V : φ(x) = 0} als Kern (engl.: kernel) von φ. Wir schreiben dafür Kern (φ). Außerdem bezeichnet man den Unterraum φ(V ) = {φ(x) : x ∈ V } als Bild (engl.: image) von φ. Wir schreiben dafür Bild (φ). 3.13. Beispiel: Wenn φ : V → W die Nullabbildung ist, dann ist Kern (φ) = V . Wenn φ : V → V injektiv ist, dann ist Kern (φ) = {0}. Dies ist etwa im Beispiel 3.6 der Fall. 96 KAPITEL 3. LINEARE ABBILDUNGEN Wenn φ : V → W eine lineare Abbildung ist, so kann es natürlich durchaus sein, dass φ nicht surjektiv ist und ein y ∈ W kein Urbild hat. Das gilt in der Tat für alle y ∈ W \ Bild (φ). Im folgenden Satz zeigen wir, dass die Menge aller Urbilder von y ein affiner Unterraum von V ist, wenn sie nicht leer ist. 3.14 Satz: Sei φ : V → W linear und φ(x) = y. Dann gilt φ−1 {y} = x + Kern (φ). Die Abbildung φ ist also genau injektiv, wenn es einen Punkt gibt, der genau ein Urbild hat, insbesondere, wenn Kern (φ) = {0} ist. Beweis: ”‘⊆”’: Wenn x̃ ∈ φ−1 {y} ist, dann ist φ(x̃) = y = φ(x). Es folgt φ(x̃ − x) = φ(x̃) − φ(x) = 0. Also x̃ − x ∈ Kern (φ). Also x̃ ∈ x + Kern (φ). ”‘⊇”’: Die Argumentation ist dieselbe, nur umgekehrt. 2 3.15. Bemerkung: Will man also alle Urbilder von y ∈ W berechnen, so genügt es den Kern (φ) zu bestimmen und ein spezielles Urbild von y. Die Urbildmengen aller y sehen also im Prinzip gleich aus, wenn sie nicht leer sind. Die Urbildmengen von Punkten sind zum Kern parallele affine Unterräume. 3.16 Aufgabe: Sei φ : K 2 → K die Abbildung x1 φ = x1 + x2 . x2 Zeichnen Sie Kern (φ) in ein Koordinatensystem, sowie φ−1 (a) für a = −2, −1, 0, 1, 2. 3.17 Aufgabe: Sie φ : V → W linear. Zeigen Sie, dass zwei Mengen φ−1 (y1 ), φ−1 (y2 ) für y1 , y2 ∈ W entweder gleich oder disjunkt sind. Zeigen Sie darüber hinaus [ V = {φ−1 (y) : y ∈ W }. 3.18 Satz: Sei V ein endlich-dimensionaler Vektorraum über K und B eine Basis von V . Sei W ein Vektorraum über K und φ : B → W eine Abbildung. Dann gibt es eine eindeutig bestimmte lineare Fortsetzung φ : V → W . Beweis: Da sich jedes v ∈ V eindeutig als Linearkombination v= n X i=0 λi vi 3.1. LINEARE ABBILDUNGEN 97 mit Vektoren aus der Basis darstellen lässt, muss gelten φ(v) = n X n X λi φ(vi ) = i=0 λi wi . i=0 Definiert man φ auf diese Art und Weise, so ist φ(v) festgelegt. Man rechnet 2 nach, dass φ linear ist. Lineare Abbildungen sind also durch die Bilder eine Basis eindeutig bestimmt. 3.19 Aufgabe: Sei v1 , . . . , vn ein Erzeugendensystem von V und φ : V → W linear. Zeigen Sie, dass dann Bild (φ) von φ(v1 ), . . . , φ(vn ) erzeugt wird. 3.1.2 Dimensionsformel Wir beweisen nun eine weitere wichtige Dimensionsformel. 3.20 Satz: Sei φ : V → W linear und V endlich-dimensional. Dann ist Bild (φ) ebenfalls endlich-dimensional und es gilt dim Kern (φ) + dim Bild (φ) = dim V. Beweis: Als Unterraum von V ist Kern (φ) endlich-dimensional. Sei v1 , . . . , v k eine Basis von Kern (φ). Nach Satz 2.80 kann man dieses linear unabhängige System zu einer Basis v1 , . . . , vk , vk+1 , . . . , vn von V ergänzen. Wir behaupten, dass φ(vk+1 ), . . . , φ(vn ) (3.1) eine Basis von Bild (φ) ist. Dann gilt nämlich in der Tat dim Kern (φ) + dim Bild (φ) = k + (n − k) = n = dim V. Sei y ∈ Bild (φ). Dann existiert ein x ∈ V mit φ(x) = y. Sei x= n X λ i vi . i=1 Dann folgt n n n X X X y = φ(x) = φ( λ i vi ) = λi φ(vi ) = λi φ(vi ). i=1 i=1 i=k+1 Damit haben wir bewiesen, dass Bild (φ) von den Vektoren in (3.1) aufgespannt wird. Wir müssen noch die lineare Unabhängigkeit zeigen. Sei 0= n X i=k+1 λi φ(vi ) = φ( n X i=k+1 λ i vi ) 98 KAPITEL 3. LINEARE ABBILDUNGEN Also n X λi vi ∈ Kern (φ). i=k+1 Es muss also auch n X λi vi = i=k+1 k X λi vi i=1 mit gewissen λi , i = 1, . . . , k, sein. Da aber v1 , . . . , vn eine Basis von V ist, folgt aus der Eindeutigkeit der Darstellung λ1 = . . . = λk = λk+1 = . . . = λn = 0. 2 3.21 Aufgabe: Überlegen Sie sich, dass der Beweis auch in den Extremalfällen dim Kern (φ) = 0, dim Bild (φ) = 0 richtig ist. 3.22 Satz: Seien φ : V → W linear und dim V = dim W , V, W endlich dimensional. Dann sind äquivalent (1) φ ist bijektiv. (2) φ ist surjektiv. (3) φ ist injektiv. Beweis: Es genügt offenbar zu zeigen, dass (2) und (3) äquivalent sind. (2) ⇒ (3): Wenn φ surjektiv ist, dann ist dim W = dim Bild (φ) = dim V − dim Kern (φ) nach der Dimensionsformel. Also dim Kern (φ) = 0. Es folgt, dass Kern (φ) = {0} ist und daher φ injektiv nach Satz 3.14. (3) ⇒ (2): Wenn φ injektiv ist, ist Kern (φ) = {0} nach Satz 3.14. Aus der Dimensionsformel folgt die Behauptung. 2 3.23 Satz: Sei φ : V → W linear. (1) Wenn V endlich-dimensional ist, dann kann φ nur dann surjektiv sein, wenn W endlich-dimensional ist und dim V ≥ dim W. (2) Wenn W endlich dimensional ist, dann kann φ nur dann injektiv sein, wenn V endlich dimensional sein, wenn dim V ≤ dim W. 3.1. LINEARE ABBILDUNGEN 99 Wenn einer der Räume endlich dimensional ist, kann folglich φ nur bijektiv sein, wenn es der andere auch ist und die Dimensionen gleich sind. 3.24 Aufgabe: Beweisen Sie Satz 3.23. 3.25 Aufgabe: Sei v1 , . . . , vn eine Basis von V , und φ : V → W linear. Zeigen Sie, dass dann das System φ(v1 ), . . . , φ(vn ) genau dann linear unabhängig ist, wenn φ injektiv ist. 3.26 Aufgabe: Sei V endlich dimensional. Welche Dimension kann der Kern eines Funktionals φ : V → K haben? 3.27 Aufgabe: Betrachten Sie das Funktional φ : K n → K definiert durch x1 φ ... = x1 + . . . + xn . xn Geben Sie eine Basis des Kerns von φ an. 3.28 Satz: Für zwei lineare Abbildungen φ : V → W, ψ:W →H ist die Verkettung ψ ◦φ wieder linear. Zu jeder invertierbaren linearen Abbildung φ : V → W ist die Umkehrabbildung φ−1 linear ist. 3.29 Aufgabe: Zeigen Sie Satz 3.28. 3.30. Definition: Eine bijektive lineare Abbildung φ : V → W heißt Isomorphismus (isomorphism) (oder Isomorphie, genauer Vektorraum-Isomorphie). Zwei Vektorräume V, W über einem Körper K hießen isomorph, wenn es eine Isomorphie zwischen diesen Vektorräumen gibt. 3.31. Bemerkung: Wir können von Isomorphismus zwischen den Vektorräumen reden, weil ja auch die Umkehrabbildung eines Isomorphismus wieder eine Isomorphismus ist. Isomorphien kann man auf ganz analoge Weise auch für andere algebraische Strukturen, wie Gruppen oder Körper, definieren. Wichtig ist, dass sie bijektiv sind und sich die Rechengesetze übertragen. 3.32 Aufgabe: Definieren Sie, wann eine lineare Abbildung f : K → Q für zwei Körper K und Q eine Isomorphie ist. 3.33 Satz: Wenn V eine endlich dimensionaler Vektorraum über K ist, und φ : V → W ein Isomorphismus, dann ist auch W endlich dimensional und dim V = dim W . Wenn umgekehrt V, W endlich dimensionale Vektorräume über K mit gleicher Dimension sind, dann ist V isomorph zu W . Isomorphe Vektorräume haben also die gleiche Dimension. Jeder n-dimensionale Vektorraum über K ist isomorph zu K n . Beweis: Dass isomorphe Vektorräume die gleiche Dimension haben, folgt aus der Dimensionsformel, insbesondere aus Aufgabe 3.23. Wenn umgekehrt V und W dieselbe Dimension haben, so wählen wir eine Basis v1 , . . . , v n 100 KAPITEL 3. LINEARE ABBILDUNGEN von V und eine Basis w1 , . . . , w n von W . Nach Satz 3.18 gibt es eine lineare Abbildung φ : V → W mit φ(v1 ) = w1 , ..., φ(vn ) = wn . Nach Aufgabe 3.25 ist φ injektiv und damit bijektiv nach Satz 3.22. 2 Wir geben zum Ende dieses Abschnittes einige abstrakte Definitionen an, die algebraische Strukturen auf dem Raum der linearen Abbildungen zwischen zwei Vektorräumen einführen. 3.34. Definition: Eine lineare Abbildung φ : V → V nennt man auch einen Endomorphismus auf V . Bisweilen findet man auch die Bezeichnung linearer Operator auf V . Einen injektiven Endomorphismus nennt man auch Monomorphismus. Ein surjektiver Monomorphismus ist ein Isomorphimus. 3.35. Definition: Wenn V und W Vektorräume über K sind, so definieren wir L(V, W ) als die Menge aller linearen Abbildungen von V nach W . L(V, W ) := {φ : V → W : φ linear}. Da man auf W eine Vektorraumstruktur hat, kann man lineare Abbildungen punktweise addieren und multiplizieren. Also (φ1 + φ2 )(x) = φ1 (x) + φ2 (x) (λφ)(x) = λφ(x) für alle φ, φ1 , φ2 ∈ L(V, W ) und λ ∈ K. 3.36 Aufgabe: Zeigen Sie, dass L(V, W ) mit diesen Operationen ein Vektorraum über K wird. 3.37. Bemerkung: Zwei Elemente in L(V, V ) kann man darüber hinaus multiplizieren, indem man die Abbildungen hintereinander ausführt. Aufgrund der Rechengesetze aus der folgenden Aufgabe wird L(V, V ) mit diesen Operationen eine assoziative Algebra über K. 3.38 Aufgabe: Zeigen Sie (λφ1 ) ◦ φ2 = φ1 ◦ (λφ2 ) = λ(φ1 ◦ φ2 ) für alle λ ∈ K, φ1 , φ2 ∈ L(V, V ). 3.39 Aufgabe: Zeigen Sie φ1 ◦ (φ2 + φ3 ) = φ1 ◦ φ2 + φ1 ◦ φ3 (φ1 + φ2 ) ◦ φ3 = φ1 ◦ φ3 + φ2 ◦ φ3 für alle φ1 , φ2 , φ3 ∈ L(V, V ). 3.40 Aufgabe: Man gebe Endomorphismen φ ∈ L(K 2 , K 2 ) an, so dass gilt φ1 ◦ φ2 6= φ2 ◦ φ1 . 3.1. LINEARE ABBILDUNGEN 101 K sei dabei ein beliebiger Körper. Man gebe zwei andere, von einander verschiedene Endomorphismen an, so dass gilt φ1 ◦ φ2 = φ2 ◦ φ1 . 3.41. Bemerkung: Die Multiplikation ”‘◦”’ auf dem Raum der Isomorphismen von V auf sich selbst ist also nicht kommutativ. Sie erfüllt aber dennoch die übrigen Gruppenaxiome. Es gilt also φ1 ◦ (φ2 ◦ φ3 ) = (φ1 ◦ φ2 ) ◦ φ3 φ ◦ id = φ φ ◦ φ−1 = id für alle Isomorphismen φ, φ1 , φ2 , φ3 von V auf sich selbst. Man spricht von der Gruppe der Ismorphismen von V auf sich selbst. 3.1.3 Matrizen 3.42. Definition: Sei K ein Körper. Ein Rechteckschema der Form a1,1 . . . a1,n .. A := ... . am,1 ... am,n mit ai,j ∈ K für i = 1, . . . , m, j = 1, . . . , n bezeichnet man als m × n-Matrix über dem Körper K. Die Matrix besteht also aus n Spalten a1 , . . . , an , die als Vektoren im K m gedeutet werden können. Wir schreiben deswegen auch A = (a1 , . . . , an ). Wir schreiben auch ã1 A = ... , ãm wobei ã1 , . . . , ãm ∈ Kn die Zeilen von A bezeichnen. Die Einträge ai,j nennt man Koeffizienten der Matrix. Die Menge aller m × n-Matrizen bezeichnen wir mit K m×n . Bisweilen schreibt man A = (ai,j ) 1≤i≤m , 1≤j≤n insbsondere für quadratische Matrizen A = (ai,j )1≤i,j≤m . 3.43. Bemerkung: Mengentheoretisch ist eine Matrix A eine Abbildung a : {1, . . . , m} × {1, . . . , n} → K, (i, j) 7→ ai,j . 102 KAPITEL 3. LINEARE ABBILDUNGEN Die Unterscheidung von Zeilen und Spalten dient aber der Veranschaulichung. 3.44. Bemerkung: Gelegentlich werden wir hier auch Matrizen über anderen Mengen betrachten, also mit Koeffizienten in einer Menge M . Da wir aber mit Matrizen rechnen wollen, sollte auf M wenigstens eine Addition und eine Multiplikation definiert sein. 3.45. Definition: Das Produkt einer Matrix A ∈ K m×n und eines Vektors x ∈ K n ist definiert als a1,1 . . . a1,n x1 a1,1 x1 + . . . + a1,n xn .. · .. := .. A · x = ... . . . . am,1 ... am,n xn an,1 x1 + . . . + am,n xn Wir schreiben Ax = A · x. Wenn y = Ax ist, so ergibt sich der i-te Koeffizient von y als n X yi = ai,j xj für alle i = 1, . . . , m j=0 3.46. Bemerkung: Man beachte, dass das Produkt nur definiert ist, wenn die Spaltenzahl von A und die Zeilenzahl von x übereinstimmen. 3.47. Bemerkung: Seien a1 , . . . , an die Spalten von A und x ∈ K n , sowie y = Ax. Dann gilt a1,1 x1 + . . . + a1,n xn n X .. y = Ax = = xi ai . . am,1 x1 + . . . + am,n xn i=0 Ax ist also eine Linearkombination der Spalten von A. Produkte von Matrizen mit Vektoren, sowie die später definierten Produkte von Matrizen sind nützlich, weil sich lineare Abbildungen mit Matrixprodukten komfortabel schreiben lassen. 3.48 Satz: Jede lineare Abbildung φ : K n → K m lässt sich in der Form φ(x) = Ax schreiben. Dabei ist A ∈ K m×n durch φ eindeutig bestimmt, und die Spalten von A enthalten die Bilder der Einheitsvektoren e1 , . . . , en ∈ K n , also A = (φ(e1 ), . . . , φ(en )). Beweis: Wenn die Spalten von A die Bilder der Einheitsvektoren enthalten, so gilt x1 n n X X φ ... = φ xj ej = xj φ(ej ) = Ax. j=1 j=1 xn 3.1. LINEARE ABBILDUNGEN 103 Wenn umgekehrt φ(x) = Ax ist und a1 , . . . , an die Spalten von A sind, so rechnet man nach, dass φ(ej ) = Aej = aj 2 für j = 1, . . . , n sein muss. 3.49. Definition: Wir definieren für eine Matrix A ∈ K m×n die Abbildung φA : K n → K m φA (x) = Ax. Wie haben gerade bewiesen, dass sich jede Abbildung φ : K n → K m als φ = φA schreiben lässt, und dass A dabei eindeutig bestimmt ist. Das heißt φA = φB ⇔ A = B. Das Studium von linearen Abbildung zwischen endlich dimensionalen Vektorräumen ist damit gleichbedeutend mit dem Studium von Matrizen. Man nennt A die darstellende Matrix von φA . Zu jeder linearen Abbildung von K n nach K m gehört eine eindeutig bestimmte darstellende Matrix in K m×n und umgekehrt. 3.50. Beispiel: Die im Beispiel 3.6 angegebene Abbildung 0.9 0.4 φ(e1 ) = w1 = , φ(e2 ) = w2 = −0.2 0.5 schreibt sich in Matrixdarstellung als x 0.9 φ 1 = x2 −0.2 0.4 x1 · 0.5 x2 3.51. Beispiel: Das in Aufgabe 3.27 angegebene Funktional x1 .. φ . = x1 + . . . xn xn lässt sich in Matrixschreibweise als x1 .. φ . = 1 ··· x1 1 · ... xn xn schreiben. Die Matrix hat hier nur eine Zeile. 3.52. Beispiel: Die Nullabbildung schreibt sich mit einer Matrix, die nur 0 enthält. 3.53. Beispiel: Zwei Produkte P1 und P2 bestehen aus je drei Komponenten K1 , K2 und K3 in den Zusammensetzungen P1 besteht aus P2 besteht aus K1 3 1 K2 1 1 K3 0 1 104 KAPITEL 3. LINEARE ABBILDUNGEN Wenn die entsprechenden Mengen mit Kleinbuchstaben bezeichnet werden, so gilt die Beziehung k1 3 1 k2 = 1 1 · p1 . p2 k3 0 1 3.54. Beispiel: Die identische Abbildung id : K n → K n schreibt sich in der Form 1 0 .. x = id(x) = · x. . 0 1 Die Matrix hat 1 als Diagonalelemente und ist 0 überall sonst. 3.55. Definition: Die Matrix In mit Spalten e1 , . . . , en heißt Einheitsmatrix (engl.: identity matrix). φIn ist also die Identität id : K n → K n . 3.56. Definition: Da sich Matrizen und lineare Abbildungen entsprechen, schreiben wir Bild A = Bild φA , Kern A = Kern φA 3.57 Satz: Sei A ∈ K m×n mit den Spalten A = (a1 , . . . , an ). Dann gilt Bild A = span {a1 , . . . , an } 3.58 Aufgabe: Beweisen Sie diesen Satz. Wir werden nun das Produkt von Matrizen A, B so definieren, dass φAB = φA ◦ φB gilt. Dem Produkt von Matrizen entspricht die Hintereinanderausführung von linearen Abbildungen. 3.59. Definition: Sei A ∈ K m×n , B ∈ K n×k . Bezeichnen dann b1 , . . . , bk die Spalten von B, so definieren wir das Produkt als Matrix mit den Spalten Ab1 , . . . , Abk A · B := (Ab1 , . . . , Abk ) Wir schreiben wieder AB = A · B. 3.60. Bemerkung: Es gilt also AB ∈ K m×k und für die Koeffizienten der Matrix C = AB gilt n X ci,j = ai,ν bν,j , ν=1 3.1. LINEARE ABBILDUNGEN 105 für i = 1, . . . , m, j = 1, . . . , k. Denn ci,j ist die i-te Komponente des Vektors Abj und c1,j a1,1 .. .. . = Abj = . cm,j am,1 ... ... a1,1 b1,j + . . . + a1,n bn,j a1,n b1,j .. · .. = .. . . . am,n bn,j am,1 b1,j + . . . + am,n bn,j für j = 1, . . . , k. Es gilt also ··· ci,j = ai,1 b1,j ai,n · ... . bn,j Sei C = AB. Dann entsteht ci,j durch Multiplikation der i-ten Zeile von A mit der j-ten Spalte von B. Man kann die Matrizen-Multiplikation mit folgendem Schema organisieren .. . ··· b1,j .. . ··· ··· bn,j ··· → ↓ ci,j .. . ··· ai,1 .. . ai,n .. . Zur dieser Rechnung benötigt man mnk Multiplikationen und m(n − 1)k Additionen. 3.61. Beispiel: 1 3 2 1 · 4 3 2 7 = 4 15 10 . 22 3.62 Satz: A ∈ K m×n , B ∈ K n×k . Dann gilt φAB = φA ◦ φB . Die Matrix der Verkettung der linearen Abbildung ist also die Produktmatrix. Dem Produkt von Matrizen entspricht die Hintereinanderausführung der zugehörigen linearen Abbildungen. Beweis: Nach Satz 3.28 ist φ A ◦ φB : K k → K m 106 KAPITEL 3. LINEARE ABBILDUNGEN linear. Nach Satz 3.48 enthält die darstellende Matrix C dieser Abbildung die Bilder der Einheitsvektoren in den Spalten, also C = (φA (φB (e1 ), . . . , φA (φB (ek ))) = (φA (b1 ), . . . , φA (bk )) = (Ab1 , . . . , Abk ) = AB nach der Definition der Matrizen-Multiplikation. Dabei seien b1 , . . . , bk die Spalten von B. 2 3.63 Satz: Sei A ∈ K n×m , B ∈ K m×k , C ∈ K k×l . Dann gilt (A · B) · C = A · (B · C). Beweis: Für die zugehörige lineare Abbildung φA ◦ φB ◦ φ C gilt das Assoziativgesetz nach Aufgabe 1.96. Also φ(AB)C = φAB ◦ φC = (φA ◦ φB ) ◦ φC = φA ◦ (φB ◦ φC ) = φA ◦ (φBC ) = φA(BC) . Aus der Eindeutigkeit der Matrixdarstellung von linearen Abbildungen folgt die 2 Behauptung. 3.64. Bemerkung: Das Assoziativgesetz für die Matrizen-Multplikation kann man auch direkt nachrechnen. Man erhält für die Koeffizienten von D = (AB)C ! k m X X di,j = ai,µ bµ,ν cν,j ν=1 µ=1 und für die Koeffizienten von D = A(BC) di,j = m X ai,µ µ=1 k X ! bµ,ν cν,j . ν=1 Beide Doppelsummen sind jedoch gleich und können als X di,j = ai,µ bµ,ν cν,j ν=1,...,k µ=1,...,m 3.1. LINEARE ABBILDUNGEN 107 gedeutet werden. Das heißt, die Summe ist über alle möglichen µ, ν zu nehmen, die in diesen Zahlbereichen liegen. 3.65. Bemerkung: Wir können auch die Multiplikation einer Matrix mit einem Vektor als Matrizen-Multiplikation auffassen, indem wir den Vektor x ∈ K k als Matrix x ∈ K k×1 interpretieren. Es gilt dann nach dem obigen Satz φAB (x) = (AB)x = A(Bx) = φA (φB (x)) für alle x ∈ K k . Also erhalten wir nochmals φAB = φA ◦ φB . 3.66. Beispiel: Wir setzen Beispiel 3.53 fort. Verpackt man P1 und P2 in zwei Versionen V1 und V2 mit V1 enthält V2 enthält P1 2 1 P2 2 3 so gilt für die Mengen p1 2 = p2 2 1 v · 1 . 3 v2 Also insgesamt k1 3 1 k2 = 1 1 · 2 1 · v1 2 3 v2 0 1 k3 8 6 v = 4 4 · 1 v2 2 3 Damit kann man also berechnen, welche Mengen der Komponenten K1 , K2 und K3 man benötigt, wenn man eine gewünschte Anzahl von Packungen V1 und V2 herstellen will. 3.67. Definition: Eine Matrix A ∈ K n×n nennt man quadratische Matrix. Dann ist also φA : K n → K n ein Endomorphismus. Eine quadratische Matrix heißt invertierbare Matrix, wenn es eine Matrix A−1 gibt, für die gilt A · A−1 = In . Man nennt eine solche Matrix auch reguläre Matrix. Wie wir im folgenden Satz sehen werden, folgt aus AA−1 = In automatisch A A = In . Für Abbildungen ist dies gemäß Aufgabe 1.85 nicht analog der Fall. −1 3.68 Satz: Eine quadratische Matrix A ist genau dann invertierbar, wenn die Abbildung φA invertierbar ist. In diesem Fall gilt φA−1 = φ−1 A . Außerdem gilt A · A−1 = A−1 · A = In . 108 KAPITEL 3. LINEARE ABBILDUNGEN Beweis: Sei A invertierbar, also AA−1 = In . Dann folgt aus Satz 3.62 φA ◦ φA−1 = φIn = id. Deswegen muss φA surjektiv sein. Nach Satz 3.22 ist φA damit bijektiv. Daher muss φ−1 A = φA−1 sein. Außerdem gilt id = φ−1 A ◦ φA = φA−1 ◦ φA . Wieder nach Satz 3.62 folgt In = A−1 A. Wenn umgekehrt φA invertierbar ist, und B die darstellende Matrix von φ−1 A , dann gilt φAB = id = φBA , 2 also AB = In = BA. A ist also tatsächlich invertierbar. 3.69. Bemerkung: Wir haben in diesem Satz gezeigt, dass aus AB = In folgt, dass A und B invertierbar sind, und dass BA = In gilt. 3.1.4 Matrizenrechnung Neben dem Produkt von Matrizen führen wir hier noch weitere nützliche Rechenoperationen ein. 3.70. Definition: Die Summe von gleichgroßen Matrizen A ∈ K m×n , B ∈ K m×n ist elementweise definiert. Also b1,1 . . . b1,n a1,1 . . . a1,n .. .. .. + .. . . . . am,1 ... am,n bm,1 ... bm,n a1,1 + b1,1 .. = . am,1 + bm,1 ... ... a1,n + b1,n .. . . am,n + bm,n Das Produkt eines λ ∈ K mit einer Matrix A ∈ K m×n ist ebenfalls elementweise definiert. Also a1,1 . . . a1,n λa1,1 . . . λa1,m .. = .. .. . λ ... . . . am,1 . . . am,n λam,1 . . . λam,n 3.71 Aufgabe: Zeigen Sie, dass der Raum der Matrizen K m×n mit diesen Operationen zu einem Vektorraum über K wird. Zeigen Sie, dass dieser Vektorraum isomorph zum Vektorraum K mn ist. 3.72 Satz: A(B + C) = AB + AC für alle A ∈ K m×n , B, C ∈ K n×k (A + B)C = AC + BC für alle A, B ∈ K m×n , C ∈ K n×k 3.1. LINEARE ABBILDUNGEN 109 3.73 Aufgabe: Beweisen Sie diese Distributivgesetze. 3.74. Bemerkung: Es gilt im Allgemeinen für Matrizen A, B ∈ K n×n AB 6= BA. Wir haben aber auch schon festgestellt, dass manche Matrizen miteinander kommutieren, wie zum Beispiel AA−1 = A−1 A = In . 3.75. Definition: Sei A ∈ K n×n . Dann definieren wir An = A . . · A} . | · .{z n mal Also, induktiv A1 = A, An+1 = An · A. Außerdem A0 = I n . Für invertierbare Matrizen definieren wir außerdem A−n = (A−1 )n . 3.76 Satz: Sei A ∈ K n×n . Dann gilt An Am = An+m = Am An für alle n, m ∈ N0 . Falls A invertierbar ist, so gilt auch An Am = An+m = Am An für alle n, m ∈ Z. Beweis: Dieser Satz ist aufgrund der Definitionen einleuchtend und kann durch elementare Überlegungen bewiesen werden. Es gilt zum Beispiel . . · A} = |A · .{z . . · A} = An+m . An Am = A . . · A} |A · .{z | · .{z n mal m mal n + m mal Etwas schwieriger ist n, m ∈ Z. Man muss hier verschiedene Fälle unterscheiden. Wir beschränken uns auf den Fall n > 0, m < 0. An Am = |A · .{z . . · A} |A−1 · .{z . . · A−1} . n mal |m| mal Nun heben sich |m| der A−1 gegen genauso viele A auf und es bleiben n − |m| = n + m Faktoren A über. Es folgt die Behauptung. 110 KAPITEL 3. LINEARE ABBILDUNGEN Für einen exakteren Beweis sollte man jedoch vollständige Induktion verwenden. Für n, m ∈ N ist das auch nicht schwer. Wir verwenden Induktion nach m. Für m = 1 gilt An A1 = An A = An+1 gemäß der induktiven Definition von An . Die Behauptung gelte für m. Dann gilt An Am+1 = An (Am A) = (An Am )A = An+m A = An+m+1 nach Definition von Am , Satz 3.63 und der Induktionsannahme. 2 3.77 Aufgabe: Sie A ∈ R2×2 mit 1 A= 3 2 . 4 Berechnen Sie mit lediglich 3 Matrizen-Multiplikationen die Matrix A8 . Wie viele Matrizen-Multiplikationen benötigt man für die Matrix A7 ? Können Sie einen Algorithmus angeben, der An für alle n ∈ N mit möglichst wenigen Matrizen-Multiplikationen berechnet? 3.78 Satz: Wenn A invertierbar ist, so ist auch A−1 invertierbar und es gilt A−1 −1 = A. 2 Beweis: Der Satz folgt unmittelbar aus Satz 3.68. 3.79. Definition: Sei A ∈ K m×n . Dann ist die transponierte Matrix AT ∈ K n×m die Matrix T a1,1 . . . a1,n a1,1 . . . am,1 .. .. = .. .. . . . . am,1 ... am,n a1,n ... am,n Das heißt, für die Matrix B = AT gilt bi,j = aj,i für alle i = 1, . . . , n, j = 1, . . . , m. Transponierte Matrizen werden später im Zusammenhang mit Skalarprodukten sehr wichtig. 3.80 Satz: Es gelten folgende Rechenregeln. (1) AT T =A (A + B)T = AT + B T (λA)T = λAT für alle A, B ∈ K m×n , λ ∈ K. 3.1. LINEARE ABBILDUNGEN 111 (2) Außerdem (AB)T = B T AT für alle A ∈ K m×n , B ∈ K n×k . (3) Für invertierbare Matrizen A ∈ K n×n ist AT invertierbar, und es gilt AT −1 = A−1 T . Beweis: (1) ist eine Übungsaufgabe. (2) Sei C = AB. Dann gilt ci,j = k X ai,ν bν,j für alle i = 1, . . . , m, j = 1, . . . , n ν=1 Wenn c̃i,j die Koeffizienten von B T AT sind, ãi,j die Koeffizienten von AT und b̃i,j die Koeffizienten von B T , dann gilt also cj,i = k X b̃i,ν ãν,j = c̃i,j ν=1 für i = 1, . . . , k, j = 1, . . . , m. Es folgt (AB)T = B T AT . (3) Wegen (2) AT (A−1 )T = (A−1 A)T = InT = In . Es folgt (AT )−1 = (A−1 )T . 2 Wir definieren natürlich xT für x ∈ K n als Zeilenvektor mit denselben Koeffizienten wie x, also T x1 .. . = x1 · · · xn . xn Dies entspricht der Philosophie, K n = K n×1 zu setzen. Man beachte xT = x für alle x ∈ K = K 1 . 3.81 Aufgabe: Sei A ∈ K n×n und x ∈ K 1 . Zeigen Sie xT Ax ∈ K = K 1 . Berechnen Sie xT Ax. Zeigen Sie xT Ax = xT AT x. 112 3.2 3.2.1 KAPITEL 3. LINEARE ABBILDUNGEN Gleichungssysteme Gaußscher Algorithmus 3.82. Definition: Ein lineares Gleichungssystem ist ein System von n linearen Gleichungen mit Unbekannten x1 , . . . , xn der Form a1,1 x1 + . . . + a1,n xn = b1 , .. . am,1 x1 + . . . + am,n xn = bm . In Matrixschreibweise also Ax = b m×n m mit A ∈ K und b ∈ K . Gesucht ist x ∈ K n . Die Lösungsmenge des linearen Gleichungssystems ist L := {x ∈ K n : Ax = b}. 3.83. Bemerkung: Offenbar ist für die Lösungsmenge nach Satz 3.14 ein affiner Unterraum L = φ−1 A {b} = v0 + Kern φA oder leer. Es genügt also, eine spezielle Lösung x0 mit Av0 = b zu bestimmen und alle Lösungen von Av = 0 zu addieren. Ein Gleichungssystem heißt homogenens Gleichungssystem, wenn die rechte Seite b = 0 ist. Ax = 0 nennt man das zugehörige homogene Gleichungssystem. Die Lösungsmenge eines linearen Gleichungssystems ist leer oder die Summe einer speziellen Lösung und aller Lösungen des zugehörigen homogenen Gleichungssystems. Der Gauß-Algorithmus ist nun ein Verfahren, die Lösungsmenge L des Gleichungssystems in parametrisierter Form anzugeben. Eine Parametrisierung von L ist etwa L = {v0 + k X λi vi : λ1 , . . . , λk ∈ K}, i=1 mit festen v0 , v1 , . . . , vk ∈ K n . Die Zahlen λ1 , . . . , λk sind dann die Parameter der Lösungen. 3.2. GLEICHUNGSSYSTEME 113 Da der Lösungsraum L eines linearen Gleichungssystems ein affiner Unterraum von K n ist, lässt sich L immer auf diese Art schreiben. Der GaußAlgorithmus erreicht außerdem, dass v1 , . . . , v k eine Basis des Unterraums L − v0 ist. Dies ist äquivalent dazu, dass die Parameterzahl k minimal ist. Denn jede Basis ist ein minimales Erzeugendensystem nach Satz 2.68. Wir beginnen den Gauß-Algorithmus damit, dass wir das lineare Gleichungssystem Ax = b in ein Schema a1,1 .. . ... am,1 ... a1,n .. . b1 .. . am,n bm (3.2) schreiben. 3.84. Definition: Eine zulässige Zeilenoperation ist eine der folgenden Operationen in den m Zeilen des Schemas (3.2). (1) Multiplikation einer Zeile mit einem λ ∈ K, λ 6= 0. (2) Vertauschung von zwei Zeilen. (3) Addition des λ-fachen einer Zeilen zu einer anderen Zeile mit beliebigem λ ∈ K. 3.85 Satz: Zulässige Zeilenoperationen ändern die Lösungsmenge des linearen Gleichungssystem nicht. 3.86 Aufgabe: Beweisen Sie diesen Satz, indem Sie zeigen, dass jede Lösung x vor vor einer zulässigen Zeilenoperation auch Lösung danach ist, und indem Sie zusätzlich zeigen, dass zulässige Zeilenoperationen mit zulässigen Zeilenoperationen rückgängig gemacht werden können. Ziel des Algorithmus ist, eine Zeilenstufenform zu erreichen. Wir werden sehen, dass man dann die Lösungsmenge in parametrisierter Form ablesen kann. 3.87. Definition: Form hat 0 0 0 .. . Das Schema (3.2) hat Zeilenstufenform, wenn es folgende ··· ··· ··· 0 0 0 1 ∗ 0 0 0 0 0 ∗ 1 ∗ 0 0 0 0 1 .. . 0 0 0 .. . ∗ ∗ ∗ 0 .. . ··· ∗ 1 ∗ 0 .. . 0 ··· 0 b̃1 b̃2 b̃3 .. . b̃k b̃k+1 .. . b̃m Die Sterne ”‘∗”’ stehen hier für eine beliebige Anzahl von Spalten. 114 KAPITEL 3. LINEARE ABBILDUNGEN Die wesentliche Eigenschaft der Zeilenstufenform ist, dass es k Spalten gibt, in denen die Einheitsvektoren e1 , . . . , ek stehen, und dass unterhalb der k-ten Zeile nur 0 steht. Die Zeilenstufenform macht darüber hinaus weitere Einschränkungen über die Spalten, in denen keine Einheitsvektoren stehen. Diese Einschränkungen sind aber für die Lösung nicht notwendig. 3.88 Satz: Man kann jedes Schema durch zulässige Zeilenoperationen auf Zeilenstufenform bringen. Beweis: Der Beweis wird mit Induktion nach n, der Anzahl der Spalten des Schemas (auf der linken Seite von ”‘|”’) geführt. Für n = 1 gibt es zwei Fälle. Wenn die Spalte nur 0 enthält so sind wir fertig. In diesem Fall ist dann k = 0. Ansonsten kann man zwei Zeilen vertauschen, so dass der erste Koeffizient verschieden von 0 ist. Durch eine Operation vom Typ (1) kann dieser Koeffizient zu 1 gemacht werden. Durch Operationen vom Typ (3) verschwinden die anderen Koeffizienten. In diesem Fall ist k = 1. Ansonsten können wir per Induktion die ersten n−1 Spalten auf Zeilenstufenform bringen. Der letzte auftretende Einheitsvektor sei el . Wenn nun unterhalb der l-ten Zeile nur 0 steht, so sind wir fertig. In diesem Fall ist k = l. Ansonsten kann mit Hilfe von zulässigen Zeilenoperationen erreicht werden, dass in der letzten Spalte el+1 steht, ohne die vorigen Spalten zu ändern. In diesem Fall ist 2 k = l + 1. Bevor wir jetzt allgemein angeben, wie man aus der Zeilenstufenform die Lösung abliest, hier einige Beispiele. 3.89. Beispiel: Wir lösen das Gleichungssystem x + y = 3, x − y = 1. Also 1 1 1 x 3 · = . −1 y 1 Das Schema lautet x y 1 1 1 −1 3 1 Zur Erinnerung haben wir hier die Variablennamen über die Spalten geschrieben. Subtraktion der ersten von der zweiten Spalte ergibt 1 0 1 −2 3 −2 Division der zweiten Zeile durch −2 und Subtraktion von der ersten ergibt schließlich x y 1 0 0 1 2 1 3.2. GLEICHUNGSSYSTEME 115 Dies ist eine Zeilenstufenform mit zwei Einheitsvektoren (k = 2) ohne ”‘∗”’. Dieses äquivalente System liest sich als x=2 y=1 Das ist die eindeutig bestimmte Lösung. Man prüft die Lösung durch Einsetzen nach. 3.90. Beispiel: Wir wollen das reelle System x 4x 7x + + + 2y 5y 8y + + + 3z 6z 9z = = = 6 15 24 lösen. Das Gauß-Schema ist 1 2 3 4 5 6 7 8 9 Abziehen des 4-fachen der ersten von zur dritten ergibt. 1 2 0 −3 0 −6 6 15 24 der zweiten und des 7-fachen der ersten 3 −6 −12 6 −9 −18 Nun dividieren wir die zweite Zeile durch −3, ziehen das 2-fache von der zweiten von der ersten ab, und addieren das 6-fache der zweiten zur dritten. Wir erhalten 1 0 0 0 1 0 −1 2 0 0 3 0 Dies ist schon eine Zeilenstufenform mit k = 2. Die Einheitsvektoren e1 , e2 stehen in den ersten beiden Spalten. Wir schreiben nun dieses System in der folgenden Art und Weise. x = z, y = 3 − 2z, indem wir die Variable z auf die rechte Seite bringen. Offenbar sind nun x, y durch z festgelegt und es gilt z L = {3 − 2z : z ∈ R} z 0 1 = {3 + λ −2 : λ ∈ R}. 0 1 Dabei haben wir λ = z umbenannt. Dies ist die gesuchte parametrisierte Darstellung von L. L ist eine Gerade im R3 3.91. Beispiel: Gegeben sei das Gleichungssystem mit der einen Gleichung x+y+z =1 116 KAPITEL 3. LINEARE ABBILDUNGEN mit drei Unbekannten. Das Gauß-Schema 1 1 1 1 ist schon in Zeilenstufenform. Es ist k = 1 und e1 taucht in der ersten Spalte auf. Wir bringen y, z auf die andere Seite und erhalten 1−y−z : y, z ∈ R} y L = { z 1 −1 −1 = {0 + λ1 1 + λ2 0 : λ1 , λ2 ∈ R}. 0 0 1 Dabei haben wir λ1 = y, λ2 = z umbenannt. Dies ist ein affiner Unterraum der Dimension 2, also eine Ebene im R3 . Wir können alternativ die spezielle Lösung sofort ablesen, indem wir y = z = 0 setzen. Es ergibt sich x = 1 und damit die spezielle Lösung 1 v0 = 0 . 0 Danach berechnen wir eine Basis des homogenen Lösungsraums, indem wir die rechte Seite gleich 0 setzen. Der erste Basisvektor ergibt sich mit y = 1 und z = 0. Daraus folgt x = −1, also −1 v1 = 1 . 0 Der zweite Basisvektor ergibt sich mit y = 0 und z = 1. Also −1 v2 = 0 . 1 Da x mit durch die Wahl von y, z festgelegt ist, können wir damit alle Lösungen des homogenen Systems erreichen. 3.92. Bemerkung: Sei ein Schema in Zeilenstufenform gegeben. Die Einheitsvektoren e1 , . . . , ek sollen in Spalten mit Indizes J = {j1 , . . . , jk } auftauchen, wobei 1 ≤ j1 < . . . < jk ≤ n sei. Die anderen Spalten sollen Indizes aus einer Menge I haben. Nach Konstruktion haben diese Spalten keine Koeffizienten ungleich 0 unterhalb der k-ten Zeile, sind also in span {e1 , . . . , ek }. 3.2. GLEICHUNGSSYSTEME 117 Die rechte Seite sei b̃. (1) Wenn dann nicht b̃k+1 = . . . = b̃m = 0 ist, so hat das Gleichungssystem offenbar keine Lösung. (2) Andernfalls finden wir eine spezielle Lösung, indem wir die Variablen in den Spalten I gleich 0 setzen. Die anderen Variablen lassen sich mit xj1 = b̃1 , . . . , xjk = b̃k ablesen. (3) Außerdem finden wir eine Basis des Lösungsraums des homogenen Systems, indem wir die rechte Seite 0 setzen, und dann jede Variable in I gleich 1, die anderen gleich 0. Es ergeben sich n − k linear unabhängige Vektoren, die das homogene Gleichungssystem lösen. Wir fassen noch einmal unsere Erkenntnisse in einem Satz zusammen. 3.93 Satz: Das lineare Gleichungssystem Ax = b, A ∈ K m×n , b ∈ K n, werde durch zulässige Zeilenoperationen in das äquivalente System Ãx = b̃ überführt, wobei die Matrix à in k Spalten die Einheitsvektoren e1 , . . . , e k ∈ K m enthalte und in den anderen Spalten Vektoren aus span {e1 , . . . , ek }. Wenn dann b̃ ∈ span {e1 , . . . , ek } ist, so hat das Gleichungssystem einen (n−k)-dimensionalen affinen Unterraum von K n als Lösungsmenge L. Wenn b̃ ∈ / span {e1 , . . . , ek } ist, dann hat Ax = b keine Lösung. Beweis: Das homogene Gleichungssystem Ax = 0 wird durch dieselben Zeilenoperationen in das System Ãx = 0 überführt. Es ist offensichtlich, dass jede Lösung durch die Werte in den Spalten, die keine Einheitsvektoren sind, festgelegt ist. Setzt man die Variablen in diesen Spalten einzeln gleich 1, die anderen gleich 0, so erhält man n − k linear unabhängige Vektoren, die eine Basis von Kern (A) bilden. Eine spezielle Lösung erhält man, indem man alle diese Variablen gleich 0 setzt. 118 KAPITEL 3. LINEARE ABBILDUNGEN Nach Satz 3.14 ist der Lösungsraum L von Ax = b also ein affiner Unterraum 2 von K m der Dimension n − k. 3.94 Aufgabe: Überlegen Sie sich, dass die n − k gewonnen Lösungen von Ax = 0 tatsächlich linear unabhängig sind. 3.95. Bemerkung: Man macht die Probe, indem man die spezielle Lösung und die Basis des Kerns in Ax einsetzt. 3.96. Bemerkung: Wenn à nur aus den Einheitsvektoren e1 , . . . , en besteht, so ist die Lösung von Ax = b eindeutig und gleich b̃1 .. . . b̃n 3.97. Bemerkung: Es lassen sich offenbar auf dieselbe Art auch n + 1 spezielle Lösungen von Ax = b finden, die den affinen Lösungsraum nach Satz 2.98 aufspannen. Im Beispiel x+y+z =1 erhalten wir die drei Punkte durch y = z = 0 ⇒ x = 1, y = 1, z = 0 ⇒ x = 0, y = 0, z = 1 ⇒ x = 0. Die Lösungsmenge ist also die Ebene durch die drei Einheitsvektoren e1 , e2 , e3 ∈ R3 . 3.98 Aufgabe: Berechnen Sie eine Basis 1 A = 4 7 des Kerns von 2 1 5 1 . 8 1 3.99 Aufgabe: Für welche c ∈ R ist das Gleichungssystem 2 1 1 x 1 1 2 1 · y = −1 1 −1 0 z c lösbar und wie lautet dann die Lösung? 3.100 Aufgabe: Für welche a ∈ R a 1 1 a 1 1 ist das Gleichungssystem 1 x 1 1 · y = 1 a z 1 lösbar und wie lautet dann die Lösung? 3.2. GLEICHUNGSSYSTEME 3.2.2 119 Berechnung von Basen Nach Satz 2.65 kann man aus den Spalten einer Matrix A linear unabhängige Spalten auswählen. Wie findet man diese Spalten? 3.101 Satz: Sei die Zeilenstufenform à aus A ∈ K m×n durch zulässige Zeilenoperationen entstanden. à enthalte die Einheitsvektoren e1 , . . . , ek in den Spalten j1 , . . . , jk . Dann bilden die Spalten aj1 , . . . , ajk von A eine Basis des von den Spalten erzeugten Unterraums von A, also nach Satz 3.57 von Bild A. Beweis: Offenbar gilt span {aj1 , . . . , ajk } ⊆ Bild A. Sei umgekehrt b ∈ Bild A, also Ax = b lösbar. Das Schema A|b gehe durch die Zeilenoperationen in Ã|b̃ über. Wir können also das Gleichungssystem Ãx = b̃ durch einen Vektor x lösen, der nur in den Zeilen j1 , . . . , jk Elemente ungleich 0 hat, d.h. x ∈ span {ej1 , . . . , ejn }. Diese Lösung x erfüllt auch Ax = b. Es folgt b ∈ span {aj1 , . . . , ajn }. Wir haben noch die lineare Unabhängigkeit dieser Spalten zu zeigen. Angenommen eine Linearkombination dieser Spalten ist 0. Sei also Aλ = 0 für ein λ ∈ K n , das nur Elemente ungleich 0 in den Zeilen j1 , . . . , jk enthält. Dann ist auch Ãλ = 0, also k X 0 = Ãλ = λji ei . i=1 Es folgt λ = 0. 2 3.102 Aufgabe: Wählen Sie aus den Spalten von 1 2 3 1 A = 4 5 6 1 7 8 9 1 eine Basis von Bild A aus. 3.103 Satz: Sei die Zeilenstufenform à aus A durch zulässige Zeilenoperationen entstanden (mit k Einheitsvektoren). Dann enthalten die ersten k Zeilen von à eine Basis des von den Zeilen von A erzeugten Unterraums von Kn . Beweis: Es ist leicht zu sehen, dass die ersten k Zeilen von à linear unabhängig sind, wenn man diese Zeilen in den Spalten betrachtet, in denen die Einheitsvektoren stehen. 120 KAPITEL 3. LINEARE ABBILDUNGEN Wir müssen nun noch zeigen, dass zulässige Zeilenoperationen den von den Zeilen erzeugten Unterraum nicht ändern. Dies ist aber für jede einzelne Ope2 ration leicht nachzuprüfen (Übungsaufgabe). 3.104 Aufgabe: Sei V ein Vektorraum über K: Zeigen Sie für v1 , . . . , vn ∈ V , λ ∈ K span {v1 , v2 , . . . , vn } = span {v1 , v2 + λv1 , . . . , vn }. 3.105. Bemerkung: Wir können also eine Basis von span {v1 , . . . , vn } ⊆ K m auf zwei Arten ermitteln. (1) Wir führen zulässige Zeilenoperationen an der Matrix A = (v1 , . . . , vn ) ∈ K m×n durch. Wenn j1 , . . . , jk die Spalten mit den Einheitsvektoren sind, so ist vj1 , . . . , vjk die gesuchte Basis. (2) Wir führen zulässige Zeilenoperationen an der Matrix AT durch und erhalten in den ersten k Zeilen eine gesuchte Basis. Alternativ kann man dieselben Operationen an den Spalten von A durchführen, und eine Spaltenstufenform erreichen. 3.106 Aufgabe: Führen Sie Methode (2) durch, um eine Basis des von den Vektoren 1 2 3 1 4 , 5 , 6 , 1 7 8 9 1 aufgespannten Unterraums zu finden. 3.2.3 Rang 3.107. Definition: Als Spaltenrang einer Matrix A ∈ K m×n bezeichnen wir die Dimension des von den Spalten von A aufgespannten Unterraums von K n . Nach Satz 57 also Spaltenrang A = dim Bild φA . Als Zeilenrang bezeichnen wir den Spaltenrang von AT , also die Dimension des von den Zeilen aufgespannten Unterraums des Km . Der folgende Satz zeigt, dass der Zeilenrang immer gleich dem Spaltenrang ist. Wir sprechen daher einfach vom Rang einer Matrix. 3.108 Satz: Der Zeilenrang einer Matrix A ∈ K m×n ist gleich dem Spaltenrang dieser Matrix. 3.2. GLEICHUNGSSYSTEME 121 Beweis: Sei A durch zulässige Zeilenumformungen in die Matrix à überführt, die k Einheitsvektoren besitze. Nach Satz 3.101 ist k der Spaltenrang von A. 2 Nach Satz 3.103 ist k auch der Zeilenrang von A. 3.109 Satz: Ein Gleichungssystem Ax = b ist genau dann lösbar, wenn Rang (A|b) = Rang (A) ist. Dabei sei A|b die Matrix, die aus den Spalten von A und b besteht. Beweis: Offenbar ist die Bedingung äquivalent dazu, dass b linear abhängig von den Spalten von A ist. 2 3.2.4 Berechnung der inversen Matrix Der Gauß-Algorithmus kann auch simultan für mehrere rechte Seiten angewendet werden. Zur Lösung von Av1 = b1 , . . . , Avk = bk wenden wir zulässige Zeilenoperationen auf A|b1 , . . . , bk an, bis A in eine Zeilenstufenform à umgewandelt wird. Dann lassen sich spezielle Lösungen der Gleichungssysteme leicht ablesen. 3.110 Satz: Sei A ∈ K n×n . Dann ist A genau dann invertierbar, wenn sich A durch zulässige Zeilenoperationen in In umformen lässt. Sei nun (A|In ) → (In |B) mit Hilfe von zulässigen Zeilenoperationen umgewandelt. Dann gilt B = A−1 . Beweis: Wenn sich A in In umwandeln lässt, dann ist Rang (A) gleich n. Also ist A invertierbar nach Satz 3.22. Wenn umgekehrt A invertierbar ist, dann ist Rang (A) = n und daher k = n in der Zeilenstufenform. Die Inverse ist die Matrix B mit AB = In . Sie löst also simultan die Gleichungssystem Ab1 = e1 , . . . , Abn = en . Die speziellen Lösungen b1 , . . . , bn dieser Gleichungssysteme lassen sich in der Tat aus dem Schema (In |B) ablesen. 2 3.111 Aufgabe: Ermitteln Sie die inverse Matrix von 1 2 3 4 5 6 7 8 8 122 KAPITEL 3. LINEARE ABBILDUNGEN Führen Sie die Rechnung möglichst lange ohne Brüche durch! 3.112 Aufgabe: Für welche a ∈ R ist 1 0 0 0 die Matrix 1 1 1 1 1 1 0 1 1 0 0 a invertierbar? Wie lautet in diesem Fall die inverse Matrix? 3.113 Aufgabe: Berechnen Sie die Inverse der Matrix 1 x 1 , . . . . . . x 1 wobei alle nicht aufgeführten Elemente der Matrix gleich 0 seien. 3.114 Aufgabe: Sei A ∈ Rn×m ⊆ Cn×m . Dann ist der Rang von A als reelle Matrix gleich dem Rang von A als komplexe Matrix. 3.2.5 Elementarmatrizen Die zulässigen Zeilenoperationen des Gaußschen Algorithmus können als Matrizenmultiplikationen geschrieben werden. Dazu definieren wir eine Sammlung von Elementarmatrizen. 3.115. Definition: (1) Wir definieren die Matrix Ri,j,n (λ) ∈ K n×n als die Matrix, die in der Diagonalen 1 enthält und an der (i, j)-ten Komponenten λ, sonst aber nur 0, also etwa 1 0 0 R2,1,3 (2) = 2 1 0 . 0 0 1 (2) Wir definieren als Pi,j,n ∈ K n×n die und j vertauscht sind, also etwa 0 P1,2,3 = 1 0 Einheitsmatrix, bei der die Spalten i 1 0 0 0 0 . 1 (3) Wir definieren als Di,n (λ) ∈ K n×n als die Einheitsmatrix, bei der die 1 in der i-ten Zeile und Spalte durch λ ersetzt ist, also etwa 1 0 0 D2,3 (4) = 0 4 0 . 0 0 1 3.116 Satz: Sei A ∈ K m×n eine Matrix. 3.2. GLEICHUNGSSYSTEME 123 (1) Die Addition des λ-fachen der j-ten Zeile zur i-ten entspricht einer Multiplikation mit Ri,j,m (λ) von links. Die Addition des λ-fachen der j-ten Spalte zur i-ten Spalte entspricht einer Multiplikation mit Rj,i,n (λ) von rechts. (2) Die Vertauschung der i-ten und j-ten Zeile entspricht einer Multiplikation mit Pi,j,m von links. Die Vertauschung der i-ten und j-ten Spalte entspricht eine Multiplikation mir Pi,j,n von rechts. (3) Die Multiplikation der i-ten Zeile mit λ entspricht eine Multiplikation mit Di,m (λ) von links. Die Multiplikation der i-ten Spalte mit λ entspricht eine Multiplikation mit Di,n x(λ) von rechts. 3.117 Aufgabe: Rechnen Sie diesen Satz nach. Für die Spaltenoperationen verwenden Sie Ri,j,n (λ)T = Rj,i,n (λ), T Pi,j,n = Pj,i,n , Di,n (λ)T = Di,n (λ). 3.118 Aufgabe: Zeigen Sie Ri,j,n (λ)−1 = Ri,j,n (−λ), sowie −1 Pi,j,n = Pi,j,n und, für λ 6= 0 1 Di,n (λ)−1 = Di,n ( ). λ 3.119. Bemerkung: Die Elementarmatrizen entsprechen also den zulässigen Zeilenoperationen, wenn man Di,n (0) ausnimmt. Wir sprechen von zulässigen Elementarmatrizen. 3.120. Bemerkung: Der Gauß-Algorithmus zur Invertierung von A kann also folgendermaßen gedeutet werden. Man multipliziert sowohl A, also auch In von links mit Elementarmatrizen, bis links die Einheitsmatrix entsteht. Wenn also A|In in In |à überführt wird, so hat man In = Ek · . . . · E1 A, à = Ek · . . . · E1 In mit gewissen zulässigen Elementarmatrizen E1 , . . . , Ek . Es folgt In = ÃA, also à = A−1 . 3.121 Aufgabe: Zeigen Sie, das man die Inverse auch mit Spaltenoperationen berechnen kann, aber nicht mit einem Gemisch aus Spalten- und Zeilenoperationen. 3.122 Satz: Jede quadratische Matrix ist Produkt von Elementarmatrizen. Beweis: Mit zulässigen Zeilen- oder Spalten-Operationen kann man jede quadratische Matrix auf Diagonalform bringen, also Ek · . . . · E1 AF1 · . . . · Fl = D, 124 KAPITEL 3. LINEARE ABBILDUNGEN wobei E1 , . . . , Ek und F1 , . . . , Fl zulässige Elementarmatrizen sind und D eine Diagonalmatrix, also eine Matrix, die außerhalb der Diagonalen nur 0 enthält. Eine solche Matrix ist aber Produkt von Elementarmatrizen, denn λ1 0 .. D= = D1,n (λ1 ) · . . . · Dn,n (λn ). . 0 λn Bringt man die zulässigen Elementarmatrizen Ei und Fi auf die andere Seite, 2 so ist die Behauptung bewiesen. 3.123 Aufgabe: Schreiben Sie 2 1 1 2 ∈ R2×2 als Produkt von Elementarmatrizen. 3.2.6 Basiswechsel Ein Ziel der linearen Algebra ist es, möglichst einfache Darstellungen für lineare Abbildung zu finden. Dazu müssen wir wissen, wie man lineare Abbildungen mit anderen Basen darstellen kann, und wie man diese Darstellungen von einer in die andere Basis umrechnet. 3.124. Beispiel: Wir betrachten die Spiegelung φ : R2 → R2 an der Geraden x = y. Nimmt man die Basis 1 1 v1 = , v2 = 1 −1 so sieht man φ(v1 ) = v1 , φ(v2 ) = −v2 . Sei allgemein φ(λ1 v1 + λ2 v2 ) = µ1 v1 + µ2 v2 . Dann ist also µ1 = λ1 , µ2 = −λ2 . Es stellt sich heraus, dass die Abbildung λ 7→ µ linear ist, und die einfache darstellende Matrix 1 0 B= 0 −1 hat. Wir bezeichnen diese Matrix als darstellende Matrix von φ bezüglich der Basis v1 , v2 . Um die gewöhnliche Darstellungsmatrix bezüglich der kanonischen Basis zu bekommen, müssen wir die Bilder von e1 , e2 berechnen. Wenn λ die Darstellung eines Vektors x ∈ R2 bezüglich unserer Basis ist, so gilt offenbar Mλ = x 3.2. GLEICHUNGSSYSTEME 125 wobei M die Matrix ist, die v1 , v2 in den Spalten hat, also 1 1 M= . 1 −1 Wenn µ die Darstellung von φ(x) sein soll, so gilt also φ(x) = M µ und µ = Bλ. Also φ(x) = M µ = M Bλ = M BM −1 x. Die darstellende Matrix von φ ist also hier 0 −1 M BM = 1 1 . 0 Im folgenden werden wir diese Definition und die zugehörigen Überlegungen allgemein herleiten. 3.125. Definition: Sei V ein m-dimensionaler Vektorraum über K mit einer Basis A = (v1 , . . . , vn ) Dann definieren wir die lineare Abbildung φA : K n → V durch die Bilder der Einheitsvektoren gemäß φA (ei ) = vi für alle i = 1, . . . , n. Es gilt also λ1 n X φA ... = λi vi . i=1 λn Nach Aufgabe 3.25 ist φA ein Isomorphismus. Wir haben diesen Isomorphismus schon benutzt um zu zeigen, dass jeder n-dimensionale Vektorraum über K isomorph zum K n ist. 3.126. Bemerkung: Die Abbildung φ−1 A berechnet die Basisdarstellung zu einem Vektor v. Das heißt, sie ermittelt die Abbildung X λi vi 7→ λ. i=0 Die Abbildung, die einen Vektor auf die Koeffizienten einer Basisdarstellung abbildet, ist ein Isomorphismus des Vektorraums und des K n . . 3.127. Beispiel: Sei E die kanonische Einheitsmatrix von K m . Dann ist φE die identische Abbildung. Denn φE (λ) = n X i=1 λi ei = λ. 126 KAPITEL 3. LINEARE ABBILDUNGEN 3.128. Definition: Seien V ein n-dimensionaler und W ein m-dimensionaler Vektorraum über K, φ : V → W linear. Die Basisdarstellung von φ bezüglich einer Basis A von V und einer Basis B von W ist die darstellende Matrix der Abbildung n m φ−1 B ◦ φ ◦ φA : K → K . Wir bezeichnen diese Matrix als MA,B (φ). Diese etwas unübersichtliche Situation lässt sich zunächst in folgendem Diagramm darstellen. Kn ↓ φA V φ−1 B ◦φ◦φA −→ Km ↓ φB φ −→ W Ein solches Diagramm heißt kommutierendes Diagramm. Es ist gleichgültig, auf welchen Wegen zwischen zwei Punkten man den Pfeilen folgt. Da jede lineare Abbildung zwischen K n und K m eindeutig durch eine Matrix darstellbar ist, ist MA,B (φ) ∈ K m×n wohlbestimmt. Rechnerisch ergibt sich folgendes Bild. Sei A = (v1 , . . . , vn ), B = (w1 , . . . , wm ). Wenn dann v = λ1 v1 + . . . + λn vn ∈ V ist, und φ(v) = µ1 w1 + . . . + µm wm ∈ W, Dann gilt µ1 λ1 .. .. . = MA,B (φ) . . µm λn Die Multiplikation mit der darstellenden Matrix berechnet die Basisdarstellung des Bildes aus der Basisdarstellung des Urbilds. 3.129. Bemerkung: Hat man zwei Basen A und B eines Vektorraums V , so kann man mit Hilfe der Matrix MA,B (id) einen Basiswechsel durchführen. Denn sei λ = φ−1 A (x) 3.2. GLEICHUNGSSYSTEME 127 die Basisdarstellung bezüglich A und µ = φ−1 B (x) die Basisdarstellung bezüglich B, dann gilt µ = MA,B (id) · λ. 3.130. Beispiel: Sei E die kanonische Einheitsmatrix von K n und A eine andere Basis von K n . Trägt man die Basis A = (v1 , . . . , vn ), als Spalten einer Matrix A = (v1 , . . . , vn ) ∈ K n×n ein, so gilt MA,E (id) = A. Denn x = φA (λ) = n X λi vi ⇒ x = Aλ = φE (Aλ). i=1 Wenn also λ die Basisdarstellung bezüglich A ist, dann ist Aλ die Basisdarstellung bezüglich E. Umgekehrt berechnet man die Basisdarstellung λ bezüglich A aus der kanonischem Basisdarstellung µ durch λ = A−1 µ. 3.131. Bemerkung: Mit Hilfe der darstellenden Matrizen kann man auch lineare Abbildungen φM : K n → K m mit M ∈ K m×n bezüglich anderer Basen als der kanonischen Einheitsbasis darstellen. Bezeichnet man die kanonischen Basen mit En bzw. Em , so gilt natürlich MEn ,Em (φM ) = M Sei A eine Basis von K n , deren Vektoren wir in eine Matrix A eintragen, sowie B eine Basis von K m , deren Vektoren wir in eine Matrix B eintragen. Dann gilt MA,B (φ) = B −1 M A Denn, angenommen wir haben eine Darstellung λ von x ∈ K m bezüglich A, also x = Aλ Dann ist µ := B −1 M Aλ = B −1 M x = B −1 φ(x) eine Darstellung von φ(x) bezüglich B. Mit M = In kann man insbesondere zwei Basisdarstellungen des K n ineinander umrechnen. 3.132. Beispiel: Wir stellen die Abbildung φM : R2 → R2 mit 1 1 M= 0 1 128 KAPITEL 3. LINEARE ABBILDUNGEN bezüglich der Basis A 1 , 1 dar. Dazu haben wir zu berechnen −1 1 1 1 MA,A (φM ) = 1 −1 0 1 −1 1 1 1 1 1 3/2 = −1 1/2 −1/2 . 1/2 Als Beispiel berechnen wir das Bild des Punktes 2 x= 3 in beiden Darstellungen. Zunächst gilt 5 φM (x) = M x = . 3 Stellen wir x bezüglich A dar, so erhalten wir 5/2 −1 λ=A x= −1/2 Zur Probe rechnet man nach, dass in der Tat 2 1 1 x= = 5/2 − 1/2 3 1 −1 ist. Nun berechnen wir die Basisdarstellung µ von M x in der Basis A durch Multiplikation mit der darstellenden Matrix 3/2 −1/2 4 µ= λ= . 1/2 1/2 1 Zurückrechnen in die kanonische Basis ergibt in der Tat dasselbe Ergebnis für M x. 1 1 5 Aµ = 4 +1 = = M x. 1 −1 3 In Abbildung 3.2 ist die Basis v1 , v2 und deren Bilder w 1 = M v1 , w2 = M v2 eingezeichnet. Man erkennt w1 = 3/2v1 + 1/2v2 w2 = −1/2v1 + 1/2v2 In der Tat ist also die Basisdarstellung von w1 = M v1 der Vektor 3/2 1 = MA,A (φM ) . 1/2 0 3.2. GLEICHUNGSSYSTEME 129 Abbildung 3.2: Basis und Bilder der Basis 3.133 Aufgabe: Berechnen Sie die Basisdarstellung bezüglich der obigen Basis für die Abbildung x x φ = . y 0 Zeichnen Sie wieder die Basis und die Bilder der Basis in ein Koordinatensystem und stellen Sie die Bilder bezüglich der alternativen Basis dar. 3.134. Beispiel: Wir wissen bereits, dass die Funktionen 1, x, . . . , xn eine Basis des Polynomraums Pn ⊂ C(R) sind, die wir mit A bezeichnen. Für eine Polynom p(x) = a0 + a1 x + . . . + an xn definieren wir die Ableitung als Bild der Abbildung φ(p) = p0 . φ ist aufgrund der Rechengesetze für Ableitungen linear. Es gilt 0 MA,A (φ) = 1 0 2 .. . .. 0 . . n 0 130 KAPITEL 3. LINEARE ABBILDUNGEN Denn offenbar gilt dann a1 a0 a1 2a2 .. MA,A (φ) . = . . .. nan an 0 In der Tat φ(p)(x) = p0 (x) = a1 + 2a2 x + . . . + nan xn−1 . 3.135 Satz: (1) Sei φ : V → W linear, und ψ : W → H linear, A eine Basis von V , B eine Basis von W und C eine Basis von H. Dann gilt MA,C (ψ ◦ φ) = MB,C (ψ) · MA,B (φ). (2) Sei φ : V → V bijektiv und A, B Basen von V . Dann gilt MB,A (φ−1 ) = MA,B (φ)−1 . Der Beweis dieses Satzes ist eine Übungsaufgabe. 3.136. Bemerkung: Mit Hilfe dieses Satzes kann der Wechsel von einer Basisdarstellung einer linearen Abbildung φ : V → W in eine andere Basisdarstellung leicht dargestellt werden. Seien dazu A1 , A2 zwei Basen von V und B1 , B2 zwei Basen von W . Dann gilt also aufgrund der ersten Aussage des Satzes MB1 ,B2 (φ) = MA2 ,B2 (id) · MA1 ,A2 (φ) · MB1 ,A1 (id). Dabei sind MA2 ,B2 (id) und MA1 ,B1 (id) die Matrizen des Basiswechsels. 3.137. Beispiel: Sei speziell V = W = K n , φ : K n → K n linear, sowie M die darstellende Matrix von φ bezüglich der kanonischen Einheitsbasen En und Em . Für eine Basis A = (v1 , . . . , vn ) von K n erhält man also MA,A (φ) = ME,A (id) · ME,E (φ) · MA,E (id) = B −1 M B, wobei B = (v1 , . . . , vn ) ist. 3.138 Aufgabe: kung 3.131 dar. Stellen Sie auf die gleiche Weise den Basiswechsel aus Bemer- 3.139 Aufgabe: Die Vektoren i , 1+i 1+i i bilden eine Basis A des C2 . Berechnen Sie die Matrix des Basiswechsels ME,A (id). 3.3. ANWENDUNGEN 131 3.140. Definition: Zwei Matrizen A, B ∈ K n×n heißen ähnlich, wenn es eine reguläre Matrix H ∈ K n×n gibt mit A = HBH −1 . 3.141 Aufgabe: Zeigen Sie dass zwei Matrizen genau dann ähnlich sind, wenn sie dieselbe lineare Abbildung φ : K n → K n bezüglich zweier Basen des K n darstellen. 3.142 Aufgabe: Wenn A ∼ B die Ähnlichkeit bezeichnet, so zeigen Sie die folgenden Behauptungen. (1) Für alle A ∈ K n×n gilt A∼A (2) Für alle A, B ∈ K n×n gilt A∼B ⇒ B∼A (3) Für alle A, B, C ∈ K n×n gilt A ∼ B, B ∼ C ⇒ A ∼ C. 3.3 3.3.1 Anwendungen Analytische Geometrie Eine unmittelbare Folgerung aus unseren Überlegungen ist, dass die Lösungsmenge eines linearen Gleichungssystems ein affiner Unterraum ist, wenn sie nicht leer ist. Das halten wir im folgenden Satz nochmals fest. Wir wollen in diesem Abschnitt umgekehrt zu jedem affinen Unterraum ein lineares Gleichungssystem finden, dessen Lösung dieser Raum ist. Dabei soll eine Minimalzahl von Gleichungen verwendet werden. 3.143 Satz: Sei A ∈ K m×n , b ∈ K m . Die Lösungsmenge des Gleichungssystems Ax = b ist leer oder ein affiner Unterraum der Dimension n − Rang (A). 3.144. Definition: Ein affiner Unterraum des K n mit Dimension n − 1 heißt Hyperebene. 3.145 Aufgabe: Zeigen Sie: Wenn wir ein lineares Gleichungssystem mit einer Gleichung a1 x1 + . . . + an xn = b auf dem K n haben und nicht alle ai gleich 0 sind, so ist der Lösungsraum eine Hyperebene. Geben Sie eine parametrisierte Darstellung dieser Hyperebene an. 3.146 Satz: E ⊂ K n ist genau dann ein affiner Unterraum der Dimension k, wenn E die Lösungsmenge eines linearen Gleichungssystems Ax = b, A ∈ K (n−k)×n , 132 KAPITEL 3. LINEARE ABBILDUNGEN aber nicht Lösungsmenge eines Gleichungssystems mit weniger als n − k Gleichungen ist. Insbesondere ist jede Hyperebene Lösungsmenge eines Gleichungssystems mit nur einer Gleichung, deren Koeffizienten nicht alle 0 sind. Beweis: Sei E ein affiner Unterraum der Dimension k, also E =a+U mit dim U = k. Sei u1 , . . . , uk eine Basis von U . Wir lösen das Gleichungssystem uT1 x = 0, . . . , uTk x = 0, Also U x = 0, wobei U die Zeilen uT1 , . . . , uTk habe. Der Zeilenrang von U ist k, also auch der Spaltenrang. Nach der Dimensionsformel in Satz 3.20 hat der Lösungsraum Kern U die Dimension n − k. Es gibt also linear unabhängige Vektoren v1 , . . . , vn−k mit uTi vj = 0, für alle i = 1, . . . , k, j = 1, . . . , n − k. vjT ui = 0 für alle i = 1, . . . , k, j = 1, . . . , n − k, Es folgt also vjT u = 0 für alle u ∈ U , j = 1, . . . , n − k. T in die Zeilen einer Matrix V ∈ K (n−k)×n ein, so entsteht Setzt man v1T , . . . , vn−k ein Gleichungssystem V u = 0. Dieses System von n − k Gleichungen hat also einen Lösungsraum L mit U ⊆ L. Nach der Dimensionsformel kann der Lösungsraum dieser n − k Gleichungen höchstens die Dimension n − (n − k) = k haben. Wegen dim U = k folgt also U = L. Weniger als n − k Gleichungen hätten aber einen Lösungsraum mit einer Dimension größer als k. E ist dann Lösungsmenge des Gleichungssystems V u = V a. Umgekehrt wissen wir schon, dass der Lösungsraum jedes Gleichungssystems V u = 0, V ∈ K (n−k)×n ein affiner Unterraum der Dimension n − Rang V ist. Wenn weniger Gleichungen nicht denselben Lösungsraum haben, so muss V vollen Rang haben, also Rang V = n−k sein. Der Lösungsraum hat dann die Dimension n−(n−k) = k. 2 3.3. ANWENDUNGEN 133 Die im Beweis verwendete Methode ist konstruktiv. Sie kann daher zur Ermittlung der gesuchten Gleichungen herangezogen werden. 3.147 Aufgabe: (1) Berechnen Sie mit der Methode im Beweis des obigen Satzes eine Gleichung für die Ebene durch die Punkte 1 0 1 1 , 1 , 0 1 1 0 in R3 . (2) Berechnen Sie eine Parameterdarstellung der Schnittgerade dieser Ebene mit der Ebene mit der Gleichung x + y + z = 1. 3.3.2 Affine Abbildungen Lineare Abbildungen haben den Nachteil, dass immer die 0 auf 0 abgebildet wird. Eine Drehung dreht also immer um 0, und eine Streckung streckt vom Nullpunkt aus. Diese Einschränkung wollen wir nun beheben. Die Verallgemeinerung des Begriffs der linearen Abbildung auf den Begriff der affinen Abbildung ist zunächst sehr einfach. 3.148. Definition: Seien V, W Vektorräume über K. Dann heißt die Abbildung ψ:V →W affine Abbildung, wenn sie die Form ψ(x) = φ(x) + b hat, wobei φ : V → W linear ist und b ∈ W . 3.149. Bemerkung: φ und b sind eindeutig bestimmt durch b = ψ(0) φ(x) = ψ(x) − b = ψ(x) − ψ(0). Allgemeiner gilt ψ(x) − ψ(y) = φ(x − y) oder ψ(x + h) − ψ(x) = φ(h). Das heißt, affine Abbildungen verhalten sich lokal wie die lineare Abbildung φ. 3.150 Aufgabe: Zeigen Sie, dass die Hintereinanderausführung zweier affiner Abbildungen affin ist. 3.151. Beispiel: (1) Das einfachste Beispiel ist eine Translation db (x) = x + b. 134 KAPITEL 3. LINEARE ABBILDUNGEN Jede affine Abbildung ist Hintereinanderausführung einer Translation und einer linearen Abbildung. Denn es gilt ψ(x) = φ(x) + b = db (φ(x)). Also ψ = db ◦ φ. Es gilt übrigens φ ◦ db = dφ(b) ◦ φ. (2) Die Streckung mit Streckungszentrum z ∈ V und mit Streckungsfaktor λ ∈ R ist die affine Abbildung sλ (x) = z + λ(x − z) = λx + (z − λz). Diese Abbildung sieht in x lokal wie eine Streckung um den Faktor λ aus. Denn sλ (x + h) − sλ (x) = λh. (3) Die Drehung um z mit dem Winkel α ist die Abbildung Dz,α (x) = z + Dα (x − z). Dabei ist Dα die Drehmatrix zum Winkel α. 3.152 Satz: Seien V, W Vektorräume über R. Dann ist die Abbildung ψ : V → W genau dann affin, wenn sie Affinkombinationen erhält. D.h. für alle v1 , . . . , vn ∈ V und λ1 , . . . , λn ∈ R mit n X λi = 1 i=1 gilt ψ(λ1 v1 + . . . + λn vn ) = λ1 ψ(v1 ) + . . . + λn ψ(vn ). Beweis: Zu ψ : V → W setzen wir φ(x) = ψ(x) − ψ(0). Wenn ψ affin ist, dann ist φ linear. Man hat ψ(λ1 v1 + . . . + λn vn ) = φ(λ1 v1 + . . . + λn vn ) + ψ(0) = λ1 φ(v1 ) + . . . + λn φ(vn ) + ψ(0) = λ1 (φ(v1 ) + ψ(0)) + . . . + λn (φ(vn ) + ψ(0)) = λ1 ψ(v1 ) + . . . + λn ψ(vn ). Also erhalten affine Abbildungen Affinkombinationen. Wenn umgekehrt die Abbildung ψ Affinkombinationen erhält, so erhält, wie man analog zur obigen Rechnung nachprüft, auch φ Affinkombinationen und es gilt φ(0) = 0. Also, für λ ∈ R und x ∈ V φ(λx) = φ(λx + (1 − λ)0) = λφ(x) + (1 − λ)φ(0) = λφ(x). Damit hat man auch 1 1 1 φ(x + y) = φ( 2x + 2y) = (φ(2x) + φ(2y)) = φ(x) + φ(y). 2 2 2 3.3. ANWENDUNGEN 135 2 φ ist also linear und ψ ist affin. 3.153. Bemerkung: Wenn die Abbildung ψ im obigen Satz Affinkombinationen zweier Vektoren erhält, so erhält sie per Induktion Affinkombinationen von endlich vielen Vektoren. 3.154 Aufgabe: Folgern Sie aus diesem Satz, dass für eine Teilmenge M eines reellen Vektorraums V und eine affine Abbildung ψ : V → W gilt conv (ψ(M )) = ψ(conv (M )). Folgern Sie daraus, dass das Bild von konvexen Mengen unter affinen Abbildungen konvex ist. Beweisen Sie dasselbe für den erzeugten affinen Unterraum anstelle der konvexen Hülle. 3.155 Aufgabe: Sei ψ : V → W affin. Zeigen Sie, dass das Urbild jeder konvexen Menge konvex ist. 3.156 Satz: Seien V, W Vektorräume über K und ψ : V → W affin. Dann ist das Bild eines affinen Unterraums von V ein affiner Unterraum von W . Das Urbild eines affinen Unterraums von W ist ein affiner Unterraum von V oder leer. Beweis: Für den Beweis kann man den obigen Satz verwenden. Stattdessen argumentieren wir direkt mit unserer Definition von affinen Abbildungen. φ(x) = ψ(x) − ψ(0) ist linear. Man zeigt für den affinen Unterraum x + U ⊆ V ψ(x + U ) = ψ(x) + φ(U ). Also ist ψ(x + U ) ein affiner Unterraum von W . Sei y + H ein affiner Unterraum von W und ψ(x) ∈ y + H, als ψ −1 (y + H) nicht leer. Man zeigt dann ψ −1 (y + H) = x + φ−1 (H). 2 Es folgt die Behauptung. 3.157 Aufgabe: Zeigen Sie die beiden Identitäten im obigen Beweis. 3.158. Bemerkung: Für eine affine Abbildung ψ : V → V bezeichnet man die Menge Fψ := {x ∈ V : ψ(x) = x} als Fixpunktmenge von ψ. Die Menge ist offenbar das Urbild von {0} unter der affinen Abbildung ψ − id, also nach dem obigen Satz ein affiner Unterraum oder leer. Für eine Translation db mit b 6= 0 ist die Fixpunktmenge zum Beispiel leer. 3.159. Beispiel: (1) Eine affine Abbildung s : V → V heißt Spiegelung, wenn s2 = id ist. Die Fixpunktmenge ist dann die Menge, an der gespiegelt wird. In V = R2 kann man für eine beliebige Basis v1 , v2 φ(v1 ) = v1 , φ(v2 ) = −v2 setzen, und erhält eine Spiegelung durch s(x) = z + φ(x − z). 136 KAPITEL 3. LINEARE ABBILDUNGEN dabei ist die Spiegelungsgerade Fψ = z + span {v1 }. (2) Eine affine Abbildung p : V → V heißt Projektion, wenn p2 = p ist. In diesem Fall ist die Fixpunktmenge die Menge, auf die projiziert wird. Zu jeder Spiegelung s gehört die Projektion p(x) = 1 (x + s(x)), 2 und zu jeder Projektion p gehört die Spiegelung s(x) = p(x) − (x − p(x)) = 2p(x) − x. 3.160 Aufgabe: Beweisen Sie, dass die zugehörige Projektion tatsächlich eine Projektion, und die zugehörige Spiegelung tatsächlich eine Spiegelung ist. 3.161 Aufgabe: (1) Sei ψ = φ + a eine Spiegelung mit der linearen Abbildung φ. Zeigen Sie ψ(a) = 0. Zeigen Sie, dass φ ebenfalls eine Spiegelung ist. (2) Sei ψ = φ + a eine Projektion mit der linearen Abbildung φ. Zeigen Sie, dass a ein Fixpunkt von ψ ist. Zeigen Sie, dass φ ebenfalls eine Projektion ist. (3) Muss ψ eine Projektion (bzw. Spiegelung) sein, wenn φ eine Projektion (bzw. Spiegelung) ist? 3.162 Aufgabe: Sei ψ(x) = φ(x) + b eine affine Abbildung von einem endlich dimensionalen reellen Unterraum in sich. Zeigen Sie, dass ψ genau dann einen eindeutig bestimmten Fixpunkt hat, wenn 0 der einzige Fixpunkt des linearen Teils φ ist.3 3.163. Bemerkung: Die Dimensionsformel lässt sich folgendermaßen auf affine Abbildungen anwenden. Sei ψ : V → W affin und E = x + U ein endlich dimensionaler affiner Unterraum von V . Dann ist nach der ersten Formel im obigen Beweis und der Dimensionsformel dim ψ(E) = dim φ(U ) = dim U − dim Kern φ|U = dim E − dim Kern φ|U . Es folgt insbesondere dim ψ(E) ≤ dim E, und für injektive Abbildungen ψ gilt Gleichheit. 3.3.3 Interpolation Wir untersuchen ein in der numerischen Mathematik wichtiges Beispiel, in dem Funktionenräume eine wichtige Rolle spielen. Sei dazu V ⊆ C(R) ein n-dimensionaler Unterraum. Seien x1 < . . . < xn 3.4. QUOTIENTENRÄUME 137 n paarweise verschiedene Punkte in R. Die Aufgabe der Interpolation besteht nun darin, zu gegebenen Werten y1 < . . . < yn eine Funktion v ∈ V zu finden mit v(xi ) = yi für alle i = 1, . . . , n 3.164. Beispiel: Sei V = P1 der Raum der Geraden ax + b in R2 . Dann ist bekannt, dass man in zwei verschiedenen Punkten immer interpolieren kann. Es gilt nämlich für x1 6= x2 und für die Gerade p(x) = y1 + y2 − y1 (x − x1 ) x2 − x1 in der Tat p(x1 ) = y1 , p(x2 ) = y2 . Die Abbildung φ : V → Rn v(x1 ) φ(v) = ... v(xn ) ist linear, wie man nachrechnet. Die Interpolationsaufgabe ist nun für alle Werte y1 , . . . , yn lösbar, wenn diese Abbildung surjektiv ist. Aufgrund der Dimensionsformel ist sie dann auch immer eindeutig lösbar. Wir können also den folgenden Satz formulieren. 3.165 Satz: Sei V ⊂ C(R) ein n-dimensionaler Unterraum. Dann ist die Interpolationsaufgabe in n verschiedenen Punkten x1 , . . . , xn ∈ R genau dann für alle Werte lösbar, wenn jede Funktion v ∈ V , die auf diesen Punkten 0 ist, identisch 0 ist. 3.166. Beispiel: Pn ⊆ C(R) ist ein (n + 1)-dimensionaler Unterraum. In der Analysis wird bewiesen, dass ein Polynom, das nicht identisch 0 ist, höchstens n verschiedene Nullstellen haben kann. Also kann man mit Polynomen n-ten Grades in n + 1 Punkten immer eindeutig interpolieren. 3.4 Quotientenräume Mit Hilfe von Quotientenräumen lassen sich lineare Räume und Abbildung ”‘vereinfachen”’. Man identifiziert dazu Punkte, die in einem gemeinsamen affinen Unterraum liegen. Im Fall von linearen Abbildungen werden etwa Punkte mit gleichem Bild identifiziert. Die Abbildung wird dadurch injektiv. Eine weitere, wichtige Anwendung ist die Identifikation von Funktionen, die ”‘fast überall”’ gleich sind. Beispielsweise verhalten sich Funktionen, die sich 138 KAPITEL 3. LINEARE ABBILDUNGEN nur in endlich vielen Punkten unterscheiden, bezüglich des Riemann-Integrals gleich. 3.167. Definition: Die Relation ∼ auf einer Menge V heißt Äquivalenzrelation, wenn die folgenden Eigenschaften gelten. (1) Für alle x, y, z ∈ V gilt x ∼ y, y ∼ z ⇒ x ∼ z. (2) Für alle x, y ∈ V gilt x ∼ y ⇒ y ∼ x. (3) Für alle x ∈ V gilt x ∼ x. 3.168 Satz: Sei ∼ eine Äquivalenzrelation auf V und für x ∈ V [x] = {y ∈ V : x ∼ y}. Dann ist das System der Mengen [x] eine Klassenaufteilung von V . Das heißt, es gilt [x] ∩ [y] 6= ∅ ⇒ [x] = [y] und V = \ [x]. x∈V 3.169 Aufgabe: Beweisen Sie diesen Satz. 3.170. Bemerkung: Man kann umgekehrt zu jeder Klassenaufteilung S von V eine Äquivalenzrelation finden, die diese Klassenaufteilung erzeugt. Dazu definiert man einfach, dass x ∼ y gelten soll, wenn x und y in derselben Menge S ∈ S liegen. 3.171. Definition: Sei V ein linearer Vektorraum über K und U ⊆ V ein Unterraum. Wir definieren dann eine Äquivalenzrelation ”‘∼U ”’ durch x ∼U y ⇔ x − y ∈ U. 3.172 Aufgabe: Weisen Sie nach, dass ∼U in der Tat eine Äquivalenzrelation ist. 3.173. Definition: Die Menge der Klassen bezeichnet man als Quotientenraum V /U = {[x]U : x ∈ V }. Wir führen in V /U eine Addition ein, indem wir für alle x, y ∈ V definieren [x]U + [y]U = [x + y]U . Außerdem eine Multiplikation für λ ∈ K und x ∈ V λ[x]U = [λx]U . 3.4. QUOTIENTENRÄUME 139 3.174 Satz: Die Addition und Multiplikation sind auf diese Weise wohldefiniert, und V /U wird zu einem Vektorraum über K. Beweis: Damit die Addition wohldefiniert ist, muss man zeigen, dass [x]U = [x̃]U , [y]U = [ỹ]U ⇒ [x + y]U = [x̃ + ỹ]U gilt. Das ist aber leicht, wenn man beachtet, dass nach Definition [x]U = [x̃]U ⇔ x − x̃ ∈ U gilt. Analog zeigt man, dass die Multiplikation wohldefiniert ist. Es bleibt nachzuprüfen, dass V /U mit diesen Operationen ein Vektorraum ist. Dies überlassen wir als Übung. 2 3.175 Aufgabe: Zeigen Sie, dass V /U mit den oben definierten Operationen ein Vektorraum ist. Der Nullvektor dieses Raumes ist 0 = [0] = U. 3.176. Beispiel: Sei V = R2 und U = span {e1 }. Dann ist x1 y1 ∼U ⇔ x2 = y2 . x2 y2 Die Klasse [x] ist die Gerade durch x ∈ R2 , die parallel zur y-Achse liegt. 3.177. Beispiel: Für lineare Abbildungen φ : V → W kann man V / Kern φ betrachten. Die Elemente dieses Raumes sind die Klassen [x] = x + Kern φ = φ−1 (φ(x)). Es gilt x ∼Kern φ y ⇔ φ(x) = φ(y). 3.178 Satz: Sei V ein endlich dimensionaler Raum und U ⊆ V ein Unterraum. Dann gilt dim V /U = dim V − dim U. Beweis: Sei v1 , . . . , v k eine Basis von U , die wir mit vk+1 , . . . , vn zu einer Basis von V ergänzen. Es genügt zu zeigen, dass [vk+1 ], . . . , [vn ] 140 KAPITEL 3. LINEARE ABBILDUNGEN eine Basis von V /U ist. Wir zeigen zunächst, dass dieses System Erzeugendensystem ist. Dazu sei n X v= λi vi ∈ V. i=1 Dann folgt [v] = n X λi [vi ] = i=1 n X λi [vi ], i=k+1 denn es gilt wegen v1 , . . . , vk in U [v1 ] = . . . = [vk ] = 0. Wir zeigen nun die lineare Unabhängigkeit. Sei dazu n X λi [vi ] = 0. i=k+1 Es folgt " # n X λi vi = 0 i=k+1 und daher n X λi vi ∈ U. i=k+1 Also muss diese Linearkombination auch Linearkombination von v1 , . . . , vk sein. Da v1 , . . . , vn eine Basis ist, folgt λk+1 = . . . = λn = 0. 2 3.179 Satz: Abbildung Sei V endlich dimensional und φ : V → W linear. Dann ist die φ̃ : V / Kern (φ) → φ(V ), φ̃([x]) = φ(x) ein Isomorphismus. Beweis: Wieder muss man zunächst zeigen, dass die Abbildung wohldefiniert ist. Wenn aber [x] = [x̃] ist, dann gilt φ̃([x]) = φ(x) = φ(x̃) = φ̃([x̃]). Es gilt außerdem nach den Dimensionsformeln aus Satz 3.178 und Satz 3.20 dim(V / Kern φ) = dim V − dim Kern φ = dim φ(V ). Daher genügt es zu zeigen, dass φ̃ surjektiv ist. Für y = φ(x) ∈ φ(V ) gilt aber φ̃([x]) = y. 2 3.5. DUALRAUM 3.5 141 Dualraum Ziel dieses Abschnittes ist es, den Raum der linearen Funktionale auf einem Vektorraum zu beschreiben. Dieser Raum ist ja selbst ein Vektorraum, und wir möchten daher eine Basis für den Raum angeben. 3.180. Definition: Zu zwei linearen Räumen V, W über K definieren wir den Raum der linearen Abbildungen zwischen V und W als L(V, W ) = {φ : φ : V → W linear}. Dieser Raum ist ein Unterraum von A(V, W ) und wir können die Addition und die Multiplikation punktweise definieren. (φ1 + φ2 )(x) = φ1 (x) + φ2 (x), (λφ)(x) = λφ(x). 3.181 Aufgabe: Zeigen Sie, dass L(V, W ) mit Hilfe dieser Operationen zu einem Vektorraum über K wird. 3.182 Aufgabe: Seien V und W endlich dimensional, dim V = n, dim W = m. Zeigen Sie, dass die Abbildung ψ : L(V, W ) → K m×n die jedem ψ seine Matrixdarstellung bezüglich fester Basen von V und W zuordnet ein Isomorphismus ist, und dass insbesondere dim L(V, W ) = nm gilt. Für V = K n und W = K m ist insbesondere ψ(φA ) = A. Wir erinnern uns daran, dass der Matrizenraum K m×n mit den Matrizenoperationen zu einem Vektorraum über K wird, der in nahe liegender Weise isomorph zum K nm ist. 3.183. Definition: Sei V ein Vektorraum über K. Den Raum der Funktionale auf V , also den L(V, K), bezeichnen wir als linearen Dualraum V ∗ von V . 3.184. Bemerkung: Nach obiger Aufgabe hat dieser Raum für endlich dimensionale V die gleiche Dimension wie V , und ist daher isomorph zu V . Der folgende Satz gibt eine Basis für V ∗ an. Im Fall V = K n ist der lineare Dualraum offenbar isomorph zum Raum der Zeilenvektoren der Länge n. 3.185. Definition: Sei V ein linearer Raum und B eine Basis von V . Wir definieren nun das duale System in V ∗ durch B ∗ = {δb : b ∈ B} Dabei ist die Abbildung δb : V → K für alle b ∈ B durch die Bilder der Basisvektoren aus B folgendermaßen festgelegt. ( 1, v = b, δb (v) = 0, v ∈ B, v 6= b. 142 3.186 Satz: KAPITEL 3. LINEARE ABBILDUNGEN Für endlich dimensionale Vektorräume V mit Basis b1 , . . . , b n ist das duale System δ b1 , . . . , δ bn eine Basis von V ∗ , die man duale Basis nennt. Beweis: Sei φ ∈ V ∗ und φ(b1 ) = µ1 , . . . , φ(bn ) = µn . Man rechnet nun nach, dass in der Tat φ = µ1 δb1 + . . . + µn δbn . 2 gilt, und dass diese Darstellung eindeutig ist. 3.187. Bemerkung: Im K n liegen die Dinge viel einfacher. Es gilt hier ( 1, ν = µ eTν eµ = δν,µ = 0, ν 6= µ. Mann nennt δν,µ das Kronecker-Symbol. Es folgt, dass die zu e1 , . . . , e n duale Basis gleich eT1 , . . . , eTn ist. 3.188 Aufgabe: Sei B eine Basis von V und fB : V → V ∗ definiert durch fB (b) = δb . Zeigen Sie, dass fB linear und injektiv ist. Daraus folgt im Fall dim V < ∞, dass fB ein Isomorphismus zwischen V und V ∗ ist. 3.189 Aufgabe: Sei g : V → (V ∗ )∗ definiert durch g(v)(φ) = φ(v) für alle φ ∈ V ∗ Zeigen Sie, dass g linear und injektiv ist. 3.190. Bemerkung: In unendlich dimensionalen Vektorräumen ist der Satz falsch. Ein Gegenbeispiel ist der Vektorraum lc der Folgen in R, die nur endlich viele von 0 verschiedene Glieder haben. Definiert man die Folgen eν ∈ lc durch eν = (δν,n )n∈N , so bilden diese Folgen eine Basis des lc . Die Abbildung φ((xn )n∈N ) = ∞ X n=1 xn 3.5. DUALRAUM 143 ist eine lineare Abbildung in lc∗ . Sie ist aber nicht in dem Unterraum von lc∗ , der von den Funktionalen δeν , ν ∈ N, aufgespannt wird. 3.191. Beispiel: Für Funktionenräume ist der lineare Dualraum gewöhnlich zu groß. Man betrachtet hier zum Beispiel nur stetige Funktionale, also einen Teilraum des linearen Dualraums. Wir können hier darauf nicht eingehen. 3.192. Definition: Sei F : V → W linear. Dann definieren wir die duale Abbildung F ∗ : W ∗ → V ∗ durch F ∗ (ψ) = ψ ◦ F für alle ψ ∈ W ∗ . Das folgende Diagramm kommutiert also. F V ↓ F ∗ (ψ) −→ K ←→ id W ↓ψ K 3.193 Satz: Wenn F : V → W ein Isomorphismus ist, dann ist auch F ∗ : V → W ein Isomorphismus. Isomorphe Vektorräume haben also isomorphe Dualräume. Es gilt (F ∗ )−1 = (F −1 )∗ . Beweis: Wir berechnen F ∗ ((F −1 )∗ (φ)) = F ∗ (φ ◦ F −1 ) = φ ◦ F −1 ◦ F = φ für alle φ ∈ V ∗ sowie umgekehrt (F −1 )∗ (F ∗ (ψ)) = (F −1 )∗ (ψ ◦ F ) = ψ ◦ F ◦ F −1 = ψ für alle ψ ∈ W ∗ . Also ist (F −1 )∗ die Umkehrabbildung von F ∗ . 2 3.194 Aufgabe: Zeigen Sie, dass F ∗ genau dann injektiv ist, wenn F surjektiv ist. 3.195 Satz: Seien V und W endlich dimensional, A eine Basis von V und B eine Basis von W . Zeigen Sie MB∗ ,A∗ (F ∗ ) = MA,B (F )T . Dabei bezeichnen B ∗ und A∗ die dualen Basen. Beweis: Sei ψ ∈ V ∗ , ψ = l1 b∗1 + . . . + λm b∗m , wobei b1 , . . . , bm die Basis B ist, und µ = MA,B (F )T λ. Zu zeigen ist F ∗ (ψ) = µ1 a∗1 + . . . µn a∗n , 144 KAPITEL 3. LINEARE ABBILDUNGEN wobei a1 , . . . , an die Basis cA ist. Wir überprüfen diese Gleichheit durch Anwenden auf a1 , . . . , an . Zur Abkürzung setzen wir C = MA,B (F ). Es gilt in der Tat F ∗ (ψ)(ai ) = ψ(F (ai )) = ψ(c1,i b1 + . . . + cm,i bm ) = λ1 c1,i + . . . + λm cm,i = µi = (µ1 a∗1 + . . . + µn a∗n )(ai ). Es folgt die Behauptung. 2 Kapitel 4 Das Skalarprodukt In diesem Kapitel behandeln wir das reelle und komplexe Skalarprodukt. Aus der Schule bekannt ist das reelle Skalarprodukt bei der Berechnung von Winkeln zwischen Vektoren und als Hilfsmittel zur Entscheidung, ob zwei Vektoren senkrecht aufeinander stehen. Wir werden dieses Konzept verallgemeinern. Interessante Anwendungen ergeben sich insbesondere in Funktionenräumen. 4.1 4.1.1 Skalarprodukte und Normen Skalarprodukte Wir werden uns in diesem Abschnitt nur mit Vektorräumen über R und C beschäftigen. Zur Abkürzung schreiben wir K für einen dieser beiden Körper, also K ∈ {R, C}. Die komplexe Konjugation a + ib = a − ib, die wir hier oft verwenden werden, ist für im Falle K = R einfach die identische Abbildung (x = x). Für Matrizen M definieren wir M elementweise. 4.1. Definition: Sei V ein Vektorraum über K. Eine Abbildung von V × V nach K (v, w) 7→ hv, wi ∈ K heißt Skalarprodukt (engl.: scalar product), wenn die folgenden Bedingung erfüllt sind. (1) Die Abbildung ist linear in der ersten Variablen, also hλv, wi = λhv, wi, hv1 + v2 , wi = hv1 , wi + hv2 , wi für alle λ ∈ K, v, w, v1 , v2 ∈ V , 145 146 KAPITEL 4. DAS SKALARPRODUKT (2) Die Abbildung ist konjugiert symmetrisch, also hw, vi = hv, wi für alle v, w ∈ V , (3) Die Abbildung ist positiv definit, das heißt hv, vi > 0 für alle v 6= 0. Man nennt einen Vektorraum zusammen mit einem Skalarprodukt einen Skalarproduktraum oder Euklidschen Vektorraum. Im komplexen Fall spricht man von einem unitären Raum. Wir werden hier in beiden Fällen von einem Skalarproduktraum sprechen. 4.2. Bemerkung: Im reellen Fall ist das Skalarprodukt dann auch linear im zweiten Argument. Man spricht hier von einer symmetrischen Bilinearform. Im komplexen Fall ist es allerdings nur konjugiert linear. Es gilt hv, λwi = hλw, vi = λ · hw, vi = λ · hw, vi = λ · hv, wi. Eine konjugiert lineare Form dieser Art nennt man auch Hermitesche Form. 4.3. Bemerkung: Wegen hv, vi = hv, vi ist in jedem Fall hv, vi ∈ R. Weil hv, wi in v linear ist, gilt wie bei jeder linearen Abbildung h0, vi = 0 für alle v ∈ V , insbesondere h0, 0i = 0. Die Bedingung (3) sagt also insbesondere aus, dass hv, vi = 0 ⇔ v = 0 ist. Darüber hinaus muss für alle v ∈ V hv, vi ≥ 0 gelten. Gilt nur diese Eigenschaft, so spricht man von einer positiv semi-definiten Bilinearform, bzw. Hermiteschen Form. 4.4. Definition: Auf dem Rn können wir ein Skalarprodukt durch hx, yi = n X xk yk = xT y k=1 definieren. Man nennt dieses Skalarprodukt Euklidsches Skalarprodukt. Auf dem Cn definieren wir n X hx, yi = xk yk . = xT y k=0 4.1. SKALARPRODUKTE UND NORMEN 147 Diese Skalarprodukte nennt man auch kanonisches Skalarprodukt auf dem Rn , bzw. Cn . Im Rn nennt man das Skalarprodukt auch Euklidsches Skalarprodukt. 4.5 Aufgabe: Weisen Sie nach, dass die beiden Abbildungen Skalarprodukte sind. 4.6 Aufgabe: Zeigen Sie für eine Skalarprodukt hx, yi hx ± y, x ± yi = hx, xi + hy, yi ± 2Re hx, yi wobei Re z den Realteil von z ∈ C bezeichne. 4.7 Satz: Sei V ein endlich dimensionaler Vektorraum über K mit dem Skalarprodukt hv, wi, und A = (v1 , . . . , vn ) eine Basis von V . Wir definieren dann die Matrix hv1 , v1 i . . . hv1 , vn i .. , H = ... . hvn , v1 i . . . hvn , vn i die man darstellende Matrix des Skalarproduktes bezüglich dieser Basis nennt. Dann gilt für v = λ1 v1 + . . . + λn vn w = µ1 v1 + . . . + µn vn die Beziehung hv, wi = λT Hµ. Es gilt außerdem T H = HT = H . Die Matrix H ist invertierbar und es gilt λT Hλ > 0 für alle λ ∈ Kn , λ 6= 0. Setzt man wie üblich φA (λ) = n X λi v i , i=1 so gilt also −1 T hv, wi = φ−1 A (v) HφA (w)). Beweis: Wir rechnen die Darstellung des Skalarproduktes nach. Die Komponenten der Matrix H nennen wir hi,j . n n X X hv, wi = h λ i vi , µj vj i i=1 = n X i=1 λi hvi , j=1 n X j=1 µj vj i 148 KAPITEL 4. DAS SKALARPRODUKT = n X n X λi hvj , µj vj i i=1 j=1 n n X X µj hi,j = λi i=1 j=1 Pn µi h1,j .. = λ1 . . . λn . Pn j=1 µi hn,j j=1 = λT Hµ. Aufgrund der Eigenschaften eines Skalarproduktes hat man hi,j = hvi , vj i = hvj , vi i = hj,i , T also H = H T = H . Gleichfalls hat man λT Hλ > 0 für λ 6= 0. H muss deswegen auch invertierbar sein, da es sonst ein λ ∈ Kn gäbe mit Hλ = 0 und λ 6= 0. 2 4.8. Definition: Zur Matrix H ∈ K n×m definiert man die adjungierte Matrix H∗ = HT . Eine Matrix H ∈ Kn×n mit H = H∗ nennt man (konjugiert) symmetrisch oder auch selbstadjungierte Matrix oder Hermitesche Matrix. 4.9 Aufgabe: Zeigen Sie für das Euklidsche Skalarprodukt auf dem K n und jede Matrix A ∈ Kn×n hAx, yi = hx, A∗ yi für alle x, y ∈ Kn . Zeigen Sie außerdem (A∗ )∗ = A und hA∗ x, yi = hx, Ayi für alle x, y ∈ Kn . 4.10. Definition: Eine Hermitesche Matrix mit λT Hλ > 0 für alle λ ∈ Kn , λ 6= 0 nennt man positiv definite Matrix. Gilt hier nur ”‘≥”’, so nennt man die Matrix positiv semi-definit. Analog definiert man negativ definite und negativ semi-definite Matrizen. 4.11. Bemerkung: Eine positiv definite Matrix ist in diesem Skript automatisch auch Hermitesch. Viele Autoren setzen das nicht voraus. 4.12 Aufgabe: Sei H ∈ Kn×n positiv definit. Zeigen Sie, dass dann auch H T und H positiv definit sind. Zeigen Sie, dass H regulär ist und dass H −1 positiv definit ist. 4.13 Aufgabe: Angenommen, wir setzen bei der Definition von positiven Matrizen H ∈ Rn×n nicht voraus, dass H = H T ist. Zeigen Sie, dass dann H genau dann positiv definit ist, wenn die symmetrische Matrix 1 (H + H T ) 2 4.1. SKALARPRODUKTE UND NORMEN 149 positiv definit ist. Wir haben also festgestellt, dass die darstellende Matrix eines Skalarproduktes positiv definit ist. Umgekehrt definiert jede positiv definite Matrix ein Skalarprodukt, wie der folgende Satz zeigt. 4.14 Satz: Sei V ein Vektorraum über K und A = (v1 , . . . , vn ) eine Basis von V , sowie H ∈ Kn×n positiv definit. Dann ist −1 T hv, wi = φ−1 A (v) HφA (w)) ein Skalarprodukt auf V mit darstellender Matrix H bezüglich A. 4.15 Aufgabe: Beweisen Sie diesen Satz. 4.16. Bemerkung: Wählt man im Kn speziell die kanonische Basis aus Einheitsvektoren, so ist also hv, wi = v T Hw genau dann ein Skalarprodukt auf Kn , wenn H positiv definit ist. 4.17. Beispiel: Ein typisches Skalarprodukt auf dem Raum C[a, b] ist Z b hf, gi = f (t)g(t) dt. a In der Analysis wird dieses Skalarprodukt auch auf dem Raum aller Funktion f : I → R erweitert, für die f 2 im Riemannschen oder Lebesgueschen Sinn integrierbar sind. Wir können auf die Details dieser Verallgemeinerung hier nicht eingehen. Man nennt diesen Skalarproduktraum L2 [a, b]. 4.18 Aufgabe: Zeigen 1 1/2 Hn = 1/3 . .. 1/n Sie, dass die Hilbertmatrix 1/2 1/3 . . . 1/n 1/3 1 = i + j − 1 1≤i,j≤n .. . ... 1/(2n) positiv definit ist, indem Sie die Matrix als darstellende Matrix des Skalarprodukts auf L2 [0, 1] erkennen. 4.19 Aufgabe: (a) Berechnen Sie das Minimum von fa (t) = 1+2at+t2 in Abhängigkeit von a und zeigen Sie, dass fa > 0 genau dann gilt, wenn |a| < 1 gilt. (fa > 0 bedeutet natürlich, dass fa (t) > 0 für alle t ∈ R ist.) (b) Folgern Sie, dass x2 + 2axy + y 2 > 0 genau dann für alle x, y ∈ R mit x 6= 0 oder y 6= 0 gilt, wenn |a| < 1 ist. (c) Folgern Sie, dass bx2 + 2axy + cy 2 > 0 genau dann für alle x, y ∈ R mit x 6= 0 oder y 6= 0 gilt, wenn b > 0 und bc > a2 ist. (d) Folgern Sie, dass b a a c genau dann positiv definit ist, wenn b > 0 und bc > a2 ist. 150 KAPITEL 4. DAS SKALARPRODUKT 4.1.2 Normen Normen erlauben es, Abstände in Vektorräumen zu messen. Zu jedem Skalarprodukt werden wir eine zugehörige Norm definieren. 4.20. Definition: Sei V ein Vektorraum über K. Eine Abbildung k·k:V →R v 7→ kvk heißt Norm auf dem Vektorraum V , wenn die folgenden Bedingungen gelten. (1) kvk > 0 für alle v ∈ V , v 6= 0. (2) kλvk = |λ|kvk für alle λ ∈ K, v ∈ V . (3) kv + wk ≤ kvk + kwk für alle v, w ∈ V . Ein Vektorraum V mit einer Norm k · k heißt normierter Vektorraum. Bedingung (3) nennt man die Dreiecksungleichung. Im Rn soll die Norm kvk der ”‘Länge”’ des Vektors v entsprechen. Die Dreiecksungleichung sagt aus, dass die Länge von v + w nicht größer ist, als die Länge der beiden anderen Dreiecksseiten v und w im Dreieck aus Abbildung 2.1 links. 4.21 Aufgabe: Zeigen Sie k0k = 0. 4.22. Definition: Sei M eine Menge. Eine Abbildung d:M ×M →R (x, y) 7→ d(x, y) heißt Metrik auf M , wenn die folgenden Bedingungen gelten. (1) d(x, y) = 0 ⇔ x = y für alle x, y ∈ M . (2) d(x, y) = d(y, x) für alle x, y ∈ M . (3) d(x, z) ≤ d(x, y) + d(y, z) für alle x, y, z ∈ M . 4.23 Aufgabe: Zeigen Sie d(x, y) ≥ 0 für alle x, y ∈ M . Wieder ist Bedingung (3) die Dreiecksungleichung. Da die Metrik als Abstandsmaß dienen soll, besagt diese Bedingung, dass der Umweg über y länger ist als die direkte Verbindung von x nach z. 4.24 Aufgabe: Sei V ein normierter Vektorraum mit Norm k · k. Zeigen Sie, dass dann die Funktion d(x, y) = kx − yk für alle x, y ∈ V 4.1. SKALARPRODUKTE UND NORMEN 151 eine Metrik auf V ist. 4.25. Bemerkung: Damit wird ein normierter Raum zu einem metrischen Raum. Dort kann man daher die Konvergenz einer Folge (xn )n∈N in V zu einem Wert x ∈ V durch lim xn = x ⇔ lim kxn − xk = 0 n→∞ n→∞ definieren. Da man außerdem addieren kann, kann man konvergente Reihen definieren. Diese Verallgemeinerung der Konvergenz wird in der Analysis besprochen. Wir definieren nun die für uns hier wichtigste Norm. Sie heißt die zum Skalarprodukt zugehörige Norm. 4.26 Satz: Sei V ein Skalarproduktraum über K. Dann ist kvk = p hv, vi für alle v ∈ V eine Norm auf V . Beweis: Aufgrund der positiven Definitheit von Skalarprodukten ist hv, vi > 0 für alle v 6= 0. Außerdem h0, 0i = 0. Da die Wurzel für alle nicht-negativen Zahlen definiert ist, ist das Skalarprodukt für alle v ∈ V wohldefiniert. Außerdem folgen die Bedingungen (1) und (2) für Normen. Man hat aufgrund der Eigenschaften des Skalarprodukts, und wegen λλ = |λ|2 q p p kλvk = hλv, λvi = λλhv, vi = |λ| hv, vi = |λ|kvk. Zum Beweis der Dreiecksungleichung berechnen wir zunächst mit Hilfe von Aufgabe 4.6 kx + λyk2 = hx + λy, x + λyi = hx, xi + hλy, λyi + 2Re hx, λyi = hx, xi + |λ|2 hy, yi + 2 Re λhx, yi. Nun setzen wir im Fall y 6= 0 λ=− hx, yi . hy, yi Es folgt damit 0 ≤ kx + λyk2 = hx, xi + |hx, yi|2 |hx, yi|2 |hx, yi|2 −2 = hx, xi − . hy, yi hy, yi hy, yi Man erhält |hx, yi|2 ≤ hx, xihy, yi = kxk2 kyk2 . 152 KAPITEL 4. DAS SKALARPRODUKT Aufgrund der Monotonie der Wurzel folgt |hx, yi| ≤ kxk kyk. Die ist die sogenannte Schwarzsche Ungleichung, die für alle x, y ∈ V gilt (auch im Fall y = 0). Mit Hilfe der Schwarzschen Ungleichung beweisen wir die Dreiecksungleichung. Dazu berechnen wir zunächst wieder mit Aufgabe 4.6 kx + yk2 = kxk2 + kyk2 + 2Re hx, yi. Es gilt aber für alle komplexen Zahlen z = a + ib p Re z = a ≤ a2 + b2 = |z|. Also, mit der Schwarzschen Ungleichung, kx + yk2 ≤ kxk2 + kyk2 + 2|hx, yi| ≤ kxk2 + kyk2 + 2kxk kyk = (kxk + kyk)2 . Durch Wurzelziehen folgt die Dreiecksungleichung. 2 Wir halten hier noch die wichtige Schwarzsche Ungleichung fest, die wir schon im obigen Beweis hergeleitet haben. Wir werden für diese Ungleichung im Fall V = Rn weiter unten eine geometrische Begründung herleiten, die natürlich kein im Sinne dieser Theorie exakter Beweis sein kann. 4.27 Satz: Sei V ein Skalarproduktraum. Dann gilt |hv, wi| ≤ kvk kwk für alle v, w ∈ V . Gleichheit gilt genau dann, wenn v und w linear abhängig sind. Beweis: Den Beweis für die Gültigkeit der Ungleichung haben wir schon erbracht. Betrachtet man diesen Beweis, so sieht man, dass Gleichheit nur gelten kann, wenn y = 0 ist, oder x + λy = 0. Dies ist äquivalent dazu, dass x und y linear abhängig sind. 2 4.28. Beispiel: Die zum Euklidschen Skalarprodukt gehörige Norm auf dem Rn und auf dem Cn ist die Norm v u n uX kxk = t |xi |2 für alle x ∈ Kn i=1 Entsprechend ist der Abstand zweier Punkte im Kn durch v u n uX d(x, y) = kx − yk = t |xi − yi |2 i=1 4.1. SKALARPRODUKTE UND NORMEN 153 gegeben. Dies entspricht im Rn dem geometrischen Abstand der Euklidschen Geometrie, wie man geometrisch mit Hilfe des Satzes von Pythagoras nachweist. 4.29. Beispiel: Es gibt viele weitere Normen auf dem Kn . Typische Vertreter sind die 1-Norm n X kxk1 = |xi | i=1 und die Maximumsnorm kxk∞ = max |xi |. 1≤i≤n 4.30 Aufgabe: Weisen Sie nach, dass die 1-Norm und die Maximumsnorm tatsächlich Normen auf dem Kn sind. 4.31 Aufgabe: Zeichnen Sie die Einheitskugeln K1 = {x : kxk ≤ 1} für die Euklidsche Norm, die 1-Norm im Fall n = 1, 2, 3 und K = R. 4.32 Aufgabe: (a) Zeigen Sie die Parallelogrammgleichung kx − yk2 + kx + yk2 = 2(kxk2 + kyk2 ) für alle Normen, die zu einem Skalarprodukt gehören. (b) Geben Sie eine Formal für die Länge der Seitenhalbierenden im Dreieck an, abhängig von den Längen der Seiten. 4.33 Aufgabe: Sei K = R. Zeigen Sie hx, yi = 1 kx + yk2 − kx − yk2 4 für die Norm k · k, die zum Skalarprodukt h·, ·i gehört. Weisen Sie mit Hilfe dieser Gleichung nach, dass die 1-Norm und die Maximumsnorm zu keinem Skalarprodukt gehören. Stellen Sie eine entsprechende Gleichung für komplexe Skalarprodukte auf. 4.34 Aufgabe: Zeigen Sie n X |xi | ≤ √ nkxk i=1 für alle x ∈ Kn mit Hilfe der Schwarzschen Ungleichung, wobei kxk = kxk2 die Euklidsche Norm sei. Finden Sie ein x ∈ Kn , so dass Gleichheit gilt. Zeigen Sie √ kxk1 ≤ nkxk2 ≤ nkxk∞ und kxk∞ ≤ kxk2 ≤ kxk1 n für alle x ∈ K . Kann in diesen Ungleichungen Gleichheit auftreten? 4.35. Beispiel: Das Skalarprodukt in Beispiel 4.17 führt zur Norm s Z b kf k = kf k2 = f (t)2 dt. a 154 KAPITEL 4. DAS SKALARPRODUKT Man nennt diese Norm L2 -Norm. Sie gibt den gemittelten quadrierten Abstand zweier Funktionen wieder. Durch das Quadrieren werden große Abstände stärker gewichtet. Eine alternative Norm ist Z b kf k1 = |f (t)| dt. a Dies Norm nennt man L1 -Norm. Sie gewichtet große Abstände nicht so stark. Ein Nachteil ist, dass diese Norm nicht zu einem Skalarprodukt gehört. Das andere Extrem ist die L∞ -Norm, die durch kf k∞ = sup{|f (t)| : t ∈ [a, b]}. Sie nutzt ausschließlich die großen Abstände. 4.36 Aufgabe: Weisen Sie nach, dass kf k1 und kf k∞ tatsächlich Normen auf dem Raum C[a, b] sind. 4.37 Aufgabe: Nutzen sie die Schwarzsche Ungleichung, um √ √ kf k1 ≤ b − akf k2 ≤ b − akf k∞ zu zeigen. Kann hier Gleichheit auftreten? Zeigen Sie aber, dass keine Ungleichungen der Form kf k∞ ≤ c1 kf k2 , kf k2 ≤ c2 kf k1 für alle f ∈ C[a, b] gelten. 4.38 Aufgabe: Die reelle Reihe ∞ X a2i i=1 sei konvergent. Zeigen Sie, dass dann auch die Reihe ∞ X |ai | i i=1 konvergiert. 4.2 4.2.1 Orthogonalität Senkrechte Vektoren Senkrechte stehende Vektoren spielen natürlich eine besondere Rolle in der Geometrie. Wir sind in diesem Abschnitt zunächt an Orthonormalbasen interessiert. Das sind Basen, die aus paarweise senkrecht stehenden, normierten Vektoren bestehen. Mit solchen Basen kann man besonders leicht rechnen. Das ist insbesondere in Funktionenräumen nützlich. 4.39 Aufgabe: Überlegen Sie sich im R2 oder R3 anhand einer Skizze, dass der Vektor x genau dann senkrecht auf dem Vektor y steht, wenn die Differenzenvektoren x − y 4.2. ORTHOGONALITÄT 155 und x − (−y) gleich lang sind. Rechnen Sie nach, dass dies äquivalent zu hx, yi = 0 ist. 4.40. Definition: Sei V ein Vektorraum über K mit einem Skalarprodukt hv, wi. Zwei Vektoren v, w heißen senkrecht zueinander, wenn hv, wi = 0 ist. Man schreibt dafür v ⊥ w. Wenn U ein Unterraum von V ist, so heißt v senkrecht auf U , wenn v⊥u für alle u ∈ U gilt. Man schreibt v ⊥ U. 4.41. Bemerkung: Es gilt natürlich v ⊥ w ⇔ w ⊥ v. Es gilt aber nicht, dass aus v ⊥ w und w ⊥ z folgt, dass v ⊥ z sein muss. 4.42. Bemerkung: In Fall K = C genügt Re hv, ui = 0 für alle u ∈ U , damit v ⊥ U ist. Denn mit u ∈ U ist auch iu ∈ U und es folgt Im hv, ui = Re (−i)hv, ui = Re hv, iui = 0, weil für jede komplexe Zahl Im z = Re (−iz) gilt. 4.43 Aufgabe: Sei U ein endlich dimensionaler Unterraum des Skalarproduktraumes V mit Erzeugendensystem u1 , . . . , un . Zeigen Sie, dass v ⊥ U genau dann gilt, wenn v ⊥ ui für alle i = 1, . . . , n gilt. Wir beweisen nun eine allgemeine Version des Satzes von Pythagoras. Dies ist natürlich kein Beweis des eigentlichen geometrischen Sachverhaltes, weil wir den Satz quasi in die Definition des Skalarproduktes und der Norm hineingesteckt haben. 4.44 Satz: Es gilt v ⊥ w ⇒ kv + wk2 = kvk2 + kwk2 . Im reellen Fall gilt auch die umgekehrte Implikation. Beweis: kv + wk2 = kvk2 + kwk2 + 2Re hv, wi. 156 KAPITEL 4. DAS SKALARPRODUKT Wenn also hv, wi = 0 ist, folgt der Satz des Pythagoras. Wenn umgekehrt dieser Satz gilt, muss im reellen Fall Re hv, wi = hv, wi = 0 sein 4.45. Definition: Eine Teilmenge M eines Raums V mit Skalarprodukt hv, wi heißt Orthogonalsystem, wenn es die 0 nicht enthält und v⊥w für alle v, w ∈ M , v 6= w gilt. Ein Orthogonalsystem mit normierten Vektoren nennen wir in diesem Skript Orthonormalsystem. Ein Orthogonalsystem heißt Orthonormalbasis, wenn es Basis von V ist, und wenn kvk = 1 für alle v ∈ M 2 gilt. Wie üblich, nennen wir n paarweise verschiedene Vektoren v1 , . . . , vn ein Orthonormalsystem, bzw. eine Orthonormalbasis, wenn die Menge {v1 , . . . , vn } ein Orthogonalsystem, bzw. eine Orthonormalbasis, im Sinne der obigen Definition ist. 4.46 Satz: Jedes Orthogonalsystem M ⊆ V ist linear unabhängig. Beweis: Seien v1 , . . . , vn ∈ M paarweise verschieden und n X λi vi = 0. i=1 Dann folgt durch Multiplikation mit vj , j ∈ {1, . . . , n} λj < vj , vj >= 0. 2 Wegen vj 6= 0 folgt λj = 0. Der folgende Satz besagt, dass jeder endlich dimensionale Raum eine Orthogonalbasis hat. Der Beweis erfolgt mit einem Konstruktionsverfahren, das man Orthonormalisierungs-Verfahren von Gram-Schmidt (oder einfach Schmidtsches Verfahren) nennt. 4.47 Satz: Jeder endlich dimensionale Skalarproduktraum V über K besitzt eine Orthonormalbasis. Man kann jedes Orthonormalsystem zu einer Orthonormalbasis von V ergänzen. Beweis: Für V = {0} ist die leere Menge eine Orthogonalbasis. Sonst wählen wie ein ṽ1 ∈ V mit ṽ1 6= 0 und normieren v1 = 1 ṽ1 . kṽ1 k Dann bildet {v1 } eine Orthonormalsystem in V . Angenommen, wir haben ein Orthonormalsystem v1 , . . . , vn in V , und v∈ / U = span {v1 , . . . , vn }. 4.2. ORTHOGONALITÄT 157 Wir setzen ṽn+1 = v − n X hv, vi ivi . i=1 Man berechnet hṽn+1 , vi i = 0 für alle i = 1, . . . , n, also ṽn+1 ⊥ U . Da v ∈ / U ist, folgt ṽn+1 6= 0. Wir können also vn+1 = 1 ṽn+1 kṽn+1 k setzen. Es folgt vn+1 ⊥ U . Daher ist v1 , . . . , vn+1 eine Orthonormalbasis von span {v1 , . . . , vn+1 }. Da V endlich dimensional ist und Orthognormalsysteme linear unabhängig, muss dieses Verfahren irgendwann enden, und wir erhalten eine Orthonormalbasis von V . Aufgrund des Konstruktionsverfahrens ist klar, dass man damit jedes Orthogonalsystem in V mit normierten Vektoren zu einer Orthonormalbasis 2 ergänzen kann. 4.48. Bemerkung: Zur Vermeidung von Wurzeln ist es günstiger, zunächst nicht zu normieren. Dazu nehmen wir ein Orthogonalsystem v1 , . . . , vn an und einen Vektor v. Man muss dann, im Unterschied zum Verfahren im Beweis des Satzes, n X hv, vi i vi . vn+1 = v − hv i , vi i i=1 setzen und erst am Ende alle vi normieren. Außerdem kann man zur Vermeidung von Brüchen zunächst ein geeignetes Vielfaches von vn+1 verwenden. Wenn man versehentlich ein v ∈ span {v1 , . . . , vn } nimmt, so wird vn+1 = 0. 4.49. Bemerkung: Ausgehend von einem beliebigen linear unabhängigen System w1 , . . . , wn in V kann man mit dem Verfahren ein Orthonormalsystem v1 , . . . , vn erhalten, so dass span {v1 , . . . , vk } = span {w1 , . . . , wk } für alle k = 1, . . . , n gilt. Dazu wählt man in jedem Schritt v = wk+1 , also gleich dem nächsten, noch nicht verwendeten Basisvektor. 4.50. Beispiel: Ausgehend von 1 v1 = 1 1 bestimmen wir eine Orthonormalbasis von R3 . Man kann nun einen beliebigen Vektor v ∈ / span {v1 } nehmen. Wir nehmen v = e1 . Also ṽ2 = e1 − he1 , v1 i v1 . hv1 , v1 i 158 KAPITEL 4. DAS SKALARPRODUKT In konkreten Zahlen −2/3 ṽ2 = 1/3 1/3 Zur Vermeidung von Brüchen nehmen wir −2 v2 = 1 . 1 Weiter mit v = e2 ṽ3 = e2 − In Zahlen he2 , v2 i he2 , v1 i v1 − v2 . hv1 , v1 i hv2 , v2 i 0 ṽ3 = 1/2 . −1/2 Also, zur Vermeidung von Brüchen 0 v3 = 1 −1 In der Tat stehen alle drei Vektoren senkrecht aufeinander. Wir erhalten durch Normieren die folgende Orthonormalbasis 1 −2 0 1 1 1 √ 1 , √ 1 , √ 1 . 3 1 6 2 −1 1 4.51. Beispiel: Im Raum C[0, 1] mit dem Skalarprodukt 1 Z hf, gi = f (t)g(t) dt 0 stellen wir eine Orthonormalbasis von P2 auf, und zwar ausgehend von der Basis w0 (x) = 1, w1 (x) = x, w2 (x) = x2 . Dazu setzen wir f0 (x) = w0 (x) = 1. Als Funktion v wählen wir nun die Funktion v(x) = w1 (x) = x. Also hv, f0 i f1 = v − f0 . hf0 , f0 i Man berechnet 1 Z hf0 , f0 i = 1 dt = 1. 0 und Z hv, f0 i = 1 x dt = 0 1 . 2 4.2. ORTHOGONALITÄT 159 Also 1 f1 (x) = x − . 2 Im nächsten Schritt wählen wir v(x) = w2 (x) = x2 . Wir haben wieder hv, f0 i hv, f1 i f0 − f1 hf0 , f0 i hf1 , f1 i f2 = v − zu berechnen. Man erhält 1 f2 (x) = x2 − x + . 6 Die Funktionen f0 , f1 , f2 müssen nun noch normiert werden. 4.52 Satz: Sei v1 , . . . , vn ein Orthonormalsystem in V . Dann gilt für jedes v ∈ V die Besselsche Ungleichung v u n uX |λi |2 . kvk ≥ t i=1 mit λi =< v, vi > für alle i = 1, . . . , n. Gleichheit gilt genau dann, wenn v ∈ span {v1 , . . . , vn } ist (Parsevalsche Gleichung). In diesem Fall gilt v= n X λ i vi . i=0 Dies ist insbesondere dann für alle v ∈ V der Fall, wenn v1 , . . . , vn eine Orthonormalbasis bilden. Beweis: Zu v ∈ V definieren wir ṽ = n X λ i vi . i=1 mit λi = hv, vi i für i = 1, . . . , n. Dann gilt hv − ṽ, vj i = hv, vj i − hṽ, vj i n X = hv, vj i − λi hvi , vj i i=1 = hv, vj i − λj = 0. für alle j = 1, . . . , n. Man erhält v − ṽ ⊥ ṽ. 160 KAPITEL 4. DAS SKALARPRODUKT Es folgt aus Satz 4.44 kvk2 = kv − ṽk2 + kṽk2 ≥ kṽk2 Nun berechnet man kṽk2 = hṽ, ṽi n n X X =h λ i vν , λ i vν i i=1 = = i=1 n X n X λi λj hvi , vj i i=1 j=1 n X |λi |2 . i=1 Damit ist die Besselsche Ungleichung bewiesen. Die Gleichheit gilt außerdem 2 nur dann, wenn v = ṽ ist. 4.53. Bemerkung: Wenn wir in einem Skalarproduktraum V ein abzählbares Orthornormalsystem M = {v1 , v2 , . . .} von paarweise verschiedenen Vektoren vi , i ∈ N, haben, so folgt die allgemeine Besselsche Ungleichung ∞ X kvk2 ≥ |hv, vi i|2 i=1 für alle v ∈ V . Wenn hier Gleichheit für alle v ∈ V gilt, so nennt man M eine Schauder-Basis von V . In diesem Fall konvergiert die Folge n X < v, vi > vi i=1 mit n → ∞ gegen v. Dieser Sachverhalt ist Gegenstand der Funktionalanalysis. 4.54 Aufgabe: Sei v1 , . . . , vn ein Orthonormalsystem in V , sowie v = λ1 v1 + . . . + λn vn Zeigen Sie kvk = |λ1 |2 + . . . + |λn |2 . Sei w = µ1 v1 + . . . + µn vn . Zeigen Sie hv, wi = n X ν=1 λ ν µν 4.2. ORTHOGONALITÄT 161 Abbildung 4.1: Orthogonale Projektion von v auf den Unterraum g 4.2.2 Orthogonale Projektion Senkrechte Vektoren sind hauptsächlich nützlich, um kürzeste Abstände zu finden. Dabei wird der Abstand mit Hilfe der zum Skalarprodukt zugehörigen Norm gemessen. In Abbildung 4.1 ist geometrisch klar, dass die Verbindung v − w unter allen w ∈ g am kürzesten wird, wenn v − w senkrecht auf dem Unterraum g steht. Wir werden dies präzisieren und beweisen. 4.55. Definition: Für eine nicht-leere Teilmenge A ⊆ V eines metrischen Raums V und ein v ∈ V definieren wir den Abstand von v zu A als d(v, A) = inf{d(v, x) : x ∈ A}. 4.56. Bemerkung: Dieses Infimum existiert, weil die Menge der Abstände d(v, x), x ∈ A nicht leer und nach unten durch 0 beschränkt ist. Das Infimum braucht aber kein Minimum zu sein. So ist etwa d(0, ]1, 2[) = 1 in R aber kein Punkt im Intervall ]1, 2[ hat den minimalen Abstand. 4.57 Satz: Sei V ein Skalarproduktraum über K. Sei v ∈ V , und A = a + U ein affiner Unterraum des Vektorraums V , also U ein Unterraum von V . Dann gilt für w ∈ A genau dann kv − wk = d(v, A), 162 KAPITEL 4. DAS SKALARPRODUKT wenn v−w ⊥U ist. w ist in diesem Fall eindeutig bestimmt, und es gilt kv − wk2 + kw − w̃k2 = kv − w̃k2 für alle w̃ ∈ A. Beweis: Sei zunächst die Orthogonalitätsbedingung v−w ⊥U erfüllt. Sei w̃ ∈ A. Dann gilt w − w̃ ∈ U und daher kv − w̃k2 = kv − wk2 + kw − w̃k2 nach Sath 4.44. Es folgt, dass kv − wk minimal ist, und dass w das eindeutig bestimmte Minimum ist. Sei nun umgekehrt w minimal, also kv − wk = d(v, A). Sei u ∈ U und λ > 0. Dann gilt kv − (w − λu)k2 = k(v − w) + λuk2 = kv − wk2 + kλuk2 + 2Re hv − w, λui. Nun ist w − λu ∈ A und daher 2Re hv − w, λui = kv − (w − λu)k2 − kv − wk2 − kλuk2 ≥ −kλuk2 . Division durch λ ergibt 2Re hv − w, ui ≥ −λkuk2 . für alle λ > 0. Es folgt Re hv − w, ui ≥ 0. Da u ∈ U beliebig war, gilt diese Bedingung für alle u ∈ U . Also auch Re hv − w, −ui = −Re hv − w, ui ≥ 0. Es folgt Re hv − w, ui = 0 für alle u ∈ U . Nach Bemerkung 4.42 bedeutet dies v − w ⊥ U . 2 Der obige Satz behauptet nicht, dass immer ein Element bester Approximation existieren muss. In der Tat ist das auch nicht richtig. Wenn aber U endlich dimensional ist, so muss immer eine beste Approximation existieren, wie der folgende Satz konstruktiv zeigt. 4.58 Satz: Sei V ein Skalarproduktraum A = a + U ein affiner Unterraum, wobei U ein endlich dimensionaler Unterraum von V sei. Dann existiert zu jedem v ∈ V ein w ∈ U , so dass kv − wk minimal unter allen w ∈ A wird. 4.2. ORTHOGONALITÄT 163 Beweis: Sei v1 , . . . , vn eine beliebige Basis des Unterraums U . Wir suchen zu v ∈ V ein w ∈ a + U mit v − w ⊥ U . Gesucht sind also λ1 , . . . , λn mit n X v − (a + λi vi ) ⊥ vj für alle j = 1, . . . , n i=1 Dies ist äquivalent zu hv − a, vj i − n X λi hvi , vj i = 0 für alle j = 1, . . . , n i=1 Also n X λi hvi , vj i = hv − a, vj i für alle j = 1, . . . , n. i=1 Dies ist offenbar ein lineares Gleichungssystem für λ1 , . . . , λn . Das Gleichungssystem ist immer lösbar. Denn die zugehörige Matrix ist die darstellende Matrix des Skalarproduktes auf U und daher regulär nach Satz 4.7. 2 4.59. Bemerkung: Wenn v1 , . . . , vn eine Orthonormalbasis von U ist, so vereinfacht sich die darstellende Matrix zur Einheitsmatrix In und wir erhalten λi = hv − a, vi i für alle i = 1, . . . , n. Wenn v1 , . . . , vn lediglich ein Orthogonalsystem ist, so berechnet man das minimale Element aus a + U als w =a+ n X hv − a, vi i i=1 hvi , vi i vi ∈ U, Das ist bedeutend einfacher als das Lösen eines linearen Gleichungssystems wie im Beweis des Satzes. Dies ist einer der Gründe für die Wichtigkeit von Orthonormalbasen. 4.60. Bemerkung: Das Orthonormalisierungs-Verfahren von Gram-Schmidt lässt sich also folgendermaßen deuten. Wenn v1 , . . . , vn ein Orthogonalsystem ist und v∈ / span {v1 , . . . , vn } = U. Dann ist also w= n X hv, vi i vi hv i , vi i i=1 das Element minimalen Abstands zu v aus U . Es gilt v − w ⊥ U. Daher setzen wir vn+1 = v − w = v − n X hv, vi i vi . hv i , vi i i=1 164 KAPITEL 4. DAS SKALARPRODUKT Wir halten noch den folgenden wichtigen Satz fest. Man nennt die dort definierte Abbildung die orthogonale Projektion. 4.61 Satz: Sei U ein endlich dimensionaler Unterraum eines Skalarproduktraumes V . Die Abbildung π : V → U, die v ∈ V das Element minimalen Abstands aus U zuordnet, ist eine lineare Abbildung. Es gilt π 2 = π und v − π(v) ⊥ U für alle v ∈ V . Beweis: Wir wählen eine Orthonormalbasis v1 , . . . , vn von U . Dann ist aufgrund der vorigen Bemerkung π(v) = n X hv, vi ivi , i=0 also eine lineare Abbildung. Wegen π(v) ∈ U ist π(π(v)) = π(v). Die letzte Behauptung ist Gegenstand von Satz 4.57. 2 4.62 Satz: Sei u1 , . . . , uk ∈ Kn ein Orthormalsystem bezütlich des kanonischen Skalarprodukts in Kn und U = span {u1 , . . . , uk }, sowie πU : V → U die orthogonale Projektion auf U . Dann ist die darstellende Matrix dieser Projektion bezüglich der kanonischen Einheitsmatrix ME,E (πU ) = k X vν vν∗ ν=1 Beweis: Offenbar gilt k X ! vν vν∗ vl = ν=1 k X vν (vν∗ vl ) = vl ν=1 für l = 1, . . . , k. Andererseits k X ! vν vν∗ v= ν=1 k X vν (vν∗ v) = 0 ν=1 für jedes v ∈ U ⊥ . Erweitert man v1 , . . . , vk zu einer Orthonormalbasis von v, so stimmt die Abbildung ! k X ∗ v 7→ vν vν v ν=1 also auf dieser Basis mit πU überein. 2 4.2. ORTHOGONALITÄT 165 4.63. Beispiel: Die Spiegelung φ an der durch die orthonormalen Vektoren v 1 , . . . , v k ∈ Rn erzeugten Ebene U hat also die darstellende Matrix ! k X T 2 vν vν − In . ν=1 Denn φ(v) = v − 2(v − πU (v)) = 2πU (v) − v. Wir spiegeln etwa in R2 an der Winkelhalbierenden und erhalten 1 1 1 0 1 2· √ · √ 1 1 − I2 = 1 0. 2 1 2 Abbildung 4.2: Geometrische Interpretation des Skalarprodukts. 4.64. Beispiel: Sei w ∈ R2 \ {0} und G = span {w}. Für v ∈ R2 \ G ist dann v − s ⊥ G. mit s= hv, wi w hw, wi Im linken Bild der Abbildung 4.2 ist v, w und das Element minimalen Abstands s eingezeichnet. Es gilt ksk2 + kv − sk2 = kvk2 . 166 KAPITEL 4. DAS SKALARPRODUKT Außerdem überlegt man sich geometrisch in dieser Abbildung cos α = ksk |hv, wi| 1 |hv, wi| = kwk = . kvk |hw, wi| kvk kwk kvk In der linken Abbildung gilt daher hv, wi > 0, also hv, wi = kvk kwk cos α. Im rechten Bild ist hv, wi < 0 und es gilt dasselbe, wie man sich ebenfalls überlegt. Die Menge H = {v ∈ R2 : hv, wi > 0} ist also die Halbebene aller Vektoren, die einen spitzen Winkel mit w bilden. Aufgrund von | cos α| ≤ 1 erklärt diese Formel auch die Schwarzsche Ungleichung |hv, wi| ≤ kvk kwk. 4.65 Aufgabe: (a) Zeigen Sie, dass der kürzeste Abstand von einem Punkt x ∈ R2 zur Geraden G = {a + λv : λ ∈ R} im R2 durch die Formel d(x, G) = |hx − a, ṽi| kṽk gegeben ist für jeden Vektor ṽ ⊥ v, ṽ 6= 0. Was hat das mit der aus der Schule bekannten Hesseschen Normalform zu tun? (b) Wie muss man (a) im Fall von Ebenen im R3 modifizieren? (c) Zeigen Sie d(x, G)2 = kx − ak2 − |hx − a, vi|2 . kvk2 4.66 Aufgabe: Sei V = P1 , der Raum der linearen Funktionen mit der Basis v0 (t) = 1, v1 (t) = t, sowie f (t) = t2 . Wir versehen C[0, 1] mit dem Skalarprodukt aus 4.51. Verwenden Sie die Methode aus dem Beweis von Satz 4.58, um die beste Approximation bzgl. P1 an f zu berechnen. 4.67 Aufgabe: (a) Seien E = a + U und F = b + V zwei affine Unterräume des Rn , die sich nicht schneiden (U und V seien Unterräume des Rn ). Zeigen Sie dass v ∈ E und w ∈ F genau dann Elemente mit minimalen Abstand kv − wk = inf{kṽ − w̃k : ṽ ∈ E, w̃ ∈ F } sind, wenn v − w ⊥ U, v−w ⊥V gilt. (b) Stellen Sie mit Hilfe von Basen u1 , . . . , uk von U und v1 , . . . , vl von V ein lineares Gleichungssystem zur Berechnung von v und w auf. 4.2. ORTHOGONALITÄT 4.2.3 167 Orthogonale Abbildungen In der Geometrie der Ebene oder des Raumes sind wir besonders an Abbildungen interessiert, die die Abstände von Punkten erhalten. Solche Abbildungen nennt man Bewegungen. Dieses Konzept ist auch in beliebigen Skalarprodukträumen nützlich. 4.68. Definition: Seien V , W Skalarprodukträume und φ : V → W linear. Dann heißt φ orthogonale Abbildung, wenn sie orthonormale Systeme auf orthonormale Systeme abbildet. 4.69. Beispiel: Die einzigen orthogonale Abbildungen von R2 in sich sind die Drehungen und die Spiegelungen an einer Geraden. Anschaulich ist klar, dass diese Abbildungen die Norm erhalten und senkrechte Vektoren auf senkrechte Vektoren abbilden. Wir werden später darauf zurück kommen. Die einzigen orthogonale Abbildungen von R3 in sich sind Drehungen um eine feste Achse und Spiegelungen an Ebenen. Auch darauf werden wir später zurück kommen. 4.70. Bemerkung: Die in der Definition gegebene Bedingung für Orthogonalität einer Abbildung impliziert insbesondere, dass normierte Vektoren normiert bleiben. Wir werden im folgenden Satz sehen, dass dies schon genügt. Wir werden auch sehen, dass es genügt, dass eine einzige, gegebene Orthonormalbasis auf ein Orthonormalsystem abgebildet wird. Oft wird übrigens die Bedingung (2) des folgenden Satzes als Definition genommen. 4.71 Satz: Seien V , W Skalarprodukträume und φ : V → W linear. Dann sind äquivalent (1) φ ist orthogonal. (2) φ erhält das Skalarprodukt. Das heißt hφ(v1 ), φ(v2 )i = hv1 , v2 i für alle v1 , v2 ∈ V . (3) φ erhält die Norm. Das heißt kvk = kφ(v)k für alle v ∈ V . (4) φ bildet Vektoren mit Norm 1 auf Vektoren mit Norm 1 ab, also kvk = 1 ⇒ kφ(v)k = 1 für alle v ∈ V . (5) Eine einzige, feste Orthonormalbasis von V wird auf ein Orhtonormalsystem in W abgebildet. Beweis: ”‘(1)⇒(4)”’: Dies folgt unmittelbar aus der Definition. Denn jeder Vektor mit Norm 1 bildet ein Orthonormalsystem. ”‘(4)⇒(3)”’: Aus (4) folgt für alle v ∈ V , v 6= 0, 1 1 kφ(v)k = kφ( v)k = 1, kvk kvk also kφ(v)k = kvk. Für v = 0 ist das ohnehin klar. 168 KAPITEL 4. DAS SKALARPRODUKT ”‘(3)⇒(2)”’: Wir erinnern uns an Re hv1 , v2 i = 1 kv1 + v2 k2 − kv1 − v2 k2 . 4 Wenn also φ die Norm erhält, so gilt 1 kφ(v1 ) + φ(v2 )k2 − kφ(v1 ) − φ(v2 )k2 4 1 = kv1 + v2 k2 − kv1 − v2 k2 4 = Re hv1 , v2 i. Re hφ(v1 ), φ(v2 )i = Wegen Im hφ(v1 ), φ(v2 )i = −Re hφ(iv1 ), φ(v2 )i = −Re hiv1 , v2 i = Im hv1 , v2 i erhält φ auch den Imaginärteil des Skalarprodukts. ”‘(2)⇒(1)”’: Wenn φ das Skalarprodukt erhält, erhält es die Normen von Vektoren, und es bildet senkrechte Vektoren auf senkrechte Vektoren ab. Also ist φ orthogonal. ”‘(1)⇒(5)”’ ist klar aufgrund der Definition von orthogonalen Abbildungen. ”‘(5)⇒(4)”’: Sei B eine Orthonormalbasis von V und v ∈ V mit kvk = 1. Wir stellen v bezüglich B durch v = l1 v1 + . . . + λ n vn dar. Man berechnet nach Aufgabe 4.54 1 = kvk = |λ1 |2 + . . . + |λn |2 . Da nach Voraussetzung φ(v1 ), . . . , φ(vn ) ein Orthonormalsystem in W bilden, erhält man ebenso kφ(v)k = 1. 2 4.72 Satz: Seien V ein Skalarproduktraum mit Orthonormalbasis A = {v1 , . . . , vn } und W ein Skalarproduktraum mit Orthonormalbasis B = {w1 , . . . , wm }, sowie φ : V → W linear. Dann ist φ genau dann orthogonal, wenn die Spalten von M = MA,B (φ) ein Orthonormalsystem im Rm bilden. Beweis: Aufgrund der Eigenschaften der darstellenden Matrix gilt φ(vk ) = m1,k w1 + . . . + mm,k wm für alle k = 1, . . . , n, 4.2. ORTHOGONALITÄT 169 wobei mi,j die Einträge von M seien. Mit Aufgabe 4.54 erhält man hφ(vk ), φ(vl )i = m X mµ,k mµ,l . µ=1 Daraus folgt die Behauptung mit Hilfe des vorigen Satzes. 2 4.73 Aufgabe: Zeigen Sie, dass die Spalten einer Matrix A ∈ Km×n genau dann ein Orthonormalsystem bilden wenn A∗ A = In ist. Im Fall n = m ist also dann A regulär und A−1 = A∗ . 4.74. Definition: Eine reguläre Matrix A ∈ Kn×n heißt unitäre Matrix, wenn A−1 = A∗ ist. Eine reelle unitäre Matrix nennt man auch orthogonale Matrix. 4.75 Aufgabe: Zeigen Sie, dass mit A ∈ Kn×n auch AT , A∗ und A unitär sind. Also bilden auch die Zeilen von A ein Orthonormalsystem. 4.76. Bemerkung: Seien der Kn und Km versehen mit dem Euklidschen Skalarprodukt, und A ∈ Km×n . Dann ist die Abbildung φ A : Kn → Km φA (x) = Ax also genau dann orthogonal, wenn die Spalten von A ein Orthonormalsystem im Km bilden. Im Fall n = m muss dann also A unitär sein. 4.77. Beispiel: Die Drehung um den Winkel α cos(α) − sin(α) Dα = sin(α) cos(α) ist eine orthogonale Abbildung. Im R3 ist die Drehung um eine beliebige Achse eine orthogonale Abbildung. Die Matrix der Drehung um die x1 -Achse ist beispielsweise 1 0 0 Dα,x1 = 0 cos(α) − sin(α) . 0 sin(α) cos(α) 4.78 Aufgabe: Berechnen Sie Matrix der Hintereinanderausführung zweier Drehungen um Winkel α und β im R2 und vergleichen Sie mit der Drehung um α + β. 4.79 Aufgabe: Berechnen Sie die Matrix einer Spiegelung an der von x ∈ R2 aufgespannten Geraden, x 6= 0. 4.80 Aufgabe: Geben Sie alle möglichen orthonormalen Matrizen A ∈ R2×2 an. Zeigen Sie so, dass jede orthogonale Abbildung des R2 in sich eine Drehung ist oder eine Drehung mit anschließender Spiegelung. 4.81 Aufgabe: Die Drehachse eine Drehung im R3 sei um den Winkel β zur zAchse geneigt und liege in der x-z-Ebene. Berechnen Sie die Matrix der Drehung um 170 KAPITEL 4. DAS SKALARPRODUKT diese Achse um den Winkel α, indem Sie die Drehung als Produkt von Drehungen um Hauptachsen schreiben. 4.82 Aufgabe: Drehen Sie im R3 die x-y-Ebene einmal um die x-Achse nach links und einmal um die y-Achse nach rechts um 23 Grad. Der Schnitt weist dann in den positiven Oktanden. (a) Geben Sie Gleichungen und senkrechte Vektoren für die beiden gedrehten Ebenen an. Berechnen Sie den Winkel zwischen diesen Vektoren. Berechnen Sie den Winkel zwischen den beiden Ebenen, der nach unten (in Richtung −z) weist. (b) Berechnen Sie den Richtungsvektor der Schnittgeraden und den Winkel, den dieser Vektor zur x-y-Ebene hat. 4.83. Definition: Eine affine Abbildung ψ : V → V , V ein Skalarproduktraum, heißt Bewegung, wenn die zugehörige lineare Abbildung orthogonal ist. Bei dieser Definition ist vorausgesetzt, dass ψ affin ist. Wir können aber in endlich dimensionalen Räumen Bewegungen unabhängig von der Linearität charakterisieren. 4.84 Satz: Sei V ein Skalarproduktraum. Eine Abbildung ψ : V → V ist genau dann eine Bewegung, wenn sie Abstände erhält. Das heißt es gilt kψ(v) − ψ(w)k = kv − wk für alle v, w ∈ V . Beweis: Gemäß Satz (3.152) und der darauf folgenden Bemerkungen genügt es zu zeigen, dass ψ Affinkombinationen von zwei Vektoren erhält. Sei v, w ∈ V , sowie λ + µ = 1. Dann gelten mit u = φ(λv + µw) die Gleichungen ku − φ(v)k = |µ| kv − wk, ku − φ(w)k = |λ| kv − wk, kφ(v) − φ(w)k = kv − wk. Dieselben Gleichungen gelten auch für ũ = λφ(v) + µφ(w). Wenn wir also zeigen, dass es nur eine Lösung der Gleichungen gibt, so folgt u = ũ und damit die Behauptung. Man kann die Eindeutigkeit mit Hilfe der 2 folgenden Aufgabe nachweisen. 4.85 Aufgabe: Bezeichne für einen Skalarproduktraum Dr (x) := {y ∈ V : kx − yk ≤ r} die ”‘Kugel”’ mit Radius r um x. (1) Wenn dann Dr (x) ⊂ Dρ (y) 4.2. ORTHOGONALITÄT 171 gilt, so gilt r ≤ ρ, und für r < ρ haben Dr (x) und Dρ (y) höchstens einen Punkt gemeinsam. (2) Wenn Dr (x) ⊂ V \ Dρ (y) ist, so haben Dr (x) und Dρ (y) höchstens einen Punkt gemeinsam. 4.2.4 Orthogonale Unterräume Wir haben schon definiert, wann ein Vektor senkrecht auf einem Unterraum ist. Was ist nun die Menge aller Vektoren, die auf einem Unterraum senkrecht stehen? 4.86. Definition: Sei U ein Unterraum eines Skalarproduktraums V . Dann definieren wir U ⊥ := {v ∈ V : v ⊥ U }. 4.87 Aufgabe: Zeigen Sie, dass U ⊥ ein Unterraum von V ist. 4.88 Satz: Sei V ein Skalarproduktraum und U ein Unterraum von V . Dann gilt U ⊆ (U ⊥ )⊥ Wenn V endlich dimensional ist, so gilt U = (U ⊥ )⊥ und V = U ⊕ U ⊥, und daher dim V = dim U + dim U ⊥ . Beweis: Sei u ∈ U . Für alle v ∈ U ⊥ gilt dann v ⊥ u, also auch u ⊥ v. Es folgt u ∈ (U ⊥ )⊥ . Wenn V endlich dimensional ist, so gibt es eine Orthonormalbasis u1 , . . . , uk von U . Wir ergänzen diese Basis zu einer Orthonormalbasis u1 , . . . , uk , uk+1 , . . . , un von V . Falls u= n X λν uν ν=1 in U ⊥ ist, so muss auch hu, uν i = 0 für ν = 1, . . . , k sein. Also λ1 = . . . = λk = 0. Es folgt U ⊥ ⊆ span {uk+1 , . . . , un }. Aber ”‘⊇”’ ist auch leicht zu sehen. Daraus folgt die Behauptung. Da die beiden Basen von U und U ⊥ sich zu einer Basis von V ergänzen, folgt V = U ⊕ U ⊥ . 2 172 KAPITEL 4. DAS SKALARPRODUKT 4.89 Satz: Sei V ein endlich-dimensionaler Skalerproduktraum und E = a + U ein affiner Unterraum von E. Dann gilt für alle v ∈ V d(v, E) = kπU ⊥ (v − a)k, wobei πU ⊥ die orthogonale Projektion auf U ⊥ bezeichne. 4.90 Aufgabe: Beweisen Sie diesen Satz. 4.91 Aufgabe: Was passiert im obigen Satz im Fall dim U = 0 oder dim U = dim V . 4.92. Bemerkung: In unendlich dimensionalen Vektorräumen muss (U ⊥ )⊥ nicht gleich U sein gelten. In C[a, b] gilt beispielsweise P ⊥ = {0}, wobei P der Unterraum aller Polynome (beliebigen Grades) ist mit dem Skalarprodukt aus Beispiel 4.17. Dies folgt aus dem Satz von Weierstraß, auf den wir hier nicht weiter eingehen können. Es gilt also (P ⊥ )⊥ = C[a, b] 6= P. 4.93 Aufgabe: Sei π : V → U die orthogonale Projektion auf den Unterraum U des endlich dimensionalen Skalarproduktraums V . Zeigen Sie Kern π = (Bild π)⊥ . 4.2.5 Die adjungierte Abbildung Die adjungierte Abbildung ist ein in Funktionenräumen wichtiges Hilfsmittel. Wir leiten sie hier nur für endlich dimensionale Räume her. Der folgenden Satz heißt in unendlich dimensionalen Vektorräumen Rieszscher Darstellungssatz. Man benötigt dort aber die zusätzliche Voraussetzungen, dass das Funktional stetig und der Raum ein sogenannter Hilbertraum ist. Wir können hier darauf nicht weiter eingehen. 4.94 Satz: Sei V ein endlich dimensionaler Skalarproduktraum und φ : V → K linear. Dann gibt es genau ein u ∈ V mit φ(v) = hv, ui für alle v ∈ V . Beweis: Falls φ = 0 ist, so erfüllt u = 0 die Darstellung, und man muss auch u = 0 wählen. Ansonsten ist Kern φ eine n − 1-dimensionaler Unterraum von V , wobei n = dim V sei. Wir wählen ũ ∈ (Kern φ)⊥ , kũk = 1. Wir setzen u = φ(ũ) ũ, 4.2. ORTHOGONALITÄT 173 also φ(u) = |φ(ũ)|2 . Jedes v ∈ V lässt sich nun eindeutig darstellen als v = v1 + v2 , v1 ∈ Kern φ, v2 ∈ (Kern φ)⊥ = span {u}. Also existiert ein λ ∈ K mit v2 = λu. Es folgt φ(v) = φ(v2 ) = λφ(u) = λ|φ(ũ)|2 . Andererseits hv, ui = hv1 + λu, ui = λhu, ui = λ|φ(ũ)|2 . Es folgt φ(v) = hv, ui für alle v ∈ V . Wenn ũ ein weiteres Element mit dieser Eigenschaft ist, so folgt hv, u − ũi = hv, ui − hv, ũi = 0 2 für alle v ∈ V . Also u − ũ = 0. 4.95. Bemerkung: Sei V = Kn und h·, ·i ein Skalarprodukt auf V mit darstellender Matrix H. Dann besitzt φ : V → K eine darstellende Matrix. Also existiert ein a ∈ Kn mit φ(v) = aT v für alle v ∈ Kn Wir setzen u = H −1 a, also Hu = a, und erhalten φ(v) = φ(v)T = v T a = v T Hu = hv, ui. Der obige Satz kann also im Kn auf diese einfache Weise bewiesen werden. Auch für den folgenden Satz gibt es einen einfachen Beweis im Kn . Wir geben aber zunächst einen anderen Beweis. 4.96 Satz: Seien V und W endlich dimensionale Skalarprodukträume und φ : V → W linear. Dann gibt es eine eindeutig bestimmte Abbildung φ∗ : W → V mit hφ(v), wi = hv, φ∗ (w)i für alle v ∈ V , w ∈ W . Man nennt diese Abbildung die adjungierte Abbildung. Beweis: Für festes w ∈ W ist die Abbildung v 7→ hφ(v), wi linear. Es folgt die Existenz eines eindeutig bestimmten u ∈ V mit hφ(v), wi = hv, ui für alle v ∈ V . Wir setzen φ∗ (w) = u, und diese Wahl ist auch eindeutig. Es gilt dann also die gewünschte Beziehung für alle v ∈ V , w ∈ W . Um zu zeigen, dass φ∗ linear ist, beachten wir hv, φ∗ (w1 + w2 )i = hφ(v), w1 + w2 i = hφ(v), w1 i + hφ(v), w2 i = hv, φ∗ (w1 )i + hv, φ∗ (w2 )i = hv, φ∗ (w1 ) + φ∗ (w2 )i. 174 KAPITEL 4. DAS SKALARPRODUKT für alle v ∈ V . Es folgt φ∗ (w1 + w2 ) = φ∗ (w1 ) + φ∗ (w2 ). Analog zeigt man φ∗ (λw) = λφ∗ (w). 2 4.97. Definition: Sei φ ein Skalarproduktraum. Dann heißt φ : V → V selbstadjungiert, wenn φ = φ∗ ist. Der folgende Satz erklärt, warum wir Hermitesche Matrizen auch selbstadjungiert nennen. 4.98 Satz: Seien V und W endlich-dimensionale Skalarprodukträume, A eine Orthonormalbasis von V und B eine Orthonormalbasis von W . Dann gilt MB,A (φ∗ ) = MA,B (φ)∗ Eine Abbildung φ : V → V ist also genau dann selbstadjungiert, wenn die darstellende Matrix MA,A (φ) Hermitesch ist. Beweis: Sei λ die Darstellung von v ∈ V bezüglich A und µ die Darstellung von w ∈ W bezüblich B. Da MA,B (φ)λ die Darstellung von φ(v) bezüglich B ist, gilt hφ(v), wi = (MA,B (φ)λ)T µ = λT (MA,B (φ)∗ µ). Ebenso gilt hφ(v), wi = hv, φ∗ (w)i = λT (MB,A (φ∗ )µ). Da dies für alle λ und alle µ gilt, müssen die beiden Matrizen gleich sein. 2 4.99. Bemerkung: Die Abbildung φ(x) = Ax mit A ∈ Kn×n ist also genau dann selbstadjungiert, wenn A Hermitesch ist. 4.3 4.3.1 Anwendungen Ausgleichsrechung und Lineare Regression Ein Spezialfall der orthogonale Projektion tritt auf, wenn der Unterraum die Form U = {Ax : x ∈ Km } = Bild A hat, wobei A ∈ Kn×m eine Matrix ist. Wir suchen das Element minimimalen Abstands zu b ∈ Kn . Dies ist äquivalent damit, den Ausdruck kAx − bk für x ∈ Kn zu minimieren. Man nennt dieses Problem das Problem der Ausgleichsrechnung. Obwohl das System Ax = b nicht lösbar ist, wird ein x ∈ Kn gesucht, das den Fehler kAx − bk minimiert. 4.100 Satz: Sei A ∈ Kn×m und b ∈ Km . Dann minimiert x ∈ Kn genau dann den Fehler kAx − bk 4.3. ANWENDUNGEN 175 wenn es die Normalgleichung A∗ Ax = A∗ b löst. Wenn x0 eine bestimmte Lösung des Ausgleichsproblem ist, so gilt für alle anderen Lösungen x ∈ x0 + Kern A. Falls Rang A = m ist (insbesondere m ≥ n), so ist das Ausgleichsproblem eindeutig lösbar. Beweis: Setzt man U = Bild A, so gibt es ein eindeutig bestimmtes Element u0 = Ax0 ∈ U mit minimalem Abstand zu b. Nach unserer Theorie muss für das x0 gelten b − Ax0 ⊥ u für alle u ∈ U . Es folgt nach Aufgabe 4.9 hb − Ax0 , Axi = hA∗ b − A∗ Ax0 , xi = 0 für alle x ∈ Kn Dies ist nur dann der Fall, wenn A∗ Ax0 = A∗ b gilt. Da u0 eindeutig bestimmt ist, gilt für alle Lösungen x des Ausgleichsproblems Ax = u0 = Ax0 . Also x ∈ x0 + Kern A. Falls umgekehrt x0 die Gleichung A∗ Ax = A∗ b erfüllt, so folgt nach der obigen Rechnung b − Ax ⊥ U . Also ist x eine Lösung des Ausgleichsproblems. Sei nun Rang A = m. Dann folgt aus der Dimensionsformel dim Kern A = 0. 2 Also ist das Ausgleichsproblem eindeutig lösbar. 4.101. Bemerkung: Man beachte, dass m ≥ n der interessante Fall ist. Es sind dann zuviele Gleichungen gegeben. Das lineare Gleichungssystem Ax = b ist dann im Allgemeinen nicht lösbar. Falls m < n ist und A vollen Rang m hat, so besitzt das Gleichungssystem immer mehrere Lösungen, die alle das Ausgleichsproblem lösen. 4.102. Bemerkung: Es gibt eine direktere Methode, die Normalgleichung zu begründen. Sei A∗ Ax0 = A∗ b Durch konjugieren erhält man AT Ax0 = AT b. Dann berechnet man kAx − bk2 = (x − x0 )T AT A(x − x0 ) − xT0 AT Ax0 + bT b. Dieser Ausdruck wird für x = x0 minimal, weil AT A positiv definit ist. Umgekehrt erfüllt jedes Minimum dieses Ausdrucks A(x − x0 ) = 0. 4.103 Aufgabe: Rechnen Sie die Gleichung in der obigen Bemerkung nach. 4.104 Aufgabe: Zeigen Sie Rang A∗ A = Rang A. 176 KAPITEL 4. DAS SKALARPRODUKT 4.105. Beispiel: Das Ausgleichsproblem taucht auch in der linearen Regression auf. Gegeben sind dort Messpunkte t1 , . . . , t n ∈ R m und Messwerte s1 , . . . , sn ∈ R. Gesucht ist ein lineares affines Funktional φa,b (t) = aT t + b, a ∈ Rm , b ∈ R, so dass |φa,b (t1 ) − s1 |, . . . , |φ(tn ) − sn |. möglichst klein wird. Die lineare Regression minimiert nun die quadratische Fehlersumme n X S(a, b) = |φa,b (ti ) − si |2 . i=1 m unter allen a ∈ R , b ∈ R. Setzt man t1,1 M = ... ... t1,m .. . 1 .. , . tn,1 ... tn,m 1 a1 .. x = . , am b s1 s = ... , sn so ist Sa,b = kM x − sk2 für x ∈ Rm+1 zu minimieren. 4.106 Aufgabe: Seien t1 < . . . < tn reelle Punkte und s1 , . . . , sn ∈ R. Minimieren Sie n X (ati + b − si )2 . i=1 Stellen Sie die Normalgleichung mit folgenden Abkürzungen auf Σt = n X i=1 ti , Σs = n X i=1 si , Σtt = n X i=1 t2i , Σst = n X si ti . i=1 und bestimmen Sie auf diese Art und Weise die optimalen Wert a, b. 4.3. ANWENDUNGEN Abbildung 4.3: Lineare Regression einer Geraden. 177 178 KAPITEL 4. DAS SKALARPRODUKT Kapitel 5 Determinanten 5.1 5.1.1 Definition und Eigenschaften Determinante als Fläche Abbildung 5.1: Determinante als Fläche Die Determinante taucht historisch zuerst als Formel zur Flächenberechnung und Volumenberechnung auf. 5.1. Beispiel: Wir versuchen mit elementargeometrischen Überlegungen eine Formel für die die von a und b abhängige Fläche F (a, b) des Parallelogramms 179 180 KAPITEL 5. DETERMINANTEN in Abbildung 5.1 zu gewinnen, also die Fläche von P (a, b) = {λa + µb : 0 ≤ λ, µ ≤ 1}. Dazu bestimmen wir die Höhe des Parallelogramms. Der Vektor b2 b̃ = −b1 steht offenbar senkrecht auf b. Daher kann man die Höhe h durch Projektion von a auf die von b̃ aufgespannte Gerade berechnen, also |h| = |ha, 1 b̃i|. kb̃k Für die Fläche ergibt sich F (a, b) = |h| kbk. Wegen kbk = kb̃k erhält man F (a, b) = |ha, b̃i| = |a1 b2 − a2 b1 |. Als Determinante eine 2 × 2-Matrix muss man also a b det 1 1 = a1 b2 − a2 b1 a2 b2 setzen. 5.2. Beispiel: Im R3 wird die Fläche durch das Volumen von P (a, b, c) = {λ1 a + λ2 b + λ3 b : 0 ≤ λ1 , λ2 , λ3 ≤ 1} ersetzt. Für dieses Volumen gilt ebenfalls eine relativ einfache Formel, nämlich V (a, b, c) = | det(a, b, c)| mit a1 det a2 a3 b1 b2 b3 c1 c2 = a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a1 c2 b3 − b1 a2 c3 − c1 b2 a3 c3 Diese Formel nennt man Regel von Sarrus. Die Begründung für diese Formel liefern wir nach. 5.1.2 Permutationen Zur Entwicklung der Determinante benötigen wir das Vorzeichen (Signum) einer Permutation. Wir haben bereits die Menge aller Permutationen von 1, . . . , n als Sn definiert. Man kann nun jeder Permutation π ∈ Sn ein Vorzeichen sign (π) ∈ {−1, 1} zuordnen, indem man die Anzahl der notwendigen Vertauschungen zählt. Dies geschieht am einfachsten mit der folgenden Definition. 5.3. Definition: Für eine Permutation π ∈ Sn definieren wir Y sign (π) = sign (π(j) − π(i)). 1≤i<j≤n 5.1. DEFINITION UND EIGENSCHAFTEN 181 Dabei ist mit sign auf der rechten Seite das Vorzeichen einer ganzen Zahl gemeint. Man beachte, dass dieses Produkt nicht gleich Null sein kann. 5.4. Bemerkung: Es gilt Q 1≤i<j≤n (π(j) sign (π) = Q 1≤i<j≤n (j − π(i)) − i) Denn der Zähler und der Nenner enthalten bis auf das Vorzeichen dieselben Faktoren, und das Vorzeichen aller Faktoren des Nenners ist positiv. 5.5. Bemerkung: Zählt man die Anzahl der vertauschten Stellen k = |{(i, j) : 1 ≤ i < j ≤ n und π(j) < π(i)}| so gilt offenbar sign (π) = (−1)k . 5.6. Definition: Eine einfache Vertauschung der Elemente i und j, die alle anderen Elemente von {1, . . . , n} festhält, bezeichnen wir als (i j). Allgemein bezeichnen wir für paarweise verschiedene i1 , . . . , ik in {1, . . . , n} mit π = (i1 i2 . . . ik ) die zyklische Permutation π(i1 ) = i2 , . . . , π(ik−1 ) = ik , π(ik ) = i1 . Dabei werden alle anderen Elemente festgehalten. 5.7 Aufgabe: Zeigen Sie für i 6= j sign (i j) = −1. Vertauschungen haben also das Vorzeichen −1. 5.8 Satz: Für zwei Permutationen π1 , π2 ∈ Sn gilt sign (π1 ◦ π2 ) = sign (π1 ) sign (π2 ). Beweis: Es gilt Q sign (π1 ◦ π2 ) = 1≤i<j≤n (π1 (π2 (j)) 1≤i<j≤n (j − i) Q = − π1 (π2 (i))) Q 1≤i<j≤n (π1 (π2 (j)) Q 1≤i<j≤n (π2 (j) − π1 (π2 (i))) 1≤i<j≤n (π1 (j) Q 1≤i<j≤n (j − i) 1≤i<j≤n (π1 (π2 (j)) Q 1≤i<j≤n (j − π1 (i)) Q = 1≤i<j≤n (π2 (j) Q − π2 (i) Wir müssen also nur noch zeigen, dass Q sign (π1 ) = Q 1≤i<j≤n (π2 (j) − π1 (π2 (i))) − π2 (i)) − π2 (i)) − i) . 182 KAPITEL 5. DETERMINANTEN ist. Nun sind aber die Faktoren im Zähler j − i, 1≤i<j≤n bis auf das Vorzeichen identisch mit den Faktoren π2 (j) − π2 (i), 1 ≤ i < j ≤ n. Die Anzahl der Vorzeichenänderungen ist gleich der Anzahl der i, j mit π2 (j) < π2 (i). Dasselbe gilt auch für die Faktoren im Nenner, so dass insgesamt der 2 Bruch gleich bleibt. 5.9 Aufgabe: Zeigen Sie mit Hilfe dieses Satzes sign (i1 . . . ik ) = (−1)k−1 für paarweise verschiedene i1 , . . . , ik in {1, . . . , n}, indem sie diese zyklische Permutation als Produkt von k − 1 Vertauschungen schreiben. 5.10 Aufgabe: Zeigen Sie durch Induktion nach n, dass sich jede Permutation als Produkt von Vertauschungen schreiben lässt. 5.11 Aufgabe: Berechnen Sie in S5 die Permutationen (1 2 3) ◦ (3 4 5), (3 4 5) ◦ (1 2 3), sowie (1 2 3) ◦ (4 5), (4 5) ◦ (1 2 3), und die Vorzeichen dieser Permutationen. Überlegen Sie sich, dass zyklische Permutationen vertauschbar sind, wenn sie keine gemeinsamen Elemente haben. 5.12 Aufgabe: Zeigen Sie, dass sich jede Permutation bis auf die Reihenfolge eindeutig als Produkt von zyklischen Vertauschungen schreiben lässt, die keine gemeinsamen Elemente haben. 5.13 Aufgabe: Zeigen Sie für π ∈ Sn sign π = sign π −1 . 5.14 Aufgabe: Um einen Tisch sitzen n Personen. Bei einem zulässiger Platztausch tauscht eine Person den Platz mit einer anderen, die m Plätze weiter links sitzt (m < n). Zeigen Sie, dass man genau dann durch zulässiges Platztauschen jede Sitzordnung herstellen kann, wenn m und n teilerfremd sind. 5.1.3 Die Determinante Die erste Beobachtung ist, dass das Volumen und die Fläche linear von den einzelnen Vektoren abhängen, wenn jeweils anderen Parameter fest bleiben. 5.15. Definition: Sei V ein Vektorraum über K. Eine Abbildung φ:Vn →K (v1 , . . . , vn ) 7→ φ(v1 , . . . , vn ) ∈ K 5.1. DEFINITION UND EIGENSCHAFTEN 183 heißt Multilinearform, wenn für alle i = 1, . . . , n die Abbildung vi 7→ φ(v1 , . . . , vn ) linear ist, wobei v1 , . . . , vi−1 , vi+1 , . . . , vn fest gehalten werden. 5.16. Beispiel: Mit Hilfe von elementargeometrischen Überlegungen zeigt man für die Fläche des Parallelogramms F (a + ã, b) = F (a, b) + F (ã, b), sowie für λ > 0 F (λa, b) = λF (a, b). Allerdings muss man für negative λ der Fläche ein Vorzeichen zuordnen. Denn für Multilinearformen F (a, b) müsste gelten F (−a, b) = −F (a, b). Für die zweidimensionale Determinante det(a, b) = a1 b2 − a2 b1 zeigt man leicht, dass det(a, b) eine Multilinearform ist. 5.17. Definition: Eine Multilinearform φ : V n → K heißt alternierende Multilinearform, wenn sie 0 ist, sobald zwei Parameter gleich sind. 5.18 Satz: Sei φ : V n → K eine Multilinearform, und K ein Körper mit 1 + 1 6= 0. Dann sind die folgenden Aussagen äquivalent. (1) φ ist alternierend, z.B. φ(v1 , v1 , v3 , . . . , vn ) = 0. (2) φ(v1 , . . . , vn ) ändert sich nicht, wenn man das λ-fachen von vi zu einem vj addiert (j 6= i), z.B. φ(v1 , . . . , vn ) = φ(v1 + λv2 , . . . , vn ). (3) Für v1 , . . . , vn ∈ V , die nicht linear unabhängig sind, gilt φ(v1 , . . . , vn ) = 0 (4) φ ändert das Vorzeichen, wenn man zwei Parameter vertauscht, z.B. φ(v1 , v2 , v3 , . . . , vn ) = −φ(v2 , v1 , v3 , . . . , vn ). Beweis: (1) ⇒ (2): Man hat φ(v1 + λv2 , v2 , . . . , vn ) = φ(v1 , v2 , . . . , vn ) + λφ(v2 , v2 , . . . , vn ) = φ(v1 , v2 , . . . , vn ). 184 KAPITEL 5. DETERMINANTEN (2) ⇒ (3): Sei z.B. v1 = λ2 v2 + . . . + λn vn . Dann folgt durch Subtraktion von λ2 v2 , λ3 v3 etc. von v1 φ(v1 , v2 , . . . , vn ) = φ(0, v2 , . . . , vn ) = 0. (3) ⇒ (4): Wir berechnen z.B. 0 = φ(v1 + v2 , v1 + v2 , v3 , . . . , vn ) = φ(v1 , v1 , . . . , vn ) + φ(v1 , v2 , . . . , vn ) + φ(v2 , v1 , . . . , vn ) + φ(v2 , v2 , . . . , vn ) = φ(v1 , v2 , . . . , vn ) + φ(v2 , v1 , . . . , vn ). Es folgt die Behauptung. (4) ⇒ (1): Es gilt z.B. φ(v1 , v1 , v3 , . . . , vn ) = −φ(v1 , v1 , v3 , . . . , vn ), woraus φ(v1 , v1 , v3 , . . . , vn ) = 0 folgt, wenn x + x 6= 0 ist für alle x 6= 0. Dies ist genau dann der Fall, wenn 1 + 1 6= 0 in K ist. 2 5.19. Bemerkung: Falls 1 + 1 = 0 ist, so zeigt der Beweis des Satzes, dass die Aussagen (1) bis (3) immer noch äquivalent sind, und das aus ihnen die Aussage (4) folgt. Aber aus Aussage (4) muss nicht mehr folgen, dass φ alternierend ist. Als Gegenbeispiel beachte man, dass in K = {0, 1} für alle Elemente x = −x gilt. Jede Multilinearform auf diesem Körper erfüllt daher (4). Es gibt aber nicht alternierende Multilinearformen. 5.20. Beispiel: Die zweidimensionale Determinante ist alternierend. In der Tat gilt für a, b ∈ R2 det(a, b) = a1 b2 − a2 b1 = −(b1 a2 − b2 a1 ) = − det(b, a). 5.21. Bemerkung: Sei φ : V n → K eine alternierende Multilinearform und v1 , . . . , vn ∈ V . Dann ist φ(vν1 , . . . , vνn ) für 1 ≤ ν1 , . . . , νn ≤ n also genau dann ungleich 0, wenn νi = π(i) für eine Permutation π ∈ Sn ist. In diesem Fall kann man die Parameter durch sign π Vertauschungen umordnen und erhält folglich φ(vπ(1) , . . . , vπ(n) ) = sign (π) · φ(v1 , . . . , vn ). 5.22 Satz: Es gibt genau eine alternierende Multilinearform mit n Parametern auf dem K n , die durch φ(e1 , . . . , en ) = 1 5.1. DEFINITION UND EIGENSCHAFTEN 185 normiert ist. Beweis: Sei φ(a1 , . . . , an ) eine normierte alternierende Multilinearform. Sei a1 , . . . , an ∈ K n , und a1,i n .. X ai = . = aν,i eν . an,i ν=1 Dann berechnen wir φ(a1 , . . . , an ) = n X aν1 ,1 φ(eν1 , a2 , . . . , an ) ν1 =1 = ... n n X X = aν1 ,1 . . . aνn ,n φ(eν1 , . . . , eνn ) ν1 =1 νn =1 X = aν1 ,1 · . . . · aνn ,n φ(eν1 , . . . , eνn ) 1≤ν1 ,...,νn ≤n = X aπ(1),1 · . . . · aπ(n),n sign (π). π∈Sn Die letzte Gleichheit gilt, weil wir alle Summanden weglassen können, bei denen zwei ki gleich sind. Damit haben wir die eindeutige Bestimmtheit von φ gezeigt. Wir müssen noch zeigen, dass diese Formel eine alternierende, normierte Multilinearform φ definiert. Es ist leicht zu sehen, dass φ eine Multilinearform ist. Sei zum Beispiel a1 = a2 . Dann gilt mit der Vertauschung σ = (1 2) aπ(1),1 aπ(2),2 . . . aπ(n),n sign (π) = −aπ◦σ(1),2 aπ◦σ(2),1 . . . aπ◦σ(n),n sign (π ◦ σ). Die Abbildung π 7→ π ◦ σ ist aber bijektiv, so dass die Permutationen π und π ◦ σ in Paaren auftreten. Daraus folgt φ(a1 , a1 , a3 . . . , an ) = 0. Falls a1 = e1 , . . . , an = en ist, so gilt aπ(i),i = 0 für π(i) 6= i. Es folgt φ(e1 , . . . , en ) = sign (id) = 1. Also ist φ eine alternierende, normierte Multilinearform auf dem K n . 2 5.23. Definition: Die durch den obigen Satz eindeutig definierte alternierende Multilinearform φ nennt man Determinantenform. Man definiert für Matrizen A ∈ K n×n die Determinante det A = φ(a1 , . . . , an ), 186 KAPITEL 5. DETERMINANTEN wobei a1 , . . . , an die Spalten von A sind. Die Formel det A = X aπ(1),1 · . . . · aπ(n),n sign (π). π∈Sn nennt man Leibnitz-Formel. 5.24. Beispiel: Die Leibnitzsche Formel ergibt sofort die Formel a a1,2 det 1,1 = a1,1 a2,2 − a1,2 a2,1 . a2,1 a2,2 für die Determinante einer Matrix aus K 2×2 . Denn in S2 gibt es nur die zwei Permutationen id und (1 2). Auch die Regel von Sarrus folgt sofort aus dieser Formel. a1,1 a1,2 a1,3 det a2,1 a2,2 a2,3 a3,1 a3,2 a3,3 = a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3 − a1,3 a2,2 a3,1 . Denn hier besteht S3 aus id, den beiden Verschiebungen und den drei Vertauschungen. 5.25 Satz: Es gilt für A ∈ K n×n det A = det AT . Beweis: Wenn π die Permutationen in Sn durchläuft, so durchläuft π −1 ebenfalls alle Permutationen in Sn . Man zeigt also mit Hilfe der Leibnitzschen Formel X det A = aπ(1),1 · . . . · aπ(n),n sign (π) π∈Sn = X a1,π−1 (1) · . . . · an,π−1 (n) sign (π) π∈Sn = X a1,π−1 (1) · . . . · an,π−1 (n) sign (π −1 ) π∈Sn = X a1,π̃(1) · . . . · an,π̃(n) sign (π̃) π̃∈Sn = det AT . 2 5.26. Bemerkung: (1) Aufgrund dieses Satzes und Satz 5.18 ändert sich die Determinante nicht, wenn man das λ-fache einer Zeile oder Spalte zu einer anderen addiert. 5.1. DEFINITION UND EIGENSCHAFTEN 187 (2) Vertauschungen von Zeilen oder Spalten ändern allerdings das Vorzeichen der Determinante. (3) Multiplikation einer Zeile oder Spalte mit λ multipliziert die Determinante mit λ. Mit Hilfe dieser Operationen und dem folgenden Satz kann man die Determinante von Matrizen mit dem Gauß-Algorithmus berechnen. 5.27 Satz: Für obere Dreiecksmatrizen ist die Determinante das Produkt der Diagonalelemente, also d1 ∗ .. det = d1 · . . . · dn . . 0 dn Dasselbe gilt für untere Dreiecksmatrizen. Beweis: Falls eines der Diagonalelemente 0 ist, so ist die Determinante 0, weil dann eine der Spalten von den vorherigen linear abhängig ist. Seien also alle Diagonalelemente verschieden von 0. Dann kann man durch Zeilenoperationen, die die Determinante nicht ändern, die Matrix auf Diagonalform bringen, also mit Hilfe der Linearität und der Normierung d1 ∗ d1 0 .. .. det = det . . 0 dn 0 dn = d1 · . . . · dn · det(In ) = d1 · . . . · dn . 2 5.28 Aufgabe: Berechnen Sie 2 1 det . .. 1 1 2 .. . ... ... .. . .. . 1 1 .. . 1 2 Ziehen Sie dazu die (n − 1)-te Spalte von der n-ten ab etc., und addieren Sie dann die n-te Zeile zur (n − 1)-ten Zeile etc. Der folgende Satz ist von zentraler Bedeutung und eine der wesentlichsten Anwendungen der Determinante. 5.29 Satz: A ∈ K n×n ist genau dann regulär wenn det A 6= 0 ist. Eine quadratische Matrix ist genau dann regulär, wenn ihre Determinante ungleich 0 ist. 188 KAPITEL 5. DETERMINANTEN Beweis: Aufgrund von Satz 5.18 ist die Determinante von nicht regulären Matrizen gleich 0. Sei andererseits A regulär. Dann lässt A sich mit elementaren Zeilenumformungen auf Diagonalgestalt mit Diagonaleinträgen ungleich 0 bringen. Dabei ändert sich höchstens das Vorzeichen der Determinanten. Also folgt det A 6= 0. 2 5.30 Satz: Für A, B ∈ K n×n gilt det(AB) = (det A)(det B). Beweis: Falls det A = 0 ist, so ist A nicht regulär wegen Satz 5.18. Deswegen ist AB ebenfalls nicht regulär. Es folgt in diesem Fall wieder mit Hilfe von Satz 5.18 det AB = 0. Sei also det A 6= 0 und daher A regulär. Wir zeigen dann, dass φ(B) = det(AB) det(A) eine Determinantenform in B ist. Daraus folgt φ(B) = det B wegen der Eindeutigkeit der Determinante. Schreibt man allerdings φ in der Form φ(b1 , . . . , bn ) = 1 det(Ab1 , . . . , Abn ), det A so ist leicht zu sehen, dass φ eine alternierende Multilinearform ist. φ(In ) = 1 ist ebenfalls erfüllt. 2 5.31. Bemerkung: Der Determinantenmultiplikationssatz kann auch mit Hilfe von Satz 3.122 bewiesen werden. Dazu genügt offensichtlich, dass det(EA) = det(E) det(A) für Elementarmatrizen E und beliebige quadratische Matrizen A ist. 5.32 Aufgabe: Zeigen Sie für reguläre Matrizen A ∈ K n×n det A−1 = 1 . det A 5.33 Aufgabe: Zeigen Sie, dass ähnliche Matrizen dieselbe Determinante haben. 5.34. Definition: Nach der obigen Aufgabe hängt die Determinante nicht von der darstellenden Matrix ab. Man kann also die Determinante det φ eines Endomorphismus φ : V → V durch det φ = det MA,A (φ) definieren, wenn V ein endlich dimensionaler Vektorraum und A eine Basis von V ist. 5.1. DEFINITION UND EIGENSCHAFTEN 189 Der folgende Entwicklungssatz von Laplace gibt eine weitere Möglichkeit, die Determinante zu berechnen. Der Aufwand ist allerdings gegenüber dem Gauß-Algorithmus erheblich. 5.35 Satz: Zu einer Matrix A ∈ K n×n bezeichnen wir mit Ai,j ∈ K (n−1)×(n−1) die Matrix, die aus A entsteht, indem man die i-te Zeile und die j-te Spalte streicht. Dann gilt für alle j = 1, . . . , n det A = n X (−1)i+j ai,j det Ai,j . i=1 Ebenso gilt für alle i = 1, . . . , n det A = n X (−1)i+j ai,j det Ai,j . j=1 Beweis: Wir zeigen die zweite Gleichung, indem wir zeigen, dass φ(a1 , . . . , an ) = n X (−1)i+j ai,j det Ai,j j=1 für festes i ∈ {1, . . . , n} eine alternierende, normierte Multilinearform ist. Daraus folgt die Behauptung. Die erste Gleichung folgt durch Transponieren wegen Satz 5.25. Es gilt zum Beispiel φ(a1 + ã1 , a2 , . . . , an ) = (ai,1 + ãi,1 ) det Ai,1 n X + (−1)i+j ai,j (det Ai,j + det Ãi,j ) j=2 = n X (−1)i+j ai,j det Ai,j + j=1 n X (−1)i+j ãi,j det Ãi,j j=1 = φ(a1 , . . . , an ) + φ(ã1 , . . . , an ). Dabei entstehe die Matrix à aus A, indem man die erste Spalte a1 durch ã1 ersetzt. Analog zeigt man die multiplikative Linearität. φ ist also eine Multilinearform. Wenn etwa die ersten beiden Spalten von A gleich sind, so heben sich die ersten beiden Summanden von φ gegeneinander auf und die anderen Summanden sind gleich 0. Analog behandelt man alle anderen Fälle von gleichen Spalten. Man rechnet sofort nach, dass φ(e1 , . . . , en ) = 1 gilt. φ ist also auch normiert. 2 190 KAPITEL 5. DETERMINANTEN 5.36. Bemerkung: Man beachte das Vorzeichen (−1)i+j . Die Verteilung dieses Vorzeichens in einer Matrix ist schachbrettartig, etwa für 3 × 3-Matrizen + − + − + − . + − + 5.37. Beispiel: Entwickelt man die 2 1 1 2 .. An = . 0 Determinante von 0 1 .. .. ∈ Rn×n . . 1 2 1 1 2 nach der ersten Spalte, so erhält man 1 1 det An = 2 det An−1 − det 0 0 2 .. . 1 .. . 1 .. . 2 1 0 1 2 Entwickelt man diese Matrix wieder nach der ersten Zeile, so erhält man die Rekursionsformel det An = 2 det An−1 − det An−2 . mit den Anfangswerten det A1 = 2, det A2 = 3. Man zeigt per Induktion det An = n + 1. 5.38 Aufgabe: Berechnen Sie diese Determinante mit dem Gauß-Algorithmus. 5.39 Aufgabe: Leiten Sie die Formeln für die Determinante von 2 × 2-Matrizen und 3 × 3-Matrizen durch Entwicklung nach der ersten Spalte her. Der folgende Satz ist oft sehr nützlich, um Determinanten zu berechnen, wenn Matrizen vorliegen, die aus Blöcken von Matrizen bestehen, so dass die Blöcke in der Diagonalen quadratisch sind und unterhalb dieser Blöcke nur 0 steht. Man nennt solche Matrizen Blockdiagonalmatrizen. 5.40 Satz: Sei A eine Matrix der Form D1 ∗ n×n .. A= . ∈K . 0 Dk Dabei seien die Matrizen D1 , . . . , Dk selbst wieder quadratische Matrizen. Dann gilt det(A) = det(D1 ) · . . . · det(Dk ). 5.2. ANWENDUNGEN 191 5.41 Aufgabe: Beweisen Sie diesen Satz, indem Sie Gauß-Transformationen auf A anwenden. 5.42. Beispiel: 1 2 det 0 0 2 1 0 0 ∗ ∗ ∗ ∗ = (1 − 4) · 2 · 3 = −18. 2 ∗ 0 3 5.43 Aufgabe: Berechnen Sie für x −1 det x ∈ R und a0 , . . . , an ∈ R an x an−1 .. .. .. . . . −1 x a1 −1 a0 + x Alle nicht bezeichneten Matrixelemente sind dabei gleich 0. 5.2 5.2.1 Anwendungen Cramersche Regel Man kann die Determinante anwenden, um Gleichungssysteme oder das Inverse von Matrizen zu berechnen. Der Aufwand ist aber meist höher, so dass es sich mehr um theoretische Ergebnisse handelt. 5.44 Satz: Sei A ∈ K n×n regulär, und Ax = b für x, b ∈ K n . Dann gilt die Cramersche Regel det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) det A wobei a1 , . . . , an die Spalten von A bezeichnen. Für die Komponenten der Inversen Matrix à = A−1 gilt xi = (−1)i+j det Aj,i . det A Dabei bezeichne Aj,i wieder die Matrix, die aus A entsteht, indem man die j-te Zeile und die i-te Spalte streicht. ãi,j = Beweis: Wegen Ax = b gilt x1 a1 + . . . + xn an = b. Mit entsprechenden Spaltenoperationen folgt xi det A = det(a1 , . . . , ai−1 , xi ai , ai+1 , . . . , an ) n X = det(a1 , . . . , ai−1 , xν aν , ai+1 , . . . , an ) ν=1 = det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ). 192 KAPITEL 5. DETERMINANTEN Wegen det A 6= 0 folgt die Behauptung. Die j-te Spalte der Inversen ist die Lösung der Gleichung Aãj = ej . Nach der Cramerschen Regel und dem Entwicklungssatz von Laplace mit Entwicklung nach der i-ten Spalte 1 det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an ) det A (−1)i+j det Aj,i = det A ãi,j = 2 5.45 Aufgabe: Leiten Sie mit Hilfe dieses Satzes Formeln für die Inverse von A ∈ K 2×2 her und für die Lösungen von Gleichungssystem Ax = b. 5.46 Aufgabe: Zu x0 < x1 < x2 in R und y0 , y1 , y2 ∈ R sei ein quadratisches Polynom p(x) = a + bx + cx2 gesucht mit p(xi ) = yi , i = 0, 1, 2. Schreiben Sie dieses Problem als lineares Gleichungssystem und finden Sie Formeln für a, b, c mit Hilfe der Cramerschen Regel. 5.2.2 Das Kreuzprodukt 5.47. Beispiel: Wir suchen zu zwei Vektoren a, b ∈ R3 einen senkrechten Vektor c ⊥ a, c ⊥ b, c 6= 0. Skaliert man den Vektor willkürlich durch λ1 c1 + λ2 c2 + λ3 c3 = 1 ist, so ergibt sich folgendes Gleichungssystem λ1 λ2 λ3 c1 1 a1 a2 a3 c2 = 0 b1 b2 b3 c3 0 Nach der Cramerschen Regel und Entwicklung nach der jeweiligen Spalte erhält man zum Beispiel 1 0 0 1 1 det 0 a2 a3 = (a2 b3 − a3 b2 ). c1 = det M det M 0 b2 b3 wobei M die obige Matrix bezeichne. Also c= wobei 1 c̃, det M a2 b3 − a3 b2 c̃ = a × b = −(a1 b3 − a3 b1 ) a1 b2 − a2 b1 5.2. ANWENDUNGEN 193 das sogenannte Kreuzprodukt von a und b bezeichnet. Entwickelt man die Determinante von M nach der letzten Spalte, so erhält man det M = λ1 c̃1 + λ2 c̃2 + λ3 c̃3 . Wenn a und b nicht linear abhängig sind, so überlegt man sich, dass nicht alle c̃i gleich 0 sein können. Man kann dann λi = c̃i , c̃21 + c̃22 + c̃23 i = 1, 2, 3, wählen. Damit folgt det M = 1 und c = c̃ = a × b. 5.48 Aufgabe: Zeigen für a, b ∈ R3 a × b = 0 ⇔ a und b sind linear abhängig. 5.49 Aufgabe: Was ändert sich in den obigen Überlegungen, wenn K = C ist? 5.50 Aufgabe: Zeigen Sie, dass φ(a, b) = a × b eine alternierende Bilinearform φ : R3 × R3 → R3 ist. 5.51 Aufgabe: Zeigen Sie, dass ka × bk die Fläche F des von a und b aufgespannten Parallelogramms ist. Betrachten Sie dazu 1 c= (a × b) ka × bk und berechnen Sie das Volumen des von a, b, c aufgespannten Zylinders auf F mit Höhe 1, indem Sie det(a, b, c) berechnen. Hinweis: Die Rechnung steht praktisch in der obigen Herleitung von a × b, wenn man die Determinante von (a, b, c)T berechnet. 5.52. Definition: Man kann die Definition des Kreuzprodukts im R3 für v1 , . . . , vn−1 ∈ Rn verallgemeinern, indem man die Matrix T v1 .. M = . T vn−1 betrachtet. Bezeichne Mi ∈ Rn−1×n−1 die Matrix M , bei der die i-te Spalte gestrichen wurde. Man definiert dann w = v1 × . . . × vn−1 durch wi = (−1)n+i det Mi , für alle i = 1, . . . , n. 5.53 Aufgabe: Zeigen Sie v1 × . . . × vn−1 ⊥ vi für alle i = 1, . . . , n − 1 Zeigen Sie außerdem kv1 × . . . × vn−1 k2 = det(v1 , . . . , vn−1 , v1 × . . . × vn−1 ) Folgern Sie, dass die Abbildung (v1 , . . . , vn−1 ) 7→ v1 × . . . × vn−1 das Vorzeichen ändert, wenn man zwei Vektoren vertauscht, dass sie also alternierend ist. Zeigen Sie, dass diese Abbildung multilinear ist. 194 5.2.3 KAPITEL 5. DETERMINANTEN Volumen und Fläche Wir haben schon zu Beginn dieses Kapitels darauf hingewiesen, dass die Determinante Volumen und Flächen berechnen kann. Genauer gilt der folgende Satz. 5.54 Satz: Seien a1 , . . . , an ∈ Rn und µ das Riemann-Maß (oder das Lebesgue-Maß) auf dem Rn . Dann gilt n X | det(a1 , . . . , an )| = µ{ λi ai : 0 ≤ λi ≤ 1 für i = 1, . . . , n}. i=1 Mangels exakter Definition eines der Maße können wir diesen Satz hier nicht beweisen. Der folgende Satz wird durch die Volumenformel motiviert, und wir können ihn im Rahmen unserer Theorie beweisen. 5.55 Satz: Seien a1 , . . . , an ∈ Rn . Dann gilt | det(a1 , . . . , an )| ≤ n Y kai k. i=1 Dabei ist die Norm die Euklidsche Norm. Gleichheit tritt genau dann auf, wenn die Vektoren a1 , . . . , an ein Orthogonalsystem bilden. Beweis: Wir führen das Orthogonalisierungsverfahren von Schmidt durch und wandeln a1 , . . . , an in ein Orthogonalsystem ã1 , . . . , ãn um. Im k-ten Schritt sind ã1 , . . . , ãk orthogonal und es gilt ãk+1 = ak+1 − vk , vk ∈ span {ã1 , . . . , ãk }. Außerdem haben wir ak+1 − vk ⊥ ãi für i = 1, . . . , k. Also kãk+1 k2 = kak+1 k2 − kvk k2 ≤ kak+1 k2 . Für die Matrix à = (ã1 , . . . , ãn ) gilt nun kã1 k2 ∗ .. Ãà = . 0 Also n Y 0 kãn k2 . kãi k2 = det(ÃÃ∗ ) = det(Ã)det(ÃT ) = | det(Ã)|2 . i=1 Da die Operationen des Schmidtschen Orthogonalisierungsverfahrens die Determinante nicht ändern, folgt insgesamt | det(A)| = | det(Ã)| = n Y i=1 kãi k ≤ n Y kai k. i=1 Gleichheit kann nur auftreten, wenn in jedem Schritt vk = 0 ist, also die Vektoren a1 , . . . , an schon paarweise senkrecht stehen. 2 5.2. ANWENDUNGEN 195 5.56. Bemerkung: Wir notieren als wichtige Folgerung, dass eine Matrix mit normierten Spalten genau dann eine Determinante vom Betrag 1 hat, wenn sie orthogonal ist. 5.57. Bemerkung: Für Endomorphismen φ : Rn → Rn gibt die Determinante den Verzerrungsfaktor für Volumina an. Es gilt für messbare Mengen µ(φ(K)) = det(φ)K. Falls K der Einheitswürfel ist, so folgt dies aus unseren Überlegungen, denn φ(K) wird von den Bildern der Einheitsvektoren aufgespannt. Für allgemeine K beweist man diese Formel in der Maß- und Integrationstheorie. Man hat sogar allgemeiner die Transformationsformel Z Z f (x) dµ(x) = f (φ(x))| det(Jφ(x))| dµ(x). φ(K) K für integrierbare Funktionen f und bijektive, stetig differenzierbare Funktionen φ. Dia Matrix Jφ(x) ist die Ableitungsmatrix (Jordanmatrix) von φ. 5.2.4 Positiv definite Matrizen Wir haben schon festgestellt, dass eine Matrix A ∈ Kn×n genau dann ein Skalarprodukt hx, yi = xT Ay definiert, wenn A positiv definit ist. Das heißt, A = A∗ und xT Ax > 0 für alle x 6= 0. Der folgende Satz gibt ein handliches Kriterium für positive Definitheit, das man Hurwitz-Kriterium nennt. 5.58 Satz: Sei A ∈ Kn×n , A = A∗ . Dann ist A genau dann positiv definit, wenn alle Hauptminoren positiv sind, das heißt es gilt a1,1 . . . a1,k .. > 0 det ... . ak,1 ... ak,k für alle 1 ≤ k ≤ n. Beweis: Sei A positiv definit. Wir führen den Beweis durch Induktion nach n. Für n = 1 ist die Behauptung klar. Für n > 1 gilt zunächst eT1 Ae1 = a1,1 > 0. Wir können also durch elementare Zeilenumformungen die Elemente a2,1 , . . . , an,1 zu 0 machen. Dies ist äquivalent zur Multiplikation mit einer regulären Elementarmatrix R von links. Wir setzen à = RAR∗ . 196 KAPITEL 5. DETERMINANTEN Da die Multiplikation mit R∗ von rechts nur auf die zweite bis n-te Spalte wirkt, gilt ã2,1 = . . . = ãn,1 = 0. Außerdem Ã∗ = RA∗ R∗ = RAR∗ = Ã. Also hat à die Gestalt à = a1,1 0 0 H mit einer Matrix H ∈ Kn−1×n−1 mit H = H ∗ . Es gilt nun xT Ãx = (RT x)A(RT x). Also ist à genau dann positiv definit, wenn A positiv definit ist. Andererseits berechnet man xT Ãx = a1,1 x21 + x̃T H x̃. mit x2 x̃ = ... . xn Also ist A genau dann positiv definit, wenn a1,1 > 0 ist und H positiv definit ist. Bezeichnen wir mit Ãi die i-te Untermatrix von A und mit Hi die i-te Untermatrix von H. Dann gilt a1,1 0 Ãi = . 0 Hi−1 Außerdem haben wir nur Vielfache der ersten Spalte oder Zeile zu den anderen Spalten bzw. Zeilen addiert. Es gilt also det Ai = det Ãi = a1,1 det Hi−1 . Da H also positiv definit ist, folgt per Induktionsvoraussetzung det Hi−1 > 0 für i = 2, . . . , n, und schließlich die Behauptung. Seien umgekehrt alle Hauptminoren positiv. Wieder verwenden wir Induktion nach n. n = 1 ist klar. Sonst folgt a1,1 > 0 und wir können wie oben die Matrix à definieren. Es folgt, dass alle Hauptminoren von H positiv sind, und H nach Induktionsvoraussetzung positiv definit. Wie oben gezeigt, ist dann auch à und damit A positiv definit. 2 5.59. Bemerkung: Eine Matrix A heißt negativ definit, wenn −A positiv definit ist, also xT Ax < 0 für alle x 6= 0. Als Bedingung ergibt sich also det A1 < 0, det A2 > 0, . . . . 5.2. ANWENDUNGEN 197 Analog kann man eine positiv semidefinite und negativ semidefinite Matrix definieren. Es genügt aber für positive Semidefinitheit nicht, dass alle Hauptminoren größer oder gleich 0 sind. Ein Beispiel ist 0 0 0 A = 0 1 0 0 0 −1 Alle Hauptminoren sind 0, also nicht negativ. Dennoch ist A indefinit. Das heißt es gibt x mit xT Ax > 0 und es gibt x mit xT Ax < 0. Mit Hilfe von Eigenwerten werden wir später beweisen, dass reguläre Matrizen, die weder positiv noch negativ definit sind, indefinit sein müssen. 5.60 Aufgabe: Zeigen Sie, dass es für jede indefinite Hermitesche Matrix A ∈ Kn×n ein x ∈ Kn gibt mit xT Ax = 0. 5.61 Aufgabe: Zeigen Sie, dass für jede reguläre Matrix A ∈ Kn×n die Matrizen A∗ A und AA∗ positiv definit sind. 5.2.5 Dreieckstraversalen Wir erinnern daran, dass das Dreieck ABC die konvexe Hülle der Punkte A, B, C ∈ R2 ist. Wenn A, B und C nicht auf einer Geraden liegen, so lässt sich jeder Punkte X ∈ R2 eindeutig in mit baryzentrischen Koordinaten X = λ1 A + λ2 B + λ3 C λ1 + λ2 + λ3 = 1 schreiben. Wir erinnern außerdem daran, dass die Gerade durch A, B ∈ R2 der erzeugte affine Unterraum ist, und genau die Punkte X ∈ R2 enthält, die sich als X = λ1 A + λ2 B λ1 + λ2 = 1 schreiben lassen. 5.62. Definition: Für A, B, C ∈ R2 definieren wir die Abbildung φ : R3 → R2 durch φ(λ) = λ1 A + λ2 B + λ3 C 5.63 Aufgabe: Zeigen Sie, dass φ die Ebene E = {x ∈ R3 : x1 + x2 + x3 = 1} linear und bijektiv auf den R2 abbildet. 5.64 Aufgabe: Zeigen Sie, dass dann das Dreieck ABC das Bild der konvexen Hülle der Einheitsvektoren e1 , e2 , e3 ∈ R3 unter φ ist. 5.65 Satz: Seien A, B, C ∈ R2 nicht auf einer Geraden. 198 KAPITEL 5. DETERMINANTEN (1) Dann gibt es zu jeder Geraden G ∈ R2 Zahlen µ1 , µ2 , µ3 ∈ R, so dass G als die Menge aller Punkte X ∈ R2 ist, die sich als X = λ1 A + λ2 B + λ3 C µ1 λ1 + µ2 λ2 + µ3 λ3 = 0 λ1 + λ2 + λ3 = 1 schreiben lassen. (2) Diese Menge ist genau dann eine Gerade, wenn µ1 , µ2 , µ3 nicht alle gleich sind. Beweis: (1) F = φ−1 (G) ist eine Ebene im R3 , die die Ebene E mit λ1 + λ2 + λ3 = 1 schneidet. Man kann schreiben F = {λ ∈ R3 : µ1 λ1 + µ2 λ2 + µ3 λ3 = 1} wobei µ nicht auf E senkrecht steht, weil F nicht parallel zu E ist. Es folgt, dass alle Punkte von G eine Darstellung der verlangten Form haben. (2) Wenn alle µi gleich sind, so ist die Menge leer oder gleich dem R2 . Ansonsten ist die Menge aller λ ∈ R2 mit µ1 λ1 + µ2 λ2 + µ3 λ3 = 0 λ1 + λ2 + λ3 = 1 eine Gerade im R3 die ganz in E liegt. Das Bild unter φ ist also eine Gerade in 2 R2 . Der folgende Satz ist bekannt als der Satz von Ceva. 5.66 Satz: Seien A1 , A2 , A3 ∈ R2 nicht auf einer Geraden und X1 , X2 , X3 ∈ R2 mit baryzentrischen Koordinaten Xi = λi,1 A1 + λi,2 A2 + λi,3 A3 für i = 1, 2, 3. Dann schneiden sich die Geraden A1 X1 , A2 X2 , A3 X3 genau dann in einem Punkt oder sie sind parallel zueinander, wenn λ1,2 λ2,3 λ3,1 = λ1,3 λ2,1 λ3,2 ist. Beweis: Wir stellen die Geraden Ai Xi in der Form des vorigen Satzes dar. Für A1 X1 bedeutet dies X = λ1 A1 + λ2 B1 + λ3 C1 , λ1,3 λ2 − λ1,2 λ3 = 0, λ1 + λ2 + λ3 = 1, 5.2. ANWENDUNGEN 199 Abbildung 5.2: Satz von Ceva weil man leicht nachprüft, dass dann A1 und X1 auf der Geraden liegen. Für den Schnittpunkt aller Geraden ergibt sich ein Gleichungssystem 0 λ1,3 −λ1,2 λ1 0 λ2,3 0 −λ2,1 λ2 = 0 . 0 λ3,2 −λ3,1 0 λ3 Die Determinante dieser Matrix ist λ1,2 λ2,3 λ3,1 − λ1,3 λ3,2 λ2,1 . Wenn die Determinante ungleich 0 ist, so schneiden sich die Geraden also nicht, da dann λ = 0 die einzige Lösung ist. Wenn die Determinante gleich 0 ist, so sind ist zum Beispiel die dritte Zeile der Matrix von den ersten beiden linear abhängig. Das bedeutet, dass jeder Schnittpunkt von A1 X1 und A2 X2 auch auf A3 X3 liegt. Damit schneiden sich die Geraden in einem Punkt oder sie sind parallel zueinander. 2 5.67. Beispiel: In Abbildung 5.2 gilt zum Beispiel X3 = A1 + α1 β1 α1 (A2 − A1 ) = A1 + A2 . α1 + β1 α1 + β1 α1 + β1 Es folgt λ3,1 β1 = . λ3,2 α1 Analog λ1,2 β1 = , λ1,3 α1 λ2,3 β2 = . λ2,1 α2 200 KAPITEL 5. DETERMINANTEN Man erhält den Satz von Ceva in der Form α1 α2 α3 = β1 β2 β3 . Aus dem Satz folgt zum Beispiel sofort, dass sich die Seitenhalbierenden in einem Dreieck in einem Punkt schneiden. Um den gemeinsamen Schnittpunkt der Mittelsenkrechten und der Winkelhalbierenden zu zeigen, wird allerdings eine andere Idee genutzt. 5.68. Beispiel: Die Mittelsenkrechte von AB ist die Menge der Punkte, die von A und B den gleichen Abstand haben, also kX − Ak = kX − Bk. Nach Quadrieren und Vereinfachen sieht man, dass dies äquivalent mit 2hX, A − Bi = kAk2 − kBk2 ist. Insbesondere ist dies eine Gerade. Der Punkt (A + B)/2 auf der Mittelsenkrechten und sie steht senkrecht auf AB. Es ist auch leicht zu zeigen, dass jeder Schnittpunkt von zwei Mittelsenkrechten auf der dritten liegt, denn kX − Ak = kX − Bk und kX − Bk = kX − Ck ⇒ kX − Ak = kX − Ck. 5.69 Aufgabe: Zeigen Sie, dass die Menge der Punkte, die von zwei sich kreuzenden Geraden gleichen Abstand haben, zwei sich im rechten Winkel kreuzende Geraden sind (den Winkelhalbierenden). Zeigen Sie, dass es einen Punkt im Dreieck gibt, der von allen drei Seiten den gleichen Abstand hat. Bei den Höhen kann man eine andere Technik verwenden. 5.70. Beispiel: Wir nehmen wieder an, dass A, B und C nicht auf einer Geraden liegen. Die Punkte auf der Höhe durch A auf BC haben offenbar die Eigenschaft hX − A, C − Bi = 0. Dies ist eine Geradengleichung, und man kann nach dem Höhenschnittpunkt fragen. Es ist nun recht leicht zu sehen, dass der Schnittpunkt zweier Höhen auf der dritten liegt. Dazu addiert man zum Beispiel die Gleichungen hX, C − Bi = hA, C − Bi hX, B − Ai = hC, B − Ai für die Höhe durch A und C und erhält hX, C − Ai = hB, C − Ai, also die Gleichung der dritten Höhe. Man kann dies auch in folgendem Gleichungssystem ausdrücken. C1 − B1 C2 − B2 hA, C − Bi X1 0 B1 − A1 B2 − A2 hC, B − Ai X2 = 0 . A1 − C1 A2 − C2 hB, A − Ci −1 0 5.2. ANWENDUNGEN 201 Dieses System muss von einem Höhenschnittpunkt erfüllt werden. Da die dritte Zeile Summe der beiden anderen ist, so hat das System höchstens den Rang 2. Es gibt also eine Lösung λ ∈ R3 . Falls für diese Lösung λ3 = 0 ist, so müssen die ersten beiden Spalten linear abhängig sein, also auch die obere linke 2 × 2Untermatrix. Deren Zeilen sind aber C − B und B − A. Dies kann nicht sein, weil sonst A, B und C auf einer Geraden liegen. Es folgt, dass sich alle drei Höhen in genau einem Punkt schneiden. 5.71 Aufgabe: Benutzen Sie dieselbe Beweisidee, um zu zeigen, dass sich die Mittelsenkrechten in einem Punkt schneiden. 202 KAPITEL 5. DETERMINANTEN Kapitel 6 Eigenwerte 6.1 6.1.1 Definition und Eigenschaften Polynome Zur Vorbereitung auf die Berechnung von Eigenwerten halten wir hier einige Resultate über Polynome fest. 6.1. Definition: Sei K ein Körper und a0 , . . . , an ∈ K. Dann heißt ein Ausdruck der Form P (X) = a0 + a1 X + . . . + an X n ein Polynom über K. Die Menge aller Polynome über K bezeichnet man als K[X]. Auf ihr ist in naheliegender Weise eine Addition und eine Multiplikation definiert. Falls an 6= 0 ist, so heißt n der Grad von P . n = deg P. Mengentheoretisch ist ein Polynom also eine Folge a0 , a1 , a2 , . . . von Koeffizienten, von denen nur endlich viele ungleich 0 sind. 6.2 Aufgabe: Definieren Sie die Multiplikation von Polynomen exakt, indem Sie die Koeffizienten des Produktes angeben. 6.3. Bemerkung: Man benötigt für die Definition des Polynomraums eigentlich nur, dass K ein kommutativer Ring ist. Der einzige Unterschied zu einem Körper ist, dass bei einem kommutativen Ring auf das Inverse der Multiplikation verzichtet wird. Ein kommutativer Ring R heißt nullteilerfrei, wenn für alle a, b ∈ R gilt ab = 0 ⇔ a = 0 oder b = 0. Wie wir wissen, ist jeder Körper ein nullteilerfreier Ring. 6.4 Aufgabe: Zeigen Sie, dass R[X] ein nullteilerfreier Ring ist, wenn R ein nullteilerfreier Ring ist. Zeigen Sie, dass dann gilt P Q1 = P Q2 ⇒ Q1 = Q2 . 203 204 KAPITEL 6. EIGENWERTE für alle P, Q1 , Q2 ∈ R[X], P 6= 0 und deg P Q = deg P + deg Q für alle P, Q ∈ R[X]. 6.5. Bemerkung: Der Polynomring K[X] über dem Körper K ist auch ein Vektorraum über K. Eine Basis dieses Vektorraums bilden die Polynome 1, X, X 2, . . . Denn jedes Polynom ist offenbar eindeutig als endliche Linearkombination dieser Polynome zu schreiben. 6.6. Bemerkung: Ein Polynom P ∈ K[X] kann auch als Abbildung P : K → K gedeutet werden, indem man x ∈ K für X einsetzt. Die Abbildung φ : K[X] → A(K, K) φ(a0 + a1 X + . . . + an X n )(x) = a0 + a1 x + . . . + an xn , ist in der Tat linear. Sie erhält auch die Multiplikation, also φ(P Q)(x) = φ(P )(x)φ(Q)(x). Wir nennen diese Abbildung Auswertungsabbildung für Polynome. Leider ist die Auswertungsabbildung im Allgemeinen nicht injektiv. Im Körper K = {0, 1} erzeugen die Polynome X 2 und X dieselbe Abbildung, weil für jedes x in diesem Körper x2 = x gilt. Ein x ∈ K, das in P ∈ K[X] eingesetzt 0 ergibt, heißt Nullstelle von P . Die wichtigste Technik für Polynome ist das Ausdividieren. 6.7 Satz: Seien P, Q ∈ K[X] Polynome über einem Körper K, deg Q > 0. Dann gibt es Polynome F, R ∈ K[X] mit P (X) = Q(X)F (X) + R(X) und deg R < deg Q. Das Polynom Q wird also aus dem Polynom P ausdividiert, so dass der Rest R einen kleineren Grad als Q hat. Beweis: Der Beweis wird mit Induktion nach deg P geführt. Man beachte, dass er für deg Q > deg P trivial ist, weil man F = 0 und R = P wählen kann. Der Induktionsanfang ist also erfüllt. Sei nun P (X) = a0 + . . . + an X n , Q(X) = b0 + . . . + bm X m , an , bm 6= 0. Dann gilt P (X) = an n−m X Q(X) + P̃ (X) bm mit deg P̃ (X) < deg P . Aufgrund der Induktionsannahme folgt wie gewünscht P (X) = an n−m X Q(X) + F̃ (X)Q(X) + R(X) = F (X)Q(X) + R(X). bm 6.1. DEFINITION UND EIGENSCHAFTEN 205 2 6.8. Beispiel: Der Beweis folgt exakt dem Divisionsalgorithmus, den man schon aus der Schule kennt. Als Beispiel dividieren wir X − 2 aus X 2 − 2 aus. X 2 − 2 = X(X − 2) + (2X − 2) = X(X − 2) + 2(X − 2) + 2 = (X + 2)(X − 2) + 2. Der folgende Satz zeigt, dass für die wichtigsten Körper die Auswertungsabbildung injektiv ist. Dort ist es also egal, ob wir ein Polynom als Ausdruck oder als Abbildung auffassen. Insbesondere lässt sich jede Abbildung, die von einem Polynom erzeugt wird, mit eindeutig bestimmten Koeffizienten als Polynom darstellen. 6.9 Satz: Ein Polynom n-ten Grades über einem Körper K kann höchstens n verschiedene Nullstellen haben. Für einen Körper K mit unendlich vielen Elementen ist die Auswertungsabbildung folglich injektiv. Beweis: Sei Pn (X) = a0 + a1 X + . . . + an X n ∈ K[X], an 6= 0 und x1 , . . . , xn Nullstellen von P . Man kann dann das Polynom X − x1 aus P ausdividieren und erhält Pn (X) = Pn−1 (X)(X − x1 ) + cn . Einsetzen von X = x1 ergibt cn = 0. Außerdem sind x2 , . . . , xn die Nullstellen von Pn−1 . Induktiv erhält man durch weiteres Ausdividieren Pn (X) = an (X − x1 ) · . . . · (X − xn ). Nun ist offenbar, dass Pn keine weiteren Nullstellen haben kann. Wenn nun P ein Polynom ist, das als Funktion immer 0 liefert, so ergibt sich sofort eine Widerspruch, wenn P 6= 0 ist und K unendlich viele Elemente enthält. Also ist der Kern der Auswertungsfunktion {0} und die Auswertung folglich injektiv. 2 Wir haben damit bewiesen, dass jedes Polynom P ∈ K[X] mit n paarweise verschiedenen Nullstellen in bis auf die Reihenfolge eindeutige Linearfaktoren zerfällt. P (X) = an (X − x1 ) · . . . · (X − xn ). In der Tat ist die eindeutige Darstellung auch richtig, wenn die Nullstellen mit Vielfachheit vorkommen. Dies zeigt der folgende Satz von der eindeutigen Primfaktorzerlegung. 6.10. Definition: Ein nicht konstantes Polynom P ∈ K[X] heißt Primpolynom oder irreduzibel, wenn es nicht Produkt von nicht konstanten Polynomen kleineren Grades ist. 6.11 Satz: Jedes nicht konstante Polynom P ∈ K[X] mit höchstem Koeffizient 1 über einem Körper K zerfällt bis auf die Reihenfolge eindeutig in ein Produkt aus Primpolynomen mit höchstem Koeffizient 1. 206 KAPITEL 6. EIGENWERTE Beweis: Die Existenz ist klar, weil man Polynome mit höchstem Koeffizient 1 solange in Faktoren kleineren Grades mit höchstem Koeffizient 1 zerlegen kann, bis keine weitere Zerlegung mehr möglich ist. In diesem Fall hat man ein Produkt aus Primpolynomen vor sich. Die Eindeutigkeit folgt aus dem folgenden Satz. Denn seien P1 · . . . · Pn = Q1 · . . . · Qm Produkte aus Primpolynomen, so muss nach diesem Satz P1 letztendlich eines der Qi teilen. Da Qi prim ist, muss P1 = αQi mit einer Konstanten α ∈ K sein. Da aber beide Polynome den höchsten Koeffizienten 1 haben sollen, folgt Pi = Qi . 2 6.12 Satz: Sei P ein Primpolynom, das ein Produkt Q1 Q2 teilt. Dann teilt P mindestens eines der Polynome Q1 oder Q2 . Beweis: Angenommen, P teilt Q1 nicht. Der Beweis wird dann mit Hilfe des Euklidschen Algorithmus geführt. Dazu dividieren wir P aus Q1 aus, und fahren mit dem Ausdividieren in folgender Weise fort. Q1 = P F1 + R1 , P = R1 F2 + R2 , R1 = R2 F3 + R3 .. . Rk−2 = Rk−1 Fk + Rk , Rk−1 = Rk Fk+1 + c. Die Grade der Reste Ri werden streng monoton kleiner, bis schließlich nur eine Konstante c ∈ K übrig bleibt. Wenn c = 0 wäre, so würde Rk alle Reste Rk−1 , . . . , R1 teilen und deswegen auch P . Dies ist ein Widerspruch dazu, dass P irreduzibel ist. Indem man von unten nach oben Rk , . . . , R1 aus den Werten der vorigen Zeile einsetzt, erhält man c = H1 Q1 + H2 P. mit irgendwelchen Polynomen H1 , H2 ∈ K[X]. Dann gilt aber cQ2 = H1 Q1 Q2 + H2 P Q2 . P teilt die rechte Seite dieser Gleichung, also auch die linke. Es folgt, dass P 2 das Polynom Q2 teilt. 6.13. Bemerkung: Derselbe Beweis kann in jedem Ring angewendet werden, in dem der Euklidsche Algorithmus Sinn macht. Für die ganzen Zahlen terminiert er offenbar mit c = 0 oder c = 1. Man kann also mit diesem Algorithmus und dem obigen Beweis zeigen, dass die Primfaktorzerlegung in Z eindeutig ist, und, wie die folgenden Aufgaben zeigen, den größten gemeinsamen Teiler von zwei 6.1. DEFINITION UND EIGENSCHAFTEN 207 Zahlen berechnen, sowie multiplikative Inverse im Restklassenkörper modulo einer Primzahl. 6.14 Aufgabe: Angenommen der Euklidsche Algorithmus, gestartet mit Q und P , terminiert mit c = 0. Zeigen Sie dann, dass Rk die Polynome P und Q teilt und dass sich Rk = H1 Q + H2 P schreiben lässt. Folgern Sie, dass Rk ein Polynom höchsten Grades ist, dass P und Q gemeinsam teilt (größter gemeinsamer Teiler). Zeigen Sie, dass der größte gemeinsame Teiler von P und Q bis auf ein konstantes Vielfaches eindeutig bestimmt ist. Bestimmen Sie den größten gemeinsamen Teiler von X 2 + 2X + 1 und X 2 − 1 mit dem Euklidschen Algorithmus. 6.15 Aufgabe: Berechnen Sie mit dem Euklidschen Algorithmus a, b ∈ Z mit 57a + 103b = 1. Berechnen Sie auf diese Weise das multiplikative Inverse von 57 im Restklassenkörper Z103 . Der Beweis des folgenden Satzes gehört in die Analysis. Man nennt den Satz den Hauptsatz der Algebra. 6.16 Satz: Jedes Polynom P ∈ C[X] zerfällt bis auf die Reihenfolge eindeutig in Linearfaktoren aus C[X]. Jedes Polynom P ∈ R[X] zerfällt bis auf die Reihenfolge eindeutig in lineare oder quadratische Primpolynome aus R[X]. Beweis: Zum Beweis dieses Satzes benötigen wir lediglich ein Ergebnis, das mit Methoden der Analysis bewiesen werden muss. Jedes Polynom P ∈ C[X] hat mindestens eine Nullstelle in C. Aufgrund von Induktion zerfällt also jedes Polynom in C[X] in Linearfaktoren, indem man eine Nullstelle nach der anderen ausdividiert. Für reelle Polynome stellt sich heraus, dass mit a + ib auch der konjugierte Wert a − ib Nullstelle ist. Fasst man diese Nullstellen paarweise zusammen, so hat man (X − (a + ib))(X − (a − ib)) = (X − a)2 + b = X 2 − 2aX + a2 + b. Diese Polynome sind für b 6= 0 prim in R[X]. 2 6.17 Aufgabe: Zeigen Sie für ein reelles Polynom p, dass mit z auch z Nullstelle von p ist. 6.18 Aufgabe: Seien a0 , . . . , an−1 ∈ Z und p(x) = a0 + . . . + an−1 xn−1 + xn . Zeigen Sie, dass jede Nullstelle z ∈ Q von p automatisch ganzzahlig ist und Teiler von a0 . 6.19. Bemerkung: Man kann den Polynomring K[X] wie auch jeden anderen nullteilerfreien, kommutativen Ring in einen Körper erweitern. In diesem Fall entsteht der Ring der rationalen Funktionen R(K[X]) = { P : P, Q ∈ R[X], P, Q teilerfremd, Q = X n + . . .}. Q 208 KAPITEL 6. EIGENWERTE Wir verzichten auf die Details. Wichtig ist die Folgerung, dass man nun Determinanten von Matrizen mit Einträgen aus K[X] berechnen kann, indem man wie gewohnt im Körper R(K[X]) rechnet. 2−X 1 det = (2 − X)2 − 1 = X 2 − 4X + 3. 1 2−X Es gelten automatisch alle Regeln über Determinanten. 6.20. Bemerkung: Wir definieren die Ableitungsabbildung D : K[X] → K[X] als D(a0 + a1 X + . . . + an X n ) = a1 + 2a2 X + . . . + nan X n−1 , wobei kx für k ∈ N und x ∈ K in natürlicher Weise als Summe von n Summanden x definiert sei. Entsprechend definieren wir die k-te Ableitung Dk (P ). 6.21 Aufgabe: (a) Zeigen Sie für alle P, Q ∈ K[X] D(P + Q) = D(P ) + D(Q) D(P · Q) = D(P ) · Q + P · D(Q). (b) Zeigen Sie, dass λ ∈ K genau dann k-fache Nullstelle von P ∈ K[X] ist (dass also (X − λ)k das Polynom P teilt), wenn P (λ) = . . . = Dk−1 (P )(λ) = 0 ist. 6.1.2 Eigenwerte und Eigenvektoren Um das Verhalten von iterierten linearen Abbildungen An x zu studieren, ist es nützlich, wenn der Vektor x die Eigenschaft hat, dass Ax = λx ist. In diesem Fall gilt nämlich offenbar An x = λn x. Diese Idee führt zur folgenden Definition. 6.22. Definition: Sei φ : V → V linear, V ein Vektorraum über dem Körper K. Dann heißt ein v ∈ V Eigenvektor zum Eigenwert λ ∈ K, wenn v 6= 0 ist und φ(v) = λv gilt. Ein Eigenvektor einer Abbildung ist ein Vektor v 6= 0, der durch die Abbildung einfach nur um einen Faktor λ gestreckt wird. 6.23. Bemerkung: Natürlich gilt φ(0) = λ0 für jedes λ ∈ K. Deswegen wird v = 0 ausgeschlossen. 6.24. Bemerkung: Falls φ(x) = Ax ist, so bezeichnet man die Eigenwerte von φ auch einfach als Eigenwerte der Matrix A. Wir werden sehen, dass die Eigenwerte jeder darstellenden Matrix von φ gleich sind. 6.25 Aufgabe: Zeigen Sie, dass φ genau dann injektiv ist, wenn es nicht den Eigenwert 0 hat. 6.26. Beispiel: Sei 2 A= 1 1 2 ∈ R2×2 . 6.1. DEFINITION UND EIGENSCHAFTEN 209 Dann gilt 1 3 1 A = =3 1 3 1 und 1 A −1 1 −1 = 1 =1 . −1 Wir haben also eine Basis aus Eigenvektoren 1 1 , 1 −1 von A mit zugehörigen Eigenwerten 3, 1. 6.27. Bemerkung: Wenn v1 , . . . , vn Eigenvektoren zu Eigenwerten λ1 , . . . , λn sind und v = µ1 v1 + . . . + µn vn so ist offenbar φ(v) = µ1 λ1 v1 + . . . + µn λn vn und weiter m φm (v) = µ1 λm 1 v1 + . . . + µn λn vn Wenn alle Eigenwerte ungleich 0 sind, so gilt das sogar für alle m ∈ Z, zum Beispiel µn µ1 v1 + . . . + vn , φ−1 (v) = λ1 λn wie man sofort nachrechnet. Man kann also φm (v) für alle v ∈ span {v1 , . . . , vn } recht bequem berechnen. Es liegt also nahe, dass man daran interessiert ist, eine Basis aus Eigenvektoren zu bekommen. 6.28. Definition: Sei A ∈ K n×n . Dann heißt χA (λ) = det(A − λIn ) das charakteristische Polynom von A. Für eine lineare Abbildung φ : V → V auf einem endlich dimensionalen Vektorraum V über K definieren wir χφ (λ) = χA (λ), wobei A die darstellende Matrix von φ bezüglich irgendeiner Basis A von V sei, also A = MA,A (φ). 6.29. Bemerkung: Es gilt offenbar χA (λ) ∈ K[λ], und der Grad dieses Polynoms ist genau n. Dies folgt unmittelbar aus dem Entwicklungssatz. a1,1 − λ . . . a1,n .. .. .. χA (λ) = det . . . . an,1 ... an,n − λ 210 KAPITEL 6. EIGENWERTE 6.30 Satz: Das charakteristische Polynom einer Abbildung φ : V → V hängt nicht von der Wahl der Basis ab. Beweis: Seien A, B Basen von V . Dann gilt MA,A (φ) = HMB,B (φ)H −1 mit der regulären Matrix H = MB,A (id). Es folgt det(MA,A (φ) − λIn ) = det(H(MB,B (φ) − λIn )H −1 ) = det(H) det(MB,B (φ) − λIn ) det(H −1 ) = det(MB,B (φ) − λIn ). Dabei rechnen wir im Körper R(K[X]) der rationalen Funktionen über X. 2 6.31. Bemerkung: Im Fall von unendlichen Körpern K können wir im obigen Beweis auch einfach festhalten, dass die berechnete Gleichheit für alle λ ∈ K gilt. Daraus folgt die Gleichheit der charakteristischen Polynome. 6.32. Definition: Die Spur einer Matrix A ∈ K n×n ist die Summe der Diagonalelemente Spur (A) = a1,1 + . . . + an,n . Die Spur einer Abbildung ist erstaunlicherweise unabhängig von der Basisdarstellung, ebenso wie die Determinante. Für die Determinante haben wir das schon bewiesen. 6.33 Satz: Für das charakteristische Polynom einer Matrix A ∈ K n×n gilt χA (λ) = (−1)n λn + (−1)n−1 Spur (A)λn−1 + . . . + det(A). Ähnliche Matrizen haben dasselbe charakteristische Polynom und daher die gleiche Spur und Determinante. 6.34 Aufgabe: Beweisen Sie diesen Satz. Mit Hilfe des folgenden Satzes können wir alle Eigenwerte eines Endomorphismus auf einem endlich dimensionalen Vektorraums berechnen. 6.35 Satz: Sei φ : V → V linear und V ein endlich dimensionaler Vektorraum über K. Dann ist λ genau dann Eigenwert von φ, wenn es Nullstelle des charakteristischen Polynoms χφ ist. Beweis: Sei λ ∈ K Eigenwert. Dann gibt es ein x 6= 0 mit φ(x) = λx. Wir wählen eine Basis A von V und bezeichnen mit A die darstellende Matrix von φ bezüglich A. Sei x̃ die Darstellung von x bezüglich A, also x = φA (x̃), 6.1. DEFINITION UND EIGENSCHAFTEN 211 Wir haben nun Ax̃ = (φ−1 A ◦ φ ◦ φA )(x̃) −1 = φA (λx) = λφ−1 A (x) = λx̃. Also ist λ auch Eigenwert der Matrix A. Es folgt (A − λIn )x̃ = 0. Wegen x̃ 6= 0 muss also det(A − λIn ) = 0 sein. Dies bedeutet aber, dass λ Nullstelle des charakteristischen Polynoms von 2 A ist. Die Umkehrung geht ganz analog. 6.36. Bemerkung: Wir haben auch gleich gezeigt, wie man alle Eigenvektoren zu λ berechnet. Es sind dies die Lösungen von x 6= 0. φ(x) = λx, Mit Hilfe einer darstellenden Matrix A haben wir also das lineare Gleichungssystem (A − λIn )x̃ = 0 zu lösen. Man erhält als Lösungsraum den Eigenraum von λ Eig λ (φ) = {x ∈ V : φ(x) = λx}. Die Eigenvektoren sind dann die Vektoren Eig λ (φ) \ {0}. 6.37. Beispiel: Sei wieder A= 1 ∈ R2×2 . 2 2 1 Dann gilt χA (λ) = det(A − λI2 ) = 2−λ 1 1 = λ2 − 4λ + 3. 2−λ Die Nullstellen dieses Polynoms sind λ1 = 1, λ2 = 3. Um zugehörige Eigenvektoren zu bekommen lösen wir die Gleichungssysteme 2−λ 1 x = 0. 1 2−λ 212 KAPITEL 6. EIGENWERTE Man erhält 1 Eig 3 (A) = span { }, 1 1 Eig 1 (A) = span { }. −1 Zur Probe berechnen wir 1 3 1 A = =3 1 3 1 und 1 1 1 A = =1 . −1 −1 −1 Wir erhalten also eine Basis aus Eigenvektoren 1 1 , 1 −1 von A. 6.38 Aufgabe: Sei A ∈ Cn×n und λ ∈ C ein Eigenwert von A. Zeigen Sie |λ| ≤ max 1≤i≤n n X |ai,j |. j=1 6.39 Aufgabe: Zeigen Sie, dass A ∈ K n×n und AT die gleichen Eigenwerte haben. 6.40 Aufgabe: Berechnen Sie das charakteristische Polynom und alle Eigenwerte von a 1 ... 1 . .. .. 1 . .. . , (a ∈ R). A= . .. .. . 1 1 ... 1 a Subtrahieren Sie dazu zunächst die letzte Zeile von allen anderen und addieren dann das 1/(a − 1 − X)-fache der ersten n − 1 Zeilen von der letzten. 6.41 Aufgabe: Sei A ∈ Kn×n und λ ∈ K ein Eigenwert von A (K = R oder K = C). Zeigen Sie n X |λ| ≤ max |ai,j |. 1≤i≤n 6.1.3 j=1 Diagonalisierbarkeit 6.42. Definition: Ein Endomorphismus φ : V → V heißt diagonalisierbar, wenn er eine Basis aus Eigenvektoren besitzt. 6.43. Bemerkung: Falls V endlich dimensional ist, so bedeutet dies, dass es eine Basis gibt, bezüglich derer φ eine Diagonalmatrix als darstellende Matrix hat. Jede darstellende Matrix von φ ist daher ähnlich zu einer Diagonalmatrix. 6.44 Satz: Sei A ∈ K n×n und v1 , . . . , vn eine Basis aus Eigenvektoren von A zu Eigenwerten λ1 , . . . , λn . Dann gilt A = HDH −1 6.1. DEFINITION UND EIGENSCHAFTEN 213 mit der Diagonalmatrix λ1 .. D= . λn und H = (v1 , . . . , vn ). A ist also ähnlich zur Diagonalmatrix D. Umgekehrt hat jede Matrix A, die ähnlich zu einer Diagonalmatrix ist, eine Basis aus Eigenvektoren. Beweis: Offenbar AH = (Av1 , . . . , Avn ) = (λ1 v1 , . . . , λn vn ) = HD. Wenn umgekehrt diese Gleichung gilt, so sind v1 , . . . , vn Eigenvektoren von A 2 zu λ1 , . . . , λn . 6.45. Beispiel: Es gilt 2 1 1 = 1 2 1 1 3 −1 0 0 1/2 1 1/2 1/2 . −1/2 6.46. Bemerkung: Aufgrund dieses Satzes kann man sehr leicht Potenzen von Matrizen auswerten, oder auch Matrizen in Polynomausdrücke einsetzen. Zunächst gilt Am = (HDH −1 )m = (HDH −1 ) · . . . · (HDH −1 ) = HDm H −1 , weil sich Paare von H und H −1 wegheben. Dm ist aber sehr leicht zu berechnen, nämlich m λ1 .. Dm = . . m λn Wenn A regulär ist, so gilt dies auch für negative m ∈ Z. Man definiert dabei natürlich A0 = In , A−n = (A−1 )n . Dasselbe kann man für Polynomausdrücke machen. am Am + . . . + a1 A + a0 = H(am Dm + . . . + a1 D + a0 In )H −1 . Also gilt für alle Polynome p ∈ K[X] p(λ1 ) .. p(A) = Hp(D)H −1 = H −1 H . p(λn ) 6.47 Aufgabe: Berechnen Sie 2 1 1 2 m 214 KAPITEL 6. EIGENWERTE 6.48. Bemerkung: Mit Hilfe eines geeigneten Grenzwertbegriffs kann man auf diese Weise auch Potenzreihen in A auswerten. Man erhält zum Beispiel λ e 1 ∞ X 1 ν −1 .. eA := A =H H . . ν! ν=0 eλ n Dieses Thema gehört in die Analysis. 6.49 Aufgabe: Überzeugen Sie sich davon, dass das Kommutativgesetz für Polynomausdrücke von Matrizen gilt. Das heißt, dass für Polynome P und Q, in die eine quadratische Matrix A eingesetzt wird, gilt P (A)Q(A) = Q(A)P (A). Allgemeiner gilt für quadratische Matrizen A, B AB = BA ⇒ P (A)Q(B) = Q(B)P (A). 6.50. Beispiel: Wir haben zwei sehr große Gruppen von Personen. Durchschnittlich wechselt die Hälfte der Gruppe 1 in jedem Jahr nach Gruppe 2, ein Drittel von Gruppe 2 wechselt nach Gruppe 1. Wenn x1 , x2 die Gruppengrößen sind, so erhält man für die neuen erwarteten Größen x̃1 , x̃2 x̃1 = 1/2x1 + 1/3x2 , Also x 7→ x̃ = 1/2 1/2 x̃2 = 1/2x1 + 2/3x2 . 1/3 · x = A · x. 2/3 Das charakteristische Polynom von A ist det(A − λI2 ) = 6λ2 − 7λ + 1 . 6 mit den Nullstellen λ1 = 1, Zugehörige Eigenvektoren sind 2/5 v1 = , 3/5 λ2 = 1/6. v2 = 1/2 −1/2 Für x = av1 + bv2 gilt dann Am x = aAm v1 + bAm v2 m = aλm 1 v1 + bλ2 v2 b = av1 + m v2 6 → av1 . 6.1. DEFINITION UND EIGENSCHAFTEN 215 Die Gruppengröße tendiert also zu Vielfachen von v1 . Also werden auf die Dauer 2/5 in Gruppe 1 und 3/5 in Gruppe 2 sein. Um dasselbe mit Matrizen zu rechnen, setzen wir 1 0 D= 0 1/6 und M= 2/5 3/5 1/2 . −1/2 Man erhält die Darstellung A = M · D · M −1 2/5 1/2 1 = 3/5 −1/2 0 Also für Am 2/5 1/2 1 3/5 −1/2 0 0 1/6m 0 1/6 1 6/5 1 2 1 = −4/5 5 3 1 6/5 1 . −4/5 1 2 3 + m 3 −3 5·6 −2 . 2 Mit m → ∞ hat man 1/6m → 0, und man berechnet 1 2 2 Am → 5 3 3 Also Am x → 2/5(x1 + x2 ) . 3/5(x1 + x2 ) Dies bestätigt das schon oben gewonnene Ergebnis. 6.51 Aufgabe: Die Matrix A habe wie im Beispiel die Eigenschaft AT 1 = 1 mit 1 . 1 = .. . 1 und nur nicht-negative Einträge. Man nennt A dann eine stochastische Matrix. Zeigen Sie, dass A den Eigenwert 1 hat. Zeigen Sie, dass alle Eigenwerte von A den Betrag kleiner oder gleich 1 haben. Wir beschäftigen uns nun noch mit Matrizen, die keine Basis aus Eigenvektoren haben. Dies kann der Fall sein, obwohl das charakteristische Polynom über K vollständig in Linearfaktoren zerfällt. Zunächst aber ein Hilfssatz. 6.52 Satz: Sei φ : V → V ein Endomorphismus eines endlich dimensionalen Vektorraums über K, und U ⊆ V ein Unterraum von V mit φ(U ) ⊆ U. 216 KAPITEL 6. EIGENWERTE Sei χφ das charakteristische Polynom von φ und χφ|U das charakteristische Polynom von φ, eingeschränkt auf U . Dann ist χφ|U ein Teiler von χφ , lässt sich also ohne Rest ausdividieren. Beweis: Wir wählen eine Basis b1 , . . . , bk von U und ergänzen zu einer Basis b1 , . . . , bn von V . Die darstellende Matrix von φ bezüglich dieser Basis B hat dann die Gestalt M1 ∗ M= 0 M2 mit Matrizen M1 ∈ K k×k und M2 ∈ K n−k×n−k . Außerdem ist M1 die darstellende Matrix von φ|U bezüglich b1 , . . . , bk . Es folgt χφ|U (λ) = det(M1 − λIk ) und χφ (λ) = det(M1 − λIk ) · det(M2 − λIn−k ). 2 Es folgt die Behauptung. 6.53. Definition: Sei φ : V → V ein Endomorphismus des endlich dimensionalen Vektorraums V und λ0 eine Nullstelle des charakteristischen Polynoms χφ . Dann ist die algebraische Vielfachheit von λ die maximale Potenz k, so dass sich (λ − λ0 )k aus χφ (λ) ausdividieren lässt. Die geometrische Vielfachheit von λ ist die Dimension des Eigenraums Eig λ . 6.54 Satz: Die geometrische Vielfachheit eines Eigenwertes ist kleiner oder gleich der algebraischen Vielfachheit. Beweis: Der Eigenraum ist offenbar ein Unterraum, der durch die Abbildung in sich selbst abgebildet wird. Natürlich besitzt der Eigenraum eine Basis aus Eigenvektoren. Es gilt also für das charakteristische Polynom auf dem Eigenraum E = Eig λ0 mit Dimension n χφ|E = (λ − λ0 )n . Es folgt aus dem vorigen Satz, dass dieses Polynom das gesamte charakteristische Polynom teilt. Also ist die geometrische Vielfachheit von λ0 kleiner oder gleich der algebraischen Vielfachheit von λ0 . 2 6.55 Aufgabe: (a) Seien λ1 , . . . , λk paarweise verschiedene Eigenwerte eines Endomorphismus φ : V → V , sowie 0 6= vi ∈ Eigλi für alle i = 1, . . . , k. Zeigen Sie, dass dann v1 , . . . , vk linear unabhängig sind. (b) Folgern Sie, dass für endlich dimensionales V , ein Endomorphismus φ : V → V genau dann diagonalisierbar ist, wenn k X dim Eigλi (φ) = dim V i=1 gilt, wobei λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von φ sind. 6.56 Satz: Ein Endomorphismus φ : V → V auf einem n-dimensionalen Vektorraum ist genau dann diagonalisierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt und alle geometrischen Vielfachheiten gleich den algebraischen Vielfachheiten sind. 6.1. DEFINITION UND EIGENSCHAFTEN 217 Insbesondere ist er diagonalisierbar, wenn sein charakteristisches Polynom n paarweise verschiedene Nullstellen hat. Beweis: Da ein diagonalisierbarer Endomorphismus eine Basis hat mit darstellender Matrix als Diagonalmatrix, zerfällt das charakteristische Polynom in Linearfaktoren. Denn dies ist für Diagonalmatrizen der Fall. Außerdem ist die Summe der geometrischen Vielfachheiten mindestens n, da φ ja eine Basis aus Eigenvektoren besitzt. Da die Summe der algebraischen Vielfachheiten gleich n ist, folgt die Gleichheit der geometrischen und algebraischen Vielfachheiten aus dem vorigen Satz. Wenn umgekehrt das charakteristische Polynom zerfällt und die geometrischen gleich den algebraischen Vielfachheiten sind, muss die Summe der geometrischen Vielfachheiten n sein. Es gibt also eine Basis aus Eigenvektoren. Die letzte Behauptung folgt daraus, dass die geometrische Vielfachheit jedes 2 Eigenvektors mindestens 1 ist. 6.57 Aufgabe: Berechnen Sie alle Eigenwerte und Eigenräume der Matrix 1 1 1 1 0 1 1 1 A= 0 0 2 1 0 0 0 2 6.58 Aufgabe: Berechnen Sie für a ∈ K alle Eigenwerte und Basen der zugehörigen Eigenräume der Matrix a 1 Aa = . .. 1 1 .. .. . . ... ... .. . .. . 1 1 ∈ K n×n 1 a Anstatt die Diagonalisierbarkeit zu fordern, kann man oft wenigstens eine ähnliche obere Dreiecksmatrix erreichen. Wir werden diesen Sachverhalt später noch verschärfen, indem wir eine spezielle Gestalt für die obere Dreiecksmatrix fordern. 6.59 Satz: Eine Matrix A ∈ K n×n ist genau dann ähnlich zu einer oberen Dreiecksmatrix, wenn χA in Linearfaktoren zerfällt. Beweis: Da das charakteristische Polynom einer oberen Dreiecksmatrix in Linearfaktoren zerfällt, folgt die eine Richtung aus Satz 6.33. Der Beweis der anderen Richtung geht mit Induktion nach n. n = 1 ist klar. Sei n > 1. Aufgrund der Annahme gibt es einen Eigenwert λ1 von A und dazu einen Eigenvektor v1 . Wir ergänzen v1 zu einer Basis v1 , . . . , vn von K n und erhalten als darstellende Matrix von φA (x) = Ax die Matrix λ1 zT à = 0 An−1 218 KAPITEL 6. EIGENWERTE mit einem z ∈ K n . Es gilt für die Matrix An−1 ∈ K n−1×n−1 χA (X) = (λ1 − X)χAn−1 (X). Also zerfällt auch das charakteristische Polynom von An−1 in Linearfaktoren, und An−1 ist aufgrund der Induktionsannahme ähnlich zu einer oberen Dreiecksmatrix Rn−1 , also −1 Ãn−1 = Hn−1 Rn−1 Hn−1 . Nun folgt λ1 0 zT An−1 1 · 0 0 Hn−1 λ1 z T Hn−1 = 0 An−1 Hn−1 λ1 z T Hn−1 = 0 Hn−1 Rn−1 1 0 λ1 z T Hn−1 = · . 0 Hn−1 0 Rn−1 Dies zeigt, dass die Matrix à ähnlich zu einer oberen Dreiecksmatrix ist, also 2 auch die Matrix A, die ja ähnlich zu à ist. 6.60 Aufgabe: Finden Sie eine obere Dreiecksmatrix, zu der 2 −1 A= 1 0 ähnlich ist. Geben Sie die Matrix H an, die die Ähnlichkeit vermittelt. 6.61 Aufgabe: Sei A ∈ K n×n eine Matrix, die nicht den Eigenwert 1 hat. Zeigen Sie, dass dann In − A invertierbar ist, und dass In + A + . . . + Am = (In − Am+1 )(In − A)−1 für alle m ∈ N gilt. 6.62 Aufgabe: (a) Sei A ∈ K n×n , v0 , b ∈ K n und vm+1 = Avm + b, m ∈ N0 . Geben Sie eine Summenformel für vm an. (b) Vereinfachen Sie diese Formel für den Fall, dass A nicht den Eigenwert 1 hat. (c) Sei speziell A= 3 1 1 3 ∈ Rn×n und v0 = 0, b = e1 . Geben Sie mit Hilfe von (b) und einer Hauptachsentransformation von A eine explizite Formel für die Komponenten von vm an. (d) Wieder gelte v0 = 0, b = e1 . Die Matrix 2 1 A= ∈ Rn×n 1 2 hat den Eigenwert 1. Deswegen muss man in diesem Fall anders rechnen. Stellen Sie dazu b als Linearkombination der Eigenvektoren dar, und finden Sie so erneut eine Formel für vm . 6.1. DEFINITION UND EIGENSCHAFTEN 6.1.4 219 Selbstadjungierte Endomorphismen Wir erinnern daran, dass eine Abbildung φ : V → V auf einem Skalarproduktraum V über K selbstadjungiert heißt, wenn hφ(x), yi = hx, φ(y)i für alle x, y ∈ Kn ist. Falls φ(x) = Ax ist und V = Kn , so bedeutet dies für die Matrix A, dass sie symmetrisch bzw. konjugiert symmetrisch (Hermitesch) ist, also A = A∗ Allgemeiner muss in einem endlich-dimensionalen Skalarproduktraum die darstellende Matrix von φ bezüglich einer Orthonormalbasis Hermitesch sein, damit φ selbstadjungiert ist. 6.63 Aufgabe: Zeigen Sie, dass zwei Eigenvektoren zu verschiedenen Eigenwerten eines selbstadjungierten Endomorphismus senkrecht aufeinander stehen müssen. 6.64 Satz: Ein selbstadjungierter Endomorphismus φ : V → V auf einem endlich dimensionalen Skalarproduktraum V über K besitzt eine Orthonormalbasis aus Eigenvektoren. Alle Eigenwerte sind reell. Beweis: Sei zunächst K = C. Wir beweisen den Satz durch Induktion nach der Dimension von V . Aufgrund des Hauptsatzes der Algebra besitzt χφ mindestens eine Nullstellen λ ∈ C. λ ist also Eigenwert von φ und wir berechnen mit dem zugehörigen Eigenvektor x λhx, xi = hx, φ(x)i = hφ(x), xi = λhx, xi. Es folgt λ = λ und daher λ ∈ R. Dies beweist speziell die Behauptung im Fall dim V = 1. Für dim V > 1 sei nun U = x⊥ . Für u ∈ U erhält man hφ(u), xi = hu, φ(x)i = λhu, xi = 0. Also φ(u) ∈ U . Es folgt φ(U ) ⊆ U . Auf dem Skalarproduktraum U ist φ wieder selbstadjungiert. Also besitzt dort φ eine Basis aus Eigenvektoren, die zusammen mit x eine Basis aus Eigenvektoren von φ auf V ergibt. Sei nun K = R. Wir wählen eine Orthonormalbasis A von V . Sei A die darstellende Matrix von φ bezüglich dieser Basis. Dann ist A = AT und mit der obigen Argumentation erhalten wir einen reellen Eigenwert λ von A mit einem reellen Eigenvektor x̃ ∈ Rn . Also ist x = φA (x̃) ∈ V ein Eigenvektor von φ zum reellen Eigenwert λ. Wir können nun wie oben per Induktion schließen und den Beweis vervollständigen. 2 6.65. Bemerkung: Aus dem Satz folgt sofort, dass für A = A∗ eine unitäre Matrix H und eine reelle Diagonalmatrix D existiert mit A = HDH −1 = HDH ∗ . 220 KAPITEL 6. EIGENWERTE 6.66. Beispiel: Wir haben bereits für die Matrix 2 1 A= 1 2 eine Basis aus Eigenwerten hergeleitet. Normiert man diese Eigenvektoren, so erhält man 1 1 1 3 0 1 1 1 2 1 √ . =√ 0 1 1 2 2 1 −1 2 1 −1 In diesem Fall ist H selbst symmetrisch. Das muss jedoch im allgemeinen nicht der Fall sein. Vertauscht man in diesem Beispiel die Eigenwerte 1 und 3, so ist es auch tatsächlich nicht mehr der Fall, jedoch ist H immer noch orthogonal. 6.1.5 Das Minimalpolynom Wir beginnen mit dem berühmten Satz von Cayley-Hamilton, den wir schon in Spezialfällen nachgerechnet haben. Er besagt, dass eine Matrix, eingesetzt in ihr eigenes charakteristisches Polynom, die Nullmatrix ergibt. Die Information darüber, welche polynomialen Ausdrücke eine Matrix zu 0 machen, sagt, wie wir sehen werden, viel über die Struktur der zugehörigen Abbildung aus. 6.67. Beispiel: Sei A= 2 1 1 2 So berechnet man χA (λ) = λ2 − 4λ + 3. Setzt man A für λ ein, so erhält man die Nullmatrix. In der Tat χA (A) = A2 − 4A − 3I2 = 0. Im Fall von diagonalisierbaren Matrizen lässt sich das auch leicht beweisen. Denn, wenn A = HDH −1 ist mit einer Diagonalmatrix D aus Eigenwerten λ1 , . . . , λn , so gilt χA (λ1 ) −1 .. χA (A) = HχA (D)H −1 = H H = 0. . χA (λn ) 6.68 Satz: (Cayley-Hamilton) Sei A ∈ K n×n . Dann gilt χA (A) = 0. Der folgende Beweis ist recht abstrakt. Wenn man zur Verfügung hat, dass das charakteristische Polynom von A in K oder in einem Erweiterungslörper K̃ ⊃ K n Linearfaktoren zerfällt, so gibt es einen einfacheren Beweis, der weiter unten wiedergegeben ist. 6.1. DEFINITION UND EIGENSCHAFTEN 221 Beweis: Wir betrachten die Matrix B = A − XIn , die als Einträge Elemente aus K[X] hat. Es gilt det B = χA ∈ K[X]. Mit Hilfe der Cramerschen Regel berechnen wir die Inverse von B, deren Elemente wir mit det B multiplizieren. Man erhält eine Matrix B̃ über K[X] mit B · B̃ = (det B)In . Wir haben also für alle i, k n X bi,j b̃j,k = δi,k det B. j=1 Dabei ist δi,k das Kroneckersymbol, und auf beiden Seiten stehen Polynome in K[X]. Wir setzen nun für X die Matrix A ein, was wir als (det B)(A), b̃i,j (A) ∈ K n×n bi,j (A), schreiben. Wir können dann diese Matrizen mit den Einheitsvektoren e1 , . . . , en multiplizieren und erhalten durch Umsummieren und Ausnutzen der Kommutativität von Polynomausdrücken in A (det B)(A)ek = = = = = n X (δi,k i=1 n n X X det B)(A) · ei (bi,j b̃j,k )(A)ei i=1 j=1 n X n X i=1 j=1 n X n X j=1 i=1 n n X X bi,j (A)b̃j,k (A)ei bi,j (A)b̃j,k (A)ei b̃j,k (A)bi,j (A)ei j=1 i=1 = k X b̃j,k (A) j=1 n X ! bi,j (A)ei i=1 Andererseits berechnen wir für i, j = 1, . . . , n wegen B = A − XIn bi,j (A) = ai,j − Aδi,j und daher für j = 1, . . . , n n X i=1 bi,j (A)ei = n X i=1 ! ai,j ei − aj = 0. 222 KAPITEL 6. EIGENWERTE Es folgt (det B)(A)ek = 0 für alle k = 1, . . . , n und daher die Behauptung. 2 6.69 Aufgabe: Die Matrix Ja,n a = 1 .. . .. . a n×n ∈K 1 a nennt man Jordanblock. Berechnen Sie geometrische und algebraische Vielfachheit des Eigenwerts a von Ja,n . Zeigen Sie den Satz von Cayley-Hamilton (Ja,n − aIn )n = 0. für diesem Spezialfall. Sei A die Blockmatrix Ja,n 0 A= 0 Jb,m Rechnen Sie den Satz von Cayley-Hamilton auch in diesem Spezialfall nach. 6.70. Bemerkung: Wenn φ : V → V linear ist und V ein endlich dimensionaler Vektorraum über K, so kann man natürlich auch die Abbildung φ in ihr charakteristisches Polynom einsetzen. Es gilt dann ebenfalls χφ (φ) = 0. Zum Beweis wählt man eine Basis A von V . Sei A die darstellende Matrix von φ bezüglich A. Dann ist für jedes Polynom P ∈ K[X] die Matrix P (A) die darstellende Matrix der Abbildung P (φ). Also folgt die Behauptung aus χA (A) = 0. 6.71. Bemerkung: Man kann den Satz von Cayley-Hamilton auch anders beweisen. Dazu betrachten wir zunächst den Fall, dass χA in Linearfaktoren zerfällt χA (λ) = (λ − λ1 ) · . . . · (λ − λn ). Dann ist A ähnlich zu einer oberen Dreiecksmatrix D, also A = HDH −1 mit einer regulären Matrix H. Es folgt χA (A) = HχA (D)H −1 = HχD (D)H −1 . Es genügt also, den Satz für obere Dreiecksmatrizen zu beweisen. Es gilt χD (D) = (D − λ1 In ) · . . . · (D − λn In ) für alle i = 1, . . . , n, wobei die Reihenfolge der Faktoren D − λi In vertauschbar ist. Für obere Dreiecksmatrizen gilt aber (D − λi In )ei ∈ span {e1 , . . . , ei−1 }. 6.1. DEFINITION UND EIGENSCHAFTEN 223 Aufgrund der Vertauschbarkeit folgt per Induktion χD (D)ei = 0 für alle i = 1, . . . , n, und damit die Behauptung. Falls χA (λ) allerdings nicht in Linearfaktoren zerfällt, so muss man mit algebraischen Hilfsmitteln einen Erweiterungskörper K̃ von K konstruieren, in dem das der Fall ist. Damit kann man den Beweis auch in diesem Fall durchführen. 6.72. Definition: Sei φ : V → V linear, und V ein endlich dimensionaler Vektorraum über K. Dann heißt das Polynom P mit kleinstem Grad und höchstem Koeffizienten 1, für das P (φ) = 0 gilt, das Minimalpolynom von φ. Analog definieren wir das Minimalpolynom einer Matrix A ∈ K n×n . 6.73 Satz: Das Minimalpolynom einer Abbildung φ : V → V , V ein endlich dimensionaler Vektorraum, ist eindeutig bestimmt. Das Minimalpolynom ist ein Teiler jedes Polynoms, das φ annulliert, insbesondere ein Teiler des charakteristischen Polynoms. Umgekehrt ist jedes Primpolynom, das das charakteristische Polynom teilt, ein Teiler des Minimalpolynoms. Insbesondere hat das Minimalpolynom alle Eigenwerte als Nullstellen. Beweis: Sei M ∈ K[X] ein Minimalpolynom. Dann kann man M aus einem weiteren Polynom P ∈ K[X] ausdividieren und erhält P = QM + R, deg R < deg M. Wenn P (φ) = 0 ist, so muss also R(φ) = 0 sein. Da M minimalen Grad mit dieser Eigenschaft hat, folgt R = 0 und M teilt P , was die zweite Aussage des Satzes ist. Wir haben damit auch bewiesen, dass M eindeutig bestimmt ist. Denn für ein zweites Minimalpolynom P mit gleichem Grad würde P = QM gelten, wobei P ein konstantes Polynom ist. Wir haben aber festgelegt, dass das Minimalpolynom den höchsten Koeffizienten 1 haben soll. Sei P ein Primpolynom, das χφ teilt. Wir setzen U = Kern P (φ). U ist Unterraum von V und es gilt für u ∈ U (P (φ) ◦ φ)(u) = (φ ◦ P (φ))(u) = 0, also φ(u) ∈ U . Es folgt φ(U ) ⊆ U. P ist nun per Definition von U ein Polynom, dass φ|U auf U annulliert. Da es keine Teiler hat, ist es nach dem schon bewiesenen Behauptungen das Minimalpolynom von φ|U . Andererseits annulliert χφ die Abbildung φ, also auch die Abbildung φ|U . Es folgt die Behauptung. 2 224 KAPITEL 6. EIGENWERTE 6.74. Beispiel: Sei φ : R2 → R2 die Drehung um 60◦ . Dann gilt φ3 = −id. Das Minimalpolynom ist also Teiler von λ3 + 1 = (λ + 1)(λ2 − λ + 1). Die Nullstellen des zweiten Faktors sind λ1,2 √ 3 1 i. = ± 2 2 Also ist dieses Polynom in R ein Primpolynom. Da λ + 1 nicht das Minimalpolynom ist, muss es der zweite Faktor sein. Da dieses Polynom den Grad 2 hat, ebenso wie das charakteristische Polynom, folgt, dass es gleich dem charakteristischen Polynom ist. χφ (λ) = λ2 − λ + 1. In der Tat ist die Drehmatrix gleich cos 60◦ A60◦ = sin 60◦ − sin 60◦ cos 60◦ und χA60◦ = λ2 − 2(cos 60◦ )λ + 1 = λ2 − λ + 1. 6.75. Beispiel: Allgemeiner sei φ die Drehung um 360◦ /n. Dann gilt φn = id. Das Minimalpolynom ist also λn − 1 = (λ − 1)(1 + λ + . . . + λn−1 ). Das Minimalpolynom dieser Drehung ist aber für n > 2 gleich dem charakteristischen Polynom 360◦ 2 λ + 1. χφ (λ) = λ − 2 cos n 6.76. Beispiel: Eine Projektion φ2 = φ hat also Minimalpolynom eines der Polynome λ, λ − 1, λ(λ − 1). Die Jordanmatrix von φ besteht also in jedem Fall aus einer Diagonalmatrix mit 0 und 1 in der Diagonalen. Sonderfälle sind die Nullmatrix und die Identität. 6.77. Beispiel: Das charakteristische Polynom eines Jordanblocks Ja,n ist χ(λ) = (λ − a)n . Das Minimalpolynom ist ein Teiler davon, also p(λ) = (λ − a)k mit einem k = 0, . . . , n nur k = n. Man rechnet nach, dass in der Tat χ selber das Minimalpolynom ist. 6.78. Definition: Eine Matrix Ja1 ,n1 J = .. , . Jak ,nk 6.1. DEFINITION UND EIGENSCHAFTEN 225 die aus Jordanblöcken zusammen gesetzt ist, nennt man Jordanmatrix. 6.79 Satz: Das Minimalpolynom der Jordanmatrix J, die aus den Jordanblöcken Jai ,ni mit i = 1, . . . , k besteht, ist gleich P (λ) = (λ − b1 )m1 · . . . · (λ − bs )ms , wobei b1 , . . . , bs die paarweise verschiedenen Eigenwerte sind, also {b1 , . . . , bs } = {a1 , . . . , ak }, sowie mi der maximale Index nj mit dem bi unter den den aj vorkommt, also mi = max{nj : bi = aj für ein j = 1, . . . , k}. Beweis: Form Aufgrund des obigen Satzes muss das Minimalpolynom von J die p(λ) = (λ − b1 )m1 · . . . · (λ − bs )ms haben. Denn es muss ein Teiler des charakteristischen Polynoms sein und es muss jeden Primteiler λ − bi dieses Polynoms als Faktor enthalten. Man rechnet aber leicht nach, dass alle mi wie im Satz verlangt gewählt werden müssen. 2 6.80. Beispiel: Wenn V nicht endlich dimensional ist, so braucht für Endomorphismen φ : V → V kein Minimalpolynom zu existieren. Im Folgenraum L = A(N0 , R) sei D(a0 , a1 , a2 , . . .) = (a1 , a2 , . . .) der Shift-Operator D : L → L. Dann gibt offenbar kein Polynom, dass D annulliert. Für irgendein Polynom P ∈ R[X] ist allerdings, wie die folgende Aufgabe zeigt, U = Kern P (D) ein Unterraum von L, der durch D in sich abgebildet wird. In U wird D|U durch P annulliert und besitzt dort ein Minimalpolynom. 6.81 Aufgabe: Sei φ : V → V ein Endomorphismus und P ∈ K[X] ein Polynom. Zeigen Sie, dass für jedes Polynom Q ∈ K[X] die Abbildug Q(φ) den Unterraum Kern P (φ) in sich abbildet. Unser nächstes Ziel ist es, den folgenden Satz zu beweisen. 6.82 Satz: Jede lineare Abbildung φ : V → V , V ein endlich dimensionaler Vektorraum über K, deren charakteristisches Polynom in Linearfaktoren zerfällt, kann mit Hilfe einer geeigneten Basis als Jordanmatrix dargestellt werden. Diese Jordanmatrix ist bis auf die Reihenfolge der Blöcke eindeutig bestimmt. 6.83. Bemerkung: Als Folgerung erhalten wir, dass zwei Matrizen A, B ∈ K n×n genau dann ähnlich sind, wenn sie ähnlich zur selben Jordanmatrix sind. 6.84. Beispiel: Sei φ : R2 → R2 ein Endomorphismus mit φ2 = 2φ − id. Dann annuliert P (X) = X 2 − 2X + 1 = (X − 1)2 226 KAPITEL 6. EIGENWERTE den Endomorphismus φ. Das Minimalpolynom muss ein Teiler davon sein. Es kommen also in Frage (X − 1), (X − 1)2 φ muss also nach den obigen beiden Sätzen gleich einer der folgenden Abbildungen sein. 1 0 1 1 , . 0 1 0 1 Diese beiden Matrizen sind nicht ähnlich zueinander. 6.85 Aufgabe: Sei φ : R3 → R ein Endomorphismus mit φ3 = φ. Geben Sie alle Jordanmatrizen an, die diese Gleichung erfüllen. Zum Beweis des obigen Satzes sind folgende vorbereitende Aufgaben nützlich. 6.86 Aufgabe: Sei V endlich dimensional. (a) Seien φ1 , φ2 : V → V Endomorphismen mit φ1 ◦ φ2 = 0, sowie Kern φ1 ∩ Kern φ2 = {0} Zeigen Sie V = Kern φ1 ⊕ Kern φ2 . Hinweis: Zeigen Sie mit Hilfe von Dimensionsformeln dim V = dim Kern φ1 + dim Kern φ2 , wobei Sie von Bild φ2 ⊆ Kern φ1 ausgehen. (b) Sei P ein Polynom, das in zwei teilerfremde Faktoren P = Q1 Q2 zerlegt sei, und φ : V → V ein Endomorphismus. Zeigen Sie Kern P (φ) = Kern Q1 (φ) ⊕ Kern Q2 (φ). Hinweis: Aufgrund einer vorigen Aufgabe, sind Q1 (φ) und Q2 (φ) Endomorphismen auf Kern P (φ). Überlegen Sie sich, dass das Minimalpolynom des Schnittes Teiler von Q1 und Q2 die Identität sein müsste. (c) Verallgemeinern Sie auf mehr als zwei Faktoren. Beweis: Wir zeigen nun die Existenz der Jordandarstellung eines Endomorphismus φ : V → V , V endlich dimensional, dessen charakteristisches Polynom in Linearfaktoren zerfällt. Das Minimalpolynom P ist ein Teiler des charakteristischen Polynoms und zerfällt dann in teilerfremde Faktoren der Form P (X) = (X − λ1 )k1 · . . . · (X − λs )ks . Wir setzen Ui = Kern (φ − λi id)ki , Aufgrund Aufgabe 6.81 gilt φ(Ui ) ⊆ Ui . i = 1, . . . , s. 6.1. DEFINITION UND EIGENSCHAFTEN 227 Mit Hilfe Aufgabe 6.86 zeigt man V = U1 ⊕ . . . ⊕ Us . Wir können uns also darauf beschränken zu zeigen, dass φ|Ui eine Jordandarstellung mit Jordanblöcken hat, die λi in der Diagonalen haben. Das Minimalpolynom von φ|Ui ist (X − λi )ki . Wir dürfen also annehmen, dass φ : V → V ein Endomorphismus mit Minimalpolynom (X − λ)k ist. In der Tat können wir φ durch φ − λ id ersetzen und uns auf den Fall λ = 0 reduzieren. Jede Jordandarstellung von φ besteht nun aus Ketten v0 = v, v1 = φ(v), ..., vt−1 = φt−1 (v), φt (v) = 0. Die Matrixdarstellung von φ bezüglich v0 , . . . , vt−1 ist dann ein Jordanblock J0,t . Die Vektoren einer Kette sind automatisch linear unabhängig. Wir müssen genügend vieler solcher Ketten finden, so dass die Gesamtzahl der Vektoren dim V beträgt, und die Vektoren linear unabhängig sind. Dies ist äquivalent mit der Existenz von linear unabhängigen Vektoren v1,j , . . . , vmj ,j , j = 1, . . . , k mit m1 > . . . > mk mit φ(vi,j ) = vi,j−1 , i = 1, . . . , mj , j = 2, . . . , k, und φ(vi,1 ) = 0, i = 1, . . . , m1 . Wir benötigen außerdem genügend viele Vektoren, also m1 + . . . + mk = dim V. Ein Beispiel für ein solches System ist v4,1 ↓ v3,1 ↓ v2,1 ↓ v1,1 ↓ 0 ∈ Kern φ4 v3,2 ↓ v2,2 ↓ v1,2 ↓ 0 ∈ Kern φ3 ∈ Kern φ2 v1,3 ↓ 0 v1,4 ↓ 0 ∈ Kern φ Die darstellende Matrix hätte die Jordanblöcke J0,4 , J0,3 , J0,1 , J0,1 . Die letzten beiden Blöcke formen natürlich die Nullmatrix, also eine Diagonalmatrix mit 0 in der Diagonalen. Hier ist k = 4 und dim V = 9. Das Minimalpolynom ist X 4 . 228 KAPITEL 6. EIGENWERTE Wir suchen also Vektoren vi,j ∈ Kern φj \ Kern φj−1 . Diese Vektoren werden induktiv für j = k, . . . , 1 gefunden. Zunächst wählen wir eine Basis v1 , . . . , vn von V = Kern φk und betrachten die Vektoren φk−1 (v1 ), . . . , φk−1 (vn ), die nicht alle gleich 0 sein können. Aus diesen Vektoren wählen wir ein linear unabhängiges Teilsystem aus, etwa die ersten mk Vektoren. Dann setzen wir vk,i = vi , . . . , v1,i = φk−1 (vi ) für i = 1, . . . , mk . Im obigen Beispiel haben wir damit eine Kette von Vektoren, nämlich die erste Spalte v4,1 , . . . , v1,1 , festgelegt. Im zweiten Schritt wählen wir die Vektoren vk−1,1 , . . . , vk−1,mk−1 . Die ersten mk dieser Vektoren sind bereits festgelegt. Diese Vektoren ergänzen wir zu einer Basis von Kern φk−1 und wählen ein lineares Teilsystem der Bilder unter φk−2 dieser Vektoren. Dieses System kann man so wählen, dass es die schon gewählten Vektoren v1,1 , . . . , v1,mk , die ja linear unabhängig sind, umfasst. Das so gewählte System bestimmt die Vektoren vmk +1,k−1 , . . . , vmk−1 ,k−1 . Im obigen Beispiel gilt mk = 1, mk−1 = 2, und wir haben auf diese Weise die Kette v3,2 , . . . , v1,2 gefunden. Man beachte aber, dass mk−1 = mk durchaus möglich ist. Dieser Fall tritt etwa im nächsten Schritt unseres Beispiels auf. Analog verfahren wir bis wir im letzten Schritt die Vektoren v1,1 , . . . , v1,m2 zu einer Basis von Kern φ ergänzen. Die Gesamtheit der Vektoren, die wir auf diese Weise erhalten haben, ist linear unabhängig. Um das einzusehen, wendet man nacheinander φk , . . . , φ auf eine Linearkombination dieser Vektoren an, die gleich 0 ist, und verwendet, dass v1,1 , . . . , v1,m1 linear unabhängig sind. Aufgrund dieser Konstruktion gilt für j = k, . . . , 1 mj = dim φj−1 (Kern φj ). Andererseits gilt Kern φj−1 ⊆ Kern φj . Wendet man die Dimensionsformel auf φj−1 | Kern (φj ) an, so erhält man mj = dim Kern φj − dim Kern φj−1 . 6.1. DEFINITION UND EIGENSCHAFTEN 229 Also mk + . . . + m1 = dim Kern φk = dim V, wie gewünscht. Um die Eindeutigkeit der Darstellung zu beweisen, bemerken wir, dass die Länge der Ketten durch die Dimensionen von Kern φj nach der obigen Formel für die mj vorgegeben sind. Damit ist aber auch die Jordanmatrix bis auf die 2 Reihenfolge der Jordanblöcke eindeutig gegeben. 6.87. Bemerkung: Die Existenz lässt sich auch leichter beweisen. Gemäß Satz 6.59 ist eine Matrix A ähnlich zu einer oberen Dreiecksmatrix R. Es ist nun möglich, mit Hilfe von Elementarmatrizen E1 , . . . , Em die Matrix R zur einer Jordanmatrix J umzuformen, so dass J und R mittels −1 J = Em . . . E1−1 AE1 . . . Em ähnlich zueinander sind. 6.88. Beispiel: Für die Matrix 1 A = 0 0 multiplizieren wir die zweite Spalte mit mit 2. Es entsteht die Matrix 1 A1 = 0 0 2 1 0 2 0 1 1/2 und entsprechend die zweite Zeile 1 1 0 2 0 1 Nun addieren wir das (−2)-fache der zweiten zur dritten Spalte und entsprechend das 2-fache der dritten zur zweiten Zeile. Wir erhalten die Jordanmatrix 1 1 0 A2 = 0 1 0 0 0 1 Der Basiswechsel wird in diesem Fall gegeben durch 1 0 0 E1 · E2 = 0 1/2 −1 . 0 0 1 Zur Berechnung muss man lediglich die verwendeten Spaltenoperationen an der Einheitsmatrix ausführen. Die Spalten v1 , v2 , v3 dieser Matrix haben tatsächlich die Eigenschaft Av1 = v1 , Av2 = v2 + v1 , Av3 = v3 . Man beachte, dass im Fall 1 A = 0 0 0 1 0 1 0 1 230 KAPITEL 6. EIGENWERTE eine Vertauschung der ersten und zweiten Spalte zum Ziel führt. 6.89 Aufgabe: Finden Sie für die folgenden Matrizen Basen des R3 , so dass die darstellenden Matrizen bezüglich dieser Basen Jordanmatrizen sind. 0 1 1 0 0 1 0 1 1 0 0 1 , 0 0 0 , 0 0 1 . 0 0 0 0 0 0 0 0 0 Führen Sie die Rechnung mit Hilfe von Elementarmatrizen und mit Hilfe des Algorithmus im obigen Beweis durch. 6.90 Aufgabe: Zeigen Sie, dass eine Matrix A genau dann diagonalisierbar ist, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt, und das Minimalpolynom jeden dieser Faktoren einfach enthält. 6.2 6.2.1 Anwendungen Positiv definite Matrizen Man kann positiv definite Matrizen auch über ihre Eigenwerte charakterisieren. 6.91 Satz: Sei A ∈ Kn×n Hermitesch. Dann ist λ = max x6=0 xT Ax = max xT Ax xT x kxk=1 gleich dem größten Eigenwert von A und µ = min x6=0 xT Ax = min xT Ax. xT x kxk=1 gleich dem kleinsten Eigenwert von A. Folglich ist A genau dann positiv definit, wenn alle Eigenwerte positiv sind. Beweis: Nach Satz 6.64 gibt es eine orthogonale Matrix P und eine Diagonalmatrix D aus reellen Eigenwerten von A mit A = P DP ∗ . P T ist ebenfalls orthogonal und es gilt daher λ := sup xT Ax = sup (P T x)T DP T x = sup xT Dx. kxk=1 kxk=1 kxk=1 Es folgt λ = sup{ n X λν x2ν : Pn ν=1 x2ν = 1}, ν=1 wobei λ1 ≤ . . . ≤ λn die Eigenwerte von A seien. Mit x = en erhält man λ ≥ λn . Andererseits n n X X λν x2ν ≤ λn x2ν . ν=1 ν=1 6.2. ANWENDUNGEN 231 Es folgt λ ≤ λn . Also, wie behauptet λ = λn . Außerdem ist das Supremum ein Maximum. Analog beweist man die Behauptung für das Minimum. Die Eigenwert von vv ∗ sind 1 mit dem Eigenvektor v und gleich 0 mit dem Eigenraum v ⊥ . Die Matrix vv ∗ ist die Matrix der orthogonalen Projektion auf den von v 2 erzeugten Unterraum. 6.92. Bemerkung: Aufgrund des Satzes von Hurwitz hat eine positiv definite Matrix eine positive Determinante. Dies steht im Einklang damit, dass die Determinante das Produkt der Eigenwerte ist. 6.93. Beispiel: Matrizen der Form vv ∗ mit v ∈ Kn sind positiv semi-definit. Es gilt nämlich xT (vv ∗ )x = (xT v)(v T x) = |xT v|2 ≥ 0. Dieser Sachverhalt folgt auch daraus, dass vv ∗ die Darstellende Matrix der senkrechten Projektion auf den von v erzeugten Unterraum ist. Übrigens gilt |v1 |2 . . . v1 vn .. . vv ∗ = ... . vn v1 ... |vn |2 Dies steht im Einklang damit, dass die Diagonalelemente einer positiv semidefiniten Matrix nicht-negativ sein müssen. 6.94. Definition: Sei A Hermitesch, sowie n+ die Anzahl der positiven Eigenwerte von A einschließlich Vielfachheit gezählt, n− die Anzahl der negativen Eigenwerte mit Vielfachheit, und n0 die Vielfachheit des Eigenwertes 0. Dann heißt (n+ , n− , n0 ) die Signatur von A. 6.95. Bemerkung: Eine positiv definite Matrix A ∈ Kn×n hat also die Signatur (n, 0, 0), eine negativ definite die Signatur (0, n, 0). 6.96. Bemerkung: Wir erinnern daran, dass jede darstellende Matrix eines Skalarproduktes positiv definit ist. Man kann aber auch konjugiert symmetrische Bilinearformen durch Matrizen darstellen. Also hv, wi = λT M µ wobei λ und µ die Darstellungen von v und w bezüglich einer Basis B = (v1 , . . . , vn ) sind. Es gilt dann hv1 , v1 i . . . hv1 , vn i .. M = ... . hvn , v1 i . . . hvn , vn i M ist dann Hermitesch. Es folgt, dass es für zwei darstellende Matrizen M und M̃ desselben Skalarprodukts eine invertierbare Matrix S gibt, so dass M̃ = SM S ∗ ist. Denn man kann S = E T setzen, wobie E die Matrix des Basiswechsels ist. Der folgende Trägheitssatz von Sylvester besagt, dass man nicht alle Matrizen auf diese Art ineinander tranformieren kann. 6.97 Satz: Die darstellenden Matrizen einer symmetrischen Bilinearform haben alle dieselbe Signatur. 232 KAPITEL 6. EIGENWERTE Beweis: Jede darstellende Matrix M ist Hermitesch und damit orthogonal ähnlich zu einer Diagonalmatrix M = P DP ∗ mit einer orthogonalen Matrix P . M und D haben dieselben Eigenwerte und damit dieselbe Signatur. Nimmt man P T als Basiswechsel, so folgt, dass wir die Behauptung nur für darstellende Matrizen zeigen müssen, die Diagonalmatrizen sind. Seien nun D und D̃ zwei solche darstellende Diagonalmatrizen mit Signaturen (n+ , n− , n0 ) und (ñ+ , ñ− , ñ0 ). Aus der Basis, die zu D gehört, erhält man Unterräume U+ , U− , U0 mit hv, vi > 0 für alle v ∈ U+ , hv, vi < 0 für alle v ∈ U− , hv, vi = 0 für alle v ∈ U0 , und dim U+ = n+ , dim U− = n− , dim U0 = n0 , sowie V = U+ ⊕ U− ⊕ U0 . Analog seien Ũ+ , Ũ− , Ũ0 definiert. Aber auch U+ , Ũ− und Ũ0 schneiden sich paarweise nur in der 0. Also gilt dim V ≥ dim U+ + dim Ũ− + dim Ũ0 = dim U+ + dim V − dim Ũ+ . Es folgt dim U+ ≤ dim Ũ+ . Analog gilt ≥, so dass n+ = ñ+ folgt. Ebenso beweist 2 man n− = ñ− , woraus dann n0 = ñ0 folgt. Sie beweisen schießlich noch einen Darstellungssatz für positiv semi-definite Matrizen. Er besagt, dass diese Matrizen als Summe von Projektionen darstellbar sind. 6.98 Satz: Eine Hermitesche Matrix A ∈ Kn×n ist genau dann positiv semidefinit, wenn sie als Summe k X A= vi vi∗ i=1 n mit v1 , . . . , vk ∈ K darstellbar ist. Beweis: Sei A positiv semi-definit. Dann existiert eine Orthogonalbasis v1 . . . , vn aus Eigenvektoren zu Eigenwerten λ1 > 0, ..., λk > 0, λk+1 = . . . = λn = 0. Wir können annehmen, dass kvi k2 = λi für alle i = 1, . . . , k 6.2. ANWENDUNGEN 233 gilt. Wir behaupten nun A= k X vi vi∗ . i=1 Dazu berechnen wir für j = 1, . . . , k ! k k X X ∗ vi vi vj = vi (vi∗ vj ) = kvj k2 vj = λj vj = Avj . i=1 i=0 Analog für j = k + 1, . . . , n k X ! vi vi∗ vj = i=1 k X vi (vi∗ vj ) = 0 = Avj . i=1 Es folgt die Behauptung. Sei umgekehrt x ∈ Kn . Dann gilt ! k k X X T ∗ vi vi x = |xT vi |2 ≥ 0. x i=1 i=1 2 6.99 Aufgabe: Zeigen Sie, dass A= k X vi vi∗ i=1 positiv definit ist, wenn v1 , . . . , vk ein Erzeugendensystem des Kn ist. 6.100 Satz: Seien A, B ∈ Kn×n positiv semi-definit. Dann ist auch die Matrix C ∈ Kn×n semi-positiv mit ci,j = ai,j bi,j . Diese Matrix nennt man das Hadamard-Produkt von A und B. Beweis: Seien A, B positiv semi-definit. Wir können dann A= k X vν vν∗ , ν=1 B= l X wµ wµ∗ . µ=1 schreiben. Es folgt ai,j = k X vν,i vν,j , bi,j = l X wν,i wν,j . µ=0 ν=1 Also ci,j = X (vν,i wµ,i )(vν,j wµ,j ). 1≤ν,µ≤n Also ist auch C Summe von kl positiv semi-definiten elementaren Matrizen, und daher positiv semi-definit. 2 234 6.2.2 KAPITEL 6. EIGENWERTE Quadriken 6.101. Definition: Eine Quadrik ist die Nullstellenmenge eine quadratischen Funktion, also X X Q := {x ∈ Rn : ai,j xi xj + bi xi = d} i,j i mit Koeffizienten ai,j und bi in R. 6.102. Beispiel: Im R2 gibt es zwei Haupttypen von Quadriken, Ellipsen mit Gleichung y2 x2 + 2 =1 2 a b und Hyperbeln mit Gleichung x2 y2 − 2 = 1. 2 a b In Abbildung 6.1 ist die Ellipse und die Hyperbel für a = 3 und b = 2 zu sehen. Beide Kurven gehen durch die Punkte (±a, 0). Die Ellipse geht auch durch (0, ±b). Die Hyperbel hat die Asymptoten y = ±(b/a)x. Die anderen Typen von Quadriken im R2 sind die Parabel und die Geraden mit Gleichungen y = ax2 , y = ax. Außerdem gibt es parallele Geraden und gekreuzte Geraden mit den Gleichungen y 2 = c > 0, y 2 = x2 , sowie einzelne Punkte (x2 + y 2 = 0) und die leere Menge (x2 + y 2 = −1). Alle diese Quadriken können affin abgebildet, also verschoben, verzerrt und gedreht werden, und bleiben dabei Quadriken. Ziel dieses Abschnittes ist es, die Quadriken systematisch in Typen zu ordnen. Jeder Typ ist eine Klasse von Quadriken, die affin ineinander transformiert werden können. 6.103. Bemerkung: Eine Quadrik lässt als Q = {x ∈ Rn : xT Ax + bT x = c} schreiben, mit einer symmetrischen Matrix A ∈ Rn×n und b ∈ Rn , c ∈ R. Diese Darstellung ist bis auf ein multiplikatives Vielfaches eindeutig. 6.104 Satz: Das Urbild eine Quadrik unter einer affinen Abbildung ist wieder eine Quadrik. Das bijektive affine Bild einer Quadrik ist wieder eine Quadrik. Beweis: Sei φ(x) = M x + d eine affine Abbildung, M ∈ K n×m Dann gilt φ−1 (Q) = {x ∈ Rm : (M x + d)T A(M x + d) + bT (M x + d) = c} = {x ∈ Rm : xT (M T AM )x + (dT AM + bT M )x = c − dT Ad − bT d}. 6.2. ANWENDUNGEN 235 Abbildung 6.1: Ellipse und Hyperbel Dies ist wieder eine Quadrik. Es folgt leicht, dass das bijektive affine Bild einer Quadrik wieder eine Quadrik ist. 2 6.105. Bemerkung: Für nicht-bijektive affine Abbildungen ist das Bild einer Quadrik im Allgemeinen keine Quadrik. So ist zum Beispiel das Bild der Kugeloberfläche S2 = {x ∈ R3 : xT x = kxk2 = 1} unter der Projektion x1 x2 7→ x1 x2 x3 der ausgefüllte Einheitskreis D1 = {x ∈ R2 : kxk ≤ 1}. Dies ist keine Quadrik. 6.106. Bemerkung: Sei F (x) = c die Gleichung einer Quadrik, also Q = {x ∈ Rn : F (x) = c}. Falls dann φ : Rm → Rn eine Abbildung ist, so ist φ−1 (Q) = {y ∈ Rm : φ(y) ∈ Q} = {y ∈ Rm : F (φ(y)) = c} 236 KAPITEL 6. EIGENWERTE das Urbild von Q und die Gleichung von φ−1 (Q) lautet also einfach F (φ(y)) = c. Sei nun ψ : Rn → Rn eine bijektive Abbildung, Dann gilt also (mit ψ −1 = φ) ψ(Q) = {y ∈ Rn : F (ψ −1 (y)) = c}. Die Gleichung für ψ(Q) ist also F (ψ −1 (y)) = 0. 6.107. Definition: Unter der Normalform einer Quadrik versteht man Quadriken in Rn mit einer der folgenden Gleichungen λ1 x21 + . . . + λn x2n = c, λ1 x21 + . . . + λn−1 x2n−1 = cxn . 6.108 Aufgabe: Zeigen Sie, dass im R2 Quadriken vom Typ Ellipse, Hyperbel, Parabel, gekreuzte und parallele Geraden unter den Normalformen vorkommen. 6.109. Definition: Die Hauptachsentransformation einer Quadrik ist die Darstellung der Quadrik in Normalform. Das heißt, es wird eine Bewegung φ(x) = M x + d, M orthogonal, angegeben, so dass das Bild der Quadrik eine Quadrik in Normalform ist. In diesem Fall nennt man φ−1 (0) = −M −1 d das Zentrum der Quadrik und φ−1 (ei ) die Hauptachsen der Quadrik. 6.110. Beispiel: Typische Normalformen im R3 sind die Quadriken mit der Gleichung λ1 x21 + λ2 x22 + λ3 x23 = c > 0. Es enstehen Quadriken nach folgender Tabelle. Ellipsoid, einschaliges Hyperboloid, zweischaliges Hyperboloid, λ1 , λ2 , λ3 > 0, λ1 , λ2 > 0, λ3 < 0, λ1 > 0, λ2 , λ3 < 0. Als Paraboloid bezeichnet man im R3 die Quadrik x3 = ax21 + bx22 mit a, b > 0. Falls a > 0 und b < 0 ist, so entsteht eine Sattelfläche. 6.111 Aufgabe: Berechnen Sie die Schnitte der folgenden Normalformen mit der Ebene z = c. x2 + y 2 + z 2 = 1, x2 + y 2 − z 2 = 1, −x2 − y 2 + z 2 = 1. 6.112 Aufgabe: Berechnen Sie Gleichungen der Figuren, die enstehen, indem man die Hyperbel y 2 − x2 = 1 um die x-Achse und die y-Achse dreht. 6.113 Aufgabe: Zeigen Sie dass die Ortslinie aller Punkte im R2 , so dass die Summe der Abstände zu zwei gegebenen Punkten konstant ist, eine Ellipse ist. Hinweis: 6.2. ANWENDUNGEN 237 Abbildung 6.2: Ellipsoid, ein- und zweischaliges Hyperboloid, Paraboloid Reduzieren Sie das Problem auf den Fall P1,2 = (±1, 0) und leiten Sie in diesem Fall die Gleichung der Ellipse her. 6.114 Aufgabe: Zeichnen Sie den Kegel z 2 = x2 + y 2 im R3 . Geben Sie die Gleichung des um den Winkel φ um die x − Achse gedrehten Kegels an. Geben Sie die Gleichung des Schnittes dieses gedrehten Kegels mit der Ebenen z = c an. Zeigen Sie, dass als Schnitt eine Ellipse, eine Hyperbel und eine Parabel vorkommen kann. Auf diesem Sachverhalt beruht der Name Kegelschnitte für Quadriken im R2 . 6.115 Aufgabe: Geben Sie die Gleichung für einen Kreiszylinder mit Achse in der z-Achse an. Drehen Sie diesen Zylinder um die x-Achse um einen Winkel 0 ≤ φ < π/2 und zeigen Sie, dass der Schnitt mit der Ebene z = 0 eine Ellipse ist. 6.116 Satz: Jede Quadrik kann durch eine Hauptachsentransformation in Normalform gebracht werden. Beweis: Wir starten mit einer Quadrik Q mit Gleichung xT Ax + bT x = c. 238 KAPITEL 6. EIGENWERTE Da A symmetrisch ist, existiert eine orthogonale Matrix M̃ , so dass A = M̃ DM̃ T ist. Dann hat M̃ T Q die Gleichung (M̃ x)T A(M̃ x) + bT M̃ x = xT Dx + (M̃ T b)T x = c. Man ersetzt nämlich x durch M̃ x in der Gleichung von Q. Mit b̃ = M̃ b, besagt diese Gleichung λ1 x21 + . . . + λn x2n + b̃1 x1 + . . . + b̃n xn = c. Dabei seien λ1 , . . . , λn die Diagonalelemente von D, also die Eigenwerte von A. Wir können außerdem annehmen, dass λ1 6= 0, . . . , λk 6= 0, λk+1 = . . . = λn = 0. gilt. ˜ das heißt wir ermitteln die Im zweiten Schritt ersetzen wir x durch x + d, T ˜ Gleichung der Quadrik M̃ Q − d. Man erhält λ1 x21 + . . . + λn x2n + (b̃1 + 2λ1 d˜1 )x1 + . . . + (b̃n + 2λn d˜n )xn = c − λ1 d˜2 − . . . − λn d˜2 . 1 n Wählt man d˜i = − 0, b̃i , 2λi i = 1, . . . , k, sonst, so erhält man eine Darstellung der Form λ1 x21 + . . . + λk x2k + hk+1 xk+1 + . . . + hn xn = c̃. Falls k = n ist oder hk+1 = . . . = hn = 0, so sind wir nun fertig. Das Zentrum von M̃ T Q − d˜ ist 0. Das Urbild dieses Punktes ist das Zentrum von Q, also ˜ z = M̃ d. Die Spalten von M̃ sind die Richtungen der Hauptachsen von Q. Im Fall von positiven Eigenwerten sind r r c̃ c̃ ,..., λ1 λn die Längen der Hauptachsen der Ellipse. Andernfalls gibt es eine orthogonale Matrix H̃ ∈ Rn−k×n−k , so dass 0 hk+1 . .. .. H̃ . = 0 hn khk 6.2. ANWENDUNGEN 239 Wir setzen H= Ik 0 0 . H̃ ˜ Man erhält als Gleichung für die Quadrik H(M̃ T Q − d) c̃ = (H T x)T DH T x + (H T x)T h = xT Dx + khkxn = λ1 x21 + . . . + λk x2k + khkxn . Um die Konstante c̃ zu entfernen und die endgültige Darstellung zu erhalten, ersetzen wir x durch x + αen mit α = −c̃/khk. Die Gleichung der Quadrik ˜ − αen Q̃ = H(M̃ T Q − d) 2 hat schließlich die gewünschte Normalform. 6.117. Beispiel: Wir betrachten die Quadrik mit der Gleichung x2 + xy + y 2 + x = 1. In Matrixschreibweise ist dies die Gleichung 1 1/2 x x y + 1 1/2 1 y x 0 = 1. y Die Eigenwerte der Matrix A sind hier 1/2 und 3/2. Da diese Eigenwerte positiv sind, kann man bereits schließen, dass Q eine Ellipse ist. Die orthogonale Matrix M̃ wird 1 1 1 M̃ = √ 2 −1 1 Dies ist eine Drehung um −π/4. Als Gleichung der um π/4 gedrehten Quadrik M̃ T Q erhalten wir daher x2 3y 2 1 + + √ (x + y) = 1. 2 2 2 Nun ersetzen wir 1 x→x− √ , 2 wählen also 1 y→y− √ , 3 2 −1 √ d˜ = −12 √ 3 2 und erhalten die Gleichung x2 3y 2 1 1 1 1 1 + =1− − − √ ( √ + √ = 1. 2 2 4 12 2 2 3 2 Dabei haben wir die Ellipse verschoben. Das Zentrum der Ellipse liegt also bei −2/3 ˜ z = M̃ d = 1/3 240 KAPITEL 6. EIGENWERTE Die Hauptachsen gehen in die Richtungen 1 1 , −1 1 und haben die Längen √ r 2, 2 . 3 In Abbildung 6.3 ist Q mit seinem Zentrum, die gedrehte Quadrik M̃ T Q und die ins Zentrum verschobene Quadrik zu sehen. Abbildung 6.3: Q mit Zentrum, Q gedreht und verschoben 6.118. Beispiel: Die Quadrik mit der Gleichung xy = 1 stellt sich als um π/4 gedrehte Hyperbel heraus, die in Normalform die Gleichung y 2 − x2 = 1 hat. Die Hauptachsen sind die Halbierenden der Quadranten. 6.119. Beispiel: Die Quadrik mit der Gleichung x2 − 2xy + y 2 − x − y = 0 6.2. ANWENDUNGEN 241 stellt sich als um π/4 gedrehte Parabel heraus. 6.120 Aufgabe: Berechnen Sie die Länge der Hauptachsen des Ellipoids x2 + y 2 + z 2 + xy + yz = 1. 6.121 Aufgabe: Berechnen Sie die Hauptachsen und deren Länge des Bildes des Einheitskreises unter der Scherung x+y x = φ y y Zeichnen Sie diese Ellipse. 6.122 Aufgabe: Zeigen Sie: Eine Quadrik mit der Gleichung xT Ax + bT x = c mit A ∈ Rn×n , b ∈ Rn , c ∈ R ist genau dann beschränkt in Rn , wenn A positiv definit ist. 6.2.3 Singulärwerte 6.123 Satz: Sei A ∈ Rn×m , n ≥ m. Dann k ≤ m, mit orthonormalen Spalten und eine sowie eine Diagonalmatrix d1 .. E= . 0 existiert eine Matrix O ∈ Rn×k , orthogonale Matrix V ∈ Rm×m k×m ∈R dk mit d1 , . . . , dk > 0, so dass A = OEV T ist. 6.124. Bemerkung: Man kann D durch Nullelemente auch zu einer Matrix Ẽ ∈ Rn×m ergänzen, sowie O zu einer orthogonalen Matrix Õ ∈ Rn×n , so dass A = ÕẼV T gilt. Diese Darstellung ist ebenfalls üblich. Man nennt die durch 0 ergänzten Elemente d1 , . . . , dm die Singulärwerte von A. 6.125. Bemerkung: Offenbar spielen vk+1 , . . . , vm keine Rolle. Reduziert man V auf diese Weise auf Ṽ ∈ Rm×k , so gilt also A = ODṼ T wobei D die Diagonalmatrix mit den Diagonalelementen d1 , . . . , dk > 0 ist, sowie Ṽ eine Matrix mit orthonormalen Spalten. Beweis: Die Matrix AT A ist symmetrisch und positiv semi-definit. Sie lässt sich daher in der Form AT A = V LV T 242 KAPITEL 6. EIGENWERTE schreiben mit einer unitären Matrix V ∈ Rm×m und einer Diagonalmatrix L ∈ Rm×m mit den Eigenwerten λ1 , . . . , λm von AT A in der Diagonalen. Sei λ1 6= 0, . . . , λk 6= 0, λk+1 = . . . = λm = 0. Wir setzen 1 √ λ1 Ẽ = .. . 0 1 m×k , √ ∈R λk √ λ1 E= .. . √ 0 k×m , ∈R λk sowie O = AV Ẽ ∈ Rn×k . Dann gilt OT O = Ẽ T V T AT AV Ẽ = Ẽ T LẼ = Ik . Die k Spalten von O bilden also ein Orthonormalsystem. Wir zeigen nun A = OEV T Dazu multiplizieren wir die Gleichung mit den Spalten v1 , . . . , vm von V . Für i = 1, . . . , k gilt OEV T vi = AV ẼEV T vi Ik 0 = AV V T vi 0 0 = AV ei = Avi . Für i = k + 1, . . . , m ist vi ∈ Kern AT A = Kern A. Man erhält in der Tat wie oben OEV T vi = 0 = Avi . 2 6.126. Bemerkung: Es gibt Softwareroutinen, die sehr stabil die Singulärwertzerlegung von Matrizen A berechnen, ohne die instabile Matrix AT A zu verwenden. Wir halten aber fest, dass die Singulärwerte die Wurzeln aus den Eigenwerten von AT A sind, sowie V aus zugehörigen Eigenvektoren besteht. 6.127. Bemerkung: Hat man die Singulärwertzerlegung, so kann man sehr leicht ein Orthonormalsystem des Bildes und des Kerns berechnen. Denn Kern A = Kern AT A = span {vk+1 , . . . , vm }. 6.2. ANWENDUNGEN 243 Folglich wird das Bild von A von den Bildern von v1 , . . . , vi erzeugt. Bild A = span {Av1 , . . . , Avk }. Es gilt aber für i = 1, . . . , k Avi = OEV T vi = di oi so dass in der Tat Bild A = span {o1 , . . . , ok }. 6.128. Bemerkung: Auch das Ausgleichsproblem min kAx − bk x∈Rm lässt sich mit einer Singulärwertzerlegung sehr leicht lösen. Mit y = EV T x hat man das Minimum von n X Oy − b = y i oi − b i=0 zu finden. Die eindeutige Lösung ist einfach eine orthogonale Projektion. n X hb, oi ioi , i=0 also y = OT b. Es folgt x = V ẼOT b mit. Man bezeichnet die Matrix V ẼOT ∈ Am×n als Pseudoinverse von A. 6.129 Aufgabe: Zeigen Sie, dass auf diese Weise unter allen x, die kAx − bk minimieren, dasjenige mit minimaler Norm gewählt wird. 6.130 Satz: Seien y1 , . . . , ym ∈ Rn . Für einen affinen Unterraum E des Rn definieren wir m X s(E) := d(yν , E)2 ν=1 Setzt man m a := 1 X yν m ν=1 und definiert mit der Singulärwertzerlegung (y1 − a)T .. T A := = ÕẼV , . (ym − a)T 244 KAPITEL 6. EIGENWERTE mit Singulärwerten |d1 | ≥ |d2 | ≥ . . . ≥ |dk | > dk+1 = . . . = dn = 0 den Unterraum U = span {v1 , . . . , vl } Dann wird s(E) für dieses E = a + U unter allen l-dimensinalen Unterräumen des Rn minimal. Beweis: Wir zeigen zunächst, dass s(E) bei festem U für unser gewähltes a minimal wird. Es gilt s(E) = m X kπU ⊥ (yν − a)k2 = ν=1 m X kπU ⊥ (yν ) − πU ⊥ (a)k2 , ν=1 wobei πU ⊥ die Projektion auf U ⊥ bezeichne. Wir minimieren mit ỹν = πU ⊥ (yν ) m X kỹν − ãk2 ν=1 für ã ∈ U . Setzt man m w= 1 X yν m ν=1 so erhält man m X kỹν − ãk2 = ν=1 = m X (kỹν − wk2 − 2hyν − w, w − ãi + kw − ãk2 ) ν=1 m X ! kỹν − wk2 + mkw − ãk2 . ν=1 Daher wird dieser Ausdruck für ã = w minimal. Setzt man a ∈ V wie behauptet an, so folgt, dass s(E) minimal für dieses a ist. Nun fixieren wir unser a und suchen U , so dass s(E) minimal wird. Wir können o.B.d.A. a = 0 annehmen. Gesucht ist dann eine Orthonormalbasis w1 , . . . , w n von Rn , so dass s(U ) = m X d(yν , U )2 ν=1 für U = span {w1 , . . . , wl } minimal wird. Es gilt 2 2 d(yν , U ) = kπU ⊥ (yν )k = n X hyν , wµ i2 µ=l+1 für alle ν = 1, . . . , m. Also ist s(U ) die Summe der Quadrate der Elemente in den letzten n − l Spalten von AW . Setzt man B = (AW )T (AW ), 6.2. ANWENDUNGEN 245 so ist S(U ) = n X |bµ,µ |2 . µ=l+1 Man berechnet B = W T V Ẽ T ẼV T W, und Ẽ T Ẽ ist die Diagonalmatrix D ∈ Rn×n mit den Elementen d21 ≥ . . . ≥ d2k > d2k+1 = . . . = d2n = 0. in der Diagonalen. Wir suchen also eine orthogonale Matrix W̃ , so dass für B = W̃ T DW̃ die Summe S(W̃ ) := n X |bµ,µ |2 = n n X X 2 d2ν w̃ν,µ = µ=l+1 ν=1 µ=l+1 n X d2ν ν=1 n X 2 w̃ν,µ µ=l+1 minimal wird. Da auch die Zeilen von W̃ ein Orthonormalsystem bilden, muss gelten n X 2 0 ≤ sν := w̃ν,µ ≤1 µ=l+1 Außerdem n X ν=l sν = n n X X 2 w̃ν,µ = ν=l µ=l+1 n n X X 2 w̃ν,µ = (n − l). µ=l+1 ν=l Es folgt, dass S(W̃ ) sicher minimal wird, wenn man s1 = . . . = sl = 0, sl+1 = . . . = sn = 1 erreichen kann. Dies ist in der Tat möglich, wenn W̃ = In ist. Aber V T W = In 2 ist gleichbedeutend mit W = V . Daraus folgt die Behauptung. 6.131. Bemerkung: Man kann das Problem also lösen, indem man eine Orthonormalbasis aus Eigenvektoren zu den l größten Eigenwerten λ1 , . . . , λl von AT A bestimmt, nachdem man a als Mittelwert der yν berechnet hat. Für den Abstand hat man dann m X ν=1 6.2.4 d(yµ , a + U ) = n X λ2µ . µ=l+1 Drehungen 6.132 Aufgabe: Zeigen Sie, dass die Eigenwerte einer unitären Matrix sowie deren Determinante den Betrag 1 haben. 6.133 Aufgabe: (a) Berechnen Sie die komplexen Eigenwerte und Eigenvektoren der Drehung cos α − sin α Dα = . sin α cos α 246 KAPITEL 6. EIGENWERTE Welche Drehmatrizen sind also reell diagonalisierbar? (b) Zeigen Sie umgekehrt, dass jede Matrix A ∈ R2×2 mit zwei komplex konjugierten, nicht reellen Eigenwerten vom Betrag 1 eine Drehmatrix ist. 6.134 Aufgabe: Zeigen Sie, dass jede orthogonale Matrix A ∈ R2×2 mit Determinante −1 eine Spiegelung an einer Geraden ist. Zur Vorbereitung des Beweises des folgenden Satzes benötigen wir zwei Sachverhalte, die wir als Aufgaben stellen. 6.135 Aufgabe: Für jede unitäre Abbildung φ : Cn → Cn und jeden Unterraum U ⊆ Cn mit φ(U ) ⊆ U gilt φ(U ⊥ ) = U ⊥ . 6.136 Satz: Jede unitäre Matrix ist diagonalisierbar mit einer Orthonormalbasis aus Eigenvektoren. Für jede reelle orthogonale Abbildung gibt es eine Orthonormalbasis, für die die darstellende Matrix die Form −1 .. . −1 1 .. . 1 Dα1 .. . Dαk hat, wobei die Matrizen Dαν Drehmatrizen sind. Beweis: Wenn v1 , . . . , vk Eigenvektoren sind, so wird der von diesem Vektoren aufgespannte Raum in sich selbst abgebildet. Aufgrund der obigen Aufgabe kann man wie im Beweis von Satz 6.64 argumentieren und findet eine Orthonormalbasis aus Eigenvektoren. Im reellen Fall behandelt man einen komplexen Eigenwert nach dem anderen per Induktion. Die reellen Eigenwerte ±1 und wir finden eine Orthonormalbasis von der Summe dieser Eigenräume. Sei nun λ ein komplexer Eigenwert mit komplexem Eigenvektor v. Dann gilt Av = Av = lv. Wir betrachten W = span {Re v, Im v} ⊆ Rn . Da v und v als Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind, folgt dim W = 2. Man zeigt auch leicht, dass W in sich selber abgebildet wird. Wählt man eine Orthonormalbasis von v1 , v2 von W , so hat die darstellende Matrix von φA die Gestalt einer Drehmatrix. 2 6.2. ANWENDUNGEN 247 6.137. Bemerkung: Da man offensichtlich zwei Eigenwerte 1 bzw. zwei Eigenwerte −1 als Drehungen um 0 bzw. π zusammenfassen kann, kann man den Satz auch anders formulieren. Außer den Drehmatrizen kommen dann höchstens eine isolierte 1 und eine −1 vor. Falls beide Vorkommen, so hat man in der Ebenen dieser beiden Eigenvektoren eine Spiegelung. 6.138. Beispiel: Sei φ : R3 → R3 orthogonal. Falls φ nur reelle Eigenwerte hat, dann kann der Eigenwert −1 einmal, zweimal oder dreimal vorkommen. φ ist dann die Identität, die Spiegelung an einer Ebene oder die Spiegelung an einer Gerade. Der letzte Fall ist identisch mit einer Drehung um eine Achse um den Winkel π. Falls aber φ einen komplexen, nicht reellen Eigenwert hat, so kann der zusätzliche reelle Eigenwert noch ±1 sein. φ ist also eine Drehung um eine Achse oder eine Drehung um eine Achse mit zusätzlicher Spiegelung an der senkrechten Ebene. 6.2.5 Differenzengleichungen 6.139. Beispiel: Das bekannteste Beispiel für eine Differenzengleichung ist die Fibonacci-Folge, die durch a0 = 0, a1 = 1, an+1 = an + an−1 für alle n ∈ N rekursiv definiert ist. Macht man hier den Ansatz an = λn , so erhält man aus der Rekursionsgleichung nach dem Kürzen durch λn−1 die charakteristische Gleichung λ2 = λ + 1, also √ 1± 5 . λ1,2 = 2 Betrachtet man alle Folgen, die die Rekursionsgleichung erfüllen, so sieht man, dass diese Menge einen Unterraum des Folgenraums bildet. Daher lösen auch Linearkombinationen der beiden gefundenen Lösungen (λn1 )n∈N und (λn2 )n∈N die Rekursionsgleichung und man erhält für gegebene c1 , c2 ∈ R die Lösungen an = c1 λn1 + c2 λn2 Wir werden später zeigen, dass dies in der Tat alle Lösungen der Differenzengleichung sind. Die Konstanten c1 , c2 ∈ R müssen so bestimmt werden, dass die Anfangswerte a0 = a1 = 1 erfüllt sind. Also müssen die Gleichungen c1 + c2 = 0, c1 λ1 + c2 λ2 = 1 erfüllt sein. Man erhält 1 an = √ 5 √ !n 1+ 5 1 −√ 2 5 √ !n 1− 5 . 2 248 KAPITEL 6. EIGENWERTE In der Tat gilt wegen |λ2 | < 1 an = round √ !n ! 1+ 5 , 2 1 √ 5 wobei round die Rundung auf die nächstgelegene ganze Zahl bedeutet. Natürlich gilt für das Wachstumsverhalten √ 1+ 5 1/n lim an = . n→∞ 2 6.140. Beispiel: Die Rekursionsgleichung an+1 = 2an − an−1 führt auf die charakteristische Gleichung λ2 −2λ+1 = 0 mit doppelter Nullstelle 1. Die Lösung an = 1n = 1 genügt aber nicht, um alle Anfangswerte sicher zu stellen. Es stellt sich heraus, dass auch an = n eine Lösung ist. Alle Folgen haben die Form an = c1 + c2 n. 6.141. Beispiel: Die Rekursionsgleichung an+1 = −an−1 führt mit der charakteristischen Gleichung λ2 + 1 = 0 auf die komplexe Lösung an = c1 in + c2 (−i)n . Da wir an komplexen Lösungen nicht interessiert sind, müssen c1 , c2 so gewählt werden, dass an ∈ R wird. Wegen der Rekursionsgleichung genügt es dazu, a0 , a1 ∈ R zu haben, also c1 + c2 ∈ R, (c1 − c2 )i ∈ R. Dies ist genau dann der Fall, wenn c1 = a + ib, c2 = a − ib, also c1 = c2 ist mit a, b ∈ R. Man überlegt sich, dass dann an = d1 sin(nπ/2) + d2 cos(nπ/2) mit d1 , d2 ∈ R gilt. 6.142 Aufgabe: Berechnen Sie den Realteil der Folge c1 in + c2 (−i)n mit c1 = c2 und zeigen Sie, dass diese Folge tatsächlich von der obigen Form ist. Der Ansatz an = λn liefert nicht immer alle Folgen, die der Rekursionsgleichung genügen. Zum einen kann es komplexe Lösungen λ geben, zum anderen muss man bei doppelten Nullstellen zusätzliche Lösungen nehmen. Die folgenden Sätze beschreiben die Lösungen der Differenzengleichungen vollständig. 6.143 Satz: Sei (an )n∈N0 eine Folge in K, die die Rekursionsgleichung an = α1 an−1 + . . . + αk an−k 6.2. ANWENDUNGEN 249 für n ≥ k erfüllt mit α1 , . . . , αk ∈ K, αk 6= 0. Dann ist die Folge (an )n∈N0 Linearkombination der Folgen (ns λnν )n∈N0 , 1 ≤ ν ≤ k, 0 ≤ s < mν , wobei λ1 , . . . , λk ∈ C die Nullstellen des charakteristischen Polynoms χ(λ) = λn − α1 λn−1 − . . . − αk sind und mν die Vielfachheit der Nullstelle λν ist. Im Fall K = R und λν = |λν |eiαν ∈ C \ R ersetzt man die Folgen n (ns λnν )n∈N0 , (ns λν )n∈N0 durch die reellen Folgen (ns |λν |n cos(nαν ))n∈N0 , (ns |λν |n sin(nαν ))n∈N0 Beweis: Sei zunächst K = C. Sei L = A(N0 , C) der Raum der Folgen auf C, und U ⊂ V der Unterraum der Folgen, die die Rekursionsgleichung erfüllen. Wir betrachten die Abbildung φ : Cn → L, die den Anfangswerten a0 , . . . , an−1 die Folge zuordnet, die der Rekursionsgleichung genügt und mit diesen Anfangswerten beginnt, also φ(a0 , . . . , an−1 ) = (a0 , . . . , an−1 , an , . . .) ∈ U. Es ist klar, dass φ linear ist und injektiv, und dass U = φ(Cn ) ist. Es folgt dim U = n. Wir haben aber im Satz genau n Folgen angegeben, die U aufspannen sollen. Es genügt daher zu zeigen, dass diese Folgen in U liegen und linear unabhängig sind. Anstatt dies direkt nachzurechnen, gehen wir einen anderen Weg. Wir setzen den Shift-Operator D aus Beispiel 6.80 in χ ein. Dann gilt für das k-te Element bk von D((an )n∈N ) bk = ak+n − α1 ak+n−1 − . . . − αk ak . Für Folgen a ∈ U muss daher χ(D)(a) = 0 sein. Es gilt also U = Kern χ(D). Wir haben χ(D) = (D − λ1 In )m1 · . . . · (D − λk In )mk . Aufgrund von Aufgabe 6.86 gilt U = Kern (D − λ1 id)m1 ⊕ . . . ⊕ Kern (D − λk id)mk . 250 KAPITEL 6. EIGENWERTE Wir brauchen also nur nachzurechnen, dass für ν = 1, . . . , k die Folgen aν,0 = (λnν )n∈N0 , . . . , aν,mν −1 = (nmν −1 λnν )n∈N0 in Kern (D − λν )mν liegen und linear unabhängig sind. Falls die Folgen linear abhängig wären, so gäbe es wegen λν 6= 0 Koeffizienten β0 , . . . , βmν −1 mit β0 + β1 n + . . . + βmν −1 nmν −1 = 0 für alle n ∈ N0 Das ist aber nicht möglich, weil Polynome nur endlich viele Nullstellen haben können. Man berechnet für s ≥ 1 (n + 1)s λn+1 − λν (ns λnν ) = λν ((n + 1)s − ns )λnν . ν Es folgt für s ≥ 1 (D − λν id)(aν,s ) = s−1 X λν µ=0 n aν,µ ∈ span {aν,0 , . . . , aν,s−1 }. µ Für s = 0 gilt (D − λν id)(aν,0 ) = 0. Es folgt induktiv für 0 ≤ s < mν aν,s ∈ Kern (D − λν id)s+1 . und damit die Behauptung. Sei nun K = R. Dann finden wir Folgen wie im Fall K = C. Für komplexe, nicht reelle Nullstellen λν beachten wir, dass der von n (ns λnν )n∈N0 , (ns λν )n∈N0 aufgespannte Raum gleich dem von (ns |λν |n cos(nαν ))n∈N0 , (ns |λν |n sin(nαν ))n∈N0 aufgespannten Raum im komplexen Folgenraum ist. Wir verlieren also durch 2 diese Ersetzung keine Lösungen der Rekursionsgleichung. 6.144 Aufgabe: Schreiben Sie |λ|n cos(nα) und |λ|n sin(nα) als Linearkombination n von λn und λ und umgekehrt. Index Äquivalenzrelation, 138 ähnlich, 131 Abbildung, 32 Abbildungsraum, 66 Abstraktion, 12 abzählbar, 52 adjungierte Abbildung, 173 adjungierte Matrix, 148 affine Abbildung, 133 affiner Unterraum, 82 Affinkombination, 85 algebraische Vielfachheit, 216 alternierende Multilinearform, 183 assoziative Algebra, 100 Assoziativgesetz, 14 aufgespannter Unterraum, 68 Aufzählung, 28 Ausdividieren, 204 Ausgleichsrechnung, 174 Aussonderung, 27 Austauschsatz, 77 Auswahlaxiom, 55 Auswertungsabbildung, 204 Cramersche Regel, 191 darstellende Matrix, 103 Definitionsbereich, 34 Determinantenform, 185 diagonalisierbar, 212 Dimension, 75 Dimensionsformel, 97 Direkte Summe, 80 disjunkt, 48 disjunkt (disjoint), 30 Distributivgesetz, 58 Dreiecksungleichung, 150 duale Abbildung, 143 duale Basis, 142 Dualraum, 141 baryzentrische Koordinaten, 85 Basis, 71 Basiswechsel, 126 Besselsche Ungleichung, 159 Bewegung, 170 bijektiv, 35 Bild, 37, 95 Bildbereich, 34 Bilinearform, 146 Binomialkoeffizient, 50 Blockdiagonalmatrizen, 190 Boolesche Aussagen, 16 Eigenraum, 211 Eigenvektor, 208 Eigenwert, 208 Einheitskugeln, 153 Einheitsmatrix, 104 Einheitsvektoren, 75 Einschränkung, 34 Element, 25 Elementarmatrizen, 122 elementweise, 108 Ellipsen, 234 endlich, 47 endlich-dimensional, 75 Endomorphismus, 100 Entwicklungssatz von Laplace, 189 Erzeugendensystem, 71 erzeugter affiner Unterraum, 84 Euklidscher Algorithmus, 206 Euklidscher Vektorraum, 146 Euklidsches Skalarprodukt, 146, 147 Cantorsches Diagonalargument, 54 charakteristische Gleichung, 247 charakteristisches Polynom, 209 Fakultät, 46 Fallunterscheidung, 23 Fixpunktmenge, 135 251 252 Folge, 45 Fortsetzung, 35 Funktion, 34 Funktional, 94 Funktionenalgebra, 67 Gauß-Algorithmus, 112 geometrische Vielfachheit, 216 Gerade, 85 gleichmächtig, 54 größter gemeinsamer Teiler, 207 Grad, 203 Gram-Schmidt, 156 Graph, 34 Gruppe, 14 Gruppe der Ismorphismen, 101 Hadamard-Produkt, 233 Halbgruppe, 41 Hauptachsen der Quadrik, 236 Hauptachsentransformation, 236 Hauptsatz der Algebra, 207 Hermitesche Form, 146 Hermitesche Matrix, 148 Hilbertmatrix, 149 homogenens Gleichungssystem, 112 Hurwitz-Kriterium, 195 Hyperbeln, 234 Hyperebene, 131 identische Abbildung, 40 Imaginärteil, 62 indefinit, 197 Induktionsanfang, 43 Induktionsschritt, 43 induktive Menge, 42 injektiv, 35 Interpolation, 137 inverses Element, 14 invertierbare Matrix, 107 irreduzibel, 205 isomorph, 99 Isomorphismus, 99 Jordanblock, 222 Jordanmatrix, 225 Körper, 58 kanonische Basis, 75 kanonisches Skalarprodukt, 147 Kegelschnitte, 237 INDEX Kern, 95 Klassenaufteilung, 50 Kombinatorik, 49 Kommutativgesetz, 14 kommutierendes Diagramm, 126 Komplexe Zahlen, 61 Konklusion, 16 konstruktiver Beweis, 23 konvex, 89 konvexe Hülle, 89 Konvexkombination, 90 Koordinatensystem, 34 Kreuzprodukt, 32, 193 Kronecker-Symbol, 142 L1 -Norm, 154 L2 -Norm, 154 L∞ -Norm, 154 Lösungsmenge, 112 Leibnitz-Formel, 186 linear, 93 linear unabhängig, 71 lineare Regression, 176 linearer Operator, 100 lineares Gleichungssystem, 112 Linearkombination, 69 Mächtigkeit, 48 Matrix, 101 Matrix des Skalarproduktes, 147 Maximumsnorm, 153 Menge, 25 Menge aller Abbildungen, 41 Mengenlehre, 26 Mengensysteme, 31 Metrik, 150 minimale induktive Menge, 42 Minimalpolynom, 223 Monomorphismus, 100 Multilinearform, 183 naive Mengenlehre, 25 negativ definit, 196 neutrales Element, 14 Norm, 150 Normalform einer Quadrik, 236 Normalgleichung, 175 normierter Vektorraum, 150 Nullraum, 65 Nullstelle, 204 INDEX nullteilerfrei, 203 Operator, 34 orthogonale Abbildung, 167 orthogonale Matrix, 169 orthogonale Projektion, 164 Orthogonalsystem, 156 Orthonormalbasis, 156 Orthonormalsystem, 156 Paar, 32 parallel, 85 Parallelogrammgleichung, 153 Parametrisierung, 112 Parsevalsche Gleichung, 159 Peano-Axiome, 41 Permutation, 41, 49 Polynom, 203 positiv definite Matrix, 148 positiv semi-definit, 148 Prämissen, 16 Produktschreibweise, 46 Projektion, 136 Pseudoinverse, 243 punktweise, 66 quadratische Matrix, 107 Quadrik, 234 Quotientenraum, 138 Rang, 120 rationale Funktion, 207 Realteil, 62 Regel von Sarrus, 180 reguläre Matrix, 107 rekursiv, 45 Relation, 32 Restklassenkörper, 60 Rieszscher Darstellungssatz, 172 Ring, 203 Russelsches Paradoxon, 26 Satz von Ceva, 198 Schauder-Basis, 160 Schnitt, 29 Schwarzsche Ungleichung, 152 selbstadjungiert, 174 selbstadjungierte Matrix, 148 semidefinite Matrix, 197 senkrecht, 155 Shift-Operator, 225 253 Signatur, 231 Signum, 180 simultan, 121 Singulärwerte, 241 Skalarprodukt, 145 Skalarproduktraum, 146 Spaltenrang, 120 spezielle Lösung, 112 Spiegelung, 135 Spur, 210 stochastische, 215 Strecke, 88 Summe der Unterräume, 80 Summenschreibweise, 46 surjektiv, 35 Tautologien, 17 Teilmenge, 27 Trägheitssatz von Sylvester, 231 transponierte Matrix, 110 Tupel, 51 Umkehrabbildung, 35 unendlicher Abstieg, 45 unitäre Matrix, 169 unitärer Raum, 146 Unterraum, 67 Urbild, 35, 37 Vektorraum, 63 Venn-Diagramm, 29 Vereinigung, 28 Verkettung, 40 vollständige Induktion, 43 Wahrheitstafeln, 17 Zeilenrang, 120 Zeilenstufenform, 113 Zentrum der Quadrik, 236 zerfällt, 205 zugehörige Norm, 151 zulässige Zeilenoperation, 113