Albrecht Beutelspacher Lineare Algebra Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen 8. Auflage Lineare Algebra Albrecht Beutelspacher Lineare Algebra Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen 8., aktualisierte Auflage Prof. Dr. Albrecht Beutelspacher Justus-Liebig-Universität Gießen Gießen, Deutschland ISBN 978-3-658-02412-3 DOI 10.1007/978-3-658-02413-0 ISBN 978-3-658-02413-0 (eBook) Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer Fachmedien Wiesbaden 1994, 1995, 1998, 2000, 2001, 2003, 2010, 2014 Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Planung und Lektorat: Ulrike Schmickler-Hirzebruch | Barbara Gerlach Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Springer Spektrum ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer Science+Business Media www.springer-spektrum.de Mathematik – eine Mutprobe? Mein stolzes Beginnen lief darauf hinaus: Allerkleinstes – auch Prosaisches nicht ausgeschlossen – exakt und minutiös zu schildern und durch scheinbar einfachste, aber gerade deshalb schwierigste Mittel: Simplizität, Durchsichtigkeit im einzelnen und Übersichtlichkeit im ganzen, auf eine gewisse künstlerische Höhe zu heben, ja, es dadurch sogar interessant oder wenigstens lesensmöglich zu machen. Theodor Fontane Dies ist ein Buch für Anfänger der Mathematik. Es will sich von all seinen Vorgängern und Konkurrenten vor allem dadurch unterscheiden, dass es bewusst und direkt auf die Studierenden zugeht. Ja, unter den vielen Büchern über lineare Algebra, die Sie in der Bibliothek oder einer Buchhandlung finden, eignet sich dieses besonders dafür, Ihr erstes Mathematikbuch zu sein. Der Titel hätte auch lauten können „Meine erste Lineare Algebra“. Dieses Buch soll Ihnen Mut machen, die Mathematik zu meistern, und Sie nicht durch Unverständlichkeit einschüchtern. Beim Schreiben habe ich mich daher von folgenden Ideen leiten lassen: Keine abgehobene Sprache! Anfänger haben es schwer mit der Mathematik. Sie tun sich besonders schwer mit der mathematischen Sprache. Dieser kalte Formalismus! Diese unbarmherzige Präzision! Diese unendliche Distanz! Diese Schwindel erregende Abstraktheit! Ja, die Mathematik ist eine Wissenschaft, die auf formalen Schlüssen basiert – das ist ihre Stärke. Die mathematische Sprache ist präzise und dadurch gegen Irrtümer gefeit. Durch Abstraktheit (was nichts anderes als „Vereinfachung“ bedeutet) wird Erkenntnisfortschritt oft erst möglich. Aber die Tatsache bleibt: Die mathematische Sprache lädt Anfänger in der Regel nicht zum Lesen oder zum Mitmachen ein. Mit diesem Buch versuche ich eine Quadratur des Kreises, nämlich einerseits, wo es nur geht, diese Sprachbarriere abzubauen, andererseits Sie, liebe Leserin, lieber Leser, vom Nutzen der präzisen Sprache der Mathematik zu überzeugen. Insbesondere werden Sie erfahren, dass Präzision nicht unbedingt etwas mit Formalismus – und schon gar nicht mit trockenem Stil zu tun hat. V VI Mathematik – eine Mutprobe? Der Stil ist für ein Mathematikbuch ganz unüblich: locker, lustig, leicht und unterhaltsam. Und vor allem habe ich versucht, die üblichen k.o.-Schläge wie etwa „wie man leicht sieht“, „trivialerweise folgt“, „man sieht unmittelbar“ zu vermeiden. Keine unnötig abstrakte Theorie! Was ist das Ziel einer Vorlesung oder eines Buches über lineare Algebra? Ihnen sollen die wichtigsten Grundkonzepte algebraischen Denkens, algebraische Kenntnisse und Fertigkeiten sowie Anwendungen vermittelt werden. (In diesem Buch finden Sie Anwendungen in Geometrie, beim Lösen von Gleichungssystemen und in der Codierungstheorie.) Wir werden Themen wie Äquivalenzrelationen, Faktorräume, Polynomringe und natürlich die Hauptthemen der linearen Algebra, nämlich Vektorräume, lineare Abbildungen und Diagonalisierbarkeit ausführlich behandeln. Mir geht es nicht darum, die lineare Algebra mit allen Finessen und in voller Allgemeinheit zu präsentieren – in der Hoffnung, dass Kenner anerkennend mit dem Kopf nicken, aber mit dem Effekt, dass die Studierenden den Wälzer wütend an die Wand werfen. Nicht Rechnen. Denken! Dies ist keine „Lineare Algebra light“, keine Ausgabe „für kleine Hände“. Es kommt mir mindestens so sehr auf begriffliche Klarheit wie auf technische Fertigkeiten an: • Vektorräume werden „allgemein“ behandelt und nicht von vornherein auf Kn , Rn (oder gar R3 ) beschränkt. Dadurch wird die Sache einfacher! Denn ein allgemeiner Vektorraum ist ein einfacheres Objekt als ein Vektorraum, bei dem man sich immer noch mit einer festen Basis herumschlagen (oder -ärgern) muss. • Die berüchtigten Faktorräume werden ausführlich behandelt – obwohl man Faktorräume in der Linearen Algebra ja zur Not vermeiden könnte. Ich halte aber das Konzept des Faktorraums bzw. der Quotientenstrukturen für so wichtig, dass man das schon im ersten Semester kennen lernen sollte. (Außerdem habe ich das so gut erklärt, dass es jeder verstehen kann!) • Auch wird in diesem Buch die Theorie der linearen Abbildungen nicht auf Matrizenbolzerei reduziert. Schwierigkeiten werden weder ausgespart noch wird über sie hinweggemogelt. Viele Übungsaufgaben! Sie finden drei Sorten von Übungsaufgaben. Zunächst ganz einfache Kästchenaufgaben, die in der Regel aus einer „ganz dummen“ Frage bestehen. Diese dienen zur unmittelbaren Selbstkontrolle, ob Sie den Stoff verstanden haben. Lösungen zu diesen Aufgaben finden Sie am Ende des Buches. Die eigentlichen Übungsaufgaben gehen etwas tiefer – aber auch diese sind (fast) alle leicht zu lösen. Ich habe mich bemüht, keine unnötigen Tricks einzubauen, sondern Ihnen Erfolgserlebnisse zu ermöglichen! Hinweise zur Lösung dieser Aufgaben finden Sie in einem Extra-Kapitel. Mathematik – eine Mutprobe? VII Schließlich gibt es „Projekte“; das ist eine Menge zusammengehöriger Übungsaufgaben, mit denen Sie eingeladen werden, ein neues, aber mit dem Stoff des jeweiligen Kapitels eng zusammenhängendes Thema selbständig zu erarbeiten. Alles in allem über 300 Übungsaufgaben! Vor kurzem ist übrigens Lineare Algebra interaktiv erschienen, eine Übungs-CD zur Linearen Algebra, die noch viel, viel mehr Übungsaufgaben mit Lösungen enthält. Wenn in einer Vorlesung an einer Universität eine Studentin oder ein Student den Stoff nicht beherrscht und deswegen keinen Schein erhält, so liegt dies – so glauben Lehrende und Lernende übereinstimmend – unzweifelhaft an der Unfähigkeit der Studentin bzw. des Studenten. Ganz anders bei professionellen Kursen im Bereich der Wirtschaft und Industrie. Dort herrschen andere Verhältnisse: Wenn ein Teilnehmer eines Kurses etwas nicht versteht, ist dies eindeutig die Schuld des Dozenten! Mit diesem Buch stelle ich mich bewusst auf die „professionelle“ Seite: Wenn Sie etwas nicht verstehen, trage ich die Schuld daran. Falls Sie Kritik oder sogar Verbesserungsvorschläge haben, bitte ich Sie, mir ohne Hemmungen zu schreiben. Einige Hinweise zum Aufbau des Buches: Ich habe mit vielerlei Mitteln versucht, einen lesbaren Text zu verfassen. Einige dieser Mittel sind äußerlich zu erkennen: • Die Aussagen der Sätze sind farbig unterlegt. Die Sätze sind nicht durchnummeriert, dafür hat (fast) jeder Satz einen Namen; so können Sie ihn über das Stichwortverzeichnis finden. • Eine Definition erkennt man nicht daran, dass davor „Definition“ steht, sondern daran, dass der zu definierende Begriff fett gedruckt ist. • Das Ende eines jeden Beweises wird durch das Beweisabschlusszeichen angezeigt. Aber auch das Ende eines Satzes, der (meiner Ansicht nach) keines Beweises bedarf, wird so gekennzeichnet: Obwohl dies ein Buch für Anfänger ist, setze ich gewisse Dinge voraus. So werden etwa Mengenlehre und Beweisprinzipien zwar behandelt – aber nicht sehr ausführlich, damit wir bald zum „eigentlichen“ Stoff kommen. Mein Dank geht an viele, die mich beim Entstehen dieses Buches unterstützt, ermutigt und beraten haben. Zuallererst danke ich den Hörerinnen und Hörern meiner Vorlesung über Lineare Algebra; für sie hatte ich ein Skriptum geschrieben, das die Grundlage für dieses Buch wurde. Und wenn das Skriptum bei den Studierenden nicht so gut angekommen wäre, wäre ich nie auf den Gedanken gekommen, dieses Buch zu schreiben. Jörg Eisfeld, Udo Heim, Alexander Pott, Ute Rosenbaum und Johannes Ueberberg haben nicht nur das Manuskript mit Akribie und Einfühlung gelesen, sondern mir immer wieder Mut gemacht, das Buch doch so zu schreiben, wie es mir vorschwebte. Frau Susanne Hunsdorfer hat das einfühlsame Schlussbild gemalt. Allen gilt mein herzlicher Dank. VIII Mathematik – eine Mutprobe? Als ich mich schon in der Hoffnung wiegte, das Buch sei fertig, habe ich es auf Anregung des Verlags nochmals einer Gruppe junger Studierender zum Lesen gegeben. Und so wurde eine bislang unentdeckte Schicht von Fehlern und Verbesserungsmöglichkeiten ans Licht befördert. Schande über mein Haupt und Tausend Dank an die Studierenden! (Und das heißt immerhin mehr als ein Dank pro entdecktem Fehler.) Studierende, die es mit der Mathematik wagen wollen, brauchen Mut. Auch ein Autor braucht Mut – jedes neue Buch ist ein neues Wagnis. Aber auch ein Verlag braucht Mut für ein solches Buch. Daher danke ich dem Verlag Vieweg, und ganz besonders Frau Döbert und Frau Schmickler-Hirzebruch sehr, dass sie dieses Buch wagten. Vorwort zur 8. Auflage Schon bald nach Erscheinen dieses Buches erlebte ich eine Überraschung: Ich erhielt Fanpost. Nicht gerade wäschekörbeweise, aber immerhin ein paar Briefe pro Semester. Darin schilderten Studierende, dass ihnen dieses Buch geholfen habe, in der ersten Krise des Mathematikstudiums nicht zu verzweifeln, sondern durchzuhalten. Etwas Schöneres kann einem Autor nicht passieren. Denn genau für sie hatte ich das Buch geschrieben. Für Studierende am Anfang des Studiums; für solche, die an der rigorosen mathematischen Sprache zu scheitern drohen; für solche, die in Gefahr sind, unter der Unbarmherzigkeit mathematischer Beweisführung zusammenzubrechen. Ich freue mich sehr darüber, dass dieses Konzept eine große Zahl von Studierenden darin bestärkt hat, bei der Mathematik zu bleiben und ihr Studium erfolgreich zu beenden. Als die erste Auflage dieser Linearen Algebra erschien, sprach noch niemand von Bachelor und Master. Aber im Grunde war dieses Buch mit seiner Konzentration auf das Wesentliche, mit den zahlreichen Übungsaufgaben und Lernhilfen schon ein Vorgriff auf die Bachelor-Ausbildung. Für die Neuauflage habe ich zahlreiche „kleine“ Änderungen realisiert. So wird dieses Buch auch in Zukunft den Bachelor- und Lehramtsstudierenden in der ersten Phase des Studiums nützlich, hilfreich und anregend sein. Dies hoffe ich jedenfalls. Kurz vor Fertigstellung dieser Neuausgabe hatte meine Lektorin, Frau Ulrike SchmicklerHirzebruch, eine wunderbare Idee. Sie hatte die Ausstellung „Mathe macht lustig!“ mit Mathe-Karikaturen im Mathematikum in Gießen gesehen und schlug vor, jedes Kapitel mit einer Karikatur aus dieser Ausstellung abzuschließen. In der Tat eröffnen diese Bilder ganz neue Blicke auf die Mathematik. Die Karikaturisten haben freundlicherweise zugesagt, und so geht mein Dank an Martin Zak, Til Mette, Erich Rauschenbach, Miriam Wurster, Phil Hube, NEL, Leonard Riegel, F.W. Bernstein, Rudi Hurzlmeier und, last but not least, an Ulrike Schmickler-Hirzebruch für ihre mittlerweile jahrzehntelange hervorragende Unterstützung. Gießen, im November 2013 Albrecht Beutelspacher IX Inhaltsverzeichnis 1 Was wir wissen müssen, bevor wir anfangen können . 1.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . 1.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Wann haben zwei Mengen gleich viele Elemente? 1.5 Die Σ-Notation . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Beweisprinzipien . . . . . . . . . . . . . . . . . . . . . . . 1.7 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 7 13 18 20 22 2 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Die Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Gesetze der Addition . . . . . . . . . . . . . . . . . . . 2.1.2 Gesetze der Multiplikation . . . . . . . . . . . . . . . 2.1.3 Distributivgesetz . . . . . . . . . . . . . . . . . . . . . . 2.2 Beispiele von Körpern . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Der Körper der komplexen Zahlen . . . . . . . . . 2.2.2 Der Quaternionenschiefkörper . . . . . . . . . . . . 2.2.3 Einige endliche Körper . . . . . . . . . . . . . . . . . . 2.2.4 Konstruktion eines Körpers mit vier Elementen . 2.3 Automorphismen von Körpern . . . . . . . . . . . . . . . . . 2.3.1 Die Definitionen . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Der Körper der rationalen Zahlen . . . . . . . . . . 2.3.3 Der Körper der reellen Zahlen . . . . . . . . . . . . 2.3.4 Konjugiert-komplexe Zahlen . . . . . . . . . . . . . 2.4 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 29 29 30 30 32 33 36 40 44 46 47 47 50 51 52 3 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Die Definition . . . . . . . . . . . . . . . . . . . . . . 3.2 Beispiele von Vektorräumen . . . . . . . . . . . . 3.2.1 Vektorräume mit Hilfe von Geometrie 3.2.2 Der Vektorraum K n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 59 61 61 62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XI XII Inhaltsverzeichnis 3.2.3 Der Vektorraum aller m × n-Matrizen . . . 3.2.4 Der Vektorraum aller unendlichen Folgen 3.2.5 Ein Vektorraum unendlicher Folgen . . . . . 3.2.6 Vektorräume von Funktionen . . . . . . . . . 3.2.7 Lösungen eines Gleichungssystems . . . . . 3.2.8 Teilmengen einer Menge . . . . . . . . . . . . 3.2.9 Körper als Vektorräume . . . . . . . . . . . . . Elementare Theorie der Vektorräume . . . . . . . . . 3.3.1 Der Begriff der Basis . . . . . . . . . . . . . . . 3.3.2 Der Steinitzsche Austauschsatz . . . . . . . . 3.3.3 Der Dimensionssatz . . . . . . . . . . . . . . . . 3.3.4 Faktorräume . . . . . . . . . . . . . . . . . . . . . Zur Geschichte der linearen Algebra . . . . . . . . . Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 64 64 64 65 65 65 66 67 75 83 85 92 94 4 Anwendungen von Vektorräumen . . . . . . . . . . . . . . . . 4.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . 4.1.1 Begriffe und Fragen . . . . . . . . . . . . . . . . . . 4.1.2 Exkurs über Matrizen . . . . . . . . . . . . . . . . 4.1.3 Lösbarkeit von linearen Gleichungssystemen . 4.1.4 Der Gaußsche Algorithmus . . . . . . . . . . . . 4.2 Affine Geometrie . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Affine Räume . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . 4.3 Codierungstheorie . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Grundlegende Begriffe . . . . . . . . . . . . . . . . 4.3.2 Lineare Codes . . . . . . . . . . . . . . . . . . . . . . 4.4 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 105 105 106 111 116 122 123 126 129 129 133 139 5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Definitionen und grundlegende Eigenschaften . . . . . . 5.2 Darstellung von linearen Abbildungen durch Matrizen . 5.3 Der Homomorphiesatz . . . . . . . . . . . . . . . . . . . . . . 5.4 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 147 154 162 166 171 6 Polynomringe . . . . . . . . . . . . . . . . 6.1 Ringe . . . . . . . . . . . . . . . . . . . 6.1.1 Gesetze der Addition . . . 6.1.2 Gesetz der Multiplikation 6.1.3 Distributivgesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 177 177 178 178 3.3 3.4 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhaltsverzeichnis 6.2 6.3 6.4 6.5 XIII Was ist eigentlich x? . . . . . . . . . . . . . . Polynomdivision . . . . . . . . . . . . . . . . Ideale von K[x] . . . . . . . . . . . . . . . . . Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 187 192 195 7 Determinanten . . . . . . . . . . . . . . . . . . . . 7.1 Die Determinantenfunktion . . . . . . . . 7.2 Permutationen . . . . . . . . . . . . . . . . . 7.3 Gerade und ungerade Permutationen . . 7.4 Die Leibnizsche Determinantenformel . 7.5 Wie berechnet man eine Determinante? 7.6 Der Multiplikationssatz . . . . . . . . . . . 7.7 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 203 207 211 218 222 233 236 8 Diagonalisierbarkeit . . . . . . . . . . . . . . . . 8.1 Einführung . . . . . . . . . . . . . . . . . . . 8.2 Eigenvektoren und Eigenwerte . . . . . . 8.3 Das charakteristische Polynom . . . . . . 8.4 Das Minimalpolynom . . . . . . . . . . . . 8.5 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 241 243 249 256 265 9 Elementarste Gruppentheorie . . . . . . . . . . . 9.1 Beispiele von Gruppen . . . . . . . . . . . . . 9.1.1 Gruppen in bekannten Strukturen 9.1.2 Gruppen aus bekannten Objekten 9.1.3 Gruppen aus Permutationen . . . . 9.2 Einfache Strukturaussagen für Gruppen . 9.2.1 Untergruppen . . . . . . . . . . . . . 9.2.2 Zyklische Gruppen . . . . . . . . . . 9.2.3 Der Homomorphiesatz . . . . . . . 9.3 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 271 273 274 276 278 278 282 285 289 10 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . 10.3 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . 10.4 Orthogonale Abbildungen . . . . . . . . . . . . . . . 10.5 . . . und eine zweite symmetrische Bilinearform? 10.6 Verständnisfragen, Übungen und Tipps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 295 297 307 315 324 329 XIV Inhaltsverzeichnis 11 Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 11.1 Lösungsvektoren der ◻-Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 11.2 Tipps zur Lösung der Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 339 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 1 Was wir wissen müssen, bevor wir anfangen können In diesem einleitenden Kapitel führen wir die Bezeichnungen und Begriffe ein, mit denen wir im Folgenden routinemäßig umgehen werden. 1.1 Mengen Seit Georg Cantor (1845–1918) ist die gesamte Mathematik auf dem Mengenbegriff aufgebaut. Was eine Menge „ist“ (das heißt, wie man axiomatisch mit Mengen umgehen kann), werden wir hier nicht diskutieren. Als einführende Lektüre empfehle ich Ihnen den „Klassiker“ Naive Mengenlehre von P. R. Halmos [Hal] oder das neuere Buch Mengenlehre für den Mathematiker [FrPr]. Mengen bestehen aus Elementen. Ist ein Objekt x Element der Menge X, so schreiben wir dafür x ∈ X; ist x kein Element von X, so wird das durch x /∈ X bezeichnet. Eine Menge Y heißt Teilmenge (oder Untermenge) der Menge X, falls jedes Element von Y auch ein Element von X ist; man schreibt dafür Y ⊆ X. Eine Teilmenge Y von X heißt eine echte Teilmenge, falls Y ≠ X ist. Mengen können prinzipiell auf zwei Weisen beschrieben werden, durch Aufzählung ihrer Elemente oder durch ihre Eigenschaften. Ein Beispiel für die Definition einer Menge durch Auflistung ihrer Elemente ist M ∶= {, , , , , } . Damit kann man auch unendliche Mengen definieren: N ∶= {, , , , . . .} A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_1, © Springer Fachmedien Wiesbaden 2014 1 2 1 Was wir wissen müssen, bevor wir anfangen können ist die Menge der natürlichen Zahlen, und Z ∶= {, , −, , −, , −, . . .} ist die Menge der ganzen Zahlen. Mit Q bezeichnen wir die Menge der rationalen und mit R die Menge der reellen Zahlen. Eine Menge spielt eine ausgezeichnete Rolle: die leere Menge, die mit ∅ bezeichnet wird. Dies ist die Menge, die kein Element enthält. Die Definition einer Menge durch eine Eigenschaft geht von einer (bereits definierten) Menge X (oder mehreren Mengen) aus und definiert damit eine neue Menge gemäß folgendem Muster: Y ∶= {x ∈ X∣E(x)} , wobei E eine Eigenschaft des Elements x ist. Zum Beispiel wird durch Z ∶= {z ∈ Z∣z ist gerade} die Menge der geraden ganzen Zahlen definiert. Hier ist die Eigenschaft E(z) erklärt als „z ist gerade“. Die Differenz X\Y der Mengen X und Y (manchmal auch als X − Y bezeichnet) ist definiert als die Menge der Elemente von X, die nicht in Y liegen: X/Y ∶= {x ∈ X∣x /∈ Y} . Wir setzen bei der Bildung der Differenz X\Y nicht voraus, dass Y eine Teilmenge von X ist; wenn das aber so ist, so heißt X\Y das Komplement von Y in X. Wenn zum Beispiel X die Menge aller Studierenden der Mathematik und Y die Menge derjenigen Mathematikstudenten ist, die regelmäßig die Vorlesungen besuchen, dann ist X\Y = . . . ? Die folgenden Mengenbildungen sind äußerst wichtig: X ∩ Y ∶= {x ∈ X∣x ∈ Y} ist der Durchschnitt von X und Y; die Mengen X und Y heißen disjunkt, falls X ∩ Y = ∅ ist. Die Vereinigung von X und Y ist definiert als die Menge X ∪ Y, die aus all den Elementen besteht, die in X oder in Y liegen: X ∪ Y ∶= {z∣z ∈ Xoder z ∈ Y} . (Wenn wir „oder“ sagen, lassen wir stets zu, dass beide Möglichkeiten zutreffen.) Schließlich besteht das kartesische Produkt der nichtleeren Mengen X 1 , . . . , X n aus den Folgen der Länge n (oder n-Tupeln) (x1 , . . . , xn ) mit x1 ∈ X 1 , . . . , xn ∈ X n : X × . . . × X n ∶= {(x , . . . , x n )∣x i ∈ X i }. 1.1 Mengen 3 X X ∩Y Y Abb. 1.1 Die Summenformel (Dies wird nach René Descartes (1596–1650) genannt, der erkannt hat, dass man die Punkte der Ebene durch Zahlenpaare darstellen kann.) Wenn wir zum Beispiel mit XX die Menge aller Frauen und mit XY die Menge aller Männer bezeichnen, so ist XX × XY die Menge aller getrenntgeschlechtlichen Paare. Bemerkung Bei der Definition neuer Mengen verwendet man häufig nicht das Gleichheitszeichen, sondern das Zeichen := . Der Doppelpunkt steht dabei auf derjenigen Seite des Gleichheitszeichens, auf der das neu definierte Objekt steht. So kann man zum Beispiel schreiben: Sei nZ ∶= {nz∣z ∈ Z} die Menge der durch n teilbaren ganzen Zahlen. Um uns an die Konzepte zu gewöhnen, betrachten wir endliche Mengen und rechnen die Anzahl der neu gebildeten Mengen aus. Eine Menge heißt endlich, falls sie nur endlich viele Elemente hat (also etwa 5 Elemente oder 1000 oder 264 − 1). Die Anzahl der Elemente einer Menge X bezeichnen wir mit |X|. Seien für den Rest dieses Abschnitts X, Y, sowie X 1 , . . . , X n endliche Mengen. Wenn Y eine Teilmenge von X ist, so gilt ∣X/Y∣ = ∣X∣ − ∣Y∣; denn X\Y umfasst genau die Elemente von X, die nicht in Y liegen. Die Anzahlen der Elemente von X ∩ Y und X ∪ Y sind durch folgende Summenformel miteinander gekoppelt: ∣X ∪ Y∣ = ∣X∣ + ∣Y∣ − ∣X ∩ Y∣ . In Worten: Die Anzahl der Elemente in der Vereinigung zweier Mengen ist gleich der Summe der Anzahlen der einzelnen Mengen minus der Anzahl der Elemente im Durchschnitt (siehe Abb. 1.1). 4 1 Was wir wissen müssen, bevor wir anfangen können Der Beweis der Summenformel ist einfach: Da in der Summe |X| + |Y| die Elemente von X\Y und die Elemente Y\X genau einmal, die Elemente von X ∩ Y aber genau zweimal gezählt werden, wird in der Summe |X| + |Y| − |X ∩ Y| jedes Element von X ∪ Y genau einmal erfasst. Also ist ∣X∣ + ∣Y∣ − ∣X ∩ Y∣ = ∣X ∪ Y∣ . Schließlich berechnen wir die Anzahl der Elemente des kartesischen Produkts mit Hilfe der folgenden Produktformel: ∣X × X × . . . × X n ∣ = ∣X ∣ ⋅ ∣X ∣ ⋅ . . . ⋅ ∣X n ∣ . Für den Beweis müssen wir die Anzahl der Elemente (x1 , x2 , . . . , xn ) mit xi ∈ X i berechnen: Für x1 gibt es genau |X 1 | Möglichkeiten. Für jede dieser |X 1 | Möglichkeiten gibt es genau |X 2 | Möglichkeiten, x2 zu wählen. Für jede der |X 1 | ⋅ |X 2 | Möglichkeiten für x1 und x2 gibt es |X 3 | Möglichkeiten, x3 zu wählen und so weiter. Insgesamt gibt es daher genau |X 1 | ⋅ |X 2 | ⋅ . . . ⋅ |X n | Möglichkeiten, eine Folge (x1 , x2 , . . . , xn ) zu wählen. Es gilt also die oben angegebene Produktformel. ◻ Es gibt viele mehr oder weniger eindrückliche Veranschaulichungen dieses Sachverhalts: Professor MacMath ist im Besitz von drei Jacketts, sechs Hemden und zwei Hosen; er kleidet sich an, indem er jeweils ein Kleidungsstück von einer Sorte zufällig wählt. Auf wie viele Weisen kann er sich kleiden? Die Antwort lautet: Auf 3 ⋅ 6 ⋅ 2 = 36 Weisen. (In Übungsaufgabe 2 finden Sie ein realistischeres Beispiel.) 1.2 Äquivalenzrelationen In der Umgangssprache bezeichnen wir zwei Vorgänge als äquivalent, wenn sie gleichwertig, ziemlich ähnlich, aber im Allgemeinen nicht gleich sind. Die Mathematik lehnt sich an diesen Sprachgebrauch an und präzisiert ihn in charakteristischer Weise. Durch Relationen werden Beziehungen, die Elemente einer Menge untereinander haben können, beschrieben. Formal definieren wir eine Relation auf der Menge X als eine Teilmenge ρ von X × X. Gilt (x, y) ∈ ρ, so sagen wir „x steht in der Relation ρ mit y“ und schreiben dafür meist x ρ y. Da wir in der Regel jeweils nur eine Relation betrachten, brauchen wir nicht verschiedene Relationen durch verschiedene griechische Buchstaben zu unterscheiden; wir bezeichnen eine Relation daher meist mit ~ und schreiben x ~ y für x ρ y bzw. (x, y) ∈ ρ. Relationen, die aus alltäglichen Situationen bekannt sind, sind zum Beispiel x ∼ y ⇔ xist befreundet mit/verwandt mit/per Du mit/verliebt iny Die wichtigsten Eigenschaften mathematischer Relationen sind Reflexivität, Symmetrie und Transitivität. Für eine Relation ~ auf der Menge X definieren wir 1.2 Äquivalenzrelationen 5 • Die Relation ~ heißt reflexiv, falls gilt: x ~ x für alle x ∈ X, • die Relation ~ heißt symmetrisch, falls gilt: (x ~ y ⇔ y ~ x) für alle x, y ∈ X, • die Relation ~ heißt transitiv, falls gilt: (x ~ y, y ~ z ⇒ x ~ z) für alle x, y, z ∈ X. Die wichtigsten Relationen sind Äquivalenzrelationen. Eine Relation heißt eine Äquivalenzrelation, falls sie reflexiv, symmetrisch und transitiv ist. Zunächst einige Beispiele von Äquivalenzrelationen: • Die Relation ~ definiert auf der Menge der Bürger von Deutschland durch x ∼ y ⇔ x und y haben ihren ersten Wohnsitz in derselben Stadt ist eine Äquivalenzrelation. • Eine andere Äquivalenzrelation ~ auf der Menge der Einwohner der Bundesrepublik Deutschland ist definiert durch x ∼ y ⇔ x und y werden durch denselben direkt gewählten Bundestagsabgeordneten vertreten. • Die Gleichheitsrelation = ist eine Äquivalenzrelation. • Die Relation ∥ definiert auf den Geraden der Ebene durch g ∥ h ⇔ g und h sind parallel ist eine Äquivalenzrelation. • Für jede natürliche Zahl n ist die Relation ~n auf der Menge Z der ganzen Zahlen, die wie folgt definiert ist: x ∼n y ⇔ y − x ist ein ganzzahliges Vielfaches von n eine Äquivalenzrelation. Warum sind Äquivalenzrelationen wichtig? In vielen Fällen bilden Äquivalenzrelationen gute Beschreibungen von Situationen. Sie erlauben es nämlich, ohne Informationsverlust eine „gröbere“ Struktur, jedenfalls eine Struktur mit weniger Elementen zu betrachten. Im ersten Beispiel braucht man nicht die unübersehbare Fülle aller 80 Millionen Deutschen zu betrachten, sondern es genügt, den Blick auf die nur etwa 16.000 Gemeinden zu werfen. Der mathematische Begriff, der hier die zweite Hauptrolle spielt, ist der der „Äquivalenzklasse“: Sei ~ eine Äquivalenzrelation auf der Menge X. Für ein x ∈ X sei A(x) die Menge aller Elemente von X, die mit x in der Relation ~ stehen; man nennt A(x) die Äquivalenzklasse von x. Wir drücken diese Definition nochmals in der Formelsprache aus: A(x) ∶= {y ∈ X∣y ∼ x} . 6 1 Was wir wissen müssen, bevor wir anfangen können Die zentrale und wichtigste Tatsache über Äquivalenzrelationen ist die folgende: Satz über Äquivalenzklassen Äquivalente Elemente haben dieselbe Äquivalenzklasse; das heißt: x ∼ y ⇒ A(x) = A(y) . Diesen Satz beweisen wir wie folgt: Sei x ~ y. Dann ist zu zeigen A(x) = A(y). Dies beweisen wir dadurch, dass wir sowohl A(x) ⊆ A(y) als auch A(y) ⊆ A(x) zeigen. „A(x) ⊆ A(y)“: Sei z ∈ A(x). Das bedeutet z ~ x. Wegen x ~ y und der Transitivität von ~ folgt daraus auch z ~ y. Dies bedeutet aber z ∈ A(y). Somit ist jedes Element von A(x) in A(y), also gilt A(x) ⊆ A(y). „A(y) ⊆ A(x)“: Wir haben zwei Möglichkeiten, dies zu beweisen. Sture Möglichkeit: Man geht analog wie im ersten Fall vor. Dies sollen Sie in Übungsaufgabe 5 tun. Intelligente Möglichkeit: Wegen der Symmetrie folgt aus x ~ y auch y ~ x. Also folgt aus dem ersten Fall (wenn man die Buchstaben x und y vertauscht) A(y) ⊆ A(x). ◻ Man kann diese fundamentale Tatsache auch wie folgt ausdrücken: Satz über Gleichheit von Äquivalenzklassen Zwei Äquivalenzklassen sind gleich oder disjunkt. Beweis Haben die Äquivalenzklassen A(x) und A(y) auch nur ein Element z gemeinsam, so ergibt sich aus der gerade bewiesenen Tatsache sowohl A(x) = A(z) (da x ~ z) als auch A(y) = A(z) (da y ~ z). Das bedeutet: Sind die Äquivalenzklassen A(x) und A(y) nicht disjunkt, so sind sie gleich. ◻ Den obigen Satz kann man auch wie folgt formulieren: Jedes Element von X liegt in genau einer Äquivalenzklasse. ◻ Dies drückt man oft mit Hilfe des Begriffs einer Partition aus. Eine Partition einer Menge X ist eine Menge π= {Y 1 , Y 2 , . . . } von nichtleeren Teilmengen von X, die folgende Eigenschaften haben: • Y i ∩ Y j = ∅ für i ≠ j, • ∪ Y i = X, wobei ∪ Y i die Vereinigung der Mengen Y i bezeichnet. 1.3 Abbildungen 7 Damit kann man sagen: Die Menge der Äquivalenzklassen bildet eine Partition von X. Beweis Wegen der Reflexivität liegt jedes Element x von X in mindestens einer Äquivalenzklasse, nämlich in A(x); die Disjunktheit der Äquivalenzklassen folgt aus der ersten Umformulierung des Satzes über die Gleichheit von Äquivalenzklassen. ◻ In der Mathematik definiert man oft Eigenschaften von Äquivalenzklassen über Eigenschaften einzelner Elemente (Repräsentanten) der Äquivalenzklassen. Dann muss man sich überzeugen, dass diese Eigenschaft unabhängig von den einzelnen Elementen definiert ist. Dies bezeichnet man dann als Wohldefiniertheit. Das wird später noch eine wichtige Rolle spielen. An dieser Stelle erwähnen wir nur ein Beispiel, um uns die Problematik klarzumachen. Was ist der Abstand zweier Geraden g, g ′ der gewöhnlichen euklidischen Ebene? Ganz einfach: Man wählt einen Punkt auf g und bestimmt den Abstand dieses Punktes zu g ′ . g . g´ Gut, aber was passiert, wenn man einen anderen Punkt von g wählt? Genau das ist das Problem! Es geht darum, ob der Abstand von g und g ′ wohldefiniert ist. Dies ist genau dann der Fall, wenn jeder Punkt von g den gleichen Abstand von g ′ hat. In Übungsaufgabe 6 soll folgendes gezeigt werden: Wenn man überprüft hat, dass drei Punkte von g den gleichen Abstand von g ′ haben, so hat jeder Punkt von g den gleichen Abstand von g ′ . 1.3 Abbildungen Der Begriff der Abbildung ist zwar historisch relativ jung, hat sich aber als außerordentlich nützliches und heute nicht mehr wegzudenkendes Werkzeug der modernen Mathematik erwiesen. Seien X und Y Mengen. Eine Abbildung von X nach Y (oder „von X in Y“) ist eine Vorschrift f , die jedem x ∈ X genau ein Element aus Y zuordnet; dieses Element wird mit f (x) bezeichnet. Wenn f eine Abbildung von X nach Y ist, so schreibt man dafür auch f : X → Y. Die Elemente von X heißen die Urbilder der Abbildung f , diejenigen Elemente y aus Y, für die es ein x ∈ X gibt mit f (x) = y, heißen die Bilder von f . Man nennt X den Definitions- und Y den Bildbereich von f (siehe Abb. 1.2). 8 1 Was wir wissen müssen, bevor wir anfangen können f X Y Abb. 1.2 Eine Abbildung Bemerkung Wenn Ihnen diese Definition einer Abbildung nicht genau genug ist (in der Tat können Sie fragen, was der schwammige Begriff „Vorschrift“ bedeuten soll), so kann Ihnen vielleicht mit der folgenden alternativen Definition geholfen werden: Eine Abbildung von X nach Y ist eine Relation f ⊆ X × Y mit der Eigenschaft, dass es zu jedem x ∈ X genau ein y ∈ Y gibt mit (x, y) ∈ f . Dieses eindeutig bestimmte y bezeichnet man mit f (x). Machen Sie sich klar, dass wir nicht zwei verschiedene Dinge definiert haben, sondern dass es sich im Grunde um das gleiche Konzept handelt, das nur auf zwei verschiedenen Sprachebenen dargestellt wurde. Wie kann man konkret eine Abbildung beschreiben? – Ganz einfach dadurch, dass man für jedes Element x von X das Bild f (x) angeben muss. Dies kann auf vielfältige Weise geschehen; an den folgenden Beispielen wird das klar werden. 1. Sei f : Z → N die durch f (z) := z2 definierte Abbildung. 2. Sei f die Abbildung von R in sich, die jeder reellen Zahl ihren Absolutbetrag zuordnet. 3. Sei f die Abbildung der Menge {1,2,3} in sich, die folgendermaßen erklärt ist → , → , → . 4. Die Multiplikation reeller Zahlen ist die Abbildung R × R → R, (r, s) → r ⋅ s . Abbildungen gibt es in Hülle und Fülle. Eine verdient einen besonderen Namen, auch schon deshalb, weil sie sonst nicht auffällt: Ist X eine Menge, so nennen wir die Abbildung id = idX , von X in sich, die durch id(x) ∶= x für alle x ∈ X definiert ist, die Identität (oder identische Abbildung) auf X. 1.3 Abbildungen 9 Die im Zusammenhang mit Abbildungen am häufigsten gebrauchten Wörter sind die Wörter „injektiv“, „surjektiv“ und „bijektiv“. Es hilft nichts: Sie müssen diese Begriffe wie Vokabeln einer fremden Sprache stur pauken. Dies lohnt sich, denn diese Begriffe begegnen Ihnen während Ihres Studiums garantiert tausendfach. Sei f eine Abbildung von X nach Y. (a) Man nennt f injektiv, wenn keine zwei verschiedenen Elemente von X auf dasselbe Element von Y abgebildet werden. (b) Man nennt f surjektiv, wenn es zu jedem Element y ∈ Y ein x ∈ X gibt mit f (x) = y. (Wenn f eine surjektive Abbildung von X nach Y ist, so darf man auch sagen, dass f eine Abbildung von X auf Y ist.) (c) Eine Abbildung heißt bijektiv, wenn sie injektiv und surjektiv ist. Wir betrachten einige Beispiele. 1. Die Abbildung f : Z → N mit f (z) := z2 ist weder injektiv (denn f (−z) = (−z)2 = z2 = f (z) für alle z ∈ Z) noch surjektiv (denn zum Beispiel hat die Zahl 3 kein Urbild). 2. Die Abbildung f : R → R+ (:= {r ∈ R | r ≥ 0}), die jeder reellen Zahl ihren Absolutbetrag zuordnet, ist nicht injektiv, aber surjektiv. 3. Die Abbildung f der Menge {1, 2, 3} in sich mit f () = , f () = , f () = ist sowohl injektiv als auch surjektiv, also bijektiv. Ist f : X → Y eine Abbildung, so definieren wir Bild( f ) ∶= {y ∈ Y∣ es existiert ein x ∈ X mit f (x) = y} . In Bild(f ) sind also genau die Elemente von Y enthalten, die wirklich als Bild eines Elementes von X auftreten. Offenbar kann man f auch als Abbildung von X nach Bild(f ) auffassen; diese Abbildung ist in jedem Fall surjektiv: Man kann also jede Abbildung f durch Einschränkung des Bildbereichs Y auf Bild(f ) surjektiv „machen“; entsprechend kann man auch jede Abbildung durch Einschränkung des Definitionsbereichs injektiv machen: Man muss so viele Elemente aus X streichen, dass für jedes Element y ∈ Bild(f ) nur ein x ∈ X mit f (x) = y übrig bleibt. Übrigens kann man auch jede surjektive Abbildung durch Vergrößerung des Bildbereichs nicht-surjektiv machen. Kann man auch jede injektive Abbildung nicht-injektiv machen? Für die Bedeutung der bijektiven Abbildungen ist die Tatsache verantwortlich, dass die bijektiven Abbildungen genau die invertierbaren Abbildungen sind. Bevor wir dies erläutern können, brauchen wir noch eine Definition. 10 1 Was wir wissen müssen, bevor wir anfangen können g X f Y Z Abb. 1.3 Hintereinanderausführung von Abbildungen Sei g eine Abbildung von X nach Y und f eine Abbildung von Y nach Z. Dann ist f ○ g die Abbildung von X nach Z, die wie folgt definiert ist: f ○ g(x) ∶= f (g(x)) . Um das Bild von x unter f ○ g zu erhalten, wendet man also zuerst g auf x an; damit erhält man ein Element g(x) von Y, und auf dieses wendet man dann f an, um schließlich f (g(x)) zu erhalten (siehe Abb. 1.3). Man nennt f ○ g die Abbildung, die man aus f und g durch Hintereinanderausführung (Komposition) von Abbildungen erhält. Man spricht kurz auch vom Produkt der Abbildungen f und g. Achtung f ○ g wird von rechts nach links ausgeführt; um dies nicht zu vergessen, benutzt man Sprechweisen wie etwa „erst g dann f “, „f nach g“. Dies ist seltsam, aber nicht aufregend; Sie müssen sich einfach daran gewöhnen. Sie hätten’s natürlich auch anders haben können – wenn wir statt der Schreibweise f (x), bei der f links von x steht, Formulierungen wie xf oder xf benutzen würden (bei denen das Symbol für die Abbildung rechts vom Argument steht). Obwohl das unter Algebraikern als besonders fein gilt, habe ich von dieser (für Sie) ungewohnten (und in der Analysis völlig unüblichen) Schreibweise Abstand genommen. Die Komplikation bei der Hintereinanderausführung von Abbildungen ist der Preis, den wir dafür bezahlen müssen. Es ist klar, dass man f ○ g nur dann bilden kann, wenn der Bildbereich von g im Definitionsbereich von f enthalten ist. Insbesondere kann man bijektive Abbildungen einer Menge in sich stets hintereinander ausführen und erhält dabei wieder eine bijektive Abbildung. Nun zu der angekündigten Tatsache, dass jede bijektive Abbildung invertierbar ist: Satz über die Invertierbarkeit bijektiver Abbildungen Sei f : X → Y eine bijektive Abbildung. Dann gibt es eine Abbildung f ′ : Y → X derart, dass gilt f ○ f ′ = idY und f ′ ○ f = id X . 1.3 Abbildungen 11 Das bedeutet, dass für alle x ∈ X und für alle y ∈ Y gilt f ○ f ′ (y) = y und f ′ ○ f (x) = x . Mit anderen Worten: Jede bijektive Abbildung ist umkehrbar (oder invertierbar). Diese Tatsache müssen wir (wie alle Tatsachen in der Mathematik) beweisen. Was müssen wir dazu tun? In der zu beweisenden Aussage wird behauptet, dass es etwas gibt, nämlich die Abbildung f ′ ; also besteht unsere Aufgabe darin, ein solches f ′ zu finden. Dieses f ′ soll eine Abbildung von Y nach X sein. Unsere Aufgabe kann also noch genauer dadurch beschrieben werden, dass wir für jedes y ∈ Y sagen müssen, was f ′ (y) sein soll. Wir erinnern uns daran, dass f ′ eine Inverse von f werden soll, also die Wirkung von f rückgängig machen muss. Das bedeutet, dass wir ein x ∈ X finden müssen, so dass f (x) = y ist. Gibt es ein solches x? Ja! Denn f ist ja eine bijektive, insbesondere also eine surjektive Abbildung. Daher gibt es zu jedem y ∈ Y ein x ∈ X mit f (x) = y. Es liegt an dieser Stelle nahe, f ′ durch f ′ (y) := x zu definieren. Wir müssen aber noch einmal aufpassen: f ′ soll eine Abbildung sein; das bedeutet, dass jedem Element von Y genau ein Element von X zugeordnet werden muss. Die Frage ist also: Gibt es genau ein x ∈ X mit f (x) = y? Auch hierauf ist die Antwort ja! Dies liegt daran, dass f injektiv ist; dies bedeutet nämlich gerade, dass es keine verschiedenen Elemente von X gibt, die auf dasselbe y abgebildet werden. Also können wir in der Tat die Abbildung f ′ von Y nach X definieren durch f ′(y) ∶= x , wobei x das eindeutig bestimmte Element von X ist mit f (x) = y. Dann gilt nach Definition f ○ f ′(y) = f (x) = y und f ′ ○ f (x) = f ′(y) = x für alle y ∈ Y und alle x ∈ X. Damit haben wir alles gezeigt. ◻ Wir haben in diesem Buch schon einige Beweise geschafft – aber das ist der erste, auf den man (ich schließe mich dabei ein!) nicht so ohne weiteres gekommen wäre. Herzlichen Glückwunsch! Schauen Sie sich nach einer Erholungspause den Beweis nochmals an und überzeugen Sie sich, wie sich durch unsere immer genaueren Fragen die zu beweisenden Sachverhalte fast automatisch ergeben haben. Dies ist oft (aber nicht immer) der Fall. 12 1 Was wir wissen müssen, bevor wir anfangen können In dem obigen Satz haben wir gezeigt, dass jede bijektive Abbildung eine inverse Abbildung hat. Wenn wir diese Aussage nochmals genau anschauen, so sehen wir, dass sie lautet „. . . hat mindestens eine Inverse“. Diese Formulierung löst sofort die Frage aus: Wie viele inverse Abbildungen hat eine bijektive Abbildung? Zwei? Tausend? Unendlich viele? Alles falsch: Genau eine! Dies drückt folgender Satz aus: Eindeutigkeit der inversen Abbildung Sei f : X → Y eine bijektive Abbildung. Dann gibt es genau eine Abbildung f ′ : Y → X mit f ○ f ′ = idY und f ′ ○ f = idX . Dass es mindestens eine solche Abbildung gibt, haben wir vorher gezeigt. Also müssen wir nur noch die Eindeutigkeit von f ′ zeigen. Für solche „Eindeutigkeitsbeweise“ gibt es in der Mathematik ein Standard-Beweisschema; das lautet: Seien f′ und f′′ Abbildungen der fraglichen Art; wir zeigen f′ = f′′ . Das bedeutet, dass f ′ und f ′′ dasselbe Objekt nur unter verschiedenem Namen bezeichnen. (Beachten Sie, dass wir dazu nicht annehmen müssen, dass f ′ und f ′′ verschieden sind). Natürlich kann man die Beweise auch so aufziehen: Seien f′ und f′′ zwei verschiedene Abbildungen der fraglichen Art. Dann folgt ein Widerspruch. Also war f′ = f′′ . (Versuchen Sie stets zuerst die erste Beweisvariante.) Nun ans Werk! Seien f ′ und f ′′ Abbildungen von Y nach X mit f ○ f ′(y) = y und f ○ f ′′ (y) = y für alle y ∈ Y sowie f ′ ○ f (x) = x und f ′′ ○ f (x) = x für alle x ∈ X . Wir zeigen, dass f ′ = f ′′ ist. Um die Gleichheit der Abbildungen f ′ und f ′′ nachzuweisen, müssen wir zeigen, dass für jedes y ∈ Y gilt f ′ (y) = f ′′ (y). Dies ergibt sich aber einfach wie folgt: Da f bijektiv ist, gibt es zu jedem y ∈ Y genau ein x ∈ X mit f (x) = y. Jede zu f inverse Abbildung muss y auf x abbilden. Also gilt f ′(y) = x und f ′′(y) = x , also f ′(y) = f ′′ (y) . Wenn f : X → Y eine bijektive Abbildung ist, so nennen wir die (nach obigem Satz eindeutig bestimmte) Abbildung f ′ : Y → X mit f ′ ○ f (x) = x für alle x ∈ X und f ○ f ′ (y) = y für alle y ∈ Y die zu f inverse Abbildung und schreiben in Zukunft f −1 für f ′ . 1.4 Wann haben zwei Mengen gleich viele Elemente? 13 1.4 Wann haben zwei Mengen gleich viele Elemente? Dumme Frage! Zwei Mengen haben offensichtlich gleich viele Elemente, wenn es eine Zahl n gibt (nämlich die Anzahl ihrer Elemente), so dass sowohl die eine Menge als auch die andere genau n Elemente hat. Wenn man dies so erklärt, stellen sich zwei Fragen. Die eine Frage ist eher praktischer Natur: Muss man wirklich die beiden Mengen abzählen, um herauszubekommen, ob sie gleich viele Elemente haben? Die andere Frage scheint theoretischer Natur zu sein, ist aber sehr wichtig: Kann man auch von unendlichen Mengen sagen, dass sie „gleich viele“ Elemente haben? Zunächst zur ersten Frage. Wenn wir im täglichen Leben feststellen wollen, ob zwei Mengen die gleiche Anzahl von Elementen haben, machen wir das häufig nicht so, dass wir die eine Menge abzählen, dann die andere Menge abzählen und dann die Zahlen vergleichen. Stellen wir uns ein Beispiel vor. Wir wollen herausbekommen, ob in einer populären Vorlesung jeder Student einen Sitzplatz erhält. Man könnte natürlich vorher die Plätze und die Studenten zählen (wie soll das gehen?) und die Zahlen vergleichen – oder man könnte die Studierenden Platz nehmen lassen und dann einfach sehen. Das ist die Idee! Diese führt unschwer zu folgender Definition. Zwei Mengen X und Y heißen gleichmächtig, wenn es eine bijektive Abbildung von X nach Y gibt. So einfach ist das! Im Studenten-Hörsaal-Beispiel wird die bijektive Abbildung einfach durch die Zuordnung eines Studenten zu seinem Platz hergestellt. Wir gewöhnen uns an diesen Begriff, indem wir einige Beispiele betrachten. Gleichmächtigkeit endlicher Mengen Seien X und Y endliche Mengen. Dann gilt: Genau dann sind X und Y (im soeben definierten Sinne) gleichmächtig, wenn sie gleich viele Elemente besitzen. Wir müssen zwei Richtungen beweisen. Wenn X und Y gleichmächtig sind, dann gibt es eine bijektive Abbildung f von X auf Y. Da X endlich ist, können wir X schreiben als X = {x , x , . . . , x n } für eine nichtnegative ganze Zahl n. (Das bedeutet, dass X genau n Elemente hat.) Nun betrachten wir die Bilder yi = f (xi ) der Elemente von X. Da f surjektiv ist, kommt jedes Element y von Y unter diesen Elementen vor; das heißt, dass es ein i gibt mit y = f (xi ). Da f injektiv ist, gibt es nur ein solches i. Also sind die Elemente y1 = f (x1 ), . . . , yn = f (xn ) genau die Elemente von Y. Mit anderen Worten: Auch Y hat genau n Elemente. Umgekehrt mögen die Mengen X und Y beide die gleiche Anzahl n von Elementen besitzen. Jetzt müssen wir eine bijektive Abbildung von X nach Y finden. Dazu nummerieren 14 1 Was wir wissen müssen, bevor wir anfangen können wir die Elemente von X und Y von 1 bis n durch: X = {x , x , . . . , x n } und Y = {y , y , . . . , y n } . (Das ist möglich, da sowohl X als auch Y endliche Mengen mit genau n Elementen sind.) Dann definieren wir die Abbildung f von X nach Y durch f (x i ) ∶= y i . Daraus ergibt sich unmittelbar, dass diese Abbildung f sowohl surjektiv (denn jedes Element yi ∈ Y hat als Urbild xi ) als auch injektiv ist (denn yi hat xi als einziges Urbild). Also ist f bijektiv, und die Behauptung ist bewiesen. ◻ Was ist eine unendliche Menge? Ganz einfach: Eine Menge ist unendlich, wenn sie nicht endlich ist. Genauer gesagt: Eine Menge ist unendlich, wenn es keine nichtnegative ganze Zahl n gibt, so dass sie genau n Elemente hat. Beispiele unendlicher Mengen gibt es in Hülle und Fülle. Die Menge N aller natürlichen Zahlen ist unendlich, die Menge Z ist unendlich. Auch die Menge 2Z aller geraden ganzen Zahlen ist eine unendliche Menge. Und die Menge R aller reellen Zahlen ist unendlich. Manche dieser Mengen kann man durch Aufzählung so beschreiben, dass man „drei Pünktchen“ verwendet. Dies sind die „abzählbaren Mengen“; dazu gehören N, Z, 2Z. Bei anderen Mengen, wie zum Beispiel bei R, geht dies nicht; solche Mengen nennt man „überabzählbar“. Solche Mengen werden uns aber nur am Rande beschäftigen. Der Begriff der Gleichmächtigkeit führt bei unendlichen Mengen zu besonders bemerkenswerten (und merkwürdigen) Resultaten. Gleichmächtigkeit von Z und 2Z Die Mengen Z und 2Z sind gleichmächtig. Zum Beweis müssen wir eine bijektive Abbildung von Z nach 2Z angeben. Dazu überlegen wir uns zunächst, aus welchen Elementen die Menge 2Z besteht. Dies ist genau die Menge der geraden Zahlen; also Z = {z ∈ Z∣z ist gerade} = {z ∈ Z∣ es gibt ein x ∈ Z mit z = x} = {x ∈ Z∣x ∈ Z}. Nun bietet sich als Abbildung von Z nach 2Z die Abbildung f an, die durch f (x) := 2x definiert ist. Der Rest ist einfach: 1.4 Wann haben zwei Mengen gleich viele Elemente? 15 Ist f eine Abbildung von Z nach 2Z? Ja, denn jeder ganzen Zahl x wird eine gerade Zahl 2x zugeordnet. Ist f surjektiv? Ja, denn eine beliebige gerade Zahl 2x hat die ganze Zahl x als Urbild. Ist f injektiv? Ja, denn zwei verschiedene ganze Zahlen x und y werden auf die verschiedenen Zahlen 2x und 2y abgebildet. ◻ Gleichmächtigkeit von N und Z Die Mengen N und Z sind gleichmächtig. Auch hier müssen wir eine Abbildung f finden, die jeder natürlichen Zahl eine ganze Zahl so zuordnet, dass jede ganze Zahl genau einmal erfasst wird. Es gibt viele Abbildungen, die dies leisten; die einfachste sieht vielleicht so aus: f () ∶= , f () ∶= −, f () ∶= , f () ∶= −, f () ∶= , f () ∶= −, f () = , . . . Die allgemeine Formel dafür lautet f (n) ∶= n (für n ∈ N) und f (n − ) ∶= −n (für n ∈ N, n ≥ ) . Es ist offensichtlich, dass jede ganze Zahl als Bild vorkommt; also ist f surjektiv. Ferner überzeugt man sich leicht, dass jede ganze Zahl nur ein Urbild hat: Eine natürliche Zahl n hat 2n und eine negative ganze Zahl −n hat 2n − 1 als Urbild. Also ist f eine bijektive Abbildung. ◻ Als Übung sollen Sie zeigen, dass N und Q gleichmächtig sind (siehe Übungsaufgabe 17). Unendliche Mengen haben viele charakteristische Eigenschaften; eine davon ist die folgende, die man auch zur Definition unendlicher Mengen hätte verwenden können: Ob von einer unendlichen Menge endlich viele Elemente entfernt wurden, kann man an ihrer Mächtigkeit nicht erkennen. Diese Charakterisierung stammt von Richard Dedekind (1831–1916). Dedekindsche Beschreibung unendlicher Mengen Jede unendliche Menge enthält eine echte Teilmenge derselben Mächtigkeit. Wie folgt dies? Wir betrachten eine beliebige unendliche Menge X. Daraus entfernen wir ein beliebiges Element x; dann ist X ′ := X\ { x } eine echte Teilmenge von X. Behauptung: X ′ und X haben dieselbe Mächtigkeit. Wir machen uns dies für den Fall X = N und x = 0 klar. 16 1 Was wir wissen müssen, bevor wir anfangen können Dann ist die Sache einfach; eine gesuchte Abbildung f von N = {0, 1, 2, . . . } nach N′ = {1, 2, 3, . . . } ist durch f (n) := n + 1 definiert. Im allgemeinen Fall verwendet man ein ähnliches, aber technisch komplizierteres Argument. (Vergleichen Sie dazu [Hal], Kapitel 15.) ◻ Bislang ist unser Prototyp für eine unendliche Menge die Menge N der natürlichen Zahlen. Gibt es Mengen, die eine noch größere Mächtigkeit haben? Sicher R! Gibt es Mengen, die eine noch größere Mächtigkeit als R haben? Und Mengen, die eine noch größere Mächtigkeit haben? Bevor wir vor lauter Fragen größenwahnsinnig werden, beantworten wir die Fragen in einem Satz: Ja, hier ist die Freiheit grenzenlos. Es geht immer noch größer! Satz von der Potenzmenge Für jede nichtleere Menge X gilt: Die Potenzmenge P(X) (das heißt: die Menge aller Teilmengen von X) ist nicht gleichmächtig zu X. Da P(X) immer eine zu X gleichmächtige Teilmenge enthält (nämlich die Menge aller einelementigen Teilmengen {x} mit x ∈ X), hat P(X) also eine größere Mächtigkeit als X. Diese Tatsache kann man für endliche Mengen ganz einfach durch Abzählen beweisen; dies werden wir im Anschluss auch machen. Der Beweis für den allgemeinen Fall beruht aber auf einem Trick. Der Beweis erfolgt durch Widerspruch. Angenommen, es gäbe eine bijektive Abbildung f von X auf P(X). Dann ist für alle x ∈ X das Bild f (x) eine Teilmenge von X. Für gewisse x ∈ X gilt, dass x in f (x) liegt, während für die anderen Elemente x ∈/ f (x) gilt. (Bisher haben wir nur benutzt, dass f eine Abbildung ist, und haben die Annahme, dass f bijektiv ist, noch gar nicht ausgenutzt!) Der Trick des Beweises besteht darin, die Subjekte x mit x /∈ f (x) genauer unter die Lupe zu nehmen. Wir fassen diese zu einer Menge zusammen: U ∶= {x ∈ X∣x ∈/ f (x)} . Dann ist U ganz bestimmt eine Teilmenge von X, also ein Element von P(X). Da f eine bijektive Abbildung von X nach P(X) ist, gibt es also ein Element u ∈ X mit f (u) = U. Für dieses u gilt – wie für jedes Element aus X – die Alternative, in U enthalten zu sein oder nicht. Wir werden aber sofort sehen, dass beide Möglichkeiten auf einen Widerspruch führen, also nicht möglich sind. Ist u ∈ U, so muss u die definierende Eigenschaft der Menge U erfüllen, nämlich u /∈ f (u) = U. Also folgte aus u ∈ U die Tatsache u /∈ U, offenbar ein Widerspruch. Daher bleibt nur die zweite Möglichkeit: u /∈ U. Wegen U = f (u) heißt dies u /∈ f (u). Das heißt aber, dass u die definierende Eigenschaft der Menge U erfüllt; daher muss auch u ∈ U 1.4 Wann haben zwei Mengen gleich viele Elemente? 17 gelten. Wie bitte? Wir haben u ∈/ U angenommen und daraus messerscharf geschlossen, dass u ∈ U ist. Was soll der Blödsinn? – Tja, dies zeigt „nur“, dass auch diese Möglichkeit nicht auftreten kann. Und was heißt das? Ganz einfach: Unsere ursprüngliche Annahme, dass es eine bijektive Abbildung von X nach P(X) gibt, war falsch. Damit ist der Satz bewiesen. ◻ Zugegeben, dieser Beweis ist tricky. Wenn Sie ihn nicht sofort verstanden haben, machen Sie sich nichts draus: Erstens werden wir dieses Argument in der linearen Algebra nicht mehr brauchen, und zweitens wird Ihnen sofort anschließend für den wichtigsten Fall ein anderer Beweis geliefert. Mächtigkeit der Potenzmenge Eine endliche Menge mit n Elementen hat genau 2n Teilmengen. Mit anderen Worten: Die Potenzmenge einer endlichen Menge ist „viel größer“ als die Menge selbst. Dies beweisen wir durch Induktion nach n. Da jede Menge mit nur einem Element genau zwei Teilmengen hat (nämlich ∅ und sich selbst), ist die Induktionsbasis (n = 1) richtig. Sei nun n > 1, und sei die Aussage richtig für n − 1. Wir betrachten eine n-elementige Menge X und zeichnen darin ein Element x0 aus. Damit können wir die Teilmengen von X in zwei Klassen einteilen: In diejenigen Teilmengen von X, die x0 nicht enthalten, und in diejenigen, die x0 als Element enthalten. Wir müssen jetzt ausrechnen, wie viele Teilmengen in jeder Klasse liegen. • Für die erste Klasse ist dies ganz einfach: Diejenigen Teilmengen von X, die x0 nicht enthalten, sind genau die Teilmengen der (n − 1)-elementigen Menge X\{x0 }. Nach Induktion gibt es also genau 2n − 1 Teilmengen in der ersten Klasse. • Für die zweite Klasse ist es nicht viel schwerer: Jede Teilmenge Y von X, die x0 enthält, „entspricht eindeutig“ der Teilmenge Y ′ := Y\{x0 } von X ′ := X\{x0 }. Also gibt es auch genau 2n − 1 Teilmengen der zweiten Klasse. [Zur Übung führen wir die Aussage „entspricht eindeutig“ nochmals eine Ebene formaler aus. Diese Aussage bedeutet, dass die beiden fraglichen Mengen gleichmächtig sind, dass es also eine bijektive Abbildung der Menge aller Teilmengen von X, die x0 enthalten, auf die Menge aller Teilmengen von X ′ gibt. Als Kandidat für eine bijektive Abbildung wählen wir die Abbildung f , die für alle Y ⊆ X mit x0 ∈ Y durch f (Y) ∶= Y/{x } definiert ist. 18 1 Was wir wissen müssen, bevor wir anfangen können Die Abbildung f ist surjektiv, da jede Teilmenge Y ′ von X ′ ein Urbild hat, nämlich die Menge Y := Y ′ ∪ {x0 }. Die Abbildung f ist auch injektiv. Wenn nämlich zwei Teilmengen Y 1 und Y 2 , die x0 enthalten, verschieden sind, so müssen sie sich außerhalb von x0 unterscheiden; das heißt Y /{x } ≠ Y /{x } , also f (Y ) ≠ f (Y ) . Also sind diese beiden Mengen gleichmächtig. Das heißt: Die Anzahl der Teilmengen von X, die x0 enthalten, ist gleich der Anzahl der Teilmengen von X ′ , also gleich 2n − 1 .] Die Anzahl aller Teilmengen von X ist also gleich n− + n− = ⋅ n− = n . 1.5 Die Σ-Notation Wir werden oft viele Terme ähnlicher Art addieren. Zum Beispiel: ++++...+n oder + + + + . . . + n oder allgemein a + a + . . . + a n . Diese Summen kann man auf zwei Arten darstellen: Die erste Möglichkeit besteht darin, die Drei-Pünktchen-Schreibweise zu verwenden. Diese haben wir bei den obigen Beispielen angewandt. Diese Schreibweise ist suggestiv und oft unmittelbar verständlich. Ihr Nachteil liegt darin, dass die drei Pünktchen etwas vage sind und das Muster der einzelnen Terme nicht andeuten. Zum Beispiel ist nicht klar, ob + + . . . + n eine Summe aus n + 1 oder aus 2n Gliedern ist. Aus diesem Grund hat man die Σ-Notation („sigma“) eingeführt. Dies ist eine abkürzende Schreibweise für eine Summe. Wir definieren n ∑ a k = a + a + . . . + a n . k= 1.5 Die Σ-Notation 19 Damit können wir die obigen Summen unmissverständlich ausdrücken als n n k= k= k ∑ bzw. ∑ k . Die Variable k wird als Summationsindex bezeichnet. (Oft werden Sie in der Literatur dafür auch den Buchstaben i oder n finden.) Der Summationsindex muss nicht bei 1 anfangen – und nicht bei n aufhören. Auch Ausdrücke der Form ∞ ∞ k=− k= k=−∞ ∑ a k , ∑ b k , oder ∑ c k haben ihren Sinn. Häufig gibt man den Summationsindex nicht direkt, sondern durch eine Bedingung unter den Σ-Zeichen an. Man schreibt etwa n k k ∑ statt ∑ . ≤k≤n k= Der Vorteil dieser Schreibweise liegt in einer sehr hohen Flexibilität. So ist es etwa leicht möglich, zu schreiben . ∑ k ≤k≤n, k Primzahl Zum Schluss dieses Abschnitts noch ein wichtiges, scheinbar schwieriges, in Wirklichkeit aber einfaches Thema, nämlich Doppelsummen. Diese treten dann auf, wenn man Terme mit zwei Indizes summiert oder wenn man zwei Terme mit je einem Index summiert. Wenden wir uns zunächst dem ersten Fall zu. ∑ a kh = a + a + a + a + a + a + a + a + a . ≤k≤, ≤h≤ Man kann auch schreiben ∑ ≤k≤, ≤h≤ a kh = ∑ ∑ a kh ≤k≤ ≤h≤ Die zweite Form bedeutet, dass man zuerst über h summiert, dann über k („von innen nach außen“). Also ∑ ∑ a kh = ∑ (a k + a k + a k ) ≤k≤ ≤h≤ ≤k≤ = (a + a + a ) + (a + a + a ) + (a + a + a ) . 20 1 Was wir wissen müssen, bevor wir anfangen können Entsprechend ergibt sich ∑ ∑ a kh = ∑ (a h + a h + a h ) ≤k≤ ≤h≤ ≤k≤ = (a + a + a ) + (a + a + a ) + (a + a + a ) . Also sind beide Summen gleich. Wenn Assoziativ- und Distributivgesetze gelten, so ist allgemein ∑ ∑ a kh = ∑ ∑ a kh ≤k≤n ≤h≤m ≤h≤m ≤k≤n Man nennt dies die Vertauschung der Summationsreihenfolge. Entsprechendes gilt auch dann, wenn wir Produkte ak ⋅bh addieren: ∑ ∑ ak bh = ∑ ≤k≤n ≤h≤m ∑ ak bh . ≤h≤m ≤k≤n Dies sieht man, wenn man sich die Summen mit drei Pünktchen ausschreibt: ∑ ∑ a k b h = ∑ (a k b + a k b + . . . + a k b m ) ≤h≤m ≤k≤n ≤h≤m = (a b + a b + . . . + a b m ) + (a b + a b + . . . + a b m ) + . . . + (a n b + a n b + . . . + a n b m ) = (a b + a b + . . . + a n b ) + (a b + a b + . . . + a n b ) + . . . + (a b m + a b m + . . . + a n b m ) = ∑ (a b h + a b h + . . . a n b h ) = ∑ ≤h≤m Achtung Manchmal schreibt man statt ∑ ∑ ak bh ≤h≤m ≤k≤n ≤ k ≤ , ≤h≤ auch ∑≤k,h≤ . Das bedeutet, dass sowohl k als auch h zwischen 1 und 3 variieren. Man könnte das aber auch so lesen, dass an k nur die Bedingung 1 ≤ k und an h nur die Bedingung h ≤ 3 gestellt wird. Bei einer solchen Schreibweise muss dann aus dem Zusammenhang klar sein, was gemeint ist. 1.6 Beweisprinzipien Grundsätzlich ist jeder mathematische Satz eine wenn-dann-Aussage: Jeder Satz ist so aufgebaut, dass aus gewissen Aussagen (der Voraussetzung) eine andere Aussage (die Behauptung) mit Hilfe der Gesetze der Logik (und nur mit diesen) abgeleitet wird; dies geschieht im Beweis. In einer Formel geschrieben hat jede mathematische Aussage die Form A ⇒ B; dabei ist A die Voraussetzung und B die Behauptung. Die Aufgabe des Beweises ist dann, mit Mitteln der Logik die Gültigkeit der Implikation A ⇒ B nachzuweisen. 1.6 Beweisprinzipien 21 Dafür gibt es verschiedene Mechanismen. Wir haben für jeden der Basismechanismen schon in diesem Kapitel ein Beispiel gesehen. Wir unterscheiden folgende Beweisarten: Direkter Beweis Dabei wird aus der Voraussetzung die Behauptung „direkt“ bewiesen. Ein gutes Beispiel dafür ist der Beweis des Satzes über die Invertierbarkeit bijektiver Abbildungen. Ein direkter Beweis sieht im Prinzip wie folgt aus: Beweis Sei A erfüllt. Bla, bla, bla. Also gilt B. ◻ Beweis durch Kontraposition Einem solchen Beweis liegt die logische Tatsache zugrunde, dass die Implikation „A ⇒ B“ gleichwertig zur Implikation „ ¬B ⇒ ¬A“ ist. Statt „Aus A folgt B“, kann man genauso gut die Aussage „Aus nicht-B folgt nicht-A“ zeigen – und ist dann fertig! Daher liest sich ein Beweis durch Kontraposition grundsätzlich so: Beweis Es gelte die Aussage ¬B. Bla, bla, bla. Also gilt auch die Aussage ¬A. ◻ Widerspruchsbeweis („indirekter Beweis“) Manchmal zieht man einen Beweis auch in Form eines Widerspruchsbeweises auf: „Angenommen, die Behauptung B wäre falsch; dann (so muss man zeigen) wäre auch die Voraussetzung A falsch“. Bei einem Widerspruchsbeweis hat man eine zusätzliche Aussage, nämlich ¬B, zur Verfügung, mit der man arbeiten kann. Ein schönes Beispiel für einen Widerspruchsbeweis ist der Beweis des Satzes über die Potenzmenge. Ein Beweis durch Widerspruch liest sich so: Beweis Es gelte A. Angenommen, B wäre falsch. Dann gilt ¬B. Bla, bla, bla. Also ergäbe sich ein Widerspruch. Dieser zeigt, dass die Annahme falsch war. ◻ Manchmal (nicht immer!) hat man die Wahl zwischen einem direkten Beweis oder einem Beweis durch Widerspruch. In diesen Fällen sollten Sie stets den direkten Weg wählen. Noch zwei Bemerkungen zu Beweistechniken, also Methoden, mit denen man einen Beweis organisiert. Ich nenne nur zwei. Ringschlüsse Viele mathematische Sätze sind Äquivalenzaussagen: Verschiedene Behauptungen sind gleichwertig; wenn eine gilt, gelten alle anderen. Wie beweist man einen solchen Satz? Häufig geschieht das durch einen so genannten „Ringschluss“. Wenn die äquivalenten Aussagen die Aussagen (a), (b) und (c) sind, so genügt es, die Implikationen „(a) ⇒ (b)“, „(b) ⇒ (c)“ und „(c) ⇒ (a)“ nachzuweisen. Dann folgt jede Aussage aus jeder anderen. 22 1 Was wir wissen müssen, bevor wir anfangen können Induktion Vielleicht die wichtigste Beweistechnik ist das Prinzip der vollständigen Induktion. Üben Sie dies so oft, dass es Ihnen in Fleisch und Blut übergeht. Es lohnt sich! Sie sind eingeladen, mit dieser Übung in Aufgabe 24 zu beginnen. Bemerkung Information über die Bedeutung von Wörtern wie „Lemma“, „Korollar“, sowie Hinweise auf guten (und schlechten) mathematischen Stil finden Sie in meinem Büchlein „Das ist o.B.d.A. trivial!“ [Beu2]. 1.7 Verständnisfragen, Übungen und Tipps Richtig oder falsch? Bei den Kästchenaufgaben müssen Sie entweder ein Argument für die Richtigkeit der Aussage oder ein Gegenbeispiel angeben. Hinweis: Mehr als die Hälfte der „Kästchenaussagen“ (aller Übungen zusammen) ist falsch. Versuchen Sie daher im Zweifelsfall zuerst, ein Gegenbeispiel zu finden. Zu Ihrer Kontrolle sind am Ende des Buches die Antworten (ohne Begründung) aufgelistet. 1. Thema: Implikationen Seien A, B und C mathematische Aussagen, für die „A ⇒ B“ und „B ⇒ C“ gilt. Welche der folgenden Implikationen sind dann richtig? ◻ A ⇒ C, ◻ B ⇒ A, ◻ C ⇒ B, ◻ C ⇒ A, ◻ ¬ A ⇒ ¬ B (mit ¬ A wird die Negation der Aussage A bezeichnet), ◻ ¬ B ⇒ ¬ A, ◻ ¬ C ⇒ ¬ A, ◻ ¬ A ⇒ ¬ C. 2. Thema: Mengen Für je zwei Mengen X und Y gilt: ◻ X\Y = ∅ ⇔ X = Y. ◻ |X ∪ Y| = |X| + |Y| für alle endlichen Mengen X, Y. ◻ X ∪ Y endlich ⇒ X, Y endlich. ◻ X ∩ Y endlich ⇒ X, Y endlich. ◻ Für endliche Mengen X und Y gilt: |X ∪ Y| = |X| + |Y| ⇒ X ∩ Y = ∅ . 3. Thema: Äquivalenzrelationen Die folgenden Vorschriften definieren eine Äquivalenzrelation auf der Menge der natürlichen Zahlen: ◻ x ~ y ⇔ x, y gerade. ◻ x ~ y ⇔ x − y gerade. 1.7 Verständnisfragen, Übungen und Tipps 23 ◻ x ~ y ⇔ x + y gerade. ◻ x ~ y ⇔ x − y ungerade. ◻ x ~ y ⇔ x + y ungerade. 4. Thema: Äquivalenzklassen Sei ~ eine Äquivalenzrelation auf der Menge X. ◻ Für jedes x ∈ X ist die Menge B(x) := {y ∈ X | es gilt nicht y ~ x} eine Äquivalenzklasse von ~. ◻ Wenn ~ nur zwei Äquivalenzklassen hat, so ist B(x) eine Äquivalenzklasse. ◻ Wenn es ein x ∈ X gibt, so dass B(x) eine Äquivalenzklasse ist, so hat ~ nur zwei Äquivalenzklassen. ◻ Für alle x1 , x2 , x3 ∈ X gilt: Wenn weder x1 ~ x2 noch x2 ~ x3 gilt, so gilt auch nicht x1 ~ x3 . ◻ Für alle x1 , x2 , x3 ∈ X gilt: Wenn weder x1 ~ x2 noch x2 ~ x3 gilt, so gilt jedenfalls x1 ~ x3 . 5. Thema: Abbildungen Eine Abbildung f von X nach Y ist genau dann injektiv, wenn gilt ◻ aus x, x′ ∈ X und x ≠ x′ folgt f (x) ≠ f (x′ ), ◻ zu jedem y ∈ Y gibt es höchstens ein x ∈ X mit f (x) = y, ◻ zu jedem x ∈ X gibt es genau ein y ∈ Y mit f (x) = y, ◻ sind x, x′ ∈ X mit f (x) = f (x′ ), so ist x = x′ . Übungsaufgaben 1. Seien X und Y Mengen, für die gilt für alle x ∈ X gilt x /∈ Y . Folgt daraus X ≠ Y ? 2. In meinem Lieblingssteakrestaurant kann man sich seine Mahlzeit aus folgenden Komponenten selbst zusammenstellen: (a) Hüftsteak, Rumpsteak, Filetsteak, Rib-Eye Steak; (b) Gewicht: 180 g oder 250 g; (c) Beilagen: Folienkartoffeln, Pommes frites, Kroketten, Bratkartoffeln, weißer Langkornreis, Maiskolben, Knoblauchbrot, rote Bohnen, Zwiebelringe, Champignons; (d) Saucen: Kräuterbutter, Pfefferrahmsauce, Sauce nach Art Béarnaise. Wenn ich jeden Monat einmal dort esse: Wie lange brauche ich, um alle Kombinationen durchzuprobieren? 3. Zeigen Sie, dass die in Abschn. 1.2 angegebenen Äquivalenzrelationen wirklich Äquivalenzrelationen sind. 24 1 Was wir wissen müssen, bevor wir anfangen können 4. Geben Sie Beispiele von Relationen auf einer Menge X an, die • reflexiv, symmetrisch, aber nicht transitiv, • symmetrisch, transitiv, aber nicht reflexiv, • reflexiv, transitiv, aber nicht symmetrisch, • weder reflexiv, noch symmetrisch noch transitiv sind. 5. Zeigen Sie im Beweis des Satzes über Äquivalenzklassen, dass A(y) ⊆ A(x) gilt. 6. (a) Zeigen Sie, dass in der gewöhnlichen euklidischen Ebene folgendes gilt: Wenn drei Punkte einer Geraden g den gleichen Abstand zu einer Geraden g ′ haben, so haben alle Punkte von g den gleichen Abstand von g ′ . (b) Seien g und g ′ zwei Geraden der gewöhnlichen euklidischen Ebene, die nicht parallel sind. Zeigen Sie, dass es zwei Punkte von g gibt, die den gleichen Abstand zu g ′ haben. 7. Zeigen Sie, dass die folgenden Relationen Äquivalenzrelationen sind: (a) Zwei natürliche Zahlen sind äquivalent, wenn sie die gleiche Quersumme haben. (b) Zwei Städte sind äquivalent, wenn man von der einen in die andere per Bahn fahren kann. 8. Welche der folgenden Zuordnungen ist eine Abbildung, welche ist surjektiv, welche injektiv? • Mensch → Freundin, • Mensch → Vater, • Mensch → Handynummer, • Mensch → Lieblingsessen. Machen Sie sich jeweils genau klar, welche Mengen Sie als Definitions- und Bildbereich wählen. 9. Welche der folgenden Abbildungen f von R in sich sind injektiv, welche sind surjektiv? • f (x) = x3 , • f (x) = ax2 + bx + c (a ≠ 0), • f (x) = | x | , • f (x) = ex . 10. Geben Sie Beispiele von Abbildungen f : X → Y an, die • injektiv und surjektiv, • injektiv, aber nicht surjektiv, • surjektiv, aber nicht injektiv, • weder injektiv noch surjektiv sind. 11. Beschreiben Sie die Begriffe „injektiv“, „surjektiv“ und „bijektiv“ anhand der „alternativen Definition“ einer Abbildung. („Eine Abbildung f ⊆ X × Y ist injektiv, wenn . . . “) 1.7 Verständnisfragen, Übungen und Tipps 25 12. Zeigen Sie den Satz über die Bijektivität invertierbarer Abbildungen: Sei f : X → Y eine Abbildung. Wenn es eine Abbildung f ′ : Y → X gibt, so dass gilt f ○ f ′ = idY und f ′ ○ f = id X , dann ist f bijektiv. 13. Sei f eine Abbildung einer Menge X in eine Menge Y. Zeigen Sie: (a) Wenn X endlich ist, so gilt: (b) Sind X und Y endlich und ist |X| = |Y| , so gilt f ist injektiv ⇔ f ist surjektiv. (c) (Äquivalenz von Injektivität und Surjektivität) Wenn f eine Abbildung einer endlichen Menge in sich ist, so gilt: f ist injektiv ⇔ f ist surjektiv ⇔ f ist bijektiv 14. 15. 16. 17. 18. 19. 20. (d) Zeigen Sie, dass die Aussage (c) falsch ist, wenn X eine unendliche Menge ist. [Wählen Sie zum Beispiel X = Z.] Sei f eine Abbildung einer Menge X in sich. Zeigen Sie: Wenn f ○ f = id gilt, so ist f bijektiv. Zeigen Sie, dass die Mengen Z und 2Z + 1 gleichmächtig sind. Zeigen Sie: (a) Es gibt unendlich viele Primzahlen. (b) Z und die Menge P aller Primzahlen sind gleichmächtig. Zeigen Sie: N und Q sind gleichmächtig. (Wenn Sie nicht weiterkommen, ziehen Sie das Buch von Halmos [Hal] zu Rate.) Lesen Sie [Hal] und machen Sie sich klar, dass N und die Menge der reellen Zahlen zwischen 0 und 1 nicht gleichmächtig sind. Studieren Sie den Beweis des Satzes über Potenzmengen genau, und machen Sie sich klar, dass wir mehr bewiesen haben: Es gibt keine surjektive Abbildung von X nach P(X). Schreiben Sie die folgende Doppelsumme aus: ∑ ai j . ≤i≤,≤ j≤ 21. Eine binäre Folge ist eine Folge, deren Elemente nur 0 und 1 sind. Besteht eine solche Folge aus n Komponenten, so spricht man von einer binären Folge der Länge n. Wie groß ist die Anzahl der binären Folgen der Länge n? [Hinweis: Wenn Sie das nicht schnell sehen, schreiben Sie alle binären Folgen der Längen 2 und 3 auf; dann erhalten Sie eine Vermutung, die Sie dann „nur noch“ beweisen müssen.] 26 1 Was wir wissen müssen, bevor wir anfangen können 22. Sei X eine n-elementige Menge. (a) Geben Sie eine bijektive Abbildung der Menge aller binären Folgen der Länge n auf die Menge aller Teilmengen von X an. (b) Geben Sie damit einen neuen Beweis für die Tatsache ∥ P(X) ∥ = 2n an. 23. Wie viele Folgen (a1 , a2 , . . . , an ) der Länge n gibt es, wenn die einzelnen Folgenglieder ai jeweils genau q Werte annehmen können? 24. Beweisen Sie (mit Induktion): + + + . . . + n = ( + + + . . . + n) . Drücken Sie diese Gleichung auch verbal aus (Also etwa: „Die Summe der ersten n hm-hm-Zahlen ist gleich . . . “). 25. Was bedeuten die Symbole ∏ ak , k≤ n− ⋃ Mi , i= ∞ ⋂ Xn ? n= Sie sollten mit folgenden Begriffen umgehen können Menge, Element, Teilmenge, Durchschnitt, Vereinigung, kartesisches Produkt, Potenzmenge, Relation, Äquivalenzrelation, Äquivalenzklasse, Abbildung, injektiv, surjektiv, bijektiv, invertierbare Abbildung, gleichmächtig Was sagen Sie dazu? Achtung! Hier sind Fallen versteckt: Eine falsche Behauptung wird „bewiesen“! Sie sollten jeweils zum einen ein Gegenbeispiel zu der Behauptung konstruieren (um sich zu überzeugen, dass die Behauptung falsch ist) und zum anderen den Fehler im Beweis finden. Gnutpuaheb. Wenn eine Relation symmetrisch und transitiv ist, ist sie auch reflexiv, also eine Äquivalenzrelation. Sieweb. Sei ∼ eine symmetrische und transitive Relation auf einer Menge X. Sei x ∈ X beliebig, und sei x ∼ y. Wegen der Symmetrie ist dann auch y ∼ x und aufgrund der Transitivität folgt dann auch x ∼ x. Also ist ∼ reflexiv. 1.7 Verständnisfragen, Übungen und Tipps 27 2 Körper Alle Strukturen der linearen Algebra bauen auf „Körpern“ auf; diese sind aber nicht der eigentliche Untersuchungsgegenstand der linearen Algebra (dies sind die Vektorräume, die wir im nächsten Kapitel behandeln). Ein „Körper“ ist nicht nur eine Menge, sondern diese Menge trägt zusätzlich eine Struktur: Auf einer Menge sind zwei Operationen (nämlich + und ⋅) erklärt. Grob gesagt, sind Körper algebraische Strukturen, in denen man so rechnen (d. h. addieren und multiplizieren) kann wie mit rationalen oder reellen Zahlen. 2.1 Die Definition Ein Körper besteht aus einer Menge K von Elementen zusammen mit zwei Verknüpfungen + und ⋅ , die je zwei Elementen x, y ∈ K wieder ein Element x + y bzw. x ⋅ y von K zuordnen. Damit eine solche Struktur Körper genannt wird, müssen die folgenden drei Gruppen von Gesetzen für alle x, y, z ∈ K erfüllt sein: 2.1.1 Gesetze der Addition • Assoziativität: (x + y) + z = x + (y + z) . • Existenz und Eindeutigkeit des neutralen Elements: Es gibt genau ein Element von K, das wir 0 („Nullelement“) nennen, für das gilt +x = x . • Existenz und Eindeutigkeit inverser Elemente: Zu jedem x gibt es genau ein Element, das wir –x nennen, für das gilt x + −x = . A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_2, © Springer Fachmedien Wiesbaden 2014 29 30 2 Körper • Kommutativität: x+y= y+x . 2.1.2 Gesetze der Multiplikation • Assoziativität: x ⋅ (y ⋅ z) = (x ⋅ y) ⋅ z • Existenz und Eindeutigkeit des neutralen Elements: Es gibt genau ein vom Nullelement verschiedenes Element, das wir 1 („Einselement“) nennen, für das gilt: ⋅x = x ⋅= x . • Existenz und Eindeutigkeit inverser Elemente: Zu jedem x ≠ 0 existiert genau ein Element, das wir x−1 nennen, für das gilt: x ⋅ x − = = x − ⋅ x . • Kommutativität: x⋅y= y⋅x . 2.1.3 Distributivgesetz x ⋅ (y + z) = x ⋅ y + x ⋅ z . Wenn Sie nachweisen wollen, dass eine gegebene Struktur ein Körper ist, so müssen Sie (solange keine anderen Charakterisierungen zur Verfügung stehen) alle genannten Eigenschaften verifizieren. Statt x ⋅ y werden wir in Zukunft oft einfach xy schreiben. Um uns an die Definition zu gewöhnen, beweisen wir zwei ganz einfache, aber nützliche Eigenschaften, die für alle Körper gelten und die auf den ersten Blick so unscheinbar sind, dass Sie diese vermutlich übersehen hätten. 1. Multiplikation mit 0 Für jedes x aus K gilt x ⋅ 0 = 0. Zum Beweis gehen wir wie folgt vor: Wir verwenden zweimal die Tatsache, dass 0 neutrales Element bezüglich der Addition ist, und erhalten x ⋅ + = x ⋅ = x ⋅ ( + ) = x ⋅ + x ⋅ . 2.1 Die Definition 31 Wenn wir jetzt auf beiden Seiten x ⋅ 0 abziehen (das ist eine abkürzende Sprechweise für „−x ⋅ 0 addieren“), so ergibt sich 0 = x ⋅ 0. ◻ 2. (Nullteilerfreiheit) Sind x, y ∈ K und gilt x ≠ 0, y ≠ 0, so ist auch x ⋅ y ≠ 0. Beweis Sei x ≠ 0 und xy = 0. Da x ≠ 0 ist, existiert das zu x inverse Element x−1 . Indem wir die Gleichung xy = 0 auf beiden Seiten mit x−1 multiplizieren, erhalten wir aufgrund der ersten Eigenschaft y = (x − x) ⋅ y = x − ⋅ (x y) = x − ⋅ = , also y = 0. Damit ist diese Behauptung gezeigt. ◻ Auf eine Forderung, die unscheinbar formuliert ist, weise ich besonders hin; es handelt sich darum, dass sowohl „+“ als auch „⋅“ Verknüpfungen auf K sein müssen. Was bedeutet das? Eine Verknüpfung (genauer gesagt: eine „binäre“ Verknüpfung) auf K ist eine Abbildung, die jedem Paar von Elementen von K ein Element von K zuordnet. Ganz vornehm ausgedrückt ist eine Verknüpfung also eine Abbildung von K × K in K. Die Addition und Multiplikation eines Körpers K sind Abbildungen (x, y) ↦ x + y und (x, y) → x ⋅ y . Entscheidend ist, dass das Bild (in unserem Fall also x + y und x ⋅ y) wieder ein Element von K ist; diese Forderung bezeichnet man auch als Abgeschlossenheit. Um diesen Begriff klar zu machen, betrachten wir einige Beispiele von Verknüpfungen und von Abbildungen, die keine Verknüpfungen sind. Als Grundmenge wählen wir die Menge N der natürlichen Zahlen. Die gewöhnliche Addition und Multiplikation sowie die Exponentiation sind Verknüpfungen, da x + y, x ⋅ y und xy natürliche Zahlen sind, falls x, y natürliche Zahlen sind. Demgegenüber ist aber weder die Subtraktion noch die Division eine Verknüpfung, denn im Allgemeinen ist x − y und x/y keine natürliche Zahl für x, y ∈ N. Ein weiteres Beispiel ist folgendes: Wenn K ein Körper ist, so ist das Produkt zweier von Null verschiedener Elemente von K, wie wir wissen, ebenfalls verschieden von Null. Dies kann man auch wie folgt ausdrücken: Die Multiplikation ist auf der Menge K\{0} abgeschlossen. Die ersten Beispiele für Körper sind offensichtlich: Sowohl die Menge Q der rationalen Zahlen als auch die Menge R und Q der reellen Zahlen bilden, jeweils zusammen mit der gewöhnlichen Addition und Multiplikation, einen Körper. (In diesen Strukturen gelten noch viel mehr arithmetische Gesetze; zum Beispiel kann man bei den rationalen und reellen Zahlen zwischen positiven und negativen Zahlen unterscheiden und beliebig kleine Zahlen betrachten – beides Möglichkeiten, die in Körpern im allgemeinen nicht vorhanden sind.) 32 2 Körper Bevor wir weitere Beispiele diskutieren, einige Bemerkungen zur Definition eines Körpers, genauer gesagt einige Bemerkungen dazu, was nicht in der Definition eines Körpers steht: • Wir haben auch für die Multiplikation das Kommutativgesetz gefordert. Dies ist zwar üblich – aber man könnte die elementare Körpertheorie auf weite Strecken auch ohne entwickeln. Wenn in einer algebraischen Struktur alle Axiome eines Körpers gelten, nur das Kommutativgesetz für die Multiplikation nicht, so heißt diese Struktur ein Schiefkörper. Man muss dann auch noch das zweite Distributivgesetz (das bei Körpern aufgrund der Kommutativität der Multiplikation automatisch folgt) fordern, nämlich (x + y) ⋅ z = x ⋅ z + y ⋅ z für alle x, y, z ∈ K. Also: Ein Schiefkörper ist eine Menge zusammen mit einer Addition und einer Multiplikation, so dass alle Körperaxiome – mit Ausnahme der Kommutativität der Multiplikation – und beide Distributivgesetze gelten. Wenn wir die Kommutativität der Multiplikation besonders hervorheben wollen, werden wir auch von einem „kommutativen Körper“ sprechen. Dies bedeutet aber für uns nichts anderes als einfach „Körper“. Auch Schiefkörper sind hochinteressante algebraische Strukturen; einer der Höhepunkte dieses Kapitels wird die Konstruktion des „Quaternionenschiefkörpers“ sein. • Mit unseren Axiomen (das heißt: Grundgesetzen) können wir nichts über die „Größe“ (etwa den Absolutbetrag) einzelner Elemente aussagen. Wir können auch keine Aussage über eine Anordnung eines Körpers K (also über eine ≤-Beziehung) machen. Aus den Körperaxiomen folgen auch keine Axiome über die Stetigkeit der Operationen von K; wir können also beispielsweise keine Konvergenzaussagen verwenden. • Man könnte die Körperaxiome auch abschwächen, indem man zum Beispiel nur die Existenz (und nicht die Eindeutigkeit) der neutralen und inversen Elemente fordert. Die Eindeutigkeit kann man nämlich daraus beweisen. Um uns diese Beweise zu ersparen, haben wir ein etwas stärkeres Axiomensystem gewählt. (Wir werden solche Beweise später, in Kap. 9, exemplarisch im Zusammenhang mit der Untersuchung von „Gruppen“ kennen lernen.) Dieses Kapitel hat zwei größere Abschnitte. Im ersten konstruieren wir wichtige Beispiele von Körpern, im zweiten betrachten wir Automorphismen von Körpern. 2.2 Beispiele von Körpern Die neben Q und R wichtigsten Körper sind der Körper C der komplexen Zahlen und der Körper GF(2) aus 0 und 1. Zuerst behandeln wir C. 2.2 Beispiele von Körpern 2.2.1 33 Der Körper der komplexen Zahlen Wir erhalten die komplexen Zahlen aus den reellen Zahlen, indem wir aus einer reellen Zahl zwei machen. Eine komplexe Zahl ist ein Paar z = (a, b) reeller Zahlen; man nennt C = {(a, b)∣a, b ∈ R} (= R × R) . den Körper (noch sollten wir vorsichtig sein und nur sagen: die Menge) der komplexen Zahlen. Man kann komplexe Zahlen addieren und multiplizieren. Dies geschieht dadurch, dass man diese Operationen auf die entsprechenden Operationen in R zurückführt: Seien z = (a, b) und z′ = (a′ , b′ ) zwei komplexe Zahlen. Dann ist z + z ′ ∶= (a, b) + (a ′ , b ′ ) ∶= (a + a ′ , b + b ′) . Man sagt auch, die Addition sei komponentenweise definiert. Die Multiplikation ist nicht komponentenweise definiert, sondern auf folgende zunächst kompliziert erscheinende Art und Weise: z ⋅ z ′ = (a, b) ⋅ (a ′ , b ′ ) ∶= (aa ′ − bb ′ , ab ′ + a ′ b) . Wir werden zeigen, dass C mit dieser Addition und Multiplikation einen Körper bildet. Um zu sehen, dass die Multiplikation nicht völlig sinnlos ist, zeigen wir die Eindeutigkeit und Existenz eines Einselements. Dazu setzen wir das neutrale Element (bezüglich der Multiplikation) mit e = (x, y) an und berechnen x und y. Zunächst nutzen wir aus, dass e die Zahl (1, 0) neutralisieren muss; das heißt (, ) ⋅ (x, y) = (, ) . Nach Definition der Multiplikation folgt daraus (x, y) = ( ⋅ x, ⋅ y) = (, ) ⋅ (x, y) = (, ) . Das bedeutet, dass x = 1 und y = 0 sein muss. Also: Wenn es überhaupt ein Element e gibt, das alle Elemente von C neutralisiert, so muss e = (1, 0) sein. Damit ist die Eindeutigkeit gezeigt. Die Existenz folgt leicht aus der Definition der Multiplikation; es ist nämlich z ⋅ e = (a ⋅ − b ⋅ , a ⋅ + ⋅ b) = (a, b) = z und e ⋅ z = ( ⋅ a − ⋅ b, ⋅ b + a ⋅ ) = (a, b) = z . Also ist e tatsächlich das neutrale Element. 34 2 Körper Bevor wir die übrigen Körperaxiome nachweisen, stellen wir eine alternative Darstellung der komplexen Zahlen vor. Zunächst schreiben wir statt (a, 0) einfach a. Damit können wir die reellen Zahlen als Teil von C auffassen. Außerdem ergeben sich unmittelbar die folgenden Regeln zur Multiplikation einer reellen Zahl r mit einer komplexen Zahl (a, b): r ⋅ (a, b) = (r, ) ⋅ (a, b) = (r ⋅ a, r ⋅ b) und (a, b) ⋅ r = (a, b) ⋅ (r, ) = (ar, br) = (ra, rb) = r ⋅ (a, b) . Insbesondere ist r ⋅ (, ) = (r, ) = r und r ⋅ (, ) = (, r) . Nun kommt der entscheidende Trick: Wir definieren i als i := (0,1) ∈ C. Aufgrund der Definition der Multiplikation ergibt sich i = i ⋅ i = (, ) ⋅ (, ) = (−, ) = − . Diese Vereinbarung macht es möglich, dass wir eine beliebige komplexe Zahl z = (a, b) wie folgt ausdrücken können: z = (a, b) = a ⋅ (, ) + b ⋅ (, ) = a + b ⋅ i = a + ib . Daher schreiben wir statt (a, b) in Zukunft einfach a + ib. Damit können wir das Produkt zweier komplexer Zahlen z = a + ib, z′ = a′ + ib′ berechnen: z ⋅ z ′ = (a, b) ⋅ (a ′ , b ′ ) = (aa ′ − bb ′ , ab ′ + a ′ b) = aa ′ − bb ′ + i(ab ′ + a ′ b) . Andererseits kann man das Produkt (a + bi) ⋅ (a′ + b′ i) „einfach ausrechnen“ und erhält: (a + bi)(a ′ + b ′ i) = aa ′ + (ab ′ + ba ′)i + bi ⋅ b ′ i = aa ′ + bb ′i + (ab ′ + ba ′)i = aa ′ − bb ′ + (ab ′ + ba ′)i = z ⋅ z ′ . Die Regel zur Multiplikation komplexer Zahlen wird dadurch denkbar einfach: Man stelle die komplexen Zahlen in der Form a + ib dar und rechne mit solchen Zahlen „ganz normal“, unter Beachtung der Tatsache i2 = −1. (In Übungsaufgabe 1 sollen Sie sich überzeugen, dass jedes Gleichheitszeichen in obiger Gleichungskette zu Recht besteht.) Man nennt a den Realteil und b den Imaginärteil der komplexen Zahl z = a + ib. Die komplexe Zahl i heißt die imaginäre Einheit von C. Komplexe Zahlen sind gleich, wenn 2.2 Beispiele von Körpern 35 ihre Realteile und ihre Imaginärteile gleich sind. Die reellen Zahlen sind offenbar genau die komplexen Zahlen, deren Imaginärteil gleich Null ist. Die Einführung des Symbols i geht auf Leonhard Euler (1707–1783) zurück. Nun weisen wir alle Körperaxiome für C nach. Gesetze der Addition Da die Addition komponentenweise erklärt ist, ergeben sich alle Gesetze aus den entsprechenden Gesetzen von R: Das Nullelement ist (0, 0); das zu (a, b) inverse Element ist (−a, −b). Gesetze der Multiplikation Wir haben bereits nachgewiesen, dass (1, 0) das Einselement ist. Wir müssen jetzt noch nachweisen, dass jedes Element (a, b) ≠ (0, 0) ein Inverses hat; das bedeutet, dass es genau ein Element (a′ , b′ ) gibt mit (a + bi) ⋅ (a′ + b′ i) = 1, also (a, b) ⋅ (a ′ , b ′) = (, ) . Das bedeutet = (a + bi) ⋅ (a ′ + b ′ i) = aa ′ − bb ′ + (ab ′ + a ′ b)i . Also muss = aa ′ − bb ′ und gelten. Daraus folgt = ab ′ + a ′ b abb ′ = a a ′ − a also und abb ′ = −a ′ b , a ′(a + b ) = a . Das heißt a′ = a a , + b Somit ist z′ = ( b′ = −b . + b a a −b , ) a + b a + b das multiplikative Inverse von z = (a, b) ≠ (0, 0). (Beachten Sie, dass in jedem Fall a2 + b2 ≠ 0 ist. Warum? Wegen z ≠ (0, 0) ist a ≠ 0 oder b ≠ 0 (oder beides). Unabhängig davon, ob a ≠ 0 positiv oder negativ ist, ist a2 stets positiv. Also ist a2 + b2 die Summe der beiden nichtnegativen Zahlen a2 und b2 , von denen mindestens eine verschieden von Null ist. Daher ist a2 + b2 > 0 und insbesondere also a2 + b2 ≠ 0.) Die Assoziativ- und die Distributivgesetze sollen Sie in den Übungen nachrechnen (siehe Übungsaufgabe 2). 36 2 Körper Damit haben wir insgesamt nachgewiesen, dass C ein Körper ist: der Körper der komplexen Zahlen. Man nennt i die imaginäre Einheit; dies ist eine komplexe Zahl, für die i2 = −1 gilt. Zur Geschichte der komplexen Zahlen lesen wir in H. Heusers Lehrbuch der Analysis I das folgende: Komplexe Zahlen verdanken ihr Leben einem Manne, den seine Mutter (wie er selbst berichtet) abtreiben wollte; der sich dann zu einem Wüstling, Streithansl, magisch-mystischen Mathematiker und europaweit gefeierten Arzt entwickelte; ein Mann, der als Student Rektor der Universität Padua und als Greis Insasse des Gefängnisses von Bologna war; der sich erdreistete, das Horoskop Jesu zu stellen und in seinem Buch „Über das Würfelspiel“ Betrugsanleitungen zu geben, und der nebenbei auch noch die „Cardanische Aufhängung“ erfand: Hieronimo Cardano (1501–1576), ein vollblütiger Sohn der italienischen Renaissance. In seiner Ars magna sive de regulis algebraicis („Die große Kunst oder über die algebraischen Regeln“, Nürnberg 1545) führt ihn die unverfängliche Aufgabe, eine Strecke der Länge 10 so in zwei Stücke zu zerlegen, dass das aus ihnen gebildete Rechteck die Fläche 40 hat, √ zu der quadratischen Gleichung x(10 − x) = 40 und zu ihren absurden Lösungen x1,2 := ± −, absurd, weil man aus negativen Zahlen keine (reellen) Quadratwurzeln ziehen kann. Aber nun geschieht etwas Entscheidendes: Cardano setzt die „geistigen Qualen“, die ihm diese Gebilde bereiten, beiseite und findet durch keck-formales Rechnen, dass tatsächlich x1 + x2 = 10 und x1 x2 = 40 ist. Sein ironischer Kommentar: „So schreitet der arithmetische Scharfsinn voran, dessen Ergebnis (zusammengesetzten) Aus√ ebenso subtil √ wie nutzlos ist“. Die „komplexen“ √ drücke α+ −β oder α+i β mit der „imaginären Einheit“ i = − sind dann nicht mehr aus der Mathematik verschwunden, so sehr sie auch als schein- und gespensterhaft empfunden wurden. Denn sie lieferten nicht nur „Lösungen“ aller quadratischen und kubischen Gleichungen – und zwar solche, die erbaulicherweise den vertrauten Wurzelsätzen des Francois Vieta (1540–1603) genügten –, vielmehr ergab unverdrossenes (und unverstandenes) Rechnen mit diesen windigen „Zahlen“ sogar Sätze „im Reellen“. 2.2.2 Der Quaternionenschiefkörper Die Mathematiker haben sich (vor allem im letzten Jahrhundert) gefragt, ob man den Prozess der Erweiterung der reellen Zahlen zu den komplexen wiederholen kann. Lange wurde – ohne Erfolg – damit experimentiert, auf der Menge von Tripeln reeller Zahlen eine sinnvolle Multiplikation zu definieren. Der Entdecker der Quaternionen, William Rowan Hamilton (1805–1865), beschreibt die verzweifelten Szenen in einem Brief an seinen Sohn wie folgt: Every morning, on my coming down to breakfast, you asked me: “Well, Papa, can you multiply triplets?” Whereto I was always obliged to reply, with a sad shake of the head: “No, I can only add and subtract them”. Schließlich entdeckte Hamilton, nachdem er 13 Jahre lang unermüdlich danach gesucht hatte, wie man auf der Menge aller 4-Tupel (Quadrupel) reeller Zahlen eine Multiplikation so definieren kann, dass man damit wenigstens einen Schiefkörper erhält. Auf Hamilton 2.2 Beispiele von Körpern 37 geht auch die Bezeichnung Quaternionen für die Elemente dieses Körpers zurück (lateinisch: quattuor: vier). Übrigens stammt Name Quaternion – aus der Bibel; in Apostelgesch. 12, 4 lesen wir in der lateinischen Ausgabe: [Herodes] misit [Petrum] in carcerem, tradens quattuor quaternionibus militum custodiendum . . . Auf englisch: [Herodes] put [Peter] in prison, and delivered him to four quaternions of soldiers to keep him . . . Der Quaternionenschiefkörper wird zu Ehren Hamiltons heute mit H bezeichnet. Hamilton beschreibt seine Entdeckung äußerst plastisch. Voller Befriedigung berichtet er in einem Brief an seinen Sohn: On the 16th of October, 1843, – which happened to be a Monday, and a Council day of the Royal Irish Academy – I was walking in to attend and preside, and your mother was walking with me, along the Royal Canal, to which she had perhaps driven; and although she talked with me now and then, yet an under-current of thought was going on in my mind, which gave at last a result, whereof it is not too much to say that I felt at once the importance. An electric circuit seemed to close; and a spark flashed forth, the herald (as I foresaw, immediately) of many long years to come of definitely directed thought and work, by myself it spared, and at all events on the part of others, if I should even be allowed to live long enough distinctly to communicate the discovery. Nor should I resist the impulse – unphilosophically as it may have been – to cut with a knife on a stone at Brougham Bridge, as we passed it, the fundamental formula with the symbols i, j, k; namely, i = j = k = ijk = − which contains the Solution of the Problem, but of course the inscription, has long since mouldered away. Hamilton war besessen von den Quaternionen: Als er im Jahre 1865 starb, gab es bereits 150 Veröffentlichungen über Quaternionen – von denen Hamilton selbst 109 geschrieben hatte. In seinem Nachlas fand man 60 (in Worten: sechzig) Buchmanuskripte zur Mathematik der Quaternionen. Man kann heute aber sicher sagen, dass Hamilton und seine Anhänger die Bedeutung der Quaternionen viel zu hoch eingeschätzt haben. Wir beschreiben nun den Quaternionenschiefkörper H auf eine sehr übersichtliche Art und Weise, die sich an der Beschreibung der komplexen Zahl in der Form z = a + ib orientiert. Wir führen dazu drei neue imaginäre Einheiten ein, die wir i, j und k nennen. Die Elemente von H (also die Quaternionen) sind alle Ausdrücke der Form h = a + ib + jc + kd mit a, b, c, d ∈ R . (2.1) Die Summe zweier Quaternionen h und h′ = a′ + ib′ + jc′ + kd′ ist – wie bei den komplexen Zahlen – komponentenweise definiert: h + h ′ ∶= a + a ′ + i(b + b ′) + j(c + c ′) + k(d + d ′ ) . Damit ergeben sich die Additionsgesetze von H wieder ganz einfach aus denen von R: Das Nullelement ist 0 = 0 + i ⋅ 0 + j ⋅ 0 + k ⋅ 0, das additive Inverse („Negative“) des Elements 38 2 Körper h = a + ib + jc + kd ist −h ∶= −a + i(−b) + j(−c) + k(−d) . Um die Multiplikation in H zu definieren, definieren wir zuerst die Multiplikationsregeln für die imaginären Einheiten. Es soll sein i ∶= −, j ∶= −, k ∶= −, i ⋅ j ∶= k, j ⋅ k ∶= i, k ⋅ i ∶= j . (2.2) Ferner sollen die folgenden Rechenregeln für die Einheiten i, j und k gelten. Zum einen fordern wir das Assoziativgesetz für die imaginären Einheiten, also j ⋅ (j ⋅ k) = (j ⋅ j) ⋅ k, k ⋅ (k ⋅ i) = (k ⋅ k) ⋅ i, i ⋅ (i ⋅ j) = (i ⋅ i) ⋅ j, i ⋅ (j ⋅ k) = (i ⋅ j) ⋅ k, . . . zum zweiten soll jede der imaginären Einheiten i, j, k mit jeder reellen Zahl r vertauschbar sein; das heißt: i ⋅ r = r ⋅ i, j ⋅ r = r ⋅ j, k ⋅ r = r ⋅ k für alle r ∈ R . Daraus ergeben sich alle anderen Gesetze! Zum Beispiel: Sind damit alle Produkte der imaginären Einheiten erklärt? Ja, denn es ergibt sich: j ⋅ i = j ⋅ (j ⋅ k) = (j ⋅ j) ⋅ k = − ⋅ k = −k . Entsprechend folgt k ⋅ j = −i und i ⋅ k = −j . Daraus ergibt sich sofort, dass H in keinem Fall ein kommutativer Körper werden kann; denn es ist ja bereits i ⋅ j = k ≠ −k = j ⋅ i . Damit H zumindest ein Schiefkörper werden kann, müssen wir das Produkt beliebiger Quaternionen erklären. Das ist im Prinzip einfach: Wir multiplizieren die Quaternionen aus und bringen das Produkt auf die Form (2.1), indem wir die Gleichungen (2.2) benutzen. Sollen wir das einmal mit zwei allgemeinen Quaternionen h = a + ib + jc + kd und h′ = a′ + ib′ + jc′ + kd′ machen? Ja? Dann holen wir tief Luft und fangen an h ⋅ h ′ = (a + ib + jc + kd) ⋅ (a ′ + ib ′ + jc ′ + kd ′ ) = aa ′ + iab ′ + jac ′ + kad ′ + iba ′ + i bb ′ + ijbc ′ + ikbd ′ + jca ′ + jicb ′ + j cc ′ + jkcd ′ + kda ′ + kidb ′ + kjdc ′ + k dd ′ ′ ′ ′ ′ ′ ′ ′ ′ = aa − bb − cc − dd + i(ab + ba + cd − dc ) + j(ac ′ − bd ′ + ca ′ + db ′ ) + k(ad ′ + bc ′ − cb ′ + da ′) . (2.3) 2.2 Beispiele von Körpern 39 Frage Mal ehrlich, hätten Sie weiter gelesen, wenn ich mit dieser Multiplikationsregel angefangen hätte? Nun zu den Körperaxiomen. Was ist das Einselement? Nach den Erfahrungen mit C ist es verführerisch, das Element 1 (= 1 + i ⋅ 0 + j ⋅ 0 + k ⋅ 0) zu probieren. Geben wir dieser Verführung nach; es ist: ⋅ h = ⋅ (a + ib + jc + kd) = a + ib + jc + kd = h und h ⋅ = (a + ib + jc + kd) ⋅ = a + ib + jc + kd = h . Was ist das zu h = a + ib + jc + kd inverse Element? Wir setzen dies als h′ = a′ + ib′ + jc′ + kd an und werten die Gleichung h ⋅ h′ = 1 aus. Gemäß (2.3) ergeben sich daraus die folgenden vier Gleichungen in den Unbekannten a′ , b′ , c′ , d′ : ′ aa ′ − bb ′ − cc ′ − dd ′ = , ab ′ + ba ′ + cd ′ − dc ′ = , ac ′ − bd ′ + ca ′ + db ′ = , ad ′ + bc ′ − cb ′ + da ′ = . Daraus ergibt sich nach einigen Versuchen und nach höchstens dreimaligem Verrechnen die erstaunlich einfache Beziehung a −b −c , , , a + b + c + d a + b + c + d a + b + c + d −c −d , ) . a + b + c + d a + b + c + d h′ = ( Wir werden in Kap. 4 eine Methode kennen lernen, die solche Gleichungssysteme automatisch löst. Nun zur Assoziativität der Multiplikation. Wir haben gefordert, dass das Assoziativgesetz jedenfalls für die Einheiten gilt. Nun kommt der Trick: Da wir die Multiplikation über die Multiplikation der Symbole i, j, k definiert haben, folgt die Assoziativität von H aus der Assoziativität der imaginären Einheiten! Das ist Mathematik: Wir haben das Problem der Verifizierung unendlich vieler Gleichungen darauf reduziert, überschaubar viele Gleichungen zu verifizieren! In Übungsaufgabe 5 sollen Sie einen ähnlichen Trick für den Nachweis der Distributivgesetze entwickeln. Insgesamt haben wir jetzt gezeigt, dass die Quaternionen einen echten Schiefkörper bilden! Die Konstruktion des Quaternionenschiefkörpers ist ein Stück klassischer Mathematik, das zur mathematischen Allgemeinbildung gehört. Studieren Sie es entsprechend gründlich. Man könnte eine ganze Vorlesung über diesen Körper halten. Wir machen hier nur noch zwei kleine Bemerkungen. 40 2 Körper 1. Der Körper R der reellen Zahlen ist in H enthalten. Die reellen Zahlen sind nämlich genau die Quaternionen a + ib + jc + kd, bei denen die Koeffizienten b, c, d der imaginären Einheiten Null sind. 2. Auch der Körper C der komplexen Zahlen ist in H enthalten. Die komplexen Zahlen sind genau die Quaternionen h = a + ib + jc + kd, bei denen die Koeffizienten von j und k verschwinden. Weitere Information über die Geschichte der Quaternionen und ihre mathematischen Eigenschaften findet man in [Ebbi], Kap. 6. 2.2.3 Einige endliche Körper Zwar ist die Menge Z aller ganzen Zahlen kein Körper (warum?), aber man kann aus Z eine äußerst wichtige Klasse von Körpern gewinnen. Die Grundlage hierfür ist der euklidische Algorithmus. Division mit Rest Sei a eine ganze Zahl und b eine natürliche Zahl mit b ≥ 1. Dann gibt es eindeutig bestimmte ganze Zahlen q und r mit folgenden Eigenschaften a = q ⋅ b + r und ≤ r < b . Man nennt r den Rest, der bei Division von a durch b entsteht. Wir werden diesen Satz hier nicht beweisen; Sie sind im ersten Projekt des Kapitels 6 eingeladen, einen Beweis zu liefern. ◻ Einige Beispiele: • a = 13, b = 3: 13 = 4 ⋅ 3 + 1, also q = 4, r = 1; • a = −13, b = 3: −13 = (−5) ⋅ 3 + 2, also q = −5, r = 2. Für uns ist der Rest einer Division besonders wichtig; deshalb hat er eine wichtige Bezeichnung erhalten. Man bezeichnet ihn mit a mod b (gesprochen ,,a modulo b“) . 2.2 Beispiele von Körpern 41 Tab. 2.1 Addition und Multiplikation in Z5 +5 0 1 2 3 4 0 0 1 2 3 4 1 1 2 3 4 0 2 2 3 4 0 1 3 3 4 0 1 2 4 4 0 1 2 3 ·5 0 1 2 3 4 0 0 0 0 0 0 1 0 1 2 3 4 2 0 2 4 1 3 3 0 3 1 4 2 4 0 4 3 2 1 Tab. 2.2 Addition und Multiplikation in Z6 +6 0 1 2 3 4 5 0 0 1 2 3 4 5 1 1 2 3 4 5 0 2 2 3 4 5 0 1 3 3 4 5 0 1 2 4 4 5 0 1 2 3 5 5 0 1 2 3 4 ·6 0 1 2 3 4 5 0 0 0 0 0 0 0 1 0 1 2 3 4 5 2 0 2 4 0 2 4 3 0 3 0 3 0 3 4 0 4 2 0 4 2 5 0 5 4 3 2 1 Beispiele 13 mod 3 = 1, −13 mod 3 = 2. Wir schreiben a ≡ b mod n (gesprochen ,,a kongruent b modulo n“), falls a mod n = b mod n ist, d. h. falls a und b bei Division durch n den gleichen Rest ergeben. Mit diesem Hilfsmittel können wir zu jeder natürlichen Zahl n eine algebraische Struktur Zn mit Addition und Multiplikation erklären, indem wir definieren: Zn besteht aus den ganzen Zahlen 0, 1, . . . , n − 1; die Addition +n in Zn ist definiert durch a +n b ∶= (a + b) mod n ; schließlich ist die Multiplikation ⋅n in Zn definiert durch a ⋅n b ∶= (a ⋅ b) mod n . In Zn werden also alle durch n teilbaren ganzen Zahlen mit 0 identifiziert; alle Zahlen, die bei Division durch n den Rest 1 ergeben, mit 1 usw. Die Addition und Multiplikation erfolgt „modulo n“. Wir schreiben den Index n an das Plus- und Malzeichen, um es nicht mit den Plus- und Malzeichen für ganze Zahlen zu verwechseln. Wenn keine Verwechslungsgefahr mehr besteht, werden wir den Index großzügig weglassen. Wir betrachten nun zwei Beispiele, nämlich Z5 und Z6 ; wir geben die Addition und die Multiplikation jeweils in einer Tabelle an (Tab. 2.1 und 2.2). Was erkennen wir an diesen Beispielen? Sind diese Strukturen Körper? Schon auf den ersten Blick erkennen wir, dass die additiven Strukturen zwar sehr ähnlich, die multiplikativen Strukturen aber grundsätzlich verschieden sind. Bei Z5 ist zunächst kein Grund 42 2 Körper zu erkennen, weshalb diese Struktur kein Körper sein sollte. Aber Z6 ? Hier sieht die Multiplikationstabelle schon sehr merkwürdig aus. Zwar ist 1 offenbar ein Einselement, aber das Element 2 hat kein Inverses (denn es gibt kein Element x mit 2 ⋅ x = 1)! Also kann Z6 bestimmt kein Körper sein. Wir beantworten die Frage, ob überhaupt und wenn ja, welche Zn Körper sind, in drei Schritten. 1. Etappe Für jede natürliche Zahl n erfüllt Zn alle Axiome eines kommutativen Körpers – bis möglicherweise auf die Existenz eines multiplikativen Inversen. Dies ergibt sich daraus, dass sich die arithmetischen Gesetze von Z auf Zn übertragen. Ganz einfach sind die Existenz der neutralen Elemente und des negativen Elements einzusehen: Da a + 0 = a ist, ist auch a + n 0 = (a + 0) mod n = a + 0 = a. Ebenso folgt a ⋅ 1 mod n = a für alle Elemente a von Zn . Das zu a ∈ Zn negative Element ist n − a; denn es ist a +n (n − a) = (a + (n − a)) mod n = n mod n = . Auch Assoziativ- und Distributivgesetz in Zn folgen aus den entsprechenden Gesetzen in Z. Zum Beispiel ist für Elemente a, b, c von Zn : (a +n b) +n c = (a + b) mod n +n c = ((a + b) mod n + c) mod n = (a + b + c) mod n = . . . = a +n (b +n c) . Der Nachweis der Assoziativität der Multiplikation und des Distributivgesetzes ist Thema der Übungsaufgabe 11. ◻ Der Beweis der ersten Etappe ist ein Beispiel für ein wichtiges Prinzip in der Mathematik, das Homomorphieprinzip: Eigenschaften gehen von einer ,großen‘ Struktur (in unserem Fall Z) durch eine geeignete Abbildung (einen „Homomorphismus“) auf eine kleine Struktur (in unserem Fall Zn ) über. Wir werden solche Homomorphiephänomene in Abschn. 2.3 und ausführlich in Kap. 5 studieren. Es ist nicht erstaunlich, dass die „kleine“ Struktur entsprechende Eigenschaften wie die „große“ hat. Es ist aber zunächst nicht einsichtig, weshalb Zn (unsere „kleine“ Struktur) ein Körper sein soll (also zusätzliche Eigenschaften haben soll). Der nächste Schritt gibt dafür auch keine zusätzlichen Indizien her. 2.2 Beispiele von Körpern 43 2. Etappe Wenn n eine zusammengesetzte ganze Zahl ist, also n = ab mit a > 1 und b > 1, dann ist Zn bestimmt kein Körper. Dies ergibt sich ohne große Schwierigkeiten: Ist n = a ⋅ b mit a > 1 und b > 1, so sind a und b Elemente von Zn mit a ⋅n b = (a ⋅ b) mod n = . Dies ist aber in einem Körper unmöglich, da das Produkt je zweier von Null verschiedener Elemente ein von Null verschiedenes Element ergibt (Nullteilerfreiheit). ◻ Damit können höchstens die Strukturen Zn Körper sein, für die n eine Primzahl ist. (Eine Primzahl ist eine ganze Zahl p > 1, die nur von 1 und p geteilt wird.) Nun die Überraschung: 3. Etappe (Existenz von Körpern mit Primzahlordnung) Wenn p eine Primzahl ist, dann ist Zp ein kommutativer Körper mit genau p Elementen. Beweis Es ist klar, dass Zp genau p Elemente hat. Also ist nur zu zeigen, dass jedes Element a ≠ 0 ein multiplikatives Inverses hat. Im Gegensatz zu den vorigen Untersuchungen werden wir das zu a inverse Element nicht explizit angeben, sondern nur seine Existenz zeigen. Wir brauchen dazu folgenden Hilfssatz über ganze Zahlen (den wir hier nicht beweisen): Teilt die Primzahl p ein Produkt a ⋅ b ganzer Zahlen a und b, so teilt p mindestens eine der Zahlen a oder b. Zum Beispiel folgt aus der Tatsache, dass eine Primzahl p die Zahl 35 teilt, dass p eine der Zahlen 5 oder 7 teilt, also dass p = 5 oder p = 7 ist. (Wenn p keine Primzahl ist, dann gilt diese Aussage nicht: 4 teilt 60 = 6 ⋅ 10, aber 4 teilt weder 6 noch 10.) Wir werden diesen Hilfssatz hier nicht beweisen, aber in Kap. 6 in allgemeinerem Rahmen ausführlicher darauf eingehen. Nun ans Werk: Sei p eine Primzahl, sei a eine natürliche Zahl mit 1 ≤ a < p. Es ist zu zeigen, dass es eine natürliche Zahl a′ < p gibt mit a ⋅ p a′ = 1, das heißt a ⋅ a ′ mod p = . Dazu betrachten wir die Produkte ⋅ p a, ⋅ p a, ⋅ p a, ⋅ p a, . . . , (p − ) ⋅ p a. (∗) 44 2 Körper Behauptung Diese Zahlen sind paarweise verschieden „modulo p“. Angenommen, es wäre h ⋅ p a mod p = k ⋅ p a mod p mit h ≠ k. Das bedeutet, dass h ⋅ a und k ⋅ a den gleichen Rest bei Division durch p haben. Also ist h ⋅ a − k ⋅ a = (h − k) ⋅ a durch p teilbar. Da p das Produkt (h − k) ⋅ a teilt, muss p einen der Faktoren teilen. Kann p die Zahl a teilen? Nein. Denn a ist kleiner als p. Also muss p die Zahl h − k teilen. Ferner liegt diese Zahl zwischen −(p − 1) und + (p − 1) (denn es ist h ≤ p − 1 und k ≤ p − 1). Die einzige Zahl in diesem Intervall, die durch p teilbar ist, ist aber – die Zahl 0. Daher muss h − k = 0, also h = k sein: ein Widerspruch! Was wissen wir jetzt? Die Elemente von (*), die verschieden von 0 (= 0 ⋅ p a) sind, sind verschiedene Elemente von Zp \{0}. Da dies p − 1 Elemente sind, und da Zp \{0} nur p − 1 Elemente hat, müssen das alle Elemente von Zp \{0} sein! Was nützt uns dies? Viel! Daraus folgt nämlich, dass jedes Element aus Zp \{0} eine Darstellung der Form (*) hat. Insbesondere hat die Zahl 1 eine solche Darstellung. Daher muss es eine Zahl h ∈ {1, . . . , p − 1} geben mit = h ⋅p a . Dann ist aber dieses Element h ∈ Zp \{0} invers zu a. 2.2.4 ◻ Konstruktion eines Körpers mit vier Elementen Wir stellen uns vor, dass es einen Körper K mit genau vier Elementen gibt. Wir werden sukzessiv die Elemente und die Operationen von K bestimmen. Dadurch wird dieser Körper so klar vor uns stehen, dass wir von seiner Existenz überzeugt sind. Ein Körper K mit vier Elementen enthält – wie jeder Körper – die Elemente 0, 1, 1 + 1 (das wir 2 taufen können), 1 + 1 + 1, . . . Diese Elemente müssen aber nicht notwendig verschieden sein. Im Gegenteil: Da K nur endlich viele Elemente hat, muss irgendwann ++...+ =++...+ !"" " " " " " " " " " " " " #"" " " " " " " " " " " " " $ !"" " " " " " " " " " " " " #" " " " " " " " " " " " " " $ n mal n mal mit n > m sein. Daraus ergibt sich ++...+ = !"" " " " " " " " " " " " " #"" " " " " " " " " " " " " $ (n−m) mal Insbesondere ist 0 eine Summe von Einsen. Indem wir 1 subtrahieren, erhalten wir + + . . . + = − !"" " " " " " " " " " " " " #"" " " " " " " " " " " " " $ (n−m−) mal Insbesondere halten wir die erstaunliche Tatsache fest, dass das Element −1 von der Form 1 + 1 + . . . + 1 ist. 2.2 Beispiele von Körpern 45 Tab. 2.3 Die Addition in GF(4) + 0 1 a a+1 0 0 1 a a+1 1 1 0 a+1 a a a a+1 0 1 a+1 a+1 a 1 0 Wir wissen, dass Z4 kein Körper ist. Das bedeutet, dass K – falls ein solcher Körper überhaupt existiert! – nicht nur aus den Elementen 0, 1, 1 + 1, 1 + 1 + 1, . . . bestehen kann. Es muss also ein Element a von K geben, das nicht von der Form 0, 1, 1 + 1, . . . ist. Welche Elemente muss K enthalten? Sicherlich – wie jeder Körper – die Elemente 0 und 1. Außerdem a, also auch a + 1. Kann a + 1 eines der Elemente sein, die wir schon aufgelistet haben? Nein: Wäre a + 1 = a, so folgte 1 = 0; wäre a + 1 = 1, so folgte a = 0; wäre a + 1 = 0, so folgte a = −1, also von der Form 1 + 1 + . . . + 1: In jedem Fall ein Widerspruch. Also besteht der Körper K mit vier Elementen genau aus den Elementen 0, 1, a und a + 1. Damit kann man die Additions- und Multiplikationstabelle leicht aufstellen. Zunächst zur Addition: Da die Addition kommutativ ist, gilt 1 + a = a + 1. Als nächstes folgt 1 + 1 = 0, denn sowohl 1 + 1 = 1 als auch 1 + 1 = a als auch 1 + 1 = a + 1 führen auf einen Widerspruch; also muss 1 + 1 das vierte Element, also gleich 0 sein. Daraus folgt auch a + a = a ⋅ ( + ) = a ⋅ = und (a + ) + (a + ) = (a + ) ⋅ ( + ) = (a + ) ⋅ = . Damit ergeben sich alle anderen Summen: (a + ) + = a = + (a + ) und (a + ) + a = a + a + = . Die Additionstabelle sieht also wie folgt aus (Tab. 2.3). Man sieht mit einem Blick, dass 0 das Nullelement ist und dass jedes Element genau eine additive Inverse hat. Mit etwas mehr Mühe zeigt man auch das Assoziativgesetz. Nun zur Multiplikation: Alle Produkte, in denen 0 oder 1 als Faktor vorkommt, sind klar. Wir müssen also nur noch a ⋅ a, (a + 1) ⋅ a, a ⋅ (a + 1) und (a + 1) ⋅ (a + 1) bestimmen. Was kann a ⋅ (a + 1) sein? Weder 0 (sonst wäre a = 0 oder a + 1 = 0), noch a (sonst wäre a + 1 = 1), noch a + 1 (sonst wäre a = 1). Also muss a ⋅ (a + 1) = 1 sein. Entsprechend ergibt sich (a + 1) ⋅ a = 1. Daraus folgt a = a(a + ) + a = + a = a + und (a + ) = (a + )a + a + = + a + = a . Somit hat die Multiplikationstabelle folgendes Aussehen (Tab. 2.4). 46 2 Körper Tab. 2.4 Die Multiplikation in GF(4) ⋅ 0 1 a a+1 0 0 0 0 0 1 0 1 a a+1 a 0 a a+1 1 a+1 0 a+1 1 a Auch bei dieser Tabelle sieht man unschwer, dass jedes von Null verschiedene Element genau ein multiplikatives Inverses hat (denn in jeder von 0 verschiedenen Zeile und Spalte kommt das Element 1 genau einmal vor). Wie üblich sind das Assoziativ- und die Distributivgesetze zwar prinzipiell sehr einfach, in Wahrheit aber relativ mühsam nachzuweisen. Wenn dies alles geleistet ist, dann haben wir bewiesen: Es gibt einen endlichen Körper mit genau 4 Elementen. Schlussbemerkungen Endliche Körper mit q Elementen werden oft mit Fq oder GF(q) bezeichnet. („GF“ steht für „Galoisfeld“ nach Evariste Galois (1811–1832). Das Wort „Feld“ steht dabei für „Körper“; im Englischen heißt ein (mathematischer) Körper bis heute „field“.) Evariste Galois hat (um das mindeste zu sagen) ein äußerst interessantes Leben geführt. Sie sollten nicht versäumen, in einem Buch über Geschichte der Mathematik (etwa [WußA]) den Roman seines Lebens nachzulesen. Wir haben uns klargemacht, dass es endliche Körper GF(p) gibt, wenn p eine Primzahl ist. In der Algebra zeigt man, dass es einen endlichen Körper GF(q) genau dann gibt, wenn q eine Primzahlpotenz, also von der Form q = pn mit p Primzahl und n natürliche Zahl, ist. Jeder solche Körper ist bis auf Isomorphie (siehe den folgenden Abschnitt) eindeutig bestimmt. Das heißt: Für jede Primzahlpotenz q gibt es genau einen Körper mit q Elementen. In den Übungen (siehe Übungsaufgabe 14) wird GF(9) konstruiert werden. 2.3 Automorphismen von Körpern Es hat sich in der Mathematik als außerordentlich nützlich erwiesen, zu jeder Struktur die zugehörigen strukturerhaltenden Abbildungen (Homomorphismen, Automorphismen) zu betrachten. Wir untersuchen die Automorphismen von einigen der in Abschn. 2.2 konstruierten Körper; dies dient hauptsächlich dem Zweck, an substantiellem, aber technisch nicht zu schwierigem Stoff Mathematik zu üben. 2.3 Automorphismen von Körpern 47 2.3.1 Die Definitionen Seien K und L Körper; wir bezeichnen in beiden Körpern die Addition mit + und die Multiplikation mit ⋅. Ein Homomorphismus von K nach L ist eine Abbildung f von K nach L, für die f (x + y) = f (x) + f (y) und f (x ⋅ y) = f (x) ⋅ f (y) für alle x, y ∈ K gilt und folgende Eigenschaft erfüllt ist: f () ≠ . Anschaulich bedeutet dies: Die arithmetische Struktur von K (das heißt „x + y“, „x ⋅ y“) wird durch f auf die arithmetische Struktur von L (also „f (x) + f (y)“, „f (x) ⋅ f (y)“) übertragen. Das Konzept der Homomorphie ist zentral in der Mathematik; es tritt bei allen Strukturen (algebraisch, geometrisch, topologisch, . . . ) auf. Wir werden es später im Rahmen der linearen Abbildungen ausführlich studieren. Jeder Homomorphismus zwischen Körpern ist automatisch injektiv (siehe Übungsaufgabe 21). Ein Homomorphismus zwischen Körpern heißt ein Isomorphismus, falls er bijektiv ist. Wenn es einen Isomorphismus zwischen zwei Strukturen gibt, sagt man, sie sind isomorph. Isomorphe Strukturen sind „strukturgleich“; das bedeutet, dass sie – bis auf eventuelle andere Namen für die Elemente und Verknüpfungen – gleich sind. Für die Isomorphie zweier Strukturen gebraucht man häufig das Symbol ≅. Ein Isomorphismus einer Struktur auf sich selbst heißt Automorphismus. Jede Struktur hat mindestens einen Automorphismus, nämlich die identische Abbildung; diesen bezeichnet man auch als den trivialen Automorphismus. In diesem Abschnitt werden wir die Automorphismen einiger der in Abschn. 2.2 konstruierten Körper studieren. Es ist leider aber so, dass die meisten dieser Körper nur den trivialen Automorphismus haben. Wir werden bis zu C vorstoßen müssen, um einen – allerdings sehr wichtigen – nichttrivialen Automorphismus zu sehen. 2.3.2 Der Körper der rationalen Zahlen In diesem Abschnitt beweisen wir den folgenden Satz. Starrheit von Q Der Körper der rationalen Zahlen besitzt nur den trivialen Automorphismus. 48 2 Körper Dazu überlegen wir uns zunächst zwei ganz einfache Hilfstatsachen, nämlich die Invarianz der neutralen Elemente und die Invarianz der negativen Elemente („Invarianz“ bedeutet Unveränderlichkeit). Invarianz der neutralen Elemente Jeder Automorphismus f eines beliebigen Körpers K führt das Nullelement 0 und Einselement 1 in sich über. Das heißt, es ist f (0) = 0 und f (1) = 1. Zum Beweis schreiben wir =+ (dies folgt aus a = a + 0 für alle a ∈ K). Wenn wir auf beide Seiten f anwenden, ergibt sich f () = f ( + ) = f () + f () . Nun subtrahieren wir auf beiden Seiten f (0) und erhalten = f () − f () = f () + f () − f () = f () , d. h. f (0) = 0. Damit folgt auch f (1) ≠ 0. (Denn sonst wäre f (1) = 0 = f (0), und f wäre nicht injektiv.) Nun wenden wir den entsprechenden Trick auf die Gleichung 1 = 1 ⋅ 1 an: f () = f ( ⋅ ) = f () ⋅ f () . Da f (1) ≠ 0 ist, existiert f (1)−1 , und wir erhalten = f () ⋅ f ()− = f () ⋅ f () ⋅ f ()− = f () , ◻ also f (1) = 1. Die zweite einfache Tatsache ist die folgende: Invarianz der negativen Elemente Jeder Automorphismus f eines beliebigen Körpers K erfüllt f (−a) = − f (a) für alle a ∈ K . 2.3 Automorphismen von Körpern 49 Insbesondere ist stets f (−) = − f () = − . Es ist zu zeigen, dass f (−a) + f (a) = 0 ist: f (−a) + f (a) = f ((−a) + a) = f () = . Nun zu Q: Sei f ein beliebiger Automorphismus des Körpers Q. Wir müssen zeigen, dass f jedes Element von Q fest lässt. Dazu schalten wir einen Schritt vor: Invarianz der ganzen Zahlen Jeder Automorphismus f von Q lässt jede ganze Zahl fest: Beweis Sei zunächst n eine natürliche Zahl. Dann ist n =++...+ . !"" " " " " " " " " " " " " #"" " " " " " " " " " " " " $ n mal Da f (1) = 1 ist, ergibt sich daraus f (n) = f ( + + . . . + ) = f () + f () + . . . + f () = + + . . . + = n . Wenn −n eine negative ganze Zahl ist, dann ist −n = (−) + (−) + . . . + (−) (n mal) . Da f (−1) = −f (1) = −1 ist, folgt f (−n) = f ((−) + (−) + . . . + (−)) = f (−) + f (−) + . . . + f (−) = (−) + (−) + . . . + (−) = −n . Daraus folgt, dass jede rationale Zahl q = r/s festbleibt: f (q) = f (r/s) = f (r ⋅ s − ) = f (r) ⋅ f (s − ) = f (r) ⋅ f (s)− = r ⋅ s − = q , da r, s ∈ Z. (Die Gleichung f (s−1 ) = f (s)−1 ist Gegenstand von Übungsaufgabe 16.) Damit haben wir gezeigt, dass der Körper Q nur den trivialen Automorphismus besitzt; man sagt dazu auch: Q ist starr. 50 2 Körper 2.3.3 Der Körper der reellen Zahlen Nun zeigen wir, dass auch der Körper R starr ist. Dazu stellen wir uns wieder einen beliebigen Automorphismus f des Körpers R vor und zeigen, dass f jede reelle Zahl auf sich abbildet. Genau so wie im vorigen Abschnitt zeigt man, dass f jede rationale Zahl wieder auf eine rationale Zahl abbildet (das Bild von r/s ist f (r)/f (s)). Also wissen wir, dass f einen Automorphismus von Q „induziert“. Das Ergebnis des vorigen Abschnitts sagt also, dass f alle rationalen Zahlen festlassen muss. Daher brauchen wir uns nur noch zu überzeugen, dass f an keiner irrationalen Zahl „wackeln“ kann. Der Trick besteht darin, eine irrationale Zahl zwischen rationalen Zahlen so einzuschachteln, dass sie nicht aus diesem Intervall entwischen kann. Dazu müssen wir nachweisen, dass f die Ordnungsrelation „≤“ respektiert: Invarianz der Ordnungsrelation Wenn a < b ist, dann gilt f (a) < f (b). Das zunächst unlösbar scheinende Problem hierbei ist, dass nicht zu sehen ist, wie man f auf eine Ungleichung anwenden kann. Man könnte natürlich „a < b“ so in eine Gleichung verwandeln, dass man „a + c = b (mit positivem c)“ schreiben kann. Wenn man darauf f anwendet, erhält man f (a) + f (c) = f (b) . Da man aber nicht kontrollieren kann, ob f (c) positiv oder negativ ist, nützt einem diese Gleichung wenig. Also muss man anders vorgehen. Hier kommt der folgende Trick zur Anwendung: Aus a < b folgt b − a > 0. Da jede positive reelle Zahl eine reelle Quadratwurzel hat, gibt es eine reelle Zahl r mit b − a = r 2 . Damit sind wir in der Lage, mit f zu operieren: f (b) − f (a) = f (b − a) = f (r ) = f (r) ⋅ f (r) > , da das Quadrat einer jeden reellen Zahl nichtnegativ ist. Das bedeutet f (b) > f (a) . Hieraus ergibt sich nun leicht, dass R starr ist: Angenommen, es gäbe eine reelle Zahl r mit f (r) ≠ r. Sei o. B. d. A. r < f (r). („O. B. d. A.“ ist eine Abkürzung für „ohne Beschränkung der Allgemeinheit“; dies bedeutet in unserem Fall, dass der Fall „f (r) < r“ genauso funktioniert.) Wir wählen eine rationale Zahl q mit r < q < f (r) . 2.3 Automorphismen von Körpern 51 Wegen der Invarianz der Ordnungsrelation folgt aus r < q aber f (r) < f (q) = q . Dies ist ein Widerspruch. Also bleibt jede reelle Zahl unter f fest. Somit gilt: Starrheit von R Der Körper der reellen Zahlen besitzt nur den trivialen Automorphismus. Nun kommen wir endlich zu einem Körper mit einem nichttrivialen Automorphismus. 2.3.4 Konjugiert-komplexe Zahlen Der Körper C der komplexen Zahlen hat zwar – man glaubt es kaum – überabzählbar viele Automorphismen (siehe etwa [Hun, S. 317, Exercise 6]), ein Automorphismus spielt aber eine ganz besondere Rolle; diesen behandeln wir hier. Für eine komplexe Zahl z = a + ib sei z̄ = a − ib Diese Zahl heißt die zu z konjugiert-komplexe Zahl. Satz über konjugiert-komplexe Zahlen Die Abbildung f von C in sich, die definiert ist durch f (z) = f (a + ib) ∶= a − ib = z̄ , ist ein Automorphismus von C. Beweis Offenbar ist f surjektiv und injektiv. Sind z = a + ib und z′ = a′ + ib′ zwei beliebige komplexe Zahlen, so gilt: f (z + z ′ ) = f (a + a ′ + i(b + b ′ )) = a + a ′ − i(b + b ′ ) = a − ib + a ′ − ib ′ = f (z) + f (z ′) , und f (zz ′) = f ((a + ib)(a ′ + ib ′)) = f (aa ′ − bb ′ + i(ab ′ + a ′ b)) = aa ′ − bb ′ − i(ab ′ + a ′ b) = (a − ib)(a ′ − ib ′) = f (z) f (z ′) . 52 2 Körper Hurra! Die Abbildung f ist ein Automorphismus von C, der nicht alle Elemente fest lässt! Apropos: Welche Elemente von C bleiben unter f fest? Das sind diejenigen Elemente, für die gilt f (z) = z , also a − ib = a + ib , d. h. = ib, also b=. Das sind also genau die Elemente von C, deren Imaginärteil gleich Null ist, also genau die reellen Zahlen. 2.4 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Komplexe Zahlen ◻ i ist die einzige komplexe Zahl, deren Quadrat gleich −1 ist. ◻ 1 ist die einzige komplexe Zahl, die zu sich selbst (multiplikativ) invers ist. ◻ Die multiplikative Inverse einer Zahl aus C\R ist nicht reell. ◻ Das Produkt je zweier Zahlen aus C\R ist in C\R. 2. Thema: Automorphismen von Körpern. Sei K ein Körper. ◻ Die Identität ist immer ein Automorphismus von K. ◻ Die Identität ist nie ein Automorphismus von K. ◻ Jeder Körper hat nur die Identität als Automorphismus. ◻ Jeder Körper hat mindestens zwei Automorphismen, nämlich die Identität und die Nullabbildung (das ist diejenige Abbildung, die jedes Element auf 0 abbildet). ◻ Kein Automorphismus ≠ id bildet ein Element von K auf sich ab. ◻ Jeder Automorphismus von K lässt mindestens zwei Elemente von K fest. ◻ GF(4) hat nur die Identität als Automorphismus. Übungsaufgaben 1. Überzeugen Sie sich, dass jedes der Gleichheitszeichen in folgender Gleichungskette im Körper C der komplexen Zahlen zu Recht besteht (das heißt, auf die Definition zurückgeführt werden kann). (a + bi)(a ′ + b ′ i) = aa ′ + ab ′i + bia ′ + bi ⋅ b ′ i = aa ′ + bb ′i + (ab ′ + ba ′)i = aa ′ − bb ′ + (ab ′ + ba ′)i = z ⋅ z ′ . 2.4 Verständnisfragen, Übungen und Tipps 53 2. Zeigen Sie, dass in C die Assoziativgesetze und das Distributivgesetz gelten. 3. Berechnen Sie die multiplikativen Inversen der folgenden komplexen Zahlen: + i , − i , + i . 4. Zeigen Sie, dass für die Einheiten von H das Assoziativgesetz gilt, falls man (neben den anderen Festlegungen, die wir in Abschn. 2.2 für die Einheiten getroffen haben) nur die folgenden Gesetze fordert: j ⋅ (j ⋅ k) = (j ⋅ j) ⋅ k, k ⋅ (k ⋅ i) = (k ⋅ k) ⋅ i, i ⋅ (i ⋅ j) = (i ⋅ i) ⋅ j . 5. (a) Zeigen Sie: Man kann die Gültigkeit der Distributivgesetze in H auf die Gültigkeit der Distributivgesetze für die Einheiten zurückführen. (b) Weisen Sie die Distributivgesetze für die Einheiten von H nach. 6. Führen Sie den Quaternionenschiefkörper nach der Art und Weise ein, in der wir die komplexen Zahlen eingeführt haben. Also etwa so: Die Quaternionen sind die 4-Tupel (a, b, c, d) reeller Zahlen. Speziell setzen wir fest: i := (0, 1, 0, 0), j = (0, 0, 1, 0), k : = (0, 0, 0, 1). Die Addition wird komponentenweise definiert. (a) Definieren Sie die Multiplikation. (b) Zeigen Sie, dass man auf diese Weise einen Schiefkörper erhält. 7. Sei n eine natürliche Zahl. Zeigen Sie: Wenn a, b, a′ , b′ natürliche Zahlen sind mit a ′ ≡ a mod n und b ′ ≡ b mod n , so gilt auch a ′ + b ′ ≡ a + b mod n und a ′ ⋅ b ′ ≡ a ⋅ b mod n . 8. Lösen Sie die folgenden Gleichungen „modulo 11“ (das heißt in Z11 ): ⋅ x = , ⋅ x + = , ⋅ x − = , ⋅ x = . 9. Welche der folgenden Gleichungen sind „modulo 12“ (das heißt in Z12 ) lösbar? Geben Sie gegebenenfalls eine Lösung an: ⋅ x = , ⋅ x + = , ⋅ x − = , ⋅ x = . 10. Warum ist Zab für a > 1 und b > 1 kein Körper? Ist es möglich, dass eine Teilmenge U ⊆ Zab (mit der Addition und Multiplikation von Zab !) ein Körper ist? 11. Zeigen Sie, dass in Zn das Assoziativ- und das Distributivgesetz gelten. 54 2 Körper 12. Die Ordnung eines Elements a ≠ 0 aus Zn ist die kleinste natürliche Zahl i mit ai = 1 (in Zn ). Bestimmen Sie die Ordnung in folgenden Fällen: a = , n = ; a = , n = ; a = , n = ; a = , n = . 13. Überlegen Sie, dass es keinen Körper mit genau 6 Elementen gibt. 14. Konstruieren Sie einen Körper, der genau 9 Elemente hat. 15. Sei K ein Körper, in dem es kein Element a gibt, für das a2 = −1 gilt. Wir definieren auf der Menge K × K die Addition komponentenweise und eine Multiplikation durch folgende Vorschrift: (x, y) ⋅ (x ′ , y ′ ) ∶= (xx ′ − y y ′ , x y ′ + x ′ y) . (a) Zeigen Sie, dass die so definierte Struktur ein Null- und ein Einselement besitzt. (b) Zeigen sie, dass jedes von 0 verschiedene Element ein multiplikatives Inverses besitzt. (c) Ist K × K mit den oben definierten Verknüpfungen ein Körper? 16. Zeigen Sie: Wenn f ein Automorphismus eines Körpers K ist, dann gilt f (k−1 ) = f (k)−1 für alle k ∈ K\{0}. 17. Sei K ein endlicher Körper. (a) Dann gibt es eine natürliche Zahl n derart, dass n⋅ =++...+ = . !"" " " " " " " " " " " " " #"" " " " " " " " " " " " " $ n mal 18. 19. 20. 21. gilt. (b) Sei p die kleinste natürliche Zahl mit p ⋅ 1 = 0. Zeigen Sie: p ist eine Primzahl. [Man nennt p die Charakteristik des Körpers K] (a) Sei p eine Primzahl. Zeigen Sie: Zp hat die Charakteristik p. (b) Sei K ein Körper mit Charakteristik p. Dann enthält K einen Körper, der isomorph zu Zp ist. (c) Sei K ein Körper der Charakteristik p, und sei K nicht isomorph zu Zp . Dann gilt ∣K∣ ≥ p Bestimmen Sie alle Automorphismen der Körper GF(2), GF(3), GF(4). Bestimmen Sie alle Automorphismen des Körpers GF(p) (= Zp ), wobei p eine Primzahl ist. Sei f : K → L ein Homomorphismus des Körpers K in den Körper L. Zeigen Sie: (a) Das Element 0 ∈ K ist das einzige Element, das auf 0 ∈ L abgebildet wird. (b) Die Abbildung f ist injektiv. Projekt: Die Gaußsche Zahlenebene Ein „Projekt“ ist eine große Übungsaufgabe. Sie sollten versuchen, nachdem Sie den Stoff verstanden haben, ein Projekt zu bearbeiten. Nehmen sie sich dazu eine Woche 2.4 Verständnisfragen, Übungen und Tipps 55 Zeit, lösen Sie pro Tag eine Teilaufgabe. Versuchen Sie, Ihre Erkenntnisse sauber aufzuschreiben. Erschrecken Sie nicht vor der Länge der Aufgabenstellung. Diese dient nur dazu, Ihnen zu helfen und Ihnen genau zu sagen, was Sie im nächsten Teilschritt tun sollten. Carl Friedrich Gauß (1777–1855), einer der bedeutendsten Mathematiker aller Zeiten, hat mit seiner geometrischen Interpretation der komplexen Zahlen wesentlich dazu beigetragen, dass man allgemein an die Existenz der komplexen Zahlen „glaubte“. (Diese Interpretation war allerdings schon zuvor von John Wallis (1616–1703) erahnt und von Caspar Wessel (1745–1818) präzise formuliert worden.) Der erste Schritt ist ganz einfach: Wir identifizieren die komplexe Zahl a + ib mit dem Punkt P = (a, b) der kartesischen Ebene (siehe Abb. 2.1). Zum Beispiel wird die Zahl 0 mit dem Koordinatenursprung O = (0, 0) identifiziert. Umgekehrt nennt man die kartesische Ebene, bei der jeder Punkt als komplexe Zahl interpretiert wird, die Gaußsche Zahlenebene (Abb. 2.1). z' = a'+b'i z+z' = (a+a') + (b+b')i z = a+bi Abb. 2.1 Die Gaußsche Zahlenebene Die Frage ist jetzt, ob sich die Addition und die Multiplikation im Körper C geometrisch deuten lassen. Wir setzen für dieses Projekt einige elementare Kenntnisse der ebenen Geometrie voraus. Als einführende und vertiefende Literatur empfehle ich [Cox], Kap. 9. 1. Zeigen Sie, dass die Summe der Elemente a + ib, c + id ∈ C der Summe der Punkte (a, b) und (c, d) entspricht. Die Summe zweier Punkte P und Q ist dabei erklärt als der vierte Punkt des Parallelogramms, das die Punkte O, P und Q als Ecken hat. Nun zur Multiplikation. Die Multiplikation eines Punktes mit einer reellen Zahl ist einfach zu beschreiben. 56 2 Körper 2. Auf welchen Punkt wird ein Punkt A abgebildet, wenn er mit 2 multipliziert wird? Gibt es einen Punkt, der bei dieser Abbildung unverändert bleibt? (Einen solchen Punkt nennt man Fixpunkt.) Welche Geraden bleiben fest? Eine Streckung ist eine Abbildung der Ebene R2 in sich, die Geraden in Geraden überführt, genau einen Fixpunkt P (das Zentrum) hat, so dass jede Gerade durch diesen Fixpunkt in sich überführt wird. 3. Zeigen Sie: Die Abbildung der Gaußschen Zahlenebene in sich, die durch Multiplikation mit einer reellen Zahl ≠ 0 beschrieben wird, ist eine Streckung mit Zentrum O. Nun zur Multiplikation mit echt komplexen Zahlen. 4. Zeichnen Sie ein Dreieck mit den Eckpunkten A = (a, a′ ), B = (b, b′ ) und C = (c, c′ ) in die Ebene (wählen Sie konkrete Werte für a, a′ , b, b′ , c, c′ ). Multiplizieren Sie jeden Punkt mit i. (Das heißt: Bilden Sie die Punkte A* = (a + ia′ )i, B* = , . . . ) Beschreiben Sie die geometrische Operation, die das Ausgangsdreieck vollzogen hat. 5. Welchen Effekt beobachten Sie, wenn Sie die Punkte A, B, C mit der komplexen Zahl z = cos 45° + i ⋅ sin 45° multiplizieren. 6. Zeigen Sie: Die Multiplikation mit der komplexen Zahl z = cosφ + i ⋅ sinφ beschreibt eine Drehung um den Ursprung um den Winkel φ. Für welchen Winkel φ erhält man eine Punktspiegelung? 7. Beschreiben Sie die geometrische Operation, die durch die Multiplikation mit einer komplexen Zahl c + id beschrieben wird, indem Sie diese als Hintereinanderausführung einer Drehung und einer Streckung („Drehstreckung“) beschreiben. Es gibt noch weitere geometrisch interessante Abbildungen, zum Beispiel die Spiegelungen an einer Achse. Kann man auch diese in der Gaußschen Zahlenebene darstellen? Nichts leichter als das: 8. Zeigen Sie: Die Abbildung σ: z → z̄ beschreibt eine Spiegelung an der x-Achse. (Dafür müssen Sie zeigen, dass σ Punkte in Punkte, Geraden in Geraden überführt, dass jeder Punkt der x-Achse festbleibt und dass jede Gerade senkrecht zur x-Achse in sich überführt wird.) Sie sollten mit folgenden Begriffen umgehen können Körper, neutrales Element, inverses Element, Assoziativität, Distributivität, Kommutativität, Schiefkörper, R, C, i, imaginäre Einheit, Realteil, Imaginärteil, H, Quaternionen, a mod b, Zn , GF(q), Homomorphismus, Isomorphismus, isomorph, Automorphismus, starrer Körper, konjugiert komplex 2.4 Verständnisfragen, Übungen und Tipps 57 3 Vektorräume Nun kommen wir zum zentralen Thema der linearen Algebra, den Vektorräumen. Vektorräume haben sich im Laufe des 19. und 20. Jahrhunderts als eine der allerwichtigsten mathematischen Strukturen herausgestellt, die in praktisch jeder mathematischen Disziplin eine grundlegende Rolle spielen. Deshalb bilden Vektorräume auch zu Recht einen Schwerpunkt in der mathematischen Grundausbildung. 3.1 Die Definition Jedem Vektorraum liegt ein Körper K zugrunde. Welcher spezielle Körper das ist, wird meistens keine Rolle spielen; deshalb nennen wir den Körper neutral K. Wir werden die Elemente von K oft auch Skalare nennen. Diese werden so bezeichnet, weil man sich die Körperelemente, insbesondere die reellen Zahlen als Elemente einer „Skala“ vorstellen kann. Die Hauptsache eines Vektorraums sind aber seine Elemente, die Vektoren. Ein Vektorraum über dem Körper K (auch K-Vektorraum genannt) besteht aus einer Menge V von Elementen, die wir Vektoren nennen, die den folgenden Gesetzen genügt: 1. Verknüpfung von Vektoren Es gibt eine Verknüpfung + auf V, die je zwei Vektoren v und w einen Vektor v + w zuordnet, so dass für alle u, v, w ∈ V die folgenden Eigenschaften erfüllt sind: Assoziativität u + (v + w) = (u + v) + w . Existenz des Nullvektors Es gibt einen Vektor, den wir mit o bezeichnen, mit folgender Eigenschaft v+o =v . A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_3, © Springer Fachmedien Wiesbaden 2014 59 60 3 Vektorräume Existenz negativer Vektoren Zu jedem Vektor v gibt es einen Vektor, den wir −v nennen, mit v + (−v) = o . Kommutativität u+v =v +u . 2. Verknüpfung von Skalaren und Vektoren Für jeden Vektor v ∈ V und jeden Skalar k ∈ K ist ein Vektor k ⋅ v definiert (das Objekt k ⋅ v (für das wir auch kurz kv schreiben) soll also ein Element von V sein). Diese Bildung des skalaren Vielfachen ist so, dass für alle h, k ∈ K und für alle Vektoren v, w ∈ V die folgenden Eigenschaften gelten: (k + h)v = kv + hv , (k ⋅ h) ⋅ v = k ⋅ (h ⋅ v) , ⋅v =v , k ⋅ (v + w) = k ⋅ v + k ⋅ w . Mit diesen Eigenschaften werden wir im Laufe dieses Kurses unübertrieben tausendfach umgehen; es lohnt sich also, sich diese einzuprägen. Wir werden oft R-Vektorräume bzw. Vektorräume über dem Körper C betrachten; solche Vektorräume nennt man auch reelle Vektorräume bzw. komplexe Vektorräume. Wir überlegen uns zunächst zwei einfache Folgerungen aus den Axiomen. Eindeutigkeit des Nullvektors Es gibt genau einen Vektor o mit v + o = v = o + v für alle v ∈ V. Angenommen, es gäbe ein zweites Element aus V, das wir o′ nennen, für das v + o′ = v für alle v ∈ V gilt. Um zu zeigen, dass o′ = o ist, lassen wir die beiden gegeneinander antreten: Da die Addition kommutativ ist und da o ein Nullelement ist, gilt o + o′ = o′ + o = o′ . Da o′ ein Nullelement ist, gilt aber genauso gut o + o′ = o . Zusammen ergibt sich o′ = o + o′ = o, also o′ = o . ◻ 3.2 Beispiele von Vektorräumen 61 Eindeutigkeit der negativen Vektoren Zu jedem v ∈ V gibt es genau einen Vektor −v mit v + (−v) = o. Um das zu beweisen betrachten wir einen Vektor v′ , der ebenfalls v + v′ = o erfüllt. Wir addieren zu beiden Seiten der Gleichung v + v′ = o den Vektor −v und erhalten −v + (v + v ′ ) = −v + o = −v , also v ′ = (−v + v) + v ′ = −v + (v + v ′ ) = −v + o = −v . ◻ Gleich hier einige Bemerkungen. In einem Vektorraum sind zwei Strukturen, die des Körpers K und die der Menge V der Vektoren, miteinander verknüpft. In beiden Strukturen kann man addieren; also gibt es zwei verschiedene „+“-Zeichen: eins für Skalare, eins für Vektoren. Ebenso gibt es zwei Nullelemente: das Nullelement von K und den Nullvektor. Schließlich gibt es auch zwei verschiedene Multiplikationen: die in K und die, die einen Skalar mit einem Vektor verknüpft. Wir werden aber nur ein „+“-Zeichen und nur ein „⋅“Zeichen verwenden. Das scheint zunächst eine völlig unbillige Schikane zu sein – ist es aber nicht. Denn in spätestens zwei Seiten würde Ihnen der Zwang zum Gebrauch verschiedener Symbole lästig werden. Glauben Sie mir: Bisher hat jeder Mathematiker diese Hürde überwunden; Sie werden es also auch schaffen! Dieses Kapitel wird zwei weitere größere Abschnitte haben. Zunächst werden wir uns eine ganze Reihe von Beispielen von Vektorräumen ansehen und dann, in einem relativ langen Abschnitt, die elementare Theorie der Vektorräume entwickeln. Dort werden so nützliche Begriffe wie „Basis“ und „Dimension“ eingeführt, die eine hervorragende Beschreibung von Vektorräumen ermöglichen. 3.2 Beispiele von Vektorräumen In diesem Abschnitt werden wir einige wichtige Beispiele von Vektorräumen vorstellen. Die Strukturen werden so weit erklärt, dass Sie in den Übungen ohne weiteres verifizieren können, dass es sich wirklich um Vektorräume handelt (siehe Übungsaufgabe 1). 3.2.1 Vektorräume mit Hilfe von Geometrie Wir legen die euklidische Ebene oder den euklidischen Raum (das heißt die Anschauungsebene oder den Anschauungsraum) zugrunde. Wir stellen uns eine spezielle Sorte von 62 3 Vektorräume Abbildungen in der Ebene oder im Rau vor, nämlich die Verschiebungen (auch Translationen genannt). Eine Verschiebung ist eindeutig bestimmt, wenn man von irgendeinem &→ Punkt P sein Bild P’ kennt. Oft wird diese Translation durch einen Pfeil PP′ von P nach P’ beschrieben. &&→ &→ Wir nennen zwei Pfeile AA′ und BB′ äquivalent, wenn die Punkte A, A’, B’, B ein Parallelogramm bilden, also wenn die Pfeile – anschaulich gesprochen – die gleiche Richtung und die gleiche Länge haben. Man kann nachweisen, dass diese Relation eine Äquivalenzrelation ist. Eine Äquivalenzklasse äquivalenter Verschiebungspfeile nennen wir einen (Verschiebungs-)vektor. Ein einzelner Pfeil ist dann ein Repräsentant des Vektors. (Der Name „Vektor“ kommt übrigens vom lateinischen Wort „vehere“ = transportieren: Man „transportiert“ P nach P’.) Oft zeichnen wir einen Punkt der Geometrie aus und nennen ihn O. Die Pfeile mit Anfangspunkt O nennen wir dann Ortsvektoren. Jede Verschiebung (also jeder Vektor) wird durch genau einen Ortsvektor repräsentiert Die Rechenoperationen (das heißt Addition und skalare Multiplikation) für Vektoren (also Pfeilklassen) können wir nun dadurch definieren, dass wir diese für Repräsentanten definieren. Die Addition zweier Vektoren ist definiert als Hintereinanderausführung der beiden Verschiebungen; man kann sie sich veranschaulichen, indem man entsprechende Repräsentanten „aneinanderhängt“ (der zweite Pfeil beginnt am Endpunkt des ersten). Die skalare Multiplikation eines Vektors mit einem Faktor k ist das k-fache der Verschiebung. Dieses Vielfache wird repräsentiert durch einen Pfeil der k-fachen Länge. Mit diesen Festlegungen kann man alle Vektorraumaxiome nachrechnen. Dieses geometrische Modell wird uns oft als Veranschaulichung dienen. Aber: Es gibt viel mehr Vektorräume, und manche davon sind ganz andersartig. Eine Bemerkung zur Bezeichnung von Vektoren: Manche Menschen glauben, ein Buchstabe würde nur dann einen Vektor bezeichnen, wenn ein Pfeil darüber gemalt ist. Dies ist ein Aberglaube. Wir werden diese Verschwendung von Druckerschwärze nicht mitmachen! 3.2.2 Der Vektorraum K n Sei K ein Körper und n eine natürliche Zahl. Dann können wir auf dem n-fachen kartesischen Produkt V = K n = {(k , k , . . . , k n )∣k i ∈ K} von K mit sich eine Addition erklären durch (k , k , . . . , k n ) + (h , h , . . . , h n ) ∶= (k + h , k + h , . . . , k n + h n ) ; die skalare Multiplikation definieren wir ebenfalls komponentenweise: k ⋅ (k , k , . . . , k n ) ∶= (kk , kk , . . . , kk n ) . 3.2 Beispiele von Vektorräumen 63 Dies ergibt einen K-Vektorraum V, der uns oft als Prototyp eines Vektorraums dienen wird. Zum Beispiel ist R3 der Vektorraum, der aus allen Tripeln (x, y, z) von reellen Zahlen x, y, z besteht; die Addition und die skalare Multiplikation sind komponentenweise erklärt. Dies ist der mit Abstand wichtigste Vektorraum. 3.2.3 Der Vektorraum aller m × n-Matrizen Eine Variante des Vektorraums K n ist der Vektorraum aller Matrizen einer festen Größe. Seien m und n natürliche Zahlen. Eine m × n-Matrix über dem Körper K ist ein rechteckiges Schema aus m Zeilen und n Spalten, deren Einträge Elemente aus K sind. Also sieht eine m × n-Matrix A mit den Elementen aij ∈ K (i = 1, . . . , m, j = 1, . . . , n) folgendermaßen aus: ⎛ a11 a12 ⋯ a1n ⎞ ⎜ a21 a22 ⋯ a2n ⎟ ⎟ . A=⎜ ⎜ ⋮ ⋮ ⋮ ⎟ ⎟ ⎜ ⎝ am1 am2 . . . amn ⎠ Wir schreiben für eine Matrix A oft auch A = (a i j )≤i≤m,≤ j≤n (a i j ∈ K) . Die Menge aller m × n-Matrizen über K wird mit K m × n bezeichnet. Auf dieser Menge kann man eine Addition komponentenweise erklären: Die Summe der Matrizen A = (a i j )≤i≤m,≤ j≤n und B = (b i j )≤i≤m,≤ j≤n ist definiert als A + B ∶= (a i j + b i j )≤i≤m,≤ j≤n . Die skalare Multiplikation ist ebenfalls komponentenweise definiert: k ⋅ A ∶= (k ⋅ a i j )≤i≤m,≤ j≤n . Auch dies ist ein wichtiger K-Vektorraum. Wir betrachten zwei Beispiele. (a) Zunächst sei K = R und m = n = 2. Dann sind ( 3 −1 ) 0 0,5 und ( 0,14 65.537 ) 1024 −18 Matrizen aus R2 × 2 ; ihre Summe ist ( 3 −1 0,14 65.537 3,14 65.536 )+( )=( ) . 0 0,5 1024 −18 1024 −17,5 64 3 Vektorräume (b) Jetzt betrachten wir binäre Matrizen, das heißt K = GF(2). Sei m = 2, n = 4. Dann gilt beispielsweise ( 0 1 1 1 1 1 0 1 1 0 1 0 )+( )=( ) . 1 0 1 1 1 1 1 0 0 1 0 1 3.2.4 Der Vektorraum aller unendlichen Folgen Sei K ein beliebiger Körper. Mit V bezeichnen wir die Menge aller unendlichen Folgen (a1 , a2 , . . . ) mit ai ∈ K. Entsprechend wie bei K n (siehe Abschn. 3.2.2) macht man V zu einem Vektorraum, indem man die Operationen komponentenweise erklärt. 3.2.5 Ein Vektorraum unendlicher Folgen Sei K ein beliebiger Körper. Mit V ∞ bezeichnen wir die Menge aller unendlichen Folgen (a1 , a2 , . . . ) mit ai ∈ K, wobei höchstens endlich viele Elemente ai ungleich 0 sind. Entsprechend wie in Abschn. 3.2.2 macht man V ∞ zu einem Vektorraum, indem man die Operationen komponentenweise erklärt. Wir werden später sehen (siehe Kap. 6), dass die Elemente von V ∞ im Grunde nichts anderes als die Polynome mit Koeffizienten aus K sind. Beachten Sie aber, dass die Vektorräume aus den Abschn. 3.2.4 und 3.2.5 grundsätzlich verschieden von K n sind; denn hier gibt es keine natürliche Zahl n, so dass sich V oder V ∞ als (Teilmenge von) K n beschreiben lassen. Den Vektorraum V ∞ werden wir im Projekt am Ende des Kapitels ausführlich studieren. 3.2.6 Vektorräume von Funktionen Viele in der Analysis auftretende Klassen von Funktionen von R nach R bilden einen RVektorraum. Etwa • die Menge aller Funktionen von R in sich, • die Menge aller stetigen Funktionen von R in sich, • die Menge aller n-mal differenzierbaren Funktionen von R in sich. Dabei werden die Summe zweier Funktionen f und g sowie das Produkt einer Funktion f mit einer reellen Zahl r wie folgt definiert: ( f + g)(r) ∶= f (r) + g(r)und (a ⋅ f )(r) ∶= a ⋅ f (r) für aller ∈ R . Die obigen Mengen bilden einen R-Vektorraum (siehe Übungsaufgabe 22). 3.2 Beispiele von Vektorräumen 65 3.2.7 Lösungen eines Gleichungssystems Wir betrachten die Gleichung ax + b y = in den Unbekannten x und y mit a, b ∈ R. Für b ≠ 0 ist die Lösungsmenge dieser Gleichung {(x, −ax/b)∣x ∈ R} . Man überzeugt sich leicht, dass die Menge dieser Paare einen R-Vektorraum bildet. Eine entsprechende Aussage gilt auch für ein System aus zwei oder mehr Gleichungen. Für drei Gleichungen sollen Sie das in Übungsaufgabe 3 verifizieren. Die Lösbarkeit von Gleichungssystemen werden wir (vom theoretischen und vom praktischen Gesichtspunkt aus) in Abschn. 4.1 detailliert behandeln. 3.2.8 Teilmengen einer Menge Sei X eine beliebige Menge. Die Vektoren seien die Teilmengen von X. (Nach dem Satz über die Mächtigkeit der Potenzmenge aus Abschn. 1.4 gibt es also genau 2n Vektoren, falls X eine endliche Menge mit n Elementen ist.) Als Summe zweier Vektoren definieren wir die symmetrische Differenz der entsprechenden Teilmengen: Y + Z ∶= Y ΔZ(∶= (Y ∪ Z)/(Y ∩ Z)) . Als Körper wählen wir K = GF(2) = {0,1} und definieren die möglichen skalaren Multiplikationen durch ⋅ Y ∶= Y , ⋅ Y ∶= ∅ . Damit wird V zu einem GF(2)-Vektorraum. (Der Nullvektor ist die leere Menge; jede Teilmenge Y von X ist zu sich selbst invers; denn es ist Y ΔY = (Y ∪ Y) − (Y ∩ Y) = Y/Y = ∅.) 3.2.9 Körper als Vektorräume Sei K ein Körper und L ein Körper oder ein Schiefkörper, der eine Erweiterung von K ist. Das bedeutet, dass K ⊆ L gilt und dass die Operationen von L „eingeschränkt auf K“ die Operationen auf K ergeben. Das wiederum heißt, dass die Verknüpfungen auf K „dieselben“ wie die auf L sind. (Hier haben die Mathematiker manchmal Bauchweh, da – ganz 66 3 Vektorräume streng gesehen – zu einer Verknüpfung auch die Angabe des Definitions- und Bildbereichs gehört; die Addition auf K und L sind also in jedem Fall verschiedene Verknüpfungen.) Wenn L eine Erweiterung des Körpers K ist, nennt man K auch einen Teilkörper (oder Unterkörper) von L. Es ist klar, dass jeder Körper ein Teilkörper von sich selbst ist. Weitere Beispiele: Q ist ein Teilkörper von R, R ein Teilkörper von C, C ein Teilkörper von H und GF(2) ein Teilkörper von GF(4). Wenn L eine Erweiterung von K ist, können wir einen K-Vektorraum dadurch konstruieren, dass wir kurzerhand die Elemente von L zu Vektoren erklären. Dann sind alle Vektorraumaxiome „trivial“ erfüllt, wir vergessen nämlich nur, dass man auch Elemente von L\K miteinander multiplizieren kann. Zum Beispiel wird so C zu einem R-Vektorraum. Wie geht das? Ganz einfach: Kann man Vektoren addieren? Ja, das ist die Summe zweier komplexer Zahlen. – Kann man einen Vektor mit einem Skalar multiplizieren? Natürlich, das ist einfach das Produkt einer komplexen mit einer reellen Zahl. Umgekehrt wird auch ein Schuh draus: Man hätte den Körper der komplexen Zahlen einfach wie folgt einführen können: Wir betrachten den Vektorraum C = R2 und definieren darauf zusätzlich ein Produkt durch (a, b) ⋅ (a ′ , b ′) ∶= (aa ′ − bb ′ , ab ′ + a ′ b) . Dann wären schon eine ganze Reihe von Eigenschaften „automatisch“ erfüllt (d. h., sie würden aus der Vektorraumtheorie folgen), und man müsste „nur noch“ die Eigenschaften der Multiplikation untersuchen. Ganz entsprechend hätte man den Quaternionenschiefkörper dadurch einführen können, dass man gesagt hätte: Auf dem Vektorraum H : = R4 definieren wir das folgende Produkt . . . (siehe Übungsaufgabe 8). Diese Beispiele zeigen, dass es Vektorräume in Hülle und Fülle und für jeden Geschmack gibt. Nun machen wir uns daran, Vektorräume systematisch zu untersuchen. Das Ziel ist, wie stets in der Mathematik, gute Beschreibungen der betrachteten Objekte zu erhalten. Insbesondere wollen wir einen Überblick über alle Vektorräume erhalten. 3.3 Elementare Theorie der Vektorräume In diesem Abschnitt sei V stets ein Vektorraum über dem Körper K. Das zentrale Instrument zur Untersuchung der Struktur eines Vektorraums ist der Begriff der „Linearkombination“; dieser liegt allen anderen Begriffen, wie etwa „linear abhängig“ und „linear unabhängig“, zugrunde. 3.3 Elementare Theorie der Vektorräume 67 3.3.1 Der Begriff der Basis Wir betrachten eine Folge v1 , v2 , . . . , vn von Vektoren des Vektorraums V. (Dabei erlauben wir sogar, dass gleiche Vektoren auftauchen, dass also vi = vj für i ≠ j gilt.) Eine Linearkombination von v1 , v2 , . . . , vn ist ein Vektor der Form k v + k v + . . . + k n v n mit k i ∈ K . Beispiele Wenn u, v, w Vektoren eines reellen Vektorraums sind, dann sind die Vektoren 5u + 3v − 7w oder 7 / 2u − v + 17w Linearkombinationen dieser Vektoren. Wir betrachten auch Linearkombinationen von unendlichen Mengen {v1 , v2 , . . . } von Vektoren. In diesem Fall müssen wir bei der Definition scharf aufpassen. Ein Vektor v wird Linearkombination der Menge {v1 , v2 , . . . } genannt, wenn es eine endliche Teilmenge von {v1 , v2 , . . . } gibt, so dass v eine Linearkombination dieser Teilmenge ist. Mit anderen Worten: Der Vektor v ist eine Linearkombination von {v1 , v2 , . . . }, falls es endlich viele Vektoren vi 1 , vi 2 , . . . , vin aus {v1 , v2 , . . . } und Skalare ki 1 , ki2 , . . . , kin gibt mit v = k i v i + k i v i + . . . + k i n v i n . Eine Linearkombination kann gleich dem Nullvektor o sein; sie ist bestimmt dann gleich o, wenn alle ki = 0 sind. Manchmal heißt diese Linearkombination die triviale Darstellung des Nullvektors. Man nennt v1 , v2 , . . . linear unabhängig, wenn die triviale Linearkombination die einzige ist, die den Nullvektor liefert: Die Vektoren v1 , v2 , . . . heißen linear unabhängig, falls gilt k v + k v + . . . = o ⇒ k = , k = , . . . Der Begriff „linear unabhängig“ ist der wichtigste – und schwierigste – Begriff der linearen Algebra. Nehmen Sie ihn von vornherein ernst. Die Folge v1 , v2 , . . . von Vektoren heißt linear abhängig, falls sie nicht linear unabhängig ist. Das bedeutet: Die Vektoren v1 , v2 , . . . , vn sind genau dann linear abhängig, falls es Skalare k1 , k2 , . . . , kn aus K gibt, von denen nicht alle Null sind, mit k v + k v + . . . + k n v n = o . Mit anderen Worten: Die Vektoren v1 , v2 , . . . sind linear abhängig, falls mit ihnen eine nichttriviale Linearkombination des Nullvektors möglich ist. Wir wiederholen diese Begriffe nochmals für unendliche Mengen: Eine unendliche Menge von Vektoren ist linear abhängig, wenn es eine endliche linear abhänge Teilmenge gibt; sie ist linear unabhängig, wenn jede endliche Teilmenge linear unabhängig ist. Wie kann man eine Menge linear abhängiger Vektoren erkennen? 68 3 Vektorräume Kann ein einzelner Vektor v linear abhängig sein? Dies ist genau dann der Fall, wenn es ein Körperelement k ≠ 0 gibt mit kv = o. Dies gilt offenbar genau dann, wenn v der Nullvektor ist. Wir haben damit gezeigt: Der Nullvektor ist der einzige Vektor, der linear abhängig ist. Für Mengen aus mindestens zwei Vektoren gilt: Charakterisierung der linearen Abhängigkeit Sei v1 , v2 , . . . , vn eine Folge linear abhängiger Vektoren (n ≥ 2). Dann gibt es (mindestens) einen Vektor vi , der sich als Linearkombination der anderen Vektoren darstellen lässt: vi = ∑ h jv j . j≠i Beweis Nach Definition der linearen Abhängigkeit gibt es k1 , k2 , . . . , kn ∈ K mit kv + k v + . . . + k n v n = o so, dass mindestens einer der Koeffizienten ki ungleich Null ist. Dann folgt k i v i = −k v + −k v + . . . + −k i− v i− + −k i+ v i+ + . . . + −k n v n , also, da ki ≠ 0, v i = h v + h v + . . . + h i− v i− + h i+ v i+ + . . . + h n v n mit hj : = −kj /ki . ◻ Damit können wir die ersten Beispiele linear unabhängiger Mengen von Vektoren finden: • Ein einzelner Vektor ist genau dann linear unabhängig, wenn er nicht der Nullvektor ist. • Zwei Vektoren sind genau dann linear unabhängig, wenn keiner ein skalares Vielfaches des anderen ist. Vorsicht Aus der Tatsache, dass die Vektoren v1 , v2 , . . . , vn linear abhängig sind, folgt im Allgemeinen nicht, dass (zum Beispiel) der erste Vektor v1 eine Linearkombination von v2 , . . . , vn ist. Zum Beispiel ist der Vektor v1 = (1, 2) aus R2 keine Linearkombination der Vektoren v2 = (1, 1) und v3 = (7, 7). Aus der linearen Abhängigkeit folgt lediglich, dass es ein vi mit obiger Eigenschaft gibt; oft kann man allerdings „o.B.d.A.“ annehmen, dass man v1 als Linearkombination der übrigen Vektoren darstellen kann. Das „ohne Beschränkung der Allgemeinheit“ bedeutet hier, 3.3 Elementare Theorie der Vektorräume 69 dass man die Vektoren so in v1 ′ , v2 ′ , . . . , vn ′ umtaufen kann (Umnummerierung), dass tatsächlich v1 ′ eine Linearkombination von v2 ′ , . . . , vn ′ ist. Anschließend tut man dann so, wie wenn man von vornherein umnummeriert hätte und schreibt also statt v1 ′ , . . . , vn ′ wieder v1 , . . . , vn . (Auch das sieht komplizierter aus als es in Wirklichkeit ist; Sie werden sich bald daran gewöhnt haben!) Eine wichtige Anwendung von linear unabhängigen Vektoren besteht im Koeffizientenvergleich. Koeffizientenvergleich Seien v1 , v2 , . . . , vn linear unabhängige Vektoren. Dann gilt: Aus kv + k v + . . . + k n v n = hv + hv + . . . + h n v n folgt, dass die Koeffizienten der vi gleich sind; das bedeutet: k1 = h1 , k2 = h2 , . . . , kn = hn . Der Beweis ergibt sich fast unmittelbar aus der Definition. Aus kv + k v + . . . + k n v n = hv + hv + . . . + h n v n folgt zunächst (k − h )v + (k − h )v + . . . + (k n − h n )v n = o . Da die Vektoren v1 , v2 , . . . , vn linear unabhängig sind, müssen nach Definition die Koeffizienten ki −hi der vi gleich Null sein; das heißt: k − h = , k − h = , . . . , k n − h n = . Also ist tatsächlich k1 = h1 , k2 = h2 , . . . , kn = hn . ◻ Die folgenden Begriffe spielen beim Aufbau der Vektorräume eine entscheidende Rolle. Für eine Menge {v1 , v2 , . . . } von Vektoren sei ⟨{v , v , . . .}⟩ die Menge aller Linearkombinationen, die mit v1 , v2 , . . . , vn gebildet werden können. Wenn die Menge der Vektoren endlich ist, so bedeutet dies: ⟨{v , v , . . . , v n }⟩ ∶= {k v + k v + . . . + k n v n ∣k , k , . . . , k n ∈ K} Man nennt ⟨{v1 , v2 , . . . }⟩ das Erzeugnis der Vektoren v1 , v2 , . . . und schreibt dafür auch kurz ⟨v1 , v2 , . . . ⟩. 70 3 Vektorräume Zum Beispiel ist ⟨v⟩ die Menge aller skalaren Vielfachen des Vektors v. Ein weiteres Beispiel ist das folgende: Das Erzeugnis der Vektoren (1, 0, 0) und (1, 1, 1) von R3 ist ⟨(, , ), (, , )⟩ = {x ⋅ (, , ) + y ⋅ (, , )∣x, y ∈ R} = {(x + y, y, y)∣x, y ∈ R} . Hat ⟨v1 , v2 , . . . ⟩ eine „wilde“ Struktur? Nein, denn es gilt: ⟨v1 , v2 , . . . ⟩ ist ein KVektorraum (der im Allgemeinen kleiner als V ist). Warum ist dies so? Wir müssen dazu „einfach“ die Vektorraumaxiome nachweisen. Dies sollen Sie in Übungsaufgabe 20 auch tun. Da prinzipiell sehr viele Axiome zu zeigen sind, lohnt es sich (für Sie), sich vorher zu überlegen, welche Axiome man in der jetzigen Situation wirklich beweisen muss und welche nicht. Der Trick besteht darin, nur ganz wenige Axiome nachzuweisen und sich zu überlegen, dass die anderen daraus folgen. Diese wenigen Axiome sind die folgenden: • Die Differenz zweier Elemente aus ⟨v1 , v2 , . . . ⟩ liegt wieder in ⟨v1 , v2 , . . . ⟩ (Abgeschlossenheit bezüglich der Subtraktion), • das skalare Vielfache jedes Elements aus ⟨v1 , v2 , . . . ⟩ liegt wieder in ⟨v1 , v2 , . . . ⟩ (Abgeschlossenheit bezüglich der skalaren Multiplikation), • der Nullvektor liegt in ⟨v1 , v2 , . . . ⟩. Behauptung Es reicht, diese unscheinbaren Eigenschaften zu zeigen. Wie das? Warum gilt zum Beispiel das Assoziativgesetz bezüglich der Addition oder die Distributivgesetze in ⟨v1 , v2 , . . . ⟩? Ganz einfach: Weil jeder Vektor aus ⟨v1 ,v2 , . . . ⟩ auch ein Vektor aus V ist und in V die entsprechenden Gesetze gelten! Warum liegt mit jedem Vektor v ∈ ⟨v1 , v2 , . . . ⟩ auch −v in ⟨v1 , v2 , . . . ⟩? Auch das ist nicht schwer: Nach der dritten und ersten Eigenschaft liegt mit v auch o − v = −v in ⟨v1 , v2 , . . . ⟩. Warum ist die Summe zweier Vektoren v, w ∈ ⟨v1 , v2 , . . . ⟩ in ⟨v1 , v2 , . . . ⟩ ? Auch diese Eigenschaft folgt einfach: Wir haben uns soeben klargemacht, dass auch −w in ⟨v1 , v2 , . . . ⟩ liegt. Nach der ersten Eigenschaft liegt also auch der Vektor v − (−w) = v + w in ⟨v1 , v2 , . . . ⟩. Die restlichen Axiome folgen ähnlich einfach. Dass es reicht, nur die drei obigen Eigenschaften zu zeigen, wird im Unterraumkriterium ausgedrückt (vergleichen Sie dazu Übungsaufgabe 19). Wenn Sie also in Übungsaufgabe 20 nachweisen, dass ⟨v1 , v2 , . . . , vn ⟩ ein Unterraum ist, so beweisen Sie bitte nur die drei oben aufgeführten Eigenschaften. Damit machen Sie sich (und eventuellen Korrekteuren) das Leben wesentlich einfacher! ◻ Man nennt eine Teilmenge W von V, die (bezüglich der auf V definierten Verknüpfungen) selbst wieder einen K-Vektorraum bildet, einen Unterraum von V. Die obige Aussage lautet also: ⟨v1 , v2 , . . . , vn ⟩ ist ein Unterraum von V. 3.3 Elementare Theorie der Vektorräume 71 Jeder Vektorraum V hat die trivialen Unterräume V und {o}. Wenn ⟨v1 , v2 , . . . ⟩ = V gilt, so nennt man {v1 , v2 , . . . } ein Erzeugendensystem von V. Ein Erzeugendensystem von V ist also eine Menge E von Vektoren, so dass jeder Vektor von V eine Linearkombination von Vektoren aus E ist. Wir werden uns sehr häufig für spezielle, nämlich die „kleinsten“ Erzeugendensysteme, die so genannten „Basen“ interessieren: Eine Menge von Vektoren aus V heißt eine Basis von V, falls sie ein linear unabhängiges Erzeugendensystem ist. Um gemäß der Definition nachzuweisen, dass eine Menge B von Vektoren eine Basis ist, muss man also zwei Eigenschaften beweisen: B muss linear unabhängig und ein Erzeugendensystem sein. Übrigens: Der Plural von Basis heißt Basen. Noch wissen wir nicht, ob ein beliebiger Vektorraum V eine Basis hat. Ein trivialer Fall lässt sich sofort lösen und zwar durch eine Festsetzung, die auf Ihre Gefühle wenig Rücksicht nimmt: Der Vektorraum V = {o}, der nur aus dem Nullvektor besteht, hat eine Basis, nämlich die leere Menge. Ein zweites, wichtiges Beispiel ist der Vektorraum K n . In diesem betrachten wir die Vektoren e = (, , , . . . , ), e = (, , , . . . , ), . . . , e n = (, , . . . , , ) . Man nennt diese Vektoren auch die Einheitsvektoren des K n . Dann ist die Menge B = {e1 , e2 , . . . , en } eine Basis von K n (vergleiche Übungsaufgabe 15). Die Bedeutung der Basen kommt in folgendem fundamentalen Satz zum Ausdruck. Eindeutigkeitseigenschaft einer Basis Jeder Vektor lässt sich eindeutig als Linearkombination der Elemente einer Basis darstellen. Warum? Sei {v1 , v2 , . . . } eine Basis von V. Wir betrachten einen beliebigen Vektor v aus V. Da die Basis {v1 , v2 , . . . } ein Erzeugendensystem ist, ist v eine Linearkombination von Elementen aus {v1 , v2 , . . . }. Also ist nur die Eindeutigkeit zu zeigen. Dazu nehmen wir an, es gäbe Skalare k1 , . . . , kn und h1 , . . . , hn aus K mit v = k v + . . . + k n v n und v = h v + . . . + h n v n . Daraus ergibt sich o = v − v = (k v + . . . + k n v n ) − (h v + . . . + h n v n ) = (k − h )v + . . . + (k n − h n )v n . 72 3 Vektorräume Da die Vektoren v1 , . . . , vn linear unabhängig sind, kann es sich hierbei nur um die triviale Darstellung des Nullvektors handeln. Also sind die Koeffizienten k1 – h1 , ... kn – hn alle Null, und das bedeutet k1 = h1 , ..., kn = hn . ◻ Aus dieser Eindeutigkeitseigenschaft einer Basis können wir in einem Spezialfall schon folgern, dass alle Basen gleich viele Elemente haben. Der Spezialfall ist der, dass V ein endlicher Vektorraum ist, also ein Vektorraum mit nur einer endlichen Anzahl von Vektoren. Wenn V der Nullvektorraum ist, so hat V nur eine Basis, nämlich die leere Menge; insbesondere haben alle Basen gleich viele Elemente. Also können wir o.B.d.A. annehmen, dass V einen Vektor v ≠ o enthält. Dann muss auch der Körper K endlich sein. Denn V enthält dann auch die Vektoren kv mit k ∈ K. Also enthält V für jedes Körperelement einen Vektor, d. h. |K| ≤ |V| ⟨ ∞ . Sei |K| = q die Anzahl der Elemente in K. Wir beweisen den Satz über die Anzahl der Vektoren eines endlichen Vektorraums Sei V ein endlicher Vektorraum über einem Körper K mit q Elementen. Hat V eine Basis aus n Vektoren, so besteht V insgesamt aus genau qn Vektoren. Insbesondere hat jede Basis genau n Elemente. Wir betrachten dazu eine Basis {v1 , v2 , . . . , vn }. Wie viele Linearkombinationen kann man aus diesen Vektoren bilden? Jeder der Koeffizienten kann jeden der q Werte aus K annehmen. Also gibt es genau q ⋅ q ⋅ . . . ⋅ q = qn Linearkombinationen. Da {v1 , v2 , . . . , vn } eine Basis ist, werden dadurch alle Vektoren aus V erfasst; wegen der Eindeutigkeitseigenschaft wird jeder Vektor nur einmal dargestellt. Also ist ∣V∣ = q n . Wenn {w1 , w2 , . . . , wm } eine andere Basis ist, so folgt entsprechend ∣V∣ = q m , also muss m = n sein. Somit haben alle Basen gleichviel Elemente. ◻ Beachten Sie: Noch wissen wir nicht, ob ein Vektorraum im Allgemeinen überhaupt eine Basis hat! Dies nachzuweisen, muss natürlich unser nächstes Ziel sein. Eine einfache Prozedur, um eine Basis zu konstruieren, ist die folgende: Man startet mit einem Vektor v1 ≠ o. Dann wählt man sich einen Vektor v2 , der kein Vielfaches von v1 ist. Dann wählt man einen Vektor v3 , der keine Linearkombination von v1 und v2 ist, usw. Man konstruiert also sukzessiv möglichst große Mengen linear unabhängiger Vektoren. Dass dieses Vorgehen zum Ziel (d. h. zu einer Basis) führt, ist der Inhalt der folgenden Aussage. 3.3 Elementare Theorie der Vektorräume 73 Basisergänzungssatz Sei B eine Menge von Vektoren des Vektorraums V. Dann gilt: Genau dann ist B eine Basis von V, wenn B eine maximale linear unabhängige Menge ist. Dabei heißt eine Menge B linear unabhängiger Vektoren maximal, wenn es keinen Vektor v aus V\B gibt, so dass B ∪ {v} immer noch linear unabhängig ist. Hierfür müssen wir zwei Richtungen beweisen: Zunächst setzen wir voraus, dass B eine Basis ist. Wir müssen zeigen, dass B linear unabhängig ist . . . (Hmhm? Folgt das nicht unmittelbar aus der Definition einer Basis? Also können wir das schon mal abhaken!) . . . und dass B maximal ist. Dafür müssen wir wirklich etwas arbeiten: Angenommen, es gäbe einen Vektor v /∈ B, so dass B ∪ {v} linear unabhängig ist. Da B ein Erzeugendensystem ist, ist v = kv + k v + . . . Damit erhalten wir die folgende nichttriviale Linearkombination des Nullvektors mit Vektoren aus B ∪ {v}: o = v − k v − k v − . . . Dies ist ein Widerspruch, da B ∪ {v} als linear unabhängig angenommen war. Nun zur anderen Richtung. Wir setzen voraus, dass B eine maximale linear unabhängige Menge von Vektoren ist. Es ist zu zeigen, dass B eine Basis ist. Das bedeutet (a), dass B linear unabhängig ist (o.k., das steht schon in der Voraussetzung) und (b), dass B ein Erzeugendensystem ist. Das zeigen wir so: Sei v ein beliebiger Vektor aus V. Wir müssen zeigen, dass v eine Linearkombination von Vektoren aus B ist: Angenommen, das wäre nicht der Fall. Dann ist v /∈ B. Also wäre B ∪ {v} eine Menge von Vektoren, die immer noch linear unabhängig ist. Dies ist ein Widerspruch zur Maximalität von B. ◻ Genauso einfach können Sie (in Übungsaufgabe 14) folgende Tatsache nachweisen: Basisauswahlsatz Sei B eine Menge von Vektoren von V. Dann gilt: Genau dann ist B eine Basis, wenn B ein minimales Erzeugendensystem ist. ◻ Nun können wir einfach zeigen, dass V eine Basis besitzt. Dazu setzen wir ab jetzt voraus, dass V endlich erzeugbar ist; das bedeutet, dass es ein Erzeugendensystem aus einer endlichen Menge von Vektoren gibt. (Man kann alle folgenden Überlegungen auch für Vektorräume durchführen, die nicht endlich erzeugbar sind; dann muss man das Zornsche Lemma („Jede nach oben beschränkte Kette einer halbgeordneten Menge besitzt ein 74 3 Vektorräume maximales Element“) voraussetzen. Meiner Erfahrung nach gehen diese technischen Überlegungen an den meisten Studienanfängern vorbei.) Satz über die Existenz einer Basis Sei V ein endlich erzeugbarer Vektorraum. Dann besitzt V eine Basis, sogar eine endliche Basis! Und dies folgt so: Nach Voraussetzung hat V ein endliches Erzeugendensystem E. Wir nehmen aus E so lange Vektoren weg, bis ein minimales Erzeugendensystem übrig bleibt: Ist E bereits ein minimales Erzeugendensystem, so sind wir fertig. Ansonsten gibt es einen Vektor v0 ∈ E, auf den man verzichten kann. Das heißt, dass auch E1 := E\{v0 } ein Erzeugendensystem ist. Ist E1 eine Basis, so sind wir fertig. Ansonsten gibt es einen Vektor v1 ∈ E1 derart, dass auch E2 := E1 \{v1 } ein Erzeugendensystem ist. Ist E2 minimal, so sind wir fertig. Ansonsten . . . Da E endlich ist, muss dieser Prozess nach endlich vielen Schritten ein minimales Er◻ zeugendensystem En liefern. Nach dem vorigen Satz ist En eine Basis. Bemerkung Ich werde immer wieder mit der Äußerung konfrontiert, eine Basis habe drei Definitionen; eine Basis sei nämlich ein minimales Erzeugendensystem, eine maximale linear unabhängige Menge und (manchmal auch „oder“) ein linear unabhängiges Erzeugendensystem. Oft wird dann immerhin noch hinzugefügt, dass diese Definitionen alle gleichwertig seien. In dieser Aussage steckt zwar ein richtiger Kern (den man erkennen kann, wenn man guten Willens ist), andererseits ist sie derart schief, dass ich sie einfach nicht unkommentiert stehen lassen kann: 1. Eine Basis wird – wie jeder mathematische Begriff – durch eine Definition festgelegt. Natürlich gibt es Beschreibungen, die dazu äquivalent sind; dies wird dann aber in einem Satz formuliert, den man beweisen muss. Wir haben das im Basisergänzungs- und im Basisauswahlsatz gemacht. 2. Man kann bei einem Aufbau der linearen Algebra jede der Beschreibungen einer Basis als Definition wählen. Dies ist keine mathematische, sondern eine didaktische Entscheidung. 3. Ich habe mich dafür entschieden, die Beschreibung einer Basis als linear unabhängiges Erzeugendensystem als Definition zu wählen, weil hier die beiden wesentlichen Eigenschaften einer Basis besonders deutlich werden. Wenn nicht ausdrücklich anders gesagt, werden wir von nun an die folgende Voraussetzung machen: ▸ Vereinbarung Sei V stets ein endlich erzeugbarer Vektorraum. 3.3 Elementare Theorie der Vektorräume 75 3.3.2 Der Steinitzsche Austauschsatz Das in obigem Satz präsentierte Verfahren ist in der Praxis wenig hilfreich zur Konstruktion einer Basis. Wir brauchen also effizientere Verfahren. Ein noch drängenderes Problem ist das folgende: Es ist bei unseren derzeitigen Kenntnissen noch vorstellbar, dass Sie eine Basis eines Vektorraums V finden, die 5555 Elemente hat, ich jedoch eine Basis desselben Vektorraums zu finden in der Lage bin, die 1.000.000 Elemente hat. Dies ist noch vorstellbar – aber es ist nicht wahr. Ein wichtiges Etappenziel ist zu zeigen, dass alle Basen gleich viele Elemente haben. Zu diesem Ziel führt der folgende Hilfssatz. Austauschlemma Sei B eine Basis des Vektorraums V. Dann gilt: Zu jedem Vektor w ≠ o aus V gibt es einen Vektor v ∈ B derart, dass B′ ∶= (B/{v}) ∪ {w} ebenfalls eine Basis von V ist. Man sagt dazu auch, dass man in B den Vektor v durch w ersetzen kann. Wie folgt dieser Satz? Da B ein Erzeugendensystem ist, gibt es Vektoren v1 , v2 , . . . , vn ∈ B mit w = k v + k v + . . . + k n v n . Da w ≠ o ist, muss mindestens ein kj ≠ 0 sein. Sei vj so bestimmt, dass der Koeffizient kj in obiger Linearkombination von w ungleich Null ist. Wir definieren nun B′ = (B/{v j }) ∪ {w} . (Es ist also v = vj in der Aussage des Austauschlemmas.) Wir müssen zeigen, dass B′ eine Basis von V ist. Zuerst überzeugen wir uns, dass B′ ein Erzeugendensystem ist. Dazu brauchen wir uns nur zu vergewissern, dass vj eine Linearkombination der Vektoren aus B′ ist; denn dann liegen im Erzeugnis von B′ alle Vektoren der Basis B; somit ist V = ⟨B⟩ ⊆ ⟨B′ ⟩ . Da natürlich ⟨B′ ⟩ ⊆ V gilt (B′ ist ja eine Teilmenge von V), folgt zusammen ⟨B′ ⟩ = V. Aus der Darstellung von w ergibt sich k jv j = w − ∑ ki vi . i≠ j 76 3 Vektorräume Da kj ≠ 0 ist, folgt daraus vj = ki w − ∑ vi kj k i≠ j j Nun zeigen wir noch, dass B′ linear unabhängig ist. Angenommen, B′ wäre linear abhängig. Dann gäbe es Skalare hi (i = 0, 1, . . . , n, i ≠ j) mit hw − ∑ h i v i = , i≠ j wobei mindestens ein hi ≠ 0 ist. Dann muss insbesondere h0 ≠ 0 sein (sonst hätten wir eine nichttriviale Linearkombination des Nullvektors aus Vektoren von B). Daher können wir durch h0 dividieren und w einsetzen. o =w−∑ i≠ j hi hi vi = ∑ ki vi − ∑ vi . h i i≠ j h Daraus folgt o = k j v j + ∑ (k i − i≠ j hi )v i h ◻ Da B linear unabhängig ist, folgt daraus insbesondere kj = 0: ein Widerspruch. Ergänzung zum Austauschlemma Als Vektor v kann jeder Vektor vj aus B gewählt werden, der einen von 0 verschiedenen Koeffizienten kj in der Linearkombination n w = ∑ ki vi i= ◻ hat. Beispiel Die Menge B = {v1 = (0, 1, 1), v2 = (1, 0, 1), v3 = (1, 1, 0)} ist eine Basis des Vektorraums R3 . Ist w = (1, −1, 0), so gilt w = −v + v Also kann man v1 oder v2 durch w ersetzen, nicht aber v3 . (In der Tat sind v1 , v2 und w linear abhängig.) Nun können wir bereits einen Vektor in eine Basis einbauen; das bedeutet insbesondere, dass jeder von Null verschiedene Vektor in einer Basis von V enthalten ist. 3.3 Elementare Theorie der Vektorräume 77 Ist auch jede Menge von Vektoren in einer Basis enthalten? In der Form ist die Frage bestimmt zu unvorsichtig gestellt; denn jede Teilmenge einer Basis besteht aus linear unabhängigen Vektoren. Die richtige Frage lautet also: Ist jede Menge linear unabhängiger Vektoren zu einer Basis ergänzbar? Dass die Antwort darauf positiv ist, ist die wichtigste Aussage dieses Abschnitts: Der Austauschsatz von Steinitz Sei B = {v1 , . . . , vn } eine endliche Basis von V, und sei C = {w1 , . . . , wm } eine Menge linear unabhängiger Vektoren. Dann gibt es eine Menge von n−m Vektoren in B, o.B.d.A. vm +1 , . . . , vn , so dass {w , . . . , w m , v m+ , . . . , v n } eine Basis von V ist. Man kann also v1 , . . . , vm durch die Vektoren w1 , . . . , wm ersetzen. Insbesondere kann jede linear unabhängige Menge zu einer Basis ergänzt werden. Insbesondere kann man in K n jede linear unabhängige Menge von Vektoren sogar mit Einheitsvektoren zu einer Basis ergänzen. Bevor wir den Austauschsatz von Steinitz beweisen, notieren wir einige wichtige Folgerungen. 1. Folgerung Sei B = {v1 , . . . , vn } eine endliche Basis von V, und sei C = {w1 , . . . , wm } eine Menge linear unabhängiger Vektoren. Dann gilt m ≤ n, das heißt |C| ≤ |B|. Beweis Nach dem Austauschsatz von Steinitz kann C durch n−m Vektoren aus B zu einer Basis ergänzt werden. Also muss n−m eine nichtnegative ganze Zahl sein. Das heißt m ≤ n. ◻ 2. Folgerung Jede linear unabhängige Menge eines endlich erzeugbaren Vektorraums, insbesondere jede Basis, hat nur endlich viele Elemente. 78 3 Vektorräume Zum Beweis dieser Folgerung nehmen wir an, es gäbe eine linear unabhängige Menge C∞ mit unendlich vielen Elementen. Sei B eine endliche Basis mit n Elementen. In C∞ gäbe es eine endliche Teilmenge C mit n+1 Elementen. Nach der 1. Folgerung wäre dann n + = ∣C∣ ≤ ∣B∣ = n , ◻ was offensichtlich falsch ist. Daher können wir in der Voraussetzung des Steinitzschen Austauschsatzes das Wort „endliche“ in „Sei B eine endliche Basis von V . . . “ weglassen, da diese Voraussetzung nach unserer allgemeinen Vereinbarung erfüllt ist. 3. Folgerung Je zwei Basen von V haben gleich viele Elemente. Seien dazu B1 und B2 Basen von V. Da nach der 2. Folgerung B1 und B2 endlich sind, kann sowohl B1 als auch B2 die Rolle von B – und entsprechend B2 und B1 die Rolle von C – in der 1. Folgerung übernehmen. Es folgt ∣B ∣ ≤ ∣B ∣ und ∣B ∣ ≤ ∣B ∣ , also |B1 | = |B2 |. ◻ Die Zahl der Elemente einer Basis eines Vektorraums V ist dessen wichtigster Parameter. Man nennt ihn die Dimension von V und schreibt für diese Zahl dim(V). Da die Dimension eines endlich erzeugbaren Vektorraums eine nichtnegative ganze Zahl ist, heißen solche Vektorräume auch endlich-dimensional. Wenn nicht anders gesagt, ist jeder auftretende Vektorraum endlich-dimensional. 4. Folgerung Sei dim(V) = n. Dann gilt: Jede linear unabhängige Menge von Vektoren hat höchstens n Elemente. Wenn eine linear unabhängige Menge genau n Elemente hat, ist sie eine Basis. Der erste Teil folgt direkt aus der 1. Folgerung. Zum zweiten Teil: Angenommen, es gäbe eine linear unabhängige Menge C mit n Vektoren, die keine Basis ist. Dann kann C keine maximale linear unabhängige Menge sein. Also könnte sie erweitert werden zu einer linear unabhängigen Menge mit n+1 Vektoren. Dies steht im Widerspruch zum ersten Teil der Folgerung. ◻ 3.3 Elementare Theorie der Vektorräume 79 5. Folgerung Jede Basis eines Unterraums von V hat höchstens n Elemente. Mit anderen Worten: Die Dimension eines Unterraums ist höchstens so groß wie die Dimension des Gesamtraums. ◻ 6. Folgerung Jede Basis eines Unterraums von V kann zu einer Basis von V ergänzt werden. Beide Folgerungen ergeben sich direkt aus der Tatsache, dass eine Basis eines Unterraums eine Menge linear unabhängiger Vektoren von V ist. ◻ 7. Folgerung Seien U 1 und U 2 Unterräume von V mit U 1 ⊆ U 2 . Dann ist dim(U 1 ) ≤ dim(U 2 ). Gleichheit gilt genau dann, wenn U 1 = U 2 ist. Dies folgt aus Folgerung 5, wenn man U 2 die Rolle von V spielen lässt. ◻ Sie sehen: der Steinitzsche Austauschsatz gibt uns ganz direkt entscheidende Erkenntnisse über die Struktur eines Vektorraums. Außerdem werden wir später noch weitere Folgerungen daraus ziehen. Nun müssen wir diesen Satz aber beweisen. Seien die Bezeichnungen so gewählt wie im Austauschsatz von Steinitz beschrieben. Wir beweisen den Satz durch Induktion nach m. Sei zunächst m = 1. Dann folgt die Behauptung direkt aus dem Austauschlemma. Sei nun m ⟩ 1, und die Aussage sei richtig für m−1. Wir betrachten eine linear unabhängige Menge C = {w1 , . . . , wm } aus genau m Vektoren. Sei C′ := C\{wm }. Dann besteht C′ nur aus den m−1 Elementen w1 , . . . , wm−1 , und wir können daher die Induktionsvoraussetzung auf C′ anwenden. Daher gibt es eine Menge {vm , . . . , vn } von Vektoren aus B derart, dass {w , . . . , w m− , v m , . . . , v n } eine Basis von V ist. Wir müssen noch den Vektor wm in die Basis {w , . . . , w m− , v m , . . . , v n } 80 3 Vektorräume „einbauen“. Dazu müssen wir einen der Vektoren vm , . . . , vn durch wm ersetzen. Um das zu tun, stellen wir wm als Linearkombination der Vektoren der neuen Basis dar: w m = k w + . . . + k m− w m− + k m v m + . . . + k n v n . Angenommen, alle ki mit i ≥ m wären Null. Dann wäre w m = k w + . . . + k m− w m− also wäre {w1 , . . . , wm −1 , wm } linear abhängig: ein Widerspruch. Also gibt es ein i ≥ m mit ki ≠ 0, sei o. B. d. A. km ≠ 0. Dann ist nach dem Austauschlemma auch {w , . . . , w m− , w m , v m+ , . . . , v n } eine Basis. Damit ist der Austauschsatzes von Steinitz bewiesen. ◻ Wir beenden diesen Abschnitt mit einer Folgerung, die sich oft als ausgesprochen nützlich erweist. Seien U 1 und U 2 zwei Unterräume von V. Dann heißt U 1 ein Komplement von U 2 , falls • der Durchschnitt von U 1 und U 2 „so klein wie möglich“ ist: U ∩ U = {o} und • das Erzeugnis von U 1 und U 2 „so groß wie möglich“ ist: ⟨U , U ⟩ = V . Wir nennen dann U 1 und U 2 auch komplementär. (Offenbar gilt: Ist U 1 ein Komplement von U 2 , so ist auch U 2 ein Komplement von U 1 .) 8. Folgerung Jeder Unterraum von V hat einen komplementären Unterraum. Zum Beweis betrachten wir einen beliebigen Unterraum U 1 von V. Sei B1 = {v1 , . . . , vm } eine Basis von U 1 . Nach der 6. Folgerung kann B1 zu einer Basis B = {v , . . . , v m , v m+ , . . . , v n } 3.3 Elementare Theorie der Vektorräume 81 von V ergänzt werden. Definiere U ∶= ⟨v m+ , . . . , v n ⟩ . Behauptung U 1 und U 2 sind komplementär. „U 1 ∩ U 2 = {o}“: Sei v ∈ U 1 ∩ U 2 . Dann ist v = k v + . . . + k m v m ∈ U und v = k m+ v m+ + . . . + k n v n ∈ U Also ist k v + . . . + k m v m − k m+ v m+ − . . . − k n v n = v − v = o . Da B eine Basis ist, müssen alle ki = 0 sein; also ist v = 0. Das bedeutet: Der Nullvektor ist der einzige Vektor in U 1 ∩ U 2 . „⟨U 1 ,U 2 ⟩ = V“: In ⟨U 1 , U 2 ⟩ liegen bestimmt die erzeugenden Vektoren v1 , . . . , vm von U 1 und die erzeugenden Vektoren vm +1 , . . . , vn von U 2 . Also ist B in ⟨U 1 , U 2 ⟩ enthalten, ◻ und damit gilt ⟨U 1 , U 2 ⟩ = V. Beispiele (a) Im R2 sind je zwei verschiedene 1-dimensionale Unterräume komplementär. (b) Im R3 ist jeder 2-dimensionale Unterraum zu jedem nicht in ihm enthaltenen 1-dimensionalen Unterraum komplementär. Es hält sich hartnäckig das Gerücht, dass ein Unterraum eines Vektorraums nur ein Komplement habe. Das ist fast immer völlig falsch. Betrachten wir dazu etwa den Vektorraum R2 . Dann hat die „y-Achse“ Y = {(0, y) | y ∈ R} als ein Komplement zum Beispiel die „x-Achse“ X = {(x, 0) | x ∈ R}; aber es gibt viele andere Komplemente, etwa den Unterraum Z = {(x, x) | x ∈ R} – ja jeder 1-dimensionale Unterraum ≠ Y von R2 ist ein Komplement von Y. (Vergleichen Sie hierzu auch Übungsaufgabe 27.) In der Aussage des folgenden Satzes steckt die Bedeutung komplementärer Unterräume. Zerlegung eines Vektors bezüglich komplementärer Unterräume Seien U 1 , U 2 komplementäre Unterräume. Dann lässt sich jeder Vektor v ∈ V eindeutig als Summe eines Vektors u1 ∈ U 1 und eines Vektors u2 ∈ U 2 schreiben: v = u + u für eindeutige u ∈ U , u ∈ U . 82 3 Vektorräume Die Existenz von u1 und u2 ergibt sich direkt aus der Definition des Erzeugnisses: Da U 1 und U 2 den Vektorraum V erzeugen, kann jeder Vektor aus V als Linearkombination von Vektoren aus U 1 und U 2 , also als Summe eines Vektors aus U 1 und eines Vektors aus U 2 dargestellt werden. Der Nachweis der Eindeutigkeit beruht auf einem Trick, den es sich zu merken lohnt. Sei v = u1 +u2 und v = w1 +w2 mit u1 , w1 ∈ U 1 und u2 , w2 ∈ U 2 . Dann ist u + u = v = w + w also u − w = w − u . In dieser Gleichung ist die linke Seite die Differenz zweier Vektoren aus U 1 , also liegt sie in U 1 ; die rechte Seite ist Differenz zweier Vektoren aus U 2 , also ist sie in U 2 . Die Gleichung stellt also einen Vektor dar, der sowohl in U 1 als auch in U 2 liegt; dieser muss der Nullvektor sein, da U 1 ∩ U 2 = {o} ist. Somit folgt u1 = w1 und u2 = w2 . Das bedeutet, dass u1 und u2 eindeutig bestimmt sind. ◻ In einem Vektorraum der Dimension n heißen die Unterräume der Dimension n−1 Hyperebenen. Das ist eine relativ ungefährliche Bezeichnung. Ich warne aber davor, die Vektoren grundsätzlich als „Punkt“ und die 1-dimensionalen Unterräume grundsätzlich als „Geraden“ zu (denken und) bezeichnen! Es gibt Modelle für gewisse geometrische Strukturen („affine Räume“), in denen die Punkte tatsächlich die Vektoren eines Vektorraums und gewisse Geraden die 1dimensionalen Unterräume sind (siehe Abschn. 4.1). Es gibt jedoch auch Geometrien, die ganz anders aus Vektorräumen konstruiert werden. Und es gibt Anwendungen von Vektorräumen, in denen die Begriffe „Punkte“ und „Geraden“ gar keinen Sinn machen. Der entscheidende Fortschritt moderner mathematischer Begriffsbildung besteht ja gerade darin, dass die Begriffe unabhängig von konkreten Modellen sind! Dies soll kein Schock sein und Sie keinesfalls davon abhalten, sich etwas vorzustellen – im Gegenteil! Um mathematische Beweise zu finden, muss man oft sehr konkrete Vorstellungen entwickeln. Der R3 ist ein wichtiger Vektorraum, den Sie sich gut vorstellen können müssen. Aber: Der R3 ist nicht der einzige Vektorraum! Lernen Sie, sich auch andere Vektorräume vorzustellen, etwa den Vektorraum aus Abschn. 3.2.8 mit der symmetrischen Differenz oder einen Vektorraum, der aus Lösungen eines Gleichungssystems besteht (Abschn. 4.2), oder einen Code (Abschn. 4.3), oder . . . Eine Schlussbemerkung zu diesem Abschnitt. Da wir uns zu Beginn sehr anstrengen mussten, um die Existenz einer Basis nachzuweisen, könnten Sie zu der Ansicht gelangen, eine Basis sei ein besonders rares Objekt. Dieser Eindruck ist falsch! Wir zeigen später, dass fast jede zufällig gewählte n-elementige Menge von Vektoren eine Basis ist. 3.3 Elementare Theorie der Vektorräume 83 3.3.3 Der Dimensionssatz Sind zwei Unterräume eines Vektorraums gegeben, so wird (und muss) man häufig die Dimension ihres Erzeugnisses berechnen. Diese Dimension hängt nicht nur von den Dimensionen der einzelnen Unterräume, sondern auch von deren Durchschnitt ab: Je kleiner der Durchschnitt, desto größer das Erzeugnis. Das Modell für den Dimensionssatz ist die Summenformel für die Mächtigkeit der Vereinigung zweier endlicher Mengen (vgl. Abschn. 1.1): ∣X ∪ Y∣ = ∣X∣ + ∣Y∣ − ∣X ∩ Y∣ . Im Dimensionssatz wird die Mächtigkeit durch die Dimension des entsprechenden Unterraums ersetzt (das ist das richtige Maß für die Größe eines Unterraums). Da auch der Durchschnitt zweier Unterräume ein Unterraum ist (siehe Übungsaufgabe 28), kann man mit Hilfe der Dimension auch die Größe des Durchschnitts messen. Die Vereinigung von Mengen muss dabei allerdings durch das Erzeugnis von Unterräumen ersetzt werden. (Achtung! Die mengentheoretische Vereinigung zweier Unterräume ist nämlich nur in den seltensten Fällen wieder ein Unterraum – vergleichen Sie hierzu Übungsaufgabe 29). Dimensionssatz Seien U 1 und U 2 Unterräume des Vektorraums V. Dann gilt dim(⟨U , U ⟩) = dim(U ) + dim(U ) − dim(U ∩ U ) . Der Beweis beruht auf folgender Idee: Wir wählen eine Basis B = {v1 , . . . , vm } von U 0 := U 1 ∩ U 2 und ergänzen diese einerseits zu einer Basis B = {v , . . . , v m , v m+ , . . . , v r } von U 1 , andererseits zu einer Basis B = {v , . . . , v m , w m+ , . . . , w t } von U 2 . Dann betrachten wir die Menge C ∶= {v , . . . , v m , v m+ , . . . , v r , w m+ , . . . , w t } = B ∪ B von Vektoren. Für die Anzahl der Elemente von C berechnet man ∣C∣ = r + t − m = dim(U ) + dim(U ) − dim (U ∩ U ) . Wenn wir zeigen könnten, dass C eine Basis von ⟨U 1 , U 2 ⟩ ist, dann hätten wir den Dimensionssatz bewiesen! Also ans Werk: 84 3 Vektorräume Zunächst ist klar, dass C den ganzen Raum ⟨U 1 , U 2 ⟩ erzeugt, denn es ist C = B1 ∪ B2 , und B1 erzeugt U 1 , und B2 erzeugt U 2 . Es ist etwas schwieriger, die lineare Unabhängigkeit von C nachzuweisen. Wir betrachten eine nichttriviale Linearkombination, die den Nullvektor liefert: k v + . . . + k m v m + k m+ v m+ + . . . + k r v r + h m+ w m+ + . . . + h t w t = o . Daraus folgt −k v − . . . − k m v m − k m+ v m+ − . . . − k r v r = h m+ w m+ + . . . + h t w t ∈ U ∩ U = U . Also gibt es Skalare a1 , . . . , am mit h m+ w m+ + . . . + h t w t = a v + . . . + a m v m . Da aber die Menge {v1 , . . . , vm , wm+1 , . . . , wt } linear unabhängig ist, folgt daraus hm+1 = . . . = ht = 0. Dann ist die Ausgangs-Linearkombination aber eine Linearkombination von Vektoren aus B1 und somit sind alle Koeffizienten gleich 0. Also ist C linear unabhängig. Damit ist der Dimensionssatz bewiesen. ◻ Wir werden diesen Satz sehr häufig anwenden. Zwei einfache Folgerungen seien jetzt schon gezogen: Folgerung 1 Sei H eine Hyperebene, und sei U ein t-dimensionaler Unterraum von V. Dann gilt U ⊆ H oder dim(U ∩ H) = t − . Wegen H ⊆ ⟨H, U⟩ ⊆ V ist nämlich n − = dim(H) ≤ dim⟨U , H⟩ ≤ dim(V ) = n . Also ist dim⟨U, H⟩ = n−1 oder dim⟨U, H⟩ = n. Im ersten Fall ist U ⊆ H. Im zweiten Fall ergibt sich mit dem Dimensionssatz dim(U ∩ H) = dim(U) + dim(H) − dim⟨U , H⟩ = t + n − − n = t − . ◻ 3.3 Elementare Theorie der Vektorräume 85 Folgerung 2 Sind U 1 , U 2 komplementäre Unterräume, so gilt dim(U ) + dim(U ) = n Wegen dim(U 1 ∩ U 2 ) = 0 und dim⟨U 1 , U 2 ⟩ = n folgt dies direkt aus der Dimensionsformel. ◻ 3.3.4 Faktorräume Faktorräume sind meiner Erfahrung nach ein Schreckgespenst für die Studierenden – obwohl es sich um ein wichtiges und nicht zu schwieriges Konzept handelt. In vielen Situationen, in denen man einen Unterraum U eines Vektorraums V betrachtet, kann man die relevanten Überlegungen auf die „Struktur außerhalb von U“ reduzieren. Das adäquate Instrument hierzu ist der Faktorraum V/U. Doch wir fangen ganz langsam an. Wir betrachten einen Unterraum U des K-Vektorraums V. Für einen Vektor v ∈ V bezeichnen wir mit v + U ∶= {v + u∣u ∈ U} die Nebenklasse von U durch v. Man nennt v einen Repräsentanten der Nebenklasse v + U. Wir erhalten also die Nebenklasse v + U („v plus U“), indem wir v zu jedem Vektor aus U addieren; die so erhaltene Menge von Vektoren ist v + U. Was für ein Objekt ist eine Nebenklasse? Sicherlich eine Menge von Vektoren. Ist eine Nebenklasse ein Unterraum? Probieren wir’s: Wenn die Nebenklasse v + U ein Unterraum sein soll, muss der Nullvektor in ihr enthalten sein. Das heißt, es muss ein u ∈ U geben mit o=v + u . Das ist gleichwertig damit, dass v = −u ∈ U ist. Das bedeutet: Wenn v+U ein Unterraum ist, muss der Repräsentant v in U liegen. Sei umgekehrt v ∈ U. Dann ist v + U =U . (Denn sicher ist v + U ⊆ U. Sei umgekehrt u ∈ U. Dann ist u = v + (u − v) ∈ v + U , da u−v ∈ U ist.). 86 3 Vektorräume Also haben wir gezeigt: Eine Nebenklasse v+U ist genau dann ein Unterraum (und dann gleich U), wenn ihr Repräsentant v in U liegt. ◻ In der Regel ist eine Nebenklasse also kein Unterraum. Welche Rolle spielen die Repräsentanten? Ist „der“ Repräsentant einer Nebenklasse eindeutig oder gibt es viele? Wenn ja, welches sind die anderen Repräsentanten einer Nebenklasse? Die Frage ist also: Gibt es Vektoren v′ ≠ v mit v ′ + U = v + U? Auch diese Frage können wir durch einfache Analyse beantworten: Wegen o ∈ U ist v′ = v′ + o ∈ v′ + U. Wenn also v′ + U = v + U ist, so muss v′ ∈ v′ + U = v + U gelten. Also muss es ein u0 ∈ U geben mit v′ = v + u0 . Das bedeutet v′ −v = u0 ∈ U. Umgekehrt: Sei v′ −v ∈ U. Dann definieren wir u0 := v′ −v und schreiben v ′ = v + u ∈ v + U , also v ′ + U = {v ′ + u∣u ∈ U} = {v + u + u∣u ∈ U} ⊆ {v + u ∣u ∈ U} = v + U . Aber dieses Argument kann man auch für die andere Inklusion benutzen: Wegen v = v −u0 ∈ v′ + U folgt entsprechend ′ v + U ⊆ v′ + U , also v + U = v′ + U. Damit haben wir das Kriterium für die Gleichheit von Nebenklassen bewiesen: v + U = v′ + U ⇔ v′ − v ∈ U . ◻ Merken Sie sich dieses Kriterium; wir werden es nicht nur in diesem Buch zig mal verwenden, sondern es besteht eine relativ hohe Wahrscheinlichkeit dafür, dass Sie es in einer Klausur oder einer mündlichen Prüfung wissen müssen. Man kann diese Aussage auch anders ausdrücken: Die Repräsentanten einer Nebenklasse sind genau die Elemente dieser Nebenklasse. Beweis Wenn v′ ∈ v + U gilt, so ist v′ = v + u mit u ∈ U, also v′ −v ∈ U; nach obiger Aussage ist v′ also ein Repräsentant. Wenn umgekehrt v′ ein Repräsentant ist, so ist v′ −v = u ∈ U, ◻ also v′ = v + u ∈ v + U. Nebenklassen sind also außerordentlich demokratische Institutionen; jedes Mitglied ist in gleicher Weise fähig, die Gesamtheit zu repräsentieren. 3.3 Elementare Theorie der Vektorräume 87 Beispiel Sei V = R2 , und sei U = ⟨(1, 1)⟩. Was ist (1, 0) + ⟨(1, 1)⟩ ? Ganz einfach: (, ) + ⟨(, )⟩ = {(, ) + (x, x)∣x ∈ R} = {( + x, x)∣x ∈ R} . Bislang haben wir eine einzige Nebenklasse betrachtet; nun studieren wir das Zusammenspiel aller Nebenklassen bezüglich eines Unterraums U. Zuerst stellen wir die Frage: Können sich zwei Nebenklassen X und Y überlappen? Kann es passieren, dass X und Y einen gemeinsamen Vektor z enthalten? Ist X = v + U und Y = w + U, so müssten die folgenden Gleichungen gelten z = v + u und z = w + u ′ mit u, u ′ ∈ U . Dann ist v + u = w + u′ , also v−w = u′ −u ∈ U; nach obigem Kriterium bedeutet dies v + U = w + U, also X = Y. Bemerkung Wir haben damit bewiesen, dass die Äquivalenzklassen der folgendermaßen definierten Relation ∼ x ∼ y ∶⇔ x − y ∈ U eine Partition von V bilden. (Vergleichen sie dazu den Abschn. 1.2.) Damit haben wir folgende bemerkenswerte Tatsache gezeigt: Lemma über verschiedene Nebenklassen Verschiedene Nebenklassen sind disjunkt. Genauer gilt: Die Menge der Vektoren von V ist die disjunkte Vereinigung der Nebenklassen von U. Man darf sich die Menge der Nebenklassen nach U als „Parallelenschar“ vorstellen. ◻ Wie viele Nebenklassen von U gibt es in V? Wir beantworten diese Frage nur für Vektorräume über endlichen Körpern, wo die Frage eigentlich auch nur Sinn macht. Dazu müssen wir zuerst die Frage behandeln, wie viele Vektoren eine Nebenklasse besitzt. Anzahl der Vektoren einer Nebenklasse Sei V ein endlicher Vektorraum über einem Körper K mit q Elementen, und sei U ein k-dimensionaler Unterraum von V. Dann besteht jede Nebenklasse v+U von V nach U aus genau qk Vektoren. 88 3 Vektorräume Wir machen uns zunächst den einfachsten Fall, nämlich die Nebenklasse U, klar. Hier ist die Situation im Grunde schon geklärt: U ist ein k-dimensionaler Unterraum von V, also ein k-dimensionaler Vektorraum über einem endlichen Körper mit q Elementen. Nach dem Satz über die Anzahl der Elemente eines endlichen Vektorraums hat U also qk Elemente. Wir müssen demnach nur noch zeigen, dass jede Nebenklasse v+U gleichviel Elemente wie U hat. Dazu genügt es, eine bijektive Abbildung von U auf v+U anzugeben. Nichts einfacher als das: Sei f die Abbildung, die durch f (u) ∶= v + u für alle u ∈ U definiert ist. Direkt aus der Definition folgt, dass f surjektiv ist. Fast genauso schnell folgt, dass f injektiv ist: Seien u, u′ ∈ U mit f (u) = f (u′ ). Das heißt v+u = v+u′ , also u = u′ . ◻ Also ist f bijektiv, und daher hat v+U gleichviel Elemente wie U, also genau qk . Anzahl der Nebenklassen Sei V ein endlicher n-dimensionaler Vektorraum über einem Körper K mit q Elementen, und sei U ein k-dimensionaler Unterraum von V. Dann gibt es genau qn−k Nebenklassen von U in U. Wir wissen, dass V die disjunkte Vereinigung der Nebenklassen von U ist und dass jede Nebenklasse genau qk Elemente hat. Da V genau qn Vektoren besitzt, folgt die Behauptung. ◻ Wir definieren: Die Menge aller Nebenklassen von U in V heißt der Faktorraum von V nach U; dieser wird mit V/U (gesprochen „V nach U“) bezeichnet: V/U = {v + U∣v ∈ V } . Wie erhält man den Faktorraum V/U? Man bildet sämtliche Nebenklassen v+U; die Menge all dieser Nebenklassen ist V/U. [Beachten Sie: In der Menge aller Nebenklassen kommt jede Nebenklasse nur einmal vor; auch wenn sie von verschiedenen Repräsentanten dargestellt werden kann.] Warum heißt diese Menge „Raum“? Der Verdacht liegt nahe, dass dies deswegen so ist, weil V/U wieder ein Vektorraum ist. Dies ist zunächst schwer vorstellbar, aber – es ist richtig: Satz vom Faktorraum Der Faktorraum V/U eines K-Vektorraums V nach einem Unterraum U ist ein KVektorraum. 3.3 Elementare Theorie der Vektorräume 89 Vor dem Beweis dieses Satzes die wichtigste Regel im Umgang mit Faktorräumen: Auch die Elemente eines Faktorraums sind zunächst einfach Vektoren! Obwohl seine Elemente nicht v heißen, sondern merkwürdige (und umständlich anmutende) Namen wie zum Beispiel v+U tragen, sind sie – auf einer gewissen Ebene – einfach Vektoren, und zwar des Vektorraums V/U. Nur manchmal, wenn man’s ganz genau wissen will, muss man sozusagen eine Ebene tiefer hinabsteigen, und sich kurz klar machen, was diese Vektoren „in Wirklichkeit“ sind (nämlich Nebenklassen von V); diese tiefere Ebene betritt man aber nur, wenn es nicht anders geht – und verlässt sie so schnell wie möglich wieder. Ich möchte Ihnen das an einer vergleichbaren Situation des täglichen Lebens verdeutlichen: Ein normaler Verein, wie etwa der Sportverein Ihres Heimatortes, hat als Mitglieder normale („natürliche“) Personen. Es gibt aber auch Vereine, deren Mitglieder keine natürlichen Personen sind, sondern wieder Vereine; dazu gehört zum Beispiel der Deutsche Fußball Bund, dessen Mitglieder die einzelnen Fußballvereine sind. Man nennt solche Mitglieder oft auch „juristische Personen“; das bedeutet, dass diese im Regelfall so behandelt werden wie natürliche Personen und man nur manchmal auf die eigentliche Natur dieser juristischen Personen Rücksicht nehmen muss. Es ist immer gut, diese beiden Ebenen genau zu unterscheiden. Machen Sie sich in den folgenden Beweisen jeweils klar, auf welcher Ebene Sie sich befinden. Zum Beweis des Satzes vom Faktorraum müssen wir einfach die Vektorraumaxiome nachweisen. Also zuerst die Axiome der Addition. Dazu müssen wir . . . ??? Wie bitte? Halt! Keiner verlässt das Lokal! Was soll denn überhaupt + und ⋅ sein? Wie addiert man eine Nebenklasse zu einer anderen? Zwei riesige Goliaths, wo wir doch nur Vektoren, also bescheidene Davids, addieren können??? – Aber vielleicht kommen wir ja damit aus; wir probieren’s einfach: Seien X und Y Elemente von V/U, also Nebenklassen nach U. Es sei X + Y ∶= x + y + U für x ∈ X, y ∈ Y . Wir halten die Luft an und betrachten diese Definition. Leistet sie das Gewünschte? Ja, denn je zwei Nebenklassen X und Y wird als Summe wieder eine Nebenklasse zugeordnet. Wie berechne ich die Summe X+Y? Dazu muss ich ein x ∈ X und ein y ∈ Y wählen, die beiden addieren (das ist möglich, da x und y Vektoren sind) und die zugehörige Nebenklasse bilden. Alles klar? Na, dann versuchen Sie’s doch mal: Sie nehmen ein Element aus X . . . Was, Sie haben nicht mein x gewählt, sondern ein eigenes x′ ! Dürfen Sie das überhaupt? – Tatsächlich, das ist nicht verboten, und was nicht verboten ist, ist erlaubt. Nun wählen Sie wahrscheinlich, ich seh’s schon kommen, ja wirklich, Sie wählen auch ein y′ ∈ Y mit y′ ≠ y. Dann bilden Sie die Nebenklasse x′ +y′ + U und behaupten, das sei die Summe von X und Y. Wer von uns hat nun Recht? – Eines ist jedenfalls klar: Wenn die Definition einen Sinn machen soll, dann haben wir beide recht, denn der Wert einer Summe darf bestimmt nicht davon abhängen, wer sie ausrechnet. Mathematisch gesprochen ist also unsere gemeinsa- 90 3 Vektorräume me Aufgabe zu zeigen, dass die Nebenklasse x +y + U unabhängig von der Auswahl der Vektoren x ∈ X und y ∈ Y ist. Noch präziser ausgedrückt: Wir müssen zeigen, dass x + y + U = x ′ + y′ + U ist für x, x′ ∈ X und y, y′ ∈ Y. Wenn die Aufgabe einmal so präzise gestellt ist, ist sie auch nicht mehr schwer zu lösen. Da x und x′ aus derselben Nebenklasse sind, ist u := x′ −x ein Element aus U. Genauso folgt y′ −y =: w ∈ U. Damit ergibt sich x ′ + y′ = x + u + y + w = x + y + u + w , also (x ′ + y ′ ) − (x + y) = x ′ − x + y ′ − y = u + w ∈ U . Indem wir zum dritten Mal das Kriterium für die Gleichheit von Nebenklassen anwenden (wo waren die anderen beiden Anwendungen?), erhalten wir (x ′ + y ′ ) + U = (x + y) + U , also die Behauptung. Uff! Mit viel Geschick haben wir diese Klippe umschifft. Die nächste ist zwar schon in Sicht, aber die kann uns nicht mehr schrecken. Wir machen kurzen Prozess: Für eine Nebenklasse X und ein Element k ∈ K sei k ⋅ X ∶= k ⋅ x + U für x ∈ X . Wieder muss man zeigen, dass diese Definition unabhängig von der Auswahl des speziellen Repräsentanten x ∈ X ist: Seien also x und x′ zwei Elemente aus X. Dann ist x′ −x ∈ U, also auch k(x′ −x) ∈ U, da U ein Unterraum ist. Aus kx′ −kx ∈ U folgt nun wieder kx ′ + U = kx + U . Übrigens: Wenn man nachweisen muss, dass eine Definition unabhängig von der Auswahl der Repräsentanten ist, sagt man dazu auch, man zeigt, dass die Vorschrift wohldefiniert ist. Es könnte scheinen, dass wir erst am Anfang, ja vielleicht noch vor Beginn des Nachweises der Vektorraumaxiome sind. Dies ist zwar formal richtig, aber die Axiome ergeben sich nun völlig routinemäßig (Übungsaufgabe 31), weil man nun alle wünschenswerten Eigenschaften von V/U auf die (nach Voraussetzung gegebenen) Eigenschaften von V zurückführen kann. Wir halten hier nur eine, besonders wichtige Tatsache fest: Der Nullvektor des Faktorraums V/U ist die Nebenklasse U (= o+U). ◻ Nun wissen wir, dass V/U ein Vektorraum ist. Aus Abschn. 3.3.2 wissen wir, dass jeder Vektorraum eine Dimension hat. Welche Dimension hat der Vektorraum V/U? Die Antwort darauf gibt die folgende Aussage, die oft auch als Zweiter Dimensionssatz bezeichnet 3.3 Elementare Theorie der Vektorräume 91 wird: dim(V /U) = dim(V ) − dim(U) . Zum Beweis müssen wir eine Basis von V/U mit der „richtigen“ Anzahl von Elementen von angeben. Sei dazu B0 = {v1 , . . . , vs } eine Basis von U, die wir zu einer Basis B = {v1 , . . . , vs , vs+1 , . . . , vn } von V ergänzen. Behauptung Dann ist B* := {vs+1 + U, . . . , vn + U} eine Basis von V/U. Wenn wir das gezeigt haben, sind wir fertig; denn dann ist dim(V/U) = ∣B ∗ ∣ = n − s = dim(V ) − dim(U) . Der Nachweis, dass B* eine Basis von V/U ist, besteht aus relativ einfachem Rechnen mit Nebenklassen. Zunächst zeigen wir, dass B* linear unabhängig ist: Sei k s+ (v s+ + U) + . . . + k n (v n + U) = U . (Erinnern Sie sich daran, dass U das Nullelement von V/U ist.) Daraus ergibt sich k s+ v s+ + . . . + k n v n + U = U , also nach dem Kriterium über die Gleichheit von Nebenklassen k s+ v s+ + . . . + k n v n ∈ U . Dann ist dieser Vektor aber auch eine Linearkombination von v1 , . . . , vs , und es folgt ks+1 = . . . = kn = 0, da B eine Basis ist. Nun zeigen wir noch, dass B* den Vektorraum V/U erzeugt. Sei dazu v+U ein beliebiges Element von V/U. Wir stellen zunächst den Repräsentanten v als Linearkombination der Vektoren aus B dar: v = k v + . . . + k s v s + k s+ v s+ + . . . + k n v n . Da k v + . . . + ks vs ein Element von U ist, folgt v + U = k s+ v s+ + . . . + k n v n + U . Also ist v+U tatsächlich eine Linearkombination der Elemente von B*. ◻ Schlussbemerkung Ich hoffe, dass Sie meine Begeisterung über Faktorräume teilen. Dennoch sehe ich mich genötigt, Ihnen mitzuteilen, dass es (zur Not) auch ohne geht. Man 92 3 Vektorräume kann in der Theorie der Vektorräume alles, was man mit Faktorräumen ausdrücken kann, auch mit Komplementen ausdrücken. Dies sei noch kurz angedeutet. Sei U ein Unterraum von V, und sei W ein Komplement von U in V. Dann schneidet jede Nebenklasse von U den Unterraum W in genau einem Vektor. Sei dazu X = v + U eine beliebige Nebenklasse. Wenn w ∈ W und u ∈ U die Vektoren mit v = w + u sind, dann ist X =v + U =w + u+U =w + U . Also schneidet X den Unterraum W zumindest in dem Vektor w. Angenommen, es gäbe noch einen Vektor w′ ∈ W ∩ X. Da w′ , w ∈ X sind, liegt w′ −w in U; da andererseits w′ und w in dem Unterraum W enthalten sind, muss w′ −w aus W sein. Zusammen folgt w ′ − w ∈ U ∩ W = {o} , also w′ = w. Damit ist die Abbildung f ∶ X → X∩W eine Bijektion, mit der man V/U auf W strukturtreu übertragen kann (und umgekehrt). In Kap. 5 werden wir solche „Vektorraumisomorphismen“ genau studieren. Wenn man ohne Faktorraum V/U auskommen möchte, kann man also stets den Unterraum W benutzen. (Ein vielleicht eher theoretisches Problem dabei ist, dass man ein neues, eigentlich „unnötiges“ Objekt einführen muss, das auch nicht eindeutig bestimmt ist.) . . . und spätestens, wenn man die entsprechende Struktur bei Gruppen (Kap. 9) einführen möchte, führt kein Weg mehr an der Bildung der Faktorstruktur vorbei! 3.4 Zur Geschichte der linearen Algebra Die Geburt der modernen linearen Algebra kann man vergleichsweise genau datieren: In den Jahren 1843 und 1844 fanden zwei wichtige Ereignisse statt, die beide für die lineare Algebra entscheidend waren. Das erste Ereignis kennen wir schon: Die Entdeckung der Quaternionen durch William Rowan Hamilton am 16. Oktober 1843. Übrigens geht auch die Bezeichnung „Vektor“ auf Hamilton zurück. Das zweite Ereignis fand im Jahre 1844 statt und war das Erscheinen des Buches Die lineale Ausdehnungslehre dargestellt und durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom Magnetismus und die Krystallonomie erläutert von Hermann Graßmann, Lehrer an der Friedrich-Wilhelms Schule in Stettin. Hermann Günther Graßmann (1809–1877) war ein ungewöhnlicher Mann. Auf den ersten Blick ist an seiner Biographie allerdings nichts Außergewöhnliches zu erkennen: Er studierte in Berlin Theologie und klassische Philologie (wahrscheinlich hat er nie eine 3.4 Zur Geschichte der linearen Algebra 93 mathematische Vorlesung gehört), wurde 1831 Lehrer in Stettin (dem heutigen Szczecin), wo er bis zu seinem Tode blieb. Aber seine Interessen waren äußerst vielseitig: Graßmann arbeitete zeitweilig in der Redaktion der „Norddeutschen Zeitung“, sammelte pommersche Volkslieder und war Vorsitzender des „Pommerschen Hauptvereins für die Evangelisierung Chinas“. Bis heute kann man in zwei völlig unterschiedlichen Wissenschaftsgebieten seine Nachwirkung feststellen: In der Sprachwissenschaft – und in der Mathematik. Graßmanns sprachwissenschaftliche Studien kulminierten in der Übersetzung der Rigveda, einer Sammlung altindischer religiöser Texte und Lieder, und der Herausgabe eines dazugehörigen Wörterbuches; für diese Leistung wurde ihm 1876 die Ehrendoktorwürde der Universität Tübingen verliehen. Die für uns wichtigste Leistung Graßmanns besteht aber in der Mathematik. In seiner Ausdehnungslehre hat er bereits den Begriff eines n-dimensionalen Vektorraums, und zwar den eines „allgemeinen“ Vektorraums (also nicht nur des K n ) ausdrücklich vorgestellt. Er schreibt: Es geht darum, die sinnlichen Anschauungen der Geometrie zu allgemeinen, logischen Begriffen zu erweitern und zu vergeistigen . . . Ich sage, eine Größe a sei aus den Größen b, c, . . . durch die Zahlen β, γ, . . . abgeleitet, wenn a = βb + γc + . . . Dabei seien β, γ, . . . reelle Zahlen. Die Größen a, b, c, . . . stehen zueinander in einer Zahlbeziehung, wenn irgend eine sich aus den anderen numerisch berechnen lässt . . . Einheit nenne ich jede Größe, welche dazu dienen soll, um aus ihr eine Reihe von Größen abzuleiten. Ein System von Einheiten nenne ich jeden Verein von Größen, welche in keiner Zahlbeziehung zueinander stehen und welche dazu dienen sollen, um aus ihnen durch beliebige Zahlen andere Größen abzuleiten. Die algebraischen Größen heißen auch extensive Größen. Für extensive Größen gelten die Fundamentalformeln: a+b =b+a a + (b + c) = (a + b) + c a+b−b = a ; a, b, c sind Größen, α, β reelle Zahlen: αa = aα α(βa) = (αβ)a α(a + b) = αa + αb a(α + β) = aα + aβ a = a . Die Gesamtheit der Größen, welche aus einer Reihe von Größen a1 , a2 , . . . , an numerisch ableitbar sind, nenne ich das aus jenen Größen ableitbare Gebiet n-ter Stufe, wenn jene Größen von erster Stufe sind und sich das Gebiet nicht aus weniger als n solchen Größen ableiten lässt. Jedes Gebiet n-ter Stufe kann aus n (ihm angehörenden) Größen erster Stufe, die in keiner Zahlbeziehung zueinander stehen, abgeleitet werden, und zwar aus beliebigen n solchen Größen des Gebiets. 94 3 Vektorräume Graßmanns Werk hätte der Beginn der modernen linearen Algebra sein können – aber seine Erkenntnisse blieben fast ohne Wirkung. Seine Darstellung war „äußerst schwer zugänglich, ja fast unlesbar“. Seine (mindestens für Mathematiker) verwirrenden philosophischen Gedankengänge taten ein Übriges: Fast die gesamte Auflage der „linealen Ausdehnungslehre“ wurde wieder eingestampft. Der Vektorraumbegriff, wie wir ihn heute benutzen, wurde (allerdings nur über dem Körper der reellen Zahlen) erstmals von Hermann Weyl (1885–1955) in seinem Buch Raum – Zeit – Materie. Vorlesungen über allgemeine Relativitätstheorie 1917 vorgestellt. Dort heißt es: 1. Vektoren Je zwei Vektoren a und b bestimmen eindeutig einen Vektor a+b als ihre „Summe“; eine Zahl λ und ein Vektor a bestimmen eindeutig einen Vektor λa, das „λ-fache von a“ (Multiplikation). Diese Operationen genügen den folgenden Gesetzen: a) Addition. i. a + b = b + a (kommutatives Gesetz). ii. (a + b) + c = a + (b + c) (assoziatives Gesetz). iii. Sind a und c irgend zwei Vektoren, so gibt es einen und nur einen Vektor x, für welchen die Gleichung a + x = c gilt. Er heißt die Differenz c−a von c und a (Möglichkeit der Subtraktion). b) Multiplikation i. (λ + μ)a = (λa) + (μa) (erstes distributives Gesetz). ii. λ(μa) = (λμ)a (assoziatives Gesetz). iii. 1a = a. iv. λ(a + b) = (λa) + (λb) (zweites distributives Gesetz). Dimensionsaxiom: Es gibt n linear unabhängige Vektoren, aber je n+1 sind voneinander linear abhängig. Spätestens seit B. L. van der Waerdens Buch Moderne Algebra 1936 hat sich der Begriff des Vektorraums über einem beliebigen Körper eingebürgert (van der Waerden betrachtet sogar Vektorräume über Schiefkörpern!) und ist heute aus keiner Mathematikausbildung mehr wegzudenken. Weitere Informationen zur Geschichte der Linearen Algebra finden Sie in [Cro], [Mäd] und [Scho], Kap. 13. das Werk Graßmanns wird ausführlich in [Zad] vorgestellt. 3.5 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Definition eines Vektorraums ◻ Man kann je zwei Vektoren eines Vektorraums addieren. ◻ Man kann einen Vektor v durch einen Vektor w dividieren, falls w ≠ o ist. 3.5 Verständnisfragen, Übungen und Tipps 95 ◻ Jeder Vektorraum hat ein eindeutiges Nullelement. ◻ Jeder Vektorraum hat ein eindeutiges Einselement. ◻ Wenn V ein K-Vektorraum ist, dann ist {v+w | v ∈ V, w ∈ V} = V. ◻ Wenn V ein K-Vektorraum ist, dann ist {v+w | v ∈ V, w ∈ V} = V × V. ◻ Für alle u, v, w eines Vektorraums V gilt u ⋅ (v ⋅ w) = (u ⋅ v) ⋅ w. ◻ Rn besteht aus allen n-Tupeln reeller Zahlen. ◻ Rn besteht aus n-Tupeln von Vektoren. Welche der folgenden Mengen sind Vektorräume, wenn man die Addition und die Multiplikation komponentenweise definiert? ◻ Die Menge aller reellen Folgen der Länge 1000, ◻ die Menge aller endlichen reellen Folgen, ◻ die Menge aller unendlichen reellen Folgen, ◻ die Menge aller unendlichen reellen Folgen, die nur endlich viele von 0 verschiedene Komponenten haben, ◻ die Menge aller unendlichen reellen Folgen, die unendlich viele von 0 verschiedene Komponenten haben, ◻ die Menge aller unendlichen reellen Folgen, die nur endlich viele von 1 verschiedene Komponenten haben. 2. Thema: Erzeugnis und lineare Unabhängigkeit ◻ Die Vektoren v1 , v2 , . . . , vn sind linear unabhängig, wenn eine Linearkombination von v1 , v2 , . . . , vn den Nullvektor ergibt. ◻ Die Vektoren v1 , v2 , . . . , vn sind linear unabhängig, wenn ihre Summe o ist. ◻ Der Nullvektor ist nur durch die triviale Linearkombination darstellbar. ◻ Der Nullvektor ist stets durch die triviale Linearkombination darstellbar. ◻ Ist B ein Erzeugendensystem eines Vektorraums V, so ist jeder Vektor durch mindestens/genau/höchstens eine Linearkombination der Vektoren aus B darstellbar. ◻ Ist B eine Menge linear unabhängiger Vektoren eines Vektorraums V, so ist jeder Vektor durch mindestens/genau/höchstens eine Linearkombination der Vektoren aus B darstellbar. 3. Thema: Dimension Welche der folgenden Objekte haben eine Dimension? ◻ Ein Vektor, ◻ eine Linearkombination, ◻ eine Basis, ◻ ein Unterraum. ◻ Welche der folgenden Zahlen kommen als Dimension eines Vektorraums in Frage: −1, 0, 1, 17.5, 2001, ∞ ? 4. Thema: Basen Sei V ein Vektorraum. ◻ Jede Teilmenge einer Menge linear unabhängiger Vektoren ist linear unabhängig. ◻ Jede Teilmenge einer Menge linear abhängiger Vektoren ist linear abhängig. ◻ Wenn eine Basis von V unendlich ist, sind alle Basen von V unendlich. 96 3 Vektorräume ◻ Wenn eine Basis von V endlich ist, sind alle Basen von V endlich. ◻ Wenn V ein unendliches Erzeugendensystem hat, sind alle Basen von V unendlich. ◻ Es gibt eine Basis des R3 aus Vektoren der Form (x, x, x). ◻ Jede Basis des R3 besteht aus Vektoren der Form (x, x, x). ◻ Jeder Vektor der Form (x, x, x) kann zu einer Basis von R3 ergänzt werden. 5. Thema: Unterräume Sei U ein Unterraum des Vektorraums V. Dann gilt für alle u, u′ ∈ V: ◻ u, u′ ∈/ U ⇒ u+u′ /∈ U, ◻ u, u′ ∈/ U ⇒ u+u′ ∈ U, ◻ u ∈/ U, u′ ∈ U ⇒ u+u′ ∈/ U. 6. Thema: Nebenklassen Sei U ein Unterraum des Vektorraums V. ◻ Jede Nebenklasse ist ein Unterraum. ◻ Jeder Unterraum ist eine Nebenklasse. ◻ Die leere Menge ist eine Nebenklasse. ◻ Es ist möglich, dass eine Nebenklasse von U in V in einer anderen enthalten ist. ◻ Zu jedem Unterraum gehören mindestens zwei Nebenklassen. ◻ Jeder Unterraum von R3 hat unendlich viele Nebenklassen. 7. Thema: Faktorraum Der Faktorraum von V nach U ist ◻ eine Menge von Vektoren aus U, ◻ ein Unterraum von V, ◻ ein Vektorraum, ◻ eine Nebenklasse von U, ◻ eine Menge von Nebenklassen. ◻ Aus v+U = U folgt v = o, weil o+U = U gilt. ◻ Aus v+U = U folgt v = o, weil v+U = o+U ist. ◻ Aus v+U = U folgt v = o, weil man auf beiden Seiten −U addieren kann. ◻ Aus v+U = U folgt v ∈ U. Übungsaufgaben 1. Weisen Sie für mindestens zwei Beispiele aus Abschn. 3.2 die Vektorraumaxiome explizit nach. 2. Wie können Addition und skalare Multiplikation definiert werden, so dass die folgenden Mengen zu Vektorräumen werden? V = {(x , x , . . . , x n )∣x i ∈ R} , V = {(x , x , . . . , x n )∣x i ∈ {, }} , V = { f ∣ f stetige Abbildung auf (a, b)} . 3.5 Verständnisfragen, Übungen und Tipps 97 3. Zeigen Sie, dass die Menge der Lösungen (x, y, z) des reellen Gleichungssystems x − y + z = x + y + z = x − y + z = einen Vektorraum bilden. Wie viele „Freiheitsgrade“ hat dieser Vektorraum? 4. Welche der folgenden Teilmengen U von Rn ist ein Vektorraum? ◻ U = {(x1 , x2 , . . . , xn ) ∈ Rn | x1 = x2 = . . . = xn }, ◻ U = {(x1 , x2 , . . . , xn ) ∈ Rn | x1 = 1}, ◻ U = {(x1 , x2 , . . . , xn ) ∈ Rn | x1 = 0}, ◻ U = {(x1 , x2 , . . . , xn ) ∈ Rn | x1 2 = 0}, ◻ U = {(x1 , x2 , . . . , xn ) ∈ Rn | x1 2 − x2 2 = 0}. 5. Zeigen Sie: (a) Ist g eine Gerade der euklidischen Ebene R2 durch den Nullpunkt, so ist g ein Vektorraum. (b) Sei E eine Ebene des R3 durch den Nullpunkt. Dann ist E ein Vektorraum. 6. Zeigen Sie: Ist g eine Gerade der euklidischen Ebene R2 , die nicht durch den Nullpunkt geht, so ist g kein Vektorraum. 7. Wir stellen uns eine Balkenwaage vor, die man an drei Stellen mit Gewichten belasten kann; diese Stellen seien 20 cm links vom Aufhängungspunkt und 5 bzw. 10 cm rechts vom Aufhängungspunkt. (a) Geben Sie zwei Gewichtssätze an, bei denen die Waage im Gleichgewicht ist. (b) Zeigen Sie, dass die Menge aller Gewichtssätze, bei denen die Waage im Gleichgewicht ist, bezüglich komponentenweiser Verknüpfungen ein reeller Vektorraum ist. (Dabei muss man allerdings auch negative Gewichte zulassen.) (c) Welche Dimension hat dieser Vektorraum? 8. Definieren Sie den Quaternionenschiefkörper dadurch, dass Sie formulieren: Auf dem Vektorraum H := R4 definieren wir das folgende Produkt . . . Machen Sie sich klar, wie viel einfacher der Nachweis der Körperaxiome wird, wenn man die elementare Theorie der Vektorräume voraussetzt. 9. Im Folgenden werden jeweils einige Vektoren des Vektorraums V = R3 angegeben. Entscheiden Sie, ob es Vektoren von R3 gibt, die nicht im Erzeugnis der angegebenen Vektoren liegen, und geben Sie gegebenenfalls einen solchen Vektor an. (a) (1, 0, 0), (1, 1, 1); (b) (1, 0, 0), (0, 1, 0), (1, 1, 1); (c) (1, 0, 0), (0, −1, 0), (1, 1, −1); (d) (3, 4, 7), (1, 0, 3), (0, 4, −2), (3, 8, 5); (e) (0.00000000001, 0, 0), (0, 0.00000000001, 0), (0, 0, 0.00000000001); (f) (π, e, 0), (e, π, 0), (0, π, e). 10. Geben Sie mindestens drei Basen des R3 an. 11. Zeigen Sie: Je drei Vektoren der Menge {(1, x, x2 ) | x ∈ K} von K 3 sind linear unabhängig. 98 3 Vektorräume 12. Beweisen Sie folgende Aussagen. Sei V ein K-Vektorraum. (a) Für alle k ∈ K, v ∈ V gilt k⋅o=o und (−k) ⋅ v = −(k ⋅ v) = k ⋅ (−v) [Überlegen Sie zunächst, in welchen Strukturen das Minuszeichen was bedeutet.] (b) Für alle k1 , k2 K ∈ und alle v ∈ V mit v ≠ o gilt: k ⋅ v = k ⋅ v ⇔ k = k . 13. Zeigen Sie: Wenn v1 , . . . , vn Elemente eines K-Vektorraums V sind, dann gilt: (a) Die Summe je zweier Vektoren aus ⟨v1 , . . . , vn ⟩ liegt wieder in ⟨v1 , . . . , vn ⟩. (b) Das Produkt eines Skalars k mit einem Vektor aus ⟨v1 , . . . , vn ⟩ liegt wieder in ⟨v1 , . . . , vn ⟩. 14. Beweisen Sie. Sei B eine Menge von Vektoren eines Vektorraums V. Dann gilt: Genau dann ist B eine Basis von V, wenn B ein minimales Erzeugendensystem ist. 15. Sei K ein Körper, und sei n ∈ N. (a) Zeigen Sie, dass die Menge der Einheitsvektoren e = (, , , . . . , ), e = (, , , . . . ), . . . , e n = (, , . . . , , ) eine Basis von K n ist. (b) Welche Dimension hat K n ? (c) Gibt es eine Basis {v1 , v2 , . . . , vn } von K n , bei der vi genau i von 0 verschiedene Komponenten hat? 16. Welche Dimension hat der K-Vektorraum K m × n ? Geben Sie eine Basis dieses Vektorraums an. 17. Sei V der GF(2)-Vektorraum aller Teilmengen einer n-elementigen Menge X (vergleichen Sie dazu Abschn. 3.2.8). (a) Geben Sie eine Basis von V an. (b) Gibt es eine Basis von V, deren Elemente Teilmengen von X mit mehr als einem Element sind? (c) Welche Dimension hat V? 18. Sei V der GF(2)-Vektorraum aller Teilmengen einer n-elementigen Menge X (vergleichen Sie Abschn. 3.2.8). (a) Sei W die Menge aller Teilmengen von X, die eine gerade Anzahl von Elementen besitzen. Zeigen Sie: W ist ein Unterraum von V. (b) Sei Y eine Teilmenge von X ungerader Mächtigkeit. Zeigen Sie, dass W zusammen mit Y bereits ganz V erzeugt. Ist W eine Hyperebene von V? (c) Wie viele Elemente hat W? Wie viele Elemente von V liegen außerhalb von W? Interpretieren Sie diese Tatsache als Aussage über die Teilmengen einer endlichen Menge. 19. Beweisen Sie folgendes (außerordentlich nützliche!) Unterraumkriterium: Sei U eine Teilmenge eines K-Vektorraums V. Wenn gilt 3.5 Verständnisfragen, Übungen und Tipps 99 • U ≠ ∅, • für alle k ∈ K und u ∈ U gilt k ⋅ u ∈ U, • für alle u, u′ ∈ U ist u−u′ ∈ U, dann ist U ein Unterraum von V. 20. Zeigen Sie, dass das Erzeugnis ⟨v1 , . . . , vn ⟩ von Vektoren v1 , . . . , vn eines Vektorraums V ein Unterraum von V ist. 21. Sei V = R3 . (a) Zeigen Sie, dass die Menge ein Unterraum von V ist. (b) Geben Sie eine Basis von U an. (c) Ergänzen Sie diese Basis zu einer Basis von V. 22. Sei V die Menge aller Abbildungen von R nach R. (a) Zeigen Sie: Wenn man eine Addition und eine skalare Multiplikation auf V wie folgt definiert: ( f + g)(r) ∶= f (r)+ g(r), (a ⋅ f )(r) ∶= k ⋅ f (r) für alle r ∈ R( f , g ∈ V , a ∈ R) , so wird V zu einem R-Vektorraum. (b) Wir definieren: W ∶= { f ∈ V∣ f () = und f (−) = } . Zeigen Sie: W ist ein Unterraum von V. 23. Sei V ein Vektorraum der Dimension n. Zeigen Sie: Jedes Erzeugendensystem C besteht aus mindestens n Vektoren; Gleichheit gilt genau dann, wenn C eine Basis von V ist. 24. Seien U und U ′ Unterräume eines K-Vektorraums V. (a) Zeigen Sie: Die Menge U + U ′ ∶= {u + u ′ ∣u ∈ U , u ′ ∈ U ′ } . (die Summe von U und U ′ ) ist ein Unterraum von V. (b) Gilt U+U ′ = ⟨U, U ′ ⟩ ? 25. Seien U und U ′ Unterräume eines K-Vektorraums V. Wir definieren: U − U ′ ∶= {u − u ′ ∣u ∈ U , u ′ ∈ U ′ } . Welche der folgenden Aussagen gilt dann (a) U − U ′ = {o}, (b) U − U ′ = ∅ , (c) U − U ′ = U + U ′ ? 26. Zeigen Sie: Seien U und U ′ komplementäre Unterräume des Vektorraums V. Wenn B eine Basis von U und B′ eine Basis von U ′ ist, dann ist B ∪ B′ eine Basis von V. 100 3 Vektorräume 27. Bestimmen Sie diejenigen Unterräume eines Vektorraums, die nur ein Komplement haben. 28. Zeigen Sie: Der Durchschnitt beliebig vieler Unterräume eines Vektorraums V ist wieder ein Unterraum von V. 29. Seien U und U ′ Unterräume des Vektorraums V. (a) Untersuchen Sie, wann die mengentheoretische Vereinigung U ∪ U ′ (also nicht das Erzeugnis!) von U und U ′ ein Unterraum von V ist. (b) Wann ist U ∪ U ′ = ⟨U, U ′ ⟩ ? 30. Sei U ein Unterraum des K-Vektorraums V. Zeigen Sie: Das mengentheoretische Komplement von U in V (siehe Abschn. 1.1) ist nie ein Unterraum. 31. Zeigen Sie, dass für jeden Unterraum U eines Vektorraums V die Struktur V/U ein Vektorraum ist. 32. Sei {v1 , v2 } eine Basis eines 2-dimensionalen R-Vektorraums V. Für welche reellen Zahlen s, t ist die Menge {w1 , w2 } mit w ∶= sv + v , w ∶= v + tv ebenfalls eine Basis von V? 33. (a) Sei {v1 , v2 , v3 } eine Basis eines 3-dimensionalen R-Vektorraums V. Zeigen Sie, dass dann auch die Menge {c1 , c2 , c3 } eine Basis ist mit c ∶= v + v + v , c ∶= v + v + v c ∶= v + v + v . (b) Gilt diese Aussage auch noch, wenn man als K den Körper GF(2) oder GF(3) wählt? 34. (a) Zeigen Sie, dass die Menge B := {(1, 2, 3, 4), (2, 0, 1, −1), (−1, 0, 0, 1), (0, 2, 3, 0)} eine Basis des Vektorraums R4 ist. (b Ergänzen Sie die Menge {(0, 4, 5, 9), (3, 3, 3, 3)} durch Vektoren aus B zu einer Basis von R4 . 35. Welche Dimension hat der von den Vektoren (1, 2, t+2), (−1, t+1, t), (0, t, 1) erzeugte Unterraum von R3 (t ∈ R)? [Hinweis: Achtung!] 36. Sei V die Menge aller unendlichen Folgen (a1 , a2 , a3 , . . . ) reeller Zahlen mit der Eigenschaft ai = ai−2 + ai−1 für i ≥ 3. (a) Zeigen Sie, dass V zusammen mit der komponentenweisen Addition und Skalarmultiplikation ein Vektorraum ist. (b) Welche Dimension hat V? (c) Können Sie eine Basis von V angeben? 3.5 Verständnisfragen, Übungen und Tipps 101 37. Eine reelle n × n-Matrix wird ein magisches Quadrat der Ordnung n genannt, wenn die Summen der Elemente in jeder Zeile und jeder Spalte gleich sind. (a) Zeigen Sie, dass die Menge aller magischen Quadrate der Ordnung n einen Vektorraum bilden. (b) Bestimmen Sie die Dimension des Vektorraums der magischen Quadrate der Ordnung 3. Geben Sie eine Basis dieses Vektorraums an. [Hinweis: Es gibt eine Basis aus Matrizen, die in jeder Zeile und jeder Spalte nur eine Eins (und sonst Nullen) enthalten.] (c) Versuchen Sie, (b) zu verallgemeinern. 38. (a) Informieren Sie sich in einem Mathematikerlexikon oder einem Buch zur Geschichte der Mathematik über Ernst Steinitz. (b) Lesen Sie, was K. Jänich in seinem Buch über Lineare Algebra zur historischen Einordnung des „Austauschsatzes von Steinitz“ sagt. 39. Studieren Sie den Textauszug aus Graßmanns „Ausdehnungslehre“. Welche unserer Begriffe erkennen Sie wieder? (Erzeugnis, linear unabhängig, Dimension, . . . ?) 40. Vergleichen Sie die Definition eines Vektorraums nach Hermann Weyl mit der Definition in Abschn. 3.1. Projekt: Der unendlichdimensionale Vektorraum V ∞ Wir haben Vektorräume, die keine endliche Basis haben (so genannte unendlichdimensionale Vektorräume) von den Betrachtungen dieses Kapitels weitgehend ausgeschlossen. Die Existenz solcher Vektorräume ist aber nicht zu leugnen, und besonders wichtig ist der Vektorraum aller unendlichen Folgen aus Elementen eines Körpers, in denen nur endlich viele Elemente verschieden von 0 sind (siehe Abschn. 3.2.5). Sie sind eingeladen, diesen Vektorraum selbständig zu untersuchen. Dabei werde ich Ihnen einige Tipps geben, insbesondere dadurch, dass ich Ihnen realistische Arbeitsziele in einer vernünftigen Reihenfolge nenne. Wenn Sie dieses Projekt erfolgreich bearbeitet haben, kennen Sie sich mit der grundlegenden Theorie der Vektorräume aus! Wir betrachten also den Vektorraum V ∞ aller unendlichen Folgen mit Elementen aus einem Körper K, bei denen nur endlich viele Elemente ≠ 0 sind. Um die Bezeichnungen einzuführen, beschreiben wir diesen Vektorraum nochmals auf andere Weise: V∞ = {(k , k , . . .)∣k i ∈ K, nur endlich viele k i ≠ } . Die Endlichkeitsbedingung kann man auch so formulieren: Für jeden Vektor v = (k1 , k2 , . . . ) aus V ∞ gibt es eine natürliche Zahl n, so dass ki = 0 für alle i ⟩ n gilt. 0 Machen Sie sich nochmals völlig klar, dass V ∞ ein K-Vektorraum ist. Ihr erstes großes Ziel ist zu zeigen, dass V ∞ eine Basis hat. Dafür bietet sich ein Kandidat an, nämlich die Menge B*, die aus den Einheitsvektoren ei besteht. Dabei ist ei der Vektor, der an der i-ten Stelle eine 1 hat und ansonsten aus Nullen besteht; zum Beispiel ist e = (, , , . . .), e = (, , , , . . .), e = (, , , , , . . .) . 102 3 Vektorräume (Beachten sie, dass wir aus Gründen, die später – in Kap. 6 – klar werden, hier mit 0 zu zählen beginnen.) Um zu zeigen, dass B* eine Basis ist, müssen wir den Begriff der Linearkombination noch etwas genauer fassen. Wir sagen, ein Vektor v ist eine Linearkombination einer Menge M = {v1 , v2 , . . . } von Vektoren, wenn es endlich viele Vektoren aus M gibt, so dass v eine Linearkombination dieser Vektoren ist. Wenn man das genauer aufschreiben möchte, so schreibt man dafür am einfachsten (glauben Sie mir!) wie folgt: n v = ∑ ki j vi j . j= Was soll das bedeuten? Das bedeutet, dass nur eine endliche Menge von Indizes eine Rolle spielt, nämlich die Menge {i1 , i2 , . . . , in }. Bei der Darstellung von v spielen nur Vektoren mit diesen Indizes mit; der Vektor vij wird dabei mit dem Koeffizienten kij multipliziert. Nochmals anders ausgedrückt. Man wählt zunächst eine endliche Folge i1 , i2 , . . . , in von Indizes (also von nichtnegativen ganzen Zahlen). Dass diese Folge hier üblicherweise mit i1 , i2 , . . . , in und nicht mit a1 , a2 , . . . , an bezeichnet wird, darf Sie nicht stören. Dann wählt man die Vektoren aus M mit diesen Indizes und multipliziert diese mit irgendwelchen Skalaren. Man sagt, dass eine Menge M den Vektorraum V ∞ erzeugt, wenn jeder Vektor aus V eine Linearkombination endlich vieler Elemente aus M ist. Ferner heißt M linear unabhängig, wenn der Nullvektor keine nichttriviale Linearkombination von M ist. Damit können Sie die ersten Schritte des Projekts bewältigen. 1. Beweisen Sie, dass B* eine Basis ist. 2. Beweisen Sie das Austauschlemma bezüglich der Standardbasis B*. Sei v ein von o verschiedener Vektor von V∞. Dann gibt es einen Vektor ei ∈ B*, so dass man ei durch v ersetzen kann, das heißt, dass die Menge (B∗ /{e i }) ∪ {v} ebenfalls eine Basis von V ∞ ist. 3. Formulieren und beweisen Sie den Steinitzschen Austauschsatz bezüglich der Basis B*. 4. Zeigen Sie, dass der Unterraum V i := ⟨ei , ei +1 , . . . ⟩ „isomorph“ zu V ∞ ist. 5. Sei U ein endlichdimensionaler Unterraum von V ∞ . Zeigen Sie, dass V ∞ /U „isomorph“ zu V ∞ ist. Bemerkung: Der Isomorphiebegriff wird in Kap. 5 ausführlich behandelt. Wir nennen zwei Unterräume U 1 und U 2 von V ∞ komplementär, wenn ⟨U 1 , U 2 ⟩ = V ∞ und U 1 ∩ U 2 = ∅ ist. 3.5 Verständnisfragen, Übungen und Tipps 103 6. Zeigen Sie: Sind U 1 und U 2 komplementäre Unterräume von V ∞ , so hat jeder Vektor v von V ∞ eine eindeutige Darstellung als v = u1 + u2 mit u1 ∈ U 1 und u2 ∈ U 2 . 7. Zeigen sie: Jeder endlichdimensionale Unterraum von V ∞ hat einen komplementären Unterraum. Eine Hyperebene von V ∞ ist ein Unterraum H ≠ V ∞ , für den es einen Vektor v gibt mit ⟨H, v⟩ = V ∞ . 8. Zeigen Sie: Ist H eine Hyperebene des Vektorraums V ∞ , so gilt ⟨H, v⟩ = V ∞ für alle v ∈ V ∞ \H. 9. Sei H eine Hyperebene von V ∞ , und sei U ein t-dimensionaler Unterraum von V ∞ . Dann gilt: Ist U kein Unterraum von H, so ist dim (U ∩ H) = t−1. Sie sollten mit folgenden Begriffen umgehen können Vektorraum, Vektor, Skalar, linear abhängig, linear unabhängig, K n , Linearkombination, Unterraum, Erzeugendensystem, Basis, Dimension, Komplement, Hyperebene, Nebenklasse, Faktorraum, wohldefiniert 4 Anwendungen von Vektorräumen In diesem Kapitel behandeln wir drei wichtige Anwendungen der bisher entwickelten Vektorraumtheorie. Diese Anwendungen scheinen sehr verschieden zu sein. Wenn man aber genauer hinschaut, erkennt man, dass sie zum Teil eng zusammenhängen. 4.1 Lineare Gleichungssysteme 4.1.1 Begriffe und Fragen Ein lineares Gleichungssystem in den Unbekannten x1 , . . . , xn besteht aus m linearen Gleichungen der Form a ⋅ x + a ⋅ x + . . . + a n ⋅ x n = b a ⋅ x + a ⋅ x + . . . + a n ⋅ x n = b ... a m ⋅ x + a m ⋅ x + . . . + a mn ⋅ x n = b m . Dabei sind die Elemente aij und bi Elemente eines Körpers K. Man nennt ein solches Gleichungssystem homogen, falls b1 = . . . = bm = 0 ist und sonst inhomogen. In der Theorie der linearen Gleichungssysteme fragt man nach Lösungen eines vorgelegten Gleichungssystems; darunter versteht man ein n-Tupel (k1 , . . . , kn ) von Körperelementen derart, dass gilt: a ⋅ k + a ⋅ k + . . . + a n ⋅ k n = b a ⋅ k + a ⋅ k + . . . + a n ⋅ k n = b ... (4.1) a m ⋅ k + a m ⋅ k + . . . + a mn ⋅ k n = b m . A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_4, © Springer Fachmedien Wiesbaden 2014 105 106 4 Anwendungen von Vektorräumen Die zentralen Fragen der Theorie der linearen Gleichungssysteme sind die folgenden: • Hat ein vorgelegtes lineares Gleichungssystem überhaupt eine Lösung? • Wie viele Lösungen hat ein lineares Gleichungssystem? • Wie kann man eine (alle) Lösung(en) konstruieren? Auf alle diese Fragen werden wir eine Antwort geben. Zunächst werden wir jedoch einen Exkurs über Matrizen machen; denn die Darstellung von linearen Gleichungssystemen mit Hilfe von Matrizen ist deutlich übersichtlicher. 4.1.2 Exkurs über Matrizen Der Begriff einer m × n-Matrix über einem Körper K wurde bereits in Abschn. 3.2 eingeführt. Dort haben wir auch die Addition von Matrizen und die Multiplikation einer Matrix mit einem Körperelement erklärt, und zwar komponentenweise. Hier geht es darum, das Produkt zweier Matrizen zu definieren. Alle im Folgenden betrachteten Matrizen seien über einem Körper K definiert. Ich falle mit der Tür ins Haus, werde Ihnen aber anschließend helfen, sich von dem Schock zu erholen. • Seien A = (aij )1 ≤ i ≤ m, 1 ≤ j ≤ n und B = (buv )1 ≤ u ≤ r,1 ≤ v ≤ s Matrizen. Damit ein Produkt von A und B überhaupt erklärt werden kann, muss die Anzahl der Spalten von A gleich der Anzahl der Zeilen von B sein. Sei also n = r. • In diesem Fall ergibt sich als Produkt eine m × s-Matrix C = (civ )1 ≤ i ≤ m, 1 ≤ v ≤ s , deren Elemente wie folgt definiert sind: n c iv = ∑ a i j b jv . j= Wie sollen wir uns diese Formel jemals merken? Wie kann man sich das vorstellen? Geht’s nicht noch komplizierter? Ausgeburt eines perversen Mathematikerhirns!?? Gemach, gemach! Zum einen erweist sich gerade diese Definition der Multiplikation von Matrizen als die einzig wahre; zum anderen verspreche ich Ihnen, dass Sie in spätestens zehn Minuten den Mechanismus der Matrizenmultiplikation verstanden haben. Um das Element civ auszurechnen (und nur darum geht es!), muss man die i-te Zeile von A und die v-te Spalte von B betrachten. Tun wir das: (a i a i ⋯ ⎛ b v ⎞ ⎜b v ⎟ ⎟ a in ) ⋅ ⎜ ⎜ ⋮ ⎟ . ⎜ ⎟ ⎝b rv ⎠ 4.1 Lineare Gleichungssysteme 107 Nun kommt der entscheidende Trick: Wie viele Elemente hat die i-te Zeile von A? Nun, genauso viele, wie die Anzahl der Spalten von A beträgt, also genau n. Entsprechend ist die Anzahl der Elemente der v-ten Spalte von B gleich der Anzahl r der Zeilen von B. Da n = r ist, können wir uns diese beiden Objekte (die i-te Zeile von A und die v-te Spalte von B) übereinander gelegt vorstellen. (a i a i ... a in ) (b v b v ... b nv ) . Wenn wir soweit sind, multiplizieren wir die übereinander liegenden Elemente und addieren die Produkte; dies ergibt civ !!! In der folgenden Schemazeichnung sind entsprechende Elemente durch das gleiche Symbol dargestellt; in der Ergebnismatrix ist in symbolischer Weise das Element civ eingetragen. ⎛_ _ _ _⎞ _ ⎜♣ ♢ ♡ ♠⎟ ⎛ ⎜ ⎟ ⎜ ⎜ _ _ _ _ ⎟ ⋅ ⎜_ ⎜ ⎟ ⎜_ ⎜ ⎟ ⎜ ⎜_ _ _ _⎟ ⎝ ⎝_ _ _ _⎠ _ _ _ _ _ _ _ _ _ _ _ _ _ ♣ ♢ ♡ ♠ _ _⎞ ⎛ ⎜_ ⎜ _⎟ ⎟ = ⎜_ ⎜ _⎟ ⎟ ⎜ ⎜_ _⎠ ⎝ _ _ _ _ _ _ _ _ _ _ _ _ _ _ ♣♣ + ♢♢ + ♡♡ + ♠♠ _ _ _ _ _ _ _⎞ _⎟ ⎟ _⎟ ⎟ . ⎟ _⎟ _⎠ Nun noch ein Beispiel, und Sie haben alles verstanden! Was ist ⎞ ⎛ ( ) ⋅ ⎜ ⎟ ? ⎝ − ⎠ Das ist einfach: Aber zunächst muss man fragen: Geht das überhaupt? Ja, es geht, denn die Anzahl der Spalten der ersten Matrix A ist 3, und dies ist auch die Anzahl der Zeilen der zweiten Matrix B. Welches sind die Dimensionen der Produktmatrix C? Da A zwei Zeilen hat, hat auch C zwei Zeilen, und da B zwei Spalten hat, gilt dies auch für C. Das Ergebnis ist also eine 2 × 2-Matrix. Unsere Aufgabe ist es, die Koeffizienten cij zu bestimmen. Ans Werk! Was ist c11 ? Dieser Wert ergibt sich, indem man die erste Zeile von A mit der ersten Spalte von B multipliziert, das heißt: c = ⋅ + ⋅ + ⋅ (−) = − . Auch bei der Berechnung des nächsten Koeffizienten c12 erkennt man an den Indizes, was man zu tun hat: Die 1 an der ersten Stelle sagt, dass man die Zeile Nummer 1 der ersten Matrix mit der Spalte Nummer 2 der zweiten Matrix (das sagt die 2 an der zweiten Stelle) multiplizieren muss: c = ⋅ + ⋅ + ⋅ = . 108 4 Anwendungen von Vektorräumen Nun ist klar, wie der Hase läuft: c21 ergibt sich nach der Melodie „Zeile Nummer 2 der ersten Matrix mal Spalte Nummer 1 der zweiten Matrix“: c = ⋅ + ⋅ + ⋅ (−) = . Auch der letzte Koeffizient ist nicht mehr schwer: c22 ist „Zeile Nummer 2 der ersten mal Spalte Nummer 2 der zweiten“, also c = ⋅ + ⋅ + ⋅ = . Als Ergebnis erhalten wir also ( − ) . So einfach ist das! Noch ein Beispiel? Gut! Kann man auch Vektoren miteinander multiplizieren? Natürlich – wenn die unumgängliche Regel Anzahl der Spalten der ersten gleich Anzahl der Zeilen der zweiten gilt. Das bedeutet, dass man zum Beispiel eine 1 × 4-Matrix (in unserer bisherigen Sprache hätten wir das wahrscheinlich einen Zeilenvektor der Länge 4 genannt) mit einer 4 × 1-Matrix (also einem Spaltenvektor der Länge 4) multiplizieren kann, und eine 1 × 1-Matrix, also . . . – ein Körperelement, erhält. Versuchen wir’s: ⎛⎞ ⎜ ⎟ ⎟ ( ) ⋅ ⎜ ⎜⎟ = ( ⋅ + ⋅ + ⋅ + ⋅ ) = () . ⎜ ⎟ ⎝⎠ Man kann aber auch einen Spaltenvektor mit einem Zeilenvektor multiplizieren – und es ergibt sich eine „richtige Matrix“: ⎛⎞ ⎜ ⎟ ⎜ ⎟ ⋅ ( ⎜⎟ ⎜ ⎟ ⎝⎠ ⎛ ⋅ ⋅ ⋅ ⋅ ⎞ ⎛ ⎜ ⋅ ⋅ ⋅ ⋅ ⎟ ⎜ ⎟ ⎜ ) = ⎜ ⎜ ⋅ ⋅ ⋅ ⋅ ⎟ = ⎜ ⎟ ⎜ ⎜ ⎝ ⋅ ⋅ ⋅ ⋅ ⎠ ⎝ ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ Haben Sie’s jetzt verstanden? Klar, wusst’ ich doch! . . . und wie lange hat’s gedauert? Gut, ich gebe zu, etwas länger haben wir gebraucht, aber der Zweck heiligt die Mittel. Eigentlich brauchen wir in diesem Abschnitt nicht die Multiplikation von Matrizen im allgemeinen, sondern nur die Multiplikation einer Matrix mit einem Vektor. Dies formulieren wir explizit. Sei A = (aij )1 ≤ i ≤ m, 1 ≤ j ≤ n eine m × n-Matrix mit aij ∈ K, und sei k ein Spaltenvektor. Wenn dieser die Länge n hat, so kann das Produkt A ⋅ k gebildet werden. Bevor wir dies tun, noch eine kleine technische Bemerkung. Wenn wir einen Spaltenvektor explizit angeben wollen, brauchen wir in der Regel viel Platz, und es ist nicht sehr übersichtlich; 4.1 Lineare Gleichungssysteme 109 denn unsere gesamten Schreib- und Lesegewohnheiten sind zeilenorientiert. Daher transponieren wir den Spaltenvektor k und erhalten aus ihm den Zeilenvektor kT (lies „k transponiert“). Formal sieht das so aus: T ⎛ k ⎞ ⎜ k ⎟ ⎜ ⎟ ∶= (k , ⎜⋮⎟ ⎜ ⎟ ⎝k n ⎠ k , ⋯, kn ) . Umgekehrt wird aus einem Zeilenvektor (k1 , k2 , . . . , kn )T ein Spaltenvektor k = (k1 , k2 , . . . , kn )T der Länge n. Dann gilt n A ⋅ k = (a i j ) ⋅ (k , . . . , k n ) = (∑ a j k j , T j= n ∑ a j k j , j= ⋯, n T ∑ am j k j ) . j= Beachten Sie, dass das Getüm auf der rechten Seite dem ersten Anschein zum Trotz ein Spaltenvektor ist! Damit haben wir die folgende äußerst Platz sparende Schreibweise für das Gleichungssystem (4.1) erhalten, nämlich Ax = b . (4.2) Dies zeigt doch schon, dass die zunächst völlig willkürlich erscheinende Vorschrift zur Multiplikation von Matrizen ihren Sinn hat. In diesem Abschnitt werden wir noch zwei Eigenschaften der Matrizenmultiplikation nachrechnen, die vor allem im nächsten Kapitel von entscheidender Bedeutung sein werden. Additivität der Matrizenmultiplikation Sei A eine m × n-Matrix über K. Dann gilt für je zwei Spaltenvektoren x und y der Länge n mit Elementen aus K: A ⋅ (x + y) = A ⋅ x + A ⋅ y . Dieser Satz sagt in Worten: Man kann entweder zwei Vektoren zuerst addieren und dann die Matrix A mit der Summe multiplizieren oder die Matrix A zunächst mit jedem Vektor einzeln multiplizieren und die Ergebnisse addieren – und es kommt dasselbe heraus! Der Beweis ist nicht schwierig: Man muss nur die Elemente von A und x und y bezeichnen und die Geduld aufbringen, beide Seiten auszuixen: 110 4 Anwendungen von Vektorräumen Sei A = (aij )1 ≤ i ≤ m, 1 ≤ j ≤ n , und seien x = (x1 , . . . , xn )T und y = (y1 , . . . , yn )T . Dann ist x + y = (x1 + y1 , . . . , xn + yn )T , also nach (4.2) n A ⋅ (x + y) = (∑ a j (x j + y j ), j= n ∑ a j (x j + y j ), ⋯, j= T n ∑ a m j (x j + y j )) . j= Andererseits ergibt sich die rechte Seite als n A ⋅ x + A ⋅ y = (∑ a j x j , j= n ⋯, ∑ a j x j , j= n + (∑ a j y j , j= T n ∑ am j x j ) j= n ∑ a j y j , ⋯, j= n T . ∑ am j y j ) j= Da die berechneten Spaltenvektoren offenbar übereinstimmen, ist die Aussage bewiesen. ◻ Homogenität der Matrizenmultiplikation Sei A eine m × n-Matrix über K. Dann gilt für jeden Spaltenvektor x der Länge n mit Elementen aus K und jedes Element k ∈ K: A ⋅ (kx) = (kA) ⋅ x = k ⋅ (Ax) . Dieser Satz sagt in Worten: Man kann entweder einen Vektor zuerst mit einem Körperelement multiplizieren und dann die Matrix A mit dem Ergebnis multiplizieren oder die Matrix A zunächst mit dem Körperelement multiplizieren und das Ergebnis mit dem Vektor multiplizieren – und es kommt dasselbe heraus! Der Beweis ist genauso schwierig wie der obige und wird in Übungsaufgabe 5 behandelt. ◻ Es könnte scheinen, als ob man mit Matrizen so „wie mit Zahlen“ rechnen könnte. Das gilt nur zum Teil. Wir nennen zum Schluss dieses Abschnitts zwei Eigenschaften der Matrizenmultiplikation, die sich fundamental von Körpereigenschaften unterscheiden. Das Produkt zweier von der Nullmatrix verschiedener Matrizen kann sehr wohl die Nullmatrix sein; man sagt dazu auch, die Matrizenmultiplikation ist nicht nullteilerfrei. Dafür gibt es viele Beispiele; man muss nur Matrizen mit „genügend vielen“, „gut verteilten“ Nullen wählen. Wählt man etwa A=( ) , B=( ) , so sieht man unschwer, dass A ⋅ B gleich der Nullmatrix ist. 4.1 Lineare Gleichungssysteme 111 Die Matrizenmultiplikation ist nicht kommutativ: Hierfür können wir dieselben Matrizen wählen; es ergibt sich A⋅ B = ( )⋅( )=( )≠( )=( )⋅( )=B⋅A eine Matrix, die offenbar verschieden von der Nullmatrix ist. 4.1.3 Lösbarkeit von linearen Gleichungssystemen Wir bezeichnen die Menge aller Lösungen des Gleichungssystems Ax = b (4.2) mit L(A, b). Zunächst beweisen wir zwei einfache Aussagen über die Menge aller Lösungen des Gleichungssystems (4.2). Lösungsraum eines homogenen Systems Die Menge L(A, 0) der Lösungen eines homogenen Systems bildet einen Unterraum des Vektorraums V = K n . Um das zu sehen, wenden wir das Unterraumkriterium an: • L(A, 0) ist nicht leer, da der Vektor (0, 0, . . . , 0)T eine Lösung des homogenen Systems ist (triviale Lösung). • Seien x = (x1 , . . . , xn )T und y = (y1 , . . . , yn )T zwei Lösungen. Dann ist A(x + y) = Ax + Ay = + = ; also ist mit x und y auch x + y in L(A, 0). • Schließlich sei x = (x1 , . . . , xn )T ∈ L(A, 0), und sei k ∈ K beliebig. Dann ist A(kx) = k ⋅ Ax = k ⋅ = . Somit ist gezeigt, dass L(A, 0) ein Unterraum von V ist. ◻ Wir werden sehen, dass ein inhomogenes Gleichungssystem nicht unter allen Umständen eine Lösung besitzen muss. Aber wenn es eine Lösung besitzt, kann man alle Lösungen gut beschreiben. 112 4 Anwendungen von Vektorräumen Lösungsraum eines inhomogenen Systems Wenn ein inhomogenes System Ax = b (mindestens) eine Lösung besitzt, so ist L(A, b) eine Nebenklasse des Unterraums L(A, 0). Genauer gilt: Ist k0 eine Lösung des inhomogenen Systems, so ist L(A, b) = k + L(A, ) . Zuerst zeigen wir „L(A, b) ⊆ k0 + L(A, 0)“: Sei dazu k′ ein beliebiges Element von L(A, b), also eine beliebige Lösung von Ax = b. Dann ist Ak = b also und Ak ′ = b , A(k − k ′ ) = Ak − Ak ′ = b − b = . Daher liegt der Vektor k0 – k′ in L(A, 0). Nach dem Kriterium über Gleichheit von Nebenklassen bestimmen also k0 und k′ dieselbe Nebenklasse von L(A, 0). Also ist k′ ∈ k0 + L(A, 0). Um die Inklusion „k0 + L(A, 0) ⊆ L(A, b)“ zu zeigen, betrachten wir eine beliebige Lösung h = (h1 , . . . , hn )T des homogenen Systems Ax = 0. Es ist also Ah = 0 und damit A(h + k ) = A ⋅ h + A ⋅ k = + b = b . Also ist h + k0 ebenfalls eine Lösung von Ax = b. Dies zeigt h + k0 ∈ L(A, b). Zusammen folgt L(A, b) = k0 + L(A, 0) und damit alle Behauptungen des Satzes. ◻ Man drückt obigen Satz traditionell oft wie folgt aus: Man erhält die allgemeine Lösung des inhomogenen Systems, indem man zu einer speziellen Lösung des inhomogenen Systems die allgemeine Lösung des homogenen Systems addiert. Wir haben die Lösungsmenge eines inhomogenen Systems linearer Gleichungen beschrieben – unter der Voraussetzung, dass überhaupt eine Lösung existiert! Als nächstes müssen wir die Frage klären, wann eine Lösung existiert und wie man das erkennen kann. Hierbei spielt der Begriff des Rangs einer Matrix die entscheidende Rolle. Sei M eine m × n-Matrix über dem Körper K. Wir fassen die Spalten von M als Vektoren aus K m auf. Dann erzeugen die Spalten einen Unterraum von K m ; die Dimension dieses Unterraums wird der (Spalten-)Rang von M genannt und mit Rang (M) bezeichnet. Kurz: Der Rang von M ist die Dimension des Erzeugnisses der Spaltenvektoren. Man kann dies auch anders ausdrücken: Da die Spalten von M einen Unterraum von K m erzeugen, findet man in diesem Erzeugendensystem eine Basis dieses Unterraums, und zwar findet man sie so, dass man eine maximale Menge linear unabhängiger Vektoren sucht. 4.1 Lineare Gleichungssysteme 113 Damit können wir den Rang einer Matrix auch so beschreiben: Der Rang von M ist die Maximalzahl linear unabhängiger Spalten von M. Zum Beispiel haben die folgenden Matrizen über R ⎛ ⎞ ⎜ ⎟ , ⎝ − ⎠ ⎛ ⎞ ⎜ ⎟ , ⎝ − ⎠ ⎛ ⎜ ⎝ ⎞ ⎟ , ⎠ ⎛ ⎜ ⎝ ⎞ ⎟ ⎠ den Rang 3, 2, 1 und 0. Die Einheitsmatrix En hat offenbar den Rang n; dabei ist ⎛ ⎜ ⎜ E n ∶= ⎜ ⎜ ⎜ ⎜⋮ ⎝ ⋯ ⋯ ⎞ ⎟ ⎟ ⋮⎟ ⎟ . ⎟ ⋱ ⎟ ⎠ Die Matrix En hat also auf der Hauptdiagonale Einsen und sonst nur Nullen. Nun kehren wir zu dem Gleichungssystem (4.2) zurück. Wir nennen A die zu (4.2) gehörige Matrix und nennen die Matrix A | b, die aus A dadurch entsteht, dass als letzte Spalte noch b angehängt wird, die erweiterte Matrix des Gleichungssystems (4.2). Kriterium für die Lösbarkeit eines linearen Gleichungssystems Genau dann ist das lineare Gleichungssystem Ax = b lösbar, wenn Rang (A) = Rang (A | b) ist, wenn also der Rang durch Hinzufügen der Spalte b nicht größer wird. Der Beweis dieses Kriteriums ist nicht schwer: Wenn A und A | b den gleichen Rang haben, dann erzeugen die Spalten von A | b denselben Vektorraum wie die Spalten von A. Also kann man die Spalte b durch eine Linearkombination der Spalten von A ausdrücken. Was bedeutet dies? Dies bedeutet, dass es Körperelemente k1 , k2 , . . . , kn gibt, so dass s k + s k + . . . + s n k n = b ist, wobei s1 , s2 , . . . , sn die Spalten von A sein sollen. Wenn man diese Gleichung komponentenweise liest, ergibt sich a k + a k + . . . + a n k n = b a k + a k + . . . + a n k n = b ... a m k + a m k + . . . + a mn k n = b m . Das heißt nichts anderes, als dass (k1 , k2 , . . . , kn )T eine Lösung von (4.1) ist. 114 4 Anwendungen von Vektorräumen Umgekehrt möge das Gleichungssystem (4.1) eine Lösung (k1 , k2 , . . . , kn )T haben. Dann ist b linear abhängig von den Spalten s1 , s2 , . . . , sn von A. Das bedeutet, dass die Spalten von A | b keinen größeren Vektorraum erzeugen können als die Spalten von A. Mit anderen Worten: Rang (A | b) = Rang (A). ◻ Die nächste Frage, die wir beantworten, ist die Frage nach der Anzahl der Lösungen eines homogenen linearen Gleichungssystems. Die wirkliche Frage hierbei ist, was das richtige Maß für die Anzahl aller Lösungen ist. Naiv könnte man natürlich sagen „Anzahl ist Anzahl“. Dagegen spricht aber, dass man dann über R nur unterscheiden kann, ob ein lineares Gleichungssystem eine oder unendlich viele Lösungen hat. Wir wollen aber auch zwischen „verschiedenen Unendlichkeiten“ unterscheiden. Als besseres Maß für die Anzahl der Lösungen bietet sich die Dimension des Lösungsraums an: Auch wenn es (etwa über R) unendlich viele Lösungen gibt, so kann man doch noch unterscheiden, ob der Lösungsraum die Dimension 1, 2, . . . hat. Diese Dimension kann man auch ausrechnen: Dimension des Lösungsraums Sei Ax = 0 ein homogenes lineares Gleichungssystem, wobei A eine m × n-Matrix ist. Dann gilt dim(L(A, )) = n − Rang(A) . Wir werden dies in Abschn. 5.3 mit Hilfe linearer Abbildungen beweisen. Dies sind sehr brauchbare Sätze über die Existenz und die Anzahl von Lösungen eines linearen Gleichungssystems. Man muss dazu allerdings den Rang bestimmen. Wir haben diesen über die Spalten einer Matrix definiert. Bei einer Matrix sind aber Spalten und Zeilen de jure gleichberechtigt, und es kann einem jedenfalls niemand verbieten, einen „Zeilenrang“ zu definieren. Es wird sich herausstellen, dass in der idealen Welt der Mathematik Zeilen und Spalten auch de facto gleichberechtigt sind. Dies müssen wir aber beweisen. Wie man den Zeilenrang einer Matrix M über K zu definieren hat, ist klar: Das ist die Dimension des K-Vektorraums, der von den Zeilen von M erzeugt wird. Alternativ: Der Zeilenrang von M ist die Maximalzahl linear unabhängiger Zeilen. Nun der entscheidende Satz: Zeilenrang = Spaltenrang Etwas solider ausgedrückt: Für jede Matrix M ist ihr Zeilenrang gleich ihrem Spaltenrang. Meist verwendet man den Satz so: Die Maximalzahl linear unabhängiger Zeilen von M ist gleich dem Rang von M. 4.1 Lineare Gleichungssysteme 115 Die Aussage dieses Satzes hat nicht nur ästhetischen Wert, sondern sie wird wirklich gebraucht. Manchmal tritt nämlich ganz natürlich der Spaltenrang auf (wie etwa beim Kriterium für die Lösbarkeit eines linearen Gleichungssystems), und manchmal erweist sich der Zeilenrang als besonders nützlich (etwa, wenn man lineare Gleichungssysteme effektiv lösen möchte.) Der Beweis dieses Satzes ist nicht ganz offensichtlich. Um uns gut ausdrücken zu können, nennen wir eine Spalte (bzw. eine Zeile) überflüssig, wenn sie aus den anderen Spalten (bzw. Zeilen) linear kombiniert werden kann. Die Idee des Beweises besteht darin, so viele überflüssige Zeilen und Spalten wie möglich wegzulassen. Wir müssen dabei aufpassen, dass uns der Prozess nicht außer Kontrolle gerät. Durch Weglassen einer überflüssigen Zeile ändert sich natürlich der Zeilenrang nicht. Überraschenderweise gilt aber auch: Durch Weglassen einer überflüssigen Spalte ändert sich der Zeilenrang nicht. Zum Beweis dieser Zwischenbehauptung stellen wir uns vor, (o. B. d. A.) die letzte Spalte sei überflüssig. Dann kann man auch in jeder Zeile (und jeder Linearkombination von Zeilen) die letzte Komponente aus den vorigen linear kombinieren. Man verwendet nämlich einfach dieselben Koeffizienten, die man von der linearen Abhängigkeit der letzten Spalte von den vorigen erhalten hat. Als Beispiel können wir uns vorstellen, dass die letzte Komponente die Summe der übrigen Koeffizienten ist. Dann gilt s + s + . . . + s n− = s n , wenn si die i-te Spalte unserer Matrix ist; entsprechend gilt für die i-te Komponente a i + a i + . . . + a i , n− = a in für i = , . . . , m . Betrachten wir nun eine Linearkombination von Zeilen von M, die Null ergibt. Wir streichen aus jeder dieser Zeilen die letzte Komponente und nennen das Ergebnis eine „verstümmelte“ Zeile. Wir betrachten die Linearkombination mit denselben Koeffizienten der verstümmelten Zeilen. Dann muss trivialerweise auch diese Null sein. Aber es gilt auch die Umkehrung: Wenn eine Linearkombination ∑ k i z i ′ der verstümmelten Zeilen zi ′ Null ist, so ist auch die entsprechende Linearkombination ∑ k i z i der Originalzeilen zi gleich Null: Betrachten wir das Beispiel, dass die letzte Komponente von zi einfach die Summe der übrigen Komponenten ist. In diesem Fall ergibt sich ∑ k i a i j = für j = , . . . , n − , i also ∑ k i a in = ∑ k i (a i + . . . + a i ,n− ) = ∑ k i a i + . . . + ∑ k i a i ,n− = , i i i i da die entsprechende Linearkombination der verstümmelten Zeilen komponentenweise Null ergibt. (Sie sind aufgefordert, dieses Argument im Allgemeinen durchzuführen, also dann, wenn die letzte Komponente nicht einfach die Summe, sondern eine allgemeine Linearkombination der ersten Komponenten ist; siehe Übungsaufgabe 6.) 116 4 Anwendungen von Vektorräumen Deshalb ändert sich der Zeilenrang durch Weglassen der überflüssigen letzten Spalte nicht, und damit ist die Zwischenbehauptung bewiesen. Nun kehren wir zum eigentlichen Beweis zurück: Wir wissen jetzt, dass Weglassen einer überflüssigen Spalte weder den Spalten- noch den Zeilenrang ändert. Ebenso ändert das Weglassen von überflüssigen Zeilen weder den Spalten- noch den Zeilenrang. Tun wir also, was wir nicht lassen können und lassen überflüssige Spalten und Zeilen solange weg, bis keine Spalte und keine Zeile mehr überflüssig ist. Wir haben dadurch eine Matrix N erhalten, von der wir folgendes wissen • • • • Der Spaltenrang von N ist gleich dem Spaltenrang von M; der Zeilenrang von N ist gleich dem Zeilenrang von M; der Spaltenrang von N ist gleich der Anzahl der Spalten von N; der Zeilenrang von N ist gleich der Anzahl der Zeilen von N. Wir müssen uns jetzt also nur noch überlegen, dass N genauso viele Spalten wie Zeilen hat (man sagt dazu auch, dass N eine quadratische Matrix ist). Warum hat N höchsten so viele Zeilen wie Spalten? Hätte N mehr Zeilen als Spalten, so wäre insbesondere die Maximalzahl z linear unabhängiger Zeilen größer als die Anzahl s der Spalten von N. Wir hätten also z > s linear unabhängige s-Tupel: Dass das nicht geht, wissen wir aber schon längst. Entsprechend folgt, dass die Anzahl der Spalten von N nicht größer als die Anzahl der Zeilen von N ist, und damit ist der Satz endgültig bewiesen. ◻ 4.1.4 Der Gaußsche Algorithmus Zunächst stellen wir ein Instrument zur Behandlung von Matrizen vor, das in seiner praktischen Bedeutung kaum überschätzt werden kann, nämlich die elementaren Spalten- und Zeilenumformungen. Elementare Zeilen- und Spaltenumformungen Das Ziel der so genannten elementaren Umformungen ist es, eine Matrix einer Schönheitsoperation zu unterziehen. Das soll bedeuten, dass sich durch eine solche Operation zwar das äußere Ansehen der Matrix völlig ändert, dass aber das Wesen der Matrix erhalten bleibt, ja dass das Wesen der Matrix durch die Schönheitsoperation eigentlich erst richtig zum Vorschein kommt. Sei M eine m × n-Matrix über dem Körper K. Unter einer elementaren Zeilenumformung versteht man einen der folgenden Prozesse: Typ 1: Vertauschung zweier Zeilen, Typ 2: Multiplikation einer Zeile mit einem Körperelement ≠ 0, Typ 3: Addition eines beliebigen skalaren Vielfachen einer Zeile zu einer anderen (!) Zeile. 4.1 Lineare Gleichungssysteme 117 Ganz analog definiert man die drei Typen von elementaren Spaltenumformungen. Mit Hilfe dieser elementaren Umformungen kann man das Aussehen von Matrizen erheblich verändern. Schauen wir uns ein Beispiel an: ⎛ ⎜ ⎝− ⎞ ⎛ ⎟ → ⎜ − −⎠ ⎝− ⎞ ⎛ ⎞ ⎟ → ⎜ ⎟→ − −⎠ ⎝− − −⎠ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ →⎜ ⎟→⎜ ⎟ → ⎜ ⎟ → ⎜ ⎟ . ⎝− − −⎠ ⎝− − −⎠ ⎝ ⎠ ⎝ ⎠ Machen sie sich bei jedem Pfeil klar, welcher Typ von elementarer Zeilenumformung angewandt wurde. Man könnte den Eindruck gewinnen, als ob durch diese Umformungen Matrizen ununterscheidbar würden. Wir müssen uns also überlegen, ob bei elementaren Umformungen das Wesen einer Matrix verändert wird, oder ob es sich wirklich „nur“ um Schönheitsoperationen handelt. Es ändert sich nicht alles: Invarianz des Rangs einer Matrix bei elementaren Umformungen Bei einer elementaren Umformung bleibt der Rang einer Matrix erhalten. Betrachten wir o. B. d. A. elementare Zeilenumformungen. Diese haben die Eigenschaft, dass der Vektorraum, der von den Zeilen erzeugt wird, vor und nach der Umformung derselbe ist. Wenn Sie’s nicht glauben, so überzeugen Sie sich (zum Beispiel in Übungsaufgabe 12), dass bei jedem Typ von Umformung eine Basis in eine Basis übergeht. ◻ Die erste Anwendung von elementaren Umformungen besteht darin, den Rang einer Matrix zu bestimmen. Wir versuchen, durch elementare Spalten- und Zeilenumformungen eine vorgegebene Matrix auf die folgende Gestalt zu bringen: ⎛ a ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ∗ a ⋱ ⋱ a rr ⎞ ⎟ ⎟ ∗ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ (4.3) mit aii ≠ 0. Dabei soll die 0 unterhalb des Striches bedeuten, dass dort nur Nullen stehen; der Stern bedeutet, dass uns die Elemente, die in diesem Bereich der Matrix stehen, nicht kümmern. 118 4 Anwendungen von Vektorräumen Wir beweisen nun zwei Aussagen. Die erste sagt, dass wir aus einer Matrix der Gestalt (4.3) den Rang leicht ablesen können, die zweite, dass wir die Gestalt (4.3) leicht erreichen können. 1. Eine Matrix der Gestalt (4.3) hat den Rang r. Das folgt ganz einfach: Die Nullzeilen im unteren Bereich der Matrix sind überflüssig, und die ersten r Zeilen z1 , z2 , . . . , zr sind linear unabhängig: Ist z k +z k +. . .+z r k r = , so folgt daraus zunächst k1 a11 = 0, also k1 = 0. Damit muss zwangsläufig k2 a22 = 0, also k2 = 0 sein. Sie sehen schon: Sukzessiv erhält man k1 = 0, k2 = 0, . . . , kr = 0. Also ist der Zeilenrang, und damit der Rang der betrachteten Matrix gleich r. ◻ 2. Man kann durch elementare Spalten- und Zeilenumformungen jede Matrix in die Form (4.3) bringen. Wir geben dazu ein Verfahren an: Sei die Ausgangsmatrix bereits in folgende Gestalt gebracht ⎞ ⎛ a ⎟ ⎜ a ∗ ⎟ ⎜ ⎟ ⎜ ⋱ ∗ ⎟ ⎜ ⎟ , ⎜ ⎟ ⎜ ⋱ ⎟ ⎜ ⎟ ⎜ a kk ⎟ ⎜ ⎝ B ⎠ wobei a11 , . . . , akk alle ungleich Null sein sollen. Ist B die Nullmatrix, so haben wir unser Ziel bereits erreicht. Wenn B nicht die Nullmatrix ist, so besitzt B ein von Null verschiedenes Element, das man durch Zeilen- und Spaltenvertauschungen (Typ 1) an die Position (k + 1, k + 1) bringen kann, ohne den „linken oberen Quadranten“ zu verändern: Durch Operationen vom Typ 3 kann man jetzt folgende Gestalt erreichen: ⎛ a ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a ⋱ ∗ a kk a k+,k+ ⎞ ⎟ ⎟ ∗ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎟ ′ ⎠ B Indem man das Verfahren fortführt, solange es geht, erhält man schließlich die Gestalt (4.3). Beachten Sie noch, dass der Fall k = 0 bedeutet, dass wir mit einer beliebigen Matrix beginnen können, nachdem wir ein von Null verschiedenes Element in die obere linke Ecke gebracht haben. ◻ 4.1 Lineare Gleichungssysteme 119 Beispiel ⎛ ⎜ ⎜ ⎜ − ⎜ ⎝ ⎞ ⎛ ⎞ ⎜ ⎟ ⎟ ⎟→⎜ ⎟ ⎟ ⎜ ⎟ ⎜ − − − ⎟ ⎟ ⎠ ⎝ − − −⎠ ⎞ ⎛ ⎛ ⎜ ⎜ ⎟ ⎟ → ⎜ →⎜ ⎜ ⎟ ⎟ ⎜ ⎜ ⎜ ⎝ / −⎠ ⎝ ⎞ ⎟ ⎟ . ⎟ ⎟ −/⎠ Also hat die Ausgangsmatrix (über R) den Rang 4. Der Gaußsche Algorithmus basiert auf den folgenden beiden einfach einzusehenden Beobachtungen: Invarianz des Lösungsraums bei elementaren Zeilenumformungen Sei A | b die erweiterte Matrix eines linearen Gleichungssystems. Wir wenden darauf elementare Zeilenumformungen an und erhalten ein Gleichungssystem mit erweiterter Matrix A′ | b′ . Dann gilt: L(A′ , b ′) = L(A, b) . Beweis Vertauschung von Zeilen ändert die Lösungsmenge nicht, denn diese hängt nicht davon ab, in welcher Reihenfolge wir die zu lösenden Gleichungen hinschreiben. Wenn man eine Zeile von A | b mit einem Skalar k multipliziert, ändert sich eine Lösung nicht, denn man multipliziert ja auch den Eintrag im Vektor b mit k. Entsprechend behandelt man elementare Zeilenumformungen vom Typ 3; siehe Übungsaufgabe 14. ◻ Invarianz des Lösungsraums bei elementaren Spaltenvertauschungen Wenn wir die Matrix A | b durch eine Spaltenvertauschung zu A′ | b verändern, stimmen L(A, b) und L(A′ , b) zwar immer noch „im Prinzip“ überein, aber es könnte sein, dass die Unbekannten anders nummeriert sind. Beweis Eine Vertauschung von Spalten entspricht einer Umnummerierung der Unbekannten. Man muss, wenn man das Gleichungssystem entsprechend umformt, also über die Umbenennungen der Unbekannten Buch führen. ◻ Zunächst stellen wir den Gaußschen Algorithmus in einem Spezialfall vor. 120 4 Anwendungen von Vektorräumen Gaußscher Algorithmus I Sei A eine n × n-Matrix über dem Körper K mit Rang (A) = n, sei b ∈ K n . Wir betrachten das lineare Gleichungssystem Ax = b. Das Verfahren zur Lösung arbeitet in n Schritten. 1. Schritt Man beginnt mit der Matrix A | b. Da Rang (A) = n ist, gibt es in der ersten Spalte ein von Null verschiedenes Element. Durch Zeilenvertauschung erreicht man, dass dieses in der ersten Zeile steht. Danach addiert man ein geeignetes Vielfaches der ersten Zeile zu jeder anderen Zeile und erreicht damit, dass alle Elemente in der ersten Spalte, die unterhalb des ersten Elements liegen, Null sind. k-ter Schritt Vor diesem finden wir eine Matrix folgender Gestalt vor: M k− ′ ⎛ a ⎜ ⎜ ⎜ ⎜ =⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a ′ ∗ ∗ ⋮ ⋮ ∗ ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ C ⎠ ⋱ ⋱ a ′k−,k− mit a′ 11 , a′ 22 , . . . , a′ k–1,k–1 ≠ 0. Zunächst ist klar, dass in der ersten Spalte der Matrix C (also in der k-ten Spalte von M k–1 in den Zeilen k, . . . , n) ein von Null verschiedenes Element vorhanden ist. (Andernfalls wäre die k-te Spalte von M k–1 linear abhängig von den ersten k–1 Spalten, und A hätte nicht den Rang n.) Durch Vertauschungen der letzten n – k Zeilen bringen wir ein solches Element in die k-te Zeile (also an die Stelle (k, k)), und erreichen wieder, dass unterhalb und oberhalb dieses Elements nur Nullen stehen. Nach dem (n–1)-ten Schritt haben wir eine Matrix M n folgender Gestalt erhalten: ′ ⎛ a ⎜ ⎜ Mn = ⎜ ⎜ ⎜ ⎜ ⎝ a ′ ⋱ a ′n−,n− a ′nn b ′ b ′ ⋮ b ′n− b ′n mit a′ 11 , a′ 22 , . . . , a′ nn ≠ 0. Daraus ergibt sich die Lösung von Ax = b denkbar einfach: xi = b ′i a ′i i für i = , . . . , n . Wir erhalten daraus eine eindeutige Lösung! Dies bedeutet: ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ 4.1 Lineare Gleichungssysteme 121 Eindeutige Lösung eines linearen Gleichungssystems Wenn A eine n × n-Matrix vom Rang n ist, so hat das Gleichungssystem Ax = b genau eine Lösung. ◻ Beispiel Um das Gleichungssystem −x + x + x = − x − x − x = x + x = − zu lösen, starten wir mit folgender Matrix: ⎛− A∣b = ⎜ − ⎝ −⎞ − ⎟ −⎠ und formen diese sukzessiv um: 1. Schritt: ⎛− M = ⎜ ⎝ −⎞ − −⎟ . −⎠ 2. Schritt: ⎛− M = ⎜ ⎝ −⎞ − −⎟ . −⎠ 3. Schritt: ⎛− M = ⎜ − ⎝ −⎞ − ⎟ . −⎠ Daraus lesen wir ohne jede Schwierigkeit ab: x1 = 2, x2 = 1/2, x3 = –1. Nun lösen wir lineare Gleichungssysteme im Allgemeinen. Gaußscher Algorithmus II Für ein beliebiges lineares Gleichungssystem (mit m Gleichungen und n Unbekannten) verfährt man wie folgt: • Zunächst führt man das erste Gaußsche Verfahren durch, wie wenn nichts wäre, also solange es geht. Das Verfahren stoppt – zunächst –, wenn wir bei einer Matrix folgender 122 4 Anwendungen von Vektorräumen ∗ ∗ ⋮ ∗ ⎞ ∗ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟. ⎟ ⎟ ⎟ ⎟ ∗ ⎟ ⎟ ⎠ Gestalt angelangt sind: ′ ⎛ a ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a ′ ⋱ a ′k ′ k ′ ⋮ • Jetzt führen wir eine Spaltenvertauschung durch, um in einer der Zeilen k′ + 1, . . . , m in die (k′ + 1)-te Spalte ein von Null verschiedenes Element zu bekommen. Bei diesem Schritt muss man aufpassen, denn er bedeutet eine Umnummerierung der Unbekannten! Notieren Sie, was Sie gemacht haben!!! Damit können wir das normale Gaußsche Verfahren weiterlaufen lassen, als ob nichts gewesen wäre. • Schließlich erhält man eine Matrix der folgenden Gestalt: ′ ⎛ a ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ a ′ ⋱ ∗ a ′kk b ′ b ′ ⋮ ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟. ⎟ ⎟ ⎟ ⎟ ⋮ ⎟ ⎟ b ′m ⎠ mit a′ 11 , a′ 22 , . . . , a′ kk ≠ 0. Hieran kann man ablesen, ob das Gleichungssystem Ax = b lösbar ist oder nicht: • Wenn auch nur eines der Elemente b′ k+1 , . . . , b′ m ungleich Null ist, ist das Gleichungssystem nicht lösbar. (Dies sieht man direkt oder durch Anwendung des Rangkriteriums.) • Wenn andererseits b′ k+1 = . . . = b′ m = 0 gilt, so ist das Gleichungssystem lösbar. Dies sieht man am einfachsten so: Wenn man für die letzten n – k Unbekannten irgendwelche Körperelemente einsetzt, erhält man ein Gleichungssystem der Form a′ 11 x1 = c1 , . . . , a′ kk xk = ck , das man ohne weiteres lösen kann. Damit sieht man auch, dass der Lösungsraum (des entsprechenden homogenen Systems) die Dimension n – k hat. 4.2 Affine Geometrie Ein Anstoß zur Behandlung von Vektorräumen war die Geometrie. Wir hatten bereits die „natürliche“ Identifizierung von Punkten und Vektoren (über die Translation, die den 4.2 Affine Geometrie 123 Abb. 4.1 Das Parallelenaxiom P h g festen Punkt 0 in den Punkt P überführt) erwähnt. Dieser Zusammenhang soll jetzt deutlicher dargestellt werden. Wir beginnen mit der – zugegebenermaßen etwas länglichen – Definition eines „affinen Raumes“. Weshalb man solche Geometrien „affin“ nennt, darauf will ich hier nicht eingehen. Ich möchte Sie aber daran erinnern, dass das Vorbild für die affinen Räume unsere Anschauungsebene beziehungsweise der 3-dimensionale Anschauungsraum ist. 4.2.1 Affine Räume Eine Geometrie besteht aus einer Menge P, deren Elemente wir Punkte nennen, einer Menge G, deren Elemente wir Geraden nennen, und einer Relation I (Inzidenz) die festlegt, wann ein Punkt mit einer Geraden inzidiert und wann nicht. Inzidiert ein Punkt P mit der Geraden g, so schreiben wir dafür P I g und sagen dazu „P liegt auf g“, . . . (Sie machen keinen Fehler, wenn Sie sich die Inzidenz als mengentheoretisches Enthaltensein vorstellen; für theoretische Zwecke ist es aber besser, von einer allgemeinen „Inzidenz“ zu reden.) Eine solche Geometrie heißt affiner Raum, falls die folgenden drei Axiome gelten: (1) Verbindungsaxiom: Je zwei verschiedene Punkte P und Q inzidieren mit genau einer Geraden, die wir mit PQ bezeichnen. (2) Parallelenaxiom: Es gibt eine Äquivalenzrelation ∥ („parallel“) auf der Menge der Geraden, so dass jeder Punkt auf genau einer Geraden aus jeder Äquivalenzklasse liegt. Das bedeutet: Die Menge der Geraden ist in Klassen („Parallelenscharen“) aufgeteilt; man nennt Geraden in derselben Klasse parallel. Es gilt: Zu jeder Geraden g und zu jedem Punkt P gibt es genau eine Gerade h durch P mit h∥g (siehe Abb. 4.1). (3) Dreiecksaxiom: Seien A, B, C drei Punkte, die nicht auf einer gemeinsamen Geraden liegen. Seien A′ und B′ Punkte mit A′ B′ ∥AB. Dann treffen sich die Parallelen zu AC durch A′ und zu BC durch B′ in einem Punkt C′ (siehe Abb. 4.2). Eine Struktur mit diesen Eigenschaften ist ein affiner Raum! Überzeugen Sie sich, dass die Anschauungsebene die Axiome für einen affinen Raum erfüllt. Machen Sie sich insbesondere klar, wie die Parallelenscharen aussehen. Bemerkung Man nennt das Dreiecksaxiom oft auch Tamaschke-Axiom, da O. Tamaschke [Tama] als erster die Bedeutung dieses Axioms erkannte. 124 4 Anwendungen von Vektorräumen Abb. 4.2 Das Dreiecksaxiom C' A' B' C A B Unsere Aufgabe ist es, affine Räume mit Vektorräumen in Verbindung zu bringen. Das geschieht durch die folgende zentrale Definition: Sei V ein K-Vektorraum. Mit A(V) bezeichnen wir folgende Geometrie: Die Punkte von A(V) sind die Vektoren von V; die Geraden von A(V) sind alle Nebenklassen v + U mit v ∈ V und dim(U) = 1; die Inzidenz von A(V) ist mengentheoretisches Enthaltensein. Bevor wir im allgemeinen nachweisen, dass A(V) ein affiner Raum ist, machen wir uns klar, dass mit dieser Konstruktion im Falle dim(V) = 2 die Geometrie der kartesischen Ebene modelliert wird. Sei V = R2 . Dann sind die Punkte die Vektoren von V, also die Paare (x, y) mit x, y ∈ R. Das ist uns allen wohlbekannt. Ebenso wohlbekannt ist uns, dass eine Gerade durch eine Gleichung der Form y = mx + b beschrieben wird. Werden dadurch ganz andere Objekte beschrieben oder ist das eine verkappte Form der „Nebenklassen-Geraden“? Überlegen wir uns dazu zunächst, welche Punktmenge von V durch die Gleichung y = mx + b beschrieben wird. Im einfachsten Fall b = 0 sind dies Punkte der Form y = mx; also ist die Menge der Punkte dieser Geraden gleich {(x, mx)∣x ∈ R} = {x ⋅ (, m)∣x ∈ R} = ⟨(, m)⟩ . Also ist diese Gerade ein Unterraum, nämlich der 1-dimensionale Unterraum, der von dem Vektor (1,m) erzeugt wird. Nun trauen wir uns auch zu, die Gerade mit der Gleichung y = mx + b als Nebenklasse zu erkennen. Die Menge der Punkte auf dieser Geraden ist gleich {(x, mx + b)∣x ∈ R} = {(, b) + x(, m)∣x ∈ R} = (, b) + ⟨(, m)⟩ . Das heißt: Die Gerade mit der Gleichung y = mx + b ist die Nebenklasse (0, b) + ⟨(1, m)⟩. Es gibt eine weitere Sorte von Geraden, die in der analytischen Geometrie der Schule immer separat behandelt werden müssen; das sind Geraden mit der Gleichung x = c. Auch diese Geraden werden durch Nebenklassen beschrieben; es gilt nämlich {(c, y)∣y ∈ R} = {(c, ) + y(, )∣y ∈ R} = (c, ) + ⟨(, )⟩ . 4.2 Affine Geometrie 125 Nun überlegen wir uns noch, wie sich der vertraute Parallelismusbegriff in die Sprache der Vektorräume übersetzt. Wir erinnern uns an die Schulgeometrie: Zwei Geraden sind parallel, wenn sie die gleiche Steigung haben. Wie kann man „gleiche Steigung haben“ in der Sprache der Nebenklassen ausdrücken? Seien y = mx + b und y = mx + b′ die Gleichungen von Geraden mit gleicher Steigung m. Dann sind die zugehörigen Nebenklassen die folgenden (, b) + ⟨(, m)⟩ und (, b ′ ) + ⟨(, m)⟩ . Das bedeutet: Zwei Geraden v + U und v′ + U ′ sind parallel, falls U = U ′ ist. Wir zeigen jetzt, dass A = A(V) auch im Allgemeinen ein affiner Raum ist. Dazu weisen wir der Reihe nach die Axiome (1), (2) und (3) nach. (1) Verbindungsaxiom Seien P und Q zwei verschiedene Punkte von A(V). Nach Definition gibt es zwei Vektoren v, w mit P = v, Q = w. Wie sehen die Nebenklassen nach 1dimensionalen Unterräumen aus, die v und w enthalten? Wir bezeichnen eine solche Nebenklasse mit X = x + U. Wegen v, w ∈ X ist v – w ∈ U. Wegen v ≠ w ist v – w ≠ 0. Also ist v – w ein von Null verschiedener Vektor des 1-dimensionalen Unterraums U. Daher erzeugt v – w den Unterraum U: U = ⟨v − w⟩ . Als Repräsentant einer Nebenklasse können wir – wie wir wissen – jeden Vektor der Nebenklasse wählen. Also ist zum Beispiel X = w + ⟨v − w⟩ . Eine andere Möglichkeit wäre, X = v + ⟨v – w⟩ zu schreiben. In jedem Fall ist die Nebenklasse durch v und w eindeutig bestimmt. Das bedeutet: Die Gerade durch v und w ist die Nebenklasse w + ⟨v − w⟩ . Dies ist eine Methode zur Berechnung der Geraden durch zwei Punkte. (2) Parallelenaxiom Beim Nachweis des Axioms (2) müssen wir zunächst die Parallelrelation definieren. Wir orientieren uns am Beispiel der kartesischen Ebene und definieren für zwei Geraden v + U und v′ + U ′ : v + U ∥ v ′ + U ′ ∶⇔ U = U ′ . Damit ergibt sich, dass ∥ eine Äquivalenzrelation ist. (Wir haben die Parallelität auf eine Gleichheit, nämlich auf die Gleichheit der „begleitenden Unterräume“, zurückgeführt. Da die Gleichheitsrelation eine Äquivalenzrelation ist, ergibt sich daraus, dass auch die Parallelität eine Äquivalenzrelation ist.) 126 4 Anwendungen von Vektorräumen Es bleibt zu zeigen, dass durch jeden Punkt von A(V) genau eine Gerade einer jeden Parallelenschar geht. Sei also U ein 1-dimensionaler Unterraum, und sei v ein beliebiger Punkt von A(V). Dann geht mindestens eine zu U parallele Gerade durch v, nämlich v + U. Da je zwei Nebenklassen bezüglich desselben Unterraums disjunkt sind, kann andererseits durch v höchstens eine zu U parallele Gerade gehen. Die Methode zur Bestimmung von Parallelen ist also die folgende: Die Parallele zu v + U durch den Punkt w ist die Gerade w + U. (3) Dreiecksaxiom Dieses Axiom weisen wir durch im Prinzip einfache Rechnung nach. Wie „einfach“ die Rechnung wird (oder ob sie überhaupt einfach wird) hängt in entscheidender Weise vom Geschick ab, die Bezeichnungen günstig zu wählen. Zunächst modellieren wir die Ausgangssituation. Die Punkte A, B, C werden durch die Vektoren u, v, w dargestellt. Damit können wir nach der Methode zur Berechnung der Geraden durch zwei Punkte die Verbindungsgeraden der drei Punkte bestimmen: AB = u + ⟨v − u⟩, BC = w + ⟨v − w⟩, CA = w + ⟨u − w⟩ . Sei A′ durch den Vektor u′ dargestellt. Da die Gerade A′ B′ parallel zu AB ist, hat A′ B′ nach der Methode zur Bestimmung von Parallelen die Form A′ B′ = u ′ + ⟨v − u⟩ . Insbesondere hat B′ die Form u′ + k(v – u). Damit können wir die Parallele b′ zu AC durch A′ und die Parallele a′ zu BC durch B′ bestimmen: b ′ = u ′ + ⟨u − w⟩, a ′ = u ′ + k(v − u) + ⟨v − w⟩ . Wir müssen entscheiden, ob die Geraden b′ und a′ einen Schnittpunkt haben. Mit einem etwas geübten Auge (das durch die gute Wahl der Bezeichnungen wesentlich unterstützt wird), erkennt man, dass dies der Punkt u ′ − ku + kw ist. Somit ist auch das Dreiecksaxiom (3) erfüllt, und A(V) ist tatsächlich ein affiner Raum. 4.2.2 Unterräume Es ist verführerisch, auch höherdimensionale Unterräume zu definieren: Die Unterräume von A(V) (auch affine Unterräume genannt) sind genau die Nebenklassen von Unterräumen des Vektorraums V; wenn der Unterraum U von V die Dimension t hat, so sagt man, 4.2 Affine Geometrie 127 dass auch der affine Unterraum v + U von A(V) die Dimension t hat. Wir nennen einen affinen Unterraum der Dimension 2 eine Ebene von A(V). Wir haben es hier also mit zwei Sorten von Unterräumen zu tun: Mit denen von V und mit denen von A(V). Unglücklicherweise haben diese auch miteinander viel zu tun. Ich werde immer sagen, welche Sorte von Unterraum gerade betrachtet wird. Gehe hin und tue desgleichen! Ein t-dimensionaler Unterraum des affinen Raums A(V) entsteht also auf folgende Weise: Man nehme einen t-dimensionalen Unterraum U von V und einen Vektor v ∈ V; man bilde die Nebenklasse v + U, und fertig ist der affine Unterraum. Tragen die affinen Unterräume ihren Namen zu Recht? Über das Wörtchen „affin“ wollen wir auch jetzt nicht streiten, aber das Wort „Unterraum“ hat doch eine gewisse Bedeutung. Wir werden nicht „wilde“ Punktmengen beispielsweise als „Ebene“ bezeichnen, sondern gewisse Eigenschaften von „Ebenen“ verlangen. Welche? Meiner Ansicht nach sollten die Ebenen einer Geometrie folgende Eigenschaften haben: • Für jede einzelne Ebene gilt: Eine Gerade hat ein ganz bestimmtes Verhältnis zu einer Ebene: Sie muss sie überhaupt nicht oder in nur einem Punkt treffen, oder sie muss ganz in der Ebene enthalten sein. Mit anderen Worten: Enthält eine Gerade zwei Punkte einer Ebene, so liegt jeder Punkt dieser Geraden in der Ebene. • Für das System aller Ebenen gilt: Durch je drei Punkte, die nicht auf derselben Geraden liegen, geht genau eine Ebene. Wir verifizieren die entsprechenden Eigenschaften für beliebige affine Unterräume. Abgeschlossenheit eines affinen Unterraums gegenüber Bildung von Geraden Jeder Punkt einer Geraden, die zwei Punkte eines affinen Unterraums enthält, liegt in diesem Unterraum. Um dies nachweisen zu können, müssen wir Bezeichnungen einführen (Benenne und beherrsche!): Sei v + U ein Unterraum von A(V), und seien v + u1 , v + u2 zwei verschiedene Punkte von v + U. Wir wissen, wie man die Gerade durch diese beiden Punkte berechnet; sie ist v + u + ⟨(v + u ) − (v + u )⟩ = v + u + ⟨u − u ⟩ . Sei jetzt u0 ein beliebiger Punkt dieser Geraden; es ist also u0 = v + u1 + k(u2 – u1 ). Da U ein Unterraum von V ist und da u1 , u2 ∈ U sind, ist auch u1 + k(u2 – u1 ) in U. Somit ist u = v + u + k (u − u ) ∈ v + U . ◻ Die zweite Eigenschaft soll die Eigenschaft verallgemeinern, dass durch je drei nichtkollineare (das heißt nicht auf derselben Geraden liegende) Punkte genau eine Ebene geht. Am 128 4 Anwendungen von Vektorräumen einfachsten wäre dazu zu sagen „durch je drei Punkte geht genau eine Ebene“, aber dies ist leider nicht immer richtig; denn die drei Punkte könnten ja zufällig auf einer gemeinsamen Geraden liegen, und dann gehen viele Ebenen durch diese drei Punkte. Deshalb muss man das Kleingedruckte (nichtkollinear) auch beachten. Auch im allgemeinen hätte man gerne, dass je t + 1 Punkte genau einen t-dimensionalen affinen Unterraum bestimmen. Auch hier werden wir also eine kleingedruckte Vorsichtsregel haben müssen. Nun können wir die Aussage formulieren: Erzeugung von affinen Unterräumen Durch je t + 1 Punkte, die nicht in einem gemeinsamen (t – 1)-dimensionalen affinen Unterraum liegen, geht genau ein t-dimensionaler affiner Unterraum. Zum Beweis betrachten wir Punkte v0 , v1 , . . . , vt von A(V), die nicht in einem gemeinsamen (t – 1)-dimensionalen Unterraum von A(V) liegen. Zunächst übersetzen wir diese geometrische Eigenschaft in eine Eigenschaft von V: Behauptung Die Vektoren v1 –v0 , v2 – v0 , . . . , vt – v0 sind linear unabhängig. (Wenn nicht, so wären sie in einem Unterraum W des Vektorraums V einer Dimension t – 1 enthalten. Dann lägen aber die fraglichen Punkte in dem Unterraum v0 + W von A(V). Dies ist ein Widerspruch, da v0 + W die Dimension t – 1 hat.) Dieses Argument werden wir gleich nochmals benutzen. Existenz eines t-dimensionalen Unterraums durch v0 , v1 , . . . , vt : Aufgrund obiger Behauptung spannen v1 – v0 , v2 – v0 , . . . , vt –v0 einen t-dimensionalen Unterraum U des Vektorraums V auf. Dann liegen die Punkte v0 , v1 , . . . , vt in dem t-dimensionalen affinen Unterraum v0 + U. Eindeutigkeit des t-dimensionalen Unterraums durch v0 , v1 , . . . , vt : Seien v + U und v′ + U ′ affine Unterräume der Dimension t durch v0 , v1 , . . . , vt . Wir wissen, dass die Vektoren v − v , v − v , . . . , v t − v in U und in U ′ enthalten sein müssen. Da diese Vektoren linear unabhängig sind, ist U = ⟨v − v , v − v , . . . , v t − v ⟩ = U ′ . Da die Nebenklassen v + U und v′ + U gemeinsame Vektoren (nämlich v0 , v1 , . . . , vt ) enthalten, müssen sie gleich sein. ◻ Wir bemerken zum Abschluss dieses Abschnitts, dass man in den Grundlagen der Geometrie umgekehrt vorgeht: Man startet mit einem („abstrakten“) affinen Raum A, also einer Geometrie, die den Axiomen (1), (2), (3) genügt, und beweist dann, dass es einen Vektorraum V gibt mit A = A(V). Dieser Fundamentalsatz gilt dann, wenn der affine Raum A 4.3 Codierungstheorie 129 mindestens die Dimension 3 hat; im Falle der Dimension 2 gibt es Gegenbeispiele (vergleichen Sie hierzu [BeuRo]). 4.3 Codierungstheorie Die Codierungstheorie ist eine ganz angewandte Wissenschaft, die auf den ersten Blick gar nichts mit linearer Algebra zu tun hat. In Wirklichkeit ist die lineare Algebra aber ein unentbehrliches Mittel zur Analyse und Konstruktion von Codes. Was ist das Problem? Bei jeder Übertragung oder Speicherung von Daten treten mehr oder weniger zufällig Fehler auf. Das passiert Menschen (ich bin zum Beispiel immer wieder erstaunt, wie viele Fehler ich in einem Manuskript unterbringen kann, ohne dass ich sie entdecke), aber auch Computer sind nicht unfehlbar! Deshalb braucht man Mechanismen, die solche Fehler automatisch entdecken und korrigieren. Eine Utopie? Lassen Sie sich überraschen! Die Codierungstheorie hat sich in den letzten Jahrzehnten zu einem Gebiet von großer praktischer und theoretischer Bedeutung entwickelt. Daraus wurde eine umfangreiche Theorie entwickelt, von der wir hier die Grundlagen darstellen. Der interessierte Leser sei auf die Literatur (etwa [HeQu], [Hill] oder die „Bibel“ der Codierungstheorie [MWSl]) verwiesen. Beispiele für fehlererkennende Codes (Strichcode, ISBN-Nummern usw.) sind in [Beu1] und [Schu] eingängig dargestellt. Der Akzent in diesem Abschnitt liegt darauf, das Problem der Codierungstheorie klar herauszuarbeiten und dann zu zeigen, wie dies mit Hilfe der Methoden der linearen Algebra (mindestens) prinzipiell gelöst werden kann. In der Darstellung lehnen wir uns an [BeuRo] an. 4.3.1 Grundlegende Begriffe Die Codierungstheorie geht von folgender Situation aus: Ein Sender will einem Empfänger gewisse Daten übermitteln. Diese Daten werden über einen Kanal übertragen, der die Nachrichten allerdings nicht fehlerfrei transportiert; es können zufällige Fehler vorkommen. Diese treten in der Regel aus physikalischen Gründen auf. Ein typisches Beispiel eines Kanals, bei dem solche „Störungen“ besonders deutlich werden, ist ein Funkkanal; wohl jeder hat sich schon bei schlechtem Radio- oder Fernsehempfang über „atmosphärische Störungen“ geärgert. Genauer betrachtet sieht das Kommunikationsmodell wie folgt aus (siehe Abb. 4.3). Der Sender codiert einen Datensatz d zu einer Nachricht c (Codewort); diese wird über den Kanal geschickt. Der Empfänger versucht durch Decodieren zu erkennen, ob Fehler aufgetreten sind, und den Datensatz wieder zu rekonstruieren. Die Fehler, die mit den Mitteln der Codierungstheorie behandelt werden, sind zufällige Fehler, also keine Veränderungen, die von einem gutmeinenden oder böswilligen Mitmenschen gezielt verursacht werden. Die Fehler, die wir behandeln, sind Veränderungen 130 4 Anwendungen von Vektorräumen Sender Datensatz d Codieren Empfänger Nachricht c (Codewort) veränderte Nachricht x Decodieren Datensatz d' Abb. 4.3 Codierung und Decodierung von Daten von Zeichen. Keine Fehler in diesem Sinne sind also z. B. Verlust oder Hinzufügen von Zeichen. Unser erstes Ziel ist es, die Eigenschaft, Fehler korrigieren zu können, zu präzisieren. In diesem Abschnitt ist eine Nachricht stets ein binäres n-Tupel, also ein Element der Menge V := {0,1}n . Meist werden wir {0, 1} nicht nur als Menge, sondern als den Körper GF(2) mit zwei Elementen und damit V als den Vektorraum V = GF(2)n auffassen. Unsere Vorstellung kann also so beschrieben werden, dass der Kanal zu dem gesendeten Vektor c (der „Nachricht“) einen Fehlervektor e addiert und der Empfänger den Vektor x = c + e erhält. Die Aufgabe des Empfängers ist es dann, x zu decodieren, das heißt den Fehlervektor zu bestimmen, um aus x wieder c zu rekonstruieren. Der zentrale Begriff der Codierungstheorie ist der des Hamming-Abstands. Seien v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) ∈ V. Der Abstand d(v, w) von v und w ist die Anzahl der Stellen, an denen sich v und w unterscheiden: d(v, w) = ∣{i∣v i ≠ w i }∣ . Oft wird d auch als Hamming-Abstand bezeichnet; dies geschieht zu Ehren eines der Gründerväter der Codierungstheorie Richard W. Hamming. Wir überzeugen uns zunächst, dass d den Namen „Abstand“ zu Recht trägt. Die Funktion d ist eine Metrik auf V. Dazu müssen wir die folgenden definierenden Eigenschaften einer Metrik nachweisen: (1) Da d(v, w) eine Anzahl ist, ist d(v, w) ≥ 0; ferner gilt d(v, w) = 0 genau dann, wenn sich v und w an keiner Stelle unterscheiden, also wenn sie gleich sind. (2) Symmetrie: Offenbar gilt d(v, w) = d(w, v). (3) Die Dreiecksungleichung nachzuweisen, ist etwas kniffliger: Seien u, v, w ∈ V; es ist zu zeigen d(u, w) ≤ d(u, v) + d(v, w) . Wir können o. B. d. A. annehmen, dass sich u und w genau an den ersten a = d(u, w) Stellen unterscheiden. Unter diesen a Stellen mögen b sein, an denen sich v und w unterscheiden (also u und v übereinstimmen); ferner gebe es c Stellen außerhalb der ersten 4.3 Codierungstheorie 131 a Stellen, an denen sich v von w unterscheidet. Natürlich ist dann d(v, w) = b + c. a u w v A"" " " " " " " " " " " " " " " " " " " "B" " " " " " " " " " " " " " " " " " " " C x x x x x o o o o o x x x o o !"" " " " " " #"" " " " " " " $ b x x x x x x x x o o o x !"" " " " " " #"" " " " " " " $ x x x x x x x x x c Daraus erkennt man d(u, v) = a – b + c. Es ergibt sich d(u, v) + d(v, w) = a − b + c + b + c = a + c ≥ a = d(u, w) . ◻ Es wird sich zeigen, dass zur Beschreibung von Codes später die Kugeln bezüglich der Hamming-Metrik von Nutzen sein werden. Sei v ∈ V, und sei r eine nichtnegative ganze Zahl. Dann heißt S r (v) ∶= {x ∈ V∣d(x, v) ≤ r} die Kugel vom Radius r um den Mittelpunkt v. Nun sind wir in der Lage, einen fehlerkorrigierenden Code zu definieren. Man könnte zunächst einen „Code“ definieren; dies ist einfach eine beliebige Teilmenge C von {0, 1}n . Offenbar ist dies kein sehr starker Begriff. Deshalb gehen wir sofort weiter. Sei t eine natürliche Zahl. Eine Teilmenge C von V = {0,1}n heißt ein t-fehlerkorrigierender Code, falls für je zwei verschiedene Elemente v, w ∈ C gilt d(v, w) ≥ t + . Anders gesagt: C ⊆ V ist ein t-fehlerkorrigierender Code, wenn der Minimalabstand d(C) ∶= min{d(c, c ′)∣c, c ′ ∈ C, c ≠ c ′} von C mindestens 2t + 1 ist. Wir nennen die Elemente eines Codes auch Codewörter. Um die dieser Definition zugrunde liegende Vorstellung überzeugend erklären zu können, brauchen wir einen kleinen Hilfssatz. Lemma über Hammingkugeln Sei C ein t-fehlerkorrigierender Code. Dann gilt: (a) Zu jedem Vektor v ∈ V gibt es höchstens ein Element c ∈ C mit d(v, c) ≤ t. (b) Die Kugeln St (c) mit c ∈ C sind paarweise disjunkt. 132 4 Anwendungen von Vektorräumen Dies ist nicht schwer zu zeigen. (a) Angenommen, es gäbe zwei verschiedene Elemente c, c′ ∈ C und einen Vektor v ∈ V mit d(v, c) ≤ t und d(v, c′ ) ≤ t. Wegen der Dreiecksungleichung folgte daraus d(c, c′ ) ≤ d(c, v) + d(v, c′ ) ≤ 2t, im Widerspruch zu d(C) ≥ 2t + 1. (b) folgt direkt aus (a). ◻ Jetzt können wir auch erläutern, warum ein t-fehlerkorrigierender Code seinen Namen zu Recht trägt: Als gesendete Nachrichten werden nur Codewörter zugelassen. Wenn während der Übertragung eines Codewortes c höchstens t Fehler auftreten, so hat der empfangene Vektor x höchstens den Abstand t zu c. Nach dem Lemma über Hammingkugeln gibt es nur ein Codewort, das einen Abstand ≤ t zu x hat. Der Empfänger decodiert x zu c. Hier ist die Vorstellung der Kugeln besonders hilfreich: Die Tatsache, dass bei der Übertragung von c höchstens t Fehler auftreten, bedeutet, dass der empfangene Vektor jedenfalls noch in St (c) liegt. Da nach obigem Lemma je zwei Kugeln um Codewörter disjunkt sind, kann der empfangene Vektor decodiert werden, und zwar zu dem Codewort, welches der Mittelpunkt der Kugel ist, in der x liegt. Bemerkung Wenn pro Codewort mehr als t Fehler auftreten, wird der empfangene Vektor im Allgemeinen nicht korrekt decodiert. In der Praxis wird man so vorgehen, dass man zunächst abschätzt, wie fehleranfällig der Kanal ist, dann die Zahl t entsprechend wählt und schließlich einen t-fehlerkorrigierenden Code konstruiert. Wir können nun das Ziel der Codierungstheorie klar formulieren. Das Ziel ist es, Codes zu konstruieren, die • einen großen Minimalabstand (und damit gute Fehlerkorrektureigenschaften) haben und • für die es einen effizienten Decodieralgorithmus gibt. Wir beschließen diesen Abschnitt mit dem Beispiel eines Codes, der noch relativ klein ist, aber doch deutlich macht, dass unser bisheriges Instrumentarium noch nicht ausreichend ist. Dieser Code wird uns mehrfach als Beispiel dienen. Die folgenden 16 Vektoren aus V = {0,1}7 bilden einen 1-fehlerkorrigierenden Code: In Übungsaufgabe 20 sollen Sie diesen Code untersuchen. 4.3 Codierungstheorie 133 4.3.2 Lineare Codes Unser bisheriger naiver Ansatz liefert Lösungen, die weit entfernt von jeder Praktikabilität sind. Das fängt beim Speichern des Codes an (man muss jedes Codewort abspeichern), geht über die Bestimmung des Minimalabstands (man muss je zwei Codewörter vergleichen, hat also quadratischen Aufwand in |C|) und endet schließlich bei den Decodieralgorithmen (bei jedem empfangenen Vektor muss man alle Codewörter untersuchen). Das Zauberwort für den entscheidenden Schritt in Richtung praktischer Anwendung heißt „lineare Codes“, und dies bedeutet nichts anderes als Anwendung der linearen Algebra. Ein Code C ⊆ V heißt linear, falls C ein Unterraum des Vektorraums V (und nicht nur eine Teilmenge der Menge V) ist. In diesem Fall hat C auch eine Dimension; diese wird oft mit dem Buchstaben k bezeichnet. Ein erster Vorteil linearer Codes ist sofort einsichtig: Um mit C arbeiten zu können, braucht man nur eine Basis von C zu kennen. Sei c1 , . . . , ck eine Basis eines linearen Codes C. Dann heißt die k × n-Matrix G, deren i-te Zeile der Basisvektor ci ist, eine Generatormatrix von C. Da der Speicheraufwand für eine Generatormatrix k Vektoren sind, bedeutet dies eine enorme Ersparnis im Vergleich zu den 2k Vektoren, aus denen C besteht. Beispiel Eine Generatormatrix des Codes aus Beispiel 4.3.1 ist ⎛ ⎜ G=⎜ ⎜ ⎜ ⎝ ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ Auch die Bestimmung des Minimalabstands ist bei linearen Codes viel leichter als im allgemeinen Fall. Um das einsehen zu können, brauchen wir folgende Definition. Das Gewicht w(x) eines Vektors x ∈ V ist die Anzahl der von 0 verschiedenen Stellen von x. Mit anderen Worten: w(x) = d(x, ) . Das Minimalgewicht w(C) des Codes C ist definiert als w(C) ∶= min{w(c)∣c ∈ C, c ≠ } . Lemma über das Minimalgewicht Sei C ein linearer Code. Dann gilt d(C) = w(C) . 134 4 Anwendungen von Vektorräumen Mit anderen Worten: Den Minimalabstand eines linearen Codes kann man einfach dadurch berechnen, dass man das Minimalgewicht bestimmt. Beweis Für jeden Code, der den Nullvektor enthält, gilt d(C) = min{d(c, c ′)∣c, c ′ ∈ C, c ≠ c ′ } ≤ min{d(c, )∣c ∈ C, c} ≠ = w(C) . Für die umgekehrte Richtung ist zu zeigen, dass es ein Codewort c0 vom Gewicht d(C) gibt. Seien c, c′ ∈ C mit d(c, c′ ) = d(C). Dann gilt: w(c − c ′ ) = d(c − c ′ , ) = d(c, c ′) = d(C) . Da C linear ist, ist c0 : = c–c′ ∈ C. Damit ist alles gezeigt. ◻ Um den Minimalabstand, und damit die Fehlerkorrekturqualität von C zu bestimmen, muss man also nur das Minimalgewicht ausrechnen; dazu braucht man höchstens |C| Schritte. Zur Erklärung, wie man mit einem linearen Code decodiert, müssen wir etwas ausholen. Sei C ⊆ V ein Code. Der zu C duale Code C⊥ ist wie folgt definiert: C ⊥ ∶= {v ∈ V ∣c ⋅ v = für alle c ∈ C} ; dabei ist das innere Produkt c ⋅ v der Vektoren c = (c1 , . . . , cn ) und v = (v1 , . . . , vn ) erklärt durch c ⋅ v = c v + c v + . . . + c n v n . Wenn c ⋅ v = 0 ist, so sagt man auch, dass c und v orthogonal sind (oder senkrecht aufeinander stehen). Vorsicht! Dieses innere Produkt sieht so ähnlich aus wie ein „Skalarprodukt“ (siehe Kap. 10). Das hier betrachtete innere Produkt hat aber sehr merkwürdige Eigenschaften: C und C⊥ schneiden sich im Allgemeinen keineswegs nur im Nullvektor; unser Beispielcode C erfüllt sogar C⊥ ⊆ C. Dieses Phänomen kommt hauptsächlich daher, dass wir nicht über dem Körper R, sondern über Z2 arbeiten. Bemerkung „Dualer“ Code ist eine schlechte Bezeichnung, die nichts, aber auch gar nichts mit dem „dualen Vektorraum“ aus Kap. 5 zu tun hat. 4.3 Codierungstheorie 135 Dimensionsformel für den dualen Code Ist C ein linearer Code der Dimension k, so ist C⊥ ein Untervektorraum von V der Dimension n – k. Beweis Unabhängig davon, ob C linear ist oder nicht, ist klar, dass C⊥ ein Unterraum von V ist. Es ist zu zeigen, dass C⊥ die Dimension n – k hat. Dazu betrachten wir eine Generatormatrix G mit den Zeilen c1 , . . . , ck von C. Dann gilt: C ⊥ = {v ∈ V ∣c i ⋅ v = , i = , . . . , k} . Wenn man die vorige Zeile unschuldig betrachtet, erkennt man, dass nach denjenigen Vektoren v = (v1 , . . . , vn ) ∈ V gefragt ist, die Lösungen des homogenen Gleichungssystems mit der Koeffizientenmatrix G sind. In Abschn. 4.1.3 haben wir uns klar gemacht, dass die Dimension des Lösungsraums gleich n – Rang (G) ist. Da die Zeilen von G eine Basis von C ◻ bilden, hat G den Rang k. Also gilt dim(C⊥ ) = n – k. Man kann die Bildung des dualen Codes natürlich iterieren; dass man dadurch nichts Neues erhält (und also die Iteration nicht durchzuführen braucht), sagt der folgende Satz. Satz vom „Bidualcode“ Sei C ein linearer Code. Dann ist C ⊥⊥ = C . Beweis Zunächst machen wir uns klar, dass C ⊆ C⊥⊥ gilt: C⊥⊥ besteht aus all den Vektoren, die orthogonal zu allen Vektoren aus C⊥ sind; dazu gehören aber bestimmt die Vektoren aus C, da C⊥ ja die Menge derjenigen Vektoren ist, die orthogonal zu jedem Vektor aus C sind. (Lesen Sie diesen Satz nochmals ganz langsam, dann werden Sie ihn verstehen!) Wenn wir die Dimensionsformel auf C⊥ anwenden, erhalten wir dim(C ⊥⊥) = n − dim(C ⊥ ) = n − (n − k) = k = dim(C) . Zusammen folgt C⊥⊥ = C. ◻ Sei C ⊆ V ein linearer Code. Eine Matrix H, deren Zeilen eine Basis des dualen Codes C⊥ bilden, heißt eine Kontrollmatrix von C. Da C⊥ die Dimension n – k hat, hat jede Kontrollmatrix von C genau n – k Zeilen und n Spalten. Um zu sehen, dass decodieren bei linearen Codes einfacher ist als bei nichtlinearen Codes, ist der Begriff des Syndroms eines Vektors wichtig. Sei H eine Kontrollmatrix des 136 4 Anwendungen von Vektorräumen linearen Codes C ⊆ V. Für jeden Vektor v ∈ V definieren wir sein Syndrom als s(v) ∶= v ⋅ H T , wobei H T die zu H transponierte Matrix ist. (Das ist die Matrix, die aus H durch Vertauschen von Zeilen und Spalten entsteht.) Ein Syndrom ist also ein binärer Vektor der Länge n – k. Mit Hilfe einer Kontrollmatrix und des Syndroms kann man einen linearen Code hervorragend beschreiben: Satz über die Kontrollmatrix Ist C ein linearer Code mit Kontrollmatrix H, so gilt C = {v ∈ V ∣s(v) = } . Beweis Sei v ∈ V beliebig. Dann gilt s(v) = ⇔ v ⋅ HT = ⇔ v ist orthogonal zu allenVektoren einer Basis von C ⊥ ⇔ v ∈ C ⊥⊥ ⇔ v ∈ C wegen C ⊥⊥ = C . ◻ Für die Syndromdecodierung ist die folgende Beobachtung entscheidend, die sagt, dass das Syndrom s(v) nur von der Nebenklasse abhängt, in der v liegt. Sei H eine Kontrollmatrix eines linearen Codes C ⊆ V. Für alle Vektoren v, w ∈ V gilt s(v) = s(w) ⇔ v + C = w + C . Beweis Sei v, w ∈ V beliebig. Dann gilt s(v) = s(w) ⇔ v ⋅ HT = w ⋅ HT ⇔ v ⋅ HT − w ⋅ HT = ⇔ (v − w) ⋅ H T = ⇔ v −w ∈ C ⇔v+C =w+C . ◻ 4.3 Codierungstheorie 137 Nun können wir beschreiben, wie man mit Hilfe eines allgemeinen linearen Codes decodieren kann. Dazu machen wir scheinbar einen Umweg: Wir überlegen uns, was die möglichen Fehler mit den Nebenklassen des Codes C zu tun haben. Sei C ⊆ V ein linearer Code. Dann ist C ein Unterraum von V, wir können also von den Nebenklassen von C sprechen. Ein Vektor heißt Anführer einer Nebenklasse von C, wenn er unter allen Vektoren dieser Nebenklasse minimales Gewicht hat. Im Allgemeinen sind Nebenklassenanführer nicht eindeutig bestimmt. Jedoch gilt folgende Tatsache, welche die Bedeutung dieses Konzeptes klar macht: Eindeutigkeit der Nebenklassenanführer Sei C ⊆ V ein linearer t-fehlerkorrigierender Code. Dann gilt: (a) Jeder Vektor von V vom Gewicht ≤ t ist Anführer einer Nebenklasse. (b) Die Anführer von Nebenklassen, die einen Vektor vom Gewicht ≤ t enthalten, sind eindeutig bestimmt. Wir beweisen (a) und (b) gemeinsam. Sei v ein Vektor vom Gewicht ≤ t. Betrachte einen beliebigen Vektor v′ ∈ v + C mit v′ ≠ v. Es ist zu zeigen, dass v′ mindestens das Gewicht t + 1 hat. Da v und v′ in derselben Nebenklasse von C sind, ist v – v′ ∈ C. Da v ≠ v′ ist, gilt v – v′ ≠ 0, also w(v – v′ ) ≥ 2t + 1 nach Definition eines t-fehlerkorrigierenden Codes. Daraus folgt t + ≤ w (v − v ′ ) = d (v − v ′ , ) = d (v, v ′) ≤ d (v, ) + d (, v ′ ) = w (v) + w (v ′ ) ≤ t + w (v ′ ) , also w(v′ ) ≥ t + 1. ◻ Damit haben wir einen Decodieralgorithmus: Man bestimme zunächst die Nebenklasse von C, in der der empfangene Vektor x liegt. Wenn höchstens t Fehler aufgetreten sind, dann hat der Fehlervektor das gleiche Syndrom wie x; also ist der Fehlervektor der Anführer der Nebenklasse, in der x liegt. Man addiere den Anführer zu x und erhält das Codewort zurück. Wenn mehr als t Fehler aufgetreten sind, kann man auch mit Hilfe des Anführers der Nebenklasse x + C korrigieren; allerdings ist man dann nicht sicher, ob richtig decodiert wurde. Diese Prozedur kann noch etwas geschickter organisiert werden: 138 4 Anwendungen von Vektorräumen Syndrom-Decodierung Sei C ⊆ V ein linearer Code, der t-fehlerkorrigierend ist. Man erstellt eine Liste der Nebenklassenanführer und der zugehörigen Syndrome. Für einen empfangenen Vektor x • • • • berechnet man das Syndrom s(x), sucht dies in der Liste der Syndrome, stellt den zugehörigen Nebenklassenanführer e fest und decodiert x zu c := x + e. Wenn zum Beispiel kein Fehler passiert ist, so ist das Syndrom von x der Nullvektor, die zugehörige Nebenklasse also C; dann ist der Anführer der Nullvektor von C, und x wird richtig zu x + o = x decodiert. Die Eindeutigkeit der Nebenklassenanführer garantiert, dass mit der Syndrom-Decodierung richtig decodiert wird, wenn höchstens t Fehler auftreten. Zur Illustration der Syndrom-Decodierung greifen wir das Beispiel aus Abschn. 4.3.1 auf. Zunächst müssen wir eine Kontrollmatrix bestimmen. Wir können einfach verifizieren, dass ⎛ ⎞ H = ⎜ ⎟ ⎝ ⎠ eine Kontrollmatrix von C ist. (Dazu muss man nur nachweisen, dass jede Zeile von H auf jeder Zeile einer Generatormatrix von C senkrecht steht und dass die Zeilen linear unabhängig sind; in Übungsaufgabe 24 werden Sie eingeladen, diese Arbeit zu tun.) Die Nebenklassenanführer sind die Vektoren 0000000, 0000001, 0000010, . . . (Dies können Sie sich zum Beispiel dadurch klarmachen, dass Sie ausrechnen, dass die angegebenen Vektoren in verschiedenen Nebenklassen liegen. Nach dem Satz über die Anzahl der Nebenklassen (Abschn. 3.3) gibt es aber auch nur acht Nebenklassen von C.) Die Liste der Nebenklassenanführer mit ihren Syndromen ist also die folgende: Nebenklassenanführer Syndrom 4.4 Verständnisfragen, Übungen und Tipps 139 Wird beispielsweise der Vektor x = 0010001 empfangen, so berechnet man sein Syndrom s(x) = 110. Danach bestimmt man aus der Liste den Fehlervektor e = 0001000; als Codewort ergibt sich c = x + e = + = . 4.4 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Lineare Gleichungssysteme ◻ Jedes lineare Gleichungssystem hat mindestens eine Lösung. ◻ Jedes homogene lineare Gleichungssystem hat mindestens eine Lösung. ◻ Jedes homogene lineare Gleichungssystem hat mindestens zwei Lösungen. ◻ Jedes homogene lineare Gleichungssystem über R, das mindestens zwei Lösungen hat, hat unendlich viele. ◻ Jedes inhomogene lineare Gleichungssystem hat höchstens eine Lösung. 2. Thema: Matrizenmultiplikation Alle in dieser Aufgabe auftretenden Matrizen seien über einem Körper K definiert; A und B seien zwei solche Matrizen. ◻ Man kann je zwei Matrizen miteinander multiplizieren. ◻ Man kann jede Matrix mit sich selbst multiplizieren. Man kann das Produkt A ⋅ B von A und B bilden, wenn die folgenden Zahlen gleich sind: ◻ Die Anzahl der Zeilen von A und die Anzahl der Spalten von B. ◻ Die Anzahl der Spalten von A und die Anzahl der Zeilen von B. ◻ Die Anzahl der Spalten von A und die Anzahl der Spalten von B. ◻ Die Anzahl der Zeilen von A sowie die Anzahl der Zeilen und Spalten von B. ◻ Wenn A ⋅ B definiert ist, so ist auch B ⋅ A definiert. ◻ Wenn A ⋅ B und B ⋅ A definiert ist, dann ist A ⋅ B = B ⋅ A. ◻ Wenn A ⋅ B und B ⋅ A definiert ist, dann ist A ⋅ B ≠ B ⋅ A. ◻ Wenn A und B verschieden von der Nullmatrix sind, dann ist auch A ⋅ B verschieden von der Nullmatrix. ◻ Wenn A verschieden von der Nullmatrix ist, dann ist auch A ⋅ A verschieden von der Nullmatrix. 3. Thema: Affine Unterräume ◻ Jeder Untervektorraum ist ein affiner Unterraum. ◻ Jeder affine Unterraum ist ein Untervektorraum. ◻ Manche affinen Unterräume sind Untervektorräume. 4. Thema: Codes ◻ Wenn ein Code den Nullvektor enthält, ist er linear. 140 4 ◻ ◻ ◻ ◻ Anwendungen von Vektorräumen Wenn ein Code genau 2k (k ∈ N) Elemente hat, ist er linear. Ist w(C) = d(C), so ist C linear. Ein t-fehlerkorrigierender Code hat das Minimalgewicht ≥ 2t + 1. Jedes Codewort eines t-fehlerkorrigierenden Codes hat Gewicht 2t + 1. Übungsaufgaben 1. Berechnen Sie ⎛ ⎞ ⎜⎟ ⎟ ( ) ⋅ ⎜ ⎜⎟ ⎜ ⎟ ⎝⎠ und ⎛ ⎞ ⎜⎟ ⎜ ⎟ ⋅ ( ) . ⎜⎟ ⎜ ⎟ ⎝⎠ 2. Machen Sie sich klar, dass für jede n × n-Matrix A gilt A ⋅ En = A = En ⋅ A , wobei En die n × n-Einheitsmatrix ist. 3. Zeigen Sie, dass die Matrizenmultiplikation homogen ist, dass also für jede m × nMatrix A über K, jeden Spaltenvektor x der Länge n mit Elementen aus K und jedes Element k ∈ K gilt : A × (kx) = (kA) × x = k × (Ax) . 4. Beweisen Sie den Satz „Zeilenrang = Spaltenrang“ im Allgemeinen. 5. Berechnen Sie die Potenzen der folgenden Matrix A (das heißt die Matrizen A, A2 := A ⋅ A, A3 := A ⋅ A ⋅ A, . . . ): ⎛ ⎜ ⎜ A ∶= ⎜ ⎜ ⎜ ⎜ ⎝ ⋯ ⎞ ⋯ ⎟ ⎟ ⋯ ⎟ ⎟ ⎟ ⋯ ⋯ ⎟ ⋯ ⎠ Die Matrix A hat als Elemente auf der Nebendiagonale Einsen und sonst nur Nullen. 6. Welchen Rang haben die folgenden reellen Matrizen? ⎛ ⎜ ⎝ ⎞ ⎟ , ⎠ ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ ⎞ ⎟ ⎟ , ⎟ ⎟ ⎠ ⎛ ⎜ ⎜ ⎜ − ⎜ ⎝− ⎞ ⎟ ⎟ . −⎟ ⎟ ⎠ 4.4 Verständnisfragen, Übungen und Tipps 141 7. Sei A eine m × n-Matrix und B eine n × s-Matrix über dem Körper K. Zeigen sie: Rang (A × B) ≤ Rang (A) . (Hinweis: Machen Sie sich klar, dass der von den Spalten von A ⋅ B erzeugte Unterraum in dem von den Spalten von A erzeugten Unterraum von K m enthalten ist.) 8. Bestimmen Sie den Rang der folgenden reellen Matrizen A, B und A ⋅ B: ⎛ A = ⎜ − ⎝ ⎞ ⎟ , ⎠ ⎛ ⎜ B=⎜ ⎜ ⎜ ⎝− ⎞ −⎟ ⎟ . ⎟ ⎟ ⎠ 9. Bestimmen Sie den Rang der folgenden reellen n × n-Matrix: ⎛a ⎜b ⎜ ⎜b ⎜ ⎜ ⎜⋯ ⎝b 10. 11. 12. 13. b a b b b b a ⋯ b ... ... ... ... b⎞ b⎟ ⎟ b⎟ ⎟ . ⎟ ⋯⎟ a⎠ Dabei sind a und b verschiedene reelle Zahlen. [Hinweis: Subtrahieren Sie zunächst die erste Zeile von allen anderen Zeilen.] Zeigen Sie: Bei einer elementaren Umformung ändert sich der Rang einer Matrix nicht. Sei M eine n × n-Matrix über dem Körper K. Zeigen Sie: Wenn M den Rang n hat, dann kann man M allein durch elementare Zeilenvertauschungen in die Einheitsmatrix verwandeln. [Hinweis: Beginnen Sie mit der 1. Spalte, betrachten Sie dann die 2. Spalte usw.] Zeigen Sie, dass sich der Lösungsraum eines linearen Gleichungssystems bei elementaren Zeilenumformungen vom Typ 3 nicht ändert. Lösen Sie das folgende lineare Gleichungssystem über R: −x + y + z + w = x − y + z + w = x + y + z − w = . 142 4 Anwendungen von Vektorräumen 14. Stellen Sie fest, ob das folgende reelle lineare Gleichungssystem lösbar ist und bestimmen Sie gegebenenfalls die Lösungsmenge: x + x + x = x + x + x = x + x + x = x + x + x = . 15. Lösen Sie das folgende lineare Gleichungssystem über R: x + x + x x + x − x x + x − x = a = a = a , wobei (a) a1 = 5, a2 = –1, a3 = 3, (b) a1 = 1, a2 = –1, a3 = 1 zu wählen sind. 16. Bestimmen Sie a, b ∈ R so, dass das folgende lineare Gleichungssystem über R lösbar ist: x + x + x = − x + x − x = a x + x − x = b . 17. Sei A ∈ K n × n . Zeigen Sie: Wenn Rang (A) = n ist, so hat das lineare Gleichungssystem Ax = b unabhängig von der Gestalt von b genau eine Lösung. 18. Sei V ein K-Vektorraum. Für einen affinen Unterraum U definieren wir L = L (U) ∶= {x − y∣x, y ∈ U} . Zeigen Sie, dass L(U) ein Unterraum des Vektorraums V ist. 19. Sei V ein K-Vektorraum. Wir nennen eine Linearkombination k1 v1 + k2 v2 + . . . + kn vn eine affine Linearkombination, falls k1 + k2 + . . . + kn = 1 ist. Zeigen Sie: Jede affine Linearkombination von Vektoren eines affinen Unterraums U liegt ebenfalls in U. 4.4 Verständnisfragen, Übungen und Tipps 143 20. Zeigen Sie, dass der folgende Code 1-fehlerkorrigierend ist: 21. Zeigen Sie, dass die Matrix H, deren Spalten die sämtlichen von Null verschiedenen binären r-Tupel sind, den Rang r hat. 22. Ein Code C ⊆ {0, 1}n heißt s-fehlererkennend, falls kein Codewort aus C durch Hinzufügen von höchstens s Fehlern wieder zu einem Codewort aus C wird. (a) Machen Sie sich klar, dass dieser Name zu Recht besteht. (b) Zeigen Sie: Ein Code C ist genau dann s-fehlererkennend, wenn d(C) ≥ s + 1 ist. 23. Sei C die folgendermaßen definierte Teilmenge von {0,1}n : C ∶= (a , . . . , a n )∣a + . . . + a n ist gerade . Zeigen Sie: C ist ein linearer 1-fehlererkennender Code mit Minimalgewicht 2. 24. Zeigen Sie, dass die Matrix ⎛ H = ⎜ ⎝ ⎞ ⎟ ⎠ eine Kontrollmatrix des Codes aus Abschn. 4.3.1 ist. Projekt: Die Hamming-Codes Die Hamming Codes gehören zu den wichtigsten (und einfachsten!) Codes. Sie sind wie folgt definiert. Man wählt sich eine natürliche Zahl r. Dann gibt es genau 2r –1 vom Nullvektor verschiedene binäre r-Tupel. Wenn wir diese (in beliebiger Reihenfolge) als Spalten in eine Matrix schreiben, erhalten wir eine binäre r × (2r – 1)-Matrix H, deren Spalten sämtliche von 0 verschiedene binäre r-Tupel sind. Nun definieren wir den Hamming-Code der Länge n = 2r – 1 durch Ham(r) ∶= {c = (c , . . . , c n ) ∈ {, }n ∣c ⋅ H T = } . Das bedeutet genau diejenigen Vektoren c sind Codewörter des Hamming-Codes Ham(r), für die c × H T der Nullvektor der Länge r ist. 144 4 Anwendungen von Vektorräumen In diesem Projekt sei stets r eine natürliche Zahl und H eine r × (2r – 1)-Matrix, deren Spalten die sämtlichen von 0 verschiedenen binären r-Tupel sind. 1. Berechnen Sie sämtliche Codewörter von Ham(3). 2. Gibt es in Ham(r) Codewörter vom Gewicht 1, 2 oder 3? Also gilt d(Ham(r)) ≥ . . . [Angenommen, es gäbe ein Codewort vom Gewicht 1 oder 2. Schließen Sie daraus, dass eine bzw. zwei Zeilen von H linear abhängig sein müssten.] 3. Zeigen Sie: d(Ham(r)) ≤ 3. Zusammen mit dem zweiten Schritt folgt, dass Ham(r) ein 1-fehlerkorrigierender Code ist. 4 Das obige Argument kann man verallgemeinern: Sei C ein beliebiger linearer Code, und sei H eine Kontrollmatrix von C. Dann gilt: Wenn je d–1 Spalten von H linear unabhängig sind, so gilt d(C) ≥ d. Als nächstes sollen Sie zeigen, dass Ham(r) ein „perfekter“ Code ist. Ein t-fehlerkorrigierender Code C ⊆ {0,1}n heißt perfekt, falls es zu jedem Vektor v aus {0,1}n mindestens ein Codewort c gibt mit d(v, c) ≤ t. Mit anderen Worten: C ist perfekt, wenn die Hammingkugeln St (c) vom Radius t um die Codewörter c den gesamten Raum {0, 1}n ausfüllen. Perfekte Codes sind also diejenigen, bei denen die Hammingkugeln St (c) so dicht wie nur denkbar gepackt sind: Jeder Vektor liegt in (genau) einer solchen Kugel. 5. Sei C ein binärer Code der Länge n. (a) Dann enthält eine Hammingkugel S1 (c) genau n + 1 Vektoren. (b) Eine Hammingkugel S1 (c) eines Hamming-Codes Ham(r) enthält also genau . . . Vektoren. 6. (Hamming-Schranke). Sei C ein binärer 1-fehlerkorrigierender Code der Länge n. Zeigen Sie ∣C∣ ≤ n /(n + ) . Gleichheit gilt genau dann, wenn C perfekt ist. 7. Zeigen Sie: Die Hamming-Codes Ham(r) sind perfekte 1-fehlerkorrigierende Codes. Nun kommen wir zur Decodierung der Hamming-Codes. Diese ist ganz besonders schön und einfach. 8. Sei v ein binärer Vektor der Länge 2r –1, der aus einem Codewort des HammingCodes Ham(r) dadurch hervorgeht, dass genau ein Fehler passiert. Berechnen Sie das Syndrom von v. Wir erinnern uns an die Definition von H: Als Matrix H konnten wir irgendeine r × (2r – 1)-Matrix wählen, deren Spalten die von Null verschiedenen binären r-Tupel sind; die Ordnung der Spalten spielte bei unseren bisherigen Überlegungen keine Rolle. Nun interpretieren wir die Spalten von H als binäre Darstellung der Zahlen 1, . . . , 2r – 1 4.4 Verständnisfragen, Übungen und Tipps 145 und ordnen die Spalten so an, dass die i-te Spalte si die Zahl i darstellt. Zum Beispiel ist die letzte Spalte diejenige, die nur aus Einsen besteht. 9. Sei v ein binärer Vektor der Länge 2r – 1, der aus einem Codewort des HammingCodes Ham(r) dadurch hervorgeht, dass an genau einer Stelle ein Fehler passiert. Zeigen Sie: Das Syndrom von v ist die Binärdarstellung der Zahl, welche die Stelle angibt, an der der Fehler auftrat. Schließlich studieren wir die Frage, ob man aus den (perfekten!) Hamming-Codes noch bessere Codes machen kann. Das Stichwort hierfür heißt Erweiterung. Wir verlängern jedes Codewort aus Ham(r) um eine Stelle; auch diese Stelle wird mit 0 oder 1 besetzt und zwar so, dass die Gesamtzahl der Einsen in jedem Codewort gerade ist. Der so entstehende binäre Code heißt Ham(r)* und wird erweiterter Hamming-Code genannt. 10. Listen Sie die Codewörter von Ham(3)* auf. 11. Zeigen Sie: Ham(r)* ist ein linearer Code mit Minimalgewicht 4. 12. Konstruieren Sie aus einer Kontrollmatrix H für Ham(r) eine Kontrollmatrix H* für Ham(r)*. Sie sollten mit folgenden Begriffen umgehen können: Geometrie, affiner Raum, A(V), affiner Unterraum, Gerade, Ebene, Hyperebene, lineares Gleichungssystem, homogen, inhomogen, Matrizenmultiplikation, erweiterte Matrix eines linearen Gleichungssystems, Rang, Spaltenrang, Zeilenrang, elementare Umformungen, Gaußscher Algorithmus, Code, Hamming-Abstand, Fehlerkorrigierender Code, linearer Code, Generatormatrix, Kontrollmatrix, Syndrom, Syndromdecodierung Was sagen Sie dazu? Gnutpuaheb. Alle Punkte der Anschauungsebene liegen auf einer gemeinsamen Geraden. Sieweb. Es genügt zu zeigen, dass je endlich viele Punkte auf einer gemeinsamen Geraden liegen. Seien also P1 , . . . , Pn endlich viele Punkte. Wir zeigen durch Induktion nach n, dass diese auf einer gemeinsamen Geraden liegen. Induktionsanfang: n = 1. Trivialerweise liegt ein einziger Punkt auf einer (gemeinsamen) Geraden. n-1 n-1 Abb. 4.4 Alle (?) Punkte auf einer gemeinsamen Geraden 146 4 Anwendungen von Vektorräumen Nun zum Induktionsschluss: Sei die Aussage richtig für n–1. Seien P1 , . . . , Pn Punkte der Anschauungsebene. Nach Induktion liegen sowohl P1 , . . . , Pn–1 als auch P2 , . . . , Pn auf einer gemeinsamen Geraden. Also liegen auch P1 , P2 , . . . , Pn–1 , Pn auf einer gemeinsamen Geraden (siehe Abb. 4.4). 5 Lineare Abbildungen Bei jeder mathematischen Struktur ist es äußerst wichtig, die Struktur erhaltenden Abbildungen, die so genannten Homomorphismen, zu studieren. Dies hat folgende Gründe: • Wir müssen feststellen können, ob zwei Strukturen, in unserem Fall also zwei Vektorräume „im wesentlichen gleich“ (das heißt „isomorph“) sind. Damit kann man auch feststellen, durch welche Daten ein Vektorraum bestimmt ist. Zum Beispiel kann man sich fragen, ob ein Vektorraum schon durch den zugrunde liegenden Körper und die Dimension „im wesentlichen“ eindeutig bestimmt ist. Wir werden diese Frage mit „ja“ beantworten. • Innerhalb eines gegebenen Vektorraums wollen wir feststellen können, ob zwei Objekte desselben Typs durch einen Automorphismus ineinander überführbar sind. Es wird sich zeigen, dass je zwei Basen durch einen Vektorraumautomorphismus aufeinander abgebildet werden können. Dies impliziert dann, dass wir – wenn notwendig – ohne den Vektorraum zu ändern, eine bestimmte Basis o. B. d. A. auswählen können! • Durch einen Homomorphismus wird ein gegebener Vektorraum V wieder auf einen Vektorraum abgebildet. Kann man eine Übersicht über alle so erhaltenen Vektorräume bekommen? Der Homomorphiesatz wird darauf eine Antwort geben. 5.1 Definitionen und grundlegende Eigenschaften Nun zur Sache: Wir betrachten zwei Vektorräume V und W, die über demselben Körper K definiert sind. Eine Abbildung f : V → W wird linear genannt, falls für alle v, v′ ∈ V und alle k ∈ K gilt: Additivität: f (v + v′ ) = f (v) + f (v′ ), Homogenität: f (k ⋅ v) = k ⋅ f (v). A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_5, © Springer Fachmedien Wiesbaden 2014 147 148 5 Lineare Abbildungen Man spricht auch von einer linearen Abbildung oder, vollkommen gleichbedeutend, von einem Homomorphismus. Durch die Additivität und die Homogenität werden die Operationen von V (Addition und Skalarmultiplikation) auf W übertragen, genauer gesagt: auf den Teil von W, der von f erfasst wird; diesen Teil nennen wir das Bild von f : Bild( f ) ∶= {w ∈ W∣ es gibt v ∈ V mit f (v) = w} . Als erste Übung im Umgang mit linearen Abbildungen zeigen wir, dass Bild(f ) wieder ein Vektorraum ist. Wir zeigen genauer, dass Bild(f ) ein Unterraum von W ist. Und dies beweisen wir, indem wir das Unterraumkriterium anwenden. Ist der Nullvektor (von W) in Bild(f )? Ja, denn der Nullvektor oV von V wird auf den Nullvektor oW von W abgebildet: f (o V ) + f (o V ) = f (o V + o V ) = f (o V ) . Wenn wir auf beiden Seiten den Vektor f (oV ) ( ∈ W) abziehen, ergibt sich f (oV ) = oW . Daraus folgt oW ∈ Bild(f ). Ist das skalare Vielfache eines jeden Vektors w ∈ Bild(f ) in Bild(f )? Sei dazu v ein Urbild von w; dann gilt für alle k ∈ K: k ⋅ w = k ⋅ f (v) = f (k ⋅ v) ∈ Bild( f ) . Ähnlich ergibt sich, dass mit je zwei Vektoren w, w′ auch die Differenz w−w′ in Bild(f ) liegt: Seien dazu v und v′ Vektoren aus V mit f (v) = w und f (v′ ) = w′ . Dann folgt w − w ′ = f (v) − f (v ′ ) = f (v − v ′ ) ∈ Bild( f ) . ist. Mit Hilfe des Unterraumkriteriums ergibt sich also, dass Bild(f ) ein Unterraum von W ◻ Nun haben wir schon mit dem Studium linearer Abbildungen begonnen, ohne uns durch Beispiele von der Existenz solcher Objekte überzeugt zu haben. Wir eilen, dieses Versäumnis auszubügeln. Zunächst zwei ganz einfache Beispiele: (0) Die Nullabbildung (das ist die Abbildung, die jeden Vektor von V auf den Nullvektor von W abbildet) ist eine lineare Abbildung. (1) Die identische Abbildung idV auf V (das ist die Abbildung, die jedes Element von V auf sich abbildet) ist eine lineare Abbildung von V in sich. Fast genauso einfach ist das folgende Beispiel: 5.1 Definitionen und grundlegende Eigenschaften 149 (2) Sei V ein Vektorraum über dem kommutativen Körper K, und sei k0 ∈ K. Dann ist die Abbildung f , die jeden Vektor v auf k0 ⋅ v abbildet, eine lineare Abbildung von V in sich. Es ist nämlich f (v + v ′ ) = k ⋅ (v + v ′ ) = k ⋅ v + k ⋅ v ′ = f (v) + f (v ′) und f (kv) = k ⋅ (kv) = (k k) ⋅ v = (kk ) ⋅ v = k ⋅ (k v) = k ⋅ f (v) . Für k0 = 1 erhalten wir die identische Abbildung und für k0 = 0 die Nullabbildung auf V; insofern sind (0) und (1) Spezialfälle von (2). Wegen dieser einfachen Beispiele würde es sich wirklich nicht lohnen, lineare Abbildungen zu studieren. Deshalb betrachten wir jetzt noch ein interessanteres Beispiel, das man auf vielfältige Weise verallgemeinern kann (siehe Übungsaufgabe 2). (3) Wir definieren eine lineare Abbildung f von R2 nach R2 durch f ∶ (a, b) ↦ (a + b, a − b) . Dass f linear ist, zeigt man so: Seien (a, b) und (a′ , b′ ) Vektoren aus R2 , und sei k ∈ R. Die Additvität folgt so f ((a, b) + (a ′ , b ′ )) = f ((a + a ′ , b + b ′ )) = ((a + a ′ ) + b + b ′ , a + a ′ − (b + b ′ )) = (a + b + a ′ + b ′ , a − b + a ′ − b ′ ) = (a + b, a − b) + (a ′ + b ′ , a ′ − b ′ ) = f (a, b) + f (a ′ , b ′) . Die Homogenität ergibt sich ganz ähnlich: f (k(a, b)) = f (ka, kb) = (ka + kb, ka − kb) = (k(a + b), k(a − b)) = k ⋅ (a + b, a − b) = k ⋅ f (a, b) . Dies sind bei weitem nicht alle lineare Abbildungen, aber die Abbildung (3) ist schon ein typisches Beispiel einer linearen Abbildung. Wir werden später weitere Beispiele konstruieren. Ja, unser Ziel ist sogar, alle linearen Abbildungen genau zu beschreiben. Offenbar kann man an den Beispielen schon eine ganz grobe Einteilung der linearen Abbildungen vornehmen. Insbesondere geben wir zwei wichtigen Teilklassen einen Namen. Eine lineare Abbildung von V nach W heißt Isomorphismus, falls sie injektiv und surjektiv ist. Wenn es einen Isomorphismus eines Vektorraums V in einen Vektorraum W gibt, dann nennt man V und W isomorph und schreibt dafür V ≅ W. Ein Isomorphismus von V nach W heißt Automorphismus, falls W = V ist; ein Automorphismus ist also eine umkehrbare lineare Abbildung eines Vektorraums in sich. Manchmal wird eine lineare 150 5 Lineare Abbildungen Abbildung von V in sich auch Endomorphismus genannt. (In dieser Terminologie ist ein Automorphismus also ein umkehrbarer Endomorphismus.) Die Menge aller Automorphismen des Vektorraums V bekommt auch einen Namen, nämlich GL(V). (Dies ist die Abkürzung für „general linear group“ – in der Tat bilden die Elemente von GL(V) eine „Gruppe“ – mehr dazu in Kap. 9.) Warum heißt eine lineare Abbildung eigentlich „linear“? „Linear“ hat etwas mit „Linie“, also „Gerade“ zu tun. Tatsächlich gilt der folgende Satz. Invarianz der Geraden unter einer linearen Abbildung Jeder Automorphismus f von V bildet jede Gerade des affinen Raums A(V) wieder auf eine Gerade ab. Zum Beweis dieser Tatsache betrachten wir eine Gerade von A(V). Was ist eine Gerade von A(V)? Das wissen wir spätestens seit Abschn. 4.2: Jede Gerade des affinen Raums A(V) hat die Form v + U, wobei U ein 1-dimensionaler Unterraum von V ist, das heißt U = ⟨u⟩ mit u ∈ V\{o}. Wir müssen zeigen, dass die Menge der Bilder der Elemente von v + U wieder eine Gerade bilden. Wenn wir raten müssten, welche Gerade dies sein könnte, dann würde uns als sinnvoller Vorschlag wahrscheinlich f (v) + f (U) einfallen. (Dabei ist f (U) := {f (u) | u ∈ U}.) Mal schauen, ob das stimmt: Sei v + ku ein beliebiger Punkt der Geraden v + U. Dann ist f (v + ku) = f (v) + f (ku) = f (v) + k ⋅ f (u) ∈ f (v) + ⟨ f (u)⟩ . Also liegt das Bild jedes Punktes der Geraden v + U in der Menge f (v) + ⟨f (u)⟩. Ferner ist f (u) ≠ o, da f bijektiv ist; also ist f (v) + ⟨f (u)⟩ tatsächlich eine Gerade. Sei umgekehrt f (v) + k′ f (u) ein beliebiger Punkt der hypothetischen Bildgeraden. Dann ist v + k′ u ein Urbild dieses Punktes. Also werden die Punkte von v + ⟨u⟩ genau auf die Punkte von f (v) + ⟨f (u)⟩ abgebildet. Das heißt: Geraden („Linien“) gehen in Geraden über. ◻ Unser erstes großes Ziel ist es, alle linearen Abbildungen von V nach W zu beschreiben. Dazu ist folgende Aussage von entscheidender Bedeutung: Beschreibung linearer Abbildungen durch die Bilder einer Basis Sei {v1 , . . . , vn } eine Basis von V. Dann gibt es zu beliebigen Vektoren w1 , . . . , wn ∈ W genau eine lineare Abbildung f : V → W mit f (vi ) = wi (i = 1, . . . , n). 5.1 Definitionen und grundlegende Eigenschaften 151 Mit anderen Worten: Man kann sich für die Bilder einer Basis von V beliebige Vektoren wünschen; wir nennen die wi daher auch „Wunschvektoren“. Durch die Vorgabe der Wunschvektoren ist eine lineare Abbildung dann eindeutig bestimmt. Den Beweis dieser Behauptung zerlegen wir in zwei Teilbehauptungen. Wir werden jeweils eine etwas allgemeinere Aussage beweisen. Zuerst zeigen wir die Existenz von f . (a) Ist {v1 , . . . , vr } eine linear unabhängige Menge von Vektoren, so gibt es für beliebige Wunschvektoren w1 , . . . , wr ∈ W mindestens eine lineare Abbildung f : V → W mit f (vi ) = wi für alle i ∈ {1, . . . , r}. Dies folgt so: Wir ergänzen {v1 , . . . , vr } zu einer Basis {v1 , . . . , vn } von V und wählen wr+1 , . . . , wn ∈ W beliebig. (Wenn wir wollten, könnten wir zum Beispiel wr+1 = . . . = wn = o wählen.) Um f (v) für einen beliebigen Vektor v ∈ V zu definieren, stellen wir v als Linearkombination v = k1 v1 + k2 v2 + . . . + kn vn dar. Wir definieren dann f (v) ∶= k w + k w + . . . + k n w n . Das heißt, wir „ersetzen“ jedes vi durch wi . Behauptung: f ist eine lineare Abbildung. Additivität: Sei u = h1 v1 + h2 v2 + . . . + hn vn . Dann ist f (v + u) = f ((k + h )v + (k + h )v + . . . + (k n + h n )v n ) = (k + h )w + (k + h )w + . . . + (k n + h n )w n = (k w + k w + . . . + k n w n ) + (h w + h w + . . . + h n w n ) = f (v) + f (u) . Homogenität: Sei k ∈ K beliebig. Dann ist f (kv) = f (kk v + kk v + . . . + kk n v n ) = kk w + kk w + . . . + kk n w n = k(k w + k w + . . . + k n w n ) = k ⋅ f (v) . Nun zeigen wir die Eindeutigkeit von f : (b) Ist {v1 , . . . , vs } ein Erzeugendensystem von V, so gibt es für beliebige Wunschvektoren w1 , . . . , ws ∈ W höchstens eine lineare Abbildung f von V nach W mit f (vi ) = wi für i = 1, . . . , s. Dies sehen wir so: Seien f und g lineare Abbildungen von V in W mit f (vi ) = wi = g(vi ) (i = 1, . . . , s). Wir müssen zeigen, dass dann f und g nicht nur auf den verschwindend wenigen Vektoren v1 , . . . , vs dasselbe bewirken, sondern auf jedem Vektor von V. Wir betrachten dazu einen beliebigen Vektor v ∈ V. Es ist zu zeigen, dass f (v) = g(v) gilt. 152 5 Lineare Abbildungen Da {v1 , . . . , vs } ein Erzeugendensystem ist, kann man v als Linearkombination der vi darstellen; sei v = kv + k v + . . . + ks vs . Daraus ergibt sich f (v) = f (k v + k v + . . . + k s v s ) = k f (v ) + k f (v ) + . . . + k s f (v s ) = k w + k w + . . . + k s w s = k g(v ) + k g(v ) + . . . + k s g(v s ) = g(k v + k v + . . . + k s v s ) = g(v) . Dies zeigt f = g. ◻ Die Bedeutung dieser Aussage liegt darin, dass man eine lineare Abbildung durch ganz wenige Daten beschreiben kann, nämlich durch eine Basis von V und die Bilder der Vektoren dieser Basis. Der obige Satz liefert zunächst „nur“ eine äußerst effiziente Beschreibung einer linearen Abbildung. Kann man an dieser Beschreibung auch Eigenschaften der linearen Abbildung ablesen? (Es könnte ja sein, dass man eine zwar sehr Platz sparende Beschreibung gefunden hat, diese aber zu nichts anderem nütze ist.) Die Antwort ist „ja“: Charakterisierung einer linearen Abbildung durch die Bilder der Vektoren einer Basis Sei f : V → W eine lineare Abbildung; sei {v1 , v2 , . . . , vn } eine Basis von V, und sei wi := f (vi ) für i = 1, 2, . . . , n. Dann gilt: (a) Die Vektoren w1 , w2 , . . . , wn sind genau dann linear unabhängig, wenn f injektiv ist. (b) Genau dann ist {w1 , w2 , . . . , wn } ein Erzeugendensystem von W, wenn f surjektiv ist. (c) Genau dann ist {w1 , w2 , . . . , wn } eine Basis von W, wenn f bijektiv, also ein Isomorphismus, ist. Zum Beweis müssen wir nur (a) und (b) zeigen. (a) Zunächst setzen wir voraus, dass die Vektoren w1 , . . . , wn linear unabhängig sind. Seien v und v′ Vektoren aus V mit f (v) = f (v′ ). Wir zeigen v = v′ . Dazu stellen wir v und v′ als Linearkombination der Basis {v1 , . . . , vn } dar: v = k v + k v + . . . + k n v n und v ′ = k ′v + k ′ v + . . . + k ′n v n . 5.1 Definitionen und grundlegende Eigenschaften 153 Es folgt f (v) = k w + k w + . . . + k n w n und f (v ′) = k ′ w + k ′ w + . . . + k ′n w n . Wegen f (v) = f (v′ ) ist also k w + k w + . . . + k n w n = k ′ w + k ′ w + . . . + k ′n w n . Da w1 , w2 , . . . , wn linear unabhängig sind, folgt durch Koeffizientenvergleich k = k ′ , k = k ′ , . . . , k n = k ′n , also v = v′ . Sie sind eingeladen, die Umkehrung als Übungsaufgabe 4 zu zeigen. (b) Sei wiederum zunächst {w1 , . . . , wn } ein Erzeugendensystem von W. Wir müssen zeigen, dass es für ein beliebiges w ∈ W ein v ∈ V gibt mit f (v) = w. Da w1 , . . . , wn ein Erzeugendensystem von W ist, können wir w (nicht notwendig eindeutig) schreiben als w = k w + k w + . . . + k n w n . Dann ist offenbar v ∶= k v + k v + . . . + k n v n ein Urbild von w. Wieder sind Sie eingeladen, die Umkehrung als Übung zu zeigen (Übungsaufgabe 5). ◻ Wir ziehen aus obiger Charakterisierung interessante und wichtige Folgerungen. Folgerung 1 „Wenn einmal unabhängig, dann immer unabhängig; wenn einmal Erzeugendensystem, dann immer Erzeugendensystem.“ Das heißt: Wenn die Bilder einer Basis von V unter f linear unabhängig sind (bzw. ein Erzeugendensystem bilden), dann sind die Bilder jeder Basis von V unter f linear unabhängig (bzw. bilden ein Erzeugendensystem). Der Beweis ist, wie es sich für eine Folgerung gehört, einfach: Sei B eine Basis, deren Bilder linear unabhängig sind. Dann ist f nach dem vorigen Satz injektiv. Angenommen, es gäbe eine Basis B*, deren Bilder nicht linear unabhängig sind; dann wäre f nicht injektiv. Zusammen ergibt sich ein Widerspruch. Die anderen Behauptungen folgen entsprechend. ◻ 154 5 Lineare Abbildungen Folgerung 2 Seien V und W Vektorräume über dem Körper K, welche die gleiche Dimension n haben. Dann gibt es zu jeder Basis {v1 , . . . , vn } von V und jeder Basis {w1 , . . . , wn } von W (genau) eine lineare Abbildung f : V → W mit f (vi ) = wi (i = 1, . . . , n). Diese lineare Abbildung ist ein Isomorphismus. Beweis Dass es – bei fester Reihenfolge der Basisvektoren – genau eine lineare Abbildung f mit den gewünschten Eigenschaften gibt, folgt aus dem Satz über die Beschreibung linearer Abbildungen durch Wunschvektoren. Dass f bijektiv ist, ergibt sich aus Teil (c) des vorigen Satzes. ◻ Folgerung 3 Je zwei Basen eines Vektorraums V können durch genau eine lineare Abbildung ineinander überführt werden; diese lineare Abbildung ist ein Automorphismus. Man nennt solche linearen Abbildungen auch Basistransformationen. ◻ Folgerung 4 (Fundamentalsatz für endlichdimensionale Vektorräume) Je zwei K-Vektorräume derselben Dimension sind isomorph. Zum Beweis wähle man in zwei n-dimensionalen K-Vektorräumen jeweils eine Basis. Nach Folgerung 2 ist die Abbildung, die die eine Basis in die andere überführt, ein Isomorphismus. ◻ Mit Folgerung 4 ist eine der eingangs gestellten Fragen beantwortet: Ja, jeder Vektorraum ist durch seinen Körper und seine Dimension eindeutig bestimmt! 5.2 Darstellung von linearen Abbildungen durch Matrizen Wenn man mit linearen Abbildungen konkret rechnen will (oder muss), dann bietet es sich an, ihre Darstellung durch Matrizen zu benutzen. Das werden wir in diesem Abschnitt erklären. Sei stets f : V → W eine lineare Abbildung eines n-dimensionalen K-Vektorraums V in einen m-dimensionalen K-Vektorraum W. Es gibt nicht die Matrix, die eine lineare Abbildung f beschreibt, sondern viele, und zwar zu jeder Basis von V und jeder Basis von W genau eine. 5.2 Darstellung von linearen Abbildungen durch Matrizen 155 Wir wählen also eine Basis B = {v1 , . . . , vn } von V und eine Basis C = {w1 , . . . , wm } von W und halten diese Bezeichnungen fest. Der entscheidende Punkt ist, dass wir die Bilder der Elemente vj aus B als Linearkombinationen der Basis C ausdrücken: f (v j ) = a j w + a j w + . . . + a m j w m ( j = , . . . , n) mit aij ∈ K. Dadurch werden m ⋅ n Körperelemente aij zusammen: ⎛ a ⎜ a A = B MC ( f ) = ⎜ ⎜ ⋮ ⎜ ⎝ a m definiert; diese fassen wir in der Matrix A a a ⋮ a m ... ... ... a n a n ⋮ a mn ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ Jede so gewonnene Matrix B M C (f ) wird eine Darstellungsmatrix der linearen Abbildung f genannt. (Dabei deutet das „M“ in „B M C (f )“ nur an, dass eine Matrix gebildet wird.) Wie kann man sich eine solche Darstellungsmatrix A vorstellen? Die Merkregel lautet: Die Koeffizienten des Bildes von vj sind die Einträge in der j-ten Spalte von A. Beispiel Sei f die Abbildung von R2 in sich, die durch folgende Vorschrift definiert ist: f ∶ (x, y) ↦ (x − y, x + y) . Wir unterscheiden verschiedene Wahlen der Basen B und C. • Sei zunächst B = C = {(1, 0), (0, 1)}. Dann ist B MC ( f ) = B MB ( f ) = ( − ) . • Sei jetzt B = {(1, 0), (0, 1)} und C = {(3, 1), (−2, 1)}. Dann ist B MC ( f ) =( ) . • Ist schließlich B = {(5, 8), (−1, 1)} und C = {(0, 1), (1, 1)}, so gilt B MC ( f ) =( − ) , − da f (, ) = (−, ) = ⋅ (, ) + (−) ⋅ (, ) und f (−, ) = (−, ) = ⋅ (, ) + (−) ⋅ (, ) ist. 156 5 Lineare Abbildungen Bemerkung Wie kommt man auf die Koeffizienten? Ganz einfach; dies kann man stur ausrechnen. Wir machen uns das am Beispiel von f (5, 8) klar. Durch einfaches Einsetzen sieht man f (5, 8) = (−1, 13). Wir müssen diesen Vektor als Linearkombination von (0, 1) und (1, 1) darstellen. Dazu machen wir folgenden „Ansatz“: (−, ) = x ⋅ (, ) + y ⋅ (, ) . Dies führt dann auf die Gleichungen −1 = y und 13 = x+y, die elementar aufzulösen sind. Wir beobachten, dass umgekehrt jede Matrix aus Km × n Darstellungsmatrix einer linearen Abbildung ist: Wir wählen dazu wieder Basen B = {v1 , . . . , vn } von V und C = {w1 , . . . , wm } von W. Wenn A = (aij )1 ≤ i ≤ m, 1 ≤ j ≤ n gegeben ist, so definieren wir die Bilder der Basisvektoren vj wie folgt: f (v j ) ∶= a j w + a j w + . . . + a m j w m ( j = , . . . , n) . Nach den Ergebnissen des letzten Abschnitts (Beschreibung einer linearen Abbildung durch die Bilder einer Basis) ist dadurch die lineare Abbildung f eindeutig definiert; es ist klar, dass f bezüglich B und C die Darstellungsmatrix A = (aij )1 ≤ i ≤ m, 1 ≤ j ≤ n hat. Wir fassen diese Überlegungen zusammen: Darstellungssatz Sei f : V → W eine lineare Abbildung. Sei B = {v1 , . . . , vn } eine Basis von V und C = {w1 , . . . , wm } eine Basis von W. Dann wird durch f (v j ) = a j w + a j w + . . . + a m j w m ( j = , . . . , n) eine Matrix A = (aij ) ∈ K m × n definiert. Umgekehrt gehört zu jeder Matrix A = (aij ) aus K m × n (bei festen Basen B und C) genau eine lineare Abbildung f ; diese wird durch f (v j ) ∶= a j w + a j w + . . . + a m j w m ( j = , . . . , n) definiert. ◻ 5.2 Darstellung von linearen Abbildungen durch Matrizen 157 Ferner gilt: Darstellungsmatrix der Identität Die Identität auf V hat bezüglich jeder Wahl einer Basis B = {v1 , . . . , vn } von V die Einheitsmatrix als Darstellungsmatrix: ⎛ ⎜ ⎜ B M B (id) = E n = ⎜ ⎜ ⎝ ⋮ ... ... ⋱ ⋮ ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ Dies folgt direkt aus der Tatsache, dass für alle j die Beziehung id(vj ) = vj = 1⋅vj gilt. ◻ Nun diskutieren wir ausführlich einen konkreten Fall, nämlich den Fall von linearen Abbildungen des Vektorraums K n in den Vektorraum K m . Man kann jede m × n-Matrix als lineare Abbildung von K n in K m auffassen. Dazu stellen wir die Vektoren von K n bzw. K m als Spaltenvektoren dar: ⎧ ⎪ ⎛ ⎪ ⎪ ⎪ ⎪ ⎜ ⎪ K n = ⎨⎜ ⎪⎜ ⎜ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩⎝ k k ⋮ kn ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ ∣ ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ k , . . . , k n ∈ K ⎬ . ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ Dann induziert (das heißt „ist“) jede m × n-Matrix A = (aij ) über folgende Vorschrift eine lineare Abbildung von K n in K m : Der Vektor ⎛ ⎜ v=⎜ ⎜ ⎜ ⎝ k k ⋮ kn ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ wird abgebildet auf den Vektor ⎛ a ⎜ a A ⋅ v ∶= ⎜ ⎜ ⋮ ⎜ ⎝ a m a a ⋮ a m ⋅s ⋅s ⋅s a n a n ⋮ a mn ⎞⎛ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎠⎝ k k ⋮ kn ⎞ ⎛ a ⋅ k + a ⋅ k + . . . + a n ⋅ k n ⎟ ⎜ a ⋅ k + a ⋅ k + . . . + a n ⋅ k n ⎟=⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⎠ ⎝ a m ⋅ k + a m ⋅ k + . . . + a mn ⋅ k n Wir machen uns dies an einem Beispiel klar. Sei n = m = 3, und sei ⎛ − ⎞ A=⎜ ⎟ ⎝ − ⎠ ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ 158 5 Lineare Abbildungen eine reelle 3 × 3-Matrix. Dann wird durch A eine lineare Abbildung von R3 in sich definiert, die wie folgt operiert ⎛ x ⎞ ⎛ x ⎞ ⎛ x − y + z ⎞ ⎜ y ⎟ ↦ A⋅⎜ y ⎟ = ⎜ ⎟ . x + y ⎝ z ⎠ ⎝ z ⎠ ⎝ −x + y + z ⎠ Wir haben uns überlegt, dass jede Matrix A als lineare Abbildung interpretiert werden kann; zuvor hatten wir auch gezeigt, dass jede lineare Abbildung eine Darstellungsmatrix hat. Wie sieht eine Darstellungsmatrix zu A aus? Gibt es vielleicht eine Darstellungsmatrix, die „etwas mit A zu tun“ hat? Oder sogar eine, die gleich A ist? Ist also A Darstellungsmatrix von sich selbst? Die Antwort lautet – wie könnte es anders sein – ja: Darstellungsmatrix einer als lineare Abbildung interpretierten Matrix Sei A eine Matrix aus K m × n , die wir als lineare Abbildung K n nach K m auffassen. Ist B = {e1 , e2 , . . . , en } bzw. C = {e1 , e2 , . . . , em } die Basis aus Einheitsvektoren des K n bzw. des K m , so gilt B M C (f ) = A. Das bedeutet, dass A bezüglich der Basen aus Einheitsvektoren sich selbst als Darstellungsmatrix hat. Beweis Sei A = (aij ). Dann wird e1 ∈ K n auf den Vektor abgebildet, der in der i-ten Komponente das Element ai1 ⋅ 1 = ai1 stehen hat. Mit anderen Worten: e1 wird auf die erste Spalte von A abgebildet. Natürlich ist am ersten Einheitsvektor nichts Besonderes: auch im Allgemeinen gilt, dass ej auf die j-te Spalte von A abgebildet wird. Daraus folgt, dass die Darstellungsmatrix der linearen Abbildung A bezüglich der Basen B und C gleich A ist. ◻ Neben der effizienten Darstellung einer linearen Abbildung hat die Matrizendarstellung einen weiteren Vorteil, nämlich dass man scheinbar unzusammenhängende Begriffe in Verbindung bringen kann. Als erstes Beispiel nennen wir folgenden Satz, mit dem man die Dimension von Bild(f ) ausrechnen kann. Rang einer linearen Abbildung Wenn A eine Darstellungsmatrix der linearen Abbildung f : V → W ist, so gilt dim(Bild( f )) = Rang(A) . 5.2 Darstellung von linearen Abbildungen durch Matrizen 159 Insbesondere ist Rang(A) unabhängig von der Wahl der Darstellungsmatrix A von f . Man nennt diese Zahl daher auch den Rang von f . Dies ist nicht schwer einzusehen: Sei B = {v1 , v2 , . . . , vn } die Basis von V, die zur Bildung der Darstellungsmatrix A verwendet wurde, also etwa A = B M C (f ). Wir überlegen uns zunächst, dass der von den Spalten s1 , s2 , . . . , sn von A aufgespannte Unterraum U von K m isomorph ist zu dem Unterraum W ′ von W, der von den Bildern f (v1 ), f (v2 ), . . . , f (vn ) der Basisvektoren erzeugt wird. (Ein Isomorphismus wird durch die Abbildung s i ↦ f (v i ) hergestellt; vergleiche Übungsaufgabe 12.) Eine andere Weise, dies auszudrücken, ist die folgende: Die Koordinatenvektoren s1 , s2 , . . . , sn spannen einen zu ⟨f (v1 ), f (v2 ), . . . , f (vn )⟩ = Bild(f ) isomorphen Vektorraum auf. Nach Definition des Rangs einer Matrix ist also Rang(A) = dim(U) = dim(Bild( f )) . ◻ Als Korollar aus diesem Satz ergibt sich das folgende Lemma: Genau dann ist eine Menge si 1 , si2 , . . . , sik von Spalten von A linear unabhängig, wenn die Vektoren f (vi1 ), f (vi 2 ), . . . , f (vik ) linear unabhängig sind. ◻ Wir betrachten jetzt noch den wichtigen Spezialfall, dass die Vektorräume V und W dieselbe Dimension n haben. Dann gilt: Charakterisierung von Isomorphismen Eine lineare Abbildung f eines n-dimensionalen K-Vektorraums V in einen ndimensionalen K-Vektorraum W ist genau dann ein Isomorphismus, wenn für beliebige Basen B von V und C von W die Matrix A = B M C (f ) den Rang n hat. Beweis Sei zunächst Rang(A) < n. Dann sind die Spalten von A linear abhängig. Nach dem vorigen Satz sind also die Bilder der Basis B linear abhängig; somit ist f nicht injektiv, insbesondere also kein Isomorphismus. Sei andererseits Rang(A) = n. Dann sind nach dem vorigen Satz die Bilder der Basis B linear unabhängig, erzeugen also einen Unterraum der Dimension n von W. Da dim(W) = n ist, sind die Bilder von B eine Basis von W. Nach der Charakterisierung einer linearen Abbildung durch die Bilder einer Basis ist f bijektiv. ◻ 160 5 Lineare Abbildungen Im letzten Teil dieses Abschnitts beschäftigen wir uns mit folgendem wichtigen Problem: Wir können (manchmal) zwei lineare Abbildungen miteinander verknüpfen, nämlich durch Hintereinanderausführung, und wir können (manchmal) zwei Matrizen miteinander verknüpfen, nämlich durch Multiplikation. Passen diese beiden Prozesse zusammen? Antwort: Ja – unter gewissen, selbstverständlichen Vorsichtsmaßregeln. Darstellungsmatrix des Produkts von linearen Abbildungen Seien V 1 , V 2 , V 3 Vektorräume über dem Körper K; seien g: V 1 → V 2 und f : V 2 → V 3 lineare Abbildungen. Sei Bi eine Basis von V i (i = 1, 2, 3), und sei A = B M B (g), B = B M B ( f ). Dann ist B M B ( f ○ g) = BA . Kurz: Hintereinanderausführung von linearen Abbildungen entspricht der Multiplikation von Matrizen. Beweis Sei A = (aji ) die Darstellungsmatrix von g, und sei B = (bkj ) die Darstellungsmatrix von f . Wir definieren die Vektoren ui , vj und wk durch B1 = {ui | i = 1, . . . , dim(V 1 )}, B2 = {vj | j = 1, . . . , dim(V 2 )} und B3 = {wk | k = 1, . . . , dim(V 3 )}. Um die Darstellungsmatrix C = (cki ) von fg zu erhalten, müssen wir fg(ui ) ausrechnen und diesen Vektor als Linearkombination der Vektoren aus B3 darstellen: Da g(u i ) = dim(V ) ∑ a ji v j j= ist, folgt f g(u i ) = f = dim(V ) ⎞ dim(V ) ⎛dim(V ) ⎞ ⎛dim(V ) ∑ a ji v j = ∑ a ji f (v j ) = ∑ a ji ∑ bk jwk ⎠ ⎝ k= ⎠ ⎝ j= j= j= dim(V ) dim(V ) ∑ ∑ a ji b k j w k = j= k= Dies ist bereits die Behauptung. dim(V ) dim(V ) ∑ ( ∑ b k j a ji )w k = k= j= dim(V ) ∑ c ki w k . k= ◻ Eine n × n-Matrix M mit Elementen aus dem Körper K heißt invertierbar (oder umkehrbar, manchmal auch regulär), falls es eine Matrix M ′ gibt mit MM ′ = En = M ′ M. Wir schreiben dann M −1 für die Inverse M ′ von M. In der folgenden Aussage beschreiben wir die wichtige Klasse der invertierbaren Matrizen. 5.2 Darstellung von linearen Abbildungen durch Matrizen 161 Korollar 1 (Charakterisierung invertierbarer Matrizen) Eine n × n-Matrix ist genau dann invertierbar, wenn ihr Rang gleich n ist. Beweis Sei A eine n × n-Matrix über K. Wir betrachten einen n-dimensionalen Vektorraum V über K und eine Basis B von V. Die Matrix A stellt bezüglich der Basis B eine lineare Abbildung f dar; das heißt A = B M B (f ). Nun zum eigentlichen Beweis. Zunächst setzen wir voraus, dass A invertierbar ist. Dann existiert die Matrix A−1 ; diese stellt ebenfalls bezüglich der Basis B eine lineare Abbildung f ′ dar (das heißt A−1 = B M B (f ′ ).) Nach dem obigen Satz ist dann AA−1 die Darstellungsmatrix (bezüglich der Basis B) der Abbildung f ⋅ f ′ ; da AA−1 die Einheitsmatrix ist, muss f ⋅ f ′ die Identität sein. Ebenso zeigt man, dass f ′ ⋅ f die Identität ist. Daraus folgt, dass f ′ = f −1 ist. Also ist f invertierbar, das heißt ein Isomorphismus. Daraus folgt aber, wie wir bereits wissen, dass Rang(A) = n ist. (Vergleichen Sie dazu den Satz über die Invertierbarkeit bijektiver Abbildungen aus Abschn. 1.3) Sei umgekehrt Rang(A) = n. Dann ist f ein Isomorphismus, und es existiert also der zu f inverse Automorphismus f −1 . Sei A′ die Darstellungsmatrix von f −1 bezüglich B. Dann folgt, dass sowohl AA′ als auch A′ A Darstellungsmatrizen der Identität sind. Also ist sowohl ◻ AA′ als auch A′ A eine Einheitsmatrix; d. h. A ist invertierbar. Korollar 2 (Transformation der Darstellungsmatrix bei Basiswechsel) Sei f : V → W eine lineare Abbildung. Seien B und B′ Basen von V, C und C′ Basen von W. Seien A = B M C (f ) und A′ = B ′ M C ′ (f ) die entsprechenden Darstellungsmatrizen. Dann gibt es eine invertierbare Matrix T und eine invertierbare Matrix S mit A′ = TAS . Beweis Sei S = B ′ M B (idV ) die Darstellungsmatrix der Identität auf V bezüglich der Basen B′ und B, und sei T = C M C ′ (idW ) die Darstellungsmatrix der Identität auf W bezüglich der Basen C und C′ . Dann ist nach dem eben bewiesenen Satz TAS die Darstellungsmatrix der linearen Abbildung idW ○ f ○ idV = f bezüglich der Basen B′ und C′ . Das heißt TAS = A′ . ◻ Korollar 3 (Ähnlichkeit von Darstellungsmatrizen) Sei f eine lineare Abbildung eines n-dimensionalen K-Vektorraums V in sich, und seien B, B′ Basen von V. Seien A = B M B (f ) und A′ = B ′ M B ′ (f ). Dann gibt es eine 162 5 invertierbare Matrix S mit Lineare Abbildungen A′ = S − AS . Beweis Sei S = B ′ M B (id) die Darstellungsmatrix der Identität bezüglich der Basen B′ und B, und sei T = B M B ′ (id) die Darstellungsmatrix der Identität bezüglich der Basen B und B′ . Dann ist TAS = A′ nach Korollar 2. Ferner gilt ST = B′ M B (id) ⋅ B M B′ (id) = B M B (id) = E . Entsprechend zeigt man TS = E. Also ist T = S−1 . ◻ Man nennt zwei n × n-Matrizen M und M ′ ähnlich, falls es eine invertierbare n × n-Matrix S gibt mit M ′ = S−1 MS. Man kann leicht nachweisen (siehe Übungsaufgabe 16), dass die Ähnlichkeit von Matrizen eine Äquivalenzrelation ist. Mit dieser Begriffsbildung kann man Korollar 3 also auch so aussprechen: Ähnlichkeit von Darstellungsmatrizen Je zwei Darstellungsmatrizen derselben linearen Abbildung eines Vektorraums in sich sind ähnlich. ◻ 5.3 Der Homomorphiesatz Wir haben bereits den Unterraum Bild(f ) von W, der zu einer linearen Abbildung f von V nach W gehört, eingehend studiert. Eine viel wichtigere Rolle spielt allerdings – entgegen dem ersten Augenschein – ein anderer zu f gehöriger Unterraum, nämlich der so genannte „Kern“ von f . Sei stets f : V → W eine lineare Abbildung des K-Vektorraums V in den K-Vektorraum W. Die Menge Kern( f ) ∶= {v ∈ V ∣ f (v) = o} heißt der Kern von f . Beispiel: Ist f die lineare Abbildung von R2 in sich, die durch f (x, y) := (x, 0) definiert ist, so besteht Kern(f ) aus allen Vektoren der Form (0,y). 5.3 Der Homomorphiesatz 163 1. Beobachtung Kern(f ) ist ein Unterraum von V. Beweis Wir wenden das Unterraumkriterium an. • Wegen f (o) = o ist o ∈ Kern(f ), also ist Kern(f ) ≠ ∅ . • Seien v ∈ Kern(f ) und k ∈ K. Dann gilt f (k ⋅ v) = k ⋅ f (v) = k ⋅ o = o ; somit ist mit v ∈ Kern(f ) auch k ⋅ v ∈ Kern(f ). • Seien v, v′ ∈ Kern(f ). Dann ist f (v − v ′ ) = f (v + (−)v ′ ) = f (v) + f ((−) ⋅ v ′ ) = f (v) + (−) ⋅ f (v ′ ) = o + o = o ; also ist v−v′ ∈ Kern(f ). ◻ Wann ist der Kern am größten? Größer als V kann Kern(f ) nicht werden; Kern(f ) = V gilt offenbar genau dann, wenn jedes Element von V auf o abgebildet wird, wenn also f die Nullabbildung ist – ein ganz besonders trivialer Fall. Wann ist der Kern am kleinsten? Kleiner als {o} kann er nicht werden. Ob und wann diese Grenze erreicht wird, sagt der folgende Satz. 2. Beobachtung Genau dann ist Kern(f ) = {o}, wenn f injektiv ist. Beweis Sei zunächst Kern(f ) = {o}, und seien v, v′ ∈ V mit f (v) = f (v′ ). Dann folgt o = f (v) − f (v ′ ) = f (v − v ′ ) , also v−v′ ∈ Kern(f ). Da Kern(f ) nur aus dem Nullvektor besteht, folgt v−v′ = o, also ist v = v′ . Also ist f injektiv. Umgekehrt setzen wir voraus, dass f injektiv ist. Da schon o auf o abgebildet wird, darf wegen der Injektivität von f kein von o verschiedener Vektor von V auf o abgebildet werden. Also besteht Kern(f ) nur aus dem Nullvektor. ◻ Nun nähern wir uns dem Homomorphiesatz. Da Kern(f ) ein Unterraum von V ist, können wir (das kann uns keiner verbieten) den Faktorraum V/Kern(f ) bilden. Aber jeder darf 164 5 Lineare Abbildungen uns fragen, was das denn soll! Die überraschende Antwort gibt der Homomorphiesatz: Auf diese Weise entsteht ein Vektorraum, und zwar einer, den wir schon kennen, nämlich Bild(f )!!! Homomorphiesatz Sei f : V → W eine lineare Abbildung. Dann gilt V /Kern( f ) ≅ Bild( f ) . Genauer gesagt: Die Abbildung φ : V/Kern(f ) → Bild(f ), die durch φ(v + Kern( f )) ∶= f (v) definiert ist, ist ein Isomorphismus von V/Kern(f ) nach Bild(f ). Bevor wir den Homomorphiesatz beweisen, schauen wir uns seine Aussage nochmals andersherum an: Bild( f ) ≅ V/Kern( f ) . Von diesem Standpunkt aus erkennt man folgendes: Der Vektorraum Bild(f ), also ein Raum, der meilenweit von uns entfernt liegen kann, ist strukturgleich zu V/Kern(f ), also einem Raum, der „innerhalb von V“ zu finden ist. Das bedeutet: Um alle möglichen Bilder einer linearen Abbildung von V nach irgendwohin zu finden, muss man nur in V nachschauen. (Ob Sie das als Hinweis auf die Gültigkeit des biedermeierlichen Lebensprinzips „Wozu in die Ferne schweifen? Sieh, das Gute liegt so nah!“ gelten lassen, müssen Sie selbst entscheiden.) Genug der Philosophie, jetzt beweisen wir den Homomorphiesatz. Wir zeigen, dass φ eine bijektive, lineare Abbildung ist, und zwar zeigen wir diese drei Eigenschaften von „rechts nach links“. • Ist φ überhaupt eine Abbildung? Mit anderen Worten: Ist φ wohldefiniert? Dies müssen wir nachweisen, da φ mit Hilfe von Repräsentanten einer Nebenklasse definiert ist. Seien also v und v′ Repräsentanten derselben Nebenklasse nach Kern(f ). Das heißt v + Kern( f ) = v ′ + Kern( f ) . Wir müssen zeigen, dass daraus φ (v + Kern(f )) = φ (v′ + Kern(f )), das heißt f (v) = f (v′ ) folgt. Wegen v + Kern(f ) = v′ + Kern(f ) ergibt sich mit dem Kriterium über die Gleichheit von Nebenklassen v−v′ ∈ Kern(f ). Dies bedeutet f (v−v′ ) = o. Daraus folgt f (v) = f (v′ ). 5.3 Der Homomorphiesatz 165 Jetzt, da nachgewiesen ist, dass φ tatsächlich eine Abbildung ist, können wir schmarotzerhaft ausnutzen, dass φ über Repräsentanten definiert ist: Die restlichen Eigenschaften können wir beweisen, „ohne genau hinzusehen“: • Linearität von φ: Seien v, v′ ∈ V. Dann ist φ[(v + Kern( f )) + (v ′ + Kern( f ))] = φ[v + v ′ + Kern( f )] = f (v + v ′ ) = f (v) + f (v ′) = φ(v + Kern( f )) + φ(v ′ + Kern( f )) . Die Homogenität folgt ähnlich einfach. • Schließlich zur Bijektivität von φ . Da die Surjektivität von φ klar ist (denn die Bilder von φ und die Bilder von f stimmen überein), ist nur noch die Injektivität fraglich: Seien v + Kern(f ) und v′ + Kern(f ) verschiedene Nebenklassen. Hätten diese dasselbe Bild unter φ, so wäre f (v) = f (v′ ). Daraus ergäbe sich v−v′ ∈ Kern(f ), also v + Kern(f ) = v′ + Kern(f ), ein Widerspruch. ◻ Die Bedeutung eines Satzes kann man auch daran messen, ob er angenehme Folgen hat. Hier sind drei äußerst angenehme Folgen des Homomorphiesatzes: Dimensionsformel für lineare Abbildungen Sei f : V → W eine lineare Abbildung. Sei dim(V) = n. Dann gilt: dim(Kern( f )) + dim(Bild( f )) = n . Beweis Aus dem Homomorphiesatz und der zweiten Dimensionsformel ergibt sich dim(Bild( f )) = dim(V /Kern( f )) = dim(V ) − dim(Kern( f )) = n − dim(Kern( f )) . ◻ Damit kann man die Dimension des Lösungsraums eines homogenen Gleichungssystems bestimmen (erinnern Sie sich an Abschn. 4.1.3). Das geht wie folgt: Dimension des Lösungsraums Sei Ax = 0 ein homogenes lineares Gleichungssystem, wobei A eine m × n-Matrix ist. Dann gilt dim(L(A, )) = n − Rang(A) . 166 5 Lineare Abbildungen Beweis Wir fassen A als lineare Abbildung von K n nach K m auf und wenden die Dimensionsformel für lineare Abbildungen an. Nach Definition von L(A, 0) gilt Kern(A) = L(A, 0). Ferner ist Bild(A) gleich dem Erzeugnis der Spalten von A. (Denn das Bild des i-ten Einheitsvektors ist die i-te Spalte von A.) Mit der Dimensionsformel folgt daraus n = dim(Kern( f )) + dim(Bild( f )) = dim(L(A, )) + Rang(A) . ◻ Äquivalenz von Injektivität und Surjektivität Sei f eine lineare Abbildung eines endlichdimensionalen Vektorraums V in einen Vektorraum W. Wenn dim(V) = dim(W) ist, so gilt f injektiv ⇔ f surjektiv . Zum Nachweis der Bijektivität einer linearen Abbildung von V nach W braucht man also nur ihre Injektivität oder ihre Surjektivität zu zeigen. Die Voraussetzung dieses Satzes ist insbesondere für eine lineare Abbildung eines endlichdimensionalen Vektorraums in sich erfüllt. Beweis Es gilt f injektiv ⇔ Kern( f ) = {o} ⇔ dim(Bild( f )) = n ⇔ f surjektiv . ◻ Eine abschließende Bemerkung: Es ist im Allgemeinen keineswegs so, dass φ der einzige Isomorphismus zwischen V/Kern(f ) und Bild(f ) ist. Denn wir wissen: Wenn zwei Vektorräume isomorph sind, so ist jede lineare Abbildung, die eine Basis des einen auf eine Basis des anderen abbildet, ein Isomorphismus. Da es im Allgemeinen Myriaden von Basen gibt, gibt es im Allgemeinen also auch Myriaden von Isomorphismen. (Vergleichen Sie dazu auch Übungsaufgabe 15.) 5.4 Der Dualraum Nun betrachten wir nicht mehr nur eine oder zwei lineare Abbildungen, sondern alle linearen Abbildungen einer gewissen Art. Damit erobern wir uns eine höhere Abstraktionsebene und erhalten dementsprechend höhere Einsichten. Sei stets V ein n-dimensionaler K-Vektorraum. Wir betrachten lineare Abbildungen von V in den 1-dimensionalen K-Vektorraum K (vergleichen Sie dazu Abschn. 3.2.9). 5.4 Der Dualraum 167 Eine Linearform von V ist eine lineare Abbildung von V in K. Eine Linearform f ordnet also jedem Vektor v ein Körperelement f (v) so zu, dass gilt f (v + v ′ ) = f (v) + f (v ′) und f (kv) = k ⋅ f (v) für alle v, v ′ ∈ V , k ∈ K . Beispiel Sei V = R3 . Die Abbildung f von R3 in R, die einen Vektor (x, y, z) auf x+y+z abbildet, ist eine Linearform. Der Kern dieser Abbildung ist der Unterraum Kern( f ) = {(x, y, −x − y)∣x, y ∈ R} . Der Kern hat also die Dimension 2, ist daher „ziemlich groß“. Dies ist ein Phänomen, das auch im Allgemeinen gilt: Kern einer Linearform Sei f eine Linearform von V, die nicht die Nullabbildung ist. Dann hat Kern(f ) die Dimension n−1. Da f nicht die Nullabbildung ist, hat Bild(f ) mindestens die Dimension 1; da K aber 1-dimensional ist, folgt dim(Bild(f )) = 1. Nach der Dimensionsformel für lineare Abbildungen ergibt sich daraus dim(Kern(f )) = n−1. ◻ Wir bezeichnen die Menge aller Linearformen von V mit V* und nennen V* den zu V dualen Raum oder den Dualraum von V. (Dies hat höchstens indirekt mit dem in Abschn. 4.3 definierten „dualen Code“ zu tun!) Dieser Name ist eine Verpflichtung: Satz vom Dualraum Die Menge V* ist bezüglich der folgendermaßen definierten Verknüpfungen f +g und k ⋅ f ( f + g)(v) ∶= f (v) + g(v) und (k ⋅ f )(v) ∶= k ⋅ f (v) ein K-Vektorraum der Dimension n. Beweis Der Nachweis der Vektorraumeigenschaften ist einfach und wird Ihnen als Übung (siehe Übungsaufgabe 20) überlassen. Wie bitte? Sie protestieren? Das soll so eine üble k.o.-Formulierung sein („. . . ist einfach, wird als Übungsaufgabe . . . “), die den Studierenden den letzten Mut nimmt?? Ich würde meine Prinzipien verletzen??? 168 5 Lineare Abbildungen Nein, nein, nein!!! Das ist wirklich einfach! Soll ich’s Ihnen beweisen? Gut. Also, was müssen wir tun? Richtig, wir müssen die Vektorraumaxiome nachprüfen. Der Reihe nach: Ist die Summe zweier Linearformen wieder eine Linearform? Ist das skalare Vielfache einer Linearform wieder eine Linearform? Ist die Addition assoziativ? Was ist das Nullelement? (Das ist einfach: Die Nullabbildung ist eine Linearform; also wird es wohl schon die sein.) Was ist das „Negative“ einer Linearform f ? Auch das ist nicht schwierig; dies ist die Abbildung −f , die definiert ist durch (−f )(v) := −(f (v)). Ist die Addition kommutativ? . . . und jetzt kommen noch die Gesetze der Skalarmultiplikation . . . Da hab ich mich aber gründlich verschätzt, das sind ja mindestens drei Übungsaufgaben! Ich mache Ihnen ein Kompromissangebot: Weisen Sie einfach nur die Hälfte der Eigenschaften nach. Noch sind wir aber nicht fertig, denn wir müssen noch zeigen, dass V* die Dimension n hat. Dazu braucht man einen kleinen Trick: Zu jeder Basis B = {v1 , . . . , vn } von V erhalten wir auf die folgende Weise eine Basis B* = {v1 *, . . . , vn *} von V*: v ∗i (v j ) ∶= δ i j . Dabei hat das so genannte Kroneckersymbol δ ij die Werte 0 oder 1, und zwar nimmt δ ij den Wert 1 genau dann an, wenn i = j ist. Die Vorschrift vi *(vj ) := δ ij bedeutet also, dass vi * dem Vektor vi den Wert 1 zuordnet und allen anderen Basisvektoren vj den Wert 0. (Beachten Sie, dass man vi * – wie jede lineare Abbildung – nur auf den Vektoren der Basis B zu definieren braucht.) Die Menge B* heißt die zu B duale Basis. (Das Symbol δ ij ist nach Leopold Kronecker, 1823–1891, benannt.) Wenn wir gezeigt haben, dass B* eine Basis von V* ist, haben wir nachgewiesen, dass V* die Dimension n hat. • B* ist linear unabhängig: Sei k1 v1 * + k2 v2 * + . . . + kn vn * = 0. Das bedeutet, dass k1 v1 * + k2 v2 * + . . . + kn vn * die Nullabbildung ist. Dann macht diese Linearform insbesondere all die Vektoren v1 , v2 , . . . , vn zu Null. Daher gilt für alle i = 1, . . . , n: = [k v ∗ + k v ∗ + . . . + k n v n∗ ](v i ) = k v ∗ (v i ) + k v ∗ (v i ) + . . . + k n v n∗ (v i ) = k i ⋅ . Also ist ki = 0. Somit sind die Vektoren aus B* linear unabhängig. (Machen Sie sich jedes Gleichheitszeichen in der obigen Gleichung explizit klar!) • B* ist ein Erzeugendensystem von V*: Sei f eine beliebige Linearform. Wir wissen, dass f durch Vorgabe der Werte von f auf den Vektoren aus B eindeutig festgelegt ist. Sei also f (v i ) ∶= a i (i = , . . . , n) . Dann folgt f = a1 v1 * + a2 v2 *+ . . . +an vn *, da die Linearformen auf beiden Seiten der behaupteten Gleichung auf den Vektoren aus B übereinstimmen. ◻ 5.4 Der Dualraum 169 Der obige Satz sagt insbesondere, dass V und V* isomorph sind und dass die folgendermaßen definierte Abbildung φ ein Isomorphismus ist: φ(k v + . . . + k n v n ) ∶= k v ∗ + . . . + k n v n∗ . Sei {v1 , v2 , . . . , vn } eine Basis von V, und sei {v1 *, v2 *, . . . , vn *} die zugehörige duale Basis. Ist v = k1 v1 + . . . +kn vn ∈ V, so bezeichnen wir die Linearform k1 v1 * +. . . + kn vn * mit v*. Wir können leicht das Bild eines beliebigen Vektors v unter einer beliebigen Linearform f ausrechnen: Dazu stellen wir v als Linearkombination der vi und f als Linearkombination der vj * dar: v = k v + k v + . . . + k n v n , f = a v ∗ + a v ∗ + . . . + a n v n∗ . Dann rechnet man ohne Schwierigkeiten nach, dass gilt f (v) = a k + a k + . . . + a n k n . Ihnen mag vielleicht die rechte Seite der letzten Gleichung wie ein „Skalarprodukt“ vorkommen, Sie werden aber wahrscheinlich Ihrer Vorstellung nicht trauen, weil die linke Seite ja wie etwas ganz anderes aussieht. Im Schlusskapitel 10 werden wir uns aber klarmachen, dass Ihre Vorstellung – wie könnte es anders sein – richtig ist! Durch Linearformen erhält man tatsächlich ein „Skalarprodukt“. Natürlich kann man das Spiel mit dem Dualraum beliebig lange weiterspielen: Man kann (wenn man möchte) den Dualraum des Dualraums definieren (das sind die linearen Abbildungen von V* nach K), ihm einen Namen geben (man nennt ihn den Bidualraum von V (bi: zwei) und bezeichnet ihn mit V**) usw. Da dim(V*) = dim(V) ist, folgt auch dim(V**) = dim(V*) = dim(V). Also sind V** und V isomorph. Es stellt sich aber heraus, dass V** und V in besonders „natürlicher“ Weise isomorph zueinander sind. Das beweisen wir noch – um daraus die Berechtigung abzuleiten, später nur noch V und V* zu betrachten. Um nachzuweisen, dass V und V** isomorph sind, müssen wir jedem Vektor v ∈ V ein Element v** ∈ V** bijektiv zuordnen. Was ist v**? Antwort: v** muss ein Element aus V** sein, also eine Abbildung, die jeder Linearform f ∈ V* ein Element aus K zuordnet. Das heißt v**(f ) muss ein Element aus K sein. Nach dieser Analyse, was zu tun ist, können wir uns jetzt fragen, was die naheliegendste Möglichkeit ist, dem Symbol v**(f ) ein Körperelement zuzuordnen. Nach kurzem Nachdenken und ein bisschen Mut zur Einfachheit (eine Grundvoraussetzung für jeden Mathematiker!) fällt auch Ihnen bestimmt nichts Besseres ein, als zu definieren: v ∗∗ ( f ) ∶= f (v) . Klar! f (v) ist ja aus K, da f eine Linearform ist. Jetzt kann uns nichts und niemand mehr aufhalten, den zugehörigen Satz zu formulieren und zu beweisen: 170 5 Lineare Abbildungen „Natürlicher Isomorphismus“ des Bidualraums Sei V ein (endlichdimensionaler) Vektorraum. Dann ist die folgendermaßen definierte Abbildung φ ein Isomorphismus von V auf V**: φ(v) ∶= v ∗∗ , wobei die Abbildung v** durch v**(f ) := f (v) definiert ist. Beweis Wir müssen zeigen, dass φ(v) tatsächlich in V** liegt und dass φ linear und bijektiv ist. „v** = φ (v) liegt in V**“: Wir haben uns oben schon klargemacht, dass v** tatsächlich eine Abbildung von V** nach K ist. Wir müssen also noch zeigen, dass v** linear ist. Dazu betrachten wir zwei Linearformen f und g sowie ein Körperelement k. Es ist zu zeigen, dass v**(f +g) = v**(f ) + v**(g) und v**(kf ) = kv**(f ) gilt. Dies folgt so: v ∗∗ ( f + g) = ( f + g)(v) = f (v) + g(v) = v ∗ ∗( f ) + v ∗∗ (g) und v ∗∗ (k f ) = (k f )(v) = k ⋅ f (v) = k ⋅ v ∗∗ ( f ) . (Machen Sie sich bei jedem Gleichheitszeichen klar, warum dies gilt!) „φ ist linear“: Seien v, w ∈ V, und sei k ∈ K. Wir zeigen die Gleichheit von φ(v+w) und φ(v) + φ(w), indem wir zeigen, dass diese beiden Abbildungen aus V** eine Linearform f gleich abbilden: φ(v + w)( f ) = (v + w)∗∗ ( f ) = f (v + w) = f (v) + f (w) = v ∗∗ ( f ) + v ∗∗ (w) = φ(v) + φ(w) . Entsprechend zeigt man die Gleichheit von φ(kv) und k φ(v): φ(kv)( f ) = (kv)∗ ( f ) = f (kv) = k ⋅ f (v) = k ⋅ v ∗∗ ( f ) = k ⋅ φ(v)( f ) . „φ (v) ist bijektiv“: Wegen der Äquivalenz von Injektivität und Surjektivität einer linearen Abbildung müssen wir nur zeigen, dass φ injektiv ist. Dazu genügt es, folgendes zu zeigen: Ist v ≠ o, so ist auch φ(v) = v** ≠ 0. Sei also v ein von Null verschiedener Vektor von V. Wir müssen zeigen, dass es eine Linearform f gibt mit v**(f ) ≠ 0. Dazu ergänzen wir v zu einer Basis B von V und definieren eine Linearform f dadurch, dass wir festlegen: f soll auf allen Vektoren von B den Wert 1 annehmen. Dann ist v ∗∗ ( f ) = f (v) = . Damit ist alles gezeigt. ◻ 5.5 Verständnisfragen, Übungen und Tipps 5.5 171 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Lineare Abbildungen Sei f eine lineare Abbildung von Rm in Rn . Dann gilt: ◻ n ≤ m, ◻ m ≤ n, ◻ m = n. ◻ Nur der Nullvektor wird auf den Nullvektor abgebildet. ◻ Es gibt genau drei lineare Abbildungen von R3 nach R3 . ◻ Es gibt unendlich viele lineare Abbildungen von Rm nach Rn . ◻ Es gibt unendlich viele lineare Abbildungen von R nach R. 2. Thema: Lineare Abbildungen Sei f eine lineare Abbildung eines Vektorraums V in einen Vektorraum W. Dann gilt: ◻ f (o) = o. ◻ f (1) = 1. ◻ f (−v) = −f (v) für alle v ∈ V. ◻ f (−v) = −f ⋅ v für alle v ∈ V. ◻ f (kv) = f (k) + f (v) für alle k ∈ K und alle v ∈ V. ◻ f (k ⋅ v) = f (k) ⋅ f (v) für alle k ∈ K und alle v ∈ V. ◻ Bild(f ) = W. 3. Thema: Kern einer linearen Abbildung Sei U der Kern einer linearen Abbildung f : V → W. Dann gilt: ◻ U = {w ∈ W ∣ f (w) = o}. ◻ U = {w ∈ V ∣ f (w) = o}. ◻ U = {f (v) ∣ v = o}. ◻ U = {v ∣ v = o}. ◻ U = {v ∈ V ∣ f (v) = 1}. ◻ Ist f eine Projektion aus W 0 auf U, so ist Kern(f ) = Bild(f ). ◻ Ist f eine Projektion aus W 0 auf U, so sind Kern(f ) und Bild(f ) komplementär. 4. Thema: Rang einer linearen Abbildung Der Rang einer linearen Abbildung f : V → W ist gleich: ◻ dim(V), ◻ dim(W), ◻ dim(W)−dim(V), ◻ dim(Bild(f )), ◻ dim(Kern(f )), ◻ der Rang einer geeigneten Darstellungsmatrix von f , ◻ der Rang jeder Darstellungsmatrix von f . 172 5 Lineare Abbildungen 5. Thema: Linearformen Eine Linearform des K-Vektorraums V ist ◻ eine Abbildung von V in V, ◻ eine Abbildung von K in V, ◻ eine Abbildung von V in K, ◻ eine Abbildung von K in K, ◻ der Übergang von v auf v*, ◻ ein Vektor aus V, ◻ ein Körperelement. Übungsaufgaben 1. Seien V und W Vektorräume über dem Körper K, und sei w0 ∈ W. Zeigen Sie: Die folgendermaßen definierte Abbildung f (v) ∶= w von V nach W ist genau dann eine lineare Abbildung, wenn w0 = o ist. 2. Sind die folgenden Abbildungen f : R3 → R2 , g: R2 → R2 , h: R2 → R3 lineare Abbildungen? Wenn nein, warum nicht? f ∶ (a, b, c) ↦ (ab, a + b), g ∶ (a, b) ↦ (a + , b + a + ), h ∶ (a, b) ↦ (a + b, b − a, ) . 3. Sei f eine lineare Abbildung des K-Vektorraums V in den K-Vektorraum W. (a) Seien v1 , v2 , v3 Vektoren aus V. Zeigen Sie: f (v1 + v2 + v3 ) = f (v1 ) + f (v2 ) + f (v3 ). (b) Seien v1 , . . . , vs Vektoren aus V und k1 , . . . , ks Elemente von K. Dann gilt: s s i= i= f (∑ k i v i = ∑ k i f (v i )) . 4. Sei f : V → W eine lineare Abbildung, sei {v1 , . . . , vn } eine Basis von V und seien die Vektoren wi ∈ W definiert durch wi := f(vi ). Zeigen Sie: Wenn f injektiv ist, so sind die Vektoren w1 , . . . , wn linear unabhängig. 5. Sei f : V → W eine lineare Abbildung, sei {v1 , . . . , vn } eine Basis von V und seien die Vektoren wi ∈ W definiert durch wi := f (vi ). Zeigen Sie: Wenn f surjektiv ist, so ist {w1 , . . . , wn } ein Erzeugendensystem von W. 6. Geben Sie sämtliche linearen Abbildungen von GF(2)2 → GF(2)2 an. 7. Machen Sie sich klar, dass der Ableitungsoperator aus der Analysis eine lineare Abbildung ist. (Legen Sie zunächst Definitions- und Bildbereich fest.) 5.5 Verständnisfragen, Übungen und Tipps 173 8. Sei f : R3 → R3 die folgendermaßen definierte Abbildung: f ∶ (x, y, z) ↦ (x + y + z, y + z, −x + y + z) . Zeigen Sie, dass f eine lineare Abbildung ist. Bestimmen Sie Kern(f ) und Bild(f ). 9. Bestimmen Sie Kern und Bild der linearen Abbildung f : R3 → R3 , die durch folgende Angaben definiert ist: f (, , ) ∶= (−, , ), f (, , ) ∶= (, , ), f (, , ) ∶= (, , −) . 10. Sei f : R3 → R3 die folgendermaßen definierte Abbildung: f ∶ (x, y, z) ↦ (x − y + z, −y + z, −x + y − z) . (a) Zeigen Sie: f ist eine lineare Abbildung. (b) Berechnen Sie die Darstellungsmatrizen B MC (f ) von f bezüglich folgender Basen: B = C = {(, , ), (, , ), (, , )} und B = C = {(−, , ), (−, , ), (−, , )} . 11. Sei f : R3 → R3 die folgendermaßen definierte Abbildung von R3 nach R3 : f ∶ (x, y, z) ↦ (−x − y − z, x + y + z, −x − y − z) . Bestimmen Sie die Darstellungsmatrizen B M B (f ) und B ′ M B ′ (f ) mit (a) B = {(1, 0, 0), (0, 1, 1), (−1, 0, 1)}, und (b) B′ = {(3, −1, 0), (−1, −1, 1), (−3, 2, −1)}. (c) Berechnen Sie B M B ′ (id) und B ′ M B (id). (d) Verifizieren Sie, dass gilt B′ M B′ ( f ) =B M B′ (id) ⋅B M B ( f ) ⋅B′ M B (id) . Bestimmen Sie eine Basis von Kern(f ) und eine Basis von Bild(f ). Welche Dimension hat R3 /Kern(f ) ? 12. Sei A die Darstellungsmatrix einer linearen Abbildung f . Zeigen Sie: Der von den Spalten von A aufgespannte Unterraum von K m ist isomorph zu Bild(f ). 13. Sei V ein n-dimensionaler Vektorraum, und sei {v1 , v2 , . . . , vn } eine Basis von V. Sei f die durch f (v i ) = a ⋅ v i + ∑ v j i≠ j 174 5 14. 15. 16. 17. Lineare Abbildungen definierte lineare Abbildung von V in sich. Bestimmen Sie die Dimension von Bild(f ). Sei V ein beliebiger Vektorraum einer Dimension ≥ 2 über einem beliebigen Körper. Geben Sie eine lineare Abbildung von V in sich an, die nicht injektiv ist und eine, die nicht surjektiv ist. Geben Sie diejenigen Vektorräume V an, in denen es genau eine bijektive lineare Abbildung von V in sich gibt. Für welche Vektorräume V und W gibt es nur einen Isomorphismus von V nach W. Zeigen Sie, dass Ähnlichkeit eine Äquivalenzrelation auf der Menge der n × nMatrizen ist. Sei V = K 3 × 3 der Vektorraum aller 3 × 3-Matrizen über einem Körper K. Zeigen Sie, dass die Abbildung f : V → K, die durch ⎛ a f ⎜a ⎝ a a a a a ⎞ a ⎟ ∶= a + a + a a ⎠ definiert ist, eine lineare Abbildung ist. Geben Sie eine Basis von Kern(f ) an. (Man nennt die Summe der Diagonalelemente einer quadratischen Matrix M die Spur von M; obige Abbildung heißt auch die Spurabbildung.) 18. Sei V = K 2 × 2 der Vektorraum aller 2 × 2-Matrizen über einem Körper K. Zeigen Sie, dass die Abbildung f : V → K, die durch f( a a a ) ∶= a + a + a + a a definiert ist, eine lineare Abbildung ist. Geben Sie eine Basis von Kern(f ) an. 19. Sei V = K 3 × 3 der Vektorraum aller 3 × 3-Matrizen über einem Körper K. (a) Zeigen Sie, dass die Abbildung f : V → K 3 , die durch ⎛ a f ⎜ a ⎝ a a a a a ⎞ ⎛a + a + a ⎞ a ⎟ ∶= ⎜a + a + a ⎟ a ⎠ ⎝a + a + a ⎠ definiert ist, eine lineare Abbildung ist. (b) Bestimmen Sie die Dimension von Bild(f ) und von Kern(f ). (c) Geben Sie eine Basis von Kern(f ) an. 20. Zeigen Sie, dass der Dualraum V* eines K-Vektorraums V seinerseits ein KVektorraum ist. Projekt: Hom (V, W) In diesem Projekt soll die Menge aller linearen Abbildungen (Homomorphismen) eines K-Vektorraums V in einen K-Vektorraum W untersucht werden. Diese Menge wird mit 5.5 Verständnisfragen, Übungen und Tipps 175 Hom(V, W) bezeichnet: Hom(V , W) = { f ∶ V → W ∣ f ist lineare Abbildung}. 1. Zeigen Sie, dass Hom(V, W) ein K-Vektorraum ist. Definieren Sie dazu zunächst die Addition und die Skalarmultiplikation. 2. Zeigen Sie: Sei dim(V) = n, dim(W) = m. Dann hat der Vektorraum Hom(V, W) die Dimension n ⋅ m. Geben Sie eine Basis von Hom(V, W) an. Da zu jeder linearen Abbildung von V nach W eine m × n-Matrix gehört, und da K m × n ebenfalls die Dimension mn hat, könnte man vermuten, dass dieser Raum isomorph zu Hom(V, W) ist. Dies ist tatsächlich der Fall: 3. Zeigen Sie: Hom(V, W) ist isomorph zu K m × n . Geben Sie einen Isomorphismus an. Gibt es einen Isomorphismus, den Sie als „natürlich“ bezeichnen würden? Sie sollten mit folgenden Begriffen umgehen können Lineare Abbildung, Homomorphismus, Bild, Kern, Projektion, Darstellungsmatrix, Darstellungssatz, Basistransformation, Homomorphiesatz, Dimensionsformel für lineare Abbildungen, Linearform, Dualraum, duale Basis. 6 Polynomringe Polynomringe spielen in der Algebra eine ausgesprochene Hauptrolle. In der Linearen Algebra kommen sie nur an einer, allerdings entscheidenden Stelle ins Spiel, nämlich bei der Frage der Diagonalisierbarkeit linearer Abbildungen (Kap. 8). Dort treten das „charakteristische Polynom“ und das „Minimalpolynom“ auf. Insbesondere zur Definition und zum Studium des Minimalpolynoms braucht man gründliche Kenntnisse über Polynomringe. Außerdem behandeln wir Polynomringe auch deswegen relativ ausführlich, weil sie ein grundlegendes (und sehr schönes) Stück Mathematik sind. 6.1 Ringe Der Begriff des Rings verallgemeinert den Begriff des Körpers. Ein Ring besteht aus einer Menge R von Elementen zusammen mit zwei Verknüpfungen + und ⋅ , die je zwei Elementen x, y ∈ R wieder ein Element x + y bzw. x ⋅ y von R zuordnen. Damit eine solche Struktur Ring genannt wird, müssen die folgenden drei Gruppen von Gesetzen für alle Elemente x, y, z ∈ R erfüllt sein: 6.1.1 Gesetze der Addition • Assoziativität: (x + y) + z = x + (y + z) . • Existenz und Eindeutigkeit des neutralen Elements: Es gibt genau ein Element von R, das wir 0 („Nullelement“) nennen, für das gilt +x = x . A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_6, © Springer Fachmedien Wiesbaden 2014 177 178 6 Polynomringe • Existenz und Eindeutigkeit inverser Elemente: Zu jedem x gibt es genau ein Element, das wir −x nennen, für das gilt x + −x = . • Kommutativität: x+y= y+x . 6.1.2 Gesetz der Multiplikation • Assoziativität: x ⋅ (y ⋅ z) = (x ⋅ y) ⋅ z 6.1.3 Distributivgesetze x ⋅ (y + z) = x ⋅ y + x ⋅ z , (x + y) ⋅ z = x ⋅ z + y ⋅ z . Es ist klar, dass jeder Körper ein Ring ist. Was aber fehlt einem Ring zum Körper? Vor allem zwei Dinge: Die Existenz eines Einselements, also eines neutralen Elements bezüglich der Multiplikation, und die Existenz inverser Elemente. Während die meisten Ringe ein Einselement besitzen (vergleichen Sie die Beispiele, die wir gleich anschließend behandeln), erweist sich die Existenz (genauer gesagt: die Nichtexistenz) multiplikativ inverser Elemente als Hauptdefizit von Ringen. (Man kann das natürlich auch anders sehen: Gerade das macht Ringe so interessant!) Eine Bemerkung zur Namengebung: Die Bezeichnung „Ring“ für einen Ring soll nicht etwas „Rundes“ assoziieren, sondern einen Zusammenschluss von Elementen zu einem Ganzen. Diese Bedeutung des Wortes „Ring“ ist in der deutschen Sprache fast vollständig ausgestorben; sie ist nur noch in altertümlichen Vereinsbezeichnungen wie „Deutscher Ring“, „Weißer Ring“, „RCDS“, . . . zu finden. Wir betrachten zunächst die wichtigsten Beispiele von Ringen. Das erste Beispiel ist uns schon längst vertraut (vergleichen Sie hierzu Abschn. 2.2.3). Die Menge Z der ganzen Zahlen ist zusammen mit der gewöhnlichen Addition und Multiplikation ein Ring. Dieser Ring hat ein Einselement (nämlich die Zahl 1) und ist kommutativ (das bedeutet, dass auch die Multiplikation kommutativ ist). Sei n eine natürliche Zahl. Mit Zn bezeichnen wir die Struktur, die aus der Menge der Zahlen 0, 1, . . . , n−1 und den Operationen +n und ⋅n besteht, die wie folgt definiert sind: a +n b = a + b mod n, a ⋅n b = a ⋅ b mod n . 6.2 Was ist eigentlich x? 179 Man nennt Zn den Restklassenring modulo n. Diese Strukturen sind die zweite wichtige Klasse von Ringen: Die Menge Zn ist zusammen mit +n und ⋅n ein Ring. Dieser Ring hat ein Einselement und ist kommutativ. (Diese Tatsache ergibt sich ebenso wie die erste durch einfaches Nachrechnen; siehe Übungsaufgabe 1.) Wir geben eine weitere wichtige Klasse von Ringen an. Sei K n × n die Menge aller n × nMatrizen über dem Körper K mit der üblichen Matrizenaddition und -multiplikation als Verknüpfung. Satz über Matrizenringe Die Menge K n × n ist zusammen mit der Matrizenaddition und -multiplikation ein Ring; dieser hat ein Einselement, ist aber für n ≥ 2 nicht kommutativ. Dass K n × n ein Ring ist, ergibt sich ganz einfach (siehe Übungsaufgaben 2 und 3). Um zu zeigen, dass dieser Ring nicht kommutativ ist, genügt es, zwei Matrizen A und B anzugeben mit AB ≠ BA; im Fall n = 2 sieht man etwa ( )⋅( )=( )≠( )=( )⋅( ) . ◻ Die (für uns) wichtigste Klasse von Ringen sind jedoch die Polynomringe; deshalb behandeln wir diese auch in einem eigenen Abschnitt. 6.2 Was ist eigentlich x? Jeder glaubt zu wissen, was ein Polynom ist. Zum Beispiel ist x2 −1 ein Polynom. Aber: Was bedeutet dabei eigentlich das Symbol x? Es heißt, das sei eine „Unbekannte“; manche nennen x auch „Variable“. In der Schule heißt es auch, x sei ein „Platzhalter“. Als Mathematiker muss man aber doch fragen: Was ist eigentlich x in Wirklichkeit? Jedenfalls muss man auf eine solche Frage gefasst sein – und eine Antwort darauf wissen. Eine Zahl? Ein Vektor? Eine Folge? Eine Matrix? Eine Menge? Irgendetwas muss es doch sein! Wir werden in diesem Abschnitt den mystischen Schleier von x entfernen. Anschließend werden Sie genau sagen können, was x ist – und von da an genauso mit Polynomen rechnen können wie bisher – aber guten Gewissens! Wir beginnen mit einer Struktur, die scheinbar gar nichts mit Polynomen zu tun hat. Sei stets K ein kommutativer Körper. Wir betrachten die Menge V ∞ aller unendlichen Folgen (a0 , a1 , a2 , . . . ) mit Elementen aus K, die nur endlich viele Komponenten ≠ 0 haben. (Vergleichen Sie dazu den Abschn. 3.2.5 und das Projekt am Ende von Kap. 3.) 180 6 Polynomringe Sie erinnern sich sicher, dass dieser Vektorraum zwar unendliche Dimension hat, wir ihn aber gut beschreiben können. Insbesondere erinnern wir uns daran, dass die Menge B = {e i ∣i ∈ N} eine Basis von V ∞ ist, wobei ei die Folge ist, die nur an der i-ten Stelle eine 1 hat und sonst aus Nullen besteht. Wir führen jetzt zusätzlich eine Multiplikation auf V ∞ ein. Seien f = (a , a , a , . . . , a n , , . . .) und g = (b , b , b , . . . , b m , , . . .) Elemente von V ∞ . Das Produkt f ∈ g ist definiert als die Folge f ⋅ g = (c0 , c1 , c2 , . . . ) mit k c k = a b k + a b k− + . . . + a k− b + a k b (= ∑ a i b k−i ) . i= Bevor Sie sich über diese Multiplikationsvorschrift zu wundern anfangen, beweisen wir schnell einen Satz, der eine erste Rechtfertigung für diese Multiplikationsvorschrift ist. Satz über den Polynomring Der Vektorraum V ∞ ist mit der komponentenweisen Addition und der eben definierten Multiplikation ein kommutativer Ring; das Einselement ist die Folge (1, 0, 0, . . . ). Beweis Da die Addition komponentenweise definiert ist, ergeben sich die Gesetze der Addition für V ∞ aus denen von K. Zu den Gesetzen der Multiplikation: Dazu zeigen wir zunächst, dass f ⋅ g tatsächlich wieder in V ∞ liegt: Ist nämlich k > m + n, so treten in der Summe k c k = ∑ a i b k−i i= nur Summanden ai bj auf mit i > n oder j > m. Also ist ai = 0 oder bj = 0. Das heißt: Wenn k > m + n ist, so gilt ck = 0. Also hat die Folge f ⋅ g an höchstens m + n Stellen einen von Null verschiedenen Wert, und somit ist f ⋅ g ∈ V ∞ . Der Nachweis des Assoziativgesetzes ist zwar (technisch gesehen) völlig trivial, da man letztlich alles auf die Assoziativität der Basiselemente zurückführen kann, aber außerordentlich mühsam; wir ersparen uns daher diese Tortur; ich empfehle Ihnen dies nicht als Übung. 6.2 Was ist eigentlich x? 181 Schließlich zeigen wir noch die Distributivgesetze. Seien dazu f = (a0 , a1 , a2 , . . . ), g = (b0 , b1 , b2 , . . . ) und h = (c0 , c1 , c2 , . . . ) Elemente von V ∞ . Dann ist die k-te Komponente dk von f (g + h) gleich k d k = ∑ a i (b k−i + c k−i ) . i= Da die k-te Komponente ek von f ⋅ g + f ⋅ h gleich k k i= i= e k = ∑ a i b k−i + ∑ a i c k−i ist, ist die Behauptung f ⋅ (g + h) = f ⋅ g + f ⋅ h bewiesen. Entsprechend zeigt man das andere Distributivgesetz. ◻ Nun betrachten wir spezielle Elemente von V ∞ . Die einfachsten Elemente sind die Folgen der Form (a, 0, . . . ) mit a ∈ K. Für diese gilt (a, , . . .) ⋅ f = a ⋅ f f ⋅ (a, , . . .) = a ⋅ f und für alle f ∈ V∞ . Warum? Sei f = (b0 , b1 , b2 , . . . ). Dann ist die k-te Komponente ck von (a, 0, . . . ) ⋅ f gleich k c k = ∑ a i b k−i = ab k . i= Entsprechend folgt f ⋅ (a, 0, . . . ) = a ⋅ f . ◻ Aufgrund dieser Tatsache können wir die Folge (a, 0, . . . ) mit dem Körperelement a identifizieren. Dies soll hinfort auch geschehen: a = (a, 0, 0, . . . ). Insbesondere halten wir fest, dass das Element 1 = (1, 0, 0, . . . ) ein neutrales Element bezüglich der Multiplikation, also ein Einselement ist. Aber viel interessanter sind die Folgen des Typs ei , also neben 1 (= (1, 0, 0, . . . )) die Folgen e1 = (0, 1, 0, . . . ), e2 = (0, 0, 1, 0, . . . ) usw. Was passiert, wenn wir diese miteinander multiplizieren? Was ist es ⋅ et ? Was ist e1 2 , e1 3 ? Dies können wir einfach ausrechnen: Sei es ⋅ et = (c0 , c1 , c2 , . . . ). Um die Koeffizienten ck zu bestimmen, müssen wir die Produkte ai bj mit i + j = k berechnen. Da in es bzw. et nur der Koeffizient as bzw. bt verschieden von Null ist, ist jedenfalls ck = 0, falls k ≠ s + t ist. Im Fall k = s + t ist auch nur ein Summand ungleich Null, nämlich as ⋅ bt = 1 ⋅ 1 = 1. Somit ergibt sich es ⋅ et = es+ t . Insbesondere ist e = e , e = e ⋅ e = e , . . . , e n = e n . Wenn wir noch e1 0 := e0 setzen, ergibt sich, dass die Menge B = {e n ∣n = , , , . . .} unsere wohlbekannte Basis von V ∞ ist. 182 6 Polynomringe Jetzt kommt’s! Wir definieren einfach x ∶= e . Das ominöse x ist also nicht mehr als eine Abkürzung für eine spezielle Folge, nämlich x = (, , , , . . .) . Die obigen Überlegungen sagen, dass die Menge {x0 (= 1), x, x2 , x3 , . . . } eine Basis des Vektorraums V ∞ ist. Daher können wir jedes Element f = (a0 , a1 , a2 , . . . , an , 0, . . . ) von V ∞ eindeutig als Linearkombination dieser Basis darstellen; es ergibt sich f = a ⋅ x + a ⋅ x + a ⋅ x + . . . + a n ⋅ x n . Das kommt Ihnen sicher schon sehr vertraut vor! Nun holen wir tief Luft und definieren ganz mutig: Der Vektorraum V ∞ wird ab jetzt mit K[x] bezeichnet und heißt der Polynomring in der Unbestimmten x. Jedes Element von K[x] wird ein Polynom (über K) genannt. Wenn f = a ⋅ x + a x + a x + . . . + a n x n ein Polynom ist, so heißen die Körperelemente a0 , a1 , . . . , an die Koeffizienten des Polynoms f . Statt a0 ⋅ x0 schreiben wir auch einfach a0 . Die Folge (0, 0, . . . ) wird als Nullpolynom bezeichnet. Ist f = a ⋅ x + a ⋅ x + a ⋅ x + . . . + a n ⋅ x n ein Polynom, und ist an ≠ 0, so heißt n der Grad des Polynoms f ; wir schreiben n = Grad(f ); das Nullpolynom hat den Grad − ∞ . Polynome sind also – wie gewohnt – Ausdrücke wie etwa x2 −1, 7x5 + 3x2 + x + 1. Die Multiplikationsregel für Folgen in V ∞ überträgt sich ganz einfach auf die (vertraute!) Vorschrift zur Multiplikation von Polynomen: Das Produkt der Polynome f = a + a ⋅ x + a ⋅ x + . . . + a n ⋅ x n und g = b + b ⋅ x + b ⋅ x + . . . + bn ⋅ x n ist ein Polynom h = c0 + c1 x + c2 x2 + . . . mit k c k = ∑ a i b k−i . i= Statt f ⋅ g schreiben wir oft einfach auch fg. Machen wir uns das an einem Beispiel nochmals klar: Sei f = x3 + 2x2 + 2x + 1 und g = x−3. Dann kann man f ⋅ g = (x3 + 2x2 + 2x + 1) ⋅ (x−3) so ausrechnen, dass man zunächst f 6.2 Was ist eigentlich x? 183 mit x und dann f mit −3 multipliziert und dann die beiden Zwischenergebnisse zusammenzählt. Das bedeutet: f ⋅ g = (x + x + x + ) ⋅ (x − ) = (x + x + x + ) ⋅ x + (x + x + x + ) ⋅ (−) = [x + x + x + x] + [−x + −x − x − ] = x − x − x − x − . Man tut also so, als ob man mit dem Symbol x „einfach so“ rechnen könnte. Das sollten Sie nach den bisherigen Überlegungen zwar nicht mehr in aller Unschuld, aber dafür umso überzeugter tun. Auf eine kleine Finesse möchte ich Sie hinweisen: Bei der Berechnung des ersten Summanden geht alles seinen ordentlichen Gang: (x + x + x + ) ⋅ x = x ⋅ x + x ⋅ x + x ⋅ x + ⋅ x = x + x + x + x , . . . aber wenn Sie bei der Berechnung des zweiten Summanden . . . (x + x + x + ) ⋅ (−) = x ⋅ (−) + x ⋅ (−) + x ⋅ (−) + ⋅ (−) . . . (scheinbar) genau aufpassen, so stellen Sie sich an dieser Stelle vielleicht die kritische Frage, ob (und wenn ja warum) Sie die −3 nach vorne ziehen dürfen. Mit anderen Worten: Warum dürfen Sie x mit jedem Körperelement vertauschen? Weil Sie das schon immer so gemacht haben? Weil dies nutzlose Haarspaltereien sind und Sie sich weigern, dabei mitzumachen? Weil K kommutativ ist? – Nichts von alledem! Die Antwort lautet: Weil wir das so definiert haben! Das wollen Sie genau wissen? Bitte schön: Was ist x? Nach Definition ist x die Folge (0, 1, 0, 0, . . . ). Was ist also das Produkt eines beliebigen Körperelements k (zum Beispiel k = −3) mit x? Ganz einfach: Die Folge (0, k, 0, 0, . . . ). Wie lautet diese Folge in Polynomschreibweise? Noch einfacher: k ⋅ x. – Sehen Sie: x ⋅ k = k ⋅ x. Bemerkung Bis zu dieser Stelle hätte man Polynomringe auch allgemeiner entwickeln können, und zwar so, dass man anstelle des Körpers K einen kommutativen Ring R zugrundelegt. Dann hätte man die Elemente von R[x] definiert als Folgen (r0 , r1 , . . . ), bei denen höchstens endlich viele Komponenten ungleich Null sind; die Addition hätte man komponentenweise erklärt und die Multiplikation auf die uns nun schon vertraute, nur scheinbar komplizierte Weise. Dann hätten wir beweisen können, dass R[x] ein kommutativer Ring ist. Wieder hätte man x definiert als die Folge (0, 1, 0, 0, . . . ); dann lässt sich auch jedes Element f von R[x] eindeutig in der Form f = r + r x + r x + . . . + rn x n (für eine natürliche Zahl n) schreiben (siehe Übungsaufgabe 7). Ein solches Vorgehen ist sinnvoll, wenn man auch Polynome in mehreren Veränderlichen studieren möchte. Wenn man zum Beispiel den Polynomring in der Unbestimmten 184 6 Polynomringe x und y über einem Körper K konstruieren will, so konstruiert man zunächst K[x], fasst dann K[x] als Ring R auf und bildet R[y] = K[x][y] und nennt dieses Gebilde K[x, y] (siehe Übungsaufgabe 8). Ab jetzt müssen wir aber voraussetzen, dass wir einen Polynomring über einem Körper K haben. Schon der nächste Satz ist im Allgemeinen für Ringe falsch. Gradformel für Polynome Seien f und g Polynome vom Grad n und m aus K[x], wobei K ein Körper ist. Dann hat f ⋅ g den Grad n + m. Beweis Seien f und g wie oben, aber verschieden vom Nullpolynom, und sei h = f ⋅ g = c0 + c1 x + c2 x2 + . . . das Produkt von f und g. Ist k > m + n, so ist k c k = ∑ a i b k−i i= gleich Null, da in jedem Summanden ai bj entweder i > n oder j > m ist (oder beides), und also ai bj = 0 ist. Also hat h = fg höchstens den Grad n + m. Da sich aber cn +m = an bm ≠ 0 ergibt, hat fg tatsächlich den Grad n + m. Beachten Sie, dass wir an bm ≠ 0 schließen konnten, weil K\{0} bezüglich der Multiplikation abgeschlossen ist („Nullteilerfreiheit“; vergleichen Sie hierzu Abschn. 2.1.3). Ist f oder g das Nullpolynom, so ist auch fg das Nullpolynom, und die Behauptung gilt ebenfalls. ◻ Invertierbare Polynome Die einzigen invertierbaren Polynome aus K[x] sind die Polynome vom Grad 0, also die konstanten Polynome a ∈ K\{0}. Beweis Sei f ein invertierbares Polynom. Das bedeutet, dass es ein Polynom g gibt mit f ⋅ g = 1. Da das konstante Polynom 1 den Grad 0 hat, müssen nach der Gradformel auch die Polynome f und g einen Grad ≤ 0 haben. Da f nicht das Nullpolynom sein kann, muss f also den Grad 0 haben. ◻ Wir haben jetzt noch einen Begriff zu klären, der nicht ganz einfach ist, mit dem wir aber vertraut sein müssen. Es handelt sich darum, dass man gewohnt ist, in Polynome konkrete Werte „einsetzen“ zu dürfen. Was soll das bedeuten? Zunächst scheint das ganz einfach zu sein: Statt x schreibt man das, was man einsetzen möchte. 6.2 Was ist eigentlich x? 185 An dieser Stelle sollte sich Ihr Gewissen zu Wort melden. Sie wissen genau, was x ist, nämlich eine unendliche Folge von Elementen aus K. Es kann doch nicht angehen, dass man anstelle dieses komplexen Objekts einfach eine Zahl schreibt (und dann die Augen zumacht und hofft, alles würde gut gehen)! Das ist ja schlimmer als lechts und rinks zu velwechsern! Man möchte aber Elemente in Polynome einsetzen, viel schlimmer: Wir möchten nicht nur Elemente aus K („Zahlen“) einsetzen, sondern auch viel komplexere Objekte, zum Beispiel Matrizen. Was passiert dabei? Kann das gut gehen? Auch diesen Einsetzungsprozess kann man so exakt und nüchtern beschreiben, dass Sie anschließend wieder munter einsetzen können, ohne nachts schweißgebadet aufzuwachen, und nicht zu wissen, ob Sie etwas getan haben, was „man nicht tut“. Sei K wie bisher ein kommutativer Körper, und sei R ein Ring mit Einselement 1, der K enthält, so dass die Einschränkung der Addition und Multiplikation von R auf K die Addition und Multiplikation von K ergibt. (Man sagt dann auch, K sei ein Unterring von R.) Beispiele (a) R = K ist ein triviales Beispiel für diese Situation. (b) Sei R = K n × n der Ring der n × n-Matrizen mit Einträgen aus K. Ist K in R enthalten? Jein! Es ist so, dass R einen zu K isomorphen Unterring enthält, nämlich die Menge K ′ der Matrizen k ⋅ En (k ∈ K). Wenn man die Körperelemente k mit der Matrix k ⋅ En identifiziert (es kommt uns ja nicht darauf an, wie die Objekte heißen), kann man tatsächlich sagen, dass K ein Unterring von R ist. Dieser Ring enthält auch ein Einselement, nämlich die Einheitsmatrix. Sei f = a0 x0 + a1 x + a2 x2 + . . . + an xn ∈ K[x] ein Polynom. Für jedes Element r ∈ R definieren wir f (r) = a + a r + a r + . . . + a n r n . Man sagt, dass f (r) durch Einsetzen von r in f entsteht. Achtung Das Polynom f ∈ K[x] dient sozusagen nur als „Muster“ zur Bildung von f (r); bei der Bildung von f (r) kommen nur Addition und Multiplikation von R vor! Machen wir uns dies an einem Beispiel klar. Sei f das Polynom x2 + x − 6 ∈ R[x], und sei M die folgende Matrix M=( ) . − Was ist f (M)? Dies berechnet sich wie folgt: f (M) = ( +( )⋅( )+( )−( )=( − − − − )=( ) . − − ) 186 6 Polynomringe Für uns ist folgende Erkenntnis die entscheidende: Satz vom Einsetzungshomomorphismus Sei r ein Element des Rings R. Wenn r mit jedem Element von K vertauschbar ist (d. h. kr = rk – und also auch kr2 = r2 k usw. – für alle k ∈ K), dann gilt für alle Polynome f , g ∈ K[x]: ( f + g)(r) = f (r) + g(r) , ( f ⋅ g)(r) = f (r) ⋅ g(r) . (Man sagt dann auch, dass die Abbildung φ ∶ K[x] → R ∶ f ↦ f (r) ein Ringhomomorphismus ist und nennt ihn den Einsetzungshomomorphismus.) Beweis Seien f = a0 x0 + a1 x + a2 x2 + . . . + an xn und g = b0 x0 + b1 x + b2 x2 + . . . + bn xn (dabei darf an oder bn gleich Null sein). Zunächst zeigen wir die Additivität: ( f + g)(r) = (a + b ) + (a + b )r + (a + b )r + . . . + (a n + b n )r n = a + a r + a r + . . . + a n rn + b + b r + b r + . . . + b n r n = f (r) + g(r) . Nun zum Produkt f ⋅ g: Der Koeffizient ck von xk in f ⋅ g ist k c k = ∑ a i b k−i i= Also ergibt sich k ( f ⋅ g)(r) = a b ⋅ + (a b + a b ) ⋅ r + . . . + (∑ a i b k−i ) ⋅ r k + . . . i= k = a b ⋅ +a b ⋅ r + a b ⋅ r + . . . + ∑ a i b k−i r k + . . . i= Andererseits ist k f (r) ⋅ g(r) = a b ⋅ + a (b ⋅ r) + (a ⋅ r)b + . . . + ∑ a i ⋅ r i b k−i ⋅ r k−i + . . . i= 6.3 Polynomdivision 187 Da r mit jedem Element von K, insbesondere also mit allen ai und bj , vertauschbar ist, folgt (fg)(r) = f (r) ⋅ g(r). ◻ Bemerkung Die Voraussetzung, dass jedes Element von R mit jedem Element von K vertauschbar sein muss, ist im wichtigsten Anwendungsfall R = K n × n erfüllt. Denn jede Matrix der Form k ⋅ En ist mit jeder n × n-Matrix vertauschbar (siehe Übungsaufgabe 6). 6.3 Polynomdivision Wir haben gesehen, dass ein Polynom im Allgemeinen keine multiplikative Inverse hat. Das bedeutet, dass man in den meisten Fällen nicht durch ein Polynom teilen kann. Man möchte aber trotzdem ein Polynom durch ein anderes dividieren! Überraschenderweise geht das auch gut – allerdings bleibt bei der Division ein Rest! Dies wird in folgendem Satz präzise formuliert. Dieser Satz ist die Grundlage für alle unsere weiteren Untersuchungen über Polynomringe. Polynomdivision Seien f und g Polynome über dem Körper K. Wenn g nicht das Nullpolynom ist, dann gibt es eindeutig bestimmte Polynome q, r aus K[x] mit f = qg + r und Grad(r) < Grad(g) . Beweis Wir müssen zeigen, dass es solche Polynome gibt (Existenz) und dass es nur ein solches Paar von Polynomen gibt (Eindeutigkeit). Zunächst zeigen wir die Existenz von q und r. Dies geschieht durch Induktion nach n = Grad(f ). Sei m = Grad(g). Ist n < m, so kann man q als Nullpolynom und r = f wählen. Dann erfüllen q und r die geforderten Bedingungen. Seien nun n und m natürliche Zahlen mit n ≥ m. Indem man g mit xn−m multipliziert, erhält man ein Polynom vom Grad n. Indem man dieses noch mit einem geeigneten Körperelement a multipliziert, erhält man ein Polynom g ′ (= a ⋅ xn−m ⋅ g) vom Grad n, das bei xn den gleichen Koeffizienten wie f hat. Daher ist h = f − g′ ein Polynom, dessen Grad kleiner als n ist. Somit können wir auf h die Induktionsannahme anwenden: Es gibt also Polynome q′ und r mit h = q′ g + r und Grad(r) < Grad(g) . 188 6 Polynomringe Indem wir die Definition von h einsetzen, erhalten wir f = h + g ′ = q′ g + r + a ⋅ x n−m ⋅ g = (q′ + a ⋅ x n−m ) ⋅ g + r = qg + r , wobei q = q′ + a ⋅ x n−m ist. Damit haben wir Polynome q und r gefunden, die die gewünschte Gleichung erfüllen. Als zweiten Schritt beweisen wir die Eindeutigkeit von q und r. Seien q, r sowie q′ , r′ Polynome mit f = qg + r und Grad(r) < Grad(g) und f = q′ g + r ′ Daraus ergibt sich und Grad(r ′ ) < Grad(g) . (q − q′ )g = qg − q′ g = r ′ − r . Da die rechte Seite dieser Gleichung ein Polynom ist, dessen Grad kleiner als Grad(g) ist, muss auch die linke Seite einen Grad kleiner als Grad(g) haben. Da die linke Seite aber ein Vielfaches von g ist, kann dies nur dann der Fall sein, wenn das fragliche Vielfache von g das Nullpolynom ist. Also ist r − r′ das Nullpolynom, und somit ist auch q′ − q das Nullpolynom. Das heißt ◻ r = r′ und q′ = q. Dieser Satz wird uns zu zwei Zwecken dienen. Einerseits werden wir damit all das beweisen können, was wir über „Nullstellen“ von Polynomen wissen müssen; andererseits werden wir ihn dazu benutzen, eine für uns entscheidende Strukturaussage über Polynomringe zu beweisen; hierbei geht es um einen bedeutenden Klassifikationssatz für so genannte „Ideale“ von Ringen. Sei K[x] der Polynomring über dem kommutativen Körper K. Sei f ∈ K[x]. Man nennt ein Körperelement k eine Nullstelle von f , falls f (k) = 0 ist. Lemma über die Nullstellen eines Polynoms Sei k eine Nullstelle des Polynoms f ∈ K[x]. Dann gibt es ein Polynom q ∈ K[x] mit f = q ⋅ (x − k). Beweis Wir dividieren f durch das Polynom x − k: f = q ⋅ (x − k) + r mit Grad(r) < Grad(g) = . 6.3 Polynomdivision 189 Daher muss r den Grad 0 haben oder das Nullpolynom sein. Wenn r das Nullpolynom ist, steht die Behauptung da. Wäre r nicht das Nullpolynom, so könnten wir durch Einsetzen schließen, dass r(k) = 0 ist. Denn nach Voraussetzung ist f (k) = 0. Auch wenn wir k in das Polynom x − k einsetzen, erhalten wir 0; formal ausgedrückt heißt dies (x−k)(k) = 0. Der Satz über den Einsetzungshomomorphismus liefert damit r(k) = [ f − q ⋅ (x − k)] (k) = f (k) − q(k) ⋅ (x − k)(k) = − q(k) ⋅ = . Das einzige konstante Polynom mit einer Nullstelle ist aber das Nullpolynom; somit ist f = q ⋅ (x − k), wie behauptet. ◻ Das obige Lemma heißt oft auch der Satz von Ruffini (nach Paolo Ruffini (1765–1822)). In Analogie zu der Situation in Z sagen wir, dass ein Polynom g ein Polynom f ∈ K[x] teilt, wenn es ein Polynom h ∈ K[x] gibt mit f = g ⋅ h. Sei k eine Nullstelle des Polynoms f ∈ K[x]. Dann heißt die größte natürliche Zahl v, so dass (x − k)v das Polynom f teilt, die Vielfachheit der Nullstelle k von f . Ist v die Vielfachheit der Nullstelle k von f , so kann man f also schreiben als f = (x − k)v ⋅ q für ein geeignetes Polynom q ∈ K[x]. Ein Polynom mit Hilfe seiner Nullstellen so zu beschreiben, wie Sie es gewohnt sind, ist nicht ohne. Dazu brauchen wir einige Hilfsmittel. Das erste Hilfsmittel ist ein Lemma, das auf den französischen Mathematiker Étienne Bézout (1730–1783) zurückgeht. Lemma von Bézout Seien f und g Polynome aus K[x]. Wenn es kein Polynom vom Grad ≥ 1 gibt, das sowohl f als auch g teilt (man sagt dazu auch, dass f und g teilerfremd sind), dann gibt es Polynome f * und g* mit f ⋅ f ∗ + g ⋅ g∗ = Zum Beispiel sind die Polynome f = x4 + x3 + x2 + x + 1 und g = x2 + x + 1 teilerfremd. Und in der Tat ergibt sich mit f * := −x und g* := x3 +1 f ⋅ f ∗ + g ⋅ g ∗ = (x + x + x + x + )(−x) + (x + x + )(x + ) = . Nun zum Beweis des Lemmas von Bézout. Sei o. B. d. A. Grad(f ) ≥ Grad(g). Wir können ebenfalls o. B. d. A. voraussetzen, dass g nicht das Nullpolynom ist. [Wenn dies so wäre, so 190 6 Polynomringe müsste f den Grad 0 haben. (Denn f teilt das Nullpolynom, also g; da f und g teilerfremd sind, hat f also einen Grad < 1.) Dann ist f ein Körperelement ≠ 0, also innerhalb von K invertierbar. Die Behauptung folgt jetzt mit f * := f −1 und g* := g.] Wir beweisen die Behauptung durch Induktion nach Grad(g). Da g nicht das Nullpolynom ist, gilt Grad(g) ≥ 0. Sei zunächst Grad(g) = 0. Dann ist g ein von 0 verschiedenes Element des Körpers K; also gibt es in K ein zu g inverses Element g* (nämlich g −1 ). Mit f * := 0 folgt dann f ⋅ f ∗ + g ⋅ g ∗ = f ⋅ + g ⋅ g − = . Sei jetzt Grad(g) ≥ 1, und sei die Aussage des Lemmas richtig für alle Polynome g ′ mit Grad(g ′ ) < Grad(g). Nach dem Satz über Polynomdivision gibt es Polynome q und r mit f = qg + r und Grad(r) < Grad(g) Da Grad(r) < Grad(g) ist, ist es verführerisch, auf die Polynome g und r die Induktionsvoraussetzung anzuwenden. Das dürfen wir aber nur, wenn diese Polynome auch die Voraussetzungen des Lemmas erfüllen! Welche Voraussetzungen? – Eben die, dass die Polynome teilerfremd sind. Das rechnen wir einfach nach: Angenommen, es gäbe ein Polynom h vom Grad ≥ 1, das g und r teilt. Dann würde h auch qg + r, und also f teilen. Dies ist ein Widerspruch zur Voraussetzung. Jetzt kann uns aber nichts mehr hindern, die Induktionsvoraussetzung anzuwenden: Es gibt also Polynome g ′ und r′ mit g ⋅ g ′ + r ⋅ r′ = . Zusammen folgt die Behauptung = g ⋅ g ′ + r ⋅ r ′ = g ⋅ g ′ + ( f − qg)r ′ = f ⋅ r ′ + g ⋅ (g ′ − qr ′) = f ⋅ f ∗ + g ⋅ g ∗ mit f * := r′ und g* := g ′ − qr′ . ◻ Das Lemma von Bézout hat eine interessante und in der Algebra äußerst wichtige Konsequenz (siehe dazu auch Übungsaufgaben 20 und 21). Wir nennen ein Polynom f ∈ K[x] irreduzibel, falls sein Grad mindestens 1 ist und falls jedes Polynom aus K[x], das f teilt, entweder Grad 0 hat oder ein skalares Vielfaches von f ist. (Die irreduziblen Polynome entsprechen den Primzahlen in Z.) Aus dem Lemma von Bézout ergibt sich die folgende Tatsache: 6.3 Polynomdivision 191 Invertierbarkeit modulo eines irreduziblen Polynoms Sei f ein irreduzibles Polynom aus K[x]. Dann gibt es zu jedem Polynom g aus K[x] mit Grad(g) < Grad(f ) ein Polynom g* aus K[x], so dass g ⋅ g* − 1 ein Vielfaches von f ist. (Man sagt dazu auch, dass g ⋅ g* „kongruent 1 modulo f “ ist.) ◻ Die Bedeutung dieses Satzes ist Ihnen wahrscheinlich nicht unmittelbar klar; wenn Sie mehr wissen wollen, empfehle ich Ihnen Übungsaufgabe 21. Je mehr Nullstellen eines Polynoms man kennt, desto besser kann man es beschreiben: Satz über die Nullstellen eines Polynoms (René Descartes, 1596–1650) Seien k1 , k2 , . . . , ks paarweise verschiedene Nullstellen mit Vielfachheiten v1 , v2 , . . . , vs des Polynoms f ∈ K[x]. Dann kann man f schreiben als f = (x − k )v ⋅ (x − k )v ⋅ . . . ⋅ (x − k s )v s ⋅ q für ein geeignetes Polynom q ∈ K[x]. Das wichtigste Korollar aus diesem Satz ist der Satz über die Anzahl der Nullstellen Ein Polynom vom Grad n über einem kommutativen Körper hat höchstens n verschiedene Nullstellen. Der Beweis hierfür ist klar: Wir zerlegen f so weit wie möglich in Linearfaktoren. Sei also f = (x − k )v ⋅ (x − k )v ⋅ . . . ⋅ (x − k s )v s ⋅ q mit einem Polynom q, das keine Nullstelle hat. Wir betrachten jetzt das Polynom f ∗ = (x − k )v ⋅ (x − k )v ⋅ . . . ⋅ (x − k s )v s . Da f * die Faktoren (x − k1 )v1 , (x − k2 )v2 , . . . , (x − ks )vs hat, ist der Grad von f * genau v1 +v2 + . . . +vs . Insbesondere gilt für die Anzahl s aller Nullstellen von f : s ≤ v + v + . . . + v s = Grad( f ∗ ) ≤ Grad( f ) = n . Also hat f höchstens n Nullstellen. ◻ 192 6 Polynomringe Der obige Satz über die Nullstellen eines Polynoms wird durch Induktion nach s bewiesen. Für s = 1 folgt die Behauptung aus der Definition der Vielfachheit der Nullstelle k1 . Sei nun s > 1, und seien k1 , . . . , ks−1 , ks paarweise verschiedene Nullstellen von f . Nach Induktion ist der Satz richtig für k1 , . . . , ks−1 . Also gibt es natürliche Zahlen v1 , . . . , vs −1 und ein Polynom g ∈ K[x] mit f = (x − k)v ⋅ . . . ⋅ (x − k s− )v s− ⋅ g . Jetzt setzen wir die Nullstelle ks in f ein. Da das Einsetzen von ks ein Homomorphismus ist, folgt = f (k s ) = [(x − k )v ⋅ . . . ⋅ (x − k s− )v s− ⋅ g](k s ) ) = (x − k )v (k s ) ⋅ . . . ⋅ (x − k s− )v s− (k s ) ⋅ g(k s ) . Da (x − k )v (k S ) ⋅ . . . ⋅ (x − k s− )v s− (k S ) = (k S − k )v ⋅ . . . ⋅ (k s − k s− )v s− ≠ ist, muss g(ks ) = 0 gelten. Also gibt es ein Polynom q mit g = q ⋅ (x − k s )v s . Daraus folgt die Behauptung. ◻ 6.4 Ideale von K[x] Nun wenden wir uns einer äußerst wichtigen Strukturaussage über Polynomringe zu. Sei R ein kommutativer Ring. Eine Teilmenge I von R heißt ein Ideal von R, falls die folgenden Eigenschaften gelten: • I ≠∅, • (Additivität) Wenn a, b ∈ I sind, so sind auch a + b ∈ I und a − b ∈ I, • (magnetische Anziehungseigenschaft) Wenn a ∈ I und r ∈ R ist, so ist auch r ⋅ a ∈ I. Gibt es heute noch Ideale? – In der Algebra jedenfalls sind Ideale billig zu haben: Jeder Ring hat die trivialen Ideale {0} und R. Ein nichttriviales Beispiel eines Ideals von K[x] ist die Menge aller Polynome, bei denen das Absolutglied gleich Null ist. Dieses Ideal I kann in einer Formel so beschrieben werden: I = {x ⋅ f ∣ f ∈ K[x]} . Diese Konstruktion kann erheblich verallgemeinert werden: Man nehme irgendwelche Elemente a1 , a2 , a3 , . . . eines Ringes R, der ein Einselement 1 hat, und betrachte alle „Linearkombinationen mit Elementen aus R“, das heißt die Menge I(a , a , a , . . .) = {r a + r a + r a + . . . ∣r , r , r , . . . ∈ R} . 6.4 Ideale von K[x] 193 Wir können uns leicht überzeugen, dass dies ein Ideal ist: Wegen a1 ∈ I(a1 , a2 , a3 , . . . ) (dazu braucht man das Einselement) ist diese Menge nicht leer. Auch die zweite Eigenschaft ist erfüllt, denn die Summe zweier Elemente r a + r a + r a + . . . + s a + s a + s a + . . . ∈ I(a , a , a , . . .) ist (r + s )a + (r + s )a + (r + s )a + . . . , also wieder ein Element von I(a1 , a2 , a3 , . . . ). Sei schließlich r ∈ R beliebig. Dann ist mit r1 a1 + r2 a2 + r3 a3 + . . . auch r ⋅ (r a + r a + r a + . . .) = (rr )a + (rr )a + (rr )a + . . . in I(a1 , a2 , a3 , . . . ). Also ist I(a1 , a2 , a3 , . . . ) tatsächlich ein Ideal; man nennt es das von a1 , a2 , a3 , . . . erzeugte Ideal. Dies sind offenbar „einfache“ (oder „schöne“) Ideale; die schönsten Ideale sind die von einem einzigen Element erzeugten Ideale. Ist I = I(a), so nennt man I das von a erzeugte Hauptideal. Ein Hauptideal besteht also nur aus den Vielfachen eines einzigen Elements; dies sind die Ideale, die man am einfachsten beschreiben kann. In der Literatur findet man häufig auch die Schreibweise (a) für I(a). Hier stellen sich verschiedene Fragen: Kann man erkennen, ob ein Ideal ein Hauptideal ist? Ist es vielleicht so, dass die meisten Ideale Hauptideale sind? Vielleicht (verwegene Frage!) sind überhaupt alle Ideale Hauptideale? Die Antwort auf diese Frage ist im Allgemeinen ein klares „Nein“ – in dem uns interessierenden Fall ist die Antwort jedoch „ja“. Die überraschende Tatsache ist die folgende: Ideale eines Polynomrings Jedes Ideal eines Polynomrings K[x] in einer Unbestimmten ist ein Hauptideal! Dieser Satz sagt also insbesondere folgendes: Für jedes Ideal I(f 1 , f 2 , f 3 , . . . ) von K[x], das von beliebig vielen Polynomen f 1 , f 2 , f 3 , . . . erzeugt wird, gibt es ein Polynom g mit I( f , f , f , . . .) = I(g) . Zum Beispiel kann man sich fragen: Was ist I(x3 −1, x4 −1)? Die Antwort ist: Dies ist das Hauptideal, das von x−1 erzeugt wird: I(x3 −1, x4 −1) = I(x−1). (Vergleichen Sie dazu die Übungsaufgaben 24 bis 27.) Schöner („idealer“) geht’s nicht mehr! 194 6 Polynomringe Eigentlich dürfen wir uns darüber aber erst dann richtig freuen, wenn wir diese Tatsache bewiesen haben. Dies muss jetzt auch geschehen. Es zeigt sich, dass dieser Satz nur der Satz über Polynomdivision in einer raffinierten Kostümierung ist. Dazu betrachten wir ein beliebiges Ideal I. Wir müssen zeigen, dass es ein Polynom g gibt mit I = I(g). Wir können o. B. d. A. voraussetzen, dass I ≠ {0} ist, denn das „Nullideal“ {0} wird von dem Nullpolynom 0 erzeugt. Daher können wir voraussetzen, dass I Polynome vom Grad ≥ 0 enthält. Der Trick des Beweises besteht darin, ein Polynom in I zu betrachten, das nicht das Nullpolynom ist, und unter allen diesen Polynomen kleinsten Grad hat. Genauer gesagt: Wir wissen, dass die Menge der Grade ≥ 0 der in I liegenden Polynome nicht leer ist; also hat diese Menge nichtnegativer ganzer Zahlen ein kleinstes Element m. Sei g ein Polynom vom Grad m in I. Behauptung g erzeugt I. Dazu müssen wir zeigen, dass es für jedes Polynom f ∈ I ein Polynom q ∈ K[x] gibt mit f = q ⋅ g. Um die Behauptung nachzuweisen, wenden wir Polynomdivision an: Es gibt jedenfalls Polynome q und r mit f = qg + r und Grad(r) < Grad(g) . Nach Definition eines Ideals ist mit g auch (−q)g in I; mit f und −qg ist auch f −qg in I. Das bedeutet, dass r = f −qg ein Element des Ideals I ist! Da aber Grad(r) < Grad(g) ist und da der Grad von g minimal unter allen nichtnegativen Graden der Polynome in I ist, folgt daraus, dass r einen negativen Grad haben muss. Somit ist r das Nullpolynom, und es folgt in der Tat f = qg. ◻ Bemerkung Es ist klar, dass ein Ideal von K[x] im allgemeinen von verschiedenen Polynomen erzeugt werden kann; denn zum Beispiel wird jedes Ideal I(g) von K[x] auch von dem Polynom kg erzeugt (k ∈ K). Wenn man sich allerdings auf normierte erzeugende Polynome beschränkt (also solche, bei denen der höchste Koeffizient gleich 1 ist), so kann man sagen: Jedes vom Nullideal verschiedene Ideal von K[x] wird von einem eindeutig bestimmten normierten Polynom erzeugt. 6.5 Verständnisfragen, Übungen und Tipps 6.5 195 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Polynome Welcher der folgenden Ausdrücke ist ein Polynom aus R[x]? ◻ x1000000000000000000000 ◻ x + 5y ◻ x + x−1 ◻ x2 − x − 1 = 0 ◻ y = x2 n ◻ ∑ ai ⋅ x i i= ∞ ◻ ∑ ai ⋅ x i i= ◻0 ◻ 2001 ◻ −3,14 ◻ −3,14x ◻ x3,14 ◻ 1 + x + 1/2x2 + 1/6x3 + 1/24x4 + . . . + 1/n! xn + . . . 2. Thema: Einsetzungshomomorphismus ◻ In ein Polynom aus K[x] darf man nur Elemente aus K einsetzen. ◻ Obwohl ein Polynom f aus K[x] nur über K definiert ist, darf man in f auch Elemente, die nicht in K liegen, einsetzen. 3. Thema: Ideale von K[x] Sei K ein Körper. ◻ Es gibt ein Ideal von K[x], das kein Element enthält. ◻ Es gibt ein Ideal von K[x], das genau ein Element enthält. ◻ Es gibt ein Ideal von K[x], das genau zwei Elemente enthält. ◻ Es gibt ein Ideal von K[x], das alle Elemente von K[x] enthält. ◻ Es gibt ein Ideal ≠ K[x] von K[x], das unendlich viele Elemente enthält. Übungsaufgaben 1. Zeigen Sie, dass Zn ein kommutativer Ring mit einem Einselement ist. 2. Seien A, B, C ∈ K2 × 2 . Zeigen Sie (A ⋅ B) ⋅ C = A ⋅ (B ⋅ C) (Assoziativität der Multiplikation) und (A + B) ⋅ C = A ⋅ C + B ⋅ C (Distributivgesetz). 196 6 Polynomringe 3. Zeigen Sie, dass die Menge K n × n aller n × n-Matrizen über dem Körper K zusammen mit der Matrizenaddition und -multiplikation einen Ring bildet. 4. Zeigen Sie, dass die Multiplikation von Matrizen aus K n × n für n ≥ 2 nicht kommutativ ist. 5. Begründen Sie, weshalb die Menge, die aus den invertierbaren n × n-Matrizen und der Nullmatrix besteht, für n ≥ 2 zusammen mit der Matrizenaddition und -multiplikation keinen Körper bildet. 6. Zeigen Sie, dass jede Matrix der Form k ⋅ En mit jeder Matrix aus K n × n vertauschbar ist. 7. Sei R ein kommutativer Ring. Zeigen Sie (a) R[x] ist ein kommutativer Ring. (b) Wenn R ein Einselement (neutrales Element bezüglich der Multiplikation) hat, so hat auch R[x] ein Einselement. 8. Sei K ein Körper. Definieren Sie K[x, y, z] und zeigen Sie, dass K[x, y, z] ein kommutativer Ring mit Einselement ist. 9. Bestimmen Sie Polynome q, r ∈ R[x] so, dass x + x + x + = (x + x + ) ⋅ q + r mit Grad(r) < mit Grad(r) < gilt. 10. Bestimmen Sie Polynome q, r ∈ Z2 [x] so, dass x + x + x + = (x + x + ) ⋅ q + r gilt. 11. Sie Polynome q, r ∈ Z3 [x], so dass gilt: x + x + x + x = (x + x + ) ⋅ q + r und Grad(r) < . 12. Bestimmen Sie die Nullstellen des reellen Polynoms x3 − 19x + 30. 13. Ist das Polynom x3 − 2x + 4 (a) als Polynom über R, (b) als Polynom über Q in Linearfaktoren zerlegbar? 14. Sie die Polynome x4 + 1, x4 + x3 + x + 1 und x5 + 1 aus Z2 [x] in irreduzible Polynome: 15. f ∈ K[x] ein Polynom vom Grad n. (a) Angenommen, Sie kennen n Nullstellen k1 , . . . , kn von f . Können Sie daraus die Koeffizienten von f bestimmen? Und wenn Sie wissen, dass das Polynom normiert ist? (b) Angenommen, Sie kennen an n+1 Stellen x0 , x1 , . . . , xn die Werte y0 , y1 , . . . , yn von f (das heißt yi = f (xi )). Können Sie daraus die Koeffizienten von f bestimmen? [Wenn Sie diese Aufgabe lösen, haben Sie die nach Joseph Louis Lagrange 6.5 Verständnisfragen, Übungen und Tipps 16. 17. 18. 19. 197 (1736–1813) benannte Interpolationsformel gefunden. Leider hat sie Lagrange schon vor Ihnen gefunden . . . ] Zeigen Sie (ohne den Satz über die Nullstellen eines Polynoms zu benutzen!), dass die einzige Nullstelle des Polynoms (x − a)v mit a ∈ K das Element a ist. Zeigen Sie: Zu jedem Ideal I ≠ {0} von K[x] gibt es genau ein normiertes Polynom g mit I = I(g). Sei K ein Körper. Zeigen Sie: (a) Wenn es ein Polynom aus K[x] gibt, das nicht das Nullpolynom ist, das aber f (k) = 0 für alle k ∈ K erfüllt, so ist K endlich. (b) Wenn K endlich ist, so gibt es ein Polynom f ∈ K[x] mit f (k) = 0 für alle k ∈ K. Sei U ein Unterraum des Vektorraums K[x]. Zeigen Sie: Genau dann ist U ein Ideal des Rings K[x], wenn gilt: f ∈U⇒x⋅ f ∈U . 20. Sei I ein Ideal des Ringes R. Eine Nebenklasse von R nach I ist eine Menge der Form r + I := {r + i | i ∈ I}. Der Faktorring von R nach I ist die Menge R/I aller Nebenklassen zusammen mit der induzierten Addition und Multiplikation. (a) Definieren Sie die Addition und Multiplikation auf R/I präzise. (b) Zeigen Sie, dass die Addition und Multiplikation auf R/I wohldefiniert sind. (c) Zeigen Sie, dass R/I ein Ring ist. 21. Sei f ein Polynom aus K[x]. Zeigen Sie: (a) K[x]/I(f ) ist ein Ring. [Hinweis: Benutzen Sie die vorige Aufgabe.] (b) Wenn f irreduzibel ist, dann ist K[x]/I(f ) ein Körper. [Benutzen Sie die Invertierbarkeit modulo eines irreduziblen Polynoms.] (c) Wenn es ein über GF(p) irreduzibles Polynom vom Grad n gibt, so gibt es einen Körper mit pn Elementen. 22. (a) Zeigen Sie: Sei z eine komplexe Zahl. Dann ist die Menge aller Polynome f aus R[x] mit f (z) = 0 ein Ideal von R[x]. (b) Geben Sie im Fall z = i und im Fall z = 1 + i ein erzeugendes Element dieses Ideals an. 23. Sei K ein Körper, der als Teilkörper in einem Körper L enthalten ist, und sei l ∈ L. Zeigen Sie: Die Menge aller Polynome f ∈ K[x] mit f (l) = 0 ist ein Ideal von K[x]. 24. Seien f , g, h Polynome aus K[x]. Man sagt, dass h ein Teiler von f ist, falls es ein Polynom q ∈ K[x] gibt mit h ⋅ q = f . Das Polynom h wird ein größter gemeinsamer Teiler von f und g genannt, wenn die folgenden beiden Eigenschaften erfüllt sind: • h ist sowohl ein Teiler von f als auch ein Teiler von g. • Wenn ein Polynom t sowohl f als auch g teilt, so teilt t auch das Polynom h. Entwickeln Sie mit Hilfe der Polynomdivision einen Algorithmus („euklidischer Algorithmus“) zur Berechnung eines größten gemeinsamen Teilers zweier Polynome. 198 6 Polynomringe 25. Zeigen Sie: Wenn f und g zwei Polynome aus K[x] sind, so gilt I( f , g) = I(h) , wobei h ein größter gemeinsamer Teiler von f und g ist. 26. Bestimmen Sie ein Polynom, welches das von x7 +x5 +x3 +1 und x3 +x+1 erzeugte Ideal von GF(2)[x] erzeugt. 27. Bestimmen Sie ein Polynom, welches das von x2 −1, x3 +2x2 +2x+1 und x4 +x3 +x+1 erzeugte Ideal von R[x] erzeugt. 28. Zeigen Sie: Wenn f und g zwei teilerfremde Polynome aus K[x] sind (das bedeutet, dass f und g das Körperelement 1 als größten gemeinsamen Teiler haben), dann ist das von f und g erzeugte Ideal I(f , g) gleich K[x]. Projekte Projekt A: Der Ring Z In diesem ersten Projekt dieses Kapitels sind Sie eingeladen, die bekannteste algebraische Struktur, nämlich den Ring Z der ganzen Zahlen zu studieren. Sie sollen die Division mit Rest verstehen und damit beweisen, dass auch Z ein Hauptidealring ist; das bedeutet, dass jedes Ideal von Z ein Hauptideal ist. Wir beginnen ganz behutsam. Seien a und b zwei ganze Zahlen. Wir sagen, dass a ein Teiler von b ist, wenn es eine ganze Zahl c gibt mit ac = b. Wir schreiben in diesem Fall a | b. Zum Beispiel gilt 6 | 24, −4 | 8, 3 | −15 und 2001 | 0. (Beachten Sie, dass c = 0 erlaubt ist.) 1. Seien a, b, und b′ ganze Zahlen. Zeigen Sie die folgenden Aussagen: a∣b und a∣b ′ ⇒ a∣b + b ′ , a∣b und a∣b ′ ⇒ a∣b − b ′ , . a∣b ⇒ a∣b ⋅ z für alle z∈Z Insbesondere gilt also a ∥ 0 für alle a ∈ Z. 2. Seien a und b ganze Zahlen. Zeigen Sie: a∣b und b∣a ⇒ a = ±b . 3. (Division mit Rest). Seien a und b ganze Zahlen mit b > 0. Zeigen Sie, dass es eindeutig bestimmte ganze Zahlen q und r gibt mit folgenden Eigenschaften: a=b⋅q+r und ≤ r < b . [Sie müssen sowohl die Existenz als auch die Eindeutigkeit der Zahlen q und r nachweisen!] 6.5 Verständnisfragen, Übungen und Tipps 199 Ein entscheidender Begriff ist der des größten gemeinsamen Teilers zweier ganzer Zahlen. Seien a und b zwei ganze Zahlen. Dann heißt eine ganze Zahl g ein größter gemeinsamer Teiler von a und b, falls g die folgenden Aussagen erfüllt: • g ≥ 0. • g teilt a und g teilt b. • Jede ganze Zahl, die sowohl a als auch b teilt, teilt auch g. Zum Beispiel ist 6 ein größter gemeinsamer Teiler von 24 und 42. (Die ganzen Zahlen, die 24 und 42 teilen, sind −6, −3, −2, −1, 1, 2, 3, 6; jede dieser Zahlen teilt 6.) Beachten Sie, dass wir derzeit noch überhaupt nicht wissen, ob je zwei ganze Zahlen einen größten gemeinsamen Teiler haben und ob ein solcher eindeutig bestimmt ist. In den nächsten Schritten werden wir uns davon überzeugen. 4. (Eindeutigkeit des größten gemeinsamen Teilers) Zeigen Sie: Je zwei ganze Zahlen haben höchstens einen größten gemeinsamen Teiler. [Nehmen Sie an, dass g und g ′ größte gemeinsame Teiler der Zahlen a und b sind. Zeigen Sie g ∥ g ′ und g ′ ∥ g, und benutzen Sie Teilschritt 2.] Wenn zwei ganze Zahlen a und b den größten gemeinsamen Teiler g haben, so schreiben wir dafür auch g = ggT(a, b). 5. Seien a und b ganze Zahlen mit b > 0. Zeigen Sie: Wenn q und r ganze Zahlen sind mit a = b ⋅ q + r und ≤ r < b , 6. 7. 8. 9. 10. so ist der größte gemeinsame Teiler von a und b auch der größte gemeinsame Teiler von b und r und umgekehrt. Sei a eine natürliche Zahl. Zeigen Sie: Die Zahlen a und 0 haben genau einen größten gemeinsamen Teiler, nämlich a. (Euklidischer Algorithmus zur Berechnung des größten gemeinsamen Teilers) Benutzen Sie den Teilschritt 5, um einen größten gemeinsamen Teiler zweier vorgegebener ganzer Zahlen a und b zu berechnen. Berechnen Sie mit Hilfe dieses Verfahrens den größten gemeinsamen Teiler Ihrer Telefonnummer und Ihrer Matrikelnummer (alternativ: den größten gemeinsamen Teiler der alten und der neuen Postleitzahl Ihres Heimatorts.) (Lemma von Bézout). Seien a und n ≥ 2 ganze Zahlen. Zeigen Sie: Genau dann hat a eine multiplikative Inverse modulo n (das bedeutet, dass es eine ganze Zahl a′ mit aa′ mod n = 1 gibt), wenn a und n den größten gemeinsamen Teiler 1 haben. (Ganze Zahlen mit größtem gemeinsamen Teiler 1 nennt man auch teilerfremd.) Sei n eine natürliche Zahl mit n ≥ 1. Zeigen Sie: Die Menge Zn * (das heißt die Menge aller invertierbaren Elemente des Rings Zn ) besteht aus genau den natürlichen Zahlen zwischen 1 und n, die teilerfremd zu n sind. 200 6 Polynomringe 11. Zeigen Sie (mit Hilfe der „Division mit Rest“), dass jedes Ideal von Z ein Hauptideal ist. 12. Sei p eine Primzahl. Mit Qp bezeichnen wir die Menge derjenigen rationalen Zahlen, deren Nenner nicht durch p teilbar ist. Genauer gesagt gilt: Q p = {m/n ∣ m, n ∈ Z, n ≠ , ggT(m, n) = , p teilt nicht n} . Zeigen Sie: (a) Qp ist ein Ring. (b) Die Menge I = {m/n∣m, n ∈ Z, n ≠ , ggT(m, n) = , p teilt nicht n, p teilt m} ist ein Ideal von Qp . Projekt B: Der Ring H[x] Das Ziel dieses zweiten Projektes ist es zu untersuchen, inwieweit sich die Überlegungen dieses Kapitels auf Polynomringe K[x] übertragen lassen, wenn K ein Schiefkörper, also ein nichtkommutativer Körper ist. Wir werden dies am Beispiel des Quaternionenschiefkörpers durchführen. Nach diesen Einleitungsworten stellen Sie sich vermutlich auf eine äußerst stumpfsinnige Folge von Aufgaben ein und sind versucht, überhaupt nicht mehr weiter zu lesen. Tun Sie das nicht! Denn es kann sich nicht um eine langweilige wörtliche Übertragung der Aussagen und Beweise dieses Kapitels handeln. Warum? Weil hier eine Überraschung auf Sie wartet. Es ist nämlich so, dass der Satz, den Sie vermutlich schon in der Schule gelernt haben „Ein Polynom vom Grad n hat höchstens n Nullstellen“ hier falsch ist. Wie bitte? Ja, es gibt tatsächlich ein Polynom vom Grad 2, das mehr als 2, nämlich sogar 6 Nullstellen hat. Dies ist das harmlose Polynom f = x2 +1 ∈ H[x]. Dieses Polynom hat nicht nur (wie in C) die Nullstellen i und −i, sondern auch j und −j, sowie k und −k. Es ist sogar noch viel schlimmer: Dieses Polynom hat sogar unendlich viele Nullstellen (siehe Teilschritt 11). Verrückt! Das muss irgendwie damit zu tun haben, dass H nicht kommutativ ist. Aber woran liegt’s? Wo steckt der Fehler? Welcher Schluss ist bei Polynomringen über nichtkommutativen Körpern nicht mehr richtig? Es ist ja keineswegs so, dass alles falsch ist – im Gegenteil: Das meiste ist richtig. Sie sollen im Folgenden herauspräparieren, was richtig ist und was nicht mehr gilt. Sie sollen also genau die Stelle finden, an der sich der Polynomring über H von den Polynomringen über kommutativen Körpern unterscheidet. Wir fangen ganz von vorne an. Die Definition von H[x], die Definition der Multiplikation von Polynomen und des Grads eines Polynoms bietet keine Überraschungen und läuft genau so wie im kommutativen Fall. Ferner ergibt sich genau so, dass H[x] ein Ring mit 1 ist – der allerdings nichtkommutativ ist, da ja schon die Teilmenge H der konstanten Polynome nichtkommutativ ist. 6.5 Verständnisfragen, Übungen und Tipps 201 1. Zeigen Sie, dass in H[x] die Gradformel gilt: Grad( f g) = Grad( f ) + Grad(g) . 2. Zeigen Sie, dass für Polynome f , g ∈ H[x], g ≠ 0 die Polynomdivision gilt: Das heißt: Es gibt eindeutig bestimmte Polynome q, r ∈ H[x] mit f = qg + r und Grad(r) < Grad(g) . Die Definition eines Teilers können Sie vermutlich selbständig vornehmen: Wir sagen, ein Polynom f ∈ H[x] teilt ein Polynom g ∈ H[x], wenn es ein f * ∈ H[x] gibt mit f ⋅ f * = g. 3. Zeigen Sie, dass H[x] ein Hauptidealring ist. 4. Zeigen Sie: Ist a eine Nullstelle des Polynoms f ∈ H[x], so gibt es ein Polynom g mit f = (x−a)g. 5. Zeigen Sie das Lemma von Bézout: Seien f und g Polynome aus H[x]. Wenn f und g teilerfremd sind, so gibt es Polynome f *, g* ∈ H[x] mit 1 = f ⋅ f * + g ⋅ g*. Bis hierher ging alles gut! Das kann aber nur heißen, dass die kritische Stelle noch kommen muss. Wir rufen uns das Argument in Erinnerung, mit dem wir bewiesen haben, dass ein Polynom n-ten Grades höchstens n Nullstellen haben kann. Die entscheidende Überlegung bestand darin, dass sich ein Polynom f ∈ K[x], das die Nullstellen a1 , a2 , . . . , as hat, als f = (x−a1 )(x−a2 ) . . . (x−as )g schreiben lässt – jedenfalls wenn K kommutativ ist! Dies liegt wiederum daran, dass die Zerlegung eines Polynoms in irreduzible Polynome im Wesentlichen eindeutig ist. Beide Tatsachen sind über Schiefkörpern falsch! 6. Machen Sie sich klar, dass sich das Polynom x2 + 1 ∈ H[x] auf mindestens drei Weisen als Produkt (irreduzibler) Polynome vom Grad 1 schreiben lässt. 7. Gilt in H die binomische Formel (also das wohlbekannte (a + b)2 = a2 + 2ab + b2 )? [Probieren Sie für a und b die Einheiten i, j, k.] 8. Überlegen Sie sich, dass für Polynome f , g ∈ H[x] die folgende Aussage im allgemeinen nicht gilt: Ist h irreduzibel und gilt h | fg, so gilt h | f oder h | g. 9. Analysieren Sie genau, welchen Schluss des Beweises des Satzes vom Einsetzungshomomorphismus man in H[x] nicht nachmachen kann. 10. Zeigen Sie, dass das Polynom f = x2 + 1 ∈ H[x] unendlich viele Nullstellen in H hat. Sie sollten mit folgenden Begriffen umgehen können Ring, Einselement, kommutativer Ring, Zn , K n × n , x, K[x], Polynom, Grad, Einsetzungshomomorphismus, Polynomdivision, Nullstelle, Ideal, Hauptideal, erzeugendes Element eines Ideals. 202 6 Polynomringe 7 Determinanten Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen. Vielleicht denken Sie, Determinanten seien einfach, weil Sie wissen, dass die Determinante einer 2 × 2-Matrix gleich ad − bc ist. Es ist jedoch so, dass man Determinanten auf zwei Weisen einführen kann, und beide sind ein Schock für die Studierenden, die den Determinanten zum ersten Mal Aug in Aug gegenüberstehen. Ich habe mich dafür entschieden, mit dem mathematisch gewichtigeren Schock zu beginnen. Noch eine Vorbemerkung: Die Theorie der Determinanten ist zwar begrifflich nicht besonders tiefsinnig, aber ziemlich diffizil und teilweise auch technisch. Man muss sehr häufig sehr genau hinschauen; mitunter spielt sich die Mathematik sozusagen nur auf der Ebene der Indizes ab. Daher gibt es zwei Möglichkeiten, sich mit Determinanten zu beschäftigen. Sie können sich entweder die Sätze anschauen und versuchen, sich deren Bedeutung anhand von Beispielen klar zu machen. Oder Sie müssen sich mit Geduld und Scharfblick wappnen – und werden dann ohne weitere Schwierigkeiten auch die Details verstehen. 7.1 Die Determinantenfunktion Sei K stets ein (kommutativer) Körper. Eine Abbildung det: K n × n → K, die jeder n × n-Matrix M über K ein Element aus K zuordnet, das wir det(M) nennen, heißt eine Determinantenfunktion, falls sie die folgenden drei Eigenschaften hat: A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_7, © Springer Fachmedien Wiesbaden 2014 203 204 7 Determinanten (D1) Die Abbildung det ist linear (das heißt additiv und homogen) in jeder Zeile. Das bedeutet: Für jedes i ∈ {1, . . . , n} gilt ⎛ z ⎞ ⎛ z ⎞ ⎛ z ⎞ ⎜⋮⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟ ⎟ ⎜ ⎟ ⎜ ′⎟ ⎜ ′⎟ ⎟ ⎟ ⎜ ⎜ det ⎜z i + z i ⎟ = det ⎜ z i ⎟ + det ⎜ ⎜z i ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎜⋮⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟ ⎝z n ⎠ ⎝ zn ⎠ ⎝ zn ⎠ und ⎛ z ⎞ ⎛ z ⎞ ⎜ ⋮ ⎟ ⎜⋮⎟ ⎟ ⎜ ⎜ ⎟ ⎟ ⎜ zi ⎟ . k ⋅ z det ⎜ = k ⋅ det i⎟ ⎜ ⎜ ⎟ ⎟ ⎜ ⎜ ⎟ ⎜ ⋮ ⎟ ⎜⋮⎟ ⎝ zn ⎠ ⎝z n ⎠ (Dabei sind z1 , z2 , . . . , zn die Zeilen einer n × n-Matrix.) (D2) Ist Rang(M) < n, so ist det(M) = 0. (D3) det(En ) = 1. Man nennt det(M) die Determinante von M. Determinanten sind also nur für quadratische Matrizen, das heißt für Matrizen, bei denen die Anzahl der Zeilen gleich der Anzahl der Spalten ist, definiert. Es erhebt sich sofort die Frage: Was soll das? Wie kommt man darauf? Was kann man damit anfangen? All diese Fragen werden später in diesem Kapitel beantwortet werden. Unser erstes Ziel ist es, die Existenz einer solchen Abbildung nachzuweisen. Wir werden sogar zeigen, dass es für jedes n genau eine solche Abbildung gibt. Als einführendes Beispiel machen wir uns folgendes klar: Determinante einer 2 × 2-Matrix Die Abbildung det, die auf der Menge der 2 × 2-Matrizen definiert ist durch det ( a c b ) ∶= ad − bc , d ist eine Determinantenfunktion. Beweis (D1): Für jedes k ∈ K gilt det ( k⋅a c k⋅b a ) = kad − kbc = k(ad − bc) = k ⋅ det ( d c b ) d 7.1 Die Determinantenfunktion und det ( a + a′ c 205 b + b′ ) = (a + a ′ )d − (b + b ′ )c = ad − bc + a ′ d − b ′ c d = det ( a c b a′ ) + det ( c d b′ ) . d Entsprechend zeigt man die Linearität in der zweiten Zeile. Somit gilt (D1). (D2) ist einfach: Wenn die Matrix nur aus Nullen besteht, erhält man als Ergebnis Null. Wenn der Rang 1 ist, so ist eine Zeile ein Vielfaches der anderen, und als Wert von det ergibt sich a ⋅ kb − b ⋅ ka = 0. Da sich (D3) durch bloßes Hinsehen ergibt, ist det eine Determinantenfunktion. ◻ Wir nähern uns den Determinantenfunktionen, indem wir uns klarmachen, wie sich die Determinante einer Matrix bei elementaren Zeilenumformungen ändert. Invarianz der Determinantenfunktion gegenüber elementaren Zeilenumformungen (a) Verwandelt man M durch Multiplikation einer Zeile mit einem Element k ∈ K in M ′ , so ist det(M ′ ) = k ⋅ det(M). (b) Verwandelt man die n × n-Matrix M durch Addition eines Vielfachen einer Zeile zu einer anderen Zeile aus M in die Matrix M ′ , so ist det(M ′ ) = det(M). (c) Verwandelt man M durch Vertauschen zweier Zeilen in M ′ , so ist det(M ′ ) = −det(M). Bemerkung In der Sprache von Kap. 4 handelt es sich hierbei um „elementare Zeilenumformungen des Typs 2, 3, und 1“ (Vergleichen Sie dazu den Abschn. 4.1.4). Beweis (a) ist nichts anderes als die Homogenität in der entsprechenden Zeile. (b) Es werde das k-fache der i-ten Zeile zur j-ten Zeile von M addiert, um M ′ zu erhalten. Sei M* die Matrix, die aus M entsteht, indem die j-te Zeile durch das k-fache der i-ten ersetzt wird. Dann folgt aus (D1), dass det(M ′ ) = det(M) + det(M*) gilt. Da in M* die ite und die j-te Zeile linear abhängig sind, folgt wegen (D2) det(M*) = 0. Mit (D1) ergibt sich also det(M ′ ) = det(M) + det(M ∗ ) = det(M) . (c) Wir wenden nochmals einen ähnlichen Trick an: Die Matrix M ′ möge aus M durch Vertauschen der i-ten und j-ten Zeile hervorgegangen sein. 206 7 Determinanten Wenn man in M die j-te Zeile zur i-ten addiert, erhält man eine Matrix M i . Entsprechend erhält man eine Matrix M j ′ , indem man in M ′ die j-te Zeile (also die i-te Zeile von M) zur i-ten Zeile addiert. Dann ist nach (b) det(M i ) = det(M) und det(M j ′ ) = det(M ′ ). Die Matrizen M i und M j ′ unterscheiden sich nur in der j-ten Zeile, da in beiden Matrizen in der i-ten Zeile die Summe der i-ten und j-ten Zeile von M steht. Wenn wir mit N diejenige Matrix bezeichnen, die aus M dadurch entsteht, dass wir sowohl die i-te als auch die j-te Zeile durch die Summe der i-ten und j-ten Zeile ersetzen, ergibt sich aufgrund von (D1) det(N) = det(M i ) + det(M ′j ) = det(M) + det(M ′ ) . Da N zwei gleiche Zeilen besitzt, ist det(N) = 0; daraus ergibt sich die Behauptung. ◻ Nun beweisen wir die Eindeutigkeit der Determinantenfunktion Für jedes n ∈ N gibt es höchstens eine Determinantenfunktion. Beweis Seien det und det′ Abbildungen, die jeder n × n-Matrix ein Element aus K so zuordnen, dass (D1), (D2) und (D3) erfüllt ist. Wir müssen zeigen, dass für alle n × n-Matrizen M gilt det(M) = det′ (M) . Dazu benötigen wir folgende Hilfsaussage: Wenn die n × n-Matrizen N und M durch elementare Zeilenumformungen auseinander hervorgehen, so gilt det(M) = det′ (M) ⇒ det(N) = det′ (N) . (Da sich elementare Zeilenumformungen durch elementare Zeilenumformungen rückgängig machen lassen, folgt dies aus der Invarianz gegenüber elementaren Zeilenumformungen.) Sei M eine beliebige n × n-Matrix. Ist Rang(M) < n, so ist nach (D2) det(M) = 0 = det′ (M). Sei also Rang(M) = n. Dann kann man M durch elementare Zeilenumformungen in die Einheitsmatrix En verwandeln (vgl. dazu Übungsaufgabe 13 aus Kap. 4). Nach (D3) ist det(En ) = 1 = det′ (En ). Aufgrund der Hilfsaussage folgt also det(M) = det′ (M). ◻ Somit ist det′ = det. Wir notieren ein wichtiges Korollar: 7.2 Permutationen 207 Determinante einer regulären Matrix Sei M eine n × n-Matrix. Dann sind folgende Aussagen gleichwertig: (a) M ist regulär, (b) Rang(M) = n, (c) det(M) ≠ 0. Beweis Im Grunde haben wir schon alles bewiesen (wie es bei einem „Korollar“ auch sein soll): • Dass eine n × n-Matrix genau dann regulär (also invertierbar) ist, wenn sie den Rang n hat, wissen wir schon längst. Also gilt „(a) ⇔ (b)“. • Die Richtung „(c) ⇒ (b)“ ist nichts anderes als die Forderung (D2). • Die Umkehrung, also „(b) ⇒ (c)“ wurde in obigem Beweis mitbewiesen. ◻ Ich bin mir bewusst, dass ich Ihr (mathematisches) Hauptbedürfnis noch nicht befriedigt habe, nämlich die Existenz einer Determinantenfunktion zu zeigen. Dies soll jetzt geschehen, und zwar dadurch, dass wir uns eine kompliziert scheinende Formel für die Determinante klar machen. Diese Formel geht auf Gottfried Wilhelm Leibniz (1646–1716) zurück, der als Mathematiker und Philosoph gleichermaßen bedeutend war. Bei diesem zweiten Schock spielen Permutationen eine entscheidende Rolle. Daher müssen wir uns zunächst mit einigen grundlegenden Eigenschaften von Permutationen vertraut machen. 7.2 Permutationen Eine bijektive Abbildung einer endlichen Menge X in sich wird eine Permutation von X genannt. Wir werden stets voraussetzen, dass X mindestens zwei Elemente hat. Anzahl aller Permutationen Sei X eine endliche Menge mit n Elementen. Dann gibt es genau n! Permutationen von X. Beweis Sei X = {x1 , x2 , . . . , xn }. Um eine Permutation π festzulegen, müssen wir die Bilder π(x1 ), π(x2 ), . . . , π(xn ) festlegen. Für π(x1 ) haben wir n Möglichkeiten, nämlich alle Elemente von X. Wenn π(x1 ) festgelegt ist, gibt es für π(x2 ) noch n−1 Möglichkeiten, nämlich alle Elemente von X außer π(x1 ) usw. Für das Bild des vorletzten Elements xn−1 gibt es noch 208 7 Determinanten zwei Möglichkeiten, nämlich alle Elemente von X außer π(x1 ), π(x2 ), . . . , π(xn−2 ). Für das Bild des letzten Elements bleibt nur noch eine Möglichkeit. Also gibt es insgesamt n ⋅ (n − ) ⋅ . . . ⋅ ⋅ Möglichkeiten. Diese Zahl wird mit n! (sprich „n Fakultät“) abgekürzt. Da es n! Möglichkeiten gibt, eine Permutation von X festzulegen, gibt es auch genau n! Permutationen von X. ◻ Offenbar ist es für das Studium von Permutationen unerheblich, welche n-elementige Menge wir betrachten. Daher werden wir uns das Leben einfach machen und in der Regel die Menge X = {1, 2, . . . , n} zugrunde legen. (Das heißt nur, dass wir statt xi einfach i schreiben.) Die Menge aller Permutationen der Menge {1, 2, . . . , n} bezeichnet man mit Sn . Diese Struktur wird die symmetrische Gruppe auf n Elementen genannt. Das liegt daran, dass Sn bezüglich der Hintereinanderausführung von Permutationen (Produkt von Permutationen) eine „Gruppe“ bildet. Mehr dazu in Kap. 9. Offenbar ist das Produkt zweier Permutationen wieder eine Permutation. Wenn wir das Produkt πψ zweier Permutationen π und ψ berechnen wollen, müssen wir daran denken, dass wir das Produkt von rechts nach links lesen („erst ψ, dann π“). Dies kommt daher, dass wir die Permutationen von links schreiben (wir schreiben π(i) und nicht iπ). Wie kann man eine einzelne Permutation beschreiben? Dafür gibt es prinzipiell zwei Weisen. Zum einen kann man eine Permutation π – wie jede Abbildung – dadurch beschreiben, dass man das Bild jedes Elementes angibt. Bei Permutationen hat sich dazu folgende Schreibweise eingebürgert: In einem rechteckigen Schema mit zwei Zeilen und n Spalten (also einer 2 × n-Matrix) schreibt man in die erste Zeile die Elemente von X (meist in der natürlichen Reihenfolge); in der zweiten Zeile steht unter jedem Element i ∈ X das Bild π(i). Ein Beispiel: Die Schreibweise π=( 1 2 3 4 5 6 7 8 ) 3 4 5 6 1 2 8 7 bedeutet, dass die Permutation π das Element 1 auf 3, 2 auf 4, 3 auf 5, 4 auf 6, 5 auf 1, 6 auf 2, 7 auf 8 und 8 auf 7 abbildet. Im Allgemeinen sieht dieses Verfahren also wie folgt aus: π=( π() ⋯ π() ⋯ i ⋯ π(i) ⋯ n− π(n − ) n ) . π(n) Um die andere Darstellungsform einführen zu können, brauchen wir noch den Begriff einer zyklischen Permutation. Sei π eine Permutation der Menge X. Wir sagen, dass π das Element i ∈ X fest lässt, falls π(i) = i ist. Man nennt i dann auch einen Fixpunkt von π. 7.2 Permutationen 209 Eine Permutation π von X wird ein Zyklus (oder zyklische Permutation) genannt, falls – grob gesprochen – die Elemente, die von π bewegt werden, zyklisch vertauscht werden. Genauer gesagt: Eine Permutation π heißt zyklisch, falls es ein i ∈ X und eine natürliche Zahl k gibt, so dass die folgenden drei Bedingungen gelten: (1) π k (i) = i, (2) die Elemente i, π(i), π 2 (i), . . . , π k−1 (i) sind paarweise verschieden, (3) jedes Element, das verschieden von i, π(i), π 2 (i), . . . , π k−1 (i), π k (i) (= i) ist, wird von π fest gelassen. Die kleinste natürliche Zahl k mit obiger Eigenschaft wird die Länge des Zyklus π genannt. Ein Zyklus der Länge k heißt auch k-Zyklus. Wir schreiben dann π = (iπ(i)π (i) . . . π k− (i)) . Kompliziert? Nein, ein Beispiel macht die Sache sofort klar: Betrachten wir folgenden Zyklus der Länge 5: π = ( ) ∈ S . Daraus lesen wir ab, dass die Permutation π die Elemente 3, 7, 5, 1, 2 zyklisch vertauscht und alle anderen Elemente (das heißt 4 und 6) fest lässt. Also gilt: 1 2 3 π=( 2 3 7 4 5 6 7 ) . 4 1 6 5 Offenbar ist die Zyklenschreibweise wesentlich effizienter als die zunächst eingeführte Beschreibung von Permutationen. Daher möchte man nicht nur eine zyklische, sondern jede Permutation ähnlich effizient schreiben. Dass dies möglich ist, drückt der folgende Satz aus. Darstellung einer Permutation als Produkt disjunkter Zyklen Jede Permutation kann als Produkt zyklischer Permutationen geschrieben werden, von denen keine zwei ein Element gemeinsam haben. Das heißt: Zu jedem π ∈ Sn gibt es zyklische Permutationen ζ 1 , . . . , ζ s ∈ Sn , so dass folgende Eigenschaften erfüllt sind: • π = ζ 1 ⋅ ζ 2 ⋅ . . . ⋅ ζ s, • kein Element aus X, das als Komponente in ζ i vorkommt, kommt in ζ j vor (i , j = 1, . . . , n, i ≠ j). (Das bedeutet: Wenn ein Element x ∈ X in einem Zyklus ζ i „vorkommt“, so wird x von jedem anderen Zyklus ζ j (j ≠ i) fest gelassen.) 210 7 Determinanten Wir demonstrieren dies zunächst an einem Beispiel: Wir betrachten die Permutation π=( 1 2 3 4 5 6 7 8 ) ∈ S8 . 3 4 5 6 1 2 8 7 Um die Zyklen zu erhalten, verfolgen wir den „Weg“ der einzelnen Elemente: Das Element 1 wird auf 3 abgebildet, 3 wird auf 5 und 5 wieder auf 1 abgebildet; der erste Zyklus ist also ζ = ( ) . Nun betrachten wir ein Element, das noch nicht auftauchte, zum Beispiel das Element 2. Dieses wird auf 4, 4 wird auf 6 und 6 wieder auf 2 abgebildet. Daher lautet der zweite Zyklus ζ = ( ) . Gibt es noch ein Element, das nicht erfasst wurde? Ja, das Element 7. Dieses wird mit 8 vertauscht; also lautet der dritte (und letzte) Zyklus ζ = ( ) . Die gesamte Permutation π lässt sich also schreiben als π=( ) = ( )( )( ) = ζ ⋅ ζ ⋅ ζ . Nach diesem Beispiel ist völlig klar, wie der Beweis verläuft: Man wählt sich ein Element i und schreibt dieses an den Anfang eines Klammerausdrucks; als nächstes schreibt man das Element π(i) hin, dann π 2 (i), dann π 3 (i), usw. Dies macht man so lange, bis man das erste Mal eine natürliche Zahl k findet, für die π k (i) = i gilt. Dies schreibt man nicht mehr hin, sondern schließt die Klammer. Man hat damit den ersten Zyklus (i π(i) π 2 (i) . . . π k−1 (i)) erhalten. Danach wählt man ein noch nicht betrachtetes Element j und konstruiert den j enthaltenden Zyklus usw. ◻ Wenn ein Zyklus der Länge 1 auftritt, lassen wir diesen (ohne Gefahr eines Missverständnisses) meist weg. Statt (1 2)(3 6)(4)(5) schreiben wir also einfach (1 2)(3 6). Zum Schluss dieses Abschnitts noch zwei Bemerkungen. 1. Man kann natürlich auch nichtdisjunkte Zyklen miteinander multiplizieren. Dabei muss man allerdings teuflisch aufpassen. Was ist (1 2)(2 3) ? Wir überlegen dies für jedes Element einzeln. Was passiert mit 1? Im rechten Zyklus wird 1 nicht bewegt, im linken auf 2 abgebildet. Was geschieht mit 2? Dieses Element wird im ersten (rechten!) Zyklus auf 3 abgebildet, und mit der 3 tut sich dann gar nichts mehr. 7.3 Gerade und ungerade Permutationen 211 Und worauf wird das Element 3 abgebildet? Im rechten Zyklus auf 2, und die 2 wird im linken Zyklus auf 1 abgebildet. Insgesamt ergibt sich also ( )( ) = ( ) . Machen Sie sich klar, dass (2 3)(1 2) = (1 3 2) gilt, und also (1 2)(2 3) ≠ (2 3)(1 2) ist. Berechnen Sie zur Übung ( )( )( ) und ( )( )( ) . 2. Ein Produkt aus paarweise disjunkten Zyklen ist schon deswegen besonders angenehm, weil man dabei die Reihenfolge der Zyklen vertauschen kann. (Klar: Wenn ein Element x in einem Zyklus bewegt wird, liegt das Bild in demselben Zyklus und kommt also in keinem anderen mehr vor. Also wird jedes Element nur ein einziges Mal „angefasst“. Daraus ergibt sich, dass die Reihenfolge der Zyklen keine Rolle spielt.) 7.3 Gerade und ungerade Permutationen Für viele Zwecke, insbesondere für die Leibnizsche Determinantenformel ist es wichtig, die Einteilung aller Permutationen in so genannte „gerade“ und „ungerade“ Permutationen zu kennen. Diese erhält man mit Hilfe von Transpositionen. Eine Permutation, die nur zwei Elemente vertauscht, heißt eine Transposition. Zum Beispiel ist τ = (5 8) diejenige Transposition, die 5 mit 8 vertauscht, aber alle anderen Elemente fest lässt. Eine Transposition, die zwei aufeinander folgende Elemente (also i und i + 1) vertauscht, heißt eine Nachbartransposition. Darstellung von Permutationen durch Transpositionen Man kann jede Permutation als Produkt von Transpositionen, ja sogar als Produkt von Nachbartranspositionen darstellen. Beweis Da wir jede Permutation als Produkt von Zyklen darstellen können, müssen wir die Aussage nur für Zyklen beweisen. Wir reduzieren das, was wir zu zeigen haben, weiter: Der Zyklus (x1 x2 x3 . . . xk ) lässt sich jedenfalls als Produkt von Transpositionen schreiben: (x x x . . . x k ) = (x x )(x x ) . . . (x k− x k− )(x k− x k ) . Beachten Sie, dass die Vereinbarung über die Schreibweise von Abbildungen impliziert, dass wir Produkte von rechts nach links lesen. 212 7 Determinanten Es genügt also zu zeigen, dass jede Transposition ein Produkt von Nachbartranspositionen ist. Sei also τ = (i j) eine Transposition. O. B. d. A. ist i < j. Dann gilt τ = (i j) = ( j − j)( j − j − ) . . . (i + i + )(i i + )(i + i + ) . . . ( j − j) . Um das zu sehen, muss man nur genau lesen: Das Element j wird schrittweise über j−1, . . . , i + 1 zu i hingeführt und dann nicht mehr bewegt. Symmetrisch dazu wird i schrittweise über i + 1, . . . , j−1 bis zu j geführt. Jedes Element k zwischen i und j wird einerseits (in der „rechten Hälfte“) auf k + 1 abgebildet, um dann andererseits (in der „linken Hälfte“) wieder auf k zurückgeführt zu werden. ◻ Als Beispiel betrachten wir die Permutation π = (3 5 8). Diese lässt sich gemäß obiger Vorschrift wie folgt als Produkt von Transpositionen schreiben: π = ( ) = ( )( ) . Die Transpositionen (5 8) und (8 3) lassen sich wie folgt als Produkt von Nachbartranspositionen schreiben: ( ) = ( )( )( ) und ( ) = ( )( )( )( )( ) . Damit ergibt sich schließlich π = ( ) = ( ) ⋅ ( ) = ( )( )( ) ⋅ ( )( )( )( )( ) . Als Korollar halten wir folgende Aussage fest. Darstellung einer Transposition durch eine ungerade Anzahl von Nachbartranspositionen Jede Transposition kann als Produkt einer ungeraden Anzahl von Nachbartranspositionen geschrieben werden. In obigem Beweis steht, dass die Transposition (i j) geschrieben werden kann als Produkt (i j) = ( j − j)( j − j − ) . . . (i + i + )(i i + )(i + i + ) . . . ( j − j) . Wie viele Nachbartranspositionen sind dies? (Solche Fragen gehören – für mich – zu den schwierigsten der Mathematik.) Relativ einfach ist zu sehen, dass es sich um eine ungerade Anzahl handeln muss, denn zu beiden Seiten der Nachbartransposition 7.3 Gerade und ungerade Permutationen 213 (i i + 1) steht dieselbe Menge von Nachbartranspositionen. Durch genauestes Hinschauen bekommt man auch die genaue Anzahl heraus: Es handelt sich um genau 2(j − i − 1) + 1 Nachbartranspositionen. ◻ Wenn Sie Schwierigkeiten mit dieser allgemeinen Darstellung haben, dann empfehle ich Ihnen, sich die Sache an einem Beispiel, etwa im Falle τ = (5 8) konkret aufzuschreiben; dann wird es Ihnen wie Schuppen von den Augen fallen. Man kann eine gegebene Permutation auf viele Weisen als Produkt von Transpositionen oder Nachbartranspositionen schreiben; die Darstellung ist weit davon entfernt eindeutig zu sein. Nur eine kleine Tatsache ist dabei unveränderbar: Wenn Sie es schaffen, eine Permutation als Produkt einer geraden Anzahl von Transpositionen zu schreiben, werde sogar ich es nicht schaffen, diese als Produkt einer ungeraden Anzahl von Transpositionen zu schreiben. Dies müssen wir uns noch klar machen – aber dazu bedarf es einiger Vorbereitungen. Für eine beliebige Permutation π ∈ Sn nennt man ein Paar (i, j) von Elementen der Menge X = {1, 2, . . . , n} mit i < j aber π(i) > π(j) einen Fehlstand von π. Ein Fehlstand von π ist also ein Zahlenpaar, dessen Ordnung durch π umgedreht wird. Die Anzahl der Fehlstände einer Permutation π bezeichnen wir mit f (π). Wir machen uns diesen Begriff an folgendem Beispiel klar: Sei π=( ) . Um die Anzahl der Fehlstände von π zu finden, müssen wir alle Paare (i, j) mit i < j und i, j ∈ {1, 2, 3, 4} betrachten: (i, j) (π(i), π(j)) π(i) < π(j) ? (1, 2) (2, 4) ja (1, 3) (2, 1) nein (1, 4) (2, 3) ja (2, 3) (4, 1) nein (2, 4) (4, 3) nein (3, 4) (1, 3) ja Jeder Nein-Eintrag in der letzten Zeile obiger Tabelle deutet auf einen Fehlstand hin; die Anzahl der Fehlstände von π ist also gleich 3. Nun bestimmen wir die Anzahl von Fehlständen einer Transposition. Fehlstände einer Transposition Sei τ = (i j) eine Transposition aus Sn . Sei i < j. Dann gilt für die Anzahl f (τ) der Fehlstände von τ: f (τ) = ( j − i − ) + . Insbesondere hat jede Transposition eine ungerade Anzahl von Fehlständen. Ferner hat jede Nachbartransposition genau einen Fehlstand. 214 7 Determinanten Beweis Genau die folgenden Paare sind Fehlstände von τ: (i, x) mit i + ≤ x ≤ j − ; (y, j) mit i + ≤ y ≤ j − und (i, j) . Dies sind 2(j−i−1) + 1 Fehlstände. Die Aussage über Nachbartranspositionen ergibt sich unmittelbar, da in diesem Fall j = i + 1, also j−i−1 = 0 ist. ◻ Eine Permutation aus Sn heißt gerade, falls die Anzahl ihrer Fehlstände gerade ist; sie heißt ungerade, wenn sie eine ungerade Anzahl von Fehlständen hat. Für ein π ∈ Sn definieren wir: sig(π) = , falls π eine gerade Permutation ist sig(π) = −, falls π eine ungerade Permutation ist. Man nennt sig(π) das Signum der Permutation π. Das nächste Lemma ist einfach, aber entscheidend. Es beschreibt den Effekt, den die „Multiplikation“ einer beliebigen Permutation mit einer Nachbartransposition hat. Effekt einer Nachbartransposition Sei π ∈ Sn eine beliebige Permutation, und sei τ eine Nachbartransposition aus Sn . Dann gilt f (τπ) = f (π) ± . Betrachten wir zum Beispiel τ = (4 5), π = (3 4 5 8), also τπ = (4 5)(3 4 5 8) = (3 5 8). Dann ist f (π) = 7 und f (τπ) = 8, denn die Fehlstände der Permutation π sind die Paare (3, 8), (4, 8), (5, 6), (5, 7), (5, 8), (6, 8), (7, 8), und die Fehlstände von τπ = (3 5 8) sind die Paare (3, 4), (3, 8), (4, 8), (5, 6), (5, 7), (5, 8), (6, 8) und (7, 8). Zum Beweis machen wir uns folgendes klar: Sei τ = (i i + 1) eine Nachbartransposition. Wenn das Paar (i, i + 1) ein Fehlstand von π ist, dann hebt die Multiplikation von π mit τ diesen Fehlstand auf; also ist in diesem Fall f (τπ) = f (π)−1. Wenn (i, i + 1) aber kein Fehlstand von π ist, so kommt bei τπ außer den Fehlständen von π noch der Fehlstand (i, i + 1) hinzu; also ist f (τπ) = f (π) + 1. ◻ Die nächste Folgerung wird für die weiteren Überlegungen außerordentlich nützlich sein. Satz über Nachbartranspositionen Sei π eine Permutation. Dann sind die folgenden Aussagen äquivalent: (a) π ist eine gerade Permutation. (b) Jede Darstellung von π als ein Produkt von Nachbartranspositionen besteht aus einer geraden Anzahl von Nachbartranspositionen. 7.3 Gerade und ungerade Permutationen 215 (c) Es gibt eine Darstellung von π als Produkt einer geraden Anzahl von Nachbartranspositionen. Beweis „(a) ⇒ (b)“: Sei π eine gerade Permutation. Angenommen, es gibt eine Darstellung von π als Produkt einer ungeraden Anzahl von Nachbartranspositionen. Wir fassen zwei Tatsachen zusammen: • Da die Identität keinen Fehlstand hat, besitzt sie insbesondere eine gerade Anzahl von Fehlständen (0 ist eine gerade Zahl!). Also ist die Identität eine gerade Permutation. • Wenn man eine gerade Permutation (also zum Beispiel die Identität) mit einer ungeraden Anzahl von Nachbartranspositionen multipliziert, erhält man eine ungerade Permutation. (Nach dem vorigen Satz ändert sich die Anzahl der Fehlstände bei Multiplikation mit zwei Nachbartranspositionen um −2, 0 oder 2.) Aus diesen beiden Tatsachen ergibt sich, dass das Produkt π einer ungeraden Anzahl von Nachbartranspositionen eine ungerade Permutation ist, ein Widerspruch. „(b) ⇒ (c)“ ist trivial. (Dieses Wort darf man nur dann verwenden, wenn die Sache wirklich sonnenklar ist; in diesem Fall ist dies so: Schauen Sie sich einfach die Aussagen (b) und (c) nochmals an!) „(c) ⇒ (a)“: Sei π eine Permutation, die sich als Produkt einer geraden Anzahl von Nachbartranspositionen schreiben lässt. Wir schließen ähnlich wie im ersten Beweisteil: Wenn man eine gerade Permutation (also zum Beispiel die Identität) mit einer geraden Anzahl von Nachbartranspositionen multipliziert, erhält man wieder eine gerade Permutation. Daraus ergibt sich, dass das Produkt π einer geraden Anzahl von Nachbartranspositionen eine gerade Anzahl von Fehlständen hat, also eine gerade Permutation ist. Damit ist der Satz bewiesen. ◻ Satz über gerade Permutationen Sei π ∈ Sn eine beliebige Permutation. Dann sind folgende Aussagen gleichwertig: (a) π ist eine gerade Permutation, (b) π ist Produkt einer geraden Anzahl von Nachbartranspositionen, (c) π ist Produkt einer geraden Anzahl von Transpositionen. Wegen des obigen Satzes über Nachbartranspositionen brauchen wir nur noch die Äquivalenz von (b) und (c) zu beweisen: Trivialerweise folgt (c) aus (b). „(c) ⇒ (b)“: Da jede Transposition nach dem Satz über die Darstellung einer Transposition durch eine ungerade Anzahl von Nachbartranspositionen als Produkt einer ungera- 216 7 Determinanten den Anzahl von Nachbartranspositionen dargestellt werden kann, ist jedes Produkt einer geraden Anzahl von Transpositionen auch ein Produkt einer geraden Anzahl von Nachbartranspositionen. Damit ist bereits alles gezeigt. ◻ Analog erhalten wir folgende Aussage. Satz über ungerade Permutationen Sei π ∈ Sn eine beliebige Permutation. Dann sind folgende Aussagen gleichwertig: (a) π ist eine ungerade Permutation. (b) π ist Produkt einer ungeraden Anzahl von Nachbartranspositionen. (c) π ist Produkt einer ungeraden Anzahl von Transpositionen. ◻ Wir machen uns die Aussage der beiden Sätze nochmals an einem Beispiel klar. Wenn eine Permutation Produkt von zum Beispiel 1024 Transpositionen ist, kann sie keinesfalls als Produkt von 2001 Transpositionen oder irgendeiner ungeraden Zahl von Transpositionen dargestellt werden. Aus den obigen Sätzen ergibt sich auch folgende Aussage: Signum der inversen Permutation Für jede Permutation π ∈ Sn gilt: π ist genau dann gerade, wenn π −1 gerade ist. Mit anderen Worten: sig(π) = sig(π − ) . Beweis Da die Identität id = π ⋅ π −1 gerade ist, müssen π und π −1 entweder beide Produkt einer geraden Anzahl oder beide Produkt einer ungeraden Anzahl von Transpositionen sein. ◻ Wir bezeichnen die Menge aller geraden Permutationen aus Sn mit An ; diese Menge wird oft die alternierende Gruppe genannt. Dies liegt daran, dass An bezüglich der Hintereinanderausführung von Permutationen eine „Gruppe“ bildet (siehe Kap. 9). Wesentliche Eigenschaften von An werden in folgendem Satz zusammengefasst: Satz über die alternierende Gruppe Sei n eine natürliche Zahl. Dann gilt: 7.3 Gerade und ungerade Permutationen 217 (a) Das Produkt je zweier Permutationen aus An liegt wieder in An . Mit anderen Worten: An ist bezüglich der Hintereinanderausführung von Permutationen abgeschlossen. (b) Für jede Permutation π ∈ Sn \An gilt Sn = An ∪ πAn , wobei πAn := {πα | α ∈ An } ist. (c) Ist n ≥ 2, so gilt für die Mächtigkeit von An ∣An ∣ = n! . Genau die Hälfte aller Permutationen ist also gerade. Beweis (a) Nach dem Satz über gerade Permutationen ist An die Menge aller Permutationen, die Produkt einer geraden Anzahl von Transpositionen sind. Es ist klar, dass das Produkt zweier solcher Permutationen wieder ein Produkt einer geraden Anzahl von Transpositionen ist, also in An liegt. (b) Da die Inklusion „An ∪ πAn ⊆ Sn “ trivial ist, ist nur zu zeigen, dass eine beliebige Permutation ψ ∈ Sn in An oder in πAn liegt. Wir können o. B. d. A. annehmen, dass ψ nicht in An liegt. Also ist ψ eine ungerade Permutation. Da auch π (und damit π −1 ) eine ungerade Permutation ist, ist π −1 ψ ein Produkt zweier Permutationen, die beide ein Produkt einer ungeraden Anzahl von Transpositionen sind. Also ist π −1 ψ ein Produkt einer geraden Anzahl von Transpositionen. Daher liegt π −1 ψ in An . Somit gibt es ein α ∈ An mit π − ψ = α . Es folgt ψ = πα ∈ πAn . (c) Offenbar haben An und πAn gleich viele Elemente. (Man macht sich nämlich leicht klar, dass die Abbildung α → πα bijektiv ist.) Da An aus den geraden und πAn aus ungeraden Permutationen besteht, sind An und πAn disjunkt. Da nach (b) jede Permutation in An oder πAn liegt und die Gesamtzahl der Permutationen gleich n! ist, folgt die Behauptung. ◻ Wir bemerken, dass für jede ungerade Permutation π aus Sn gilt πAn = An π ; 218 7 Determinanten denn sowohl πAn als auch An π bestehen aus ungeraden Permutationen (sind also Teilmengen von Sn \An ) und beide Mengen haben genau | An | viele Elemente. Also gilt auch Sn = An ∪ An π für jede ungerade Permutation π aus Sn . Eine Aussage, die im Beweis von Teil (b) des Satzes über die alternierende Gruppe implizit vorkam, heben wir explizit hervor: Signumsformel Für je zwei Permutationen π, ψ ∈ Sn gilt sig(π) ⋅ sig(ψ) = sig(πψ) . Der Beweis ergibt sich unmittelbar aus der Definition des Signums: Eine Permutation hat genau dann Signum 1 (und sonst −1), wenn sie gerade, wenn sie also Produkt einer geraden Anzahl von Transpositionen ist. ◻ 7.4 Die Leibnizsche Determinantenformel Nun zur angekündigten Formel – die den zweiten Schock dieses Kapitels darstellt: Leibnizsche Determinantenformel Sei n eine natürliche Zahl. Durch die folgende Vorschrift det wird eine Determinantenfunktion definiert. Sei M = (mij )1 ≤ i, j ≤ n eine n × n-Matrix mit Elementen aus K. Dann ist det(M) = ∑ sig(π)m ,π() ⋅ m ,π() ⋅ . . . ⋅ m n,π(n) . π∈S n Auf den ersten Blick scheint es, als ob hier die mathematische Vernunft ein Monster geboren hätte. Die folgenden Spezialfälle sollen Ihnen vor Augen führen, dass dem nicht so ist. Durch die Behandlung dieser Spezialfälle werden Sie freundlichst eingeladen, die Formel wenigstens zu lesen. 1. Auch gemäß der Leibnizschen Formel ist det(En ) = 1. Mit anderen Worten: die Leibnizsche Funktion genügt jedenfalls der Bedingung (D3). 7.4 Die Leibnizsche Determinantenformel 219 Warum? Theoretisch müssen wir für alle Permutationen die Produkte ausrechnen und diese aufsummieren. In Wirklichkeit müssen wir dafür aber nur diejenigen Permutationen π berücksichtigen, für die sig(π)m ,π() m ,π() . . . m n,π(n) verschieden von Null ist. Dazu müssen all die Elemente m ,π() , m ,π() , . . . , m n,π(n) verschieden von Null sein. Da M die Einheitsmatrix ist, folgt also π() = , π() = , . . . , π(n) = n ; also ist π die Identität ε. Somit ist det(E n ) = sig(ε) ⋅ m ⋅ m ⋅ . . . ⋅ m nn = . ◻ 2. Die Determinante einer 2 × 2-Matrix M=( a c b ) d berechnet sich als det(M) = ad − bc . Beweis. Es gibt genau zwei Permutationen der Menge { 1, 2 } , nämlich die Identität ε und die Transposition τ = (1 2). Daher ergibt sich gemäß der Leibnizschen Formel, wenn wir kurzfristig die Matrix M als M=( a c b m ) = ( m d m ) m schreiben: det(M) = si g(ε)m ,ε() m ,ε() + si g(τ)m ,τ() m ,τ() = ⋅ m m + (−) ⋅ m m = ad − bc . ◻ 3. Regel von Sarrus. Ist M = (mij ) eine 3 × 3-Matrix, so gilt ⎛ m det(M) = det ⎜m ⎝m m m m m ⎞ m ⎟ m ⎠ = m m m + m m m + m m m − m m m − m m m − m m m . 220 7 Determinanten (Man muss die drei „Diagonalen“ in Richtung der Hauptdiagonalen mit Plus und die drei „Diagonalen“ in Richtung der Nebendiagonalen mit Minus versehen.) Beweis. Dies können wir wie folgt einsehen: Es gibt sechs Permutationen der Menge {1, 2, 3}, nämlich die Identität ε, die beiden 3-Zyklen (1 2 3) und (1 3 2) sowie die drei Transpositionen (1 2), (2 3) und (1 3). Also kann man die Determinante der 3 × 3-Matrix M gemäß der Leibnizschen Formel wie folgt ausrechnen: ⎛ m det(M) = det ⎜m ⎝ m m m m m ⎞ m ⎟ m ⎠ = sig(ε) ⋅ m m m + sig( ) ⋅ m m m + sig( ) ⋅ m m m + sig( ) ⋅ m m m + sig( ) ⋅ m m m + sig( ) ⋅ m m m . ◻ Diese Regel ist nach dem französischen Mathematiker Pierre-Frédéric Sarrus (1798– 1858) benannt. Schließlich halten wir noch die wichtigste Folgerung aus der Leibnizschen Formel fest: 4. Für jede natürliche Zahl n gibt es genau eine Determinantenfunktion. Jede Determinantenfunktion lässt sich mit der Leibnizschen Formel ausdrücken. Beweis. Nach dem Satz über die Eindeutigkeit der Determinantenfunktion gibt es für jedes n höchstens eine Determinantenfunktion. Der obige Satz sagt, dass die Leibnizsche Formel eine Determinantenfunktion beschreibt. Also wird durch die Leibnizsche Formel jede Determinantenfunktion beschrieben. ◻ Um nun aber endlich zu beweisen, dass die Leibnizsche Formel tatsächlich eine Determinantenfunktion definiert, gehen wir wie folgt vor. Wir definieren für jede n × nMatrix M: L(M) = ∑ si g(π)m ,π() ⋅ m ,π() ⋯ ⋅ ⋯m n,π(n) . π∈S n Dann ist zu zeigen, dass die Abbildung L die Eigenschaften (D1), (D2) und (D3) hat. Dann ist L eine Determinantenfunktion, und nach dem Eindeutigkeitssatz folgt also L = det. (D1) Sei M = (mij ) ∈ K n × n , und sei k ∈ K. Dann gilt für jede Permutation π ∈ Sn : m ,π() ⋅ . . . ⋅ m i−,π(i−) ⋅ (m i ,π(i) + m′i ,π(i) ) ⋅ m i+,π(i+) ⋅ . . . ⋅ m n,π(n) = m ,π() ⋅ . . . ⋅ m i−,π(i−) ⋅ m i ,π(i) ⋅ . . . ⋅ m n,π(n) + m ,ψ() ⋅ . . . ⋅ m i−,π(i−) ⋅ m′i ,π(i) ⋅ . . . ⋅ m n,π(n) . Damit folgt die Additivität auch für die Summe dieser Ausdrücke über alle Permutationen. Das bedeutet, dass die Abbildung L in der i-ten Zeile additiv ist (i = 1, . . . , n). 7.4 Die Leibnizsche Determinantenformel 221 Ähnlich zeigt man die Homogenität: m ,π() ⋅ . . . ⋅ m i−,π(i−) ⋅ k ⋅ m i ,π(i) ⋅ m i+,π(i+) ⋅ . . . ⋅ m n,π(n) = k ⋅ m ,π() ⋅ . . . ⋅ m i−,π(i−) ⋅ m i ,π(i) ⋅ m i+,π(i+) ⋅ . . . ⋅ m n,π(n) . Also ist L auch in der i-ten Zeile homogen. (D2) Sei Rang(M) < n. Dann sind die Zeilen von M linear abhängig. Wir versuchen zunächst, das Problem zu reduzieren, das heißt auf einfachere Matrizen zurückzuführen. n Sei o. B. d. A. die erste Zeile z1 eine Linearkombination der anderen: z = ∑ k i z i i= Aufgrund der schon bewiesenen Eigenschaft (D1) gilt dann n ⎛ ∑ ki zi ⎞ ⎛z ⎞ ⎛ z ⎞ ⎛z n ⎞ ⎟ ⎜i= ⎜z ⎟ ⎜z ⎟ ⎜z ⎟ ⎜ z ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎟ ⎟ ⎜ ⎜ ⎟ ⎜ L ⎜ z ⎟ = k ⋅ L ⎜ z ⎟ + k ⋅ L ⎜ z ⎟ + . . . + k n ⋅ L ⎜ ⎜ z ⎟ . ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎜⋮⎟ ⎜⋮⎟ ⎜⋮⎟ ⎜ ⋮ ⎟ ⎟ ⎜ ⎝z n ⎠ ⎝z n ⎠ ⎝z n ⎠ ⎝ zn ⎠ Auf der rechten Seite wird die Abbildung L jeweils auf Matrizen angewandt, die zwei gleiche Zeilen haben. Wenn wir also zeigen können, dass L jede Matrix mit zwei gleichen Zeilen zu Null macht, haben wir unser Ziel auch erreicht. Genau dies ist jetzt unsere Behauptung: Ist M eine Matrix, die zwei gleiche Zeilen hat, so ist L(M) = 0. Zum Nachweis dieser Behauptung können wir o. B. d. A. voraussetzen, dass die beiden ersten Zeilen von M gleich sind. Sei τ = (1 2). Da nach dem Satz über die alternierende Gruppe jede Permutation aus Sn entweder gerade ist oder die Form ατ hat, wobei α eine gerade Permutation ist, gilt Sn = An ∪ An τ. Also berechnet sich L(M) wie folgt: L(M) = ∑ sig(π)m ,π() ⋅ m ,π() ⋅ . . . ⋅ m n,π(n) π∈S n = ∑ (si g(α)m ,α() ⋅ m ,α() ⋅ . . . ⋅ m n,α(n) α∈A n + sig(ατ)m ,ατ() ⋅ m ,ατ() ⋅ . . . ⋅ m n,ατ(n) ) = ∑ (m ,α() ⋅ m ,α() ⋅ . . . ⋅ m n,α(n) − m ,α() ⋅ m ,α() ⋅ . . . ⋅ m n,α(n) ) α∈A n = ∑ (m ,α() ⋅ m ,α() − m ,α() ⋅ m ,α() )m ,α() ⋅ . . . ⋅ m n,α(n) = , α∈A n denn aus der Gleichheit der ersten beiden Zeilen von M ergibt sich insbesondere die Gleichheit der beiden Summanden in der Klammer. Damit ist die Behauptung bewiesen, und also gilt (D2). Da wir (D3) schon unmittelbar nach der Präsentation der Leibnizschen Formel gezeigt haben, folgt L = det, und der Satz ist vollständig bewiesen. ◻ 222 7 Determinanten Der Vorteil ist immens: Wann immer wir eine Determinantenfunktion konkret berechnen wollen, können wir uns der Leibnizschen Formel bedienen. Übrigens: Lassen Sie sich von dem (auf den ersten Blick) fürchterlichen Aussehen dieser (und anderer) Formeln nicht schrecken! Was für uns Menschen auf den ersten Blick so kompliziert aussieht, dass man schon gar nicht anfängt zu lesen, ist oft etwas ganz Konkretes, eine Formel oder eine Vorschrift, die ganz einfach handzuhaben ist und das gewünschte Ergebnis mittels rein mechanischer Operationen liefert. Also: Haben Sie den Mut, solche Formelungetüme (langsam . . . und mit Genuss!) zu lesen. 7.5 Wie berechnet man eine Determinante? In den meisten Fällen empfehlen sich elementare Zeilenumformungen als die Methode zur Berechnung der Determinante einer Matrix. Dabei geht man in zwei Schritten vor: Zunächst bringt man eine gegebene Matrix auf Dreiecksgestalt und bestimmt danach die Determinante der Dreiecksmatrix. Wir tun den zweiten Schritt vor dem ersten. Determinante einer Dreiecksmatrix Sei M ∈ K n × n eine Matrix der folgenden Gestalt: ⎛m ⎜ ⎜ M=⎜ ⎜ ⎜ ⎜ ⎝ ⋅s m m m ⋅s ⋅s ⋱ m n ⎞ m n ⎟ ⎟ ⋮ ⎟ ⎟ . ⎟ m n−,n ⎟ m nn ⎠ (Man nennt M dann auch eine obere Dreiecksmatrix.) Dann gilt: det(M) = m ⋅ m ⋅ . . . ⋅ m nn . Kurz: Die Determinante einer Dreiecksmatrix ist das Produkt ihrer Diagonalelemente. Dies gilt insbesondere für Diagonalmatrizen. Beweis In der Leibnizschen Formel leisten nur solche Summanden sig(π) ⋅ m ,π() ⋅ m ,π() ⋅ . . . ⋅ m n,π(n) einen Beitrag, für die alle mi,π(i) ungleich Null sind. 7.5 Wie berechnet man eine Determinante? 223 Da M eine Dreiecksmatrix ist, ist ein Eintrag mij sicher dann gleich Null, wenn i > j ist (denn dann steht mij unterhalb der Hauptdiagonale). Das heißt: Wir brauchen nur die mij mit i ≤ j zu betrachten, also nur diejenigen mi, π (i) mit i ≤ π(i). Da dies für alle i gelten muss, heißt dies: Wir brauchen nur solche Permutationen π zu betrachten, für die 1 ≤ π(1), 2 ≤ π(2), . . . und n ≤ π(n) gilt. Welches sind diese Permutationen? Behauptung: Diese Eigenschaft hat nur die Identität! (Wäre π nicht die Identität, so gäbe es ein i mit i < π(i). Sei i die kleinste solche Zahl. Sei j das Element mit π(j) = i. Dann ist j ≠ 1, 2, . . . , i−1 (sonst wäre ja π(j) = j ≠ i). Ferner ist auch π(j) ≠ π(i) (sonst wäre π(i) = π(j) = i). Also muss j > i sein, und es wäre also j > i = π(j), ein Widerspruch zur Voraussetzung.) Daher zählt bei der Determinantenbildung einer Dreiecksmatrix nur die Identität ε, und es folgt also det(M) = ∑ sig(π)m ,π() ⋅ m ,π() ⋅ . . . ⋅ m n,π(n) π∈S n = sig(ε) ⋅ m ⋅ m ⋅ . . . ⋅ m nn = m ⋅ m ⋅ . . . ⋅ m nn . ◻ Nun können wir die Determinante einer beliebigen Matrix auf die Determinante einer Dreiecksmatrix zurückführen. Reduktion der Determinante auf eine Diagonalmatrix Sei M eine beliebige Matrix aus K n × n . Dann kann man M allein durch Anwendung von elementaren Zeilenumformungen vom Typ 3 (das heißt Addition eines Vielfachen einer Zeile zu einer anderen) in eine Matrix verwandeln, bei der jedes Element unterhalb der Hauptdiagonalen Null ist (Dreiecksmatrix). Bei diesem Vorgang ändert sich die Determinante nicht. Wenn det(M) ≠ 0 ist, so kann man die Matrix M durch Anwendung von elementaren Zeilenumformungen vom Typ 3 sogar in eine Diagonalmatrix verwandeln, die dieselbe Determinante wie M hat. Beweis Das erste Ziel ist, M in eine Dreiecksmatrix zu verwandeln, also eine Matrix, bei der unterhalb der Hauptdiagonalen nur Nullen stehen. Dies zeigen wir induktiv. Da die Behauptung für 1 × 1-Matrizen trivial ist, können wir annehmen, dass n > 1 ist, und die Behauptung für n−1 richtig ist. Wir zeigen jetzt, dass man durch elementare Zeilenumformungen vom Typ 3 die erste Spalte so gestalten kann, dass jedes Element, das verschieden vom ersten ist, gleich Null ist: Wenn alle Elemente der ersten Spalte gleich Null sind, sind wir fertig. Wenn andererseits irgendein Element der ersten Spalte ungleich Null ist, so kann man durch eine geeignete 224 7 Determinanten Operation des Typs 3 ein von Null verschiedenes Element an die erste Stelle bringen. Indem man zu den Zeilen 2, . . . , n ein geeignetes Vielfaches der ersten Zeile addiert, erreicht man, dass in der Tat alle Elemente der ersten Spalte – mit Ausnahme des ersten – gleich Null sind. Wir haben also eine Matrix M 1 folgender Gestalt konstruiert: ⎛m ⎜ M = ⎜ ⎜ ⎜ ⎝ ∗ ⋯s M ′ ∗⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ Nun wenden wir Induktion auf die (n−1) × (n−1)-Matrix M 1 ′ an: Durch elementare Umformungen des Typs 3 der Zeilen 2, . . . , n kann man M 1 ′ in eine Dreiecksmatrix verwandeln. Damit haben wir das erste Ziel erreicht. Wir haben eine Matrix M 2 der folgenden Gestalt erhalten: m n ⎞ ⎛m m ⋯ s ⋯ s ⎜ m m n ⎟ ⎟ ⎜ ⎜ m ⋮ ⎟ M = ⎜ ⎟ . ⎟ ⎜ ⋱ m n−,n ⎟ ⎜ ⎝ ⋯s m nn ⎠ Aber nun ist auch das zweite Ziel in greifbarer Nähe: Wir behaupten: Wenn det(M) ≠ 0 ist, so kann man M 2 durch elementare Zeilenumformungen des Typs 3 in eine Diagonalmatrix verwandeln. Dazu gehen wir die Spalten von vorne durch. In der ersten Spalte müssen wir offenbar nichts mehr ändern. Da det(M 2 ) = det(M) ≠ 0 ist, muss auch m22 ≠ 0 sein. Nun addieren wir ein geeignetes Vielfaches der zweiten Zeile zur ersten und erreichen damit, dass an der Stelle (1, 2) eine Null steht. Jetzt wissen Sie bestimmt, wie’s weitergeht. Daher führen wir den Rest auch gar nicht mehr aus, sondern schreiben guten Gewissens ein „usw.“ Damit sind wir fertig. Denn wir müssen nur noch festhalten, dass sich nach dem Satz über die Invarianz der Determinantenfunktion gegenüber elementaren Zeilenumformungen bei elementaren Zeilenumformungen des Typs 3 die Determinante nicht ändert. ◻ In vielen Fällen wird die „Entwicklung nach einer Zeile oder Spalte“ angewandt. Für eine n × n-Matrix M bezeichnen wir mit M ij diejenige (n−1) × (n−1)-Matrix, die dadurch entsteht, dass man aus M die i-te Zeile und die j-te Spalte streicht. Wenn zum Beispiel ⎛ M = ⎜ ⎝ ⎞ −⎟ ⎠ 7.5 Wie berechnet man eine Determinante? 225 ist, so gilt etwa M = ( − ), M = ( ) − und M = ( ) . Die Idee besteht jetzt darin, die Berechnung der Determinante einer „großen“ n × nMatrix M auf die Berechnung der Determinanten der „kleineren“ (n−1) × (n−1)-Matrizen M ij zurückzuführen. Genauer gesagt gilt der folgende Satz: Entwicklung nach einer Zeile Sei M = (mij )1 ≤ i, j ≤ n eine Matrix aus K n × n . Dann gilt für alle i ∈ {1, 2, . . . , n}: n det(M) = ∑(−) i+ j m i j ⋅ det(M i j ) j= Mit anderen Worten: Um die Determinante zu berechnen, geht man die i-te Zeile Element für Element durch, multipliziert jeweils ein Element mit der entsprechenden Unterdeterminante und addiert diese Produkte mit alternierendem Vorzeichen. Wir beweisen hier die Entwicklung nach einer Zeile nur im (technisch) einfachsten Fall, nämlich die Entwicklung nach der ersten Zeile. Diese lautet: Entwicklung nach der ersten Zeile Sei M = (mij )1 ≤ i, j ≤ n eine Matrix aus K n × n . Dann gilt: n det(M) = ∑ (−)+ j m j ⋅ det(M j ) . j= Mit anderen Worten: Um die Determinante zu berechnen, geht man die erste Zeile Element für Element durch, multipliziert jeweils ein Element mit der entsprechenden Unterdeterminante und addiert diese Produkte mit alternierendem Vorzeichen, wobei man mit + beginnt. Vor dem Beweis berechnen wir als Beispiel die Determinante der obigen Matrix: ⎛ ⎞ − − det(M) = ⎜ −⎟ = ⋅ det ( ) − ⋅ det ( ) + ⋅ det ( ) ⎝ ⎠ ⋅ − ⋅ + ⋅ = . 226 7 Determinanten Der Beweis erfolgt durch Induktion nach n. Im Fall n = 1 ist die Aussage trivial, und auch im Falle n = 2 kann man sich von der Richtigkeit der Aussage leicht überzeugen (siehe Übungsaufgabe 7). Sei nun n > 1 und die Aussage richtig für n−1. Wir zeigen, dass die Abbildung n M → ∑ (−)+ j m j ⋅ det(M j ) Δ∶ j= die Bedingungen (D1), (D2) und (D3) erfüllt, also eine (und damit die) Determinantenfunktion ist. (Beachten Sie, dass die Funktion det auf der rechten Seite auf Matrizen mit n−1 Zeilen und Spalten operiert.) (D1) Wir zeigen nur die Additivität. Sei zi ′ = (mi1 ′ , . . . , min ′ ) eine weitere „i-te Zeile“ von M. 1. Fall: i = 1. Dann folgt ⎛z + z ⎜ z ⎜ Δ⎜ ⎜ ⋮ ⎜ ⎜ ⋮ ⎝ zn ′ ⎞ ⎟ n ⎟ ⎟ = ∑ (−)+ j (m j + m j ′ ) ⋅ det(M j ) ⎟ ⎟ j= ⎟ ⎠ n = ∑ (−) + j n m j ⋅ det(M j ) + ∑ (−) j= + j m j ′ ⋅ det(M j ) j= ′ ⎛ z ⎞ ⎛z ⎞ ⎜z ⎟ ⎜ z ⎟ ⎜ ⎟ ⎜ ⎟ ⎟+ Δ⎜ ⋮ ⎟. = Δ⎜ ⋮ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜⋮⎟ ⎜ ⋮ ⎟ ⎝z n ⎠ ⎝zn ⎠ 2. Fall: i > 1. Sei o. B. d. A. i = 2. Dann folgt ⎛ z ⎞ ⎛ z ⎞ ⎛ z ⎞ ⎜z ⎟ ⎜z + z ′ ⎟ n ⎜z ′ ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ + j ⎟ ⎜ ⎟ ⎜ ⎟ Δ⎜ ⎜ z ⎟ = ∑ (−) m j ⋅ det(M j ) = Δ ⎜ z ⎟ + Δ ⎜ z ⎟ , ⎟ j= ⎜ ⎟ ⎜ ⎜ ⎟ ⎜⋮⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟ ⎝z n ⎠ ⎝ zn ⎠ ⎝ zn ⎠ (D2) da die Determinantenfunktion det in der ersten Zeile der (n−1) × (n−1)-Matrizen M 1j additiv ist. Die Homogenität ergibt sich entsprechend (siehe Übungsaufgabe 8). Sei Rang(M) < n. Dann sind die Spalten von M linear abhängig. (Natürlich sind auch die Zeilen von M linear abhängig, aber es wird sich zeigen, dass es günstig ist, die 7.5 Wie berechnet man eine Determinante? 227 Spalten zu betrachten.) Wir können uns – genauso wie im Beweis dafür, dass die Leibnizsche Formel eine Determinantenfunktion beschreibt – überlegen, dass wir o. B. d. A. annehmen können, dass M zwei gleiche Spalten hat. Ferner können wir o. B. d. A. annehmen, dass die ersten beiden Spalten von M gleich sind. (Wenn es nicht die ersten beiden Spalten sein sollten, müssten wir nur komplizierter nummerieren.) Jetzt betrachten wir die einzelnen Summanden der Entwicklungsformel. Zunächst zu den ersten beiden Summanden: 1. Behauptung m ⋅ det(M ) = m ⋅ det(M ) . Das bedeutet, dass sich in der Entwicklungsformel die ersten beiden Summanden gegenseitig wegheben, denn der erste wird mit +1, der zweite mit −1 multipliziert. (Diese Behauptung ergibt sich ganz einfach: Da die erste Spalte von M gleich der zweiten ist, folgt zunächst m11 = m12 . Außerdem ist M 11 = M 12 . Denn die erste Spalte von M 11 ist gleich der (verkürzten) zweiten Spalte von M, und die erste Spalte von M 12 ist gleich der (verkürzten) ersten Spalte von M; da die beiden Spalten von M gleich sind, folgt die Behauptung.) Nun betrachten wir die restlichen Summanden der Entwicklungsformel: 2. Behauptung Für j > 2 gilt: m j ⋅ det(M j ) = . (D3) (Die ergibt sich noch einfacher: Die Matrix M 1j enthält die (verkürzten) beiden ersten Spalten von M. Da diese gleich sind, enthält M 1j also zwei gleiche Spalten. Daher ist det(M 1j ) = 0, und damit erst recht m1j ⋅ det(M 1j ) = 0.) Diese Eigenschaft ist die einfachste: Da die erste Zeile der Einheitsmatrix En nur an der ersten Stelle eine Eins und sonst nur Nullen enthält, reduziert sich die Entwicklungsformel auf Δ(E n ) = ⋅ det(E n− ) . Nach Induktion folgt also Δ(En ) = 1. Damit ist alles gezeigt. ◻ Sie werden sich fragen, ob man die Determinante einer Matrix auch durch Entwicklung nach einer Spalte berechnen kann. Die Antwort darauf ist „ja“: Entwicklung nach einer Spalte Sei M = (mij )1 ≤ i, j ≤ n eine Matrix aus K n × n . Dann gilt für alle j ∈ {1, 2, . . . , n}: n det(M) = ∑ (−) i+ j m i j ⋅ det(M i j ) . i= 228 7 Determinanten Mit anderen Worten: Um die Determinante zu berechnen, geht man die j-te Spalte Element für Element durch, multipliziert jeweils ein Element mit der entsprechenden Unterdeterminante und addiert diese Produkte mit alternierendem Vorzeichen. Wie können wir diesen Satz beweisen? Den Trick kennen wir schon. Wenn wir zum Beispiel die Entwicklung nach der ersten Spalte beweisen wollten, würden wir eine Funktion Γ wie folgt definieren n Γ∶ M → ∑ (−)+i m i ⋅ Γ(M i ) i= und zeigen, dass Γ den Bedingungen (D1), (D2) und (D3) genügt. Dann folgt mit dem Eindeutigkeitssatz, dass Γ = det ist. Diesen Beweis wollen wir hier nicht durchführen. Sie können überprüfen, ob Sie den Beweis für die Entwicklung nach der ersten Zeile verstanden haben, indem Sie die Entwicklung nach der ersten Spalte beweisen (siehe Übungsaufgabe 9). ◻ Achtung! Es ist ein verbreiteter Aberglaube, dass durch die Entwicklung nach einer Zeile oder nach einer Spalte die Berechnung einer Determinante rechentechnisch leichter werde. Das ist nicht richtig; denn man muss auch in diesem Fall (im Allgemeinen) alle n! Permutationen betrachten. Wenn man Glück (und den „richtigen Blick“) hat, kennt man manchmal schon einige der Unterdeterminanten. Besonders schön sind die Fälle, in denen man „sieht“, dass einige der Unterdeterminanten gleich Null sind. In der Regel lohnt sich die Berechnung einer Determinante mit Hilfe der Entwicklung nach einer Zeile oder Spalte nur, wenn es eine Zeile oder Spalte mit vielen Nullen gibt. Die Entwicklung nach einer Zeile oder Spalte ist allerdings für theoretische Zwecke äußerst nützlich, da man mit diesem Instrument die Möglichkeit hat, Sätze mit Induktion nach der Spaltenzahl n zu beweisen. Wir beschließen die Überlegungen dieses Abschnitts mit der Berechnung der Determinante der „transponierten“ Matrix von M. Sei M eine m × n-Matrix. Die zu M transponierte Matrix M T entsteht dadurch, dass man die Zeilen als Spalten liest und umgekehrt. (Dann ist M T eine n × m-Matrix.) Wenn zum Beispiel ⎛ M = ⎜ ⎝A B C D ⎞ ⎟ E⎠ 7.5 Wie berechnet man eine Determinante? 229 ist, so gilt ⎛ ⎜ ⎜ T M =⎜ ⎜ ⎜ ⎜ ⎝ A⎞ B⎟ ⎟ C⎟ ⎟ . ⎟ D⎟ E⎠ Das können wir natürlich noch genauer sagen: Sei M = (mij )1 ≤ i zu M transponierte Matrix M T gleich ≤ m, 1 ≤ j ≤ n . Dann ist die M T = (m ji )≤ j≤n,≤i≤m . (Die Bezeichnungen für die zu M transponierte Matrix sind nicht einheitlich. Man findet für M T auch Bezeichnungen wie M ′ , M*, M t oder t M. Ich habe mich für die Bezeichnung M T entschieden, weil ich glaube, dass man sich diese leicht merken kann.) Wenn M eine quadratische Matrix ist, so ist auch M T eine quadratische Matrix. Man kann also nach der Determinante von M T fragen. Der folgende Satz gibt darauf eine einfache Antwort. Determinante der transponierten Matrix Sei M ∈ K n × n . Dann gilt det(M T ) = det(M) . Der Beweis erfolgt durch Induktion nach n und ist nicht schwer. Im Fall n = 1 ist die Aussage trivial; denn für jede 1 × 1-Matrix M gilt sogar M T = M. Sei nun n > 1 und die Aussage richtig für n−1. Wir rechnen det(M) dadurch aus, dass wir det(M) nach der ersten Zeile entwickeln: n det(M) = ∑ (−)+ j m j ⋅ det(M j ) j= Umgekehrt berechnen wir det(M T ) durch Entwicklung nach der ersten Spalte: n n j= j= det(M T ) = ∑ (−) j+ mTj ⋅ det(M Tj ) = ∑ (−) j+ m j ⋅ det(M Tj ) . Nun betrachten wir die (n−1) × (n−1)-Matrizen M 1j und MT j1 . Die Matrix MT j1 entsteht dadurch, dass wir die j-te Zeile und die erste Spalte von M T streichen, während M 1j dadurch entsteht, dass wir die erste Zeile und die j-te Spalte von M streichen. Daraus folgt, dass M 1j und MT j1 transponierte Matrizen sind. Nach Induktion ist also det(M j ) = det(M Tj ) , . . . und aus den obigen Formeln lesen wir nun die Behauptung det(M) = det(M T ) ab. ◻ 230 7 Determinanten Eine nützliche Folgerung ist, dass wir eine Determinante nicht nur mit Hilfe von elementaren Zeilenumformungen, sondern auch durch elementare Spaltenumformungen berechnen können: Invarianz der Determinantenfunktion gegenüber elementaren Spaltenumformungen Für jede Matrix M ∈ K n × n gilt: (a) Verwandelt man M durch Multiplikation einer Spalte mit einem Element k ∈ K in M ′ , so ist det(M ′ ) = k ⋅ det(M). (b) Verwandelt man die n × n-Matrix M durch Addition eines Vielfachen einer Spalte zu einer anderen Spalte aus M in die Matrix M ′ , so ist det(M ′ ) = det(M). (c) Verwandelt man M durch Vertauschen zweier Spalten in M ′ , so ist det(M ′ ) = −det(M). Der Beweis ergibt sich aus dem Satz über die Invarianz der Determinantenfunktion gegenüber elementaren Zeilenumformungen aus Abschn. 7.1 und dem Satz über die Determinante der transponierten Matrix. ◻ Zur Demonstration der Stärke der entwickelten Methoden, berechnen wir jetzt eine berühmte, auf den ersten Blick sehr kompliziert aussehende Determinante. Seien m1 , m2 , . . . , mn ∈ K. Eine Matrix M ∈ K n × n der Form ⎛ ⎜ ⎜ M=⎜ ⎜ ⎜ ⎜⋮ ⎝ m m m ⋮ mn m m m ⋮ mn ⋯s ⋯s ⋯s ⋯s m n− ⎞ m n− ⎟ ⎟ m n− ⎟ ⎟ ⎟ ⋮ ⎟ n− ⎠ mn heißt nach dem französischen Mathematiker Alexandre Théophile Vandermonde (1735– 1796) Vandermondesche Matrix; ihre Determinante heißt Vandermondesche Determinante. Die Aufgabe besteht darin, die Determinante einer beliebigen Vandermondeschen Matrix zu berechnen (und diese als Funktion von m1 , m2 , . . . , mn auszudrücken). Es bietet sich an, bei der Berechnung der Determinante durch Induktion nach n vorzugehen. Die grundsätzliche Schwierigkeit bei jedem Induktionsbeweis besteht darin, dass man vorher wissen muss, was man beweisen will. Man braucht also eine Vermutung. Diese wird durch die Behauptung des folgenden Satzes ausgedrückt. 7.5 Wie berechnet man eine Determinante? 231 Satz über die Vandermondesche Determinante Seien m1 , m2 , . . . , mn ∈ K. Dann gilt ⎛ ⎜ ⎜ det ⎜ ⎜ ⎜ ⎜⋮ ⎝ m m m ⋮ mn m m m ⋮ mn ⋯s ⋯s ⋯s ⋯s m n− ⎞ m n− ⎟ ⎟ m n− ⎟ ⎟ = ∏ (m j − m i ) . ⎟ ⋮ ⎟ ≤i< j≤n m n n− ⎠ Zum Beispiel ist also ⎛ ⎜ det ⎜ ⎜ ⎜ ⎝ a b c d a b c d a ⎞ b ⎟ ⎟ = (b − a)(c − a)(d − a)(c − b)(d − b)(d − c) . c ⎟ ⎟ d⎠ Die Strategie des Beweises besteht darin, durch elementare Umformungen eine Zeile herzustellen, in der nur ein Element von Null verschieden ist und dann nach dieser Zeile zu entwickeln. Also ans Werk! In einer Art Vorspiel überzeugen wir uns, dass die Aussage jedenfalls für n = 2 richtig ist: In diesem Fall ist m ) M=( m und als Determinante ergibt sich unschwer det(M) = det ( m ) = ⋅ m − m ⋅ = m − m . m Sei nun n > 2 und die Aussage des Satzes richtig für n−1. Das jetzt folgende Schauspiel gliedert sich in drei Akte: Erster Akt Zunächst multiplizieren wir die vorletzte Spalte mit m1 und ziehen sie von der letzten ab. Damit erreichen wir zwei Effekte: Zum einen ergibt sich als letztes Element in der ersten Zeile Null (Hurra!) und zweitens ändert sich nach dem Satz über elementare (Spalten-)Umformungen die Determinante dadurch nicht. Was einmal gut geht, geht auch ein zweites Mal gut: Wir multiplizieren die vorvorletzte Spalte mit m1 und ziehen sie von der vorletzten ab. Damit wird auch das vorletzte Element der ersten Zeile Null (Hurra, hurra!) und die Determinante hat sich noch immer nicht geändert. Nun ist klar, wie es weitergeht: Wir führen den entsprechenden Prozess so oft wie möglich durch. Der letzte Durchgang besteht darin, das m1 -fache der ersten Spalte von der 232 7 Determinanten zweiten abzuziehen. Dadurch wird auch das zweite Element der ersten Zeile Null, und wir haben tatsächlich unsere Wunschzeile erreicht: ⎛ ⎜ ⎜ det ⎜ ⎜ ⎜ ⎜⋮ ⎝ ⎛ ⎜ ⎜ = det ⎜ ⎜ ⎜ ⎜⋮ ⎝ m − m m − m ⋮ mn − m m m m ⋮ mn m m m ⋮ mn m − m m m − m m ⋮ mn − m mn ⋯s ⋯s ⋯s m n− ⎞ m n− ⎟ ⎟ m n− ⎟ ⎟ ⎟ ⋮ ⎟ m n n− ⎠ ⋯s ⋯s ⋯s ⋯s ⎞ m n− − m m n− ⎟ ⎟ m n− − m m n− ⎟ ⎟ . ⎟ ⋮ ⎟ n− n− ⎠ mn − m mn ⋯s Zweiter Akt Wir entwickeln die erhaltene Matrix nach der ersten Zeile. Dies ist in unserem Fall besonders einfach; wir erhalten: ⎛m − m ⎜ m − m det(M) = ⋅ det ⎜ ⎜ ⋮ ⎜ ⎝m n − m m − m m m − m m ⋮ mn − m mn ⋯s ⋯s ⋯s m n− − m m n− ⎞ m n− − m m n− ⎟ ⎟ . ⎟ ⋮ ⎟ n− n− ⎠ mn − m mn Der nächste Schritt ist klar: Aus der ersten Zeile dieser Matrix kann man den Faktor m2 −m1 herausziehen, aus der zweiten den Faktor m3 −m1 , . . . und aus der letzten den Faktor mn −m1 . So erhalten wir det(M) = . . . = (m − m ) ⋅ (m − m ) ⋅ . . . ⋅ (m n − m ) ⎛ ⎜ ⋅ det ⎜ ⎜⋮ ⎜ ⎝ m m mn m m ⋮ mn ⋯s ⋯s ⋯s m n− ⎞ m n− ⎟ ⎟ . ⋮ ⎟ ⎟ m n n− ⎠ Dritter und letzter Akt Zu unserer großen Freude erkennen wir jetzt auf der rechten Seite wieder eine Vandermondematrix – und was noch schöner ist: Es handelt sich um eine (n−1) × (n−1)-Vandermondematrix. Also können wir Induktion anwenden und erhalten: det(M) = . . . = (m − m ) ⋅ (m − m ) ⋅ . . . ⋅ (m n − m ) ⋅ ∏ m j − m i ≤i< j≤n = ∏ m j − mi . ≤i< j≤n Damit haben wir tatsächlich alles gezeigt, und der Beweis ist beendet. ◻ 7.6 Der Multiplikationssatz 233 7.6 Der Multiplikationssatz Das Hauptergebnis dieses Abschnitts ist das folgende: Multiplikationssatz für Determinanten Seien M, M ′ ∈ K n × n . Dann gilt det(MM ′) = det(M) ⋅ det(M ′ ) . In Worten heißt dies: Die Determinante des Produkts zweier Matrizen ist gleich dem Produkt ihrer Determinanten. Bevor wir den Satz beweisen, werden wir einige Folgerungen daraus aufschreiben. Alle vorkommenden Matrizen seien aus K n × n . Folgerungen aus dem Multiplikationssatz 1. Folgerung. Das Produkt zweier Matrizen mit Determinante ≠ 0 hat ebenfalls Determinante ≠ 0. ◻ 2. Folgerung. (a) Das Produkt zweier Matrizen mit Determinante 1 hat ebenfalls Determinante 1. (b) Das Produkt zweier Matrizen mit Determinante 1 oder −1 hat ebenfalls Determinante 1 oder −1. ◻ 3. Folgerung. Für je zwei Matrizen M, M ′ ∈ K n × n gilt det(MM ′ ) = det(M ′ M) . 4. Folgerung. Für jede invertierbare Matrix M ∈ K ◻ n×n gilt det(M − ) = det(M)− . Das bedeutet: Um die Determinante der Matrix M −1 auszurechnen, muss man nicht die Matrix M invertieren; wenn man det(M) kennt, reicht es, dieses Körperelement zu invertieren. ◻ 234 7 Determinanten Zum Beweis des Multiplikationssatzes brauchen wir einige Vorbereitungen. Zunächst überlegen wir uns, wie man eine elementare Zeilenumformung vom Typ 3 durch eine Matrizenmultiplikation ausdrücken kann. Multiplikation mit Elementarmatrizen Sei M ∈ K n × n . Die Matrix M ′ entstehe aus M durch Addition des a-fachen der j-ten Zeile von M zur i-ten Zeile von M (i ≠ j). Dann gilt M ′ = A ⋅ M, wobei A die Matrix aus K n × n ist, die auf der Hauptdiagonale Einsen, an der Stelle (i, j) das Element a und sonst Nullen hat: ⎛1 ⎜0 ⎜ A = ⎜ ⎜0 ⎜ ⎜⋮ ⎝0 0 0 ⋯s 1 0 0 ⋱ a ⋱ 0 0 0⎞ 0⎟ ⎟ ⋮⎟ ⎟ ⎟ 0⎟ 1⎠ . Solche Matrizen werden Elementarmatrizen genannt. Jede Elementarmatrix hat die Determinante 1. Der Beweis ist einfach und erfolgt dadurch, dass wir die Matrix AM berechnen. Wie erhält man die erste Zeile von AM? Nichts leichter als das: Man multipliziert den Vektor (1, 0, 0, . . . , 0) der Reihe nach mit den Spalten von M; offenbar reproduziert man dadurch nur die erste Zeile z1 von M. Dieses Argument können wir sofort verallgemeinern: Auch die Zeilen z2 , . . . , zi−1 und zi+1 , . . . , zn werden nur reproduziert. Letzte Frage: Was passiert mit der i-ten Zeile? Da die i-te Zeile von A an der i-ten Stelle eine 1, an der j-ten Stelle das Element a und sonst Nullen hat, ergibt sich als i-te Zeile von AM die Summe zi + azj . Insgesamt haben wir damit AM = M ′ gezeigt. Da jede Elementarmatrix eine Dreiecksmatrix ist, die auf der Hauptdiagonale nur Einsen hat, ist ihre Determinante gleich 1. ◻ Die zu einer Elementarmatrix inverse Matrix ist wieder eine Elementarmatrix. Genauer gesagt gilt: Ist A die Elementarmatrix aus K n × n , bei der an der Stelle (i, j) außerhalb der Hauptdiagonalen das Element a ≠ 0 steht, so ist A−1 diejenige Elementarmatrix, bei der an der Stelle (i, j) das Element −a steht (siehe Übungsaufgabe 13). Eine wichtige Folgerung aus obigem Lemma ist der folgende Satz. 7.6 Der Multiplikationssatz 235 Satz Sei M ∈ K n × n . Wenn det(M) ≠ 0 ist, so gibt es ein Produkt S von Elementarmatrizen und eine Diagonalmatrix D mit det(D) = det(M), so dass gilt: M = SD . Man kann D so wählen, dass jedes Diagonalelement – bis auf das letzte – gleich 1 ist; dieses letzte Diagonalelement ist dann gleich der Determinante von M. Beweis Wir verwandeln M durch elementare Zeilenumformungen vom Typ 3 in eine Diagonalmatrix D. Jede solche Zeilenumformung wird durch eine Elementarmatrix beschrieben. Also wird die Verwandlung von M in D durch ein Produkt T von Elementarmatrizen beschrieben. Nach dem Satz über die Multiplikation mit Elementarmatrizen gilt also D = TM . Da die zu einer Elementarmatrix inverse Matrix wieder eine Elementarmatrix ist, hat auch T eine Inverse S, die wieder ein Produkt von Elementarmatrizen ist. Damit gilt SD = M. Der Rest des Beweises ist Übungsaufgabe 14. ◻ Nun beweisen wir den Multiplikationssatz. Dazu unterscheiden wir zwei Fälle. 1. Fall: det(M) = 0. Dann ist Rang(M) < n. Wir erinnern uns, dass Rang(MM ′ ) = dim(Bild(MM ′ )) ist – wenn man MM ′ als lineare Abbildung des K n (dessen Elemente wir als Spaltenvektoren auffassen) ansieht. Da natürlich Bild(MM ′ ) ⊆ Bild(M) ist, folgt Rang(MM ′ ) = dim(Bild(MM ′ )) ≤ dim(Bild(M)) = Rang(M) < n . Also ist auch det(MM ′ ) = 0. 2. Fall: det(M) ≠ 0. Wir haben in diesem Fall kein Mittel, die Determinante des Produkts zweier Matrizen auszurechnen. Das einzige, was entfernt an eine solche Aufspaltung erinnert, ist die Homogenität: Wir können ein Körperelement aus einer Zeile „herausziehen“. Das ist die Idee: Wir verwandeln eine der beiden Matrizen in ein Körperelement und nützen dann die Homogenität aus. Bleibt nur die Frage: Wie verwandelt man eine Matrix in ein Körperelement (das auch noch die Determinante der Matrix sein muss)? Die Antwort ist die folgende: Da det(M) ≠ 0 ist, können wir nach dem vorigen Satz M durch elementare Zeilenumformungen vom Typ 3 so in eine Diagonalmatrix D ver- 236 7 Determinanten wandeln, dass alle Diagonalelemente von D gleich 1 sind – nur das letzte ist gleich der Determinante von M, die wir mit d bezeichnen. Das heißt: Es gibt ein Produkt S von Elementarmatrizen, so dass M = SD ist. Dann ist det(MM ′) = det(SDM ′) = det(DM ′), da SDM ′ aus DM ′ durch elementare Zeilenvertauschungen vom Typ 3 hervorgeht. Die ersten n−1 Zeilen der Matrix DM ′ sind die gleichen wie die von M ′ ; nur die letzte Zeile wurde mit d multipliziert. Wegen der Homogenität folgt somit schließlich det(MM ′ ) = . . . = det(DM ′ ) = d ⋅ det(M ′ ) = det(M) ⋅ det(M ′ ) . ◻ 7.7 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Permutationen ◻ Jede Permutation ist zyklisch. ◻ Jede Permutation lässt sich als Produkt disjunkter Zyklen schreiben. ◻ Jede Permutation lässt sich als Produkt nicht-disjunkter Zyklen schreiben. ◻ Jede Permutation lässt sich als Produkt von Zyklen der Länge 5 schreiben. ◻ Jede Permutation ist eine Hintereinanderausführung von Fehlständen. 2. Thema: Gerade und ungerade Permutationen ◻ Das Produkt zweier gerader Permutationen ist gerade. ◻ Das Produkt zweier ungerader Permutationen ist gerade. ◻ Das Produkt einer geraden mit einer ungeraden Permutation ist gerade. ◻ Wenn n gerade ist, ist jede Permutation aus Sn gerade. 3. Thema: Determinanten Die Determinante einer n × n-Matrix ist ◻ ein quadratisches Schema, ◻ eine Matrix, ◻ eine Abbildung, ◻ ein Körperelement, ◻ ein Vektor, ◻ eine Permutation. 7.7 Verständnisfragen, Übungen und Tipps 237 Übungsaufgaben 1. Zeigen Sie: Es gibt genau zwei Permutationen aus S3 , die Zyklen der Länge 3 sind; es gibt genau sechs Permutationen aus S4 , die durch einen Zyklus der Länge 4 beschrieben werden. Allgemein: Es gibt genau (n−1)! Permutationen aus Sn , die durch einen Zyklus der Länge n beschrieben werden. 2. Zeigen Sie: Die Anzahl der Fehlstände einer Permutation π aus Sn ist gleich der Anzahl der Fehlstände von π−1. 3. Berechnen Sie die Determinanten der folgenden reellen Matrizen: ⎛− ⎜ ⎝ ⎞ ⎟ , ⎠ ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ ⎛− ⎞ ⎜ ⎟ , ⎝ ⎠ ⎞ ⎟ ⎟ . ⎟ ⎟ ⎠ 4. Welche Determinanten haben die folgenden reellen Matrizen? ⎛ ⎞ ⎜ ⎟ , ⎝ ⎠ ⎛ ⎜a ⎜ ⎜ ⎜ ⎜ ⎜⋮ ⎝ ⎛ ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ , ⎜ ⎟ ⎝ ⎠ a a a ⋱ ⋱ ... ... ⋱ a ⎞ ⋮⎟ ⎟ ⎟ ⎟ . ⎟ a⎟ ⎠ 5. Bestimmen Sie die Determinante der folgenden Matrix aus K n × n : ⎛a ⎜b ⎜ ⎜b ⎜ ⎜ ⎜ ⎝b b a b ⋮ b b b a ⋯ ⋯ ⋯ ⋱ b b⎞ b⎟ ⎟ b⎟ ⎟ . ⎟ ⋮⎟ a⎠ 6. Eine Matrix P aus K n × n heißt eine Permutationsmatrix, falls jedes Element von P entweder 0 oder 1 ist, und, falls in jeder Zeile und in jeder Spalte genau eine 1 vorkommt. Berechnen Sie die Determinante einer beliebigen Permutationsmatrix. 7. Machen Sie sich die Richtigkeit der Entwicklung nach der ersten Zeile in den Fällen n = 2 und n = 3 explizit klar. 8. Beweisen Sie, dass die im Beweis der Entwicklung nach der ersten Zeile auftauchende Funktion Δ auch homogen in jeder Zeile ist. 238 7 Determinanten 9. Beweisen Sie die Entwicklung einer Determinante nach der ersten Spalte: Sei M = (mij )1 ≤ i ,j ≤ n eine Matrix aus K n × n . Dann gilt: n det(M) = ∑ (−) i+ m i ⋅ det(M i ) . i= 10. Seien A, B ∈ K n × n . Zeigen Sie (AB)T = BT AT . 11. Zeigen Sie, dass das Transponieren von Matrizen eine lineare Abbildung auf der Menge K n × n ist. 12. Zeigen Sie: Das Produkt zweier reeller n × n-Matrizen mit positiver Determinante hat ebenfalls eine positive Determinante. 13. Zeigen Sie: Wenn A eine Elementarmatrix aus K n × n ist, bei der an der Stelle (i, j) außerhalb der Hauptdiagonalen das Element a ≠ 0 steht, so ist A−1 diejenige Elementarmatrix, bei der an der Stelle (i, j) das Element −a steht. 14. Sei M eine n × n-Matrix, deren Determinante nicht Null ist. Dann gibt es eine Diagonalmatrix D, so dass jedes Diagonalelement – bis auf das letzte – gleich 1 ist; ferner gibt es ein Produkt S von Elementarmatrizen mit M = SD. Projekt: Determinanten und Volumen 1. Berechnen Sie den Flächeninhalt des Parallelogramms, bei dem der Nullpunkt eine Ecke ist und das durch die Vektoren P = (a, c) und Q = (b, d) aufgespannt wird. Wir nennen diese Funktion A(a, b, c, d). [Tipp: Sie können dazu die in der folgenden Zeichnung angedeutete Flächenzerlegung verwenden.] 7.7 Verständnisfragen, Übungen und Tipps 239 2. Kann A(a, b, c, d) = 0 sein? Kann A(a, b, c, d) eine negative Zahl sein? 3. Wie ändert sich der Wert der Funktion A(a, b, c, d), wenn der Vektor (a, b) mit einer Zahl k > 0 multipliziert wird? Interpretieren Sie das geometrisch. Was passiert, wenn man (a, b) und (c, d) vertauscht? 4. Formulieren Sie den Zusammenhang der Eigenschaften der Funktion A(a, b, c, d) mit der Determinante. 5. Verallgemeinern Sie den Sachverhalt aus den Aufgabe 1 bis 4 auf den R3 . 6. Man kann eine reelle 2 × 2-Matrix A auch als lineare Abbildung von R2 in sich auffassen. Zeigen Sie: det(A) ist der Faktor, um den sich die Fläche des Einheitsquadrats bei Anwendung von A ändert. Interpretieren Sie in diesem Zusammenhang den Multiplikationssatz von Matrizen. Sie sollten mit folgenden Begriffen umgehen können Determinantenfunktion, elementare Umformungen, Permutation, Zyklus, Transposition, Nachbartransposition, Fehlstand, gerade und ungerade Permutationen, Signum, Leibnizsche Formel, Regel von Sarrus, Entwicklung nach einer Zeile, transponierte Matrix, Elementarmatrix, Multiplikationssatz Was sagen Sie dazu? Gnutpuaheb Jede nichtquadratische Matrix ist invertierbar. Sieweb Sei M eine nichtquadratische Matrix. Dann hat M keine Determinante. Also ist die Determinante von M nicht Null. Also ist M invertierbar. 240 7 Determinanten 8 Diagonalisierbarkeit In diesem Kapitel gehen wir der Frage nach, welche linearen Abbildungen eines Vektorraums in sich durch eine „Diagonalmatrix“ dargestellt werden können, also durch eine Matrix, bei der nur auf der Diagonale von Null verschiedene Elemente stehen dürfen. Um diese – nicht ganz einfache – Frage zu beantworten, brauchen wir als wichtige Instrumente die Begriffe Eigenwert, charakteristisches Polynom und Minimalpolynom. 8.1 Einführung In Kap. 5 haben wir gesehen, dass sich jede lineare Abbildung eines Vektorraums V in einen Vektorraum W durch eine Matrix darstellen lässt. Diese Darstellungsmatrix hängt von der Auswahl einer Basis von V und einer Basis von W ab. Es stellt sich somit die Frage, ob man durch geeignete Wahl dieser Basen die Darstellungsmatrix möglichst einfach gestalten kann. Was heißt hier einfach? In diesem Fall ist diese philosophische Frage einfach zu beantworten: Man muss mit Matrizen gut rechnen können! Insbesondere müssen die Multiplikation einer Matrix mit einem Vektor und die Multiplikation zweier Matrizen einfach auszuführen sein. Wenn wir uns eine einfache Matrix wünschen dürften, was würden wir uns dann wünschen? Am einfachsten sind solche Matrizen zu multiplizieren, die möglichst viele Nullen haben. Es wäre aber weltfern zu erwarten, dass man jede Matrix in eine äquivalente umformen kann, die nur aus Nullen besteht. Das Ideal, von dem man realistisch träumen kann, sind Matrizen, die außerhalb ihrer Diagonalen nur Nullen haben. Diese „Diagonalmatri- A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_8, © Springer Fachmedien Wiesbaden 2014 241 242 8 Diagonalisierbarkeit zen“ sind außerordentlich einfach zu multiplizieren; es ist nämlich ⎛ k ⎜ ⎜ ⎜. . . ⎜ ⎝ k ... ... ... ... ... ⎞ ⎛ h ⎜ . . .⎟ ⎟⋅⎜ ⎟ ⎟ ⎜ ⎜. . . kn ⎠ ⎝ h ... ... ... ... ... ⎞ ⎛k ⋅ h ⎜ . . .⎟ ⎟=⎜ ⎟ ⎟ ⎜ ⎜ ... hn ⎠ ⎝ k ⋅ h ... ... ... ... ... ⎞ ... ⎟ ⎟ . ⎟ ⎟ kn ⋅ hn ⎠ Wir werden das Problem aber nicht in aller Allgemeinheit angehen, sondern sofort zwei Reduktionen o. B. d. A. vornehmen. • Zum einen betrachten wir nicht lineare Abbildungen eines Vektorraums V in einen beliebigen anderen Vektorraum W, sondern lineare Abbildungen von V in sich. Dies können wir ohne Einschränkung machen: Ist nämlich f eine lineare Abbildung von V in W, so ist Bild(f ) ein Unterraum von W, dessen Dimension nicht größer ist als die Dimension von V. Daher können wir Bild(f ) mit einem Unterraum von V identifizieren; wenn wir eine gute Beschreibung für diesen Fall haben, können wir die Methoden oder die Ergebnisse auch auf die allgemeine Situation übertragen. • Zum anderen betrachten wir nicht allgemeine Darstellungsmatrizen B M B′ (f ) bezüglich zweier Basen B und B′ , sondern nur Darstellungsmatrizen B M B (f ) bezüglich einer einzigen Basis B. Denn wenn man eine gegebene Basis B umsortieren und die Basis B′ frei wählen kann, so kann man erreichen, dass B M B′ (f ) folgende besonders einfache Form hat (siehe Übungsaufgabe 1): ⎛ ⎜ ⎜ ⎜ B M B ′ ( f ) = ⎜ ⎜ ⎜⋮ ⎝ ⋱ ... ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⋮⎟ . . . ⋱⎠ Dies suggeriert die zentrale Definition dieses Kapitels. Sei f eine lineare Abbildung des K-Vektorraums V in sich. Dann heißt f diagonalisierbar, wenn es eine Basis B von V gibt, so dass in der Darstellungsmatrix B M B (f ) höchstens auf der Diagonalen von Null verschiedene Elemente stehen. Eine solche Matrix heißt auch Diagonalmatrix. Mit anderen Worten: f ist diagonalisierbar, wenn bezüglich einer geeigneten Basis B die Darstellungsmatrix folgende Gestalt hat: ⎛ k ⎜ ⎜ B MB ( f ) = ⎜ ⎜. . . ⎝ k ... ... ... ... ... ⎞ . . .⎟ ⎟ . ⎟ ⎟ kn ⎠ 8.2 Eigenvektoren und Eigenwerte 243 Wir drücken dieses Phänomen nochmals anders aus: Die lineare Abbildung f ist genau dann diagonalisierbar, wenn es eine Basis B = {v1 , v2 , . . . ,vn } von V gibt, so dass f (v ) = k v , f (v ) = k v , . . . , f (v n ) = k n v n ist für geeignete Körperelemente k1 , k2 , . . . , kn . Ist jede lineare Abbildung diagonalisierbar??? Die Antwort lautet – nein! Daraus ergeben sich die zentralen Fragen dieses Kapitels: • Unter welchen Bedingungen ist eine gegebene lineare Abbildung diagonalisierbar? • Gibt es ein Verfahren, mit dem man entscheiden kann, ob eine gegebene lineare Abbildung diagonalisierbar ist? • Gibt es ein Verfahren, mit dem man eine Basis finden kann, bezüglich derer die Darstellungsmatrix einer gegebenen linearen Abbildung eine Diagonalmatrix ist? • Wenn f nicht diagonalisierbar ist, was dann? Wir halten im ganzen Kapitel folgende Bezeichnungen fest. Sei V ein n-dimensionaler Vektorraum über einem Körper K, und sei f eine lineare Abbildung von V in sich. Dieses Kapitel ist nicht ganz einfach, aber zentral in der linearen Algebra. Entsprechend gründlich sollten Sie es studieren. 8.2 Eigenvektoren und Eigenwerte Das wichtigste Instrument zur Untersuchung der Frage der Diagonalisierbarkeit sind die Begriffe „Eigenvektor“ und „Eigenwert“. Diese Begriffe spielen aber auch unabhängig von der Frage der Diagonalisierbarkeit in der Mathematik und ihren Anwendungen eine zentrale Rolle. Ein Körperelement k ∈ K heißt ein Eigenwert von f , falls es einen Vektor v ∈ V gibt mit f (v) = k ⋅ v und v ≠ o . Ein Vektor v ∈ V heißt ein Eigenvektor von f zum Eigenwert k, falls gilt f (v) = k ⋅ v und v ≠ o . Bemerkung In der Definition eines Eigenwerts mussten wir fordern, dass v von Null verschieden ist; denn sonst wäre jedes Körperelement ein Eigenwert (da f (o) = o = k ⋅ o). 244 8 Diagonalisierbarkeit Beispiele (a) Die Identität hat den Eigenwert 1 und keinen sonst. (a)′ Eine lineare Abbildung f hat den Eigenwert 1, wenn es einen Vektor v ≠ o gibt mit f (v) = v. (b) Die Nullabbildung hat 0 als Eigenwert und keinen sonst. (b)′ Eine lineare Abbildung f hat 0 als Eigenwert, wenn es einen Vektor v ≠ o gibt mit f (v) = o. (c) Die lineare Abbildung f von R2 in sich, die definiert ist durch f (x, y) := (x, 0) hat die Eigenwerte 0 und 1: Jeder Vektor der Form (0, y) hat den Eigenwert 0 und jeder Vektor der Form (x, 0) hat den Eigenwert 1. (d) Die Eigenvektoren zum Eigenwert 0 bilden zusammen mit dem Nullvektor genau den Kern von f : {v ∈ V|f (v) = o, v ≠ 0} ∪ {o} = Kern(f ). Mit dem Begriff des Eigenvektors können wir unsere Fragestellung bereits nutzbringend umformulieren. 0. Kriterium zur Diagonalisierbarkeit Eine lineare Abbildung f von V in sich ist genau dann diagonalisierbar, wenn es eine Basis von V aus Eigenvektoren gibt. Beweis Wenn V eine Basis aus Eigenvektoren von f besitzt, ist die Darstellungsmatrix von f bezüglich dieser Basis eine Diagonalmatrix. Umgekehrt: Wenn f diagonalisierbar ist, so gibt es eine Basis B = {v1 , v2 , . . . , vn } von V, so dass die Darstellungsmatrix von f bezüglich B eine Diagonalmatrix ist. Wenn k1 , k2 , . . . , kn die Elemente auf der Diagonalen dieser Matrix sind, so folgt f (vi ) = ki vi für i = 1, 2, . . . , n. ◻ Also ist jedes vi ein Eigenvektor, und somit besteht B nur aus Eigenvektoren. Es wird sich als zweckmäßig erweisen, Eigenwerte von Matrizen zu betrachten. Dazu definieren wir: Sei M ∈ K n × n . Ein Element k ∈ K heißt ein Eigenwert von M, falls k ein Eigenwert einer linearen Abbildung ist, die bezüglich einer Basis durch M definiert ist. Das bedeutet: Das Element k ∈ K ist ein Eigenwert von M = (mij ), falls es eine Basis {v1 , v2 , . . . , vn } von K n gibt, so dass die lineare Abbildung f , die durch f (v j ) ∶= m j v + m j v + . . . + m n j v n definiert ist, den Eigenwert k hat. Kurz: Eigenwerte einer Matrix sind die Eigenwerte der zugehörigen linearen Abbildung (vergleichen Sie hierzu Übungsaufgabe 5). 8.2 Eigenvektoren und Eigenwerte 245 Beispiel Man macht sich ohne große Schwierigkeiten klar, dass die Matrix M = ( ) die Eigenwerte 1 und 0 hat. Satz über die Eigenwerte einer Matrix Die Eigenwerte einer Matrix M sind genau die Elemente k ∈ K, für die es einen von Null verschiedenen Spaltenvektor x gibt mit Mx = kx. Beweis Übungsaufgabe 2. Wir beginnen unsere Untersuchungen von Eigenwerten und Eigenvektoren behutsam. Lemma über verschiedene Eigenwerte Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig. Beweis Seien v1 , v2 , . . . , vm Eigenvektoren zu den Eigenwerten k1 , k2 , . . . , km , wobei k1 , k2 , . . . , km paarweise verschieden sind. Wir zeigen die Behauptung durch Induktion nach m. Der Fall m = 1 ergibt sich aus der Definition eines Eigenwerts, da v1 ≠ o sein muss. Sei nun m > 1, und sei die Behauptung richtig für m−1. Es sei hv + h v + . . . + h m v m = o . Wir haben zu zeigen, dass h1 = h2 = . . . = hm = 0 ist. Durch Anwenden von f erhalten wir aus obiger Gleichung o = f (o) = h f (v ) + h f (v ) + . . . + h m f (v m ) = h k v + h k v + . . . + h m k m v m . Andererseits gilt auch o = k m ⋅ o = k m ⋅ (h v + h v + . . . + h m v m ) = k m h v + k m h v + . . . + k m h m v m . Da K kommutativ ist, ergibt sich zusammen o = (k m − k )h v + (k m − k )h v + . . . + (k m − k m− )h m− v m− . Nach Induktion folgt daraus (k m − k )h = , (k m − k )h = , . . . , (k m − k m− )h m− = . 246 8 Diagonalisierbarkeit Da nach Voraussetzung km ≠ ki ist (1 ≤ i ≤ m−1), erhalten wir h1 = h2 = . . . = hm−1 = 0. ◻ Damit folgt auch hm = 0. Aus diesem Lemma ergibt sich der erste Satz, der eine hinreichende Bedingung für die Diagonalisierbarkeit einer linearen Abbildung angibt. Satz Wenn eine lineare Abbildung eines n-dimensionalen Vektorraums n verschiedene Eigenwerte hat, so ist sie diagonalisierbar. Beweis Seien v1 , v2 , . . . , vn Eigenvektoren zu den n verschiedenen Eigenwerten. Nach obigem Lemma sind dann v1 , v2 , . . . , vn linear unabhängig; also bilden sie eine Basis. Bezüglich dieser Basis hat f Diagonalgestalt. ◻ Beispiel Die Matrix M = ( ) hat die Eigenwerte 1 und −1 (mit Eigenvektoren ( ) und ( )), ist also diagonalisierbar. Eine Diagonalgestalt lautet ( ) . − − Der letzte grundlegende Begriff dieses Abschnitts ist der des Eigenraums. Sei k ∈ K. Mit Eig(f , k) bezeichnen wir die Menge aller Vektoren v mit f (v) = k ⋅ v: Eig( f , k) = {v ∈ V ∣ f (v) = k ⋅ v} . Für einen Eigenwert k nennt man Eig(f , k) den Eigenraum von f zum Eigenwert k. Im folgenden Hilfssatz fassen wir die wichtigsten Eigenschaften von Eigenräumen zusammen. Lemma über Eigenräume Sei k ∈ K beliebig. Dann gilt: (a) Eig(f , k) ist ein Unterraum von V. (b) Genau dann ist k ein Eigenwert von f , wenn Eig(f , k) ≠ {o} ist. (c) Eig(f , k) = Kern(f − k ⋅ id). (d) Seien k1 , k2 , . . . , ks (paarweise) verschiedene Elemente von K. Ist Br eine Basis von Eig(f , kr ) (r = 1, 2, . . . , s), so ist B = B1 ∪ B2 ∪ . . . ∪ Bs eine linear unabhängige Menge von V. 8.2 Eigenvektoren und Eigenwerte 247 Beweis (a) Nach dem Unterraumkriterium ist nur die Abgeschlossenheit bezüglich der Addition und der skalaren Multiplikation zu zeigen. Seien also v, w ∈ Eig(f , k), und sei h ∈ K. Dann ist f (v + w) = f (v) + f (w) = kv + kw = k(v + w) und f (h ⋅ v) = h ⋅ f (v) = h ⋅ kv = k ⋅ hv . Also sind sowohl v + w als auch h ⋅ v in Eig(f , k) enthalten. (b) folgt aus der Definition eines Eigenwerts. (c) ist nicht viel schwieriger: Eig( f , k) = {v ∈ V∣ f (v) = k ⋅ v} = {v ∈ V ∣ f (v) − k ⋅ v = o} = {v ∈ V∣( f − k ⋅ id)(v) = o} = Kern( f − k ⋅ id) . In (d) steckt die wahre Substanz dieses Hilfssatzes: Sei Br = {v1 (r) , v2 (r) , . . . , vnr (r) } (r = 1, 2, . . . , s). Sei n () () ∑ hi vi i= nr (r) (r) Definiere v r = ∑ h i v i i= n () () + ∑ hi vi i= ns (s) (s) + . . . + ∑ hi vi =o. i= (r = , , . . . , s). Dann liegen die Vektoren vr in Eig(f , kr ), und es ist v + v + . . . + vs = o . Das Lemma über verschiedene Eigenwerte impliziert dann v1 = v2 = . . . = vs = o. Also ist nr (r) (r) ∑ hi vi =o i= für r = 1, 2, . . . , s. Da {v1 (r) , v2 (r) , . . . , vnr (r) } eine Basis von Eig(f , kr ) ist, muss also (r) h (r) = h = . . . = h nr (r) = sein. Da dies für alle r = 1, 2, . . . , s gilt, ist der Hilfssatz damit bewiesen. 1. Kriterium zur Diagonalisierbarkeit Eine lineare Abbildung von V in sich ist genau dann diagonalisierbar, wenn die Summe der Dimensionen ihrer Eigenräume mindestens n ist. ◻ 248 8 Diagonalisierbarkeit Beweis Wenn f diagonalisierbar ist, so gibt es nach dem 0. Kriterium eine Basis B aus Eigenvektoren. Da jeder Eigenvektor in einem Eigenraum liegt, ist das Erzeugnis der Eigenräume mindestens so groß wie das Erzeugnis der Basis B. Also erzeugen die Eigenräume den ganzen Vektorraum V, und somit ist die Summe der Dimensionen der Eigenräume mindestens n. Umgekehrt möge die Summe der Dimensionen der Eigenräume mindestens n sein. Wir wählen in jedem Eigenraum eine Basis und bilden die Vereinigung B all dieser Basen. Nach dem Hilfssatz über Eigenwerte (d) ist dann B linear unabhängig. Da B nach Voraussetzung mindestens n Elemente hat, muss B eine Basis sein (und genau n Elemente haben). Wiederum nach dem 0. Kriterium ist f also diagonalisierbar. ◻ Bemerkung Aus dem Beweis ergibt sich auch, dass die Summe der Dimensionen der Eigenräume gleich n ist; daher könnte man im 1. Kriterium „mindestens“ durch „gleich“ ersetzen. Damit haben wir ein erstes brauchbares Verfahren erarbeitet, um die Diagonalisierbarkeit einer linearen Abbildung f zu überprüfen. Dieses Verfahren geht in drei Schritten vor. 1. Schritt: Bestimmung der Eigenwerte von f . 2. Schritt: Bestimmung der (Dimensionen der) Eigenräume. 3. Schritt: Anwendung des 1. Kriteriums. Wir demonstrieren dies an folgendem Beispiel: Die Matrix M = ( ) ∈ K 2 × 2 ist nicht diagonalisierbar. (1) Sei {v, w} eine Basis von K 2 , und sei f die lineare Abbildung von K 2 in sich, deren Darstellungsmatrix bezüglich {v, w} die Matrix M ist. Das bedeutet f (v) = ⋅ v + ⋅ w = o, f (w) = ⋅ v + ⋅ w = v . Wir fragen uns, welche k ∈ K Eigenwerte dieser Abbildung sein können. Wenn k ein Eigenwert ist, muss es einen Vektor av + bw ≠ o geben mit f (av + bw) = k(av + bw). Wegen f (av + bw) = a ⋅ f (v) + b ⋅ f (w) = a ⋅ o + b ⋅ v = bv folgt daraus bv = f (av + bw) = k(av + bw) = kav + kbw , also b = ka und 0 = kb. Daraus ergibt sich k = 0. (Wäre k ≠ 0, so müsste b = 0, und damit auch a = 0 sein, im Widerspruch zu av + bw ≠ o.) Also ist 0 der einzige Eigenwert von f . (2) Der einzige Eigenraum, den wir untersuchen müssen, ist also der Eigenraum Eig(f , 0) zum Eigenwert 0. Dieser berechnet sich als Eig( f , ) = {av + bw∣a, b ∈ K, f (av + bw) = (av + bw) = o} = {av + bw∣a, b ∈ K, bv = o} = {av + bw∣a, b ∈ K, b = } = {av∣a ∈ K} = ⟨v⟩ . 8.3 Das charakteristische Polynom 249 (3) Nach (1) ist Eig(f , 0) der einzige nichttriviale Eigenraum; nach (2) hat dieser die Dimension 1. Daher ist die Summe der Dimensionen aller Eigenräume kleiner als n; nach dem 1. Kriterium ist also f nicht diagonalisierbar. 8.3 Das charakteristische Polynom Bislang haben wir schon mit Eigenwerten und Eigenvektoren argumentiert, wir wissen aber noch nicht, wie man diese leicht berechnen kann. Die einzige Möglichkeit, die wir bislang haben, ist systematisches Probieren. In diesem Abschnitt wird ein Kalkül vorgestellt, mit dem man Eigenwerte in gewissem Sinn automatisch berechnen kann. Sei wieder f eine lineare Abbildung des n-dimensionalen K-Vektorraums V in sich. Der folgende Hilfssatz ist entscheidend: Satz über Eigenwerte einer Matrix Sei M die Darstellungsmatrix von f bezüglich einer Basis B von V. Dann gilt: Genau dann ist k ∈ K ein Eigenwert von f, wenn gilt det(M − kE) = . Beweis Wir wissen: k ist ein Eigenwert von f ⇔ Kern( f − k ⋅ id) ≠ {o} ⇔ f − k ⋅ id ist nicht injektiv. Nun müssen wir auf Matrizen umschalten. Wie sieht die Darstellungsmatrix (bezüglich B) der linearen Abbildung f − k ⋅ id aus? Da M die Darstellungsmatrix von f und k ⋅ E die Darstellungsmatrix von k ⋅ id ist, ist M − k ⋅ E die Darstellungsmatrix von f − k ⋅ id. Aus Abschn. 5.2 (Charakterisierung von Isomorphismen) wissen wir außerdem, dass eine lineare Abbildung genau dann injektiv ist, wenn der Rang einer Darstellungsmatrix gleich n ist. Damit können wir obige Äquivalenzen wie folgt fortsetzen: k ist ein Eigenwert von f ⇔ f − k ⋅ id ist nicht injektiv ⇔ Rang(M − k ⋅ E) < n ⇔ det(M − k ⋅ E) = . Sei M ∈ K n × n . Sei x eine Unbestimmte über K. Dann nennt man das Polynom χ M = det(M − xE) ∈ K[x] ◻ 250 8 Diagonalisierbarkeit das charakteristische Polynom der Matrix M. (χ ist ein griechischer Buchstabe, der „chi“ ausgesprochen wird.) Das bedeutet: Um χM zu berechnen, zieht man in der Matrix M von jedem Eintrag auf der Diagonale den Term x ab, und rechnet von der so erhaltenen Matrix die Determinante formal aus. Beispiele (a) Das charakteristische Polynom der n × n-Nullmatrix ist (−1)n ⋅ xn . (b) Das charakteristische Polynom der n × n-Einheitsmatrix ist χEn = (1−x)n . (c) Das charakteristische Polynom der 3 × 3-Matrix ⎛ − ⎞ M = ⎜ −⎟ ⎝ ⎠ ist χ M = ( − x)(−x)( − x) − − ( − x) − x = −x + x − x − . Wir wollen „eigentlich“ ein charakteristisches Polynom einer linearen Abbildung (und nicht „nur“ einer Matrix!) definieren. Der einfachste Weg besteht darin, dass wir erklären: Das charakteristische Polynom einer linearen Abbildung ist (nach Definition!) das charakteristische Polynom einer Darstellungsmatrix. Aber Achtung: Hier ist wieder die Fußangel der Wohldefiniertheit verborgen! Denn wir wissen, dass eine lineare Abbildung viele Darstellungsmatrizen hat, und es könnte ja sein, dass verschiedene Darstellungsmatrizen verschiedene charakteristische Polynome haben – und das wäre eine Katastrophe. Also beeilen wir uns zu beweisen, dass diese Katastrophe nicht eintreten kann: Charakteristisches Polynom einer linearen Abbildung Die charakteristischen Polynome je zweier Darstellungsmatrizen derselben linearen Abbildung sind gleich. Beweis Seien M und M ′ zwei Darstellungsmatrizen derselben linearen Abbildung. Diese werden mit Hilfe zweier Basen gebildet. Ist A die Matrix, welche die entsprechende Basistransformation beschreibt, so ist A invertierbar, und es gilt M ′ = AMA−1 . Damit folgt: χ M ′ = χ AMA− = det(AMA− − xE) = det(AMA− − xE ⋅ AA− ) = det(AMA− − AxEA− ) = det(A(M − xE)A− ) = det(A) ⋅ det(M − xE) ⋅ det(A− ) = det(A) ⋅ χ M ⋅ det(A)− = χ M . 8.3 Das charakteristische Polynom 251 ◻ Somit können wir definieren: Sei f eine lineare Abbildung von V in sich. Das charakteristische Polynom χf von f ist definiert als χ f = χM für irgendeine Darstellungsmatrix M von f . Bemerkung Daraus wird auch der Name klar: χf ist charakteristisch für f und nicht nur für M (das heißt: χf hängt nur von f und nicht von der Wahl einer Basis ab). Da χf ∈ K[x] ist, können wir ein beliebiges k ∈ K in χf einsetzen. Was passiert dabei? Es ergibt sich χ f (k) = det(M − kE) . Dies wird im Beweis des folgenden Satzes benutzt: Satz über das charakteristische Polynom. Die Nullstellen des charakteristischen Polynoms χf sind genau die Eigenwerte von f . Beweis Sei k ∈ K. Dann gilt: k ist ein Eigenwert von f ⇔ det(M − kE) = ⇔ χ f (k) = . ◻ Damit haben wir einen überzeugenden Kalkül, mit dem wir die Eigenwerte einer linearen Abbildung bestimmen können: Das charakteristische Polynom ist einfach zu bestimmen (es handelt sich um eine Formel!) und dann muss man nur noch die Nullstellen dieses Polynoms bestimmen. Ein Wermutstropfen fällt jedoch ins Glas: Zwar sieht man die Nullstellen eines so einfachen Polynoms wie x2 − 1 mit bloßem Auge, bei Polynomen größeren Grades, wie etwa x5 − 3x4 + 7x2 − 5x + 3 wird’s schwieriger. In der numerischen Mathematik lernt man, Nullstellen approximativ zu bestimmen. Die radikale Frage lautet aber: Hat überhaupt jedes Polynom eine Nullstelle? Antwort: Das kommt darauf an, und zwar auf den Körper. Über R gibt es Polynome zweiten Grades, die keine (reelle) Nullstelle haben; zum Beispiel x2 + 1 oder x2 + 1001. (Alle Polynome über R die sich nicht weiter zerlegen lassen, haben Grad 0, 1 oder 2.) Der so genannte Hauptsatz der Algebra (der von Gauß bewiesen wurde und den Studierenden heute üblicherweise in der Funktionentheorie präsentiert wird) sagt, dass jedes Polynom über C in lineare Faktoren (also Faktoren vom Grad 1) zerfällt. Zur komplizierten Geschichte dieses Satzes siehe [Ebbi], Kap. 4. Wie sieht das charakteristische Polynom aus? Darüber gibt der folgende Satz Auskunft: 252 8 Diagonalisierbarkeit Satz über die Koeffizienten des charakteristischen Polynoms Sei f eine lineare Abbildung von V in sich, und sei M = (mij ) eine Darstellungsmatrix von f . Sei χf = χM das charakteristische Polynom. Dann gilt: (a) χf hat den Grad n: χ f = a n x n + a n− x n− + . . . + a x + a . (b) Es gilt a n = (−)n a n− = (−)n− (m + m + . . . + m nn ), a = det(M) . Bemerkung Man nennt m11 + m22 + . . . + mnn die Spur der Matrix M. Da das charakteristische Polynom unabhängig von der Darstellungsmatrix ist, sagt dieser Satz insbesondere, dass die Spur einer jeden Darstellungsmatrix die gleiche ist. Beweis (a) kann man auf viele Arten beweisen. Ein ziemlich technisches Vorgehen wäre, Induktion nach n zu machen und die Matrix nach der 1. Zeile zu entwickeln. Einfacher ist es, sich die Leibnizsche Formel vor Augen zu führen. Bei der Berechnung der Determinante von M−xE geschieht folgendes: Zu jeder Permutation wird ein Polynom berechnet; die gesuchte Determinante ergibt sich als Summe dieser Polynome. Da jedes zu einer Permutation gehörende Polynom aus jeder Zeile nur einen Faktor hat, hat dieses Polynom einen Grad ≤ n. Sicherlich gehört zur Identität ein Polynom vom Grad n. Daher hat auch die Determinante (als Summe dieser Polynome) den Grad n. Auch die unabhängig zu beweisende Aussage (b) impliziert (a). (b) Wir wenden die eben geschilderte Methode nochmals in verfeinerter Form an, um mit Hilfe der Leibnizschen Formel das Polynom χM ⎛m − x ⎜ m = det(M − xE) = det ⎜ ⎜ ⋮ ⎜ ⎝ m n m m − x ⋮ m n ... ... ... m n ⎞ m n ⎟ ⎟ ⎟ ⋮ ⎟ m nn − x ⎠ zu berechnen. Es ergibt sich χ M = (m − x) ⋅ (m − x) ⋅ . . . ⋅ (m nn − x) + r , 8.3 Das charakteristische Polynom 253 wobei der erste Summand zur identischen Permutation gehört, und r die Summe ist, die zu den Permutationen aus Sn \{id} gehört. In r treten nur Summanden auf, die höchstens n−2 Diagonalelemente enthalten. (Wenn ein Summand Produkt von n − 1 Diagonalelementen ist, so entspricht er einer Permutation mit mindestens n − 1 Fixpunkten; dies muss dann die Identität sein.) Daher ist r ein Polynom vom Grad ≤ n − 2. Durch Ausmultiplizieren des Polynoms (m11 − x) . . . (mnn − x) erhält man andererseits (m − x) . . . (m nn − x) = (−)n x n + (−)n− (m + . . . + m nn )x n− + r , wobei r1 ein Polynom eines Grades ≤ n − 2 ist. Zusammen folgt χ M = (m −x)⋅(m −x)⋅. . .⋅(m nn −x)+r = (−)n x n +(−)n− (m +. . .+m nn )x n− +r , wobei r2 ein Polynom vom Grad ≤ n − 2 ist. Daraus folgen alle Behauptungen. Die Aussage über die Determinante von M ergibt sich, wenn man 0 in χf = χM einsetzt: χ M () = det(M − ⋅ E) = detM . ◻ Das charakteristische Polynom von 2 × 2-Matrizen Mit obigem Satz kann man das charakteristische Polynom einer 2 × 2-Matrix ganz einfach bestimmen: Da dies ein Polynom zweiten Grades ist, müssen wir die Koeffizienten von x2 , von x und das Absolutglied bestimmen. Koeffizient von x2 ? Das ist (−1)2 , also 1. Koeffizient von x? Das ist −Spur, also −(m11 + m22 ). Absolutglied? Das ist die Determinante, also m11 m22 − m21 m12 . Kurz, χ M = x − (m + m )x + m m − m m . Ein Beispiel gefällig? Sei M=( ) . Und nun geht’s schneller als Sie lesen können: Koeffizient von x2 ? Der ist sowieso 1. Koeffizient von x? Der ist −Spur, also −9. Absolutglied? Das ist die Determinante, also 14−15, also −1. Das charakteristische Polynom lautet also x2 −9x−1. Bequemer (und schneller) geht’s kaum noch . . . Nun bringen wir die Vielfachheit einer Nullstelle des charakteristischen Polynoms mit der Dimension des entsprechenden Eigenraums in Verbindung. 254 8 Diagonalisierbarkeit Lemma über die Dimension eines Eigenraums Sei k eine Nullstelle mit Vielfachheit v = v(f , k) des charakteristischen Polynoms χf einer linearen Abbildung f . Dann gilt dim Eig( f , k) ≤ v( f , k) . Beweis Sei m := dim Eig(f , k). Wir betrachten eine Basis {v1 , . . . , vm } von Eig(f , k) und ergänzen diese zu einer Basis B von V. Dann hat die Darstellungsmatrix M von f bezüglich B die folgende Gestalt: ⎛ k ⎜ ⎜ ⎜ ⎜ M=B M B ( f ) = ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⋱ k ∗ ∗ ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎟ ⎟ ⎠ Es folgt χ f = χ M = (k − x)m ⋅ q mit einem geeigneten Polynom q. Also ist die Vielfachheit von k mindestens gleich m = dim Eig(f , k). ◻ 2. Kriterium zur Diagonalisierbarkeit Die lineare Abbildung f ist genau dann diagonalisierbar, wenn (a) χf über K vollständig in Linearfaktoren zerfällt, und (b) für jeden Eigenwert k gilt dim(Eig( f , k)) = v( f , k) . Beweis Sei f diagonalisierbar. Dann hat V nach dem 0. Kriterium eine Basis aus Eigenvektoren; also muss es (mit Vielfachheiten gerechnet) genau n Eigenwerte geben. Insbesondere zerfällt χf vollständig über K. Nach dem 1. Kriterium muss die Summe der Dimensionen der Eigenräume gleich n sein. Da auch die Summe der Vielfachheiten gleich n ist, geht dies wegen obigem Lemma nur, falls für jeden Eigenwert k dim(Eig( f , k)) = v( f , k) ist. 8.3 Das charakteristische Polynom 255 Seien umgekehrt (a) und (b) erfüllt. Aus (a) ergibt sich, dass die Anzahl der Eigenwerte (mit Vielfachheiten gerechnet) gleich n ist. Wegen (b) muss auch die Summe der Dimensionen der Eigenräume gleich n sein. Nach dem 1. Kriterium folgt also, dass f diagonalisierbar ist. ◻ Aus dem obigen Satz ergibt sich ein Verfahren zur Überprüfung der Diagonalisierbarkeit einer linearen Abbildung bzw. einer Matrix. Schritt 0. Wenn eine lineare Abbildung f auf Diagonalisierbarkeit hin untersucht werden soll, so berechnet man zunächst irgendeine Darstellungsmatrix. Nun hat man in jedem Fall mit einer Matrix M zu tun. Schritt 1. Man bestimmt das charakteristische Polynom von M. Dies ist ein leichter Schritt. Schritt 2. Man zerlegt, wenn möglich, das charakteristische Polynom in Linearfaktoren. Damit hat man insbesondere die Eigenwerte bestimmt. Dieser Schritt ist theoretisch sehr schwierig, macht aber in vielen praktischen Fällen wenig Schwierigkeiten. Schritt 3. Man bestimmt die Dimension der Eigenräume. Dieser Schritt läuft auf die Lösung eines linearen Gleichungssystems hinaus, ist also prinzipiell ebenfalls einfach. Beispiel Wir betrachten die folgende reelle 3 × 3-Matrix ⎛ M = ⎜ − ⎝ − −⎞ ⎟ . ⎠ Im ersten Schritt bestimmen wir das charakteristische Polynom χM ⎛−x χ M = det ⎜ ⎝ − − x − − ⎞ ⎟ − x⎠ = [−x ⋅ (− − x)( − x) + + ] − [x + ( − x) − (− − x)] = −x + x + x − = −x (x − ) + (x − ) = −(x − ) (x + ) . Offenbar zerfällt χM in Linearfaktoren (Schritt 2). Im dritten Schritt ist nur zu überprüfen, ob Eig(M, 2) die Dimension 1 oder 2 hat. Sei v = (a, b, c)T ein Eigenvektor zum Eigenwert 2 von M. Dann gilt ⎛ −⎞ ⎛ a⎞ ⎛a⎞ Mv = ⎜ − ⎟ ⎜b ⎟ = ⎜b ⎟ , ⎝ − ⎠ ⎝ c ⎠ ⎝ c ⎠ also b − c = a, a − b + c = b, a − b + c = c . 256 8 Diagonalisierbarkeit Man sieht unmittelbar, dass dann b = 0 sein muss, und es folgt Eig(M, ) = {(a, , −a)∣a ∈ R} . Da dieser Eigenraum nur die Dimension 1 hat, ist M also nicht diagonalisierbar. 8.4 Das Minimalpolynom In diesem Abschnitt studieren wir die Menge aller Polynome g ∈ K[x] mit g(f ) = 0 (Nullabbildung) für eine lineare Abbildung f beziehungsweise g(M) = 0 (Nullmatrix) für eine Matrix M. Wir machen uns nochmals klar, was dies bedeutet. Ist g = b m x m + b m− x m− + . . . + b x + b , so ist f g( f ) = b m f m + b m− f m− + . . . + b + b id und g(M) = b m M m + b m− M m− + . . . + b M + b E . Wir untersuchen also, für welche Polynome diese Ausdrücke Null werden, und wollen die Menge dieser Polynome möglichst gut beschreiben. Eine Frage ist, ob es überhaupt ein (vom Nullpolynom verschiedenes) Polynom g gibt mit g(f ) = 0. Dass diese Frage mit „ja“ zu beantworten ist, folgt (neben anderen Aussagen) aus dem berühmten Satz von Cayley und Hamilton. (Man kann sich diese Aussage auch anders klar machen; siehe Übungsaufgabe 17.) Satz von Cayley-Hamilton Sei f eine lineare Abbildung eines n-dimensionalen K-Vektorraums in sich. Dann gilt χf (f ) = . Was bedeutet dies? Wir betrachten zunächst das charakteristische Polynom von f . Sei χ f = a n x n + a n− x n− + . . . + a x + a . Dann setzen wir in dieses die Abbildung f ein: χ f ( f ) = a n f n + a n− f n− + . . . + a f + a id . 8.4 Das Minimalpolynom 257 Die Behauptung des Satzes von Cayley-Hamilton ist, dass dies die Nullabbildung ist. Um das nachzuweisen, müssen wir also für jeden Vektor v ∈ V zeigen, dass χf (f )(v) = o ist. Ausgeschrieben bedeutet dies χ f ( f )(v) = a n f n (v) + a n− f n− (v) + . . . + a f (v) + a v = o für alle v ∈ V. Um dies zu zeigen, wählen wir einen Vektor v aus V fest. O. B. d. A. ist v ≠ o. Der Beweis besteht aus zwei Teilen. Der erste Schritt besteht darin, dass wir die Existenz eines Unterraums U mit folgenden Eigenschaften nachweisen: • v ∈ U, • f (u) ∈ U für alle u ∈ U. Das bedeutet, dass man f auch als lineare Abbildung von U in sich auffassen kann. Genauer sagt man: Die Einschränkung f U von f auf U ist eine lineare Abbildung von U in sich. Dann kann man auch das charakteristische Polynom von f U betrachten; für dieses soll dann gelten: • χ f U ( f )(v) = o. Angenommen, wir hätten dies schon gezeigt. Dann können wir den Beweis relativ leicht beenden. Dazu wählen wir eine Basis {v1 , v2 , . . . , vm } von U und ergänzen diese zu einer Basis B von V. Dann hat f bezüglich dieser Basis folgende Darstellungsmatrix: M=( M ∗ ) , M wobei M 1 die zu {v1 , v2 , . . . , vm } gehörige Darstellungsmatrix von f U ist. In Übungsaufgabe 19 wird gezeigt, dass für eine solche Kästchenmatrix gilt χ f = χ M = χ M χ M = χ M χ fU . Dies ist eine Gleichung von Polynomen. Setzen wir darin f ein, so erhalten wir die folgende Gleichung linearer Abbildungen: χ f ( f ) = χ M ( f ) = [χ M χ f U ]( f ) = χ M ( f )χ f U ( f ) . Wenn wir dies auf den Vektor v anwenden, erhalten wir schließlich die folgende Gleichung von Vektoren: χ f ( f )(v) = [χ M ( f )χ f U ( f )](v) = χ M ( f )[χ f U ( f )(v)] = χ M ( f )[o] = o . Hurra! Genau das mussten wir zeigen! Noch besteht aber kein Anlass, sich bis zur Besinnungslosigkeit zu betrinken, da wir noch fähig sein müssen, die Existenz des Unterraums U nachzuvollziehen. 258 8 Diagonalisierbarkeit Dazu betrachten wir die Vektoren u ∶= v, u ∶= f (v) = f (u ), u ∶= f ( f (v)) = f (u ), u ∶= f (u ), . . . Da V die Dimension n hat, sind höchstens n dieser Vektoren linear unabhängig. Es gibt also eine natürliche Zahl m, so dass u , u , . . . , u m− linear unabhängig ist, aber u , u , . . . , u m− , u m linear abhängig ist. Dann gibt es Skalare k0 , k1 , . . . , km−1 mit u m = k u + k u + . . . + k m− u m− . (∗) Wir definieren U := ⟨u0 , u1 , . . . , um−1 ⟩. Dann ist U ein Unterraum der Dimension m von V, der v = u0 enthält. Wegen f (u i ) = u i+ ∈ U(i = , , . . . , m − ) und f (u m− ) = k u + k u + . . . + k m− u m− ∈ U ist jedes Bild eines Basisvektors in U enthalten. Somit gilt f (u) ∈ U für alle u ∈ U. Daher ist die Einschränkung f U von f auf U eine lineare Abbildung von U in sich. Wie sieht das charakteristische Polynom von f U aus? Um diese Frage zu beantworten, brauchen wir eine Darstellungsmatrix. Bezüglich der Basis {u0 , u1 , . . . , um−1 } hat diese folgende Gestalt: k ⎞ ⎛ ⎜ ... k ⎟ ⎟ ⎜ ⎜ ... k ⎟ ⎟ ⎜ M = ⎜ ⎟ . ⎟ ⎜ ... ⎟ ⎜ ⎟ ⎜. . . . . . k ⎜ m− ⎟ ⎝ . . . k m− ⎠ Nach Übungsaufgabe 21 ist daher χ f U = χ M = (−)m [x m − k m− x m− − k m− x m− − . . . − k x − k ] . Einsetzen von f liefert die folgende Gleichung von linearen Abbildungen χ f U ( f ) = (−)m [ f m − k m− f m− − k m− f m− − . . . − k f − k id] . 8.4 Das Minimalpolynom 259 Um zu sehen, dass die lineare Abbildung auf der rechten Seite den Vektor v auf den Nullvektor abbildet, interpretieren wir (*) neu: f m (v) = u m = k u + k u + k u + . . . k m− u m− = k id(v) + k f (v) + k f (v) + . . . + k m− f m− (v) . Damit ergibt sich χ f U ( f )(v) = (−)m [ f m − k m− f m− − k m− f m− − . . . − k f − k id](v) = (−)m [ f m (v) − k m− f m− (v) − k m− f m− (v) − . . . − k f (v) − k id(v)] = (−)m o = o . Und damit ist der Satz von Cayley-Hamilton endgültig bewiesen. Kompliment für Ihr Durchhaltevermögen! ◻ Der Mathematiker Arthur Cayley (1821–1895) war ein bedeutender Algebraiker, der als Schöpfer der Matrizenrechnung gilt. Wir betrachten jetzt die Menge aller Polynome g aus K[x], für die g(f ) die Nullabbildung ist: J = J( f ) ∶= {g ∈ K[x]∣g( f ) = } . Diese Menge nimmt eine Schlüsselstellung ein, weil wir mit ihr das Minimalpolynom von f definieren können. Die Hauptsache ist zunächst die, dass J nicht nur das Nullpolynom umfasst: Hilfssatz (a) Das charakteristische Polynom von f ist in J(f ) enthalten. (b) J(f ) ist ein Ideal von K[x]. Beweis (a) Ist genau die Aussage des Satzes von Cayley-Hamilton. (b) Wir rechnen die definierenden Eigenschaften eines Ideals nach. Seien g, h ∈ J(f ). Da das Einsetzen von f ein Homomorphismus ist, folgt (g + h)( f ) = g( f ) + h( f ) = + = . Sei g ∈ J(f ) und h ∈ K[x] beliebig. Da das Einsetzen von f ein Homomorphismus ist, folgt (gh)( f ) = g( f ) ⋅ h( f ) = ⋅ h( f ) = . Also ist J(f ) tatsächlich ein Ideal. ◻ 260 8 Diagonalisierbarkeit Nun kommt der entscheidende Satz, mit Hilfe dessen wir das Minimalpolynom einer linearen Abbildung definieren können. Satz über das Minimalpolynom (a) Zu jeder linearen Abbildung f gibt es genau ein Polynom μf mit folgenden Eigenschaften: • μf erzeugt J(f ); das heißt J(f ) = {μf g | g ∈ K[x]}, • der höchste Koeffizient von μf ist 1 (man sagt auch: μf ist normiert). (b) Ferner gilt: Das Polynom von μf teilt das charakteristische Polynom von f . Definition Man nennt μf das Minimalpolynom von f . (μ ist ein griechischer Buchstabe, der „mü“ ausgesprochen wird.). Das Minimalpolynom ist also definiert als das normierte Polynom, das J(f ) erzeugt. Beweis des Satzes über das Minimalpolynom. (a) Existenz: Da jedes Ideal von K[x] ein Hauptideal ist, ist auch J(f ) ein Hauptideal. Daher gibt es ein Polynom μf , so dass J(f ) = {μf g | g ∈ K[x]} ist. Indem wir μf mit einem geeigneten Körperelement multiplizieren, können wir erreichen, dass der höchste Koeffizient von μf gleich 1 ist. Eindeutigkeit Seien μ und μ′ zwei Polynome mit den in der Aussage des Satzes beschriebenen Eigenschaften. Da μ und μ′ beide in J(f ) sind und den gleichen höchsten Koeffizienten haben, ist μ − μ′ ein Polynom des Ideals J(f ), dessen Grad kleiner als der von μ ist. Wegen der Minimalität des Grads von μ folgt daraus, dass μ−μ′ das Nullpolynom ist. Also ist μ′ = μ. (b) Nach dem Satz von Cayley-Hamilton ist χf in J(f ) enthalten. Da μf das Ideal J(f ) ◻ erzeugt, ist χf ein Vielfaches von μf . Beispiele ) hat das charakteristische Polynom χM = x2 und das Minimal polynom μM = x, da M die Nullmatrix ist. Allgemein hat die Nullabbildung stets das Minimalpolynom x. (b) Die Matrix M = ( ) hat das charakteristische Polynom χM = x2 und auch das Mi nimalpolynom μM = x2 ; denn x kann nicht das Minimalpolynom sein. (c) Die Matrix M = ( ) hat das charakteristische Polynom χM = (1−x)2 und das Mini malpolynom μM = x−1; denn M−E ist die Nullmatrix. Allgemein gilt: Die Einheitsmatrix (bzw. identische Abbildung) hat stets das Minimalpolynom x−1. (a) Die Matrix M = ( 8.4 Das Minimalpolynom 261 Bemerkung Das Minimalpolynom ist im Allgemeinen längst nicht so einfach zu bestimmen wie das charakteristische Polynom: Wenn man nur die Definition benutzt, ist es fast hoffnungslos. Hier hilft der Satz von Cayley-Hamilton bzw. Teil (b) des Satzes über das Minimalpolynom. Er sagt, dass man nicht mehr alle Polynome testen muss, sondern nur noch die Teiler des charakteristischen Polynoms – und dies sind nur ganz wenige Polynome. Damit hat man eine sehr starke obere Abschätzung für den Aufwand, das Minimalpolynom zu bestimmen. Wenn zum Beispiel χf = (x−2)10 (x + 5)3 (x + 1)2 ist, so muss man nur 11 ⋅ 4 ⋅ 3 = 132 Polynome testen, nämlich die Polynome (x−2)i (x + 5)j (x + 1)k mit 0 ≤ i ≤ 10, 0 ≤ j ≤ 3, 0 ≤ k ≤ 2. Wir wissen, dass das Minimalpolynom das charakteristische Polynom teilt, es kann aber nicht ein beliebiger Teiler des charakteristischen Polynoms sein. Vielmehr gilt folgende „untere Abschätzung“ für das Minimalpolynom: Satz über die Nullstellen des Minimalpolynoms Für jede lineare Abbildung gilt: Die Nullstellen des Minimalpolynoms sind genau die Nullstellen des charakteristischen Polynoms. (Die Nullstellen des Minimalpolynoms können aber eine kleinere Vielfachheit haben.) Beweis Wir müssen nur zeigen, dass jede Nullstelle von χf auch eine Nullstelle von μf ist. Mit anderen Worten: Wir müssen zeigen, dass jeder beliebige Eigenwert k von f eine Nullstelle von μf ist. Sei μ f = x m + a m− x m− + . . . + a x + a . Da μf (f ) = 0 ist, gilt also = μ f ( f ) = f m + a m− f m− + . . . + a f + a id . Wenn wir beide Seiten auf einen Eigenvektor v zum Eigenwert k anwenden, erhalten wir o = μ f ( f )(v) = f m (v) + a m− f m− (v) + . . . + a f (v) + a id(v) = k m ⋅ v + a m− k m− ⋅ v + . . . + a k ⋅ v + a ⋅ v = μ f (k) ⋅ v . Wegen v ≠ o folgt daraus μf (k) = 0. ◻ Beispiel Oben haben wir gesehen, dass man höchstens 132 Polynome testen muss, um das zu χf = (x−2)10 (x + 5)3 (x + 1)2 gehörige Minimalpolynom zu bestimmen. Der Satz über die Nullstellen des Minimalpolynoms sagt, dass es noch besser geht: Man kann sich auf die Polynome (x−2)i (x + 5)j (x + 1)k mit 1 ≤ i ≤ 10, 1 ≤ j ≤ 3, 1 ≤ k ≤ 2 beschränken; dies sind schlappe 10 ⋅ 3 ⋅ 2 = 60 Polynome. Wir beenden diesen Abschnitt mit dem dritten (und letzten) Kriterium zur Diagonalisierbarkeit. 262 8 Diagonalisierbarkeit 3. Kriterium zur Diagonalisierbarkeit Eine lineare Abbildung f von V in sich ist genau dann diagonalisierbar, wenn das Minimalpolynom μf vollständig in paarweise verschiedene Linearfaktoren zerfällt. Vor dem Beweis schildern wir ein Verfahren, das auf diesem Kriterium beruht. Test auf Diagonalisierbarkeit einer linearen Abbildung f bzw. einer Matrix M Der Test erfolgt in drei Schritten, von denen uns die beiden ersten wohlbekannt sind. 1. Schritt Überprüfe, ob das charakteristische Polynom vollständig in Linearfaktoren zerfällt. Wenn nein, ist die Abbildung nicht diagonalisierbar. 2. Schritt Bestimme die Eigenwerte von f ; seien diese k1 , k2 , . . . , km . 3. Schritt Überprüfe, ob (x−k1 ) ⋅ (x−k2 ) . . . (x−km ) das Minimalpolynom von f bzw. M ist. Dazu ist nur zu überprüfen, ob (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m )( f ) = ( f − k id) ⋅ ( f − k id) ⋅ . . . ⋅ ( f − k m id) bzw. (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m )(M) = (M − k E) ⋅ (M − k E) ⋅ . . . ⋅ (M − k m E) die Nullabbildung bzw. die Nullmatrix ist. Bemerkung Um dieses Kriterium anzuwenden, muss man nicht die (schwierige!) Aufgabe lösen, das Minimalpolynom zu bestimmen, sondern man muss nur überprüfen, ob ein bestimmtes Polynom das Minimalpolynom ist. Falls die Antwort „ja“ ist, weiß man, dass die lineare Abbildung diagonalisierbar ist; wenn die Antwort allerdings negativ ausfällt, weiß man nicht mehr, als dass die lineare Abbildung nicht diagonalisierbar ist! Nun zum Beweis des Kriteriums. Zunächst sei f als diagonalisierbar vorausgesetzt. Seien k1 , k2 , . . . , km die verschiedenen Eigenwerte von f . Es ist zu zeigen, dass folgendes gilt: μ f = (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m ) . Da f diagonalisierbar ist, ist nach dem 1. Kriterium die Vereinigung der Basen der Eigenräume eine Basis von V. Mit anderen Worten bedeutet dies, dass sich jeder Vektor v ∈ V schreiben lässt als v = v + v + . . . + v m mit eindeutig bestimmten Eigenvektoren vi zu ki (i = 1, . . . , m). 8.4 Das Minimalpolynom 263 Sei g(x) = (x−k1 )(x−k2 ) . . . (x−km ). Es ist zu zeigen, dass g = μf ist. Dazu betrachten wir die folgenden Teiler dieses Polynoms: g i (x) = (x−k1 )(x−k2 ) . . . (x−ki−1 )(x−ki+1 ) . . . (x−km ) für i = 1, . . . , m. Es gilt also g(x) = g i (x)(x−ki ). Wir setzen nun die lineare Abbildung f in das Polynom g ein und wenden die so erhaltene Abbildung auf den Vektor vi an: g( f )(v i ) = g i ( f )[ f − k i id](v i ) = g i ( f )[ f (v i ) − k i v i ] = g i ( f )[o] = o . Jetzt wenden wir die Abbildung g(f ) auf den Vektor v an und erhalten g( f )(v) = g( f )[v + v + . . . + v m ] = g( f )[v ] + g( f )[v ] + . . . + g( f )[v m ] = o . Somit ist g(f ) die Nullabbildung, also teilt μf das Polynom g. Da aber wegen des vorigen Satzes das Polynom g = (x−k1 ) ⋅ (x−k2 ) . . . (x−km ) bestimmt ein Teiler des Minimalpolynoms ist, folgt in der Tat μ f = g = (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m ) . Nun zur Umkehrung. Nach Voraussetzung ist μ f = (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m ) mit verschiedenen Elementen k1 , k2 , . . . , km ∈ K. Wir beweisen die Aussage durch Induktion nach n (der Dimension von V). Ist n = 1, so folgt aus μf = (x−k1 ), dass f den Eigenwert k1 hat, und f ist diagonalisierbar. Sei nun n > 1, und sei die Aussage richtig für alle natürlichen Zahlen m < n. Die entscheidende Behauptung ist jetzt die, dass die beiden Unterräume Kern(f −k1 id) und Bild(f −k1 id) komplementär sind. Um dies zu zeigen, weisen wir zunächst nach, dass V von diesen beiden Unterräumen erzeugt wird. Dazu dividieren wir das Polynom (x−k2 ) . . . (x−km ) mit Rest durch (x−k1 ); wir erhalten (x − k ) ⋅ . . . ⋅ (x − k m ) = q(x − k ) + r , wobei Grad(r) < 1 sein muss. Also ist r ein Körperelement, das ≠ 0 ist, da k1 ≠ k2 , . . . , km ist. Wir setzen f ein und sehen ( f − k ⋅ id) ⋅ . . . ⋅ ( f − k m ⋅ id) − q( f )( f − k ⋅ id) = r ⋅ id . Sei nun v ein beliebiger Vektor aus V. Wenn wir die eben erhaltene lineare Abbildung auf v anwenden, ergibt sich r ⋅ v = ( f − k ⋅ id) ⋅ . . . ⋅ ( f − k m ⋅ id)(v) − q( f )( f − k ⋅ id)(v) . 264 8 Diagonalisierbarkeit Wenn man auf den ersten Summanden, also auf (f −k2 ⋅ id) . . . (f −km ⋅ id)(v), die lineare Abbildung f −k1 ⋅ id anwendet, erhält man wie oben den Nullvektor; denn nach Voraussetzung ist ( f − k ⋅ id) ⋅ ( f − k ⋅ id) ⋅ . . . ⋅ ( f − k m ⋅ id) = (x − k ) ⋅ (x − k ) ⋅ . . . ⋅ (x − k m )( f ) = μ f ( f ) die Nullabbildung. Also liegt dieser Summand in Kern(f −k1 id). Der zweite Summand q(f )(f −k1 ⋅ id)(v) = (f −k1 ⋅ id)q(f )(v) liegt offenbar in Bild(f −k1 id). Also wird V von Kern(f −k1 id) und Bild(f −k1 id) erzeugt. Da wir schon längst wissen (Dimensionsformel für lineare Abbildungen), dass die Summe der Dimensionen von Kern und Bild gleich n ist, haben wir damit die Zwischenbehauptung bewiesen. Daraus folgt der Rest relativ einfach. Da k1 ein Eigenwert ist, ist dim(Kern(f −k1 id)) > 0, also dim(Bild(f −k1 id)) < n. Daher können wir jetzt die Induktionsvoraussetzung auf U: = Bild(f −k1 id) anwenden. Da f (U) ⊆ U gilt, induziert f auch eine lineare Abbildung f U von U in sich. Ferner ist das Minimalpolynom von f U ein Teiler des Minimalpolynoms von f . Daraus ergibt sich insbesondere, dass das Minimalpolynom von f U in paarweise verschiedene Linearfaktoren zerfällt. Nach Induktion ist also f U diagonalisierbar. Sei v1 , . . . , vs eine Basis von U aus Eigenvektoren von f U , und sei vs + 1 , . . . , vn eine Basis von Kern(f −k1 id) = Eig(f , k1 ). Da U und Kern(f −k1 id) komplementär sind, ist v1 , . . . , vs , vs+1 , . . . , vn eine Basis von V aus Eigenvektoren von f . Nach dem 0. Kriterium ist f also diagonalisierbar. ◻ In vielen Situation (und noch mehr Übungsaufgaben) wird nach linearen Abbildungen f bzw. Matrizen M gefragt, die einer gewissen Gleichung genügen. Wir betrachten ein Beispiel. Wir fragen nach allen linearen Abbildungen f eines reellen Vektorraums in sich, die der Gleichung f 2 = 3 f genügen. Diese Aufgabe kann man im Prinzip dadurch lösen, dass man die definierende Gleichung zunächst wie folgt umschreibt f− f = und dann beobachtet, dass offenbar genau nach denjenigen linearen Abbildungen f gefragt wird, welche die Nullabbildung ergeben, wenn man sie in das Polynom x2 −3x einsetzt. Das bedeutet, dass das Polynom x2 −3x in dem Ideal J(f ) liegt; mit anderen Worten: Das Minimalpolynom μf teilt das Polynom x2 −3x = x(x−3). Also gibt es drei Möglichkeiten, nämlich μf = x, μf = x−3 und μf = x(x−3). In jedem Fall zerfällt das Minimalpolynom in verschiedene Linearfaktoren. Also ist f diagonalisierbar; im Fall μf = x(x−3) muss man nur noch die Vielfachheiten der Eigenwerte 0 und 3 bestimmen; dies kann man zum Beispiel dadurch machen, dass man das charakteristische Polynom ausrechnet. Abschließende Frage: Wenn nun aber die betrachtete lineare Abbildung nicht diagonalisierbar ist? Was dann? Müssen wir dann die Flinte ins Korn werfen und einfach aufgeben? 8.5 Verständnisfragen, Übungen und Tipps 265 Oder kann man da noch etwas machen? Man kann tatsächlich auch „allgemeine“ Matrizen noch sehr gut darstellen; dies geschieht mit Hilfe der „Jordanschen Normalform“. Diese wird in vielen Büchern über lineare Algebra an zentraler Stelle behandelt. Wenn Sie darüber Genaueres wissen wollen, so sollten Sie die entsprechenden Abschnitte in den im Literaturverzeichnis aufgelisteten Büchern über lineare Algebra lesen. Wenn Sie den Stoff bis hierher verstanden haben, wird Ihnen das auch keine Schwierigkeiten bereiten. 8.5 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Eigenwerte und Eigenvektoren Sei f eine lineare Abbildung eines n-dimensionalen K-Vektorraums in sich. ◻ Das Nullelement von K kann ein Eigenwert von f sein. ◻ Der Nullvektor kann ein Eigenvektor von f sein. ◻ Der Nullvektor kann ein Eigenwert von f sein. ◻ Der Nullvektor ist der triviale Eigenvektor. ◻ Die lineare Abbildung f hat höchstens n verschiedene Eigenwerte. ◻ Die lineare Abbildung f kann n + 1 Eigenwerte haben. ◻ Jede lineare Abbildung hat einen Eigenwert. ◻ Jede lineare Abbildung hat einen Eigenvektor. ◻ 0 ist der triviale Eigenwert. ◻ Hat f die 0 als Eigenwert, so ist f die Nullabbildung. 2. Thema: Eigenvektoren Sei f eine lineare Abbildung eines K-Vektorraums in sich, für die es einen Vektor v ≠ o gibt mit f (−v) = kv. Dann ist ◻ –v ein Eigenvektor zum Eigenwert k, ◻ +v ein Eigenvektor zum Eigenwert −k, ◻ −v ein Eigenvektor zum Eigenwert −k, ◻ +v ein Eigenvektor zum Eigenwert k, ◻ k = 0. 3. Thema: Diagonalisierbarkeit ◻ Jede Matrix ist diagonalisierbar. ◻ Jede m × n-Matrix ist diagonalisierbar. ◻ Eine m × n-Matrix ist genau dann diagonalisierbar, wenn m = n ist. ◻ Jede Matrix hat n Eigenwerte. ◻ Wenn eine n × n-Matrix verschiedene Eigenwerte hat, so ist sie diagonalisierbar. ◻ Wenn eine n × n-Matrix n verschiedene Eigenwerte hat, so ist sie diagonalisierbar. ◻ Wenn eine n × n-Matrix n verschiedene nichttriviale Eigenwerte hat, so ist sie diagonalisierbar. 266 8 Diagonalisierbarkeit 4. Thema: Das charakteristische Polynom ◻ Das charakteristische Polynom zerfällt stets in Linearfaktoren. ◻ Jede komplexe n × n-Matrix ist diagonalisierbar. ◻ Jede reelle n × n-Matrix, deren charakteristisches Polynom zerfällt, ist diagonalisierbar. ◻ Jede 2 × 2-Matrix über GF(2) ist diagonalisierbar. ◻ Jede komplexe n × n-Matrix hat mindestens n verschiedene Eigenwerte. ◻ Es gibt Körper, über denen manche Polynome in Linearfaktoren zerfallen und manche nicht. ◻ Über jedem Körper gibt es Polynome vom Grad 1000, die in Linearfaktoren zerfallen. 5. Thema: Das Minimalpolynom ◻ Das Minimalpolynom ist dadurch festgelegt, dass es das charakteristische Polynom teilt. ◻ Das charakteristische Polynom teilt das Minimalpolynom. ◻ Das Minimalpolynom teilt alle Polynome. ◻ Wenn ein Polynom das charakteristische Polynom teilt, ist es das Minimalpolynom. ◻ Das Minimalpolynom einer linearen Abbildung kann das Nullpolynom sein. ◻ Das Minimalpolynom einer linearen Abbildung kann ein konstantes Polynom sein. ◻ Das vom charakteristischen Polynom erzeugte Ideal von K[x] ist in dem vom Minimalpolynom erzeugten Ideal enthalten. ◻ Jede Nullstelle des Minimalpolynoms hat Vielfachheit 1. ◻ Das Minimalpolynom ist stets irreduzibel. ◻ Das Minimalpolynom einer diagonalisierbaren linearen Abbildung ist irreduzibel. Übungsaufgaben 1. Sei f : V → W eine lineare Abbildung, und sei B eine Basis von V. Zeigen Sie: Wenn f injektiv ist, dann gibt es eine Basis B′ von W, so dass bei geeigneter Nummerierung von B die Darstellungsmatrix folgende Gestalt hat: ⎛ ⎜ ⋱ ⎜ ⎜ B M B ′ ( f ) = ⎜ ⎜ ⎜⋮ ⎝ ... ... ⎞ ⎟ ⎟ ⎟ ⎟ . ⎟ ⋮⎟ ⋱⎠ 2. Zeigen Sie: Die Eigenwerte einer n × n-Matrix M sind genau die Elemente k ∈ K, für die es einen von Null verschiedenen Spaltenvektor x gibt mit Mx = kx 8.5 Verständnisfragen, Übungen und Tipps 267 3. Bestimmen Sie die Eigenwerte und je einen zugehörigen Eigenvektor der folgendermaßen definierten linearen Abbildung f eines 3-dimensionalen reellen Vektorraums mit Basis {v1 , v2 , v3 }: f (v ) ∶= /v + v + /v f (v ) ∶= v + v − v f (v ) ∶= −/v − v − /v . 4. Geben Sie eine reelle 2 × 2-Matrix an, die keine Eigenwerte hat. 5. (a) Seien M, A ∈ K n × n , und sei A regulär. Dann gilt: k ist ein Eigenwert von M⇔k ist ein Eigenwert von AMA− (b) Begründen Sie damit, warum die Definition eines Eigenwerts einer Matrix unabhängig von der Auswahl einer Basis ist. 6. Bestimmen Sie Eigenwerte und Eigenräume der folgenden reellen Matrix: ⎛ −⎞ M = ⎜ −⎟ . ⎝ −⎠ 7. Bestimmen Sie Eigenwerte und Eigenräume der folgenden reellen Matrizen: ⎛ − ⎜ ⎝− − −⎞ ⎟, −⎠ ⎛ − −⎞ ⎜ ⎟ . ⎝ − ⎠ ⎛ a ⎞ 8. (a) Bestimmen Sie das charakteristische Polynom der Matrix ⎜ b ⎟ . ⎝ c ⎠ (b) Benützen Sie dieses Ergebnis, um eine 3 × 3-Matrix über GF(3) zu finden, die keine Eigenwerte hat. 9. Sei f eine invertierbare lineare Abbildung. Angenommen, f hat den Eigenwert k. Dann hat auch f −1 einen Eigenwert, nämlich . . . 10. Zeigen Sie: (a) Wenn die Matrix M den Eigenwert k hat, so hat M 2 den Eigenwert k2 . (b) Verallgemeinern Sie diesen Sachverhalt. (c) Machen Sie sich durch eine 2 × 2-Matrix klar, dass die Umkehrung von (a) nicht gilt. 11. Sei f eine lineare Abbildung eines Vektorraums in sich mit f 2 = f . Zeigen Sie, dass 0 und 1 die einzigen möglichen Eigenwerte von f sind. [Hinweis: Berechnen Sie f 2 (v).] 268 8 12. Zeigen Sie, dass jede reelle 2 × 2-Matrix M der Form M = ( a b Diagonalisierbarkeit b ) diagonalisierbar a ist. Gilt dies auch über beliebigen Körpern K? 13. Diagonalisieren Sie (falls dies möglich ist) die folgende reelle Matrix ⎛ − M = ⎜− ⎝ − −⎞ ⎟ . −⎠ 14. Geben Sie eine Matrix mit ganzzahligen Einträgen an, die als Matrix über R diagonalisierbar ist, nicht aber als Matrix über Q. 15. Zeigen Sie: Eine n × n-Matrix, in der die Summe der Elemente einer jeden Zeile konstant ist („konstante Zeilensumme“), hat mindestens einen Eigenwert. Geben Sie einen zugehörigen Eigenvektor an. Gilt eine entsprechende Aussage für Matrizen mit konstanter Spaltensumme? 16. Sei M die folgendermaßen definierte 4 × 4-Matrix: ⎛a ⎜d M=⎜ ⎜c ⎜ ⎝b b a d c c b a d d⎞ c⎟ ⎟ b⎟ ⎟ a⎠ (a, b, c, d ∈ R) , die wir als Matrix aus C4 × 4 auffassen. Zeigen Sie, dass M die Eigenwerte a + b + c + d, a−b + c−d, a + bi−c−di, a−bi−c + di hat (wobei i die imaginäre Einheit ist). Geben Sie jeweils einen Eigenvektor an. 17. Sei M ∈ K n × n . Zeigen Sie, ohne den Satz von Cayley-Hamilton zu verwenden: Es gibt ein Polynom (verschieden vom Nullpolynom) in K[x], das M als Nullstelle hat. [Hinweis: Benutzen Sie, dass die Matrizen E, M, M 2 , M 3 , . . . im K-Vektorraum aller n × n-Matrizen nicht linear unabhängig sein können.] Können Sie etwas über den (kleinstmöglichen) Grad dieses Polynoms aussagen? 18. Sei f eine lineare Abbildung des Vektorraums C2 in sich. Zeigen Sie: Wenn f 2 = 0 (Nullabbildung) ist, dann gilt f = 0, oder f hat eine Darstellungsmatrix ( ) . 19. Sei M eine n × n-Matrix, die sich in folgender Kästchenform schreiben lässt: M=( A ∗ ) , B wobei A eine a × a-Matrix und B eine b × b-Matrix ist. Dann gilt für das charakteristische PolynomχM = χA ⋅ χB . 20. Suchen (und finden) Sie eine Matrix aus C4 × 4 mit charakteristischem Polynom (x−2)2 (x−3)2 und Minimalpolynom (x−2)(x−3)2 . 8.5 Verständnisfragen, Übungen und Tipps 269 21. Bestimmen Sie das charakteristische Polynom der folgenden Matrix M ∈ K n × n : ⎛ ⎜ ⎜ ⎜ ⎜ M=⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⋯ s ⋯s ⋯s ⋯s ⋯s ⋯s ⋯s ⋯s k ⎞ k ⎟ ⎟ k ⎟ ⎟ ⎟ . ⋯s⎟ ⎟ k n− ⎟ ⎟ k n− ⎠ 22. Bestimmen sie die Minimalpolynome der Matrizen aus den Aufgaben 6 und 7. 23. Bestimmen sie das Minimalpolynom der folgenden Matrix M: ⎛ ⎜ ⎜ M=⎜ ⎜ ⎜ ⎜ ⋯ s ⎝ ⋯ s ⋯s ⋯s ⋯s ⎞ ⎟ ⎟ ⎟ ⎟ . ⎟ ⎟ ⎠ 24. Sei f eine lineare Abbildung von V in sich, und sei v ein Vektor aus V. Zeigen Sie: Die Menge aller Polynome g mit g(f )(v) = o ist ein Ideal J(v) von K[x]. Ferner gibt es ein eindeutig bestimmtes Polynom μ, dessen höchster Koeffizient 1 ist und das alle Polynome g aus J(v) teilt. Projekt: Drehungen 1. Machen Sie sich klar, dass durch die Matrix cos α D = D(α) = ( sin α − sin α ) cos α eine Drehung der reellen Ebene R2 um den Winkel α mit dem Punkt (0, 0) als Zentrum beschrieben wird. 2. (a) Bestimmen Sie das charakteristische Polynom der Matrix D(α). (b) Für welche Winkel α hat die Matrix D(α) (reelle) Eigenwerte? Interpretieren Sie Ihre Antwort geometrisch. 3. (a) Was ist eine Drehung eines dreidimensionalen Raumes? (Machen Sie sich die Begriffe „Achse“ und „Drehwinkel“ klar.) (b) Durch welche Matrizen werden Drehungen im affinen Raum R3 beschrieben? (c) Welche Eigenwerte und Eigenräume hat eine solche Matrix? 4. Kommentieren Sie folgende Aussage mit Ihrem mathematischen Sachverstand: Beim DFB-Pokalspiel Dynamo Dresden gegen FC Bayern München am 9.11.1993 gab es zum Zeitpunkt des Anpfiffs der zweiten Halbzeit mindestens einen Punkt des Fußballs, der an genau der gleichen Stelle war wie zu Beginn der ersten Halbzeit. 270 8 Diagonalisierbarkeit Sie sollten mit folgenden Begriffen umgehen können Diagonalisierbarkeit, Diagonalmatrix, Eigenwert, Eigenvektor, Eigenraum, charakteristisches Polynom, Minimalpolynom Was sagen Sie dazu? Gnutpuaheb Es gilt der Satz von Cayley-Hamilton. Sieweb Wir setzen M in det(m − xE) ein und erhalten „ganz einfach“: χ M (M) = det(M − xE)(M) = det(M − ME) = det(M − M) = det() = . 9 Elementarste Gruppentheorie Gruppen spielen in der modernen Mathematik eine wesentliche Rolle, und zwar sowohl in den Grundlagen als auch in den Anwendungen. Weshalb haben wir dann nicht schon längst Gruppen behandelt? Der Grund ist ganz einfach: Wir sind in den ersten Kapiteln direkt auf die in der linearen Algebra zentralen Strukturen, nämlich Körper und Vektorräume eingegangen. Das hätte man durch Einführung des Begriffs der Gruppe als „Zwischenbegriff “ auch „systematischer“ machen können. Wir haben aber im bisherigen Verlauf der linearen Algebra schon Gruppen in Hülle und Fülle gesehen – sie nur noch nicht so genannt. Deshalb wird nach der Definition eine ganze Latte von Ihnen „schon bekannten“ Beispielen folgen. Dadurch werden wir die entsprechenden Strukturen nochmals „vom höheren Standpunkt aus“ kennen lernen. 9.1 Beispiele von Gruppen Eine Gruppe besteht aus einer Menge G zusammen mit einer Verknüpfung ⋅ (die je zwei Elementen aus G wieder ein Element aus G zuordnet), so dass folgende Axiome erfüllt sind: (G1) Assoziativität: Die Verknüpfung ⋅ ist assoziativ: (g ⋅ h) ⋅ k = g ⋅ (h ⋅ k) für alle g, h, k ∈ G . (G2) Existenz eines neutralen Elements: Es gibt ein Element aus G, das wir e nennen, für das gilt: e ⋅ g = g für alle g ∈ G . A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_9, © Springer Fachmedien Wiesbaden 2014 271 272 9 Elementarste Gruppentheorie (G3) Existenz inverser Elemente: Für jedes g ∈ G gibt es ein Element aus G, das wir g −1 nennen, für das gilt: g − ⋅ g = e , wobei e das in (G2) geforderte neutrale Element ist. Wenn man ganz vorsichtig ist, könnte man g −1 ein zu g linksinverses Element nennen. Wir werden später zeigen, dass g −1 auch rechtsinvers ist. Man sagt oft, dass G eine Gruppe ist; wenn man die Verknüpfung betonen möchte, sagt man, dass G bezüglich der Verknüpfung ⋅ eine Gruppe ist und schreibt dann (G, ⋅ ). Wenn zusätzlich das folgende Axiom (G4) gilt, nennt man eine Gruppe G (kommutativ oder) abelsch: (G4) Kommutativität: Für je zwei Elemente g, h ∈ G gilt g⋅h=h⋅g . In einer Gruppe gibt es also nur eine Verknüpfung, die wir mit ⋅ bezeichnet haben. In vielen Situationen wird es allerdings natürlicher sein, die Verknüpfung einer Gruppe additiv zu schreiben. In einer solchen Situation empfiehlt es sich auch, das neutrale Element mit 0 zu bezeichnen und das zu g inverse Element mit −g. Haben Sie’s gemerkt? Im letzten Satz habe ich „das“ neutrale Element und „das“ inverse Element geschrieben. Durfte ich das? Klare Antwort: Nein! . . . das heißt, ich darf das, wenn ich Ihnen den folgenden Hilfssatz bewiesen habe: Eindeutigkeit des neutralen Elements und der inversen Elemente In jeder Gruppe gibt es nur ein neutrales Element; jedes Element einer Gruppe hat genau ein inverses Element. Der Beweis erfolgt in mehreren Schritten, die auch an sich interessant sind. Sei e das nach (G2) existierende neutrale Element. 1. Es gilt gg −1 = e. Das heißt: Jedes linksinverse Element ist auch „rechtsinvers“. (Sei h = g −1 . Dann ist g g − = e(g g − ) = (h − h)(g g − ) = h − ((hg)g − ) = h − ((g − g)h) = h − (eh) = h − h = e.) 2. Es gilt ge = g für alle g ∈ G. Das heißt: e ist auch „rechtsneutral“. (ge = g(g − g) = (g g − )g = e g = g.) 9.1 Beispiele von Gruppen 273 3. Es gibt nur ein neutrales Element in G. (Sei e* ein Element, für das ebenfalls e * g = g für alle g ∈ G gilt. Dann ist insbesondere e * e = e. Aus 2. folgt e * e = e * . Also ist e * = e * e = e.) 4. Für jedes g ∈ G gibt es nur ein zu g inverses Element. (Sei h ein weiteres zu g inverses Element. Dann gilt hg = e. Mit 2. und 1. folgt also h = he = h(g g − ) = (hg)g − = e g − = g − .) ◻ Nun aber zu der angekündigten Liste von Beispielen von Gruppen. 9.1.1 Gruppen in bekannten Strukturen Die erste Sorte von Beispielen beruht auf folgender Idee: Wir kennen viele Strukturen, auf denen zwei Verknüpfungen definiert sind; wenn wir eine dieser Verknüpfungen „vergessen“, erhalten wir – unter kleinen Sicherheitsvorkehrungen – eine Gruppe. R\{0} ist bezüglich der normalen Multiplikation eine Gruppe; ebenso ist Q\{0} bezüglich der normalen Multiplikation eine Gruppe. Allgemein gilt: Multiplikative Gruppe eines Körpers Sei K ein Körper mit Addition + und Multiplikation ⋅ . Dann ist die Menge K * = K\{0} bezüglich ⋅ (genauer gesagt: bezüglich der Einschränkung von ⋅ auf K\{0}) eine Gruppe. Man nennt K * die multiplikative Gruppe des Körpers K. Den Nachweis dieser Tatsache erhalten Sie einfach dadurch, dass Sie die Definition eines Körpers nachschlagen und diese mit der Definition einer Gruppe vergleichen. ◻ Additive Gruppe eines Rings Sei R ein Ring mit Addition + und Multiplikation ⋅ . Dann ist die Menge R bezüglich + eine Gruppe. Insbesondere ist jeder Körper K zusammen mit der Addition eine Gruppe (additive Gruppe des Körpers K). ◻ Zum Beispiel ist (Z, + ) eine Gruppe. Auch die Menge der geraden Zahlen bildet eine Gruppe bezüglich der Addition, ebenso die Menge aller durch 3 teilbaren ganzen Zahlen. Allgemein gilt: Für jedes d ∈ Z ist (dZ, + ) eine Gruppe. Aber (Z, ⋅ ) ist keine Gruppe, ja nicht einmal (Z\{0}, ⋅ ). 274 9 Elementarste Gruppentheorie Auch (Zn , + ) ist eine Gruppe, während (Zn \{0}, ⋅ ) nur eine Gruppe ist, wenn n eine Primzahl ist. Allgemein definiert man Zn * als die Menge der Elemente aus Zn , die teilerfremd zu n sind. Formal heißt das: Zn * = {a ∈ Zn ∣ ggT(a, n) = 1}. In Übungsaufgabe 3 sind Sie eingeladen zu zeigen, dass Zn * für jede natürliche Zahl n ≥ 1 eine multiplikative Gruppe ist. Man hätte einen Körper auch kurz so definieren können: Ein Körper besteht aus einer Menge K, auf der zwei Verknüpfungen + und ⋅ definiert sind, so dass • (K, + ) eine abelsche Gruppe mit neutralem Element 0 ist, • (K\{0}, ⋅ ) eine abelsche Gruppe ist und • ein Distributivgesetz gilt. Ich empfehle Ihnen, sich ab jetzt die Definition eines Körpers in dieser lapidaren Form zu merken. Entsprechend lautet die Kurzform der Definition eines Rings: Ein Ring besteht aus einer additiven abelschen Gruppe R mit Nullelement 0 derart, dass auf R\{0} eine assoziative Multiplikation definiert ist, die beide Distributivgesetze erfüllt. Ist auch in einem Vektorraum eine Gruppe verborgen? Selbstverständlich: Additive Gruppe eines Vektorraums Sei V ein Vektorraum über einem Körper K. Dann bildet die Menge V zusammen mit der Vektorraumaddition eine abelsche Gruppe. Man hätte einen K-Vektorraum also auch kurz und bündig wie folgt definieren können: Ein Vektorraum besteht aus einer abelschen Gruppe (V, + ) zusammen mit einem Körper K derart, dass die Gesetze der Skalarmultiplikation gelten. 9.1.2 Gruppen aus bekannten Objekten In der zweiten Kategorie von Beispielen machen wir aus uns bekannten Objekten Gruppen. Die Objekte, die wir studieren, sind lineare Abbildungen und Matrizen. • Die Menge K m × n aller m × n-Matrizen über dem Körper K bilden bezüglich der Matrizenaddition eine Gruppe. • In ähnlicher Weise zeigt man, dass die Menge aller Abbildungen einer Menge X in eine Gruppe Y bezüglich der Definition der Summe von Abbildungen eine Gruppe ist. Dabei ist die Summe f + g der Abbildungen f und g definiert durch (f + g)(x):= f (x) + g(x) für alle x ∈ X. • Insbesondere bildet die Menge aller linearen Abbildungen eines Vektorraums V in einen Vektorraum W eine Gruppe bezüglich der gerade definierten „punktweisen“ Addition. 9.1 Beispiele von Gruppen 275 Interessanter wird die Sache, wenn wir als Verknüpfung die Hintereinanderausführung von Abbildungen bzw. die Multiplikation von Matrizen studieren. Wenden wir uns zunächst den Matrizen zu. Wenn wir zwei Matrizen aus K m × n miteinander multiplizieren wollen, muss notwendigerweise m = n sein. Da in einer Gruppe jedes Element ein inverses hat, muss in jeder Gruppe G von Matrizen aus K n × n mit einer Matrix M auch die inverse Matrix M −1 in G enthalten sein. Das bedeutet, dass wir uns von vornherein auf n × n-Matrizen mit Determinante ≠ 0 beschränken müssen. Es gelten die folgenden Aussagen: Volle lineare Gruppe Die Menge aller n × n-Matrizen über einem Körper K mit Determinante ≠ 0 bildet bezüglich der Matrizenmultiplikation eine Gruppe; diese wird mit GL(n, K) bezeichnet (general linear group). Ist K ein endlicher Körper mit q Elementen, so wird GL(n, K) auch mit GL(n, q) bezeichnet. Die „volle“ lineare Gruppe heißt so, weil sie aus allen möglichen regulären Matrizen besteht, im Gegensatz zur „speziellen“ linearen Gruppe: Spezielle lineare Gruppe Die Menge aller n × n-Matrizen über einem Körper K mit Determinante 1 bildet bezüglich der Matrizenmultiplikation eine Gruppe; diese wird mit SL(n, K) bezeichnet (special linear group). Ist K ein endlicher Körper mit q Elementen, so wird SL(n, K) auch mit SL(n, q) bezeichnet. Der Beweis ergibt sich im Wesentlichen aus dem Multiplikationssatz für Determinanten: Das Produkt zweier Matrizen mit Determinante ≠ 0 hat wieder eine von 0 verschiedene Determinante; das Produkt zweier Matrizen mit Determinante 1 hat auch Determinante 1. ◻ Ganz analog zur ersten Aussage ergibt sich: Die Menge aller umkehrbaren linearen Abbildungen eines Vektorraums V in sich bildet bezüglich der Hintereinanderausführung eine Gruppe; man bezeichnet diese Gruppe auch mit GL(V). ◻ Bemerkung Man kann unschwer zeigen (Übungsaufgabe 21), dass GL(V) und GL(n, K) „isomorph“ sind, wenn V ein n-dimensionaler Vektorraum über dem Körper K ist. 276 9 Elementarste Gruppentheorie 9.1.3 Gruppen aus Permutationen In diesem letzten Beispielabschnitt behandeln wir einige Gruppen, die von besonderem Interesse sind, aber sich nicht direkt aus den Strukturen ableiten lassen, die in der Linearen Algebra behandelt werden. Zunächst behandeln wir Permutationen (vergleichen Sie dazu die Abschn. 7.2 und 7.3). Die Menge aller Permutationen einer Menge X bildet bezüglich der Hintereinanderausführung von Abbildungen eine Gruppe; diese wird die symmetrische Gruppe auf X genannt. Wenn die Menge X genau n Elemente hat, so wird die symmetrische Gruppe auf X auch mit Sn bezeichnet. Die symmetrische Gruppe auf X ist die größte Gruppe von Permutationen von X. Wir können auch die jeweils zweitgrößte Gruppe beschreiben; es handelt sich dabei um die alternierende Gruppe An . Diese besteht aus allen geraden Permutationen. In Abschn. 7.3 haben wir uns auch klargemacht, dass dies genau die Permutationen sind, die sich als Produkt einer geraden Anzahl von Transpositionen schreiben lassen. Beispiel Wir betrachten die Gruppe S3 aller Permutationen der Menge X = {1, 2, 3}. Wir listen die Elemente von S3 in den beiden uns aus Abschn. 7.2 bekannten Schreibweisen auf: id = ( ) = ()()() , α=( ) = ( ) , β=( ) = ( ) , σ =( ) = () ( ) , τ=( ) = ( )( ) , ρ=( ) = ( ) () . Es folgt S3 = {id, α, β, σ, ρ, τ} und A3 = {id, α, β}. Eine weitere wichtige Klasse von Gruppen erhält man als Symmetriegruppen geometrischer Objekte. Eine Symmetrieabbildung eines Objekts K ist ein „Automorphismus“ des Raumes (oder der Ebene), die K in sich überführt. Die „Automorphismen“ der Geometrie der reellen Ebene oder des reellen Raums sind dabei all diejenigen Permutationen der Punktmenge, die alle geometrisch relevanten Eigenschaften erhalten, wie zum Beispiel den Abstand. Man kann zeigen, dass die „Automorphismen“ der reellen Ebene, die man üblicherweise „Kongruenzabbildungen“ nennt, genau die Spiegelungen, Drehungen, Verschiebungen und Gleitspiegelungen sind. Wir diskutieren diese – intuitiv klare – Definition 9.1 Beispiele von Gruppen 277 hier nicht weiter, sondern verweisen auf Bücher über Grundlagen der Geometrie. Die Menge aller Symmetrieabbildungen einer Menge K von Punkten wird mit Sym(K) bezeichnet. Satz über die Symmetriegruppe Für jede Menge K von Punkten der Ebene oder des Raums ist Sym(K) bezüglich der Hintereinanderausführung von Abbildungen eine Gruppe. Zum Beweis müssen wir nur zeigen, dass Sym(K) eine Untergruppe aller Permutationen der Punktmenge ist. Dies folgt aber daraus, dass da die Menge aller bijektiven Abbildungen des ganzen Raumes in sich assoziativ ist, dass die Identität in Sym(K) enthalten ist und dass ◻ mit jeder Abbildung α auch die inverse Abbildung α −1 in Sym(K) enthalten ist. Wir betrachten zwei Beispiele. Zunächst betrachten wir die Gruppe der Ebene, die ein Quadrat in sich überführt (Quadratgruppe). Diese besteht aus • • • • • der Identität, zwei Spiegelungen an den Diagonalen zwei Spiegelungen an den Geraden, die zwei gegenüberliegende Seitenmitten verbinden, Drehungen um ±90°, eine Drehung um 180°. Machen Sie sich klar, dass diese acht Abbildungen wirklich eine Gruppe bilden: Die inversen Elemente sind leicht zu finden. Aber was ist eine Spiegelung an einer Diagonalen mal einer Spiegelung an einer Geraden, die zwei gegenüberliegende Seitenmitten verbindet? Beachten Sie, dass alle möglichen Produkte wieder ein Element der Quadratgruppe sind! Als weiteres Beispiel betrachten wir die Gruppe aller Symmetrien eines Würfels (Würfelgruppe). Aus welchen Elementen besteht diese Gruppe? Die wenigsten Menschen können diese Frage auf Anhieb beantworten. Aber jeder kann anfangen, eine Liste aufzustellen! Die Gruppe aller Symmetrieabbildungen eines Würfels enthält folgende Abbildungen: 278 9 Elementarste Gruppentheorie • Die Identität, • drei Drehungen um 90° um eine Gerade, die zwei gegenüberliegende Flächenmitten verbindet, • drei Drehungen um −90° um eine Gerade, die zwei gegenüberliegende Flächenmitten verbindet, • drei Drehungen um 180° um eine Gerade, die zwei gegenüberliegende Flächenmitten verbindet, • sechs Drehungen um 180° um eine Gerade, die zwei gegenüberliegende Kantenmitten verbindet, • vier Drehungen um 120° um eine Raumdiagonale, • vier Drehungen um 240° um eine Raumdiagonale. Wie kommt man denn darauf? Ganz einfach! Man fängt einfach irgendwie an und listet einige Symmetrieabbildungen auf. An irgendeiner Stelle geht’s nicht weiter, d. h. es fällt einem keine weitere Symmetrieabbildung mehr ein. Dann nützt man aus, dass Sym(Würfel) eine Gruppe sein muss. Man muss sich dann zwei Fragen stellen: • Ist für jede der bislang aufgeführten Abbildungen α auch α −1 aufgeführt? • Ist für je zwei bislang aufgeführte Abbildungen α und α auch αβ aufgeführt? Besonders die zweite Frage erweist sich als außerordentlich hilfreich. Als Übung sollten Sie versuchen, die Würfelgruppe als Gruppe auf den sechs Flächen bzw. auf den zwölf Kanten des Würfels darzustellen (siehe Übungsaufgabe 8). 9.2 Einfache Strukturaussagen für Gruppen 9.2.1 Untergruppen Sei G eine Gruppe mit der Verknüpfung ⋅ . Eine Teilmenge U von G heißt eine Untergruppe von G, falls U zusammen mit der von G auf U induzierten Verknüpfung ⋅ ebenfalls eine Gruppe ist. 9.2 Einfache Strukturaussagen für Gruppen 279 Beispiele Jede Gruppe G hat die trivialen Untergruppen G und {e}. Nichttriviale Beispiele sind: • • • • • (nZ, + ) ist eine Untergruppe von (Z, + ). An ist eine Untergruppe von Sn . Die Menge {−1, 1} ist eine Untergruppe von (R\{0}, ⋅ ). Die Menge {1, −1, i, −i} ist eine Untergruppe von (C\{0}, ⋅ ). Die Identität zusammen mit den Drehungen um 90°, 180° und 270° ist eine Untergruppe der Symmetriegruppe eines Quadrats. • Sie sind eingeladen, sämtliche Untergruppen der S3 zu bestimmen (siehe Übungsaufgabe 18). Entsprechend dem Unterraumkriterium gibt es das Untergruppenkriterium Sei U eine Teilmenge der Gruppe G. Dann ist U eine Untergruppe von G, falls folgende Bedingungen erfüllt sind: • U ≠∅. • Wenn g ∈ U ist, so ist auch g −1 ∈ U. • Wenn g, h ∈ U sind, so ist auch gh ∈ U. Bemerkung Die Bedeutung dieses Kriteriums liegt darin, dass man, um eine Menge als Untergruppe nachzuweisen, nur ganz wenig zeigen muss; insbesondere muss man das Assoziativgesetz nicht zeigen. Beweis des Untergruppenkriteriums Zunächst ist zu zeigen, dass ⋅ tatsächlich eine Verknüpfung auf U induziert; dies ist wegen der dritten Forderung erfüllt. (G1) Die Verknüpfung ist auf U assoziativ, da sie schon auf G assoziativ ist. (G2) Wegen der ersten Forderung gibt es ein Element g in U. Nach der zweiten Forderung ist dann auch g −1 in U, und aus der dritten Forderung ergibt sich, dass damit auch g ⋅ g −1 = e in U liegt. Daher liegt das neutrale Element von G in U, und dieses wirkt natürlich auch in U als neutrales Element. (G3) ergibt sich direkt aus der zweiten Forderung. ◻ Mit Untergruppen einer Gruppe kann man (fast) die gleichen Spielchen machen wie mit Unterräumen eines Vektorraums . . . zum Beispiel kann man . . . Nebenklassen definieren! Wie das? Ganz einfach: Ist U eine Untergruppe von G, und ist g ∈ G, so ist die Menge gU = {gu∣u ∈ U} eine Nebenklasse von G nach U. 280 9 Elementarste Gruppentheorie Was Nebenklassen von Vektorräumen recht war, ist Nebenklassen von Gruppen billig: Satz über Nebenklassen Sei U eine Untergruppe der Gruppe G. (a) (Kriterium für die Gleichheit von Nebenklassen). Es gilt: gU = hU ⇔ h − g ∈ U . (b) Je zwei verschiedene Nebenklassen sind disjunkt. (c) Die Abbildung f : U → gU mit f (u) = gu ist eine Bijektion. Beweis (a) Einerseits gilt gU = hU ⇒ g = ge ∈ hU ⇒ g = hu für ein u ∈ U ⇒ h − g = u ∈ U(⇔ gh − = (h − g)− ∈ U) . Andererseits folgt aus u:= h−1 g ∈ U zum einen g = hu ∈ hU, also gU ⊆ hU. Entsprechend folgt auch h = gu−1 ∈ gU, also hU ⊆ gU, und somit gU = hU. (b) Angenommen, gU und hU haben ein Element x gemeinsam. Dann existieren u, u′ ∈ U mit gu = x = hu′ . Daraus folgt h−1 g = u′ u−1 ∈ U. Also ist nach (a) gU = hU. (c) Dass f surjektiv ist, folgt aus der Definition von f . Aus gu = f (u) = f (u′ ) = gu′ folgt durch ◻ Kürzen von g auch u = u′ . Also ist f injektiv. Wir betrachten jetzt endliche Gruppen, das heißt Gruppen mit einer endlichen Anzahl von Elementen. Für eine endliche Gruppe G ist also | G | eine natürliche Zahl, man nennt sie die Ordnung von G. Beispielsweise hat die Quadratgruppe die Ordnung 8, die symmetrische Gruppe Sn hat die Ordnung n! und die alternierende Gruppe auf n Elementen hat die Ordnung n!/2 . Eine äußerst wichtige und äußerst fruchtbare Fragestellung in der Gruppentheorie ist, ob man aus der Kenntnis der Ordnung einer Gruppe Rückschlüsse auf ihre algebraische Struktur ziehen kann. Das kann man tatsächlich! Zum Beispiel werden wir alle Gruppen bestimmen, deren Ordnung eine Primzahl ist. Ich finde es sehr erstaunlich und bemerkenswert, dass man (in vielen Fällen) die ganze Struktur einer Gruppe durch Angabe einer einzigen Zahl beschreiben kann. (Hier sehen Sie: Mathematik ist die Lehre von den guten Beschreibungen.) Das entscheidende Werkzeug zur Beschreibung der Struktur einer Gruppe über ihre Parameter ist der einfache, aber fundamentale Satz von Lagrange. Um diesen formulieren zu können, brauchen wir noch eine Definition. 9.2 Einfache Strukturaussagen für Gruppen 281 Sei G eine endliche Gruppe, und sei U eine Untergruppe von G. Wir nennen die Anzahl der Nebenklassen von G nach U den Index von U in G und bezeichnen diese Zahl mit [G:U]. Zum Beispiel ist der Index von An in Sn gleich 2. Satz von Lagrange Sei G eine endliche Gruppe, und sei U eine Untergruppe von G. Dann gilt ∣G∣ = ∣U∣ ⋅ [G ∶ U] . Bemerkung Die Bedeutung des Satzes liegt nicht darin, dass man den Index ausrechnen könnte. Seine Bedeutung liegt darin, dass daraus folgt, dass die Ordnung einer jeden Untergruppe die Gruppenordnung teilen muss! Wenn zum Beispiel G die Ordnung 100 hat, so wissen wir nach diesem Satz, dass G nur Untergruppen der Ordnung 1, 2, 4, 5, 10, 20, 25, 50 und 100 haben kann. (Damit ist allerdings nicht gesagt, dass es solche Untergruppen von G wirklich gibt!) Beweis des Satzes von Lagrange Wir wissen, dass je zwei Nebenklassen disjunkt sind. Da jedes Gruppenelement zu einer Nebenklasse gehört, ist also die Menge der Nebenklassen eine Partition von G. Ferner gibt es eine bijektive Abbildung von U auf gU (g ∈ G); daher haben je zwei Nebenklassen die gleiche Mächtigkeit, nämlich ∣U∣ . Daher ist die Menge der Nebenklassen eine Partition von G in Mengen gleicher Mächtigkeit |U| . Damit folgt: ∣G∣ = Anzahl der Nebenklassen ⋅ Anzahl der Elemente pro Nebenklasse = [G ∶ U] ⋅ ∣U∣ . ◻ Mit dem Satz von Lagrange können wir ganz einfach einen wichtigen Satz der elementaren Zahlentheorie beweisen: Satz Sei p eine Primzahl. Wenn −1 ein Quadrat in Zp ist, so ist p−1 durch 4 teilbar. Also ist zum Beispiel in Z3 , Z7 , Z11 und Zp mit p = 257885161 −1 das Element −1 kein Quadrat. (p = 257885161 −1 ist die größte heute (November 2014) bekannte Primzahl; sie hat 17.425.170 Dezimalstellen und würde ausgeschrieben viele Bücher füllen. Primzahlen der Form 2n −1 nennt man Mersennesche Primzahlen. Da 257885161 durch 4 teilbar ist, ist p−1 = 257885161 −2 nicht durch 4 teilbar.) 282 9 Elementarste Gruppentheorie Beweis des Satzes. Sei −1 ein Quadrat in Zp . Dann gibt es ein Element i ∈ Zp , so dass i2 = −1 ist. Dann ist die Menge U = {, −, i, −i} abgeschlossen bezüglich der Multiplikation und erfüllt also die Voraussetzungen des Untergruppenkriteriums. Daher ist U eine Untergruppe von Zp *. Nach dem Satz von Lagrange ◻ ist also | U | = 4 ein Teiler von | Zp * | = p−1. Bemerkung Man kann auch zeigen, dass die Umkehrung gilt: Wenn p eine Primzahl ist mit 4 | p−1, so ist −1 ein Quadrat in Zp . 9.2.2 Zyklische Gruppen Das Erzeugnis der Elemente g 1 , g 2 , . . . einer Gruppe G ist definiert als der Durchschnitt aller Untergruppen von G, die g 1 , g 2 , . . . enthalten; man schreibt dafür ⟨g 1 , g 2 , . . . ⟩ : ⟨g , g , . . .⟩ = ⋂{U∣U Untergruppe, die g , g , . . . enthält} . Man kann aber das Erzeugnis dieser Elemente auch so beschreiben: ⟨ g 1 , g 2 , . . . ⟩ besteht aus allen Produkten der Elemente g 1 , g 2 , . . . und ihrer Inversen; also ⟨g , g , . . .⟩ = {g , g , . . . , g g , g g , g g g , g − g , e, . . . , g g g , . . . , g g − g g − , . . .} (Machen Sie sich – am besten mit Hilfe des Untergruppenkriteriums – klar, dass diese beiden Darstellungen wirklich die gleiche Menge beschreiben.) Besonders interessant und wichtig ist das Erzeugnis eines einzelnen Elements: Die von einem Element g ∈ G erzeugte Untergruppe ⟨g⟩ von G besteht aus allen Potenzen von g: ⟨g⟩ = {g z ∣z ∈ Z} . Man nennt ⟨g⟩ die von g erzeugte zyklische Untergruppe von G. Im Allgemeinen nennt man jede von einem Element erzeugte Gruppe zyklisch. Bevor wir Beispiele zyklischer Gruppen betrachten, schreiben wir die Definition einer zyklischen Gruppe in die additive Schreibweise um: Eine additiv geschriebene Gruppe (G, +) ist zyklisch, wenn es ein Element g ∈ G gibt, derart, dass G gleich der Menge der (ganzzahligen) Vielfachen von g ist: G = ⟨g⟩ = {zg∣z ∈ Z} . Beispiele (a) (Z, +) ist eine unendliche zyklische Gruppe; sie wird von dem Element 1 erzeugt. 9.2 Einfache Strukturaussagen für Gruppen 283 (b) Die Gruppe (Zn , +) ist eine zyklische Gruppe der Ordnung n; sie wird von dem Element 1 erzeugt. Bemerkung Wir werden später sehen, dass dies „bis auf Isomorphie“ die einzigen zyklischen Gruppen sind. Die Gruppenordnung ist ein globaler Parameter zur Beschreibung einer Gruppe. Häufig muss man aber auch lokale Parameter betrachten, die die einzelnen Elemente beschreiben: Die Ordnung eines Elements g ∈ G ist die Ordnung der von g erzeugten Untergruppe von G. Als einfache Folgerung aus dem Satz von Lagrange halten wir fest: Satz von Lagrange für Gruppenelemente Sei g ein Element einer endlichen Gruppe G. Dann teilt die Ordnung von g die Ordnung |G| von G. Beweis Die Ordnung von g ist die Mächtigkeit der Untergruppe ⟨g⟩ von G. ◻ Man kann die Ordnung eines Elements auch anders beschreiben: Satz über die Ordnung von Elementen einer Gruppe Sei g ein Element einer Gruppe G. Dann ist die Ordnung von g unendlich, oder die Ordnung ist die kleinste positive ganze Zahl k mit g k = e. Beweis Die Ordnung von g möge endlich sein. Dann ist ⟨g⟩ eine endliche Gruppe. Sei m die Anzahl der Elemente von ⟨g⟩ . Dann ist nach Definition m die Ordnung von g. Sei k die kleinste positive ganze Zahl k mit g k = e. Es ist zu zeigen, dass k = m ist. „k ≤ m“: Dazu zeigen wir, dass die Elemente e = g 0 , g, g 2 , g 3 , . . . , g k−1 verschieden sind: (Wäre g i = g j mit 0 ≤ i < j < k, so wäre g j−i = g j (g i )−1 = e mit j−i < k, ein Widerspruch.) Also hat ⟨g⟩ mindestens die verschiedenen Elemente g 0 , g 1 , g 2 , g 3 , . . . , g k−1 ; damit hat ⟨g⟩ mindestens k Elemente; also ist m ≥ k. „m ≤ k“: Dazu zeigen wir, dass G′ := {g 0 , g 1 , g 2 , g 3 , . . . , g k−1 } eine Untergruppe bildet: Wir wenden das Untergruppenkriterium an. Sicher ist G′ ≠ ∅ . Das Inverse eines Elements g i ∈ G′ ist das Element g k−i ; denn g i g k−i = g k = e. Da k−i eine nichtnegative ganze Zahl < k ist, ist auch g k−i in G′ . Seien schließlich g i und g j Elemente von G′ . Es ist zu zei- 284 9 Elementarste Gruppentheorie gen, dass g i g j = g i + j in G′ ist. Wenn i + j < k ist, ist dies sofort klar. Wenn i + j ≥ k ist, ist i + j = k + i′ mit 0 ≤ i′ < k. In diesem Fall ergibt sich ′ ′ ′ ′ g i+ j = g k+i = g k g i = e g i = g i ∈ G ′ . Somit ist G′ eine Untergruppe von G, die g enthält. Nach Definition von ⟨g⟩ ist ⟨g⟩ in G′ enthalten. Also ist die Anzahl m der Elemente von ⟨g⟩ höchstens so groß wie die Anzahl k ◻ der Elemente von G′ . Korollar Wenn G eine endliche zyklische Gruppe der Ordnung m ist, die von g erzeugt wird, dann gilt G = {g , g , g , . . . , g m− } = {e, g, g , . . . , g m− } . ◻ Als weitere Folgerung halten wir fest: Kleiner Satz von Fermat Ist G eine endliche Gruppe, so gilt für alle Elemente g ∈ G: g ∣G∣ = e . ◻ Fermat selbst (Pierre de Fermat, 1601–1665) hat diesen Satz nur für eine spezielle Gruppe ausgesprochen, nämlich für die Gruppe (Zp *, ⋅ ) für eine Primzahl p. Erst Leonhard Euler (1707–1783) hat den Satz auf Zn * verallgemeinert. In dieser Situation gilt Satz von Euler Sei g eine ganze Zahl zwischen 1 und n–1. Ist g teilerfremd zu n, so gilt ∗ g ∣Z n ∣ mod n = . Insbesondere gilt (Kleiner Satz von Fermat (Originalfassung)): Ist p eine Primzahl, so ist g p− mod p = . ◻ 9.2 Einfache Strukturaussagen für Gruppen 285 Der folgende Satz sagt, dass für zyklische Gruppen auch die Umkehrung des Satzes von Lagrange gilt. Satz über die Untergruppen einer zyklischen Gruppe Sei G eine zyklische Gruppe der Ordnung n. Ist k ein Teiler von n, so hat G eine Untergruppe der Ordnung k. Beweis Sei g ein erzeugendes Element von G. Da k ein Teiler von n ist, gibt es eine natürliche Zahl m mit km = n. Behauptung h := g m ist ein Element der Ordnung k. (Sicher ist hk = (g m )k = g mk = g n = e. Also ist die Ordnung von h höchstens k. Wäre die Ordnung k′ von h kleiner als k, so wäre ′ ′ ′ aber auch g mk = (g m )k = hk = e mit mk′ < mk = n; also hätte g eine Ordnung < n, ein Widerspruch.) Daher erzeugt h eine Untergruppe ⟨h⟩ von G der Ordnung k. ◻ 9.2.3 Der Homomorphiesatz Seien G und H Gruppen. Eine Abbildung f : G → H heißt ein Homomorphismus (der Gruppen G und H), falls für alle g, g ′ ∈ G gilt f (g g ′) = f (g) f (g ′) . Ein Isomorphismus ist ein bijektiver Homomorphismus, und ein Automorphismus ist ein Isomorphismus einer Gruppe auf sich selbst. Zwei Gruppen G und H heißen isomorph (in Zeichen G ≅ H), falls es einen Isomorphismus von G auf H gibt. Beispiele • S3 und die Symmetriegruppe eines regulären Dreiecks sind isomorphe Gruppen. • Die Abbildung sig: Sn → {−1, 1}, die jeder Permutation ihr Signum zuordnet, ist ein Homomorphismus von Gruppen. Klassifikation der zyklischen Gruppen Jede zyklische Gruppe ist isomorph zu Z oder zu Zn . 286 9 Elementarste Gruppentheorie Beweis Sei G eine zyklische Gruppe, die von einem Element g erzeugt wird. Wir unterscheiden zwei Fälle. 1. Fall: ⟨g⟩ ist unendlich. Dann sind die Elemente g z für z ∈ Z alle verschieden und schöpfen nach Definition des Erzeugnisses ganz ⟨g⟩ = G aus. Es folgt, dass die Abbildung f : G → Z, die durch f (g z ) := z definiert ist, ein Isomorphismus von G in (Z, +). 2. Fall: ⟨g⟩ ist eine endliche Gruppe. Sei n die Ordnung von ⟨g⟩ . Dann ist die Abbildung f : G → Zn , die definiert ist durch ◻ f (g i ) = i, ein Isomorphismus. Sei f : G → H ein Homomorphismus der Gruppe G in die Gruppe H. Der Kern von f ist definiert als Kern( f ) = {g ∈ G∣ f (g) = e} . Das Bild von f besteht aus allen Bildern der Elemente von G: Bild( f ) = {h ∈ H∣ es gibt g ∈ G mit f (g) = h} = { f (g)∣g ∈ G} . Zum Beispiel ist der Kern der Signumsabbildung sig: Sn → {−1, 1} gleich der Menge der geraden Permutationen, also gleich An . Man kann sich leicht überlegen (Übungsaufgabe 25), dass Kern(f ) eine Untergruppe von G und Bild(f ) eine Untergruppe von H ist. Nun müssen wir noch einen wichtigen Begriff einführen. Dies ist der Begriff des „Normalteilers“. Wir wollen nämlich – analog zu Faktorräumen – auch Faktorgruppen bilden. Es zeigt sich, dass die Menge aller Nebenklassen nach einer Untergruppe nicht notwendig eine Gruppe bildet; dies ist vielmehr nur für eine spezielle Sorte von Untergruppen der Fall, und dies sind die Normalteiler. Eine Untergruppe N einer Gruppe G heißt ein Normalteiler von G, falls für alle g ∈ G gilt: Die Menge g − N g = {g − ng∣n ∈ N} ist gleich N. Kurz: N ist ein Normalteiler, falls für alle g ∈ G gilt: g −1 Ng = N. Beispiele (0) Jede Untergruppe einer abelschen Gruppe ist ein Normalteiler. (1) Die Menge An der geraden Permutationen bildet einen Normalteiler von Sn . Weitere wichtige Beispiele erhalten wir aus Homomorphismen: 9.2 Einfache Strukturaussagen für Gruppen 287 Kern eines Homomorphismus Sei f : G → H ein Homomorphismus von Gruppen. Dann ist Kern(f ) ein Normalteiler von G. Beweis Dass Kern(f ) eine Untergruppe von G ist, wird in Übungsaufgabe 25 bewiesen. Sei h ∈ Kern(f ), also f (h) = e. Sei ferner g ein beliebiges Element von G. Dann ist f (g − hg) = f (g − ) f (h) f (g) = f (g − )e f (g) = f (g − ) f (g) = f (g)− f (g) = e . (In Übungsaufgabe 26 sollen Sie zeigen, dass f (g −1 ) = f (g)−1 gilt.) Also ist tatsächlich g −1 hg ∈ Kern(f ). ◻ Man kann Normalteiler auf folgende Weise charakterisieren: Eine Untergruppe N von G ist genau dann ein Normalteiler, falls für alle g ∈ G gilt gN = N g . (Dabei ist gN = {gn ∣ n ∈ N}, und Ng ist entsprechend definiert.) Dies zeigen wir auf folgende Weise Sei zunächst N ein Normalteiler. Zu zeigen ist gN ⊆ Ng und Ng ⊆ gN. Sei gn ∈ gN beliebig. Da N ein Normalteiler ist, ist gng −1 aus N; also gibt es ein n1 ∈ N mit gng −1 = n1 . Es folgt gn = n1 g ∈ Ng. Entsprechend zeigt man die andere Inklusion. Nun möge gN = Ng für alle g ∈ G gelten. Um zu zeigen, dass N ein Normalteiler ist, müssen wir g −1 Ng ⊆ N und N ⊆ g −1 Ng zeigen. Sei g −1 ng ∈ g −1 Ng beliebig. Wegen Ng = gN gibt es ein n1 ∈ N mit ng = gn1 . Also ist −1 g ng = n1 ∈ N. Sei umgekehrt n ∈ N beliebig. Dann ist auch n−1 ∈ N. Wegen Ng = gN gibt es ein n1 ∈ N ◻ mit n−1 g = gn1 . Es folgt n−1 = gn1 g −1 , also n = g −1 n1 −1 g ∈ g −1 Ng. Sei N ein Normalteiler von G. Dann heißt G/N = { gN ∣ g ∈ G } die Faktorgruppe von G nach N. Satz über die Faktorgruppe Sei N ein Normalteiler der Gruppe G. Dann ist G/N eine Gruppe mit der Verknüpfung (gN) ⋅ (hN) ∶= ghN . Beweis Zunächst müssen wir zeigen, dass die Verknüpfung wohldefiniert ist. Seien g, g ′ , h, h′ ∈ G mit gN = g ′ N und hN = h′ N. Es ist zu zeigen, dass ghN = g ′ h′ N ist. 288 9 Elementarste Gruppentheorie Wegen gN = g ′ N ist g −1 g ′ = n1 ∈ N. Ebenso ist n2 = h−1 h′ ∈ N. Daraus folgt: ′ − ′ ′ ′ − ′ gh = g ′ n− h n = g h n n mit n ∈ N . Warum? Dies liegt daran, dass N ein Normalteiler ist. Dies bedeutet nämlich, dass für alle g aus G und n aus N gilt ng = gn′ mit einem gewissen n′ aus N. Damit unterscheiden sich gh und g ′ h′ nur um das Element (n1 ′ n2 )−1 von N. Damit ist ghN = g ′ h′ N. Also ist die Multiplikation auf G/N wohldefiniert. Die restlichen Eigenschaften sind einfach nachzuweisen und werden Ihnen als Übungsaufgabe überlassen (siehe Übungsaufgabe 29). ◻ Korollar ◻ G/Kern(f ) ist eine Gruppe. Es fragt sich, welche Gruppe G/Kern(f ) ist. Kennen wir diese Gruppe schon? Die Antwort darauf gibt der . . . Homomorphiesatz für Gruppen Sei f : G → H ein Homomorphismus der Gruppe G in die Gruppe H. Dann gilt G/Kern( f ) ≅ Bild( f ) . Beweis Sei N:= Kern(f ). Wir müssen einen Isomorphismus von G/N auf Bild(f ) definieren. Dazu müssen wir mindestens mal eine Abbildung φ von G/N in Bild(f ) definieren; wenn wir φ so einfach wie wir nur können definieren, so haben wir die Hoffnung, dass φ tatsächlich ein Homomorphismus oder sogar ein Isomorphismus ist. Ganz analog zum Homomorphiesatz für Faktorräume definieren wir φ(gN) ∶= f (g) . Es ist klar, dass die Abbildung φ jedenfalls surjektiv ist. Was habe ich da gehört? Die Abbildung φ? Ist das überhaupt eine Abbildung? Wird jeder Nebenklasse tatsächlich nur ein Element zugeordnet? Wenn ich eine Nebenklasse als gN darstelle und Sie dieselbe Nebenklasse als hN, so erhalte ich als Bild f (g), Sie aber f (h). Es müsste also f (g) = f (h) sein. (Sie erinnern sich: Man nennt dies die Wohldefiniertheit der Abbildung φ.) Aber jetzt gilt: 9.3 Verständnisfragen, Übungen und Tipps 289 Gefahr erkannt, Gefahr gebannt! gN = hN ⇔ gh − ∈ N(= Kern( f )) ⇔ f (gh −) = e ⇔ e = f (gh − ) = f (g) ⋅ f (h − ) = f (g) f (h)− ⇔ f (g) = f (h) . Der Rest ist (jetzt!) einfache Routine: • φ ist ein Homomorphismus: Seien gN und hN zwei beliebige Nebenklassen. Dann gilt: φ(gN ⋅ hN) = φ(ghN) = f (gh) = f (g) ⋅ f (h) = φ(gN) ⋅ φ(hN) . • φ ist surjektiv: Dies folgt direkt aus der Definition. • φ ist injektiv: Seien gN und hN Nebenklassen. Dann ergibt sich ähnlich wie oben: φ(gN) = φ(hN) ⇔ f (g) = f (h) ⇔ f (gh −) = f (g) f (h)− = e ⇔ gh − ∈ Kern( f )(= N) ⇔ gN = hN . Damit ist alles gezeigt. 9.3 ◻ Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Gruppen und Vektorräume ◻ Jeder Vektorraum ist eine Gruppe. ◻ Jeder Vektorraum ist eine abelsche Gruppe. ◻ Jede abelsche Gruppe kann zu einem Vektorraum gemacht werden. ◻ Die Menge der linearen Abbildungen eines Vektorraums V in einen Vektorraum W ist bezüglich der punktweisen Addition eine Gruppe. ◻ Die Menge der linearen Abbildungen eines Vektorraums in sich ist bezüglich der Hintereinanderausführung eine Gruppe. ◻ Die Menge der invertierbaren linearen Abbildungen eines Vektorraums in sich ist bezüglich der Hintereinanderausführung eine Gruppe. 290 9 Elementarste Gruppentheorie 2. Thema: Ordnung von Gruppen und Elementen ◻ Zu jeder natürlichen Zahl n gibt es mindestens eine Gruppe der Ordnung n. ◻ Zu jeder natürlichen Zahl n gibt es genau eine Gruppe der Ordnung n. ◻ Jede unendliche Gruppe enthält mindestens ein Element unendlicher Ordnung. 3. Thema: Untergruppen ◻ Jede Gruppe hat eine Untergruppe. ◻ Jede Gruppe hat eine nichttriviale Untergruppe. ◻ Untergruppen sind Normalteiler. ◻ Untergruppen abelscher Gruppen sind Normalteiler. ◻ Untergruppen von unendlichen Gruppen sind unendlich. 4. Thema: Isomorphie von Gruppen ◻ Je zwei Gruppen gleicher Ordnung sind isomorph. ◻ Je zwei zyklische Gruppen gleicher Ordnung sind isomorph. ◻ Zu jeder natürlichen Zahl n gibt es mindestens zwei nichtisomorphe Gruppen der Ordnung n. ◻ Es gibt – bis auf Isomorphie – nur eine Gruppe mit vier Elementen. 5. Thema: Homomorphiesatz Sei f : G → H ein Gruppenisomorphismus. Aus dem Homomorphiesatz folgt: ◻ Kern(f ) und Bild(f ) sind isomorph. ◻ Kern(f ) und Bild(f ) sind nie isomorph. ◻ Je zwei Gruppen sind isomorph. ◻ G ist isomorph zu Bild(f ). ◻ G hat eine Untergruppe isomorph zu Bild(f ). ◻ G hat eine Faktorgruppe isomorph zu Bild(f ). ◻ G hat eine Untergruppe isomorph zu Kern(f ). Übungsaufgaben 1. Formulieren Sie die Definition eines „Ideals“ mit dem Begriff „Gruppe“. 2. Zeigen Sie: Jede Untergruppe von (Z, +) ist von der Form (nZ, +). 3. Machen Sie sich klar, dass Zn * bezüglich der Multiplikation modulo n eine Gruppe bildet. Machen Sie sich die Aussage zunächst am Beispiel n = 15 klar. 4. Bestimmen Sie die Symmetriegruppe eines Rechtecks, das kein Quadrat ist. Überzeugen Sie sich durch eine Verknüpfungstabelle, dass die von Ihnen gefundenen Abbildungen wirklich eine Gruppe bilden. 5. Bestimmen Sie die Symmetriegruppe eines Quaders mit den Seitenlängen a, a, b ≠ a. 6. Bestimmen Sie die Symmetriegruppe eines regulären Tetraeders. 7. Bestimmen Sie die Ordnungen der in den vorigen drei Aufgaben gefundenen Gruppen. 8. Stellen Sie die Würfelgruppe dar (a) als Gruppe von Permutationen auf den sechs Flächen eines Würfels, 9.3 Verständnisfragen, Übungen und Tipps 291 (b) als Gruppe von Permutationen auf den zwölf Kanten eines Würfels. 9. (a) Zeigen Sie, dass jede Untergruppe von S4 die Ordnung 1, 2, 3, 4, 6, 8, 12 oder 24 haben muss. (b) Geben Sie zu jeder dieser Ordnungen eine Untergruppe an. 10. Ist 1 das einzige Element aus Z, das die zyklische Gruppe (Z, +) erzeugt? 11. Bestimmen Sie alle Elemente, die die Gruppe Z7 * bzw. Z8 * erzeugen. 12. Zeigen Sie: Die Menge der natürlichen Zahlen zwischen 0 und n−1, die ein multiplikatives Inverses modulo n haben, ist gleich der Menge der natürlichen Zahlen zwischen 0 und n−1, die mit n den größten gemeinsamen Teiler 1 haben (zwei natürliche Zahlen, deren ggT gleich 1 ist, nennt man auch teilerfremd) [Hinweis: Benutzen Sie das Lemma von Bézout.] 13. Sei p eine Primzahl. Bestimmen Sie ∣Zp *∣ und ∣Zp *∣ . 14. Vergleichen Sie das Erzeugnis von Elementen einer Gruppe genau mit dem Erzeugnis von Vektoren eines Vektorraums. 15. Sei G eine beliebige Gruppe der Ordnung 65.536. Zeigen Sie, dass es in G ein Element der Ordnung 2 gibt (d. h. ein Element g mit g ≠ e und g 2 = e). 16. Sei G eine abelsche Gruppe. (a) Wenn g und h zwei Elemente der Ordnung 2 in G sind, so hat auch gh die Ordnung 2. (b) Zeigen Sie: Zwei verschiedene Elemente der Ordnung 2 in G erzeugen eine Untergruppe der Ordnung 4. (c) Zeigen Sie: Sei G eine zyklische Gruppe gerader Ordnung. Dann enthält G genau ein Element der Ordnung 2. 17. Sei G eine beliebige Gruppe und U eine Untergruppe von G. Zeigen Sie: Wenn U den Index 2 hat, so ist U ein Normalteiler. 18. Bestimmen Sie sämtliche Untergruppen der S3 . [Hinweis: Es gibt genau vier nichttriviale Untergruppen.] 19. Zeigen Sie: Wenn für jedes Element g einer Gruppe G gilt g 2 = e, dann ist g eine abelsche Gruppe. 20. Sei V ein Vektorraum über einem Körper K = GF(p), dessen Ordnung eine Primzahl p ist. Zeigen Sie: Jedes von Null verschiedene Element von V hat in der additiven Gruppe die Ordnung p. 21. Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie, dass GL(V) isomorph zu GL(n, K) ist. [Vergleichen Sie dazu das Projekt in Kap. 5.] 22. Mit GL(n, q) bezeichnen wir die Gruppe der invertierbaren n × n-Matrizen mit Elementen aus GF(q). Bestimmen Sie die Ordnung von GL(n, q) für n = 2 und n = 3. Zusatzfrage: Können Sie eine allgemeine Formel für ∣GL(n, q)∣ angeben? 23. Zeigen Sie, dass die Menge SL(n, q) der n × n-Matrizen M über GF(q) mit det(M) = 1 eine Untergruppe von GL(n, q) ist. Bestimmen Sie den Index dieser Untergruppe in GL(n, q). 24. Geben Sie eine Untergruppe von GL(n, q) an, die genau q−1 Elemente hat. 292 9 Elementarste Gruppentheorie 25. Sei f : G → H ein Gruppenhomomorphismus. Zeigen Sie: Kern(f ) ist eine Untergruppe von G, Bild(f ) ist eine Untergruppe von H. 26. Sei f : G → H ein Gruppenhomomorphismus. Zeigen Sie, dass für jedes Element g von G gilt: f (g −1 ) = f (g)−1 . 27. Sei G := R\{−1}. Wir definieren auf G eine Operation * wie folgt: x * y := xy + x + y. (a) Zeigen Sie, dass (G, *) eine Gruppe ist. (b) Geben Sie einen Isomorphismus von (G, ) auf (R*, ⋅ ) an. 28. Sei G eine Gruppe, und sei N eine Untergruppe von G. Zeigen Sie N ist ein Normalteiler ⇔ g −1 Ng ⊆ N für alle g ∈ G. 29. Sei N ein Normalteiler der Gruppe G. Zeigen Sie, dass G/N eine Gruppe ist. 30. Bestimmen Sie alle Gruppen der Ordnung 1, 2, 3, 4, 5, 6, 7. Zusatzfrage: Bestimmen Sie alle Gruppen der Ordnung 8. 31. Sei K = GF(q) ein endlicher Körper. Zeigen Sie, dass die Menge Q ∶= {x ∈ K ∣ x ∈ K/{}} aller „Quadrate von K“ eine Gruppe bezüglich der Multiplikation bildet. 32. Sei K ein endlicher Körper. Betrachten Sie die Abbildung f : K * → K *, die definiert ist durch f (x) ∶= x . Ist f ein Gruppenhomomorphismus? (Wenn ja, zwischen welchen Gruppen?) Ist f ein Körperhomomorphismus? Geben Sie gegebenenfalls den Kern und das Bild von f an. [Unterscheiden Sie Körper, in denen 1 + 1 = 0 gilt, von allen anderen.] 33. Bestimmen sie die Ordnungen folgender geometrischer Abbildungen der affinen Ebenen über R in sich: Spiegelung, Drehung um den Winkel 360°/n, Punktspiegelung. Sie sollten mit folgenden Begriffen umgehen können Gruppe, abelsche Gruppe, Ordnung einer Gruppe, Untergruppe, Index, Ordnung eines Elements, Normalteiler, Faktorgruppe, Homomorphismus von Gruppen, Homomorphiesatz. 9.3 Verständnisfragen, Übungen und Tipps 293 10 Skalarprodukte In diesem Kapitel beschäftigen wir uns mit den möglichen (und sinnvollen) Verhältnissen, die zwei Vektoren miteinander haben können. Eine geometrische Betrachtungsweise ist der Winkel, den zwei Vektoren einschließen. Wir betrachten in diesem Kapitel nur solche Verhältnisse von Vektoren, die sich durch ein Körperelement beschreiben lassen. Mit anderen Worten: Wir betrachten also Abbildungen von V × V in K; solche Abbildungen nennt man traditionell Formen. Unglücklicherweise gibt es einen ganzen Zoo von verschiedenen und zu unterscheidenden Formen. Ich versuche, Ihnen dadurch Orientierung zu verschaffen, dass ich Ihnen zunächst nur eine Hälfte dieses Zoos zeige, nämlich denjenigen Teil, dessen Ziel das Studium der Skalarprodukte in reellen Vektorräumen ist. Sie sind eingeladen, die parallele Theorie für Skalarprodukte in komplexen Vektorräumen im „Projekt“ dieses Kapitels zu entwickeln. 10.1 Ein Beispiel Wir beginnen mit einem Beispiel aus der Geometrie. Wir legen dazu die kartesische Ebene zugrunde. Vielleicht erinnern Sie sich noch aus der Schule oder sonst woher, was man unter einem „skalaren Produkt“ versteht. Seien v1 = (x1 , y1 ) und v2 = (x2 , y2 ) Vektoren in der reellen Ebene. Dann gibt es – zwei Definitionen für das skalare Produkt ⟨v1 , v2 ⟩ der Vektoren v1 und v2 . Wie bitte? Ganz einfach: Das bedeutet nicht, dass es zwei konkurrierende Definitionen gibt, die zu verschiedenen Strukturen führen. Vielmehr gibt es zwei verschiedene Beschreibungen derselben Sache. Und unsere Aufgabe ist es, die Äquivalenz dieser Beschreibungen nachzuweisen. (Vergleichen Sie hierzu die Diskussion um die „drei Definitionen“ einer Basis in Abschn. 3.3.1.) Manchmal wird das skalare Produkt definiert als ⟨v , v ⟩ = x x + y y ; A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_10, © Springer Fachmedien Wiesbaden 2014 295 296 10 Abb. 10.1 Das skalare Produkt Skalarprodukte y (x 1 , y1) h d (x 2, y2) x x an anderen Stellen liest man ⟨v , v ⟩ = ∥v ∥ ⋅ ∥v ∥ ⋅ cos(φ) , wobei φ der von v1 und v2 eingeschlossene Winkel ist. Ist das das Gleiche? Wenn ja, wäre das sehr schön. Denn mit Hilfe der „ersten Definition“ kann man das skalare Produkt leicht ausrechnen; die „zweite Definition“ zeigt, dass das skalare Produkt sehr genau Längen von Vektoren und Winkel zwischen Vektoren beschreibt. Wir überlegen uns jetzt, dass die „beiden Definitionen“ den gleichen Wert √ liefern. Seien dazu√ v1 = (x1 , y1 ) und v2 = (x2 , y2 ) zwei Vektoren der Länge 1. Das bedeutet x + y = und x + y = . (Diese Einschränkung dient ausschließlich dazu, dass wir uns beim Rechnen leichter tun; Sie können aber auch mit Vektoren beliebiger Länge rechnen; siehe Übungsaufgabe 1.) Sei φ der von den Vektoren v1 und v2 eingeschlossene Winkel. Einen einfachen Spezialfall behandeln wir vorab: Wenn v1 = v2 ist, so gilt ⟨v , v ⟩ = x + y = ∥v ∥ = ∥v ∥ ⋅ ∥v ∥ ⋅ cos(○ ) , da cos(0°) = 1 ist. Nun betrachten wir den allgemeinen Fall v1 ≠ v2 . Mit den Bezeichnungen von Abb. 10.1 gilt dann cos(φ) = x. Also ist zu zeigen, dass x = x1 x2 +y1 y2 gilt. Dazu wenden wir zweimal den Satz des Pythagoras an. Zum einen gilt x + h = , zum anderen ( − x) + h = d . Daraus ergibt sich − x = d . 10.2 Bilinearformen 297 Wir wissen aber auch d = (x − x ) + (y − y ) = x − x x + x + y − y y + y = x + y + x + y − x x − y y = + − x x − y y . Zusammen folgt x = − d = − + x x + y y = x x + y y , also cos(φ) = x = x x + y y . Daher beschreiben beide „Definitionen“ denselben Sachverhalt. Damit ist auch ein Nachteil der ersten Definition behoben; denn diese hängt von der Wahl einer Basis (hier der Basis aus Einheitsvektoren) ab. An diesem Beispiel erkennen wir verschiedene Eigenschaften, die uns Anlass zu Fragen geben. • Hat jeder Vektorraum ein „Skalarprodukt“? • Wir sehen in obigem Beispiel, dass das Skalarprodukt zweier Vektoren genau dann Null ist, wenn diese senkrecht aufeinander stehen. Dies wollen wir in allgemeinem Rahmen nachmachen. Kann man diesen Sachverhalt auf beliebige „Skalarprodukte“ verallgemeinern? • In unserem Eingangsbeispiel hat die Basis aus Einheitsvektoren die Eigenschaft, dass je zwei Basisvektoren aufeinander senkrecht stehen und jeder Basisvektor die Länge 1 hat. Gibt es für jedes „Skalarprodukt“ eine solche Basis? • Welche linearen Abbildungen „respektieren“ das Skalarprodukt? Das bedeutet: Welche linearen Abbildungen verändern die Vektoren nur so, dass der Winkel zwischen zwei Vektoren vorher und nachher gleich groß ist? Formaler: Welches sind die linearen Abbildungen f von V in sich mit der Eigenschaft ⟨ f (v), f (w)⟩ = ⟨v, w⟩ für alle v, w ∈ V ? 10.2 Bilinearformen Wir werden uns den Skalarprodukten in zwei Stufen nähern. Im diesem Abschnitt studieren wir so genannte Bilinearformen, die aber nur eine Vorform der Skalarprodukte sind, deren Eigenschaften wir ab Abschn. 10.3 genau studieren werden. Sei stets V ein K-Vektorraum endlicher Dimension n. Eine Bilinearform ist eine Abbildung von V × V in K, die gewissen Eigenschaften genügt. Das Bild des Paars (v, w) von Vektoren unter der Bilinearform bezeichnen wir mit ⟨v, w⟩. (Das könnte theoretisch zu 298 10 Skalarprodukte Verwechslungen mit dem von v und w erzeugten Unterraum führen; das wird aber in der Praxis nicht passieren.) Nun heben wir nochmals an: Eine Bilinearform von V ist eine Abbildung ⟨, ⟩ ∶ V × V → K , die bilinear ist; das bedeutet, dass für alle v, v′ , w, w′ ∈ V und alle k ∈ K gilt: ⟨v + v ′ , w⟩ = ⟨v, w⟩ + ⟨v ′ , w⟩, ⟨k ⋅ v, w⟩ = k ⋅ ⟨v, w⟩ und ′ ⟨v, w + w ⟩ = ⟨v, w⟩ + ⟨v, w ′ ⟩, ⟨v, kw⟩ = k ⋅ ⟨v, w⟩ . „Bilinear“ bedeutet nichts anderes, als dass die Form in beiden Komponenten linear ist. Mit anderen Worten: Eine Abbildung ⟨ , ⟩: V × V → K ist eine Bilinearform, falls für alle Vektoren v und w aus V gilt: Die Abbildung f v : V → K mit g v (w) : = ⟨v, w⟩ und die Abbildung g w : V → K mit g w (v) := ⟨v, w⟩ sind lineare Abbildungen (also Linearformen; siehe Abschn. 5.4). Beispiele Wir geben sofort eine riesige Menge von Beispielen an. Dazu wählen wir irgendeine Basis B = {v1 , . . . , vn } von V. Ferner sei A = (aij ) eine n × n-Matrix mit Werten aus K. Wir definieren eine Abbildung ⟨ , ⟩ von V × V in K dadurch, dass wir für Basisvektoren vi und vj definieren ⟨v i , v j ⟩ ∶= a i j und diese Vorschrift „linear fortsetzen“. Das bedeutet: Wenn n v = ∑ ki vi n und w = ∑ h j v j i= j= beliebige Vektoren aus V sind, so ist n ⟨v, w⟩ ∶= ∑ k i a i j h j . i , j= Wir können diese Vorschrift noch einprägsamer formulieren. Dazu erlauben wir uns eine kleine Schlamperei (vornehm „abuse of notation“ genannt). Wir bezeichnen nämlich den Koordinatenvektor (k1 , k2 , . . . , kn ) des Vektors v (bezüglich der Basis B) ebenfalls mit v; entsprechend sei mit w auch der Koordinatenvektor von w bezeichnet. Dann ist ⟨v, w⟩ = v ⋅ A ⋅ w T . Es handelt sich also nur um die Multiplikation der Vektoren mit einer festen Matrix. Nun zeigen wir, dass die so definierte Abbildung ⟨ , ⟩ wirklich eine Bilinearform ist: 10.2 Bilinearformen 299 Konstruktion von Bilinearformen Durch die Vorschrift n ⟨v, w⟩ ∶= ∑ k i a i j h j i , j= wird eine Bilinearform auf V erklärt. Man nennt ⟨ , ⟩ die (bezüglich der Basis B) zu A gehörige Bilinearform. Beweis Offenbar ist es genau so einfach, die Linearität in der ersten Komponente wie die Linearität in der zweiten Komponente nachzuweisen. Deshalb betrachten wir o.B.d.A. nur die erste Komponente. Seien n n i= i= v = ∑ k i v i , v ′ = ∑ k ′i v i n und w = ∑ h j v j . j= Dann gilt n n n i , j= i , j= i , j= ⟨v + v ′ , w⟩ = ∑ (k i + k ′i )a i j h j = ∑ k i a i j h j + ∑ k ′i a i j h j = ⟨v, w⟩ + ⟨v ′ , w⟩ . Also ist ⟨ , ⟩ in der ersten Komponente additiv. Ebenso leicht kann man zeigen, dass ⟨ , ⟩ in der ersten Komponente auch homogen ist. Also ist die im Satz definierte Abbildung ⟨ , ⟩ wirklich eine Bilinearform. ◻ Wenn ⟨ , ⟩ eine Bilinearform des n-dimensionalen Vektorraums V ist, so heißt die Matrix A = (⟨vi , vj ⟩)1 ≤ i, j ≤ n die zu ⟨ , ⟩ gehörige Gramsche Matrix. Diese wird nach dem dänischen Versicherungsmathematiker Jórgen Pedersen Gram (1850–1916) benannt. In manchen Büchern heißt A auch Strukturmatrix von ⟨ , ⟩. Selbstverständlich ist es – ähnlich wie bei Darstellungsmatrizen von linearen Abbildungen – eine wichtige Frage, wie durch Wahl einer geeigneten Basis die Gramsche Matrix besonders einfach wird. Noch genauer kann man fragen, unter welchen Umständen man erreichen kann, dass man eine Gramsche Matrix in Diagonalgestalt erzielen kann. Besonders einfach zu beschreibende Bilinearformen sind die folgenden. Sei {v1 , . . . , vn } eine Basis von V. Für zwei Vektoren n v = ∑ ki vi i= n und w = ∑ h j v j j= setzen wir ⟨v, w⟩ ∶= f (v, w) ∶= k ε h + k ε h + . . . + k n ε n h n , wobei εi = ±1 ist. (Vergleichen Sie hierzu auch Übungsaufgabe 8.) 300 10 Skalarprodukte Am einfachsten zu beschreiben ist die Standardbilinearform, bei der alle εi = 1 sind: ⟨v, w⟩ ∶= f (v, w) ∶= k h + k h + . . . + k n h n . Mit anderen Worten: Die Gramsche Matrix der Standardbilinearform ist die Einheitsmatrix. Da wir später sehen werden, dass diese Bilinearform auch ein Skalarprodukt ist, sprechen wir auch vom Standardskalarprodukt. Wir werden demnächst einen wichtigen Satz über die Gramsche Matrix beweisen. Dazu brauchen wir aber noch eine Definition. Sei ⟨ , ⟩ eine Bilinearform auf V. Wir sagen, dass zwei Vektoren v, w aus V senkrecht aufeinander stehen (orthogonal sind), wenn ⟨v, w⟩ = 0 ist. Wir schreiben dafür auch v ⊥ w. Man kann sich leicht überlegen, dass der Nullvektor auf allen anderen Vektoren senkrecht steht (siehe Übungsaufgabe 3). Wir nennen die Bilinearform ⟨ , ⟩ nichtausgeartet, falls der Nullvektor der einzige Vektor ist, der auf jedem Vektor senkrecht steht. Das bedeutet: ⟨ , ⟩ ist nichtausgeartet, falls gilt: ⟨v , w⟩ = für alle w ∈ V ⇒ v = o . Bemerkung Bei der Definition einer nichtausgearteten Bilinearform haben wir die beiden Komponenten nicht gleichberechtigt behandelt, jedenfalls nicht formal. Man kann jedoch zeigen, dass diese Definition in Wirklichkeit keine Benachteiligung der einen oder anderen Komponente darstellt. Da wir uns im Wesentlichen auf „symmetrische“ Bilinearformen konzentrieren werden, spielt aber diese Finesse für uns ohnedies keine Rolle. Rang einer Gramschen Matrix Sei {v1 , v2 , . . . , vn } eine Basis des Vektorraums V, und sei A = (⟨vi , vj ⟩)1 ≤ i, j ≤ n die Gramsche Matrix einer Bilinearform ⟨ , ⟩ von V. Dann gilt: Genau dann hat A den Rang n (also Determinante ≠ 0), wenn die Bilinearform ⟨ , ⟩ nichtausgeartet ist. Beweis Zunächst nehmen wir an, dass A einen Rang < n hat. Wir müssen zeigen, dass ⟨ , ⟩ ausgeartet ist. Dazu genügt es, einen von Null verschiedenen Vektor x anzugeben, der auf allen Vektoren der Basis {v1 , v2 , . . . , vn } senkrecht steht. Wenn A einen Rang < n hat, so sind die Zeilen von A linear abhängig. Daher gibt es Körperelemente k1 , . . . , kn , so dass die entsprechende Linearkombination der Zeilen von A Null ist. Das bedeutet: k ⋅ ⟨v , v ⟩ + k ⋅ ⟨v , v ⟩ + . . . + k n ⋅ ⟨v n , v ⟩ = , k ⋅ ⟨v , v ⟩ + k ⋅ ⟨v , v ⟩ + . . . + k n ⋅ ⟨v n , v ⟩ = , ... k ⋅ ⟨v , v n ⟩ + k ⋅ ⟨v , v n ⟩ + . . . + k n ⋅ ⟨v n , v n ⟩ = . 10.2 Bilinearformen 301 Nun betrachten wir den Vektor x ∶= k v + k v + . . . + k n v n . Nach Annahme und Wahl der ki ist x ≠ o. Wir behaupten, dass x auf jedem vj senkrecht steht! Dies müssen wir einfach ausrechnen: ⟨x, v j ⟩ = ⟨k v + k v + . . . + k n v n , v j ⟩ = k ⟨v , v j ⟩ + k ⟨v , v j ⟩ + . . . + k n ⟨v n , v j ⟩ = Wegen der obigen Gleichungen. Also steht x tatsächlich auf allen Vektoren aus V senkrecht, und damit ist ⟨ , ⟩ ausgeartet. Der Beweis der Umkehrung verwendet eigentlich die gleichen Argumente: Wir nehmen an, dass die Bilinearform ⟨ , ⟩ ausgeartet ist. Dann gibt es einen von Null verschiedenen Vektor x, der auf v1 , v2 , . . . , vn senkrecht steht. Sei x = k1 v1 + k2 v2 + . . . + kn vn . Da x ≠ o ist, ist mindestens ein ki ≠ 0. Dann gilt für alle j ∈ {1, 2, . . . , n}: = ⟨x, v j ⟩ = ⟨k v + k v + . . . + k n v n , v j ⟩ = k ⟨v , v j ⟩ + k ⟨v , v j ⟩ + . . . + k n ⟨v n , v j ⟩ . Dies bedeutet aber nichts anderes, als dass die Zeilen der Gramschen Matrix A linear abhängig sind; somit ist der Rang von A kleiner als n. ◻ Wir werden nun dem erstaunlich engen Zusammenhang zwischen den soeben definierten Bilinearformen und den schon lange bekannten Linearformen herstellen. (Nur, falls Sie das zufällig vergessen haben sollten: Eine Linearform ist eine lineare Abbildung von V in K; die Menge aller Linearformen nennt man den Dualraum. Vergleichen Sie dazu Abschn. 5.4.) Zunächst zeigen wir, dass jede Bilinearform nicht nur eine, nicht nur zwei, nein: sogar viele Linearformen liefert. Bilinearformen kommen von Linearformen Sei ⟨ , ⟩ eine Bilinearform auf V. Sei v0 ein beliebiger Vektor. Wir definieren die Abbildung fv von V nach K durch fv (w) = ⟨v , w⟩ für alle w∈V . Dann ist fv eine Linearform von V. Wenn ⟨ , ⟩ nicht ausgeartet ist, so ist fv genau dann die Nullabbildung, wenn v0 = o ist. Entsprechend ist die Abbildung gw von V nach K, die durch gw (v) = ⟨v, w ⟩ für alle v∈V 302 10 Skalarprodukte definiert ist, eine lineare Abbildung, die (für den Fall, dass ⟨ , ⟩ nichtausgeartet ist) nur dann die Nullabbildung ist, wenn w0 = o ist. Beweis Seien w, w′ ∈ V. Dann ist fv (w + w ′ ) = ⟨v , w + w ′ ⟩ = ⟨v , w⟩ + ⟨v , w ′ ⟩ = fv (w) + fv (w ′ ) , da ⟨ , ⟩ bilinear ist. Entsprechend folgt für alle k ∈ K fv (k ⋅ w) = ⟨v , kw⟩ = k ⋅ ⟨v , w⟩ = k ⋅ fv (w) . Die Abbildung fv ist genau dann die Nullabbildung, wenn ⟨v0 , w⟩ = 0 ist für alle w ∈ V. Da ⟨ , ⟩ nichtausgeartet ist, kann dies nur dann der Fall sein, wenn v0 der Nullvektor ist. Ähnlich zeigt man die Behauptungen für gw . (Achtung: Die Tatsache, dass gw genau dann die Nullabbildung ist, wenn w0 = o ist, ist schwieriger zu zeigen; siehe Übungsaufgabe 9.) ◻ Es gilt sogar noch mehr: Bilinearformen und Abbildungen von V nach V* Die Abbildung F von V in den Dualraum V*, die definiert ist durch F(v) ∶= fv , ist eine lineare Abbildung; sie ist genau dann injektiv, also ein Isomorphismus, wenn ⟨ , ⟩ nichtausgeartet ist. Entsprechend gilt: Die Abbildung G von V in den Dualraum V*, die definiert ist durch G(w) := g w , ist eine lineare Abbildung; sie ist genau dann injektiv, also ein Isomorphismus, wenn ⟨ , ⟩ nichtausgeartet ist. Beweis Wir zeigen die Additivität der Abbildung F: Seien v, v′ ∈ V. Wir müssen beweisen, dass F(v+v′ ) = f v+v′ und F(v)+F(v′ ) = f v +f v′ dieselbe Linearform sind. Dazu müssen wir zeigen, dass für alle w ∈ V die Werte [F(v+v′ )](w) = (f v+v′ )(w) und [F(v)+F(v′ )](w) = [fv + f v′ ](w) gleich sind. Und wie so oft stellt sich heraus: Wenn man das Problem erst mal so weit analysiert hat, ist die Lösung ganz einfach: [F(v + v ′ )] (w) = ( fv+v ′ )(w) = ⟨v + v ′ , w⟩ = ⟨v, w⟩ + ⟨v ′ , w⟩ = [ fv + fv ′ ](w) = [F(v) + F(v ′ )](w) . Die Homogenität von F zeigt man entsprechend. 10.2 Bilinearformen 303 Es bleibt noch zu zeigen, dass F genau dann injektiv ist, wenn ⟨ , ⟩ nichtausgeartet ist: Die lineare Abbildung F ist genau dann injektiv, wenn ihr Kern nur aus dem Nullvektor besteht. Der Kern von F enthält aber genau dann einen Vektor v ≠ o, wenn f v die Nullabbildung ist. Schließlich gibt es aber genau dann einen Vektor v ≠ o mit ⟨v, w⟩ = f v (w) = 0 für alle w ∈ V, wenn ⟨ , ⟩ ausgeartet ist. Damit ist alles gezeigt. ◻ Nun könnten Sie sagen: „Schön und gut; Bilinearformen und erst recht die später studierten Skalarprodukte sind etwas Vertrautes; dass diese merkwürdigerweise Linearformen induzieren, mag vielleicht einen Mathefreak begeistern, aber die ,normalen‘ Skalarprodukte sind doch etwas ganz anderes!“ Weit gefehlt! Beide Konzepte sind äquivalent: Wir können auch aus jeder Linearform eine Bilinearform konstruieren! Linearformen induzieren Bilinearformen Sei F eine lineare Abbildung von V nach V*. Dann wird durch ⟨v, w⟩ ∶= (F(v))(w) eine Bilinearform von V definiert. Das bedeutet: Um ⟨v, w⟩ auszurechnen, bestimmt man zuerst die Linearform F(v) und wendet dann diese auf den Vektor w an. Ferner gilt: Genau dann ist ⟨ , ⟩ nichtausgeartet, wenn F bijektiv ist. Beweis. Dass ⟨ , ⟩ in der zweiten Komponente linear ist, folgt aus der Tatsache, dass F(v) eine lineare Abbildung von V nach K ist. Die Additivität in der ersten Komponente ergibt sich aus der Additivität der Abbildung F: ⟨v + v ′ , w⟩ = (F(v + v ′ ))(w) = (F(v) + F(v ′ ))(w) = (F(v))(w) + (F(v ′ ))(w) = ⟨v, w⟩ + ⟨v ′ , w⟩ . Ganz entsprechend zeigt man die Homogenität in der ersten Komponente. Die Bilinearform ⟨ , ⟩ ist genau dann ausgeartet, wenn es einen Vektor v0 ≠ o gibt, so dass ⟨v0 , w⟩ = (F(v0 ))(w) = 0 ist für alle w ∈ V, also genau dann, wenn F(v0 ) die Nullabbildung ist. Das bedeutet: Genau dann ist ⟨ , ⟩ ausgeartet, wenn die Linearform F nicht injektiv ist. Da dim(V) = dim(V*) ist, folgt also auch: Genau dann ist ⟨ , ⟩ nichtausgeartet, wenn F injektiv, also genau dann, wenn F bijektiv ist. ◻ Mit diesem Satz können wir noch mehr zeigen. Bislang haben wir jeweils nur eine Bilinearform betrachtet. Wir wissen aber, dass es viele gibt. Inwiefern können sich zwei Bilinearformen überhaupt unterscheiden? Können sie „grundsätzlich verschieden“ sein? Oder 304 10 Skalarprodukte sind sie immer „im wesentlichen gleich“? – Der folgende Satz gibt eine Antwort auf diese Fragen. Verschiedene Bilinearformen von V („Wer eine kennt, kennt alle“) Sei ⟨ , ⟩ eine nichtausgeartete Bilinearform von V. (a) Sei f eine lineare Abbildung von V in sich. Dann wird durch die Vorschrift [v, w] ∶= ⟨ f (v), w⟩ eine Bilinearform von V definiert. (b) Sei [ , ] eine zweite Bilinearform von V. Dann gibt es eine lineare Abbildung φ von V in sich, so dass [v, w] = ⟨φ(v), w⟩ für alle v, w ∈ V gilt. Ferner gilt: Genau dann ist φ bijektiv, wenn auch die Bilinearform [ , ] nichtausgeartet ist. Kurz: Bilinearformen von V unterscheiden sich nur durch eine lineare Abbildung. Beweis Die Behauptung von (a) ist einfach nachzurechnen; Sie sind eingeladen, dies zu Ihrer Übung in Übungsaufgabe 4 zu tun. In (b) steckt die Hauptaussage des Satzes. Wir wissen, dass es eine lineare Abbildung F von V nach V* gibt mit ⟨v, w⟩ = (F(v))(w) für alle v, w ∈ V; da die Bilinearform ⟨ , ⟩ nichtausgeartet ist, ist F bijektiv, also invertierbar. Ebenso gibt es für die Bilinearform [ , ] eine lineare Abbildung F* von V nach V* mit (F*(v))(w) = [v, w] für alle v, w ∈ V. Nun setzen wir diese Abbildungen zusammen; genauer gesagt; Wir betrachten die Abbildung φ : = F -1 ⋅ F*. Als Komposition der linearen Abbildungen F* und F -1 ist φ eine (lineare) Abbildung von V nach V. Ferner ist φ genau dann bijektiv, wenn F* bijektiv ist, was, wie wir wissen, genau dann der Fall ist, wenn die Bilinearform [ , ] nichtausgeartet ist. Es bleibt nur zu zeigen, dass man mit Hilfe von φ tatsächlich die Bilinearform [ , ] aus ⟨ , ⟩ gewinnen kann. Dazu rechnen wir einfach ⟨φ(v), w⟩ aus: ⟨φ(v), w⟩ = (F(φ(v)))(w) = (F(F ⋅ ∗(v)))(w) = (F ∗ (v))(w) = [v, w] . Damit ist auch dieser Satz bewiesen. ◻ Nun wenden wir uns ernsthaft dem Begriff des Senkrechtstehens zu. Sei dazu stets ⟨ , ⟩ eine Bilinearform auf dem Vektorraum V. 10.2 Bilinearformen 305 Die Menge aller zu einem Vektor v orthogonalen Vektoren bezeichnet man mit v⊥ . Allgemeiner definieren wir für eine beliebige Teilmenge X von V X ⊥ ∶= {v ∈ V ∣⟨x, v⟩ = für alle x ∈ X} . Als leichte Übung beweisen wir folgende Aussagen: Satz über orthogonale Unterräume Sei ⟨ , ⟩ eine Bilinearform. Seien X und Y Teilmengen von V. Dann gelten folgende Aussagen: (a) Stets ist X ⊥ ein Unterraum von V; ferner ist v⊥ = (kv)⊥ für jedes von Null verschiedene Körperelement k. (b) Wenn X ⊆ Y gilt, dann ist Y ⊥ ⊆ X ⊥ . (c) Es gilt X ⊥ = ⟨X⟩⊥ . (Achtung: Hier kommen die spitzen Klammern in zwei Bedeutungen vor: Zur Bezeichnung der Bilinearform und zur Bezeichnung eines Erzeugnisses!) (d) Wenn ⟨ , ⟩ symmetrisch ist, so gilt X ⊆ X ⊥⊥ . (e) Wenn ⟨ , ⟩ symmetrisch ist, so gilt X ⊥⊥⊥ = X ⊥ . Beweis (a) Wir wenden das Unterraumkriterium an. Es ist o ∈ X ⊥ (siehe Übungsaufgabe 3). Seien v, w ∈ X ⊥ . Dann gilt für alle x ∈ X: ⟨x, v − w⟩ = ⟨x, v⟩ − ⟨x, w⟩ = − = , also v − w ∈ X ⊥ . Ähnlich zeigt man, dass mit v auch k ⋅ v ∈ X ⊥ ist. Also ist X ⊥ ein Unterraum. Wegen ⟨v, w⟩ = ⇔ ⟨k ⋅ v, w⟩ = k ⋅ ⟨v, w⟩ = folgt auch die zweite Behauptung. (b) Sei X ⊆ Y. Dann steht jeder Vektor v, der zu jedem y ∈ Y orthogonal ist, auch auf jedem x ∈ X senkrecht. Mit anderen Worten Y ⊥ = {v ∈ V ∣⟨y, v⟩ = für alle y ∈ Y} ⊆ {v ∈ V ∣⟨x, v⟩ = für alle x ∈ X} = X ⊥ . 306 10 (c) Wegen X ⊆ ⟨X⟩ folgt mit (b) Skalarprodukte ⟨X⟩⊥ ⊆ X ⊥ . Aber jeder Vektor, der senkrecht auf jedem Vektor x des Erzeugendensystems X steht, ist wegen der Bilinearität der Form auch in ⟨X⟩⊥ enthalten. (d) Sei x ∈ X. Wir müssen zeigen, dass x auch in X ⊥⊥ liegt. Wegen x ∈ X gilt für alle v ∈ X ⊥ : ⟨x, v⟩ = . Da ⟨ , ⟩ symmetrisch ist, ergibt sich also ⟨v, x⟩ = für alle v aus X⊥ . Nach Definition heißt dies x ∈ (X⊥ )⊥ = X⊥⊥ . (e) Nach (d) ist X ⊆ X ⊥⊥ , also nach (b) X ⊥⊥⊥ ⊆ X ⊥ . Setzt man Y := X ⊥ , so folgt, wenn man abermals (d) anwendet X ⊥ = Y ⊆ Y ⊥⊥ = X ⊥⊥⊥ . Zusammen ergibt sich X ⊥⊥⊥ = X ⊥ . ◻ Teil (d) des obigen Satzes sagt, dass für einen Unterraum U von V höchstens die Unterräume U, U ⊥ und U ⊥⊥ verschieden sind. Unser nächstes Ziel ist zu zeigen, dass (für eine nichtausgeartete Bilinearform) sogar U ⊥⊥ = U gilt; daher sind höchstens U und U ⊥ verschieden. Dazu benötigen wir das folgende Ergebnis. Dimensionsformel für Bilinearformen Sei ⟨ , ⟩ eine Bilinearform eines n-dimensionalen Vektorraums V. Wenn ⟨ , ⟩ nichtausgeartet ist, so gilt für alle Unterräume U von V dim(U) + dim(U ⊥ ) = n . Beweis Wir wählen eine Basis {v1 , . . . , vm } von U und ergänzen diese zu einer Basis {v1 , . . . , vm , vm+1 , . . . , vn } von V. Wir müssen zeigen: dim(U ⊥ ) = n − m. Der Unterraum U ⊥ besteht genau aus den Vektoren n x = ∑ ki vi i= n mit ⟨∑ k i v i , v j ⟩ = i= für j = , , . . . , m . 10.3 Skalarprodukte 307 Das bedeutet k ⟨v , v j ⟩ + k ⟨v , v j ⟩ + . . . + k n ⟨v n , v j ⟩ = f ür j = , . . . , m . Dies ist ein homogenes lineares Gleichungssystem in den Unbekannten k1 , k2 , . . . , kn . Um die Dimension des Lösungsraums bestimmen zu können, müssen wir den Rang der Matrix A des Gleichungssystems kennen. Da die Bilinearform nach Voraussetzung nichtausgeartet ist, hat die Gramsche Matrix den Rang n. Daraus ergibt sich, dass die m Zeilen der Matrix des Gleichungssystems linear unabhängig sind; also hat die Matrix den Rang m. ◻ Daher hat der Lösungsraum U ⊥ die Dimension n − Rang(A) = n − m. Daraus ergibt sich ohne Schwierigkeit die folgende Aussage. Korollar Sei ⟨ , ⟩ eine nichtausgeartete symmetrische Bilinearform des Vektorraums V. Dann gilt für jeden Unterraum U von V. U ⊥⊥ = U . Beweis Sei dim(V) = n. Wir wenden die Dimensionsformel für Bilinearformen zweimal an und erhalten dim(U ⊥⊥) = n − dim(U ⊥ ) = n − (n − dim(U)) = dim(U) . Aufgrund des Satzes über orthogonale Unterräume ist aber U ⊆ U ⊥⊥ . Zusammen folgt die Behauptung. ◻ 10.3 Skalarprodukte Wir nennen eine Bilinearform ⟨ , ⟩ eines K-Vektorraums V symmetrisch, wenn für alle Vektoren v, w ∈ V gilt ⟨v, w⟩ = ⟨w, v⟩ . 308 10 Skalarprodukte Konstruktion von symmetrischen Bilinearformen Sei V ein n-dimensionaler K-Vektorraum, und sei {v1 , v2 , . . . , vn } eine Basis von V. Sei A = (aij ) eine n × n-Matrix mit Einträgen aus K. Dann gilt: Genau dann wird durch ⟨v i , v j ⟩ ∶= a i j eine symmetrische Bilinearform definiert, wenn A eine symmetrische Matrix ist. Kurz: Eine symmetrische Bilinearform erkennt man daran, dass ihre GramMatrix symmetrisch ist. Beweis Aufgrund des Satzes über die Konstruktion von Bilinearformen wissen wir, dass ⟨ , ⟩ jedenfalls eine Bilinearform ist. Es bleibt also zu zeigen, dass ⟨ , ⟩ genau dann symmetrisch ist, wenn A eine symmetrische Matrix ist. Zunächst setzen wir voraus, dass A eine symmetrische Matrix ist. Dann gilt für je zwei beliebige Vektoren n v = ∑ ki vi n und w = ∑ h i v i i= aus V: i= n n i , j= i , j= ⟨v, w⟩ = v = ∑ k i h j ⟨v i , v j ⟩ = ∑ h j k i ⟨v j , v i ⟩ = ⟨w, v⟩ . Also ist ⟨ , ⟩ symmetrisch. Sei nun umgekehrt ⟨ , ⟩ eine symmetrische Bilinearform. Dann gilt insbesondere für je zwei Vektoren vi , vj einer Basis: ⟨v i , v j ⟩ = ⟨v j , v i ⟩ ; Somit ist jede Strukturmatrix von ⟨ , ⟩ symmetrisch. ◻ Sei jetzt V ein reeller Vektorraum. Eine Bilinearform ⟨ , ⟩ von V heißt positiv definit, wenn für alle v ∈ V gilt ⟨v, v⟩ ≥ , und ⟨v, v⟩ ≠ 0 für v ≠ o. Ein Skalarprodukt eines reellen Vektorraums V ist eine symmetrische Bilinearform, die positiv definit ist. Ein reeller Vektorraum mit Skalarprodukt wird ein euklidischer Vektorraum genannt. Eine Bemerkung zur sprachlichen Formulierung: Man könnte den Skalar ⟨v, w⟩ das Skalarprodukt der Vektoren v und w nennen; hauptsächlich nennt man aber die Abbildung ⟨ , ⟩ Skalarprodukt (sprachlich besser wäre „Skalarmultiplikation“, aber dieser Begriff hat sich nicht eingebürgert). 10.3 Skalarprodukte 309 Wir notieren schon hier, dass ein Skalarprodukt ⟨ , ⟩ jedenfalls eine nichtausgeartete Bilinearform ist. Denn, da ⟨ , ⟩ positiv definit ist, steht kein von Null verschiedener Vektor v auf sich selbst senkrecht; also ist v keinesfalls zu allen Vektoren aus V orthogonal. Daher kann ⟨ , ⟩ nicht ausgeartet sein. Auch Skalarprodukte gibt es in Hülle und Fülle. Dies kommt im folgenden Satz zum Ausdruck. Konstruktion von Skalarprodukten Sei ⟨ , ⟩ eine symmetrische Bilinearform des reellen n-dimensionalen Vektorraums V, und sei A eine Strukturmatrix von ⟨ , ⟩. Dann gilt: Genau dann ist ⟨ , ⟩ ein Skalarprodukt, wenn für jedes k ∈ {1, 2, . . . , n} die Matrix, die aus den ersten k Elementen in den ersten k Zeilen von A besteht, eine Determinante größer Null hat. Mit diesem Satz kann man leicht Beispiele von Matrizen angeben, die Skalarprodukte definieren; wir geben einige solche Matrizen in den Fällen n = 2 und n = 3 an: 1 ( 1 −2 ⎛ 1 10 − 12 ), ( ), ⎜ 0 1 1 ⎝ 1 2 0 1 1 2 1 2 1 2 ⎞ ⎛ 10 ⎟, ⎜ 3 1 ⎠ ⎝ 12 3 1 1 10 1 2 1 10 ⎞ ⎟ 1 ⎠ . Die wichtigste Folgerung aus obigem Satz ist aber die folgende Behauptung: Satz über das Standardskalarprodukt Die Standardbilinearform eines reellen Vektorraums ist ein Skalarprodukt. Beweis Die Standardbilinearform hat als Strukturmatrix die Einheitsmatrix. ◻ Sie sollten diesen Satz als Übungsaufgabe (ohne Rückgriff auf den vorigen Satz) beweisen; siehe Übungsaufgabe 10. Wir beweisen den obigen Satz über die Konstruktion von Skalarprodukten nur im Spezialfall n = 2. Für den allgemeinen Fall siehe etwa Fischer [Fis], S. 217–218. Sei a b A=( ) mit a, b, c ∈ R . b c Es ist zu zeigen, dass die symmetrische Bilinearform mit Gram-Matrix A genau dann positiv definit ist, wenn a > 0 und ac − b2 > 0 ist. Sei {v1 , v2 } die Basis, bezüglich derer die Matrix A die Gramsche Matrix der Bilinearform ⟨ , ⟩ ist. 310 10 Skalarprodukte Zunächst setzen wir voraus, dass a > 0 und ac − b2 > 0 gilt. Sei v = k1 v1 + k2 v2 ein beliebiger Vektor aus V. Dann gilt: ⟨v, v⟩ = ⟨k v + k v , k v + k v ⟩ = k ⟨v , v ⟩ + k k ⟨v , v ⟩ + k ⟨v , v ⟩ = k a + k k b + k c > k a + k k b + k b /a = (k a + k k ab + k b ) = (k a + k b) ≥ a a Also ist die symmetrische Bilinearform ⟨ , ⟩ positiv definit, und somit ein Skalarprodukt. Sei nun umgekehrt ⟨v, v⟩ positiv für jeden Vektor v ≠ o aus V. Da insbesondere ⟨v1 , v1 ⟩ positiv ist, gilt a = ⟨v1 , v1 ⟩ > 0. Um herauszubekommen, dass auch ac − b2 > 0 gilt, muss man einen Vektor v finden, so dass ⟨v, v⟩ = ac − b2 ist. Dafür haben wir zwei Möglichkeiten: Entweder Sie nehmen sich ein halbes Stündchen Zeit, probieren verschiedene Ansätze durch und finden schließlich einen solchen Vektor – oder Sie lassen mich probieren! . . . ich habe tatsächlich schon ein bisschen vorgearbeitet und schlage Ihnen in erster Näherung den Vektor w := bv1 − av2 ≠ o vor. Jetzt sind Sie wieder dran: Sie müssen das Skalarprodukt ⟨w, w⟩ ausrechnen. Sie haben recht: Nichts leichter als das: ⟨w, w⟩ = ⟨bv − av , bv − av ⟩ = b ⟨v , v ⟩ − ab⟨v , v ⟩ + a ⟨v , v ⟩ = b ⋅ a − ab ⋅ b + a ⋅ c = a(ac − b ) . Wenn Sie jetzt noch w mit 1/a multiplizieren, erhalten Sie einen Vektor v mit ⟨v, v⟩ = ◻ ac − b2 . Mit ⟨v, v⟩ muss auch ac − b2 positiv sein. Also ist in der Tat ac − b2 > 0. Wir wenden uns nun wieder dem Begriff der Orthogonalität zu. Satz vom orthogonalen Komplement Sei V ein euklidischer Vektorraum mit Skalarprodukt ⟨ , ⟩. Dann ist für jeden Unterraum U von V der Unterraum U ⊥ ein zu U komplementärer Unterraum. Man nennt U ⊥ auch das orthogonale Komplement von U. Beweis Wir zeigen, dass sich U und U ⊥ nur im Nullvektor schneiden: Sei v ∈ U ∩ U ⊥ . Da v in U ⊥ liegt, steht v also auf jedem Vektor aus U senkrecht, also insbesondere auf v (da v in U liegt). Also gilt ⟨v, v⟩ = 0. Da ⟨ , ⟩ positiv definit ist, ist also v = o. Aufgrund der Dimensionsformel für Unterräume und der Dimensionsformel für Bilinearformen ergibt sich, da ⟨ , ⟩ nichtausgeartet ist: dim(⟨U , U ⊥⟩) = dim(U) + dim(U ⊥ ) − = dim(V ) . Also sind U und U ⊥ tatsächlich komplementäre Unterräume. ◻ 10.3 Skalarprodukte 311 Obwohl aus geometrischer Sicht auch symmetrische Bilinearformen interessant sind, für die es Vektoren v ≠ o gibt mit ⟨v, v⟩ = 0 (diese führen auf Quadriken; siehe Übungsaufgaben 2 und 8), werden wir uns zunächst auf Skalarprodukte beschränken. Wir haben schon gesehen, dass es viele Skalarprodukte gibt; wir werden aber zeigen, dass es im Wesentlichen nur ein einziges Skalarprodukt gibt. Wir werden nämlich zeigen, dass es zu jedem Skalarprodukt eine Basis gibt, so dass das Skalarprodukt bezüglich dieser Basis das Standardskalarprodukt ist. Das Hauptergebnis dieses Abschnitts wird die Konstruktion einer Basis sein, deren Vektoren senkrecht aufeinander stehen und jeweils die Länge 1 haben. Was „senkrecht“ bedeutet, wissen wir, wir wissen aber noch nicht, was die Länge eines Vektors sein soll. Dies müssen wir zunächst erklären. Eine Norm des euklidischen Vektorraums V ist eine Abbildung ∥ ∥ von V in die nichtnegativen reellen Zahlen mit folgenden Eigenschaften: (N1) ∥ kv∥ = ∣ k∣ ⋅ ∥ v∥ , (N2) ∥ v + w∥ ≤ ∥ v∥ + ∥ w∥ (Dreiecksungleichung), (N3) ∥ v∥ = ⇔ v = o. Wie kommt man von einem Skalarprodukt (was wir haben) zu einer Norm? Das ist ganz einfach; wir müssen dazu aber zuerst die berühmte Ungleichung von Cauchy und Schwarz beweisen. In einem Vektorraum mit Skalarprodukt können wir die „euklidische Norm“ definieren: √ ∥v∥ ∶= ⟨v, v⟩ für alle v ∈ V . Unser Ziel ist zu zeigen, dass dadurch tatsächlich eine Norm erklärt wird. Ungleichung von Cauchy und Schwarz Sei V ein reeller Vektorraum mit Skalarprodukt. Dann gilt für alle v, w ∈ V ∣⟨v, w⟩∣ ≤ ∥v∥ ⋅ ∥w∥ ; Gleichheit gilt genau dann, wenn v und w linear abhängig sind. Beweis Im Fall w = o sind beide Seiten gleich Null; daher gilt die Ungleichung mit Gleichheit. Sei also w ≠ o. Für alle k ∈ R gilt ≤ ⟨v − kw, v − kw⟩ = ⟨v, v⟩ − k⟨v, w⟩ − k⟨w, v⟩ + kk⟨w, w⟩ = ⟨v, v⟩ − k⟨v, w⟩ + k ⟨w, w⟩ . 312 10 Wegen w ≠ o ist ⟨w, w⟩ ≠ 0. Also können wir k ∶= ≤ ⟨v, v⟩ − ⟨v ,w ⟩ ⟨w ,w ⟩ Skalarprodukte setzen. Damit erhalten wir ⟨v, w⟩ ⟨v, w⟩ ⋅ ⟨v, w⟩ + ( ) ⋅ ⟨w, w⟩ . ⟨w, w⟩ ⟨w, w⟩ Wenn man mit ⟨w, w⟩ multipliziert, ergibt sich ≤ ⟨v, v⟩⟨w, w⟩ − (⟨v, w⟩) , das heißt ∣⟨v, w⟩∣ ≤ ⟨v, v⟩⟨w, w⟩ = ∥v∥ ⋅ ∥w∥ . daraus folgt die Ungleichung. Wann gilt in dieser Ungleichung Gleichheit? Genau dann, wenn w = o oder v − kw = o ist, also genau dann, wenn v und w linear abhängig sind. ◻ Die obige Ungleichung wird nach Augustin-Louis Cauchy (1789–1857), Hermann Amandus Schwarz (1843–1921) und manchmal auch nach Viktor Jakowlewitsch Bunjakowski (1804–1889) genannt. Nun können wir beweisen, dass jedes Skalarprodukt zu einer Norm führt. Euklidische Norm Sei ⟨ , ⟩ ein Skalarprodukt des reellen Vektorraums V. Dann wird durch ∥v∥ ∶= √ ⟨v, v⟩ für alle v ∈ V . eine Norm von V definiert. Zum Beweis weisen wir die definierenden Eigenschaften einer Norm nach: √ √ √ √ (N1) ∥kv∥ = ⟨kv, kv⟩ = kk ⟨v, v⟩ = kk ⟨v, v⟩⋅ = ∣k∣ ⋅ ∥v∥ . Die Bedingung (N2) folgt aus der Ungleichung von Cauchy-Schwarz. ∥v + w∥ = ⟨v + w, v + w⟩ = ⟨v, v⟩ + ⟨v, w⟩ + ⟨w, v⟩ + ⟨w, w⟩ = ∥v∥ + ⋅ ⟨v, w⟩ + ∥w∥ ≤ ∥v∥ + ∥v∥ ⋅ ∥w∥ + ∥w∥ (Cauchy-Schwarz) = (∥v∥ + ∥w∥) . (N3) Ist v = o, so ist ⟨v, v⟩ = 0, also ∥ v∥ = . Ist umgekehrt ∥ v∥ = , so ist also ⟨v, v⟩ = 0 und somit v = o, da ein Skalarprodukt positiv definit ist. √ ⟨v, v⟩ = , 10.3 Skalarprodukte 313 Insgesamt haben wir bewiesen, dass durch ∥ v∥ ∶= √ ⟨v, v⟩ eine Norm definiert wird. ◻ Wir nennen eine Menge {v1 , . . . , vm } von Vektoren von V orthogonal, wenn vi ⊥ vj gilt für i ≠ j. Eine orthogonale Menge heißt orthonormal, wenn zusätzlich ∥ v i ∥ = für alle i ∈ {1, . . . , m} gilt. Eine orthonormale Basis wird eine Orthonormalbasis genannt. Eine Orthonormalbasis unterscheidet sich also von einer gewöhnlichen Ottonormalbasis durch dreierlei: Zunächst muss der Vektorraum V ein Skalarprodukt besitzen. Dann muss jeder Vektor der Basis die Norm 1 haben, und schließlich müssen je zwei verschiedene Vektoren der Basis senkrecht aufeinander stehen. Ein Beispiel einer Orthonormalbasis fällt jedem sofort ein: Wenn der Vektorraum V = Rn mit dem Standardskalarprodukt versehen ist, so ist die Basis {e1 , e2 , . . . } aus den Einheitsvektoren eine Orthonormalbasis. Warum sind Orthonormalbasen wichtig? Dazu überlegen wir uns, wie die Strukturmatrix von ⟨ , ⟩ bezüglich einer Orthonormalbasis {v1 , v2 , . . . , vn } aussieht. Wegen ⟨vi , vi ⟩ = 1 stehen auf der Diagonale nur Einsen, und wegen ⟨vi , vj ⟩ = 0 für i ≠ j stehen außerhalb der Hauptdiagonalen nur Nullen. Mit anderen Worten: Bezüglich dieser Basis ist ⟨ , ⟩ das Standardskalarprodukt! Das bedeutet: Wenn eine Orthonormalbasis zu einem Skalarprodukt existiert, können wir dieses Skalarprodukt o.B.d.A. als Standardskalarprodukt voraussetzen. Unsere erste Behauptung zeigt, dass in gewissem Sinne die Orthogonalität die stärkste Eigenschaft ist: Aus orthogonal mach orthonormal Sei {v1 , . . . , vm } eine Menge von Vektoren von V\{o}. Wenn {v1 , . . . , vm } orthogonal ist, so gilt: (a) Die Menge {w1 := ∥vv ∥ , . . . , wm := ∥vv mm ∥ } ist orthonormal. (b) Die Menge {v1 , . . . , vm } ist linear unabhängig. Beweis (a) Für wi = ki vi mit ki ≠ 0 gilt stets ⟨wi , wj ⟩ = ki ⋅ kj ⋅ ⟨vi , vj ⟩ = ki kj ⋅ 0 = 0. Also ist auch die Menge {w1 , w2 , . . . , wm } orthogonal. Da nach Definition w i = ∥vv ii ∥ ist, und dieser Vektor ∥v ∥ die Norm ∥ ∥vv ii ∥ ∥ = ∥v ii ∥ = hat, ist die Menge {w1 , w2 , . . . , wm } orthonormal. (b) Seien k1 , . . . , km ∈ R mit k1 v1 + . . . + km vm = o. Wir bilden das Skalarprodukt mit vi : = ⟨v i , k v + . . . + k m v m ⟩ = k i ⟨v i , v i ⟩ . Aus vi ≠ o folgt ⟨vi , vi ⟩ ≠ 0; also muss ki = 0 sein. ◻ 314 10 Skalarprodukte Bemerkung In Teil (b) haben Sie zum ersten Mal einen Trick gesehen, den es sich zu merken lohnt: Wenn möglich, bilde das Skalarprodukt mit vi und prüfe das Ergebnis! Wir werden diesen Trick noch mehrfach anwenden. Nun kommen wir zum berühmten Orthonormalisierungssatz von Erhard Schmidt (1876–1959). Vor diesem Satz sollten Sie aber keine zu große Ehrfurcht entwickeln. Der Beweis sieht in vielen Darstellungen sehr kompliziert aus; aber jeder, der den Mut zu einfachen Konzepten hat, kriegt diesen Beweis hin – also auch Sie! Orthonormalisierungssatz von E. Schmidt Sei V ein reeller Vektorraum mit Skalarprodukt ⟨ , ⟩. Dann hat V eine Orthonormalbasis. Beweis Sei dim(V) = n. Wir zeigen etwas mehr: Für jedes m ∈ {1, 2, . . . , n} kann jede orthonormale Menge Bm−1 aus m − 1 Elementen zu einer orthonormalen Menge Bm mit m Elementen erweitert werden. Dann ist Bn eine Orthonormalbasis von V. Für m = 1 ist diese Behauptung nicht schwer zu zeigen: Da B0 die leere Menge ist, müssen wir nur zeigen, dass es eine orthonormale Menge mit einem Element gibt. Man nehme irgendeinen von Null verschiedenen Vektor v1 und bilde w ∶= ∥vv ∥ . Dann ist {w1 } eine orthonormale Menge. Wir machen uns den Induktionsschluss zunächst dadurch klar, dass wir zu der orthonormalen Menge {w1 } einen Vektor w2 konstruieren, so dass auch {w1 , w2 } eine orthonormale Menge ist. Dazu wählen wir einfach irgendeinen Vektor v2 , der linear unabhängig von w1 ist. Wenn v2 zufällig senkrecht zu w1 ist, müssen wir v2 nur noch durch seine Norm teilen und haben eine orthonormale Menge! Dies ist jedoch ein ganz seltener (und unverdienter) Glücksfall. Also müssen wir uns mit dem Normalfall herumschlagen, dass v2 und w1 nicht senkrecht sind, dass also ⟨v2 , w1 ⟩ ≠ 0 gilt. Aber . . . könnte man dann nicht aus v2 und w1 einen Vektor basteln, der senkrecht auf w1 steht? Wir fragen dazu genauer, wann der Vektor x : = k ⋅ w1 + v2 senkrecht auf w1 steht. Die Frage lautet also noch genauer: Für welche k gilt ⟨x, w ⟩ = , das heißt ⟨kw + v , w ⟩ = ? Wir verfolgen diesen Ansatz einfach weiter: = ⟨kw + v , w ⟩ ⇔ = k ⋅ ⟨w , w ⟩ + ⟨v , w ⟩ = k + ⟨v , w ⟩ . Daraus ergibt sich also k = −⟨v , w ⟩ . 10.4 Orthogonale Abbildungen 315 Mit diesem Wert ist x = kw1 + v2 ein Vektor, der orthogonal zu w1 ist. Wenn wir jetzt noch x w ∶= ∥x∥ setzen, erhalten wir eine orthonormale Menge {w1 , w2 }. Der Trick besteht also darin, einen Vektor zu wählen, der linear unabhängig zu den bisher konstruierten ist und aus diesem zusammen mit den bisher konstruierten einen Vektor zu bilden, der orthogonal zu allen bisherigen ist. Das Schöne hierbei ist, dass man nur einen Ansatz machen muss und dann automatisch einen orthogonalen Vektor herausbekommt. So einfach ist das! Wir diskutieren hier noch den nächsten Fall: Sei {w1 , w2 } eine orthonormale Menge, die noch nicht den ganzen Vektorraum V erzeugt. Dann gibt es einen Vektor v3 , so dass die Menge {w1 , w2 , v3 } linear unabhängig ist. Wir setzen x ∶= k w + k w + v und wollen k1 und k2 so bestimmen, dass x orthogonal zu w1 und w2 ist. Das bedeutet = ⟨w , k w + k w + v ⟩ = k ⟨w , w ⟩ + ⟨w , v ⟩ = k + ⟨w , v ⟩ . Also ist k1 = −⟨w1 , v3 ⟩. Entsprechend folgt k2 = −⟨w2 , v3 ⟩. Mit dieser Wahl von k1 und k2 haben wir einen Vektor x gefunden, der orthogonal zu w1 und w2 ist. Indem wir durch die Norm von x dividieren, erhalten wir eine orthonormale Menge x {w , w , w ∶= } . ∥x∥ Nun ist Ihnen sicherlich klar, wie man den allgemeinen Fall löst; Sie sind eingeladen, dies in Übungsaufgabe 13 explizit zu tun. ◻ Als Korollar aus dem Beweis des Orthonormalisierungssatzes ergibt sich: Korollar Jede orthonormale Menge von Vektoren eines euklidischen Vektorraums, insbesondere jeder Vektor v mit ∥ v∥ = kann zu einer Orthonormalbasis ergänzt werden. ◻ 10.4 Orthogonale Abbildungen Nun studieren wir lineare Abbildungen, die ein Skalarprodukt invariant (das heißt unverändert) lassen. Dieses Vorgehen (Untersuchung derjenigen Abbildungen, die eine zuvor 316 10 Skalarprodukte definierte Struktur invariant lassen) hat sich in der Mathematik als äußerst nützliches Hilfsmittel zur Untersuchung von Strukturen herausgestellt. Implizit ist uns das schon häufig begegnet: Automorphismen von Körpern, lineare Abbildungen von Vektorräumen sind solche strukturerhaltenden Abbildungen. Sei nun V ein euklidischer Vektorraum, also ein reeller Vektorraum mit Skalarprodukt ⟨ , ⟩. In dieser Situation sind die linearen Abbildungen von V in sich im Allgemeinen bestimmt nicht die richtigen Abbildungen; denn diese haben mit dem Skalarprodukt nichts zu tun, können also auch keine Information über das Skalarprodukt liefern. Eine lineare Abbildung f des euklidischen Vektorraums V in sich wird orthogonal genannt, wenn für alle v, w ∈ V gilt ⟨ f (v), f (w)⟩ = ⟨v, w⟩ . Eine lineare Abbildung ist also orthogonal, wenn das Skalarprodukt je zweier Vektoren gleich dem Skalarprodukt der Bilder dieser Vektoren ist. Wenn Sie eine ganz anschauliche Interpretation gern haben: Eine lineare Abbildung ist genau dann orthogonal, wenn sie die Größe des Winkels zwischen Vektoren erhält. Wenn diese anschauliche Interpretation richtig ist, müsste zum Beispiel eine Drehung eine orthogonale Abbildung sein. Das können wir nachprüfen. Sei V = R2 (dessen Elemente wir als Spaltenvektoren auffassen), und sei ⟨ , ⟩ das Standardskalarprodukt. Eine Drehung um den Winkel φ wird durch die folgende Matrix D(φ) beschrieben (vergleichen Sie dazu das Projekt aus Kap. 8). cos(φ) − sin(φ) D(φ) = ( ) . sin(φ) cos(φ) Ein beliebiger Vektor (x, y)T wird durch die Drehung um den Winkel φ also auf folgenden Vektor abgebildet: ( cos(φ) − sin(φ) x x ⋅ cos(φ) − y ⋅ sin(φ) )⋅( ) = ( ) . sin(φ) cos(φ) y x ⋅ sin(φ) + y ⋅ cos(φ) Nun berechnen wir einfach das Skalarprodukt der Bilder der Vektoren (x1 , y1 )T und (x2 , y2 )T . (. . . und wenn die Drehung wirklich eine orthogonale Abbildung ist, dann dürfte sich hierbei nichts anderes als das Skalarprodukt x1 x2 + y1 y2 der Urbilder ergeben! Mal sehen:) x ⋅ cos(φ) − y ⋅ sin(φ) x ⋅ cos(φ) − y ⋅ sin(φ) ),( )⟩ ⟨( x ⋅ sin(φ) + y ⋅ cos(φ) x ⋅ sin(φ) + y ⋅ cos(φ) = (x ⋅ cos(φ) − y ⋅ sin(φ)) (x ⋅ cos(φ) − y ⋅ sin(φ)) + (x ⋅ sin(φ) + y ⋅ cos(φ)) (x ⋅ sin(φ) + y ⋅ cos(φ)) = (x x + y y ) (cos (φ) + sin (φ)) = x x + y y . 10.4 Orthogonale Abbildungen 317 Also ist eine Drehung tatsächlich eine orthogonale Abbildung! Die Frage, die wir uns in diesem Abschnitt vor allem stellen, ist die folgende: Welches sind die orthogonalen Abbildungen? Ist es möglich, alle orthogonalen Abbildungen vernünftig zu beschreiben? Wir werden diese Frage beantworten, indem wir die Darstellungsmatrizen von orthogonalen Abbildungen betrachten. Zuerst untersuchen wir die Eigenwerte einer orthogonalen Abbildung. Da V ein reeller Vektorraum ist, meinen wir mit „Eigenwerten“ stillschweigend „reelle Eigenwerte“ (dass eine lineare Abbildung zusätzlich noch komplexe Eigenwerte haben könnte, versteht sich von selbst). Eigenwerte einer orthogonalen Abbildung Sei f eine orthogonale Abbildung des euklidischen Vektorraums V in sich. Dann hat f höchstens die Eigenwerte 1 und −1. Insbesondere ist f eine umkehrbare lineare Abbildung, und f −1 ist ebenfalls eine orthogonale Abbildung. Beweis Sei k ein Eigenwert von f . Dann gibt es einen Vektor v ≠ o mit f (v) = kv . Also ist ∥v∥ = ∥ f (v)∥ = ∥kv∥ = ∣k∣ ⋅ ∥v∥ , also ist | k | = 1, das heißt k = ± 1. Dies ist die erste Behauptung. Daraus ergibt sich unmittelbar, dass 0 kein Eigenwert von f ist. Also ist Kern(f ) = {o}, und somit ist f injektiv. Als lineare Abbildung des endlichdimensionalen Vektorraums V in sich ist f dann auch bijektiv. Schließlich zeigen wir noch, dass auch f −1 orthogonal ist. Dazu betrachten wir zwei beliebige Vektoren v, w ∈ V. Da f orthogonal ist, ergibt sich ⟨ f − (v), f − (w)⟩ = ⟨ f ( f − (v)), f ( f −(w))⟩ = ⟨v, w⟩ . ◻ Es wird sich herausstellen, dass das Matrizenäquivalent zu orthogonalen Abbildungen die orthogonalen Matrizen sind: Eine reelle invertierbare n × n-Matrix M (also eine Matrix aus GL(n, R)) heißt orthogonal, falls man die zu M inverse Matrix dadurch erhält, dass man M transponiert, falls also gilt M − = M T . Beispiel. Im Fall n = 2 ist die Matrix D = D(φ) = ( cos(φ) sin(φ) ) − sin(φ) cos(φ) 318 10 Skalarprodukte eine orthogonale Matrix. Es gilt nämlich D ⋅ DT = ( cos(φ) sin(φ) cos(φ) − sin(φ) )⋅( ) − sin(φ) cos(φ) sin(φ) cos(φ) − cos(φ) sin(φ) + sin(φ) cos(φ) cos (φ) + sin (φ) )=( ) . =( − sin(φ) cos(φ) + cos(φ) sin(φ) sin (φ) + cos (φ) Ganz entsprechend zeigt man, dass auch DT ⋅ D die Einheitsmatrix ist. Also ist die zu D transponierte Matrix DT tatsächlich invers zu D. Es wird sich zeigen, dass die Drehmatrizen „im wesentlichen“ die einzigen orthogonalen Matrizen sind. Die orthogonalen 2 × 2-Matrizen kann man leicht bestimmen; deshalb tun wir das zuerst. Orthogonale 2 × 2-Matrizen Sei M eine orthogonale 2 × 2-Matrix. Dann gibt es eine reelle Zahl φ so dass M die folgende Gestalt hat: M=( cos(φ) sin(φ) ) − sin(φ) cos(φ) oder cos(φ) sin(φ) M=( ) . sin(φ) − cos(φ) Beweis Wir setzen ganz allgemein an. Sei M=( a c b ) d mit a, b, c, d ∈ R. Nach Definition einer orthogonalen Matrix gilt M ⋅ M T = E. Das bedeutet: ( a ) = M ⋅ MT = ( c b a )⋅( d b c a + b )=( ac + bd d ac + bd ) , c + d also a + b = , c + d = und ac + bd = . Wegen der ersten Gleichung gibt es eine reelle Zahl φ (die wir sogar in dem Intervall [0, 2π) wählen können) mit a = cos(φ) und b = sin(φ). Ebenso folgt aus der zweiten Gleichung die Existenz einer reellen Zahl ψ ∈ [0, 2π) mit der Eigenschaft c = sin(ψ) und d = cos(ψ). Die dritte Gleichung klärt die Beziehung zwischen φ und ψ; es gilt nämlich = ac + bd = cos(φ) sin(ψ) + sin(φ) cos(ψ) , 10.4 Orthogonale Abbildungen 319 und der berüchtigte Additionssatz für trigonometrische Funktionen sagt, dass die rechte Seite der obigen Gleichung genau gleich sin(φ + ψ) ist. Also ist sin(φ + ψ) = 0, und auch eine ganz oberflächliche Kenntnis der trigonometrischen Funktionen zeigt, dass dann φ + ψ ein ganzzahliges Vielfaches von π sein muss. Wegen φ, ψ ∈ [0, 2π) ist also φ + ψ gleich 0, gleich π, gleich 2π oder gleich 3π. Wenn φ + ψ gleich 0 oder gleich 2π ist, so ist ψ = −φ oder ψ = 2π − φ, also c = sin(ψ) = sin(−φ) = − sin(φ) und d = cos(ψ) = cos(−φ) = cos(φ) . Im anderen Fall ist φ + ψ gleich π oder gleich 3π; also folgt c = sin(ψ) = sin(φ) und d = cos(ψ) = − cos(φ) . Damit ist die Behauptung gezeigt. ◻ Bemerkung Wir werden demnächst („Darstellung orthogonaler Abbildungen eines zweidimensionalen Vektorraums“) den zweiten Fall noch genau behandeln. Eines sei aber jetzt schon verraten: Dieser Fall verspricht mehr als er hält. Determinante einer orthogonalen Matrix Jede orthogonale Matrix hat die Determinante 1 oder −1. Beweis Sei M eine orthogonale Matrix. Dann folgt mit dem Multiplikationssatz für Determinanten = det(E n ) = det(MM − ) = det(MM T ) = det(M) det(M T ) = det(M) det(M) ; also ist det(M) eine (reelle) Wurzel aus 1, also gleich ± 1. ◻ Üblicherweise zeichnet man die orthogonalen Matrizen mit Determinante + 1 speziell aus: Man nennt die Menge aller orthogonalen n × n-Matrizen (zusammen mit der Multiplikation von Matrizen) die orthogonale Gruppe und bezeichnet sie mit O(n). Die Menge aller orthogonalen n × n-Matrizen mit Determinante + 1 heißt die spezielle orthogonale Gruppe und wird mit SO(n) bezeichnet. In Übungsaufgabe 17 sollen Sie nachweisen, dass O(n) und SO(n) tatsächlich Gruppen sind. Der folgende Satz kommt für Sie aus „bezeichnungspsychologischen“ Gründen für Sie sicher nicht unerwartet. 320 10 Skalarprodukte Darstellung orthogonaler Abbildungen Sei V ein euklidischer Vektorraum, und sei B eine Orthonormalbasis von V. Sei f eine lineare Abbildung von V in sich. Dann gilt: f ist orthogonal ⇔ die Darstellungsmatrix B M B (f ) ist eine orthogonale Matrix. Beweis Sei B = {v1 , v2 , . . . , vn }. Die Abbildung f ist definitionsgemäß genau dann orthogonal, wenn ⟨v, w⟩ = ⟨f (v), f (w)⟩ gilt für alle v, w ∈ V. Man überlegt sich leicht (siehe Übungsaufgabe 18), dass f genau dann orthogonal ist, wenn ⟨vi , vj ⟩ = ⟨f (vi ), f (vj )⟩ für alle i, j gilt. Daraus ergibt sich die Beweisstrategie: Wir rechnen ⟨vi , vj ⟩ und ⟨f (vi ), f (vj )⟩ aus und überlegen uns dann, was die Gleichheit dieser beiden Ausdrücke bedeutet. Da B eine Orthonormalbasis ist, ist ⟨vi , vj ⟩ = δ ij , das heißt ⟨vi , vj ⟩ = 1, falls i = j ist, und ⟨vi , vj ⟩ = 0 sonst. Nun zur Berechnung von ⟨f (vi ), f (vj )⟩. Zur Abkürzung setzen wir A : = B M B (f ) mit A = (aij )1 ≤ i ≤ n, 1 ≤ j ≤ n . Dann ist nach Definition einer Darstellungsmatrix f (v i ) = a i v + a i v + . . . + a ni v n und f (v j ) = a j v + a j v + . . . + a n j v n . Also folgt ⟨ f (v i ), f (v j )⟩ = a i a j + a i a j + . . . + a ni a n j . Dies ist ein Körperelement. Ich behaupte, dass dieses Körperelement auch durch folgenden Ausdruck dargestellt werden kann (der zugegebenermaßen nicht vertrauenerweckender aussieht!) e i ⋅ AT ⋅ A ⋅ e Tj , wobei ei der i-te Einheitsvektor (als Zeilenvektor geschrieben) ist, also derjenige Vektor, der an der i-ten Stelle eine Eins hat und sonst aus Nullen besteht. Dies zeigen wir dadurch, dass wir diesen letzten Ausdruck einfach ausrechnen. Es ergibt sich ei ⋅ A ⋅ A ⋅ T = (a i e Tj ⎛ a ⎜ a = ei ⋅ ⎜ ⎜ ⋮ ⎜ ⎝ a n a i ... a a ⋮ a n ... ... ... a n ⎞ ⎛ a ⎜ a n ⎟ ⎟ ⋅ ⎜ a ⎜ ⋮ ⎟ ⎟ ⎜ ⋮ a nn ⎠ ⎝ a n a a ⋮ a n ... ... ... a n ⎞ a n ⎟ ⎟ ⋅ eT . j ⋮ ⎟ ⎟ a nn ⎠ ⎛ a j ⎞ ⎜ a j ⎟ ⎟ a ni ) ⋅ ⎜ ⎜ ⋮ ⎟ = a i ⋅ a j + a i ⋅ a j + . . . + a ni ⋅ a n j . ⎜ ⎟ ⎝a n j ⎠ 10.4 Orthogonale Abbildungen 321 Und siehe da! Die beiden Ausdrücke sind gleich. Wir fassen dieses Ergebnis zusammen: ⟨ f (v i ), f (v j )⟩ = e i ⋅ AT ⋅ A ⋅ e Tj . Nun setzen wir die beiden berechneten Ausdrücke gleich. Genau dann ist f orthogonal, wenn e i ⋅ AT ⋅ A ⋅ e Tj = ⟨ f (v i ), f (v j )⟩ = ⟨v i , v j ⟩ = δ i j ist. Aus dieser Gleichung folgt aber die für uns entscheidende Tatsache, dass f genau dann orthogonal ist, wenn AT A die Einheitsmatrix ist. Um das einzusehen, lesen Sie die obige Gleichung als e i ⋅ N ⋅ e Tj = δ i j , wobei N = AT ⋅ A ist. Dann ist ei ⋅ N ⋅ ej T das Element in der i-ten Zeile und j-ten Spalte von N. (Denn ei ⋅ N ist die i-te Spalte von N, und durch die Multiplikation mit ej T wird aus dieser die j-te Komponente ausgewählt.) Also sagt die obige Gleichung: Das Element in der i-ten Zeile und j-ten Spalte von N ist gleich δ ij ; das bedeutet aber nichts anderes, als dass AT ⋅ A ( = N) die Einheitsmatrix ist. Genau dann ist aber AT ⋅ A die Einheitsmatrix, wenn AT die Inverse zu A ist. Also: Genau ◻ dann ist f orthogonal, wenn A−1 = AT gilt, d. h., wenn A eine orthogonale Matrix ist. Nun können wir alle orthogonalen Abbildungen genau beschreiben, und zwar mit Hilfe einer Darstellungsmatrix. Es wird sich zeigen, dass die Drehmatrizen die wesentlichen Bausteine sind. Wir behandeln zunächst den zweidimensionalen Fall. Darstellung orthogonaler Abbildungen eines zweidimensionalen Vektorraums Sei f eine orthogonale lineare Abbildung des zweidimensionalen euklidischen Vektorraums V. Dann gibt es eine Orthonormalbasis B von V, so dass die Darstellungsmatrix B M B (f ) von f bezüglich B folgende Gestalt hat: B MB ( f ) =( cos(φ) sin(φ) ) − sin(φ) cos(φ) oder B MB ( f ) =( ) . − Im ersten Fall heißt f eine Drehung, im zweiten Fall nennt man f eine Spiegelung. Beweis Sei zunächst B eine beliebige Orthonormalbasis von V. Dann ist M = B M B (f ) eine orthogonale Matrix. Nach dem Satz über orthogonale 2 × 2-Matrizen hat M also die fol- 322 10 Skalarprodukte gende Gestalt: M=( cos(φ) sin(φ) ) − sin(φ) cos(φ) cos(φ) sin(φ) M=( ) . sin(φ) − cos(φ) oder Wir müssen nur noch den zweiten Fall diskutieren. In diesem Fall hat f das folgende charakteristische Polynom: cos(φ) − x χ f = χ M = det ( sin(φ) sin(φ) ) − cos(φ) − x = (cos(φ) − x)(− cos(φ) − x) − sin (φ) = x − (cos (φ) + sin (φ)) = (x − )(x + ) . Also hat f die Eigenwerte 1 und −1. Dann gibt es Eigenvektoren v1 und v2 zu den Eigenwerten 1 und −1 mit ∥v ∥ = und ∥v ∥ = . Dann ist B′ = {v1 , v2 } die gesuchte Orthonormalbasis. ◻ Nun betrachten wir den allgemeinen Fall. Der Beweis dieses Satzes ist umfangreich und schwierig. Aber keine Angst! Darstellung orthogonaler Abbildungen Sei f eine orthogonale lineare Abbildung des endlichdimensionalen euklidischen Vektorraums V. Dann gibt es eine Orthonormalbasis B von V, so dass die Darstellungsmatrix B M B (f ) von f bezüglich B folgende Gestalt hat: ⎛ ⎜ ⋱ ⎜ ⎜ ⎜ ⎜ ⎜ − ⎜ ⎜ M ( f ) = B B ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⋱ − D ⋱ wobei jedes Di eine 2 × 2-Matrix der folgenden Form ist: cos(φ i ) Di = ( sin(φ i ) − sin(φ i ) ) . cos(φ i ) ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ , ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ Dk ⎠ 10.4 Orthogonale Abbildungen 323 Der Beweis erfolgt durch Induktion nach n := dim(V). Für n = 1 ist der Satz trivial, und für n = 2 haben wir ihn oben bewiesen. Sei nun n > 3, und sei die Aussage des Satzes richtig für n − 1 und n − 2. (Das ist kein Druckfehler! Wir hätten auch schreiben können „für alle n′ < n“, aber wir brauchen die Aussage nur für n − 1 und n − 2.) Um Induktion anwenden zu können, müssen wir zuerst die folgende entscheidende Aussage beweisen: Es gibt einen Unterraum W der Dimension 1 oder 2, der durch f auf sich selbst abgebildet wird, das heißt, für den f(W) = W gilt. Das folgt so Als erstes müssen wir dazu wissen, dass sich jedes Polynom g ∈ R[x] als Produkt von reellen Polynomen schreiben lässt, die höchstens den Grad zwei haben. (Den Beweis hierfür deuten wir nur an. Wir können annehmen, dass g normiert ist. Wir fassen g als Polynom aus C[x] auf. Der Hauptsatz der Algebra sagt, dass das Polynom dann in Linearfaktoren der Form x − c mit c ∈ C zerfällt. Wenn c ∈ R ist, so ist x − c ein reelles Polynom vom Grad 1, das g teilt. Sei nun c = a + bi ∈ C\R. Da g aber nur reelle Koeffizienten hat, ist mit x − c auch x−c ein Linearfaktor von g. Daher ist (x − c)(x−c) = x2 − 2ax + a2 + b2 ∈ R[x]. Insgesamt folgt, dass g sich als Produkt reeller Polynome vom Grad 1 und 2 schreiben lässt.) Damit ist der Beweis der Zwischenbehauptung aber noch nicht beendet, im Gegenteil: Jetzt geht′ s erst richtig los: Wir betrachten jetzt das charakteristische Polynom χf von f . Wir haben uns gerade überlegt, dass χf sich schreiben lässt als Produkt von reellen Polynomen g i vom Grad 1 oder 2: χ f = ±g ⋅ g ⋅ . . . ⋅ g k . Wenn zufällig eines der Polynome g i den Grad 1 hat, also g = x − a mit a ∈ R, so hat f den Eigenwert a, und jeder Eigenvektor v zu a erzeugt einen 1-dimensionalen Unterraum ⟨v⟩, der durch f auf sich abgebildet wird. Daher müssen wir noch den Fall betrachten, dass alle g i den Grad 2 haben. Wir zeigen nun, dass es einen Vektor v ≠ o gibt, so dass g i (f )(v) = o für mindestens ein i gilt. Sei dazu w ≠ o ein beliebiger Vektor aus V. Wenn zufällig schon g 1 (f )(w) = 0 ist, sind wir fertig. Wenn nicht, betrachten wir g 2 (f )g 1 (f )(w). Wenn dieser Vektor gleich o ist, so setzen wir v := g 1 (f )(w); es folgt g ( f )(v) = g ( f )g ( f )(w) = o . Wenn auch der Vektor g 2 (f )g 1 (f )(w) ungleich o ist, so betrachten wir den Vektor g 3 (f )g 2 (f )g 1 (f )(w), usw. Einer dieser Vektoren muss der Nullvektor sein, denn nach dem Satz von Cayley-Hamilton gilt ±g ( f ) ⋅ g ( f ) ⋅ . . . ⋅ g k ( f ) = ±g ⋅ g ⋅ . . . ⋅ g k ( f ) = χ f ( f ) = . Sei also v ≠ o ein Vektor aus V mit g i (f )(v) = o. Behauptung: Der Unterraum W := ⟨v, f (v)⟩ wird durch f in sich abgebildet. Dazu müssen wir nur zeigen, dass f (f (v)) wieder in W liegt, dass also f (f (v)) eine Linearkombination von v und f (v) ist. Sei dazu 324 10 Skalarprodukte g i = x2 + ax + b mit a, b ∈ R. Dann ist o = g i ( f )(v) = (x + ax + b)( f )(v) = f ( f (v)) + a f (v) + bv, also f ( f (v)) = −bv − a f (v) – und damit ist die Zwischenbehauptung endgültig und unwiderruflich bewiesen! Und was nützt uns das Ganze? Gemach, gemach! Wir atmen kurz durch und machen uns auf zu neuen Taten: Wir betrachten jetzt nicht mehr den (kleinen) Unterraum W, sondern den (großen) Unterraum W ⊥ . Wir behaupten: Es gilt auch f (W ⊥ ) = W ⊥ . Um dies zu zeigen, betrachten wir einen beliebigen Vektor x aus W ⊥ . Es ist zu zeigen, dass dann auch f (x) auf jedem Vektor w ∈ W senkrecht steht. Dies rechnen wir einfach aus: ⟨ f (x), w⟩ = ⟨ f − f (x), f − (w)⟩ = ⟨x, f − (w)⟩ = . (Das erste Gleichheitszeichen ergibt sich, weil mit f auch f −1 eine orthogonale Abbildung ist; das letzte Gleichheitszeichen folgt aus der Tatsache, dass auch f −1 den Unterraum W auf sich abbildet, und somit der Vektor f −1 (w) in W liegt.) Die Einschränkung von f auf W ⊥ nennen wir f *. Dann ist f * eine orthogonale Abbildung des euklidischen Vektorraums W ⊥ in sich. Da W die Dimension 1 oder 2 hat, hat W ⊥ die Dimension n − 1 oder n − 2. Also können wir (endlich!) Induktion anwenden: Es gibt eine Orthonormalbasis C von W ⊥ , so dass B := C ∪ {w} eine Orthormalbasis ist, bezüglich der – eventuell nach Umnummeriereung – die Matrix B M B (f ) die im Satz angegebene Gestalt hat. Wir müssen jetzt noch C zu einer Orthonormalbasis von ganz V erweitern. Wenn W die Dimension 1 hat, so wählen wir einen Vektor w der Norm 1 aus W. Dann ist C ∪ {w} – eventuell nach Umnummerierung – eine Orthonormalbasis, bezüglich der f die im Satz angegebene Gestalt hat. Sei schließlich dim(W) = 2. Diesen Fall haben wir schon behandelt: Es gibt eine Orthonormalbasis C′ von W, so dass die Einschränkung von f auf W eine Darstellungsmatrix hat wie sie im vorangegangenen Satz beschrieben ist. Dann ist B := C ∪ C′ eine Orthonormalbasis der gesuchten Form. ◻ Damit hat dieser Beweis (einer der längsten dieses Buches) doch noch ein Ende gefunden. Kompliment, wenn Sie durchgehalten haben. Der Beweis ist nicht einfach, er verwendet aber Methoden, die Sie sich gründlich ansehen sollten. Aber freuen Sie sich nicht zu früh: Es wartet noch ein Satz mit einem langen Beweis auf Sie! 10.5 . . . und eine zweite symmetrische Bilinearform? Sei V ein euklidischer Vektorraum mit Skalarprodukt ⟨ , ⟩. Vermutlich wird es noch viele andere Skalarprodukte und noch viel mehr Bilinearformen auf V geben. In diesem Ab- 10.5 . . . und eine zweite symmetrische Bilinearform? 325 schnitt untersuchen wir, ob und wie wir mit Hilfe des „festen Skalarprodukts“ ⟨ , ⟩ eine andere symmetrische Bilinearform von V beschreiben können. Wir werden schnell sehen, dass dies gleichwertig ist mit der Untersuchung der so genannten „selbstadjungierten“ linearen Abbildungen von V in sich und mit der Untersuchung symmetrischer Matrizen mit reellwertigen Einträgen. Ein Hauptergebnis wird sein, dass man jede solche Matrix diagonalisieren kann. Sei also [ , ] eine symmetrische Bilinearform auf V. Sei φ die lineare Abbildung von V in sich, die durch folgende Vorschrift definiert ist: [v, w] = ⟨φ(v), w⟩ für alle v, w ∈ V (vergleichen Sie dazu Abschn. 10.2). Beschreibung symmetrischer Bilinearformen durch selbstadjungierte Abbildungen Die lineare Abbildung φ genügt folgender Gleichung ⟨φ(v), w⟩ = ⟨v, φ(w)⟩ für alle v, w ∈ V. Man sagt dazu auch, dass φ selbstadjungiert ist. Umgekehrt gilt: Sei ψ eine selbstadjungierte lineare Abbildung von V in sich. Dann wird durch [v, w] ∶= ⟨ψ(v), w⟩ eine symmetrische Bilinearform definiert. Beweis Seien v, w ∈ V. Da sowohl [ , ] als auch ⟨ , ⟩ symmetrisch sind, gilt ⟨φ(v), w⟩ = [v, w] = [w, v] = ⟨φ(w), v⟩ = ⟨v, φ(w)⟩ . Der Nachweis der Umkehrung ist einfach und wird Ihnen als (leichte) Übung empfohlen (siehe Übungsaufgabe 20). ◻ Übrigens Machen Sie sich über den Namen „selbstadjungiert“ keine unnötigen Gedanken. Im Allgemeinen kann man die zu einer linearen Abbildung „adjungierte“ lineare Abbildung definieren; dann heißt eine lineare Abbildung „selbstadjungiert“ wenn sie gleich ihrer adjungierten Abbildung ist. Als nächstes überlegen wir uns, welche Darstellungsmatrix eine selbstadjungierte lineare Abbildung hat. 326 10 Skalarprodukte Darstellungsmatrix einer selbstadjungierten Abbildung Sei φ eine selbstadjungierte lineare Abbildung des euklidischen Vektorraums V in sich. Dann ist die Darstellungsmatrix B M B (φ) bezüglich jeder Orthonormalbasis B von V eine symmetrische Matrix. Umgekehrt: Wenn φ bezüglich einer Orthonormalbasis eine symmetrische Darstellungsmatrix hat, dann ist φ selbstadjungiert. Beweis Den Trick, den wir hier brauchen, kennen wir schon. Sei B = {v1 , v2 , . . . , vn }. Dann gilt (siehe Übungsaufgabe 19): Genau dann ist φ selbstadjungiert, wenn für alle i, j ∈ {1, 2, . . . , n} die folgende Gleichung gilt: ⟨φ(v i ), v j ⟩ = ⟨v i , φ(v j )⟩ . Wir brauchen die definierende Eigenschaft also nur für die Elemente von B nachzuweisen. Daraus ergibt sich wieder die Beweisstrategie: Berechne ⟨φ(vi ), vj ⟩ und ⟨vi , φ(vj )⟩ und überlege, wann Gleichheit gilt. Zur Abkürzung setzen wir A := B M B (φ) mit A = (aij )1 ≤ i ≤ n, 1 ≤ j ≤ n . Weil A eine Darstellungsmatrix ist, gilt φ(vi ) = a1i v1 + a2i v2 + . . . + ani vn . Also folgt ⟨φ(v i ), v j ⟩ = ⟨a i v + a i v + . . . + a ni v n , v j ⟩ = ⟨a i v , v j ⟩ + ⟨a i v , v j ⟩ + . . . + ⟨a ji v j , v j ⟩ + . . . + ⟨a ni v n , v j ⟩ = ⟨a ji v j , v j ⟩ = a ji . Entsprechend ergibt sich aus φ(vj ) = a1j v1 + a2j v2 + . . . + anj vn die Gleichung ⟨v i , φ(v j )⟩ = ⟨v i , a j v + a j v + . . . + a n j v n ⟩ = a i j . Insgesamt folgt: φ ist selbstadjungiert ⇔ ⟨φ(v i ), v j ⟩ = ⟨v i , φ(v j )⟩ ⇔ a ji = a i j für alle ⇔ A ist symmetrisch. für alle i, j ∈ {, , . . . , n} i, j ∈ {, , . . . , n} ◻ Wir sehen also: Symmetrische Bilinearformen, selbstadjungierte lineare Abbildungen und symmetrische Matrizen beschreiben alle das gleiche Phänomen. Welche Sprache einem persönlich am meisten zusagt, ist zum Teil natürlich eine Geschmacksfrage: Entscheiden Sie sich in freier Wahl für eine dieser drei Sprachen. 10.5 . . . und eine zweite symmetrische Bilinearform? 327 Das Hauptergebnis dieses Abschnitts ist der folgende Satz, der sowohl unter dem Namen Spektralsatz als auch unter der traditionellen Bezeichnung Hauptachsentransformation bekannt ist. Wir geben die Aussage dieses Satzes in drei Sprachen wieder. Hauptachsentransformation Sei V ein euklidischer Vektorraum mit Skalarprodukt ⟨ , ⟩. (a) Zu jeder selbstadjungierten linearen Abbildung φ von V in sich gibt es eine Orthonormalbasis von V, die aus lauter Eigenvektoren von φ besteht. Insbesondere ist φ diagonalisierbar. (b) Zu jeder symmetrischen Bilinearform [ , ] von V gibt es eine Orthonormalbasis, die bezüglich [ , ] eine Orthogonalbasis ist. (c) Jede symmetrische reelle Matrix ist diagonalisierbar und hat nur reelle Eigenwerte. Beweis Der eigentliche Beweis besteht im Nachweis von (a). Wir machen uns zunächst klar, dass (b) und (c) aus (a) folgen. „(a) ⇒ (b)“: Sei [ , ] eine symmetrische Bilinearform von V. Dann wird durch [v, w] = ⟨φ(v), w⟩ eine selbstadjungierte lineare Abbildung φ von V in sich definiert. Nach (a) gibt es eine Orthonormalbasis B = {v1 , v2 , . . . , vn }, die aus lauter Eigenvektoren von φ besteht. Behauptung: B ist eine Orthogonalbasis von [ , ]. Warum? Da B aus Eigenvektoren von V besteht, gilt: [v i , v j ] = ⟨φ(v i ), v j ⟩ = ⟨k i ⋅ v i , v j ⟩ = k i ⋅ ⟨v i , v j ⟩ . Also ist sicher [vi , vj ] = 0 für i ≠ j. „(a) ⇒ (c)“: Sei A eine symmetrische reelle n × n-Matrix. Betrachte eine Orthonormalbasis B eines n-dimensionalen euklidischen Vektorraums V. Sei φ die zu A bezüglich der Basis B gehörige lineare Abbildung. Nach dem vorhergehenden Satz ist φ selbstadjungiert. Nach (a) ist φ also diagonalisierbar. Daher zerfällt das charakteristische Polynom von φ über R vollständig. Da A eine Darstellungsmatrix von φ ist, hat also auch A nur reelle Eigenwerte. Nun zum eigentlichen Beweis. Wir beweisen, wie gesagt, die Aussage (a). Sei φ eine selbstadjungierte Abbildung von V. Wenn wir wüssten, dass φ einen Eigenvektor v besitzt, wären wir fein raus. Denn dann könnten wir die Aussage relativ einfach mit Hilfe von Induktion nach n := dim(V) beweisen. 328 10 Skalarprodukte Dazu betrachten wir einen Eigenvektor v von φ (wie gesagt, vorerst ist es ein süßes Geheimnis, ob es solch einen Vektor überhaupt gibt!) und das zu ⟨v⟩ orthogonale Komplement W := ⟨v⟩⊥ . Zunächst müssen wir uns davon überzeugen, dass φ den Unterraum W in sich abbildet. Sei dazu w ∈ W beliebig. Wir müssen zeigen, dass dann auch φ(w) senkrecht auf v steht. Dies folgt so: ⟨φ(w), v⟩ = ⟨w, φ(v)⟩ = ⟨w, kv⟩ = k⟨w, v⟩ = . (Das erste Gleichheitszeichen gilt, da φ selbstadjungiert ist, das zweite, da v ein Eigenvektor zu einem Eigenwert k ist.) Das bedeutet φ(W) ⊆ W. Da φ bijektiv ist, folgt daraus auch f (W) = W. Also ist die Einschränkung ψ von φ auf W eine selbstadjungierte lineare Abbildung von W in sich. Da W die Dimension n − 1 hat, können wir jetzt Induktion anwenden: Es gibt eine Orthonormalbasis C von W, so dass die Darstellungsmatrix C MC (ψ) eine Diagonalmatrix ist. Wenn wir B := C ∪ {v} setzen, so ist B eine Orthonormalbasis von V mit der Eigenschaft, dass die Darstellungsmatrix B M B (φ) eine Diagonalmatrix ist. Also ist φ diagonalisierbar, und damit ist alles gezei . . . – Halt! Keinesfalls ist alles gezeigt. Denn es ist noch die scheinbar kleine Behauptung „jede selbstadjungierte lineare Abbildung hat einen Eigenvektor“ zu beweisen, und das ist gar nicht ohne. Das geht am besten über den Umweg über komplexe Vektorräume. Diese werden im Projekt dieses Kapitels untersucht, und die gewünschte Aussage wird in Teilschritt 15 ausdrücklich bewiesen. Wem ein Umweg über die Analysis lieber ist, der lese das Lemma auf Seite 207 von [Fis] oder die Aussage F3 im zweiten Band von [Lor]. Korollar Eine symmetrische Bilinearform [ , ] von V ist genau dann ein Skalarprodukt, wenn es eine Orthonormalbasis B gibt, so dass die Gramsche Matrix von [ , ] bezüglich B nur positive Eigenwerte hat. ◻ An den obigen Satz schließt sich der Sylverstersche Trägheitssatz (James Joseph Sylvester, 1814–1897) an, der den Reigen der Linearen Algebra beschließen soll. Sylvesterscher Trägheitssatz Sei [ , ] eine symmetrische Bilinearform des euklidischen Vektorraums V. Für eine Orthonormalbasis B sei A die Gramsche Matrix von [ , ]. Sei s die Anzahl der positiven und t die Anzahl der negativen Eigenwerte von A. Dann hängen s und t nur von [ , ], aber nicht von der Wahl der Basis B ab. 10.6 Verständnisfragen, Übungen und Tipps 329 Wir beweisen diesen Satz hier nicht. Sie finden den Beweis in vielen Büchern über Lineare Algebra (zum Beispiel [Fis], [Lor]). Nehmen Sie die Herausforderung an, indem Sie versuchen, den Satz in einem dieser Bücher (a) zu finden (b) zu verstehen und (c) den dort angegebenen Beweis nachzuvollziehen. 10.6 Verständnisfragen, Übungen und Tipps Richtig oder falsch? 1. Thema: Bilinearformen ◻ Sei ⟨ , ⟩ eine Bilinearform des Vektorraums V. Dann gilt: ◻ Für jeden Vektor v ist ⟨v, v⟩ positiv. ◻ Für jeden Vektor v ≠ o ist ⟨v, v⟩ positiv. ◻ Es gibt einen Vektor v ≠ o, so dass ⟨v, v⟩ positiv ist. ◻ Für keinen Vektor v ≠ o gilt v ⊥ v. ◻ Wenn ⟨ , ⟩ nichtausgeartet ist, gilt für keinen Vektor v ≠ o die Beziehung v ⊥ v. ◻ Für jeden Unterraum U von V gilt U ⊥ ∩ U = {o}. 2. Thema: Skalarprodukte ◻ Das Standardskalarprodukt ist das einzige Skalarprodukt. ◻ Ein euklidischer Vektorraum hat nur ein Skalarprodukt. ◻ Das orthogonale Komplement eines Unterraums ist eindeutig bestimmt. ◻ Wenn ⟨ , ⟩ ein Skalarprodukt ist, nimmt ⟨v, v⟩ alle Werte aus R an. ◻ Wenn ⟨ , ⟩ ein Skalarprodukt ist, nimmt ⟨v, v⟩ alle positiven Werte aus R an. 3. Thema: Orthonormalbasen Sei V ein euklidischer Vektorraum. ◻ V hat genau eine Orthonormalbasis ◻ Jede orthonormale Menge kann eindeutig zu einer Orthonormalbasis fortgesetzt werden. ◻ Jeder Vektor ≠ o kann zu einer Orthonormalbasis ergänzt werden. ◻ Jeder Vektor v mit ∥ v∥ = kann zu einer Orthonormalbasis ergänzt werden. Übungsaufgaben 1. Zeigen Sie, dass die beiden „Definitionen“ aus Abschn. 10.1 auch für Vektoren beliebiger Länge äquivalent sind. 2. Sei V = K 2 . Dann ist die folgendermaßen definierte Abbildung ⟨ , ⟩ eine Bilinearform: ⟨(x , y ), (x , y )⟩ ∶= x y − y x . Zeigen Sie, dass ⟨ , ⟩ nichtausgeartet ist, dass aber für jeden Vektor v gilt: ⟨v, v⟩ = . 330 10 Skalarprodukte 3. Sei ⟨ , ⟩ eine Bilinearform des Vektorraums V. Zeigen Sie, dass für alle v ∈ V gilt: ⟨o, v⟩ = und ⟨v, o⟩ = . Mit anderen Worten: der Nullvektor steht auf jedem Vektor senkrecht. 4. Sei ⟨ , ⟩ eine nichtausgeartete Bilinearform von V. Sei f eine lineare Abbildung von V in sich. Zeigen Sie, dass durch die Vorschrift [v, w] ∶= ⟨ f (v), w⟩ eine Bilinearform von V definiert wird. 5. Geben Sie eine Gram-Matrix eines Skalarprodukts eines 4-dimensionalen reellen Vektorraums an, deren sämtliche Einträge ≠ 0 sind. 6. Formulieren und beweisen Sie die Aussage für die zweite Komponente der entsprechenden Bilinearformen des Satzes „Konstruktion von Bilinearformen“ aus Abschn. 10.2. 7. Sei ⟨ , ⟩ eine symmetrische Bilinearform des Vektorraums V. Zeigen Sie: Die Menge R ∶= {v ∈ V∣v ⊥ = V } ist ein Unterraum von V. (Man nennt R das Radikal der Bilinearform ⟨ , ⟩). 8. Sei V ein reeller Vektorraum, und sei B = {v1 , v2 , . . . , vn } eine Basis von V. Für zwei Vektoren n v = ∑ ki vi n und w = ∑ h j v j i= j= definieren wir ⟨v, w⟩ ∶= k h + k h + . . . + k n− h n− − k n h n . Bestimmen Sie das Radikal von ⟨ , ⟩. Welche Dimension hat dieses Radikal? 9. Sei V ein K-Vektorraum, und sei ⟨ , ⟩ eine nichtausgeartete Bilinearform auf V. Zeigen Sie, dass die Abbildung g w0 von V nach K, die durch gw (v) = ⟨v, w ⟩ für alle v ∈ V definiert ist, genau dann die Nullabbildung ist, wenn w0 = o ist. 10. Beweisen Sie ohne Rückgriff auf den Satz über die Konstruktion von Skalarprodukten, dass die Standardbilinearform eines reellen Vektorraums ein Skalarprodukt ist. 11. Zeigen Sie: Die Menge der symmetrischen Matrizen aus K n × n bildet einen KVektorraum. Bestimmen sie die Dimension dieses Vektorraums. 12. Sei V ein euklidischer Vektorraum mit Skalarprodukt ⟨ , ⟩. Zeigen Sie: Eine lineare Abbildung f von V in sich ist genau dann orthogonal, wenn für alle v ∈ V gilt ∥ f (v)∥ = ∥v∥ . 10.6 Verständnisfragen, Übungen und Tipps 331 13. Führen Sie den Beweis des Orthonormalisierungssatzes zu Ende. 14. Im ersten Teil des Beweises für den Orthonormalisierungssatz haben wir die Fälle ⟨v2 , w1 ⟩ = 0 und ⟨v2 , w1 ⟩ ≠ 0 unterschieden. War das notwendig? 15. Ergänzen Sie den Vektor( , , √ ) zu einer Orthonormalbasis von R3 . 16. Ergänzen Sie die Menge {(1/2, 1/2, 1/2, 1/2), (−1/2, 1/2, − 1/2, 1/2)} zu einer Orthonormalbasis von R4 . 17. Zeigen Sie, dass O(n) und SO(n) (mit der Matrizenmultiplikation als Verknüpfung) Gruppen sind. 18. Sei B = {v1 , v2 , . . . , vn } eine Basis des euklidischen Vektorraums V. Zeigen Sie: Eine lineare Abbildung f von V in sich ist genau dann orthogonal, wenn ⟨vi , vj ⟩ = ⟨f (vi ), f (vj )⟩ für alle i, j ∈ {1, 2, . . . , n} gilt. 19. Sei B = {v1 , v2 , . . . , vn } eine Basis des euklidischen Vektorraums V. Zeigen Sie: Eine lineare Abbildung von V in sich ist genau dann selbstadjungiert, wenn ⟨f (vi ), vj ⟩ = ⟨vi , f (vj )⟩ für alle i, j ∈ {1, 2, . . . , n} gilt. 20. Zeigen Sie: Ist ψ eine selbstadjungierte lineare Abbildung von V in sich, so wird durch [v, w] ∶= ⟨ψ(v), w⟩ eine symmetrische Bilinearform definiert. 21. Zeigen Sie die Implikation „(a)⇒ (b)“ im Satz über die Hauptachsentransformation (ohne die Gültigkeit von (a) vorauszusetzen). Projekt: Skalarprodukte komplexer Vektorräume Man kann ganz analog zur Theorie der Skalarprodukte über reellen Vektorräumen eine Theorie der Skalarprodukte über komplexen Vektorräumen aufziehen. Diese ist eine natürliche Verallgemeinerung der reellen Situation. Im Projekt dieses Kapitels sind Sie eingeladen, die Theorie der Skalarprodukte über komplexen Vektorräumen schrittweise zu entwickeln. Machen Sie sich stets klar, dass die im Haupttext entwickelte Theorie reeller Vektorräume ein Spezialfall der hier dargestellten komplexen Theorie ist und man die reelle Situation vom höheren Standpunkt aus besser überblicken kann. Sei stets V ein endlichdimensionaler Vektorraum über dem Körper C der komplexen Zahlen. Zunächst müssen wir die Definition einer Bilinearform verallgemeinern. Eine Semibilinearform von V ist eine Abbildung ⟨ , ⟩: V × V → C, die in der ersten Komponente linear, aber in der zweiten nur „semilinear“ ist; das bedeutet, dass für alle v, v′ , w, w′ ∈ V und alle k ∈ K gilt ⟨v + v ′ , w⟩ = ⟨v, w⟩ + ⟨v ′ , w⟩ und ⟨kv, w⟩ = k ⋅ ⟨v, w⟩, ′ ′ ⟨v, w + w ⟩ = ⟨v, w⟩ + ⟨v, w ⟩ sowie und ⟨v, k ⋅ w⟩ = k̄⟨v, w⟩ Dabei ist k̄ die zu k konjugiert komplexe Zahl (vergleichen Sie dazu Abschn. 2.3.4). Übrigens: Lassen Sie sich von dem merkwürdigen Wort „semibilinear“ nicht verwirren („semi“ heißt „halb“ und „bi“ bedeutet „zwei“). Diese beiden Operationen „heben 332 10 Skalarprodukte sich aber nicht auf “; vielmehr bezieht sich „bi“ darauf, dass es sich um eine Abbildung von V × V nach C handelt, und die Vorsilbe „semi“ deutet an, dass die Abbildung nur semilinear (in der zweiten Komponente) ist. 1. Sei B = {v1 , v2 , . . . , vn } eine Basis von V. Sei A = (aij ) eine n × n-Matrix mit Werten aus C. Wir definieren eine Abbildung f von V × V in K, dadurch, dass wir für Basisvektoren vi und vj definieren ⟨v i , v j ⟩ ∶= a i j und diese Vorschrift „semilinear bzw. linear fortsetzen“. Das bedeutet: Sind n v = ∑ ki vi n und w = ∑ h j v j i= j= beliebige Vektoren aus V, so ist n ⟨v, w⟩ ∶= ∑ k i h¯j a i j . i , j= Zeigen Sie, dass f eine Semibilinearform ist: Eine Semibilinearform heißt eine hermitesche Form (nach dem französischen Mathematiker Charles Hermite, 1822–1901), falls für alle v, w ∈ V gilt: ⟨v, w⟩ = ⟨v, w⟩ . 2. Sei ⟨ , ⟩ eine hermitesche Form. Zeigen Sie, dass für jeden Vektor v ∈ V gilt: ⟨v, v⟩ ist eine reelle (und nicht nur eine komplexe) Zahl. 3. Sei {v1 , v2 , . . . , vn } eine Basis von V. Sei A = (aij ) eine n × n-Matrix mit Einträgen aus C. Dann gilt: Genau dann wird durch die Vorschrift ⟨vi , vj ⟩ := aij eine hermitesche Form definiert, wenn A = ĀT (∶= ( ā ji )) gilt. Eine Matrix mit dieser Eigenschaft heißt auch eine hermitesche Matrix. Wir nennen eine hermitesche Form ⟨ , ⟩ ein Skalarprodukt von V, falls sie positiv definit ist, falls also ⟨v, v⟩ ≥ gilt für alle v ∈ V und ⟨v, v⟩ ≠ 0 für v ≠ o. Schließlich nennen wir einen komplexen Vektorraum mit einem Skalarprodukt einen unitären Vektorraum. 10.6 Verständnisfragen, Übungen und Tipps 333 4. Warum ist die Definition eines Skalarprodukts überhaupt möglich? (Bedenken Sie, dass der Körper C keine mit Addition und Multiplikation verträgliche Anordnung hat!) 5. Die Einheitsmatrix definiert ein Skalarprodukt von V. Von nun an sei stets V ein unitärer C-Vektorraum mit Skalarprodukt ⟨ , ⟩. √ 6. Definieren Sie ∥ v∥ ∶= ⟨v, v⟩ für alle v ∈ V und zeigen Sie die Ungleichung von Cauchy und Schwarz. √ 7. Zeigen Sie, dass durch die Vorschrift ∥ v∥ ∶= ⟨v, v⟩ für alle v ∈ V eine Norm auf V definiert wird. 8. Formulieren und beweisen Sie den Orthonormalisierungssatz von E. Schmidt für einen unitären Vektorraum. Eine lineare Abbildung f von V in sich heißt unitär, falls für alle v, w ∈ V gilt ⟨v, w⟩ = ⟨ f (v), f (w)⟩ . Eine invertierbare Matrix A ∈ Cn × n heißt unitär, falls gilt A− = ĀT . 9. Sei f eine unitäre lineare Abbildung von V in sich. Zeigen Sie (a) Jeder Eigenwert von f hat den Betrag 1. (b) Die lineare Abbildung f ist injektiv (also bijektiv). 10. Sei B eine Orthonormalbasis von V. Zeigen Sie: Eine lineare Abbildung f von V in sich ist genau dann unitär, wenn B M B (f ) eine unitäre Matrix ist. 11. Sei f eine unitäre lineare Abbildung von V in sich. Zeigen Sie: Es gibt eine Orthonormalbasis von V, die aus Eigenvektoren von f besteht. 12. Zeigen Sie: Jede unitäre lineare Abbildung von V in sich ist diagonalisierbar. Eine lineare Abbildung von V in sich heißt selbstadjungiert, wenn für alle v, w ∈ V gilt ⟨ f (v), w⟩ = ⟨v, f (w)⟩ . 13. Sei f eine lineare Abbildung von V in sich, und sei B eine Orthonormalbasis von V. Zeigen Sie: Genau dann ist f selbstadjungiert, wenn die Darstellungsmatrix B M B (f ) eine hermitesche Matrix ist. 14. (a) Zu jeder hermiteschen Form [ , ] gibt es eine Orthonormalbasis von V, die auch bezüglich [ , ] eine Orthogonalbasis ist. 334 10 Skalarprodukte (b) Jede selbstadjungierte lineare Abbildung von V in sich ist diagonalisierbar und hat nur reelle Eigenwerte. (c) Jede hermitesche Matrix hat nur reelle Eigenwerte. 15. Sei V ein euklidischer Vektorraum, und sei f eine selbstadjungierte lineare Abbildung von V in sich. Wir betrachten diesen Vektorraum auch als C-Vektorraums V*. Das bedeutet: Für irgendeine Orthonormalbasis B = {v1 , v2 , . . . , vn } von V sei n V ∗ ∶= {∑ v i z i ∣z i ∈ C} . i= Zeigen Sie: (a) Die Darstellungsmatrix A von f bezüglich B ist (als Matrix über C betrachtet) eine hermitesche Matrix. Daher definiert A eine selbstadjungierte lineare Abbildung f * von V* in sich. (b) Die lineare Abbildung f * hat nur reelle Eigenwerte. Insbesondere hat f einen reellen Eigenvektor aus V. Sie sollten mit folgenden Begriffen umgehen können Bilinearform, orthogonal, Gramsche Matrix, symmetrische Bilinearform, positiv definit, Skalarprodukt, euklidischer Vektorraum, Standardskalarprodukt, Orthonormalbasis, orthogonales Komplement, orthogonale Abbildung, orthogonale Matrix, selbstadjungierte lineare Abbildung. 10.6 Verständnisfragen, Übungen und Tipps Adieu! Es wird Zeit, vielleicht höchste Zeit, dass ich mich von Ihnen verabschiede. Wenn Sie die Lineare Algebra bis hierher gut durchgearbeitet und verstanden haben, stehen Sie jetzt auf sicherem Grund, und ich bin sicher, dass Sie auch Ihren weiteren Weg durchs Mathematikstudium erfolgreich beschreiten werden. Zur Vorsicht wünsche ich Ihnen aber auch das dazu nötige Quäntchen Glück. Die Mathematik ist eine einzigartige Welt für eigene Entdeckungen. Sie können jede Übungsaufgabe, jeden etwas schwierigeren Text als eigenes kleines Forschungsprojekt auffassen. Nach einiger Zeit werden Sie die Lehrbücher hinter sich lassen, selbständig Fragen stellen (nichts schwieriger – und wichtiger – als das!) und Antworten versuchen. Auch wenn viele Ihrer Entdeckungen schon früher von jemand anderem gemacht wurden, sollte das Ihren Genuss nicht trüben und Sie keinesfalls entmutigen! (Es macht Ihnen doch auch nichts aus, wenn Ihr derzeitiges Lieblingsmusikstück schon von Tausenden anderer vorher gehört wurde.) Es ist so wie in der Erzählung „Der Erfinder“ von Peter Bichsel. Dort wird von einem Erfinder berichtet, der nur Dinge erfindet, die es schon gibt. Am Schluss tröstet uns Peter Bichsel mit folgenden Worten: Doch er blieb sein Leben lang ein richtiger Erfinder, denn auch Sachen, die es gibt, zu erfinden, ist schwer, und nur Erfinder können es. 335 11 Lösungen 11.1 Lösungsvektoren der ◻-Aufgaben Kapitel 1 1. r f f f f r r f 2. f f r f r 3. f r r f f 4. f r r f f 5. r r f r Kapitel 2 1. f f r f 2. r f f f f r f Kapitel 3 1. 2. 3. 4. 5. 6. 7. rfrfrffrfrfrrff fffrmh f f f r 0, 1, 2001, ∞ rfrrffff ffr frfrff ffrfrfffr A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0_11, © Springer Fachmedien Wiesbaden 2014 337 338 Kapitel 4 1. 2. 3. 4. fffrfffffff frfrf rfr fffrf Kapitel 5 1. 2. 3. 4. 5. fffffrr rfrffff frffffr fffrfrr ffrffff Kapitel 6 1. r f f f f r f r r r r f f 2. f r 3. f r f r r Kapitel 7 1. f r r f f 2. r r f f 3. f f f r f f Kapitel 8 1. 2. 3. 4. 5. rfffrfffff frrff fffffrq fffffrr ffffffrfff Kapitel 9 1. 2. 3. 4. 5. rrfrfr rff rffrf frff fffffrf 11 Lösungen 11.2 Tipps zur Lösung der Übungsaufgaben 339 Kapitel 10 1. f f f f f f 2. f f r f r 3. f f f r (r: richtig, f: falsch, q: Quatsch) 11.2 Tipps zur Lösung der Übungsaufgaben Lange Zeit habe ich mich dagegen gesträubt, Hinweise zur Lösung der Übungsaufgaben zu veröffentlichen. Mir selbst gegenüber konnte ich das gut begründen: Jeder soll eine Chance haben, die Lösungen selbst zu finden. Jeder soll sich selbst davon überzeugen, dass die Lösung richtig ist – und nicht nur nachschlagen. Viele Aufgaben haben viele Lösungen, „die Musterlösung“ gibt es kaum einmal. Aber viele Leserinnen und Leser der Linearen Algebra sehen das anders. Ich habe viele begeisterte Briefe erhalten – die alle mit der Klage endeten, dass dieses Buch keine Tipps zur Lösung der Übungsaufgaben enthalte. Sie haben mich überzeugt: Hier sind Lösungshinweise! Aber: Es sind wirklich nur Tipps und Hinweise, manchmal nur Stichworte. Nicht jede Aufgabe wird gelöst. Manche werden nur teilweise gelöst. Manchmal wird nur das Ergebnis genannt. Und es gibt keine Musterlösungen. Ehrlich gesagt: Ich hatte noch einen Grund, keine Lösungen von Übungsaufgaben zu veröffentlichen: Ich verrechne mich laufend. Und ich fürchte, dass viele der Hinweise kleinere oder größere Lücken oder Fehler enthalten. Also seien Sie misstrauisch – und trauen Sie im Zweifelsfall Ihrer eigenen Lösung mehr als der hier vorgeschlagenen! (Aber wenn Sie einen wirklich verwirrenden Fehler finden, dann bitte ich Sie, mir diesen mitzuteilen!) Kapitel 1 1. Typisch mathematischer Trick: Wenn X die leere Menge ist, kann Y alles sein, und die Bedingung gilt immer noch. Die Antwort ist also „nein“ (weil es ein Gegenbeispiel gibt), obwohl sie in fast allen Fällen „ja“ lautet. 2. Die Anzahl der Möglichkeiten ist 4 ⋅ 2 ⋅ 10 ⋅ 3 = 240. Ich brauche also 20 Jahre. 3. (a) Die Relation ~ definiert auf der Menge der Bürger von Deutschland durch x ∼ y ⇔ x und y haben ihren ersten Wohnsitz in derselben Stadt ist eine Äquivalenzrelation. Denn jeder Bürger hat einen Wohnsitz (Reflexivität). Wenn A den gleichen Wohnsitz hat wie B, dann hat auch B den gleichen Wohnsitz 340 11 Lösungen wie A (Symmetrie). Wenn schließlich A und B sowie B und C den gleichen Wohnsitz haben, dann haben alle drei den gleichen Wohnsitz, insbesondere haben A und C den gleichen Wohnsitz (Transitivität). (c) Die Gleichheitsrelation = ist eine Äquivalenzrelation. Dies ist die wichtigste Äquivalenzrelation überhaupt, insbesondere da es viele Äquivalenzrelationen gibt, die letztlich über eine Gleichheit definiert sind. Beispiel: Zwei Personen sind äquivalent, wenn sie die gleiche Haarfarbe haben. (e) Für jede natürliche Zahl n ist die Relation ~ n auf der Menge Z der ganzen Zahlen, die wie folgt definiert ist: x ∼n y ⇔ y − x ist ein ganzzahliges Vielfaches von n 4. 5. 6. 7. 8. eine Äquivalenzrelation. Wir zeigen nur die Transitivität: Sei y−x ein ganzzahliges Vielfaches von n, also y−x = kn mit k ∈ Z. Sei ferner auch y ~ n z, also z−y ein ganzzahliges Vielfaches von n, d. h. z−y = hn mit h ∈ Z. Dann ist z−x = (z−y) − (x−y) = hn − kn = (h − k)n, wobei h − k ein Element von Z ist. Somit gilt auch x ~ n z. Auf der Menge Z haben die folgendermaßen definierten Relationen die gewünschten Eigenschaften: |x−y| ≤ 2: reflexiv, symmetrisch, aber nicht transitiv, x − y ist eine nichtnegative gerade Zahl: reflexiv, transitiv, aber nicht symmetrisch, x − y ist eine Primzahl: weder reflexiv, noch symmetrisch noch transitiv. Um eine Relation zu erhalten, die symmetrisch und transitiv, aber nicht reflexiv ist kann man wie folgt vorgehen: Man nimmt eine Menge M mit Äquivalenzrelation. Zu dieser Menge fügt man ein neues Element ∞ hinzu, das weder mit sich selbst noch mit den Elementen aus M in Relation stehen soll. Dann ist die Relation auf der neuen Menge symmetrisch und transitiv, aber nicht reflexiv. Sei z ∈ A(y). Das bedeutet z ~ y. Aus x ~ y ergibt sich zunächst y ~ x, und wegen der Transitivität von ~ folgt auch z ~ x. Das heißt z ∈ A(x). (a) Man zeigt zunächst, dass sich g und g ′ nicht schneiden (mit anderen Worten: dass g ′ ganz auf einer Seite von g liegt). Dann kann man zeigen, dass g und g ′ die (Verlängerung von) gegenüberliegenden Seiten eines Rechtecks sind. Also sind g und g ′ parallel. (a) Reflexivität: Jede natürliche Zahl hat eine Quersumme. Symmetrie: Wenn die erste Zahl die gleiche Quersumme wie die zweite hat, dann hat auch die zweite Zahl die gleiche Quersumme wie die erste. Transitivität: Wenn die beiden ersten Zahlen die gleiche Quersumme haben und die zweite und die dritte Zahl die gleiche Quersumme haben, dann haben alle Zahlen die gleiche Quersumme, insbesondere also die erste und die dritte. Welche der folgenden Zuordnungen ist eine Abbildung, welche ist surjektiv, welche injektiv? Mensch W→ Freundin: Keine Abbildung, da es Menschen mit mehr als einer Freundin gibt. 11.2 9. 10. 11. 12. 13. Tipps zur Lösung der Übungsaufgaben 341 Mensch W→ Vater: Abbildung, da jeder Mensch nur einen Vater hat. Die Abbildung ist nicht injektiv, da manche Menschen den gleichen Vater haben; sie ist auch nicht surjektiv, da nicht jeder Mensch Vater ist. Mensch W→ Handynummer: Injektive Abbildung, falls jeder der betrachteten Menschen nur eine Handynummer hat. Mensch W→ Lieblingsessen: Abbildung, falls jeder Mensch genau ein Lieblingsessen hat. f (x) = x3 : injektiv und surjektiv f (x) = ax2 + bx + c (a ≠ 0): weder injektiv noch surjektiv f (x) = |x|: weder injektiv noch surjektiv f (x) = ex : injektiv, aber nicht surjektiv Die Abbildung f : {0, 1} → {0, 1} mit f (0) = 0 und f (1) = 1 ist injektiv und surjektiv. Eine Abbildung f ⊆ X × Y ist genau dann bijektiv, wenn es zu jedem y ∈ Y genau ein y ∈ Y gibt mit (x, y) ∈ f . Die Abbildung f : {0, 1} → {a, b, c} mit f (0) = a und f (1) = b ist injektiv, aber nicht surjektiv. Die Abbildung f : {a, b, c} → {0, 1} mit f (a) = 0 und f (b) = f (c) = 1 ist surjektiv, aber nicht injektiv. Die Abbildung f : {0, 1} → {a, b, c} mit f (0) = a und f (1) = a ist weder injektiv noch surjektiv. Eine Abbildung f ⊆ X × Y ist genau dann injektiv, wenn es zu jedem y ∈ Y höchstens ein x ∈ X gibt mit (x, y) ∈ f . (Oder: . . . , wenn es zu jedem x ∈ X genau ein y ∈ Y gibt mit (x, y) ∈ f .) Eine Abbildung f ⊆ X × Y ist genau dann surjektiv, wenn es zu jedem y ∈ Y mindestens ein x ∈ X gibt mit (x, y) ∈ f . Eine Abbildung f ⊆ X × Y ist genau dann bijektiv, wenn es zu jedem y ∈ Y genau ein x ∈ X gibt mit (x, y) ∈ f . Wenn f nicht injektiv wäre, dann gäbe es verschiedene Elemente x, x′ aus X mit f (x) = f (x′ ). Dann wäre auch f ′ ○f (x) = f ′ ○f (x′ ), also f ′ ○f ≠ idX . Sei y ∈ Y beliebig. Dann ist f (y) ein Urbild von y; denn es ist y = idY (y) = f ○f ′ (y) = f (f ′ (y)). Also ist f auch surjektiv. (a) Genau dann ist f injektiv, wenn alle Bilder der Elemente von |X| verschieden sind, also genau dann, wenn f genau |X| Bilder hat. (b) Sei X = Y endlich. Nach (a) gilt dann: f ist injektiv ⇔ f hat genau |X| Bilder ⇔ f ist surjektiv. (c) folgt aus (b). (d) Die Abbildung f : Z → Z, die definiert ist durch f (z) := 2z ist injektiv, aber nicht surjektiv. Eine Abbildung von Z nach Z, die surjektiv, aber nicht injektiv ist, ist die folgendermaßen definierte Abbildung g: Sei z eine ganze Zahl mit n Dezimalstellen. Wenn n gerade ist, sei g(z) die Zahl aus den letzten n/2 Stellen; wenn n ungerade ist, sei g(z) die Zahl aus den letzten (n+1)/2 Stellen. Dabei soll das Vor- 342 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 11 Lösungen zeichen erhalten werden, d. h. wenn z positiv ist, soll auch g(z) positiv sein; wenn z negativ ist, soll auch g(z) negativ sein. Wenden Sie Aufgabe 12 an. Die Abbildung f : Z → 2Z+1, definiert durch f (z) := 2z+1 ist bijektiv, und somit sind die Mengen gleichmächtig. (a) Beweis nach Euklid (ca. 300 v. Chr.). Angenommen, es gibt nur endlich viele Primzahlen, seien diese p1 , p2 , . . . , ps . Wir betrachten die Zahl n := p1 ⋅ p2 . . . ps + 1. Diese Zahl ist – wie jede natürliche Zahl > 1 – durch eine Primzahl teilbar; diese muss eine der Primzahlen p1 , p2 , . . . , ps sein. Sei pi ein Teiler von n. Die Zahl pi teilt aber auch das Produkt p1 ⋅ p2 . . . ps (= n−1) da pi einer der Faktoren ist. Da pi auch die Differenz der beiden Zahlen teilt, muss pi ein Teiler von 1 sein: ein Widerspruch. (b) klar nach (a). Es gibt viele bijektive Abbildungen von N nach Q. Die meines Erachtens einfachste kann man wie folgt konstruieren: Man ordnet die (positiven) rationalen Zahlen nach der Größe der Summe aus Zähler und Nenner: Zuerst kommen die Brüche, bei denen diese Summe 2 ist (es gibt nur einen einzigen, nämlich 1/1). Dann kommen die Brüche, bei denen die Summe 3 ist (das sind 1/2 und 2/1). Und so weiter. Innerhalb jeder dieser Gruppe ordnet man die Brüche nach der Größe der Zähler. Damit kann man die positiven rationalen Zahlen der Reihe nach aufschreiben. Dies ist eine Abbildung von N in die positiven rationalen Zahlen. Also sind diese Mengen gleichmächtig. Den Rest zeigt man wie die Gleichmächtigkeit von N und Z. Sie können auch jedes andere Buch über Mengenlehre oder über die mathematische Unendlichkeit lesen, um diese Aufgabe zu lösen. Der entscheidende Trick des Beweises besteht darin, dass die Menge U ein Urbild u hat. Wir benutzten also nur die Surjektivität! a32 + a33 + a34 + a35 + a36 + a42 + a43 + a44 + a45 + a46 + a52 + a53 + a54 + a55 + a56 . Die Anzahl der binären Folgen der Länge n ist 2n . (a) Wir nummerieren die Elemente von X: X = {x1 , x2 , . . . , xn }. Wir definieren die Abbildung f von der Menge aller Teilmengen von X in die Menge aller binären Folgen der Länge n wie folgt: Sei Y eine Teilmenge von X. Dann ist f (Y) = (b1 , b2 , . . . , bn ), wobei bi = 1 ist, falls xi in Y liegt, und 0 sonst. Diese Abbildung f ist bijektiv. (b) Da es genau 2n binäre Folgen der Länge n gibt, gibt es nach (a) auch genau 2n Teilmengen einer n-elementigen Menge. qn . Die Summe der ersten n Kubikzahlen ist gleich dem Quadrat der Summe der ersten n natürlichen Zahlen. Wegen 1+2+ . . . +n = n(n+1)/2, ist nur zu zeigen: 13 + 23 + 33 + . . . + n3 = n2 (n+1)2 /4. Induktionsschritt: n2 (n+1)2 /4 + (n+1)3 = . . . = (n+1)2 (n+2)2 /4. a0 ⋅ a1 ⋅ a2 ⋅ a3 ⋅ a4 ⋅ a5 ⋅ a6 ⋅ a7 ⋅ a8 ⋅ a9 ⋅ a10 (falls k eine natürliche Zahl ist). M ∪ M ∪ M ∪ . . . ∪ M n− . X ∪ X ∪ X ∪ . . . 11.2 Tipps zur Lösung der Übungsaufgaben 343 Kapitel 2 1. „Distributives Ausrechen“, i ⋅ b = b ⋅ i, Definition von i2 , Definition von z ⋅ z′ . 2. Das ist zugegebenermaßen ziemlich mühsam, kann aber grundsätzlich auf wiederholte Anwendung von zwei Operationen ausgeführt werden: (a) Anwenden der Definition der Multiplikation komplexer Zahlen, (b) Ausnutzen der entsprechenden Gesetze in R. 3. (5/29 − 2i/29), (7/50 + i/50), (1/5 − 2i/5). 4. Zum Beispiel: i ⋅ (j ⋅ k) = i ⋅ i = −1 und (i ⋅ j) ⋅ k) = k ⋅ k = −1. 5. (a) Ausrechnen. (b) Folgt aus der Definition der Addition und Multiplikation in H. 6. Bearbeiten Sie diese Aufgabe und erleben Sie, wie durch diese Definition alles klar und einfach wird. 7. Wenn die Zahlen a′ − a und b′ − b durch n teilbar sind, dann sind auch a′ +b′ − (a+b) und a′ ⋅ b′ − a ⋅ b durch n teilbare ganze Zahlen. 8. x = 4 (denn 6 ⋅ 4 mod 11 = 24 mod 11 = 2), x = 8, x = 1, x = 8. 9. 6x = 2 ist in Z12 nicht lösbar, da 6x nur die Werte 6 und 0 annehmen kann. 2x + 4 = 9 ist nicht lösbar, da 2x+4 nur die Werte 0, 2, 4, 6, 8, 10 annehmen kann. 3x − 9 = 5 ist ebenfalls nicht lösbar, aber 7x = 1 ist lösbar. 10. In Zab mit a > 1 und b > 1 sind a und b von Null verschiedene Elemente, deren Produkt Null ergibt. Sei U eine Teilmenge von Zab , die mit der Addition und Multiplikation von Zab ein Körper ist. Dann ist 1 ein Element von U, also auch 1+1, 1+1+1 usw. Damit erhält man – mit der Addition modulo ab – alle Elemente von Zab . Also ist U = Zab , und somit ist U kein Körper. 11. Man führt das Assoziativ- und das Distributivgesetz in Zn auf die Gültigkeit der entsprechenden Gesetze in Z zurück. 12. 52 mod 7 = 4, 53 mod 7 = 52 ⋅ 5 mod 7 = 4 ⋅ 5 mod 7 = 6, 54 mod 7 = 53 ⋅ 5 mod 7 = 6 ⋅ 5 mod 7 = 2, 55 mod 7 = 53 ⋅ 5 mod 7 = 2 ⋅ 5 mod 7 = 3, 56 mod 7 = 55 ⋅ 5 mod 7 = 3 ⋅ 5 mod 7 = 1. Also ist die Ordnung von 5 in Z7 gleich 6. 13. (a) Wir verwenden zunächst Aufgabe 17. Angenommen, es gibt einen Körper K mit genau 6 Elementen. Es gibt eine Primzahl p mit p ⋅ 1 = 0. Es folgt p ∈ {2, 3, 5}. Sei F := {0, 1, p ⋅ 1, . . . (p−1) ⋅ 1 }. (b) p ≠ 5. Sonst gäbe es genau ein Element a, das nicht in F liegt. Dann liegt auch a+1 nicht in F. (Sonst a+1 = n ⋅ 1, also a = (n−1) ⋅ 1 ∈ F.) (c) p ≠ 3. Sonst F ={0, 1, 2}. Sei a ein Element von K, das nicht in F liegt. Dann ist auch 2 ⋅ a nicht in F. Also muss es ein Element b aus K geben, das ungleich a und 2a ist und nicht in F liegt. Dann liegt 2 ⋅ b weder in F, noch ist es gleich a oder gleich 2a, noch gleich b: Widerspruch. (d) p ≠ 2. In diesem Fall wäre F = {0, 1}, und es folgte K = {0, 1, a, a+1, b, b+1} für geeignete Elemente a und b. Betrachte die Elemente a+b und a+b+1. Beide können weder a, noch b, noch a+1, noch b+1 sein. Also ist a+b = 0 und a+b+1 = 1. Aus a+b = 0 folgt aber a = b (da −1 = 1), ein Widerspruch. 344 11 Lösungen 14. Setze K := {a+bi | a, b ∈ Z3 }. Definiere Addition und Multiplikation analog wie bei der Konstruktion von C. Genau so wie dort kann man alle Körperaxiome nachweisen. Nur beim Nachweis der Existenz eines multiplikativ Inversen muss man anders nachweisen, dass für alle a, b ∈ Z3 mit (a, b) ≠ (0, 0) stets a + b ≠ 0 ist. 15. (a) Das Nullelement ist (0, 0), das Einselement ist (1, 0). (b) Das Element (x′ , y′ ) mit x′ = x/(x2 +y2 ) und y′ = −y/(x2 +y2 ) ist ein multiplikatives Inverses von (x, y). (c) Ja. 16. f (k−1 ) ⋅ f (k) = f (k−1 ⋅ k) = f (1) = 1. Also ist f (k−1 ) die multiplikative Inverse von f (k). Das heißt f (k−1 ) = f (k)−1 . 17. (a) Da K endlich ist, passiert es beim Aufaddieren der Eins, dass man irgendwann ein Element erhält, das man schon vorher erhalten hatte. Mit anderen Worten, es gibt positive natürliche Zahlen r und s mit r < s und r ⋅ 1 = s ⋅ 1. Daraus folgt (s − r) ⋅ 1 = 0. Setze n := s − r. (b) Angenommen, p wäre keine Primzahl. Dann gäbe es natürliche Zahlen a und b mit a, b > 1 und p = ab. Also wäre 0 = p ⋅ 1 = (ab) ⋅ 1 = (a ⋅ 1) ⋅ (b ⋅ 1). Also muss a ⋅ 1 = 0 oder b ⋅ 1 = 0 gelten. Da a, b < p gilt, widerspricht dies der Minimalität von p. 18. (a) In Zp sind alle Elemente a ⋅ 1 mit 1 ≤ a < p verschieden von Null, aber p ⋅ 1 = 0. Also hat Zp die Charakteristik p. (b) In einem Körper der Charakteristik p ist die Menge {a ⋅ 1 | 0 ≤ a < p} ein Körper, der isomorph zu Zp ist. (c) Sei k ein Element von K, das nicht in dem zu Zp isomorphen Teilkörper F liegt. Dann sind die Elemente a + kb mit a, b ∈ F alle verschieden. 19. Der Körper GF(2) hat nur die Identität als Automorphismus, denn 0 und 1 müssen in jedem Fall festbleiben. Auch GF(3) hat nur die Identität als Automorphismus. Dagegen hat GF(4) zwei Automorphismen. 20. Sei f ein Automorphismus von Zp . Da f (1) = 1 ist, gilt auch f (2) = f (1+1) = f (1)+f (1) = 1+1 = 2. Analog folgt f (3) = 3, . . . , f (p−1) = p−1. Also ist f = id. Allgemein gilt: Jeder Automorphismus eines Körpers lässt den Primkörper elementweise fest. 21. (a) Angenommen, das Element a ≠ 0 würde durch f auf 0 abgebildet werden. Dann folgte f (1) = f (a−1 ⋅ a) = f (a−1 ) ⋅ f (a) = f (a−1 ) ⋅ 0 = 0: Widerspruch. (b) Sei f (a) = f (b). Dann ist f (a − b) = f (a) − f (b) = 0. Nach (a) ist dann a − b = 0, also a = b. Kapitel 3 1. Tun Sie das! 2. In den ersten beiden Fällen werden die Addition und die Skalarmultiplikation komponentenweise definiert, im dritten Fall punktweise. 3. Die Behauptung ist bei diesem Gleichungssystem besonders einfach zu zeigen, denn die einzige Lösung ist x = 0, y = 0, z = 0. Der Lösungsraum hat keinen Freiheitsgrad. 11.2 Tipps zur Lösung der Übungsaufgaben 345 4. +, −, +, +, − 5. (a) Eine Gerade g der euklidischen Ebene R2 durch den Nullpunkt ist die Menge der Punkte (x, y), die einer Gleichung y = mx+b genügen (m, b ∈ R fest), d. h. g = {(x, y)∣y = mx + b}. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. Dafür kann man die Axiome eines Vektorraums leicht nachweisen. (b) Jede Ebene E des R3 durch den Nullpunkt besteht aus den Punkten (x, y, z), die einer Gleichung ax + by + cz = 0 genügen. Beweis analog zu (a). Eine Gerade der euklidischen Ebene R2 , die nicht durch den Nullpunkt geht, enthält nicht den Nullvektor, kann also kein Unterraum sein. (a) (0, 0, 0), (1, 2, 1), (1/2, 0, 1), (1, −2, 1), (2000, 2000, 3000), . . . (b) Ein Tripel (a, b, c) ist ein Gewichtssatz, falls gilt 20a = 5b + 10c. Diese Tripel bilden einen Vektorraum. (c) 2 Der Nachweis der Körperaxiome vereinfacht sich u. a. dadurch, dass man die gesamten Eigenschaften der Addition „geschenkt bekommt“. Jeder Vektor, der an den beiden letzten Komponenten verschiedene Einträge hat, liegt nicht im Erzeugnis der beiden Vektoren. In allen anderen Fällen erzeugen die angegebenen Vektoren den R3 . Das schaffen Sie ohne Hilfe! Sei a(1, x, x2 ) + b(1, y, y2 ) + c(1, z, z2 ) = (0, 0, 0), wobei x, y, z drei verschiedene Elemente ≠ 0 sind. Dann gilt a+b+c = 0, ax + by + cz = 0 und ax2 + by2 + cz2 = 0. Daraus erhält man a = b = c = 0. (a) k ⋅ o = k ⋅ (o + o) = k ⋅ o + k ⋅ o. Wenn man auf beiden Seiten −k ⋅ o addiert, ergibt sich o = k ⋅ o. (−k) ⋅ v + k ⋅ v = (−k+k) ⋅ v = 0 ⋅ v = o. Also ist (−k) ⋅ v das Inverse von kv, d. h. (−k) ⋅ v = −kv. k ⋅ (−v) + k ⋅ v = k ⋅ (−v+v) = k ⋅ o = o. Also . . . (b) k1 ⋅ v = k2 ⋅ v ⇔ (k1 − k2 ) ⋅ v = o ⇔ k1 − k2 = 0 ⇔ k1 = k2 . (a) Wenn v und w Linearkombinationen der Vektoren v1 , . . . , vn sind, dann ist auch v+w eine Linearkombination der Vektoren v1 , . . . , vn . Sei zunächst B eine Basis. Dann ist B nach Definition ein Erzeugendensystem. Dieses ist auch minimal: Angenommen, für v ∈ B wäre auch B\{v} eine Basis. Dann wäre v eine Linearkombination der anderen Vektoren aus B; also wäre B nicht linear unabhängig. Umgekehrt möge B ein minimales Erzeugendensystem sein. Wäre B nicht linear unabhängig, dann könnte man einen Vektor v aus B als Linearkombination der anderen darstellen. Dann wäre auch B\{v} ein Erzeugendensystem: Widerspruch. (c) Sei vi der Vektor, der an den ersten i Stellen eine Eins und sonst Nullen hat. dim(K m×n ) = mn. Eine Basis besteht aus den Matrizen, die an genau einer Stelle eine Eins und überall sonst eine Null haben. 346 11 Lösungen 17. (a) Die „einfachste“ Basis besteht aus allen 1-elementigen Teilmengen von X, d. h. B = {{x}| x ∈ X}. (b) Sei X = {x1 , x2 , . . . , xn }. Dann ist B = {{x1 , x2 }, {x2 , x3 }, ..., {xn – 1 , xn }, {xn , x1 }} eine Basis von V. (c) dim(V) = n. 18. (a) Der Trick besteht darin, sich zu überlegen, dass die symmetrische Differenz zweier Teilmengen mit einer geraden Zahl von Elementen wieder eine Teilmenge mit einer geraden Zahl von Elementen ist. (b) Es gibt eine Teilmenge Z gerader Mächtigkeit von X, so dass die symmetrische Differenz von Y und Z eine einelementige Menge ist. Mit dieser kann man mit Hilfe anderer Elemente aus W alle 1-elementigen Teilmengen von X bilden. Also erzeugt Y zusammen mit den Elementen aus W ganz V. Daher muss W eine Hyperebene von V sein. (c) Nach (b) ist W ein (n−1)-dimensionaler Vektorraum über GF(2); somit hat W genau 2n−1 Elemente. Da V ein n-dimensionaler Vektorraum ist, hat V genau 2n Elemente. Daher liegen außerhalb von W ebenfalls 2n − 2n−1 = 2n−1 Elemente. Das bedeutet, dass eine endliche Menge genau so viele Teilmengen gerader wie ungerader Mächtigkeit hat, nämlich jeweils genau 2n−1 viele. 19. Wir müssen für U die Vektorraumaxiome nachweisen. Die zweite bzw. dritte Bedingung sagt, dass die Skalarmultiplikation bzw. die Addition von Vektoren auf U abgeschlossen ist. Aus der ersten und dritten Bedingung folgt, dass der Nullvektor in U liegt. Alle anderen Gesetze ergeben sich aus der Tatsache, dass U eine Teilmenge des Vektorraums V ist. 20. Aufgabe 13 und Aufgabe 19. 21. (a) Wenden Sie das Unterraumkriterium an. (b) Zum Beispiel ist B = {(1, 0, −1), (0, 1, −1)} eine Basis von U. (c) Man kann B zum Beispiel durch jeden der Einheitsvektoren zu einer Basis von V ergänzen. 22. (a) Vektorraumaxiome nachrechnen. (b) Unterraumkriterium. 23. O. B. d. A. sei C ein minimales Erzeugendensystem. Dann ist C eine Basis. Also enthält C genau n Vektoren. Also hat jedes Erzeugendensystem mindestens n Vektoren. Ferner muss ein Erzeugendensystem aus n Vektoren minimal, also eine Basis sein. 24. (a) Wenden sie das Unterraumkriterium an. (b) Es gilt U+U ′ = ⟨U, U ′ ⟩. Denn U+U ′ ist ein Unterraum, der U und U ′ enthält und in ⟨U, U ′ ⟩ enthalten ist. 25. (a) gilt nur dann, wenn U = {o} = U ′ ist. (b) nein. (c) ja. 26. B ∪ B′ ist ein Erzeugendensystem, denn ⟨B ∪ B′ ⟩ = ⟨U, U ′ ⟩ = V. Bliebt zu zeigen, dass B ∪ B′ linear unabhängig ist: Sei v eine Linearkombination aus B und v′ eine Linearkombination aus B′ mit v + v′ = o. Dann ist v = − v′ ein Vektor aus U ∩ U ′ , also v = v′ = o. Der Rest folgt aus der Tatsache, dass B und B′ Basen sind. 27. Der Nullraum {o} und der gesamte Vektorraum haben nur ein Komplement. 11.2 Tipps zur Lösung der Übungsaufgaben 347 28. Wenden Sie das Unterraumkriterium an. 29. (a) Die mengentheoretische Vereinigung U ∪ U ′ ist nur dann ein Unterraum, wenn U in U ′ oder U ′ in U enthalten ist. (b) Siehe (a). 30. Da der Unterraum U den Nullvektor enthält, kann das Komplement den Nullvektor nicht enthalten. Also ist das Komplement von U kein Unterraum. 31. Führen Sie die geforderten Eigenschaften von V/U auf die entsprechenden Eigenschaften von V zurück. 32. Die notwendige und hinreichende Bedingung lautet st − 1 ≠ 0. 33. (a) Der Ansatz a ⋅ c1 + b ⋅ c2 + c ⋅ c3 = o liefert schnell a = b = c = 0. Also sind die Vektoren c1 , c2 , c3 linear unabhängig, somit bilden sie eine Basis. (b) Im Fall K = GF(2) ist c1 = c3 , also bilden die Vektoren keine Basis, während im Fall K = GF(3) die Vektoren c1 = v2 +2v3 , c2 = v1 +v2 +v3 und c3 = v1 +v2 +2v3 eine Basis bilden. 34. (a) Man rechnet nach, dass B := {(1, 2, 3, 4), (2, 0, 1, −1), (−1, 0, 0, 1), (0, 2, 3, 0)} linear unabhängig ist. (b) (0, 4, 5, 9) kann durch den ersten oder den dritten Vektor ersetzt werden . . . 35. Offenbar sind die Vektoren (1, 2, t+2) und (0, t, 1) linear unabhängig. Also hat das Erzeugnis mindestens die Dimension 2. Genau dann ist (−1, t+1, t) eine Linearkombination von (1, 2, t+2) (0, t, 1), wenn t = 1 oder t = −3/2 gilt. In diesen Fällen ist die Dimension des Erzeugnisses also 2. in allen anderen Fällen 3. 36. (a) Unterraumkriterium. (b) Da die Folgenglieder a3 , a4 , a5 , . . . durch Vorgabe von a1 und a2 bestimmt sind, gilt dim(V) = 2. (c) B = {(1, 1, 2, 3, 5, 8, . . . ), (0, 1, 1, 2, 3, 5, . . . )} ist eine Basis von V. Bemerkung: Die erste Folge ist die Folge der Fibonacci-Zahlen. Kapitel 4 1. (2 ⋅ 2 + 0 ⋅ 0 + 1 ⋅ 1 + 4 ⋅ 4) = (21), ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ ⎞ ⎟ ⎟. ⎟ ⎟ ⎠ 2. Man erhält das Element cij der Matrix A ⋅ En , indem man die i-te Zeile von A mit der j-ten Spalte von En multipliziert. Da in der j-ten Spalte von En an der j-ten Stelle eine Eins und an den anderen Stellen Nullen stehen, ist das Ergebnis aij ⋅ 1 = aij . 3. In allen Fällen ist die i-te Komponente gleich ∑ j a i j ⋅ kx j = k ⋅ ∑ a i j x j . 4. Das ist zwar mathematisch genau gleich schwer, aber technisch komplizierter. Sie müssen also sorgfältig arbeiten (leserlich schreiben usw.). 348 11 Lösungen 5. Die geraden Potenzen sind gleich der Einheitsmatrix. 6. Die Ränge sind 2, 3, 4. 7. Die erste Spalte von A ⋅ B ist gleich s1 ⋅ b11 + s2 ⋅ b21 + . . . + sn ⋅ bn1 , wobei s1 , s2 , . . . , sn die Spalten von A sind. 8. Rang(A) = 2, Rang(B) = 3, Rang(AB) = 2. (Aufgrund der vorigen Aufgabe ist Rang(AB) ≤ 2, und man sieht unmittelbar, dass AB nicht den Rang 0 oder 1 hat.) 9. Die Matrix hat den Rang n. 10. Eine Menge linear unabhängiger Zeilen bleibt linear unabhängig, wenn man zwei Zeilen vertauscht (Typ 1), wenn man eine Zeile mit a ≠ 0 multipliziert (Typ 2) oder wenn man das a-fache einer Zeile zu einer anderen addiert (a ≠ 0). 11. Da M den Rang n hat, gibt es ein von Null verschiedenes Element in der ersten Spalte. Dann kann man allein durch elementare Zeilenvertauschungen erreichen, dass die erste Spalte oben eine 1 und sonst nur Nullen enthält. Für die anderen Spalten argumentiert man entsprechend. 12. Wenn (k1 , k2 , . . . , kn ) eine Lösung für die Zeilen z1 und z2 ist, dann ist (k1 , k2 , . . . , kn ) auch eine Lösung für az1 und z2 . Für a ≠ 0 gilt auch die Umkehrung. 13. Die Lösungen bestehen aus allen reellen Vielfachen von (22, 14, −19, 10). 14. Zwar hat das Gleichungssystem aus den ersten drei Zeilen die unendlich viele Lösungen (k, − 2k, k + 1/3). Jedoch: Wenn man diese in die letzte Gleichung einsetzt, erhält man einen Widerspruch! 15. Die Koeffizientenmatrix hat den Rang 2. Im Fall (a) gibt es eine Lösung, im Fall (b) nicht. 16. Das Gleichungssystem ist genau dann lösbar, wenn a = 3b+2 ist. 17. Existenz einer Lösung: Zum einen gilt: Rang(A b) ≤ n, da A nur n Zeilen hat. Zum andern ist Rang(A b) ≥ Rang(A) = n. Also ist Rang(A b) = Rang(A), und damit ist das Gleichungssystem lösbar. 18. Sei U = v + W, wobei W ein Unterraum des Vektorraums V ist. Dann ist L(U) = W. 19. Sei vi = v + wi ∈ U = v + W, wobei W ein Unterraum von V ist. Dann gilt für jede affine Linearkombination: k1 v1 + k2 v2 + . . . + kn vn = k1 (v+w1 ) + k2 (v+w2 ) + . . . + kn (v+wn ) = (k1 +k2 + . . . +kn )v + k1 w1 + k2 w2 + . . . + kn wn = 1 ⋅ v + k1 w1 + k2 w2 + . . . + kn wn ∈ v + W = U. 20. Dies kann man entweder durch direkten Vergleich von je zwei Codewörtern nachweisen, oder man kann feststellen, dass der Code linear ist, und sehen, dass sein Minimalgewicht 3 ist. 21. Die Matrix H hat höchstens den Rang r, da sie nur r Zeilen hat. Andererseits hat sie mindestens den Rang r, da sie als Spalten die r Einheitsvektoren der Länge r enthält. 22. (a) Wenn nur s Fehler passieren, kann kein Codewort in ein anderes Codewort transformiert werden. Der Empfänger, der die Strategie hat, nur Codeworte zu akzeptieren, nimmt daher nie ein „falsches“ Codewort an. (b) Wenn der Code s-fehlererkennend ist, dann muss sein Mimimalabstand größer als s sein, denn sonst könnte durch höchstens s Fehler ein Codewort in ein verschiedenes überführt werden. Wenn umgekehrt d(C) ≥ s+1 ist, dann können keine 11.2 Tipps zur Lösung der Übungsaufgaben 349 zwei verschiedene Codewörter durch s oder weniger Fehler ineinander überführt werden. 23. C ist ein Unterraum (Unterraumkriterium!), also ein linearer Code. Er enthält nach Definition keine Vektoren vom Gewicht 1, aber zum Beispiel den Vektor (1, 1, 0, . . . , 0). Also hat C Minimalgewicht 2 und ist daher 1-fehlererkennend. 24. Entweder können Sie für jedes angegebene Codewort c nachweisen, dass c ⋅ H T = 0 gilt, oder Sie können alle Vektoren v mit v ⋅ H T = 0 berechnen und diese und mit der angegebenen Liste vergleichen. Kapitel 5 1. Wenn w0 = o ist, ist f die Nullabbildung, also eine lineare Abbildung. Wenn w0 ≠ o ist. Dann ist zum Beispiel f (2v) = f (v + v) = f (v) + f (v) = w0 + w0 ≠ w0 (= f (2v)). 2. Nein, nein, ja. 3. (a) f (v1 + v2 + v3 ) = f ((v1 + v2 ) + v3 ) = f (v1 + v2 ) + f (v3 ) = f (v1 ) + f (v2 ) + f (v3 ). 4. Sei k1 w1 + . . . + kn wn = o. Dann ist o = k1 w1 + . . . + kn wn = k1 f (v1 ) + . . . + kn f (vn ) = f (k1 v1 + . . . + kn vn ). Da f injektiv ist, muss wegen f (o) = o auch k1 v1 + . . . + kn vn = o sein. Da {v1 , . . . , vn } eine Basis ist, folgt k1 = . . . = kn = 0. 5. Sei w ∈ W beliebig. Da f surjektiv ist, gibt es ein v ∈ V mit w = f (v). Sei v = k1 v1 + . . . + kn vn . Dann ist w = f (v) = f (k1 v1 + . . . + kn vn ) = k1 w1 + . . . + kn wn . Also ist {w1 , . . . , wn } ein Erzeugendensystem von W. 6. Die Elemente der Basis {(1, 0), (0, 1)} können auf beliebige Elemente von GF(2)2 abgebildet werden. Da GF(2)2 genau 4 Elemente besitzt, gibt es genau 4 ⋅ 4 = 16 lineare Abbildungen von GF(2)2 nach GF(2)2 . 7. Es gilt (f + g)′ = f ′ + g ′ und (k ⋅ f )′ = k ⋅ f ′ . 8. Dass f linear ist, ist klar bzw. folgt durch direktes Nachrechen. Kern(f ) = ⟨(1,−1, 1)⟩, Bild(f ) = ⟨(1, 0, −1), (2, 1, 3)⟩. 9. Kern(f ) = ⟨(2, −1, 1)⟩. Bild(f ) wird von je zwei Bildern der Basisvektoren aufgespannt. 10. (a) Nachrechnen. (b) Im ersten Fall ist die Darstellungsmatrix gleich B MC ( f ) ⎛ − = ⎜ − ⎝− ⎞ ⎟ . −⎠ Im zweiten Fall werden die Basisvektoren auf (0, 12, 0), (−2, 0, 4), (2, 48, −4) abgebildet. 11. (a) B MB ( f ) ⎛− − −⎞ =⎜ ⎟ . ⎝ − − − ⎠ 350 11 Lösungen 12. Durch Anwenden der Matrix A auf die Einheitsvektoren von K m erhält man ein Erzeugendensystem von Bild(f ). Da dies gleichzeitig ein Erzeugendensystem für den von den Spalten von A aufgespannten Unterraum von K m ist, folgt die Behauptung. 13. Es gibt zwei kritische Werte von a. Falls a = 1 ist, ist Bild(f ) der 1-dimensionale Unterraum ⟨v1 +v2 + . . . +vn ⟩. Im Fall a = n−1 ist Bild(f ) = {k1 v1 + k2 v2 + . . . + kn vn | k1 +k2 + . . . +kn = 0} und dim(Bild(f )) = n−1. In allen anderen Fällen ist Bild(f ) = V. 14. Sei {v1 , v2 , . . . } eine Basis von V. Dann wird durch f (v1 ) := v1 und f (vi ) := o für i ≥ 2 eine lineare Abbildung definiert, die weder injektiv noch surjektiv ist. 15. Der Nullraum besitzt nur eine lineare Abbildung in sich, diese ist bijektiv. Jeder Vektorraum einer Dimension ≥ 2 besitzt mindestens eine nichtidentische bijektive Abbildung; man kann z. B. die Elemente einer Basis permutieren. Betrachten wir schließlich Vektorräume der Dimension 1. Wenn der Körper ein Element a ≠ 0, 1 besitzt, kann man jeden Vektor v ≠ o auf av abbilden. Dies ergibt eine nichtidentische lineare Abbildung. Mit anderen Worten: Nur der Nullraum und der 1-dimensionale Vektorraum über Z2 besitzt nur eine bijektive lineare Abbildung in sich. 16. Reflexivität: S = id. Symmetrie: S = S−1 . Transitivität: Seien M ′ = S−1 MS und M ′′ = T −1 M ′ T. Dann gilt M ′′ = T −1 M ′ T = T −1 (S−1 MS)T = (T −1 S−1 )M(ST) = (ST)−1 M(ST). 17. Man rechnet leicht nach, dass f eine lineare Abbildung ist. Da offenbar Bild(f ) = K ist, also die Dimension 1 hat, gilt dim(Kern(f )) = 9 − 1 = 8. Man erhält eine Basis von Kern(f ), indem man zunächst die Diagonale gleich Null setzt, und jeweils einen der Einträge außerhalb 1 und alle anderen gleich Null wählt; das ergibt schon sechs Vektoren. Die beiden anderen erhält man, indem man alle Elemente gleich Null setzt – bis auf a11 und a22 bzw. a11 und a33 , von denen man jeweils einen Wert 1 und den anderen −1 setzt. 18. Man rechnet einfach nach, dass f eine lineare Abbildung ist. Da offenbar Bild(f ) = K ist, also die Dimension 1 hat, besitzt Kern(f ) die Dimension 4 − 1 = 3. Die folgenden Vektoren bilden eine Basis von Kern(f ): ( − ),( ),( ). − − 19. (a) Nachrechnen. (b) Offenbar ist Bild(f ) = K 3 , denn schon, indem man a22 , a33 , a23 , a31 , a21 und a32 Null setzt, kann man jeden Vektor aus K 3 erreichen. Also ist dim(Bild(f )) = 3, und somit dim(Kern(f )) = 9 − 3 = 6. 11.2 Tipps zur Lösung der Übungsaufgaben 351 (c) Die folgenden Vektoren bilden eine Basis von Kern(f ): ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎜ ⎟ , ⎜ ⎟ , ⎜ ⎟ , ⎜ ⎟ , ⎝ −⎠ ⎝ ´ −⎠ ⎝− ⎠ ⎝− ⎠ ⎛ ⎜ ⎝ ⎞ ⎛ ⎞ ⎟ , ⎜ ⎟ − ⎠ ⎝ − ⎠ 20. Man kann durch Anwenden der Definition einer Linearform alle geforderten Eigenschaften auf die entsprechenden Eigenschaften von K zurückführen. Kapitel 6 1. Man führt die nachzuweisenden Eigenschaften von Zn auf die entsprechenden Eigenschaften von Z zurück. 2. Benennen Sie die Elemente von A, B und C und rechnen Sie jeweils die linke und rechte Seite aus. 3. Die Gesetze der Addition sind schon längst bekannt, da n×n-Matrizen über K einen Vektorraum bilden. Die (wenigen) Gesetze der Multiplikation und die Distributivgesetze muss man eben nachrechnen. 4. Für fast alle Matrizen A, B aus K n × n mit n ≥ 2 gilt AB ≠ BA. 5. Die Summe zweier invertierbarer Matrizen kann eine nichtinvertierbare Matrix sein, die nicht gleich der Nullmatrix ist. Beispiel: ( )+( )=( − ). 6. Die Elemente an der Stelle (i, j) der Matrizen (k ⋅ En ) ⋅ A und A ⋅ (k ⋅ En ) sind k ⋅ aij bzw. aij ⋅ k. 7. (a) Der Beweis funktioniert wörtlich wie bei K[x]. (b) Das Einselement von R ist auch das Einselement von R[x]. 8. Formal gilt K[x, y, z] = ((K[x])[y])[z] (der Polynomring in der Unbestimmten z, dessen Koeffizienten Elemente von K[x, y] sind). Wenden Sie zweimal Übungsaufgabe 7 an. 9. q = x4 − x + 1, r = x2 . 10. Vergleiche vorige Aufgabe. 11. q = 2x4 + 2x3 + x + 1, r = 2x+1. 12. x3 − 19x + 30 = (x − 2)(x − 3)(x + 5). 13. x3 − 2x + 4 = (x + 2)( x2 − 2x + 2). Da x2 − 2x + 2 = (x − 2)2 + 1 > 0 ist für alle x ∈ R, zerfällt das Polynom weder über Q noch über R. 14. x4 + 1 = (x+1)4 , x4 + x3 + x + 1 = (x+1)2 (x2 +x+1), x5 + 1 = (x+1)(x4 +x3 +x2 +x+1). 352 11 Lösungen 15. (a) Wir wissen, dass dann f = a(x − k1 ) . . . (x − kn ) ist (a unbekannt). Wenn f normiert ist, ist a = 1, und man erhält die Koeffizienten durch einfaches Ausmultiplizieren. (b) Schlagen Sie in der Literatur (z. B. in Büchern über Numerische Mathematik) die Interpolationsformel von Lagrange nach. Meist wird diese nur über R bewiesen. Machen Sie sich klar, dass sie über jedem Körper funktioniert. 16. Wenn man b in (x − a)v einsetzt, erhält man (b − a)v . Dieses Produkt ist nur dann gleich Null, wenn einer der Faktoren Null ist, also wenn b − a = 0 gilt. 17. Angenommen, es gäbe zwei normierte Polynome g und h, die I erzeugen. Dann müssen diese den gleichen Grad haben (da g ein Vielfaches von h und h ein Vielfaches von g sein muss). Dann ist g − h ein Polynom kleineren Grades als g, das in I liegt. Also . . . 18. (a) Da f nur endlich viele Nullstellen hat, muss K endlich sein. (b) Sei K = {0, 1, k3 , . . . , kn } endlich. Dann ist f = x(x − 1)(x − k3 ) . . . (x − kn ) ein Polynom, das alle Elemente von K als Nullstellen hat. 19. Es ist nur die magnetische Anziehungseigenschaft zu zeigen. Für jedes Polynom g aus K[x] und jedes Polynom f aus U ist zu zeigen, dass gf in U liegt. Aus der Voraussetzung folgt, dass für jede Potenz xk das Polynom xk ⋅ f in U liegt. Da U ein Unterraum ist, ist dann auch g = b0 + b1 x + b2 x2 + . . . + bm xm in U enthalten. 20. (a) (r + I) + (r′ + I) := r+r′ + I, s ⋅ (r + I) := s ⋅ r + I. 21. Sei f ein Polynom aus K[x]. Zeigen Sie: (a) folgt direkt aus der vorigen Aufgabe. (b) Wenn f irreduzibel ist, dann gibt es zu jedem Polynom g mit 0 ≤ Grad(g) < Grad(f ) Polynome f ′ und g ′ mit 1 = ff ′ + gg ′ . Dann ist g ′ + I(f ) eine multiplikative Inverse von g+I(f ) in K[x]/I(f ). Also ist K[x]/I(f ) ein Körper. (c) Wenn f ein über GF(p) irreduzibles Polynom vom Grad n ist, ist GF(p)[x]/I(f ) ein Körper, dessen Elemente durch alle Polynome über GF(p) vom Grad < n repräsentiert werden. Also hat dieser Körper genau pn Elemente. 22. (a) Nachrechnen der definierenden Eigenschaften eines Ideals. (b) x2 + 1, x2 − 2x + 2. 23. Nachrechnen der definierenden Eigenschaften eines Ideals. 24. Man wendet schrittweise Polynomdivision an. Sei f = qg + r mit Grad(r) < Grad(g). Dann ist die Menge der Teiler von f und g gleich der Menge der Teiler von g und r. Somit ist jeder ggT von f und g auch ein ggT von g und r und umgekehrt. Damit kann man die Berechnung der ggT auf Polynome immer kleineren Grades zurückführen. 25. I(f , g) ⊆ I(h), da jedes Polynom der Form rf + sg (r, s ∈ K[x]) ist auch ein Vielfaches von h, da f und g Vielfache von h sind. I(h) ⊆ I(f , g), denn h kann in der Form rf + sg geschrieben werden (Vielfachsummendarstellung). Also ist jedes Vielfache von h ein Element der Form r′ f + s′ g. 26. x7 +x5 +x3 +1 = (x3 +x+1)(x4 +x) + x+1. Da der ggT von x3 +x+1 und x+1 gleich 1, erzeugen die Polynome x7 +x5 +x3 +1 und x3 +x+1 nach Aufgabe 25 ganz GF(2)[x]. 27. Das Polynom x+1 ist ein größter gemeinsamer Teiler von x2 −1, x3 +2x2 +2x+1 und x4 +x3 +x+1. 28. Die Aussage folgt direkt aus Aufgabe 25. 11.2 Tipps zur Lösung der Übungsaufgaben 353 Kapitel 7 1. (1 2 3), (1 3 2). (1 2 3 4), (1 2 4 3), (1 3 2 4), (1 3 4 2), (1 4 2 3), (1 4 3 2). Allgemein: Man kann o. B. d. A. das Element 1 an die erste Stelle setzen und die restlichen Elemente beliebig permutieren. 2. Wenn (i, j) ein Fehlstand von π ist, dann ist (π(j), π(i)) ein Fehlstand von π −1 . 3. 0, 21, 108. 4. 28, −80. Die Determinante der dritten Matrix kann man rekursiv berechnen: Sei dn der Wert der Determinante bei einer n×n Matrix. Dann ist d1 = 1, d2 = 1 − a2 und dn = dn −1 − a2 ⋅ dn −2 für n > 2. 5. Wenn man zunächst die erste Zeile von allen anderen Zeilen subtrahiert und dann die 2-te, 3-te, . . . , n-te Spalte zur ersten addiert, kommt man leicht auf die Determinante (a−b)n−1 (a + (n−1)b). [Vergleichen Sie auch Aufgabe 11 aus Kap. 4.] 6. Die Determinante einer Permutationsmatrix ist 1 oder −1. Beweis durch Induktion nach n. 7. Tun Sie das! 8. Die Homogenität ergibt sich genau so wie die Additivität, ist aber einfacher nachzuweisen. 9. Sie können sich dabei Schritt für Schritt am Beweis für die Entwicklung nach der ersten Zeile entlanghangeln. n n k= k= 10. Der Eintrag an der Stelle (i, j) von (AB)T ist ∑ a jk b ki = ∑ b ki a jk . Dieser ist gleich dem Eintrag an der Stelle (i, j) von BT AT . 11. Es ist klar, dass die Transponierte der Summe von Matrizen gleich der Summe der Transponierten ist (Additivität). Da auch die Homogenität gilt, ist das Transponieren von Matrizen aus K n ×n eine lineare Abbildung. 12. Multiplikationssatz. 13. Man rechnet nach, dass für diesen Kandidaten für A−1 gilt: AA−1 = E und A−1 A = E. Kapitel 8 1. Sei B = {v1 , v2 , . . . , vn }. Dann gilt Bild(f ) = ⟨f (v1 ), f (v2 ), . . . , f (vn )⟩. Sei o. B. d. A. w1 = f (v1 ), . . . , ws = f (vs ) eine Basis von Bild(f ). Man ergänze diese zu einer Basis B′ = {w1 , . . . , ws , ws+1 . . . , wm } von W. Dann hat B M(f )B ′ die gewünschte Gestalt. 2. Mx = kx ⇔ Mx − kx = 0 ⇔ (M − kE)x = 0. Umgekehrt ist k genau dann ein Eigenwert von M, wenn det(M − kE) = 0 gilt, d. h. wenn die Spaltenvektoren von M − kE linear abhängig sind, wenn es also einen Vektor x ≠ 0 gibt mit (M − kE)x = 0. √ √ 3. Die Eigenwerte sind −1, 3 + 15, 3 − 15. 4. Viele reelle Matrizen haben keine reellen Eigenwerte, z. B. die Matrix ( ). 5. (a) Sei x ein Eigenvektor zum Eigenwert k von M. Sei y := A(x). Da A regulär ist, ist y ≠ 0. Damit folgt: AMA−1 (y) = AM(x) = A(kx) = k ⋅ A(x) = ky. Also ist y ein Eigenvektor zum Eigenwert k von AMA−1 . 354 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 11 Lösungen (b) Basiswechsel entspricht Übergang zu einer ähnlichen Matrix. Ähnliche Matrizen haben nach (a) die gleichen Eigenwerte. Das charakteristische Polynom ist −(x−1)(x−2)2 . Also hat M die Eigenwerte 1 und 2. Der Eigenraum zum Eigenwert 1 ist ⟨(1, 1, 2)⟩; der Eigenraum zum Eigenwert 2 ist ⟨(1, 2, 3)⟩. χM = −(x−1)(x−2)(x+3), χM = −(x−1)2 (x−2) . . . (a) χM = −x3 + cx2 + bx + a. (b) Wählen Sie die Werte für a, b, c so, dass χM keine Nullstelle in GF(3) hat. . . . k−1 . (b) Mit Induktion folgt, dass M t den Eigenwert kt hat: Sei v ein Eigenvektor zum Eigenwert k. Dann ist M t (v) = M t−1 M(v) = M t−1 (k ⋅ v) = k ⋅ (M t−1 (v)) = k ⋅ (kt−1 ⋅ v) = . . . (c) Sei M = En . Dann ist auch M 2 = En . Zwar hat M 2 den Eigenwert 1 = (−1)2 , aber M hat nicht den Eigenwert −1. Sei v ein Eigenvektor zum Eigenwert k. Mit der vorigen Aufgabe folgt: k2 ⋅ v = f 2 (v) = f (v) = k ⋅ v. Also ist k(k−1) ⋅ v = o, und somit . . . 1. Lösungsmöglichkeit: Sie „sehen“, dass die Vektoren ( ) und ( ) Eigenvektoren zu − den verschiedenen Eigenwerten a+b und a−b sind. 2. Lösungsmöglichkeit: Sie berechnen das charakteristische Polynom: x2 −2ax +a2 −b2 = (x− (a+b))(x − (a − b)), das in verschiedene Nullstellen zerfällt. Achtung! Bei Körpern der Charakteristik 2 sind die Eigenwerte bzw. die Linearfaktoren nicht verschieden! χM = −(x−1)(x−2)2 , μM = (x−1)(x−2). Also ist M diagonalisierbar. Suchen Sie (zum Beispiel) eine 2×2-Matrix, deren charakteristisches Polynom x2 − 2 ist. Der gesuchte Eigenwert ist die konstante Zeilensumme, ein zugehöriger Eigenvektor der Vektor, der nur aus Einsen besteht. Eigenvektoren zu den angegebenen Eigenwerten sind: ⎛⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎜⎟ ⎜−⎟ ⎜ i ⎟ ⎜−i ⎟ ⎜ ⎟,⎜ ⎟,⎜ ⎟,⎜ ⎟. ⎜⎟ ⎜ ⎟ ⎜−⎟ ⎜−⎟ ⎜⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝⎠ ⎝−⎠ ⎝−⎠ ⎝ i ⎠ 17. Wegen dim(K n ×n ) = n2 =: m gilt k0 E + k1 M + k2 M 2 + . . . + km M m = 0 (nicht alle ki = 0). Dann ist f = k0 + k1 x + k2 x2 + . . . + km xm ein Polynom, das nicht das Nullpolynom ist, die Matrix M als Nullstelle hat und einen Grad ≤ m = n2 hat. 18. Aus f 2 = 0 folgt χf = x2 . Also ist μf = x oder μf = x2 . Im ersten Fall ist f = 0, im zweiten Fall zeigt man, dass es Darstellungsmatrix in der angegebenen Form gibt. 19. Entwicklung nach der ersten Spalte und Induktion. 11.2 Tipps zur Lösung der Übungsaufgaben ⎛ ⎜ 20. ⎜ ⎜ ⎜ ⎝ 355 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ 21. x2 − k1 x − k0 , −x3 + k2 x2 + k1 x + k1 , x4 − k3 x3 − k2 x2 + k1 x + k0 , . . . 22. μf = (x−1)(x−2)2 ; μM = (x−1)(x−2)(x+3), μM = −(x−1)(x−2). 23. Da das charakteristische Polynom gleich ±xn ist, gilt μf = xk mit k ≤ n. Wenn man die Potenzen von M bildet, rutscht die Diagonale aus Einsen jeweils um eine Stelle weiter nach links unten. Also ist μf = xn . 24. Nachrechnen und Anwenden des Satzes über Ideale eines Polynomrings. Kapitel 9 1. Ein Ideal ist eine additive Untergruppe eines Rings, die die magnetische Anziehungseigenschaft hat. 2. Sei U eine Untergruppe von (Z, +). Wenn U = {0} ist, dann ist U = 0Z. Sei also U ≠ {0}. Dann liegen in U auch positive Zahlen. Sei n die kleinste positive Zahl in U. Dann ist natürlich nZ ⊆ U. Umgekehrt kann man leicht zeigen, dass jedes Element aus U ein ganzzahliges Vielfaches von n ist. D.h. U ⊆ nZ. 3. Untergruppenkriterium: Offenbar ist Zn * nicht leer, da zumindest die Zahl 1 in Zn * liegt. Dass mit jedem Element auch das Inverse in Zn * liegt, folgt aus der Definition von Zn *. Seien schließlich a, b ∈ Zn *. Da ab das Inverse b−1 a−1 ∈ Zn * hat, liegt auch das Produkt in Zn *. 4. Die Symmetrien eines Rechtecks, das kein Quadrat ist, bestehen neben der Identität aus zwei Spiegelungen an den Symmetrieachsen und der Punktspiegelung am Mittelpunkt des Rechtecks. Die Symmetrien bilden eine Gruppe, da jedes Element sein eigenes Inverses ist und die Operation abgeschlossen ist: Das Produkt der beiden Spiegelungen ist die Punktspiegelung usw. 5. Neben der Identität sind dies (a) die Drehungen um 90°, 180°, 270° um die Gerade, die die Mittelpunkte der quadratischen Seitenflächen verbindet, (b) Drehungen um 180° um die Geraden, die die Mittelpunkte der nichtquadratischen Seiten verbinden, (c) Drehungen um 180° um die Gerade, die die Mittelpunkte gegenüberliegender kanten der Länge b verbindet. Wenn man auch Spiegelungen zulässt, kommen weitere acht Abbildungen hinzu. 6. Neben der Identität besteht die Symmetriegruppe (a) aus den Drehungen um ±120° um eine Achse, die eine Ecke mit dem Mittelpunkt der gegenüberliegenden Seiten verbindet, (b) um Drehungen um 180° um eine Achse, die die Mittelpunkte gegenüberliegender Kanten verbindet. Wenn man auch Spiegelungen zulässt (die man an keinem Tetraeder real ausführen kann), dann ergeben sich (c) noch weitere 12 Symmetrien. 7. 4, 8 (16), 12 (24). 8. (a) Man bezeichnet zunächst die Flächen irgendwie, z. B. mit a, b, c, d, e, f (a unten, f oben, b, c, d, e im Uhrzeigersinn). 356 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 11 Lösungen Eine Drehung um 90° um eine Gerade, die zwei gegenüberliegende Seitenmitten verbindet, ist z. B. die Permutation (a)(f )(b c d e). Eine Drehung um 180° um eine Gerade, die zwei gegenüberliegende Kantenmitten verbindet, ist z. B. die Permutation (a f )(b e)(c d). Eine Drehung um 120° um eine Raumdiagonale ist z. B. die Permutation (a b e)(c f d). (a) Satz von Lagrange. (b) Die Untergruppen einer Ordnung k ≤ 4 erhält man als Erzeugnis eines k-Zyklus. Die Menge der Elemente, die 4 festlassen, ist eine Untergruppe der Ordnung 6 (isomorph zu S3 ). Die A4 ist eine Untergruppe der Ordnung 12, und S4 ist die Untergruppe der Ordnung 24. Eine Untergruppe der Ordnung 8 besteht neben der Identität aus den Elementen (1 2 3 4), (1 3)(2 4), (1 4 3 2), (1 3), (2 4), (1 2)(3 4), (1 4)(3 2). 1 und −1 sind die einzigen Elemente, die Z erzeugen. Z7 * wird von den Elementen 3 und 5 erzeugt; Z8 * ist eine Gruppe der Ordnung 7, sie wird also von allen Elementen ≠ 1 erzeugt. Sei a ein Element von Zn , das ein multiplikatives Inverses a′ hat. Das bedeutet aa′ ≡ 1 (mod n), also aa′ = 1 + kn. Daraus sieht man, dass jeder gemeinsame Teiler von a und n auch 1 teilt. Also ist ggT(a, n) = 1. Sei umgekehrt ggT(a, n) = 1. Dann gibt es nach dem Lemma von Bézout ganze Zahlen a′ und n′ mit 1 = aa′ + nn′ , also aa′ = 1 − nn′ . Es folgt, dass a′ das multiplikativ Inverse von a ist. ∣Z ∗p ∣ = p − , ∣Z ∗p ∣ = p(p − ) Beim Erzeugnis von Elementen einer Gruppe werden diese Elemente in beliebiger Weise mit Hilfe der Gruppenoperation verknüpft. Beim Erzeugnis von Vektoren werden die diese in beliebiger Weise mit Hilfe der Vektoraddition verknüpft – sie können aber zusätzlich mit Skalaren multipliziert werden. Sei G eine Gruppe gerader Ordnung. Es ist zu zeigen, dass es ein Element g ≠ e gibt, das zu sich selbst invers ist. (Denn aus g −1 = g folgt e = gg −1 = gg = g 2 .) Angenommen, es gäbe kein solches Element. Dann könnte man die Elemente ≠ e von G in Paare {g, g −1 } disjunkt aufteilen. Das geht aber höchstens dann, wenn |G|−1 gerade ist. Dies würde aber bedeuten, dass |G| ungerade ist: ein Widerspruch! Sei G eine abelsche Gruppe. (a) (gh)2 = (gh)(gh) = (gh)(hg) = g(hh)g = geg = gg = e. (b) Seien g und h zwei verschiedene Elemente der Ordnung 2. Dann ist die Menge {e, g, h, gh} aufgrund des Untergruppenkriteriums eine Untergruppe von G, also gleich dem Erzeugnis von g und h. (c) Sei x das erzeugende Element von G, d. h. G = {x, x2 , x3 , . . . , x2n = e} für eine natürliche Zahl n. Dann ist g n das einzige Element der Ordnung 2. Sei g ∈ G beliebig. Wenn g in U liegt, dann ist natürlich g −1 Ug = U. Sei also g ∈/ U. Dann ist gU ∪ U = G, da U den Index 2 hat. Wegen Ug ∩ U = ∅ muss Ug ⊆ gU, also g −1 Ug ⊆ U gelten. Daraus folgt, dass U ein Normalteiler ist. Die Untergruppen von S3 haben die Ordnungen 1, 2, 3, 6. Die nichttrivialen Untergruppen haben die Ordnungen 2 oder 3. Die Untergruppen der Ordnung 2 werden 11.2 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. Tipps zur Lösung der Übungsaufgaben 357 jeweils von einer Transposition erzeugt, während die Untergruppe der Ordnung 3 von einem (der beiden) 3-Zykel erzeugt wird. Seien g und h beliebige Elemente von G. Aus (hg)(hg) = e ergibt sich hg = (hg)−1 = g −1 h−1 . Mit (gh)(gh) = e folgt also: e = (gh)(gh) = g(hg)h = g(g −1 h−1 )h = e. Wir addieren einen von Null verschiedenen Vektor k mal: v+v+ . . . +v = k ⋅ v. Diese Summe ist nur dann Null, wenn k = 0 ist. Dies ist über GF(p) zum ersten Mal bei k = p Summanden der Fall. Wir fixieren eine Basis v1 , v2 , . . . , vn von V. Dann liefert die Abbildung, die jeder linearen Abbildung f ihre Darstellungsmatrix B MB (f ) zuordnet, den gewünschten Isomorphismus. |GL(n, q)| = (qn − 1) ⋅ . . . ⋅ (qn − qn−1 ), |GL(2, q)| = (q2 − 1) ⋅ (q2 − q) = q(q2 − 1)(q − 1), |GL(3, q) = (q3 − 1)(q3 − q)(q3 − q2 ). Untergruppenkriterium. Eine Nebenklasse besteht genau aus den Matrizen mit fester Determinante ≠ 0. Also ist die Anzahl der Nebenklassen gleich . . . {k ⋅ En | k ∈ GF(q)*}. Untergruppenkriterium. f (g −1 )f (g) = f (g −1 g) = f (e) = e. Also ist f (g −1 ) invers zu f (g), d. h. f (g −1 ) = f (g)−1 . Der Isomorphismus ist die Abbildung f : x W→ x+1. Damit folgt f (x*y) = f (xy+x+y) = xy+x+y+1 = (x+1)(y+1) = f (x) ⋅ f (y). Eine Richtung ist klar. Sei umgekehrt g −1 Ng ⊆ N für alle g ∈ G. Zu zeigen: N ⊆ g −1 Ng für alle g ∈ G. Wir betrachten ein beliebiges n ∈ N. Nach Voraussetzung ist n′ := gng −1 = (g −1 )−1 ng −1 ∈ N. Wieder nach Voraussetzung gilt dann n = g −1 n′ g ∈ N. Führen Sie die Eigenschaften von G/N auf die entsprechenden Eigenschaften von G zurück! Offenbar gibt es nur eine Gruppe der Ordnung 1. Die Gruppen von Primzahlordnung sind zyklisch, also isomorph zu Zp . Es bleiben also die Ordnungen 4, 6, 8 zu betrachten. In einer Gruppe der Ordnung 4 gibt es nur Elemente der Ordnungen 1, 2, oder 4. Wenn es ein Element der Ordnung 4 gibt, ist die Gruppe zyklisch, also isomorph zu Z4 . Andernfalls hat jedes Element ≠ e die Ordnung 2. Damit ist die Gruppe isomorph zur Kleinschen Vierergruppe. Jede Gruppe der Ordnung 6 ist entweder zyklisch, also isomorph zu Z6 oder isomorph zu S3 . Es gibt fünf Gruppen der Ordnung 8: die zyklische Gruppe (also Z8 ), die Gruppe Z2 ×Z4 , die „Diedergruppe“ der Ordnung 8 (= Symmetriegruppe des Quadrats), die „Quaternionengruppe“ und die Gruppe Z2 ×Z2 ×Z2 . Untergruppenkriterium. Die Abbildung f ist ein Gruppenhomomorphismus von K* auf Q (siehe vorige Aufgabe). Bild(f ) = Q, Kern(f ) = {1, −1}. f ist nur dann ein Körperhomomorphismus, wenn gilt f (a+b) = f (a) + f (b), d. h. (a+b)2 = a2 + b2 . Das ist nur der Fall in Körpern der Charakteristik 2. Eine Spiegelung hat die Ordnung 2, ebenso eine Punktspiegelung. Eine Drehung um den Winkel 360°/n hat die Ordnung n. 358 11 Lösungen Kapitel 10 1. Nachrechnen. 2. Eigenschaften durch Ausrechnen nachweisen. 3. Das liegt letztlich daran, dass die linearen Abbildungen f v und g w den Nullvektor auf den Nullvektor abbilden. 4. Nachrechnen. 5. Eine symmetrische Matrix ist genau dann positiv definit, wenn die Matrix aus den ersten k Elementen in den ersten k Zeilen eine positive Determinante hat (1 ≤ k ≤ 4). Ein Beispiel dafür ist die Matrix, die Auf der Hauptdiagonale die Einträge 2 und sonst die Einträge 1 hat. 6. ⟨v, w+w′ ⟩ n n i= i= n n n n i= i= i= i= = ⟨∑ k i v i , ∑ h i v i + ∑ h ′i v i ⟩ = ∑ k i (h j + h ′j′ )a i j = ∑ k i h j a i j + ∑ k i h ′j a i j ′ = ⟨v, w⟩ + ⟨v, w ⟩. 7. Unterraumkriterium. 8. Jeder Vektor des Radikals muss zumindest auf den Einheitsvektoren senkrecht stehen. Daraus sieht man, dass nur der Nullvektor in diesem Radikal liegen kann. 9. Analog zu Nachweis der Eigenschaften von f v . 10. Explizites Nachprüfen der Definition. 11. Unterraumkriterium. Bei einer symmetrischen n×n-Matrix können die Einträge auf der Diagonalen und in der rechten oberen Hälfte frei gewählt werden, alle anderen Einträge sind dadurch bestimmt. Also ist die Dimension dieses Vektorraums gleich 1+2+ . . . +n = n(n+1)/2. 12. Eine Richtung ist klar. Sei umgekehrt ||f (v)|| = ||v|| für alle v ∈ V. Dann ist auch ⟨f (v+w), f (v+w)⟩ = (⟨v+w,v+w⟩). Es folgt ⟨f (v),f (v)⟩ + ⟨f (v),f (w)⟩ + ⟨f (w),f (v)⟩ + ⟨f (w),f (w)⟩ = ⟨v,v⟩ + ⟨v,w⟩ + ⟨w,v⟩ + ⟨w,w⟩, also ⟨v,v⟩ +2⟨f (v),f (w)⟩ + ⟨w,w⟩ = ⟨v,v⟩ + 2⟨v,w⟩ + ⟨w,w⟩, und somit ⟨f (v), f (w)⟩ = ⟨v, w⟩. 13. Man muss zu s (s ≤ n) orthonormalen Vektoren w1 , . . . , ws einen zu diesen orthonormalen Vektor ws+1 finden. Dazu wählt man einen zu w1 , . . . , ws linear unabhängigen s Vektor vs+1 und setzt w ∶= v s+ + ∑ k j w j . Man bestimmt die kj durch Ausnutzen der j= 14. 15. 16. 17. 18. 19. 20. Orthonormalitäten von w mit wi und durch die Normiertheit. Nein. Die Menge {( , , √ ), ( √ , − √ , ), ( , , − √ )} ist eine Orthonormalbasis von R3 . Die Menge {(1/2, 1/2, 1/2, 1/2), ( − 1/2, − 1/2, 1/2, 1/2), ( − 1/2, 1/2, − 1/2, 1/2), ( − 1/2, 1/2, 1/2, − 1/2)} ist eine Orthonormalbasis von R4 . Untergruppenkriterium. Benutzen Sie die Linearität in der ersten und zweiten Komponente. Benutzen Sie die Linearität in der ersten und zweiten Komponente. Nachrechnen. Literatur [Art] Artmann, B.: Lineare Algebra. Birkhäuser Verlag, Basel (1991) [Beu1] Beutelspacher, A.: In Mathe war ich immer schlecht . . . Verlag Vieweg, Braunschweig, Wiesbaden (2009) [Beu2] Beutelspacher, A.: „Das ist o.B.d.A. trivial!“ Tips und Tricks zur Formulierung mathematischer Gedanken, 9. Aufl. Verlag Vieweg, Braunschweig, Wiesbaden (2009) [BeuRo] Beutelspacher, A., Rosenbaum, U.: Projektive Geometrie, 2. Aufl. Verlag Vieweg, Braunschweig, Wiesbaden (2004) [Bries] Brieskorn, E.: Lineare Algebra und Analytische Geometrie I, II. Verlag Vieweg, Braunschweig, Wiesbaden (1983, 1985) [Cro] Crowe, M.J.: A History of Vector Analysis. Dover Publications, New York (1985) [Cox] Coxeter, H.S.M.: Introduction to Geometry, 2. Aufl. John Wiley & Sons, New York, London, Sydney, Toronto (1969) [Ebbi] Ebbinghaus, H.D., Hermes, H., Hirzebruch, F., Koecher, M., Mainzer, K., Neukirch, J., Prestel, A., Remmert, R.: Zahlen. Grundwissen Mathematik, 3. Aufl. Bd. 1. (1992) [Fis] Fischer, G.: Lineare Algebra, 9. Aufl. Verlag Vieweg, Braunschweig, Wiesbaden (1986) [FrPr] Friedrichsdorf, U., Prestel, A.: Mengenlehre für den Mathematiker. Verlag Vieweg, Braunschweig, Wiesbaden (1985) [Hal] Halmos, P.R.: Naive Mengenlehre. Vandenhoeck & Ruprecht, Göttingen (1968) [HeQu] Heise, W., Quattrocchi, P.: Informations- und Codierungstheorie, 3. Aufl. Springer-Verlag, Berlin, Heidelberg (1995) [Heu] Heuser, H.: Lehrbuch der Analysis, Teil 1, 8. Aufl. Teubner, Stuttgart (1990) [Hill] Hill, R.: A first course in coding theory. Clarendon Press, Oxford (1986) [Hun] Hungerford, T.: Algebra. Graduate Texts in Mathematics 73. Springer-Verlag, New York (1974) [Jän] Jänich, K.: Lineare Algebra, 5. Aufl. Springer-Verlag, Berlin, Heidelberg (1993) [Lan] Lang, S.: Linear Algebra, 2. Aufl. Addison-Wesley, New York (1971) [Lor] Lorenz, F.: Lineare Algebra I, II, 2. Aufl. B.I.-Wissenschaftsverlag, Mannheim, Wien, Zürich (1988, 1989) [Lün] Lüneburg, H.: Vorlesungen über Lineare Algebra. B.I. Wissenschaftsverlag, Mannheim, Wien, Zürich (1993) [MWSl] MacWilliams, F.J., Sloane, N.J.A.: The Theory of Error-Correcting Codes. North-Holland, Amsterdam, New York, Oxford (1978) A. Beutelspacher, Lineare Algebra, DOI 10.1007/978-3-658-02413-0, © Springer Fachmedien Wiesbaden 2014 359 360 Literatur [Mäd] Mäder, P.: Mathematik hat Geschichte. Metzler, Hannover (1992) [Scho] Scholz, E. (Hrsg.): Geschichte der Algebra. Eine Einführung. B.I.-Wissenschaftsverlag, Mannheim, Wien, Zürich (1990) [Schu] Schulz, R.H.: Codierungstheorie – Eine Einführung. Verlag Vieweg, Braunschweig und Wiesbaden (1991) [Tama] Tamaschke, O.: Projektive Geometrie II. Bibliographisches Institut, Mannheim, Wien, Zürich (1972) [Wey] Weyl, H.: Raum – Zeit – Materie, 6. Aufl. Springer-Verlag, Berlin (1970) [WußA] Wußing, H., Arnold, W.: Biographien bedeutender Mathematiker. Aulis Verlag, Köln (1978) [Zad] Zaddach, A.: Graßmanns Algebra in der Geometrie. B.I. Wissenschaftsverlag, Mannheim (1994) Sachverzeichnis A Abbildung, 7, 8 abelsche Gruppe, 272 Abgeschlossenheit, 31 Abgeschlossenheit eines affinen Unterraums, 127 Abstand, 130 abzählbaren Mengen, 14 additive Gruppe eines Körpers, 273 Additive Gruppe eines Rings, 273 Additive Gruppe eines Vektorraums, 274 Additivität der Matrizenmultiplikation, 109 affine Linearkombination, 142 affiner Raum, 123 affiner Unterraum, 126 ähnliche Matrizen, 162 Ähnlichkeit von Darstellungsmatrizen, 161, 162 alternierende Gruppe, 216 Anführer, 137 Anordnung eines Körpers, 32 Anzahl aller Permutationen, 207 Anzahl der Nebenklassen, 88 Anzahl der Vektoren einer Nebenklasse, 87 Anzahl der Vektoren eines endlichen Vektorraums, 72 Äquivalenz von Injektivität und Surjektivität, 25 Äquivalenz von Injektivität und Surjektivität von linearen Abbildungen, 166 Äquivalenzklasse, 5 Äquivalenzrelation, 5 auf, 9 Aus orthogonal mach orthonormal, 313 Austauschlemma, 102 Austauschlemma., 75 Austauschsatz, 102 Austauschsatz von Steinitz, 77 Automorphismus, 149 Automorphismus eines Körpers, 47 Automorphismus von Gruppen, 285 B Basis, 71, 133 Basisauswahlsatz, 73 Basisergänzungssatz, 73 begleitender Unterraum eines affinen Unterraums, 125 Behauptung, 20 Berechnung der Geraden durch zwei Punkte, 125 Beschreibung einer linearen Abbildung durch die Bilder einer Basis, 150 Beschreibung symmetrischer Bilinearformen durch selbsadjungierte Abbildungen, 325 Beweis, 20 Bézout, Étienne (1730–1783), 189 Bidualcode, 135 Bidualraum, 169 bijektive Abbildung, 9 Bild, 7 Bild eines Gruppenhomomorphismus, 286 Bild(f), 148 Bild(f) ist ein Vektorraum, 148 Bildbereich einer Abbildung, 7 bilinear, 298 Bilinearform, 297, 298 Bilinearformen kommen von Linearformen, 301 Bilinearformen und Abbildungen von V nach V*, 302 binäre Folge, 25 binäre Verknüpfung, 31 361 362 Bunjakowski, Viktor Jakowlewitsch (1804–1889), 312 C Cantor, Georg (1845–1918), 1 Cardano, Geronimo (1501–1576), 36 cartesisches Produkt, 2 Cauchy, Augustin-Louis (1789–1857), 312 Cayley, Arthur (1821–1895), 259 Charakterisierung der linearen Abhängigkeit, 68 Charakterisierung einer linearen Abbildung durch die Bilder einer Basis, 152 Charakterisierung invertierbarer Matrizen, 161 Charakterisierung von Isomorphismen, 159 Charakteristik eines endlichen Körpers, 54 Charakteristisches Polynom einer linearen Abbildung, 250 charakteristisches Polynom einer linearen Abbildung, 251 charakteristisches Polynom einer Matrix, 250 Code, 131 Codewort, 129 Codewörter, 131 codieren, 129 D Darstellung einer Permutation als Produkt disjunkter Zyklen, 209 Darstellung einer Tranposition durch eine ungerade Anzahl von Nachbartranspositionen, 212 Darstellung von Permutationen durch Transpositionen, 211 Darstellungsmatrix, 155 Darstellungsmatrix der Identität, 157 Darstellungsmatrix des Produkts von linearen Abbildungen, 160 Darstellungsmatrix einer Matrix, 158 Darstellungsmatrix einer selbstadjungierten Abbildung, 326 Darstellungssatz, 156 Daten, 129 decodieren, 129, 132 Dedekind, Richard (1831–1916), 15 Dedekindsche Beschreibung unendlicher Mengen, 15 Definition einer Menge durch Auflistung ihrer Elemente, 1 Sachverzeichnis Definition einer Menge durch eine Eigenschaft, 2 Definitionsbereich einer Abbildung, 7 Descartes, Rene (1596-1650), 3 Determinante einer 22-Matrix, 204 Determinante einer Dreiecksmatrix, 222 Determinante einer Matrix, 204 Determinante einer orthogonalen Matrix, 319 Determinante einer regulären Matrix, 207 Determinantenfunktion, 203 diagonalisierbar, 242 Diagonalmatrix, 242 Differenz zweier Mengen, 2 Dimension, 78 Dimension des Kern einer Linearform, 167 Dimension des Lösungsraums eines homogenen linearen Gleichungssystems, 114, 165 Dimension eines affinen Unterraums, 127 Dimension eines Eigenraums, 254 Dimensionsformel für Bilinearformen, 306 Dimensionsformel für den dualen Code, 135 Dimensionsformel für lineare Abbildungen, 165 Dimensionssatz, 83 Direkter Beweis, 21 disjunkte Mengen, 2 Division mit Rest, 40 Doppelsumme, 19 Drehung, 316, 321 Dreiecksaxiom, 123 Dreiecksmatrix, 222, 223 duale Basis, 168 dualer Code, 134 Dualraum, 167 Dualraum ist ein Vektorraum, 167 Durchschnitt von Mengen, 2 E Ebene eines affinen Raums, 127 echte Teilmenge, 1 Effekt einer Nachbartransposition, 214 Eigenraum, 246 Eigenvektor einer linearen Abbildung, 243 Eigenwert einer linearen Abbildung, 243 Eigenwert einer Matrix, 244 Eigenwerte einer orthogonalen Abbildung, 317 Eindeutige Lösung eines linearen Gleichungssystems, 121 Eindeutigkeit der Determinantenfunktion, 206 Sachverzeichnis Eindeutigkeit der inversen Abbildung, 12 Eindeutigkeit der inversen Elemente einer Gruppe, 272 Eindeutigkeit der Nebenklassenanführer, 137 Eindeutigkeit der negativen Vektoren, 61 Eindeutigkeit des neutralen Elements einer Gruppe, 272 Eindeutigkeit des Nullvektors, 60 Eindeutigkeitseigenschaft einer Basis, 71 Einheitsmatrix, 113 Einselement eines Körpers, 30 Einsetzen in ein Polynom, 185 Einsetzungshomomorphismus, 186 Element einer Menge, 1 elementare Spaltenumformung, 117 elementare Zeilenumformung, 116 Elementarmatrix, 234 Empfänger, 129 endlich erzeugbarer Vektorraum, 73 endlich-dimensionaler Vektorraum, 78 endliche Gruppe, 280 endliche Mengen, 3 endlicher Vektorraum, 72 Endomorphismus, 150 Entwicklung nach der ersten Zeile, 225 Entwicklung nach einer Spalte, 227 Entwicklung nach einer Zeile, 225 Ersetzen eines Vektors durch einen anderen, 75 erweiterte Matrix eines Gleichungssystems, 113 erweiterter Hamming-Code, 145 Erweiterung eines Körpers, 65 Erzeugendensystem, 71, 102 Erzeugnis, 69 Erzeugnis von Elementen einer Gruppe, 282 Erzeugung von affinen Unterräumen, 128 Euklidische Norm, 312 euklidische Norm, 311 euklidischer Algorithmus, 40 euklidischer Algorithmus für Polynome, 197 euklidischer Vektorraum, 308 Euler, Leonhard (1707–1783), 284 Existenz einer Basis, 74 F Faktorgruppe, 287 Faktorraum, 88 fehlererkennender Code, 143 fehlerkorrigierender Code, 131 Fehlervektor, 130 363 Fehlstand einer Permutation, 213 Fehlstände einer Transposition, 213 Fermat, Pierre de (1601–1665), 284 Fixpunkt, 56 Fixpunkt einer Permutation, 208 Folge, 2 Fundamentalsatz für endlich-dimensionale Vektorräume, 154 G Galois, Evariste (1811–1832), 46 Galoisfeld, 46 ganze Zahlen, 2 Gauß, Carl Friedrich (1777–1855), 55 Gaußsche Zahlenebene, 55 Gaußscher Algorithmus, 120, 121 general linear group, 275 Generatormatrix, 133 Geometrie, 123 gerade Permutation, 214 Gewicht, 133 GF(q), 46 ggT, 199 Gleichheitsrelation, 5, 340 gleichmächtige Mengen, 13 Gleichmächtigkeit endlicher Mengen, 13 Gleichmächtigkeit von N und Z, 15 Gleichmächtigkeit von Z und 2Z, 14 Grad des Nullpolynoms, 182 Grad eines Polynoms, 182 Gradformel für Polynome, 184 Gram, Jórgen Perdersen (1850–1916), 299 Gramsche Matrix, 299 Graßmann, Hermann Günther (1809–1877), 92 größter gemeinsamer Teiler zweier ganzer Zahlen, 199 Gruppe, 271 H Hamilton, William Rowan (1805–1865), 36 Hamming, Richard W., 130 Hamming-Abstand, 130 Hamming-Code, 143 Hauptachsentransformation, 327 Hauptdiagonale, 113 Hauptideal, 193 Hauptidealring, 198 Hauptsatz der Algebra, 251 Hintereinanderausführung von Abbildungen, 10 364 Hom(V, W), 175 homogenes lineares Gleichungssystem, 105 Homogenität der Matrizenmultiplikation, 110 Homomorphieprinzip, 42 Homomorphiesatz für Gruppen, 288 Homomorphiesatz für Vektorräume, 164 Homomorphismus, 147 Homomorphismus eines Körpers, 47 Homomorphismus von Gruppen, 285 Hyperebene, 82, 103 I i, 34 Ideal eines Ringes, 192 Ideale eines Polynomrings, 193 identische Abbildung, 8, 148 Identität, 8 imaginäre Einheit, 34 imaginäre Einheiten des Quaternionenschiefkörpers, 37 Imaginärteil, 34 Index einer Untergruppe, 281 indirekter Beweis, 21 Induktion, 22 inhomogenes lineares Gleichungssystem, 105 injektive Abbildung, 9 inneres Produkt, 134 Interpolylationsformel von Lagrange, 197 Invarianz der Determinantenfunktion gegenüber elementaren Spaltenumformungen, 230 Invarianz der Determinantenfunktion gegenüber elementaren Zeilenumformungen, 205 Invarianz der Geraden unter einer linearen Abbildung, 150 Invarianz der negativen Elemente unter einem Automorphismus, 48 Invarianz der neutralen Elemente unter einem Automorphismus, 48 Invarianz der Ordnungsrelation in R, 50 Invarianz des Lösungsraums bei elementaren Spaltenvertauschungen, 119 Invarianz des Lösungsraums bei elementaren Zeilenumformungen, 119 Invarianz des Rangs einer Matrix bei elementaren Umformungen, 117, 141, 348 inverse Abbildung, 12 Sachverzeichnis Inverse einer Elementarmatrix, 234 invertierbare Abbildung, 11 invertierbare Matrix, 160 Invertierbare Polynome, 184 Invertierbarkeit bijektiver Abbildungen, 10 Invertierbarkeit modulo eines irreduziblen Polynoms, 191 irreduzibles Polynom, 190 Isomorphie von Gruppen, 285 Isomorphie von Körpern, 47 Isomorphismus, 149 Isomorphismus von Gruppen, 285 Isomorphismus von Körpern, 47 K Kanal, 129 Kern einer linearen Abbildung, 162 Kern einer Linearform, 167 Kern eines Gruppenhomomorphismus, 286 Kern eines Homomorphismus, 287 Klassifikation der zyklischen Gruppen, 285 Kleiner Satz von Fermat, 284 Kleiner Satz von Fermat (Originalfassung), 284 Kn, 62 Koeffizient eines Polynoms, 182 Koeffizienten des charakteristischen Polynoms, 252 Koeffizientenvergleich, 69 kommutative Gruppe, 272 kommutativer Körper, 32 kommutativer Ring, 178 Komplement, 80 Komplement einer Menge, 2 komplementäre Unterräume, 80, 102 komplexe Zahl, 33 komplexer Vektorraum, 60 komponentenweise, 33 konjugiert-komplexe Zahl, 51 konstante Zeilensumme, 268 Konstruktion von symmetrischen Bilinearformen, 308 Kontraposition, 21 Kontrollmatrix, 135 Körper, 29 Körper der komplexen Zahlen, 36 Körper von Primzahlordnung, 43 Kriterien zur Diagonalisierbarkeit, 244, 247, 254, 262 Sachverzeichnis Kriterium für die Gleichheit von Nebenklassen, 86, 280 Kriterium für die Lösbarkeit eines linearen Gleichungssystems, 113 Kugel, 131 k-Zyklus, 209 L Länge einer binären Folge, 25 Länge eines Hamming-Codes, 143 Länge eines Zyklus, 209 leere Menge, 2 Leibniz, Gottfried Wilhelm (1646–1716), 207 Lemma über das Minimalgewicht, 133 Lemma über Hammingkugeln, 131 Lemma über verschiedene Eigenwerte, 245 Lemma über verschiedene Nebenklassen, 87 Lemma von Bézout, 189 Leonhard Euler (1707–1783), 35 linear abhängig, 67 linear unabhängig, 67, 102 linearer Code, 133 lineares Gleichungssystem, 105 Linearform, 167 Linearformen induzieren Bilinearformen, 303 Linearkombination, 67, 102 Linearkombination einer unendlichen Menge, 67 Lösung eines linearen Gleichungssystems, 105 Lösungsraum eines homogenen Systems, 111 Lösungsraum eines inhomogenen Systems, 112 M Mächtigkeit der Potenzmenge, 17 MacMath, 4 Magnetische Anziehungseigenschaft eines Ideals, 192 Matrix, 63 maximal linear unabhängige Menge, 73 Menge, 1 Mersennesche Primzahlen, 281 Methode zur Bestimmung von Parallelen, 126 Minimalabstand, 131 Minimalgewicht, 133 Mittelpunkt, 131 modulo, 40 modulo n, 41, 179 Multiplikation mit Elementarmatrizen, 234 Multiplikation von Polynomen, 182 365 Multiplikationssatz für Determinanten, 233 Multiplikative Gruppe eines Körpers, 273 multiplikative Inverse einer komplexen Zahl, 35 multiplikative Inverse eines Quaternions, 39 N n!, 208 Nachbartransposition, 211 Nachricht, 129, 130 natürliche Zahlen, 2 „Natürlicher Isomorphismus“ des Bidualraums, 170 Nebendiagonale einer Matrix, 140 Nebenklasse, 85 Nebenklasse nach einer Untergruppe, 279 neutrales Element einer Gruppe, 271 nichtausgeartete Bilinearform, 300 Normalteiler einer Gruppe, 286 normiertes Polynom, 194 n-Tupel, 2 Nullabbildung, 52, 148 Nullelement eines Körpers, 29, 177 Nullpolynom, 182 Nullstelle eines Polynoms, 188 Nullstellen des Minimalpolynoms, 261 Nullstellen eines Polynoms, 188 nullteilerfrei, 110 Nullteilerfreiheit, 31 O obere Dreiecksmatrix, 222 Ordnung einer Gruppe, 280 Ordnung eines Elements einer Gruppe, 283 Ordnung eines Elements in Zn, 54 orthogonale Gruppe, 319 orthogonale lineare Abbildung, 316 orthogonale Matrix, 317 orthogonale Vektoren, 300 orthogonales Komplement, 310 Orthonormalisierungssatz von E. Schmidt, 314 Ortsvektoren, 62 P parallel, 123 Parallelenaxiom, 123 Parallelenschar, 123 Partition einer Menge, 6 Permutation, 207 Polynom, 182 366 Polynomdivision, 187 Polynomring, 182 positiv definite Bilinearform, 308 Potenz einer Matrix, 140 Potenzmenge, 16 Primzahl, 43 Produkt von Abbildungen, 10 Produkt von Matrizen, 106 Produkt von Permutationen, 208 Produkt von Polynomen, 180 Produktformel für die Mächtigkeit des cartesischen Produkts, 4 Q Quadratgruppe, 277 quadratische Matrix, 116, 204 Quadrupel, 36 Quaternionen, 37 Quaternionenschiefkörper, 37 R Radikal einer Bilinearform, 330 Radius, 131 Rang einer Gramschen Matrix, 300 Rang einer linearen Abbildung, 158 Rang einer Matrix, 112 rationale Zahlen, 2 Realteil, 34 Reduktion der Determinante auf eine Diagonalmatrix, 223 reelle Zahlen, 2 reeller Vektorraum, 60 Reflexivität einer Relation, 4 Regel von Sarrus, 219 reguläre Matrix, 160 Relation, 4 Repräsentant einer Äquivalenzklasse, 7 Repräsentant einer Nebenklasse, 85 Rest bei ganzzahliger Division, 40 Restklassenring, 179 Ring, 177 Ringhomomorphismus, 186 Ringschluß, 21 Ruffini, Paolo (1765–1822), 189 S Sarrus, Pierre-Frédéric (1798–1858), 220 Satz über Äquivalenzklassen, 6 Satz über das charakteristische Polynom, 251 Satz über das Minimalpolynom, 260 Sachverzeichnis Satz über das Standardskalarprodukt, 309 Satz über den Polynomring, 180 Satz über die alternierende Gruppe, 216 Satz über die Anzahl der Nullstellen, 191 Satz über die Bijektivität invertierbarer Abbildungen, 25 Satz über die Faktorgruppe, 287 Satz über die Kontrollmatrix, 136 Satz über die Nullstellen eines Polynoms, 191 Satz über die Ordnung von Elementen einer Gruppe, 283 Satz über die Symmetriegruppe, 277 Satz über die Untergruppen einer zyklischen Gruppe, 285 Satz über die Vandermondesche Determinante, 231 Satz über Eigenwerte einer Matrix, 245 Satz über gerade Permutationen, 215 Satz über Gleichheit von Äquivalenzklassen, 6 Satz über konjugiert-komplexe Zahlen, 51 Satz über Matrizenringe, 179 Satz über Nachbartranspositionen, 214 Satz über orthogonale Unterräume, 305 Satz über ungerade Permutationen, 216 Satz vom Dualraum, 167 Satz vom Faktorraum, 88 Satz vom orthogonalen Komplement, 310 Satz von Cayley-Hamilton, 256 Satz von der Potenzmenge, 16 Satz von Euler, 284 Satz von Lagrange, 281 Satz von Lagrange für Gruppenelemente, 283 Satz von Ruffini, 189 Schiefkörper, 32 Schmidt, Erhard (1876–1959), 314 Schwarz, Hermann Amandus (1853–1921), 312 selbstadjungierte lineare Abbildung, 325 Semi-bilinearform, 331 Sender, 129 senkrecht aufeinander stehende Vektoren, 300 Signum der inversen Permutation, 216 Signum einer Permutation, 214 Signumsformel, 218 Skalar, 59 skalares Vielfaches einer Funktion, 64 Skalarprodukt, 308 Skalarprodukt eines komplexen Vektorraums, 332 Spaltenrang, 112 Sachverzeichnis special linear group, 275 Spektralsatz, 327 Spezielle lineare Gruppe, 275 spezielle orthogonale Gruppe, 319 Spiegelung, 321 Spur einer Matrix, 174, 252 Spurabbildung, 174 Standardbilinearform, 300 Standardskalarprodukt, 300 starrer Körper, 49 Starrheit von Q, 47 Starrheit von R, 51 Streckung, 56 Strukturmatrix einer Bilinearform, 299 Summationsindex, 19 Summe von Funktionen, 64 Summe von Unterräumen, 99 Summe zweier Punkte, 55 Summenformel für die Mächtigkeit von Mengen, 3 surjektive Abbildung, 9 Sylvester, James Joseph (1814–1897), 328 Sylvesterscher Trägheitssatz, 328 Symmetrie einer Relation, 4 Symmetriegruppe des Würfels, 277 Symmetriegruppe eines geometrischen Objekts, 276 Symmetriegruppe eines Quadrats, 277 symmetrische Bilinearform, 307 symmetrische Gruppe, 208, 276 Syndrom, 136 Syndrom-Decodierung, 138 T Tamaschke, Olaf, 123 Tamaschke-Axiom, 123 Teilbarkeit ganzer Zahlen, 198 Teilbarkeit von Polynomen, 189 teilerfremde ganze Zahlen, 291 teilerfremde Polynome, 189 Teilkörper, 66 Teilmenge, 1 Transformation der Darstellungsmatrix bei Basiswechsel, 161 Transitivität einer Relation, 4 transponierte Matrix, 228 Transposition, 211 Transposition eines Vektors, 109 triviale Darstellung des Nullvektors, 67 367 triviale Untergruppen, 279 trivialer Automorphismus, 47 trivialer Unterraum, 71 triviales Ideal, 192 U überabzählbare Mengen, 14 überflüssige Spalte, 115 umkehrbare Abbildung, 11 umkehrbare Matrix, 160 Unbestimmte, 182 unendlichdimensionale Vektorräume, 101 unendliche Mengen, 14 ungerade Permutation, 214 unitärer Vektorraum, 332 Untergruppe, 278 Untergruppenkriterium, 279 Unterkörper, 66 Untermenge, 1 Unterraum, 70 Unterraumkriterium, 98 Unterring, 185 Urbild, 7 V van der Waerden, Bartel Leendert (geb. 1903), 94 Vandermonde, A. T. (1735–1796), 230 Vandermondesche Determinante, 230 Vandermondesche Matrix, 230 Vektor, 59, 92 Vektorraum, 59 Verbindungsaxiom, 123 Vereinigung von Mengen, 2 Verknüpfung, 31 Verschiedene Bilinearformen von V („Wer eine kennt, kennt alle“), 304 Vertauschung der Summationsreihenfolge, 20 Vielfachheit einer Nullstelle eines Polynoms, 189 Vieta, Francois (1540–1603), 36 Volle lineare Gruppe, 275 Voraussetzung, 20 W Wallis, John (1616–1703), 55 Wessel, Caspar (1745–1818), 55 Weyl, Hermann (1885–1955), 94 Widerspruchsbeweis, 21 wohldefiniert, 7, 90 368 Würfelgruppe, 277 X x, 182 Z Zeilenrang, 114 Zeilenrang = Spaltenrang, 114 Zentrum einer Streckung, 56 Sachverzeichnis Zerlegung eines Vektors bezüglich komplementärer Unterräume, 81 Zn, 41 Zornsches Lemma, 73 zweiter Dimensionssatz, 90 zyklische Gruppe, 282 zyklische Permutation, 209 Zyklus, 209