Stefan Waldmann Lineare Algebra 1 Grundlagen für Studierende der Mathematik und Physik Lineare Algebra I Stefan Waldmann Lineare Algebra I Die Grundlagen für Studierende der Mathematik und Physik Stefan Waldmann Institut für Mathematik Universität Würzburg Würzburg, Deutschland ISBN: 978-3-662-49913-9 DOI 10.1007/978-3-662-49914-6 ISBN: 978-3-662-49914-6 (eBook) Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag Berlin Heidelberg 2017 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Planung: Dr. Lisa Edelhäuser Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Springer Spektrum ist Teil von Springer Nature Die eingetragene Gesellschaft ist Springer-Verlag GmbH Berlin Heidelberg Für meine Lieben: Robert, Sonja, Richard, Silvia und Viola Vorwort Es gibt viele Lehrbücher zur linearen Algebra wie etwa [3, 4, 11–16, 21] und viele andere mehr, wieso also noch ein weiteres? Hierfür gibt es verschiedene Gründe: Zum einen sind verschiedene gute Lehrbücher nicht länger im Handel erhältlich, andere setzen deutlich unterschiedliche innermathematische Schwerpunkte als das vorliegende, wieder andere nehmen andere Bezüge zu Anwendungen außerhalb der Mathematik. In den meisten Lehrbüchern ist lediglich das Material für ein Semester lineare Algebra vorgegeben, das zweite Semester bleibt dann den Vorlieben des jeweiligen Dozenten vorbehalten. Eine Motivation für dieses zweibändige Lehrbuch ist nun die folgende: Es gibt wenige Lehrbücher der linearen Algebra, die zum einen die Bedürfnisse der reinen Mathematik gut abbilden, zum anderen aber auch die Erfordernisse eines mathematisch ausgerichteten Physikstudiums bedienen. An vielen Universitäten besuchen Studierende der Physik entweder die selben Vorlesungen wie die Studierenden der Mathematik, ohne hier wirklich die relevanten Probleme aus der Physik zu sehen, oder aber sie besuchen eigene Mathematikvorlesungen, die oftmals den mathematisch interessierteren Studierenden der Physik zu wenig Tiefgang bieten. Ein Ziel ist es daher, die mathematischen Erfordernisse der Physik angemessen innerhalb der Mathematik darzustellen, nicht zuletzt auch deshalb, um Studierenden der Mathematik die ungemein wichtigen Ideen aus der Physik zu verdeutlichen. Eine zweite Motivation ist, dass es unter den neueren Lehrbüchern viele gibt, die die Anwendungsseite der linearen Algebra besonders gut und ausführlich hervorheben, die eher konzeptuellen Aspekte aber kürzer halten. Der Gang in die Abstraktion aber ist ein wesentlicher Schritt der Mathematik, den man im ersten Semester niemandem ersparen kann. Mit diesem Lehrbuch soll nun insofern eine Alternative geboten werden, als dass die Abstraktion als ein Vorteil, eine Erleichterung gesehen wird, die es erlaubt, aus der unübersichtlichen Lage eines konkreten Beispiels die charakteristischen Eigenschaften zu destillieren. Gerade im Hinblick auf neuere Bachelor-Studiengänge, wie etwa den Studiengang Mathematische Physik in Würzburg, besteht zwischen den beiden Zielen keineswegs ein Widerspruch: Im Gegenteil, in der mathematischen Physik wird die Gänze der Mathematik benötigt, nicht nur die anwendungsbezogeneren Aspekte. Das vorliegende Lehrbuch versucht nun, diese Brücke zu schlagen und damit ein Lücke zu schließen. vii viii Vorwort Die Zielgruppe für dieses Lehrbuch sind also Studentinnen und Studenten der verschiedenen Bachelor-Studiengänge der Mathematik (Mathematik, Wirtschaftsmathematik, etc.), des Lehramts Mathematik für Gymnasien, sowie der Physik und mathematischen Physik. Es eignet sich zum einen als Vorlesungsbegleiter, zum anderen aber auch zum Selbststudium, sofern dieses mit der nötigen Konsequenz betrieben wird. Das Lehrbuch ist in zwei Bände aufgeteilt, die etwa den beiden Semestern entsprechen, die eine typische Vorlesung zur linearen Algebra dauert. Der vorliegende Band 1 ist dabei etwas umfangreicher und wird vielleicht nicht komplett in einem Semester behandelt werden können. Er umfasst die kanonischen Themen der linearen Algebra. In Band 2 werden dann weiterführende Themen angeboten. Nach einer ersten Erinnerung an das Schulwissen zu Vektoren im R3 in Kap. 1 werden in Kap. 3 die grundlegenden Begriffe zu Gruppen, Ringen und Körpern vorgestellt und mit Beispielen untermauert. Als erstes großes Resultat werden die komplexen Zahlen aus den reellen konstruiert. Als Nächstes werden in Kap. 4 Vektorräume mit ihren Basen als die zentrale Arena der linearen Algebra vorgestellt: Als Motivation dient hier die Lösungstheorie von linearen Gleichungssystemen. Es gilt nun, den Begriff der Dimension zu klären und verschiedene Konstruktionen wie etwa die direkte Summe zu erläutern. Es wird konsequent auch der unendlich-dimensionale Fall mit diskutiert, da unzählige Anwendungen wie etwa in der Funktionalanalysis diese Situation erfordern. Ein durchgehendes Thema im gesamten Lehrbuch ist die konsequente Betonung von strukturerhaltenden Abbildungen: Auch wenn dies manchmal etwas altmodisch und sogar pedantisch scheint, stellt es doch ein derart mächtiges Werkzeug in der Mathematik dar, dass man es Studierenden im ersten Jahr kaum vorenthalten mag. Kap. 5 handelt daher ausführlich von den linearen Abbildungen. Auch diese werden durch Basen der zugrunde liegenden Vektorräume beschreibbar, was auf die Matrizen führt. Erst das Wechselspiel von basisabhängiger Beschreibung durch Matrizen und basisunabhängiger und damit intrinsischer Form offenbart die tatsächliche Natur linearer Abbildungen. Als wichtiges Resultat wird die Smith-Normalform von linearen Abbildungen diskutiert und die Beziehung zur Lösungstheorie von linearen Gleichungssystemen aufgezeigt. Die Klassifikation von Vektorräumen bezüglich Isomorphie anhand der Mächtigkeit der Basis wird im Detail vorgestellt. Der Dualraum behandelt schließlich eine spezielle Klasse von linearen Abbildungen, die linearen Funktionale. Das darauffolgende Kap. 6 beinhaltet die Theorie der Determinanten sowie die Eigenwerttheorie, vornehmlich in endlichen Dimensionen. Nach einer kurzen Übersicht zu Eigenschaften der symmetrischen Gruppe wird die Determinante definiert und konstruiert sowie deren erste wichtige Eigenschaften vorgestellt. Als Kriterium für die Invertierbarkeit wird sie entsprechend bei der Suche nach Eigenwerten eine zentrale Rolle spielen: Diese Fragestellung wird durch die Normalform bezüglich der Ähnlichkeit von Matrizen motiviert. Die Frage nach der Diagonalisierbarkeit führt über das charakteristische Polynom dann zum Minimalpolynom einer Matrix (oder eines Endomorphismus), welches als zentrales Instrument beim Beweis des Spektralsatzes und der Jordan-Zerlegung herangezogen wird. Als Formulierung wurde hier eine auf Projektoren basierende gewählt, da diese den Ausgangspunkt Vorwort ix für Verallgemeinerungen in unendlichen Dimensionen in der Funktionalanalysis darstellt. Die Jordan-Normalform hilft schließlich, auch die nilpotenten Anteile auf eine besonders einfache Form zu bringen. In Kap. 7 geht es dann um Vektorräume mit zusätzlicher Struktur: Innere Produkte und Skalarprodukte werden definiert und erste allgemeine Eigenschaften vorgestellt. Es wird dann der spezielle Fall der endlich-dimensionalen euklidischen oder unitären Vektorräume, also der endlich-dimensionalen reellen oder komplexen Hilbert-Räume eingehend diskutiert, wobei aber immer der Blick auf die unendlichdimensionale Situation offen gehalten wird, um zu sehen, dass viele scheinbar leichte Probleme letztlich auf sehr nichttriviale Weise Gebrauch von der EndlichDimensionalität machen. Als zentraler Satz wird auch in diesem Kapitel der Spektralsatz formuliert, nun für normale Abbildungen. Anschließend wird die Rolle der Positivität und der Polarzerlegung besonders betont. Dies mag in anderen Zugängen zur linearen Algebra eine eher untergeordnete Rolle spielen, ist aber für weiterführende Vorlesungen in der Lie-Theorie, den Operatoralgebren und der mathematischen Physik von zentraler Bedeutung. Daher wird bereits hier die Chance ergriffen, diese Themen in den einfachen endlichen Dimensionen vorzustellen. Auch die Diskussion der Singulärwertzerlegung ist in diesem Sinne zu verstehen, wobei mit den Approximationszahlen eine weitere wichtige Interpretation der Singulärwerte vorgestellt wird, die dann auch in unendlichen Dimensionen Bestand haben wird. Abschließend werden in zwei Anhängen kleine Einführungen in die mathematische Logik sowie in die Sprache der Mengenlehre gegeben. Diese Anhänge sind jedoch nicht als solide Kurse in diesen mathematischen Disziplinen zu verstehen, sondern geben lediglich eine Übersicht. Sowohl im Haupttext als auch in den Übungen wird gelegentlich Gebrauch von einfachen Resultaten aus der Analysis gemacht. In den allermeisten Fällen wird parallel zu einer linearen Algebra auch die Analysis als Einführungsvorlesung zur Mathematik gehört. In diesem Fall sollten die benötigten Ergebnisse zeitnah bereitgestellt sein, sodass es keinerlei Schwierigkeiten geben sollte. Anderenfalls müssen gewisse Ergebnisse vorweggenommen werden: Bis auf einige Eigenschaften des Supremums bei der Definition der Operatornorm sind dies aber alles Themen, die zumindest heuristisch und auf Schulniveau bekannt sein sollten. Auch in diesem Fall kann man gegebenenfalls das eine oder andere Detail eines Beweises hintenanstellen und zu einem späteren Zeitpunkt darauf zurückkommen. In Band 2 werden dann etwas speziellere Themen behandelt: lineare Differentialgleichungen als Anwendung für die Matrix-Exponentialfunktion, verschiedene Quotientenkonstruktionen, sehr ausführlich die multilineare Algebra und Tensorprodukte und schließlich Bilinearformen. Gerade der Themenkomplex zu Tensorprodukten ist in vielen Lehrbüchern nur sehr stiefmütterlich vertreten, was seiner Bedeutung in der Mathematik keineswegs gerecht wird: Techniken der multilinearen Algebra werden in jeder fortgeschrittenen Vorlesung in der theoretischen Mathematik benötigt, wie etwa in der Algebra, der Lie-Theorie, der algebraischen Topologie, der Differentialgeometrie, der Funktionalanalysis und der homologischen Algebra. Aber auch in den Anwendungen wie beispielsweise in der x Vorwort Quanteninformationstheorie und in der mathematischen Physik sind Tensorprodukte nicht wegzudenken. Die Gliederung von Band 2 ist nun folgende: • • • • Lineare Differentialgleichungen und Exponentialabbildung Quotienten Multilineare Abbildungen und Tensorprodukte Bilinearformen und Quadriken In diesem Lehrbuch finden sich nur recht wenige mathematische Sachverhalte, die als Satz gekennzeichnet werden. Zusammen mit den Definitionen stellen diese die Essenz und das absolute Minimum dar, das es im Laufe eines Kurses zur linearen Algebra zu bewältigen gilt. Die meisten Resultate werden als Proposition formuliert, dies sind allein stehende Ergebnisse. Schließlich gibt es noch Lemmata, welche als Vorbereitung für die Beweise einer größeren Proposition oder eines Satzes dienen, und die Korollare, die eine unmittelbare Folgerung zur davor stehenden Proposition darstellen. In diesem Sinne ist der Text in sehr klassischer Weise geschrieben. Aufgelockert wird er durch Beispiele und weitere Bemerkungen, die oft einen weiterführenden Aspekt diskutieren oder einfach nur die wichtigen Sätze umformulieren und rekapitulieren. Die Mathematik ist wie Schwimmen: Man erlernt sie sicherlich nicht durch Zuschauen. Vielmehr muss selbst Hand angelegt werden. Diese Erfahrung machen Studierende im ersten Jahr oftmals auf schmerzliche Weise: Anders als in der Schule ist es nun wirklich ein täglicher Kampf und eine große Herausforderung, der Vorlesung zu folgen, die Hausaufgaben zu machen, sich auf Klausuren vorzubereiten. Dies kann leider niemandem erspart bleiben, alle Versuche, dies zu beschönigen, sind unredlich und unseriös. Aus diesem Grunde werden viele Übungen (insgesamt über 200) in den einzelnen Kapiteln angeboten: Diese zum Teil sehr detailliert in etlichen Unterfragen ausformulierten Aufgaben sollten bearbeitet werden und können als Richtschnur dafür dienen, was in Klausuren und mündlichen Prüfungen von den Prüflingen verlangt werden wird. Zum anderen stellen die Übungen weiterführende Themen vor, auf die man vielleicht später wieder zurückkommen mag, auch wenn sie im ersten Jahr noch nicht relevant erscheinen. Hier besteht die Hoffnung, dass das vorliegende Buch ein Ideengeber und ein Nachschlagewerk auch für höhere Semester sein kann. Es gibt bei den schwierigeren Übungen Hinweise, durch die Aufteilung in kleinere separate Problemstellungen sollte es jedoch immer möglich sein, die richtigen Antworten zu finden. Aus diesem Grunde wurde auch darauf verzichtet, ausführliche Lösungen der Übungen bereitzustellen: Der Erfahrung nach ist die Versuchung, diese nach nur kurzem Probieren zu lesen und dann zu sagen, „Ach ja, so wollte ich das ja auch machen.“, doch zu groß. Es gibt neben vielen Standardaufgaben, die auf die eine oder andere Weise in jedem Buch und in jeder Vorlesung zur linearen Algebra zu finden sind, einige besondere Übungen: Zunächst werden am Ende jedes Abschnitts kleine Kontrollfragen gestellt. Diese sollen dazu dienen, sich nochmals klar zu machen, um welche Inhalte es gerade ging und wie diese einzuordnen sind. Weiter gibt es eine Reihe von Übungen mit starker Motivation aus der Physik. Auch wenn Vorwort xi diese vielleicht in parallelen Physikkursen erst später relevant werden, können die Probleme immer schon jetzt behandelt und gelöst werden. Dies ist insbesondere auch dann interessant, wenn die Physik nicht unbedingt im Zentrum des Interesses liegt: Der Wert dieser Übungen ist davon unabhängig. Es gibt ebenfalls eine Reihe von Übungen zum Erstellen von Übungen. Diese Meta-Übungen wurden deshalb eingefügt, da die Erstellung von konkreten Zahlenbeispielen oftmals viel interessanter ist, als das Lösen der resultierenden Rechenaufgaben selbst. Letztere sind eigentlich langweilig und haben in einem Mathematikstudium sehr wenig oder gar nichts verloren. Das Erstellen von sinnvollen Aufgaben dagegen ist nicht zuletzt für die Lehramtsstudierenden von zentraler Bedeutung für ihren späteren Beruf. Es werden in diesen Übungen also die „Tricks“ der Aufgabensteller verraten, die es einem selbst ermöglichen, sich Zahlenbeispiele zu konstruieren, deren Lösungen gut kontrolliert werden können. Als letzte Übung in jedem Kapitel gibt es eine „Beweisen oder widerlegen“-Übung. Hier sollen typischerweise schnelle und einfache Argumente oder Gegenbeispiele gefunden werden. Diese Fragen sind gleichsam auch typische Prüfungsfragen, wie sie in mündlichen Prüfungen (oder auch in Klausuren) auftreten können. Kein Buch ist fehlerfrei, so sind auch in diesem Lehrbuch möglicherweise noch an einigen Stellen Fehler und Unklarheiten. Ich werde diese auf meiner homepage https://www.mathematik.uni-wuerzburg.de/~waldmann/ kontinuierlich klarstellen. Kommentare hierzu sind selbstverständlich sehr willkommen. Dieses Lehrbuch entstand wie viele andere auch aus einem Skript zu einer Vorlesung, die ich zuerst in Erlangen 2012/2013 gehalten habe. Dort wurde auch die erste Version des Skripts erstellt, wobei ich Benjamin Lotter und Josias Reppekus für die Mithilfe beim Schreiben der LATEX-Dateien zu großem Dank verpflichtet bin. Weiter möchte ich mich bei meinen Assistenten Bas Janssen, Stéphane Merigon, und Christoph Zellner in Erlangen für das Erstellen der Übungen bedanken. Viele ihrer Übungen haben den Weg in dieses Buch gefunden. Meine Kollegen Peter Fiebig und Karl-Hermann Neeb in Erlangen haben mit vielen Diskussionen meine Sicht auf die lineare Algebra wesentlich beeinflusst. Ihnen gebührt dafür ebenfalls großer Dank. Beim zweiten Durchlauf der Vorlesung 2015/2016, nun in Würzburg, wurden verschiedene Aspekte geringfügig geändert und neue sowie andere Übungen hinzugenommen. Hier halfen mir Marvin Dippell, Chiara Esposito, Stefan Franz, Thorsten Reichert, Jonas Schnitzer, Matthias Schötz, Paul Stapor und Thomas Weber auf tatkräftige Weise. Ihnen allen schulde ich großen Dank, nicht nur für die Mithilfe bei den Übungen sondern auch für die vielen Kommentare und Diskussionen zur Gestaltung der Vorlesung und dieses Buches. Den meisten Dank schulde ich jedoch meiner Familie: Meine Kinder wie auch meine Frau Viola waren mir die entscheidende moralische Stütze bei diesem Projekt. Würzburg, Deutschland Februar 2016 Stefan Waldmann Inhaltsverzeichnis 1 Elementare Geometrie im Anschauungsraum R3 . . . . . . . . . . . . . . . . . . . 1.1 Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Abstände und Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Das Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 10 16 21 2 Intermezzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3 Von Gruppen, Ringen und Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Algebraische Strukturen und Morphismen . . . . . . . . . . . . . . . . . . . . . . 3.2 Invertierbarkeit und Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Ringe und Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Körper und die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Nochmals Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Lineare Gleichungssysteme und Vektorräume . . . . . . . . . . . . . . . . . . . . . . 81 4.1 Lineare Gleichungssysteme und Gauß-Algorithmus . . . . . . . . . . . . . . 81 4.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.3 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.4 Lineare Unabhängigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.5 Direkte Summen und Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4.6 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 5 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.2 Eigenschaften von linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 136 5.3 Klassifikation von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 5.4 Basisdarstellung und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 5.5 Spezielle Matrizen und Normalformen . . . . . . . . . . . . . . . . . . . . . . . . . 160 5.6 Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 5.7 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 29 30 36 44 52 63 68 xiii xiv Inhaltsverzeichnis 6 Determinanten und Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 6.1 Die symmetrische Gruppe Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 6.2 Existenz und Eindeutigkeit der Determinante . . . . . . . . . . . . . . . . . . . 206 6.3 Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 6.4 Eigenwerte und Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 6.5 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 6.6 Das Minimalpolynom und der Spektralsatz . . . . . . . . . . . . . . . . . . . . . 249 6.7 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268 6.8 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 7 Euklidische und unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 7.1 Innere Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293 7.2 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 7.3 Norm und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 7.4 Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 7.5 Isometrien und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320 7.6 Selbstadjungierte und normale Abbildungen . . . . . . . . . . . . . . . . . . . . 328 7.7 Der Spektralsatz für normale Abbildungen . . . . . . . . . . . . . . . . . . . . . 339 7.8 Positivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 7.9 Die Polarzerlegung und ihre Varianten . . . . . . . . . . . . . . . . . . . . . . . . . 366 7.10 Die Operatornorm und die Approximationszahlen . . . . . . . . . . . . . . . . 381 7.11 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 Anhang A Grundbegriffe der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 A.1 Aussagen und Junktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 A.2 Beweisstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 A.3 Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 A.4 Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416 A.5 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 Anhang B Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 B.1 Der Begriff der Menge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 B.2 Operationen mit Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 B.3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 B.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 B.5 Verkettungen von Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436 B.6 Mächtigkeit von Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 B.7 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 Symbolverzeichnis N, N0 Z Q, R, C aE 2 R 3 E kE hE a; bi, ak aE bE ˘ (auch ı, ) Morph.M; N / End.M / e, 1, 1 M .G; ; 1/ .G; C; 0/ Bij.M / Aut.M / n Sn D Bij.n/ Zp ker , im RŒx deg.p/ char.k/ Re.z/, Im.z/ z, jzj S1 RŒŒx LRos.A; b/ kn ıab `1 c, cı Natürliche Zahlen und natürliche Zahlen mit Null Ring der ganzen Zahlen Körper der rationalen, reellen und komplexen Zahlen Vektoren im Anschauungsraum R 3 Euklidisches Skalarprodukt und Norm im R 3 Kreuzprodukt im Anschauungsraum Verknüpfung Morphismen von M nach N Endomorphismen von M Neutrales Element (Einselement) Gruppe der invertierbaren Elemente eines Monoids M Multiplikativ geschriebene Gruppe Additiv geschriebene (abelsche) Gruppe Gruppe der Bijektionen von M Gruppe der Automorphismen von M Menge der ersten n natürlichen Zahlen Permutationsgruppe (symmetrische Gruppe) Zyklische Gruppe der Ordnung p Kern und Bild von Polynomring mit Koeffizienten in Ring R Grad eines Polynoms p Charakteristik eines Körpers k Real- und Imaginärteil von z 2 C Komplexe Konjugation und Betrag von z 2 C Einheitskreis in C Formale Potenzreihen mit Koeffizienten in R Lösungsmenge von linearem Gleichungssystem Vektorraum der Spaltenvektoren der Länge n Kronecker-Symbol Vektorraum der beschränkten Folgen Vektorraum der konvergenten Folgen, Nullfolgen xv xvi Abb0 .M; k/ span W P i 2I Ui e1 ; : : : ; en 2 kn vb dim V Q V Li 2I i i 2I Vi kB k .B/ C.Œa; b; R / VC Hom.V; W / rank ˚ V ŠW .B/ B Œv 2 k B Œ˚ A k .B/A 1AA Mnm .k/, Mn .k/ 1n (oft nur 1) GLn .k/ D Mn .k/ GL.V / D End.V / Eij Vi i 0 , Ri; , Sij AT AB V D Hom.V; k/ b 2 V ˚ W V ! V ŒA; B D AB BA `./, sign./ ij det.A/ D det.a1 ; : : : ; an / SLn .k/ A# V .1 ; : : : ; n / AB diag.1 ; : : : ; n / V A .x/ D det.A x 1/ tr.A/ P1 C C Pk D 1 Symbolverzeichnis Abbildungen mit endlichem Träger Spann der Teilmenge W Summe der Unterräume fUi gi 2I Standardbasis von kn Koordinaten von v bezüglich b 2 B Dimension des Vektorraums V Kartesisches Produkt von Vektorräumen Direkte Summe von Vektorräumen Kartesisches Produkt von B Kopien von k Direkte Summe von B Kopien von k Stetige Funktionen auf dem Intervall Œa; b Komplexifizierter Vektorraum zu reellem V Lineare Abbildungen (Homomorphismen) von V nach W Rang der linearen Abbildung ˚ Isomorphie von Vektorräumen Koordinaten von v bezüglich einer Basis B Matrix der linearen Abbildung ˚ bezüglich der Basen A und B B A-Matrizen mit Endlichkeitsbedingung A A-Einheitsmatrix n m-Matrizen, n n-Matrizen über k n n-Einheitsmatrix Allgemeine lineare Gruppe Allgemeine lineare Gruppe eines Vektorraums V .i; j /-Elementarmatrix Matrizen der elementaren Umformungen Transponierte Matrix zu A Äquivalenz von Matrizen Dualraum von V Koordinatenfunktional zum Basisvektor b 2 B V . Duale Abbildung zu ˚ Kanonische Einbettung in den Doppeldualraum Kommutator von A und B Länge und Signum der Permutation Transposition i $ j Determinante von A D .a1 ; : : : ; an / 2 Mn .k/ Spezielle lineare Gruppe Komplementäre Matrix zu A Vandermonde-Matrix Ähnlichkeit von Matrizen Diagonalmatrix mit Einträgen 1 ; : : : ; n Eigenraum zum Eigenwert Charakteristisches Polynom von A Spur von A Zerlegung der Eins Symbolverzeichnis mA VQ A D AS C AN spec.A/ Jn K h; i [ W V ! V Bil.V / Œh ; iB;B kk U? v D vk C v? PU O.n/, U.n/ SO.n/, SU.n/ A ] p A Ev jAj, AC , A sk .A/ kAk, kAk2 ak .A/ AB :p, p ^ q, p _ q pjq 8, 9 [, \, n M N Abb.M; N / 2M graph.f / f ıg f 1 .U / Q i 2I Mi Q pri W j 2I Mj ! Mi #M xvii Minimalpolynom von A Verallgemeinerter Eigenraum zum Eigenwert Jordan-Zerlegung in halbeinfachen und nilpotenten Teil Spektrum von A n n-Jordan-Matrix Alternativ R oder C Inneres Produkt, Skalarprodukt Musikalischer Homomorphismus bezüglich h ; i Bilinearformen auf V Matrix der Bilinearform h ; i bezüglich einer Basis B Norm Orthogonalkomplement der Teilmenge U V Orthogonale Zerlegung von v Orthogonalprojektor auf U Orthogonale und unitäre Gruppe Spezielle orthogonale und spezielle unitäre Gruppe Adjungierte Abbildung von A Inverses des musikalischen Isomorphismus [ Positive Wurzel von positivem A Erwartungswert im Zustand v Absolutbetrag, Positivteil und Negativteil von A k-ter Singulärwert von A Operatornorm und Hilbert-Schmidt-Norm von A k-te Approximationszahl von A Partielle Ordnung selbstadjungierter Abbildungen Logische Negation, logisches Und, logisches Oder Schefferscher Strich (logisches Nicht-Und) Quantoren „für alle“ und „es existiert“ Vereinigung, Durchschnitt und Komplement Kartesisches Produkt der Mengen M und N Abbildungen von M nach N Potenzmenge der Menge M Graph der Abbildung f Verkettung der Abbildungen f und g Urbild der Teilmenge U Kartesisches Produkt der Mengen fMi gi 2I Projektion auf i -te Komponente Mächtigkeit der Menge M 1 Elementare Geometrie im Anschauungsraum R3 In diesem ersten Kapitel wollen wir an das Schulwissen zur linearen Algebra und elementaren Geometrie anknüpfen und unsere unmittelbare Anschauung dazu verwenden, einige erste mathematische Definitionen zu Vektoren, Geraden und Ebenen im R3 zu motivieren. Dieses Kapitel wird daher weitgehend als Heuristik zu verstehen sein – einen systematischeren und vor allem mathematisch exakteren Zugang zu den verschiedenen Begriffen der linearen Algebra werden wir uns in den folgenden Kapiteln erarbeiten müssen. Dieses Kapitel dient weiterhin auch dazu, sich mit den verschiedenen, in der linearen Algebra und auch darüber hinaus in der Mathematik üblichen Schreibund Sprechweisen vertraut zu machen. Insbesondere wird konsequent bereits hier von einer mengentheoretischen Schreibweise Gebrauch gemacht. Wer hiermit nicht vertraut ist, findet die nötigen Details in Anhang B. 1.1 Vektoren im Anschauungsraum Um einen Punkt p im Raum festzulegen, benötigen wir zunächst einen fest gewählten, aber ansonsten willkürlichen Ursprungspunkt, den wir mit 0 bezeichnen. Weiter müssen wir drei Richtungen, die Koordinatenrichtungen, auszeichnen. Vom Punkt 0 aus benötigen wir dann drei Zahlen, die Koordinaten .x; y; z/ des Punktes p, um von 0 eindeutig zu p zu finden. Dazu bewegt man sich zunächst x Einheiten in Richtung der ersten Koordinatenachse, dann y Einheiten in Richtung der zweiten und schließlich z Einheiten in Richtung der dritten Koordinatenachse. Wir können daher die Punkte im Anschauungsraum mit den Tripeln .x; y; z/ von reellen Zahlen identifizieren. Der Ursprung 0 besitzt somit die Koordinaten .0; 0; 0/. Die Menge aller solcher Zahlentripel bezeichnen wir mit R3 . Oft werden diese Tripel auch in Spaltenform geschrieben und Vektoren im Anschauungsraum R3 genannt, siehe auch Abb. 1.1. Weiter ist auch die Schreibweise pE anstelle von p üblich, insbesondere eben für Vektoren im Anschauungsraum R3 . Wir schreiben daher auch © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_1 1 1 Elementare Geometrie im Anschauungsraum R 3 2 z p z 0 y x x y Abb. 1.1 Vektor pE mit den Koordinaten .x; y; z/ im R 3 0 1 x pE D @y A oder z 1 px pE D @py A oder pz 0 0 1 p1 pE D @p2 A: p3 (1.1) Letzteres stellt offenbar eine geschicktere Notation dar, sobald wir mehrere Vektoren mit ihren Komponenten bezeichnen wollen. Oft werden in der Mathematik sehr verschiedene Bezeichnungen und Schreibweisen verwendet. Es ist daher wichtig, sich früh daran zu gewöhnen und flexibel zwischen verschiedenen Traditionen wechseln zu können. Wir werden dies noch an vielen weiteren Stellen sehen. Es gibt nun verschiedene einfache Operationen, wie wir aus bereits gegebenen Vektoren neue erhalten können. Zunächst können wir einen Vektor pE strecken und stauchen, indem wir ihn mit einem Skalenfaktor 2 R skalieren, siehe auch Abb. 1.2. Die neuen Koordinaten des mit skalierten Vektors sind dann p1 , p2 und p3 , weshalb wir diesen Vektor auch mit pE bezeichnen werden. Ebenfalls kann man einen Vektor pE an einen anderen Vektor qE anheften, also zunächst vom Ursprung nach qE gehen und anschließend noch um pE weitergehen, siehe Abb. 1.3. Eine elementare Überlegung zeigt, dass der resultierende Punkt die Koordinaten p1 C q1 , p2 C q2 und p3 C q3 besitzt. Wir bezeichnen diesen Punkt daher mit pE C qE. Diese beiden Konstruktionen erfüllen nun einige einfache Rechenregeln, die wir hier zusammentragen wollen. Proposition 1.1. Seien ; 2 R und p; E qE; rE 2 R3 . i.) Es gilt . p/ E D ./ p. E ii.) Es gilt . C / pE D pE C p. E iii.) Es gilt .pE C qE/ D pE C qE. 1.1 Vektoren im Anschauungsraum 3 z p 0 y 1 − p 2 x Abb. 1.2 12 -Faches des Vektors pE z p p + q 0 y q x Abb. 1.3 Die Summe der Vektoren pE und qE iv.) v.) vi.) vii.) Es gilt 1 pE D p. E Es gilt 0 C pE D p. E Es gilt pE C qE D qE C p. E Es gilt .pE C qE/ C rE D pE C .E q C rE/. 0 1 p1 viii.) Es gilt pE C .p/ E D 0 wobei pE D @p2 A D .1/ p. E p3 Der Nachweis dieser Rechenregeln ist elementar und folgt unmittelbar aus den Eigenschaften der Addition und Multiplikation von reellen Zahlen. Wir werden zukünftig auch die abkürzende Schreibweise pE anstelle von pE verwenden. Dies ist erneut eine übliche Konvention in der Mathematik: Wenn man eine neue Struktur betonen möchte, verdeutlicht man dies in der Notation. Hat man sich bereits 1 Elementare Geometrie im Anschauungsraum R 3 4 daran gewöhnt, vernachlässigt man dies und wendet sich neuen Betonungen in der Bezeichnung zu. Aus naheliegenden Gründen nennen wir pE und qE parallel, falls es ein 2 R gibt, sodass pE D E q oder qE D p. E Insbesondere ist 0E zu allen Vektoren parallel. 1.2 Geraden und Ebenen Aufbauend auf den Operationen C und für Vektoren gemäß Proposition 1.1 wollen wir nun Geraden und Ebenen im Anschauungsraum R3 charakterisieren. Hier werden wir jeweils zwei äquivalente Beschreibungen kennenlernen, die gleichungsbasierte und die parametrisierte Version. Eine Ebene können wir als den geometrischen Ort E R3 beschreiben, dessen E cE 2 Punkte pE 2 E man folgendermaßen erhält: Zunächst gibt es drei Vektoren aE , b, 3 E R , wobei aE und b nicht Vielfache voneinander sein dürfen. Mit anderen Worten, aE und bE sind nicht parallel. Dann ist pE 2 E, falls es ; 2 R mit pE D E q C bE C cE (1.2) gibt, siehe Abb. 1.4. Dies ist die Parameterdarstellung einer Ebene: Ausgehend von einem Punkt cE in der Ebene (man wähle D D 0 in (1.2), um cE 2 E zu erhalten), findet man alle anderen Punkte der Ebene, indem man geeignete Vielfache der Vektoren aE und bE zu cE hinzuzählt. Man sagt auch, dass aE und bE die Ebene E durch den Aufpunkt cE aufspannen. Die Bedingung, dass aE und bE nicht parallel sein dürfen, ist klar, da man sonst nur eine Richtung anstelle der zwei für eine Ebene notwendigen Richtungen zur Verfügung hätte. z b E x c a 0 y x Abb. 1.4 Parameterdarstellung einer Ebene E 1.2 Geraden und Ebenen 5 z G x 0 a y b x Abb. 1.5 Parameterdarstellung einer Geraden G Dieser entartete Fall führt auch sofort zur Parameterdarstellung einer Geraden: Hier soll es zwei Vektoren aE ; bE 2 R3 geben, sodass aE ¤ 0. Dann ist die Gerade G durch bE in Richtung aE durch diejenigen Punkte pE 2 R3 gegeben, für die es ein 2 R mit pE D E a C bE (1.3) gibt, siehe Abb. 1.5. Offenbar ist bE auf dieser Gerade, nämlich für D 0. Man kann sich die Parameterdarstellung so vorstellen, dass ein Teilchen zur Zeit D 0 im Punkt bE startet, und dann mit der konstanten Geschwindigkeit aE E Wir fassen davonfliegt. Zu einer späteren Zeit befindet es sich dann bei E a C b. diese geometrischen Vorüberlegungen nun in folgender Definition zusammen. E cE 2 Definition 1.2 (Parameterdarstellung von Ebene und Gerade). Seien aE ; b; 3 R . i) Gilt aE ¤ 0, so ist die Gerade G durch bE in Richtung aE als ˇ o n ˇ a C bE G D pE 2 R3 ˇ es gibt ein 2 R mit pE D E (1.4) definiert. ii) Sind aE ; bE nicht parallel, so ist die von aE und bE aufgespannte Ebene E durch cE als ˇ n o ˇ E D pE 2 R3 ˇ es gibt ; 2 R mit pE D E a C bE C cE (1.5) definiert. 1 Elementare Geometrie im Anschauungsraum R 3 6 Bemerkung 1.3. Die Parameterdarstellungen von Geraden oder Ebenen sind nicht E eindeutig: Es gibt viele aE , bE und aE 0 , bE0 , sodass die Geraden fpE 2 R3 j pE D E a C bg 3 1 0 0 0 E und fpE 2 R j pE D E a C b g übereinstimmen. So können wir etwa aE D 2 aE erklären und bE0 D bE belassen. Dann müssen wir die Zeit 0 D 2 entsprechend reskalieren und erhalten die gleiche Teilmenge von R. Ebenso können wir auch bE0 D aE C bE0 setzen und aE 0 D aE , dann müssen wir 0 D 1 wählen, um denselben Punkt pE D E a C bE D 0 aE 0 C bE0 zu erhalten. Wir werden noch sehen, wie diese Vieldeutigkeit genau verstanden werden kann. Für eine parametrische Ebene erhalten wir ähnliche Vieldeutigkeiten. Wir wollen nun eine zweite Möglichkeit zur Beschreibung einer Ebene und einer Gerade untersuchen: die gleichungsdefinierte Variante. Wir beginnen wieder mit der Ebene. Seien dazu nE 2 R3 ein von 0 verschiedener Vektor und r 2 R eine reelle Zahl. Wir betrachten dann die Gleichung n 1 p 1 C n2 p 2 C n3 p 3 D r (1.6) für einen Vektor pE 2 R3 , wobei p1 , p2 und p3 die jeweiligen Komponenten des Vektors pE seien. E cE 2 R3 mit aE Proposition 1.4. Seien nE 2 R3 n f0g und r 2 R. Dann gibt es aE ; b; E sodass pE 2 R3 die Gl. (1.6) genau dann erfüllt, wenn pE in der nicht parallel zu b, E durch aE und b aufgespannten Ebene durch cE liegt. Beweis. Wir müssen zunächst gute Kandidaten für aE , bE und cE finden. Da diese ja nicht eindeutig durch die Ebene bestimmt sind, ist es schwierig, welche zu finden. Dies ist ein allgemeines Phänomen in der Mathematik: Lösungen eines Problems zu finden, ist typischerweise umso schwieriger, je mehr es davon gibt. Eine eindeutige Lösung zu finden, ist dagegen oftmals vergleichbar einfach. Da nE ¤ 0, können wir ohne Beschränkung der Allgemeinheit annehmen, dass beispielsweise n3 ¤ 0 gilt. Wäre n3 D 0, könnten wir die folgenden Formeln einfach modifizieren. In diesem Fall gilt für pE 2 R3 die Gl. (1.6) genau dann, wenn p3 D n1 n2 r p1 p2 C : n3 n3 n3 (1.7) Wir setzen nun beispielsweise 0 1 1 B C aE D @ 0 A; n1 n3 1 0 C B bE D @ 1 A; n2 n3 0 und 0 1 0 B C cE D @ 0 A: r n3 1.2 Geraden und Ebenen 7 E cE 2 R3 gilt zunächst, dass aE und bE nicht parallel sind, dies Für diese Vektoren aE , b, ist durch die jeweiligen ersten beiden Komponenten bereits ausgeschlossen. Damit definieren diese drei Vektoren eine Ebene ˇ o n ˇ a C bE C cE : E D pE 2 R3 ˇ es gibt ; 2 R mit pE D E Wir behaupten nun, dass pE 2 E genau dann gilt, wenn pE die Gl. (1.6) oder äquivalent dazu die Gl. (1.7) erfüllt. Gilt (1.7) für pE 2 R3 , so gilt 1 0 1 0 1 0 0 0 p1 p1 C B C B C B B p2 p1 aE C p2 bE C cE D @ 0 A C @ p2 A C @ 0 A D @ r nn2 p3 2 nn3 p3 1 nn2 p3 2 C nn1 p3 1 n3 1 0 r n3 C E A D p; womit pE 2 E mittels der Wahl D p1 und D p2 gezeigt ist. Sei umgekehrt pE 2 E mit gewissen ; 2 R, sodass pE D E a C bE C cE gilt. Dann gilt also p1 D ; p2 D und p3 D n1 n1 r C ; n3 n3 n3 was man anhand der expliziten Formeln für aE , bE und cE direkt abliest. Einsetzen von und liefert daher p3 D n1 n2 r p1 p2 C ; n3 n3 n3 und damit ist (1.7) erfüllt. Dies zeigt die gewünschte Äquivalenz. t u Die Gleichungen der Form (1.6) beschreiben also ebenfalls Ebenen im R3 , wobei der Zusammenhang der beiden Darstellungen (1.6) und (1.5) etwas technisch ist. Für eine Gerade erhalten wir ebenfalls eine gleichungsdefinierte Variante, welche man auf folgende Weise erhalten kann: Sind zwei Ebenen E1 und E2 im R3 gegeben, so können diese auf folgende drei Weisen zueinander stehen: i.) Die Ebenen sind gleich. ii.) Die Ebenen sind parallel, aber nicht gleich. iii.) Die Ebenen sind nicht parallel. Im ersten Fall ist der Schnitt E1 \ E2 wieder eine Ebene, nämlich E1 D E2 . Im zweiten Fall ist der Schnitt leer, E1 \ E2 D ;. Im dritten Fall ist der Schnitt schließlich eine Gerade. Wir wollen diese geometrischen und heuristischen Überlegungen nicht im Detail begründen, dies wird insbesondere in Abschn. 4.3 in viel größerer Allgemeinheit noch geschehen. Vielmehr nehmen wir diese Überlegungen als Motivation dafür, folgende Situation zu betrachten: Seien nE ; m E 2 R3 zwei 1 Elementare Geometrie im Anschauungsraum R 3 8 Vektoren, die nicht parallel sind, und seien r; s 2 R zwei reelle Zahlen. Dann betrachten wir die beiden durch die Gleichungen n1 p1 C n2 p2 C n3 p3 D r (1.8) m 1 p1 C m 2 p2 C m 3 p3 D s (1.9) und definierten Ebenen E1 und E2 . Bis jetzt haben wir die geometrische Bedeutung der Vektoren nE und m E noch nicht diskutiert, aber die Voraussetzung, dass nE und m E nicht parallel sind, wird hinreichend dafür sein, dass der Schnitt von E1 und E2 eine Gerade ist. Proposition 1.5. Seien nE ; m E 2 R3 nicht parallel und seien r; s 2 R. Dann gibt es 3 E aE ; b 2 R mit aE ¤ 0, sodass pE 2 R3 genau dann die beiden Gleichungen (1.8) und (1.9) erfüllt, falls pE auf der Geraden durch bE in Richtung aE liegt. Beweis. Wir müssen wieder Kandidaten aE ; bE 2 R3 finden. Dazu formen wir die Bedingungen (1.8) und (1.9) geeignet um. Wir wissen nE ¤ 0 ¤ m, E und es gibt kein 2 R mit E n D m. E Man überlegt sich nun, dass dies äquivalent dazu ist, dass von den drei Zahlen a1 D n2 m3 n3 m2 ; a2 D n3 m1 n1 n3 und a3 D n1 m2 n2 m1 mindestens eine ungleich 0 ist, der Vektor aE 2 R3 mit diesen Komponenten also nicht der Nullvektor ist. Wir beweisen dies durch eine Fallunterscheidung: Sei zunächst n1 ¤ 0. Dann folgt aus aE D 0 m1 D m1 n1 ; n1 m2 D m1 n2 n1 und m3 D m1 n3 ; n1 also m E D E n mit D mn11 . Der Fall n1 D 0 führt auf n2 ¤ 0 oder n3 ¤ 0, welche analog behandelt werden. Gilt umgekehrt m E D E n, so folgt aE D 0 direkt durch eine Rechnung, was die Behauptung zeigt. Nun können wir ohne Einschränkung beispielsweise a3 ¤ 0 annehmen. Dann folgt aus (1.8) und (1.9) die Gleichung m1 (1.8) n1 (1.9), explizit gegeben durch m1 n2 p2 n1 m2 p2 C m1 n3 p3 n1 m3 p3 D m1 r n1 s: Also gilt a3 p2 C a2 p3 D m1 r n1 s. Da a3 ¤ 0 nach Annahme, folgt p2 D a2 m 1 r n1 s p3 : a3 a3 1.2 Geraden und Ebenen 9 Da a3 ¤ 0, können nicht beide Zahlen n1 und m1 die Null sein. Sei also beispielsweise n1 ¤ 0. Dann folgt aus (1.8) weiter durch Einsetzen 1 .n2 p2 n3 p3 C r/ n1 n2 a2 r 1 n2 m 1 r n1 s C D n3 p3 C n1 a3 n1 a3 n1 p1 D D a1 n2 m1 r n2 n1 s C a3 r p3 C : a3 n1 a3 Wir betrachten nun den Punkt 1 0 bE D n2 m1 rn2 n1 sCa3 r n1 a3 C B 1s A: @ m1 rn a3 0 Dann gilt für pE die Gleichung pE D E a C bE mit D pa33 . Damit liegt pE also auf der Geraden durch bE in Richtung aE . Sei umgekehrt ein Punkt pE auf dieser Geraden gegeben, so gibt es also ein 2 R mit E Wir behaupten, dass dann pE die beiden Gl. (1.8) und (1.9) erfüllt. Dies pE D E a C b. ist nun im Wesentlichen durch ausdauerndes und stures Nachrechnen zu verifizieren. Als Hinweis mag nützlich sein, sich zunächst n1 a1 C n2 a2 C n3 a3 D 0 und m1 a1 C m2 a2 C m3 a3 D 0 zu überlegen. Die verbleibenden Rechnungen sind dann einfach und können als Übung durchgeführt werden. Die Fälle, in denen n1 D 0 oder a3 D 0 gilt, behandelt man schließlich analog. t u Bemerkung 1.6. Der obige Beweis lehrt nun mindestens zwei Dinge: Zum einen haben wir ein erstes Beispiel dafür gefunden, wie ein geometrisches Problem auf algebraische Weise beschrieben und dann gelöst werden kann: Der geometrische Schnitt zweier Ebenen liefert eine Gerade. Zum anderen haben wir ein Beispiel für eine völlig konzeptionslose und unschöne Beweisführung kennengelernt. Das Problem wird zwar durch „rohe Gewalt“ mit vielen Fallunterscheidungen und etlichen Rechnungen gelöst, es bleibt aber ein fahler Nachgeschmack: Es scheinen verborgene Gründe dafür verantwortlich zu sein, dass alles so gut funktioniert. Im Laufe dieses Buches werden wir sehen, dass dies tatsächlich der Fall ist. Wir werden sehr viel klarere und konzeptionellere Beweise finden, welche das gleiche Resultat 1 Elementare Geometrie im Anschauungsraum R 3 10 z p p = pz 0 · x p 2x + p 2y + p 2z · · px y py Abb. 1.6 Euklidische Länge eines Vektors und noch viel allgemeinere Resultate liefern werden, ohne solche undurchsichtigen Rechnungen durchführen zu müssen. Schließlich wäre auch eine Umkehrung der Aussage wünschenswert: Eine Ebene in Parameterdarstellung lässt sich auch durch eine Gleichung der Form (1.6) beschreiben, sofern nE und r geschickt gewählt werden, ebenso für eine Gerade in Parameterdarstellung. Wir könnten durch „reverse engineering“ eine derartige Aussage im gleichen Stil nun auch beweisen, verschieben dies aber auf etwas später, um zuerst eine bessere geometrische Einsicht in die Bedeutung von nE und r zu erlangen. Kontrollfragen. Wie können Sie Geraden und Ebenen im R3 beschreiben? 1.3 Abstände und Winkel Bis jetzt haben wir von Vektoren als Elemente von R3 gesprochen, ohne ihnen eine Länge zuordnen zu können. Die elementare Geometrie lehrt uns nun, dass wir die Länge eines Vektors pE als Abstand von 0 zu pE im R3 mit dem Satz des Pythagoras ausrechnen können. Wir bezeichnen die euklidische Länge von pE mit kpk E D q p12 C p22 C p32 ; (1.10) siehe auch Abb. 1.6. Der euklidische Abstand zwischen zwei beliebigen Punkten p; E qE 2 R3 ist dann entsprechend durch d .p; E qE/ D kpE qEk D gegeben. p .p1 q1 /2 C .p2 q2 /2 C .p3 q3 /2 (1.11) 1.3 Abstände und Winkel 11 Wir wollen nun die Bestimmung von Längen etwas konzeptioneller fassen. Dazu ist folgender Begriff des (kanonischen) Skalarprodukts sehr hilfreich. Definition 1.7 (Skalarprodukt im R3 ). Für zwei Vektoren p; E qE 2 R3 definiert man ihr Skalarprodukt durch hp; E qEi D p1 q1 C p2 q2 C p3 q3 : (1.12) Wir können das Skalarprodukt also als Abbildung h ; iW R3 R3 ! R auffassen. Als alternative Schreibweisen sind auch pE qE sowie .p; E qE/ in der Literatur gebräuchlich. Proposition 1.8. Das Skalarprodukt (1.12) besitzt folgende Eigenschaften: i.) Für alle p; E qE; rE 2 R3 und ; 2 R gilt hp; E E q C Er i D hp; E qEi C hp; E rEi: (1.13) ii.) Für alle p; E qE 2 R3 gilt hp; E qEi D hE q ; pi: E (1.14) iii.) Für alle pE 2 R3 gilt hp; E pi E 0 und hp; E pi E D 0 ” pE D 0: (1.15) Alle drei Eigenschaften verifiziert man mühelos anhand der expliziten Formel. Für (1.15) verwendet man, dass eine Summe von Quadraten von reellen Zahlen genau dann 0 ist, wenn jedes einzelne Quadrat 0 ist. Durch Kombination von (1.13) und (1.14) erhält man hpE C E q ; rEi D hp; E rEi C hE q ; rEi (1.16) für alle p; E qE; rE 2 R3 und ; 2 R. Insbesondere folgt h0; qEi D 0 D hp; E 0i (1.17) für alle p; E qE 2 R3 . Man beachte, dass das Symbol 0 hier in zweierlei Bedeutungen auftritt. Die euklidische Länge, auch die Norm des Vektors genannt, lässt sich als kpk E D schreiben. q hp; E pi E (1.18) 1 Elementare Geometrie im Anschauungsraum R 3 12 Wir wollen nun ein erstes nichttriviales Resultat für das Skalarprodukt beweisen, die Cauchy-Schwarz-Ungleichung: Proposition 1.9 (Cauchy-Schwarz-Ungleichung, R3 ). Seien p; E qE 2 R3 , dann gilt ˇ2 ˇ ˇhp; E qEiˇ hp; E pihE E q ; qEi: (1.19) Beweis. Die Ungleichung ist trivialerweise erfüllt, wenn einer der beiden Vektoren 0 ist. Seien also die Vektoren pE und qE von 0 verschieden. Dann betrachten wir das quadratische Polynom f ./ D hpE C qE; pE C qEi D 2 hp; E pi E C 2hp; E qEi C hE q ; qEi für 2 R. Nach Proposition 1.8, iii.), gilt für alle f ./ 0: Wir setzen nun den speziellen Wert D hp; E qEi hp; E pi E ein und erhalten 0 jhp; E qEij2 hp; E pi E2 hp; E pi E 2 jhp; E qEij2 jhp; E qEij2 C hE q ; qEi D C hE q ; qEi: hp; E pi E hp; E pi E Da nach Voraussetzung hp; E pi E > 0 gilt, folgt (1.19) nach Multiplikation mit hp; E pi. E t u Wir verwenden die Cauchy-Schwarz-Ungleichung nun, um für zwei Vektoren einen Winkel zwischen ihnen zu definieren. Definition 1.10 (Winkel im R3 ). Seien p; E qE 2 R3 nf0g Vektoren ungleich 0. Dann definiert man den Winkel ' 2 Œ0; zwischen pE und qE durch cos ' D hp; E qEi : kpkkE E qk Die Vektoren pE und qE heißen orthogonal (senkrecht), falls ' D (1.20) . 2 Bemerkung 1.11. An dieser Stelle verwenden wir zum einen das Vorwissen, dass die Kosinusfunktion jedem ' 2 Œ0; eine eindeutig bestimmte Zahl cos ' 2 Œ1; 1 1.3 Abstände und Winkel 13 cos(x) 1 sin(x) 0 π 2 π 3π 2 2π x −1 Abb. 1.7 Winkelfunktionen sin.x/ und cos.x/ zuordnet und jede Zahl in diesem Intervall auch genau einem Winkel in Œ0; entspricht, siehe auch Abb. 1.7. Diese Tatsache ist aus der Schule bekannt und wird in der Analysis eingehend diskutiert und bewiesen. Weiter benutzen wir die Cauchy-Schwarz-Ungleichung (1.19), um zu sehen, dass die rechte Seite in (1.20) tatsächlich eine Zahl zwischen 1 und C1 ist. Damit können wir die rechte Seite nun wirklich als Kosinus eines Winkels auffassen. Schließlich bemerken wir, dass pE und qE genau dann orthogonal zueinander stehen, wenn hp; E qEi D 0 (1.21) gilt. Damit haben wir also ein einfaches Mittel zur Überprüfung der Orthogonalität gefunden. Bemerkung 1.12. Es bedarf an dieser Stelle noch einer Argumentation, dass der durch (1.20) definierte Winkel ' wirklich mit der elementargeometrischen Vorstellung des Winkels zwischen pE und qE übereinstimmt. Wir wollen dies aus zwei Gründen nicht ausführen. Zum einen ist die Rechnung mittels bekannter Resultate aus der Dreiecksgeometrie eher langweilig und technisch. Zum anderen, und das ist der relevante Grund, ist die Dreiecksgeometrie aus der Schule mathematisch gesehen recht schlecht begründet. Insbesondere ist mit Schulmitteln eigentlich keine mathematisch befriedigende Definition eines Winkels möglich. Es ist daher der empfehlenswertere und auch übliche Weg, die Definition 1.10 als Grundlage eines Winkelbegriffs zu nehmen und daraus die Sätze der Dreiecksgeometrie herzuleiten, siehe etwa [1, Abschnitt III.6]. Einen Vektor eE 2 R3 nennt man Einheitsvektor, falls kE e k D 1: (1.22) Insbesondere ist 0 sicherlich kein Einheitsvektor. Ist nun aE 2 R3 ein von null verschiedener Vektor, so ist 1 Elementare Geometrie im Anschauungsraum R 3 14 eE D aE kE ak (1.23) ein Einheitsvektor, denn q kE e k D hE e ; eEi D s s p aE aE 1 ; D hE a; aE i D 1 D 1 2 kE ak kE ak kE ak (1.24) gilt nach den Rechenregeln (1.13) und (1.16) für das Skalarprodukt. Die Ersetzung von aE durch kEaaEk nennt man aus naheliegenden Gründen auch Normieren des Vektors aE . aE Die Vektoren aE und kak sind offenbar parallel. Eine kleine Anwendung ist nun, dass wir für eine Gerade in Parameterdarstellung ˇ o n ˇ a C bE G D pE 2 R3 ˇ es gibt ein 2 R mit pE D E (1.25) immer annehmen können, dass aE ein Einheitsvektor ist. Ist nämlich aE kein EinheitsaE vektor, so können wir aE durch kak ersetzen, was die gleiche Gerade in einer anderen Parametrisierung liefert. Für eine Ebene in Parameterdarstellung können wir entsprechend erreichen, dass die Vektoren aE und bE beide Einheitsvektoren sind. Es geht aber sogar noch mehr: Proposition 1.13. Sei E die von aE ; bE 2 R3 aufgespannte Ebene durch cE 2 R3 . Dann gibt es Vektoren eE; fE 2 R3 mit der Eigenschaft kE e k D 1; kfEk D 1 und hE e ; fEi D 0; (1.26) welche die gleiche Ebene E durch cE aufspannen. Beweis. Wir wollen zunächst den Vektor bE in eine Parallel- und eine Orthogonalkomponente bezüglich aE zerlegen. Wir definieren E hE a; bi aE bEk D hE a; aE i und bE? D bE bEk ; siehe auch Abb. 1.8. Der Vektor bEk ist offenbar parallel zu aE . Für bE? gilt nun E aE i hbE? ; aE i D hbE bEk ; aE i D hb; E E a; bi hE a; bi E aE i hE aE ; aE D hb; hE a; aE i D 0 hE a; aE i hE a; aE i 1.3 Abstände und Winkel 15 Abb. 1.8 Die Zerlegung von bE in einen Parallel- und einen Orthogonalanteil bezüglich aE b b ⊥ · b a unter Verwendung der Eigenschaften des Skalarprodukts gemäß Proposition 1.8. Damit ist bE? also tatsächlich orthogonal zu aE , und es gilt bE D bEk C bE? : Da bE nach Voraussetzung nicht parallel zu aE ist, muss bE? ¤ 0 sein. Ist nun pE D E a C bE C cE 2 E, so gilt ! E hE a ; bi pE D E a C bEk C bE? C cE D C aE C bE? C cE: hE a; aE i Daher ist pE auch in der Ebene, die von aE und bE? aufgespannt wird. Gilt umgekehrt pE D 0 aE C 0 bE? C cE; so folgt 0 0E 0E pE D aE bk C bk C 0 bE? 0 C cE D E a; bi 0 hE hE a; aE i ! aE C 0 bE C cE; also pE 2 E. Daher sind beide Ebenen gleich. Wir können nun aE und bE? auch noch normieren und setzen eE D aE kE ak und bE? fE D : kbE? k 1 Elementare Geometrie im Anschauungsraum R 3 16 Dann gilt nach wie vor die Orthogonalität 1 1 hE e ; fEi D hE a; bE? i D 0: kE ak kbE? k Wir werden in Satz 7.45 diese Konstruktion nochmals aufgreifen und in einen größeren Zusammenhang stellen. t u Kontrollfragen. Wie werden Winkel definiert? Wann sind zwei Vektoren orthogonal? Wie können Sie den Parallel- und den Orthogonalanteil eines Vektors bezüglich eines anderen ausrechnen? 1.4 Das Kreuzprodukt Als letztes wichtiges Werkzeug der Geometrie im R3 wollen wir das Vektorprodukt oder auch Kreuzprodukt oder äußeres Produkt vorstellen. Implizit haben wir im Beweis von Proposition 1.5 bereits davon Gebrauch gemacht. Definition 1.14 (Vektorprodukt). Seien aE ; bE 2 R3 . Dann definiert man das Vektorprodukt aE bE 2 R3 durch 0 1 a2 b3 a3 b2 aE bE D @a3 b1 a1 b3 A: a1 b2 a2 b1 (1.27) Für die Einheitsvektoren in Richtung der Koordinatenachsen gilt also beispielsweise eE1 eE2 D eE3 ; eE2 eE3 D eE1 ; und eE3 eE1 D eE2 : (1.28) Wir können das Vektorprodukt nun als eine Abbildung W R3 R3 ! R3 (1.29) auffassen. Im Gegensatz zum Skalarprodukt nimmt das Vektorprodukt seine Werte wieder im R3 an, was die Bezeichnung erklärt. Wir sammeln nun einige erste algebraische Eigenschaften des Vektorprodukts. E cE 2 R3 und ; 2 R. Proposition 1.15. Seien aE ; b; E C .E i.) Es gilt aE .bE C E c / D .E a b/ a cE/. E E ii.) Es gilt die Antisymmetrie aE b D b aE . iii.) Es gilt genau dann aE bE D 0, wenn aE und bE parallel sind. 1.4 Das Kreuzprodukt 17 E iv.) Der Vektor aE bE steht senkrecht auf aE und auf b. E cEiE v.) Es gilt die Graßmann-Identität aE bE cE D hE a; cEibE hb; a. E cE C bE .E vi.) Es gilt die Jacobi-Identität aE .bE cE/ D .E a b/ a cE/. Beweis. Die erste Aussage rechnet man komponentenweise nach, also etwa für die erste Komponente aE bE C E c 1 D a2 bE C E c 3 a3 bE C E c 2 D a2 b3 C c3 a3 b2 C c2 D a2 b3 a3 b2 C a2 c3 a3 c2 D aE bE 1 C aE bE 1 : Die beiden anderen Komponenten behandelt man analog. Die Antisymmetrie des Kreuzprodukts ist klar nach Definition, denn aE bE 1 D a2 b3 a3 b2 D b2 a3 b3 a2 D bE aE 1 und analog für die zweite und dritte Komponente. Der dritte Teil wurde bereits im Beweis von Proposition 1.5 gezeigt. Für den vierten Teil rechnen wir nach, dass D E aE ; aE bE D a1 aE bE 1 C a2 aE bE 2 C a3 aE bE 3 D a1 a2 b3 a1 a3 b2 C a2 a3 b1 a2 a1 b3 C a3 a1 b2 a3 a2 b1 D 0: E Ebenso gilt mit ii.) Also steht aE senkrecht auf aE b. ˛ ˛ ˝ ˝ E bE aE D 0: E aE bE D b; b; Die Graßmann-Identität und die Jacobi-Identität werden in den Übungen nachgerechnet, siehe Übung 1.6. t u Insbesondere folgt aE aE D 0 und aE 0 D 0. Um eine geometrische Interpretation E von aE bE zu finden, bestimmen wir die Länge von aE b: Proposition 1.16. Seien aE ; bE 2 R3 n f0g und sei ' 2 Œ0; der Winkel zwischen aE und bE gemäß Definition (1.10). Dann gilt E D kE E sin ': kE a bk akkbk (1.30) 1 Elementare Geometrie im Anschauungsraum R 3 18 Beweis. Dies ist eine einfache Rechnung. Es gilt ˝ ˛ E aE bE D .a2 b3 a3 b2 /2 C .a3 b1 a1 b3 /2 C .a1 b2 a2 b1 /2 aE b; D a2 2 b3 2 2a2 a3 b2 b3 C a32 b22 C a32 b12 2a1 a3 b1 b3 C a12 b32 C a12 b22 2a1 a2 b1 b2 C a22 b12 D a12 C a22 C a32 b12 C b22 C b32 .a1 b1 C a2 b2 C a3 b3 /2 E bi E hE E2 D hE a; aE ihb; a; bi E2 hE a; bi E D kE ak kbk 1 E 2 kE ak2 kbk E 2 1 .cos '/2 ; D kE ak2 kbk 2 ! 2 womit die Behauptung folgt, da sin ' 0 für ' 2 Œ0; und somit sin ' D p 1 .cos '/2 . t u Damit ist der Vektor aE bE bis auf ein Vorzeichen vollständig bestimmt. Seine Länge ist durch Proposition 1.16 festgelegt, seine Richtung durch Proposition 1.15, iv.), bis auf ein Vorzeichen. Diese beiden Charakteristiken lassen noch nicht zu, zwischen aE bE und E a bE zu unterscheiden. Diese letzte Freiheit wird durch die Eigenschaft fixiert, dass die drei Vektoren aE , bE und aE bE ein rechtshändiges System von Vektoren bilden. Eine anschauliche Definition von „rechtshändig“ besteht darin, dem ersten Vektor aE den Daumen der rechten Hand, bE den Zeigefinger und aE bE schließlich den Mittelfinger zuzuordnen, sodass die Vektoren in Richtung der jeweiligen Fingerspitzen zeigen, siehe Abb. 1.9. Eine präzise mathematische Definition eines rechtshändigen Systems ist dies leider noch nicht: Wir können zu diesem Zeitpunkt jedoch „rechtshändig“ dadurch definieren, dass eben Vektoren der Form aE , bE und aE bE in dieser Reihenfolge rechtshändig heißen sollen. Später werden wir den Begriff der Orientierung kennenlernen, der dies allgemeiner und auch konzeptionell befriedigender fasst. Zum Abschluss wollen wir nun die gleichungsbasierte Beschreibung einer Ebene E cE 2 R3 mithilfe des Kreuzprodukts geometrisch interpretieren. Seien also aE ; b; E Die zugehörige Ebene bezeichnen wir, wie gegeben und aE nicht parallel zu b. gehabt, mit E. Nach Proposition 1.15 ist aE bE von null verschieden und senkrecht E Wir können daher diesen Vektor noch normieren und setzen auf aE und b. nE D bE 1 aE bE aE : D E E sin ' kE ak kbk kE a bk Wir erhalten also einen Einheitsnormalenvektor der Ebene. (1.31) 1.4 Das Kreuzprodukt 19 a ×b Mittelfinger b er fing ge Zei · · ϕ Daumen a Abb. 1.9 Die drei Vektoren aE, bE und aE bE bilden ein rechtshändiges System Ist nun pE D E a C bE C cE 2 E, so ist der Vektor pE cE D E a C bE parallel zur Ebene. Es folgt E D0 hE n; pE cEi D hE n; E a C bi (1.32) hE n; pi E D hE n; cEi: (1.33) oder Setzen wir hE n; cEi D r, so erhalten wir die Gleichung n1 p 1 C n 2 p 2 C n 3 p 3 D r (1.34) für alle Punkte pE 2 E. Zudem haben wir erreicht, dass nE ein Einheitsvektor ist: Die Gl. (1.34) kann offenbar durch eine äquivalente Gleichung ersetzt werden, indem wir nE reskalieren, siehe Abb. 1.10. Als Letztes wollen wir eine geometrische Interpretation des Parameters r erhalten. Indem wir nE eventuell durch E n ersetzen, können wir erreichen, dass r 0 gilt. Wir betrachten nun den Abstand des Ursprungs 0 2 R3 zur Ebene E, welchen wir als ˇ ˚ d .0; E/ D min kpk E ˇ pE 2 E (1.35) definieren. Wir werden zu zeigen haben, dass dieses Minimum tatsächlich existiert, was zunächst nur anschaulich klar ist. Sei also pE 2 E, dann definieren wir pE? D hE n; piE En und pEk D pE pE? : (1.36) 1 Elementare Geometrie im Anschauungsraum R 3 20 z E b n c a 0 y x Abb. 1.10 Einheitsnormalenvektor n E auf die Ebene E Wie bereits zuvor folgt hE n; pEk i D hE n; pi E hE n; pE? i D hE n; pi E hE n; nE i hE n; pi E D 0; „ƒ‚… (1.37) 1 womit pEk also parallel zur Ebene liegt. Es ist klar, dass damit auch hpE? ; pEk i D 0 gilt. Für die Länge von pE erhalten wir E pi E D hpE? C pEk ; pE? C pEk i D hpE? ; pE? i C hpEk ; pEk i D kpE? k2 C kpEk k2 ; kpk E 2 D hp; (1.38) was also gerade der Satz des Pythagoras für die orthogonalen Vektoren pE? und pEk ist. Wir wissen nun, dass n; pihE E n; nE ihE n; pi E D hE n; pi E 2 D r2 hpE? ; pE? i D hE (1.39) unabhängig von pE ist. Damit gilt also kpk E D q r 2 C kpEk k; (1.40) was offenbar genau dann minimal wird, wenn pEk D 0: (1.41) Geometrisch bedeutet dies, dass pE 2 E derjenige Vektor ist, für den pE D n; piE E n gilt. In diesem Fall haben wir kpk E D r und daher lautet die pE? D hE Ebenengleichung also hE n; pi E D d .0; E/; (1.42) 1.5 Übungen 21 was die geometrische Interpretation von r liefert. Man beachte, dass wir hier die Orientierung von nE entsprechend wählen mussten. Es bleibt nun noch zu zeigen, dass wir tatsächlich einen Vektor pE 2 E finden können, für welchen pEk D 0 gilt. Die Idee ist, mit einem beliebigen Punkt in der Ebene E wie beispielsweise cE zu starten und dann pE D cE? zu verwenden. Hier ist nun also zu zeigen, dass cE? nach wie vor in der Ebene liegt. Anschaulich ist dies klar, erfordert aber etwas mehr Theorie, als uns momentan zur Verfügung steht. Kontrollfragen. Welche Rechenregeln erfüllt das Kreuzprodukt? Was ist der Einheitsnormalenvektor einer Ebene? Welche Länge hat das Kreuzprodukt zweier Vektoren? 1.5 Übungen Übung 1.1 (Vektorraum R3 ). Verifizieren Sie die Behauptungen in Proposition 1.1 durch eine komponentenweise Rechnung. Übung 1.2 (Vektoren in einer Ebene). Betrachten Sie die Ebene E R3 , welche durch die drei Punkte 0 1 0 y1 D @0A; 0 0 1 1 y2 D @3A und 5 1 1 y3 D @ 1 A 3 0 (1.43) geht. i.) Bestimmen Sie eine Parameterdarstellung der Ebene E. ii.) Bestimmen Sie den Normalenvektor und die gleichungsbasierte Darstellung der Ebene E. iii.) Prüfen Sie, ob die beiden Vektoren 0 1 0 a1 D @6A und 3 1 5 a2 D @1A 2 0 (1.44) in der Ebene E liegen. Übung 1.3 (Schnittpunkte von Geraden). Betrachten Sie folgende Geraden Gi durch die Punkte bEi in die Richtungen aEi für i D 1; 2; 3, wobei 0 1 0 bE1 D @1A; 2 0 1 9 bE2 D @12A und 8 1 3 bE3 D @6A 5 0 (1.45) 1 Elementare Geometrie im Anschauungsraum R 3 22 sowie 0 1 1 @ aE1 D 1A; 1 0 1 5 @ aE2 D 7A und 2 1 2 aE3 D @ 4 A: 1 0 (1.46) Bestimmen Sie die Schnittpunkte dieser Geraden durch eine explizite Rechnung. Übung 1.4 (Schnitt zweier Ebenen). Betrachten Sie die beiden Ebenen Ei durch die Vektoren cEi , welche durch die Vektoren aEi und bEi für i D 1; 2 aufgespannt werden, wobei 0 1 0 aE1 D @1A; 2 1 1 bE1 D @ 0 A und 0 0 1 3 @ aE2 D 0A; 1 0 1 2 E @ b2 D 1A und 3 0 0 1 2 cE1 D @0A 0 (1.47) 0 1 0 @ cE2 D 1A: 2 (1.48) sowie i.) Bestimmen Sie zunächst die auf 1 normierten Normalenvektoren nE i der beiden Ebenen und weisen Sie so nach, dass die Vektoren aEi und bEi nicht parallel sind. ii.) Bestimmen Sie eine parametrisierte Darstellung der Schnittgerade E1 \ E2 . Übung 1.5 (Parametrisierte Geraden in Parameterdarstellung). Sei ' 2 Œ0; 2 / ein Winkel. Für jeden Wert ' betrachtet man die beiden Vektoren 1 cos.'/ aE' D @ sin.'/A und 0 0 1 sin.'/ bE' D @cos.'/A 0 0 (1.49) sowie die Gerade G' durch bE' in Richtung aE' . 3 i.) Beschreiben Sie die Lage der Geraden G S' im R . ii.) Betrachten Sie die Vereinigung K D '2Œ0;2 / G' aller dieser Geraden und beschreiben Sie die resultierende Teilmenge von R3 . 0 1 x iii.) Für welche Werte von ' ist der Punkt cE D @ 0 A auf der Geraden G' , wobei 0 x 0 fest gewählt sei? 1.5 Übungen 23 Übung 1.6 (Eigenschaften des Vektorprodukts). Zeigen Sie, dass das Vektorprodukt die Graßmann-Identität und die Jacobi-Identität erfüllt, indem Sie beide Identitäten komponentenweise überprüfen. Übung 1.7 (Mehrfache Vektorprodukte). Seien aE ; bE 2 R3 gegeben. Zeigen Sie, dass das n-fache Kreuzprodukt mit aE durch 8 <.1/k1 hE E a; aE ik1 a E b falls n D 2k 1 E / D aE . .E a b/ k1 k1 E E :.1/ hE hE a; biE a hE a; aE ib falls n D 2k a; aE i (1.50) gegeben ist, wobei n 2 N. Übung 1.8 (Normalenvektor einer Ebene). Betrachten Sie die Ebene E durch den Punkt cE, welche durch aE und bE aufgespannt wird, wobei 0 1 1 aE D @2A; 0 1 4 bE D @6A; 3 4 1 1 cE D @ 3 A: 3 0 und (1.51) i.) Bestimmen Sie den Normalenvektor nE von E explizit, wobei Sie die OrientieE und nE positiv orientiert sind. rung von nE so wählen sollen, dass aE , b, ii.) Bestimmen Sie denjenigen Vektor pE 2 E, der den kleinsten Abstand zum Ursprung 0 besitzt. Verifizieren Sie durch eine explizite Rechnung, dass der Vektor pE tatsächlich in der Ebene E liegt. Übung 1.9 (Erstellen von Übungen I). Um eine mit vertretbarem Aufwand zu bewältigende Übung (etwa eine Klausuraufgabe) zu erstellen, wollen Sie drei Geraden im R3 angeben, deren Schnittpunkte zu bestimmen sind. Dazu geben Sie die Schnittpunkte sE1 , sE2 , und sE3 mit einfachen Koordinaten (also beispielsweise kleine, ganze Zahlen) vor. Wie können Sie nun eine kompliziertere Parametrisierung der Geraden erhalten, die sich in den drei Punkten schneiden, wobei man die Schnittpunkte selbst aber nicht unmittelbar ablesen kann? Überlegen Sie sich entsprechende Konstruktionen für andere einfache geometrische Probleme wie den Schnitt von Ebenen, Durchstoßpunkte von Geraden durch Ebenen etc. Übung 1.10 (Orthogonal- und Parallelkomponente). Vektoren 1 3 aE1 D @ 4 A; 2 0 1 2 aE2 D @4A; 3 0 1 1 aE3 D @3A sowie 2 0 Betrachten Sie die 1 1 bE D @1A: 3 0 (1.52) 1 Elementare Geometrie im Anschauungsraum R 3 24 Bestimmen Sie die Orthogonal- und die Parallelkomponenten von aE1 , aE2 und aE3 E bezüglich b. E cE 2 R3 definiert man das Übung 1.11 (Spatprodukt). Für drei Vektoren aE ; b; E cE/ 2 R durch Spatprodukt vol.E a; b; E cE/ D hE vol.E a; b; a; bE cEi: (1.53) i.) Zeigen Sie E cE/ D 1 vol.E E cE/ C 2 vol.E E cE/ a1 ; b; a2 ; b; vol.1 aE1 C 2 aE2 ; b; (1.54) E cE 2 R3 . für alle 1 ; 2 2 R und aE1 ; aE2 ; b; ii.) Zeigen Sie die Antisymmetrie E cE/ D vol.b; E aE ; cE/ D vol.E E vol.E a; b; a; cE; b/ (1.55) E cE 2 R3 . für aE ; b; iii.) Zeigen Sie, dass das Spatprodukt verschwindet, falls zwei Vektoren parallel sind. iv.) Geben Sie eine elementargeometrische Interpretation des Spatprodukts. E cE; dE 2 R3 . Bestimmen Übung 1.12 (Nochmals das Kreuzprodukt). Seien aE ; b; E E Sie hE a b; cE d i explizit, ohne die einzelnen Komponenten auszuschreiben. E zu berechnen und so einen alternativen Verwenden Sie dieses Resultat, um kE a bk Beweis von Proposition 1.16 zu erhalten. Übung 1.13 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen: i.) Von drei Geraden im R3 haben mindestens zwei einen gemeinsamen Schnittpunkt. ii.) Zwei nicht parallele Ebenen im R3 haben immer unendlich viele gemeinsame Punkte. iii.) Es gibt zwei Ebenen im R3 , die sich in genau einem Punkt schneiden. iv.) Die erste Komponente eines Kreuzprodukts ist immer größer oder gleich null. v.) Es gibt drei Vektoren im R3 mit erster Komponente gleich 1, die paarweise senkrecht stehen. 2 Intermezzo Wir haben in Kap. 1 nun einen Zustand des Verständnisses erreicht, der mehr Fragen aufwirft als beantwortet. Eigentlich ein gutes Zeichen dafür, dass es sich um interessante Probleme handelt. Wir wollen nun kurz innehalten und rekapitulieren, welche Fragen noch zu klären sind, welche Verallgemeinerungen wünschenswert sind und wohin die Reise nun gehen soll. i.) Zunächst ist klar, dass wir Geraden auch in der Zahlenebene R2 anstelle im Anschauungsraum R3 betrachten können. Auch hier wollen wir eine effektive Beschreibung von geometrischen Problemen durch algebraische Techniken erreichen. Warum sollten wir uns jedoch mit 2 oder 3 Dimensionen zufriedengeben? In der Tat gibt es hierfür weder eine Veranlassung noch eine technische Schwierigkeit. Im Gegenteil, viele Probleme aus den Naturwissenschaften erfordern definitiv mehr als 3 Dimensionen: Die spezielle Relativitätstheorie benötigt eine 4-dimensionale Raumzeit als Arena, verschiedene moderne physikalische Theorien postulieren wahlweise 10, 11 oder gar 26 Dimensionen für unsere Raumzeit. Die klassische Mechanik von n Punktteilchen benötigt einen 3n-dimensionalen Konfigurationsraum und einen 6n-dimensionalen Phasenraum. Denkt man an thermodynamische Systeme wie etwa ein Glas Wasser, so hat man Teilchenzahlen in der Größenordnung von n D 1026 . In der Quantenmechanik schließlich sind sogar unendlich viele Dimensionen erforderlich. ii.) Bevor wir also diese Verallgemeinerungen in Angriff nehmen, stellt sich die fundamentale Frage, was Dimension überhaupt bedeuten soll? Die naive Definition „Es ist die 3 im Symbol R3 .“ führt spätestens bei unendlich vielen Dimensionen in eine Sackgasse. Es wird sich herausstellen, dass der Begriff der Dimension auf eine intrinsischere Weise definiert werden muss. iii.) Es stellt sich weiter die Frage, welche Eigenschaften von R3 eigentlich benötigt wurden, um die Ergebnisse zu Geraden und Ebenen zu formulieren und zu beweisen. Es zeigt sich, dass die wesentlichen Eigenschaften diejenigen © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_2 25 26 2 Intermezzo aus Proposition 1.1 sind. Wir werden diese Rechenregeln für Vektoren im R3 daher benutzen, um den allgemeinen Begriff des Vektorraums zu definieren. iv.) Eng mit der konzeptuellen Definition eines Vektorraums verknüpft ist die Frage, welche Eigenschaften der reellen Zahlen R in Proposition 1.1 zum Einsatz gekommen sind. Die Rechenregeln zur Multiplikation von Vektoren mit Zahlen nehmen ja explizit Bezug auf die Addition und Multiplikation reeller Zahlen. Welche Eigenschaften von C und sind also notwendig, damit die angestrebte Definition eines Vektorraums mit Leben gefüllt werden kann? Diese Frage wird uns auf den Begriff des Körpers führen. Es zeigt sich nun, dass es durchaus andere Körper als R gibt, viele davon sind von unmittelbarem Interesse. So ist Q ein Körper, aber eben auch die komplexen Zahlen C, welche wir im Detail kennenlernen werden. Darüber hinaus gibt es viele weitere Körper, die ihren Platz in Theorie und Anwendung gefunden haben, sodass eine allgemeine Theorie von Körpern und Vektorräumen nicht nur ein Gebot der ökonomischen Herangehensweise, sondern unbedingt erforderlich ist. Auf dem Weg zu einer allgemeinen Definition des Körpers werden wir weitere grundlegende algebraische Strukturen wie die der Gruppe, des Rings und der Polynome kennenlernen. v.) Zur Bestimmung von Schnitten etwa zweier Ebenen mussten wir die Lösungstheorie von einer besonderen Art von Gleichungen verstehen: den linearen Gleichungssystemen. Dieser Typ von Gleichung ist aus vielerlei Gründen fundamental in (fast) allen Bereichen der Mathematik. Aber nicht nur in der Mathematik, sondern darüber hinaus auch in den vielfältigsten Anwendungen in den Natur-, Ingenieurs- und Wirtschaftswissenschaften spielen die linearen Gleichungen eine zentrale Rolle. Neben der Omnipräsenz linearer Gleichungen haben diese den erheblichen Vorteil, in endlichen Dimensionen algorithmisch lösbar zu sein. Wir werden mit dem Gauß-Algorithmus ein Verfahren kennenlernen, das erlaubt, die Fallunterscheidungen und Rechnungen in Kap. 1 systematisch und konzeptionell klar durchzuführen. Hier erwarten uns dann auch viele konkrete Anwendungen weit jenseits der Geometrie. vi.) Bei der Identifikation des (physikalischen) Anschauungsraums mit den Zahlentripeln R3 war die Wahl der Koordinatenachsen sehr willkürlich. Der Art der bisherigen Präsentation ist es nicht unmittelbar anzusehen, inwieweit die Resultate von dieser Wahl tatsächlich abhängen oder nicht. Es gilt also zu untersuchen, was ein Wechsel des Koordinatensystems bedeutet und wie man zwischen verschiedenen Koordinatensystemen umrechnen kann. Hierzu müssen wir zum einen klären, was wir mit einem Koordinatensystem überhaupt meinen, zum anderen müssen wir Wechsel von Koordinatensystemen als geeignete Abbildungen verstehen. Letzterer Punkt ist ein ganz allgemeines und durchgehendes Thema in der Mathematik: Wann immer man eine neue mathematische Struktur, wie beispielsweise die Vektorräume, eingeführt hat, ist es unabdingbar, gleichzeitig auch die strukturerhaltenden Abbildungen zu studieren. In unserem Fall werden dies die linearen Abbildungen sein. 2 Intermezzo 27 vii.) Lineare Abbildungen werden ein zentrales Thema der linearen Algebra sein. Daher ist ein tiefergehendes Verständnis ihrer Natur eine unerlässliche Voraussetzung beim weiterführenden Studium der linearen Algebra. Die wesentlichen Begriffe, um dies zu bewerkstelligen, werden die Determinante und die Eigenwerte mit ihren zugehörigen Eigenvektoren einer linearen Abbildung sein: Diese Techniken stehen leider im Allgemeinen nur in endlichen Dimensionen zur Verfügung, spielen dann aber eine herausragende Rolle. Auch wenn gewisse Fragestellungen in beliebigen Dimensionen sinnvoll sind, ist hierfür eine vernünftige Theorie nur mit einem nicht unerheblichen Aufwand an analytischen Techniken verbunden. Diese zu entwickeln, bleibt der Funktionalanalysis vorbehalten. Die Frage nach einer besonders einfachen Form für die Beschreibung einer linearen Abbildung hingegen wird uns auf die Problematik der Diagonalisierbarkeit führen, für welche wir in endlichen Dimensionen mittels der Jordanschen Normalform eine sehr weitreichende Antwort finden werden. viii.) Das kanonische Skalarprodukt im R3 hat sich als probates Mittel bei der Formulierung und Lösung geometrischer Probleme im R3 erwiesen. Allerdings bezog sich seine Definition stark auf das kartesische Koordinatensystem, welches ja eine gewisse willkürliche Wahl darstellt. Es muss also auch hier untersucht werden, wie eindeutig diese Wahl ist und wie das Skalarprodukt unter Koordinatenwechsel umgerechnet werden kann. Da wir an allgemeinen Vektorräumen interessiert sind, wollen wir auch in allgemeineren Situationen von Skalarprodukten sprechen können. Auch hier stellt sich dann die Frage nach den strukturerhaltenden Abbildungen, was uns auf das Studium der orthogonalen und unitären Abbildungen führen wird. Wie zuvor konzentrieren wir uns vornehmlich auf die endlich-dimensionale Situation, obwohl gerade die unendlich-dimensionale Variante in der Funktionalanalysis der HilbertRäume eine fundamental wichtige Fortführung findet, die nicht zuletzt in der Quantenmechanik eine ihrer zentralen Anwendungen besitzt. ix.) Die lineare Theorie wird am Ende nur ein erster Schritt sein, auch nichtlineare Probleme zu formulieren und zu lösen. Wir werden hier erste Beispiele beim Studium quadratischer Formen kennenlernen, um geometrische Objekte wie Kreise, Parabeln, Ellipsen und Hyperbeln zu beschreiben. Erste Schritte in diese Richtung werden wir (in Band 2) mit dem Studium der multilinearen Abbildungen gehen, was uns dann unmittelbar auf Tensorprodukte und Tensoren führen wird. Neben diesen sehr konkreten Fragestellungen wollen wir auch etwas Neues über Mathematik an sich lernen: Ausgehend von einzelnen interessanten Beispielen versucht man in der Mathematik immer eine möglichst große Allgemeinheit zu erreichen. Es gilt also, die wesentlichen Eigenschaften eines Beispiels zu erkennen und zu abstrahieren. Ist dies erreicht, versucht man, eine allgemeine axiomatische Formulierung des Problems vorzunehmen, in der das zuvor betrachtete Beispiel tatsächlich als Beispiel auftritt. Eine erfolgreiche Axiomatisierung zeichnet sich nun dadurch aus, dass bestimmte wichtige, aber schwierige Eigenschaften der Beispiele 28 2 Intermezzo einfach und leicht verständlich werden, sobald erkannt wird, dass das Beispiel in den allgemeinen Rahmen passt. Diesen Weg in die Abstraktion zu gehen, ist nun ein zentrales Anliegen der Mathematik, aber beileibe nicht das einzige. Jede noch so raffinierte und ausgefeilte mathematische Theorie bleibt kraftlos und leer ohne ihre Beispiele: Hat man den Axiomatisierungsprozess durchlaufen, gilt es, die ursprünglichen Beispiele wieder im Lichte der neu gewonnenen Erkenntnisse zu betrachten. Zudem sollte eine gut verstandene Abstraktion nun in der Lage sein, neue Beispiele zu generieren und dort Querverbindungen herzustellen, wo zuvor keine offensichtlichen Beziehungen gewesen sind. Diese Vorgehensweise werden wir nun am großen Themenkomplex der linearen Algebra exemplifizieren, sowohl die Axiomatisierung und den teilweise durchaus mühsamen Weg in die Abstraktion als auch die Anwendung der allgemeinen Theorie auf verschiedene Beispiele und Situationen jenseits der elementaren Geometrie im R3 . 3 Von Gruppen, Ringen und Körpern In diesem Kapitel schaffen wir zum einen die Grundlagen dafür, welche Sorte von Skalaren wir bei der angestrebten Definition eines Vektorraums verwenden werden. Gleichzeitig lernen wir mit Gruppen, Ringen und Körpern einige der wichtigsten algebraischen Strukturen der Mathematik kennen. Die generelle Strategie wird sein, verschiedene Verknüpfungen auf einer gegebenen Menge zu studieren. Dazu wollen wir diesen Verknüpfungen axiomatisch Eigenschaften auferlegen, die wir von den Zahlen wie etwa Z, Q oder R kennen. Im gleichen Schritt soll dann auch immer studiert werden, was die entsprechenden strukturerhaltenden Abbildungen zwischen solchen Mengen mit (spezifischer) Verknüpfung vom selben Typ sein sollen. Diese Sichtweise hat sich in der Mathematik als sehr erfolgreich erwiesen und wird uns auch jenseits dieses Kapitels weiter begleiten: Wann immer eine neue Struktur erforderlich ist, sollte man gleichzeitig auch die strukturverträglichen Abbildungen betrachten. Der Begriff der Gruppe ist nun der erste wirklich interessante und grundlegende für alle Bereiche der Mathematik. Zum einen axiomatisieren Gruppen die Rechenregeln von C und aus den rationalen oder reellen Zahlen und bieten daher weitreichende Verallgemeinerungen, wie wir sie für das spätere Studium der Vektorräume benötigen. Zum anderen liefern Gruppen einen Zugang zu Symmetriebegriffen in der Mathematik und sind daher auch aus diesem Grunde von fundamentaler Bedeutung. Während in einer Gruppe nur eine Verknüpfung vorhanden ist, vereinen Ringe nun die Rechenregeln von C und und bieten daher eine stärkere Struktur, welche näher an den üblichen Zahlen sind. Aber auch hier gibt es drastische Verallgemeinerungen, die sich insbesondere aus der möglichen Nichtkommutativität der Multiplikation ergeben. Für einen Körper fordert man schließlich noch zusätzliche Invertierbarkeitseigenschaften bezüglich der Multiplikation, die man in einem allgemeinen Ring nicht hat. Als erstes wichtiges Beispiel eines Körpers jenseits der rationalen oder reellen Zahlen werden wir die komplexen Zahlen kennenlernen. Polynome sind nicht nur ein wichtiges Beispiel dafür, wie man aus einem bereits vorliegenden Ring, und damit insbesondere für einen Körper, einen neuen Ring konstruieren kann. Vielmehr ist das Studium ihrer © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_3 29 30 3 Von Gruppen, Ringen und Körpern Nullstellen und Teilbarkeitseigenschaften von fundamentaler Bedeutung für das Verständnis linearer Abbildungen zwischen endlich-dimensionalen Vektorräumen. Hierzu werden wir die nötigen Grundlagen kennenlernen. Weiterführende Informationen zu diesen und vielen weiteren algebraischen Strukturen werden dann in Lehrbüchern der Algebra diskutiert. Hier sei beispielsweise auf [6, 9, 10, 17] verwiesen. 3.1 Algebraische Strukturen und Morphismen In Kap. 1 haben wir verschiedene Arten von Verknüpfungen gesehen, wie aus gegebenen Vektoren im R3 neue Vektoren oder auch Skalare erhalten werden können. Da dieser Aspekt der Mathematik so grundlegend ist, wollen wir nun Verknüpfungen auf einem etwas allgemeineren Niveau studieren. Definition 3.1 (Verknüpfungen). Sei M eine Menge. Eine (innere) Verknüpfung (oder algebraische Struktur) auf M ist eine Abbildung ˘W M M ! M; (3.1) welche wir als .a; b/ 7! a ˘ b für a; b 2 M schreiben. Besteht die Gefahr einer Verwechslung mit einer anderen Verknüpfung, so verwenden wir auch andere Symbole wie etwa ?, oder ı, um die Verknüpfung zu bezeichnen. Eine Menge .M; ˘/ mit einer Verknüpfung wird gelegentlich auch ein Magma genannt. Es geht an dieser Stelle also noch nicht um irgendwelche Eigenschaften einer Verknüpfung, sondern nur um ihr bloßes Vorhandensein. Wir wollen nun zeigen, dass sogar für eine derartige „strukturlose“ Struktur bereits einige nichttriviale Schlüsse und Konstruktionen möglich sind. Die Idee ist dabei, dass diese Resultate dann auch für Strukturen in deutlich konkreteren Beispielen gelten und von Nutzen sein werden. Zunächst fragen wir uns nach solchen Abbildungen, die die Verknüpfung respektieren, also strukturerhaltend sind. Definition 3.2 (Morphismen). Seien .M1 ; ˘1 / und .M2 ; ˘2 / Mengen mit Verknüpfungen. Eine Abbildung W .M1 ; ˘1 / ! .M2 ; ˘2 / (3.2) heißt Morphismus von .M1 ; ˘1 / nach .M2 ; ˘2 /, falls .a ˘1 b/ D .a/ ˘2 .b/ (3.3) 3.1 Algebraische Strukturen und Morphismen 31 für alle a; b 2 M1 . Die Menge aller Morphismen von .M1 ; ˘1 / nach .M2 ; ˘2 / bezeichnen wir mit ˇ ˚ Morph .M1 ; ˘1 /; .M2 ; ˘2 / D W M1 ! M2 ˇ ist Morphismus : (3.4) Oftmals ist die Verknüpfung aus dem Kontext klar, dann schreiben wir einfach Morph.M1 ; M2 /, sofern keine Verwechslung möglich ist. Weiter setzen wir End.M; ˘/ D Morph .M; ˘/; .M; ˘/ (3.5) für die Endomorphismen von einer Menge M mit Verknüpfung ˘. Ist aus dem Kontext klar, um welche Verknüpfung ˘ es sich gerade handelt, so schreiben wir wieder nur End.M /. Anstelle des Begriffes Morphismus wird auch Homomorphismus verwendet. Die Terminologie leitet sich aus dem Griechischen „gleiche Gestalt“ her. Proposition 3.3. Seien .M1 ; ˘1 /, .M2 ; ˘2 / und .M3 ; ˘3 / Mengen mit Verknüpfungen. i.) Sind W .M1 ; ˘1 / ! .M2 ; ˘2 / und W .M2 ; ˘2 / ! .M3 ; ˘3 / Morphismen, so ist auch die Hintereinanderausführung ı W .M1 ; ˘1 / ! .M3 ; ˘3 / (3.6) ein Morphismus. ii.) Die Identitätsabbildung idM1 W .M1 ; ˘1 / ! .M1 ; ˘1 / ist ein Morphismus. iii.) Ist W .M1 ; ˘1 / ! .M2 ; ˘2 / ein bijektiver Morphismus mit Umkehrabbildung 1 W M2 ! M1 , so ist auch 1 W .M2 ; ˘2 / ! .M1 ; ˘1 / (3.7) ein Morphismus. Beweis. Seien a; b 2 M1 , dann gilt durch zweimaliges Anwenden der Morphismuseigenschaften . ı /.a ˘1 b/ D ..a ˘1 b// D ..a/ ˘2 .b// D ..a// ˘3 D .. ..b// ı /.a// ˘3 .. ı /.b//; 32 3 Von Gruppen, Ringen und Körpern womit der erste Teil folgt. Der zweite Teil ist klar, da idM1 .a ˘1 b/ D a ˘1 b D .idM1 .a// ˘1 .idM1 .b// für alle a; b 2 M1 . Schließlich gilt für c; d 2 M2 1 .c ˘2 d / D 1 .. ı 1 /.c/ ˘2 . ı 1 /.d // D 1 .. 1 .c/ ˘1 1 .d /// D 1 .c/ ˘1 1 .d /; da ein Morphismus ist und ı 1 D idM2 gilt. Dies zeigt den dritten Teil. t u Das vielleicht Überraschende an dieser Proposition ist, dass über die weitere Natur der Verknüpfungen ˘1 , ˘2 und ˘3 keinerlei Aussagen oder Voraussetzungen gemacht werden müssen. Ein bijektiver Morphismus heißt auch Isomorphismus, und ein bijektiver Endomorphismus heißt auch Automorphismus. Beispiel 3.4 (Verknüpfungen und Morphismen). i.) Die Addition ˘ D C von Zahlen liefert eine Verknüpfung im obigen Sinne. So sind etwa .N; C/, .Z; C/, .Q; C/ und .R; C/ Mengen mit Verknüpfungen. Die Inklusionsabbildungen .N; C/ ! .Z; C/ ! .Q; C/ ! .R; C/ (3.8) sind dann Morphismen. In diesem Fall verbirgt sich hinter dieser Aussage also lediglich die Tatsache, dass die Addition von natürlichen Zahlen dasselbe Resultat liefert, egal ob man sie als natürliche oder ganze Zahlen auffasst etc. ii.) Die Multiplikation von Zahlen ist ebenfalls eine Verknüpfung, und die Inklusionsabbildungen .N; / ! .Z; / ! .Q; / ! .R; / (3.9) sind wieder Morphismen. iii.) Die Addition C von Vektoren im R3 ist ebenfalls eine Verknüpfung, ebenso das Kreuzprodukt . Das Skalarprodukt hingegen liefert als Resultat keinen Vektor und ist damit keine (innere) Verknüpfung im Sinne von Definition 3.1. Natürlich können wir unsere Definition einer Verknüpfung dahingehend verallgemeinern, dass wir auch Abbildungen der Form ˘W M1 M2 ! M3 zulassen. Weiter können wir auch mehr als nur zwei Elemente miteinander verknüpfen und somit Abbildungen vom Typ ˘W M1 Mk ! N (3.10) 3.1 Algebraische Strukturen und Morphismen 33 für Mengen M1 ; : : : ; Mk und N betrachten. Wir werden Abbildungen dieser Art durchaus noch kennenlernen, wollen dann aber dabei nicht von inneren Verknüpfungen sprechen. iv.) Ist M D fx; yg eine zweielementige Menge, so können wir eine Verknüpfung ˘ beispielsweise durch x ˘ x D y; x ˘ y D x; y˘x Dy und y˘y Dy (3.11) definieren. Dies ist selbstverständlich nur eine von vielen Möglichkeiten (insgesamt 24 ), welche für sich genommen nicht weiter interessant ist. Sie illustriert aber Folgendes: Im Allgemeinen gelten weder a ˘ b D b ˘ a noch a ˘ .b ˘ c/ D .a ˘ b/ ˘ c. v.) Sei M eine Menge. Dann sind sowohl [ als auch \ Verknüpfungen für die Potenzmenge 2M . Während die Addition in den Beispielen 3.4, i.) und iii.), ebenso wie die Multiplikation in Beispiel 3.4, ii.), sowohl assoziativ als auch kommutativ ist, zeigen das Kreuzprodukt und das Beispiel 3.4, iv.), dass dies nicht notwendigerweise so sein muss. Daher lohnt es sich, diese Situationen genauer zu betrachten. Definition 3.5 (Halbgruppe und neutrales Element). Sei .M; ˘/ eine Menge mit Verknüpfung. i.) Die Verknüpfung heißt assoziativ, falls a ˘ .b ˘ c/ D .a ˘ b/ ˘ c (3.12) für alle a; b; c 2 M gilt. In diesem Fall heißt .M; ˘/ Halbgruppe, und wir nennen ˘ auch Produkt oder Multiplikation. ii.) Die Verknüpfung heißt kommutativ, falls a˘b Db˘a (3.13) für alle a; b 2 M gilt. iii.) Ein Element e 2 M heißt neutral bezüglich ˘, falls a˘e Da De˘a (3.14) für alle a 2 M gilt. Ist .M; ˘/ eine Halbgruppe, so können wir dank (3.12) auch in längeren Produkten beliebig umklammern, siehe auch Übung 3.11. In diesem Fall ist es daher sinnvoll und auch üblich, ein n-faches Produkt a1 ˘ ˘ an gänzlich ohne Klammern zu schreiben. Auf die Reihenfolge der Faktoren kommt es natürlich sehr wohl an! 34 3 Von Gruppen, Ringen und Körpern Proposition 3.6. Sei .M; ˘/ eine Menge mit Verknüpfung. Dann besitzt .M; ˘/ höchstens ein neutrales Element. Beweis. Angenommen, e; e 0 2 M seien neutrale Elemente, dann gilt e D e ˘ e 0 , da e 0 ein neutrales Element ist, sowie e ˘ e 0 D e 0 , da e ein neutrales Element ist. Also folgt e D e 0 . t u Die Existenz eines neutralen Elements wird besonders dann interessant, wenn ˘ assoziativ ist. Dieser Fall verdient erneut einen eigenen Namen: Definition 3.7 (Monoid). Sei .M; ˘/ eine Menge mit assoziativer Verknüpfung. Besitzt .M; ˘/ ein neutrales Element e, so heißt .M; ˘; e/ Monoid. Ein Monoidmorphismus ist ein Morphismus, der zudem das neutrale Element auf das neutrale Element abbildet. Wenn der Kontext klar ist, werden wir bei einem Monoidmorphismus ebenfalls kurz nur von „Morphismus“ sprechen. Dies ist aufgrund des folgenden Korollars nicht ganz falsch: Korollar 3.8. Seien .M1 ; ˘1 ; e1 / und .M2 ; ˘2 ; e2 / Monoide. Sei W .M1 ; ˘1 / ! .M2 ; ˘2 / ein Morphismus von Halbgruppen. Ist surjektiv, so ist sogar ein Morphismus von Monoiden. Beweis. Sei b 2 M2 beliebig. Dann gibt es ein a 2 M1 mit .a/ D b. Daher folgt sowohl .e1 / ˘2 b D .e1 / ˘2 .a/ D .e1 ˘1 a/ D .a/ D b als auch b ˘2 .e1 / D .a/ ˘2 .e1 / D .a ˘1 e1 / D .a/ D b; womit .e1 / ein neutrales Element bezüglich ˘2 ist, also nach Proposition 3.6 mit e2 übereinstimmt. t u Es gibt aber Beispiele von Halbgruppenmorphismen zwischen Monoiden, die keine Monoidmorphismen sind. Wir werden hierfür später einfache Beispiele in Übung 5.26 sehen. Beispiel 3.9 (Monoide). i.) Die Zahlen .N0 ; C/, .Z; C/, .Q; C/ und .R; C/ sind kommutative Monoide mit 0 als neutralem Element. Die natürlichen Zahlen .N; C/ bilden dagegen nur eine kommutative Halbgruppe. Auch .N0 ; /, .Z; /, .Q; / und .R; / sind kommutative Monoide mit neutralem Element 1. 3.1 Algebraische Strukturen und Morphismen 35 ii.) Die Vektoren .R3 ; C/ bilden ein kommutatives Monoid mit dem Nullvektor als neutralem Element. Das Kreuzprodukt hingegen ist weder assoziativ noch kommutativ, noch besitzt es ein neutrales Element. Dies folgt sofort aus den Eigenschaften von aE bE in Proposition 1.15, ii.), iv.) und vi.), siehe auch Übung 3.2. iii.) Ist M eine Menge, so ist .2M ; [/ ein kommutatives Monoid mit neutralem Element ;. Ebenso ist .2M ; \; M / ein kommutatives Monoid. Dies folgt aus den Rechenregeln für Vereinigung und Durchschnitt von Mengen, siehe auch Abschn. B.1 sowie Proposition B.8. iv.) Ist M eine Menge, so ist die Menge Abb.M / der Abbildungen von M nach M ein (im Allgemeinen nichtkommutatives) Monoid bezüglich der Verkettung ı von Abbildungen und der Identität idM als neutralem Element. Hier ist die entscheidende Beobachtung, dass die Verkettung von Abbildungen immer assoziativ ist, siehe auch Proposition B.21, i.). v.) Ist .M; ˘/ eine Menge mit Verknüpfung ˘, so ist .End.M; ˘/; ı; idM / ein (im Allgemeinen nichtkommutatives) Monoid. Hierfür benutzen wir zum einen Proposition 3.3, i.) und iii.), um zu sehen, dass die Verkettung von Endomorphismen wieder ein Endomorphismus und die Identitätsabbildung wirklich ein Endomorphismus ist. Zum anderen verwenden wir, dass die Verkettung von Abbildungen generell assoziativ ist und idM das zugehörige neutrale Element darstellt. Man beachte, dass bezüglich der Natur der Verknüpfung ˘ auf M keinerlei Voraussetzungen gemacht werden müssen. Gerade das letzte Beispiel legt nahe, auch im Allgemeinen Unterstrukturen von einer Menge mit Verknüpfung zu betrachten: Definition 3.10 (Unterstruktur). Sei .M; ˘/ eine Menge mit Verknüpfung. Eine (nichtleere) Teilmenge N M heißt Unterstruktur von .M; ˘/, wenn die Einschränkung von ˘ auf N N nur Werte in N annimmt. Mit anderen ˇ Worten, für a; b 2 N M soll auch a ˘ b 2 N gelten. In diesem Fall ist .N; ˘ˇN N / ebenfalls eine Menge mit Verknüpfung. Auf diese Weise definiert man etwa eine Unterhalbgruppe etc. Für den Fall, dass man an einem neutralen Element interessiert ist, verlangt man zudem, dass e 2 N ˇgilt. So ist also ein Untermonoid eines Monoids .M; ˘; e/ eine Teilmenge N mit ˘ˇN N W N N ! N und e 2 N . Beispiel 3.11 (Untermonoid). i.) Ist .M; ˘/ eine Menge mit Verknüpfung, so bilden die Endomorphismen End.M / Abb.M / von .M; ˘/ ein Untermonoid aller Abbildungen bezüglich der Verkettung von Abbildungen. Dies ist gerade die Aussage von Beispiel 3.9, v.). 36 3 Von Gruppen, Ringen und Körpern ii.) Ist .M; ˘/ ein Monoid und sind U1 ; U2 M Teilmengen, sodass .U1 ; ˘/ und .U2 ; ˘/ Untermonoide sind, so ist auch .U1 \ U2 ; ˘/ ein Untermonoid. T Etwas allgemeiner sieht man, dass auch ein beliebiger Durchschnitt i2I Ui von Untermonoiden Ui M für i 2 I wieder ein Untermonoid bezüglich ˘ ist. iii.) Ist W .M1 ; ˘1 ; e1 / ! .M2 ; ˘2 ; e2 / ein Monoidmorphismus, so ist der Kern von ˇ ˚ ker D a 2 M1 ˇ .a/ D e2 M1 (3.15) ein Untermonoid: Es gilt e1 2 ker , da ja definitionsgemäß .e1 / D e2 für einen Monoidmorphismus erfüllt ist. Weiter gilt mit a; b 2 ker auch .a ˘1 b/ D .a/ ˘2 .b/ D e2 ˘2 e2 D e2 , womit a ˘1 b 2 ker folgt. Kontrollfragen. Wieso ist die Verkettung von Morphismen ein Morphismus? Was ist ein neutrales Element und wieso ist es eindeutig? Was sind Beispiele für Monoide und Untermonoide? 3.2 Invertierbarkeit und Gruppen Wir wollen nun der Frage nachgehen, ob wir in einer Menge .M; ˘/ mit Verknüpfung Gleichungen der Form a˘x Db oder x˘a Db (3.16) lösen können, wobei a; b 2 M vorgegeben und x 2 M gesucht ist. Im Allgemeinen wird dies nicht möglich sein: Das Beispiel 3.4, iv.), liefert bei geeigneter Wahl der fest vorgegebenen Elemente schnell ein Gegenbeispiel. Darüber hinaus kann es auch sein, dass (3.16) mehrere Lösungen besitzt. Wir müssen daher etwas mehr über die Verknüpfung voraussetzen: Ist ˘ nicht assoziativ, so ist die Situation sehr unübersichtlich. Wir werden also vornehmlich an einer Halbgruppe interessiert sein. Selbst in einer Halbgruppe können wir noch nicht sehr viel Substanzielles über (3.16) sagen. Die Situation ändert sich, wenn wir zudem ein neutrales Element e voraussetzen, also für ein Monoid. In diesem Fall können wir zunächst den Spezialfall b D e betrachten: Definition 3.12 (Invertierbarkeit). Sei .M; ˘; e/ ein Monoid und a 2 M . i.) Gibt es ein b 2 M mit a ˘ b D e, so heißt a rechtsinvertierbar mit Rechtsinversem b. ii.) Gibt es ein b 2 M mit b ˘ a D e, so heißt a linksinvertierbar mit Linksinversem b. iii.) Ist a sowohl links- als auch rechtsinvertierbar, so heißt a invertierbar. 3.2 Invertierbarkeit und Gruppen 37 Bemerkung 3.13 (Invertierbarkeit). Sei .M; ˘; e/ ein Monoid. i.) Ist a rechtsinvertierbar mit Rechtsinversem b, so ist dieses b linksinvertierbar mit Linksinversem a und umgekehrt. ii.) Im Allgemeinen kann es für ein rechtsinvertierbares Element a mehrere Rechtsinverse geben. Im Fall eines kommutativen Monoids stimmen natürlich alle drei Begriffe überein. iii.) Ist a sowohl rechtsinvertierbar mit a ˘ b D e als auch linksinvertierbar mit c ˘ a D e, so gilt c D c ˘ e D c ˘ .a ˘ b/ D .c ˘ a/ ˘ b D e ˘ b D b; (3.17) womit das Linksinverse mit dem Rechtsinversen übereinstimmt. Dies zeigt auch, dass je zwei Rechtsinverse beziehungsweise je zwei Linksinverse übereinstimmen, falls a invertierbar ist. Man beachte, dass die Assoziativität entscheidend verwendet wurde. Diese letzte Beobachtung gestattet es daher, folgende Definition aufzustellen: Definition 3.14 (Inverses). Sei .M; ˘; e/ ein Monoid. Ist a 2 M invertierbar, so heißt das eindeutig bestimmte Element a1 2 M mit a ˘ a1 D e D a1 ˘ a das Inverse von a. Die Lösbarkeit der Gl. (3.16) lässt sich mit diesen neuen Begriffen nun folgendermaßen verstehen: Proposition 3.15. Sei .M; ˘; e/ ein Monoid und a; b 2 M . i.) Die Gleichung a ˘ x D b besitzt genau dann für jedes b Lösungen, wenn a rechtsinvertierbar ist. Ist a0 ein Rechtsinverses von a , so ist x D a0 ˘ b eine Lösung. ii.) Die Gleichung x ˘ a D b besitzt genau dann für jedes b Lösungen, wenn a linksinvertierbar ist. Ist a0 ein Linksinverses von a, so ist x D b ˘ a0 eine Lösung. iii.) Die Gleichung a˘x D b besitzt genau dann für jedes b eine eindeutige Lösung, wenn a invertierbar ist. In diesem Fall ist x D a1 ˘ b die eindeutige Lösung. iv.) Die Gleichung x ˘a D b besitzt genau dann für jedes b eine eindeutige Lösung, wenn a invertierbar ist. In diesem Fall ist x D b ˘ a1 die eindeutige Lösung. Beweis. Wir zeigen i.) und iii.). Die Aussagen ii.) und iv.) beweist man dann analog. Sei also zunächst a rechtsinvertierbar mit a ˘ a0 D e. Einsetzen von x D a0 ˘ b liefert a ˘ .a0 ˘ b/ D .a ˘ a0 / ˘ b D e ˘ b D b; 38 3 Von Gruppen, Ringen und Körpern womit x eine Lösung ist. Ist umgekehrt a ˘ x D b für jedes b lösbar, so auch insbesondere für b D e. Die zugehörige Lösung ist ein Rechtsinverses, womit der erste Teil gezeigt ist. Sei nun zudem a invertierbar und c 2 M eine Lösung von a ˘ x D b. Dann gilt mit der Assoziativität von ˘ c D e ˘ c D .a1 ˘ a/ ˘ c D a1 ˘ .a ˘ c/ D a1 ˘ b; womit a1 ˘ b die eindeutige Lösung ist. Ist umgekehrt a ˘ x D b für jedes b eindeutig lösbar, so auch für b D e. Es gibt also ein eindeutiges Rechtsinverses a0 zu a. Dann gilt wieder unter Verwendung der Assoziativität a ˘ .a0 ˘ a/ D .a ˘ a0 / ˘ a D e ˘ a D a; womit a0 ˘ a die nach Voraussetzung eindeutige Lösung der Gleichung a ˘ x D a ist. Da x D e aber ebenfalls eine Lösung ist, folgt a0 ˘ a D e, also ist a0 ein Linksinverses von a, und a ist invertierbar nach Bemerkung 3.13, iii.). t u Da Inverse eine derart große Rolle spielen werden, listen wir hier noch einige elementare Rechenregeln für Inverse auf. Proposition 3.16. Sei .M; ˘; e/ ein Monoid. i.) Das neutrale Element e ist invertierbar mit e 1 D e. ii.) Ist a 2 M invertierbar, so ist auch das Inverse a1 invertierbar mit Inversem .a1 /1 D a. iii.) Sind a; b 2 M invertierbar, so ist auch a ˘ b invertierbar mit Inversem .a ˘ b/1 D b 1 ˘ a1 . Beweis. Der erste Teil ist klar, da e ˘ e D e. Der zweite ist ebenfalls klar, da in a ˘ a1 D e D a1 ˘ a die Elemente a und a1 symmetrisch eingehen, siehe auch Bemerkung 3.13, i.). Für den dritten Teil rechnet man nach, dass .b 1 ˘ a1 / ˘ .a ˘ b/ D b 1 ˘ a1 ˘ a ˘ b D b 1 ˘ e ˘ b D e ebenso wie .a ˘ b/ ˘ .b 1 ˘ a1 / D e. Dies zeigt, dass b 1 ˘ a1 ein Inverses und damit das eindeutige Inverse von a ˘ b ist. Auch hier ist die Assoziativität von ˘ entscheidend. t u Man beachte, dass sich die Reihenfolge in .a ˘ b/1 D b 1 ˘a1 für invertierbare Elemente a; b 2 M umkehrt, was im nichtkommutativen Fall wichtig ist. Korollar 3.17. Sei .M; ˘; e/ ein Monoid. Dann ist ˇ ˚ M D a 2 M ˇ a ist invertierbar (3.18) 3.2 Invertierbarkeit und Gruppen 39 ein Untermonoid von M , in dem jedes Element invertierbar ist. Insbesondere gilt e 2 M . Das Untermonoid M von M besteht also nur aus invertierbaren Elementen. Ein derartiges Monoid ist nun eine Gruppe. Definition 3.18 (Gruppe). Eine Gruppe ist ein Tripel .G; ˘; e/ von einer Menge G mit assoziativer Verknüpfung ˘ und neutralem Element e derart, dass jedes Element in G invertierbar ist. Ist zudem ˘ kommutativ, so heißt die Gruppe abelsch. Ein Gruppenmorphismus von .G1 ; ˘1 ; e1 / nach .G2 ; ˘2 ; e2 / ist ein Monoidmorphismus der zugrunde liegenden Monoide. Mit anderen Worten, eine Gruppe ist ein Monoid, für welches G D G gilt. Die Aussage von Korollar 3.17 können wir entsprechend nun so umformulieren, dass für ein Monoid .M; ˘; e/ das Untermonoid M der invertierbaren Elemente in M eine Gruppe bildet. Mithilfe der Charakterisierung von invertierbaren Elementen nach Proposition 3.15 ergeben sich einige weitere äquivalente Formulierungen des Gruppenbegriffs. Korollar 3.19. Sei .G; ˘; e/ ein Monoid. Dann sind äquivalent: i.) Das Monoid .G; ˘; e/ ist eine Gruppe. ii.) Für alle a; b 2 G ist die Gleichung a˘x Db (3.19) eindeutig lösbar. iii.) Für alle a; b 2 G ist die Gleichung x˘a Db (3.20) eindeutig lösbar. Bemerkung 3.20 (Additive und multiplikative Gruppen). Für eine Gruppe .G; ˘; e/ ist meistens aus dem Zusammenhang klar, welche Verknüpfung ˘ man auf G betrachtet. Daher müssen wir typischerweise ˘ nicht spezifizieren. Zudem ist das neutrale Element e nach Proposition 3.16 ohnehin eindeutig bestimmt, sodass wir auch dieses nicht explizit erwähnen müssen. Daher schreibt man oft für eine Gruppe auch einfach G. Ist die Gruppe nun abelsch, so schreibt man anstelle der Verknüpfung ˘ auch C. Das neutrale Element e wird in diesem Fall mit 0 bezeichnet, und das inverse Element zu a bezeichnet man mit a anstelle von a1 . In diesem Fall sagen wir, dass die Gruppe G additiv geschrieben wird. Ist G hingegen nicht abelsch, so schreiben wir abkürzend ab für a ˘ b und bezeichnen das 40 3 Von Gruppen, Ringen und Körpern neutrale Element auch mit 1 anstelle von e. Für das inverse Element behalten wir die Schreibweise a1 bei. Diesen Fall nennt man dann die multiplikative Schreibweise für G. Man beachte jedoch, dass dies nur eine Konvention ist: Im Zweifelsfall sollte man nicht von der Notation darauf schließen, ob die Gruppe abelsch ist oder nicht, sondern dies konkret überprüfen. Wir geben nun einige Beispiele für Gruppen, die uns in der Mathematik immer wieder begegnen werden: Beispiel 3.21 (Gruppen). i.) Die Zahlen .Z; C/, .Q; C/ und .R; C/ sind (additiv geschriebene) Gruppen bezüglich der üblichen Addition und mit 0 als neutralem Element. ii.) In den Monoiden .N; /, .Z; /, .Q; / und .R; / findet man nun folgende (multiplikativ geschriebene) Gruppen von invertierbaren Elementen N D f1g; Z D fC1; 1g; Q D Q n f0g; R D R n f0g; (3.21) jeweils bezüglich der üblichen Multiplikation von Zahlen und mit 1 als neutralem Element. Alle diese Gruppen sind abelsch. iii.) Sei M eine nichtleere Menge und Abb.M / das Monoid der Abbildungen von M nach M . Die Gruppe der invertierbaren Elemente von Abb.M / gemäß Korollar 3.17 ist dann und ˇ ˚ Abb.M / D 2 Abb.M / ˇ ist bijektiv : (3.22) Dies folgt aus der Tatsache, dass W M ! M genau dann invertierbar bezüglich der Hintereinanderausführung ist, wenn bijektiv ist, siehe Proposition B.25, iii.). Man schreibt auch Bij.M / D Abb.M / (3.23) für diese Gruppe der Bijektionen. Im Allgemeinen ist Bij.M / nicht abelsch, was man sich anhand geeigneter Beispiele für eine Menge mit mindestens drei Elementen klarmacht, siehe Übung 3.1. iv.) Ist .M; ˘/ eine Menge mit Verknüpfung, so bilden die Endomorphismen von .M; ˘/ nach Beispiel 3.9, v.), ein Monoid End.M; ˘/ bezüglich der Verkettung von Abbildungen als Verknüpfung, welches ein Untermonoid von Abb.M / ist. Ist 2 End.M; ˘/ nun sogar invertierbar, so gibt es also 1 2 End.M; ˘/ mit ı 1 D idM D 1 ı . Man beachte, dass die Abbildungen mittels der Hintereinanderausführung ı verknüpft werden, welche nichts mit der Verknüpfung von .M; ˘/ zu tun hat. Der Endomorphismus 1 ist insbesondere als Abbildung invertierbar und damit 1 2 Abb.M / . Ist umgekehrt in Abb.M / invertierbar, so ist 1 2 Abb.M / wieder ein Morphismus 3.2 Invertierbarkeit und Gruppen 41 nach Proposition 3.3, iii.). Es folgt daher für die Automorphismengruppe Aut.M; ˘/ D End.M; ˘/ von .M; ˘/ die Beziehung ˇ ˚ Aut.M; ˘/ D End.M; ˘/ \ Abb.M / D 2 End.M; ˘/ ˇ ist bijektiv : (3.24) Im Allgemeinen ist Aut.M; ˘/ nicht abelsch. Diese große Beispielklasse zeigt eine weitere fundamentale Bedeutung des Gruppenbegriffs auf: Wir können Gruppen als Symmetrien eines anderen mathematischen Objekts wie etwa einer Menge mit Verknüpfung auffassen. Dieser Gesichtspunkt der Gruppentheorie wird uns insbesondere in der Geometrie noch oft begegnen, wo die anschauliche Vorstellung von Symmetrie besonders klar ist. v.) Die kleinste Gruppe G ist die triviale Gruppe G D feg mit der eindeutig bestimmten Verknüpfung e ˘ e D e. Als vielleicht etwas unglückliche, aber sehr gebräuchliche Schreibweise wird oft 1 oder 0 für die triviale Gruppe verwendet, je nachdem ob man sie additiv oder multiplikativ schreiben möchte. vi.) Sei n D f1; : : : ; ng die Menge der ersten n natürlichen Zahlen. Die Gruppe der Bijektionen Abb.n/ bezeichnet man in diesem Fall als die symmetrische Gruppe Sn oder auch Permutationsgruppe ˇ ˚ Sn D W n ! n ˇ ist bijektiv : (3.25) Die Elemente von Sn nennt man auch Permutationen. Ist 2 Sn , so ist durch die Werte .1/; : : : ; .n/ festgelegt. Hier muss jede Zahl von 1 bis n genau einmal als Wert auftreten. Eine gebräuchliche Schreibweise ist D 1 2 ::: n : .1/ .2/ : : : .n/ (3.26) So ist etwa D 123 2 S3 312 eine Permutation, während 123 122 keine Permutation ist. Wir werden die Eigenschaften der Gruppe Sn noch eingehend zu studieren haben, siehe Abschn. 6.1. vii.) Sei p 2 N vorgegeben. Dann betrachten wir eine Menge mit p Elementen Zp D f0; : : : ; p 1g; (3.27) 42 3 Von Gruppen, Ringen und Körpern 11 0 1 10 11 3 8 4 7 6 5 1 10 2 9 0 + 11 3 8 4 7 6 1 10 2 9 0 = 2 9 3 8 5 4 7 6 5 Abb. 3.1 Arithmetik in Z 12 : Sieben Stunden nach 6 Uhr ist es 6 C 7 D 1 welche wir nun mit einer Gruppenstruktur versehen wollen. Die Idee ist, dass wir die Addition der natürlichen Zahlen zyklisch oder periodisch gestalten wollen, wie dies beispielsweise die Addition der Stunden auf einer Uhr ist, siehe Abb. 3.1. Konkret definiert man daher ( ) kC` falls k C ` < p kC`D (3.28) D .k C `/ mod p: k C ` p falls k C ` p Hier bedeutet allgemein n mod p, gesprochen n modulo p, den ganzzahligen Rest der Division n=p. Man verifiziert nun durch eine explizite Fallunterscheidung oder etwas konzeptueller anhand der Rechenregeln für n mod p, dass Zp tatsächlich eine sogar abelsche Gruppe bezüglich C mit 0 als neutralem Element ist. Die Gruppe Zp heißt auch zyklische Gruppe der Ordnung p. Gegenüber einem Monoidmorphismus ergibt sich im Fall von Gruppenmorphismen folgende Vereinfachung: Proposition 3.22. Seien G1 und G2 Gruppen und sei W G1 ! G2 ein Morphismus der zugrunde liegenden Halbgruppen. Dann ist ein Gruppenmorphismus, und es gilt .g 1 / D .g/1 (3.29) für alle g 2 G. Beweis. Wir müssen zeigen, dass .e1 / D e2 automatisch erfüllt ist, sobald .g ˘1 h/ D .g/ ˘2 .h/ für alle g; h 2 G1 gilt. Da .e1 / invertierbar in G2 ist, gilt e2 D .e1 /1 ˘2 .e1 / D .e1 /1 ˘2 .e1 ˘1 e1 / D .e1 /1 ˘2 .e1 /˘2 .e1 / D .e1 /, womit tatsächlich ein Monoidmorphismus ist. Für ein beliebiges g 2 G1 gilt dann e2 D .e1 / D .g ˘1 g 1 / D .g/ ˘2 .g 1 /; 3.2 Invertierbarkeit und Gruppen 43 sodass also .g 1 / ein Rechtsinverses zu .g/ ist. Da in einer Gruppe jedes Element invertierbar ist, muss dieses Rechtsinverse also bereits das eindeutig bestimmte t u Inverse .g/1 sein, womit (3.29) folgt. Um unsere Notation zu entlasten, wollen wir zukünftig eine Gruppe multiplikativ schreiben und das Symbol ˘ für die Gruppenmultiplikation unterdrücken. In einer Gruppe G kann man Untermonoide betrachten, also Teilmengen H G, welche unter der Gruppenmultiplikation abgeschlossen sind und e 2 H erfüllen. Das Beispiel .N0 ; C/ .Z; C/ zeigt, dass ein Untermonoid selbst noch keine Gruppe zu sein hat: Die nötigen Inversen liegen zwar in G, aber eventuell nicht in H . Für einen sinnvollen Begriff einer Untergruppe müssen wir dies also zusätzlich fordern: Definition 3.23 (Untergruppe). Sei G eine Gruppe. Eine Untergruppe H von G ist ein Untermonoid mit der zusätzlichen Eigenschaft, dass g 1 2 H für alle g 2 H gilt. So ist also etwa .Z; C/ .Q; C/ eine Untergruppe, aber .N0 ; C/ .Z; C/ nicht. In Beispiel 3.11, iii.), haben wir gesehen, dass der Kern eines Monoidmorphismus immer ein Untermonoid ist. Im Falle von Gruppen liefert dies sogar eine Untergruppe. Proposition 3.24 (Kern und Bild von Gruppenmorphismus). Sei W G1 ! G2 ein Gruppenmorphismus. i.) Dann ist ker G1 eine Untergruppe mit der zusätzlichen Eigenschaft 8g 2 G1 8h 2 ker W ghg 1 2 ker : (3.30) ii.) Das Bild im G2 ist eine Untergruppe. Beweis. Sei h 2 ker , also .h/ D e2 . Dann gilt mit (3.29) auch .h1 / D .h/1 D e21 D e2 , also h1 2 ker , womit ker eine Untergruppe ist. Sei nun g 2 G1 beliebig und h 2 ker . Dann gilt .ghg 1 / D .g/.h/.g 1 / D .g/e2 .g/1 D .g/.g/1 D e2 ; also (3.30). Für den zweiten Teil wissen wir zunächst, dass e2 D .e1 / 2 im , womit das Bild das Einselement enthält. Weiter gilt für .g/; .h/ 2 im auch .g/.h/ D .gh/ 2 im ebenso wie .g/1 D .g 1 / 2 im . Damit ist im eine Untergruppe. t u Untergruppen mit der Eigenschaft (3.30) spielen allgemein eine große Rolle und verdienen daher wiederum einen eigenen Namen: 44 3 Von Gruppen, Ringen und Körpern Definition 3.25 (Normale Untergruppe). Sei G eine Gruppe und H G eine Untergruppe. Dann heißt H normale Untergruppe, falls ghg 1 2 H für alle g 2 G und h 2 H . Wir werden später in Band 2 die wahre Bedeutung normaler Untergruppen studieren. Insbesondere werden wir sehen, dass jede normale Untergruppe auch als Kern eines geeigneten Gruppenmorphismus auftritt. Der Kern eines Gruppenmorphismus ist nun ein Maß dafür, wie sehr der Morphismus nicht injektiv ist. Es gilt nämlich folgende Äquivalenz: Proposition 3.26. Sei W G1 ! G2 ein Gruppenmorphismus. Dann sind äquivalent: i.) Es gilt ker D fe1 g. ii.) Der Gruppenmorphismus ist injektiv. Beweis. Zuerst nehmen wir an, sei injektiv. Gilt dann g 2 ker , so folgt .g/ D e2 D .e1 /, womit g D e1 . Daher gilt ker D fe1 g. Sei umgekehrt ker D fe1 g und g; h 2 G1 mit .g/ D .h/ gegeben. Dann gilt .gh1 / D .g/.h/1 D e2 , t u also gh1 2 ker . Daher folgt g D h, was die Injektivität von zeigt. Kontrollfragen. Was ist ein Inverses in einem Monoid und wieso ist es eindeutig? Was ist der Zusammenhang von Invertierbarkeit und Lösbarkeit von Gleichungen? Was ist eine Gruppe? Wann ist ein Monoid eine Gruppe? Was ist der Kern eines Gruppenmorphismus und wieso ist er eine normale Untergruppe? 3.3 Ringe und Polynome Die Zahlen Z, Q, R etc. besitzen neben der Addition, welche Z; Q und R zu abelschen Gruppen macht, noch eine weitere Verknüpfung, die Multiplikation. Wir wollen diese Situation nun auch abstrahieren und die wesentlichen Eigenschaften von Z, Q und R extrahieren. Eine noch recht allgemeine Variante ist dabei durch den Begriff des Rings gegeben: Definition 3.27 (Ring). Ein Ring ist ein Tripel .R; C; / von einer Menge R mit zwei Verknüpfungen C und mit folgenden Eigenschaften: i.) Bezüglich der ersten Verknüpfung ist .R; C/ eine abelsche Gruppe. ii.) Die Verknüpfung ist assoziativ. iii.) Für alle a; b; c 2 R gelten die Distributivgesetze a .b C c/ D a b C a c und .a C b/ c D a c C b c: (3.31) 3.3 Ringe und Polynome 45 Ist zudem .R; / ein Monoid, so nennt man das neutrale Element von .R; / die Eins 1 von R, und R heißt Ring mit Eins. Ist kommutativ, so heißt R ein kommutativer Ring. Wir folgen der üblichen Konvention von Punkt vor Strich in (3.31), sodass wir auf Klammern in der rechten Seite verzichten können. Weiter werden wir oftmals das Symbol für die Multiplikation in unserer Notation unterdrücken und einfach ab anstelle von a b schreiben. Das neutrale Element der abelschen Gruppe .R; C/ schreiben wir gemäß Bemerkung 3.20 als Null 0. Man kann die Assoziativität der Multiplikation eines Rings auch aufgeben und erhält dann einen nichtassoziativen Ring. Hierfür gibt es wichtige Beispielklassen, wie die Lie-Ringe oder Jordan-Ringe. Wir werden aber ausschließlich assoziative Ringe betrachten und daher die Assoziativität der Multiplikation als Teil der Definition eines Rings ansehen. Beispiel 3.28 (Ringe). i.) Die Zahlen Z; Q und R sind Ringe mit Eins bezüglich der üblichen Addition und Multiplikation. Die entsprechenden neutralen Elemente sind die Zahlen 0 und 1. Diese Ringe sind zudem kommutativ. ii.) Die natürlichen Zahlen N beziehungsweise auch N0 bilden keinen Ring. Zwar haben wir auch hier die beiden erforderlichen Verknüpfungen C und und die neutralen Elemente 0 und 1 (zumindest im Falle von N0 ), aber die Inversen bezüglich der Addition fehlen. iii.) Der einfachste Ring ist der Nullring R D f0g. Hier hat man für die Definition von C und offenbar keine Wahl, es gilt 0 C 0 D 0 und 0 0 D 0. Damit sind alle Axiome eines Rings erfüllt. Der Nullring ist kommutativ und besitzt eine Eins, nämlich 1 D 0: (3.32) Gerade die Eigenschaft (3.32) des Nullrings mutet auf den ersten Blick doch eher seltsam an. Es lohnt sich daher, die Rolle der Null und einige ihrer Eigenschaften zu untersuchen: Proposition 3.29. Sei R ein Ring. Dann gilt für alle a 2 R 0 a D 0 D a 0: (3.33) Beweis. Zunächst gilt 0 D 0 C 0 in der abelschen Gruppe .R; C/. Daher schreiben wir 0 a D .0 C 0/ a D 0 a C 0 a: 46 3 Von Gruppen, Ringen und Körpern Da nun 0a ein additives Inverses in .R; C/ hat, folgt 0 D 0a nach Proposition 3.15, iii.). Die andere Gleichung zeigt man analog. t u Korollar 3.30. Ist R ein Ring mit 1 D 0, so ist R der Nullring. Beweis. Klar, denn für a 2 R gilt a D 1 a D 0 a D 0. t u Korollar 3.31. Ist R ein Ring mit 1, sodass auch .R; / eine Gruppe ist, so ist R der Nullring. Beweis. Angenommen, 0 besitzt ein multiplikatives Inverses 01 2 R, dann gilt 1 D 01 0 D 0. Die Behauptung folgt aus Korollar 3.30. t u Damit sieht man, dass die seltsame Eigenschaft 1 D 0 tatsächlich nur im Nullring auftritt und in allen andere Ringen mit Eins das Nullelement 0 kein multiplikatives Inverses haben kann. Weitere Rechenregeln in Ringen werden in Übung 3.15 diskutiert. Wie immer wollen wir auch für Ringe die richtige Version eines Morphismus finden. Die folgende Definition ist dabei naheliegend: Definition 3.32 (Ringmorphismus). Seien R1 und R2 Ringe. Eine Abbildung W R1 ! R2 heißt Ringmorphismus von R1 nach R2 , wenn ein Gruppenmorphismus bezüglich der jeweiligen Additionen und ein Halbgruppenmorphismus bezüglich der Multiplikationen ist, also wenn .a C b/ D .a/ C .b/ (3.34) .a b/ D .a/ .b/ (3.35) und für alle a; b 2 R1 gilt. Sind zudem R1 und R2 Ringe mit Eins und gilt zudem .11 / D 12 ; (3.36) so heißt einserhaltend. Bemerkung 3.33. Man beachte, dass (3.34) ausreicht, um als Gruppenmorphismus bezüglich C zu charakterisieren, siehe Proposition 3.22. Es folgt also automatisch .0/ D 0 und .a/ D .a/ (3.37) 3.3 Ringe und Polynome 47 für alle a 2 R1 . Weiter wissen wir nach Anwendung von Proposition 3.3 auf sowohl C als auch , dass idR ein Ringmorphismus ist und sowohl die Verknüpfung von Ringmorphismen als auch die inverse Abbildung eines bijektiven Ringmorphismus wieder Ringmorphismen sind. Es sei hier noch angemerkt, dass es bei Ringen mit Eins auch die Konvention gibt, die Eigenschaft (3.36) automatisch für einen Morphismus zu fordern. Hier sollte man in der Literatur also im Zweifelsfall genau prüfen, welcher Konvention gefolgt wird. Durch Kombination unserer bisherigen Ergebnisse ist klar, was eine sinnvolle Definition eines Unterrings ist. Insbesondere ist der Kern eines Ringmorphismus W R1 ! R2 ˇ ˚ (3.38) ker D a 2 R1 ˇ .a/ D 0 ein Unterring. Hier verwendet man Proposition 3.29, um zu sehen, dass ker auch bezüglich abgeschlossen ist, siehe auch Übung 3.16. Wir werden später in Band 2 noch weitere Eigenschaften des Kerns eines Ringmorphismus diskutieren. Wir wollen nun eine Konstruktion von Ringen vorstellen, die wir im Folgenden noch mehrfach verwenden werden: Aus der Schule bekannt sind Polynome als Funktionen der Form f .x/ D an x n C an1 x n1 C C a1 x C a0 (3.39) mit reellen Koeffizienten a0 ; a1 ; : : : ; an 2 R und n 2 N0 . Wir wollen den Begriff des Polynoms nun etwas genauer und auch etwas allgemeiner fassen. Die gesamte Information über f ist offenbar in den Koeffizienten a0 ; a1 ; : : : ; an enthalten. Der Grad des Polynoms ist das größte auftretende n 2 N0 mit an ¤ 0. Die wesentlichen Eigenschaften von Polynomen sind nun, dass wir sie addieren und multiplizieren können. Um dies etwas effektiver aufschreiben zu können, verwenden wir hier nun zum ersten Mal folgende Summenschreibweise n X an x k D a0 C a1 x C C an x n : (3.40) kD0 Dies wird als „Summe über k von 0 bis n“ gelesen und stellt einfach eine Abkürzung für die rechte Seite dar. Sind nun zwei Polynome f .x/ D n X ak x k und g.x/ D kD0 m X b` x ` (3.41) `D0 gegeben, so ist ihre Summe und ihr Produkt folgendermaßen zu berechnen: Es gilt max.n;m/ .f C g/.x/ D X kD0 .ak C bk /x k (3.42) 48 3 Von Gruppen, Ringen und Körpern mit der Konvention, dass wir ak D 0 beziehungsweise b` D 0 setzen, sofern k > n beziehungsweise ` > m gilt. Weiter haben wir durch Ausmultiplizieren .f g/.x/ D n X ! ak x k kD0 D m X ! b` x ` `D0 n X m X ak b` x kC` kD0 `D0 D D ! nCm X X rD0 kC`Dr nCm X ak b` x r (3.43) cr x r ; rD0 womit also die Koeffizienten cr des Produktes durch c0 D a0 b0 c1 D a0 b1 C a1 b0 c2 D a0 b2 C a1 b1 C a2 b0 :: : (3.44) cnCm D an bm gegeben sind. Um nun die Formeln zu vereinfachen und die Fallunterscheidungen nach dem jeweils höheren Grad zu umgehen, bietet sich folgende Begriffsbildung an: Zunächst ersetzen wir die Koeffizienten aus R durch solche in einem beliebigen Ring R und definieren dann die Polynome folgendermaßen: Definition 3.34 (Polynome). Sei R ein Ring. Die Polynome in der Variablen x mit Koeffizienten in R sind die Menge ˇ ˚ RŒx D aW N0 ! R ˇ a.k/ D 0 bis auf endlich viele k 2 N0 : (3.45) Elemente in RŒx schreiben wir als aD 1 X ak x k mit ak D a.k/; (3.46) kD0 wobei also nur endlich viele der Koeffizienten ak von Null verschieden sind. Für a; b 2 RŒx definiert man ihre Summe und ihr Produkt durch 3.3 Ringe und Polynome 49 aCb D 1 X .ak C bk /x k (3.47) kD0 und ab D 1 X .ab/r x r mit .ab/r D rD0 X ak b` : (3.48) kC`Dr Der Grad deg.a/ von a 2 RŒx n f0g ist die größte Zahl k 2 N0 mit ak ¤ 0. Für das Nullpolynom 0 setzen wir deg.0/ D 1. Man beachte, dass wir Polynome ausdrücklich nicht als spezielle Abbildungen f W R ! R definieren. Der Grund ist, dass es im Allgemeinen zwei verschiedene Polynome f und g gibt, die dieselbe Abbildung induzieren, wenn der zugrunde liegende Ring nicht genügend viele Elemente besitzt oder eine ausreichend pathologische Multiplikation hat. Beispiele hierfür werden wir später in (3.55) sowie in (6.107) sehen. Satz 3.35 (Polynomring). Sei R ein Ring. i.) Die Addition und Multiplikation von Polynomen liefert Abbildungen C; W RŒx RŒx ! RŒx: (3.49) ii.) Die Polynome RŒx werden bezüglich C und ein Ring. Das neutrale Element bezüglich C ist das Nullpolynom. iii.) Besitzt R ein Einselement, so ist das konstante Polynom mit a0 D 1 das Einselement von RŒx. iv.) Ist R kommutativ, so ist auch RŒx kommutativ. v.) Der Ring R lässt sich als Unterring von RŒx auffassen, indem man Elemente von R als konstante Polynome interpretiert. Beweis. Für den ersten Teil ist nur zu prüfen, ob in (3.47) und (3.48) wieder nur endlich viele Koeffizienten von Null verschieden sind. Dies ist aber klar, denn für k > deg.a/ oder ` > deg.b/ folgt ak b` D 0. Damit ist für r > deg.a/ C deg.b/ und alle k und ` mit k C ` D r offenbar .ab/r D 0, da jeder einzelne Beitrag in (3.48) verschwindet. Damit ist ab 2 RŒx. Für die Summe ist klar, dass ak Cbk D 0, sofern k > max.deg.a/; deg.b//. Für den zweiten Teil müssen wir nachrechnen, dass C assoziativ und kommutativ ist sowie das Nullpolynom als neutrales Element besitzt. Weiter müssen wir zeigen, dass die Distributivgesetze gelten und dass assoziativ ist. Wir zeigen exemplarisch einige dieser Forderungen, die übrigen verbleiben als eine Übung. Seien a; b; c 2 RŒx Polynome. Dann gilt 50 3 Von Gruppen, Ringen und Körpern 1 X a.bc/ D .a.bc//r x r rD0 D D D ! 1 X X rD0 kC`Dr 1 X X rD0 kC`Dr 1 X X rD0 kCsCtDr ak .bc/` x r !! X ak xr b s ct sCtD` ! ak .bs ct / x r ; wobei wir im letzten Schritt das Distributivgesetz in R benutzt haben, um ak X ! b s ct D sCtD` X ak .bs ct / sCtD` zu schreiben. Für die andere Klammerung erhält man analog .ab/c D 1 X X rD0 kCsCtDr ! .ak bs /ct x r : Damit folgt a.bc/ D .ab/c aus der Assoziativität der Multiplikation in R, denn ak .bs ct / D .ak bs /ct . Weiter gilt etwa ! ! 1 1 X X .a C b/c D .ak C bk /x k c` x ` kD0 D D `D0 1 X X rD0 kC`Dr 1 X X rD0 kC`Dr ! .ak C bk /c` x r ak c` C X ! b k c` x r kC`Dr D ac C bc; etc. Der dritte und fünfte Teil sind einfacher. Ist a D a0 D 1 das konstante Polynom 1, so zeigt die Regel in (3.48), dass .ab/r D a0 br 3.3 Ringe und Polynome 51 der einzige Beitrag ist, also 1 b D b. Entsprechend gilt auch b 1 D b für alle b 2 RŒx. Sind sowohl a D a0 als auch b D b0 konstante Polynome, so gilt nach (3.47) für die Summe a C b D a0 C b0 und nach (3.48) für das Produkt ab D 1 X .a0 br C C ar b0 /x r D a0 b0 ; rD0 was zeigt, dass die konstanten Polynome einen Unterring von RŒx bilden. Im kommutativen Fall gilt .ab/r D X ak b` D kC`Dr X b` ak D .ba/r ; kC`Dr was mit (3.48) den vierten Teil zeigt. t u Korollar 3.36. Sei R ein Ring und a; b 2 RŒx. Dann gilt deg.a C b/ max.deg.a/; deg.b// (3.50) deg.ab/ deg.a/ C deg.b/: (3.51) und Da es in einem beliebigen Ring R durchaus Elemente a; b mit ab D 0, aber a ¤ 0 ¤ b geben kann, ist im allgemeinen Fall in (3.51) nur eine Ungleichung zu erwarten, siehe auch Beispiel 5.53. Wir werden später in Abschn. 3.5 noch eine speziellere Situation kennenlernen, wo in (3.51) immer die Gleichheit gilt. Bemerkung 3.37. Die Wahl der Variable x ist natürlich willkürlich. Wir werden auch oft oder t anstelle von x verwenden. Sind die Grade der Polynome nicht zu groß, so ist die Schreibweise a D an x n C C a1 x C a0 (3.52) manchmal einfacher. Trotzdem sollte man sich an die Summenschreibweise (3.40) gut gewöhnen und eine große Vertrautheit mit ihr erwerben. Eine wichtige Eigenschaft von Polynomen ist nun, dass wir für die Variable x ein Element aus dem zugrunde liegenden Ring einsetzen können. Definition 3.38 (Nullstellen). Sei R ein Ring und a 2 RŒx ein Polynom. 52 3 Von Gruppen, Ringen und Körpern i.) Für 2 R definieren wir a./ 2 R durch a./ D 1 X ak k D an n C C a1 C a0 ; (3.53) kD0 wobei n D deg.a/. ii.) Das Ringelement 2 R heißt Nullstelle von a, falls a./ D 0: (3.54) Im nichtkommutativen Fall spielt es offenbar eine Rolle, ob wir ak k oder k ak schreiben, oder gar k1 ak etc. Daher stellt (3.53) in diesem Fall eine Wahl bei der Definition von a./ dar. In den für uns wichtigen Anwendungen wird diese Situation jedoch nie problematisch: Selbst wenn der Ring R nichtkommutativ sein wird, werden wir typischerweise nur solche Kombinationen ak k zu betrachten haben, für die die Reihenfolge unerheblich ist: Es wird nur die spezielle Situation auftreten, in der ak D ak gilt. ˇ ˇ Alternativ werden auch die Schreibweisen aˇxD oder aˇ für die Auswertung eines Polynoms a bei x D verwendet. Wir sehen nun, dass ein Polynom a 2 RŒx auch als Abbildung aW R 3 7! a./ 2 R verstanden werden kann. Dies ist aber im Allgemeinen nicht ohne Informationsverlust möglich. Ist nämlich etwa R eine abelsche Gruppe, so können wir einfach alle Produkte als 0 definieren. Man sieht leicht, dass dies R zu einem kommutativen Ring ohne Eins macht. Ist nun a.x/ D an x n C C a0 ein nichttriviales Polynom, so ist die zugehörige Abbildung einfach die konstante Abbildung aW 7! an n C C a1 C a0 D a0 ; (3.55) da ja alle Produkte als Null definiert sind. Damit vergisst die Abb. (3.55) also die gesamte Information in den Koeffizienten an ; : : : ; a1 . Kontrollfragen. Welche Rolle spielt die 0 in einem Ring? Was ist der Zusammenhang von Injektivität und Kern eines Ringmorphismus? Was ist der Unterschied zwischen einer polynomialen Abbildung R ! R und einem Polynom in RŒx? Welche Eigenschaften hat der Grad deg eines Polynoms? Wieso ist der Begriff Nullstelle eines Polynoms im nichtkommutativen Fall problematisch? 3.4 Körper und die komplexen Zahlen Als Verallgemeinerung der Zahlen Z, Q und R bieten allgemeine (kommutative) Ringe eine gute Alternative: Es sind beide Verknüpfungen C und vorhanden, und es gelten die analogen Rechenregeln. Es zeigt sich aber, dass für verschiedene 3.4 Körper und die komplexen Zahlen 53 Anwendungen allgemeine Ringe noch gewisse Defizite besitzen: In einem Ring R mit Eins kann es Elemente a geben, die kein multiplikatives Inverses a1 besitzen. Nach Korollar 3.31 wissen wir, dass 0 nie ein multiplikatives Inverses hat, außer R ist der Nullring. Die berechtigte Hoffnung ist daher, dass vielleicht zumindest die übrigen Elemente in R n f0g solche Inverse besitzen. Zusammen mit der Kommutativität der Multiplikation liefert dies den Begriff des Körpers: Definition 3.39 (Körper). Ein Körper k ist ein kommutativer Ring mit Eins, sodass k n f0g eine Gruppe bezüglich der Multiplikation ist. Ein Körpermorphismus ist ein einserhaltender Ringmorphismus. Da definitionsgemäß eine Gruppe ein neutrales Element besitzt, ist also insbesondere k n f0g nicht leer und deshalb k nicht der Nullring. Also gilt für das Einselement 1 2 k n f0g bezüglich der Multiplikation in jedem Körper 1 ¤ 0: (3.56) Beispiel 3.40 (Körper). i.) Die ganzen Zahlen Z sind kein Körper, da etwa 2 2 Z von 0 verschieden ist und kein multiplikatives Inverses besitzt. ii.) Die rationalen und reellen Zahlen Q und R dagegen sind Körper. iii.) Die zyklische Gruppe Z2 D f0; 1g wird zu einem Körper, indem man 11D1 und 01D0 (3.57) setzt. Dies ist offenbar die einzige Möglichkeit, Z2 zu einem Ring mit Eins zu machen. Die Verifikation der Körpereigenschaften erzielt man nun am einfachsten durch ein explizites Nachprüfen aller möglichen (endlich vielen) Fälle. Bemerkenswert an diesem Körper ist, dass 1C1D0 (3.58) gilt. Gerade dieses letzte Beispiel zeigt, dass ein Körper k die ganzen Zahlen keineswegs enthalten muss. Als bestmöglichen Ersatz definieren wir für n 2 N und einen Ring R für ein fest gewähltes Ringelement a 2 R die neuen Ringelemente n a D a C C a 2 R: „ ƒ‚ … (3.59) n-mal Man beachte, dass dies nicht ein Produkt von zwei Ringelementen in R ist, da ja n nicht unbedingt ein Element von R sein muss. Weiter setzen wir in Übereinstimmung mit Proposition 3.29 54 3 Von Gruppen, Ringen und Körpern 0a D0 (3.60) na D„ a ƒ‚ … a2R (3.61) sowie jnj-mal für n 2 N. Auf diese Weise können wir von n a für alle n 2 Z sprechen. Es gelten dann die Rechenregeln n a C m a D .n C m/ a (3.62) .nm/ a D n .m a/ (3.63) sowie für alle n; m 2 Z. Für den Nachweis dieser Regeln siehe Übung 3.12. Besitzt R eine Eins, erhalten wir somit für a D 1 einen kanonischen Ringmorphismus: Proposition 3.41. Sei R ein Ring mit Eins. Dann ist Z 3 n 7! n 1 2 R (3.64) ein einserhaltender Ringmorphismus. Beweis. Wegen 1 1 D 1 in jedem Ring gilt .n 1/ .m 1/ D .nm/ 1, siehe auch Übung 3.15, vi.), für weitere Details. t u Das Phänomen von Beispiel 3.40, iii.), ist nun die Motivation für folgende Definition: Definition 3.42 (Charakteristik). Sei k ein Körper. Dann definiert man die Charakteristik von k durch char.k/ D 0, falls n 1 ¤ 0 für alle n 2 N, oder ˇ ˚ char.k/ D min n 2 N ˇ n 1 D 0 (3.65) anderenfalls. Bemerkung 3.43 (Charakteristik). i.) Im Prinzip ist Definition 3.42 auch für einen Ring mit Eins sinnvoll, sodass wir auch in diesem Fall von der Charakteristik eines Rings sprechen können. ii.) Charakteristik 0 bedeutet also gerade, dass der Ringmorphismus (3.64) injektiv ist. In diesem Fall können wir Z k als Unterring auffassen. 3.4 Körper und die komplexen Zahlen 55 iii.) Das Beispiel 3.40, iii.), liefert einen Körper mit Charakteristik char.Z2 / D 2: (3.66) Proposition 3.44. Sei k ein Körper mit Charakteristik char.k/ D p ¤ 0. Dann ist p eine Primzahl. Beweis. Wir nehmen an, dass p keine Primzahl ist. Dann gibt es also n; m 2 N mit p D nm und 1 < n; m < p. Nach Definition von p gilt n 1; m 1 2 k n f0g. Damit liegen diese beiden Elemente in der multiplikativen Gruppe k n f0g. Somit ist auch ihr Produkt .n 1/.m 1/ D .nm/ 1 D p 1 2 k n f0g in der multiplikativen Gruppe k n f0g enthalten. Da aber p 1 D 0 gilt, haben wir einen Widerspruch erreicht. t u Umgekehrt kann man zeigen, dass es zu jeder Primzahl p auch Körper mit Charakteristik p gibt. Ohne den genauen (und nicht schweren) Beweis zu geben, seien die zyklischen Gruppen Zp genannt. Ist p eine Primzahl, so sind die Zp Körper mit char.Zp / D p: (3.67) Diese endlichen Körper spielen durchaus eine wichtige Rolle, etwa in der Zahlentheorie, der Algebra, der Kryptografie und auch der algebraischen Topologie. Sie sind also keineswegs als „mathematische Spielerei“ abzutun. Trotzdem werden die meisten für uns interessanten Körper die Charakteristik 0 haben. Zumindest char.k/ ¤ 2 ist oftmals eine wünschenswerte Eigenschaft, da in diesem Fall 1¤1 (3.68) gilt. Im Falle von Charakteristik 2 ergeben sich etliche zum Teil unerwünschte Effekte, wenn es um Vorzeichen, Symmetrie und Antisymmetrie geht. Für Charakteristik 0 dagegen ist Q immer ein Unterkörper: Proposition 3.45. Sei k ein Körper der Charakteristik 0. Dann liefert Q3 n 7! .n 1/.m 1/1 2 k m (3.69) einen injektiven Körpermorphismus. Beweis. Zunächst ist m 1 2 k n f0g, da nach Annahme char.k/ D 0 gilt. Damit ist nk .n 1/.m 1/1 als Element von k überhaupt definiert. Ist mn D mk mit k 2 N, so gilt 56 3 Von Gruppen, Ringen und Körpern .nk 1/.mk 1/1 D .n 1/.k 1/..m 1/.k 1//1 D .n 1/.k 1/.k 1/1 .m 1/1 (3.70) D .n 1/.m 1/1 ; womit die rechte Seite nicht davon abhängt, wie wir die rationale Zahl als Quotient von n 2 Z und m 2 N geschrieben haben. Dies zeigt, dass (3.69) wohldefiniert ist. 0 Sei nun n; n0 2 Z und m; m0 2 N. Wir können annehmen, dass mn und mn 0 schon auf einen gemeinsamen Nenner m D m0 gebracht wurden, da (3.69) nach (3.70) ja invariant unter Kürzen und Erweitern ist. Dann gilt (3.62) ..n C n0 / 1/.m 1/1 D .n 1 C n0 1/.m 1/1 D .n 1/.m 1/1 C .n0 1/.m 1/1 0 mithilfe des Distributivgesetzes in k. Damit bildet (3.69) aber mn C nm auf die Summe 0 der Bilder von mn und nm ab. Also ist (3.69) ein Gruppenmorphismus der additiven Gruppe .Q; C/ nach .k; C/. Die 1 2 Q wird offenbar auf 1 2 k abgebildet. Mit der Kommutativität gilt n n0 nn0 0 D 7! .nn0 1/.mm0 1/1 m m mm0 D .n 1/.n0 1/.m 1/1 .m0 1/1 D .n 1/.m 1/1 .n0 1/.m0 1/1 ; womit auch Produkte auf Produkte abgebildet werden. Damit ist (3.69) ein Ring0 morphismus, der die Eins erhält. Zum Prüfen der Injektivität seien nun mn , mn 0 2 Q 1 0 0 1 mit .n 1/.m 1/ D .n 1/.m 1/ gegeben. Dann folgt .nm0 1/ D .n 1/.m0 1/ D .n0 1/ .m 1/ D .n0 m 1/: Damit gilt also .nm0 n0 m/ 1 D 0 und wegen char.k/ D 0, folgt nm0 D n0 m. 0 Dies zeigt aber mn D mn 0 in Q, womit die Injektivität folgt, siehe auch Übung 3.23 für ein deutlich konzeptuelleres Argument. t u Bemerkung 3.46 (Charakteristik Null). Hat k die Charakteristik 0, so besagt Proposition 3.45, dass wir die rationalen Zahlen mittels (3.69) als Unterkörper von k auffassen können. Um unsere Notation nun nicht unnötig zu erschweren, werden wir in diesem Fall einfach mn 2 k anstelle von .n 1/.m 1/1 schreiben. Nach diesem Exkurs in die allgemeine Theorie der Körper wollen wir im verbleibenden Teil dieses Abschnittes einen neuen Körper konstruieren: die komplexen Zahlen C. Es wird dabei vorausgesetzt, dass eine gewisse Vertrautheit mit den reellen Zahlen R vorliegt: Diese werden in der Analysis aus den rationalen Zahlen 3.4 Körper und die komplexen Zahlen 57 konstruiert, beispielsweise als Menge aller Cauchy-Folgen in Q modulo Nullfolgen. Details findet man etwa in [1, Abschnitt I.10]. Definition 3.47 (Die komplexen Zahlen). Die komplexen Zahlen sind definiert als die Menge CDRR (3.71) mit den beiden Verknüpfungen C; W C C ! C mit .a; b/ C .a0 ; b 0 / D .a C a0 ; b C b 0 / (3.72) .a; b/ .a0 ; b 0 / D .aa0 bb 0 ; ab 0 C ba0 /: (3.73) und Wir schreiben 0 für .0; 0/ und 1 für .1; 0/. Lemma 3.48. Die komplexen Zahlen bilden bezüglich C eine abelsche Gruppe mit neutralem Element 0. Beweis. Dies ist noch nicht weiter spannend, da diese Eigenschaften direkt aus denen der Addition reeller Zahlen folgen. t u Lemma 3.49. Die Multiplikation von komplexen Zahlen ist assoziativ, kommutativ und besitzt 1 als neutrales Element. Beweis. Die Kommutativität ist klar, da die Multiplikation von reellen Zahlen kommutativ ist und a; b sowie a0 ; b 0 symmetrisch in (3.73) eingehen. Weiter gilt .a; b/ ..a0 ; b 0 / .a00 ; b 00 // D .a; b/ .a0 a00 b 0 b 00 ; a0 b 00 C b 0 a00 / D .a.a0 a00 b 0 b 00 / b.a0 b 00 C b 0 a00 /; a.a0 b 00 C b 0 a00 / C b.a0 a00 b 0 b 00 // D .aa0 a00 ab 0 b 00 ba0 b 00 bb 0 a00 ; aa0 b 00 C ab 0 a00 C ba0 a00 bb 0 b 00 / sowie ..a; b/ .a0 ; b 0 // .a00 ; b 00 / D .aa0 bb 0 ; ab 0 C ba0 / .a00 ; b 00 / D .aa0 a00 bb 0 a00 ab 0 b 00 ba0 b 00 ; aa0 b 00 bb 0 b 00 C ab 0 a00 C ba0 a00 /; 58 3 Von Gruppen, Ringen und Körpern womit die Assoziativität folgt. Schließlich gilt .1; 0/ .a; b/ D .1 a 0 b; 1 b C 0 a/ D .a; b/; womit .1; 0/ tatsächlich das gesuchte Einselement ist. t u Lemma 3.50. Die komplexen Zahlen C sind ein kommutativer Ring mit Eins. Beweis. Es verbleibt lediglich, die Distributivgesetze (3.31) zu zeigen. Aufgrund der Kommutativität genügt eines, also ..a; b/ C .a0 ; b 0 // .a00 ; b 00 / D .a C a0 ; b C b 0 / .a00 ; b 00 / D .aa00 C a0 a00 bb 00 b 0 b 00 ; ab 00 C a0 b 00 C ba00 C b 0 a00 / D .a; b/ .a00 ; b 00 / C .a0 ; b 0 / .a00 ; b 00 /; wobei wir das Distributivgesetz für reelle Zahlen verwendet haben. t u Lemma 3.51. Jede komplexe Zahl .a; b/ ¤ 0 besitzt ein multiplikatives Inverses, nämlich a b 1 .a; b/ D : (3.74) ; a2 C b 2 a2 C b 2 Beweis. Hier verwenden wir eine entscheidende Eigenschaft der reellen Zahlen R, die in einem beliebigen Körper falsch sein kann: Die Summe von (zwei) Quadraten ist genau dann 0, wenn jeder Summand 0 ist. Aus diesem Grunde ist die rechte Seite von (3.74) überhaupt definiert, denn für .a; b/ ¤ 0 muss mindestens eine der beiden reellen Zahlen a und b von null verschieden sein, weshalb a2 C b 2 > 0 folgt. Der Nachweis, dass (3.74) das Inverse ist, gestaltet sich nun einfach, nämlich 1 .a; b/ .a; b/ D a a b b a b 2 ;a C 2 b D .1; 0/ D 1: a2 C b 2 a C b 2 a2 C b 2 a C b2 Dank der Kommutativität von gilt auch .a; b/1 .a; b/ D 1. t u Lemma 3.52. Die Abbildung R 3 a 7! .a; 0/ 2 C ist ein injektiver, einserhaltender Ringmorphismus. (3.75) 3.4 Körper und die komplexen Zahlen 59 Beweis. Offenbar ist (3.75) einserhaltend und injektiv und es gilt a C b 7! .a C b; 0/ D .a; 0/ C .b; 0/ sowie ab 7! .ab; 0/ D .a; 0/ .b; 0/; t u was alles ist, was wir zeigen müssen. Satz 3.53 (Der Körper C). Die komplexen Zahlen C bilden einen Körper, der R als Unterkörper mittels (3.75) umfasst. Es gilt char.C/ D 0. Wir wollen nun einige Eigenschaften dieses Körpers diskutieren. Zunächst nennen wir das spezielle Element .0; 1/ die imaginäre Einheit i D .0; 1/ 2 C: (3.76) i2 D 1: (3.77) Offenbar gilt Weiter schreiben wir anstelle von .a; b/ nun .a; b/ ! a C ib; (3.78) was mit der Addition (3.72) und der Multiplikation (3.73) sowie (3.77) konsistent ist. Diese Schreibweise und (3.77) erklären auch die Formel für die Multiplikation, denn formales Ausmultiplizieren unter Berücksichtigung von i2 D 1 liefert .a Cib/.a0 Cib 0 / D aa0 Ciba0 Ciab 0 Ci2 bb 0 D aa0 bb 0 Ci.ab 0 Cba0 /; (3.79) also wieder (3.73). Wir nennen a D Re.a C ib/ den Realteil und b D Im.a C ib/ den Imaginärteil von a C ib. Definition 3.54 (Komplexe Konjugation). Die komplexe Konjugation für C ist die Abbildung W C 3 z D a C ib 7! z D a ib 2 C: (3.80) Proposition 3.55. Die komplexe Konjugation ist ein involutiver Körperautomorphismus von C, es gilt also z D z; z C w D z C w und zw D z w (3.81) für alle z; w 2 C. Weiter gilt zz 0 und zz D 0 ” z D 0: (3.82) 60 3 Von Gruppen, Ringen und Körpern Beweis. Die Rechenregeln z D z und z C w D z C w sind klar. Weiter gilt mit z D a C ib und w D a0 C ib 0 zw D .a C ib/.a0 C ib 0 / D .aa0 bb 0 C i.ab 0 C ba0 // D aa0 bb 0 i.ab 0 C ba0 / D .a ib/.a0 ib 0 / D z w: Schließlich gilt zz D .a ib/.a C ib/ D a2 C b 2 iab C iab D a2 C b 2 0: Offenbar folgt zz D 0 ” a D 0 D b, was aber z D 0 bedeutet. t u Diese Eigenschaften der komplexen Konjugation erlauben nun folgende Definition: Definition 3.56 (Betrag und Phase). Sei z 2 C. Dann heißt jzj D der Betrag von z. Für z ¤ 0 heißt z jzj p zz (3.83) die Phase von z. Die folgenden Eigenschaften von Betrag und Phase sind klar. Proposition 3.57. Für z; w 2 C gilt jzj 0 und jzj D 0 ” z D 0; (3.84) jz C wj jzj C jwj; (3.85) jzwj D jzjjwj; (3.86) jzj D jzj (3.87) ˇ ˇ ˇ z ˇ ˇ ˇ D 1: ˇ jzj ˇ (3.88) und für z ¤ 0 3.4 Körper und die komplexen Zahlen 61 Wir kommen nun zu einer grafischen Darstellung der komplexen Zahlen und ihrer algebraischen Eigenschaften. Die komplexen Zahlen C identifizieren wir mit Punkten der reellen Ebene R2 , indem wir den Realteil als x-Koordinate und den Imaginärteil als y-Koordinate aufzeichnen. Die Addition von komplexen Zahlen ist dann einfach die übliche Vektoraddition in der Ebene. Die komplexe Konjugation entspricht der Spiegelung an der x-Achse, siehe auch Abb. 3.2. Der Betrag jzj ist die euklidische Länge, und die Phase ist der Schnittpunkt der Halbgeraden von 0 nach z mit dem Einheitskreis ˇ ˚ S1 D z 2 C ˇ jzj D 1 ; (3.89) k o m p le x e Konjugation u imaginäre Achse siehe Abb. 3.3. Die komplexe Multiplikation ist etwas schwieriger zu visualisieren. Zunächst liefert (3.86) das Resultat, dass zw die euklidische Länge jzjjwj hat: Es werden also die Längen von z und w multipliziert. Ist eine der Zahlen z oder w null, so auch zw. Dieser Fall ist trivial. Wegen z = a + ib b z+w a c 0 d reelle Achse w = c + id u Abb. 3.2 Addition und komplexe Konjugation in C Abb. 3.3 Einheitskreis und Phase in C 1 i z z |z | −1 0 −i 1 62 3 Von Gruppen, Ringen und Körpern zw D jzjjwj z w jwj jwj (3.90) w zw für z; w 2 C n f0g bleibt zu bestimmen, welche Phase jzwj D jzjz jwj das Produkt 1 1 hat. Es genügt dazu offenbar z; w 2 S zu betrachten. Für z; w 2 S gilt mithilfe elementarer Dreiecksgeometrie z D cos C i sin w D cos und C i sin ; (3.91) wobei ; 2 Œ0; 2 / die jeweiligen Winkel von z beziehungsweise w zur x-Achse sind. Dann gilt also zw D cos cos D cos. C sin sin C i.cos sin / C i sin. C C cos sin / / (3.92) nach den Additionstheoremen für cos und sin. Für die Multiplikation von komplexen Zahlen werden also die Winkel addiert, die man aus den zugehörigen Phasen erhält, siehe auch Abb. 3.4. Bemerkung 3.58. Zum jetzigen Stand der Dinge ist dies jedoch als Heuristik einzuschätzen, da wir noch nicht über eine mathematisch adäquate Definition von Kosinus und Sinus verfügen, geschweige denn die Additionstheoreme (3.92) wirklich beweisen können. Dies und vieles Weitere geschieht im Laufe eines Analysiskurses und eines Kurses zur Funktionentheorie. Tatsächlich werden Eigenschaften der Multiplikation der komplexen Zahlen und der komplexen Exponentialfunktion Abb. 3.4 Multiplikation von komplexen Phasen i 1 w sin ψ sin(ϕ + ψ) zw z ψ cos ψ cos(ϕ + ψ) ϕ+ψ ϕ cos ϕ sin ϕ 1 3.5 Nochmals Polynome 63 dazu verwendet, die Additionstheoreme zu beweisen, siehe beispielsweise [1, Abschnitt III.6] oder [18]. Wir kommen nun zu einem vorerst letzten Aspekt der komplexen Zahlen. Für reelle Zahlen a ¤ 0 ist a2 > 0. Daher kann eine Gleichung der Form x2 C 1 D 0 (3.93) keine reelle Lösung besitzen. Es kann daher passieren, dass ein reelles Polynom p 2 RŒx keine reelle Nullstelle besitzt. Das ist aus vielerlei Gründen manchmal sehr unerfreulich. Wir werden bei der Behandlung des Eigenwertproblems in Abschn. 6.5 konkrete Gründe dafür sehen. Die komplexen Zahlen wurden historisch gesehen insbesondere deshalb „erfunden“, um dieses Defizit zu beheben. Wir haben schon gesehen, dass i und i die Gl. (3.93) lösen, also komplexe Nullstellen des Polynoms p.z/ D z2 C 1 sind. Der folgende nichttriviale Satz zeigt nun, dass im Komplexen alle Polynome Nullstellen haben. Satz 3.59 (Fundamentalsatz der Algebra). Sei p 2 CŒz ein nichtkonstantes Polynom mit komplexen Koeffizienten. Dann besitzt p eine komplexe Nullstelle. Der Beweis kann auf verschiedene Weisen erbracht werden, am einfachsten vermutlich mit Methoden aus der Funktionentheorie, siehe etwa [18, Kap. 9, §1]. Einen Körper mit dieser Eigenschaft nennt man auch algebraisch abgeschlossen: Definition 3.60 (Algebraisch abgeschlossener Körper). Sei k ein Körper. Besitzt jedes nichtkonstante Polynom p 2 kŒx eine Nullstelle, so heißt k algebraisch abgeschlossen. Kontrollfragen. Wann ist ein Ring ein Körper? Wieso ist die Charakteristik eines Körpers eine Primzahl? Was ist ein Körpermorphismus und wieso sind solche immer injektiv? Wieso bilden die komplexen Zahlen wieder einen Körper? Wieso kann eine analoge Konstruktion von „komplexen Zahlen“ k ik für einen beliebigen Körper k Schwierigkeiten bereiten? Ist R algebraisch abgeschlossen? 3.5 Nochmals Polynome In diesem kleinen Abschnitt wollen wir einige weitere Eigenschaften von Polynomen untersuchen. Anders als im allgemeinen Fall sind wir nun an kŒx mit einem Körper k anstelle eines beliebigen Rings interessiert. Ist nun k ein Körper, so können wir die Abschätzung aus Korollar 3.36 zu einer Gleichheit verbessern: 64 3 Von Gruppen, Ringen und Körpern Lemma 3.61. Seien p; q 2 kŒx ungleich dem Nullpolynom. Dann gilt deg.pq/ D deg.p/ C deg.q/: (3.94) Beweis. Seien p.x/ D an x n C C a0 und q.x/ D bm x m C C b0 mit an ; : : : ; a0 ; bm ; : : : ; b0 2 k gegeben. Da wir p ¤ 0 ¤ q annehmen, können wir ohne Einschränkung an ¤ 0 ¤ bm annehmen. Es gilt also deg.p/ D n und deg.q/ D m. Dann gilt weiter .pq/.x/ D an bm x nCm C .an bm1 C an1 bm /x mCn1 C C a0 b0 : Da k ein Körper ist, folgt an bm ¤ 0, womit (3.94) gezeigt ist. t u Mit der Konvention, dass 1 C n D 1 für alle n 2 N0 [ f1g, behält das Lemma seine Gültigkeit auch für den Fall, dass eines oder beide Polynome das Nullpolynom sind. Dies erklärt die Konvention, dass wir dem Nullpolynom den Grad 1 zuordnen wollen. Man beachte, dass jenseits eines Körpers mögliche Nullteiler in einem Ring R das Lemma zunichte machen können und nur die Abschätzung aus Korollar 3.36 allgemeinen Bestand hat: Hier heißt a 2 R ein Nullteiler, wenn a ¤ 0 und wenn es ein b 2 R n f0g mit ab D 0 gibt. Im nichtkommutativen Fall sollte man zudem zwischen Rechts- und Linksnullteilern unterscheiden. Das nächste wichtige Konzept ist die Polynomdivision mit Rest. Diese kann in viel allgemeineren Zusammenhängen konstruiert werden als nur für den Polynomring kŒx. Wir wollen aber an dieser Stelle nur den einfachen Fall von Polynomringen betrachten: Proposition 3.62 (Polynomdivision). Seien p; d 2 kŒx mit d ¤ 0 gegeben. Dann gibt es eindeutig bestimmte Polynome q; r 2 kŒx mit p D qd C r und deg r < deg d: (3.95) Beweis. Der Beweis ist sogar konstruktiv und liefert einen Algorithmus zur schnellen Berechnung von q und r. Zunächst überlegt man sich die Eindeutigkeit: Seien q; q 0 sowie r; r 0 alternative Polynome mit (3.95). Dann gilt also qd C r D q 0 d C r 0 und damit .q q 0 /d D r 0 r: Für die Grade gilt dann für q q 0 ¤ 0 nach Lemma 3.61 deg.r 0 r/ D deg.q q 0 / C deg.d / > deg.d /; was nicht sein kann, da deg.r/; deg.r 0 / < deg.d / gefordert war und somit auch deg.r 0 r 0 / < deg.d / gilt. Also muss q D q 0 gewesen sein. Damit folgt aber auch 3.5 Nochmals Polynome 65 r D r 0 . Für p D 0 ist q D 0 und r D 0 eine und damit die eindeutige Lösung, da wir ja deg.0/ D 1 gesetzt haben. Zur Berechnung von q und r für p ¤ 0 schreiben wir p.x/ D an x n C C a0 d .x/ D bm x m C C b0 und jeweils mit an ¤ 0 ¤ bm . Gilt nun deg.d / D m > n D deg.p/, so ist mit q D 0 und r D p die Gl. (3.95) offenbar eindeutig gelöst. Gilt n m, so setzen wir zuerst q1 .x/ D an nm x : bm Dann ist .q1 d /.x/ D an x n C bm1 an n1 b0 an nm x C C x : bm bm Wir betrachten nun p1 D p q1 d , was ein Polynom vom Grade (mindestens) eins kleiner als p ist, da sich die führenden Terme gerade herausheben. Nun ist entweder deg.p1 / < deg.d /, und wir können r D p1 und q D q1 setzen, oder deg.p1 / deg.d /, und wir können den vorherigen Schritt wiederholen, um q2 zu definieren. Nach endlich vielen Schritten sind somit p1 ; : : : ; pk und q1 ; : : : ; qk konstruiert, sodass deg.pk / < deg.d / erreicht ist. Dann ist p D .q1 C C qk /d C pk nach Konstruktion, womit q D q1 C C qk und r D pk die gesuchte Lösung liefert. t u Beispiel 3.63. Wir illustrieren den Algorithmus am besten durch ein Beispiel. Seien p.x/ D 4x 4 C 3x 3 7x 2 C 2 und d .x/ D 8x 2 2x (3.96) gegeben. Im ersten Schritt erhält man daher q1 .x/ D 1 2 x 2 (3.97) und somit .q1 d /.x/ D 4x 4 x 3 . Der Rest ist dann p1 .x/ D .p q1 d /.x/ D 4x 3 7x 2 C 2: (3.98) Da deg.p1 / D 3 2 D deg.d /, ist ein weiterer Schritt nötig. Wir erhalten q2 .x/ D 1 x 2 (3.99) 66 3 Von Gruppen, Ringen und Körpern und somit .q2 d /.x/ D 4x 3 x 2 . Dies liefert p2 .x/ D .p1 q2 d /.x/ D 6x 2 C 2: (3.100) Es gilt immer noch deg.p2 / deg.d /, weshalb wir einen dritten Schritt benötigen mit q3 .x/ D 3 4 (3.101) und entsprechend .q3 d /.x/ D 6x 2 C 32 x. Dies liefert 3 p3 .x/ D .p2 q3 d /.x/ D x C 2: 2 (3.102) Nun ist deg.p3 / < deg.d / erreicht, womit wir fertig sind. Wir erhalten daher die Polynomdivision mit Rest 4 3 2 .4x C 3x 7x C 2/ D 3 1 2 1 x C x 2 2 4 3 8x 2 2x x C 2 2 (3.103) beziehungsweise q.x/ D 1 2 1 3 x C x 2 2 4 und 3 r.x/ D x C 2 2 (3.104) für den Quotienten und den Rest. Bemerkung 3.64. Da im Algorithmus zur Polynomdivision immer nur durch den Koeffizienten bm des Nennerpolynoms d geteilt werden muss, kann man den Algorithmus auch auf folgende Situation erweitern: Man kann den Körper k durch einen kommutativen Ring R mit Eins ersetzen und muss nun zusätzlich zu d ¤ 0 fordern, dass der höchste Koeffizient bm von d in R invertierbar ist. Für unsere Zwecke ist jedoch der Fall eines Körpers der entscheidende. Im Sinne der Polynomdivision können wir nun auch formulieren, wann Polynome teilerfremd heißen sollen: Definition 3.65 (Teilerfremd). Seien p1 ; : : : ; pk 2 kŒx Polynome. Dann heißen die Polynome p1 ; : : : ; pk teilerfremd, wenn die einzigen Polynome, die alle p1 ; : : : ; pk teilen, die konstanten Polynome sind. Als erste Anwendung der Polynomdivision mit Rest zeigen wir, wie man Nullstellen eines Polynoms zur Faktorisierung verwenden kann. Ist nämlich 2 k und q 2 kŒx, so hat das Polynom 3.5 Nochmals Polynome 67 p.x/ D .x /q.x/ (3.105) eine Nullstelle bei . Die Umkehrung ist ebenfalls richtig: Korollar 3.66. Sei p 2 kŒx ein nicht konstantes Polynom und 2 k eine Nullstelle von p. Dann gibt es ein eindeutig bestimmtes Polynom q 2 kŒx mit deg.q/ D deg.p/ 1 und p.x/ D .x /q.x/: (3.106) Beweis. Wir betrachten d .x/ D x und finden q und r gemäß Proposition 3.62. Da deg.d / D 1, muss deg.r/ 0 gelten. Also ist r.x/ D r0 ein konstantes Polynom. Einsetzen von liefert 0 D p./ D . / q./ C r./ D 0 C r0 ; was r0 D 0 zeigt. Nach Lemma 3.61 folgt nun deg.p/ D deg.d / C deg.q/ D 1 C deg.q/ und daher deg.q/ D deg.p/ 1. u t Korollar 3.67. Ein nicht konstantes Polynom p 2 kŒx vom Grad deg.p/ D n hat höchstens n Nullstellen. Korollar 3.68. Sei p 2 kŒx ein Polynom vom Grad n 2 N mit Koeffizienten in einem algebraisch abgeschlossenen Körper. Dann gibt es Zahlen 1 ; : : : ; n 2 k mit p.x/ D an .x 1 / .x n /; (3.107) wobei an der führende Koeffizient von p ist und die 1 ; : : : ; n nicht notwendigerweise verschieden sind. Dies trifft nach Satz 3.59 insbesondere für komplexe Polynome p 2 CŒx zu: Ein komplexes Polynom zerfällt in Linearfaktoren. Der nächste wichtige Satz über Polynome ist eine Variante des Lemmas von Bezout. Dieses kann in einem viel größeren Kontext konzeptionell klarer formuliert und bewiesen werden. Wir werden uns hier jedoch mit einer einfachen Version in der Sprache der Polynome begnügen. Satz 3.69 (Lemma von Bezout). Sei k 2 N, und seien p1 ; : : : ; pk 2 kŒx vorgegeben. Sind die einzigen gemeinsamen Teiler der Polynome p1 , . . . , pk die Konstanten, so gibt es Polynome q1 , . . . , qk 2 kŒx mit p1 q1 C C pk qk D 1: (3.108) 68 3 Von Gruppen, Ringen und Körpern Beweis. Wir betrachten alle Polynome der Form ˇ ˚ J D p1 a1 C C pk ak ˇ a1 ; : : : ; ak 2 kŒx kŒx: Es gilt dann zu zeigen, dass 1 2 J. Da die Polynome p1 ; : : : ; pk teilerfremd sein sollen, können nicht alle von ihnen verschwinden, da sonst jedes Polynom ein Teiler wäre. Damit gilt J ¤ f0g. Unter den Polynomen in J n f0g wählen wir eines mit minimalem Grad aus: Eine solche Wahl d ist sicher möglich, aber nicht unbedingt eindeutig. Da nach Voraussetzung d ¤ 0 gelten soll, finden wir zu einem p 2 J eindeutig bestimmte q; r 2 kŒx mit p D qd C r mit deg.r/ < deg.d /: Nun bemerken wir, dass J ein Unterring von kŒx ist: Dies ist eine einfache Verifikation anhand der expliziten Form der Elemente von J. Es gilt sogar, dass J ein Ideal ist: Für f 2 J und g 2 kŒx gilt fg 2 J. Auch diese Eigenschaft ist anhand der Definition von J unmittelbar klar. Den Begriff des Ideals werden wir in Band 2 noch eingehender studieren. Mit d; p 2 J und der Idealeigenschaft folgt nun auch r D p qd 2 J. Da d aber bereits minimalen Grad unter allen Elementen in J n f0g hat, muss wegen deg.r/ < deg.d / also r D 0 gelten. Damit gilt aber p D qd , womit d alle Polynome aus J teilt. Insbesondere teilt d alle Polynome p1 ; : : : ; pk , die nach Voraussetzung aber nur die konstanten Polynome als gemeinsame Teiler haben. Es folgt, dass d .x/ D d0 ein konstantes Polynom sein muss. Weiter wissen wir zum einen d ¤ 0, also d0 ¤ 0, und zum anderen d 2 J. Durch Reskalieren von d0 erhalten wir damit 1 2 J, was den Beweis abschließt. t u Man beachte, dass die Polynome q1 ; : : : ; qk im Allgemeinen keineswegs eindeutig sind: Es gibt viele Lösungen des obigen Problems, wie eine einfache Überlegung zeigt, siehe Übung 3.31. Kontrollfragen. Welche Eigenschaft hat der Grad von Polynomen mit Koeffizienten in einem Körper im Vergleich zur allgemeinen Situation bei Ringen? Was ist Polynomdivision? Kann man Polynomdivision auch bei Koeffizienten in einem Ring durchführen? Wie viele Nullstellen hat ein Polynom vom Grad n 0 mit Koeffizienten in einem Körper höchstens? 3.6 Übungen Übung 3.1 (Nichtabelsche Bijektionen). Zeigen Sie, dass die Gruppe Bij.M / der Bijektionen einer Menge M nichtabelsch ist, sofern M mindestens drei Elemente besitzt. Was gilt für ein oder zwei Elemente? 3.6 Übungen 69 Übung 3.2 (Kreuzprodukt liefert kein Monoid). Betrachten Sie erneut R3 mit dem Kreuzprodukt als Verknüpfung. i.) Zeigen Sie durch ein Gegenbeispiel, dass nicht assoziativ ist. ii.) Beweisen Sie, dass es bezüglich kein neutrales Element gibt. Übung 3.3 (Eckmann-Hilton-Argument). Sei M eine Menge mit zwei Verknüpfungen ı und ˘, derart, dass es für beide Verknüpfungen Einselemente 1ı ; 1˘ 2 M gibt. Weiter gelte .a ı b/ ˘ .c ı d / D .a ˘ b/ ı .c ˘ d / (3.109) für alle a; b; c; d 2 M . Zeigen Sie, dass dann ˘ D ı gilt, dass ˘ sowohl kommutativ als auch assoziativ ist und dass 1ı D 1˘ gilt. Übung 3.4 (Kleine Monoide). Wir betrachten Mengen mit wenigen Elementen und alle möglichen Monoidstrukturen auf ihnen. i.) Bestimmen Sie alle Monoidstrukturen auf einer Menge M mit einem sowie mit zwei Elementen. ii.) Zeigen Sie, dass M D f0; 1; 1g Q ein Monoid bezüglich der Multiplikation von Zahlen ist. Ist dieses Monoid auch eine Gruppe? Bestimmen Sie M . Übung 3.5 (Die symmetrische Gruppe). Sei M eine Menge mit n 2 N Elementen. Zeigen Sie, dass Bij.M / genau nŠ Elemente besitzt. Hinweis: Induktion ist eine gute Strategie. Übung 3.6 (Eine abelsche Gruppe). Betrachten Sie das offene Intervall I D .1; 1/ R. Definieren Sie eine Verknüpfung ˘W I I ! I durch x˘y D xCy 1 C xy (3.110) für x; y 2 I . i.) Zeigen Sie, dass x ˘ y 2 I für x; y 2 I . ii.) Zeigen Sie, dass .I; ˘/ eine abelsche Gruppe wird. Was ist das Inverse zu x, was das neutrale Element? iii.) Zeigen Sie, dass die Gruppe .I; ˘/ zur Gruppe .R; C/ isomorph ist, indem Sie einen expliziten Isomorphismus angeben. Hier ist Ihr Schulwissen zu den hyperbolischen Funktionen gefragt. Diese Gruppe hat eine Anwendung in der speziellen Relativitätstheorie, wo sie das (skalare) Additionsgesetz von Geschwindigkeiten liefert. 70 3 Von Gruppen, Ringen und Körpern Übung 3.7 (Inversion und Konjugation). Sei G eine Gruppe. i.) Zeigen Sie, dass die Inversion 1 W G ! G eine Bijektion ist, und bestimmen Sie die zugehörige inverse Abbildung. ii.) Zeigen Sie, dass für jedes g 2 G die Linksmultiplikation Lg W G 3 h 7! gh 2 G eine Bijektion ist, und bestimmen Sie deren Inverses. Bestimmen Sie Lg ı Lh für g; h 2 G sowie Le . Zeigen Sie die analogen Aussagen für die Rechtsmultiplikation Rg mit g. iii.) Vergleichen Sie Lg ı Rh und Rh ı Lg für g; h 2 G. iv.) Die Konjugation Conjg mit g ist nun als Conjg D Lg ı Rg1 definiert. Zeigen Sie, dass Conjg W G ! G für jedes g 2 G ein Gruppenautomorphismus ist. Bestimmen Sie Conjg ı Conjh . v.) Zeigen Sie, dass g 7! Conjg ein Gruppenmorphismus ConjW G ! Aut.G/ ist. Welche Gruppenstruktur von Aut.G/ verwenden Sie dazu? Übung 3.8 (Produktgruppe). Seien G und H zwei Gruppen. Definieren Sie auf dem kartesischen Produkt G H eine Verknüpfung komponentenweise durch .g; h/ ˘ .g 0 ; h0 / D .gg 0 ; hh0 /; (3.111) wobei g; g 0 2 G und h; h0 2 H . i.) Zeigen Sie, dass G H durch diese Verknüpfung ˘ zu einer Gruppe wird. Was ist das Einselement von G H , und wie erhält man die Inversen? ii.) Zeigen Sie, dass die kanonischen Projektionen prG W G H ! G und prH W G H ! H Gruppenmorphismen sind. iii.) Zeigen Sie, dass die Abbildungen G 3 g 7! .g; eH / 2 G H (3.112) und H 3 h 7! .eG ; h/ 2 G H Gruppenmorphismen sind. iv.) Zeigen Sie, dass die Bilder von G mit den Bildern von H in G H kommutieren. v.) Verallgemeinern Sie diese Konstruktion auf eine beliebige indizierte Menge fGi gi2I von Gruppen. Übung 3.9 (Nicht isomorphe Gruppen). Betrachten Sie die beiden Gruppen G1 D Z2 Z2 und G2 D Z4 , wobei die Produktstruktur aus Übung 3.8 verwendet wird. i.) Zeigen Sie, dass G1 und G2 gleich viele Elemente haben. ii.) Zeigen Sie, dass beide Gruppen abelsch sind. iii.) Fertigen Sie eine Tabelle mit allen Produkten der Gruppe G1 und G2 an. Woran sehen Sie in einer solchen Multiplikationstabelle, dass die Gruppen abelsch sind? iv.) Zeigen Sie, dass G1 und G2 nicht isomorph sind. 3.6 Übungen 71 Übung 3.10 (Untergruppen der symmetrischen Gruppe). Seien n; m 2 N. i.) Für eine Permutation 2 Sn definiert man eine Permutation . / 2 SnC1 durch 1 ::: n n C 1 . / D : .1/ : : : .n/ n C 1 (3.113) Zeigen Sie, dass W Sn ! SnC1 ein injektiver Gruppenmorphismus ist. ii.) Für . ; / 2 Sn Sm definiert man die Permutation . ; / 2 SnCm durch . ; / D 1 ::: n n C 1 ::: n C m : .1/ : : : .n/ .1/ : : : .m/ (3.114) Zeigen Sie, dass W Sn Sm ! SnCm ein injektiver Gruppenmorphismus ist, wobei Sn Sm mit der Produktstruktur aus Übung 3.8 versehen sei. iii.) Sei nun G eine Gruppe mit n Elementen g1 ; : : : ; gn . Zeigen Sie, dass die Abbildung G 3 g 7! g 2 Sn (3.115) ein injektiver Gruppenmorphismus ist, wobei g 2 Sn durch Lg .gj / D gg .j / für alle j D 1; : : : ; n festgelegt wird. Damit kann also jede endliche Gruppe als Untergruppe einer Permutationsgruppe Sn aufgefasst werden. Übung 3.11 (Assoziativität). Sei .M; ˘/ eine Menge mit einer assoziativen Verknüpfung ˘. Sei weiter n 2 N und x1 ; : : : ; xn 2 M . i.) Auf wie viele Weisen Kn können Sie in einem Produkt x1 ˘ ˘ xn mit n Faktoren Klammern anbringen, um die Reihenfolge der Multiplikationen festzulegen? Zeigen Sie hierzu eine Rekursionsformel für Kn . ii.) Betrachten Sie n D 4 und n D 5. Zeigen Sie durch explizite Anwendung der Assoziativität für ˘, dass Sie jedes Produkt mit n Faktoren auf die Form x1 ˘ .x2 ˘ .xn1 ˘ xn / / bringen können. iii.) Wie können Sie diese Tatsache auch für beliebiges n 2 N zeigen? Dies ist in der Tat nicht ganz einfach. Hinweis: Führen Sie einen Induktionsbeweis nach n. Gilt die Aussage für n 1 Faktoren, dann ist die letzte Klammerung in einem Produkt von n Faktoren von der Form Xm D .x1 ˘ ˘ xm / ˘ .xmC1 ˘ ˘ xn / mit 1 m < n, wobei wir bei m beziehungsweise n m Faktoren ja nicht mehr auf die Klammerung achten müssen. Zeigen Sie nun, dass X1 D X2 D D Xn1 . Übung 3.12 (Rechenregeln in Gruppen). Sei G eine nicht notwendigerweise abelsche Gruppe, die wir multiplikativ schreiben. Ist g 2 G, so definieren wir für n2Z 72 3 Von Gruppen, Ringen und Körpern 8 ˆ gg ˆ ˆ ˆ„ƒ‚… ˆ ˆ < n-mal gn D e ˆ ˆ ˆ ˆg 1 g 1 ˆ :̂„ ƒ‚ … falls n > 0 falls n D 0 (3.116) falls n < 0: n-mal Ist G abelsch und additiv geschrieben, so schreibt man anstelle g n auch n g oder einfach nur ng. Man beachte, dass n hier ein Element von Z und mitnichten ein Element in G ist. i.) Zeigen Sie, dass die Abbildung Z 3 n 7! g n 2 G ein Gruppenmorphismus ist. ii.) Zeigen Sie, dass für g; h 2 G in einer abelschen Gruppe zusätzlich .gh/n D g n hn (3.117) für alle n 2 Z gilt. iii.) Wie schreiben sich die Rechenregeln im additiven Fall? Übung 3.13 (Große und kleine Bijektionen). Sei M eine unendliche Menge. Wir betrachten die Gruppe der Bijektionen Bij.M /. Eine Bijektion ˚ 2 Bij.M / heißt klein, falls ˚.p/ D p für alle bis auf höchstens endlich viele Punkte p 2 M und groß anderenfalls. Zeigen Sie, dass die Menge Bij0 .M / der kleinen Bijektionen eine normale Untergruppe von Bij.M / bildet. Geben Sie Beispiele für kleine und große Bijektionen N ! N. Übung 3.14 (Gruppenwirkung). Eigentlich sind Gruppenwirkungen von zu großer Bedeutung in der Mathematik, als dass man diese in einer Übung abhandeln könnte. Hier sollen also nur die ersten Begriffe und Eigenschaften bereitgestellt werden. Sei M eine nichtleere Menge und G eine Gruppe. Eine Wirkung von G auf M ist eine Abbildung ˚W G M ! M (3.118) mit den Eigenschaften, dass ˚.e; p/ D p und ˚.g; ˚.h; p// D ˚.gh; p/ (3.119) für alle g; h 2 G und p 2 M . Man schreibt nun ˚g W M ! M für die Abbildung p 7! ˚g .p/ D ˚.g; p/ für ein festes g 2 G. i.) Zeigen Sie, dass g 7! ˚g einen Gruppenmorphismus von G in die Gruppe der Bijektionen auf M definiert. Zeigen Sie umgekehrt, dass jeder solche Gruppenmorphismus eine Gruppenwirkung liefert. Hinweis: Wieso ist die Abbildung ˚g überhaupt invertierbar? 3.6 Übungen 73 ii.) Sei p 2 M . Zeigen Sie, dass ˇ ˚ Gp D g 2 G ˇ ˚g .p/ D p (3.120) eine Untergruppe von G ist. Diese Untergruppe heißt auch die Stabilisatorgruppe (oder Isotropiegruppe) von p. iii.) Die Bahn (oder der Orbit) von p 2 M unter G ist als ˇ ˚ G p D ˚g .p/ 2 M ˇ g 2 G (3.121) definiert. Zeigen Sie, dass zwei Bahnen G p und G q mit p; q 2 M entweder gleich oder disjunkt sind. iv.) Zeigen Sie, dass p q, falls p 2 G q, eine Äquivalenzrelation auf M definiert. Man nennt dies die Orbitrelation bezüglich der Gruppenwirkung. Gibt es nur einen Orbit, so heißt die Gruppenwirkung transitiv. v.) Seien p; q 2 M im gleichen Orbit. Zeigen Sie, dass jedes g 2 G mit ˚g .p/ D q einen Gruppenisomorphismus Conjg W Gp 3 h 7! Conjg .h/ D ghg 1 2 Gq (3.122) liefert. vi.) Diskutieren Sie Ihre Ergebnisse von Übung 3.7 im Lichte dieser neuen Begriffe. Übung 3.15 (Rechenregeln in Ringen). Sei R ein Ring. i.) Zeigen Sie .a/b D ab D a.b/ für alle a; b 2 R. ii.) Zeigen Sie .a/.b/ D ab für alle a; b 2 R. iii.) Seien a; b1 ; : : : ; bn 2 R für n 2 N. Zeigen Sie die verallgemeinerten Distributivitätsgesetze a.b1 C C bn / D ab1 C C abn .b1 C C bn /a D b1 a C C bn a: (3.123) iv.) Zeigen Sie für n; m 2 N und a1 ; : : : ; am ; b1 ; : : : ; bn 2 R und .a1 C C am /.b1 C C bn / D n X m X ai bj : (3.124) iD1 j D1 v.) Sei a 2 R fest gewählt. Dann betrachtet man den Gruppenmorphismus Z 3 n 7! n a 2 R aus (3.116) in Übung 3.12. Zeigen Sie, dass n .m a/ D .nm/ a (3.125) für alle n; m 2 Z. Zeigen Sie weiter, dass .n a/.m a/ D .nm/ a2 : (3.126) 74 3 Von Gruppen, Ringen und Körpern vi.) Folgern Sie, dass für einen Ring mit Eins 1 2 R die Abbildung n 7! n 1 ein einserhaltender Ringmorphismus ist. An welchen Stellen haben Sie die Assoziativität der Multiplikation von R verwenden müssen? Übung 3.16 (Ringmorphismen). Sei W R1 ! R2 ein Ringmorphismus. i.) Zeigen Sie, dass der Kern ker./ R1 ein Unterring ist. ii.) Zeigen Sie, dass auch das Bild im./ R2 ein Unterring ist. iii.) Zeigen Sie, dass genau dann injektiv ist, wenn ker./ D f0g gilt. Übung 3.17 (Binomialsatz). Sei R ein Ring und seien a; b 2 R mit ab D ba. Zeigen Sie, dass ! n X n k nk .a C b/ D a b k n (3.127) kD0 für alle n 2 N gilt. Hierbei sind die beiden Randterme als an b 0 D an und a0 b n D b n zu verstehen, womit (3.127) auch erklärt ist, wenn R keine Eins hat. nŠ Hinweis: Induktion nach n. Vorsicht: Der Binomialkoeffizient kn D kŠ.nk/Š ist im Allgemeinen kein Element von R. Anstelle dessen muss man Übung 3.15, v.), verwenden. Übung 3.18 (Funktionenringe). Sei R ein Ring und M eine nichtleere Menge. Betrachten Sie dann die Menge der Abbildungen Abb.M; R/ und definieren Sie .f C g/.x/ D f .x/ C g.x/ (3.128) .f g/.x/ D f .x/ g.x/ (3.129) und für f; g 2 Abb.M; R/ und x 2 M . Auf diese Weise erhalten Sie also Verknüpfungen C und für Elemente in Abb.M; R/ aus den entsprechenden Verknüpfungen von R. Man sagt auch, dass man die Verknüpfungen punktweise in M definiert hat. i.) Zeigen Sie, dass mit diesen Verknüpfungen Abb.M; R/ ein Ring wird. Was ist das Nullelement von Abb.M; R/? ii.) Zeigen Sie, dass Abb.M; R/ wieder kommutativ wird, wenn R kommutativ war. Besitzt Abb.M; R/ ein Einselement, wenn R eine Eins hat? iii.) Zeigen Sie, dass R als Unterring von Abb.M; R/ aufgefasst werden kann, indem man a 2 R als konstante Funktion auf M auffasst. 3.6 Übungen 75 iv.) Zeigen Sie, dass es f; g 2 Abb.M; R/ mit f ¤ 0 ¤ g aber fg D 0 gibt, sobald R nicht der Nullring ist und M mindestens zwei Elemente hat. Es gibt also in Abb.M; R/ im Allgemeinen Nullteiler. v.) Sei nun N eine weitere nichtleere Menge und W N ! M eine Abbildung. Definieren Sie den pull-back mit durch W Abb.M; R/ 3 f 7! .f / D f ı 2 Abb.N; R/; (3.130) und zeigen Sie, dass ein Ringmorphismus ist. vi.) Sei nun ˚W R ! S ein Ringmorphismus in einen weiteren Ring S. Zeigen Sie, dass dann die punktweise definierte Abbildung .˚.f //.p/ D ˚.f .p// (3.131) für f 2 Abb.M; R/ und p 2 M einen Ringmorphismus ˚W Abb.M; R/ ! Abb.M; S/ definiert. Zeigen Sie, dass solch ein ˚ mit pull-backs vertauscht. Übung 3.19 (Invertierbarkeit und nilpotente Elemente). Sei R ein Ring mit Eins 1 ¤ 0. Ein Element a 2 R heißt nilpotent, falls es ein n 2 N mit an D 0 gibt. i.) Zeigen Sie, dass 1 C a für ein nilpotentes Element a invertierbar ist. Hinweis: Betrachten Sie zunächst n D 2 und n D 3 und raten Sie dann geschickt die Formel für das Inverse. Der erforderliche Nachweis ist dann eine einfache Rechnung, siehe auch Übung A.4, i.). ii.) Zeigen Sie, dass in einem Körper die Null das einzige nilpotente Element ist. Übung 3.20 (Formale Potenzreihen). Sei R ein Ring. In der Konstruktion des Polynomrings RŒx wurden diejenigen Abbildungen aW N0 ! R verwendet, die nur bei endlich viele Zahlen k 2 N0 Werte a.k/ D ak ungleich null besitzen. Diese Einschränkung kann man auch fallen lassen und erhält somit die formalen Potenzreihen RŒŒx. Wir schreiben wie bei den Polynomen für eine solche Abbildung aD 1 X ak x k ; (3.132) kD0 wobei eben ak D a.k/ 2 R gilt. Man definiert nun Addition und Multiplikation für a; b 2 RŒŒx wie schon bei Polynomen durch 1 X .ak C bk /x k aCb D kD0 und ab D 1 X k X kD0 `D0 ! a` bk` x k : (3.133) 76 3 Von Gruppen, Ringen und Körpern i.) Zeigen Sie, dass durch (3.133) Verknüpfungen C und auf RŒŒx definiert werden. ii.) Zeigen Sie, dass C assoziativ und kommutativ ist und RŒŒx so zu einer abelschen Gruppe wird. Was ist das Nullelement? Zeigen Sie weiter, dass C und die Distributivgesetze erfüllen, sodass RŒŒx ein Ring wird. iii.) Zeigen Sie, dass der Polynomring RŒx ein Unterring von RŒŒx ist. iv.) Zeigen Sie, dass RŒŒx genau dann kommutativ ist, wenn R kommutativ ist. Anders als bei Polynomen gibt es nun im Allgemeinen keinen Grad mehr: Es können eben beliebig hohe Grade auftreten. Als Ersatz ist es dagegen manchmal nützlich, folgende Ordnung zu betrachten: Für a 2 RŒŒx definiert man die Ordnung o.a/ 2 N0 [ f1g durch ( o.a/ D minfk j ak ¤ 0g falls a ¤ 0 C1 falls a D 0: (3.134) v.) Zeigen Sie, dass die Ordnung o.a/ D 0 ” a D 0 sowie o.a C b/ min.o.a/; o.b// und o.a b/ o.a/ C o.b/ (3.135) für a; b 2 RŒŒx erfüllt. vi.) Zeigen Sie, dass für einen Körper k sogar o.a b/ D o.a/ C o.b/ für a; b 2 kŒŒx gilt. Finden Sie einen Ring R, für den in (3.135) die echte Ungleichung bei der Ordnung eines Produkts steht. Übung 3.21 (Invertierbarkeit von Polynomen und Potenzreihen). Betrachten Sie einen Ring R mit Eins 1 ¤ 0. i.) Sei a 2 RŒx ein Polynom. Zeigen Sie, dass a in RŒx invertierbar ist, wenn a D a0 ein konstantes Polynom mit a0 2 R , also a0 invertierbar in R ist. ii.) Ist R sogar ein Körper, so ist a genau dann invertierbar, wenn a D a0 mit a0 ¤ 0. iii.) Können Sie ein Beispiel für einen Ring angeben, der ein invertierbares und nicht konstantes Polynom zulässt? Hinweis: Übung 3.19. iv.) Sei nun a 2 RŒŒx eine formale Potenzreihe. Zeigen Sie, dass a invertierbar ist, wenn a0 invertierbar ist. Hinweis: Nehmen Sie zunächst a0 D 1 an, und schreiben Sie a D 1Cb mit b 2 RŒŒx. Was ist die Ordnung von b? Betrachten Sie die formale Potenzreihe c D 1 b C b 2 b 3 C . Zeigen Sie, dass dies wirklich eine wohldefinierte formale Potenzreihe c 2 RŒŒx liefert. Wieso ist hierbei tatsächlich eine Schwierigkeit zu überwinden? Berechnen Sie nun ac und ca. Wie können Sie nun zum allgemeinen Fall a0 2 R übergehen? 3.6 Übungen 77 v.) Sei nun erneut R sogar ein Körper. Zeigen Sie, dass a 2 RŒŒx genau dann invertierbar ist, wenn a0 ¤ 0. vi.) Diskutieren Sie diese Ergebnisse im Hinblick auf i.). Übung 3.22 (Polynome in mehreren Variablen). Sei R ein Ring und k 2 N. Rekursiv definiert man den Ring der Polynome in den Variablen x1 ; : : : ; xk mit Koeffizienten in R durch RŒx1 ; : : : ; xk D .RŒx1 ; : : : ; xk1 /Œxk ; (3.136) wobei RŒx1 wie bisher die Polynome in einer Variablen sind. i.) Zeigen Sie, dass die Abbildung Abb0 .Nk0 ; R/ 3 .n1 ; : : : ; nk / 7! an1 :::nk 1 X 7! an1 :::nk x1n1 xknk 2 RŒx1 ; : : : ; xk (3.137) n1 ;:::;nk D0 ein Isomorphismus von abelschen Gruppen bezüglich der punktweisen Addition von Abb0 .Nk0 ; R/ und der Addition im Ring RŒx1 ; : : : ; xk ist. Hinweis: Überlegen Sie sich zuerst, wieso Sie ein Element a 2 RŒx1 ; : : : ; xk als eine solche Reihe (mit nur endlich vielen von null verschiedenen Termen) schreiben können. ii.) Finden Sie eine explizite Formel für das Produkt von a; b 2 RŒx1 ; : : : ; xk , wenn diese Elemente als Polynom wie in (3.137) geschrieben sind. Übung 3.23 (Körpermorphismen). Sei W k1 ! k2 ein Morphismus zwischen zwei Körpern. i.) Zeigen Sie, dass injektiv ist. ii.) Zeigen Sie, dass char.k1 / D char.k2 / gelten muss. iii.) Zeigen Sie, dass es keinen Körpermorphismus von Z2 nach R gibt. Übung 3.24 (Rechnen mit komplexen Zahlen). Betrachten Sie den Körper C der komplexen Zahlen. i.) Zeigen Sie, dass z 2 C genau dann reell ist (also im Unterkörper R C liegt), wenn z D z. ii.) Bestimmen Sie den Realteil und Imaginärteil von z, iz sowie 1z und 1z für z 2 C n f0g. iii.) Bestimmen Sie den Realteil, den Imaginärteil, den Betrag und das komplex Konjugierte von 3i .4 C i/2 ; .1 C i/.1 i/; 1Ci ; 1i 2 ; 3 C 2i 4 3i : 2Ci (3.138) 78 3 Von Gruppen, Ringen und Körpern Übung 3.25 (Die rechte Halbebene als Gruppe). Sei HC D fz 2 C j Re.z/ > 0g die rechte Halbebene in C. Betrachten Sie folgende Verknüpfung ?W HC HC 3 .v; w/ 7! v ? w D vv vCv wC 2 HC : 2 2 (3.139) i.) Zeigen Sie, dass tatsächlich v ? w 2 HC gilt, sofern v; w 2 HC . ii.) Zeigen Sie, dass HC mit der Verknüpfung ? zu einer Gruppe wird, indem Sie das Einselement und eine explizite Formel für das Inverse finden. iii.) Ist .HC ; ?/ eine abelsche Gruppe? Übung 3.26 (Einheitswurzeln). Zahlen. Sei weiter n 2 N. Betrachten Sie den Körper C der komplexen i.) Verwenden Sie die Zerlegung einer komplexen Zahl in Betrag und Phase sowie die aus der Schule bekannten Rechenregeln für Sinus und Kosinus, um alle komplexen Nullstellen des Polynoms p.z/ D zn 1 zu finden. Diese n verschiedenen Nullstellen heißen auch Einheitswurzeln. ii.) Visualisieren Sie die Lage der Einheitswurzeln für n D 2; 3; 4; 5 in der komplexen Ebene und finden Sie so eine grafische Erklärung für die Gültigkeit Ihrer Berechnungen. Übung 3.27 (Polynomdivision). Sei k ein Körper mit char.k/ D 0. i.) Führen Sie folgende Polynomdivisionen mit Rest durch: .7x 7 C 5x 5 C 3x 3 C x/=.x 2 C 1/; .3x 5 2x 4 C 3x 2 2x/=.x 3 C 1/; .x 4 C x 3 C 4x 2 C 3x C 4/=.x 2 C x C 1/: Bestimmen Sie die Grade der Quotienten und der jeweiligen Reste. ii.) Sei a 2 k und pn .x/ D x n an 2 kŒx mit n 2 N. Berechnen Sie p.x/=.x a/, indem Sie zunächst n D 2 und n D 3 betrachten und dann geschickt raten. Übung 3.28 (Auswertung von Polynomen). Sei R ein Ring und 2 R. Zeigen Sie, dass die Auswertung von Polynomen p 2 RŒx bei x D einen Ringmorphismus ı W RŒx 3 p 7! p./ 2 R liefert. (3.140) 3.6 Übungen 79 Übung 3.29 (Nullteiler in kŒx). Zeigen Sie, dass für einen Körper k die Polynome kŒx keine Nullteiler besitzen. Gilt dies auch für formale Potenzreihen und für Polynome in mehreren Variablen? Übung 3.30 (Ringmorphismen zwischen Polynomen). Sei R ein Ring und RŒx der Polynomring mit Koeffizienten in R. Betrachten Sie nun die geraden und ungeraden Polynome ˇ ˚ RŒxgerade D p 2 RŒx ˇ p.x/ D a2n x 2n C a2n2 x 2n2 C C a2 x 2 C a0 (3.141) und ˇ ˚ RŒxungerade D p 2 RŒx ˇ p.x/ D a2nC1 x 2nC1 C a2n1 x 2n1 C C a1 x : (3.142) i.) Zeigen Sie, dass RŒxgerade ein Unterring aller Polynome ist. Zeigen Sie weiter, dass das Produkt eines geraden mit einem ungeraden Polynom wieder ein ungerades Polynom ist und dass das Produkt zweier ungerader Polynome gerade ist. ii.) Sei p 2 RŒx. Zeigen Sie, dass p genau dann ungerade ist, wenn es ein gerades Polynom q 2 RŒxgerade mit p.x/ D xq.x/ gibt. iii.) Zeigen Sie, dass der Unterring RŒxgerade zu RŒx isomorph ist. Übung 3.31 (Nichteindeutigkeit beim Lemma von Bezout). Seien p1 ; : : : ; pk 2 kŒx teilerfremde Polynome. Zeigen Sie, dass es dann viele Polynome q1 ; : : : ; qk 2 kŒx mit p1 q1 C C pk qk D 1 gibt. Hinweis: Betrachten Sie zunächst k D 2: Ist q1 ; q2 eine Lösung, so ist qQ1 D q1 C ap2 und qQ2 D q2 ap1 ebenfalls eine Lösung, wobei a 2 kŒx beliebig ist. Verallgemeinern Sie diese Konstruktion nun für beliebige k 2 N . Übung 3.32 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen falsche Aussagen richtig werden. i.) Der Binomialsatz aus Übung 3.17 gilt allgemein auch ohne die Voraussetzung ab D ba. ii.) Sei G eine Gruppe und a 2 G. Dann ist auch .G; ˘/ mit g ˘ h D gah eine Gruppe. Q iii.) Eine Produktgruppe G D i2I Gi ist genau dann abelsch, wenn jeder Faktor Gi abelsch ist. iv.) In einer abelschen Gruppe ist jede Untergruppe normal. v.) Die Stabilisatorgruppe Gp von einer Gruppenwirkung ˚W G M ! M ist für alle p 2 M normal. 80 3 Von Gruppen, Ringen und Körpern vi.) Für einen Ringmorphismus W R ! S und a 2 ker gilt für alle b 2 R auch ab; ba 2 ker . vii.) Der Körper Z2 ist algebraisch abgeschlossen. viii.) Es existiert ein endlicher Körper mit Charakteristik null. ix.) Es gibt eine Möglichkeit, die abelsche Gruppe .Z3 ; C/ zu einem Körper zu machen. x.) Es gibt zwei verschiedene Möglichkeiten, die abelsche Gruppe .Z3 ; C/ zu einem Körper zu machen. xi.) Es existiert eine Gruppe G mit zwei Elementen g ¤ h mit g 2 D h2 . xii.) In einer endlichen abelschen Gruppe G mit n Elementen g1 ; : : : ; gn gilt .g1 gn /2 D e: (3.143) xiii.) Gilt g 2 D e für alle Elemente g in einer Gruppe G, so ist G abelsch. xiv.) Für a1 ; : : : ; an 2 k mit a12 C C an2 D 0 folgt in einem Körper a1 D D an D 0. xv.) Es gibt ein reelles Polynom dritten Grades, welches bei allen ganzen Zahlen irrationale Werte annimmt. xvi.) Für einen kommutativen Ring R (einen Körper) ist jeder Ringmorphismus W RŒx ! R ein Auswertungsfunktional ı mit 2 R. 4 Lineare Gleichungssysteme und Vektorräume In diesem Kapitel werden wir den in der linearen Algebra zentralen Begriff des Vektorraums vorstellen und erste Eigenschaften diskutieren. Als erste Motivation hierfür wollen wir lineare Gleichungssysteme systematisch behandeln. Anschließend werden wir verschiedene Beispiele von Vektorräumen kennenlernen und den Begriff der linearen Unabhängigkeit und des Erzeugendensystems einführen. Maximale Systeme von linear unabhängigen Vektoren entsprechen minimalen Erzeugendensystemen und werden Basen eines Vektorraums genannt. Wir zeigen, welche Eigenschaften die Basen eines Vektorraums besitzen, und weisen deren Existenz nach. Es stellt sich heraus, dass je zwei Basen die gleiche Mächtigkeit besitzen, was es erlaubt, die Dimension eines Vektorraums zu definieren. Schließlich präsentieren wir einige grundlegende Konstruktionen wie das kartesische Produkt und die direkte Summe von Vektorräumen. In diesem Kapitel ist k ein fest gewählter Körper. 4.1 Lineare Gleichungssysteme und Gauß-Algorithmus Ziel dieses Abschnitts ist es, die Lösungstheorie von linearen Gleichungssystemen zu etablieren. Dazu geben wir Koeffizienten aij 2 k mit i D 1; : : : ; n und j D 1; : : : ; m sowie b1 ; : : : ; bn 2 k vor. Dann können wir das System a11 x1 C a12 x2 C C a1m xm D b1 a21 x1 C a22 x2 C C a2m xm D b2 :: : (4.1) an1 x1 C an2 x2 C C anm xm D bn von n Gleichungen für die m Variablen x1 ; : : : ; xm betrachten. Gesucht sind also x1 ; : : : ; xm 2 k, sodass (4.1) gelöst wird. Die Bedeutung der Indizes merkt man sich nach der Regel „Zuerst die Zeile, später die Spalte“. © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_4 81 82 4 Lineare Gleichungssysteme und Vektorräume Derartige Gleichungen mussten wir in Kap. 1 bereits mehrmals lösen, um etwa die Schnitte von Ebenen zu bestimmen. Dort war k D R und n; m waren 1; 2 oder 3. Wir wollen nun also den allgemeinen Fall (4.1) systematisch diskutieren. Die Sammlung der nm Koeffizienten wollen wir abkürzend mit A D aij iD1;:::;n 2 knm (4.2) j D1;:::;m bezeichnen. Das n-Tupel der b1 ; : : : ; bn bezeichnen wir mit b 2 kn . Schließlich fassen wir auch x1 ; : : : ; xm in einem m-Tupel x 2 km zusammen. Wir suchen also diejenigen x 2 km , sodass (4.1) gilt. Die Lösungsmenge bezeichnen wir mit ˇ ˚ R Los.A; b/ D x 2 km ˇ x1 ; : : : ; xm erfüllen (4.1) : (4.3) Wir wollen nun drei Arten von Umformungen des Gleichungssystems (4.1) vorstellen, die die Lösungsmenge invariant lassen: (I) Wir vertauschen zwei Gleichungen. (II) Wir ersetzen eine Gleichung durch eine Summe mit einer anderen Gleichung. (III) Wir multiplizieren eine Gleichung mit 2 k n f0g. Lemma 4.1. Gehen die Koeffizienten A0 D .aij0 / iD1;:::;n und das n-Tupel b 0 2 kn j D1;:::;m durch eine der drei Operationen (I), (II) oder (III) aus A und b hervor, so gilt 0 0 R R ; b / D Los.A; b/: Los.A (4.4) Beweis. Für das Vertauschen der Gleichungen ist dies trivialerweise richtig. Seien R also i; iQ 2 f1; : : : ; ng gegeben und x 2 Los.A; b/. Dann gilt insbesondere ai1 x1 C C aim xm D bi und aQi 1 x1 C C aQi m xm D bQi : Damit gilt also ai1 x1 C C aim xm C aQi 1 x1 C C aQi m xm D bi C bQi ; was der Umformung (II) angewandt auf die i -te beziehungsweise iQ -te Gleichung entspricht. Also löst x auch das durch (II) erhaltene neue Gleichungssystem, da die übrigen Gleichungen ja nicht verändert werden. Ist umgekehrt x eine Lösung in 0 0 R Los.A ; b /, wobei aij0 D aij C aQi j und bi0 D bi C bQi für das spezielle i gelte und alle anderen Koeffizienten gleich seien, so gilt 4.1 Lineare Gleichungssysteme und Gauß-Algorithmus 83 0 0 ai1 x1 C C aim xm D ai1 x1 aQi 1 x1 C C aim xm aQi m xm D bi0 bQi D bi ; R R womit x 2 Los.A; b/ gezeigt ist. Sei schließlich 2 k n f0g und x 2 Los.A; b/. Dann gilt ai1 x1 C C aim xm D .ai1 x1 C C aim xm / D bi ; womit x auch das neue Gleichungssystem löst, in dem die i -te Gleichung mit multipliziert wurde. Da dies für jedes 2 k n f0g möglich ist, können wir zur ursprünglichen Gleichung zurückkehren, indem wir mit 1 multiplizieren. Hierbei ist es also entscheidend, einen Körper zu haben und nicht nur einen Ring. t u Wir wollen die drei Umformungen (I), (II) und (III) elementare Umformungen nennen. Die Idee ist nun, eine geschickte und systematische Kombination von elementaren Umformungen so durchzuführen, dass wir das lineare Gleichungssystem (4.1) in ein äquivalentes (also mit gleicher Lösungsmenge) überführen, dessen Lösungsmenge trivial zu bestimmen ist. Dies wird durch die Zeilenstufenform erreicht. Für die i -te Zeile definieren wir si als den kleinsten Spaltenindex j 2 f1; : : : ; mg [ fC1g, für den der Koeffizient aij von null verschieden ist, also formal ( 1 falls alle aij D 0 (4.5) si D minfj j aij ¤ 0g sonst. Definition 4.2 (Zeilenstufenform). Das lineare Gleichungssystem (4.1) hat Zeilenstufenform, falls 1 s1 < s 2 < s 3 < < s n ; (4.6) wobei wir hier konventionsmäßig k < 1 für alle k 2 f1; : : : ; ng [ f1g verabreden. Der Grund für die Bezeichnung sollte klar sein, so ist etwa 2x1 C 7x3 D 5 x2 C x3 D 7 x3 D 0 (4.7) 7x2 D1 x1 8x2 C x3 D 0 x3 D 4 (4.8) auf Zeilenstufenform, während 84 4 Lineare Gleichungssysteme und Vektorräume dies nicht ist. Man beachte, dass in (4.6) ein echt kleiner gefordert wird und nicht nur ein kleiner gleich. Sei nun (4.1) tatsächlich in Zeilenstufenform. Damit lässt sich (4.1) also als a1sn xs1 C C a1m xm D b1 a2s2 xs2 C C a2m xm D b2 :: : (4.9) ansn xsn C C anm xm D bn schreiben, wobei im Falle von einem (und damit allen späteren) sj D 1 die j -te Gleichung und alle folgenden von der Form 0 D bj :: : (4.10) 0 D bn sein können. Wir können ein solches lineares Gleichungssystem nun einfach lösen, indem man bei der letzten Gleichung beginnt. Hier sind offenbar verschiedene Fälle möglich: i.) Es gilt sn D 1 und bn ¤ 0. Dann hat die zugehörige Gleichung 0 D bn sicherlich keine Lösung und damit folgt R Los.A; b/ D ; (4.11) für diesen Fall. ii.) Es gilt sn D 1 und bn D 0. Dann ist die zugehörige Gleichung 0 D 0 trivialerweise immer richtig und wir können diese n-te Gleichung ignorieren. R Sie beeinflusst die Lösungsmenge Los.A; b/ nicht weiter. Ist die n-te GleiR chung bereits die erste (also n D 1), so folgt Los.A; b/ D km , da keines der x1 ; : : : ; xm einer Einschränkung unterliegt. iii.) Es gilt sn ¤ 1. Dies ist der interessante Fall. Die letzte Gleichung lautet also ansn xsn C ansn C1 xsn C1 C C anm xm D bn : (4.12) Wir können diese Gleichung nach xsn auflösen und erhalten x sn D 1 ansn .bn ansn C1 xsn C1 anm xm / (4.13) als eindeutige Lösung für xsn bei beliebig vorgegebenen xsn C1 ; : : : ; xm 2 k. Hier benutzen wir entscheidend, dass k ein Körper ist und wir deshalb durch ansn teilen dürfen. Damit sind also in diesem Fall xsn C1 ; : : : ; xm frei wählbar 4.1 Lineare Gleichungssysteme und Gauß-Algorithmus 85 und xsn ist eindeutig durch diese Wahl festgelegt. Die Lösungsmenge wird also durch diese Parameter xsn C1 ; : : : ; xm parametrisiert. Jetzt können wir die gefundenen Lösungen (sofern wir nicht im Fall i.) waren) in (4.1) einsetzen und erhalten somit ein lineares Gleichungssystem für die Variablen x1 ; : : : ; xsn 1 im Falle iii.) oder x1 ; : : : ; xm im Falle ii.), welches nur noch n1 Gleichungen besitzt, aber immer noch in Zeilenstufenform ist: Durch das Einsetzen werden lediglich die Koeffizienten b1 ; : : : ; bn1 geändert, und zwar zu b10 D b1 a1sn xsn a1m xm :: : (4.14) 0 bn1 D bn1 a1sn xsn an1m xm im Falle iii.) und b10 D b1 :: : (4.15) 0 bn1 D bn1 im Falle ii.). Nach insgesamt n Schritten erzielen wir daher eine endgültige Beschreibung der Lösungsmenge. Man beachte, dass Fall i.) nur ganz zu Beginn auftreten kann, die Frage nach der Lösbarkeit an sich also gleich am Anfang entschieden wird. Die interessante Frage ist also, ob wir von einem beliebigen linearen Gleichungssystem (4.1) immer auf Zeilenstufenform gelangen können, ohne die Lösungsmenge zu ändern. Nach Lemma 4.1 wissen wir, dass die elementaren Umformungen die Lösungsmenge nicht ändern. Der folgende Gauß-Algorithmus zeigt nun, dass die elementaren Umformungen auch tatsächlich ausreichen: Wir beginnen mit der ersten Spalte. Hier gibt es verschiedene Möglichkeiten: i.) Alle a11 ; : : : ; an1 sind null. In diesem Fall tritt die Variable x1 nicht auf und wir haben Zeilenstufenform in der ersten Spalte mit s1 2 erreicht. ii.) Nicht alle a11 ; : : : ; an1 sind null. Dann können wir durch Vertauschen der Gleichungen erreichen, dass a11 ¤ 0. Multiplizieren der ersten Gleichung mit a111 liefert dann einen Koeffizienten 1 vor x1 : Wir können also ohne Einschränkung annehmen, dass a11 D 1 gilt. Ist nun ai1 ¤ 0, so können wir auch diese Gleichung mit a1i 1 multiplizieren und daher annehmen, dass alle a21 ; : : : ; an1 entweder 1 oder 0 sind. Schließlich können wir dann durch Addition der ersten Gleichung erreichen, dass der Koeffizient vor x1 in allen anderen Gleichungen 2; : : : ; n null wird, falls er nicht schon sowieso null war. Alle diese Manipulationen sind Kombinationen von elementaren Umformungen, welche R Los.A; b/ nicht ändern. Wir erreichen auf diese Weise Zeilenstufenform mit s1 D 1. 86 4 Lineare Gleichungssysteme und Vektorräume Indem man nun von links alle Spalten durchläuft und immer die oberste Gleichung weglässt, erreicht man schließlich Zeilenstufenform für das ganze Gleichungssystem nach min.n; m/ Schritten. Dieses Vorgehen nennt man den Gauß-Algorithmus: Satz 4.3 (Gauß-Algorithmus). Seien .aij / iD1;:::n Koeffizienten in k und j D1;:::;m b1 ; : : : ; bn 2 k. Dann liefert der Gauß-Algorithmus durch wiederholtes Anwenden von elementaren Umformungen für das lineare Gleichungssystem (4.1) Zeilenstufenform. Für die resultierenden Koeffizienten .aij0 / iD1;:::;n und b10 ; : : : ; bn0 j D1;:::;m kann zudem erreicht werden, dass 0 D1 ais i (4.16) für alle i D 1; : : : ; n und alle Spaltenindizes si der Zeilenstufenform gilt. Beispiel 4.4. Wir betrachten k D Q und das lineare Gleichungssystem 1x1 C 2x2 C 3x3 D 4 5x1 C 6x2 C 7x3 D 8 9x1 C 18x2 C 1x3 D 2: (4.17) Die Koeffizienten .aij / und die bi können wir zu einem Schema ˇ 1 1 2 3 ˇˇ 4 @5 6 7 ˇ 8A ˇ 9 18 1 ˇ 2 0 (4.18) zusammenfassen. Wir führen nun den Gauß-Algorithmus durch. Da a11 D 1 ist, müssen wir im ersten Schritt keine Vertauschung vornehmen. Wir skalieren daher die zweite und dritte Gleichung und erhalten ˇ 1 1 2 3 ˇˇ 4 @1 6 7 ˇ 8 A : 5 5 ˇ 5 1 2 19 ˇ 29 0 (4.19) Nun addieren wir die erste Gleichung zur zweiten und dritten. Dies liefert ˇ 1 1 2 3 ˇˇ 4 @0 4 1 3 ˇ 2 2 A : 5 5 ˇ 5 0 0 2 89 ˇ 3 79 0 (4.20) Glücklicherweise haben wir nun bereits Zeilenstufenform mit s1 D 1, s2 D 2 und s3 D 3 erreicht. Die Lösungsmenge ist damit das 3-Tupel 4.2 Vektorräume 87 x3 D 17 14 x2 D 4 7 und x1 D 11 ; 14 (4.21) was man durch sukzessives Einsetzen nun leicht erhält. Kontrollfragen. Was ist der Gauß-Algorithmus und wieso benötigt man dafür einen Körper? Welche drei elementaren Umformungen gibt es? Was ist die Zeilenstufenform? 4.2 Vektorräume Die elementaren Umformungen (I) und (II) liefern Operationen mit den „n-Tupeln aus kn “, die wir schon aus R3 kennen: Es sind analoge Konstruktionen zur Addition und Multiplikation mit Skalaren von Vektoren des Anschauungsraums. Wir nehmen dies nun als Motivation für folgende allgemeine Definition eines Vektorraums über dem Körper k. Definition 4.5 (Vektorraum). Ein Vektorraum über einem Körper k ist ein Tripel .V; C; / von einer abelschen Gruppe .V; C/ und einer Abbildung W k V ! V (4.22) derart, dass für alle ; 2 k und v; w 2 V i.) ii.) iii.) iv.) .v C w/ D v C w, . v/ D ./ v, . C / v D v C v, 1v Dv gilt. Die Abbildung heißt auch Multiplikation mit Skalaren. Bemerkung 4.6. Wie auch schon für Ringe verabreden wir die Regel Punkt vor Strich, um in Ausdrücken wie vCw auf die Klammerung verzichten zu können. Weiter schreiben wir auch kurz v anstelle von v. Die abelsche Gruppe .V; C/ schreiben wir additiv, und ihr neutrales Element 0 2 V heißt der Nullvektor von V . Die Elemente von V heißen dann Vektoren, während wir Elemente des Körpers auch Skalare nennen. Wie zuvor schreiben wir auch oft nur V anstelle des Tripels .V; C; /, wenn klar ist, um welche Strukturabbildungen C und es sich handelt. Einige elementare Rechenregeln, die über die bisherigen Rechenregeln zu Gruppen hinausgehen, sind folgende: 88 4 Lineare Gleichungssysteme und Vektorräume Proposition 4.7. Sei V ein Vektorraum über k. Für alle v 2 V und 2 k gilt i.) 0 v D 0, ii.) 0 D 0, iii.) ./ v D .v/ D . v/. Beweis. Die einzige Schwierigkeit der Aussagen besteht darin, sich klarzumachen, um welche „0“ und um welches Inverses es sich jeweils handelt. Wir schreiben dies der Deutlichkeit wegen mit Indizes und rechnen nach, dass 0k v D .0k C 0k / v D 0k v C 0k v; wobei hier also die Null im Körper 0k 2 k gemeint ist. Da .V; C/ eine abelsche Gruppe ist, folgt 0k v D 0V , wobei hier jetzt 0V 2 V der Nullvektor ist. Genauso einfach gilt 0V D .0V C 0V / D 0V C 0V ; woraus ebenfalls 0V D 0V folgt. Schließlich gilt 0V D 0k v D . / v D v C ./ v; womit ./ v das additive Inverse zu v ist, also ./ v D . v/. Ebenso gilt 0V D 0V D .v C .v// D v C .v/ und daher .v/ D . v/. t u Es ist nun Zeit für einige Beispiele und Konstruktionen von Vektorräumen, die von fundamentaler Bedeutung sind. Beispiel 4.8 (Der Vektorraum kn ). Sei n 2 N. Auf dem kartesischen Produkt kn definiert man eine Addition komponentenweise durch 0 1 0 1 0 1 v1 w1 v1 C w1 B :: C B :: C B C :: @ : AC@ : AD@ A : vn wn (4.23) vn C wn und eine Multiplikation mit Skalaren durch 0 1 0 1 v1 v1 B :: C B :: C @ : A D @ : A: vn v1 (4.24) 4.2 Vektorräume 89 Es ist durchaus nützlich, die n-Tupel in kn als Spaltenvektoren aufzuschreiben. An der Struktur von kn , C und ändert sich hierdurch natürlich nichts. Man hätte ebenso gut Zeilenvektoren .v1 ; : : : ; vn / verwenden können. Völlig analog zum Fall von R3 zeigt man nun, dass kn mit diesen Verknüpfungen C und zu einem Vektorraum über k wird. Insbesondere für n D 1 sieht man, dass k immer ein Vektorraum über sich selbst ist. Beispiel 4.9 (Der Nullraum). Wir betrachten die triviale Gruppe V D f0g und definieren 0 D 0 in Einklang mit Proposition 4.7 für 2 k. Es ist nun leicht zu sehen, dass V damit ein Vektorraum über k wird. Wir nennen ihn den Nullraum. Um eine einheitliche Schreibweise im Hinblick auf Beispiel 4.8 zu erzielen, werden wir auch k0 für den Nullraum schreiben. Oftmals wird der Nullraum ebenfalls mit dem Symbol 0 bezeichnet, auch wenn dies natürlich einen gewissen Notationsmissbrauch darstellt. Etwas interessanter ist nun folgende Konstruktion, welche die vorherigen drastisch verallgemeinert: Beispiel 4.10 (Der Vektorraum kM ). Sei M eine beliebige nichtleere Menge. Dann betrachten wir die Menge aller Abbildungen von M nach k, und bezeichnen diese auch mit kM D Abb.M; k/: (4.25) Man beachte, dass dies wirklich nur eine Bezeichnung ist und nicht mehr. Seien nun f; gW M ! k solche Abbildungen und 2 k. Dann definieren wir f C g und f punktweise in M durch .f C g/.p/ D f .p/ C g.p/ (4.26) . f /.p/ D f .p/ (4.27) und für alle p 2 M . Wichtig ist hier, dass die Menge M keinerlei weitere Strukturen besitzen muss. Vielmehr erbt Abb.M; k/ alle relevanten Eigenschaften vom Ziel k und nicht vom Urbild M . Man überlegt sich nun leicht, dass diese Operationen Abb.M; k/ zu einem Vektorraum über k machen. Der Nullvektor ist dabei die 0-Abbildung, also die Abbildung mit 0Abb.M;k/ .p/ D 0k (4.28) für alle p 2 M . Der konkrete Nachweis der Vektorraumeigenschaften wird in Übung 4.4 erbracht. In diesem Vektorraum gibt es spezielle Vektoren, die wir durch 90 4 Lineare Gleichungssysteme und Vektorräume Ik Abb. 4.1 Schematische Darstellung des Graphen der Abbildung ep graph ep 1 0 p M die Elemente von M indizieren können. Wir definieren für p 2 M die Abbildung ( ep W q 7! 1 für p D q 0 für p ¤ q: (4.29) Dies liefert eine spezielle Abbildung ep 2 Abb.M; k/ für jedes p 2 M , siehe auch Abb. 4.1. Zur Abkürzung können wir an dieser Stelle das Kronecker-Symbol ( ıab D 1 für a D b 0 für a ¤ b (4.30) einführen, welches eine oft verwendete Abkürzung darstellt. Hier sind a und b irgendwelche Elemente einer Menge, die typischerweise aus dem Zusammenhang klar ist. Die Vektoren ep können daher durch ep .q/ D ıpq charakterisiert werden. Wir können auf diese Weise die Punkte in M mit diesen Abbildungen identifizieren, da die Abbildung M 2 p 7! ep 2 Abb.M; k/ (4.31) offenbar injektiv ist: Die beiden Abbildungen ep und ep0 sind genau dann gleich, falls p D p 0 . Die Bedeutung dieses Beispiels lässt sich kaum überschätzen: Wir werden auf diesen Vektorraum und daraus abgeleitete Konstruktionen noch öfter zurückkommen. Beispiel 4.11 (Der Vektorraum Abb.M; V /). Sei wieder M eine nicht leere Menge und V ein Vektorraum über k. Analog zu Beispiel 4.10 versehen wir Abb.M; V / durch die punktweise erklärten Vektorraumoperationen mit der Struktur eines Vektorraums über k, siehe Übung 4.4. Da k als Vektorraum über k gesehen werden kann, ist dies eine Verallgemeinerung von Beispiel 4.10. Auch dieses Beispiel wird in vielen Varianten noch mehrfach auftreten. Beispiel 4.12 (Folgen). Eine Folge von reellen Zahlen (oder analog für komplexe Zahlen) ist eine Abbildung aW N 3 n 7! a.n/ 2 R; (4.32) 4.2 Vektorräume 91 welche wir typischerweise als .an /n2N mit an D a.n/ schreiben. Nach Beispiel 4.10 ist also der Raum aller reellen Folgen RN D Abb.N; R/ ein reeller Vektorraum. Die Vektorraumoperationen bestehen in diesem Fall aus der gliedweisen Addition und der gliedweisen Multiplikation mit Skalaren, also .an /n2N C .bn /n2N D .an C bn /n2N (4.33) .an /n2N D .an /n2N : (4.34) und Zur Vorsicht sei hier bemerkt, dass zwar N ebenfalls über eine Addition verfügt, für eine Folge .an /n2N aber keinerlei Voraussetzungen über die Beziehung der Werte an , am und anCm gemacht werden. Die Vektorraumstruktur bezieht sich eben auf die Werte an , nicht auf deren Urbilder n. Beispiel 4.13 (Polynome). Wir betrachten den Ring kŒx der Polynome in der Variablen x mit Koeffizienten in k. Für Polynome p; q 2 kŒx haben wir bereits eine Addition erklärt, sodass .kŒx; C/ eine abelsche Gruppe ist: Dies war Teil der Daten der Ringstruktur. Weiter konnten wir k als Unterring von kŒx interpretieren, indem wir Skalare 2 k als konstante Polynome p.x/ D auffassen, siehe Satz 3.35, v.). Damit können wir also 2 k mit p 2 kŒx multiplizieren und erhalten eine Multiplikation mit Skalaren k kŒx 2 .; p/ 7! p 2 kŒx; (4.35) welche kŒx zu einem Vektorraum über k macht. Dass dies tatsächlich einen Vektorraum liefert, folgt sofort aus der Tatsache, dass kŒx ein Ring und k kŒx ein Unterring ist. Gerade das letzte Beispiel können wir drastisch verallgemeinern: Proposition 4.14. Sei k ein Körper und R ein Ring mit 1. Sei weiter W k ! R ein einserhaltender Ringmorphismus. Dann liefert W k R 3 .; a/ 7! a D ./a 2 R (4.36) eine Multiplikation mit Skalaren, sodass R mit seiner Addition und diesem zu einem Vektorraum über k wird. Beweis. Der Beweis wird in Übung 4.6 diskutiert. t u 92 4 Lineare Gleichungssysteme und Vektorräume Korollar 4.15. Die reellen Zahlen R sind ein Vektorraum über Q. Die komplexen Zahlen C sind sowohl ein Vektorraum über R als auch über Q. Kontrollfragen. Was ist ein Vektorraum? Welche wichtigen Beispiele von Vektorräumen kennen Sie? 4.3 Untervektorräume Wie auch schon bei Monoiden, Gruppen, Ringen etc. wollen wir auch bei Vektorräumen einen adäquaten Begriff des Untervektorraums etablieren. Dies ist nun leicht zu bewerkstelligen: Definition 4.16 (Untervektorraum). Sei V ein Vektorraum über k und U V eine Teilmenge. Dann heißt U Untervektorraum (auch Unterraum oder Teilraum) von V , falls U eine Untergruppe von .V; C/ ist und für die Multiplikation mit Skalaren gilt, dass u 2 U für alle u 2 U und 2 k. Mit anderen Worten, die Vektorraumoperationen von V schränken sich auf U ein, sodass U selbst ein Vektorraum bezüglich der eingeschränkten Vektorraumoperationen wird. Man beachte, dass notwendigerweise 02U (4.37) gelten muss, da sonst .U; C/ .V; C/ keine Untergruppe wäre. Im Falle von Untergruppen mussten wir explizit prüfen, dass die inversen Elemente in der Untergruppe liegen: Es gibt Untermonoide von Gruppen wie etwa .N0 ; C/ .Z; C/, welche keine Untergruppen sind, siehe nochmals die Diskussion nach Definition 3.23. Im Falle eines Untervektorraums ist die Situation etwas einfacher: Proposition 4.17. Sei V ein Vektorraum über k. Eine Teilmenge U V ist genau dann ein Untervektorraum von V , falls i.) U ¤ ;, ii.) für alle u; v 2 U gilt u C v 2 U , iii.) für alle u 2 U und 2 k gilt u 2 U . Beweis. Für einen Unterraum U V sind die Eigenschaften i.) – iii.) sicherlich erfüllt. Sei also U eine Teilmenge mit diesen drei Eigenschaften. Da U ¤ ;, gibt es ein u 2 U . Da dann 0 u D 0, folgt zunächst aus iii.), dass 0 2 U . Ist nun u 2 U , so auch .1/ u D u nach iii.) und der Rechenregel aus Proposition 4.7, iii.). Damit ist also gezeigt, dass .U; C/ eine Untergruppe ist, da ii.) die Abgeschlossenheit bezüglich C liefert. t u 4.3 Untervektorräume 93 Man beachte, dass die Kombination von ii.) und iii.) alleine noch nicht ausreicht, um einen Unterraum zu liefern, da die leere Menge ; V diese Eigenschaften erfüllt: Da es keine Elemente in ; gibt, sind die Eigenschaften ii.) und iii.) tatsächlich für alle Elemente der leeren Menge richtig. Äquivalent zur Kombination ii.) und iii.) kann man auch das Kriterium iv.) für alle ; 2 k und für alle u; v 2 U gilt u C v 2 U verwenden. Dann ist U genau dann ein Unterraum, wenn i.) und iv.) gilt. Auch hier ist es aus dem gleichen Grunde unerlässlich, U ¤ ; zusätzlich zu fordern. Korollar 4.18. Sei V ein Vektorraum über k und seien fUi gi2I Unterräume von V . Dann ist auch \ U D Ui (4.38) i2I ein Unterraum von V . Beweis. Da 0 2 Ui für alle i 2 I , gilt 0 2 U , womit U nicht leer ist. Für u; v 2 U gilt u; v 2 Ui für alle i 2 I , also u C v 2 Ui für alle i 2 I und damit u C v 2 U . Schließlich gilt für u 2 U und 2 k zunächst u 2 Ui für alle i 2 I und daher auch u 2 U . t u Beispiel 4.19. Der Nullraum f0g V ist immer ein Untervektorraum von V . Beispiel 4.20 (Lineare Gleichungssysteme). Seien Zahlen A D .aij / iD1;:::;n und j D1;:::;m b1 ; : : : ; bn aus k vorgegeben. Wir nennen das lineare Gleichungssystem a11 x1 C C a1m xm D b1 :: : (4.39) an1 x1 C C anm xm D bn homogen, wenn der Spaltenvektor b 2 kn verschwindet, also b D 0 gilt, und R inhomogen, falls b ¤ 0. Ist die Lösungsmenge Los.A; b/ nicht leer, so liegt m eine nichtleere Teilmenge von k vor. Hier gilt nun, dass im homogenen Fall R Los.A; 0/ km ein Untervektorraum ist: Dies ist einfach zu sehen, denn für R x; y 2 Los.A; 0/ und 2 k gilt ai1 .x1 Cy1 /C Caim .xm Cym / D ai1 x1 C Caim xm Cai1 y1 C Caim ym D 0 R für alle i D 1; : : : ; n. Somit ist x C y 2 Los.A; 0/. Weiter gilt für alle i D 1; : : : ; n ai1 .x1 / C C aim .xm / D .ai1 x1 C C aim xm / D 0 D 0 94 4 Lineare Gleichungssysteme und Vektorräume R und daher x 2 Los.A; 0/. Schließlich besitzt das homogene lineare GleichungsR system immer die triviale Lösung x D 0, womit Los.A; 0/ ¤ ; folgt. Nach R Proposition 4.17 ist Los.A; 0/ ein Untervektorraum. Ist nun b ¤ 0, so kann R R Los.A; b/ D ; vorkommen. Im Fall, dass Los.A; b/ ¤ ;, können wir die R Lösungsmenge folgendermaßen charakterisieren: Sind x; y 2 Los.A; b/, so ist R z D x y 2 Los.A; 0/ eine Lösung des homogenen Systems. Es gilt ja ai1 .x1 y1 / C C aim .xm ym / D ai1 x1 C C aim xm ai1 y1 aim ym D bi b i D0 R R für alle i D 1; : : : ; n. Ist umgekehrt x 2 Los.A; b/ und z 2 Los.A; 0/, so ist auch y D x C z eine Lösung des inhomogenen Systems, denn ai1 .x1 C z1 / C C aim .xm C zm / D ai1 x1 C C aim xm D bi R für alle i D 1; : : : ; n. Wir erhalten so eine vollständige Beschreibung von Los.A; b/ durch eine spezielle Lösung (sofern diese denn überhaupt existiert) und die LösungsR menge Los.A; 0/. Wir kommen noch öfters auf dieses fundamentale Beispiel zurück und werden verschiedene weitere Facetten des Problems kennenlernen. Folgende Aussagen zum homogenen Fall erhalten wir leicht aus der Zeilenstufenform: Proposition 4.21. Seien aij 2 k mit i D 1; : : : ; n und j D 1; : : : ; m sowie m > n. Dann besitzt das homogene Gleichungssystem a11 x1 C C a1m xm D 0 :: : (4.40) an1 x1 C C anm xm D 0 R nichttriviale Lösungen: Los.A; 0/ km ist nicht der Nullraum. Beweis. Nach Satz 4.3 dürfen wir annehmen, dass (4.40) bereits auf Zeilenstufenform gebracht wurde. Man beachte, dass alle elementaren Umformungen homogene auf homogene Gleichungssysteme abbilden. Seien also 1 s1 < s2 < < sn die Spaltenindizes mit der Eigenschaft (4.5). Ist nun ein sj D 1, so auch alle späteren, und wir haben in diesem Fall einfach nur weniger Gleichungen zu berücksichtigen. Dadurch wird also n nur weiter verkleinert und die Relation m > n bleibt bestehen. Insbesondere ist für s1 D 1 das gesamte lineare Gleichungssystem trivial, und R Los.0; 0/ D km ist ein nichttrivialer Unterraum. Wir können also sn ¤ 1 4.3 Untervektorräume 95 annehmen. Gilt sn D m, so lautet die letzte Gleichung einfach anm xm D 0 mit anm ¤ 0, was die eindeutige Lösung xm D 0 erfordert. Wir können also auch hier die letzte Gleichung zusammen mit der letzten Variablen xm eliminieren. Damit ersetzen wir n durch n 1 und m durch m 1. Die Ungleichung n 1 < m 1 bleibt daher bestehen. Ist schließlich sn < m, so lautet die letzte Gleichung ansn xsn C C anm xm D 0 mit ansn ¤ 0. Hier können wir nun die Variablen xsn C1 ; : : : ; xm frei wählen und erhalten nach rekursivem Auflösen insgesamt eine nichttriviale Lösung. Der Fall sn < m muss aber tatsächlich auftreten, nachdem wir in endlich vielen Schritten die anderen beiden Fälle abgearbeitet haben, da schlichtweg mehr Variablen als Gleichungen vorhanden sind. t u Folgende Beispiele von Unterräumen sind ebenfalls von großer Bedeutung: Beispiel 4.22 (Folgenräume). Wir betrachten k D R und den Vektorraum RN aller reellen Folgen. Man definiert die Menge der beschränkten Folgen ˇ n o ˇ `1 D .an /n2N 2 RN ˇ supn2N jan j < 1 ; (4.41) die Menge der konvergenten Folgen ˇ n o ˇ c D .an /n2N 2 RN ˇ lim an existiert ; n!1 (4.42) und die Menge der Nullfolgen ˇ n o ˇ cı D .an /n2N 2 RN ˇ lim an D 0 : n!1 (4.43) Da eine konvergente Folge insbesondere beschränkt ist, finden wir die Inklusionen cı c `1 RN ; (4.44) welche alle echt sind. Elementare Rechenregeln für das Supremum und den Limes aus der Analysis zeigen, dass (4.44) jeweils Unterräume sind, siehe auch Übung 4.5. In der Analysis werden noch viele weitere Folgenräume vorgestellt werden. Anstelle von reellen Folgen kann man selbstverständlich auch komplexe Folgen mit entsprechenden Eigenschaften betrachten. 96 4 Lineare Gleichungssysteme und Vektorräume Beispiel 4.23 (Der Unterraum Abb0 .M; k/). Sei M eine nichtleere Menge, dann betrachten wir die Abbildungen mit endlichem Träger und Werten in k ˇ ˚ Abb0 .M; k/ D f 2 Abb.M; k/ ˇ supp f ist endlich ; (4.45) wobei der Träger von f als ˇ ˚ supp f D p 2 M ˇ f .p/ ¤ 0 (4.46) definiert ist. Das Symbol supp kommt vom englischen support. In der mengentheoretischen Topologie wird bei der Definition des Trägers noch der topologische Abschluss der rechten Seite in (4.46) gebildet, sofern M ein topologischer Raum ist. Unsere Definition ist daher eine vereinfachte Version, welche einem diskreten Raum M entspricht. Auch hier verifiziert man schnell mit Proposition 4.17, dass Abb0 .M; k/ Abb.M; k/ ein Unterraum ist. Dieser ist offenbar genau dann ein echter Unterraum, falls M unendlich ist. Die speziellen Funktionen ep aus (4.29) in Beispiel 4.10 liegen offenbar alle in Abb0 .M; k/, da supp ep D fpg (4.47) gerade ein Element besitzt. Die nächste Konstruktion wird uns eine Fülle von Untervektorräumen bescheren. Zur Motivation betrachten wir erneut ein lineares Gleichungssystem der Form a11 x1 C C a1m xm D b1 :: : (4.48) an1 x1 C C anm xm D bn ; welches wir nun auf folgende Weise interpretieren. Wir betrachten die Spaltenvektoren 1 0 1 0 0 1 a11 a1n b1 B :: C B :: C B :: C a1 D @ : A; : : : ; am D @ : A und b D @ : A (4.49) an1 anm bn im Vektorraum kn . Dann besagt (4.48), dass wir die Vektorgleichung x1 a1 C C xm am D b (4.50) lösen wollen. Der Vektor b soll also als eine Linearkombination der Vektoren a1 ; : : : ; am geschrieben werden. Ganz allgemein definieren wir daher den Begriff der Linearkombination folgendermaßen: 4.3 Untervektorräume 97 Definition 4.24 (Linearkombination). Sei V ein Vektorraum über k und seien v1 ; : : : ; vn 2 V sowie 1 ; : : : ; n 2 k gegeben. Dann heißt der Vektor v D 1 v1 C C n vn (4.51) eine Linearkombination der Vektoren v1 ; : : : ; vn . Die Frage bei einem linearen Gleichungssystem ist also, ob und auf wie viele Weisen ein Vektor b als Linearkombination von gegebenen Vektoren a1 ; : : : ; am geschrieben werden kann. Man beachte, dass wir diese Art von Frage in einem beliebigen Vektorraum und nicht nur für Spaltenvektoren in kn stellen können. In diesem Sinne werden wir von (4.50) als linearer Gleichung in einem Vektorraum sprechen, egal ob die Vektoren aus kn oder einem beliebigen Vektorraum über k sind. Nun jedoch zu den neuen Beispielen von Untervektorräumen: Beispiel 4.25 (Gerade). Sei v 2 V n f0g ein Vektor ungleich null. Dann betrachten wir alle Linearkombinationen, die wir aus diesem Vektor bilden können: Da wir nur einen Vektor vorliegen haben, sind diese einfach die Vielfachen von v. Wir definieren ˇ ˚ k v D v ˇ 2 k V; (4.52) und erhalten so einen Untervektorraum k v in V . In Analogie zu unseren elementargeometrischen Überlegungen in Kap. 1 nennen wir k v die Gerade durch v. Ist v D 0, so ist k 0 offenbar nur der Nullraum, k 0 D f0g, und daher wenig geeignet, als Gerade angesehen zu werden. Wir verallgemeinern diese Konstruktion nun auf beliebig viele Vektoren: Definition 4.26 (Spann). Sei W V eine nichtleere Teilmenge von Vektoren in einem Vektorraum. Dann ist der Spann von W als span W ˇ ˚ D v 2 V ˇ 9n 2 N; i 2 k; wi 2 W; 1 i n mit v D 1 w1 C C n wn (4.53) definiert. In diesem Fall sagen wir, dass W den Unterraum span W aufspannt oder erzeugt. Eine alternative Schreibweise ist auch hW i oder hw1 ; : : : ; wr i, wenn W aus r Vektoren w1 ; : : : ; wr besteht. Zudem schreibt man gelegentlich auch k- span W , um den zugrunde liegenden Körper k zu betonen. Der Spann von W ist also gerade die Menge aller Linearkombinationen von Vektoren aus W . Dies liefert nun einen Untervektorraum: 98 4 Lineare Gleichungssysteme und Vektorräume Proposition 4.27. Sei W V eine nichtleere Teilmenge eines Vektorraums V über k. Dann ist span W V der kleinste Untervektorraum von V mit W span W: (4.54) Beweis. Wir müssen zwei Dinge zeigen. Zum einen, dass span W ein Unterraum ist, und zum anderen, dass span W der kleinste Unterraum mit (4.54) ist. Die Eigenschaft W span W ist offensichtlich, womit insbesondere span W ¤ ; folgt. Sind v; v 0 2 span W , so gibt es w1 ; : : : ; wn 2 W und 1 ; : : : ; n 2 k sowie w01 ; : : : ; w0m 2 W und 01 ; : : : ; 0m 2 k mit vD n X i wi v0 D und m X 0j w0j : j D1 iD1 Dann gilt v C v0 D n X i wi C iD1 m X 0j w0j 2 span W kD1 und v D n X i wi 2 span W iD1 für 2 k. Nach Proposition 4.17 ist span W daher ein Unterraum. Ist nun U V ein anderer Unterraum von V mit W U , so ist mit w1 ; : : : ; wn 2 W und 1 ; : : : ; n 2 k zunächst i wi 2 U . Weiter ist 1 w1 C 2 w2 2 U , und mit Induktion folgt, dass auch 1 w1 C C n wn 2 U . Dies zeigt span W U , womit span W also der kleinste Unterraum mit (4.54) ist. t u Wir können den Spann nun dazu verwenden, eine vorerst letzte Konstruktion von Unterräumen anzugeben. Sind U1 ; U2 V Unterräume, so ist zwar deren Durchschnitt nach Korollar 4.18 wieder ein Unterraum, ihre Vereinigung typischerweise jedoch nicht: Man beachte etwa die beiden Geraden U1 D k 1 und 0 U2 D k 0 1 (4.55) 1 in k . Der Vektor 2 k2 ist dann sicher nicht in der Vereinigung U1 [ U2 , die ja 1 0 nur Vektoren der Form oder für 2 k enthält, siehe auch Abb. 4.2. 0 2 4.3 Untervektorräume 99 Ik Ik x 2 U1 Ik x∈ U1 ∪ U2 U2 Abb. 4.2 Die Vereinigung U1 [ U2 ist kein Unterraum mehr Wir müssen die Vereinigung U1 [ U2 daher weiter vergrößern, um einen Untervektorraum zu erhalten. Definition 4.28 (Summe von Unterräumen). Seien fUi gi2I Unterräume eines Vektorraums V über k. Dann ist ihre Summe definiert als [ X Ui D span Ui : (4.56) i2I i2I Korollar P4.29. Sind fUi gi2I Unterräume eines Vektorraums V über k, so ist ihre Summe i2I Ui der kleinste Unterraum von V , der alle Ui enthält. Für endlich viele P Unterräume U1 ; : : : ; Un V schreiben wir auch kurz U1 C CUn anstelle von i2I Ui . Bemerkung 4.30 (Leere Linearkombinationen). Bei der Definition einer Linearkombination und dann bei der Definition des Spanns span W einer Teilmenge W V haben wir vorausgesetzt, dass W ¤ ; gilt. Es ist nun sinnvoll und üblich, für W D ; den Spann über die Eigenschaft aus Proposition 4.27 zu definieren. Wir setzen daher span ; D f0g: (4.57) Kontrollfragen. Wie kann man Untervektorräume charakterisieren? Welche Beziehungen von linearen Gleichungssystemen und Unterräumen kennen Sie? Geben Sie Beispiele für Unterräume. Was ist eine Linearkombination, was ein linearer Spann? Wieso ist der Schnitt von Unterräumen ein Unterraum, die Vereinigung im Allgemeinen aber nicht? 100 4.4 4 Lineare Gleichungssysteme und Vektorräume Lineare Unabhängigkeit und Basen Ist V ein Vektorraum über k und U V ein Unterraum, so besitzt U immer eine Teilmenge W U mit U D span W: (4.58) Wir können ja beispielsweise W D U selbst nehmen. Allgemeiner betrachten wir eine beliebige Teilmenge mit dieser Eigenschaft: Definition 4.31 (Erzeugendensystem). Sei U V ein Unterraum eines Vektorraums über k. Eine Teilmenge W U heißt Erzeugendensystem von U , falls (4.58) gilt. Insbesondere können wir auch von einem Erzeugendensystem des ganzen Vektorraums V sprechen, da ja V V sicherlich auch ein Untervektorraum ist. Die Wahl von U als Erzeugendensystem von U ist sicherlich etwas redundant, da etwa mit v 2 U der Vektor v nicht mehr extra benötigt wird, sondern durch die Definition des Spanns automatisch mit hinzukommt. Wir wollen nun also verstehen, wann ein Erzeugendensystem „so klein wie möglich“ ist. Dazu erweist sich folgender Begriff als zentral. Definition 4.32 (Lineare Unabhängigkeit). Sei B V eine Teilmenge von Vektoren eines Vektorraums V über k. Dann heißt B linear abhängig, falls es ein n 2 N und paarweise verschiedene Vektoren b1 ; : : : ; bn 2 W sowie Zahlen 1 ; : : : ; n 2 k gibt, die nicht alle 0 sind, sodass 1 b1 C C n bn D 0: (4.59) Andernfalls heißt W linear unabhängig. Bemerkung 4.33 (Lineare Unabhängigkeit). Eine Teilmenge B ist also linear abhängig, wenn der Nullvektor auf nichttriviale Weise als Linearkombination aus Vektoren in W geschrieben werden kann. Gilt insbesondere 0 2 B, so ist 1 0 D 0 eine nichttriviale Linearkombination im Sinne der obigen Definition. Daher ist W in diesem Fall linear abhängig. Lineare Unabhängigkeit einer Teilmenge bedeutet also, dass für jede Wahl von endlich vielen, paarweise verschiedenen Vektoren b1 ; : : : ; bn 2 W die Gleichung 1 b1 C C n bn D 0 (4.60) 1 D D n D 0 (4.61) nur die triviale Lösung 4.4 Lineare Unabhängigkeit und Basen 101 besitzt. Beispiel 4.34 (Lineare Unabhängigkeit). i.) Die leere Menge ; V ist linear unabhängig. Da es keine Elemente in ; gibt, können wir keine nichttriviale Linearkombination der 0 durch Elemente aus ; finden. ii.) Gibt es Vektoren der Form b1 und b2 D b1 in B, so ist B linear abhängig, da dann b1 b2 D b1 b1 D 0 (4.62) eine nichttriviale Linearkombination der Null ist. iii.) Die Menge der Standardvektoren 0 1 1 B0 C B C e1 D B : C; @ :: A 0 1 0 B1 C B C e2 D B : C; @ :: A 0 :::; 0 1 0 B :: C B C en D B : C @0A 0 (4.63) 1 in kn ist linear unabhängig. Dies ist klar, da die Gleichung 1 e1 C C n en D 0 (4.64) sofort auf 1 D 0; : : : ; n D 0 führt. Umgekehrt ist fe1 ; : : : ; en g auch ein Erzeugendensystem von kn , da für a 2 kn 0 1 0 1 0 1 a1 1 0 Ba2 C B0C B :: C B C B C B C a D B : C D a1 B : C C C an B : C D a1 e1 C C an en @ :: A @ :: A @0A an 0 (4.65) 1 gilt, wobei die ai gerade die Koeffizienten des Spaltenvektors a sind. iv.) Sei M eine nichtleere Menge und Abb0 .M; k/ der Vektorraum der Abbildungen von M nach k mit endlichem Träger wie in Beispiel 4.23. Dann sind die Vektoren fep gp2M eine linear unabhängige Teilmenge von Abb0 .M; k/. Gilt nämlich für f 2 Abb0 .M; k/ f D 1 ep1 C C n epn (4.66) mit paarweise verschiedenen p1 ; : : : ; pn 2 M , so folgt wegen ei .pj / D ıij f .pi / D i (4.67) 102 4 Lineare Gleichungssysteme und Vektorräume für alle i D 1; : : : ; n. Daher lässt sich die Nullabbildung f D 0 nur mit 1 D D n D 0 erreichen. Weiter behaupten wir, dass spanfep gp2M D Abb0 .M; k/: (4.68) Ist nämlich f 2 Abb0 .M; k/ gegeben, so gibt es endlich viele Punkte p1 ; : : : ; pn 2 M , auf denen f von null verschieden ist, und f ist null auf allen anderen Punkten. Daher gilt f D f .p1 /ep1 C C f .pn /epn (4.69) und somit f 2 spanfep gp2M . Das zeigt die Inklusion „“ in (4.68). Die umgekehrte Inklusion „“ ist klar. Daher bilden die Vektoren fep gp2M auch ein Erzeugendensystem von Abb0 .M; k/. v.) Seien v ¤ w 2 V . Dann ist fv; wg linear abhängig, falls die Gleichung 1 v C 2 w D 0 (4.70) eine nichttriviale Lösung besitzt. Sei also etwa 1 ¤ 0, dann gilt vD 2 w: 1 (4.71) Daher ist v parallel zu w, der andere Fall 2 ¤ 0 führt zum gleichen Resultat. Man erhält insgesamt, dass fv; wg genau dann linear abhängig ist, falls v und w parallel sind. Damit verallgemeinert lineare Abhängigkeit also unseren Begriff von „parallel“ aus Kap. 1. vi.) Fasst man R alspVektorraum über Q auf, siehe Korollar 4.15, so sind die Vektoren p 1 und 2 2 R linear unabhängig. Der Grund ist die Irrationalität von 2, siehe auch Übung 4.21. Wir werden den Begriff der linearen Unabhängigkeit auch auf indizierte Mengen von Vektoren anwenden: Ist I eine Indexmenge und für jedes i 2 I ein Vektor vi 2 V gegeben, so nennen wir fvi gi2I eine durch I indizierte Menge von Vektoren. Etwas formaler gesprochen, ist eine indizierte Menge von Vektoren eine Abbildung I ! V . Hier darf es durchaus passieren, dass verschiedene Indizes i ¤ j zum gleichen Vektor vi D vj führen. Wir nennen nun eine indizierte Menge fvi gi2I linear abhängig, wenn es ein n 2 N und paarweise verschiedene Indizes i1 ; : : : ; in 2 I sowie Zahlen 1 ; : : : ; n 2 k sodass, sodass 1 vi1 C C n vin D 0 (4.72) gilt. Der feine Unterschied zur Definition 4.32 ist, dass in einer indizierten Menge nun der gleiche Vektor mehrmals auftreten darf. In diesem Fall ist fvi gi2I sicherlich 4.4 Lineare Unabhängigkeit und Basen 103 linear abhängig, da wir vi vj D 0 erreichen, sofern für i ¤ j trotzdem vi D vj gilt. Eine erste einfache Folgerung aus der obigen Begriffsbildung liefert nun eine Charakterisierung der Eindeutigkeit von Lösungen linearer Gleichungssysteme. Hierfür verwenden wir den Begriff der linearen Unabhängigkeit für eine indizierte Teilmenge: Korollar 4.35. Das homogene lineare Gleichungssystem a11 x1 C C a1m xm D 0 :: : (4.73) an1 x1 C C anm xm D 0 hat genau dann eine eindeutige Lösung, nämlich x1 D D xm D 0, wenn die indizierte Menge der Vektoren 1 a11 B C a1 D @ ::: A; 0 an1 1 a1m C B am D @ ::: A 2 kn 0 :::; (4.74) anm linear unabhängig ist. Wir sammeln nun einige allgemeine Resultate zur linearen Unabhängigkeit. Die folgenden Aussagen sind klar: Proposition 4.36. Sei V ein Vektorraum über k, und seien B1 B2 V Teilmengen von V . i.) Ist B1 linear abhängig, so ist B2 auch linear abhängig. ii.) Ist B2 linear unabhängig, ist B1 auch linear unabhängig. Wir können also linear abhängige Teilmengen beliebig vergrößern und linear unabhängige Teilmengen beliebig verkleinern. Proposition 4.37. Sei V ein Vektorraum über k und U V ein Unterraum. Für eine Teilmenge B V mit U D span B sind äquivalent: i.) Die Teilmenge B ist linear unabhängig. ii.) Jeder Vektor u 2 U lässt sich bis auf Umnummerierung und triviale Koeffizienten auf genau eine Weise als Linearkombination u D 1 b 1 C C n b n (4.75) 104 4 Lineare Gleichungssysteme und Vektorräume mit 1 ; : : : ; n 2 k und paarweise verschiedenen Vektoren b1 ; : : : ; bn 2 B schreiben. iii.) Die Teilmenge B ist minimal bezüglich der Eigenschaft U D span B: Gilt B 0 B und span B 0 D U , so folgt B 0 D B. Beweis. Wir zeigen i.) H) ii.) H) iii.) H) i.). Sei also zunächst B linear unabhängig und u 2 U vorgegeben. Da nach Voraussetzung U D span B gilt, gibt es Linearkombinationen der Form (4.75). Wir müssen die Eindeutigkeit zeigen. Seien dazu 0 u D 1 b1 C C n bn D 01 b10 C C 0m bm zwei Möglichkeiten, u darzustellen. Durch Umsortieren und Hinzunehmen von trivialen Koeffizienten, können wir m D n und b1 D b10 ; : : : ; bn D bn0 erreichen. Dann gilt also 0 D u u D .1 01 /b1 C C .1 0n /bn : Da die b1 ; : : : ; bn linear unabhängig sind, folgt 1 D 01 ; : : : ; n D 0n . Dies zeigt i.) H) ii.). Für ii.) H) iii.) nehmen wir an, B 0 B sei eine Teilmenge mit span B 0 D U , aber B 0 ¤ B. Dann gibt es also einen Vektor b 2 B n B 0 . Diesen können wir somit als Linearkombination b D 1 b1 C C n bn (4.76) mit b1 ; : : : ; bn 2 B 0 schreiben, wobei wir ohne Einschränkung annehmen können, dass die b1 ; : : : ; bn paarweise verschieden sind. Wegen b 2 B n B 0 ist insbesondere keiner der Vektoren b1 ; : : : ; bn gleich b. Damit haben wir aber zwei verschiedene Arten gefunden, b als Linearkombination von Vektoren in B zu schreiben, nämlich b D b und (4.76), ein Widerspruch zur Annahme ii.). Schließlich betrachten wir iii.) und nehmen an, B sei linear abhängig. Dann gibt es also eine nichttriviale Linearkombination 1 b1 C C n bn D 0: Ohne Einschränkung können wir 1 ¤ 0 annehmen, womit b1 D 2 n b2 bn 1 1 (4.77) folgt. Damit können wir aber in jeder Linearkombination von Vektoren aus B den Vektor b1 durch (4.77) ersetzen. Es folgt, dass B 0 D B n fb1 g denselben Unterraum U D span B 0 aufspannt, im Widerspruch zu iii.). Damit ist auch iii.) H) i.) gezeigt. t u 4.4 Lineare Unabhängigkeit und Basen 105 Korollar 4.38. Sei B V eine linear unabhängige Teilmenge eines Vektorraums V über k. Dann lässt sich jeder Vektor aus V auf höchstens eine Weise als Linearkombination von paarweise verschiedenen Vektoren aus B schreiben. Korollar 4.39. Sei B V linear unabhängig und v 2 V n B. Dann ist B [ fvg genau dann linear unabhängig, wenn v 62 span B. Beweis. Ist nämlich v 2 span B, so kann B [ fvg nicht linear unabhängig sein, da sonst ein Widerspruch zu beispielsweise iii.) aus Proposition 4.37 erreicht ist. Andererseits ist für v 62 span B die Gleichung v C 1 b1 C C n bn D 0 nur trivial lösbar: Gäbe es eine nichttriviale Lösung, so müsste insbesondere ¤ 0 gelten, da ja 1 b1 C C n bn D 0 nur die triviale Lösung besitzt. Daher ist aber vD n 1 b1 bn 2 span B; was im Widerspruch zur Annahme steht. t u Eine linear unabhängige Teilmenge B spannt den Unterraum span B also auf besonders effektive Weise auf: B ist minimal, und wir erhalten eine eindeutige Art, jeden Vektor in span B zu schreiben. Dies motiviert nun folgende Begriffsbildung: Definition 4.40 (Basis). Sei V ein Vektorraum über k und U V ein Untervektorraum. Eine Teilmenge B V heißt Basis von U , falls B linear unabhängig ist und U D span B gilt. Für U D V sprechen wir einfach von einer Basis. Beispiel 4.41 (Basis). Zwei fundamentale Beispiele für Basen sind nun die folgenden: i.) Sei n 2 N. Dann bilden die Standardvektoren e1 ; : : : ; en 2 kn eine Basis nach Beispiel 4.34, iii.). ii.) Sei M eine Menge und V D Abb.M; k/ sowie U D Abb0 .M; k/ wie in Beispiel 4.10 und Beispiel 4.23. Damit bilden die Vektoren fep gp2M eine Basis des Unterraums Abb0 .M; k/ nach Beispiel 4.34, iv.). Ist nun M endlich, so gilt Abb0 .M; k/ D Abb.M; k/ und wir erhalten eine Basis des gesamten Vektorraums Abb.M; k/. Ist dagegen M unendlich, so gilt Abb0 .M; k/ ¤ Abb.M; k/ und die fep gp2M sind keine Basis von Abb.M; k/. In diesem Fall 106 4 Lineare Gleichungssysteme und Vektorräume ist es typischerweise sehr schwierig, eine „explizite“ Basis von Abb.M; k/ anzugeben. Aus Korollar 4.38 beziehungsweise Proposition 4.37 erhält man sofort, dass sich für eine gegebene Basis B V jeder Vektor v 2 V auf eindeutige Weise als Linearkombination v D 1 b1 C C n bn (4.78) von Vektoren b1 ; : : : ; bn 2 B schreiben lässt. Die Eindeutigkeit gilt dabei natürlich wieder bis auf Umsortieren der Vektoren b1 ; : : : ; bn . Erlaubt man ’s mit Wert null, so lässt sich die unschöne Umnummerierung umgehen, indem wir die Basis B selbst zum Nummerieren verwenden. Wir finden zu v 2 V eindeutige Koeffizienten vb 2 k mit X vb b; (4.79) vD b2B wobei alle bis auf endlich viele vb verschwinden. Die Summe in (4.79) ist also selbst bei unendlicher Basis immer insofern endlich, als dass wir immer nur endlich viele von null verschiedene Vektoren aufsummieren und dann noch eventuell unendlich viele Kopien des Nullvektors hinzuzählen. Die eindeutig bestimmten Koeffizienten vb heißen dann auch die Koordinaten von v bezüglich der Basis B: Definition 4.42 (Koordinaten). Sei V ein Vektorraum über k und B V eine Basis. Sei weiter v 2 V . Die eindeutig bestimmten Zahlen vb 2 k mit (4.79) heißen die Koordinaten von v bezüglich der Basis B. Satz 4.43 (Austauschsatz von Steinitz). Sei V ein Vektorraum, und seien v1 ; : : : ; vn 2 V sowie w1 ; : : : ; wm 2 V mit m n jeweils linear unabhängig. Dann existieren Indizes i1 ; : : : ; imn , sodass auch v1 , . . . , vn , wi1 , . . . , wimn linear unabhängig sind. Beweis. Wir betrachten zunächst den Fall m D n C 1. Wir wollen zeigen, dass es einen Vektor wi1 gibt, sodass die Vektoren v1 ; : : : ; vn ; wi1 linear unabhängig sind. Angenommen, dies wäre nicht möglich: Für jede Wahl von i wären die Vektoren v1 ; : : : ; vn ; wi linear abhängig. Nach Korollar 4.39 folgt also wi 2 spanfv1 ; : : : ; vn g für alle i mit (sogar eindeutig bestimmten) Koeffizienten .aij /iD1;:::;nC1 , sodass j D1;:::;n wi D ai1 v1 C C ai n vn : Da die Vektoren fw1 ; : : : ; wnC1 g linear unabhängig sind, ist die Gleichung 1 w1 C C nC1 wnC1 D 0 (4.80) 4.4 Lineare Unabhängigkeit und Basen 107 nur trivial lösbar, also durch 1 D D nC1 D 0. Einsetzen von wi in (4.80) liefert daher die Gleichung nC1 X ! i ai1 v1 C C iD1 nC1 X ! i ai n vn D 0: iD1 Nun sind auch die v1 ; : : : ; vn linear unabhängig, womit auch hier nur die triviale Lösung nC1 X iD1 i ai1 D 0; :::; nC1 X i ai n D 0 iD1 möglich ist. Dieses lineare Gleichungssystem hat aber n C 1 Variablen 1 , . . . , nC1 und nur n Gleichungen. Da es homogen ist, gibt es nach Proposition 4.21 eine nichttriviale Lösung für die 1 ; : : : ; nC1 . Diese löst dann natürlich auch (4.80), ein Widerspruch. Damit ist also unsere ursprüngliche Annahme falsch und es muss ein i1 geben, sodass fv1 ; : : : ; vn ; wi1 g linear unabhängig ist. Dies zeigt den Fall m D n C 1. Den allgemeinen Fall erhält man dann durch wiederholtes Anwenden dieses „Austauschens“. t u Im Beweis hatten wir unter anderem folgendes Resultat gezeigt, welches auch für sich genommen interessant ist: Korollar 4.44. Sind v1 ; : : : ; vn 2 V linear unabhängig und w1 ; : : : ; wm 2 spanfv1 ; : : : vn g mit m > n, so sind die w1 ; : : : ; wm linear abhängig. Beweis. Wären die w1 ; : : : ; wm linear unabhängig, könnten wir austauschen und erhielten linear unabhängige Vektoren v1 ; : : : ; vn ; wi1 ; : : : ; wimm . Da offenbar für W D fv1 ; : : : ; vn ; wi1 ; : : : ; win g span W D spanfv1 ; : : : ; vn g und fv1 ; : : : ; vn g W , ist dies ein Widerspruch zur Charakterisierung von linearer Unabhängigkeit gemäß Proposition 4.37, iii.). t u Korollar 4.45. Hat V eine endliche Basis v1 ; : : : ; vn , so ist jede andere Basis ebenfalls endlich und hat ebenfalls n Elemente. Beweis. Sei nämlich B eine andere Basis. Diese kann nicht mehr als n linear unabhängige Vektoren enthalten, da ja B V D spanfv1 ; : : : ; vn g. Wir können also das vorherige Korollar 4.44 anwenden. Also ist B D fb1 ; : : : ; bm g mit m n. Vertauschen wir nun die Rollen von fv1 ; : : : ; vn g und fb1 ; : : : ; bm g, so folgt n D m. t u 108 4 Lineare Gleichungssysteme und Vektorräume Es stellt sich nun also die Frage, ob wir für jeden Vektorraum auch tatsächlich eine Basis finden können. Dies ist tatsächlich der Fall, auch wenn wir dies hier nicht im Detail beweisen wollen. Es erfordert das Auswahlaxiom der Mengenlehre in Form des Zornschen Lemmas, um diesen Satz in voller Allgemeinheit zu beweisen. Wir skizzieren daher zwei Varianten: den allgemeinen Fall und den Spezialfall, dass V endlich erzeugt ist: Satz 4.46 (Existenz von Basen). Sei V ein Vektorraum über k. i.) Jedes Erzeugendensystem von V enthält eine Basis von V . ii.) Ist U V ein Untervektorraum, so lässt sich jede Basis von U zu einer Basis von V ergänzen. Beweis. Wir geben zunächst einen Beweis für ein endliches Erzeugendensystem fv1 ; : : : ; vn g von V . Ist die Menge von paarweise verschiedenen Vektoren fv1 ; : : : ; vn g sogar linear unabhängig, so bilden diese bereits eine Basis, und wir sind fertig. Sind sie hingegen linear abhängig, so gibt es eine nichttriviale Linearkombination 1 v1 C C n vn D 0: Ohne Einschränkung können wir annehmen, dass n ¤ 0. Dann ist aber vn D 1 n1 vn vn1 ; n n und es gilt V D spanfv1 ; : : : ; vn g D spanfv1 ; : : : ; vn1 g: Nach endlich vielen Schritten erreicht man so eine Basis von V . Insbesondere hat diese und damit auch jede andere Basis von V höchstens n Elemente. Sei nun U V ein Unterraum und V endlich erzeugt mit N Erzeugern. Sei weiter fu1 ; : : : ; un g eine Basis von U , welche als linear unabhängige Teilmenge in V ebenfalls höchstens n N Elemente hat. Gilt bereits U D V , so ist nichts mehr zu zeigen. Gilt nun U ¤ V , so gibt es einen Vektor v 2 V n U , welcher nach Korollar 4.39 eine linear unabhängige Teilmenge fu1 ; : : : ; un ; vg in V liefert. Ersetzt man nun U durch spanfu1 ; : : : ; un ; vg, erzielt man nach endlich vielen Schritten eine Basis von V , da es nicht mehr als N linear unabhängige Vektoren in V geben kann. Damit ist der Beweis für endlich erzeugte Vektorräume erbracht. Den allgemeinen Fall zeigt man folgendermaßen: Sei E V ein Erzeugendensystem von V . Dann betrachten wir die Menge U aller Teilmengen von E, die linear unabhängig sind. Da ; linear unabhängig ist, folgt ; 2 U und U ist nicht leer. Wir ordnen U nun mittels der Relation „“, die eine partielle Ordnung auf U liefert, da dies ja sogar für die 4.4 Lineare Unabhängigkeit und Basen 109 Potenzmenge 2E der Fall ist. Sei nun B U eine linear geordnete Teilmenge: Für zwei Elemente B; B 0 2 B kann man also immer B B 0 oder B 0 B folgern. Jedes B 2 B besteht also insbesondere aus einer Menge von linear unabhängigen Vektoren. Wir behaupten, dass dann auch B1 D [ B B2B linear unabhängig ist. Sind nämlich endlich viele paarweise verschiedene v1 ; : : : ; vn 2 B1 gegeben, so gibt es B1 ; : : : ; Bn 2 B mit vi 2 Bi für i D 1; : : : ; n. Da B aber linear geordnet ist, folgt durch paarweisen Vergleich der B1 ; : : : ; Bn , dass es ein i0 2 f1; : : : ; ng mit Bi Bi0 für alle i D 1; : : : ; n gibt. Insbesondere gilt v1 ; : : : ; vn 2 Bi0 . Da Bi0 linear unabhängig ist, hat die Gleichung 1 v1 C C n vn D 0 nur die triviale Lösung 1 D : : : D n D 0. Es folgt, dass B1 linear unabhängig ist und dass B B1 für alle B 2 B. Offenbar ist B1 die kleinste Teilmenge von E, welche alle Teilmengen B 2 B enthält. Da B1 2 U gilt, zeigt dies, dass jede linear geordnete Teilmenge von U ein Supremum in U besitzt. Damit ist nun das Zornsche Lemma einsetzbar: Nach Satz B.14 können wir schließen, dass U überhaupt Suprema besitzt. Sei Bmax 2 U eine solches Supremum, also eine linear unabhängige Teilmenge des Erzeugendensystems E, die maximal bezüglich „“ ist. Wir behaupten dann, dass span Bmax D span E D V (4.81) gilt. Wäre dem nicht so, so gäbe es Vektoren v 2 E n span Bmax , für die Bmax [ fvg immer noch linear unabhängig wäre, siehe Korollar 4.39. Das steht aber im Widerspruch zur Maximalität von Bmax , da Bmax [ fvg ja echt größer ist. Damit folgt also (4.81) und Bmax ist die gesuchte Basis. Den zweiten Teil zeigt man analog: Man betrachtet die Menge U all der Teilmengen von V , die linear unabhängig sind und die Basis B U des Unterraums U V enthalten. Wieder ist U nicht leer, da B 2 U . Wie zuvor ordnet man U mittels „“ partiell und wie zuvor zeigt man, dass linear geordnete Teilmengen von U ein Supremum besitzen. Nach dem Zornschen Lemma besitzt U Suprema, die dann eine Basis von V darstellen. t u 110 4 Lineare Gleichungssysteme und Vektorräume Korollar 4.47. Jeder Vektorraum V über k besitzt eine Basis. Wir können beispielsweise mit dem Erzeugendensystem E D V und Teil i.) des Satzes argumentieren, oder mit dem Untervektorraum U D f0g und Teil ii.). Im Falle endlich erzeugter Vektorräume haben wir in Korollar 4.45 gesehen, dass je zwei Basen gleich viele Elemente besitzen. Dies bleibt auch im Allgemeinen richtig (ohne Beweis): Satz 4.48 (Mächtigkeit von Basen). Sei V ein Vektorraum über k. Dann haben je zwei Basen von V gleich viele Elemente. Gleich viele Elemente zu haben, ist hier im Sinne der Mächtigkeit von Mengen zu verstehen: Es gibt eine Bijektion zwischen den beiden Basen, siehe Anhang B.6. Dank Satz 4.48 beziehungsweise Korollar 4.45 können wir also einem Vektorraum eine Dimension zuschreiben: Definition 4.49 (Dimension). Sei V ein Vektorraum über k. Dann ist die Dimension dimk V von V die Mächtigkeit einer (und damit jeder) Basis von V . Gilt dimk V 2 N0 , so heißt V endlich-dimensional, anderenfalls unendlichdimensional. Ist der Bezug auf k klar, so schreiben wir auch dim V anstelle von dimk V . Entscheidend bei dieser Definition ist, dass wir zum einen immer eine Basis haben (Satz 4.46), und zum anderen, dass je zwei Basen die gleiche Mächtigkeit besitzen (Satz 4.48). Im Falle endlich erzeugter Vektorräume sind beide Sätze einfach und sogar bis zu einem gewissen Grade konstruktiv, im Allgemeinen müssen wir beim Auswahlaxiom in Form des Zornschen Lemmas Zuflucht suchen und erhalten deshalb keinen konstruktiven Beweis. Beispiel 4.50 (Dimensionen). i.) Für n 2 N gilt dim kn D n: (4.82) Dies ist klar, da die Standardvektoren e1 ; : : : ; en 2 kn eine Basis bilden. ii.) Es gilt dimR R D 1; dimR C D 2 und dimQ R D 1: (4.83) Hier fassen wir C als R-Vektorraum und R als Q-Vektorraum im Sinne von Korollar 4.15 auf. Es ist also entscheidend, den Körper der Skalare zu spezifizieren. Für die dritte Aussage verweisen wir auf Übung 4.21. 4.5 Direkte Summen und Produkte 111 iii.) Für eine unendliche Menge M ist der Vektorraum der Abbildungen Abb.M; k/ sicherlich unendlich-dimensional: Die Vektoren fep gp2M sind eine Basis des Unterraums Abb0 .M; k/, welcher damit eine Dimension der Mächtigkeit von M hat. Die Dimension von Abb.M; k/ ist noch größer. Bemerkung 4.51. Wir haben nun also die angestrebte „intrinsische“ Definition einer Dimension erreicht und können die Ergebnisse von Kap. 1 nun in diesem Lichte neu interpretieren: Geraden sind eindimensionale Unterräume, Ebenen sind zweidimensional. Kontrollfragen. Was ist ein Erzeugendensystem? Wann ist eine Teilmenge eines Vektorraums linear unabhängig? Wieso ist eine Teilmenge von linear unabhängigen Vektoren immer noch linear unabhängig? Wie viele linear unabhängige Vektoren können Sie im Spann von n Vektoren höchstens finden? Wie kann man eine Basis charakterisieren? Was ist eine indizierte Basis? Hat jeder Vektorraum eine Basis? Wieso sind zwei je Basen eines Vektorraums gleich groß? Wieso ist die Definition der Dimension eines Vektorraums überhaupt sinnvoll? 4.5 Direkte Summen und Produkte In diesem Abschnitt wollen wir nun einige kanonische und immer wiederkehrende Konstruktionen von neuen Vektorräumen aus bereits vorhandenen aufzeigen. Wir beginnen mit dem kartesischen Produkt: Sei I eine (nichtleere) Indexmenge und sei für jedes i 2 I ein Vektorraum Vi über k gegeben. Dann betrachten wir deren kartesisches Produkt V D Y Vi : (4.84) i2I Elemente in V sind „große“ Spaltenvektoren .vi /i2I , deren Einträge durch I indiziert werden, sodass für alle i 2 I der i -te Eintrag vi im Vektorraum Vi liegt. Wir erhalten auf V eine Vektorraumstruktur, indem wir die jeweiligen Vektorraumstrukturen der Komponenten Vi verwenden, wie wir das bereits beim endlichen kartesischen Produkt kn getan haben: Proposition 4.52 (Kartesisches Produkt). Sei I eine nichtleere Indexmenge und Vi ein Vektorraum über k für alle i 2 I . Dann wird das kartesische Produkt V D Y Vi (4.85) i2I vermöge der Addition .vi /i2I C .wi /i2I D .vi C wi /i2I (4.86) 112 4 Lineare Gleichungssysteme und Vektorräume und der Multiplikation mit Skalaren .vi /i2I D . vi /i2I (4.87) zu einem Vektorraum über k. Beweis. Wir müssen die definierenden Eigenschaften eines Vektorraums über k nachprüfen. Dies ist aber einfach: Zunächst bemerkt man, dass 0 D .0i /i2I das neutrale Element für C gemäß (4.86) ist. Die Assoziativität von C kann man komponentenweise nachprüfen und entsprechend auf die Assoziativität von C in jedem einzelnen Vi zurückführen. Für v D .vi /i2I ist v D .vi /i2I der zu v inverse Vektor, da v C .v/ D .vi /i2I C .vi /i2I D .vi vi /i2I D .0i /i2I D 0: Die benötigten Eigenschaften der Multiplikation mit Skalaren erhält man analog. t u Wir werden das kartesische Produkt vonQVektorräumen im Folgenden immer mit dieser Vektorraumstruktur versehen. In i2I Vi gibt es nun einen besonderen Untervektorraum: die direkte Summe. Definition 4.53 (Direkte Summe). Sei I eine nichtleere Indexmenge und Vi für jedes i 2 I ein Vektorraum über k. Dann ist die direkte Summe der Vi definiert als M i2I n Y Vi D .vi /i2I 2 i2I ˇ o ˇ Vi ˇ vi D 0 für alle bis auf endlich viele i 2 I : (4.88) Offenbar ist die direkte Summe ein Untervektorraum, und es gilt M i2I Vi ¤ Y Vi ; (4.89) i2I sofern I unendlich ist und unendlich viele Vi nicht der Nullraum sind. Ist dagegen I endlich, so gilt in (4.89) die Gleichheit. Beispiel 4.54 (Direkte Summe). i.) Sei n 2 N, dann ist der Vektorraum kn gerade das kartesische Produkt von n Kopien des Vektorraums k. Da n < 1 gilt, stimmt dies mit der direkten Summe überein. Es gilt also 4.5 Direkte Summen und Produkte 113 kn D k k D k ˚ ˚ k; (4.90) wobei wir für endlich viele Summanden auch V D V1 ˚ ˚ Vn schreiben. ii.) Der Raum aller Folgen kN mit Koeffizienten in k ist gerade das kartesische Produkt kN D 1 Y k (4.91) nD1 von abzählbar vielen Kopien von k. Hier ist die direkte Summe echt kleiner, denn 1 M k¤ nD1 1 Y k (4.92) nD1 besteht aus denjenigen Folgen .an /n2N mit an 2 k, sodass nur endlich viele an ¤ 0. Wir bezeichnen diese direkte Summe mit k.N/ , um sie vom kartesischen Produkt kN zu unterscheiden. Proposition 4.55. Sei I eine nichtleere Indexmenge, und seien fVi gi2I Vektorräume über k. Seien weiter indizierte Basen fwij gj 2Ji von Vi für jedes i 2 I gegeben. Dann bilden die Vektoren eij D .vi 0 j i /i 0 2I mit vi 0 j i D ıi 0 i wij (4.93) eine indizierte Basis feij gi2I;j 2Ji der direkten Summe der Vi . L Beweis. Sei v D .vi /i2I 2 i2I Vi vorgegeben. Dann gibt es endlich viele eindeutig bestimmte Indizes i1 ; : : : ; in 2 I mit vi1 ¤ 0; : : : ; vin ¤ 0, und alle anderen Einträgen vi sind 0. Da fwik j gj 2Jik für jedes k D 1; : : : ; n eine Basis von Vik ist, gibt es eindeutig bestimmte Koeffizienten ik j1 ; : : : ; ik jmk 2 k mit vik D ik j1 wik j1 C C ik jmk wik jmk : Wir setzen dies nun zusammen und erhalten v D i1 j1 ei1 j1 C C i1 jm1 ei1 jm1 C C in j1 ein j1 C C in jmn ein jmn ; Dies zeigt zum einen, dass die feij gi2I;j 2Ji ein Erzeugendensystem bilden, zum anderen zeigt die Eindeutigkeit der Koeffizienten, dass die feij gi2I;j 2Ji linear unabhängig sind. Damit bilden sie, wie behauptet, eine Basis. t u 114 4 Lineare Gleichungssysteme und Vektorräume Korollar 4.56. Sei n 2 N, und seien V1 ; : : : ; Vn endlich-dimensionale Vektorräume über k. Dann ist V1 ˚ ˚ Vn ebenfalls endlich-dimensional, und es gilt dim.V1 ˚ ˚ Vn / D dim V1 C C dim Vn : (4.94) Bemerkung 4.57. Selbst wenn Basen für alle Vi vorliegen, erhält man im Allgemeinen daraus noch keine Basis für das kartesische Produkt: hier benötigt man im Allgemeinen (viele) zusätzliche Basisvektoren. Am Beispiel des Folgenraums kN ist dies einfach zu sehen. Die Basis der direkten Summe gemäß Proposition 4.55, die man aus der Basis f1g von k erhält, sind die Folgen e1 D .1; 0; 0; : : :/; e2 D .0; 1; 0; : : :/; (4.95) e3 D .0; 0; 1; : : :/; : : : Nun ist aber schnell zu sehen, dass etwa e1 D .1; 1; 1; : : :/ (4.96) davon linear unabhängig ist. Hier ist wichtig, dass wir natürlich immer nur endliche Linearkombinationen der fei gi2N bilden dürfen und deshalb die unendlich vielen von null verschiedenen Einträge von e1 nicht erzeugen können. Ohne Beweis sei hier angemerkt, dass kN eine „sehr“ große L Basis erfordert, die im Gegensatz zur abzählbaren Basis der direkten Summe 1 nD0 k im Allgemeinen überabzählbar ist, siehe Übung 4.22. Für Unterräume fUi gi2I eines fest gewählten Vektorraums haben wir bereits in Definition 4.28 eine Summe definiert: Dies war der kleinste Unterraum U V , der alle Ui enthält, also der Spann aller Vektoren aus allen Ui . Da die Unterräume Teilmengen eines großen Vektorraums V sind, können deren Durchschnitte Ui \ Uj für gewisse Indexpaare nichttrivial sein: Da beide Unterräume immer 0 2 V enthalten, gilt immer 0 2 Ui \ Uj . Nichttrivial meint hier also, dass Ui \ Uj nicht nur aus f0g besteht. Weiter kann es passieren, dass bei mehr als zwei Unterräumen zwar die paarweisen Durchschnitte alle trivial sind, aber im Spann von einigen der Unterräume Vektoren aus einem weiteren, davon verschiedenen liegen. Auch in diesem Fall können wir im gesamten Spann gewisse Vektoren auf mehrfache Weise erzielen, was wir in der direkten Summe von Unterräumen ausschließen wollen: Definition 4.58 (Direkte Summe von Unterräumen). Sei I eine nichtleere Indexmenge, und seien fUi gi2I paarweise verschiedene Unterräume eines Vektorraums P V über k. Ihre Summe U D U i2I i heißt direkt, falls für alle i 2 I und alle endlich vielen j1 ; : : : jn 2 I verschieden von i 4.5 Direkte Summen und Produkte 115 Ui \ n X Ujk D f0g (4.97) kD1 gilt. In diesem Fall schreiben wir X Ui D i2I M Ui : (4.98) i2I Eine erste Umformulierung erhalten wir folgendermaßen: Proposition 4.59. Sei I eine nichtleere Indexmenge, und seien fUi gi2I paarweise verschiedene Unterräume eines P Vektorraums V über k. Dann sind folgende Aussagen über die Summe U D i2I Ui äquivalent: i.) Die Summe U der Ui ist direkt. S ii.) Für alle Basen Bi Ui mit i 2 I ist B D i2I Bi eine Basis S von U . iii.) Für jedes i 2 I gibt es eine Basis Bi Ui , sodass B D i2I Bi eine Basis von U ist. iv.) Für jeden Vektor u 2 U gibt es eindeutig bestimmte P Vektoren ui 2 Ui , sodass nur endlich viele ungleich null sind und dass u D i2I ui gilt. v.) Für alle vi 2 Ui n f0g ist fvi gi2I eine linear unabhängige Teilmenge von U . Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) v.) H) i.). Sei zunächst die Summe direkt und sei Bi Ui eine beliebige Basis des i -ten Unterraums. S Seien ui1 ; : : : ; uin 2 B endlich viele, paarweise verschiedene Vektoren in B D i2I Bi . Dann gibt es endlich viele paarweise verschiedene j1 ; : : : ; jk 2 I , sodass ohne Einschränkung ui1 ; : : : ; uir1 2 Bj1 , uir1 C1 ; : : : ; uir2 2 Bj2 , . . . , uirk1 C1 ; : : : ; uin 2 Bjk . Wir betrachten nun eine Linearkombination 1 ui1 C C n uin D 0 (4.99) für gewisse 1 ; : : : ; n 2 k. Wir setzen v1 D 1 ui1 C C r1 uir1 2 Uj1 und analog für die übrigen Beiträge, sodass also v2 2 Uj2 ; : : : ; vk 2 Ujk . Dann bedeutet (4.99) gerade v1 C C vk D 0: Wäre nun einer der Vektoren v1 ; : : : ; vk von null verschieden, etwa v1 ¤ 0, so gälte also v1 2 Uj2 C C Ujk sowie natürlich v1 2 Uj1 . Da die Summe aber direkt ist, muss v1 D 0 sein, ein Widerspruch. Daher gilt v1 D D vk D 0. Wir haben daher Linearkombinationen der Form 1 ui1 C C r1 uir1 D 0; :::; rk1 C1 uirk1 C1 C C n uin D 0 116 4 Lineare Gleichungssysteme und Vektorräume für alle k Teilräume. Da dort die Vektoren aber aus einer Basis und entsprechend linear unabhängig sind, folgt schließlich 1 D D n D 0, was zeigt, dass B eine linear unabhängige Teilmenge von U ist. Da B aber trivialerweise ein Erzeugendensystem von U ist, haben wir die Implikation i.) H) ii.) gezeigt. Die Implikation ii.) H) S iii.) ist trivial. Sei also nun Bi Ui eine Basis für jedes i 2 I derart, dass B D i2I Bi eine Basis von U ist. Sei weiter u 2 U vorgegeben. Dann hat u eine eindeutige Darstellung bezüglich der Basis B. Diese ist von der Form X X uD i;bi bi i2I bi 2Bi mit eindeutig bestimmten Zahlen i;bi 2 k für alle i 2 I und alle bi 2 Bi , derart, dass insgesamt nur endlich viele davon ungleich null sind. Wir behaupten, dass ui D X i;bi bi bi 2Bi P die eindeutig bestimmten Vektoren in Ui mit u D i2I ui sind. Dass die Summe der ui gerade u ergibt, ist klar. Ebenfalls klar ist, dass ui 2 Ui gilt. Weiter sind nur endlich viele ui von null verschieden. Sei nun vi 2 Ui eine andere Wahl, dann gilt zum einen X vi D i;bi bi bi 2Bi mit eindeutig bestimmten i;bi 2 k und zum anderen 0DuuD XX .i;bi i;bi /bi : i2I bi 2Bi Da die Gesamtheit der bi gerade die Basis B ist, gibt es nur die triviale Möglichkeit, 0 als Linearkombination der bi zu schreiben. Dies bedeutet aber i;bi D i;bi für alle i 2 I und bi 2 Bi , was die Eindeutigkeit der Vektoren ui zeigt. Damit ist die Implikation iii.) H) iv.) gezeigt. Wir nehmen nun iv.) an und wählen vi 2 Ui n f0g für jedes i 2 I . Seien dann endlich viele, paarweise verschiedene vi1 ; : : : ; vin und 1 ; : : : ; n 2 k mit 0 D 1 vi1 C C n vin gegeben. Nach Voraussetzung ist die Darstellung der 0 2 U aber eindeutig, womit 1 vi1 D D n vin D 0 folgt. Da die Vektoren aber nicht Null sind, folgt 1 D D n D 0, was die lineare Unabhängigkeit der Menge fvi gi2I beweist. Damit ist auch iv.) H) v.) gezeigt. Zum Schluss nehmen wir also an, dass v.) gilt. Seien i 2 I und j1 ; : : : ; jk 2 I n fi g sowie u 2 Ui \ .Uj1 C C Ujk / gegeben. Wir 4.5 Direkte Summen und Produkte 117 müssen zeigen, dass u D 0 gilt. Wäre dieser Vektor nicht null, so wäre 0 D uu eine nichttriviale Linearkombination der 0. Da u 2 Ui ungleich null ist und u 2 Uj1 C C Ujk ebenfalls ungleich null ist, finden wir Vektoren v1 2 Uj1 ; : : : ; vk 2 Ujk mit u D v1 C C vk . Es können offenbar nicht alle v1 , . . . , vk verschwinden. Ohne Einschränkung seien alle v1 , . . . , vk bereits von null verschieden, anderenfalls lassen wir die Indizes weg, für die der entsprechende Vektor null ist. Dann haben wir aber eine nichttriviale Linearkombination 0 D u C v1 C C vk der Null gefunden, obwohl alle Vektoren u, v1 , . . . , vk ungleich null sind. Dies widerspricht der Annahme v.), womit die Summe doch direkt war. t u Bemerkung 4.60 (Innere und äußere direkte Summe). Hierbei ist natürlichLein gewisser Notationsmissbrauch begangen worden, da wir die direkte Summe i2I Ui zunächst ja auch gemäß Definition 4.53Lals Unterraum des kartesischen Produkts Q U definiert haben. Als solche ist i2I Ui kein Unterraum von V . Trotzdem i2I i können wir beide Varianten identifizieren, da wir nämlich Ui auch als UntervektorQ raum von i2I Ui interpretieren können: Wir identifizieren ui 2 Ui mit demjenigen Spaltenvektor aus dem kartesischen Produkt, der an i -ter Stelle ui stehen hat und sonst an allen anderen Stellen nur 0 als Eintrag hat. In diesem Sinne ist dann die äußere direkte Summe Qder Ui gemäß Definition 4.53 gleich der Summe der Untervektorräume Ui j 2I Uj . Da die Einträge an verschiedenen Stellen der Spaltenvektoren stehen, gilt in dieser Situation immer (4.97), womit innerhalb von Q U die Summe tatsächlich direkt im Sinne von Definition 4.58 ist und somit i2I i mit der inneren direkten Summe identifiziert werden kann. Sobald wir den Begriff der linearen Abbildung und des Isomorphismus zur Verfügung haben, lässt sich diese Überlegung präzise formulieren, siehe auch Übung 5.16. Wir wollen nun ein Analogon der Dimensionsformel aus Korollar 4.56 für Summen von Unterräumen finden. Hier ist im Allgemeinen natürlich die Dimension von U1 CU2 kleiner als dim U1 Cdim U2 : Man verwende beispielsweise einen nichttrivialen Unterraum U D U1 D U2 , dann ist U1 C U2 D U , aber dim U < 2 dim U . Die Schwierigkeit rührt von einem eventuell nichttrivialen Durchschnitt her. Berücksichtigt man den Teilraum U1 \ U2 , so erhält man folgendes Ergebnis: Satz 4.61 (Dimensionsformel für Unterräume). Seien U1 ; U2 V Untervektorräume von einem Vektorraum V über k. Dann gilt dim U1 C dim U2 D dim.U2 C U2 / C dim.U1 \ U2 /: (4.100) Beweis. Ist einer der beiden Unterräume unendlich-dimensional, so ist auch U1 CU2 unendlich-dimensional und (4.100) reduziert sich auf die wenig aussagekräftige Gleichung 1 D 1. Wir können daher annehmen, dass dim U1 ; dim U2 < 1. Dann 118 4 Lineare Gleichungssysteme und Vektorräume ist U1 \ U2 U1 als Teilraum eines endlich-dimensionalen Vektorraums ebenfalls endlich-dimensional. Wir wählen eine Basis v1 ; : : : ; vn 2 U1 \ U2 dieses Durchschnitts und ergänzen sie zu einer Basis v1 ; : : : ; vn ; w1 : : : ; wm von U1 . Es gilt also dim.U1 \ U2 / D n und dim U1 D n C m: Genauso können wir die Vektoren v1 ; : : : ; vn zu einer Basis v1 , . . . , vn , u1 , . . . , uk 2 U2 von U2 ergänzen und erhalten daher dim U2 D n C k: Wir behaupten, dass v1 ; : : : ; vn ; w1 ; : : : ; wm ; u1 ; : : : ; uk eine Basis von U1 C U2 ist. Da U1 D spanfv1 ; : : : ; vn ; w1 ; : : : ; wm g und U2 D spanfv1 ; : : : ; vn ; u1 ; : : : ; uk g gilt, folgt sofort U1 C U2 D spanfv1 ; : : : ; vn ; w1 ; : : : ; wm ; u1 ; : : : ; uk g: Es bleibt also zu zeigen, dass diese Menge von Vektoren auch linear unabhängig ist. Sei dazu eine Linearkombination v C C n vn C 1 w1 C C m wm C #1 u1 C C #k uk D 0 „1 1 ƒ‚ … „ ƒ‚ … ƒ‚ … „ v u w der 0 gegeben. Es gilt also v 2 U1 \ U2 , w 2 U1 und u 2 U2 sowie v C w D u 2 U2 und v C u D w 2 U1 und daher v C w 2 U1 \ U2 sowie v C u 2 U1 \ U2 . Da auch v 2 U1 \ U2 , folgt schließlich, dass alle drei Vektoren v; w; u im Durchschnitt liegen. Damit ist also u eine Linearkombination der Basisvektoren v1 ; : : : ; vn . Auf diese Weise ist in vCwCuD0 eine nichttriviale Linearkombination der 0 in U1 gefunden, sofern nicht w D 0 gilt, da ja die v1 ; : : : ; vn , w1 ; : : : ; wm eine Basis von U1 bilden. Es gilt also w D 0 und daher v C u D 0: Da die v1 ; : : : ; vn ; u1 ; : : : ; uk aber eine Basis von U2 bilden, kann dies nur für v D 0 D u gelten. Somit folgt 1 D D n D 1 D D m D #1 D D #k D 0 und daher die lineare Unabhängigkeit der obigen n C m C k Vektoren. Es gilt also 4.5 Direkte Summen und Produkte 119 dim.U1 C U2 / D n C m C k; t u womit die Behauptung folgt. Proposition 4.62. Sei U V ein Unterraum eines Vektorraums V über k. Dann gibt es einen Unterraum W V mit U \ W D f0g und U ˚ W D V: (4.101) Beweis. Wir wählen eine Basis B1 U und ergänzen diese durch zusätzliche Vektoren B2 V n U zu einer Basis von V gemäß Satz 4.46. Dann gilt für W D span B2 offenbar U C W D V sowie U \ W D f0g, da B1 [ B2 linear unabhängig ist. Für zwei Unterräume ist dies aber gerade die Bedingung dafür, dass ihre Summe direkt ist. t u Wir nennen einen Unterraum W mit (4.101) auch einen Komplementärraum zu U . Es gibt also zu jedem Unterraum einen Komplementärraum. Im Allgemeinen ist W aber durch diese Eigenschaft noch nicht eindeutig bestimmt, siehe Abb. 4.3. Kontrollfragen. Was ist der Unterschied zwischen dem kartesischen Produkt und der äußeren direkten Summe von Vektorräumen? Wie können Sie eine Basis einer direkten Summe finden? Wie können Sie die innere direkte Summe von Unterräumen charakterisieren? x2 W 2 IR U x1 W Abb. 4.3 Zwei zu U komplementäre Unterräume W und W 0 im R 2 120 4.6 4 Lineare Gleichungssysteme und Vektorräume Übungen Übung 4.1 (Elementare Umformung (IV)). Zeigen Sie, dass durch Kombination von elementaren Umformungen vom Typ (II) und (III) folgende Umformung erhalten werden kann: (IV) Zu einer Gleichung wird das -Fache einer anderen Gleichung addiert, wobei 2 k beliebig ist. Diese Umformung ist in der Praxis manchmal zweckmäßiger, als die entsprechende Kombination der Umformungen (II) und (III) immer wieder durchzuführen. Übung 4.2 (Lineare Gleichungssysteme). Bestimmen Sie die Lösungsmengen folgender linearer Gleichungssysteme über C mithilfe des Gauß-Algorithmus. i.) 2x1 x2 D0 x1 C 2x2 x3 D 0 7x1 C 8x2 3x3 D 0 (4.102) x C 2.x C z/ i.2x C y/ D 1 .y C z/i C x C y D 1 y ix C z D 2 (4.103) ii.) iii.) ix1 C 2ix2 4x3 C .2 i/x4 D 1 x2 C 2ix3 x4 D2 x1 D0 .2 C i/x1 C 3x2 2x3 (4.104) iv.) x1 C x2 D 0 x2 C x3 D 0 :: : xn1 C xn D 0 xn C x1 D 0 (4.105) 4.6 Übungen 121 Übung 4.3 (Lineare Gleichungssysteme über verschiedenen Körpern). trachten Sie das lineare Gleichungssystem Be- xy D1 y zD0 x CzD1 (4.106) einmal über dem Körper Z2 und einmal über C. Bestimmen Sie die Lösungen und vergleichen Sie. Übung 4.4 (Der Vektorraum Abb.M; V /). Sei M eine nichtleere Menge und sei V ein Vektorraum über k. Wie schon bei Ringen in Übung 3.18 betrachten wir die Abbildungen Abb.M; V / von M nach V . i.) Zeigen Sie, dass die punktweise erklärte Addition .f C g/.p/ D f .p/ C g.p/ (4.107) sowie die punktweise erklärte Multiplikation mit Skalaren 2 k .f /.p/ D f .p/ (4.108) für p 2 M die Menge Abb.M; V / zu einem Vektorraum über k macht. ii.) Zeigen Sie, dass diejenigen Abbildungen f 2 Abb.M; V / mit f .p/ D 0 für alle bis auf endlich viele p 2 M einen Unterraum Abb0 .M; V / bilden. Zeigen Sie weiter, dass für dim V ¤ 0 dieser Unterraum echt ist, wenn M unendlich viele Elemente hat. Übung 4.5 (Folgenräume). Führen Sie die Details zu Beispiel 4.22 aus, indem Sie die nötigen Resultate zu Suprema und Grenzwerten der Analysis zitieren. Übung 4.6 (Ringe als Vektorräume). Beweisen Sie Proposition 4.14. Übung 4.7 (Indizierte Mengen von Vektoren). Sei V ein Vektorraum über k, und sei B V linear unabhängig. i.) Sei weiter I eine Indexmenge und W I 3 i 7! bi 2 B eine Abbildung. Zeigen Sie, dass die indizierte Menge fbi gi2I genau dann linear unabhängig ist, wenn injektiv ist. ii.) Formulieren Sie insbesondere den Beweis von Korollar 4.35 in diesem Lichte. Übung 4.8 (Nochmals Beispiel 4.41). In welchem Sinne ist der erste Teil des Beispiels 4.41 ein Spezialfall des zweiten Teils? 122 4 Lineare Gleichungssysteme und Vektorräume Übung 4.9 (Basen in C4 ). Betrachten Sie den komplexen Vektorraum C4 und folgenden Vektoren 1 1 1 1 0 0 1 0 0 i 0 0 2Ci 2 C 2i B 3 iC B 1 C BiC B 0 C B 3i C C C C C B B C B B v1 D B @ 0 A; v2 D @ i A; v3 D @2iA; v4 D @ 3i A; v5 D @ 3i A: 1 4 C 3i 1 2 3 (4.109) Welche Auswahl von Vektoren bildet ein Erzeugendensystem, welche eine Basis? 0 Übung 4.10 (Linear unabhängige Vektoren I). Seien v1 ; : : : ; vn 2 V Vektoren in einem Vektorraum V über k. Seien weiter a11 , a21 , a22 , . . . , an1 , . . . , an;n1 , ann 2 k mit akk ¤ 0 für k D 1; : : : ; n. Definieren Sie die Vektoren w1 D a11 v1 w2 D a21 v1 C a22 v2 :: : (4.110) wn D an1 v1 C C an;n1 vn1 C ann vn : Zeigen Sie, dass die Vektoren v1 ; : : : ; vn genau dann linear unabhängig sind, wenn die Vektoren w1 ; : : : ; wn linear unabhängig sind. Übung 4.11 (Linear unabhängige Vektoren II). Für welche a; b; c 2 R sind die Vektoren 0 1 1 xE D @ a A; a2 0 1 0 1 1 1 yE D @ b A und Ez D @ c A b2 c2 (4.111) im R3 linear unabhängig? Übung 4.12 (Lineare Unabhängigkeit und Spann). Sei V ein Vektorraum über k. Seien v1 ; : : : ; vn 2 V und w1 ; : : : ; wm 2 k- spanfv1 ; : : : ; vn g. Zeigen Sie, dass die w1 ; : : : ; wm linear abhängig sind, sobald m > n. Dies liefert eine kleine Verschärfung von Korollar 4.44. Übung 4.13 (Basis der Polynome). Betrachten Sie den k-Vektorraum kŒx der Polynome mit Koeffizienten in einem Körper k. i.) Zeigen Sie, dass die Monome fx n gn2N 0 eine Basis von kŒx bilden. ii.) Sei pn .x/ D x n C an;n1 x n1 mit fest gewählten an;n1 2 k. Zeigen Sie, dass auch die Polynome fpn gn2N 0 eine Basis von kŒx bilden. 4.6 Übungen 123 Übung 4.14 (Unterräume von RN ). Betrachten Sie erneut den reellen Vektorraum aller Folgen RN sowie die Teilmengen ˚ U1 D .an /n2N ˚ U2 D .an /n2N ˚ U3 D .an /n2N ˚ U4 D .an /n2N ˚ U5 D .an /n2N ˚ U6 D .an /n2N n U7 D .an /n2N n U8 D .an /n2N ˇ ˇ 2an D anC3 für alle n 2 N ; ˇ ˇ .an /2 D anC3 für alle n 2 N ; ˇ ˇ a1 D a2 D 4 ; ˇ ˇ a2n D 0 für alle n 2 N ; ˇ ˇ limn!1 a3n D 0 ; ˇ ˇ limn!1 a2n D 2 ; ˇ X1 o ˇ jan j < 1 ; ˇ nD0 ˇ X1 o ˇ ja2n j D 2 : ˇ nD0 (4.112) (4.113) (4.114) (4.115) (4.116) (4.117) (4.118) (4.119) Welche dieser Teilmengen sind Unterräume? Bestimmen Sie deren Dimension. Übung 4.15 (Unterräume von .Z2 /3 ). Betrachten Sie den Vektorraum .Z2 /3 über Z2 , sowie die Teilmengen ˇ ˚ U1 D a 2 .Z2 /3 ˇ a1 D .a2 a3 /2 C a3 und a1 a2 D .a3 a1 /.a3 C a1 / (4.120) und ˇ ˚ U2 D a 2 .Z2 /3 ˇ a1 D .a2 a3 /2 C 1 und a1 a2 D .a3 a1 /.a3 C a1 / : (4.121) i.) Wie viele Elemente haben diese Teilmengen? ii.) Welche dieser Teilmengen ist ein Unterraum? Bestimmen Sie gegebenenfalls die Dimension. Übung 4.16 (Unterräume von Funktionen I). Betrachten Sie den Vektorraum Abb.R; R/ aller Abbildungen von R nach R. Seien weiter „; m; E 2 R fest gewählt, und sei V W R ! R eine fest gewählte stetige Funktion. Welche der folgenden Teilmengen ˇ ˚ U1 D f 2 Abb.R; R/ ˇ f .1/ D f .4/ D f . / D 0 ; ˇ ˚ U2 D f 2 Abb.R; R/ ˇ f .x/ D a sin.x/ C b cos.x/ mit a; b 2 R ; ˇ ˚ U3 D f 2 Abb.R; R/ ˇ f .x/ D eax mit a 2 R ; (4.122) (4.123) (4.124) 124 4 Lineare Gleichungssysteme und Vektorräume ˇ n ˇ U4 D f 2 Abb.R; R/ ˇ f ist C 2 und „2 00 f .x/ 2m o C V .x/f .x/ D Ef .x/ ; (4.125) n U5 D f n U6 D f n U7 D f n U8 D f ˇ o ˇ 2 Abb.R; R/ ˇ f .x/ D V .x/ für x > 0 ; ˇ o ˇ 2 Abb.R; R/ ˇ f ist C 1 ; ˇ o ˇ 2 Abb.R; R/ ˇ f ist C 1 und f 0 .0/ D 2 ; ˇ o ˇ 2 Abb.R; R/ ˇ f ist C 1 und f 0 .x/ D 0 für x 0 (4.126) (4.127) (4.128) (4.129) sind Untervektorräume? Verwenden und zitieren Sie die erforderlichen Ergebnisse aus der Analysis. Übung 4.17 (Unterräume von Funktionen II). Betrachten Sie den Vektorraum Abb.R2 ; R/ aller Abbildungen von R2 nach R. Seien weiter f1 , f2 , f3 , f4 2 Abb.R2 ; R/ durch f1 .x; y/ D max.x; y/; f2 .x; y/ D min.x; y/; f3 .x; y/ D x; und f4 .x; y/ D y (4.130) definiert. i.) Sind die Funktionen linear unabhängig? ii.) Bestimmen Sie eine Basis und die Dimension von spanff1 ; f2 ; f3 ; f4 g. Übung 4.18 (Vereinigung von Unterräumen). Sei V ein k-Vektorraum, und seien U1 ; U2 V Unterräume von V . Zeigen Sie, dass deren Vereinigung U1 [ U2 genau dann wieder ein Unterraum ist, wenn U1 U2 oder U2 U1 gilt. Übung 4.19 (Komplementärraum). Bestimmen Sie einen möglichst einfachen Komplementärraum der Nullfolgen c0 innerhalb aller konvergenten Folgen c. Was ist die Dimension des Komplementärraums? Übung 4.20 (Gerade und ungerade Funktionen). Betrachten Sie den Vektorraum aller Funktionen Abb.R; R/ von R nach R mit seiner üblichen Vektorraumstruktur. Sei weiter ˇ ˚ (4.131) Ugerade D f 2 Abb.R; R/ ˇ f .x/ D f .x/ für alle x 2 R und ˇ ˚ Uungerade D f 2 Abb.R; R/ ˇ f .x/ D f .x/ für alle x 2 R : (4.132) i.) Veranschaulichen Sie sich graphisch die Bedeutung der Begriffe gerade Funktion und ungerade Funktion. 4.6 Übungen 125 ii.) Zeigen Sie, dass Ugerade und Uungerade Untervektorräume von Abb.R; R/ sind. iii.) Zeigen Sie Abb.R; R/ D Ugerade ˚ Uungerade . Übung 4.21 (Die reellen Zahlen als Q-Vektorraum). Wir betrachten die reellen Zahlen R als Vektorraum über Q gemäß Korollar 4.15. p i.) Zeigen Sie, dass p für jede Primzahl p irrational ist. p ii.) Zeigen Sie, dass 1 und p für eine Primzahl p linear unabhängig über Q sind. Übung 4.22 (Dimension des Folgenraums). Betrachten Sie den Körper k D Z2 als einfachsten und kleinsten Körper. Zeigen Sie, dass der Folgenraum kN der Folgen mit Werten in k keine abzählbare Basis hat. Hinweis: Zeigen Sie zunächst, dass kN überabzählbar viele Elemente besitzt. Sei dann fen gn2N eine abzählbare Teilmenge von Folgen. Betrachten Sie ˇ o n ˇ Uk D v 2 kN ˇ v D 1 en1 C C k enk mit 1 ; : : : ; k 2 k; n1 ; : : : ; nk 2 N : Zeigen Sie, dass Uk abzählbar ist und dass spanfen gn2N D [1 kD1 Uk gilt. Folgern Sie so, dass der Spann von abzählbar vielen Vektoren nicht ganz kN sein kann. Übung 4.23 (Dimension von R über Q). Zeigen Sie, dass R als Q-Vektorraum keine abzählbare Basis besitzt. Hinweis: Die richtige Idee finden Sie vielleicht in Übung 4.22. Versuchen Sie nicht, die Basis konstruktiv anzugeben. Übung 4.24 (Dimension von C.Œa; b; R/). Zeigen Sie, dass der Vektorraum C .Œa; b; R/ der stetigen, reellwertigen Funktionen auf einem kompakten Intervall Œa; b mit a < b keine abzählbare Basis besitzt. Hinweis: Sei c 2 .a; b/. Konstruieren Sie eine stetige Funktion fc mit der Eigenschaft, dass fc .x/ > 0 für x < c und fc .x/ D 0 für x c. Zeigen Sie dann, dass alle diese Funktionen ffc gc2.a;b/ linear unabhängig sind. Können Sie fc sogar unendlich-oft stetig differenzierbar einrichten, um zu zeigen, dass auch der Vektorraum der unendlich-oft stetig differenzierbaren Funktionen eine überabzählbare Basis haben muss? Übung 4.25 (Lineare Unabhängigkeit über verschiedenen Körpern). Betrachten Sie V D C2 einmal als komplexen Vektorraum und einmal als reellen Vektorraum gemäß Übung 4.27. Seien weiter v1 D 1Ci und 1i v2 D 1 : i (4.133) 126 4 Lineare Gleichungssysteme und Vektorräume i.) Zeigen Sie, dass fv1 ; v2 g über C linear abhängig ist, über R dagegen nicht. ii.) Sei U D C- spanfv1 ; v2 g. Bestimmen Sie dimR .U / und dimC .U /, indem Sie in beiden Fällen eine Basis angeben. Übung 4.26 (Komplex-konjugierter Vektorraum I). Sei V ein komplexer Vektorraum. Definieren Sie auf der abelschen Gruppe .V; C/ durch z v D zv (4.134) eine neue Multiplikation mit Skalaren z 2 C für v 2 V . Zeigen Sie, dass .V; C/ mit diesem ebenfalls ein komplexer Vektorraum ist. Man schreibt dann suggestiver V anstelle von V und bezeichnet die Elemente von V mit v, sodass (4.134) zu zv D zv wird. Machen Sie sich klar, dass diese Schreibweise vernünftig ist. Übung 4.27 (Vektorräume über Körpererweiterungen). Sei W k ! K ein Körpermorphismus zwischen zwei Körpern. Sei weiter V ein Vektorraum über K. i.) Zeigen Sie, dass vermöge x v D .x/v für x 2 k und v 2 V die abelsche Gruppe .V; C/ zu einem Vektorraum über k wird. ii.) Sei B V ein Erzeugendensystem von V als K-Vektorraum. Ist B dann auch ein Erzeugendensystem von V als k-Vektorraum? iii.) Sei B V linear unabhängig in V als K-Vektorraum. Ist B dann auch linear unabhängig in V als k-Vektorraum? iv.) Wie verändern sich die Aussagen in Teil ii.) und iii.), wenn man die Rollen von k und K vertauscht? v.) Was können Sie über die Beziehung von dimk V und dimK V sagen? Finden Sie entsprechende Beispiele, um Ihre Behauptungen zu belegen. vi.) Betrachten Sie nun k D K D C mit .z/ D z. Zeigen Sie, dass die obige Konstruktion in diesem Fall den komplex-konjugierten Vektorraum V aus Übung 4.26 liefert. Finden Sie so Aussagen über den komplex-konjugierten Vektorraum. Hinweis: Für alle Teile ist Übung 3.23, i.), von Bedeutung. Übung 4.28 (Dimension von Unterräumen). Sei U V ein Unterraum eines k-Vektorraums. i.) Zeigen Sie dim U dim V . ii.) Ist V endlich-dimensional, so gilt dim U D dim V genau dann, wenn U D V . iii.) Geben Sie ein Beispiel für einen unendlich-dimensionalen Vektorraum V mit einem echten Unterraum U , sodass dim U D dim V gilt. 4.6 Übungen 127 Übung 4.29 (Linearer Spann und Basen). Sei W V eine nichtleere Teilmenge eines Vektorraums über k. Zeigen Sie, dass es für den k-Spann U D k- span W eine Basis gibt, die aus Vektoren in W besteht. Übung 4.30 (Reelle Dimension komplexer Vektorräume). Sei V ein komplexer Vektorraum. i.) Zeigen Sie, dass V auf natürliche Weise auch ein reeller Vektorraum ist, indem Sie die reelle Vektorraumstruktur explizit angeben. ii.) Sei B V eine Basis des komplexen Vektorraums. Zeigen Sie, dass die Menge ˚ ˇ BR D B [ iB D B [ ib ˇ b 2 B (4.135) eine Basis des reellen Vektorraums V ist. iii.) Sei dimC V < 1. Zeigen Sie, dass dimR V D 2 dimC V: (4.136) Übung 4.31 (Komplexifizierung I). Sei V ein reeller Vektorraum. i.) Zeigen Sie, dass dann VC D V ˚V mit der üblichen abelschen Gruppenstruktur sowie mit C VC 3 .z; .v; w// 7! .Re.z/v Im.z/w; Im.z/v C Re.z/w/ 2 VC (4.137) als Multiplikation mit Skalaren zu einem komplexen Vektorraum wird. ii.) Sei B V eine Basis von V . Zeigen Sie, dass dann die Vektoren .b; 0/ 2 VC für b 2 B eine Basis von VC bilden. iii.) Interpretieren und rechtfertigen Sie die Schreibweise VC D V ˚ iV . iv.) Zeigen Sie, dass dimC VC D dimR V: (4.138) Übung 4.32 (Basis von Unterräumen). Betrachten Sie den reellen Vektorraum R3 sowie 80 1 9 80 1 0 1 0 19 4 = 1 < x1 ˇ = < 2 ˇ U1 D @x2 A ˇ x1 C x2 C x3 D 0 und U2 D span @ 3 A; @1A; @ 1 A : ; : ; : 7 3 1 x3 (4.139) i.) Zeigen Sie, dass U1 ein Unterraum von R3 ist. ii.) Bestimmen Sie die Dimensionen von U1 , U2 , U1 C U2 und U1 \ U2 . Ist die Summe U1 C U2 direkt? 128 4 Lineare Gleichungssysteme und Vektorräume Übung 4.33 (Affine Räume I). In Kap. 1 hatten wir den Anschauungsraum mit dem Vektorraum R3 identifiziert, nachdem wir einen Ursprung des Koordinatensystems gewählt hatten. Dieser ist sowohl aus physikalischer als auch aus mathematischer Sicht sehr willkürlich gewählt. Der Begriff des affinen Raums trägt dieser Situation nun Rechnung. Wir betrachten dazu allgemein eine Gruppenwirkung ˚W G M ! M (4.140) einer Gruppe G auf einer (nichtleeren) Menge M , siehe Übung 3.14. Die Wirkung heißt frei, falls alle Stabilisatorgruppen Gp für p 2 M trivial sind, also ˚g .p/ D p für ein p 2 M nur für g D e gelten kann. Die Wirkung heißt transitiv, wenn es zu je zwei Punkten p; q 2 M ein Gruppenelement g 2 G mit ˚g .p/ D q gibt. i.) Sei ˚W G M ! M eine freie und transitive Wirkung. Zeigen Sie, dass für jedes p 2 M die Abbildung ˚p W G 3 g 7! ˚g .p/ 2 M (4.141) eine Bijektion ist. Zeigen Sie weiter, dass diese Abbildung die kanonische Wirkung von G auf sich durch Linksmultiplikationen in die Wirkung ˚ auf M übersetzt. Man kann also M mit der Gruppe als Menge mit G-Wirkung identifizieren. Allerdings ist die Identifikation nicht kanonisch, da sie ja von der willkürlichen Wahl p abhängt. Ist nun V ein Vektorraum über einem Körper k, so heißt eine Menge A mit einer Gruppenwirkung der abelschen Gruppe .V; C/ ein affiner Raum über V , falls die Wirkung frei und transitiv ist. Wir schreiben die Wirkung von V auf A daher auch als ˚v .a/ D a C v für v 2 V und a 2 A. Nach Wahl eines Ursprungs o 2 A können wir A gemäß Teil i.) mit V identifizieren, sodass die Gruppenwirkung einfach die Addition in V wird. ii.) Zeigen Sie, dass folgende Definition zu einem affinen Raum äquivalent ist: A heißt affiner Raum über V , wenn es eine Abbildung, die Differenz, W A A ! V (4.142) gibt, welche für jedes a 2 A eine Bijektion a W A ! V liefert und a b D .b a/ und a c D .a b/ .b c/ für alle a; b; c 2 A erfüllt. Man beachte die unterschiedlichen Bedeutungen von in diesen Bedingungen. iii.) Zeigen Sie, dass jeder Vektorraum V ein affiner Raum über sich selbst ist. iv.) Betrachten Sie ein lineares Gleichungssystem wie in (4.1). Zeigen Sie, dass R R Los.A; b/ entweder leer oder ein affiner Raum über Los.A; 0/ ist. v.) Sei U V ein Unterraum und a 2 V fest gewählt. Zeigen Sie, dass die Menge 4.6 Übungen 129 ˇ ˚ aCU D aCuˇu2U (4.143) auf kanonische Weise (wie?) zu einem affinen Raum über U wird. Zeigen Sie, dass a CU D b CU genau dann, wenn a b 2 U gilt. Man nennt diese affinen Räume aus naheliegenden Gründen affine Unterräume von V . vi.) Interpretieren Sie nun unsere Begriffsbildungen und Ergebnisse zu Geraden und Ebenen aus Kap. 1 im Lichte dieser neuen Erkenntnisse. Übung 4.34 (Gemeinsames Komplement). Seien U1 ; U2 V Unterräume eines endlich-dimensionalen Vektorraums V über k. Zeigen Sie, dass U1 und U2 genau dann die gleiche Dimension haben, wenn es ein gemeinsames Komplement W V gibt, also U1 ˚ W D V D U2 ˚ W . Übung 4.35 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen falsche Aussagen richtig werden. i.) Es gibt einen Vektorraum V über Z2 mit 15 (mit 16) Elementen. ii.) Jede unendliche Teilmenge der Polynome kŒx enthält eine Basis. iii.) Sei A kŒx eine Teilmenge, sodass für jedes n 2 N0 ein Polynom pn 2 A mit Grad n existiert. Dann enthält A eine Basis von kŒx. iv.) T Es gibt einen Vektorraum V mit Unterräumen fUn gn2N derart, dass n2N Un D f0g, dass alle Unterräume isomorph zu V sind und dass UnC1 Un für alle n 2 N eine echte Inklusion ist. v.) Die Funktionen f1 ; f2 ; f3 2 Abb.R; R/ mit f1 .x/ D x, f2 .x/ D x C 1 und f3 .x/ D jxj sind linear unabhängig. vi.) Für Unterräume U1 ; U2 V gilt U1 [ U2 D U1 C U2 genau dann, wenn U1 U2 oder U2 U1 . vii.) Die direkte Summe von 3 zweidimensionalen Unterräumen mit paarweise trivialem Schnitt im R5 (im R6 ) ist immer direkt (nie direkt, kann direkt sein). viii.) Sind Ui V Unterräume mit i D 1; : : : ; k und gilt k > dim V , so ist U1 C C Uk nicht direkt. ix.) Die Unterraumsumme U1 C C Uk von zweidimensionalen Unterräumen U1 ; : : : ; Uk V mit Ui \ Uj D f0g für i ¤ j ist direkt, wenn 2k dim V . 5 Lineare Abbildungen und Matrizen Wie auch schon für Monoide, Gruppen, Ringe und Körper wollen wir nun auch für Vektorräume den richtigen Begriff von strukturerhaltender Abbildung etablieren. Das wird auf die linearen Abbildungen führen, die wir in diesem Kapitel eingehend studieren werden. Nach einigen ersten Eigenschaften und Beispielen werden wir lineare Abbildungen in Bezug auf gewählte Basen durch Matrizen beschreiben. Matrizen sind uns implizit bei der Formulierung des Gauß-Algorithmus bereits begegnet. In diesem Kapitel werden wir nun Matrizen genauer betrachten. Eine spezielle Variante der linearen Abbildungen sind die linearen Funktionale, welche den Dualraum eines Vektorraums bilden. Die Beziehungen von Vektorraum und seinem Dualraum werden von fundamentaler Bedeutung sein, und ihr Studium zieht sich als roter Faden durch viele weiterführende Bereiche der Mathematik. In diesem Kapitel ist k wieder ein fest gewählter Körper. 5.1 Definition und erste Beispiele Seien V und W Vektorräume über k. Dann sind .V; C/ und .W; C/ insbesondere abelsche Gruppen, und wir können daher von Gruppenmorphismen ˚W .V; C/ ! .W; C/ sprechen. Ist ˚W .V; C/ ! .W; C/ ein Gruppenmorphismus, so nennen wir ˚ auch additiv. Da aber ein Vektorraum noch eine weitere Struktur, nämlich die Multiplikation mit Skalaren, trägt, wollen wir auch eine Kompatibilität mit dieser erzielen. Die folgende Definition leistet das Gewünschte: Definition 5.1 (Lineare Abbildung). Seien V und W Vektorräume über k und ˚W V ! W eine Abbildung. Dann heißt ˚ linear, falls ˚ ein Gruppenmorphismus bezüglich der Addition in V und W ist und die Eigenschaft ˚. v/ D ˚.v/ © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_5 (5.1) 131 132 5 Lineare Abbildungen und Matrizen für alle 2 k und v 2 V erfüllt. Die Menge der linearen Abbildungen von V nach W bezeichnen wir mit ˇ ˚ Homk .V; W / D ˚W V ! W ˇ ˚ ist linear : (5.2) Ist der Bezug zum Körper k klar, so schreiben wir auch einfach Hom.V; W / anstelle von Homk .V; W /. Für lineare Abbildungen ist es weiterhin üblich, einfach ˚v D ˚.v/ (5.3) für die Anwendung der Abbildung ˚ auf den Vektor v 2 V zu schreiben. Alternativ bezeichnen wir lineare Abbildungen auch als lineare Operatoren oder auch kurz als Operatoren. Die Verwendung von großen lateinischen Buchstaben A, B, . . . anstelle von ˚, , . . . ist ebenfalls üblich. Die folgende leichte Umformulierung liefert ein einfaches Kriterium für die Linearität von Abbildungen. Proposition 5.2. Sei ˚W V ! W eine Abbildung zwischen Vektorräumen über k. Dann sind äquivalent: i.) Die Abbildung ˚ ist linear. ii.) Für alle v; u 2 V und ; 2 k gilt ˚.v C u/ D ˚.v/ C ˚.u/: (5.4) iii.) Für alle n 2 N und alle v1 ; : : : ; vn 2 V und 1 ; : : : ; n 2 k gilt ˚ n X kD1 ! k vk D n X k ˚.vk /: (5.5) kD1 Beweis. Offensichtlich gilt iii.) H) ii.). Die Implikation ii.) H) iii.) erhält man durch wiederholtes Anwenden von (5.4). Sei also ˚ linear und v; u 2 V und ; 2 k. Dann gilt ˚.v C u/ D ˚.v/ C ˚.u/ D ˚.v/ C ˚.u/; da ˚ ein Gruppenmorphismus bezüglich C ist und (5.1) gilt. Dies zeigt i.) H) ii.). Gelte umgekehrt ii.). Dann setzt man zunächst D 1 D und erhält ˚.v C u/ D ˚.v/ C ˚.u/; womit ˚ ein Gruppenmorphismus bezüglich C ist. Setzt man D 0, so folgt 5.1 Definition und erste Beispiele 133 ˚.v/ D ˚.v C 0 u/ D ˚.v/ C 0 ˚.u/ D ˚.v/; t u also (5.1). Bemerkung 5.3. Sei ˚W V ! W eine lineare Abbildung. Dann gilt für alle v 2 V ˚.v/ D ˚.v/ (5.6) ˚.0/ D 0: (5.7) sowie Dies folgt aus der Tatsache, dass ˚ ein Gruppenmorphismus bezüglich der Addition ist, siehe Proposition 3.22. Lineare Abbildungen verhalten sich gut bezüglich der Verkettung und Umkehrung. Dank der allgemeinen Proposition 3.3 ist dies für die Eigenschaften bezüglich C klar, für die Multiplikation mit Skalaren muss noch etwas gezeigt werden: Proposition 5.4. Seien ˚W V ! W und W W ! U lineare Abbildungen zwischen Vektorräumen V , U und W über k. i.) Die Hintereinanderausführung ı ˚W V ! U ist wieder linear. ii.) Die Identitätsabbildung idV W V ! V ist linear. iii.) Ist ˚ zudem bijektiv, so ist ˚ 1 W W ! V auch linear. Beweis. Nach Proposition 3.3 wissen wir bereits, dass ı ˚, id und im invertierbaren Fall auch ˚ 1 additiv sind. Sei also v 2 V und 2 k, dann gilt . ı ˚/.v/ D .˚.v// D .˚.v// D .˚.v// D . ı ˚/.v/ und somit i.). Für idV ist die Linearität klar. Ist ˚ nun invertierbar, und sei ˚ 1 W W ! V die zugehörige inverse Abbildung, so gilt für w D ˚.v/ 2 W und 2 k ˚ 1 .w/ D ˚ 1 .˚.v// D ˚ 1 .˚.v// D v D ˚ 1 .w/; da w D ˚.v/ mit v D ˚ 1 .w/. t u Bemerkung 5.5 (Isomorphie von Vektorräumen). Gemäß unserer allgemeinen Vorgehensweise nennen wir zwei Vektorräume V und W isomorph, wenn es einen Isomorphismus ˚W V ! W gibt, also eine invertierbare lineare Abbildung ˚. 134 5 Lineare Abbildungen und Matrizen In diesem Fall ist auch ˚ 1 W W ! V ein Isomorphismus, und wir erhalten eine Äquivalenzrelation. Eine wichtige Aufgabe wird also darin bestehen, Vektorräume über k bis auf Isomorphie zu klassifizieren. Wir kommen nun zu einigen ersten Beispielen für lineare Abbildungen: Beispiel 5.6 (Nullabbildung). Sind V und W Vektorräume über k, so ist die Abbildung 0W V 3 v 7! 0 2 W (5.8) eine lineare Abbildung, die Nullabbildung. Diese entspricht dem trivialen Gruppenmorphismus. Beispiel 5.7 (Auswertungsabbildung). Sei M eine nichtleere Menge. Für den Vektorraum Abb.M; k/ und einen Punkt p 2 M definiert man die Abbildung ıp W Abb.M; k/ 3 f 7! f .p/ 2 k: (5.9) Diese ist offenbar linear, da die Vektorraumstruktur von Abb.M; k/ gerade punktweise erklärt wurde. Man nennt sie die Auswertung oder auch die Evaluation bei p. Beispiel 5.8. Sei aE 2 R3 ein fest gewählter Vektor. Dann ist die Abbildung R3 3 vE 7! aE vE 2 R3 (5.10) eine lineare Abbildung. Diesen Sachverhalt haben wir in Proposition 1.15, i.), wenn auch noch nicht unter dieser Bezeichnung, gezeigt. Beispiel 5.9 (Limes). Wir betrachten den Vektorraum der reellen konvergenten Folgen c aus Beispiel 4.22. Dann ist limW c 3 .an /n2N 7! lim an 2 R n!1 (5.11) eine lineare Abbildung. Dies folgt aus den Rechenregeln für den Grenzwert von konvergenten Folgen. Beispiel 5.10 (Ableitung). Wir betrachten den Vektorraum der Polynome kŒx mit Koeffizienten in k. Dann definiert man (rein algebraisch, ohne Einsatz von Analysis) die Ableitung von p 2 kŒx durch p0 D d d pD .an x n C C a1 x C a0 / D nan x n1 C C 2a2 x C a1 dx dx (5.12) 5.1 Definition und erste Beispiele 135 d und erhält eine lineare Abbildung dx W kŒx ! kŒx. Alternativ kann man etwa die k-mal stetig differenzierbaren Funktionen C k .R; R/ von R nach R betrachten. Die üblichen Regeln aus der Analysis besagen dann, dass C k .R; R/ Abb.R; R/ ein Unterraum ist mit C k .R; R/ C ` .R; R/ (5.13) für alle k; ` 2 N0 mit k `. Dann ist die Ableitung d W C k .R; R/ ! C ` .R; R/ dx (5.14) eine lineare Abbildung, sofern k > `. Beispiel 5.11 (Integration). Wir betrachten den reellen Vektorraum der stetigen Funktionen C.Œa; b; R/ auf einem abgeschlossenen Intervall Œa; b R. Aus der Analysis ist bekannt, dass diese integrierbar sind (beispielsweise im RiemannSinne). Das Integral Z b W C.Œa; b; R/ 3 f 7! a Z b f .x/dx 2 R (5.15) a ist dann eine lineare Abbildung. Beispiel 5.12 (Koordinaten). Sei V ein Vektorraum und B V eine Basis. Für einen Vektor v 2 V betrachten wir die Koordinaten vb 2 k, welche durch X vb b (5.16) vD b2B eindeutig bestimmt sind, siehe Definition 4.42. Wir behaupten, dass die Koordinatenabbildungen V 3 v 7! vb 2 k (5.17) linear sind. Um dies zu sehen, betrachten wir also v; w 2 V und ; 2 k. Dann gilt X b2B .v C w/b b D v C w D X b2B vb b C X wb b D b2B X .vb C wb / b: b2B Da B eine Basis ist, sind die Entwicklungskoeffizienten eindeutig bestimmt. Es folgt daher für alle b 2 B .v C w/b D vb C wb ; 136 5 Lineare Abbildungen und Matrizen was die gewünschte Linearität von (5.17) ist. Man beachte, dass wie immer für ein festes v 2 V nur endlich viele Koeffizienten vb ungleich null sind. Kontrollfragen. Wieso ist die Verkettung von linearen Abbildungen linear? Was bedeutet Isomorphie von Vektorräumen? Was ist ein Auswertungsfunktional? Wieso sind die Koordinatenabbildungen linear? 5.2 Eigenschaften von linearen Abbildungen Wir wollen nun verschiedene erste Eigenschaften von linearen Abbildungen zusammentragen. Wir beginnen mit dem Kern und dem Bild einer linearen Abbildung. Die Definition des Kerns nimmt dabei auf die Eigenschaft einer linearen Abbildung, ein Gruppenmorphismus bezüglich „C“ zu sein, Bezug. Definition 5.13 (Kern und Bild). Sei ˚W V zwischen Vektorräumen über k. ! W eine lineare Abbildung i.) Der Kern von ˚ ist definiert als ˇ ˚ ker ˚ D v 2 V ˇ ˚.v/ D 0 : (5.18) ii.) Das Bild von ˚ ist definiert als ˇ ˚ im ˚ D w 2 W ˇ es existiert ein v 2 V mit w D ˚.v/ : (5.19) Mit anderen Worten, der Kern ker ˚ ist definiert wie im Beispiel 3.11, iii.), und verwendet daher nur die Monoidstruktur von V bezüglich der Addition. Die Definition des Bildes im ˚ ist sogar gänzlich allgemein und stimmt mit der rein mengentheoretischen Definition aus (B.64) überein. Proposition 5.14 (Kern und Bild). Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. i.) ii.) iii.) iv.) Der Kern ker ˚ V ist ein Untervektorraum von V . Es gilt genau dann ker ˚ D f0g, wenn ˚ injektiv ist. Das Bild im ˚ W ist ein Untervektorraum von W . Es gilt genau dann im ˚ D W , wenn ˚ surjektiv ist. Beweis. Wir wissen bereits nach Proposition 3.24, i.), dass ker ˚ eine Untergruppe der abelschen Gruppe .V; C/, also unter C abgeschlossen ist und 0 2 ker ˚ erfüllt. Sei also 2 k und v 2 ker ˚, dann gilt ˚. v/ D ˚.v/ D 0 D 0; 5.2 Eigenschaften von linearen Abbildungen 137 womit auch v 2 ker ˚. Dies ist aber bereits alles, was wir zeigen müssen, damit ker ˚ tatsächlich ein Unterraum wird. Die zweite Aussage gilt allgemein für Gruppenmorphismen. Da eine lineare Abbildung insbesondere ein Gruppenmorphismus bezüglich der Addition ist, können wir uns hierfür also auf Proposition 3.26 berufen. Sei nun w D ˚.v/ 2 im ˚ mit v 2 V und 2 k. Nach Proposition 3.24, ii.), wissen wir, dass im ˚ eine Untergruppe bezüglich der Addition ist. Weiter gilt ˚.v/ D ˚.v/ D w, was w 2 im ˚ zeigt. Damit ist im ˚ ein Unterraum von W . Der letzte Teil ist nach der Definition von Surjektivität klar. t u Wir betrachten nun die Menge aller linearen Abbildungen Hom.V; W /, die durch folgende Definition zu einem Vektorraum wird: Proposition 5.15 (Der Vektorraum Hom.V; W /). Seien V und W Vektorräume über k. Dann wird Hom.V; W / vermöge .˚ C /.v/ D ˚.v/ C .v/ (5.20) . ˚/.v/ D ˚.v/ (5.21) und ein Vektorraum über k, wobei ˚; 2 Hom.V; W / sowie v 2 V und 2 k. Beweis. Nach Beispiel 4.11 wissen wir, dass die Menge aller Abbildungen von einer Menge V in einen Vektorraum W selbst einen Vektorraum bildet, wenn man Addition und Multiplikation mit Skalaren punktweise erklärt. Was also zu zeigen ist, ist dass Hom.V; W / Abb.V; W / ein Untervektorraum ist. Nach Beispiel 5.6 wissen wir, dass die Nullabbildung 0 2 Abb.V; W / linear ist. Damit ist 0 2 Hom.V; W / und Hom.V; W / ¤ ;. Seien nun ˚; 2 Hom.V; W / und v; v 0 2 V sowie ; ; 0 2 k. Dann gilt .˚ C /.v C 0 v 0 / D ˚.v C 0 v/ C .v C 0 v 0 / .a/ D ˚.v/ C 0 ˚.v 0 / C .v/ C 0 .v 0 / D .˚.v/ C .v// C 0 .˚.v 0 / C .v 0 // D .˚ C /.v/ C 0 .˚ C /.v 0 / sowie . ˚/.v C 0 v 0 / D ˚.v C 0 v 0 / .a/ D .˚.v/ C 0 ˚.v 0 // D ˚.v/ C 0 ˚.v 0 / D . ˚/.v/ C 0 . ˚/.v 0 /; 138 5 Lineare Abbildungen und Matrizen wobei wir jeweils in (a) die Linearität von ˚ und beziehungsweise die von ˚ verwendet haben. Damit folgt nach Proposition 5.2, dass sowohl ˚ C als auch ˚ wieder lineare Abbildungen sind. Somit ist Hom.V; W / nicht leer und unter Addition und Multiplikation mit Skalaren abgeschlossen, also selbst ein Unterraum nach Proposition 4.17. t u Diese Vektorraumstruktur von Hom.V; W / verträgt sich gut mit der Hintereinanderausführung von Abbildungen. Nach Proposition 5.4, i.), wissen wir, dass ıW Hom.W; U / Hom.V; W / 3 . ; ˚/ 7! ı ˚ 2 Hom.V; U / (5.22) gilt, wobei V , W und U Vektorräume über k seien. Wir haben nun folgende Bilinearitätseigenschaften der Verkettung ı: Proposition 5.16. Seien V , W und U Vektorräume über k. Dann ist die Hintereinanderausführung ı von linearen Abbildungen in jedem Argument linear, d. h., für ˚; ˚ 0 2 Hom.V; W / und ; 0 2 Hom.W; U / sowie für ; 0 2 k gilt ı .˚ C 0 ˚ 0 / D . ı ˚/ C 0 . ı ˚ 0 / (5.23) . C 0 0 / ı ˚ D . ı ˚/ C 0 . 0 ı ˚/: (5.24) und Beweis. Um die Gleichheit von Abbildungen von V nach U zu zeigen, genügt es ganz allgemein, dass wir die Gleichheit der Werte in U für beliebige Punkte aus V zeigen. Sei also v 2 V , dann rechnen wir unter Verwendung der Definition und der Linearität der beteiligten Abbildungen nach, dass . ı .˚ C 0 ˚ 0 //.v/ D ..˚ C 0 ˚ 0 /.v// D .˚.v/ C 0 ˚ 0 .v// D .˚.v// C 0 .˚ 0 .v// D . ı ˚/.v/ C 0 . ı ˚ 0 /.v/ sowie .. C 0 0 / ı ˚/.v/ D . C 0 0 /.˚.v// D .˚.v// C 0 0 .˚.v// D . ı ˚/ C 0 . 0 ı ˚/.v/: Man mache sich im Detail klar, wo die Linearität von ˚ und verwendet wurde. t u 5.2 Eigenschaften von linearen Abbildungen 139 Nehmen wir nun die Resultate aus Propositions 5.4, 5.15 und 5.16 zusammen, so erhalten wir insbesondere folgendes Resultat: Korollar 5.17 (Der Ring End.V /). Sei V ein Vektorraum über k. Dann bilden die Endomorphismen End.V / bezüglich der Addition (5.20) und der Hintereinanderausführung ı einen Ring mit Einselement 1 D idV . Man beachte, dass die Verkettung von Abbildungen prinzipiell assoziativ ist, also insbesondere auch für lineare Abbildungen. Die vorerst letzten wichtigen Eigenschaften von linearen Abbildungen liegen im Zusammenspiel mit linear unabhängigen Teilmengen und Basen. Hier betrachten wir zunächst folgende Charakterisierung von Injektivität und Surjektivität: Proposition 5.18. Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. i.) Die Abbildung ˚ ist genau dann injektiv, wenn für n 2 N und für linear unabhängige Vektoren v1 ; : : : ; vn 2 V die Vektoren ˚.v1 /; : : : ; ˚.vn / 2 W auch linear unabhängig sind. ii.) Die Abbildung ˚ ist genau dann surjektiv, wenn für ein beliebiges Erzeugendensystem U V auch ˚.U / W ein Erzeugendensystem ist. Beweis. Sei ˚ mit der Eigenschaft gegeben, dass linear unabhängige Vektoren auf linear unabhängige Vektoren abgebildet werden. Ist V D f0g, so ist ˚ sicherlich injektiv. Ist V ¤ f0g, so ist für einen Vektor v 2 V n f0g die Menge fvg linear unabhängig, nach Voraussetzung also auch f˚.v/g linear unabhängig. Damit ist also ˚.v/ ¤ 0, und es folgt ker ˚ D f0g. Nach Proposition 5.14, ii.), ist dies genau dann der Fall, wenn ˚ injektiv ist. Sei umgekehrt ˚ injektiv und seien v1 ; : : : ; vn linear unabhängige Vektoren mit n 2 N. Seien nun 1 ; : : : ; n 2 k mit 1 ˚.v1 / C C ˚.vn / D 0 gegeben. Dann gilt aufgrund der Linearität auch ˚.1 v1 C C n vn / D 0; und nach Voraussetzung folgt 1 v1 C C n vn D 0. Dann liefert die lineare Unabhängigkeit der v1 ; : : : ; vn aber 1 D D n D 0, was die lineare Unabhängigkeit von ˚.v1 /; : : : ; ˚.vn / zeigt. Für den zweiten Teil sei U V ein Erzeugendensystem. Ist ˚ surjektiv und w 2 W , so gibt es ein v 2 V mit ˚.v/ D w. Für dieses v finden wir 1 ; : : : ; n 2 k und u1 ; : : : ; un 2 U mit v D 1 u1 C C n un : (5.25) 140 5 Lineare Abbildungen und Matrizen Dann gilt dank der Linearität von ˚ auch w D 1 ˚.u1 / C C n ˚.un /; (5.26) womit ˚.U / ein Erzeugendensystem ist. Ist umgekehrt ˚.U / ein Erzeugendensystem und w 2 W mit (5.26) gegeben, so gilt w D ˚.v/ mit v wie in (5.25). Daher ist ˚.V / D W . t u Proposition 5.19. Sei ˚W V ! W eine lineare Abbildung. Dann sind äquivalent: i.) ii.) iii.) iv.) Die Abbildung ˚ Die Abbildung ˚ Die Abbildung ˚ Die Abbildung ˚ ist bijektiv. ist ein Isomorphismus. bildet eine Basis von V bijektiv auf eine Basis von W ab. bildet jede Basis von V bijektiv auf eine Basis von W ab. Beweis. Die Äquivalenz von i.) und ii.) ist bereits in Bemerkung 5.5 ˇ diskutiert worden. Sei nun zunächst ˚ bijektiv und B V eine Basis. Dann ist ˚ ˇB W B ! ˚.B/ ebenfalls bijektiv. Nach Proposition 5.18, i.), ist ˚.B/ eine linear unabhängige Teilmenge, da B linear unabhängig ist. Da B ein Erzeugendensystem von V ist, ist auch ˚.B/ ein Erzeugendensystem von W nach Proposition 5.18, ii.). Dies zeigt die Implikationen i.)ˇ H) iii.) sowie i.) H) iv.). Sei nun also eine Basis B V gefunden, sodass ˚ ˇB W B ! ˚.B/ bijektiv ist und eine Basis ˚.B/ von W liefert. Nach Proposition 5.18, ii.), ist ˚ surjektiv. Für die Injektivität können wir nicht direkt mit Proposition 5.18, i.), argumentieren, da wir die Eigenschaft ja nur für eine spezielle Basis vorliegen haben, nicht aber für beliebige linear unabhängige Teilmengen. Sei also v 2 V ein Vektor mit ˚.v/ D 0. Wir schreiben vD X vb b b2B mit den eindeutig bestimmten Koordinaten vb 2 k von v wie üblich. Dann gilt aufgrund der Linearität von ˚ 0 D ˚.v/ D X vb ˚.b/: (5.27) b2B Da nun ˚W B ! ˚.B/ bijektiv ist, entspricht jedem b 0 D ˚.b/ 2 ˚.B/ genau ein b 2 B. Daher können wir (5.27) auch als 0 D ˚.v/ D X v˚ 1 .b 0 / b 0 b 0 2˚.B/ schreiben. Da nun ˚.B/ linear unabhängig ist, folgt v˚ 1 .b 0 / D 0 für alle b 0 2 ˚.B/ und damit vb D 0 für alle b 2 B. Also gilt v D 0. Dies zeigt aber, dass ˚ injektiv 5.2 Eigenschaften von linearen Abbildungen 141 ist und dass die Implikation iii.) H) i.) gilt. Die Implikation iv.) H) iii.) ist trivial, womit alle Äquivalenzen gezeigt sind. u t Bemerkung 5.20. Da wir Basen als linear unabhängige Teilmenge B V mit span B D V definiert hatten, ist hier etwas Vorsicht angebracht: Es genügt nicht zu sagen, dass Basen auf Basen abgebildet werden. Man betrachte beispielsweise die (lineare) Projektion x pr1 W R D R R 3 7 ! x2R y 2 (5.28) 2 auf den ersten Faktor, mit der Basis von R bestehend aus den beiden Vektoren 1 1 aD und b D . Dann gilt als Menge 0 1 pr1 .fa; bg/ D f1g; (5.29) und damit bildet pr1 diese Basis von R2 auf eine Basis von R ab, nämlich die aus dem einen Vektor 1 bestehende. Es muss also zusätzlich gesagt werden, dass die Abbildung bijektiv ist, was hier natürlich nicht der Fall ist. Bis jetzt ist noch nicht klar, dass es im Allgemeinen außer der Nullabbildung von V nach W überhaupt andere lineare Abbildungen gibt. Der folgende Satz garantiert nun die Existenz von vielen linearen Abbildungen: Satz 5.21 (Lineare Abbildungen und Basen). Seien V und W Vektorräume über k, und sei B V eine Basis von V . i.) Ist ˚W V ! W eine lineare Abbildung, so ist ˚ durch die Menge der Werte ˚.b/ für b 2 B bereits eindeutig bestimmt. ii.) Sei für jedes b 2 B ein Vektor ˚.b/ 2 W vorgegeben. Dann gibt es (genau) eine lineare Abbildung ˚W V ! W mit diesen Werten auf B. Beweis. Seien ˚; W V ! W zwei lineare Abbildungen mit ˚.b/ D .b/ für alle b 2 B. Ist v 2 V , so gibt es eindeutige Koordinaten vb 2 k von v bezüglich dieser Basis mit X vb b; (5.30) vD b2B wobei alle bis auf endlich viele vb verschwinden. Da dies eine endliche Summe ist, folgt aus der Linearität von ˚ und 142 ˚.v/ D ˚ 5 Lineare Abbildungen und Matrizen X b2B ! vb b D X vb ˚.b/ D b2B X vb .b/ D b2B X ! vb b D .v/; b2B und damit ˚ D . Seien nun Vektoren f˚.b/gb2B in W vorgegeben. Dann definieren wir für v wie in (5.30) den Wert X ˚.v/ D vb ˚.b/: (5.31) b2B Wir behaupten, dass dies eine lineare Abbildung ˚W V ! W liefert. Nach Beispiel 5.12 wissen wir, dass die Koordinaten v 7! vb lineare Abbildungen sind. Damit rechnen wir nach, dass für v; v 0 2 V und ; 0 2 k ˚.v C 0 v 0 / D X .v C 0 v 0 /b ˚.b/ b2B D X .vb C 0 vb0 / ˚.b/ b2B D X vb ˚.b/ C 0 b2B X vb0 ˚.b/ b2B 0 0 D ˚.v/ C ˚.v / gilt. Dies zeigt, dass ˚ tatsächlich linear ist. Offenbar nimmt ˚ wegen bD X ıbb 0 b 0 b 0 2B den vorgegebenen Wert ˚.b/ auf b 2 B an, was den zweiten Teil zeigt. t u Dieser Satz ist von fundamentaler Bedeutung, da er uns eine Fülle von linearen Abbildungen beschert, sobald wir eine Basis des Urbildraumes vorliegen haben. Da nach Korollar 4.47 jeder Vektorraum eine Basis besitzt, erhalten wir auf diese Weise viele lineare Abbildungen. Bemerkung 5.22. Wir können das Resultat auch folgendermaßen verstehen: Sei B V eine Basis, dann betrachten wir die Inklusionsabbildung W B ! V . Ist nun W B ! W irgendeine Abbildung, so lässt sich diese auf eindeutige Weise zu einer linearen Abbildung ˚W V ! W fortsetzen, sodass ˚ ıD gilt. Man arrangiert diese Abbildungen nun in einem Diagramm (5.32) 5.2 Eigenschaften von linearen Abbildungen 143 V W (5.33) i B und sagt, dass dieses kommutiert, also (5.32) gilt. Wir werden noch öfters kommutierende Diagramme von Abbildungen vorfinden, die durchaus auch eine etwas kompliziertere Geometrie als das obige Dreieck besitzen können. Korollar 5.23. Sei U V ein Untervektorraum von V und W U ! W eine lineare Abbildung. Dann existiert eine lineare Abbildung ˚W V ! W mit ˇ ˚ ˇU D : (5.34) Beweis. Sei B1 U eine Basis von U , welche wir zu einer Basis B D B1 [ B2 von V ergänzen. Dies ist nach Satz 4.46 immer möglich. Die lineare Abbildung ist ˇ durch ˇB1 nach Satz 5.21, i.), eindeutig bestimmt. Wir definieren nun eine lineare Abbildung ˚ mittels Satz 5.21, ii.), auf eindeutige Weise, indem wir ˚ durch ˇ ˇ ˚ ˇB1 D ˇB1 und ˇ ˚ ˇB2 D 0 t u festlegen. Während linear unabhängige Vektoren unter einer nicht injektiven linearen Abbildung durchaus auf linear abhängige Vektoren abgebildet werden können, verhält sich das Urbild hier einfacher: Lemma 5.24. Sei ˚W V ! W eine lineare Abbildung und sei B im ˚ eine linear unabhängige Teilmenge. Sei für jedes b 2 B ein Vektor v.b/ 2 V mit ˚.v.b// D b ausgewählt. Dann ist die Menge fv.b/ j b 2 Bg V ebenfalls linear unabhängig. Beweis. Seien n 2 N sowie 1 ; : : : ; n 2 k und paarweise verschiedene v.b1 /; : : : ; v.bn / mit b1 ; : : : ; bn 2 B vorgegeben. Dann sind auch die Vektoren b1 ; : : : ; bn paarweise verschieden, da zu jedem b 2 B ein v.b/ 2 V ausgewählt wurde. Gilt 1 v.b1 / C C n v.bn / D 0, so gilt auch 0 D ˚.1 v.b1 / C C n v.bn // D 1 ˚.v.b1 // C C n ˚.v.bn // D 1 b1 C C n bn ; womit 1 D D n D 0 folgt, weil B linear unabhängig ist. t u 144 5 Lineare Abbildungen und Matrizen Satz 5.25 (Dimensionsformel für Kern und Bild). Sei ˚W V ! W eine lineare Abbildung, und sei V endlich-dimensional. Dann sind ker ˚ V und im ˚ W ebenfalls endlich-dimensional, und es gilt dim V D dim ker ˚ C dim im ˚: (5.35) Beweis. Wir wählen eine Basis B1 ker ˚ des Unterraums ker ˚ sowie eine Basis BQ 2 im ˚ des Bildes. Mit Lemma 5.24 sehen wir, dass eine Auswahl von Urbildern der Elemente in BQ 2 eine linear unabhängige Teilmenge von V liefert. Insbesondere folgt, dass es nicht mehr als dim V -viele solche Urbilder und damit dim V -viele Elemente in BQ 2 geben kann. Dies zeigt dim im ˚ dim V < 1: Seien also w1 ; : : : ; wn 2 BQ 2 die endlich vielen paarweise verschiedenen Elemente von BQ 2 und seien v1 ; : : : ; vn entsprechende Urbilder dieser, also ˚.vk / D wk für k D 1; : : : ; n: Wir setzen nun B2 D fv1 ; : : : ; vn g V . Seien weiter u1 ; : : : ; um 2 B1 die paarweise verschiedenen Basisvektoren von ker ˚. Da wk ¤ 0 für alle k D 1; : : : ; n, folgt vk 62 ker ˚ ebenso wie u` 62 B2 für alle ` D 1; : : : ; m. Daher gilt B1 \ B2 D ;. Wir behaupten, dass B D B1 [ B2 eine Basis von V ist, damit folgt offenbar (5.35). Seien also 1 ; : : : ; m und 1 ; : : : ; n 2 k mit 1 u1 C C m um C 1 v1 C C n vn D 0 (5.36) gegeben. Anwenden von ˚ liefert dann 1 ˚.u1 / C C m ˚.um / C1 w1 C C n wn D 0 „ƒ‚… „ƒ‚… D0 D0 und daher 1 D D n D 0, da die w1 ; : : : ; wn eine linear unabhängige Teilmenge bilden. Nach (5.36) liefert dies 1 u1 C C m um D 0 und damit 1 D D m D 0, da auch die u1 ; : : : ; um linear unabhängig sind. Es folgt, dass B linear unabhängig ist. Sei weiter v 2 V . Dann gibt es 1 ; : : : ; n mit ˚.v/ D 1 w1 C C n wn ; 5.2 Eigenschaften von linearen Abbildungen 145 da die Vektoren w1 ; : : : ; wn das Bild aufspannen. Mit ˚.vk / D wk folgt daher, dass ˚.v 1 v1 n vn / D ˚.v/ 1 w1 n wn D 0; womit v 1 v1 n vn 2 ker ˚. Da die Vektoren u1 ; : : : ; um den Kern von ˚ aufspannen, gibt es 1 ; : : : ; m 2 k mit v 1 v1 n vn D 1 u1 C C m um : Dies liefert aber v 2 span B und damit span B D V . Also ist B eine Basis. t u Definition 5.26 (Rang). Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. Dann heißt rank ˚ D dim im ˚ (5.37) der Rang von ˚. Die Dimensionsformel besagt also für einen endlich-dimensionalen Vektorraum V dim V D dim ker ˚ C rank ˚: (5.38) Anschaulich gesagt, liefert dies eine quantitative Formulierung der Vorstellung, dass je weniger Vektoren in W ankommen, desto mehr Vektoren von ˚ geschluckt werden. Korollar 5.27. Seien V und W endlich-dimensionale Vektorräume über k mit dim V D dim W . Dann sind für eine lineare Abbildung ˚W V ! W äquivalent: i.) Die Abbildung ˚ ist bijektiv. ii.) Die Abbildung ˚ ist injektiv. iii.) Die Abbildung ˚ ist surjektiv. Beweis. Es gilt offenbar i.) H) ii.) und i.) H) iii.). Sei also ˚ injektiv. Nach Satz 5.25 und Proposition 5.14, ii.), gilt daher dim V D dim im ˚ D dim W . Daher ist aber im ˚ D W , also ˚ surjektiv. Es folgt ii.) H) iii.). Sei umgekehrt ˚ surjektiv, also im ˚ D W . Dann gilt entsprechend dim V D dim ker ˚ C dim W D dim ker ˚ C dim V und daher dim ker ˚ D 0. Also ist ker ˚ D f0g und ˚ injektiv. Dies zeigt iii.) H) ii.). Da ii.) und iii.) zusammen gerade i.) bedeutet, haben wir alles gezeigt. t u Man beachte, dass diese Eigenschaft nur unter der Voraussetzung der gleichen und endlichen Dimension der beteiligten Vektorräume gilt. In unendlichen Dimensionen und auch bei unterschiedlicher Dimension gilt die Äquivalenz nicht mehr, siehe auch Übung 5.11. 146 5 Lineare Abbildungen und Matrizen Kontrollfragen. Welche Eigenschaften hat der Kern einer linearen Abbildung? Wieso bilden die linearen Abbildungen Hom.V; W / selbst einen Vektorraum? Wann bildet eine lineare Abbildung linear unabhängige Vektoren auf linear unabhängige Vektoren ab? Wodurch können Sie eine lineare Abbildung eindeutig spezifizieren? Was besagt die Dimensionsformel für den Rang? 5.3 Klassifikation von Vektorräumen In diesem kurzen Abschnitt wollen wir als erste Anwendung der erzielten Ergebnisse die Vektorräume über k klassifizieren. Dies geschieht einfach durch die Mächtigkeit ihrer Basen, also durch die Dimension. Satz 5.28 (Isomorphie von Vektorräumen). Zwei Vektorräume über k sind genau dann isomorph, wenn sie gleiche Dimensionen besitzen. Beweis. Wir erinnern daran, dass dies im unendlich-dimensionalen Fall bedeutet, dass es eine Bijektion zwischen einer Basis des einen Vektorraums und einer Basis des anderen gibt. Sei also ˚W V ! W ein Isomorphismus und B V eine Basis. Wir behaupten, dass dann auch ˚.B/ eine Basis von W ist. Dies ist nach Proposition 5.19 tatsächlich der Fall. Da ˚ insbesondere injektiv ist, erhalten wir also eine injektive Abbildung ˇ ˚ ˇB W B ! ˚.B/ ˇ auf das Bild ˚.B/. Damit ist D ˚ ˇB aber eine Bijektion zwischen B und der Basis ˚.B/. Sei umgekehrt W B1 ! B2 eine Bijektion von einer Basis B1 V auf eine Basis B2 W . Nach Satz 5.21, ii.), gibt es eine lineare Abbildung ˚W V ! W mit ˇ ˚ ˇB1 D : Da nach Konstruktion ˚ die Basis B1 bijektiv auf die Basis B2 abbildet, ist ˚ nach Proposition 5.19 ein Isomorphismus. Dies zeigt die andere Richtung. t u Korollar 5.29. Sei n 2 N0 . Ein Vektorraum V ist genau dann isomorph zu kn , wenn dim V D n. Korollar 5.30. Seien n; m 2 N0 . Die Vektorräume kn und km sind genau dann isomorph, wenn n D m gilt. Vektorräume besitzen also eine bemerkenswert einfache Klassifikation: Allein die Dimension entscheidet, ob zwei k-Vektorräume isomorph sind. 5.3 Klassifikation von Vektorräumen 147 Beispiel 5.31. Sei k ein Körper. i.) Es gilt C Š R2 als reelle Vektorräume. ii.) Seien xkŒx kŒx diejenigen Polynome, welche keinen konstanten Term besitzen. Dann gilt als Vektorräume über k die Isomorphie xkŒx Š kŒx: (5.39) kŒx 3 p 7! .x 7! xp.x// 2 xkŒx (5.40) Die lineare Abbildung ist ein expliziter Isomorphismus. In unendlichen Dimensionen kann es also passieren, dass ein Vektorraum zu einem echten Teilraum isomorph ist. iii.) Der Vektorraum Abb0 .M; k/ hat eine Basis der Mächtigkeit von M , siehe Beispiel 4.41, ii.), sowie Übung 4.4, iii.), für eine kleine Verallgemeinerung. Also gilt, dass ein beliebiger k-Vektorraum zu Abb0 .B; k/ isomorph ist, wenn B V eine Basis von V ist. Umgekehrt zeigt dies auch, dass es zu jeder Menge B einen Vektorraum gibt, dessen Dimension gerade die Mächtigkeit von B ist. Da wir in Abb0 .B; k/ die kanonische Basis der Vektoren fep gp2B über ep $ p sogar direkt mit B identifizieren können, können wir zu jeder Menge B einen Vektorraum angeben, der B als Basis besitzt. Wir wollen diese Klassifikation nun noch etwas genauer betrachten und dazu verwenden, die Koordinaten eines Vektors wie in Definition 4.42 als Isomorphismus zu verstehen: Dies liefert einen expliziten Isomorphismus, der die Isomorphie im Beispiel 5.31, iii.), realisiert. Proposition 5.32 (Koordinaten). Sei V ein Vektorraum über k und B V eine Basis von V . Dann ist die Abbildung V 3 v 7! B Œv D .vb /b2B 2 kB (5.41) linear, wobei vb 2 k die Koordinaten von v bezüglich der Basis B sind, also durch vD X vb b (5.42) b2B bestimmt sind. Diese Abbildung induziert einen linearen Isomorphismus V 3 v 7! B Œv D .vb /b2B 2 k.B/ ; (5.43) wobei wir k.B/ kB wie zuvor für die direkte Summe von B Kopien von k schreiben. Das Inverse von (5.43) ist durch 148 5 Lineare Abbildungen und Matrizen X k.B/ 3 .vb /b2B 7! vb b 2 V (5.44) b2B gegeben. Beweis. Dass die Entwicklungskoeffizienten vb von v bezüglich der Basis B linear von v abhängen, haben wir in Beispiel 5.12 gezeigt. Damit ist (5.41) insgesamt linear. Da die Entwicklungskoeffizienten eindeutig sind, ist (5.41) injektiv: Dies folgt auch direkt aus der Definition der linearen Unabhängigkeit und Proposition 5.14, ii.). Da für jedes v 2 V alle bis auf endlich viele vb verschwinden, ist das Bild von (5.41) in der direkten Summe k.B/ enthalten. Ist umgekehrt .vb /b2B 2 k.B/ ein beliebiger Vektor in der direkten Summe, so ist (5.44) eine endliche P und daher wohldefinierte Linearkombination in V . Offenbar ist der Vektor v D b2B vb b ein Urbild von .vb /b2B , was zum einen die Surjektivität von (5.43) zeigt, zum anderen ist (5.44) die Umkehrabbildung zu (5.43). t u Um die Schreibweise nun noch etwas weiter zu vereinfachen, wollen wir im Falle einer endlichen Basis B die Basisvektoren durchnummerieren. Wir betrachten also eine durch f1; : : : ; ng indizierte Basis B D fbi giD1;:::;n und nennen das geordnete n-Tupel .b1 ; : : : ; bn / eine geordnete Basis. Dies erlaubt es nun, die Koordinaten von v 2 V ebenfalls zu nummerieren. Wir können also v1 D vb1 ; :::; vn D vbn (5.45) schreiben und erhalten dann einen Isomorphismus 0 1 v1 B :: C n V 3v ! 7 B Œb D @ : A 2 k (5.46) vn mit Inversem 0 1 v1 n X B :: C n k 3@:A ! vi bi 2 V: 7 (5.47) iD1 vn Man beachte, dass allein die Angabe der Menge B D fb1 ; : : : ; bn g nicht ausreicht, die Bedeutung der Zahlen v1 ; : : : ; vn zu bestimmen. Im allgemeinen Fall müssen wir also die Koeffizienten durch die Basisvektoren selbst kennzeichnen. Für (5.46) gilt also insbesondere B Œbi D ei (5.48) für alle i D 1; : : : ; n, wobei e1 ; : : : ; en 2 kn die Standardbasis von kn bezeichnet. 5.4 Basisdarstellung und Matrizen 149 Kontrollfragen. Wodurch werden Vektorräume klassifiziert? Welche Rolle spielt k.B/ im Gegensatz zu kB ? 5.4 Basisdarstellung und Matrizen Im zentralen Satz 5.21 haben wir gesehen, dass lineare Abbildungen durch ihre Werte auf einer Basis eindeutig bestimmt sind und dass diese Werte beliebig vorgegeben werden können. Weiter lassen sich Vektoren nach Proposition 4.37 beziehungsweise (4.79) auf eindeutige Weise als Linearkombinationen von Basisvektoren schreiben. Auf diese Weise ist dann eine lineare Abbildung dadurch kodierbar, welche Linearkombination der Basisvektoren im Zielraum sie aus einer gegebenen Linearkombination im Urbildraum zusammenstellt. Dies ist nun die wesentliche Idee beim Zusammenhang von linearen Abbildungen und Matrizen, um den es in diesem Abschnitt gehen wird. Seien also V und W Vektorräume über k, und seien A V und B W Basen, deren Existenz nach Korollar 4.47 ja gesichert ist. Sei weiter ˚W V ! W (5.49) eine lineare Abbildung. Nach Satz 5.21 ist ˚ durch die Vektoren f˚.a/ga2A eindeutig festgelegt, und jede Wahl von Vektoren in W , die durch A indiziert werden, definiert genau eine lineare Abbildung. Da nun auch B eine Basis ist, können wir für festes a 2 A den Vektor ˚.a/ 2 W als Linearkombination ˚.a/ D X .˚.a//b b (5.50) b2B schreiben, wobei die Zahlen .˚.a//b 2 k die Koordinaten des Vektors ˚.a/ bezüglich der Basis B sind. Diese Zahlen B Œ˚.a/ D ..˚.a//b /b2B 2 k.B/ legen dann den Vektor ˚.a/ eindeutig fest, und jede solche Wahl eines B-Tupels von Zahlen in k.B/ definiert genau einen Vektor in W nach Proposition 5.32. Um die lineare Abbildung ˚ festzulegen, genügt es daher, die Zahlen f.˚.a//b gb2B;a2A zu kennen. Man beachte, dass für unendlich-dimensionale Vektorräume zwar unendlich viele Vektoren ˚.a/ ungleich null sein dürfen, aber für ein festes a 2 A nur endlich viele b 2 B mit .˚.a//b ¤ 0 existieren. Definition 5.33 (Matrix einer linearen Abbildung). Sei ˚W V ! W eine lineare Abbildung, und seien A V sowie B W Basen der Vektorräume V und W . Die Menge der Zahlen B Œ˚A D .˚.a//b a2A b2B (5.51) 150 5 Lineare Abbildungen und Matrizen nennt man die Matrix von ˚ bezüglich der Basen A und B. Alternativ nennt man diese Matrix die Basisdarstellung von ˚ bezüglich der Basen A und B. Wichtig ist natürlich, dass wir die Zahlen durch die Basisvektoren in A und B indiziert haben: Dies ist der entscheidende Teil der Information. Wir betrachten diese indizierte Menge von Zahlen nun als Element eines geeigneten großen kartesischen Produkts. Wir definieren hierzu k.B/A D .˚ba /b2B ˇ ˇ ˇ für alle a 2 A gibt es nur endlich viele b 2 B mit ˚ba ¤ 0 ˇ a2A (5.52) als diejenige Teilmenge von kBA aller B A-Tupel, welche als Matrix einer linearen Abbildung auftreten können. Man beachte, dass die genaue Anzahl, wie viele b 2 B es zu a 2 A mit ˚ba ¤ 0 gibt, im Allgemeinen von a abhängt. Lemma 5.34. Seien A und B Mengen. Dann ist k.B/A kBA ein (im allgemeinen echter) Unterraum, der den Unterraum k.BA/ enthält. Beweis. Da die Vektorraumstruktur des kartesischen Produkts kBA komponentenweise definiert ist, ist die Addition .˚ba /b2B C .ba /b2B D .˚ba C ba /b2B a2A a2A a2A sowie die Multiplikation mit Skalaren .˚ba /b2B D .˚ba /b2B a2A a2A mit der Endlichkeitsbedingung in der Definition von k.B/A/ verträglich. Hat eine Matrix .˚ba /b2B ohnehin insgesamt nur endlich viele von null verschiedene a2A Einträge, so ist sie sicherlich in k.B/A enthalten. Dies zeigt die zweite Behauptung. t u Definition 5.35 (Matrizen, I). Seien A und B Mengen, so nennen wir die Elemente des Vektorraums kBA Matrizen oder genauer B A-Matrizen. Im Falle unendlich-dimensionaler Vektorräume treten also nicht alle Matrizen auch als Matrizen von linearen Abbildungen auf, sondern eben nur diejenigen in k.B/A . Für endliche A und B ist dagegen k.B/A D kBA bereits das ganze kartesische Produkt. Unsere vorherige Diskussion mündet nun in folgender Aussage: 5.4 Basisdarstellung und Matrizen 151 Satz 5.36 (Lineare Abbildung in Basisdarstellung). Seien V , W und U Vektorräume über k, und seien A V , B W und C U Basen. i.) Die Abbildung 2 k.B/A (5.53) D 1AA 2 k.A/A ; (5.54) Homk .V; W / 3 ˚ 7! B Œ˚A ist ein linearer Isomorphismus. ii.) Für die Identitätsabbildung gilt Endk .V / 3 idV 7! A ŒidV A wobei 1AA D .ıaa0 /a;a0 2A : (5.55) iii.) Für die Verkettung von linearen Abbildungen ˚ 2 Hom.V; W / und 2 Hom.W; U / gilt C Œ ı ˚A D C Œ B B Œ˚A ; (5.56) wobei C Œ B B Œ˚A D X ! .b/c ˚.a/b : (5.57) a2A c2C b2B Beweis. Wir haben bereits gesehen, dass (5.53) eine Bijektion ist: Dies war im Wesentlichen eine Folge von Satz 5.21. Die Definition von k.B/A wurde gerade so arrangiert, dass in (5.53) die Surjektivität gewährleistet ist. Wir zeigen nun die Linearität. Seien also ; 0 2 k und ˚; ˚ 0 2 Hom.V; W / gegeben. Dann gilt B Œ˚ C 0 ˚ 0 A D D .˚ C 0 ˚ 0 /.a/ ˚.a/ C 0 ˚.a/ a2A b b2B a2A b b2B D .˚.a//b C 0 .˚ 0 .a//b a2A b2B D .˚.a//b a2A C 0 .˚ 0 .a//b a2A ; b2B b2B wobei wir zuerst die Definition der Vektorraumstruktur von Homk .V; W / und dann die Linearität der Koordinatenabbildung verwenden. Damit ist die Linearität von (5.53) gezeigt. Sei nun idV 2 Endk .V / die Identitätsabbildung. Dann gilt idV .a/ D a D X a0 2A ıaa0 a0 ; 152 5 Lineare Abbildungen und Matrizen wobei ıaa0 wie immer das Kronecker-Symbol bezeichnet. Daher ist .idV .a//a0 D ıaa0 ; was den zweiten Teil zeigt. Für den dritten Teil erinnern wir uns zunächst daran, dass ı ˚ 2 Hom.V; U / wieder linear ist. Dann gilt . ı ˚/.a/ D X b2B ! .˚.a//b b D X .˚.a//b .b/ D b2B X .˚.a//b b2B X . .b//c c; c2C wobei die Summe über B nur endlich viele Terme ungleich null enthält und die Summe über C bei festem b 2 B ebenfalls nur endlich viele Terme ungleich null enthält. Es gibt also für ein fest gewähltes a 2 A nur endlich viele b 2 B und daher auch nur endlichPviele c 2 C , sodass die Zahlen .˚.a//b . .b//c ungleich null sind. Damit ist auch b2B . .b//c .˚.a//b für festes a 2 A nur für endlich viele c 2 C ungleich null, und es folgt . ı ˚.a//c D X . .b//c .˚.a//b b2B durch Koeffizientenvergleich in der Basisdarstellung von . ı ˚/.a/ 2 U bezüglich der Basis C . Dies zeigt aber den dritten Teil. t u Inspiriert von Gl. (5.57) definiert man nun die Matrixmultiplikation wie folgt: Man beachte, dass wir die Matrixmultiplikation im Allgemeinen nicht für beliebige Matrizen definieren können, da wir sicherstellen müssen, dass die auftretenden Summen alle endlich sind: Definition 5.37 (Matrixmultiplikation). Seien A, B und C Mengen und seien ˚ 2 k.B/A sowie 2 kC B Matrizen. Dann definieren wir ihr Produkt ˚ 2 kC A durch ! X ˚ D cb ˚ba : (5.58) b2B a2A c2C Wie üblich schreiben wir oft auch einfach ˚ anstelle von ˚ für das Matrixprodukt von und ˚. Erste Eigenschaften des Matrixprodukts liefert nun folgende Proposition: Proposition 5.38. Seien A, B, C und D nichtleere Mengen. i.) Die Matrixmultiplikation ist eine wohldefinierte k-bilineare Abbildung W kC B k.B/A ! kC A : (5.59) 5.4 Basisdarstellung und Matrizen 153 Für 2 k.C /B und ˚ 2 k.B/A gilt sogar ˚ 2 k.C /A : (5.60) 1BB ˚ D ˚ D ˚ 1AA : (5.61) ii.) Für alle ˚ 2 k.B/A gilt iii.) Die Matrixmultiplikation ist assoziativ im Sinne, dass . / ˚ D . ˚/ (5.62) für ˚ 2 k.B/A , 2 k.C /B und 2 k.D/C gilt. Beweis. Zunächst bemerken wir, dass sich die Matrixmultiplikation wie in (5.57) auch auf solche Matrizen ausdehnen lässt, deren C -Indizes keine neuen Einschränkungen liefern. Die endliche Summation über die B-Indizes ist entscheidend, und diese wird durch ˚ 2 k.B/A bereits gewährleistet. Die Bilinearität ist klar, und auch (5.60) haben wir im Beweis von Satz 5.36 bereits gesehen. Für den zweiten Teil können wir einfach nachrechnen, dass ! X 1BB ˚ D ıbb 0 ˚b 0 a D .˚ba /a2A D ˚ b 0 2B a2A b2B b2B und genauso ˚ 1AA D ˚. Oder wir argumentieren mit Satz 5.36: Wir wissen, dass idW ı ˚ D ˚ für Vektorräume V , W und jede lineare Abbildung ˚W V ! W . Wir nehmen nun V D Abb0 .A; k/ und W D Abb0 .B; k/, also die Vektorräume, die als Basis gerade die Mengen A beziehungsweise B haben, siehe Beispiel 5.31, iii.). Für ˚ 2 Hom.V; W / nehmen wir diejenige lineare Abbildung, welche die vorgegebene Matrix B Œ˚A 2 k.B/A besitzt. Dann ist (5.61) klar aufgrund von idW ı ˚ D ˚ und B ŒidW ı˚ A D B ŒidW B B Œ˚ A D 1BB B Œ˚A nach Satz 5.36. Für die Assoziativität (5.62) argumentieren wir genauso: Die Eigenschaft (5.62) entspricht gerade der Assoziativität der Verkettung von linearen Abbildungen unter dem Isomorphismus (5.53) aus Satz 5.36. Alternativ lässt sich (5.62) auch elementar nachrechnen. t u Korollar 5.39. Sei V ein Vektorraum über k mit Basis B V . Dann gilt: i.) Bezüglich der komponentenweisen Addition und des Matrixprodukts ist k.B/B ein assoziativer Ring mit Einselement 1BB . ii.) Die Abbildung 154 5 Lineare Abbildungen und Matrizen Endk .V / 2 ˚ 7! B Œ˚B 2 k.B/B (5.63) ist ein einserhaltender Ringisomorphismus. Hier ist Endk .V / natürlich mit der Ringstruktur aus Korollar 5.17 versehen. Der Beweis ist klar nach Satz 5.36 sowie nach Proposition 5.38. Eine Basis A liefert einen Isomorphismus des Vektorraums V zum Vektorraum k.A/ gemäß Proposition 5.32. Zwei Basen A und B für V und W liefern einen Isomorphismus von Hom.V; W / zu k.B/A . Diese beiden Isomorphismen sind nun in folgendem Sinne kompatibel: Proposition 5.40. Seien A V und B W Basen der Vektorräume V und W über k. Dann gilt für alle v 2 V und ˚ 2 Hom.V; W / B Œ˚.v/ D B Œ˚ A A Œv; (5.64) wobei der Spaltenvektor auf der rechten Seite durch X .˚.a//b va B Œ˚ A A Œv D a2A ! (5.65) b2B gegeben ist. Beweis. Man beachte, dass (5.65) wieder eine Matrixmultiplikation der Matrix .B/A mit der „Matrix“ A Œv 2 k.A/ Š k.A/f1g ist. Die Rechnung B Œ˚ A 2 k zu (5.65) ist analog zum Beweis von Satz 5.36, iii.). Es gilt ! X X X X va a D va ˚.a/ D va ˚.a/b b; ˚.v/ D ˚ a2A a2A a2A b2B womit ˚.v/b D X va ˚.a/b a2A durch Koeffizientenvergleich folgt. Dies ist gerade (5.65). t u Bemerkung 5.41. Mit anderen Worten können wir also sagen, dass das Diagramm V W A[ · ] B (A) B[ ]A (B) [·] (5.66) 5.4 Basisdarstellung und Matrizen 155 kommutiert. Wir können daher die Wirkung von ˚ auf v vollständig durch die Wirkung der Matrix B Œ˚ A auf den Spaltenvektor A Œv der Koordinaten von v beschreiben. Dies stellt offenbar die entscheidende Brücke zwischen abstrakt gegebenen Vektorräumen und linearen Abbildungen einerseits sowie rechentechnisch einfacher zugänglichen und konkret gegebenen Matrizen und Spaltenvektoren andererseits dar. Die Aussage iii.) von Satz 5.36 können wir ebenfalls als ein kommutatives Diagramm ◦ Hom(W, U) × Hom(V, W) C[ · ]B Hom(V, U) × B [ · ]A (C)×B C [ · ]A × (B)×A (5.67) (C)×A · auffassen, was besagt, dass die Verkettung von Homomorphismen in die Matrixmultiplikation der zugehörigen Matrizen übersetzt wird. Die Wahl einer Basis für einen Vektorraum mag in konkreten Fällen wohlmotiviert sein, stellt aber doch eine gewisse Willkür dar. Im Allgemeinen gibt es schlichtweg keinen Grund, eine Basis einer anderen vorzuziehen. Wir wollen daher untersuchen, wie sich ein Wechsel der Basis mit den Koordinaten und Matrixdarstellungen von Vektoren und linearen Abbildungen verträgt. Korollar 5.42 (Koordinatenwechsel). Seien B; B 0 V Basen eines Vektorraums über k. Dann gilt für jeden Vektor v 2 V B 0 Œv D B 0 ŒidV B B Œv : (5.68) Beweis. Dies ist offenbar ein Spezialfall von Proposition 5.40 für V D W und ˚ D idV . t u Es muss also die Darstellung der Identitätsabbildung idV W V ! V bezüglich zweier verschiedener Basen gefunden werden. Die Einträge dieser Matrix .B 0 /B sind durch B 0 ŒidV B 2 k X bb 0 b 0 (5.69) bD b 0 2B 0 festgelegt, also B 0 Œidv B D .bb 0 /b 0 2B : (5.70) b2B Um diese zu bestimmen, müssen wir das lineare Gleichungssystem (5.69) für die Unbekannten bb 0 für b 0 2 B 0 lösen. Da B 0 eine Basis ist, gibt es tatsächlich eine 156 5 Lineare Abbildungen und Matrizen eindeutige Lösung für jedes vorgegebene b 2 B. Ausgeschrieben bedeutet die Gl. (5.68) dann einfach, dass der b 0 -te Koeffizient von v durch vb 0 D X bb 0 vb (5.71) b2B gegeben ist. Zur Überprüfung der Konsistenz betrachtet man X X b 0 2B ! vb bb 0 b 0 D b2B X vb X bb 0 b 0 D b 0 2B 0 b2B X vb b D v; (5.72) b2B sodass die Zahlen vb 0 gemäß (5.71) tatsächlich die Koordinaten von v bezüglich der Basis B 0 sind. Korollar 5.43 (Basiswechsel für Matrixdarstellung). Seien A; A0 V und B; B 0 W Basen der Vektorräume V und W über k. Sei weiter ˚ 2 Hom.V; W /. Dann gilt B 0 Œ˚A0 D B 0 ŒidW B B Œ˚A A ŒidV A0 : (5.73) Auch dies ist eine triviale Folgerung aus den zuvor erhaltenen Ergebnissen in Satz 5.36, iii.). Man beachte hier jedoch die unterschiedliche Weise, wie die alten und neuen Basen in V und W in (5.73) auftreten. Wieder lässt sich die Gl. (5.73) in Form eines kommutativen Diagramms schreiben, diesmal ist das Diagramm B[ (A) A[ · ] ]A V W B[ · ] A [idV ]A (B) B [idW ]B (A) A [·] V W [·] (5.74) (B ) B B [ ]A etwas aufwendiger, aber es kommutieren alle möglichen Wege in diesem Diagramm. Es ist sicherlich eine gute Übung, sich klarzumachen, warum welche Wege in diesem Diagramm wirklich kommutieren. Während die bisherigen Resultate alle für beliebige Vektorräume gültig sind, wollen wir uns nun auf den zwar speziellen, aber in der Praxis ungemein wichtigen Fall von endlich-dimensionalen Vektorräumen konzentrieren. Hier haben wir bereits gesehen, dass es sinnvoll ist, anstelle einer beliebigen endlichen Basis A V eine 5.4 Basisdarstellung und Matrizen 157 geordnete Basis .a1 ; : : : ; an / von V zu verwenden. Wir schreiben die Koordinaten A Œv eines Vektors v 2 V bezüglich einer geordneten Basis daher als Spaltenvektor 0 1 v1 B :: C n Œv D @:A2k A (5.75) vn und ebenso für w 2 W bezüglich einer geordneten Basis .b1 ; : : : ; bm / von W , also 0 1 w1 B :: C m (5.76) B Œw D @ : A 2 k : wm Hier sind n D dim V und m D dim W . Für die Matrix Abbildung wählen wir dann eine Rechteckschreibweise 1 0 ˚11 : : : ˚1n B : :: C; B Œ˚A D @ :: : A B Œ˚A einer linearen (5.77) ˚m1 : : : ˚mn wobei die Einträge durch ˚ij D ˚.aj /bi (5.78) mit i D 1; : : : ; m und j D 1; : : : ; n gegeben sind. Mit anderen Worten sind die Spalten der Matrix B Œ˚A gerade die Koordinaten der Bilder der Basisvektoren der Basis A unter ˚ bezüglich der Basis B. Die Matrixmultiplikation (5.57) aus Satz 5.36 beziehungsweise aus Definition 5.37 wird dann für D ˚ einfach 11 1m 11 i1 1j = k1 mj 1j 1 1n i1 ij in k1 kj k kn 1n im m1 11 mn km (5.79) mit dem .i; j /-ten Eintrag ij ij D . ˚/ij D m X kD1 ik ˚kj : (5.80) 158 5 Lineare Abbildungen und Matrizen Als Merkregel kann man einfach Zeile mal Spalte verwenden. Die Anwendung von ˚ auf einen Vektor erhält man ebenso als Zeile mal Spalte, 11 ( )1 ( )i ( )m 1n 1 i1 in m1 mn = , (5.81) n wobei nun jedoch nur eine Spalte vorhanden ist und der Eintrag .˚v/i durch .˚v/i D n X ˚ik vk (5.82) kD1 für alle i D 1; : : : ; m gegeben ist. Bemerkung 5.44. Es ist eine gute Übung und auch nicht ganz einfach, die Resultate von (5.57), (5.61), Korollar 5.39 und (5.65) direkt mit den Formeln (5.79) und (5.81) nachzurechnen. Auf diese Weise kann man einen expliziten und direkten Beweis der Eigenschaften der Matrixmultiplikation erbringen, siehe auch Übung 5.18. Definition 5.45 (Matrizen, II). Seien n; m 2 N. Dann bezeichnen wir den Vektorraum über k der .m n/-Matrizen mit Einträgen in k als Mmn .k/ D kmn : (5.83) Die n n-Matrizen bezeichnen wir einfach mit Mn .k/ D Mnn .k/: (5.84) Nach Korollar 5.17 wissen wir dass Mn .k/ ein Ring mit Eins 1nn bezüglich der Matrixmultiplikation (5.79) ist. Ist die Basis von V unendlich aber dennoch abzählbar, wie beispielsweise bei den Polynomen, so schreiben wir für B Œ˚ A trotzdem eine unendliche rechteckige Matrix wie in (5.77), natürlich immer unter der Berücksichtigung der Endlichkeitsbedingungen aus (5.52): In jeder Spalte sind nur endlich viele Einträge ungleich null, es dürfen aber in allen unendlich vielen Spalten nichttriviale Einträge auftreten. Wir geben nun einige Beispiele für die explizite Berechnung von Matrizen von linearen Abbildungen bezüglich gewählter Basen an: 5.4 Basisdarstellung und Matrizen 159 Beispiel 5.46. Sei ˚W k3 ! k3 das Kreuzprodukt mit einem fest gewählten Vektor E1; e E2; e E3/ aE 2 k3 wie in Beispiel 5.8. Als Basis wählen wir die Standardbasis B D .e und berechnen B Œ˚B . Dazu berechnen wir 1 0 E 1 D @ a3 A D a3 e E 2 a2 e E3; aE e a2 0 (5.85) und finden analog E 2 D a1 e E 3 a3 e E1 aE e und E 3 D a2 e E 1 a1 e E2: aE e (5.86) Ein einfacher Koeffizientenvergleich liefert dann die Matrix 0 1 0 a3 a2 @ a3 0 a1 A: B Œ˚B D a2 a1 0 (5.87) Beispiel 5.47. Wir betrachten die Polynome kŒx mit der üblichen Basis B D fpn .x/ D x n gn2N 0 der Monome. Als lineare Abbildung betrachten wir dann die Translation um 1, also die Abbildung T W kŒx ! kŒx mit .Tp/.x/ D p.x 1/: (5.88) Man beachte, dass p.x 1/ wieder ein Polynom vom gleichen Grad ist. Diese Abbildung ist offensichtlich linear in p. Es gilt nach dem Binomialsatz ! n X n k n (5.89) .Tpn /.x/ D .x 1/ D x .1/nk ; k kD0 womit der Koeffizient von Tpn bezüglich des Basisvektors pm durch ! n Tmn D .1/nm m (5.90) gegeben ist. Man beachte, dass mn D 0 für m > n. Die unendliche Matrix von T bezüglich der Basis der Monome ist daher 1 0 1 10 20 30 : : : B0 1 2 3 : : :C 1 B 13 C B0 0 : : :C 1 (5.91) ŒT D C: B 2 B B C B0 0 0 1 : : : A @ :: : : :: :: :: : : : : : 160 5 Lineare Abbildungen und Matrizen Hier ist nun gut zu sehen, dass (falls char k D 0) unendlich viele Einträge von B ŒTB von null verschieden, aber in jeder Spalte nur endlich viele Einträge ungleich null sind. Weiter sind in jeder Zeile durchaus unendlich viele Beiträge ungleich null. An diesem Beispiel sollte auch klar werden, dass die scheinbar explizitere und konkretere Beschreibung einer linearen Abbildung durch ihre zugehörige Matrix bezüglich einer Basis nicht unbedingt einfacher zu handhaben ist. So ist es durchaus eine nichttriviale Rechnung für die Matrix (5.91), das Quadrat B ŒTB B ŒTB im Sinne der Matrixmultiplikation zu bestimmen. Das Quadrat T 2 der Abbildung T aus (5.88) im Sinne der Verkettung ist natürlich ganz leicht zu erhalten: Es gilt nämlich .T 2 p/.x/ D p.x 2/: (5.92) Ebenso einfach erhält man die inverse Abbildung als .T 1 p/.x/ D p.x C 1/ (5.93) .T k p/.x/ D p.x k/: (5.94) und allgemein für k 2 Z Die zugehörigen Matrizen lassen sich von (5.94) aus einfach bestimmen, die konkrete Matrixpotenzierung ist dagegen sehr aufwendig. Ein Vergleich beider liefert aber interessante Relationen zwischen Binomialkoeffizienten, siehe auch Übung 5.20. Kontrollfragen. Wieso ist die Matrix einer linearen Abbildung ein Element von k.B/A anstelle von kBA , und wann spielt dieser Unterschied eine Rolle? Welche Eigenschaften hat die Matrixmultiplikation? Wie können Sie Matrizen auf Spaltenvektoren anwenden? Wie beschreiben Sie einen Koordinatenwechsel? 5.5 Spezielle Matrizen und Normalformen In diesem Abschnitt wollen wir für ein n 2 N die Matrizen Mn .k/ genauer betrachten. Bemerkung 5.48. Im Folgenden werden wir Matrizen A 2 Mnm .k/ direkt mit linearen Abbildungen AW km ! kn (5.95) identifizieren, da wir für kn und km ja eine ausgezeichnete Wahl der Basis vorliegen haben: die Standardbasen. Die Gl. (5.95), die zur Matrix A gehört, ist dann 5.5 Spezielle Matrizen und Normalformen 161 durch (5.81) gegeben. Wir schreiben die Abbildung km 3 x 7! A.x/ D Ax 2 kn auch ohne Klammern als 10 1 0 1 0 x1 a11 x1 C C a1m xm a11 : : : a1m C B :: :: CB :: C D B (5.96) Ax D @ ::: A: : : A@ : A @ an1 : : : anm xm an1 x1 C C anm xm Bemerkung 5.49 (Lineare Gleichungssysteme). Die Anwendung einer Matrix A 2 Mnm .k/ auf einen Spaltenvektor x 2 km liefert nun auch eine schöne Interpretation von linearen Gleichungssystemen: Ist b 2 kn und A 2 Mnm .k/, so ist die Gleichung Ax D b (5.97) ausgeschrieben gerade das vertraute lineare Gleichungssystem a11 x1 C C a1m xm D b1 :: : (5.98) an1 x1 C C anm xm D bn : Wir können daher (5.98) als das Problem interpretieren, für einen gegebenen Vektor b im Zielraum der Abbildung AW km ! kn ein Urbild x 2 km zu finden: Es gilt also ˇ ˚ R Los.A; b/ D x 2 km ˇ Ax D b D A1 .fbg/: (5.99) Zur Vorsicht sei hier nochmals daran erinnert, dass die Schreibweise A1 .fbg/ die Urbildmenge der Menge fbg bezeichnet und keineswegs die Invertierbarkeit der Abbildung A beinhaltet. Die Lösungen der homogenen Gleichung Ax D 0 (5.100) sind also nichts anderes als die Vektoren des Kerns der Abbildung AW km ! kn . Es gilt daher R Los.A; 0/ D ker A: (5.101) Bemerkung 5.50. Da wir Matrizen A 2 Mnm .k/ mit der zugehörigen Abbildung AW km ! kn identifizieren, können wir verschiedene Begriffe, die wir für lineare Abbildungen etabliert haben, auch für Matrizen verwenden. Wir sprechen also beispielsweise vom Kern einer Matrix als demjenigen Unterraum ker A km mit Ax D 0 für x 2 ker A und vom Bild einer Matrix als dem Unterraum im A kn der Vektoren y D Ax 2 kn mit einem x 2 km . Schließlich können wir auch vom Rang einer Matrix 162 5 Lineare Abbildungen und Matrizen rank A D dim im A (5.102) sprechen. Wir kommen nun zu einigen speziellen Bezeichnungen. Die Nullmatrix 0 2 Mnm .k/ ist die zur Nullabbildung 0W km ! kn gehörige Matrix. Sie hat bezüglich beliebiger Basen die Form 0 0 B :: 0 D @: 1 0 :: C: :A (5.103) 0 0 Die n n-Einheitsmatrix 1n 2 Mn .k/ ist die Matrix der Identitätsabbildung idW kn ! kn und durch n = 1 0 0 0 0 0 0 1 (5.104) gegeben. Oft schreiben wir einfach 1, wenn die Dimension n 2 N aus dem Zusammenhang klar ist. Da die Matrizen Mn .k/ einen Ring mit Einselement bilden, der zum Ring Endk .kn / gemäß Korollar 5.39 isomorph ist, können wir von invertierbaren Matrizen sprechen: Definition 5.51 (Allgemeine lineare Gruppe GLn .k/). Sei n 2 N und k ein Körper. Die Gruppe der invertierbaren Matrizen in Mn .k/ heißt allgemeine lineare Gruppe in n Dimensionen. Wir bezeichnen sie mit ˇ ˚ GLn .k/ D A 2 Mn .k/ ˇ A ist invertierbar : (5.105) Bemerkung 5.52. Nach Proposition 3.16 bilden die invertierbaren Elemente in einem Monoid eine Gruppe. In unserem Fall ist das Monoid einfach Mn .k/ mit der Matrixmultiplikation als Verknüpfung und der Einheitsmatrix 1 als neutralem Element. Damit ist GLn .k/ D Mn .k/ (5.106) tatsächlich eine Gruppe. Man beachte, dass GLn .k/ für n 2 nicht länger kommutativ ist. Für n D 1 gilt GL1 .k/ D k D k n f0g. Wir bezeichnen die Gruppe der invertierbaren Endomorphismen eines Vektorraums V auch mit GL.V / D End.V / . 5.5 Spezielle Matrizen und Normalformen 163 Beispiel 5.53. Wir betrachten n D 2 und folgende Matrizen AD 11 ; 01 BD 00 10 und C D 1 1 : 0 1 (5.107) Einfache Rechnungen zeigen 10 00 AB D ¤ D BA; 10 11 (5.108) B 2 D 0: (5.109) AC D 1 D CA und Bemerkenswert ist hier B 2 D 0, da wir ein Beispiel für einen Ring erhalten, in dem ein Produkt verschwindet, obwohl beide Faktoren ungleich null sind: M2 .k/ besitzt also Nullteiler. Weiter zeigt (5.108), dass M2 .k/ nicht kommutativ ist. Schließlich ist die Matrix C die zu A inverse Matrix C D A1 . Proposition 5.54. Sei n 2 N. Dann sind folgende Aussagen für A 2 Mn .k/ äquivalent: i.) ii.) iii.) iv.) v.) vi.) Die Matrix A ist invertierbar. Es gibt eine Matrix B 2 Mn .k/ mit BA D 1, d. h., A hat ein inksinverses. Es gibt eine Matrix C 2 Mn .k/ mit AC D 1, d. h., A hat ein Rechtsinverses. Es gilt ker A D f0g. Es gilt im A D kn . Es gilt rank A D n. Beweis. Zunächst kennen wir ganz allgemein die Implikationen i.) H) ii.), i.) H) iii.) und v.) ” vi.). Weiter bedeutet iv.) gerade, dass die Abbildung AW kn ! kn injektiv ist, wobei wir Proposition 5.14, iii.), verwenden. Eine Abbildung ist nun genau dann injektiv, wenn sie (bezüglich der Verkettung) ein Linksinverses besitzt, siehe auch Proposition B.25. Wieder auf Matrizen übertragen liefert dies die Implikation ii.) H) iv.). Genauso erhalten wir die Äquivalenz von v.) und der Surjektivität von A und daher die Implikation iii.) H) v.). Da wir in endlichen Dimensionen arbeiten, folgt aus der Dimensionsformel (5.35), siehe auch Korollar 5.27, die Äquivalenz von iv.), v.) und der Bijektivität der Abbildung AW kn ! kn . Da die inverse Abbildung aber automatisch wieder linear ist, entspricht der Abbildung A1 W kn ! kn wieder eine Matrix A1 2 Mn .k/, welche das Inverse zu A 2 Mn .k/ bezüglich der Matrixmultiplikation ist. Also folgt iv.) ” v.) H) i.). Auf diese Weise sind aber alle Implikationen gezeigt. t u 164 5 Lineare Abbildungen und Matrizen Insbesondere folgt aus BA D 1 also bereits B D A1 , obwohl GLn .k/ im Allgemeinen nicht kommutativ ist. Ebenso bedeutet AC D 1, dass C D A1 . Man beachte aber, dass dies nur für endliche Matrizen gültig ist. Als Vektorraum ist Mnm .k/ isomorph zu knm und damit nm-dimensional. Eine besonders einfache Basis von Mnm .k/ erhalten wir durch die Elementarmatrizen 0 E ij = ( ir js ) r =1,...,n s =1,...,m 0 1 i = , (5.110) j 0 0 wobei also eine 1 in der i -ten Zeile und der j -ten Spalte steht und sonst nur Nullen. Durch eine einfache Rechnung erhält man folgende Resultate: Proposition 5.55. Seien n, m und k 2 N. i.) Die Elementarmatrizen fEij g iD1;:::;n bilden eine Basis von Mnm .k/, und es j D1;:::;m gilt AD n X m X aij Eij (5.111) iD1 j D1 für A D .aij / iD1;:::;n 2 Mnm .k/. j D1;:::;m ii.) Für alle i 2 f1; : : : ; ng, j; r 2 f1; : : : ; mg und s 2 f1; : : : ; kg gilt Eij Ers D ıjr Eis : (5.112) Beweis. Die Gl. (5.111) ist klar, womit die Elementarmatrizen ein Erzeugendensystem bilden. Da dim Mnm .k/ D nm, ist dieses minimal, also eine Basis. Insbesondere ist (5.112) gerade die Koordinatendarstellung des Vektors A bezüglich der Basis fEij g iD1;:::;n . Die Gl. (5.112) erhält man durch explizites Multiplizieren j D1;:::;m der Matrizen, siehe auch Übung 5.6. t u Wie wir gesehen haben, können wir lineare Gleichungssysteme als Vektorgleichung der Form Ax D b für eine Matrix A 2 Mnm .k/ und einen Vektor b 2 kn schreiben. Es zeigt sich nun, dass die elementaren Umformungen aus Korollar 5.27 sich als Matrixmultiplikationen schreiben lassen: 5.5 Spezielle Matrizen und Normalformen 165 Lemma 5.56. Sei A 2 Mnm .k/ und i ¤ i 0 sowie 1 i i 1 i 0 1 1 Vii = i 1 1 ∈ Mn ( ), 0 (5.113) 1 1 wobei alle übrigen Einträge von Vi i 0 null sind. Dann ist Vi i 0 A 2 Mnm .k/ diejenigen Matrix, die man durch das Vertauschen der i -ten und i 0 -ten Zeile aus A erhält. Lemma 5.57. Sei A 2 Mnm .k/ und 1 i 1 i R i, = ∈ Mn ( ). 1 (5.114) 1 Dann ist Ri; A diejenige Matrix, die man durch Reskalieren der i -ten Zeile mit 2 k aus der Matrix A erhält. Lemma 5.58. Sei A 2 Mnm .k/ und i ¤ j sowie 1 i 1 Sij = = j + E ij ∈ Mn ( ). (5.115) 1 Damit ist Sij A diejenigen Matrix, die man durch Addition der j -ten Zeile zur i -ten aus A erhält. 166 5 Lineare Abbildungen und Matrizen Alle drei Lemmata erhält man durch elementares Nachrechnen, siehe auch Übung 5.22. Wenig überraschend ist nun folgende Aussage: Lemma 5.59. Sei ¤ 0 und i ¤ i 0 sowie i ¤ j . Dann gilt Vi i 0 Vi i 0 D 1; (5.116) Ri; Ri; 1 D 1 (5.117) Sij Rj;1 Sij Rj;1 D 1: (5.118) und Insbesondere sind alle Matrizen invertierbar, und die Inversen lassen sich als Produkte der Vi i 0 ; Ri; und Sij für geeignete Werte der Parameter schreiben. Beweis. Dies ist eine gute Übung in Matrixmultiplikation. Wir zeigen (5.118), die beiden übrigen Gleichungen sind einfacher. Zunächst gilt Sij Rj;1 D .1 C Eij /.1 2Ejj / D 1 C Eij 2Ejj 2Eij D 1 Eij 2Ejj nach (5.112). Weiter gilt .1 Eij 2Ejj /.1 Eij 2Ejj / D 1 Eij 2Ejj Eij Eij Eij C 2Eij Ejj 2Ejj C 2Ejj Eij C 4Ejj Ejj D 1 2Eij C 2Eij D 1; was die Behauptung (5.118) zeigt. Nach Proposition 5.54 genügt es, Rechtsinverse zu finden. t u Schließlich können wir die Matrix A auch von rechts mit den Matrizen Vi i 0 , Sij und Ri; multiplizieren. Hier muss man nun jedoch m m-Matrizen verwenden. Es zeigt sich, dass auf diese Weise gerade Spalten und Zeilen vertauscht werden, die obigen Lemmata aber dann sinngemäß nach wie vor richtig sind. Man kann dies nun einfach durch analoge Rechnungen beweisen, oder aber etwas geschickter vorgehen und gleichzeitig noch etwas Neues lernen: Definition 5.60 (Matrixtransposition). Sei A 2 Mnm .k/. Dann definiert man die transponierte Matrix AT 2 Mmn .k/ durch AT D .aj i /j D1;:::;m ; iD1;:::;n (5.119) 5.5 Spezielle Matrizen und Normalformen 167 wenn A D .aij / iD1;:::;n . j D1;:::;m Mit anderen Worten ist AT also gerade die an der Diagonale gespiegelte Matrix. Die Transposition vertauscht demnach die Bedeutung der Zeilen- und Spaltenindizes und erfüllt einige einfache Rechenregeln: Proposition 5.61 (Matrixtransposition). Seien A 2 Mnm .k/ und B 2 Mkn .k/. i.) Die Transposition ist ein linearer Isomorphismus T W Mnm .k/ 3 A 7! AT 2 Mmn .k/: (5.120) .BA/T D AT B T : (5.121) .AT /T D A: (5.122) ii.) Es gilt iii.) Es gilt iv.) Ist n D m und A 2 GLn .k/, so gilt AT 2 GLn .k/ und .AT /1 D .A1 /T : (5.123) Beweis. Der erste und dritte Teil ist klar. Für den zweiten Teil rechnen wir nach, dass .BA/T ij D .BA/j i D n X Bj k Aki D kD1 n X .AT /ik .B T /kj D .AT B T /ij ; kD1 also (5.121) gilt. Für den vierten Teil bemerken wir zunächst, dass 1T D 1. Ist nun A 2 GLn .k/, so gilt 1 D 1T D .AA1 /T D .A1 /T AT : Damit ist aber AT 2 GLn .k/ mit .A1 /T D .AT /1 . Wie immer bei endlichen Matrizen genügt es, ein einseitiges Inverses zu finden. t u Korollar 5.62. Sei A 2 Mnm .k/. i.) Für i ¤ i 0 und Vi i 0 2 Mm .k/ wie in (5.113) ist AVi i 0 , diejenige Matrix, die durch Vertauschen der i -ten und i 0 -ten Spalte aus A hervorgeht. 168 5 Lineare Abbildungen und Matrizen ii.) Für 2 k und Ri; 2 Mm .k/ wie in (5.114) ist ARi; diejenige Matrix, die aus A durch Reskalieren der i -ten Spalte mit hervorgeht. iii.) Für i ¤ j und Sij 2 Mm .k/ wie in (5.115) ist ASij diejenige Matrix, die durch Addition der i -ten Spalte zur j -ten Spalte aus A hervorgeht. Beweis. Zunächst ist klar, dass ViTi 0 D Vi i 0 ; T Ri; D Ri; und SijT D Sj i gilt. Weiter wird beim Transponieren gerade die Bedeutung von Zeile und Spalte vertauscht. Nun gilt beispielsweise AVi i 0 D .Vi i 0 T AT /T D .Vi i 0 AT /T ; womit der erste Teil folgt. Die beiden übrigen Teile folgen analog. t u Wir können nun die elementaren Umformungen dazu verwenden, die Matrix A auf eine besonders einfache Form zu bringen. Satz 5.63 (Normalform für Matrizen). Sei A 2 Mnm .k/. i.) Es gibt eine invertierbare Matrix Q 2 GLn .k/, sodass QA Zeilenstufenform besitzt. ii.) Es gibt invertierbare Matrizen Q 2 GLn .k/ und P 2 GLm .k/, so dass QAP die Blockstruktur 1k 0 QAP D (5.124) 0 0 besitzt, wobei k D rank A. iii.) Jede invertierbare n n-Matrix lässt sich als endliches Produkt von n nMatrizen der Form Vi i 0 ; Sij und Ri; mit i ¤ i 0 , i ¤ j und ¤ 0 schreiben. Beweis. Der erste Teil ist gerade der Gauß-Algorithmus: Durch elementare Umformungen vom Zeilentyp (I), (II) und (III) wie in Abschn. 3.1 können wir A auf Zeilenstufenform bringen. Nach den vorherigen Lemmata entspricht dies gerade der Linksmultiplikation mit einem geeigneten Produkt Q der invertierbaren n n-Matrizen vom Typ Vi i 0 , Sij und Ri; . Dieses Q ist dann als Produkt von invertierbaren Matrizen aber immer noch invertierbar. Auf diese Weise erhält man also eine n m-Matrix der Form 5.5 Spezielle Matrizen und Normalformen 0 0 0 169 1 0 s1 QA = 1 , s2 sn 0 0 1 wobei im Falle von sk D 1 die entsprechende k-te Zeile nur Nullen enthält und alle folgenden ebenfalls. In einem zweiten Schritt verwenden wir Spaltenumformungen: Zuerst addieren wir entsprechende Vielfache der sn -ten Spalte zu den Spalten sn C 1; : : : ; m, um nun in der untersten Zeile 0 0 1 0 0 zu erreichen. Dies ist durch entsprechende Rechtsmultiplikationen von Sij und Ri; mit ¤ 0 und i D sn zu erreichen, sofern sn < 1. Im Fall sn D 1 ignorieren wir die n-te Zeile, da diese bereits nur Nullen enthält. Anschließend verfährt man von unten Zeile um Zeile genauso, bis man 0 0 QAP = 0 1 s1 0 0 0 1 0 0 , s2 0 sn 0 1 0 0 erhält. Wieder gilt, dass sk D 1 bedeutet, dass die k-te und alle folgenden Zeilen bereits mit Nullen gefüllt sind. Ein abschließendes Multiplizieren mit geeigneten Vi i 0 von rechts vertauscht die Spalten, bis das resultierende QAP dann tatsächlich die Form (5.124) besitzt. Dieser zweite Schritt entspricht dem rekursiven Auflösen des zugehörigen linearen Gleichungssystems. Es bleibt zu zeigen, dass k D rank A: Dazu bemerken wir zunächst k D rank QAP . Wir betrachten nun den Unterraum im A kn , der durch 170 5 Lineare Abbildungen und Matrizen im A D spanfAe1 ; : : : ; Aem g gegeben ist. Aus diesem Erzeugendensystem können wir ` D rank A D dim im A viele linear unabhängige Vektoren Aei1 ; : : : Aei` auswählen, die dann eine Basis von im A liefert. Dann sind aber die Vektoren QAei1 ; : : : ; QAei` nach wie vor linear unabhängig, da Q ein Isomorphismus ist. Es folgt rank QA rank A: Wir können dieses Argument aber auch auf QA anstelle von A und Q1 anstelle von Q anwenden, sodass dann rank A D rank Q1 .QA/ rank QA gilt. Es folgt also rank A D rank QA für ein beliebiges Q 2 GLn .k/. Ist P 2 GLm .k/, so besitzt jeder Vektor v 2 km ein Urbild P 1 v 2 km . Daher folgt im A D im AP und entsprechend rank A D rank AP . Insgesamt folgt also ` D rank A D rank QAP D k; womit der zweite Teil gezeigt ist. Sei nun n D m und A 2 GLn .k/. Dann gibt es nach dem zweiten Teil Q; P 2 GLn .k/, welche Produkte der Matrizen vom Typ Vi i 0 , Sij , und Ri; mit ¤ 0 sind, sodass QAP die Form (5.124) besitzt. Da A invertierbar ist, gilt rank A D n und entsprechend QAP D 1. Also ist A D Q1 P 1 wieder ein Produkt der Vi i 0 , Sij und Ri; . t u Im Falle einer invertierbaren Matrix A liefert der Beweis insbesondere eine konstruktive Methode, das Inverse A1 D PQ zu finden, da ja sowohl P als auch Q durch den Gauß-Algorithmus und das rekursive Auflösen gefunden werden können, siehe auch Übung 5.9. Im Laufe des Beweises hatten wir noch folgende Rechenregel für den Rang einer Matrix gefunden: Korollar 5.64. Sei A 2 Mnm .k/, Q 2 GLn .k/ und P 2 GLm .k/. Dann gilt rank A D rank QAP: (5.125) Mit der Normalform erhält man auch leicht folgendes Resultat: Korollar 5.65. Sei A 2 Mnm .k/. Dann gilt rank A D rank AT : (5.126) 5.5 Spezielle Matrizen und Normalformen 171 Beweis. Gemäß Satz 5.63 finden wir Q 2 GLn .k/ und P 2 GLm .k/, sodass QAP D 1k 0 0 0 mit k D rank A gilt. Nach den Rechenregeln für das Transponieren folgt dann P T AT QT D .QAP /T D T T T 1k 0 1k 0 : D 0T 0T 0 0 Somit erhalten wir rank.P T AT QT / D k. Man beachte, dass sich die Größe der 0Blöcke durch das Transponieren geändert hat: P T AT QT ist ja eine m n-Matrix. Da nach Proposition 5.61, iv.), die Matrizen P T und QT nach wie vor invertierbar sind, liefert Korollar 5.64 sofort rank AT D k. t u Bemerkung 5.66. Die Aussage rank A D rank AT wird auch oft als Zeilenrang ist gleich Spaltenrang formuliert. Wie wir gesehen haben, ist rank A D dim im A gerade die maximale Anzahl von linear unabhängigen Vektoren unter den Spaltenvektoren Ae1 ; : : : Aem , welche gerade die Spalten von A bilden. Daher bezeichnet man rank A auch als den Spaltenrang. Transponieren vertauscht dann die Rolle von Zeilen und Spalten. Bei der effektiven Berechnung von rank A ist es gelegentlich durchaus von Vorteil, von (5.126) Gebrauch zu machen. Definition 5.67 (Äquivalenz von Matrizen). Seien A; B 2 Mnm .k/. Dann heißen A und B äquivalent, falls es Q 2 GLn .k/ und P 2 GLm .k/ gibt, sodass A D QBP: (5.127) In diesem Fall schreiben wir A B. Bemerkung 5.68. Da Q und P invertierbar sein müssen, ist es leicht zu sehen, dass der obige Begriff von Äquivalenz tatsächlich eine Äquivalenzrelation auf der Menge Mnm .k/ liefert. Satz 5.63 und Korollar 5.64 besagen dann, dass A; B 2 Mnm .k/ genau dann äquivalent sind, wenn sie denselben Rang k besitzen. In diesem Fall sind sie äquivalent zu ihrer Normalform 1k 0 B: A 0 0 (5.128) Wir wollen nun einen etwas anderen Blickwinkel zur Äquivalenz von Matrizen einnehmen und einen zweiten Beweis von Satz 5.63 erbringen, der die Geometrie des Problems etwas besser beschreibt. Zudem wird der Beweis auch in beliebigen Dimensionen gültig sein. 172 5 Lineare Abbildungen und Matrizen Satz 5.69 (Normalform für lineare Abbildungen). Sei ˚W V ! W eine lineare Abbildung. Dann existieren Basen A V und B W mit folgenden Eigenschaften: i.) ii.) iii.) iv.) A D A1 [ A2 mit A1 \ A2 D ;. B D B1 [ B2 mit B1 \ B2 D ;. A2ˇ ist eine Basis von ker ˚. ˚ ˇA1 W A1 ! B1 ist eine Bijektion, und daher ist B1 eine Basis von im ˚, Beweis. Zunächst wählen wir eine Basis A2 von ker ˚ und eine Basis B1 von im ˚. Zu jedem Vektor in B1 wählen wir ein Urbild in V aus, dies liefert die Menge A1 . Damit haben wir iv.) sowie iii.) sichergestellt. Wir können nun die Argumentation von Satz 5.25 direkt übernehmen, um zu sehen, dass A1 \ A2 D ; und dass A D A1 [A2 eine Basis von V ist. In diesem Sinne gilt also die „Dimensionsformel“ auch in unendlichen Dimensionen. Der Grund, dass dies möglich ist, liegt darin, dass wir immer nur endliche Linearkombinationen benötigen, auch wenn wir eventuell insgesamt unendlich viele Basisvektoren haben können. Damit ist also auch i.) erreicht, und A ist eine Basis. Schließlich ergänzen wir B1 durch B2 zu einer Basis B von W , womit auch ii.) erfüllt ist. t u Bemerkung 5.70 (Smith-Normalform). Wir wollen nun sehen, dass dies tatsächlich gerade die Normalform aus Satz 5.63 ist: Da A1 und B1 in Bijektion sind, können wir sie durch dieselbe Indexmenge K indizieren, sodass ˚.ak / D bk für alle k 2 K. Den Rest A2 indizieren wir dann durch eine Indexmenge I und B2 durch J . Die resultierende .K [ J / .K [ I /-Matrix von ˚ ist dann 1KK 0KI ; (5.129) Œ˚ D B A 0J K 0J I also gerade von der Form (5.124), wenn K, I und J endlich sind. Die Matrizen Q und P in Satz 5.63 spielen also die Rolle von Basiswechseln B ŒidW B 0 und A0 ŒidV A von zunächst ungeeigneten Basen A0 , B 0 zu den spezielleren Basen A, B mit den obigen Eigenschaften. Diese Normalform (5.129) beziehungsweise (5.124) nennt man auch die Smith-Normalform. Kontrollfragen. Was ist die allgemeine lineare Gruppe? Wie können Sie die elementaren Umformungen mithilfe von Matrixmultiplikationen schreiben? Welche Eigenschaften hat die Matrixtransposition? Wie können Sie die Smith-Normalform einer Matrix bestimmen? 5.6 Dualraum Ist V ein Vektorraum über k, so erhalten wir automatisch neue Vektorräume wie etwa die Endomorphismen Endk .V /. Eine weitere kanonische Konstruktion ist der Dualraum: 5.6 Dualraum 173 Definition 5.71 (Dualraum). Sei V ein Vektorraum über k. Dann heißt der Vektorraum V D Homk .V; k/ (5.130) der Dualraum von V . Elemente in V heißen auch Linearformen auf V oder lineare Funktionale auf V . Wir haben bereits verschiedene Beispiele für lineare Funktionale gesehen, die wir nun kurz wieder aufgreifen: Beispiel 5.72 (Lineare Funktionale). Folgende lineare Abbildungen ıp W Abb.M; k/ 3 f 7! f .p/ 2 k; (5.131) limW c ! R (5.132) und Z W C.Œa; b; R/ ! R (5.133) aus den Beispielen 5.7, 5.9 und 5.11 sind lineare Funktionale. Sei nun B V eine Basis. In Proposition 5.32 haben wir gesehen, dass die Koordinatenabbildung V 3 v 7! B Œv D .vb /b2B 2 k.B/ (5.134) linear ist (sogar ein Isomorphismus), da jede einzelne Koordinate b W V 3 v 7! vb 2 k (5.135) ein lineares Funktional ist. Satz 5.73 (Basis und Koordinatenfunktionale). Sei V ein Vektorraum über k und sei B V eine Basis. i.) Für jedes b 2 B ist b W V ! k ein lineares Funktional. ii.) Die Menge B D fb gb2B ist linear unabhängig. iii.) Die Menge B ist genau dann eine Basis von V , wenn dim V < 1. Beweis. Teil i.) wurde in Proposition 5.32 bereits gezeigt. Seien n 2 N und b1 ; : : : ; bn paarweise verschieden sowie 1 ; : : : ; n 2 k, sodass 174 5 Lineare Abbildungen und Matrizen 1 b1 C C n bn D 0: (5.136) Sind nun b; b 0 2 B, dann gilt b .b 0 / D ıbb 0 : Dies haben wir bereits mehrfach gesehen, so etwa im Beweis von Satz 5.36, ii.). Wir können daher (5.136) auf dem Basisvektor bi auswerten und erhalten 0 D .1 b1 C C n bn /.bi / D 1 b1 .bi / C C n bn .bi / D i ; da nur bi ein nichttriviales Resultat auf bi liefert. Also folgt ii.). Sei schließlich V zunächst endlich-dimensional und B D .b1 ; : : : ; bn / eine geordnete Basis. Ist ˛W V ! k ein lineares Funktional, so ist ˛ durch die n Zahlen ˛.b1 /; : : : ; ˛.bn / bereits eindeutig bestimmt. Dies folgt allgemein aus Satz 5.21 und gilt auch in beliebigen Dimensionen. Wir betrachten nun das lineare Funktional ˛Q D ˛.b1 /b1 C C ˛.bn /bn 2 V : Einsetzen von bi in ˛Q liefert sofort ˛.b Q i / D ˛.bi /; wonach die Eindeutigkeitsaussage von Satz 5.21 zeigt, dass ˛ D ˛. Q Daher gilt V D spanfb1 ; : : : ; bn g und B ist eine Basis. Ist V unendlich-dimensional, so lässt sich das eindeutig bestimmte lineare Funktional W V ! k mit .b/ D 1 für alle b 2 B nicht als endliche Linearkombination der b ’s schreiben. t u Korollar 5.74. Sei V ein endlich-dimensionaler Vektorraum über k. Dann gilt dim V D dim V : (5.137) Definition 5.75 (Duale Basis). Sei V ein n-dimensionaler Vektorraum über k, und sei B D .b1 ; : : : ; bn / eine geordnete Basis. Die Basis B D .b1 ; : : : ; bn / heißt dann die zu B duale Basis. Man beachte, dass das lineare Funktional b für b 2 B nur deshalb definiert werden kann, weil B als Basis in Gänze vorliegt. Einem einzelnen Vektor b 2 V nf0g könnte man auf viele Weisen ein b 2 V mit b .b/ D 1 zuordnen, erst die zusätzliche Forderung b .b 0 / D 0 für alle übrigen Basisvektoren b 0 2 B n fbg legt b eindeutig fest. 5.6 Dualraum 175 Wir betrachten nun eine lineare Abbildung ˚W V ! W zwischen Vektorräumen über k. Für ein lineares Funktional ˛ 2 W auf W ist die Verkettung ˚ ˛ D ˛ ı ˚W V ! k (5.138) ebenfalls eine lineare Abbildung, also ein lineares Funktional ˚ ˛ 2 V . Definition 5.76 (Duale Abbildung). Sei ˚W V ! W eine lineare Abbildung. Die Abbildung ˚ W W ! V (5.139) mit ˚ ˛ D ˛ ı ˚ für ˛ 2 W heißt die duale Abbildung zu ˚. Ebenfalls gebräuchlich ist der Begriff transponierte Abbildung oder pull-back mit ˚. Wir haben folgende einfache Eigenschaften der dualen Abbildung: Proposition 5.77. Seien V , W und U Vektorräume über k. i.) Für ˚ 2 Hom.V; W / gilt ˚ 2 Hom.W ; V /. ii.) Das Dualisieren ist eine injektive lineare Abbildung W Hom.V; W / 3 ˚ 7! ˚ 2 Hom.W ; V /: (5.140) iii.) Es gilt .idV / D idV : (5.141) iv.) Für ˚ 2 Hom.V; W / und 2 Hom.W; U / gilt . ı ˚/ D ˚ ı : (5.142) Beweis. Wie wir bereits gesehen haben, ist ˚ ˛ 2 V für ˛ 2 W . Es bleibt zu zeigen, dass auch die Zuordnung ˚ W ˛ 7! ˚ ˛ linear ist. Sei dazu ˛; ˇ 2 W und ; 2 k vorgegeben. Dann gilt gemäß Proposition 5.16 ˚ .˛ C ˇ/ D .˛ C ˇ/ ı ˚ D .˛ ı ˚/ C .ˇ ı ˚/ D ˚ ˛ C ˚ ˇ nach den Bilinearitätseigenschaften der Verkettung von linearen Abbildungen. Dies zeigt den ersten Teil. Für den zweiten können wir ebenfalls mit Proposition 5.16 argumentieren, da für ˚; ˚ 0 2 Hom.V; W / und ; 0 2 k .˚ C 0 ˚ 0 / ˛ D ˛ ı .˚ C 0 ˚ 0 / D .˛ ı ˚/ C 0 .˛ ı ˚ 0 / D ˚ ˛ C 0 .˚ 0 / ˛ 176 5 Lineare Abbildungen und Matrizen für alle ˛ 2 W gilt. Dies ist gerade die Linearität von (5.140). Sei nun ˚ D 0, also ˚ ˛ D ˛ ı ˚ D 0 für alle ˛ 2 W . Ist nun v 2 V derart, dass ˚.v/ ¤ 0, so gibt es ein lineares Funktional ˛ 2 W mit ˛.˚.v// D 1. Um dies zu sehen, betrachten wir beispielsweise den eindimensionalen Unterraum U D spanf˚.v/g mit der Basis f˚.v/g. Dort definieren wir ˛ eindeutig durch die Vorgabe ˛.˚.v// D 1. Dann können wir ˛ zu einem linearen Funktional auf ganz W mittels Korollar 5.23 fortsetzen. Dies widerspricht aber ˚ ˛ D 0 für alle ˛, und daher muss ˚.v/ D 0 für alle v 2 V gelten. Also war ˚ D 0, und wir sehen ˚ D 0 ” ˚ D 0. Dies ist die Injektivität von (5.140). Der dritte Teil ist klar. Für den vierten Teil rechnen wir nach, dass . ı˚/ ˇ D ˇ ı. ı˚/ D .ˇ ı /ı˚ D . ˇ/ı˚ D ˚ . ˇ/ D .˚ ı /.ˇ/ für alle ˇ 2 U gilt. t u Den Dualraum V eines Vektorraums V können wir erneut dualisieren und erhalten somit den Doppeldualraum V . Im Prinzip lässt sich dies weiter fortführen, und man erhält somit Dualräume von Dualräumen etc. Im endlich-dimensionalen Fall bricht dieses Dualisieren jedoch im folgenden Sinne ab: Proposition 5.78 (Doppeldualraum). Sei V ein Vektorraum über k. i.) Für jedes v 2 V ist .v/W V 3 ˛ 7! .v/.˛/ D ˛.v/ 2 k (5.143) ein lineares Funktional auf V . ii.) Die Abbildung W V 3 v 7! .v/ 2 V (5.144) ist linear und injektiv. iii.) Die Abbildung ist natürlich im Sinne, dass für jedes ˚ 2 Hom.V; W / das Diagramm V iV V (5.145) W iW W kommutiert. iv.) Die Abbildung ist genau dann ein Isomorphismus, wenn V endlich-dimensional ist. 5.6 Dualraum 177 Beweis. Seien ˛; ˇ 2 V und ; 2 k. Dann gilt .v/.˛ C ˇ/ D .˛ C ˇ/.v/ D ˛.v/ C ˇ.v/ D .v/.˛/ C .v/.ˇ/; womit die Linearität von .v/ und damit .v/ 2 V gezeigt ist. Da v 7! ˛.v/ in v linear ist, folgt auch die Linearität von (5.144) sofort. Sei nun v 2 V mit .v/ D 0. Zu v ¤ 0 finden wir immer ein ˛ 2 V mit ˛.v/ D .v/.˛/ ¤ 0. Daher folgt aus .v/ D 0 auch v D 0, was die Injektivität von (5.144) zeigt. Sei ˚ 2 Hom.V; W /, also ˚ 2 Hom.W ; V / und entsprechend ˚ 2 Hom.V ; W /, womit die Richtung der Pfeile in (5.145) geklärt ist. Sei weiter v 2 V und ˛ 2 W , dann gilt .˚ V .v//.˛/ D V .v/.˚ ˛/ D .˚ ˛/.v/ D ˛.˚.v// D .W .˚.v///.˛/; was den dritten Teil zeigt. Sei schließlich V endlich-dimensional. Dann wissen wir nach Korollar 5.74 dim V D dim V D dim V : Demnach ist die injektive lineare Abbildung nach Korollar 5.27 auch surjektiv, also insgesamt bijektiv. Sei umgekehrt V unendlich-dimensional und B V eine Basis. Sei weiter B V gemäß Satz 5.73. Da B linear unabhängig ist, können wir B zu einer Basis B [ A von V ergänzen. Da B noch keine Basis gewesen ist, ist A ¤ ;. Wir betrachten nun ein lineares Funktional W V ! k mit .˛/ D 1 für alle ˛ 2 A und .b / D 0 für alle b 2 B . Wie üblich können wir durch diese Vorgaben auf einer Basis ein eindeutig bestimmtes lineares Funktional 2 V definieren. Wir behaupten, dass 62 im . Ist nämlich v 2 V , dann gilt .v/.b / D b .v/ D vb : Gäbe es nun v 2 V mit .v/ D , so müsste also vb D 0 für alle b 2 B gelten. Dies bedeutet aber v D 0, also auch .v/ D 0. Da aber nach Konstruktion nicht das Nullfunktional auf V ist, kann dies nicht der Fall sein. Also ist nicht surjektiv. t u Lemma 5.79. Sei B V eine Basis eines endlich-dimensionalen Vektorraums über k. Dann gilt .b/ D b für alle b 2 B. (5.146) 178 5 Lineare Abbildungen und Matrizen Beweis. Da V endlich-dimensional ist, ist B wieder eine Basis, die wir nochmals dualisieren können, und so eine Basis B von V erhalten. Sei also b 2 B und ˛ 2 V . Dann können wir ˛ D ˛1 b1 C C ˛n bn mit ˛1 ; : : : ; ˛n 2 k und n D dim V schreiben. Es gilt bk .˛/ D ˛k D ˛.bk / D .bk /.˛/, womit .bk / D bk gezeigt ist. t u Wir schließen diesen Abschnitt nun mit einer expliziten Berechnung der Matrix der dualen Abbildung ˚ in der endlich-dimensionalen Situation. Proposition 5.80. Seien V und W endlich-dimensionale Vektorräume über k, und sei ˚W V ! W linear. Sind A D .a1 ; : : : ; am / und B D .b1 ; : : : ; bn / geordnete Basen von V und W , so gilt A Œ˚ Beweis. Schreiben wir Matrix B Œ˚ A B Œ˚ A B D . B Œ˚A /T : (5.147) D .˚ij / iD1;:::;n , so ist der .i; j /-te Eintrag der j D1;:::;m durch ˚ij D bi .˚.aj // gegeben, da das lineare Funktional bi gerade den i -ten Entwicklungskoeffizienten bezüglich der geordneten Basis .b1 ; : : : ; bn / liefert. Wenden wir dies nun auf die Abbildung ˚ W W ! V an, so erhalten wir die Matrix A Œ˚ B D .˚ j i /j D1;:::;m mit iD1;:::;n .˚ /j i D aj .˚ .bi // D .aj /.˚ .bi // D ˚ .bi /.aj / D bi .˚.aj // nach der Definition von ˚ und Lemma 5.79. Damit gilt also .˚ /j i D ˚ij , wie behauptet. t u Diese Proposition erklärt zum einen den Namen transponierte Abbildung für ˚ , da die zugehörige Matrix gerade die transponierte Matrix von ˚ ist, wenn man die dualen Basen verwendet. Zum anderen erklärt diese Proposition die Rechenregeln für die Matrixtransposition aus Proposition 5.61. Dies sind gerade die Rechenregeln für das Dualisieren aus Proposition 5.77. Kontrollfragen. Wieso ist der Dualraum selbst wieder ein Vektorraum? Wieso sind die Koordinatenfunktionale bezüglich einer Basis linear unabhängig? Welche Eigenschaften hat das Dualisieren von linearen Abbildungen? Wie kann man den Vektorraum in seinen Doppeldualraum einbetten und in welchem Sinne ist dies natürlich? 5.7 Übungen 5.7 179 Übungen Übung 5.1 (Additive Abbildungen). Eine Abbildung W R ! R heißt additiv, falls .x C y/ D .x/ C .y/ für alle x; y 2 R gilt. Zeigen Sie, dass genau dann additiv ist, wenn linear bezüglich der Q-Vektorraumstruktur von R ist. Wie viele additive Abbildungen gibt es? Übung 5.2 (Komplexe Konjugation in Cn ). Betrachten Sie den komplexen Vektorraum Cn mit n 2 N. Definieren Sie die komplexe Konjugation Cn 3 v 7! v 2 Cn komponentenweise. i.) Zeigen Sie, dass die komplexe Konjugation reell linear, aber nicht komplex linear ist. ii.) Zeigen Sie, dass die komplexe Konjugation involutiv ist. iii.) Seien v1 ; : : : vk 2 Cn paarweise verschiedene Vektoren. Zeigen Sie, dass diese genau dann linear unabhängig sind, wenn die Vektoren v 1 ; : : : ; v k linear unabhängig sind. Übung 5.3 (Ableitung von Polynomen). Sei R ein assoziativer, aber nicht notwendigerweise kommutativer Ring. Für ein Polynom p 2 RŒx mit p.x/ D an x n C C a1 x C a0 definiert man die Ableitung p 0 2 RŒx durch p 0 .x/ D nan x n1 C .n 1/an1 x n1 C C 2a2 x C a1 ; (5.148) wobei n D deg.p/ und an ; : : : ; a0 2 R. Die Vielfachen kak sind dabei wie immer im Sinne von Übung 3.15 definiert. i.) Zeigen Sie, dass die Ableitung eine additive Abbildung RŒx 3 p 7! p 0 2 RŒx (5.149) liefert. Ist die Ableitung auch ein Ringmorphismus? Eine alternative SchreibD p0. weisen ist auch dp dx ii.) Zeigen Sie, dass die Ableitung die Leibniz-Regel .pq/0 D p 0 q C q 0 p (5.150) für p; q 2 RŒx erfüllt. iii.) Folgern Sie, dass die Ableitung von Polynomen mit Koeffizienten in einem Körper k eine lineare Abbildung bezüglich der üblichen Vektorraumstruktur der Polynome kŒx ist. iv.) Sei nun k ein Körper der Charakteristik null. Definieren Sie dann die Abbildung 180 5 Lineare Abbildungen und Matrizen I W kŒx 3 p 7! I .p/ 2 kŒx (5.151) durch I .an x n C C a1 x C a0 / D 1 1 an x nC1 C C a1 x 2 C a0 x: nC1 2 (5.152) Zeigen Sie, dass I ebenfalls eine lineare Abbildung ist. v.) Bestimmen Sie .I .p//0 und I .p 0 / für p 2 kŒx. vi.) Bestimmen Sie das Bild und den Kern der Ableitung von Polynomen mit Koeffizienten in einem Körper k der Charakteristik null. vii.) Betrachten Sie nun den Fall, dass char.k/ D p ¤ 0. Bestimmen Sie auch in diesem Fall den Kern der Ableitung. viii.) Erweitern Sie Ihre obigen Definitionen und Ergebnisse von den Polynomen zu formalen Potenzreihen RŒŒx beziehungsweise kŒŒx. Übung 5.4Q(Projektionen und Inklusionen). Seien fVi gi2I Vektorräume über k und V D i2I Vi ihr kartesisches Produkt. i.) Zeigen Sie, dass die kanonische Projektion pri W V ! Vi , welche v auf die i -te Komponente von v abbildet, eine lineare Abbildung ist. ii.) Zeigen Sie, dass die kanonische Inklusion i W Vi ! V mit ( .i .vi //j D vi falls j D i 0 sonst (5.153) eine lineare Abbildung ist. iii.) Bestimmen Sie pri ı j und i ı pri für alle i; j 2 I . Übung 5.5 (Der Kommutator). Betrachten Sie einen Vektorraum V über k. Definieren Sie den Kommutator ŒA; B D AB BA (5.154) für A; B 2 End.V / als Maß für die Nichtkommutativität der beiden Endomorphismen A; B 2 End.V /. i.) Finden Sie ein Beispiel dafür, dass End.V / bezüglich der Hintereinanderausführung von Endomorphismen im Allgemeinen nicht kommutativ ist. ii.) Zeigen Sie, dass Œ˛ACˇB; C D ˛ŒA; BCˇŒB; C und für ˛; ˇ; 2 k und A; B; C 2 End.V /. ŒA; ˇBC C D ˇŒA; BC ŒA; C (5.155) 5.7 Übungen 181 iii.) Zeigen Sie ŒA; B D ŒB; A für alle A; B 2 End.V /. iv.) Zeigen Sie die Leibniz-Regel ŒA; BC D ŒA; BC C BŒA; C (5.156) für A; B; C 2 End.V /. v.) Zeigen Sie die Jacobi-Identität ŒA; ŒB; C D ŒŒA; B; C C ŒB; ŒA; C (5.157) für A; B; C 2 End.V /. Übung 5.6 (Elementarmatrizen). Seien n; m 2 N. Betrachten Sie die Elementarmatrizen Eij 2 Mnm .k/ aus (5.110). i.) Zeigen Sie (5.112) durch eine explizite Rechnung. ii.) Sei nun n D m. Bestimmen Sie dann die Kommutatoren ŒEij ; Ek` für i; j; k; ` D 1; : : : ; n. iii.) Bestimmen Sie weiter Eij A und AEij für eine beliebige Matrix A (passender Größe) explizit. Übung 5.7 (Nochmals der Vektorraum Abb.M; V /). Sei M eine nichtleere Menge und sei V ein Vektorraum über k. Wir betrachten erneut den Vektorraum Abb.M; V / wie in Übung 4.4. i.) Sei ˛ 2 V und p 2 M . Zeigen Sie, dass dann die Abbildung ı˛;p W Abb.M; V / 3 f 7! ˛.f .p// 2 k (5.158) ein lineares Funktional auf Abb.M; V / ist. ii.) Sei nun B V eine Basis. Zeigen Sie, dass die Vektoren ep;b 2 Abb.M; V / mit ( b für q D p (5.159) ep;b .q/ D 0 sonst linear unabhängig sind. Hinweis: Betrachten Sie zu jedem b 2 B die linearen Funktionale b 2 V gemäß Satz 5.73 sowie die Funktionale ıb ;p . iii.) Zeigen Sie, dass für eine fest gewählte Basis B von V alle Vektoren der Form eb;p mit p 2 M und b 2 B eine Basis von Abb0 .M; V / bilden. iv.) Sei nun N eine weitere nichtleere Menge und W N ! M eine Abbildung. Definieren Sie den pull-back W Abb.M; V / ! Abb.N; V / wie schon in 182 5 Lineare Abbildungen und Matrizen Übung 3.18 punktweise durch . .f //.q/ D f ..q// für q 2 N . Zeigen Sie, dass eine lineare Abbildung ist. v.) Zeigen Sie die üblichen Regeln für einen pull-back, also . ı / D ı für Abbildungen W N ! M und W M ! X sowie idM D idAbb.M;V / . vi.) Sei W ein weiterer Vektorraum über k. Zeigen Sie, dass die punktweise Anwendung von ˚ 2 Abb.M; Hom.V; W // eine lineare Abbildung ˚W Abb.M; V / ! Abb.M; W / (5.160) liefert. Zeigen Sie weiter, dass Abb0 .M; V / unter ˚ nach Abb0 .M; W / abgebildet wird. vii.) Zeigen Sie schließlich, dass für ˚ 2 Abb.M; Hom.V; W // und W N ! M die Vertauschungsregel ı ˚ D . ˚/ ı (5.161) gilt, wobei ˚ gemäß vi.) wirkt. Zeichnen Sie das entsprechende kommutative Diagramm. Wie vereinfacht sich diese Rechenregel, wenn ˚ eine konstante Abbildung, also nur ein Element ˚ 2 Hom.V; W /, ist? Übung 5.8 (Matrixmultiplikation). Über dem Körper k D R seien die Matrizen 1 1 1 2 A D @0 3 5 A; 1 8 7 0 1 1 0 1 0 B D @ 0 1 0 1A; 1 0 1 0 0 0 1 @ D D 1 2 0 8 ; E D 0 6 1 4 5A und 8 0 1 1 B0C C C DB @ 8 A; 7 F D 1 2 0 gegeben. Berechnen Sie alle möglichen Produkte. Übung 5.9 (Smith-Normalform und Invertieren). Betrachten Sie eine n mMatrix A 2 Mnm .k/. Schreiben Sie diese zusammen mit der n n- und der m m-Einheitsmatrix in ein Schema der Form ˇ ˇ 1 0 ˇ a11 : : : a1m ˇ 1 1 ˇ ˇ C ˇ :: B :: ˇ :: :: (5.162) ˇ : A; @ : : : ˇˇ ˇ ˇ ˇ 1 1 an1 : : : anm wobei Sie links von A die Einheitsmatrix 1n und rechts die Einheitsmatrix 1m schreiben. 5.7 Übungen 183 i.) Zeigen Sie, dass die elementaren Zeilenumformungen mit den elementaren Spaltenumformungen von A vertauschen. Zeigen Sie auch, dass die elementaren Zeilenumformungen (beziehungsweise die Spaltenumformungen) untereinander nicht notwendigerweise vertauschen. Führen Sie nun schrittweise die elementaren Zeilenumformungen für A durch, die A auf Zeilenstufenform bringen. Dabei führen Sie gleichzeitig dieselben Umformungen auch für die erste Einheitsmatrix durch. Dies liefert eine Matrix Q 2 Mn .k/ anstelle der ersten Einheitsmatrix 1n . Anschließend führen Sie elementare Spaltenumformungen durch, um die verbliebene Matrix in der Mitte auf Smith-Normalform zu bringen. Synchron führen Sie wieder dieselben Spaltenumformungen auch für die rechts stehende Einheitsmatrix 1m durch. An ihrer Stelle erhalten Sie dann eine Matrix P 2 Mm .k/. ii.) Zeigen Sie, dass diese Matrizen Q und P durch Matrixmultiplikation A auf Smith-Normalform bringen, also QAP die Normalform ist. iii.) Zeigen Sie, dass es unerheblich ist, ob Sie zuerst Zeilen- oder Spaltenumformungen durchführen. iv.) Führen Sie diesen Algorithmus für verschiedene Beispiele durch. v.) Wie können Sie im Falle von quadratischen Matrizen n D m auf diese Weise die Invertierbarkeit entscheiden und das Inverse gegebenenfalls bestimmen? Übung 5.10 (Rang und inverse Matrizen). Betrachten Sie folgende Matrizen 1 0 1 1 1 t2 1 i 2 1 2 3 A1 D @1 t 2 1 A; A2 D ; A3 D @4 2 2 C iA; 4 5t 6 6 2 2i 6 C i t 1 1 1 1 0 0 1 0 0 1 2 a t A4 D @ i a 0 A; A5 D ; A6 D @2 5t A t a 1i 4 2Ca 3 6 0 über C, wobei t und a komplexe Parameter seien. i.) Bestimmen Sie den Rang der Matrizen A1 , A2 , A3 , A4 , A5 und A6 in Abhängigkeit der Parameter t beziehungsweise a. ii.) Bestimmen Sie die inversen Matrizen, falls diese existieren, und verifizieren Sie Ihre Resultate durch eine explizite Überprüfung. Übung 5.11 (Injektivität und Surjektivität). Betrachten Sie den Folgenraum c der konvergenten Folgen. Definieren Sie lineare Abbildungen S; T W c ! c durch ( .Sa/n D anC1 und .T a/n D an1 falls n > 1 0 falls n D 1: (5.163) 184 5 Lineare Abbildungen und Matrizen i.) Zeigen Sie, dass dies tatsächlich wohldefinierte lineare Endomorphismen von c liefert. ii.) Berechnen Sie S ı T und T ı S . iii.) Bestimmen Sie explizit den Kern und das Bild von T und S . iv.) Welche Abbildung ist injektiv, welche surjektiv, welche bijektiv? Diskutieren Sie Ihre Ergebnisse in Bezug auf Korollar 5.27. Übung 5.12 (Links- und Rechtsinverse von linearen Abbildungen). ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. Sei i.) Zeigen Sie, dass ˚ genau dann injektiv ist, wenn es eine lineare Abbildung W W ! V mit ı ˚ D idV gibt. Beschreiben Sie explizit, wie viele solche es gibt. ii.) Zeigen Sie, dass ˚ genau dann surjektiv ist, wenn es eine lineare Abbildung W W ! V mit ˚ ı D idW gibt. Beschreiben Sie explizit, wie viele solche es gibt. Übung 5.13 (Bild im Kern). Sei V ein Vektorraum über k und d 2 End.V /. i.) Zeigen Sie, dass d 2 D 0 genau dann gilt, wenn im d ker d . ii.) Was können Sie über die Dimensionen von im d und ker d für einen endlichdimensionalen Vektorraum V sagen? iii.) Geben Sie explizite Beispiele an, dass die Zahlenpaare aus Teil ii.) realisiert werden können. Übung 5.14 (Integrieren). Diese Übung erfordert eine gewisse Vertrautheit mit dem Riemann-Integral. Betrachten Sie den Vektorraum C0 .R/ der stetigen Funktionen auf der reellen Achse mit kompaktem Träger: Für f 2 C0 .R/ gibt es also eine Zahl a 0 mit f .x/ D 0 für alle x 2 R n Œa; a. Sei weiter ˇ ˇ V D F 2 C .R/ ˇˇ F 0 2 C0 .R/ und 1 lim x!1 F .x/ D 0 (5.164) diejenige Teilmenge von stetig differenzierbaren Funktionen, deren Ableitung einen kompakten Träger besitzt und die für x ! 1 gegen null geht. Betrachten Sie dann folgende Abbildung Z I W f 7! I .f / D x 7! .I .f //.x/ D x f .t /dt : (5.165) 1 i.) Zeigen Sie, dass V ein Unterraum von C 1 .R/ ist. ii.) Zeigen Sie, dass I .f / 2 V für f 2 C0 .R/ gilt, indem Sie einen bekannten Satz aus der Analysis anwenden. 5.7 Übungen 185 iii.) Zeigen Sie, dass die Abbildung I gemäß (5.165) eine lineare Abbildung I W C0 .R/ ! V ist. iv.) Zeigen Sie analog, dass die Ableitung V 3 F 7! F 0 2 C0 .R/ eine lineare Abbildung ist. v.) Bestimmen Sie .I .f //0 für f 2 C0 .R/. vi.) Bestimmen Sie I .F 0 / für eine Funktion F 2 V . vii.) Folgern Sie, dass I und die Ableitung zueinander inverse Bijektionen zwischen V und C0 .R/ sind. viii.) Betrachten Sie nun den Unterraum C01 .R/ V der einmal stetig differenzierbaren Funktionen mit kompaktem Träger. Zeigen Sie, dass I .f / 2 C01 .R/ für f 2 C0 .R/ genau dann gilt, wenn Z C1 f .t /dt D 0: (5.166) 1 Man beachte, dass f kompakten Träger hat, weshalb das uneigentliche Riemann-Integral hier völlig unproblematisch ist. ix.) Zeigen Sie, dass C01 .R/ in V ein Komplement der Dimension 1 besitzt. Zeigen Sie, dass für f; g 2 C0 .R/ genau dann f D gCF 0 mit F 2 C01 .R/ gilt, wenn Z Z C1 C1 f .t /dt D 1 g.t /dt: (5.167) 1 x.) Finden Sie eine Funktion f 2 V , sodass der Spann von ff g ein Komplement zu C01 .R/ in V liefert. Übung 5.15 (Kartesisches Produkt und direkte Summe). Sei V ein fest gewählter Vektorraum über k und sei I eine nichtleere Menge. Wir setzen Vi D V für alle i 2 I. Q i.) Zeigen Sie, dass das kartesische Produkt V I D i2I Vi auf kanonische Weise zu Abb.I; V / als Vektorraum isomorph ist. Geben Sie dazu den Isomorphismus und sein Inverses explizit an und weisen Sie die nötigen Eigenschaften nach. ii.) L Zeigen Sie, dass unter dem obigen Isomorphismus der direkten Summe V .I / D i2I Vi gerade der Unterraum Abb0 .I; V / entspricht. Übung 5.16 (Innere und äußere direkte Summe). Seien fUi gi2I Untervektorräume eines k-Vektorraums V . Betrachten Sie die Abbildung W M i2I Ui 3 .ui /i2I 7! X i2I ui 2 X Ui V i2I von der äußeren direkten Summe der Unterräume nach V . (5.168) 186 5 Lineare Abbildungen und Matrizen i.) ii.) iii.) iv.) Zeigen Sie, dass tatsächlich eine wohldefinierte Abbildung ist. Zeigen Sie, dass linear ist. P Zeigen Sie, dass surjektiv auf i2I Ui ist. P Zeigen Sie, dass genau dann injektiv ist, wenn die Summe i2I Ui der Unterräume (im Sinne einer inneren direkten Summe) direkt ist. Übung 5.17 (Lineare Abbildungen, direkte Summe und kartesisches Produkt). Sei I eine nichtleere Indexmenge, und seien fVi gi2I , fWi gi2I sowie W; U Vektorräume über k. Weiter seien i W W ! Vi und i W Vi ! U sowie i W Vi ! Wi lineare Abbildungen für i 2 I . i.) Zeigen Sie, dass es eine eindeutig bestimmte lineare Abbildung W M Vi ! U (5.169) i2I L gibt, sodass ı j D j für alle j 2 I , wobei j W Vj ! i2I Vi die kanonischen Inklusionsabbildungen der einzelnen Vektorräume Vj in ihre direkte Summe sind. Dies verallgemeinert die Konstruktion aus Übung 5.16. ii.) Zeigen Sie, dass es eine eindeutig bestimmte lineare Abbildung ˚W W ! Y Vi (5.170) i2I Q mit prj ı˚ D j für alle j 2 I gibt, wobei prj W i2I Vi ! Vj die kanonische Projektion auf den j -ten Faktor Vj des kartesischen Produkts ist.Q iii.) Zeigen Sie, dass es eine eindeutige lineare Abbildung W i2I Vi ! Q W mit prj ı ı i D ıij i gibt. Zeigen Sie, dass diese lineare Abbildung i i2I die direkte Summe der Vi in die direkte Summe der Wi abbildet. Übung 5.18 (Matrizen). Betrachten Sie einen assoziativen Ring R sowie die n n-Matrizen Mn .R/ mit Einträgen in R. i.) Zeigen Sie, dass Mn .R/ bezüglich der komponentenweisen Addition und bezüglich der Matrixmultiplikation ein assoziativer Ring ist. ii.) Zeigen Sie, dass 7! diag.; : : : ; / einen injektiven Ringmorphismus R ! Mn .R/ liefert, wobei ganz allgemein diag.x1 ; : : : ; xn / 2 Mn .R/ diejenige Matrix bezeichnet, die die Ringelemente x1 ; : : : ; xn 2 R auf der Diagonalen und sonst nur Nullen als Einträge hat. iii.) Zeigen Sie, dass Mn .R/ genau dann ein Einselement besitzt, wenn R ein Einselement hat, und bestimmen Sie dieses explizit. iv.) Erweitern Sie Ihre Ergebnisse auf unendliche Matrizen R.B/A , wobei A und B nun eine beliebige, nicht notwendigerweise endliche Mengen seien. Erbringen Sie so einen unabhängigen (und allgemeineren) Beweis der Rechenregeln aus Proposition 5.38. 5.7 Übungen 187 Übung 5.19 (Antisymmetrische 33-Matrix). Sei k ein Körper der Charakteristik ungleich zwei und A 2 Mn .k/. Dann heißt A antisymmetrisch, wenn AT D A. Wie immer identifizieren wir Mn .k/ mit End.kn /. i.) Zeigen Sie, dass die antisymmetrischen Matrizen einen Unterraum von Mn .k/ bilden. ii.) Bestimmen Sie die Dimension des Unterraums aller antisymmetrischen n nMatrizen, indem Sie eine möglichst einfache Basis angeben. iii.) Zeigen Sie, dass es zu jeder antisymmetrischen Matrix A 2 M3 .k/ einen eindeutig bestimmten Vektor a 2 k3 gibt, sodass Ax D a x für alle x 2 k3 . Hier ist das Kreuzprodukt, welches wie für R3 auch für k3 definiert wird. iv.) Zeigen Sie umgekehrt, dass für jeden Vektor a 2 k3 die lineare Abbildung x 7! a x durch eine antisymmetrische Matrix vermittelt wird. v.) Berechnen Sie die Matrizen Lk 2 M3 .k/, welche den Kreuzprodukten mit den kanonischen Basisvektoren ek für k D 1; 2; 3 entsprechen. vi.) Zeigen Sie, dass k3 3 a 7! A 2 M3 .k/ ein linearer Isomorphismus auf die antisymmetrischen Matrizen ist. vii.) Zeigen Sie, dass für zwei antisymmetrische Matrizen A und B der Kommutator ŒA; B wieder antisymmetrisch ist, und bestimmen Sie den zugehörigen Vektor c 2 k3 , sodass ŒA; Bx D c x. Was fällt auf? viii.) Geben Sie ein konzeptuelles Argument dafür, dass die Jacobi-Identität erfüllt. ix.) Bestimmen Sie die Kommutatoren ŒLk ; L` explizit für k; ` D 1; 2; 3. Übung 5.20 (Matrixdarstellung der Translation). Betrachten Sie den Vektorraum kŒx der Polynome mit Koeffizienten in einem Körper k. Sei weiter T W kŒx ! kŒx wieder die Translation um 1 aus Beispiel 5.47. i.) Bestimmen Sie durch eine explizite Matrixmultiplikation die Matrix B ŒT 2 B des Quadrats von T bezüglich der Standardbasis B der Monome von kŒx. ii.) Bestimmen Sie die Matrizen B ŒT k B für k 2 Z direkt, indem Sie das Polynom p.x k/ mithilfe des Binomialsatzes ausrechnen. Verifizieren Sie so Ihre Ergebnisse aus i.). Übung 5.21 (Ort und Impuls). Sei k ein Körper der Charakteristik null. Dann betrachtet man den Orts- und den Impulsoperator Q; P W kŒx ! kŒx mit .Qp/.x/ D xp.x/ und .Pp/.x/ D d p.x/ D p 0 .x/ dx (5.171) für p 2 kŒx. i.) Zeigen Sie, dass Q und P lineare Abbildungen sind. ii.) Bestimmen Sie die Matrixdarstellungen von Q und P bezüglich der Standardbasis der Monome, siehe Übung 4.13, i.). 188 5 Lineare Abbildungen und Matrizen iii.) Bestimmen Sie den Kommutator ŒP; Q D PQ QP . Diese beiden linearen Abbildungen spielen die zentrale Rolle in der Quantenmechanik, auch wenn sie dort nicht direkt auf Polynomen, sondern auf etwas anderen Funktionen definiert sind. Dort wird die Ableitung als Impulsoperator noch mit einem Faktor i„ reskaliert. Übung 5.22 (Elementare Umformungen). Erbringen Sie durch explizites Nachrechnen die Beweise der Lemmata 5.56, 5.57 und 5.58. Übung 5.23 (Elementare Umformung (IV) via Matrixmultiplikation). Finden Sie eine Matrix Sij; mit der Eigenschaft, dass Sij; A für A 2 Mnm .k/ diejenige Matrix ist, die durch Hinzuzählen des -Fachen der j -ten Zeile zur i -ten Zeile aus A hervorgeht. Auf diese Weise wird also die elementare Umformung (IV) aus Übung 4.1 ebenfalls durch eine einfache Matrixmultiplikation implementiert. Finden Sie auch für die entsprechende Spaltenumformung eine geeignete Matrixmultiplikation. Übung 5.24 (Komplexe Zahlen als Matrizen I). Betrachten Sie diejenigen 2 2Matrizen der Form ˇ a b ˚ C D A 2 M2 .R/ ˇ A D b a mit a; b 2 R : (5.172) i.) Zeigen Sie, dass C ein zweidimensionaler Unterraum ist, und geben Sie eine möglichst einfache Basis an. ii.) Zeigen Sie, dass C unter Matrixmultiplikation und Matrixtransposition abgeschlossen ist und 1 enthält. iii.) Zeigen Sie, dass die Abbildung C 3 z D a C ib 7! A D a b b a 2C (5.173) ein einserhaltender Ringisomorphismus ist. Damit wird C also ein zu C isomorpher Körper bezüglich der Matrixmultiplikation. Übung 5.25 (Blockmatrizen). Seien m; m0 ; n; n0 ; p; p 0 2 N gegeben. Betrachten Sie dann Matrizen der Form A1 2 Mmn .k/, A2 2 Mmn0 .k/, A3 2 Mm0 n .k/, A4 2 Mm0 ;n0 .k/ sowie der Form B1 2 Mn;p .k/, B2 2 Mnp0 .k/, B3 2 Mn0 p .k/ und B4 2 Mn0 p0 .k/. Eine .m C m/ .n C n0 /-Matrix der Gestalt A1 A2 AD A3 A4 (5.174) nennt man auch Blockmatrix mit der Blockstruktur .m; m0 / .n; n0 /. Hier werden die Einträge von A1 ; A2 ; A3 , und A4 entsprechend in die große Matrix eingefügt. 5.7 Übungen 189 i.) Zeigen Sie, dass für das Matrixprodukt von Blockmatrizen die Rechenregel A1 A2 A3 A4 B1 B2 A1 B1 C A2 B3 A1 B2 C A2 B4 D B3 B4 A3 B1 C A4 B3 A3 B2 C A4 B4 (5.175) gilt. Machen Sie sich insbesondere klar, dass die entsprechenden Produkte überhaupt definiert sind, da die Größen der Blöcke wirklich passen. ii.) Berechnen Sie das Produkt AB und BA für 0 1 B0 ADB @0 0 0 1 0 0 1 0 1 0 1 0 1C C und 0A 1 1 1111 B1 1 1 1 C C BDB @1 1 1 1 A: 1111 0 Übung 5.26 (Ein Halbgruppenmorphismus). Matrizen Mn .k/ für n 2 N und die Abbildung W Mn .k/ 3 A 7! (5.176) Betrachten Sie das Monoid der A0 2 MnC1 .k/: 0 0 (5.177) i.) Zeigen Sie, dass eine injektive lineare Abbildung ist. ii.) Zeigen Sie weiter, dass ein Halbgruppenmorphismus bezüglich der Matrixmultiplikation ist. Ist auch ein Monoidmorphismus? Übung 5.27 (Vektoraddition als Matrixmultiplikation). Sei k ein Körper. Zeigen Sie, dass die Abbildung 1v k 3v ! 7 2 GLnC1 .k/ 01 n (5.178) ein Gruppenmorphismus bezüglich der Addition von Vektoren und der Matrixmultiplikation ist. Ist (5.178) linear? Übung 5.28 (Pauli-Matrizen I). Betrachten Sie in M2 .C/ die Pauli-Matrizen 01 ; 1 D 10 0 i 2 D i 0 und 1 0 3 D : 0 1 (5.179) Weiter benutzt man die Abkürzung jk D 2i k für k D 1; 2; 3. Schließlich verwenden wir das -Symbol k`m (auch Levi-Civita-Symbol), welches durch 123 D 231 D 312 D 1; 132 D 231 D 321 D 1; und k`m D 0 sonst (5.180) 190 5 Lineare Abbildungen und Matrizen definiert ist. In Übung 6.1 sehen wir später eine etwas konzeptuellere Definition für k`m . i.) Zeigen Sie k ` D ( P i 3mD1 k`m m für k ¤ ` für k D `: 1 (5.181) ii.) Sei nun x; E yE 2 R3 . Zeigen Sie .xE E /.yE E / D hx; E yi1 E C i.xE y/ E E ; (5.182) wobei die Abkürzung xE E D x1 1 C x2 2 C x3 3 verwendet wird. iii.) Zeigen Sie, dass die Pauli-Matrizen zusammen mit 1 eine Basis der komplexen 2 2-Matrizen bilden. iv.) Bestimmen Sie die Kommutatoren Œjk ; j` für alle k; ` D 1; 2; 3. Vergleichen Sie mit Übung 5.19, ix.). Wie könnten Sie Ihre Beobachtung formulieren? Übung 5.29 (Die symplektische Matrix). Sei k ein Körper der Charakteristik ungleich 2. Betrachten Sie für n 2 N die symplektische Matrix ˝D 0 1n 1n 0 2 M2n .k/; (5.183) wobei wir Blockschreibweise verwenden und 1n 2 Mn .k/ die Einheitsmatrix in n Dimensionen ist. i.) Zeigen Sie ˝ 2 D 12n sowie ˝ T D ˝. ii.) Ist ˝ invertierbar? Bestimmen Sie gegebenenfalls das Inverse von ˝. iii.) Können Sie in Charakteristik 2 analog verfahren? Weshalb wird man vor allem an Charakteristik ungleich 2 interessiert sein? Übung 5.30 (Basiswechsel). Betrachten Sie den Vektorraum R2 mit der Standard1 1 basis B1 D .e1 ; e2 / sowie B2 D .b1 ; b2 / mit b1 D und b2 D . 1 1 i.) Zeigen Sie, dass B2 ebenfalls eine Basis ist. x ii.) Bestimmen Sie die Koeffizienten von x D 1 bezüglich der neuen Basis B2 . x2 iii.) Bestimmen Sie die Matrixdarstellung B2 ŒB2 derjenigen linearen Abbildung mit .e1 / D 2e1 3e2 und .e2 / D e1 C 3e2 . 5.7 Übungen 191 Übung 5.31 (Basiswechsel für Matrizen). Betrachten Sie erneut die PauliMatrizen k aus Übung 5.28 sowie die Elementarmatrizen Eij 2 M2 .C/ aus (5.110). i.) Stellen Sie die Pauli-Matrizen als Linearkombination der Elementarmatrizen dar. ii.) Nach Übung 5.28, iii.), bilden die Pauli-Matrizen zusammen mit der Einheitsmatrix 1 2 M2 .C/ ebenfalls eine Basis. Stellen Sie die Elementarmatrizen als Linearkombination dieser Basisvektoren von M2 .C/ dar und gewinnen Sie so die Matrix des Basiswechsels von der Basis f1; 1 ; 2 ; 3 g zur Basis fE11 ; E12 ; E21 ; E22 g. Hinweis: Wenn Sie die jeweiligen Basisvektoren von 1 bis 4 nummerieren, können Sie den Basiswechsel als eine 4 4-Matrix schreiben. iii.) Verifizieren Sie durch eine explizite Rechnung, dass die beiden Matrizen der Basiswechsel invers sind. zueinander iv.) Sei A D ac db 2 M2 .C/. Schreiben Sie A als Linearkombination von 1 und den Pauli-Matrizen. Übung 5.32 (Inverse von Blockmatrizen). Seien n; m 2 N und A 2 Mn .k/, B 2 Mnm .k/ sowie D 2 Mm .k/. Wir betrachten dann die Blockmatrix AB XD 2 MnCm .k/: 0 D (5.184) i.) Zeigen Sie, dass X genau dann invertierbar ist, wenn sowohl A als auch D invertierbar sind. ii.) Bestimmen Sie die inverse Matrix X 1 explizit, indem Sie die Inversen A1 und D 1 verwenden. iii.) Formulieren Sie eine analoge Aussage für untere Dreiecksblöcke. iv.) Betrachten Sie nun 0 2 B1 X DB @0 0 4 3 0 0 3 2 3 2 1 3 8C C 2 M4 .R/; 1A 1 (5.185) und bestimmen Sie X 1 einmal mithilfe des Gauß-Algorithmus und einmal mit Teil ii.). Vergleichen Sie den Aufwand. Übung 5.33 (Bijektivität von Ak ). Betrachten Sie einen Endomorphismus A 2 End.V / eines Vektorraums V über k. Zeigen Sie, dass A genau dann injektiv (surjektiv, bijektiv) ist, wenn für alle k 2 N der Endomorphismus Ak injektiv (surjektiv, bijektiv) ist. 192 5 Lineare Abbildungen und Matrizen Übung 5.34 (Bild und Kern von Verkettungen). Seien V , W und U Vektorräume über k und ˚; ˚ 0 W V ! W sowie W W ! U lineare Abbildungen. Seien weiter ; 0 2 k. i.) Zeigen Sie, dass ker ˚ ker. ı ˚/. Geben Sie Beispiele für eine echte Inklusion und für Gleichheit. ii.) Zeigen Sie, dass im. ı ˚/ im ˚. Geben Sie auch hier Beispiele für eine echte Inklusion und für Gleichheit. iii.) Zeigen Sie rank. ı ˚/ min.rank ˚; rank /. iv.) Zeigen Sie, dass rank.˚ C 0 ˚/ rank ˚ C rank ˚ 0 . Geben Sie hier ein Beispiel für Gleichheit. v.) Seien nun die Vektorräume sogar endlich-dimensional. Zeigen Sie, dass dann rank ˚ C rank D rank. ı ˚/ C dim W gilt. Übung 5.35 (Matrizen von Polynomen). Sei k ein Körper (oder auch nur ein assoziativer Ring). Zeigen Sie, dass der Ring der Matrizen Mn .kŒx/ mit Einträgen im Polynomring kŒx, siehe Übung 5.18, kanonisch zum Polynomring Mn .k/Œx der Polynome mit Matrixkoeffizienten isomorph ist. Geben Sie hierzu den Isomorphismus explizit an. Übung 5.36 (Nochmals Smith-Normalform). Seien V und W Vektorräume über k. Sei weiter ˚W V ! W eine lineare Abbildung. i.) Zeigen Sie, dass es Unterräume U1 V und U2 W mit V D U1 ˚ ker ˚ und W D U2 ˚ im ˚ gibt. ˇ ii.) Zeigen Sie, dass in diesem Fall ˚ ˇU1 W U1 ! im ˚ ein Isomorphismus ist. iii.) Diskutieren Sie, wieso man diese Aussage als basisunabhängige Formulierung von Satz 5.69 ansehen kann. Übung 5.37 (Bijektivität der dualen Abbildung). Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. i.) Zeigen Sie, dass die duale Abbildung ˚ W W ! V genau dann injektiv ist, wenn ˚ surjektiv ist. Hinweis: Eine Richtung ist recht einfach. Für die andere Richtung nimmt man an, dass im ˚ ˇ W ein echter Unterraum ist. Konstruieren Sie dann ein lineares Funktional a 2 W mit ˛ ˇim ˚ D 0, aber ˛ ¤ 0. Wieso liefert dies einen Widerspruch? ii.) Zeigen Sie, dass ˚ genau dann surjektiv ist, wenn ˚ injektiv ist. Hinweis: Die Surjektivität zu zeigen, ist hierbei nicht ganz leicht: Ein lineares Funktional auf V liefert dank der Injektivität ein lineares Funktional auf dem Teilraum im ˚ W . Wieso lässt sich dieses zu einem linearen Funktional auf ganz W fortsetzen? iii.) Zeigen Sie, dass ˚ genau dann bijektiv ist, wenn ˚ bijektiv ist. iv.) Zeigen Sie, dass im invertierbaren Fall .˚ 1 / D .˚ /1 gilt. 5.7 Übungen 193 Übung 5.38 (Matrixdarstellung der Transposition). Sei k ein Körper und n 2 N. Betrachten Sie die Standardbasis der Elementarmatrizen fEij gi;j D1;:::;n von Mn .k/. i.) Bestimmen Sie die Basisdarstellung der Transposition T W Mn .k/ ! Mn .k/ bezüglich dieser Basis. ii.) Betrachten Sie nun n D 2 und k D C sowie die Pauli-Matrizen k aus Übung 5.28. Finden Sie die Matrixdarstellung der Transposition auch bezüglich der Basis f1; 1 ; 2 ; 3 g. Was fällt auf? Hinweis: Hier können Sie einerseits die Transposition der neuen Basisvektoren direkt ausrechnen oder die allgemeine Vorgehensweise aus Korollar 5.43 zum Einsatz bringen, indem Sie Übung 5.31 benutzen. Vergleichen Sie beide Möglichkeiten. Übung 5.39 (Affine Räume II). Sei ˚W V ! W eine lineare Abbildung und w 2 W . Zeigen Sie, dass ˚ 1 .fwg/ V ein affiner Raum über ker ˚ ist. Übung 5.40 (Affine Räume III). Seien A und B affine Räume über V beziehungsweise W . Dann heißt eine Abbildung ˚W A ! B affin, falls es eine lineare Abbildung W V ! W mit ˚.a C v/ D ˚.a/ C .v/ (5.186) für alle a 2 A und v 2 V gibt. i.) Zeigen Sie, dass die Abbildung durch ˚ eindeutig bestimmt ist. ii.) Zeigen Sie, dass die Identität idA W A ! A eines affinen Raums eine affine Abbildung ist. Zeigen Sie ebenso, dass die Verkettung von affinen Abbildungen wieder affin ist. Zeigen Sie schließlich, dass die inverse Abbildung einer bijektiven affinen Abbildung wieder affin ist. iii.) Zeigen Sie, dass für eine affine Abbildung ˚W A ! A genau dann D idV gilt, wenn ˚ eine Translation, also von der Form ˚.a/ D a C u mit einem festen Vektor u 2 V ist. iv.) Sei o 2 A fest gewählt. Zeigen Sie, dass für eine affine Abbildung ˚W A ! A eine eindeutig bestimmte lineare Abbildung 2 End.V / und ein eindeutig bestimmter Vektor u 2 V existieren, sodass ˚.a/ D a C .a o/ C u gilt. Wie ändern sich und u, wenn man einen anderen Ursprung o0 2 A wählt? Übung 5.41 (Affine Gruppe). Betrachten Sie den Vektorraum kn als einen affinen Raum mit Ursprung 0. i.) Sei A 2 Mn .k/ und v 2 V . Zeigen Sie, dass .A; v/W u 7! Au C v eine affine Transformation .A; v/ von kn ist. Zeigen Sie umgekehrt, dass jede affine Transformation von dieser Form ist, wobei A und v durch die Transformation eindeutig bestimmt sind. 194 5 Lineare Abbildungen und Matrizen Hinweis: Das ist im Wesentlichen ein Spezialfall von Übung 5.40, iv.). ii.) Seien A; B 2 Mn .k/ und v; w 2 V . Bestimmen Sie die Hintereinanderausführung der zugehörigen affinen Transformationen .A; v/ ı .B; w/. iii.) Betrachten Sie die Menge ˇ ˇ Av ˇ Affn .k/ D 2 MnC1 .k/ ˇ A 2 Mn .k/ und v 2 V; 0 1 (5.187) und zeigen Sie, dass diese ein Untermonoid bezüglich Matrixmultiplikation bildet. Bestimmen Sie die invertierbaren Elemente und finden Sie eine explizite Formel für das Inverse sowie für das Produkt von zwei Elementen in Affn .k/. Was fällt auf? iv.) Finden Sie eine Möglichkeit, die affine Transformation .A; v/ auf kn durch eine gewöhnliche Anwendung einer Matrix auf knC1 zu schreiben, indem Sie w 2 kn geeignet als Vektor in knC1 interpretieren. Hinweis: Übung 5.27. Übung 5.42 (Komplexifizierung II). Seien V und W reelle Vektorräume mit Komplexifizierungen VC und WC wie in Übung 4.31. i.) Definieren Sie die komplexe Konjugation durch VC 3 .x; y/ 7! .v; w/ D .x; y/ 2 VC : (5.188) Zeigen Sie, dass die komplexe Konjugation reell-linear und involutiv ist sowie zv D z v (5.189) für alle z 2 C und v 2 VC erfüllt. ii.) Wir interpretieren V immer als reellen Teilraum von VC , indem man v 2 V mit .v; 0/ 2 VC identifiziert. Zeigen Sie, dass dies eine R-lineare injektive Abbildung V ! VC ist. Zeigen Sie weiter, dass v 2 VC genau dann im Bild dieser Abbildung liegt, also ein reeller Vektor ist, falls v D v gilt. iii.) Sei AW V ! W eine R-lineare Abbildung. Zeigen Sie, dass es eine ˇ eindeutig bestimmte C-lineare Abbildung AC W VC ! WC gibt, sodass AC ˇV D A. iv.) Zeigen Sie, dass die Abbildung HomR .V; W / 3 A 7! AC 2 HomC .VC ; WC / (5.190) R-linear ist. v.) Zeigen Sie, dass .idV /C D idVC gilt. vi.) Zeigen Sie, dass für einen weiteren reellen Vektorraum U und eine lineare Abbildung BW W ! U 5.7 Übungen 195 .BA/C D BC AC (5.191) gilt. vii.) Zeigen Sie, dass AC v D AC v für alle v 2 VC . viii.) Sei nun ˚W VC ! WC eine C-lineare Abbildung mit ˚v D ˚v. Zeigen Sie, dass es dann eine eindeutig bestimmte R-lineare Abbildung AW V ! W mit AC D ˚ gibt. ix.) Zeigen Sie, dass AC genau dann injektiv (surjektiv, bijektiv) ist, wenn A injektiv (surjektiv, bijektiv) ist. Vergleichen Sie hierzu ker.AC / mit .ker.A//C ebenso wie im.AC / mit .im.A//C . Übung 5.43 (Lineare fast-komplexe Struktur). Sei V ein reeller Vektorraum. Eine lineare fast-komplexe Struktur J auf V ist ein Endomorphismus J 2 End.V / mit J 2 D 1. i.) Zeigen Sie, dass V zu einem komplexen Vektorraum wird, wenn man z v D Re.z/v C Im.z/J .v/ (5.192) für z 2 C und v 2 V setzt. Im Folgenden sei V immer mit dieser komplexen Vektorraumstruktur versehen. ii.) Zeigen Sie, dass V genau dann als reeller Vektorraum endlich-dimensional ist, wenn V als komplexer Vektorraum via (5.192) endlich-dimensional ist. Hinweis: Hier ist Übung 4.30 hilfreich bei der Argumentation. iii.) Zeigen Sie, dass es für einen endlich-dimensionalen reellen Vektorraum eine fast-komplexe Struktur J nur geben kann, wenn dimR V D 2n gerade ist. Zeigen Sie umgekehrt, dass dies auch hinreichend für die Existenz ist. Übung 5.44 (Komplex-konjugierter Vektorraum II). Sei V ein komplexer Vektorraum. Bezeichnen Sie die mengentheoretische Identitätsabbildung zwischen V und dem komplex-konjugierten Vektorraum V mit W V ! V . i.) Zeigen Sie, dass ein antilinearer Isomorphismus ist. ii.) Zeigen Sie, dass auf kanonische Weise V Š V gilt. iii.) Sei AW V ! W eine lineare Abbildung. Zeigen Sie, dass dann AW V ! W mit A.v/ D A.v/ (5.193) für v 2 V eine lineare Abbildung ist. iv.) Zeigen Sie B ıADB ıA (5.194) 196 5 Lineare Abbildungen und Matrizen für lineare Abbildungen AW V ! W und BW W ! U sowie idV D idV . v.) Zeigen Sie A D A unter der Identifikation von ii.). vi.) Für welche A ist A invertierbar? Übung 5.45 (Duale Basis). Betrachten Sie einen 4-dimensionalen komplexen Vektorraum V mit Basis .b1 ; : : : ; b4 /. i.) Zeigen Sie, dass die Vektoren c1 D 2ib1 C b2 C 4b4 ; c2 D 3b2 C 7b3 C ib4 ; c3 D 1 b3 C ib4 ; c4 D ib3 ib4 2 (5.195) ebenfalls eine Basis von V bilden. ii.) Bestimmen Sie die Vektoren der dualen Basis c1 ; : : : ; c4 als Linearkombination der Vektoren b1 ; : : : ; b4 . Übung 5.46 (Lineare Funktionale auf Polynomen). Betrachten Sie die Polynome kŒx sowie die Abbildungen ı .k/ W kŒx 3 p 7! dk p .0/ 2 k dx k (5.196) für alle k 2 N. i.) Zeigen Sie, dass ı .k/ linear ist. ii.) Sei Vn kŒx der Teilraum der Polynome von Grad n. Versehen Sie diesen mit der Basisˇ der Monome 1; x; x 2 ; : : : ; x n . Bestimmen Sie die Basisdarstellung von ı .k/ ˇVn bezüglich der dualen Basis der Monome. iii.) Zeigen Sie, dass ı .k/ im Spann der linear unabhängigen Teilmenge der Koordinatenfunktionale der Basis der Monome von kŒx ist, auch wenn diese ja keine Basis von .kŒx/ bilden. Bestimmen Sie die Entwicklungskoeffizienten. Übung 5.47 (Dualraum der Polynome). Sei k ein Körper. Zeigen Sie, dass der Dualraum kŒx der Polynome kŒx zum Vektorraum der formalen Potenzreihen isomorph ist. Hinweis: Verwenden Sie die Basis der Monome. Wodurch ist ein lineares Funktional auf kŒx festgelegt? Übung 5.48 (Ein selbstdualer Vektorraum). Sei W ein endlich-dimensionaler Vektorraum über k. Betrachten Sie dann den Vektorraum V D W ˚ W . i.) Zeigen Sie dim V D 2 dim W . 5.7 Übungen 197 ii.) Zeigen Sie, dass es einen Isomorphismus von V nach V gibt. Geben Sie diesen explizit an. Formulieren Sie, was natürlich bezüglich W in diesem Fall heißen soll, und weisen Sie diese Eigenschaft, analog zu Proposition 5.78, iii.), nach. Übung 5.49 (Dimension des Komplements). Seien V ein Vektorraum über k und U V ein Unterraum. Seien W; W 0 V Komplemente von U . i.) Zeigen Sie, dass es zu jedem w 2 W ein eindeutiges w0 2 W 0 gibt, welches w0 w 2 U erfüllt. ii.) Zeigen Sie, dass es eine invertierbare lineareˇ Abbildung ˚ 2 End.V / gibt, welche W isomorph nach W 0 abbildet und ˚ ˇU D idU erfüllt. iii.) Zeigen Sie, dass je zwei Komplemente W; W 0 V von U die gleiche Dimension besitzen. Wenn wir später über den Begriff des Quotienten verfügen, werden wir hierfür einen etwas konzeptuelleren Beweis finden. Übung 5.50 (Kern von linearen Funktionalen). Betrachten Sie einen Vektorraum V über k sowie N linear unabhängige lineare Funktionale '1 ; : : : ; 'N 2 V . i.) Zeigen Sie, dass der Kern ker ' V für ein lineares Funktional ' ¤ 0 ein eindimensionales Komplement besitzt. T ii.) Sei U D N ker 'i V der Schnitt aller Kerne der linearen Funktionale. iD1 Zeigen Sie, dass U ein N -dimensionales Komplement in V besitzt. Hinweis: Hier ist zunächst Übung 5.49 hilfreich. Betrachten Sie die Abbildung ˚W V ! k n , die die 'i als Komponenten besitzt. Was ist das Bild, was der Kern von ˚? iii.) Sei nun dim V D n < 1. Zeigen Sie, dass es eine Basis b1 ; : : : ; bn 2 V gibt, sodass 'k D bk für k D 1; : : : ; N gilt. Übung 5.51 (Dualraum einer direkten Summe). Sei I eine nichtleere Indexmenge und seien fVi gi2I Vektorräume über k. Zeigen Sie, dass M i2I ! Vi Š Y Vi ; (5.197) i2I indem Sie einen möglichst einfachen und kanonischen Isomorphismus explizit angeben. Hinweis: Betrachten Sie die Einschränkung eines linearen Funktionals ˛ auf der direkten Summe auf die i -te Komponente. Übung 5.52 (Duale Basen und Matrixdarstellung). Seien V und W endlichdimensionale Vektorräume mit geordneten Basen A D .a1 ; : : : ; an / und 198 5 Lineare Abbildungen und Matrizen B D .b1 ; : : : ; bm /. Seien weiter ˚ij 2 k mit i D 1; : : : ; m und j D 1; : : : ; n. Definieren Sie eine Abbildung ˚W V 3 v 7! ˚.v/ D m X n X ˚ij aj .v/bi 2 W: (5.198) iD1 j D1 Zeigen Sie, dass ˚ linear ist, und bestimmen Sie ihre Matrixdarstellung B Œ˚A . Übung 5.53 (Natürlichkeit und Dualraum). Betrachten Sie endlich-dimensionale Vektorräume V und W über k sowie deren Dualräume V und W . i.) Zeigen Sie, dass für eine geordnete Basis B D .b1 ; : : : ; bn / von V mit dualer Basis B D .b1 ; : : : ; bn / die Abbildung ˚B W V 3 v 7! ˚B .v/ D n X bi .v/bi 2 V (5.199) iD1 ein linearer Isomorphismus ist. Bestimmen Sie ˚B .bi / für alle i D 1; : : : ; n. ii.) Seien nun geordnete Basen A von V und B von W gegeben mit zugehörigen Isomorphismen ˚A W V ! V und ˚B W W ! W . Finden Sie explizit eine lineare Abbildung W V ! W derart, dass ı ˚B ı ¤ ˚A . Im Vergleich zum Doppeldualraum sind die Isomorphismen ˚A und ˚B also nicht natürlich. Übung 5.54 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen falsche Aussagen richtig werden. 0 1 0 1 3 1 i.) Es existiert eine lineare Abbildung W R3 ! R3 mit W @3A 7! @4A. 1 4 ii.) Es existiert eine eindeutige Diagonalmatrix D 2 M3 .k/ mit 1 0 1 3 3 D @ 2 A D @ 2 A: 1 1 0 (5.200) iii.) Es gibt (mindestens) 100 verschiedene Matrizen A 2 M2 .R/ mit A2 D 1. iv.) Die Einschränkung einer linearen Abbildung auf einen Teilraum ist wieder linear. v.) Die rationalen Polynome QŒx sind zu einem geeignet gewählten Unterraum des rationalen Vektorraums R isomorph. vi.) Eine lineare Abbildung A 2 End.V / mit A2 A C idV D 0 ist immer invertierbar. 5.7 Übungen 199 Eine lineare Abbildung A 2 End.V / ist genau dann invertierbar, wenn A ¤ 0. Es existiert eine Matrix A 2 M2 .k/ mit A2 D 00 10 . Auf jedem reellen Vektorraum existiert eine lineare fast-komplexe Struktur. Die reellen Polynome vom Grad höchstens 4 bilden einen Unterraum von RŒx, der zu R5 isomorph ist. xi.) Sei U V ein echter Unterraum. Dann gibt es ein von null verschiedenes lineares Funktional ' 2 V n f0g mit U ker '. vii.) viii.) ix.) x.) 6 Determinanten und Eigenwerte In diesem Kapitel werden wir hauptsächlich endlich-dimensionale Vektorräume über einem Körper k betrachten. Damit können wir uns also auf den Vektorraum kn für n 2 N beschränken und lineare Abbildungen mit Matrizen Mnm .k/ identifizieren. Für quadratische Matrizen Mn .k/, welche gerade den Endomorphismen von kn entsprechen, werden wir die Determinante definieren und eingehend studieren. Sie wird insbesondere ein einfaches Kriterium für die Invertierbarkeit von Matrizen liefern. Weiter wird sie für die Behandlung des Eigenwertproblems eine zentrale Rolle spielen. Die Frage nach der Existenz von genügend vielen Eigenvektoren, um die Diagonalisierbarkeit des Endomorphismus zu gewährleisten, wird uns auf das charakteristische Polynom und das Minimalpolynom eines Endomorphismus führen. Für einen algebraisch abgeschlossenen Körper, oder etwas allgemeiner für ein in Linearfaktoren zerfallendes charakteristisches Polynom, werden wir mit der Jordan-Zerlegung und dem zugehörigen Spektralsatz ein effektives Mittel zur Diagonalisierung finden. Mit der Jordan-Normalform finden wir schließlich auch noch für den nilpotenten Anteil eines Endomorphismus eine besonders einfache Form. 6.1 Die symmetrische Gruppe Sn Sei n 2 N. In Beispiel 3.21, iv.), haben wir die symmetrische Gruppe Sn als die Gruppe der invertierbaren Elemente des Monoids Abb.n; n/ der Abbildung der Menge n D f1; : : : ; ng in sich definiert. Da eine Abbildung W n ! n genau dann invertierbar ist, wenn sie bijektiv ist, ist Sn also die Gruppe der bijektiven Abbildungen von n in sich. Man beachte, dass eine Abbildung W n ! n genau dann bijektiv ist, wenn sie injektiv ist, oder äquivalent dazu, wenn sie surjektiv ist. Dies ist selbstverständlich nur deshalb richtig, da n eine endliche Menge ist. In Übung 3.5 wurde gezeigt, dass die symmetrische Gruppe Sn D Abb.n; n/ © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_6 (6.1) 201 202 6 Determinanten und Eigenwerte genau nŠ Elemente besitzt. Es ist manchmal bequem, auch den Fall n D 0 zuzulassen. Dann ist S0 konventionsgemäß die triviale Gruppe mit nur einem Element, der Identität. Wir wollen nun Abbildungen W n ! n und speziell die Permutationen genauer betrachten. Definition 6.1 (Fehlstand). Sei 2 Sn . Ein Paar .i; j / 2 n n heißt Fehlstand (oder Inversion) von , falls i < j und .i / > .j / gilt. Die Anzahl der Fehlstände heißt auch Länge `. / der Permutation. Wir erinnern nun an die Definition des Signums einer reellen Zahl ˛ 2 R. Wir setzen 8 ˆ ˛>0 ˆ <1 sign.˛/ D 0 (6.2) ˛D0 ˆ :̂1 ˛ < 0: Dies erlaubt es nun, auch ein Signum für eine Abbildung 2 Abb.n; n/ zu definieren. Definition 6.2 (Signum). Sei 2 Abb.n; n/. Dann definiert man das Signum von als Y sign. / D sign. .j / .i //: (6.3) i<j Q Hier bezeichnet i<j das Produkt überQ alle Zahlen i; j D 1; : : : ; n mit i < j . Diese P Schreibweise mit dem Produktzeichen wird genauso wie das Summenzeichen verwendet und steht hier nicht für ein kartesisches Produkt von Mengen. Ist .i; j / ein Fehlstand, so ist .j / .i / < 0 und daher der zugehörige Faktor .1/. Ist keine Permutation, so ist nicht injektiv. Damit gibt es also ein Paar .i; j / mit i < j , aber .i / D .j /. Das Signum ist dann also 0. Ist eine Permutation, so ist für i ¤ j auch .i / ¤ .j /. Daher gilt sign. / D ˙1. Zusammenfassend erhalten wir also folgendes Resultat: Lemma 6.3. Sei 2 Abb.n; n/. Dann gilt ( sign. / D 0 .1/ falls 62 Sn `./ falls 2 Sn : (6.4) Dieses Lemma erlaubt folgende Definition: Definition 6.4 (Gerade und ungerade Permutation). Eine Permutation 2 Sn heißt gerade, falls sign. / D 1, und ungerade, falls sign. / D 1. 6.1 Die symmetrische Gruppe Sn 203 Mit anderen Worten, 2 Sn ist gerade (ungerade), wenn die Anzahl der Fehlstände in gerade (ungerade) ist. Definition 6.5 (Transposition). Sei i ¤ j . Dann heißt die Permutation = 1 2 i −1 i i +1 1 2 i −1 j j−1 j i +1 j+1 n j−1 i j+1 n , (6.5) die i mit j vertauscht und alle andere Elemente von n fest lässt, die Transposition von i und j . Es genügt offenbar i < j zu betrachten, da ij D j i gilt. Weiter ist klar, dass ij ij D id : (6.6) Lemma 6.6. Eine Transposition ij 2 Sn ist ungerade. Es gilt `.ij / D 2.j i / 1 (6.7) und daher sign.ij / D 1. Beweis. Wir müssen die Fehlstände von ij D 1 2 ::: i ::: j ::: n 1 2 ::: j ::: i ::: n bestimmen. Ein Paar .k; `/ ist ein Fehlstand von ij , wenn k D i und ` 2 fi C 1; : : : ; j g oder wenn ` D j und k 2 fi C 1; : : : ; j 1g. Zusammen sind das dann 2.j i / 1 Fehlstände. t u Die Transpositionen sind gewissermaßen die Atome der Permutationsgruppe. Es gilt nämlich, dass jede Permutation ein geeignetes Produkt von Transpositionen ist: Proposition 6.7. Sei 2 Sn . Dann lässt sich als Produkt von höchstens n 1 Transpositionen schreiben. Beweis. Für n D 1 ist dies richtig: In der trivialen Gruppe benötigt man für id keine Transposition. Wir beweisen die Behauptung daher durch vollständige Induktion. Sei also 2 Sn gegeben. Wir unterscheiden zwei Fälle: Gilt .n/ D n, so ist eine Permutation der ersten n 1 Elemente f1; : : : ; n 1g untereinander und kann daher als Permutation in Sn1 angesehen werden, siehe auch Übung 3.10. Daher können wir als Produkt von höchstens n 2 Transpositionen schreiben. 204 6 Determinanten und Eigenwerte Gilt umgekehrt .n/ ¤ n, so lässt die Permutation n;.n/ D 0 das Element n 2 n fest. Also können wir 0 als Produkt von höchstens n 2 Transpositionen und dann D n;.n/ 0 als Produkt von höchstens n 1 Transpositionen schreiben. t u Die entscheidende Verbindung zwischen dieser Proposition und dem Signum einer beliebigen Permutation ist, dass sign ein Gruppenmorphismus ist: Proposition 6.8. Sei n 2 N. Das Signum signW Abb.n; n/ ! f1; 0; 1g (6.8) ist ein Monoidmorphismus, wobei f1; 0; 1g mit der üblichen Multiplikation als Monoid aufgefasst wird. Insbesondere ist signW Sn ! f˙1g (6.9) ein Gruppenmorphismus. Beweis. Es gilt offenbar sign.id/ D 1 und sign. / 2 f˙1g genau dann, wenn 2 Sn . Es bleibt also, die Multiplikativität von sign zu zeigen. Ist oder nicht bijektiv, so ist auch nicht bijektiv. Es folgt also in diesem Fall sign. / sign. / D 0 D sign. /: Sind nun beide ; bijektiv, so erhalten wir sign. / Y sign. .j / .i // D i<j .a/ D Y sign. . .j // . .i /// i<j .i/<.j / .b/ D Y D Y sign. . .j // . .i /// sign. / D Y sign. . .i // . .j /// i<j .j /<.i/ sign. . .j // . .i /// sign. / i<j .i/<.j / .d / Y sign. . .j // . .i /// i<j .j /<.i/ i<j .i/<.j / .c/ Y sign. .s/ .r// sign. / r<s D sign. / sign. /: Y sign. . .j // . .i /// j <i .i/<.j / 6.1 Die symmetrische Gruppe Sn 205 Hierbei haben wir in .a/ das Produkt in zwei Teile faktorisiert, je nachdem ob .i / oder .j / größer ist. In .b/ drehen wir die Reihenfolge der Argumente von sign. . .j // . .i /// um, was insgesamt so viele Vorzeichen liefert, wie wir Fehlstände in haben, also einen Faktor sign. / erfordert. In .c/ benennen wir die Indizes i und j im zweiten Faktor um. Schließlich durchlaufen r D .i / < .j / D s wieder alle Möglichkeiten, wenn wir die beiden Produkte zusammennehmen, da 2 Sn . Dies zeigt aber die Multiplikativität auch in diesem Fall. t u Korollar 6.9. Sei 2 Sn . i.) Es gilt sign. 1 / D sign. /. ii.) Es gilt sign. / D 1 genau dann, wenn ein Produkt von einer geraden Anzahl von Transpositionen ist. Man beachte, dass die Anzahl der Transpositionen, die nötig ist, um als Produkt von Transpositionen zu schreiben, nicht eindeutig ist: id kann beispielsweise als Produkt mit 0 oder mit 2 Transpositionen ij ij D id geschrieben werden. Lediglich die Frage, ob es eine gerade oder ungerade Anzahl ist, ist eindeutig durch bestimmt. Korollar 6.10. Die Teilmenge ˇ ˚ An D 2 Sn ˇ sign. / D 1 D ker sign Sn ist eine normale Untergruppe von Sn . Diese normale Untergruppe heißt auch die alternierende Gruppe An . Korollar 6.11. Sei n 2 und 2 Sn eine ungerade Permutation. Dann gilt Sn D An [ An mit An \ An D ;; (6.10) und daher hat An genau 12 nŠ Elemente. Beweis. Ist 2 An , so ist ungerade, also nicht in An . Umgekehrt ist für 2 An die Permutation gerade, also in An . Da offenbar An \ An D ;, zeigt dies, dass die Multiplikation mit eine Bijektion An ! An liefert. Also ist An halb so mächtig wie Sn . t u Kontrollfragen. Wie viele Elemente hat Sn ? Wie ist sign definiert? Wieso ist sign ein Monoidmorphismus? Wann ist eine Permutation gerade? Was ist eine Transposition? 206 6.2 6 Determinanten und Eigenwerte Existenz und Eindeutigkeit der Determinante In diesem Abschnitt wollen wir die wesentlichen Eigenschaften der Determinante vorstellen: eine explizite Formel, die von den gefundenen Eigenschaften von Permutationen und deren Signum Gebrauch macht, und eine abstrakte Charakterisierung. Zur Motivation betrachten wir eine einfache und aus der elementaren Geometrie vertraute Situation. Im R2 soll der Flächeninhalt eines Parallelogramms ausgerechnet werden. Dieses denken wirunsvon zwei Vektoren aE und bE aufgespannt, a1 b1 siehe Abb. 6.1. Schreiben wir aE D und bE D , so zeigt eine elementare a2 b2 Überlegung, dass der Flächeninhalt des Parallelogramms durch E D ja1 b2 a2 b1 j A.E a; b/ (6.11) gegeben ist. Die Größe a1 b2 a2 b1 ist uns als 3-Komponente des Kreuzprodukts E D 0, falls die Vektoren aE und bE im R3 bereits begegnet. Insbesondere gilt A.E a; b/ parallel sind. Wir nennen nun einige Eigenschaften des Flächeninhaltes. Es gilt E 2 / D 1; E1; e A.e (6.12) E D jjA.E E A.E a; b/ a; b/; (6.13) E D A.b; E aE /; A.E a; b/ (6.14) E A.E a; bE C E a/ D A.E a; b/ (6.15) für alle 2 R. Die erste Gleichung ist die Normierung des Flächeninhaltes des Einheitsquadrats auf 1, die zweite liefert das Verhalten des Flächeninhaltes unter Streckung einer Seite. Die dritte ist die Spiegelinvarianz unter dem Vertauschen der Seiten. Die letzte ist die Scherungsinvarianz, siehe auch Abb. 6.2. Abb. 6.1 Das durch die Vektoren aE und bE aufgespannte Parallelogramm b A(a, b) a 6.2 Existenz und Eindeutigkeit der Determinante b 207 b + λa A(a, b + λa) a Abb. 6.2 Scherungsinvarianz des Flächeninhaltes Die zu findende Determinante als Ersatz für den Flächeninhalt soll nun zwei Dinge leisten: Zum einen suchen wir eine Version für alle Dimensionen n 2 N und nicht nur für n D 2. Zum anderen wollen wir eine Version ohne „Betragstriche“, da wir in einem beliebigen Körper k zunächst keine Möglichkeit haben, von Beträgen zu sprechen. Damit müssen wir also insbesondere (6.13) modifizieren: Wir wollen einfach eine Homogenität für 2 k und daher eine Rechenregel der E D .E E ohne Betrag. Damit kann der „Flächeninhalt“ dann Form .E a; b/ a; b/ aber auch negative Werte für k D R annehmen. Die Interpretation ist daher die, dass es sich um einen orientierten Flächeninhalt handelt, der auch die Orientierung der Vektoren aE und bE berücksichtigt. Insbesondere wird dies nur dann konsistent E D .b; E aE / anstelle von (6.14) gilt. Dies liefert möglich sein, wenn auch .E a; b/ dann aber auch schon die richtige Axiomatik für die Determinante. Zuvor bemerken wir jedoch, dass in zwei Dimensionen die Kombination E D a1 b2 a2 b1 det.E a; b/ (6.16) genau diese gewünschte Eigenschaften besitzt und E D jdet.E E A.E a; b/ a; b/j (6.17) erfüllt. Wir formulieren nun allgemein für zunächst beliebige k-Vektorräume die Bedingungen an eine Determinante. Hier ist zunächst der Begriff der multilinearen Abbildung zu erklären: Definition 6.12 (Multilineare Abbildung). Seien V1 ; : : : ; Vk und W Vektorräume über k. Eine Abbildung ˚W V1 Vk ! W (6.18) 208 6 Determinanten und Eigenwerte heißt k-linear, falls für alle 1 ` k und v1 2 V1 ; : : : ; v` ; v`0 2 V` ; : : : ; vk 2 Vk und ; 0 2 k ˚.v1 ; : : : ; v` C0 v`0 ; : : : ; vk / D ˚.v1 ; : : : ; v` ; : : : ; vk /C0 ˚.v1 ; : : : ; v`0 ; : : : ; vk /: (6.19) Mit anderen Worten bedeutet Multilinearität also gerade Linearität in jedem Argument bei festgehaltenen übrigen Argumenten. Beispiel 6.13 (Multilineare Abbildung). Wir haben bereits verschiedene multilineare Abbildungen kennengelernt: i.) Eine 1-lineare Abbildung ist offenbar gerade eine lineare Abbildung. ii.) Das euklidische Skalarprodukt h ; iW R3 R3 ! R (6.20) W R3 R3 ! R3 (6.21) ist bilinear. iii.) Das Kreuzprodukt ist ebenfalls bilinear. Durch Kombination erhält man das Spatprodukt E cE/ 7! vol.E E cE/ D aE .bE cE/ 2 R; a; b; a; b; volW R3 R3 R3 3 .E (6.22) welches nun eine trilineare Abbildung ist, siehe auch Übung 1.11. iv.) Die Verkettung ı von linearen Abbildungen ıW Hom.W; U / Hom.V; W / 3 . ; ˚/ 7! ı ˚ 2 Hom.V; U / (6.23) ist bilinear nach Proposition 5.16. v.) Seien k; n 2 N, dann ist das k-fache Matrixprodukt Mn .k/ Mn .k/ 3 .A1 ; : : : ; Ak / 7! A1 Ak 2 Mn .k/ „ ƒ‚ … (6.24) k-mal eine k-lineare Abbildung. Dies erhält man durch wiederholtes Anwenden aus der Bilinearität der Matrixmultiplikation. Bemerkung 6.14 (Multilineare Abbildung). Die obigen Beispiele legen nahe, dass multilineare Abbildungen omnipräsent sind. Sie erfordern ein detailliertes Studium, welches wir zu einem späteren Zeitpunkt in Band2 systematisch aufnehmen wollen. 6.2 Existenz und Eindeutigkeit der Determinante 209 Eine spezielle und für unsere Zwecke wichtige Klasse von multilinearen Abbildungen sind die alternierenden multilinearen Abbildungen: Definition 6.15 (Alternierende multilineare Abbildung). Sei k 2 N und seien V; W Vektorräume über k. Eine k-lineare Abbildung ˚W „ V ƒ‚ V… ! W (6.25) k-mal heißt alternierend, falls ˚.v1 ; : : : ; vk / D 0, sobald zwei Vektoren gleich sind, es also i ¤ j mit vi D vj gibt. Das Kreuzprodukt ist offenbar alternierend, da aE aE D 0. Da aE bE senkrecht auf aE und bE steht, kann man folgern, dass auch das Spatprodukt (6.22) alternierend ist. Die folgende Proposition klärt nun erste Eigenschaften von alternierenden k-linearen Abbildungen und zeigt insbesondere die Beziehungen zur Permutationsgruppe auf: Proposition 6.16. Seien V; W Vektorräume, sei k 2 N, und sei ˚W V V ! W eine alternierende k-lineare Abbildung. i.) Die Menge der alternierenden k-linearen Abbildungen V V ! W ist ein Untervektorraum von Abb.V V; W /. ii.) Für i ¤ j und v1 ; : : : ; vk 2 V sowie 2 k gilt ˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vk /: (6.26) iii.) Für jedes 2 Abb.k; k/ gilt ˚.v.1/ ; : : : ; v.k/ / D sign. /˚.v1 ; : : : ; vk /: (6.27) Insbesondere gilt für i ¤ j ˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk /: iv.) Seien wi D Pk j D1 (6.28) ij vj mit ij 2 k und i D 1; : : : ; k. Dann gilt 0 ˚.w1 ; : : : ; wk / D @ X 1 sign. /.1/1 .k/k A˚.v1 ; : : : ; vk / (6.29) 2Sk 0 D@ X 2Sk 1 sign. /1.1/ k.k/ A˚.v1 ; : : : ; vk /: (6.30) 210 6 Determinanten und Eigenwerte Beweis. Seien ˚; ˚ 0 W V V ! W beide k-linear und ; 0 2 k. Da die Vektorraumstruktur von Abb.V V; W / punktweise erklärt ist, zeigt man wie auch schon bei linearen Abbildungen, siehe Proposition 5.15, dass ˚ C 0 ˚ 0 wieder k-linear ist. Sind beide zudem alternierend, so gilt dies auch für ˚ C 0 ˚ 0 mit einem analogen Argument. Dies zeigt den ersten Teil. Für den zweiten Teil benutzen wir die Linearität im i -ten Argument und erhalten ˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vk / D 0 C ˚.v1 ; : : : ; vk /; da ˚ alternierend ist. Sei nun i ¤ j und ohne Einschränkung i < j . Dann gilt ˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk / ii.) D ˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vj C vi ; : : : ; vi ; : : : ; vk / D ˚.v1 ; : : : ; vi C vj ; : : : ; vi C vj ; : : : ; vk / D0 nach dem zweiten Teil und der Voraussetzung, dass ˚ multilinear und alternierend ist. Dies zeigt aber ˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk / für alle i ¤ j . Damit folgt (6.27) für jede Transposition ij 2 Sn . Ist nun 2 Sk beliebig, so ist D 1 r mit gewissen Transpositionen 1 ; : : : ; r 2 Sk nach Proposition 6.7. Wiederholtes Anwenden von (6.27) für die Transpositionen 1 ; : : : ; r liefert ˚.v.1/ ; : : : ; v.k/ / D sign.1 / sign.r /˚.v1 ; : : : ; vk / D sign. /˚.v1 ; : : : ; vk /; da das Signum ein Gruppenmorphismus ist. Ist schließlich 2 Abb.k; k/ keine Permutation, so ist nicht injektiv. Es treten daher in v.1/ ; : : : ; v.k/ mindestens zwei gleiche Vektoren auf, womit die linke Seite in (6.27) verschwindet. Die rechte Seite ist dann aber auch null, da sign. / D 0. Für den vierten Teil rechnen wir nach, dass 1 0 k k X X 1j1 vj1 ; : : : ; kjk vjk A ˚.w1 ; : : : ; wk / D ˚ @ j1 D1 jk D1 6.2 Existenz und Eindeutigkeit der Determinante .a/ D k X j1 D1 .b/ D X k X 211 1j1 kjk ˚.vj1 ; : : : ; vjk / jk D1 1.1/ k.k/ ˚.v.1/ ; : : : ; v.k/ / 2Sk .c/ D X sign. /1.1/ k.k/ ˚.v1 ; : : : ; vk /; 2Sk wobei wir in (a) die k-Linearität benutzen. Für (b) verwenden wir, dass eine alternierende k-lineare Abbildung verschwindet, sobald zwei Vektoren gleich sind. Daher bleiben von den k k Summanden der k Summen nur diejenigen übrig, wo .j1 ; : : : ; jn / eine Permutation von .1; : : : ; k/ ist. Offenbar kommt jede Permutation genau einmal vor. In (c) verwenden wir schließlich (6.27). Dies zeigt (6.30). Da 7! 1 eine Bijektion Sn ! Sn ist, was ja für jede Gruppe gilt, können wir auch X X sign. /1.1/ k.k/ D sign. / 1 ..1//;.1/ 1 ..k//;.k/ 2Sk 2Sk D X sign. / 1 .1/1 1 .n/n 1 2Sk schreiben. Da und 1 das gleiche Signum haben, folgt auch (6.29). t u Bemerkung 6.17. Sei k ein Körper mit char.k/ ¤ 2. Dann ist eine k-lineare Abbildung ˚W V V ! W genau dann alternierend, wenn für alle i ¤ j ˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk / (6.31) für alle v1 ; : : : ; vk 2 V gilt. Die eine Implikation gilt allgemein in jeder Charakteristik. Für die Umkehrung sei nun (6.31) gültig, so gilt ˚.v1 ; : : : ; vi ; : : : ; vi ; : : : ; vk / D ˚.v1 ; : : : ; vi ; : : : vi ; : : : ; vk / (6.32) und daher 2˚.v1 ; : : : ; vi ; : : : ; vi ; : : : ; vk / D 0: (6.33) Daraus können wir ˚.v1 ; : : : ; vi ; : : : ; vi ; : : : vk / D 0 schließen, sofern 2 ¤ 0, also char.k/ ¤ 2. Diese Eigenschaft erklärt die Bezeichnung alternierend. Alternativ verwendet man auch die Bezeichnung total antisymmetrisch. 212 6 Determinanten und Eigenwerte Die letzte Eigenschaft in Proposition 6.16 zeigt, dass es in endlichen Dimensionen keine alternierenden k-linearen Abbildungen ungleich 0 gibt, wenn k zu groß ist: Korollar 6.18. Sei dim V D n < 1 und k > n. Dann verschwindet jede k-lineare alternierende Abbildung ˚W V V ! W . Beweis. Sei .v1 ; : : : ; vn / eine geordnete Basis von V und w1 ; : : : ; wk 2 V beliebig. Dann gibt es eindeutig bestimmte Zahlen wij mit wi D n X wij vj j D1 für alle i D 1; : : : ; k. Da k > n, setzen wir für j > n vj D vn und ergänzen die rechteckige Matrix W D .wij / 2 Mkn .k/ zu einer quadratischen Matrix WQ D .wQ ij / 2 Mkk .k/, indem wir noch einige 0-Spalten hinzufügen. Damit gilt also wi D k X wQ ij vj ; j D1 da die neu hinzugekommenen Koeffizienten alle null sind. Mithilfe von Proposition 6.16, iv.), folgt 0 ˚.w1 ; : : : ; wk / D @ X 1 sign. /w Q .1/1 wQ .k/k A˚.v1 ; : : : ; vk / D 0; 2Sk da vn D vnC1 D D vk . t u Der spannende Fall ist also für k D n erreicht: Hier liefert Proposition 6.16 sofort eine eindeutige Charakterisierung. Proposition 6.19. Sei dim V D n < 1. Der Vektorraum der n-linearen alternierenden Abbildungen ˚W V V ! W (6.34) ist zu W isomorph. Ist .v1 ; : : : ; vn / eine geordnete Basis von V , so liefert die Zuordnung 6.2 Existenz und Eindeutigkeit der Determinante 213 ˚ 7! ˚.v1 ; : : : ; vn / (6.35) einen solchen Isomorphismus. Beweis. Wir zeigen, dass (6.35) ein Isomorphismus ist. Offensichtlich ist (6.35) linear, da die Vektorraumstruktur der alternierenden n-linearen Abbildungen die von Abb.V V; W / geerbte, punktweise erklärte Vektorraumstruktur ist, siehe auch Beispiel 4.11. Aus Proposition 6.16, iv.), erhalten wir die Injektivität dieser linearen Abbildung: Für u1 ; : : : ; un 2 V ist 0 ˚.u1 ; : : : ; un / D @ X 1 sign. /u1.1/ un.n/ A˚.v1 ; : : : ; vn / (6.36) 2Sn offenbar durch ˚.v1 ; : : : ; vn / eindeutig bestimmt. Also gilt ˚ D 0 genau dann, wenn ˚.v1 ; : : : ; vn / D 0. Die Formel (6.36) liefert auch einen Hinweis auf die Existenz. Für einen gegebenen Wert w 2 W definieren wir ˚W V V ! W analog zu (6.36) durch 0 ˚.u1 ; : : : ; un / D @ X 1 sign. /u1.1/ un.n/ A w; (6.37) 2Sn wobei wie immer ui D n X uij vj j D1 die Basisdarstellung von ui bezüglich der geordneten Basis .v1 ; : : : ; vn / ist. Für u1 D v1 ; : : : ; un D vn erhalten wir dank vij D ıij X 2Sn sign. /v1.1/ vn.n/ D X sign. /ı1.1/ ın.n/ D 1; 2Sn da nur für D id alle Faktoren in ı1.1/ : : : ın.n/ ungleich null und dann gleich 1 sind. Damit hat die durch die rechte Seite von (6.37) definierte Abbildung auf den Basisvektoren v1 ; : : : ; vn tatsächlich den vorgegebenen Wert w D ˚.v1 ; : : : ; vn /. Es bleibt zu prüfen, ob (6.37) sowohl n-linear als auch alternierend ist. Da die Koordinaten von ui uij D vj .ui / linear von ui abhängen, ist die n-Linearität von der rechten Seite in (6.37) klar. Sei nun i ¤ j und ui D uj . Wir müssen zeigen, dass dann die rechte Seite 214 6 Determinanten und Eigenwerte von (6.37) verschwindet, egal wie ˚.v1 ; : : : ; vn / vorgegeben wurde. Sei also ohne Einschränkung i < j . Dann definieren wir Sn0 D f 2 Sn j .i / < .j /g und Sn00 D f 2 Sn j .j / < .i /g: Es gilt offenbar Sn0 \Sn00 D ; und Sn D Sn0 [Sn00 . Weiter ist 2 Sn0 ” ij 2 Sn00 , womit dank ij ij D id die Abbildung Sn0 3 7! ij 2 Sn00 eine Bijektion ist. Sei nun 2 Sn , dann gilt wegen ui D uj auch für die Koeffizienten uir D ujr für alle r D 1; : : : ; n und damit u1.1/ ui.i/ uj .j / un.n/ D u1.1/ uj .i/ ui.j / un.n/ D u1 0 .1/ ui 0 .i/ uj 0 .j / un 0 .n/ (6.38) mit der Permutation 0 .1/ D .1/, . . . , 0 .i / D .j / D .ij .i //, . . . , 0 .j / D .i / D .ij .j //, . . . , 0 .n/ D .n/. Es ist also 0 D ij . Da schließlich sign. / D sign. 0 / sign.ij / D sign. 0 / für alle 2 Sn gilt, folgt X sign. /u1.1/ un.n/ 2Sn D X 2Sn0 (6.38) D X sign. /u1.1/ un.n/ C X 2Sn0 sign. 0 /u1 0 .1/ un 0 .n/ ij D 0 2Sn00 sign. /u1.1/ un.n/ X sign. /u1.1/ un.n/ 2Sn0 D 0: Damit ist die rechte Seite von (6.37) tatsächlich alternierend. t u Man beachte jedoch, dass der Isomorphismus (6.35) von der Wahl der geordneten Basis .v1 ; : : : ; vn / von V abhängt: Dieser Isomorphismus ist nicht natürlich, wie es beispielsweise der Isomorphismus von V ! V im endlich-dimensionalen Fall war. Wir können nun diese Resultate dafür verwenden, die Eigenschaften einer Determinante zu definieren, welche diese dann eindeutig festlegen: Wir betrachten dazu zunächst den Vektorraum W D k sowie V D kn . Da wir in kn eine ausgezeichnete Wahl der Basis haben, können wir alternierende n-lineare Abbildungen durch ihre Werte auf der Standardbasis e1 ; : : : ; en festlegen: 6.2 Existenz und Eindeutigkeit der Determinante 215 Definition 6.20 (Determinante). Sei n 2 N. Eine Determinantenform ˚ über kn ist eine alternierende n-lineare Abbildung ˚W kn kn ! k: (6.39) Eine Determinantenform heißt Determinante, wenn zudem ˚.e1 ; : : : ; en / D 1 (6.40) gilt. Sind a1 ; : : : ; an 2 kn Spaltenvektoren, so bilden diese die Spalten einer n nMatrix A D .a1 ; : : : ; an / 2 Mn .k/: (6.41) Umgekehrt liefern die Spalten einer nn-Matrix offenbar gerade n Spaltenvektoren in kn . Mithilfe dieser Identifikation Mn .k/ Š kn kn (6.42) können wir eine Determinantenform auch als Abbildung ˚W Mn .k/ ! k (6.43) auffassen. Man beachte jedoch, dass (6.43) nicht etwa linear ist: ˚ ist nur in jeder Spalte bei festgehaltenen übrigen Spalten linear. Wir werden zwischen den beiden Sichtweisen (6.43) und (6.39) ohne eigene Notation frei hin- und herwechseln. Die fundamentalen Eigenschaften der Determinantenformen klärt nun folgender Satz: Satz 6.21 (Determinante). Sei n 2 N. i.) Der Vektorraum der Determinantenformen über kn ist eindimensional. ii.) Es existiert genau eine Determinante detW kn kn ! k: (6.44) iii.) Explizit gilt für a1 ; : : : ; an 2 kn die Leibniz-Formel det.a1 ; : : : ; an / D X sign. /a1.1/ an.n/ ; 2Sn und jede andere Determinantenform ˚ ist von der Form (6.45) 216 6 Determinanten und Eigenwerte ˚.a1 ; : : : ; an / D ˚.e1 ; : : : ; en / det.a1 ; : : : ; an /: (6.46) iv.) Für alle A 2 Mn .k/ gilt det.A/ D det.AT /: (6.47) det.AB/ D det.A/ det.B/; (6.48) detW Mn .k/ ! .k; / (6.49) v.) Für alle A; B 2 Mn .k/ gilt womit ein Monoidmorphismus ist. Beweis. Nach Proposition 6.19 ist der erste Teil klar, da dim k D 1. Die Normierungsbedingung ˚.e1 ; : : : ; en / D 1 legt dann eine eindeutige Determinantenform, nun mit det bezeichnet, fest, was den zweiten Teil zeigt. Die Konstruktion in Proposition 6.19 beziehungsweise die explizite Formel in Proposition 6.16, iv.), liefert den dritten Teil, da ja det.e1 ; : : : ; en / D 1 gilt. Die beiden alternativen Varianten in Proposition 6.16, iv.), sind verantwortlich für den vierten Teil. Für die letzte Behauptung gibt es zwei Möglichkeiten: Zum einen kann man (6.48) mit einigem Aufwand direkt anhand der Formel (6.47) und der Gleichung (5.79) für die Matrixmultiplikation nachrechnen. Dies ist letztlich ohne große Schwierigkeiten möglich, siehe Übung 6.2. Alternativ können wir so argumentieren: Für eine feste Matrix A betrachten wir die Abbildung ˚A W Mn .k/ 3 B D .b1 ; : : : ; bn / 7! det.AB/ D det.Ab1 ; : : : ; Abn / 2 k; wobei b1 ; : : : ; bn 2 kn die Spalten von B seien. Es gilt, dass ˚A eine n-lineare Abbildung ist, da die Anwendung von A auf eine Spalte bi linear ist und det in jeder Spalte linear ist. Sind nun in B zwei Spalten gleich, so sind die entsprechenden Spalten in AB ebenfalls gleich. Damit folgt aber sofort, dass die Abbildung ˚A alternierend ist, da det alternierend ist. Nach der Eindeutigkeit gemäß ii.) folgt also ˚A .B/ D ˚A .1/ det.B/ D det.A/ det.B/; da offenbar ˚A .1/ D det.A/. Dies zeigt (6.48). Zusammen mit der Normierung det.1/ D 1 ist det also ein Monoidmorphismus. t u Korollar 6.22. Die Determinante liefert einen Gruppenmorphismus detW GLn .k/ ! k D k n f0g: (6.50) 6.2 Existenz und Eindeutigkeit der Determinante 217 Korollar 6.23. Die Determinante ist die eindeutige Abbildung Mn .k/ ! k, welche in den Zeilen n-linear, alternierend und auf det.1/ D 1 normiert ist. Beweis. Dies ist gerade der vierte Teil des Satzes 6.21. t u Für den späteren Gebrauch und zur Illustration berechnen wir nun einige einfache Determinanten: Beispiel 6.24 (Determinanten). Wir betrachten wieder die Matrizen Vi i 0 , Sij und Ri; der elementaren Umformungen aus Abschn. 5.5 für n 2. i.) Die Matrix Vi i 0 2 Mn .k/ geht durch Vertauschen der i -ten mit der i 0 -ten Spalte aus 1 hervor. Da die Transposition i i 0 das Signum 1 besitzt und det 1 D 1 gilt, folgt also det Vi i 0 D 1: (6.51) ii.) Für die Matrix Sij enthält die j -te Spalte eine 1 sowohl an der j -ten als auch an der i -ten Stelle. Daher ist diese j -te Spalte durch ej C ei gegeben. Weil für die k-te Spalte mit k ¤ j der einzige nichtverschwindende Eintrag eine 1 an der k-ten Stelle ist, gilt insgesamt Sij D .e1 ; : : : ; ej 1 ; ej C ei ; ej C1 ; : : : ; en /: (6.52) Mit der Linearität der Determinante in der j -ten Spalte folgt det Sij D det.e1 ; : : : ; en / C det.0; : : : ; 0; ei ; 0; : : : ; 0/ D 1 C 0; (6.53) da in der zweiten Matrix mindestens eine Spalte identisch 0 ist. Daher folgt (6.53) aus der Linearität von det in dieser Spalte. Also gilt det Sij D 1: (6.54) iii.) Für Ri; benutzen wir die Linearität in der i -ten Spalte und erhalten det Ri; D det.1/ D : (6.55) Da die Determinante einen Gruppenmorphismus (6.50) liefert, können wir den Kern dieses Gruppenmorphismus betrachten (man beachte, dass hier die Gruppen multiplikativ geschrieben sind). Dies liefert eine Untergruppe von GLn .k/, welche einen eigenen Namen verdient: Definition 6.25 (Spezielle lineare Gruppe). Sei n 2 N. Die spezielle lineare Gruppe SLn .k/ ist definiert als die Gruppe 218 6 Determinanten und Eigenwerte ˇ ˚ SLn .k/ D A 2 GLn .k/ ˇ det A D 1 : (6.56) Nach Beispiel 6.24 sehen wir, dass beispielsweise die Matrizen Sij in SLn .k/ liegen, die Matrizen Vi i 0 und Ri; für ¤ 1 jedoch nicht. Kontrollfragen. Was ist eine alternierende multilineare Abbildung? Was ist eine Determinantenform? Welche Beziehung von Determinante und Flächeninhalt kennen Sie? Wieso gilt det.AB/ D det.A/ det.B/? 6.3 Eigenschaften der Determinante Wir wollen nun einige weitere Eigenschaften der Determinante bestimmen. Im Prinzip lassen sich alle, wenn auch nur mühsam, anhand der expliziten Formel (6.45) von Leibniz beweisen. Wir werden allerdings oft einfachere Beweise mittels der eindeutigen Charakterisierung der Determinante durch ihre Eigenschaften angeben. Bemerkung 6.26 (Berechnung von det A). Mit der expliziten Formel (6.45) erhält man für kleine n sofort folgende Formeln für die Determinante. Für n D 1 gilt einfach det.a/ D a: (6.57) ab det D ad bc; cd (6.58) Für n D 2 erhält man a womit wir eine vorzeichenbehaftete Version des Flächeninhaltes des durch c b und aufgespannten Parallelogramms erhalten, siehe (6.11). Für n D 3 gibt die d Leibniz-Formel (6.45) die Terme 0 1 a11 a12 a13 a a a C a21 a32 a13 C a31 a12 a23 det@a21 a22 a23 A D 11 22 33 a21 a12 a33 a31 a22 a13 a11 a32 a23 : a31 a32 a33 (6.59) Dies stimmt mit dem Spatprodukt aus Beispiel 6.13, iii.) überein, was man durch eine schnelle Rechnung bestätigt. Als Merkregel bietet sich hier die Regel von Sarrus (Jägerzaunregel) 6.3 Eigenschaften der Determinante det a11 a12 a13 a21 a22 a23 a31 a32 a33 = − 219 a11 a12 a13 a11 a12 a21 a22 a23 a21 a22 a31 − a32 − a333 + a31 + a32 (6.60) + an, um die Produkte und die richtigen Vorzeichen zu finden. Eine analoge Regel gibt es für n 4 nicht: Wir wissen, dass es für n D 4 bereits 4Š D 24 Permutationen und damit 24 verschiedene Terme in (6.45) gibt. Eine jägerzaunartige Konstruktion in n D 4 liefert aber gerade 2 mal 4 Terme und damit sicherlich nicht genug, siehe auch Übung 6.3. Insgesamt sieht man, dass die Formel (6.45) für große n sehr ineffizient zur Berechnung von det.A/ wird: Die Zahl der Terme nŠ wächst einfach viel zu schnell. So erhält man etwa 1000Š ' 4:0239 102567 : (6.61) In Anwendungen ist es durchaus nicht abwegig, Determinanten von 1000 1000 Matrizen berechnen zu wollen. Eine explizite Auflistung aller Terme gemäß (6.45) würde aber jeden noch so schnellen Computer vor unlösbare Aufgaben stellen. Wir werden also insbesondere effizientere Methoden zur Berechnung von det.A/ benötigen als (6.45). Proposition 6.27. Sei n 2 N und A 2 Mn .k/. i.) Die Determinante det.A/ ist ein homogenes Polynom vom Grade n in den n2 Variablen a11 , a12 , . . . , ann . Insbesondere gilt det.A/ D n det.A/ (6.62) für alle 2 k. ii.) Ist eine Spalte von A identisch null, so gilt det.A/ D 0: (6.63) iii.) Ist eine Zeile von A identisch null, so gilt det.A/ D 0: (6.64) Beweis. Der erste Teil ist die vielleicht wichtigste Folgerung aus der Leibniz-Regel und anhand (6.45) klar. Der zweite Teil ist eine direkte Folge der Multilinearität. Der dritte Teil folgt aus dem zweiten und aus Satz 6.21, iv.). t u 220 6 Determinanten und Eigenwerte Zur Vorsicht sei hier angemerkt, dass es im Allgemeinen keine Möglichkeit gibt, det.A C B/ aus det.A/ und det.B/ zu berechnen. Insbesondere ist det.A C B/ im Allgemeinen verschieden von det.A/Cdet.B/. Die Determinante ist n-linear in den Spalten (oder Zeilen) aber eben nicht linear, siehe auch Übung 6.4. Nach Korollar 6.22 wissen wir, dass det.A/ ¤ 0 für eine invertierbare Matrix A 2 GLn .k/ gilt. Dies sind auch die einzigen Matrizen mit nicht-verschwindender Determinante: Proposition 6.28. Sei n 2 N. Für A 2 Mn .k/ gilt genau dann det A ¤ 0, wenn A invertierbar ist. Beweis. Es bleibt die Rückrichtung zu Korollar 6.22 zu zeigen. Sei also A 2 Mn .k/ nicht invertierbar. Dann ist also im A ¤ kn und damit rank A < n nach Proposition 5.54. Nach Satz 5.63 gibt es invertierbare Matrizen Q; P 2 Mn .k/ mit QAP D 1k 0 0 0 mit k D rank A < n. Damit hat QAP also mindestens eine 0-Spalte, und folglich gilt det.QAP / D 0. Nun gilt aber det Q ¤ 0 ¤ det P nach Korollar 6.22 und daher det A D 1 det.QAP / D 0 det Q det P t u nach Satz 6.21, v.). Wir haben also ein einfaches Kriterium für die Invertierbarkeit von Matrizen gefunden. Dies hat verschiedene wichtige Konsequenzen, eine erste wird im Falle reeller Matrizen in der Analysis relevant: Korollar 6.29. Die Menge der invertierbaren Matrizen GLn .R/ Mn .R/ Š Rn bildet eine offene Teilmenge aller Matrizen. 2 Beweis. Dies erfordert einige Argumente aus der Analysis: Zunächst wissen wir nach Proposition 6.27, i.), dass detW Mn .R/ ! R ein Polynom ist. Damit ist det insbesondere eine stetige Funktion. Daher ist das Urbild GLn .R/ D det1 .R n f0g/ der offenen Teilmenge R n f0g R selbst wieder offen. t u 6.3 Eigenschaften der Determinante 221 Wir wollen nun eine effektive Weise finden, die Determinante von (großen) Matrizen zu berechnen. Dazu bildet folgendes Lemma eine Vorüberlegung: Lemma 6.30. Sei n 2 N und A 2 Mn .R/ von der Form 1 A= 0 0 . 0 (6.65) n Dann gilt det A D 1 n : (6.66) Beweis. Wir verwenden die Leibniz-Formel (6.45). Ist 2 Sn eine Permutation ungleich id, so gibt es mindestens ein i 2 f1; : : : ; ng, wo .i / < i (6.67) gilt. Wäre nämlich .i / i für alle i , so folgte zunächst .n/ n also .n/ D n. Durch Induktion erhielte man dann .i / D i für alle i , also D id. Gilt also ¤ id und damit (6.67), so ist mindestens ein Faktor im Produkt a1.1/ an.n/ gleich null und damit a1.1/ an.n/ D 0. Es folgt det A D X sign. /a1.1/ an.n/ D a11 ann ; 2Sn wie behauptet. t u Definition 6.31 (Dreiecksmatrix). Eine Matrix A D .aij / 2 Mn .k/ heißt obere Dreiecksmatrix, falls aij D 0 für alle i > j . Entsprechend definiert man untere Dreiecksmatrizen durch die Bedingung aij D 0 für alle j < i . Gilt zudem ai i D 0 für alle i , so heißt A echte obere (beziehungsweise echte untere) Dreiecksmatrix. Mithilfe des Lemmas können wir die Determinanten von oberen Dreiecksmatrizen (oder auch von unteren) leicht berechnen, da von den nŠ vielen Termen in der Leibniz-Formel nur ein einziger von null verschieden ist. Wir können nun den GaußAlgorithmus dazu verwenden, die Matrix A auf obere Dreiecksform zu bringen: 222 6 Determinanten und Eigenwerte Bemerkung 6.32. Sei A 2 Mn .k/. Der Gauß-Algorithmus liefert eine Matrix Q als endliches Produkt von Matrizen der Form Vi i 0 ; Sij und Ri; mit i ¤ i 0 , i ¤ j und 2 k n f0g, sodass QA obere Zeilenstufenform 0 0 1 0 0 1 QA = (6.68) 0 0 1 besitzt. Insbesondere ist QA eine obere Dreiecksmatrix. Die Matrix A ist offenbar genau dann invertierbar, wenn der Gauß-Algorithmus 1 QA = 0 0 (6.69) 0 1 liefert. In diesem Fall gilt also det A D 1 : det Q (6.70) Da wir für die Matrizen Vi i 0 ; Sij und Ri; die Determinanten det Vi i 0 D 1; det Sij D 1; und det Ri; D (6.71) bereits kennen, können wir die Determinante von Q leicht mittels Satz 6.21, v.), als das Produkt der Determinanten der nötigen Faktoren Vi i 0 , Sij und Ri; berechnen. Dies liefert dann unmittelbar (6.70). Ein grobes Abzählen der nötigen Rechenschritte des Gauß-Algorithmus führt (egal wie man die Details implementiert) auf ein polynomiales Anwachsen der nötigen Schritte mit der Dimension n. Dies ist ein viel moderateres Wachstum als nŠ, wie man es aus der Leibniz-Formel direkt erhält. Daher bildet der Gauß-Algorithmus die Ausgangsbasis für Computerimplementierungen und die numerische Berechnung von Determinanten. 6.3 Eigenschaften der Determinante 223 Beispiel 6.33. Wir betrachten als Beispiel die Matrix 0 0 B3 ADB @6 3 1 125 5 0 1C C: 8 1 2A 204 Zuerst vertauschen wir die erste und zweite Zeile, multiplizieren also mit V12 und erhalten 0 3 B0 V12 A D B @6 3 1 501 1 2 5C C: 8 1 2A 204 (6.72) Dann addieren wir zur dritten beziehungsweise vierten Zeile ein geeignetes Vielfaches der ersten. Dies ändert die Determinante nicht. Wir können dies auch wieder mit einem geeigneten Produkt von elementaren Umformungen erreichen. Einfacher ist es jedoch, folgende Abkürzung einzuführen: Wir setzen Sij; D 1nn C Eij : (6.73) Diese Matrix unterscheidet sich also von der Matrix Sij aus (5.115) dadurch, dass ein beliebiger Skalar an der .i; j /-ten Stelle steht und nicht nur eine 1. Ganz allgemein ist Sij; A diejenige Matrix, die aus A hervorgeht, indem man zur i -ten Zeile das -Fache der j -ten Zeile addiert, siehe auch Übung 5.23. Es gilt det Sij; D 1 (6.74) für alle i ¤ j und 2 k mit dem gleichen Argument wie bereits für Sij . Wir erhalten daher 0 3 B0 S41;1 S31;2 V12 A D B @0 0 5 1 2 7 1 01 2 5C C: 1 0A 05 Weiter geht es mit der zweiten Spalte. Wir benötigen 0 35 B0 1 S42;7 S32;2 S41;1 S31;2 V12 A D B @0 0 00 0 2 5 14 1 1 5 C C: 10 A 13 224 6 Determinanten und Eigenwerte Schließlich erhalten wir für die dritte Spalte 0 3 B0 S43; 14 S42;7 S32;2 S41;1 S31;2 V12 A D B @0 5 0 5 1 0 0 0 2 5 0 1 1 5C C: 10 A 2 Die Determinante der rechten Seite ist nun einfach 0 3 B0 detB @0 0 5 1 0 0 1 0 1 2 5C C D 3 1 5 .2/ D 30: 5 10 A 0 2 Mit (6.74) und einem Vertauschen in (6.72) liefert das also insgesamt det A D 30: Eine ebenfalls in der Praxis sehr nützliche Vereinfachung ergibt sich für Blockmatrizen. Seien dazu A 2 Mnn .k/; B 2 Mnm .k/; C 2 Mmn .k/ und D 2 Mmm .k/ (6.75) gegeben. Dann heißt die Matrix A B XD 2 MnCm .k/ C D (6.76) eine Blockmatrix mit Blockstruktur .n; m/, siehe auch Übung 5.25 für einige allgemeine Eigenschaften zu Blockmatrizen. Interessant wird es nun, wenn einer der nichtdiagonalen Blöcke verschwindet. Proposition 6.34. Seien n; m 2 N und X 2 MnCm .k/ von der Blockstruktur AB XD : 0 D (6.77) det X D det A det B: (6.78) Dann gilt Beweis. Bringt man durch elementare Zeilenumformungen zunächst A auf obere Dreiecksgestalt, so verändert sich zwar der rechteckige Block B, aber nicht der quadratische Block D. Der Nullblock C D 0 wird ebenfalls nicht verändert. Dies ist klar, da nur die ersten n Zeilen dazu verwendet werden. Anschließend bringt man durch Zeilenumformungen der letzten m Zeilen die Matrix D auf obere 6.3 Eigenschaften der Determinante 225 Dreiecksgestalt. Dies erfordert wirklich nur die unteren m Zeilen, da der Block C ja bereits verschwindet. Für eine Matrix der Form a11 b11 b1m bnm 0 X = 0 0 ann bn1 0 0 d11 (6.79) 0 0 0 0 0 dmm 0 0 0 0 gilt dann det X 0 D a11 ann d11 dmm D det A0 det D 0 . Nun gilt aber det A0 D ˙ det A und det D 0 D ˙ det D; je nachdem, wie oft man Zeilen vertauschen musste, um (6.79) zu erreichen. Dasselbe Vorzeichen tritt aber auch in det X D ˙ det X 0 auf, sodass insgesamt (6.78) folgt. t u Alternativ kann man wieder mit der Leibniz-Formel argumentieren und letztlich die Idee von Lemma 6.30 dahingehend erweitern, auch Blockmatrizen der Form (6.73) zu erlauben. Etwas allgemeiner gilt sogar für Blockmatrizen der Form A1 X= 0 0 ∈ Mn ( ) 0 (6.80) An mit Ai 2 Mni .k/ und n1 C C nk D n die Rechenregel det X D det A1 det Ak : (6.81) Wichtig ist wieder nur, dass unterhalb der Diagonalen alle Blöcke verschwinden, die Blöcke oberhalb der Diagonalblöcke sind beliebig und tragen nicht zum numerischen Wert der Determinante bei. Eine unmittelbare Konsequenz dieser Überlegungen ist der folgende Entwicklungssatz von Laplace: 226 6 Determinanten und Eigenwerte Satz 6.35 (Entwicklungssatz von Laplace). Sei A 2 Mn .k/, und sei a1,1 a1,j−1 a1,j+1 a1,n ai−1,1 ai −1,j−1 ai −1,j+1 ai −1,n ai +1,1 ai −1,j−1 ai +1,j+1 ai +1,n an,1 an,j−1 an,j+1 an,n i-te Zeile (6.82) j-te Spalte Aij = diejenige .n 1/ .n 1/-Matrix, die man durch Streichen der i -ten Zeile und der j -ten Spalte aus A erhält. Dann gilt für alle j; k 2 f1; : : : ; ng n X .1/iCk aij det Aik D ıkj det A (6.83) iD1 und n X .1/iCk aj i det Aki D ıkj det A: (6.84) iD1 Beweis. Wir betrachten zunächst j D k. Für die n n-Matrix à ij = a1,1 a1,j−1 0 a1,j+1 a1,n ai −1,1 ai −1,j−1 0 ai −1,j+1 ai −1,n ai,1 ai,j−1 1 ai,j+1 ai,n ai +1,1 ai −1,j−1 0 ai +1,j+1 ai +1,n an,1 an,j−1 0 an,j+1 an,n , bei der wir die j -te Spalte durch den i -ten Vektor ei der Standardbasis ersetzen, gilt det AQij D .1/iCj det Aij ; 6.3 Eigenschaften der Determinante 227 da wir i 1 Vertauschungen benötigen, um die i -te Zeile an die oberste Position zu tauschen, und anschließend j 1 Vertauschungen, um die j -te Spalte an die erste Position zu tauschen. Nach unseren Resultaten zu Blockmatrizen gilt daher also tatsächlich 1 det à ij = (−1) i −1+j−1 det 0 = (−1) i + j det A ij , A ij 0 wie behauptet. Die Linearität der Determinante in der j -ten Spalte zeigt nun n X det A D a1j det AQ1j C C anj det AQnj D aij .1/iCj det Aij iD1 und damit (6.83) für den Fall k D j . Sei also als Nächstes k ¤ j . Wie immer bezeichnen wir die i -te Spalte von A mit ai 2 kn . Sei dann B D .a1 ; : : : ; aj ; : : : ; aj ; : : : ; an /; wo wir anstelle der k-ten Spalte von A die j -te Spalte wiederholen. Dann gilt offenbar det B D 0, da wir zweimal dieselbe Spalte in B vorliegen haben. Andererseits können wir wieder die Linearität der Determinante in der k-ten Spalte verwenden. Mit aj D n X aij ei iD1 finden wir dann det B = n i =1 = n i =1 aij det a1,1 a1,k−1 0 a1,k+1 a1,n ai −1,1 ai −1,k−1 0 ai − 1,k+1 ai −1,n ai,1 ai,k−1 1 ai,k+1 ai,n ai +1,1 ai − 1,k−1 0 ai +1,k+1 ai +1,n an,1 an,k−1 0 an,k+1 an,n aij (− 1) i + k det A ik , 228 6 Determinanten und Eigenwerte womit (6.83) auch für k ¤ j folgt. Die zweite Gleichung erhält man durch eine analoge Argumentation nach Vertauschen der Zeilen- und Spaltenindizes. t u Man nennt (6.83) für j D k auch die Entwicklung der Determinante nach der j -ten Spalte und (6.84) entsprechend die Entwicklung nach der j -ten Zeile. Bemerkung 6.36. Besitzt eine Matrix A eine Zeile oder eine Spalte mit vielen Nulleinträgen, so mag es vorteilhaft sein, den Entwicklungssatz zur konkreten Berechnung heranzuziehen. In der Matrix aus Beispiel 6.33 wäre hier die dritte Spalte interessant. Wir erhalten 0 1 1 1 0 0 125 3 51 0 15 5 0 1C C D .1/1C3 2 det@ 6 8 2A C .1/3C3 1 det@ 3 5 1A: 8 1 2A 3 2 4 3 2 4 204 (6.85) Die verbleibenden 3 3 Determinanten können dann mit der Regel von Sarrus berechnet werden. 0 B3 detB @6 3 Eine erste Anwendung aus dem Laplaceschen Entwicklungssatz ist die Cramersche Regel. Diese formulieren wir mithilfe der komplementären Matrix: Definition 6.37 (Komplementäre Matrix). Sei A 2 Mn .k/. Die Matrix A# D aij# i;j D1;:::;n mit aij# D .1/iCj det Aj i (6.86) heißt die zu A komplementäre Matrix. Manchmal wird auch der Begriff adjungierte Matrix in der Literatur verwendet. Wir bevorzugen jedoch „komplementär“ da wir „adjungiert“ im Zusammenhang von euklidischen oder unitären Vektorräumen noch anderweitig benutzen werden. Den Laplaceschen Entwicklungssatz können wir damit folgendermaßen umformulieren: Korollar 6.38. Sei A 2 Mn .k/. Dann gilt AA# D det A 1 D A# A: (6.87) Beweis. Wir berechnen den .k; j /-ten Eintrag von AA# und A# A explizit. Es gilt # .AA /j k D n X iD1 # aj i aik D n X iD1 aj i .1/iCk det Aki D ıkj det A 6.3 Eigenschaften der Determinante 229 und genauso .A# A/j k D n X aj# i aik D iD1 n X .1/iCj det Aij aik D ıkj det A; iD1 t u womit der Beweis erbracht ist. Ist A nun invertierbar, so liefert Korollar 6.38 unmittelbar eine explizite Formel für die inverse Matrix: Satz 6.39 (Cramersche Regel, I). Sei A 2 GLn .k/. Dann gilt A1 D 1 A# : det A (6.88) Bemerkung 6.40. Zur effektiven Berechnung von A1 ist (6.88) allerdings wenig tauglich: Es müssen ja n2 Determinanten für A# berechnet werden. Der GaußAlgorithmus zur Bestimmung der Inversen ist hier typischerweise einfacher: Man findet für A 2 GLn .k/ die (nicht eindeutigen) Matrizen Q; P 2 GLn .k/ mit QAP D 1 (6.89) gemäß Satz 5.63, sodass Q und P Produkte der Matrizen vom Typ Vi i 0 ; Sij und Ri; sind. Dann gilt mit (6.89) offenbar A1 D PQ; (6.90) siehe auch Übung 5.9. Trotzdem ist Satz 6.39 von erheblichem Interesse, wie etwa folgendes Resultat für k D R zeigt: Korollar 6.41. Sei n 2 N. Die Matrixinversion 1 W GLn .R/ 3 A 7! A1 2 GLn .R/ (6.91) ist stetig, ja sogar unendlich oft stetig differenzierbar. Beweis. Dieses Korollar greift ebenso wie zuvor auch Korollar 6.29 auf einige Resultate aus der Analysis zurück: Die Einträge von A# sind Determinanten und damit Polynome in den Koeffizienten von A. Als solche sind sie unendlich oft stetig differenzierbar. Weiter ist A 7! det A ein Polynom und damit unendlich oft stetig differenzierbar. Da nach Korollar 6.29 die invertierbaren Matrizen eine offene 2 Teilmenge von Rn bilden und det A ¤ 0 für A 2 GLn .R/, ist auch die Funktion 230 6 Determinanten und Eigenwerte A 7! det1 A auf GLn .R/ unendlich oft differenzierbar. Ein Zusammenfügen dieser Resultate liefert die Behauptung. t u Wir können die Cramersche Regel für die inverse Matrix nun auf lineare Gleichungssysteme anwenden. Seien dazu a1 ; : : : ; an ; b 2 kn und A D .a1 ; : : : ; an / 2 Mn .k/: (6.92) Wir schreiben in diesem Fall Aj .b/ D .a1 ; : : : ; aj 1 ; b; aj C1 ; : : : ; an / (6.93) für diejenigen Matrix, die wir durch Ersetzen der j -ten Spalte aj durch b aus A erhalten. Sei nun x 2 kn eine Lösung des inhomogenen linearen Gleichungssystems Ax D b: (6.94) Dann berechnen wir n X xi det.a1 ; : : : ; aj 1 ; ai ; aj C1 ; : : : ; an / iD1 D det a1 ; : : : ; aj 1 ; n X ! xi ai ; aj C1 ; : : : ; an (6.95) iD1 D det.a1 ; : : : ; aj 1 ; b; aj C1 ; : : : ; an / D det Aj .b/: Andererseits sind die Summanden auf der linken Seite von (6.95) sicherlich null, sofern i ¤ j , da dann der Spaltenvektor ai doppelt in der Determinante auftritt. Daher trägt nur i D j bei, und wir erhalten xj det A D det Aj .b/: (6.96) Dies liefert die zweite Variante der Cramerschen Regel: Satz 6.42 (Cramersche Regel, II). Sei A 2 Mn .k/ und b 2 kn . R i.) Ist x 2 Los.A; b/, so gilt für alle j 2 f1; : : : ; ng xj det A D det Aj .b/: (6.97) ii.) Ist A sogar invertierbar, so ist die eindeutige Lösung x D A1 b von (6.94) durch xj D det Aj .b/ det A (6.98) 6.3 Eigenschaften der Determinante 231 für j 2 f1; : : : ; ng gegeben. Der praktische Nutzen von (6.98) ist wieder eher gering aufgrund der aufwendigen Berechnung der Determinanten. Die Berechnung von x D A1 b gemäß des GaußAlgorithmus wie in (6.90) ist dann typischerweise viel einfacher. Trotzdem erhält man konzeptionell wichtige Aussagen aus Satz 6.42, wie etwa Stetigkeits- und Differenzierbarkeitsaussagen analog zu Korollar 6.41. Als eine erste interessante Anwendung betrachten wir folgende Matrix: Für 1 ; : : : ; n 2 k definieren wir die Vandermonde-Matrix V .1 ; : : : ; n / 2 Mn .k/ durch 0 1 21 : : : n1 1 C 22 : : : n1 2 C :: :: C: : : A 2 n1 1 n n : : : n 1 B1 B V .1 ; : : : ; n / D B : @ :: 1 2 :: : (6.99) Die zugehörige Vandermonde-Determinante lässt sich nun explizit berechnen: Proposition 6.43 (Vandermonde-Determinante). Seien 1 ; : : : ; n 2 k. Dann gilt det V .1 ; : : : ; n / D Y .j i /: (6.100) i<j Insbesondere ist V .1 ; : : : ; n / genau dann invertierbar, wenn die 1 ; : : : ; n paarweise verschieden sind. Beweis. Wir führen mehrere Spaltenoperationen durch, welche den Wert der Determinante nicht ändern. Zunächst subtrahieren wir von der k-ten Spalte das 1 -Fache der .k 1/-ten Spalte für alle k D 2; : : : ; n. Dies liefert 0 1 1 1 21 21 B1 2 1 2 2 1 2 B det V .1 ; : : : ; n / D detB : :: :: @ :: : : 1 n 1 2n n 1 0 1 0 0 B1 2 1 2 2 1 2 B D detB : :: :: @ :: : : 1 n 1 2n n 1 1 : : : n1 n1 1 1 C : : : n1 n2 2 2 1 C C :: A : : : : n1 n1 n n 1 1 ::: 0 C : : : n1 n2 2 2 1 C C: :: A : : : : n1 n2 n n 1 232 6 Determinanten und Eigenwerte Dann entwickeln wir nach der ersten Zeile 0 1 2 1 22 2 1 : : : n1 n2 2 2 1 B3 1 2 3 1 : : : n1 n2 1 C 3 3 3 B C D 1 detB : C: :: :: : @ : A : : 2 n1 n2 n 1 n n 1 : : : n n 1 In der verbleibenden .n 1/ .n 1/-Matrix nutzen wir nun die Linearität in der k-ten Zeile und können dort den gemeinsamen Faktor k 1 herausziehen. Dies führen wir für alle k D 1; : : : ; n 1 durch und erhalten 0 1 2 : : : n2 2 C 3 : : : n2 3 C :: C :: : A : n2 1 n : : : n 1 B1 B D .2 1 / .n 1 / detB : @ :: D .2 1 / .n 1 / det V .2 ; : : : ; n /: Eine einfache Induktion über n liefert nun das Ergebnis, da im letzten Schritt t u det V .n1 ; n / D n n1 gilt. Beispiel 6.44. Sei V ein Vektorraum über R mit abzählbarer unendlicher Basis fen gn2N 0 , wie beispielsweise die Polynome V D RŒx mit der Basis fx n gn2N 0 der Monome. Wir behaupten, dass der Dualraum V „viel“ größer als V ist: Er besitzt keine abzählbare Basis mehr! Sei nämlich 2 R n f0g. Dann gibt es ein eindeutig bestimmtes lineares Funktional ˛ 2 V mit ˛ .en / D n (6.101) für alle n 2 N0 . Wir behaupten, dass die Menge f˛ g2Rnf0g linear unabhängig ist. Zum Nachweis seien endlich viele paarweise verschiedene 1 ; : : : ; n 2 Rnf0g mit c1 ˛1 C C cn ˛n D 0 (6.102) für gewisse c1 ; : : : ; cn 2 R vorgegeben. Wir werten (6.102) auf e0 ; : : : ; en1 aus und erhalten die linearen Gleichungen c1 01 C C cn 0n D 0 :: : c1 n1 1 C C cn n1 n D 0: (6.103) 6.3 Eigenschaften der Determinante 233 Dieses System von linearen Gleichungen können wir aber als 0 B B B @ 1 1 :: : n1 1 10 1 1 ::: 1 c1 B c2 C 2 : : : n C CB C :: CB :: C D 0 :: : A@ : A : n2 n1 2 : : : n cn (6.104) schreiben. Die Matrix ist offenbar gerade V .1 ; : : : ; n /T und daher nach Proposition 6.43 und Proposition 5.61 invertierbar. Es folgt also c1 D D cn D 0 als einzige Lösung von (6.104). Daher ist die lineare Unabhängigkeit der ˛ gezeigt. Es gibt also mindestens .R n f0g/-viele linear unabhängige Vektoren in V . Eine weitere wichtige Anwendung der Vandermonde-Determinante ist folgender Identitätssatz für Polynome: Proposition 6.45. Sei n 2 N und k ein Körper mit mindestens n C 1 Elementen. Zu paarweise verschiedenen 1 ; : : : ; nC1 2 k und beliebig vorgegebenen z1 ; : : : ; znC1 2 k gibt es genau ein Polynom p 2 kŒx vom Grad n mit p.i / D zi (6.105) für alle i D 1; : : : ; n C 1. Beweis. Sei Vn kŒx der Untervektorraum der Polynome vom Grad n. Dieser hat offenbar die Dimension n C 1, und die Monome .1; x; : : : ; x n / bilden eine geordnete Basis A. Wir betrachten die lineare Abbildung 1 p.1 / C B :: nC1 ˚W Vn 3 p 7! @ A2k : : 0 p.nC1 / Da p.i / D an ni C C a1 i C a0 für alle i D 1; : : : ; n C 1, hat die lineare Abbildung ˚ bezüglich der Basis der Monome B D .1; : : : ; x n / und der Standardbasis A D .e0 ; : : : ; en / also die Form 1 1 1 : : : n1 B : :: :: C D V . ; : : : ; /: 1 nC1 A Œ˚ B D @ :: : : A 1 nC1 : : : nnC1 0 Da nach Voraussetzung die 1 ; : : : ; nC1 paarweise verschieden sind, gilt det. A Œ˚B / ¤ 0, und daher ist A Œ˚ B als Matrix invertierbar. Damit ist aber auch ˚ selbst invertierbar. Dann ist p D ˚ 1 .z/ das gesuchte Polynom. t u 234 6 Determinanten und Eigenwerte Das eindeutig bestimmte Polynom p mit (6.105) nennt man auch Interpolationspolynom, da es die vorgegebenen Punkte .1 ; z1 /, . . . , .nC1 ; znC1 / in der Zahlenebene k2 interpoliert. Man kann das Polynom p sogar explizit angeben. Es gilt p.x/ D nC1 X .x 1 / .x i1 /.x iC1 / .x nC1 / zi : .i 1 / .i i1 /.i iC1 / .i nC1 / iD1 (6.106) Setzt man nämlich j für j ¤ i in den i -ten Term der Summe für x ein, so enthält der Zähler einen Faktor .j j / D 0. Daher trägt für p.j / nur der j -te Term der Summe bei, dieser ist aber zj . Offenbar ist p ein Polynom vom Grad n. Hat der Körper k nicht genügend viele Elemente, so wird die Aussage des Satzes falsch: Etwa für k D Z2 sind die verschiedenen Polynome p1 .x/ D x 2 C x und p2 .x/ D 0 auf allen Elementen des Körpers gleich, und zwar null, da p1 .1/ D 12 C 1 D 1 C 1 D 0 und p1 .0/ D 0 (6.107) in Z2 . Als Polynome sind dagegen p1 und das Nullpolynom p2 D 0 verschieden. Dies ist letztlich der Grund dafür, dass wir Polynome wie in Definition 3.34 und nicht als spezielle Abbildungen von k nach k definiert haben. Kontrollfragen. Wie berechnet man Determinanten in kleinen Dimensionen? Für welche Matrizen A ist det.A/ ¤ 0? Wie können Sie mit dem Gauß-Algorithmus Determinanten bestimmen? Wie beweist man die Cramerschen Regeln und wozu kann man diese verwenden? Wie berechnet man die Vandermonde-Determinante? 6.4 Eigenwerte und Diagonalisierung Bei der Berechnung von Determinanten hatten wir bereits gesehen, dass es vorteilhaft ist, die Matrix durch geeignete Spalten- und Zeilenumformungen auf möglichst einfache Form zu bringen. Geometrischer interpretiert bedeutet dies, dass wir besondere Basen des Vektorraums suchen, bezüglich derer die lineare Abbildung besonders einfach wird. Können wir die Basen im Urbildraum und im Bildraum unabhängig voneinander wählen, so können wir dank Satz 5.63 beziehungsweise Satz 5.69 eine besonders einfache Form erreichen. Wollen wir aber bei einem Endomorphismus ˚W V ! V (6.108) jeweils dieselbe Basis verwenden, so steht uns deutlich weniger Freiheit zu. Der Wechsel von A Œ˚A zu B Œ˚B geschieht nach Korollar 5.43 durch B Œ˚ B D B ŒidV A A Œ˚ A A ŒidV B : (6.109) 6.4 Eigenwerte und Diagonalisierung 235 Nun gilt B ŒidV A A ŒidV B D B ŒidV B D 1BB (6.110) A ŒidV B B ŒidV A D A ŒidV A D 1AA ; (6.111) und womit im Falle von indizierten Basen A D fai gi2I und B D fbi gi2I die I I -Matrizen B ŒidV A und A ŒidV B zueinander invers sind. Man beachte, dass wir eine indizierte Basis verwenden sollten, damit die Matrizen B ŒidV A und A ŒidV B beide vom selben Typ, nämlich I I -Matrizen, sind. Nur dann können wir sinnvoll von „Inversem“ sprechen. Umgekehrt liefert auch jede invertierbare I I -Matrix einen solchen Basiswechsel. Diese Vorüberlegungen münden nun in folgende Begriffsbildung, die wir der Einfachheit wegen nur für dim V D n < 1 formulieren werden. Definition 6.46 (Ähnlichkeit). Zwei Matrizen A; B 2 Mn .k/ heißen ähnlich, wenn es eine invertierbare Matrix Q 2 GLn .k/ mit A D QBQ1 (6.112) gibt. In diesem Fall schreiben wir A B. Ähnliche Matrizen beschreiben also denselben Endomorphismus von V D kn bei geeigneter Wahl der Basis, wobei eben dieselbe Basis für Urbild und Bild verwendet wird. Man mache sich diesen entscheidenden Unterschied zur Äquivalenz von Matrizen in Mn .k/ gemäß Definition 5.67 klar. Bemerkung 6.47. Da GLn .k/ eine Gruppe ist, ist es leicht zu sehen, dass die Ähnlichkeit von Matrizen in Mn .k/ eine Äquivalenzrelation darstellt, wie auch schon die Äquivalenz von Matrizen. Während jedoch die Äquivalenz eine sehr einfache Klassifikation über die Normalform (5.128) erlaubt, ist dies für die Ähnlichkeit erheblich schwieriger. Trotzdem sehen wir bereits hier, dass ähnliche Matrizen dieselbe Determinante besitzen, da det.A/ D det.QBQ1 / D det.Q/ det.B/ det.Q/1 D det.B/ (6.113) nach (6.48) und (6.50). Eine besonders einfache Klasse von Matrizen sind die Diagonalmatrizen: Definition 6.48 (Diagonalmatrix). Eine Matrix D 2 Mn .k/ von der Form 0 B DD@ 0 1 :: 0 : n 1 C A (6.114) 236 6 Determinanten und Eigenwerte mit 1 ; : : : ; n 2 k heißt Diagonalmatrix. Wir schreiben dann auch D D diag.1 ; : : : ; n /: (6.115) Bemerkung 6.49 (Diagonalmatrizen). Die Diagonalmatrizen bilden einen ndimensionalen Unterraum von Mn .k/. Für eine Diagonalmatrix gilt offenbar det D D det diag.1 ; : : : ; n / D 1 n ; (6.116) womit D genau dann invertierbar ist, wenn alle Diagonaleinträge 1 ; : : : ; n ungleich null sind. In diesem Fall ist die inverse Matrix zu D durch 0 B D 1 D @ 1 1 1 0 :: C 1 1 A D diag.1 ; : : : ; n / : (6.117) 1 n 0 gegeben und daher selbst diagonal. Sind D1 D diag.1 ; : : : ; n / und D2 D diag.1 ; : : : ; n / diagonal, so ist auch 0 B D1 D2 D @ 10 1 :: CB A@ : n 1 1 :: 0 C B AD@ : 1 1 1 n :: C A D D2 D1 : (6.118) n n diagonal. Schließlich ist auch die Einheitsmatrix 1 D diag.1; : : : ; 1/ eine Diagonalmatrix. Es folgt, dass die Diagonalmatrizen nicht nur einen Unterraum, sondern auch ein kommutatives Untermonoid von Mn .k/ bilden. Entsprechend bilden die invertierbaren Diagonalmatrizen eine kommutative Untergruppe von GLn .k/. Diese Eigenschaften machen die Diagonalmatrizen zu einer besonders leicht zu handhabenden Klasse von Matrizen. Es stellt sich also die Frage, ob eine gegebene Matrix zu einer Diagonalmatrix ähnlich ist. Dazu bemerken wir zunächst, dass die Standardbasis e1 ; : : : ; en von kn für eine Diagonalmatrix D D diag.1 ; : : : ; n / die Eigenschaft Dei D i ei (6.119) für alle i D 1; : : : ; n besitzt. Die Diagonalmatrix verhält sich auf dem i -ten Basisvektor ei also gerade wie i mal die Einheitsmatrix. Dies motiviert nun folgende Begriffsbildung. Definition 6.50 (Eigenwerte und Eigenvektoren). Sei V ein Vektorraum über k, und sei ˚ 2 End.V /. 6.4 Eigenwerte und Diagonalisierung 237 i.) Eine Zahl 2 k heißt Eigenwert von ˚, falls es einen Vektor v 2 V n f0g mit ˚.v/ D v (6.120) gibt. ii.) Ein Vektor v 2 V nf0g heißt Eigenvektor zum Eigenwert von ˚, falls (6.120) gilt. iii.) Für einen Eigenwert 2 k von ˚ definiert man den Eigenraum ˇ ˚ V D v 2 V ˇ ˚.v/ D v : (6.121) iv.) Für einen Eigenwert 2 k von ˚ heißt dim V die Vielfachheit (oder Multiplizität) von . Bemerkung 6.51. Der Eigenraum V V ist offenbar tatsächlich ein Unterraum. Definiert man V durch (6.121) auch für beliebiges 2 k, so ist genau dann ein Eigenwert von ˚, wenn dim V 1. Bemerkung 6.52. Mit unserer üblichen kanonischen Identifikation Mn .k/ Š End.kn / können wir die Begriffe Eigenwert, Eigenvektor, Eigenraum und Vielfachheit auch für (quadratische) Matrizen anwenden. Proposition 6.53. Sei V ein Vektorraum über k, und sei ˚ 2 End.V /. Für 2 k sind äquivalent: i.) Die Zahl ist Eigenwert von ˚. ii.) Der Endomorphismus idV ˚ ist nicht injektiv. iii.) Es gilt dim ker. idV ˚/ > 0. Beweis. Wir zeigen i.) H) ii.) H) iii.) H) i.). Sei also ein Eigenwert, dann gibt es einen Eigenvektor v ¤ 0 zu , also ˚v D v. Dies bedeutet aber, dass . idV ˚/.v/ D 0, und daher ist idV ˚ nicht injektiv. Ganz allgemein wissen wir, dass ii.) ” iii.), siehe Proposition 5.14. Sei also schließlich dim ker. idV ˚/ > 0. Wir wählen einen Vektor v 2 ker. idV ˚/ mit v ¤ 0. Für diesen gilt ˚.v/ D v, womit v Eigenvektor zum Eigenwert ist. t u Proposition 6.54. Sei V ein Vektorraum über k, und sei ˚ 2 End.V /. Dann ist die Summe der Eigenräume direkt, also X Eigenwert V D M V : (6.122) Eigenwert Beweis. Seien 1 ; : : : ; n paarweise verschiedene Eigenwerte und v1 ; : : : ; vn zugehörige Eigenvektoren. Dann sind die v1 ; : : : ; vn ebenfalls paarweise verschieden, 238 6 Determinanten und Eigenwerte denn ist v 2 V n f0g ein Eigenvektor zu zwei Eigenwerten ¤ , so gilt v D ˚.v/ D v und damit v D 0 im Widerspruch zu v 2 V n f0g. Wir zeigen, dass die Vektoren v1 ; : : : ; vn linear unabhängig sind. Seien also z1 ; : : : ; zn 2 k mit z1 v1 C C zn vn D 0 gegeben. Dann gilt für alle i 0 D .1 ˚/ .i1 ˚/.iC1 ˚/ .n ˚/.z1 v1 C C zn vn / D .1 i / .i1 i /.iC1 i / .n i /zi vi ; da die Vektoren vj im Kern von j ˚ liegen und alle Faktoren .j ˚/ miteinander vertauschen. Da nach Voraussetzung die 1 ; : : : ; n paarweise verschieden sind und vi ¤ 0 gilt, folgt zi D 0 für alle i D 1; : : : ; n. Damit sind die Vektoren v1 ; : : : ; vn aber linear unabhängig. Nach Proposition 4.59, v.), ist die Summe direkt. t u Beispiel 6.55. Sei D D diag.1 ; : : : ; n / 2 Mn .k/ eine Diagonalmatrix mit paarweise verschiedenen Diagonaleinträgen. Dann sind die Vektoren ei 2 kn Eigenvektoren zum Eigenwert i . Es gilt also ei 2 Vi : (6.123) Ln Da nun bereits kn D iD1 spanfei g gilt, kann es keine anderen, dazu linear unabhängigen Eigenvektoren geben. Es gilt also insbesondere kn D n M Vi : (6.124) iD1 und Vi D spanfei g: (6.125) Alle Eigenwerte haben Vielfachheit 1. Treten verschiedene nun mehrfach auf der Diagonalen auf, so erhöht sich die Vielfachheit entsprechend. Beispiel 6.56. Sei V D kŒx und QW V ! V der Multiplikationsoperator mit x, also .Qp/.x/ D xp.x/ (6.126) 6.4 Eigenwerte und Diagonalisierung 239 für p 2 kŒx. Dann ist Q für alle 2 k injektiv. Sei nämlich p.x/ D an x n C C an x C a0 ein Polynom im Kern von Q. Dann gilt also 0 D p.x/ xp.x/ D an x n C an1 x n1 C C a1 x C a0 an x nC1 an1 x n a1 x 2 a0 x: Ein Koeffizientenvergleich liefert nun sofort an D 0 in Ordnung x nC1 , an1 D 0 in Ordnung x n , . . . , bis a0 D 0 in Ordnung x 1 unabhängig davon, was war. Es folgt also, dass Q keine Eigenwerte und keine Eigenvektoren besitzt. Aufgrund dieses und ähnlicher Beispiele wollen wir uns nun auf den endlichdimensionalen Fall zurückziehen. Die Theorie der Eigenwerte und Eigenvektoren in unendlichen Dimensionen ist erheblich komplizierter. Vernünftige Resultate lassen sich ohne den Einsatz von funktional-analytischen Methoden und Techniken kaum erzielen, siehe Übung 6.37, 6.38 und 6.39 für weitere Beispiele und Eigenschaften in beliebigen Dimensionen. Definition 6.57 (Diagonalisierbarkeit). Sei V ein endlich-dimensionaler Vektorraum über k. i.) Ein Endomorphismus ˚ 2 End.V / heißt diagonalisierbar, wenn es eine geordnete Basis B D .b1 ; : : : ; bn / von V gibt, sodass B Œ˚ B D diag.1 ; : : : ; n / (6.127) mit gewissen 1 ; : : : ; n 2 k. ii.) Eine Matrix A 2 Mn .k/ heißt diagonalisierbar, wenn sie zu einer Diagonalmatrix ähnlich ist. Beide Versionen sind letztlich gleichwertig, wie folgende Proposition zeigt: Proposition 6.58. Sei V ein endlich-dimensionaler Vektorraum über k und ˚ 2 End.V /. Dann sind äquivalent: i.) ii.) iii.) iv.) Der Endomorphismus ˚ ist diagonalisierbar. Es gibt eine Basis von Eigenvektoren von ˚. Es gibt eine Basis A V , sodass die Matrix A Œ˚A diagonalisierbar ist. Für alle Basen A V ist die Matrix A Œ˚ A diagonalisierbar. In diesem Fall sind die Diagonaleinträge derjenigen Diagonalmatrix D mit QDQ1 D A Œ˚A gerade die Eigenwerte von ˚. 240 6 Determinanten und Eigenwerte Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) i.). Sei also zunächst ˚ diagonalisierbar und B V eine Basis mit B Œ˚B D diag.; : : : ; n /. Für den i -ten Basisvektor bi gilt dann zum einen B Œbi D ei und zum anderen B Œ˚.bi / D B Œ˚B B Œbi D diag.1 ; : : : ; n / ei D i ei und damit ˚.bi / D i bi . Da für einen Basisvektor sicherlich bi ¤ 0 gilt, folgt, dass die Basis B D .b1 ; : : : ; bn / aus Eigenvektoren besteht. Die Diagonaleinträge 1 ; : : : ; n sind dann die entsprechenden Eigenwerte. Sei nun B D .b1 ; : : : ; bn / eine geordnete Basis von Eigenvektoren zu Eigenwerten 1 ; : : : ; n 2 k. Dann gilt für diese Basis offenbar B Œ˚B D ˚.bi /j i;j D1;:::;n D i ıij i;j D1;:::;n D diag.1 ; : : : ; n /; womit B Œ˚B bereits diagonal ist. Damit folgt ii.) H) iii.). Sei nun A V eine Basis, sodass A Œ˚A diagonalisierbar ist, und sei A0 eine beliebige andere Basis. Da A Œ˚ A diagonalisierbar ist, gibt es eine Diagonalmatrix D D diag.1 ; : : : ; n / und eine invertierbare Matrix Q 2 GLn .k/ mit Q A Œ˚A Q1 D D: Da A Œ˚A und P D A ŒidV A0 invertierbar D D QP D A ŒidV A0 A0 Œ˚A0 A0 ŒidV A mit P 1 D A0 ŒidV A ist, folgt A0 Œ˚A0 P 1 Q1 D QP durch Einsetzen A0 Œ˚ A0 .QP / 1 : Also ist auch A0 Œ˚A0 ähnlich zu D, womit iii.) H) iv.) gezeigt ist. Es gelte nun also iv.), und sei A V eine beliebige Basis. Dann gibt es Q 2 GLn .k/ mit Q A Œ˚A Q1 D D D diag.1 ; : : : ; n / mit gewissen 1 ; : : : ; n 2 k. Sei nun bj 2 V derjenige Vektor mit A Œbj D Q1 ei : Dann gilt A Œ˚.bi / D A Œ˚ A A Œbi D A Œ˚ A Q1 ei D Q1 Dei D Q1 i ei D i A Œbi : Dies bedeutet aber gerade ˚.bi / D i bi . Da die Vektoren b1 ; : : : ; bn nach wie vor eine Basis bilden, weil Q invertierbar ist, folgt für diese Basis B D .b1 ; : : : ; bn / also B Œ˚B D ˚.bi /j i;j D1;:::;n D i ıij i;j D1;:::;n D diag.1 ; : : : ; n /; womit auch iv.) H) i.) gezeigt ist. t u 6.5 Das charakteristische Polynom 241 Es stellt sich nun die entscheidende Frage, welche Matrizen tatsächlich diagonalisierbar sind und wie man effektiv die Eigenwerte und Eigenvektoren bestimmen kann. In folgender Situation ist dies einfach: Korollar 6.59. Hat A 2 Mn .k/ genau n paarweise verschiedene Eigenwerte, so ist A diagonalisierbar. Beweis. Da Eigenvektoren zu verschiedenen Eigenwerten nach Proposition 6.54 linear unabhängig sind, finden wir zu den verschiedenen Eigenwerten 1 ; : : : ; n zugehörige linear unabhängige Eigenvektoren b1 ; : : : ; bn . Da dies bereits n Vektoren sind, liegt eine Basis von kn vor, und wir können Proposition 6.58 zum Einsatz bringen. t u Schwierig wird die Situation also immer dann, wenn Eigenwerte eine nichttriviale Vielfachheit besitzen. Zudem ist über die Existenz von Eigenwerten an sich mehr in Erfahrung zu bringen. Kontrollfragen. Was ist der Unterschied von Äquivalenz und Ähnlichkeit von Matrizen? Was ist ein Eigenwert? Welche Kriterien für Diagonalisierbarkeit kennen Sie? Welche Eigenschaften haben die Eigenräume? 6.5 Das charakteristische Polynom In endlichen Dimensionen können wir die Existenz von Eigenwerten leicht prüfen, da wir ein einfaches Kriterium für die (Nicht-)Injektivität von ˚ idV über die Determinante besitzen. Wir betrachten nun also den Fall V D kn und identifizieren lineare Abbildungen in End.V / wie immer mit Matrizen in Mn .k/. In endlichen Dimensionen stellt dies ja keinerlei Einschränkung dar. Definition 6.60 (Charakteristisches Polynom). Sei A 2 Mn .k/. Dann heißt das Polynom A 2 kŒx A .x/ D det.A x1/ (6.128) das charakteristische Polynom von A. Bemerkung 6.61. Da die Determinante ein Polynom in den n2 Variablen a11 ; : : : ; ann vom homogenen Grad n ist, ist A .x/ tatsächlich ein Polynom in x vom Grad n. Lemma 6.62. Sei A 2 Mn .k/. Dann gilt A .x/ D .1/n x n C .1/n1 tr.A/x n1 C C det.A/; (6.129) 242 6 Determinanten und Eigenwerte wobei tr.A/ D n X ai i : (6.130) iD1 Beweis. Wir verwenden die Leibniz-Formel für die Determinante, um die relevanten Grade zu berechnen. Den konstanten Term von A .x/ erhält man, wenn man x D 0 setzt. Dies liefert det.A/. Den Term mit Grad n erhält man aus det.A x1/ D X sign. /aQ 1.1/ aQ n.n/ ; 2Sn wenn alle aQ i.i/ ein x enthalten, wobei aQ ij D A x1. Dies ist aber nur für D id möglich, da x nur auf der Diagonale von A x1 steht. Damit gilt aQ 11 aQ nn D .a11 x/ .ann x/ D .x/n C .x/n1 .a11 C C ann / C (6.131) D .1/n x n C .1/n1 x n1 tr.A/ C ; wobei C niedrigere Ordnungen als x n bedeuten soll. Um die Beiträge zu x n1 zu erhalten, müssen mindestens n 1 Einträge in aQ 1.1/ aQ n.n/ von der Diagonalen kommen. Daher muss die Permutation auf mindestens n 1 Indizes die Identität sein. Dies ist aber nur für D id möglich. Daher liefert (6.131) bereits alle Beiträge zu x n1 . t u Definition 6.63 (Spur). Sei A 2 Mn .k/. Dann heißt tr.A/ D n X ai i (6.132) iD1 die Spur (englisch: trace) von A. Das Lemma garantiert also, dass A .x/ ein Polynom n-ten Grades ist, dessen führender Koeffizient .1/n nicht verschwindet: Der Grad ist also nicht „zufällig“ kleiner, als es ein naives Abzählen wie in Bemerkung 6.61 erlauben könnte. Satz 6.64 (Eigenwerte und Nullstellen von A ). Sei A 2 Mn .k/. Eine Zahl 2 k ist genau dann ein Eigenwert von A, wenn eine Nullstelle von A ist. Beweis. Nach Proposition 6.54 ist 2 k genau dann ein Eigenwert, wenn A 1 nicht injektiv ist. Dies ist in endlichen Dimensionen aber dank Korollar 5.27 dazu 6.5 Das charakteristische Polynom 243 äquivalent, dass A 1 nicht invertierbar ist. Mit Proposition 6.28 ist dies aber zu det.A 1/ D 0 äquivalent. t u Beispiel 6.65. Wir betrachten n D 2. i.) Sei k D Q und 02 AD : 10 (6.133) 2 Dann gilt A .x/ D det x D x 2 2. Es gibt keine Nullstelle dieses p 1 x Polynoms in Q, da ˙ 2 ja bekanntermaßen irrationale Zahlen sind. Also hat A keinen Eigenwert. ii.) Betrachten wir p die gleiche MatrixpA als reelle Matrix, so gibt es Eigenwerte, nämlich 1 D 2 und 2 D 2. Damit ist A sogar diagonalisierbar. Um eine Basis von Eigenvektoren zu finden, müssen wir also nichtverschwindende Vektoren v 2 V1 und w 2 V2 angeben. Dazu ist das lineare Gleichungssystem 1 2 v1 D0 1 1 v2 (6.134) 2 2 w1 D0 1 2 w2 (6.135) beziehungsweise zu lösen. Eine einfache Rechnung zeigt, dass etwa vD p 2 und 1 wD p 2 1 (6.136) 2 nichttriviale Lösungen p sind.pBezüglich dieser Basis von R hat A also die Diagonalgestalt diag. 2; 2/. iii.) Sei nun k wieder beliebig und AD 01 ; 00 (6.137) dann gilt A .x/ D x 2 . Damit ist D 0 der einzige Eigenwert. Könnten wir nun eine Basis von Eigenvektoren v; w 2 k2 finden, so gälte Av D 0 v D 0 und Aw D 0 w D 0: (6.138) 244 6 Determinanten und Eigenwerte Damit wäre also ker A D spanfv; wg bereits zweidimensional und somit A D 0. Dies ist aber nicht der Fall, womit wir also keine Basis von Eigenvektoren finden können. Diese Matrix A ist nicht diagonalisierbar. Der Grund hierfür ist, dass es zwar Eigenwerte gibt, aber die Anzahl der linear unabhängigen Eigenvektoren zu klein ist, um eine Basis zu bilden. Ob es überhaupt Eigenwerte gibt, können wir durch entsprechend starke Forderungen an den zugrundeliegenden Körper klären: Satz 6.66 (Existenz von Eigenwerten). Sei k ein algebraisch abgeschlossener Körper. Dann hat jede Matrix A 2 Mn .k/ einen Eigenwert. Beweis. Nach Definition eines algebraisch abgeschlossenen Körpers hat jedes Polynom eine Nullstelle, so auch A . t u Beispiel 6.67. Wir betrachten die Matrix AD 0 1 ; 1 0 (6.139) welche im R2 eine Drehung um 90ı bewirkt. Über R hat das charakteristische Polynom A .x/ D x 2 C 1 keine Nullstelle. Geometrisch ist dies klar: Eine Drehung um 90ı hat keine Eigenvektoren, da sie jede Richtung dreht. Über C dagegen hat A .x/ sehr wohl Nullstellen, nämlich i und i. Damit ist A über C diagonalisierbar, über R dagegen nicht, siehe auch Übung 6.21. Dies zeigt, dass es oftmals vorteilhaft ist, einen Umweg über die komplexen Zahlen zu nehmen, auch wenn man letztlich an einem reellen Problem interessiert ist. Die Existenz von Nullstellen von A liefert also die Existenz von Eigenwerten. Für die Umkehrung hat man folgendes Resultat: Proposition 6.68. Ist A 2 Mn .k/ diagonalisierbar, so zerfällt A in Linearfaktoren: Sind nämlich 1 ; : : : ; n 2 k die nicht notwendigerweise verschiedenen Eigenwerte, so gilt A .x/ D .1 x/ .n x/: (6.140) Beweis. Sind nämlich Q 2 GLn .k/ und D D diag.1 ; : : : ; n / derart, dass A D QDQ1 , so gilt A .x/ D det.A x1/ D det.QDQ1 x1/ 6.5 Das charakteristische Polynom 245 D det.Q.D x1/Q1 / D det Q det.D x1/ det.Q1 / D det.D x1/ D .1 x/ .n x/; wobei wir det.Q1 / D .det Q/1 und (6.116) verwenden. t u Bemerkung 6.69 (Determinante eines Endomorphismus). Im Beweis der Proposition haben wir verwendet, dass der Wert einer Determinante sich nicht unter der Konjugation mit einer invertierbaren Matrix ändert: Für A 2 Mn .k/ und Q 2 GLn .k/ gilt det.A/ D det.QAQ1 /. Dies erlaubt es nun, auch für einen Endomorphismus ˚ 2 End.V / eines endlich-dimensionalen Vektorraums V über k eine Determinante und so auch ein charakteristisches Polynom zu definieren: Seien dazu A; B V beliebige geordnete Basen von V . Dann gilt det. B Œ˚B / D det. B ŒidV A A Œ˚A A ŒidV B / D det. A Œ˚ A /; da ja die Matrizen B ŒidV A und die Determinante von ˚ durch A ŒidV B (6.141) zueinander invers sind. Daher können wir det.˚/ D det. B Œ˚ B / (6.142) definieren. Dies ist sinnvoll, da die rechte Seite eben nicht von der gewählten Basis abhängt, sondern für jede Basis denselben Wert liefert. Entsprechend können wir auch das charakteristische Polynom von ˚ durch ˚ .x/ D det.˚ x idV / D det. B Œ˚B x1/ (6.143) definieren, was wieder nicht von der gewählten Basis abhängt. Die Eigenschaften der Determinante und des charakteristischen Polynoms übertragen sich nun wörtlich und ohne große Schwierigkeiten auf Endomorphismen eines endlich-dimensionalen Vektorraums. Wir werden die relevanten Eigenschaften nicht nochmals wiederholen, aber gelegentlich verwenden. Im Hinblick auf (6.140) können wir nun genauer spezifizieren, wieso die Matrix A aus (6.137) nicht über C diagonalisierbar ist, obwohl dort ja jedes Polynom nach Korollar 3.68 in Linearfaktoren zerfällt. Dazu betrachten wir allgemein folgende Situation: Definition 6.70 (Algebraische Vielfachheit). Sei A 2 Mn .k/ derart, dass A in Linearfaktoren A .x/ D .1 x/1 .k x/k (6.144) 246 6 Determinanten und Eigenwerte mit paarweise verschiedenen 1 ; : : : ; k 2 k zerfällt. Dann heißt der Exponent i 2 N die algebraische Vielfachheit des Eigenwerts i . Bemerkung 6.71. Nach Satz 6.64 wissen wir, dass für ein charakteristisches Polynom A der Form (6.144) die Zahlen 1 ; : : : ; k tatsächlich die (einzigen) Eigenwerte von A sind. Es gilt nun insbesondere 1 C C n D n; (6.145) da A ein Polynom n-ten Grades ist, siehe Lemma 6.62. Für einen algebraisch abgeschlossenen Körper wie etwa für k D C zerfällt jedes Polynom in Linearfaktoren. Proposition 6.72. Sei A 2 Mn .k/ eine Matrix, sodass A in Linearfaktoren zerfällt. Dann sind äquivalent: i.) Die Matrix A ist diagonalisierbar. ii.) Für alle i D 1; : : : ; k gilt i D dim Vi : (6.146) Beweis. Sei A diagonalisierbar und sei ei˛ 2 Vi mit ˛ D 1; : : : ; dim Vi eine Basis des i -ten Eigenraums. Also gibt es einen Basiswechsel Q 2 GLn .k/ mit QAQ1 D diag 1 ; : : : ; 1 ; 2 ; : : : ; 2 ; : : : ; k ; : : : ; k ; „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … dim.V1 /-mal dim.V2 /-mal dim.Vk /-mal wobei der i -te Eigenwert genau dim.Vi /-mal auftritt. Offenbar gilt QAQ1 .x/ D .1 x/dim.V1 / .k x/dim.Vk / : Wie wir bereits im Beweis von Proposition 6.68 gesehen haben, gilt QAQ1 .x/ D A .x/; da det.Q1 / D det1Q . Damit gilt also i D dim.Vi /. Ist umgekehrt (6.146) erfüllt, so folgt aus (6.145) dim.Vi / C C dim.Vk / D n; womit nach Proposition 6.54 V1 C C Vk D V1 ˚ ˚ Vk D kn 6.5 Das charakteristische Polynom 247 aus Dimensionsgründen folgt. Damit haben wir aber eine Basis von Eigenvektoren gefunden, indem wir in jedem Vi eine Basis wählen. Nach Proposition 6.58 ist dies äquivalent zur Diagonalisierbarkeit. t u Bemerkung 6.73. Manchmal nennt man dim.Vi / auch die geometrische Vielfachheit des Eigenwerts i . Dann kann man Proposition 6.72 also so formulieren, dass eine Matrix A 2 Mn .k/ mit in Linearfaktoren zerfallendem charakteristischem Polynom genau dann diagonalisierbar ist, wenn die algebraischen und geometrischen Vielfachheiten für jeden Eigenwert übereinstimmen. Wir kommen nun zu einer letzten wichtigen Eigenschaft des charakteristischen Polynoms. In verschiedenen Übungen haben wir gesehen, dass sich die Diagonalisierung manchmal sehr leicht durchführen lässt, wenn die Matrix beziehungsweise der Endomorphismus eine hinreichend leichte polynomiale Gleichung erfüllt. Insbesondere konnten in verschiedenen Beispielen die Eigenwerte und Eigenräume direkt bestimmt werden, ohne dass die charakteristische Gleichung A .x/ D 0 wirklich gelöst werden musste, siehe beispielsweise Übung 6.25. Wir wollen diese Vorüberlegung nun als Motivation verwenden, ganz allgemein zu untersuchen, ob ein Endomorphismus polynomiale Gleichungen erfüllt. Hierzu gibt es folgendes einfache Resultat, welches in unendlichen Dimensionen sicherlich falsch ist, siehe auch Übung 6.10: Lemma 6.74. Sei A 2 Mn .k/. Dann gibt es ein nichtkonstantes Polynom p 2 kŒx vom Grad n2 mit p.A/ D 0: (6.147) Beweis. Hier sei zunächst daran erinnert, dass wir für einen beliebigen Ring R von Polynomen RŒx sprechen können, und in ein solches Polynom Werte aus R einsetzen können, siehe Definition 3.38. Da R D Mn .k/ nichtkommutativ ist, ist beim Einsetzen zunächst auf die Reihenfolge zu achten. Weil wir aber ein Polynom mit Koeffizienten in k betrachten, ist dies unkritisch: Ist p.x/ D ar x r C C a1 x C a0 mit ar ; : : : ; a0 2 k, so können wir offenbar immer p.A/ D ar Ar C C a1 A C a0 1 für A 2 Mn .k/ betrachten. Genauer gesagt, können wir ar 2 k als ar 1 2 Mn .k/ identifizieren. Damit erhalten wir p 2 Mn .k/Œx mit Koeffizienten ar 1; : : : ; a1 1; a0 1. Da die skalaren Vielfachen von 1 mit allen Elementen aus Mn .k/ vertauschen, ist die Reihenfolge in .ar 1/ Ar D Ar .ar 1/ unerheblich. Nach dieser Vorüberlegung kommt also der eigentliche Beweis: Die n2 C1 Matrizen 248 6 Determinanten und Eigenwerte 1; A; A2 ; : : : ; An 2 können nicht alle linear unabhängig sein, da dim Mn .k/ D n2 < n2 C 1. Daher gibt es Zahlen a0 ; : : : ; an2 mit 2 an2 An C C a1 A C a0 1 D 0; von denen nicht alle null sind. Da 1 ¤ 0, kann nicht nur a0 ¤ 0 sein: Es muss auch mindestens eine Zahl an2 ; : : : ; a1 von null verschieden sein. Damit ist also das Polynom gefunden. t u Wir wollen nun einen letzten wichtigen Satz zum charakteristischen Polynom einer Matrix diskutieren, den Satz von Cayley und Hamilton. Er liefert insbesondere eine drastische Verbesserung der Schranke n2 in Lemma 6.74: Satz 6.75 (Cayley-Hamilton). Sei A 2 Mn .k/. Dann gilt A .A/ D 0: (6.148) Beweis. Zunächst als Warnung der falsche Beweis: Einsetzen von A für x in A .x/ D det.A x1/ liefert det.A A1/ D det.0/ D 0, also (6.148). Dies ist deshalb falsch, da hier die Determinante als Abbildung detW Mn .k/ ! k verwendet wird und det.A A1/ D 0 eine skalare Gleichung ist, anstelle der Matrixgleichung (6.148). Der richtige Beweis ist jedoch auch nicht viel schwerer: Wir betrachten die komplementäre Matrix B # zu B.x/ D A x1 2 Mn .k/Œx. Da die komplementäre Matrix Einträge aus Determinanten von Untermatrizen von B hat, ist B # selbst wieder ein Polynom in x. Hier ist es offenbar wichtig, dass die Determinante selbst ein Polynom in den Einträgen der Matrix ist. Dann gilt also B # .x/ 2 Mn .k/Œx. Wir können daher B # .x/ D Bn1 x n1 C C B1 x C B0 (6.149) schreiben: Der Grad von B # ist höchstens n1, da det ein Polynom vom homogenen Grad gleich der Dimension ist und in B # Determinanten von den .n 1/ .n 1/Matrizen Bij gebildet werden, die durch Streichen der i -ten Zeile und j -ten Spalte aus B hervorgehen. Da die Einträge in B höchstens vom Grad 1 in x sind, folgt (6.149). Nach dem Laplaceschen Entwicklungssatz in Form von Korollar 6.38 wissen wir, dass .A x1/ B # D BB # D det B 1 D A .x/1: Wir werten (6.150) nun Ordnung für Ordnung in x aus. Dazu schreiben wir A .x/ D .1/n x n C an1 x n1 C C a1 x C a0 (6.150) 6.6 Das Minimalpolynom und der Spektralsatz 249 für das charakteristische Polynom von A mit gewissen Koeffizienten an1 , . . . , a0 2 k. Nun gilt für die jeweiligen Ordnungen: in Ordnung x n : in Ordnung x n1 : :: : 1Bn1 ABn1 1Bn2 D D :: : .1/n 1 an1 1 AB1 1B0 AB0 D D a1 1 a0 1. in Ordnung x 1 : in Ordnung x 0 : .n/ .n 1/ :: : .1/ .0/ Wir multiplizieren nun die k-te Gleichung von links mit Ak und summieren alle resultierenden Gleichungen auf. Auf der linken Seite erhält man An Bn1 C An Bn1 An1 Bn2 C C A2 B1 AB0 C AB0 D 0; da sich alle Terme paarweise wegheben. Auf der rechten Seite erhält man .1/n An C an1 An1 C C a1 A a0 D A .A/; womit also A .A/ D 0 gezeigt ist. t u Bemerkung 6.76. Streng genommen müssen wir den Laplaceschen Entwicklungssatz hier für eine Matrix B.x/ 2 Mn .k/Œx D Mn .kŒx/ anwenden, deren Einträge aus dem Ring kŒx stammen und nicht aus dem Körper k. Ausgehend von der Leibniz-Formel für die Determinante ist es tatsächlich möglich, den Satz 6.35 und damit das entscheidende Korollar 6.38 zu zeigen, selbst wenn man k durch einen kommutativen Ring R mit Eins und Mn .k/ entsprechend durch Mn .R/ ersetzt. Der Grund ist, dass wir an keiner Stelle im Beweis von Satz 6.35 durch Elemente aus k teilen mussten. Aus diesem Grunde benötigen wir nicht die volle Stärke eines Körpers, sondern nur die Eigenschaften eines Rings. Die Kommutativität hingegen ist essenziell, siehe auch Übung 6.11. Kontrollfragen. Welche Rolle spielt das charakteristische Polynom? Was ist die Spur einer Matrix? Kann jede Matrix diagonalisiert werden? Was ist der Unterschied zwischen algebraischer und geometrischer Vielfachheit? Was besagt der Satz von Cayley-Hamilton? 6.6 Das Minimalpolynom und der Spektralsatz In Beispiel 6.65, iii.), haben wir gesehen, dass es ganz einfache Beispiele von Matrizen gibt, die sich nicht diagonalisieren lassen, egal welcher Natur der zugrunde liegende Körper k ist. Andererseits legen die Aussagen von Satz 6.66 nahe, dass die Eigenwerttheorie für algebraisch abgeschlossene Körper besonders einfach ist. Wir wollen in diesem Abschnitt nun versuchen, beide Aspekte zusammenzubringen. 250 6 Determinanten und Eigenwerte Das Minimalpolynom wird hierbei das entscheidende Werkzeug sein. Zunächst benötigen wir noch einige neue Begriffe: Definition 6.77 (Nilpotenz). Sei N 2 End.V /. Dann heißt N nilpotent, falls es ein k 2 N mit N k D 0 gibt. Definition 6.78 (Projektor). Sei P 2 End.V /. Dann heißt P idempotent oder ein Projektor, falls P 2 D P: (6.151) Proposition 6.79. Sei A 2 End.V /. Ist A nilpotent, so ist 0 2 k ein Eigenwert und auch der einzige Eigenwert. Beweis. Sei k 2 N mit Ak D 0. Ist A D 0, so gilt V D V0 , und 0 ist der einzige Eigenwert. Gilt A ¤ 0, so gibt es ein minimales k mit Ak D 0 aber Ak1 ¤ 0. Sei v 2 V mit Ak1 v ¤ 0. Dann ist w D Ak1 v 2 ker A ein Eigenvektor zum Eigenwert 0. Insbesondere ist 0 immer ein Eigenwert. Ist nun 2 k ein Eigenwert mit Eigenvektor v 2 V , so gilt Av D v und damit 0 D Ak v D k v: Da v ¤ 0, muss k D 0 sein, was D 0 impliziert. t u Korollar 6.80. Sei V endlich-dimensional und A 2 End.V / nilpotent und diagonalisierbar. Dann ist A D 0. Beweis. Sei v1 ; : : : ; vn 2 V eine Basis von Eigenvektoren zu A. Nach Proposition 6.79 ist dann Avi D 0 für alle i D 1; : : : ; n. Damit ist aber A D 0. t u Wir sehen also, dass sich die nilpotenten Endomorphismen ungleich 0 einer Diagonalisierung hartnäckig widersetzen. Daher ist es wohl vernünftig, „Diagonalisierung bis auf nilpotente Anteile“ anzustreben, da es ja auf jeden Fall nilpotente Endomorphismen gibt. Beispiel 6.81. Sei n 2 und 0 ∈ Mn ( ). A= 0 0 (6.152) 6.6 Das Minimalpolynom und der Spektralsatz 251 Dann gilt 0 0 A2 = , (6.153) 0 0 0 und durch weiteres Potenzieren verschiebt sich das Dreieck der möglichen von null verschiedenen Einträge immer um eine Reihe weiter nach rechts oben. Insgesamt folgt dann An D 0; (6.154) sodass alle derartigen Matrizen A nilpotent sind. Speziell für 0 1 0 0 Jn = 0 , (6.155) = 0, (6.156) 1 0 0 erhält man 0 0 1 0 J nn − 1 = 0 0 aber Jnn D 0. Analoge Beispiele findet man für echte untere Dreiecksmatrizen. Nach den nilpotenten Elementen in End.V / wollen wir also die Projektoren genauer betrachten. Diese sind immer auf besonders einfache Weise zu diagonalisieren. 252 6 Determinanten und Eigenwerte Proposition 6.82. Sei V ein Vektorraum über k und P D P 2 2 End.V / ein Projektor. i.) Die Abbildung 1 P ist ebenfalls ein Projektor. ii.) Es gilt im P D ker.1 P / und im.1 P / D ker P: (6.157) iii.) Es gilt V D im P ˚ ker P . iv.) Die Vektoren in im P n f0g sind Eigenvektoren von P zum Eigenwert 1, und entsprechend sind die Vektoren in ker P n f0g Eigenvektoren von P zum Eigenwert 0. v.) Der Projektor P ist diagonalisierbar mit V D V0 ˚ V1 und V0 D ker P sowie V1 D im P: (6.158) Beweis. Den ersten Teil rechnet man einfach nach. Es gilt .1 P /2 D .1 P /.1 P / D 1 2P C P 2 D 1 P , da P 2 D P . Sei nun v 2 im P , also v D P w für ein w 2 V . Dann gilt P v D P 2 w D P w D v. Umgekehrt erfüllt jedes v 2 V mit P v D v offenbar v 2 im P . Damit ist gezeigt, dass ˇ ˚ im P D v 2 V ˇ P v D v D V1 : Weiter gilt für v 2 im P .1 P /v D v P v D 0; also v 2 ker.1 P /. Umgekehrt folgt aus v 2 ker.1 P / sofort P v D v, also v 2 im P . Dies zeigt die erste Behauptung in (6.157). Da 1 P ebenfalls ein Projektor ist, folgt damit auch im.1 P / D ker.1 .1 P // D ker P; was den zweiten Teil zeigt. Sei v 2 V , dann ist P v 2 im P und v P v D .1 P /v 2 im.1 P / D ker P . Damit gilt also im P C ker P D V . Da im P D V1 der Eigenraum zum Eigenwert 1 ist und ker P D V0 der Eigenraum zum Eigenwert 0, folgt sofort V1 \ V0 D f0g, was iii.) und iv.) zeigt. Teil v.) ist damit auch klar. t u Es kann natürlich der Fall P D 1 auftreten, in dem 0 nicht Eigenwert von P ist. Entsprechend ist im Fall P D 0 nur 0 ein Eigenwert. In allen anderen Fällen treten sowohl 0 als auch 1 als Eigenwerte auf. Man beachte, dass diese Eigenschaften von Projektoren sogar in beliebigen Dimensionen gelten, auch wenn wir vornehmlich an dim V < 1 interessiert sind. Im unendlich-dimensionalen Fall wollen wir als Arbeitsdefinition „diagonalisierbar“ so verstehen, dass es eine Basis von Eigenvektoren gibt. Dies wird in der Funktionalanalysis dann nochmals präzisiert werden müssen. 6.6 Das Minimalpolynom und der Spektralsatz 253 Beispiel 6.83. Sei V ein n-dimensionaler Vektorraum und P D P 2 2 End.V / ein Projektor. Sei dim.im P / D rank P D k. Dann wählt man eine geordnete Basis .b1 ; : : : ; bk / von im P sowie eine geordnete Basis .bkC1 ; : : : ; bn / von ker P . Da im P ˚ ker P D V eine direkte Summe ist, folgt, dass .b1 ; : : : ; bn / D B eine geordnete Basis von V ist. Es gilt dann offenbar m k- 1 al B [P ]B 1 = (6.159) 0 0 mit k Einsen auf der Diagonalen. Diese Überlegung zeigt, dass zwei Projektoren in End.V / genau dann ähnlich sind, wenn ihr Rang derselbe ist. Wir können die Zerlegung von V in Kern und Bild eines Projektors auf mehrere Projektoren verallgemeinern. Der Einfachheit wegen betrachten wir hier nur endlich viele Projektoren, auch wenn entsprechende Resultate für beliebig viele Projektoren ohne großen Mehraufwand zu formulieren sind. Definition 6.84 (Zerlegung der Eins). Sei V ein Vektorraum. Eine Zerlegung der Eins sind Projektoren P1 ; : : : ; Pk 2 End.V / ungleich null, sodass i.) Pi Pj D ıij Pi für alle i; j D 1; : : : ; k, ii.) P1 C C Pk D 1. Beispiel 6.85. Nach Proposition 6.81 ist für einen Projektor P 2 End.V / P1 D P und P2 D 1 P (6.160) eine Zerlegung der Eins. Ist P D 1 (oder P D 0), so ist P (beziehungsweise 1P ) bereits eine Zerlegung der Eins. Proposition 6.86. Sei V ein Vektorraum. i.) Bilden die Projektoren P1 ; : : : ; Pk 2 End.V / eine Zerlegung der Eins, so gilt V D im P1 ˚ ˚ im Pk : (6.161) 254 6 Determinanten und Eigenwerte ii.) Sind U1 ; : : : ; Uk V nichttriviale Unterräume mit V D U1 ˚ ˚ Uk ; (6.162) so definieren die Projektoren Pi D prUi 2 End.V / auf den i -ten Unterraum eine Zerlegung der Eins. Beweis. Sei v 2 V , dann gilt nach Definition einer Zerlegung der Eins v D 1 v D P1 v C C Pk v; womit im P1 C C im Pk D V . Sei umgekehrt i 2 f1; : : : ; ng und w 2 im Pj1 C C im Pjr für gewisse j1 ; : : : ; jr ungleich i . Dann gilt also w D Pj1 u1 C C Pjr ur für gewisse u1 ; : : : ; ur 2 V und somit Pi w D Pi Pj1 u1 C C Pi Pjr ur D 0 C C 0 D 0 nach Pi Pj D ıij Pi . Also ist w 2 ker Pi . Da aber im Pi \ ker Pi D f0g nach Proposition 6.86, folgt sofort im Pi \ .im Pj1 C C im Pjr / D f0g: Dies zeigt, dass die Summe (6.161) direkt ist. Für den zweiten Teil verwenden wir zuerst, dass eine direkte Summe (6.162) für jeden Vektor v 2 V eindeutig bestimmte Komponenten v1 2 U1 ; : : : ; vk 2 Uk mit v D v1 C C vk (6.163) festlegt, siehe Proposition 4.59, iv.). Das definiert Abbildungen prUi W V 3 v 7! vi 2 V . Es ist nun leicht zu prüfen, dass die Eindeutigkeit der vi die Linearität der Abbildung prUi liefert. Ist v 2 Ui , so gilt offenbar prUi vi D vi und prUj vi D 0 für i ¤ j , wieder dank der Eindeutigkeit. Damit sind die Abbildungen Pi D prUi Projektoren mit Pi Pj D ıij Pi . Die Gleichung (6.163) bedeutet schließlich P1 C C Pk D 1, womit der zweite Teil gezeigt ist. t u Eine Zerlegung der Eins in Form von Projektoren ist also dasselbe wie eine Zerlegung von V in eine direkte Summe von Unterräumen. Anhand dieser Äquivalenz ist nun auch klar, dass es sinnvoll ist, Pi ¤ 0 zu fordern, da wir sonst nur Kopien des Nullraums in der Zerlegung von V hinzunehmen, welche typischerweise keine interessante Information tragen. Es gilt offenbar im Pi D Ui (6.164) 6.6 Das Minimalpolynom und der Spektralsatz 255 im Fall ii.) der Proposition 6.86. Dies liefert nun eine weitere geometrische Interpretation von Diagonalisierbarkeit: Proposition 6.87. Sei V ein endlich-dimensionaler Vektorraum und A 2 End.V /. Dann sind äquivalent: i.) Die Abbildung A ist diagonalisierbar. ii.) Es gibt eine Zerlegung der Eins P1 ; : : : ; Pk 2 End.V / und paarweise verschiedene 1 ; : : : ; k mit AD k X i P i : (6.165) iD1 In diesem Fall sind die 1 ; : : : ; k die Eigenwerte von A und Vi D im Pi : (6.166) Beweis. Sei A diagonalisierbar mit paarweise verschiedenen Eigenwerten 1 ; : : : ; k 2 k und mit zugehörigen Eigenräumen V1 ; : : : ; Vk . Wir wissen bereits, dass V D V1 ˚ ˚ Vk : Seien P1 ; : : : ; Pk die zugehörigen Projektoren für diese Zerlegung von V gemäß Proposition 6.86. Dann gilt für v 2 V Av D A k X iD1 Pi v D k X APi v D iD1 k X i Pi v; iD1 ˇ ˇ da Pi v 2 Vi und AˇV D i id ˇV nach der Definition von Eigenvektoren. Dies i i zeigt i.) H) ii.). Sei umgekehrt eine solche Zerlegung der Eins mit (6.165) gegeben. Dann gilt für v 2 im Pj offenbar Av D k X iD1 i P i v D k X i Pi Pj v D j v; iD1 da ja Pi Pj D ıij Pj , womit im Pj Vj im Eigenraum zu j enthalten ist. Die Wahl einer Basis für jedes im P1 ; : : : ; im Pk liefert dank der direkten Summe (6.161) und Proposition 4.59, ii.), eine Basis von V , die aus Eigenvektoren besteht. Also ist A diagonalisierbar. Aus Dimensionsgründen muss dann bereits Vi D im Pi gelten, womit die Zahlen 1 ; : : : ; k bereits alle Eigenwerte sind. t u 256 6 Determinanten und Eigenwerte Bemerkung 6.88 (Polynomialer Kalkül). Sei p 2 kŒx ein Polynom mit skalaren Koeffizienten, und sei A 2 End.V / ein fest gewählter Endomorphismus von V . Die Zuordnung kŒx 3 p 7! p.A/ 2 End.V / (6.167) ist k-linear und ein Ringmorphismus. Es gilt nämlich für ; 2 k und p; q 2 kŒx .p C q/.A/ D p.A/ C q.A/ (6.168) .pq/.A/ D p.A/q.A/; (6.169) sowie wobei für letztere Gleichung entscheidend ist, dass alle A-Potenzen miteinander vertauschen, siehe auch Übung 6.30. Ist A nun diagonalisierbar und in der Form (6.165) gegeben, so gilt 0 A` D @ k X 1 i 1 P i 1 A @ i1 D1 D 0 k X k X 1 i ` P i ` A i` D1 i 1 i ` P i 1 P i ` (6.170) i1 ;:::;i` D1 D k X `i Pi ; iD1 da Pi Pj D ij Pi und daher Pi1 Pi` nur dann ungleich null ist, wenn alle Indizes gleich sind. In diesem Fall gilt dann Pi Pi D Pi , da Pi ein Projektor ist. Es folgt daher für jedes p 2 kŒx p.A/ D k X p.i /Pi ; (6.171) iD1 womit wir sehr einfach die Potenzen von A berechnen können, sobald A diagonalisiert ist. Ist A nicht diagonalisierbar, so wollen wir A, wie bereits angekündigt, „bis auf nilpotente Anteile“ so gut wie möglich diagonalisieren. Zu diesem Zweck benötigen wir das Minimalpolynom von A: 6.6 Das Minimalpolynom und der Spektralsatz 257 Definition 6.89 (Minimalpolynom). Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V /. Dann heißt mA 2 kŒx Minimalpolynom von A, falls i.) mA .A/ D 0, ii.) mA minimalen Grad unter allen Polynomen p 2 kŒx mit p.A/ D 0 hat, iii.) der führende Koeffizient von mA auf 1 normiert ist. Proposition 6.90. Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V /. i.) Es existiert genau ein Minimalpolynom mA von A. ii.) Ist p 2 kŒx mit p.A/ D 0, so gibt es ein q 2 kŒx mit p D mA q: (6.172) Beweis. Nach Lemma 6.74 gibt es Polynome p 2 kŒx mit führendem Koeffizienten 1, für die p.A/ D 0 gilt. Unter diesen wählen wir eines mit minimalem Grad, womit die Existenz gezeigt ist. Ist p 2 kŒx beliebig, so können wir r; q 2 kŒx mit p D q mA C r und deg r < deg mA finden, indem wir Polynomdivision mit Rest verwenden, siehe Proposition 3.62. Gilt p.A/ D 0, so folgt 0 D p.A/ D q.A/mA .A/ C r.A/ dank des polynomialen Kalküls aus Bemerkung 6.88. Da aber mA .A/ D 0 gilt, folgt r.A/ D 0. Wäre nun r ein nichtkonstantes Polynom, so könnten wir den führenden Koeffizienten wieder auf 1 normieren und hätten ein Polynom mit den Eigenschaften des Minimalpolynoms von echt kleinerem Grad gefunden. Dies widerspricht der Minimalität, womit r D 0 folgt. Seien schließlich mA und m0A zwei Minimalpolynome. Dann gibt es also q; q 0 2 kŒx mit mA D q m0A und m0A D q 0 mA : Also gilt mA D qq 0 mA . Da mA den führenden Koeffizienten 1 besitzt, folgt qq 0 D 1. Daher ist q D q10 2 k ein konstantes Polynom. Da beide Minimalpolynome aber denselben führenden Koeffizienten 1 haben, muss q D q 0 D 1 und damit mA D m0A gelten. t u Korollar 6.91. Das Minimalpolynom teilt das charakteristische Polynom. Beweis. Dies folgt aus der Proposition 6.87 sowie aus dem Satz 6.75 von CayleyHamilton. t u 258 6 Determinanten und Eigenwerte Korollar 6.92. Das Minimalpolynom und das charakteristische Polynom besitzen dieselben Nullstellen, nämlich die Eigenwerte von A. Beweis. Die Nullstellen von A sind genau die Eigenwerte von A nach Satz 6.64. Sei nun 2 k ein Eigenwert von A und v 2 V n f0g ein Eigenvektor. Dann gilt Ak v D k v und somit 0 D mA .A/v D mA ./v: Da v ¤ 0 gilt, folgt mA ./ D 0. Sei umgekehrt 2 k eine Nullstelle von mA und sei q 2 kŒx, sodass A D mA q nach Korollar 6.91. Dann gilt A ./ D t u mA ./q./ D 0. Die Nützlichkeit des charakteristischen Polynoms und des Minimalpolynoms fußt im Wesentlichen auf der Existenz von Nullstellen der beiden. Daher wollen wir im Folgenden annehmen, dass A in Linearfaktoren zerfällt, welche wir zu Potenzen von paarweise verschiedenen Linearfaktoren zusammenfassen können. Es gelte also A .x/ D .1 x/1 .k x/k (6.173) mit paarweise verschiedenen 1 ; : : : ; k 2 k und gewissen 1 ; : : : ; n 2 N, den algebraischen Vielfachheiten der Eigenwerte. Da mA das charakteristische Polynom teilt und dieselben Nullstellen hat, gilt mA .x/ D .x 1 /m1 .x k /mk (6.174) mit gewissen natürlichen Zahlen m1 ; : : : ; mk 2 N, da jede Nullstelle auch wirklich einmal auftreten muss, sowie m 1 1 ; :::; m k k ; (6.175) da sonst A nicht von mA geteilt wird. Man beachte, dass mA mit (6.174) richtig normiert ist. Über einem algebraisch abgeschlossenen Körper k ist die Voraussetzung (6.173) insbesondere immer erfüllt. Wir fassen dies zusammen: Korollar 6.93. Zerfällt das charakteristische Polynom A von A in Potenzen von paarweise verschiedenen Linearfaktoren A .x/ D .1 x/1 .k x/k ; (6.176) so gibt es m1 ; : : : ; mk 2 N mit mA .x/ D .x 1 /m1 .x k /mk (6.177) 6.6 Das Minimalpolynom und der Spektralsatz 259 und m1 1 ; : : : ; mk k . Beispiel 6.94. Sei V D kn und A D 1. Dann ist 1 .x/ D det.1 x1/ D .1 x/n : (6.178) m1 .x/ D x 1 (6.179) Andererseits ist das Minimalpolynom, wie man direkt verifiziert. In diesem Fall ist also 1 D n, aber m1 D 1. Beispiel 6.95. Sei Jn 2 Mn .k/ wie in (6.155), also 0 1 0 Jn = 0 0 . (6.180) 1 0 0 Insbesondere wissen wir, dass Jn nilpotent ist. Nach Lemma 6.30 gilt Jn .x/ D det.Jn x1/ D .x/n : (6.181) Man überlegt sich nun schnell, dass mJn .x/ D x n (6.182) gilt: Offenbar ist tatsächlich Jnn D 0. Da mJn das charakteristische Polynom Jn teilen muss, folgt mJn .x/ D x k für ein 1 k n. Da Jnn1 ¤ 0, muss k D n gelten. Definition 6.96 (Verallgemeinerter Eigenraum). Sei V ein endlich-dimensionaler Vektorraum über k, und sei A 2 End.V /. Für einen Eigenwert 2 k von A definiert man den verallgemeinerten Eigenraum (auch: Hauptraum) ˇ n o ˇ VQ D v 2 V ˇ es gibt ein k 2 N mit .A 1/k v D 0 : (6.183) Bemerkung 6.97. Da für k k 0 0 ker.A 1/k ker.A 1/k (6.184) 260 6 Determinanten und Eigenwerte gilt, sieht man leicht, dass VQ tatsächlich ein Unterraum ist. Es gilt offenbar VQ D 1 [ ker.A 1/k (6.185) kD1 sowie V VQ : (6.186) Wie schon bei den Eigenräumen, kann man VQ durch (6.183) auch für beliebiges 2 k definieren. Ist jedoch kein Eigenwert, so ist VQ trivial, da dann A 1 injektiv ist. Also ist auch .A 1/k injektiv für alle k. Wir erhalten in diesem Fall also ker.A 1/k D f0g (6.187) für alle k 2 N, sofern kein Eigenwert ist. Anders ausgedrückt kann man sagen, dass A 1 höchstens dann nilpotent auf einem nichttrivialen Teilraum sein kann, wenn ein Eigenwert ist. Beispiel 6.98. Für die nilpotente Matrix Jn aus Beispiel 6.95 gilt offenbar VQ0 D kn , da Jnn D 0. Andererseits gilt V0 D ker Jn D ken ¤ VQ0 : (6.188) Wir nehmen nun an, dass das charakteristische Polynom A von A in Linearfaktoren zerfällt, und bezeichnen die paarweise verschiedenen Eigenwerte mit 1 ; : : : ; k , deren algebraische Vielfachheiten wir weiterhin mit 1 ; : : : ; k notieren. Das Minimalpolynom mA ist dann von der Form (6.177) wie in Korollar 6.93. Wir setzen pi .x/ D i mA .x/ D .x 1 /m1 ^ .x k /mk m .x i / i (6.189) i für i D 1; : : : ; k. Hier soll ^ bedeuten, dass wir den i -ten Faktor in diesem Produkt weglassen. Lemma 6.99. Die Polynome p1 ; : : : ; pk sind teilerfremd. Beweis. Dies ist klar, da nach Voraussetzung alle Nullstellen 1 ; : : : ; k paarweise verschieden sind. t u Lemma 6.100. Es gibt Polynome q1 ; : : : ; qk 2 kŒx mit p1 q1 C C pk qk D 1: (6.190) 6.6 Das Minimalpolynom und der Spektralsatz 261 Beweis. Dies folgt aus Lemma 6.99 und dem Lemma von Bezout, siehe Satz 3.69. u t Wir betrachten nun für i D 1; : : : ; k die linearen Abbildungen Pi D pi .A/qi .A/: (6.191) Lemma 6.101. Die Abbildungen P1 ; : : : ; Pk sind Projektoren und bilden eine Zerlegung der Eins. Es gilt also Pi Pj D ıij Pi (6.192) 1 D P1 C C P k : (6.193) für alle i; j D 1; : : : ; k sowie Weiter kommutieren A und die Pi , also ŒA; Pi D 0: (6.194) Beweis. Sei zunächst i ¤ j . Dann gilt Pi Pj D pi .A/qi .A/pj .A/qj .A/ i D .A 1 /m1 ^ .A k /mk qi .A/ j .A 1 /m1 ^ .A k /mk qj .A/ D 0; da wir zum einen die einzelnen Faktoren alle vertauschen dürfen und zum anderen für i ¤ j das Produkt pi .x/pj .x/ ein Vielfaches von mA .x/ ist. Damit liefert mA .A/ D 0 also Pi Pj D 0. Nun gilt weiter P1 C C P k D 1 nach Konstruktion der Polynome q1 ; : : : ; qk in Lemma 6.100 und dank des polynomialen Kalküls. Dies liefert schließlich Pi D Pi 1 D Pi .P1 C C Pk / D 0 C C Pi2 C C 0 D Pi2 ; also insgesamt (6.192) für alle i; j D 1; : : : ; k. Die letzte Eigenschaft (6.194) ist klar, da die Pi Polynome in A sind und daher mit A vertauschen. Dass Pi ¤ 0, folgt aus dem nächsten Lemma. t u 262 6 Determinanten und Eigenwerte Lemma 6.102. Für alle i D 1; : : : ; k gilt im Pi D VQi (6.195) AVQi VQi : (6.196) sowie Beweis. Sei r mi . Dann gilt nach (6.189) und (6.191) i .A i /r Pi D .A i /r .A 1 /m1 ^ .A k /mk qi .A/ D .A i /rmi mA .A/qi .A/ D 0; da mA .A/ D 0. Damit ist im Pi ker.A i /r (6.197) für großes r. Nach Bemerkung 6.97 liefert dies im Pi VQi . Für die umgekehrte Inklusion betrachten wir die Polynome .x i /r und pi .x/qi .x/. In pi .x/ tritt kein Faktor .x i / auf. Wäre ein Faktor .x i / in qi .x/ enthalten, so wäre .x i / ein Faktor in allen q1 .x/p1 .x/; : : : ; qk .x/pk .x/ und damit auch in 1 D q1 .x/p1 .x/ C Cqk .x/pk .x/. Dies ist aber offensichtlich nicht der Fall, da 1 keine Faktoren vom Grad 1 enthält. Also sind die Polynome .x i /r und pi .x/qi .x/ teilerfremd. Wir können daher erneut das Lemma von Bezout anwenden und erhalten Polynome a; b 2 kŒx mit 1 D a.x/.x i /r C b.x/pi .x/qi .x/: Einsetzen von A liefert dann die Gleichung 1 D a.A/.A i /r C b.A/Pi : (6.198) Da Pi D Pi2 ein Projektor ist, gilt V D im Pi ˚ ker Pi . Da im Pi ker.A i /r nach (6.197), folgt ker.A i /r D im Pi ˚ .ker.A i /r \ ker Pi /: Sei also v 2 ker.A i /r \ ker Pi , dann gilt nach (6.198) v D a.A/.A i /r v C b.A/Pi v D 0 C 0 D 0: 6.6 Das Minimalpolynom und der Spektralsatz 263 Das zeigt v D 0 und damit ker.A i /r D im Pi für r mi . Dies liefert die noch fehlende Inklusion VQi im Pi , womit (6.195) gezeigt ist. Insbesondere folgt Pi ¤ 0, da VQi ¤ f0g. Da A mit Pi vertauscht, folgt für alle v 2 V APi v D Pi Av; und somit A im Pi im Pi . Nach (6.195) ist dies aber gerade (6.196). t u Nach diesen Vorbereitungen sind wir nun in der Lage, eine erste Version des Spektralsatzes zu formulieren. Satz 6.103 (Spektralsatz). Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V /. Das charakteristische Polynom A von A zerfalle in Linearfaktoren A .x/ D .1 x/1 .k x/k (6.199) mit paarweise verschiedenen Eigenwerten 1 ; : : : ; k 2 k. Das Minimalpolynom mA von A sei entsprechend mA .x/ D .x 1 /m1 .x k /mk (6.200) mit 1 mi i . Seien weiter die Projektoren Pi 2 End.V / für i D 1; : : : ; k definiert wie in (6.191). Sei schließlich AS D k X iD1 i P i und AN D k X .A i 1/Pi : (6.201) iD1 i.) Die Abbildungen AS ; AN 2 End.V / sind Polynome in A und es gilt ŒAS ; AN D 0 sowie A D AS C AN : (6.202) ii.) Die Abbildung AS ist diagonalisierbar. iii.) Die Abbildung AN ist nilpotent. iv.) Die Abbildung A ist genau dann diagonalisierbar, wenn mA .x/ D .x 1 / .x k /; (6.203) also wenn m1 D D mk D 1. In diesem Fall gilt VQi D Vi sowie Pi D .A 1 / .A i1 /.A iC1 / .A k / .i 1 / .i i1 /.i iC1 / .i k / (6.204) 264 6 Determinanten und Eigenwerte und A D AS und AN D 0: (6.205) Beweis. Nach Konstruktion der Pi sind diese Projektoren Polynome in A. Daher sind auch die Abbildungen AS und AN ihrer Konstruktion nach Polynome in A. Insbesondere vertauschen sie mit A und auch untereinander. Da die Pi eine Zerlegung der Eins bilden, gilt AN D k X APi iD1 k X i P i D A iD1 k X Pi AS D A AS ; iD1 womit der erste Teil gezeigt ist. Der zweite Teil ist klar nach Proposition 6.87. Für den dritten Teil berechnen wir ArN explizit. Es gilt r AN D k X .A i1 /Pi1 .A ir /Pir i1 ;:::;ir D1 .a/ D k X .A i1 / .A ir /Pir Pir i1 ;:::;ir D1 D k X .A i /r Pi ; iD1 da Pi1 Pir nur ungleich null ist, falls alle Indizes gleich sind. Für i1 D D ir D i gilt dann Pi1 Pir D Pi , da Pi ein Projektor ist. Man beachte, dass wir in (a) die Reihenfolge ändern dürfen, da die Projektoren Pi alle untereinander und mit A vertauschen. Nach Lemma 6.102 und Bemerkung 6.97 gilt für r mi .A i /r Pi D 0: Wählen wir also r m1 ; : : : ; mk , so folgt ArN D 0, was den dritten Teil zeigt. Für den vierten Teil nehmen wir zuerst an, dass A diagonalisierbar ist. Dann gibt es eine Zerlegung der Eins Q1 ; : : : ; Qk 2 End.V / und paarweise verschiedene Eigenwerte 1 ; : : : ; k 2 k, sodass AD k X iD1 mit Vi D im Qi . Da Qi Qj D ıij Qi , folgt i Qi 6.6 Das Minimalpolynom und der Spektralsatz .A 1 / .A k / D k X .i1 1 /Qi1 i1 D1 k X D 265 k X .ik k /Qin ik D1 .i1 1 / .ik k /Qi1 Qik i1 ;:::;ik D1 D k X .i 1 / .i k /Qi iD1 D0 mit der analogen Argumentation wie zuvor. Daher verschwindet das Polynom .x 1 / .x k / auf A und wird somit vom Minimalpolynom geteilt, siehe Proposition 6.90, ii.). Zudem besitzt mA die Nullstellen 1 ; : : : ; k und ist daher ein Vielfaches von .x 1 / .x k /. Da der führende Koeffizient bereits auf 1 normiert ist, folgt (6.203). Sei umgekehrt (6.203) erfüllt. Wir schreiben A D AS C AN mit AS ; AN wie in (6.201). Dann gilt für die Polynome pi .x/qi .x/ .x i /pi .x/qi .x/ D mA .x/qi .x/ nach (6.203). Dies zeigt aber .A i /Pi D mA .A/qi .A/ D 0. Damit folgt aber sofort AN D 0 und A D AS , womit A diagonalisierbar ist. Es bleibt also, (6.204) für diesen Fall zu zeigen. Die Behauptung ist also, dass die Polynome qi aus Lemma 6.100 in diesem speziellen Fall durch 1 qi .x/ D .i 1 / .i i1 /.i iC1 / .i k / gegeben und damit insbesondere konstant sind. Wir zeigen die erforderliche Eigenschaft (6.190) direkt. Sei für diese Wahl von q1 ; : : : ; qn a.x/ D p1 .x/q1 .x/ C C pk .x/qk .x/ D k X .x 1 / .x i1 /.x iC1 / .x k / : . i 1 / .i i1 /.i iC1 / .i k / iD1 Nach Proposition 6.45 und der expliziten Formel (6.106) nimmt das Polynom a auf den Zahlen 1 ; : : : ; k immer den Wert 1 an. Da a aber höchstens den Grad k1 hat, ist a.x/ D 1 nach der Eindeutigkeitsaussage der Proposition 6.45. Damit erfüllen die q1 ; : : : ; qk aber (6.190), und die Pi sind durch (6.204) gegeben. t u Bemerkung 6.104. Die verallgemeinerten Eigenräume VQi von A sind ihrer Definition nach bereits durch A eindeutig bestimmt. Es gilt V D VQ1 ˚ ˚ VQk ; (6.206) 266 6 Determinanten und Eigenwerte da VQi D im Pi und die Pi eine Zerlegung der Eins bilden. Damit sind aber die Projektoren Pi ebenfalls eindeutig durch A festgelegt, nämlich mittels (6.206) und der Konstruktion aus Proposition 6.86. Die Polynome qi mit Pi D pi .A/qi .A/ (6.207) sind hingegen nicht eindeutig, da wir beispielsweise qi durch qi C mA ersetzen können, siehe auch Übung 3.31. Für die tatsächliche Bestimmung ist das Lemma von Bezout eher ungeeignet: Die Projektoren Pi erhält man direkt aus der Zerlegung (6.206), deren Bestimmung ein lineares Problem ist, sobald man die Eigenwerte von A kennt: Es müssen nur die Kerne von .A i /k für alle k 2 N bestimmt werden. Wir werden sehen, dass k dim V ausreicht. Die folgende Proposition zeigt nun, dass die Zerlegung von A in AS und AN durch die Bedingung ŒAS ; AN D 0 bereits eindeutig festgelegt ist: Proposition 6.105. Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V /. Das charakteristische Polynom A von A zerfalle in Linearfaktoren. Sind dann BS ; BN 2 End.V / mit A D BS C BN (6.208) gegeben, sodass BS diagonalisierbar ist, BN nilpotent ist und ŒBS ; BN D 0 gilt, dann gilt AS D BS AN D BN : und (6.209) Beweis. Es gilt insbesondere ŒA; BS D 0 D ŒA; BN . Seien nun 1 ; : : : ; k 2 k die Eigenwerte von BS und W1 ; : : : ; Wk die zugehörigen Eigenräume, sodass ˇ ˇ BS ˇW D i 1ˇW i i gilt. Da ABS D BS A, folgt AWi Wi ebenso wie BN Wi Wi : Damit ist aber auf dem Unterraum Wi die Abbildung ˇ ˇ ˇ AˇW i 1ˇW D BN ˇW i i i nilpotent. Dies ist nur möglich, wenn i ein Eigenwert von A ist, siehe Bemerkung 6.97. Nach Definition ist VQi der größte Unterraum, auf dem A i nilpotent ist. Daher folgt Wi VQi : 6.6 Das Minimalpolynom und der Spektralsatz 267 L Da BS diagonalisierbar ist, gilt kiD1 Wi D V . Da die VQi ebenfalls eine direkte Summe bilden, muss folglich sogar Wi D VQi für alle i gelten. Insbesondere ˇ alle Eigenwerte von A als Eigenwerte von ˇ treten auch BS auf. Da aber AS durch AS ˇVQ D i 1ˇVQ bereits festgelegt ist, siehe (6.201), muss i i t u AS D BS gelten. Damit folgt dann auch AN D BN . Definition 6.106 (Jordan-Zerlegung und Spektralprojektoren). Sei A End.V /, sodass A in Linearfaktoren zerfällt. 2 i.) Die Menge der Eigenwerte von A heißt Spektrum spec.A/ k von A. ii.) Die Zerlegung A D AS C AN heißt Jordan-Zerlegung von A in den halbeinfachen Teil AS und den nilpotenten Teil AN von A. iii.) Die Projektoren P1 ; : : : ; Pk heißen die Spektralprojektoren von A. iv.) Ist A D AS diagonalisierbar, so heißt AD k X i P i (6.210) iD1 mit den Spektralprojektoren Pi von A die Spektralzerlegung oder auch Spektraldarstellung von A. Bemerkung 6.107. Der Spektralsatz kann also insbesondere so verstanden werden, dass wir eine Diagonalisierung bis auf nilpotente Anteile erreicht haben. Zudem ist die Aufspaltung in diagonalisierbaren und nilpotenten Anteil eindeutig vorgegeben. Die Formulierung mithilfe der Spektralprojektoren anstelle von Eigenvektoren erweist sich später als die leistungsfähigere, wenn man anstelle von endlich-dimensionalen auch unendlich-dimensionale Vektorräume betrachten will. In der Funktionalanalysis werden analoge Aussagen wie Satz 6.103 für bestimmte lineare Abbildungen auf Hilbert-Räumen formuliert und bewiesen. Die Beweistechniken sind jedoch notwendigerweise sehr von den hier verwendeten verschieden: In unendlichen Dimensionen gibt es einfache Beispiele für Endomorphismen A 2 End.V /, sodass A; A2 ; A3 ; : : : alle linear unabhängig sind, siehe Übung 6.10. In solch einem Fall gibt es also kein Minimalpolynom. Schließlich sei angemerkt, dass die Voraussetzung eines in Linearfaktoren zerfallenden charakteristischen Polynoms eher technischer Natur ist: In der Algebra wird insbesondere gezeigt, dass es zu einem Körper k immer einen größeren Körper k0 gibt, der zum einen k umfasst und zum anderen selbst algebraisch abgeschlossen ist. Auf diese Weise kann A zwar vielleicht nicht in kŒx in Linearfaktoren zerlegt werden, wohl aber in k0 Œx. Man muss also nur den Vektorraum V zu einem Vektorraum V 0 über k0 erweitern und kann dort dann den Spektralsatz anwenden. In vielen Anwendungen ist k D R 268 6 Determinanten und Eigenwerte und damit nicht algebraisch abgeschlossen. Ein Übergang zu den komplexen Zahlen C ist daher oft die Methode der Wahl. Wir werden konkrete Anwendungen beim Exponenzieren von Matrizen hierzu in Band 2 sehen. Kontrollfragen. Was ist eine nilpotente Matrix? Was ist eine Zerlegung der Eins? Wie können Sie eine diagonalisierbare Abbildung mithilfe der Projektoren auf die Eigenräume schreiben? Wieso ist das Minimalpolynom eindeutig? Welche Nullstellen hat das Minimalpolynom? Was ist ein verallgemeinerter Eigenraum? Wozu benutzen Sie das Lemma von Bezout im Beweis des Spektralsatzes? Welche Eigenschaften hat die Jordan-Zerlegung? 6.7 Die Jordan-Normalform Die Aussage des Spektralsatzes und insbesondere die Zerlegung A D AS C AN in einen diagonalisierbaren und einen nilpotenten Teil ist für viele Zwecke völlig ausreichend. Manchmal ist es jedoch nützlich, eine geeignete Basis zu wählen, um für die Matrix von A eine besonders einfache Form zu erzielen. Für den diagonalisierbaren Teil ist klar, was zu tun ist: Man wählt eine Basis von Eigenvektoren. Da nun AS AN D AN AS vertauschen, folgt AN VQi VQi (6.211) ˇ D i 1ˇVQ ein i Vielfaches der Identität ist und generell AS AN D AN AS gilt. Ist nun dim VQi D 1, so ist die einzige nilpotente Abbildung AN durch die Nullabbildung gegeben. Ist dagegen dim VQi 2, so gibt es nichttriviale nilpotente Abbildungen AN . Wir wollen nun unter den vielen Möglichkeiten, eine Basis von Eigenvektoren von AS in VQi zu wählen, eine besonders einfache suchen, so dass AN eine möglichst einfache Form annimmt. Inspiriert durch die spezielle nilpotente Matrix Jn aus (6.155) in Beispiel 6.81 definiert man die Jordan-Matrizen folgendermaßen: ˇ für alle Eigenwerte i von A: Dies erhält man daraus, dass AS ˇVQ i Definition 6.108 (Jordan-Matrix). Sei n 2 N. Dann heißt die Matrix 0 Jn = 1 0 0 0 1 0 die n n-Jordan-Matrix. 0 ∈ Mn ( ) (6.212) 6.7 Die Jordan-Normalform 269 Nach Beispiel 6.81 gilt also 0 0 1 0 J nn = 0 aber J nn − 1 = 0 = 0 . (6.213) 0 Insbesondere ist die Jordan-Matrix Jn nilpotent, und wir können ihre Potenzen leicht bestimmen. Auf der kanonischen Basis e1 ; : : : ; en 2 kn liefert die Jordan-Matrix Jn e1 D 0; Jn e2 D e1 ; Jn e3 D e2 ; und entsprechend für alle i; j D 1; : : : ; n ( 0 i Jn ej D ej i :::; Jn en D en1 falls i j (6.214) (6.215) falls j > i: Die Matrix Jn „schiebt“ also die Indizes der kanonischen Basis eins nach unten. Wir verwenden die Jordan-Matrizen von verschiedener Größe nun dazu, eine Normalform für eine beliebige nilpotente Abbildung zu erzielen. Satz 6.109 (Normalform für nilpotente Endomorphismen). Sei V ein endlichdimensionaler Vektorraum über k und sei ˚ 2 End.V / nilpotent. Sei weiter ˇ ˚ r D min ` 2 N ˇ ˚ ` D 0 : (6.216) Dann gibt es eindeutig bestimme Zahlen n1 ; : : : ; nr 2 N0 mit nr 1 sowie eine Basis B V mit nr al -m Jr Jr nr − al -m 1 Jr− 1 B[ ]B = , Jr− 1 J1 al -m n1 J1 (6.217) 270 6 Determinanten und Eigenwerte wobei Js genau ns -mal auftritt für alle s D 1; : : : ; r. Es gilt dim V D r nr C .r 1/ nr1 C C 1 n1 : (6.218) Beweis. Die Basis selbst ist nicht eindeutig und erfordert einige Wahlen, lediglich die Anzahlen der Jordan-Matrizen vom jeweiligen Typ sind eine charakteristische Größe von ˚. Die Konstruktion ist daher nicht kanonisch. Wir betrachten zunächst folgende Teilräume V` D ker ˚ ` ; (6.219) wobei also V0 D ker ˚ 0 D ker 1 D f0g. Für diese Teilräume erhalten wir nun Folgendes: Zunächst gilt für v 2 ker ˚ ` auch ˚ `C1 v D ˚ 1 ˚ ` v D 0 und somit V` V`C1 für alle ` 0. Ist nun v 2 V`C1 , so gilt 0 D ˚ `C1 v D ˚ ` ˚v. Dies zeigt ˚v 2 V` und somit ˚.V`C1 / V` : (6.220) Wir zeigen nun, dass die Vektoren in V`C1 die einzigen sind, die nach V` abgebildet werden. Es gilt nämlich v 2 ˚ 1 .V` / ” ˚.v/ 2 V` ” ˚ ` ˚.v/ D 0 ” v 2 V`C1 für alle `. Damit folgt also V`C1 D ˚ 1 .V` / (6.221) und insbesondere ˚.V`C1 / D V` . Die Abbildung ˇ ˚ ˇV `C1 W V`C1 ! V` ist also surjektiv. Weiter behaupten wir, dass für alle 0 ` r 1 die Vektorräume V` und V`C1 verschieden sind: Wäre nämlich V` D V`C1 , so gälte für jeden Vektor v 2 V`C1 sogar ˚ ` v D 0. Damit gälte aber für alle v 2 V dank (6.220) zunächst ˚ r`1 v 2 V`C1 , da ja offenbar nach Definition von r gerade Vr D V gilt. Nach Annahme wäre dann 0 D ˚ ` ˚ r`1 v D ˚ r1 v für alle v 2 V im Widerspruch zur Minimalität von r. Daher sind also die Inklusionen 6.7 Die Jordan-Normalform 271 f0g D V0 ¨ V1 ¨ ¨ Vr1 ¨ Vr D V alle echt. Es folgt also insbesondere r dim V; da in jedem Schritt mindestens eine linear unabhängige Richtung hinzukommen muss. Als letzte Eigenschaft bemerken wir, dass für einen ˇ Unterraum W V mit W \V` D f0g für ein 1 ` r 1 die Einschränkung ˚ ˇW injektiv ist. Ist nämlich v 2 W mit ˚.v/ D 0, so folgt nach Definition v 2 ker ˚ D V1 V` dank (6.221). ˇ Da nun nach Voraussetzung aber W \ V` D f0g gilt, folgt v D 0 und ˚ ˇW ist injektiv. Daher gilt also für 1 ` r 1 ˇ W \ V` D f0g H) ker ˚ ˇW D f0g: (6.222) Wir nutzen diese Eigenschaften nun, um rekursiv geeignete Unterräume von V zu konstruieren. Zuerst wählen wir einen Komplementärraum Wr ˚ Vr1 D Vr D V zu Vr1 . Dies ist nach Proposition 4.62 immer möglich, stellt aber eine nichtkaˇ nonische Wahl dar. Nach Definition von Wr gilt Wr \ Vr1 D f0g, womit ˚ ˇWr dank (6.222) injektiv ist. Weiter ist Wr Vr und daher ˚.Wr / Vr1 nach (6.220). Schließlich gilt wegen (6.221) ˚.Wr / \ Vr2 D f0g; (6.223) da ˚ 1 .Vr2 / D Vr1 und Vr1 \ Wr D f0g. Es kommen also nur solche Vektoren nach Vr2 unter ˚, die in Vr1 liegen. Gilt also ˚.w/ 2 Vr2 für w 2 Wr , so folgt bereits w 2 Wr \ Vr1 D f0g, also w D 0 und daher ˚.w/ D 0. Dies zeigt (6.223). Wir haben nun also zwei Unterräume ˚.Wr / und Vr2 von Vr1 , welche trivialen Durchschnitt besitzen. Es gilt daher ˚.Wr / C Vr2 D ˚.Wr / ˚ Vr2 . Diesen Unterraum ergänzen wir durch ein Komplement zu Vr1 , wieder auf nichtkanonische Weise. Dadurch erhalten wir einen Teilraum Wr1 Vr1 mit ˚.Wr / Wr1 und Vr2 ˚ Wr1 D Vr1 : Wir sind also mit dem Paar Wr1 und Vr1 in derselben Situation wie zuvor mit Wr und Vr . Daher können wir induktiv weitere Unterräume Wr2 ; : : : ; W1 finden, welche dann folgende Eigenschaften besitzen: • • • • W` V` für alle ` D 1; : : : ; r. W` \ V`1 D f0g für alle ` D 1; : : : ; r. ˚.W` / W`1 und ˚.W1 / D f0g für alle ` D 2; : : : ; r. V`1 ˚ W` D V` für alle ` D 1; : : : ; r. 272 6 Determinanten und Eigenwerte Nach Konstruktion erhalten wir also folgende Aufspaltung von V in V D W 1 ˚ W2 ˚ : : : ˚ Wr und V1 D W1 D ker ˚ V2 D W1 ˚ W2 :: : V` D W1 ˚ : : : ˚ W` .r/ .r/ für alle ` D 1; : : : ; r. Die Dimension von Wr sei nr , und v1 ; : : : ; vnr 2 Wr sei eine ˇ geordnete Basis von Wr . Da Vr1 ¤ V , wissen wir insbesondere nr > 0. Da ˚ ˇWr .r/ .r/ nach (6.222) injektiv ist, sind die Vektoren ˚.v1 /; : : : ; ˚.Vnr / nach wie vor linear unabhängig. Nach ˚.Wr / Wr1 können wir sie zu einer Basis .r/ .r1/ .r/ /; v1 ˚.v1 /; : : : ; ˚.vm r ; : : : ; vn.r1/ r1 von Wr1 ergänzen, wobei dim Wr1 D dim Wr C nr1 . Induktiv erhalten wir somit eine Basis von W` für alle ` D 1; : : : ; r der Form .r/ /; ˚ r` .v1 /; : : : ; ˚ r` .vn.r/ r .r1/ ˚ r`1 .v1 /; : : : ; ˚ r`1 .vn.r1/ /; r1 :: : `C1 ˚.v1 /; : : : ; ˚.vn.`C1/ /; `C1 .`/ v1 ; : : : ; vn.`/` : Da die W` zusammen V als direkte Summe aufspannen, folgt, dass alle diese Basen zusammen eine Basis von V bilden. Wir sortieren diese nun danach, wie oft wir ˚ anwenden können, bevor wir 0 erhalten. Zuerst erhalten wir diejenigen .r/ .r/ Basisvektoren v1 ; : : : ; vnr , auf die wir ˚ insgesamt maximal .r1/-mal anwenden können, was die rnr Basisvektoren .r/ .r/ .r/ v1 ; ˚.v1 /; : : : ; ˚ .r1/ .v1 / :: : .r/ ; ˚.v /; : : : ; ˚ .r1/ .vn.r/ / vn.r/ n r r r liefert. Als Nächstes kommen diejenigen .r 1/nr1 Basisvektoren .r1/ v1 .r1/ ; ˚.v1 .r1/ /; : : : ; ˚ .r2/ .v1 / 6.7 Die Jordan-Normalform 273 :: : .r1/ .r1/ .r1/ vnr1 ; ˚.vnr1 /; : : : ; ˚ .r2/ .v1 /; welche eine Anwendung von ˚ von insgesamt r 2-mal erlauben. Dies geht nun weiter bis .2/ .2/ v1 ; ˚.v1 / :: : ; ˚.vn.2/ / vn.2/ 2 2 und schließlich zu den Basisvektoren des Kerns von ˚ .1/ : v1 ; : : : ; vn.1/ 1 Hier folgt aus ˚.W` / W`1 V`1 , dass `-fache Anwendung von ˚ auf Ba.`/ sisvektoren von Typ v˛ immer null ergibt. Insbesondere können wir anhand all dieser Basisvektoren die Matrix der Abbildung ˚ bezüglich dieser so angeordneten Basis leicht ablesen und erhalten daraus gerade (6.217). Es bleibt also zu zeigen, dass die Zahlen nr ; nr1 ; : : : ; n1 von den obigen Wahlen unabhängig sind. Zunächst ist klar, dass dim V` D dim ker ˚ ` nur von ˚, aber nicht von den Wahlen der W` abhängt. Mit dim W1 D dim V1 und der rekursiven Gleichung dim V` D dim W1 C C dim Wr folgt weiter, dass die Dimensionen der W` nur von ˚ abhängen. Nach Konstruktion der Basis gilt nun nr D dim Wr nr1 D dim Wr1 nr :: : n` D dim W` nr nr1 n`C1 :: : n1 D dim W1 nr n2 : Damit sind die Zahlen n1 ; : : : ; nr tatsächlich Eigenschaften von ˚, unabhängig von t u den gewählten Komplementen Wr ; : : : ; W1 . Korollar 6.110. Sei A 2 Mn .k/ nilpotent und ˇ ˚ r D min ` 2 N ˇ A` D 0 : Dann gilt r n. (6.224) 274 6 Determinanten und Eigenwerte Korollar 6.111. Sei A 2 Mn .k/ nilpotent. Dann gibt es eindeutig bestimmte Zahlen r 2 N und n1 ; : : : ; nr 2 N0 mit nr 1 sowie eine invertierbare Matrix Q 2 GLn .k/ mit ⎞ ⎛ Jr al -m nr Jr al -m 1 Jr–1 n r– QAQ−1 = Jr–1 J1 al -m n1 ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ J1 ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟, ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ (6.225) wobei die s-te Jordan-Matrix Js gerade ns -mal auftritt. Bemerkung 6.112. Wir können Satz 6.109 auch als Klassifikationsresultat bezüglich der Ähnlichkeit von nilpotenten Matrizen verstehen. Sind A; B 2 Mn .k/ nilpotent, so sind A und B genau dann ähnlich, wenn die Zahlen r; n1 ; : : : ; nr gemäß Satz 6.109 für A und B übereinstimmen. In diesem Fall sind sie nämlich beide zu einer Matrix der Form (6.217) ähnlich. Bemerkung 6.113. Auch wenn der Beweis von Satz 6.109 recht unübersichtlich scheint, so liefert er doch einen konkreten Algorithmus, wie die Normalform berechnet werden kann: Zunächst müssen die Kerne der Potenzen ˚ ` bestimmt werden. Dies gelingt durch wiederholte Anwendung des Gauß-Algorithmus auf die linearen Gleichungen der Form ˚ ` v D 0. Anschließend müssen die Komplemente W` gewählt werden. Dazu muss das Bild ˚.W` / in V`1 bestimmt werden, was wieder auf das Lösen linearer Gleichungen hinausläuft. Das Finden des Komplements von V`2 ˚ ˚.W` / ist ebenfalls ein lineares Problem. Insgesamt müssen wir also nur lineare Gleichungen lösen und nicht etwa Nullstellen komplizierterer Polynome finden, wie dies beim allgemeinen Spektralsatz 6.103 nötig ist. Beispiel 6.114. Wir betrachten 1 012 A D @0 0 3A 2 Mr .k/: 000 0 (6.226) 6.7 Die Jordan-Normalform 275 Als echt obere Dreiecksmatrix ist A nilpotent. Explizit erhalten wir 1 003 A2 D @0 0 0A und 000 0 A3 D 0: (6.227) Offenbar gilt V1 D ker A D spanfe1 g V2 D ker A2 D spanfe1 ; e2 g: (6.228) und V3 D R3 . Wir können daher W3 D spanfe3 g als Komplement zu V2 wählen. .3/ Als Basisvektoren im eindimensionalen W3 wählen wir v1 D e3 . Dann gilt .3/ Av1 0 1 2 D @3A und 0 .3/ A2 v1 0 1 3 D @0 A: (6.229) 0 Diese Vektoren bilden bereits eine Basis von R3 , wir sind also an dieser Stelle schon fertig. Zur Kontrolle betrachten wir A.W3 / V2 . Wir müssen W2 so wählen, dass .3/ wir ein Komplement zu A.W3 / ˚ V1 in V2 erhalten. Es gilt aber, dass Av1 und e1 linear unabhängig sind und V2 bereits aufspannen. Daher ist W2 D A.W3 / die einzige Wahl gemäß der Konstruktion im Beweis von Satz 6.109. Es kommen also .2/ keine neuen Basisvektoren vom Typ vi hinzu: Wir haben n2 D 0. Schließlich gilt 2 A.W2 / D A .W3 / D spanfe1 g und damit A.W2 / D ker ˚ D V1 . Daher ist auch hier kein Komplement mehr möglich, und wir haben W1 D A.W2 / D V1 . Es gibt keine .1/ Basisvektoren vom Typ vi und damit ist n1 D 0. Bezüglich der Basis (6.229) hat A also die Form 1 010 D @0 0 1 A D J 3 : 000 0 QAQ1 (6.230) Wir können nun den Normalformensatz für nilpotente Endomorphismen mit den Resultaten des Spektralsatzes kombinieren: Dies liefert dann eine angepasste Basis von Eigenvektoren des halbeinfachen Teils, sodass der nilpotente Anteil Normalform annimmt: Satz 6.115 (Jordan-Normalform). Sei V ein n-dimensionaler Vektorraum über k, und sei ˚ 2 End.V / ein Endomorphismus mit in Linearfaktoren zerfallendem charakteristischem Polynom ˚ . Dann gibt es eine Basis B von Eigenvektoren von ˚S , sodass B Œ˚ B die Blockform 276 6 Determinanten und Eigenwerte 1 B[ + N1 2 ]B = + N2 (6.231) k + Nk hat, wobei für jedes i D 1; : : : ; k ⎛ ⎞ al -m ri n i, Jri al -m Jri –1 –1 ri n i, Jri –1 J1 al -m n i,1 ⎜ J ⎜ ri ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ Ni = ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ J1 ⎠ (6.232) mit ni;s -vielen Jordan-Matrizen Js für alle s D 1; : : : ; ri . Die Eigenwerte 1 ; : : : ; k 2 k, die Dimensionen dim VQ1 ; : : : ; dim VQk 2 N der verallgemeinerten Eigenräume, sowie die Parameter ri ; ni;ri ; : : : ; ni;1 2 N0 mit ni;ri 1 für i D 1; : : : ; k sind Invariante von ˚. Beweis. Auch wenn die erforderliche Buchhaltung und die Notation erschreckend sind, ist der Beweis nun ganz einfach. Da Œ˚S ; ˚N D 0, folgt 6.8 Übungen 277 ˚N W VQi ! VQi ˇ und ˚N ˇVQ ist nach wie vor nilpotent. In VQi finden wir daher eine Basis Bi i bestehend aus dim VQi D ri ni;ri C .ri 1/ ni;ri 1 C C 1 ni;1 vielen Basisvektoren, sodass Bi ˇ Œ˚ N ˇVQ – i Bi D Ni ; wieˇ angegeben. Dies ist gerade Satz 6.109. Die Zahlen ri ; ni;ri ; : : : ; ni;1 sind durch ˚N ˇVQ und damit durch ˚ bestimmt. Da die verallgemeinerten Eigenräume VQi i den ganzen Vektorraum V als direkte Summe aufspannen, ist B D B1 [ [ Bk eine Basis mit der gewünschten Eigenschaft, siehe Proposition 4.59 sowie Bemerkung 6.104. t u Die (nicht eindeutige) Basis B, für die B Œ˚ B die obige Jordansche Normalform annimmt, heißt dann auch Jordan-Basis für ˚. Bemerkung 6.116. Zwei Matrizen A; B 2 Mn .k/ mit in Linearfaktoren zerfallenden charakteristischen Polynomen sind genau dann ähnlich, wenn sie das gleiche Spektrum besitzen, die zugehörigen verallgemeinerten Eigenräume dieselben Dimensionen haben, und auch die zugehörigen Parameter ri , ni;ri ; : : : ; ni;1 übereinstimmen. In diesem Fall sind A und B zu einer Normalform (6.231) ähnlich. Insbesondere ist dies immer anwendbar, falls der Körper k algebraisch abgeschlossen ist. Kontrollfragen. Was ist eine Jordan-Matrix? Wie erhalten Sie die Normalform eines nilpotenten Endomorphismus? Gilt der Satz zur Normalform von nilpotenten Matrizen nur über algebraisch abgeschlossenen Körpern? Was hat der Satz von der Jordanschen Normalform mit der Ähnlichkeit von Matrizen zu tun? 6.8 Übungen Übung 6.1 (Signum von Permutationen). Bestimmen Sie für n D 2, 3 und 4 alle Permutationen in Sn sowie deren Signum. Zeigen Sie so, dass für alle k; `; m 2 f1; 2; 3g k`m mit dem -Symbol aus Übung 5.28. 12 3 D sign k`m (6.233) 278 6 Determinanten und Eigenwerte Übung 6.2 (Determinante eines Produkts). Zeigen Sie (6.48) unter Verwendung der Leibniz-Formel (6.45) durch beharrliches Nachrechnen. Übung 6.3 (Keine Sarrus-Regel für n ¤ 3). Argumentieren Sie, wieso die einfachen Formeln für die Determinante in n D 1 und n D 2 Dimensionen kein gutes Analogon der Sarrus-Regel sind. Zeigen Sie weiter, dass es für n > 3 immer Gegenbeispiele zu einer „Sarrus-Regel“ gibt. Übung 6.4 (Die Determinante ist nicht linear). Zeigen Sie durch Angabe expliziter Gegenbeispiele, dass die Determinante detW Mn .k/ ! k für n ¤ 1 keine lineare Abbildung und insbesondere auch nicht einmal additiv ist. Übung 6.5 (2 2-Matrizen). Für n D 2 lassen sich viele Eigenschaften und Kenngrößen einer 2 2-Matrix explizit bestimmen. Sei im Folgenden AD ab cd (6.234) eine 2 2-Matrix A 2 M2 .k/ mit Einträgen a; b; c; d 2 k. i.) Bestimmen Sie die Determinante und die Spur von A. ii.) Sei nun det.A/ ¤ 0. Bestimmen Sie eine explizite Formel für A1 . iii.) Zeigen Sie die Gleichung A2 tr.A/A C det.A/1 D 0: (6.235) iv.) Betrachten Sie nun eine spurfreie 2 2-Matrix A, sodass also tr.A/ D 0 gilt. Berechnen Sie dann alle Potenzen Ak . Benutzen Sie nun dieses Resultat, um auch Ak für eine beliebige Matrix A 2 M2 .k/ zu bestimmen. Hinweis: Verwenden Sie (6.235) und Übung 3.17. v.) Berechnen Sie tr.Ak / und bestimmen Sie det.A/ als Funktion von tr.A/ und tr.A2 /. Übung 6.6 (Determinante einer Permutation). Sei V ein n-dimensionaler Vektorraum über k mit einer Basis .v1 ; : : : ; vn /. Sei weiter 2 Abb.n; n/. Betrachten Sie dann die lineare Abbildung AW V ! V , die auf der Basis durch Avi D v.i/ (6.236) für alle i D 1; : : : ; n festgelegt ist. Bestimmen Sie det A. Übung 6.7 (Explizite Determinanten). Es gibt nicht viele Determinanten, die sich einfach und explizit berechnen lassen: Hier findet man eine kleine Sammlung. 6.8 Übungen 279 i.) Sei k ein Körper und a; b 2 k. Bestimmen Sie die Determinante der Matrix 0 a Bb B B A D Bb B: @ :: b b ::: a b ::: b a :: :: : : b b ::: b 1 b bC C bC C 2 Mn .k/: :: C :A a (6.237) ii.) Seien an ; : : : ; a0 2 k vorgegeben. Sei weiter AnC1 2 MnC1 .k/ die Matrix 1 : : : a0 : : : a1 C C : : : a2 C C: : : :: C : : A 0 : : : 0 1 an 0 AnC1 0 B1 B B D B0 B: @ :: 0 0 1 :: : ::: ::: 0 :: : (6.238) Zeigen Sie, dass das charakteristische Polynom von AnC1 bis auf ein Vorzeichen durch das Polynom p.x/ D x nC1 C an x n C C a1 x C a0 gegeben ist. Damit ist also jedes Polynom bis auf ein Vielfaches ein charakteristisches Polynom einer geeigneten Matrix. Hinweis: Induktion. iii.) Sei k ein Körper und 1 2 Mn .k/ die n n-Einheitsmatrix. Bestimmen Sie die Determinante der symplektischen Matrix ˝D 0 1 2 M2n .k/: 1 0 (6.239) iv.) Betrachten Sie eine Blockmatrix A 2 M2n .k/ der Form 0 B AD C D mit B; C; D 2 Mn .k/: (6.240) Bestimmen Sie die Determinante von A als Funktion der Determinanten det.B/, det.C / und det.D/. Können Sie Ihr Ergebnis dahingehend verallgemeinern, dass die Matrizen B und C unterschiedlich große quadratische Matrizen sind? v.) Bestimmen Sie die Determinante der komplexen 7 7-Matrix 280 6 Determinanten und Eigenwerte 0 0 B 9i B B17 p10i B B A D B 2 C 21i B B 27p B @ 10 C 2i 26i p 9i 17 C 10i 2 21i 15 0 e17 17 e 0 250 0 15 250 9i i 9 p 7 i 1 i 4 3i 21 19i p 1 27 10 2i 26i p 9i 7 4 C 3iC C i i 21 C C C 9 1 C i 19i C: C 0 2 3 C C 2 0 i A 3 i 0 (6.241) Hinweis: Ja, es gibt einen Trick. vi.) Formulieren Sie die Überlegungen aus Teil v.) als allgemeines Resultat für einen beliebigen Körper k. Welche Annahmen an die Charakteristik von k müssen Sie stellen? Finden Sie entsprechende Beispiele, die zeigen, dass Ihre Annahmen notwendig sind. Übung 6.8 (Vandermonde-Determinante). Berechnen Sie die 33-VandermondeDeterminante mithilfe der Sarrus-Regel und verifizieren Sie Proposition 6.43 für diesen Fall explizit. Übung 6.9 (Lineare Unabhängigkeit der Exponentialfunktionen). Betrachten Sie die Exponentialfunktionen f 2 C.Œa; b; R/, wobei f .x/ D ex mit 2 R. Zeigen Sie, dass die Menge ff g2R linear unabhängig ist. Übung 6.10 (Linear unabhängige Potenzen). Finden Sie ein Beispiel für einen Vektorraum V und einen Endomorphismus A 2 End.V / derart, dass alle Potenzen Ak linear unabhängig sind. Hinweis: Übung 5.11 oder Übung 5.21 liefern gute Kandidaten. Übung 6.11 (Komplementäre Matrix für kommutative Ringe). Führen Sie die Details zu Bemerkung 6.76 aus, indem Sie für eine Matrix A 2 Mn .R/ mit Einträgen in einem kommutativen Ring die Determinante beispielsweise durch die Leibniz-Formel definieren und dann den Entwicklungssatz von Laplace direkt nachrechnen. Übung 6.12 (Nochmals Einheitswurzeln). Sei k ein algebraisch abgeschlossener Körper. i.) Betrachten Sie das Polynom p.x/ D x n 1 für n 2 N. Zeigen Sie, dass alle n Nullstellen von p in k paarweise verschieden sind. Hinweis: Nehmen Sie an, eine Nullstelle 2 k sei mindestens zweifach. Dann gibt es ein Polynom q 2 kŒx mit p.x/ D .x /2 q.x/. Berechnen Sie die Ableitung p 0 , um einen Widerspruch zu erzielen. 6.8 Übungen 281 ii.) Sei A 2 End.V / ein Endomorphismus eines k-Vektorraums V mit An D 1 für ein n 2 N. Zeigen Sie, dass A diagonalisierbar ist. Übung 6.13 (Erstellen von Übungen II). Es sollen Beispiele für invertierbare Matrizen gefunden werden, die kleine ganze Zahlen als Einträge haben, deren Inverses aber trotzdem nicht unmittelbar abgelesen werden kann. Zudem sollen die Rechnungen alle von Hand durchführbar sein: Es sollen keine großen Nenner auftreten. i.) Betrachten Sie eine Matrix A 2 Mn .R/ von oberer Dreiecksform und mit Zahlen d1 ; : : : ; dn 2 R auf der Diagonalen. Zeigen Sie, dass A genau dann invertierbar ist, wenn D D d1 dn ¤ 0. Zeigen Sie weiter, dass die inverse Matrix wieder eine obere Dreiecksmatrix ist. ii.) Seien nun alle Einträge der oberen Dreiecksmatrix A zudem ganze Zahlen. Zeigen Sie, dass die inverse Matrix A1 aus rationalen Einträgen besteht, wobei als Nenner höchstens D auftritt. Hinweis: Argumentieren Sie zuerst direkt mit dem Gauß-Algorithmus. Mit der Cramerschen Regel können Sie anschließend eine alternative Beweisführung finden. iii.) Sei nun zudem D D 1. Folgern Sie, A1 2 Mn .Z/. iv.) Überlegen Sie sich, dass für eine untere Dreiecksmatrix die analogen Aussagen gelten. v.) Betrachten Sie nun eine obere und eine untere Dreiecksmatrix A und B mit den obigen Eigenschaften. Was können Sie dann über ihr Produkt AB und dessen Inverses im Hinblick auf die zu erstellende Übung sagen? vi.) Konstruieren Sie nun explizite Beispiele von 33-Matrizen und 44-Matrizen. Übung 6.14 (Diagonalisieren). Betrachten Sie folgende reelle Matrizen 1 2 1 1 A1 D @1 0 1A; 2 2 1 0 1 1 0 1 A2 D @ 1 1 0A; 4 2 2 0 1 2 4 3 A3 D @ 0 1 1A 0 0 4 0 (6.242) sowie 0 3 B0 A4 D B @2 0 3 2 4 2 4 0 3 0 1 1 1C C; 0A 1 0 1 0 B1 1 A5 D B @2 1 3 1 0 1 1 1 1 0 1C C; 1A 3 0 3 1 B4 1 A6 D B @0 0 0 0 7 7 3 2 1 14 15C C: 4 A 3 (6.243) i.) Bestimmen Sie die charakteristischen Polynome von A1 ; : : : ; A6 . ii.) Welche der Matrizen ist über R diagonalisierbar? Bestimmen Sie gegebenenfalls eine Basis von Eigenvektoren und die Matrix des Basiswechsels. 282 6 Determinanten und Eigenwerte Verifizieren Sie explizit, dass die Matrix durch Konjugation mit der Matrix des Basiswechsels auf Diagonalgestalt gebracht wird. iii.) Welche der Matrizen ist über C diagonalisierbar? Verfahren Sie hier analog. Übung 6.15 (Matrixtransposition). Sei k ein Körper mit char.k/ ¤ 2. Betrachten Sie die Matrixtransposition T W Mn .k/ 3 A 7! AT 2 Mn .k/: (6.244) i.) Bestimmen Sie die Eigenwerte von T . ii.) Zeigen Sie, dass T diagonalisierbar ist, und bestimmen Sie die Projektoren auf die jeweiligen Eigenräume. iii.) Was passiert für char.k/ D 2? Übung 6.16 (Viele linear unabhängige Vektoren). Finden Sie 42 (oder 2001) Vektoren im R3 , sodass je drei dieser Vektoren eine Basis bilden. Hinweis: Vandermonde-Determinante! Übung 6.17 (Interpolationspolynom). Seien die Punkte P1 D .1; 3/, P2 D .2; 4/, P3 D .1; 2/, P4 D .0; 1/ und P5 D .2; 2/ im R2 vorgegeben. i.) Finden Sie ein Polynom p 2 RŒx mit deg p 4 derart, dass Pi D .i ; p.i // (6.245) für alle i D 1; : : : ; 5 gilt, wobei i die erste Komponente von Pi sei. ii.) Wie viele Polynome mit Grad höchstens 4 gibt es, die (6.245) erfüllen? iii.) Skizzieren Sie den Graphen des Polynoms p. iv.) Finden Sie alle Polynome vom Grad höchstens 5, welche die Eigenschaft (6.245) besitzen. Hinweis: Sei q ein solches Polynom. Wählen Sie einen x-Wert ungleich der obigen ersten Komponenten, also beispielsweise 6 D 3. Welche Werte kann q.3/ dann annehmen? v.) Wie viele Polynome vom Grad 17 gibt es, die (6.245) erfüllen? Was können Sie über die Menge dieser Polynome sagen? Übung 6.18 (Eigenschaften der Spur). Sei k ein Körper der Charakteristik null. i.) ii.) iii.) iv.) Zeigen Sie, dass die Spur ein lineares Funktional tr 2 Mn .k/ ist. Zeigen Sie tr.ŒA; B/ D 0 für alle A; B 2 Mn .k/. Zeigen Sie tr.1/ D n. Zeigen Sie, dass die Spur das einzige lineare Funktional auf Mn .k/ ist, welches ii.) und iii.) erfüllt. 6.8 Übungen 283 Hinweis: Zeigen Sie zunächst, dass zu jedem ! 2 Mn .k/ eine eindeutige Matrix 2 Mn .k/ mit !.A/ D tr.A/ existiert. Welche Eigenschaften muss dann erfüllen, damit ii.) und iii.) für ! gilt? Übung 6.19 (Spur eines Endomorphismus). Sei V ein endlich-dimensionaler Vektorraum über einem Körper k der Charakteristik null mit einer Basis B mit Basisvektoren e1 ; : : : ; en 2 V und zugehöriger dualer Basis B mit entsprechenden dualen Basisvektoren e1 ; : : : ; en 2 V . Die Spur von ˚ 2 End.V / ist dann als tr.˚/ D n X ei .˚ei / (6.246) iD1 definiert. i.) Zeigen Sie, dass tr.˚/ D tr. B Œ˚ B / mit der Spur der darstellenden Matrix von ˚. ii.) Zeigen Sie, dass die Spur unabhängig von der Wahl der Basis e1 ; : : : ; en ist. iii.) Zeigen Sie, dass die Spur die einzige lineare Abbildung trW End.V / ! k mit tr.Œ˚; / D 0 für alle ˚; 2 End.V / und tr.1/ D n ist. Hinweis: Übung 6.18. Übung 6.20 (Komplexe Zahlen als Matrizen II). Betrachten Sie erneut die komplexen Zahlen C als die 2 2-Matrizen C wie in Übung 5.24. Welchen Operationen in C entsprechen der Determinante, der Spur und der Matrixtransposition? Übung 6.21 (Eigenvektoren einer Drehmatrix). Sei ' 2 Œ0; 2 / ein Winkel und A 2 M2 .R/ die zugehörige Drehmatrix zur Drehung um '. i.) Bestimmen Sie explizit die Matrix bezüglich der Standardbasis von R2 . ii.) Berechnen Sie die komplexen Eigenwerte von A. Für welche ' sind diese reell? iii.) Berechnen Sie die komplexen Eigenvektoren von A. Für welche ' können Sie reelle Eigenvektoren finden? Übung 6.22 (Pauli-Matrizen II). Betrachten Sie erneut die Pauli-Matrizen aus Übung 5.28. i.) Zeigen Sie, dass tr k D 0 für alle k D 1; 2; 3 gilt. ii.) Sei sl2 .C/ M2 .C/ diejenige Teilmenge der Matrizen A mit tr.A/ D 0. Zeigen Sie, dass sl2 .C/ ein Unterraum von M2 .C/ ist. iii.) Zeigen Sie, dass die Pauli-Matrizen eine Basis von sl2 .C/ bilden. iv.) Sei nE 2 R3 . Bestimmen Sie det.E n E /, wobei nE E wie in Übung 5.28, ii.), erklärt ist. v.) Berechnen Sie die Potenzen .E n E /k für alle k 2 N0 . 3 n E / explizit. vi.) Sei nun n0 2 R und nE 2 R . Bestimmen Sie det.n0 1 C iE 284 6 Determinanten und Eigenwerte vii.) Zeigen Sie, dass die Matrizen der Form n0 1 C iE n E einen reellen Unterraum H M2 .C/ bilden, der unter Matrixmultiplikation abgeschlossen ist, wobei n 2 R4 die Komponenten n0 ; n1 ; n2 ; n4 habe. Folgern Sie, dass jede Matrix in H n f0g invertierbar ist mit einem Inversen in H. viii.) Ist H bezüglich der Addition und Multiplikation von Matrizen ein Körper? Welche Eigenschaften eines Körpers gelten, welche nicht? Ein solcher Ring wird auch als Schiefkörper bezeichnet. Den Schiefkörper H nennt man auch die Hamiltonschen Quaternionen. Übung 6.23 (Erstellen von Übungen III). Es sollen für eine Vorlesung (oder Oberstufenklasse) Übungen zum Diagonalisieren von 33-Matrizen erstellt werden. Die Vorgabe ist, dass die Nullstellen des charakteristischen Polynoms nicht zu kompliziert sind, beispielsweise ganze Zahlen, und dass der Matrix aber trotzdem nicht auf einfache Weise angesehen werden kann, welches die Eigenwerte und Eigenvektoren sind. Insbesondere sollen also die Matrixeinträge möglichst alle verschieden sein. Andererseits sollen die Einträge wieder kleine ganze Zahlen sein, sodass alle Rechnungen von Hand durchgeführt werden können. Wie können Sie dies einfach erreichen? Verallgemeinern Sie Ihre Überlegungen, um auch kompliziertere, nichtdiagonale Jordan-Normalformen mit einzuschließen. Geben Sie konkrete Beispiele. Hinweis: Starten Sie mit einer einfachen Diagonalmatrix, dem Ergebnis, und verwenden Sie Matrizen aus Übung 6.13. Übung 6.24 (Komplexifizierung III). Betrachten Sie wieder einen reellen Vektorraum V und seine Komplexifizierung wie in den Übungen 4.31 und 5.42. Sei A 2 End.V / mit dem zugehörigen Endomorphismus AC 2 End.VC /. i.) Sei 2 C ein Eigenwert von AC . Zeigen Sie, dass dann auch ein Eigenwert ist. ii.) Zeigen Sie, dass die komplexe Konjugation einen antilinearen involutiven Isomorphismus der Eigenräume zu den Eigenwerten und von AC liefert. iii.) Zeigen Sie, dass für einen reellen Eigenwert 2 R von A die Zahl auch ein Eigenwert von AC ist. iv.) Zeigen Sie, dass die Komplexifizierung eines Eigenraums V von A zu einem reellen Eigenwert 2 R gerade der Eigenraum von AC zum selben Eigenwert ist. Hinweis: Ist v 2 VC ein Eigenvektor von AC zum Eigenwert , was ist dann AC v? Bilden Sie nun geeignete Linearkombinationen. Übung 6.25 (Diagonalisieren von fast-komplexen Strukturen). Sei V ein reeller Vektorraum mit einer linearen fast-komplexen Struktur wie in Übung 5.43. i.) Betrachten Sie den komplexifizierten Vektorraum VC und zeigen Sie, dass JC diagonalisierbar ist. Geben Sie die Spektralzerlegung mit den Eigenwerten 6.8 Übungen 285 und Eigenprojektoren explizit an. Hier können Sie sogar einen unendlichdimensionalen reellen Vektorraum verwenden! ii.) Zeigen Sie, dass die komplexe Konjugation auf VC eine Bijektion zwischen den beiden Eigenräumen von JC liefert. Folgern Sie, dass im endlichdimensionalen Fall beide Eigenräume die komplexe Dimension n besitzen, sofern dimR V D 2n. iii.) Zeigen Sie, dass es für dimR V D 2n < 1 eine Basis B V gibt, sodass die Matrixdarstellung von J bezüglich B durch die Matrix ˝ aus (5.183) gegeben ist. iv.) Sei dimR V D 2n < 1. Zeigen Sie, dass es zu je zwei linearen fast-komplexen Strukturen J und J 0 auf V einen invertierbaren Endomorphismus A 2 End.V / gibt, welcher J D AJ 0 A1 erfüllt. Übung 6.26 ( -Matrizen). Betrachten Sie die folgenden, in Blockform gegebenen komplexen 4 4-Matrizen 12 0 0 D 0 12 0 i i D ; i 0 und (6.247) wobei i D 1; 2; 3 und i die Pauli-Matrizen aus Übung 5.28 sind. Diese Matrizen heißen auch -Matrizen. Sie spielen eine zentrale Rolle in der relativistischen Quantenmechanik und Quantenfeldtheorie von Fermionen wie dem Elektron. Man beachte, dass hier zum Teil andere Normierungen in der Literatur gebräuchlich sind. i.) Berechnen Sie alle Produkte der -Matrizen. Zeigen Sie so, dass i j Cj i D 2ij 14 für i; j D 0; : : : ; 3 mit Zahlen ij 2 C, und bestimmen Sie diese Zahlen. Hinweis: Übung 5.25. ii.) Zeigen Sie, dass die -Matrizen linear unabhängig sind. iii.) Berechnen Sie die Determinanten det.i / für i D 0; : : : ; 3 der -Matrizen. Übung 6.27 (Spur eines Projektors). Sei P D P 2 2 Mn .k/ ein Projektor in den n n-Matrizen über einem Körper k. Zeigen Sie tr.P / D rank.P /. Übung 6.28 (Nilpotente Endomorphismen). Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V / nilpotent. Da der Beweis der Jordanschen Normalform für A ja durchaus recht aufwendig ist, interessiert man sich für leichtere Normalformen, die einfacher zu erreichen sind. Für viele Zwecke ist die folgende Form völlig ausreichend. i.) Zeigen Sie, dass es eine Basis B V gibt, sodass die Matrix von A bezüglich dieser Basis eine echte obere Dreiecksmatrix ist. Hinweis: Zeigen Sie zunächst ker.A/ ker.A2 / . Wählen Sie nun eine Basis von ker.A/, und ergänzen Sie diese sukzessive zu einer Basis von V . 286 6 Determinanten und Eigenwerte ii.) Zeigen Sie umgekehrt, dass ein Endomorphismus mit einer echten oberen Dreiecksmatrix als darstellender Matrix bezüglich einer Basis immer nilpotent ist. iii.) Zeigen Sie tr.Ak / D 0 für alle k 2 N. Übung 6.29 (Matrixpotenzen). Betrachten Sie die komplexen Matrizen 0 10 0 B0 1 0 DDB @0 0 3i 00 0 1 0 0C C; 0A 3i 0 03 B0 0 N DB @0 0 00 0 0 0 2 1 0 0C C und 0A 0 0 1 B0 ADB @0 0 3 1 0 0 0 0 3i 2 1 0 0C C: 0A 3i (6.248) i.) Zeigen Sie, dass D, N und A paarweise kommutieren. ii.) Bestimmen Sie A2001 und A42 . Wieso ist A invertierbar? Übung 6.30 (Polynomialer Kalkül). Sei V ein nicht notwendigerweise endlichdimensionaler Vektorraum über k. Zeigen Sie dann die Eigenschaften (6.168) und (6.169) der Auswertung von Polynomen auf Endomorphismen in End.V /. Übung 6.31 (Jordan-Zerlegung). Finden Sie von den Matrizen 0 23 B0 1 A1 D B @0 0 00 4 7 4 0 1 2 1C C; 8A 1 1 120 A2 D @0 1 0A und 003 0 0 1 B0 A3 D B @0 0 0 4 3 3 1 00 0 0C C 4 0A 24 (6.249) die Jordan-Zerlegung. Weisen Sie alle erforderlichen Eigenschaften explizit nach. Übung 6.32 (Jordansche Normalform). Betrachten Sie erneut die Matrix A aus Übung 6.29. i.) Bestimmen Sie das charakteristische Polynom und die Eigenwerte von A. ii.) Bestimmen Sie die verallgemeinerten Eigenräume von A. Ist A diagonalisierbar? iii.) Bestimmen Sie das Minimalpolynom von A. iv.) Finden Sie die Jordan-Zerlegung von A. v.) Bestimmen Sie die Jordansche Normalform von A, indem Sie den Basiswechsel explizit angeben. Übung 6.33 (Jordansche Normalform der Ableitung). Sei n 2 N und k ein d Körper der Charakteristik null. Betrachten Sie die Ableitung dx W kŒx ! kŒx aus Beispiel 5.10. 6.8 Übungen 287 d i.) Sei Un der Unterraum der Polynome vom Grad n. Zeigen Sie, dass dx sich zu einem Endomorphismus Dn 2 End.Un / einschränkt. ii.) Zeigen Sie, dass Dn nilpotent ist. Bestimmen Sie das Minimalpolynom von Dn . iii.) Bestimmen Sie die Jordansche Normalform von Dn , indem Sie eine explizite Jordan-Basis konstruieren. Übung 6.34 (Jordansche Normalform in kleinen Dimensionen). Sei k algebraisch abgeschlossen und A; B 2 Mn .k/. i.) Sei n D 2. Zeigen Sie, dass A genau dann ähnlich zu B ist, wenn A D B und mA D mB . ii.) Sei n D 3. Zeigen Sie, dass auch in diesem Fall A genau dann ähnlich zu B ist, wenn A D B und mA D mB . Hinweis: Bestimmen Sie hierzu alle möglichen Jordanschen Normalformen. iii.) Sei n 4. Finden Sie zwei nicht ähnliche Matrizen A und B, welche das gleiche charakteristische Polynom und das gleiche Minimalpolynom besitzen. Übung 6.35 (Kommutierende Matrizen). Seien A; B 2 Mn .k/ gegeben. i.) Sei 2 k ein Eigenvektor von A. Zeigen Sie, dass B den Eigenraum V von A nach V abbildet, wenn ŒA; B D 0. Zeigen Sie, dass für ŒA; B D 0 die Matrix B auch den verallgemeinerten Eigenraum VQ von A nach VQ abbildet. ii.) Nehmen Sie nun an, dass A in Linearfaktoren zerfällt. Zeigen Sie, dass ŒB; A D 0 genau dann gilt, wenn B mit allen Spektralprojektoren Pi von A und mit AN vertauscht. iii.) Sei nun A diagonalisierbar mit eindimensionalen Eigenräumen. Zeigen Sie, dass in diesem Fall ŒA; B D 0 genau dann gilt, wenn B D p.A/ für ein Polynom p 2 kŒx. Übung 6.36 (Jordansche Normalform und Transposition). derart, dass A 2 kŒx in Linearfaktoren zerfällt. Sei A 2 Mn .k/ i.) Zeigen Sie, dass es für n 2 kein Q 2 GLn .k/ gibt, sodass B T D QBQ1 für alle B 2 Mn .k/. ii.) Zeigen Sie, dass AT D A und mAT D mA . iii.) Zeigen Sie, dass die Jordan-Zerlegung von AT durch AT D .AS /T C .AN /T gegeben ist, wobei AS und AN der halbeinfache und der nilpotente Teil von A sind. iv.) Zeigen Sie, dass A genau dann diagonalisierbar ist, wenn AT diagonalisierbar ist. v.) Zeigen Sie, dass A zu AT ähnlich ist. Wieso ist dies ein nichttriviales Resultat? 288 6 Determinanten und Eigenwerte Hinweis: Sie müssen zeigen, dass A und AT die gleiche Jordansche Normalform haben. Lösen Sie das Problem zunächst für eine Jordan-Matrix JnT D Qn Jn Qn1 explizit. Wie können Sie dann die einzelnen Qn zusammenfügen? Übung 6.37 (Eigenvektoren in unendlichen Dimensionen). Betrachten Sie einen Körper k der Charakteristik char.k/ D 0 und den Vektorraum kŒŒx der formalen Potenzreihen über k. i.) Zeigen Sie, dass die Ableitung aus Übung 5.3 eine wohldefinierte lineare d Abbildung dx W kŒŒx ! kŒŒx liefert. ii.) Zeigen Sie für formale Potenzreihen f; g 2 kŒŒx die Leibniz-Regel d df dg .fg/ D gCf : dx dx dx iii.) Bestimmen Sie alle Eigenwerte und zugehörige Eigenvektoren von Hinweis: Sei 2 k. Lösen Sie die Eigenwertgleichung df dx (6.250) d . dx D f Ordnung für Ordnung. iv.) Zeigen Sie, dass für einen Eigenvektor f zum Eigenwert und einen Eigenvektor g zum Eigenwert , das Produkt fg ein Eigenvektor zum Eigenwert C ist. d v.) Zeigen Sie, dass es ˇ zu jedem Eigenwert von dx genau einen Eigenvektor ˇ e 2 kŒŒx mit e xD0 D 1 gibt. d nicht ganz kŒŒx vi.) Zeigen Sie, dass der lineare Spann aller Eigenvektoren von dx ist. Hinweis: Widerspruchsbeweis. Stellen Sie x als Linearkombination von Eigenvektoren d e1 ; : : : ; en zu Eigenwerten 1 ; : : : ; n dar. Wenden Sie nun oft genug dx an, um ein lineares Gleichungssystem zu erhalten, dessen Lösung Sie kennen. vii.) Bestimmen Sie anschließend die Eigenwerte und Eigenvektoren von dem Unterraum der Polynome kŒx. d dx auf Übung 6.38 (Spektralsatz in unendlichen Dimensionen). Sei V ein Vektorraum über k von beliebiger Dimension. Sei weiter A 2 End.V /. Nehmen Sie an, dass A eine Gleichung der Form mA .A/ D 0 mit mA .x/ D .x 1 / .x k / (6.251) erfüllt, wobei 1 ; : : : ; k 2 k paarweise verschieden seien. i.) Geben Sie verschiedene Beispiele für derartige Endomorphismen, die bereits in anderen Übungen aufgetreten sind. ii.) Definieren Sie die Polynome pi 2 kŒx für i D 1; : : : ; k durch pi .x/ D .x 1 / .x i1 /.x iC1 / .x k / ; .i 1 / .i i1 /.i iC1 / .i k / (6.252) 6.8 Übungen 289 und setzen Sie Pi D pi .A/. Zeigen Sie, dass Pi Pj D ıij Pi (6.253) für i; j D 1; : : : ; k sowie AD k X iD1 i P i und 1D k X Pi : (6.254) iD1 In diesem Sinne gilt also der Spektralsatz für A, und A ist diagonalisierbar. iii.) Diskutieren Sie nun die Ergebnisse des Spektralsatzes in endlichen Dimensionen in diesem Licht. Was ist also die wirklich schwierige und nichttriviale Aussage? Übung 6.39 (Spektrum und polynomialer Kalkül). Sei A 2 End.V / mit einem nicht notwendigerweise endlich-dimensionalen komplexen Vektorraum V . Sei weiter p 2 CŒx ein komplexes Polynom. i.) Zeigen Sie, dass jeder Eigenvektor v 2 V von A ein Eigenvektor von p.A/ ist und bestimmen Sie den zugehörigen Eigenwert. ii.) Sei 2 C derart, dass A nicht invertierbar ist. In endlichen Dimensionen bedeutet dies gerade, dass ein Eigenwert ist. Wir wollen hier aber beliebige Dimensionen zulassen. Zeigen Sie, dass dann auch p.A/ p./ nicht invertierbar ist. Hinweis: Faktorisieren Sie das Polynom p.x/ p./ auf geeignete Weise. iii.) Sei nun 2 C derart, dass p.A/ nicht invertierbar ist. Zeigen Sie, dass es dann ein 2 C mit p./ D gibt, sodass A nicht invertierbar ist. Hinweis: Verwenden Sie den Fundamentalsatz der Algebra für das Polynom p.x/ , und setzen Sie dann A ein. iv.) Finden Sie ein einfaches Gegenbeispiel, dass für algebraisch nicht abgeschlossene Körper die Schlussfolgerung aus iii.) nicht notwendigerweise gilt. v.) Seien spec.A/ C diejenigen Zahlen , für welche A nicht invertierbar ist. Dies verallgemeinert unseren bisherigen Begriff von Spektrum auch für unendliche Dimensionen. Folgern Sie spec.p.A// D p.spec.A//: (6.255) Dieser Sachverhalt ist die polynomiale (und damit einfachste) Version des Spectral Mapping Theorem, welches viele weitere Formulierungen besitzt. Übung 6.40 (Alternativer Beweis von Korollar 6.110). Finden Sie einen alternativen Beweis von Korollar 6.110, der ohne die Verwendung von Satz 6.109 auskommt. 290 6 Determinanten und Eigenwerte Übung 6.41 (Lineare Rekursionen). Seien c1 ; : : : ; ck 2 k gegeben. Man interessiert sich nun für Folgen .an /n2N 2 kN derart, dass die lineare Rekursionsgleichung an D c1 an1 C c2 an2 C C ck ank (6.256) für alle n > k gilt, wobei a1 , a2 , . . . ak frei vorgegeben werden. i.) Zeigen Sie, dass die Menge aller Folgen, die (6.256) erfüllen, ein kdimensionaler Unterraum von kN ist, sofern c1 ¤ 0 ist. Dies wollen wir im Folgenden immer annehmen. ii.) Zeigen Sie, dass es eine Matrix C 2 Mk .k/ gibt, sodass die Bedingung (6.256) zu 0 B B B @ 1 0 1 an1 Ban2 C C B C C C D CB : C @ :: A A an an1 :: : ankC1 (6.257) ank äquivalent ist, jeweils für alle n > k. Bestimmen Sie die Matrix C explizit. iii.) Lösen Sie die Rekursion explizit: Bestimmen Sie an für alle n > k bei beliebig vorgegebenen Startwerten a1 ; : : : ; ak 2 k, indem Sie die Potenzen von C verwenden. iv.) Wie vereinfacht sich Teil iii.), wenn C zudem diagonalisierbar ist? v.) Betrachten Sie k D R sowie die rekursiv definierte Fibonacci-Folge an D an1 C an2 mit a1 D a2 D 1: (6.258) Bestimmen Sie an für alle n explizit. vi.) Betrachten Sie die Bandmatrix An 2 Mn .R/ 0 1 Bb B B B0 An D B B :: B: B @0 0 1 0 0C C C 0C :: C C :C C : : : : : : 0 b 1 aA ::: ::: 0 0 b 1 a 0 0 ::: ::: 1 a 0 ::: ::: b 1 a ::: ::: (6.259) für n 3 und a; b 2 R. Bestimmen Sie det An , indem Sie eine geeignete lineare Rekursionsgleichung aufstellen. Übung 6.42 (Inäquivalente Jordan-Normalformen). Sei k ein Körper. Bestimmen Sie alle inäquivalenten Jordanschen Normalformen von nilpotenten Matrizen N 2 Mn .k/ für n D 2; 3; 4; 5; 6. Berechnen Sie explizit alle nichttrivialen Potenzen 6.8 Übungen 291 dieser Normalformen sowie deren Bild, Kern und Rang, und bestimmen Sie das charakteristische Polynom sowie das Minimalpolynom. Übung 6.43 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen falsche Aussagen richtig werden. i.) Die Determinante einer Matrix mit ganzzahligen Einträgen ist ganzzahlig. ii.) Die inverse Matrix einer invertierbaren Matrix mit ganzzahligen Einträgen hat ebenfalls ganzzahlige Einträge. B iii.) Für beliebige quadratische Blockmatrizen X D CA D mit gleich großen Blöcken gilt det.X / D det.A/ det.D/ det.B/ det.C /. iv.) Es gibt einen reellen Vektorraum V , sodass der Dualraum V eine abzählbar unendliche Basis hat. v.) Äquivalente Matrizen sind insbesondere auch ähnlich. vi.) Ähnliche Matrizen sind insbesondere auch äquivalent. vii.) Äquivalente (ähnliche) Matrizen haben die gleiche Determinante und die gleiche Spur. viii.) Eine 2 2-Matrix A 2 M2 .C/ mit rationalen Einträgen und Determinante 5 ist diagonalisierbar. ix.) Eine 3 3-Matrix A 2 M3 .C/ mit rationalen Einträgen und Determinante 5 ist diagonalisierbar. x.) Eine reelle Matrix A mit det.A3 / D 1 hat Determinante det.A/ D 1. xi.) Eine n n-Matrix mit n paarweise verschiedenen Eigenwerten ist invertierbar. xii.) Die Determinante einer Matrix ist das Produkt ihrer Eigenwerte (mit Multiplizität). xiii.) Die Spur einer Matrix ist die Summe ihrer Eigenwerte (mit Multiplizität). xiv.) Seien A; B 2 M4 .k/ mit 0 0 B0 ADB @0 0 xv.) xvi.) xvii.) xviii.) 1 0 0 0 0 0 0 0 1 0 0C C und 1A 0 0 0 B0 BDB @0 0 1 0 0 0 0 1 0 0 1 0 0C C 0A 0 (6.260) gegeben. Dann existiert eine Matrix Q 2 GL4 .k/ mit A D QBQ1 . Es gibt zwei Matrizen P; Q 2 Mn .C/ mit ŒP; Q D 1. Sei A 2 Mn .k/ eine obere Dreiecksmatrix. Dann ist die Matrix N D A diag.a11 ; : : : ; ann / nilpotent, wobei ai i die Diagonaleinträge von A sind. Sei A 2 Mn .C/ eine obere Dreiecksmatrix. Dann ist der halbeinfache Teil AS von A die Diagonalmatrix der Diagonaleinträge von A und der nilpotente Anteil AN von A ist entsprechend der Rest AN D A AS . Es gibt eine Matrix A 2 Mn .k/ mit An ¤ 0, aber AnC1 D 0. 292 6 Determinanten und Eigenwerte xix.) Eine lineare Abbildung AW V ! V auf einem unendlich-dimensionalen Vektorraum hat höchstens abzählbar viele verschiedene Eigenwerte. xx.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/ D .x 1 /m1 .x k /mk ist mi die Dimension des i -ten verallgemeinerten Eigenraums VQi . m1 mk xxi.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/ ˇ D .x 1 / .x k / mi ˇ ist mi die kleinste Zahl, sodass .A i 1/ VQ D 0 gilt. i xxii.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/ D .x 1 /m1 .x k /mk ist mi die Größe der größten Jordan-Matrix in der Jordanschen Normalform von A i 1, eingeschränkt auf VQi . xxiii.) Eine Matrix A 2 Mn .k/ ist genau dann nilpotent, wenn AT nilpotent ist. xxiv.) Sei A; B 2 Mn .k/ und A habe ein in Linearfaktoren zerfallendes charakteristisches Polynom. Dann gilt ŒB; A D 0 genau dann, wenn B mit allen Spektralprojektoren von A vertauscht. xxv.) Ist 2 k ein Eigenwert von A 2 Mn .k/, so ist 2 ein Eigenwert von A2 mit gleicher (kleinerer, größerer) geometrischer Vielfachheit. 7 Euklidische und unitäre Vektorräume Bislang hatten wir Vektorräume und lineare Abbildungen zwischen ihnen ohne jede weitere Struktur studiert. In diesem Kapitel wollen wir nun eine erste zusätzliche Struktur hinzunehmen, die es erlaubt, geometrischen Fragestellungen nachzugehen. Wie schon in Abschn. 1.3 skizziert, benötigt man zur Definition von Längen und Winkeln eine zusätzliche Information. Die noch reqcht heuristischen Überlegungen aus Abschn. 1.3 wollen wir daher nun systematischer formulieren, was uns auf das Studium von Skalarprodukten führen wird. Da wir bei Skalarprodukten gewisse Positivitätseigenschaften fordern werden (Längen sind positiv), werden wir uns in diesem Kapitel hauptsächlich auf Vektorräume über R oder C konzentrieren. Zudem werden in diesem Kapitel die Vektorräume meist endlich-dimensional sein: Zwar sind die entscheidenden Definitionen unabhängig von der Dimension möglich, in unendlichen Dimensionen werden die wichtigen Sätze jedoch ohne den massiven Einsatz von (funktional-) analytischen Techniken nicht zu erreichen sein. Diese für uns momentan unzugänglichen Situationen sind trotzdem für die Mathematik von größter Wichtigkeit. Ihr Studium erfolgt dann in der Funktionalanalysis der Hilbert-Räume und findet ihre fundamentale Anwendung und Inspiration in der Quantenmechanik. 7.1 Innere Produkte In diesem Abschnitt darf k noch ein beliebiger Körper sein. In Anlehnung an die Eigenschaften des kanonischen Skalarprodukts von R3 definieren wir ein inneres Produkt nun folgendermaßen: Definition 7.1 (Inneres Produkt). Sei V ein Vektorraum über k. Ein inneres Produkt auf V ist eine Abbildung h ; iW V V ! k © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_7 (7.1) 293 294 7 Euklidische und unitäre Vektorräume mit folgenden Eigenschaften: i.) Die Abbildung h ; i ist linear im zweiten Argument, es gilt also hv; w C ui D hv; wi C hv; ui (7.2) für alle ; 2 k und v; w; u 2 V . ii.) Die Abbildung h ; i ist symmetrisch, es gilt also für alle v; w 2 V hv; wi D hw; vi: (7.3) iii.) Die Abbildung h ; i ist nicht-ausgeartet, es gilt also für alle v 2 V hv; wi D 0 für alle w 2 V H) v D 0: (7.4) Bemerkung 7.2 (Inneres Produkt). Sei V ein Vektorraum über k. i.) Ein inneres Produkt h ; i ist linear im ersten Argument. Dies folgt sofort aus (7.2) und (7.3). Damit sind innere Produkte also erste Beispiele für (symmetrische) Bilinearformen, also spezielle bilineare Abbildungen V V ! k. Wir bezeichnen die Bilinearformen auf V gelegentlich mit Bil.V /. ii.) Eine symmetrische Bilinearform ist genau dann ein inneres Produkt, wenn sie nicht-ausgeartet ist. iii.) Ist h ; i eine Bilinearform auf V , so definiert für jedes v 2 V v [ D hv; iW V 3 w 7! hv; wi 2 k (7.5) eine lineare Abbildung v [ 2 V : Dies ist gerade die Linearität von h ; i im zweiten Argument. Die Linearität im ersten Argument zeigt nun, dass die Abbildung [ W V 3 v 7! v [ 2 V (7.6) selbst eine lineare Abbildung ist. Wenn h ; i nicht symmetrisch ist, besteht natürlich eine Willkür bei der Definition von v [ : Alternativ hätten wir ja auch h ; vi verwenden können. Wir werden jedoch hauptsächlich symmetrische Bilinearformen betrachten, sodass diese Wahl keine Rolle spielt. Man nennt die Abbildung [ W V ! V auch den musikalischen Homomorphismus, der zur Bilinearform h ; i gehört. Die Bezeichnung wird in Band2 klarer werden. iv.) Die Bilinearform h ; i ist genau dann nicht-ausgeartet (im ersten Argument, falls h ; i nicht symmetrisch ist), wenn der zugehörige musikalische Homomorphismus (7.6) injektiv ist. In der Tat, ist nämlich h ; i nicht-ausgeartet, so gibt es zu jedem v 2 V n f0g ein w 2 V mit 0 ¤ hv; wi D v [ .w/. Daher ist v [ selbst von null verschieden und ker.[ / D f0g ist trivial. Ist umgekehrt der Kern 7.1 Innere Produkte 295 von [ trivial, also v [ D 0 nur für v D 0, so gibt es zu jedem v ¤ 0 ein w mit 0 ¤ v [ .w/ D hv; wi. Dies bedeutet gerade, dass h ; i nicht-ausgeartet ist. Proposition 7.3. Sei V ein Vektorraum über k. i.) Ist B V eine Basis von V und h ; i eine Bilinearform auf V , so gilt hv; wi D X vb hb; b 0 iwb 0 (7.7) b;b 0 2B für alle v; w 2 V , wobei vb und wb 0 wie immer die Entwicklungskoeffizienten bezüglich der Basis B darstellen. Insbesondere ist h ; i durch die Matrix Œh ; iB;B D hb; b 0 i b;b 0 2B 2 kBB (7.8) eindeutig bestimmt. ii.) Ist B V eine Basis und ist M D .Mbb 0 /b;b 0 2B 2 kBB eine beliebige Matrix, so gibt es genau eine Bilinearform h ; i auf V mit hb; b 0 i D Mbb 0 für alle b; b 0 2 B. iii.) Die Bilinearformen auf V bilden einen Unterraum von Abb.V V; k/. Ist B V eine Basis, so ist Bil.V / 3 h ; i 7! Œh ; iB;B 2 kBB (7.9) ein Isomorphismus. iv.) Die symmetrischen Bilinearformen bilden einen Unterraum von Bil.V /. Eine Bilinearform ist genau dann symmetrisch, wenn ihre zugehörige Matrix .hb; b 0 i/b;b 0 2B bezüglich einer (und damit bezüglich jeder) Basis symmetrisch ist, also T hb; b 0 i b;b 0 2B D hb; b 0 i b;b 0 2B : (7.10) v.) Es gibt nicht-ausgeartete symmetrische Bilinearformen auf V . P P 0 Beweis. Sei B eine Basis von V und v D b2B vb b sowie w D b 0 2B wb 0 b die Basisdarstellungen von v; w 2 V . Die Linearität von h ; i im ersten und im zweiten Argument liefert dann (7.7). Damit legt die Matrix (7.8) die Bilinearform also eindeutig fest. Man beachte, dass in der Summe in (7.7) nur endlich viele Terme ungleich null sind, da nur endlich viele der Zahlen vb und wb 0 von null verschieden sind. Die Einträge hb; b 0 i dagegen können beliebig sein: Ist nämlich M D .Mbb 0 /b;b 0 2B eine beliebige Matrix in kBB , so definieren wir h ; iW V V ! k durch X vb Mbb 0 wb 0 : (7.11) hv; wi D b;b 0 2B 296 7 Euklidische und unitäre Vektorräume Da B Œv; B Œw 2 k.B/ nur endlich viele Einträge ungleich null besitzen, ist (7.11) tatsächlich wohldefiniert. Die Bilinearität von (7.11) folgt nun daraus, dass die Koordinatenfunktionen v 7! vb und w 7! wb 0 linear sind. Die darstellende Matrix von h ; i ist offenbar gerade M . Damit ist auch der zweite Teil gezeigt. Für den dritten Teil bemerken wir, dass Bil.V / Abb.V V; k/ dank der punktweise erklärten Vektorraumstruktur von Abb.V V; k/ ein Unterraum wird: Sind nämlich h ; i und h ; i0 zwei Bilinearformen, so ist auch h ; i C h ; i0 .v; w/ D hv; wi C hv; wi0 für alle ; 2 k wieder eine Bilinearform, was man leicht nachprüft. Die Abbildung (7.9) ist linear, denn h ; i C h ; i0 .b; b 0 / D hb; b 0 i C hb; b 0 i0 gilt für alle ; 2 k, womit h ; i C h ; i0 .b; b 0 / b;b 0 2B D hb; b 0 i b;b 0 2B C hb; b 0 i0 b;b 0 2B : Der erste und der zweite Teil liefern dann die Bijektivität von (7.9). Unter den punktweisen Vektorraumoperationen von Abb.V V; k/ bleibt die Symmetrie hv; wi D hw; vi offenbar erhalten. Weiter ist h ; i genau dann symmetrisch, wenn hb; b 0 i D hb 0 ; bi für alle Vektoren b; b 0 2 B einer Basis von V gilt. Dies sieht man anhand der Basisdarstellung (7.7) direkt, was den vierten Teil zeigt. Für den letzten Teil wählen wir eine Basis B V und betrachten diejenige eindeutig bestimmte Bilinearform h ; i mit hb; b 0 i D ıbb 0 für alle b; b 0 2 B. Da ıbb 0 D ıb 0 b gilt, ist diese Bilinearform nach dem vierten Teil symmetrisch. Für v 2 V gilt dann hv; b 00 i D X b;b 0 2B vb ıbb 0 bb000 D X vb ıbb 0 ıb 00 b 0 D vb 00 ; b;b 0 2B da ja die Koordinaten eines Basisvektors durch Kronecker-ı gegeben sind. Daher ist hv; i D 0 genau dann erfüllt, wenn für alle b 00 2 B die Koordinate vb 00 verschwindet. Dies ist aber äquivalent zu v D 0, womit h ; i tatsächlich nichtausgeartet ist. t u Korollar 7.4. Auf jedem Vektorraum gibt es innere Produkte. Korollar 7.5. Ist h ; iW V V ! k eine Bilinearform, und sind A; B V Basen, so gilt Œh ; iB;B D . A ŒidV B /T Œh ; iA;A A ŒidV B : (7.12) 7.1 Innere Produkte 297 Beweis. Wir schreiben jeden Basisvektor b 2 B als Linearkombination der Basisvektoren aus A durch X bD ba a: a2A Wie wir aus (5.70) wissen, gilt A ŒidV B D .ba /a2A . Damit gilt also b2B hb; b 0 i D X ba ha; a0 iba0 0 ; a;a0 2A was gerade (7.12) ist, wenn man für Q 2 k.A/B mit Q D .Qab /, wie bereits T geschehen, QT als .Qba / D .Qab / 2 kB.A/ definiert. Man beachte, dass beide Summationen in (7.12) über die Vektoren aus A laufen und für festes b; b 0 2 B jeweils nur endlich viele von null verschiedene Terme beinhalten. t u Bemerkung 7.6. Ist V ein endlich-dimensionaler Vektorraum, und ist B D .b1 ; : : : ; bn / eine geordnete Basis, so sind die Bilinearformen h ; i auf V via Proposition 7.3, iii.), zum Vektorraum Mn .k/ isomorph. Man beachte jedoch das Transformationsverhalten (7.12) unter einem Basiswechsel: Ist Q D A ŒidV B 2 GLn .k/ die Matrix des Basiswechsels, so gilt Œh ; iB;B D QT Œh ; iA;A Q: (7.13) Das ist verschieden vom Transformationsverhalten einer linearen Abbildung ˚ 2 End.V /, für welche ja B Œ˚B D Q1 A Œ˚A Q (7.14) gilt, siehe Definition 6.46 beziehungsweise Korollar 5.43. Daher spielt es eine entscheidende Rolle, ob man eine Matrix als Bilinearform oder als lineare Abbildung auffassen möchte. Bemerkung 7.7. Ist h ; i 2 Bil.V / eine Bilinearform und B V eine Basis, so können wir den Spaltenvektor B Œv 2 k.B/ wie immer als B 1-Matrix auffassen. Entsprechend ist dann der Zeilenvektor B ŒvT eine 1 B-Matrix. Die Bilinearform h ; i können wir dann folgendermaßen in Koordinaten auswerten: Für v; w 2 V gilt hv; wi D . B Œv/T Œh ; iB;B B Œw (7.15) im Sinne der Matrixmultiplikation. Das Resultat ist eine 11-Matrix, also eine Zahl in k. 298 7 Euklidische und unitäre Vektorräume Kontrollfragen. Wie ist die Matrix einer Bilinearform definiert? Was ist der musikalische Homomorphismus? Wie viele Bilinearformen auf einem Vektorraum gibt es? 7.2 Skalarprodukte Wir wollen nun auch die letzte Eigenschaft, nämlich die Positivität aus Proposition 1.8, iii.), axiomatisieren, um so eine allgemeine Definition für ein Skalarprodukt zu finden. Da wir jedoch in einem beliebigen Körper nicht einfach von „positiven“ Zahlen sprechen können, beschränken wir uns von nun an auf k D R. Es ist prinzipiell jedoch möglich, die folgenden Begriffe auch in etwas größerer Allgemeinheit für geordnete Körper zu diskutieren. Wir wollen dies jedoch der Einfachheit wegen unterlassen. Die folgende Begriffsbildung ist dann eine einfache Übertragung der Eigenschaften des kanonischen Skalarprodukts aus Abschn. 1.3: Definition 7.8 (Skalarprodukt). Sei V ein reeller Vektorraum und h ; i eine symmetrische Bilinearform auf V . i.) Die Bilinearform h ; i heißt positiv semidefinit, falls für alle v 2 V hv; vi 0: (7.16) ii.) Die Bilinearform h ; i heißt positiv definit, falls für alle v 2 V n f0g hv; vi > 0: (7.17) iii.) Eine positiv definite, symmetrische Bilinearform auf V heißt Skalarprodukt auf V . Beispiel 7.9 (Kanonisches Skalarprodukt, I). Wir betrachten für V D Rn die Bilinearform hx; yi D n X xi yi ; (7.18) iD1 wobei x; y 2 Rn und xi ; yi 2 R die i -te Koordinate bezüglich des i -ten Basisvektors ei der Standardbasis ist. Offenbar ist h ; i symmetrisch und bilinear. Weiter gilt hx; xi D n X iD1 xi2 > 0 (7.19) 7.2 Skalarprodukte 299 für alle x ¤ 0, da eine Summe von Quadraten in R genau dann verschwindet, wenn jedes einzelne Quadrat verschwindet. Also ist h ; i ein Skalarprodukt, das kanonische Skalarprodukt auf Rn . Für n D 3 erhalten wir gerade das Skalarprodukt aus Definition 1.7. Proposition 7.10 (Cauchy-Schwarz-Ungleichung, I). Sei V ein reeller Vektorraum und h ; i eine positiv semidefinite, symmetrische Bilinearform auf V . Dann gilt für alle v; w 2 V jhv; wij2 hv; vihw; wi: (7.20) Beweis. Der Beweis ist nahezu wörtlich derselbe wie in Proposition 1.9: Wir müssen nur den Fall hv; vi D 0 gesondert betrachten. Sei also zunächst v 2 V mit hv; vi D 0 gegeben. Dann gilt für alle 2 R und alle w 2 V 0 hv C w; v C wi D 2 hv; vi C 2hv; wi C hw; wi D 2hv; wi C hw; wi: (7.21) Da 2 R beliebig ist, kann dies nur dann der Fall sein, wenn hv; wi D 0 gilt. Wäre nämlich hv; wi ¤ 0, so wäre die rechte Seite von (7.21) ein lineares Polynom und . Jenseits dieser Nullstelle nimmt hätte als solches eine Nullstelle bei 0 D hw;wi hv;wi es dann aber beiderlei Vorzeichen an, im Widerspruch zu (7.21). Also folgt (7.20) für diesen Fall. Ist nun hv; vi > 0, so können wir den Beweis von Proposition 1.9 übernehmen. t u Korollar 7.11. Sei V ein reeller Vektorraum und h ; i eine positiv semidefinite symmetrische Bilinearform. Dann sind äquivalent: i.) Die Bilinearform h ; i ist positiv definit. ii.) Die Bilinearform h ; i ist nicht-ausgeartet. Beweis. Die Implikation i.) H) ii.) ist trivial. Sei also h ; i nicht-ausgeartet und v 2 V mit hv; vi D 0 gegeben. Dann gilt hv; wi D 0 für alle w 2 W nach (7.20). Also ist v D 0. Daher ist für v ¤ 0 aber die Bedingung hv; vi 0 zu hv; vi > 0 äquivalent. t u Ein Skalarprodukt ist also mit anderen Worten ein positiv definites inneres Produkt. In einem weiteren Schritt wollen wir sehen, ob die obige Begriffsbildung und insbesondere die Positivitätsbedingung auch für komplexe Vektorräume sinnvoll ist. Da R C ein Unterkörper ist, können wir von einer Bilinearform auf einem komplexen Vektorraum V selbstverständlich sinnvoll sagen, dass hv; vi 0 für einen Vektor v 2 V gilt. Ist aber nun für v 2 V tatsächlich hv; vi > 0 erfüllt, so ist für w D iv 300 7 Euklidische und unitäre Vektorräume hw; wi D hiv; ivi D i2 hv; vi D hv; vi < 0: (7.22) Daher kann man für einen komplexen Vektorraum V und eine Bilinearform h ; i auf V nie hv; vi > 0 für alle v 2 V n f0g erreichen, sofern dim V 1. Der Ausweg besteht nun darin, die Bilinearität geringfügig abzuändern: Definition 7.12 (Sesquilinearform). Sei V ein komplexer Vektorraum und sei h ; iW V V ! C (7.23) eine Abbildung. i.) Die Abbildung h ; i heißt sesquilinear, falls sie im zweiten Argument linear und im ersten Argument antilinear ist, also hv; w C ui D hv; wi C hv; ui (7.24) hv C w; ui D hv; ui C hw; ui (7.25) und für alle v; w; u 2 V und ; 2 C gilt. In diesem Fall nennt man h ; i eine Sesquilinearform. ii.) Eine Sesquilinearform h ; i heißt Hermitesch, falls für alle v; w 2 V hv; wi D hw; vi: (7.26) iii.) Eine Sesquilinearform h ; i heißt Skalarprodukt, falls sie positiv definit ist: Für alle v 2 V n f0g gilt hv; vi > 0: (7.27) Zur Vorsicht sei angemerkt, dass in vielen mathematischen Lehrbüchern die Antilinearität im zweiten Argument anstelle im ersten gefordert wird. Unsere Konvention ist eher in der Physik und speziell in der Quantenmechanik zu Hause. Egal welcher Konvention man nun folgt, einen wesentlichen Unterschied gibt es natürlich nicht. Bemerkung 7.13. Wie bereits für Bilinearformen bilden die Sesquilinearformen auf V einen Unterraum von Abb.V V; C/. Nach Wahl einer Basis B V ist eine Sesquilinearform h ; i durch die Matrix Œh ; iB;B D .hb; b 0 i/b;b 0 2B 2 CBB eindeutig bestimmt, und jede solche Matrix definiert analog zu Bemerkung 7.7 eine Sesquilinearform auf V via hv; wi D T B Œv Œh ; iB;B B Œw : (7.28) 7.2 Skalarprodukte 301 Man beachte, dass hier die Einträge des Zeilenvektors B ŒvT im Gegensatz zu (7.15) zusätzlich noch komplex konjugiert werden. Ist Q D A ŒidV B der Basiswechsel von einer Basis B zu einer anderen Basis A, so gilt für die entsprechenden Matrizen von h ; i die Transformationsformel T h ; i B;B D Q h ; i A;A Q; (7.29) nun wieder mit komponentenweiser komplexer Konjugation der Einträge von QT , im Gegensatz zu (7.14). T Da für komplexe Matrizen A 2 Mn .C/ die Kombination A D AT so oft auftritt, verwendet man hierfür ein eigenes Symbol: Definition 7.14 (Adjungierte Matrix). Sei A 2 Mn .C/. Dann heißt A D AT (7.30) die zu A adjungierte Matrix. Es sollte aus dem Zusammenhang klar sein, dass die Adjunktion nicht mit dem Dualisieren von Abbildungen verwechselt wird. Man beachte weiterhin, dass in der Literatur der Begriff adjungierte Matrix auch für die komplementäre Matrix A# verwendet wird. Hier sollte man also eine gewisse Vorsicht walten lassen. Alternativ wird auch das Symbol A anstelle von A verwendet. Die Adjunktion von komplexen Matrizen erfüllt nun einige einfache Eigenschaften, die sich sofort aus denen der Transposition ergeben: Proposition 7.15 (Adjunktion). Sei n 2 N und A; B 2 Mn .C/ sowie ; 2 C. Dann gilt: i.) Die Adjunktion ist antilinear, also .A C B/ D A C B : (7.31) ii.) Die Adjunktion ist involutiv, also .A / D A: (7.32) iii.) Die Adjunktion ist ein Antihomomorphismus, also .AB/ D B A : (7.33) Wie bereits im allgemeinen Fall von Proposition 7.3, v.), können wir auch die Existenz von Skalarprodukten in reellen und komplexen Vektorräumen zeigen: Die zusätzliche Positivität stellt keine Schwierigkeit dar. 302 7 Euklidische und unitäre Vektorräume Proposition 7.16. Sei V ein reeller oder komplexer Vektorraum. Dann gibt es ein Skalarprodukt auf V . Beweis. Inspiriert durch Proposition 7.3, v.), und das kanonische Skalarprodukt aus Beispiel 7.9 wählen wir zunächst eine Basis B V . Dann setzen wir im reellen Fall hv; wi D B Œv T B Œw und im komplexen Fall hv; wi D B Œv B Œw : Mit anderen Worten, wir wählen h ; i derart, dass die Matrix Œh ; iB;B für diese Basis gerade die B B-Einheitsmatrix ist. Ausgeschrieben gilt im komplexen Fall hv; wi D B Œv X B Œw D vb wb D b2B X wb vb D hw; vi; b2B was die Hermitizität zeigt. Weiter gilt hv; vi D X jvb j2 > 0; b2B wann immer v ¤ 0, da eine Summe von Quadraten nur dann null sein kann, wenn jedes einzelne Quadrat verschwindet. Dies zeigt die gewünschte positive Definitheit. Der reelle Fall ist analog. t u Wenden wir diese Konstruktion auf V D Cn und die Standardbasis e1 ; : : : ; en an, so erhalten wir das kanonische Skalarprodukt auf Cn : Beispiel 7.17 (Kanonisches Skalarprodukt, II). Auf Cn definiert man das kanonische Skalarprodukt durch hv; wi D n X vi wi D v w: (7.34) iD1 Dies ist nach dem obigen Beweis tatsächlich ein Skalarprodukt im Sinne von Definition 7.12. Im reellen Fall ist die Symmetrie einer Bilinearform eine unabhängige Forderung von der positiven Definitheit: Beispiel 7.18. Sei V D R2 und eine Bilinearform ! durch ! x1 y ; 1 D x1 y2 x2 y1 x2 y2 (7.35) 7.2 Skalarprodukte 303 definiert. Es gilt offenbar !.x; y/ D !.y; x/ und damit !.x; x/ D 0 0 für alle x 2 R2 . In diesem Sinne ist ! positiv semidefinit, aber eben antisymmetrisch und nicht symmetrisch. Man beachte, dass ! nicht-ausgeartet ist. Im komplexen Fall dagegen ist die Hermitizität eine Folge der Positivität. Dies ist eng verknüpft mit der Cauchy-Schwarz-Ungleichung: Proposition 7.19 (Cauchy-Schwarz-Ungleichung, II). Sei V ein komplexer Vektorraum und h ; iW V V ! C eine positiv semidefinite Sesquilinearform. i.) Für alle v; w 2 V gilt hv; wi D hw; vi, die Sesquilinearform ist also Hermitesch. ii.) Für alle v; w 2 V gilt die Cauchy-Schwarz-Ungleichung jhv; wij2 hv; vihw; wi: (7.36) Beweis. Sei v; w 2 V und ; 2 C. Dann gilt nach Voraussetzung hv Cw; v C wi 0. Sesquilinearität liefert 0 hv C w; v C wi D hv; vi C hv; wi C hw; vi C hw; wi: Wir setzen zur Abkürzung a D hv; vi, b D hv; wi, b 0 D hw; vi und c D hw; wi. Dann gilt also für alle ; 2 C a C b C b 0 C c 0: (7.37) Insbesondere ist die linke Seite immer reell. Wir setzen D 1 und D 1 sowie D ˙i ein. Dies liefert die Ungleichungen a C b C b0 C c 0 und a ˙ ib ib 0 C c 0: Die Differenz zu bilden, zerstört zwar die Ungleichung, nicht aber die Realität der linken Seiten. Daher folgt b ˙ ib C b 0 ib 0 2 R: (7.38) Wir schreiben nun b D x C iy und b 0 D x 0 C iy 0 mit reellen x; y; x 0 ; y 0 2 R. Dann bedeutet (7.38) x C iy ˙ ix ˙ i2 y C x 0 C iy 0 ix 0 i2 y 0 2 R und damit für die beiden Fälle D ˙i y C x C y 0 x 0 D 0 und y x C x 0 C y 0 D 0: 304 7 Euklidische und unitäre Vektorräume Dies liefert aber 2y C 2y 0 D 0 und damit y D y 0 sowie 2x 2x 0 D 0 und damit x D x 0 . Insgesamt bedeutet dies aber gerade b D b 0 , was den ersten Teil zeigt. Für den zweiten Teil können wir also bereits b 0 D b in (7.37) verwenden und erhalten daher a C b C b C c 0: (7.39) Ist nun a D 0, also hv; vi D 0, so können wir D 1 setzen und erhalten für alle reellen 2 R die Ungleichung 2Re.b/ C c 0; was nur für Re.b/ D 0 möglich ist. Setzen wir anschließend D it mit t 2 R, so erhalten wir für alle t 2 R die Ungleichung 2Im.b/t C c 0; was Im.b/ D 0 liefert. Insgesamt gilt also b D 0, und (7.36) ist in diesem Fall erfüllt. Sei umgekehrt a ¤ 0, also a > 0, so setzen wir D b und D a in (7.39) ein und erhalten abb bba bba C ca2 0; womit wir wegen a > 0 die Ungleichung bb ac erhalten, was gerade (7.36) ist. Also ist die Cauchy-Schwarz-Ungleichung auch in diesem Fall erfüllt. t u Bemerkenswerterweise ist es nicht erforderlich, dass die Sesquilinearform positiv definit ist. Dies ist gelegentlich von großem Nutzen, wie folgendes Beispiel aus der Analysis nahelegt: Beispiel 7.20. Sei V D C.Œa; b; C/ der komplexe Vektorraum der stetigen, komplexwertigen Funktionen auf dem kompakten Intervall Œa; b R. Eine Funktion f W Œa; b ! C heißt dabei stetig, wenn sowohl der Real- als auch der Imaginärteil stetig sind. Mit dieser Charakterisierung ist es tatsächlich leicht zu sehen, dass C.Œa; b; C/ Abb.Œa; b; C/ ein komplexer Unterraum ist. Das Integral Z W C.Œa; b; C/ ! C (7.40) ist wieder komponentenweise bezüglich Real- und Imaginärteil definiert, also Z Z b a Z b f .x/dx D b Re.f .x//dx C i a Im.f .x//dx (7.41) a für f 2 C.Œa; b; C/. Auf diese Weise wird (7.40) ein C-lineares Funktional auf C.Œa; b; C/. Man definiert nun das kanonische L2 -Skalarprodukt auf C.Œa; b; C/ durch 7.3 Norm und Orthogonalität 305 Z b hf; gi D f .x/g.x/dx: (7.42) a Da f g wieder eine stetige Funktion ist, ist das Integral von f g als RiemannIntegral definiert und wir können hf; gi tatsächlich durch (7.42) definieren. Die Sesquilinearität ist nun leicht zu sehen. Zur Positivität betrachtet man zunächst Z hf; f i D b jf .x/j2 dx 0: (7.43) a Ist nun f ¤ 0, so zeigt ein Stetigkeitsargument, dass jf j2 > 0 für ein geeignetes > 0 auf einem (eventuell kleinen) Intervall Œc; d Œa; b. Daher ist hf; f i .d c/ > 0, was die positive Definitheit bedeutet. Insgesamt haben wir also tatsächlich ein Skalarprodukt vorliegen. Nun möchte man das Skalarprodukt und zuvor auch das Integral auf mehr Funktionen ausdehnen als die stetigen alleine. Je nach verwendeter Variante des Integrals können dies alle Riemann-integrablen Funktionen oder gar alle Lebesgue-integrablen Funktionen sein. Dann allerdings funktioniert das obige Argument zur positiven Definitheit nicht länger: Es gibt Riemann-integrable Funktionen f W Œa; b ! C, sodass hf; f i D 0 gilt, obwohl f nicht die Nullfunktion ist. Ein einfaches Beispiel ist ( f .x/ D 0 x¤c 1 x D c; (7.44) wobei c 2 Œa; b ein fest gewählter Punkt ist. Für diese Funktion gilt jf j2 D f 0 aber hf; f i D 0. Trotzdem sind auch für diesen größeren Vektorraum der Riemann-integrablen Funktionen die Resultate aus Proposition 7.19 richtig. In der Integrationstheorie wird diese positiv semidefinite Sesquilinearform eine große Rolle spielen, siehe etwa [19]. Kontrollfragen. Was bedeutet sesquilinear? Wie beweist man die CauchySchwarz-Ungleichung? Welche Eigenschaften erfüllt die Adjunktion? 7.3 Norm und Orthogonalität In Abschn. 1.3 haben wir das kanonische Skalarprodukt von R3 dazu verwendet, Längen und Winkel von Vektoren zu beschreiben. Wir wollen diese heuristischen Überlegungen nun zu einem Prinzip erheben und auf einem beliebigen Skalarprodukt basierend diese Begriffe etablieren. Um den reellen und den komplexen Fall simultan oder zumindest weitgehend simultan diskutieren zu können, verabreden wir, dass K D R oder C: (7.45) 306 7 Euklidische und unitäre Vektorräume Ein Vektorraum V über K ist dann also entweder ein reeller oder ein komplexer Vektorraum, und die entsprechenden Aussagen gelten in beiden Fällen. Dies ist eine recht robuste Verabredung, wie etwa folgende Überlegung zeigt: Für 2 R können wir D verwenden, was damit konsistent ist, dass R C. Ein reelles Skalarprodukt erfüllt in diesem Sinne dann auch die Sesquilinearität und die Hermitizität, einfach deshalb, weil die komplexe Konjugation auf R die Identität ist. Selbstverständlich werden wir betonen, welchen Körper wir verwende müssen, wenn die angestrebten Resultate nur in einem der beiden Fälle gültig sind. Im Folgenden wollen wir einen Vektorraum V über K betrachten, der mit einem Skalarprodukt versehen ist: Definition 7.21 (Euklidischer und unitärer Raum). Sei V ein Vektorraum über K und h ; i ein Skalarprodukt auf V . i.) Ist K D R, so heißt das Paar .V; h ; i/ euklidischer Vektorraum. ii.) Ist K D C, so heißt das Paar .V; h ; i/ unitärer Vektorraum. Die Begriffe euklidischer beziehungsweise unitärer Vektorraum sind vor allem für endliche Dimensionen gebräuchlich. In der Funktionalanalysis ist man vornehmlich an unendlich-dimensionalen Vektorräumen mit Skalarprodukten interessiert. Diese werden dann reelle oder komplexe Prä-Hilbert-Räume genannt. Auch wenn es offensichtliche und interessante Beispiele bereits in diesem Stadium gibt, wie etwa Beispiel 7.20, so werden wir uns vor allem auf die endlich-dimensionale Situation konzentrieren. Wie immer werden wir kurz von einem euklidischen oder unitären Vektorraum V sprechen, ohne das Skalarprodukt zu spezifizieren, sofern klar ist, um welches es sich handeln soll. In einem euklidischen beziehungsweise unitären Vektorraum können wir nun die Länge von Vektoren definieren. Dazu abstrahieren wir zuerst die Eigenschaften einer Länge, was uns zum Begriff der Norm führt: Definition 7.22 (Norm). Sei V ein Vektorraum über K. Eine Norm k k für V ist eine Abbildung k kW V 3 v 7! kvk 2 R (7.46) mit folgenden Eigenschaften: i.) Es gilt kvk > 0 für alle v 2 V n f0g. ii.) Es gilt kvk D jjkvk für alle v 2 V und 2 K. iii.) Es gilt die Dreiecksungleichung kv C wk kvk C kwk für alle v; w 2 V . (7.47) 7.3 Norm und Orthogonalität 307 Die zweite Eigenschaft einer Norm heißt auch ihre Homogenität. Es folgt k0V k D k0 0V k D j0jk0V k D 0 (7.48) für den Nullvektor 0V 2 V . Gilt anstelle der ersten Eigenschaft nur kvk 0 für v 2 V , so heißt k k eine Halbnorm oder auch Seminorm. Eine Norm ist also eine Halbnorm, für die zudem kvk D 0 ” v D 0 (7.49) gilt. In einem euklidischen beziehungsweise unitären Vektorraum gibt es immer eine durch das Skalarprodukt bestimmte Norm: Proposition 7.23. Sei V ein euklidischer beziehungsweise unitärer Vektorraum. Dann ist p kvk D hv; vi (7.50) eine Norm für V . Beweis. Da wir hv; vi 0 für ein Skalarprodukt voraussetzen, ist kvk als positive Wurzel der positiven Zahl hv; vi für v ¤ 0 definiert und kvk D 0 für v D 0. Die positive Definitheit garantiert nun kvkp > 0 für v ¤ 0. Sei weiter v 2 V und p 2 K, dann gilt kvk D hv; vi D jj2 hv; vi D jjkvk, womit auch die zweite Eigenschaft einer Norm erfüllt ist. Für die Dreiecksungleichung betrachten wir zunächst .kvk C kwk/2 D kvk2 C 2kvkkwk C kwk2 .a/ kvk2 C hv; wi C hw; vi C kwk2 (7.51) D hv C w; v C wi D kv C wk2 ; wobei wir in (a) die Cauchy-Schwarz-Ungleichung verwendet haben: Hier ist im komplexen Fall zu beachten, dass .Rehv; wi/2 .Re.hv; wi//2 C .Im.hv; wi//2 D jhv; wij2 kvk2 kwk2 ; was (a) auch in diesem Fall rechtfertigt. Aus (7.51) folgt aber sofort die Dreiecksungleichung durch Wurzelziehen, da beide Seiten der Dreiecksungleichung (7.47) ja nicht-negativ sind und die Wurzelfunktion monoton ist. t u 308 7 Euklidische und unitäre Vektorräume Wir können also in einem euklidischen beziehungsweise unitären Vektorraum immer von den Längen von Vektoren sprechen, indem wir die Norm (7.50) benutzen. Dies erlaubt es nun, Techniken der Analysis zu verwenden, um geometrische Eigenschaften von euklidischen und unitären Vektorräumen zu studieren. Einen Vektor v 2 V mit kvk D 1 (7.52) nennt man aus naheliegenden Gründen einen Einheitsvektor. Für einen Vektor v 2 v V n f0g ist v1 D kvk immer ein Einheitsvektor, der den gleichen eindimensionalen Unterraum wie v aufspannt. Wie schon in Abschn. 1.3 nennt man den Übergang von v v zu kvk das Normieren des Vektors v. Bemerkung 7.24 (Parallelogramm-Identität und Polarisierung). Es stellt sich natürlich nun die Frage, ob nicht vielleicht jede Norm auf einem reellen oder komplexen Vektorraum von der Form (7.50) ist, wenn man nur das Skalarprodukt geeignet wählt. Es zeigt sich, dass (7.50) eine weitere, über die allgemeinen Anforderungen an eine Norm hinausgehende, Eigenschaft besitzt: Es gilt die Parallelogramm-Identität kv C wk2 C kv wk2 D 2kvk2 C 2kwk2 (7.53) für alle v; w 2 V . Der Name kommt von einer elementargeometrischen Überlegung zur Länge der Diagonalen in einem Parallelogramm im R2 , siehe Abb. 7.1. Man rechnet (7.53) direkt mit der Sesquilinearität des Skalarprodukts nach, siehe Übung 7.4. Umgekehrt gilt, dass eine Norm, welche zusätzlich (7.53) erfüllt, tatsächlich von einem Skalarprodukt kommt und daher von der Form (7.50) ist. Im komplexen Fall gilt nämlich für eine Norm der Form (7.50) v − w w v Abb. 7.1 Die Parallelogramm-Identität v + w 7.3 Norm und Orthogonalität 309 3 hv; wi D 1X r r i ki v C wk2 ; 4 rD0 und im reellen Fall gilt entsprechend 1 kv C wk2 kv wk2 ; hv; wi D 4 (7.54) (7.55) was man für die Norm aus (7.50) durch eine leichte Rechnung überprüft. Die Rekonstruktion des Skalarprodukts aus den zugehörigen Normen nennt man auch Polarisierung. Im allgemeinen Fall zeigt man nun, dass für eine gegebene Norm durch (7.54) beziehungsweise (7.55) tatsächlich ein Skalarprodukt definiert wird, sofern die Norm zusätzlich die Parallelogramm-Identität erfüllt. Als Fazit bleibt festzuhalten, dass die Norm (7.50) eines euklidischen beziehungsweise unitären Vektorraums zusätzlich die Parallelogramm-Identität erfüllt und dadurch das Skalarprodukt bestimmt. Beide Strukturen sind daher gleichwertig. Wie auch schon in Abschn. 1.3 können wir das Skalarprodukt dazu verwenden, Winkel zu definieren. Der Schlüssel dazu ist die Cauchy-Schwarz-Ungleichung: Proposition 7.25. Sei V ein euklidischer oder unitärer Vektorraum und v; w 2 V n f0g. i.) Ist K D R, gilt 1 hv; wi 1: kvkkwk (7.56) ii.) Es gilt genau dann jhv; wij D kvkkwk, wenn v und w linear abhängig sind. Beweis. Die erste Aussage ist gerade die Cauchy-Schwarz-Ungleichung im reellen Fall. Wir müssen daher die zweite Aussage beweisen. Sind v und w linear abhängig, so gibt es ein ¤ 0 mit v D w, da ja beide Vektoren ungleich null sein sollen. Damit folgt aber jhv; wij D jhw; wij D jjhw; wi D jjkwk2 D kwkkwk D kvkkwk; was jhv; wij D kvkkwk zeigt. Man beachte, dass dieses Argument gleichermaßen im reellen wie im komplexen Fall gültig ist. Sei umgekehrt jhv; wij2 D kvk2 kwk2 erfüllt. Dann betrachten wir den Vektor uDv hw; vi w hw; wi 310 7 Euklidische und unitäre Vektorräume und rechnen nach, dass D hw; vi hw; vi E hu; ui D v w; v w hw; wi hw; wi D hv; vi hw; vi hw; vi hw; vi hw; vi hw; vi hv; wi C hw; wi hw; wi hw; wi hw; wi hw; wi D hv; vi jhv; wij2 hw; wi D 0; wobei wir im letzten Schritt die Voraussetzung verwenden. Da das Skalarprodukt positiv definit ist, folgt u D 0, was die lineare Abhängigkeit von v und w zeigt. u t Korollar 7.26. Sei V ein euklidischer oder unitärer Vektorraum. Die CauchySchwarz-Ungleichung wird genau dann zu einer Gleichung, wenn die Vektoren linear abhängig sind. Im reellen Fall können wir (7.56) zur Definition eines Winkels zwischen v und w heranziehen: Definition 7.27 (Winkel). Sei V ein euklidischer Vektorraum. Dann heißt die Zahl ' D arccos hv; wi 2 Œ0; kvkkwk (7.57) der Winkel zwischen v; w 2 V n f0g. Ist der Winkel ' also 0 oder , so ist v zu w parallel oder anti-parallel, in allen anderen Fällen sind v und w linear unabhängig. Dies scheint eine vernünftige Eigenschaft eines Winkels zu sein, womit die Definition gut motiviert ist. hv;wi Im komplexen Fall ist die Größe kvkkwk zwar betragsmäßig immer noch durch 1 beschränkt, aber nicht notwendigerweise reell. Daher können wir nicht von einem Winkel zwischen v und w sprechen. Da aber ' D 2 gerade hv; wi D 0 entspricht, wollen wir auch im komplexen Fall von senkrechten Vektoren sprechen, auch wenn wir allgemein den Winkel nicht definieren können: Definition 7.28 (Orthogonalität). Sei V ein euklidischer oder unitärer Vektorraum und v; w 2 V . Dann heißen v und w orthogonal, falls hv; wi D 0. Da hv; wi D hw; vi gilt, ist Orthogonalität eine symmetrische Relation. Der Nullvektor ist der einzige Vektor, der auf alle anderen Vektoren senkrecht steht, 7.3 Norm und Orthogonalität 311 da h ; i ja nicht-ausgeartet ist. Eine erste Konsequenz dieser Begriffsbildung ist der Satz des Pythagoras: Proposition 7.29 (Satz des Pythagoras). Sei V ein euklidischer oder unitärer Vektorraum und v1 ; : : : ; vn 2 V . Sind die Vektoren paarweise senkrecht, so gilt kv1 C C vn k2 D kv1 k2 C C kvn k2 : (7.58) Beweis. Wegen hvi ; vj i D 0 für i ¤ j fallen alle gemischten Terme in kv1 C C t u vn k2 D hv1 C C vn ; v1 C C vn i weg, was sofort (7.58) liefert. Der Begriff der Orthogonalität erlaubt es nun, zu einer gewissen Menge von Vektoren ein orthogonales Komplement zu definieren: Definition 7.30 (Orthogonalkomplement). Sei V ein euklidischer oder unitärer Vektorraum und U V eine nichtleere Teilmenge. Dann definiert man das Orthogonalkomplement U ? von U als ˇ ˚ U ? D w 2 V ˇ für alle v 2 U gilt hv; wi D 0 : (7.59) Proposition 7.31. Sei V ein euklidischer oder unitärer Vektorraum, und seien U; W V Teilmengen. i.) ii.) iii.) iv.) Es gilt U \ U ? D f0g, falls 0 2 U , und U \ U ? D ; anderenfalls. Das Orthogonalkomplement U ? von U ist ein Unterraum von V . Ist W U , so gilt U ? W ? . Es gilt U .U ? /? . Beweis. Sei v 2 U \ U ? , dann gilt insbesondere hv; vi D 0 nach Definition des Orthogonalkomplements. Also ist v D 0, was den ersten Teil zeigt, da umgekehrt v D 0 sicherlich auf alle Vektoren in U senkrecht steht. Seien nun ; 0 2 K und w; w0 2 U ? . Dann gilt für alle v 2 U hv; w C 0 w0 i D hv; wi C 0 hv; w0 i D 0; da ja hv; wi D 0 D hv; w0 i. Damit folgt also w C 0 w0 2 U ? . Da zudem 0 2 U ? gilt, folgt, dass U ? ein Unterraum ist. Ist v 2 U ? , so gilt hv; ui D 0 für alle u 2 U und daher auch hv; wi D 0 für alle w 2 W U . Also gilt v 2 W ? , wie behauptet. Schließlich betrachten wir u 2 U . Dann gilt für alle v 2 U ? nach Definition 0 D hv; ui D hu; vi und damit hu; vi D 0. Das zeigt aber u 2 .U ? /? . t u Im Folgenden schreiben wir kurz U ?? anstelle von .U ? /? und ebenso für mehr Iterationen des Bildens des Orthogonalkomplements. 312 7 Euklidische und unitäre Vektorräume Korollar 7.32. Sei V ein euklidischer oder unitärer Vektorraum und U V eine Teilmenge. Dann gilt U ??? D U ? : (7.60) Beweis. Nach Proposition 7.31, iv.), gilt für die Teilmenge U ? die Inklusion U ? U ??? . Da ebenso U U ?? , können wir auf diese Inklusion nun Proposition 7.31, t u iii.), anwenden und erhalten auch die andere Inklusion U ??? U ? . Korollar 7.33. Sei V ein euklidischer oder unitärer Vektorraum und U V . Dann gilt U ? \ U ?? D f0g; (7.61) womit die Summe der Unterräume U ? und U ?? U ? C U ?? D U ? ˚ U ?? (7.62) direkt ist. Beweis. Zunächst ist sowohl U ? als auch U ?? ein Unterraum nach Proposition 7.31, ii.). Daher ist nach Proposition 7.31, i.), der Durchschnitt f0g. Also folgt (7.62). t u Bemerkung 7.34. Es stellt sich nun also die spannende Frage, wie groß denn U ?? ˚ U ? tatsächlich ist. Bemerkenswerterweise ist in unendlichen Dimensionen der Unterraum U ?? ˚U ? im Allgemeinen nicht ganz V . Hierfür bedarf es vielmehr einer zusätzlichen analytischen Eigenschaft. Es zeigt sich, dass U ?? ˚ U ? D V für jede Teilmenge U V genau dann gilt, wenn V vollständig ist. Hier heißt V vollständig, falls jede Cauchy-Folge .vn /n2N in V bezüglich der Norm k k auch in V konvergiert. Die umfassende Diskussion dieser Tatsache führte uns jedoch weit in das Gebiet der Funktionalanalysis und soll deshalb hier unterbleiben, siehe etwa [19, 22]. In endlichen Dimensionen dagegen werden wir elementar zeigen, dass immer U ?? ˚ U ? D V gilt, ohne die Frage nach der Vollständigkeit, die in endlichen Dimensionen eben trivialerweise immer gegeben ist, zu berühren. Wir wollen nun diese endlich-dimensionale Situation genauer ansehen. Dazu benötigen wir einige Vorbereitungen: Lemma 7.35. Sei V ein euklidischer oder unitärer Vektorraum und U V eine Teilmenge. Dann gilt span U U ?? : (7.63) 7.3 Norm und Orthogonalität 313 Beweis. Der Spann span U ist der kleinste Unterraum von V , der die Teilmenge U enthält. Da nach Proposition 7.31, iv.), auch der Unterraum U ?? die Teilmenge U enthält, folgt (7.63). t u Proposition 7.36. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V eine Teilmenge. i.) Es gilt U ? ˚ U ?? D V . ii.) Es gilt span U D U ?? . Beweis. Zunächst wählen wir eine Basis u1 ; : : : ; uk 2 span U , wobei wir ohne Einschränkung u1 ; : : : ; uk 2 U annehmen dürfen. Mit U span U gilt auch .span U /? U ? : Aus Lemma 7.35 folgt U ? D U ??? .span U /? , womit insgesamt also U ? D .span U /? gilt. Wir behaupten nun, dass v 2 U ? genau dann gilt, wenn hv; u1 i D D hv; uk i D 0: (7.64) Da u1 ; : : : ; uk 2 U , erfüllt v 2 U ? sicherlich (7.64). Ist umgekehrt (7.64) erfüllt und u 2 span U beliebig, so gibt es 1 ; : : : ; k 2 K mit u D 1 u1 C C k uk . Daher folgt (7.64) hv; ui D hv; 1 u1 C C k uk i D 1 hv; u1 i C C k hv; uk i D 0 und somit v 2 .span U /? D U ? . Dies zeigt die behauptete Äquivalenz. Wir betrachten nun die folgende lineare Abbildung 1 0 hu1 ; vi C B ˚W V 3 v 7! @ ::: A 2 Kk : huk ; vi Da das Skalarprodukt im zweiten Argument linear ist, ist ˚ tatsächlich eine lineare Abbildung. Da hui ; vi D hv; ui i genau dann verschwindet, wenn hv; ui i D 0 gilt, folgt ker ˚ D U ? aus der obigen Überlegung. Nach der Dimensionsformel aus Satz 5.25 für endlichdimensionale Vektorräume wissen wir dim ker ˚ C dim im ˚ D dim V . Da nun dim im ˚ k D dim span U , da ja dim Kk D k, folgt dim U ? D dim V dim im ˚ dim V k: 314 7 Euklidische und unitäre Vektorräume Andererseits wissen wir aus Proposition 7.31, i.), beziehungsweise aus Korollar 7.33, dass .span U / \ U ? U ?? \ U ? D f0g; womit auch .span U /CU ? D .span U /˚U ? eine direkte Summe ist. Dies bedeutet aber insbesondere dim span U C dim U ? dim V und damit dim U ? dim V k. Zusammen erhalten wir also dim U ? D dim V dim span U . Damit folgt aber bereits span U ˚ U ? D V: Da nun span U U ?? gilt, folgt aus U ? \ U ?? D f0g notwendigerweise span U D U ?? , womit alles gezeigt ist. t u Korollar 7.37. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann gilt U D U ?? ; (7.65) U ˚ U? D V (7.66) dim U C dim U ? D dim V: (7.67) und Korollar 7.38. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann gibt es zu jedem v 2 V eindeutig bestimmte Vektoren vk 2 U und v? 2 U ? mit v D vk C v? : (7.68) kvk2 D kvk k2 C kv? k2 : (7.69) Es gilt Beweis. Der erste Teil ist für eine direkte Summe prinzipiell möglich, also auch für die aus (7.66), siehe Proposition 4.59, iv.). Dann ist (7.69) gerade der Satz des Pythagoras. t u Definition 7.39 (Orthogonalprojektor). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum und U V ein Unterraum. Der durch die 7.4 Orthonormalbasen 315 Zerlegung V D U ˚ U ? definierte Projektor PU 2 End.V / mit PU W V 3 v 7! vk 2 V (7.70) heißt Orthogonalprojektor auf U . Insbesondere besitzt also jeder Unterraum U V in einem endlich-dimensionalen euklidischen oder unitären Vektorraum ein kanonisch gegebenes Komplement, nämlich das Orthogonalkomplement U ? . Die obigen Korollare rechtfertigen nun diese Bezeichnungsweise. Man beachte jedoch, dass wir im Beweis von Proposition 7.36 entscheidend von der Voraussetzung dim V < 1 Gebrauch gemacht haben. In unendlichen Dimensionen ist die Aussage im Allgemeinen auch tatsächlich falsch, siehe Bemerkung 7.34 und Übung 7.27, und wird nur unter der zusätzlichen Annahme der Vollständigkeit von V und der topologischen Abgeschlossenheit von U richtig. Kontrollfragen. Wann kommt eine Norm von einem Skalarprodukt? Wann sind Vektoren orthogonal? Wie beweist man den Satz des Pythagoras? Welche Eigenschaften erfüllt das Orthogonalkomplement (in endlichen Dimensionen)? Was ist ein Orthogonalprojektor? 7.4 Orthonormalbasen Der Begriff von Orthogonalität, den wir in euklidischen und unitären Vektorräumen nun zur Verfügung haben, erlaubt es, spezielle Basen zu betrachten: die Orthonormalbasen. Zur Motivation betrachten wir zuerst folgendes Beispiel: Beispiel 7.40. Sei .e1 ; : : : ; en / die kanonische geordnete Basis von Kn . Dann gilt für das kanonische Skalarprodukt hei ; ej i D ıij (7.71) und entsprechend kei k D 1 für alle i; j D 1; : : : ; n. Dies ist unmittelbar klar anhand der Definition des kanonischen Skalarprodukts. Bemerkung 7.41. Sind in einem euklidischen oder unitären Vektorraum V die indizierten Vektoren fvi gi2I ungleich null und paarweise orthogonal, also hvi ; vj i D 0 für i ¤ j , so sind sie auch linear unabhängig: Sind nämlich vi1 ; : : : ; vin paarweise verschieden und 1 ; : : : ; n 2 K mit 1 vi1 C C n vin D 0; (7.72) 316 7 Euklidische und unitäre Vektorräume so gilt 0 D hvi` ; 1 vi1 C C n vin i D ` hvi` ; vi` i (7.73) für alle ` D 1; : : : ; n. Da nach Voraussetzung hvi` ; vi` i ¤ 0 gilt, folgt ` D 0, was die Behauptung beweist. Das Beispiel und die obige Betrachtung legen nun folgende Begriffsbildung nahe: Definition 7.42 (Orthonormalsystem). Sei V ein euklidischer oder unitärer Vektorraum. Eine Teilmenge B V heißt Orthonormalsystem, falls für alle b; b 0 2 B hb; b 0 i D ıbb 0 : (7.74) Hat man eine Teilmenge BQ V , sodass alle Vektoren in BQ ungleich null sind und paarweise orthogonal stehen, so kann man aus BQ ein Orthonormalsystem B Q gewinnen, indem man alle bQ 2 BQ durch bQ ersetzt, die Vektoren also normiert. kbk Da Orthonormalsysteme immer linear unabhängig sind, können wir also nach solchen Orthonormalsystemen suchen, die zudem eine Basis von V bilden. Eine solche werden wir Orthonormalbasis nennen. Überraschenderweise gibt es diese nur in endlichen Dimensionen: Ist dim V unendlich, so gibt es dank des Auswahlaxioms in Form des Zornschen Lemmas zwar immer maximale Orthonormalsysteme. Diese sind allerdings typischerweise keine Basis im Sinne der linearen Algebra. Sie besitzen lediglich eine etwas schwächere Eigenschaft, nämlich dass ihr Spann bezüglich der Norm k k von V dicht in V liegt: Jeder Vektor in V kann durch solche aus dem Spann eines maximalen Orthonormalsystems beliebig genau approximiert werden. In der Funktionalanalysis werden solche maximalen Orthonormalsysteme dann Hilbert-Basen genannt. Wir wollen nun zeigen, dass es in endlichen Dimensionen immer eine Orthonormalbasis gibt: Dazu werden wir einerseits ein schnelles Argument unter Verwendung von Proposition 7.31 geben, andererseits eine explizite Konstruktion. Satz 7.43 (Existenz von Orthonormalbasen). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Dann besitzt V eine Orthonormalbasis. Beweis. Ist V D f0g der Nullraum, so ist nichts zu beweisen, da die Basis ; orthonormal ist. Sei also dim V 1 und v 2 V ein Vektor ungleich null. Dann v ist v1 D kvk ein Einheitsvektor, also kv1 k D 1. Wir betrachten U D spanfv1 g und erhalten nach Korollar 7.38 die Zerlegung V D U ˚ U ? mit dim U ? D dim V 1. Da U ? nach wie vor ein euklidischer beziehungsweise unitärer Vektorraum ist, wobei wir das Skalarprodukt einfach einschränken, können wir mit U ? anstelle von V fortfahren, siehe auch Übung 7.3. Da die Dimension um eins abgenommen hat, können wir induktiv annehmen, dass wir bereits eine Orthonormalbasis v2 ; : : : ; vn 7.4 Orthonormalbasen 317 von U ? gefunden haben. Insgesamt bilden die Vektoren v1 ; : : : ; vn dann eine Orthonormalbasis. t u Korollar 7.44. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann lässt sich jede Orthonormalbasis von U zu einer Orthonormalbasis von V ergänzen. Beweis. Nach dem letzten Satz besitzt U ? eine Orthonormalbasis. Da U ˚U ? D V und da U senkrecht auf U ? steht, ist die Vereinigung von Orthonormalbasen von U und U ? eine solche von V . t u Das folgende Verfahren liefert nun eine explizite Konstruktion eines Orthonormalsystems aus einer (höchstens abzählbar unendlichen) linear unabhängigen Teilmenge: Satz 7.45 (Gram-Schmidt-Verfahren). Sei V ein euklidischer oder unitärer Vektorraum. Seien v1 ; : : : ; vn 2 V linear unabhängige Vektoren. Dann existiert ein Orthonormalsystem e1 ; : : : ; en , sodass spanfe1 ; : : : ; ek g D spanfv1 ; : : : ; vk g (7.75) für alle 1 k n. Beweis. Wir beschreiben die Konstruktion im Detail. Wir setzen zuerst e1 D kvv11 k , womit ke1 k D 1 und spanfe1 g D spanfv1 g gewährleistet ist. Für e2 müssen wir eine Linearkombination von v1 und v2 finden, die auf e1 senkrecht steht. Der Ansatz f2 D v2 C 1 e1 (7.76) liefert aus der Bedingung he1 ; f2 i D 0 die Gleichung he1 ; v2 i C 1 D 0 und damit 1 D he1 ; v2 i D hvkv1 ;v1 k2 i . Das so erhaltene f2 ist senkrecht auf e1 . Man beachte, dass f2 ¤ 0, da v1 und v2 linear unabhängig sind und der Koeffizient in der Linearkombination (7.76) vor v2 ungleich null, nämlich gerade gleich 1 ist. Damit lässt sich f2 zu e2 D kff22 k normieren. Da v2 D kf2 ke2 1 e1 sich wieder als Linearkombination der beiden orthonormalen Vektoren e1 und e2 ausdrücken lässt, gilt schließlich auch spanfe1 ; e2 g D spanfv1 ; v2 g; 318 7 Euklidische und unitäre Vektorräume womit der Fall k D 2 bewiesen ist. Per Induktion fährt man nun fort und setzt im k-ten Schritt zuerst fk D vk C 1 e1 C C k1 ek1 mit zu bestimmenden Koeffizienten 1 ; : : : ; k1 , sodass fk senkrecht auf die bereits gefundenen e1 ; : : : ; ek1 steht. Diese Bedingung liefert nach Bilden des Skalarprodukts mit ei die Gleichungen i D hei ; vk i für alle i D 1; : : : ; k 1. Wie schon bei f2 argumentiert man, dass fk nicht null sein kann. Daher kann man in einem zweiten Schritt fk wieder zu ek D kffkk k normieren. t u Bemerkung 7.46. Das Gram-Schmidt-Verfahren liefert auch für abzählbar viele linear unabhängige Vektoren v1 ; v2 ; : : : ein abzählbares Orthonormalsystem e1 ; e2 ; : : :, sodass (7.75) nun für alle k 2 N gültig ist. Bemerkung 7.47. Ist nun v1 ; : : : ; vn eine Basis von V , so liefert das Gram-SchmidtVerfahren eine Orthonormalbasis e1 ; : : : ; en . Man beachte, dass dies ein sehr expliziter Algorithmus ist. Sind die v1 ; : : : ; vn bereits orthonormal, so reproduziert das Gram-Schmidt-Verfahren diese Vektoren: In diesem Fall gilt einfach ei D vi (7.77) für alle i D 1; : : : ; n. Wir erhalten also insbesondere einen zweiten Beweis zu Satz 7.43. Letztlich haben wir genau diese Idee bereits in Abschn. 1.3 im Beweis von Proposition 1.13 verwendet. Im Allgemeinen ist es ja nicht immer einfach, einen Vektor als Linearkombination von Basisvektoren zu schreiben: Dies erfordert die Lösung eines linearen Gleichungssystems beispielsweise mithilfe des Gauß-Algorithmus. Für eine Orthonormalbasis ist dies viel leichter: Proposition 7.48. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei e1 ; : : : ; en eine Orthonormalbasis von V . Dann gilt für jeden Vektor v 2 V vD n X hei ; viei : iD1 (7.78) 7.4 Orthonormalbasen 319 P Beweis. Sei v D niD1 vi ei bezüglich der Basis e1 ; : : : ; en entwickelt, wobei also die Zahlen v1 ; : : : ; vn 2 K die eindeutig bestimmten Koeffizienten bezüglich dieser Basis sind. Es folgt hej ; vi D n X vi hej ; ei i D vj ; iD1 da die e1 ; : : : ; en zudem orthonormal sind. t u Korollar 7.49. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei e1 ; : : : ; en eine Orthonormalbasis von V . i.) Für v; w 2 V gilt hv; wi D n X hv; ei ihei ; wi: (7.79) iD1 ii.) Für v 2 V gilt die Parsevalsche Gleichung kvk2 D n X jhei ; vij2 : (7.80) iD1 Beweis. In endlichen Dimensionen ist dies eine ziemlich einfache Rechnung, die wirkliche Bedeutung erfährt die Parsevalsche Gleichung erst für unendlichdimensionale Hilbert-Räume. Wir rechnen nach, dass hv; wi D X n n X hei ; viei ; hej ; wiej iD1 D n X i;j D1 D j D1 hei ; vi hei ; ej ihej ; wi „ ƒ‚ … ıij n X hv; ei ihei ; wi iD1 für alle v; w 2 V , womit der erste Teil gezeigt ist. Den zweiten Teil erhält man mit v D w oder alternativ aus (7.78) und dem Satz des Pythagoras. t u Kontrollfragen. Gibt es immer eine Orthonormalbasis? Wie kann man Orthonormalbasen konstruieren? Was besagt die Parsevalsche Gleichung? 320 7.5 7 Euklidische und unitäre Vektorräume Isometrien und Klassifikation Wie zuvor schon in vielen anderen Situation wollen wir auch für euklidische und unitäre Vektorräume den „richtigen“ Begriff von Morphismus finden. Wir wollen also nicht nur die Vektorraumstruktur berücksichtigen, wie dies bereits eine lineare Abbildung könnte, sondern auch die Skalarprodukte erhalten. Hierzu bietet sich folgender Begriff der Isometrie an: Definition 7.50 (Isometrie). Seien .V; h ; iV / und .W; h ; iW / euklidische oder unitäre Vektorräume. Eine lineare Abbildung ˚ 2 Hom.V; W / heißt Isometrie, falls h˚.v/; ˚.u/iW D hv; uiV (7.81) für alle v; u 2 V . Ein isometrischer Isomorphismus wird im Falle K D R auch orthogonal und im Falle K D C unitär genannt. Bemerkung 7.51 (Isometrie). Die Definition ist offenbar auch sinnvoll, wenn der Körper k beliebig ist und wir beliebige (nicht länger positive) innere Produkte vorliegen haben. Eine Isometrie erhält also mit den Skalarprodukten auch alle Längen und Winkel, da diese ja aus dem Skalarprodukt erhalten werden. Proposition 7.52. Seien .Vi ; h ; ii /iD1;2;3 euklidische oder unitäre Vektorräume. i.) Eine Isometrie ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / ist immer injektiv. ii.) Für Isometrien ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / und W .V2 ; h ; i2 / ! .V3 ; h ; i3 / ist auch ı ˚W .V1 ; h ; i1 / ! .V3 ; h ; i3 / (7.82) eine Isometrie. iii.) Die Identität idW .V1 ; h ; i1 / ! .V1 ; h ; i1 / ist ein isometrischer Isomorphismus. iv.) Ist ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / ein isometrischer Isomorphismus, so ist auch die inverse lineare Abbildung ˚ 1 W .V2 ; h ; i2 / ! .V1 ; h ; i1 / wieder isometrisch. Beweis. Sei zunächst v 2 V1 mit ˚.v/ D 0 gegeben. Dann gilt für alle u 2 V1 0 D h˚.u/; ˚.v/i2 D hu; vi1 : Da h ; i1 nicht-ausgeartet ist, folgt v D 0, womit ˚ injektiv ist. Für den zweiten Teil rechnet man nach, dass für v; u 2 V1 7.5 Isometrien und Klassifikation 321 h .˚.u//; .˚.v//i3 D h˚.u/; ˚.v/i2 D hu; vi1 gilt, was die Isometrieeigenschaft von ı ˚ zeigt. Der dritte Teil ist klar. Sei nun ˚ zudem invertierbar. Die Umkehrabbildung ˚ 1 ist dann wieder linear, und hu; vi1 D h.˚ ı ˚ 1 /.u/; .˚ ı ˚ 1 /.v/i1 D h˚ 1 .u/; ˚ 1 .v/i2 zeigt, dass ˚ 1 wieder isometrisch ist. t u Korollar 7.53. Seien V und W endlich-dimensional mit gleicher Dimension. Dann ist jede Isometrie ˚W .V; h ; iV /!.W; h ; iW / ein isometrischer Isomorphismus. Beweis. Dies folgt aus Proposition 7.52, i.), und der Dimensionsformel in Form von Korollar 5.27. t u Korollar 7.54. Sei .V; h ; i/ ein euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen beziehungsweise die unitären Endomorphismen von V eine Untergruppe von GL.V /. t u Beweis. Dies folgt sofort aus Proposition 7.52, ii.), iii.) und iv.). Definition 7.55 (Orthogonale und unitäre Gruppe). Sei n 2 N. i.) Die Gruppe der orthogonalen n n-Matrizen bezeichnen wir als orthogonale Gruppe ˇ ˚ O.n/ D A 2 GLn .R/ ˇ A ist orthogonal : (7.83) ii.) Die Gruppe der unitären n n-Matrizen bezeichnen wir als unitäre Gruppe ˇ ˚ U.n/ D A 2 GLn .C/ ˇ A ist unitär : (7.84) Hierbei beziehen wir uns natürlich immer auf das kanonische Skalarprodukt von Rn beziehungsweise von Cn und identifizieren lineare Endomorphismen mit Matrizen wie üblich. Allgemeiner sprechen wir von der orthogonalen beziehungsweise unitären Gruppe eines euklidischen oder unitären Vektorraums. Wir wollen nun orthogonale und unitäre Abbildungen expliziter charakterisieren und so einige einfache Kriterien für Orthogonalität und Unitarität finden. Proposition 7.56. Sei n 2 N und A 2 Mn .K/. Dann sind äquivalent: i.) Die Matrix A ist isometrisch. ii.) Es gilt A A D 1. 322 7 Euklidische und unitäre Vektorräume iii.) Es gilt AA D 1. iv.) Es gilt A 2 GLn .K/ mit A1 D A . v.) Es gibt eine geordnete Basis .b1 ; : : : ; bn / von Kn mit hAbi ; Abj i D hbi ; bj i (7.85) für alle i; j D 1; : : : ; n. vi.) Es gilt kAvk D kvk für alle v 2 Kn . Beweis. Hier ist wie schon zuvor A D AT D .A/T die komplex-konjugierte und transponierte Matrix. Im reellen Fall K D R gilt dann einfach A D AT , da A 2 Mn .R/ nur reelle Einträge besitzt. Da in endlichen Dimensionen eine Matrix A 2 Mn .K/ genau dann invertierbar ist, wenn sie ein Links- oder ein Rechtsinverses besitzt, siehe Proposition 5.54, ist die Äquivalenz von ii.), iii.) und iv.) klar. Sei nun A isometrisch, so gilt hAv; Awi D hv; wi für alle v; w 2 Kn . Daher gilt insbesondere auch hAbi ; Abj i D hbi ; bj i für jede Basis / von Kn . Weiter p .b1 ; : : : ; bnp können wir v D w setzen und erhalten kAvk D hAv; Avi D hv; vi D kvk. Dies zeigt i.) H) v.) sowie i.) H) vi.). Sei nun A mit A A D 1 gegeben. In Komponenten ausgeschrieben bedeutet dies ık` D .A A/k` D n n X X .A /ki Ai` D Aik Ai` D hAek ; Ae` i; iD1 iD1 da Aer gerade der Spaltenvektor ist, der aus der r-ten Spalte von A besteht. Da hek ; e` i D ık` gilt, haben wir eine Basis mit der Eigenschaft v.) gefunden und somit ii.) H) v.) gezeigt. Sei nun .b1 ; : : : ; bn / eine Basis von Kn , sodass v.) gilt. Für ein v 2 Kn schreiben wir daher wie immer vD n X vi bi iD1 mit den entsprechenden Entwicklungskoeffizienten v1 ; : : : ; vn von v bezüglich dieser Basis. Dann gilt X n n X hAv; Avi D A vi bi ; A vj bj iD1 D n X j D1 vi vj hAbi ; Abj i i;j D1 D n X i;j D1 vi vj hbi ; bj i 7.5 Isometrien und Klassifikation 323 D X n vi bi ; iD1 n X vj bj j D1 D hv; vi; womit nach Wurzelziehen kAvk D kvk folgt. Dies zeigt die Implikation v.) H) vi.). Unter der Annahme von vi.) zeigen wir schließlich i.): Dies ist mithilfe der Polarisierungsidentitäten klar, da wir das Skalarprodukt hv; wi aus den Normen von kir v Cwk mit r D 0; 1; 2; 3 beziehungsweise aus kv Cwk und kv wk gemäß (7.54) beziehungsweise (7.55) ausrechnen können. Erhält A nun die Normen, so auch die Skalarprodukte. Es verbleibt, die letzte Implikation i.) H) ii.) zu zeigen. Dies ist aber einfach, da für ein isometrisches A 2 Mn .K/ ık` D hek ; e` i D hAek ; Ae` i D n X .Aek /i ; .Ae` /i D iD1 n X Aik Ai` D .A A/k` iD1 gilt. Dies ist aber gerade A A D 1 in Komponenten. Damit haben wir schließlich, mit einiger Redundanz, alle Implikationen gezeigt. t u Offenbar liefert ii.) oder iii.) ein sehr einfaches Kriterium zur rechnerischen Überprüfung der Isometrieeigenschaften, während v.) den Begriff „Isometrie“ rechtfertigt. Proposition 7.57. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann ist ˚ genau dann ein isometrischer Isomorphismus, wenn es eine Orthonormalbasis .b1 ; : : : ; bn / von V gibt, sodass .˚.b1 /; : : : ; ˚.bn // ebenfalls eine Orthonormalbasis ist. In diesem Fall ist für jede Orthonormalbasis .b1 ; : : : ; bn / von V auch .˚.b1 /; : : : ; ˚.bn // eine Orthonormalbasis. Beweis. Sei ˚ ein isometrischer Isomorphismus und .b1 ; : : : ; bn / eine beliebige Orthonormalbasis von V . Dann gilt h˚.bi /; ˚.bj /i D hbi ; bj i D ıij , womit die Vektoren .˚.b1 /; : : : ; ˚.bn // wieder orthonormal sind. Aus Dimensionsgründen bilden sie wieder eine Basis. Sei umgekehrt .b1 ; : : : ; bn / eine Orthonormalbasis derart, dass .˚.b1 /; : : : ; ˚.bn // wieder eine Orthonormalbasis ist. Für v; w 2 V schreiben wir mithilfe von Korollar 7.49 daher X n n X h˚.v/; ˚.w/i D ˚ hbi ; vibi ; ˚ hbj ; vibj iD1 D n X i;j D1 j D1 hbi ; vi h˚.bi /; ˚.bj /ihbj ; wi „ ƒ‚ … ıij 324 7 Euklidische und unitäre Vektorräume D n X hbi ; vihbi ; wi iD1 D hv; wi; womit ˚ isometrisch ist. Damit ist aber alles gezeigt. t u Lemma 7.58. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume mit geordneten Orthonormalbasen A V und B W . Dann gilt für ˚ 2 Hom.V; W / (7.86) B Œ˚A D hbi ; ˚.aj /i iD1;:::;dim W : j D1;:::;dim V Beweis. Dies folgt sofort aus Proposition 7.48, da ˚.aj / D dim XW hbi ; ˚.aj /ibi iD1 die Entwicklungskoeffizienten von ˚.aj / bezüglich der Basis B liefert. Nach Definition 5.33 ist dies gerade (7.86). t u Mithilfe dieser Beobachtung können wir nun allgemein die Isometrieeigenschaften eines Homomorphismus ˚ 2 Hom.V; W / in Termen seiner Basisdarstellung beschreiben: Proposition 7.59. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume mit dim V D dim W D n. Für ˚ 2 Hom.V; W / sind dann äquivalent: i.) Die lineare Abbildung ˚ ist isometrisch. ii.) Es gibt Orthonormalbasen A V und B W , sodass B Œ˚A 2 Mn .K/ isometrisch ist. iii.) Für alle Orthonormalbasen A V und B W ist B Œ˚A 2 Mn .K/ isometrisch. Beweis. Sei zunächst ˚ isometrisch, und seien A V und B W Orthonormalbasen. Dann rechnen wir nach, dass .B Œ˚A / B Œ˚A D hbi ; ˚.aj /iW i;j D1;:::;n hbk ; ˚.a` /iW k;`D1;:::;n ! n X D hbk ; ˚.aj /iW hbk ; ˚.a` /iW kD1 j;`D1;:::;n 7.5 Isometrien und Klassifikation 325 h˚.aj /; ˚.a` /iW j;`D1;:::;n D ıj ` j;`D1;:::;n (7.79) D D 1; da haj ; a` i D ıj ` für eine Orthonormalbasis. Nach Proposition 7.56, ii.), bedeutet dies, dass die Matrix B Œ˚A isometrisch ist. Da es immer Orthonormalbasen gibt, ist iii.) H) ii.) ebenfalls klar. Es gelte nun also ii.). Dann gilt für v 2 V bezüglich dieser Orthonormalbasis A also die Basisdarstellung A Œv D hai ; viV iD1;:::;n 2 Kn nach Proposition 7.48. Allgemein gilt lar 7.49, i.), gilt h˚.v/; ˚.u/iW D B Œ˚.v/ ˝ B D B Œ˚A A Œv, und nach Korol- ˛ Œ˚.v/; B Œ˚.u/ K n mit dem Standardskalarprodukt von Kn . Damit folgt also aus der Isometrieeigenschaft der Matrix B Œ˚A h˚.v/; ˚.u/iW D ˝ ˛ B Œ˚.v/; B Œ˚.u/ K n D ˝ D ˝ ˛ B Œ˚A A Œv; B Œ˚A A Œu K n ˛ A Œv; A Œv K n D hv; uiV ; nach nochmaliger Anwendung von Korollar 7.49, i.), im letzten Schritt. Also ist ˚ tatsächlich isometrisch, und ii.) H) i.) ist gezeigt. t u Wir können nun isometrische Isomorphismen dazu verwenden, euklidische oder unitäre Vektorräume zu klassifizieren. Dies gestaltet sich nun überraschend einfach: Satz 7.60 (Klassifikation von euklidischen und unitären Vektorräumen). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Dann sind äquivalent: i.) Es gibt einen isometrischen Isomorphismus ˚W V ! W . ii.) Es gilt dim V D dim W . Beweis. Die Implikation i.) H) ii.) ist klar, da ein isometrischer Isomorphismus insbesondere eine lineare Bijektion ist und daher Satz 5.28 zum Einsatz kommen kann. Sei also dim V D dim W D n erfüllt. Nach Satz 7.43 existieren geordnete Orthonormalbasen A D .a1 ; : : : ; an / von V und B D .b1 ; : : : ; bn / von W . Durch die Forderung 326 7 Euklidische und unitäre Vektorräume ˚.ai / D bi für i D 1; : : : ; n definieren wir eine lineare Abbildung ˚W V ! W gemäß Satz 5.21, ii.). Diese bildet eine Basis bijektiv auf eine Basis ab, ist also ein linearer Isomorphismus. Nach Konstruktion gilt B Œ˚A D 1, was eine isometrische Matrix ist. Nach Proposition 7.59 ist ˚ damit selbst isometrisch. t u Korollar 7.61. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum mit dim V D n. Dann ist V isometrisch isomorph zu Kn mit dem Standardskalarprodukt. Ist B V eine Orthonormalbasis, so ist der lineare Isomorphismus V 3 v 7! B Œv 2 Kn (7.87) ein isometrischer Isomorphismus. Beweis. Dies ist einerseits klar nach dem allgemeinen Resultat von Satz 7.60. Andererseits sieht man (7.87) auch direkt mit Korollar 7.49, i.), welches wir ja auch entscheidend im Beweis von Proposition 7.59 verwendet haben. t u Wir schließen diesen Abschnitt mit einigen Eigenschaften von orthogonalen und unitären Matrizen. Proposition 7.62. Sei n 2 N. i.) Die Determinante liefert einen surjektiven Gruppenmorphismus detW O.n/ ! f˙1g R : (7.88) ii.) Die Determinante liefert einen surjektiven Gruppenmorphismus detW U.n/ ! S1 C : (7.89) iii.) Die komplexe Konjugation liefert einen involutiven Gruppenmorphismus W U.n/ ! U.n/: (7.90) Beweis. Sei O 2 O.n/ eine orthogonale Matrix. Dann gilt 1 D det 1 D det.O T O/ D det O T det O D .det O/2 ; und somit folgt det O 2 f˙1g. Sei weiter I D diag.1; 1; : : : ; 1/. Offenbar gilt I T D I D I 1 sowie det I D 1. Also folgt I 2 O.n/, was die Surjektivität von (7.88) zeigt. Dass (7.88) ein Gruppenmorphismus ist, ist klar, da detW GLn .R/ ! R bereits ein Gruppenmorphismus ist und (7.88) dessen 7.5 Isometrien und Klassifikation 327 Einschränkung auf O.n/ ist. Für ii.) bemerken wir zunächst, dass S1 C tatsächlich eine Untergruppe bezüglich der Multiplikation ist. Sei nun U 2 U.n/ unitär, dann gilt 1 D det 1 D det.U U / D det U det U D jdet U j2 ; was jdet U j D 1 oder eben det U 2 S1 zeigt. Ist nun z 2 S1 vorgegeben, so gilt für U D diag.z; 1; : : : ; 1/ wegen zz D 1 zum einen U D diag.z; 1; : : : ; 1/ D U 1 , also U 2 U.n/. Zum anderen gilt det U D z, was die Surjektivität (7.89) beweist. Die Gruppenmorphismuseigenschaft ist wieder klar. Für die komplexe Konjugation wissen wir ganz allgemein AB D A B, 1 D 1 und det A D det A. Daher ist die komplexe Konjugation ein involutiver Gruppenautomorphismus von GLn .C/. Es bleibt zu zeigen, dass für U 2 U.n/ auch U wieder unitär ist. Dies rechnen wir durch T U U D U T U D .U U /T D .U U /T D 1T D 1 t u explizit nach. Definition 7.63 (Die Gruppen SO.n/ und SU.n/). Sei n 2 N. i.) Die spezielle orthogonale Gruppe ist definiert als ˇ ˚ SO.n/ D O.n/ \ SLn .R/ D A 2 Mn .R/ ˇ AT A D 1 und det A D 1 : (7.91) ii.) Die spezielle unitäre Gruppe ist definiert als ˇ ˚ SU.n/ D U.n/ \ SLn .C/ D A 2 Mn .C/ ˇ A A D 1 und det A D 1 : (7.92) Da sowohl O.n/ als auch SLn .R/ Untergruppen von GLn .R/ sind, ist SO.n/ als Schnitt dieser Untergruppen wieder eine Untergruppe von O.n/, von SLn .R/ und von GLn .R/. Ebenso ist SU.n/ eine Untergruppe von U.n/, von SLn .C/ und von GLn .C/. Dies sieht man auch direkt mit Proposition 7.62, da etwa ˇ SO.n/ D ker det ˇO.n/ und ˇ SU.n/ D ker det ˇU.n/ : (7.93) Als Untergruppen von O.n/ beziehungsweise U.n/ sind SO.n/ beziehungsweise SU.n/ sogar normale Untergruppen nach Proposition 3.24, i.). Kontrollfragen. Was ist eine Isometrie, was ein isometrischer Isomorphismus? Wie viele Skalarprodukte auf einen endlich-dimensionalen Vektorraum gibt es bis auf Isometrie? Wann ist eine Matrix orthogonal, wann unitär? 328 7.6 7 Euklidische und unitäre Vektorräume Selbstadjungierte und normale Abbildungen Gemäß unserer allgemeinen Philosophie sind die Morphismen von euklidischen oder unitären Vektorräumen wieder die strukturerhaltenden Abbildungen, also die Isometrien. In endlichen Dimensionen gibt es zwischen euklidischen oder unitären Vektorräumen nicht sehr viele interessante Isometrien, da diese notwendigerweise injektiv und bei gleicher Dimension also sogar bijektiv sind. Damit sind unter den Morphismen bei gleicher Dimension nur noch Isomorphismen zu finden. Dies ist manchmal eine große Einschränkung und soll nun zumindest teilweise überwunden werden. Die Idee ist, dass wir die Verträglichkeit von Abbildungen mit den vorhandenen Strukturen, also der Vektorraumstruktur und dem Skalarprodukt, etwas anders interpretieren. Die folgende Definition wird in unendlichen Dimensionen die entscheidende Eigenschaft liefern, in endlichen Dimensionen wird sich die Situation drastisch vereinfachen. Definition 7.64 (Adjungierbare Abbildung). Seien V und W euklidische oder unitäre Vektorräume und AW V ! W eine Abbildung. Dann heißt A adjungierbar, falls es eine Abbildung A W W ! V gibt, sodass für alle v 2 V und w 2 W hw; A.v/iW D hA .w/; viV : (7.94) Erste Eigenschaften von adjungierbaren Abbildungen liefert folgendes Lemma: Lemma 7.65. Seien V und W euklidische oder unitäre Vektorräume und AW V ! W eine adjungierbare Abbildung. i.) Die Abbildung A ist notwendigerweise K-linear. ii.) Die Abbildung A W W ! V mit (7.94) ist eindeutig bestimmt und ebenfalls adjungierbar. Beweis. Seien v; u 2 V sowie ; 2 k und w 2 W . Dann gilt hw; A.v C u/ A.v/ A.u/iW D hA .w/; v C uiV hw; A.v/iW hw; A.u/iW D hA .w/; viV C hA .w/; uiV hA .w/; viW hA .w/; uiW D 0: Da w 2 W beliebig und h ; iW nicht-ausgeartet ist, folgt also A.v C u/ A.v/ A.u/ D 0; 7.6 Selbstadjungierte und normale Abbildungen 329 was die Linearität von A zeigt. Seien nun B; C W W ! V zwei Abbildungen mit hB.w/; vi D hw; A.v/i D hC .w/; vi für w 2 W und v 2 V . Dann gilt h.B C /.w/; viV D hB.w/; viV hC .w/; viV D hw; A.v/iW hw; A.v/iW D 0; womit .B C /.w/ D 0 folgt, da h ; iV nicht-ausgeartet ist. Also gilt B D C , was die Eindeutigkeit für Teil ii.) zeigt. In die Gleichung (7.94) gehen A und A aber völlig symmetrisch ein, sodass A ebenfalls adjungierbar ist. t u Dieses Lemma erlaubt es, von der adjungierten Abbildung A einer adjungierbaren Abbildung A zu sprechen, da diese eben eindeutig bestimmt ist: Definition 7.66 (Adjungierte Abbildung). Seien V und W euklidische oder unitäre Vektorräume und AW V ! W eine adjungierbare Abbildung. Die eindeutig bestimmte Abbildung A W W ! V mit (7.94) heißt die zu A adjungierte Abbildung. Es stellt sich nun natürlich die berechtigte Frage, ob es überhaupt interessante adjungierbare Abbildungen gibt. Bevor wir dieser Frage allgemein nachgehen, geben wir einige Beispiele: Beispiel 7.67 (Adjungierbare Abbildungen). Seien V und W euklidische oder unitäre Vektorräume. i.) Die Nullabbildung 0V !W W V ! W ist immer adjungierbar mit 0V !W D 0W !V . Dies ist klar nach (7.94). Wir werden zukünftig etwas laxer 0 D 0 schreiben. ii.) Die Identitätsabbildung idV W V ! V ist adjungierbar mit idV D idV . Auch dies ist klar nach der Definition. iii.) Sei v 2 V und w 2 W fest gewählt. Dann betrachtet man die Abbildung w;v W V 3 u 7! hv; uiV w 2 W: (7.95) Wir behaupten, dass w;v adjungierbar ist und dass w;v D v;w gilt. Dazu seien u 2 V und x 2 W gegeben, dann gilt hx; w;v .u/iW D hx; hv; uiV wiW D hx; wiW hv; uiV D hhx; wiW v; uiV D hhw; xiW v; uiV (7.96) 330 7 Euklidische und unitäre Vektorräume D hv;w .x/; uiV ; was (7.96) zeigt. In der Quantenphysik spielen diese Operatoren eine große Rolle und werden dort oft als w;v D jwihvj (7.97) bezeichnet. Proposition 7.68. Seien V; W; U euklidische oder unitäre Vektorräume, und seien A; BW V ! W sowie C W W ! U adjungierbare Abbildungen. i.) Für ; 2 K ist auch A C B adjungierbar mit .A C B/ D A C B : (7.98) ii.) Die Abbildung A ist adjungierbar mit D A: A (7.99) iii.) Die Abbildung CA ist adjungierbar mit .CA/ D A C : (7.100) Beweis. Wir zeigen (7.98) durch Nachrechnen. Für v 2 V und w 2 W gilt hw; .A C B/.v/iW D hw; Av C BviW D hw; AviW C hw; BviW D hA w; viV C hB w; viV D h.A C B /.w/; viV : Nach Definition zeigt dies, dass A C B adjungierbar ist mit adjungiertem A C B . Der zweite Teil ist klar, siehe auch Lemma 7.65. Für den dritten Teil betrachten wir v 2 V und u 2 U und rechnen nach, dass hu; .CA/viU D hC u; AviW D hA C u; viV D h.A C /u; viV ; womit die Existenz des Adjungierten und (7.99) gezeigt ist. t u Im Allgemeinen gibt es sehr wohl Abbildungen zwischen euklidischen oder unitären Vektorräumen, die keine adjungierten Abbildungen besitzen. In der Funktionalanalysis ist dies ein zentrales Thema. 7.6 Selbstadjungierte und normale Abbildungen 331 In endlichen Dimensionen hingegen ist die (notwendige) Linearität bereits hinreichend für die Existenz eines Adjungierten. Um dies zu zeigen, beweisen wir zunächst folgenden Satz: Satz 7.69 (Musikalischer Isomorphismus). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum. Dann ist die Abbildung [ W V 3 v 7! v [ D hv; i 2 V (7.101) R-linear beziehungsweise C-antilinear und bijektiv. Beweis. Die (Anti-) Linearität von [ ist klar und wurde bereits erwähnt. Nach Bemerkung 7.2, iv.), wissen wir im reellen Fall, dass [ aufgrund der NichtAusgeartetheit von h ; i injektiv ist. Im reellen Fall sind wir dann fertig: Wenn dim V < 1, so gilt dim V D dim V nach Korollar 5.74. Nach Korollar 5.27 ist [ bijektiv. Im komplexen Fall müssen wir ein bisschen genauer argumentieren, da für eine antilineare Abbildung [ das Resultat aus Korollar 5.27 nicht unmittelbar anzuwenden ist. Zunächst ist klar, dass die Injektivität ebenfalls äquivalent zur Nicht-Ausgeartetheit ist. Es besteht nun die eine Möglichkeit, die Dimensionsformel aus Satz 5.25 direkt auch für antilineare Abbildungen zu formulieren und zu beweisen. Alternativ kann man im komplexen Fall so argumentieren: Um die Surjektivität von [ zu zeigen, geben wir ein ˛ 2 V vor. Wir wählen eine Orthonormalbasis e1 ; : : : ; en 2 V und betrachten die zugehörige duale Basis e1 ; : : : ; en 2 V , sodass also ei .ej / D ıij gilt. Dann gilt ˛ D ˛1 e1 C C ˛n en mit ˛i D ˛.ei /: Wir betrachten nun v D ˛ 1 e1 C C ˛ n en ; und behaupten v [ D ˛. Ist w 2 V , so gilt zum einen hv; wi D ˛ 1 he1 ; wi C C ˛ n hen ; wi D ˛1 he1 ; wi C C ˛n hen ; wi: Zum anderen gilt w D he1 ; wie1 C C hen ; wien , und somit ˛.w/ D he1 ; wi˛.e1 / C C hen ; wi˛.en / D he1 ; wi˛1 C C hen ; wi˛n D hv; wi; womit ˛ D v [ gezeigt ist. t u 332 7 Euklidische und unitäre Vektorräume Dieser Satz wird in unendlichen Dimensionen definitiv falsch. Der algebraische Dualraum V ist schlicht zu groß, als dass es eine Bijektion V ! V geben könnte. Definition 7.70 (Musikalische Isomorphismen). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum. Der (anti-)lineare Isomorphismus [W V 3 v 7! hv; i 2 V (7.102) W V ! V (7.103) sowie sein Inverses ] heißen die musikalischen Isomorphismen von V . Bemerkenswerterweise gibt es jedoch eine Variante von Satz 7.69, die auch in unendlichen Dimensionen Bestand hat: Ist V ein Hilbert-Raum (also zudem vollständig, siehe Bemerkung 7.34), so ist [ W V ! V 0 ein (anti-)linearer Isomorphismus in den Raum der stetigen Linearformen V 0 V , den man auch den topologischen Dualraum nennt. Nicht nur für die Quantenmechanik ist dieser Darstellungssatz von Riesz von fundamentaler Bedeutung. Man findet eine genaue Formulierung in jedem Lehrbuch zur Funktionalanalysis, siehe etwa [19, Thm. 4.12] oder [22, Thm. V.3.6]. Wir kommen nach diesem Exkurs nun zur versprochenen Existenz einer adjungierten Abbildung in endlichen Dimensionen: Satz 7.71 (Adjungierbarkeit). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei AW V ! W eine Abbildung. Dann sind äquivalent: i.) Die Abbildung A ist adjungierbar. ii.) Die Abbildung A ist linear. Beweis. Nach Lemma 7.65, i.), wissen wir bereits i.) H) ii.). Sei also AW V ! W linear. Dann ist für jedes w 2 W die Abbildung V 3 v 7! hw; Avi 2 K linear, da A linear und hw; i ebenfalls linear ist. Nach Satz 7.69 gibt es also einen eindeutig bestimmten Vektor A w 2 V mit hw; Avi D hA w; vi: 7.6 Selbstadjungierte und normale Abbildungen 333 Auf diese Weise erhält man eine Abbildung A W W ! V , die offenbar zu A adjungiert ist. u t Die Aussage lässt sich wieder auf allgemeine Hilbert-Räume ausdehnen, wenn man den zweiten Punkt durch linear und stetig ersetzt. Bemerkung 7.72. Sei AW V ! W linear. Die duale Abbildung zu A hatten wir ebenfalls mit A , nun aber als Abbildung A W W ! V , bezeichnet. Dies ist zum einen etwas unglücklich, zum anderen aber insofern gerechtfertigt, als wir folgende Beziehung haben: Zur Deutlichkeit schreiben wir hier Adual W W ! V und Aadj W W ! V anstelle von „A “ in beiden Fällen. Dann gilt Aadj D ]V ı Adual ı [W : (7.104) Mit anderen Worten, das Diagramm Adual V W V W V Aadj (7.105) W kommutiert. In diesem Sinne ist also Dualisieren und Adjungieren bis auf die musikalischen Isomorphismen tatsächlich dasselbe. Die Eigenschaften des Adjungierens einer linearen Abbildung gemäß Proposition 7.68 sind formal identisch zu den Eigenschaften der Adjunktion von Matrizen wie in Proposition 7.15. Dies ist kein Zufall, wie folgende leichte Rechnung zeigt: Proposition 7.73. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und ˚W V ! W eine lineare Abbildung. Sind A V und B W Orthonormalbasen, so gilt B Œ˚A D A˚ B : (7.106) Beweis. Seien also A D .a1 ; : : : ; an / und B D .b1 ; : : : ; bm / Orthonormalbasen. Nach Lemma 7.58 wissen wir B Œ˚A D hbi ; ˚.aj /i iD1;:::;m j D1;:::;n 334 7 Euklidische und unitäre Vektorräume sowie A Œ˚ B D haj ; ˚ .bi /i j D1;:::;n iD1;:::;m D h˚.aj /; bi i j D1;:::;n iD1;:::;m T D hbi ; ˚.aj /i j D1;:::;n ; iD1;:::;m t u womit der Beweis erbracht ist. Wir hätten also Proposition 7.15 auch mithilfe dieses Resultats (und der Existenz von ˚ sowie der Existenz von Orthonormalbasen) zeigen können. Wir kommen nun zum zentralen Begriff dieses Abschnitts: Definition 7.74 (Selbstadjungierte und normale Abbildungen). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V /. i.) Die Abbildung A heißt normal, falls A A D AA . ii.) Die Abbildung A heißt selbstadjungiert, falls A D A . Bemerkung 7.75. Im reellen Fall nennt man einen selbstadjungierten Endomorphismus mit A D A auch symmetrisch, im komplexen Fall ist der Begriff Hermitesch ebenfalls gebräuchlich. Diese drei Begriffe werden wir im Wesentlichen synonym verwenden, solange der Vektorraum V endlich-dimensional ist. In unendlichen Dimensionen werden symmetrisch, Hermitesch und selbstadjungiert unterschiedlich verwendet, eine Situation, die uns momentan jedoch nicht weiter begegnen wird. Bemerkung 7.76. Ein Endomorphismus ist also nach Proposition 7.73 genau dann selbstadjungiert, wenn bezüglich einer Orthonormalbasis B V die zugehörige Matrix symmetrisch (im reellen Fall) oder Hermitesch (im komplexen Fall) ist, also ADA ( ” B ŒAB B ŒAB T D B ŒAB falls K D R D B ŒAB falls K D C : (7.107) Dies gibt ein konkretes und einfaches Kriterium zur Überprüfung von Selbstadjungiertheit. Wir diskutieren nun einige wichtige Beispiele und erste Eigenschaften von normalen und selbstadjungierten Abbildungen: Beispiel 7.77 (Normale und selbstadjungierte Abbildungen). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum. i.) Die Identität id 2 End.V / ist selbstadjungiert. 7.6 Selbstadjungierte und normale Abbildungen 335 ii.) Jede orthogonale beziehungsweise unitäre Abbildung U 2 End.V / erfüllt nach Proposition 7.59 und Proposition 7.73 die Eigenschaft U D U 1 : (7.108) Damit gilt U U D U 1 U D id D U U 1 D U U . Orthogonale und unitäre Abbildungen sind also normal. iii.) Jede selbstadjungierte Abbildung A 2 End.V / ist normal, da A A D A2 D AA . Ist z 2 C und A 2 End.V / selbstadjungiert, so ist .zA/ D zA (7.109) genau dann selbstadjungiert, wenn z D z reell ist. Für beliebiges z ist zA aber immer noch normal, da .zA/ .zA/ D zzA2 D .zA/.zA/ . iv.) Für v 2 V ist die Abbildung v;v 2 End.V / wie im Beispiel 7.67, iii.), selbstadjungiert, denn D v;v : v;v (7.110) v.) Sind A; B 2 End.V / selbstadjungiert, so ist auch A C B selbstadjungiert. Das Produkt AB ist hingegen im Allgemeinen nicht selbstadjungiert, da im Allgemeinen .AB/ D B A D BA ¤ AB: (7.111) Es folgt also, dass AB genau dann wieder selbstadjungiert ist, wenn A und B kommutieren. Proposition 7.78. Sei V ein endlich-dimensionaler unitärer Vektorraum und A 2 End.V /. i.) Es gibt zwei eindeutig bestimmte selbstadjungierte Abbildungen Re.A/ und Im.A/ 2 End.V /, sodass A D Re.A/ C i Im.A/: (7.112) ii.) Die Abbildung A ist genau dann normal, wenn ŒRe.A/; Im.A/ D 0: (7.113) Beweis. Wir zeigen zunächst die Eindeutigkeit: Sind A1 ; A2 2 End.V / selbstadjungiert mit A D A1 C iA2 , so gilt A D A1 iA2 und daher A C A D 2A1 sowie A A D 2iA2 : 336 7 Euklidische und unitäre Vektorräume Dies legt A1 und A2 als A1 D 1 .A C A / 2 und A2 D 1 .A A / 2i (7.114) fest. Seien umgekehrt A1 und A2 wie in (7.114) definiert. Dann sind A1 und A2 selbstadjungiert und erfüllen A D A1 C iA2 , womit auch die Existenz gezeigt ist. Weiter gilt A A D .A1 CiA2 / .A1 CiA2 / D .A1 iA2 /.A1 CiA2 / D A21 iA2 A1 CiA1 A2 CA22 sowie AA D A21 C iA2 A1 iA1 A2 C A22 : Daher gilt also A A AA D 2iA1 A2 2iA2 A1 D 2iŒA1 ; A2 ; t u was den zweiten Teil zeigt. Wir können also jeden Endomorphismus A in seinen Realteil und seinen Imaginärteil zerlegen. Im Falle K D C scheint diese Bezeichnung angemessen dank der expliziten Formel Re.A/ D 1 .A C A / und 2 Im.A/ D 1 .A A /: 2i (7.115) Im reellen Fall können wir eine analoge Aussage treffen: A 2 End.V / lässt sich eindeutig in A D A1 C A2 (7.116) mit A1 D A1 und A2 D A2 zerlegen. Explizit gilt A1 D 1 .A C A / 2 und A2 D 1 .A A /: 2 (7.117) Da im Reellen bezüglich einer Orthonormalbasis das Adjungieren gerade dem Transponieren der Matrizen entspricht, nennt man A1 den symmetrischen Anteil von A und A2 entsprechend den antisymmetrischen. Auch hier gilt A ist normal ” ŒA1 ; A2 D 0: (7.118) Wir kommen nun zu einem letzten wichtigen Beispiel für selbstadjungierte Abbildungen: 7.6 Selbstadjungierte und normale Abbildungen 337 Proposition 7.79. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und P 2 End.V / ein Projektor. Dann sind äquivalent: i.) Der Projektor P ist der Orthogonalprojektor PU auf U D im P . ii.) Es gilt im P D .ker P /? . iii.) Es gilt P D P . Beweis. Sei P der Orthogonalprojektor PU auf U D im P . Nach Definition ist PU der Projektor bezüglich der direkten Summe V D U ˚ U ? D im P ˚ .im P /? . Da aber jeder Projektor auf im P bezüglich der Zerlegung V D im P ˚ker P projiziert, gilt .im P /? D ker P oder äquivalent im P D .ker P /? . Dies zeigt i.) H) ii.). Es gelte nun ii.). Sei v 2 V , dann schreiben wir v D P v C .1 P /v und wissen P v 2 im P sowie .1 P /v 2 ker P . Nach ii.) gilt also zudem, dass P v für alle w 2 V senkrecht auf .1 P /w steht. Für v; w 2 V gilt demnach hw; P vi D hP wC.1P /w; P vi D hP w; P vi D hP w; P vC.1P /vi D hP w; vi; und damit P D P . Es gelte schließlich iii.) und U D im P . Wir müssen U ? bestimmen, um PU zu erhalten. Seien wieder v; w 2 V , dann gilt hP v; .1 P /wi D hv; P .1 P /wi D hv; P .1 P /wi D 0; womit im.1 P / D ker P .im P /? . Da nun im P ˚ .im P /? D V D im P ˚ ker P gilt, folgt aus Dimensionsgründen bereits ker P D .im P /? und damit ii.). t u Gilt ii.), so ist i.) klar nach Definition von PU . Korollar 7.80. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und P1 ; : : : ; Pk 2 End.V / eine Zerlegung der Eins. Dann sind äquivalent: i.) Die Zerlegung der Eins ist orthogonal, d. h., für i ¤ j gilt im Pi ? im Pj : (7.119) ii.) Es gilt Pi D Pi für alle i D 1; : : : ; k. Beweis. Für eine Zerlegung der Eins gilt zunächst immer i i im.P1 C ^ C Pk / D im.1 Pi / D ker Pi D im P1 ˚ ^ ˚ im Pk ; da wir die direkte Summe V D im P1 ˚ ˚ im Pk benutzen können. Ist nun i.) i erfüllt, so folgt, dass im Pi senkrecht auf im P1 ˚ ^ ˚ im Pk und damit auf ker Pi steht. Aus Dimensionsgründen folgt im Pi D .ker Pi /? , womit Pi D Pi nach Proposition 7.79. Gilt umgekehrt Pi D Pi für alle i D 1; : : : ; k, so gilt 338 7 Euklidische und unitäre Vektorräume ker Pi D .im Pi /? . Damit sind aber die Unterräume im Pj ker Pi zumindest t u senkrecht auf im Pi , sofern eben i ¤ j . Wir nennen daher eine Zerlegung der Eins P1 ; : : : ; Pk 2 End.V / mit der zusätzlichen Eigenschaft Pi D Pi eine orthogonale Zerlegung der Eins. Eine explizitere Beschreibung von Orthogonalprojektoren erhält man nun folgendermaßen: Proposition 7.81. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei U V ein Unterraum. Bilden b1 ; : : : ; bk 2 U eine geordnete Orthonormalbasis von U , so gilt PU D k X bi ;bi : (7.120) iD1 Beweis. Sei P D Pk iD1 bi ;bi . Dann gilt P D k X bi ;bi D iD1 k X bi ;bi D P iD1 dank Beispiel 7.77, iv.). Weiter gilt für v 2 V k X PP v D bi ;bi bj ;bj v i;j D1 k X D bi ;bi bj hbj ; vi i;j D1 k X D i;j D1 D k X bi hbi ; bj ihbj ; vi „ ƒ‚ … ıij bi hbi ; vi iD1 D P v: Damit ist P ein selbstadjungierter Projektor und nach Proposition 7.79 der Orthogonalprojektor auf im P . Sei nun v 2 V . Gilt v 2 im P , so gilt v D P v und daher vD k X iD1 bi hbi ; vi 2 U: (7.121) 7.7 Der Spektralsatz für normale Abbildungen 339 Ist andererseits v 2 U , so gilt nach Proposition 7.48 die Gleichung (7.121), was v D P v bedeutet. Also folgt insgesamt im P D U und damit P D PU . t u Bemerkenswerterweise benötigen wir in (7.120) nur Informationen über U selbst und nicht über U ? . Dies macht Orthogonalprojektoren sehr viel einfacher zu handhaben, da wir im Allgemeinen eine Zerlegung V D U ˚ W benötigen, um einen Projektor auf U zu definieren. Dieser hängt von der Wahl des Komplements W ab. Bei einem Orthogonalprojektor ist hingegen das Komplement W D U ? ja kanonisch vorgegeben. Kontrollfragen. Wann ist eine Abbildung adjungierbar? Was ist eine normale Abbildung? Was sind die musikalischen Isomorphismen? Wann ist ein Projektor selbstadjungiert? 7.7 Der Spektralsatz für normale Abbildungen In diesem Abschnitt zeigen wir eines der zentralen Ergebnisse zu normalen Abbildungen: den Spektralsatz. Wir werden vor allem den Fall K D C verwenden, da hier die Diagonalisierung erwartungsgemäß etwas einfacher ist als für K D R. Der reelle Fall kann dann auf den komplexen zurückgeführt werden. Proposition 7.82. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V / normal. i.) Ist v 2 V Eigenvektor von A zum Eigenwert , so ist v Eigenvektor von A zum Eigenwert . ii.) Eigenvektoren von A zu verschiedenen Eigenwerten stehen senkrecht aufeinander. Beweis. Sei v 2 V beliebig, dann gilt aufgrund der Normalität kAvk2 D hAv; Avi D hv; A Avi D hv; AA vi D hA v; A vi D kA vk2 : Es folgt Av D 0 genau dann, wenn A v D 0, also ker A D ker A : Ist A normal und 2 K, so gilt .A /.A / D AA A A C jj2 D A A A A C jj2 D .A / .A /: Folglich ist A normal. Daher gilt nach (7.122), angewandt auf A , (7.122) 340 7 Euklidische und unitäre Vektorräume ker.A / D ker.A /; was den ersten Teil zeigt. Seien nun v; w 2 V mit Av D v und Aw D w sowie ¤ gegeben. Dann gilt hw; vi D hw; vi D hw; Avi D hA w; vi D hw; vi D hw; vi; was nur für hw; vi D 0 möglich ist. t u Proposition 7.83. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / normal und nilpotent. Dann gilt A D 0: (7.123) Beweis. Auch wenn wir dies später mit dem Spektralsatz sehen, geben wir hier einen direkten und einfachen Beweis. Sei zuerst A D A sogar selbstadjungiert. Wir nehmen an, dass A ¤ 0. Sei dann r 2 N mit Ar D 0, aber Ar1 ¤ 0. Wir wissen also r 2. Für v 2 V mit Ar1 v ¤ 0 gilt dann 0 < kAr1 vk2 D hAr1 v; Ar1 vi D hv; A2r2 vi D 0; da 2r 2 r für r 2. Dies liefert einen Widerspruch, also muss A D 0 gelten. Sei nun A normal und nilpotent. Dann ist .A A/ D A A selbstadjungiert und immer noch nilpotent, da .A A/r D A AA A A A D .A /r Ar D 0 für r groß genug. Nach dem eben Gezeigten gilt also A A D 0. Damit gilt kAvk2 D hAv; Avi D hv; A Avi D 0 für alle v 2 V und somit Av D 0. Dies zeigt (7.123) auch in diesem Fall. t u Bemerkenswert an diesen beiden Propositionen ist, dass die Beweise wörtlich übernommen werden können, sofern man in unendlichen Dimensionen einen adäquaten Begriff des adjungierten Operators gefunden hat. Korollar 7.84. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. i.) Die Eigenwerte einer selbstadjungierten Abbildung A 2 End.V / sind reell. ii.) Im Falle K D R sind die Eigenwerte einer orthogonalen Abbildung O 2 End.V / in f1; 1g. iii.) Im Falle K D C sind die Eigenwerte einer unitären Abbildung U 2 End.V / in S1 . 7.7 Der Spektralsatz für normale Abbildungen 341 Beweis. Sei A D A und Av D v. Dann gilt nach Proposition 7.82, i.), v D A v D Av D v. Ist v also ein Eigenvektor, so folgt D . Sei nun K D R und O 2 End.V / eine orthogonale Abbildung, also eine Isometrie. Dies bedeutet O O D 1. Ist nun 2 R ein Eigenwert mit Eigenvektor v 2 V n f0g, so gilt v D O Ov D O v D 2 v; da ja D . Damit folgt D ˙1. Für K D C und U 2 End.V / unitär erhalten wir entsprechend aus U v D v v D U U v D U v D v D jj2 v; und damit jj D 1, also 2 S1 . t u Korollar 7.85. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / normal. Dann gilt für alle 2 K und n 2 N ker.A / D ker.A /n : (7.124) Beweis. Ist kein Eigenwert, so wissen wir, dass beide Seiten nur der Nullraum sind, siehe Bemerkung 6.97. Sei also ein Eigenwert von A. Wir betrachten den verallgemeinerten Eigenraum VQ von A. Es gilt wegen A .A /r D .A /r A , dass A den verallgemeinerten Eigenraum VQ in sich abbildet, also ˇ A ˇVQ W VQ ! VQ : ˇ Damit ist aber AˇVQ W VQ ! VQ eine normale Abbildung mit ˇ ˇ AˇVQ D A ˇVQ : Folglich ist auf VQ die Abbildung .A /jVQ nilpotent nach Definition von VQ und ˇ nach wie vor normal. Nach Proposition 7.83 folgt .A /ˇVQ D 0 und damit ker.A / VQ : Die andere Inklusion VQ ker.A / gilt trivialerweise immer. t u Mit anderen Worten, es gilt immer V D VQ (7.125) 342 7 Euklidische und unitäre Vektorräume für einen normalen Endomorphismus. Damit können wir nun unseren allgemeinen Spektralsatz 6.103 zum Einsatz bringen, um den Spektralsatz für normale Abbildungen zu erhalten: Satz 7.86 (Spektralsatz für komplexe normale Abbildungen). Sei V ein endlich-dimensionaler unitärer Vektorraum, und sei A 2 End.V / normal. i.) A ist diagonalisierbar. ii.) Die Spektralprojektoren P1 ; : : : ; Pk von A bilden eine orthogonale Zerlegung der Eins. Beweis. Für K D C zerfällt das charakteristische Polynom A in Linearfaktoren, da C algebraisch abgeschlossen ist. Die Voraussetzungen für Satz 6.103 sind daher erfüllt. Sind 1 ; : : : ; k die paarweise verschiedenen Eigenwerte, so gilt zum einen V D VQ1 ˚ ˚ VQk : Zum anderen gilt nach Korollar 7.85 VQi D Vi ; also insgesamt V D V1 ˚ ˚ Vk ; was den ersten Teil zeigt. Nach Proposition 7.82, ii.), wissen wir zudem Vi ? Vj für i ¤ j . Da im Pi D Vi , folgt nach Korollar 7.80, dass alle Projektoren sogar orthogonal sind. t u Korollar 7.87. Sei V ein endlich-dimensionaler unitärer Vektorraum, und sei A 2 End.V / normal. Dann gibt es eine Orthonormalbasis von V aus Eigenvektoren von A. Beweis. Man wähle eine Orthonormalbasis Bi für jeden Eigenraum Vi der paarweise verschiedenen Eigenwerte 1 ; : : : ; k gemäß Satz 7.43. Da die einzelnen Eigenräume paarweise senkrecht stehen und alles aufspannen, ist B D B1 [ [Bk eine Orthonormalbasis von V . t u Korollar 7.88. Sei A 2 Mn .C/. Es gibt genau dann eine unitäre Matrix U 2 U.n/ und eine Diagonalmatrix D 2 Mn .C/ mit A D U 1 DU; wenn A normal ist. (7.126) 7.7 Der Spektralsatz für normale Abbildungen 343 Beweis. Sei zunächst A eine normale Matrix, welche wir als normale Abbildung AW Cn ! Cn auffassen können, wobei Cn mit dem Standardskalarprodukt versehen sei. Dann gibt es eine Orthonormalbasis b1 ; : : : ; bn von Cn aus Eigenvektoren von A nach Satz 7.86. Die Matrix U 2 GLn .C/ mit bi D U 1 ei ist daher unitär, da sie eine Orthonormalbasis in eine andere überführt, siehe Proposition 7.56, v.). Damit liefert aber wegen Abi D i bi UAU 1 ei D UAbi D i U bi D i ei eine Diagonalmatrix D D UAU 1 , welche (7.126) erfüllt. Gilt umgekehrt (7.126), so gilt A D U D .U 1 / D U 1 D U; da U unitär ist, und daher AA D U 1 DU U 1 D U D U 1 DD U D U 1 D DU D A A; da alle Diagonalmatrizen vertauschen. t u Bemerkung 7.89. Wir können diese Resultate also insbesondere für selbstadjungierte und für unitäre Abbildungen beziehungsweise Matrizen anwenden. In diesem Fall wissen wir zusätzlich, dass die Eigenwerte reell beziehungsweise in S1 sind. Man beachte weiterhin, dass in dieser Variante des Spektralsatzes die zusätzliche Annahme, dass A normal ist, zu einer zusätzlichen Eigenschaft über das einfache Diagonalisieren hinaus führt: Die Basis von Eigenvektoren kann orthogonal gewählt werden. Dies stellt natürlich eine erhebliche Vereinfachung in vielerlei Hinsicht dar. Insbesondere lässt sich das Inverse des zugehörigen Basiswechsels U durch U 1 D U (7.127) viel einfacher und direkter ausrechnen als im allgemeinen Fall. Wir wollen nun einen zweiten Beweis des Spektralsatzes geben, der zum einen unabhängig von Satz 6.103 ist und zum anderen weitere geometrische Eigenschaften von normalen Abbildungen enthüllt. In gewisser Hinsicht ist dieser alternative Beweis elementarer, da wir Satz 6.103 nicht verwenden: Beweis (von Satz 7.86, Alternative). Die Strategie ist, den Beweis durch Induktion über dim V zu führen. Für dim V D 0, also für den Nullraum V D f0g, ist jeder Endomorphismus A D 0, damit normal und auch diagonalisierbar: Jede Basis ist eine Orthonormalbasis von Eigenvektoren, da V D f0g nur ; als Basis besitzt. 344 7 Euklidische und unitäre Vektorräume Wir nehmen also dim V 1 an. Der erste Schritt besteht darin, die Existenz eines Eigenvektors nachzuweisen: Da K D C nach Voraussetzung, ist dies aber klar. Das charakteristische Polynom A hat Nullstellen, da C algebraisch abgeschlossen ist. Es gibt also ein 1 2 C und einen entsprechenden Eigenraum V1 V , der mindestens eindimensional ist. In einem zweiten Schritt betrachten wir V1 D V?1 . Ist v1 2 V1 und w 2 V1 , so gilt 0 D 1 hw; v1 i D hw; Av1 i D hA w; v1 i: Da dies für alle v1 2 V1 gilt, folgt A w 2 V?1 . Analog erhalten wir mit Proposition 7.82, i.), 0 D 1 hv1 ; wi D h1 v1 ; wi D hA v1 ; wi D hv1 ; Awi; womit Aw 2 V1 . Es folgt, dass sowohl A als auch A den Unterraum V1 in sich überführen. Die deshalb definierten Einschränkungen ˇ ˇ AˇV1 W V1 ! V1 und A ˇV1 W V1 ! V1 sind nach wie vor zueinander adjungiert, da die Gleichung hv; Awi D hA v; wi ja für alle v; w 2 V und damit insbesondere für v; w 2 V1 gilt. Es gilt also ˇ ˇ AˇV1 D A ˇV1 : Daher gilt ˇ ˇ ˇ ˇ AˇV1 AˇV1 D AˇV1 AˇV1 ; ˇ womit die Einschränkung AˇV1 wieder normal ist. Der dritte Schritt ist nun der ˇ Induktionsschritt: Da AˇV1 wieder eine normale Abbildung auf dem unitären Vektorraum V1 ist, können wir den ersten und zweiten Schritt wiederholen. Da dim V D dim V1 C dim V?1 > dim V?1 D dim V1 , wird in jeder Wiederholung die Dimension echt kleiner, womit die Induktion zum Ziel führt. t u Man beachte, dass dieser zweite Beweis lediglich die algebraische Abgeschlossenheit von C sowie Proposition 7.82, i.), verwendet. Da in jedem Schritt mit dem Orthogonalkomplement fortgefahren wird, stehen die Eigenräume automatisch senkrecht aufeinander. Nachdem die Situation für K D C also sehr einfach und umfassend geklärt werden konnte, wollen wir uns nun dem reellen Fall zuwenden. Dieser ist erwartungsgemäß schwieriger, da bereits die Frage nach den Nullstellen des charakteristischen Polynoms deutlich komplizierter zu beantworten ist. Eine Strategie ist nun, das reelle Polynom A als komplexes Polynom aufzufassen und nach komplexen Nullstellen zu suchen. Hier erhält man folgendes Resultat: 7.7 Der Spektralsatz für normale Abbildungen 345 Lemma 7.90. Sei p.x/ D an x n C C a1 x C a0 ein Polynom mit reellen Koeffizienten an ; : : : ; a1 ; a0 2 R. Ist nun 2 C eine Nullstelle von p, so ist auch eine Nullstelle. Beweis. Dies ist klar, denn n 0 D 0 D p./ D an n C C a1 C a0 D an C C a1 C a0 D p./; womit ebenfalls eine Nullstelle ist. Mit anderen Worten, für p 2 RŒx treten die Nullstellen entweder als Paar zueinander konjugierter komplexer Nullstellen oder als reelle Nullstellen auf. Dies führt zu folgendem Resultat: Proposition 7.91. Sei p D an x n C C a1 x C a0 2 RŒx ein nichtkonstantes Polynom mit Grad n. Dann gibt es ein k 2 N0 und 1 ; : : : ; k 2 C n R sowie 1 ; : : : ; n2k 2 R mit p.x/ D an .x 1 / .x n2k /.x 1 /.x 1 / .x k /.x k /: (7.128) Beweis. Als komplexes Polynom können wir p in Linearfaktoren mit insgesamt n nicht notwendigerweise verschiedenen Nullstellen faktorisieren. Ist nun eine Nullstelle 1 2 C n R, so ist auch 1 eine Nullstelle nach Lemma 7.90. Deshalb treten die Linearfaktoren .x 1 / und .x 1 / immer paarweise auf. Ist dagegen 2 R C eine reelle Nullstelle, so kann nichts weiter gesagt werden. t u Korollar 7.92. Sei p 2 RŒx ein Polynom mit ungeradem Grad n. Dann hat p mindestens eine reelle Nullstelle. Beweis. Das folgt aufgrund der obigen Darstellung (7.128) aus rein kombinatorischen Gründen, da n 2k für ungerades n nie null werden kann. t u Es gibt selbstverständlich auch einen einfachen analytischen Beweis, den wir an dieser Stelle skizzieren wollen: Für ein reelles Polynom der Form p.x/ D x n C an1 x n1 C C a1 x C a0 (7.129) mit n ungerade gilt zum einen p.x/ ! ˙1 für x ! ˙1; (7.130) da nur die höchste Potenz für das Verhalten bei großem x 2 R entscheidend ist. Andererseits besagt der Zwischenwertsatz dann, dass es ein 2 R mit p./ D 0 geben muss, da Polynome ja stetig sind. Beispiel 7.93. Wir betrachten V D R2 mit dem Standardskalarprodukt sowie 346 7 Euklidische und unitäre Vektorräume a b AD b a mit a; b 2 R: (7.131) Da A 2 M2 .R/, gilt A D AT und daher a b : A DA D b a T (7.132) Eine elementare Rechnung liefert nun 2 a C b2 0 T A AD D AAT ; 0 a2 C b 2 (7.133) womit A normal ist. Für das charakteristische Polynom von A erhalten wir A .x/ D det.A x/ D .a x/2 C b 2 D a2 2ax C x 2 C b 2 : (7.134) Offenbar gilt A .x/ b 2 für alle x 2 R. Daher ist A genau dann mit reellen Eigenwerten diagonalisierbar, wenn b D 0 gilt. Die komplexen Nullstellen sind 1=2 D a ˙ ib; (7.135) was man unmittelbar verifiziert. Es gilt, wie erwartet, 1 D 2 und 1=2 2 C n R genau dann, wenn b ¤ 0. Wir wollen nun zeigen, dass das Beispiel 7.93 in gewisser Hinsicht bereits die generische Situation darstellt: Im Reellen können wir einen normalen Endomorphismus zwar nicht immer diagonalisieren, aber immer auf eine einfache Form bringen: Satz 7.94 (Spektralsatz für reelle normale Abbildungen). Sei V ein ndimensionaler euklidischer Vektorraum und ˚ 2 End.V / ein normaler Endomorphismus. Dann gibt es ein k 2 N0 , 1 ; : : : ; n2k 2 R sowie a1 ; : : : ; ak 2 R sowie b1 > 0; : : : ; bk > 0 und eine Orthonormalbasis B von V , sodass 0 B B B B B B B B Œ˚B D B B B B B B @ 1 1 :: : n2k C C C C C C a1 b1 C C: C b1 a1 C C :: C : C ak bk A bk ak (7.136) 7.7 Der Spektralsatz für normale Abbildungen 347 Beweis. Zunächst wählen wir eine beliebige Orthonormalbasis B 0 von V , was nach Satz 7.45 immer möglich ist. Aufgrund von Proposition 7.73 ist die Normalität von ˚ gleichbedeutend mit der Normalität von B 0 Œ˚B 0 , denn .B 0 Œ˚B 0 / B 0 Œ˚B 0 D B 0 Œ˚ B 0 B 0 Œ˚B 0 D B 0 Œ˚ ˚B 0 D B 0 Œ˚˚ B 0 D B 0 Œ˚B 0 B 0 Œ˚ B 0 D B 0 Œ˚B 0 .B 0 Œ˚B 0 / : Wir können daher ohne Einschränkung annehmen, dass A D B 0 Œ˚B 0 2 Mn .R/ eine normale Matrix ist, die auf R mit dem Standardskalarprodukt wirkt. Dies wird es erlauben, alle beteiligten reellen Objekte zu „komplexifizieren“, d. h., wir verwenden Mn .R/ Mn .C/ sowie Rn Cn . Gilt nun also AT A D AAT für A 2 Mn .R/, so ist A als komplexe Matrix nach wir vor normal, da A A D AT A D AT A D AAT D AAT D AA : Wir können daher Satz 7.86 zur Anwendung bringen und eine Orthonormalbasis von Cn finden, sodass A in dieser neuen Basis diagonalisiert wird. Das Problem ist, dass diese Basisvektoren von Cn im Allgemeinen natürlich wirklich komplex und nicht reell sind. Sei nun 2 C ein Eigenwert und v 2 Cn ein zugehöriger Eigenvektor. Dann gilt Av D Av D Av D v D v; womit v 2 Cn ein Eigenvektor von A zum Eigenwert ist. Wir wollen dies nun nutzen, um zwei Fälle zu unterscheiden: i.) Der Eigenwert 2 R ist reell. Sei VC Cn der zugehörige komplexe Unterraum der Eigenvektoren. In diesem finden wir eine Basis v1 ; : : : ; vk 2 VC . Da mit v auch v ein Eigenvektor zu ist, wenn D reell ist, so folgt für alle v 2 VC 1 .v 2 C v/; 2i1 .v v/ 2 VC \ Rn : Damit ist aber 1 .v 2 1 C v 1 /; 2i1 .v1 v 1 /; : : : ; 12 .vk C v k /; 2i1 .vk v k / 2 VC 348 7 Euklidische und unitäre Vektorräume ein Erzeugendensystem von VC , welches aus reellen Vektoren besteht. Unter diesen können wir k linear unabhängige auswählen und erhalten somit eine Basis von VC , die aus reellen Vektoren besteht. ii.) Der Eigenwert 2 CnR ist nicht reell. Hier können wir aus v 2 VC Cn nicht direkt einen reellen Eigenvektor bauen, da v in VC , aber nicht in VC liegt. Wir wählen daher eine Basis v1 ; : : : ; v` 2 VC und behaupten, dass v 1 ; : : : ; v ` 2 VC ebenfalls eine Basis ist. Die komplexe Konjugation W Cn ! Cn ist nicht linear, sondern eben nur antilinear, trotzdem können wir wie folgt argumentieren: Zum Test der linearen Unabhängigkeit der v 1 ; : : : ; v ` seien Zahlen z1 ; : : : ; z` 2 C mit z1 v 1 C C z` v ` D 0 vorgegeben. Dann gilt z1 v 1 C C z` v ` D z1 v1 C z` v` D 0: Da die Vektoren v1 ; : : : ; v` eine Basis von VC bilden, folgt z1 D D z` D 0 und somit auch z1 D D z` D 0. Also sind die Vektoren v 1 ; : : : ; v ` 2 VC linear unabhängig. Wir behaupten, dass sie auch eine Basis bilden. Wäre diese nicht so, gäbe es zusätzliche Vektoren w1 ; : : : ; wr 2 VC , sodass v 1 ; : : : ; v ` ; w1 ; : : : ; wr 2 VC eine Basis bilden. Dann wären nach dem eben Gezeigten (mit vertauschten Rollen $ ) die Vektoren v 1 D v1 ; : : : ; v ` D v` ; w1 D w1 ; : : : ; wr D wr 2 VC linear unabhängig. Da bereits v1 ; : : : ; v` eine Basis ist, kann dies nicht sein. Daher ist v 1 ; : : : ; v ` 2 VC bereits eine Basis gewesen. Wir können ohne Einschränkung annehmen, dass die Vektoren v1 ; : : : ; v` bereits orthonormal sind. Da hv r ; v s i D n X .v r /t .v s /t D tD1 n X .vr /t .vs /t D hvr ; vs i tD1 gilt, sind auch die Vektoren v 1 ; : : : ; v ` orthonormal. Wir betrachten nun die Vektoren 1 er D p .vr C v r / 2 und 1 fr D p .vr v r / i 2 für r D 1; : : : ; `. Wir berechnen die wechselseitigen Skalarprodukte 1 .hvr ; vs i C hv r ; vs i C hvr ; v s i C hv r ; v s i/ D ırs 2 1 her ; fs i D .hvr ; vs i hv r ; vs i C hvr ; v s i hv r ; v s i/ D 0 2 her ; es i D 7.7 Der Spektralsatz für normale Abbildungen hfr ; fs i D 349 1 .hvr ; vs i hv r ; vs i hvr ; v s i C hv r ; v s i/ D ırs ; 2 wobei wir verwenden, dass Eigenvektoren der normalen Abbildung A zu verschiedenen Eigenwerten ¤ senkrecht aufeinander stehen. Daher bilden die Vektoren e1 ; : : : ; e` ; f1 ; : : : ; f` 2 VC ˚ VC eine Orthonormalbasis von reellen Vektoren der direkten Summe der Eigenräume zu und . Die Abbildung A liefert auf diesen Vektoren 1 1 Aer D p .Avr C Av r / D p vr C v r 2 2 1 1 Afr D p .Avr Av r / D p vr v r : i 2 i 2 Wir verwenden nun vr D p 2.er C ifr / und vr D p 2.er ifr / und erhalten p p p 1 p Aer D p 2er C 2ifr C 2er 2ifr 2 D C er C i fr und p p p 1 p er C C fr : Afr D p 2er C 2ifr 2er C 2ifr D i 2 Für die reellen Zahlen a D C und b Di gilt also Aer D aer C bfr und Afr D ber C afr : Ordnen wir die Basis von VC ˚ VC als e1 ; f1 ; : : : ; e` ; f` , so erhält die Abbildung A bezüglich dieser Basis die Gestalt 350 7 Euklidische und unitäre Vektorräume 1 a b 0 C Bb a C B C B :: C: B : C B @ a b A 0 b a 0 (7.137) Durch eventuelles Vertauschen von und erreichen wir b > 0. Wir können nun beide Resultate zusammenfügen: Wir finden für jeden reellen Eigenwert von A eine Orthonormalbasis von reellen Eigenvektoren des Eigenraums VC , und für jedes konjugierte Paar ; von nicht reellen Eigenwerten von A eine Orthonormalbasis von reellen Vektoren von VC ˚ VC , sodass A bezüglich dieser Basis die Matrixform (7.137) annimmt. Da insgesamt Cn durch die paarweise orthogonalen VC und VC aufgespannt wird, erhalten wir also insgesamt eine Basis von orthonormalen und reellen Vektoren, sodass A die Gestalt (7.136) in dieser Basis annimmt. Da nun aber alle beteiligten Objekte rein reell sind, können wir unseren Ausflug ins Komplexe ebenso wie diesen Beweis beenden. Einen etwas konzeptuelleren Zugang zur Komplexifizierung findet man in den Übungen 4.31, 5.42. und 6.24. t u Bemerkung 7.95. Da die reellen Eigenwerte 1 ; : : : n2k von ˚ ebenso wie die echt komplexen Eigenwerte 1 ; : : : ; k , 1 ; : : : ; k von ˚ durch ˚ bereits festgelegt sind, sind die Zahlen 1 ; : : : ; n2k und ak D k C k ; und bk D i k k > 0 (7.138) durch ˚ bis auf Reihenfolge eindeutig festgelegt. Korollar 7.96. Sei A 2 Mn .R/ eine normale Matrix. Dann gibt es eine orthogonale Matrix O 2 Mn .R/ sowie eindeutig bis auf Reihenfolge bestimmte Zahlen 1 ; : : : ; n2k , a1 ; b1 , . . . ak ; bk 2 R mit b1 ; : : : ; bk > 0 vor dem abschließenden mit 0 1 1 B : C :: B C B C B C n2k B C B C a1 b1 B C T (7.139) OAO D B C: B C b1 a1 B C B C :: B C : B C @ ak bk A bk ak 7.7 Der Spektralsatz für normale Abbildungen 351 Beweis. Dies ist der Spektralsatz 7.86, angewandt auf die normale Abbildung AW Rn ! Rn , siehe auch Korollar 7.88. t u Korollar 7.97. Sei V ein n-dimensionaler euklidischer Vektorraum und ˚ 2 End.V / selbstadjungiert. Dann gibt es eine Orthonormalbasis von Eigenvektoren von ˚. Beweis. Die Matrix A D B Œ˚B 2 Mn .R/ ist wieder selbstadjungiert. Fassen wir A als komplexe Matrix (mit reellen Einträgen) auf, so hat A nach Korollar 7.84, i.) nur reelle Eigenwerte. Also tritt der Fall ii.) des Beweises von Satz 7.94 nicht auf. t u Korollar 7.98. Sei A 2 Mn .R/ selbstadjungiert. Dann gibt es eine orthogonale Matrix O 2 O.n/ sowie eine Diagonalmatrix D 2 Mn .R/ mit A D O 1 DO: (7.140) Korollar 7.99. Sei V ein n-dimensionaler euklidischer Vektorraum und ˚ 2 End.V / eine Isometrie. Dann gibt es eine Orthonormalbasis B von V sowie Winkel '1 ; : : : ; 'k 2 .0; / mit 1 1 −1 B[ ]B = (7.141) −1 D( 1) D( k) mit 2 2-Matrizen cos.'/ sin.'/ D.'/ D sin.'/ cos.'/ (7.142) auf der Diagonale. Die Anzahl der 1 und 1 auf der Diagonale sowie die Winkel sind eindeutig durch ˚ bestimmt. Umgekehrt ist jede solche Abbildung isometrisch. Beweis. Wir wissen, dass ˚ genau dann isometrisch ist, wenn für eine und damit alle Orthonormalbasen B von V die Matrix B Œ˚B orthogonal ist, siehe Propositi- 352 7 Euklidische und unitäre Vektorräume on 7.59. Sei also B eine Orthonormalbasis wie in Satz 7.94. Wir müssen dann nur noch entscheiden, für welche Werte der Parameter 1 ; : : : ; n2k , a1 ; b1 ; : : : ; ak ; bk die Matrix B Œ˚B orthogonal ist. Sei also A D B Œ˚B wie in (7.136). Dann gilt 0 B B B B B B B AT D B B B B B B @ 1 1 :: : C C C C k C C a1 b1 C C: C b1 a1 C C :: C : C ak bk A bk ak Aufgrund der Blockstruktur von A und AT ist es nun leicht, AT A zu berechnen. Es gilt 0 B B B B B B B AT A D B B B B B B @ 21 1 :: : 2k a11 C b12 0 0 a12 C b12 :: : ak2 C bk2 0 2 0 ak C bk2 C C C C C C C C: C C C C C A Die Bedingung AT A D 1 ist daher äquivalent zu den Bedingungen 21 D D 2k D a12 C b12 D D ak2 C bk2 D 1: (7.143) Damit folgt aber 1 ; : : : ; k 2 f˙1g, und wir können 'k 2 Œ0; / finden, sodass ak D cos 'k und bk D sin 'k > 0: Jede Wahl von derartigen 1 ; : : : ; k und a1 ; : : : ; bk erfüllt dann auch (7.143). Der Fall ' D 0 führt auf a D 1 und b D 0, der Fall ' D auf a D 1 und b D 0. Daher können wir diese Werte bereits durch entsprechende Werte für die j erreichen. u t Bemerkung 7.100 (Drehungen). Dank des letzten Korollars haben wir nun eine geometrische Interpretation einer orthogonalen Abbildung gefunden. Zunächst genügt es offenbar, Rn mit dem Standardskalarprodukt sowie O 2 O.n/ zu betrachten. Dann gibt es also zweidimensionale Unterräume von Rn in denen O eine Drehung um einen gewissen Winkel ' ist, da die Beiträge der Form 7.8 Positivität 353 Abb. 7.2 Drehung um ' in der .e; f/-Ebene. Df f De ϕ ϕ e cos.'/ sin.'/ D.'/ D sin.'/ cos.'/ (7.144) gerade eine solche Drehung beschreiben, siehe Abb. 7.2. In den übrigen Richtungen der Orthonormalbasis B aus Korollar 7.99 ist O entweder die Identität oder eine Spiegelung. Wir sehen auch anhand von (7.141), dass det O D C1 genau dann gilt, wenn es eine gerade Anzahl von 1 auf der Diagonalen gibt. Anderenfalls ist det O D 1. Kontrollfragen. Wann ist ein Endomorphismus normal und nilpotent? Wie lautet der Spektralsatz für normale Abbildungen über C und über R? Welche zwei unterschiedliche Beweisstrategien des Spektralsatzes kennen Sie? Wie lautet die Normalform einer Drehung? 7.8 Positivität In diesem Abschnitt wollen wir uns nun einem besonders wichtigen Spezialfall von selbstadjungierten Abbildungen zuwenden, den positiven Abbildungen. Als Motivation betrachtet man folgende Situation: Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann betrachtet man die Abbildung h ; i˚ W V V 3 .v; w/ 7! hv; wi˚ D hv; ˚.w/i 2 K: (7.145) Lemma 7.101. Die Abbildung h ; i˚ ist bilinear beziehungsweise sesquilinear. Weiter ist h ; i˚ genau dann symmetrisch beziehungsweise Hermitesch, wenn ˚ selbstadjungiert ist. Beweis. Da ˚ linear ist, ist w ! 7 hv; ˚.w/i ebenfalls linear als Verkettung der linearen Abbildung hv; i und ˚. Die (Anti-)Linearität im Argument v bleibt offenbar bestehen. Für v; w 2 V gilt nun hv; wi˚ D hv; ˚.w/i D h˚ .v/; wi D hw; ˚ .v/i: Damit gilt genau dann hv; wi˚ D hw; vi˚ für alle v; w 2 V , wenn ˚ D ˚. t u 354 7 Euklidische und unitäre Vektorräume Wir können uns also mithilfe selbstadjungierter Endomorphismen von V neue Kandidaten für Skalarprodukte verschaffen. Um wirklich ein Skalarprodukt zu erhalten, benötigen wir die Nichtausgeartetheit und die Positivität. Lemma 7.102. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei ˚ 2 End.V / selbstadjungiert. Dann sind äquivalent: i.) Die Abbildung h ; i˚ ist nicht-ausgeartet. ii.) Die Abbildung ˚ ist invertierbar. Beweis. Die Bilinear- beziehungsweise Sesquilinearform h ; i˚ ist genau dann nicht-ausgeartet, wenn der zugehörige musikalische Homomorphismus [˚ W V ! V bijektiv ist, siehe Satz 7.69. Wir haben für v 2 V v [˚ .w/ D hv; wi˚ D hv; ˚.w/i D v [ .˚.w// D v [ ı ˚ .w/ D ˚ v [ .w/ und daher v [ ı ˚ D ˚ .v [ /. Nun ist ˚ genau dann bijektiv, wenn die duale Abbildung ˚ bijektiv ist, siehe Übung 5.37. Damit folgt die Behauptung, da [˚ D ˚ ı [. t u Für die Positivität erhalten wir direkt aus der Definition folgendes Resultat: Lemma 7.103. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei ˚ 2 End.V / selbstadjungiert. Dann sind äquivalent: i.) Die Abbildung h ; i˚ ist positiv semidefinit. ii.) Für alle v 2 V gilt hv; ˚.v/i 0. Dies ist nun die Motivation für eine der möglichen (und äquivalenten) Definitionen von Positivität eines Endomorphismus. Alternativ könnte man ˚ 2 End.V / positiv nennen, wenn ˚ selbstadjungiert ist und spec.˚/ RC 0 (7.146) gilt. Weiter könnte man ˚ positiv nennen, wenn es eine selbstadjungierte Wurzel von ˚ gibt. Zunächst ist nicht klar, wie alle diese Konzepte zusammenhängen, wir werden dies nun zu klären haben. Bemerkung 7.104. Im komplexen Fall impliziert die Eigenschaft ii.) aus Lemma 7.103 die Selbstadjungiertheit, denn gilt hv; Avi 0 für alle v, so folgt für alle v; w 2 V und z 2 C 0 hv C zw; A.v C zw/i D jzj2 hw; Awi C zhw; Avi C zhv; Awi C hv; Avi: (7.147) 7.8 Positivität 355 Wie im Beweis der Cauchy-Schwarz-Ungleichung in Proposition 7.19 folgt hw; Avi D hv; Awi; (7.148) was gerade A D A bedeutet. Im reellen Fall ist dies jedoch nicht richtig: Ist nämlich A D AT mit hv; Avi 0 für alle v 2 V und B D B T antisymmetrisch, so gilt hv; Bvi D hB T v; vi D hBv; vi D hv; Bvi, also hv; Bvi D 0. Damit gilt dann für C D A C B nach wie vor hv; C vi 0, aber C T ¤ C . Wir kommen nun zum angekündigten Vergleich der verschiedenen Begriffe von Positivität, die in diesem Zusammenhang traditionell immer im Sinne der Ungleichung „ 0“, aber nicht im Sinne der strikten Ungleichung „> 0“ verstanden wird: Satz 7.105 (Positivität). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann sind äquivalent: i.) ii.) iii.) iv.) v.) Es gilt ˚ D ˚ und hv; ˚.v/i 0 für alle v 2 V . Es gilt ˚ D ˚ und spec.˚/ RC 0 . Es gibt ein selbstadjungiertes 2 End.V / mit ˚ D 2 . Es gibt ein 2 End.V / mit ˚ D . Es gibt 1 ; : : : ; k 2 End.V / und ˛1 ; : : : ; ˛k > 0 mit ˚D k X ˛i i i : (7.149) iD1 Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) v.) H) i.). Sei also i.) erfüllt. Da ˚ selbstadjungiert ist, können wir eine orthogonale Zerlegung der Eins P1 ; : : : ; Pk 2 End.V / und reelle Eigenwerte 1 ; : : : ; k 2 R mit ˚D k X i P i iD1 finden. Sei nun vj 2 im Pj ein Eigenvektor ungleich null. Dann gilt also Pi vj D ıij vj und daher hvj ; ˚vj i D k X i hvj ; Pi vj i D j hvj ; vj i: iD1 Da hvj ; vj i > 0, folgt j 0 und damit i.) H) ii.). Sei nun ˚ selbstadjungiert mit spec.˚/ RC 0 , und seien P1 ; : : : ; Pk die Spektralprojektoren von ˚. Dann definieren wir die Wurzel aus ˚ durch 356 7 Euklidische und unitäre Vektorräume k p X p ˚D i P i ; iD1 wobei spec.˚/ D f1 ; : : : ; k g. Dies ist p aufgrund von i 0 möglich und liefert wieder eine selbstadjungierte Abbildung ˚ 2 End.V /, da k p k p X p p X i P i D i Pi D ˚: . ˚/ D iD1 iD1 Weiter gilt mit dem polynomialen Kalkül für p ˚ p p ˚ ˚ D˚ p ˚. Die nächste nach Bemerkung 6.88. Daher erreichen wir iii.) mit D Implikation iii.) H) iv.) ist trivial, da wir dasselbe D verwenden können. Auch iv.) H) v.) ist trivial, da wir k D 1; ˛1 D 1 und 1 D setzen können. Es gelte nun also v.). Sei dann v 2 V . Dann gilt X X k k k X ˛i i i v D ˛i hv; i i vi D ˛i hi v; i vi 0; hv; ˚vi D v; iD1 iD1 iD1 da ˛i > 0 und hi v; i vi D ki vk2 0 aufgrund der Positivität des Skalarprodukts. Also gilt auch v.) H) i.), weil offensichtlich ˚ D ˚ . t u Definition 7.106 (Positiver Endomorphismus). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Erfüllt ˚ eine (und damit alle) der äquivalenten Eigenschaften aus Satz 7.105, so heißt ˚ positiv. Bemerkung 7.107. Gilt zudem, dass ˚ invertierbar ist, so heißt ˚ positiv definit. Dies ist dann beispielsweise dazu äquivalent, dass alle Eigenwerte 1 ; : : : ; k von ˚ sogar echt positiv sind und nicht nur i 0 erfüllen. Der Fall V D Kn führt dank End.Kn / Š Mn .K/ auf den Begriff der positiven beziehungsweise positiv definiten Matrix. Man beachte, dass für K D C dank Bemerkung 7.104 die Selbstadjungiertheit in Satz 7.105, i.), bereits aus hv; ˚vi 0 für alle v 2 V folgt und daher nicht extra gefordert werden muss. Im reellen Fall muss dies jedoch getan werden. Bemerkung 7.108 (Quantenmechanik). Auch wenn für die Quantenmechanik unendlich-dimensionale Hilbert-Räume erforderlich sind, ist folgende Begriffsbildung in einem endlich-dimensionalen Modell gleichermaßen gültig. Man betrachte V D Cn mit dem Standardskalarprodukt. Die Zustände eines quantenmechanischen Systems werden dann mit Vektoren in V nf0g identifiziert, wobei zwei Vektoren 7.8 Positivität 357 v; w 2 V nf0g denselben Zustand beschreiben sollen, wenn es ein z 2 C mit v D zw gibt. Dies ist für Vektoren aus V nf0g offenbar eine Äquivalenzrelation. Die Observablen des Systems, also diejenigen physikalischen Größen, die sich messen lassen (Energie, Impuls, etc.), werden dann durch normale oder sogar selbstadjungierte Endomorphismen A 2 End.V / beschrieben. Die möglichen Messwerte einer Observablen sind durch die Spektralwerte spec.A/ gegeben, in unserem einfachen Modell also durch die endlich vielen Eigenwerte von A. Wir schreiben wie immer k X AD i P i (7.150) iD1 mit den Spektralprojektoren Pi von A. Die tatsächliche Messung von A im Zustand v liefert nun zufällig einen der Eigenwerte als Resultat: Dies ist der berühmte wahrscheinlichkeitstheoretische Aspekt der Quantenmechanik. Allerdings ist diese Zufälligkeit doch gewissen Regeln unterworfen, denn bei oftmaliger Wiederholung der Messung stellt sich ein Erwartungswert der Resultate ein, der durch Ev .A/ D hv; Avi hv; vi (7.151) gegeben ist. Man beachte, dass Ev nur von der Äquivalenzklasse von v, also vom Zustand, abhängt. Eine leichte Rechnung zeigt nun Ev .A/ D k X i iD1 hv; Pi vi ; hv; vi (7.152) und die Projektoreigenschaft liefert hv; Pi vi D hPi v; Pi vi D kPi vk2 0 (7.153) sowie kvk2 D k X kPi vk2 ; (7.154) iD1 nach dem Satz des Pythagoras, da ja die Vektoren Pi v paarweise orthogonal stehen. Dies erlaubt nun folgende Definition einer Wahrscheinlichkeitsverteilung: Man setzt pi D hv; Pi vi: (7.155) Aus (7.154) und (7.153) folgt dann also 0 pi und k X iD1 pi D 1: (7.156) 358 7 Euklidische und unitäre Vektorräume Damit können wir die Zahlen pi als Wahrscheinlichkeiten interpretieren, bei einer Messung von A im Zustand v tatsächlich den Messwert i zu finden. Die Gleichung (7.151) wird dann zu Ev .A/ D k X i p i ; (7.157) iD1 also tatsächlich zum Erwartungswert bezüglich der Wahrscheinlichkeitsverteilung, die durch die p1 ; : : : ; pk gegeben ist. Die Physik zeigt nun, dass diese Interpretation der Wirklichkeit gerecht wird. Der Zusammenhang zu unseren Positivitätsbegriffen ergibt sich nun folgendermaßen: Als „Quadrat“ soll die selbstadjungierte Observable A A für ein beliebiges A nichtnegative Erwartungswerte und auch nichtnegative Messwerte liefern. Dies ist gerade die Implikation iv.) H) ii.) sowie iv.) H) i.), wobei wir ja sogar Äquivalenz vorliegen haben. Wir nehmen diese quantenmechanischen Interpretationen von unserer Spektraltheorie und den Positivitätseigenschaften nun als Motivation für folgende Definition: Definition 7.109 (Zustand). Sei n 2 N. Ein Zustand ! von Mn .C/ ist eine lineare Abbildung !W Mn .C/ ! C (7.158) mit !.1/ D 1 und !.A A/ 0 (7.159) für alle A 2 Mn .C/. Eine analoge Definition erfolgt für End.V / mit einem beliebigen endlich-dimensionalen unitären Vektorraum. Beispiel 7.110 (Zustände). Für v 2 Cn nf0g ist Ev W Mn .C/ 3 A 7! Ev .A/ D hv; Avi 2C hv; vi (7.160) ein Zustand. Dies sind gerade die in Bemerkung 7.108 diskutierten Eigenschaften. Die quantenmechanische Interpretation wird hier also zum Prinzip erhoben: Der physikalische Zustand, beschrieben durch v, wird mit dem Erwartungswertfunktional Ev identifiziert. Proposition 7.111. Seien !1 ; !2 W Mn .C/ ! C Zustände und 1 ; 2 2 R mit 1 ; 2 0 und 1 C 2 D 1. Dann ist die konvexe Kombination ! D 1 !1 C 2 !2 (7.161) 7.8 Positivität 359 ebenfalls ein Zustand. Beweis. Da die linearen Abbildungen Hom.Mn .C/; C/ D Mn .C/ einen Vektorraum, nämlich den Dualraum von Mn .C/, bilden, ist ! wieder linear. Weiter gilt !.1/ D 1 !1 .1/ C 2 !2 .1/ D 1 C 2 D 1; sowie für A 2 Mn .C/ !.A A/ D 1 !1 .A A/ C 2 !2 .A A/ 0; da sowohl 1 ; 2 0 als auch !1=2 .A A/ 0. t u Die Zustände von Mn .C/ bilden also eine konvexe Menge im Dualraum Mn .C/ . Wir können diese konvexe Menge nun vollständig charakterisieren. Dazu benötigen wir den Begriff der Dichtematrix: Definition 7.112 (Dichtematrix). Eine Matrix 2 Mn .C/ heißt Dichtematrix, falls positiv ist und tr D 1 für die Spur von gilt. Satz 7.113 (Zustände von Mn .C/). Sei n 2 N. Ein lineares Funktional ! 2 Mn .C/ ist genau dann ein Zustand, wenn es eine Dichtematrix 2 Mn .C/ gibt, sodass für alle A 2 Mn .C/ !.A/ D tr.A/: (7.162) Beweis. Sei zunächst eine Dichtematrix und ! gemäß (7.162) definiert. Dann ist ! linear, da die Spur ein lineares Funktional und die Matrixmultiplikation A 7! A ebenfalls linear im zweiten Argument ist. Weiter gilt !.1/ D tr.1/ D tr D 1 nach der Definition einer Dichtematrix. Es bleibt also, die Positivität zu zeigen. Zuerst zeigen wir für jedes A 2 Mn .C/ tr.A A/ D n X iD1 .A A/i i D n X n X iD1 kD1 Aik Aki D n X k;iD1 Aki Aki D n X jAki j2 0: k;iD1 Damit ist der Beweis für den Spezialfall D 1 erbracht. Für eine beliebige Dichtematrix schreiben wir D B B für ein geeignetes B 2 Mn .C/ nach Satz 7.105, iv.). Dann gilt !.A A/ D tr.A A/ D tr.B BA A/ D tr.BA AB / D tr..AB / AB / 0; 360 7 Euklidische und unitäre Vektorräume wobei wir im dritten Schritt verwendet haben, dass tr.AB/ D tr.BA/ gilt. Damit ist ! also ein Zustand. Wir zeigen nun zunächst folgendes Resultat: Für jedes lineare Funktional !W Mn .C/ ! C gibt es eine eindeutig bestimmte Matrix 2 Mn .C/, sodass ! D tr. /. Zum Beweis dieser Aussage schreiben wir A 2 Mn .C/ bezüglich der Basis fEij gi;j D1;:::;n der Elementarmatrizen wie in Proposition 5.55, i.). Es gilt also AD n X Aij Eij i;j D1 für A D .Aij /i;j D1;:::;n . Dann gilt 0 !.A/ D ! @ n X 1 n X Aij Eij A D i;j D1 Aij !.Eij /: i;j D1 Wir setzen nun D .rs /r;sD1;:::;n mit rs D !.Esr /: Dann gilt also !.A/ D n X Aij j i D i;j D1 n X .A/i i D tr.A/ D tr.A/; iD1 womit wir die Behauptung gezeigt haben. Offenbar ist eindeutig bestimmt. Wenn nun ! zudem ein Zustand ist, so gilt also 1 D !.1/ D tr.1/ D tr und 0 !.A A/ D tr.A A/ D tr.AA / für alle A 2 Mn .C/. Sei nun v 2 Cn , dann betrachten wir die spezielle Matrix 0 0 0 1 A und somit AD@ v1 vn 0 0 B A D @ ::: 0 1 v1 :: C: :A vn Wir berechnen die Matrix AA für diesen Spezialfall explizit und erhalten A D .0; : : : ; 0; v/ D .0; : : : ; 0; v/ 7.8 Positivität 361 sowie 0 0 B :: AA D @ : 0 1 1 v1 0 0 0 1 00 0 :: C@ A: AD@ :A 0 hv; vi v1 vn vn Daher gilt also tr.AA / D hv; vi. Aus !.A A/ 0 folgt daher insbesondere für alle v 2 V die Ungleichung hv; vi 0, womit nach Satz 7.105, i.), positiv ist. Man beachte, dass wir wegen K D C die Selbstadjungiertheit nicht extra prüfen müssen. Zusammen mit der Normierung tr D 1 ist also tatsächlich eine Dichtematrix. t u Korollar 7.114. Sei n 2 N. Eine Matrix A 2 Mn .C/ ist genau dann positiv, wenn für alle Zustände ! von Mn .C/ gilt, dass !.A/ 0: (7.163) Beweis. Dies ist einfach: Ist A positiv, so gilt A D B B für ein geeignetes B 2 Mn .C/ und daher !.A/ D !.B B/ 0. Gilt umgekehrt (7.163) für alle positiven 0 für !, so erst recht für ! D Ev mit v 2 Cn nf0g. Daher folgt Ev .A/ D hv;Avi hv;vi n alle v 2 C nf0g, was die Positivität von A bedeutet. t u Quantenmechanisch interpretiert heißt dies, dass die Observable A genau dann positiv ist, wenn wir nachmessen können, dass sie positiv ist. Nach diesem Exkurs in die Gefilde der Quantenmechanik wollen wir noch einige weitere Eigenschaften positiver Endomorphismen diskutieren. p Satz 7.115 ( A, jAj, AC und A ). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / ein Endomorphismus. p i.) Ist A positiv, so gibt es eine eindeutigp bestimmte positive Wurzel A von A, p 2 also einen positiven Endomorphismus A 2 End.V / mit . A/ D A. ii.) Ist A selbstadjungiert, so gibt es eindeutig bestimmte positive Endomorphismen AC ; A 2 End.V / mit A D AC A und AC A D 0 D A AC : (7.164) iii.) Ist A selbstadjungiert, so gibt es einen eindeutig bestimmten positiven Endomorphismus jAj 2 End.V / mit jAj2 D A2 : (7.165) jAj D AC C A (7.166) iv.) Für ein selbstadjungiertes A gilt 362 7 Euklidische und unitäre Vektorräume und A˙ D 1 .jAj ˙ A/: 2 (7.167) Beweis. Sei A positiv. Da A selbstadjungiert ist, können wir AD k X i P i (7.168) iD1 gemäß Satz 7.86 beziehungsweise Korollar 7.97 schreiben. Es gilt dann i 0. Daher setzen wir k p X p AD i Pi ; iD1 p was der positiven Wurzel zeigt. Man beachte, dass spec. A/ D p die Existenz p f 1 ; : : : ; k g 2 RC 0 , siehe Proposition 6.87. Sei nun B D B eine andere positive Wurzel. Es gibt daher eine orthogonale Zerlegung Q1 ; : : : ; Q` der Eins sowie 1 ; : : : ; ` 0 mit BD X̀ j Qj : j D1 Da A D B 2 gelten soll, finden wir AD X̀ 2j Qj j D1 gemäß des polynomialen Kalküls aus Bemerkung 6.88. Da j 0 folgt 2j ¤ 2j 0 für j ¤ j 0 . Die Eindeutigkeit der Spektralzerlegung (7.168) gemäß Bemerkung 6.104 zeigt dann, dass k D ` und die Q1 ; : : : ; Qk bis auf Umnummerierung p gerade die P1 ; : : : ; Pk sein müssen, sowie i D 2i . Also gilt B D A, was den ersten Teil zeigt. Für den zweiten Teil schreiben wir A D A wieder in der Form (7.168), wobei nun jedoch über die Vorzeichen von 1 ; : : : ; k keine Aussage gemacht werden kann. Wir setzen AC D X i 0 i P i und A D X i 0 i P i D X .i /Pi : i 0 Dann gilt ˇ ˚ spec.AC / D i 2 spec.A/ ˇ i 0 RC 0 (7.169) 7.8 Positivität 363 und ˇ ˚ spec.A / D i ˇ i 2 spec.A/; i 0 RC 0 ; womit AC und A beide positiv sind. Man beachte, dass (7.169) eventuell noch nicht die Spektralzerlegung ist, da den jeweiligen Projektoren in AC beziehungsweise A gerade die anderen zu P1 C C Pk D 1 fehlen. Daher muss man noch um den jeweiligen Rest ergänzen und dies zum dann vorhandenen Eigenwert 0 hinzunehmen. Die Eigenschaft A D AC A ist klar nach Konstruktion. Weiter gilt AC A D X i 0 i P i X .j /Pj D j 0 X i j P i P j D i 0 j 0 X 2i Pi D 0; i D0 da Pi Pj D ıij . Analog zeigt man A AC D 0. Damit ist die Existenz gezeigt. Für den dritten Teil setzen wir k X jAj D ji jPi D AC C A ; iD1 womit die Existenz von jAj mit (7.165) folgt. Die Eigenschaften (7.166) und (7.167) sind dann klar. Es bleibt die Eindeutigkeit von jAj; AC ; A zu zeigen. Sei zunächst B positiv mit B 2 D A2 . DapA2 D A A ebenfalls immer positiv ist, ist nach i.) der Endomorphismus B durch A2 gegeben und daher eindeutig bestimmt. Also folgt p 2 B D A D jAj. Seien nun positive BC und B mit BC B D 0 D B BC und A D BC B gegeben. Dann gilt A2 D .BC B /.BC B / 2 BC B B BC C B2 D BC 2 D BC C B2 2 D BC C BC B C BC B C B2 D .BC C B /2 : Da BC C B nach Satz 7.105, v.), wieder positiv ist, folgt aus der Eindeutigkeit von jAj gemäß iii.) sofort BC C B D jAj. Zusammen mit A D BC B folgt aber t u B˙ D 12 .jAj ˙ A/ D A˙ . p Definition 7.116 (Die Abbildungen A; jAj; AC ; A ). Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum, und sei A D A 2 End.V /. 364 7 Euklidische und unitäre Vektorräume p i.) Ist A positiv, so heißt A die positive Wurzel von A. ii.) Die Abbildung jAj heißt der Absolutbetrag von A, die Abbildungen AC und A heißen Positiv- und Negativteil von A. Beispiel 7.117. Wir betrachten ein einfaches Beispiel, um alle Größen exemplarisch zu berechnen. Sei 0 i AD 2 M2 .C/: (7.170) i 0 Offenbar gilt A D A , sodass wir also A in AC und A zerlegen können. Wir berechnen A A explizit zu 0 i 0 i 0 i 10 0 i A AD D D D 1: i 0 i 0 i 0 01 i 0 (7.171) Damit ist also jAj D 1; (7.172) da 1 wegen 1 D 1 1 sicherlich eine positive Matrix ist und 12 D A A gilt. Nach der Eindeutigkeit von jAj folgt so (7.172). Dies erlaubt es nun AC und A auf einfache Weise zu berechnen: Mit (7.167) erhalten wir 1 1 1 0 i ˙ 2i 2 A˙ D .jAj ˙ A/ D 1˙ D : i 0 2i 12 2 2 (7.173) Zur Kontrolle rechnen wir nach, dass AC A D 1 2 i 2 i 1 2 2 1 2 i 2 2i 1 2 0 i D : i 0 Weiter gilt für v 2 C2 1 v1 v1 ˙i ; 2 i 12 v2 2 2 v2 v1 v1 ˙ iv22 2 ; D iv1 v2 2 C v22 hv; A˙ vi D 1 1 v1 .v1 ˙ iv2 / C v2 .iv1 C v2 / 2 2 1 i i 1 D jv1 j2 ˙ v1 v2 v2 v1 C jv2 j2 2 2 2 2 D (7.174) 7.8 Positivität 365 1 2 jv1 j C jv2 j2 2jv1 v2 j 2 1 D .jv1 j jv2 j/2 : 2 (7.175) Damit sehen wir also die Positivität von A˙ explizit. Wir können die Definition von jAj auf beliebige lineare Abbildungen ausdehnen. Dazu betrachten wir folgende Vorüberlegung: Lemma 7.118. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann sind die Abbildungen A A 2 End.V / und AA 2 End.W / positiv. Beweis. Man beachte, dass wir nicht direkt das Kriterium aus Satz 7.105, iv.), anwenden können, da AW V ! W kein Endomorphismus von V ist. Mit Satz 7.105, i.), gelingt der Nachweis jedoch mühelos: Offenbar ist sowohl A A als auch AA nach den Rechenregeln für die Adjunktion selbstadjungiert. Weiter gilt für v 2 V hv; A AviV D hAv; AviW 0 sowie hw; AA wiW D hA w; vA wiV 0 für w 2 W . t u Definition 7.119 (Absolutbetrag). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann heißt jAj D p A A 2 End.V / (7.176) der Absolutbetrag von A. Man beachte, dass A eine Abbildung von V nach W ist, während jAj ein Endomorphismus von V ist. Alternativ hätten wir den Absolutbetrag auch als p AA und damit als Endomorphismus von W definieren können. Damit werden jedoch lediglich die Rollen von A und A vertauscht, sodass wir uns hier getrost für eine Variante entscheiden können. Man beachte aber, dass im Allgemeinen jAj ¤ jA j: (7.177) 366 7 Euklidische und unitäre Vektorräume Ist V ¤ W , so gilt ja jAj 2 End.V /, während jA j 2 End.W /. Aber selbst wenn V D W gilt, stimmen jAj und jA j im Allgemeinen nicht überein: Lemma 7.120. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V /. Dann sind äquivalent: i.) Der Endomorphismus A ist normal. ii.) Es gilt jAj D jA j. p Beweis. Sei A normal, also AA D A A. Damit gilt natürlich jAj D A A D p AA D jA j. Ist umgekehrt jAj D jA j, so gilt auch A A D jAj2 D jA j2 D AA . t u Proposition 7.121. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann gilt kjAjvk D kAvk (7.178) für alle v 2 V und somit insbesondere kerjAj D ker A: (7.179) Beweis. Die zweite Behauptung (7.179) folgt sofort aus der ersten (7.178). Um erstere zu zeigen, sei also v 2 V . Dann gilt kAvk2 D hAv; Avi D hv; A Avi D hv; jAj2 vi D hjAjv; jAjvi D kjAjvk2 : Man beachte jedoch, dass Av 2 W , während jAjv 2 V . t u Kontrollfragen. Welche äquivalenten Formulierungen von Positivität kennen Sie (mindestens 4)? Was ist eine Dichtematrix? Wie können Sie jAj für eine komplexe Matrix A definieren? 7.9 Die Polarzerlegung und ihre Varianten In diesem Abschnitt wollen wir uns dem Problem zuwenden, einer linearen Abbildung AW V ! W eine besonders einfache Form zu geben. Im Allgemeinen ist nicht klar, was man damit meinen könnte, außer man fordert die Smith-Normalform. Im Falle euklidischer oder unitärer Vektorräume können wir aber etwas mehr erreichen. Wir werden die Existenz von Adjungierten benötigen, weshalb die folgenden Aussagen für uns nur für endlich-dimensionale Vektorräume beweisbar sind. Sie besitzen aber alle nichttriviale Verallgemeinerungen für Hilbert-Räume beliebiger Dimension. 7.9 Die Polarzerlegung und ihre Varianten 367 Wir beginnen mit folgender allgemeinen Überlegung zu Kern und Bild des adjungierten Homomorphismus: Proposition 7.122. Seien V und W endlich-dimensionale euklidischen oder unitäre Vektorräume und A 2 Hom.V; W /. Dann gilt .ker A/? D im.A / und .im A/? D ker.A /: (7.180) Beweis. Sei v D A w 2 im.A /, dann gilt also für alle u 2 ker A hv; uiV D hA w; uiV D hw; AuiW D 0; womit im.A / .ker A/? gezeigt ist. Nach Proposition 7.31, iv.), folgt damit auch ker A .im A /? : (7.181) Sei nun v 2 .im A /? , womit also für alle w 2 W 0 D hv; A wiV D hAv; wiW : Da h ; iW nicht-ausgeartet ist, folgt Av D 0 und daher v 2 ker A. Dies zeigt .im A /? ker A; sodass also in (7.181) Gleichheit gilt. Wir haben im.A /? D ker A gezeigt. Ein Vertauschen von A und A liefert dann die zweite Gleichung in (7.180). Die erste erhält man aus Korollar 7.37 .ker A/? D .im A /?? D im A ; da wir annehmen, V sei endlich-dimensional. t u Korollar 7.123. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann gilt ker A ˚ im A D V und im A ˚ ker A D W (7.182) als orthogonale Summen. Beweis. Dies folgt aus Proposition 7.122 zusammen mit Korollar 7.37. t u Sind V und W endlich-dimensionale euklidische oder unitäre Vektorräume, so gibt es genau dann eine orthogonale beziehungsweise unitäre Abbildung von V nach 368 7 Euklidische und unitäre Vektorräume W , wenn die Dimensionen von V und W übereinstimmen. Wir wollen nun einen etwas weniger strikten Begriff verwenden, den der partiellen Isometrie. Definition 7.124 (Partielle Isometrie). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Eine Abbildung U W V ! W heißt partielle Isometrie, falls ˇ U ˇ.ker U /? W .ker U /? ! im U (7.183) ein isometrischer Isomorphismus ist. Eine partielle Isometrie ist also im Allgemeinen weder injektiv noch surjektiv. Wir können nun partielle Isometrien auf folgende Weise mit orthogonalen Projektoren in Beziehung bringen: Proposition 7.125. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei U 2 Hom.V; W /. Dann sind äquivalent: i.) Die Abbildung U ist eine partielle Isometrie. ii.) Die Abbildung P D U U ist ein orthogonaler Projektor. iii.) Die Abbildung U ist eine partielle Isometrie. In diesem Fall gilt U U D Pim U D P.ker U /? (7.184) U U D Pim U D P.ker U /? : (7.185) und Beweis. Wir zeigen zunächst die Äquivalenz von i.) zu ii.). Dazu verwenden wir die orthogonale Zerlegung von V in V D ker U ˚ .ker U /? ; (7.186) wobei wir schon .ker U /? D im U wissen. Sei zunächst U eine partielle Isometrie und v; u 2 V . Dann gilt für die Parallel- und Orthogonalkomponente von v bezüglich (7.186) zunächst U vk D 0 sowie hv? ; u? iV D hU v? ; U u? iW D hv? ; U U u? iV : ˇ Da h ; iV positiv definit ist, ist h ; iˇker U ? ker U ? immer noch nicht-ausgeartet. Daher folgt u? D U U u? 7.9 Die Polarzerlegung und ihre Varianten 369 für alle u 2 V . Insgesamt liefert dies für v D vk C v? 2 V U U v D v? D P.ker U /? v; was U U D P.ker U /? zeigt. Damit folgt (7.184) und somit i.) H) ii.). Sei umgekehrt P D U U ein orthogonaler Projektor. Dann gilt im P im U D .ker U /? sowie ker P ker U . Sei also v 2 ker P , dann gilt 0 D hv; U U viV D hU v; U viW D kU vk2W und somit U v D 0. Dies zeigt ker P ker U und damit ker P D ker U . Aus (7.186) und der orthogonalen Zerlegung V D ker P ˚ im P D ker U ˚ im P gemäß Proposition 7.79 folgt nun direkt im P D .ker U /? . Damit ist also auch unter der Voraussetzung ii.) die Gleichung (7.184) richtig. Seien also nun wieder v; u 2 V gegeben, dann gilt hU v? ; U u? iW D hv? ; U U u? iV D hv? ; P.ker U /? u? iV D hv? ; u? iV ; womit U auf .ker U /? isometrisch ist. Damit ist U aber ein isometrischer Isomorphismus von .ker U /? nach im U , was ii.) H) i.) zeigt. Es gelte nun i.) und damit auch ii.). Dann gilt U U U D Pim U U D U ; da Pim U ja auf .ker U /? D im U projiziert. Daher folgt U U U U D U U ; womit Q D U U ebenfalls ein orthogonaler Projektor ist. Also ist U eine partielle Isometrie. Durch Vertauschen der Rollen von U und U erhält man dann so auch die verbleibende Implikation iii.) H) ii.). Die Gleichung (7.185) gilt dann aus Symmetriegründen. t u Wir können nun die Polarzerlegung eines Endomorphismus betrachten. Letztlich werden folgende einfache Ideen auf höhere Dimensionen verallgemeinert: Ist 2 R eine reelle Zahl, so gilt D sign./jj; (7.187) und für ¤ 0 ist sign./ 2 f˙1g D O.1/ und jj > 0. Analog kann man eine komplexe Zahl z 2 Cnf0g als zD z jzj jzj (7.188) 370 7 Euklidische und unitäre Vektorräume schreiben, wobei wieder jzj > 0 und die Phase jzjz 2 S1 als unitäre 1 1-Matrix interpretiert werden kann. Es gilt ja offenbar ˇ ˚ (7.189) S1 D U.1/ D z 2 C ˇ jzj D 1 ; denn die Unitaritätsbedingung wird in n D 1 Dimensionen gerade zu zz D 1. Dies legt nun nahe, auch für beliebige Matrizen A 2 Mn .K/ eine Faktorisierung in eine orthogonale beziehungsweise unitäre „Phase“ und einen positiven „Betrag“ zu suchen. Bereits für reelle oder komplexe Zahlen ist der Fall D 0 oder z D 0 problematisch und erfordert eine Fallunterscheidung: Die Phase ist letztlich unbestimmt. Dies wird bei nichtinvertierbaren Matrizen ebenfalls zu Schwierigkeiten führen. Wir beginnen nun mit folgender ersten Variante der Polarzerlegung: Satz 7.126 (Polarzerlegung I). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / invertierbar. Dann gibt es eine eindeutig bestimmte Isometrie U 2 End.V / mit A D U jAj: (7.190) Beweis. Mit A ist auch A invertierbar, da .A /1 D .A1 p/ . Somit ist A A inver tierbar und besitzt daher eine invertierbare Wurzel jAj D A A. Dies folgt aus der Spektralzerlegung von A A. Damit ist U 2 End.V / mit (7.190) eindeutig als U D AjAj1 (7.191) bestimmt. Dieses U ist auch isometrisch, denn U U D AjAj1 AjAj1 D jAj1 A AjAj1 D jAj1 jAj2 jAj1 D 1: In endlichen Dimensionen ist ein isometrischer Endomorphismus zudem eine Bijektion. Dies ist auch direkt zu sehen, da U ein Produkt (7.191) von zwei invertierbaren Endomorphismen ist. t u Der Nachteil dieser Variante ist, dass die Voraussetzung, einen invertierbaren Endomorphismus zu haben, für verschiedene Anwendungen deutlich zu restriktiv ist. Wir kommen daher zu folgender zweiten Variante der Polarzerlegung. Hier ist die Voraussetzung eine andere: Satz 7.127 (Polarzerlegung II). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / ein normaler Endomorphismus. Dann gibt es eine Isometrie U 2 End.V / mit A D U jAj; (7.192) 7.9 Die Polarzerlegung und ihre Varianten 371 sodass A, U und jAj paarweise vertauschen. Beweis. Seien 1 ; : : : ; k 2 C die paarweise verschiedenen Eigenwerte von A mit zugehörigen Spektralprojektoren P1 ; : : : ; Pk . Ist A invertierbar, so sind alle i von null verschieden. Ist A nicht invertierbar, so ist ein Eigenwert null, und der zugehörige Projektor ist der Orthogonalprojektor auf ker A. Wir definieren U nun durch k k X X i Pi D zi Pi ji j iD1 iD1 U D mit zi D i , ji j falls A invertierbar ist, und U D k k X X i Pi C P1 D zi Pi ; ji j iD2 iD1 falls A nicht invertierbar ist, und 1 D 0, was wir durch Umsortieren ja problemlos erreichen können. In letzterem Fall setzen wir z1 D 1. In beiden Fällen gilt X k U U D zi Pi X k j D1 iD1 k X D zj Pj zi zj Pi Pj i;j D1 k X jzi j2 Pi D iD1 k X D Pi iD1 D 1; da die P1 ; : : : ; Pk eine orthogonale Zerlegung der Eins bilden und die Vorfaktoren in beiden Fällen den Betrag 1 haben. Also ist U isometrisch und daher insbesondere ein isometrischer Isomorphismus. Schließlich gilt U jAj D X k iD1 zi Pi X k jj jPj j D1 D k X i;j D1 zi ji jPi Pj D k X zi ji jPi : iD1 Ist A invertierbar, so gilt zi ji j D i für alle i D 1; : : : ; k nach Konstruktion. Ist A nicht invertierbar, so gilt speziell für i D 1 372 7 Euklidische und unitäre Vektorräume z1 j1 j D 1 0 D 0 D 1 ; womit auch hier z1 j1 j D 1 verwendet werden kann. Also folgt U jAj D A in beiden Fällen. Da sowohl U als auch jAj in diesem Fall durch den polynomialen Kalkül aus A gewonnen werden, vertauschen alle drei Abbildungen untereinander. Der reelle Fall erfordert eine kleine Zusatzüberlegung. t u Bemerkung 7.128. Sei A 2 End.V / normal. Dann ist U 2 End.V / gemäß Satz 7.127 nicht eindeutig: Für A D 0 etwa können wir jede isometrische Abbildung verwenden. Die Phase ist also nicht eindeutig bestimmt. Ist A dagegen normal und invertierbar, so stimmen die beiden Isometrien aus Satz 7.126 und Satz 7.127 überein. Die dritte Variante macht nun keinerlei Voraussetzungen mehr über A. Hier können wir sogar eine Abbildung zwischen verschiedenen euklidischen oder unitären Vektorräumen betrachten. Um auch in diesem Fall eine Eindeutigkeit der Phase zu erreichen, müssen wir partielle Isometrien anstelle von Isometrien als Phase zulassen. Satz 7.129 (Polarzerlegung III). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann gibt es eine eindeutige partielle Isometrie U 2 Hom.V; W / mit A D U jAj und ker U D ker A: (7.193) p Beweis. Hier ist jAj D A A 2 End.V / wieder der Betrag von A als positiver Endomorphismus im Sinne von Definition 7.119 festgelegt. Wir wissen nach Proposition 7.121, dass Av D 0 genau dann gilt, wenn jAjv D 0. Wir betrachten nun das Bild imjAj V ˇund die zugehörige orthogonale Zerlegung V D imjAj ˚ .imjAj/? . Wir setzen U ˇ.imjAj/? D 0. Da .imjAj/? D kerjAj D kerjAj nach Proposition 7.122 und jAj D jAj, haben wir ker U D kerjAj D ker A. Es bleibt also, U isometrisch auf imjAj zu definieren. Sei v 2 imjAj, dann gibt es also ein u 2 V mit v D jAju. Ist u0 2 V ebenfalls solchˇ ein Vektor mit v D jAju0 , so gilt u u0 2 kerjAj D ker A. Dies erlaubt es nun, U ˇimjAj W imjAj ! W durch U v D U jAju D Au zu definieren. Man beachte, dass U v nicht von der Wahl von u mit ˇv D Au abhängt, ansonsten wäre U ja nicht wohldefiniert. Wir behaupten, dass U ˇimjAj isometrisch ist. Dies ist eine einfache Rechnung, da kU vk D kU jAjuk D kAuk D kjAjuk D kvk 7.9 Die Polarzerlegung und ihre Varianten 373 nach Proposition 7.121. Insgesamt ist U daher eine partielle Isometrie mit ker U D ker A. Es bleibt, die Zerlegung (7.193) zu zeigen. Sei also v 2 V beliebig, dann ist jAjv 2 imjAj und daher U jAjv D Av; wie gewünscht. Dies zeigt die Existenz. Ist nun U 0 2 Hom.V; W / eine weitere partielle Isometrie mit (7.193), so gilt für v 2 V mit v D vk C v? bezüglich der Zerlegung V D imjAj ˚ .imjAj/? wegen ker U 0 D ker A D .imjAj/? U 0 v D U 0 .vk C v? / D U 0 vk D U 0 jAju D Au D U v; wenn u 2 V ein Vektor mit vk D jAju ist. Damit gilt also U 0 D U . t u Die verschiedenen Polarzerlegungen besitzen vielfältige Anwendungen und Verallgemeinerungen: Ohne auf die Details einzugehen, sei gesagt, dass es unendlichdimensionale Varianten für Hilbert-Räume gibt, sowie gänzlich abstrakte Versionen für C -Algebren. Weiterführende Literatur hierzu findet man beispielsweise unter [20, Chap. 12] oder [22, Abschnitt VI.3]. In der dritten Version können wir nicht sinnvoll sagen, dass A, jAj, und U miteinander vertauschen, da es sich ja um Abbildungen zwischen verschiedenen Vektorräumen handelt. Es gibt aber eine analoge Aussage zur Kommutativität. Dazu betrachten wir zunächst folgendes Lemma: Lemma 7.130. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Sind B 2 End.W / und C 2 End.V / beide selbstadjungiert mit BA D AC , so gilt BAA D AA B und CA A D A AC: (7.194) Beweis. Dies rechnet man mittels BAA D ACA D A.AC / D A.AC / D A.BA/ D AA B D AA B und CA A D .AC / A D .AC / A D .BA/ A D A B A D A BA D A AC einfach nach. t u Proposition 7.131. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Sind B 2 End.W / und C 2 End.V / beide selbstadjungiert mit BA D AC , so gilt für die eindeutige Polarzerlegung A D U jAj gemäß Satz 7.129 374 7 Euklidische und unitäre Vektorräume BU D UC und C jAj D jAjC: (7.195) Beweis. Die zweite Gleichung C jAj D jAjC folgt sofort aus p dem Spektralsatz und (7.194), da die Spektralprojektoren von A A und jAj D A A dieselben und somit Polynome in A A sind. Daher ist auch jAj ein Polynom in A A und vertauscht folglich mit C . Sei nun v 2 kerjAj, dann gilt jAjC v D C jAjv D 0. Also folgt C kerjAj kerjAj: Nun betrachten wir die orthogonale Zerlegung V D imjAj ˚ kerjAj, wobei ker U D kerjAj D ker A. Sei v D vk C v? mit vk D jAju 2 imjAj und v? 2 kerjAj. Dann gilt BU v D BU vk D BU jAju D BAu D AC u D U jAjC u D UC jAju D UC vk D U .C vk C C v? / D UC v für alle v 2 V , womit auch die erste Gleichung gezeigt ist. t u Korollar 7.132. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V /. Sei weiter A D U jAj die eindeutige Polarzerlegung gemäß Satz 7.129. i.) Ist B D B 2 End.V / mit ŒB; A D 0, so gilt auch ŒB; U D 0 D ŒB; jAj: (7.196) ii.) Ist B 2 End.V / mit ŒB; A D 0 D ŒB; A , so gilt auch ŒB; U D 0 D ŒB; jAj: (7.197) Beweis. Im ersten Fall können wir Proposition 7.131 auf B D C anwenden und erhalten direkt (7.196). Im zweiten Fall folgt zunächst für B ebenfalls ŒB ; A D B A AB D .A B/ .BA / D ŒA ; B D 0 und genauso ŒB ; A D 0. Damit vertauscht B also auch mit A und A . Im komplexen Fall schreiben wir B D Re.B/ C iIm.B/ und wissen dann ŒRe.B/; A D 0 D ŒIm.B/; A für die selbstadjungierten Abbildungen Re.B/ und Im.B/. Auf diese wenden wir den ersten Teil an und erhalten ŒRe.B/; U D 0 D ŒIm.B/; U sowie ŒRe.B/; jAj D 0 D ŒIm.B/; jAj. Erneutes Bilden der Linearkombination B D Re.B/ C iIm.B/ liefert dann (7.197). Im reellen Fall können wir nicht jeden 7.9 Die Polarzerlegung und ihre Varianten 375 Endomorphismus als Linearkombination von selbstadjungierten Endomorphismen schreiben. Aber nach Einführen einer Orthonormalbasis kann man sich auf reelle Matrizen beschränken. Diese können wir dann als komplexe Matrizen auffassen, für welche wir die vorherige Argumentation benutzen dürfen. Alternativ macht man sich im reellen Fall zunächst klar, dass Lemma 7.130 und damit auch Proposition 7.131 nach wie vor gültig bleiben, wenn man anstelle von selbstadjungierten B und C antisymmetrische B T D B und C T D C verwendet, siehe auch Übung 7.31. t u Die Daten der Polarzerlegung aus Satz 7.129 vertauschen zwar im Allgemeinen nicht untereinander, aber sie vertauschen mit allem, was mit A vertauscht. Dieser Aspekt der Polarzerlegung wird vor allem in unendlichen Dimensionen sehr wichtig, wo er zum nichttrivialen Resultat führt, dass die Daten der Polarzerlegung immer in der kleinsten von-Neumann-Algebra enthalten sind, die A (und damit auch A ) enthält. Wir reformulieren die Resultate zur Polarzerlegung nun für Matrizen: Hier erhalten wir folgende Formulierungen: Korollar 7.133. Sei A 2 GLn .K/. Dann gibt es eine eindeutig bestimmte orthogonale beziehungsweise unitäre Matrix U 2 O.n/ beziehungsweise U 2 U.n/ mit A D U jAj: (7.198) Korollar 7.134. Sei A 2 Mn .K/ normal. Dann gibt es orthogonale beziehungsweise unitäre Matrizen U 2 O.n/ beziehungsweise U 2 U.n/, sodass A D U jAj; (7.199) und A, U und jAj vertauschen paarweise. Um die Matrixversion der dritten Variante zu erhalten, führen wir zunächst eine neue Bezeichnung ein. Da jAj selbstadjungiert ist, können wir jAj immer diagonalisieren. Da zudem jAj positiv ist, sind alle Eigenwerte von jAj größer oder gleich null. Wir können diese daher der Größe nach ordnen und gemäß ihrer Vielfachheit wiederholen: Die so erhaltenen Zahlen sind die singulären Werte von A: Definition 7.135 (Singuläre Werte). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und A 2 Hom.V; w/. Dann bezeichnet man die der Größe nach absteigend geordneten und gemäß ihrer Vielfachheit wiederholten Eigenwerte von jAj als singuläre Werte s0 .A/ s1 .A/ s2 .A/ : : : sn1 .A/ 0 (7.200) von A, wobei n D dim V . Entsprechend definiert man die singulären Werte einer Matrix A 2 Mmn .K/. 376 7 Euklidische und unitäre Vektorräume Es ist durchaus üblich, für k dim V die singulären Werte von A als sk .A/ D 0 zu definieren. Dies ist mit der absteigenden Ordnung (7.200) offenbar konsistent und erlaubt es, in der Bezeichnung auf die Spezifikation von dim V zu verzichten. Wir werden uns dieser Konvention gelegentlich anschließen. Die Polarzerlegung können wir nun folgendermaßen reformulieren: Satz 7.136 (Singulärwertzerlegung). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann existieren Orthonormalbasen fek gkD0;:::;dim V 1 von V und ffk gkD0;:::;dim W 1 , sodass AD 1 X sr .A/fr ;er : (7.201) rD0 Beweis. Hier ist die Summe natürlich endlich und bricht spätestens bei dim V ab, da dann sr .A/ D 0 für r dim V . Die Abbildungen fr ;er W V ! W sind hierbei gemäß Beispiel 7.67, iii.), definiert. Der Beweis ist nun einfach. Zunächst können wir jAj diagonalisieren, da ja jAj D jAj selbstadjungiert ist. Es gibt also die paarweise verschiedenen Eigenwerte 1 ; : : : ; k 0 von jAj sowie Spektralprojektoren P1 ; : : : ; Pk 2 End.V / mit jAj D k X i P i : iD1 Wir ordnen die Eigenwerte 1 2 : : : k 0 der Größe nach und wählen Orthonormalbasen von im P1 ; im P2 ; : : : ; im Pk . Zusammen resultiert dies in einer Orthonormalbasis e0 ; e1 ; : : : ; edim V 1 von V , wobei die ersten dim im P1 Vektoren Eigenvektoren zum Eigenwert 1 etc. sind. Schließlich setzen wir s0 .A/ D D sdim im P1 1 .A/ D 1 etc. und erhalten zunächst Pi D X ej ;ej j mit einer Summe über diejenigen Indizes mit ej 2 im Pi , siehe auch Proposition 7.81. Damit gilt also i Pi D i X ej ;ej D X sj .A/ej ;ej ej 2im Pi j und entsprechend jAj D 1 X rD0 sr .A/er ;er : 7.9 Die Polarzerlegung und ihre Varianten 377 Dies ist letztlich nur die basisabhängige Form des Spektralsatzes für einen positiven Endomorphismus. Nun gibt es zwei Möglichkeiten: Entweder hat jAj einen nichttrivialen Kern, dann ist also k D 0 und Pk der Orthogonalprojektor auf kerjAj D ker A D ker U für die partielle Isometrie U aus der Polarzerlegung in Satz 7.129. Oder aber es gilt ker A D ker U D f0g, in welchem Fall U injektiv ist. Im ersten Fall gilt U ej D 0 für ej 2 ker U D im Pk und hU ej ; U ej 0 i D ıjj 0 für ej ; ej 0 … ker U , da U auf .ker U /? isometrisch ist. Wir können daher fj D U ej für diejenigen ej mit ej … ker U definieren und erhalten ein Orthonormalsystem von W . Dieses ergänzen wir beliebig zu einer Orthonormalbasis ffr grD0;:::;dim W 1 . Im zweiten Fall bilden die Vektoren fj D U ej für alle j D 0; : : : ; dim V 1 bereits ein Orthonormalsystem, da U auf ganz V isometrisch ist. Auch hier ergänzen wir diese zu einer Orthonormalbasis. Die letzte Beobachtung ist nun, dass für B 2 End.W / und w 2 W sowie v 2 V ganz allgemein Bw;v D Bw;v gilt, siehe Übung 7.7, iii.). Insgesamt erhalten wir daher aus der Polarzerlegung (7.193) A D U jAj D U 1 X sr .A/er ;er D rD0 1 X sr .A/U er ;er D rD0 1 X sr .A/fr ;er ; rD0 da im ersten Fall diejenigen fr mit sr .A/ D 0 ohnehin nicht beitragen. t u Bemerkung 7.137 (Singulärwertzerlegung). Die obige Darstellung gilt in unendlich-dimensionalen Hilbert-Räumen immer noch, sofern der Homomorphismus A ein kompakter Operator ist, siehe auch [22, Abschnitt VI.3]. Diese spezielleren Abbildungen verallgemeinern die endlich-dimensionale Situation also besonders einfach. In der numerischen Analysis spielt die Singulärwertzerlegung ebenfalls eine große Rolle. Die zugehörige Version für Matrizen erhält man auf folgende Weise: Korollar 7.138. Seien n; m 2 N und A 2 Mnm .K/ eine n m-Matrix. Dann gibt es orthogonale beziehungsweise unitäre Matrizen O 2 O.n/ und U 2 O.m/ beziehungsweise O 2 U.n/ und U 2 U.m/, sowie eindeutig bestimmte Zahlen s0 .A/ s1 .A/ : : : 0 mit 0 B OAU D @ s0 .A/ 0 s1 .A/ 0 :: 1 C A: (7.202) : Beweis. Wir zeigen zuerst die Eindeutigkeit. Seien also orthogonale beziehungsweise unitäre Matrizen U und O sowie eine Diagonalmatrix D D diag.s0 .A/; s1 .A/; : : :/ mit (7.202) und der Größe nach sortierten Einträgen gegeben. Dann gilt also A D O 1 DU 1 und somit 378 7 Euklidische und unitäre Vektorräume A A D O 1 DU 1 O 1 DU 1 D U 1 D O 1 O 1 DU 1 D UD DU 1 ; da O D O 1 und U D U 1 . Weiter ist 0 js0 .A/j2 B :: B : B B jsn1 .A/j2 B DD D B B 0 B B :: : @ 1 C C C C C C 2 Mm .K/ C C C A 0 diagonal. Damit sind die Zahlen js0 .A/j2 ; : : : ; jsn1 .A/j2 ; 0; : : : ; 0 aber die Eigenwerte von A A und haben somit eindeutige nichtnegative Wurzeln s0 .A/ s1 .A/ : : :, die wir der Größe nach anordnen können. Dies zeigt die Eindeutigkeit. Für die Existenz versehen wir Kn und Km mit dem Standardskalarprodukt und interpretieren AW Km ! Kn als lineare Abbildung. Nach Satz 7.136 gibt es also Orthonormalbasen e1 ; : : : ; em von Km und f1 ; : : : ; fn von Kn , sodass A als (7.201) gegeben ist. Die Matrizen O und U sind dann die Basiswechsel der Standardbasen von Kn und Km auf die obigen Basen. Da beide Basenpaare orthonormal sind, sind die Basiswechsel Isometrien, also orthogonal beziehungsweise unitär. t u Zum Abschluss dieses Abschnitts betrachten wir ein Beispiel, für welches wir die Polarzerlegung und die Singulärwertzerlegung explizit bestimmen: Beispiel 7.139. Wir betrachten die lineare Abbildung 321 W R3 ! R2 : 123 (7.203) 1 31 A D @2 2AW R2 ! R3 13 (7.204) 1 0 1 10 8 6 31 321 D @ 8 8 8 A: A A D @2 2A 123 6 8 10 13 (7.205) AD Es gilt 0 und entsprechend 0 7.9 Die Polarzerlegung und ihre Varianten 379 Das charakteristische Polynom von A A ist 1 10 x 8 6 A A .x/ D det@ 8 8 x 8 A D x 3 C 28x 2 96x: 6 8 10 x 0 (7.206) Die Nullstellen von A A sind 2 D 0 sowie 0=1 D 14 ˙ p 100 D 14 ˙ 10: (7.207) Damit erhalten wir also die singulären Werte von A als p p 24 D 2 6; p s1 .A/ D 4 D 2; s0 .A/ D (7.208) s2 .A/ D 0: Wir benötigen nun die Eigenvektoren von A A zu den jeweiligen obigen Eigenwerten. Leicht zu finden ist der bereits normierte Eigenvektor 1 1 1 e2 D p @2A 6 1 0 (7.209) zum Eigenwert 2 D 0, also zum Kern von A A. Zum Eigenwert 1 D 4 findet man schnell 1 1 1 e1 D p @ 0 A: 2 1 0 (7.210) Den verbleibenden Eigenvektor e0 kann man entweder direkt durch Lösen der charakteristischen Gleichung .A A 241/e0 D 0 finden, oder als Kreuzprodukt e0 D e1 e2 , da wir ja a priori schon wissen, dass die Eigenvektoren von A A paarweise senkrecht stehen müssen. Also setzen wir 0 1 0 1 0 1 0 1 1 1 2 1 1 1 @ A @ A 1 @ A 1 @ A e0 D e1 e2 D p p 2 0 D p 2 D p 1 ; 6 2 1 2 3 2 3 1 1 (7.211) womit wir eine Orthonormalbasis von Eigenvektoren von A A gefunden haben. Wir berechnen nun 380 7 Euklidische und unitäre Vektorräume 0 1 1 p 1 6 1 321 @ A 1 1 D2 6 p Ae0 D p 1 Dp 3 123 1 3 6 2 1 0 1 1 1 1 1 321 @ A 2 1 Ae1 D p D2 p 0 Dp 2 1 2 3 1 2 2 2 1 Ae2 D 0: (7.212) (7.213) (7.214) Wir setzen daher 1 1 f0 D p 2 1 und 1 1 f1 D p 2 1 (7.215) und erhalten die Zerlegung p A D 2 6f0 ;e0 C 2f1 ;e1 ; (7.216) womit die Singulärwertzerlegung also gefunden ist. Der Betrag von A ist nach dem Spektralsatz leicht aus der Spektraldarstellung von A A zu berechnen. Wir haben A A D 24e0 ;e0 C 4e1 ;e1 C 0 e2 ;e2 ; (7.217) wobei e0 ;e0 e1 ;e1 e2 ;e2 1 0 111 1@ D 1 1 1A 3 111 1 0 1 0 1 1@ D 0 0 0A 2 1 0 1 1 0 1 2 1 1@ D 2 4 2A: 6 1 2 1 (7.218) (7.219) (7.220) Damit erhalten wir jAj D p p A A D 2 6e0 ;e0 C 2e1 ;e1 ; (7.221) 7.10 Die Operatornorm und die Approximationszahlen 381 also ausgeschrieben 0 jAj D p p p 1 2 6 6 2 6 C 1 2p 1 3 p 3 3 p B 2 6 2 6 2 6 C @ p3 A: 3 p 3 p 2 6 2 6 2 6 1 3 C1 3 3 (7.222) Die partielle Isometrie U in der Polarzerlegung von A ist schließlich durch U e0 D f0 ; U e1 D f1 U e2 D 0 (7.223) p p p p p 1 2 C 3 2 2 p p p p3 : U D p p 2 3 2 2C 3 2 3 (7.224) und festgelegt. Explizit erhält man daraus Kontrollfragen. Welche Eigenschaften haben partielle Isometrien? Welche Varianten der Polarzerlegung kennen Sie, wie eindeutig sind diese? Wie konstruieren Sie die Singulärwertzerlegung einer Matrix? 7.10 Die Operatornorm und die Approximationszahlen In diesem abschließenden Abschnitt wollen wir ein letztes wichtiges Konzept in der Theorie der euklidischen und unitären Vektorräume einführen. Wir erhalten nicht nur eine Norm aus dem Skalarprodukt für die Vektoren, sondern auch für lineare Abbildungen zwischen euklidischen oder unitären Vektorräumen. Seien nun also V und W euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann können wir für einen gegebenen Vektor v 2 V die Längen kvk und kAvk vergleichen: Ist beispielsweise A eine Isometrie, so folgt aus dem Erhalten aller Skalarprodukte sofort kAvk D kvk: (7.225) Insbesondere wird die Länge also für alle Vektoren um den gleichen Wert skaliert, nämlich um 1. Im Allgemeinen gibt es nun Richtungen, in die stärker als in andere skaliert wird. Die Operatornorm soll nun ein Maß dafür geben, wie groß die Längenverzerrung schlimmstens werden kann. Diese heuristischen Überlegungen führen dann zu folgender Definition: Definition 7.140 (Operatornorm). Seien V und W euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann heißt kAvk 2 Œ0; C1 v2Vnf0g kvk kAk D sup (7.226) 382 7 Euklidische und unitäre Vektorräume die Operatornorm von A. Eine lineare Abbildung A 2 Hom.V; W / heißt beschränkt, falls kAk < 1: (7.227) Beispiel 7.141. Wir betrachten erneut den Vektorraum der Polynome V D RŒx (7.228) mit dem Skalarprodukt, welches durch hx n ; x m i D ınm (7.229) eindeutig festgelegt ist. Mit anderen Worten, die Monome werden als orthonormal erklärt. Man sieht leicht, dass dieses Skalarprodukt wirklich positiv definit ist. Dann betrachten wir die Ableitung d W RŒx ! RŒx; dx (7.230) welche auf den Basisvektoren durch d n x D nx n1 dx (7.231) festgelegt ist und linear fortgesetzt wird. Nun gilt einerseits kx n k D 1 für alle n 2 N0 (7.232) und andererseits d n x D knx n1 k D nkx n1 k D n: dx (7.233) Daher folgt also für die Ableitung d D 1: dx (7.234) d Als lineare Abbildung hat dx in diesem Beispiel also eine unendliche Operatornorm und ist daher nicht beschränkt. Der folgende Satz zeigt, dass die Operatornorm für Abbildungen zwischen endlich-dimensionalen euklidischen oder unitären Vektorräumen immer endlich ist. Der Grund für (7.234) liegt also in der Unendlich-Dimensionalität von RŒx verborgen. 7.10 Die Operatornorm und die Approximationszahlen 383 Satz 7.142 (Operatornorm). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Sei weiter A 2 Hom.V; W /. Dann gilt kAk < 1: (7.235) Beweis. Wir wählen eine Orthonormalbasis e1 ; : : : ; en von V und eine Orthonormalbasis f1 ; : : : ; fm von W . Dann betrachten wir die Matrixdarstellung von A bezüglich dieser Basen. Es sei also Aij D hfi ; A.ej /i 2 K (7.236) für i D 1; : : : ; m und j D 1; : : : ; n, siehe Lemma 7.58. Sei weiter v 2 V gegeben, sodass also n X vD hej ; viej j D1 gemäß Proposition 7.48. Wir schätzen nun kAvk2 sehr grob durch kAvk2 D hAv; Avi D m X hAv; fi ihfi ; Avi iD1 m X n X jhej ; vij jhek ; vij jAij j jAik j iD1 j;kD1 mn2 kvk2 maxjAij j2 i;j ab, womit kAvk p mn maxjAij j i;j v2V nf0g kvk sup folgt. Insbesondere ist letztere Größe endlich, was (7.235) zeigt. t u Die Abschätzung im Beweis ist noch recht grob, und wir werden genauere Abschätzungen für die Größe kAk benötigen. Explizites Berechnen von kAk ist typischerweise schwierig, die Definition ist durch das Bilden des Supremums ja eher umständlich. Trotzdem lassen sich folgende Eigenschaften leicht zeigen: Proposition 7.143. Seien V , W und U endlich-dimensionale euklidische oder unitäre Vektorräume. 384 7 Euklidische und unitäre Vektorräume i.) Die Operatornorm ist eine Norm für Hom.V; W /. ii.) Für v 2 V und A 2 Hom.V; W / gilt kAvk kAkkvk: (7.237) iii.) Für A 2 Hom.V; W / und B 2 Hom.W; U / gilt kBAk kBkkAk: (7.238) kidV k D 1: (7.239) kA Ak D kAk2 : (7.240) kA k D kAk: (7.241) iv.) Es gilt v.) Es gilt die C -Eigenschaft vi.) Es gilt Beweis. Sei A 2 Hom.V; W /, dann ist kAk 0, da das Supremum über nichtnegative Zahlen kAvk selbst wieder nichtnegativ ist. Weiter gibt es für A ¤ 0 kvk ein v 2 V mit Av ¤ 0. Daher ist nun z 2 K, dann gilt kAvk kvk > 0 für dieses v, womit kAk > 0 folgt. Sei kzAvk jzjkAvk kAvk D sup D jzj sup D jzjkAk: kvk v2V nf0g kvk v2V nf0g v2V nf0g kvk kzAk D sup Schließlich gilt für A; A0 2 Hom.V; W / k.A C A0 /.v/k kvk v2Vnf0g kA C A0 k D sup kAv C A0 vk kvk v2Vnf0g D sup kA0 vk kAvk C kvk v2Vnf0g kvk sup kAvk kA0 vk C sup v2Vnf0g kvk v2V nf0g kvk sup D kAk C kA0 k: 7.10 Die Operatornorm und die Approximationszahlen 385 Dies zeigt alle erforderlichen Eigenschaften einer Norm. Der zweite Teil ist klar größer oder gleich allen konkreten kAvk ist, was (7.237) nach Definition, da sup kAvk kvk kvk liefert. Sei nun A 2 Hom.V; W / und B 2 Hom.W; U /. Dann liefert zweimalige Anwendung von (7.237) (7.237) (7.237) k.BA/.v/k D kB.Av/k kBkkAvk kBkkAkkvk und damit für v ¤ 0 k.BA/.v/k kBkkAk: kvk Die rechte Seite hängt nicht von v ab, daher ist auch das Supremum der linken Seite über alle v ¤ 0 noch kleiner oder gleich kAkkBk. Damit folgt (7.238). Der vierte Teil ist klar. Für den fünften betrachten wir zunächst kAvk2 D jhAv; Avij D jhv; A Avij kvkkA Avk kvk2 kA Ak: Für v ¤ 0 liefert dies kAvk sup kAk D v2Vnf0g kvk 2 !2 D sup kAvk2 v2Vnf0g kvk 2 kA Ak: Andererseits betrachten wir v ¤ 0, sodass Av ¤ 0. Dann gibt es ein w 2 W nf0g mit jhw; Avij D kAvk; (7.242) Av . Gilt Av D 0, gibt es natürlich auch ein w 2 W nf0g mit (7.242), nämlich w D kAvk da jedes w diese Eigenschaft besitzt. Nach der Cauchy-Schwarz-Ungleichung gilt aber auch jhw; Avij kwkkAvk; womit also jhw; Avij kAvk kwk w2Wnf0g sup folgt. Zusammen mit dem speziellen w mit (7.242) folgt also jhw; Avij D kAvk: kwk w2Wnf0g sup 386 7 Euklidische und unitäre Vektorräume Damit erhalten wir aber kAvk jhw; Avij sup D sup : kvk v2V nf0g v2V nf0g w2Wnf0g kwkkvk kAk D sup (7.243) Da aber jhw; Avij D jhA w; vij D jhv; A wij, können wir die Rolle von V und W sowie von A und A in (7.243) vertauschen. Dies zeigt kAk D kA k und damit Teil vi.). Nun gilt schließlich (7.238) (7.241) kA Ak kA kkAk D kAk2 ebenso wie die bereits gezeigte Abschätzung kAk2 kA Ak. Dies liefert (7.240). t u Beispiel 7.144. Viele Operatornormen können wir noch nicht berechnen, aber für folgende Klassen von linearen Abbildungen reicht unser Können bereits jetzt: i.) Ist U W V ! W eine partielle Isometrie, so gilt mit V D ker U ˚ .ker U /? und v D vk C v? kU vk D kU v? k D kv? k kvk; (7.244) womit kU k 1. Ist nun U ¤ 0 und v D v? 2 .ker U /? von null verschieden, so folgt kU vk D kvk für einen solchen Vektor. Also gilt kU k 1 und daher kU k D 1; (7.245) für jede partielle Isometrie U ¤ 0. ii.) Insbesondere gilt für jede Isometrie kU k D 1 und daher für alle A 2 O.n/ oder A 2 U.n/ kAk D 1: (7.246) iii.) Ist P D P D P 2 2 End.V / ein Orthogonalprojektor, so ist P insbesondere eine partielle Isometrie nach Proposition 7.125, iii.), da ja P P D P . Also gilt kP k D 1, falls P ¤ 0. Dies sieht man auch direkt, da kP k D kP P k D kP k2 ; (7.247) also entweder kP k D 1 oder kP k D 0. Wir wollen nun einen einfachen Weg finden, die Operatornorm von A zu bestimmen. Da wir in endlichen Dimensionen bereits über den Spektralsatz verfügen, ist dies nun sehr einfach. In unendlichen Dimensionen zeigt man zuerst folgenden 7.10 Die Operatornorm und die Approximationszahlen 387 Satz, bevor man den Spektralsatz beweisen kann. Der Beweis ist dann deutlich aufwendiger. Satz 7.145 (Operatornorm via Spektrum). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. i.) Ist A 2 End.V / selbstadjungiert mit Spektrum f1 ; : : : ; k g, so gilt kAk D max ji j: 1ik (7.248) ii.) Ist K D C und A 2 End.V / normal, so gilt ebenfalls (7.248). iii.) Ist A 2 Hom.V; W /, so gilt kAk D p kA Ak; (7.249) womit kAk gemäß (7.248) für A A berechnet werden kann. Beweis. Sei A selbstadjungiert oder sei K D C und A normal. In beiden Fällen können wir A diagonalisieren und finden eine orthogonale Zerlegung P1 ; : : : ; Pk 2 End.V / der Eins mit AD k X i P i ; iD1 wobei 1 ; : : : ; k die paarweise verschiedenen Eigenwerte von A sind. Sei nun v 2 V beliebig, dann sind die Vektoren P1 v; : : : ; Pk v paarweise orthogonal und X 2 k P v kAvk2 D i i iD1 D k X ji jkPi vk2 iD1 max ji j2 1ik k X kPi vk2 iD1 2 max ji j kvk2 ; 1ik nach dem Satz des Pythagoras. Dies zeigt kAk max ji j: 1ik 388 7 Euklidische und unitäre Vektorräume Andererseits gilt für einen Eigenvektor v ¤ 0 zum Eigenwert i0 mit ji0 j D max1ik ji j kAvk D ki0 vk D ji0 jkvk; womit kAk ji0 j folgt. Dies zeigt also die Gleichheit in (7.248) für beide Fälle i.) und ii.). p Sei nun A 2 Hom.V; W / beliebig, dann gilt mit der C -Eigenschaft kAk D kA Ak. Da A A 2 End.V / aber ein selbstadjungierter und sogar ein t u positiver Endomorphismus ist, können wir kA Ak gemäß (7.248) berechnen. Korollar 7.146. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Dann ist der größte Eigenwert von A A durch kAk2 gegeben. Korollar 7.147. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / selbstadjungiert. Dann ist kAk oder kAk ein Eigenwert von A. Bemerkung 7.148. Man beachte, dass die einfachen Eigenschaften der Operatornorm gemäß Proposition 7.143 nun durchaus nichttriviale Folgerungen über die Spektren von A C A0 oder B ı A beinhalten. Wir wollen nun eine letzte Interpretation der spektralen Information eines Endomorphismus geben. Dazu fragen wir zunächst, wie gut sich AW V ! W durch andere lineare Abbildungen approximieren lässt, deren Rang begrenzt ist: Definition 7.149 (Approximationszahlen). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann ist die n-te Approximationszahl an .A/ von A durch ˇ ˚ an .A/ D inf kA F k ˇ F 2 Hom.V; W / mit rank F n (7.250) definiert, wobei n 2 N0 . Es gilt offenbar a0 .A/ D kAk (7.251) an .A/ D 0 (7.252) und für alle n rank A, da man in diesem Fall A durch sich selbst approximieren kann. Wir erhalten also eine absteigende Folge von Zahlen kAk D a0 .A/ a1 .A/ a2 .A/ 0: (7.253) 7.10 Die Operatornorm und die Approximationszahlen 389 Die Approximationszahlen besitzen nun folgende Eigenschaften: Proposition 7.150. Seien V , W und U endlich-dimensionale euklidische oder unitäre Vektorräume und n; m 2 N0 . i.) Für alle A; B 2 Hom.V; W / gilt anCm .A C B/ an .A/ C am .B/: (7.254) ii.) Für alle A; B 2 Hom.V; W / gilt jan .A/ an .B/j kA Bk: (7.255) iii.) Für alle A 2 Hom.V; W / und B 2 Hom.W; U / gilt anCm .BA/ an .A/am .B/: (7.256) iv.) Für alle A 2 Hom.V; W / gilt an .A/ D 0 ” rank A n: (7.257) Beweis. Seien F; G 2 Hom.V; W /, dann gilt ganz allgemein rank.F C G/ D dim im.F C G/ dim im F C dim im G D rank F C rank G: Sind also F und G mit rank F n und rank G m gegeben, so folgt rank.F C G/ n C m und damit anCm .A C B/ kA C B F Gk kA F k C kB Gk: Bildet man nun über die rechte Seite die entsprechenden Infima, so bleibt die Ungleichung bestehen, da die linke Seite ja nicht von F oder G abhängt. Also folgt anCm .A C B/ infkA F k C infkB Gk D an .A/ C am .B/: F G Damit und mit a0 .A/ D kAk gilt auch an .A/ D anC0 .A B C B/ an .B/ C a0 .A B/ D an .B/ C kA Bk; also an .A/ an .B/ kA Bk. Vertauscht man nun die Rollen von A und B, so erhält man insgesamt (7.255). Für iii.) betrachten wir F 2 Hom.V; W / mit rank F n und G 2 Hom.W; U / mit rank G m. Da im.GA/ im G, folgt ˇ rank.GA/ rank G. Da im..B G/F / D im..B G/ˇim F /, kann im..B 390 7 Euklidische und unitäre Vektorräume G/F / höchstens dim.im F / viele linear unabhängige Vektoren enthalten. Also gilt rank..B G/F / rank F . Insgesamt folgt daher rank.GA C .B G/F / n C m: Damit folgt anCm .BA/ kBA .GA C .B G/F /k D k.B G/.A F /k kB GkkA F k für alle solchen F und G. Die linke Seite ist davon aber unabhängig, sodass wir wieder das Infimum bilden können, ohne die Ungleichung zu verletzen. Also folgt anCm .BA/ infkB Gk infkA F k D am .B/an .A/: G F Für den letzten Teil hatten wir die Implikation „ (H “ bereits gesehen. Sei also rank A > n. Dann gibt es also v1 ; : : : ; vnC1 2 V , sodass Av1 ; : : : ; AvnC1 linear unabhängig sind. Wir können diese zu einer Basis von W ergänzen und dann die zugehörige duale Basis von W betrachten. Auf diese Weise zeigt man, dass es '1 ; : : : ; 'nC1 2 W mit 'i .Avj / D ıij für alle i; j D 1; : : : ; n C 1 gibt. Wir betrachten nun KnC1 mit seiner Standardbasis e1 ; : : : ; enC1 und den zugehörigen Koordinaten zi D hei ; zi für z 2 KnC1 . Seien dann BW KnC1 3 z 7! nC1 X zi vi 2 V iD1 und C W W 3 w 7! nC1 X 'i .w/ei 2 KnC1 : iD1 Dies sind lineare Abbildungen mit CABz D nC1 X iD1 zi CA.vi / D nC1 X nC1 X zi 'j .Avi / ei D „ ƒ‚ … iD1 j D1 ıij nC1 X iD1 zi ei D z; 7.10 Die Operatornorm und die Approximationszahlen 391 also CAB D idK nC1 . Wir behaupten, dass an .idK nC1 / D 1 gilt. Ist nämlich F 2 MnC1 .K/ mit rank F n gegeben, so ist ker F ¤ f0g. Für v 2 ker F gilt daher k.idK nC1 F /.v/k D kvk und somit kidK nC1 F k 1. Also folgt durch Infimumbildung an .idK nC1 / 1. Da aber a0 .idK nC1 / D 1, folgt an .idK nC1 / D 1 wegen (7.253). Wir wenden dies nun auf idK nC1 D CAB an und benutzen iii.). Damit gilt 1 D an .idK nC1 / D an .CAB/ an .CA/a0 .B/ a0 .C /an .A/a0 .B/: Also muss an .A/ > 0 gelten. t u Den Zusammenhang zwischen den Approximationszahlen und den spektralen Daten von A liefert nun folgender Satz: Satz 7.151 (Approximationszahlen). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann gilt für alle n 2 N0 an .A/ D sn .A/: (7.258) Beweis. Gemäß Satz 7.136 können wir A in der Singulärwertzerlegung als AD X sr .A/fr ;er r 0 mit geeigneten Orthonormalsystemen ffr gr in W und fer gr in V schreiben, wobei die Summe nur endlich viele Terme enthält. Wir schreiben im Folgenden An D n1 X sr .A/fr ;er : rD0 Da die Abbildungen fr ;er gerade Rang 1 besitzen, folgt rank An n: Für v 2 V berechnen wir nun X 2 s .A/ .v/ kA An k2 D n fr ;er r n D X r n sr .A/2 kfr ;er .v/k2 392 7 Euklidische und unitäre Vektorräume sn .A/2 X kfr ;er .v/k2 ; r n da sn .A/ der größte verbleibende Singulärwert in der Summe ist und wir zuerst den Satz des Pythagoras verwenden dürfen. Weiter gilt kfr ;er .v/k2 D kfr her ; vik2 D jher ; vij2 ; da die fr orthonormiert sind. Damit folgt aber k.A An /vk2 sn .A/2 kvk2 nach der Parsevalschen Gleichung beziehungsweise der zugehörigen Ungleichung für ein Orthonormalsystem. Also gilt kA An k sn .A/. Andererseits folgt für v D en gerade X k.A An /en k2 D s .A/ .e / r fr ;er n D ksn .A/fn k D sn .A/; r n da fn ein Einheitsvektor ist und her ; en i D ınr gilt. Also haben wir kA An k D sn .A/ gezeigt. Für an .A/ müssen wir aber sogar das Infimum von kA F k über alle F mit rank F n bilden, womit an .A/ sn .A/ gezeigt ist. Sei nun F 2 Hom.V; W / mit rank F n < dim V gegeben. Da die Vektoren e0 ; : : : ; en ein Orthonormalsystem bilden, gibt es mindestens einen Vektor v 2 spanfe0 ; : : : ; en g mit kvk D 1, aber F v D 0 nach der Dimensionsformel. Für diesen Vektor gilt kA F k2 k.A F /vk2 2 X D sr .A/fr ;er .v/ 0 r 0 n 2 X D s .A/f he ; vi r r r rD0 D n X sr .A/2 jher ; vij2 rD0 n X sn .A/ jher ; vij2 2 rD0 (7.259) 7.11 Übungen 393 D sn .A/2 kvk2 ; da sn .A/ der kleinste Singulärwert in der Summe (7.259) ist und wir wieder die Parsevalsche Gleichung für v sowie den Satz des Pythagoras verwenden dürfen. Dies zeigt an .A/ sn .A/ und somit insgesamt die Gleichheit. t u Bemerkung 7.152. Dieser Satz kann nun in beide Richtungen gelesen werden: Zum einen erhalten wir nichttriviale Ungleichungen für die Eigenwerte positiver Operatoren aus den vergleichsweise einfachen Ungleichungen für die Approximationszahlen in Proposition 7.150. Zum anderen können wir die Bedeutung der singulären Werte von A als Approximationseigenschaften verstehen. Kontrollfragen. Welche Eigenschaften hat die Operatornorm? Welche Beziehung von Operatornorm und Spektrum kennen Sie? Was sind die Approximationszahlen und wie können Sie diese bestimmen? 7.11 Übungen Übung 7.1 (Indefinite innere Produkte). Betrachten Sie auf dem Vektorraum Mn .R/ der reellen n n-Matrizen die Abbildung hA; Bi D tr.AB/; (7.260) wobei tr wie immer die Spur bezeichnet. i.) Zeigen Sie, dass h ; i eine symmetrische Bilinearform auf Mn .R/ ist. ii.) Zeigen Sie, dass h ; i nicht-ausgeartet ist. Hinweis: Ein geschicktes Auswerten auf einer geeigneten Basis ist hier hilfreich. iii.) Ist h ; i positiv oder negativ definit? Übung 7.2 (Innere Produkte auf W ˚ W ). Sei W ein endlich-dimensionaler Vektorraum über einem Körper der Charakteristik null. Betrachten Sie dann den Vektorraum V D W ˚ W aus Übung 5.48. Definieren Sie auf V die beiden Abbildungen h.v; ˛/; .w; ˇ/i D ˇ.v/ C ˛.w/ (7.261) !..v; ˛/; .w; ˇ// D ˛.w/ ˇ.v/; (7.262) und wobei v; w 2 W und ˛; ˇ 2 W . 394 7 Euklidische und unitäre Vektorräume i.) Zeigen Sie, dass h ; i eine symmetrische und ! eine antisymmetrische Bilinearform ist. Zeigen Sie, dass beide nicht-ausgeartet sind. Gelten diese Aussagen auch für einen unendlich-dimensionalen Vektorraum W ? ii.) Sei e1 ; : : : ; en 2 W eine Basis mit dualer Basis e1 ; : : : ; en 2 W . Bestimmen Sie die darstellenden Matrizen von h ; i und von ! bezüglich der Basis e1 ; : : : ; en ; e1 ; : : : ; en von W ˚ W . iii.) Sei nun zudem k D R. Ist h ; i dann positiv definit? Übung 7.3 (Innere Produkte auf Unterräumen). Sei h ; i ein inneres Produkt auf einem Vektorraum über k. i.) Zeigen Sie, dass die Einschränkung von h ; i auf einen Unterraum U V eine Bilinearform auf U liefert. ii.) Finden Sie in zwei Dimensionen eine Beispiel für ein inneres Produkt und einen Unterraum, sodass die Einschränkung auf den Unterraum identisch null ist: Im Allgemeine ergibt die Einschränkung eines inneren Produktes auf einen Unterraum also kein inneres Produkt. iii.) Zeigen Sie, dass für k D R und ein positiv definites inneres Produkt die Einschränkung auf einen Unterraum wieder positiv definit ist. iv.) Formulieren und beweisen Sie die analogen Aussagen für sesquilineare innere Produkte für k D C. Übung 7.4 (Die Parallelogramm-Identität). Sei h ; i ein positiv definites Skalarprodukt auf einem Vektorraum V über K. i.) Zeigen Sie, dass die zugehörige Norm die Parallelogramm-Identität (7.53) erfüllt. ii.) Zeigen Sie, dass sich das Skalarprodukt h ; i aus der Norm durch Polarisierung gemäß (7.54) beziehungsweise (7.55) rekonstruieren lässt. iii.) Zeigen Sie umgekehrt, dass eine Norm, welche die Parallelogramm-Identität erfüllt, von einem Skalarprodukt kommt. Dies erfordert den Einsatz von etwas Analysis. Hinweis: Definieren Sie h ; i versuchsweise durch (7.54) beziehungsweise (7.55). Zeigen Sie, dass dann die Parallelogramm-Identität die Additivität von h ; i in beiden Argumenten liefert. Folgern Sie aus der Additivität die Q -Linearität. Zeigen Sie im komplexen Fall, dass h ; i im zweiten Argument auch „i-linear“ ist. Um die K -Linearität im zweiten Argument zu folgern, müssen Sie eine geeignete Stetigkeitseigenschaft von h ; i bezüglich der Norm k k zeigen und entsprechend reelle Zahlen durch rationale approximieren. Übung 7.5 (Maximumsnorm). Sei V ein reeller oder komplexer Vektorraum und B eine Basis. Dann definiert man kvkmax D maxjvb j; b2B (7.263) 7.11 Übungen 395 wobei wie immer vb 2 K die Komponenten von v bezüglich der Basisvektoren b 2 B sind. i.) Zeigen Sie, dass k kmax tatsächlich eine Norm ist. Wieso existiert das Maximum? ii.) Zeigen Sie, dass die Maximumsnorm genau dann die Parallelogramm-Identität erfüllt, wenn dim V 1 gilt. iii.) Vergleichen Sie für V D R2 die Maximumsnorm bezüglich der Standardbasis mit der euklidischen Norm des Standardskalarprodukts. Skizzieren Sie insbesondere die Normkreise bezüglich beider Normen, also die Teilmengen von R2 von Vektoren mit fester Norm r > 0. Übung 7.6 (Orthogonalkomplement). Sei V ein euklidischer oder unitärer Vektorraum. i.) Zeigen Sie, dass für U V das Orthogonalkomplement durch U? D \ ker v [ (7.264) v2U gegeben ist, wobei v [ D hv; i 2 V wie in Bemerkung 7.2, iii.). ii.) Zeigen Sie, dass .U ? /?? D .U ?? /? für jede Teilmenge U V gilt. iii.) Seien nun U; W V Unterräume. Zeigen Sie, dass dann .U ? C W ? /?? D .U \ W /? : (7.265) Wie vereinfacht sich dies in endlichen Dimensionen? Übung 7.7 (Rechenregeln für v;w ). Betrachten Sie euklidische oder unitäre Vektorräume V , W , U und X sowie für v 2 V und w 2 W die Abbildung w;v W V ! W wie in Beispiel 7.67, iii.). i.) Zeigen Sie dass w 7! w;v eine lineare Abbildung W ! Hom.V; W / liefert. ii.) Zeigen Sie entsprechend, dass v 7! w;v antilinear ist. iii.) Seien nun AW U ! V adjungierbar und BW W ! X linear. Zeigen Sie w;v ı A D w;A v (7.266) B ı w;v D Bw;v : (7.267) sowie Bestimmen Sie damit explizit x;w0 ı w;v für x 2 X und w0 2 W . iv.) Zeigen Sie rank w;v D 1 für v; w ¤ 0. 396 7 Euklidische und unitäre Vektorräume v.) Seien V und W endlich-dimensional. Zeigen Sie, dass dann jede lineare Abbildung AW V ! W von der Form A D w;v ist. Hinweis: Wählen Sie w 2 im A und zeigen Sie A.v/ D ˛.v/w für ein eindeutig bestimmtes ˛ 2 V . Übung 7.8 (Pauli-Matrizen III). Betrachten Sie erneut die Pauli-Matrizen aus Übung 5.28. i.) Zeigen Sie, dass die Pauli-Matrizen selbstadjungiert sind. ii.) Bestimmen Sie die Eigenwerte und die Eigenvektoren der Pauli-Matrizen. Weisen Sie explizit nach, dass die Eigenvektoren zu verschiedenen Eigenwerten senkrecht stehen. iii.) Bestimmen Sie den Positivteil und den Negativteil sowie den Absolutbetrag der Pauli-Matrizen explizit. Übung 7.9 (Gerade und ungerade stetige Funktionen). Betrachten Sie die stetigen Funktionen C.Œa; a; C/ auf einem Intervall Œa; a R. Definieren Sie das L2 -Skalarprodukt gemäß Beispiel 7.20. i.) Zeigen Sie, dass die geraden ebenso wie die ungeraden stetigen Funktionen einen Unterraum von C.Œa; a; C/ bilden. Hinweis: Übung 4.20. ii.) Zeigen Sie, dass die geraden auf die ungeraden stetigen Funktionen senkrecht stehen. iii.) Folgern Sie, dass C.Œa; a; C/ die orthogonale direkte Summe der geraden und ungeraden stetigen Funktionen ist. Übung 7.10 (Eine Ungleichung für Integrale). Betrachten Sie den komplexen Vektorraum C.I; C/, wobei I D Œa; b R ein kompaktes Intervall sein soll. Zeigen Sie, dass für alle f; g 2 C.I; C/ ˇZ ˇ Z Z ˇ ˇ ˇ f .x/g.x/dx ˇ jf .x/j2 dx jg.x/j2 dx: ˇ ˇ I I (7.268) I Übung 7.11 (Innere Produkte für Polynome). Sei Vn CŒx der Unterraum der Polynome vom Grad n. Definieren Sie dann hp; qi D n X p.k/q.k/ kD0 für p; q 2 Vn . i.) Zeigen Sie, dass (7.269) ein Skalarprodukt auf Vn ist. (7.269) 7.11 Übungen 397 ii.) Starten Sie mit der Basis der Monome und führen Sie den Gram-SchmidtAlgorithmus durch, um eine Orthonormalbasis von V4 bezüglich (7.269) zu finden. Übung 7.12 (Orthogonales Komplement). Betrachten Sie die Vektoren 0 0 1 2 B2C C v2 D B @iA 0 1 i B0C C v1 D B @1A und 2 (7.270) in C4 , versehen mit dem Standardskalarprodukt. Sei U D span -fv1 ; v2 g. Bestimmen Sie eine Orthonormalbasis von U und U ? . Übung 7.13 (Gram-Schmidt-Verfahren). Betrachten Sie die Vektoren 0 1 1 B0C C v1 D B @ 0 A; 1 0 1 3 B1C C v2 D B @2A und 1 0 1 2 B1C C v3 D B @0A 1 (7.271) in R4 , versehen mit dem Standardskalarprodukt. i.) Führen Sie explizit das Gram-Schmidt-Verfahren durch, um eine Orthonormalbasis f1 ; f2 ; f3 von spanfv1 ; v2 ; v3 g zu gewinnen. ii.) Ergänzen Sie f1 ; f2 ; f3 um einen Vektor f4 zu einer Orthonormalbasis von R4 . iii.) Bestimmen Sie explizit die Matrix des Basiswechsels O von der Standardbasis zur Basis f1 ; f2 ; f3 ; f4 sowie deren Inverses. Rechnen Sie explizit nach, dass O orthogonal ist. Übung 7.14 (Unitär diagonalisieren). Betrachten Sie folgende komplexe 3 3Matrizen 1 211 A D @1 2 1A; 112 0 1 4 i i B D @i 4 1 A und i 1 4 0 1 1 C i i 2 C D @ i 1 C i 2i A: 2 2i 1 C i 0 (7.272) i.) Berechnen Sie A , B und C . ii.) Bestimmen Sie die Eigenwerte von A, B und C . iii.) Bestimmen Sie Orthonormalbasen von Eigenvektoren für A, B und C . Wieso muss es diese geben? 398 7 Euklidische und unitäre Vektorräume iv.) Bestimmen Sie unitäre Matrizen U; V; W 2 M3 .C/, sodass UAU , VBV und W C W diagonal sind. Können Sie zudem erreichen, dass diese Matrizen orthogonal sind? Übung 7.15 (Adjungierbare Abbildungen). Betrachten Sie den Vektorraum der C-wertigen, unendlich oft stetig differenzierbaren Funktionen C01 .R; C/ mit kompaktem Träger. d ein Endomorphismus auf C01 .R; C/ i.) Zeigen Sie, dass die Ableitung P D i dx ist. ii.) Zeigen Sie, dass Z hf; gi D f .x/g.x/dx (7.273) ein Skalarprodukt auf C01 .R; C/ definiert. Hinweis: Die Sesquilinearität ist einfach, sobald Sie argumentiert haben, wieso das Integral überhaupt definiert ist. Für die Positivität müssen Sie sich an Beispiel 7.20 orientieren. iii.) Zeigen Sie, dass die Abbildung P adjungierbar ist und bestimmen Sie P . Hinweis: Hier müssen Sie partiell integrieren. Wieso gibt es keine störenden Randterme? iv.) Betrachten Sie auch den Multiplikationsoperator Mf W C01 .R; C/ 3 7! .x 7! f .x/ .x// 2 C01 .R; C/ (7.274) mit einer unendlich oft stetig differenzierbaren Funktion f 2 C 1 .R; C/. Zeigen Sie, dass Mf ebenfalls ein wohldefinierter Endomorphismus ist, welcher adjungierbar ist. Bestimmen Sie auch hier Mf . v.) Sei schließlich y 2 R fest gewählt. Für 2 C01 .R; C/ definiert man dann die Translation y um y durch .y /.x/ D .x y/; (7.275) wobei x 2 R. Zeigen Sie auch hier, dass y 2 C01 .R; C/ und y eine lineare Abbildung ist. Zeigen Sie, dass y ebenfalls adjungierbar ist und bestimmen Sie y . Hinweis: Hier müssen Sie eine einfache Variablensubstitution beim Integrieren durchführen. Übung 7.16 (Die Hilbert-Schmidt-Norm). Für eine Matrix A 2 Mn .K/ definiert man die Hilbert-Schmidt-Norm durch p (7.276) kAk2 D tr.A A/: i.) Zeigen Sie, dass die Hilbert-Schmidt-Norm wirklich eine Norm auf dem Vektorraum Mn .K/ ist. 7.11 Übungen 399 ii.) Zeigen Sie, dass es auf Mn .K/ ein eindeutig bestimmtes Skalarprodukt h ; iHS gibt, welches die Hilbert-Schmidt-Norm als zugehörige Norm liefert. iii.) Finden Sie eine besonders einfache Orthonormalbasis von Mn .K/ bezüglich h ; iHS . iv.) Zeigen Sie, dass die Operatornorm und die Hilbert-Schmidt-Norm äquivalent sind, indem Sie explizit eine Abschätzung der Form c1 kAk kAk2 c2 kAk (7.277) mit c1 ; c2 > 0 finden. Übung 7.17 (Normale Blockmatrizen). Matrix X 2 MnCm .C/ mit Blockstruktur Betrachten Sie n; m 2 N und eine A B XD C D (7.278) mit entsprechenden Blöcken A; B; C und D. i.) Bestimmen Sie die Blöcke von X . ii.) Wann ist X selbstadjungiert, wann normal? iii.) Zeigen Sie, dass für eine normale Matrix X mit C D 0 auch B D 0 gelten muss. Hinweis: Hier ist die Hilbert-Schmidt-Norm aus Übung 7.16 hilfreich. Übung 7.18 (Drehungen parametrisieren). Sei R 2 SO.3/ eine echte Drehung ungleich 1. i.) Zeigen Sie, dass es einen eindeutig bestimmten Einheitsvektor nE 2 R3 , die Drehachse von R, sowie zwei weitere Einheitsvektoren vE1 ; vE2 2 R3 und einen eindeutigen Drehwinkel ˛ 2 .0; gibt, sodass vE1 ; vE2 ; nE ein rechtshändiges Orthonormalsystem, also nE D vE1 vE2 , im R3 bilden und v1 sin.˛/E v2 ; RE v1 D cos.˛/E und RE v2 D sin.˛/E v1 C cos.˛/E v2 ; (7.279) sowie RE n D nE gilt. Welche Aussagen bleiben für R D 1 gültig? Hinweis: Benutzen Sie die allgemeine Normalform für orthogonale Abbildungen. Wie erhalten Sie die zusätzliche Einschränkung an den Drehwinkel? ii.) Zeigen Sie tr R D 1 C 2 cos.˛/. Bleibt dies auch für R D 1 gültig? Auf diese Weise können Sie bei einer Drehung direkt und basisunabhängig den Drehwinkel bestimmen. iii.) Zeigen Sie, dass RxE D cos.˛/xE C .1 cos.˛//hE n; xiE E n C sin.˛/E n xE (7.280) 400 7 Euklidische und unitäre Vektorräume für alle xE 2 R3 . Wie können Sie diese Formel auch für R D 1 verstehen? iv.) Zeigen Sie umgekehrt, dass für jeden Einheitsvektor nE und jede reelle Zahl ˛ die durch (7.280) gegebene Abbildung eine echte Drehung ist. Wie kommen Sie zu den eindeutigen Parametern gemäß Teil i.)? v.) Bestimmen Sie die Matrix der Drehung um die Achse durch 0 1 1 @ aE D 2A 2 (7.281) um einen Winkel von 30ı explizit. Verifizieren Sie durch Nachrechnen, dass aE ein Eigenvektor der Drehmatrix ist. Übung a b 7.19 (Unitäre 2 2-Matrizen). Betrachten Sie eine 2 2-Matrix A D c d 2 M2 .C/. i.) Bestimmen Sie diejenigen a; b; c; d 2 C, für die A unitär ist. Bestimmen Sie in diesem Fall die zugehörige inverse Matrix. Verifizieren Sie durch eine explizite Rechnung, dass die unitären Matrizen eine Untergruppe von GL2 .C/ bilden. ii.) Für welche Werte der Parameter a; b; c; d 2 C ist die Matrix A sogar speziell unitär? Bestimmen Sie auch in diesem Fall die inverse Matrix explizit und weisen Sie die Eigenschaft einer Untergruppen nach. iii.) Betrachten Sie die Menge S3 der Vektoren z 2 C2 mit Norm 1. Geometrisch entspricht dies einer dreidimensionalen Sphäre im R4 . Zeigen Sie, dass Ihre obige Parametrisierung auf einfache Weise eine Bijektion von SU.2/ nach S3 liefert. Übung 7.20 (Positiv definite Matrix). Betrachten Sie die komplexen 3 3-Matrizen 1 5 2 1 A1 D @ 2 2 2 A; 1 2 5 0 1 1 3 i A2 D @0 3 4 A und 00 2 0 1 i 10 A3 D @1 i 0A: 0 03 0 (7.282) i.) Bestimmen Sie die Eigenwerte mit den zugehörigen Eigenvektoren der Matrizen A1 , A2 und A3 . ii.) Welche der Matrizen A1 , A2 , A3 sind positiv, welche sogar positiv definit? Übung 7.21 (Positiv definite 22-Matrizen). Zeigen Sie, dass A D A 2 M2 .C/ genau dann positiv definit ist, wenn tr.A/ > 0 und det.A/ > 0 gilt. Übung 7.22 (Das Lot fällen). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum mit einem Unterraum U V . Sei weiter v 2 V . Definieren Sie den Abstand von v zu U durch 7.11 Übungen 401 ˇ ˚ d .v; U / D inf kv uk ˇ u 2 U : (7.283) i.) Zeigen Sie, dass d .v; U / D 0 genau dann gilt, wenn v 2 U . ii.) Zeigen Sie, dass es einen eindeutig bestimmten Vektor u 2 U gibt, sodass das Infimum als Minimum realisiert wird, also d .v; U / D kv uk gilt. Wie können Sie u explizit bestimmen? Übung 7.23 (Das Skalarprodukt auf dem Dualraum). Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum. Für ˛; ˇ 2 V definiert man dann h˛; ˇi D ˛.ˇ ] /; (7.284) wobei ] W V ! V der (inverse) musikalische Isomorphismus zum Skalarprodukt von V ist. i.) Sei e1 ; : : : ; en eine Basis von V . Zeigen Sie, dass für die dualen Basisvektoren ei D e[i für alle i D 1; : : : ; n genau dann gilt, wenn e1 ; : : : ; en eine Orthonormalbasis ist. ii.) Sei e1 ; : : : ; en eine Orthonormalbasis von V . Zeigen Sie, dass h˛; ˇi D n X ˛.ei /ˇ.ei / (7.285) iD1 für alle ˛; ˇ 2 V gilt. iii.) Zeigen Sie, dass h ; i ein Skalarprodukt auf V definiert. Man nennt h ; i auch das duale Skalarprodukt zu h ; i. iv.) Bestimmen Sie hv [ ; w[ i für v; w 2 V . Finden Sie so eine weitere Charakterisierung des dualen Skalarprodukts. Übung 7.24 (Erstellen von Übungen IV). Alltag einer Übungsgruppenleiterin: Wieder einige Probleme aus dem i.) Finden Sie in Dimensionen n D 2; 3 und 4 unitäre Matrizen zu vorgegebenen Eigenwerten in S1 , die kompliziert genug sind, damit man die Eigenvektoren nicht erraten kann. Hinweis: Eine Möglichkeit ist es, komplizierte Produkte von besonders einfachen, nichtdiagonalen unitären Matrizen zu bilden: Sind U und V unitär, so ist U V U ebenfalls unitär und hat das gleiche Spektrum wie V (wieso?). Geben Sie nun interessante Matrizen U an, um neue unitäre Matrizen U V U aus einem vorgegebenen V zu konstruieren. ii.) Geben Sie ein einfaches Verfahren an, um eine orthogonale Zerlegung der Eins zu konstruieren, wobei Sie in n Dimensionen den jeweiligen Rang der k Projektoren einzeln vorgeben wollen. iii.) Geben Sie ein Verfahren an, mit dem Sie auf einfache Weise positive n nMatrizen in Mn .K/ erzeugen können, deren Rang Sie ebenfalls vorgeben 402 7 Euklidische und unitäre Vektorräume können. Wie immer sollen die Einträge der Matrix kleine ganze Zahlen oder andere einfache komplexe Zahlen sein. Hinweis: Zeigen Sie zunächst rank.A A/ D rank.A/. Übung 7.25 (Partielle Isometrien). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. i.) Finden Sie ein Beispiel von zwei partiellen Isometrien U1 und U2 derart, dass U1 U2 keine partielle Isometrie mehr ist. ii.) Zeigen Sie, dass für eine partielle Isometrie U W V ! W und für Isometrien O 2 End.V / und R 2 End.W / die Abbildung RUO wieder eine partielle Isometrie ist. iii.) Zeigen Sie, dass ein Orthogonalprojektor P 2 End.V / eine partielle Isometrie ist. iv.) Seien P; Q 2 End.V / Orthogonalprojektoren. Zeigen Sie, dass es genau dann eine partielle Isometrie U 2 End.V / mit U U D P und U U D Q gibt, wenn dim im P D dim im Q gilt. v.) Zeigen Sie, dass zwei Orthogonalprojektoren P; Q 2 End.V / genau dann unitär (orthogonal) konjugiert sind, also Q D UP U für eine unitäre (orthogonale) Abbildung U gilt, wenn dim im P D dim im Q. vi.) Zeigen Sie, dass eine lineare Abbildung U W V ! W genau dann eine partielle Isometrie ist, wenn es Orthonormalbasen A und B von V und W gibt, sodass die zugehörige Matrix von U die Blockform 1k 0 B ŒUA D 0 0 (7.286) mit einer k k-Einheitsmatrix 1k hat. Welche Bedeutung hat k? Übung 7.26 (Erstellen von Übungen V). Es sollen nun noch einfache Beispiele für Polarzerlegungen gefunden werden. i.) Sei D 2 Mn .K/ eine Diagonalmatrix. Was ist die Polarzerlegung von D? ii.) Seien A; B 2 Mn .K/ mit A D UBU für eine orthogonale beziehungsweise unitäre Matrix U . Bestimmen Sie die Polarzerlegung A D UA jAj bei bekannter Polarzerlegung B D UB jBj. iii.) Kombinieren Sie beide Resultate, um einfache Zahlenbeispiele für Matrizen A zu finden, deren Polarzerlegung Sie bestimmen können. Wieso erhalten Sie auf diese Weise nur normale A? iv.) Betrachten Sie nun A; B 2 Mnm .K/ derart, dass es orthogonale beziehungsweise unitäre Matrizen U und V mit A D UBV gibt. Welche Größe haben U und V dann? Bestimmen Sie nun die Polarzerlegung von A bei bekannter Polarzerlegung B D UB jBj. Wieso erhalten Sie so interessantere Zahlenbeispiele? Konstruieren Sie explizite Beispiele für kleine n und m. 7.11 Übungen 403 Übung 7.27 (Orthogonalität in unendlichen Dimensionen). Seien a < b reelle Zahlen. Betrachten Sie dann den unitären Vektorraum C.Œa; b; C/ der stetigen komplexwertigen Funktionen auf Œa; b mit dem L2 -Skalarprodukt wie in Beispiel 7.20. Sei weiter c 2 .a; b/. i.) Zeigen Sie, dass ˇ ˚ U D f 2 C.Œa; b; C/ ˇ f .x/ D 0 für x c (7.287) ein Untervektorraum von C.Œa; b; C/ ist. ii.) Bestimmen Sie das Orthogonalkomplement U ? von U explizit und charakterisieren Sie die darin enthaltenen Funktionen. iii.) Zeigen Sie, dass U ?? D U gilt. iv.) Zeigen Sie, dass die konstante Funktion f .x/ D 1 nicht in U ?? ˚ U ? enthalten ist. Dieses Beispiel zeigt, dass in unendlichen Dimensionen die Aussagen von Proposition 7.36 im Allgemeinen nicht gelten. Übung 7.28 (Fourier-Analysis). In dieser Übung sollen diejenigen Aspekte der Fourier-Analysis vorbereitet werden, die mit Mitteln der linearen Algebra zu erreichen sind. Wir betrachten den Vektorraum C.Œ ; ; C/ der komplexwertigen stetigen Funktionen auf dem kompakten Intervall Œ ; und versehen ihn mit dem üblichen L2 -Skalarprodukt aus Beispiel 7.20. Weiter betrachten wir die Funktionen cn 2 C.Œ ; ; C/, welche durch cn .x/ D cos.nx/ (7.288) für n 2 N0 definiert sind, sowie die Funktionen sm 2 C.Œ ; ; C/ mit sm .x/ D sin.mx/ (7.289) für m 2 N. Insbesondere ist also c0 .x/ D 1. i.) Zeigen Sie, dass die Funktionen cn und sm für n 2 N0 und m 2 N alle paarweise orthogonal stehen. Hinweis: Hier erspart Übung 4.20 einiges an Rechnung. ii.) Bestimmen Sie die Normen kcn k und ksm k, um so ein abzählbares Orthonormalsystem F von C.Œ ; ; C/ durch geeignetes Reskalieren der cn und sm zu erhalten. iii.) Geben Sie eine stetige Funktion f 2 C.Œ ; ; C/ an, die nicht im Spann des obigen Orthonormalsystems liegt. Damit zeigen Sie, dass die obigen Funktionen keine Basis bilden. 404 7 Euklidische und unitäre Vektorräume iv.) Die Skalarprodukte von f mit den Vektoren aus F heißen Fourier-Koeffizienten der Funktion f . Bestimmen Sie diese für die Funktion f .x/ D x. v.) Plotten Sie die Fourier-Approximationen der Funktion f .x/ D x für die ersten n D 1; 2; 3; 4; 5; 6 Beiträge, also die Linearkombination der ersten n Vektoren aus F mit den entsprechenden Fourier-Koeffizienten von f . In der Fourier-Analysis wird nun allgemein untersucht, ob das analytische Analogon der Basisentwicklung wie in Proposition 7.48 dadurch gerettet werden kann, dass man eine (konvergente) Reihe anstelle der Summe (7.78) zulässt. Die Konvergenz dieser Fourier-Reihe ist dann ein nichttriviales Problem, welches nicht unerheblichen analytischen Aufwand erfordert, siehe auch [19, Chap. 5 und Chap. 9] oder [2, Kap. VI.7]. Übung 7.29 (Legendre-Polynome). Betrachten Sie den Vektorraum C.Œ1; 1; C/ mit dem üblichen L2 -Skalarprodukt wie in Beispiel 7.20. i.) Zeigen Sie, dass die Monome fx n gn2N 0 , aufgefasst als Funktionen in C.Œ1; 1; C/, linear unabhängig sind. Hinweis: Vorsicht, dies ist nicht eine unmittelbare Folgerung aus Übung 4.13. ii.) Berechnen Sie alle Skalarprodukte hx n ; x m i der Monome für n; m 2 N0 . iii.) Führen Sie das Gram-Schmidt-Verfahren für die Monome fx n gn2N 0 für die ersten 5 Monome explizit durch. iv.) Zeigen Sie, dass das Gram-Schmidt-Verfahren neue Polynome pn 2 C.Œ1; 1; C/ liefert, welche für n gerade nur gerade Potenzen von x enthalten und für n ungerade nur ungerade Potenzen. Hinweis: Hier spart Übung 7.9 einiges an Arbeit. v.) Reskalieren Sie die Polynome pn zu Polynomen Pn derart, dass Pn .1/ D 1 für alle n 2 N0 . Zeigen Sie dann, dass diese Polynome explizit durch Œn=2 Pn .x/ D X kD0 .1/k .2n 2k/Š x n2k .n k/Š.n 2k/ŠkŠ2n (7.290) gegeben sind. Hier bezeichnet Œn=2 entweder n=2 für n gerade oder .n 1/=2 für n ungerade. Die Polynome Pn heißen Legendre-Polynome. vi.) Berechnen Sie explizit hPn ; Pm i für n; m 2 N0 und verifizieren Sie die Orthogonalität der Legendre-Polynome anhand der expliziten Formel (7.290). Übung 7.30 (S1 und U.1/). Zeigen Sie, dass detW U.1/ ! S1 ein Gruppenisomorphismus ist. Übung 7.31 (Eine Verallgemeinerung von Lemma 7.130). Betrachten Sie die Situation von Lemma 7.130 mit dem einzigen Unterschied, dass nun B D zB und C D zC mit demselben z 2 K mit jzj D 1. Zeigen Sie, dass für diese 7.11 Übungen 405 etwas allgemeineren Voraussetzungen die Schlussfolgerungen des Lemmas richtig bleiben, und formulieren Sie die entsprechende Variante von Proposition 7.131. Übung 7.32 (Polarzerlegung für normale Abbildungen). Sei A 2 End.V / ein normaler Endomorphismus eines endlich-dimensionalen euklidischen oder unitären Vektorraums. Vergleichen Sie die beiden Phasen aus der Polarzerlegung A D U jAj gemäß Satz 7.127 und Satz 7.129. Wann stimmen diese überein? Übung 7.33 (Nochmals Positivität). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V / selbstadjungiert. Zeigen Sie, dass folgende Aussagen äquivalent sind: i.) Die Abbildung A ist positiv. ii.) Für alle t kAk gilt kt 1 Ak t . iii.) Es gibt ein t kAk mit kt 1 Ak t . Übung 7.34 (Orthogonalprojektor). Betrachten Sie die reelle Matrix 0 P D 5 6 1 3 1 3 1 @ 3 1 1 6 3 16 1 3 5 6 1 A: (7.291) i.) Zeigen Sie, dass P ein Orthogonalprojektor ist. ii.) Bestimmen Sie den Rang von P . iii.) Bestimmen Sie eine Orthonormalbasis des Bildes und des Kerns von P sowie den Basiswechsel O von der Standardbasis auf diese Basis. iv.) Verifizieren Sie, dass O orthogonal ist. Können Sie erreichen, dass det O D 1 gilt? Übung 7.35 (Dichtematrix eines Vektorzustands). Sei v 2 Cn ein Vektor ungleich null. Bestimmen Sie die Dichtematrix v zum Zustand Ev aus (7.160) gemäß Satz 7.113 explizit. Hinweis: Es genügt, einen Einheitsvektor v zu betrachten. Übung 7.36 (Die Heisenbergsche Unschärferelation). Betrachten Sie einen Zustand !W Mn .C/ ! C. Dann definiert man die Varianz von A 2 Mn .C/ im Zustand ! durch Var! .A/ D ! .A !.A/1/ .A !.A/1/ : (7.292) Dies ist als ein Maß dafür anzusehen, wie sehr die Observable A um ihren Erwartungswert !.A/ streut. In der Quantenmechanik wird dies eine zentrale Begriffsbildung sein. 406 7 Euklidische und unitäre Vektorräume i.) Zeigen Sie !.A A/ j!.A/j2 . ii.) Seien A; B 2 Mn .C/ selbstadjungiert. Zeigen Sie die Heisenbergsche Unschärferelation Var! .A/ Var! .B/ 1 j!.ŒA; B/j2 : 4 (7.293) Hinweis: Nehmen Sie zunächst an, dass !.A/ D 0 D !.B/. Benutzen Sie dann nur die Positivität von !, nicht die konkrete Form aus Satz 7.113. Wie können Sie anschließend auf den allgemeinen Fall kommen? iii.) Für A1 ; : : : ; Ak 2 Mn .C/ definiert man die Kovarianzmatrix C .Cov! .Ai ; Aj // 2 Mk .C/ durch Cov! .Ai ; Aj / D ! .Ai !.Ai /1/ .Aj !.Aj /1/ ; D (7.294) wobei i; j D 1; : : : ; k. Zeigen Sie, dass C positiv ist. Welche Ungleichungen erhalten Sie aus dem Spezialfall k D 2 aus dieser Positivität? Hinweis: Auch hier sollten Sie nicht die konkrete Form, sondern nur die Positivität von ! verwenden. Übung 7.37 (Positiv- und Negativteil). Betrachten Sie die Matrizen 1 1 1 1 A1 D @1 1 1A und 1 1 1 0 0 03 B3 0 A2 D B @0 0 00 0 0 0 2i 1 0 0 C C: 2iA 0 (7.295) Bestimmen Sie den Positivteil .Ai /C , den Negativteil .Ai / und den Absolutbetrag jAi j für i D 1; 2. Übung 7.38 (Ordnungsrelation für selbstadjungierte Abbildungen). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Sei weiter Endsa .V / End.V / die Teilmenge der selbstadjungierten Endomorphismen von V . Für A; B 2 Endsa .V / definieren Sie A B, falls B A ein positiver Endomorphismus ist. i.) Zeigen Sie, dass Endsa .V / ein reeller Unterraum von End.V / ist. ii.) Zeigen Sie, dass für Zahlen ; 0 und A; B; C; D 2 Endsa .V / mit A B und C D auch A C C B C D gilt. iii.) Zeigen Sie, dass für A B CAC CBC für alle C 2 End.V / gilt. (7.296) 7.11 Übungen 407 iv.) Zeigen Sie, dass .Endsa .V /; / eine gerichtete und partiell geordnete Menge ist. Hinweis: Welche selbstadjungierten Abbildungen A erfüllen sowohl A 0 als auch 0 A? v.) Sei A 0. Zeigen Sie A2 AkAk mit der Operatornorm kAk von A. vi.) Sei 0 A B. Zeigen Sie, dass dann kAk kBk gilt. vii.) Zeigen Sie, dass für A 0 und > 0 der Endomorphismus A C 1 invertierbar ist. viii.) Betrachten Sie V D C2 mit 10 AD und 00 21 BD : 11 (7.297) Zeigen Sie 0 A B. Zeigen Sie, dass A2 B 2 nicht gilt. Diese Ordnungsrelation auf den selbstadjungierten Abbildungen findet ihre wahre Bestimmung in der Theorie der C -Algebren. Es folgen dann viele weitere Verträglichkeiten von mit algebraischen Eigenschaften, die selbst in der endlichdimensionalen Situation p allespandere als offensichtlich sind. Beispielsweise gilt für 0 A B immer A B für die eindeutigen positiven Wurzeln, obwohl es für die entsprechende Ungleichung beim Quadrieren sofort leichte Gegenbeispiele wie in (7.297) gibt. Hinweis: Für die gesamte Übung ist der polynomiale Kalkül aus Übung 6.39 hilfreich. Übung 7.39 (Operatornorm von v;w ). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und seien v 2 V und w 2 W gegeben. Bestimmen Sie die Operatornorm von v;w . Bestimmen Sie auch die höheren Approximationszahlen ak .v;w /. Übung 7.40 (Pauli-Matrizen IV). Bestimmen Sie die Operatornormen der PauliMatrizen. Übung 7.41 (Die Kommutante). Sei A Mn .K/ eine nichtleere Teilmenge. Dann definiert man die Kommutante A 0 von A durch ˇ ˚ A 0 D B 2 Mn .K/ ˇ für alle A 2 A gilt ŒA; B D 0 : (7.298) i.) Zeigen Sie, dass die Kommutante von A ein Unterraum von Mn .K/ ist. ii.) Zeigen Sie, dass die Kommutante von A ein Unterring von Mn .K/ mit 1 2 A 0 ist. iii.) Sei nun zudem A unter Adjunktion abgeschlossen, also A 2 A für alle A 2 A. Zeigen Sie, dass dann auch A 0 unter Adjunktion abgeschlossen ist. iv.) Zeigen Sie A A 00 . 408 7 Euklidische und unitäre Vektorräume v.) Sei B eine weitere Teilmenge von Mn .K/ mit A B. Zeigen Sie, dass dann B 0 A 0. vi.) Zeigen Sie A 000 D A 0 . Übung 7.42 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen: i.) Eine Isometrie ist immer surjektiv. ii.) Jeder selbstadjungierte Projektor ist eine partielle Isometrie. iii.) Zu jeder Matrix A 2 Mn .K/ gibt es ein geeignetes Skalarprodukt, so dass A bezüglich dieses Skalarprodukts selbstadjungiert wird. iv.) Jede Matrix P 2 Mn .C/ mit P 2 D P ist ein Orthogonalprojektor bezüglich des Standardskalarprodukts. v.) Jede Matrix P 2 Mn .C/ mit P 2 D P ist ein Orthogonalprojektor bezüglich eines geeigneten Skalarprodukts auf V . vi.) Eine invertierbare Matrix A 2 Mn .R/ ist orthogonal für ein geeignet gewähltes Skalarprodukt auf Rn . vii.) Ist U eine unitäre (orthogonale) Matrix, so gilt notwendigerweise jUij j 1 für alle Matrixeinträge Uij von U . viii.) Eine unitäre Matrix U 2 Mn .C/ ist genau dann orthogonal, wenn U D U gilt. ix.) Eine obere Dreiecksmatrix ist nie orthogonal. x.) Für n 2 N gibt es unendlich viele unitäre obere Dreiecksmatrizen in Mn .C/. xi.) Bei einer normalen Matrix ist die Spur gleich der Summe und die Determinante gleich dem Produkt der Eigenwerte (mit Multiplizität). xii.) Die Untergruppe SU.n/ GLn .C/ ist normal. xiii.) Gilt jUij j 1 für alle Einträge einer Matrix U 2 Mn .C/ beziehungsweise U 2 Mn .R/, so ist U unitär beziehungsweise orthogonal. xiv.) Sei AW R4 ! R3 linear mit Polarzerlegung A D U jAj. Dann ist U nie eine Isometrie. xv.) Die Matrix 03 4 1 B 1 17 B 16 P DB @ 0 12 15 16 3 i 4 15 1 16 12 34 i C C C 0 27 A 2 1 7 0 (7.299) ist ein Orthogonalprojektor bezüglich des Standardskalarprodukts in C4 . xvi.) Für einen Orthogonalprojektor P gilt P D jP j. xvii.) Es gibt eine partielle Isometrie U W R4 ! R3 bezüglich der Standardskalarprodukte, welche keine 1 als Eintrag besitzt und Rang 2 hat. xviii.) Seien A; B 2 Mn .C/ positiv (definit). Dann ist AB ebenfalls positiv (definit). 7.11 Übungen 409 xix.) Eine Matrix A 2 Mn .C/ ist genau dann positiv, wenn alle ihre Eigenwerte größer oder gleich null sind. xx.) Für den Absolutbetrag von selbstadjungierten Matrizen A; B 2 Mn .C/ gilt jA C Bj jAj C jBj. Anhang A Grundbegriffe der Logik Die Logik stellt die Regeln bereit, mit denen in der Mathematik Aussagen miteinander verknüpft werden können. In diesem kleinen Anhang wollen wir kurz einige grundlegende Überlegungen hierzu anstellen. Eine formale Definition, was Logik, Aussagen und dergleichen sind, soll hier nicht gegeben werden, auch wenn dies ein spannendes Kapitel der Mathematik ist. Bei Interesse sei hier auf die weiterführende Literatur wie etwa [5] verwiesen. A.1 Aussagen und Junktoren Aussagen in der Mathematik sind sprachliche Gebilde aus zuvor festgelegten Zeichenketten, von denen es sinnvoll ist zu sagen, sie seien wahr oder falsch. Als Beispiel seien etwa die Aussagen • 1 C 1 D 2. • ist eine ganze Zahl. • Heute scheint die Sonne. genannt. Sätze wie „Bringe bitte Du den Müll raus“ sind hingegen keine Aussagen. Es sei hier jedoch angemerkt, dass eine echte mathematische Präzisierung offenbar festlegen muss, welche „Zeichen“ und „Wörter“ verwendet werden dürfen. Selbst dann kann es vorkommen, dass man Antinomien, also Widersprüche der Form „Ich bin ein Lügner“ oder „Diese Aussage ist falsch“ erhält. Schwierigkeiten treten insbesondere dann auf, wenn selbstbezügliche Aussagen, also Aussagen, die etwas über sich selbst aussagen, erlaubt sind. Wie damit umzugehen ist, wird in der formalen Logik studiert und soll uns zunächst nicht weiter belasten. Die Grundaufgabe der Mathematik kann man so verstehen, dass ausgehend von einigen Grundannahmen, den Axiomen der jeweiligen Theorie, die Wahrheit von verschiedenen Aussagen innerhalb der Theorie geprüft und wenn möglich entschieden werden soll. Die Regeln und Konstruktionen, nach denen aus gegebe- © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6 411 412 Anhang A Grundbegriffe der Logik nen Aussagen neue erhalten werden können, wollen wir nun vorstellen. Zuerst sind hier die Junktoren zu nennen: Definition A.1 (Junktoren). Für zwei Aussagen p und q lassen sich folgende neue Aussagen bilden: i.) Die Negation :p von p ist genau dann wahr, wenn p falsch ist. ii.) Die Konjunktion p ^ q von p und q ist genau dann wahr, wenn sowohl p als auch q wahr sind. iii.) Die Disjunktion p _ q von p und q ist genau dann wahr, wenn p oder q wahr sind. Hier ist ein inklusives „oder“ gemeint. iv.) Die Implikation p H) q von p nach q ist genau dann wahr, wenn aus der Wahrheit von p die Wahrheit von q folgt. v.) Die Äquivalenz p ” q von p und q ist genau dann wahr, wenn entweder sowohl p als auch q wahr sind oder wenn sowohl p als auch q falsch sind. vi.) Der Scheffersche Strich pjq von p und q ist genau dann wahr, wenn nicht beide Aussagen p und q wahr sind. Weitere gebräuchliche Abkürzungen, insbesondere in der Informatik und Computertechnik, für diese Junktoren sind NON für die Negation, AND für die Konjunktion, OR für die Disjunktion und NAND für den Schefferschen Strich. Die Junktoren sind offenbar nicht alle unabhängig voneinander. Vielmehr gibt es verschiedene Relationen zwischen ihnen. So gilt beispielsweise, dass der Scheffersche Strich pjq äquivalent zur Aussage :.p ^ q/ ist. Die Äquivalenz von p und q lässt sich als .p H) q/ ^ .q H) p/ verstehen. Schließlich lassen sich alle der obigen Junktoren durch Kombination von Schefferschen Strichen schreiben, so ist beispielsweise :p äquivalent zu pjp. Es ist nützlich, sich die Junktoren anhand einer Wahrheitstabelle zu verdeutlichen, siehe Tab. A.1. In komplizierteren Kombinationen der Junktoren ist es erforderlich, Klammern zu setzen, um eine eindeutige Reihenfolge bei der Verknüpfung zu erzielen: Es ist beispielsweise :.p ^q/ von .:p/^q zu unterscheiden, was man sich leicht anhand der Tab. A.1 klarmachen kann. Wir sammeln nun einige Rechenregeln für die Junktoren, deren Nachweis anhand der Tab. A.1 durch entsprechende Fallunterscheidungen eine kleine Übung darstellt: Tab. A.1 Wahrheitstabelle für die Junktoren p q :p p^q p_q p H) q p ” q p|q W W F W W W W F W F F F W F F W F W W F W W F W F F W F F W W W A.2 Beweisstrategien 413 Proposition A.2. Seien p, q und r Aussagen. i.) Die doppelte Verneinung ist eine Bejahung, also :.:p/ ” p. ii.) Es gelten die de Morganschen Regeln :.p_q/ ” .:p/^.:q/ :.p^q/ ” .:p/_.:q/: (A.1) sowie p _ q ” q _ p: (A.2) sowie p _.q _r/ ” .p _q/_r: (A.3) sowie iii.) Es gelten die Kommutativgesetze p^q ” q^p iv.) Es gelten die Assoziativgesetze p ^.q ^r/ ” .p ^q/^r v.) Es gelten die Distributivgesetze p^.q _r/ ” .p^q/_.p^r/ sowie p_.q ^r/ ” .p_q/^.p_r/: (A.4) sowie p _ p ” p: vi.) Es gelten die Idempotenzgesetze p^p ” p (A.5) Mithilfe dieser Rechenregeln lassen sich nun auch kompliziertere Kombinationen von :, ^ und _ vereinfachen. In der theoretischen Informatik und bei computergestützten Beweisen werden diese Regeln in Computerprogrammen implementiert und systematisch ausgenutzt. Unser Zugang zum Beweisen wird von diesen Regeln selbstverständlich ebenfalls Gebrauch machen, allerdings meist ohne explizit darauf zu verweisen. A.2 Beweisstrategien Ein mathematischer Satz hat oftmals die Struktur, dass eine Aussage p eine andere Aussage q impliziert, also p H) q, oder dass zwei Aussagen p und q äquivalent sind, also p ” q. Man denke etwa an den (wahren) Satz, dass für eine natürliche Zahl n gilt n ist gerade ” n2 ist gerade: (A.6) Hier müssen also beide Implikationen für ” nachgewiesen werden. Dabei ist es natürlich keineswegs ausreichend, seine Überredungskünste spielen zu lassen („Mein Vater hat gemeint, dass (A.6) richtig sei, und er muss es ja wissen“) oder an eine scheinbar offensichtliche Klarheit des Satzes zu appellieren („Das ist ja trivial“). In Lehrbüchern der Mathematik wird man oft letztere Formulierung finden. 414 Anhang A Grundbegriffe der Logik Dies bedeutet dann lediglich, dass der Beweis einfach genug ist, ihn dem Leser zu überlassen. Es handelt sich somit keineswegs um einen mathematischen Beweis, sondern vielmehr um eine freundliche Aufforderung, selbst Hand anzulegen und einen stimmigen Beweis zu liefern. Wir wollen nun einige Beweisstrategien vorstellen, die immer wieder in der Mathematik Verwendung finden. Oftmals sind es auch Kombinationen aus diesen, die sich zu einem großen Beweis zusammenfügen: • Direkter Beweis: Hier soll eine Aussage p H) q gezeigt werden. Man nimmt daher an, p sei wahr, und versucht zu zeigen, dass unter dieser Voraussetzung auch q wahr ist. Die Art, ob und wie dies erreicht werden kann, hängt natürlich stark von der konkreten Situation ab. • Indirekter Beweis: Um die Aussage p H) q zu zeigen, kann man alternativ auch die dazu äquivalente Aussage :q H) :p zeigen. Anhand einer kleinen Fallunterscheidung mittels der Tab. A.1 sieht man die Äquivalenz .p H) q/ ” .:q H) :p/ (A.7) dieser beiden Aussagen. Man muss also zeigen, dass unter der Voraussetzung, dass q falsch ist, auch p falsch ist. Dies geschieht dann beispielsweise mit einem direkten Beweis, und die Äquivalenz in (A.7) zeigt dann die ursprüngliche Aussage p H) q. • Widerspruch und Gegenbeispiel: Ebenso kann man die Äquivalenz .p H) q/ ” :.p ^ :q/ (A.8) verwenden. Zunächst überlegt man sicher wieder anhand der Tab. A.1, dass die Äquivalenz (A.8) korrekt ist. Um (A.8) zu verwenden, nimmt man also an, dass p wahr und q falsch ist. Dann ist zu zeigen, dass dies zu einem Widerspruch führt, also nicht möglich sein kann. Ein derartiger Widerspruchsbeweis kann oft dadurch erreicht werden, dass man aus der Annahme p^:q eine Aussage folgert, zu der es ein Gegenbeispiel gibt, die also damit falsch ist. Dann muss auch die ursprüngliche Aussage p ^ :q falsch gewesen sein, womit die Richtigkeit von :.p ^ :q/ folgt. Bei der Verwendung von Gegenbeispielen ist natürlich darauf zu achten, dass man durch das Finden noch so vieler positiver Beispiele noch keine allgemein gültige Aussage beweisen kann, aber durch das Finden eines Gegenbeispiels deren allgemeine Gültigkeit sehr wohl widerlegt hat. Zur Illustration sei hier folgender nicht ganz ernst gemeinter Satz bewiesen: Alle natürlichen Zahlen sind interessant. Hier ist also p die Aussage „n ist natürliche Zahl“ und q ist die Aussage „n ist interessant“. Um p H) q zu zeigen, nehmen wir an, n sei eine natürliche Zahl, die nicht interessant ist, also p ^ :q. Dann gibt es also nicht interessante natürliche Zahlen, nämlich insbesondere das uninteressante n. Wir betrachten nun die Menge aller natürlichen Zahlen, die uninteressant sind. Eine wesentliche Eigenschaft von nichtleeren Mengen natürlicher Zahlen ist nun, dass es immer eine kleinste natürliche Zahl A.3 Quantoren 415 in dieser Menge geben muss. In unserem Fall schließen wir, dass es eine kleinste uninteressante natürliche Zahl gibt. Das ist der Widerspruch, den wir erreichen wollten, da diese Zahl natürlich schon allein deshalb interessant ist, weil sie die kleinste uninteressante Zahl ist. • Ringschluss: Oftmals tritt die Situation auf, dass man nicht nur eine Äquivalenz, sondern gleich mehrere Äquivalenzen p 1 ” p2 ” ” pn (A.9) zeigen möchte. Anstatt alle 2.n 1/ Implikationen in (A.9) einzeln zu zeigen, ist es daher ökonomischer, nur folgenden Ring p1 H) p2 H) H) pn H) p1 (A.10) von n Implikationen zu zeigen. Damit erhält man offenbar alle nötigen Implikationen für (A.9), indem man den Kreis entsprechend weiter durchläuft. Man beachte aber, dass es sich hierbei nicht um einen (unsinnigen) Zirkelschluss handelt, da wir ja nur die Äquivalenz der Aussagen, aber nicht deren individuelle Gültigkeit zeigen wollen. A.3 Quantoren Viele Aussagen in der Mathematik handeln von vielen Situation auf einmal, etwa „Alle Primzahlen größer als 2 sind ungerade“ oder „Für alle natürlichen Zahlen n ist n.n C 1/ eine gerade Zahl“. Man möchte also nicht nur eine Aussage über eine einzelne Primzahl oder natürliche Zahl treffen, sondern eine Aussage für alle möglichen Kombinationen auf einmal. Das Symbol n tritt hier als eine Variable auf, die eine gewisse Wertemenge, hier die natürlichen Zahlen, durchlaufen soll. Den Begriff der Menge werden wir noch etwas genauer fassen müssen, für unsere Zwecke genügt hier jedoch eine naive Vorstellung. Hat man also eine Menge von Aussagen pi , die durch eine Variable i gekennzeichnet sind und deren Wertemenge eine Menge I ist, so schreiben wir fpi gi2I . Wir sagen auch, dass die Menge der Aussagen durch I indiziert ist. Aus einer solchen Menge von Aussagen wollen wir folgende neuen Aussagen konstruieren: Definition A.3 (Quantoren). Seien fpi gi2I durch eine Menge I indizierte Aussagen. i.) Die Aussage 8i 2 I W pi ist genau dann wahr, wenn pi für alle i in I wahr ist. ii.) Die Aussage 9i 2 I W pi ist genau dann wahr, wenn es ein i in I gibt, für das die Aussage pi wahr ist. iii.) Die Aussage 9Ši 2 I W pi ist genau dann wahr, wenn es genau ein i in I gibt, für das die Aussage pi wahr ist. 416 Anhang A Grundbegriffe der Logik Es sind auch leicht andere Schreibweisen üblich, etwa .8i 2 I /pi etc. Wichtig ist nur, dass man durch etwaige Klammerung eine eindeutige Bedeutung erzielt. Weiter schreibt man auch oft 8i unter Auslassung der Wertemenge I , sofern diese aus dem Zusammenhang klar ist, sowie 8i; j 2 I anstelle von .8i 2 I / ^ .8j 2 I / etc. Das Symbol 8 heißt auch der Allquantor, 9 ist der Existenzquantor und 9Š heißt Quantor der eindeutigen Existenz. Zu Illustration geben wir nun einige elementare Beispiele: Beispiel A.4 (Quantoren). i.) Die Aussage „8p 2 PrimzahlenW p ist ungerade“ ist falsch, da 2 eine gerade Primzahl ist. Andererseits ist die Aussage „9p 2 PrimzahlenW p ist gerade“ eine richtige Aussage. Hier können wir 9 sogar durch 9Š ersetzen, da ja 2 die einzige gerade Primzahl ist. ii.) Die Aussage „8n 2 NW 9k 2 NW k > n“ ist eine wahre Aussage, da zu einer gegebenen natürlichen Zahl n die Zahl nC1 wieder eine natürliche Zahl ist, welche nun größer als n ist. Umgekehrt ist die Aussage „9k 2 NW 8n 2 NW k > n“ falsch. Die Reihenfolge ist daher beim Verwenden von Quantoren sorgfältig zu beachten. Bemerkung A.5 (Verwendung von Quantoren). Während die Verwendung von Quantoren in Vorlesungen und auch bei der Bearbeitung von Aufgaben eine willkommene Kurzschreibweise darstellt, ist es in längeren Texten jedoch üblich, darauf zu verzichten. Mathematische Texte sind ohnehin meist kurz gehalten, sodass ein zu exzessiver Gebrauch von Quantoren anstelle umgangssprachlicher Formulierungen die Lesbarkeit unnötig erschwert. Wir werden daher außer in den beiden Anhängen weitgehend darauf verzichten. A.4 Vollständige Induktion Auch wenn wir noch über keine mathematisch ansprechende Definition der natürlichen Zahlen verfügen, wollen wir doch bereits an dieser Stelle eine ihrer wesentlichen Eigenschaften verwenden: Jede nichtleere Teilmenge A N von natürlichen Zahlen hat ein kleinstes Element. Mit dieser Feststellung lässt sich ein mächtiges Werkzeug zum Beweisen mathematischer Aussagen finden: Satz A.6 (Vollständige Induktion). Für jedes n 2 N sei eine Aussage pn vorgegeben. Wir nehmen an, dass i.) die Aussage p1 wahr ist, ii.) die Aussage pnC1 wahr ist, sofern pn wahr ist. In diesem Fall sind alle Aussagen pn wahr. A.5 Übungen 417 Beweis. Sei nämlich A N diejenige Teilmenge von natürlichen Zahlen n, für die pn falsch ist. Ist A D ;, so ist der Satz bewiesen. Wir nehmen daher an, dass A ¤ ;. Dann hat A ein Minimum n0 2 A: Für dieses n0 ist pn0 falsch. Da nach i.) aber p1 wahr ist, muss n0 2 gelten. Dann folgt aber, dass pn0 1 eine wahre Aussage ist, da n0 minimal ist. Nach Voraussetzung ii.) ist daher pn0 wahr, ein Widerspruch. u t Wir können mit diesem Induktionsprinzip viele Aussagen auf einmal beweisen, es müssen entsprechend nur die beiden Bedingungen i.) und ii.) gezeigt werden, was oftmals viel einfacher ist, als alle (unendlich vielen) Aussagen separat zu zeigen. Man nennt i.) den Induktionsanfang und ii.) den Induktionsschritt. Bei der Verwendung dieses Satzes ist aber sorgfältig darauf zu achten, nicht nur den Induktionsschritt nachzuweisen, sondern auch den Induktionsanfang: Ohne diese Voraussetzung ist die Schlussfolgerung des Satzes sicherlich falsch, da die Teilmenge A aus dem Beweis ja ganz N sein könnte und man daher keinen Widerspruch erhalten kann. Ein Induktionsbeweis bietet sich immer dann an, wenn es zum einen um Aussagen geht, die durch natürliche Zahlen parametrisiert werden. Mit kleinen Modifikationen kann man natürlich auch endlich viele Aussagen betrachten. Zum anderen benötigt man meist eine gute Idee, wie die zu beweisenden, richtigen Aussagen aussehen könnten: Je mehr man beweisen will, also je stärker die zu zeigenden Aussagen pn sind, desto mehr hat man auch im Beweis des Induktionsschritts von pn nach pnC1 zur Verfügung. Daher ist für Induktionsbeweise Bescheidenheit meist eine schlechte Idee. Eine andere Anwendung des Induktionsprinzips ist, dass wir mathematische Objekte induktiv definieren können: Man definiert ein mathematisches Objekt Pn zunächst für n D 0 und gibt dann eine Regel an, wie Pn definiert werden soll, sofern man Pn1 bereits definiert hat. Wir werden für diese rekursive Art der Definition noch verschiedene Beispiele sehen. A.5 Übungen Übung A.1 (Schefferscher Strich). Schreiben Sie die Junktoren aus Definition A.1 mithilfe geeigneter Kombinationen des Schefferschen Strichs. Übung A.2 (Die Wahrheit). Verifizieren Sie durch entsprechende Fallunterscheidungen die Gültigkeit der Tab. A.1. Übung A.3 (Über Pinguine). Ein Pinguin wird durch 4 Werte a` , ar , f` , fr aus f0; 1g beschrieben. Diese beschreiben (in dieser Reihenfolge) die „Anzahl der Augen links“, „Anzahl der Augen rechts“, „Anzahl der Flügel links“, „Anzahl der Flügel rechts“. Wir nennen einen Pinguin „links-vollständig“ wenn a` D 1 und f` D 1. Wir nennen ihn „symmetrisch“ wenn a` D ar und f` D fr . Schließlich heißt ein Pinguin „vollständig“, wenn a` D ar D f` D fr D 1 gilt. 418 Anhang A Grundbegriffe der Logik i.) Zeigen Sie, dass ein Pinguin genau dann vollständig ist, wenn er linksvollständig und symmetrisch ist. ii.) Widerlegen Sie, dass ein symmetrischer Pinguin mindestens so viele Augen wie Flügel besitzt. iii.) Zeigen oder widerlegen Sie, dass ein links-vollständiger und nicht symmetrischer Pinguin keinen rechten Flügel besitzt. Übung A.4 (Induktionsbeweise). Es sollen nun einige einfache Beweise durch vollständige Induktion geführt werden. i.) Sei q 2 R n f1g eine reelle Zahl ungleich 1. Dann gilt für alle n 2 N 1 C q C q2 C C qn D 1 q nC1 : 1q (A.11) ii.) Die Fakultät nŠ von n 2 N0 sei induktiv durch 0Š D 1 und nŠ D n.n 1/Š definiert. Zeigen Sie, dass nŠ D 1 2 .n 1/ n (A.12) das Produkt der ersten n natürlichen Zahlen ist. iii.) Untersuchen Sie, für welche n 2n nŠ (A.13) gilt. Hier sollte deutlich werden, dass der Induktionsanfang eine entscheidende Rolle spielt. iv.) Betrachten Sie analog die Ungleichung n2 2n ; (A.14) und bestimmen Sie diejenigen n, für die (A.14) gültig ist. Auch hier ist ein Induktionsbeweis eine Option. Anhang B Mengen und Abbildungen Kaum ein anderer Begriff der Mathematik hat eine so grundlegende Bedeutung wie der der Menge. Ebenfalls kaum ein anderer Begriff hat in der Geschichte der Mathematik zu solch hitzigen Debatten geführt: die ursprünglichen Versionen der Mengenlehre steckten voll von zum Teil subtil verborgenen Unklarheiten und Widersprüchen, welche nur mühsam bereinigt werden konnten. Der moderne Standpunkt einer axiomatischen Mengenlehre vermeidet und löst alle diese anfänglichen Schwierigkeiten, eignet sich allerdings wenig für eine Präsentation in den ersten Semestern. Der übliche Ausweg, der hier ebenfalls beschritten werden soll, ist daher, einen eher etwas naiven Standpunkt einzunehmen und lediglich die relevanten Konstruktionen zu erklären, welche man in der Mengenlehre vornehmen kann. Wir werden die Axiome zwar teilweise formulieren, aber auf eine stringente Beweisführung der behaupteten Aussagen in diesem Abschnitt weitgehend verzichten. Eine gut lesbare Einführung findet man in [7]. B.1 Der Begriff der Menge Eine Menge ist eine Zusammenfassung von verschiedenen Dingen, die wir dann ihre Elemente nennen. Gelegentlich werden wir die Elemente von M auch die Punkte von M nennen. Für eine Menge M schreiben wir x 2 M , wenn x ein Element von M ist. Gilt dies nicht, so schreiben wir x … M . Eine mathematisch akzeptable Definition ist dies natürlich noch nicht, da „Dinge“ und „Zusammenfassung“ etc. nicht definiert sind. Für unsere Zwecke wollen wir aber nur, wie bereits erläutert, einen intuitiven Zugang erzielen. Eine Menge wird nun dadurch spezifiziert, dass wir angeben, welche Elemente sie enthält. Insbesondere sind zwei Mengen genau dann gleich, wenn sie die gleichen Elemente enthalten. Dies ist das Extensionalitätsaxiom der Mengenlehre. Beispiel B.1 (Mengen). Wir illustrieren dies nun durch einige Beispiele. © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6 419 420 Anhang B Mengen und Abbildungen i.) Wir geben die Elemente in Form eine Aufzählung an, also etwa M D fa; bg und N D f1; 2; 3g. Man beachte jedoch, dass die Mengen fa; ag und fag gleich sind, da sie dieselben Elemente, nämlich a, enthalten. Zählen wir ein Element mehrmals auf, ändert sich die Menge nicht. ii.) Ein wichtiges Beispiel einer Menge ist die leere Menge ;. Dies ist diejenige Menge, die keine Elemente hat. iii.) Die natürlichen Zahlen bezeichnen wir mit N D f1; 2; 3; : : :g (B.1) N0 D f0; 1; 2; 3; : : :g: (B.2) und setzen Man beachte, dass in der Literatur auch andere Konventionen für die Bezeichnung der natürlichen Zahlen verwende werden. iv.) Weiter benötigen wir auch die Mengen der ganzen Zahlen Z D f0; 1; 1; 2; 2; : : :g (B.3) und der rationalen Zahlen QD ˚n m wobei n 2 Z; m 2 N : (B.4) Man beachte, dass bei der Aufzählung der rationalen Zahlen eine gewisse nk D mn für k ¤ 0. Redundanz besteht, da ja mk v.) Schließlich werden wir auch die Menge der reellen Zahlen verwenden. Diese bezeichnen wir mit R. Eine mathematisch präzise Definition der reellen Zahlen erfordert erheblich mehr Aufwand als bei den rationalen Zahlen: Es gibt hier verschiedene Varianten, die alle in der Analysis besprochen werden, siehe beispielsweise [1, Kap. 10]. Neben dem Extensionalitätsaxiom, welches eine Menge anhand ihrer Elemente charakterisiert, ist das Aussonderungsaxiom von entscheidender Bedeutung bei der Konstruktion neuer Mengen aus bereits vorhandenen: Sei M eine gegebene Menge und p.x/ eine Aussage, die wir für jedes x 2 M treffen können. Dann erhalten wir eine neue Menge N aus denjenigen Elementen x 2 M , für welche die Aussage p.x/ wahr ist. Wir schreiben für diese Menge dann ˇ ˚ N D x 2 M ˇ p.x/ ist wahr (B.5) oder auch N D fx 2 M W p.x/g. Es werden also die Elemente von M ausgesondert, für welche p.x/ gilt. B.1 Der Begriff der Menge 421 Wir sehen in dieser Konstruktion, dass alle Elemente von N auch in M liegen. Im Allgemeinen nennen wir eine Menge N eine Teilmenge von M , wenn jedes Element von N auch Element von M ist. Wir schreiben dies als N M , also N M ” 8x 2 N W x 2 M: (B.6) Wollen wir betonen, dass N eine echte Teilmenge von M ist, es also Elemente von M gibt, die nicht in N liegen, so schreiben wir N ¨ M . Ebenfalls gebräuchlich, aber oft etwas missverständlich ist N M . Beispiel B.2 (Aussonderung und Teilmengen). Wir geben nun einige weitere Beispiele für Aussonderung und Teilmengen: i.) Die natürlichen Zahlen N sind eine Teilmenge von N0 , was wiederum eine Teilmenge von den ganzen Zahlen Z darstellt. Es gilt also N N0 Z: (B.7) Hier sind offenbar beide Inklusionen sogar echt. ii.) Identifizieren wir n 2 Z mit n1 2 Q, so wird Z eine Teilmenge von Q, also Z Q: (B.8) iii.) Die leere Menge ist eine Teilmenge einer jeden Menge M , es gilt also ;M (B.9) für eine beliebige Menge M . iv.) Die geraden Zahlen und die Primzahlen erhalten wir durch Aussonderung ˇ ˚ 2Z D n 2 Z ˇ n ist gerade (B.10) ˇ ˚ P D n 2 N ˇ n ist Primzahl : (B.11) und Die relevante Aussage im ersten Fall ist p.n/ D 9m 2 ZW n D 2m. Im zweiten Fall können wir die Eigenschaft, prim zu sein, durch p.n/ D .n ¤ 1/ ^ ..9m; k 2 NW n D mk/ H) ..m D 1/ _ .k D 1/// (B.12) beschreiben. 422 Anhang B Mengen und Abbildungen Bemerkung B.3 (Die Menge aller Mengen). Wir können nun als Aussage auch p.x/ D .x 2 x/ betrachten, also „x enthält sich selbst als Element“. Sei nun M eine Menge, dann betrachten wir durch Aussonderung die Teilmenge ˇ ˚ N D x2M ˇx…x : (B.13) Wir behaupten N … M . Man beachte, dass als Teilmenge natürlich N M gilt. Wir nehmen das Gegenteil an und behaupten N 2 M . Zunächst gilt entweder N 2 N oder N … N . Wäre nun N 2 N , so wäre dies im Widerspruch zur Definition der Menge N , da N nur diejenigen Elemente von M enthält, die sich selbst nicht enthalten. Wäre andererseits N … N , so müsste nach Definition von N die Teilmenge N ein Element von N sein, was ebenfalls einen Widerspruch, nämlich zu N … N liefert. Daher kann N 2 M nicht gelten, und wir haben unsere Behauptung durch einen Widerspruchsbeweis gezeigt. Dies ist zunächst noch nicht weiter interessant. Da aber die Menge M beliebig war, können wir aus dieser Überlegung schließen, dass es keine Menge aller Mengen geben kann. Diese würde die gemäß (B.13) gebildete Teilmenge ja als Element enthalten müssen, da sie alle Mengen enthält, was wir aber gerade widerlegt haben. Als Fazit ist daher festzuhalten, dass beim Aussonderungsaxiom sehr genau spezifiziert werden muss, dass es eine umgebende Menge gibt, aus der ausgesondert werden soll. Als Nächstes benötigen wir Regeln, die es uns erlauben, eine gewisse Reichhaltigkeit der Mengenlehre sicherzustellen. Dazu dienen das Paarbildungsaxiom, das Vereinigungsaxiom sowie das Potenzmengenaxiom. Das Paarbildungsaxiom fordert, dass es zu je zwei Mengen M und N eine weitere Menge gibt, welche M und N als Elemente enthält. Mit anderen Worten, fM; N g ist wieder eine Menge. Angewandt auf M D N liefert dies eine Menge fM g mit einem Element, nämlich der Menge M . Man beachte, dass diese Menge von M verschieden ist. Insbesondere können wir M D ; betrachten und erhalten mit f;g eine Menge mit einem Element, gegeben durch die leere Menge. Iteriert man dies, so erhält man Mengen ;; f;g; f;; f;gg, etc., welche alle verschieden sind. Hat man nun eine Menge I gegeben, sowie Mengen Mi für jedes Element i 2 I , so nennt man fMi gi2I ein Mengensystem (oder auch eine Familie von Mengen) mit der Indexmenge I . Das Vereinigungsaxiom fordert nun, dass es zu jedem solchen Mengensystem fMi gi2I eine Menge M gibt, die Vereinigung aller Mi , sodass M genau alle Elemente der einzelnen Mi enthält. Für dieses M schreiben wir M D [ Mi ; (B.14) i2I oder M D M1 [ [ Mn , falls es sich nur um endlich viele Mengen handelt. Es gelten nun folgende einfache Rechenregeln M [ ; D M; (B.15) B.2 Operationen mit Mengen 423 M [ N D N [ M; (B.16) M [ .N [ O/ D .M [ N / [ O; (B.17) M [M DM (B.18) und für die Vereinigung von Mengen M , N und O. Das Potenzmengenaxiom sichert nun, dass die Gesamtheit aller Teilmengen einer Menge wieder eine Menge bilden, die Potenzmenge 2M von M . Eine andere Schreibweise für die Potenzmenge ist P.M /. Die Bezeichnung 2M rührt daher, dass für eine endliche Menge M mit n Elementen die Potenzmenge 2n Elemente besitzt. Dies ist eine einfache kombinatorische Überlegung, welche mit vollständiger Induktion bewiesen wird, siehe Übung B.9. Es gibt nun noch einige weitere Axiome der Mengenlehre, welche unter anderem die Existenz und die Eigenschaften unendlicher Mengen betreffen. Zu erwähnen ist insbesondere noch das Auswahlaxiom, welches in verschiedenen Varianten formuliert werden kann. Seine Rolle gilt als umstritten bis mysteriös, lassen sich doch einige eher kontraintuitive Sachverhalte in der Mathematik mit seiner Hilfe zeigen. Wir werden einen recht pragmatischen Standpunkt einnehmen und das Auswahlaxiom in Form des Zornschen Lemmas an einigen Stellen bemühen. Eine schöne Darstellung der Rolle des Auswahlaxioms an verschiedensten Stellen in der Mathematik findet man in [8]. B.2 Operationen mit Mengen Indem wir die Regeln der Aussonderung und der Vereinigung geschickt kombinieren, können wir neue Konstruktionen von Mengen angeben. Definition B.4 (Komplement). Sei M eine Menge und N M eine Teilmenge. Dann ist das Komplement von N in M durch ˇ ˚ M nN D x 2M ˇx …N (B.19) definiert. Alternativ schreibt man auch N c , wenn klar ist, innerhalb welcher umgebenden Menge man das Komplement von N betrachtet. Definition B.5 (Durchschnitt). Sei fMi gi2I ein Mengensystem. Dann ist der Durchschnitt von allen Mi durch \ ˚ ˇ (B.20) Mi D x ˇ 8i 2 I W x 2 Mi i2I definiert. 424 Anhang B Mengen und Abbildungen M ∪N M ∩N M N M \N N M Abb. B.1 Mengentheoretische Operationen: Vereinigung, Schnitt und Komplement Es gilt offenbar M n N M ebenso wie \ Mi Mj (B.21) i2I für alle Indizes j 2 I . Für endlich viele Mengen schreiben wir auch M1 \ \ Mn . Man beachte, dass die Aussonderung in der Definition des Durchschnitts innerhalb jeder der beteiligten Mengen Mi stattfinden kann. Daher benötigen wir für die Komplementbildung und den Durchschnitt kein neues Axiom der Mengenlehre. Grafisch lassen sich Schnitte, Komplemente und Vereinigungen leicht visualisieren. Wir geben einige Beispiele in Abb. B.1. Mithilfe des Paarbildungsaxioms können wir nun auch das kartesische Produkt von Mengen konstruieren. Dazu definieren wir für x 2 M und y 2 N das geordnete Paar .x; y/ D fx; fx; ygg: (B.22) Der Grund für diese etwas umständlich erscheinende Definition ist, dass wir selbst für den Fall, dass x D y gilt, das geordnete Paar als eine Menge mit zwei Elementen definieren wollen. Ein erster Versuch mit fx; yg könnte dies nicht leisten, da für x D y ja fx; xg D fxg gilt. Für geordnete Paare gilt nun .x; y/ D .x 0 ; y 0 / ” x D x 0 und y D y 0 : (B.23) B.2 Operationen mit Mengen 425 Mittels des Vereinigungsaxioms können wir nun zuerst für ein festes x 2 M die Vereinigung aller geordneten Paare .x; y/ für alle y 2 N bilden. Anschließend bilden wir noch die Vereinigung über alle x 2 M . Dies liefert dann das kartesische Produkt ˇ ˚ M N D .x; y/ ˇ x 2 M; y 2 N (B.24) der Mengen M und N . Iterativ können wir auch größere kartesische Produkte bilden. Dazu definiert man das geordnete n-Tupel .x1 ; : : : ; xn / D .x1 ; .x2 ; : : : ; xn1 // (B.25) von x1 2 M1 , . . . , xn 2 Mn iterativ für n 3 und schreibt ˇ ˚ M1 Mn D .x1 ; : : : ; xn / ˇ x1 2 M1 ; : : : ; xn 2 Mn : (B.26) Streng genommen gilt M1 .M2 M3 / ¤ .M1 M2 / M3 , womit wir in (B.26) eigentlich Klammern setzen müssten. Unter Verwendung einer geeigneten Abbildung, deren allgemeine Natur wir in Abschn. B.4 diskutieren wollen, kann man aber sehen, dass beide Möglichkeiten auf natürliche Weise miteinander identifiziert werden können. Dies rechtfertigt die vereinfachte und durchaus übliche Schreibweise in (B.26). Gilt zudem M1 D D Mn D M , so schreiben wir Mn D M M (B.27) für das n-fache kartesische Produkt der Menge M mit sich selbst. Die folgenden einfachen Beispiele illustrieren den Gebrauch des kartesischen Produkts: Beispiel B.6 (Kartesisches Produkt). i.) Wir betrachten die beiden Mengen M D fa; bg und N D f1; 2; 3g. Dann gilt M N D f.a; 1/; .a; 2/; .a; 3/; .b; 1/; .b; 2/; .b; 3/g; (B.28) womit das Produkt also 2 3 D 6 Elemente besitzt. Eine elementare kombinatorische Überlegung zeigt, dass für zwei endliche Mengen mit m und n Elementen das kartesische Produkt mn Elemente besitzt. ii.) Die Zahlenebene ˇ ˚ R2 D .x; y/ ˇ x; y 2 R (B.29) ist die Arena der ebenen Geometrie. Allgemein werden wir ein kartesisches Produkt M N immer als „Ebene“ darstellen, wobei die Elemente der Mengen entlang der jeweiligen Achsen aufgetragen werden. Diese Darstellung 426 Anhang B Mengen und Abbildungen N M×N (x, y) y x M Abb. B.2 Symbolische Darstellung des kartesischen Produkts von M und N ist selbstverständlich nur symbolisch gemeint, da im Allgemeinen weder M noch N Teilmengen von R sein müssen, siehe auch Abb. B.2. iii.) Der Anschauungsraum ˇ ˚ R3 D .x; y; z/ ˇ x; y; z 2 R (B.30) wird entsprechend zur Ebene für die dreidimensionale Geometrie genutzt. Er stellt auch ein mathematisches Modell des physikalischen Raumes in der Newtonschen Mechanik dar. Wir tragen nun einige elementare Rechenregeln zusammen, die die Beziehungen von [, \ und n klären. Die Verifikation der behaupteten Beziehungen ist dabei eine kleine Übung. Proposition B.7. Sei M eine Menge und N M . Dann gilt M n .M n N / D N; (B.31) M n;DM (B.32) M n M D ;: (B.33) und Proposition B.8. Seien M; N; O Mengen. Dann gilt M \ ; D ;; (B.34) M \ N D N \ M; (B.35) B.3 Relationen 427 M \ .N \ O/ D .M \ N / \ O (B.36) M \ M D M: (B.37) und Proposition B.9. Seien M , fMi gi2I und fNj gj 2J Mengen. Dann gilt \ i2I [ i2I \ Mi [ [ Mi \ Mn j 2J j 2J Nj D \ .Mi [ Nj /; (B.38) .Mi \ Nj /; (B.39) i2I;j 2J Nj D [ i2I [ i2I;j 2J \ Mi D .M n Mi / (B.40) i2I und Mn \ i2I [ Mi D .M n Mi /: (B.41) i2I Hierbei ist es illustrativ, einige Spezialfälle für wenige Mengen aufzuschreiben. So gilt beispielsweise M [ .N \ O/ D .M [ N / \ .N [ O/ (B.42) M \ .N [ O/ D .M \ N / [ .M \ O/; (B.43) und siehe auch Abb. B.3. B.3 Relationen Relationen spielen in der Mathematik eine zentrale Rolle. Ein bekanntes Beispiel ist etwa die „kleiner gleich“ Relation für natürliche Zahlen. Es sind aber auch deutlich kompliziertere Relationen denkbar: Man betrachte eine Landkarte als Teilmenge der Zahlenebene mit Seen und Inseln. Dann ist „trockenen Fußes erreichbar“ eine Relation zwischen den Punkten der Inseln, welche eine anschauliche Definition der „Zusammenhangskomponenten“ der Landmasse liefert. Während diese Beispiele zweistellige Relationen darstellen, sind natürlich auch mehrstellige Relationen denkbar: etwa die Relation, dass drei Punkte der Ebene ein 428 Anhang B M Mengen und Abbildungen N O Abb. B.3 Grafische Illustration der Rechenregel M [ .N \ O/ D .M [ N / \ .M [ O/ gleichseitiges Dreieck bilden. Um nun diese Beispiele genauer fassen zu können, wollen wir einen möglichst allgemeinen Standpunkt einnehmen. Charakteristisch für die obigen Beispiele von zweistelligen Relationen ist, dass Elemente x 2 M und y 2 N von zwei Mengen „in Relation“ gebracht werden. Es müssen offenbar nicht alle x oder alle y überhaupt in Relation zu etwas stehen. Wichtig bei einer Relation ist zudem, dass sie sich auf zwei vorher festgelegte Mengen M und N bezieht: Die Relation kann man für natürliche Zahlen, reelle Zahlen oder noch kompliziertere Objekte in der Mathematik verwenden (etwa für selbstadjungierte Abbildungen auf einen euklidischen oder unitären Vektorraum etc.). Es ist dann natürlich immer eine andere Relation, obwohl man dasselbe Symbol verwendet. Diese Vorüberlegungen münden daher in folgende Definition: Definition B.10 (Relation). Seien M und N Mengen. Eine Relation über M und N ist eine Teilmenge R M N . Um zu betonen, dass sich die Relation R auf M und N bezieht, kann man eine Relation auch als Tripel .M; N; R/ von drei Mengen auffassen, wobei R M N gilt. Stehen nun zwei Elemente x 2 M und y 2 N in Relation R, gilt also .x; y/ 2 R, so schreiben wir oft kurz xRy. Zur Illustration ist es nützlich, das Beispiel der Relation für reelle Zahlen nochmals grafisch aufzugreifen und als Teilmenge des kartesischen Produkts R R aufzuzeichnen, siehe Abb. B.4. Relationen können offenbar sehr vielfältige Eigenschaften besitzen. Wir erwähnen hier nur einige oft auftretende: B.3 Relationen 429 Abb. B.4 -Relation als Teilmenge von R R y x≤y x Definition B.11 (Rechts- und linkseindeutige Relation). Seien M und N Mengen, und sei R M N eine Relation. i.) Die Relation R heißt rechtseindeutig, falls 8x 2 M 9Šy 2 N W xRy: (B.44) ii.) Die Relation R heißt linkseindeutig, falls 8y 2 N 9Šx 2 M W xRy: (B.45) Gilt M D N , so gibt es weitere Eigenschaften von Relationen: Definition B.12 (Äquivalenzrelation und partielle Ordnung). Sei M eine Menge und R M M eine Relation. i.) ii.) iii.) iv.) v.) vi.) vii.) viii.) Die Relation R heißt reflexiv, falls 8x 2 M W xRx. Die Relation R heißt symmetrisch, falls 8x; y 2 M W xRy H) yRx. Die Relation R heißt transitiv, falls 8x; y 2 M W .xRy ^ yRz/ H) xRz. Die Relation R heißt Äquivalenzrelation, falls R reflexiv, symmetrisch und transitiv ist. Die Relation R heißt Präordnung (oder Quasiordnung), falls R reflexiv und transitiv ist. Die Relation R heißt partielle Ordnung, falls R eine Präordnung mit der zusätzlichen Eigenschaft 8x; y 2 M W .xRy ^ yRx/ H) x D y ist. Eine Präordnung R heißt Richtung und entsprechend .M; R/ gerichtete Menge, falls es zu x; y 2 M ein z 2 M mit xRz und yRz gibt. Eine partielle Ordnung R heißt total (oder linear), falls für alle x; y 2 M eine Relation xRy oder yRx besteht. Beispiel B.13 (Relationen). i.) Die Relation auf N, Q oder auch auf R ist reflexiv, da x x für alle Zahlen gilt. Sie ist auch transitiv, da x y und y z impliziert, dass auch x z gilt. 430 Anhang B Mengen und Abbildungen Allerdings ist nicht symmetrisch, da x x C 1 aber x C 1 6 x. Da es immer mehrere Zahlen gibt, die kleiner/größer als eine fest gewählte Zahl x sind, ist weder links- noch rechtseindeutig. Die Relation ist allerdings eine partielle Ordnung, ja sogar eine totale Ordnung. ii.) Die (anschaulich definierte) Relation „trockenen Fußes erreichbar“ ist eine Äquivalenzrelation. iii.) Sei p 2 N fest gewählt. Dann definieren wir eine Relation „äquivalent modulo p“ oder auch „kongruent modulo p“ auf Z Z durch n m mod p ” n m 2 pZ: (B.46) Die beiden Zahlen n und m stehen also in der Relation „äquivalent modulo p“ genau dann, wenn ihre Differenz ein ganzzahliges Vielfaches von p ist. Für p D 0 bedeutet dies einfach, dass n D m gilt. Für p ¤ 0 ist die Situation komplizierter, aber man überzeugt sich leicht davon, dass „mod p“ eine Äquivalenzrelation ist: Die Reflexivität ist klar, da n n D 0 ein ganzzahliges Vielfaches von p ist. Ist nun n m D kp mit k 2 Z, so ist auch m n D .k/p mit k 2 Z, was die Symmetrie zeigt. Schließlich betrachten wir n m D kp und m ` D rp mit k; r 2 Z. Dann ist n ` D .k C r/p mit k C r 2 Z wieder ein ganzzahliges Vielfaches von p. Also gilt auch die Transitivität. iv.) Sei M eine Menge und 2M ihre Potenzmenge. Auf 2M definieren wir eine Relation über „Teilmenge sein“, also . Eine einfache Verifikation zeigt, dass reflexiv und transitiv, aber nicht symmetrisch ist. Es gilt beispielsweise immer ; M aber im Allgemeinen M 6 ;, außer wenn M D ;. Damit ist eine Präordnung. Da Teilmengen N; O 2 2M durch ihre Elemente festgelegt sind, folgt aus N O und O N sofort N D O. Daher ist sogar eine partielle Ordnung. Da wir zu je zwei Teilmengen N; O M eine Menge finden, die N und O enthält, beispielsweise N [ O, sehen wir, dass auch eine Richtung ist. Damit ist die Potenzmenge also eine gerichtete Menge. Man sieht aber auch, das hier keine totale Ordnung besteht, da zwei Teilmengen U und V von M im Allgemeinen nicht vergleichbar bezüglich sind. Sei .M; / eine partiell geordnete Menge. Ein Element p 2 M heißt minimales Element oder Infimum (beziehungsweise maximales Element oder Supremum), falls aus q p (oder entsprechend q p) folgt, dass q D p gilt. Ein Minimum (beziehungsweise Maximum) ist ein Punkt p 2 M mit der Eigenschaft, dass für alle q 2 M gilt, dass p q (beziehungsweise q p), siehe auch Übung B.5. Wir können nun das Lemma von Zorn formulieren, welches letztlich zum Auswahlaxiom der Mengenlehre äquivalent ist. Wir verzichten daher auf einen Beweis und verweisen auf die weiterführende Literatur wie beispielsweise [7, 8]. B.4 Abbildungen 431 Satz B.14 (Zornsches Lemma). Sei .M; / eine nichtleere partiell geordnete Menge mit der Eigenschaft, dass jede bezüglich linear geordnete Teilmenge N M ein Supremum besitzt. Dann besitzt .M; / auch ein Supremum. Man beachte jedoch, dass ein Supremum nicht notwendigerweise eindeutig ist. Das Zornsche Lemma macht auch keinerlei Aussagen, wie ein Supremum gegebenenfalls zu finden ist: Es ist eine reine Existenzaussage. B.4 Abbildungen In der Schule ist eine Funktion immer an eine „Rechenvorschrift“ geknüpft, also etwa von der Form f .x/ D x 2 , wobei jedem x 2 R sein Quadrat zugeordnet wird. In der wissenschaftlichen Mathematik benötigen wir erheblich allgemeinere Funktionen und Abbildungen als derartige Rechenvorschriften. Wir wollen nun definieren, was eine Funktion von einer Menge in eine andere ist. Wir werden die Begriffe „Funktion“ und „Abbildung“ im Wesentlichen synonym verwenden. Oft wird jedoch „Funktion“ für eine Abbildung mit Werten in den reellen oder komplexen Zahlen reserviert, während „Abbildung“ der allgemeinere Begriff ist. Die Vorstellung ist nun, dass eine Abbildung f jedem Element x einer Menge M ein Element y D f .x/ einer anderen Menge N zuordnet. Dies ist aber gleichbedeutend damit, dass die Teilmenge ˇ ˚ graph.f / D .x; f .x// ˇ x 2 M M N (B.47) eine rechtseindeutige Relation auf M und N ist. Ist umgekehrt eine rechtseindeutige Relation R M N gegeben, so können wir hieraus eine Abbildung rekonstruieren, indem wir x 2 M dasjenige eindeutig bestimmte y 2 N zuordnen, für welches xRy gilt. Beide Standpunkte sind daher äquivalent. Wir fassen diese Vorüberlegungen in folgender Definition zusammen: Definition B.15 (Abbildung). Seien M und N zwei Mengen. Eine Abbildung f von M nach N ist eine rechtseindeutige Relation .M; N; graph.f //. Die Teilmenge graph.f / M N heißt dabei der Graph der Abbildung. Als Schreibweise für eine Abbildung verwenden wir auch f W M ! N (B.48) f W M 3 x 7! f .x/ 2 N; (B.49) oder 432 Anhang B Mengen und Abbildungen N N f (x) graph(f ) x M x M Abb. B.5 Die linke Relation ist ein Graph, die rechte nicht. wenn wir betonen wollen, welches Element x auf welchen Wert f .x/ abgebildet wird. Die Menge M heißt nun der Definitionsbereich oder Urbildbereich der Abbildung, die Menge N der Bildbereich. Man beachte, dass bei dieser Definition einer Abbildung der Definitionsbereich ebenso wie der Bildbereich Teil der Daten einer Abbildung sind. So sind die Abbildungen f1 W N 3 x 7! x 2 2 N; (B.50) f2 W N 3 x 7! x 2 2 Z; (B.51) f3 W Z n f0g 3 x 7! x 2 2 N (B.52) alle als verschieden anzusehen. Der Begriff „Graph“ ist naheliegend, wenn wir die Relation wieder in das kartesische Produkt „einzeichnen“, siehe Abb. B.5. Insbesondere wird die Bedeutung der Forderung, rechtseindeutig zu sein, in der grafischen Darstellung besonders transparent. Einige Beispiele und Konstruktionen von Abbildungen treten immer wieder auf, sodass sie eigene Namen verdienen: Beispiel B.16 (Spezielle Abbildungen). i.) Für eine Menge M ist die Identität auf M die Abbildung idM W M 3 x 7! x 2 M: (B.53) Der Graph der Identität ist die Diagonale ˇ ˚ graph.idM / D M D .x; x/ ˇ x 2 M : (B.54) ii.) Für zwei Mengen M und N und ein fest gewähltes Element p 2 N ist die konstante Abbildung mit Wert p durch M 3 x 7! p 2 N gegeben. Diese Abbildung hat den Graphen f.x; p/ j x 2 M g. iii.) Ist N M eine Teilmenge, so erhält man die Inklusionsabbildung B.4 Abbildungen 433 N W N 3 x 7! x 2 M (B.55) ˇ ˚ graph.N / D .x; x/ ˇ x 2 N N M: (B.56) mit dem Graphen Man beachte, dass dies nicht die Identitätsabbildung auf N ist, da der Bildbereich nicht N , sondern M ist. iv.) Für ein kartesisches Produkt M D M1 Mn und i 2 f1; : : : ; ng definiert man die Projektion auf die i -te Komponente durch pri W M1 Mn 3 .x1 ; : : : ; xn / 7! xi 2 Mi : (B.57) Der Graph von pri ist dann entsprechend ˇ ˚ graph.pri / D .x1 ; : : : ; xn ; xi / ˇ x1 2 M1 ; : : : ; xn 2 Mn : (B.58) Ist f W M ! N eine Abbildung und ist A M eine Teilmenge, so können wir f auf A einschränken: Die Einschränkung von f auf A ist durch ˇ f ˇA W A 3 x 7! f .x/ 2 N (B.59) definiert. Umgekehrt wollen wir auch eine Einschränkung auf einen Teil des Bildbereichs definieren. Dazu nehmen wir zusätzlich an, B N sei eine Teilmenge mit der Eigenschaft f .x/ 2 B für alle x 2 M . Dann ist die Koeinschränkung von f auf B durch ˇB f ˇ W M 3 x 7! f .x/ 2 B (B.60) definiert. Dies ist offenbar nur dann möglich, wenn f seine Werte in B annimmt. Als Beispiel können wir die Abbildungen f1 , f2 und f3 aus (B.50), (B.51) und (B.52) betrachten. Es gilt ˇN ˇ f1 D f2 ˇ D f3 ˇN : (B.61) Für eine weitere wichtige Konstruktion betrachten wir erneut eine Abbildung f W M ! N . Daraus lassen sich zwei neue Abbildungen konstruieren: Zuerst definieren wir für eine Teilmenge A M die Teilmenge ˇ ˚ f .A/ D y 2 N ˇ 9x 2 AW y D f .x/ (B.62) und nennen f .A/ N das Bild von A unter der Abbildung f . Dies liefert eine Abbildung f W 2M ! 2N ; (B.63) 434 Anhang B Mengen und Abbildungen wobei wir dasselbe Symbol f erneut verwenden. Insbesondere gilt f .;/ D ;. Die Teilmenge f .M / N nennt man auch einfach das Bild von f und bezeichnet sie mit im f D f .M / N: (B.64) Eine allzu große Verwirrung durch die Verwendung desselben Symbols ist nicht zu erwarten, da f .fxg/ D ff .x/g für die einelementige Teilmenge fxg M mit x 2 M gilt. Die zweite Möglichkeit ist letztlich die wichtigere: Für eine Teilmenge B N definieren wir die Teilmenge ˇ ˚ f 1 .B/ D x 2 M ˇ f .x/ 2 B ; (B.65) womit also x 2 f 1 .B/ ” f .x/ 2 B. Man nennt f 1 .B/ das Urbild der Teilmenge B unter der Abbildung f . Dies liefert daher eine Abbildung f 1 W 2N ! 2M : (B.66) Wieder gilt f 1 .;/ D ;. Weiter gilt nun f 1 .N / D M; (B.67) da jeder Punkt von M nach N abgebildet wird. Man beachte jedoch, dass für eine einelementige Teilmenge fyg N die Teilmenge f 1 .fyg/ nicht notwendigerweise nur ein Element enthält. Vielmehr kann sie gänzlich leer sein oder aber mehr als ein Element enthalten. Für die Abbildung f3 aus (B.52) gilt etwa f31 .f1g/ D f1; 1g f31 .f2g/ D ;; und (B.68) da .1/2 D 12 D 1 gilt und 2 sich nicht als Quadrat einer ganzen Zahl schreiben lässt. Die Elemente von f 1 .fyg/ nennt man allgemein auch die Urbilder von y 2 N. Wir schließen diesen Abschnitt mit einer Bemerkung zum Verhalten der mengentheoretischen Operationen n, \ und [ unter Abbildungen. Wir beginnen mit dem Bild von Teilmengen: Proposition B.17. Sei f W M ! N eine Abbildung und seien fAi gi2I Teilmengen von M . Dann gilt f und \ i2I \ Ai i2I f .Ai / (B.69) B.4 Abbildungen 435 f [ i2I [ Ai D i2I f .Ai /: (B.70) Die Inklusion in (B.69) kann dabei durchaus echt sein: Gibt es nämlich x1 ; x2 2 M mit x1 ¤ x2 aber y D f .x1 / D f .x2 /, so ist für A1 D fx1 g und A2 D fx2 g der Schnitt leer, also auch f .A1 \ A2 / D ;. Andererseits ist f .A1 / \ f .A2 / D fyg \ fyg D fyg nicht leer. Für das Komplement einer Teilmenge A M gibt es im Allgemeinen keine einfache Beziehung zwischen f .M n A/ und N n f .A/: Zum einen kann es Punkte geben, die nicht im Bild von f liegen, also y 2 N n f .M /. Dann gilt y 2 N n f .A/ für jede Teilmenge A M , aber f .M n A/ enthält y ebenfalls nicht. Umgekehrt kann es Punkte x1 2 A und x2 2 M n A geben, die auf denselben Punkt y D f .x1 / D f .x2 / abgebildet werden. Dann ist y 2 f .M n A/, da y D f .x2 / 2 f .M n A/. Andererseits ist y … N n f .A/, da y 2 f .A/, wegen y D f .x1 /. Für das Urbild von Teilmengen ist die Situation dagegen sehr viel übersichtlicher: Proposition B.18. Sei f W M ! N eine Abbildung, und seien B N und fBi gi2I Teilmengen von N . Dann gilt f 1 .N n B/ D M n f 1 .B/; \ \ Bi D f 1 .Bi / f 1 i2I (B.71) (B.72) i2I und f 1 [ i2I [ Bi D i2I f 1 .Bi /: (B.73) Beweis. Da dieser Sachverhalt tatsächlich sehr wichtig ist, wollen wir nun einen ausführlichen Beweis geben. Für den ersten Teil findet man x 2 f 1 .N n B/ ” f .x/ 2 N n B ” f .x/ … B ” x … f 1 .B/ ” x 2 M n f 1 .B/: Der zweite Teil folgt aus x 2 f 1 \ i2I Bi ” f .x/ 2 \ i2I Bi ” 8i 2 I W f .x/ 2 Bi 436 Anhang B Mengen und Abbildungen ” 8i 2 I W x 2 f 1 .Bi / \ f 1 .Bi /; ” x2 i2I und den dritten Teil erhalten wir durch [ [ Bi ” f .x/ 2 x 2 f 1 i2I i2I Bi ” 9i 2 I W f .x/ 2 Bi ” 9i 2 I W x 2 f 1 .Bi / [ ” x2 f 1 .Bi /; i2I t u womit alle Behauptungen bewiesen sind. B.5 Verkettungen von Abbildungen Wir wollen nun aus gegebenen Abbildungen neue Abbildungen generieren. Hier ist das Verketten von Abbildungen von fundamentaler Bedeutung: Definition B.19 (Verkettung). Seien f W M ! N und gW N ! O Abbildungen. Dann definiert man die Verkettung von g nach f als die Abbildung g ı f W M ! O mit .g ı f /.x/ D g.f .x// (B.74) für alle x 2 M . Dies stellt offenbar tatsächlich eine Abbildung von M nach O dar, da jedem x 2 M ein eindeutig bestimmtes Element g.f .x// 2 O zugeordnet wird. Die Verkettung ist insbesondere nur dann möglich, wenn der Bildbereich der ersten Abbildung f im Definitionsbereich der zweiten enthalten ist. Beispiel B.20 (Verkettung). Wir betrachten die folgenden beiden Abbildungen f W N 3 x 7! 2x 2 N und gW N 3 x 7! x 2 2 N: (B.75) Da für beide Abbildungen der Bildbereich und der Definitionsbereich übereinstimmen, können wir beide Verkettungen f ı g und g ı f bilden. Wir erhalten .f ıg/.x/ D f .g.x// D f .x 2 / D 2x 2 und .gıf /.x/ D g.f .x// D g.2x/ D 4x 2 : (B.76) B.5 Verkettungen von Abbildungen 437 Insbesondere sehen wir, dass f ı g ¤ g ı f gilt. Die Verkettung von Abbildungen ist also typischerweise nicht kommutativ. Auch wenn die Verkettung im Allgemeinen nicht kommutativ ist, erfüllt sie dennoch einige schöne algebraische Eigenschaften: Proposition B.21 (Verkettung). Seien M; N; O; P Mengen und f W M ! N , gW N ! O und hW O ! P Abbildungen. i.) Es gilt idN ıf D f D f ı idM . ii.) Es gilt h ı .g ı f / D .h ı g/ ı f . Beweis. Zunächst macht man sich klar, dass alle auftretenden Verkettungen tatsächlich definiert sind. Für x 2 M rechnet man nach, dass .idN ıf /.x/ D idN .f .x// D f .x/ und .f ı idM /.x/ D f .idM .x// D f .x/; was den ersten Teil zeigt. Weiter gilt .hı.gıf //.x/ D h..gıf /.x// D h.g.f .x/// D .hıg/.f .x// D ..hıg/ıf /.x/:u t Proposition B.22. Seien f W M ! N und gW N ! O Abbildungen. Für die Urbild-Abbildungen f 1 W 2N ! 2M und g 1 W 2O ! 2N gilt f 1 ı g 1 D .g ı f /1 : (B.77) Beweis. Zunächst ist wieder zu bemerken, dass die Verkettung auf der linken Seite tatsächlich definiert ist und eine Abbildung 2O ! 2M liefert. Daher kann sie sinnvoll mit der rechten Seite verglichen werden. Sei also A O eine Teilmenge von O. Es gilt x 2 .g ı f /1 .O/ genau dann, wenn .g ı f /.x/ 2 O, also g.f .x// 2 O. Dies ist aber gleichbedeutend mit f .x/ 2 g 1 .O/, was t u gleichbedeutend mit x 2 f 1 .g 1 .O// ist. Wir wollen nun Kriterien finden, wann wir eine Abbildung f W M ! N wieder „rückgängig“ machen können. Mit anderen Worten, wir wollen verstehen, welche Information über das Urbild x im Bild f .x/ enthalten ist. Im Allgemeinen ist hier nicht allzu viel zu erwarten: Die konstante Abbildung aus Beispiel B.16, ii.), „vergisst“ die Information über x 2 M völlig, da alle Elemente aus M auf dasselbe Element in N abgebildet werden. Die in gewisser Hinsicht umgekehrte Fragestellung ist, wie viel Information über den Bildbereich N wir durch f erreichen können: Welche Elemente von N treten tatsächlich als Bilder auf? Wir haben gesehen, dass im Allgemeinen das Bild f .M / N eine echte Teilmenge sein kann. Die folgenden Begriffe beschreiben nun die auftretenden Situationen: 438 Anhang B Mengen und Abbildungen Definition B.23 (Injektiv, surjektiv und bijektiv). Sei f W M ! N eine Abbildung. i.) Die Abbildung f heißt injektiv, falls 8x; x 0 2 M W f .x/ D f .x 0 / H) x D x 0 : (B.78) ii.) Die Abbildung f heißt surjektiv, falls 8y 2 N 9x 2 M W f .x/ D y: (B.79) iii.) Die Abbildung f heißt bijektiv, falls f injektiv und surjektiv ist. Bemerkung B.24. Injektivität bedeutet also, dass jedes Bild von f genau ein Urbild besitzt. Surjektivität heißt, dass jeder Punkt im Bildbereich auch ein Bild ist, also f .M / D N . Bijektivität schließlich bedeutet, dass jedes Element y 2 N genau ein Urbild in M besitzt. Eine weitere nützliche Umformulierung ist nun die folgende: Wir wählen ein Element y 2 N und betrachten die Gleichung y D f .x/; (B.80) welche wir lösen wollen. Wir suchen also diejenigen x 2 M mit der Eigenschaft (B.80). Dann gilt offenbar: i.) Die Gleichung (B.80) hat für jedes y 2 N genau dann höchstens eine Lösung, wenn f injektiv ist. ii.) Die Gleichung (B.80) hat für jedes y 2 N genau dann eine Lösung, wenn f surjektiv ist. iii.) Die Gleichung (B.80) hat für jedes y 2 N genau dann eine eindeutige Lösung, wenn f bijektiv ist. Die Eigenschaften aus Definition B.23 lassen sich nun auch mittels der Verkettung von Abbildungen beschreiben: Proposition B.25. Sei f W M ! N eine Abbildung zwischen nichtleeren Mengen. i.) Die Abbildung f ist genau dann injektiv, wenn es eine Abbildung gW N ! M gibt, sodass g ı f D idM : (B.81) ii.) Die Abbildung f ist genau dann surjektiv, wenn es eine Abbildung gW N ! M gibt, sodass f ı g D idN : (B.82) B.5 Verkettungen von Abbildungen 439 iii.) Die Abbildung f ist genau dann bijektiv, wenn es eine Abbildung gW N ! M gibt, sodass f ı g D idN und g ı f D idM : (B.83) In diesem Fall ist g eindeutig bestimmt. Beweis. Sei f injektiv und y 2 N . Dann ist entweder y 2 f .M / oder y … f .M /. Im ersten Fall ist y D f .x/ mit einem eindeutig bestimmten x 2 M . Wir definieren in diesem Fall g.y/ D x. Im zweiten Fall wählen wir irgendein beliebiges Element x0 2 M und setzen g.y/ D x0 . Ist nun x 2 M , so gilt für diese Abbildung g nach Konstruktion g.f .x// D x, also (B.81). Sei umgekehrt ein g mit (B.81) gefunden. Für x; x 0 2 M mit f .x/ D f .x 0 / folgt dann durch Anwenden von g die Gleichung x D g.f .x// D g.f .x 0 // D x 0 , womit die Injektivität von f folgt. Dies zeigt den ersten Teil. Für Teil ii.) betrachten wir zunächst eine surjektive Abbildung f . Für jedes y 2 N gibt es daher ein x 2 M mit f .x/ D y. Wir wählen zu jedem y 2 N (willkürlich) ein derartiges x D g.y/ aus. Dies definiert die Funktion g, für welche dann (B.82) folgt. Sei umgekehrt ein derartiges g gegeben. Dann gilt für y 2 N die Eigenschaft y D f .g.y//, womit y 2 f .M / ein Bild ist. Also ist f surjektiv. Für den dritten Teil wissen wir bereits, dass die Existenz einer Abbildung g mit (B.83) die Bijektivität von f impliziert, indem wir den ersten und zweiten Teil verwenden. Sei umgekehrt f bijektiv. Dann gibt es eine Abbildung g mit (B.81) nach i.) und eine Abbildung g 0 mit (B.82) nach ii.). Mit den Regeln für die Verkettung nach Proposition B.21 gilt g D g ı idN D g ı .f ı g 0 / D .g ı f / ı g 0 D idM ıg 0 D g 0 ; womit gezeigt ist, dass die beiden Abbildungen g und g 0 notwendigerweise übereinstimmen. Damit gibt es aber eine Abbildung g mit (B.83), welche zudem eindeutig bestimmt ist. t u Definition B.26 (Inverse Abbildung). Sei f W M ! N eine bijektive Abbildung. Die eindeutig bestimmte Abbildung f 1 W N ! M mit f 1 ı f D idM und f ı f 1 D idN heißt Umkehrabbildung oder inverse Abbildung von f . Definition B.27 (Isomorphie von Mengen). Zwei Mengen M und N heißen isomorph, wenn es eine bijektive Abbildung f W M ! N gibt. Bemerkung B.28. Hier ist nun tatsächlich eine missverständliche Notation üblich: Die Umkehrabbildung f 1 W N ! M (B.84) gibt es ausschließlich für den Fall einer bijektiven Abbildung f . Die UrbildAbbildung 440 Anhang B Mengen und Abbildungen f 1 W 2N ! 2M (B.85) gibt es dagegen immer, egal, ob f bijektiv ist oder nicht. Verständlicherweise führt diese Bezeichnungsweise zu Verwirrung, leider ist sie jedoch durchweg gebräuchlich, sodass es keine einfache Lösung dieses Notationskonflikts zu geben scheint. Ist nun f bijektiv, so lässt sich (B.85) wie folgt beschreiben: Für eine Teilmenge B N gilt ˇ ˚ f 1 .B/ D f 1 .y/ ˇ y 2 B ; (B.86) was mit den Bezeichnungen aus (B.62) konsistent ist. Als erste kleine Anwendung können wir den Begriff der Abbildung nun dazu verwenden, kartesische Produkte mit mehr als endlich vielen Faktoren zu definieren. Wir benutzen dazu die Menge der ersten n natürlichen Zahlen n D f1; 2; : : : ; ng; (B.87) mit denen wir folgendes Resultat formulieren können: Proposition B.29. Seien M1 ; : : : ; Mn endlich viele Mengen, und sei M D M1 [ [ Mn deren Vereinigung. Dann ist ihr kartesisches Produkt M1 Mn zur Menge ˇ ˚ M D f 2 Abb.n; M/ ˇ f .i / 2 Mi für alle i 2 n (B.88) isomorph, wobei das n-Tupel .x1 ; : : : ; xn / 2 M1 Mn mit der Abbildung f W i 7! xi identifiziert wird. Beweis. Der Beweis wird in Übung B.8 diskutiert. t u Aufgrund dieser Beobachtung erhebt man die Charakterisierung (B.88) nun zur Definition, wenn man mehr als endlich viele Faktoren hat: Definition B.30 (Kartesisches Produkt). Sei I eine nichtleere Indexmenge, und seien fMi gi2I Mengen. Dann definiert man ihr kartesisches Produkt M als M D Y ˇ ˚ Mi D f 2 Abb.I; M/ ˇ f .i / 2 Mi für alle i 2 I ; (B.89) i2I wobei M D S i2I Mi . Ob es zu nichtleeren Mengen Mi überhaupt eine Abbildung f mit der Eigenschaft f .i / 2 Mi gibt, ist für unendliche Indexmengen keineswegs trivial: Es stellt sich B.6 Mächtigkeit von Mengen 441 heraus, dass dies axiomatisch gefordert werden muss und genau das Auswahlaxiom der Mengenlehre liefert. Q Für das kartesische Produkt M D i2I Mi können wir immer noch von der j -ten Komponente eines Elements sprechen, indem wir prj W Y Mi 3 f 7! prj .f / D f .j / 2 Mj (B.90) i2I definieren. Dank des Auswahlaxioms stellen sich diese Projektionen als surjektive Abbildungen dar, wie Q dies bereits für endliche kartesische Produkte der Fall ist. Umgekehrt ist f 2 i2I Mi durch die Gesamtheit seiner Projektionen f .i / eindeutig bestimmt. B.6 Mächtigkeit von Mengen Es stellt sich nun die Frage, wie wir Mengen der Größe nach vergleichen können. Bis jetzt tragen die Mengen ja keine zusätzliche Struktur, außer dass sie durch die Gesamtheit ihrer Elemente festgelegt sind. Bei endlichen Mengen mit endlich vielen Elementen können wir daher einen Größenvergleich dadurch erzielen, dass wir die Anzahl der Elemente bestimmen. Auch wenn wir ein intuitives Verständnis für die natürlichen Zahlen seit Kindestagen besitzen, verfügen wir mathematisch gesehen noch nicht über eine belastbare Definition. Es ist tatsächlich so, dass man die natürlichen Zahlen mithilfe der Axiome der Mengenlehre konstruieren kann. Wir wollen dies hier nicht skizzieren, sondern an unser naives Zahlenverständnis anknüpfen: Wir gehen davon aus, dass wir über die Mengen n der ersten n natürlichen Zahlen verfügen. Die Menge n besitzt demnach genau n Elemente. Wie schon kleine Kinder können wir damit für eine andere Menge M deren Elemente abzählen: Die Elemente der Menge M werden nun nicht mehr den Fingern der Hand zugeordnet, sondern den Elementen der Menge n. Erreichen wir dann eine Bijektion, so können wir sagen, dass die Menge M gerade n Elemente besitzt. Diese frühkindliche Art des Zählens mit den Fingern erweist sich dabei als erstaunlich leistungsfähig, sodass das Finden einer Bijektion zum Ausgangspunkt auch für unendliche Mengen gemacht wird: Definition B.31 (Mächtigkeit von Mengen). Seien M und N zwei Mengen. i.) Die Menge M heißt gleich mächtig wie N , wenn es eine Bijektion W M ! N gibt. ii.) Gibt es eine injektive Abbildung W M ! N , so heißt M weniger mächtig als N . Gleich mächtig zu sein, ist offenbar eine Äquivalenzrelation, da die inverse Abbildung einer Bijektion ebenfalls eine Bijektion ist und die Verkettung von 442 Anhang B Mengen und Abbildungen Bijektionen wieder bijektiv ist. Weniger mächtig zu sein, wird hier wie immer im schwachen Sinne, also weniger oder gleich mächtig, und nicht im starken Sinne von echt weniger mächtig verwendet. Es ist an dieser Stelle jedoch etwas Vorsicht geboten, da wir Relationen nur innerhalb einer Menge definiert haben. Wenn wir nun alle Mengen vergleichen wollen, so verlassen wir dabei den sicheren Boden von Definition B.10. Der Ausweg besteht nun darin, für die Äquivalenzklasse einen speziellen Repräsentanten zu wählen, eine wohlgeordnete Menge mit der erforderlichen Mächtigkeit. Wir wollen diese Schwierigkeit an dieser Stelle aber ignorieren und schreiben für die entsprechende Äquivalenzklasse, die Mächtigkeit, einer Menge M nun #M . Zwei Mengen sind also gleich mächtig, wenn #M D #N gilt. Entsprechend verwenden wir bei Bezeichnung #M #N , wenn M weniger mächtig als N ist. Es stellt sich nun die Frage, ob wir je zwei Mengen überhaupt ihrer Größe nach vergleichen können. Weiter ist zu klären, ob die Präordnung sogar eine partielle Ordnung ist. Auf beide Fragen gibt es eine positive Antwort, deren Beweis aber unseren naiven Zugang zur Mengenlehre überfordert: Satz B.32 (Vergleichsatz von Zermelo). Für je zwei Mengen M und N gilt #M #N oder #N #M . Satz B.33 (Äquivalenzsatz von Cantor-Bernstein-Schröder). Gilt für zwei Mengen M und N sowohl #M #N als auch #N #M , so sind M und N gleich mächtig. Der Vergleichsatz ist letztlich zum Auswahlaxiom der Mengenlehre äquivalent. Der Beweis des Äquivalenzsatzes erfordert eine trickreiche und nicht explizite Konstruktion einer Bijektion aus den wechselseitigen Injektionen von M nach N und umgekehrt. Eine Menge M ist nun also endlich, wenn sie gleich mächtig zu einer der Mengen n ist. In diesem Fall schreiben wir einfach #M D n (B.91) mit der entsprechenden natürlichen Zahl n. Die leere Menge ; hat die Mächtigkeit #; D 0. Für unendliche Mengen unterscheiden wir verschiedene Arten von unendlich: Definition B.34 (Abzählbarkeit). Eine Menge M heißt abzählbar, wenn entweder M endlich ist oder #M D #N gilt. Eine nicht abzählbare unendliche Menge heißt überabzählbar. Beispiel B.35 (Abzählbare Mengen). Die natürlichen Zahlen N sind abzählbar unendlich, aber auch N0 und Z sind abzählbar unendlich. Es gilt sogar, dass B.7 Übungen 443 eine abzählbare Vereinigung von abzählbaren Mengen wieder abzählbar ist, siehe Übung B.10. Angesichts dieser Resultate stellt sich natürlich sofort die Frage, ob nicht vielleicht alle Mengen abzählbar sind: Dies ist nicht der Fall, wie folgender Satz von Cantor zeigt: Satz B.36 (Cantorsches Diagonalargument). Sei M eine Menge. Dann gilt #M < #2M . Beweis. Der Beweis ist tatsächlich sehr einfach, wenn auch raffiniert: Zunächst ist klar, dass es immer eine Injektion von M nach 2M gibt. Man kann etwa die Elemente p 2 M mit den einpunktigen Teilmengen fpg 2 2M identifizieren. Wir nehmen nun an, es gäbe eine Bijektion W M ! 2M . Insbesondere gibt es für jede Teilmenge A M einen Punkt p 2 M mit .p/ D A. Wir betrachten nun die Teilmenge ˇ ˚ X D q 2 M ˇ q … .q/ : Zu diesem X finden wir also ein p 2 M mit X D .p/. Dies liefert einen Widerspruch: Es gilt nämlich entweder p 2 X , dann ist nach Definition von X aber p … .p/ D X , oder es gilt p … X D .p/, dann ist nach Definition von X aber p 2 X . t u Es gibt daher eine Fülle von verschiedenen Begriffen von „unendlich“ in der Mengenlehre. Insbesondere sehen wir, dass die Potenzmenge von N bereits überabzählbar ist. Es gilt #N < #2N : B.7 (B.92) Übungen Übung B.1 (Operationen mit Relationen). Seien M und N Mengen und R M N eine Relation. Dann definiert man die umgekehrte Relation Ropp N M durch ˇ ˚ Ropp D .y; x/ 2 N M ˇ xRy : (B.93) Für eine weitere Relation S N O mit einer weiteren Menge O definiert man die Verknüpfung S ı R M O der Relationen R und S durch ˇ ˚ S ı R D .x; z/ 2 M O ˇ es gibt ein y 2 N mit xRy und yS z : i.) Zeigen Sie, dass .Ropp /opp D R gilt. (B.94) 444 Anhang B Mengen und Abbildungen ii.) Untersuchen Sie, wie sich die Begriffe links- und rechtseindeutig, reflexiv, symmetrisch und transitiv unter dem Übergang R 7! Ropp verhalten. iii.) Zeigen Sie, dass die Verknüpfung von Relationen assoziativ ist: Formulieren Sie zunächst genau, was mit dieser Aussage gemeint ist. iv.) Zeigen Sie, dass R ı M D R für die Diagonale M M M und jede Relation R. Zeigen Sie ebenso N ı R D R. v.) Betrachten Sie nun Abbildungen f W M ! N und gW N ! O. Zeigen Sie, dass graph.g ı f / D graph.g/ ı graph.f /: (B.95) vi.) Wann ist graph.f /opp wieder der Graph einer Abbildung? Übung B.2 (Äquivalenzrelationen und Partitionen). Sei M eine Menge mit einer Menge fM S i gi2I von nichtleeren Teilmengen von M . Es gelte Mi \Mj D ; für i ¤ j sowie i2I Mi D M . In diesem Fall nennt man die fMi gi2I eine Zerlegung oder Partition von M . i.) Sei n 2 N. Bestimmen Sie alle möglichen Zerlegungen von n in k disjunkte Teilmengen. Hinweis: Betrachten Sie zunächst kleine k und finden Sie eine explizite kombinatorische Beschreibung. Den allgemeinen Fall können Sie dann durch Induktion beweisen. ii.) Zeigen Sie, dass eine Zerlegung eine Äquivalenzrelation auf M induziert, wobei x y, falls x; y 2 Mi für ein i 2 I . Übung B.3 (Induzierte Äquivalenzrelation). Sei .M; / eine prägeordnete Menge. Definieren Sie x y für x; y 2 M durch x y und y x. Zeigen Sie dann, dass eine Äquivalenzrelation auf M ist. Übung B.4 (Partielle Ordnungen). Betrachten Sie die natürlichen Zahlen N mit der üblichen Ordnungsrelation sowie der Relation 4, welche durch n 4 m, falls n ein Teiler von m ist, definiert sei. i.) Zeigen Sie, dass .N; 4/ eine partiell geordnete und gerichtete Menge ist. ii.) Ist 4 auch eine totale Ordnung? iii.) Zeigen Sie, dass idW .N; 4/ ! .N; / eine ordnungserhaltende Abbildung ist: Für n 4 m gilt auch n m. Gilt dies auch für die Umkehrabbildung? iv.) Finden Sie eine injektive Abbildung W .N; / ! .N; 4/, welche ordnungserhaltend ist. Übung B.5 (Infimum und Supremum). Menge. Sei .M; / eine partiell geordnete B.7 Übungen 445 i.) Zeigen Sie, dass ein Minimum (beziehungsweise Maximum) immer ein Infimum (beziehungsweise Supremum) ist. ii.) Zeigen Sie, dass ein Minimum (beziehungsweise Maximum) eindeutig bestimmt ist, wenn es denn überhaupt existiert. iii.) Sei nun M eine nichtleere Menge und 2M ihre Potenzmenge, welche durch partiell geordnet sei. Bestimmen Sie Minimum und Maximum von .2M ; /. iv.) Betrachten Sie nun die Teilmenge X 2M der Potenzmenge von M , die aus nichtleeren Teilmengen ungleich M von M besteht. Bestimmen Sie nun die Infima und Suprema der partiell geordneten Menge .X; /. Gibt es immer noch ein Minimum oder Maximum? Es zeigt sich, dass der Begriff des Infimums beziehungsweise des Supremums einer partiell geordneten Menge letztlich der wichtigere ist: Minima und Maxima existieren in vielen typischen Beispielen nicht, während es durchaus (nicht eindeutige) Infima und Suprema geben kann. Übung B.6 (Verkettung von Abbildungen). Zeigen Sie, dass die Verkettung von injektiven (surjektiven, bijektiven) Abbildungen wieder injektiv (surjektiv, bijektiv) ist. Übung B.7 (Linkskürzbare Abbildungen). Sei f W M ! N eine Abbildung zwischen nichtleeren Mengen. Dann heißt f linkskürzbar, wenn für alle Abbildungen g1 ; g2 W X ! M aus f ı g1 D f ı g2 folgt, dass g1 D g2 gilt. Zeigen Sie, dass f genau dann linkskürzbar ist, wenn f injektiv ist. Übung B.8 (Endliche kartesische Produkte). Beweisen Sie Proposition B.29. Hinweis: Da das n-fache kartesische Produkt induktiv definiert ist, bietet sich hier ein induktiver Beweis an. Weisen Sie dann nach, dass die vorgeschlagene Identifikation tatsächlich eine Bijektion liefert. Übung B.9 (Mächtigkeit endlicher Mengen). Zeigen Sie, dass für alle n 2 N0 #2n D 2n : (B.96) Hinweis: Vergessen Sie nicht die leere Teilmenge ; n. Übung B.10 (Hilberts Hotel). In Hilberts Hotel ist immer Platz für Gäste. i.) Zeigen Sie zunächst, dass N0 und Z abzählbar unendlich sind, indem Sie explizite Bijektionen zu N angeben. ii.) Zeigen Sie weiter, dass die Menge der ungeraden natürlichen Zahlen ebenfalls abzählbar unendlich ist. iii.) Zeigen Sie, dass QC auch abzählbar ist. 446 Anhang B Mengen und Abbildungen Hinweis: Zunächst ist klar, dass #N #Q gilt (wieso?). Ordnen Sie nun die Brüche mn 2 Q C in einem Rechteckschema an, wobei Sie die Zähler nach rechts, die Nenner nach unten auftragen. Wie finden Sie nun eine Abzählung? iv.) Zeigen Sie schließlich, dass #N D #Q gilt. v.) Seien nun abzählbar viele abzählbare Mengen fMn gn2N gegeben. Zeigen Sie, S dass deren Vereinigung M D n2N Mn ebenfalls abzählbar ist. Hinweis: Dies ist Hilberts Hotel: Das Hotel hat abzählbar unendlich viele Zimmer, die bereits alle belegt sind. Dann kommen abzählbar unendlich viele Busse mit je abzählbar vielen Gästen beim Hotel an und alle bekommen ein Zimmer, nachdem die Rezeption die Zimmer etwas neu verteilt hat (wie?). Übung B.11 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen: i.) ii.) iii.) iv.) v.) vi.) vii.) viii.) ix.) x.) xi.) xii.) xiii.) Es gibt eine injektive Abbildung Q ! N. Es gibt eine surjektive Abbildung N ! Z Z. Es gibt eine Bijektion .0; 1/ ! R. Es gibt eine injektive Abbildung R ! R R. Das Urbild f 1 .fyg/ eines Punktes ist eine Teilmenge. Das Urbild f 1 .fyg/ eines Punktes ist genau dann leer, wenn f nicht surjektiv ist. Das Urbild f 1 .fyg/ eines Punktes ist genau dann leer, wenn y nicht im Bild von f liegt. Das Urbild f 1 .fyg/ eines Punktes besteht aus mehreren Punkten. Es gibt eine surjektive Abbildung R ! R R. Für jede nichtleere Menge M gibt es eine injektive Abbildung M ! M M. Für jede nichtleere Menge M gibt es eine surjektive Abbildung M ! M M. Es gibt eine nichtleere Menge M mit einer Bijektion M ! M M . Es S gibt abzählbar viele, abzählbar unendliche An N mit An \ Am D ; und n2N An D N. Literaturverzeichnis 1. Amann, H., Escher, J.: Analysis I. Grundstudium Mathematik, 3. Aufl. Birkhäuser Verlag, Basel (2006) 2. Amann, H., Escher, J.: Analysis II. Grundstudium Mathematik, 2. Aufl. Birkhäuser Verlag, Basel (2006) 3. Beutelspacher, A.: Lineare Algebra, 8th updated edn. Springer, Heidelberg (2014). Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen 4. Bosch, S.: Lineare Algebra, 5. Aufl. Springer, Heidelberg (2014) 5. Ebbinghaus, H.-D., Flum, J., Thomas, W.: Einführung in die mathematische Logik, 4. Aufl. Spektrum Akademischer Verlag, Heidelberg/Berlin (1998) 6. Gerritzen, L.: Grundbegriffe der Algebra. Vieweg, Braunschweig, Wiesbaden (1994) 7. Halmos, P.R.: Naive Mengenlehre, 4. Aufl. Vandenhoeck & Ruprecht, Göttingen (1976) 8. Herrlich, H.: Axiom of Choice. Lecture Notes in Mathematics, Bd. 1876. Springer, Berlin (2006) 9. Jacobson, N.: Basic Algebra I, 2. Aufl. Freeman and Company, New York (1985) 10. Jacobson, N.: Basic Algebra II, 2. Aufl. Freeman and Company, New York (1989) 11. Jänich, K.: Lineare Algebra, 11. Aufl. Springer, Heidelberg, Berlin (2008) 12. Klingenberg, W.: Lineare Algebra und Geometrie. Springer, Berlin/Heidelberg/New York (1984) 13. Knabner, P., Barth, W.: Lineare Algebra. Springer, Heidelberg (2013). Grundlagen und Anwendungen 14. Koecher, M.: Lineare Algebra und analytische Geometrie, 4. Aufl. Springer, Heidelberg/Berlin/New York (1997) 15. Kowalsky, H.-J., Michler, G.: Lineare Algebra, 12. Aufl. Walter de Gruyter, Berlin (2003) 16. Lang, S.: Introduction to Linear Algebra. Undergraduate Texts in Mathematics, 2. Aufl. Springer, Berlin/Heidelberg/New York (1986) 17. Lang, S.: Algebra, 3rd edn. Addison-Wesley Publishing Company, Inc., Reading (1997) 18. Remmert, R.: Funktionentheorie I. Grundwissen Mathematik, Bd. 5, 2nd edn. Springer, Berlin/Heidelberg/New York (1989) 19. Rudin, W.: Real and Complex Analysis, 3. Aufl. McGraw-Hill Book Company, New York (1987) 20. Rudin, W.: Functional Analysis, 2. Aufl. McGraw-Hill Book Company, New York (1991) 21. Walter, R.: Einführung in die Lineare Algebra, 3. Aufl. Vieweg-Verlag, Braunschweig (1990) 22. Werner, D.: Funktionalanalysis, 4. Aufl. Springer, Berlin/Heidelberg/New York (2002) © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6 447 Sachverzeichnis A Abbildung, 431 adjungierbare, 328 adjungierte, 329 affine, 193 Bild, 433 Bildbereich, 432 Definitionsbereich, 432 Einschränkung, 433 Graph, 431 Identität, 432 Inklusion, 432 inverse, 439 invertierbare, 439 Koeinschränkung, 433 konstante, 432 lineare, 131 multilineare, 207 normale, 334 orthogonale, 320 Projektion, 433 selbstadjungierte, 334 unitäre, 320 Urbild, 434 Urbildbereich, 432 Verkettung, 436 Wert, 432 Abbildungsraum, 89 endlicher Träger, 96 abelsche Gruppe, 39 Ableitung, 134, 179 Absolutbetrag, 363, 365 Abzählbarkeit, 442 Additionstheoreme, 62 Adjunktion, 301 Affiner Raum, 128 Affiner Unterraum, 129 Ähnlichkeit, 235 Matrizen, 277 nilpotente Matrizen, 274 Allgemeine lineare Gruppe, 162, 220 Allquantor, 415 alternierend, 209 Alternierende Gruppe, 205 Anschauungsraum, 1 Antihomomorphismus, 301 Approximationszahl, 388 Äquivalenz, 412 von Matrizen, 171 Äquivalenzrelation, 429 Assoziativität, 33, 44 von Verkettung, 437 Austauschsatz, 106 Auswahlaxiom, 423 Auswertungsabbildung, 134 Automorphismengruppe, 40 Automorphismus, 32 B Bahn, 72 Bandmatrix, 290 Basis, 105 duale, 174 Ergänzungssatz, 108 Existenz, 108 geordnete, 148 Koordinaten, 106 Mächtigkeit, 110 orthonormale, 316 Basisdarstellung, 151 Basiswechsel, 155 Matrixdarstellung, 156 Bezout-Lemma, 67, 260 bijektiv, 438 Bild, 433 einer linearen Abbildung, 136 von Gruppenmorphismus, 43 Bildbereich, 432 Bilinearform, 294 © Springer-Verlag Berlin Heidelberg 2017 S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6 449 450 Basisdarstellung, 295 Basiswechsel, 297 positiv definit, 298 positiv semidefinit, 298 symmetrische, 295 Bilinearität, 138 Binomialsatz, 159 Blockmatrix, 188, 224 C Cantorsches Diagonalargument, 443 Cauchy-Schwarz Ungleichung, 299 komplexer Fall, 303 Cauchy-Schwarz-Ungleichung, 12 Charakteristik, 54, 211 Charakteristisches Polynom, 241, 242, 263 Cramersche Regel, 229, 230 D de Morgansche Regel, 412 Definitionsbereich, 432 Determinante, 215 Blockmatrix, 224 Endomorphismus, 245 Existenz und Eindeutigkeit, 215 Gruppenmorphismus, 216 in kleinen Dimensionen, 218 invertierbare Matrix, 220 Jägerzaunregel, 218 Konjugation, 245 Leibniz-Formel, 215 orthogonale Matrix, 326 Sarrus-Regel, 218 unitäre Matrix, 326 Determinantenform, 215 Diagonale, 432 Diagonalisierbarkeit, 239, 263 Diagonalmatrix, 235 Dichtematrix, 359 Dimension, 110, 146 Dimensionsformel direkte Summe, 114 für Unterräume, 117 Kern und Bild, 144 Direkte Summe, 112 Basis, 113 Dimensionsformel, 114 innere und äußere, 117 von Unterräumen, 114 Disjunktion, 412 Distributivgesetz, 44 Doppeldualraum, 176 Sachverzeichnis Drehachse, 399 Drehung, 352 Dreiecksmatrix, 221 Dreiecksungleichung, 306 Dualisieren, 175 Dualraum, 173 topologischer, 332 E Ebene, 5 Gleichung, 6 Parameterdarstellung, 5 Eigenraum, 236 verallgemeinerter, 259 Eigenvektor, 236 Eigenwert, 236, 242 Einheitskreis, 61 Einheitsmatrix, 162 Einheitsvektor, 13, 308, 316 Einheitswurzeln, 78 Einselement, 33 Element, 419 Elementare Umformungen, 82, 120 Elementarmatrizen, 164 Endomorphismenring, 139 Endomorphismus, 31 Absolutbetrag, 363 Hermitescher, 334 idempotenter, 250 Negativteil, 363 nilpotenter, 250 positiv definiter, 356 positiver, 356 Positivteil, 363 symmetrischer, 334 Wurzel, 363 Entwicklungssatz von Laplace, 226 Epsilon-Symbol, 189 Erwartungswert, 356 Erzeugendensystem, 100 Euklidische Länge, 10 Euklidischer Abstand, 10 Euklidischer Raum, 306 Existenzquantor, 415 F Faktorisierung, 67 Fakultät, 418 Fast-komplexe Struktur, 195 Fehlstand, 202 Flächeninhalt, 206 Folgenraum, 90, 95 Sachverzeichnis beschränkte Folgen, 95 konvergente Folgen, 95 Nullfolgen, 95 Fourier-Koeffizienten, 403 Funktional lineares, 173 positives, 358 Funktionenraum, 89 G Gauß-Algorithmus, 86, 222 Geordnetes Paar, 424 Gerade, 5, 97 Gleichung, 8 Parameterdarstellung, 5 Gerichtete Menge, 429 Graßmann-Identität, 16 Gram-Schmidt-Verfahren, 317 Graph, 431 Gruppe, 39 abelsche, 39 additive, 39 multiplikative, 39 orthogonale, 321 spezielle orthogonale, 327 spezielle unitäre, 327 symmetrische, 41 triviale, 41 unitäre, 321 zyklische, 41 Gruppenmorphismus, 39 Kern, 44 Gruppenwirkung, 72 freie, 128 transitive, 128 H Halbeinfacher Teil, 267 Halbgruppe, 33 Halbnorm, 307 Hauptraum, 259 Heisenbergsche Unschärferelation, 405 Hilbert-Basis, 316 Homomorphismus, 31, 137 Absolutbetrag, 365 Hotel, 445 I Ideal, 67 Identitätsabbildung, 432 Identitätssatz, 233 Imaginäre Einheit, 59 451 Imaginärteil, 59 Implikation, 412 Impulsoperator, 187 Indexmenge, 422 Induktionsprinzip, 416 Infimum, 444 injektiv, 44, 438 Inklusionsabbildung, 432 Inneres Produkt, 293 Existenz, 296 Integration, 135 Interpolationspolynom, 234 Inverse Matrix, 229 Inverses, 37 Inversion, 70 Invertierbarkeit, 438 Determinante, 220 in Monoid, 36 Involution, 301 Isometrie, 320 partielle, 368 Isomorphismus, 32 musikalischer, 332 von Mengen, 439 von Vektorräumen, 133, 146 Isotropiegruppe, 72 J Jacobi-Identität, 16 Kommutator, 180 Jordan-Basis, 277 Jordan-Matrix, 268, 269, 274 Jordan-Normalform, 275 Jordan-Zerlegung, 267 Junktor, 412 K Kartesisches Produkt, 424 Kern, 44 einer linearen Abbildung, 136 Monoidmorphismus, 35 von Gruppenmorphismus, 43 Klassifikation von Vektorräumen, 146 von euklidischen Vektorräumen, 325 von unitären Vektorräumen, 325 Kommutante, 407 Körper, 53 algebraisch abgeschlossener, 244 Charakteristik, 54 der komplexen Zahlen, 57, 59 Körpermorphismus, 53 452 Kommutativität, 33 Kommutator, 180 Komplementärraum, 119 Komplexe Konjugation, 59 Komplexe Zahlen, 57 Betrag und Phase, 60 Konjugation, 70, 245 Konjunktion, 412 Koordinaten, 106, 135, 147, 173 Koordinatenachse, 1 Koordinatenfunktional, 173 Koordinatenwechsel, 155 Kovarianzmatrix, 405 Kreuzprodukt, 16, 134 Kronecker-Symbol, 90 L Lösungsmenge, 82 Legendre-Polynome, 404 Leibniz-Formel, 215 Leibniz-Regel Ableitung, 179 Kommutator, 180 Lemma von Bezout, 67, 260 von Zorn, 431 Levi-Civita-Symbol, 189 Limes, 134 Lineare Abbildung, 131 Basisdarstellung, 149, 151 Bild, 136 duale, 175 Existenz, 141 Kern, 136 Matrix, 149 Normalform, 172 Rang, 145 transponierte, 175 Werte auf Basis, 141 Lineare Unabhängigkeit, 100 indizierte Menge, 102 Linearer Operator, 131 Lineares Funktional, 173 Lineares Gleichungssystem, 82, 86 Matrixschreibweise, 161 Linearfaktor, 244 Linearform, 173 Linearkombination, 97 leere, 99 Linksinverses, 36 Linksmultiplikation, 70 Lot fällen, 400 Sachverzeichnis M Mächtigkeit, 441 Magma, 30 Matrix, 150 Absolutbetrag, 363, 365 adjungierte, 301 Ähnlichkeit, 235 Äquivalenz, 171 Bild, 161 endliche, 158 inverse, 229 Kern, 161 komplementäre, 228 Negativteil, 363 positiv definite, 356 Positivteil, 363 Produkt, 152 Rang, 161, 168 Rechteckschreibweise, 157 Ringstruktur, 153 Smith-Normalform, 168 symplektische, 190, 278 Transposition, 166 von linearer Abbildung, 149 Wurzel, 363 Matrixmultiplikation, 152 Maximum, 444 Maximumsnorm, 394 Menge, 419 abzählbare, 442 Durchschnitt, 423 Komplement, 423 leere, 420 überabzählbare, 442 Vereinigung, 422 Minimalpolynom, 257, 263 Minimum, 444 Monoid, 34 Untermonoid, 35 Monoidmorphismus, 34 Kern, 35 Morphismus, 30 von Gruppen, 39 von Körpern, 53 von Monoiden, 34 von Ringen, 46 Multilineare Abbildung, 207 alternierende, 209 Multiplikation mit Skalaren, 87 Multiplikationsoperator, 238 Multiplizität, 236 Musikalischer Homomorphismus, 294 Sachverzeichnis N Negation, 412 Negativteil, 363 Neutrales Element, 33 Nilpotenter Teil, 267 Nilpotenz, 250, 269 Norm, 306 Normale Untergruppe, 44 Normalform Jordansche, 275 Smith, 172 von linearer Abbildung, 172 von Matrizen, 168 von nilpotentem Endomorphismus, 269 Nullabbildung, 134 Nullmatrix, 162 Nullraum, 89 Nullring, 45 Nullstelle, 51 Nullteiler, 64, 75, 79, 163 Nullvektor, 87 O Obere Dreiecksform, 222 Observable, 356 Operator, 131 beschränkter, 381 Operatornorm, 381 Orbit, 72 Ordnung partielle, 429 selbstadjungierte Abbildungen, 406 totale, 429 orthogonal, 12, 310 Orthogonale Gruppe, 321 Orthogonalkomplement, 311 Orthogonalprojektor, 314 Orthonormalbasis, 316 Orthonormalsystem, 316, 317 Ortsoperator, 187 P parallel, 4 Parallelogramm-Identität, 308 Parsevalsche Gleichung, 319 Partielle Ordnung, 429 Partition, 444 Pauli-Matrizen, 189, 283, 396 Operatornorm, 407 Permutation, 41 Fehlstand, 202 gerade, 202 453 Länge, 202 Signum, 202 Transposition, 203 ungerade, 202 Permutationsgruppe, 41 Pinguin, 417 Polarisierung, 309 Polarzerlegung, 370 Kommutante, 373 Polynomdivision, 64 Polynome, 48 Grad, 48, 51, 64 Identitätssatz, 233 Linearfaktoren, 67 mehrere Variablen, 77 Nullstelle, 51 Ring, 48 teilerfremde, 66 Vektorraum, 91 Polynomialer Kalkül, 256, 286 Positivteil, 363 Potenzmenge, 423, 435 Prä-Hilbert-Raum, 306 Präordnung, 429 Projektionsabbildung, 433 Projektor, 250 Ähnlichkeit, 253 orthogonaler, 314 pull-back, 175 Punkt vor Strich, 44, 87 Q Quantenmechanik, 356 Quantor, 415 Quasiordnung, 429 Quaternionen, 283 R Rang, 145 transponierte Matrix, 170 Realteil, 59 Rechtsinverses, 36 Rechtsmultiplikation, 70 Rekursion, 290 Relation, 428 linkseindeutige, 429 rechtseindeutige, 429, 431 reflexive, 429 symmetrische, 429 transitive, 429 Richtung, 429 Ring, 44 454 der Endomorphismen, 139 der Polynome, 48 Einselement, 44 kommutativer, 44 von Matrizen, 153 Ringmorphismus, 46 einserhaltend, 46 Kern, 47 S Sarrus-Regel, 218 Satz Basisergänzung, 108 Cantor-Bernstein-Schröder, 442 Cayley-Hamilton, 248 Cramer, 229, 230 Existenz einer Basis, 108 Gram-Schmidt, 317 Jordan, 275 Laplace, 226 Mächtigkeit einer Basis, 110 Pythagoras, 311 Steinitz, 106 Zermelo, 442 Schefferscher Strich, 412 Schiefkörper, 283 Seminorm, 307 Sesquilinearform, 300 Hermitesch, 300 Signum, 202 Singulärer Wert, 375 Singulärwertzerlegung Homomorphismus, 376 Matrix, 377 Skalar, 87 Skalarprodukt, 11, 298, 300 duales, 401 Existenz, 302 Integral, 304 kanonisches, 298, 302 Smith-Normalform, 172 Spaltenrang, 171 Spann, 97 Spatprodukt, 208 Spektraldarstellung, 267 Spektralprojektor, 267 Spektralsatz, 263 normale Abbildung, 342, 346 Spektralzerlegung, 267 Spektrum, 267 Spezielle lineare Gruppe, 217 Spezielle orthogonale Gruppe, 327 Spezielle unitäre Gruppe, 327 Sachverzeichnis Spur, 242 Stabilisatorgruppe, 72 Standardbasis, 101, 105, 160 Struktur, 30 Summe von Unterräumen, 99 Summenschreibweise, 47 Supremum, 444 surjektiv, 438 Symmetrische Gruppe, 41 T Teilmenge, 421 total antisymmetrisch, 211 Totale Ordnung, 429 Träger, 96 Translation, 193 Transposition, 166, 203 U Umkehrabbildung, 439 Unitäre Gruppe, 321 Unitärer Raum, 306 Untergruppe, 43 normale, 44 Untermonoid, 35 Unterraum, 92 Durchschnitt, 93 Komplementärraum, 119 Summe, 99 Unterring, 47 Unterstruktur, 35 Untervektorraum, 92 Urbild, 434 Urbildbereich, 432 Ursprung, 128 V Vandermonde-Determinante, 231 Vandermonde-Matrix, 231 Varianz, 405 Vektor, 1, 87 Vektorgleichung, 97 Vektorprodukt, 16 Vektorraum, 87 Basis, 105 der Homomorphismen, 137 der Polynome, 91 Dimension, 110 direkte Summe, 112 euklidischer, 306 Isomorphie, 133, 146 Sachverzeichnis kartesisches Produkt, 111 unitärer, 306 Unterraum, 92 von Abbildungen, 89 von Folgen, 90 von Matrizen, 150 Verallgemeinerter Eigenraum, 259, 265 Vergleichsatz von Zermelo, 442 Verkettung, 436 Verknüpfung, 30 Vielfachheit, 236 algebraische, 245 geometrische, 247 Vollständige Induktion, 416 455 W Winkel, 12, 310 Wirkung, 72 Z Zeilenrang, 171 Zeilenstufenform, 83, 86 Zeilenumformungen, 82 Zerlegung der Eins, 253 orthogonale, 338 Zornsches Lemma, 108, 431 Zustand, 356, 358 zyklische Gruppe, 41