Stefan Waldmann Grundlagen für Studierende der - Journal-dl

Werbung
Stefan Waldmann
Lineare
Algebra 1
Grundlagen für Studierende
der Mathematik
und Physik
Lineare Algebra I
Stefan Waldmann
Lineare Algebra I
Die Grundlagen für Studierende der
Mathematik und Physik
Stefan Waldmann
Institut für Mathematik
Universität Würzburg
Würzburg, Deutschland
ISBN: 978-3-662-49913-9
DOI 10.1007/978-3-662-49914-6
ISBN: 978-3-662-49914-6 (eBook)
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Spektrum
© Springer-Verlag Berlin Heidelberg 2017
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der
Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann
benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen.
Planung: Dr. Lisa Edelhäuser
Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier
Springer Spektrum ist Teil von Springer Nature
Die eingetragene Gesellschaft ist Springer-Verlag GmbH Berlin Heidelberg
Für meine Lieben:
Robert, Sonja, Richard, Silvia und Viola
Vorwort
Es gibt viele Lehrbücher zur linearen Algebra wie etwa [3, 4, 11–16, 21] und viele
andere mehr, wieso also noch ein weiteres? Hierfür gibt es verschiedene Gründe:
Zum einen sind verschiedene gute Lehrbücher nicht länger im Handel erhältlich,
andere setzen deutlich unterschiedliche innermathematische Schwerpunkte als das
vorliegende, wieder andere nehmen andere Bezüge zu Anwendungen außerhalb der
Mathematik. In den meisten Lehrbüchern ist lediglich das Material für ein Semester
lineare Algebra vorgegeben, das zweite Semester bleibt dann den Vorlieben des
jeweiligen Dozenten vorbehalten.
Eine Motivation für dieses zweibändige Lehrbuch ist nun die folgende: Es gibt
wenige Lehrbücher der linearen Algebra, die zum einen die Bedürfnisse der reinen
Mathematik gut abbilden, zum anderen aber auch die Erfordernisse eines mathematisch ausgerichteten Physikstudiums bedienen. An vielen Universitäten besuchen
Studierende der Physik entweder die selben Vorlesungen wie die Studierenden
der Mathematik, ohne hier wirklich die relevanten Probleme aus der Physik zu
sehen, oder aber sie besuchen eigene Mathematikvorlesungen, die oftmals den
mathematisch interessierteren Studierenden der Physik zu wenig Tiefgang bieten.
Ein Ziel ist es daher, die mathematischen Erfordernisse der Physik angemessen
innerhalb der Mathematik darzustellen, nicht zuletzt auch deshalb, um Studierenden
der Mathematik die ungemein wichtigen Ideen aus der Physik zu verdeutlichen.
Eine zweite Motivation ist, dass es unter den neueren Lehrbüchern viele gibt, die die
Anwendungsseite der linearen Algebra besonders gut und ausführlich hervorheben,
die eher konzeptuellen Aspekte aber kürzer halten. Der Gang in die Abstraktion
aber ist ein wesentlicher Schritt der Mathematik, den man im ersten Semester
niemandem ersparen kann. Mit diesem Lehrbuch soll nun insofern eine Alternative
geboten werden, als dass die Abstraktion als ein Vorteil, eine Erleichterung gesehen
wird, die es erlaubt, aus der unübersichtlichen Lage eines konkreten Beispiels
die charakteristischen Eigenschaften zu destillieren. Gerade im Hinblick auf neuere Bachelor-Studiengänge, wie etwa den Studiengang Mathematische Physik in
Würzburg, besteht zwischen den beiden Zielen keineswegs ein Widerspruch: Im
Gegenteil, in der mathematischen Physik wird die Gänze der Mathematik benötigt,
nicht nur die anwendungsbezogeneren Aspekte. Das vorliegende Lehrbuch versucht
nun, diese Brücke zu schlagen und damit ein Lücke zu schließen.
vii
viii
Vorwort
Die Zielgruppe für dieses Lehrbuch sind also Studentinnen und Studenten der
verschiedenen Bachelor-Studiengänge der Mathematik (Mathematik, Wirtschaftsmathematik, etc.), des Lehramts Mathematik für Gymnasien, sowie der Physik und
mathematischen Physik. Es eignet sich zum einen als Vorlesungsbegleiter, zum
anderen aber auch zum Selbststudium, sofern dieses mit der nötigen Konsequenz
betrieben wird.
Das Lehrbuch ist in zwei Bände aufgeteilt, die etwa den beiden Semestern entsprechen, die eine typische Vorlesung zur linearen Algebra dauert. Der vorliegende
Band 1 ist dabei etwas umfangreicher und wird vielleicht nicht komplett in einem
Semester behandelt werden können. Er umfasst die kanonischen Themen der
linearen Algebra. In Band 2 werden dann weiterführende Themen angeboten.
Nach einer ersten Erinnerung an das Schulwissen zu Vektoren im R3 in Kap. 1
werden in Kap. 3 die grundlegenden Begriffe zu Gruppen, Ringen und Körpern
vorgestellt und mit Beispielen untermauert. Als erstes großes Resultat werden die
komplexen Zahlen aus den reellen konstruiert.
Als Nächstes werden in Kap. 4 Vektorräume mit ihren Basen als die zentrale
Arena der linearen Algebra vorgestellt: Als Motivation dient hier die Lösungstheorie
von linearen Gleichungssystemen. Es gilt nun, den Begriff der Dimension zu klären
und verschiedene Konstruktionen wie etwa die direkte Summe zu erläutern. Es
wird konsequent auch der unendlich-dimensionale Fall mit diskutiert, da unzählige
Anwendungen wie etwa in der Funktionalanalysis diese Situation erfordern.
Ein durchgehendes Thema im gesamten Lehrbuch ist die konsequente Betonung
von strukturerhaltenden Abbildungen: Auch wenn dies manchmal etwas altmodisch
und sogar pedantisch scheint, stellt es doch ein derart mächtiges Werkzeug in der
Mathematik dar, dass man es Studierenden im ersten Jahr kaum vorenthalten mag.
Kap. 5 handelt daher ausführlich von den linearen Abbildungen. Auch diese werden
durch Basen der zugrunde liegenden Vektorräume beschreibbar, was auf die Matrizen führt. Erst das Wechselspiel von basisabhängiger Beschreibung durch Matrizen
und basisunabhängiger und damit intrinsischer Form offenbart die tatsächliche
Natur linearer Abbildungen. Als wichtiges Resultat wird die Smith-Normalform von
linearen Abbildungen diskutiert und die Beziehung zur Lösungstheorie von linearen
Gleichungssystemen aufgezeigt. Die Klassifikation von Vektorräumen bezüglich
Isomorphie anhand der Mächtigkeit der Basis wird im Detail vorgestellt. Der
Dualraum behandelt schließlich eine spezielle Klasse von linearen Abbildungen,
die linearen Funktionale.
Das darauffolgende Kap. 6 beinhaltet die Theorie der Determinanten sowie die
Eigenwerttheorie, vornehmlich in endlichen Dimensionen. Nach einer kurzen Übersicht zu Eigenschaften der symmetrischen Gruppe wird die Determinante definiert
und konstruiert sowie deren erste wichtige Eigenschaften vorgestellt. Als Kriterium
für die Invertierbarkeit wird sie entsprechend bei der Suche nach Eigenwerten eine
zentrale Rolle spielen: Diese Fragestellung wird durch die Normalform bezüglich
der Ähnlichkeit von Matrizen motiviert. Die Frage nach der Diagonalisierbarkeit
führt über das charakteristische Polynom dann zum Minimalpolynom einer Matrix
(oder eines Endomorphismus), welches als zentrales Instrument beim Beweis des
Spektralsatzes und der Jordan-Zerlegung herangezogen wird. Als Formulierung
wurde hier eine auf Projektoren basierende gewählt, da diese den Ausgangspunkt
Vorwort
ix
für Verallgemeinerungen in unendlichen Dimensionen in der Funktionalanalysis
darstellt. Die Jordan-Normalform hilft schließlich, auch die nilpotenten Anteile auf
eine besonders einfache Form zu bringen.
In Kap. 7 geht es dann um Vektorräume mit zusätzlicher Struktur: Innere Produkte und Skalarprodukte werden definiert und erste allgemeine Eigenschaften
vorgestellt. Es wird dann der spezielle Fall der endlich-dimensionalen euklidischen
oder unitären Vektorräume, also der endlich-dimensionalen reellen oder komplexen
Hilbert-Räume eingehend diskutiert, wobei aber immer der Blick auf die unendlichdimensionale Situation offen gehalten wird, um zu sehen, dass viele scheinbar
leichte Probleme letztlich auf sehr nichttriviale Weise Gebrauch von der EndlichDimensionalität machen. Als zentraler Satz wird auch in diesem Kapitel der
Spektralsatz formuliert, nun für normale Abbildungen. Anschließend wird die Rolle
der Positivität und der Polarzerlegung besonders betont. Dies mag in anderen
Zugängen zur linearen Algebra eine eher untergeordnete Rolle spielen, ist aber
für weiterführende Vorlesungen in der Lie-Theorie, den Operatoralgebren und der
mathematischen Physik von zentraler Bedeutung. Daher wird bereits hier die Chance ergriffen, diese Themen in den einfachen endlichen Dimensionen vorzustellen.
Auch die Diskussion der Singulärwertzerlegung ist in diesem Sinne zu verstehen,
wobei mit den Approximationszahlen eine weitere wichtige Interpretation der
Singulärwerte vorgestellt wird, die dann auch in unendlichen Dimensionen Bestand
haben wird.
Abschließend werden in zwei Anhängen kleine Einführungen in die mathematische Logik sowie in die Sprache der Mengenlehre gegeben. Diese Anhänge sind
jedoch nicht als solide Kurse in diesen mathematischen Disziplinen zu verstehen,
sondern geben lediglich eine Übersicht.
Sowohl im Haupttext als auch in den Übungen wird gelegentlich Gebrauch von
einfachen Resultaten aus der Analysis gemacht. In den allermeisten Fällen wird
parallel zu einer linearen Algebra auch die Analysis als Einführungsvorlesung zur
Mathematik gehört. In diesem Fall sollten die benötigten Ergebnisse zeitnah bereitgestellt sein, sodass es keinerlei Schwierigkeiten geben sollte. Anderenfalls müssen
gewisse Ergebnisse vorweggenommen werden: Bis auf einige Eigenschaften des
Supremums bei der Definition der Operatornorm sind dies aber alles Themen, die
zumindest heuristisch und auf Schulniveau bekannt sein sollten. Auch in diesem Fall
kann man gegebenenfalls das eine oder andere Detail eines Beweises hintenanstellen
und zu einem späteren Zeitpunkt darauf zurückkommen.
In Band 2 werden dann etwas speziellere Themen behandelt: lineare Differentialgleichungen als Anwendung für die Matrix-Exponentialfunktion, verschiedene Quotientenkonstruktionen, sehr ausführlich die multilineare Algebra und
Tensorprodukte und schließlich Bilinearformen. Gerade der Themenkomplex zu
Tensorprodukten ist in vielen Lehrbüchern nur sehr stiefmütterlich vertreten, was
seiner Bedeutung in der Mathematik keineswegs gerecht wird: Techniken der
multilinearen Algebra werden in jeder fortgeschrittenen Vorlesung in der theoretischen Mathematik benötigt, wie etwa in der Algebra, der Lie-Theorie, der
algebraischen Topologie, der Differentialgeometrie, der Funktionalanalysis und der
homologischen Algebra. Aber auch in den Anwendungen wie beispielsweise in der
x
Vorwort
Quanteninformationstheorie und in der mathematischen Physik sind Tensorprodukte nicht wegzudenken. Die Gliederung von Band 2 ist nun folgende:
•
•
•
•
Lineare Differentialgleichungen und Exponentialabbildung
Quotienten
Multilineare Abbildungen und Tensorprodukte
Bilinearformen und Quadriken
In diesem Lehrbuch finden sich nur recht wenige mathematische Sachverhalte,
die als Satz gekennzeichnet werden. Zusammen mit den Definitionen stellen diese
die Essenz und das absolute Minimum dar, das es im Laufe eines Kurses zur
linearen Algebra zu bewältigen gilt. Die meisten Resultate werden als Proposition
formuliert, dies sind allein stehende Ergebnisse. Schließlich gibt es noch Lemmata,
welche als Vorbereitung für die Beweise einer größeren Proposition oder eines
Satzes dienen, und die Korollare, die eine unmittelbare Folgerung zur davor stehenden Proposition darstellen. In diesem Sinne ist der Text in sehr klassischer Weise
geschrieben. Aufgelockert wird er durch Beispiele und weitere Bemerkungen, die
oft einen weiterführenden Aspekt diskutieren oder einfach nur die wichtigen Sätze
umformulieren und rekapitulieren.
Die Mathematik ist wie Schwimmen: Man erlernt sie sicherlich nicht durch
Zuschauen. Vielmehr muss selbst Hand angelegt werden. Diese Erfahrung machen
Studierende im ersten Jahr oftmals auf schmerzliche Weise: Anders als in der Schule
ist es nun wirklich ein täglicher Kampf und eine große Herausforderung, der Vorlesung zu folgen, die Hausaufgaben zu machen, sich auf Klausuren vorzubereiten.
Dies kann leider niemandem erspart bleiben, alle Versuche, dies zu beschönigen,
sind unredlich und unseriös. Aus diesem Grunde werden viele Übungen (insgesamt
über 200) in den einzelnen Kapiteln angeboten: Diese zum Teil sehr detailliert
in etlichen Unterfragen ausformulierten Aufgaben sollten bearbeitet werden und
können als Richtschnur dafür dienen, was in Klausuren und mündlichen Prüfungen
von den Prüflingen verlangt werden wird. Zum anderen stellen die Übungen
weiterführende Themen vor, auf die man vielleicht später wieder zurückkommen
mag, auch wenn sie im ersten Jahr noch nicht relevant erscheinen. Hier besteht
die Hoffnung, dass das vorliegende Buch ein Ideengeber und ein Nachschlagewerk
auch für höhere Semester sein kann. Es gibt bei den schwierigeren Übungen
Hinweise, durch die Aufteilung in kleinere separate Problemstellungen sollte es
jedoch immer möglich sein, die richtigen Antworten zu finden. Aus diesem Grunde
wurde auch darauf verzichtet, ausführliche Lösungen der Übungen bereitzustellen:
Der Erfahrung nach ist die Versuchung, diese nach nur kurzem Probieren zu lesen
und dann zu sagen, „Ach ja, so wollte ich das ja auch machen.“, doch zu groß.
Es gibt neben vielen Standardaufgaben, die auf die eine oder andere Weise
in jedem Buch und in jeder Vorlesung zur linearen Algebra zu finden sind, einige besondere Übungen: Zunächst werden am Ende jedes Abschnitts kleine Kontrollfragen gestellt. Diese sollen dazu dienen, sich nochmals klar zu machen,
um welche Inhalte es gerade ging und wie diese einzuordnen sind. Weiter gibt
es eine Reihe von Übungen mit starker Motivation aus der Physik. Auch wenn
Vorwort
xi
diese vielleicht in parallelen Physikkursen erst später relevant werden, können die
Probleme immer schon jetzt behandelt und gelöst werden. Dies ist insbesondere
auch dann interessant, wenn die Physik nicht unbedingt im Zentrum des Interesses
liegt: Der Wert dieser Übungen ist davon unabhängig. Es gibt ebenfalls eine Reihe
von Übungen zum Erstellen von Übungen. Diese Meta-Übungen wurden deshalb eingefügt, da die Erstellung von konkreten Zahlenbeispielen oftmals viel
interessanter ist, als das Lösen der resultierenden Rechenaufgaben selbst. Letztere
sind eigentlich langweilig und haben in einem Mathematikstudium sehr wenig
oder gar nichts verloren. Das Erstellen von sinnvollen Aufgaben dagegen ist nicht
zuletzt für die Lehramtsstudierenden von zentraler Bedeutung für ihren späteren
Beruf. Es werden in diesen Übungen also die „Tricks“ der Aufgabensteller verraten,
die es einem selbst ermöglichen, sich Zahlenbeispiele zu konstruieren, deren
Lösungen gut kontrolliert werden können. Als letzte Übung in jedem Kapitel gibt
es eine „Beweisen oder widerlegen“-Übung. Hier sollen typischerweise schnelle
und einfache Argumente oder Gegenbeispiele gefunden werden. Diese Fragen sind
gleichsam auch typische Prüfungsfragen, wie sie in mündlichen Prüfungen (oder
auch in Klausuren) auftreten können.
Kein Buch ist fehlerfrei, so sind auch in diesem Lehrbuch möglicherweise noch
an einigen Stellen Fehler und Unklarheiten. Ich werde diese auf meiner homepage
https://www.mathematik.uni-wuerzburg.de/~waldmann/
kontinuierlich klarstellen. Kommentare hierzu sind selbstverständlich sehr willkommen.
Dieses Lehrbuch entstand wie viele andere auch aus einem Skript zu einer
Vorlesung, die ich zuerst in Erlangen 2012/2013 gehalten habe. Dort wurde auch die
erste Version des Skripts erstellt, wobei ich Benjamin Lotter und Josias Reppekus
für die Mithilfe beim Schreiben der LATEX-Dateien zu großem Dank verpflichtet bin.
Weiter möchte ich mich bei meinen Assistenten Bas Janssen, Stéphane Merigon,
und Christoph Zellner in Erlangen für das Erstellen der Übungen bedanken.
Viele ihrer Übungen haben den Weg in dieses Buch gefunden. Meine Kollegen
Peter Fiebig und Karl-Hermann Neeb in Erlangen haben mit vielen Diskussionen
meine Sicht auf die lineare Algebra wesentlich beeinflusst. Ihnen gebührt dafür
ebenfalls großer Dank. Beim zweiten Durchlauf der Vorlesung 2015/2016, nun
in Würzburg, wurden verschiedene Aspekte geringfügig geändert und neue sowie
andere Übungen hinzugenommen. Hier halfen mir Marvin Dippell, Chiara Esposito,
Stefan Franz, Thorsten Reichert, Jonas Schnitzer, Matthias Schötz, Paul Stapor und
Thomas Weber auf tatkräftige Weise. Ihnen allen schulde ich großen Dank, nicht
nur für die Mithilfe bei den Übungen sondern auch für die vielen Kommentare und
Diskussionen zur Gestaltung der Vorlesung und dieses Buches.
Den meisten Dank schulde ich jedoch meiner Familie: Meine Kinder wie auch
meine Frau Viola waren mir die entscheidende moralische Stütze bei diesem Projekt.
Würzburg, Deutschland
Februar 2016
Stefan Waldmann
Inhaltsverzeichnis
1 Elementare Geometrie im Anschauungsraum R3 . . . . . . . . . . . . . . . . . . .
1.1
Vektoren im Anschauungsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3
Abstände und Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4
Das Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
4
10
16
21
2
Intermezzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3
Von Gruppen, Ringen und Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Algebraische Strukturen und Morphismen . . . . . . . . . . . . . . . . . . . . . .
3.2
Invertierbarkeit und Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3
Ringe und Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4
Körper und die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5
Nochmals Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
Lineare Gleichungssysteme und Vektorräume . . . . . . . . . . . . . . . . . . . . . . 81
4.1
Lineare Gleichungssysteme und Gauß-Algorithmus . . . . . . . . . . . . . . 81
4.2
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3
Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4
Lineare Unabhängigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5
Direkte Summen und Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.6
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5
Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.1
Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.2
Eigenschaften von linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 136
5.3
Klassifikation von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
5.4
Basisdarstellung und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.5
Spezielle Matrizen und Normalformen . . . . . . . . . . . . . . . . . . . . . . . . . 160
5.6
Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
5.7
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
29
30
36
44
52
63
68
xiii
xiv
Inhaltsverzeichnis
6
Determinanten und Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.1
Die symmetrische Gruppe Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
6.2
Existenz und Eindeutigkeit der Determinante . . . . . . . . . . . . . . . . . . . 206
6.3
Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6.4
Eigenwerte und Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.5
Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
6.6
Das Minimalpolynom und der Spektralsatz . . . . . . . . . . . . . . . . . . . . . 249
6.7
Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
6.8
Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
7
Euklidische und unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
7.1
Innere Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
7.2
Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
7.3
Norm und Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
7.4
Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
7.5
Isometrien und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
7.6
Selbstadjungierte und normale Abbildungen . . . . . . . . . . . . . . . . . . . . 328
7.7
Der Spektralsatz für normale Abbildungen . . . . . . . . . . . . . . . . . . . . . 339
7.8
Positivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
7.9
Die Polarzerlegung und ihre Varianten . . . . . . . . . . . . . . . . . . . . . . . . . 366
7.10 Die Operatornorm und die Approximationszahlen . . . . . . . . . . . . . . . . 381
7.11 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
Anhang A Grundbegriffe der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
A.1 Aussagen und Junktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
A.2 Beweisstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
A.3 Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
A.4 Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
A.5 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
Anhang B Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
B.1 Der Begriff der Menge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
B.2 Operationen mit Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
B.3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
B.4 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
B.5 Verkettungen von Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
B.6 Mächtigkeit von Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
B.7 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
Symbolverzeichnis
N, N0
Z
Q, R, C
aE 2 R 3
E kE
hE
a; bi,
ak
aE bE
˘ (auch ı, )
Morph.M; N /
End.M /
e, 1, 1
M
.G; ; 1/
.G; C; 0/
Bij.M /
Aut.M /
n
Sn D Bij.n/
Zp
ker , im RŒx
deg.p/
char.k/
Re.z/, Im.z/
z, jzj
S1
RŒŒx
LRos.A; b/
kn
ıab
`1
c, cı
Natürliche Zahlen und natürliche Zahlen mit Null
Ring der ganzen Zahlen
Körper der rationalen, reellen und komplexen Zahlen
Vektoren im Anschauungsraum R 3
Euklidisches Skalarprodukt und Norm im R 3
Kreuzprodukt im Anschauungsraum
Verknüpfung
Morphismen von M nach N
Endomorphismen von M
Neutrales Element (Einselement)
Gruppe der invertierbaren Elemente eines Monoids M
Multiplikativ geschriebene Gruppe
Additiv geschriebene (abelsche) Gruppe
Gruppe der Bijektionen von M
Gruppe der Automorphismen von M
Menge der ersten n natürlichen Zahlen
Permutationsgruppe (symmetrische Gruppe)
Zyklische Gruppe der Ordnung p
Kern und Bild von Polynomring mit Koeffizienten in Ring R
Grad eines Polynoms p
Charakteristik eines Körpers k
Real- und Imaginärteil von z 2 C
Komplexe Konjugation und Betrag von z 2 C
Einheitskreis in C
Formale Potenzreihen mit Koeffizienten in R
Lösungsmenge von linearem Gleichungssystem
Vektorraum der Spaltenvektoren der Länge n
Kronecker-Symbol
Vektorraum der beschränkten Folgen
Vektorraum der konvergenten Folgen, Nullfolgen
xv
xvi
Abb0 .M; k/
span W
P
i 2I Ui
e1 ; : : : ; en 2 kn
vb
dim V
Q
V
Li 2I i
i 2I Vi
kB
k .B/
C.Œa; b; R /
VC
Hom.V; W /
rank ˚
V ŠW
.B/
B Œv 2 k
B Œ˚ A
k .B/A
1AA
Mnm .k/, Mn .k/
1n (oft nur 1)
GLn .k/ D Mn .k/
GL.V / D End.V /
Eij
Vi i 0 , Ri; , Sij
AT
AB
V D Hom.V; k/
b 2 V ˚
W V ! V ŒA; B D AB BA
`./, sign./
ij
det.A/ D det.a1 ; : : : ; an /
SLn .k/
A#
V .1 ; : : : ; n /
AB
diag.1 ; : : : ; n /
V
A .x/ D det.A x 1/
tr.A/
P1 C C Pk D 1
Symbolverzeichnis
Abbildungen mit endlichem Träger
Spann der Teilmenge W
Summe der Unterräume fUi gi 2I
Standardbasis von kn
Koordinaten von v bezüglich b 2 B
Dimension des Vektorraums V
Kartesisches Produkt von Vektorräumen
Direkte Summe von Vektorräumen
Kartesisches Produkt von B Kopien von k
Direkte Summe von B Kopien von k
Stetige Funktionen auf dem Intervall Œa; b
Komplexifizierter Vektorraum zu reellem V
Lineare Abbildungen (Homomorphismen) von V nach W
Rang der linearen Abbildung ˚
Isomorphie von Vektorräumen
Koordinaten von v bezüglich einer Basis B
Matrix der linearen Abbildung ˚ bezüglich der Basen A und B
B A-Matrizen mit Endlichkeitsbedingung
A A-Einheitsmatrix
n m-Matrizen, n n-Matrizen über k
n n-Einheitsmatrix
Allgemeine lineare Gruppe
Allgemeine lineare Gruppe eines Vektorraums V
.i; j /-Elementarmatrix
Matrizen der elementaren Umformungen
Transponierte Matrix zu A
Äquivalenz von Matrizen
Dualraum von V
Koordinatenfunktional zum Basisvektor b 2 B V .
Duale Abbildung zu ˚
Kanonische Einbettung in den Doppeldualraum
Kommutator von A und B
Länge und Signum der Permutation Transposition i $ j
Determinante von A D .a1 ; : : : ; an / 2 Mn .k/
Spezielle lineare Gruppe
Komplementäre Matrix zu A
Vandermonde-Matrix
Ähnlichkeit von Matrizen
Diagonalmatrix mit Einträgen 1 ; : : : ; n
Eigenraum zum Eigenwert Charakteristisches Polynom von A
Spur von A
Zerlegung der Eins
Symbolverzeichnis
mA
VQ
A D AS C AN
spec.A/
Jn
K
h; i
[
W V ! V Bil.V /
Œh ; iB;B
kk
U?
v D vk C v?
PU
O.n/, U.n/
SO.n/, SU.n/
A
]
p
A
Ev
jAj, AC , A
sk .A/
kAk, kAk2
ak .A/
AB
:p, p ^ q, p _ q
pjq
8, 9
[, \, n
M N
Abb.M; N /
2M
graph.f /
f ıg
f 1 .U /
Q
i 2I Mi
Q
pri W j 2I Mj ! Mi
#M
xvii
Minimalpolynom von A
Verallgemeinerter Eigenraum zum Eigenwert Jordan-Zerlegung in halbeinfachen und nilpotenten Teil
Spektrum von A
n n-Jordan-Matrix
Alternativ R oder C
Inneres Produkt, Skalarprodukt
Musikalischer Homomorphismus bezüglich h ; i
Bilinearformen auf V
Matrix der Bilinearform h ; i bezüglich einer Basis B
Norm
Orthogonalkomplement der Teilmenge U V
Orthogonale Zerlegung von v
Orthogonalprojektor auf U
Orthogonale und unitäre Gruppe
Spezielle orthogonale und spezielle unitäre Gruppe
Adjungierte Abbildung von A
Inverses des musikalischen Isomorphismus [
Positive Wurzel von positivem A
Erwartungswert im Zustand v
Absolutbetrag, Positivteil und Negativteil von A
k-ter Singulärwert von A
Operatornorm und Hilbert-Schmidt-Norm von A
k-te Approximationszahl von A
Partielle Ordnung selbstadjungierter Abbildungen
Logische Negation, logisches Und, logisches Oder
Schefferscher Strich (logisches Nicht-Und)
Quantoren „für alle“ und „es existiert“
Vereinigung, Durchschnitt und Komplement
Kartesisches Produkt der Mengen M und N
Abbildungen von M nach N
Potenzmenge der Menge M
Graph der Abbildung f
Verkettung der Abbildungen f und g
Urbild der Teilmenge U
Kartesisches Produkt der Mengen fMi gi 2I
Projektion auf i -te Komponente
Mächtigkeit der Menge M
1
Elementare Geometrie im
Anschauungsraum R3
In diesem ersten Kapitel wollen wir an das Schulwissen zur linearen Algebra
und elementaren Geometrie anknüpfen und unsere unmittelbare Anschauung dazu
verwenden, einige erste mathematische Definitionen zu Vektoren, Geraden und
Ebenen im R3 zu motivieren. Dieses Kapitel wird daher weitgehend als Heuristik
zu verstehen sein – einen systematischeren und vor allem mathematisch exakteren
Zugang zu den verschiedenen Begriffen der linearen Algebra werden wir uns in den
folgenden Kapiteln erarbeiten müssen.
Dieses Kapitel dient weiterhin auch dazu, sich mit den verschiedenen, in der
linearen Algebra und auch darüber hinaus in der Mathematik üblichen Schreibund Sprechweisen vertraut zu machen. Insbesondere wird konsequent bereits hier
von einer mengentheoretischen Schreibweise Gebrauch gemacht. Wer hiermit nicht
vertraut ist, findet die nötigen Details in Anhang B.
1.1
Vektoren im Anschauungsraum
Um einen Punkt p im Raum festzulegen, benötigen wir zunächst einen fest
gewählten, aber ansonsten willkürlichen Ursprungspunkt, den wir mit 0 bezeichnen.
Weiter müssen wir drei Richtungen, die Koordinatenrichtungen, auszeichnen. Vom
Punkt 0 aus benötigen wir dann drei Zahlen, die Koordinaten .x; y; z/ des Punktes
p, um von 0 eindeutig zu p zu finden. Dazu bewegt man sich zunächst x Einheiten
in Richtung der ersten Koordinatenachse, dann y Einheiten in Richtung der zweiten
und schließlich z Einheiten in Richtung der dritten Koordinatenachse. Wir können
daher die Punkte im Anschauungsraum mit den Tripeln .x; y; z/ von reellen
Zahlen identifizieren. Der Ursprung 0 besitzt somit die Koordinaten .0; 0; 0/. Die
Menge aller solcher Zahlentripel bezeichnen wir mit R3 . Oft werden diese Tripel
auch in Spaltenform geschrieben und Vektoren im Anschauungsraum R3 genannt,
siehe auch Abb. 1.1. Weiter ist auch die Schreibweise pE anstelle von p üblich,
insbesondere eben für Vektoren im Anschauungsraum R3 . Wir schreiben daher auch
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_1
1
1 Elementare Geometrie im Anschauungsraum R 3
2
z
p
z
0
y
x
x
y
Abb. 1.1 Vektor pE mit den Koordinaten .x; y; z/ im R 3
0 1
x
pE D @y A oder
z
1
px
pE D @py A oder
pz
0
0
1
p1
pE D @p2 A:
p3
(1.1)
Letzteres stellt offenbar eine geschicktere Notation dar, sobald wir mehrere Vektoren mit ihren Komponenten bezeichnen wollen. Oft werden in der Mathematik sehr
verschiedene Bezeichnungen und Schreibweisen verwendet. Es ist daher wichtig,
sich früh daran zu gewöhnen und flexibel zwischen verschiedenen Traditionen
wechseln zu können. Wir werden dies noch an vielen weiteren Stellen sehen.
Es gibt nun verschiedene einfache Operationen, wie wir aus bereits gegebenen
Vektoren neue erhalten können. Zunächst können wir einen Vektor pE strecken und
stauchen, indem wir ihn mit einem Skalenfaktor 2 R skalieren, siehe auch
Abb. 1.2. Die neuen Koordinaten des mit skalierten Vektors sind dann p1 , p2
und p3 , weshalb wir diesen Vektor auch mit pE bezeichnen werden.
Ebenfalls kann man einen Vektor pE an einen anderen Vektor qE anheften, also
zunächst vom Ursprung nach qE gehen und anschließend noch um pE weitergehen,
siehe Abb. 1.3. Eine elementare Überlegung zeigt, dass der resultierende Punkt die
Koordinaten p1 C q1 , p2 C q2 und p3 C q3 besitzt. Wir bezeichnen diesen Punkt
daher mit pE C qE.
Diese beiden Konstruktionen erfüllen nun einige einfache Rechenregeln, die wir
hier zusammentragen wollen.
Proposition 1.1. Seien ; 2 R und p;
E qE; rE 2 R3 .
i.) Es gilt . p/
E D ./ p.
E
ii.) Es gilt . C / pE D pE C p.
E
iii.) Es gilt .pE C qE/ D pE C qE.
1.1 Vektoren im Anschauungsraum
3
z
p
0
y
1
− p
2 x
Abb. 1.2 12 -Faches des Vektors pE
z
p
p + q
0
y
q
x
Abb. 1.3 Die Summe der Vektoren pE und qE
iv.)
v.)
vi.)
vii.)
Es gilt 1 pE D p.
E
Es gilt 0 C pE D p.
E
Es gilt pE C qE D qE C p.
E
Es gilt .pE C qE/ C rE D pE C .E
q C rE/.
0
1
p1
viii.) Es gilt pE C .p/
E D 0 wobei pE D @p2 A D .1/ p.
E
p3
Der Nachweis dieser Rechenregeln ist elementar und folgt unmittelbar aus den
Eigenschaften der Addition und Multiplikation von reellen Zahlen. Wir werden
zukünftig auch die abkürzende Schreibweise pE anstelle von pE verwenden.
Dies ist erneut eine übliche Konvention in der Mathematik: Wenn man eine neue
Struktur betonen möchte, verdeutlicht man dies in der Notation. Hat man sich bereits
1 Elementare Geometrie im Anschauungsraum R 3
4
daran gewöhnt, vernachlässigt man dies und wendet sich neuen Betonungen in der
Bezeichnung zu.
Aus naheliegenden Gründen nennen wir pE und qE parallel, falls es ein 2 R
gibt, sodass pE D E
q oder qE D p.
E Insbesondere ist 0E zu allen Vektoren parallel.
1.2
Geraden und Ebenen
Aufbauend auf den Operationen C und für Vektoren gemäß Proposition 1.1
wollen wir nun Geraden und Ebenen im Anschauungsraum R3 charakterisieren.
Hier werden wir jeweils zwei äquivalente Beschreibungen kennenlernen, die gleichungsbasierte und die parametrisierte Version.
Eine Ebene können wir als den geometrischen Ort E R3 beschreiben, dessen
E cE 2
Punkte pE 2 E man folgendermaßen erhält: Zunächst gibt es drei Vektoren aE , b,
3
E
R , wobei aE und b nicht Vielfache voneinander sein dürfen. Mit anderen Worten, aE
und bE sind nicht parallel. Dann ist pE 2 E, falls es ; 2 R mit
pE D E
q C bE C cE
(1.2)
gibt, siehe Abb. 1.4. Dies ist die Parameterdarstellung einer Ebene: Ausgehend von
einem Punkt cE in der Ebene (man wähle D D 0 in (1.2), um cE 2 E zu
erhalten), findet man alle anderen Punkte der Ebene, indem man geeignete Vielfache
der Vektoren aE und bE zu cE hinzuzählt. Man sagt auch, dass aE und bE die Ebene E
durch den Aufpunkt cE aufspannen. Die Bedingung, dass aE und bE nicht parallel sein
dürfen, ist klar, da man sonst nur eine Richtung anstelle der zwei für eine Ebene
notwendigen Richtungen zur Verfügung hätte.
z
b
E
x
c
a
0
y
x
Abb. 1.4 Parameterdarstellung einer Ebene E
1.2 Geraden und Ebenen
5
z
G
x
0
a
y
b
x
Abb. 1.5 Parameterdarstellung einer Geraden G
Dieser entartete Fall führt auch sofort zur Parameterdarstellung einer Geraden:
Hier soll es zwei Vektoren aE ; bE 2 R3 geben, sodass aE ¤ 0. Dann ist die Gerade
G durch bE in Richtung aE durch diejenigen Punkte pE 2 R3 gegeben, für die es ein
2 R mit
pE D E
a C bE
(1.3)
gibt, siehe Abb. 1.5. Offenbar ist bE auf dieser Gerade, nämlich für D 0.
Man kann sich die Parameterdarstellung so vorstellen, dass ein Teilchen zur
Zeit D 0 im Punkt bE startet, und dann mit der konstanten Geschwindigkeit aE
E Wir fassen
davonfliegt. Zu einer späteren Zeit befindet es sich dann bei E
a C b.
diese geometrischen Vorüberlegungen nun in folgender Definition zusammen.
E cE 2
Definition 1.2 (Parameterdarstellung von Ebene und Gerade). Seien aE ; b;
3
R .
i) Gilt aE ¤ 0, so ist die Gerade G durch bE in Richtung aE als
ˇ
o
n
ˇ
a C bE
G D pE 2 R3 ˇ es gibt ein 2 R mit pE D E
(1.4)
definiert.
ii) Sind aE ; bE nicht parallel, so ist die von aE und bE aufgespannte Ebene E durch cE
als
ˇ
n
o
ˇ
E D pE 2 R3 ˇ es gibt ; 2 R mit pE D E
a C bE C cE
(1.5)
definiert.
1 Elementare Geometrie im Anschauungsraum R 3
6
Bemerkung 1.3. Die Parameterdarstellungen von Geraden oder Ebenen sind nicht
E
eindeutig: Es gibt viele aE , bE und aE 0 , bE0 , sodass die Geraden fpE 2 R3 j pE D E
a C bg
3
1
0
0
0
E
und fpE 2 R j pE D E
a C b g übereinstimmen. So können wir etwa aE D 2 aE
erklären und bE0 D bE belassen. Dann müssen wir die Zeit 0 D 2 entsprechend
reskalieren und erhalten die gleiche Teilmenge von R. Ebenso können wir auch
bE0 D aE C bE0 setzen und aE 0 D aE , dann müssen wir 0 D 1 wählen, um
denselben Punkt pE D E
a C bE D 0 aE 0 C bE0 zu erhalten. Wir werden noch sehen, wie
diese Vieldeutigkeit genau verstanden werden kann. Für eine parametrische Ebene
erhalten wir ähnliche Vieldeutigkeiten.
Wir wollen nun eine zweite Möglichkeit zur Beschreibung einer Ebene und einer
Gerade untersuchen: die gleichungsdefinierte Variante. Wir beginnen wieder mit der
Ebene.
Seien dazu nE 2 R3 ein von 0 verschiedener Vektor und r 2 R eine reelle Zahl.
Wir betrachten dann die Gleichung
n 1 p 1 C n2 p 2 C n3 p 3 D r
(1.6)
für einen Vektor pE 2 R3 , wobei p1 , p2 und p3 die jeweiligen Komponenten des
Vektors pE seien.
E cE 2 R3 mit aE
Proposition 1.4. Seien nE 2 R3 n f0g und r 2 R. Dann gibt es aE ; b;
E sodass pE 2 R3 die Gl. (1.6) genau dann erfüllt, wenn pE in der
nicht parallel zu b,
E
durch aE und b aufgespannten Ebene durch cE liegt.
Beweis. Wir müssen zunächst gute Kandidaten für aE , bE und cE finden. Da diese ja
nicht eindeutig durch die Ebene bestimmt sind, ist es schwierig, welche zu finden.
Dies ist ein allgemeines Phänomen in der Mathematik: Lösungen eines Problems zu
finden, ist typischerweise umso schwieriger, je mehr es davon gibt. Eine eindeutige
Lösung zu finden, ist dagegen oftmals vergleichbar einfach. Da nE ¤ 0, können wir
ohne Beschränkung der Allgemeinheit annehmen, dass beispielsweise n3 ¤ 0 gilt.
Wäre n3 D 0, könnten wir die folgenden Formeln einfach modifizieren. In diesem
Fall gilt für pE 2 R3 die Gl. (1.6) genau dann, wenn
p3 D n1
n2
r
p1 p2 C :
n3
n3
n3
(1.7)
Wir setzen nun beispielsweise
0
1
1
B
C
aE D @ 0 A;
n1
n3
1
0
C
B
bE D @ 1 A;
n2
n3
0
und
0 1
0
B C
cE D @ 0 A:
r
n3
1.2 Geraden und Ebenen
7
E cE 2 R3 gilt zunächst, dass aE und bE nicht parallel sind, dies
Für diese Vektoren aE , b,
ist durch die jeweiligen ersten beiden Komponenten bereits ausgeschlossen. Damit
definieren diese drei Vektoren eine Ebene
ˇ
o
n
ˇ
a C bE C cE :
E D pE 2 R3 ˇ es gibt ; 2 R mit pE D E
Wir behaupten nun, dass pE 2 E genau dann gilt, wenn pE die Gl. (1.6) oder
äquivalent dazu die Gl. (1.7) erfüllt. Gilt (1.7) für pE 2 R3 , so gilt
1 0
1 0 1 0
0
0
p1
p1
C B
C B C B
B
p2
p1 aE C p2 bE C cE D @ 0 A C @ p2 A C @ 0 A D @
r
nn2 p3 2
nn3 p3 1 nn2 p3 2 C
nn1 p3 1
n3
1
0
r
n3
C
E
A D p;
womit pE 2 E mittels der Wahl D p1 und D p2 gezeigt ist. Sei umgekehrt
pE 2 E mit gewissen ; 2 R, sodass pE D E
a C bE C cE gilt. Dann gilt also
p1 D ;
p2 D und
p3 D n1
n1
r
C ;
n3
n3
n3
was man anhand der expliziten Formeln für aE , bE und cE direkt abliest. Einsetzen von
und liefert daher
p3 D n1
n2
r
p1 p2 C ;
n3
n3
n3
und damit ist (1.7) erfüllt. Dies zeigt die gewünschte Äquivalenz.
t
u
Die Gleichungen der Form (1.6) beschreiben also ebenfalls Ebenen im R3 , wobei
der Zusammenhang der beiden Darstellungen (1.6) und (1.5) etwas technisch ist.
Für eine Gerade erhalten wir ebenfalls eine gleichungsdefinierte Variante, welche
man auf folgende Weise erhalten kann: Sind zwei Ebenen E1 und E2 im R3
gegeben, so können diese auf folgende drei Weisen zueinander stehen:
i.) Die Ebenen sind gleich.
ii.) Die Ebenen sind parallel, aber nicht gleich.
iii.) Die Ebenen sind nicht parallel.
Im ersten Fall ist der Schnitt E1 \ E2 wieder eine Ebene, nämlich E1 D E2 .
Im zweiten Fall ist der Schnitt leer, E1 \ E2 D ;. Im dritten Fall ist der Schnitt
schließlich eine Gerade. Wir wollen diese geometrischen und heuristischen Überlegungen nicht im Detail begründen, dies wird insbesondere in Abschn. 4.3 in viel
größerer Allgemeinheit noch geschehen. Vielmehr nehmen wir diese Überlegungen
als Motivation dafür, folgende Situation zu betrachten: Seien nE ; m
E 2 R3 zwei
1 Elementare Geometrie im Anschauungsraum R 3
8
Vektoren, die nicht parallel sind, und seien r; s 2 R zwei reelle Zahlen. Dann
betrachten wir die beiden durch die Gleichungen
n1 p1 C n2 p2 C n3 p3 D r
(1.8)
m 1 p1 C m 2 p2 C m 3 p3 D s
(1.9)
und
definierten Ebenen E1 und E2 . Bis jetzt haben wir die geometrische Bedeutung der
Vektoren nE und m
E noch nicht diskutiert, aber die Voraussetzung, dass nE und m
E nicht
parallel sind, wird hinreichend dafür sein, dass der Schnitt von E1 und E2 eine
Gerade ist.
Proposition 1.5. Seien nE ; m
E 2 R3 nicht parallel und seien r; s 2 R. Dann gibt es
3
E
aE ; b 2 R mit aE ¤ 0, sodass pE 2 R3 genau dann die beiden Gleichungen (1.8)
und (1.9) erfüllt, falls pE auf der Geraden durch bE in Richtung aE liegt.
Beweis. Wir müssen wieder Kandidaten aE ; bE 2 R3 finden. Dazu formen wir die
Bedingungen (1.8) und (1.9) geeignet um. Wir wissen nE ¤ 0 ¤ m,
E und es gibt kein
2 R mit E
n D m.
E Man überlegt sich nun, dass dies äquivalent dazu ist, dass von
den drei Zahlen
a1 D n2 m3 n3 m2 ;
a2 D n3 m1 n1 n3
und
a3 D n1 m2 n2 m1
mindestens eine ungleich 0 ist, der Vektor aE 2 R3 mit diesen Komponenten also
nicht der Nullvektor ist. Wir beweisen dies durch eine Fallunterscheidung: Sei
zunächst n1 ¤ 0. Dann folgt aus aE D 0
m1 D
m1
n1 ;
n1
m2 D
m1
n2
n1
und
m3 D
m1
n3 ;
n1
also m
E D E
n mit D mn11 . Der Fall n1 D 0 führt auf n2 ¤ 0 oder n3 ¤ 0, welche
analog behandelt werden. Gilt umgekehrt m
E D E
n, so folgt aE D 0 direkt durch
eine Rechnung, was die Behauptung zeigt. Nun können wir ohne Einschränkung
beispielsweise a3 ¤ 0 annehmen. Dann folgt aus (1.8) und (1.9) die Gleichung
m1 (1.8) n1 (1.9), explizit gegeben durch
m1 n2 p2 n1 m2 p2 C m1 n3 p3 n1 m3 p3 D m1 r n1 s:
Also gilt a3 p2 C a2 p3 D m1 r n1 s. Da a3 ¤ 0 nach Annahme, folgt
p2 D
a2
m 1 r n1 s
p3 :
a3
a3
1.2 Geraden und Ebenen
9
Da a3 ¤ 0, können nicht beide Zahlen n1 und m1 die Null sein. Sei also beispielsweise n1 ¤ 0. Dann folgt aus (1.8) weiter durch Einsetzen
1
.n2 p2 n3 p3 C r/
n1
n2 a2
r
1
n2 m 1 r n1 s
C
D
n3 p3 C
n1
a3
n1
a3
n1
p1 D
D
a1
n2 m1 r n2 n1 s C a3 r
p3 C
:
a3
n1 a3
Wir betrachten nun den Punkt
1
0
bE D
n2 m1 rn2 n1 sCa3 r
n1 a3
C
B
1s
A:
@ m1 rn
a3
0
Dann gilt für pE die Gleichung
pE D E
a C bE
mit D pa33 . Damit liegt pE also auf der Geraden durch bE in Richtung aE . Sei
umgekehrt ein Punkt pE auf dieser Geraden gegeben, so gibt es also ein 2 R mit
E Wir behaupten, dass dann pE die beiden Gl. (1.8) und (1.9) erfüllt. Dies
pE D E
a C b.
ist nun im Wesentlichen durch ausdauerndes und stures Nachrechnen zu verifizieren.
Als Hinweis mag nützlich sein, sich zunächst
n1 a1 C n2 a2 C n3 a3 D 0 und
m1 a1 C m2 a2 C m3 a3 D 0
zu überlegen. Die verbleibenden Rechnungen sind dann einfach und können als
Übung durchgeführt werden. Die Fälle, in denen n1 D 0 oder a3 D 0 gilt, behandelt
man schließlich analog.
t
u
Bemerkung 1.6. Der obige Beweis lehrt nun mindestens zwei Dinge: Zum einen
haben wir ein erstes Beispiel dafür gefunden, wie ein geometrisches Problem auf
algebraische Weise beschrieben und dann gelöst werden kann: Der geometrische
Schnitt zweier Ebenen liefert eine Gerade. Zum anderen haben wir ein Beispiel
für eine völlig konzeptionslose und unschöne Beweisführung kennengelernt. Das
Problem wird zwar durch „rohe Gewalt“ mit vielen Fallunterscheidungen und
etlichen Rechnungen gelöst, es bleibt aber ein fahler Nachgeschmack: Es scheinen
verborgene Gründe dafür verantwortlich zu sein, dass alles so gut funktioniert. Im
Laufe dieses Buches werden wir sehen, dass dies tatsächlich der Fall ist. Wir werden
sehr viel klarere und konzeptionellere Beweise finden, welche das gleiche Resultat
1 Elementare Geometrie im Anschauungsraum R 3
10
z
p
p =
pz
0
·
x
p 2x + p 2y + p 2z
·
· px
y
py
Abb. 1.6 Euklidische Länge eines Vektors
und noch viel allgemeinere Resultate liefern werden, ohne solche undurchsichtigen
Rechnungen durchführen zu müssen.
Schließlich wäre auch eine Umkehrung der Aussage wünschenswert: Eine Ebene
in Parameterdarstellung lässt sich auch durch eine Gleichung der Form (1.6)
beschreiben, sofern nE und r geschickt gewählt werden, ebenso für eine Gerade
in Parameterdarstellung. Wir könnten durch „reverse engineering“ eine derartige
Aussage im gleichen Stil nun auch beweisen, verschieben dies aber auf etwas später,
um zuerst eine bessere geometrische Einsicht in die Bedeutung von nE und r zu
erlangen.
Kontrollfragen. Wie können Sie Geraden und Ebenen im R3 beschreiben?
1.3
Abstände und Winkel
Bis jetzt haben wir von Vektoren als Elemente von R3 gesprochen, ohne ihnen eine
Länge zuordnen zu können. Die elementare Geometrie lehrt uns nun, dass wir die
Länge eines Vektors pE als Abstand von 0 zu pE im R3 mit dem Satz des Pythagoras
ausrechnen können. Wir bezeichnen die euklidische Länge von pE mit
kpk
E D
q
p12 C p22 C p32 ;
(1.10)
siehe auch Abb. 1.6. Der euklidische Abstand zwischen zwei beliebigen Punkten
p;
E qE 2 R3 ist dann entsprechend durch
d .p;
E qE/ D kpE qEk D
gegeben.
p
.p1 q1 /2 C .p2 q2 /2 C .p3 q3 /2
(1.11)
1.3 Abstände und Winkel
11
Wir wollen nun die Bestimmung von Längen etwas konzeptioneller fassen. Dazu
ist folgender Begriff des (kanonischen) Skalarprodukts sehr hilfreich.
Definition 1.7 (Skalarprodukt im R3 ). Für zwei Vektoren p;
E qE 2 R3 definiert
man ihr Skalarprodukt durch
hp;
E qEi D p1 q1 C p2 q2 C p3 q3 :
(1.12)
Wir können das Skalarprodukt also als Abbildung h ; iW R3 R3 ! R
auffassen. Als alternative Schreibweisen sind auch pE qE sowie .p;
E qE/ in der Literatur
gebräuchlich.
Proposition 1.8. Das Skalarprodukt (1.12) besitzt folgende Eigenschaften:
i.) Für alle p;
E qE; rE 2 R3 und ; 2 R gilt
hp;
E E
q C Er i D hp;
E qEi C hp;
E rEi:
(1.13)
ii.) Für alle p;
E qE 2 R3 gilt
hp;
E qEi D hE
q ; pi:
E
(1.14)
iii.) Für alle pE 2 R3 gilt
hp;
E pi
E 0 und
hp;
E pi
E D 0 ” pE D 0:
(1.15)
Alle drei Eigenschaften verifiziert man mühelos anhand der expliziten Formel.
Für (1.15) verwendet man, dass eine Summe von Quadraten von reellen Zahlen
genau dann 0 ist, wenn jedes einzelne Quadrat 0 ist. Durch Kombination von (1.13)
und (1.14) erhält man
hpE C E
q ; rEi D hp;
E rEi C hE
q ; rEi
(1.16)
für alle p;
E qE; rE 2 R3 und ; 2 R. Insbesondere folgt
h0; qEi D 0 D hp;
E 0i
(1.17)
für alle p;
E qE 2 R3 . Man beachte, dass das Symbol 0 hier in zweierlei Bedeutungen
auftritt.
Die euklidische Länge, auch die Norm des Vektors genannt, lässt sich als
kpk
E D
schreiben.
q
hp;
E pi
E
(1.18)
1 Elementare Geometrie im Anschauungsraum R 3
12
Wir wollen nun ein erstes nichttriviales Resultat für das Skalarprodukt beweisen,
die Cauchy-Schwarz-Ungleichung:
Proposition 1.9 (Cauchy-Schwarz-Ungleichung, R3 ). Seien p;
E qE 2 R3 , dann
gilt
ˇ2
ˇ
ˇhp;
E qEiˇ hp;
E pihE
E q ; qEi:
(1.19)
Beweis. Die Ungleichung ist trivialerweise erfüllt, wenn einer der beiden Vektoren
0 ist. Seien also die Vektoren pE und qE von 0 verschieden. Dann betrachten wir das
quadratische Polynom
f ./ D hpE C qE; pE C qEi D 2 hp;
E pi
E C 2hp;
E qEi C hE
q ; qEi
für 2 R. Nach Proposition 1.8, iii.), gilt für alle f ./ 0:
Wir setzen nun den speziellen Wert
D
hp;
E qEi
hp;
E pi
E
ein und erhalten
0
jhp;
E qEij2
hp;
E pi
E2
hp;
E pi
E 2
jhp;
E qEij2
jhp;
E qEij2
C hE
q ; qEi D C hE
q ; qEi:
hp;
E pi
E
hp;
E pi
E
Da nach Voraussetzung hp;
E pi
E > 0 gilt, folgt (1.19) nach Multiplikation mit hp;
E pi.
E
t
u
Wir verwenden die Cauchy-Schwarz-Ungleichung nun, um für zwei Vektoren
einen Winkel zwischen ihnen zu definieren.
Definition 1.10 (Winkel im R3 ). Seien p;
E qE 2 R3 nf0g Vektoren ungleich 0. Dann
definiert man den Winkel ' 2 Œ0; zwischen pE und qE durch
cos ' D
hp;
E qEi
:
kpkkE
E qk
Die Vektoren pE und qE heißen orthogonal (senkrecht), falls ' D
(1.20)
.
2
Bemerkung 1.11. An dieser Stelle verwenden wir zum einen das Vorwissen, dass
die Kosinusfunktion jedem ' 2 Œ0; eine eindeutig bestimmte Zahl cos ' 2 Œ1; 1
1.3 Abstände und Winkel
13
cos(x)
1
sin(x)
0
π
2
π
3π
2
2π
x
−1
Abb. 1.7 Winkelfunktionen sin.x/ und cos.x/
zuordnet und jede Zahl in diesem Intervall auch genau einem Winkel in Œ0; entspricht, siehe auch Abb. 1.7. Diese Tatsache ist aus der Schule bekannt und
wird in der Analysis eingehend diskutiert und bewiesen. Weiter benutzen wir die
Cauchy-Schwarz-Ungleichung (1.19), um zu sehen, dass die rechte Seite in (1.20)
tatsächlich eine Zahl zwischen 1 und C1 ist. Damit können wir die rechte Seite
nun wirklich als Kosinus eines Winkels auffassen. Schließlich bemerken wir, dass
pE und qE genau dann orthogonal zueinander stehen, wenn
hp;
E qEi D 0
(1.21)
gilt. Damit haben wir also ein einfaches Mittel zur Überprüfung der Orthogonalität
gefunden.
Bemerkung 1.12. Es bedarf an dieser Stelle noch einer Argumentation, dass der
durch (1.20) definierte Winkel ' wirklich mit der elementargeometrischen Vorstellung des Winkels zwischen pE und qE übereinstimmt. Wir wollen dies aus zwei
Gründen nicht ausführen. Zum einen ist die Rechnung mittels bekannter Resultate
aus der Dreiecksgeometrie eher langweilig und technisch. Zum anderen, und das
ist der relevante Grund, ist die Dreiecksgeometrie aus der Schule mathematisch
gesehen recht schlecht begründet. Insbesondere ist mit Schulmitteln eigentlich keine
mathematisch befriedigende Definition eines Winkels möglich. Es ist daher der
empfehlenswertere und auch übliche Weg, die Definition 1.10 als Grundlage eines
Winkelbegriffs zu nehmen und daraus die Sätze der Dreiecksgeometrie herzuleiten,
siehe etwa [1, Abschnitt III.6].
Einen Vektor eE 2 R3 nennt man Einheitsvektor, falls
kE
e k D 1:
(1.22)
Insbesondere ist 0 sicherlich kein Einheitsvektor. Ist nun aE 2 R3 ein von null
verschiedener Vektor, so ist
1 Elementare Geometrie im Anschauungsraum R 3
14
eE D
aE
kE
ak
(1.23)
ein Einheitsvektor, denn
q
kE
e k D hE
e ; eEi D
s
s
p
aE
aE
1
;
D
hE
a; aE i D 1 D 1
2
kE
ak kE
ak
kE
ak
(1.24)
gilt nach den Rechenregeln (1.13) und (1.16) für das Skalarprodukt. Die Ersetzung
von aE durch kEaaEk nennt man aus naheliegenden Gründen auch Normieren des
Vektors aE .
aE
Die Vektoren aE und kak
sind offenbar parallel. Eine kleine Anwendung ist nun,
dass wir für eine Gerade in Parameterdarstellung
ˇ
o
n
ˇ
a C bE
G D pE 2 R3 ˇ es gibt ein 2 R mit pE D E
(1.25)
immer annehmen können, dass aE ein Einheitsvektor ist. Ist nämlich aE kein EinheitsaE
vektor, so können wir aE durch kak
ersetzen, was die gleiche Gerade in einer anderen
Parametrisierung liefert.
Für eine Ebene in Parameterdarstellung können wir entsprechend erreichen, dass
die Vektoren aE und bE beide Einheitsvektoren sind. Es geht aber sogar noch mehr:
Proposition 1.13. Sei E die von aE ; bE 2 R3 aufgespannte Ebene durch cE 2 R3 .
Dann gibt es Vektoren eE; fE 2 R3 mit der Eigenschaft
kE
e k D 1;
kfEk D 1
und
hE
e ; fEi D 0;
(1.26)
welche die gleiche Ebene E durch cE aufspannen.
Beweis. Wir wollen zunächst den Vektor bE in eine Parallel- und eine Orthogonalkomponente bezüglich aE zerlegen. Wir definieren
E
hE
a; bi
aE
bEk D
hE
a; aE i
und
bE? D bE bEk ;
siehe auch Abb. 1.8. Der Vektor bEk ist offenbar parallel zu aE . Für bE? gilt nun
E aE i hbE? ; aE i D hbE bEk ; aE i D hb;
E
E
a; bi
hE
a; bi
E aE i hE
aE ; aE D hb;
hE
a; aE i D 0
hE
a; aE i
hE
a; aE i
1.3 Abstände und Winkel
15
Abb. 1.8 Die Zerlegung von
bE in einen Parallel- und einen
Orthogonalanteil bezüglich aE
b
b
⊥
·
b
a
unter Verwendung der Eigenschaften des Skalarprodukts gemäß Proposition 1.8.
Damit ist bE? also tatsächlich orthogonal zu aE , und es gilt
bE D bEk C bE? :
Da bE nach Voraussetzung nicht parallel zu aE ist, muss bE? ¤ 0 sein. Ist nun pE D
E
a C bE C cE 2 E, so gilt
!
E
hE
a
;
bi
pE D E
a C bEk C bE? C cE D C aE C bE? C cE:
hE
a; aE i
Daher ist pE auch in der Ebene, die von aE und bE? aufgespannt wird. Gilt umgekehrt
pE D 0 aE C 0 bE? C cE;
so folgt
0
0E
0E
pE D aE bk C bk C
0 bE?
0
C cE D E
a; bi
0 hE
hE
a; aE i
!
aE C 0 bE C cE;
also pE 2 E. Daher sind beide Ebenen gleich. Wir können nun aE und bE? auch noch
normieren und setzen
eE D
aE
kE
ak
und
bE?
fE D
:
kbE? k
1 Elementare Geometrie im Anschauungsraum R 3
16
Dann gilt nach wie vor die Orthogonalität
1
1
hE
e ; fEi D
hE
a; bE? i D 0:
kE
ak kbE? k
Wir werden in Satz 7.45 diese Konstruktion nochmals aufgreifen und in einen
größeren Zusammenhang stellen.
t
u
Kontrollfragen. Wie werden Winkel definiert? Wann sind zwei Vektoren orthogonal? Wie können Sie den Parallel- und den Orthogonalanteil eines Vektors bezüglich
eines anderen ausrechnen?
1.4
Das Kreuzprodukt
Als letztes wichtiges Werkzeug der Geometrie im R3 wollen wir das Vektorprodukt
oder auch Kreuzprodukt oder äußeres Produkt vorstellen. Implizit haben wir im
Beweis von Proposition 1.5 bereits davon Gebrauch gemacht.
Definition 1.14 (Vektorprodukt). Seien aE ; bE 2 R3 . Dann definiert man das
Vektorprodukt aE bE 2 R3 durch
0
1
a2 b3 a3 b2
aE bE D @a3 b1 a1 b3 A:
a1 b2 a2 b1
(1.27)
Für die Einheitsvektoren in Richtung der Koordinatenachsen gilt also beispielsweise
eE1 eE2 D eE3 ;
eE2 eE3 D eE1 ;
und
eE3 eE1 D eE2 :
(1.28)
Wir können das Vektorprodukt nun als eine Abbildung
W R3 R3 ! R3
(1.29)
auffassen. Im Gegensatz zum Skalarprodukt nimmt das Vektorprodukt seine Werte
wieder im R3 an, was die Bezeichnung erklärt. Wir sammeln nun einige erste
algebraische Eigenschaften des Vektorprodukts.
E cE 2 R3 und ; 2 R.
Proposition 1.15. Seien aE ; b;
E C .E
i.) Es gilt aE .bE C E
c / D .E
a b/
a cE/.
E
E
ii.) Es gilt die Antisymmetrie aE b D b aE .
iii.) Es gilt genau dann aE bE D 0, wenn aE und bE parallel sind.
1.4 Das Kreuzprodukt
17
E
iv.) Der Vektor aE bE steht senkrecht auf aE und auf b.
E cEiE
v.) Es gilt die Graßmann-Identität aE bE cE D hE
a; cEibE hb;
a.
E cE C bE .E
vi.) Es gilt die Jacobi-Identität aE .bE cE/ D .E
a b/
a cE/.
Beweis. Die erste Aussage rechnet man komponentenweise nach, also etwa für die
erste Komponente
aE bE C E
c 1 D a2 bE C E
c 3 a3 bE C E
c 2
D a2 b3 C c3 a3 b2 C c2
D a2 b3 a3 b2 C a2 c3 a3 c2
D aE bE 1 C aE bE 1 :
Die beiden anderen Komponenten behandelt man analog. Die Antisymmetrie des
Kreuzprodukts ist klar nach Definition, denn
aE bE 1 D a2 b3 a3 b2 D b2 a3 b3 a2 D bE aE 1
und analog für die zweite und dritte Komponente. Der dritte Teil wurde bereits im
Beweis von Proposition 1.5 gezeigt. Für den vierten Teil rechnen wir nach, dass
D
E
aE ; aE bE D a1 aE bE 1 C a2 aE bE 2 C a3 aE bE 3
D a1 a2 b3 a1 a3 b2 C a2 a3 b1 a2 a1 b3 C a3 a1 b2 a3 a2 b1
D 0:
E Ebenso gilt mit ii.)
Also steht aE senkrecht auf aE b.
˛
˛
˝
˝
E bE aE D 0:
E aE bE D b;
b;
Die Graßmann-Identität und die Jacobi-Identität werden in den Übungen nachgerechnet, siehe Übung 1.6.
t
u
Insbesondere folgt aE aE D 0 und aE 0 D 0. Um eine geometrische Interpretation
E
von aE bE zu finden, bestimmen wir die Länge von aE b:
Proposition 1.16. Seien aE ; bE 2 R3 n f0g und sei ' 2 Œ0; der Winkel zwischen aE
und bE gemäß Definition (1.10). Dann gilt
E D kE
E sin ':
kE
a bk
akkbk
(1.30)
1 Elementare Geometrie im Anschauungsraum R 3
18
Beweis. Dies ist eine einfache Rechnung. Es gilt
˝
˛
E aE bE D .a2 b3 a3 b2 /2 C .a3 b1 a1 b3 /2 C .a1 b2 a2 b1 /2
aE b;
D a2 2 b3 2 2a2 a3 b2 b3 C a32 b22 C a32 b12 2a1 a3 b1 b3 C a12 b32
C a12 b22 2a1 a2 b1 b2 C a22 b12
D a12 C a22 C a32 b12 C b22 C b32 .a1 b1 C a2 b2 C a3 b3 /2
E bi
E hE
E2
D hE
a; aE ihb;
a; bi
E2
hE
a; bi
E
D kE
ak kbk
1
E 2
kE
ak2 kbk
E 2 1 .cos '/2 ;
D kE
ak2 kbk
2
!
2
womit
die Behauptung folgt, da sin ' 0 für ' 2 Œ0; und somit sin ' D
p
1 .cos '/2 .
t
u
Damit ist der Vektor aE bE bis auf ein Vorzeichen vollständig bestimmt. Seine
Länge ist durch Proposition 1.16 festgelegt, seine Richtung durch Proposition 1.15,
iv.), bis auf ein Vorzeichen. Diese beiden Charakteristiken lassen noch nicht zu,
zwischen aE bE und E
a bE zu unterscheiden. Diese letzte Freiheit wird durch die
Eigenschaft fixiert, dass die drei Vektoren aE , bE und aE bE ein rechtshändiges System
von Vektoren bilden. Eine anschauliche Definition von „rechtshändig“ besteht
darin, dem ersten Vektor aE den Daumen der rechten Hand, bE den Zeigefinger und
aE bE schließlich den Mittelfinger zuzuordnen, sodass die Vektoren in Richtung
der jeweiligen Fingerspitzen zeigen, siehe Abb. 1.9. Eine präzise mathematische
Definition eines rechtshändigen Systems ist dies leider noch nicht: Wir können
zu diesem Zeitpunkt jedoch „rechtshändig“ dadurch definieren, dass eben Vektoren
der Form aE , bE und aE bE in dieser Reihenfolge rechtshändig heißen sollen. Später
werden wir den Begriff der Orientierung kennenlernen, der dies allgemeiner und
auch konzeptionell befriedigender fasst.
Zum Abschluss wollen wir nun die gleichungsbasierte Beschreibung einer Ebene
E cE 2 R3
mithilfe des Kreuzprodukts geometrisch interpretieren. Seien also aE ; b;
E Die zugehörige Ebene bezeichnen wir, wie
gegeben und aE nicht parallel zu b.
gehabt, mit E. Nach Proposition 1.15 ist aE bE von null verschieden und senkrecht
E Wir können daher diesen Vektor noch normieren und setzen
auf aE und b.
nE D
bE 1
aE bE
aE
:
D
E
E sin '
kE
ak kbk
kE
a bk
Wir erhalten also einen Einheitsnormalenvektor der Ebene.
(1.31)
1.4 Das Kreuzprodukt
19
a ×b
Mittelfinger
b
er
fing
ge
Zei
·
·
ϕ
Daumen
a
Abb. 1.9 Die drei Vektoren aE, bE und aE bE bilden ein rechtshändiges System
Ist nun pE D E
a C bE C cE 2 E, so ist der Vektor pE cE D E
a C bE parallel zur
Ebene. Es folgt
E D0
hE
n; pE cEi D hE
n; E
a C bi
(1.32)
hE
n; pi
E D hE
n; cEi:
(1.33)
oder
Setzen wir hE
n; cEi D r, so erhalten wir die Gleichung
n1 p 1 C n 2 p 2 C n 3 p 3 D r
(1.34)
für alle Punkte pE 2 E. Zudem haben wir erreicht, dass nE ein Einheitsvektor ist: Die
Gl. (1.34) kann offenbar durch eine äquivalente Gleichung ersetzt werden, indem
wir nE reskalieren, siehe Abb. 1.10.
Als Letztes wollen wir eine geometrische Interpretation des Parameters r
erhalten. Indem wir nE eventuell durch E
n ersetzen, können wir erreichen, dass r 0
gilt. Wir betrachten nun den Abstand des Ursprungs 0 2 R3 zur Ebene E, welchen
wir als
ˇ
˚
d .0; E/ D min kpk
E ˇ pE 2 E
(1.35)
definieren. Wir werden zu zeigen haben, dass dieses Minimum tatsächlich existiert,
was zunächst nur anschaulich klar ist. Sei also pE 2 E, dann definieren wir
pE? D hE
n; piE
En
und
pEk D pE pE? :
(1.36)
1 Elementare Geometrie im Anschauungsraum R 3
20
z
E
b
n
c
a
0
y
x
Abb. 1.10 Einheitsnormalenvektor n
E auf die Ebene E
Wie bereits zuvor folgt
hE
n; pEk i D hE
n; pi
E hE
n; pE? i D hE
n; pi
E hE
n; nE i hE
n; pi
E D 0;
„ƒ‚…
(1.37)
1
womit pEk also parallel zur Ebene liegt. Es ist klar, dass damit auch hpE? ; pEk i D 0
gilt. Für die Länge von pE erhalten wir
E pi
E D hpE? C pEk ; pE? C pEk i D hpE? ; pE? i C hpEk ; pEk i D kpE? k2 C kpEk k2 ;
kpk
E 2 D hp;
(1.38)
was also gerade der Satz des Pythagoras für die orthogonalen Vektoren pE? und pEk
ist. Wir wissen nun, dass
n; pihE
E n; nE ihE
n; pi
E D hE
n; pi
E 2 D r2
hpE? ; pE? i D hE
(1.39)
unabhängig von pE ist. Damit gilt also
kpk
E D
q
r 2 C kpEk k;
(1.40)
was offenbar genau dann minimal wird, wenn
pEk D 0:
(1.41)
Geometrisch bedeutet dies, dass pE 2 E derjenige Vektor ist, für den pE D
n; piE
E n gilt. In diesem Fall haben wir kpk
E D r und daher lautet die
pE? D hE
Ebenengleichung also
hE
n; pi
E D d .0; E/;
(1.42)
1.5 Übungen
21
was die geometrische Interpretation von r liefert. Man beachte, dass wir hier die
Orientierung von nE entsprechend wählen mussten. Es bleibt nun noch zu zeigen,
dass wir tatsächlich einen Vektor pE 2 E finden können, für welchen pEk D 0 gilt.
Die Idee ist, mit einem beliebigen Punkt in der Ebene E wie beispielsweise cE zu
starten und dann pE D cE? zu verwenden. Hier ist nun also zu zeigen, dass cE? nach
wie vor in der Ebene liegt. Anschaulich ist dies klar, erfordert aber etwas mehr
Theorie, als uns momentan zur Verfügung steht.
Kontrollfragen. Welche Rechenregeln erfüllt das Kreuzprodukt? Was ist der
Einheitsnormalenvektor einer Ebene? Welche Länge hat das Kreuzprodukt zweier
Vektoren?
1.5
Übungen
Übung 1.1 (Vektorraum R3 ). Verifizieren Sie die Behauptungen in Proposition 1.1 durch eine komponentenweise Rechnung.
Übung 1.2 (Vektoren in einer Ebene). Betrachten Sie die Ebene E R3 , welche
durch die drei Punkte
0 1
0
y1 D @0A;
0
0 1
1
y2 D @3A und
5
1
1
y3 D @ 1 A
3
0
(1.43)
geht.
i.) Bestimmen Sie eine Parameterdarstellung der Ebene E.
ii.) Bestimmen Sie den Normalenvektor und die gleichungsbasierte Darstellung der
Ebene E.
iii.) Prüfen Sie, ob die beiden Vektoren
0 1
0
a1 D @6A und
3
1
5
a2 D @1A
2
0
(1.44)
in der Ebene E liegen.
Übung 1.3 (Schnittpunkte von Geraden). Betrachten Sie folgende Geraden Gi
durch die Punkte bEi in die Richtungen aEi für i D 1; 2; 3, wobei
0 1
0
bE1 D @1A;
2
0 1
9
bE2 D @12A und
8
1
3
bE3 D @6A
5
0
(1.45)
1 Elementare Geometrie im Anschauungsraum R 3
22
sowie
0 1
1
@
aE1 D 1A;
1
0 1
5
@
aE2 D 7A und
2
1
2
aE3 D @ 4 A:
1
0
(1.46)
Bestimmen Sie die Schnittpunkte dieser Geraden durch eine explizite Rechnung.
Übung 1.4 (Schnitt zweier Ebenen). Betrachten Sie die beiden Ebenen Ei durch
die Vektoren cEi , welche durch die Vektoren aEi und bEi für i D 1; 2 aufgespannt
werden, wobei
0 1
0
aE1 D @1A;
2
1
1
bE1 D @ 0 A und
0
0 1
3
@
aE2 D 0A;
1
0 1
2
E
@
b2 D 1A und
3
0
0 1
2
cE1 D @0A
0
(1.47)
0 1
0
@
cE2 D 1A:
2
(1.48)
sowie
i.) Bestimmen Sie zunächst die auf 1 normierten Normalenvektoren nE i der beiden
Ebenen und weisen Sie so nach, dass die Vektoren aEi und bEi nicht parallel sind.
ii.) Bestimmen Sie eine parametrisierte Darstellung der Schnittgerade E1 \ E2 .
Übung 1.5 (Parametrisierte Geraden in Parameterdarstellung). Sei ' 2
Œ0; 2
/ ein Winkel. Für jeden Wert ' betrachtet man die beiden Vektoren
1
cos.'/
aE' D @ sin.'/A und
0
0
1
sin.'/
bE' D @cos.'/A
0
0
(1.49)
sowie die Gerade G' durch bE' in Richtung aE' .
3
i.) Beschreiben Sie die Lage der Geraden G
S' im R .
ii.) Betrachten Sie die Vereinigung K D '2Œ0;2
/ G' aller dieser Geraden und
beschreiben Sie die resultierende Teilmenge von R3 .
0 1
x
iii.) Für welche Werte von ' ist der Punkt cE D @ 0 A auf der Geraden G' , wobei
0
x 0 fest gewählt sei?
1.5 Übungen
23
Übung 1.6 (Eigenschaften des Vektorprodukts). Zeigen Sie, dass das Vektorprodukt die Graßmann-Identität und die Jacobi-Identität erfüllt, indem Sie beide
Identitäten komponentenweise überprüfen.
Übung 1.7 (Mehrfache Vektorprodukte). Seien aE ; bE 2 R3 gegeben. Zeigen Sie,
dass das n-fache Kreuzprodukt mit aE durch
8
<.1/k1 hE
E
a; aE ik1 a
E b
falls n D 2k 1
E / D
aE . .E
a b/
k1
k1
E
E
:.1/ hE
hE
a; biE
a hE
a; aE ib
falls n D 2k
a; aE i
(1.50)
gegeben ist, wobei n 2 N.
Übung 1.8 (Normalenvektor einer Ebene). Betrachten Sie die Ebene E durch
den Punkt cE, welche durch aE und bE aufgespannt wird, wobei
0 1
1
aE D @2A;
0 1
4
bE D @6A;
3
4
1
1
cE D @ 3 A:
3
0
und
(1.51)
i.) Bestimmen Sie den Normalenvektor nE von E explizit, wobei Sie die OrientieE und nE positiv orientiert sind.
rung von nE so wählen sollen, dass aE , b,
ii.) Bestimmen Sie denjenigen Vektor pE 2 E, der den kleinsten Abstand zum
Ursprung 0 besitzt. Verifizieren Sie durch eine explizite Rechnung, dass der
Vektor pE tatsächlich in der Ebene E liegt.
Übung 1.9 (Erstellen von Übungen I). Um eine mit vertretbarem Aufwand zu
bewältigende Übung (etwa eine Klausuraufgabe) zu erstellen, wollen Sie drei
Geraden im R3 angeben, deren Schnittpunkte zu bestimmen sind. Dazu geben Sie
die Schnittpunkte sE1 , sE2 , und sE3 mit einfachen Koordinaten (also beispielsweise
kleine, ganze Zahlen) vor. Wie können Sie nun eine kompliziertere Parametrisierung
der Geraden erhalten, die sich in den drei Punkten schneiden, wobei man die
Schnittpunkte selbst aber nicht unmittelbar ablesen kann? Überlegen Sie sich
entsprechende Konstruktionen für andere einfache geometrische Probleme wie den
Schnitt von Ebenen, Durchstoßpunkte von Geraden durch Ebenen etc.
Übung 1.10 (Orthogonal- und Parallelkomponente).
Vektoren
1
3
aE1 D @ 4 A;
2
0
1
2
aE2 D @4A;
3
0
1
1
aE3 D @3A sowie
2
0
Betrachten Sie die
1
1
bE D @1A:
3
0
(1.52)
1 Elementare Geometrie im Anschauungsraum R 3
24
Bestimmen Sie die Orthogonal- und die Parallelkomponenten von aE1 , aE2 und aE3
E
bezüglich b.
E cE 2 R3 definiert man das
Übung 1.11 (Spatprodukt). Für drei Vektoren aE ; b;
E cE/ 2 R durch
Spatprodukt vol.E
a; b;
E cE/ D hE
vol.E
a; b;
a; bE cEi:
(1.53)
i.) Zeigen Sie
E cE/ D 1 vol.E
E cE/ C 2 vol.E
E cE/
a1 ; b;
a2 ; b;
vol.1 aE1 C 2 aE2 ; b;
(1.54)
E cE 2 R3 .
für alle 1 ; 2 2 R und aE1 ; aE2 ; b;
ii.) Zeigen Sie die Antisymmetrie
E cE/ D vol.b;
E aE ; cE/ D vol.E
E
vol.E
a; b;
a; cE; b/
(1.55)
E cE 2 R3 .
für aE ; b;
iii.) Zeigen Sie, dass das Spatprodukt verschwindet, falls zwei Vektoren parallel
sind.
iv.) Geben Sie eine elementargeometrische Interpretation des Spatprodukts.
E cE; dE 2 R3 . Bestimmen
Übung 1.12 (Nochmals das Kreuzprodukt). Seien aE ; b;
E
E
Sie hE
a b; cE d i explizit, ohne die einzelnen Komponenten auszuschreiben.
E zu berechnen und so einen alternativen
Verwenden Sie dieses Resultat, um kE
a bk
Beweis von Proposition 1.16 zu erhalten.
Übung 1.13 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen:
i.) Von drei Geraden im R3 haben mindestens zwei einen gemeinsamen Schnittpunkt.
ii.) Zwei nicht parallele Ebenen im R3 haben immer unendlich viele gemeinsame
Punkte.
iii.) Es gibt zwei Ebenen im R3 , die sich in genau einem Punkt schneiden.
iv.) Die erste Komponente eines Kreuzprodukts ist immer größer oder gleich null.
v.) Es gibt drei Vektoren im R3 mit erster Komponente gleich 1, die paarweise
senkrecht stehen.
2
Intermezzo
Wir haben in Kap. 1 nun einen Zustand des Verständnisses erreicht, der mehr
Fragen aufwirft als beantwortet. Eigentlich ein gutes Zeichen dafür, dass es sich
um interessante Probleme handelt.
Wir wollen nun kurz innehalten und rekapitulieren, welche Fragen noch zu klären
sind, welche Verallgemeinerungen wünschenswert sind und wohin die Reise nun
gehen soll.
i.) Zunächst ist klar, dass wir Geraden auch in der Zahlenebene R2 anstelle im
Anschauungsraum R3 betrachten können. Auch hier wollen wir eine effektive
Beschreibung von geometrischen Problemen durch algebraische Techniken
erreichen. Warum sollten wir uns jedoch mit 2 oder 3 Dimensionen zufriedengeben? In der Tat gibt es hierfür weder eine Veranlassung noch eine technische
Schwierigkeit. Im Gegenteil, viele Probleme aus den Naturwissenschaften
erfordern definitiv mehr als 3 Dimensionen: Die spezielle Relativitätstheorie
benötigt eine 4-dimensionale Raumzeit als Arena, verschiedene moderne physikalische Theorien postulieren wahlweise 10, 11 oder gar 26 Dimensionen
für unsere Raumzeit. Die klassische Mechanik von n Punktteilchen benötigt
einen 3n-dimensionalen Konfigurationsraum und einen 6n-dimensionalen
Phasenraum. Denkt man an thermodynamische Systeme wie etwa ein Glas
Wasser, so hat man Teilchenzahlen in der Größenordnung von n D 1026 .
In der Quantenmechanik schließlich sind sogar unendlich viele Dimensionen
erforderlich.
ii.) Bevor wir also diese Verallgemeinerungen in Angriff nehmen, stellt sich
die fundamentale Frage, was Dimension überhaupt bedeuten soll? Die naive
Definition „Es ist die 3 im Symbol R3 .“ führt spätestens bei unendlich vielen
Dimensionen in eine Sackgasse. Es wird sich herausstellen, dass der Begriff
der Dimension auf eine intrinsischere Weise definiert werden muss.
iii.) Es stellt sich weiter die Frage, welche Eigenschaften von R3 eigentlich benötigt wurden, um die Ergebnisse zu Geraden und Ebenen zu formulieren und
zu beweisen. Es zeigt sich, dass die wesentlichen Eigenschaften diejenigen
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_2
25
26
2 Intermezzo
aus Proposition 1.1 sind. Wir werden diese Rechenregeln für Vektoren im R3
daher benutzen, um den allgemeinen Begriff des Vektorraums zu definieren.
iv.) Eng mit der konzeptuellen Definition eines Vektorraums verknüpft ist die
Frage, welche Eigenschaften der reellen Zahlen R in Proposition 1.1 zum
Einsatz gekommen sind. Die Rechenregeln zur Multiplikation von Vektoren
mit Zahlen nehmen ja explizit Bezug auf die Addition und Multiplikation
reeller Zahlen. Welche Eigenschaften von C und sind also notwendig,
damit die angestrebte Definition eines Vektorraums mit Leben gefüllt werden
kann? Diese Frage wird uns auf den Begriff des Körpers führen. Es zeigt
sich nun, dass es durchaus andere Körper als R gibt, viele davon sind von
unmittelbarem Interesse. So ist Q ein Körper, aber eben auch die komplexen
Zahlen C, welche wir im Detail kennenlernen werden. Darüber hinaus gibt
es viele weitere Körper, die ihren Platz in Theorie und Anwendung gefunden
haben, sodass eine allgemeine Theorie von Körpern und Vektorräumen nicht
nur ein Gebot der ökonomischen Herangehensweise, sondern unbedingt
erforderlich ist. Auf dem Weg zu einer allgemeinen Definition des Körpers
werden wir weitere grundlegende algebraische Strukturen wie die der Gruppe,
des Rings und der Polynome kennenlernen.
v.) Zur Bestimmung von Schnitten etwa zweier Ebenen mussten wir die Lösungstheorie von einer besonderen Art von Gleichungen verstehen: den linearen
Gleichungssystemen. Dieser Typ von Gleichung ist aus vielerlei Gründen
fundamental in (fast) allen Bereichen der Mathematik. Aber nicht nur in
der Mathematik, sondern darüber hinaus auch in den vielfältigsten Anwendungen in den Natur-, Ingenieurs- und Wirtschaftswissenschaften spielen die
linearen Gleichungen eine zentrale Rolle. Neben der Omnipräsenz linearer
Gleichungen haben diese den erheblichen Vorteil, in endlichen Dimensionen
algorithmisch lösbar zu sein. Wir werden mit dem Gauß-Algorithmus ein Verfahren kennenlernen, das erlaubt, die Fallunterscheidungen und Rechnungen
in Kap. 1 systematisch und konzeptionell klar durchzuführen. Hier erwarten
uns dann auch viele konkrete Anwendungen weit jenseits der Geometrie.
vi.) Bei der Identifikation des (physikalischen) Anschauungsraums mit den Zahlentripeln R3 war die Wahl der Koordinatenachsen sehr willkürlich. Der Art
der bisherigen Präsentation ist es nicht unmittelbar anzusehen, inwieweit die
Resultate von dieser Wahl tatsächlich abhängen oder nicht. Es gilt also zu
untersuchen, was ein Wechsel des Koordinatensystems bedeutet und wie man
zwischen verschiedenen Koordinatensystemen umrechnen kann. Hierzu müssen wir zum einen klären, was wir mit einem Koordinatensystem überhaupt
meinen, zum anderen müssen wir Wechsel von Koordinatensystemen als
geeignete Abbildungen verstehen. Letzterer Punkt ist ein ganz allgemeines
und durchgehendes Thema in der Mathematik: Wann immer man eine neue
mathematische Struktur, wie beispielsweise die Vektorräume, eingeführt hat,
ist es unabdingbar, gleichzeitig auch die strukturerhaltenden Abbildungen zu
studieren. In unserem Fall werden dies die linearen Abbildungen sein.
2 Intermezzo
27
vii.) Lineare Abbildungen werden ein zentrales Thema der linearen Algebra
sein. Daher ist ein tiefergehendes Verständnis ihrer Natur eine unerlässliche
Voraussetzung beim weiterführenden Studium der linearen Algebra. Die
wesentlichen Begriffe, um dies zu bewerkstelligen, werden die Determinante
und die Eigenwerte mit ihren zugehörigen Eigenvektoren einer linearen Abbildung sein: Diese Techniken stehen leider im Allgemeinen nur in endlichen
Dimensionen zur Verfügung, spielen dann aber eine herausragende Rolle.
Auch wenn gewisse Fragestellungen in beliebigen Dimensionen sinnvoll
sind, ist hierfür eine vernünftige Theorie nur mit einem nicht unerheblichen
Aufwand an analytischen Techniken verbunden. Diese zu entwickeln, bleibt
der Funktionalanalysis vorbehalten. Die Frage nach einer besonders einfachen
Form für die Beschreibung einer linearen Abbildung hingegen wird uns auf
die Problematik der Diagonalisierbarkeit führen, für welche wir in endlichen
Dimensionen mittels der Jordanschen Normalform eine sehr weitreichende
Antwort finden werden.
viii.) Das kanonische Skalarprodukt im R3 hat sich als probates Mittel bei der Formulierung und Lösung geometrischer Probleme im R3 erwiesen. Allerdings
bezog sich seine Definition stark auf das kartesische Koordinatensystem,
welches ja eine gewisse willkürliche Wahl darstellt. Es muss also auch hier
untersucht werden, wie eindeutig diese Wahl ist und wie das Skalarprodukt
unter Koordinatenwechsel umgerechnet werden kann. Da wir an allgemeinen
Vektorräumen interessiert sind, wollen wir auch in allgemeineren Situationen
von Skalarprodukten sprechen können. Auch hier stellt sich dann die Frage
nach den strukturerhaltenden Abbildungen, was uns auf das Studium der
orthogonalen und unitären Abbildungen führen wird. Wie zuvor konzentrieren
wir uns vornehmlich auf die endlich-dimensionale Situation, obwohl gerade
die unendlich-dimensionale Variante in der Funktionalanalysis der HilbertRäume eine fundamental wichtige Fortführung findet, die nicht zuletzt in der
Quantenmechanik eine ihrer zentralen Anwendungen besitzt.
ix.) Die lineare Theorie wird am Ende nur ein erster Schritt sein, auch nichtlineare
Probleme zu formulieren und zu lösen. Wir werden hier erste Beispiele beim
Studium quadratischer Formen kennenlernen, um geometrische Objekte wie
Kreise, Parabeln, Ellipsen und Hyperbeln zu beschreiben. Erste Schritte in
diese Richtung werden wir (in Band 2) mit dem Studium der multilinearen
Abbildungen gehen, was uns dann unmittelbar auf Tensorprodukte und Tensoren führen wird.
Neben diesen sehr konkreten Fragestellungen wollen wir auch etwas Neues
über Mathematik an sich lernen: Ausgehend von einzelnen interessanten Beispielen
versucht man in der Mathematik immer eine möglichst große Allgemeinheit zu
erreichen. Es gilt also, die wesentlichen Eigenschaften eines Beispiels zu erkennen
und zu abstrahieren. Ist dies erreicht, versucht man, eine allgemeine axiomatische
Formulierung des Problems vorzunehmen, in der das zuvor betrachtete Beispiel
tatsächlich als Beispiel auftritt. Eine erfolgreiche Axiomatisierung zeichnet sich nun
dadurch aus, dass bestimmte wichtige, aber schwierige Eigenschaften der Beispiele
28
2 Intermezzo
einfach und leicht verständlich werden, sobald erkannt wird, dass das Beispiel in
den allgemeinen Rahmen passt.
Diesen Weg in die Abstraktion zu gehen, ist nun ein zentrales Anliegen der
Mathematik, aber beileibe nicht das einzige. Jede noch so raffinierte und ausgefeilte
mathematische Theorie bleibt kraftlos und leer ohne ihre Beispiele: Hat man den
Axiomatisierungsprozess durchlaufen, gilt es, die ursprünglichen Beispiele wieder
im Lichte der neu gewonnenen Erkenntnisse zu betrachten. Zudem sollte eine gut
verstandene Abstraktion nun in der Lage sein, neue Beispiele zu generieren und
dort Querverbindungen herzustellen, wo zuvor keine offensichtlichen Beziehungen
gewesen sind.
Diese Vorgehensweise werden wir nun am großen Themenkomplex der linearen
Algebra exemplifizieren, sowohl die Axiomatisierung und den teilweise durchaus
mühsamen Weg in die Abstraktion als auch die Anwendung der allgemeinen Theorie auf verschiedene Beispiele und Situationen jenseits der elementaren Geometrie
im R3 .
3
Von Gruppen, Ringen und Körpern
In diesem Kapitel schaffen wir zum einen die Grundlagen dafür, welche Sorte von
Skalaren wir bei der angestrebten Definition eines Vektorraums verwenden werden.
Gleichzeitig lernen wir mit Gruppen, Ringen und Körpern einige der wichtigsten
algebraischen Strukturen der Mathematik kennen. Die generelle Strategie wird sein,
verschiedene Verknüpfungen auf einer gegebenen Menge zu studieren. Dazu wollen
wir diesen Verknüpfungen axiomatisch Eigenschaften auferlegen, die wir von den
Zahlen wie etwa Z, Q oder R kennen. Im gleichen Schritt soll dann auch immer
studiert werden, was die entsprechenden strukturerhaltenden Abbildungen zwischen
solchen Mengen mit (spezifischer) Verknüpfung vom selben Typ sein sollen. Diese
Sichtweise hat sich in der Mathematik als sehr erfolgreich erwiesen und wird uns
auch jenseits dieses Kapitels weiter begleiten: Wann immer eine neue Struktur
erforderlich ist, sollte man gleichzeitig auch die strukturverträglichen Abbildungen
betrachten.
Der Begriff der Gruppe ist nun der erste wirklich interessante und grundlegende für alle Bereiche der Mathematik. Zum einen axiomatisieren Gruppen die
Rechenregeln von C und aus den rationalen oder reellen Zahlen und bieten
daher weitreichende Verallgemeinerungen, wie wir sie für das spätere Studium der Vektorräume benötigen. Zum anderen liefern Gruppen einen Zugang zu
Symmetriebegriffen in der Mathematik und sind daher auch aus diesem Grunde
von fundamentaler Bedeutung. Während in einer Gruppe nur eine Verknüpfung
vorhanden ist, vereinen Ringe nun die Rechenregeln von C und und bieten
daher eine stärkere Struktur, welche näher an den üblichen Zahlen sind. Aber
auch hier gibt es drastische Verallgemeinerungen, die sich insbesondere aus der
möglichen Nichtkommutativität der Multiplikation ergeben. Für einen Körper fordert man schließlich noch zusätzliche Invertierbarkeitseigenschaften bezüglich der
Multiplikation, die man in einem allgemeinen Ring nicht hat. Als erstes wichtiges
Beispiel eines Körpers jenseits der rationalen oder reellen Zahlen werden wir die
komplexen Zahlen kennenlernen. Polynome sind nicht nur ein wichtiges Beispiel
dafür, wie man aus einem bereits vorliegenden Ring, und damit insbesondere für
einen Körper, einen neuen Ring konstruieren kann. Vielmehr ist das Studium ihrer
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_3
29
30
3 Von Gruppen, Ringen und Körpern
Nullstellen und Teilbarkeitseigenschaften von fundamentaler Bedeutung für das
Verständnis linearer Abbildungen zwischen endlich-dimensionalen Vektorräumen.
Hierzu werden wir die nötigen Grundlagen kennenlernen.
Weiterführende Informationen zu diesen und vielen weiteren algebraischen
Strukturen werden dann in Lehrbüchern der Algebra diskutiert. Hier sei beispielsweise auf [6, 9, 10, 17] verwiesen.
3.1
Algebraische Strukturen und Morphismen
In Kap. 1 haben wir verschiedene Arten von Verknüpfungen gesehen, wie aus
gegebenen Vektoren im R3 neue Vektoren oder auch Skalare erhalten werden
können. Da dieser Aspekt der Mathematik so grundlegend ist, wollen wir nun
Verknüpfungen auf einem etwas allgemeineren Niveau studieren.
Definition 3.1 (Verknüpfungen). Sei M eine Menge. Eine (innere) Verknüpfung
(oder algebraische Struktur) auf M ist eine Abbildung
˘W M M ! M;
(3.1)
welche wir als .a; b/ 7! a ˘ b für a; b 2 M schreiben.
Besteht die Gefahr einer Verwechslung mit einer anderen Verknüpfung, so verwenden wir auch andere Symbole wie etwa ?, oder ı, um die Verknüpfung zu
bezeichnen. Eine Menge .M; ˘/ mit einer Verknüpfung wird gelegentlich auch ein
Magma genannt.
Es geht an dieser Stelle also noch nicht um irgendwelche Eigenschaften einer
Verknüpfung, sondern nur um ihr bloßes Vorhandensein. Wir wollen nun zeigen,
dass sogar für eine derartige „strukturlose“ Struktur bereits einige nichttriviale
Schlüsse und Konstruktionen möglich sind. Die Idee ist dabei, dass diese Resultate
dann auch für Strukturen in deutlich konkreteren Beispielen gelten und von Nutzen
sein werden.
Zunächst fragen wir uns nach solchen Abbildungen, die die Verknüpfung respektieren, also strukturerhaltend sind.
Definition 3.2 (Morphismen). Seien .M1 ; ˘1 / und .M2 ; ˘2 / Mengen mit Verknüpfungen. Eine Abbildung
W .M1 ; ˘1 / ! .M2 ; ˘2 /
(3.2)
heißt Morphismus von .M1 ; ˘1 / nach .M2 ; ˘2 /, falls
.a ˘1 b/ D .a/ ˘2 .b/
(3.3)
3.1 Algebraische Strukturen und Morphismen
31
für alle a; b 2 M1 . Die Menge aller Morphismen von .M1 ; ˘1 / nach .M2 ; ˘2 /
bezeichnen wir mit
ˇ
˚
Morph .M1 ; ˘1 /; .M2 ; ˘2 / D W M1 ! M2 ˇ ist Morphismus :
(3.4)
Oftmals ist die Verknüpfung aus dem Kontext klar, dann schreiben wir einfach
Morph.M1 ; M2 /, sofern keine Verwechslung möglich ist. Weiter setzen wir
End.M; ˘/ D Morph .M; ˘/; .M; ˘/
(3.5)
für die Endomorphismen von einer Menge M mit Verknüpfung ˘. Ist aus dem
Kontext klar, um welche Verknüpfung ˘ es sich gerade handelt, so schreiben wir
wieder nur End.M /. Anstelle des Begriffes Morphismus wird auch Homomorphismus verwendet. Die Terminologie leitet sich aus dem Griechischen „gleiche Gestalt“
her.
Proposition 3.3. Seien .M1 ; ˘1 /, .M2 ; ˘2 / und .M3 ; ˘3 / Mengen mit Verknüpfungen.
i.) Sind W .M1 ; ˘1 / ! .M2 ; ˘2 / und W .M2 ; ˘2 / ! .M3 ; ˘3 / Morphismen, so
ist auch die Hintereinanderausführung
ı W .M1 ; ˘1 / ! .M3 ; ˘3 /
(3.6)
ein Morphismus.
ii.) Die Identitätsabbildung idM1 W .M1 ; ˘1 / ! .M1 ; ˘1 / ist ein Morphismus.
iii.) Ist W .M1 ; ˘1 / ! .M2 ; ˘2 / ein bijektiver Morphismus mit Umkehrabbildung
1 W M2 ! M1 , so ist auch
1 W .M2 ; ˘2 / ! .M1 ; ˘1 /
(3.7)
ein Morphismus.
Beweis. Seien a; b 2 M1 , dann gilt durch zweimaliges Anwenden der Morphismuseigenschaften
.
ı /.a ˘1 b/ D
..a ˘1 b//
D
..a/ ˘2 .b//
D
..a// ˘3
D ..
..b//
ı /.a// ˘3 ..
ı /.b//;
32
3 Von Gruppen, Ringen und Körpern
womit der erste Teil folgt. Der zweite Teil ist klar, da
idM1 .a ˘1 b/ D a ˘1 b D .idM1 .a// ˘1 .idM1 .b//
für alle a; b 2 M1 . Schließlich gilt für c; d 2 M2
1 .c ˘2 d / D 1 .. ı 1 /.c/ ˘2 . ı 1 /.d //
D 1 .. 1 .c/ ˘1 1 .d ///
D 1 .c/ ˘1 1 .d /;
da ein Morphismus ist und ı 1 D idM2 gilt. Dies zeigt den dritten Teil.
t
u
Das vielleicht Überraschende an dieser Proposition ist, dass über die weitere
Natur der Verknüpfungen ˘1 , ˘2 und ˘3 keinerlei Aussagen oder Voraussetzungen
gemacht werden müssen.
Ein bijektiver Morphismus heißt auch Isomorphismus, und ein bijektiver Endomorphismus heißt auch Automorphismus.
Beispiel 3.4 (Verknüpfungen und Morphismen).
i.) Die Addition ˘ D C von Zahlen liefert eine Verknüpfung im obigen Sinne.
So sind etwa .N; C/, .Z; C/, .Q; C/ und .R; C/ Mengen mit Verknüpfungen.
Die Inklusionsabbildungen
.N; C/ ! .Z; C/ ! .Q; C/ ! .R; C/
(3.8)
sind dann Morphismen. In diesem Fall verbirgt sich hinter dieser Aussage
also lediglich die Tatsache, dass die Addition von natürlichen Zahlen dasselbe
Resultat liefert, egal ob man sie als natürliche oder ganze Zahlen auffasst etc.
ii.) Die Multiplikation von Zahlen ist ebenfalls eine Verknüpfung, und die Inklusionsabbildungen
.N; / ! .Z; / ! .Q; / ! .R; /
(3.9)
sind wieder Morphismen.
iii.) Die Addition C von Vektoren im R3 ist ebenfalls eine Verknüpfung, ebenso
das Kreuzprodukt . Das Skalarprodukt hingegen liefert als Resultat keinen
Vektor und ist damit keine (innere) Verknüpfung im Sinne von Definition 3.1.
Natürlich können wir unsere Definition einer Verknüpfung dahingehend verallgemeinern, dass wir auch Abbildungen der Form ˘W M1 M2 ! M3 zulassen.
Weiter können wir auch mehr als nur zwei Elemente miteinander verknüpfen
und somit Abbildungen vom Typ
˘W M1 Mk ! N
(3.10)
3.1 Algebraische Strukturen und Morphismen
33
für Mengen M1 ; : : : ; Mk und N betrachten. Wir werden Abbildungen dieser
Art durchaus noch kennenlernen, wollen dann aber dabei nicht von inneren
Verknüpfungen sprechen.
iv.) Ist M D fx; yg eine zweielementige Menge, so können wir eine Verknüpfung
˘ beispielsweise durch
x ˘ x D y;
x ˘ y D x;
y˘x Dy
und
y˘y Dy
(3.11)
definieren. Dies ist selbstverständlich nur eine von vielen Möglichkeiten
(insgesamt 24 ), welche für sich genommen nicht weiter interessant ist. Sie
illustriert aber Folgendes: Im Allgemeinen gelten weder a ˘ b D b ˘ a noch
a ˘ .b ˘ c/ D .a ˘ b/ ˘ c.
v.) Sei M eine Menge. Dann sind sowohl [ als auch \ Verknüpfungen für die
Potenzmenge 2M .
Während die Addition in den Beispielen 3.4, i.) und iii.), ebenso wie die
Multiplikation in Beispiel 3.4, ii.), sowohl assoziativ als auch kommutativ ist, zeigen
das Kreuzprodukt und das Beispiel 3.4, iv.), dass dies nicht notwendigerweise so
sein muss. Daher lohnt es sich, diese Situationen genauer zu betrachten.
Definition 3.5 (Halbgruppe und neutrales Element). Sei .M; ˘/ eine Menge mit
Verknüpfung.
i.) Die Verknüpfung heißt assoziativ, falls
a ˘ .b ˘ c/ D .a ˘ b/ ˘ c
(3.12)
für alle a; b; c 2 M gilt. In diesem Fall heißt .M; ˘/ Halbgruppe, und wir
nennen ˘ auch Produkt oder Multiplikation.
ii.) Die Verknüpfung heißt kommutativ, falls
a˘b Db˘a
(3.13)
für alle a; b 2 M gilt.
iii.) Ein Element e 2 M heißt neutral bezüglich ˘, falls
a˘e Da De˘a
(3.14)
für alle a 2 M gilt.
Ist .M; ˘/ eine Halbgruppe, so können wir dank (3.12) auch in längeren Produkten
beliebig umklammern, siehe auch Übung 3.11. In diesem Fall ist es daher sinnvoll
und auch üblich, ein n-faches Produkt a1 ˘ ˘ an gänzlich ohne Klammern zu
schreiben. Auf die Reihenfolge der Faktoren kommt es natürlich sehr wohl an!
34
3 Von Gruppen, Ringen und Körpern
Proposition 3.6. Sei .M; ˘/ eine Menge mit Verknüpfung. Dann besitzt .M; ˘/
höchstens ein neutrales Element.
Beweis. Angenommen, e; e 0 2 M seien neutrale Elemente, dann gilt e D e ˘ e 0 , da
e 0 ein neutrales Element ist, sowie e ˘ e 0 D e 0 , da e ein neutrales Element ist. Also
folgt e D e 0 .
t
u
Die Existenz eines neutralen Elements wird besonders dann interessant, wenn ˘
assoziativ ist. Dieser Fall verdient erneut einen eigenen Namen:
Definition 3.7 (Monoid). Sei .M; ˘/ eine Menge mit assoziativer Verknüpfung.
Besitzt .M; ˘/ ein neutrales Element e, so heißt .M; ˘; e/ Monoid. Ein Monoidmorphismus ist ein Morphismus, der zudem das neutrale Element auf das neutrale
Element abbildet.
Wenn der Kontext klar ist, werden wir bei einem Monoidmorphismus ebenfalls kurz
nur von „Morphismus“ sprechen. Dies ist aufgrund des folgenden Korollars nicht
ganz falsch:
Korollar 3.8. Seien .M1 ; ˘1 ; e1 / und .M2 ; ˘2 ; e2 / Monoide. Sei W .M1 ; ˘1 / !
.M2 ; ˘2 / ein Morphismus von Halbgruppen. Ist surjektiv, so ist sogar ein
Morphismus von Monoiden.
Beweis. Sei b 2 M2 beliebig. Dann gibt es ein a 2 M1 mit .a/ D b. Daher folgt
sowohl
.e1 / ˘2 b D .e1 / ˘2 .a/ D .e1 ˘1 a/ D .a/ D b
als auch
b ˘2 .e1 / D .a/ ˘2 .e1 / D .a ˘1 e1 / D .a/ D b;
womit .e1 / ein neutrales Element bezüglich ˘2 ist, also nach Proposition 3.6 mit
e2 übereinstimmt.
t
u
Es gibt aber Beispiele von Halbgruppenmorphismen zwischen Monoiden, die
keine Monoidmorphismen sind. Wir werden hierfür später einfache Beispiele in
Übung 5.26 sehen.
Beispiel 3.9 (Monoide).
i.) Die Zahlen .N0 ; C/, .Z; C/, .Q; C/ und .R; C/ sind kommutative Monoide
mit 0 als neutralem Element. Die natürlichen Zahlen .N; C/ bilden dagegen
nur eine kommutative Halbgruppe. Auch .N0 ; /, .Z; /, .Q; / und .R; / sind
kommutative Monoide mit neutralem Element 1.
3.1 Algebraische Strukturen und Morphismen
35
ii.) Die Vektoren .R3 ; C/ bilden ein kommutatives Monoid mit dem Nullvektor
als neutralem Element. Das Kreuzprodukt hingegen ist weder assoziativ noch
kommutativ, noch besitzt es ein neutrales Element. Dies folgt sofort aus den
Eigenschaften von aE bE in Proposition 1.15, ii.), iv.) und vi.), siehe auch
Übung 3.2.
iii.) Ist M eine Menge, so ist .2M ; [/ ein kommutatives Monoid mit neutralem
Element ;. Ebenso ist .2M ; \; M / ein kommutatives Monoid. Dies folgt aus
den Rechenregeln für Vereinigung und Durchschnitt von Mengen, siehe auch
Abschn. B.1 sowie Proposition B.8.
iv.) Ist M eine Menge, so ist die Menge Abb.M / der Abbildungen von M nach
M ein (im Allgemeinen nichtkommutatives) Monoid bezüglich der Verkettung
ı von Abbildungen und der Identität idM als neutralem Element. Hier ist
die entscheidende Beobachtung, dass die Verkettung von Abbildungen immer
assoziativ ist, siehe auch Proposition B.21, i.).
v.) Ist .M; ˘/ eine Menge mit Verknüpfung ˘, so ist .End.M; ˘/; ı; idM / ein
(im Allgemeinen nichtkommutatives) Monoid. Hierfür benutzen wir zum einen
Proposition 3.3, i.) und iii.), um zu sehen, dass die Verkettung von Endomorphismen wieder ein Endomorphismus und die Identitätsabbildung wirklich ein
Endomorphismus ist. Zum anderen verwenden wir, dass die Verkettung von
Abbildungen generell assoziativ ist und idM das zugehörige neutrale Element
darstellt. Man beachte, dass bezüglich der Natur der Verknüpfung ˘ auf M
keinerlei Voraussetzungen gemacht werden müssen.
Gerade das letzte Beispiel legt nahe, auch im Allgemeinen Unterstrukturen von
einer Menge mit Verknüpfung zu betrachten:
Definition 3.10 (Unterstruktur). Sei .M; ˘/ eine Menge mit Verknüpfung. Eine
(nichtleere) Teilmenge N M heißt Unterstruktur von .M; ˘/, wenn die Einschränkung von ˘ auf N N nur Werte in N annimmt.
Mit anderen
ˇ Worten, für a; b 2 N M soll auch a ˘ b 2 N gelten. In diesem Fall
ist .N; ˘ˇN N / ebenfalls eine Menge mit Verknüpfung. Auf diese Weise definiert
man etwa eine Unterhalbgruppe etc. Für den Fall, dass man an einem neutralen
Element interessiert ist, verlangt man zudem, dass e 2 N ˇgilt. So ist also ein
Untermonoid eines Monoids .M; ˘; e/ eine Teilmenge N mit ˘ˇN N W N N ! N
und e 2 N .
Beispiel 3.11 (Untermonoid).
i.) Ist .M; ˘/ eine Menge mit Verknüpfung, so bilden die Endomorphismen
End.M / Abb.M / von .M; ˘/ ein Untermonoid aller Abbildungen bezüglich der Verkettung von Abbildungen. Dies ist gerade die Aussage von
Beispiel 3.9, v.).
36
3 Von Gruppen, Ringen und Körpern
ii.) Ist .M; ˘/ ein Monoid und sind U1 ; U2 M Teilmengen, sodass .U1 ; ˘/
und .U2 ; ˘/ Untermonoide sind, so ist auch .U1 \ U2 ; ˘/ ein Untermonoid.
T
Etwas allgemeiner sieht man, dass auch ein beliebiger Durchschnitt i2I Ui
von Untermonoiden Ui M für i 2 I wieder ein Untermonoid bezüglich ˘
ist.
iii.) Ist W .M1 ; ˘1 ; e1 / ! .M2 ; ˘2 ; e2 / ein Monoidmorphismus, so ist der Kern
von ˇ
˚
ker D a 2 M1 ˇ .a/ D e2 M1
(3.15)
ein Untermonoid: Es gilt e1 2 ker , da ja definitionsgemäß .e1 / D e2
für einen Monoidmorphismus erfüllt ist. Weiter gilt mit a; b 2 ker auch
.a ˘1 b/ D .a/ ˘2 .b/ D e2 ˘2 e2 D e2 , womit a ˘1 b 2 ker folgt.
Kontrollfragen. Wieso ist die Verkettung von Morphismen ein Morphismus? Was
ist ein neutrales Element und wieso ist es eindeutig? Was sind Beispiele für Monoide
und Untermonoide?
3.2
Invertierbarkeit und Gruppen
Wir wollen nun der Frage nachgehen, ob wir in einer Menge .M; ˘/ mit Verknüpfung Gleichungen der Form
a˘x Db
oder
x˘a Db
(3.16)
lösen können, wobei a; b 2 M vorgegeben und x 2 M gesucht ist. Im Allgemeinen
wird dies nicht möglich sein: Das Beispiel 3.4, iv.), liefert bei geeigneter Wahl der
fest vorgegebenen Elemente schnell ein Gegenbeispiel. Darüber hinaus kann es auch
sein, dass (3.16) mehrere Lösungen besitzt.
Wir müssen daher etwas mehr über die Verknüpfung voraussetzen: Ist ˘ nicht
assoziativ, so ist die Situation sehr unübersichtlich. Wir werden also vornehmlich
an einer Halbgruppe interessiert sein. Selbst in einer Halbgruppe können wir noch
nicht sehr viel Substanzielles über (3.16) sagen. Die Situation ändert sich, wenn wir
zudem ein neutrales Element e voraussetzen, also für ein Monoid. In diesem Fall
können wir zunächst den Spezialfall b D e betrachten:
Definition 3.12 (Invertierbarkeit). Sei .M; ˘; e/ ein Monoid und a 2 M .
i.) Gibt es ein b 2 M mit a ˘ b D e, so heißt a rechtsinvertierbar mit Rechtsinversem b.
ii.) Gibt es ein b 2 M mit b ˘ a D e, so heißt a linksinvertierbar mit Linksinversem b.
iii.) Ist a sowohl links- als auch rechtsinvertierbar, so heißt a invertierbar.
3.2 Invertierbarkeit und Gruppen
37
Bemerkung 3.13 (Invertierbarkeit). Sei .M; ˘; e/ ein Monoid.
i.) Ist a rechtsinvertierbar mit Rechtsinversem b, so ist dieses b linksinvertierbar
mit Linksinversem a und umgekehrt.
ii.) Im Allgemeinen kann es für ein rechtsinvertierbares Element a mehrere
Rechtsinverse geben. Im Fall eines kommutativen Monoids stimmen natürlich
alle drei Begriffe überein.
iii.) Ist a sowohl rechtsinvertierbar mit a ˘ b D e als auch linksinvertierbar mit
c ˘ a D e, so gilt
c D c ˘ e D c ˘ .a ˘ b/ D .c ˘ a/ ˘ b D e ˘ b D b;
(3.17)
womit das Linksinverse mit dem Rechtsinversen übereinstimmt. Dies zeigt
auch, dass je zwei Rechtsinverse beziehungsweise je zwei Linksinverse übereinstimmen, falls a invertierbar ist. Man beachte, dass die Assoziativität
entscheidend verwendet wurde.
Diese letzte Beobachtung gestattet es daher, folgende Definition aufzustellen:
Definition 3.14 (Inverses). Sei .M; ˘; e/ ein Monoid. Ist a 2 M invertierbar, so
heißt das eindeutig bestimmte Element a1 2 M mit a ˘ a1 D e D a1 ˘ a das
Inverse von a.
Die Lösbarkeit der Gl. (3.16) lässt sich mit diesen neuen Begriffen nun folgendermaßen verstehen:
Proposition 3.15. Sei .M; ˘; e/ ein Monoid und a; b 2 M .
i.) Die Gleichung a ˘ x D b besitzt genau dann für jedes b Lösungen, wenn a
rechtsinvertierbar ist. Ist a0 ein Rechtsinverses von a , so ist x D a0 ˘ b eine
Lösung.
ii.) Die Gleichung x ˘ a D b besitzt genau dann für jedes b Lösungen, wenn
a linksinvertierbar ist. Ist a0 ein Linksinverses von a, so ist x D b ˘ a0 eine
Lösung.
iii.) Die Gleichung a˘x D b besitzt genau dann für jedes b eine eindeutige Lösung,
wenn a invertierbar ist. In diesem Fall ist x D a1 ˘ b die eindeutige Lösung.
iv.) Die Gleichung x ˘a D b besitzt genau dann für jedes b eine eindeutige Lösung,
wenn a invertierbar ist. In diesem Fall ist x D b ˘ a1 die eindeutige Lösung.
Beweis. Wir zeigen i.) und iii.). Die Aussagen ii.) und iv.) beweist man dann analog.
Sei also zunächst a rechtsinvertierbar mit a ˘ a0 D e. Einsetzen von x D a0 ˘ b
liefert
a ˘ .a0 ˘ b/ D .a ˘ a0 / ˘ b D e ˘ b D b;
38
3 Von Gruppen, Ringen und Körpern
womit x eine Lösung ist. Ist umgekehrt a ˘ x D b für jedes b lösbar, so auch
insbesondere für b D e. Die zugehörige Lösung ist ein Rechtsinverses, womit der
erste Teil gezeigt ist. Sei nun zudem a invertierbar und c 2 M eine Lösung von
a ˘ x D b. Dann gilt mit der Assoziativität von ˘
c D e ˘ c D .a1 ˘ a/ ˘ c D a1 ˘ .a ˘ c/ D a1 ˘ b;
womit a1 ˘ b die eindeutige Lösung ist. Ist umgekehrt a ˘ x D b für jedes b
eindeutig lösbar, so auch für b D e. Es gibt also ein eindeutiges Rechtsinverses a0
zu a. Dann gilt wieder unter Verwendung der Assoziativität
a ˘ .a0 ˘ a/ D .a ˘ a0 / ˘ a D e ˘ a D a;
womit a0 ˘ a die nach Voraussetzung eindeutige Lösung der Gleichung a ˘ x D a
ist. Da x D e aber ebenfalls eine Lösung ist, folgt a0 ˘ a D e, also ist a0 ein
Linksinverses von a, und a ist invertierbar nach Bemerkung 3.13, iii.).
t
u
Da Inverse eine derart große Rolle spielen werden, listen wir hier noch einige
elementare Rechenregeln für Inverse auf.
Proposition 3.16. Sei .M; ˘; e/ ein Monoid.
i.) Das neutrale Element e ist invertierbar mit e 1 D e.
ii.) Ist a 2 M invertierbar, so ist auch das Inverse a1 invertierbar mit Inversem
.a1 /1 D a.
iii.) Sind a; b 2 M invertierbar, so ist auch a ˘ b invertierbar mit Inversem .a ˘
b/1 D b 1 ˘ a1 .
Beweis. Der erste Teil ist klar, da e ˘ e D e. Der zweite ist ebenfalls klar, da in
a ˘ a1 D e D a1 ˘ a die Elemente a und a1 symmetrisch eingehen, siehe auch
Bemerkung 3.13, i.). Für den dritten Teil rechnet man nach, dass
.b 1 ˘ a1 / ˘ .a ˘ b/ D b 1 ˘ a1 ˘ a ˘ b D b 1 ˘ e ˘ b D e
ebenso wie .a ˘ b/ ˘ .b 1 ˘ a1 / D e. Dies zeigt, dass b 1 ˘ a1 ein Inverses und
damit das eindeutige Inverse von a ˘ b ist. Auch hier ist die Assoziativität von ˘
entscheidend.
t
u
Man beachte, dass sich die Reihenfolge in .a ˘ b/1 D b 1 ˘a1 für invertierbare
Elemente a; b 2 M umkehrt, was im nichtkommutativen Fall wichtig ist.
Korollar 3.17. Sei .M; ˘; e/ ein Monoid. Dann ist
ˇ
˚
M D a 2 M ˇ a ist invertierbar
(3.18)
3.2 Invertierbarkeit und Gruppen
39
ein Untermonoid von M , in dem jedes Element invertierbar ist. Insbesondere gilt
e 2 M .
Das Untermonoid M von M besteht also nur aus invertierbaren Elementen. Ein
derartiges Monoid ist nun eine Gruppe.
Definition 3.18 (Gruppe). Eine Gruppe ist ein Tripel .G; ˘; e/ von einer Menge
G mit assoziativer Verknüpfung ˘ und neutralem Element e derart, dass jedes
Element in G invertierbar ist. Ist zudem ˘ kommutativ, so heißt die Gruppe
abelsch. Ein Gruppenmorphismus von .G1 ; ˘1 ; e1 / nach .G2 ; ˘2 ; e2 / ist ein
Monoidmorphismus der zugrunde liegenden Monoide.
Mit anderen Worten, eine Gruppe ist ein Monoid, für welches G D G gilt. Die
Aussage von Korollar 3.17 können wir entsprechend nun so umformulieren, dass
für ein Monoid .M; ˘; e/ das Untermonoid M der invertierbaren Elemente in M
eine Gruppe bildet.
Mithilfe der Charakterisierung von invertierbaren Elementen nach Proposition 3.15 ergeben sich einige weitere äquivalente Formulierungen des Gruppenbegriffs.
Korollar 3.19. Sei .G; ˘; e/ ein Monoid. Dann sind äquivalent:
i.) Das Monoid .G; ˘; e/ ist eine Gruppe.
ii.) Für alle a; b 2 G ist die Gleichung
a˘x Db
(3.19)
eindeutig lösbar.
iii.) Für alle a; b 2 G ist die Gleichung
x˘a Db
(3.20)
eindeutig lösbar.
Bemerkung 3.20 (Additive und multiplikative Gruppen). Für eine Gruppe .G; ˘; e/
ist meistens aus dem Zusammenhang klar, welche Verknüpfung ˘ man auf G
betrachtet. Daher müssen wir typischerweise ˘ nicht spezifizieren. Zudem ist das
neutrale Element e nach Proposition 3.16 ohnehin eindeutig bestimmt, sodass
wir auch dieses nicht explizit erwähnen müssen. Daher schreibt man oft für eine
Gruppe auch einfach G. Ist die Gruppe nun abelsch, so schreibt man anstelle
der Verknüpfung ˘ auch C. Das neutrale Element e wird in diesem Fall mit 0
bezeichnet, und das inverse Element zu a bezeichnet man mit a anstelle von
a1 . In diesem Fall sagen wir, dass die Gruppe G additiv geschrieben wird. Ist G
hingegen nicht abelsch, so schreiben wir abkürzend ab für a ˘ b und bezeichnen das
40
3 Von Gruppen, Ringen und Körpern
neutrale Element auch mit 1 anstelle von e. Für das inverse Element behalten wir die
Schreibweise a1 bei. Diesen Fall nennt man dann die multiplikative Schreibweise
für G. Man beachte jedoch, dass dies nur eine Konvention ist: Im Zweifelsfall sollte
man nicht von der Notation darauf schließen, ob die Gruppe abelsch ist oder nicht,
sondern dies konkret überprüfen.
Wir geben nun einige Beispiele für Gruppen, die uns in der Mathematik immer
wieder begegnen werden:
Beispiel 3.21 (Gruppen).
i.) Die Zahlen .Z; C/, .Q; C/ und .R; C/ sind (additiv geschriebene) Gruppen
bezüglich der üblichen Addition und mit 0 als neutralem Element.
ii.) In den Monoiden .N; /, .Z; /, .Q; / und .R; / findet man nun folgende
(multiplikativ geschriebene) Gruppen von invertierbaren Elementen
N D f1g;
Z D fC1; 1g;
Q D Q n f0g;
R D R n f0g;
(3.21)
jeweils bezüglich der üblichen Multiplikation von Zahlen und mit 1 als
neutralem Element. Alle diese Gruppen sind abelsch.
iii.) Sei M eine nichtleere Menge und Abb.M / das Monoid der Abbildungen von
M nach M . Die Gruppe der invertierbaren Elemente von Abb.M / gemäß
Korollar 3.17 ist dann
und
ˇ
˚
Abb.M / D 2 Abb.M / ˇ ist bijektiv :
(3.22)
Dies folgt aus der Tatsache, dass W M ! M genau dann invertierbar
bezüglich der Hintereinanderausführung ist, wenn bijektiv ist, siehe Proposition B.25, iii.). Man schreibt auch
Bij.M / D Abb.M /
(3.23)
für diese Gruppe der Bijektionen. Im Allgemeinen ist Bij.M / nicht abelsch,
was man sich anhand geeigneter Beispiele für eine Menge mit mindestens drei
Elementen klarmacht, siehe Übung 3.1.
iv.) Ist .M; ˘/ eine Menge mit Verknüpfung, so bilden die Endomorphismen von
.M; ˘/ nach Beispiel 3.9, v.), ein Monoid End.M; ˘/ bezüglich der Verkettung
von Abbildungen als Verknüpfung, welches ein Untermonoid von Abb.M / ist.
Ist 2 End.M; ˘/ nun sogar invertierbar, so gibt es also 1 2 End.M; ˘/
mit ı 1 D idM D 1 ı . Man beachte, dass die Abbildungen mittels
der Hintereinanderausführung ı verknüpft werden, welche nichts mit der Verknüpfung von .M; ˘/ zu tun hat. Der Endomorphismus 1 ist insbesondere
als Abbildung invertierbar und damit 1 2 Abb.M / . Ist umgekehrt in Abb.M / invertierbar, so ist 1 2 Abb.M / wieder ein Morphismus
3.2 Invertierbarkeit und Gruppen
41
nach Proposition 3.3, iii.). Es folgt daher für die Automorphismengruppe
Aut.M; ˘/ D End.M; ˘/ von .M; ˘/ die Beziehung
ˇ
˚
Aut.M; ˘/ D End.M; ˘/ \ Abb.M / D 2 End.M; ˘/ ˇ ist bijektiv :
(3.24)
Im Allgemeinen ist Aut.M; ˘/ nicht abelsch. Diese große Beispielklasse zeigt
eine weitere fundamentale Bedeutung des Gruppenbegriffs auf: Wir können
Gruppen als Symmetrien eines anderen mathematischen Objekts wie etwa einer
Menge mit Verknüpfung auffassen. Dieser Gesichtspunkt der Gruppentheorie
wird uns insbesondere in der Geometrie noch oft begegnen, wo die anschauliche Vorstellung von Symmetrie besonders klar ist.
v.) Die kleinste Gruppe G ist die triviale Gruppe G D feg mit der eindeutig
bestimmten Verknüpfung e ˘ e D e. Als vielleicht etwas unglückliche, aber
sehr gebräuchliche Schreibweise wird oft 1 oder 0 für die triviale Gruppe
verwendet, je nachdem ob man sie additiv oder multiplikativ schreiben möchte.
vi.) Sei n D f1; : : : ; ng die Menge der ersten n natürlichen Zahlen. Die Gruppe
der Bijektionen Abb.n/ bezeichnet man in diesem Fall als die symmetrische
Gruppe Sn oder auch Permutationsgruppe
ˇ
˚
Sn D W n ! n ˇ ist bijektiv :
(3.25)
Die Elemente von Sn nennt man auch Permutationen. Ist 2 Sn , so ist durch die Werte .1/; : : : ; .n/ festgelegt. Hier muss jede Zahl von 1 bis n
genau einmal als Wert auftreten. Eine gebräuchliche Schreibweise ist
D
1
2 ::: n
:
.1/ .2/ : : : .n/
(3.26)
So ist etwa
D
123
2 S3
312
eine Permutation, während
123
122
keine Permutation ist. Wir werden die Eigenschaften der Gruppe Sn noch
eingehend zu studieren haben, siehe Abschn. 6.1.
vii.) Sei p 2 N vorgegeben. Dann betrachten wir eine Menge mit p Elementen
Zp D f0; : : : ; p 1g;
(3.27)
42
3 Von Gruppen, Ringen und Körpern
11
0
1
10
11
3
8
4
7
6
5
1
10
2
9
0
+
11
3
8
4
7
6
1
10
2
9
0
=
2
9
3
8
5
4
7
6
5
Abb. 3.1 Arithmetik in Z 12 : Sieben Stunden nach 6 Uhr ist es 6 C 7 D 1
welche wir nun mit einer Gruppenstruktur versehen wollen. Die Idee ist, dass
wir die Addition der natürlichen Zahlen zyklisch oder periodisch gestalten
wollen, wie dies beispielsweise die Addition der Stunden auf einer Uhr ist,
siehe Abb. 3.1. Konkret definiert man daher
(
)
kC`
falls k C ` < p
kC`D
(3.28)
D .k C `/ mod p:
k C ` p falls k C ` p
Hier bedeutet allgemein n mod p, gesprochen n modulo p, den ganzzahligen
Rest der Division n=p. Man verifiziert nun durch eine explizite Fallunterscheidung oder etwas konzeptueller anhand der Rechenregeln für n mod p, dass
Zp tatsächlich eine sogar abelsche Gruppe bezüglich C mit 0 als neutralem
Element ist. Die Gruppe Zp heißt auch zyklische Gruppe der Ordnung p.
Gegenüber einem Monoidmorphismus ergibt sich im Fall von Gruppenmorphismen folgende Vereinfachung:
Proposition 3.22. Seien G1 und G2 Gruppen und sei W G1 ! G2 ein Morphismus der zugrunde liegenden Halbgruppen. Dann ist ein Gruppenmorphismus, und
es gilt
.g 1 / D .g/1
(3.29)
für alle g 2 G.
Beweis. Wir müssen zeigen, dass .e1 / D e2 automatisch erfüllt ist, sobald
.g ˘1 h/ D .g/ ˘2 .h/ für alle g; h 2 G1 gilt. Da .e1 / invertierbar in G2 ist,
gilt e2 D .e1 /1 ˘2 .e1 / D .e1 /1 ˘2 .e1 ˘1 e1 / D .e1 /1 ˘2 .e1 /˘2 .e1 / D
.e1 /, womit tatsächlich ein Monoidmorphismus ist. Für ein beliebiges g 2 G1
gilt dann
e2 D .e1 / D .g ˘1 g 1 / D .g/ ˘2 .g 1 /;
3.2 Invertierbarkeit und Gruppen
43
sodass also .g 1 / ein Rechtsinverses zu .g/ ist. Da in einer Gruppe jedes Element
invertierbar ist, muss dieses Rechtsinverse also bereits das eindeutig bestimmte
t
u
Inverse .g/1 sein, womit (3.29) folgt.
Um unsere Notation zu entlasten, wollen wir zukünftig eine Gruppe multiplikativ
schreiben und das Symbol ˘ für die Gruppenmultiplikation unterdrücken.
In einer Gruppe G kann man Untermonoide betrachten, also Teilmengen
H G, welche unter der Gruppenmultiplikation abgeschlossen sind und e 2 H
erfüllen. Das Beispiel .N0 ; C/ .Z; C/ zeigt, dass ein Untermonoid selbst noch
keine Gruppe zu sein hat: Die nötigen Inversen liegen zwar in G, aber eventuell
nicht in H . Für einen sinnvollen Begriff einer Untergruppe müssen wir dies also
zusätzlich fordern:
Definition 3.23 (Untergruppe). Sei G eine Gruppe. Eine Untergruppe H von G
ist ein Untermonoid mit der zusätzlichen Eigenschaft, dass g 1 2 H für alle g 2 H
gilt.
So ist also etwa .Z; C/ .Q; C/ eine Untergruppe, aber .N0 ; C/ .Z; C/ nicht.
In Beispiel 3.11, iii.), haben wir gesehen, dass der Kern eines Monoidmorphismus
immer ein Untermonoid ist. Im Falle von Gruppen liefert dies sogar eine Untergruppe.
Proposition 3.24 (Kern und Bild von Gruppenmorphismus). Sei W G1 ! G2
ein Gruppenmorphismus.
i.) Dann ist ker G1 eine Untergruppe mit der zusätzlichen Eigenschaft
8g 2 G1 8h 2 ker W ghg 1 2 ker :
(3.30)
ii.) Das Bild im G2 ist eine Untergruppe.
Beweis. Sei h 2 ker , also .h/ D e2 . Dann gilt mit (3.29) auch .h1 / D
.h/1 D e21 D e2 , also h1 2 ker , womit ker eine Untergruppe ist. Sei nun
g 2 G1 beliebig und h 2 ker . Dann gilt
.ghg 1 / D .g/.h/.g 1 / D .g/e2 .g/1 D .g/.g/1 D e2 ;
also (3.30). Für den zweiten Teil wissen wir zunächst, dass e2 D .e1 / 2 im ,
womit das Bild das Einselement enthält. Weiter gilt für .g/; .h/ 2 im auch
.g/.h/ D .gh/ 2 im ebenso wie .g/1 D .g 1 / 2 im . Damit ist im eine Untergruppe.
t
u
Untergruppen mit der Eigenschaft (3.30) spielen allgemein eine große Rolle und
verdienen daher wiederum einen eigenen Namen:
44
3 Von Gruppen, Ringen und Körpern
Definition 3.25 (Normale Untergruppe). Sei G eine Gruppe und H G eine
Untergruppe. Dann heißt H normale Untergruppe, falls ghg 1 2 H für alle g 2 G
und h 2 H .
Wir werden später in Band 2 die wahre Bedeutung normaler Untergruppen studieren. Insbesondere werden wir sehen, dass jede normale Untergruppe auch als Kern
eines geeigneten Gruppenmorphismus auftritt.
Der Kern eines Gruppenmorphismus ist nun ein Maß dafür, wie sehr der Morphismus nicht injektiv ist. Es gilt nämlich folgende Äquivalenz:
Proposition 3.26. Sei W G1 ! G2 ein Gruppenmorphismus. Dann sind äquivalent:
i.) Es gilt ker D fe1 g.
ii.) Der Gruppenmorphismus ist injektiv.
Beweis. Zuerst nehmen wir an, sei injektiv. Gilt dann g 2 ker , so folgt .g/ D
e2 D .e1 /, womit g D e1 . Daher gilt ker D fe1 g. Sei umgekehrt ker D fe1 g
und g; h 2 G1 mit .g/ D .h/ gegeben. Dann gilt .gh1 / D .g/.h/1 D e2 ,
t
u
also gh1 2 ker . Daher folgt g D h, was die Injektivität von zeigt.
Kontrollfragen. Was ist ein Inverses in einem Monoid und wieso ist es eindeutig?
Was ist der Zusammenhang von Invertierbarkeit und Lösbarkeit von Gleichungen?
Was ist eine Gruppe? Wann ist ein Monoid eine Gruppe? Was ist der Kern eines
Gruppenmorphismus und wieso ist er eine normale Untergruppe?
3.3
Ringe und Polynome
Die Zahlen Z, Q, R etc. besitzen neben der Addition, welche Z; Q und R zu
abelschen Gruppen macht, noch eine weitere Verknüpfung, die Multiplikation. Wir
wollen diese Situation nun auch abstrahieren und die wesentlichen Eigenschaften
von Z, Q und R extrahieren. Eine noch recht allgemeine Variante ist dabei durch
den Begriff des Rings gegeben:
Definition 3.27 (Ring). Ein Ring ist ein Tripel .R; C; / von einer Menge R mit
zwei Verknüpfungen C und mit folgenden Eigenschaften:
i.) Bezüglich der ersten Verknüpfung ist .R; C/ eine abelsche Gruppe.
ii.) Die Verknüpfung ist assoziativ.
iii.) Für alle a; b; c 2 R gelten die Distributivgesetze
a .b C c/ D a b C a c
und
.a C b/ c D a c C b c:
(3.31)
3.3 Ringe und Polynome
45
Ist zudem .R; / ein Monoid, so nennt man das neutrale Element von .R; / die Eins
1 von R, und R heißt Ring mit Eins. Ist kommutativ, so heißt R ein kommutativer
Ring.
Wir folgen der üblichen Konvention von Punkt vor Strich in (3.31), sodass wir auf
Klammern in der rechten Seite verzichten können. Weiter werden wir oftmals das
Symbol für die Multiplikation in unserer Notation unterdrücken und einfach ab
anstelle von a b schreiben. Das neutrale Element der abelschen Gruppe .R; C/
schreiben wir gemäß Bemerkung 3.20 als Null 0.
Man kann die Assoziativität der Multiplikation eines Rings auch aufgeben und
erhält dann einen nichtassoziativen Ring. Hierfür gibt es wichtige Beispielklassen,
wie die Lie-Ringe oder Jordan-Ringe. Wir werden aber ausschließlich assoziative
Ringe betrachten und daher die Assoziativität der Multiplikation als Teil der Definition eines Rings ansehen.
Beispiel 3.28 (Ringe).
i.) Die Zahlen Z; Q und R sind Ringe mit Eins bezüglich der üblichen Addition
und Multiplikation. Die entsprechenden neutralen Elemente sind die Zahlen 0
und 1. Diese Ringe sind zudem kommutativ.
ii.) Die natürlichen Zahlen N beziehungsweise auch N0 bilden keinen Ring. Zwar
haben wir auch hier die beiden erforderlichen Verknüpfungen C und und die
neutralen Elemente 0 und 1 (zumindest im Falle von N0 ), aber die Inversen
bezüglich der Addition fehlen.
iii.) Der einfachste Ring ist der Nullring R D f0g. Hier hat man für die Definition
von C und offenbar keine Wahl, es gilt 0 C 0 D 0 und 0 0 D 0. Damit sind
alle Axiome eines Rings erfüllt. Der Nullring ist kommutativ und besitzt eine
Eins, nämlich
1 D 0:
(3.32)
Gerade die Eigenschaft (3.32) des Nullrings mutet auf den ersten Blick doch eher
seltsam an. Es lohnt sich daher, die Rolle der Null und einige ihrer Eigenschaften
zu untersuchen:
Proposition 3.29. Sei R ein Ring. Dann gilt für alle a 2 R
0 a D 0 D a 0:
(3.33)
Beweis. Zunächst gilt 0 D 0 C 0 in der abelschen Gruppe .R; C/. Daher
schreiben wir
0 a D .0 C 0/ a D 0 a C 0 a:
46
3 Von Gruppen, Ringen und Körpern
Da nun 0a ein additives Inverses in .R; C/ hat, folgt 0 D 0a nach Proposition 3.15,
iii.). Die andere Gleichung zeigt man analog.
t
u
Korollar 3.30. Ist R ein Ring mit 1 D 0, so ist R der Nullring.
Beweis. Klar, denn für a 2 R gilt a D 1 a D 0 a D 0.
t
u
Korollar 3.31. Ist R ein Ring mit 1, sodass auch .R; / eine Gruppe ist, so ist R
der Nullring.
Beweis. Angenommen, 0 besitzt ein multiplikatives Inverses 01 2 R, dann gilt
1 D 01 0 D 0. Die Behauptung folgt aus Korollar 3.30.
t
u
Damit sieht man, dass die seltsame Eigenschaft 1 D 0 tatsächlich nur im
Nullring auftritt und in allen andere Ringen mit Eins das Nullelement 0 kein
multiplikatives Inverses haben kann. Weitere Rechenregeln in Ringen werden in
Übung 3.15 diskutiert.
Wie immer wollen wir auch für Ringe die richtige Version eines Morphismus
finden. Die folgende Definition ist dabei naheliegend:
Definition 3.32 (Ringmorphismus). Seien R1 und R2 Ringe. Eine Abbildung
W R1 ! R2 heißt Ringmorphismus von R1 nach R2 , wenn ein Gruppenmorphismus bezüglich der jeweiligen Additionen und ein Halbgruppenmorphismus
bezüglich der Multiplikationen ist, also wenn
.a C b/ D .a/ C .b/
(3.34)
.a b/ D .a/ .b/
(3.35)
und
für alle a; b 2 R1 gilt. Sind zudem R1 und R2 Ringe mit Eins und gilt zudem
.11 / D 12 ;
(3.36)
so heißt einserhaltend.
Bemerkung 3.33. Man beachte, dass (3.34) ausreicht, um als Gruppenmorphismus bezüglich C zu charakterisieren, siehe Proposition 3.22. Es folgt also
automatisch
.0/ D 0 und
.a/ D .a/
(3.37)
3.3 Ringe und Polynome
47
für alle a 2 R1 . Weiter wissen wir nach Anwendung von Proposition 3.3 auf sowohl
C als auch , dass idR ein Ringmorphismus ist und sowohl die Verknüpfung von
Ringmorphismen als auch die inverse Abbildung eines bijektiven Ringmorphismus
wieder Ringmorphismen sind. Es sei hier noch angemerkt, dass es bei Ringen
mit Eins auch die Konvention gibt, die Eigenschaft (3.36) automatisch für einen
Morphismus zu fordern. Hier sollte man in der Literatur also im Zweifelsfall genau
prüfen, welcher Konvention gefolgt wird.
Durch Kombination unserer bisherigen Ergebnisse ist klar, was eine sinnvolle
Definition eines Unterrings ist. Insbesondere ist der Kern eines Ringmorphismus
W R1 ! R2
ˇ
˚
(3.38)
ker D a 2 R1 ˇ .a/ D 0
ein Unterring. Hier verwendet man Proposition 3.29, um zu sehen, dass ker auch
bezüglich abgeschlossen ist, siehe auch Übung 3.16. Wir werden später in Band 2
noch weitere Eigenschaften des Kerns eines Ringmorphismus diskutieren.
Wir wollen nun eine Konstruktion von Ringen vorstellen, die wir im Folgenden
noch mehrfach verwenden werden: Aus der Schule bekannt sind Polynome als
Funktionen der Form
f .x/ D an x n C an1 x n1 C C a1 x C a0
(3.39)
mit reellen Koeffizienten a0 ; a1 ; : : : ; an 2 R und n 2 N0 . Wir wollen den Begriff
des Polynoms nun etwas genauer und auch etwas allgemeiner fassen. Die gesamte
Information über f ist offenbar in den Koeffizienten a0 ; a1 ; : : : ; an enthalten. Der
Grad des Polynoms ist das größte auftretende n 2 N0 mit an ¤ 0. Die wesentlichen
Eigenschaften von Polynomen sind nun, dass wir sie addieren und multiplizieren
können. Um dies etwas effektiver aufschreiben zu können, verwenden wir hier nun
zum ersten Mal folgende Summenschreibweise
n
X
an x k D a0 C a1 x C C an x n :
(3.40)
kD0
Dies wird als „Summe über k von 0 bis n“ gelesen und stellt einfach eine Abkürzung
für die rechte Seite dar. Sind nun zwei Polynome
f .x/ D
n
X
ak x k
und
g.x/ D
kD0
m
X
b` x `
(3.41)
`D0
gegeben, so ist ihre Summe und ihr Produkt folgendermaßen zu berechnen: Es gilt
max.n;m/
.f C g/.x/ D
X
kD0
.ak C bk /x k
(3.42)
48
3 Von Gruppen, Ringen und Körpern
mit der Konvention, dass wir ak D 0 beziehungsweise b` D 0 setzen, sofern k > n
beziehungsweise ` > m gilt. Weiter haben wir durch Ausmultiplizieren
.f g/.x/ D
n
X
!
ak x
k
kD0
D
m
X
!
b` x
`
`D0
n X
m
X
ak b` x kC`
kD0 `D0
D
D
!
nCm
X
X
rD0
kC`Dr
nCm
X
ak b` x r
(3.43)
cr x r ;
rD0
womit also die Koeffizienten cr des Produktes durch
c0 D a0 b0
c1 D a0 b1 C a1 b0
c2 D a0 b2 C a1 b1 C a2 b0
::
:
(3.44)
cnCm D an bm
gegeben sind. Um nun die Formeln zu vereinfachen und die Fallunterscheidungen
nach dem jeweils höheren Grad zu umgehen, bietet sich folgende Begriffsbildung
an: Zunächst ersetzen wir die Koeffizienten aus R durch solche in einem beliebigen
Ring R und definieren dann die Polynome folgendermaßen:
Definition 3.34 (Polynome). Sei R ein Ring. Die Polynome in der Variablen x mit
Koeffizienten in R sind die Menge
ˇ
˚
RŒx D aW N0 ! R ˇ a.k/ D 0 bis auf endlich viele k 2 N0 :
(3.45)
Elemente in RŒx schreiben wir als
aD
1
X
ak x k
mit
ak D a.k/;
(3.46)
kD0
wobei also nur endlich viele der Koeffizienten ak von Null verschieden sind. Für
a; b 2 RŒx definiert man ihre Summe und ihr Produkt durch
3.3 Ringe und Polynome
49
aCb D
1
X
.ak C bk /x k
(3.47)
kD0
und
ab D
1
X
.ab/r x r
mit .ab/r D
rD0
X
ak b` :
(3.48)
kC`Dr
Der Grad deg.a/ von a 2 RŒx n f0g ist die größte Zahl k 2 N0 mit ak ¤ 0. Für das
Nullpolynom 0 setzen wir deg.0/ D 1.
Man beachte, dass wir Polynome ausdrücklich nicht als spezielle Abbildungen
f W R ! R definieren. Der Grund ist, dass es im Allgemeinen zwei verschiedene
Polynome f und g gibt, die dieselbe Abbildung induzieren, wenn der zugrunde
liegende Ring nicht genügend viele Elemente besitzt oder eine ausreichend pathologische Multiplikation hat. Beispiele hierfür werden wir später in (3.55) sowie
in (6.107) sehen.
Satz 3.35 (Polynomring). Sei R ein Ring.
i.) Die Addition und Multiplikation von Polynomen liefert Abbildungen
C; W RŒx RŒx ! RŒx:
(3.49)
ii.) Die Polynome RŒx werden bezüglich C und ein Ring. Das neutrale Element
bezüglich C ist das Nullpolynom.
iii.) Besitzt R ein Einselement, so ist das konstante Polynom mit a0 D 1 das
Einselement von RŒx.
iv.) Ist R kommutativ, so ist auch RŒx kommutativ.
v.) Der Ring R lässt sich als Unterring von RŒx auffassen, indem man Elemente
von R als konstante Polynome interpretiert.
Beweis. Für den ersten Teil ist nur zu prüfen, ob in (3.47) und (3.48) wieder nur
endlich viele Koeffizienten von Null verschieden sind. Dies ist aber klar, denn für
k > deg.a/ oder ` > deg.b/ folgt ak b` D 0. Damit ist für r > deg.a/ C deg.b/ und
alle k und ` mit k C ` D r offenbar .ab/r D 0, da jeder einzelne Beitrag in (3.48)
verschwindet. Damit ist ab 2 RŒx. Für die Summe ist klar, dass ak Cbk D 0, sofern
k > max.deg.a/; deg.b//. Für den zweiten Teil müssen wir nachrechnen, dass C
assoziativ und kommutativ ist sowie das Nullpolynom als neutrales Element besitzt.
Weiter müssen wir zeigen, dass die Distributivgesetze gelten und dass assoziativ
ist. Wir zeigen exemplarisch einige dieser Forderungen, die übrigen verbleiben als
eine Übung. Seien a; b; c 2 RŒx Polynome. Dann gilt
50
3 Von Gruppen, Ringen und Körpern
1
X
a.bc/ D
.a.bc//r x r
rD0
D
D
D
!
1
X
X
rD0
kC`Dr
1
X
X
rD0
kC`Dr
1
X
X
rD0
kCsCtDr
ak .bc/` x r
!!
X
ak
xr
b s ct
sCtD`
!
ak .bs ct / x r ;
wobei wir im letzten Schritt das Distributivgesetz in R benutzt haben, um
ak
X
!
b s ct
D
sCtD`
X
ak .bs ct /
sCtD`
zu schreiben. Für die andere Klammerung erhält man analog
.ab/c D
1
X
X
rD0
kCsCtDr
!
.ak bs /ct x r :
Damit folgt a.bc/ D .ab/c aus der Assoziativität der Multiplikation in R, denn
ak .bs ct / D .ak bs /ct . Weiter gilt etwa
!
!
1
1
X
X
.a C b/c D
.ak C bk /x k c` x `
kD0
D
D
`D0
1
X
X
rD0
kC`Dr
1
X
X
rD0
kC`Dr
!
.ak C bk /c` x r
ak c` C
X
!
b k c` x r
kC`Dr
D ac C bc;
etc. Der dritte und fünfte Teil sind einfacher. Ist a D a0 D 1 das konstante Polynom
1, so zeigt die Regel in (3.48), dass
.ab/r D a0 br
3.3 Ringe und Polynome
51
der einzige Beitrag ist, also 1 b D b. Entsprechend gilt auch b 1 D b für alle
b 2 RŒx. Sind sowohl a D a0 als auch b D b0 konstante Polynome, so gilt
nach (3.47) für die Summe a C b D a0 C b0 und nach (3.48) für das Produkt
ab D
1
X
.a0 br C C ar b0 /x r D a0 b0 ;
rD0
was zeigt, dass die konstanten Polynome einen Unterring von RŒx bilden. Im
kommutativen Fall gilt
.ab/r D
X
ak b` D
kC`Dr
X
b` ak D .ba/r ;
kC`Dr
was mit (3.48) den vierten Teil zeigt.
t
u
Korollar 3.36. Sei R ein Ring und a; b 2 RŒx. Dann gilt
deg.a C b/ max.deg.a/; deg.b//
(3.50)
deg.ab/ deg.a/ C deg.b/:
(3.51)
und
Da es in einem beliebigen Ring R durchaus Elemente a; b mit ab D 0, aber
a ¤ 0 ¤ b geben kann, ist im allgemeinen Fall in (3.51) nur eine Ungleichung
zu erwarten, siehe auch Beispiel 5.53. Wir werden später in Abschn. 3.5 noch eine
speziellere Situation kennenlernen, wo in (3.51) immer die Gleichheit gilt.
Bemerkung 3.37. Die Wahl der Variable x ist natürlich willkürlich. Wir werden
auch oft oder t anstelle von x verwenden. Sind die Grade der Polynome nicht zu
groß, so ist die Schreibweise
a D an x n C C a1 x C a0
(3.52)
manchmal einfacher. Trotzdem sollte man sich an die Summenschreibweise (3.40)
gut gewöhnen und eine große Vertrautheit mit ihr erwerben.
Eine wichtige Eigenschaft von Polynomen ist nun, dass wir für die Variable x
ein Element aus dem zugrunde liegenden Ring einsetzen können.
Definition 3.38 (Nullstellen). Sei R ein Ring und a 2 RŒx ein Polynom.
52
3 Von Gruppen, Ringen und Körpern
i.) Für 2 R definieren wir a./ 2 R durch
a./ D
1
X
ak k D an n C C a1 C a0 ;
(3.53)
kD0
wobei n D deg.a/.
ii.) Das Ringelement 2 R heißt Nullstelle von a, falls
a./ D 0:
(3.54)
Im nichtkommutativen Fall spielt es offenbar eine Rolle, ob wir ak k oder k ak
schreiben, oder gar k1 ak etc. Daher stellt (3.53) in diesem Fall eine Wahl bei
der Definition von a./ dar. In den für uns wichtigen Anwendungen wird diese
Situation jedoch nie problematisch: Selbst wenn der Ring R nichtkommutativ sein
wird, werden wir typischerweise nur solche Kombinationen ak k zu betrachten
haben, für die die Reihenfolge unerheblich ist: Es wird nur die spezielle Situation
auftreten, in der ak D ak gilt.
ˇ
ˇ
Alternativ werden auch die Schreibweisen aˇxD oder aˇ für die Auswertung
eines Polynoms a bei x D verwendet.
Wir sehen nun, dass ein Polynom a 2 RŒx auch als Abbildung aW R 3
7! a./ 2 R verstanden werden kann. Dies ist aber im Allgemeinen nicht
ohne Informationsverlust möglich. Ist nämlich etwa R eine abelsche Gruppe, so
können wir einfach alle Produkte als 0 definieren. Man sieht leicht, dass dies R
zu einem kommutativen Ring ohne Eins macht. Ist nun a.x/ D an x n C C a0
ein nichttriviales Polynom, so ist die zugehörige Abbildung einfach die konstante
Abbildung
aW 7! an n C C a1 C a0 D a0 ;
(3.55)
da ja alle Produkte als Null definiert sind. Damit vergisst die Abb. (3.55) also die
gesamte Information in den Koeffizienten an ; : : : ; a1 .
Kontrollfragen. Welche Rolle spielt die 0 in einem Ring? Was ist der Zusammenhang von Injektivität und Kern eines Ringmorphismus? Was ist der Unterschied
zwischen einer polynomialen Abbildung R ! R und einem Polynom in RŒx?
Welche Eigenschaften hat der Grad deg eines Polynoms? Wieso ist der Begriff
Nullstelle eines Polynoms im nichtkommutativen Fall problematisch?
3.4
Körper und die komplexen Zahlen
Als Verallgemeinerung der Zahlen Z, Q und R bieten allgemeine (kommutative)
Ringe eine gute Alternative: Es sind beide Verknüpfungen C und vorhanden,
und es gelten die analogen Rechenregeln. Es zeigt sich aber, dass für verschiedene
3.4 Körper und die komplexen Zahlen
53
Anwendungen allgemeine Ringe noch gewisse Defizite besitzen: In einem Ring
R mit Eins kann es Elemente a geben, die kein multiplikatives Inverses a1
besitzen. Nach Korollar 3.31 wissen wir, dass 0 nie ein multiplikatives Inverses
hat, außer R ist der Nullring. Die berechtigte Hoffnung ist daher, dass vielleicht
zumindest die übrigen Elemente in R n f0g solche Inverse besitzen. Zusammen mit
der Kommutativität der Multiplikation liefert dies den Begriff des Körpers:
Definition 3.39 (Körper). Ein Körper k ist ein kommutativer Ring mit Eins,
sodass k n f0g eine Gruppe bezüglich der Multiplikation ist. Ein Körpermorphismus
ist ein einserhaltender Ringmorphismus.
Da definitionsgemäß eine Gruppe ein neutrales Element besitzt, ist also insbesondere k n f0g nicht leer und deshalb k nicht der Nullring. Also gilt für das Einselement
1 2 k n f0g bezüglich der Multiplikation in jedem Körper
1 ¤ 0:
(3.56)
Beispiel 3.40 (Körper).
i.) Die ganzen Zahlen Z sind kein Körper, da etwa 2 2 Z von 0 verschieden ist
und kein multiplikatives Inverses besitzt.
ii.) Die rationalen und reellen Zahlen Q und R dagegen sind Körper.
iii.) Die zyklische Gruppe Z2 D f0; 1g wird zu einem Körper, indem man
11D1
und
01D0
(3.57)
setzt. Dies ist offenbar die einzige Möglichkeit, Z2 zu einem Ring mit Eins
zu machen. Die Verifikation der Körpereigenschaften erzielt man nun am
einfachsten durch ein explizites Nachprüfen aller möglichen (endlich vielen)
Fälle. Bemerkenswert an diesem Körper ist, dass
1C1D0
(3.58)
gilt.
Gerade dieses letzte Beispiel zeigt, dass ein Körper k die ganzen Zahlen keineswegs
enthalten muss. Als bestmöglichen Ersatz definieren wir für n 2 N und einen Ring
R für ein fest gewähltes Ringelement a 2 R die neuen Ringelemente
n a D a C C a 2 R:
„ ƒ‚ …
(3.59)
n-mal
Man beachte, dass dies nicht ein Produkt von zwei Ringelementen in R ist,
da ja n nicht unbedingt ein Element von R sein muss. Weiter setzen wir in
Übereinstimmung mit Proposition 3.29
54
3 Von Gruppen, Ringen und Körpern
0a D0
(3.60)
na D„
a ƒ‚
…
a2R
(3.61)
sowie
jnj-mal
für n 2 N. Auf diese Weise können wir von n a für alle n 2 Z sprechen. Es
gelten dann die Rechenregeln
n a C m a D .n C m/ a
(3.62)
.nm/ a D n .m a/
(3.63)
sowie
für alle n; m 2 Z. Für den Nachweis dieser Regeln siehe Übung 3.12. Besitzt R eine
Eins, erhalten wir somit für a D 1 einen kanonischen Ringmorphismus:
Proposition 3.41. Sei R ein Ring mit Eins. Dann ist
Z 3 n 7! n 1 2 R
(3.64)
ein einserhaltender Ringmorphismus.
Beweis. Wegen 1 1 D 1 in jedem Ring gilt .n 1/ .m 1/ D .nm/ 1, siehe auch
Übung 3.15, vi.), für weitere Details.
t
u
Das Phänomen von Beispiel 3.40, iii.), ist nun die Motivation für folgende
Definition:
Definition 3.42 (Charakteristik). Sei k ein Körper. Dann definiert man die Charakteristik von k durch char.k/ D 0, falls n 1 ¤ 0 für alle n 2 N, oder
ˇ
˚
char.k/ D min n 2 N ˇ n 1 D 0
(3.65)
anderenfalls.
Bemerkung 3.43 (Charakteristik).
i.) Im Prinzip ist Definition 3.42 auch für einen Ring mit Eins sinnvoll, sodass wir
auch in diesem Fall von der Charakteristik eines Rings sprechen können.
ii.) Charakteristik 0 bedeutet also gerade, dass der Ringmorphismus (3.64) injektiv
ist. In diesem Fall können wir Z k als Unterring auffassen.
3.4 Körper und die komplexen Zahlen
55
iii.) Das Beispiel 3.40, iii.), liefert einen Körper mit Charakteristik
char.Z2 / D 2:
(3.66)
Proposition 3.44. Sei k ein Körper mit Charakteristik char.k/ D p ¤ 0. Dann ist
p eine Primzahl.
Beweis. Wir nehmen an, dass p keine Primzahl ist. Dann gibt es also n; m 2 N mit
p D nm und 1 < n; m < p. Nach Definition von p gilt n 1; m 1 2 k n f0g. Damit
liegen diese beiden Elemente in der multiplikativen Gruppe k n f0g. Somit ist auch
ihr Produkt
.n 1/.m 1/ D .nm/ 1 D p 1 2 k n f0g
in der multiplikativen Gruppe k n f0g enthalten. Da aber p 1 D 0 gilt, haben wir
einen Widerspruch erreicht.
t
u
Umgekehrt kann man zeigen, dass es zu jeder Primzahl p auch Körper mit
Charakteristik p gibt. Ohne den genauen (und nicht schweren) Beweis zu geben,
seien die zyklischen Gruppen Zp genannt. Ist p eine Primzahl, so sind die Zp
Körper mit
char.Zp / D p:
(3.67)
Diese endlichen Körper spielen durchaus eine wichtige Rolle, etwa in der Zahlentheorie, der Algebra, der Kryptografie und auch der algebraischen Topologie.
Sie sind also keineswegs als „mathematische Spielerei“ abzutun. Trotzdem werden
die meisten für uns interessanten Körper die Charakteristik 0 haben. Zumindest
char.k/ ¤ 2 ist oftmals eine wünschenswerte Eigenschaft, da in diesem Fall
1¤1
(3.68)
gilt. Im Falle von Charakteristik 2 ergeben sich etliche zum Teil unerwünschte
Effekte, wenn es um Vorzeichen, Symmetrie und Antisymmetrie geht. Für Charakteristik 0 dagegen ist Q immer ein Unterkörper:
Proposition 3.45. Sei k ein Körper der Charakteristik 0. Dann liefert
Q3
n
7! .n 1/.m 1/1 2 k
m
(3.69)
einen injektiven Körpermorphismus.
Beweis. Zunächst ist m 1 2 k n f0g, da nach Annahme char.k/ D 0 gilt. Damit ist
nk
.n 1/.m 1/1 als Element von k überhaupt definiert. Ist mn D mk
mit k 2 N, so
gilt
56
3 Von Gruppen, Ringen und Körpern
.nk 1/.mk 1/1 D .n 1/.k 1/..m 1/.k 1//1
D .n 1/.k 1/.k 1/1 .m 1/1
(3.70)
D .n 1/.m 1/1 ;
womit die rechte Seite nicht davon abhängt, wie wir die rationale Zahl als Quotient
von n 2 Z und m 2 N geschrieben haben. Dies zeigt, dass (3.69) wohldefiniert ist.
0
Sei nun n; n0 2 Z und m; m0 2 N. Wir können annehmen, dass mn und mn 0 schon
auf einen gemeinsamen Nenner m D m0 gebracht wurden, da (3.69) nach (3.70) ja
invariant unter Kürzen und Erweitern ist. Dann gilt
(3.62)
..n C n0 / 1/.m 1/1 D .n 1 C n0 1/.m 1/1 D .n 1/.m 1/1 C .n0 1/.m 1/1
0
mithilfe des Distributivgesetzes in k. Damit bildet (3.69) aber mn C nm auf die Summe
0
der Bilder von mn und nm ab. Also ist (3.69) ein Gruppenmorphismus der additiven
Gruppe .Q; C/ nach .k; C/. Die 1 2 Q wird offenbar auf 1 2 k abgebildet. Mit
der Kommutativität gilt
n n0
nn0
0 D
7! .nn0 1/.mm0 1/1
m m
mm0
D .n 1/.n0 1/.m 1/1 .m0 1/1
D .n 1/.m 1/1 .n0 1/.m0 1/1 ;
womit auch Produkte auf Produkte abgebildet werden. Damit ist (3.69) ein Ring0
morphismus, der die Eins erhält. Zum Prüfen der Injektivität seien nun mn , mn 0 2 Q
1
0
0
1
mit .n 1/.m 1/ D .n 1/.m 1/ gegeben. Dann folgt
.nm0 1/ D .n 1/.m0 1/ D .n0 1/ .m 1/ D .n0 m 1/:
Damit gilt also .nm0 n0 m/ 1 D 0 und wegen char.k/ D 0, folgt nm0 D n0 m.
0
Dies zeigt aber mn D mn 0 in Q, womit die Injektivität folgt, siehe auch Übung 3.23
für ein deutlich konzeptuelleres Argument.
t
u
Bemerkung 3.46 (Charakteristik Null). Hat k die Charakteristik 0, so besagt Proposition 3.45, dass wir die rationalen Zahlen mittels (3.69) als Unterkörper von k
auffassen können. Um unsere Notation nun nicht unnötig zu erschweren, werden
wir in diesem Fall einfach mn 2 k anstelle von .n 1/.m 1/1 schreiben.
Nach diesem Exkurs in die allgemeine Theorie der Körper wollen wir im verbleibenden Teil dieses Abschnittes einen neuen Körper konstruieren: die komplexen
Zahlen C. Es wird dabei vorausgesetzt, dass eine gewisse Vertrautheit mit den
reellen Zahlen R vorliegt: Diese werden in der Analysis aus den rationalen Zahlen
3.4 Körper und die komplexen Zahlen
57
konstruiert, beispielsweise als Menge aller Cauchy-Folgen in Q modulo Nullfolgen.
Details findet man etwa in [1, Abschnitt I.10].
Definition 3.47 (Die komplexen Zahlen). Die komplexen Zahlen sind definiert als
die Menge
CDRR
(3.71)
mit den beiden Verknüpfungen C; W C C ! C mit
.a; b/ C .a0 ; b 0 / D .a C a0 ; b C b 0 /
(3.72)
.a; b/ .a0 ; b 0 / D .aa0 bb 0 ; ab 0 C ba0 /:
(3.73)
und
Wir schreiben 0 für .0; 0/ und 1 für .1; 0/.
Lemma 3.48. Die komplexen Zahlen bilden bezüglich C eine abelsche Gruppe mit
neutralem Element 0.
Beweis. Dies ist noch nicht weiter spannend, da diese Eigenschaften direkt aus
denen der Addition reeller Zahlen folgen.
t
u
Lemma 3.49. Die Multiplikation von komplexen Zahlen ist assoziativ, kommutativ
und besitzt 1 als neutrales Element.
Beweis. Die Kommutativität ist klar, da die Multiplikation von reellen Zahlen
kommutativ ist und a; b sowie a0 ; b 0 symmetrisch in (3.73) eingehen. Weiter gilt
.a; b/ ..a0 ; b 0 / .a00 ; b 00 //
D .a; b/ .a0 a00 b 0 b 00 ; a0 b 00 C b 0 a00 /
D .a.a0 a00 b 0 b 00 / b.a0 b 00 C b 0 a00 /; a.a0 b 00 C b 0 a00 / C b.a0 a00 b 0 b 00 //
D .aa0 a00 ab 0 b 00 ba0 b 00 bb 0 a00 ; aa0 b 00 C ab 0 a00 C ba0 a00 bb 0 b 00 /
sowie
..a; b/ .a0 ; b 0 // .a00 ; b 00 /
D .aa0 bb 0 ; ab 0 C ba0 / .a00 ; b 00 /
D .aa0 a00 bb 0 a00 ab 0 b 00 ba0 b 00 ; aa0 b 00 bb 0 b 00 C ab 0 a00 C ba0 a00 /;
58
3 Von Gruppen, Ringen und Körpern
womit die Assoziativität folgt. Schließlich gilt
.1; 0/ .a; b/ D .1 a 0 b; 1 b C 0 a/ D .a; b/;
womit .1; 0/ tatsächlich das gesuchte Einselement ist.
t
u
Lemma 3.50. Die komplexen Zahlen C sind ein kommutativer Ring mit Eins.
Beweis. Es verbleibt lediglich, die Distributivgesetze (3.31) zu zeigen. Aufgrund
der Kommutativität genügt eines, also
..a; b/ C .a0 ; b 0 // .a00 ; b 00 /
D .a C a0 ; b C b 0 / .a00 ; b 00 /
D .aa00 C a0 a00 bb 00 b 0 b 00 ; ab 00 C a0 b 00 C ba00 C b 0 a00 /
D .a; b/ .a00 ; b 00 / C .a0 ; b 0 / .a00 ; b 00 /;
wobei wir das Distributivgesetz für reelle Zahlen verwendet haben.
t
u
Lemma 3.51. Jede komplexe Zahl .a; b/ ¤ 0 besitzt ein multiplikatives Inverses,
nämlich
a
b
1
.a; b/ D
:
(3.74)
;
a2 C b 2 a2 C b 2
Beweis. Hier verwenden wir eine entscheidende Eigenschaft der reellen Zahlen R,
die in einem beliebigen Körper falsch sein kann: Die Summe von (zwei) Quadraten
ist genau dann 0, wenn jeder Summand 0 ist. Aus diesem Grunde ist die rechte
Seite von (3.74) überhaupt definiert, denn für .a; b/ ¤ 0 muss mindestens eine der
beiden reellen Zahlen a und b von null verschieden sein, weshalb a2 C b 2 > 0 folgt.
Der Nachweis, dass (3.74) das Inverse ist, gestaltet sich nun einfach, nämlich
1
.a; b/ .a; b/
D a
a
b
b
a
b 2
;a
C 2
b D .1; 0/ D 1:
a2 C b 2
a C b 2 a2 C b 2
a C b2
Dank der Kommutativität von gilt auch .a; b/1 .a; b/ D 1.
t
u
Lemma 3.52. Die Abbildung
R 3 a 7! .a; 0/ 2 C
ist ein injektiver, einserhaltender Ringmorphismus.
(3.75)
3.4 Körper und die komplexen Zahlen
59
Beweis. Offenbar ist (3.75) einserhaltend und injektiv und es gilt
a C b 7! .a C b; 0/ D .a; 0/ C .b; 0/
sowie
ab 7! .ab; 0/ D .a; 0/ .b; 0/;
t
u
was alles ist, was wir zeigen müssen.
Satz 3.53 (Der Körper C). Die komplexen Zahlen C bilden einen Körper, der R
als Unterkörper mittels (3.75) umfasst. Es gilt char.C/ D 0.
Wir wollen nun einige Eigenschaften dieses Körpers diskutieren. Zunächst
nennen wir das spezielle Element .0; 1/ die imaginäre Einheit
i D .0; 1/ 2 C:
(3.76)
i2 D 1:
(3.77)
Offenbar gilt
Weiter schreiben wir anstelle von .a; b/ nun
.a; b/ ! a C ib;
(3.78)
was mit der Addition (3.72) und der Multiplikation (3.73) sowie (3.77) konsistent
ist. Diese Schreibweise und (3.77) erklären auch die Formel für die Multiplikation,
denn formales Ausmultiplizieren unter Berücksichtigung von i2 D 1 liefert
.a Cib/.a0 Cib 0 / D aa0 Ciba0 Ciab 0 Ci2 bb 0 D aa0 bb 0 Ci.ab 0 Cba0 /;
(3.79)
also wieder (3.73). Wir nennen a D Re.a C ib/ den Realteil und b D Im.a C ib/
den Imaginärteil von a C ib.
Definition 3.54 (Komplexe Konjugation). Die komplexe Konjugation für C ist
die Abbildung
W C 3 z D a C ib 7! z D a ib 2 C:
(3.80)
Proposition 3.55. Die komplexe Konjugation ist ein involutiver Körperautomorphismus von C, es gilt also
z D z;
z C w D z C w und
zw D z w
(3.81)
für alle z; w 2 C. Weiter gilt
zz 0 und
zz D 0 ” z D 0:
(3.82)
60
3 Von Gruppen, Ringen und Körpern
Beweis. Die Rechenregeln z D z und z C w D z C w sind klar. Weiter gilt mit
z D a C ib und w D a0 C ib 0
zw D .a C ib/.a0 C ib 0 /
D .aa0 bb 0 C i.ab 0 C ba0 //
D aa0 bb 0 i.ab 0 C ba0 /
D .a ib/.a0 ib 0 /
D z w:
Schließlich gilt
zz D .a ib/.a C ib/ D a2 C b 2 iab C iab D a2 C b 2 0:
Offenbar folgt zz D 0 ” a D 0 D b, was aber z D 0 bedeutet.
t
u
Diese Eigenschaften der komplexen Konjugation erlauben nun folgende Definition:
Definition 3.56 (Betrag und Phase). Sei z 2 C. Dann heißt
jzj D
der Betrag von z. Für z ¤ 0 heißt
z
jzj
p
zz
(3.83)
die Phase von z.
Die folgenden Eigenschaften von Betrag und Phase sind klar.
Proposition 3.57. Für z; w 2 C gilt
jzj 0 und
jzj D 0 ” z D 0;
(3.84)
jz C wj jzj C jwj;
(3.85)
jzwj D jzjjwj;
(3.86)
jzj D jzj
(3.87)
ˇ ˇ
ˇ z ˇ
ˇ ˇ D 1:
ˇ jzj ˇ
(3.88)
und für z ¤ 0
3.4 Körper und die komplexen Zahlen
61
Wir kommen nun zu einer grafischen Darstellung der komplexen Zahlen und
ihrer algebraischen Eigenschaften. Die komplexen Zahlen C identifizieren wir mit
Punkten der reellen Ebene R2 , indem wir den Realteil als x-Koordinate und den
Imaginärteil als y-Koordinate aufzeichnen. Die Addition von komplexen Zahlen ist
dann einfach die übliche Vektoraddition in der Ebene. Die komplexe Konjugation
entspricht der Spiegelung an der x-Achse, siehe auch Abb. 3.2. Der Betrag jzj ist die
euklidische Länge, und die Phase ist der Schnittpunkt der Halbgeraden von 0 nach
z mit dem Einheitskreis
ˇ
˚
S1 D z 2 C ˇ jzj D 1 ;
(3.89)
k o m p le x e
Konjugation
u
imaginäre Achse
siehe Abb. 3.3. Die komplexe Multiplikation ist etwas schwieriger zu visualisieren.
Zunächst liefert (3.86) das Resultat, dass zw die euklidische Länge jzjjwj hat: Es
werden also die Längen von z und w multipliziert. Ist eine der Zahlen z oder w null,
so auch zw. Dieser Fall ist trivial. Wegen
z = a + ib
b
z+w
a
c
0
d
reelle Achse
w = c + id
u
Abb. 3.2 Addition und komplexe Konjugation in C
Abb. 3.3 Einheitskreis und
Phase in C
1
i
z
z
|z |
−1
0
−i
1
62
3 Von Gruppen, Ringen und Körpern
zw D jzjjwj
z w
jwj jwj
(3.90)
w
zw
für z; w 2 C n f0g bleibt zu bestimmen, welche Phase jzwj
D jzjz jwj
das Produkt
1
1
hat. Es genügt dazu offenbar z; w 2 S zu betrachten. Für z; w 2 S gilt mithilfe
elementarer Dreiecksgeometrie
z D cos C i sin w D cos
und
C i sin ;
(3.91)
wobei ; 2 Œ0; 2
/ die jeweiligen Winkel von z beziehungsweise w zur x-Achse
sind. Dann gilt also
zw D cos cos
D cos. C
sin sin
C i.cos sin
/ C i sin. C
C cos
sin /
/
(3.92)
nach den Additionstheoremen für cos und sin. Für die Multiplikation von komplexen
Zahlen werden also die Winkel addiert, die man aus den zugehörigen Phasen erhält,
siehe auch Abb. 3.4.
Bemerkung 3.58. Zum jetzigen Stand der Dinge ist dies jedoch als Heuristik einzuschätzen, da wir noch nicht über eine mathematisch adäquate Definition von Kosinus und Sinus verfügen, geschweige denn die Additionstheoreme (3.92) wirklich
beweisen können. Dies und vieles Weitere geschieht im Laufe eines Analysiskurses
und eines Kurses zur Funktionentheorie. Tatsächlich werden Eigenschaften der
Multiplikation der komplexen Zahlen und der komplexen Exponentialfunktion
Abb. 3.4 Multiplikation von
komplexen Phasen
i
1
w
sin ψ
sin(ϕ + ψ)
zw
z
ψ
cos ψ
cos(ϕ + ψ)
ϕ+ψ
ϕ
cos ϕ
sin ϕ
1
3.5 Nochmals Polynome
63
dazu verwendet, die Additionstheoreme zu beweisen, siehe beispielsweise [1,
Abschnitt III.6] oder [18].
Wir kommen nun zu einem vorerst letzten Aspekt der komplexen Zahlen. Für
reelle Zahlen a ¤ 0 ist a2 > 0. Daher kann eine Gleichung der Form
x2 C 1 D 0
(3.93)
keine reelle Lösung besitzen. Es kann daher passieren, dass ein reelles Polynom
p 2 RŒx keine reelle Nullstelle besitzt. Das ist aus vielerlei Gründen manchmal
sehr unerfreulich. Wir werden bei der Behandlung des Eigenwertproblems in
Abschn. 6.5 konkrete Gründe dafür sehen. Die komplexen Zahlen wurden historisch
gesehen insbesondere deshalb „erfunden“, um dieses Defizit zu beheben. Wir haben
schon gesehen, dass i und i die Gl. (3.93) lösen, also komplexe Nullstellen des
Polynoms p.z/ D z2 C 1 sind. Der folgende nichttriviale Satz zeigt nun, dass im
Komplexen alle Polynome Nullstellen haben.
Satz 3.59 (Fundamentalsatz der Algebra). Sei p 2 CŒz ein nichtkonstantes
Polynom mit komplexen Koeffizienten. Dann besitzt p eine komplexe Nullstelle.
Der Beweis kann auf verschiedene Weisen erbracht werden, am einfachsten vermutlich mit Methoden aus der Funktionentheorie, siehe etwa [18, Kap. 9, §1]. Einen
Körper mit dieser Eigenschaft nennt man auch algebraisch abgeschlossen:
Definition 3.60 (Algebraisch abgeschlossener Körper). Sei k ein Körper. Besitzt
jedes nichtkonstante Polynom p 2 kŒx eine Nullstelle, so heißt k algebraisch
abgeschlossen.
Kontrollfragen. Wann ist ein Ring ein Körper? Wieso ist die Charakteristik eines
Körpers eine Primzahl? Was ist ein Körpermorphismus und wieso sind solche immer
injektiv? Wieso bilden die komplexen Zahlen wieder einen Körper? Wieso kann eine
analoge Konstruktion von „komplexen Zahlen“ k ik für einen beliebigen Körper
k Schwierigkeiten bereiten? Ist R algebraisch abgeschlossen?
3.5
Nochmals Polynome
In diesem kleinen Abschnitt wollen wir einige weitere Eigenschaften von Polynomen untersuchen. Anders als im allgemeinen Fall sind wir nun an kŒx mit einem
Körper k anstelle eines beliebigen Rings interessiert.
Ist nun k ein Körper, so können wir die Abschätzung aus Korollar 3.36 zu einer
Gleichheit verbessern:
64
3 Von Gruppen, Ringen und Körpern
Lemma 3.61. Seien p; q 2 kŒx ungleich dem Nullpolynom. Dann gilt
deg.pq/ D deg.p/ C deg.q/:
(3.94)
Beweis. Seien p.x/ D an x n C C a0 und q.x/ D bm x m C C b0 mit
an ; : : : ; a0 ; bm ; : : : ; b0 2 k gegeben. Da wir p ¤ 0 ¤ q annehmen, können wir ohne
Einschränkung an ¤ 0 ¤ bm annehmen. Es gilt also deg.p/ D n und deg.q/ D m.
Dann gilt weiter
.pq/.x/ D an bm x nCm C .an bm1 C an1 bm /x mCn1 C C a0 b0 :
Da k ein Körper ist, folgt an bm ¤ 0, womit (3.94) gezeigt ist.
t
u
Mit der Konvention, dass 1 C n D 1 für alle n 2 N0 [ f1g, behält
das Lemma seine Gültigkeit auch für den Fall, dass eines oder beide Polynome das
Nullpolynom sind. Dies erklärt die Konvention, dass wir dem Nullpolynom den
Grad 1 zuordnen wollen.
Man beachte, dass jenseits eines Körpers mögliche Nullteiler in einem Ring R
das Lemma zunichte machen können und nur die Abschätzung aus Korollar 3.36
allgemeinen Bestand hat: Hier heißt a 2 R ein Nullteiler, wenn a ¤ 0 und wenn
es ein b 2 R n f0g mit ab D 0 gibt. Im nichtkommutativen Fall sollte man zudem
zwischen Rechts- und Linksnullteilern unterscheiden.
Das nächste wichtige Konzept ist die Polynomdivision mit Rest. Diese kann
in viel allgemeineren Zusammenhängen konstruiert werden als nur für den Polynomring kŒx. Wir wollen aber an dieser Stelle nur den einfachen Fall von
Polynomringen betrachten:
Proposition 3.62 (Polynomdivision). Seien p; d 2 kŒx mit d ¤ 0 gegeben. Dann
gibt es eindeutig bestimmte Polynome q; r 2 kŒx mit
p D qd C r
und
deg r < deg d:
(3.95)
Beweis. Der Beweis ist sogar konstruktiv und liefert einen Algorithmus zur schnellen Berechnung von q und r. Zunächst überlegt man sich die Eindeutigkeit: Seien
q; q 0 sowie r; r 0 alternative Polynome mit (3.95). Dann gilt also qd C r D q 0 d C r 0
und damit
.q q 0 /d D r 0 r:
Für die Grade gilt dann für q q 0 ¤ 0 nach Lemma 3.61
deg.r 0 r/ D deg.q q 0 / C deg.d / > deg.d /;
was nicht sein kann, da deg.r/; deg.r 0 / < deg.d / gefordert war und somit auch
deg.r 0 r 0 / < deg.d / gilt. Also muss q D q 0 gewesen sein. Damit folgt aber auch
3.5 Nochmals Polynome
65
r D r 0 . Für p D 0 ist q D 0 und r D 0 eine und damit die eindeutige Lösung,
da wir ja deg.0/ D 1 gesetzt haben. Zur Berechnung von q und r für p ¤ 0
schreiben wir
p.x/ D an x n C C a0
d .x/ D bm x m C C b0
und
jeweils mit an ¤ 0 ¤ bm . Gilt nun deg.d / D m > n D deg.p/, so ist mit q D 0
und r D p die Gl. (3.95) offenbar eindeutig gelöst. Gilt n m, so setzen wir zuerst
q1 .x/ D
an nm
x
:
bm
Dann ist
.q1 d /.x/ D an x n C
bm1 an n1
b0 an nm
x
C C
x
:
bm
bm
Wir betrachten nun p1 D p q1 d , was ein Polynom vom Grade (mindestens)
eins kleiner als p ist, da sich die führenden Terme gerade herausheben. Nun ist
entweder deg.p1 / < deg.d /, und wir können r D p1 und q D q1 setzen, oder
deg.p1 / deg.d /, und wir können den vorherigen Schritt wiederholen, um q2
zu definieren. Nach endlich vielen Schritten sind somit p1 ; : : : ; pk und q1 ; : : : ; qk
konstruiert, sodass deg.pk / < deg.d / erreicht ist. Dann ist
p D .q1 C C qk /d C pk
nach Konstruktion, womit q D q1 C C qk und r D pk die gesuchte Lösung
liefert.
t
u
Beispiel 3.63. Wir illustrieren den Algorithmus am besten durch ein Beispiel. Seien
p.x/ D 4x 4 C 3x 3 7x 2 C 2 und
d .x/ D 8x 2 2x
(3.96)
gegeben. Im ersten Schritt erhält man daher
q1 .x/ D
1 2
x
2
(3.97)
und somit .q1 d /.x/ D 4x 4 x 3 . Der Rest ist dann
p1 .x/ D .p q1 d /.x/ D 4x 3 7x 2 C 2:
(3.98)
Da deg.p1 / D 3 2 D deg.d /, ist ein weiterer Schritt nötig. Wir erhalten
q2 .x/ D
1
x
2
(3.99)
66
3 Von Gruppen, Ringen und Körpern
und somit .q2 d /.x/ D 4x 3 x 2 . Dies liefert
p2 .x/ D .p1 q2 d /.x/ D 6x 2 C 2:
(3.100)
Es gilt immer noch deg.p2 / deg.d /, weshalb wir einen dritten Schritt benötigen
mit
q3 .x/ D 3
4
(3.101)
und entsprechend .q3 d /.x/ D 6x 2 C 32 x. Dies liefert
3
p3 .x/ D .p2 q3 d /.x/ D x C 2:
2
(3.102)
Nun ist deg.p3 / < deg.d / erreicht, womit wir fertig sind. Wir erhalten daher die
Polynomdivision mit Rest
4
3
2
.4x C 3x 7x C 2/ D
3
1 2 1
x C x
2
2
4
3
8x 2 2x x C 2
2
(3.103)
beziehungsweise
q.x/ D
1 2 1
3
x C x
2
2
4
und
3
r.x/ D x C 2
2
(3.104)
für den Quotienten und den Rest.
Bemerkung 3.64. Da im Algorithmus zur Polynomdivision immer nur durch den
Koeffizienten bm des Nennerpolynoms d geteilt werden muss, kann man den
Algorithmus auch auf folgende Situation erweitern: Man kann den Körper k durch
einen kommutativen Ring R mit Eins ersetzen und muss nun zusätzlich zu d ¤ 0
fordern, dass der höchste Koeffizient bm von d in R invertierbar ist. Für unsere
Zwecke ist jedoch der Fall eines Körpers der entscheidende.
Im Sinne der Polynomdivision können wir nun auch formulieren, wann Polynome
teilerfremd heißen sollen:
Definition 3.65 (Teilerfremd). Seien p1 ; : : : ; pk 2 kŒx Polynome. Dann heißen die Polynome p1 ; : : : ; pk teilerfremd, wenn die einzigen Polynome, die alle
p1 ; : : : ; pk teilen, die konstanten Polynome sind.
Als erste Anwendung der Polynomdivision mit Rest zeigen wir, wie man
Nullstellen eines Polynoms zur Faktorisierung verwenden kann. Ist nämlich 2 k
und q 2 kŒx, so hat das Polynom
3.5 Nochmals Polynome
67
p.x/ D .x /q.x/
(3.105)
eine Nullstelle bei . Die Umkehrung ist ebenfalls richtig:
Korollar 3.66. Sei p 2 kŒx ein nicht konstantes Polynom und 2 k eine
Nullstelle von p. Dann gibt es ein eindeutig bestimmtes Polynom q 2 kŒx mit
deg.q/ D deg.p/ 1 und
p.x/ D .x /q.x/:
(3.106)
Beweis. Wir betrachten d .x/ D x und finden q und r gemäß Proposition 3.62.
Da deg.d / D 1, muss deg.r/ 0 gelten. Also ist r.x/ D r0 ein konstantes
Polynom. Einsetzen von liefert
0 D p./ D . / q./ C r./ D 0 C r0 ;
was r0 D 0 zeigt. Nach Lemma 3.61 folgt nun deg.p/ D deg.d / C deg.q/ D
1 C deg.q/ und daher deg.q/ D deg.p/ 1.
u
t
Korollar 3.67. Ein nicht konstantes Polynom p 2 kŒx vom Grad deg.p/ D n hat
höchstens n Nullstellen.
Korollar 3.68. Sei p 2 kŒx ein Polynom vom Grad n 2 N mit Koeffizienten in
einem algebraisch abgeschlossenen Körper. Dann gibt es Zahlen 1 ; : : : ; n 2 k
mit
p.x/ D an .x 1 / .x n /;
(3.107)
wobei an der führende Koeffizient von p ist und die 1 ; : : : ; n nicht notwendigerweise verschieden sind.
Dies trifft nach Satz 3.59 insbesondere für komplexe Polynome p 2 CŒx zu: Ein
komplexes Polynom zerfällt in Linearfaktoren.
Der nächste wichtige Satz über Polynome ist eine Variante des Lemmas von
Bezout. Dieses kann in einem viel größeren Kontext konzeptionell klarer formuliert
und bewiesen werden. Wir werden uns hier jedoch mit einer einfachen Version in
der Sprache der Polynome begnügen.
Satz 3.69 (Lemma von Bezout). Sei k 2 N, und seien p1 ; : : : ; pk 2 kŒx
vorgegeben. Sind die einzigen gemeinsamen Teiler der Polynome p1 , . . . , pk die
Konstanten, so gibt es Polynome q1 , . . . , qk 2 kŒx mit
p1 q1 C C pk qk D 1:
(3.108)
68
3 Von Gruppen, Ringen und Körpern
Beweis. Wir betrachten alle Polynome der Form
ˇ
˚
J D p1 a1 C C pk ak ˇ a1 ; : : : ; ak 2 kŒx kŒx:
Es gilt dann zu zeigen, dass 1 2 J. Da die Polynome p1 ; : : : ; pk teilerfremd sein
sollen, können nicht alle von ihnen verschwinden, da sonst jedes Polynom ein Teiler
wäre. Damit gilt J ¤ f0g. Unter den Polynomen in J n f0g wählen wir eines mit
minimalem Grad aus: Eine solche Wahl d ist sicher möglich, aber nicht unbedingt
eindeutig. Da nach Voraussetzung d ¤ 0 gelten soll, finden wir zu einem p 2 J
eindeutig bestimmte q; r 2 kŒx mit
p D qd C r
mit
deg.r/ < deg.d /:
Nun bemerken wir, dass J ein Unterring von kŒx ist: Dies ist eine einfache
Verifikation anhand der expliziten Form der Elemente von J. Es gilt sogar, dass
J ein Ideal ist: Für f 2 J und g 2 kŒx gilt fg 2 J. Auch diese Eigenschaft
ist anhand der Definition von J unmittelbar klar. Den Begriff des Ideals werden
wir in Band 2 noch eingehender studieren. Mit d; p 2 J und der Idealeigenschaft
folgt nun auch r D p qd 2 J. Da d aber bereits minimalen Grad unter allen
Elementen in J n f0g hat, muss wegen deg.r/ < deg.d / also r D 0 gelten. Damit
gilt aber p D qd , womit d alle Polynome aus J teilt. Insbesondere teilt d alle
Polynome p1 ; : : : ; pk , die nach Voraussetzung aber nur die konstanten Polynome
als gemeinsame Teiler haben. Es folgt, dass d .x/ D d0 ein konstantes Polynom
sein muss. Weiter wissen wir zum einen d ¤ 0, also d0 ¤ 0, und zum anderen
d 2 J. Durch Reskalieren von d0 erhalten wir damit 1 2 J, was den Beweis
abschließt.
t
u
Man beachte, dass die Polynome q1 ; : : : ; qk im Allgemeinen keineswegs eindeutig sind: Es gibt viele Lösungen des obigen Problems, wie eine einfache Überlegung
zeigt, siehe Übung 3.31.
Kontrollfragen. Welche Eigenschaft hat der Grad von Polynomen mit Koeffizienten in einem Körper im Vergleich zur allgemeinen Situation bei Ringen? Was
ist Polynomdivision? Kann man Polynomdivision auch bei Koeffizienten in einem
Ring durchführen? Wie viele Nullstellen hat ein Polynom vom Grad n 0 mit
Koeffizienten in einem Körper höchstens?
3.6
Übungen
Übung 3.1 (Nichtabelsche Bijektionen). Zeigen Sie, dass die Gruppe Bij.M / der
Bijektionen einer Menge M nichtabelsch ist, sofern M mindestens drei Elemente
besitzt. Was gilt für ein oder zwei Elemente?
3.6 Übungen
69
Übung 3.2 (Kreuzprodukt liefert kein Monoid). Betrachten Sie erneut R3 mit
dem Kreuzprodukt als Verknüpfung.
i.) Zeigen Sie durch ein Gegenbeispiel, dass nicht assoziativ ist.
ii.) Beweisen Sie, dass es bezüglich kein neutrales Element gibt.
Übung 3.3 (Eckmann-Hilton-Argument). Sei M eine Menge mit zwei Verknüpfungen ı und ˘, derart, dass es für beide Verknüpfungen Einselemente 1ı ; 1˘ 2 M
gibt. Weiter gelte
.a ı b/ ˘ .c ı d / D .a ˘ b/ ı .c ˘ d /
(3.109)
für alle a; b; c; d 2 M . Zeigen Sie, dass dann ˘ D ı gilt, dass ˘ sowohl kommutativ
als auch assoziativ ist und dass 1ı D 1˘ gilt.
Übung 3.4 (Kleine Monoide). Wir betrachten Mengen mit wenigen Elementen
und alle möglichen Monoidstrukturen auf ihnen.
i.) Bestimmen Sie alle Monoidstrukturen auf einer Menge M mit einem sowie mit
zwei Elementen.
ii.) Zeigen Sie, dass M D f0; 1; 1g Q ein Monoid bezüglich der Multiplikation
von Zahlen ist. Ist dieses Monoid auch eine Gruppe? Bestimmen Sie M .
Übung 3.5 (Die symmetrische Gruppe). Sei M eine Menge mit n 2 N Elementen. Zeigen Sie, dass Bij.M / genau nŠ Elemente besitzt.
Hinweis: Induktion ist eine gute Strategie.
Übung 3.6 (Eine abelsche Gruppe). Betrachten Sie das offene Intervall I D
.1; 1/ R. Definieren Sie eine Verknüpfung ˘W I I ! I durch
x˘y D
xCy
1 C xy
(3.110)
für x; y 2 I .
i.) Zeigen Sie, dass x ˘ y 2 I für x; y 2 I .
ii.) Zeigen Sie, dass .I; ˘/ eine abelsche Gruppe wird. Was ist das Inverse zu x,
was das neutrale Element?
iii.) Zeigen Sie, dass die Gruppe .I; ˘/ zur Gruppe .R; C/ isomorph ist, indem
Sie einen expliziten Isomorphismus angeben. Hier ist Ihr Schulwissen zu den
hyperbolischen Funktionen gefragt.
Diese Gruppe hat eine Anwendung in der speziellen Relativitätstheorie, wo sie das
(skalare) Additionsgesetz von Geschwindigkeiten liefert.
70
3 Von Gruppen, Ringen und Körpern
Übung 3.7 (Inversion und Konjugation). Sei G eine Gruppe.
i.) Zeigen Sie, dass die Inversion 1 W G ! G eine Bijektion ist, und bestimmen
Sie die zugehörige inverse Abbildung.
ii.) Zeigen Sie, dass für jedes g 2 G die Linksmultiplikation Lg W G 3 h 7!
gh 2 G eine Bijektion ist, und bestimmen Sie deren Inverses. Bestimmen
Sie Lg ı Lh für g; h 2 G sowie Le . Zeigen Sie die analogen Aussagen für die
Rechtsmultiplikation Rg mit g.
iii.) Vergleichen Sie Lg ı Rh und Rh ı Lg für g; h 2 G.
iv.) Die Konjugation Conjg mit g ist nun als Conjg D Lg ı Rg1 definiert. Zeigen
Sie, dass Conjg W G ! G für jedes g 2 G ein Gruppenautomorphismus ist.
Bestimmen Sie Conjg ı Conjh .
v.) Zeigen Sie, dass g 7! Conjg ein Gruppenmorphismus ConjW G ! Aut.G/ ist.
Welche Gruppenstruktur von Aut.G/ verwenden Sie dazu?
Übung 3.8 (Produktgruppe). Seien G und H zwei Gruppen. Definieren Sie auf
dem kartesischen Produkt G H eine Verknüpfung komponentenweise durch
.g; h/ ˘ .g 0 ; h0 / D .gg 0 ; hh0 /;
(3.111)
wobei g; g 0 2 G und h; h0 2 H .
i.) Zeigen Sie, dass G H durch diese Verknüpfung ˘ zu einer Gruppe wird. Was
ist das Einselement von G H , und wie erhält man die Inversen?
ii.) Zeigen Sie, dass die kanonischen Projektionen prG W G H ! G und
prH W G H ! H Gruppenmorphismen sind.
iii.) Zeigen Sie, dass die Abbildungen
G 3 g 7! .g; eH / 2 G H
(3.112)
und H 3 h 7! .eG ; h/ 2 G H Gruppenmorphismen sind.
iv.) Zeigen Sie, dass die Bilder von G mit den Bildern von H in G H kommutieren.
v.) Verallgemeinern Sie diese Konstruktion auf eine beliebige indizierte Menge
fGi gi2I von Gruppen.
Übung 3.9 (Nicht isomorphe Gruppen). Betrachten Sie die beiden Gruppen
G1 D Z2 Z2 und G2 D Z4 , wobei die Produktstruktur aus Übung 3.8 verwendet
wird.
i.) Zeigen Sie, dass G1 und G2 gleich viele Elemente haben.
ii.) Zeigen Sie, dass beide Gruppen abelsch sind.
iii.) Fertigen Sie eine Tabelle mit allen Produkten der Gruppe G1 und G2 an. Woran
sehen Sie in einer solchen Multiplikationstabelle, dass die Gruppen abelsch
sind?
iv.) Zeigen Sie, dass G1 und G2 nicht isomorph sind.
3.6 Übungen
71
Übung 3.10 (Untergruppen der symmetrischen Gruppe). Seien n; m 2 N.
i.) Für eine Permutation 2 Sn definiert man eine Permutation . / 2 SnC1 durch
1 ::: n n C 1
. / D
:
.1/ : : : .n/ n C 1
(3.113)
Zeigen Sie, dass W Sn ! SnC1 ein injektiver Gruppenmorphismus ist.
ii.) Für . ; / 2 Sn Sm definiert man die Permutation . ; / 2 SnCm durch
. ; / D
1 ::: n n C 1 ::: n C m
:
.1/ : : : .n/ .1/ : : : .m/
(3.114)
Zeigen Sie, dass W Sn Sm ! SnCm ein injektiver Gruppenmorphismus ist,
wobei Sn Sm mit der Produktstruktur aus Übung 3.8 versehen sei.
iii.) Sei nun G eine Gruppe mit n Elementen g1 ; : : : ; gn . Zeigen Sie, dass die
Abbildung
G 3 g 7! g 2 Sn
(3.115)
ein injektiver Gruppenmorphismus ist, wobei g 2 Sn durch Lg .gj / D gg .j /
für alle j D 1; : : : ; n festgelegt wird. Damit kann also jede endliche Gruppe
als Untergruppe einer Permutationsgruppe Sn aufgefasst werden.
Übung 3.11 (Assoziativität). Sei .M; ˘/ eine Menge mit einer assoziativen Verknüpfung ˘. Sei weiter n 2 N und x1 ; : : : ; xn 2 M .
i.) Auf wie viele Weisen Kn können Sie in einem Produkt x1 ˘ ˘ xn mit
n Faktoren Klammern anbringen, um die Reihenfolge der Multiplikationen
festzulegen? Zeigen Sie hierzu eine Rekursionsformel für Kn .
ii.) Betrachten Sie n D 4 und n D 5. Zeigen Sie durch explizite Anwendung
der Assoziativität für ˘, dass Sie jedes Produkt mit n Faktoren auf die Form
x1 ˘ .x2 ˘ .xn1 ˘ xn / / bringen können.
iii.) Wie können Sie diese Tatsache auch für beliebiges n 2 N zeigen? Dies ist in
der Tat nicht ganz einfach.
Hinweis: Führen Sie einen Induktionsbeweis nach n. Gilt die Aussage für n 1 Faktoren,
dann ist die letzte Klammerung in einem Produkt von n Faktoren von der Form Xm D .x1 ˘
˘ xm / ˘ .xmC1 ˘ ˘ xn / mit 1 m < n, wobei wir bei m beziehungsweise n m
Faktoren ja nicht mehr auf die Klammerung achten müssen. Zeigen Sie nun, dass X1 D
X2 D D Xn1 .
Übung 3.12 (Rechenregeln in Gruppen). Sei G eine nicht notwendigerweise
abelsche Gruppe, die wir multiplikativ schreiben. Ist g 2 G, so definieren wir für
n2Z
72
3 Von Gruppen, Ringen und Körpern
8
ˆ
gg
ˆ
ˆ
ˆ„ƒ‚…
ˆ
ˆ
< n-mal
gn D e
ˆ
ˆ
ˆ
ˆg 1 g 1
ˆ
:̂„ ƒ‚ …
falls n > 0
falls n D 0
(3.116)
falls n < 0:
n-mal
Ist G abelsch und additiv geschrieben, so schreibt man anstelle g n auch n g oder
einfach nur ng. Man beachte, dass n hier ein Element von Z und mitnichten ein
Element in G ist.
i.) Zeigen Sie, dass die Abbildung Z 3 n 7! g n 2 G ein Gruppenmorphismus ist.
ii.) Zeigen Sie, dass für g; h 2 G in einer abelschen Gruppe zusätzlich
.gh/n D g n hn
(3.117)
für alle n 2 Z gilt.
iii.) Wie schreiben sich die Rechenregeln im additiven Fall?
Übung 3.13 (Große und kleine Bijektionen). Sei M eine unendliche Menge. Wir
betrachten die Gruppe der Bijektionen Bij.M /. Eine Bijektion ˚ 2 Bij.M / heißt
klein, falls ˚.p/ D p für alle bis auf höchstens endlich viele Punkte p 2 M und
groß anderenfalls. Zeigen Sie, dass die Menge Bij0 .M / der kleinen Bijektionen eine
normale Untergruppe von Bij.M / bildet. Geben Sie Beispiele für kleine und große
Bijektionen N ! N.
Übung 3.14 (Gruppenwirkung). Eigentlich sind Gruppenwirkungen von zu
großer Bedeutung in der Mathematik, als dass man diese in einer Übung abhandeln
könnte. Hier sollen also nur die ersten Begriffe und Eigenschaften bereitgestellt
werden. Sei M eine nichtleere Menge und G eine Gruppe. Eine Wirkung von G auf
M ist eine Abbildung
˚W G M ! M
(3.118)
mit den Eigenschaften, dass
˚.e; p/ D p
und
˚.g; ˚.h; p// D ˚.gh; p/
(3.119)
für alle g; h 2 G und p 2 M . Man schreibt nun ˚g W M ! M für die Abbildung
p 7! ˚g .p/ D ˚.g; p/ für ein festes g 2 G.
i.) Zeigen Sie, dass g 7! ˚g einen Gruppenmorphismus von G in die Gruppe
der Bijektionen auf M definiert. Zeigen Sie umgekehrt, dass jeder solche
Gruppenmorphismus eine Gruppenwirkung liefert.
Hinweis: Wieso ist die Abbildung ˚g überhaupt invertierbar?
3.6 Übungen
73
ii.) Sei p 2 M . Zeigen Sie, dass
ˇ
˚
Gp D g 2 G ˇ ˚g .p/ D p
(3.120)
eine Untergruppe von G ist. Diese Untergruppe heißt auch die Stabilisatorgruppe (oder Isotropiegruppe) von p.
iii.) Die Bahn (oder der Orbit) von p 2 M unter G ist als
ˇ
˚
G p D ˚g .p/ 2 M ˇ g 2 G
(3.121)
definiert. Zeigen Sie, dass zwei Bahnen G p und G q mit p; q 2 M entweder
gleich oder disjunkt sind.
iv.) Zeigen Sie, dass p q, falls p 2 G q, eine Äquivalenzrelation auf M
definiert. Man nennt dies die Orbitrelation bezüglich der Gruppenwirkung.
Gibt es nur einen Orbit, so heißt die Gruppenwirkung transitiv.
v.) Seien p; q 2 M im gleichen Orbit. Zeigen Sie, dass jedes g 2 G mit
˚g .p/ D q einen Gruppenisomorphismus
Conjg W Gp 3 h 7! Conjg .h/ D ghg 1 2 Gq
(3.122)
liefert.
vi.) Diskutieren Sie Ihre Ergebnisse von Übung 3.7 im Lichte dieser neuen Begriffe.
Übung 3.15 (Rechenregeln in Ringen). Sei R ein Ring.
i.) Zeigen Sie .a/b D ab D a.b/ für alle a; b 2 R.
ii.) Zeigen Sie .a/.b/ D ab für alle a; b 2 R.
iii.) Seien a; b1 ; : : : ; bn 2 R für n 2 N. Zeigen Sie die verallgemeinerten
Distributivitätsgesetze
a.b1 C C bn / D ab1 C C abn
.b1 C C bn /a D b1 a C C bn a:
(3.123)
iv.) Zeigen Sie für n; m 2 N und a1 ; : : : ; am ; b1 ; : : : ; bn 2 R
und
.a1 C C am /.b1 C C bn / D
n X
m
X
ai bj :
(3.124)
iD1 j D1
v.) Sei a 2 R fest gewählt. Dann betrachtet man den Gruppenmorphismus Z 3
n 7! n a 2 R aus (3.116) in Übung 3.12. Zeigen Sie, dass
n .m a/ D .nm/ a
(3.125)
für alle n; m 2 Z. Zeigen Sie weiter, dass
.n a/.m a/ D .nm/ a2 :
(3.126)
74
3 Von Gruppen, Ringen und Körpern
vi.) Folgern Sie, dass für einen Ring mit Eins 1 2 R die Abbildung n 7! n 1 ein
einserhaltender Ringmorphismus ist.
An welchen Stellen haben Sie die Assoziativität der Multiplikation von R verwenden müssen?
Übung 3.16 (Ringmorphismen). Sei W R1 ! R2 ein Ringmorphismus.
i.) Zeigen Sie, dass der Kern ker./ R1 ein Unterring ist.
ii.) Zeigen Sie, dass auch das Bild im./ R2 ein Unterring ist.
iii.) Zeigen Sie, dass genau dann injektiv ist, wenn ker./ D f0g gilt.
Übung 3.17 (Binomialsatz). Sei R ein Ring und seien a; b 2 R mit ab D ba.
Zeigen Sie, dass
!
n
X
n k nk
.a C b/ D
a b
k
n
(3.127)
kD0
für alle n 2 N gilt. Hierbei sind die beiden Randterme als an b 0 D an und a0 b n D b n
zu verstehen, womit (3.127) auch erklärt ist, wenn R keine Eins hat.
nŠ
Hinweis: Induktion nach n. Vorsicht: Der Binomialkoeffizient kn D kŠ.nk/Š
ist im Allgemeinen
kein Element von R. Anstelle dessen muss man Übung 3.15, v.), verwenden.
Übung 3.18 (Funktionenringe). Sei R ein Ring und M eine nichtleere Menge.
Betrachten Sie dann die Menge der Abbildungen Abb.M; R/ und definieren Sie
.f C g/.x/ D f .x/ C g.x/
(3.128)
.f g/.x/ D f .x/ g.x/
(3.129)
und
für f; g 2 Abb.M; R/ und x 2 M . Auf diese Weise erhalten Sie also Verknüpfungen C und für Elemente in Abb.M; R/ aus den entsprechenden Verknüpfungen
von R. Man sagt auch, dass man die Verknüpfungen punktweise in M definiert hat.
i.) Zeigen Sie, dass mit diesen Verknüpfungen Abb.M; R/ ein Ring wird. Was ist
das Nullelement von Abb.M; R/?
ii.) Zeigen Sie, dass Abb.M; R/ wieder kommutativ wird, wenn R kommutativ
war. Besitzt Abb.M; R/ ein Einselement, wenn R eine Eins hat?
iii.) Zeigen Sie, dass R als Unterring von Abb.M; R/ aufgefasst werden kann,
indem man a 2 R als konstante Funktion auf M auffasst.
3.6 Übungen
75
iv.) Zeigen Sie, dass es f; g 2 Abb.M; R/ mit f ¤ 0 ¤ g aber fg D 0 gibt,
sobald R nicht der Nullring ist und M mindestens zwei Elemente hat. Es gibt
also in Abb.M; R/ im Allgemeinen Nullteiler.
v.) Sei nun N eine weitere nichtleere Menge und W N ! M eine Abbildung.
Definieren Sie den pull-back mit durch
W Abb.M; R/ 3 f 7! .f / D f ı 2 Abb.N; R/;
(3.130)
und zeigen Sie, dass ein Ringmorphismus ist.
vi.) Sei nun ˚W R ! S ein Ringmorphismus in einen weiteren Ring S. Zeigen
Sie, dass dann die punktweise definierte Abbildung
.˚.f //.p/ D ˚.f .p//
(3.131)
für f 2 Abb.M; R/ und p 2 M einen Ringmorphismus ˚W Abb.M; R/ !
Abb.M; S/ definiert. Zeigen Sie, dass solch ein ˚ mit pull-backs vertauscht.
Übung 3.19 (Invertierbarkeit und nilpotente Elemente). Sei R ein Ring mit
Eins 1 ¤ 0. Ein Element a 2 R heißt nilpotent, falls es ein n 2 N mit an D 0
gibt.
i.) Zeigen Sie, dass 1 C a für ein nilpotentes Element a invertierbar ist.
Hinweis: Betrachten Sie zunächst n D 2 und n D 3 und raten Sie dann geschickt die Formel
für das Inverse. Der erforderliche Nachweis ist dann eine einfache Rechnung, siehe auch
Übung A.4, i.).
ii.) Zeigen Sie, dass in einem Körper die Null das einzige nilpotente Element ist.
Übung 3.20 (Formale Potenzreihen). Sei R ein Ring. In der Konstruktion des
Polynomrings RŒx wurden diejenigen Abbildungen aW N0 ! R verwendet, die
nur bei endlich viele Zahlen k 2 N0 Werte a.k/ D ak ungleich null besitzen. Diese
Einschränkung kann man auch fallen lassen und erhält somit die formalen Potenzreihen RŒŒx. Wir schreiben wie bei den Polynomen für eine solche Abbildung
aD
1
X
ak x k ;
(3.132)
kD0
wobei eben ak D a.k/ 2 R gilt. Man definiert nun Addition und Multiplikation für
a; b 2 RŒŒx wie schon bei Polynomen durch
1
X
.ak C bk /x k
aCb D
kD0
und
ab D
1 X
k
X
kD0
`D0
!
a` bk` x k :
(3.133)
76
3 Von Gruppen, Ringen und Körpern
i.) Zeigen Sie, dass durch (3.133) Verknüpfungen C und auf RŒŒx definiert
werden.
ii.) Zeigen Sie, dass C assoziativ und kommutativ ist und RŒŒx so zu einer
abelschen Gruppe wird. Was ist das Nullelement? Zeigen Sie weiter, dass C
und die Distributivgesetze erfüllen, sodass RŒŒx ein Ring wird.
iii.) Zeigen Sie, dass der Polynomring RŒx ein Unterring von RŒŒx ist.
iv.) Zeigen Sie, dass RŒŒx genau dann kommutativ ist, wenn R kommutativ ist.
Anders als bei Polynomen gibt es nun im Allgemeinen keinen Grad mehr: Es können
eben beliebig hohe Grade auftreten. Als Ersatz ist es dagegen manchmal nützlich,
folgende Ordnung zu betrachten: Für a 2 RŒŒx definiert man die Ordnung o.a/ 2
N0 [ f1g durch
(
o.a/ D
minfk j ak ¤ 0g
falls a ¤ 0
C1
falls a D 0:
(3.134)
v.) Zeigen Sie, dass die Ordnung o.a/ D 0 ” a D 0 sowie
o.a C b/ min.o.a/; o.b// und
o.a b/ o.a/ C o.b/
(3.135)
für a; b 2 RŒŒx erfüllt.
vi.) Zeigen Sie, dass für einen Körper k sogar o.a b/ D o.a/ C o.b/ für a; b 2
kŒŒx gilt. Finden Sie einen Ring R, für den in (3.135) die echte Ungleichung
bei der Ordnung eines Produkts steht.
Übung 3.21 (Invertierbarkeit von Polynomen und Potenzreihen). Betrachten
Sie einen Ring R mit Eins 1 ¤ 0.
i.) Sei a 2 RŒx ein Polynom. Zeigen Sie, dass a in RŒx invertierbar ist, wenn
a D a0 ein konstantes Polynom mit a0 2 R , also a0 invertierbar in R ist.
ii.) Ist R sogar ein Körper, so ist a genau dann invertierbar, wenn a D a0 mit
a0 ¤ 0.
iii.) Können Sie ein Beispiel für einen Ring angeben, der ein invertierbares und
nicht konstantes Polynom zulässt?
Hinweis: Übung 3.19.
iv.) Sei nun a 2 RŒŒx eine formale Potenzreihe. Zeigen Sie, dass a invertierbar
ist, wenn a0 invertierbar ist.
Hinweis: Nehmen Sie zunächst a0 D 1 an, und schreiben Sie a D 1Cb mit b 2 RŒŒx. Was
ist die Ordnung von b? Betrachten Sie die formale Potenzreihe c D 1 b C b 2 b 3 C .
Zeigen Sie, dass dies wirklich eine wohldefinierte formale Potenzreihe c 2 RŒŒx liefert.
Wieso ist hierbei tatsächlich eine Schwierigkeit zu überwinden? Berechnen Sie nun ac und
ca. Wie können Sie nun zum allgemeinen Fall a0 2 R übergehen?
3.6 Übungen
77
v.) Sei nun erneut R sogar ein Körper. Zeigen Sie, dass a 2 RŒŒx genau dann
invertierbar ist, wenn a0 ¤ 0.
vi.) Diskutieren Sie diese Ergebnisse im Hinblick auf i.).
Übung 3.22 (Polynome in mehreren Variablen). Sei R ein Ring und k 2 N.
Rekursiv definiert man den Ring der Polynome in den Variablen x1 ; : : : ; xk mit
Koeffizienten in R durch
RŒx1 ; : : : ; xk D .RŒx1 ; : : : ; xk1 /Œxk ;
(3.136)
wobei RŒx1 wie bisher die Polynome in einer Variablen sind.
i.) Zeigen Sie, dass die Abbildung
Abb0 .Nk0 ; R/ 3 .n1 ; : : : ; nk / 7! an1 :::nk
1
X
7!
an1 :::nk x1n1 xknk 2 RŒx1 ; : : : ; xk (3.137)
n1 ;:::;nk D0
ein Isomorphismus von abelschen Gruppen bezüglich der punktweisen Addition
von Abb0 .Nk0 ; R/ und der Addition im Ring RŒx1 ; : : : ; xk ist.
Hinweis: Überlegen Sie sich zuerst, wieso Sie ein Element a 2 RŒx1 ; : : : ; xk als eine solche
Reihe (mit nur endlich vielen von null verschiedenen Termen) schreiben können.
ii.) Finden Sie eine explizite Formel für das Produkt von a; b 2 RŒx1 ; : : : ; xk , wenn
diese Elemente als Polynom wie in (3.137) geschrieben sind.
Übung 3.23 (Körpermorphismen). Sei W k1 ! k2 ein Morphismus zwischen
zwei Körpern.
i.) Zeigen Sie, dass injektiv ist.
ii.) Zeigen Sie, dass char.k1 / D char.k2 / gelten muss.
iii.) Zeigen Sie, dass es keinen Körpermorphismus von Z2 nach R gibt.
Übung 3.24 (Rechnen mit komplexen Zahlen). Betrachten Sie den Körper C der
komplexen Zahlen.
i.) Zeigen Sie, dass z 2 C genau dann reell ist (also im Unterkörper R C liegt),
wenn z D z.
ii.) Bestimmen Sie den Realteil und Imaginärteil von z, iz sowie 1z und 1z für z 2
C n f0g.
iii.) Bestimmen Sie den Realteil, den Imaginärteil, den Betrag und das komplex
Konjugierte von
3i .4 C i/2 ;
.1 C i/.1 i/;
1Ci
;
1i
2
;
3 C 2i
4 3i
:
2Ci
(3.138)
78
3 Von Gruppen, Ringen und Körpern
Übung 3.25 (Die rechte Halbebene als Gruppe). Sei HC D fz 2 C j Re.z/ >
0g die rechte Halbebene in C. Betrachten Sie folgende Verknüpfung
?W HC HC 3 .v; w/ 7! v ? w D
vv
vCv
wC
2 HC :
2
2
(3.139)
i.) Zeigen Sie, dass tatsächlich v ? w 2 HC gilt, sofern v; w 2 HC .
ii.) Zeigen Sie, dass HC mit der Verknüpfung ? zu einer Gruppe wird, indem Sie
das Einselement und eine explizite Formel für das Inverse finden.
iii.) Ist .HC ; ?/ eine abelsche Gruppe?
Übung 3.26 (Einheitswurzeln).
Zahlen. Sei weiter n 2 N.
Betrachten Sie den Körper C der komplexen
i.) Verwenden Sie die Zerlegung einer komplexen Zahl in Betrag und Phase sowie
die aus der Schule bekannten Rechenregeln für Sinus und Kosinus, um alle
komplexen Nullstellen des Polynoms p.z/ D zn 1 zu finden. Diese n
verschiedenen Nullstellen heißen auch Einheitswurzeln.
ii.) Visualisieren Sie die Lage der Einheitswurzeln für n D 2; 3; 4; 5 in der
komplexen Ebene und finden Sie so eine grafische Erklärung für die Gültigkeit
Ihrer Berechnungen.
Übung 3.27 (Polynomdivision). Sei k ein Körper mit char.k/ D 0.
i.) Führen Sie folgende Polynomdivisionen mit Rest durch:
.7x 7 C 5x 5 C 3x 3 C x/=.x 2 C 1/;
.3x 5 2x 4 C 3x 2 2x/=.x 3 C 1/;
.x 4 C x 3 C 4x 2 C 3x C 4/=.x 2 C x C 1/:
Bestimmen Sie die Grade der Quotienten und der jeweiligen Reste.
ii.) Sei a 2 k und pn .x/ D x n an 2 kŒx mit n 2 N. Berechnen Sie p.x/=.x a/,
indem Sie zunächst n D 2 und n D 3 betrachten und dann geschickt raten.
Übung 3.28 (Auswertung von Polynomen). Sei R ein Ring und 2 R. Zeigen
Sie, dass die Auswertung von Polynomen p 2 RŒx bei x D einen Ringmorphismus
ı W RŒx 3 p 7! p./ 2 R
liefert.
(3.140)
3.6 Übungen
79
Übung 3.29 (Nullteiler in kŒx). Zeigen Sie, dass für einen Körper k die Polynome kŒx keine Nullteiler besitzen. Gilt dies auch für formale Potenzreihen und für
Polynome in mehreren Variablen?
Übung 3.30 (Ringmorphismen zwischen Polynomen). Sei R ein Ring und RŒx
der Polynomring mit Koeffizienten in R. Betrachten Sie nun die geraden und ungeraden Polynome
ˇ
˚
RŒxgerade D p 2 RŒx ˇ p.x/ D a2n x 2n C a2n2 x 2n2 C C a2 x 2 C a0
(3.141)
und
ˇ
˚
RŒxungerade D p 2 RŒx ˇ p.x/ D a2nC1 x 2nC1 C a2n1 x 2n1 C C a1 x :
(3.142)
i.) Zeigen Sie, dass RŒxgerade ein Unterring aller Polynome ist. Zeigen Sie weiter,
dass das Produkt eines geraden mit einem ungeraden Polynom wieder ein
ungerades Polynom ist und dass das Produkt zweier ungerader Polynome
gerade ist.
ii.) Sei p 2 RŒx. Zeigen Sie, dass p genau dann ungerade ist, wenn es ein gerades
Polynom q 2 RŒxgerade mit p.x/ D xq.x/ gibt.
iii.) Zeigen Sie, dass der Unterring RŒxgerade zu RŒx isomorph ist.
Übung 3.31 (Nichteindeutigkeit beim Lemma von Bezout). Seien p1 ; : : : ; pk 2
kŒx teilerfremde Polynome. Zeigen Sie, dass es dann viele Polynome q1 ; : : : ; qk 2
kŒx mit p1 q1 C C pk qk D 1 gibt.
Hinweis: Betrachten Sie zunächst k D 2: Ist q1 ; q2 eine Lösung, so ist qQ1 D q1 C ap2 und
qQ2 D q2 ap1 ebenfalls eine Lösung, wobei a 2 kŒx beliebig ist. Verallgemeinern Sie diese
Konstruktion nun für beliebige k 2 N .
Übung 3.32 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen
falsche Aussagen richtig werden.
i.) Der Binomialsatz aus Übung 3.17 gilt allgemein auch ohne die Voraussetzung
ab D ba.
ii.) Sei G eine Gruppe und a 2 G. Dann ist auch .G; ˘/ mit g ˘ h D gah eine
Gruppe.
Q
iii.) Eine Produktgruppe G D i2I Gi ist genau dann abelsch, wenn jeder Faktor
Gi abelsch ist.
iv.) In einer abelschen Gruppe ist jede Untergruppe normal.
v.) Die Stabilisatorgruppe Gp von einer Gruppenwirkung ˚W G M ! M ist
für alle p 2 M normal.
80
3 Von Gruppen, Ringen und Körpern
vi.) Für einen Ringmorphismus W R ! S und a 2 ker gilt für alle b 2 R auch
ab; ba 2 ker .
vii.) Der Körper Z2 ist algebraisch abgeschlossen.
viii.) Es existiert ein endlicher Körper mit Charakteristik null.
ix.) Es gibt eine Möglichkeit, die abelsche Gruppe .Z3 ; C/ zu einem Körper zu
machen.
x.) Es gibt zwei verschiedene Möglichkeiten, die abelsche Gruppe .Z3 ; C/ zu
einem Körper zu machen.
xi.) Es existiert eine Gruppe G mit zwei Elementen g ¤ h mit g 2 D h2 .
xii.) In einer endlichen abelschen Gruppe G mit n Elementen g1 ; : : : ; gn gilt
.g1 gn /2 D e:
(3.143)
xiii.) Gilt g 2 D e für alle Elemente g in einer Gruppe G, so ist G abelsch.
xiv.) Für a1 ; : : : ; an 2 k mit a12 C C an2 D 0 folgt in einem Körper a1 D D
an D 0.
xv.) Es gibt ein reelles Polynom dritten Grades, welches bei allen ganzen Zahlen
irrationale Werte annimmt.
xvi.) Für einen kommutativen Ring R (einen Körper) ist jeder Ringmorphismus
W RŒx ! R ein Auswertungsfunktional ı mit 2 R.
4
Lineare Gleichungssysteme und Vektorräume
In diesem Kapitel werden wir den in der linearen Algebra zentralen Begriff des
Vektorraums vorstellen und erste Eigenschaften diskutieren. Als erste Motivation
hierfür wollen wir lineare Gleichungssysteme systematisch behandeln. Anschließend werden wir verschiedene Beispiele von Vektorräumen kennenlernen und
den Begriff der linearen Unabhängigkeit und des Erzeugendensystems einführen.
Maximale Systeme von linear unabhängigen Vektoren entsprechen minimalen
Erzeugendensystemen und werden Basen eines Vektorraums genannt. Wir zeigen,
welche Eigenschaften die Basen eines Vektorraums besitzen, und weisen deren
Existenz nach. Es stellt sich heraus, dass je zwei Basen die gleiche Mächtigkeit besitzen, was es erlaubt, die Dimension eines Vektorraums zu definieren. Schließlich
präsentieren wir einige grundlegende Konstruktionen wie das kartesische Produkt
und die direkte Summe von Vektorräumen. In diesem Kapitel ist k ein fest gewählter
Körper.
4.1
Lineare Gleichungssysteme und Gauß-Algorithmus
Ziel dieses Abschnitts ist es, die Lösungstheorie von linearen Gleichungssystemen
zu etablieren. Dazu geben wir Koeffizienten aij 2 k mit i D 1; : : : ; n und j D
1; : : : ; m sowie b1 ; : : : ; bn 2 k vor. Dann können wir das System
a11 x1 C a12 x2 C C a1m xm D b1
a21 x1 C a22 x2 C C a2m xm D b2
::
:
(4.1)
an1 x1 C an2 x2 C C anm xm D bn
von n Gleichungen für die m Variablen x1 ; : : : ; xm betrachten. Gesucht sind also
x1 ; : : : ; xm 2 k, sodass (4.1) gelöst wird. Die Bedeutung der Indizes merkt man
sich nach der Regel „Zuerst die Zeile, später die Spalte“.
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_4
81
82
4 Lineare Gleichungssysteme und Vektorräume
Derartige Gleichungen mussten wir in Kap. 1 bereits mehrmals lösen, um etwa
die Schnitte von Ebenen zu bestimmen. Dort war k D R und n; m waren 1; 2 oder
3. Wir wollen nun also den allgemeinen Fall (4.1) systematisch diskutieren. Die
Sammlung der nm Koeffizienten wollen wir abkürzend mit
A D aij iD1;:::;n 2 knm
(4.2)
j D1;:::;m
bezeichnen. Das n-Tupel der b1 ; : : : ; bn bezeichnen wir mit b 2 kn . Schließlich
fassen wir auch x1 ; : : : ; xm in einem m-Tupel x 2 km zusammen. Wir suchen also
diejenigen x 2 km , sodass (4.1) gilt. Die Lösungsmenge bezeichnen wir mit
ˇ
˚
R
Los.A;
b/ D x 2 km ˇ x1 ; : : : ; xm erfüllen (4.1) :
(4.3)
Wir wollen nun drei Arten von Umformungen des Gleichungssystems (4.1) vorstellen, die die Lösungsmenge invariant lassen:
(I) Wir vertauschen zwei Gleichungen.
(II) Wir ersetzen eine Gleichung durch eine Summe mit einer anderen Gleichung.
(III) Wir multiplizieren eine Gleichung mit 2 k n f0g.
Lemma 4.1. Gehen die Koeffizienten A0 D .aij0 / iD1;:::;n und das n-Tupel b 0 2 kn
j D1;:::;m
durch eine der drei Operationen (I), (II) oder (III) aus A und b hervor, so gilt
0 0
R
R
; b / D Los.A;
b/:
Los.A
(4.4)
Beweis. Für das Vertauschen der Gleichungen ist dies trivialerweise richtig. Seien
R
also i; iQ 2 f1; : : : ; ng gegeben und x 2 Los.A;
b/. Dann gilt insbesondere
ai1 x1 C C aim xm D bi
und
aQi 1 x1 C C aQi m xm D bQi :
Damit gilt also
ai1 x1 C C aim xm C aQi 1 x1 C C aQi m xm D bi C bQi ;
was der Umformung (II) angewandt auf die i -te beziehungsweise iQ -te Gleichung
entspricht. Also löst x auch das durch (II) erhaltene neue Gleichungssystem, da die
übrigen Gleichungen ja nicht verändert werden. Ist umgekehrt x eine Lösung in
0 0
R
Los.A
; b /, wobei
aij0 D aij C aQi j
und
bi0 D bi C bQi
für das spezielle i gelte und alle anderen Koeffizienten gleich seien, so gilt
4.1 Lineare Gleichungssysteme und Gauß-Algorithmus
83
0
0
ai1 x1 C C aim xm D ai1
x1 aQi 1 x1 C C aim
xm aQi m xm D bi0 bQi D bi ;
R
R
womit x 2 Los.A;
b/ gezeigt ist. Sei schließlich 2 k n f0g und x 2 Los.A;
b/.
Dann gilt
ai1 x1 C C aim xm D .ai1 x1 C C aim xm / D bi ;
womit x auch das neue Gleichungssystem löst, in dem die i -te Gleichung mit multipliziert wurde. Da dies für jedes 2 k n f0g möglich ist, können wir zur
ursprünglichen Gleichung zurückkehren, indem wir mit 1 multiplizieren. Hierbei
ist es also entscheidend, einen Körper zu haben und nicht nur einen Ring.
t
u
Wir wollen die drei Umformungen (I), (II) und (III) elementare Umformungen
nennen. Die Idee ist nun, eine geschickte und systematische Kombination von
elementaren Umformungen so durchzuführen, dass wir das lineare Gleichungssystem (4.1) in ein äquivalentes (also mit gleicher Lösungsmenge) überführen, dessen
Lösungsmenge trivial zu bestimmen ist. Dies wird durch die Zeilenstufenform
erreicht. Für die i -te Zeile definieren wir si als den kleinsten Spaltenindex j 2
f1; : : : ; mg [ fC1g, für den der Koeffizient aij von null verschieden ist, also
formal
(
1
falls alle aij D 0
(4.5)
si D
minfj j aij ¤ 0g sonst.
Definition 4.2 (Zeilenstufenform). Das lineare Gleichungssystem (4.1) hat Zeilenstufenform, falls
1 s1 < s 2 < s 3 < < s n ;
(4.6)
wobei wir hier konventionsmäßig k < 1 für alle k 2 f1; : : : ; ng [ f1g verabreden.
Der Grund für die Bezeichnung sollte klar sein, so ist etwa
2x1
C 7x3 D 5
x2 C x3 D 7
x3 D 0
(4.7)
7x2
D1
x1 8x2 C x3 D 0
x3 D 4
(4.8)
auf Zeilenstufenform, während
84
4 Lineare Gleichungssysteme und Vektorräume
dies nicht ist. Man beachte, dass in (4.6) ein echt kleiner gefordert wird und nicht
nur ein kleiner gleich. Sei nun (4.1) tatsächlich in Zeilenstufenform. Damit lässt
sich (4.1) also als
a1sn xs1 C C a1m xm D b1
a2s2 xs2 C C a2m xm D b2
::
:
(4.9)
ansn xsn C C anm xm D bn
schreiben, wobei im Falle von einem (und damit allen späteren) sj D 1 die j -te
Gleichung und alle folgenden von der Form
0 D bj
::
:
(4.10)
0 D bn
sein können. Wir können ein solches lineares Gleichungssystem nun einfach lösen,
indem man bei der letzten Gleichung beginnt. Hier sind offenbar verschiedene Fälle
möglich:
i.) Es gilt sn D 1 und bn ¤ 0. Dann hat die zugehörige Gleichung 0 D bn
sicherlich keine Lösung und damit folgt
R
Los.A;
b/ D ;
(4.11)
für diesen Fall.
ii.) Es gilt sn D 1 und bn D 0. Dann ist die zugehörige Gleichung 0 D 0
trivialerweise immer richtig und wir können diese n-te Gleichung ignorieren.
R
Sie beeinflusst die Lösungsmenge Los.A;
b/ nicht weiter. Ist die n-te GleiR
chung bereits die erste (also n D 1), so folgt Los.A;
b/ D km , da keines der
x1 ; : : : ; xm einer Einschränkung unterliegt.
iii.) Es gilt sn ¤ 1. Dies ist der interessante Fall. Die letzte Gleichung lautet also
ansn xsn C ansn C1 xsn C1 C C anm xm D bn :
(4.12)
Wir können diese Gleichung nach xsn auflösen und erhalten
x sn D
1
ansn
.bn ansn C1 xsn C1 anm xm /
(4.13)
als eindeutige Lösung für xsn bei beliebig vorgegebenen xsn C1 ; : : : ; xm 2 k.
Hier benutzen wir entscheidend, dass k ein Körper ist und wir deshalb durch
ansn teilen dürfen. Damit sind also in diesem Fall xsn C1 ; : : : ; xm frei wählbar
4.1 Lineare Gleichungssysteme und Gauß-Algorithmus
85
und xsn ist eindeutig durch diese Wahl festgelegt. Die Lösungsmenge wird also
durch diese Parameter xsn C1 ; : : : ; xm parametrisiert.
Jetzt können wir die gefundenen Lösungen (sofern wir nicht im Fall i.) waren)
in (4.1) einsetzen und erhalten somit ein lineares Gleichungssystem für die Variablen x1 ; : : : ; xsn 1 im Falle iii.) oder x1 ; : : : ; xm im Falle ii.), welches nur noch n1
Gleichungen besitzt, aber immer noch in Zeilenstufenform ist: Durch das Einsetzen
werden lediglich die Koeffizienten b1 ; : : : ; bn1 geändert, und zwar zu
b10 D b1 a1sn xsn a1m xm
::
:
(4.14)
0
bn1
D bn1 a1sn xsn an1m xm
im Falle iii.) und
b10 D b1
::
:
(4.15)
0
bn1
D bn1
im Falle ii.). Nach insgesamt n Schritten erzielen wir daher eine endgültige
Beschreibung der Lösungsmenge. Man beachte, dass Fall i.) nur ganz zu Beginn
auftreten kann, die Frage nach der Lösbarkeit an sich also gleich am Anfang
entschieden wird. Die interessante Frage ist also, ob wir von einem beliebigen linearen Gleichungssystem (4.1) immer auf Zeilenstufenform gelangen können, ohne
die Lösungsmenge zu ändern. Nach Lemma 4.1 wissen wir, dass die elementaren
Umformungen die Lösungsmenge nicht ändern. Der folgende Gauß-Algorithmus
zeigt nun, dass die elementaren Umformungen auch tatsächlich ausreichen: Wir
beginnen mit der ersten Spalte. Hier gibt es verschiedene Möglichkeiten:
i.) Alle a11 ; : : : ; an1 sind null. In diesem Fall tritt die Variable x1 nicht auf und wir
haben Zeilenstufenform in der ersten Spalte mit s1 2 erreicht.
ii.) Nicht alle a11 ; : : : ; an1 sind null. Dann können wir durch Vertauschen der
Gleichungen erreichen, dass a11 ¤ 0. Multiplizieren der ersten Gleichung
mit a111 liefert dann einen Koeffizienten 1 vor x1 : Wir können also ohne
Einschränkung annehmen, dass a11 D 1 gilt. Ist nun ai1 ¤ 0, so können wir
auch diese Gleichung mit a1i 1 multiplizieren und daher annehmen, dass alle
a21 ; : : : ; an1 entweder 1 oder 0 sind. Schließlich können wir dann durch Addition der ersten Gleichung erreichen, dass der Koeffizient vor x1 in allen anderen
Gleichungen 2; : : : ; n null wird, falls er nicht schon sowieso null war. Alle diese
Manipulationen sind Kombinationen von elementaren Umformungen, welche
R
Los.A;
b/ nicht ändern. Wir erreichen auf diese Weise Zeilenstufenform mit
s1 D 1.
86
4 Lineare Gleichungssysteme und Vektorräume
Indem man nun von links alle Spalten durchläuft und immer die oberste Gleichung
weglässt, erreicht man schließlich Zeilenstufenform für das ganze Gleichungssystem nach min.n; m/ Schritten. Dieses Vorgehen nennt man den Gauß-Algorithmus:
Satz 4.3 (Gauß-Algorithmus). Seien .aij / iD1;:::n
Koeffizienten in k und
j D1;:::;m
b1 ; : : : ; bn 2 k. Dann liefert der Gauß-Algorithmus durch wiederholtes
Anwenden von elementaren Umformungen für das lineare Gleichungssystem (4.1)
Zeilenstufenform. Für die resultierenden Koeffizienten .aij0 / iD1;:::;n und b10 ; : : : ; bn0
j D1;:::;m
kann zudem erreicht werden, dass
0
D1
ais
i
(4.16)
für alle i D 1; : : : ; n und alle Spaltenindizes si der Zeilenstufenform gilt.
Beispiel 4.4. Wir betrachten k D Q und das lineare Gleichungssystem
1x1 C 2x2 C 3x3 D 4
5x1 C 6x2 C 7x3 D 8
9x1 C 18x2 C 1x3 D 2:
(4.17)
Die Koeffizienten .aij / und die bi können wir zu einem Schema
ˇ 1
1 2 3 ˇˇ 4
@5 6 7 ˇ 8A
ˇ
9 18 1 ˇ 2
0
(4.18)
zusammenfassen. Wir führen nun den Gauß-Algorithmus durch. Da a11 D 1 ist,
müssen wir im ersten Schritt keine Vertauschung vornehmen. Wir skalieren daher
die zweite und dritte Gleichung und erhalten
ˇ
1
1 2 3 ˇˇ 4
@1 6 7 ˇ 8 A :
5
5 ˇ
5
1 2 19 ˇ 29
0
(4.19)
Nun addieren wir die erste Gleichung zur zweiten und dritten. Dies liefert
ˇ 1
1 2 3 ˇˇ 4
@0 4 1 3 ˇ 2 2 A :
5 5 ˇ 5
0 0 2 89 ˇ 3 79
0
(4.20)
Glücklicherweise haben wir nun bereits Zeilenstufenform mit s1 D 1, s2 D 2 und
s3 D 3 erreicht. Die Lösungsmenge ist damit das 3-Tupel
4.2 Vektorräume
87
x3 D
17
14
x2 D
4
7
und
x1 D 11
;
14
(4.21)
was man durch sukzessives Einsetzen nun leicht erhält.
Kontrollfragen. Was ist der Gauß-Algorithmus und wieso benötigt man dafür
einen Körper? Welche drei elementaren Umformungen gibt es? Was ist die Zeilenstufenform?
4.2
Vektorräume
Die elementaren Umformungen (I) und (II) liefern Operationen mit den „n-Tupeln
aus kn “, die wir schon aus R3 kennen: Es sind analoge Konstruktionen zur Addition
und Multiplikation mit Skalaren von Vektoren des Anschauungsraums. Wir nehmen
dies nun als Motivation für folgende allgemeine Definition eines Vektorraums über
dem Körper k.
Definition 4.5 (Vektorraum). Ein Vektorraum über einem Körper k ist ein Tripel
.V; C; / von einer abelschen Gruppe .V; C/ und einer Abbildung
W k V ! V
(4.22)
derart, dass für alle ; 2 k und v; w 2 V
i.)
ii.)
iii.)
iv.)
.v C w/ D v C w,
. v/ D ./ v,
. C / v D v C v,
1v Dv
gilt. Die Abbildung heißt auch Multiplikation mit Skalaren.
Bemerkung 4.6. Wie auch schon für Ringe verabreden wir die Regel Punkt vor
Strich, um in Ausdrücken wie vCw auf die Klammerung verzichten zu können.
Weiter schreiben wir auch kurz v anstelle von v. Die abelsche Gruppe .V; C/
schreiben wir additiv, und ihr neutrales Element 0 2 V heißt der Nullvektor von
V . Die Elemente von V heißen dann Vektoren, während wir Elemente des Körpers
auch Skalare nennen. Wie zuvor schreiben wir auch oft nur V anstelle des Tripels
.V; C; /, wenn klar ist, um welche Strukturabbildungen C und es sich handelt.
Einige elementare Rechenregeln, die über die bisherigen Rechenregeln zu Gruppen
hinausgehen, sind folgende:
88
4 Lineare Gleichungssysteme und Vektorräume
Proposition 4.7. Sei V ein Vektorraum über k. Für alle v 2 V und 2 k gilt
i.) 0 v D 0,
ii.) 0 D 0,
iii.) ./ v D .v/ D . v/.
Beweis. Die einzige Schwierigkeit der Aussagen besteht darin, sich klarzumachen,
um welche „0“ und um welches Inverses es sich jeweils handelt. Wir schreiben dies
der Deutlichkeit wegen mit Indizes und rechnen nach, dass
0k v D .0k C 0k / v D 0k v C 0k v;
wobei hier also die Null im Körper 0k 2 k gemeint ist. Da .V; C/ eine abelsche
Gruppe ist, folgt 0k v D 0V , wobei hier jetzt 0V 2 V der Nullvektor ist. Genauso
einfach gilt
0V D .0V C 0V / D 0V C 0V ;
woraus ebenfalls 0V D 0V folgt. Schließlich gilt
0V D 0k v D . / v D v C ./ v;
womit ./ v das additive Inverse zu v ist, also ./ v D . v/. Ebenso gilt
0V D 0V D .v C .v// D v C .v/
und daher .v/ D . v/.
t
u
Es ist nun Zeit für einige Beispiele und Konstruktionen von Vektorräumen, die
von fundamentaler Bedeutung sind.
Beispiel 4.8 (Der Vektorraum kn ). Sei n 2 N. Auf dem kartesischen Produkt kn
definiert man eine Addition komponentenweise durch
0 1 0 1 0
1
v1
w1
v1 C w1
B :: C B :: C B
C
::
@ : AC@ : AD@
A
:
vn
wn
(4.23)
vn C wn
und eine Multiplikation mit Skalaren durch
0 1 0 1
v1
v1
B :: C B :: C
@ : A D @ : A:
vn
v1
(4.24)
4.2 Vektorräume
89
Es ist durchaus nützlich, die n-Tupel in kn als Spaltenvektoren aufzuschreiben. An
der Struktur von kn , C und ändert sich hierdurch natürlich nichts. Man hätte ebenso
gut Zeilenvektoren .v1 ; : : : ; vn / verwenden können. Völlig analog zum Fall von R3
zeigt man nun, dass kn mit diesen Verknüpfungen C und zu einem Vektorraum
über k wird. Insbesondere für n D 1 sieht man, dass k immer ein Vektorraum über
sich selbst ist.
Beispiel 4.9 (Der Nullraum). Wir betrachten die triviale Gruppe V D f0g und
definieren 0 D 0 in Einklang mit Proposition 4.7 für 2 k. Es ist nun
leicht zu sehen, dass V damit ein Vektorraum über k wird. Wir nennen ihn
den Nullraum. Um eine einheitliche Schreibweise im Hinblick auf Beispiel 4.8
zu erzielen, werden wir auch k0 für den Nullraum schreiben. Oftmals wird der
Nullraum ebenfalls mit dem Symbol 0 bezeichnet, auch wenn dies natürlich einen
gewissen Notationsmissbrauch darstellt.
Etwas interessanter ist nun folgende Konstruktion, welche die vorherigen drastisch
verallgemeinert:
Beispiel 4.10 (Der Vektorraum kM ). Sei M eine beliebige nichtleere Menge. Dann
betrachten wir die Menge aller Abbildungen von M nach k, und bezeichnen diese
auch mit
kM D Abb.M; k/:
(4.25)
Man beachte, dass dies wirklich nur eine Bezeichnung ist und nicht mehr. Seien nun
f; gW M ! k solche Abbildungen und 2 k. Dann definieren wir f C g und f
punktweise in M durch
.f C g/.p/ D f .p/ C g.p/
(4.26)
. f /.p/ D f .p/
(4.27)
und
für alle p 2 M . Wichtig ist hier, dass die Menge M keinerlei weitere Strukturen
besitzen muss. Vielmehr erbt Abb.M; k/ alle relevanten Eigenschaften vom Ziel k
und nicht vom Urbild M . Man überlegt sich nun leicht, dass diese Operationen
Abb.M; k/ zu einem Vektorraum über k machen. Der Nullvektor ist dabei die
0-Abbildung, also die Abbildung mit
0Abb.M;k/ .p/ D 0k
(4.28)
für alle p 2 M . Der konkrete Nachweis der Vektorraumeigenschaften wird in
Übung 4.4 erbracht. In diesem Vektorraum gibt es spezielle Vektoren, die wir durch
90
4 Lineare Gleichungssysteme und Vektorräume
Ik
Abb. 4.1 Schematische
Darstellung des Graphen der
Abbildung ep
graph ep
1
0
p
M
die Elemente von M indizieren können. Wir definieren für p 2 M die Abbildung
(
ep W q 7!
1
für p D q
0
für p ¤ q:
(4.29)
Dies liefert eine spezielle Abbildung ep 2 Abb.M; k/ für jedes p 2 M , siehe auch
Abb. 4.1. Zur Abkürzung können wir an dieser Stelle das Kronecker-Symbol
(
ıab D
1
für a D b
0
für a ¤ b
(4.30)
einführen, welches eine oft verwendete Abkürzung darstellt. Hier sind a und b
irgendwelche Elemente einer Menge, die typischerweise aus dem Zusammenhang
klar ist. Die Vektoren ep können daher durch ep .q/ D ıpq charakterisiert werden.
Wir können auf diese Weise die Punkte in M mit diesen Abbildungen identifizieren,
da die Abbildung
M 2 p 7! ep 2 Abb.M; k/
(4.31)
offenbar injektiv ist: Die beiden Abbildungen ep und ep0 sind genau dann gleich,
falls p D p 0 . Die Bedeutung dieses Beispiels lässt sich kaum überschätzen: Wir
werden auf diesen Vektorraum und daraus abgeleitete Konstruktionen noch öfter
zurückkommen.
Beispiel 4.11 (Der Vektorraum Abb.M; V /). Sei wieder M eine nicht leere Menge
und V ein Vektorraum über k. Analog zu Beispiel 4.10 versehen wir Abb.M; V /
durch die punktweise erklärten Vektorraumoperationen mit der Struktur eines
Vektorraums über k, siehe Übung 4.4. Da k als Vektorraum über k gesehen werden
kann, ist dies eine Verallgemeinerung von Beispiel 4.10. Auch dieses Beispiel wird
in vielen Varianten noch mehrfach auftreten.
Beispiel 4.12 (Folgen). Eine Folge von reellen Zahlen (oder analog für komplexe
Zahlen) ist eine Abbildung
aW N 3 n 7! a.n/ 2 R;
(4.32)
4.2 Vektorräume
91
welche wir typischerweise als .an /n2N mit an D a.n/ schreiben. Nach Beispiel 4.10
ist also der Raum aller reellen Folgen RN D Abb.N; R/ ein reeller Vektorraum.
Die Vektorraumoperationen bestehen in diesem Fall aus der gliedweisen Addition
und der gliedweisen Multiplikation mit Skalaren, also
.an /n2N C .bn /n2N D .an C bn /n2N
(4.33)
.an /n2N D .an /n2N :
(4.34)
und
Zur Vorsicht sei hier bemerkt, dass zwar N ebenfalls über eine Addition verfügt, für
eine Folge .an /n2N aber keinerlei Voraussetzungen über die Beziehung der Werte
an , am und anCm gemacht werden. Die Vektorraumstruktur bezieht sich eben auf
die Werte an , nicht auf deren Urbilder n.
Beispiel 4.13 (Polynome). Wir betrachten den Ring kŒx der Polynome in der
Variablen x mit Koeffizienten in k. Für Polynome p; q 2 kŒx haben wir bereits eine
Addition erklärt, sodass .kŒx; C/ eine abelsche Gruppe ist: Dies war Teil der Daten
der Ringstruktur. Weiter konnten wir k als Unterring von kŒx interpretieren, indem
wir Skalare 2 k als konstante Polynome p.x/ D auffassen, siehe Satz 3.35,
v.). Damit können wir also 2 k mit p 2 kŒx multiplizieren und erhalten eine
Multiplikation mit Skalaren
k kŒx 2 .; p/ 7! p 2 kŒx;
(4.35)
welche kŒx zu einem Vektorraum über k macht. Dass dies tatsächlich einen
Vektorraum liefert, folgt sofort aus der Tatsache, dass kŒx ein Ring und k kŒx
ein Unterring ist.
Gerade das letzte Beispiel können wir drastisch verallgemeinern:
Proposition 4.14. Sei k ein Körper und R ein Ring mit 1. Sei weiter W k ! R
ein einserhaltender Ringmorphismus. Dann liefert
W k R 3 .; a/ 7! a D ./a 2 R
(4.36)
eine Multiplikation mit Skalaren, sodass R mit seiner Addition und diesem zu einem
Vektorraum über k wird.
Beweis. Der Beweis wird in Übung 4.6 diskutiert.
t
u
92
4 Lineare Gleichungssysteme und Vektorräume
Korollar 4.15. Die reellen Zahlen R sind ein Vektorraum über Q. Die komplexen
Zahlen C sind sowohl ein Vektorraum über R als auch über Q.
Kontrollfragen. Was ist ein Vektorraum? Welche wichtigen Beispiele von Vektorräumen kennen Sie?
4.3
Untervektorräume
Wie auch schon bei Monoiden, Gruppen, Ringen etc. wollen wir auch bei Vektorräumen einen adäquaten Begriff des Untervektorraums etablieren. Dies ist nun leicht
zu bewerkstelligen:
Definition 4.16 (Untervektorraum). Sei V ein Vektorraum über k und U V
eine Teilmenge. Dann heißt U Untervektorraum (auch Unterraum oder Teilraum)
von V , falls U eine Untergruppe von .V; C/ ist und für die Multiplikation mit
Skalaren gilt, dass u 2 U für alle u 2 U und 2 k.
Mit anderen Worten, die Vektorraumoperationen von V schränken sich auf U ein,
sodass U selbst ein Vektorraum bezüglich der eingeschränkten Vektorraumoperationen wird. Man beachte, dass notwendigerweise
02U
(4.37)
gelten muss, da sonst .U; C/ .V; C/ keine Untergruppe wäre.
Im Falle von Untergruppen mussten wir explizit prüfen, dass die inversen
Elemente in der Untergruppe liegen: Es gibt Untermonoide von Gruppen wie etwa
.N0 ; C/ .Z; C/, welche keine Untergruppen sind, siehe nochmals die Diskussion
nach Definition 3.23. Im Falle eines Untervektorraums ist die Situation etwas
einfacher:
Proposition 4.17. Sei V ein Vektorraum über k. Eine Teilmenge U V ist genau
dann ein Untervektorraum von V , falls
i.) U ¤ ;,
ii.) für alle u; v 2 U gilt u C v 2 U ,
iii.) für alle u 2 U und 2 k gilt u 2 U .
Beweis. Für einen Unterraum U V sind die Eigenschaften i.) – iii.) sicherlich
erfüllt. Sei also U eine Teilmenge mit diesen drei Eigenschaften. Da U ¤ ;, gibt es
ein u 2 U . Da dann 0 u D 0, folgt zunächst aus iii.), dass 0 2 U . Ist nun u 2 U , so
auch .1/ u D u nach iii.) und der Rechenregel aus Proposition 4.7, iii.). Damit
ist also gezeigt, dass .U; C/ eine Untergruppe ist, da ii.) die Abgeschlossenheit
bezüglich C liefert.
t
u
4.3 Untervektorräume
93
Man beachte, dass die Kombination von ii.) und iii.) alleine noch nicht ausreicht,
um einen Unterraum zu liefern, da die leere Menge ; V diese Eigenschaften
erfüllt: Da es keine Elemente in ; gibt, sind die Eigenschaften ii.) und iii.)
tatsächlich für alle Elemente der leeren Menge richtig. Äquivalent zur Kombination
ii.) und iii.) kann man auch das Kriterium
iv.) für alle ; 2 k und für alle u; v 2 U gilt u C v 2 U
verwenden. Dann ist U genau dann ein Unterraum, wenn i.) und iv.) gilt. Auch hier
ist es aus dem gleichen Grunde unerlässlich, U ¤ ; zusätzlich zu fordern.
Korollar 4.18. Sei V ein Vektorraum über k und seien fUi gi2I Unterräume von V .
Dann ist auch
\
U D
Ui
(4.38)
i2I
ein Unterraum von V .
Beweis. Da 0 2 Ui für alle i 2 I , gilt 0 2 U , womit U nicht leer ist. Für u; v 2 U
gilt u; v 2 Ui für alle i 2 I , also u C v 2 Ui für alle i 2 I und damit u C v 2 U .
Schließlich gilt für u 2 U und 2 k zunächst u 2 Ui für alle i 2 I und daher
auch u 2 U .
t
u
Beispiel 4.19. Der Nullraum f0g V ist immer ein Untervektorraum von V .
Beispiel 4.20 (Lineare Gleichungssysteme). Seien Zahlen A D .aij / iD1;:::;n und
j D1;:::;m
b1 ; : : : ; bn aus k vorgegeben. Wir nennen das lineare Gleichungssystem
a11 x1 C C a1m xm D b1
::
:
(4.39)
an1 x1 C C anm xm D bn
homogen, wenn der Spaltenvektor b 2 kn verschwindet, also b D 0 gilt, und
R
inhomogen, falls b ¤ 0. Ist die Lösungsmenge Los.A;
b/ nicht leer, so liegt
m
eine nichtleere Teilmenge von k vor. Hier gilt nun, dass im homogenen Fall
R
Los.A;
0/ km ein Untervektorraum ist: Dies ist einfach zu sehen, denn für
R
x; y 2 Los.A;
0/ und 2 k gilt
ai1 .x1 Cy1 /C Caim .xm Cym / D ai1 x1 C Caim xm Cai1 y1 C Caim ym D 0
R
für alle i D 1; : : : ; n. Somit ist x C y 2 Los.A;
0/. Weiter gilt für alle i D 1; : : : ; n
ai1 .x1 / C C aim .xm / D .ai1 x1 C C aim xm / D 0 D 0
94
4 Lineare Gleichungssysteme und Vektorräume
R
und daher x 2 Los.A;
0/. Schließlich besitzt das homogene lineare GleichungsR
system immer die triviale Lösung x D 0, womit Los.A;
0/ ¤ ; folgt. Nach
R
Proposition 4.17 ist Los.A;
0/ ein Untervektorraum. Ist nun b ¤ 0, so kann
R
R
Los.A;
b/ D ; vorkommen. Im Fall, dass Los.A;
b/ ¤ ;, können wir die
R
Lösungsmenge folgendermaßen charakterisieren: Sind x; y 2 Los.A;
b/, so ist
R
z D x y 2 Los.A;
0/ eine Lösung des homogenen Systems. Es gilt ja
ai1 .x1 y1 / C C aim .xm ym /
D ai1 x1 C C aim xm ai1 y1 aim ym
D bi b i
D0
R
R
für alle i D 1; : : : ; n. Ist umgekehrt x 2 Los.A;
b/ und z 2 Los.A;
0/, so ist auch
y D x C z eine Lösung des inhomogenen Systems, denn
ai1 .x1 C z1 / C C aim .xm C zm / D ai1 x1 C C aim xm D bi
R
für alle i D 1; : : : ; n. Wir erhalten so eine vollständige Beschreibung von Los.A;
b/
durch eine spezielle Lösung (sofern diese denn überhaupt existiert) und die LösungsR
menge Los.A;
0/. Wir kommen noch öfters auf dieses fundamentale Beispiel zurück
und werden verschiedene weitere Facetten des Problems kennenlernen.
Folgende Aussagen zum homogenen Fall erhalten wir leicht aus der Zeilenstufenform:
Proposition 4.21. Seien aij 2 k mit i D 1; : : : ; n und j D 1; : : : ; m sowie m > n.
Dann besitzt das homogene Gleichungssystem
a11 x1 C C a1m xm D 0
::
:
(4.40)
an1 x1 C C anm xm D 0
R
nichttriviale Lösungen: Los.A;
0/ km ist nicht der Nullraum.
Beweis. Nach Satz 4.3 dürfen wir annehmen, dass (4.40) bereits auf Zeilenstufenform gebracht wurde. Man beachte, dass alle elementaren Umformungen homogene
auf homogene Gleichungssysteme abbilden. Seien also 1 s1 < s2 < < sn die
Spaltenindizes mit der Eigenschaft (4.5). Ist nun ein sj D 1, so auch alle späteren,
und wir haben in diesem Fall einfach nur weniger Gleichungen zu berücksichtigen.
Dadurch wird also n nur weiter verkleinert und die Relation m > n bleibt bestehen.
Insbesondere ist für s1 D 1 das gesamte lineare Gleichungssystem trivial, und
R
Los.0;
0/ D km ist ein nichttrivialer Unterraum. Wir können also sn ¤ 1
4.3 Untervektorräume
95
annehmen. Gilt sn D m, so lautet die letzte Gleichung einfach
anm xm D 0
mit anm ¤ 0, was die eindeutige Lösung xm D 0 erfordert. Wir können also auch
hier die letzte Gleichung zusammen mit der letzten Variablen xm eliminieren. Damit
ersetzen wir n durch n 1 und m durch m 1. Die Ungleichung n 1 < m 1
bleibt daher bestehen. Ist schließlich sn < m, so lautet die letzte Gleichung
ansn xsn C C anm xm D 0
mit ansn ¤ 0. Hier können wir nun die Variablen xsn C1 ; : : : ; xm frei wählen und
erhalten nach rekursivem Auflösen insgesamt eine nichttriviale Lösung. Der Fall
sn < m muss aber tatsächlich auftreten, nachdem wir in endlich vielen Schritten
die anderen beiden Fälle abgearbeitet haben, da schlichtweg mehr Variablen als
Gleichungen vorhanden sind.
t
u
Folgende Beispiele von Unterräumen sind ebenfalls von großer Bedeutung:
Beispiel 4.22 (Folgenräume). Wir betrachten k D R und den Vektorraum RN aller
reellen Folgen. Man definiert die Menge der beschränkten Folgen
ˇ
n
o
ˇ
`1 D .an /n2N 2 RN ˇ supn2N jan j < 1 ;
(4.41)
die Menge der konvergenten Folgen
ˇ
n
o
ˇ
c D .an /n2N 2 RN ˇ lim an existiert ;
n!1
(4.42)
und die Menge der Nullfolgen
ˇ
n
o
ˇ
cı D .an /n2N 2 RN ˇ lim an D 0 :
n!1
(4.43)
Da eine konvergente Folge insbesondere beschränkt ist, finden wir die Inklusionen
cı c `1 RN ;
(4.44)
welche alle echt sind. Elementare Rechenregeln für das Supremum und den
Limes aus der Analysis zeigen, dass (4.44) jeweils Unterräume sind, siehe auch
Übung 4.5. In der Analysis werden noch viele weitere Folgenräume vorgestellt
werden. Anstelle von reellen Folgen kann man selbstverständlich auch komplexe
Folgen mit entsprechenden Eigenschaften betrachten.
96
4 Lineare Gleichungssysteme und Vektorräume
Beispiel 4.23 (Der Unterraum Abb0 .M; k/). Sei M eine nichtleere Menge, dann
betrachten wir die Abbildungen mit endlichem Träger und Werten in k
ˇ
˚
Abb0 .M; k/ D f 2 Abb.M; k/ ˇ supp f ist endlich ;
(4.45)
wobei der Träger von f als
ˇ
˚
supp f D p 2 M ˇ f .p/ ¤ 0
(4.46)
definiert ist. Das Symbol supp kommt vom englischen support. In der mengentheoretischen Topologie wird bei der Definition des Trägers noch der topologische
Abschluss der rechten Seite in (4.46) gebildet, sofern M ein topologischer Raum
ist. Unsere Definition ist daher eine vereinfachte Version, welche einem diskreten
Raum M entspricht. Auch hier verifiziert man schnell mit Proposition 4.17, dass
Abb0 .M; k/ Abb.M; k/ ein Unterraum ist. Dieser ist offenbar genau dann ein
echter Unterraum, falls M unendlich ist. Die speziellen Funktionen ep aus (4.29)
in Beispiel 4.10 liegen offenbar alle in Abb0 .M; k/, da
supp ep D fpg
(4.47)
gerade ein Element besitzt.
Die nächste Konstruktion wird uns eine Fülle von Untervektorräumen bescheren.
Zur Motivation betrachten wir erneut ein lineares Gleichungssystem der Form
a11 x1 C C a1m xm D b1
::
:
(4.48)
an1 x1 C C anm xm D bn ;
welches wir nun auf folgende Weise interpretieren. Wir betrachten die Spaltenvektoren
1
0 1
0
0 1
a11
a1n
b1
B :: C
B :: C
B :: C
a1 D @ : A; : : : ; am D @ : A und b D @ : A
(4.49)
an1
anm
bn
im Vektorraum kn . Dann besagt (4.48), dass wir die Vektorgleichung
x1 a1 C C xm am D b
(4.50)
lösen wollen. Der Vektor b soll also als eine Linearkombination der Vektoren
a1 ; : : : ; am geschrieben werden. Ganz allgemein definieren wir daher den Begriff
der Linearkombination folgendermaßen:
4.3 Untervektorräume
97
Definition 4.24 (Linearkombination). Sei V ein Vektorraum über k und seien
v1 ; : : : ; vn 2 V sowie 1 ; : : : ; n 2 k gegeben. Dann heißt der Vektor
v D 1 v1 C C n vn
(4.51)
eine Linearkombination der Vektoren v1 ; : : : ; vn .
Die Frage bei einem linearen Gleichungssystem ist also, ob und auf wie viele
Weisen ein Vektor b als Linearkombination von gegebenen Vektoren a1 ; : : : ; am
geschrieben werden kann. Man beachte, dass wir diese Art von Frage in einem
beliebigen Vektorraum und nicht nur für Spaltenvektoren in kn stellen können. In
diesem Sinne werden wir von (4.50) als linearer Gleichung in einem Vektorraum
sprechen, egal ob die Vektoren aus kn oder einem beliebigen Vektorraum über k
sind. Nun jedoch zu den neuen Beispielen von Untervektorräumen:
Beispiel 4.25 (Gerade). Sei v 2 V n f0g ein Vektor ungleich null. Dann betrachten
wir alle Linearkombinationen, die wir aus diesem Vektor bilden können: Da wir
nur einen Vektor vorliegen haben, sind diese einfach die Vielfachen von v. Wir
definieren
ˇ
˚
k v D v ˇ 2 k V;
(4.52)
und erhalten so einen Untervektorraum k v in V . In Analogie zu unseren
elementargeometrischen Überlegungen in Kap. 1 nennen wir k v die Gerade
durch v. Ist v D 0, so ist k 0 offenbar nur der Nullraum, k 0 D f0g, und daher
wenig geeignet, als Gerade angesehen zu werden.
Wir verallgemeinern diese Konstruktion nun auf beliebig viele Vektoren:
Definition 4.26 (Spann). Sei W V eine nichtleere Teilmenge von Vektoren in
einem Vektorraum. Dann ist der Spann von W als
span W
ˇ
˚
D v 2 V ˇ 9n 2 N; i 2 k; wi 2 W; 1 i n mit v D 1 w1 C C n wn
(4.53)
definiert. In diesem Fall sagen wir, dass W den Unterraum span W aufspannt oder
erzeugt.
Eine alternative Schreibweise ist auch hW i oder hw1 ; : : : ; wr i, wenn W aus r
Vektoren w1 ; : : : ; wr besteht. Zudem schreibt man gelegentlich auch k- span W , um
den zugrunde liegenden Körper k zu betonen.
Der Spann von W ist also gerade die Menge aller Linearkombinationen von
Vektoren aus W . Dies liefert nun einen Untervektorraum:
98
4 Lineare Gleichungssysteme und Vektorräume
Proposition 4.27. Sei W V eine nichtleere Teilmenge eines Vektorraums V über
k. Dann ist span W V der kleinste Untervektorraum von V mit
W span W:
(4.54)
Beweis. Wir müssen zwei Dinge zeigen. Zum einen, dass span W ein Unterraum
ist, und zum anderen, dass span W der kleinste Unterraum mit (4.54) ist. Die
Eigenschaft W span W ist offensichtlich, womit insbesondere span W ¤ ;
folgt. Sind v; v 0 2 span W , so gibt es w1 ; : : : ; wn 2 W und 1 ; : : : ; n 2 k sowie
w01 ; : : : ; w0m 2 W und 01 ; : : : ; 0m 2 k mit
vD
n
X
i wi
v0 D
und
m
X
0j w0j :
j D1
iD1
Dann gilt
v C v0 D
n
X
i wi C
iD1
m
X
0j w0j 2 span W
kD1
und
v D
n
X
i wi 2 span W
iD1
für 2 k. Nach Proposition 4.17 ist span W daher ein Unterraum. Ist nun U V
ein anderer Unterraum von V mit W U , so ist mit w1 ; : : : ; wn 2 W und
1 ; : : : ; n 2 k zunächst i wi 2 U . Weiter ist 1 w1 C 2 w2 2 U , und mit Induktion
folgt, dass auch 1 w1 C C n wn 2 U . Dies zeigt span W U , womit span W
also der kleinste Unterraum mit (4.54) ist.
t
u
Wir können den Spann nun dazu verwenden, eine vorerst letzte Konstruktion von
Unterräumen anzugeben. Sind U1 ; U2 V Unterräume, so ist zwar deren Durchschnitt nach Korollar 4.18 wieder ein Unterraum, ihre Vereinigung typischerweise
jedoch nicht: Man beachte etwa die beiden Geraden
U1 D k 1
und
0
U2 D k 0
1
(4.55)
1
in k . Der Vektor
2 k2 ist dann sicher nicht in der Vereinigung U1 [ U2 , die ja
1
0
nur Vektoren der Form
oder
für 2 k enthält, siehe auch Abb. 4.2.
0
2
4.3 Untervektorräume
99
Ik
Ik
x
2
U1
Ik
x∈ U1 ∪ U2
U2
Abb. 4.2 Die Vereinigung U1 [ U2 ist kein Unterraum mehr
Wir müssen die Vereinigung U1 [ U2 daher weiter vergrößern, um einen Untervektorraum zu erhalten.
Definition 4.28 (Summe von Unterräumen). Seien fUi gi2I Unterräume eines
Vektorraums V über k. Dann ist ihre Summe definiert als
[
X
Ui D span
Ui :
(4.56)
i2I
i2I
Korollar
P4.29. Sind fUi gi2I Unterräume eines Vektorraums V über k, so ist ihre
Summe i2I Ui der kleinste Unterraum von V , der alle Ui enthält.
Für endlich viele
P Unterräume U1 ; : : : ; Un V schreiben wir auch kurz U1 C CUn
anstelle von i2I Ui .
Bemerkung 4.30 (Leere Linearkombinationen). Bei der Definition einer Linearkombination und dann bei der Definition des Spanns span W einer Teilmenge
W V haben wir vorausgesetzt, dass W ¤ ; gilt. Es ist nun sinnvoll und üblich,
für W D ; den Spann über die Eigenschaft aus Proposition 4.27 zu definieren. Wir
setzen daher
span ; D f0g:
(4.57)
Kontrollfragen. Wie kann man Untervektorräume charakterisieren? Welche Beziehungen von linearen Gleichungssystemen und Unterräumen kennen Sie? Geben
Sie Beispiele für Unterräume. Was ist eine Linearkombination, was ein linearer
Spann? Wieso ist der Schnitt von Unterräumen ein Unterraum, die Vereinigung im
Allgemeinen aber nicht?
100
4.4
4 Lineare Gleichungssysteme und Vektorräume
Lineare Unabhängigkeit und Basen
Ist V ein Vektorraum über k und U V ein Unterraum, so besitzt U immer eine
Teilmenge W U mit
U D span W:
(4.58)
Wir können ja beispielsweise W D U selbst nehmen. Allgemeiner betrachten wir
eine beliebige Teilmenge mit dieser Eigenschaft:
Definition 4.31 (Erzeugendensystem). Sei U V ein Unterraum eines Vektorraums über k. Eine Teilmenge W U heißt Erzeugendensystem von U , falls (4.58)
gilt.
Insbesondere können wir auch von einem Erzeugendensystem des ganzen Vektorraums V sprechen, da ja V V sicherlich auch ein Untervektorraum ist. Die Wahl
von U als Erzeugendensystem von U ist sicherlich etwas redundant, da etwa mit
v 2 U der Vektor v nicht mehr extra benötigt wird, sondern durch die Definition
des Spanns automatisch mit hinzukommt. Wir wollen nun also verstehen, wann ein
Erzeugendensystem „so klein wie möglich“ ist. Dazu erweist sich folgender Begriff
als zentral.
Definition 4.32 (Lineare Unabhängigkeit). Sei B V eine Teilmenge von
Vektoren eines Vektorraums V über k. Dann heißt B linear abhängig, falls es
ein n 2 N und paarweise verschiedene Vektoren b1 ; : : : ; bn 2 W sowie Zahlen
1 ; : : : ; n 2 k gibt, die nicht alle 0 sind, sodass
1 b1 C C n bn D 0:
(4.59)
Andernfalls heißt W linear unabhängig.
Bemerkung 4.33 (Lineare Unabhängigkeit). Eine Teilmenge B ist also linear abhängig, wenn der Nullvektor auf nichttriviale Weise als Linearkombination aus
Vektoren in W geschrieben werden kann. Gilt insbesondere 0 2 B, so ist 1 0 D 0
eine nichttriviale Linearkombination im Sinne der obigen Definition. Daher ist W
in diesem Fall linear abhängig. Lineare Unabhängigkeit einer Teilmenge bedeutet
also, dass für jede Wahl von endlich vielen, paarweise verschiedenen Vektoren
b1 ; : : : ; bn 2 W die Gleichung
1 b1 C C n bn D 0
(4.60)
1 D D n D 0
(4.61)
nur die triviale Lösung
4.4 Lineare Unabhängigkeit und Basen
101
besitzt.
Beispiel 4.34 (Lineare Unabhängigkeit).
i.) Die leere Menge ; V ist linear unabhängig. Da es keine Elemente in ; gibt,
können wir keine nichttriviale Linearkombination der 0 durch Elemente aus ;
finden.
ii.) Gibt es Vektoren der Form b1 und b2 D b1 in B, so ist B linear abhängig, da
dann
b1 b2 D b1 b1 D 0
(4.62)
eine nichttriviale Linearkombination der Null ist.
iii.) Die Menge der Standardvektoren
0 1
1
B0 C
B C
e1 D B : C;
@ :: A
0 1
0
B1 C
B C
e2 D B : C;
@ :: A
0
:::;
0 1
0
B :: C
B C
en D B : C
@0A
0
(4.63)
1
in kn ist linear unabhängig. Dies ist klar, da die Gleichung
1 e1 C C n en D 0
(4.64)
sofort auf 1 D 0; : : : ; n D 0 führt. Umgekehrt ist fe1 ; : : : ; en g auch ein
Erzeugendensystem von kn , da für a 2 kn
0 1
0 1
0 1
a1
1
0
Ba2 C
B0C
B :: C
B C
B C
B C
a D B : C D a1 B : C C C an B : C D a1 e1 C C an en
@ :: A
@ :: A
@0A
an
0
(4.65)
1
gilt, wobei die ai gerade die Koeffizienten des Spaltenvektors a sind.
iv.) Sei M eine nichtleere Menge und Abb0 .M; k/ der Vektorraum der Abbildungen von M nach k mit endlichem Träger wie in Beispiel 4.23. Dann sind die
Vektoren fep gp2M eine linear unabhängige Teilmenge von Abb0 .M; k/. Gilt
nämlich für f 2 Abb0 .M; k/
f D 1 ep1 C C n epn
(4.66)
mit paarweise verschiedenen p1 ; : : : ; pn 2 M , so folgt wegen ei .pj / D ıij
f .pi / D i
(4.67)
102
4 Lineare Gleichungssysteme und Vektorräume
für alle i D 1; : : : ; n. Daher lässt sich die Nullabbildung f D 0 nur mit 1 D
D n D 0 erreichen. Weiter behaupten wir, dass
spanfep gp2M D Abb0 .M; k/:
(4.68)
Ist nämlich f 2 Abb0 .M; k/ gegeben, so gibt es endlich viele Punkte
p1 ; : : : ; pn 2 M , auf denen f von null verschieden ist, und f ist null auf
allen anderen Punkten. Daher gilt
f D f .p1 /ep1 C C f .pn /epn
(4.69)
und somit f 2 spanfep gp2M . Das zeigt die Inklusion „“ in (4.68). Die
umgekehrte Inklusion „“ ist klar. Daher bilden die Vektoren fep gp2M auch
ein Erzeugendensystem von Abb0 .M; k/.
v.) Seien v ¤ w 2 V . Dann ist fv; wg linear abhängig, falls die Gleichung
1 v C 2 w D 0
(4.70)
eine nichttriviale Lösung besitzt. Sei also etwa 1 ¤ 0, dann gilt
vD
2
w:
1
(4.71)
Daher ist v parallel zu w, der andere Fall 2 ¤ 0 führt zum gleichen Resultat.
Man erhält insgesamt, dass fv; wg genau dann linear abhängig ist, falls v und w
parallel sind. Damit verallgemeinert lineare Abhängigkeit also unseren Begriff
von „parallel“ aus Kap. 1.
vi.) Fasst man R alspVektorraum über Q auf, siehe Korollar 4.15, so sind die
Vektoren
p 1 und 2 2 R linear unabhängig. Der Grund ist die Irrationalität
von 2, siehe auch Übung 4.21.
Wir werden den Begriff der linearen Unabhängigkeit auch auf indizierte Mengen
von Vektoren anwenden: Ist I eine Indexmenge und für jedes i 2 I ein Vektor
vi 2 V gegeben, so nennen wir fvi gi2I eine durch I indizierte Menge von Vektoren.
Etwas formaler gesprochen, ist eine indizierte Menge von Vektoren eine Abbildung
I ! V . Hier darf es durchaus passieren, dass verschiedene Indizes i ¤ j
zum gleichen Vektor vi D vj führen. Wir nennen nun eine indizierte Menge
fvi gi2I linear abhängig, wenn es ein n 2 N und paarweise verschiedene Indizes
i1 ; : : : ; in 2 I sowie Zahlen 1 ; : : : ; n 2 k sodass, sodass
1 vi1 C C n vin D 0
(4.72)
gilt. Der feine Unterschied zur Definition 4.32 ist, dass in einer indizierten Menge
nun der gleiche Vektor mehrmals auftreten darf. In diesem Fall ist fvi gi2I sicherlich
4.4 Lineare Unabhängigkeit und Basen
103
linear abhängig, da wir vi vj D 0 erreichen, sofern für i ¤ j trotzdem vi D vj
gilt.
Eine erste einfache Folgerung aus der obigen Begriffsbildung liefert nun eine
Charakterisierung der Eindeutigkeit von Lösungen linearer Gleichungssysteme.
Hierfür verwenden wir den Begriff der linearen Unabhängigkeit für eine indizierte
Teilmenge:
Korollar 4.35. Das homogene lineare Gleichungssystem
a11 x1 C C a1m xm D 0
::
:
(4.73)
an1 x1 C C anm xm D 0
hat genau dann eine eindeutige Lösung, nämlich x1 D D xm D 0, wenn die
indizierte Menge der Vektoren
1
a11
B C
a1 D @ ::: A;
0
an1
1
a1m
C
B
am D @ ::: A 2 kn
0
:::;
(4.74)
anm
linear unabhängig ist.
Wir sammeln nun einige allgemeine Resultate zur linearen Unabhängigkeit. Die
folgenden Aussagen sind klar:
Proposition 4.36. Sei V ein Vektorraum über k, und seien B1 B2 V Teilmengen von V .
i.) Ist B1 linear abhängig, so ist B2 auch linear abhängig.
ii.) Ist B2 linear unabhängig, ist B1 auch linear unabhängig.
Wir können also linear abhängige Teilmengen beliebig vergrößern und linear unabhängige Teilmengen beliebig verkleinern.
Proposition 4.37. Sei V ein Vektorraum über k und U V ein Unterraum. Für
eine Teilmenge B V mit U D span B sind äquivalent:
i.) Die Teilmenge B ist linear unabhängig.
ii.) Jeder Vektor u 2 U lässt sich bis auf Umnummerierung und triviale Koeffizienten auf genau eine Weise als Linearkombination
u D 1 b 1 C C n b n
(4.75)
104
4 Lineare Gleichungssysteme und Vektorräume
mit 1 ; : : : ; n 2 k und paarweise verschiedenen Vektoren b1 ; : : : ; bn 2 B
schreiben.
iii.) Die Teilmenge B ist minimal bezüglich der Eigenschaft U D span B: Gilt
B 0 B und span B 0 D U , so folgt B 0 D B.
Beweis. Wir zeigen i.) H) ii.) H) iii.) H) i.). Sei also zunächst B linear
unabhängig und u 2 U vorgegeben. Da nach Voraussetzung U D span B gilt, gibt
es Linearkombinationen der Form (4.75). Wir müssen die Eindeutigkeit zeigen.
Seien dazu
0
u D 1 b1 C C n bn D 01 b10 C C 0m bm
zwei Möglichkeiten, u darzustellen. Durch Umsortieren und Hinzunehmen von
trivialen Koeffizienten, können wir m D n und b1 D b10 ; : : : ; bn D bn0 erreichen.
Dann gilt also
0 D u u D .1 01 /b1 C C .1 0n /bn :
Da die b1 ; : : : ; bn linear unabhängig sind, folgt 1 D 01 ; : : : ; n D 0n . Dies zeigt
i.) H) ii.). Für ii.) H) iii.) nehmen wir an, B 0 B sei eine Teilmenge mit
span B 0 D U , aber B 0 ¤ B. Dann gibt es also einen Vektor b 2 B n B 0 . Diesen
können wir somit als Linearkombination
b D 1 b1 C C n bn
(4.76)
mit b1 ; : : : ; bn 2 B 0 schreiben, wobei wir ohne Einschränkung annehmen können,
dass die b1 ; : : : ; bn paarweise verschieden sind. Wegen b 2 B n B 0 ist insbesondere
keiner der Vektoren b1 ; : : : ; bn gleich b. Damit haben wir aber zwei verschiedene
Arten gefunden, b als Linearkombination von Vektoren in B zu schreiben, nämlich
b D b und (4.76), ein Widerspruch zur Annahme ii.). Schließlich betrachten wir
iii.) und nehmen an, B sei linear abhängig. Dann gibt es also eine nichttriviale
Linearkombination
1 b1 C C n bn D 0:
Ohne Einschränkung können wir 1 ¤ 0 annehmen, womit
b1 D 2
n
b2 bn
1
1
(4.77)
folgt. Damit können wir aber in jeder Linearkombination von Vektoren aus B den
Vektor b1 durch (4.77) ersetzen. Es folgt, dass B 0 D B n fb1 g denselben Unterraum
U D span B 0 aufspannt, im Widerspruch zu iii.). Damit ist auch iii.) H) i.)
gezeigt.
t
u
4.4 Lineare Unabhängigkeit und Basen
105
Korollar 4.38. Sei B V eine linear unabhängige Teilmenge eines Vektorraums
V über k. Dann lässt sich jeder Vektor aus V auf höchstens eine Weise als
Linearkombination von paarweise verschiedenen Vektoren aus B schreiben.
Korollar 4.39. Sei B V linear unabhängig und v 2 V n B. Dann ist B [ fvg
genau dann linear unabhängig, wenn v 62 span B.
Beweis. Ist nämlich v 2 span B, so kann B [ fvg nicht linear unabhängig sein,
da sonst ein Widerspruch zu beispielsweise iii.) aus Proposition 4.37 erreicht ist.
Andererseits ist für v 62 span B die Gleichung
v C 1 b1 C C n bn D 0
nur trivial lösbar: Gäbe es eine nichttriviale Lösung, so müsste insbesondere ¤ 0
gelten, da ja
1 b1 C C n bn D 0
nur die triviale Lösung besitzt. Daher ist aber
vD
n
1
b1 bn 2 span B;
was im Widerspruch zur Annahme steht.
t
u
Eine linear unabhängige Teilmenge B spannt den Unterraum span B also auf
besonders effektive Weise auf: B ist minimal, und wir erhalten eine eindeutige Art,
jeden Vektor in span B zu schreiben. Dies motiviert nun folgende Begriffsbildung:
Definition 4.40 (Basis). Sei V ein Vektorraum über k und U V ein Untervektorraum. Eine Teilmenge B V heißt Basis von U , falls B linear unabhängig ist
und U D span B gilt. Für U D V sprechen wir einfach von einer Basis.
Beispiel 4.41 (Basis). Zwei fundamentale Beispiele für Basen sind nun die folgenden:
i.) Sei n 2 N. Dann bilden die Standardvektoren e1 ; : : : ; en 2 kn eine Basis nach
Beispiel 4.34, iii.).
ii.) Sei M eine Menge und V D Abb.M; k/ sowie U D Abb0 .M; k/ wie in
Beispiel 4.10 und Beispiel 4.23. Damit bilden die Vektoren fep gp2M eine Basis
des Unterraums Abb0 .M; k/ nach Beispiel 4.34, iv.). Ist nun M endlich, so
gilt Abb0 .M; k/ D Abb.M; k/ und wir erhalten eine Basis des gesamten
Vektorraums Abb.M; k/. Ist dagegen M unendlich, so gilt Abb0 .M; k/ ¤
Abb.M; k/ und die fep gp2M sind keine Basis von Abb.M; k/. In diesem Fall
106
4 Lineare Gleichungssysteme und Vektorräume
ist es typischerweise sehr schwierig, eine „explizite“ Basis von Abb.M; k/
anzugeben.
Aus Korollar 4.38 beziehungsweise Proposition 4.37 erhält man sofort, dass sich
für eine gegebene Basis B V jeder Vektor v 2 V auf eindeutige Weise als
Linearkombination
v D 1 b1 C C n bn
(4.78)
von Vektoren b1 ; : : : ; bn 2 B schreiben lässt. Die Eindeutigkeit gilt dabei natürlich
wieder bis auf Umsortieren der Vektoren b1 ; : : : ; bn . Erlaubt man ’s mit Wert null,
so lässt sich die unschöne Umnummerierung umgehen, indem wir die Basis B selbst
zum Nummerieren verwenden. Wir finden zu v 2 V eindeutige Koeffizienten vb 2
k mit
X
vb b;
(4.79)
vD
b2B
wobei alle bis auf endlich viele vb verschwinden. Die Summe in (4.79) ist also selbst
bei unendlicher Basis immer insofern endlich, als dass wir immer nur endlich viele
von null verschiedene Vektoren aufsummieren und dann noch eventuell unendlich
viele Kopien des Nullvektors hinzuzählen. Die eindeutig bestimmten Koeffizienten
vb heißen dann auch die Koordinaten von v bezüglich der Basis B:
Definition 4.42 (Koordinaten). Sei V ein Vektorraum über k und B V eine
Basis. Sei weiter v 2 V . Die eindeutig bestimmten Zahlen vb 2 k mit (4.79) heißen
die Koordinaten von v bezüglich der Basis B.
Satz 4.43 (Austauschsatz von Steinitz). Sei V ein Vektorraum, und seien
v1 ; : : : ; vn 2 V sowie w1 ; : : : ; wm 2 V mit m n jeweils linear unabhängig.
Dann existieren Indizes i1 ; : : : ; imn , sodass auch v1 , . . . , vn , wi1 , . . . , wimn linear
unabhängig sind.
Beweis. Wir betrachten zunächst den Fall m D n C 1. Wir wollen zeigen, dass es
einen Vektor wi1 gibt, sodass die Vektoren v1 ; : : : ; vn ; wi1 linear unabhängig sind.
Angenommen, dies wäre nicht möglich: Für jede Wahl von i wären die Vektoren
v1 ; : : : ; vn ; wi linear abhängig. Nach Korollar 4.39 folgt also wi 2 spanfv1 ; : : : ; vn g
für alle i mit (sogar eindeutig bestimmten) Koeffizienten .aij /iD1;:::;nC1 , sodass
j D1;:::;n
wi D ai1 v1 C C ai n vn :
Da die Vektoren fw1 ; : : : ; wnC1 g linear unabhängig sind, ist die Gleichung
1 w1 C C nC1 wnC1 D 0
(4.80)
4.4 Lineare Unabhängigkeit und Basen
107
nur trivial lösbar, also durch 1 D D nC1 D 0. Einsetzen von wi in (4.80)
liefert daher die Gleichung
nC1
X
!
i ai1 v1 C C
iD1
nC1
X
!
i ai n vn D 0:
iD1
Nun sind auch die v1 ; : : : ; vn linear unabhängig, womit auch hier nur die triviale
Lösung
nC1
X
iD1
i ai1 D 0;
:::;
nC1
X
i ai n D 0
iD1
möglich ist. Dieses lineare Gleichungssystem hat aber n C 1 Variablen 1 , . . . , nC1
und nur n Gleichungen. Da es homogen ist, gibt es nach Proposition 4.21 eine
nichttriviale Lösung für die 1 ; : : : ; nC1 . Diese löst dann natürlich auch (4.80),
ein Widerspruch. Damit ist also unsere ursprüngliche Annahme falsch und es muss
ein i1 geben, sodass fv1 ; : : : ; vn ; wi1 g linear unabhängig ist. Dies zeigt den Fall
m D n C 1. Den allgemeinen Fall erhält man dann durch wiederholtes Anwenden
dieses „Austauschens“.
t
u
Im Beweis hatten wir unter anderem folgendes Resultat gezeigt, welches auch
für sich genommen interessant ist:
Korollar 4.44. Sind v1 ; : : : ; vn 2 V linear unabhängig und w1 ; : : : ; wm 2
spanfv1 ; : : : vn g mit m > n, so sind die w1 ; : : : ; wm linear abhängig.
Beweis. Wären die w1 ; : : : ; wm linear unabhängig, könnten wir austauschen und
erhielten linear unabhängige Vektoren v1 ; : : : ; vn ; wi1 ; : : : ; wimm . Da offenbar für
W D fv1 ; : : : ; vn ; wi1 ; : : : ; win g
span W D spanfv1 ; : : : ; vn g
und fv1 ; : : : ; vn g W , ist dies ein Widerspruch zur Charakterisierung von linearer
Unabhängigkeit gemäß Proposition 4.37, iii.).
t
u
Korollar 4.45. Hat V eine endliche Basis v1 ; : : : ; vn , so ist jede andere Basis
ebenfalls endlich und hat ebenfalls n Elemente.
Beweis. Sei nämlich B eine andere Basis. Diese kann nicht mehr als n linear
unabhängige Vektoren enthalten, da ja B V D spanfv1 ; : : : ; vn g. Wir können
also das vorherige Korollar 4.44 anwenden. Also ist B D fb1 ; : : : ; bm g mit m n.
Vertauschen wir nun die Rollen von fv1 ; : : : ; vn g und fb1 ; : : : ; bm g, so folgt n D m.
t
u
108
4 Lineare Gleichungssysteme und Vektorräume
Es stellt sich nun also die Frage, ob wir für jeden Vektorraum auch tatsächlich
eine Basis finden können. Dies ist tatsächlich der Fall, auch wenn wir dies hier nicht
im Detail beweisen wollen. Es erfordert das Auswahlaxiom der Mengenlehre in
Form des Zornschen Lemmas, um diesen Satz in voller Allgemeinheit zu beweisen.
Wir skizzieren daher zwei Varianten: den allgemeinen Fall und den Spezialfall, dass
V endlich erzeugt ist:
Satz 4.46 (Existenz von Basen). Sei V ein Vektorraum über k.
i.) Jedes Erzeugendensystem von V enthält eine Basis von V .
ii.) Ist U V ein Untervektorraum, so lässt sich jede Basis von U zu einer Basis
von V ergänzen.
Beweis. Wir geben zunächst einen Beweis für ein endliches Erzeugendensystem fv1 ; : : : ; vn g von V . Ist die Menge von paarweise verschiedenen Vektoren
fv1 ; : : : ; vn g sogar linear unabhängig, so bilden diese bereits eine Basis, und
wir sind fertig. Sind sie hingegen linear abhängig, so gibt es eine nichttriviale
Linearkombination
1 v1 C C n vn D 0:
Ohne Einschränkung können wir annehmen, dass n ¤ 0. Dann ist aber
vn D 1
n1
vn vn1 ;
n
n
und es gilt
V D spanfv1 ; : : : ; vn g D spanfv1 ; : : : ; vn1 g:
Nach endlich vielen Schritten erreicht man so eine Basis von V . Insbesondere
hat diese und damit auch jede andere Basis von V höchstens n Elemente. Sei
nun U V ein Unterraum und V endlich erzeugt mit N Erzeugern. Sei weiter
fu1 ; : : : ; un g eine Basis von U , welche als linear unabhängige Teilmenge in V
ebenfalls höchstens n N Elemente hat. Gilt bereits U D V , so ist nichts mehr
zu zeigen. Gilt nun U ¤ V , so gibt es einen Vektor v 2 V n U , welcher nach
Korollar 4.39 eine linear unabhängige Teilmenge fu1 ; : : : ; un ; vg in V liefert. Ersetzt
man nun U durch spanfu1 ; : : : ; un ; vg, erzielt man nach endlich vielen Schritten eine
Basis von V , da es nicht mehr als N linear unabhängige Vektoren in V geben kann.
Damit ist der Beweis für endlich erzeugte Vektorräume erbracht. Den allgemeinen
Fall zeigt man folgendermaßen: Sei E V ein Erzeugendensystem von V . Dann
betrachten wir die Menge U aller Teilmengen von E, die linear unabhängig sind. Da
; linear unabhängig ist, folgt ; 2 U und U ist nicht leer. Wir ordnen U nun mittels
der Relation „“, die eine partielle Ordnung auf U liefert, da dies ja sogar für die
4.4 Lineare Unabhängigkeit und Basen
109
Potenzmenge 2E der Fall ist. Sei nun B U eine linear geordnete Teilmenge: Für
zwei Elemente B; B 0 2 B kann man also immer B B 0 oder B 0 B folgern.
Jedes B 2 B besteht also insbesondere aus einer Menge von linear unabhängigen
Vektoren. Wir behaupten, dass dann auch
B1 D
[
B
B2B
linear unabhängig ist. Sind nämlich endlich viele paarweise verschiedene
v1 ; : : : ; vn 2 B1 gegeben, so gibt es B1 ; : : : ; Bn 2 B mit vi 2 Bi für i D 1; : : : ; n.
Da B aber linear geordnet ist, folgt durch paarweisen Vergleich der B1 ; : : : ; Bn ,
dass es ein i0 2 f1; : : : ; ng mit
Bi Bi0
für alle i D 1; : : : ; n gibt. Insbesondere gilt v1 ; : : : ; vn 2 Bi0 . Da Bi0 linear
unabhängig ist, hat die Gleichung
1 v1 C C n vn D 0
nur die triviale Lösung 1 D : : : D n D 0. Es folgt, dass B1 linear unabhängig ist
und dass
B B1
für alle B 2 B. Offenbar ist B1 die kleinste Teilmenge von E, welche alle Teilmengen B 2 B enthält. Da B1 2 U gilt, zeigt dies, dass jede linear geordnete Teilmenge
von U ein Supremum in U besitzt. Damit ist nun das Zornsche Lemma einsetzbar:
Nach Satz B.14 können wir schließen, dass U überhaupt Suprema besitzt. Sei
Bmax 2 U eine solches Supremum, also eine linear unabhängige Teilmenge des
Erzeugendensystems E, die maximal bezüglich „“ ist. Wir behaupten dann, dass
span Bmax D span E D V
(4.81)
gilt. Wäre dem nicht so, so gäbe es Vektoren v 2 E n span Bmax , für die
Bmax [ fvg immer noch linear unabhängig wäre, siehe Korollar 4.39. Das steht aber
im Widerspruch zur Maximalität von Bmax , da Bmax [ fvg ja echt größer ist. Damit
folgt also (4.81) und Bmax ist die gesuchte Basis. Den zweiten Teil zeigt man analog:
Man betrachtet die Menge U all der Teilmengen von V , die linear unabhängig sind
und die Basis B U des Unterraums U V enthalten. Wieder ist U nicht leer, da
B 2 U . Wie zuvor ordnet man U mittels „“ partiell und wie zuvor zeigt man, dass
linear geordnete Teilmengen von U ein Supremum besitzen. Nach dem Zornschen
Lemma besitzt U Suprema, die dann eine Basis von V darstellen.
t
u
110
4 Lineare Gleichungssysteme und Vektorräume
Korollar 4.47. Jeder Vektorraum V über k besitzt eine Basis.
Wir können beispielsweise mit dem Erzeugendensystem E D V und Teil i.) des
Satzes argumentieren, oder mit dem Untervektorraum U D f0g und Teil ii.).
Im Falle endlich erzeugter Vektorräume haben wir in Korollar 4.45 gesehen, dass
je zwei Basen gleich viele Elemente besitzen. Dies bleibt auch im Allgemeinen
richtig (ohne Beweis):
Satz 4.48 (Mächtigkeit von Basen). Sei V ein Vektorraum über k. Dann haben je
zwei Basen von V gleich viele Elemente.
Gleich viele Elemente zu haben, ist hier im Sinne der Mächtigkeit von Mengen zu
verstehen: Es gibt eine Bijektion zwischen den beiden Basen, siehe Anhang B.6.
Dank Satz 4.48 beziehungsweise Korollar 4.45 können wir also einem Vektorraum
eine Dimension zuschreiben:
Definition 4.49 (Dimension). Sei V ein Vektorraum über k. Dann ist die Dimension dimk V von V die Mächtigkeit einer (und damit jeder) Basis von V .
Gilt dimk V 2 N0 , so heißt V endlich-dimensional, anderenfalls unendlichdimensional. Ist der Bezug auf k klar, so schreiben wir auch dim V anstelle von
dimk V .
Entscheidend bei dieser Definition ist, dass wir zum einen immer eine Basis haben
(Satz 4.46), und zum anderen, dass je zwei Basen die gleiche Mächtigkeit besitzen
(Satz 4.48). Im Falle endlich erzeugter Vektorräume sind beide Sätze einfach und
sogar bis zu einem gewissen Grade konstruktiv, im Allgemeinen müssen wir beim
Auswahlaxiom in Form des Zornschen Lemmas Zuflucht suchen und erhalten
deshalb keinen konstruktiven Beweis.
Beispiel 4.50 (Dimensionen).
i.) Für n 2 N gilt
dim kn D n:
(4.82)
Dies ist klar, da die Standardvektoren e1 ; : : : ; en 2 kn eine Basis bilden.
ii.) Es gilt
dimR R D 1;
dimR C D 2
und
dimQ R D 1:
(4.83)
Hier fassen wir C als R-Vektorraum und R als Q-Vektorraum im Sinne
von Korollar 4.15 auf. Es ist also entscheidend, den Körper der Skalare zu
spezifizieren. Für die dritte Aussage verweisen wir auf Übung 4.21.
4.5 Direkte Summen und Produkte
111
iii.) Für eine unendliche Menge M ist der Vektorraum der Abbildungen Abb.M; k/
sicherlich unendlich-dimensional: Die Vektoren fep gp2M sind eine Basis des
Unterraums Abb0 .M; k/, welcher damit eine Dimension der Mächtigkeit von
M hat. Die Dimension von Abb.M; k/ ist noch größer.
Bemerkung 4.51. Wir haben nun also die angestrebte „intrinsische“ Definition
einer Dimension erreicht und können die Ergebnisse von Kap. 1 nun in diesem
Lichte neu interpretieren: Geraden sind eindimensionale Unterräume, Ebenen sind
zweidimensional.
Kontrollfragen. Was ist ein Erzeugendensystem? Wann ist eine Teilmenge eines
Vektorraums linear unabhängig? Wieso ist eine Teilmenge von linear unabhängigen
Vektoren immer noch linear unabhängig? Wie viele linear unabhängige Vektoren
können Sie im Spann von n Vektoren höchstens finden? Wie kann man eine Basis
charakterisieren? Was ist eine indizierte Basis? Hat jeder Vektorraum eine Basis?
Wieso sind zwei je Basen eines Vektorraums gleich groß? Wieso ist die Definition
der Dimension eines Vektorraums überhaupt sinnvoll?
4.5
Direkte Summen und Produkte
In diesem Abschnitt wollen wir nun einige kanonische und immer wiederkehrende
Konstruktionen von neuen Vektorräumen aus bereits vorhandenen aufzeigen. Wir
beginnen mit dem kartesischen Produkt:
Sei I eine (nichtleere) Indexmenge und sei für jedes i 2 I ein Vektorraum Vi
über k gegeben. Dann betrachten wir deren kartesisches Produkt
V D
Y
Vi :
(4.84)
i2I
Elemente in V sind „große“ Spaltenvektoren .vi /i2I , deren Einträge durch I
indiziert werden, sodass für alle i 2 I der i -te Eintrag vi im Vektorraum
Vi liegt. Wir erhalten auf V eine Vektorraumstruktur, indem wir die jeweiligen
Vektorraumstrukturen der Komponenten Vi verwenden, wie wir das bereits beim
endlichen kartesischen Produkt kn getan haben:
Proposition 4.52 (Kartesisches Produkt). Sei I eine nichtleere Indexmenge und
Vi ein Vektorraum über k für alle i 2 I . Dann wird das kartesische Produkt
V D
Y
Vi
(4.85)
i2I
vermöge der Addition
.vi /i2I C .wi /i2I D .vi C wi /i2I
(4.86)
112
4 Lineare Gleichungssysteme und Vektorräume
und der Multiplikation mit Skalaren
.vi /i2I D . vi /i2I
(4.87)
zu einem Vektorraum über k.
Beweis. Wir müssen die definierenden Eigenschaften eines Vektorraums über k
nachprüfen. Dies ist aber einfach: Zunächst bemerkt man, dass
0 D .0i /i2I
das neutrale Element für C gemäß (4.86) ist. Die Assoziativität von C kann man
komponentenweise nachprüfen und entsprechend auf die Assoziativität von C in
jedem einzelnen Vi zurückführen. Für v D .vi /i2I ist v D .vi /i2I der zu v
inverse Vektor, da
v C .v/ D .vi /i2I C .vi /i2I D .vi vi /i2I D .0i /i2I D 0:
Die benötigten Eigenschaften der Multiplikation mit Skalaren erhält man analog.
t
u
Wir werden das kartesische Produkt vonQVektorräumen im Folgenden immer
mit dieser Vektorraumstruktur versehen. In i2I Vi gibt es nun einen besonderen
Untervektorraum: die direkte Summe.
Definition 4.53 (Direkte Summe). Sei I eine nichtleere Indexmenge und Vi für
jedes i 2 I ein Vektorraum über k. Dann ist die direkte Summe der Vi definiert als
M
i2I
n
Y
Vi D .vi /i2I 2
i2I
ˇ
o
ˇ
Vi ˇ vi D 0 für alle bis auf endlich viele i 2 I :
(4.88)
Offenbar ist die direkte Summe ein Untervektorraum, und es gilt
M
i2I
Vi ¤
Y
Vi ;
(4.89)
i2I
sofern I unendlich ist und unendlich viele Vi nicht der Nullraum sind. Ist dagegen
I endlich, so gilt in (4.89) die Gleichheit.
Beispiel 4.54 (Direkte Summe).
i.) Sei n 2 N, dann ist der Vektorraum kn gerade das kartesische Produkt von n
Kopien des Vektorraums k. Da n < 1 gilt, stimmt dies mit der direkten Summe
überein. Es gilt also
4.5 Direkte Summen und Produkte
113
kn D k k D k ˚ ˚ k;
(4.90)
wobei wir für endlich viele Summanden auch V D V1 ˚ ˚ Vn schreiben.
ii.) Der Raum aller Folgen kN mit Koeffizienten in k ist gerade das kartesische
Produkt
kN D
1
Y
k
(4.91)
nD1
von abzählbar vielen Kopien von k. Hier ist die direkte Summe echt kleiner,
denn
1
M
k¤
nD1
1
Y
k
(4.92)
nD1
besteht aus denjenigen Folgen .an /n2N mit an 2 k, sodass nur endlich viele
an ¤ 0. Wir bezeichnen diese direkte Summe mit k.N/ , um sie vom kartesischen
Produkt kN zu unterscheiden.
Proposition 4.55. Sei I eine nichtleere Indexmenge, und seien fVi gi2I Vektorräume über k. Seien weiter indizierte Basen fwij gj 2Ji von Vi für jedes i 2 I gegeben.
Dann bilden die Vektoren
eij D .vi 0 j i /i 0 2I
mit
vi 0 j i D ıi 0 i wij
(4.93)
eine indizierte Basis feij gi2I;j 2Ji der direkten Summe der Vi .
L
Beweis. Sei v D .vi /i2I 2
i2I Vi vorgegeben. Dann gibt es endlich viele
eindeutig bestimmte Indizes i1 ; : : : ; in 2 I mit vi1 ¤ 0; : : : ; vin ¤ 0, und alle
anderen Einträgen vi sind 0. Da fwik j gj 2Jik für jedes k D 1; : : : ; n eine Basis von
Vik ist, gibt es eindeutig bestimmte Koeffizienten ik j1 ; : : : ; ik jmk 2 k mit
vik D ik j1 wik j1 C C ik jmk wik jmk :
Wir setzen dies nun zusammen und erhalten
v D i1 j1 ei1 j1 C C i1 jm1 ei1 jm1 C C in j1 ein j1 C C in jmn ein jmn ;
Dies zeigt zum einen, dass die feij gi2I;j 2Ji ein Erzeugendensystem bilden, zum
anderen zeigt die Eindeutigkeit der Koeffizienten, dass die feij gi2I;j 2Ji linear
unabhängig sind. Damit bilden sie, wie behauptet, eine Basis.
t
u
114
4 Lineare Gleichungssysteme und Vektorräume
Korollar 4.56. Sei n 2 N, und seien V1 ; : : : ; Vn endlich-dimensionale Vektorräume
über k. Dann ist V1 ˚ ˚ Vn ebenfalls endlich-dimensional, und es gilt
dim.V1 ˚ ˚ Vn / D dim V1 C C dim Vn :
(4.94)
Bemerkung 4.57. Selbst wenn Basen für alle Vi vorliegen, erhält man im Allgemeinen daraus noch keine Basis für das kartesische Produkt: hier benötigt man im
Allgemeinen (viele) zusätzliche Basisvektoren. Am Beispiel des Folgenraums kN
ist dies einfach zu sehen. Die Basis der direkten Summe gemäß Proposition 4.55,
die man aus der Basis f1g von k erhält, sind die Folgen
e1 D .1; 0; 0; : : :/;
e2 D .0; 1; 0; : : :/;
(4.95)
e3 D .0; 0; 1; : : :/; : : :
Nun ist aber schnell zu sehen, dass etwa
e1 D .1; 1; 1; : : :/
(4.96)
davon linear unabhängig ist. Hier ist wichtig, dass wir natürlich immer nur endliche
Linearkombinationen der fei gi2N bilden dürfen und deshalb die unendlich vielen
von null verschiedenen Einträge von e1 nicht erzeugen können. Ohne Beweis sei
hier angemerkt, dass kN eine „sehr“ große
L Basis erfordert, die im Gegensatz zur
abzählbaren Basis der direkten Summe 1
nD0 k im Allgemeinen überabzählbar ist,
siehe Übung 4.22.
Für Unterräume fUi gi2I eines fest gewählten Vektorraums haben wir bereits in
Definition 4.28 eine Summe definiert: Dies war der kleinste Unterraum U V ,
der alle Ui enthält, also der Spann aller Vektoren aus allen Ui . Da die Unterräume
Teilmengen eines großen Vektorraums V sind, können deren Durchschnitte Ui \ Uj
für gewisse Indexpaare nichttrivial sein: Da beide Unterräume immer 0 2 V
enthalten, gilt immer 0 2 Ui \ Uj . Nichttrivial meint hier also, dass Ui \ Uj nicht
nur aus f0g besteht. Weiter kann es passieren, dass bei mehr als zwei Unterräumen
zwar die paarweisen Durchschnitte alle trivial sind, aber im Spann von einigen der
Unterräume Vektoren aus einem weiteren, davon verschiedenen liegen. Auch in
diesem Fall können wir im gesamten Spann gewisse Vektoren auf mehrfache Weise
erzielen, was wir in der direkten Summe von Unterräumen ausschließen wollen:
Definition 4.58 (Direkte Summe von Unterräumen). Sei I eine nichtleere Indexmenge, und seien fUi gi2I paarweise
verschiedene Unterräume eines Vektorraums
P
V über k. Ihre Summe U D
U
i2I i heißt direkt, falls für alle i 2 I und alle
endlich vielen j1 ; : : : jn 2 I verschieden von i
4.5 Direkte Summen und Produkte
115
Ui \
n
X
Ujk D f0g
(4.97)
kD1
gilt. In diesem Fall schreiben wir
X
Ui D
i2I
M
Ui :
(4.98)
i2I
Eine erste Umformulierung erhalten wir folgendermaßen:
Proposition 4.59. Sei I eine nichtleere Indexmenge, und seien fUi gi2I paarweise
verschiedene Unterräume eines
P Vektorraums V über k. Dann sind folgende Aussagen über die Summe U D i2I Ui äquivalent:
i.) Die Summe U der Ui ist direkt.
S
ii.) Für alle Basen Bi Ui mit i 2 I ist B D i2I Bi eine Basis
S von U .
iii.) Für jedes i 2 I gibt es eine Basis Bi Ui , sodass B D i2I Bi eine Basis
von U ist.
iv.) Für jeden Vektor u 2 U gibt es eindeutig bestimmte
P Vektoren ui 2 Ui , sodass
nur endlich viele ungleich null sind und dass u D i2I ui gilt.
v.) Für alle vi 2 Ui n f0g ist fvi gi2I eine linear unabhängige Teilmenge von U .
Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) v.) H) i.). Sei zunächst
die Summe direkt und sei Bi Ui eine beliebige Basis des i -ten Unterraums.
S Seien
ui1 ; : : : ; uin 2 B endlich viele, paarweise verschiedene Vektoren in B D i2I Bi .
Dann gibt es endlich viele paarweise verschiedene j1 ; : : : ; jk 2 I , sodass ohne
Einschränkung ui1 ; : : : ; uir1 2 Bj1 , uir1 C1 ; : : : ; uir2 2 Bj2 , . . . , uirk1 C1 ; : : : ; uin 2
Bjk . Wir betrachten nun eine Linearkombination
1 ui1 C C n uin D 0
(4.99)
für gewisse 1 ; : : : ; n 2 k. Wir setzen v1 D 1 ui1 C C r1 uir1 2 Uj1 und analog
für die übrigen Beiträge, sodass also v2 2 Uj2 ; : : : ; vk 2 Ujk . Dann bedeutet (4.99)
gerade
v1 C C vk D 0:
Wäre nun einer der Vektoren v1 ; : : : ; vk von null verschieden, etwa v1 ¤ 0, so gälte
also v1 2 Uj2 C C Ujk sowie natürlich v1 2 Uj1 . Da die Summe aber direkt ist,
muss v1 D 0 sein, ein Widerspruch. Daher gilt v1 D D vk D 0. Wir haben daher
Linearkombinationen der Form
1 ui1 C C r1 uir1 D 0;
:::;
rk1 C1 uirk1 C1 C C n uin D 0
116
4 Lineare Gleichungssysteme und Vektorräume
für alle k Teilräume. Da dort die Vektoren aber aus einer Basis und entsprechend
linear unabhängig sind, folgt schließlich 1 D D n D 0, was zeigt, dass
B eine linear unabhängige Teilmenge von U ist. Da B aber trivialerweise ein
Erzeugendensystem von U ist, haben wir die Implikation i.) H) ii.) gezeigt.
Die Implikation ii.) H)
S iii.) ist trivial. Sei also nun Bi Ui eine Basis für jedes
i 2 I derart, dass B D i2I Bi eine Basis von U ist. Sei weiter u 2 U vorgegeben.
Dann hat u eine eindeutige Darstellung bezüglich der Basis B. Diese ist von der
Form
X X
uD
i;bi bi
i2I bi 2Bi
mit eindeutig bestimmten Zahlen i;bi 2 k für alle i 2 I und alle bi 2 Bi , derart,
dass insgesamt nur endlich viele davon ungleich null sind. Wir behaupten, dass
ui D
X
i;bi bi
bi 2Bi
P
die eindeutig bestimmten Vektoren in Ui mit u D i2I ui sind. Dass die Summe
der ui gerade u ergibt, ist klar. Ebenfalls klar ist, dass ui 2 Ui gilt. Weiter sind nur
endlich viele ui von null verschieden. Sei nun vi 2 Ui eine andere Wahl, dann gilt
zum einen
X
vi D
i;bi bi
bi 2Bi
mit eindeutig bestimmten i;bi 2 k und zum anderen
0DuuD
XX
.i;bi i;bi /bi :
i2I bi 2Bi
Da die Gesamtheit der bi gerade die Basis B ist, gibt es nur die triviale Möglichkeit,
0 als Linearkombination der bi zu schreiben. Dies bedeutet aber i;bi D i;bi für
alle i 2 I und bi 2 Bi , was die Eindeutigkeit der Vektoren ui zeigt. Damit ist die
Implikation iii.) H) iv.) gezeigt. Wir nehmen nun iv.) an und wählen vi 2 Ui n f0g
für jedes i 2 I . Seien dann endlich viele, paarweise verschiedene vi1 ; : : : ; vin und
1 ; : : : ; n 2 k mit
0 D 1 vi1 C C n vin
gegeben. Nach Voraussetzung ist die Darstellung der 0 2 U aber eindeutig, womit
1 vi1 D D n vin D 0 folgt. Da die Vektoren aber nicht Null sind, folgt 1 D
D n D 0, was die lineare Unabhängigkeit der Menge fvi gi2I beweist. Damit
ist auch iv.) H) v.) gezeigt. Zum Schluss nehmen wir also an, dass v.) gilt. Seien
i 2 I und j1 ; : : : ; jk 2 I n fi g sowie u 2 Ui \ .Uj1 C C Ujk / gegeben. Wir
4.5 Direkte Summen und Produkte
117
müssen zeigen, dass u D 0 gilt. Wäre dieser Vektor nicht null, so wäre 0 D uu eine
nichttriviale Linearkombination der 0. Da u 2 Ui ungleich null ist und u 2 Uj1 C
C Ujk ebenfalls ungleich null ist, finden wir Vektoren v1 2 Uj1 ; : : : ; vk 2 Ujk
mit u D v1 C C vk . Es können offenbar nicht alle v1 , . . . , vk verschwinden.
Ohne Einschränkung seien alle v1 , . . . , vk bereits von null verschieden, anderenfalls
lassen wir die Indizes weg, für die der entsprechende Vektor null ist. Dann haben
wir aber eine nichttriviale Linearkombination
0 D u C v1 C C vk
der Null gefunden, obwohl alle Vektoren u, v1 , . . . , vk ungleich null sind. Dies
widerspricht der Annahme v.), womit die Summe doch direkt war.
t
u
Bemerkung 4.60 (Innere und äußere direkte Summe). Hierbei ist natürlichLein gewisser Notationsmissbrauch begangen worden, da wir die direkte Summe i2I Ui
zunächst
ja auch gemäß Definition 4.53Lals Unterraum des kartesischen Produkts
Q
U
definiert
haben. Als solche ist i2I Ui kein Unterraum von V . Trotzdem
i2I i
können wir
beide
Varianten
identifizieren, da wir nämlich Ui auch als UntervektorQ
raum von i2I Ui interpretieren können: Wir identifizieren ui 2 Ui mit demjenigen
Spaltenvektor aus dem kartesischen Produkt, der an i -ter Stelle ui stehen hat und
sonst an allen anderen Stellen nur 0 als Eintrag hat. In diesem Sinne ist dann
die äußere direkte Summe
Qder Ui gemäß Definition 4.53 gleich der Summe der
Untervektorräume Ui j 2I Uj . Da die Einträge an verschiedenen Stellen der
Spaltenvektoren
stehen, gilt in dieser Situation immer (4.97), womit innerhalb von
Q
U
die
Summe
tatsächlich direkt im Sinne von Definition 4.58 ist und somit
i2I i
mit der inneren direkten Summe identifiziert werden kann. Sobald wir den Begriff
der linearen Abbildung und des Isomorphismus zur Verfügung haben, lässt sich
diese Überlegung präzise formulieren, siehe auch Übung 5.16.
Wir wollen nun ein Analogon der Dimensionsformel aus Korollar 4.56 für
Summen von Unterräumen finden. Hier ist im Allgemeinen natürlich die Dimension
von U1 CU2 kleiner als dim U1 Cdim U2 : Man verwende beispielsweise einen nichttrivialen Unterraum U D U1 D U2 , dann ist U1 C U2 D U , aber dim U < 2 dim U .
Die Schwierigkeit rührt von einem eventuell nichttrivialen Durchschnitt her.
Berücksichtigt man den Teilraum U1 \ U2 , so erhält man folgendes Ergebnis:
Satz 4.61 (Dimensionsformel für Unterräume). Seien U1 ; U2 V Untervektorräume von einem Vektorraum V über k. Dann gilt
dim U1 C dim U2 D dim.U2 C U2 / C dim.U1 \ U2 /:
(4.100)
Beweis. Ist einer der beiden Unterräume unendlich-dimensional, so ist auch U1 CU2
unendlich-dimensional und (4.100) reduziert sich auf die wenig aussagekräftige
Gleichung 1 D 1. Wir können daher annehmen, dass dim U1 ; dim U2 < 1. Dann
118
4 Lineare Gleichungssysteme und Vektorräume
ist U1 \ U2 U1 als Teilraum eines endlich-dimensionalen Vektorraums ebenfalls
endlich-dimensional. Wir wählen eine Basis v1 ; : : : ; vn 2 U1 \ U2 dieses Durchschnitts und ergänzen sie zu einer Basis v1 ; : : : ; vn ; w1 : : : ; wm von U1 . Es gilt also
dim.U1 \ U2 / D n
und
dim U1 D n C m:
Genauso können wir die Vektoren v1 ; : : : ; vn zu einer Basis v1 , . . . , vn ,
u1 , . . . , uk 2 U2 von U2 ergänzen und erhalten daher
dim U2 D n C k:
Wir behaupten, dass v1 ; : : : ; vn ; w1 ; : : : ; wm ; u1 ; : : : ; uk eine Basis von U1 C U2 ist.
Da
U1 D spanfv1 ; : : : ; vn ; w1 ; : : : ; wm g und
U2 D spanfv1 ; : : : ; vn ; u1 ; : : : ; uk g
gilt, folgt sofort
U1 C U2 D spanfv1 ; : : : ; vn ; w1 ; : : : ; wm ; u1 ; : : : ; uk g:
Es bleibt also zu zeigen, dass diese Menge von Vektoren auch linear unabhängig
ist. Sei dazu eine Linearkombination
v C C n vn C 1 w1 C C m wm C #1 u1 C C #k uk D 0
„1 1 ƒ‚
… „
ƒ‚
…
ƒ‚
… „
v
u
w
der 0 gegeben. Es gilt also v 2 U1 \ U2 , w 2 U1 und u 2 U2 sowie
v C w D u 2 U2
und
v C u D w 2 U1
und daher v C w 2 U1 \ U2 sowie v C u 2 U1 \ U2 . Da auch v 2 U1 \ U2 , folgt
schließlich, dass alle drei Vektoren v; w; u im Durchschnitt liegen. Damit ist also u
eine Linearkombination der Basisvektoren v1 ; : : : ; vn . Auf diese Weise ist in
vCwCuD0
eine nichttriviale Linearkombination der 0 in U1 gefunden, sofern nicht w D 0 gilt,
da ja die v1 ; : : : ; vn , w1 ; : : : ; wm eine Basis von U1 bilden. Es gilt also w D 0 und
daher
v C u D 0:
Da die v1 ; : : : ; vn ; u1 ; : : : ; uk aber eine Basis von U2 bilden, kann dies nur für v D
0 D u gelten. Somit folgt 1 D D n D 1 D D m D #1 D D #k D 0
und daher die lineare Unabhängigkeit der obigen n C m C k Vektoren. Es gilt also
4.5 Direkte Summen und Produkte
119
dim.U1 C U2 / D n C m C k;
t
u
womit die Behauptung folgt.
Proposition 4.62. Sei U V ein Unterraum eines Vektorraums V über k. Dann
gibt es einen Unterraum W V mit U \ W D f0g und
U ˚ W D V:
(4.101)
Beweis. Wir wählen eine Basis B1 U und ergänzen diese durch zusätzliche
Vektoren B2 V n U zu einer Basis von V gemäß Satz 4.46. Dann gilt für
W D span B2
offenbar U C W D V sowie U \ W D f0g, da B1 [ B2 linear unabhängig ist. Für
zwei Unterräume ist dies aber gerade die Bedingung dafür, dass ihre Summe direkt
ist.
t
u
Wir nennen einen Unterraum W mit (4.101) auch einen Komplementärraum zu
U . Es gibt also zu jedem Unterraum einen Komplementärraum. Im Allgemeinen ist
W aber durch diese Eigenschaft noch nicht eindeutig bestimmt, siehe Abb. 4.3.
Kontrollfragen. Was ist der Unterschied zwischen dem kartesischen Produkt und
der äußeren direkten Summe von Vektorräumen? Wie können Sie eine Basis
einer direkten Summe finden? Wie können Sie die innere direkte Summe von
Unterräumen charakterisieren?
x2
W
2
IR
U
x1
W
Abb. 4.3 Zwei zu U komplementäre Unterräume W und W 0 im R 2
120
4.6
4 Lineare Gleichungssysteme und Vektorräume
Übungen
Übung 4.1 (Elementare Umformung (IV)). Zeigen Sie, dass durch Kombination
von elementaren Umformungen vom Typ (II) und (III) folgende Umformung erhalten werden kann:
(IV) Zu einer Gleichung wird das -Fache einer anderen Gleichung addiert, wobei
2 k beliebig ist.
Diese Umformung ist in der Praxis manchmal zweckmäßiger, als die entsprechende
Kombination der Umformungen (II) und (III) immer wieder durchzuführen.
Übung 4.2 (Lineare Gleichungssysteme). Bestimmen Sie die Lösungsmengen
folgender linearer Gleichungssysteme über C mithilfe des Gauß-Algorithmus.
i.)
2x1 x2
D0
x1 C 2x2 x3 D 0
7x1 C 8x2 3x3 D 0
(4.102)
x C 2.x C z/ i.2x C y/ D 1
.y C z/i C x C y
D 1
y ix C z
D 2
(4.103)
ii.)
iii.)
ix1
C 2ix2 4x3 C .2 i/x4 D 1
x2 C 2ix3 x4
D2
x1
D0
.2 C i/x1 C 3x2 2x3
(4.104)
iv.)
x1 C x2 D 0
x2 C x3 D 0
::
:
xn1 C xn D 0
xn C x1 D 0
(4.105)
4.6 Übungen
121
Übung 4.3 (Lineare Gleichungssysteme über verschiedenen Körpern).
trachten Sie das lineare Gleichungssystem
Be-
xy
D1
y zD0
x
CzD1
(4.106)
einmal über dem Körper Z2 und einmal über C. Bestimmen Sie die Lösungen und
vergleichen Sie.
Übung 4.4 (Der Vektorraum Abb.M; V /). Sei M eine nichtleere Menge und sei
V ein Vektorraum über k. Wie schon bei Ringen in Übung 3.18 betrachten wir die
Abbildungen Abb.M; V / von M nach V .
i.) Zeigen Sie, dass die punktweise erklärte Addition
.f C g/.p/ D f .p/ C g.p/
(4.107)
sowie die punktweise erklärte Multiplikation mit Skalaren 2 k
.f /.p/ D f .p/
(4.108)
für p 2 M die Menge Abb.M; V / zu einem Vektorraum über k macht.
ii.) Zeigen Sie, dass diejenigen Abbildungen f 2 Abb.M; V / mit f .p/ D 0 für
alle bis auf endlich viele p 2 M einen Unterraum Abb0 .M; V / bilden. Zeigen
Sie weiter, dass für dim V ¤ 0 dieser Unterraum echt ist, wenn M unendlich
viele Elemente hat.
Übung 4.5 (Folgenräume). Führen Sie die Details zu Beispiel 4.22 aus, indem
Sie die nötigen Resultate zu Suprema und Grenzwerten der Analysis zitieren.
Übung 4.6 (Ringe als Vektorräume). Beweisen Sie Proposition 4.14.
Übung 4.7 (Indizierte Mengen von Vektoren). Sei V ein Vektorraum über k,
und sei B V linear unabhängig.
i.) Sei weiter I eine Indexmenge und W I 3 i 7! bi 2 B eine Abbildung. Zeigen
Sie, dass die indizierte Menge fbi gi2I genau dann linear unabhängig ist, wenn
injektiv ist.
ii.) Formulieren Sie insbesondere den Beweis von Korollar 4.35 in diesem Lichte.
Übung 4.8 (Nochmals Beispiel 4.41). In welchem Sinne ist der erste Teil des
Beispiels 4.41 ein Spezialfall des zweiten Teils?
122
4 Lineare Gleichungssysteme und Vektorräume
Übung 4.9 (Basen in C4 ). Betrachten Sie den komplexen Vektorraum C4 und
folgenden Vektoren
1
1
1
1
0
0 1
0
0
i
0
0
2Ci
2 C 2i
B 3 iC
B 1 C
BiC
B 0 C
B 3i C
C
C
C
C
B
B C
B
B
v1 D B
@ 0 A; v2 D @ i A; v3 D @2iA; v4 D @ 3i A; v5 D @ 3i A:
1
4 C 3i
1
2
3
(4.109)
Welche Auswahl von Vektoren bildet ein Erzeugendensystem, welche eine Basis?
0
Übung 4.10 (Linear unabhängige Vektoren I). Seien v1 ; : : : ; vn 2 V Vektoren
in einem Vektorraum V über k. Seien weiter a11 , a21 , a22 , . . . , an1 , . . . , an;n1 ,
ann 2 k mit akk ¤ 0 für k D 1; : : : ; n. Definieren Sie die Vektoren
w1 D a11 v1
w2 D a21 v1 C a22 v2
::
:
(4.110)
wn D an1 v1 C C an;n1 vn1 C ann vn :
Zeigen Sie, dass die Vektoren v1 ; : : : ; vn genau dann linear unabhängig sind, wenn
die Vektoren w1 ; : : : ; wn linear unabhängig sind.
Übung 4.11 (Linear unabhängige Vektoren II). Für welche a; b; c 2 R sind die
Vektoren
0 1
1
xE D @ a A;
a2
0 1
0 1
1
1
yE D @ b A und Ez D @ c A
b2
c2
(4.111)
im R3 linear unabhängig?
Übung 4.12 (Lineare Unabhängigkeit und Spann). Sei V ein Vektorraum über
k. Seien v1 ; : : : ; vn 2 V und w1 ; : : : ; wm 2 k- spanfv1 ; : : : ; vn g. Zeigen Sie,
dass die w1 ; : : : ; wm linear abhängig sind, sobald m > n. Dies liefert eine kleine
Verschärfung von Korollar 4.44.
Übung 4.13 (Basis der Polynome). Betrachten Sie den k-Vektorraum kŒx der
Polynome mit Koeffizienten in einem Körper k.
i.) Zeigen Sie, dass die Monome fx n gn2N 0 eine Basis von kŒx bilden.
ii.) Sei pn .x/ D x n C an;n1 x n1 mit fest gewählten an;n1 2 k. Zeigen Sie, dass
auch die Polynome fpn gn2N 0 eine Basis von kŒx bilden.
4.6 Übungen
123
Übung 4.14 (Unterräume von RN ). Betrachten Sie erneut den reellen Vektorraum aller Folgen RN sowie die Teilmengen
˚
U1 D .an /n2N
˚
U2 D .an /n2N
˚
U3 D .an /n2N
˚
U4 D .an /n2N
˚
U5 D .an /n2N
˚
U6 D .an /n2N
n
U7 D .an /n2N
n
U8 D .an /n2N
ˇ
ˇ 2an D anC3 für alle n 2 N ;
ˇ
ˇ .an /2 D anC3 für alle n 2 N ;
ˇ
ˇ a1 D a2 D 4 ;
ˇ
ˇ a2n D 0 für alle n 2 N ;
ˇ
ˇ limn!1 a3n D 0 ;
ˇ
ˇ limn!1 a2n D 2 ;
ˇ X1
o
ˇ
jan j < 1 ;
ˇ
nD0
ˇ X1
o
ˇ
ja2n j D 2 :
ˇ
nD0
(4.112)
(4.113)
(4.114)
(4.115)
(4.116)
(4.117)
(4.118)
(4.119)
Welche dieser Teilmengen sind Unterräume? Bestimmen Sie deren Dimension.
Übung 4.15 (Unterräume von .Z2 /3 ). Betrachten Sie den Vektorraum .Z2 /3 über
Z2 , sowie die Teilmengen
ˇ
˚
U1 D a 2 .Z2 /3 ˇ a1 D .a2 a3 /2 C a3 und a1 a2 D .a3 a1 /.a3 C a1 /
(4.120)
und
ˇ
˚
U2 D a 2 .Z2 /3 ˇ a1 D .a2 a3 /2 C 1 und a1 a2 D .a3 a1 /.a3 C a1 / :
(4.121)
i.) Wie viele Elemente haben diese Teilmengen?
ii.) Welche dieser Teilmengen ist ein Unterraum? Bestimmen Sie gegebenenfalls
die Dimension.
Übung 4.16 (Unterräume von Funktionen I). Betrachten Sie den Vektorraum
Abb.R; R/ aller Abbildungen von R nach R. Seien weiter „; m; E 2 R fest
gewählt, und sei V W R ! R eine fest gewählte stetige Funktion. Welche der
folgenden Teilmengen
ˇ
˚
U1 D f 2 Abb.R; R/ ˇ f .1/ D f .4/ D f .
/ D 0 ;
ˇ
˚
U2 D f 2 Abb.R; R/ ˇ f .x/ D a sin.x/ C b cos.x/ mit a; b 2 R ;
ˇ
˚
U3 D f 2 Abb.R; R/ ˇ f .x/ D eax mit a 2 R ;
(4.122)
(4.123)
(4.124)
124
4 Lineare Gleichungssysteme und Vektorräume
ˇ
n
ˇ
U4 D f 2 Abb.R; R/ ˇ f ist C 2 und „2 00
f .x/
2m
o
C V .x/f .x/ D Ef .x/ ;
(4.125)
n
U5 D f
n
U6 D f
n
U7 D f
n
U8 D f
ˇ
o
ˇ
2 Abb.R; R/ ˇ f .x/ D V .x/ für x > 0 ;
ˇ
o
ˇ
2 Abb.R; R/ ˇ f ist C 1 ;
ˇ
o
ˇ
2 Abb.R; R/ ˇ f ist C 1 und f 0 .0/ D 2 ;
ˇ
o
ˇ
2 Abb.R; R/ ˇ f ist C 1 und f 0 .x/ D 0 für x 0
(4.126)
(4.127)
(4.128)
(4.129)
sind Untervektorräume? Verwenden und zitieren Sie die erforderlichen Ergebnisse
aus der Analysis.
Übung 4.17 (Unterräume von Funktionen II). Betrachten Sie den Vektorraum
Abb.R2 ; R/ aller Abbildungen von R2 nach R. Seien weiter f1 , f2 , f3 , f4 2
Abb.R2 ; R/ durch
f1 .x; y/ D max.x; y/; f2 .x; y/ D min.x; y/; f3 .x; y/ D x; und f4 .x; y/ D y
(4.130)
definiert.
i.) Sind die Funktionen linear unabhängig?
ii.) Bestimmen Sie eine Basis und die Dimension von spanff1 ; f2 ; f3 ; f4 g.
Übung 4.18 (Vereinigung von Unterräumen). Sei V ein k-Vektorraum, und
seien U1 ; U2 V Unterräume von V . Zeigen Sie, dass deren Vereinigung U1 [ U2
genau dann wieder ein Unterraum ist, wenn U1 U2 oder U2 U1 gilt.
Übung 4.19 (Komplementärraum). Bestimmen Sie einen möglichst einfachen
Komplementärraum der Nullfolgen c0 innerhalb aller konvergenten Folgen c. Was
ist die Dimension des Komplementärraums?
Übung 4.20 (Gerade und ungerade Funktionen). Betrachten Sie den Vektorraum aller Funktionen Abb.R; R/ von R nach R mit seiner üblichen Vektorraumstruktur. Sei weiter
ˇ
˚
(4.131)
Ugerade D f 2 Abb.R; R/ ˇ f .x/ D f .x/ für alle x 2 R
und
ˇ
˚
Uungerade D f 2 Abb.R; R/ ˇ f .x/ D f .x/ für alle x 2 R :
(4.132)
i.) Veranschaulichen Sie sich graphisch die Bedeutung der Begriffe gerade Funktion und ungerade Funktion.
4.6 Übungen
125
ii.) Zeigen Sie, dass Ugerade und Uungerade Untervektorräume von Abb.R; R/ sind.
iii.) Zeigen Sie Abb.R; R/ D Ugerade ˚ Uungerade .
Übung 4.21 (Die reellen Zahlen als Q-Vektorraum). Wir betrachten die reellen
Zahlen R als Vektorraum über Q gemäß Korollar 4.15.
p
i.) Zeigen Sie, dass p für jede Primzahl p irrational ist.
p
ii.) Zeigen Sie, dass 1 und p für eine Primzahl p linear unabhängig über Q sind.
Übung 4.22 (Dimension des Folgenraums). Betrachten Sie den Körper k D Z2
als einfachsten und kleinsten Körper. Zeigen Sie, dass der Folgenraum kN der
Folgen mit Werten in k keine abzählbare Basis hat.
Hinweis: Zeigen Sie zunächst, dass kN überabzählbar viele Elemente besitzt. Sei dann fen gn2N
eine abzählbare Teilmenge von Folgen. Betrachten Sie
ˇ
o
n
ˇ
Uk D v 2 kN ˇ v D 1 en1 C C k enk mit 1 ; : : : ; k 2 k; n1 ; : : : ; nk 2 N :
Zeigen Sie, dass Uk abzählbar ist und dass
spanfen gn2N D
[1
kD1
Uk
gilt. Folgern Sie so, dass der Spann von abzählbar vielen Vektoren nicht ganz kN sein kann.
Übung 4.23 (Dimension von R über Q). Zeigen Sie, dass R als Q-Vektorraum
keine abzählbare Basis besitzt.
Hinweis: Die richtige Idee finden Sie vielleicht in Übung 4.22. Versuchen Sie nicht, die Basis
konstruktiv anzugeben.
Übung 4.24 (Dimension von C.Œa; b; R/). Zeigen Sie, dass der Vektorraum
C .Œa; b; R/ der stetigen, reellwertigen Funktionen auf einem kompakten Intervall
Œa; b mit a < b keine abzählbare Basis besitzt.
Hinweis: Sei c 2 .a; b/. Konstruieren Sie eine stetige Funktion fc mit der Eigenschaft, dass
fc .x/ > 0 für x < c und fc .x/ D 0 für x c. Zeigen Sie dann, dass alle diese Funktionen
ffc gc2.a;b/ linear unabhängig sind. Können Sie fc sogar unendlich-oft stetig differenzierbar
einrichten, um zu zeigen, dass auch der Vektorraum der unendlich-oft stetig differenzierbaren
Funktionen eine überabzählbare Basis haben muss?
Übung 4.25 (Lineare Unabhängigkeit über verschiedenen Körpern). Betrachten Sie V D C2 einmal als komplexen Vektorraum und einmal als reellen Vektorraum gemäß Übung 4.27. Seien weiter
v1 D
1Ci
und
1i
v2 D
1
:
i
(4.133)
126
4 Lineare Gleichungssysteme und Vektorräume
i.) Zeigen Sie, dass fv1 ; v2 g über C linear abhängig ist, über R dagegen nicht.
ii.) Sei U D C- spanfv1 ; v2 g. Bestimmen Sie dimR .U / und dimC .U /, indem Sie
in beiden Fällen eine Basis angeben.
Übung 4.26 (Komplex-konjugierter Vektorraum I). Sei V ein komplexer Vektorraum. Definieren Sie auf der abelschen Gruppe .V; C/ durch
z v D zv
(4.134)
eine neue Multiplikation mit Skalaren z 2 C für v 2 V . Zeigen Sie, dass .V; C/ mit
diesem ebenfalls ein komplexer Vektorraum ist. Man schreibt dann suggestiver V
anstelle von V und bezeichnet die Elemente von V mit v, sodass (4.134) zu zv D zv
wird. Machen Sie sich klar, dass diese Schreibweise vernünftig ist.
Übung 4.27 (Vektorräume über Körpererweiterungen). Sei W k ! K ein
Körpermorphismus zwischen zwei Körpern. Sei weiter V ein Vektorraum über K.
i.) Zeigen Sie, dass vermöge x v D .x/v für x 2 k und v 2 V die abelsche
Gruppe .V; C/ zu einem Vektorraum über k wird.
ii.) Sei B V ein Erzeugendensystem von V als K-Vektorraum. Ist B dann auch
ein Erzeugendensystem von V als k-Vektorraum?
iii.) Sei B V linear unabhängig in V als K-Vektorraum. Ist B dann auch linear
unabhängig in V als k-Vektorraum?
iv.) Wie verändern sich die Aussagen in Teil ii.) und iii.), wenn man die Rollen von
k und K vertauscht?
v.) Was können Sie über die Beziehung von dimk V und dimK V sagen? Finden
Sie entsprechende Beispiele, um Ihre Behauptungen zu belegen.
vi.) Betrachten Sie nun k D K D C mit .z/ D z. Zeigen Sie, dass die
obige Konstruktion in diesem Fall den komplex-konjugierten Vektorraum V
aus Übung 4.26 liefert. Finden Sie so Aussagen über den komplex-konjugierten
Vektorraum.
Hinweis: Für alle Teile ist Übung 3.23, i.), von Bedeutung.
Übung 4.28 (Dimension von Unterräumen). Sei U V ein Unterraum eines
k-Vektorraums.
i.) Zeigen Sie dim U dim V .
ii.) Ist V endlich-dimensional, so gilt dim U D dim V genau dann, wenn U D V .
iii.) Geben Sie ein Beispiel für einen unendlich-dimensionalen Vektorraum V mit
einem echten Unterraum U , sodass dim U D dim V gilt.
4.6 Übungen
127
Übung 4.29 (Linearer Spann und Basen). Sei W V eine nichtleere Teilmenge
eines Vektorraums über k. Zeigen Sie, dass es für den k-Spann U D k- span W eine
Basis gibt, die aus Vektoren in W besteht.
Übung 4.30 (Reelle Dimension komplexer Vektorräume). Sei V ein komplexer
Vektorraum.
i.) Zeigen Sie, dass V auf natürliche Weise auch ein reeller Vektorraum ist, indem
Sie die reelle Vektorraumstruktur explizit angeben.
ii.) Sei B V eine Basis des komplexen Vektorraums. Zeigen Sie, dass die Menge
˚ ˇ
BR D B [ iB D B [ ib ˇ b 2 B
(4.135)
eine Basis des reellen Vektorraums V ist.
iii.) Sei dimC V < 1. Zeigen Sie, dass
dimR V D 2 dimC V:
(4.136)
Übung 4.31 (Komplexifizierung I). Sei V ein reeller Vektorraum.
i.) Zeigen Sie, dass dann VC D V ˚V mit der üblichen abelschen Gruppenstruktur
sowie mit
C VC 3 .z; .v; w// 7! .Re.z/v Im.z/w; Im.z/v C Re.z/w/ 2 VC
(4.137)
als Multiplikation mit Skalaren zu einem komplexen Vektorraum wird.
ii.) Sei B V eine Basis von V . Zeigen Sie, dass dann die Vektoren .b; 0/ 2 VC
für b 2 B eine Basis von VC bilden.
iii.) Interpretieren und rechtfertigen Sie die Schreibweise VC D V ˚ iV .
iv.) Zeigen Sie, dass
dimC VC D dimR V:
(4.138)
Übung 4.32 (Basis von Unterräumen). Betrachten Sie den reellen Vektorraum
R3 sowie
80 1
9
80 1 0 1 0 19
4 =
1
< x1 ˇ
=
< 2
ˇ
U1 D @x2 A ˇ x1 C x2 C x3 D 0
und U2 D span @ 3 A; @1A; @ 1 A :
;
:
;
:
7
3
1
x3
(4.139)
i.) Zeigen Sie, dass U1 ein Unterraum von R3 ist.
ii.) Bestimmen Sie die Dimensionen von U1 , U2 , U1 C U2 und U1 \ U2 . Ist die
Summe U1 C U2 direkt?
128
4 Lineare Gleichungssysteme und Vektorräume
Übung 4.33 (Affine Räume I). In Kap. 1 hatten wir den Anschauungsraum mit
dem Vektorraum R3 identifiziert, nachdem wir einen Ursprung des Koordinatensystems gewählt hatten. Dieser ist sowohl aus physikalischer als auch aus
mathematischer Sicht sehr willkürlich gewählt. Der Begriff des affinen Raums trägt
dieser Situation nun Rechnung. Wir betrachten dazu allgemein eine Gruppenwirkung
˚W G M ! M
(4.140)
einer Gruppe G auf einer (nichtleeren) Menge M , siehe Übung 3.14. Die Wirkung
heißt frei, falls alle Stabilisatorgruppen Gp für p 2 M trivial sind, also ˚g .p/ D p
für ein p 2 M nur für g D e gelten kann. Die Wirkung heißt transitiv, wenn es zu
je zwei Punkten p; q 2 M ein Gruppenelement g 2 G mit ˚g .p/ D q gibt.
i.) Sei ˚W G M ! M eine freie und transitive Wirkung. Zeigen Sie, dass für
jedes p 2 M die Abbildung
˚p W G 3 g 7! ˚g .p/ 2 M
(4.141)
eine Bijektion ist. Zeigen Sie weiter, dass diese Abbildung die kanonische
Wirkung von G auf sich durch Linksmultiplikationen in die Wirkung ˚ auf
M übersetzt. Man kann also M mit der Gruppe als Menge mit G-Wirkung
identifizieren. Allerdings ist die Identifikation nicht kanonisch, da sie ja von der
willkürlichen Wahl p abhängt.
Ist nun V ein Vektorraum über einem Körper k, so heißt eine Menge A mit einer
Gruppenwirkung der abelschen Gruppe .V; C/ ein affiner Raum über V , falls die
Wirkung frei und transitiv ist. Wir schreiben die Wirkung von V auf A daher auch
als ˚v .a/ D a C v für v 2 V und a 2 A. Nach Wahl eines Ursprungs o 2 A können
wir A gemäß Teil i.) mit V identifizieren, sodass die Gruppenwirkung einfach die
Addition in V wird.
ii.) Zeigen Sie, dass folgende Definition zu einem affinen Raum äquivalent ist: A
heißt affiner Raum über V , wenn es eine Abbildung, die Differenz,
W A A ! V
(4.142)
gibt, welche für jedes a 2 A eine Bijektion a W A ! V liefert und a b D
.b a/ und a c D .a b/ .b c/ für alle a; b; c 2 A erfüllt. Man beachte
die unterschiedlichen Bedeutungen von in diesen Bedingungen.
iii.) Zeigen Sie, dass jeder Vektorraum V ein affiner Raum über sich selbst ist.
iv.) Betrachten Sie ein lineares Gleichungssystem wie in (4.1). Zeigen Sie, dass
R
R
Los.A;
b/ entweder leer oder ein affiner Raum über Los.A;
0/ ist.
v.) Sei U V ein Unterraum und a 2 V fest gewählt. Zeigen Sie, dass die Menge
4.6 Übungen
129
ˇ
˚
aCU D aCuˇu2U
(4.143)
auf kanonische Weise (wie?) zu einem affinen Raum über U wird. Zeigen Sie,
dass a CU D b CU genau dann, wenn a b 2 U gilt. Man nennt diese affinen
Räume aus naheliegenden Gründen affine Unterräume von V .
vi.) Interpretieren Sie nun unsere Begriffsbildungen und Ergebnisse zu Geraden
und Ebenen aus Kap. 1 im Lichte dieser neuen Erkenntnisse.
Übung 4.34 (Gemeinsames Komplement). Seien U1 ; U2 V Unterräume eines
endlich-dimensionalen Vektorraums V über k. Zeigen Sie, dass U1 und U2 genau
dann die gleiche Dimension haben, wenn es ein gemeinsames Komplement W V
gibt, also U1 ˚ W D V D U2 ˚ W .
Übung 4.35 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen
falsche Aussagen richtig werden.
i.) Es gibt einen Vektorraum V über Z2 mit 15 (mit 16) Elementen.
ii.) Jede unendliche Teilmenge der Polynome kŒx enthält eine Basis.
iii.) Sei A kŒx eine Teilmenge, sodass für jedes n 2 N0 ein Polynom pn 2 A
mit Grad n existiert. Dann enthält A eine Basis von kŒx.
iv.) T
Es gibt einen Vektorraum V mit Unterräumen fUn gn2N derart, dass
n2N Un D f0g, dass alle Unterräume isomorph zu V sind und dass
UnC1 Un für alle n 2 N eine echte Inklusion ist.
v.) Die Funktionen f1 ; f2 ; f3 2 Abb.R; R/ mit f1 .x/ D x, f2 .x/ D x C 1 und
f3 .x/ D jxj sind linear unabhängig.
vi.) Für Unterräume U1 ; U2 V gilt U1 [ U2 D U1 C U2 genau dann, wenn
U1 U2 oder U2 U1 .
vii.) Die direkte Summe von 3 zweidimensionalen Unterräumen mit paarweise
trivialem Schnitt im R5 (im R6 ) ist immer direkt (nie direkt, kann direkt sein).
viii.) Sind Ui V Unterräume mit i D 1; : : : ; k und gilt k > dim V , so ist U1 C
C Uk nicht direkt.
ix.) Die Unterraumsumme U1 C C Uk von zweidimensionalen Unterräumen
U1 ; : : : ; Uk V mit Ui \ Uj D f0g für i ¤ j ist direkt, wenn 2k dim V .
5
Lineare Abbildungen und Matrizen
Wie auch schon für Monoide, Gruppen, Ringe und Körper wollen wir nun auch für
Vektorräume den richtigen Begriff von strukturerhaltender Abbildung etablieren.
Das wird auf die linearen Abbildungen führen, die wir in diesem Kapitel eingehend
studieren werden. Nach einigen ersten Eigenschaften und Beispielen werden wir
lineare Abbildungen in Bezug auf gewählte Basen durch Matrizen beschreiben.
Matrizen sind uns implizit bei der Formulierung des Gauß-Algorithmus bereits
begegnet. In diesem Kapitel werden wir nun Matrizen genauer betrachten. Eine
spezielle Variante der linearen Abbildungen sind die linearen Funktionale, welche
den Dualraum eines Vektorraums bilden. Die Beziehungen von Vektorraum und
seinem Dualraum werden von fundamentaler Bedeutung sein, und ihr Studium zieht
sich als roter Faden durch viele weiterführende Bereiche der Mathematik. In diesem
Kapitel ist k wieder ein fest gewählter Körper.
5.1
Definition und erste Beispiele
Seien V und W Vektorräume über k. Dann sind .V; C/ und .W; C/ insbesondere
abelsche Gruppen, und wir können daher von Gruppenmorphismen ˚W .V; C/ !
.W; C/ sprechen. Ist ˚W .V; C/ ! .W; C/ ein Gruppenmorphismus, so nennen
wir ˚ auch additiv. Da aber ein Vektorraum noch eine weitere Struktur, nämlich die
Multiplikation mit Skalaren, trägt, wollen wir auch eine Kompatibilität mit dieser
erzielen. Die folgende Definition leistet das Gewünschte:
Definition 5.1 (Lineare Abbildung). Seien V und W Vektorräume über k und
˚W V ! W eine Abbildung. Dann heißt ˚ linear, falls ˚ ein Gruppenmorphismus
bezüglich der Addition in V und W ist und die Eigenschaft
˚. v/ D ˚.v/
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_5
(5.1)
131
132
5 Lineare Abbildungen und Matrizen
für alle 2 k und v 2 V erfüllt. Die Menge der linearen Abbildungen von V nach
W bezeichnen wir mit
ˇ
˚
Homk .V; W / D ˚W V ! W ˇ ˚ ist linear :
(5.2)
Ist der Bezug zum Körper k klar, so schreiben wir auch einfach Hom.V; W /
anstelle von Homk .V; W /. Für lineare Abbildungen ist es weiterhin üblich, einfach
˚v D ˚.v/
(5.3)
für die Anwendung der Abbildung ˚ auf den Vektor v 2 V zu schreiben. Alternativ
bezeichnen wir lineare Abbildungen auch als lineare Operatoren oder auch kurz als
Operatoren. Die Verwendung von großen lateinischen Buchstaben A, B, . . . anstelle
von ˚, , . . . ist ebenfalls üblich.
Die folgende leichte Umformulierung liefert ein einfaches Kriterium für die
Linearität von Abbildungen.
Proposition 5.2. Sei ˚W V ! W eine Abbildung zwischen Vektorräumen über k.
Dann sind äquivalent:
i.) Die Abbildung ˚ ist linear.
ii.) Für alle v; u 2 V und ; 2 k gilt
˚.v C u/ D ˚.v/ C ˚.u/:
(5.4)
iii.) Für alle n 2 N und alle v1 ; : : : ; vn 2 V und 1 ; : : : ; n 2 k gilt
˚
n
X
kD1
!
k vk
D
n
X
k ˚.vk /:
(5.5)
kD1
Beweis. Offensichtlich gilt iii.) H) ii.). Die Implikation ii.) H) iii.) erhält
man durch wiederholtes Anwenden von (5.4). Sei also ˚ linear und v; u 2 V und
; 2 k. Dann gilt
˚.v C u/ D ˚.v/ C ˚.u/ D ˚.v/ C ˚.u/;
da ˚ ein Gruppenmorphismus bezüglich C ist und (5.1) gilt. Dies zeigt i.) H)
ii.). Gelte umgekehrt ii.). Dann setzt man zunächst D 1 D und erhält
˚.v C u/ D ˚.v/ C ˚.u/;
womit ˚ ein Gruppenmorphismus bezüglich C ist. Setzt man D 0, so folgt
5.1 Definition und erste Beispiele
133
˚.v/ D ˚.v C 0 u/ D ˚.v/ C 0 ˚.u/ D ˚.v/;
t
u
also (5.1).
Bemerkung 5.3. Sei ˚W V ! W eine lineare Abbildung. Dann gilt für alle v 2 V
˚.v/ D ˚.v/
(5.6)
˚.0/ D 0:
(5.7)
sowie
Dies folgt aus der Tatsache, dass ˚ ein Gruppenmorphismus bezüglich der Addition
ist, siehe Proposition 3.22.
Lineare Abbildungen verhalten sich gut bezüglich der Verkettung und Umkehrung. Dank der allgemeinen Proposition 3.3 ist dies für die Eigenschaften bezüglich
C klar, für die Multiplikation mit Skalaren muss noch etwas gezeigt werden:
Proposition 5.4. Seien ˚W V ! W und W W ! U lineare Abbildungen
zwischen Vektorräumen V , U und W über k.
i.) Die Hintereinanderausführung ı ˚W V ! U ist wieder linear.
ii.) Die Identitätsabbildung idV W V ! V ist linear.
iii.) Ist ˚ zudem bijektiv, so ist ˚ 1 W W ! V auch linear.
Beweis. Nach Proposition 3.3 wissen wir bereits, dass ı ˚, id und im invertierbaren Fall auch ˚ 1 additiv sind. Sei also v 2 V und 2 k, dann gilt
. ı ˚/.v/ D .˚.v// D .˚.v// D .˚.v// D . ı ˚/.v/
und somit i.). Für idV ist die Linearität klar. Ist ˚ nun invertierbar, und sei
˚ 1 W W ! V die zugehörige inverse Abbildung, so gilt für w D ˚.v/ 2 W
und 2 k
˚ 1 .w/ D ˚ 1 .˚.v// D ˚ 1 .˚.v// D v D ˚ 1 .w/;
da w D ˚.v/ mit v D ˚ 1 .w/.
t
u
Bemerkung 5.5 (Isomorphie von Vektorräumen). Gemäß unserer allgemeinen Vorgehensweise nennen wir zwei Vektorräume V und W isomorph, wenn es einen
Isomorphismus ˚W V ! W gibt, also eine invertierbare lineare Abbildung ˚.
134
5 Lineare Abbildungen und Matrizen
In diesem Fall ist auch ˚ 1 W W ! V ein Isomorphismus, und wir erhalten eine
Äquivalenzrelation. Eine wichtige Aufgabe wird also darin bestehen, Vektorräume
über k bis auf Isomorphie zu klassifizieren.
Wir kommen nun zu einigen ersten Beispielen für lineare Abbildungen:
Beispiel 5.6 (Nullabbildung). Sind V und W Vektorräume über k, so ist die Abbildung
0W V 3 v 7! 0 2 W
(5.8)
eine lineare Abbildung, die Nullabbildung. Diese entspricht dem trivialen Gruppenmorphismus.
Beispiel 5.7 (Auswertungsabbildung). Sei M eine nichtleere Menge. Für den Vektorraum Abb.M; k/ und einen Punkt p 2 M definiert man die Abbildung
ıp W Abb.M; k/ 3 f 7! f .p/ 2 k:
(5.9)
Diese ist offenbar linear, da die Vektorraumstruktur von Abb.M; k/ gerade punktweise erklärt wurde. Man nennt sie die Auswertung oder auch die Evaluation
bei p.
Beispiel 5.8. Sei aE 2 R3 ein fest gewählter Vektor. Dann ist die Abbildung
R3 3 vE 7! aE vE 2 R3
(5.10)
eine lineare Abbildung. Diesen Sachverhalt haben wir in Proposition 1.15, i.), wenn
auch noch nicht unter dieser Bezeichnung, gezeigt.
Beispiel 5.9 (Limes). Wir betrachten den Vektorraum der reellen konvergenten
Folgen c aus Beispiel 4.22. Dann ist
limW c 3 .an /n2N 7!
lim an 2 R
n!1
(5.11)
eine lineare Abbildung. Dies folgt aus den Rechenregeln für den Grenzwert von
konvergenten Folgen.
Beispiel 5.10 (Ableitung). Wir betrachten den Vektorraum der Polynome kŒx mit
Koeffizienten in k. Dann definiert man (rein algebraisch, ohne Einsatz von Analysis)
die Ableitung von p 2 kŒx durch
p0 D
d
d
pD
.an x n C C a1 x C a0 / D nan x n1 C C 2a2 x C a1
dx
dx
(5.12)
5.1 Definition und erste Beispiele
135
d
und erhält eine lineare Abbildung dx
W kŒx ! kŒx. Alternativ kann man etwa die
k-mal stetig differenzierbaren Funktionen C k .R; R/ von R nach R betrachten. Die
üblichen Regeln aus der Analysis besagen dann, dass C k .R; R/ Abb.R; R/ ein
Unterraum ist mit
C k .R; R/ C ` .R; R/
(5.13)
für alle k; ` 2 N0 mit k `. Dann ist die Ableitung
d
W C k .R; R/ ! C ` .R; R/
dx
(5.14)
eine lineare Abbildung, sofern k > `.
Beispiel 5.11 (Integration). Wir betrachten den reellen Vektorraum der stetigen
Funktionen C.Œa; b; R/ auf einem abgeschlossenen Intervall Œa; b R. Aus
der Analysis ist bekannt, dass diese integrierbar sind (beispielsweise im RiemannSinne). Das Integral
Z
b
W C.Œa; b; R/ 3 f 7!
a
Z
b
f .x/dx 2 R
(5.15)
a
ist dann eine lineare Abbildung.
Beispiel 5.12 (Koordinaten). Sei V ein Vektorraum und B V eine Basis. Für
einen Vektor v 2 V betrachten wir die Koordinaten vb 2 k, welche durch
X
vb b
(5.16)
vD
b2B
eindeutig bestimmt sind, siehe Definition 4.42. Wir behaupten, dass die Koordinatenabbildungen
V 3 v 7! vb 2 k
(5.17)
linear sind. Um dies zu sehen, betrachten wir also v; w 2 V und ; 2 k. Dann gilt
X
b2B
.v C w/b b D v C w D X
b2B
vb b C X
wb b D
b2B
X
.vb C wb / b:
b2B
Da B eine Basis ist, sind die Entwicklungskoeffizienten eindeutig bestimmt. Es folgt
daher für alle b 2 B
.v C w/b D vb C wb ;
136
5 Lineare Abbildungen und Matrizen
was die gewünschte Linearität von (5.17) ist. Man beachte, dass wie immer für ein
festes v 2 V nur endlich viele Koeffizienten vb ungleich null sind.
Kontrollfragen. Wieso ist die Verkettung von linearen Abbildungen linear? Was
bedeutet Isomorphie von Vektorräumen? Was ist ein Auswertungsfunktional? Wieso
sind die Koordinatenabbildungen linear?
5.2
Eigenschaften von linearen Abbildungen
Wir wollen nun verschiedene erste Eigenschaften von linearen Abbildungen zusammentragen. Wir beginnen mit dem Kern und dem Bild einer linearen Abbildung. Die
Definition des Kerns nimmt dabei auf die Eigenschaft einer linearen Abbildung, ein
Gruppenmorphismus bezüglich „C“ zu sein, Bezug.
Definition 5.13 (Kern und Bild). Sei ˚W V
zwischen Vektorräumen über k.
! W eine lineare Abbildung
i.) Der Kern von ˚ ist definiert als
ˇ
˚
ker ˚ D v 2 V ˇ ˚.v/ D 0 :
(5.18)
ii.) Das Bild von ˚ ist definiert als
ˇ
˚
im ˚ D w 2 W ˇ es existiert ein v 2 V mit w D ˚.v/ :
(5.19)
Mit anderen Worten, der Kern ker ˚ ist definiert wie im Beispiel 3.11, iii.),
und verwendet daher nur die Monoidstruktur von V bezüglich der Addition. Die
Definition des Bildes im ˚ ist sogar gänzlich allgemein und stimmt mit der rein
mengentheoretischen Definition aus (B.64) überein.
Proposition 5.14 (Kern und Bild). Sei ˚W V ! W eine lineare Abbildung
zwischen Vektorräumen über k.
i.)
ii.)
iii.)
iv.)
Der Kern ker ˚ V ist ein Untervektorraum von V .
Es gilt genau dann ker ˚ D f0g, wenn ˚ injektiv ist.
Das Bild im ˚ W ist ein Untervektorraum von W .
Es gilt genau dann im ˚ D W , wenn ˚ surjektiv ist.
Beweis. Wir wissen bereits nach Proposition 3.24, i.), dass ker ˚ eine Untergruppe
der abelschen Gruppe .V; C/, also unter C abgeschlossen ist und 0 2 ker ˚ erfüllt.
Sei also 2 k und v 2 ker ˚, dann gilt
˚. v/ D ˚.v/ D 0 D 0;
5.2 Eigenschaften von linearen Abbildungen
137
womit auch v 2 ker ˚. Dies ist aber bereits alles, was wir zeigen müssen, damit
ker ˚ tatsächlich ein Unterraum wird. Die zweite Aussage gilt allgemein für Gruppenmorphismen. Da eine lineare Abbildung insbesondere ein Gruppenmorphismus
bezüglich der Addition ist, können wir uns hierfür also auf Proposition 3.26 berufen.
Sei nun w D ˚.v/ 2 im ˚ mit v 2 V und 2 k. Nach Proposition 3.24, ii.),
wissen wir, dass im ˚ eine Untergruppe bezüglich der Addition ist. Weiter gilt
˚.v/ D ˚.v/ D w, was w 2 im ˚ zeigt. Damit ist im ˚ ein Unterraum
von W . Der letzte Teil ist nach der Definition von Surjektivität klar.
t
u
Wir betrachten nun die Menge aller linearen Abbildungen Hom.V; W /, die durch
folgende Definition zu einem Vektorraum wird:
Proposition 5.15 (Der Vektorraum Hom.V; W /). Seien V und W Vektorräume
über k. Dann wird Hom.V; W / vermöge
.˚ C /.v/ D ˚.v/ C .v/
(5.20)
. ˚/.v/ D ˚.v/
(5.21)
und
ein Vektorraum über k, wobei ˚; 2 Hom.V; W / sowie v 2 V und 2 k.
Beweis. Nach Beispiel 4.11 wissen wir, dass die Menge aller Abbildungen von
einer Menge V in einen Vektorraum W selbst einen Vektorraum bildet, wenn
man Addition und Multiplikation mit Skalaren punktweise erklärt. Was also zu
zeigen ist, ist dass Hom.V; W / Abb.V; W / ein Untervektorraum ist. Nach
Beispiel 5.6 wissen wir, dass die Nullabbildung 0 2 Abb.V; W / linear ist. Damit
ist 0 2 Hom.V; W / und Hom.V; W / ¤ ;. Seien nun ˚; 2 Hom.V; W / und
v; v 0 2 V sowie ; ; 0 2 k. Dann gilt
.˚ C /.v C 0 v 0 / D ˚.v C 0 v/ C .v C 0 v 0 /
.a/
D ˚.v/ C 0 ˚.v 0 / C .v/ C 0 .v 0 /
D .˚.v/ C .v// C 0 .˚.v 0 / C .v 0 //
D .˚ C /.v/ C 0 .˚ C /.v 0 /
sowie
. ˚/.v C 0 v 0 / D ˚.v C 0 v 0 /
.a/
D .˚.v/ C 0 ˚.v 0 //
D ˚.v/ C 0 ˚.v 0 /
D . ˚/.v/ C 0 . ˚/.v 0 /;
138
5 Lineare Abbildungen und Matrizen
wobei wir jeweils in (a) die Linearität von ˚ und beziehungsweise die von ˚
verwendet haben. Damit folgt nach Proposition 5.2, dass sowohl ˚ C als auch
˚ wieder lineare Abbildungen sind. Somit ist Hom.V; W / nicht leer und unter
Addition und Multiplikation mit Skalaren abgeschlossen, also selbst ein Unterraum
nach Proposition 4.17.
t
u
Diese Vektorraumstruktur von Hom.V; W / verträgt sich gut mit der Hintereinanderausführung von Abbildungen. Nach Proposition 5.4, i.), wissen wir, dass
ıW Hom.W; U / Hom.V; W / 3 . ; ˚/ 7! ı ˚ 2 Hom.V; U /
(5.22)
gilt, wobei V , W und U Vektorräume über k seien. Wir haben nun folgende Bilinearitätseigenschaften der Verkettung ı:
Proposition 5.16. Seien V , W und U Vektorräume über k. Dann ist die Hintereinanderausführung ı von linearen Abbildungen in jedem Argument linear, d. h., für
˚; ˚ 0 2 Hom.V; W / und ; 0 2 Hom.W; U / sowie für ; 0 2 k gilt
ı .˚ C 0 ˚ 0 / D . ı ˚/ C 0 . ı ˚ 0 /
(5.23)
. C 0 0 / ı ˚ D . ı ˚/ C 0 . 0 ı ˚/:
(5.24)
und
Beweis. Um die Gleichheit von Abbildungen von V nach U zu zeigen, genügt es
ganz allgemein, dass wir die Gleichheit der Werte in U für beliebige Punkte aus V
zeigen. Sei also v 2 V , dann rechnen wir unter Verwendung der Definition und der
Linearität der beteiligten Abbildungen nach, dass
. ı .˚ C 0 ˚ 0 //.v/ D ..˚ C 0 ˚ 0 /.v//
D .˚.v/ C 0 ˚ 0 .v//
D .˚.v// C 0 .˚ 0 .v//
D . ı ˚/.v/ C 0 . ı ˚ 0 /.v/
sowie
.. C 0 0 / ı ˚/.v/ D . C 0 0 /.˚.v//
D .˚.v// C 0 0 .˚.v//
D . ı ˚/ C 0 . 0 ı ˚/.v/:
Man mache sich im Detail klar, wo die Linearität von ˚ und verwendet wurde.
t
u
5.2 Eigenschaften von linearen Abbildungen
139
Nehmen wir nun die Resultate aus Propositions 5.4, 5.15 und 5.16 zusammen, so
erhalten wir insbesondere folgendes Resultat:
Korollar 5.17 (Der Ring End.V /). Sei V ein Vektorraum über k. Dann bilden die
Endomorphismen End.V / bezüglich der Addition (5.20) und der Hintereinanderausführung ı einen Ring mit Einselement 1 D idV .
Man beachte, dass die Verkettung von Abbildungen prinzipiell assoziativ ist, also
insbesondere auch für lineare Abbildungen.
Die vorerst letzten wichtigen Eigenschaften von linearen Abbildungen liegen im
Zusammenspiel mit linear unabhängigen Teilmengen und Basen. Hier betrachten
wir zunächst folgende Charakterisierung von Injektivität und Surjektivität:
Proposition 5.18. Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen
über k.
i.) Die Abbildung ˚ ist genau dann injektiv, wenn für n 2 N und für linear
unabhängige Vektoren v1 ; : : : ; vn 2 V die Vektoren ˚.v1 /; : : : ; ˚.vn / 2 W
auch linear unabhängig sind.
ii.) Die Abbildung ˚ ist genau dann surjektiv, wenn für ein beliebiges Erzeugendensystem U V auch ˚.U / W ein Erzeugendensystem ist.
Beweis. Sei ˚ mit der Eigenschaft gegeben, dass linear unabhängige Vektoren auf
linear unabhängige Vektoren abgebildet werden. Ist V D f0g, so ist ˚ sicherlich
injektiv. Ist V ¤ f0g, so ist für einen Vektor v 2 V n f0g die Menge fvg linear
unabhängig, nach Voraussetzung also auch f˚.v/g linear unabhängig. Damit ist also
˚.v/ ¤ 0, und es folgt ker ˚ D f0g. Nach Proposition 5.14, ii.), ist dies genau dann
der Fall, wenn ˚ injektiv ist. Sei umgekehrt ˚ injektiv und seien v1 ; : : : ; vn linear
unabhängige Vektoren mit n 2 N. Seien nun 1 ; : : : ; n 2 k mit
1 ˚.v1 / C C ˚.vn / D 0
gegeben. Dann gilt aufgrund der Linearität auch
˚.1 v1 C C n vn / D 0;
und nach Voraussetzung folgt 1 v1 C C n vn D 0. Dann liefert die lineare
Unabhängigkeit der v1 ; : : : ; vn aber 1 D D n D 0, was die lineare
Unabhängigkeit von ˚.v1 /; : : : ; ˚.vn / zeigt. Für den zweiten Teil sei U V ein
Erzeugendensystem. Ist ˚ surjektiv und w 2 W , so gibt es ein v 2 V mit ˚.v/ D w.
Für dieses v finden wir 1 ; : : : ; n 2 k und u1 ; : : : ; un 2 U mit
v D 1 u1 C C n un :
(5.25)
140
5 Lineare Abbildungen und Matrizen
Dann gilt dank der Linearität von ˚ auch
w D 1 ˚.u1 / C C n ˚.un /;
(5.26)
womit ˚.U / ein Erzeugendensystem ist. Ist umgekehrt ˚.U / ein Erzeugendensystem und w 2 W mit (5.26) gegeben, so gilt w D ˚.v/ mit v wie in (5.25). Daher ist
˚.V / D W .
t
u
Proposition 5.19. Sei ˚W V ! W eine lineare Abbildung. Dann sind äquivalent:
i.)
ii.)
iii.)
iv.)
Die Abbildung ˚
Die Abbildung ˚
Die Abbildung ˚
Die Abbildung ˚
ist bijektiv.
ist ein Isomorphismus.
bildet eine Basis von V bijektiv auf eine Basis von W ab.
bildet jede Basis von V bijektiv auf eine Basis von W ab.
Beweis. Die Äquivalenz von i.) und ii.) ist bereits in Bemerkung 5.5
ˇ diskutiert worden. Sei nun zunächst ˚ bijektiv und B V eine Basis. Dann ist ˚ ˇB W B ! ˚.B/
ebenfalls bijektiv. Nach Proposition 5.18, i.), ist ˚.B/ eine linear unabhängige
Teilmenge, da B linear unabhängig ist. Da B ein Erzeugendensystem von V ist,
ist auch ˚.B/ ein Erzeugendensystem von W nach Proposition 5.18, ii.). Dies zeigt
die Implikationen i.)ˇ H) iii.) sowie i.) H) iv.). Sei nun also eine Basis B V
gefunden, sodass ˚ ˇB W B ! ˚.B/ bijektiv ist und eine Basis ˚.B/ von W liefert.
Nach Proposition 5.18, ii.), ist ˚ surjektiv. Für die Injektivität können wir nicht
direkt mit Proposition 5.18, i.), argumentieren, da wir die Eigenschaft ja nur für
eine spezielle Basis vorliegen haben, nicht aber für beliebige linear unabhängige
Teilmengen. Sei also v 2 V ein Vektor mit ˚.v/ D 0. Wir schreiben
vD
X
vb b
b2B
mit den eindeutig bestimmten Koordinaten vb 2 k von v wie üblich. Dann gilt
aufgrund der Linearität von ˚
0 D ˚.v/ D
X
vb ˚.b/:
(5.27)
b2B
Da nun ˚W B ! ˚.B/ bijektiv ist, entspricht jedem b 0 D ˚.b/ 2 ˚.B/ genau ein
b 2 B. Daher können wir (5.27) auch als
0 D ˚.v/ D
X
v˚ 1 .b 0 / b 0
b 0 2˚.B/
schreiben. Da nun ˚.B/ linear unabhängig ist, folgt v˚ 1 .b 0 / D 0 für alle b 0 2 ˚.B/
und damit vb D 0 für alle b 2 B. Also gilt v D 0. Dies zeigt aber, dass ˚ injektiv
5.2 Eigenschaften von linearen Abbildungen
141
ist und dass die Implikation iii.) H) i.) gilt. Die Implikation iv.) H) iii.) ist
trivial, womit alle Äquivalenzen gezeigt sind.
u
t
Bemerkung 5.20. Da wir Basen als linear unabhängige Teilmenge B V mit
span B D V definiert hatten, ist hier etwas Vorsicht angebracht: Es genügt nicht
zu sagen, dass Basen auf Basen abgebildet werden. Man betrachte beispielsweise
die (lineare) Projektion
x
pr1 W R D R R 3
7
!
x2R
y
2
(5.28)
2
auf den
ersten Faktor,
mit der Basis von R bestehend aus den beiden Vektoren
1
1
aD
und b D
. Dann gilt als Menge
0
1
pr1 .fa; bg/ D f1g;
(5.29)
und damit bildet pr1 diese Basis von R2 auf eine Basis von R ab, nämlich die aus
dem einen Vektor 1 bestehende. Es muss also zusätzlich gesagt werden, dass die
Abbildung bijektiv ist, was hier natürlich nicht der Fall ist.
Bis jetzt ist noch nicht klar, dass es im Allgemeinen außer der Nullabbildung von
V nach W überhaupt andere lineare Abbildungen gibt. Der folgende Satz garantiert
nun die Existenz von vielen linearen Abbildungen:
Satz 5.21 (Lineare Abbildungen und Basen). Seien V und W Vektorräume über
k, und sei B V eine Basis von V .
i.) Ist ˚W V ! W eine lineare Abbildung, so ist ˚ durch die Menge der Werte
˚.b/ für b 2 B bereits eindeutig bestimmt.
ii.) Sei für jedes b 2 B ein Vektor ˚.b/ 2 W vorgegeben. Dann gibt es (genau)
eine lineare Abbildung ˚W V ! W mit diesen Werten auf B.
Beweis. Seien ˚; W V ! W zwei lineare Abbildungen mit ˚.b/ D .b/ für
alle b 2 B. Ist v 2 V , so gibt es eindeutige Koordinaten vb 2 k von v bezüglich
dieser Basis mit
X
vb b;
(5.30)
vD
b2B
wobei alle bis auf endlich viele vb verschwinden. Da dies eine endliche Summe ist,
folgt aus der Linearität von ˚ und 142
˚.v/ D ˚
5 Lineare Abbildungen und Matrizen
X
b2B
!
vb b
D
X
vb ˚.b/ D
b2B
X
vb .b/ D b2B
X
!
vb b
D .v/;
b2B
und damit ˚ D . Seien nun Vektoren f˚.b/gb2B in W vorgegeben. Dann
definieren wir für v wie in (5.30) den Wert
X
˚.v/ D
vb ˚.b/:
(5.31)
b2B
Wir behaupten, dass dies eine lineare Abbildung ˚W V ! W liefert. Nach
Beispiel 5.12 wissen wir, dass die Koordinaten v 7! vb lineare Abbildungen sind.
Damit rechnen wir nach, dass für v; v 0 2 V und ; 0 2 k
˚.v C 0 v 0 / D
X
.v C 0 v 0 /b ˚.b/
b2B
D
X
.vb C 0 vb0 / ˚.b/
b2B
D
X
vb ˚.b/ C 0
b2B
X
vb0 ˚.b/
b2B
0
0
D ˚.v/ C ˚.v /
gilt. Dies zeigt, dass ˚ tatsächlich linear ist. Offenbar nimmt ˚ wegen
bD
X
ıbb 0 b 0
b 0 2B
den vorgegebenen Wert ˚.b/ auf b 2 B an, was den zweiten Teil zeigt.
t
u
Dieser Satz ist von fundamentaler Bedeutung, da er uns eine Fülle von linearen
Abbildungen beschert, sobald wir eine Basis des Urbildraumes vorliegen haben. Da
nach Korollar 4.47 jeder Vektorraum eine Basis besitzt, erhalten wir auf diese Weise
viele lineare Abbildungen.
Bemerkung 5.22. Wir können das Resultat auch folgendermaßen verstehen: Sei
B V eine Basis, dann betrachten wir die Inklusionsabbildung W B ! V . Ist
nun W B ! W irgendeine Abbildung, so lässt sich diese auf eindeutige Weise zu
einer linearen Abbildung ˚W V ! W fortsetzen, sodass
˚ ıD
gilt. Man arrangiert diese Abbildungen nun in einem Diagramm
(5.32)
5.2 Eigenschaften von linearen Abbildungen
143
V
W
(5.33)
i
B
und sagt, dass dieses kommutiert, also (5.32) gilt. Wir werden noch öfters kommutierende Diagramme von Abbildungen vorfinden, die durchaus auch eine etwas
kompliziertere Geometrie als das obige Dreieck besitzen können.
Korollar 5.23. Sei U V ein Untervektorraum von V und W U ! W eine
lineare Abbildung. Dann existiert eine lineare Abbildung ˚W V ! W mit
ˇ
˚ ˇU D :
(5.34)
Beweis. Sei B1 U eine Basis von U , welche wir zu einer Basis B D B1 [ B2
von V ergänzen.
Dies ist nach Satz 4.46 immer möglich. Die lineare Abbildung ist
ˇ
durch ˇB1 nach Satz 5.21, i.), eindeutig bestimmt. Wir definieren nun eine lineare
Abbildung ˚ mittels Satz 5.21, ii.), auf eindeutige Weise, indem wir ˚ durch
ˇ
ˇ
˚ ˇB1 D ˇB1
und
ˇ
˚ ˇB2 D 0
t
u
festlegen.
Während linear unabhängige Vektoren unter einer nicht injektiven linearen Abbildung durchaus auf linear abhängige Vektoren abgebildet werden können, verhält
sich das Urbild hier einfacher:
Lemma 5.24. Sei ˚W V ! W eine lineare Abbildung und sei B im ˚ eine
linear unabhängige Teilmenge. Sei für jedes b 2 B ein Vektor v.b/ 2 V mit
˚.v.b// D b ausgewählt. Dann ist die Menge fv.b/ j b 2 Bg V ebenfalls
linear unabhängig.
Beweis. Seien n 2 N sowie 1 ; : : : ; n 2 k und paarweise verschiedene
v.b1 /; : : : ; v.bn / mit b1 ; : : : ; bn 2 B vorgegeben. Dann sind auch die Vektoren
b1 ; : : : ; bn paarweise verschieden, da zu jedem b 2 B ein v.b/ 2 V ausgewählt
wurde. Gilt 1 v.b1 / C C n v.bn / D 0, so gilt auch
0 D ˚.1 v.b1 / C C n v.bn //
D 1 ˚.v.b1 // C C n ˚.v.bn //
D 1 b1 C C n bn ;
womit 1 D D n D 0 folgt, weil B linear unabhängig ist.
t
u
144
5 Lineare Abbildungen und Matrizen
Satz 5.25 (Dimensionsformel für Kern und Bild). Sei ˚W V ! W eine lineare
Abbildung, und sei V endlich-dimensional. Dann sind ker ˚ V und im ˚ W
ebenfalls endlich-dimensional, und es gilt
dim V D dim ker ˚ C dim im ˚:
(5.35)
Beweis. Wir wählen eine Basis B1 ker ˚ des Unterraums ker ˚ sowie eine Basis
BQ 2 im ˚ des Bildes. Mit Lemma 5.24 sehen wir, dass eine Auswahl von Urbildern
der Elemente in BQ 2 eine linear unabhängige Teilmenge von V liefert. Insbesondere
folgt, dass es nicht mehr als dim V -viele solche Urbilder und damit dim V -viele
Elemente in BQ 2 geben kann. Dies zeigt
dim im ˚ dim V < 1:
Seien also w1 ; : : : ; wn 2 BQ 2 die endlich vielen paarweise verschiedenen Elemente
von BQ 2 und seien v1 ; : : : ; vn entsprechende Urbilder dieser, also
˚.vk / D wk
für
k D 1; : : : ; n:
Wir setzen nun B2 D fv1 ; : : : ; vn g V . Seien weiter u1 ; : : : ; um 2 B1 die paarweise
verschiedenen Basisvektoren von ker ˚. Da wk ¤ 0 für alle k D 1; : : : ; n, folgt
vk 62 ker ˚ ebenso wie u` 62 B2 für alle ` D 1; : : : ; m. Daher gilt B1 \ B2 D ;. Wir
behaupten, dass
B D B1 [ B2
eine Basis von V ist, damit folgt offenbar (5.35). Seien also 1 ; : : : ; m und
1 ; : : : ; n 2 k mit
1 u1 C C m um C 1 v1 C C n vn D 0
(5.36)
gegeben. Anwenden von ˚ liefert dann
1 ˚.u1 / C C m ˚.um / C1 w1 C C n wn D 0
„ƒ‚…
„ƒ‚…
D0
D0
und daher 1 D D n D 0, da die w1 ; : : : ; wn eine linear unabhängige
Teilmenge bilden. Nach (5.36) liefert dies
1 u1 C C m um D 0
und damit 1 D D m D 0, da auch die u1 ; : : : ; um linear unabhängig sind. Es
folgt, dass B linear unabhängig ist. Sei weiter v 2 V . Dann gibt es 1 ; : : : ; n mit
˚.v/ D 1 w1 C C n wn ;
5.2 Eigenschaften von linearen Abbildungen
145
da die Vektoren w1 ; : : : ; wn das Bild aufspannen. Mit ˚.vk / D wk folgt daher, dass
˚.v 1 v1 n vn / D ˚.v/ 1 w1 n wn D 0;
womit v 1 v1 n vn 2 ker ˚. Da die Vektoren u1 ; : : : ; um den Kern von ˚
aufspannen, gibt es 1 ; : : : ; m 2 k mit
v 1 v1 n vn D 1 u1 C C m um :
Dies liefert aber v 2 span B und damit span B D V . Also ist B eine Basis.
t
u
Definition 5.26 (Rang). Sei ˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k. Dann heißt
rank ˚ D dim im ˚
(5.37)
der Rang von ˚.
Die Dimensionsformel besagt also für einen endlich-dimensionalen Vektorraum V
dim V D dim ker ˚ C rank ˚:
(5.38)
Anschaulich gesagt, liefert dies eine quantitative Formulierung der Vorstellung,
dass je weniger Vektoren in W ankommen, desto mehr Vektoren von ˚ geschluckt
werden.
Korollar 5.27. Seien V und W endlich-dimensionale Vektorräume über k mit
dim V D dim W . Dann sind für eine lineare Abbildung ˚W V ! W äquivalent:
i.) Die Abbildung ˚ ist bijektiv.
ii.) Die Abbildung ˚ ist injektiv.
iii.) Die Abbildung ˚ ist surjektiv.
Beweis. Es gilt offenbar i.) H) ii.) und i.) H) iii.). Sei also ˚ injektiv. Nach
Satz 5.25 und Proposition 5.14, ii.), gilt daher dim V D dim im ˚ D dim W . Daher
ist aber im ˚ D W , also ˚ surjektiv. Es folgt ii.) H) iii.). Sei umgekehrt ˚
surjektiv, also im ˚ D W . Dann gilt entsprechend dim V D dim ker ˚ C dim W D
dim ker ˚ C dim V und daher dim ker ˚ D 0. Also ist ker ˚ D f0g und ˚ injektiv.
Dies zeigt iii.) H) ii.). Da ii.) und iii.) zusammen gerade i.) bedeutet, haben wir
alles gezeigt.
t
u
Man beachte, dass diese Eigenschaft nur unter der Voraussetzung der gleichen und endlichen Dimension der beteiligten Vektorräume gilt. In unendlichen
Dimensionen und auch bei unterschiedlicher Dimension gilt die Äquivalenz nicht
mehr, siehe auch Übung 5.11.
146
5 Lineare Abbildungen und Matrizen
Kontrollfragen. Welche Eigenschaften hat der Kern einer linearen Abbildung?
Wieso bilden die linearen Abbildungen Hom.V; W / selbst einen Vektorraum?
Wann bildet eine lineare Abbildung linear unabhängige Vektoren auf linear unabhängige Vektoren ab? Wodurch können Sie eine lineare Abbildung eindeutig
spezifizieren? Was besagt die Dimensionsformel für den Rang?
5.3
Klassifikation von Vektorräumen
In diesem kurzen Abschnitt wollen wir als erste Anwendung der erzielten Ergebnisse die Vektorräume über k klassifizieren. Dies geschieht einfach durch die
Mächtigkeit ihrer Basen, also durch die Dimension.
Satz 5.28 (Isomorphie von Vektorräumen). Zwei Vektorräume über k sind genau
dann isomorph, wenn sie gleiche Dimensionen besitzen.
Beweis. Wir erinnern daran, dass dies im unendlich-dimensionalen Fall bedeutet,
dass es eine Bijektion zwischen einer Basis des einen Vektorraums und einer Basis
des anderen gibt. Sei also ˚W V ! W ein Isomorphismus und B V eine
Basis. Wir behaupten, dass dann auch ˚.B/ eine Basis von W ist. Dies ist nach
Proposition 5.19 tatsächlich der Fall. Da ˚ insbesondere injektiv ist, erhalten wir
also eine injektive Abbildung
ˇ
˚ ˇB W B ! ˚.B/
ˇ
auf das Bild ˚.B/. Damit ist D ˚ ˇB aber eine Bijektion zwischen B und der
Basis ˚.B/. Sei umgekehrt W B1 ! B2 eine Bijektion von einer Basis B1 V auf eine Basis B2 W . Nach Satz 5.21, ii.), gibt es eine lineare Abbildung
˚W V ! W mit
ˇ
˚ ˇB1 D :
Da nach Konstruktion ˚ die Basis B1 bijektiv auf die Basis B2 abbildet, ist ˚ nach
Proposition 5.19 ein Isomorphismus. Dies zeigt die andere Richtung.
t
u
Korollar 5.29. Sei n 2 N0 . Ein Vektorraum V ist genau dann isomorph zu kn ,
wenn dim V D n.
Korollar 5.30. Seien n; m 2 N0 . Die Vektorräume kn und km sind genau dann
isomorph, wenn n D m gilt.
Vektorräume besitzen also eine bemerkenswert einfache Klassifikation: Allein
die Dimension entscheidet, ob zwei k-Vektorräume isomorph sind.
5.3 Klassifikation von Vektorräumen
147
Beispiel 5.31. Sei k ein Körper.
i.) Es gilt C Š R2 als reelle Vektorräume.
ii.) Seien xkŒx kŒx diejenigen Polynome, welche keinen konstanten Term
besitzen. Dann gilt als Vektorräume über k die Isomorphie
xkŒx Š kŒx:
(5.39)
kŒx 3 p 7! .x 7! xp.x// 2 xkŒx
(5.40)
Die lineare Abbildung
ist ein expliziter Isomorphismus. In unendlichen Dimensionen kann es also
passieren, dass ein Vektorraum zu einem echten Teilraum isomorph ist.
iii.) Der Vektorraum Abb0 .M; k/ hat eine Basis der Mächtigkeit von M , siehe
Beispiel 4.41, ii.), sowie Übung 4.4, iii.), für eine kleine Verallgemeinerung.
Also gilt, dass ein beliebiger k-Vektorraum zu Abb0 .B; k/ isomorph ist, wenn
B V eine Basis von V ist. Umgekehrt zeigt dies auch, dass es zu jeder
Menge B einen Vektorraum gibt, dessen Dimension gerade die Mächtigkeit
von B ist. Da wir in Abb0 .B; k/ die kanonische Basis der Vektoren fep gp2B
über ep $ p sogar direkt mit B identifizieren können, können wir zu jeder
Menge B einen Vektorraum angeben, der B als Basis besitzt.
Wir wollen diese Klassifikation nun noch etwas genauer betrachten und dazu
verwenden, die Koordinaten eines Vektors wie in Definition 4.42 als Isomorphismus
zu verstehen: Dies liefert einen expliziten Isomorphismus, der die Isomorphie im
Beispiel 5.31, iii.), realisiert.
Proposition 5.32 (Koordinaten). Sei V ein Vektorraum über k und B V eine
Basis von V . Dann ist die Abbildung
V 3 v 7!
B Œv
D .vb /b2B 2 kB
(5.41)
linear, wobei vb 2 k die Koordinaten von v bezüglich der Basis B sind, also durch
vD
X
vb b
(5.42)
b2B
bestimmt sind. Diese Abbildung induziert einen linearen Isomorphismus
V 3 v 7!
B Œv
D .vb /b2B 2 k.B/ ;
(5.43)
wobei wir k.B/ kB wie zuvor für die direkte Summe von B Kopien von k
schreiben. Das Inverse von (5.43) ist durch
148
5 Lineare Abbildungen und Matrizen
X
k.B/ 3 .vb /b2B 7!
vb b 2 V
(5.44)
b2B
gegeben.
Beweis. Dass die Entwicklungskoeffizienten vb von v bezüglich der Basis B linear
von v abhängen, haben wir in Beispiel 5.12 gezeigt. Damit ist (5.41) insgesamt linear. Da die Entwicklungskoeffizienten eindeutig sind, ist (5.41) injektiv: Dies folgt
auch direkt aus der Definition der linearen Unabhängigkeit und Proposition 5.14,
ii.). Da für jedes v 2 V alle bis auf endlich viele vb verschwinden, ist das Bild
von (5.41) in der direkten Summe k.B/ enthalten. Ist umgekehrt .vb /b2B 2 k.B/
ein beliebiger Vektor in der direkten Summe, so ist (5.44) eine endliche
P und daher
wohldefinierte Linearkombination in V . Offenbar ist der Vektor v D b2B vb b ein
Urbild von .vb /b2B , was zum einen die Surjektivität von (5.43) zeigt, zum anderen
ist (5.44) die Umkehrabbildung zu (5.43).
t
u
Um die Schreibweise nun noch etwas weiter zu vereinfachen, wollen wir im Falle
einer endlichen Basis B die Basisvektoren durchnummerieren. Wir betrachten also
eine durch f1; : : : ; ng indizierte Basis B D fbi giD1;:::;n und nennen das geordnete
n-Tupel .b1 ; : : : ; bn / eine geordnete Basis. Dies erlaubt es nun, die Koordinaten von
v 2 V ebenfalls zu nummerieren. Wir können also
v1 D vb1 ;
:::;
vn D vbn
(5.45)
schreiben und erhalten dann einen Isomorphismus
0 1
v1
B :: C
n
V 3v !
7
B Œb D @ : A 2 k
(5.46)
vn
mit Inversem
0 1
v1
n
X
B :: C
n
k 3@:A !
vi bi 2 V:
7
(5.47)
iD1
vn
Man beachte, dass allein die Angabe der Menge B D fb1 ; : : : ; bn g nicht ausreicht,
die Bedeutung der Zahlen v1 ; : : : ; vn zu bestimmen. Im allgemeinen Fall müssen
wir also die Koeffizienten durch die Basisvektoren selbst kennzeichnen. Für (5.46)
gilt also insbesondere
B Œbi D ei
(5.48)
für alle i D 1; : : : ; n, wobei e1 ; : : : ; en 2 kn die Standardbasis von kn bezeichnet.
5.4 Basisdarstellung und Matrizen
149
Kontrollfragen. Wodurch werden Vektorräume klassifiziert? Welche Rolle spielt
k.B/ im Gegensatz zu kB ?
5.4
Basisdarstellung und Matrizen
Im zentralen Satz 5.21 haben wir gesehen, dass lineare Abbildungen durch ihre
Werte auf einer Basis eindeutig bestimmt sind und dass diese Werte beliebig
vorgegeben werden können. Weiter lassen sich Vektoren nach Proposition 4.37
beziehungsweise (4.79) auf eindeutige Weise als Linearkombinationen von Basisvektoren schreiben. Auf diese Weise ist dann eine lineare Abbildung dadurch
kodierbar, welche Linearkombination der Basisvektoren im Zielraum sie aus einer
gegebenen Linearkombination im Urbildraum zusammenstellt. Dies ist nun die
wesentliche Idee beim Zusammenhang von linearen Abbildungen und Matrizen,
um den es in diesem Abschnitt gehen wird.
Seien also V und W Vektorräume über k, und seien A V und B W Basen,
deren Existenz nach Korollar 4.47 ja gesichert ist. Sei weiter
˚W V ! W
(5.49)
eine lineare Abbildung. Nach Satz 5.21 ist ˚ durch die Vektoren f˚.a/ga2A
eindeutig festgelegt, und jede Wahl von Vektoren in W , die durch A indiziert
werden, definiert genau eine lineare Abbildung. Da nun auch B eine Basis ist,
können wir für festes a 2 A den Vektor ˚.a/ 2 W als Linearkombination
˚.a/ D
X
.˚.a//b b
(5.50)
b2B
schreiben, wobei die Zahlen .˚.a//b 2 k die Koordinaten des Vektors ˚.a/
bezüglich der Basis B sind. Diese Zahlen B Œ˚.a/ D ..˚.a//b /b2B 2 k.B/ legen
dann den Vektor ˚.a/ eindeutig fest, und jede solche Wahl eines B-Tupels von
Zahlen in k.B/ definiert genau einen Vektor in W nach Proposition 5.32. Um die
lineare Abbildung ˚ festzulegen, genügt es daher, die Zahlen f.˚.a//b gb2B;a2A
zu kennen. Man beachte, dass für unendlich-dimensionale Vektorräume zwar
unendlich viele Vektoren ˚.a/ ungleich null sein dürfen, aber für ein festes a 2 A
nur endlich viele b 2 B mit .˚.a//b ¤ 0 existieren.
Definition 5.33 (Matrix einer linearen Abbildung). Sei ˚W V ! W eine
lineare Abbildung, und seien A V sowie B W Basen der Vektorräume V
und W . Die Menge der Zahlen
B Œ˚A
D .˚.a//b a2A
b2B
(5.51)
150
5 Lineare Abbildungen und Matrizen
nennt man die Matrix von ˚ bezüglich der Basen A und B. Alternativ nennt man
diese Matrix die Basisdarstellung von ˚ bezüglich der Basen A und B.
Wichtig ist natürlich, dass wir die Zahlen durch die Basisvektoren in A und B
indiziert haben: Dies ist der entscheidende Teil der Information. Wir betrachten
diese indizierte Menge von Zahlen nun als Element eines geeigneten großen
kartesischen Produkts. Wir definieren hierzu
k.B/A
D .˚ba /b2B
ˇ
ˇ
ˇ für alle a 2 A gibt es nur endlich viele b 2 B mit ˚ba ¤ 0
ˇ
a2A
(5.52)
als diejenige Teilmenge von kBA aller B A-Tupel, welche als Matrix einer
linearen Abbildung auftreten können. Man beachte, dass die genaue Anzahl, wie
viele b 2 B es zu a 2 A mit ˚ba ¤ 0 gibt, im Allgemeinen von a abhängt.
Lemma 5.34. Seien A und B Mengen. Dann ist k.B/A kBA ein (im allgemeinen echter) Unterraum, der den Unterraum k.BA/ enthält.
Beweis. Da die Vektorraumstruktur des kartesischen Produkts kBA komponentenweise definiert ist, ist die Addition
.˚ba /b2B C .ba /b2B D .˚ba C ba /b2B
a2A
a2A
a2A
sowie die Multiplikation mit Skalaren
.˚ba /b2B D .˚ba /b2B
a2A
a2A
mit der Endlichkeitsbedingung in der Definition von k.B/A/ verträglich. Hat
eine Matrix .˚ba /b2B ohnehin insgesamt nur endlich viele von null verschiedene
a2A
Einträge, so ist sie sicherlich in k.B/A enthalten. Dies zeigt die zweite Behauptung.
t
u
Definition 5.35 (Matrizen, I). Seien A und B Mengen, so nennen wir die Elemente des Vektorraums kBA Matrizen oder genauer B A-Matrizen.
Im Falle unendlich-dimensionaler Vektorräume treten also nicht alle Matrizen auch
als Matrizen von linearen Abbildungen auf, sondern eben nur diejenigen in k.B/A .
Für endliche A und B ist dagegen k.B/A D kBA bereits das ganze kartesische
Produkt. Unsere vorherige Diskussion mündet nun in folgender Aussage:
5.4 Basisdarstellung und Matrizen
151
Satz 5.36 (Lineare Abbildung in Basisdarstellung). Seien V , W und U Vektorräume über k, und seien A V , B W und C U Basen.
i.) Die Abbildung
2 k.B/A
(5.53)
D 1AA 2 k.A/A ;
(5.54)
Homk .V; W / 3 ˚ 7!
B Œ˚A
ist ein linearer Isomorphismus.
ii.) Für die Identitätsabbildung gilt
Endk .V / 3 idV 7!
A ŒidV A
wobei
1AA D .ıaa0 /a;a0 2A :
(5.55)
iii.) Für die Verkettung von linearen Abbildungen ˚ 2 Hom.V; W / und 2
Hom.W; U / gilt
C Œ
ı ˚A D
C Œ B B Œ˚A ;
(5.56)
wobei
C Œ B B Œ˚A
D
X
!
.b/c ˚.a/b
:
(5.57)
a2A
c2C
b2B
Beweis. Wir haben bereits gesehen, dass (5.53) eine Bijektion ist: Dies war im
Wesentlichen eine Folge von Satz 5.21. Die Definition von k.B/A wurde gerade
so arrangiert, dass in (5.53) die Surjektivität gewährleistet ist. Wir zeigen nun die
Linearität. Seien also ; 0 2 k und ˚; ˚ 0 2 Hom.V; W / gegeben. Dann gilt
B Œ˚
C 0 ˚ 0 A D
D
.˚ C 0 ˚ 0 /.a/
˚.a/ C 0 ˚.a/
a2A
b b2B
a2A
b b2B
D .˚.a//b C 0 .˚ 0 .a//b a2A
b2B
D .˚.a//b a2A C 0 .˚ 0 .a//b a2A ;
b2B
b2B
wobei wir zuerst die Definition der Vektorraumstruktur von Homk .V; W / und
dann die Linearität der Koordinatenabbildung verwenden. Damit ist die Linearität
von (5.53) gezeigt. Sei nun idV 2 Endk .V / die Identitätsabbildung. Dann gilt
idV .a/ D a D
X
a0 2A
ıaa0 a0 ;
152
5 Lineare Abbildungen und Matrizen
wobei ıaa0 wie immer das Kronecker-Symbol bezeichnet. Daher ist
.idV .a//a0 D ıaa0 ;
was den zweiten Teil zeigt. Für den dritten Teil erinnern wir uns zunächst daran,
dass ı ˚ 2 Hom.V; U / wieder linear ist. Dann gilt
. ı ˚/.a/ D X
b2B
!
.˚.a//b b D
X
.˚.a//b .b/ D
b2B
X
.˚.a//b
b2B
X
. .b//c c;
c2C
wobei die Summe über B nur endlich viele Terme ungleich null enthält und die
Summe über C bei festem b 2 B ebenfalls nur endlich viele Terme ungleich null
enthält. Es gibt also für ein fest gewähltes a 2 A nur endlich viele b 2 B und daher
auch nur endlichPviele c 2 C , sodass die Zahlen .˚.a//b . .b//c ungleich null sind.
Damit ist auch b2B . .b//c .˚.a//b für festes a 2 A nur für endlich viele c 2 C
ungleich null, und es folgt
. ı ˚.a//c D
X
. .b//c .˚.a//b
b2B
durch Koeffizientenvergleich in der Basisdarstellung von . ı ˚/.a/ 2 U bezüglich
der Basis C . Dies zeigt aber den dritten Teil.
t
u
Inspiriert von Gl. (5.57) definiert man nun die Matrixmultiplikation wie folgt:
Man beachte, dass wir die Matrixmultiplikation im Allgemeinen nicht für beliebige
Matrizen definieren können, da wir sicherstellen müssen, dass die auftretenden
Summen alle endlich sind:
Definition 5.37 (Matrixmultiplikation). Seien A, B und C Mengen und seien
˚ 2 k.B/A sowie 2 kC B Matrizen. Dann definieren wir ihr Produkt ˚ 2
kC A durch
!
X
˚ D
cb ˚ba
:
(5.58)
b2B
a2A
c2C
Wie üblich schreiben wir oft auch einfach ˚ anstelle von ˚ für das
Matrixprodukt von und ˚. Erste Eigenschaften des Matrixprodukts liefert nun
folgende Proposition:
Proposition 5.38. Seien A, B, C und D nichtleere Mengen.
i.) Die Matrixmultiplikation ist eine wohldefinierte k-bilineare Abbildung
W kC B k.B/A ! kC A :
(5.59)
5.4 Basisdarstellung und Matrizen
153
Für 2 k.C /B und ˚ 2 k.B/A gilt sogar
˚ 2 k.C /A :
(5.60)
1BB ˚ D ˚ D ˚ 1AA :
(5.61)
ii.) Für alle ˚ 2 k.B/A gilt
iii.) Die Matrixmultiplikation ist assoziativ im Sinne, dass
. / ˚ D . ˚/
(5.62)
für ˚ 2 k.B/A , 2 k.C /B und 2 k.D/C gilt.
Beweis. Zunächst bemerken wir, dass sich die Matrixmultiplikation wie in (5.57)
auch auf solche Matrizen ausdehnen lässt, deren C -Indizes keine neuen Einschränkungen liefern. Die endliche Summation über die B-Indizes ist entscheidend, und
diese wird durch ˚ 2 k.B/A bereits gewährleistet. Die Bilinearität ist klar, und
auch (5.60) haben wir im Beweis von Satz 5.36 bereits gesehen. Für den zweiten
Teil können wir einfach nachrechnen, dass
!
X
1BB ˚ D
ıbb 0 ˚b 0 a
D .˚ba /a2A D ˚
b 0 2B
a2A
b2B
b2B
und genauso ˚ 1AA D ˚. Oder wir argumentieren mit Satz 5.36: Wir wissen, dass
idW ı ˚ D ˚ für Vektorräume V , W und jede lineare Abbildung ˚W V ! W . Wir
nehmen nun V D Abb0 .A; k/ und W D Abb0 .B; k/, also die Vektorräume, die als
Basis gerade die Mengen A beziehungsweise B haben, siehe Beispiel 5.31, iii.). Für
˚ 2 Hom.V; W / nehmen wir diejenige lineare Abbildung, welche die vorgegebene
Matrix B Œ˚A 2 k.B/A besitzt. Dann ist (5.61) klar aufgrund von idW ı ˚ D ˚
und
B ŒidW
ı˚ A D
B ŒidW B B Œ˚ A
D 1BB B Œ˚A
nach Satz 5.36. Für die Assoziativität (5.62) argumentieren wir genauso: Die
Eigenschaft (5.62) entspricht gerade der Assoziativität der Verkettung von linearen
Abbildungen unter dem Isomorphismus (5.53) aus Satz 5.36. Alternativ lässt
sich (5.62) auch elementar nachrechnen.
t
u
Korollar 5.39. Sei V ein Vektorraum über k mit Basis B V . Dann gilt:
i.) Bezüglich der komponentenweisen Addition und des Matrixprodukts ist k.B/B
ein assoziativer Ring mit Einselement 1BB .
ii.) Die Abbildung
154
5 Lineare Abbildungen und Matrizen
Endk .V / 2 ˚ 7!
B Œ˚B
2 k.B/B
(5.63)
ist ein einserhaltender Ringisomorphismus.
Hier ist Endk .V / natürlich mit der Ringstruktur aus Korollar 5.17 versehen. Der
Beweis ist klar nach Satz 5.36 sowie nach Proposition 5.38.
Eine Basis A liefert einen Isomorphismus des Vektorraums V zum Vektorraum
k.A/ gemäß Proposition 5.32. Zwei Basen A und B für V und W liefern einen
Isomorphismus von Hom.V; W / zu k.B/A . Diese beiden Isomorphismen sind nun
in folgendem Sinne kompatibel:
Proposition 5.40. Seien A V und B W Basen der Vektorräume V und W
über k. Dann gilt für alle v 2 V und ˚ 2 Hom.V; W /
B Œ˚.v/
D
B Œ˚ A A Œv;
(5.64)
wobei der Spaltenvektor auf der rechten Seite durch
X
.˚.a//b va
B Œ˚ A A Œv D
a2A
!
(5.65)
b2B
gegeben ist.
Beweis. Man beachte, dass (5.65) wieder eine Matrixmultiplikation der Matrix
.B/A
mit der „Matrix“ A Œv 2 k.A/ Š k.A/f1g ist. Die Rechnung
B Œ˚ A 2 k
zu (5.65) ist analog zum Beweis von Satz 5.36, iii.). Es gilt
!
X
X X
X
va a D
va ˚.a/ D
va
˚.a/b b;
˚.v/ D ˚
a2A
a2A
a2A
b2B
womit
˚.v/b D
X
va ˚.a/b
a2A
durch Koeffizientenvergleich folgt. Dies ist gerade (5.65).
t
u
Bemerkung 5.41. Mit anderen Worten können wir also sagen, dass das Diagramm
V
W
A[ · ]
B
(A)
B[
]A
(B)
[·]
(5.66)
5.4 Basisdarstellung und Matrizen
155
kommutiert. Wir können daher die Wirkung von ˚ auf v vollständig durch die
Wirkung der Matrix B Œ˚ A auf den Spaltenvektor A Œv der Koordinaten von
v beschreiben. Dies stellt offenbar die entscheidende Brücke zwischen abstrakt
gegebenen Vektorräumen und linearen Abbildungen einerseits sowie rechentechnisch einfacher zugänglichen und konkret gegebenen Matrizen und Spaltenvektoren
andererseits dar. Die Aussage iii.) von Satz 5.36 können wir ebenfalls als ein
kommutatives Diagramm
◦
Hom(W, U) × Hom(V, W)
C[ · ]B
Hom(V, U)
× B [ · ]A
(C)×B
C [ · ]A
×
(B)×A
(5.67)
(C)×A
·
auffassen, was besagt, dass die Verkettung von Homomorphismen in die Matrixmultiplikation der zugehörigen Matrizen übersetzt wird.
Die Wahl einer Basis für einen Vektorraum mag in konkreten Fällen wohlmotiviert sein, stellt aber doch eine gewisse Willkür dar. Im Allgemeinen gibt
es schlichtweg keinen Grund, eine Basis einer anderen vorzuziehen. Wir wollen
daher untersuchen, wie sich ein Wechsel der Basis mit den Koordinaten und
Matrixdarstellungen von Vektoren und linearen Abbildungen verträgt.
Korollar 5.42 (Koordinatenwechsel). Seien B; B 0 V Basen eines Vektorraums
über k. Dann gilt für jeden Vektor v 2 V
B 0 Œv
D
B 0 ŒidV B B Œv :
(5.68)
Beweis. Dies ist offenbar ein Spezialfall von Proposition 5.40 für V D W und
˚ D idV .
t
u
Es muss also die Darstellung der Identitätsabbildung idV W V ! V bezüglich zweier verschiedener Basen gefunden werden. Die Einträge dieser Matrix
.B 0 /B
sind durch
B 0 ŒidV B 2 k
X
bb 0 b 0
(5.69)
bD
b 0 2B 0
festgelegt, also
B 0 Œidv B
D .bb 0 /b 0 2B :
(5.70)
b2B
Um diese zu bestimmen, müssen wir das lineare Gleichungssystem (5.69) für die
Unbekannten bb 0 für b 0 2 B 0 lösen. Da B 0 eine Basis ist, gibt es tatsächlich eine
156
5 Lineare Abbildungen und Matrizen
eindeutige Lösung für jedes vorgegebene b 2 B. Ausgeschrieben bedeutet die
Gl. (5.68) dann einfach, dass der b 0 -te Koeffizient von v durch
vb 0 D
X
bb 0 vb
(5.71)
b2B
gegeben ist. Zur Überprüfung der Konsistenz betrachtet man
X X
b 0 2B
!
vb bb 0 b 0 D
b2B
X
vb
X
bb 0 b 0 D
b 0 2B 0
b2B
X
vb b D v;
(5.72)
b2B
sodass die Zahlen vb 0 gemäß (5.71) tatsächlich die Koordinaten von v bezüglich der
Basis B 0 sind.
Korollar 5.43 (Basiswechsel für Matrixdarstellung). Seien A; A0 V und
B; B 0 W Basen der Vektorräume V und W über k. Sei weiter ˚ 2 Hom.V; W /.
Dann gilt
B 0 Œ˚A0
D
B 0 ŒidW B B Œ˚A A ŒidV A0
:
(5.73)
Auch dies ist eine triviale Folgerung aus den zuvor erhaltenen Ergebnissen in
Satz 5.36, iii.). Man beachte hier jedoch die unterschiedliche Weise, wie die alten
und neuen Basen in V und W in (5.73) auftreten.
Wieder lässt sich die Gl. (5.73) in Form eines kommutativen Diagramms schreiben, diesmal ist das Diagramm
B[
(A)
A[ · ]
]A
V
W
B[ · ]
A [idV ]A
(B)
B [idW ]B
(A)
A
[·]
V
W
[·]
(5.74)
(B )
B
B [
]A
etwas aufwendiger, aber es kommutieren alle möglichen Wege in diesem Diagramm. Es ist sicherlich eine gute Übung, sich klarzumachen, warum welche Wege
in diesem Diagramm wirklich kommutieren.
Während die bisherigen Resultate alle für beliebige Vektorräume gültig sind,
wollen wir uns nun auf den zwar speziellen, aber in der Praxis ungemein wichtigen
Fall von endlich-dimensionalen Vektorräumen konzentrieren. Hier haben wir bereits
gesehen, dass es sinnvoll ist, anstelle einer beliebigen endlichen Basis A V eine
5.4 Basisdarstellung und Matrizen
157
geordnete Basis .a1 ; : : : ; an / von V zu verwenden. Wir schreiben die Koordinaten
A Œv eines Vektors v 2 V bezüglich einer geordneten Basis daher als Spaltenvektor
0 1
v1
B :: C
n
Œv
D
@:A2k
A
(5.75)
vn
und ebenso für w 2 W bezüglich einer geordneten Basis .b1 ; : : : ; bm / von W , also
0 1
w1
B :: C
m
(5.76)
B Œw D @ : A 2 k :
wm
Hier sind n D dim V und m D dim W . Für die Matrix
Abbildung wählen wir dann eine Rechteckschreibweise
1
0
˚11 : : : ˚1n
B :
:: C;
B Œ˚A D @ ::
: A
B Œ˚A
einer linearen
(5.77)
˚m1 : : : ˚mn
wobei die Einträge durch
˚ij D ˚.aj /bi
(5.78)
mit i D 1; : : : ; m und j D 1; : : : ; n gegeben sind. Mit anderen Worten sind die
Spalten der Matrix B Œ˚A gerade die Koordinaten der Bilder der Basisvektoren
der Basis A unter ˚ bezüglich der Basis B. Die Matrixmultiplikation (5.57) aus
Satz 5.36 beziehungsweise aus Definition 5.37 wird dann für D ˚ einfach
11
1m
11
i1
1j
=
k1
mj
1j
1
1n
i1
ij
in
k1
kj
k
kn
1n
im
m1
11
mn
km
(5.79)
mit dem .i; j /-ten Eintrag ij
ij D . ˚/ij D
m
X
kD1
ik ˚kj :
(5.80)
158
5 Lineare Abbildungen und Matrizen
Als Merkregel kann man einfach Zeile mal Spalte verwenden. Die Anwendung von
˚ auf einen Vektor erhält man ebenso als Zeile mal Spalte,
11
(
)1
(
)i
(
)m
1n
1
i1
in
m1
mn
=
,
(5.81)
n
wobei nun jedoch nur eine Spalte vorhanden ist und der Eintrag .˚v/i durch
.˚v/i D
n
X
˚ik vk
(5.82)
kD1
für alle i D 1; : : : ; m gegeben ist.
Bemerkung 5.44. Es ist eine gute Übung und auch nicht ganz einfach, die Resultate
von (5.57), (5.61), Korollar 5.39 und (5.65) direkt mit den Formeln (5.79) und (5.81)
nachzurechnen. Auf diese Weise kann man einen expliziten und direkten Beweis der
Eigenschaften der Matrixmultiplikation erbringen, siehe auch Übung 5.18.
Definition 5.45 (Matrizen, II). Seien n; m 2 N. Dann bezeichnen wir den
Vektorraum über k der .m n/-Matrizen mit Einträgen in k als
Mmn .k/ D kmn :
(5.83)
Die n n-Matrizen bezeichnen wir einfach mit
Mn .k/ D Mnn .k/:
(5.84)
Nach Korollar 5.17 wissen wir dass Mn .k/ ein Ring mit Eins 1nn bezüglich
der Matrixmultiplikation (5.79) ist. Ist die Basis von V unendlich aber dennoch
abzählbar, wie beispielsweise bei den Polynomen, so schreiben wir für B Œ˚ A
trotzdem eine unendliche rechteckige Matrix wie in (5.77), natürlich immer unter
der Berücksichtigung der Endlichkeitsbedingungen aus (5.52): In jeder Spalte sind
nur endlich viele Einträge ungleich null, es dürfen aber in allen unendlich vielen
Spalten nichttriviale Einträge auftreten.
Wir geben nun einige Beispiele für die explizite Berechnung von Matrizen von
linearen Abbildungen bezüglich gewählter Basen an:
5.4 Basisdarstellung und Matrizen
159
Beispiel 5.46. Sei ˚W k3 ! k3 das Kreuzprodukt mit einem fest gewählten Vektor
E1; e
E2; e
E3/
aE 2 k3 wie in Beispiel 5.8. Als Basis wählen wir die Standardbasis B D .e
und berechnen B Œ˚B . Dazu berechnen wir
1
0
E 1 D @ a3 A D a3 e
E 2 a2 e
E3;
aE e
a2
0
(5.85)
und finden analog
E 2 D a1 e
E 3 a3 e
E1
aE e
und
E 3 D a2 e
E 1 a1 e
E2:
aE e
(5.86)
Ein einfacher Koeffizientenvergleich liefert dann die Matrix
0
1
0 a3 a2
@ a3 0 a1 A:
B Œ˚B D
a2 a1 0
(5.87)
Beispiel 5.47. Wir betrachten die Polynome kŒx mit der üblichen Basis B D
fpn .x/ D x n gn2N 0 der Monome. Als lineare Abbildung betrachten wir dann die
Translation um 1, also die Abbildung T W kŒx ! kŒx mit
.Tp/.x/ D p.x 1/:
(5.88)
Man beachte, dass p.x 1/ wieder ein Polynom vom gleichen Grad ist. Diese
Abbildung ist offensichtlich linear in p. Es gilt nach dem Binomialsatz
!
n
X
n k
n
(5.89)
.Tpn /.x/ D .x 1/ D
x .1/nk ;
k
kD0
womit der Koeffizient von Tpn bezüglich des Basisvektors pm durch
!
n
Tmn D
.1/nm
m
(5.90)
gegeben ist. Man beachte, dass mn D 0 für m > n. Die unendliche Matrix von T
bezüglich der Basis der Monome ist daher
1
0
1 10 20 30 : : :
B0 1 2 3 : : :C
1
B
13 C
B0 0
: : :C
1
(5.91)
ŒT
D
C:
B
2
B
B
C
B0 0
0
1
:
:
:
A
@
:: : :
::
:: ::
:
:
:
: :
160
5 Lineare Abbildungen und Matrizen
Hier ist nun gut zu sehen, dass (falls char k D 0) unendlich viele Einträge von
B ŒTB von null verschieden, aber in jeder Spalte nur endlich viele Einträge ungleich
null sind. Weiter sind in jeder Zeile durchaus unendlich viele Beiträge ungleich
null. An diesem Beispiel sollte auch klar werden, dass die scheinbar explizitere und
konkretere Beschreibung einer linearen Abbildung durch ihre zugehörige Matrix
bezüglich einer Basis nicht unbedingt einfacher zu handhaben ist. So ist es durchaus
eine nichttriviale Rechnung für die Matrix (5.91), das Quadrat B ŒTB B ŒTB im
Sinne der Matrixmultiplikation zu bestimmen. Das Quadrat T 2 der Abbildung T
aus (5.88) im Sinne der Verkettung ist natürlich ganz leicht zu erhalten: Es gilt
nämlich
.T 2 p/.x/ D p.x 2/:
(5.92)
Ebenso einfach erhält man die inverse Abbildung als
.T 1 p/.x/ D p.x C 1/
(5.93)
.T k p/.x/ D p.x k/:
(5.94)
und allgemein für k 2 Z
Die zugehörigen Matrizen lassen sich von (5.94) aus einfach bestimmen, die
konkrete Matrixpotenzierung ist dagegen sehr aufwendig. Ein Vergleich beider
liefert aber interessante Relationen zwischen Binomialkoeffizienten, siehe auch
Übung 5.20.
Kontrollfragen. Wieso ist die Matrix einer linearen Abbildung ein Element von
k.B/A anstelle von kBA , und wann spielt dieser Unterschied eine Rolle? Welche
Eigenschaften hat die Matrixmultiplikation? Wie können Sie Matrizen auf Spaltenvektoren anwenden? Wie beschreiben Sie einen Koordinatenwechsel?
5.5
Spezielle Matrizen und Normalformen
In diesem Abschnitt wollen wir für ein n 2 N die Matrizen Mn .k/ genauer
betrachten.
Bemerkung 5.48. Im Folgenden werden wir Matrizen A 2 Mnm .k/ direkt mit
linearen Abbildungen
AW km ! kn
(5.95)
identifizieren, da wir für kn und km ja eine ausgezeichnete Wahl der Basis
vorliegen haben: die Standardbasen. Die Gl. (5.95), die zur Matrix A gehört, ist dann
5.5 Spezielle Matrizen und Normalformen
161
durch (5.81) gegeben. Wir schreiben die Abbildung km 3 x 7! A.x/ D Ax 2 kn
auch ohne Klammern als
10 1 0
1
0
x1
a11 x1 C C a1m xm
a11 : : : a1m
C
B
::
:: CB :: C D B
(5.96)
Ax D @ :::
A:
:
: A@ : A @
an1 : : : anm
xm
an1 x1 C C anm xm
Bemerkung 5.49 (Lineare Gleichungssysteme). Die Anwendung einer Matrix A 2
Mnm .k/ auf einen Spaltenvektor x 2 km liefert nun auch eine schöne Interpretation von linearen Gleichungssystemen: Ist b 2 kn und A 2 Mnm .k/, so ist die
Gleichung
Ax D b
(5.97)
ausgeschrieben gerade das vertraute lineare Gleichungssystem
a11 x1 C C a1m xm D b1
::
:
(5.98)
an1 x1 C C anm xm D bn :
Wir können daher (5.98) als das Problem interpretieren, für einen gegebenen Vektor
b im Zielraum der Abbildung AW km ! kn ein Urbild x 2 km zu finden: Es gilt
also
ˇ
˚
R
Los.A;
b/ D x 2 km ˇ Ax D b D A1 .fbg/:
(5.99)
Zur Vorsicht sei hier nochmals daran erinnert, dass die Schreibweise A1 .fbg/ die
Urbildmenge der Menge fbg bezeichnet und keineswegs die Invertierbarkeit der
Abbildung A beinhaltet. Die Lösungen der homogenen Gleichung
Ax D 0
(5.100)
sind also nichts anderes als die Vektoren des Kerns der Abbildung AW km ! kn .
Es gilt daher
R
Los.A;
0/ D ker A:
(5.101)
Bemerkung 5.50. Da wir Matrizen A 2 Mnm .k/ mit der zugehörigen Abbildung
AW km ! kn identifizieren, können wir verschiedene Begriffe, die wir für lineare
Abbildungen etabliert haben, auch für Matrizen verwenden. Wir sprechen also
beispielsweise vom Kern einer Matrix als demjenigen Unterraum ker A km mit
Ax D 0 für x 2 ker A und vom Bild einer Matrix als dem Unterraum im A kn
der Vektoren y D Ax 2 kn mit einem x 2 km . Schließlich können wir auch vom
Rang einer Matrix
162
5 Lineare Abbildungen und Matrizen
rank A D dim im A
(5.102)
sprechen.
Wir kommen nun zu einigen speziellen Bezeichnungen. Die Nullmatrix 0 2
Mnm .k/ ist die zur Nullabbildung 0W km ! kn gehörige Matrix. Sie hat bezüglich
beliebiger Basen die Form
0
0 B ::
0 D @:
1
0
:: C:
:A
(5.103)
0 0
Die n n-Einheitsmatrix 1n 2 Mn .k/ ist die Matrix der Identitätsabbildung
idW kn ! kn und durch
n
=
1 0
0
0
0
0
0 1
(5.104)
gegeben. Oft schreiben wir einfach 1, wenn die Dimension n 2 N aus dem Zusammenhang klar ist.
Da die Matrizen Mn .k/ einen Ring mit Einselement bilden, der zum Ring
Endk .kn / gemäß Korollar 5.39 isomorph ist, können wir von invertierbaren
Matrizen sprechen:
Definition 5.51 (Allgemeine lineare Gruppe GLn .k/). Sei n 2 N und k ein
Körper. Die Gruppe der invertierbaren Matrizen in Mn .k/ heißt allgemeine lineare
Gruppe in n Dimensionen. Wir bezeichnen sie mit
ˇ
˚
GLn .k/ D A 2 Mn .k/ ˇ A ist invertierbar :
(5.105)
Bemerkung 5.52. Nach Proposition 3.16 bilden die invertierbaren Elemente in
einem Monoid eine Gruppe. In unserem Fall ist das Monoid einfach Mn .k/ mit
der Matrixmultiplikation als Verknüpfung und der Einheitsmatrix 1 als neutralem
Element. Damit ist
GLn .k/ D Mn .k/
(5.106)
tatsächlich eine Gruppe. Man beachte, dass GLn .k/ für n 2 nicht länger
kommutativ ist. Für n D 1 gilt GL1 .k/ D k D k n f0g. Wir bezeichnen
die Gruppe der invertierbaren Endomorphismen eines Vektorraums V auch mit
GL.V / D End.V / .
5.5 Spezielle Matrizen und Normalformen
163
Beispiel 5.53. Wir betrachten n D 2 und folgende Matrizen
AD
11
;
01
BD
00
10
und
C D
1 1
:
0 1
(5.107)
Einfache Rechnungen zeigen
10
00
AB D
¤
D BA;
10
11
(5.108)
B 2 D 0:
(5.109)
AC D 1 D CA und
Bemerkenswert ist hier B 2 D 0, da wir ein Beispiel für einen Ring erhalten, in dem
ein Produkt verschwindet, obwohl beide Faktoren ungleich null sind: M2 .k/ besitzt
also Nullteiler. Weiter zeigt (5.108), dass M2 .k/ nicht kommutativ ist. Schließlich
ist die Matrix C die zu A inverse Matrix C D A1 .
Proposition 5.54. Sei n 2 N. Dann sind folgende Aussagen für A 2 Mn .k/
äquivalent:
i.)
ii.)
iii.)
iv.)
v.)
vi.)
Die Matrix A ist invertierbar.
Es gibt eine Matrix B 2 Mn .k/ mit BA D 1, d. h., A hat ein inksinverses.
Es gibt eine Matrix C 2 Mn .k/ mit AC D 1, d. h., A hat ein Rechtsinverses.
Es gilt ker A D f0g.
Es gilt im A D kn .
Es gilt rank A D n.
Beweis. Zunächst kennen wir ganz allgemein die Implikationen i.) H) ii.), i.)
H) iii.) und v.) ” vi.). Weiter bedeutet iv.) gerade, dass die Abbildung
AW kn ! kn injektiv ist, wobei wir Proposition 5.14, iii.), verwenden. Eine
Abbildung ist nun genau dann injektiv, wenn sie (bezüglich der Verkettung) ein
Linksinverses besitzt, siehe auch Proposition B.25. Wieder auf Matrizen übertragen
liefert dies die Implikation ii.) H) iv.). Genauso erhalten wir die Äquivalenz
von v.) und der Surjektivität von A und daher die Implikation iii.) H) v.). Da
wir in endlichen Dimensionen arbeiten, folgt aus der Dimensionsformel (5.35),
siehe auch Korollar 5.27, die Äquivalenz von iv.), v.) und der Bijektivität der
Abbildung AW kn ! kn . Da die inverse Abbildung aber automatisch wieder linear
ist, entspricht der Abbildung A1 W kn ! kn wieder eine Matrix A1 2 Mn .k/,
welche das Inverse zu A 2 Mn .k/ bezüglich der Matrixmultiplikation ist. Also
folgt iv.) ” v.) H) i.). Auf diese Weise sind aber alle Implikationen gezeigt.
t
u
164
5 Lineare Abbildungen und Matrizen
Insbesondere folgt aus BA D 1 also bereits B D A1 , obwohl GLn .k/ im
Allgemeinen nicht kommutativ ist. Ebenso bedeutet AC D 1, dass C D A1 . Man
beachte aber, dass dies nur für endliche Matrizen gültig ist.
Als Vektorraum ist Mnm .k/ isomorph zu knm und damit nm-dimensional. Eine
besonders einfache Basis von Mnm .k/ erhalten wir durch die Elementarmatrizen
0
E ij = (
ir
js ) r =1,...,n
s =1,...,m
0
1
i
=
,
(5.110)
j
0
0
wobei also eine 1 in der i -ten Zeile und der j -ten Spalte steht und sonst nur Nullen.
Durch eine einfache Rechnung erhält man folgende Resultate:
Proposition 5.55. Seien n, m und k 2 N.
i.) Die Elementarmatrizen fEij g iD1;:::;n bilden eine Basis von Mnm .k/, und es
j D1;:::;m
gilt
AD
n X
m
X
aij Eij
(5.111)
iD1 j D1
für A D .aij / iD1;:::;n 2 Mnm .k/.
j D1;:::;m
ii.) Für alle i 2 f1; : : : ; ng, j; r 2 f1; : : : ; mg und s 2 f1; : : : ; kg gilt
Eij Ers D ıjr Eis :
(5.112)
Beweis. Die Gl. (5.111) ist klar, womit die Elementarmatrizen ein Erzeugendensystem bilden. Da dim Mnm .k/ D nm, ist dieses minimal, also eine Basis.
Insbesondere ist (5.112) gerade die Koordinatendarstellung des Vektors A bezüglich
der Basis fEij g iD1;:::;n . Die Gl. (5.112) erhält man durch explizites Multiplizieren
j D1;:::;m
der Matrizen, siehe auch Übung 5.6.
t
u
Wie wir gesehen haben, können wir lineare Gleichungssysteme als Vektorgleichung der Form Ax D b für eine Matrix A 2 Mnm .k/ und einen Vektor b 2 kn
schreiben. Es zeigt sich nun, dass die elementaren Umformungen aus Korollar 5.27
sich als Matrixmultiplikationen schreiben lassen:
5.5 Spezielle Matrizen und Normalformen
165
Lemma 5.56. Sei A 2 Mnm .k/ und i ¤ i 0 sowie
1
i
i
1
i
0
1
1
Vii =
i
1
1
∈ Mn ( ),
0
(5.113)
1
1
wobei alle übrigen Einträge von Vi i 0 null sind. Dann ist Vi i 0 A 2 Mnm .k/
diejenigen Matrix, die man durch das Vertauschen der i -ten und i 0 -ten Zeile aus
A erhält.
Lemma 5.57. Sei A 2 Mnm .k/ und
1
i
1
i
R i, =
∈ Mn ( ).
1
(5.114)
1
Dann ist Ri; A diejenige Matrix, die man durch Reskalieren der i -ten Zeile mit
2 k aus der Matrix A erhält.
Lemma 5.58. Sei A 2 Mnm .k/ und i ¤ j sowie
1
i
1
Sij =
=
j
+ E ij ∈ Mn ( ).
(5.115)
1
Damit ist Sij A diejenigen Matrix, die man durch Addition der j -ten Zeile zur i -ten
aus A erhält.
166
5 Lineare Abbildungen und Matrizen
Alle drei Lemmata erhält man durch elementares Nachrechnen, siehe auch
Übung 5.22. Wenig überraschend ist nun folgende Aussage:
Lemma 5.59. Sei ¤ 0 und i ¤ i 0 sowie i ¤ j . Dann gilt
Vi i 0 Vi i 0 D 1;
(5.116)
Ri; Ri; 1 D 1
(5.117)
Sij Rj;1 Sij Rj;1 D 1:
(5.118)
und
Insbesondere sind alle Matrizen invertierbar, und die Inversen lassen sich als Produkte der Vi i 0 ; Ri; und Sij für geeignete Werte der Parameter schreiben.
Beweis. Dies ist eine gute Übung in Matrixmultiplikation. Wir zeigen (5.118), die
beiden übrigen Gleichungen sind einfacher. Zunächst gilt
Sij Rj;1 D .1 C Eij /.1 2Ejj / D 1 C Eij 2Ejj 2Eij D 1 Eij 2Ejj
nach (5.112). Weiter gilt
.1 Eij 2Ejj /.1 Eij 2Ejj /
D 1 Eij 2Ejj Eij Eij Eij C 2Eij Ejj 2Ejj C 2Ejj Eij C 4Ejj Ejj
D 1 2Eij C 2Eij
D 1;
was die Behauptung (5.118) zeigt. Nach Proposition 5.54 genügt es, Rechtsinverse
zu finden.
t
u
Schließlich können wir die Matrix A auch von rechts mit den Matrizen Vi i 0 , Sij
und Ri; multiplizieren. Hier muss man nun jedoch m m-Matrizen verwenden. Es
zeigt sich, dass auf diese Weise gerade Spalten und Zeilen vertauscht werden, die
obigen Lemmata aber dann sinngemäß nach wie vor richtig sind. Man kann dies nun
einfach durch analoge Rechnungen beweisen, oder aber etwas geschickter vorgehen
und gleichzeitig noch etwas Neues lernen:
Definition 5.60 (Matrixtransposition). Sei A 2 Mnm .k/. Dann definiert man die
transponierte Matrix AT 2 Mmn .k/ durch
AT D .aj i /j D1;:::;m ;
iD1;:::;n
(5.119)
5.5 Spezielle Matrizen und Normalformen
167
wenn A D .aij / iD1;:::;n .
j D1;:::;m
Mit anderen Worten ist AT also gerade die an der Diagonale gespiegelte Matrix. Die
Transposition vertauscht demnach die Bedeutung der Zeilen- und Spaltenindizes
und erfüllt einige einfache Rechenregeln:
Proposition 5.61 (Matrixtransposition). Seien A 2 Mnm .k/ und B 2 Mkn .k/.
i.) Die Transposition ist ein linearer Isomorphismus
T
W Mnm .k/ 3 A 7! AT 2 Mmn .k/:
(5.120)
.BA/T D AT B T :
(5.121)
.AT /T D A:
(5.122)
ii.) Es gilt
iii.) Es gilt
iv.) Ist n D m und A 2 GLn .k/, so gilt AT 2 GLn .k/ und
.AT /1 D .A1 /T :
(5.123)
Beweis. Der erste und dritte Teil ist klar. Für den zweiten Teil rechnen wir nach,
dass
.BA/T ij D .BA/j i D
n
X
Bj k Aki D
kD1
n
X
.AT /ik .B T /kj D .AT B T /ij ;
kD1
also (5.121) gilt. Für den vierten Teil bemerken wir zunächst, dass 1T D 1. Ist nun
A 2 GLn .k/, so gilt
1 D 1T D .AA1 /T D .A1 /T AT :
Damit ist aber AT 2 GLn .k/ mit .A1 /T D .AT /1 . Wie immer bei endlichen
Matrizen genügt es, ein einseitiges Inverses zu finden.
t
u
Korollar 5.62. Sei A 2 Mnm .k/.
i.) Für i ¤ i 0 und Vi i 0 2 Mm .k/ wie in (5.113) ist AVi i 0 , diejenige Matrix, die
durch Vertauschen der i -ten und i 0 -ten Spalte aus A hervorgeht.
168
5 Lineare Abbildungen und Matrizen
ii.) Für 2 k und Ri; 2 Mm .k/ wie in (5.114) ist ARi; diejenige Matrix, die aus
A durch Reskalieren der i -ten Spalte mit hervorgeht.
iii.) Für i ¤ j und Sij 2 Mm .k/ wie in (5.115) ist ASij diejenige Matrix, die durch
Addition der i -ten Spalte zur j -ten Spalte aus A hervorgeht.
Beweis. Zunächst ist klar, dass
ViTi 0 D Vi i 0 ;
T
Ri;
D Ri;
und
SijT D Sj i
gilt. Weiter wird beim Transponieren gerade die Bedeutung von Zeile und Spalte
vertauscht. Nun gilt beispielsweise
AVi i 0 D .Vi i 0 T AT /T D .Vi i 0 AT /T ;
womit der erste Teil folgt. Die beiden übrigen Teile folgen analog.
t
u
Wir können nun die elementaren Umformungen dazu verwenden, die Matrix A
auf eine besonders einfache Form zu bringen.
Satz 5.63 (Normalform für Matrizen). Sei A 2 Mnm .k/.
i.) Es gibt eine invertierbare Matrix Q 2 GLn .k/, sodass QA Zeilenstufenform
besitzt.
ii.) Es gibt invertierbare Matrizen Q 2 GLn .k/ und P 2 GLm .k/, so dass QAP
die Blockstruktur
1k 0
QAP D
(5.124)
0 0
besitzt, wobei k D rank A.
iii.) Jede invertierbare n n-Matrix lässt sich als endliches Produkt von n nMatrizen der Form Vi i 0 ; Sij und Ri; mit i ¤ i 0 , i ¤ j und ¤ 0 schreiben.
Beweis. Der erste Teil ist gerade der Gauß-Algorithmus: Durch elementare Umformungen vom Zeilentyp (I), (II) und (III) wie in Abschn. 3.1 können wir A auf
Zeilenstufenform bringen. Nach den vorherigen Lemmata entspricht dies gerade
der Linksmultiplikation mit einem geeigneten Produkt Q der invertierbaren n n-Matrizen vom Typ Vi i 0 , Sij und Ri; . Dieses Q ist dann als Produkt von
invertierbaren Matrizen aber immer noch invertierbar. Auf diese Weise erhält man
also eine n m-Matrix der Form
5.5 Spezielle Matrizen und Normalformen
0
0
0
169
1
0
s1
QA =
1
,
s2
sn
0
0
1
wobei im Falle von sk D 1 die entsprechende k-te Zeile nur Nullen enthält und alle
folgenden ebenfalls. In einem zweiten Schritt verwenden wir Spaltenumformungen:
Zuerst addieren wir entsprechende Vielfache der sn -ten Spalte zu den Spalten sn C
1; : : : ; m, um nun in der untersten Zeile
0
0
1
0
0
zu erreichen. Dies ist durch entsprechende Rechtsmultiplikationen von Sij und Ri;
mit ¤ 0 und i D sn zu erreichen, sofern sn < 1. Im Fall sn D 1 ignorieren wir
die n-te Zeile, da diese bereits nur Nullen enthält. Anschließend verfährt man von
unten Zeile um Zeile genauso, bis man
0
0
QAP =
0
1
s1
0
0
0
1
0
0
,
s2
0
sn
0
1
0
0
erhält. Wieder gilt, dass sk D 1 bedeutet, dass die k-te und alle folgenden Zeilen
bereits mit Nullen gefüllt sind. Ein abschließendes Multiplizieren mit geeigneten
Vi i 0 von rechts vertauscht die Spalten, bis das resultierende QAP dann tatsächlich
die Form (5.124) besitzt. Dieser zweite Schritt entspricht dem rekursiven Auflösen
des zugehörigen linearen Gleichungssystems. Es bleibt zu zeigen, dass k D rank A:
Dazu bemerken wir zunächst k D rank QAP . Wir betrachten nun den Unterraum
im A kn , der durch
170
5 Lineare Abbildungen und Matrizen
im A D spanfAe1 ; : : : ; Aem g
gegeben ist. Aus diesem Erzeugendensystem können wir ` D rank A D dim im A
viele linear unabhängige Vektoren Aei1 ; : : : Aei` auswählen, die dann eine Basis von
im A liefert. Dann sind aber die Vektoren QAei1 ; : : : ; QAei` nach wie vor linear
unabhängig, da Q ein Isomorphismus ist. Es folgt
rank QA rank A:
Wir können dieses Argument aber auch auf QA anstelle von A und Q1 anstelle
von Q anwenden, sodass dann
rank A D rank Q1 .QA/ rank QA
gilt. Es folgt also
rank A D rank QA
für ein beliebiges Q 2 GLn .k/. Ist P 2 GLm .k/, so besitzt jeder Vektor v 2 km
ein Urbild P 1 v 2 km . Daher folgt im A D im AP und entsprechend rank A D
rank AP . Insgesamt folgt also
` D rank A D rank QAP D k;
womit der zweite Teil gezeigt ist. Sei nun n D m und A 2 GLn .k/. Dann gibt
es nach dem zweiten Teil Q; P 2 GLn .k/, welche Produkte der Matrizen vom
Typ Vi i 0 , Sij , und Ri; mit ¤ 0 sind, sodass QAP die Form (5.124) besitzt. Da
A invertierbar ist, gilt rank A D n und entsprechend QAP D 1. Also ist A D
Q1 P 1 wieder ein Produkt der Vi i 0 , Sij und Ri; .
t
u
Im Falle einer invertierbaren Matrix A liefert der Beweis insbesondere eine
konstruktive Methode, das Inverse A1 D PQ zu finden, da ja sowohl P als auch Q
durch den Gauß-Algorithmus und das rekursive Auflösen gefunden werden können,
siehe auch Übung 5.9. Im Laufe des Beweises hatten wir noch folgende Rechenregel
für den Rang einer Matrix gefunden:
Korollar 5.64. Sei A 2 Mnm .k/, Q 2 GLn .k/ und P 2 GLm .k/. Dann gilt
rank A D rank QAP:
(5.125)
Mit der Normalform erhält man auch leicht folgendes Resultat:
Korollar 5.65. Sei A 2 Mnm .k/. Dann gilt
rank A D rank AT :
(5.126)
5.5 Spezielle Matrizen und Normalformen
171
Beweis. Gemäß Satz 5.63 finden wir Q 2 GLn .k/ und P 2 GLm .k/, sodass
QAP D
1k 0
0 0
mit k D rank A gilt. Nach den Rechenregeln für das Transponieren folgt dann
P T AT QT D .QAP /T D
T T T 1k 0
1k 0
:
D
0T 0T
0 0
Somit erhalten wir rank.P T AT QT / D k. Man beachte, dass sich die Größe der 0Blöcke durch das Transponieren geändert hat: P T AT QT ist ja eine m n-Matrix. Da
nach Proposition 5.61, iv.), die Matrizen P T und QT nach wie vor invertierbar sind,
liefert Korollar 5.64 sofort rank AT D k.
t
u
Bemerkung 5.66. Die Aussage rank A D rank AT wird auch oft als Zeilenrang
ist gleich Spaltenrang formuliert. Wie wir gesehen haben, ist rank A D dim im A
gerade die maximale Anzahl von linear unabhängigen Vektoren unter den Spaltenvektoren Ae1 ; : : : Aem , welche gerade die Spalten von A bilden. Daher bezeichnet
man rank A auch als den Spaltenrang. Transponieren vertauscht dann die Rolle von
Zeilen und Spalten. Bei der effektiven Berechnung von rank A ist es gelegentlich
durchaus von Vorteil, von (5.126) Gebrauch zu machen.
Definition 5.67 (Äquivalenz von Matrizen). Seien A; B 2 Mnm .k/. Dann
heißen A und B äquivalent, falls es Q 2 GLn .k/ und P 2 GLm .k/ gibt, sodass
A D QBP:
(5.127)
In diesem Fall schreiben wir A B.
Bemerkung 5.68. Da Q und P invertierbar sein müssen, ist es leicht zu sehen, dass
der obige Begriff von Äquivalenz tatsächlich eine Äquivalenzrelation auf der Menge
Mnm .k/ liefert. Satz 5.63 und Korollar 5.64 besagen dann, dass A; B 2 Mnm .k/
genau dann äquivalent sind, wenn sie denselben Rang k besitzen. In diesem Fall
sind sie äquivalent zu ihrer Normalform
1k 0
B:
A
0 0
(5.128)
Wir wollen nun einen etwas anderen Blickwinkel zur Äquivalenz von Matrizen
einnehmen und einen zweiten Beweis von Satz 5.63 erbringen, der die Geometrie
des Problems etwas besser beschreibt. Zudem wird der Beweis auch in beliebigen
Dimensionen gültig sein.
172
5 Lineare Abbildungen und Matrizen
Satz 5.69 (Normalform für lineare Abbildungen). Sei ˚W V ! W eine lineare
Abbildung. Dann existieren Basen A V und B W mit folgenden Eigenschaften:
i.)
ii.)
iii.)
iv.)
A D A1 [ A2 mit A1 \ A2 D ;.
B D B1 [ B2 mit B1 \ B2 D ;.
A2ˇ ist eine Basis von ker ˚.
˚ ˇA1 W A1 ! B1 ist eine Bijektion, und daher ist B1 eine Basis von im ˚,
Beweis. Zunächst wählen wir eine Basis A2 von ker ˚ und eine Basis B1 von im ˚.
Zu jedem Vektor in B1 wählen wir ein Urbild in V aus, dies liefert die Menge A1 .
Damit haben wir iv.) sowie iii.) sichergestellt. Wir können nun die Argumentation
von Satz 5.25 direkt übernehmen, um zu sehen, dass A1 \ A2 D ; und dass A D
A1 [A2 eine Basis von V ist. In diesem Sinne gilt also die „Dimensionsformel“ auch
in unendlichen Dimensionen. Der Grund, dass dies möglich ist, liegt darin, dass
wir immer nur endliche Linearkombinationen benötigen, auch wenn wir eventuell
insgesamt unendlich viele Basisvektoren haben können. Damit ist also auch i.)
erreicht, und A ist eine Basis. Schließlich ergänzen wir B1 durch B2 zu einer Basis
B von W , womit auch ii.) erfüllt ist.
t
u
Bemerkung 5.70 (Smith-Normalform). Wir wollen nun sehen, dass dies tatsächlich
gerade die Normalform aus Satz 5.63 ist: Da A1 und B1 in Bijektion sind, können
wir sie durch dieselbe Indexmenge K indizieren, sodass ˚.ak / D bk für alle k 2 K.
Den Rest A2 indizieren wir dann durch eine Indexmenge I und B2 durch J . Die
resultierende .K [ J / .K [ I /-Matrix von ˚ ist dann
1KK 0KI
;
(5.129)
Œ˚
D
B
A
0J K 0J I
also gerade von der Form (5.124), wenn K, I und J endlich sind. Die Matrizen Q
und P in Satz 5.63 spielen also die Rolle von Basiswechseln B ŒidW B 0 und A0 ŒidV A
von zunächst ungeeigneten Basen A0 , B 0 zu den spezielleren Basen A, B mit den
obigen Eigenschaften. Diese Normalform (5.129) beziehungsweise (5.124) nennt
man auch die Smith-Normalform.
Kontrollfragen. Was ist die allgemeine lineare Gruppe? Wie können Sie die
elementaren Umformungen mithilfe von Matrixmultiplikationen schreiben? Welche
Eigenschaften hat die Matrixtransposition? Wie können Sie die Smith-Normalform
einer Matrix bestimmen?
5.6
Dualraum
Ist V ein Vektorraum über k, so erhalten wir automatisch neue Vektorräume wie
etwa die Endomorphismen Endk .V /. Eine weitere kanonische Konstruktion ist der
Dualraum:
5.6 Dualraum
173
Definition 5.71 (Dualraum). Sei V ein Vektorraum über k. Dann heißt der Vektorraum
V D Homk .V; k/
(5.130)
der Dualraum von V . Elemente in V heißen auch Linearformen auf V oder lineare
Funktionale auf V .
Wir haben bereits verschiedene Beispiele für lineare Funktionale gesehen, die wir
nun kurz wieder aufgreifen:
Beispiel 5.72 (Lineare Funktionale). Folgende lineare Abbildungen
ıp W Abb.M; k/ 3 f 7! f .p/ 2 k;
(5.131)
limW c ! R
(5.132)
und
Z
W C.Œa; b; R/ ! R
(5.133)
aus den Beispielen 5.7, 5.9 und 5.11 sind lineare Funktionale.
Sei nun B V eine Basis. In Proposition 5.32 haben wir gesehen, dass die
Koordinatenabbildung
V 3 v 7!
B Œv
D .vb /b2B 2 k.B/
(5.134)
linear ist (sogar ein Isomorphismus), da jede einzelne Koordinate
b W V 3 v 7! vb 2 k
(5.135)
ein lineares Funktional ist.
Satz 5.73 (Basis und Koordinatenfunktionale). Sei V ein Vektorraum über k und
sei B V eine Basis.
i.) Für jedes b 2 B ist b W V ! k ein lineares Funktional.
ii.) Die Menge B D fb gb2B ist linear unabhängig.
iii.) Die Menge B ist genau dann eine Basis von V , wenn dim V < 1.
Beweis. Teil i.) wurde in Proposition 5.32 bereits gezeigt. Seien n 2 N und
b1 ; : : : ; bn paarweise verschieden sowie 1 ; : : : ; n 2 k, sodass
174
5 Lineare Abbildungen und Matrizen
1 b1 C C n bn D 0:
(5.136)
Sind nun b; b 0 2 B, dann gilt
b .b 0 / D ıbb 0 :
Dies haben wir bereits mehrfach gesehen, so etwa im Beweis von Satz 5.36, ii.). Wir
können daher (5.136) auf dem Basisvektor bi auswerten und erhalten
0 D .1 b1 C C n bn /.bi / D 1 b1 .bi / C C n bn .bi / D i ;
da nur bi ein nichttriviales Resultat auf bi liefert. Also folgt ii.). Sei schließlich
V zunächst endlich-dimensional und B D .b1 ; : : : ; bn / eine geordnete Basis. Ist
˛W V ! k ein lineares Funktional, so ist ˛ durch die n Zahlen ˛.b1 /; : : : ; ˛.bn /
bereits eindeutig bestimmt. Dies folgt allgemein aus Satz 5.21 und gilt auch in
beliebigen Dimensionen. Wir betrachten nun das lineare Funktional
˛Q D ˛.b1 /b1 C C ˛.bn /bn 2 V :
Einsetzen von bi in ˛Q liefert sofort
˛.b
Q i / D ˛.bi /;
wonach die Eindeutigkeitsaussage von Satz 5.21 zeigt, dass ˛ D ˛.
Q Daher gilt V D
spanfb1 ; : : : ; bn g und B ist eine Basis. Ist V unendlich-dimensional, so lässt sich
das eindeutig bestimmte lineare Funktional W V ! k mit
.b/ D 1
für alle b 2 B nicht als endliche Linearkombination der b ’s schreiben.
t
u
Korollar 5.74. Sei V ein endlich-dimensionaler Vektorraum über k. Dann gilt
dim V D dim V :
(5.137)
Definition 5.75 (Duale Basis). Sei V ein n-dimensionaler Vektorraum über k, und
sei B D .b1 ; : : : ; bn / eine geordnete Basis. Die Basis B D .b1 ; : : : ; bn / heißt dann
die zu B duale Basis.
Man beachte, dass das lineare Funktional b für b 2 B nur deshalb definiert werden
kann, weil B als Basis in Gänze vorliegt. Einem einzelnen Vektor b 2 V nf0g könnte
man auf viele Weisen ein b 2 V mit b .b/ D 1 zuordnen, erst die zusätzliche
Forderung b .b 0 / D 0 für alle übrigen Basisvektoren b 0 2 B n fbg legt b eindeutig
fest.
5.6 Dualraum
175
Wir betrachten nun eine lineare Abbildung ˚W V ! W zwischen Vektorräumen
über k. Für ein lineares Funktional ˛ 2 W auf W ist die Verkettung
˚ ˛ D ˛ ı ˚W V ! k
(5.138)
ebenfalls eine lineare Abbildung, also ein lineares Funktional ˚ ˛ 2 V .
Definition 5.76 (Duale Abbildung). Sei ˚W V ! W eine lineare Abbildung. Die
Abbildung
˚ W W ! V (5.139)
mit ˚ ˛ D ˛ ı ˚ für ˛ 2 W heißt die duale Abbildung zu ˚.
Ebenfalls gebräuchlich ist der Begriff transponierte Abbildung oder pull-back mit
˚. Wir haben folgende einfache Eigenschaften der dualen Abbildung:
Proposition 5.77. Seien V , W und U Vektorräume über k.
i.) Für ˚ 2 Hom.V; W / gilt ˚ 2 Hom.W ; V /.
ii.) Das Dualisieren ist eine injektive lineare Abbildung
W Hom.V; W / 3 ˚ 7! ˚ 2 Hom.W ; V /:
(5.140)
iii.) Es gilt
.idV / D idV :
(5.141)
iv.) Für ˚ 2 Hom.V; W / und 2 Hom.W; U / gilt
. ı ˚/ D ˚ ı :
(5.142)
Beweis. Wie wir bereits gesehen haben, ist ˚ ˛ 2 V für ˛ 2 W . Es bleibt zu
zeigen, dass auch die Zuordnung ˚ W ˛ 7! ˚ ˛ linear ist. Sei dazu ˛; ˇ 2 W und
; 2 k vorgegeben. Dann gilt gemäß Proposition 5.16
˚ .˛ C ˇ/ D .˛ C ˇ/ ı ˚ D .˛ ı ˚/ C .ˇ ı ˚/ D ˚ ˛ C ˚ ˇ
nach den Bilinearitätseigenschaften der Verkettung von linearen Abbildungen. Dies
zeigt den ersten Teil. Für den zweiten können wir ebenfalls mit Proposition 5.16
argumentieren, da für ˚; ˚ 0 2 Hom.V; W / und ; 0 2 k
.˚ C 0 ˚ 0 / ˛ D ˛ ı .˚ C 0 ˚ 0 / D .˛ ı ˚/ C 0 .˛ ı ˚ 0 / D ˚ ˛ C 0 .˚ 0 / ˛
176
5 Lineare Abbildungen und Matrizen
für alle ˛ 2 W gilt. Dies ist gerade die Linearität von (5.140). Sei nun ˚ D 0, also
˚ ˛ D ˛ ı ˚ D 0 für alle ˛ 2 W . Ist nun v 2 V derart, dass ˚.v/ ¤ 0, so gibt
es ein lineares Funktional ˛ 2 W mit ˛.˚.v// D 1. Um dies zu sehen, betrachten
wir beispielsweise den eindimensionalen Unterraum U D spanf˚.v/g mit der
Basis f˚.v/g. Dort definieren wir ˛ eindeutig durch die Vorgabe ˛.˚.v// D 1.
Dann können wir ˛ zu einem linearen Funktional auf ganz W mittels Korollar 5.23
fortsetzen. Dies widerspricht aber ˚ ˛ D 0 für alle ˛, und daher muss ˚.v/ D 0
für alle v 2 V gelten. Also war ˚ D 0, und wir sehen ˚ D 0 ” ˚ D 0. Dies
ist die Injektivität von (5.140). Der dritte Teil ist klar. Für den vierten Teil rechnen
wir nach, dass
. ı˚/ ˇ D ˇ ı. ı˚/ D .ˇ ı /ı˚ D . ˇ/ı˚ D ˚ . ˇ/ D .˚ ı /.ˇ/
für alle ˇ 2 U gilt.
t
u
Den Dualraum V eines Vektorraums V können wir erneut dualisieren und erhalten somit den Doppeldualraum V . Im Prinzip lässt sich dies weiter fortführen,
und man erhält somit Dualräume von Dualräumen etc. Im endlich-dimensionalen
Fall bricht dieses Dualisieren jedoch im folgenden Sinne ab:
Proposition 5.78 (Doppeldualraum). Sei V ein Vektorraum über k.
i.) Für jedes v 2 V ist
.v/W V 3 ˛ 7! .v/.˛/ D ˛.v/ 2 k
(5.143)
ein lineares Funktional auf V .
ii.) Die Abbildung
W V 3 v 7! .v/ 2 V (5.144)
ist linear und injektiv.
iii.) Die Abbildung ist natürlich im Sinne, dass für jedes ˚ 2 Hom.V; W / das
Diagramm
V
iV
V
(5.145)
W
iW
W
kommutiert.
iv.) Die Abbildung ist genau dann ein Isomorphismus, wenn V endlich-dimensional ist.
5.6 Dualraum
177
Beweis. Seien ˛; ˇ 2 V und ; 2 k. Dann gilt
.v/.˛ C ˇ/ D .˛ C ˇ/.v/ D ˛.v/ C ˇ.v/ D .v/.˛/ C .v/.ˇ/;
womit die Linearität von .v/ und damit .v/ 2 V gezeigt ist. Da v 7! ˛.v/ in v
linear ist, folgt auch die Linearität von (5.144) sofort. Sei nun v 2 V mit .v/ D 0.
Zu v ¤ 0 finden wir immer ein ˛ 2 V mit ˛.v/ D .v/.˛/ ¤ 0. Daher folgt aus
.v/ D 0 auch v D 0, was die Injektivität von (5.144) zeigt. Sei ˚ 2 Hom.V; W /,
also ˚ 2 Hom.W ; V / und entsprechend ˚ 2 Hom.V ; W /, womit die
Richtung der Pfeile in (5.145) geklärt ist. Sei weiter v 2 V und ˛ 2 W , dann gilt
.˚ V .v//.˛/ D V .v/.˚ ˛/ D .˚ ˛/.v/ D ˛.˚.v// D .W .˚.v///.˛/;
was den dritten Teil zeigt. Sei schließlich V endlich-dimensional. Dann wissen wir
nach Korollar 5.74
dim V D dim V D dim V :
Demnach ist die injektive lineare Abbildung nach Korollar 5.27 auch surjektiv,
also insgesamt bijektiv. Sei umgekehrt V unendlich-dimensional und B V eine
Basis. Sei weiter B V gemäß Satz 5.73. Da B linear unabhängig ist, können
wir B zu einer Basis B [ A von V ergänzen. Da B noch keine Basis gewesen
ist, ist A ¤ ;. Wir betrachten nun ein lineares Funktional W V ! k mit
.˛/ D 1
für alle ˛ 2 A und .b / D 0 für alle b 2 B . Wie üblich können wir durch diese
Vorgaben auf einer Basis ein eindeutig bestimmtes lineares Funktional 2 V definieren. Wir behaupten, dass 62 im . Ist nämlich v 2 V , dann gilt
.v/.b / D b .v/ D vb :
Gäbe es nun v 2 V mit .v/ D , so müsste also vb D 0 für alle b 2 B gelten. Dies
bedeutet aber v D 0, also auch .v/ D 0. Da aber nach Konstruktion nicht das
Nullfunktional auf V ist, kann dies nicht der Fall sein. Also ist nicht surjektiv.
t
u
Lemma 5.79. Sei B V eine Basis eines endlich-dimensionalen Vektorraums
über k. Dann gilt
.b/ D b für alle b 2 B.
(5.146)
178
5 Lineare Abbildungen und Matrizen
Beweis. Da V endlich-dimensional ist, ist B wieder eine Basis, die wir nochmals
dualisieren können, und so eine Basis B von V erhalten. Sei also b 2 B und
˛ 2 V . Dann können wir
˛ D ˛1 b1 C C ˛n bn
mit ˛1 ; : : : ; ˛n 2 k und n D dim V schreiben. Es gilt bk .˛/ D ˛k D ˛.bk / D
.bk /.˛/, womit .bk / D bk gezeigt ist.
t
u
Wir schließen diesen Abschnitt nun mit einer expliziten Berechnung der Matrix
der dualen Abbildung ˚ in der endlich-dimensionalen Situation.
Proposition 5.80. Seien V und W endlich-dimensionale Vektorräume über k, und
sei ˚W V ! W linear. Sind A D .a1 ; : : : ; am / und B D .b1 ; : : : ; bn / geordnete
Basen von V und W , so gilt
A Œ˚
Beweis. Schreiben wir
Matrix
B Œ˚ A
B Œ˚ A
B D . B Œ˚A /T :
(5.147)
D .˚ij / iD1;:::;n , so ist der .i; j /-te Eintrag der
j D1;:::;m
durch
˚ij D bi .˚.aj //
gegeben, da das lineare Funktional bi gerade den i -ten Entwicklungskoeffizienten
bezüglich der geordneten Basis .b1 ; : : : ; bn / liefert. Wenden wir dies nun auf
die Abbildung ˚ W W ! V an, so erhalten wir die Matrix A Œ˚ B D
.˚ j i /j D1;:::;m mit
iD1;:::;n
.˚ /j i D aj .˚ .bi // D .aj /.˚ .bi // D ˚ .bi /.aj / D bi .˚.aj //
nach der Definition von ˚ und Lemma 5.79. Damit gilt also .˚ /j i D ˚ij , wie
behauptet.
t
u
Diese Proposition erklärt zum einen den Namen transponierte Abbildung für ˚ ,
da die zugehörige Matrix gerade die transponierte Matrix von ˚ ist, wenn man die
dualen Basen verwendet. Zum anderen erklärt diese Proposition die Rechenregeln
für die Matrixtransposition aus Proposition 5.61. Dies sind gerade die Rechenregeln
für das Dualisieren aus Proposition 5.77.
Kontrollfragen. Wieso ist der Dualraum selbst wieder ein Vektorraum? Wieso
sind die Koordinatenfunktionale bezüglich einer Basis linear unabhängig? Welche
Eigenschaften hat das Dualisieren von linearen Abbildungen? Wie kann man den
Vektorraum in seinen Doppeldualraum einbetten und in welchem Sinne ist dies
natürlich?
5.7 Übungen
5.7
179
Übungen
Übung 5.1 (Additive Abbildungen). Eine Abbildung W R ! R heißt additiv,
falls .x C y/ D .x/ C .y/ für alle x; y 2 R gilt. Zeigen Sie, dass genau dann
additiv ist, wenn linear bezüglich der Q-Vektorraumstruktur von R ist. Wie viele
additive Abbildungen gibt es?
Übung 5.2 (Komplexe Konjugation in Cn ). Betrachten Sie den komplexen
Vektorraum Cn mit n 2 N. Definieren Sie die komplexe Konjugation Cn 3 v 7!
v 2 Cn komponentenweise.
i.) Zeigen Sie, dass die komplexe Konjugation reell linear, aber nicht komplex
linear ist.
ii.) Zeigen Sie, dass die komplexe Konjugation involutiv ist.
iii.) Seien v1 ; : : : vk 2 Cn paarweise verschiedene Vektoren. Zeigen Sie, dass
diese genau dann linear unabhängig sind, wenn die Vektoren v 1 ; : : : ; v k linear
unabhängig sind.
Übung 5.3 (Ableitung von Polynomen). Sei R ein assoziativer, aber nicht notwendigerweise kommutativer Ring. Für ein Polynom p 2 RŒx mit p.x/ D
an x n C C a1 x C a0 definiert man die Ableitung p 0 2 RŒx durch
p 0 .x/ D nan x n1 C .n 1/an1 x n1 C C 2a2 x C a1 ;
(5.148)
wobei n D deg.p/ und an ; : : : ; a0 2 R. Die Vielfachen kak sind dabei wie immer
im Sinne von Übung 3.15 definiert.
i.) Zeigen Sie, dass die Ableitung eine additive Abbildung
RŒx 3 p 7! p 0 2 RŒx
(5.149)
liefert. Ist die Ableitung auch ein Ringmorphismus? Eine alternative SchreibD p0.
weisen ist auch dp
dx
ii.) Zeigen Sie, dass die Ableitung die Leibniz-Regel
.pq/0 D p 0 q C q 0 p
(5.150)
für p; q 2 RŒx erfüllt.
iii.) Folgern Sie, dass die Ableitung von Polynomen mit Koeffizienten in einem
Körper k eine lineare Abbildung bezüglich der üblichen Vektorraumstruktur
der Polynome kŒx ist.
iv.) Sei nun k ein Körper der Charakteristik null. Definieren Sie dann die
Abbildung
180
5 Lineare Abbildungen und Matrizen
I W kŒx 3 p 7! I .p/ 2 kŒx
(5.151)
durch
I .an x n C C a1 x C a0 / D
1
1
an x nC1 C C a1 x 2 C a0 x:
nC1
2
(5.152)
Zeigen Sie, dass I ebenfalls eine lineare Abbildung ist.
v.) Bestimmen Sie .I .p//0 und I .p 0 / für p 2 kŒx.
vi.) Bestimmen Sie das Bild und den Kern der Ableitung von Polynomen mit
Koeffizienten in einem Körper k der Charakteristik null.
vii.) Betrachten Sie nun den Fall, dass char.k/ D p ¤ 0. Bestimmen Sie auch in
diesem Fall den Kern der Ableitung.
viii.) Erweitern Sie Ihre obigen Definitionen und Ergebnisse von den Polynomen zu
formalen Potenzreihen RŒŒx beziehungsweise kŒŒx.
Übung 5.4Q(Projektionen und Inklusionen). Seien fVi gi2I Vektorräume über k
und V D i2I Vi ihr kartesisches Produkt.
i.) Zeigen Sie, dass die kanonische Projektion pri W V ! Vi , welche v auf die i -te
Komponente von v abbildet, eine lineare Abbildung ist.
ii.) Zeigen Sie, dass die kanonische Inklusion i W Vi ! V mit
(
.i .vi //j D
vi
falls j D i
0
sonst
(5.153)
eine lineare Abbildung ist.
iii.) Bestimmen Sie pri ı j und i ı pri für alle i; j 2 I .
Übung 5.5 (Der Kommutator). Betrachten Sie einen Vektorraum V über k. Definieren Sie den Kommutator
ŒA; B D AB BA
(5.154)
für A; B 2 End.V / als Maß für die Nichtkommutativität der beiden Endomorphismen A; B 2 End.V /.
i.) Finden Sie ein Beispiel dafür, dass End.V / bezüglich der Hintereinanderausführung von Endomorphismen im Allgemeinen nicht kommutativ ist.
ii.) Zeigen Sie, dass
Œ˛ACˇB; C D ˛ŒA; BCˇŒB; C und
für ˛; ˇ; 2 k und A; B; C 2 End.V /.
ŒA; ˇBC C D ˇŒA; BC ŒA; C (5.155)
5.7 Übungen
181
iii.) Zeigen Sie ŒA; B D ŒB; A für alle A; B 2 End.V /.
iv.) Zeigen Sie die Leibniz-Regel
ŒA; BC D ŒA; BC C BŒA; C (5.156)
für A; B; C 2 End.V /.
v.) Zeigen Sie die Jacobi-Identität
ŒA; ŒB; C D ŒŒA; B; C C ŒB; ŒA; C (5.157)
für A; B; C 2 End.V /.
Übung 5.6 (Elementarmatrizen). Seien n; m 2 N. Betrachten Sie die Elementarmatrizen Eij 2 Mnm .k/ aus (5.110).
i.) Zeigen Sie (5.112) durch eine explizite Rechnung.
ii.) Sei nun n D m. Bestimmen Sie dann die Kommutatoren ŒEij ; Ek` für
i; j; k; ` D 1; : : : ; n.
iii.) Bestimmen Sie weiter Eij A und AEij für eine beliebige Matrix A (passender
Größe) explizit.
Übung 5.7 (Nochmals der Vektorraum Abb.M; V /). Sei M eine nichtleere
Menge und sei V ein Vektorraum über k. Wir betrachten erneut den Vektorraum
Abb.M; V / wie in Übung 4.4.
i.) Sei ˛ 2 V und p 2 M . Zeigen Sie, dass dann die Abbildung
ı˛;p W Abb.M; V / 3 f 7! ˛.f .p// 2 k
(5.158)
ein lineares Funktional auf Abb.M; V / ist.
ii.) Sei nun B V eine Basis. Zeigen Sie, dass die Vektoren ep;b 2 Abb.M; V /
mit
(
b für q D p
(5.159)
ep;b .q/ D
0 sonst
linear unabhängig sind.
Hinweis: Betrachten Sie zu jedem b 2 B die linearen Funktionale b 2 V gemäß Satz 5.73
sowie die Funktionale ıb ;p .
iii.) Zeigen Sie, dass für eine fest gewählte Basis B von V alle Vektoren der Form
eb;p mit p 2 M und b 2 B eine Basis von Abb0 .M; V / bilden.
iv.) Sei nun N eine weitere nichtleere Menge und W N ! M eine Abbildung.
Definieren Sie den pull-back W Abb.M; V / ! Abb.N; V / wie schon in
182
5 Lineare Abbildungen und Matrizen
Übung 3.18 punktweise durch . .f //.q/ D f ..q// für q 2 N . Zeigen Sie,
dass eine lineare Abbildung ist.
v.) Zeigen Sie die üblichen Regeln für einen pull-back, also . ı / D ı für Abbildungen W N ! M und W M ! X sowie idM D idAbb.M;V / .
vi.) Sei W ein weiterer Vektorraum über k. Zeigen Sie, dass die punktweise
Anwendung von ˚ 2 Abb.M; Hom.V; W // eine lineare Abbildung
˚W Abb.M; V / ! Abb.M; W /
(5.160)
liefert. Zeigen Sie weiter, dass Abb0 .M; V / unter ˚ nach Abb0 .M; W /
abgebildet wird.
vii.) Zeigen Sie schließlich, dass für ˚ 2 Abb.M; Hom.V; W // und W N ! M
die Vertauschungsregel
ı ˚ D . ˚/ ı (5.161)
gilt, wobei ˚ gemäß vi.) wirkt. Zeichnen Sie das entsprechende kommutative
Diagramm. Wie vereinfacht sich diese Rechenregel, wenn ˚ eine konstante
Abbildung, also nur ein Element ˚ 2 Hom.V; W /, ist?
Übung 5.8 (Matrixmultiplikation). Über dem Körper k D R seien die Matrizen
1
1 1 2
A D @0 3 5 A;
1 8 7
0
1
1 0 1 0
B D @ 0 1 0 1A;
1 0 1 0
0
0
1
@
D D 1 2 0 8 ; E D 0
6
1
4
5A und
8
0
1
1
B0C
C
C DB
@ 8 A;
7
F D 1 2 0
gegeben. Berechnen Sie alle möglichen Produkte.
Übung 5.9 (Smith-Normalform und Invertieren). Betrachten Sie eine n mMatrix A 2 Mnm .k/. Schreiben Sie diese zusammen mit der n n- und der m m-Einheitsmatrix in ein Schema der Form
ˇ
ˇ
1
0
ˇ a11 : : : a1m ˇ 1
1
ˇ
ˇ
C
ˇ ::
B
:: ˇ
::
::
(5.162)
ˇ :
A;
@
:
:
: ˇˇ
ˇ
ˇ
ˇ
1
1 an1 : : : anm
wobei Sie links von A die Einheitsmatrix 1n und rechts die Einheitsmatrix 1m
schreiben.
5.7 Übungen
183
i.) Zeigen Sie, dass die elementaren Zeilenumformungen mit den elementaren
Spaltenumformungen von A vertauschen. Zeigen Sie auch, dass die elementaren
Zeilenumformungen (beziehungsweise die Spaltenumformungen) untereinander
nicht notwendigerweise vertauschen.
Führen Sie nun schrittweise die elementaren Zeilenumformungen für A durch,
die A auf Zeilenstufenform bringen. Dabei führen Sie gleichzeitig dieselben
Umformungen auch für die erste Einheitsmatrix durch. Dies liefert eine Matrix
Q 2 Mn .k/ anstelle der ersten Einheitsmatrix 1n . Anschließend führen Sie
elementare Spaltenumformungen durch, um die verbliebene Matrix in der Mitte auf
Smith-Normalform zu bringen. Synchron führen Sie wieder dieselben Spaltenumformungen auch für die rechts stehende Einheitsmatrix 1m durch. An ihrer Stelle
erhalten Sie dann eine Matrix P 2 Mm .k/.
ii.) Zeigen Sie, dass diese Matrizen Q und P durch Matrixmultiplikation A auf
Smith-Normalform bringen, also QAP die Normalform ist.
iii.) Zeigen Sie, dass es unerheblich ist, ob Sie zuerst Zeilen- oder Spaltenumformungen durchführen.
iv.) Führen Sie diesen Algorithmus für verschiedene Beispiele durch.
v.) Wie können Sie im Falle von quadratischen Matrizen n D m auf diese Weise
die Invertierbarkeit entscheiden und das Inverse gegebenenfalls bestimmen?
Übung 5.10 (Rang und inverse Matrizen). Betrachten Sie folgende Matrizen
1
0
1
1 1 t2
1 i
2
1
2
3
A1 D @1 t 2 1 A; A2 D
; A3 D @4 2 2 C iA;
4 5t 6
6 2 2i 6 C i
t 1 1
1
1
0
0
1 0 0
1 2
a t
A4 D @ i a 0 A; A5 D
; A6 D @2 5t A
t a
1i 4 2Ca
3 6
0
über C, wobei t und a komplexe Parameter seien.
i.) Bestimmen Sie den Rang der Matrizen A1 , A2 , A3 , A4 , A5 und A6 in Abhängigkeit der Parameter t beziehungsweise a.
ii.) Bestimmen Sie die inversen Matrizen, falls diese existieren, und verifizieren Sie
Ihre Resultate durch eine explizite Überprüfung.
Übung 5.11 (Injektivität und Surjektivität). Betrachten Sie den Folgenraum c
der konvergenten Folgen. Definieren Sie lineare Abbildungen S; T W c ! c durch
(
.Sa/n D anC1
und
.T a/n D
an1
falls n > 1
0
falls n D 1:
(5.163)
184
5 Lineare Abbildungen und Matrizen
i.) Zeigen Sie, dass dies tatsächlich wohldefinierte lineare Endomorphismen von
c liefert.
ii.) Berechnen Sie S ı T und T ı S .
iii.) Bestimmen Sie explizit den Kern und das Bild von T und S .
iv.) Welche Abbildung ist injektiv, welche surjektiv, welche bijektiv? Diskutieren
Sie Ihre Ergebnisse in Bezug auf Korollar 5.27.
Übung 5.12 (Links- und Rechtsinverse von linearen Abbildungen).
˚W V ! W eine lineare Abbildung zwischen Vektorräumen über k.
Sei
i.) Zeigen Sie, dass ˚ genau dann injektiv ist, wenn es eine lineare Abbildung
W W ! V mit ı ˚ D idV gibt. Beschreiben Sie explizit, wie viele solche
es gibt.
ii.) Zeigen Sie, dass ˚ genau dann surjektiv ist, wenn es eine lineare Abbildung
W W ! V mit ˚ ı D idW gibt. Beschreiben Sie explizit, wie viele solche
es gibt.
Übung 5.13 (Bild im Kern). Sei V ein Vektorraum über k und d 2 End.V /.
i.) Zeigen Sie, dass d 2 D 0 genau dann gilt, wenn im d ker d .
ii.) Was können Sie über die Dimensionen von im d und ker d für einen endlichdimensionalen Vektorraum V sagen?
iii.) Geben Sie explizite Beispiele an, dass die Zahlenpaare aus Teil ii.) realisiert
werden können.
Übung 5.14 (Integrieren). Diese Übung erfordert eine gewisse Vertrautheit mit
dem Riemann-Integral. Betrachten Sie den Vektorraum C0 .R/ der stetigen Funktionen auf der reellen Achse mit kompaktem Träger: Für f 2 C0 .R/ gibt es also eine
Zahl a 0 mit f .x/ D 0 für alle x 2 R n Œa; a. Sei weiter
ˇ
ˇ
V D F 2 C .R/ ˇˇ F 0 2 C0 .R/ und
1
lim
x!1
F .x/ D 0
(5.164)
diejenige Teilmenge von stetig differenzierbaren Funktionen, deren Ableitung einen
kompakten Träger besitzt und die für x ! 1 gegen null geht. Betrachten Sie
dann folgende Abbildung
Z
I W f 7! I .f / D x 7! .I .f //.x/ D
x
f .t /dt :
(5.165)
1
i.) Zeigen Sie, dass V ein Unterraum von C 1 .R/ ist.
ii.) Zeigen Sie, dass I .f / 2 V für f 2 C0 .R/ gilt, indem Sie einen bekannten
Satz aus der Analysis anwenden.
5.7 Übungen
185
iii.) Zeigen Sie, dass die Abbildung I gemäß (5.165) eine lineare Abbildung
I W C0 .R/ ! V ist.
iv.) Zeigen Sie analog, dass die Ableitung V 3 F 7! F 0 2 C0 .R/ eine lineare
Abbildung ist.
v.) Bestimmen Sie .I .f //0 für f 2 C0 .R/.
vi.) Bestimmen Sie I .F 0 / für eine Funktion F 2 V .
vii.) Folgern Sie, dass I und die Ableitung zueinander inverse Bijektionen zwischen V und C0 .R/ sind.
viii.) Betrachten Sie nun den Unterraum C01 .R/ V der einmal stetig differenzierbaren Funktionen mit kompaktem Träger. Zeigen Sie, dass I .f / 2 C01 .R/ für
f 2 C0 .R/ genau dann gilt, wenn
Z
C1
f .t /dt D 0:
(5.166)
1
Man beachte, dass f kompakten Träger hat, weshalb das uneigentliche
Riemann-Integral hier völlig unproblematisch ist.
ix.) Zeigen Sie, dass C01 .R/ in V ein Komplement der Dimension 1 besitzt. Zeigen
Sie, dass für f; g 2 C0 .R/ genau dann f D gCF 0 mit F 2 C01 .R/ gilt, wenn
Z
Z
C1
C1
f .t /dt D
1
g.t /dt:
(5.167)
1
x.) Finden Sie eine Funktion f 2 V , sodass der Spann von ff g ein Komplement
zu C01 .R/ in V liefert.
Übung 5.15 (Kartesisches Produkt und direkte Summe). Sei V ein fest gewählter Vektorraum über k und sei I eine nichtleere Menge. Wir setzen Vi D V für alle
i 2 I.
Q
i.) Zeigen Sie, dass das kartesische Produkt V I D i2I Vi auf kanonische Weise
zu Abb.I; V / als Vektorraum isomorph ist. Geben Sie dazu den Isomorphismus
und sein Inverses explizit an und weisen Sie die nötigen Eigenschaften nach.
ii.) L
Zeigen Sie, dass unter dem obigen Isomorphismus der direkten Summe V .I / D
i2I Vi gerade der Unterraum Abb0 .I; V / entspricht.
Übung 5.16 (Innere und äußere direkte Summe). Seien fUi gi2I Untervektorräume eines k-Vektorraums V . Betrachten Sie die Abbildung
W
M
i2I
Ui 3 .ui /i2I 7!
X
i2I
ui 2
X
Ui V
i2I
von der äußeren direkten Summe der Unterräume nach V .
(5.168)
186
5 Lineare Abbildungen und Matrizen
i.)
ii.)
iii.)
iv.)
Zeigen Sie, dass tatsächlich eine wohldefinierte Abbildung ist.
Zeigen Sie, dass linear ist.
P
Zeigen Sie, dass surjektiv auf i2I Ui ist.
P
Zeigen Sie, dass genau dann injektiv ist, wenn die Summe i2I Ui der
Unterräume (im Sinne einer inneren direkten Summe) direkt ist.
Übung 5.17 (Lineare Abbildungen, direkte Summe und kartesisches Produkt).
Sei I eine nichtleere Indexmenge, und seien fVi gi2I , fWi gi2I sowie W; U Vektorräume über k. Weiter seien i W W ! Vi und i W Vi ! U sowie i W Vi ! Wi
lineare Abbildungen für i 2 I .
i.) Zeigen Sie, dass es eine eindeutig bestimmte lineare Abbildung
W
M
Vi ! U
(5.169)
i2I
L
gibt, sodass ı j D j für alle j 2 I , wobei j W Vj !
i2I Vi
die kanonischen Inklusionsabbildungen der einzelnen Vektorräume Vj in ihre
direkte Summe sind. Dies verallgemeinert die Konstruktion aus Übung 5.16.
ii.) Zeigen Sie, dass es eine eindeutig bestimmte lineare Abbildung
˚W W !
Y
Vi
(5.170)
i2I
Q
mit prj ı˚ D j für alle j 2 I gibt, wobei prj W i2I Vi ! Vj die kanonische
Projektion auf den j -ten Faktor Vj des kartesischen Produkts ist.Q
iii.) Zeigen
Sie, dass es eine eindeutige lineare Abbildung W i2I Vi !
Q
W
mit prj ı ı i D ıij i gibt. Zeigen Sie, dass diese lineare Abbildung
i
i2I
die direkte Summe der Vi in die direkte Summe der Wi abbildet.
Übung 5.18 (Matrizen). Betrachten Sie einen assoziativen Ring R sowie die n n-Matrizen Mn .R/ mit Einträgen in R.
i.) Zeigen Sie, dass Mn .R/ bezüglich der komponentenweisen Addition und
bezüglich der Matrixmultiplikation ein assoziativer Ring ist.
ii.) Zeigen Sie, dass 7! diag.; : : : ; / einen injektiven Ringmorphismus R !
Mn .R/ liefert, wobei ganz allgemein diag.x1 ; : : : ; xn / 2 Mn .R/ diejenige
Matrix bezeichnet, die die Ringelemente x1 ; : : : ; xn 2 R auf der Diagonalen
und sonst nur Nullen als Einträge hat.
iii.) Zeigen Sie, dass Mn .R/ genau dann ein Einselement besitzt, wenn R ein
Einselement hat, und bestimmen Sie dieses explizit.
iv.) Erweitern Sie Ihre Ergebnisse auf unendliche Matrizen R.B/A , wobei A und B
nun eine beliebige, nicht notwendigerweise endliche Mengen seien. Erbringen
Sie so einen unabhängigen (und allgemeineren) Beweis der Rechenregeln aus
Proposition 5.38.
5.7 Übungen
187
Übung 5.19 (Antisymmetrische 33-Matrix). Sei k ein Körper der Charakteristik ungleich zwei und A 2 Mn .k/. Dann heißt A antisymmetrisch, wenn AT D A.
Wie immer identifizieren wir Mn .k/ mit End.kn /.
i.) Zeigen Sie, dass die antisymmetrischen Matrizen einen Unterraum von Mn .k/
bilden.
ii.) Bestimmen Sie die Dimension des Unterraums aller antisymmetrischen n nMatrizen, indem Sie eine möglichst einfache Basis angeben.
iii.) Zeigen Sie, dass es zu jeder antisymmetrischen Matrix A 2 M3 .k/ einen
eindeutig bestimmten Vektor a 2 k3 gibt, sodass Ax D a x für alle x 2 k3 .
Hier ist das Kreuzprodukt, welches wie für R3 auch für k3 definiert wird.
iv.) Zeigen Sie umgekehrt, dass für jeden Vektor a 2 k3 die lineare Abbildung
x 7! a x durch eine antisymmetrische Matrix vermittelt wird.
v.) Berechnen Sie die Matrizen Lk 2 M3 .k/, welche den Kreuzprodukten mit
den kanonischen Basisvektoren ek für k D 1; 2; 3 entsprechen.
vi.) Zeigen Sie, dass k3 3 a 7! A 2 M3 .k/ ein linearer Isomorphismus auf die
antisymmetrischen Matrizen ist.
vii.) Zeigen Sie, dass für zwei antisymmetrische Matrizen A und B der Kommutator ŒA; B wieder antisymmetrisch ist, und bestimmen Sie den zugehörigen
Vektor c 2 k3 , sodass ŒA; Bx D c x. Was fällt auf?
viii.) Geben Sie ein konzeptuelles Argument dafür, dass die Jacobi-Identität
erfüllt.
ix.) Bestimmen Sie die Kommutatoren ŒLk ; L` explizit für k; ` D 1; 2; 3.
Übung 5.20 (Matrixdarstellung der Translation). Betrachten Sie den Vektorraum kŒx der Polynome mit Koeffizienten in einem Körper k. Sei weiter
T W kŒx ! kŒx wieder die Translation um 1 aus Beispiel 5.47.
i.) Bestimmen Sie durch eine explizite Matrixmultiplikation die Matrix B ŒT 2 B des
Quadrats von T bezüglich der Standardbasis B der Monome von kŒx.
ii.) Bestimmen Sie die Matrizen B ŒT k B für k 2 Z direkt, indem Sie das Polynom
p.x k/ mithilfe des Binomialsatzes ausrechnen. Verifizieren Sie so Ihre
Ergebnisse aus i.).
Übung 5.21 (Ort und Impuls). Sei k ein Körper der Charakteristik null. Dann
betrachtet man den Orts- und den Impulsoperator Q; P W kŒx ! kŒx mit
.Qp/.x/ D xp.x/ und
.Pp/.x/ D
d
p.x/ D p 0 .x/
dx
(5.171)
für p 2 kŒx.
i.) Zeigen Sie, dass Q und P lineare Abbildungen sind.
ii.) Bestimmen Sie die Matrixdarstellungen von Q und P bezüglich der Standardbasis der Monome, siehe Übung 4.13, i.).
188
5 Lineare Abbildungen und Matrizen
iii.) Bestimmen Sie den Kommutator ŒP; Q D PQ QP .
Diese beiden linearen Abbildungen spielen die zentrale Rolle in der Quantenmechanik, auch wenn sie dort nicht direkt auf Polynomen, sondern auf etwas anderen
Funktionen definiert sind. Dort wird die Ableitung als Impulsoperator noch mit
einem Faktor i„ reskaliert.
Übung 5.22 (Elementare Umformungen). Erbringen Sie durch explizites Nachrechnen die Beweise der Lemmata 5.56, 5.57 und 5.58.
Übung 5.23 (Elementare Umformung (IV) via Matrixmultiplikation). Finden
Sie eine Matrix Sij; mit der Eigenschaft, dass Sij; A für A 2 Mnm .k/ diejenige
Matrix ist, die durch Hinzuzählen des -Fachen der j -ten Zeile zur i -ten Zeile
aus A hervorgeht. Auf diese Weise wird also die elementare Umformung (IV)
aus Übung 4.1 ebenfalls durch eine einfache Matrixmultiplikation implementiert.
Finden Sie auch für die entsprechende Spaltenumformung eine geeignete Matrixmultiplikation.
Übung 5.24 (Komplexe Zahlen als Matrizen I). Betrachten Sie diejenigen 2 2Matrizen der Form
ˇ
a b
˚
C D A 2 M2 .R/ ˇ A D b
a mit a; b 2 R :
(5.172)
i.) Zeigen Sie, dass C ein zweidimensionaler Unterraum ist, und geben Sie eine
möglichst einfache Basis an.
ii.) Zeigen Sie, dass C unter Matrixmultiplikation und Matrixtransposition abgeschlossen ist und 1 enthält.
iii.) Zeigen Sie, dass die Abbildung
C 3 z D a C ib 7! A D
a b
b a
2C
(5.173)
ein einserhaltender Ringisomorphismus ist. Damit wird C also ein zu C isomorpher Körper bezüglich der Matrixmultiplikation.
Übung 5.25 (Blockmatrizen). Seien m; m0 ; n; n0 ; p; p 0 2 N gegeben. Betrachten
Sie dann Matrizen der Form A1 2 Mmn .k/, A2 2 Mmn0 .k/, A3 2 Mm0 n .k/,
A4 2 Mm0 ;n0 .k/ sowie der Form B1 2 Mn;p .k/, B2 2 Mnp0 .k/, B3 2 Mn0 p .k/
und B4 2 Mn0 p0 .k/. Eine .m C m/ .n C n0 /-Matrix der Gestalt
A1 A2
AD
A3 A4
(5.174)
nennt man auch Blockmatrix mit der Blockstruktur .m; m0 / .n; n0 /. Hier werden
die Einträge von A1 ; A2 ; A3 , und A4 entsprechend in die große Matrix eingefügt.
5.7 Übungen
189
i.) Zeigen Sie, dass für das Matrixprodukt von Blockmatrizen die Rechenregel
A1 A2
A3 A4
B1 B2
A1 B1 C A2 B3 A1 B2 C A2 B4
D
B3 B4
A3 B1 C A4 B3 A3 B2 C A4 B4
(5.175)
gilt. Machen Sie sich insbesondere klar, dass die entsprechenden Produkte
überhaupt definiert sind, da die Größen der Blöcke wirklich passen.
ii.) Berechnen Sie das Produkt AB und BA für
0
1
B0
ADB
@0
0
0
1
0
0
1
0
1
0
1
0
1C
C und
0A
1
1
1111
B1 1 1 1 C
C
BDB
@1 1 1 1 A:
1111
0
Übung 5.26 (Ein Halbgruppenmorphismus).
Matrizen Mn .k/ für n 2 N und die Abbildung
W Mn .k/ 3 A 7!
(5.176)
Betrachten Sie das Monoid der
A0
2 MnC1 .k/:
0 0
(5.177)
i.) Zeigen Sie, dass eine injektive lineare Abbildung ist.
ii.) Zeigen Sie weiter, dass ein Halbgruppenmorphismus bezüglich der Matrixmultiplikation ist. Ist auch ein Monoidmorphismus?
Übung 5.27 (Vektoraddition als Matrixmultiplikation). Sei k ein Körper. Zeigen Sie, dass die Abbildung
1v
k 3v !
7
2 GLnC1 .k/
01
n
(5.178)
ein Gruppenmorphismus bezüglich der Addition von Vektoren und der Matrixmultiplikation ist. Ist (5.178) linear?
Übung 5.28 (Pauli-Matrizen I). Betrachten Sie in M2 .C/ die Pauli-Matrizen
01
;
1 D
10
0 i
2 D
i 0
und
1 0
3 D
:
0 1
(5.179)
Weiter benutzt man die Abkürzung jk D 2i k für k D 1; 2; 3. Schließlich
verwenden wir das -Symbol k`m (auch Levi-Civita-Symbol), welches durch
123 D 231 D 312 D 1;
132 D 231 D 321 D 1;
und
k`m D 0 sonst
(5.180)
190
5 Lineare Abbildungen und Matrizen
definiert ist. In Übung 6.1 sehen wir später eine etwas konzeptuellere Definition für
k`m .
i.) Zeigen Sie
k ` D
( P
i 3mD1 k`m m
für k ¤ `
für k D `:
1
(5.181)
ii.) Sei nun x;
E yE 2 R3 . Zeigen Sie
.xE E /.yE E / D hx;
E yi1
E C i.xE y/
E E ;
(5.182)
wobei die Abkürzung xE E D x1 1 C x2 2 C x3 3 verwendet wird.
iii.) Zeigen Sie, dass die Pauli-Matrizen zusammen mit 1 eine Basis der komplexen
2 2-Matrizen bilden.
iv.) Bestimmen Sie die Kommutatoren Œjk ; j` für alle k; ` D 1; 2; 3. Vergleichen
Sie mit Übung 5.19, ix.). Wie könnten Sie Ihre Beobachtung formulieren?
Übung 5.29 (Die symplektische Matrix). Sei k ein Körper der Charakteristik
ungleich 2. Betrachten Sie für n 2 N die symplektische Matrix
˝D
0 1n
1n 0
2 M2n .k/;
(5.183)
wobei wir Blockschreibweise verwenden und 1n 2 Mn .k/ die Einheitsmatrix in n
Dimensionen ist.
i.) Zeigen Sie ˝ 2 D 12n sowie ˝ T D ˝.
ii.) Ist ˝ invertierbar? Bestimmen Sie gegebenenfalls das Inverse von ˝.
iii.) Können Sie in Charakteristik 2 analog verfahren? Weshalb wird man vor allem
an Charakteristik ungleich 2 interessiert sein?
Übung 5.30 (Basiswechsel). Betrachten Sie den Vektorraum
R2 mit
der
Standard1
1
basis B1 D .e1 ; e2 / sowie B2 D .b1 ; b2 / mit b1 D
und b2 D
.
1
1
i.) Zeigen Sie, dass B2 ebenfalls eine Basis ist.
x
ii.) Bestimmen Sie die Koeffizienten von x D 1 bezüglich der neuen Basis B2 .
x2
iii.) Bestimmen Sie die Matrixdarstellung B2 ŒB2 derjenigen linearen Abbildung
mit .e1 / D 2e1 3e2 und .e2 / D e1 C 3e2 .
5.7 Übungen
191
Übung 5.31 (Basiswechsel für Matrizen). Betrachten Sie erneut die PauliMatrizen k aus Übung 5.28 sowie die Elementarmatrizen Eij 2 M2 .C/
aus (5.110).
i.) Stellen Sie die Pauli-Matrizen als Linearkombination der Elementarmatrizen
dar.
ii.) Nach Übung 5.28, iii.), bilden die Pauli-Matrizen zusammen mit der Einheitsmatrix 1 2 M2 .C/ ebenfalls eine Basis. Stellen Sie die Elementarmatrizen
als Linearkombination dieser Basisvektoren von M2 .C/ dar und gewinnen
Sie so die Matrix des Basiswechsels von der Basis f1; 1 ; 2 ; 3 g zur Basis
fE11 ; E12 ; E21 ; E22 g.
Hinweis: Wenn Sie die jeweiligen Basisvektoren von 1 bis 4 nummerieren, können Sie den
Basiswechsel als eine 4 4-Matrix schreiben.
iii.) Verifizieren Sie durch eine explizite Rechnung, dass die beiden Matrizen der
Basiswechsel
invers sind.
zueinander
iv.) Sei A D ac db 2 M2 .C/. Schreiben Sie A als Linearkombination von 1 und
den Pauli-Matrizen.
Übung 5.32 (Inverse von Blockmatrizen). Seien n; m 2 N und A 2 Mn .k/,
B 2 Mnm .k/ sowie D 2 Mm .k/. Wir betrachten dann die Blockmatrix
AB
XD
2 MnCm .k/:
0 D
(5.184)
i.) Zeigen Sie, dass X genau dann invertierbar ist, wenn sowohl A als auch D
invertierbar sind.
ii.) Bestimmen Sie die inverse Matrix X 1 explizit, indem Sie die Inversen A1
und D 1 verwenden.
iii.) Formulieren Sie eine analoge Aussage für untere Dreiecksblöcke.
iv.) Betrachten Sie nun
0
2
B1
X DB
@0
0
4
3
0
0
3
2
3
2
1
3
8C
C 2 M4 .R/;
1A
1
(5.185)
und bestimmen Sie X 1 einmal mithilfe des Gauß-Algorithmus und einmal mit
Teil ii.). Vergleichen Sie den Aufwand.
Übung 5.33 (Bijektivität von Ak ). Betrachten Sie einen Endomorphismus A 2
End.V / eines Vektorraums V über k. Zeigen Sie, dass A genau dann injektiv
(surjektiv, bijektiv) ist, wenn für alle k 2 N der Endomorphismus Ak injektiv
(surjektiv, bijektiv) ist.
192
5 Lineare Abbildungen und Matrizen
Übung 5.34 (Bild und Kern von Verkettungen). Seien V , W und U Vektorräume über k und ˚; ˚ 0 W V ! W sowie W W ! U lineare Abbildungen. Seien
weiter ; 0 2 k.
i.) Zeigen Sie, dass ker ˚ ker. ı ˚/. Geben Sie Beispiele für eine echte
Inklusion und für Gleichheit.
ii.) Zeigen Sie, dass im. ı ˚/ im ˚. Geben Sie auch hier Beispiele für eine
echte Inklusion und für Gleichheit.
iii.) Zeigen Sie rank. ı ˚/ min.rank ˚; rank /.
iv.) Zeigen Sie, dass rank.˚ C 0 ˚/ rank ˚ C rank ˚ 0 . Geben Sie hier ein
Beispiel für Gleichheit.
v.) Seien nun die Vektorräume sogar endlich-dimensional. Zeigen Sie, dass dann
rank ˚ C rank D rank. ı ˚/ C dim W gilt.
Übung 5.35 (Matrizen von Polynomen). Sei k ein Körper (oder auch nur ein
assoziativer Ring). Zeigen Sie, dass der Ring der Matrizen Mn .kŒx/ mit Einträgen
im Polynomring kŒx, siehe Übung 5.18, kanonisch zum Polynomring Mn .k/Œx der
Polynome mit Matrixkoeffizienten isomorph ist. Geben Sie hierzu den Isomorphismus explizit an.
Übung 5.36 (Nochmals Smith-Normalform). Seien V und W Vektorräume über
k. Sei weiter ˚W V ! W eine lineare Abbildung.
i.) Zeigen Sie, dass es Unterräume U1 V und U2 W mit V D U1 ˚ ker ˚
und W D U2 ˚ im ˚ gibt.
ˇ
ii.) Zeigen Sie, dass in diesem Fall ˚ ˇU1 W U1 ! im ˚ ein Isomorphismus ist.
iii.) Diskutieren Sie, wieso man diese Aussage als basisunabhängige Formulierung
von Satz 5.69 ansehen kann.
Übung 5.37 (Bijektivität der dualen Abbildung). Sei ˚W V ! W eine lineare
Abbildung zwischen Vektorräumen über k.
i.) Zeigen Sie, dass die duale Abbildung ˚ W W ! V genau dann injektiv ist,
wenn ˚ surjektiv ist.
Hinweis: Eine Richtung ist recht einfach. Für die andere Richtung nimmt man an, dass
im ˚ ˇ W ein echter Unterraum ist. Konstruieren Sie dann ein lineares Funktional a 2 W mit ˛ ˇim ˚ D 0, aber ˛ ¤ 0. Wieso liefert dies einen Widerspruch?
ii.) Zeigen Sie, dass ˚ genau dann surjektiv ist, wenn ˚ injektiv ist.
Hinweis: Die Surjektivität zu zeigen, ist hierbei nicht ganz leicht: Ein lineares Funktional auf
V liefert dank der Injektivität ein lineares Funktional auf dem Teilraum im ˚ W . Wieso
lässt sich dieses zu einem linearen Funktional auf ganz W fortsetzen?
iii.) Zeigen Sie, dass ˚ genau dann bijektiv ist, wenn ˚ bijektiv ist.
iv.) Zeigen Sie, dass im invertierbaren Fall .˚ 1 / D .˚ /1 gilt.
5.7 Übungen
193
Übung 5.38 (Matrixdarstellung der Transposition). Sei k ein Körper und n 2
N. Betrachten Sie die Standardbasis der Elementarmatrizen fEij gi;j D1;:::;n von
Mn .k/.
i.) Bestimmen Sie die Basisdarstellung der Transposition T W Mn .k/ ! Mn .k/
bezüglich dieser Basis.
ii.) Betrachten Sie nun n D 2 und k D C sowie die Pauli-Matrizen k aus
Übung 5.28. Finden Sie die Matrixdarstellung der Transposition auch bezüglich
der Basis f1; 1 ; 2 ; 3 g. Was fällt auf?
Hinweis: Hier können Sie einerseits die Transposition der neuen Basisvektoren direkt ausrechnen oder die allgemeine Vorgehensweise aus Korollar 5.43 zum Einsatz bringen, indem
Sie Übung 5.31 benutzen. Vergleichen Sie beide Möglichkeiten.
Übung 5.39 (Affine Räume II). Sei ˚W V ! W eine lineare Abbildung und
w 2 W . Zeigen Sie, dass ˚ 1 .fwg/ V ein affiner Raum über ker ˚ ist.
Übung 5.40 (Affine Räume III). Seien A und B affine Räume über V beziehungsweise W . Dann heißt eine Abbildung ˚W A ! B affin, falls es eine lineare
Abbildung W V ! W mit
˚.a C v/ D ˚.a/ C .v/
(5.186)
für alle a 2 A und v 2 V gibt.
i.) Zeigen Sie, dass die Abbildung durch ˚ eindeutig bestimmt ist.
ii.) Zeigen Sie, dass die Identität idA W A ! A eines affinen Raums eine affine
Abbildung ist. Zeigen Sie ebenso, dass die Verkettung von affinen Abbildungen
wieder affin ist. Zeigen Sie schließlich, dass die inverse Abbildung einer
bijektiven affinen Abbildung wieder affin ist.
iii.) Zeigen Sie, dass für eine affine Abbildung ˚W A ! A genau dann D idV
gilt, wenn ˚ eine Translation, also von der Form ˚.a/ D a C u mit einem
festen Vektor u 2 V ist.
iv.) Sei o 2 A fest gewählt. Zeigen Sie, dass für eine affine Abbildung ˚W A ! A
eine eindeutig bestimmte lineare Abbildung
2 End.V / und ein eindeutig
bestimmter Vektor u 2 V existieren, sodass ˚.a/ D a C .a o/ C u gilt.
Wie ändern sich und u, wenn man einen anderen Ursprung o0 2 A wählt?
Übung 5.41 (Affine Gruppe). Betrachten Sie den Vektorraum kn als einen affinen
Raum mit Ursprung 0.
i.) Sei A 2 Mn .k/ und v 2 V . Zeigen Sie, dass .A; v/W u 7! Au C v eine
affine Transformation .A; v/ von kn ist. Zeigen Sie umgekehrt, dass jede affine
Transformation von dieser Form ist, wobei A und v durch die Transformation
eindeutig bestimmt sind.
194
5 Lineare Abbildungen und Matrizen
Hinweis: Das ist im Wesentlichen ein Spezialfall von Übung 5.40, iv.).
ii.) Seien A; B 2 Mn .k/ und v; w 2 V . Bestimmen Sie die Hintereinanderausführung der zugehörigen affinen Transformationen .A; v/ ı .B; w/.
iii.) Betrachten Sie die Menge
ˇ
ˇ
Av
ˇ
Affn .k/ D
2 MnC1 .k/ ˇ A 2 Mn .k/ und v 2 V;
0 1
(5.187)
und zeigen Sie, dass diese ein Untermonoid bezüglich Matrixmultiplikation
bildet. Bestimmen Sie die invertierbaren Elemente und finden Sie eine explizite
Formel für das Inverse sowie für das Produkt von zwei Elementen in Affn .k/.
Was fällt auf?
iv.) Finden Sie eine Möglichkeit, die affine Transformation .A; v/ auf kn durch
eine gewöhnliche Anwendung einer Matrix auf knC1 zu schreiben, indem Sie
w 2 kn geeignet als Vektor in knC1 interpretieren.
Hinweis: Übung 5.27.
Übung 5.42 (Komplexifizierung II). Seien V und W reelle Vektorräume mit
Komplexifizierungen VC und WC wie in Übung 4.31.
i.) Definieren Sie die komplexe Konjugation durch
VC 3 .x; y/ 7! .v; w/ D .x; y/ 2 VC :
(5.188)
Zeigen Sie, dass die komplexe Konjugation reell-linear und involutiv ist sowie
zv D z v
(5.189)
für alle z 2 C und v 2 VC erfüllt.
ii.) Wir interpretieren V immer als reellen Teilraum von VC , indem man v 2 V
mit .v; 0/ 2 VC identifiziert. Zeigen Sie, dass dies eine R-lineare injektive
Abbildung V ! VC ist. Zeigen Sie weiter, dass v 2 VC genau dann im Bild
dieser Abbildung liegt, also ein reeller Vektor ist, falls v D v gilt.
iii.) Sei AW V ! W eine R-lineare Abbildung. Zeigen Sie, dass es eine
ˇ eindeutig
bestimmte C-lineare Abbildung AC W VC ! WC gibt, sodass AC ˇV D A.
iv.) Zeigen Sie, dass die Abbildung
HomR .V; W / 3 A 7! AC 2 HomC .VC ; WC /
(5.190)
R-linear ist.
v.) Zeigen Sie, dass .idV /C D idVC gilt.
vi.) Zeigen Sie, dass für einen weiteren reellen Vektorraum U und eine lineare
Abbildung BW W ! U
5.7 Übungen
195
.BA/C D BC AC
(5.191)
gilt.
vii.) Zeigen Sie, dass AC v D AC v für alle v 2 VC .
viii.) Sei nun ˚W VC ! WC eine C-lineare Abbildung mit ˚v D ˚v. Zeigen Sie,
dass es dann eine eindeutig bestimmte R-lineare Abbildung AW V ! W mit
AC D ˚ gibt.
ix.) Zeigen Sie, dass AC genau dann injektiv (surjektiv, bijektiv) ist, wenn A
injektiv (surjektiv, bijektiv) ist. Vergleichen Sie hierzu ker.AC / mit .ker.A//C
ebenso wie im.AC / mit .im.A//C .
Übung 5.43 (Lineare fast-komplexe Struktur). Sei V ein reeller Vektorraum.
Eine lineare fast-komplexe Struktur J auf V ist ein Endomorphismus J 2 End.V /
mit J 2 D 1.
i.) Zeigen Sie, dass V zu einem komplexen Vektorraum wird, wenn man
z v D Re.z/v C Im.z/J .v/
(5.192)
für z 2 C und v 2 V setzt. Im Folgenden sei V immer mit dieser komplexen
Vektorraumstruktur versehen.
ii.) Zeigen Sie, dass V genau dann als reeller Vektorraum endlich-dimensional ist,
wenn V als komplexer Vektorraum via (5.192) endlich-dimensional ist.
Hinweis: Hier ist Übung 4.30 hilfreich bei der Argumentation.
iii.) Zeigen Sie, dass es für einen endlich-dimensionalen reellen Vektorraum eine
fast-komplexe Struktur J nur geben kann, wenn dimR V D 2n gerade ist.
Zeigen Sie umgekehrt, dass dies auch hinreichend für die Existenz ist.
Übung 5.44 (Komplex-konjugierter Vektorraum II). Sei V ein komplexer Vektorraum. Bezeichnen Sie die mengentheoretische Identitätsabbildung zwischen V
und dem komplex-konjugierten Vektorraum V mit W V ! V .
i.) Zeigen Sie, dass ein antilinearer Isomorphismus ist.
ii.) Zeigen Sie, dass auf kanonische Weise V Š V gilt.
iii.) Sei AW V ! W eine lineare Abbildung. Zeigen Sie, dass dann AW V ! W
mit
A.v/ D A.v/
(5.193)
für v 2 V eine lineare Abbildung ist.
iv.) Zeigen Sie
B ıADB ıA
(5.194)
196
5 Lineare Abbildungen und Matrizen
für lineare Abbildungen AW V ! W und BW W ! U sowie idV D idV .
v.) Zeigen Sie A D A unter der Identifikation von ii.).
vi.) Für welche A ist A invertierbar?
Übung 5.45 (Duale Basis). Betrachten Sie einen 4-dimensionalen komplexen
Vektorraum V mit Basis .b1 ; : : : ; b4 /.
i.) Zeigen Sie, dass die Vektoren
c1 D 2ib1 C b2 C 4b4 ; c2 D 3b2 C 7b3 C ib4 ; c3 D
1
b3 C ib4 ; c4 D ib3 ib4
2
(5.195)
ebenfalls eine Basis von V bilden.
ii.) Bestimmen Sie die Vektoren der dualen Basis c1 ; : : : ; c4 als Linearkombination
der Vektoren b1 ; : : : ; b4 .
Übung 5.46 (Lineare Funktionale auf Polynomen). Betrachten Sie die Polynome kŒx sowie die Abbildungen
ı .k/ W kŒx 3 p 7!
dk p
.0/ 2 k
dx k
(5.196)
für alle k 2 N.
i.) Zeigen Sie, dass ı .k/ linear ist.
ii.) Sei Vn kŒx der Teilraum der Polynome von Grad n. Versehen
Sie diesen mit der Basisˇ der Monome 1; x; x 2 ; : : : ; x n . Bestimmen Sie die
Basisdarstellung von ı .k/ ˇVn bezüglich der dualen Basis der Monome.
iii.) Zeigen Sie, dass ı .k/ im Spann der linear unabhängigen Teilmenge der Koordinatenfunktionale der Basis der Monome von kŒx ist, auch wenn diese ja keine
Basis von .kŒx/ bilden. Bestimmen Sie die Entwicklungskoeffizienten.
Übung 5.47 (Dualraum der Polynome). Sei k ein Körper. Zeigen Sie, dass der
Dualraum kŒx der Polynome kŒx zum Vektorraum der formalen Potenzreihen
isomorph ist.
Hinweis: Verwenden Sie die Basis der Monome. Wodurch ist ein lineares Funktional auf kŒx
festgelegt?
Übung 5.48 (Ein selbstdualer Vektorraum). Sei W ein endlich-dimensionaler
Vektorraum über k. Betrachten Sie dann den Vektorraum V D W ˚ W .
i.) Zeigen Sie dim V D 2 dim W .
5.7 Übungen
197
ii.) Zeigen Sie, dass es einen Isomorphismus von V nach V gibt. Geben Sie diesen
explizit an. Formulieren Sie, was natürlich bezüglich W in diesem Fall heißen
soll, und weisen Sie diese Eigenschaft, analog zu Proposition 5.78, iii.), nach.
Übung 5.49 (Dimension des Komplements). Seien V ein Vektorraum über k und
U V ein Unterraum. Seien W; W 0 V Komplemente von U .
i.) Zeigen Sie, dass es zu jedem w 2 W ein eindeutiges w0 2 W 0 gibt, welches
w0 w 2 U erfüllt.
ii.) Zeigen Sie, dass es eine invertierbare lineareˇ Abbildung ˚ 2 End.V / gibt,
welche W isomorph nach W 0 abbildet und ˚ ˇU D idU erfüllt.
iii.) Zeigen Sie, dass je zwei Komplemente W; W 0 V von U die gleiche Dimension besitzen.
Wenn wir später über den Begriff des Quotienten verfügen, werden wir hierfür einen
etwas konzeptuelleren Beweis finden.
Übung 5.50 (Kern von linearen Funktionalen). Betrachten Sie einen Vektorraum V über k sowie N linear unabhängige lineare Funktionale '1 ; : : : ; 'N 2 V .
i.) Zeigen Sie, dass der Kern ker ' V für ein lineares Funktional ' ¤ 0 ein
eindimensionales
Komplement besitzt.
T
ii.) Sei U D N
ker
'i V der Schnitt aller Kerne der linearen Funktionale.
iD1
Zeigen Sie, dass U ein N -dimensionales Komplement in V besitzt.
Hinweis: Hier ist zunächst Übung 5.49 hilfreich. Betrachten Sie die Abbildung ˚W V !
k n , die die 'i als Komponenten besitzt. Was ist das Bild, was der Kern von ˚?
iii.) Sei nun dim V D n < 1. Zeigen Sie, dass es eine Basis b1 ; : : : ; bn 2 V gibt,
sodass 'k D bk für k D 1; : : : ; N gilt.
Übung 5.51 (Dualraum einer direkten Summe). Sei I eine nichtleere Indexmenge und seien fVi gi2I Vektorräume über k. Zeigen Sie, dass
M
i2I
!
Vi
Š
Y
Vi ;
(5.197)
i2I
indem Sie einen möglichst einfachen und kanonischen Isomorphismus explizit
angeben.
Hinweis: Betrachten Sie die Einschränkung eines linearen Funktionals ˛ auf der direkten Summe
auf die i -te Komponente.
Übung 5.52 (Duale Basen und Matrixdarstellung). Seien V und W endlichdimensionale Vektorräume mit geordneten Basen A D .a1 ; : : : ; an / und
198
5 Lineare Abbildungen und Matrizen
B D .b1 ; : : : ; bm /. Seien weiter ˚ij 2 k mit i D 1; : : : ; m und j D 1; : : : ; n.
Definieren Sie eine Abbildung
˚W V 3 v 7! ˚.v/ D
m X
n
X
˚ij aj .v/bi 2 W:
(5.198)
iD1 j D1
Zeigen Sie, dass ˚ linear ist, und bestimmen Sie ihre Matrixdarstellung
B Œ˚A .
Übung 5.53 (Natürlichkeit und Dualraum). Betrachten Sie endlich-dimensionale
Vektorräume V und W über k sowie deren Dualräume V und W .
i.) Zeigen Sie, dass für eine geordnete Basis B D .b1 ; : : : ; bn / von V mit dualer
Basis B D .b1 ; : : : ; bn / die Abbildung
˚B W V 3 v 7! ˚B .v/ D
n
X
bi .v/bi 2 V (5.199)
iD1
ein linearer Isomorphismus ist. Bestimmen Sie ˚B .bi / für alle i D 1; : : : ; n.
ii.) Seien nun geordnete Basen A von V und B von W gegeben mit zugehörigen
Isomorphismen ˚A W V ! V und ˚B W W ! W . Finden Sie explizit eine
lineare Abbildung W V ! W derart, dass ı ˚B ı ¤ ˚A . Im Vergleich
zum Doppeldualraum sind die Isomorphismen ˚A und ˚B also nicht natürlich.
Übung 5.54 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen
falsche Aussagen richtig werden.
0 1
0 1
3
1
i.) Es existiert eine lineare Abbildung W R3 ! R3 mit W @3A 7! @4A.
1
4
ii.) Es existiert eine eindeutige Diagonalmatrix D 2 M3 .k/ mit
1 0 1
3
3
D @ 2 A D @ 2 A:
1
1
0
(5.200)
iii.) Es gibt (mindestens) 100 verschiedene Matrizen A 2 M2 .R/ mit A2 D 1.
iv.) Die Einschränkung einer linearen Abbildung auf einen Teilraum ist wieder
linear.
v.) Die rationalen Polynome QŒx sind zu einem geeignet gewählten Unterraum
des rationalen Vektorraums R isomorph.
vi.) Eine lineare Abbildung A 2 End.V / mit A2 A C idV D 0 ist immer
invertierbar.
5.7 Übungen
199
Eine lineare Abbildung A 2 End.V / ist genau dann invertierbar, wenn A ¤ 0.
Es existiert eine Matrix A 2 M2 .k/ mit A2 D 00 10 .
Auf jedem reellen Vektorraum existiert eine lineare fast-komplexe Struktur.
Die reellen Polynome vom Grad höchstens 4 bilden einen Unterraum von
RŒx, der zu R5 isomorph ist.
xi.) Sei U V ein echter Unterraum. Dann gibt es ein von null verschiedenes
lineares Funktional ' 2 V n f0g mit U ker '.
vii.)
viii.)
ix.)
x.)
6
Determinanten und Eigenwerte
In diesem Kapitel werden wir hauptsächlich endlich-dimensionale Vektorräume
über einem Körper k betrachten. Damit können wir uns also auf den Vektorraum kn
für n 2 N beschränken und lineare Abbildungen mit Matrizen Mnm .k/ identifizieren. Für quadratische Matrizen Mn .k/, welche gerade den Endomorphismen von
kn entsprechen, werden wir die Determinante definieren und eingehend studieren.
Sie wird insbesondere ein einfaches Kriterium für die Invertierbarkeit von Matrizen
liefern. Weiter wird sie für die Behandlung des Eigenwertproblems eine zentrale
Rolle spielen. Die Frage nach der Existenz von genügend vielen Eigenvektoren,
um die Diagonalisierbarkeit des Endomorphismus zu gewährleisten, wird uns auf
das charakteristische Polynom und das Minimalpolynom eines Endomorphismus
führen. Für einen algebraisch abgeschlossenen Körper, oder etwas allgemeiner
für ein in Linearfaktoren zerfallendes charakteristisches Polynom, werden wir mit
der Jordan-Zerlegung und dem zugehörigen Spektralsatz ein effektives Mittel zur
Diagonalisierung finden. Mit der Jordan-Normalform finden wir schließlich auch
noch für den nilpotenten Anteil eines Endomorphismus eine besonders einfache
Form.
6.1
Die symmetrische Gruppe Sn
Sei n 2 N. In Beispiel 3.21, iv.), haben wir die symmetrische Gruppe Sn als die
Gruppe der invertierbaren Elemente des Monoids Abb.n; n/ der Abbildung der
Menge n D f1; : : : ; ng in sich definiert. Da eine Abbildung W n ! n genau
dann invertierbar ist, wenn sie bijektiv ist, ist Sn also die Gruppe der bijektiven
Abbildungen von n in sich. Man beachte, dass eine Abbildung W n ! n genau
dann bijektiv ist, wenn sie injektiv ist, oder äquivalent dazu, wenn sie surjektiv ist.
Dies ist selbstverständlich nur deshalb richtig, da n eine endliche Menge ist. In
Übung 3.5 wurde gezeigt, dass die symmetrische Gruppe
Sn D Abb.n; n/
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_6
(6.1)
201
202
6 Determinanten und Eigenwerte
genau nŠ Elemente besitzt. Es ist manchmal bequem, auch den Fall n D 0
zuzulassen. Dann ist S0 konventionsgemäß die triviale Gruppe mit nur einem
Element, der Identität. Wir wollen nun Abbildungen W n ! n und speziell die
Permutationen genauer betrachten.
Definition 6.1 (Fehlstand). Sei 2 Sn . Ein Paar .i; j / 2 n n heißt Fehlstand
(oder Inversion) von , falls i < j und .i / > .j / gilt. Die Anzahl der Fehlstände
heißt auch Länge `. / der Permutation.
Wir erinnern nun an die Definition des Signums einer reellen Zahl ˛ 2 R. Wir
setzen
8
ˆ
˛>0
ˆ
<1
sign.˛/ D 0
(6.2)
˛D0
ˆ
:̂1 ˛ < 0:
Dies erlaubt es nun, auch ein Signum für eine Abbildung 2 Abb.n; n/ zu definieren.
Definition 6.2 (Signum). Sei 2 Abb.n; n/. Dann definiert man das Signum von
als
Y
sign. / D
sign. .j / .i //:
(6.3)
i<j
Q
Hier bezeichnet i<j das Produkt überQ
alle Zahlen i; j D 1; : : : ; n mit i < j . Diese
P
Schreibweise mit dem Produktzeichen wird genauso wie das Summenzeichen
verwendet und steht hier nicht für ein kartesisches Produkt von Mengen.
Ist .i; j / ein Fehlstand, so ist .j / .i / < 0 und daher der zugehörige Faktor
.1/. Ist keine Permutation, so ist nicht injektiv. Damit gibt es also ein Paar
.i; j / mit i < j , aber .i / D .j /. Das Signum ist dann also 0. Ist eine
Permutation, so ist für i ¤ j auch .i / ¤ .j /. Daher gilt sign. / D ˙1.
Zusammenfassend erhalten wir also folgendes Resultat:
Lemma 6.3. Sei 2 Abb.n; n/. Dann gilt
(
sign. / D
0
.1/
falls 62 Sn
`./
falls 2 Sn :
(6.4)
Dieses Lemma erlaubt folgende Definition:
Definition 6.4 (Gerade und ungerade Permutation). Eine Permutation 2 Sn
heißt gerade, falls sign. / D 1, und ungerade, falls sign. / D 1.
6.1 Die symmetrische Gruppe Sn
203
Mit anderen Worten, 2 Sn ist gerade (ungerade), wenn die Anzahl der Fehlstände
in gerade (ungerade) ist.
Definition 6.5 (Transposition). Sei i ¤ j . Dann heißt die Permutation
=
1 2
i −1 i i +1
1 2
i −1 j
j−1 j
i +1
j+1
n
j−1 i j+1
n
,
(6.5)
die i mit j vertauscht und alle andere Elemente von n fest lässt, die Transposition
von i und j .
Es genügt offenbar i < j zu betrachten, da ij D j i gilt. Weiter ist klar, dass
ij ij D id :
(6.6)
Lemma 6.6. Eine Transposition ij 2 Sn ist ungerade. Es gilt
`.ij / D 2.j i / 1
(6.7)
und daher sign.ij / D 1.
Beweis. Wir müssen die Fehlstände von
ij D
1 2 ::: i ::: j ::: n
1 2 ::: j ::: i ::: n
bestimmen. Ein Paar .k; `/ ist ein Fehlstand von ij , wenn k D i und ` 2 fi C
1; : : : ; j g oder wenn ` D j und k 2 fi C 1; : : : ; j 1g. Zusammen sind das dann
2.j i / 1 Fehlstände.
t
u
Die Transpositionen sind gewissermaßen die Atome der Permutationsgruppe. Es
gilt nämlich, dass jede Permutation ein geeignetes Produkt von Transpositionen ist:
Proposition 6.7. Sei 2 Sn . Dann lässt sich als Produkt von höchstens n 1
Transpositionen schreiben.
Beweis. Für n D 1 ist dies richtig: In der trivialen Gruppe benötigt man für id keine
Transposition. Wir beweisen die Behauptung daher durch vollständige Induktion.
Sei also 2 Sn gegeben. Wir unterscheiden zwei Fälle: Gilt .n/ D n, so ist
eine Permutation der ersten n 1 Elemente f1; : : : ; n 1g untereinander und
kann daher als Permutation in Sn1 angesehen werden, siehe auch Übung 3.10.
Daher können wir als Produkt von höchstens n 2 Transpositionen schreiben.
204
6 Determinanten und Eigenwerte
Gilt umgekehrt .n/ ¤ n, so lässt die Permutation n;.n/ D 0 das Element n 2 n
fest. Also können wir 0 als Produkt von höchstens n 2 Transpositionen und dann
D n;.n/ 0 als Produkt von höchstens n 1 Transpositionen schreiben.
t
u
Die entscheidende Verbindung zwischen dieser Proposition und dem Signum
einer beliebigen Permutation ist, dass sign ein Gruppenmorphismus ist:
Proposition 6.8. Sei n 2 N. Das Signum
signW Abb.n; n/ ! f1; 0; 1g
(6.8)
ist ein Monoidmorphismus, wobei f1; 0; 1g mit der üblichen Multiplikation als
Monoid aufgefasst wird. Insbesondere ist
signW Sn ! f˙1g
(6.9)
ein Gruppenmorphismus.
Beweis. Es gilt offenbar sign.id/ D 1 und sign. / 2 f˙1g genau dann, wenn 2
Sn . Es bleibt also, die Multiplikativität von sign zu zeigen. Ist oder nicht bijektiv,
so ist auch nicht bijektiv. Es folgt also in diesem Fall
sign. / sign. / D 0 D sign. /:
Sind nun beide ; bijektiv, so erhalten wir
sign. /
Y
sign. .j / .i //
D
i<j
.a/
D
Y
sign. . .j // . .i /// i<j
.i/<.j /
.b/
D
Y
D
Y
sign. . .j // . .i /// sign. / D
Y
sign. . .i // . .j ///
i<j
.j /<.i/
sign. . .j // . .i /// sign. / i<j
.i/<.j /
.d / Y
sign. . .j // . .i ///
i<j
.j /<.i/
i<j
.i/<.j /
.c/
Y
sign. .s/ .r// sign. /
r<s
D sign. / sign. /:
Y
sign. . .j // . .i ///
j <i
.i/<.j /
6.1 Die symmetrische Gruppe Sn
205
Hierbei haben wir in .a/ das Produkt in zwei Teile faktorisiert, je nachdem ob
.i / oder .j / größer ist. In .b/ drehen wir die Reihenfolge der Argumente von
sign. . .j // . .i /// um, was insgesamt so viele Vorzeichen liefert, wie wir
Fehlstände in haben, also einen Faktor sign. / erfordert. In .c/ benennen wir die
Indizes i und j im zweiten Faktor um. Schließlich durchlaufen r D .i / < .j / D
s wieder alle Möglichkeiten, wenn wir die beiden Produkte zusammennehmen, da
2 Sn . Dies zeigt aber die Multiplikativität auch in diesem Fall.
t
u
Korollar 6.9. Sei 2 Sn .
i.) Es gilt sign. 1 / D sign. /.
ii.) Es gilt sign. / D 1 genau dann, wenn ein Produkt von einer geraden Anzahl
von Transpositionen ist.
Man beachte, dass die Anzahl der Transpositionen, die nötig ist, um als Produkt
von Transpositionen zu schreiben, nicht eindeutig ist: id kann beispielsweise als
Produkt mit 0 oder mit 2 Transpositionen ij ij D id geschrieben werden. Lediglich
die Frage, ob es eine gerade oder ungerade Anzahl ist, ist eindeutig durch bestimmt.
Korollar 6.10. Die Teilmenge
ˇ
˚
An D 2 Sn ˇ sign. / D 1 D ker sign Sn
ist eine normale Untergruppe von Sn .
Diese normale Untergruppe heißt auch die alternierende Gruppe An .
Korollar 6.11. Sei n 2 und 2 Sn eine ungerade Permutation. Dann gilt
Sn D An [ An
mit
An \ An D ;;
(6.10)
und daher hat An genau 12 nŠ Elemente.
Beweis. Ist 2 An , so ist ungerade, also nicht in An . Umgekehrt ist für 2 An die Permutation gerade, also in An . Da offenbar An \ An D ;, zeigt dies, dass
die Multiplikation mit eine Bijektion An ! An liefert. Also ist An halb so
mächtig wie Sn .
t
u
Kontrollfragen. Wie viele Elemente hat Sn ? Wie ist sign definiert? Wieso ist
sign ein Monoidmorphismus? Wann ist eine Permutation gerade? Was ist eine
Transposition?
206
6.2
6 Determinanten und Eigenwerte
Existenz und Eindeutigkeit der Determinante
In diesem Abschnitt wollen wir die wesentlichen Eigenschaften der Determinante
vorstellen: eine explizite Formel, die von den gefundenen Eigenschaften von Permutationen und deren Signum Gebrauch macht, und eine abstrakte Charakterisierung.
Zur Motivation betrachten wir eine einfache und aus der elementaren Geometrie
vertraute Situation. Im R2 soll der Flächeninhalt eines Parallelogramms ausgerechnet werden. Dieses denken wirunsvon zwei Vektoren
aE und bE aufgespannt,
a1
b1
siehe Abb. 6.1. Schreiben wir aE D
und bE D
, so zeigt eine elementare
a2
b2
Überlegung, dass der Flächeninhalt des Parallelogramms durch
E D ja1 b2 a2 b1 j
A.E
a; b/
(6.11)
gegeben ist. Die Größe a1 b2 a2 b1 ist uns als 3-Komponente des Kreuzprodukts
E D 0, falls die Vektoren aE und bE
im R3 bereits begegnet. Insbesondere gilt A.E
a; b/
parallel sind. Wir nennen nun einige Eigenschaften des Flächeninhaltes. Es gilt
E 2 / D 1;
E1; e
A.e
(6.12)
E D jjA.E
E
A.E
a; b/
a; b/;
(6.13)
E D A.b;
E aE /;
A.E
a; b/
(6.14)
E
A.E
a; bE C E
a/ D A.E
a; b/
(6.15)
für alle 2 R. Die erste Gleichung ist die Normierung des Flächeninhaltes des
Einheitsquadrats auf 1, die zweite liefert das Verhalten des Flächeninhaltes unter
Streckung einer Seite. Die dritte ist die Spiegelinvarianz unter dem Vertauschen der
Seiten. Die letzte ist die Scherungsinvarianz, siehe auch Abb. 6.2.
Abb. 6.1 Das durch die
Vektoren aE und bE
aufgespannte Parallelogramm
b
A(a, b)
a
6.2 Existenz und Eindeutigkeit der Determinante
b
207
b + λa
A(a, b + λa)
a
Abb. 6.2 Scherungsinvarianz des Flächeninhaltes
Die zu findende Determinante als Ersatz für den Flächeninhalt soll nun zwei
Dinge leisten: Zum einen suchen wir eine Version für alle Dimensionen n 2 N und
nicht nur für n D 2. Zum anderen wollen wir eine Version ohne „Betragstriche“,
da wir in einem beliebigen Körper k zunächst keine Möglichkeit haben, von
Beträgen zu sprechen. Damit müssen wir also insbesondere (6.13) modifizieren:
Wir wollen einfach eine Homogenität für 2 k und daher eine Rechenregel der
E D .E
E ohne Betrag. Damit kann der „Flächeninhalt“ dann
Form .E
a; b/
a; b/
aber auch negative Werte für k D R annehmen. Die Interpretation ist daher die,
dass es sich um einen orientierten Flächeninhalt handelt, der auch die Orientierung
der Vektoren aE und bE berücksichtigt. Insbesondere wird dies nur dann konsistent
E D .b;
E aE / anstelle von (6.14) gilt. Dies liefert
möglich sein, wenn auch .E
a; b/
dann aber auch schon die richtige Axiomatik für die Determinante. Zuvor bemerken
wir jedoch, dass in zwei Dimensionen die Kombination
E D a1 b2 a2 b1
det.E
a; b/
(6.16)
genau diese gewünschte Eigenschaften besitzt und
E D jdet.E
E
A.E
a; b/
a; b/j
(6.17)
erfüllt.
Wir formulieren nun allgemein für zunächst beliebige k-Vektorräume die Bedingungen an eine Determinante. Hier ist zunächst der Begriff der multilinearen
Abbildung zu erklären:
Definition 6.12 (Multilineare Abbildung). Seien V1 ; : : : ; Vk und W Vektorräume
über k. Eine Abbildung
˚W V1 Vk ! W
(6.18)
208
6 Determinanten und Eigenwerte
heißt k-linear, falls für alle 1 ` k und v1 2 V1 ; : : : ; v` ; v`0 2 V` ; : : : ; vk 2 Vk
und ; 0 2 k
˚.v1 ; : : : ; v` C0 v`0 ; : : : ; vk / D ˚.v1 ; : : : ; v` ; : : : ; vk /C0 ˚.v1 ; : : : ; v`0 ; : : : ; vk /:
(6.19)
Mit anderen Worten bedeutet Multilinearität also gerade Linearität in jedem Argument bei festgehaltenen übrigen Argumenten.
Beispiel 6.13 (Multilineare Abbildung). Wir haben bereits verschiedene multilineare Abbildungen kennengelernt:
i.) Eine 1-lineare Abbildung ist offenbar gerade eine lineare Abbildung.
ii.) Das euklidische Skalarprodukt
h ; iW R3 R3 ! R
(6.20)
W R3 R3 ! R3
(6.21)
ist bilinear.
iii.) Das Kreuzprodukt
ist ebenfalls bilinear. Durch Kombination erhält man das Spatprodukt
E cE/ 7! vol.E
E cE/ D aE .bE cE/ 2 R;
a; b;
a; b;
volW R3 R3 R3 3 .E
(6.22)
welches nun eine trilineare Abbildung ist, siehe auch Übung 1.11.
iv.) Die Verkettung ı von linearen Abbildungen
ıW Hom.W; U / Hom.V; W / 3 . ; ˚/ 7! ı ˚ 2 Hom.V; U /
(6.23)
ist bilinear nach Proposition 5.16.
v.) Seien k; n 2 N, dann ist das k-fache Matrixprodukt
Mn .k/ Mn .k/ 3 .A1 ; : : : ; Ak / 7! A1 Ak 2 Mn .k/
„
ƒ‚
…
(6.24)
k-mal
eine k-lineare Abbildung. Dies erhält man durch wiederholtes Anwenden aus
der Bilinearität der Matrixmultiplikation.
Bemerkung 6.14 (Multilineare Abbildung). Die obigen Beispiele legen nahe, dass
multilineare Abbildungen omnipräsent sind. Sie erfordern ein detailliertes Studium,
welches wir zu einem späteren Zeitpunkt in Band2 systematisch aufnehmen wollen.
6.2 Existenz und Eindeutigkeit der Determinante
209
Eine spezielle und für unsere Zwecke wichtige Klasse von multilinearen Abbildungen sind die alternierenden multilinearen Abbildungen:
Definition 6.15 (Alternierende multilineare Abbildung). Sei k 2 N und seien
V; W Vektorräume über k. Eine k-lineare Abbildung
˚W „
V ƒ‚
V… ! W
(6.25)
k-mal
heißt alternierend, falls ˚.v1 ; : : : ; vk / D 0, sobald zwei Vektoren gleich sind, es
also i ¤ j mit vi D vj gibt.
Das Kreuzprodukt ist offenbar alternierend, da aE aE D 0. Da aE bE senkrecht auf aE
und bE steht, kann man folgern, dass auch das Spatprodukt (6.22) alternierend ist.
Die folgende Proposition klärt nun erste Eigenschaften von alternierenden
k-linearen Abbildungen und zeigt insbesondere die Beziehungen zur Permutationsgruppe auf:
Proposition 6.16. Seien V; W Vektorräume, sei k 2 N, und sei ˚W V V !
W eine alternierende k-lineare Abbildung.
i.) Die Menge der alternierenden k-linearen Abbildungen V V ! W ist
ein Untervektorraum von Abb.V V; W /.
ii.) Für i ¤ j und v1 ; : : : ; vk 2 V sowie 2 k gilt
˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vk /:
(6.26)
iii.) Für jedes 2 Abb.k; k/ gilt
˚.v.1/ ; : : : ; v.k/ / D sign. /˚.v1 ; : : : ; vk /:
(6.27)
Insbesondere gilt für i ¤ j
˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk /:
iv.) Seien wi D
Pk
j D1
(6.28)
ij vj mit ij 2 k und i D 1; : : : ; k. Dann gilt
0
˚.w1 ; : : : ; wk / D @
X
1
sign. /.1/1 .k/k A˚.v1 ; : : : ; vk /
(6.29)
2Sk
0
D@
X
2Sk
1
sign. /1.1/ k.k/ A˚.v1 ; : : : ; vk /:
(6.30)
210
6 Determinanten und Eigenwerte
Beweis. Seien ˚; ˚ 0 W V V ! W beide k-linear und ; 0 2 k. Da die
Vektorraumstruktur von Abb.V V; W / punktweise erklärt ist, zeigt man
wie auch schon bei linearen Abbildungen, siehe Proposition 5.15, dass ˚ C 0 ˚ 0
wieder k-linear ist. Sind beide zudem alternierend, so gilt dies auch für ˚ C 0 ˚ 0
mit einem analogen Argument. Dies zeigt den ersten Teil. Für den zweiten Teil
benutzen wir die Linearität im i -ten Argument und erhalten
˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk /
D ˚.v1 ; : : : ; vj ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vk /
D 0 C ˚.v1 ; : : : ; vk /;
da ˚ alternierend ist. Sei nun i ¤ j und ohne Einschränkung i < j . Dann gilt
˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk /
ii.)
D ˚.v1 ; : : : ; vi C vj ; : : : ; vj ; : : : ; vk / C ˚.v1 ; : : : ; vj C vi ; : : : ; vi ; : : : ; vk /
D ˚.v1 ; : : : ; vi C vj ; : : : ; vi C vj ; : : : ; vk /
D0
nach dem zweiten Teil und der Voraussetzung, dass ˚ multilinear und alternierend
ist. Dies zeigt aber
˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk /
für alle i ¤ j . Damit folgt (6.27) für jede Transposition ij 2 Sn . Ist nun
2 Sk beliebig, so ist D 1 r mit gewissen Transpositionen 1 ; : : : ; r 2 Sk
nach Proposition 6.7. Wiederholtes Anwenden von (6.27) für die Transpositionen
1 ; : : : ; r liefert
˚.v.1/ ; : : : ; v.k/ / D sign.1 / sign.r /˚.v1 ; : : : ; vk / D sign. /˚.v1 ; : : : ; vk /;
da das Signum ein Gruppenmorphismus ist. Ist schließlich 2 Abb.k; k/ keine
Permutation, so ist nicht injektiv. Es treten daher in v.1/ ; : : : ; v.k/ mindestens
zwei gleiche Vektoren auf, womit die linke Seite in (6.27) verschwindet. Die rechte
Seite ist dann aber auch null, da sign. / D 0. Für den vierten Teil rechnen wir nach,
dass
1
0
k
k
X
X
1j1 vj1 ; : : : ;
kjk vjk A
˚.w1 ; : : : ; wk / D ˚ @
j1 D1
jk D1
6.2 Existenz und Eindeutigkeit der Determinante
.a/
D
k
X
j1 D1
.b/
D
X
k
X
211
1j1 kjk ˚.vj1 ; : : : ; vjk /
jk D1
1.1/ k.k/ ˚.v.1/ ; : : : ; v.k/ /
2Sk
.c/
D
X
sign. /1.1/ k.k/ ˚.v1 ; : : : ; vk /;
2Sk
wobei wir in (a) die k-Linearität benutzen. Für (b) verwenden wir, dass eine
alternierende k-lineare Abbildung verschwindet, sobald zwei Vektoren gleich sind.
Daher bleiben von den k k Summanden der k Summen nur diejenigen übrig, wo
.j1 ; : : : ; jn / eine Permutation von .1; : : : ; k/ ist. Offenbar kommt jede Permutation
genau einmal vor. In (c) verwenden wir schließlich (6.27). Dies zeigt (6.30). Da
7! 1 eine Bijektion Sn ! Sn ist, was ja für jede Gruppe gilt, können wir
auch
X
X
sign. /1.1/ k.k/ D
sign. / 1 ..1//;.1/ 1 ..k//;.k/
2Sk
2Sk
D
X
sign. / 1 .1/1 1 .n/n
1 2Sk
schreiben. Da und 1 das gleiche Signum haben, folgt auch (6.29).
t
u
Bemerkung 6.17. Sei k ein Körper mit char.k/ ¤ 2. Dann ist eine k-lineare
Abbildung ˚W V V ! W genau dann alternierend, wenn für alle i ¤ j
˚.v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk / D ˚.v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk /
(6.31)
für alle v1 ; : : : ; vk 2 V gilt. Die eine Implikation gilt allgemein in jeder Charakteristik. Für die Umkehrung sei nun (6.31) gültig, so gilt
˚.v1 ; : : : ; vi ; : : : ; vi ; : : : ; vk / D ˚.v1 ; : : : ; vi ; : : : vi ; : : : ; vk /
(6.32)
und daher
2˚.v1 ; : : : ; vi ; : : : ; vi ; : : : ; vk / D 0:
(6.33)
Daraus können wir ˚.v1 ; : : : ; vi ; : : : ; vi ; : : : vk / D 0 schließen, sofern 2 ¤ 0, also
char.k/ ¤ 2. Diese Eigenschaft erklärt die Bezeichnung alternierend. Alternativ
verwendet man auch die Bezeichnung total antisymmetrisch.
212
6 Determinanten und Eigenwerte
Die letzte Eigenschaft in Proposition 6.16 zeigt, dass es in endlichen Dimensionen keine alternierenden k-linearen Abbildungen ungleich 0 gibt, wenn k zu groß
ist:
Korollar 6.18. Sei dim V D n < 1 und k > n. Dann verschwindet jede k-lineare
alternierende Abbildung ˚W V V ! W .
Beweis. Sei .v1 ; : : : ; vn / eine geordnete Basis von V und w1 ; : : : ; wk 2 V beliebig.
Dann gibt es eindeutig bestimmte Zahlen wij mit
wi D
n
X
wij vj
j D1
für alle i D 1; : : : ; k. Da k > n, setzen wir für j > n
vj D vn
und ergänzen die rechteckige Matrix W D .wij / 2 Mkn .k/ zu einer quadratischen
Matrix WQ D .wQ ij / 2 Mkk .k/, indem wir noch einige 0-Spalten hinzufügen. Damit
gilt also
wi D
k
X
wQ ij vj ;
j D1
da die neu hinzugekommenen Koeffizienten alle null sind. Mithilfe von Proposition 6.16, iv.), folgt
0
˚.w1 ; : : : ; wk / D @
X
1
sign. /w
Q .1/1 wQ .k/k A˚.v1 ; : : : ; vk / D 0;
2Sk
da vn D vnC1 D D vk .
t
u
Der spannende Fall ist also für k D n erreicht: Hier liefert Proposition 6.16 sofort
eine eindeutige Charakterisierung.
Proposition 6.19. Sei dim V D n < 1. Der Vektorraum der n-linearen alternierenden Abbildungen
˚W V V ! W
(6.34)
ist zu W isomorph. Ist .v1 ; : : : ; vn / eine geordnete Basis von V , so liefert die
Zuordnung
6.2 Existenz und Eindeutigkeit der Determinante
213
˚ 7! ˚.v1 ; : : : ; vn /
(6.35)
einen solchen Isomorphismus.
Beweis. Wir zeigen, dass (6.35) ein Isomorphismus ist. Offensichtlich ist (6.35)
linear, da die Vektorraumstruktur der alternierenden n-linearen Abbildungen die von
Abb.V V; W / geerbte, punktweise erklärte Vektorraumstruktur ist, siehe auch
Beispiel 4.11. Aus Proposition 6.16, iv.), erhalten wir die Injektivität dieser linearen
Abbildung: Für u1 ; : : : ; un 2 V ist
0
˚.u1 ; : : : ; un / D @
X
1
sign. /u1.1/ un.n/ A˚.v1 ; : : : ; vn /
(6.36)
2Sn
offenbar durch ˚.v1 ; : : : ; vn / eindeutig bestimmt. Also gilt ˚ D 0 genau dann,
wenn ˚.v1 ; : : : ; vn / D 0. Die Formel (6.36) liefert auch einen Hinweis auf die
Existenz. Für einen gegebenen Wert w 2 W definieren wir ˚W V V ! W
analog zu (6.36) durch
0
˚.u1 ; : : : ; un / D @
X
1
sign. /u1.1/ un.n/ A w;
(6.37)
2Sn
wobei wie immer
ui D
n
X
uij vj
j D1
die Basisdarstellung von ui bezüglich der geordneten Basis .v1 ; : : : ; vn / ist. Für
u1 D v1 ; : : : ; un D vn erhalten wir dank vij D ıij
X
2Sn
sign. /v1.1/ vn.n/ D
X
sign. /ı1.1/ ın.n/ D 1;
2Sn
da nur für D id alle Faktoren in ı1.1/ : : : ın.n/ ungleich null und dann gleich 1
sind. Damit hat die durch die rechte Seite von (6.37) definierte Abbildung auf den
Basisvektoren v1 ; : : : ; vn tatsächlich den vorgegebenen Wert w D ˚.v1 ; : : : ; vn /.
Es bleibt zu prüfen, ob (6.37) sowohl n-linear als auch alternierend ist. Da die
Koordinaten von ui
uij D vj .ui /
linear von ui abhängen, ist die n-Linearität von der rechten Seite in (6.37) klar.
Sei nun i ¤ j und ui D uj . Wir müssen zeigen, dass dann die rechte Seite
214
6 Determinanten und Eigenwerte
von (6.37) verschwindet, egal wie ˚.v1 ; : : : ; vn / vorgegeben wurde. Sei also ohne
Einschränkung i < j . Dann definieren wir
Sn0 D f 2 Sn j .i / < .j /g und
Sn00 D f 2 Sn j .j / < .i /g:
Es gilt offenbar Sn0 \Sn00 D ; und Sn D Sn0 [Sn00 . Weiter ist 2 Sn0 ” ij 2 Sn00 ,
womit dank ij ij D id die Abbildung
Sn0 3 7! ij 2 Sn00
eine Bijektion ist. Sei nun 2 Sn , dann gilt wegen ui D uj auch für die
Koeffizienten uir D ujr für alle r D 1; : : : ; n und damit
u1.1/ ui.i/ uj .j / un.n/ D u1.1/ uj .i/ ui.j / un.n/
D u1 0 .1/ ui 0 .i/ uj 0 .j / un 0 .n/
(6.38)
mit der Permutation 0 .1/ D .1/, . . . , 0 .i / D .j / D .ij .i //, . . . , 0 .j / D
.i / D .ij .j //, . . . , 0 .n/ D .n/. Es ist also 0 D ij . Da schließlich
sign. / D sign. 0 / sign.ij / D sign. 0 /
für alle 2 Sn gilt, folgt
X
sign. /u1.1/ un.n/
2Sn
D
X
2Sn0
(6.38)
D
X
sign. /u1.1/ un.n/ C
X
2Sn0
sign. 0 /u1 0 .1/ un 0 .n/
ij D 0 2Sn00
sign. /u1.1/ un.n/ X
sign. /u1.1/ un.n/
2Sn0
D 0:
Damit ist die rechte Seite von (6.37) tatsächlich alternierend.
t
u
Man beachte jedoch, dass der Isomorphismus (6.35) von der Wahl der geordneten
Basis .v1 ; : : : ; vn / von V abhängt: Dieser Isomorphismus ist nicht natürlich, wie es
beispielsweise der Isomorphismus von V ! V im endlich-dimensionalen Fall
war.
Wir können nun diese Resultate dafür verwenden, die Eigenschaften einer Determinante zu definieren, welche diese dann eindeutig festlegen: Wir betrachten dazu
zunächst den Vektorraum W D k sowie V D kn . Da wir in kn eine ausgezeichnete
Wahl der Basis haben, können wir alternierende n-lineare Abbildungen durch ihre
Werte auf der Standardbasis e1 ; : : : ; en festlegen:
6.2 Existenz und Eindeutigkeit der Determinante
215
Definition 6.20 (Determinante). Sei n 2 N. Eine Determinantenform ˚ über kn
ist eine alternierende n-lineare Abbildung
˚W kn kn ! k:
(6.39)
Eine Determinantenform heißt Determinante, wenn zudem
˚.e1 ; : : : ; en / D 1
(6.40)
gilt.
Sind a1 ; : : : ; an 2 kn Spaltenvektoren, so bilden diese die Spalten einer n nMatrix
A D .a1 ; : : : ; an / 2 Mn .k/:
(6.41)
Umgekehrt liefern die Spalten einer nn-Matrix offenbar gerade n Spaltenvektoren
in kn . Mithilfe dieser Identifikation
Mn .k/ Š kn kn
(6.42)
können wir eine Determinantenform auch als Abbildung
˚W Mn .k/ ! k
(6.43)
auffassen. Man beachte jedoch, dass (6.43) nicht etwa linear ist: ˚ ist nur in jeder
Spalte bei festgehaltenen übrigen Spalten linear. Wir werden zwischen den beiden
Sichtweisen (6.43) und (6.39) ohne eigene Notation frei hin- und herwechseln. Die
fundamentalen Eigenschaften der Determinantenformen klärt nun folgender Satz:
Satz 6.21 (Determinante). Sei n 2 N.
i.) Der Vektorraum der Determinantenformen über kn ist eindimensional.
ii.) Es existiert genau eine Determinante
detW kn kn ! k:
(6.44)
iii.) Explizit gilt für a1 ; : : : ; an 2 kn die Leibniz-Formel
det.a1 ; : : : ; an / D
X
sign. /a1.1/ an.n/ ;
2Sn
und jede andere Determinantenform ˚ ist von der Form
(6.45)
216
6 Determinanten und Eigenwerte
˚.a1 ; : : : ; an / D ˚.e1 ; : : : ; en / det.a1 ; : : : ; an /:
(6.46)
iv.) Für alle A 2 Mn .k/ gilt
det.A/ D det.AT /:
(6.47)
det.AB/ D det.A/ det.B/;
(6.48)
detW Mn .k/ ! .k; /
(6.49)
v.) Für alle A; B 2 Mn .k/ gilt
womit
ein Monoidmorphismus ist.
Beweis. Nach Proposition 6.19 ist der erste Teil klar, da dim k D 1. Die Normierungsbedingung ˚.e1 ; : : : ; en / D 1 legt dann eine eindeutige Determinantenform,
nun mit det bezeichnet, fest, was den zweiten Teil zeigt. Die Konstruktion in
Proposition 6.19 beziehungsweise die explizite Formel in Proposition 6.16, iv.),
liefert den dritten Teil, da ja det.e1 ; : : : ; en / D 1 gilt. Die beiden alternativen Varianten in Proposition 6.16, iv.), sind verantwortlich für den vierten Teil. Für die
letzte Behauptung gibt es zwei Möglichkeiten: Zum einen kann man (6.48) mit
einigem Aufwand direkt anhand der Formel (6.47) und der Gleichung (5.79) für
die Matrixmultiplikation nachrechnen. Dies ist letztlich ohne große Schwierigkeiten
möglich, siehe Übung 6.2. Alternativ können wir so argumentieren: Für eine feste
Matrix A betrachten wir die Abbildung
˚A W Mn .k/ 3 B D .b1 ; : : : ; bn / 7! det.AB/ D det.Ab1 ; : : : ; Abn / 2 k;
wobei b1 ; : : : ; bn 2 kn die Spalten von B seien. Es gilt, dass ˚A eine n-lineare
Abbildung ist, da die Anwendung von A auf eine Spalte bi linear ist und det in jeder
Spalte linear ist. Sind nun in B zwei Spalten gleich, so sind die entsprechenden
Spalten in AB ebenfalls gleich. Damit folgt aber sofort, dass die Abbildung ˚A
alternierend ist, da det alternierend ist. Nach der Eindeutigkeit gemäß ii.) folgt also
˚A .B/ D ˚A .1/ det.B/ D det.A/ det.B/;
da offenbar ˚A .1/ D det.A/. Dies zeigt (6.48). Zusammen mit der Normierung
det.1/ D 1 ist det also ein Monoidmorphismus.
t
u
Korollar 6.22. Die Determinante liefert einen Gruppenmorphismus
detW GLn .k/ ! k D k n f0g:
(6.50)
6.2 Existenz und Eindeutigkeit der Determinante
217
Korollar 6.23. Die Determinante ist die eindeutige Abbildung Mn .k/ ! k,
welche in den Zeilen n-linear, alternierend und auf det.1/ D 1 normiert ist.
Beweis. Dies ist gerade der vierte Teil des Satzes 6.21.
t
u
Für den späteren Gebrauch und zur Illustration berechnen wir nun einige einfache
Determinanten:
Beispiel 6.24 (Determinanten). Wir betrachten wieder die Matrizen Vi i 0 , Sij und
Ri; der elementaren Umformungen aus Abschn. 5.5 für n 2.
i.) Die Matrix Vi i 0 2 Mn .k/ geht durch Vertauschen der i -ten mit der i 0 -ten Spalte
aus 1 hervor. Da die Transposition i i 0 das Signum 1 besitzt und det 1 D 1
gilt, folgt also
det Vi i 0 D 1:
(6.51)
ii.) Für die Matrix Sij enthält die j -te Spalte eine 1 sowohl an der j -ten als auch
an der i -ten Stelle. Daher ist diese j -te Spalte durch ej C ei gegeben. Weil für
die k-te Spalte mit k ¤ j der einzige nichtverschwindende Eintrag eine 1 an
der k-ten Stelle ist, gilt insgesamt
Sij D .e1 ; : : : ; ej 1 ; ej C ei ; ej C1 ; : : : ; en /:
(6.52)
Mit der Linearität der Determinante in der j -ten Spalte folgt
det Sij D det.e1 ; : : : ; en / C det.0; : : : ; 0; ei ; 0; : : : ; 0/ D 1 C 0;
(6.53)
da in der zweiten Matrix mindestens eine Spalte identisch 0 ist. Daher
folgt (6.53) aus der Linearität von det in dieser Spalte. Also gilt
det Sij D 1:
(6.54)
iii.) Für Ri; benutzen wir die Linearität in der i -ten Spalte und erhalten
det Ri; D det.1/ D :
(6.55)
Da die Determinante einen Gruppenmorphismus (6.50) liefert, können wir den
Kern dieses Gruppenmorphismus betrachten (man beachte, dass hier die Gruppen
multiplikativ geschrieben sind). Dies liefert eine Untergruppe von GLn .k/, welche
einen eigenen Namen verdient:
Definition 6.25 (Spezielle lineare Gruppe). Sei n 2 N. Die spezielle lineare
Gruppe SLn .k/ ist definiert als die Gruppe
218
6 Determinanten und Eigenwerte
ˇ
˚
SLn .k/ D A 2 GLn .k/ ˇ det A D 1 :
(6.56)
Nach Beispiel 6.24 sehen wir, dass beispielsweise die Matrizen Sij in SLn .k/ liegen,
die Matrizen Vi i 0 und Ri; für ¤ 1 jedoch nicht.
Kontrollfragen. Was ist eine alternierende multilineare Abbildung? Was ist eine
Determinantenform? Welche Beziehung von Determinante und Flächeninhalt kennen Sie? Wieso gilt det.AB/ D det.A/ det.B/?
6.3
Eigenschaften der Determinante
Wir wollen nun einige weitere Eigenschaften der Determinante bestimmen. Im Prinzip lassen sich alle, wenn auch nur mühsam, anhand der expliziten Formel (6.45)
von Leibniz beweisen. Wir werden allerdings oft einfachere Beweise mittels der
eindeutigen Charakterisierung der Determinante durch ihre Eigenschaften angeben.
Bemerkung 6.26 (Berechnung von det A). Mit der expliziten Formel (6.45) erhält
man für kleine n sofort folgende Formeln für die Determinante. Für n D 1 gilt
einfach
det.a/ D a:
(6.57)
ab
det
D ad bc;
cd
(6.58)
Für n D 2 erhält man
a
womit wir eine vorzeichenbehaftete Version des Flächeninhaltes des durch
c
b
und
aufgespannten Parallelogramms erhalten, siehe (6.11). Für n D 3 gibt die
d
Leibniz-Formel (6.45) die Terme
0
1
a11 a12 a13
a a a C a21 a32 a13 C a31 a12 a23
det@a21 a22 a23 A D 11 22 33
a21 a12 a33 a31 a22 a13 a11 a32 a23 :
a31 a32 a33
(6.59)
Dies stimmt mit dem Spatprodukt aus Beispiel 6.13, iii.) überein, was man durch
eine schnelle Rechnung bestätigt. Als Merkregel bietet sich hier die Regel von
Sarrus (Jägerzaunregel)
6.3 Eigenschaften der Determinante
det
a11 a12 a13
a21 a22 a23
a31 a32 a33
=
−
219
a11
a12
a13
a11
a12
a21
a22
a23
a21
a22
a31
−
a32
−
a333
+
a31
+
a32
(6.60)
+
an, um die Produkte und die richtigen Vorzeichen zu finden. Eine analoge Regel gibt
es für n 4 nicht: Wir wissen, dass es für n D 4 bereits 4Š D 24 Permutationen
und damit 24 verschiedene Terme in (6.45) gibt. Eine jägerzaunartige Konstruktion
in n D 4 liefert aber gerade 2 mal 4 Terme und damit sicherlich nicht genug, siehe
auch Übung 6.3.
Insgesamt sieht man, dass die Formel (6.45) für große n sehr ineffizient zur
Berechnung von det.A/ wird: Die Zahl der Terme nŠ wächst einfach viel zu schnell.
So erhält man etwa
1000Š ' 4:0239 102567 :
(6.61)
In Anwendungen ist es durchaus nicht abwegig, Determinanten von 1000 1000
Matrizen berechnen zu wollen. Eine explizite Auflistung aller Terme gemäß (6.45)
würde aber jeden noch so schnellen Computer vor unlösbare Aufgaben stellen.
Wir werden also insbesondere effizientere Methoden zur Berechnung von det.A/
benötigen als (6.45).
Proposition 6.27. Sei n 2 N und A 2 Mn .k/.
i.) Die Determinante det.A/ ist ein homogenes Polynom vom Grade n in den n2
Variablen a11 , a12 , . . . , ann . Insbesondere gilt
det.A/ D n det.A/
(6.62)
für alle 2 k.
ii.) Ist eine Spalte von A identisch null, so gilt
det.A/ D 0:
(6.63)
iii.) Ist eine Zeile von A identisch null, so gilt
det.A/ D 0:
(6.64)
Beweis. Der erste Teil ist die vielleicht wichtigste Folgerung aus der Leibniz-Regel
und anhand (6.45) klar. Der zweite Teil ist eine direkte Folge der Multilinearität.
Der dritte Teil folgt aus dem zweiten und aus Satz 6.21, iv.).
t
u
220
6 Determinanten und Eigenwerte
Zur Vorsicht sei hier angemerkt, dass es im Allgemeinen keine Möglichkeit gibt,
det.A C B/ aus det.A/ und det.B/ zu berechnen. Insbesondere ist det.A C B/ im
Allgemeinen verschieden von det.A/Cdet.B/. Die Determinante ist n-linear in den
Spalten (oder Zeilen) aber eben nicht linear, siehe auch Übung 6.4.
Nach Korollar 6.22 wissen wir, dass det.A/ ¤ 0 für eine invertierbare Matrix
A 2 GLn .k/ gilt. Dies sind auch die einzigen Matrizen mit nicht-verschwindender
Determinante:
Proposition 6.28. Sei n 2 N. Für A 2 Mn .k/ gilt genau dann det A ¤ 0, wenn A
invertierbar ist.
Beweis. Es bleibt die Rückrichtung zu Korollar 6.22 zu zeigen. Sei also A 2
Mn .k/ nicht invertierbar. Dann ist also im A ¤ kn und damit rank A < n nach
Proposition 5.54. Nach Satz 5.63 gibt es invertierbare Matrizen Q; P 2 Mn .k/ mit
QAP D
1k 0
0 0
mit k D rank A < n. Damit hat QAP also mindestens eine 0-Spalte, und folglich
gilt det.QAP / D 0. Nun gilt aber det Q ¤ 0 ¤ det P nach Korollar 6.22 und daher
det A D
1
det.QAP / D 0
det Q det P
t
u
nach Satz 6.21, v.).
Wir haben also ein einfaches Kriterium für die Invertierbarkeit von Matrizen
gefunden. Dies hat verschiedene wichtige Konsequenzen, eine erste wird im Falle
reeller Matrizen in der Analysis relevant:
Korollar 6.29. Die Menge der invertierbaren Matrizen GLn .R/ Mn .R/ Š Rn
bildet eine offene Teilmenge aller Matrizen.
2
Beweis. Dies erfordert einige Argumente aus der Analysis: Zunächst wissen wir
nach Proposition 6.27, i.), dass
detW Mn .R/ ! R
ein Polynom ist. Damit ist det insbesondere eine stetige Funktion. Daher ist das
Urbild
GLn .R/ D det1 .R n f0g/
der offenen Teilmenge R n f0g R selbst wieder offen.
t
u
6.3 Eigenschaften der Determinante
221
Wir wollen nun eine effektive Weise finden, die Determinante von (großen)
Matrizen zu berechnen. Dazu bildet folgendes Lemma eine Vorüberlegung:
Lemma 6.30. Sei n 2 N und A 2 Mn .R/ von der Form
1
A=
0
0
.
0
(6.65)
n
Dann gilt
det A D 1 n :
(6.66)
Beweis. Wir verwenden die Leibniz-Formel (6.45). Ist 2 Sn eine Permutation
ungleich id, so gibt es mindestens ein i 2 f1; : : : ; ng, wo
.i / < i
(6.67)
gilt. Wäre nämlich .i / i für alle i , so folgte zunächst .n/ n also .n/ D n.
Durch Induktion erhielte man dann .i / D i für alle i , also D id. Gilt also ¤ id
und damit (6.67), so ist mindestens ein Faktor im Produkt a1.1/ an.n/ gleich null
und damit a1.1/ an.n/ D 0. Es folgt
det A D
X
sign. /a1.1/ an.n/ D a11 ann ;
2Sn
wie behauptet.
t
u
Definition 6.31 (Dreiecksmatrix). Eine Matrix A D .aij / 2 Mn .k/ heißt obere
Dreiecksmatrix, falls aij D 0 für alle i > j . Entsprechend definiert man untere
Dreiecksmatrizen durch die Bedingung aij D 0 für alle j < i . Gilt zudem ai i D 0
für alle i , so heißt A echte obere (beziehungsweise echte untere) Dreiecksmatrix.
Mithilfe des Lemmas können wir die Determinanten von oberen Dreiecksmatrizen
(oder auch von unteren) leicht berechnen, da von den nŠ vielen Termen in der
Leibniz-Formel nur ein einziger von null verschieden ist. Wir können nun den GaußAlgorithmus dazu verwenden, die Matrix A auf obere Dreiecksform zu bringen:
222
6 Determinanten und Eigenwerte
Bemerkung 6.32. Sei A 2 Mn .k/. Der Gauß-Algorithmus liefert eine Matrix Q als
endliches Produkt von Matrizen der Form Vi i 0 ; Sij und Ri; mit i ¤ i 0 , i ¤ j und
2 k n f0g, sodass QA obere Zeilenstufenform
0
0 1
0
0 1
QA =
(6.68)
0
0 1
besitzt. Insbesondere ist QA eine obere Dreiecksmatrix. Die Matrix A ist offenbar
genau dann invertierbar, wenn der Gauß-Algorithmus
1
QA =
0
0
(6.69)
0
1
liefert. In diesem Fall gilt also
det A D
1
:
det Q
(6.70)
Da wir für die Matrizen Vi i 0 ; Sij und Ri; die Determinanten
det Vi i 0 D 1;
det Sij D 1;
und
det Ri; D (6.71)
bereits kennen, können wir die Determinante von Q leicht mittels Satz 6.21, v.), als
das Produkt der Determinanten der nötigen Faktoren Vi i 0 , Sij und Ri; berechnen.
Dies liefert dann unmittelbar (6.70). Ein grobes Abzählen der nötigen Rechenschritte des Gauß-Algorithmus führt (egal wie man die Details implementiert)
auf ein polynomiales Anwachsen der nötigen Schritte mit der Dimension n. Dies
ist ein viel moderateres Wachstum als nŠ, wie man es aus der Leibniz-Formel
direkt erhält. Daher bildet der Gauß-Algorithmus die Ausgangsbasis für Computerimplementierungen und die numerische Berechnung von Determinanten.
6.3 Eigenschaften der Determinante
223
Beispiel 6.33. Wir betrachten als Beispiel die Matrix
0
0
B3
ADB
@6
3
1
125
5 0 1C
C:
8 1 2A
204
Zuerst vertauschen wir die erste und zweite Zeile, multiplizieren also mit V12 und
erhalten
0
3
B0
V12 A D B
@6
3
1
501
1 2 5C
C:
8 1 2A
204
(6.72)
Dann addieren wir zur dritten beziehungsweise vierten Zeile ein geeignetes Vielfaches der ersten. Dies ändert die Determinante nicht. Wir können dies auch wieder
mit einem geeigneten Produkt von elementaren Umformungen erreichen. Einfacher
ist es jedoch, folgende Abkürzung einzuführen: Wir setzen
Sij; D 1nn C Eij :
(6.73)
Diese Matrix unterscheidet sich also von der Matrix Sij aus (5.115) dadurch, dass
ein beliebiger Skalar an der .i; j /-ten Stelle steht und nicht nur eine 1. Ganz
allgemein ist Sij; A diejenige Matrix, die aus A hervorgeht, indem man zur i -ten
Zeile das -Fache der j -ten Zeile addiert, siehe auch Übung 5.23. Es gilt
det Sij; D 1
(6.74)
für alle i ¤ j und 2 k mit dem gleichen Argument wie bereits für Sij . Wir
erhalten daher
0
3
B0
S41;1 S31;2 V12 A D B
@0
0
5
1
2
7
1
01
2 5C
C:
1 0A
05
Weiter geht es mit der zweiten Spalte. Wir benötigen
0
35
B0 1
S42;7 S32;2 S41;1 S31;2 V12 A D B
@0 0
00
0
2
5
14
1
1
5 C
C:
10 A
13
224
6 Determinanten und Eigenwerte
Schließlich erhalten wir für die dritte Spalte
0
3
B0
S43; 14 S42;7 S32;2 S41;1 S31;2 V12 A D B
@0
5
0
5
1
0
0
0
2
5
0
1
1
5C
C:
10 A
2
Die Determinante der rechten Seite ist nun einfach
0
3
B0
detB
@0
0
5
1
0
0
1
0 1
2 5C
C D 3 1 5 .2/ D 30:
5 10 A
0 2
Mit (6.74) und einem Vertauschen in (6.72) liefert das also insgesamt
det A D 30:
Eine ebenfalls in der Praxis sehr nützliche Vereinfachung ergibt sich für Blockmatrizen. Seien dazu
A 2 Mnn .k/;
B 2 Mnm .k/;
C 2 Mmn .k/
und
D 2 Mmm .k/
(6.75)
gegeben. Dann heißt die Matrix
A B
XD
2 MnCm .k/
C D
(6.76)
eine Blockmatrix mit Blockstruktur .n; m/, siehe auch Übung 5.25 für einige
allgemeine Eigenschaften zu Blockmatrizen. Interessant wird es nun, wenn einer
der nichtdiagonalen Blöcke verschwindet.
Proposition 6.34. Seien n; m 2 N und X 2 MnCm .k/ von der Blockstruktur
AB
XD
:
0 D
(6.77)
det X D det A det B:
(6.78)
Dann gilt
Beweis. Bringt man durch elementare Zeilenumformungen zunächst A auf obere
Dreiecksgestalt, so verändert sich zwar der rechteckige Block B, aber nicht der
quadratische Block D. Der Nullblock C D 0 wird ebenfalls nicht verändert.
Dies ist klar, da nur die ersten n Zeilen dazu verwendet werden. Anschließend
bringt man durch Zeilenumformungen der letzten m Zeilen die Matrix D auf obere
6.3 Eigenschaften der Determinante
225
Dreiecksgestalt. Dies erfordert wirklich nur die unteren m Zeilen, da der Block C
ja bereits verschwindet. Für eine Matrix der Form
a11
b11
b1m
bnm
0
X =
0
0 ann
bn1
0
0
d11
(6.79)
0
0
0
0
0 dmm
0
0
0
0
gilt dann det X 0 D a11
ann
d11
dmm
D det A0 det D 0 . Nun gilt aber
det A0 D ˙ det A und
det D 0 D ˙ det D;
je nachdem, wie oft man Zeilen vertauschen musste, um (6.79) zu erreichen. Dasselbe Vorzeichen tritt aber auch in det X D ˙ det X 0 auf, sodass insgesamt (6.78)
folgt.
t
u
Alternativ kann man wieder mit der Leibniz-Formel argumentieren und letztlich die Idee von Lemma 6.30 dahingehend erweitern, auch Blockmatrizen der
Form (6.73) zu erlauben. Etwas allgemeiner gilt sogar für Blockmatrizen der Form
A1
X=
0
0
∈ Mn ( )
0
(6.80)
An
mit Ai 2 Mni .k/ und n1 C C nk D n die Rechenregel
det X D det A1 det Ak :
(6.81)
Wichtig ist wieder nur, dass unterhalb der Diagonalen alle Blöcke verschwinden,
die Blöcke oberhalb der Diagonalblöcke sind beliebig und tragen nicht zum numerischen Wert der Determinante bei.
Eine unmittelbare Konsequenz dieser Überlegungen ist der folgende Entwicklungssatz von Laplace:
226
6 Determinanten und Eigenwerte
Satz 6.35 (Entwicklungssatz von Laplace). Sei A 2 Mn .k/, und sei
a1,1
a1,j−1
a1,j+1
a1,n
ai−1,1
ai −1,j−1
ai −1,j+1
ai −1,n
ai +1,1
ai −1,j−1
ai +1,j+1
ai +1,n
an,1
an,j−1
an,j+1
an,n
i-te Zeile
(6.82)
j-te Spalte
Aij =
diejenige .n 1/ .n 1/-Matrix, die man durch Streichen der i -ten Zeile und der
j -ten Spalte aus A erhält. Dann gilt für alle j; k 2 f1; : : : ; ng
n
X
.1/iCk aij det Aik D ıkj det A
(6.83)
iD1
und
n
X
.1/iCk aj i det Aki D ıkj det A:
(6.84)
iD1
Beweis. Wir betrachten zunächst j D k. Für die n n-Matrix
à ij =
a1,1
a1,j−1
0
a1,j+1
a1,n
ai −1,1
ai −1,j−1
0
ai −1,j+1
ai −1,n
ai,1
ai,j−1
1
ai,j+1
ai,n
ai +1,1
ai −1,j−1
0
ai +1,j+1
ai +1,n
an,1
an,j−1
0
an,j+1
an,n
,
bei der wir die j -te Spalte durch den i -ten Vektor ei der Standardbasis ersetzen, gilt
det AQij D .1/iCj det Aij ;
6.3 Eigenschaften der Determinante
227
da wir i 1 Vertauschungen benötigen, um die i -te Zeile an die oberste Position
zu tauschen, und anschließend j 1 Vertauschungen, um die j -te Spalte an die
erste Position zu tauschen. Nach unseren Resultaten zu Blockmatrizen gilt daher
also tatsächlich
1
det à ij = (−1) i −1+j−1 det
0
= (−1) i + j det A ij ,
A ij
0
wie behauptet. Die Linearität der Determinante in der j -ten Spalte zeigt nun
n
X
det A D a1j det AQ1j C C anj det AQnj D
aij .1/iCj det Aij
iD1
und damit (6.83) für den Fall k D j . Sei also als Nächstes k ¤ j . Wie immer
bezeichnen wir die i -te Spalte von A mit ai 2 kn . Sei dann
B D .a1 ; : : : ; aj ; : : : ; aj ; : : : ; an /;
wo wir anstelle der k-ten Spalte von A die j -te Spalte wiederholen. Dann
gilt offenbar det B D 0, da wir zweimal dieselbe Spalte in B vorliegen haben.
Andererseits können wir wieder die Linearität der Determinante in der k-ten Spalte
verwenden. Mit
aj D
n
X
aij ei
iD1
finden wir dann
det B =
n
i =1
=
n
i =1
aij det
a1,1
a1,k−1
0
a1,k+1
a1,n
ai −1,1
ai −1,k−1
0
ai − 1,k+1
ai −1,n
ai,1
ai,k−1
1
ai,k+1
ai,n
ai +1,1
ai − 1,k−1
0
ai +1,k+1
ai +1,n
an,1
an,k−1
0
an,k+1
an,n
aij (− 1) i + k det A ik ,
228
6 Determinanten und Eigenwerte
womit (6.83) auch für k ¤ j folgt. Die zweite Gleichung erhält man durch eine
analoge Argumentation nach Vertauschen der Zeilen- und Spaltenindizes.
t
u
Man nennt (6.83) für j D k auch die Entwicklung der Determinante nach der
j -ten Spalte und (6.84) entsprechend die Entwicklung nach der j -ten Zeile.
Bemerkung 6.36. Besitzt eine Matrix A eine Zeile oder eine Spalte mit vielen Nulleinträgen, so mag es vorteilhaft sein, den Entwicklungssatz zur konkreten
Berechnung heranzuziehen. In der Matrix aus Beispiel 6.33 wäre hier die dritte
Spalte interessant. Wir erhalten
0
1
1
1
0
0
125
3 51
0 15
5 0 1C
C D .1/1C3 2 det@ 6 8 2A C .1/3C3 1 det@ 3 5 1A:
8 1 2A
3 2 4
3 2 4
204
(6.85)
Die verbleibenden 3 3 Determinanten können dann mit der Regel von Sarrus
berechnet werden.
0
B3
detB
@6
3
Eine erste Anwendung aus dem Laplaceschen Entwicklungssatz ist die Cramersche Regel. Diese formulieren wir mithilfe der komplementären Matrix:
Definition 6.37 (Komplementäre Matrix). Sei A 2 Mn .k/. Die Matrix
A# D aij#
i;j D1;:::;n
mit aij# D .1/iCj det Aj i
(6.86)
heißt die zu A komplementäre Matrix.
Manchmal wird auch der Begriff adjungierte Matrix in der Literatur verwendet.
Wir bevorzugen jedoch „komplementär“ da wir „adjungiert“ im Zusammenhang
von euklidischen oder unitären Vektorräumen noch anderweitig benutzen werden.
Den Laplaceschen Entwicklungssatz können wir damit folgendermaßen umformulieren:
Korollar 6.38. Sei A 2 Mn .k/. Dann gilt
AA# D det A 1 D A# A:
(6.87)
Beweis. Wir berechnen den .k; j /-ten Eintrag von AA# und A# A explizit. Es gilt
#
.AA /j k D
n
X
iD1
#
aj i aik
D
n
X
iD1
aj i .1/iCk det Aki D ıkj det A
6.3 Eigenschaften der Determinante
229
und genauso
.A# A/j k D
n
X
aj# i aik D
iD1
n
X
.1/iCj det Aij aik D ıkj det A;
iD1
t
u
womit der Beweis erbracht ist.
Ist A nun invertierbar, so liefert Korollar 6.38 unmittelbar eine explizite Formel
für die inverse Matrix:
Satz 6.39 (Cramersche Regel, I). Sei A 2 GLn .k/. Dann gilt
A1 D
1
A# :
det A
(6.88)
Bemerkung 6.40. Zur effektiven Berechnung von A1 ist (6.88) allerdings wenig
tauglich: Es müssen ja n2 Determinanten für A# berechnet werden. Der GaußAlgorithmus zur Bestimmung der Inversen ist hier typischerweise einfacher: Man
findet für A 2 GLn .k/ die (nicht eindeutigen) Matrizen Q; P 2 GLn .k/ mit
QAP D 1
(6.89)
gemäß Satz 5.63, sodass Q und P Produkte der Matrizen vom Typ Vi i 0 ; Sij und Ri;
sind. Dann gilt mit (6.89) offenbar
A1 D PQ;
(6.90)
siehe auch Übung 5.9.
Trotzdem ist Satz 6.39 von erheblichem Interesse, wie etwa folgendes Resultat
für k D R zeigt:
Korollar 6.41. Sei n 2 N. Die Matrixinversion
1
W GLn .R/ 3 A 7! A1 2 GLn .R/
(6.91)
ist stetig, ja sogar unendlich oft stetig differenzierbar.
Beweis. Dieses Korollar greift ebenso wie zuvor auch Korollar 6.29 auf einige
Resultate aus der Analysis zurück: Die Einträge von A# sind Determinanten und
damit Polynome in den Koeffizienten von A. Als solche sind sie unendlich oft
stetig differenzierbar. Weiter ist A 7! det A ein Polynom und damit unendlich oft
stetig differenzierbar. Da nach Korollar 6.29 die invertierbaren Matrizen eine offene
2
Teilmenge von Rn bilden und det A ¤ 0 für A 2 GLn .R/, ist auch die Funktion
230
6 Determinanten und Eigenwerte
A 7! det1 A auf GLn .R/ unendlich oft differenzierbar. Ein Zusammenfügen dieser
Resultate liefert die Behauptung.
t
u
Wir können die Cramersche Regel für die inverse Matrix nun auf lineare Gleichungssysteme anwenden. Seien dazu a1 ; : : : ; an ; b 2 kn und
A D .a1 ; : : : ; an / 2 Mn .k/:
(6.92)
Wir schreiben in diesem Fall
Aj .b/ D .a1 ; : : : ; aj 1 ; b; aj C1 ; : : : ; an /
(6.93)
für diejenigen Matrix, die wir durch Ersetzen der j -ten Spalte aj durch b aus A
erhalten. Sei nun x 2 kn eine Lösung des inhomogenen linearen Gleichungssystems
Ax D b:
(6.94)
Dann berechnen wir
n
X
xi det.a1 ; : : : ; aj 1 ; ai ; aj C1 ; : : : ; an /
iD1
D det a1 ; : : : ; aj 1 ;
n
X
!
xi ai ; aj C1 ; : : : ; an
(6.95)
iD1
D det.a1 ; : : : ; aj 1 ; b; aj C1 ; : : : ; an /
D det Aj .b/:
Andererseits sind die Summanden auf der linken Seite von (6.95) sicherlich null,
sofern i ¤ j , da dann der Spaltenvektor ai doppelt in der Determinante auftritt.
Daher trägt nur i D j bei, und wir erhalten
xj det A D det Aj .b/:
(6.96)
Dies liefert die zweite Variante der Cramerschen Regel:
Satz 6.42 (Cramersche Regel, II). Sei A 2 Mn .k/ und b 2 kn .
R
i.) Ist x 2 Los.A;
b/, so gilt für alle j 2 f1; : : : ; ng
xj det A D det Aj .b/:
(6.97)
ii.) Ist A sogar invertierbar, so ist die eindeutige Lösung x D A1 b von (6.94)
durch
xj D
det Aj .b/
det A
(6.98)
6.3 Eigenschaften der Determinante
231
für j 2 f1; : : : ; ng gegeben.
Der praktische Nutzen von (6.98) ist wieder eher gering aufgrund der aufwendigen
Berechnung der Determinanten. Die Berechnung von x D A1 b gemäß des GaußAlgorithmus wie in (6.90) ist dann typischerweise viel einfacher. Trotzdem erhält
man konzeptionell wichtige Aussagen aus Satz 6.42, wie etwa Stetigkeits- und
Differenzierbarkeitsaussagen analog zu Korollar 6.41.
Als eine erste interessante Anwendung betrachten wir folgende Matrix: Für
1 ; : : : ; n 2 k definieren wir die Vandermonde-Matrix V .1 ; : : : ; n / 2 Mn .k/
durch
0
1
21 : : : n1
1
C
22 : : : n1
2 C
::
:: C:
:
: A
2
n1
1 n n : : : n
1
B1
B
V .1 ; : : : ; n / D B :
@ ::
1
2
::
:
(6.99)
Die zugehörige Vandermonde-Determinante lässt sich nun explizit berechnen:
Proposition 6.43 (Vandermonde-Determinante). Seien 1 ; : : : ; n 2 k. Dann
gilt
det V .1 ; : : : ; n / D
Y
.j i /:
(6.100)
i<j
Insbesondere ist V .1 ; : : : ; n / genau dann invertierbar, wenn die 1 ; : : : ; n
paarweise verschieden sind.
Beweis. Wir führen mehrere Spaltenoperationen durch, welche den Wert der Determinante nicht ändern. Zunächst subtrahieren wir von der k-ten Spalte das 1 -Fache
der .k 1/-ten Spalte für alle k D 2; : : : ; n. Dies liefert
0
1 1 1 21 21
B1 2 1 2 2 1
2
B
det V .1 ; : : : ; n / D detB :
::
::
@ ::
:
:
1 n 1 2n n 1
0
1
0
0
B1 2 1 2 2 1
2
B
D detB :
::
::
@ ::
:
:
1 n 1 2n n 1
1
: : : n1
n1
1
1
C
: : : n1
n2
2
2 1 C
C
::
A
:
: : : n1
n1
n
n 1
1
:::
0
C
: : : n1
n2
2
2 1 C
C:
::
A
:
: : : n1
n2
n
n 1
232
6 Determinanten und Eigenwerte
Dann entwickeln wir nach der ersten Zeile
0
1
2 1 22 2 1 : : : n1
n2
2
2 1
B3 1 2 3 1 : : : n1 n2 1 C
3
3
3
B
C
D 1 detB :
C:
::
::
:
@ :
A
:
:
2
n1
n2
n 1 n n 1 : : : n n 1
In der verbleibenden .n 1/ .n 1/-Matrix nutzen wir nun die Linearität in der
k-ten Zeile und können dort den gemeinsamen Faktor k 1 herausziehen. Dies
führen wir für alle k D 1; : : : ; n 1 durch und erhalten
0
1
2 : : : n2
2
C
3 : : : n2
3 C
:: C
::
: A
:
n2
1 n : : : n
1
B1
B
D .2 1 / .n 1 / detB :
@ ::
D .2 1 / .n 1 / det V .2 ; : : : ; n /:
Eine einfache Induktion über n liefert nun das Ergebnis, da im letzten Schritt
t
u
det V .n1 ; n / D n n1 gilt.
Beispiel 6.44. Sei V ein Vektorraum über R mit abzählbarer unendlicher Basis
fen gn2N 0 , wie beispielsweise die Polynome V D RŒx mit der Basis fx n gn2N 0 der
Monome. Wir behaupten, dass der Dualraum V „viel“ größer als V ist: Er besitzt
keine abzählbare Basis mehr! Sei nämlich 2 R n f0g. Dann gibt es ein eindeutig
bestimmtes lineares Funktional ˛ 2 V mit
˛ .en / D n
(6.101)
für alle n 2 N0 . Wir behaupten, dass die Menge f˛ g2Rnf0g linear unabhängig ist.
Zum Nachweis seien endlich viele paarweise verschiedene 1 ; : : : ; n 2 Rnf0g mit
c1 ˛1 C C cn ˛n D 0
(6.102)
für gewisse c1 ; : : : ; cn 2 R vorgegeben. Wir werten (6.102) auf e0 ; : : : ; en1 aus
und erhalten die linearen Gleichungen
c1 01 C C cn 0n D 0
::
:
c1 n1
1
C C
cn n1
n
D 0:
(6.103)
6.3 Eigenschaften der Determinante
233
Dieses System von linearen Gleichungen können wir aber als
0
B
B
B
@
1
1
::
:
n1
1
10 1
1 ::: 1
c1
B c2 C
2 : : : n C
CB C
:: CB :: C D 0
::
: A@ : A
:
n2
n1
2 : : : n
cn
(6.104)
schreiben. Die Matrix ist offenbar gerade V .1 ; : : : ; n /T und daher nach Proposition 6.43 und Proposition 5.61 invertierbar. Es folgt also c1 D D cn D 0 als
einzige Lösung von (6.104). Daher ist die lineare Unabhängigkeit der ˛ gezeigt.
Es gibt also mindestens .R n f0g/-viele linear unabhängige Vektoren in V .
Eine weitere wichtige Anwendung der Vandermonde-Determinante ist folgender
Identitätssatz für Polynome:
Proposition 6.45. Sei n 2 N und k ein Körper mit mindestens n C 1 Elementen. Zu paarweise verschiedenen 1 ; : : : ; nC1 2 k und beliebig vorgegebenen
z1 ; : : : ; znC1 2 k gibt es genau ein Polynom p 2 kŒx vom Grad n mit
p.i / D zi
(6.105)
für alle i D 1; : : : ; n C 1.
Beweis. Sei Vn kŒx der Untervektorraum der Polynome vom Grad n. Dieser
hat offenbar die Dimension n C 1, und die Monome .1; x; : : : ; x n / bilden eine
geordnete Basis A. Wir betrachten die lineare Abbildung
1
p.1 /
C
B
::
nC1
˚W Vn 3 p 7! @
A2k :
:
0
p.nC1 /
Da p.i / D an ni C C a1 i C a0 für alle i D 1; : : : ; n C 1, hat die
lineare Abbildung ˚ bezüglich der Basis der Monome B D .1; : : : ; x n / und der
Standardbasis A D .e0 ; : : : ; en / also die Form
1
1 1 : : : n1
B : ::
:: C D V . ; : : : ; /:
1
nC1
A Œ˚ B D @ ::
:
: A
1 nC1 : : : nnC1
0
Da nach Voraussetzung die 1 ; : : : ; nC1 paarweise verschieden sind, gilt
det. A Œ˚B / ¤ 0, und daher ist A Œ˚ B als Matrix invertierbar. Damit ist aber
auch ˚ selbst invertierbar. Dann ist p D ˚ 1 .z/ das gesuchte Polynom.
t
u
234
6 Determinanten und Eigenwerte
Das eindeutig bestimmte Polynom p mit (6.105) nennt man auch Interpolationspolynom, da es die vorgegebenen Punkte .1 ; z1 /, . . . , .nC1 ; znC1 / in der
Zahlenebene k2 interpoliert. Man kann das Polynom p sogar explizit angeben. Es
gilt
p.x/ D
nC1
X
.x 1 / .x i1 /.x iC1 / .x nC1 /
zi :
.i 1 / .i i1 /.i iC1 / .i nC1 /
iD1
(6.106)
Setzt man nämlich j für j ¤ i in den i -ten Term der Summe für x ein, so enthält
der Zähler einen Faktor .j j / D 0. Daher trägt für p.j / nur der j -te Term der
Summe bei, dieser ist aber zj . Offenbar ist p ein Polynom vom Grad n.
Hat der Körper k nicht genügend viele Elemente, so wird die Aussage des Satzes
falsch: Etwa für k D Z2 sind die verschiedenen Polynome p1 .x/ D x 2 C x und
p2 .x/ D 0 auf allen Elementen des Körpers gleich, und zwar null, da
p1 .1/ D 12 C 1 D 1 C 1 D 0
und
p1 .0/ D 0
(6.107)
in Z2 . Als Polynome sind dagegen p1 und das Nullpolynom p2 D 0 verschieden.
Dies ist letztlich der Grund dafür, dass wir Polynome wie in Definition 3.34 und
nicht als spezielle Abbildungen von k nach k definiert haben.
Kontrollfragen. Wie berechnet man Determinanten in kleinen Dimensionen? Für
welche Matrizen A ist det.A/ ¤ 0? Wie können Sie mit dem Gauß-Algorithmus
Determinanten bestimmen? Wie beweist man die Cramerschen Regeln und wozu
kann man diese verwenden? Wie berechnet man die Vandermonde-Determinante?
6.4
Eigenwerte und Diagonalisierung
Bei der Berechnung von Determinanten hatten wir bereits gesehen, dass es vorteilhaft ist, die Matrix durch geeignete Spalten- und Zeilenumformungen auf
möglichst einfache Form zu bringen. Geometrischer interpretiert bedeutet dies,
dass wir besondere Basen des Vektorraums suchen, bezüglich derer die lineare
Abbildung besonders einfach wird. Können wir die Basen im Urbildraum und
im Bildraum unabhängig voneinander wählen, so können wir dank Satz 5.63
beziehungsweise Satz 5.69 eine besonders einfache Form erreichen. Wollen wir aber
bei einem Endomorphismus
˚W V ! V
(6.108)
jeweils dieselbe Basis verwenden, so steht uns deutlich weniger Freiheit zu. Der
Wechsel von A Œ˚A zu B Œ˚B geschieht nach Korollar 5.43 durch
B Œ˚ B
D
B ŒidV A A Œ˚ A A ŒidV B
:
(6.109)
6.4 Eigenwerte und Diagonalisierung
235
Nun gilt
B ŒidV A A ŒidV B
D
B ŒidV B
D 1BB
(6.110)
A ŒidV B B ŒidV A
D
A ŒidV A
D 1AA ;
(6.111)
und
womit im Falle von indizierten Basen A D fai gi2I und B D fbi gi2I die
I I -Matrizen B ŒidV A und A ŒidV B zueinander invers sind. Man beachte, dass
wir eine indizierte Basis verwenden sollten, damit die Matrizen B ŒidV A und
A ŒidV B beide vom selben Typ, nämlich I I -Matrizen, sind. Nur dann können
wir sinnvoll von „Inversem“ sprechen. Umgekehrt liefert auch jede invertierbare
I I -Matrix einen solchen Basiswechsel. Diese Vorüberlegungen münden nun in
folgende Begriffsbildung, die wir der Einfachheit wegen nur für dim V D n < 1
formulieren werden.
Definition 6.46 (Ähnlichkeit). Zwei Matrizen A; B 2 Mn .k/ heißen ähnlich,
wenn es eine invertierbare Matrix Q 2 GLn .k/ mit
A D QBQ1
(6.112)
gibt. In diesem Fall schreiben wir A B.
Ähnliche Matrizen beschreiben also denselben Endomorphismus von V D kn bei
geeigneter Wahl der Basis, wobei eben dieselbe Basis für Urbild und Bild verwendet
wird. Man mache sich diesen entscheidenden Unterschied zur Äquivalenz von
Matrizen in Mn .k/ gemäß Definition 5.67 klar.
Bemerkung 6.47. Da GLn .k/ eine Gruppe ist, ist es leicht zu sehen, dass die Ähnlichkeit von Matrizen in Mn .k/ eine Äquivalenzrelation darstellt, wie auch schon
die Äquivalenz von Matrizen. Während jedoch die Äquivalenz eine sehr einfache
Klassifikation über die Normalform (5.128) erlaubt, ist dies für die Ähnlichkeit
erheblich schwieriger. Trotzdem sehen wir bereits hier, dass ähnliche Matrizen
dieselbe Determinante besitzen, da
det.A/ D det.QBQ1 / D det.Q/ det.B/ det.Q/1 D det.B/
(6.113)
nach (6.48) und (6.50).
Eine besonders einfache Klasse von Matrizen sind die Diagonalmatrizen:
Definition 6.48 (Diagonalmatrix). Eine Matrix D 2 Mn .k/ von der Form
0
B
DD@
0
1
::
0
:
n
1
C
A
(6.114)
236
6 Determinanten und Eigenwerte
mit 1 ; : : : ; n 2 k heißt Diagonalmatrix. Wir schreiben dann auch
D D diag.1 ; : : : ; n /:
(6.115)
Bemerkung 6.49 (Diagonalmatrizen). Die Diagonalmatrizen bilden einen ndimensionalen Unterraum von Mn .k/. Für eine Diagonalmatrix gilt offenbar
det D D det diag.1 ; : : : ; n / D 1 n ;
(6.116)
womit D genau dann invertierbar ist, wenn alle Diagonaleinträge 1 ; : : : ; n
ungleich null sind. In diesem Fall ist die inverse Matrix zu D durch
0
B
D 1 D @
1
1
1
0
::
C
1
1
A D diag.1 ; : : : ; n /
:
(6.117)
1
n
0
gegeben und daher selbst diagonal. Sind D1 D diag.1 ; : : : ; n / und D2 D
diag.1 ; : : : ; n / diagonal, so ist auch
0
B
D1 D2 D @
10
1
::
CB
A@
:
n
1
1
::
0
C B
AD@
:
1
1 1
n
::
C
A D D2 D1
:
(6.118)
n n
diagonal. Schließlich ist auch die Einheitsmatrix 1 D diag.1; : : : ; 1/ eine Diagonalmatrix. Es folgt, dass die Diagonalmatrizen nicht nur einen Unterraum, sondern
auch ein kommutatives Untermonoid von Mn .k/ bilden. Entsprechend bilden die
invertierbaren Diagonalmatrizen eine kommutative Untergruppe von GLn .k/.
Diese Eigenschaften machen die Diagonalmatrizen zu einer besonders leicht zu
handhabenden Klasse von Matrizen. Es stellt sich also die Frage, ob eine gegebene
Matrix zu einer Diagonalmatrix ähnlich ist. Dazu bemerken wir zunächst, dass die
Standardbasis e1 ; : : : ; en von kn für eine Diagonalmatrix D D diag.1 ; : : : ; n / die
Eigenschaft
Dei D i ei
(6.119)
für alle i D 1; : : : ; n besitzt. Die Diagonalmatrix verhält sich auf dem i -ten
Basisvektor ei also gerade wie i mal die Einheitsmatrix. Dies motiviert nun
folgende Begriffsbildung.
Definition 6.50 (Eigenwerte und Eigenvektoren). Sei V ein Vektorraum über k,
und sei ˚ 2 End.V /.
6.4 Eigenwerte und Diagonalisierung
237
i.) Eine Zahl 2 k heißt Eigenwert von ˚, falls es einen Vektor v 2 V n f0g mit
˚.v/ D v
(6.120)
gibt.
ii.) Ein Vektor v 2 V nf0g heißt Eigenvektor zum Eigenwert von ˚, falls (6.120)
gilt.
iii.) Für einen Eigenwert 2 k von ˚ definiert man den Eigenraum
ˇ
˚
V D v 2 V ˇ ˚.v/ D v :
(6.121)
iv.) Für einen Eigenwert 2 k von ˚ heißt dim V die Vielfachheit (oder
Multiplizität) von .
Bemerkung 6.51. Der Eigenraum V V ist offenbar tatsächlich ein Unterraum.
Definiert man V durch (6.121) auch für beliebiges 2 k, so ist genau dann ein
Eigenwert von ˚, wenn dim V 1.
Bemerkung 6.52. Mit unserer üblichen kanonischen Identifikation Mn .k/ Š
End.kn / können wir die Begriffe Eigenwert, Eigenvektor, Eigenraum und Vielfachheit auch für (quadratische) Matrizen anwenden.
Proposition 6.53. Sei V ein Vektorraum über k, und sei ˚ 2 End.V /. Für 2 k
sind äquivalent:
i.) Die Zahl ist Eigenwert von ˚.
ii.) Der Endomorphismus idV ˚ ist nicht injektiv.
iii.) Es gilt dim ker. idV ˚/ > 0.
Beweis. Wir zeigen i.) H) ii.) H) iii.) H) i.). Sei also ein Eigenwert,
dann gibt es einen Eigenvektor v ¤ 0 zu , also ˚v D v. Dies bedeutet aber,
dass . idV ˚/.v/ D 0, und daher ist idV ˚ nicht injektiv. Ganz allgemein
wissen wir, dass ii.) ” iii.), siehe Proposition 5.14. Sei also schließlich
dim ker. idV ˚/ > 0. Wir wählen einen Vektor v 2 ker. idV ˚/ mit v ¤ 0.
Für diesen gilt ˚.v/ D v, womit v Eigenvektor zum Eigenwert ist.
t
u
Proposition 6.54. Sei V ein Vektorraum über k, und sei ˚ 2 End.V /. Dann ist
die Summe der Eigenräume direkt, also
X
Eigenwert
V D
M
V :
(6.122)
Eigenwert
Beweis. Seien 1 ; : : : ; n paarweise verschiedene Eigenwerte und v1 ; : : : ; vn zugehörige Eigenvektoren. Dann sind die v1 ; : : : ; vn ebenfalls paarweise verschieden,
238
6 Determinanten und Eigenwerte
denn ist v 2 V n f0g ein Eigenvektor zu zwei Eigenwerten ¤ , so gilt
v D ˚.v/ D v
und damit v D 0 im Widerspruch zu v 2 V n f0g. Wir zeigen, dass die Vektoren
v1 ; : : : ; vn linear unabhängig sind. Seien also z1 ; : : : ; zn 2 k mit
z1 v1 C C zn vn D 0
gegeben. Dann gilt für alle i
0 D .1 ˚/ .i1 ˚/.iC1 ˚/ .n ˚/.z1 v1 C C zn vn /
D .1 i / .i1 i /.iC1 i / .n i /zi vi ;
da die Vektoren vj im Kern von j ˚ liegen und alle Faktoren .j ˚/ miteinander vertauschen. Da nach Voraussetzung die 1 ; : : : ; n paarweise verschieden
sind und vi ¤ 0 gilt, folgt zi D 0 für alle i D 1; : : : ; n. Damit sind die Vektoren
v1 ; : : : ; vn aber linear unabhängig. Nach Proposition 4.59, v.), ist die Summe direkt.
t
u
Beispiel 6.55. Sei D D diag.1 ; : : : ; n / 2 Mn .k/ eine Diagonalmatrix mit
paarweise verschiedenen Diagonaleinträgen. Dann sind die Vektoren ei 2 kn
Eigenvektoren zum Eigenwert i . Es gilt also
ei 2 Vi :
(6.123)
Ln
Da nun bereits kn D
iD1 spanfei g gilt, kann es keine anderen, dazu linear
unabhängigen Eigenvektoren geben. Es gilt also insbesondere
kn D
n
M
Vi :
(6.124)
iD1
und
Vi D spanfei g:
(6.125)
Alle Eigenwerte haben Vielfachheit 1. Treten verschiedene nun mehrfach auf der
Diagonalen auf, so erhöht sich die Vielfachheit entsprechend.
Beispiel 6.56. Sei V D kŒx und QW V ! V der Multiplikationsoperator mit x,
also
.Qp/.x/ D xp.x/
(6.126)
6.4 Eigenwerte und Diagonalisierung
239
für p 2 kŒx. Dann ist Q für alle 2 k injektiv. Sei nämlich p.x/ D an x n C
C an x C a0 ein Polynom im Kern von Q. Dann gilt also
0 D p.x/ xp.x/
D an x n C an1 x n1 C C a1 x C a0
an x nC1 an1 x n a1 x 2 a0 x:
Ein Koeffizientenvergleich liefert nun sofort an D 0 in Ordnung x nC1 , an1 D 0 in
Ordnung x n , . . . , bis a0 D 0 in Ordnung x 1 unabhängig davon, was war. Es folgt
also, dass Q keine Eigenwerte und keine Eigenvektoren besitzt.
Aufgrund dieses und ähnlicher Beispiele wollen wir uns nun auf den endlichdimensionalen Fall zurückziehen. Die Theorie der Eigenwerte und Eigenvektoren in
unendlichen Dimensionen ist erheblich komplizierter. Vernünftige Resultate lassen
sich ohne den Einsatz von funktional-analytischen Methoden und Techniken kaum
erzielen, siehe Übung 6.37, 6.38 und 6.39 für weitere Beispiele und Eigenschaften
in beliebigen Dimensionen.
Definition 6.57 (Diagonalisierbarkeit). Sei V ein endlich-dimensionaler Vektorraum über k.
i.) Ein Endomorphismus ˚ 2 End.V / heißt diagonalisierbar, wenn es eine
geordnete Basis B D .b1 ; : : : ; bn / von V gibt, sodass
B Œ˚ B
D diag.1 ; : : : ; n /
(6.127)
mit gewissen 1 ; : : : ; n 2 k.
ii.) Eine Matrix A 2 Mn .k/ heißt diagonalisierbar, wenn sie zu einer Diagonalmatrix ähnlich ist.
Beide Versionen sind letztlich gleichwertig, wie folgende Proposition zeigt:
Proposition 6.58. Sei V ein endlich-dimensionaler Vektorraum über k und ˚ 2
End.V /. Dann sind äquivalent:
i.)
ii.)
iii.)
iv.)
Der Endomorphismus ˚ ist diagonalisierbar.
Es gibt eine Basis von Eigenvektoren von ˚.
Es gibt eine Basis A V , sodass die Matrix A Œ˚A diagonalisierbar ist.
Für alle Basen A V ist die Matrix A Œ˚ A diagonalisierbar.
In diesem Fall sind die Diagonaleinträge derjenigen Diagonalmatrix D mit
QDQ1 D A Œ˚A gerade die Eigenwerte von ˚.
240
6 Determinanten und Eigenwerte
Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) i.). Sei also zunächst
˚ diagonalisierbar und B V eine Basis mit B Œ˚B D diag.; : : : ; n /. Für den
i -ten Basisvektor bi gilt dann zum einen B Œbi D ei und zum anderen
B Œ˚.bi /
D
B Œ˚B B Œbi D diag.1 ; : : : ; n / ei D i ei
und damit ˚.bi / D i bi . Da für einen Basisvektor sicherlich bi ¤ 0 gilt, folgt,
dass die Basis B D .b1 ; : : : ; bn / aus Eigenvektoren besteht. Die Diagonaleinträge
1 ; : : : ; n sind dann die entsprechenden Eigenwerte. Sei nun B D .b1 ; : : : ; bn /
eine geordnete Basis von Eigenvektoren zu Eigenwerten 1 ; : : : ; n 2 k. Dann gilt
für diese Basis offenbar
B Œ˚B
D ˚.bi /j i;j D1;:::;n D i ıij i;j D1;:::;n D diag.1 ; : : : ; n /;
womit B Œ˚B bereits diagonal ist. Damit folgt ii.) H) iii.). Sei nun A V eine
Basis, sodass A Œ˚A diagonalisierbar ist, und sei A0 eine beliebige andere Basis. Da
A Œ˚ A diagonalisierbar ist, gibt es eine Diagonalmatrix D D diag.1 ; : : : ; n / und
eine invertierbare Matrix Q 2 GLn .k/ mit
Q A Œ˚A Q1 D D:
Da
A Œ˚A
und P D
A ŒidV A0
invertierbar
D D QP
D
A ŒidV A0 A0 Œ˚A0 A0 ŒidV A
mit P 1 D A0 ŒidV A ist, folgt
A0 Œ˚A0
P 1 Q1 D QP
durch Einsetzen
A0 Œ˚ A0 .QP /
1
:
Also ist auch A0 Œ˚A0 ähnlich zu D, womit iii.) H) iv.) gezeigt ist. Es gelte
nun also iv.), und sei A V eine beliebige Basis. Dann gibt es Q 2 GLn .k/ mit
Q A Œ˚A Q1 D D D diag.1 ; : : : ; n / mit gewissen 1 ; : : : ; n 2 k. Sei nun
bj 2 V derjenige Vektor mit
A Œbj D Q1 ei :
Dann gilt
A Œ˚.bi /
D
A Œ˚ A A Œbi D
A Œ˚ A
Q1 ei D Q1 Dei D Q1 i ei D i A Œbi :
Dies bedeutet aber gerade ˚.bi / D i bi . Da die Vektoren b1 ; : : : ; bn nach wie vor
eine Basis bilden, weil Q invertierbar ist, folgt für diese Basis B D .b1 ; : : : ; bn /
also
B Œ˚B D ˚.bi /j i;j D1;:::;n D i ıij i;j D1;:::;n D diag.1 ; : : : ; n /;
womit auch iv.) H) i.) gezeigt ist.
t
u
6.5 Das charakteristische Polynom
241
Es stellt sich nun die entscheidende Frage, welche Matrizen tatsächlich diagonalisierbar sind und wie man effektiv die Eigenwerte und Eigenvektoren bestimmen
kann. In folgender Situation ist dies einfach:
Korollar 6.59. Hat A 2 Mn .k/ genau n paarweise verschiedene Eigenwerte, so ist
A diagonalisierbar.
Beweis. Da Eigenvektoren zu verschiedenen Eigenwerten nach Proposition 6.54
linear unabhängig sind, finden wir zu den verschiedenen Eigenwerten 1 ; : : : ; n
zugehörige linear unabhängige Eigenvektoren b1 ; : : : ; bn . Da dies bereits n Vektoren
sind, liegt eine Basis von kn vor, und wir können Proposition 6.58 zum Einsatz
bringen.
t
u
Schwierig wird die Situation also immer dann, wenn Eigenwerte eine nichttriviale Vielfachheit besitzen. Zudem ist über die Existenz von Eigenwerten an sich mehr
in Erfahrung zu bringen.
Kontrollfragen. Was ist der Unterschied von Äquivalenz und Ähnlichkeit von Matrizen? Was ist ein Eigenwert? Welche Kriterien für Diagonalisierbarkeit kennen
Sie? Welche Eigenschaften haben die Eigenräume?
6.5
Das charakteristische Polynom
In endlichen Dimensionen können wir die Existenz von Eigenwerten leicht prüfen,
da wir ein einfaches Kriterium für die (Nicht-)Injektivität von ˚ idV über die
Determinante besitzen. Wir betrachten nun also den Fall V D kn und identifizieren
lineare Abbildungen in End.V / wie immer mit Matrizen in Mn .k/. In endlichen
Dimensionen stellt dies ja keinerlei Einschränkung dar.
Definition 6.60 (Charakteristisches Polynom). Sei A 2 Mn .k/. Dann heißt das
Polynom A 2 kŒx
A .x/ D det.A x1/
(6.128)
das charakteristische Polynom von A.
Bemerkung 6.61. Da die Determinante ein Polynom in den n2 Variablen
a11 ; : : : ; ann vom homogenen Grad n ist, ist A .x/ tatsächlich ein Polynom in
x vom Grad n.
Lemma 6.62. Sei A 2 Mn .k/. Dann gilt
A .x/ D .1/n x n C .1/n1 tr.A/x n1 C C det.A/;
(6.129)
242
6 Determinanten und Eigenwerte
wobei
tr.A/ D
n
X
ai i :
(6.130)
iD1
Beweis. Wir verwenden die Leibniz-Formel für die Determinante, um die relevanten Grade zu berechnen. Den konstanten Term von A .x/ erhält man, wenn man
x D 0 setzt. Dies liefert det.A/. Den Term mit Grad n erhält man aus
det.A x1/ D
X
sign. /aQ 1.1/ aQ n.n/ ;
2Sn
wenn alle aQ i.i/ ein x enthalten, wobei aQ ij D A x1. Dies ist aber nur für D id
möglich, da x nur auf der Diagonale von A x1 steht. Damit gilt
aQ 11 aQ nn D .a11 x/ .ann x/
D .x/n C .x/n1 .a11 C C ann / C (6.131)
D .1/n x n C .1/n1 x n1 tr.A/ C ;
wobei C niedrigere Ordnungen als x n bedeuten soll. Um die Beiträge zu x n1 zu
erhalten, müssen mindestens n 1 Einträge in aQ 1.1/ aQ n.n/ von der Diagonalen
kommen. Daher muss die Permutation auf mindestens n 1 Indizes die Identität
sein. Dies ist aber nur für D id möglich. Daher liefert (6.131) bereits alle Beiträge
zu x n1 .
t
u
Definition 6.63 (Spur). Sei A 2 Mn .k/. Dann heißt
tr.A/ D
n
X
ai i
(6.132)
iD1
die Spur (englisch: trace) von A.
Das Lemma garantiert also, dass A .x/ ein Polynom n-ten Grades ist, dessen
führender Koeffizient .1/n nicht verschwindet: Der Grad ist also nicht „zufällig“
kleiner, als es ein naives Abzählen wie in Bemerkung 6.61 erlauben könnte.
Satz 6.64 (Eigenwerte und Nullstellen von A ). Sei A 2 Mn .k/. Eine Zahl 2 k
ist genau dann ein Eigenwert von A, wenn eine Nullstelle von A ist.
Beweis. Nach Proposition 6.54 ist 2 k genau dann ein Eigenwert, wenn A 1
nicht injektiv ist. Dies ist in endlichen Dimensionen aber dank Korollar 5.27 dazu
6.5 Das charakteristische Polynom
243
äquivalent, dass A 1 nicht invertierbar ist. Mit Proposition 6.28 ist dies aber zu
det.A 1/ D 0 äquivalent.
t
u
Beispiel 6.65. Wir betrachten n D 2.
i.) Sei k D Q und
02
AD
:
10
(6.133)
2
Dann gilt A .x/ D det x
D x 2 2. Es gibt keine Nullstelle dieses
p 1 x
Polynoms in Q, da ˙ 2 ja bekanntermaßen irrationale Zahlen sind. Also hat
A keinen Eigenwert.
ii.) Betrachten wir p
die gleiche MatrixpA als reelle Matrix, so gibt es Eigenwerte,
nämlich 1 D 2 und 2 D 2. Damit ist A sogar diagonalisierbar. Um
eine Basis von Eigenvektoren zu finden, müssen wir also nichtverschwindende
Vektoren v 2 V1 und w 2 V2 angeben. Dazu ist das lineare Gleichungssystem
1 2
v1
D0
1 1 v2
(6.134)
2 2
w1
D0
1 2 w2
(6.135)
beziehungsweise
zu lösen. Eine einfache Rechnung zeigt, dass etwa
vD
p 2
und
1
wD
p 2
1
(6.136)
2
nichttriviale Lösungen
p sind.pBezüglich dieser Basis von R hat A also die
Diagonalgestalt diag. 2; 2/.
iii.) Sei nun k wieder beliebig und
AD
01
;
00
(6.137)
dann gilt A .x/ D x 2 . Damit ist D 0 der einzige Eigenwert. Könnten wir
nun eine Basis von Eigenvektoren v; w 2 k2 finden, so gälte
Av D 0 v D 0 und
Aw D 0 w D 0:
(6.138)
244
6 Determinanten und Eigenwerte
Damit wäre also ker A D spanfv; wg bereits zweidimensional und somit
A D 0. Dies ist aber nicht der Fall, womit wir also keine Basis von Eigenvektoren finden können. Diese Matrix A ist nicht diagonalisierbar. Der Grund hierfür
ist, dass es zwar Eigenwerte gibt, aber die Anzahl der linear unabhängigen
Eigenvektoren zu klein ist, um eine Basis zu bilden.
Ob es überhaupt Eigenwerte gibt, können wir durch entsprechend starke Forderungen an den zugrundeliegenden Körper klären:
Satz 6.66 (Existenz von Eigenwerten). Sei k ein algebraisch abgeschlossener
Körper. Dann hat jede Matrix A 2 Mn .k/ einen Eigenwert.
Beweis. Nach Definition eines algebraisch abgeschlossenen Körpers hat jedes Polynom eine Nullstelle, so auch A .
t
u
Beispiel 6.67. Wir betrachten die Matrix
AD
0 1
;
1 0
(6.139)
welche im R2 eine Drehung um 90ı bewirkt. Über R hat das charakteristische
Polynom A .x/ D x 2 C 1 keine Nullstelle. Geometrisch ist dies klar: Eine Drehung
um 90ı hat keine Eigenvektoren, da sie jede Richtung dreht. Über C dagegen hat
A .x/ sehr wohl Nullstellen, nämlich i und i. Damit ist A über C diagonalisierbar,
über R dagegen nicht, siehe auch Übung 6.21. Dies zeigt, dass es oftmals vorteilhaft
ist, einen Umweg über die komplexen Zahlen zu nehmen, auch wenn man letztlich
an einem reellen Problem interessiert ist.
Die Existenz von Nullstellen von A liefert also die Existenz von Eigenwerten.
Für die Umkehrung hat man folgendes Resultat:
Proposition 6.68. Ist A 2 Mn .k/ diagonalisierbar, so zerfällt A in Linearfaktoren: Sind nämlich 1 ; : : : ; n 2 k die nicht notwendigerweise verschiedenen
Eigenwerte, so gilt
A .x/ D .1 x/ .n x/:
(6.140)
Beweis. Sind nämlich Q 2 GLn .k/ und D D diag.1 ; : : : ; n / derart, dass A D
QDQ1 , so gilt
A .x/ D det.A x1/
D det.QDQ1 x1/
6.5 Das charakteristische Polynom
245
D det.Q.D x1/Q1 /
D det Q det.D x1/ det.Q1 /
D det.D x1/
D .1 x/ .n x/;
wobei wir det.Q1 / D .det Q/1 und (6.116) verwenden.
t
u
Bemerkung 6.69 (Determinante eines Endomorphismus). Im Beweis der Proposition haben wir verwendet, dass der Wert einer Determinante sich nicht unter
der Konjugation mit einer invertierbaren Matrix ändert: Für A 2 Mn .k/ und
Q 2 GLn .k/ gilt det.A/ D det.QAQ1 /. Dies erlaubt es nun, auch für einen
Endomorphismus ˚ 2 End.V / eines endlich-dimensionalen Vektorraums V über k
eine Determinante und so auch ein charakteristisches Polynom zu definieren: Seien
dazu A; B V beliebige geordnete Basen von V . Dann gilt
det. B Œ˚B / D det. B ŒidV A A Œ˚A A ŒidV B / D det. A Œ˚ A /;
da ja die Matrizen B ŒidV A und
die Determinante von ˚ durch
A ŒidV B
(6.141)
zueinander invers sind. Daher können wir
det.˚/ D det. B Œ˚ B /
(6.142)
definieren. Dies ist sinnvoll, da die rechte Seite eben nicht von der gewählten Basis
abhängt, sondern für jede Basis denselben Wert liefert. Entsprechend können wir
auch das charakteristische Polynom von ˚ durch
˚ .x/ D det.˚ x idV / D det. B Œ˚B x1/
(6.143)
definieren, was wieder nicht von der gewählten Basis abhängt. Die Eigenschaften
der Determinante und des charakteristischen Polynoms übertragen sich nun wörtlich
und ohne große Schwierigkeiten auf Endomorphismen eines endlich-dimensionalen
Vektorraums. Wir werden die relevanten Eigenschaften nicht nochmals wiederholen, aber gelegentlich verwenden.
Im Hinblick auf (6.140) können wir nun genauer spezifizieren, wieso die Matrix
A aus (6.137) nicht über C diagonalisierbar ist, obwohl dort ja jedes Polynom nach
Korollar 3.68 in Linearfaktoren zerfällt. Dazu betrachten wir allgemein folgende
Situation:
Definition 6.70 (Algebraische Vielfachheit). Sei A 2 Mn .k/ derart, dass A in
Linearfaktoren
A .x/ D .1 x/1 .k x/k
(6.144)
246
6 Determinanten und Eigenwerte
mit paarweise verschiedenen 1 ; : : : ; k 2 k zerfällt. Dann heißt der Exponent i 2
N die algebraische Vielfachheit des Eigenwerts i .
Bemerkung 6.71. Nach Satz 6.64 wissen wir, dass für ein charakteristisches Polynom A der Form (6.144) die Zahlen 1 ; : : : ; k tatsächlich die (einzigen)
Eigenwerte von A sind. Es gilt nun insbesondere
1 C C n D n;
(6.145)
da A ein Polynom n-ten Grades ist, siehe Lemma 6.62. Für einen algebraisch abgeschlossenen Körper wie etwa für k D C zerfällt jedes Polynom in Linearfaktoren.
Proposition 6.72. Sei A 2 Mn .k/ eine Matrix, sodass A in Linearfaktoren
zerfällt. Dann sind äquivalent:
i.) Die Matrix A ist diagonalisierbar.
ii.) Für alle i D 1; : : : ; k gilt
i D dim Vi :
(6.146)
Beweis. Sei A diagonalisierbar und sei ei˛ 2 Vi mit ˛ D 1; : : : ; dim Vi eine Basis
des i -ten Eigenraums. Also gibt es einen Basiswechsel Q 2 GLn .k/ mit
QAQ1 D diag 1 ; : : : ; 1 ; 2 ; : : : ; 2 ; : : : ; k ; : : : ; k ;
„ ƒ‚ … „ ƒ‚ …
„ ƒ‚ …
dim.V1 /-mal dim.V2 /-mal
dim.Vk /-mal
wobei der i -te Eigenwert genau dim.Vi /-mal auftritt. Offenbar gilt
QAQ1 .x/ D .1 x/dim.V1 / .k x/dim.Vk / :
Wie wir bereits im Beweis von Proposition 6.68 gesehen haben, gilt
QAQ1 .x/ D A .x/;
da det.Q1 / D det1Q . Damit gilt also i D dim.Vi /. Ist umgekehrt (6.146) erfüllt,
so folgt aus (6.145)
dim.Vi / C C dim.Vk / D n;
womit nach Proposition 6.54
V1 C C Vk D V1 ˚ ˚ Vk D kn
6.5 Das charakteristische Polynom
247
aus Dimensionsgründen folgt. Damit haben wir aber eine Basis von Eigenvektoren
gefunden, indem wir in jedem Vi eine Basis wählen. Nach Proposition 6.58 ist dies
äquivalent zur Diagonalisierbarkeit.
t
u
Bemerkung 6.73. Manchmal nennt man dim.Vi / auch die geometrische Vielfachheit des Eigenwerts i . Dann kann man Proposition 6.72 also so formulieren, dass
eine Matrix A 2 Mn .k/ mit in Linearfaktoren zerfallendem charakteristischem Polynom genau dann diagonalisierbar ist, wenn die algebraischen und geometrischen
Vielfachheiten für jeden Eigenwert übereinstimmen.
Wir kommen nun zu einer letzten wichtigen Eigenschaft des charakteristischen
Polynoms. In verschiedenen Übungen haben wir gesehen, dass sich die Diagonalisierung manchmal sehr leicht durchführen lässt, wenn die Matrix beziehungsweise
der Endomorphismus eine hinreichend leichte polynomiale Gleichung erfüllt. Insbesondere konnten in verschiedenen Beispielen die Eigenwerte und Eigenräume
direkt bestimmt werden, ohne dass die charakteristische Gleichung A .x/ D 0
wirklich gelöst werden musste, siehe beispielsweise Übung 6.25. Wir wollen diese
Vorüberlegung nun als Motivation verwenden, ganz allgemein zu untersuchen, ob
ein Endomorphismus polynomiale Gleichungen erfüllt. Hierzu gibt es folgendes
einfache Resultat, welches in unendlichen Dimensionen sicherlich falsch ist, siehe
auch Übung 6.10:
Lemma 6.74. Sei A 2 Mn .k/. Dann gibt es ein nichtkonstantes Polynom p 2 kŒx
vom Grad n2 mit
p.A/ D 0:
(6.147)
Beweis. Hier sei zunächst daran erinnert, dass wir für einen beliebigen Ring R
von Polynomen RŒx sprechen können, und in ein solches Polynom Werte aus R
einsetzen können, siehe Definition 3.38. Da R D Mn .k/ nichtkommutativ ist, ist
beim Einsetzen zunächst auf die Reihenfolge zu achten. Weil wir aber ein Polynom
mit Koeffizienten in k betrachten, ist dies unkritisch: Ist
p.x/ D ar x r C C a1 x C a0
mit ar ; : : : ; a0 2 k, so können wir offenbar immer
p.A/ D ar Ar C C a1 A C a0 1
für A 2 Mn .k/ betrachten. Genauer gesagt, können wir ar 2 k als ar 1 2
Mn .k/ identifizieren. Damit erhalten wir p 2 Mn .k/Œx mit Koeffizienten
ar 1; : : : ; a1 1; a0 1. Da die skalaren Vielfachen von 1 mit allen Elementen aus
Mn .k/ vertauschen, ist die Reihenfolge in .ar 1/ Ar D Ar .ar 1/ unerheblich.
Nach dieser Vorüberlegung kommt also der eigentliche Beweis: Die n2 C1 Matrizen
248
6 Determinanten und Eigenwerte
1; A; A2 ; : : : ; An
2
können nicht alle linear unabhängig sein, da dim Mn .k/ D n2 < n2 C 1. Daher gibt
es Zahlen a0 ; : : : ; an2 mit
2
an2 An C C a1 A C a0 1 D 0;
von denen nicht alle null sind. Da 1 ¤ 0, kann nicht nur a0 ¤ 0 sein: Es muss
auch mindestens eine Zahl an2 ; : : : ; a1 von null verschieden sein. Damit ist also das
Polynom gefunden.
t
u
Wir wollen nun einen letzten wichtigen Satz zum charakteristischen Polynom
einer Matrix diskutieren, den Satz von Cayley und Hamilton. Er liefert insbesondere
eine drastische Verbesserung der Schranke n2 in Lemma 6.74:
Satz 6.75 (Cayley-Hamilton). Sei A 2 Mn .k/. Dann gilt
A .A/ D 0:
(6.148)
Beweis. Zunächst als Warnung der falsche Beweis: Einsetzen von A für x in
A .x/ D det.A x1/ liefert det.A A1/ D det.0/ D 0, also (6.148). Dies
ist deshalb falsch, da hier die Determinante als Abbildung detW Mn .k/ ! k
verwendet wird und det.A A1/ D 0 eine skalare Gleichung ist, anstelle der
Matrixgleichung (6.148). Der richtige Beweis ist jedoch auch nicht viel schwerer:
Wir betrachten die komplementäre Matrix B # zu B.x/ D A x1 2 Mn .k/Œx. Da
die komplementäre Matrix Einträge aus Determinanten von Untermatrizen von B
hat, ist B # selbst wieder ein Polynom in x. Hier ist es offenbar wichtig, dass die
Determinante selbst ein Polynom in den Einträgen der Matrix ist. Dann gilt also
B # .x/ 2 Mn .k/Œx. Wir können daher
B # .x/ D Bn1 x n1 C C B1 x C B0
(6.149)
schreiben: Der Grad von B # ist höchstens n1, da det ein Polynom vom homogenen
Grad gleich der Dimension ist und in B # Determinanten von den .n 1/ .n 1/Matrizen Bij gebildet werden, die durch Streichen der i -ten Zeile und j -ten Spalte
aus B hervorgehen. Da die Einträge in B höchstens vom Grad 1 in x sind,
folgt (6.149). Nach dem Laplaceschen Entwicklungssatz in Form von Korollar 6.38
wissen wir, dass
.A x1/ B # D BB # D det B 1 D A .x/1:
Wir werten (6.150) nun Ordnung für Ordnung in x aus. Dazu schreiben wir
A .x/ D .1/n x n C an1 x n1 C C a1 x C a0
(6.150)
6.6 Das Minimalpolynom und der Spektralsatz
249
für das charakteristische Polynom von A mit gewissen Koeffizienten an1 , . . . , a0 2
k. Nun gilt für die jeweiligen Ordnungen:
in Ordnung x n :
in Ordnung x n1 :
::
:
1Bn1
ABn1 1Bn2
D
D
::
:
.1/n 1
an1 1
AB1 1B0
AB0
D
D
a1 1
a0 1.
in Ordnung x 1 :
in Ordnung x 0 :
.n/
.n 1/
::
:
.1/
.0/
Wir multiplizieren nun die k-te Gleichung von links mit Ak und summieren alle
resultierenden Gleichungen auf. Auf der linken Seite erhält man
An Bn1 C An Bn1 An1 Bn2 C C A2 B1 AB0 C AB0 D 0;
da sich alle Terme paarweise wegheben. Auf der rechten Seite erhält man
.1/n An C an1 An1 C C a1 A a0 D A .A/;
womit also A .A/ D 0 gezeigt ist.
t
u
Bemerkung 6.76. Streng genommen müssen wir den Laplaceschen Entwicklungssatz hier für eine Matrix B.x/ 2 Mn .k/Œx D Mn .kŒx/ anwenden, deren Einträge
aus dem Ring kŒx stammen und nicht aus dem Körper k. Ausgehend von der
Leibniz-Formel für die Determinante ist es tatsächlich möglich, den Satz 6.35 und
damit das entscheidende Korollar 6.38 zu zeigen, selbst wenn man k durch einen
kommutativen Ring R mit Eins und Mn .k/ entsprechend durch Mn .R/ ersetzt. Der
Grund ist, dass wir an keiner Stelle im Beweis von Satz 6.35 durch Elemente aus
k teilen mussten. Aus diesem Grunde benötigen wir nicht die volle Stärke eines
Körpers, sondern nur die Eigenschaften eines Rings. Die Kommutativität hingegen
ist essenziell, siehe auch Übung 6.11.
Kontrollfragen. Welche Rolle spielt das charakteristische Polynom? Was ist die
Spur einer Matrix? Kann jede Matrix diagonalisiert werden? Was ist der Unterschied
zwischen algebraischer und geometrischer Vielfachheit? Was besagt der Satz von
Cayley-Hamilton?
6.6
Das Minimalpolynom und der Spektralsatz
In Beispiel 6.65, iii.), haben wir gesehen, dass es ganz einfache Beispiele von
Matrizen gibt, die sich nicht diagonalisieren lassen, egal welcher Natur der zugrunde
liegende Körper k ist. Andererseits legen die Aussagen von Satz 6.66 nahe, dass
die Eigenwerttheorie für algebraisch abgeschlossene Körper besonders einfach ist.
Wir wollen in diesem Abschnitt nun versuchen, beide Aspekte zusammenzubringen.
250
6 Determinanten und Eigenwerte
Das Minimalpolynom wird hierbei das entscheidende Werkzeug sein. Zunächst
benötigen wir noch einige neue Begriffe:
Definition 6.77 (Nilpotenz). Sei N 2 End.V /. Dann heißt N nilpotent, falls es
ein k 2 N mit N k D 0 gibt.
Definition 6.78 (Projektor). Sei P 2 End.V /. Dann heißt P idempotent oder ein
Projektor, falls
P 2 D P:
(6.151)
Proposition 6.79. Sei A 2 End.V /. Ist A nilpotent, so ist 0 2 k ein Eigenwert und
auch der einzige Eigenwert.
Beweis. Sei k 2 N mit Ak D 0. Ist A D 0, so gilt V D V0 , und 0 ist der einzige
Eigenwert. Gilt A ¤ 0, so gibt es ein minimales k mit Ak D 0 aber Ak1 ¤ 0.
Sei v 2 V mit Ak1 v ¤ 0. Dann ist w D Ak1 v 2 ker A ein Eigenvektor zum
Eigenwert 0. Insbesondere ist 0 immer ein Eigenwert. Ist nun 2 k ein Eigenwert
mit Eigenvektor v 2 V , so gilt Av D v und damit
0 D Ak v D k v:
Da v ¤ 0, muss k D 0 sein, was D 0 impliziert.
t
u
Korollar 6.80. Sei V endlich-dimensional und A 2 End.V / nilpotent und diagonalisierbar. Dann ist A D 0.
Beweis. Sei v1 ; : : : ; vn 2 V eine Basis von Eigenvektoren zu A. Nach Proposition 6.79 ist dann Avi D 0 für alle i D 1; : : : ; n. Damit ist aber A D 0.
t
u
Wir sehen also, dass sich die nilpotenten Endomorphismen ungleich 0 einer
Diagonalisierung hartnäckig widersetzen. Daher ist es wohl vernünftig, „Diagonalisierung bis auf nilpotente Anteile“ anzustreben, da es ja auf jeden Fall nilpotente
Endomorphismen gibt.
Beispiel 6.81. Sei n 2 und
0
∈ Mn ( ).
A=
0
0
(6.152)
6.6 Das Minimalpolynom und der Spektralsatz
251
Dann gilt
0
0
A2 =
,
(6.153)
0
0
0
und durch weiteres Potenzieren verschiebt sich das Dreieck der möglichen von null
verschiedenen Einträge immer um eine Reihe weiter nach rechts oben. Insgesamt
folgt dann
An D 0;
(6.154)
sodass alle derartigen Matrizen A nilpotent sind. Speziell für
0
1
0
0
Jn =
0
,
(6.155)
= 0,
(6.156)
1
0
0
erhält man
0
0 1
0
J nn − 1 =
0
0
aber Jnn D 0. Analoge Beispiele findet man für echte untere Dreiecksmatrizen.
Nach den nilpotenten Elementen in End.V / wollen wir also die Projektoren
genauer betrachten. Diese sind immer auf besonders einfache Weise zu diagonalisieren.
252
6 Determinanten und Eigenwerte
Proposition 6.82. Sei V ein Vektorraum über k und P D P 2 2 End.V / ein
Projektor.
i.) Die Abbildung 1 P ist ebenfalls ein Projektor.
ii.) Es gilt
im P D ker.1 P /
und
im.1 P / D ker P:
(6.157)
iii.) Es gilt V D im P ˚ ker P .
iv.) Die Vektoren in im P n f0g sind Eigenvektoren von P zum Eigenwert 1,
und entsprechend sind die Vektoren in ker P n f0g Eigenvektoren von P zum
Eigenwert 0.
v.) Der Projektor P ist diagonalisierbar mit
V D V0 ˚ V1
und
V0 D ker P
sowie V1 D im P:
(6.158)
Beweis. Den ersten Teil rechnet man einfach nach. Es gilt .1 P /2 D .1 P /.1 P / D 1 2P C P 2 D 1 P , da P 2 D P . Sei nun v 2 im P , also v D P w für
ein w 2 V . Dann gilt P v D P 2 w D P w D v. Umgekehrt erfüllt jedes v 2 V mit
P v D v offenbar v 2 im P . Damit ist gezeigt, dass
ˇ
˚
im P D v 2 V ˇ P v D v D V1 :
Weiter gilt für v 2 im P
.1 P /v D v P v D 0;
also v 2 ker.1 P /. Umgekehrt folgt aus v 2 ker.1 P / sofort P v D v, also
v 2 im P . Dies zeigt die erste Behauptung in (6.157). Da 1 P ebenfalls ein
Projektor ist, folgt damit auch
im.1 P / D ker.1 .1 P // D ker P;
was den zweiten Teil zeigt. Sei v 2 V , dann ist P v 2 im P und v P v D .1 P /v 2 im.1 P / D ker P . Damit gilt also im P C ker P D V . Da im P D V1 der
Eigenraum zum Eigenwert 1 ist und ker P D V0 der Eigenraum zum Eigenwert 0,
folgt sofort V1 \ V0 D f0g, was iii.) und iv.) zeigt. Teil v.) ist damit auch klar.
t
u
Es kann natürlich der Fall P D 1 auftreten, in dem 0 nicht Eigenwert von
P ist. Entsprechend ist im Fall P D 0 nur 0 ein Eigenwert. In allen anderen
Fällen treten sowohl 0 als auch 1 als Eigenwerte auf. Man beachte, dass diese
Eigenschaften von Projektoren sogar in beliebigen Dimensionen gelten, auch wenn
wir vornehmlich an dim V < 1 interessiert sind. Im unendlich-dimensionalen
Fall wollen wir als Arbeitsdefinition „diagonalisierbar“ so verstehen, dass es eine
Basis von Eigenvektoren gibt. Dies wird in der Funktionalanalysis dann nochmals
präzisiert werden müssen.
6.6 Das Minimalpolynom und der Spektralsatz
253
Beispiel 6.83. Sei V ein n-dimensionaler Vektorraum und P D P 2 2 End.V / ein
Projektor. Sei dim.im P / D rank P D k. Dann wählt man eine geordnete Basis
.b1 ; : : : ; bk / von im P sowie eine geordnete Basis .bkC1 ; : : : ; bn / von ker P . Da
im P ˚ ker P D V eine direkte Summe ist, folgt, dass .b1 ; : : : ; bn / D B eine
geordnete Basis von V ist. Es gilt dann offenbar
m
k-
1
al
B [P ]B
1
=
(6.159)
0
0
mit k Einsen auf der Diagonalen. Diese Überlegung zeigt, dass zwei Projektoren in
End.V / genau dann ähnlich sind, wenn ihr Rang derselbe ist.
Wir können die Zerlegung von V in Kern und Bild eines Projektors auf mehrere
Projektoren verallgemeinern. Der Einfachheit wegen betrachten wir hier nur endlich
viele Projektoren, auch wenn entsprechende Resultate für beliebig viele Projektoren
ohne großen Mehraufwand zu formulieren sind.
Definition 6.84 (Zerlegung der Eins). Sei V ein Vektorraum. Eine Zerlegung der
Eins sind Projektoren P1 ; : : : ; Pk 2 End.V / ungleich null, sodass
i.) Pi Pj D ıij Pi für alle i; j D 1; : : : ; k,
ii.) P1 C C Pk D 1.
Beispiel 6.85. Nach Proposition 6.81 ist für einen Projektor P 2 End.V /
P1 D P
und
P2 D 1 P
(6.160)
eine Zerlegung der Eins. Ist P D 1 (oder P D 0), so ist P (beziehungsweise 1P )
bereits eine Zerlegung der Eins.
Proposition 6.86. Sei V ein Vektorraum.
i.) Bilden die Projektoren P1 ; : : : ; Pk 2 End.V / eine Zerlegung der Eins, so gilt
V D im P1 ˚ ˚ im Pk :
(6.161)
254
6 Determinanten und Eigenwerte
ii.) Sind U1 ; : : : ; Uk V nichttriviale Unterräume mit
V D U1 ˚ ˚ Uk ;
(6.162)
so definieren die Projektoren Pi D prUi 2 End.V / auf den i -ten Unterraum
eine Zerlegung der Eins.
Beweis. Sei v 2 V , dann gilt nach Definition einer Zerlegung der Eins
v D 1 v D P1 v C C Pk v;
womit im P1 C C im Pk D V . Sei umgekehrt i 2 f1; : : : ; ng und w 2 im Pj1 C
C im Pjr für gewisse j1 ; : : : ; jr ungleich i . Dann gilt also
w D Pj1 u1 C C Pjr ur
für gewisse u1 ; : : : ; ur 2 V und somit
Pi w D Pi Pj1 u1 C C Pi Pjr ur D 0 C C 0 D 0
nach Pi Pj D ıij Pi . Also ist w 2 ker Pi . Da aber im Pi \ ker Pi D f0g nach
Proposition 6.86, folgt sofort
im Pi \ .im Pj1 C C im Pjr / D f0g:
Dies zeigt, dass die Summe (6.161) direkt ist. Für den zweiten Teil verwenden wir
zuerst, dass eine direkte Summe (6.162) für jeden Vektor v 2 V eindeutig bestimmte
Komponenten v1 2 U1 ; : : : ; vk 2 Uk mit
v D v1 C C vk
(6.163)
festlegt, siehe Proposition 4.59, iv.). Das definiert Abbildungen prUi W V 3 v 7!
vi 2 V . Es ist nun leicht zu prüfen, dass die Eindeutigkeit der vi die Linearität der
Abbildung prUi liefert. Ist v 2 Ui , so gilt offenbar prUi vi D vi und prUj vi D 0
für i ¤ j , wieder dank der Eindeutigkeit. Damit sind die Abbildungen Pi D prUi
Projektoren mit Pi Pj D ıij Pi . Die Gleichung (6.163) bedeutet schließlich P1 C
C Pk D 1, womit der zweite Teil gezeigt ist.
t
u
Eine Zerlegung der Eins in Form von Projektoren ist also dasselbe wie eine Zerlegung von V in eine direkte Summe von Unterräumen. Anhand dieser Äquivalenz
ist nun auch klar, dass es sinnvoll ist, Pi ¤ 0 zu fordern, da wir sonst nur Kopien
des Nullraums in der Zerlegung von V hinzunehmen, welche typischerweise keine
interessante Information tragen. Es gilt offenbar
im Pi D Ui
(6.164)
6.6 Das Minimalpolynom und der Spektralsatz
255
im Fall ii.) der Proposition 6.86. Dies liefert nun eine weitere geometrische
Interpretation von Diagonalisierbarkeit:
Proposition 6.87. Sei V ein endlich-dimensionaler Vektorraum und A 2 End.V /.
Dann sind äquivalent:
i.) Die Abbildung A ist diagonalisierbar.
ii.) Es gibt eine Zerlegung der Eins P1 ; : : : ; Pk 2 End.V / und paarweise
verschiedene 1 ; : : : ; k mit
AD
k
X
i P i :
(6.165)
iD1
In diesem Fall sind die 1 ; : : : ; k die Eigenwerte von A und
Vi D im Pi :
(6.166)
Beweis. Sei A diagonalisierbar mit paarweise verschiedenen Eigenwerten 1 ; : : : ;
k 2 k und mit zugehörigen Eigenräumen V1 ; : : : ; Vk . Wir wissen bereits, dass
V D V1 ˚ ˚ Vk :
Seien P1 ; : : : ; Pk die zugehörigen Projektoren für diese Zerlegung von V gemäß
Proposition 6.86. Dann gilt für v 2 V
Av D A
k
X
iD1
Pi v D
k
X
APi v D
iD1
k
X
i Pi v;
iD1
ˇ
ˇ
da Pi v 2 Vi und AˇV D i id ˇV nach der Definition von Eigenvektoren. Dies
i
i
zeigt i.) H) ii.). Sei umgekehrt eine solche Zerlegung der Eins mit (6.165)
gegeben. Dann gilt für v 2 im Pj offenbar
Av D
k
X
iD1
i P i v D
k
X
i Pi Pj v D j v;
iD1
da ja Pi Pj D ıij Pj , womit im Pj Vj im Eigenraum zu j enthalten
ist. Die Wahl einer Basis für jedes im P1 ; : : : ; im Pk liefert dank der direkten
Summe (6.161) und Proposition 4.59, ii.), eine Basis von V , die aus Eigenvektoren
besteht. Also ist A diagonalisierbar. Aus Dimensionsgründen muss dann bereits
Vi D im Pi gelten, womit die Zahlen 1 ; : : : ; k bereits alle Eigenwerte sind.
t
u
256
6 Determinanten und Eigenwerte
Bemerkung 6.88 (Polynomialer Kalkül). Sei p 2 kŒx ein Polynom mit skalaren
Koeffizienten, und sei A 2 End.V / ein fest gewählter Endomorphismus von V . Die
Zuordnung
kŒx 3 p 7! p.A/ 2 End.V /
(6.167)
ist k-linear und ein Ringmorphismus. Es gilt nämlich für ; 2 k und p; q 2 kŒx
.p C q/.A/ D p.A/ C q.A/
(6.168)
.pq/.A/ D p.A/q.A/;
(6.169)
sowie
wobei für letztere Gleichung entscheidend ist, dass alle A-Potenzen miteinander vertauschen, siehe auch Übung 6.30. Ist A nun diagonalisierbar und in der Form (6.165)
gegeben, so gilt
0
A` D @
k
X
1
i 1 P i 1 A @
i1 D1
D
0
k
X
k
X
1
i ` P i ` A
i` D1
i 1 i ` P i 1 P i `
(6.170)
i1 ;:::;i` D1
D
k
X
`i Pi ;
iD1
da Pi Pj D ij Pi und daher Pi1 Pi` nur dann ungleich null ist, wenn alle Indizes
gleich sind. In diesem Fall gilt dann Pi Pi D Pi , da Pi ein Projektor ist. Es folgt
daher für jedes p 2 kŒx
p.A/ D
k
X
p.i /Pi ;
(6.171)
iD1
womit wir sehr einfach die Potenzen von A berechnen können, sobald A diagonalisiert ist.
Ist A nicht diagonalisierbar, so wollen wir A, wie bereits angekündigt, „bis auf
nilpotente Anteile“ so gut wie möglich diagonalisieren. Zu diesem Zweck benötigen
wir das Minimalpolynom von A:
6.6 Das Minimalpolynom und der Spektralsatz
257
Definition 6.89 (Minimalpolynom). Sei V ein endlich-dimensionaler Vektorraum
über k und A 2 End.V /. Dann heißt mA 2 kŒx Minimalpolynom von A, falls
i.) mA .A/ D 0,
ii.) mA minimalen Grad unter allen Polynomen p 2 kŒx mit p.A/ D 0 hat,
iii.) der führende Koeffizient von mA auf 1 normiert ist.
Proposition 6.90. Sei V ein endlich-dimensionaler Vektorraum über k und A 2
End.V /.
i.) Es existiert genau ein Minimalpolynom mA von A.
ii.) Ist p 2 kŒx mit p.A/ D 0, so gibt es ein q 2 kŒx mit
p D mA q:
(6.172)
Beweis. Nach Lemma 6.74 gibt es Polynome p 2 kŒx mit führendem Koeffizienten 1, für die p.A/ D 0 gilt. Unter diesen wählen wir eines mit minimalem Grad,
womit die Existenz gezeigt ist. Ist p 2 kŒx beliebig, so können wir r; q 2 kŒx mit
p D q mA C r
und
deg r < deg mA
finden, indem wir Polynomdivision mit Rest verwenden, siehe Proposition 3.62.
Gilt p.A/ D 0, so folgt
0 D p.A/ D q.A/mA .A/ C r.A/
dank des polynomialen Kalküls aus Bemerkung 6.88. Da aber mA .A/ D 0 gilt,
folgt r.A/ D 0. Wäre nun r ein nichtkonstantes Polynom, so könnten wir den
führenden Koeffizienten wieder auf 1 normieren und hätten ein Polynom mit den
Eigenschaften des Minimalpolynoms von echt kleinerem Grad gefunden. Dies
widerspricht der Minimalität, womit r D 0 folgt. Seien schließlich mA und m0A
zwei Minimalpolynome. Dann gibt es also q; q 0 2 kŒx mit
mA D q m0A
und
m0A D q 0 mA :
Also gilt mA D qq 0 mA . Da mA den führenden Koeffizienten 1 besitzt, folgt qq 0 D 1.
Daher ist q D q10 2 k ein konstantes Polynom. Da beide Minimalpolynome aber
denselben führenden Koeffizienten 1 haben, muss q D q 0 D 1 und damit mA D m0A
gelten.
t
u
Korollar 6.91. Das Minimalpolynom teilt das charakteristische Polynom.
Beweis. Dies folgt aus der Proposition 6.87 sowie aus dem Satz 6.75 von CayleyHamilton.
t
u
258
6 Determinanten und Eigenwerte
Korollar 6.92. Das Minimalpolynom und das charakteristische Polynom besitzen
dieselben Nullstellen, nämlich die Eigenwerte von A.
Beweis. Die Nullstellen von A sind genau die Eigenwerte von A nach Satz 6.64.
Sei nun 2 k ein Eigenwert von A und v 2 V n f0g ein Eigenvektor. Dann gilt
Ak v D k v
und somit
0 D mA .A/v D mA ./v:
Da v ¤ 0 gilt, folgt mA ./ D 0. Sei umgekehrt 2 k eine Nullstelle von mA
und sei q 2 kŒx, sodass A D mA q nach Korollar 6.91. Dann gilt A ./ D
t
u
mA ./q./ D 0.
Die Nützlichkeit des charakteristischen Polynoms und des Minimalpolynoms
fußt im Wesentlichen auf der Existenz von Nullstellen der beiden. Daher wollen wir
im Folgenden annehmen, dass A in Linearfaktoren zerfällt, welche wir zu Potenzen
von paarweise verschiedenen Linearfaktoren zusammenfassen können. Es gelte also
A .x/ D .1 x/1 .k x/k
(6.173)
mit paarweise verschiedenen 1 ; : : : ; k 2 k und gewissen 1 ; : : : ; n 2 N, den
algebraischen Vielfachheiten der Eigenwerte. Da mA das charakteristische Polynom
teilt und dieselben Nullstellen hat, gilt
mA .x/ D .x 1 /m1 .x k /mk
(6.174)
mit gewissen natürlichen Zahlen m1 ; : : : ; mk 2 N, da jede Nullstelle auch wirklich
einmal auftreten muss, sowie
m 1 1 ;
:::;
m k k ;
(6.175)
da sonst A nicht von mA geteilt wird. Man beachte, dass mA mit (6.174)
richtig normiert ist. Über einem algebraisch abgeschlossenen Körper k ist die
Voraussetzung (6.173) insbesondere immer erfüllt. Wir fassen dies zusammen:
Korollar 6.93. Zerfällt das charakteristische Polynom A von A in Potenzen von
paarweise verschiedenen Linearfaktoren
A .x/ D .1 x/1 .k x/k ;
(6.176)
so gibt es m1 ; : : : ; mk 2 N mit
mA .x/ D .x 1 /m1 .x k /mk
(6.177)
6.6 Das Minimalpolynom und der Spektralsatz
259
und m1 1 ; : : : ; mk k .
Beispiel 6.94. Sei V D kn und A D 1. Dann ist
1 .x/ D det.1 x1/ D .1 x/n :
(6.178)
m1 .x/ D x 1
(6.179)
Andererseits ist
das Minimalpolynom, wie man direkt verifiziert. In diesem Fall ist also 1 D n,
aber m1 D 1.
Beispiel 6.95. Sei Jn 2 Mn .k/ wie in (6.155), also
0
1
0
Jn =
0
0
.
(6.180)
1
0
0
Insbesondere wissen wir, dass Jn nilpotent ist. Nach Lemma 6.30 gilt
Jn .x/ D det.Jn x1/ D .x/n :
(6.181)
Man überlegt sich nun schnell, dass
mJn .x/ D x n
(6.182)
gilt: Offenbar ist tatsächlich Jnn D 0. Da mJn das charakteristische Polynom Jn
teilen muss, folgt mJn .x/ D x k für ein 1 k n. Da Jnn1 ¤ 0, muss k D n
gelten.
Definition 6.96 (Verallgemeinerter Eigenraum). Sei V ein endlich-dimensionaler Vektorraum über k, und sei A 2 End.V /. Für einen Eigenwert 2 k von A
definiert man den verallgemeinerten Eigenraum (auch: Hauptraum)
ˇ
n
o
ˇ
VQ D v 2 V ˇ es gibt ein k 2 N mit .A 1/k v D 0 :
(6.183)
Bemerkung 6.97. Da für k k 0
0
ker.A 1/k ker.A 1/k
(6.184)
260
6 Determinanten und Eigenwerte
gilt, sieht man leicht, dass VQ tatsächlich ein Unterraum ist. Es gilt offenbar
VQ D
1
[
ker.A 1/k
(6.185)
kD1
sowie
V VQ :
(6.186)
Wie schon bei den Eigenräumen, kann man VQ durch (6.183) auch für beliebiges
2 k definieren. Ist jedoch kein Eigenwert, so ist VQ trivial, da dann A 1
injektiv ist. Also ist auch .A 1/k injektiv für alle k. Wir erhalten in diesem Fall
also
ker.A 1/k D f0g
(6.187)
für alle k 2 N, sofern kein Eigenwert ist. Anders ausgedrückt kann man sagen,
dass A 1 höchstens dann nilpotent auf einem nichttrivialen Teilraum sein kann,
wenn ein Eigenwert ist.
Beispiel 6.98. Für die nilpotente Matrix Jn aus Beispiel 6.95 gilt offenbar VQ0 D kn ,
da Jnn D 0. Andererseits gilt
V0 D ker Jn D ken ¤ VQ0 :
(6.188)
Wir nehmen nun an, dass das charakteristische Polynom A von A in Linearfaktoren zerfällt, und bezeichnen die paarweise verschiedenen Eigenwerte mit
1 ; : : : ; k , deren algebraische Vielfachheiten wir weiterhin mit 1 ; : : : ; k notieren. Das Minimalpolynom mA ist dann von der Form (6.177) wie in Korollar 6.93.
Wir setzen
pi .x/ D
i
mA .x/
D .x 1 /m1 ^ .x k /mk
m
.x i / i
(6.189)
i
für i D 1; : : : ; k. Hier soll ^ bedeuten, dass wir den i -ten Faktor in diesem Produkt
weglassen.
Lemma 6.99. Die Polynome p1 ; : : : ; pk sind teilerfremd.
Beweis. Dies ist klar, da nach Voraussetzung alle Nullstellen 1 ; : : : ; k paarweise
verschieden sind.
t
u
Lemma 6.100. Es gibt Polynome q1 ; : : : ; qk 2 kŒx mit
p1 q1 C C pk qk D 1:
(6.190)
6.6 Das Minimalpolynom und der Spektralsatz
261
Beweis. Dies folgt aus Lemma 6.99 und dem Lemma von Bezout, siehe Satz 3.69.
u
t
Wir betrachten nun für i D 1; : : : ; k die linearen Abbildungen
Pi D pi .A/qi .A/:
(6.191)
Lemma 6.101. Die Abbildungen P1 ; : : : ; Pk sind Projektoren und bilden eine
Zerlegung der Eins. Es gilt also
Pi Pj D ıij Pi
(6.192)
1 D P1 C C P k :
(6.193)
für alle i; j D 1; : : : ; k sowie
Weiter kommutieren A und die Pi , also
ŒA; Pi D 0:
(6.194)
Beweis. Sei zunächst i ¤ j . Dann gilt
Pi Pj D pi .A/qi .A/pj .A/qj .A/
i
D .A 1 /m1 ^ .A k /mk qi .A/
j
.A 1 /m1 ^ .A k /mk qj .A/
D 0;
da wir zum einen die einzelnen Faktoren alle vertauschen dürfen und zum anderen
für i ¤ j das Produkt pi .x/pj .x/ ein Vielfaches von mA .x/ ist. Damit liefert
mA .A/ D 0 also Pi Pj D 0. Nun gilt weiter
P1 C C P k D 1
nach Konstruktion der Polynome q1 ; : : : ; qk in Lemma 6.100 und dank des polynomialen Kalküls. Dies liefert schließlich
Pi D Pi 1 D Pi .P1 C C Pk / D 0 C C Pi2 C C 0 D Pi2 ;
also insgesamt (6.192) für alle i; j D 1; : : : ; k. Die letzte Eigenschaft (6.194) ist
klar, da die Pi Polynome in A sind und daher mit A vertauschen. Dass Pi ¤ 0, folgt
aus dem nächsten Lemma.
t
u
262
6 Determinanten und Eigenwerte
Lemma 6.102. Für alle i D 1; : : : ; k gilt
im Pi D VQi
(6.195)
AVQi VQi :
(6.196)
sowie
Beweis. Sei r mi . Dann gilt nach (6.189) und (6.191)
i
.A i /r Pi D .A i /r .A 1 /m1 ^ .A k /mk qi .A/
D .A i /rmi mA .A/qi .A/
D 0;
da mA .A/ D 0. Damit ist
im Pi ker.A i /r
(6.197)
für großes r. Nach Bemerkung 6.97 liefert dies im Pi VQi . Für die umgekehrte
Inklusion betrachten wir die Polynome .x i /r und pi .x/qi .x/. In pi .x/ tritt kein
Faktor .x i / auf. Wäre ein Faktor .x i / in qi .x/ enthalten, so wäre .x i / ein
Faktor in allen q1 .x/p1 .x/; : : : ; qk .x/pk .x/ und damit auch in 1 D q1 .x/p1 .x/ C
Cqk .x/pk .x/. Dies ist aber offensichtlich nicht der Fall, da 1 keine Faktoren vom
Grad 1 enthält. Also sind die Polynome .x i /r und pi .x/qi .x/ teilerfremd.
Wir können daher erneut das Lemma von Bezout anwenden und erhalten Polynome
a; b 2 kŒx mit
1 D a.x/.x i /r C b.x/pi .x/qi .x/:
Einsetzen von A liefert dann die Gleichung
1 D a.A/.A i /r C b.A/Pi :
(6.198)
Da Pi D Pi2 ein Projektor ist, gilt V D im Pi ˚ ker Pi . Da im Pi ker.A i /r
nach (6.197), folgt
ker.A i /r D im Pi ˚ .ker.A i /r \ ker Pi /:
Sei also v 2 ker.A i /r \ ker Pi , dann gilt nach (6.198)
v D a.A/.A i /r v C b.A/Pi v D 0 C 0 D 0:
6.6 Das Minimalpolynom und der Spektralsatz
263
Das zeigt v D 0 und damit ker.A i /r D im Pi für r mi . Dies liefert die
noch fehlende Inklusion VQi im Pi , womit (6.195) gezeigt ist. Insbesondere folgt
Pi ¤ 0, da VQi ¤ f0g. Da A mit Pi vertauscht, folgt für alle v 2 V
APi v D Pi Av;
und somit A im Pi im Pi . Nach (6.195) ist dies aber gerade (6.196).
t
u
Nach diesen Vorbereitungen sind wir nun in der Lage, eine erste Version des
Spektralsatzes zu formulieren.
Satz 6.103 (Spektralsatz). Sei V ein endlich-dimensionaler Vektorraum über k
und A 2 End.V /. Das charakteristische Polynom A von A zerfalle in Linearfaktoren
A .x/ D .1 x/1 .k x/k
(6.199)
mit paarweise verschiedenen Eigenwerten 1 ; : : : ; k 2 k. Das Minimalpolynom
mA von A sei entsprechend
mA .x/ D .x 1 /m1 .x k /mk
(6.200)
mit 1 mi i . Seien weiter die Projektoren Pi 2 End.V / für i D 1; : : : ; k
definiert wie in (6.191). Sei schließlich
AS D
k
X
iD1
i P i
und
AN D
k
X
.A i 1/Pi :
(6.201)
iD1
i.) Die Abbildungen AS ; AN 2 End.V / sind Polynome in A und es gilt
ŒAS ; AN D 0 sowie
A D AS C AN :
(6.202)
ii.) Die Abbildung AS ist diagonalisierbar.
iii.) Die Abbildung AN ist nilpotent.
iv.) Die Abbildung A ist genau dann diagonalisierbar, wenn
mA .x/ D .x 1 / .x k /;
(6.203)
also wenn m1 D D mk D 1. In diesem Fall gilt VQi D Vi sowie
Pi D
.A 1 / .A i1 /.A iC1 / .A k /
.i 1 / .i i1 /.i iC1 / .i k /
(6.204)
264
6 Determinanten und Eigenwerte
und
A D AS
und
AN D 0:
(6.205)
Beweis. Nach Konstruktion der Pi sind diese Projektoren Polynome in A. Daher
sind auch die Abbildungen AS und AN ihrer Konstruktion nach Polynome in
A. Insbesondere vertauschen sie mit A und auch untereinander. Da die Pi eine
Zerlegung der Eins bilden, gilt
AN D
k
X
APi iD1
k
X
i P i D A
iD1
k
X
Pi AS D A AS ;
iD1
womit der erste Teil gezeigt ist. Der zweite Teil ist klar nach Proposition 6.87. Für
den dritten Teil berechnen wir ArN explizit. Es gilt
r
AN D
k
X
.A i1 /Pi1 .A ir /Pir
i1 ;:::;ir D1
.a/
D
k
X
.A i1 / .A ir /Pir Pir
i1 ;:::;ir D1
D
k
X
.A i /r Pi ;
iD1
da Pi1 Pir nur ungleich null ist, falls alle Indizes gleich sind. Für i1 D D ir D
i gilt dann Pi1 Pir D Pi , da Pi ein Projektor ist. Man beachte, dass wir in (a)
die Reihenfolge ändern dürfen, da die Projektoren Pi alle untereinander und mit A
vertauschen. Nach Lemma 6.102 und Bemerkung 6.97 gilt für r mi
.A i /r Pi D 0:
Wählen wir also r m1 ; : : : ; mk , so folgt ArN D 0, was den dritten Teil zeigt. Für
den vierten Teil nehmen wir zuerst an, dass A diagonalisierbar ist. Dann gibt es eine
Zerlegung der Eins Q1 ; : : : ; Qk 2 End.V / und paarweise verschiedene Eigenwerte
1 ; : : : ; k 2 k, sodass
AD
k
X
iD1
mit Vi D im Qi . Da Qi Qj D ıij Qi , folgt
i Qi
6.6 Das Minimalpolynom und der Spektralsatz
.A 1 / .A k / D
k
X
.i1 1 /Qi1 i1 D1
k
X
D
265
k
X
.ik k /Qin
ik D1
.i1 1 / .ik k /Qi1 Qik
i1 ;:::;ik D1
D
k
X
.i 1 / .i k /Qi
iD1
D0
mit der analogen Argumentation wie zuvor. Daher verschwindet das Polynom
.x 1 / .x k / auf A und wird somit vom Minimalpolynom geteilt, siehe
Proposition 6.90, ii.). Zudem besitzt mA die Nullstellen 1 ; : : : ; k und ist daher
ein Vielfaches von .x 1 / .x k /. Da der führende Koeffizient bereits auf
1 normiert ist, folgt (6.203). Sei umgekehrt (6.203) erfüllt. Wir schreiben A D
AS C AN mit AS ; AN wie in (6.201). Dann gilt für die Polynome pi .x/qi .x/
.x i /pi .x/qi .x/ D mA .x/qi .x/
nach (6.203). Dies zeigt aber .A i /Pi D mA .A/qi .A/ D 0. Damit folgt aber
sofort AN D 0 und A D AS , womit A diagonalisierbar ist. Es bleibt also, (6.204)
für diesen Fall zu zeigen. Die Behauptung ist also, dass die Polynome qi aus
Lemma 6.100 in diesem speziellen Fall durch
1
qi .x/ D
.i 1 / .i i1 /.i iC1 / .i k /
gegeben und damit insbesondere konstant sind. Wir zeigen die erforderliche Eigenschaft (6.190) direkt. Sei für diese Wahl von q1 ; : : : ; qn
a.x/ D p1 .x/q1 .x/ C C pk .x/qk .x/
D
k
X
.x 1 / .x i1 /.x iC1 / .x k /
:
.
i 1 / .i i1 /.i iC1 / .i k /
iD1
Nach Proposition 6.45 und der expliziten Formel (6.106) nimmt das Polynom a auf
den Zahlen 1 ; : : : ; k immer den Wert 1 an. Da a aber höchstens den Grad k1 hat,
ist a.x/ D 1 nach der Eindeutigkeitsaussage der Proposition 6.45. Damit erfüllen
die q1 ; : : : ; qk aber (6.190), und die Pi sind durch (6.204) gegeben.
t
u
Bemerkung 6.104. Die verallgemeinerten Eigenräume VQi von A sind ihrer Definition nach bereits durch A eindeutig bestimmt. Es gilt
V D VQ1 ˚ ˚ VQk ;
(6.206)
266
6 Determinanten und Eigenwerte
da VQi D im Pi und die Pi eine Zerlegung der Eins bilden. Damit sind aber die
Projektoren Pi ebenfalls eindeutig durch A festgelegt, nämlich mittels (6.206) und
der Konstruktion aus Proposition 6.86. Die Polynome qi mit
Pi D pi .A/qi .A/
(6.207)
sind hingegen nicht eindeutig, da wir beispielsweise qi durch qi C mA ersetzen
können, siehe auch Übung 3.31. Für die tatsächliche Bestimmung ist das Lemma von Bezout eher ungeeignet: Die Projektoren Pi erhält man direkt aus der
Zerlegung (6.206), deren Bestimmung ein lineares Problem ist, sobald man die
Eigenwerte von A kennt: Es müssen nur die Kerne von .A i /k für alle k 2 N
bestimmt werden. Wir werden sehen, dass k dim V ausreicht.
Die folgende Proposition zeigt nun, dass die Zerlegung von A in AS und AN durch
die Bedingung ŒAS ; AN D 0 bereits eindeutig festgelegt ist:
Proposition 6.105. Sei V ein endlich-dimensionaler Vektorraum über k und A 2
End.V /. Das charakteristische Polynom A von A zerfalle in Linearfaktoren. Sind
dann BS ; BN 2 End.V / mit
A D BS C BN
(6.208)
gegeben, sodass BS diagonalisierbar ist, BN nilpotent ist und ŒBS ; BN D 0 gilt, dann
gilt
AS D BS
AN D BN :
und
(6.209)
Beweis. Es gilt insbesondere ŒA; BS D 0 D ŒA; BN . Seien nun 1 ; : : : ; k 2 k die
Eigenwerte von BS und W1 ; : : : ; Wk die zugehörigen Eigenräume, sodass
ˇ
ˇ
BS ˇW D i 1ˇW
i
i
gilt. Da ABS D BS A, folgt
AWi Wi
ebenso wie BN Wi Wi :
Damit ist aber auf dem Unterraum Wi die Abbildung
ˇ
ˇ
ˇ
AˇW i 1ˇW D BN ˇW
i
i
i
nilpotent. Dies ist nur möglich, wenn i ein Eigenwert von A ist, siehe Bemerkung 6.97. Nach Definition ist VQi der größte Unterraum, auf dem A i nilpotent
ist. Daher folgt
Wi VQi :
6.6 Das Minimalpolynom und der Spektralsatz
267
L
Da BS diagonalisierbar ist, gilt kiD1 Wi D V . Da die VQi ebenfalls eine direkte
Summe bilden, muss folglich sogar
Wi D VQi
für alle i gelten. Insbesondere
ˇ alle Eigenwerte von A als Eigenwerte von
ˇ treten auch
BS auf. Da aber AS durch AS ˇVQ D i 1ˇVQ bereits festgelegt ist, siehe (6.201), muss
i
i
t
u
AS D BS gelten. Damit folgt dann auch AN D BN .
Definition 6.106 (Jordan-Zerlegung und Spektralprojektoren). Sei A
End.V /, sodass A in Linearfaktoren zerfällt.
2
i.) Die Menge der Eigenwerte von A heißt Spektrum spec.A/ k von A.
ii.) Die Zerlegung A D AS C AN heißt Jordan-Zerlegung von A in den halbeinfachen Teil AS und den nilpotenten Teil AN von A.
iii.) Die Projektoren P1 ; : : : ; Pk heißen die Spektralprojektoren von A.
iv.) Ist A D AS diagonalisierbar, so heißt
AD
k
X
i P i
(6.210)
iD1
mit den Spektralprojektoren Pi von A die Spektralzerlegung oder auch Spektraldarstellung von A.
Bemerkung 6.107. Der Spektralsatz kann also insbesondere so verstanden werden, dass wir eine Diagonalisierung bis auf nilpotente Anteile erreicht haben.
Zudem ist die Aufspaltung in diagonalisierbaren und nilpotenten Anteil eindeutig
vorgegeben. Die Formulierung mithilfe der Spektralprojektoren anstelle von Eigenvektoren erweist sich später als die leistungsfähigere, wenn man anstelle von
endlich-dimensionalen auch unendlich-dimensionale Vektorräume betrachten will.
In der Funktionalanalysis werden analoge Aussagen wie Satz 6.103 für bestimmte
lineare Abbildungen auf Hilbert-Räumen formuliert und bewiesen. Die Beweistechniken sind jedoch notwendigerweise sehr von den hier verwendeten verschieden:
In unendlichen Dimensionen gibt es einfache Beispiele für Endomorphismen A 2
End.V /, sodass A; A2 ; A3 ; : : : alle linear unabhängig sind, siehe Übung 6.10. In
solch einem Fall gibt es also kein Minimalpolynom. Schließlich sei angemerkt, dass
die Voraussetzung eines in Linearfaktoren zerfallenden charakteristischen Polynoms
eher technischer Natur ist: In der Algebra wird insbesondere gezeigt, dass es zu
einem Körper k immer einen größeren Körper k0 gibt, der zum einen k umfasst
und zum anderen selbst algebraisch abgeschlossen ist. Auf diese Weise kann A
zwar vielleicht nicht in kŒx in Linearfaktoren zerlegt werden, wohl aber in k0 Œx.
Man muss also nur den Vektorraum V zu einem Vektorraum V 0 über k0 erweitern
und kann dort dann den Spektralsatz anwenden. In vielen Anwendungen ist k D R
268
6 Determinanten und Eigenwerte
und damit nicht algebraisch abgeschlossen. Ein Übergang zu den komplexen Zahlen
C ist daher oft die Methode der Wahl. Wir werden konkrete Anwendungen beim
Exponenzieren von Matrizen hierzu in Band 2 sehen.
Kontrollfragen. Was ist eine nilpotente Matrix? Was ist eine Zerlegung der Eins?
Wie können Sie eine diagonalisierbare Abbildung mithilfe der Projektoren auf
die Eigenräume schreiben? Wieso ist das Minimalpolynom eindeutig? Welche
Nullstellen hat das Minimalpolynom? Was ist ein verallgemeinerter Eigenraum?
Wozu benutzen Sie das Lemma von Bezout im Beweis des Spektralsatzes? Welche
Eigenschaften hat die Jordan-Zerlegung?
6.7
Die Jordan-Normalform
Die Aussage des Spektralsatzes und insbesondere die Zerlegung A D AS C AN
in einen diagonalisierbaren und einen nilpotenten Teil ist für viele Zwecke völlig
ausreichend. Manchmal ist es jedoch nützlich, eine geeignete Basis zu wählen, um
für die Matrix von A eine besonders einfache Form zu erzielen. Für den diagonalisierbaren Teil ist klar, was zu tun ist: Man wählt eine Basis von Eigenvektoren. Da
nun AS AN D AN AS vertauschen, folgt
AN VQi VQi
(6.211)
ˇ
D i 1ˇVQ ein
i
Vielfaches der Identität ist und generell AS AN D AN AS gilt. Ist nun dim VQi D 1,
so ist die einzige nilpotente Abbildung AN durch die Nullabbildung gegeben. Ist
dagegen dim VQi 2, so gibt es nichttriviale nilpotente Abbildungen AN . Wir wollen
nun unter den vielen Möglichkeiten, eine Basis von Eigenvektoren von AS in VQi
zu wählen, eine besonders einfache suchen, so dass AN eine möglichst einfache
Form annimmt. Inspiriert durch die spezielle nilpotente Matrix Jn aus (6.155) in
Beispiel 6.81 definiert man die Jordan-Matrizen folgendermaßen:
ˇ
für alle Eigenwerte i von A: Dies erhält man daraus, dass AS ˇVQ
i
Definition 6.108 (Jordan-Matrix). Sei n 2 N. Dann heißt die Matrix
0
Jn =
1
0
0
0
1
0
die n n-Jordan-Matrix.
0
∈ Mn ( )
(6.212)
6.7 Die Jordan-Normalform
269
Nach Beispiel 6.81 gilt also
0
0
1
0
J nn = 0 aber J nn − 1 =
0
= 0 .
(6.213)
0
Insbesondere ist die Jordan-Matrix Jn nilpotent, und wir können ihre Potenzen leicht
bestimmen. Auf der kanonischen Basis e1 ; : : : ; en 2 kn liefert die Jordan-Matrix
Jn e1 D 0;
Jn e2 D e1 ;
Jn e3 D e2 ;
und entsprechend für alle i; j D 1; : : : ; n
(
0
i
Jn ej D
ej i
:::;
Jn en D en1
falls i j
(6.214)
(6.215)
falls j > i:
Die Matrix Jn „schiebt“ also die Indizes der kanonischen Basis eins nach unten.
Wir verwenden die Jordan-Matrizen von verschiedener Größe nun dazu, eine
Normalform für eine beliebige nilpotente Abbildung zu erzielen.
Satz 6.109 (Normalform für nilpotente Endomorphismen). Sei V ein endlichdimensionaler Vektorraum über k und sei ˚ 2 End.V / nilpotent. Sei weiter
ˇ
˚
r D min ` 2 N ˇ ˚ ` D 0 :
(6.216)
Dann gibt es eindeutig bestimme Zahlen n1 ; : : : ; nr 2 N0 mit nr 1 sowie eine
Basis B V mit
nr
al
-m
Jr
Jr
nr
−
al
-m
1
Jr− 1
B[
]B =
,
Jr− 1
J1
al
-m
n1
J1
(6.217)
270
6 Determinanten und Eigenwerte
wobei Js genau ns -mal auftritt für alle s D 1; : : : ; r. Es gilt
dim V D r nr C .r 1/ nr1 C C 1 n1 :
(6.218)
Beweis. Die Basis selbst ist nicht eindeutig und erfordert einige Wahlen, lediglich
die Anzahlen der Jordan-Matrizen vom jeweiligen Typ sind eine charakteristische
Größe von ˚. Die Konstruktion ist daher nicht kanonisch. Wir betrachten zunächst
folgende Teilräume
V` D ker ˚ ` ;
(6.219)
wobei also V0 D ker ˚ 0 D ker 1 D f0g. Für diese Teilräume erhalten wir nun
Folgendes: Zunächst gilt für v 2 ker ˚ ` auch ˚ `C1 v D ˚ 1 ˚ ` v D 0 und somit
V` V`C1
für alle ` 0. Ist nun v 2 V`C1 , so gilt 0 D ˚ `C1 v D ˚ ` ˚v. Dies zeigt ˚v 2 V`
und somit
˚.V`C1 / V` :
(6.220)
Wir zeigen nun, dass die Vektoren in V`C1 die einzigen sind, die nach V` abgebildet
werden. Es gilt nämlich
v 2 ˚ 1 .V` / ” ˚.v/ 2 V` ” ˚ ` ˚.v/ D 0 ” v 2 V`C1
für alle `. Damit folgt also
V`C1 D ˚ 1 .V` /
(6.221)
und insbesondere ˚.V`C1 / D V` . Die Abbildung
ˇ
˚ ˇV
`C1
W V`C1 ! V`
ist also surjektiv. Weiter behaupten wir, dass für alle 0 ` r 1 die Vektorräume
V` und V`C1 verschieden sind: Wäre nämlich V` D V`C1 , so gälte für jeden Vektor
v 2 V`C1 sogar ˚ ` v D 0. Damit gälte aber für alle v 2 V dank (6.220) zunächst
˚ r`1 v 2 V`C1 , da ja offenbar nach Definition von r gerade Vr D V gilt. Nach
Annahme wäre dann
0 D ˚ ` ˚ r`1 v D ˚ r1 v
für alle v 2 V im Widerspruch zur Minimalität von r. Daher sind also die Inklusionen
6.7 Die Jordan-Normalform
271
f0g D V0 ¨ V1 ¨ ¨ Vr1 ¨ Vr D V
alle echt. Es folgt also insbesondere
r dim V;
da in jedem Schritt mindestens eine linear unabhängige Richtung hinzukommen
muss. Als letzte Eigenschaft bemerken wir, dass für einen
ˇ Unterraum W V mit
W \V` D f0g für ein 1 ` r 1 die Einschränkung ˚ ˇW injektiv ist. Ist nämlich
v 2 W mit ˚.v/ D 0, so folgt nach Definition v 2 ker ˚ D V1 V` dank (6.221).
ˇ
Da nun nach Voraussetzung aber W \ V` D f0g gilt, folgt v D 0 und ˚ ˇW ist
injektiv. Daher gilt also für 1 ` r 1
ˇ W \ V` D f0g H) ker ˚ ˇW D f0g:
(6.222)
Wir nutzen diese Eigenschaften nun, um rekursiv geeignete Unterräume von V zu
konstruieren. Zuerst wählen wir einen Komplementärraum
Wr ˚ Vr1 D Vr D V
zu Vr1 . Dies ist nach Proposition 4.62 immer möglich, stellt aber eine nichtkaˇ
nonische Wahl dar. Nach Definition von Wr gilt Wr \ Vr1 D f0g, womit ˚ ˇWr
dank (6.222) injektiv ist. Weiter ist Wr Vr und daher ˚.Wr / Vr1 nach (6.220).
Schließlich gilt wegen (6.221)
˚.Wr / \ Vr2 D f0g;
(6.223)
da ˚ 1 .Vr2 / D Vr1 und Vr1 \ Wr D f0g. Es kommen also nur solche Vektoren
nach Vr2 unter ˚, die in Vr1 liegen. Gilt also ˚.w/ 2 Vr2 für w 2 Wr , so
folgt bereits w 2 Wr \ Vr1 D f0g, also w D 0 und daher ˚.w/ D 0. Dies
zeigt (6.223). Wir haben nun also zwei Unterräume ˚.Wr / und Vr2 von Vr1 ,
welche trivialen Durchschnitt besitzen. Es gilt daher ˚.Wr / C Vr2 D ˚.Wr / ˚
Vr2 . Diesen Unterraum ergänzen wir durch ein Komplement zu Vr1 , wieder auf
nichtkanonische Weise. Dadurch erhalten wir einen Teilraum Wr1 Vr1 mit
˚.Wr / Wr1
und
Vr2 ˚ Wr1 D Vr1 :
Wir sind also mit dem Paar Wr1 und Vr1 in derselben Situation wie zuvor mit
Wr und Vr . Daher können wir induktiv weitere Unterräume Wr2 ; : : : ; W1 finden,
welche dann folgende Eigenschaften besitzen:
•
•
•
•
W` V` für alle ` D 1; : : : ; r.
W` \ V`1 D f0g für alle ` D 1; : : : ; r.
˚.W` / W`1 und ˚.W1 / D f0g für alle ` D 2; : : : ; r.
V`1 ˚ W` D V` für alle ` D 1; : : : ; r.
272
6 Determinanten und Eigenwerte
Nach Konstruktion erhalten wir also folgende Aufspaltung von V in
V D W 1 ˚ W2 ˚ : : : ˚ Wr
und
V1 D W1 D ker ˚
V2 D W1 ˚ W2
::
:
V` D W1 ˚ : : : ˚ W`
.r/
.r/
für alle ` D 1; : : : ; r. Die Dimension von Wr sei nr , und v1 ; : : : ; vnr 2 Wr sei eine
ˇ
geordnete Basis von Wr . Da Vr1 ¤ V , wissen wir insbesondere nr > 0. Da ˚ ˇWr
.r/
.r/
nach (6.222) injektiv ist, sind die Vektoren ˚.v1 /; : : : ; ˚.Vnr / nach wie vor linear
unabhängig. Nach ˚.Wr / Wr1 können wir sie zu einer Basis
.r/
.r1/
.r/
/; v1
˚.v1 /; : : : ; ˚.vm
r
; : : : ; vn.r1/
r1
von Wr1 ergänzen, wobei dim Wr1 D dim Wr C nr1 . Induktiv erhalten wir somit
eine Basis von W` für alle ` D 1; : : : ; r der Form
.r/
/;
˚ r` .v1 /; : : : ; ˚ r` .vn.r/
r
.r1/
˚ r`1 .v1
/; : : : ; ˚ r`1 .vn.r1/
/;
r1
::
:
`C1
˚.v1 /; : : : ; ˚.vn.`C1/
/;
`C1
.`/
v1 ; : : : ; vn.`/` :
Da die W` zusammen V als direkte Summe aufspannen, folgt, dass alle diese
Basen zusammen eine Basis von V bilden. Wir sortieren diese nun danach, wie
oft wir ˚ anwenden können, bevor wir 0 erhalten. Zuerst erhalten wir diejenigen
.r/
.r/
Basisvektoren v1 ; : : : ; vnr , auf die wir ˚ insgesamt maximal .r1/-mal anwenden
können, was die rnr Basisvektoren
.r/
.r/
.r/
v1 ; ˚.v1 /; : : : ; ˚ .r1/ .v1 /
::
:
.r/
;
˚.v
/;
:
:
: ; ˚ .r1/ .vn.r/
/
vn.r/
n
r
r
r
liefert. Als Nächstes kommen diejenigen .r 1/nr1 Basisvektoren
.r1/
v1
.r1/
; ˚.v1
.r1/
/; : : : ; ˚ .r2/ .v1
/
6.7 Die Jordan-Normalform
273
::
:
.r1/
.r1/
.r1/
vnr1 ; ˚.vnr1 /; : : : ; ˚ .r2/ .v1
/;
welche eine Anwendung von ˚ von insgesamt r 2-mal erlauben. Dies geht nun
weiter bis
.2/
.2/
v1 ; ˚.v1 /
::
:
; ˚.vn.2/
/
vn.2/
2
2
und schließlich zu den Basisvektoren des Kerns von ˚
.1/
:
v1 ; : : : ; vn.1/
1
Hier folgt aus ˚.W` / W`1 V`1 , dass `-fache Anwendung von ˚ auf Ba.`/
sisvektoren von Typ v˛ immer null ergibt. Insbesondere können wir anhand all
dieser Basisvektoren die Matrix der Abbildung ˚ bezüglich dieser so angeordneten
Basis leicht ablesen und erhalten daraus gerade (6.217). Es bleibt also zu zeigen,
dass die Zahlen nr ; nr1 ; : : : ; n1 von den obigen Wahlen unabhängig sind. Zunächst
ist klar, dass
dim V` D dim ker ˚ `
nur von ˚, aber nicht von den Wahlen der W` abhängt. Mit dim W1 D dim V1 und
der rekursiven Gleichung
dim V` D dim W1 C C dim Wr
folgt weiter, dass die Dimensionen der W` nur von ˚ abhängen. Nach Konstruktion
der Basis gilt nun
nr D dim Wr
nr1 D dim Wr1 nr
::
:
n` D dim W` nr nr1 n`C1
::
:
n1 D dim W1 nr n2 :
Damit sind die Zahlen n1 ; : : : ; nr tatsächlich Eigenschaften von ˚, unabhängig von
t
u
den gewählten Komplementen Wr ; : : : ; W1 .
Korollar 6.110. Sei A 2 Mn .k/ nilpotent und
ˇ
˚
r D min ` 2 N ˇ A` D 0 :
Dann gilt r n.
(6.224)
274
6 Determinanten und Eigenwerte
Korollar 6.111. Sei A 2 Mn .k/ nilpotent. Dann gibt es eindeutig bestimmte
Zahlen r 2 N und n1 ; : : : ; nr 2 N0 mit nr 1 sowie eine invertierbare Matrix
Q 2 GLn .k/ mit
⎞
⎛
Jr
al
-m
nr
Jr
al
-m
1
Jr–1
n r–
QAQ−1 =
Jr–1
J1
al
-m
n1
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
J1
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟,
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎠
(6.225)
wobei die s-te Jordan-Matrix Js gerade ns -mal auftritt.
Bemerkung 6.112. Wir können Satz 6.109 auch als Klassifikationsresultat bezüglich der Ähnlichkeit von nilpotenten Matrizen verstehen. Sind A; B 2 Mn .k/
nilpotent, so sind A und B genau dann ähnlich, wenn die Zahlen r; n1 ; : : : ; nr gemäß
Satz 6.109 für A und B übereinstimmen. In diesem Fall sind sie nämlich beide zu
einer Matrix der Form (6.217) ähnlich.
Bemerkung 6.113. Auch wenn der Beweis von Satz 6.109 recht unübersichtlich
scheint, so liefert er doch einen konkreten Algorithmus, wie die Normalform
berechnet werden kann: Zunächst müssen die Kerne der Potenzen ˚ ` bestimmt
werden. Dies gelingt durch wiederholte Anwendung des Gauß-Algorithmus auf die
linearen Gleichungen der Form ˚ ` v D 0. Anschließend müssen die Komplemente
W` gewählt werden. Dazu muss das Bild ˚.W` / in V`1 bestimmt werden, was wieder auf das Lösen linearer Gleichungen hinausläuft. Das Finden des Komplements
von V`2 ˚ ˚.W` / ist ebenfalls ein lineares Problem. Insgesamt müssen wir also
nur lineare Gleichungen lösen und nicht etwa Nullstellen komplizierterer Polynome
finden, wie dies beim allgemeinen Spektralsatz 6.103 nötig ist.
Beispiel 6.114. Wir betrachten
1
012
A D @0 0 3A 2 Mr .k/:
000
0
(6.226)
6.7 Die Jordan-Normalform
275
Als echt obere Dreiecksmatrix ist A nilpotent. Explizit erhalten wir
1
003
A2 D @0 0 0A und
000
0
A3 D 0:
(6.227)
Offenbar gilt
V1 D ker A D spanfe1 g V2 D ker A2 D spanfe1 ; e2 g:
(6.228)
und V3 D R3 . Wir können daher W3 D spanfe3 g als Komplement zu V2 wählen.
.3/
Als Basisvektoren im eindimensionalen W3 wählen wir v1 D e3 . Dann gilt
.3/
Av1
0 1
2
D @3A und
0
.3/
A2 v1
0 1
3
D @0 A:
(6.229)
0
Diese Vektoren bilden bereits eine Basis von R3 , wir sind also an dieser Stelle schon
fertig. Zur Kontrolle betrachten wir A.W3 / V2 . Wir müssen W2 so wählen, dass
.3/
wir ein Komplement zu A.W3 / ˚ V1 in V2 erhalten. Es gilt aber, dass Av1 und
e1 linear unabhängig sind und V2 bereits aufspannen. Daher ist W2 D A.W3 / die
einzige Wahl gemäß der Konstruktion im Beweis von Satz 6.109. Es kommen also
.2/
keine neuen Basisvektoren vom Typ vi hinzu: Wir haben n2 D 0. Schließlich gilt
2
A.W2 / D A .W3 / D spanfe1 g und damit A.W2 / D ker ˚ D V1 . Daher ist auch hier
kein Komplement mehr möglich, und wir haben W1 D A.W2 / D V1 . Es gibt keine
.1/
Basisvektoren vom Typ vi und damit ist n1 D 0. Bezüglich der Basis (6.229) hat
A also die Form
1
010
D @0 0 1 A D J 3 :
000
0
QAQ1
(6.230)
Wir können nun den Normalformensatz für nilpotente Endomorphismen mit
den Resultaten des Spektralsatzes kombinieren: Dies liefert dann eine angepasste
Basis von Eigenvektoren des halbeinfachen Teils, sodass der nilpotente Anteil
Normalform annimmt:
Satz 6.115 (Jordan-Normalform). Sei V ein n-dimensionaler Vektorraum über
k, und sei ˚ 2 End.V / ein Endomorphismus mit in Linearfaktoren zerfallendem
charakteristischem Polynom ˚ . Dann gibt es eine Basis B von Eigenvektoren von
˚S , sodass B Œ˚ B die Blockform
276
6 Determinanten und Eigenwerte
1
B[
+ N1
2
]B =
+ N2
(6.231)
k
+ Nk
hat, wobei für jedes i D 1; : : : ; k
⎛
⎞
al
-m
ri
n i,
Jri
al
-m
Jri –1
–1
ri
n i,
Jri –1
J1
al
-m
n i,1
⎜ J
⎜ ri
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
Ni = ⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
⎟
J1 ⎠
(6.232)
mit ni;s -vielen Jordan-Matrizen Js für alle s D 1; : : : ; ri . Die Eigenwerte
1 ; : : : ; k 2 k, die Dimensionen dim VQ1 ; : : : ; dim VQk 2 N der verallgemeinerten
Eigenräume, sowie die Parameter ri ; ni;ri ; : : : ; ni;1 2 N0 mit ni;ri 1 für
i D 1; : : : ; k sind Invariante von ˚.
Beweis. Auch wenn die erforderliche Buchhaltung und die Notation erschreckend
sind, ist der Beweis nun ganz einfach. Da Œ˚S ; ˚N D 0, folgt
6.8 Übungen
277
˚N W VQi ! VQi
ˇ
und ˚N ˇVQ ist nach wie vor nilpotent. In VQi finden wir daher eine Basis Bi
i
bestehend aus
dim VQi D ri ni;ri C .ri 1/ ni;ri 1 C C 1 ni;1
vielen Basisvektoren, sodass
Bi
ˇ
Œ˚ N ˇVQ – i
Bi
D Ni ;
wieˇ angegeben. Dies ist gerade Satz 6.109. Die Zahlen ri ; ni;ri ; : : : ; ni;1 sind durch
˚N ˇVQ und damit durch ˚ bestimmt. Da die verallgemeinerten Eigenräume VQi
i
den ganzen Vektorraum V als direkte Summe aufspannen, ist B D B1 [ [
Bk eine Basis mit der gewünschten Eigenschaft, siehe Proposition 4.59 sowie
Bemerkung 6.104.
t
u
Die (nicht eindeutige) Basis B, für die B Œ˚ B die obige Jordansche Normalform
annimmt, heißt dann auch Jordan-Basis für ˚.
Bemerkung 6.116. Zwei Matrizen A; B 2 Mn .k/ mit in Linearfaktoren zerfallenden charakteristischen Polynomen sind genau dann ähnlich, wenn sie das
gleiche Spektrum besitzen, die zugehörigen verallgemeinerten Eigenräume dieselben Dimensionen haben, und auch die zugehörigen Parameter ri , ni;ri ; : : : ; ni;1
übereinstimmen. In diesem Fall sind A und B zu einer Normalform (6.231) ähnlich.
Insbesondere ist dies immer anwendbar, falls der Körper k algebraisch abgeschlossen ist.
Kontrollfragen. Was ist eine Jordan-Matrix? Wie erhalten Sie die Normalform
eines nilpotenten Endomorphismus? Gilt der Satz zur Normalform von nilpotenten
Matrizen nur über algebraisch abgeschlossenen Körpern? Was hat der Satz von der
Jordanschen Normalform mit der Ähnlichkeit von Matrizen zu tun?
6.8
Übungen
Übung 6.1 (Signum von Permutationen). Bestimmen Sie für n D 2, 3 und 4
alle Permutationen in Sn sowie deren Signum. Zeigen Sie so, dass für alle k; `; m 2
f1; 2; 3g
k`m
mit dem -Symbol aus Übung 5.28.
12 3
D sign
k`m
(6.233)
278
6 Determinanten und Eigenwerte
Übung 6.2 (Determinante eines Produkts). Zeigen Sie (6.48) unter Verwendung
der Leibniz-Formel (6.45) durch beharrliches Nachrechnen.
Übung 6.3 (Keine Sarrus-Regel für n ¤ 3). Argumentieren Sie, wieso die
einfachen Formeln für die Determinante in n D 1 und n D 2 Dimensionen kein
gutes Analogon der Sarrus-Regel sind. Zeigen Sie weiter, dass es für n > 3 immer
Gegenbeispiele zu einer „Sarrus-Regel“ gibt.
Übung 6.4 (Die Determinante ist nicht linear). Zeigen Sie durch Angabe expliziter Gegenbeispiele, dass die Determinante detW Mn .k/ ! k für n ¤ 1 keine
lineare Abbildung und insbesondere auch nicht einmal additiv ist.
Übung 6.5 (2 2-Matrizen). Für n D 2 lassen sich viele Eigenschaften und
Kenngrößen einer 2 2-Matrix explizit bestimmen. Sei im Folgenden
AD
ab
cd
(6.234)
eine 2 2-Matrix A 2 M2 .k/ mit Einträgen a; b; c; d 2 k.
i.) Bestimmen Sie die Determinante und die Spur von A.
ii.) Sei nun det.A/ ¤ 0. Bestimmen Sie eine explizite Formel für A1 .
iii.) Zeigen Sie die Gleichung
A2 tr.A/A C det.A/1 D 0:
(6.235)
iv.) Betrachten Sie nun eine spurfreie 2 2-Matrix A, sodass also tr.A/ D 0 gilt.
Berechnen Sie dann alle Potenzen Ak . Benutzen Sie nun dieses Resultat, um
auch Ak für eine beliebige Matrix A 2 M2 .k/ zu bestimmen.
Hinweis: Verwenden Sie (6.235) und Übung 3.17.
v.) Berechnen Sie tr.Ak / und bestimmen Sie det.A/ als Funktion von tr.A/ und
tr.A2 /.
Übung 6.6 (Determinante einer Permutation). Sei V ein n-dimensionaler Vektorraum über k mit einer Basis .v1 ; : : : ; vn /. Sei weiter 2 Abb.n; n/. Betrachten
Sie dann die lineare Abbildung AW V ! V , die auf der Basis durch
Avi D v.i/
(6.236)
für alle i D 1; : : : ; n festgelegt ist. Bestimmen Sie det A.
Übung 6.7 (Explizite Determinanten). Es gibt nicht viele Determinanten, die
sich einfach und explizit berechnen lassen: Hier findet man eine kleine Sammlung.
6.8 Übungen
279
i.) Sei k ein Körper und a; b 2 k. Bestimmen Sie die Determinante der Matrix
0
a
Bb
B
B
A D Bb
B:
@ ::
b b :::
a b :::
b a
::
::
:
:
b b ::: b
1
b
bC
C
bC
C 2 Mn .k/:
:: C
:A
a
(6.237)
ii.) Seien an ; : : : ; a0 2 k vorgegeben. Sei weiter AnC1 2 MnC1 .k/ die Matrix
1
: : : a0
: : : a1 C
C
: : : a2 C
C:
: : :: C
: : A
0 : : : 0 1 an
0
AnC1
0
B1
B
B
D B0
B:
@ ::
0
0
1
::
:
:::
:::
0
::
:
(6.238)
Zeigen Sie, dass das charakteristische Polynom von AnC1 bis auf ein Vorzeichen durch das Polynom p.x/ D x nC1 C an x n C C a1 x C a0 gegeben
ist. Damit ist also jedes Polynom bis auf ein Vielfaches ein charakteristisches
Polynom einer geeigneten Matrix.
Hinweis: Induktion.
iii.) Sei k ein Körper und 1 2 Mn .k/ die n n-Einheitsmatrix. Bestimmen Sie die
Determinante der symplektischen Matrix
˝D
0 1
2 M2n .k/:
1 0
(6.239)
iv.) Betrachten Sie eine Blockmatrix A 2 M2n .k/ der Form
0 B
AD
C D
mit B; C; D 2 Mn .k/:
(6.240)
Bestimmen Sie die Determinante von A als Funktion der Determinanten
det.B/, det.C / und det.D/. Können Sie Ihr Ergebnis dahingehend verallgemeinern, dass die Matrizen B und C unterschiedlich große quadratische Matrizen
sind?
v.) Bestimmen Sie die Determinante der komplexen 7 7-Matrix
280
6 Determinanten und Eigenwerte
0
0
B
9i
B
B17 p10i
B
B
A D B 2 C 21i
B
B
27p
B
@ 10 C 2i
26i
p
9i 17 C 10i 2 21i
15
0
e17
17
e
0
250
0
15
250
9i
i
9
p
7
i
1 i
4 3i
21
19i
p
1
27 10 2i
26i
p
9i
7
4 C 3iC
C
i
i
21 C
C
C
9 1 C i
19i C:
C
0
2
3 C
C
2
0
i A
3
i
0
(6.241)
Hinweis: Ja, es gibt einen Trick.
vi.) Formulieren Sie die Überlegungen aus Teil v.) als allgemeines Resultat für
einen beliebigen Körper k. Welche Annahmen an die Charakteristik von k
müssen Sie stellen? Finden Sie entsprechende Beispiele, die zeigen, dass Ihre
Annahmen notwendig sind.
Übung 6.8 (Vandermonde-Determinante). Berechnen Sie die 33-VandermondeDeterminante mithilfe der Sarrus-Regel und verifizieren Sie Proposition 6.43 für
diesen Fall explizit.
Übung 6.9 (Lineare Unabhängigkeit der Exponentialfunktionen). Betrachten
Sie die Exponentialfunktionen f 2 C.Œa; b; R/, wobei f .x/ D ex mit 2 R.
Zeigen Sie, dass die Menge ff g2R linear unabhängig ist.
Übung 6.10 (Linear unabhängige Potenzen). Finden Sie ein Beispiel für einen
Vektorraum V und einen Endomorphismus A 2 End.V / derart, dass alle Potenzen
Ak linear unabhängig sind.
Hinweis: Übung 5.11 oder Übung 5.21 liefern gute Kandidaten.
Übung 6.11 (Komplementäre Matrix für kommutative Ringe). Führen Sie die
Details zu Bemerkung 6.76 aus, indem Sie für eine Matrix A 2 Mn .R/ mit
Einträgen in einem kommutativen Ring die Determinante beispielsweise durch
die Leibniz-Formel definieren und dann den Entwicklungssatz von Laplace direkt
nachrechnen.
Übung 6.12 (Nochmals Einheitswurzeln). Sei k ein algebraisch abgeschlossener
Körper.
i.) Betrachten Sie das Polynom p.x/ D x n 1 für n 2 N. Zeigen Sie, dass alle n
Nullstellen von p in k paarweise verschieden sind.
Hinweis: Nehmen Sie an, eine Nullstelle 2 k sei mindestens zweifach. Dann gibt es ein
Polynom q 2 kŒx mit p.x/ D .x /2 q.x/. Berechnen Sie die Ableitung p 0 , um einen
Widerspruch zu erzielen.
6.8 Übungen
281
ii.) Sei A 2 End.V / ein Endomorphismus eines k-Vektorraums V mit An D 1 für
ein n 2 N. Zeigen Sie, dass A diagonalisierbar ist.
Übung 6.13 (Erstellen von Übungen II). Es sollen Beispiele für invertierbare
Matrizen gefunden werden, die kleine ganze Zahlen als Einträge haben, deren
Inverses aber trotzdem nicht unmittelbar abgelesen werden kann. Zudem sollen
die Rechnungen alle von Hand durchführbar sein: Es sollen keine großen Nenner
auftreten.
i.) Betrachten Sie eine Matrix A 2 Mn .R/ von oberer Dreiecksform und mit
Zahlen d1 ; : : : ; dn 2 R auf der Diagonalen. Zeigen Sie, dass A genau dann
invertierbar ist, wenn D D d1 dn ¤ 0. Zeigen Sie weiter, dass die inverse
Matrix wieder eine obere Dreiecksmatrix ist.
ii.) Seien nun alle Einträge der oberen Dreiecksmatrix A zudem ganze Zahlen.
Zeigen Sie, dass die inverse Matrix A1 aus rationalen Einträgen besteht, wobei
als Nenner höchstens D auftritt.
Hinweis: Argumentieren Sie zuerst direkt mit dem Gauß-Algorithmus. Mit der Cramerschen
Regel können Sie anschließend eine alternative Beweisführung finden.
iii.) Sei nun zudem D D 1. Folgern Sie, A1 2 Mn .Z/.
iv.) Überlegen Sie sich, dass für eine untere Dreiecksmatrix die analogen Aussagen
gelten.
v.) Betrachten Sie nun eine obere und eine untere Dreiecksmatrix A und B mit den
obigen Eigenschaften. Was können Sie dann über ihr Produkt AB und dessen
Inverses im Hinblick auf die zu erstellende Übung sagen?
vi.) Konstruieren Sie nun explizite Beispiele von 33-Matrizen und 44-Matrizen.
Übung 6.14 (Diagonalisieren). Betrachten Sie folgende reelle Matrizen
1
2 1 1
A1 D @1 0 1A;
2 2 1
0
1
1 0 1
A2 D @ 1 1 0A;
4 2 2
0
1
2 4 3
A3 D @ 0 1 1A
0 0 4
0
(6.242)
sowie
0
3
B0
A4 D B
@2
0
3
2
4
2
4
0
3
0
1
1
1C
C;
0A
1
0
1 0
B1 1
A5 D B
@2 1
3 1
0
1
1
1
1
0
1C
C;
1A
3
0
3 1
B4 1
A6 D B
@0 0
0 0
7
7
3
2
1
14
15C
C:
4 A
3
(6.243)
i.) Bestimmen Sie die charakteristischen Polynome von A1 ; : : : ; A6 .
ii.) Welche der Matrizen ist über R diagonalisierbar? Bestimmen Sie gegebenenfalls eine Basis von Eigenvektoren und die Matrix des Basiswechsels.
282
6 Determinanten und Eigenwerte
Verifizieren Sie explizit, dass die Matrix durch Konjugation mit der Matrix des
Basiswechsels auf Diagonalgestalt gebracht wird.
iii.) Welche der Matrizen ist über C diagonalisierbar? Verfahren Sie hier analog.
Übung 6.15 (Matrixtransposition). Sei k ein Körper mit char.k/ ¤ 2. Betrachten Sie die Matrixtransposition
T
W Mn .k/ 3 A 7! AT 2 Mn .k/:
(6.244)
i.) Bestimmen Sie die Eigenwerte von T .
ii.) Zeigen Sie, dass T diagonalisierbar ist, und bestimmen Sie die Projektoren auf
die jeweiligen Eigenräume.
iii.) Was passiert für char.k/ D 2?
Übung 6.16 (Viele linear unabhängige Vektoren). Finden Sie 42 (oder 2001)
Vektoren im R3 , sodass je drei dieser Vektoren eine Basis bilden.
Hinweis: Vandermonde-Determinante!
Übung 6.17 (Interpolationspolynom). Seien die Punkte P1 D .1; 3/, P2 D
.2; 4/, P3 D .1; 2/, P4 D .0; 1/ und P5 D .2; 2/ im R2 vorgegeben.
i.) Finden Sie ein Polynom p 2 RŒx mit deg p 4 derart, dass
Pi D .i ; p.i //
(6.245)
für alle i D 1; : : : ; 5 gilt, wobei i die erste Komponente von Pi sei.
ii.) Wie viele Polynome mit Grad höchstens 4 gibt es, die (6.245) erfüllen?
iii.) Skizzieren Sie den Graphen des Polynoms p.
iv.) Finden Sie alle Polynome vom Grad höchstens 5, welche die Eigenschaft (6.245) besitzen.
Hinweis: Sei q ein solches Polynom. Wählen Sie einen x-Wert ungleich der obigen ersten
Komponenten, also beispielsweise 6 D 3. Welche Werte kann q.3/ dann annehmen?
v.) Wie viele Polynome vom Grad 17 gibt es, die (6.245) erfüllen? Was können Sie
über die Menge dieser Polynome sagen?
Übung 6.18 (Eigenschaften der Spur). Sei k ein Körper der Charakteristik null.
i.)
ii.)
iii.)
iv.)
Zeigen Sie, dass die Spur ein lineares Funktional tr 2 Mn .k/ ist.
Zeigen Sie tr.ŒA; B/ D 0 für alle A; B 2 Mn .k/.
Zeigen Sie tr.1/ D n.
Zeigen Sie, dass die Spur das einzige lineare Funktional auf Mn .k/ ist, welches
ii.) und iii.) erfüllt.
6.8 Übungen
283
Hinweis: Zeigen Sie zunächst, dass zu jedem ! 2 Mn .k/ eine eindeutige Matrix 2
Mn .k/ mit !.A/ D tr.A/ existiert. Welche Eigenschaften muss dann erfüllen, damit ii.)
und iii.) für ! gilt?
Übung 6.19 (Spur eines Endomorphismus). Sei V ein endlich-dimensionaler
Vektorraum über einem Körper k der Charakteristik null mit einer Basis B mit
Basisvektoren e1 ; : : : ; en 2 V und zugehöriger dualer Basis B mit entsprechenden
dualen Basisvektoren e1 ; : : : ; en 2 V . Die Spur von ˚ 2 End.V / ist dann als
tr.˚/ D
n
X
ei .˚ei /
(6.246)
iD1
definiert.
i.) Zeigen Sie, dass tr.˚/ D tr. B Œ˚ B / mit der Spur der darstellenden Matrix von
˚.
ii.) Zeigen Sie, dass die Spur unabhängig von der Wahl der Basis e1 ; : : : ; en ist.
iii.) Zeigen Sie, dass die Spur die einzige lineare Abbildung trW End.V / ! k mit
tr.Œ˚; / D 0 für alle ˚; 2 End.V / und tr.1/ D n ist.
Hinweis: Übung 6.18.
Übung 6.20 (Komplexe Zahlen als Matrizen II). Betrachten Sie erneut die komplexen Zahlen C als die 2 2-Matrizen C wie in Übung 5.24. Welchen Operationen
in C entsprechen der Determinante, der Spur und der Matrixtransposition?
Übung 6.21 (Eigenvektoren einer Drehmatrix). Sei ' 2 Œ0; 2
/ ein Winkel und
A 2 M2 .R/ die zugehörige Drehmatrix zur Drehung um '.
i.) Bestimmen Sie explizit die Matrix bezüglich der Standardbasis von R2 .
ii.) Berechnen Sie die komplexen Eigenwerte von A. Für welche ' sind diese reell?
iii.) Berechnen Sie die komplexen Eigenvektoren von A. Für welche ' können Sie
reelle Eigenvektoren finden?
Übung 6.22 (Pauli-Matrizen II). Betrachten Sie erneut die Pauli-Matrizen aus
Übung 5.28.
i.) Zeigen Sie, dass tr k D 0 für alle k D 1; 2; 3 gilt.
ii.) Sei sl2 .C/ M2 .C/ diejenige Teilmenge der Matrizen A mit tr.A/ D 0.
Zeigen Sie, dass sl2 .C/ ein Unterraum von M2 .C/ ist.
iii.) Zeigen Sie, dass die Pauli-Matrizen eine Basis von sl2 .C/ bilden.
iv.) Sei nE 2 R3 . Bestimmen Sie det.E
n E /, wobei nE E wie in Übung 5.28, ii.),
erklärt ist.
v.) Berechnen Sie die Potenzen .E
n E /k für alle k 2 N0 .
3
n E / explizit.
vi.) Sei nun n0 2 R und nE 2 R . Bestimmen Sie det.n0 1 C iE
284
6 Determinanten und Eigenwerte
vii.) Zeigen Sie, dass die Matrizen der Form n0 1 C iE
n E einen reellen Unterraum
H M2 .C/ bilden, der unter Matrixmultiplikation abgeschlossen ist, wobei
n 2 R4 die Komponenten n0 ; n1 ; n2 ; n4 habe. Folgern Sie, dass jede Matrix in
H n f0g invertierbar ist mit einem Inversen in H.
viii.) Ist H bezüglich der Addition und Multiplikation von Matrizen ein Körper?
Welche Eigenschaften eines Körpers gelten, welche nicht? Ein solcher Ring
wird auch als Schiefkörper bezeichnet. Den Schiefkörper H nennt man auch
die Hamiltonschen Quaternionen.
Übung 6.23 (Erstellen von Übungen III). Es sollen für eine Vorlesung (oder
Oberstufenklasse) Übungen zum Diagonalisieren von 33-Matrizen erstellt werden.
Die Vorgabe ist, dass die Nullstellen des charakteristischen Polynoms nicht zu
kompliziert sind, beispielsweise ganze Zahlen, und dass der Matrix aber trotzdem
nicht auf einfache Weise angesehen werden kann, welches die Eigenwerte und
Eigenvektoren sind. Insbesondere sollen also die Matrixeinträge möglichst alle
verschieden sein. Andererseits sollen die Einträge wieder kleine ganze Zahlen
sein, sodass alle Rechnungen von Hand durchgeführt werden können. Wie können
Sie dies einfach erreichen? Verallgemeinern Sie Ihre Überlegungen, um auch
kompliziertere, nichtdiagonale Jordan-Normalformen mit einzuschließen. Geben
Sie konkrete Beispiele.
Hinweis: Starten Sie mit einer einfachen Diagonalmatrix, dem Ergebnis, und verwenden Sie
Matrizen aus Übung 6.13.
Übung 6.24 (Komplexifizierung III). Betrachten Sie wieder einen reellen Vektorraum V und seine Komplexifizierung wie in den Übungen 4.31 und 5.42. Sei
A 2 End.V / mit dem zugehörigen Endomorphismus AC 2 End.VC /.
i.) Sei 2 C ein Eigenwert von AC . Zeigen Sie, dass dann auch ein Eigenwert
ist.
ii.) Zeigen Sie, dass die komplexe Konjugation einen antilinearen involutiven
Isomorphismus der Eigenräume zu den Eigenwerten und von AC liefert.
iii.) Zeigen Sie, dass für einen reellen Eigenwert 2 R von A die Zahl auch ein
Eigenwert von AC ist.
iv.) Zeigen Sie, dass die Komplexifizierung eines Eigenraums V von A zu einem
reellen Eigenwert 2 R gerade der Eigenraum von AC zum selben Eigenwert
ist.
Hinweis: Ist v 2 VC ein Eigenvektor von AC zum Eigenwert , was ist dann AC v? Bilden
Sie nun geeignete Linearkombinationen.
Übung 6.25 (Diagonalisieren von fast-komplexen Strukturen). Sei V ein reeller Vektorraum mit einer linearen fast-komplexen Struktur wie in Übung 5.43.
i.) Betrachten Sie den komplexifizierten Vektorraum VC und zeigen Sie, dass JC
diagonalisierbar ist. Geben Sie die Spektralzerlegung mit den Eigenwerten
6.8 Übungen
285
und Eigenprojektoren explizit an. Hier können Sie sogar einen unendlichdimensionalen reellen Vektorraum verwenden!
ii.) Zeigen Sie, dass die komplexe Konjugation auf VC eine Bijektion zwischen den beiden Eigenräumen von JC liefert. Folgern Sie, dass im endlichdimensionalen Fall beide Eigenräume die komplexe Dimension n besitzen,
sofern dimR V D 2n.
iii.) Zeigen Sie, dass es für dimR V D 2n < 1 eine Basis B V gibt, sodass die
Matrixdarstellung von J bezüglich B durch die Matrix ˝ aus (5.183) gegeben
ist.
iv.) Sei dimR V D 2n < 1. Zeigen Sie, dass es zu je zwei linearen fast-komplexen
Strukturen J und J 0 auf V einen invertierbaren Endomorphismus A 2 End.V /
gibt, welcher J D AJ 0 A1 erfüllt.
Übung 6.26 ( -Matrizen). Betrachten Sie die folgenden, in Blockform gegebenen komplexen 4 4-Matrizen
12 0
0 D
0 12
0 i
i D
;
i 0
und
(6.247)
wobei i D 1; 2; 3 und i die Pauli-Matrizen aus Übung 5.28 sind. Diese Matrizen
heißen auch -Matrizen. Sie spielen eine zentrale Rolle in der relativistischen
Quantenmechanik und Quantenfeldtheorie von Fermionen wie dem Elektron. Man
beachte, dass hier zum Teil andere Normierungen in der Literatur gebräuchlich sind.
i.) Berechnen Sie alle Produkte der -Matrizen. Zeigen Sie so, dass i j Cj i D
2ij 14 für i; j D 0; : : : ; 3 mit Zahlen ij 2 C, und bestimmen Sie diese
Zahlen.
Hinweis: Übung 5.25.
ii.) Zeigen Sie, dass die -Matrizen linear unabhängig sind.
iii.) Berechnen Sie die Determinanten det.i / für i D 0; : : : ; 3 der -Matrizen.
Übung 6.27 (Spur eines Projektors). Sei P D P 2 2 Mn .k/ ein Projektor in den
n n-Matrizen über einem Körper k. Zeigen Sie tr.P / D rank.P /.
Übung 6.28 (Nilpotente Endomorphismen). Sei V ein endlich-dimensionaler Vektorraum über k und A 2 End.V / nilpotent. Da der Beweis der Jordanschen
Normalform für A ja durchaus recht aufwendig ist, interessiert man sich für leichtere
Normalformen, die einfacher zu erreichen sind. Für viele Zwecke ist die folgende
Form völlig ausreichend.
i.) Zeigen Sie, dass es eine Basis B V gibt, sodass die Matrix von A bezüglich
dieser Basis eine echte obere Dreiecksmatrix ist.
Hinweis: Zeigen Sie zunächst ker.A/ ker.A2 / . Wählen Sie nun eine Basis von
ker.A/, und ergänzen Sie diese sukzessive zu einer Basis von V .
286
6 Determinanten und Eigenwerte
ii.) Zeigen Sie umgekehrt, dass ein Endomorphismus mit einer echten oberen
Dreiecksmatrix als darstellender Matrix bezüglich einer Basis immer nilpotent
ist.
iii.) Zeigen Sie tr.Ak / D 0 für alle k 2 N.
Übung 6.29 (Matrixpotenzen). Betrachten Sie die komplexen Matrizen
0
10 0
B0 1 0
DDB
@0 0 3i
00 0
1
0
0C
C;
0A
3i
0
03
B0 0
N DB
@0 0
00
0
0
0
2
1
0
0C
C und
0A
0
0
1
B0
ADB
@0
0
3
1
0
0
0
0
3i
2
1
0
0C
C:
0A
3i
(6.248)
i.) Zeigen Sie, dass D, N und A paarweise kommutieren.
ii.) Bestimmen Sie A2001 und A42 . Wieso ist A invertierbar?
Übung 6.30 (Polynomialer Kalkül). Sei V ein nicht notwendigerweise endlichdimensionaler Vektorraum über k. Zeigen Sie dann die Eigenschaften (6.168)
und (6.169) der Auswertung von Polynomen auf Endomorphismen in End.V /.
Übung 6.31 (Jordan-Zerlegung). Finden Sie von den Matrizen
0
23
B0 1
A1 D B
@0 0
00
4
7
4
0
1
2
1C
C;
8A
1
1
120
A2 D @0 1 0A und
003
0
0
1
B0
A3 D B
@0
0
0
4
3
3
1
00
0 0C
C
4 0A
24
(6.249)
die Jordan-Zerlegung. Weisen Sie alle erforderlichen Eigenschaften explizit nach.
Übung 6.32 (Jordansche Normalform). Betrachten Sie erneut die Matrix A aus
Übung 6.29.
i.) Bestimmen Sie das charakteristische Polynom und die Eigenwerte von A.
ii.) Bestimmen Sie die verallgemeinerten Eigenräume von A. Ist A diagonalisierbar?
iii.) Bestimmen Sie das Minimalpolynom von A.
iv.) Finden Sie die Jordan-Zerlegung von A.
v.) Bestimmen Sie die Jordansche Normalform von A, indem Sie den Basiswechsel explizit angeben.
Übung 6.33 (Jordansche Normalform der Ableitung). Sei n 2 N und k ein
d
Körper der Charakteristik null. Betrachten Sie die Ableitung dx
W kŒx ! kŒx aus
Beispiel 5.10.
6.8 Übungen
287
d
i.) Sei Un der Unterraum der Polynome vom Grad n. Zeigen Sie, dass dx
sich
zu einem Endomorphismus Dn 2 End.Un / einschränkt.
ii.) Zeigen Sie, dass Dn nilpotent ist. Bestimmen Sie das Minimalpolynom von
Dn .
iii.) Bestimmen Sie die Jordansche Normalform von Dn , indem Sie eine explizite
Jordan-Basis konstruieren.
Übung 6.34 (Jordansche Normalform in kleinen Dimensionen). Sei k algebraisch abgeschlossen und A; B 2 Mn .k/.
i.) Sei n D 2. Zeigen Sie, dass A genau dann ähnlich zu B ist, wenn A D B
und mA D mB .
ii.) Sei n D 3. Zeigen Sie, dass auch in diesem Fall A genau dann ähnlich zu B ist,
wenn A D B und mA D mB .
Hinweis: Bestimmen Sie hierzu alle möglichen Jordanschen Normalformen.
iii.) Sei n 4. Finden Sie zwei nicht ähnliche Matrizen A und B, welche das
gleiche charakteristische Polynom und das gleiche Minimalpolynom besitzen.
Übung 6.35 (Kommutierende Matrizen). Seien A; B 2 Mn .k/ gegeben.
i.) Sei 2 k ein Eigenvektor von A. Zeigen Sie, dass B den Eigenraum V von A
nach V abbildet, wenn ŒA; B D 0. Zeigen Sie, dass für ŒA; B D 0 die Matrix
B auch den verallgemeinerten Eigenraum VQ von A nach VQ abbildet.
ii.) Nehmen Sie nun an, dass A in Linearfaktoren zerfällt. Zeigen Sie, dass
ŒB; A D 0 genau dann gilt, wenn B mit allen Spektralprojektoren Pi von
A und mit AN vertauscht.
iii.) Sei nun A diagonalisierbar mit eindimensionalen Eigenräumen. Zeigen Sie,
dass in diesem Fall ŒA; B D 0 genau dann gilt, wenn B D p.A/ für ein
Polynom p 2 kŒx.
Übung 6.36 (Jordansche Normalform und Transposition).
derart, dass A 2 kŒx in Linearfaktoren zerfällt.
Sei A 2 Mn .k/
i.) Zeigen Sie, dass es für n 2 kein Q 2 GLn .k/ gibt, sodass B T D QBQ1 für
alle B 2 Mn .k/.
ii.) Zeigen Sie, dass AT D A und mAT D mA .
iii.) Zeigen Sie, dass die Jordan-Zerlegung von AT durch AT D .AS /T C .AN /T
gegeben ist, wobei AS und AN der halbeinfache und der nilpotente Teil von A
sind.
iv.) Zeigen Sie, dass A genau dann diagonalisierbar ist, wenn AT diagonalisierbar
ist.
v.) Zeigen Sie, dass A zu AT ähnlich ist. Wieso ist dies ein nichttriviales Resultat?
288
6 Determinanten und Eigenwerte
Hinweis: Sie müssen zeigen, dass A und AT die gleiche Jordansche Normalform haben.
Lösen Sie das Problem zunächst für eine Jordan-Matrix JnT D Qn Jn Qn1 explizit. Wie
können Sie dann die einzelnen Qn zusammenfügen?
Übung 6.37 (Eigenvektoren in unendlichen Dimensionen). Betrachten Sie
einen Körper k der Charakteristik char.k/ D 0 und den Vektorraum kŒŒx der
formalen Potenzreihen über k.
i.) Zeigen Sie, dass die Ableitung aus Übung 5.3 eine wohldefinierte lineare
d
Abbildung dx
W kŒŒx ! kŒŒx liefert.
ii.) Zeigen Sie für formale Potenzreihen f; g 2 kŒŒx die Leibniz-Regel
d
df
dg
.fg/ D
gCf
:
dx
dx
dx
iii.) Bestimmen Sie alle Eigenwerte und zugehörige Eigenvektoren von
Hinweis: Sei 2 k. Lösen Sie die Eigenwertgleichung
df
dx
(6.250)
d
.
dx
D f Ordnung für Ordnung.
iv.) Zeigen Sie, dass für einen Eigenvektor f zum Eigenwert und einen Eigenvektor g zum Eigenwert , das Produkt fg ein Eigenvektor zum Eigenwert
C ist.
d
v.) Zeigen Sie, dass es
ˇ zu jedem Eigenwert von dx genau einen Eigenvektor
ˇ
e 2 kŒŒx mit e xD0 D 1 gibt.
d
nicht ganz kŒŒx
vi.) Zeigen Sie, dass der lineare Spann aller Eigenvektoren von dx
ist.
Hinweis: Widerspruchsbeweis. Stellen Sie x als Linearkombination von Eigenvektoren
d
e1 ; : : : ; en zu Eigenwerten 1 ; : : : ; n dar. Wenden Sie nun oft genug dx
an, um ein lineares
Gleichungssystem zu erhalten, dessen Lösung Sie kennen.
vii.) Bestimmen Sie anschließend die Eigenwerte und Eigenvektoren von
dem Unterraum der Polynome kŒx.
d
dx
auf
Übung 6.38 (Spektralsatz in unendlichen Dimensionen). Sei V ein Vektorraum
über k von beliebiger Dimension. Sei weiter A 2 End.V /. Nehmen Sie an, dass A
eine Gleichung der Form
mA .A/ D 0 mit
mA .x/ D .x 1 / .x k /
(6.251)
erfüllt, wobei 1 ; : : : ; k 2 k paarweise verschieden seien.
i.) Geben Sie verschiedene Beispiele für derartige Endomorphismen, die bereits
in anderen Übungen aufgetreten sind.
ii.) Definieren Sie die Polynome pi 2 kŒx für i D 1; : : : ; k durch
pi .x/ D
.x 1 / .x i1 /.x iC1 / .x k /
;
.i 1 / .i i1 /.i iC1 / .i k /
(6.252)
6.8 Übungen
289
und setzen Sie Pi D pi .A/. Zeigen Sie, dass
Pi Pj D ıij Pi
(6.253)
für i; j D 1; : : : ; k sowie
AD
k
X
iD1
i P i
und
1D
k
X
Pi :
(6.254)
iD1
In diesem Sinne gilt also der Spektralsatz für A, und A ist diagonalisierbar.
iii.) Diskutieren Sie nun die Ergebnisse des Spektralsatzes in endlichen Dimensionen in diesem Licht. Was ist also die wirklich schwierige und nichttriviale
Aussage?
Übung 6.39 (Spektrum und polynomialer Kalkül). Sei A 2 End.V / mit
einem nicht notwendigerweise endlich-dimensionalen komplexen Vektorraum V .
Sei weiter p 2 CŒx ein komplexes Polynom.
i.) Zeigen Sie, dass jeder Eigenvektor v 2 V von A ein Eigenvektor von p.A/ ist
und bestimmen Sie den zugehörigen Eigenwert.
ii.) Sei 2 C derart, dass A nicht invertierbar ist. In endlichen Dimensionen
bedeutet dies gerade, dass ein Eigenwert ist. Wir wollen hier aber beliebige
Dimensionen zulassen. Zeigen Sie, dass dann auch p.A/ p./ nicht invertierbar ist.
Hinweis: Faktorisieren Sie das Polynom p.x/ p./ auf geeignete Weise.
iii.) Sei nun 2 C derart, dass p.A/ nicht invertierbar ist. Zeigen Sie, dass es
dann ein 2 C mit p./ D gibt, sodass A nicht invertierbar ist.
Hinweis: Verwenden Sie den Fundamentalsatz der Algebra für das Polynom p.x/ , und
setzen Sie dann A ein.
iv.) Finden Sie ein einfaches Gegenbeispiel, dass für algebraisch nicht abgeschlossene Körper die Schlussfolgerung aus iii.) nicht notwendigerweise gilt.
v.) Seien spec.A/ C diejenigen Zahlen , für welche A nicht invertierbar
ist. Dies verallgemeinert unseren bisherigen Begriff von Spektrum auch für
unendliche Dimensionen. Folgern Sie
spec.p.A// D p.spec.A//:
(6.255)
Dieser Sachverhalt ist die polynomiale (und damit einfachste) Version des
Spectral Mapping Theorem, welches viele weitere Formulierungen besitzt.
Übung 6.40 (Alternativer Beweis von Korollar 6.110). Finden Sie einen alternativen Beweis von Korollar 6.110, der ohne die Verwendung von Satz 6.109
auskommt.
290
6 Determinanten und Eigenwerte
Übung 6.41 (Lineare Rekursionen). Seien c1 ; : : : ; ck 2 k gegeben. Man interessiert sich nun für Folgen .an /n2N 2 kN derart, dass die lineare Rekursionsgleichung
an D c1 an1 C c2 an2 C C ck ank
(6.256)
für alle n > k gilt, wobei a1 , a2 , . . . ak frei vorgegeben werden.
i.) Zeigen Sie, dass die Menge aller Folgen, die (6.256) erfüllen, ein kdimensionaler Unterraum von kN ist, sofern c1 ¤ 0 ist. Dies wollen wir
im Folgenden immer annehmen.
ii.) Zeigen Sie, dass es eine Matrix C 2 Mk .k/ gibt, sodass die Bedingung (6.256)
zu
0
B
B
B
@
1
0
1
an1
Ban2 C
C
B
C
C
C D CB : C
@ :: A
A
an
an1
::
:
ankC1
(6.257)
ank
äquivalent ist, jeweils für alle n > k. Bestimmen Sie die Matrix C explizit.
iii.) Lösen Sie die Rekursion explizit: Bestimmen Sie an für alle n > k bei beliebig
vorgegebenen Startwerten a1 ; : : : ; ak 2 k, indem Sie die Potenzen von C
verwenden.
iv.) Wie vereinfacht sich Teil iii.), wenn C zudem diagonalisierbar ist?
v.) Betrachten Sie k D R sowie die rekursiv definierte Fibonacci-Folge
an D an1 C an2
mit a1 D a2 D 1:
(6.258)
Bestimmen Sie an für alle n explizit.
vi.) Betrachten Sie die Bandmatrix An 2 Mn .R/
0
1
Bb
B
B
B0
An D B
B ::
B:
B
@0
0
1
0
0C
C
C
0C
:: C
C
:C
C
: : : : : : 0 b 1 aA
::: ::: 0 0 b 1
a 0 0 ::: :::
1 a 0 ::: :::
b 1 a ::: :::
(6.259)
für n 3 und a; b 2 R. Bestimmen Sie det An , indem Sie eine geeignete
lineare Rekursionsgleichung aufstellen.
Übung 6.42 (Inäquivalente Jordan-Normalformen). Sei k ein Körper. Bestimmen Sie alle inäquivalenten Jordanschen Normalformen von nilpotenten Matrizen
N 2 Mn .k/ für n D 2; 3; 4; 5; 6. Berechnen Sie explizit alle nichttrivialen Potenzen
6.8 Übungen
291
dieser Normalformen sowie deren Bild, Kern und Rang, und bestimmen Sie das
charakteristische Polynom sowie das Minimalpolynom.
Übung 6.43 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen. Finden Sie gegebenenfalls zusätzliche Bedingungen, unter denen
falsche Aussagen richtig werden.
i.) Die Determinante einer Matrix mit ganzzahligen Einträgen ist ganzzahlig.
ii.) Die inverse Matrix einer invertierbaren Matrix mit ganzzahligen Einträgen
hat ebenfalls ganzzahlige Einträge.
B
iii.) Für beliebige quadratische Blockmatrizen X D CA D
mit gleich großen
Blöcken gilt det.X / D det.A/ det.D/ det.B/ det.C /.
iv.) Es gibt einen reellen Vektorraum V , sodass der Dualraum V eine abzählbar
unendliche Basis hat.
v.) Äquivalente Matrizen sind insbesondere auch ähnlich.
vi.) Ähnliche Matrizen sind insbesondere auch äquivalent.
vii.) Äquivalente (ähnliche) Matrizen haben die gleiche Determinante und die
gleiche Spur.
viii.) Eine 2 2-Matrix A 2 M2 .C/ mit rationalen Einträgen und Determinante 5
ist diagonalisierbar.
ix.) Eine 3 3-Matrix A 2 M3 .C/ mit rationalen Einträgen und Determinante 5
ist diagonalisierbar.
x.) Eine reelle Matrix A mit det.A3 / D 1 hat Determinante det.A/ D 1.
xi.) Eine n n-Matrix mit n paarweise verschiedenen Eigenwerten ist invertierbar.
xii.) Die Determinante einer Matrix ist das Produkt ihrer Eigenwerte (mit Multiplizität).
xiii.) Die Spur einer Matrix ist die Summe ihrer Eigenwerte (mit Multiplizität).
xiv.) Seien A; B 2 M4 .k/ mit
0
0
B0
ADB
@0
0
xv.)
xvi.)
xvii.)
xviii.)
1
0
0
0
0
0
0
0
1
0
0C
C und
1A
0
0
0
B0
BDB
@0
0
1
0
0
0
0
1
0
0
1
0
0C
C
0A
0
(6.260)
gegeben. Dann existiert eine Matrix Q 2 GL4 .k/ mit A D QBQ1 .
Es gibt zwei Matrizen P; Q 2 Mn .C/ mit ŒP; Q D 1.
Sei A 2 Mn .k/ eine obere Dreiecksmatrix. Dann ist die Matrix N D A diag.a11 ; : : : ; ann / nilpotent, wobei ai i die Diagonaleinträge von A sind.
Sei A 2 Mn .C/ eine obere Dreiecksmatrix. Dann ist der halbeinfache Teil
AS von A die Diagonalmatrix der Diagonaleinträge von A und der nilpotente
Anteil AN von A ist entsprechend der Rest AN D A AS .
Es gibt eine Matrix A 2 Mn .k/ mit An ¤ 0, aber AnC1 D 0.
292
6 Determinanten und Eigenwerte
xix.) Eine lineare Abbildung AW V ! V auf einem unendlich-dimensionalen
Vektorraum hat höchstens abzählbar viele verschiedene Eigenwerte.
xx.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/ D .x 1 /m1 .x k /mk
ist mi die Dimension des i -ten verallgemeinerten Eigenraums VQi .
m1
mk
xxi.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/
ˇ D .x 1 / .x k /
mi ˇ
ist mi die kleinste Zahl, sodass .A i 1/ VQ D 0 gilt.
i
xxii.) Für A 2 Mn .k/ mit Minimalpolynom mA .x/ D .x 1 /m1 .x k /mk
ist mi die Größe der größten Jordan-Matrix in der Jordanschen Normalform
von A i 1, eingeschränkt auf VQi .
xxiii.) Eine Matrix A 2 Mn .k/ ist genau dann nilpotent, wenn AT nilpotent ist.
xxiv.) Sei A; B 2 Mn .k/ und A habe ein in Linearfaktoren zerfallendes charakteristisches Polynom. Dann gilt ŒB; A D 0 genau dann, wenn B mit allen
Spektralprojektoren von A vertauscht.
xxv.) Ist 2 k ein Eigenwert von A 2 Mn .k/, so ist 2 ein Eigenwert von A2 mit
gleicher (kleinerer, größerer) geometrischer Vielfachheit.
7
Euklidische und unitäre Vektorräume
Bislang hatten wir Vektorräume und lineare Abbildungen zwischen ihnen ohne jede
weitere Struktur studiert. In diesem Kapitel wollen wir nun eine erste zusätzliche
Struktur hinzunehmen, die es erlaubt, geometrischen Fragestellungen nachzugehen.
Wie schon in Abschn. 1.3 skizziert, benötigt man zur Definition von Längen und
Winkeln eine zusätzliche Information. Die noch reqcht heuristischen Überlegungen
aus Abschn. 1.3 wollen wir daher nun systematischer formulieren, was uns auf das
Studium von Skalarprodukten führen wird. Da wir bei Skalarprodukten gewisse
Positivitätseigenschaften fordern werden (Längen sind positiv), werden wir uns
in diesem Kapitel hauptsächlich auf Vektorräume über R oder C konzentrieren.
Zudem werden in diesem Kapitel die Vektorräume meist endlich-dimensional sein:
Zwar sind die entscheidenden Definitionen unabhängig von der Dimension möglich,
in unendlichen Dimensionen werden die wichtigen Sätze jedoch ohne den massiven
Einsatz von (funktional-) analytischen Techniken nicht zu erreichen sein. Diese
für uns momentan unzugänglichen Situationen sind trotzdem für die Mathematik
von größter Wichtigkeit. Ihr Studium erfolgt dann in der Funktionalanalysis der
Hilbert-Räume und findet ihre fundamentale Anwendung und Inspiration in der
Quantenmechanik.
7.1
Innere Produkte
In diesem Abschnitt darf k noch ein beliebiger Körper sein. In Anlehnung an die
Eigenschaften des kanonischen Skalarprodukts von R3 definieren wir ein inneres
Produkt nun folgendermaßen:
Definition 7.1 (Inneres Produkt). Sei V ein Vektorraum über k. Ein inneres
Produkt auf V ist eine Abbildung
h ; iW V V ! k
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6_7
(7.1)
293
294
7 Euklidische und unitäre Vektorräume
mit folgenden Eigenschaften:
i.) Die Abbildung h ; i ist linear im zweiten Argument, es gilt also
hv; w C ui D hv; wi C hv; ui
(7.2)
für alle ; 2 k und v; w; u 2 V .
ii.) Die Abbildung h ; i ist symmetrisch, es gilt also für alle v; w 2 V
hv; wi D hw; vi:
(7.3)
iii.) Die Abbildung h ; i ist nicht-ausgeartet, es gilt also für alle v 2 V
hv; wi D 0 für alle w 2 V H) v D 0:
(7.4)
Bemerkung 7.2 (Inneres Produkt). Sei V ein Vektorraum über k.
i.) Ein inneres Produkt h ; i ist linear im ersten Argument. Dies folgt sofort
aus (7.2) und (7.3). Damit sind innere Produkte also erste Beispiele für (symmetrische) Bilinearformen, also spezielle bilineare Abbildungen V V ! k.
Wir bezeichnen die Bilinearformen auf V gelegentlich mit Bil.V /.
ii.) Eine symmetrische Bilinearform ist genau dann ein inneres Produkt, wenn sie
nicht-ausgeartet ist.
iii.) Ist h ; i eine Bilinearform auf V , so definiert für jedes v 2 V
v [ D hv; iW V 3 w 7! hv; wi 2 k
(7.5)
eine lineare Abbildung v [ 2 V : Dies ist gerade die Linearität von h ; i
im zweiten Argument. Die Linearität im ersten Argument zeigt nun, dass die
Abbildung
[
W V 3 v 7! v [ 2 V (7.6)
selbst eine lineare Abbildung ist. Wenn h ; i nicht symmetrisch ist, besteht
natürlich eine Willkür bei der Definition von v [ : Alternativ hätten wir ja auch
h ; vi verwenden können. Wir werden jedoch hauptsächlich symmetrische
Bilinearformen betrachten, sodass diese Wahl keine Rolle spielt. Man nennt
die Abbildung [ W V ! V auch den musikalischen Homomorphismus, der zur
Bilinearform h ; i gehört. Die Bezeichnung wird in Band2 klarer werden.
iv.) Die Bilinearform h ; i ist genau dann nicht-ausgeartet (im ersten Argument,
falls h ; i nicht symmetrisch ist), wenn der zugehörige musikalische Homomorphismus (7.6) injektiv ist. In der Tat, ist nämlich h ; i nicht-ausgeartet, so
gibt es zu jedem v 2 V n f0g ein w 2 V mit 0 ¤ hv; wi D v [ .w/. Daher ist v [
selbst von null verschieden und ker.[ / D f0g ist trivial. Ist umgekehrt der Kern
7.1 Innere Produkte
295
von [ trivial, also v [ D 0 nur für v D 0, so gibt es zu jedem v ¤ 0 ein w mit
0 ¤ v [ .w/ D hv; wi. Dies bedeutet gerade, dass h ; i nicht-ausgeartet ist.
Proposition 7.3. Sei V ein Vektorraum über k.
i.) Ist B V eine Basis von V und h ; i eine Bilinearform auf V , so gilt
hv; wi D
X
vb hb; b 0 iwb 0
(7.7)
b;b 0 2B
für alle v; w 2 V , wobei vb und wb 0 wie immer die Entwicklungskoeffizienten
bezüglich der Basis B darstellen. Insbesondere ist h ; i durch die Matrix
Œh ; iB;B D hb; b 0 i b;b 0 2B 2 kBB
(7.8)
eindeutig bestimmt.
ii.) Ist B V eine Basis und ist M D .Mbb 0 /b;b 0 2B 2 kBB eine beliebige Matrix,
so gibt es genau eine Bilinearform h ; i auf V mit hb; b 0 i D Mbb 0 für alle
b; b 0 2 B.
iii.) Die Bilinearformen auf V bilden einen Unterraum von Abb.V V; k/. Ist
B V eine Basis, so ist
Bil.V / 3 h ; i 7! Œh ; iB;B 2 kBB
(7.9)
ein Isomorphismus.
iv.) Die symmetrischen Bilinearformen bilden einen Unterraum von Bil.V /. Eine Bilinearform ist genau dann symmetrisch, wenn ihre zugehörige Matrix
.hb; b 0 i/b;b 0 2B bezüglich einer (und damit bezüglich jeder) Basis symmetrisch
ist, also
T
hb; b 0 i b;b 0 2B D hb; b 0 i b;b 0 2B :
(7.10)
v.) Es gibt nicht-ausgeartete symmetrische Bilinearformen auf V .
P
P
0
Beweis. Sei B eine Basis von V und v D
b2B vb b sowie w D
b 0 2B wb 0 b
die Basisdarstellungen von v; w 2 V . Die Linearität von h ; i im ersten und im
zweiten Argument liefert dann (7.7). Damit legt die Matrix (7.8) die Bilinearform
also eindeutig fest. Man beachte, dass in der Summe in (7.7) nur endlich viele Terme
ungleich null sind, da nur endlich viele der Zahlen vb und wb 0 von null verschieden
sind. Die Einträge hb; b 0 i dagegen können beliebig sein: Ist nämlich M D
.Mbb 0 /b;b 0 2B eine beliebige Matrix in kBB , so definieren wir h ; iW V V ! k
durch
X
vb Mbb 0 wb 0 :
(7.11)
hv; wi D
b;b 0 2B
296
7 Euklidische und unitäre Vektorräume
Da B Œv; B Œw 2 k.B/ nur endlich viele Einträge ungleich null besitzen, ist (7.11)
tatsächlich wohldefiniert. Die Bilinearität von (7.11) folgt nun daraus, dass die
Koordinatenfunktionen v 7! vb und w 7! wb 0 linear sind. Die darstellende Matrix
von h ; i ist offenbar gerade M . Damit ist auch der zweite Teil gezeigt. Für den
dritten Teil bemerken wir, dass Bil.V / Abb.V V; k/ dank der punktweise
erklärten Vektorraumstruktur von Abb.V V; k/ ein Unterraum wird: Sind nämlich
h ; i und h ; i0 zwei Bilinearformen, so ist auch
h ; i C h ; i0 .v; w/ D hv; wi C hv; wi0
für alle ; 2 k wieder eine Bilinearform, was man leicht nachprüft. Die
Abbildung (7.9) ist linear, denn
h ; i C h ; i0 .b; b 0 / D hb; b 0 i C hb; b 0 i0
gilt für alle ; 2 k, womit
h ; i C h ; i0 .b; b 0 / b;b 0 2B D hb; b 0 i b;b 0 2B C hb; b 0 i0 b;b 0 2B :
Der erste und der zweite Teil liefern dann die Bijektivität von (7.9). Unter den
punktweisen Vektorraumoperationen von Abb.V V; k/ bleibt die Symmetrie
hv; wi D hw; vi offenbar erhalten. Weiter ist h ; i genau dann symmetrisch, wenn
hb; b 0 i D hb 0 ; bi für alle Vektoren b; b 0 2 B einer Basis von V gilt. Dies sieht man
anhand der Basisdarstellung (7.7) direkt, was den vierten Teil zeigt. Für den letzten
Teil wählen wir eine Basis B V und betrachten diejenige eindeutig bestimmte
Bilinearform h ; i mit hb; b 0 i D ıbb 0 für alle b; b 0 2 B. Da ıbb 0 D ıb 0 b gilt, ist
diese Bilinearform nach dem vierten Teil symmetrisch. Für v 2 V gilt dann
hv; b 00 i D
X
b;b 0 2B
vb ıbb 0 bb000 D
X
vb ıbb 0 ıb 00 b 0 D vb 00 ;
b;b 0 2B
da ja die Koordinaten eines Basisvektors durch Kronecker-ı gegeben sind. Daher
ist hv; i D 0 genau dann erfüllt, wenn für alle b 00 2 B die Koordinate vb 00
verschwindet. Dies ist aber äquivalent zu v D 0, womit h ; i tatsächlich nichtausgeartet ist.
t
u
Korollar 7.4. Auf jedem Vektorraum gibt es innere Produkte.
Korollar 7.5. Ist h ; iW V V ! k eine Bilinearform, und sind A; B V
Basen, so gilt
Œh ; iB;B D . A ŒidV B /T Œh ; iA;A A ŒidV B :
(7.12)
7.1 Innere Produkte
297
Beweis. Wir schreiben jeden Basisvektor b 2 B als Linearkombination der Basisvektoren aus A durch
X
bD
ba a:
a2A
Wie wir aus (5.70) wissen, gilt A ŒidV B D .ba /a2A . Damit gilt also
b2B
hb; b 0 i D
X
ba ha; a0 iba0 0 ;
a;a0 2A
was gerade (7.12) ist, wenn man für Q 2 k.A/B mit Q D .Qab /, wie bereits
T
geschehen, QT als .Qba
/ D .Qab / 2 kB.A/ definiert. Man beachte, dass beide
Summationen in (7.12) über die Vektoren aus A laufen und für festes b; b 0 2 B
jeweils nur endlich viele von null verschiedene Terme beinhalten.
t
u
Bemerkung 7.6. Ist V ein endlich-dimensionaler Vektorraum, und ist B D
.b1 ; : : : ; bn / eine geordnete Basis, so sind die Bilinearformen h ; i auf V via
Proposition 7.3, iii.), zum Vektorraum Mn .k/ isomorph. Man beachte jedoch das
Transformationsverhalten (7.12) unter einem Basiswechsel: Ist Q D A ŒidV B 2
GLn .k/ die Matrix des Basiswechsels, so gilt
Œh ; iB;B D QT Œh ; iA;A Q:
(7.13)
Das ist verschieden vom Transformationsverhalten einer linearen Abbildung ˚ 2
End.V /, für welche ja
B Œ˚B
D Q1 A Œ˚A Q
(7.14)
gilt, siehe Definition 6.46 beziehungsweise Korollar 5.43. Daher spielt es eine entscheidende Rolle, ob man eine Matrix als Bilinearform oder als lineare Abbildung
auffassen möchte.
Bemerkung 7.7. Ist h ; i 2 Bil.V / eine Bilinearform und B V eine Basis, so
können wir den Spaltenvektor B Œv 2 k.B/ wie immer als B 1-Matrix auffassen.
Entsprechend ist dann der Zeilenvektor B ŒvT eine 1 B-Matrix. Die Bilinearform
h ; i können wir dann folgendermaßen in Koordinaten auswerten: Für v; w 2 V
gilt
hv; wi D . B Œv/T Œh ; iB;B B Œw
(7.15)
im Sinne der Matrixmultiplikation. Das Resultat ist eine 11-Matrix, also eine Zahl
in k.
298
7 Euklidische und unitäre Vektorräume
Kontrollfragen. Wie ist die Matrix einer Bilinearform definiert? Was ist der
musikalische Homomorphismus? Wie viele Bilinearformen auf einem Vektorraum
gibt es?
7.2
Skalarprodukte
Wir wollen nun auch die letzte Eigenschaft, nämlich die Positivität aus Proposition 1.8, iii.), axiomatisieren, um so eine allgemeine Definition für ein Skalarprodukt
zu finden. Da wir jedoch in einem beliebigen Körper nicht einfach von „positiven“
Zahlen sprechen können, beschränken wir uns von nun an auf k D R. Es ist prinzipiell jedoch möglich, die folgenden Begriffe auch in etwas größerer Allgemeinheit
für geordnete Körper zu diskutieren. Wir wollen dies jedoch der Einfachheit wegen
unterlassen.
Die folgende Begriffsbildung ist dann eine einfache Übertragung der Eigenschaften des kanonischen Skalarprodukts aus Abschn. 1.3:
Definition 7.8 (Skalarprodukt). Sei V ein reeller Vektorraum und h ; i eine
symmetrische Bilinearform auf V .
i.) Die Bilinearform h ; i heißt positiv semidefinit, falls für alle v 2 V
hv; vi 0:
(7.16)
ii.) Die Bilinearform h ; i heißt positiv definit, falls für alle v 2 V n f0g
hv; vi > 0:
(7.17)
iii.) Eine positiv definite, symmetrische Bilinearform auf V heißt Skalarprodukt
auf V .
Beispiel 7.9 (Kanonisches Skalarprodukt, I). Wir betrachten für V D Rn die
Bilinearform
hx; yi D
n
X
xi yi ;
(7.18)
iD1
wobei x; y 2 Rn und xi ; yi 2 R die i -te Koordinate bezüglich des i -ten
Basisvektors ei der Standardbasis ist. Offenbar ist h ; i symmetrisch und bilinear.
Weiter gilt
hx; xi D
n
X
iD1
xi2 > 0
(7.19)
7.2 Skalarprodukte
299
für alle x ¤ 0, da eine Summe von Quadraten in R genau dann verschwindet,
wenn jedes einzelne Quadrat verschwindet. Also ist h ; i ein Skalarprodukt, das
kanonische Skalarprodukt auf Rn . Für n D 3 erhalten wir gerade das Skalarprodukt
aus Definition 1.7.
Proposition 7.10 (Cauchy-Schwarz-Ungleichung, I). Sei V ein reeller Vektorraum und h ; i eine positiv semidefinite, symmetrische Bilinearform auf V . Dann
gilt für alle v; w 2 V
jhv; wij2 hv; vihw; wi:
(7.20)
Beweis. Der Beweis ist nahezu wörtlich derselbe wie in Proposition 1.9: Wir
müssen nur den Fall hv; vi D 0 gesondert betrachten. Sei also zunächst v 2 V
mit hv; vi D 0 gegeben. Dann gilt für alle 2 R und alle w 2 V
0 hv C w; v C wi D 2 hv; vi C 2hv; wi C hw; wi D 2hv; wi C hw; wi:
(7.21)
Da 2 R beliebig ist, kann dies nur dann der Fall sein, wenn hv; wi D 0 gilt. Wäre
nämlich hv; wi ¤ 0, so wäre die rechte Seite von (7.21) ein lineares Polynom und
. Jenseits dieser Nullstelle nimmt
hätte als solches eine Nullstelle bei 0 D hw;wi
hv;wi
es dann aber beiderlei Vorzeichen an, im Widerspruch zu (7.21). Also folgt (7.20)
für diesen Fall. Ist nun hv; vi > 0, so können wir den Beweis von Proposition 1.9
übernehmen.
t
u
Korollar 7.11. Sei V ein reeller Vektorraum und h ; i eine positiv semidefinite
symmetrische Bilinearform. Dann sind äquivalent:
i.) Die Bilinearform h ; i ist positiv definit.
ii.) Die Bilinearform h ; i ist nicht-ausgeartet.
Beweis. Die Implikation i.) H) ii.) ist trivial. Sei also h ; i nicht-ausgeartet und
v 2 V mit hv; vi D 0 gegeben. Dann gilt hv; wi D 0 für alle w 2 W nach (7.20).
Also ist v D 0. Daher ist für v ¤ 0 aber die Bedingung hv; vi 0 zu hv; vi > 0
äquivalent.
t
u
Ein Skalarprodukt ist also mit anderen Worten ein positiv definites inneres
Produkt.
In einem weiteren Schritt wollen wir sehen, ob die obige Begriffsbildung und
insbesondere die Positivitätsbedingung auch für komplexe Vektorräume sinnvoll
ist. Da R C ein Unterkörper ist, können wir von einer Bilinearform auf einem
komplexen Vektorraum V selbstverständlich sinnvoll sagen, dass hv; vi 0 für
einen Vektor v 2 V gilt. Ist aber nun für v 2 V tatsächlich hv; vi > 0 erfüllt, so ist
für w D iv
300
7 Euklidische und unitäre Vektorräume
hw; wi D hiv; ivi D i2 hv; vi D hv; vi < 0:
(7.22)
Daher kann man für einen komplexen Vektorraum V und eine Bilinearform h ; i
auf V nie hv; vi > 0 für alle v 2 V n f0g erreichen, sofern dim V 1. Der Ausweg
besteht nun darin, die Bilinearität geringfügig abzuändern:
Definition 7.12 (Sesquilinearform). Sei V ein komplexer Vektorraum und sei
h ; iW V V ! C
(7.23)
eine Abbildung.
i.) Die Abbildung h ; i heißt sesquilinear, falls sie im zweiten Argument linear
und im ersten Argument antilinear ist, also
hv; w C ui D hv; wi C hv; ui
(7.24)
hv C w; ui D hv; ui C hw; ui
(7.25)
und
für alle v; w; u 2 V und ; 2 C gilt. In diesem Fall nennt man h ; i eine
Sesquilinearform.
ii.) Eine Sesquilinearform h ; i heißt Hermitesch, falls für alle v; w 2 V
hv; wi D hw; vi:
(7.26)
iii.) Eine Sesquilinearform h ; i heißt Skalarprodukt, falls sie positiv definit ist:
Für alle v 2 V n f0g gilt
hv; vi > 0:
(7.27)
Zur Vorsicht sei angemerkt, dass in vielen mathematischen Lehrbüchern die Antilinearität im zweiten Argument anstelle im ersten gefordert wird. Unsere Konvention
ist eher in der Physik und speziell in der Quantenmechanik zu Hause. Egal welcher
Konvention man nun folgt, einen wesentlichen Unterschied gibt es natürlich nicht.
Bemerkung 7.13. Wie bereits für Bilinearformen bilden die Sesquilinearformen auf
V einen Unterraum von Abb.V V; C/. Nach Wahl einer Basis B V ist eine
Sesquilinearform h ; i durch die Matrix Œh ; iB;B D .hb; b 0 i/b;b 0 2B 2 CBB
eindeutig bestimmt, und jede solche Matrix definiert analog zu Bemerkung 7.7 eine
Sesquilinearform auf V via
hv; wi D
T
B Œv
Œh ; iB;B B Œw :
(7.28)
7.2 Skalarprodukte
301
Man beachte, dass hier die Einträge des Zeilenvektors B ŒvT im Gegensatz zu (7.15)
zusätzlich noch komplex konjugiert werden. Ist Q D A ŒidV B der Basiswechsel von
einer Basis B zu einer anderen Basis A, so gilt für die entsprechenden Matrizen von
h ; i die Transformationsformel
T h ; i B;B D Q h ; i A;A Q;
(7.29)
nun wieder mit komponentenweiser komplexer Konjugation der Einträge von QT ,
im Gegensatz zu (7.14).
T
Da für komplexe Matrizen A 2 Mn .C/ die Kombination A D AT so oft auftritt,
verwendet man hierfür ein eigenes Symbol:
Definition 7.14 (Adjungierte Matrix). Sei A 2 Mn .C/. Dann heißt
A D AT
(7.30)
die zu A adjungierte Matrix.
Es sollte aus dem Zusammenhang klar sein, dass die Adjunktion nicht mit dem
Dualisieren von Abbildungen verwechselt wird. Man beachte weiterhin, dass in der
Literatur der Begriff adjungierte Matrix auch für die komplementäre Matrix A#
verwendet wird. Hier sollte man also eine gewisse Vorsicht walten lassen. Alternativ
wird auch das Symbol A anstelle von A verwendet.
Die Adjunktion von komplexen Matrizen erfüllt nun einige einfache Eigenschaften, die sich sofort aus denen der Transposition ergeben:
Proposition 7.15 (Adjunktion). Sei n 2 N und A; B 2 Mn .C/ sowie ; 2 C.
Dann gilt:
i.) Die Adjunktion ist antilinear, also
.A C B/ D A C B :
(7.31)
ii.) Die Adjunktion ist involutiv, also
.A / D A:
(7.32)
iii.) Die Adjunktion ist ein Antihomomorphismus, also
.AB/ D B A :
(7.33)
Wie bereits im allgemeinen Fall von Proposition 7.3, v.), können wir auch die
Existenz von Skalarprodukten in reellen und komplexen Vektorräumen zeigen: Die
zusätzliche Positivität stellt keine Schwierigkeit dar.
302
7 Euklidische und unitäre Vektorräume
Proposition 7.16. Sei V ein reeller oder komplexer Vektorraum. Dann gibt es ein
Skalarprodukt auf V .
Beweis. Inspiriert durch Proposition 7.3, v.), und das kanonische Skalarprodukt aus
Beispiel 7.9 wählen wir zunächst eine Basis B V . Dann setzen wir im reellen
Fall
hv; wi D
B Œv
T
B Œw
und im komplexen Fall
hv; wi D
B Œv
B Œw :
Mit anderen Worten, wir wählen h ; i derart, dass die Matrix Œh ; iB;B für diese
Basis gerade die B B-Einheitsmatrix ist. Ausgeschrieben gilt im komplexen Fall
hv; wi D
B Œv
X
B Œw D
vb wb D
b2B
X
wb vb D hw; vi;
b2B
was die Hermitizität zeigt. Weiter gilt
hv; vi D
X
jvb j2 > 0;
b2B
wann immer v ¤ 0, da eine Summe von Quadraten nur dann null sein kann, wenn
jedes einzelne Quadrat verschwindet. Dies zeigt die gewünschte positive Definitheit.
Der reelle Fall ist analog.
t
u
Wenden wir diese Konstruktion auf V D Cn und die Standardbasis e1 ; : : : ; en
an, so erhalten wir das kanonische Skalarprodukt auf Cn :
Beispiel 7.17 (Kanonisches Skalarprodukt, II). Auf Cn definiert man das kanonische Skalarprodukt durch
hv; wi D
n
X
vi wi D v w:
(7.34)
iD1
Dies ist nach dem obigen Beweis tatsächlich ein Skalarprodukt im Sinne von
Definition 7.12.
Im reellen Fall ist die Symmetrie einer Bilinearform eine unabhängige Forderung
von der positiven Definitheit:
Beispiel 7.18. Sei V D R2 und eine Bilinearform ! durch
!
x1
y
; 1
D x1 y2 x2 y1
x2
y2
(7.35)
7.2 Skalarprodukte
303
definiert. Es gilt offenbar !.x; y/ D !.y; x/ und damit !.x; x/ D 0 0 für alle
x 2 R2 . In diesem Sinne ist ! positiv semidefinit, aber eben antisymmetrisch und
nicht symmetrisch. Man beachte, dass ! nicht-ausgeartet ist.
Im komplexen Fall dagegen ist die Hermitizität eine Folge der Positivität. Dies ist
eng verknüpft mit der Cauchy-Schwarz-Ungleichung:
Proposition 7.19 (Cauchy-Schwarz-Ungleichung, II). Sei V ein komplexer Vektorraum und h ; iW V V ! C eine positiv semidefinite Sesquilinearform.
i.) Für alle v; w 2 V gilt hv; wi D hw; vi, die Sesquilinearform ist also
Hermitesch.
ii.) Für alle v; w 2 V gilt die Cauchy-Schwarz-Ungleichung
jhv; wij2 hv; vihw; wi:
(7.36)
Beweis. Sei v; w 2 V und ; 2 C. Dann gilt nach Voraussetzung hv Cw; v C
wi 0. Sesquilinearität liefert
0 hv C w; v C wi D hv; vi C hv; wi C hw; vi C hw; wi:
Wir setzen zur Abkürzung a D hv; vi, b D hv; wi, b 0 D hw; vi und c D hw; wi.
Dann gilt also für alle ; 2 C
a C b C b 0 C c 0:
(7.37)
Insbesondere ist die linke Seite immer reell. Wir setzen D 1 und D 1 sowie
D ˙i ein. Dies liefert die Ungleichungen
a C b C b0 C c 0
und
a ˙ ib ib 0 C c 0:
Die Differenz zu bilden, zerstört zwar die Ungleichung, nicht aber die Realität der
linken Seiten. Daher folgt
b ˙ ib C b 0 ib 0 2 R:
(7.38)
Wir schreiben nun b D x C iy und b 0 D x 0 C iy 0 mit reellen x; y; x 0 ; y 0 2 R. Dann
bedeutet (7.38)
x C iy ˙ ix ˙ i2 y C x 0 C iy 0 ix 0 i2 y 0 2 R
und damit für die beiden Fälle D ˙i
y C x C y 0 x 0 D 0 und
y x C x 0 C y 0 D 0:
304
7 Euklidische und unitäre Vektorräume
Dies liefert aber 2y C 2y 0 D 0 und damit y D y 0 sowie 2x 2x 0 D 0 und damit
x D x 0 . Insgesamt bedeutet dies aber gerade b D b 0 , was den ersten Teil zeigt. Für
den zweiten Teil können wir also bereits b 0 D b in (7.37) verwenden und erhalten
daher
a C b C b C c 0:
(7.39)
Ist nun a D 0, also hv; vi D 0, so können wir D 1 setzen und erhalten für alle
reellen 2 R die Ungleichung
2Re.b/ C c 0;
was nur für Re.b/ D 0 möglich ist. Setzen wir anschließend D it mit t 2 R, so
erhalten wir für alle t 2 R die Ungleichung
2Im.b/t C c 0;
was Im.b/ D 0 liefert. Insgesamt gilt also b D 0, und (7.36) ist in diesem Fall
erfüllt. Sei umgekehrt a ¤ 0, also a > 0, so setzen wir D b und D a
in (7.39) ein und erhalten
abb bba bba C ca2 0;
womit wir wegen a > 0 die Ungleichung bb ac erhalten, was gerade (7.36) ist.
Also ist die Cauchy-Schwarz-Ungleichung auch in diesem Fall erfüllt.
t
u
Bemerkenswerterweise ist es nicht erforderlich, dass die Sesquilinearform positiv definit ist. Dies ist gelegentlich von großem Nutzen, wie folgendes Beispiel aus
der Analysis nahelegt:
Beispiel 7.20. Sei V D C.Œa; b; C/ der komplexe Vektorraum der stetigen,
komplexwertigen Funktionen auf dem kompakten Intervall Œa; b R. Eine
Funktion f W Œa; b ! C heißt dabei stetig, wenn sowohl der Real- als auch
der Imaginärteil stetig sind. Mit dieser Charakterisierung ist es tatsächlich leicht
zu sehen, dass C.Œa; b; C/ Abb.Œa; b; C/ ein komplexer Unterraum ist. Das
Integral
Z
W C.Œa; b; C/ ! C
(7.40)
ist wieder komponentenweise bezüglich Real- und Imaginärteil definiert, also
Z
Z
b
a
Z
b
f .x/dx D
b
Re.f .x//dx C i
a
Im.f .x//dx
(7.41)
a
für f 2 C.Œa; b; C/. Auf diese Weise wird (7.40) ein C-lineares Funktional auf
C.Œa; b; C/. Man definiert nun das kanonische L2 -Skalarprodukt auf C.Œa; b; C/
durch
7.3 Norm und Orthogonalität
305
Z
b
hf; gi D
f .x/g.x/dx:
(7.42)
a
Da f g wieder eine stetige Funktion ist, ist das Integral von f g als RiemannIntegral definiert und wir können hf; gi tatsächlich durch (7.42) definieren. Die
Sesquilinearität ist nun leicht zu sehen. Zur Positivität betrachtet man zunächst
Z
hf; f i D
b
jf .x/j2 dx 0:
(7.43)
a
Ist nun f ¤ 0, so zeigt ein Stetigkeitsargument, dass jf j2 > 0 für ein
geeignetes > 0 auf einem (eventuell kleinen) Intervall Œc; d Œa; b. Daher ist
hf; f i .d c/ > 0, was die positive Definitheit bedeutet. Insgesamt haben wir
also tatsächlich ein Skalarprodukt vorliegen. Nun möchte man das Skalarprodukt
und zuvor auch das Integral auf mehr Funktionen ausdehnen als die stetigen alleine.
Je nach verwendeter Variante des Integrals können dies alle Riemann-integrablen
Funktionen oder gar alle Lebesgue-integrablen Funktionen sein. Dann allerdings
funktioniert das obige Argument zur positiven Definitheit nicht länger: Es gibt
Riemann-integrable Funktionen f W Œa; b ! C, sodass hf; f i D 0 gilt, obwohl
f nicht die Nullfunktion ist. Ein einfaches Beispiel ist
(
f .x/ D
0 x¤c
1 x D c;
(7.44)
wobei c 2 Œa; b ein fest gewählter Punkt ist. Für diese Funktion gilt jf j2 D
f 0 aber hf; f i D 0. Trotzdem sind auch für diesen größeren Vektorraum
der Riemann-integrablen Funktionen die Resultate aus Proposition 7.19 richtig. In
der Integrationstheorie wird diese positiv semidefinite Sesquilinearform eine große
Rolle spielen, siehe etwa [19].
Kontrollfragen. Was bedeutet sesquilinear? Wie beweist man die CauchySchwarz-Ungleichung? Welche Eigenschaften erfüllt die Adjunktion?
7.3
Norm und Orthogonalität
In Abschn. 1.3 haben wir das kanonische Skalarprodukt von R3 dazu verwendet,
Längen und Winkel von Vektoren zu beschreiben. Wir wollen diese heuristischen
Überlegungen nun zu einem Prinzip erheben und auf einem beliebigen Skalarprodukt basierend diese Begriffe etablieren.
Um den reellen und den komplexen Fall simultan oder zumindest weitgehend
simultan diskutieren zu können, verabreden wir, dass
K D R oder C:
(7.45)
306
7 Euklidische und unitäre Vektorräume
Ein Vektorraum V über K ist dann also entweder ein reeller oder ein komplexer
Vektorraum, und die entsprechenden Aussagen gelten in beiden Fällen. Dies ist
eine recht robuste Verabredung, wie etwa folgende Überlegung zeigt: Für 2 R
können wir D verwenden, was damit konsistent ist, dass R C. Ein
reelles Skalarprodukt erfüllt in diesem Sinne dann auch die Sesquilinearität und die
Hermitizität, einfach deshalb, weil die komplexe Konjugation auf R die Identität
ist. Selbstverständlich werden wir betonen, welchen Körper wir verwende müssen,
wenn die angestrebten Resultate nur in einem der beiden Fälle gültig sind.
Im Folgenden wollen wir einen Vektorraum V über K betrachten, der mit einem
Skalarprodukt versehen ist:
Definition 7.21 (Euklidischer und unitärer Raum). Sei V ein Vektorraum über
K und h ; i ein Skalarprodukt auf V .
i.) Ist K D R, so heißt das Paar .V; h ; i/ euklidischer Vektorraum.
ii.) Ist K D C, so heißt das Paar .V; h ; i/ unitärer Vektorraum.
Die Begriffe euklidischer beziehungsweise unitärer Vektorraum sind vor allem für
endliche Dimensionen gebräuchlich. In der Funktionalanalysis ist man vornehmlich
an unendlich-dimensionalen Vektorräumen mit Skalarprodukten interessiert. Diese
werden dann reelle oder komplexe Prä-Hilbert-Räume genannt. Auch wenn es
offensichtliche und interessante Beispiele bereits in diesem Stadium gibt, wie etwa
Beispiel 7.20, so werden wir uns vor allem auf die endlich-dimensionale Situation
konzentrieren. Wie immer werden wir kurz von einem euklidischen oder unitären
Vektorraum V sprechen, ohne das Skalarprodukt zu spezifizieren, sofern klar ist,
um welches es sich handeln soll.
In einem euklidischen beziehungsweise unitären Vektorraum können wir nun
die Länge von Vektoren definieren. Dazu abstrahieren wir zuerst die Eigenschaften
einer Länge, was uns zum Begriff der Norm führt:
Definition 7.22 (Norm). Sei V ein Vektorraum über K. Eine Norm k k für V ist
eine Abbildung
k kW V 3 v 7! kvk 2 R
(7.46)
mit folgenden Eigenschaften:
i.) Es gilt kvk > 0 für alle v 2 V n f0g.
ii.) Es gilt kvk D jjkvk für alle v 2 V und 2 K.
iii.) Es gilt die Dreiecksungleichung
kv C wk kvk C kwk
für alle v; w 2 V .
(7.47)
7.3 Norm und Orthogonalität
307
Die zweite Eigenschaft einer Norm heißt auch ihre Homogenität. Es folgt
k0V k D k0 0V k D j0jk0V k D 0
(7.48)
für den Nullvektor 0V 2 V . Gilt anstelle der ersten Eigenschaft nur kvk 0 für
v 2 V , so heißt k k eine Halbnorm oder auch Seminorm. Eine Norm ist also eine
Halbnorm, für die zudem
kvk D 0 ” v D 0
(7.49)
gilt.
In einem euklidischen beziehungsweise unitären Vektorraum gibt es immer eine
durch das Skalarprodukt bestimmte Norm:
Proposition 7.23. Sei V ein euklidischer beziehungsweise unitärer Vektorraum.
Dann ist
p
kvk D hv; vi
(7.50)
eine Norm für V .
Beweis. Da wir hv; vi 0 für ein Skalarprodukt voraussetzen, ist kvk als positive
Wurzel der positiven Zahl hv; vi für v ¤ 0 definiert und kvk D 0 für v D 0.
Die positive Definitheit garantiert
nun kvkp
> 0 für v ¤ 0. Sei weiter v 2 V und
p
2 K, dann gilt kvk D hv; vi D jj2 hv; vi D jjkvk, womit auch die
zweite Eigenschaft einer Norm erfüllt ist. Für die Dreiecksungleichung betrachten
wir zunächst
.kvk C kwk/2 D kvk2 C 2kvkkwk C kwk2
.a/
kvk2 C hv; wi C hw; vi C kwk2
(7.51)
D hv C w; v C wi
D kv C wk2 ;
wobei wir in (a) die Cauchy-Schwarz-Ungleichung verwendet haben: Hier ist im
komplexen Fall zu beachten, dass
.Rehv; wi/2 .Re.hv; wi//2 C .Im.hv; wi//2 D jhv; wij2 kvk2 kwk2 ;
was (a) auch in diesem Fall rechtfertigt. Aus (7.51) folgt aber sofort die Dreiecksungleichung durch Wurzelziehen, da beide Seiten der Dreiecksungleichung (7.47)
ja nicht-negativ sind und die Wurzelfunktion monoton ist.
t
u
308
7 Euklidische und unitäre Vektorräume
Wir können also in einem euklidischen beziehungsweise unitären Vektorraum
immer von den Längen von Vektoren sprechen, indem wir die Norm (7.50) benutzen. Dies erlaubt es nun, Techniken der Analysis zu verwenden, um geometrische
Eigenschaften von euklidischen und unitären Vektorräumen zu studieren.
Einen Vektor v 2 V mit
kvk D 1
(7.52)
nennt man aus naheliegenden Gründen einen Einheitsvektor. Für einen Vektor v 2
v
V n f0g ist v1 D kvk
immer ein Einheitsvektor, der den gleichen eindimensionalen
Unterraum wie v aufspannt. Wie schon in Abschn. 1.3 nennt man den Übergang von
v
v zu kvk
das Normieren des Vektors v.
Bemerkung 7.24 (Parallelogramm-Identität und Polarisierung). Es stellt sich natürlich nun die Frage, ob nicht vielleicht jede Norm auf einem reellen oder
komplexen Vektorraum von der Form (7.50) ist, wenn man nur das Skalarprodukt
geeignet wählt. Es zeigt sich, dass (7.50) eine weitere, über die allgemeinen
Anforderungen an eine Norm hinausgehende, Eigenschaft besitzt: Es gilt die
Parallelogramm-Identität
kv C wk2 C kv wk2 D 2kvk2 C 2kwk2
(7.53)
für alle v; w 2 V . Der Name kommt von einer elementargeometrischen Überlegung zur Länge der Diagonalen in einem Parallelogramm im R2 , siehe Abb. 7.1.
Man rechnet (7.53) direkt mit der Sesquilinearität des Skalarprodukts nach, siehe
Übung 7.4. Umgekehrt gilt, dass eine Norm, welche zusätzlich (7.53) erfüllt, tatsächlich von einem Skalarprodukt kommt und daher von der Form (7.50) ist. Im
komplexen Fall gilt nämlich für eine Norm der Form (7.50)
v
−
w
w
v
Abb. 7.1 Die Parallelogramm-Identität
v
+
w
7.3 Norm und Orthogonalität
309
3
hv; wi D
1X r r
i ki v C wk2 ;
4 rD0
und im reellen Fall gilt entsprechend
1
kv C wk2 kv wk2 ;
hv; wi D
4
(7.54)
(7.55)
was man für die Norm aus (7.50) durch eine leichte Rechnung überprüft. Die Rekonstruktion des Skalarprodukts aus den zugehörigen Normen nennt man auch
Polarisierung. Im allgemeinen Fall zeigt man nun, dass für eine gegebene Norm
durch (7.54) beziehungsweise (7.55) tatsächlich ein Skalarprodukt definiert wird,
sofern die Norm zusätzlich die Parallelogramm-Identität erfüllt. Als Fazit bleibt
festzuhalten, dass die Norm (7.50) eines euklidischen beziehungsweise unitären
Vektorraums zusätzlich die Parallelogramm-Identität erfüllt und dadurch das Skalarprodukt bestimmt. Beide Strukturen sind daher gleichwertig.
Wie auch schon in Abschn. 1.3 können wir das Skalarprodukt dazu verwenden,
Winkel zu definieren. Der Schlüssel dazu ist die Cauchy-Schwarz-Ungleichung:
Proposition 7.25. Sei V ein euklidischer oder unitärer Vektorraum und v; w 2
V n f0g.
i.) Ist K D R, gilt
1
hv; wi
1:
kvkkwk
(7.56)
ii.) Es gilt genau dann jhv; wij D kvkkwk, wenn v und w linear abhängig sind.
Beweis. Die erste Aussage ist gerade die Cauchy-Schwarz-Ungleichung im reellen
Fall. Wir müssen daher die zweite Aussage beweisen. Sind v und w linear abhängig,
so gibt es ein ¤ 0 mit v D w, da ja beide Vektoren ungleich null sein sollen.
Damit folgt aber
jhv; wij D jhw; wij D jjhw; wi D jjkwk2 D kwkkwk D kvkkwk;
was jhv; wij D kvkkwk zeigt. Man beachte, dass dieses Argument gleichermaßen
im reellen wie im komplexen Fall gültig ist. Sei umgekehrt jhv; wij2 D kvk2 kwk2
erfüllt. Dann betrachten wir den Vektor
uDv
hw; vi
w
hw; wi
310
7 Euklidische und unitäre Vektorräume
und rechnen nach, dass
D
hw; vi
hw; vi E
hu; ui D v w; v w
hw; wi
hw; wi
D hv; vi hw; vi
hw; vi
hw; vi hw; vi
hw; vi hv; wi C
hw; wi
hw; wi
hw; wi
hw; wi hw; wi
D hv; vi jhv; wij2
hw; wi
D 0;
wobei wir im letzten Schritt die Voraussetzung verwenden. Da das Skalarprodukt
positiv definit ist, folgt u D 0, was die lineare Abhängigkeit von v und w zeigt. u
t
Korollar 7.26. Sei V ein euklidischer oder unitärer Vektorraum. Die CauchySchwarz-Ungleichung wird genau dann zu einer Gleichung, wenn die Vektoren
linear abhängig sind.
Im reellen Fall können wir (7.56) zur Definition eines Winkels zwischen v und
w heranziehen:
Definition 7.27 (Winkel). Sei V ein euklidischer Vektorraum. Dann heißt die Zahl
' D arccos
hv; wi
2 Œ0; kvkkwk
(7.57)
der Winkel zwischen v; w 2 V n f0g.
Ist der Winkel ' also 0 oder , so ist v zu w parallel oder anti-parallel, in
allen anderen Fällen sind v und w linear unabhängig. Dies scheint eine vernünftige
Eigenschaft eines Winkels zu sein, womit die Definition gut motiviert ist.
hv;wi
Im komplexen Fall ist die Größe kvkkwk
zwar betragsmäßig immer noch durch 1
beschränkt, aber nicht notwendigerweise reell. Daher können wir nicht von einem
Winkel zwischen v und w sprechen. Da aber ' D 2 gerade hv; wi D 0 entspricht,
wollen wir auch im komplexen Fall von senkrechten Vektoren sprechen, auch wenn
wir allgemein den Winkel nicht definieren können:
Definition 7.28 (Orthogonalität). Sei V ein euklidischer oder unitärer Vektorraum und v; w 2 V . Dann heißen v und w orthogonal, falls hv; wi D 0.
Da hv; wi D hw; vi gilt, ist Orthogonalität eine symmetrische Relation. Der
Nullvektor ist der einzige Vektor, der auf alle anderen Vektoren senkrecht steht,
7.3 Norm und Orthogonalität
311
da h ; i ja nicht-ausgeartet ist. Eine erste Konsequenz dieser Begriffsbildung ist
der Satz des Pythagoras:
Proposition 7.29 (Satz des Pythagoras). Sei V ein euklidischer oder unitärer
Vektorraum und v1 ; : : : ; vn 2 V . Sind die Vektoren paarweise senkrecht, so gilt
kv1 C C vn k2 D kv1 k2 C C kvn k2 :
(7.58)
Beweis. Wegen hvi ; vj i D 0 für i ¤ j fallen alle gemischten Terme in kv1 C C
t
u
vn k2 D hv1 C C vn ; v1 C C vn i weg, was sofort (7.58) liefert.
Der Begriff der Orthogonalität erlaubt es nun, zu einer gewissen Menge von
Vektoren ein orthogonales Komplement zu definieren:
Definition 7.30 (Orthogonalkomplement). Sei V ein euklidischer oder unitärer
Vektorraum und U V eine nichtleere Teilmenge. Dann definiert man das Orthogonalkomplement U ? von U als
ˇ
˚
U ? D w 2 V ˇ für alle v 2 U gilt hv; wi D 0 :
(7.59)
Proposition 7.31. Sei V ein euklidischer oder unitärer Vektorraum, und seien
U; W V Teilmengen.
i.)
ii.)
iii.)
iv.)
Es gilt U \ U ? D f0g, falls 0 2 U , und U \ U ? D ; anderenfalls.
Das Orthogonalkomplement U ? von U ist ein Unterraum von V .
Ist W U , so gilt U ? W ? .
Es gilt U .U ? /? .
Beweis. Sei v 2 U \ U ? , dann gilt insbesondere hv; vi D 0 nach Definition des
Orthogonalkomplements. Also ist v D 0, was den ersten Teil zeigt, da umgekehrt
v D 0 sicherlich auf alle Vektoren in U senkrecht steht. Seien nun ; 0 2 K und
w; w0 2 U ? . Dann gilt für alle v 2 U
hv; w C 0 w0 i D hv; wi C 0 hv; w0 i D 0;
da ja hv; wi D 0 D hv; w0 i. Damit folgt also w C 0 w0 2 U ? . Da zudem 0 2 U ?
gilt, folgt, dass U ? ein Unterraum ist. Ist v 2 U ? , so gilt hv; ui D 0 für alle
u 2 U und daher auch hv; wi D 0 für alle w 2 W U . Also gilt v 2 W ? ,
wie behauptet. Schließlich betrachten wir u 2 U . Dann gilt für alle v 2 U ? nach
Definition 0 D hv; ui D hu; vi und damit hu; vi D 0. Das zeigt aber u 2 .U ? /? .
t
u
Im Folgenden schreiben wir kurz U ?? anstelle von .U ? /? und ebenso für mehr
Iterationen des Bildens des Orthogonalkomplements.
312
7 Euklidische und unitäre Vektorräume
Korollar 7.32. Sei V ein euklidischer oder unitärer Vektorraum und U V eine
Teilmenge. Dann gilt
U ??? D U ? :
(7.60)
Beweis. Nach Proposition 7.31, iv.), gilt für die Teilmenge U ? die Inklusion U ? U ??? . Da ebenso U U ?? , können wir auf diese Inklusion nun Proposition 7.31,
t
u
iii.), anwenden und erhalten auch die andere Inklusion U ??? U ? .
Korollar 7.33. Sei V ein euklidischer oder unitärer Vektorraum und U V .
Dann gilt
U ? \ U ?? D f0g;
(7.61)
womit die Summe der Unterräume U ? und U ??
U ? C U ?? D U ? ˚ U ??
(7.62)
direkt ist.
Beweis. Zunächst ist sowohl U ? als auch U ?? ein Unterraum nach Proposition 7.31, ii.). Daher ist nach Proposition 7.31, i.), der Durchschnitt f0g. Also
folgt (7.62).
t
u
Bemerkung 7.34. Es stellt sich nun also die spannende Frage, wie groß denn
U ?? ˚ U ? tatsächlich ist. Bemerkenswerterweise ist in unendlichen Dimensionen
der Unterraum U ?? ˚U ? im Allgemeinen nicht ganz V . Hierfür bedarf es vielmehr
einer zusätzlichen analytischen Eigenschaft. Es zeigt sich, dass U ?? ˚ U ? D V
für jede Teilmenge U V genau dann gilt, wenn V vollständig ist. Hier heißt V
vollständig, falls jede Cauchy-Folge .vn /n2N in V bezüglich der Norm k k auch in
V konvergiert. Die umfassende Diskussion dieser Tatsache führte uns jedoch weit
in das Gebiet der Funktionalanalysis und soll deshalb hier unterbleiben, siehe etwa
[19, 22].
In endlichen Dimensionen dagegen werden wir elementar zeigen, dass immer
U ?? ˚ U ? D V gilt, ohne die Frage nach der Vollständigkeit, die in endlichen
Dimensionen eben trivialerweise immer gegeben ist, zu berühren. Wir wollen nun
diese endlich-dimensionale Situation genauer ansehen. Dazu benötigen wir einige
Vorbereitungen:
Lemma 7.35. Sei V ein euklidischer oder unitärer Vektorraum und U V eine
Teilmenge. Dann gilt
span U U ?? :
(7.63)
7.3 Norm und Orthogonalität
313
Beweis. Der Spann span U ist der kleinste Unterraum von V , der die Teilmenge U
enthält. Da nach Proposition 7.31, iv.), auch der Unterraum U ?? die Teilmenge U
enthält, folgt (7.63).
t
u
Proposition 7.36. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V eine Teilmenge.
i.) Es gilt U ? ˚ U ?? D V .
ii.) Es gilt span U D U ?? .
Beweis. Zunächst wählen wir eine Basis u1 ; : : : ; uk 2 span U , wobei wir ohne Einschränkung u1 ; : : : ; uk 2 U annehmen dürfen. Mit U span U gilt auch
.span U /? U ? :
Aus Lemma 7.35 folgt U ? D U ??? .span U /? , womit insgesamt also U ? D
.span U /? gilt. Wir behaupten nun, dass v 2 U ? genau dann gilt, wenn
hv; u1 i D D hv; uk i D 0:
(7.64)
Da u1 ; : : : ; uk 2 U , erfüllt v 2 U ? sicherlich (7.64). Ist umgekehrt (7.64) erfüllt
und u 2 span U beliebig, so gibt es 1 ; : : : ; k 2 K mit u D 1 u1 C C k uk .
Daher folgt
(7.64)
hv; ui D hv; 1 u1 C C k uk i D 1 hv; u1 i C C k hv; uk i D 0
und somit v 2 .span U /? D U ? . Dies zeigt die behauptete Äquivalenz. Wir betrachten nun die folgende lineare Abbildung
1
0
hu1 ; vi
C
B
˚W V 3 v 7! @ ::: A 2 Kk :
huk ; vi
Da das Skalarprodukt im zweiten Argument linear ist, ist ˚ tatsächlich eine lineare
Abbildung. Da hui ; vi D hv; ui i genau dann verschwindet, wenn hv; ui i D 0 gilt,
folgt
ker ˚ D U ?
aus der obigen Überlegung. Nach der Dimensionsformel aus Satz 5.25 für endlichdimensionale Vektorräume wissen wir dim ker ˚ C dim im ˚ D dim V . Da nun
dim im ˚ k D dim span U , da ja dim Kk D k, folgt
dim U ? D dim V dim im ˚ dim V k:
314
7 Euklidische und unitäre Vektorräume
Andererseits wissen wir aus Proposition 7.31, i.), beziehungsweise aus Korollar 7.33, dass
.span U / \ U ? U ?? \ U ? D f0g;
womit auch .span U /CU ? D .span U /˚U ? eine direkte Summe ist. Dies bedeutet
aber insbesondere
dim span U C dim U ? dim V
und damit dim U ? dim V k. Zusammen erhalten wir also dim U ? D dim V dim span U . Damit folgt aber bereits
span U ˚ U ? D V:
Da nun span U U ?? gilt, folgt aus U ? \ U ?? D f0g notwendigerweise
span U D U ?? , womit alles gezeigt ist.
t
u
Korollar 7.37. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann gilt
U D U ?? ;
(7.65)
U ˚ U? D V
(7.66)
dim U C dim U ? D dim V:
(7.67)
und
Korollar 7.38. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann gibt es zu jedem v 2 V eindeutig bestimmte
Vektoren vk 2 U und v? 2 U ? mit
v D vk C v? :
(7.68)
kvk2 D kvk k2 C kv? k2 :
(7.69)
Es gilt
Beweis. Der erste Teil ist für eine direkte Summe prinzipiell möglich, also auch
für die aus (7.66), siehe Proposition 4.59, iv.). Dann ist (7.69) gerade der Satz des
Pythagoras.
t
u
Definition 7.39 (Orthogonalprojektor). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum und U V ein Unterraum. Der durch die
7.4 Orthonormalbasen
315
Zerlegung V D U ˚ U ? definierte Projektor PU 2 End.V / mit
PU W V 3 v 7! vk 2 V
(7.70)
heißt Orthogonalprojektor auf U .
Insbesondere besitzt also jeder Unterraum U V in einem endlich-dimensionalen euklidischen oder unitären Vektorraum ein kanonisch gegebenes Komplement, nämlich das Orthogonalkomplement U ? . Die obigen Korollare rechtfertigen
nun diese Bezeichnungsweise. Man beachte jedoch, dass wir im Beweis von
Proposition 7.36 entscheidend von der Voraussetzung dim V < 1 Gebrauch
gemacht haben. In unendlichen Dimensionen ist die Aussage im Allgemeinen
auch tatsächlich falsch, siehe Bemerkung 7.34 und Übung 7.27, und wird nur
unter der zusätzlichen Annahme der Vollständigkeit von V und der topologischen
Abgeschlossenheit von U richtig.
Kontrollfragen. Wann kommt eine Norm von einem Skalarprodukt? Wann sind
Vektoren orthogonal? Wie beweist man den Satz des Pythagoras? Welche Eigenschaften erfüllt das Orthogonalkomplement (in endlichen Dimensionen)? Was ist
ein Orthogonalprojektor?
7.4
Orthonormalbasen
Der Begriff von Orthogonalität, den wir in euklidischen und unitären Vektorräumen
nun zur Verfügung haben, erlaubt es, spezielle Basen zu betrachten: die Orthonormalbasen. Zur Motivation betrachten wir zuerst folgendes Beispiel:
Beispiel 7.40. Sei .e1 ; : : : ; en / die kanonische geordnete Basis von Kn . Dann gilt
für das kanonische Skalarprodukt
hei ; ej i D ıij
(7.71)
und entsprechend kei k D 1 für alle i; j D 1; : : : ; n. Dies ist unmittelbar klar anhand
der Definition des kanonischen Skalarprodukts.
Bemerkung 7.41. Sind in einem euklidischen oder unitären Vektorraum V die indizierten Vektoren fvi gi2I ungleich null und paarweise orthogonal, also hvi ; vj i D 0
für i ¤ j , so sind sie auch linear unabhängig: Sind nämlich vi1 ; : : : ; vin paarweise
verschieden und 1 ; : : : ; n 2 K mit
1 vi1 C C n vin D 0;
(7.72)
316
7 Euklidische und unitäre Vektorräume
so gilt
0 D hvi` ; 1 vi1 C C n vin i D ` hvi` ; vi` i
(7.73)
für alle ` D 1; : : : ; n. Da nach Voraussetzung hvi` ; vi` i ¤ 0 gilt, folgt ` D 0, was
die Behauptung beweist.
Das Beispiel und die obige Betrachtung legen nun folgende Begriffsbildung
nahe:
Definition 7.42 (Orthonormalsystem). Sei V ein euklidischer oder unitärer Vektorraum. Eine Teilmenge B V heißt Orthonormalsystem, falls für alle b; b 0 2 B
hb; b 0 i D ıbb 0 :
(7.74)
Hat man eine Teilmenge BQ V , sodass alle Vektoren in BQ ungleich null sind
und paarweise orthogonal stehen, so kann man aus BQ ein Orthonormalsystem B
Q
gewinnen, indem man alle bQ 2 BQ durch bQ ersetzt, die Vektoren also normiert.
kbk
Da Orthonormalsysteme immer linear unabhängig sind, können wir also nach
solchen Orthonormalsystemen suchen, die zudem eine Basis von V bilden. Eine solche werden wir Orthonormalbasis nennen. Überraschenderweise gibt es diese nur
in endlichen Dimensionen: Ist dim V unendlich, so gibt es dank des Auswahlaxioms
in Form des Zornschen Lemmas zwar immer maximale Orthonormalsysteme. Diese
sind allerdings typischerweise keine Basis im Sinne der linearen Algebra. Sie
besitzen lediglich eine etwas schwächere Eigenschaft, nämlich dass ihr Spann
bezüglich der Norm k k von V dicht in V liegt: Jeder Vektor in V kann durch solche
aus dem Spann eines maximalen Orthonormalsystems beliebig genau approximiert
werden. In der Funktionalanalysis werden solche maximalen Orthonormalsysteme
dann Hilbert-Basen genannt.
Wir wollen nun zeigen, dass es in endlichen Dimensionen immer eine Orthonormalbasis gibt: Dazu werden wir einerseits ein schnelles Argument unter Verwendung von Proposition 7.31 geben, andererseits eine explizite Konstruktion.
Satz 7.43 (Existenz von Orthonormalbasen). Sei V ein endlich-dimensionaler
euklidischer oder unitärer Vektorraum. Dann besitzt V eine Orthonormalbasis.
Beweis. Ist V D f0g der Nullraum, so ist nichts zu beweisen, da die Basis ;
orthonormal ist. Sei also dim V 1 und v 2 V ein Vektor ungleich null. Dann
v
ist v1 D kvk
ein Einheitsvektor, also kv1 k D 1. Wir betrachten U D spanfv1 g und
erhalten nach Korollar 7.38 die Zerlegung V D U ˚ U ? mit dim U ? D dim V 1.
Da U ? nach wie vor ein euklidischer beziehungsweise unitärer Vektorraum ist,
wobei wir das Skalarprodukt einfach einschränken, können wir mit U ? anstelle von
V fortfahren, siehe auch Übung 7.3. Da die Dimension um eins abgenommen hat,
können wir induktiv annehmen, dass wir bereits eine Orthonormalbasis v2 ; : : : ; vn
7.4 Orthonormalbasen
317
von U ? gefunden haben. Insgesamt bilden die Vektoren v1 ; : : : ; vn dann eine
Orthonormalbasis.
t
u
Korollar 7.44. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und U V ein Unterraum. Dann lässt sich jede Orthonormalbasis von U zu
einer Orthonormalbasis von V ergänzen.
Beweis. Nach dem letzten Satz besitzt U ? eine Orthonormalbasis. Da U ˚U ? D V
und da U senkrecht auf U ? steht, ist die Vereinigung von Orthonormalbasen von U
und U ? eine solche von V .
t
u
Das folgende Verfahren liefert nun eine explizite Konstruktion eines Orthonormalsystems aus einer (höchstens abzählbar unendlichen) linear unabhängigen Teilmenge:
Satz 7.45 (Gram-Schmidt-Verfahren). Sei V ein euklidischer oder unitärer Vektorraum. Seien v1 ; : : : ; vn 2 V linear unabhängige Vektoren. Dann existiert ein
Orthonormalsystem e1 ; : : : ; en , sodass
spanfe1 ; : : : ; ek g D spanfv1 ; : : : ; vk g
(7.75)
für alle 1 k n.
Beweis. Wir beschreiben die Konstruktion im Detail. Wir setzen zuerst e1 D kvv11 k ,
womit ke1 k D 1 und spanfe1 g D spanfv1 g gewährleistet ist. Für e2 müssen wir eine
Linearkombination von v1 und v2 finden, die auf e1 senkrecht steht. Der Ansatz
f2 D v2 C 1 e1
(7.76)
liefert aus der Bedingung he1 ; f2 i D 0 die Gleichung
he1 ; v2 i C 1 D 0
und damit 1 D he1 ; v2 i D hvkv1 ;v1 k2 i . Das so erhaltene f2 ist senkrecht auf e1 . Man
beachte, dass f2 ¤ 0, da v1 und v2 linear unabhängig sind und der Koeffizient in der
Linearkombination (7.76) vor v2 ungleich null, nämlich gerade gleich 1 ist. Damit
lässt sich f2 zu e2 D kff22 k normieren. Da
v2 D kf2 ke2 1 e1
sich wieder als Linearkombination der beiden orthonormalen Vektoren e1 und e2
ausdrücken lässt, gilt schließlich auch
spanfe1 ; e2 g D spanfv1 ; v2 g;
318
7 Euklidische und unitäre Vektorräume
womit der Fall k D 2 bewiesen ist. Per Induktion fährt man nun fort und setzt im
k-ten Schritt zuerst
fk D vk C 1 e1 C C k1 ek1
mit zu bestimmenden Koeffizienten 1 ; : : : ; k1 , sodass fk senkrecht auf die
bereits gefundenen e1 ; : : : ; ek1 steht. Diese Bedingung liefert nach Bilden des
Skalarprodukts mit ei die Gleichungen
i D hei ; vk i
für alle i D 1; : : : ; k 1. Wie schon bei f2 argumentiert man, dass fk nicht null sein
kann. Daher kann man in einem zweiten Schritt fk wieder zu ek D kffkk k normieren.
t
u
Bemerkung 7.46. Das Gram-Schmidt-Verfahren liefert auch für abzählbar viele linear unabhängige Vektoren v1 ; v2 ; : : : ein abzählbares Orthonormalsystem
e1 ; e2 ; : : :, sodass (7.75) nun für alle k 2 N gültig ist.
Bemerkung 7.47. Ist nun v1 ; : : : ; vn eine Basis von V , so liefert das Gram-SchmidtVerfahren eine Orthonormalbasis e1 ; : : : ; en . Man beachte, dass dies ein sehr
expliziter Algorithmus ist. Sind die v1 ; : : : ; vn bereits orthonormal, so reproduziert
das Gram-Schmidt-Verfahren diese Vektoren: In diesem Fall gilt einfach
ei D vi
(7.77)
für alle i D 1; : : : ; n. Wir erhalten also insbesondere einen zweiten Beweis zu
Satz 7.43. Letztlich haben wir genau diese Idee bereits in Abschn. 1.3 im Beweis
von Proposition 1.13 verwendet.
Im Allgemeinen ist es ja nicht immer einfach, einen Vektor als Linearkombination von Basisvektoren zu schreiben: Dies erfordert die Lösung eines linearen
Gleichungssystems beispielsweise mithilfe des Gauß-Algorithmus. Für eine Orthonormalbasis ist dies viel leichter:
Proposition 7.48. Sei V ein endlich-dimensionaler euklidischer oder unitärer
Vektorraum, und sei e1 ; : : : ; en eine Orthonormalbasis von V . Dann gilt für jeden
Vektor v 2 V
vD
n
X
hei ; viei :
iD1
(7.78)
7.4 Orthonormalbasen
319
P
Beweis. Sei v D niD1 vi ei bezüglich der Basis e1 ; : : : ; en entwickelt, wobei also
die Zahlen v1 ; : : : ; vn 2 K die eindeutig bestimmten Koeffizienten bezüglich dieser
Basis sind. Es folgt
hej ; vi D
n
X
vi hej ; ei i D vj ;
iD1
da die e1 ; : : : ; en zudem orthonormal sind.
t
u
Korollar 7.49. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei e1 ; : : : ; en eine Orthonormalbasis von V .
i.) Für v; w 2 V gilt
hv; wi D
n
X
hv; ei ihei ; wi:
(7.79)
iD1
ii.) Für v 2 V gilt die Parsevalsche Gleichung
kvk2 D
n
X
jhei ; vij2 :
(7.80)
iD1
Beweis. In endlichen Dimensionen ist dies eine ziemlich einfache Rechnung,
die wirkliche Bedeutung erfährt die Parsevalsche Gleichung erst für unendlichdimensionale Hilbert-Räume. Wir rechnen nach, dass
hv; wi D
X
n
n
X
hei ; viei ;
hej ; wiej
iD1
D
n
X
i;j D1
D
j D1
hei ; vi hei ; ej ihej ; wi
„ ƒ‚ …
ıij
n
X
hv; ei ihei ; wi
iD1
für alle v; w 2 V , womit der erste Teil gezeigt ist. Den zweiten Teil erhält man mit
v D w oder alternativ aus (7.78) und dem Satz des Pythagoras.
t
u
Kontrollfragen. Gibt es immer eine Orthonormalbasis? Wie kann man Orthonormalbasen konstruieren? Was besagt die Parsevalsche Gleichung?
320
7.5
7 Euklidische und unitäre Vektorräume
Isometrien und Klassifikation
Wie zuvor schon in vielen anderen Situation wollen wir auch für euklidische und
unitäre Vektorräume den „richtigen“ Begriff von Morphismus finden. Wir wollen
also nicht nur die Vektorraumstruktur berücksichtigen, wie dies bereits eine lineare
Abbildung könnte, sondern auch die Skalarprodukte erhalten. Hierzu bietet sich folgender Begriff der Isometrie an:
Definition 7.50 (Isometrie). Seien .V; h ; iV / und .W; h ; iW / euklidische oder
unitäre Vektorräume. Eine lineare Abbildung ˚ 2 Hom.V; W / heißt Isometrie,
falls
h˚.v/; ˚.u/iW D hv; uiV
(7.81)
für alle v; u 2 V . Ein isometrischer Isomorphismus wird im Falle K D R auch
orthogonal und im Falle K D C unitär genannt.
Bemerkung 7.51 (Isometrie). Die Definition ist offenbar auch sinnvoll, wenn der
Körper k beliebig ist und wir beliebige (nicht länger positive) innere Produkte
vorliegen haben. Eine Isometrie erhält also mit den Skalarprodukten auch alle
Längen und Winkel, da diese ja aus dem Skalarprodukt erhalten werden.
Proposition 7.52. Seien .Vi ; h ; ii /iD1;2;3 euklidische oder unitäre Vektorräume.
i.) Eine Isometrie ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / ist immer injektiv.
ii.) Für Isometrien ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / und W .V2 ; h ; i2 / !
.V3 ; h ; i3 / ist auch
ı ˚W .V1 ; h ; i1 / ! .V3 ; h ; i3 /
(7.82)
eine Isometrie.
iii.) Die Identität idW .V1 ; h ; i1 / ! .V1 ; h ; i1 / ist ein isometrischer Isomorphismus.
iv.) Ist ˚W .V1 ; h ; i1 / ! .V2 ; h ; i2 / ein isometrischer Isomorphismus, so ist
auch die inverse lineare Abbildung ˚ 1 W .V2 ; h ; i2 / ! .V1 ; h ; i1 / wieder
isometrisch.
Beweis. Sei zunächst v 2 V1 mit ˚.v/ D 0 gegeben. Dann gilt für alle u 2 V1
0 D h˚.u/; ˚.v/i2 D hu; vi1 :
Da h ; i1 nicht-ausgeartet ist, folgt v D 0, womit ˚ injektiv ist. Für den zweiten
Teil rechnet man nach, dass für v; u 2 V1
7.5 Isometrien und Klassifikation
321
h .˚.u//; .˚.v//i3 D h˚.u/; ˚.v/i2 D hu; vi1
gilt, was die Isometrieeigenschaft von ı ˚ zeigt. Der dritte Teil ist klar. Sei nun
˚ zudem invertierbar. Die Umkehrabbildung ˚ 1 ist dann wieder linear, und
hu; vi1 D h.˚ ı ˚ 1 /.u/; .˚ ı ˚ 1 /.v/i1 D h˚ 1 .u/; ˚ 1 .v/i2
zeigt, dass ˚ 1 wieder isometrisch ist.
t
u
Korollar 7.53. Seien V und W endlich-dimensional mit gleicher Dimension. Dann
ist jede Isometrie ˚W .V; h ; iV /!.W; h ; iW / ein isometrischer Isomorphismus.
Beweis. Dies folgt aus Proposition 7.52, i.), und der Dimensionsformel in Form von
Korollar 5.27.
t
u
Korollar 7.54. Sei .V; h ; i/ ein euklidischer oder unitärer Vektorraum. Dann
bilden die orthogonalen beziehungsweise die unitären Endomorphismen von V eine
Untergruppe von GL.V /.
t
u
Beweis. Dies folgt sofort aus Proposition 7.52, ii.), iii.) und iv.).
Definition 7.55 (Orthogonale und unitäre Gruppe). Sei n 2 N.
i.) Die Gruppe der orthogonalen n n-Matrizen bezeichnen wir als orthogonale
Gruppe
ˇ
˚
O.n/ D A 2 GLn .R/ ˇ A ist orthogonal :
(7.83)
ii.) Die Gruppe der unitären n n-Matrizen bezeichnen wir als unitäre Gruppe
ˇ
˚
U.n/ D A 2 GLn .C/ ˇ A ist unitär :
(7.84)
Hierbei beziehen wir uns natürlich immer auf das kanonische Skalarprodukt von Rn
beziehungsweise von Cn und identifizieren lineare Endomorphismen mit Matrizen
wie üblich. Allgemeiner sprechen wir von der orthogonalen beziehungsweise unitären Gruppe eines euklidischen oder unitären Vektorraums.
Wir wollen nun orthogonale und unitäre Abbildungen expliziter charakterisieren
und so einige einfache Kriterien für Orthogonalität und Unitarität finden.
Proposition 7.56. Sei n 2 N und A 2 Mn .K/. Dann sind äquivalent:
i.) Die Matrix A ist isometrisch.
ii.) Es gilt A A D 1.
322
7 Euklidische und unitäre Vektorräume
iii.) Es gilt AA D 1.
iv.) Es gilt A 2 GLn .K/ mit A1 D A .
v.) Es gibt eine geordnete Basis .b1 ; : : : ; bn / von Kn mit
hAbi ; Abj i D hbi ; bj i
(7.85)
für alle i; j D 1; : : : ; n.
vi.) Es gilt kAvk D kvk für alle v 2 Kn .
Beweis. Hier ist wie schon zuvor A D AT D .A/T die komplex-konjugierte und
transponierte Matrix. Im reellen Fall K D R gilt dann einfach A D AT , da
A 2 Mn .R/ nur reelle Einträge besitzt. Da in endlichen Dimensionen eine Matrix
A 2 Mn .K/ genau dann invertierbar ist, wenn sie ein Links- oder ein Rechtsinverses
besitzt, siehe Proposition 5.54, ist die Äquivalenz von ii.), iii.) und iv.) klar. Sei
nun A isometrisch, so gilt hAv; Awi D hv; wi für alle v; w 2 Kn . Daher gilt
insbesondere auch hAbi ; Abj i D hbi ; bj i für jede Basis
/ von Kn . Weiter
p .b1 ; : : : ; bnp
können wir v D w setzen und erhalten kAvk D hAv; Avi D hv; vi D kvk.
Dies zeigt i.) H) v.) sowie i.) H) vi.). Sei nun A mit A A D 1 gegeben. In
Komponenten ausgeschrieben bedeutet dies
ık` D .A A/k` D
n
n
X
X
.A /ki Ai` D
Aik Ai` D hAek ; Ae` i;
iD1
iD1
da Aer gerade der Spaltenvektor ist, der aus der r-ten Spalte von A besteht. Da
hek ; e` i D ık` gilt, haben wir eine Basis mit der Eigenschaft v.) gefunden und somit
ii.) H) v.) gezeigt. Sei nun .b1 ; : : : ; bn / eine Basis von Kn , sodass v.) gilt. Für ein
v 2 Kn schreiben wir daher wie immer
vD
n
X
vi bi
iD1
mit den entsprechenden Entwicklungskoeffizienten v1 ; : : : ; vn von v bezüglich
dieser Basis. Dann gilt
X
n
n
X
hAv; Avi D A
vi bi ; A
vj bj
iD1
D
n
X
j D1
vi vj hAbi ; Abj i
i;j D1
D
n
X
i;j D1
vi vj hbi ; bj i
7.5 Isometrien und Klassifikation
323
D
X
n
vi bi ;
iD1
n
X
vj bj
j D1
D hv; vi;
womit nach Wurzelziehen kAvk D kvk folgt. Dies zeigt die Implikation v.) H)
vi.). Unter der Annahme von vi.) zeigen wir schließlich i.): Dies ist mithilfe der
Polarisierungsidentitäten klar, da wir das Skalarprodukt hv; wi aus den Normen von
kir v Cwk mit r D 0; 1; 2; 3 beziehungsweise aus kv Cwk und kv wk gemäß (7.54)
beziehungsweise (7.55) ausrechnen können. Erhält A nun die Normen, so auch die
Skalarprodukte. Es verbleibt, die letzte Implikation i.) H) ii.) zu zeigen. Dies ist
aber einfach, da für ein isometrisches A 2 Mn .K/
ık` D hek ; e` i D hAek ; Ae` i D
n
X
.Aek /i ; .Ae` /i D
iD1
n
X
Aik Ai` D .A A/k`
iD1
gilt. Dies ist aber gerade A A D 1 in Komponenten. Damit haben wir schließlich,
mit einiger Redundanz, alle Implikationen gezeigt.
t
u
Offenbar liefert ii.) oder iii.) ein sehr einfaches Kriterium zur rechnerischen
Überprüfung der Isometrieeigenschaften, während v.) den Begriff „Isometrie“
rechtfertigt.
Proposition 7.57. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann ist ˚ genau dann ein isometrischer Isomorphismus, wenn es eine Orthonormalbasis .b1 ; : : : ; bn / von V gibt, sodass
.˚.b1 /; : : : ; ˚.bn // ebenfalls eine Orthonormalbasis ist. In diesem Fall ist für jede
Orthonormalbasis .b1 ; : : : ; bn / von V auch .˚.b1 /; : : : ; ˚.bn // eine Orthonormalbasis.
Beweis. Sei ˚ ein isometrischer Isomorphismus und .b1 ; : : : ; bn / eine beliebige
Orthonormalbasis von V . Dann gilt h˚.bi /; ˚.bj /i D hbi ; bj i D ıij , womit die
Vektoren .˚.b1 /; : : : ; ˚.bn // wieder orthonormal sind. Aus Dimensionsgründen
bilden sie wieder eine Basis. Sei umgekehrt .b1 ; : : : ; bn / eine Orthonormalbasis
derart, dass .˚.b1 /; : : : ; ˚.bn // wieder eine Orthonormalbasis ist. Für v; w 2 V
schreiben wir mithilfe von Korollar 7.49 daher
X
n
n
X
h˚.v/; ˚.w/i D ˚
hbi ; vibi ; ˚
hbj ; vibj
iD1
D
n
X
i;j D1
j D1
hbi ; vi h˚.bi /; ˚.bj /ihbj ; wi
„
ƒ‚
…
ıij
324
7 Euklidische und unitäre Vektorräume
D
n
X
hbi ; vihbi ; wi
iD1
D hv; wi;
womit ˚ isometrisch ist. Damit ist aber alles gezeigt.
t
u
Lemma 7.58. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume mit geordneten Orthonormalbasen A V und B W . Dann gilt für
˚ 2 Hom.V; W /
(7.86)
B Œ˚A D hbi ; ˚.aj /i iD1;:::;dim W :
j D1;:::;dim V
Beweis. Dies folgt sofort aus Proposition 7.48, da
˚.aj / D
dim
XW
hbi ; ˚.aj /ibi
iD1
die Entwicklungskoeffizienten von ˚.aj / bezüglich der Basis B liefert. Nach Definition 5.33 ist dies gerade (7.86).
t
u
Mithilfe dieser Beobachtung können wir nun allgemein die Isometrieeigenschaften eines Homomorphismus ˚ 2 Hom.V; W / in Termen seiner Basisdarstellung
beschreiben:
Proposition 7.59. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume mit dim V D dim W D n. Für ˚ 2 Hom.V; W / sind dann äquivalent:
i.) Die lineare Abbildung ˚ ist isometrisch.
ii.) Es gibt Orthonormalbasen A V und B W , sodass B Œ˚A 2 Mn .K/
isometrisch ist.
iii.) Für alle Orthonormalbasen A V und B W ist B Œ˚A 2 Mn .K/
isometrisch.
Beweis. Sei zunächst ˚ isometrisch, und seien A V und B W Orthonormalbasen. Dann rechnen wir nach, dass
.B Œ˚A / B Œ˚A D hbi ; ˚.aj /iW i;j D1;:::;n hbk ; ˚.a` /iW k;`D1;:::;n
!
n
X
D
hbk ; ˚.aj /iW hbk ; ˚.a` /iW
kD1
j;`D1;:::;n
7.5 Isometrien und Klassifikation
325
h˚.aj /; ˚.a` /iW j;`D1;:::;n
D ıj ` j;`D1;:::;n
(7.79)
D
D 1;
da haj ; a` i D ıj ` für eine Orthonormalbasis. Nach Proposition 7.56, ii.), bedeutet
dies, dass die Matrix B Œ˚A isometrisch ist. Da es immer Orthonormalbasen gibt,
ist iii.) H) ii.) ebenfalls klar. Es gelte nun also ii.). Dann gilt für v 2 V bezüglich
dieser Orthonormalbasis A also die Basisdarstellung
A Œv
D hai ; viV iD1;:::;n 2 Kn
nach Proposition 7.48. Allgemein gilt
lar 7.49, i.), gilt
h˚.v/; ˚.u/iW D
B Œ˚.v/
˝
B
D
B Œ˚A A Œv,
und nach Korol-
˛
Œ˚.v/; B Œ˚.u/ K n
mit dem Standardskalarprodukt von Kn . Damit folgt also aus der Isometrieeigenschaft der Matrix B Œ˚A
h˚.v/; ˚.u/iW D
˝
˛
B Œ˚.v/; B Œ˚.u/ K n
D
˝
D
˝
˛
B Œ˚A A Œv; B Œ˚A A Œu K n
˛
A Œv; A Œv K n
D hv; uiV ;
nach nochmaliger Anwendung von Korollar 7.49, i.), im letzten Schritt. Also ist ˚
tatsächlich isometrisch, und ii.) H) i.) ist gezeigt.
t
u
Wir können nun isometrische Isomorphismen dazu verwenden, euklidische oder
unitäre Vektorräume zu klassifizieren. Dies gestaltet sich nun überraschend einfach:
Satz 7.60 (Klassifikation von euklidischen und unitären Vektorräumen). Seien
V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Dann sind
äquivalent:
i.) Es gibt einen isometrischen Isomorphismus ˚W V ! W .
ii.) Es gilt dim V D dim W .
Beweis. Die Implikation i.) H) ii.) ist klar, da ein isometrischer Isomorphismus
insbesondere eine lineare Bijektion ist und daher Satz 5.28 zum Einsatz kommen
kann. Sei also dim V D dim W D n erfüllt. Nach Satz 7.43 existieren geordnete
Orthonormalbasen A D .a1 ; : : : ; an / von V und B D .b1 ; : : : ; bn / von W . Durch
die Forderung
326
7 Euklidische und unitäre Vektorräume
˚.ai / D bi
für i D 1; : : : ; n definieren wir eine lineare Abbildung ˚W V ! W gemäß
Satz 5.21, ii.). Diese bildet eine Basis bijektiv auf eine Basis ab, ist also ein linearer
Isomorphismus. Nach Konstruktion gilt B Œ˚A D 1, was eine isometrische Matrix
ist. Nach Proposition 7.59 ist ˚ damit selbst isometrisch.
t
u
Korollar 7.61. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum mit dim V D n. Dann ist V isometrisch isomorph zu Kn mit dem
Standardskalarprodukt. Ist B V eine Orthonormalbasis, so ist der lineare
Isomorphismus
V 3 v 7!
B Œv
2 Kn
(7.87)
ein isometrischer Isomorphismus.
Beweis. Dies ist einerseits klar nach dem allgemeinen Resultat von Satz 7.60. Andererseits sieht man (7.87) auch direkt mit Korollar 7.49, i.), welches wir ja auch
entscheidend im Beweis von Proposition 7.59 verwendet haben.
t
u
Wir schließen diesen Abschnitt mit einigen Eigenschaften von orthogonalen und
unitären Matrizen.
Proposition 7.62. Sei n 2 N.
i.) Die Determinante liefert einen surjektiven Gruppenmorphismus
detW O.n/ ! f˙1g R :
(7.88)
ii.) Die Determinante liefert einen surjektiven Gruppenmorphismus
detW U.n/ ! S1 C :
(7.89)
iii.) Die komplexe Konjugation liefert einen involutiven Gruppenmorphismus
W U.n/ ! U.n/:
(7.90)
Beweis. Sei O 2 O.n/ eine orthogonale Matrix. Dann gilt
1 D det 1 D det.O T O/ D det O T det O D .det O/2 ;
und somit folgt det O 2 f˙1g. Sei weiter I D diag.1; 1; : : : ; 1/. Offenbar
gilt I T D I D I 1 sowie det I D 1. Also folgt I 2 O.n/, was die
Surjektivität von (7.88) zeigt. Dass (7.88) ein Gruppenmorphismus ist, ist klar,
da detW GLn .R/ ! R bereits ein Gruppenmorphismus ist und (7.88) dessen
7.5 Isometrien und Klassifikation
327
Einschränkung auf O.n/ ist. Für ii.) bemerken wir zunächst, dass S1 C
tatsächlich eine Untergruppe bezüglich der Multiplikation ist. Sei nun U 2 U.n/
unitär, dann gilt
1 D det 1 D det.U U / D det U det U D jdet U j2 ;
was jdet U j D 1 oder eben det U 2 S1 zeigt. Ist nun z 2 S1 vorgegeben, so gilt für
U D diag.z; 1; : : : ; 1/ wegen zz D 1 zum einen U D diag.z; 1; : : : ; 1/ D U 1 ,
also U 2 U.n/. Zum anderen gilt det U D z, was die Surjektivität (7.89) beweist.
Die Gruppenmorphismuseigenschaft ist wieder klar. Für die komplexe Konjugation
wissen wir ganz allgemein AB D A B, 1 D 1 und det A D det A. Daher ist die
komplexe Konjugation ein involutiver Gruppenautomorphismus von GLn .C/. Es
bleibt zu zeigen, dass für U 2 U.n/ auch U wieder unitär ist. Dies rechnen wir
durch
T
U U D U T U D .U U /T D .U U /T D 1T D 1
t
u
explizit nach.
Definition 7.63 (Die Gruppen SO.n/ und SU.n/). Sei n 2 N.
i.) Die spezielle orthogonale Gruppe ist definiert als
ˇ
˚
SO.n/ D O.n/ \ SLn .R/ D A 2 Mn .R/ ˇ AT A D 1 und det A D 1 :
(7.91)
ii.) Die spezielle unitäre Gruppe ist definiert als
ˇ
˚
SU.n/ D U.n/ \ SLn .C/ D A 2 Mn .C/ ˇ A A D 1 und det A D 1 :
(7.92)
Da sowohl O.n/ als auch SLn .R/ Untergruppen von GLn .R/ sind, ist SO.n/ als
Schnitt dieser Untergruppen wieder eine Untergruppe von O.n/, von SLn .R/ und
von GLn .R/. Ebenso ist SU.n/ eine Untergruppe von U.n/, von SLn .C/ und von
GLn .C/. Dies sieht man auch direkt mit Proposition 7.62, da etwa
ˇ SO.n/ D ker det ˇO.n/
und
ˇ SU.n/ D ker det ˇU.n/ :
(7.93)
Als Untergruppen von O.n/ beziehungsweise U.n/ sind SO.n/ beziehungsweise
SU.n/ sogar normale Untergruppen nach Proposition 3.24, i.).
Kontrollfragen. Was ist eine Isometrie, was ein isometrischer Isomorphismus?
Wie viele Skalarprodukte auf einen endlich-dimensionalen Vektorraum gibt es bis
auf Isometrie? Wann ist eine Matrix orthogonal, wann unitär?
328
7.6
7 Euklidische und unitäre Vektorräume
Selbstadjungierte und normale Abbildungen
Gemäß unserer allgemeinen Philosophie sind die Morphismen von euklidischen
oder unitären Vektorräumen wieder die strukturerhaltenden Abbildungen, also die
Isometrien. In endlichen Dimensionen gibt es zwischen euklidischen oder unitären
Vektorräumen nicht sehr viele interessante Isometrien, da diese notwendigerweise
injektiv und bei gleicher Dimension also sogar bijektiv sind. Damit sind unter den
Morphismen bei gleicher Dimension nur noch Isomorphismen zu finden. Dies ist
manchmal eine große Einschränkung und soll nun zumindest teilweise überwunden
werden. Die Idee ist, dass wir die Verträglichkeit von Abbildungen mit den
vorhandenen Strukturen, also der Vektorraumstruktur und dem Skalarprodukt, etwas
anders interpretieren.
Die folgende Definition wird in unendlichen Dimensionen die entscheidende
Eigenschaft liefern, in endlichen Dimensionen wird sich die Situation drastisch
vereinfachen.
Definition 7.64 (Adjungierbare Abbildung). Seien V und W euklidische oder
unitäre Vektorräume und AW V ! W eine Abbildung. Dann heißt A adjungierbar,
falls es eine Abbildung A W W ! V gibt, sodass für alle v 2 V und w 2 W
hw; A.v/iW D hA .w/; viV :
(7.94)
Erste Eigenschaften von adjungierbaren Abbildungen liefert folgendes Lemma:
Lemma 7.65. Seien V und W euklidische oder unitäre Vektorräume und AW V !
W eine adjungierbare Abbildung.
i.) Die Abbildung A ist notwendigerweise K-linear.
ii.) Die Abbildung A W W ! V mit (7.94) ist eindeutig bestimmt und ebenfalls
adjungierbar.
Beweis. Seien v; u 2 V sowie ; 2 k und w 2 W . Dann gilt
hw; A.v C u/ A.v/ A.u/iW
D hA .w/; v C uiV hw; A.v/iW hw; A.u/iW
D hA .w/; viV C hA .w/; uiV hA .w/; viW hA .w/; uiW
D 0:
Da w 2 W beliebig und h ; iW nicht-ausgeartet ist, folgt also
A.v C u/ A.v/ A.u/ D 0;
7.6 Selbstadjungierte und normale Abbildungen
329
was die Linearität von A zeigt. Seien nun B; C W W ! V zwei Abbildungen mit
hB.w/; vi D hw; A.v/i D hC .w/; vi für w 2 W und v 2 V . Dann gilt
h.B C /.w/; viV D hB.w/; viV hC .w/; viV D hw; A.v/iW hw; A.v/iW D 0;
womit .B C /.w/ D 0 folgt, da h ; iV nicht-ausgeartet ist. Also gilt B D C , was
die Eindeutigkeit für Teil ii.) zeigt. In die Gleichung (7.94) gehen A und A aber
völlig symmetrisch ein, sodass A ebenfalls adjungierbar ist.
t
u
Dieses Lemma erlaubt es, von der adjungierten Abbildung A einer adjungierbaren Abbildung A zu sprechen, da diese eben eindeutig bestimmt ist:
Definition 7.66 (Adjungierte Abbildung). Seien V und W euklidische oder unitäre Vektorräume und AW V ! W eine adjungierbare Abbildung. Die eindeutig
bestimmte Abbildung A W W ! V mit (7.94) heißt die zu A adjungierte
Abbildung.
Es stellt sich nun natürlich die berechtigte Frage, ob es überhaupt interessante
adjungierbare Abbildungen gibt. Bevor wir dieser Frage allgemein nachgehen,
geben wir einige Beispiele:
Beispiel 7.67 (Adjungierbare Abbildungen). Seien V und W euklidische oder unitäre Vektorräume.
i.) Die Nullabbildung 0V !W W V ! W ist immer adjungierbar mit 0V !W D
0W !V . Dies ist klar nach (7.94). Wir werden zukünftig etwas laxer 0 D 0
schreiben.
ii.) Die Identitätsabbildung idV W V ! V ist adjungierbar mit idV D idV . Auch
dies ist klar nach der Definition.
iii.) Sei v 2 V und w 2 W fest gewählt. Dann betrachtet man die Abbildung
w;v W V 3 u 7! hv; uiV w 2 W:
(7.95)
Wir behaupten, dass w;v adjungierbar ist und dass
w;v
D v;w
gilt. Dazu seien u 2 V und x 2 W gegeben, dann gilt
hx; w;v .u/iW D hx; hv; uiV wiW
D hx; wiW hv; uiV
D hhx; wiW v; uiV
D hhw; xiW v; uiV
(7.96)
330
7 Euklidische und unitäre Vektorräume
D hv;w .x/; uiV ;
was (7.96) zeigt. In der Quantenphysik spielen diese Operatoren eine große
Rolle und werden dort oft als
w;v D jwihvj
(7.97)
bezeichnet.
Proposition 7.68. Seien V; W; U euklidische oder unitäre Vektorräume, und seien
A; BW V ! W sowie C W W ! U adjungierbare Abbildungen.
i.) Für ; 2 K ist auch A C B adjungierbar mit
.A C B/ D A C B :
(7.98)
ii.) Die Abbildung A ist adjungierbar mit
D A:
A
(7.99)
iii.) Die Abbildung CA ist adjungierbar mit
.CA/ D A C :
(7.100)
Beweis. Wir zeigen (7.98) durch Nachrechnen. Für v 2 V und w 2 W gilt
hw; .A C B/.v/iW D hw; Av C BviW
D hw; AviW C hw; BviW
D hA w; viV C hB w; viV
D h.A C B /.w/; viV :
Nach Definition zeigt dies, dass A C B adjungierbar ist mit adjungiertem
A C B . Der zweite Teil ist klar, siehe auch Lemma 7.65. Für den dritten Teil
betrachten wir v 2 V und u 2 U und rechnen nach, dass
hu; .CA/viU D hC u; AviW D hA C u; viV D h.A C /u; viV ;
womit die Existenz des Adjungierten und (7.99) gezeigt ist.
t
u
Im Allgemeinen gibt es sehr wohl Abbildungen zwischen euklidischen oder
unitären Vektorräumen, die keine adjungierten Abbildungen besitzen. In der Funktionalanalysis ist dies ein zentrales Thema.
7.6 Selbstadjungierte und normale Abbildungen
331
In endlichen Dimensionen hingegen ist die (notwendige) Linearität bereits hinreichend für die Existenz eines Adjungierten. Um dies zu zeigen, beweisen wir
zunächst folgenden Satz:
Satz 7.69 (Musikalischer Isomorphismus). Sei V ein euklidischer oder unitärer
endlich-dimensionaler Vektorraum. Dann ist die Abbildung
[
W V 3 v 7! v [ D hv; i 2 V (7.101)
R-linear beziehungsweise C-antilinear und bijektiv.
Beweis. Die (Anti-) Linearität von [ ist klar und wurde bereits erwähnt. Nach
Bemerkung 7.2, iv.), wissen wir im reellen Fall, dass [ aufgrund der NichtAusgeartetheit von h ; i injektiv ist. Im reellen Fall sind wir dann fertig: Wenn
dim V < 1, so gilt dim V D dim V nach Korollar 5.74. Nach Korollar 5.27 ist
[
bijektiv. Im komplexen Fall müssen wir ein bisschen genauer argumentieren, da
für eine antilineare Abbildung [ das Resultat aus Korollar 5.27 nicht unmittelbar
anzuwenden ist. Zunächst ist klar, dass die Injektivität ebenfalls äquivalent zur
Nicht-Ausgeartetheit ist. Es besteht nun die eine Möglichkeit, die Dimensionsformel aus Satz 5.25 direkt auch für antilineare Abbildungen zu formulieren und
zu beweisen. Alternativ kann man im komplexen Fall so argumentieren: Um die
Surjektivität von [ zu zeigen, geben wir ein ˛ 2 V vor. Wir wählen eine
Orthonormalbasis e1 ; : : : ; en 2 V und betrachten die zugehörige duale Basis
e1 ; : : : ; en 2 V , sodass also ei .ej / D ıij gilt. Dann gilt
˛ D ˛1 e1 C C ˛n en
mit ˛i D ˛.ei /:
Wir betrachten nun
v D ˛ 1 e1 C C ˛ n en ;
und behaupten v [ D ˛. Ist w 2 V , so gilt zum einen
hv; wi D ˛ 1 he1 ; wi C C ˛ n hen ; wi D ˛1 he1 ; wi C C ˛n hen ; wi:
Zum anderen gilt w D he1 ; wie1 C C hen ; wien , und somit
˛.w/ D he1 ; wi˛.e1 / C C hen ; wi˛.en /
D he1 ; wi˛1 C C hen ; wi˛n
D hv; wi;
womit ˛ D v [ gezeigt ist.
t
u
332
7 Euklidische und unitäre Vektorräume
Dieser Satz wird in unendlichen Dimensionen definitiv falsch. Der algebraische
Dualraum V ist schlicht zu groß, als dass es eine Bijektion V ! V geben
könnte.
Definition 7.70 (Musikalische Isomorphismen). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum. Der (anti-)lineare Isomorphismus
[W V 3 v 7! hv; i 2 V (7.102)
W V ! V
(7.103)
sowie sein Inverses
]
heißen die musikalischen Isomorphismen von V .
Bemerkenswerterweise gibt es jedoch eine Variante von Satz 7.69, die auch
in unendlichen Dimensionen Bestand hat: Ist V ein Hilbert-Raum (also zudem
vollständig, siehe Bemerkung 7.34), so ist [ W V ! V 0 ein (anti-)linearer Isomorphismus in den Raum der stetigen Linearformen V 0 V , den man auch
den topologischen Dualraum nennt. Nicht nur für die Quantenmechanik ist dieser
Darstellungssatz von Riesz von fundamentaler Bedeutung. Man findet eine genaue
Formulierung in jedem Lehrbuch zur Funktionalanalysis, siehe etwa [19, Thm. 4.12]
oder [22, Thm. V.3.6].
Wir kommen nach diesem Exkurs nun zur versprochenen Existenz einer adjungierten Abbildung in endlichen Dimensionen:
Satz 7.71 (Adjungierbarkeit). Seien V und W endlich-dimensionale euklidische
oder unitäre Vektorräume, und sei AW V ! W eine Abbildung. Dann sind äquivalent:
i.) Die Abbildung A ist adjungierbar.
ii.) Die Abbildung A ist linear.
Beweis. Nach Lemma 7.65, i.), wissen wir bereits i.) H) ii.). Sei also AW V !
W linear. Dann ist für jedes w 2 W die Abbildung
V 3 v 7! hw; Avi 2 K
linear, da A linear und hw; i ebenfalls linear ist. Nach Satz 7.69 gibt es also einen
eindeutig bestimmten Vektor A w 2 V mit
hw; Avi D hA w; vi:
7.6 Selbstadjungierte und normale Abbildungen
333
Auf diese Weise erhält man eine Abbildung A W W ! V , die offenbar zu A
adjungiert ist.
u
t
Die Aussage lässt sich wieder auf allgemeine Hilbert-Räume ausdehnen, wenn
man den zweiten Punkt durch linear und stetig ersetzt.
Bemerkung 7.72. Sei AW V ! W linear. Die duale Abbildung zu A hatten wir
ebenfalls mit A , nun aber als Abbildung A W W ! V , bezeichnet. Dies ist
zum einen etwas unglücklich, zum anderen aber insofern gerechtfertigt, als wir
folgende Beziehung haben: Zur Deutlichkeit schreiben wir hier Adual W W ! V und Aadj W W ! V anstelle von „A “ in beiden Fällen. Dann gilt
Aadj D ]V ı Adual ı [W :
(7.104)
Mit anderen Worten, das Diagramm
Adual
V
W
V
W
V
Aadj
(7.105)
W
kommutiert. In diesem Sinne ist also Dualisieren und Adjungieren bis auf die musikalischen Isomorphismen tatsächlich dasselbe.
Die Eigenschaften des Adjungierens einer linearen Abbildung gemäß Proposition 7.68 sind formal identisch zu den Eigenschaften der Adjunktion von Matrizen
wie in Proposition 7.15. Dies ist kein Zufall, wie folgende leichte Rechnung zeigt:
Proposition 7.73. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume und ˚W V ! W eine lineare Abbildung. Sind A V und B W
Orthonormalbasen, so gilt
B Œ˚A
D A˚ B :
(7.106)
Beweis. Seien also A D .a1 ; : : : ; an / und B D .b1 ; : : : ; bm / Orthonormalbasen.
Nach Lemma 7.58 wissen wir
B Œ˚A
D hbi ; ˚.aj /i iD1;:::;m
j D1;:::;n
334
7 Euklidische und unitäre Vektorräume
sowie
A Œ˚
B D haj ; ˚ .bi /i j D1;:::;n
iD1;:::;m
D h˚.aj /; bi i j D1;:::;n
iD1;:::;m
T
D hbi ; ˚.aj /i j D1;:::;n ;
iD1;:::;m
t
u
womit der Beweis erbracht ist.
Wir hätten also Proposition 7.15 auch mithilfe dieses Resultats (und der Existenz
von ˚ sowie der Existenz von Orthonormalbasen) zeigen können.
Wir kommen nun zum zentralen Begriff dieses Abschnitts:
Definition 7.74 (Selbstadjungierte und normale Abbildungen). Sei V ein
endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V /.
i.) Die Abbildung A heißt normal, falls A A D AA .
ii.) Die Abbildung A heißt selbstadjungiert, falls A D A .
Bemerkung 7.75. Im reellen Fall nennt man einen selbstadjungierten Endomorphismus mit A D A auch symmetrisch, im komplexen Fall ist der Begriff Hermitesch
ebenfalls gebräuchlich. Diese drei Begriffe werden wir im Wesentlichen synonym
verwenden, solange der Vektorraum V endlich-dimensional ist. In unendlichen Dimensionen werden symmetrisch, Hermitesch und selbstadjungiert unterschiedlich
verwendet, eine Situation, die uns momentan jedoch nicht weiter begegnen wird.
Bemerkung 7.76. Ein Endomorphismus ist also nach Proposition 7.73 genau dann
selbstadjungiert, wenn bezüglich einer Orthonormalbasis B V die zugehörige
Matrix symmetrisch (im reellen Fall) oder Hermitesch (im komplexen Fall) ist, also
ADA
(
”
B ŒAB
B ŒAB
T
D
B ŒAB
falls K D R
D
B ŒAB
falls K D C
:
(7.107)
Dies gibt ein konkretes und einfaches Kriterium zur Überprüfung von Selbstadjungiertheit.
Wir diskutieren nun einige wichtige Beispiele und erste Eigenschaften von normalen und selbstadjungierten Abbildungen:
Beispiel 7.77 (Normale und selbstadjungierte Abbildungen). Sei V ein euklidischer oder unitärer endlich-dimensionaler Vektorraum.
i.) Die Identität id 2 End.V / ist selbstadjungiert.
7.6 Selbstadjungierte und normale Abbildungen
335
ii.) Jede orthogonale beziehungsweise unitäre Abbildung U 2 End.V / erfüllt nach
Proposition 7.59 und Proposition 7.73 die Eigenschaft
U D U 1 :
(7.108)
Damit gilt U U D U 1 U D id D U U 1 D U U . Orthogonale und unitäre
Abbildungen sind also normal.
iii.) Jede selbstadjungierte Abbildung A 2 End.V / ist normal, da A A D A2 D
AA . Ist z 2 C und A 2 End.V / selbstadjungiert, so ist
.zA/ D zA
(7.109)
genau dann selbstadjungiert, wenn z D z reell ist. Für beliebiges z ist zA aber
immer noch normal, da .zA/ .zA/ D zzA2 D .zA/.zA/ .
iv.) Für v 2 V ist die Abbildung v;v 2 End.V / wie im Beispiel 7.67, iii.),
selbstadjungiert, denn
D v;v :
v;v
(7.110)
v.) Sind A; B 2 End.V / selbstadjungiert, so ist auch A C B selbstadjungiert.
Das Produkt AB ist hingegen im Allgemeinen nicht selbstadjungiert, da im
Allgemeinen
.AB/ D B A D BA ¤ AB:
(7.111)
Es folgt also, dass AB genau dann wieder selbstadjungiert ist, wenn A und B
kommutieren.
Proposition 7.78. Sei V ein endlich-dimensionaler unitärer Vektorraum und A 2
End.V /.
i.) Es gibt zwei eindeutig bestimmte selbstadjungierte Abbildungen Re.A/ und
Im.A/ 2 End.V /, sodass
A D Re.A/ C i Im.A/:
(7.112)
ii.) Die Abbildung A ist genau dann normal, wenn
ŒRe.A/; Im.A/ D 0:
(7.113)
Beweis. Wir zeigen zunächst die Eindeutigkeit: Sind A1 ; A2 2 End.V / selbstadjungiert mit A D A1 C iA2 , so gilt A D A1 iA2 und daher
A C A D 2A1
sowie
A A D 2iA2 :
336
7 Euklidische und unitäre Vektorräume
Dies legt A1 und A2 als
A1 D
1
.A C A /
2
und
A2 D
1
.A A /
2i
(7.114)
fest. Seien umgekehrt A1 und A2 wie in (7.114) definiert. Dann sind A1 und A2
selbstadjungiert und erfüllen A D A1 C iA2 , womit auch die Existenz gezeigt ist.
Weiter gilt
A A D .A1 CiA2 / .A1 CiA2 / D .A1 iA2 /.A1 CiA2 / D A21 iA2 A1 CiA1 A2 CA22
sowie
AA D A21 C iA2 A1 iA1 A2 C A22 :
Daher gilt also
A A AA D 2iA1 A2 2iA2 A1 D 2iŒA1 ; A2 ;
t
u
was den zweiten Teil zeigt.
Wir können also jeden Endomorphismus A in seinen Realteil und seinen Imaginärteil zerlegen. Im Falle K D C scheint diese Bezeichnung angemessen dank
der expliziten Formel
Re.A/ D
1
.A C A / und
2
Im.A/ D
1
.A A /:
2i
(7.115)
Im reellen Fall können wir eine analoge Aussage treffen: A 2 End.V / lässt sich
eindeutig in
A D A1 C A2
(7.116)
mit A1 D A1 und A2 D A2 zerlegen. Explizit gilt
A1 D
1
.A C A /
2
und
A2 D
1
.A A /:
2
(7.117)
Da im Reellen bezüglich einer Orthonormalbasis das Adjungieren gerade dem
Transponieren der Matrizen entspricht, nennt man A1 den symmetrischen Anteil von
A und A2 entsprechend den antisymmetrischen. Auch hier gilt
A ist normal ” ŒA1 ; A2 D 0:
(7.118)
Wir kommen nun zu einem letzten wichtigen Beispiel für selbstadjungierte Abbildungen:
7.6 Selbstadjungierte und normale Abbildungen
337
Proposition 7.79. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und P 2 End.V / ein Projektor. Dann sind äquivalent:
i.) Der Projektor P ist der Orthogonalprojektor PU auf U D im P .
ii.) Es gilt im P D .ker P /? .
iii.) Es gilt P D P .
Beweis. Sei P der Orthogonalprojektor PU auf U D im P . Nach Definition ist PU
der Projektor bezüglich der direkten Summe V D U ˚ U ? D im P ˚ .im P /? . Da
aber jeder Projektor auf im P bezüglich der Zerlegung V D im P ˚ker P projiziert,
gilt .im P /? D ker P oder äquivalent im P D .ker P /? . Dies zeigt i.) H) ii.).
Es gelte nun ii.). Sei v 2 V , dann schreiben wir v D P v C .1 P /v und wissen
P v 2 im P sowie .1 P /v 2 ker P . Nach ii.) gilt also zudem, dass P v für alle
w 2 V senkrecht auf .1 P /w steht. Für v; w 2 V gilt demnach
hw; P vi D hP wC.1P /w; P vi D hP w; P vi D hP w; P vC.1P /vi D hP w; vi;
und damit P D P . Es gelte schließlich iii.) und U D im P . Wir müssen U ?
bestimmen, um PU zu erhalten. Seien wieder v; w 2 V , dann gilt
hP v; .1 P /wi D hv; P .1 P /wi D hv; P .1 P /wi D 0;
womit im.1 P / D ker P .im P /? . Da nun im P ˚ .im P /? D V D im P ˚
ker P gilt, folgt aus Dimensionsgründen bereits ker P D .im P /? und damit ii.).
t
u
Gilt ii.), so ist i.) klar nach Definition von PU .
Korollar 7.80. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und P1 ; : : : ; Pk 2 End.V / eine Zerlegung der Eins. Dann sind äquivalent:
i.) Die Zerlegung der Eins ist orthogonal, d. h., für i ¤ j gilt
im Pi ? im Pj :
(7.119)
ii.) Es gilt Pi D Pi für alle i D 1; : : : ; k.
Beweis. Für eine Zerlegung der Eins gilt zunächst immer
i
i
im.P1 C ^ C Pk / D im.1 Pi / D ker Pi D im P1 ˚ ^ ˚ im Pk ;
da wir die direkte Summe V D im P1 ˚ ˚ im Pk benutzen können. Ist nun i.)
i
erfüllt, so folgt, dass im Pi senkrecht auf im P1 ˚ ^ ˚ im Pk und damit auf
ker Pi steht. Aus Dimensionsgründen folgt im Pi D .ker Pi /? , womit Pi D Pi
nach Proposition 7.79. Gilt umgekehrt Pi D Pi für alle i D 1; : : : ; k, so gilt
338
7 Euklidische und unitäre Vektorräume
ker Pi D .im Pi /? . Damit sind aber die Unterräume im Pj ker Pi zumindest
t
u
senkrecht auf im Pi , sofern eben i ¤ j .
Wir nennen daher eine Zerlegung der Eins P1 ; : : : ; Pk 2 End.V / mit der
zusätzlichen Eigenschaft Pi D Pi eine orthogonale Zerlegung der Eins.
Eine explizitere Beschreibung von Orthogonalprojektoren erhält man nun folgendermaßen:
Proposition 7.81. Sei V ein endlich-dimensionaler euklidischer oder unitärer
Vektorraum und sei U V ein Unterraum. Bilden b1 ; : : : ; bk 2 U eine geordnete
Orthonormalbasis von U , so gilt
PU D
k
X
bi ;bi :
(7.120)
iD1
Beweis. Sei P D
Pk
iD1
bi ;bi . Dann gilt
P D
k
X
bi ;bi D
iD1
k
X
bi ;bi D P
iD1
dank Beispiel 7.77, iv.). Weiter gilt für v 2 V
k
X
PP v D
bi ;bi bj ;bj v
i;j D1
k
X
D
bi ;bi bj hbj ; vi
i;j D1
k
X
D
i;j D1
D
k
X
bi hbi ; bj ihbj ; vi
„ ƒ‚ …
ıij
bi hbi ; vi
iD1
D P v:
Damit ist P ein selbstadjungierter Projektor und nach Proposition 7.79 der Orthogonalprojektor auf im P . Sei nun v 2 V . Gilt v 2 im P , so gilt v D P v und daher
vD
k
X
iD1
bi hbi ; vi 2 U:
(7.121)
7.7 Der Spektralsatz für normale Abbildungen
339
Ist andererseits v 2 U , so gilt nach Proposition 7.48 die Gleichung (7.121), was
v D P v bedeutet. Also folgt insgesamt im P D U und damit P D PU .
t
u
Bemerkenswerterweise benötigen wir in (7.120) nur Informationen über U selbst
und nicht über U ? . Dies macht Orthogonalprojektoren sehr viel einfacher zu
handhaben, da wir im Allgemeinen eine Zerlegung V D U ˚ W benötigen, um
einen Projektor auf U zu definieren. Dieser hängt von der Wahl des Komplements
W ab. Bei einem Orthogonalprojektor ist hingegen das Komplement W D U ? ja
kanonisch vorgegeben.
Kontrollfragen. Wann ist eine Abbildung adjungierbar? Was ist eine normale
Abbildung? Was sind die musikalischen Isomorphismen? Wann ist ein Projektor
selbstadjungiert?
7.7
Der Spektralsatz für normale Abbildungen
In diesem Abschnitt zeigen wir eines der zentralen Ergebnisse zu normalen Abbildungen: den Spektralsatz. Wir werden vor allem den Fall K D C verwenden, da
hier die Diagonalisierung erwartungsgemäß etwas einfacher ist als für K D R. Der
reelle Fall kann dann auf den komplexen zurückgeführt werden.
Proposition 7.82. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V / normal.
i.) Ist v 2 V Eigenvektor von A zum Eigenwert , so ist v Eigenvektor von A zum
Eigenwert .
ii.) Eigenvektoren von A zu verschiedenen Eigenwerten stehen senkrecht aufeinander.
Beweis. Sei v 2 V beliebig, dann gilt aufgrund der Normalität
kAvk2 D hAv; Avi D hv; A Avi D hv; AA vi D hA v; A vi D kA vk2 :
Es folgt Av D 0 genau dann, wenn A v D 0, also
ker A D ker A :
Ist A normal und 2 K, so gilt
.A /.A / D AA A A C jj2
D A A A A C jj2
D .A / .A /:
Folglich ist A normal. Daher gilt nach (7.122), angewandt auf A ,
(7.122)
340
7 Euklidische und unitäre Vektorräume
ker.A / D ker.A /;
was den ersten Teil zeigt. Seien nun v; w 2 V mit Av D v und Aw D w sowie
¤ gegeben. Dann gilt
hw; vi D hw; vi D hw; Avi D hA w; vi D hw; vi D hw; vi;
was nur für hw; vi D 0 möglich ist.
t
u
Proposition 7.83. Sei V ein endlich-dimensionaler euklidischer oder unitärer
Vektorraum, und sei A 2 End.V / normal und nilpotent. Dann gilt
A D 0:
(7.123)
Beweis. Auch wenn wir dies später mit dem Spektralsatz sehen, geben wir hier
einen direkten und einfachen Beweis. Sei zuerst A D A sogar selbstadjungiert.
Wir nehmen an, dass A ¤ 0. Sei dann r 2 N mit Ar D 0, aber Ar1 ¤ 0. Wir
wissen also r 2. Für v 2 V mit Ar1 v ¤ 0 gilt dann
0 < kAr1 vk2 D hAr1 v; Ar1 vi D hv; A2r2 vi D 0;
da 2r 2 r für r 2. Dies liefert einen Widerspruch, also muss A D 0 gelten. Sei
nun A normal und nilpotent. Dann ist .A A/ D A A selbstadjungiert und immer
noch nilpotent, da
.A A/r D A AA A A A D .A /r Ar D 0
für r groß genug. Nach dem eben Gezeigten gilt also A A D 0. Damit gilt
kAvk2 D hAv; Avi D hv; A Avi D 0
für alle v 2 V und somit Av D 0. Dies zeigt (7.123) auch in diesem Fall.
t
u
Bemerkenswert an diesen beiden Propositionen ist, dass die Beweise wörtlich
übernommen werden können, sofern man in unendlichen Dimensionen einen
adäquaten Begriff des adjungierten Operators gefunden hat.
Korollar 7.84. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum.
i.) Die Eigenwerte einer selbstadjungierten Abbildung A 2 End.V / sind reell.
ii.) Im Falle K D R sind die Eigenwerte einer orthogonalen Abbildung O 2
End.V / in f1; 1g.
iii.) Im Falle K D C sind die Eigenwerte einer unitären Abbildung U 2 End.V /
in S1 .
7.7 Der Spektralsatz für normale Abbildungen
341
Beweis. Sei A D A und Av D v. Dann gilt nach Proposition 7.82, i.), v D
A v D Av D v. Ist v also ein Eigenvektor, so folgt D . Sei nun K D R
und O 2 End.V / eine orthogonale Abbildung, also eine Isometrie. Dies bedeutet
O O D 1. Ist nun 2 R ein Eigenwert mit Eigenvektor v 2 V n f0g, so gilt
v D O Ov D O v D 2 v;
da ja D . Damit folgt D ˙1. Für K D C und U 2 End.V / unitär erhalten
wir entsprechend aus U v D v
v D U U v D U v D v D jj2 v;
und damit jj D 1, also 2 S1 .
t
u
Korollar 7.85. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / normal. Dann gilt für alle 2 K und n 2 N
ker.A / D ker.A /n :
(7.124)
Beweis. Ist kein Eigenwert, so wissen wir, dass beide Seiten nur der Nullraum
sind, siehe Bemerkung 6.97. Sei also ein Eigenwert von A. Wir betrachten den
verallgemeinerten Eigenraum VQ von A. Es gilt wegen A .A /r D .A /r A ,
dass A den verallgemeinerten Eigenraum VQ in sich abbildet, also
ˇ
A ˇVQ W VQ ! VQ :
ˇ
Damit ist aber AˇVQ W VQ ! VQ eine normale Abbildung mit
ˇ ˇ
AˇVQ
D A ˇVQ :
Folglich ist auf VQ die Abbildung .A /jVQ nilpotent nach Definition von VQ und
ˇ
nach wie vor normal. Nach Proposition 7.83 folgt .A /ˇVQ D 0 und damit
ker.A / VQ :
Die andere Inklusion VQ ker.A / gilt trivialerweise immer.
t
u
Mit anderen Worten, es gilt immer
V D VQ
(7.125)
342
7 Euklidische und unitäre Vektorräume
für einen normalen Endomorphismus. Damit können wir nun unseren allgemeinen
Spektralsatz 6.103 zum Einsatz bringen, um den Spektralsatz für normale Abbildungen zu erhalten:
Satz 7.86 (Spektralsatz für komplexe normale Abbildungen). Sei V ein endlich-dimensionaler unitärer Vektorraum, und sei A 2 End.V / normal.
i.) A ist diagonalisierbar.
ii.) Die Spektralprojektoren P1 ; : : : ; Pk von A bilden eine orthogonale Zerlegung
der Eins.
Beweis. Für K D C zerfällt das charakteristische Polynom A in Linearfaktoren,
da C algebraisch abgeschlossen ist. Die Voraussetzungen für Satz 6.103 sind daher
erfüllt. Sind 1 ; : : : ; k die paarweise verschiedenen Eigenwerte, so gilt zum einen
V D VQ1 ˚ ˚ VQk :
Zum anderen gilt nach Korollar 7.85
VQi D Vi ;
also insgesamt
V D V1 ˚ ˚ Vk ;
was den ersten Teil zeigt. Nach Proposition 7.82, ii.), wissen wir zudem Vi ? Vj
für i ¤ j . Da im Pi D Vi , folgt nach Korollar 7.80, dass alle Projektoren sogar
orthogonal sind.
t
u
Korollar 7.87. Sei V ein endlich-dimensionaler unitärer Vektorraum, und sei A 2
End.V / normal. Dann gibt es eine Orthonormalbasis von V aus Eigenvektoren
von A.
Beweis. Man wähle eine Orthonormalbasis Bi für jeden Eigenraum Vi der paarweise verschiedenen Eigenwerte 1 ; : : : ; k gemäß Satz 7.43. Da die einzelnen
Eigenräume paarweise senkrecht stehen und alles aufspannen, ist B D B1 [ [Bk
eine Orthonormalbasis von V .
t
u
Korollar 7.88. Sei A 2 Mn .C/. Es gibt genau dann eine unitäre Matrix U 2 U.n/
und eine Diagonalmatrix D 2 Mn .C/ mit
A D U 1 DU;
wenn A normal ist.
(7.126)
7.7 Der Spektralsatz für normale Abbildungen
343
Beweis. Sei zunächst A eine normale Matrix, welche wir als normale Abbildung
AW Cn ! Cn auffassen können, wobei Cn mit dem Standardskalarprodukt versehen sei. Dann gibt es eine Orthonormalbasis b1 ; : : : ; bn von Cn aus Eigenvektoren
von A nach Satz 7.86. Die Matrix U 2 GLn .C/ mit
bi D U 1 ei
ist daher unitär, da sie eine Orthonormalbasis in eine andere überführt, siehe Proposition 7.56, v.). Damit liefert aber wegen Abi D i bi
UAU 1 ei D UAbi D i U bi D i ei
eine Diagonalmatrix D D UAU 1 , welche (7.126) erfüllt. Gilt umgekehrt (7.126),
so gilt
A D U D .U 1 / D U 1 D U;
da U unitär ist, und daher
AA D U 1 DU U 1 D U D U 1 DD U D U 1 D DU D A A;
da alle Diagonalmatrizen vertauschen.
t
u
Bemerkung 7.89. Wir können diese Resultate also insbesondere für selbstadjungierte und für unitäre Abbildungen beziehungsweise Matrizen anwenden. In diesem
Fall wissen wir zusätzlich, dass die Eigenwerte reell beziehungsweise in S1 sind.
Man beachte weiterhin, dass in dieser Variante des Spektralsatzes die zusätzliche
Annahme, dass A normal ist, zu einer zusätzlichen Eigenschaft über das einfache
Diagonalisieren hinaus führt: Die Basis von Eigenvektoren kann orthogonal gewählt
werden. Dies stellt natürlich eine erhebliche Vereinfachung in vielerlei Hinsicht dar.
Insbesondere lässt sich das Inverse des zugehörigen Basiswechsels U durch
U 1 D U (7.127)
viel einfacher und direkter ausrechnen als im allgemeinen Fall.
Wir wollen nun einen zweiten Beweis des Spektralsatzes geben, der zum einen
unabhängig von Satz 6.103 ist und zum anderen weitere geometrische Eigenschaften von normalen Abbildungen enthüllt. In gewisser Hinsicht ist dieser alternative
Beweis elementarer, da wir Satz 6.103 nicht verwenden:
Beweis (von Satz 7.86, Alternative). Die Strategie ist, den Beweis durch Induktion
über dim V zu führen. Für dim V D 0, also für den Nullraum V D f0g, ist jeder
Endomorphismus A D 0, damit normal und auch diagonalisierbar: Jede Basis ist
eine Orthonormalbasis von Eigenvektoren, da V D f0g nur ; als Basis besitzt.
344
7 Euklidische und unitäre Vektorräume
Wir nehmen also dim V 1 an. Der erste Schritt besteht darin, die Existenz eines
Eigenvektors nachzuweisen: Da K D C nach Voraussetzung, ist dies aber klar.
Das charakteristische Polynom A hat Nullstellen, da C algebraisch abgeschlossen
ist. Es gibt also ein 1 2 C und einen entsprechenden Eigenraum V1 V , der
mindestens eindimensional ist. In einem zweiten Schritt betrachten wir V1 D V?1 .
Ist v1 2 V1 und w 2 V1 , so gilt
0 D 1 hw; v1 i D hw; Av1 i D hA w; v1 i:
Da dies für alle v1 2 V1 gilt, folgt A w 2 V?1 . Analog erhalten wir mit Proposition 7.82, i.),
0 D 1 hv1 ; wi D h1 v1 ; wi D hA v1 ; wi D hv1 ; Awi;
womit Aw 2 V1 . Es folgt, dass sowohl A als auch A den Unterraum V1 in sich
überführen. Die deshalb definierten Einschränkungen
ˇ
ˇ
AˇV1 W V1 ! V1 und A ˇV1 W V1 ! V1
sind nach wie vor zueinander adjungiert, da die Gleichung hv; Awi D hA v; wi ja
für alle v; w 2 V und damit insbesondere für v; w 2 V1 gilt. Es gilt also
ˇ ˇ
AˇV1 D A ˇV1 :
Daher gilt
ˇ ˇ ˇ ˇ
AˇV1 AˇV1 D AˇV1 AˇV1 ;
ˇ
womit die Einschränkung AˇV1 wieder normal ist. Der dritte Schritt ist nun der
ˇ
Induktionsschritt: Da AˇV1 wieder eine normale Abbildung auf dem unitären
Vektorraum V1 ist, können wir den ersten und zweiten Schritt wiederholen. Da
dim V D dim V1 C dim V?1 > dim V?1 D dim V1 , wird in jeder Wiederholung
die Dimension echt kleiner, womit die Induktion zum Ziel führt.
t
u
Man beachte, dass dieser zweite Beweis lediglich die algebraische Abgeschlossenheit von C sowie Proposition 7.82, i.), verwendet. Da in jedem Schritt mit
dem Orthogonalkomplement fortgefahren wird, stehen die Eigenräume automatisch
senkrecht aufeinander.
Nachdem die Situation für K D C also sehr einfach und umfassend geklärt werden konnte, wollen wir uns nun dem reellen Fall zuwenden. Dieser ist
erwartungsgemäß schwieriger, da bereits die Frage nach den Nullstellen des charakteristischen Polynoms deutlich komplizierter zu beantworten ist.
Eine Strategie ist nun, das reelle Polynom A als komplexes Polynom aufzufassen und nach komplexen Nullstellen zu suchen. Hier erhält man folgendes Resultat:
7.7 Der Spektralsatz für normale Abbildungen
345
Lemma 7.90. Sei p.x/ D an x n C C a1 x C a0 ein Polynom mit reellen
Koeffizienten an ; : : : ; a1 ; a0 2 R. Ist nun 2 C eine Nullstelle von p, so ist auch eine Nullstelle.
Beweis. Dies ist klar, denn
n
0 D 0 D p./ D an n C C a1 C a0 D an C C a1 C a0 D p./;
womit ebenfalls eine Nullstelle ist.
Mit anderen Worten, für p 2 RŒx treten die Nullstellen entweder als Paar
zueinander konjugierter komplexer Nullstellen oder als reelle Nullstellen auf. Dies
führt zu folgendem Resultat:
Proposition 7.91. Sei p D an x n C C a1 x C a0 2 RŒx ein nichtkonstantes
Polynom mit Grad n. Dann gibt es ein k 2 N0 und 1 ; : : : ; k 2 C n R sowie
1 ; : : : ; n2k 2 R mit
p.x/ D an .x 1 / .x n2k /.x 1 /.x 1 / .x k /.x k /:
(7.128)
Beweis. Als komplexes Polynom können wir p in Linearfaktoren mit insgesamt
n nicht notwendigerweise verschiedenen Nullstellen faktorisieren. Ist nun eine
Nullstelle 1 2 C n R, so ist auch 1 eine Nullstelle nach Lemma 7.90. Deshalb
treten die Linearfaktoren .x 1 / und .x 1 / immer paarweise auf. Ist dagegen
2 R C eine reelle Nullstelle, so kann nichts weiter gesagt werden.
t
u
Korollar 7.92. Sei p 2 RŒx ein Polynom mit ungeradem Grad n. Dann hat p
mindestens eine reelle Nullstelle.
Beweis. Das folgt aufgrund der obigen Darstellung (7.128) aus rein kombinatorischen Gründen, da n 2k für ungerades n nie null werden kann.
t
u
Es gibt selbstverständlich auch einen einfachen analytischen Beweis, den wir an
dieser Stelle skizzieren wollen: Für ein reelles Polynom der Form
p.x/ D x n C an1 x n1 C C a1 x C a0
(7.129)
mit n ungerade gilt zum einen
p.x/ ! ˙1
für
x ! ˙1;
(7.130)
da nur die höchste Potenz für das Verhalten bei großem x 2 R entscheidend ist.
Andererseits besagt der Zwischenwertsatz dann, dass es ein 2 R mit p./ D 0
geben muss, da Polynome ja stetig sind.
Beispiel 7.93. Wir betrachten V D R2 mit dem Standardskalarprodukt sowie
346
7 Euklidische und unitäre Vektorräume
a b
AD
b a
mit
a; b 2 R:
(7.131)
Da A 2 M2 .R/, gilt A D AT und daher
a b
:
A DA D
b a
T
(7.132)
Eine elementare Rechnung liefert nun
2
a C b2
0
T
A AD
D AAT ;
0
a2 C b 2
(7.133)
womit A normal ist. Für das charakteristische Polynom von A erhalten wir
A .x/ D det.A x/ D .a x/2 C b 2 D a2 2ax C x 2 C b 2 :
(7.134)
Offenbar gilt A .x/ b 2 für alle x 2 R. Daher ist A genau dann mit reellen
Eigenwerten diagonalisierbar, wenn b D 0 gilt. Die komplexen Nullstellen sind
1=2 D a ˙ ib;
(7.135)
was man unmittelbar verifiziert. Es gilt, wie erwartet, 1 D 2 und 1=2 2 C n R
genau dann, wenn b ¤ 0.
Wir wollen nun zeigen, dass das Beispiel 7.93 in gewisser Hinsicht bereits die
generische Situation darstellt: Im Reellen können wir einen normalen Endomorphismus zwar nicht immer diagonalisieren, aber immer auf eine einfache Form bringen:
Satz 7.94 (Spektralsatz für reelle normale Abbildungen). Sei V ein ndimensionaler euklidischer Vektorraum und ˚ 2 End.V / ein normaler
Endomorphismus. Dann gibt es ein k 2 N0 , 1 ; : : : ; n2k 2 R sowie
a1 ; : : : ; ak 2 R sowie b1 > 0; : : : ; bk > 0 und eine Orthonormalbasis B von
V , sodass
0
B
B
B
B
B
B
B
B Œ˚B D B
B
B
B
B
B
@
1
1
::
:
n2k
C
C
C
C
C
C
a1 b1
C
C:
C
b1 a1
C
C
::
C
:
C
ak bk A
bk ak
(7.136)
7.7 Der Spektralsatz für normale Abbildungen
347
Beweis. Zunächst wählen wir eine beliebige Orthonormalbasis B 0 von V , was nach
Satz 7.45 immer möglich ist. Aufgrund von Proposition 7.73 ist die Normalität von
˚ gleichbedeutend mit der Normalität von B 0 Œ˚B 0 , denn
.B 0 Œ˚B 0 / B 0 Œ˚B 0 D B 0 Œ˚ B 0 B 0 Œ˚B 0
D B 0 Œ˚ ˚B 0
D B 0 Œ˚˚ B 0
D B 0 Œ˚B 0 B 0 Œ˚ B 0
D B 0 Œ˚B 0 .B 0 Œ˚B 0 / :
Wir können daher ohne Einschränkung annehmen, dass A D B 0 Œ˚B 0 2 Mn .R/
eine normale Matrix ist, die auf R mit dem Standardskalarprodukt wirkt. Dies
wird es erlauben, alle beteiligten reellen Objekte zu „komplexifizieren“, d. h., wir
verwenden Mn .R/ Mn .C/ sowie Rn Cn . Gilt nun also AT A D AAT für
A 2 Mn .R/, so ist A als komplexe Matrix nach wir vor normal, da
A A D AT A D AT A D AAT D AAT D AA :
Wir können daher Satz 7.86 zur Anwendung bringen und eine Orthonormalbasis
von Cn finden, sodass A in dieser neuen Basis diagonalisiert wird. Das Problem
ist, dass diese Basisvektoren von Cn im Allgemeinen natürlich wirklich komplex
und nicht reell sind. Sei nun 2 C ein Eigenwert und v 2 Cn ein zugehöriger
Eigenvektor. Dann gilt
Av D Av D Av D v D v;
womit v 2 Cn ein Eigenvektor von A zum Eigenwert ist. Wir wollen dies nun
nutzen, um zwei Fälle zu unterscheiden:
i.) Der Eigenwert 2 R ist reell. Sei VC Cn der zugehörige komplexe
Unterraum der Eigenvektoren. In diesem finden wir eine Basis v1 ; : : : ; vk 2
VC . Da mit v auch v ein Eigenvektor zu ist, wenn D reell ist, so folgt
für alle v 2 VC
1
.v
2
C v/; 2i1 .v v/ 2 VC \ Rn :
Damit ist aber
1
.v
2 1
C v 1 /; 2i1 .v1 v 1 /; : : : ; 12 .vk C v k /; 2i1 .vk v k / 2 VC
348
7 Euklidische und unitäre Vektorräume
ein Erzeugendensystem von VC , welches aus reellen Vektoren besteht. Unter
diesen können wir k linear unabhängige auswählen und erhalten somit eine
Basis von VC , die aus reellen Vektoren besteht.
ii.) Der Eigenwert 2 CnR ist nicht reell. Hier können wir aus v 2 VC Cn nicht direkt einen reellen Eigenvektor bauen, da v in VC , aber nicht in
VC liegt. Wir wählen daher eine Basis v1 ; : : : ; v` 2 VC und behaupten,
dass v 1 ; : : : ; v ` 2 VC ebenfalls eine Basis ist. Die komplexe Konjugation
W Cn ! Cn ist nicht linear, sondern eben nur antilinear, trotzdem können wir
wie folgt argumentieren: Zum Test der linearen Unabhängigkeit der v 1 ; : : : ; v `
seien Zahlen z1 ; : : : ; z` 2 C mit
z1 v 1 C C z` v ` D 0
vorgegeben. Dann gilt
z1 v 1 C C z` v ` D z1 v1 C z` v` D 0:
Da die Vektoren v1 ; : : : ; v` eine Basis von VC bilden, folgt z1 D D
z` D 0 und somit auch z1 D D z` D 0. Also sind die Vektoren
v 1 ; : : : ; v ` 2 VC linear unabhängig. Wir behaupten, dass sie auch eine Basis
bilden. Wäre diese nicht so, gäbe es zusätzliche Vektoren w1 ; : : : ; wr 2 VC ,
sodass v 1 ; : : : ; v ` ; w1 ; : : : ; wr 2 VC eine Basis bilden. Dann wären nach
dem eben Gezeigten (mit vertauschten Rollen $ ) die Vektoren v 1 D
v1 ; : : : ; v ` D v` ; w1 D w1 ; : : : ; wr D wr 2 VC linear unabhängig. Da bereits
v1 ; : : : ; v` eine Basis ist, kann dies nicht sein. Daher ist v 1 ; : : : ; v ` 2 VC
bereits eine Basis gewesen. Wir können ohne Einschränkung annehmen, dass
die Vektoren v1 ; : : : ; v` bereits orthonormal sind. Da
hv r ; v s i D
n
X
.v r /t .v s /t D
tD1
n
X
.vr /t .vs /t D hvr ; vs i
tD1
gilt, sind auch die Vektoren v 1 ; : : : ; v ` orthonormal. Wir betrachten nun die
Vektoren
1
er D p .vr C v r /
2
und
1
fr D p .vr v r /
i 2
für r D 1; : : : ; `. Wir berechnen die wechselseitigen Skalarprodukte
1
.hvr ; vs i C hv r ; vs i C hvr ; v s i C hv r ; v s i/ D ırs
2
1
her ; fs i D .hvr ; vs i hv r ; vs i C hvr ; v s i hv r ; v s i/ D 0
2
her ; es i D
7.7 Der Spektralsatz für normale Abbildungen
hfr ; fs i D
349
1
.hvr ; vs i hv r ; vs i hvr ; v s i C hv r ; v s i/ D ırs ;
2
wobei wir verwenden, dass Eigenvektoren der normalen Abbildung A zu verschiedenen Eigenwerten ¤ senkrecht aufeinander stehen. Daher bilden die
Vektoren e1 ; : : : ; e` ; f1 ; : : : ; f` 2 VC ˚ VC eine Orthonormalbasis von reellen
Vektoren der direkten Summe der Eigenräume zu und . Die Abbildung A
liefert auf diesen Vektoren
1 1
Aer D p .Avr C Av r / D p vr C v r
2
2
1 1
Afr D p .Avr Av r / D p vr v r :
i 2
i 2
Wir verwenden nun
vr D
p
2.er C ifr / und
vr D
p
2.er ifr /
und erhalten
p
p
p 1 p
Aer D p 2er C 2ifr C 2er 2ifr
2
D C er C i fr
und
p
p
p 1 p
er C C fr :
Afr D p 2er C 2ifr 2er C 2ifr D
i
2
Für die reellen Zahlen
a D C und
b Di gilt also
Aer D aer C bfr
und
Afr D ber C afr :
Ordnen wir die Basis von VC ˚ VC als e1 ; f1 ; : : : ; e` ; f` , so erhält die Abbildung A bezüglich dieser Basis die Gestalt
350
7 Euklidische und unitäre Vektorräume
1
a b
0
C
Bb a
C
B
C
B
::
C:
B
:
C
B
@
a b A
0
b a
0
(7.137)
Durch eventuelles Vertauschen von und erreichen wir b > 0.
Wir können nun beide Resultate zusammenfügen: Wir finden für jeden reellen
Eigenwert von A eine Orthonormalbasis von reellen Eigenvektoren des Eigenraums
VC , und für jedes konjugierte Paar ; von nicht reellen Eigenwerten von A eine
Orthonormalbasis von reellen Vektoren von VC ˚ VC , sodass A bezüglich dieser
Basis die Matrixform (7.137) annimmt. Da insgesamt Cn durch die paarweise
orthogonalen VC und VC aufgespannt wird, erhalten wir also insgesamt eine
Basis von orthonormalen und reellen Vektoren, sodass A die Gestalt (7.136)
in dieser Basis annimmt. Da nun aber alle beteiligten Objekte rein reell sind,
können wir unseren Ausflug ins Komplexe ebenso wie diesen Beweis beenden.
Einen etwas konzeptuelleren Zugang zur Komplexifizierung findet man in den
Übungen 4.31, 5.42. und 6.24.
t
u
Bemerkung 7.95. Da die reellen Eigenwerte 1 ; : : : n2k von ˚ ebenso wie die
echt komplexen Eigenwerte 1 ; : : : ; k , 1 ; : : : ; k von ˚ durch ˚ bereits festgelegt
sind, sind die Zahlen 1 ; : : : ; n2k und
ak D k C k ;
und
bk D i k k > 0
(7.138)
durch ˚ bis auf Reihenfolge eindeutig festgelegt.
Korollar 7.96. Sei A 2 Mn .R/ eine normale Matrix. Dann gibt es eine orthogonale Matrix O 2 Mn .R/ sowie eindeutig bis auf Reihenfolge bestimmte Zahlen
1 ; : : : ; n2k , a1 ; b1 , . . . ak ; bk 2 R mit b1 ; : : : ; bk > 0 vor dem abschließenden
mit
0
1
1
B :
C
::
B
C
B
C
B
C
n2k
B
C
B
C
a1 b1
B
C
T
(7.139)
OAO D B
C:
B
C
b1 a1
B
C
B
C
::
B
C
:
B
C
@
ak bk A
bk ak
7.7 Der Spektralsatz für normale Abbildungen
351
Beweis. Dies ist der Spektralsatz 7.86, angewandt auf die normale Abbildung
AW Rn ! Rn , siehe auch Korollar 7.88.
t
u
Korollar 7.97. Sei V ein n-dimensionaler euklidischer Vektorraum und ˚ 2
End.V / selbstadjungiert. Dann gibt es eine Orthonormalbasis von Eigenvektoren
von ˚.
Beweis. Die Matrix A D B Œ˚B 2 Mn .R/ ist wieder selbstadjungiert. Fassen wir
A als komplexe Matrix (mit reellen Einträgen) auf, so hat A nach Korollar 7.84, i.)
nur reelle Eigenwerte. Also tritt der Fall ii.) des Beweises von Satz 7.94 nicht auf.
t
u
Korollar 7.98. Sei A 2 Mn .R/ selbstadjungiert. Dann gibt es eine orthogonale
Matrix O 2 O.n/ sowie eine Diagonalmatrix D 2 Mn .R/ mit
A D O 1 DO:
(7.140)
Korollar 7.99. Sei V ein n-dimensionaler euklidischer Vektorraum und ˚ 2
End.V / eine Isometrie. Dann gibt es eine Orthonormalbasis B von V sowie Winkel
'1 ; : : : ; 'k 2 .0; / mit
1
1
−1
B[
]B =
(7.141)
−1
D(
1)
D(
k)
mit 2 2-Matrizen
cos.'/ sin.'/
D.'/ D
sin.'/ cos.'/
(7.142)
auf der Diagonale. Die Anzahl der 1 und 1 auf der Diagonale sowie die Winkel
sind eindeutig durch ˚ bestimmt. Umgekehrt ist jede solche Abbildung isometrisch.
Beweis. Wir wissen, dass ˚ genau dann isometrisch ist, wenn für eine und damit
alle Orthonormalbasen B von V die Matrix B Œ˚B orthogonal ist, siehe Propositi-
352
7 Euklidische und unitäre Vektorräume
on 7.59. Sei also B eine Orthonormalbasis wie in Satz 7.94. Wir müssen dann nur
noch entscheiden, für welche Werte der Parameter 1 ; : : : ; n2k , a1 ; b1 ; : : : ; ak ; bk
die Matrix B Œ˚B orthogonal ist. Sei also A D B Œ˚B wie in (7.136). Dann gilt
0
B
B
B
B
B
B
B
AT D B
B
B
B
B
B
@
1
1
::
:
C
C
C
C
k
C
C
a1 b1
C
C:
C
b1 a1
C
C
::
C
:
C
ak bk A
bk ak
Aufgrund der Blockstruktur von A und AT ist es nun leicht, AT A zu berechnen.
Es gilt
0
B
B
B
B
B
B
B
AT A D B
B
B
B
B
B
@
21
1
::
:
2k
a11 C b12
0
0
a12 C b12
::
:
ak2 C bk2
0
2
0
ak C bk2
C
C
C
C
C
C
C
C:
C
C
C
C
C
A
Die Bedingung AT A D 1 ist daher äquivalent zu den Bedingungen
21 D D 2k D a12 C b12 D D ak2 C bk2 D 1:
(7.143)
Damit folgt aber 1 ; : : : ; k 2 f˙1g, und wir können 'k 2 Œ0; / finden, sodass
ak D cos 'k
und
bk D sin 'k > 0:
Jede Wahl von derartigen 1 ; : : : ; k und a1 ; : : : ; bk erfüllt dann auch (7.143). Der
Fall ' D 0 führt auf a D 1 und b D 0, der Fall ' D auf a D 1 und b D 0. Daher
können wir diese Werte bereits durch entsprechende Werte für die j erreichen. u
t
Bemerkung 7.100 (Drehungen). Dank des letzten Korollars haben wir nun eine
geometrische Interpretation einer orthogonalen Abbildung gefunden. Zunächst
genügt es offenbar, Rn mit dem Standardskalarprodukt sowie O 2 O.n/ zu
betrachten. Dann gibt es also zweidimensionale Unterräume von Rn in denen O
eine Drehung um einen gewissen Winkel ' ist, da die Beiträge der Form
7.8 Positivität
353
Abb. 7.2 Drehung um ' in
der .e; f/-Ebene.
Df
f
De
ϕ
ϕ
e
cos.'/ sin.'/
D.'/ D
sin.'/ cos.'/
(7.144)
gerade eine solche Drehung beschreiben, siehe Abb. 7.2. In den übrigen Richtungen
der Orthonormalbasis B aus Korollar 7.99 ist O entweder die Identität oder eine
Spiegelung. Wir sehen auch anhand von (7.141), dass det O D C1 genau dann
gilt, wenn es eine gerade Anzahl von 1 auf der Diagonalen gibt. Anderenfalls ist
det O D 1.
Kontrollfragen. Wann ist ein Endomorphismus normal und nilpotent? Wie lautet
der Spektralsatz für normale Abbildungen über C und über R? Welche zwei
unterschiedliche Beweisstrategien des Spektralsatzes kennen Sie? Wie lautet die
Normalform einer Drehung?
7.8
Positivität
In diesem Abschnitt wollen wir uns nun einem besonders wichtigen Spezialfall von
selbstadjungierten Abbildungen zuwenden, den positiven Abbildungen.
Als Motivation betrachtet man folgende Situation: Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann
betrachtet man die Abbildung
h ; i˚ W V V 3 .v; w/ 7! hv; wi˚ D hv; ˚.w/i 2 K:
(7.145)
Lemma 7.101. Die Abbildung h ; i˚ ist bilinear beziehungsweise sesquilinear.
Weiter ist h ; i˚ genau dann symmetrisch beziehungsweise Hermitesch, wenn ˚
selbstadjungiert ist.
Beweis. Da ˚ linear ist, ist w !
7
hv; ˚.w/i ebenfalls linear als Verkettung der
linearen Abbildung hv; i und ˚. Die (Anti-)Linearität im Argument v bleibt
offenbar bestehen. Für v; w 2 V gilt nun
hv; wi˚ D hv; ˚.w/i D h˚ .v/; wi D hw; ˚ .v/i:
Damit gilt genau dann hv; wi˚ D hw; vi˚ für alle v; w 2 V , wenn ˚ D ˚.
t
u
354
7 Euklidische und unitäre Vektorräume
Wir können uns also mithilfe selbstadjungierter Endomorphismen von V neue
Kandidaten für Skalarprodukte verschaffen. Um wirklich ein Skalarprodukt zu
erhalten, benötigen wir die Nichtausgeartetheit und die Positivität.
Lemma 7.102. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei ˚ 2 End.V / selbstadjungiert. Dann sind äquivalent:
i.) Die Abbildung h ; i˚ ist nicht-ausgeartet.
ii.) Die Abbildung ˚ ist invertierbar.
Beweis. Die Bilinear- beziehungsweise Sesquilinearform h ; i˚ ist genau dann
nicht-ausgeartet, wenn der zugehörige musikalische Homomorphismus [˚ W V !
V bijektiv ist, siehe Satz 7.69. Wir haben für v 2 V
v [˚ .w/ D hv; wi˚ D hv; ˚.w/i D v [ .˚.w// D v [ ı ˚ .w/ D ˚ v [ .w/
und daher v [ ı ˚ D ˚ .v [ /. Nun ist ˚ genau dann bijektiv, wenn die duale
Abbildung ˚ bijektiv ist, siehe Übung 5.37. Damit folgt die Behauptung, da
[˚
D ˚ ı [.
t
u
Für die Positivität erhalten wir direkt aus der Definition folgendes Resultat:
Lemma 7.103. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei ˚ 2 End.V / selbstadjungiert. Dann sind äquivalent:
i.) Die Abbildung h ; i˚ ist positiv semidefinit.
ii.) Für alle v 2 V gilt hv; ˚.v/i 0.
Dies ist nun die Motivation für eine der möglichen (und äquivalenten) Definitionen
von Positivität eines Endomorphismus. Alternativ könnte man ˚ 2 End.V / positiv
nennen, wenn ˚ selbstadjungiert ist und
spec.˚/ RC
0
(7.146)
gilt. Weiter könnte man ˚ positiv nennen, wenn es eine selbstadjungierte Wurzel
von ˚ gibt. Zunächst ist nicht klar, wie alle diese Konzepte zusammenhängen, wir
werden dies nun zu klären haben.
Bemerkung 7.104. Im komplexen Fall impliziert die Eigenschaft ii.) aus Lemma 7.103 die Selbstadjungiertheit, denn gilt hv; Avi 0 für alle v, so folgt für
alle v; w 2 V und z 2 C
0 hv C zw; A.v C zw/i D jzj2 hw; Awi C zhw; Avi C zhv; Awi C hv; Avi:
(7.147)
7.8 Positivität
355
Wie im Beweis der Cauchy-Schwarz-Ungleichung in Proposition 7.19 folgt
hw; Avi D hv; Awi;
(7.148)
was gerade A D A bedeutet. Im reellen Fall ist dies jedoch nicht richtig: Ist
nämlich A D AT mit hv; Avi 0 für alle v 2 V und B D B T antisymmetrisch,
so gilt hv; Bvi D hB T v; vi D hBv; vi D hv; Bvi, also hv; Bvi D 0. Damit gilt
dann für C D A C B nach wie vor hv; C vi 0, aber C T ¤ C .
Wir kommen nun zum angekündigten Vergleich der verschiedenen Begriffe
von Positivität, die in diesem Zusammenhang traditionell immer im Sinne der
Ungleichung „ 0“, aber nicht im Sinne der strikten Ungleichung „> 0“ verstanden
wird:
Satz 7.105 (Positivität). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Dann sind äquivalent:
i.)
ii.)
iii.)
iv.)
v.)
Es gilt ˚ D ˚ und hv; ˚.v/i 0 für alle v 2 V .
Es gilt ˚ D ˚ und spec.˚/ RC
0 .
Es gibt ein selbstadjungiertes 2 End.V / mit ˚ D 2 .
Es gibt ein 2 End.V / mit ˚ D .
Es gibt 1 ; : : : ; k 2 End.V / und ˛1 ; : : : ; ˛k > 0 mit
˚D
k
X
˛i i i :
(7.149)
iD1
Beweis. Wir zeigen i.) H) ii.) H) iii.) H) iv.) H) v.) H) i.). Sei also i.)
erfüllt. Da ˚ selbstadjungiert ist, können wir eine orthogonale Zerlegung der Eins
P1 ; : : : ; Pk 2 End.V / und reelle Eigenwerte 1 ; : : : ; k 2 R mit
˚D
k
X
i P i
iD1
finden. Sei nun vj 2 im Pj ein Eigenvektor ungleich null. Dann gilt also Pi vj D
ıij vj und daher
hvj ; ˚vj i D
k
X
i hvj ; Pi vj i D j hvj ; vj i:
iD1
Da hvj ; vj i > 0, folgt j 0 und damit i.) H) ii.). Sei nun ˚ selbstadjungiert
mit spec.˚/ RC
0 , und seien P1 ; : : : ; Pk die Spektralprojektoren von ˚. Dann
definieren wir die Wurzel aus ˚ durch
356
7 Euklidische und unitäre Vektorräume
k p
X
p
˚D
i P i ;
iD1
wobei spec.˚/ D f1 ; : : : ; k g. Dies ist p
aufgrund von i 0 möglich und liefert
wieder eine selbstadjungierte Abbildung ˚ 2 End.V /, da
k p
k p
X
p
p X
i P i D
i Pi D ˚:
. ˚/ D
iD1
iD1
Weiter gilt mit dem polynomialen Kalkül für
p
˚
p p
˚ ˚ D˚
p
˚. Die nächste
nach Bemerkung 6.88. Daher erreichen wir iii.) mit D
Implikation iii.) H) iv.) ist trivial, da wir dasselbe D verwenden können.
Auch iv.) H) v.) ist trivial, da wir k D 1; ˛1 D 1 und 1 D setzen können. Es
gelte nun also v.). Sei dann v 2 V . Dann gilt
X
X
k
k
k
X
˛i i i v D
˛i hv; i i vi D
˛i hi v; i vi 0;
hv; ˚vi D v;
iD1
iD1
iD1
da ˛i > 0 und hi v; i vi D ki vk2 0 aufgrund der Positivität des Skalarprodukts. Also gilt auch v.) H) i.), weil offensichtlich ˚ D ˚ .
t
u
Definition 7.106 (Positiver Endomorphismus). Sei V ein endlich-dimensionaler
euklidischer oder unitärer Vektorraum und ˚ 2 End.V /. Erfüllt ˚ eine (und damit
alle) der äquivalenten Eigenschaften aus Satz 7.105, so heißt ˚ positiv.
Bemerkung 7.107. Gilt zudem, dass ˚ invertierbar ist, so heißt ˚ positiv definit.
Dies ist dann beispielsweise dazu äquivalent, dass alle Eigenwerte 1 ; : : : ; k von
˚ sogar echt positiv sind und nicht nur i 0 erfüllen. Der Fall V D Kn
führt dank End.Kn / Š Mn .K/ auf den Begriff der positiven beziehungsweise
positiv definiten Matrix. Man beachte, dass für K D C dank Bemerkung 7.104
die Selbstadjungiertheit in Satz 7.105, i.), bereits aus hv; ˚vi 0 für alle v 2 V
folgt und daher nicht extra gefordert werden muss. Im reellen Fall muss dies jedoch
getan werden.
Bemerkung 7.108 (Quantenmechanik). Auch wenn für die Quantenmechanik unendlich-dimensionale Hilbert-Räume erforderlich sind, ist folgende Begriffsbildung
in einem endlich-dimensionalen Modell gleichermaßen gültig. Man betrachte V D
Cn mit dem Standardskalarprodukt. Die Zustände eines quantenmechanischen
Systems werden dann mit Vektoren in V nf0g identifiziert, wobei zwei Vektoren
7.8 Positivität
357
v; w 2 V nf0g denselben Zustand beschreiben sollen, wenn es ein z 2 C mit
v D zw gibt. Dies ist für Vektoren aus V nf0g offenbar eine Äquivalenzrelation.
Die Observablen des Systems, also diejenigen physikalischen Größen, die sich
messen lassen (Energie, Impuls, etc.), werden dann durch normale oder sogar
selbstadjungierte Endomorphismen A 2 End.V / beschrieben. Die möglichen
Messwerte einer Observablen sind durch die Spektralwerte spec.A/ gegeben, in
unserem einfachen Modell also durch die endlich vielen Eigenwerte von A. Wir
schreiben wie immer
k
X
AD
i P i
(7.150)
iD1
mit den Spektralprojektoren Pi von A. Die tatsächliche Messung von A im Zustand
v liefert nun zufällig einen der Eigenwerte als Resultat: Dies ist der berühmte
wahrscheinlichkeitstheoretische Aspekt der Quantenmechanik. Allerdings ist diese
Zufälligkeit doch gewissen Regeln unterworfen, denn bei oftmaliger Wiederholung
der Messung stellt sich ein Erwartungswert der Resultate ein, der durch
Ev .A/ D
hv; Avi
hv; vi
(7.151)
gegeben ist. Man beachte, dass Ev nur von der Äquivalenzklasse von v, also vom
Zustand, abhängt. Eine leichte Rechnung zeigt nun
Ev .A/ D
k
X
i
iD1
hv; Pi vi
;
hv; vi
(7.152)
und die Projektoreigenschaft liefert
hv; Pi vi D hPi v; Pi vi D kPi vk2 0
(7.153)
sowie
kvk2 D
k
X
kPi vk2 ;
(7.154)
iD1
nach dem Satz des Pythagoras, da ja die Vektoren Pi v paarweise orthogonal stehen.
Dies erlaubt nun folgende Definition einer Wahrscheinlichkeitsverteilung: Man setzt
pi D hv; Pi vi:
(7.155)
Aus (7.154) und (7.153) folgt dann also
0 pi
und
k
X
iD1
pi D 1:
(7.156)
358
7 Euklidische und unitäre Vektorräume
Damit können wir die Zahlen pi als Wahrscheinlichkeiten interpretieren, bei
einer Messung von A im Zustand v tatsächlich den Messwert i zu finden. Die
Gleichung (7.151) wird dann zu
Ev .A/ D
k
X
i p i ;
(7.157)
iD1
also tatsächlich zum Erwartungswert bezüglich der Wahrscheinlichkeitsverteilung,
die durch die p1 ; : : : ; pk gegeben ist. Die Physik zeigt nun, dass diese Interpretation
der Wirklichkeit gerecht wird. Der Zusammenhang zu unseren Positivitätsbegriffen
ergibt sich nun folgendermaßen: Als „Quadrat“ soll die selbstadjungierte Observable A A für ein beliebiges A nichtnegative Erwartungswerte und auch nichtnegative
Messwerte liefern. Dies ist gerade die Implikation iv.) H) ii.) sowie iv.) H) i.),
wobei wir ja sogar Äquivalenz vorliegen haben.
Wir nehmen diese quantenmechanischen Interpretationen von unserer Spektraltheorie und den Positivitätseigenschaften nun als Motivation für folgende Definition:
Definition 7.109 (Zustand). Sei n 2 N. Ein Zustand ! von Mn .C/ ist eine lineare
Abbildung
!W Mn .C/ ! C
(7.158)
mit
!.1/ D 1 und
!.A A/ 0
(7.159)
für alle A 2 Mn .C/. Eine analoge Definition erfolgt für End.V / mit einem beliebigen endlich-dimensionalen unitären Vektorraum.
Beispiel 7.110 (Zustände). Für v 2 Cn nf0g ist
Ev W Mn .C/ 3 A 7! Ev .A/ D
hv; Avi
2C
hv; vi
(7.160)
ein Zustand. Dies sind gerade die in Bemerkung 7.108 diskutierten Eigenschaften.
Die quantenmechanische Interpretation wird hier also zum Prinzip erhoben: Der
physikalische Zustand, beschrieben durch v, wird mit dem Erwartungswertfunktional Ev identifiziert.
Proposition 7.111. Seien !1 ; !2 W Mn .C/ ! C Zustände und 1 ; 2 2 R mit
1 ; 2 0 und 1 C 2 D 1. Dann ist die konvexe Kombination
! D 1 !1 C 2 !2
(7.161)
7.8 Positivität
359
ebenfalls ein Zustand.
Beweis. Da die linearen Abbildungen Hom.Mn .C/; C/ D Mn .C/ einen Vektorraum, nämlich den Dualraum von Mn .C/, bilden, ist ! wieder linear. Weiter gilt
!.1/ D 1 !1 .1/ C 2 !2 .1/ D 1 C 2 D 1;
sowie für A 2 Mn .C/
!.A A/ D 1 !1 .A A/ C 2 !2 .A A/ 0;
da sowohl 1 ; 2 0 als auch !1=2 .A A/ 0.
t
u
Die Zustände von Mn .C/ bilden also eine konvexe Menge im Dualraum Mn .C/ .
Wir können diese konvexe Menge nun vollständig charakterisieren. Dazu benötigen
wir den Begriff der Dichtematrix:
Definition 7.112 (Dichtematrix). Eine Matrix 2 Mn .C/ heißt Dichtematrix,
falls positiv ist und tr D 1 für die Spur von gilt.
Satz 7.113 (Zustände von Mn .C/). Sei n 2 N. Ein lineares Funktional ! 2
Mn .C/ ist genau dann ein Zustand, wenn es eine Dichtematrix 2 Mn .C/ gibt,
sodass für alle A 2 Mn .C/
!.A/ D tr.A/:
(7.162)
Beweis. Sei zunächst eine Dichtematrix und ! gemäß (7.162) definiert. Dann ist
! linear, da die Spur ein lineares Funktional und die Matrixmultiplikation A 7! A
ebenfalls linear im zweiten Argument ist. Weiter gilt
!.1/ D tr.1/ D tr D 1
nach der Definition einer Dichtematrix. Es bleibt also, die Positivität zu zeigen.
Zuerst zeigen wir für jedes A 2 Mn .C/
tr.A A/ D
n
X
iD1
.A A/i i D
n X
n
X
iD1 kD1
Aik Aki D
n
X
k;iD1
Aki Aki D
n
X
jAki j2 0:
k;iD1
Damit ist der Beweis für den Spezialfall D 1 erbracht. Für eine beliebige
Dichtematrix schreiben wir D B B für ein geeignetes B 2 Mn .C/ nach
Satz 7.105, iv.). Dann gilt
!.A A/ D tr.A A/ D tr.B BA A/ D tr.BA AB / D tr..AB / AB / 0;
360
7 Euklidische und unitäre Vektorräume
wobei wir im dritten Schritt verwendet haben, dass tr.AB/ D tr.BA/ gilt. Damit ist
! also ein Zustand. Wir zeigen nun zunächst folgendes Resultat: Für jedes lineare
Funktional !W Mn .C/ ! C gibt es eine eindeutig bestimmte Matrix 2 Mn .C/,
sodass ! D tr. /. Zum Beweis dieser Aussage schreiben wir A 2 Mn .C/ bezüglich
der Basis fEij gi;j D1;:::;n der Elementarmatrizen wie in Proposition 5.55, i.). Es gilt
also
AD
n
X
Aij Eij
i;j D1
für A D .Aij /i;j D1;:::;n . Dann gilt
0
!.A/ D ! @
n
X
1
n
X
Aij Eij A D
i;j D1
Aij !.Eij /:
i;j D1
Wir setzen nun D .rs /r;sD1;:::;n mit
rs D !.Esr /:
Dann gilt also
!.A/ D
n
X
Aij j i D
i;j D1
n
X
.A/i i D tr.A/ D tr.A/;
iD1
womit wir die Behauptung gezeigt haben. Offenbar ist eindeutig bestimmt. Wenn
nun ! zudem ein Zustand ist, so gilt also
1 D !.1/ D tr.1/ D tr und
0 !.A A/ D tr.A A/ D tr.AA /
für alle A 2 Mn .C/. Sei nun v 2 Cn , dann betrachten wir die spezielle Matrix
0
0 0
1
A und somit
AD@
v1 vn
0
0
B
A D @ :::
0
1
v1
:: C:
:A
vn
Wir berechnen die Matrix AA für diesen Spezialfall explizit und erhalten
A D .0; : : : ; 0; v/ D .0; : : : ; 0; v/
7.8 Positivität
361
sowie
0
0
B ::
AA D @ :
0
1
1
v1 0 0 0 1 00 0
:: C@
A:
AD@
:A
0 hv; vi
v1 vn
vn
Daher gilt also tr.AA / D hv; vi. Aus !.A A/ 0 folgt daher insbesondere für
alle v 2 V die Ungleichung hv; vi 0, womit nach Satz 7.105, i.), positiv
ist. Man beachte, dass wir wegen K D C die Selbstadjungiertheit nicht extra
prüfen müssen. Zusammen mit der Normierung tr D 1 ist also tatsächlich eine
Dichtematrix.
t
u
Korollar 7.114. Sei n 2 N. Eine Matrix A 2 Mn .C/ ist genau dann positiv, wenn
für alle Zustände ! von Mn .C/ gilt, dass
!.A/ 0:
(7.163)
Beweis. Dies ist einfach: Ist A positiv, so gilt A D B B für ein geeignetes B 2
Mn .C/ und daher !.A/ D !.B B/ 0. Gilt umgekehrt (7.163) für alle positiven
0 für
!, so erst recht für ! D Ev mit v 2 Cn nf0g. Daher folgt Ev .A/ D hv;Avi
hv;vi
n
alle v 2 C nf0g, was die Positivität von A bedeutet.
t
u
Quantenmechanisch interpretiert heißt dies, dass die Observable A genau dann
positiv ist, wenn wir nachmessen können, dass sie positiv ist.
Nach diesem Exkurs in die Gefilde der Quantenmechanik wollen wir noch einige
weitere Eigenschaften positiver Endomorphismen diskutieren.
p
Satz 7.115 ( A, jAj, AC und A ). Sei V ein endlich-dimensionaler euklidischer
oder unitärer Vektorraum, und sei A 2 End.V / ein Endomorphismus.
p
i.) Ist A positiv, so gibt es eine eindeutigp
bestimmte positive Wurzel
A von A,
p 2
also einen positiven Endomorphismus A 2 End.V / mit . A/ D A.
ii.) Ist A selbstadjungiert, so gibt es eindeutig bestimmte positive Endomorphismen
AC ; A 2 End.V / mit
A D AC A
und
AC A D 0 D A AC :
(7.164)
iii.) Ist A selbstadjungiert, so gibt es einen eindeutig bestimmten positiven Endomorphismus jAj 2 End.V / mit
jAj2 D A2 :
(7.165)
jAj D AC C A
(7.166)
iv.) Für ein selbstadjungiertes A gilt
362
7 Euklidische und unitäre Vektorräume
und
A˙ D
1
.jAj ˙ A/:
2
(7.167)
Beweis. Sei A positiv. Da A selbstadjungiert ist, können wir
AD
k
X
i P i
(7.168)
iD1
gemäß Satz 7.86 beziehungsweise Korollar 7.97 schreiben. Es gilt dann i 0.
Daher setzen wir
k p
X
p
AD
i Pi ;
iD1
p
was
der positiven Wurzel zeigt. Man beachte, dass spec. A/ D
p die Existenz
p
f 1 ; : : : ; k g 2 RC
0 , siehe Proposition 6.87. Sei nun B D B eine andere
positive Wurzel. Es gibt daher eine orthogonale Zerlegung Q1 ; : : : ; Q` der Eins
sowie 1 ; : : : ; ` 0 mit
BD
X̀
j Qj :
j D1
Da A D B 2 gelten soll, finden wir
AD
X̀
2j Qj
j D1
gemäß des polynomialen Kalküls aus Bemerkung 6.88. Da j 0 folgt 2j ¤
2j 0 für j ¤ j 0 . Die Eindeutigkeit der Spektralzerlegung (7.168) gemäß Bemerkung 6.104 zeigt dann, dass k D ` und die Q1 ; : : : ; Qk bis auf Umnummerierung
p
gerade die P1 ; : : : ; Pk sein müssen, sowie i D 2i . Also gilt B D A, was
den ersten Teil zeigt. Für den zweiten Teil schreiben wir A D A wieder in der
Form (7.168), wobei nun jedoch über die Vorzeichen von 1 ; : : : ; k keine Aussage
gemacht werden kann. Wir setzen
AC D
X
i 0
i P i
und
A D X
i 0
i P i D
X
.i /Pi :
i 0
Dann gilt
ˇ
˚
spec.AC / D i 2 spec.A/ ˇ i 0 RC
0
(7.169)
7.8 Positivität
363
und
ˇ
˚
spec.A / D i ˇ i 2 spec.A/; i 0 RC
0 ;
womit AC und A beide positiv sind. Man beachte, dass (7.169) eventuell noch
nicht die Spektralzerlegung ist, da den jeweiligen Projektoren in AC beziehungsweise A gerade die anderen zu P1 C C Pk D 1 fehlen. Daher muss man
noch um den jeweiligen Rest ergänzen und dies zum dann vorhandenen Eigenwert
0 hinzunehmen. Die Eigenschaft A D AC A ist klar nach Konstruktion. Weiter
gilt
AC A D
X
i 0
i P i
X
.j /Pj D j 0
X
i j P i P j D i 0
j 0
X
2i Pi D 0;
i D0
da Pi Pj D ıij . Analog zeigt man A AC D 0. Damit ist die Existenz gezeigt. Für
den dritten Teil setzen wir
k
X
jAj D
ji jPi D AC C A ;
iD1
womit die Existenz von jAj mit (7.165) folgt. Die Eigenschaften (7.166) und (7.167)
sind dann klar. Es bleibt die Eindeutigkeit von jAj; AC ; A zu zeigen. Sei zunächst
B positiv mit B 2 D A2 . DapA2 D A A ebenfalls immer positiv ist, ist nach i.) der
Endomorphismus
B durch A2 gegeben und daher eindeutig bestimmt. Also folgt
p
2
B D A D jAj. Seien nun positive BC und B mit BC B D 0 D B BC und
A D BC B gegeben. Dann gilt
A2 D .BC B /.BC B /
2
BC B B BC C B2
D BC
2
D BC
C B2
2
D BC
C BC B C BC B C B2
D .BC C B /2 :
Da BC C B nach Satz 7.105, v.), wieder positiv ist, folgt aus der Eindeutigkeit von
jAj gemäß iii.) sofort BC C B D jAj. Zusammen mit A D BC B folgt aber
t
u
B˙ D 12 .jAj ˙ A/ D A˙ .
p
Definition 7.116 (Die Abbildungen
A; jAj; AC ; A ). Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum, und sei A D A 2 End.V /.
364
7 Euklidische und unitäre Vektorräume
p
i.) Ist A positiv, so heißt A die positive Wurzel von A.
ii.) Die Abbildung jAj heißt der Absolutbetrag von A, die Abbildungen AC und A
heißen Positiv- und Negativteil von A.
Beispiel 7.117. Wir betrachten ein einfaches Beispiel, um alle Größen exemplarisch zu berechnen. Sei
0 i
AD
2 M2 .C/:
(7.170)
i 0
Offenbar gilt A D A , sodass wir also A in AC und A zerlegen können. Wir
berechnen A A explizit zu
0 i
0 i
0 i
10
0 i
A AD
D
D
D 1:
i 0
i 0 i 0
01
i 0
(7.171)
Damit ist also
jAj D 1;
(7.172)
da 1 wegen 1 D 1 1 sicherlich eine positive Matrix ist und 12 D A A gilt. Nach
der Eindeutigkeit von jAj folgt so (7.172). Dies erlaubt es nun AC und A auf
einfache Weise zu berechnen: Mit (7.167) erhalten wir
1
1
1
0 i
˙ 2i
2
A˙ D .jAj ˙ A/ D
1˙
D
:
i 0
2i 12
2
2
(7.173)
Zur Kontrolle rechnen wir nach, dass
AC A D
1
2
i
2
i 1
2 2
1
2
i
2
2i
1
2
0 i
D
:
i 0
Weiter gilt für v 2 C2
1
v1
v1
˙i
; 2 i 12
v2
2 2
v2
v1
v1
˙ iv22
2
;
D
iv1
v2
2 C v22
hv; A˙ vi D
1
1
v1 .v1 ˙ iv2 / C v2 .iv1 C v2 /
2
2
1
i
i
1
D jv1 j2 ˙ v1 v2 v2 v1 C jv2 j2
2
2
2
2
D
(7.174)
7.8 Positivität
365
1 2
jv1 j C jv2 j2 2jv1 v2 j
2
1
D .jv1 j jv2 j/2 :
2
(7.175)
Damit sehen wir also die Positivität von A˙ explizit.
Wir können die Definition von jAj auf beliebige lineare Abbildungen ausdehnen.
Dazu betrachten wir folgende Vorüberlegung:
Lemma 7.118. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume, und sei A 2 Hom.V; W /. Dann sind die Abbildungen A A 2 End.V /
und AA 2 End.W / positiv.
Beweis. Man beachte, dass wir nicht direkt das Kriterium aus Satz 7.105, iv.),
anwenden können, da AW V ! W kein Endomorphismus von V ist. Mit
Satz 7.105, i.), gelingt der Nachweis jedoch mühelos: Offenbar ist sowohl A A
als auch AA nach den Rechenregeln für die Adjunktion selbstadjungiert. Weiter
gilt für v 2 V
hv; A AviV D hAv; AviW 0
sowie
hw; AA wiW D hA w; vA wiV 0
für w 2 W .
t
u
Definition 7.119 (Absolutbetrag). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann heißt
jAj D
p
A A 2 End.V /
(7.176)
der Absolutbetrag von A.
Man beachte, dass A eine Abbildung von V nach W ist, während jAj ein
Endomorphismus
von V ist. Alternativ hätten wir den Absolutbetrag auch als
p
AA und damit als Endomorphismus von W definieren können. Damit werden
jedoch lediglich die Rollen von A und A vertauscht, sodass wir uns hier getrost für
eine Variante entscheiden können. Man beachte aber, dass im Allgemeinen
jAj ¤ jA j:
(7.177)
366
7 Euklidische und unitäre Vektorräume
Ist V ¤ W , so gilt ja jAj 2 End.V /, während jA j 2 End.W /. Aber selbst wenn
V D W gilt, stimmen jAj und jA j im Allgemeinen nicht überein:
Lemma 7.120. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V /. Dann sind äquivalent:
i.) Der Endomorphismus A ist normal.
ii.) Es gilt jAj D jA j.
p
Beweis.
Sei A normal, also AA D A A. Damit gilt natürlich jAj D A A D
p
AA D jA j. Ist umgekehrt jAj D jA j, so gilt auch A A D jAj2 D jA j2 D
AA .
t
u
Proposition 7.121. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume und A 2 Hom.V; W /. Dann gilt
kjAjvk D kAvk
(7.178)
für alle v 2 V und somit insbesondere
kerjAj D ker A:
(7.179)
Beweis. Die zweite Behauptung (7.179) folgt sofort aus der ersten (7.178). Um
erstere zu zeigen, sei also v 2 V . Dann gilt
kAvk2 D hAv; Avi D hv; A Avi D hv; jAj2 vi D hjAjv; jAjvi D kjAjvk2 :
Man beachte jedoch, dass Av 2 W , während jAjv 2 V .
t
u
Kontrollfragen. Welche äquivalenten Formulierungen von Positivität kennen Sie
(mindestens 4)? Was ist eine Dichtematrix? Wie können Sie jAj für eine komplexe
Matrix A definieren?
7.9
Die Polarzerlegung und ihre Varianten
In diesem Abschnitt wollen wir uns dem Problem zuwenden, einer linearen Abbildung AW V ! W eine besonders einfache Form zu geben. Im Allgemeinen ist nicht
klar, was man damit meinen könnte, außer man fordert die Smith-Normalform. Im
Falle euklidischer oder unitärer Vektorräume können wir aber etwas mehr erreichen.
Wir werden die Existenz von Adjungierten benötigen, weshalb die folgenden
Aussagen für uns nur für endlich-dimensionale Vektorräume beweisbar sind. Sie
besitzen aber alle nichttriviale Verallgemeinerungen für Hilbert-Räume beliebiger
Dimension.
7.9 Die Polarzerlegung und ihre Varianten
367
Wir beginnen mit folgender allgemeinen Überlegung zu Kern und Bild des adjungierten Homomorphismus:
Proposition 7.122. Seien V und W endlich-dimensionale euklidischen oder unitäre Vektorräume und A 2 Hom.V; W /. Dann gilt
.ker A/? D im.A /
und
.im A/? D ker.A /:
(7.180)
Beweis. Sei v D A w 2 im.A /, dann gilt also für alle u 2 ker A
hv; uiV D hA w; uiV D hw; AuiW D 0;
womit im.A / .ker A/? gezeigt ist. Nach Proposition 7.31, iv.), folgt damit auch
ker A .im A /? :
(7.181)
Sei nun v 2 .im A /? , womit also für alle w 2 W
0 D hv; A wiV D hAv; wiW :
Da h ; iW nicht-ausgeartet ist, folgt Av D 0 und daher v 2 ker A. Dies zeigt
.im A /? ker A;
sodass also in (7.181) Gleichheit gilt. Wir haben im.A /? D ker A gezeigt. Ein
Vertauschen von A und A liefert dann die zweite Gleichung in (7.180). Die erste
erhält man aus Korollar 7.37
.ker A/? D .im A /?? D im A ;
da wir annehmen, V sei endlich-dimensional.
t
u
Korollar 7.123. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume, und sei A 2 Hom.V; W /. Dann gilt
ker A ˚ im A D V
und
im A ˚ ker A D W
(7.182)
als orthogonale Summen.
Beweis. Dies folgt aus Proposition 7.122 zusammen mit Korollar 7.37.
t
u
Sind V und W endlich-dimensionale euklidische oder unitäre Vektorräume, so
gibt es genau dann eine orthogonale beziehungsweise unitäre Abbildung von V nach
368
7 Euklidische und unitäre Vektorräume
W , wenn die Dimensionen von V und W übereinstimmen. Wir wollen nun einen
etwas weniger strikten Begriff verwenden, den der partiellen Isometrie.
Definition 7.124 (Partielle Isometrie). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume. Eine Abbildung U W V ! W heißt partielle
Isometrie, falls
ˇ
U ˇ.ker U /? W .ker U /? ! im U
(7.183)
ein isometrischer Isomorphismus ist.
Eine partielle Isometrie ist also im Allgemeinen weder injektiv noch surjektiv.
Wir können nun partielle Isometrien auf folgende Weise mit orthogonalen Projektoren in Beziehung bringen:
Proposition 7.125. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume, und sei U 2 Hom.V; W /. Dann sind äquivalent:
i.) Die Abbildung U ist eine partielle Isometrie.
ii.) Die Abbildung P D U U ist ein orthogonaler Projektor.
iii.) Die Abbildung U ist eine partielle Isometrie.
In diesem Fall gilt
U U D Pim U D P.ker U /?
(7.184)
U U D Pim U D P.ker U /? :
(7.185)
und
Beweis. Wir zeigen zunächst die Äquivalenz von i.) zu ii.). Dazu verwenden wir die
orthogonale Zerlegung von V in
V D ker U ˚ .ker U /? ;
(7.186)
wobei wir schon .ker U /? D im U wissen. Sei zunächst U eine partielle Isometrie
und v; u 2 V . Dann gilt für die Parallel- und Orthogonalkomponente von v
bezüglich (7.186) zunächst U vk D 0 sowie
hv? ; u? iV D hU v? ; U u? iW D hv? ; U U u? iV :
ˇ
Da h ; iV positiv definit ist, ist h ; iˇker U ? ker U ? immer noch nicht-ausgeartet.
Daher folgt
u? D U U u?
7.9 Die Polarzerlegung und ihre Varianten
369
für alle u 2 V . Insgesamt liefert dies für v D vk C v? 2 V
U U v D v? D P.ker U /? v;
was U U D P.ker U /? zeigt. Damit folgt (7.184) und somit i.) H) ii.). Sei
umgekehrt P D U U ein orthogonaler Projektor. Dann gilt im P im U D
.ker U /? sowie ker P ker U . Sei also v 2 ker P , dann gilt
0 D hv; U U viV D hU v; U viW D kU vk2W
und somit U v D 0. Dies zeigt ker P ker U und damit ker P D ker U .
Aus (7.186) und der orthogonalen Zerlegung
V D ker P ˚ im P D ker U ˚ im P
gemäß Proposition 7.79 folgt nun direkt im P D .ker U /? . Damit ist also auch
unter der Voraussetzung ii.) die Gleichung (7.184) richtig. Seien also nun wieder
v; u 2 V gegeben, dann gilt
hU v? ; U u? iW D hv? ; U U u? iV D hv? ; P.ker U /? u? iV D hv? ; u? iV ;
womit U auf .ker U /? isometrisch ist. Damit ist U aber ein isometrischer Isomorphismus von .ker U /? nach im U , was ii.) H) i.) zeigt. Es gelte nun i.) und damit
auch ii.). Dann gilt
U U U D Pim U U D U ;
da Pim U ja auf .ker U /? D im U projiziert. Daher folgt
U U U U D U U ;
womit Q D U U ebenfalls ein orthogonaler Projektor ist. Also ist U eine partielle
Isometrie. Durch Vertauschen der Rollen von U und U erhält man dann so auch
die verbleibende Implikation iii.) H) ii.). Die Gleichung (7.185) gilt dann aus
Symmetriegründen.
t
u
Wir können nun die Polarzerlegung eines Endomorphismus betrachten. Letztlich
werden folgende einfache Ideen auf höhere Dimensionen verallgemeinert: Ist 2 R
eine reelle Zahl, so gilt
D sign./jj;
(7.187)
und für ¤ 0 ist sign./ 2 f˙1g D O.1/ und jj > 0. Analog kann man eine
komplexe Zahl z 2 Cnf0g als
zD
z
jzj
jzj
(7.188)
370
7 Euklidische und unitäre Vektorräume
schreiben, wobei wieder jzj > 0 und die Phase jzjz 2 S1 als unitäre 1 1-Matrix
interpretiert werden kann. Es gilt ja offenbar
ˇ
˚
(7.189)
S1 D U.1/ D z 2 C ˇ jzj D 1 ;
denn die Unitaritätsbedingung wird in n D 1 Dimensionen gerade zu zz D 1.
Dies legt nun nahe, auch für beliebige Matrizen A 2 Mn .K/ eine Faktorisierung
in eine orthogonale beziehungsweise unitäre „Phase“ und einen positiven „Betrag“
zu suchen. Bereits für reelle oder komplexe Zahlen ist der Fall D 0 oder z D 0
problematisch und erfordert eine Fallunterscheidung: Die Phase ist letztlich unbestimmt. Dies wird bei nichtinvertierbaren Matrizen ebenfalls zu Schwierigkeiten
führen.
Wir beginnen nun mit folgender ersten Variante der Polarzerlegung:
Satz 7.126 (Polarzerlegung I). Sei V ein endlich-dimensionaler euklidischer oder
unitärer Vektorraum, und sei A 2 End.V / invertierbar. Dann gibt es eine eindeutig
bestimmte Isometrie U 2 End.V / mit
A D U jAj:
(7.190)
Beweis. Mit A ist auch A invertierbar, da .A /1 D .A1
p/ . Somit ist A A inver
tierbar und besitzt daher eine invertierbare Wurzel jAj D A A. Dies folgt aus der
Spektralzerlegung von A A. Damit ist U 2 End.V / mit (7.190) eindeutig als
U D AjAj1
(7.191)
bestimmt. Dieses U ist auch isometrisch, denn
U U D AjAj1 AjAj1 D jAj1 A AjAj1 D jAj1 jAj2 jAj1 D 1:
In endlichen Dimensionen ist ein isometrischer Endomorphismus zudem eine Bijektion. Dies ist auch direkt zu sehen, da U ein Produkt (7.191) von zwei invertierbaren
Endomorphismen ist.
t
u
Der Nachteil dieser Variante ist, dass die Voraussetzung, einen invertierbaren
Endomorphismus zu haben, für verschiedene Anwendungen deutlich zu restriktiv
ist. Wir kommen daher zu folgender zweiten Variante der Polarzerlegung. Hier ist
die Voraussetzung eine andere:
Satz 7.127 (Polarzerlegung II). Sei V ein endlich-dimensionaler euklidischer
oder unitärer Vektorraum, und sei A 2 End.V / ein normaler Endomorphismus.
Dann gibt es eine Isometrie U 2 End.V / mit
A D U jAj;
(7.192)
7.9 Die Polarzerlegung und ihre Varianten
371
sodass A, U und jAj paarweise vertauschen.
Beweis. Seien 1 ; : : : ; k 2 C die paarweise verschiedenen Eigenwerte von A
mit zugehörigen Spektralprojektoren P1 ; : : : ; Pk . Ist A invertierbar, so sind alle i
von null verschieden. Ist A nicht invertierbar, so ist ein Eigenwert null, und der
zugehörige Projektor ist der Orthogonalprojektor auf ker A. Wir definieren U nun
durch
k
k
X
X
i
Pi D
zi Pi
ji j
iD1
iD1
U D
mit zi D
i
,
ji j
falls A invertierbar ist, und
U D
k
k
X
X
i
Pi C P1 D
zi Pi ;
ji j
iD2
iD1
falls A nicht invertierbar ist, und 1 D 0, was wir durch Umsortieren ja problemlos
erreichen können. In letzterem Fall setzen wir z1 D 1. In beiden Fällen gilt
X
k
U U D
zi Pi
X
k
j D1
iD1
k
X
D
zj Pj
zi zj Pi Pj
i;j D1
k
X
jzi j2 Pi
D
iD1
k
X
D
Pi
iD1
D 1;
da die P1 ; : : : ; Pk eine orthogonale Zerlegung der Eins bilden und die Vorfaktoren
in beiden Fällen den Betrag 1 haben. Also ist U isometrisch und daher insbesondere
ein isometrischer Isomorphismus. Schließlich gilt
U jAj D
X
k
iD1
zi Pi
X
k
jj jPj
j D1
D
k
X
i;j D1
zi ji jPi Pj D
k
X
zi ji jPi :
iD1
Ist A invertierbar, so gilt zi ji j D i für alle i D 1; : : : ; k nach Konstruktion. Ist A
nicht invertierbar, so gilt speziell für i D 1
372
7 Euklidische und unitäre Vektorräume
z1 j1 j D 1 0 D 0 D 1 ;
womit auch hier z1 j1 j D 1 verwendet werden kann. Also folgt U jAj D A in
beiden Fällen. Da sowohl U als auch jAj in diesem Fall durch den polynomialen
Kalkül aus A gewonnen werden, vertauschen alle drei Abbildungen untereinander.
Der reelle Fall erfordert eine kleine Zusatzüberlegung.
t
u
Bemerkung 7.128. Sei A 2 End.V / normal. Dann ist U 2 End.V / gemäß
Satz 7.127 nicht eindeutig: Für A D 0 etwa können wir jede isometrische Abbildung
verwenden. Die Phase ist also nicht eindeutig bestimmt. Ist A dagegen normal
und invertierbar, so stimmen die beiden Isometrien aus Satz 7.126 und Satz 7.127
überein.
Die dritte Variante macht nun keinerlei Voraussetzungen mehr über A. Hier können wir sogar eine Abbildung zwischen verschiedenen euklidischen oder unitären
Vektorräumen betrachten. Um auch in diesem Fall eine Eindeutigkeit der Phase
zu erreichen, müssen wir partielle Isometrien anstelle von Isometrien als Phase
zulassen.
Satz 7.129 (Polarzerlegung III). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann gibt es eine
eindeutige partielle Isometrie U 2 Hom.V; W / mit
A D U jAj
und
ker U D ker A:
(7.193)
p
Beweis. Hier ist jAj D A A 2 End.V / wieder der Betrag von A als positiver
Endomorphismus im Sinne von Definition 7.119 festgelegt. Wir wissen nach
Proposition 7.121, dass Av D 0 genau dann gilt, wenn jAjv D 0. Wir betrachten
nun das Bild imjAj V ˇund die zugehörige orthogonale Zerlegung V D imjAj ˚
.imjAj/? . Wir setzen U ˇ.imjAj/? D 0. Da .imjAj/? D kerjAj D kerjAj nach
Proposition 7.122 und jAj D jAj, haben wir ker U D kerjAj D ker A. Es bleibt
also, U isometrisch auf imjAj zu definieren. Sei v 2 imjAj, dann gibt es also ein
u 2 V mit v D jAju. Ist u0 2 V ebenfalls solchˇ ein Vektor mit v D jAju0 , so gilt
u u0 2 kerjAj D ker A. Dies erlaubt es nun, U ˇimjAj W imjAj ! W durch
U v D U jAju D Au
zu definieren. Man beachte, dass U v nicht von der Wahl von u mit ˇv D Au abhängt,
ansonsten wäre U ja nicht wohldefiniert. Wir behaupten, dass U ˇimjAj isometrisch
ist. Dies ist eine einfache Rechnung, da
kU vk D kU jAjuk D kAuk D kjAjuk D kvk
7.9 Die Polarzerlegung und ihre Varianten
373
nach Proposition 7.121. Insgesamt ist U daher eine partielle Isometrie mit ker U D
ker A. Es bleibt, die Zerlegung (7.193) zu zeigen. Sei also v 2 V beliebig, dann ist
jAjv 2 imjAj und daher
U jAjv D Av;
wie gewünscht. Dies zeigt die Existenz. Ist nun U 0 2 Hom.V; W / eine weitere
partielle Isometrie mit (7.193), so gilt für v 2 V mit v D vk C v? bezüglich der
Zerlegung V D imjAj ˚ .imjAj/? wegen ker U 0 D ker A D .imjAj/?
U 0 v D U 0 .vk C v? / D U 0 vk D U 0 jAju D Au D U v;
wenn u 2 V ein Vektor mit vk D jAju ist. Damit gilt also U 0 D U .
t
u
Die verschiedenen Polarzerlegungen besitzen vielfältige Anwendungen und Verallgemeinerungen: Ohne auf die Details einzugehen, sei gesagt, dass es unendlichdimensionale Varianten für Hilbert-Räume gibt, sowie gänzlich abstrakte Versionen
für C -Algebren. Weiterführende Literatur hierzu findet man beispielsweise unter
[20, Chap. 12] oder [22, Abschnitt VI.3].
In der dritten Version können wir nicht sinnvoll sagen, dass A, jAj, und U
miteinander vertauschen, da es sich ja um Abbildungen zwischen verschiedenen
Vektorräumen handelt. Es gibt aber eine analoge Aussage zur Kommutativität. Dazu
betrachten wir zunächst folgendes Lemma:
Lemma 7.130. Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Sind B 2 End.W / und C 2 End.V / beide
selbstadjungiert mit BA D AC , so gilt
BAA D AA B
und
CA A D A AC:
(7.194)
Beweis. Dies rechnet man mittels
BAA D ACA D A.AC / D A.AC / D A.BA/ D AA B D AA B
und
CA A D .AC / A D .AC / A D .BA/ A D A B A D A BA D A AC
einfach nach.
t
u
Proposition 7.131. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume, und sei A 2 Hom.V; W /. Sind B 2 End.W / und C 2 End.V / beide
selbstadjungiert mit BA D AC , so gilt für die eindeutige Polarzerlegung A D U jAj
gemäß Satz 7.129
374
7 Euklidische und unitäre Vektorräume
BU D UC
und
C jAj D jAjC:
(7.195)
Beweis. Die zweite Gleichung C jAj D jAjC folgt sofort aus p
dem Spektralsatz
und (7.194), da die Spektralprojektoren von A A und jAj D A A dieselben
und somit Polynome in A A sind. Daher ist auch jAj ein Polynom in A A und
vertauscht folglich mit C . Sei nun v 2 kerjAj, dann gilt jAjC v D C jAjv D 0. Also
folgt
C kerjAj kerjAj:
Nun betrachten wir die orthogonale Zerlegung V D imjAj ˚ kerjAj, wobei ker U D
kerjAj D ker A. Sei v D vk C v? mit vk D jAju 2 imjAj und v? 2 kerjAj. Dann
gilt
BU v D BU vk D BU jAju D BAu D AC u D U jAjC u
D UC jAju D UC vk D U .C vk C C v? / D UC v
für alle v 2 V , womit auch die erste Gleichung gezeigt ist.
t
u
Korollar 7.132. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V /. Sei weiter A D U jAj die eindeutige Polarzerlegung
gemäß Satz 7.129.
i.) Ist B D B 2 End.V / mit ŒB; A D 0, so gilt auch
ŒB; U D 0 D ŒB; jAj:
(7.196)
ii.) Ist B 2 End.V / mit ŒB; A D 0 D ŒB; A , so gilt auch
ŒB; U D 0 D ŒB; jAj:
(7.197)
Beweis. Im ersten Fall können wir Proposition 7.131 auf B D C anwenden und
erhalten direkt (7.196). Im zweiten Fall folgt zunächst für B ebenfalls
ŒB ; A D B A AB D .A B/ .BA / D ŒA ; B D 0
und genauso ŒB ; A D 0. Damit vertauscht B also auch mit A und A . Im
komplexen Fall schreiben wir B D Re.B/ C iIm.B/ und wissen dann
ŒRe.B/; A D 0 D ŒIm.B/; A
für die selbstadjungierten Abbildungen Re.B/ und Im.B/. Auf diese wenden
wir den ersten Teil an und erhalten ŒRe.B/; U D 0 D ŒIm.B/; U sowie
ŒRe.B/; jAj D 0 D ŒIm.B/; jAj. Erneutes Bilden der Linearkombination B D
Re.B/ C iIm.B/ liefert dann (7.197). Im reellen Fall können wir nicht jeden
7.9 Die Polarzerlegung und ihre Varianten
375
Endomorphismus als Linearkombination von selbstadjungierten Endomorphismen
schreiben. Aber nach Einführen einer Orthonormalbasis kann man sich auf reelle
Matrizen beschränken. Diese können wir dann als komplexe Matrizen auffassen,
für welche wir die vorherige Argumentation benutzen dürfen. Alternativ macht man
sich im reellen Fall zunächst klar, dass Lemma 7.130 und damit auch Proposition 7.131 nach wie vor gültig bleiben, wenn man anstelle von selbstadjungierten
B und C antisymmetrische B T D B und C T D C verwendet, siehe auch
Übung 7.31.
t
u
Die Daten der Polarzerlegung aus Satz 7.129 vertauschen zwar im Allgemeinen
nicht untereinander, aber sie vertauschen mit allem, was mit A vertauscht. Dieser
Aspekt der Polarzerlegung wird vor allem in unendlichen Dimensionen sehr
wichtig, wo er zum nichttrivialen Resultat führt, dass die Daten der Polarzerlegung
immer in der kleinsten von-Neumann-Algebra enthalten sind, die A (und damit auch
A ) enthält.
Wir reformulieren die Resultate zur Polarzerlegung nun für Matrizen: Hier
erhalten wir folgende Formulierungen:
Korollar 7.133. Sei A 2 GLn .K/. Dann gibt es eine eindeutig bestimmte orthogonale beziehungsweise unitäre Matrix U 2 O.n/ beziehungsweise U 2 U.n/ mit
A D U jAj:
(7.198)
Korollar 7.134. Sei A 2 Mn .K/ normal. Dann gibt es orthogonale beziehungsweise unitäre Matrizen U 2 O.n/ beziehungsweise U 2 U.n/, sodass
A D U jAj;
(7.199)
und A, U und jAj vertauschen paarweise.
Um die Matrixversion der dritten Variante zu erhalten, führen wir zunächst
eine neue Bezeichnung ein. Da jAj selbstadjungiert ist, können wir jAj immer
diagonalisieren. Da zudem jAj positiv ist, sind alle Eigenwerte von jAj größer
oder gleich null. Wir können diese daher der Größe nach ordnen und gemäß
ihrer Vielfachheit wiederholen: Die so erhaltenen Zahlen sind die singulären Werte
von A:
Definition 7.135 (Singuläre Werte). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und A 2 Hom.V; w/. Dann bezeichnet man die
der Größe nach absteigend geordneten und gemäß ihrer Vielfachheit wiederholten
Eigenwerte von jAj als singuläre Werte
s0 .A/ s1 .A/ s2 .A/ : : : sn1 .A/ 0
(7.200)
von A, wobei n D dim V . Entsprechend definiert man die singulären Werte einer
Matrix A 2 Mmn .K/.
376
7 Euklidische und unitäre Vektorräume
Es ist durchaus üblich, für k dim V die singulären Werte von A als sk .A/ D 0 zu
definieren. Dies ist mit der absteigenden Ordnung (7.200) offenbar konsistent und
erlaubt es, in der Bezeichnung auf die Spezifikation von dim V zu verzichten. Wir
werden uns dieser Konvention gelegentlich anschließen.
Die Polarzerlegung können wir nun folgendermaßen reformulieren:
Satz 7.136 (Singulärwertzerlegung). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann existieren Orthonormalbasen fek gkD0;:::;dim V 1 von V und ffk gkD0;:::;dim W 1 , sodass
AD
1
X
sr .A/fr ;er :
(7.201)
rD0
Beweis. Hier ist die Summe natürlich endlich und bricht spätestens bei dim V ab,
da dann sr .A/ D 0 für r dim V . Die Abbildungen fr ;er W V ! W sind
hierbei gemäß Beispiel 7.67, iii.), definiert. Der Beweis ist nun einfach. Zunächst
können wir jAj diagonalisieren, da ja jAj D jAj selbstadjungiert ist. Es gibt
also die paarweise verschiedenen Eigenwerte 1 ; : : : ; k 0 von jAj sowie
Spektralprojektoren P1 ; : : : ; Pk 2 End.V / mit
jAj D
k
X
i P i :
iD1
Wir ordnen die Eigenwerte 1 2 : : : k 0 der Größe nach und wählen
Orthonormalbasen von im P1 ; im P2 ; : : : ; im Pk . Zusammen resultiert dies in einer
Orthonormalbasis e0 ; e1 ; : : : ; edim V 1 von V , wobei die ersten dim im P1 Vektoren
Eigenvektoren zum Eigenwert 1 etc. sind. Schließlich setzen wir s0 .A/ D D
sdim im P1 1 .A/ D 1 etc. und erhalten zunächst
Pi D
X
ej ;ej
j
mit einer Summe über diejenigen Indizes mit ej 2 im Pi , siehe auch Proposition 7.81. Damit gilt also
i Pi D i
X
ej ;ej D
X
sj .A/ej ;ej
ej 2im Pi
j
und entsprechend
jAj D
1
X
rD0
sr .A/er ;er :
7.9 Die Polarzerlegung und ihre Varianten
377
Dies ist letztlich nur die basisabhängige Form des Spektralsatzes für einen positiven Endomorphismus. Nun gibt es zwei Möglichkeiten: Entweder hat jAj einen
nichttrivialen Kern, dann ist also k D 0 und Pk der Orthogonalprojektor auf
kerjAj D ker A D ker U für die partielle Isometrie U aus der Polarzerlegung in
Satz 7.129. Oder aber es gilt ker A D ker U D f0g, in welchem Fall U injektiv ist.
Im ersten Fall gilt U ej D 0 für ej 2 ker U D im Pk und hU ej ; U ej 0 i D ıjj 0 für
ej ; ej 0 … ker U , da U auf .ker U /? isometrisch ist. Wir können daher fj D U ej für
diejenigen ej mit ej … ker U definieren und erhalten ein Orthonormalsystem von
W . Dieses ergänzen wir beliebig zu einer Orthonormalbasis ffr grD0;:::;dim W 1 . Im
zweiten Fall bilden die Vektoren fj D U ej für alle j D 0; : : : ; dim V 1 bereits ein
Orthonormalsystem, da U auf ganz V isometrisch ist. Auch hier ergänzen wir diese
zu einer Orthonormalbasis. Die letzte Beobachtung ist nun, dass für B 2 End.W /
und w 2 W sowie v 2 V ganz allgemein Bw;v D Bw;v gilt, siehe Übung 7.7,
iii.). Insgesamt erhalten wir daher aus der Polarzerlegung (7.193)
A D U jAj D U
1
X
sr .A/er ;er D
rD0
1
X
sr .A/U er ;er D
rD0
1
X
sr .A/fr ;er ;
rD0
da im ersten Fall diejenigen fr mit sr .A/ D 0 ohnehin nicht beitragen.
t
u
Bemerkung 7.137 (Singulärwertzerlegung). Die obige Darstellung gilt in unendlich-dimensionalen Hilbert-Räumen immer noch, sofern der Homomorphismus A
ein kompakter Operator ist, siehe auch [22, Abschnitt VI.3]. Diese spezielleren
Abbildungen verallgemeinern die endlich-dimensionale Situation also besonders
einfach. In der numerischen Analysis spielt die Singulärwertzerlegung ebenfalls
eine große Rolle.
Die zugehörige Version für Matrizen erhält man auf folgende Weise:
Korollar 7.138. Seien n; m 2 N und A 2 Mnm .K/ eine n m-Matrix. Dann
gibt es orthogonale beziehungsweise unitäre Matrizen O 2 O.n/ und U 2 O.m/
beziehungsweise O 2 U.n/ und U 2 U.m/, sowie eindeutig bestimmte Zahlen
s0 .A/ s1 .A/ : : : 0 mit
0
B
OAU D @
s0 .A/
0
s1 .A/
0
::
1
C
A:
(7.202)
:
Beweis. Wir zeigen zuerst die Eindeutigkeit. Seien also orthogonale beziehungsweise unitäre Matrizen U und O sowie eine Diagonalmatrix D D
diag.s0 .A/; s1 .A/; : : :/ mit (7.202) und der Größe nach sortierten Einträgen gegeben. Dann gilt also A D O 1 DU 1 und somit
378
7 Euklidische und unitäre Vektorräume
A A D O 1 DU 1 O 1 DU 1
D U 1 D O 1 O 1 DU 1
D UD DU 1 ;
da O D O 1 und U D U 1 . Weiter ist
0
js0 .A/j2
B
::
B
:
B
B
jsn1 .A/j2
B
DD D B
B
0
B
B
::
:
@
1
C
C
C
C
C
C 2 Mm .K/
C
C
C
A
0
diagonal. Damit sind die Zahlen js0 .A/j2 ; : : : ; jsn1 .A/j2 ; 0; : : : ; 0 aber die Eigenwerte von A A und haben somit eindeutige nichtnegative Wurzeln s0 .A/ s1 .A/ : : :, die wir der Größe nach anordnen können. Dies zeigt die Eindeutigkeit.
Für die Existenz versehen wir Kn und Km mit dem Standardskalarprodukt und
interpretieren AW Km ! Kn als lineare Abbildung. Nach Satz 7.136 gibt es also
Orthonormalbasen e1 ; : : : ; em von Km und f1 ; : : : ; fn von Kn , sodass A als (7.201)
gegeben ist. Die Matrizen O und U sind dann die Basiswechsel der Standardbasen
von Kn und Km auf die obigen Basen. Da beide Basenpaare orthonormal sind, sind
die Basiswechsel Isometrien, also orthogonal beziehungsweise unitär.
t
u
Zum Abschluss dieses Abschnitts betrachten wir ein Beispiel, für welches wir
die Polarzerlegung und die Singulärwertzerlegung explizit bestimmen:
Beispiel 7.139. Wir betrachten die lineare Abbildung
321
W R3 ! R2 :
123
(7.203)
1
31
A D @2 2AW R2 ! R3
13
(7.204)
1
0
1
10 8 6
31 321
D @ 8 8 8 A:
A A D @2 2A
123
6 8 10
13
(7.205)
AD
Es gilt
0
und entsprechend
0
7.9 Die Polarzerlegung und ihre Varianten
379
Das charakteristische Polynom von A A ist
1
10 x 8
6
A A .x/ D det@ 8 8 x 8 A D x 3 C 28x 2 96x:
6
8 10 x
0
(7.206)
Die Nullstellen von A A sind 2 D 0 sowie
0=1 D 14 ˙
p
100 D 14 ˙ 10:
(7.207)
Damit erhalten wir also die singulären Werte von A als
p
p
24 D 2 6;
p
s1 .A/ D 4 D 2;
s0 .A/ D
(7.208)
s2 .A/ D 0:
Wir benötigen nun die Eigenvektoren von A A zu den jeweiligen obigen Eigenwerten. Leicht zu finden ist der bereits normierte Eigenvektor
1
1
1
e2 D p @2A
6 1
0
(7.209)
zum Eigenwert 2 D 0, also zum Kern von A A. Zum Eigenwert 1 D 4 findet
man schnell
1
1
1
e1 D p @ 0 A:
2 1
0
(7.210)
Den verbleibenden Eigenvektor e0 kann man entweder direkt durch Lösen der
charakteristischen Gleichung .A A 241/e0 D 0 finden, oder als Kreuzprodukt
e0 D e1 e2 , da wir ja a priori schon wissen, dass die Eigenvektoren von A A
paarweise senkrecht stehen müssen. Also setzen wir
0 1 0 1
0 1
0 1
1
1
2
1
1 1 @ A @ A
1 @ A
1 @ A
e0 D e1 e2 D p p 2 0 D p 2 D p 1 ;
6 2 1
2 3 2
3 1
1
(7.211)
womit wir eine Orthonormalbasis von Eigenvektoren von A A gefunden haben. Wir
berechnen nun
380
7 Euklidische und unitäre Vektorräume
0 1
1
p
1 6
1 321 @ A
1 1
D2 6 p
Ae0 D p
1 Dp
3 123 1
3 6
2 1
0 1
1
1
1
1 321 @ A
2
1
Ae1 D p
D2 p
0 Dp
2 1 2 3 1
2 2
2 1
Ae2 D 0:
(7.212)
(7.213)
(7.214)
Wir setzen daher
1 1
f0 D p
2 1
und
1
1
f1 D p
2 1
(7.215)
und erhalten die Zerlegung
p
A D 2 6f0 ;e0 C 2f1 ;e1 ;
(7.216)
womit die Singulärwertzerlegung also gefunden ist. Der Betrag von A ist nach dem
Spektralsatz leicht aus der Spektraldarstellung von A A zu berechnen. Wir haben
A A D 24e0 ;e0 C 4e1 ;e1 C 0 e2 ;e2 ;
(7.217)
wobei
e0 ;e0
e1 ;e1
e2 ;e2
1
0
111
1@
D
1 1 1A
3
111
1
0
1 0 1
1@
D
0 0 0A
2
1 0 1
1
0
1 2 1
1@
D
2 4 2A:
6
1 2 1
(7.218)
(7.219)
(7.220)
Damit erhalten wir
jAj D
p
p
A A D 2 6e0 ;e0 C 2e1 ;e1 ;
(7.221)
7.10 Die Operatornorm und die Approximationszahlen
381
also ausgeschrieben
0
jAj D
p
p
p
1
2 6
6 2 6
C 1 2p
1
3 p
3
3 p
B 2 6 2 6 2 6 C
@ p3
A:
3
p 3
p
2 6 2 6
2 6
1 3
C1
3
3
(7.222)
Die partielle Isometrie U in der Polarzerlegung von A ist schließlich durch
U e0 D f0 ;
U e1 D f1
U e2 D 0
(7.223)
p p p
p p
1
2
C
3
2
2
p p p
p3 :
U D p p
2 3 2 2C 3
2 3
(7.224)
und
festgelegt. Explizit erhält man daraus
Kontrollfragen. Welche Eigenschaften haben partielle Isometrien? Welche Varianten der Polarzerlegung kennen Sie, wie eindeutig sind diese? Wie konstruieren
Sie die Singulärwertzerlegung einer Matrix?
7.10
Die Operatornorm und die Approximationszahlen
In diesem abschließenden Abschnitt wollen wir ein letztes wichtiges Konzept in der
Theorie der euklidischen und unitären Vektorräume einführen. Wir erhalten nicht
nur eine Norm aus dem Skalarprodukt für die Vektoren, sondern auch für lineare
Abbildungen zwischen euklidischen oder unitären Vektorräumen.
Seien nun also V und W euklidische oder unitäre Vektorräume und A 2
Hom.V; W /. Dann können wir für einen gegebenen Vektor v 2 V die Längen
kvk und kAvk vergleichen: Ist beispielsweise A eine Isometrie, so folgt aus dem
Erhalten aller Skalarprodukte sofort
kAvk D kvk:
(7.225)
Insbesondere wird die Länge also für alle Vektoren um den gleichen Wert skaliert,
nämlich um 1. Im Allgemeinen gibt es nun Richtungen, in die stärker als in andere
skaliert wird. Die Operatornorm soll nun ein Maß dafür geben, wie groß die
Längenverzerrung schlimmstens werden kann. Diese heuristischen Überlegungen
führen dann zu folgender Definition:
Definition 7.140 (Operatornorm). Seien V und W euklidische oder unitäre Vektorräume und A 2 Hom.V; W /. Dann heißt
kAvk
2 Œ0; C1
v2Vnf0g kvk
kAk D sup
(7.226)
382
7 Euklidische und unitäre Vektorräume
die Operatornorm von A. Eine lineare Abbildung A 2 Hom.V; W / heißt beschränkt, falls
kAk < 1:
(7.227)
Beispiel 7.141. Wir betrachten erneut den Vektorraum der Polynome
V D RŒx
(7.228)
mit dem Skalarprodukt, welches durch
hx n ; x m i D ınm
(7.229)
eindeutig festgelegt ist. Mit anderen Worten, die Monome werden als orthonormal
erklärt. Man sieht leicht, dass dieses Skalarprodukt wirklich positiv definit ist. Dann
betrachten wir die Ableitung
d
W RŒx ! RŒx;
dx
(7.230)
welche auf den Basisvektoren durch
d n
x D nx n1
dx
(7.231)
festgelegt ist und linear fortgesetzt wird. Nun gilt einerseits
kx n k D 1
für alle
n 2 N0
(7.232)
und andererseits
d n
x D knx n1 k D nkx n1 k D n:
dx (7.233)
Daher folgt also für die Ableitung
d D 1:
dx (7.234)
d
Als lineare Abbildung hat dx
in diesem Beispiel also eine unendliche Operatornorm
und ist daher nicht beschränkt.
Der folgende Satz zeigt, dass die Operatornorm für Abbildungen zwischen
endlich-dimensionalen euklidischen oder unitären Vektorräumen immer endlich
ist. Der Grund für (7.234) liegt also in der Unendlich-Dimensionalität von RŒx
verborgen.
7.10 Die Operatornorm und die Approximationszahlen
383
Satz 7.142 (Operatornorm). Seien V und W endlich-dimensionale euklidische
oder unitäre Vektorräume. Sei weiter A 2 Hom.V; W /. Dann gilt
kAk < 1:
(7.235)
Beweis. Wir wählen eine Orthonormalbasis e1 ; : : : ; en von V und eine Orthonormalbasis f1 ; : : : ; fm von W . Dann betrachten wir die Matrixdarstellung von A
bezüglich dieser Basen. Es sei also
Aij D hfi ; A.ej /i 2 K
(7.236)
für i D 1; : : : ; m und j D 1; : : : ; n, siehe Lemma 7.58. Sei weiter v 2 V gegeben,
sodass also
n
X
vD
hej ; viej
j D1
gemäß Proposition 7.48. Wir schätzen nun kAvk2 sehr grob durch
kAvk2 D hAv; Avi
D
m
X
hAv; fi ihfi ; Avi
iD1
m X
n
X
jhej ; vij jhek ; vij jAij j jAik j
iD1 j;kD1
mn2 kvk2 maxjAij j2
i;j
ab, womit
kAvk p
mn maxjAij j
i;j
v2V nf0g kvk
sup
folgt. Insbesondere ist letztere Größe endlich, was (7.235) zeigt.
t
u
Die Abschätzung im Beweis ist noch recht grob, und wir werden genauere
Abschätzungen für die Größe kAk benötigen. Explizites Berechnen von kAk ist
typischerweise schwierig, die Definition ist durch das Bilden des Supremums ja
eher umständlich. Trotzdem lassen sich folgende Eigenschaften leicht zeigen:
Proposition 7.143. Seien V , W und U endlich-dimensionale euklidische oder
unitäre Vektorräume.
384
7 Euklidische und unitäre Vektorräume
i.) Die Operatornorm ist eine Norm für Hom.V; W /.
ii.) Für v 2 V und A 2 Hom.V; W / gilt
kAvk kAkkvk:
(7.237)
iii.) Für A 2 Hom.V; W / und B 2 Hom.W; U / gilt
kBAk kBkkAk:
(7.238)
kidV k D 1:
(7.239)
kA Ak D kAk2 :
(7.240)
kA k D kAk:
(7.241)
iv.) Es gilt
v.) Es gilt die C -Eigenschaft
vi.) Es gilt
Beweis. Sei A 2 Hom.V; W /, dann ist kAk 0, da das Supremum über
nichtnegative Zahlen kAvk
selbst wieder nichtnegativ ist. Weiter gibt es für A ¤ 0
kvk
ein v 2 V mit Av ¤ 0. Daher ist
nun z 2 K, dann gilt
kAvk
kvk
> 0 für dieses v, womit kAk > 0 folgt. Sei
kzAvk
jzjkAvk
kAvk
D sup
D jzj sup
D jzjkAk:
kvk
v2V nf0g kvk
v2V nf0g
v2V nf0g kvk
kzAk D sup
Schließlich gilt für A; A0 2 Hom.V; W /
k.A C A0 /.v/k
kvk
v2Vnf0g
kA C A0 k D sup
kAv C A0 vk
kvk
v2Vnf0g
D sup
kA0 vk
kAvk
C
kvk
v2Vnf0g kvk
sup
kAvk
kA0 vk
C sup
v2Vnf0g kvk
v2V nf0g kvk
sup
D kAk C kA0 k:
7.10 Die Operatornorm und die Approximationszahlen
385
Dies zeigt alle erforderlichen Eigenschaften einer Norm. Der zweite Teil ist klar
größer oder gleich allen konkreten kAvk
ist, was (7.237)
nach Definition, da sup kAvk
kvk
kvk
liefert. Sei nun A 2 Hom.V; W / und B 2 Hom.W; U /. Dann liefert zweimalige
Anwendung von (7.237)
(7.237)
(7.237)
k.BA/.v/k D kB.Av/k kBkkAvk kBkkAkkvk
und damit für v ¤ 0
k.BA/.v/k
kBkkAk:
kvk
Die rechte Seite hängt nicht von v ab, daher ist auch das Supremum der linken Seite
über alle v ¤ 0 noch kleiner oder gleich kAkkBk. Damit folgt (7.238). Der vierte
Teil ist klar. Für den fünften betrachten wir zunächst
kAvk2 D jhAv; Avij D jhv; A Avij kvkkA Avk kvk2 kA Ak:
Für v ¤ 0 liefert dies
kAvk
sup
kAk D
v2Vnf0g kvk
2
!2
D sup
kAvk2
v2Vnf0g
kvk
2
kA Ak:
Andererseits betrachten wir v ¤ 0, sodass Av ¤ 0. Dann gibt es ein w 2 W nf0g mit
jhw; Avij D kAvk;
(7.242)
Av
. Gilt Av D 0, gibt es natürlich auch ein w 2 W nf0g mit (7.242),
nämlich w D kAvk
da jedes w diese Eigenschaft besitzt. Nach der Cauchy-Schwarz-Ungleichung gilt
aber auch
jhw; Avij kwkkAvk;
womit also
jhw; Avij
kAvk
kwk
w2Wnf0g
sup
folgt. Zusammen mit dem speziellen w mit (7.242) folgt also
jhw; Avij
D kAvk:
kwk
w2Wnf0g
sup
386
7 Euklidische und unitäre Vektorräume
Damit erhalten wir aber
kAvk
jhw; Avij
sup
D sup
:
kvk
v2V nf0g
v2V nf0g w2Wnf0g kwkkvk
kAk D sup
(7.243)
Da aber jhw; Avij D jhA w; vij D jhv; A wij, können wir die Rolle von V und W
sowie von A und A in (7.243) vertauschen. Dies zeigt kAk D kA k und damit Teil
vi.). Nun gilt schließlich
(7.238)
(7.241)
kA Ak kA kkAk D kAk2
ebenso wie die bereits gezeigte Abschätzung kAk2 kA Ak. Dies liefert (7.240).
t
u
Beispiel 7.144. Viele Operatornormen können wir noch nicht berechnen, aber für
folgende Klassen von linearen Abbildungen reicht unser Können bereits jetzt:
i.) Ist U W V ! W eine partielle Isometrie, so gilt mit V D ker U ˚ .ker U /?
und v D vk C v?
kU vk D kU v? k D kv? k kvk;
(7.244)
womit kU k 1. Ist nun U ¤ 0 und v D v? 2 .ker U /? von null verschieden,
so folgt kU vk D kvk für einen solchen Vektor. Also gilt kU k 1 und daher
kU k D 1;
(7.245)
für jede partielle Isometrie U ¤ 0.
ii.) Insbesondere gilt für jede Isometrie kU k D 1 und daher für alle A 2 O.n/ oder
A 2 U.n/
kAk D 1:
(7.246)
iii.) Ist P D P D P 2 2 End.V / ein Orthogonalprojektor, so ist P insbesondere
eine partielle Isometrie nach Proposition 7.125, iii.), da ja P P D P . Also gilt
kP k D 1, falls P ¤ 0. Dies sieht man auch direkt, da
kP k D kP P k D kP k2 ;
(7.247)
also entweder kP k D 1 oder kP k D 0.
Wir wollen nun einen einfachen Weg finden, die Operatornorm von A zu bestimmen. Da wir in endlichen Dimensionen bereits über den Spektralsatz verfügen,
ist dies nun sehr einfach. In unendlichen Dimensionen zeigt man zuerst folgenden
7.10 Die Operatornorm und die Approximationszahlen
387
Satz, bevor man den Spektralsatz beweisen kann. Der Beweis ist dann deutlich
aufwendiger.
Satz 7.145 (Operatornorm via Spektrum). Seien V und W endlich-dimensionale
euklidische oder unitäre Vektorräume.
i.) Ist A 2 End.V / selbstadjungiert mit Spektrum f1 ; : : : ; k g, so gilt
kAk D max ji j:
1ik
(7.248)
ii.) Ist K D C und A 2 End.V / normal, so gilt ebenfalls (7.248).
iii.) Ist A 2 Hom.V; W /, so gilt
kAk D
p
kA Ak;
(7.249)
womit kAk gemäß (7.248) für A A berechnet werden kann.
Beweis. Sei A selbstadjungiert oder sei K D C und A normal. In beiden Fällen
können wir A diagonalisieren und finden eine orthogonale Zerlegung P1 ; : : : ; Pk 2
End.V / der Eins mit
AD
k
X
i P i ;
iD1
wobei 1 ; : : : ; k die paarweise verschiedenen Eigenwerte von A sind. Sei nun v 2
V beliebig, dann sind die Vektoren P1 v; : : : ; Pk v paarweise orthogonal und
X
2
k
P
v
kAvk2 D i i iD1
D
k
X
ji jkPi vk2
iD1
max ji j2
1ik
k
X
kPi vk2
iD1
2
max ji j kvk2 ;
1ik
nach dem Satz des Pythagoras. Dies zeigt
kAk max ji j:
1ik
388
7 Euklidische und unitäre Vektorräume
Andererseits gilt für einen Eigenvektor v ¤ 0 zum Eigenwert i0 mit ji0 j D
max1ik ji j
kAvk D ki0 vk D ji0 jkvk;
womit kAk ji0 j folgt. Dies zeigt also die Gleichheit in (7.248) für beide Fälle
i.) und ii.).
p Sei nun A 2 Hom.V; W / beliebig, dann gilt mit der C -Eigenschaft
kAk D kA Ak. Da A A 2 End.V / aber ein selbstadjungierter und sogar ein
t
u
positiver Endomorphismus ist, können wir kA Ak gemäß (7.248) berechnen.
Korollar 7.146. Seien V und W endlich-dimensionale euklidische oder unitäre
Vektorräume. Dann ist der größte Eigenwert von A A durch kAk2 gegeben.
Korollar 7.147. Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum, und sei A 2 End.V / selbstadjungiert. Dann ist kAk oder kAk ein
Eigenwert von A.
Bemerkung 7.148. Man beachte, dass die einfachen Eigenschaften der Operatornorm gemäß Proposition 7.143 nun durchaus nichttriviale Folgerungen über die
Spektren von A C A0 oder B ı A beinhalten.
Wir wollen nun eine letzte Interpretation der spektralen Information eines Endomorphismus geben. Dazu fragen wir zunächst, wie gut sich AW V ! W durch
andere lineare Abbildungen approximieren lässt, deren Rang begrenzt ist:
Definition 7.149 (Approximationszahlen). Seien V und W endlich-dimensionale
euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann ist die n-te
Approximationszahl an .A/ von A durch
ˇ
˚
an .A/ D inf kA F k ˇ F 2 Hom.V; W / mit rank F n
(7.250)
definiert, wobei n 2 N0 .
Es gilt offenbar
a0 .A/ D kAk
(7.251)
an .A/ D 0
(7.252)
und
für alle n rank A, da man in diesem Fall A durch sich selbst approximieren kann.
Wir erhalten also eine absteigende Folge von Zahlen
kAk D a0 .A/ a1 .A/ a2 .A/ 0:
(7.253)
7.10 Die Operatornorm und die Approximationszahlen
389
Die Approximationszahlen besitzen nun folgende Eigenschaften:
Proposition 7.150. Seien V , W und U endlich-dimensionale euklidische oder unitäre Vektorräume und n; m 2 N0 .
i.) Für alle A; B 2 Hom.V; W / gilt
anCm .A C B/ an .A/ C am .B/:
(7.254)
ii.) Für alle A; B 2 Hom.V; W / gilt
jan .A/ an .B/j kA Bk:
(7.255)
iii.) Für alle A 2 Hom.V; W / und B 2 Hom.W; U / gilt
anCm .BA/ an .A/am .B/:
(7.256)
iv.) Für alle A 2 Hom.V; W / gilt
an .A/ D 0 ” rank A n:
(7.257)
Beweis. Seien F; G 2 Hom.V; W /, dann gilt ganz allgemein
rank.F C G/ D dim im.F C G/ dim im F C dim im G D rank F C rank G:
Sind also F und G mit rank F n und rank G m gegeben, so folgt rank.F C
G/ n C m und damit
anCm .A C B/ kA C B F Gk kA F k C kB Gk:
Bildet man nun über die rechte Seite die entsprechenden Infima, so bleibt die Ungleichung bestehen, da die linke Seite ja nicht von F oder G abhängt. Also folgt
anCm .A C B/ infkA F k C infkB Gk D an .A/ C am .B/:
F
G
Damit und mit a0 .A/ D kAk gilt auch
an .A/ D anC0 .A B C B/ an .B/ C a0 .A B/ D an .B/ C kA Bk;
also an .A/ an .B/ kA Bk. Vertauscht man nun die Rollen von A und B,
so erhält man insgesamt (7.255). Für iii.) betrachten wir F 2 Hom.V; W / mit
rank F n und G 2 Hom.W; U / mit rank G m. Da im.GA/
im G, folgt
ˇ
rank.GA/ rank G. Da im..B G/F / D im..B G/ˇim F /, kann im..B 390
7 Euklidische und unitäre Vektorräume
G/F / höchstens dim.im F / viele linear unabhängige Vektoren enthalten. Also gilt
rank..B G/F / rank F . Insgesamt folgt daher
rank.GA C .B G/F / n C m:
Damit folgt
anCm .BA/ kBA .GA C .B G/F /k
D k.B G/.A F /k
kB GkkA F k
für alle solchen F und G. Die linke Seite ist davon aber unabhängig, sodass wir
wieder das Infimum bilden können, ohne die Ungleichung zu verletzen. Also folgt
anCm .BA/ infkB Gk infkA F k D am .B/an .A/:
G
F
Für den letzten Teil hatten wir die Implikation „ (H “ bereits gesehen. Sei also
rank A > n. Dann gibt es also v1 ; : : : ; vnC1 2 V , sodass Av1 ; : : : ; AvnC1 linear
unabhängig sind. Wir können diese zu einer Basis von W ergänzen und dann die
zugehörige duale Basis von W betrachten. Auf diese Weise zeigt man, dass es
'1 ; : : : ; 'nC1 2 W mit
'i .Avj / D ıij
für alle i; j D 1; : : : ; n C 1 gibt. Wir betrachten nun KnC1 mit seiner Standardbasis
e1 ; : : : ; enC1 und den zugehörigen Koordinaten zi D hei ; zi für z 2 KnC1 . Seien
dann
BW KnC1 3 z 7!
nC1
X
zi vi 2 V
iD1
und
C W W 3 w 7!
nC1
X
'i .w/ei 2 KnC1 :
iD1
Dies sind lineare Abbildungen mit
CABz D
nC1
X
iD1
zi CA.vi / D
nC1 X
nC1
X
zi 'j .Avi / ei D
„ ƒ‚ …
iD1 j D1
ıij
nC1
X
iD1
zi ei D z;
7.10 Die Operatornorm und die Approximationszahlen
391
also CAB D idK nC1 . Wir behaupten, dass an .idK nC1 / D 1 gilt. Ist nämlich F 2
MnC1 .K/ mit rank F n gegeben, so ist ker F ¤ f0g. Für v 2 ker F gilt daher
k.idK nC1 F /.v/k D kvk
und somit kidK nC1 F k 1. Also folgt durch Infimumbildung an .idK nC1 / 1. Da
aber a0 .idK nC1 / D 1, folgt an .idK nC1 / D 1 wegen (7.253). Wir wenden dies nun
auf idK nC1 D CAB an und benutzen iii.). Damit gilt
1 D an .idK nC1 / D an .CAB/ an .CA/a0 .B/ a0 .C /an .A/a0 .B/:
Also muss an .A/ > 0 gelten.
t
u
Den Zusammenhang zwischen den Approximationszahlen und den spektralen
Daten von A liefert nun folgender Satz:
Satz 7.151 (Approximationszahlen). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume, und sei A 2 Hom.V; W /. Dann gilt für alle
n 2 N0
an .A/ D sn .A/:
(7.258)
Beweis. Gemäß Satz 7.136 können wir A in der Singulärwertzerlegung als
AD
X
sr .A/fr ;er
r
0
mit geeigneten Orthonormalsystemen ffr gr in W und fer gr in V schreiben, wobei
die Summe nur endlich viele Terme enthält. Wir schreiben im Folgenden
An D
n1
X
sr .A/fr ;er :
rD0
Da die Abbildungen fr ;er gerade Rang 1 besitzen, folgt
rank An n:
Für v 2 V berechnen wir nun
X
2
s
.A/
.v/
kA An k2 D n
fr ;er
r
n
D
X
r
n
sr .A/2 kfr ;er .v/k2
392
7 Euklidische und unitäre Vektorräume
sn .A/2
X
kfr ;er .v/k2 ;
r
n
da sn .A/ der größte verbleibende Singulärwert in der Summe ist und wir zuerst den
Satz des Pythagoras verwenden dürfen. Weiter gilt
kfr ;er .v/k2 D kfr her ; vik2 D jher ; vij2 ;
da die fr orthonormiert sind. Damit folgt aber
k.A An /vk2 sn .A/2 kvk2
nach der Parsevalschen Gleichung beziehungsweise der zugehörigen Ungleichung
für ein Orthonormalsystem. Also gilt kA An k sn .A/. Andererseits folgt für
v D en gerade
X
k.A An /en k2 D s
.A/
.e
/
r
fr ;er
n D ksn .A/fn k D sn .A/;
r
n
da fn ein Einheitsvektor ist und her ; en i D ınr gilt. Also haben wir kA An k D
sn .A/ gezeigt. Für an .A/ müssen wir aber sogar das Infimum von kA F k über
alle F mit rank F n bilden, womit
an .A/ sn .A/
gezeigt ist. Sei nun F 2 Hom.V; W / mit rank F n < dim V gegeben. Da die
Vektoren e0 ; : : : ; en ein Orthonormalsystem bilden, gibt es mindestens einen Vektor
v 2 spanfe0 ; : : : ; en g mit kvk D 1, aber F v D 0 nach der Dimensionsformel. Für
diesen Vektor gilt
kA F k2 k.A F /vk2
2
X
D
sr .A/fr ;er .v/ 0
r
0
n
2
X
D
s
.A/f
he
;
vi
r
r r
rD0
D
n
X
sr .A/2 jher ; vij2
rD0
n
X
sn .A/
jher ; vij2
2
rD0
(7.259)
7.11 Übungen
393
D sn .A/2 kvk2 ;
da sn .A/ der kleinste Singulärwert in der Summe (7.259) ist und wir wieder die
Parsevalsche Gleichung für v sowie den Satz des Pythagoras verwenden dürfen.
Dies zeigt an .A/ sn .A/ und somit insgesamt die Gleichheit.
t
u
Bemerkung 7.152. Dieser Satz kann nun in beide Richtungen gelesen werden: Zum
einen erhalten wir nichttriviale Ungleichungen für die Eigenwerte positiver Operatoren aus den vergleichsweise einfachen Ungleichungen für die Approximationszahlen in Proposition 7.150. Zum anderen können wir die Bedeutung der singulären
Werte von A als Approximationseigenschaften verstehen.
Kontrollfragen. Welche Eigenschaften hat die Operatornorm? Welche Beziehung
von Operatornorm und Spektrum kennen Sie? Was sind die Approximationszahlen
und wie können Sie diese bestimmen?
7.11
Übungen
Übung 7.1 (Indefinite innere Produkte). Betrachten Sie auf dem Vektorraum
Mn .R/ der reellen n n-Matrizen die Abbildung
hA; Bi D tr.AB/;
(7.260)
wobei tr wie immer die Spur bezeichnet.
i.) Zeigen Sie, dass h ; i eine symmetrische Bilinearform auf Mn .R/ ist.
ii.) Zeigen Sie, dass h ; i nicht-ausgeartet ist.
Hinweis: Ein geschicktes Auswerten auf einer geeigneten Basis ist hier hilfreich.
iii.) Ist h ; i positiv oder negativ definit?
Übung 7.2 (Innere Produkte auf W ˚ W ). Sei W ein endlich-dimensionaler
Vektorraum über einem Körper der Charakteristik null. Betrachten Sie dann den
Vektorraum V D W ˚ W aus Übung 5.48. Definieren Sie auf V die beiden
Abbildungen
h.v; ˛/; .w; ˇ/i D ˇ.v/ C ˛.w/
(7.261)
!..v; ˛/; .w; ˇ// D ˛.w/ ˇ.v/;
(7.262)
und
wobei v; w 2 W und ˛; ˇ 2 W .
394
7 Euklidische und unitäre Vektorräume
i.) Zeigen Sie, dass h ; i eine symmetrische und ! eine antisymmetrische
Bilinearform ist. Zeigen Sie, dass beide nicht-ausgeartet sind. Gelten diese
Aussagen auch für einen unendlich-dimensionalen Vektorraum W ?
ii.) Sei e1 ; : : : ; en 2 W eine Basis mit dualer Basis e1 ; : : : ; en 2 W . Bestimmen
Sie die darstellenden Matrizen von h ; i und von ! bezüglich der Basis
e1 ; : : : ; en ; e1 ; : : : ; en von W ˚ W .
iii.) Sei nun zudem k D R. Ist h ; i dann positiv definit?
Übung 7.3 (Innere Produkte auf Unterräumen). Sei h ; i ein inneres Produkt
auf einem Vektorraum über k.
i.) Zeigen Sie, dass die Einschränkung von h ; i auf einen Unterraum U V
eine Bilinearform auf U liefert.
ii.) Finden Sie in zwei Dimensionen eine Beispiel für ein inneres Produkt und
einen Unterraum, sodass die Einschränkung auf den Unterraum identisch null
ist: Im Allgemeine ergibt die Einschränkung eines inneren Produktes auf einen
Unterraum also kein inneres Produkt.
iii.) Zeigen Sie, dass für k D R und ein positiv definites inneres Produkt die
Einschränkung auf einen Unterraum wieder positiv definit ist.
iv.) Formulieren und beweisen Sie die analogen Aussagen für sesquilineare innere
Produkte für k D C.
Übung 7.4 (Die Parallelogramm-Identität). Sei h ; i ein positiv definites Skalarprodukt auf einem Vektorraum V über K.
i.) Zeigen Sie, dass die zugehörige Norm die Parallelogramm-Identität (7.53) erfüllt.
ii.) Zeigen Sie, dass sich das Skalarprodukt h ; i aus der Norm durch Polarisierung gemäß (7.54) beziehungsweise (7.55) rekonstruieren lässt.
iii.) Zeigen Sie umgekehrt, dass eine Norm, welche die Parallelogramm-Identität
erfüllt, von einem Skalarprodukt kommt. Dies erfordert den Einsatz von etwas
Analysis.
Hinweis: Definieren Sie h ; i versuchsweise durch (7.54) beziehungsweise (7.55). Zeigen
Sie, dass dann die Parallelogramm-Identität die Additivität von h ; i in beiden Argumenten
liefert. Folgern Sie aus der Additivität die Q -Linearität. Zeigen Sie im komplexen Fall, dass
h ; i im zweiten Argument auch „i-linear“ ist. Um die K -Linearität im zweiten Argument
zu folgern, müssen Sie eine geeignete Stetigkeitseigenschaft von h ; i bezüglich der Norm
k k zeigen und entsprechend reelle Zahlen durch rationale approximieren.
Übung 7.5 (Maximumsnorm). Sei V ein reeller oder komplexer Vektorraum und
B eine Basis. Dann definiert man
kvkmax D maxjvb j;
b2B
(7.263)
7.11 Übungen
395
wobei wie immer vb 2 K die Komponenten von v bezüglich der Basisvektoren
b 2 B sind.
i.) Zeigen Sie, dass k kmax tatsächlich eine Norm ist. Wieso existiert das Maximum?
ii.) Zeigen Sie, dass die Maximumsnorm genau dann die Parallelogramm-Identität
erfüllt, wenn dim V 1 gilt.
iii.) Vergleichen Sie für V D R2 die Maximumsnorm bezüglich der Standardbasis
mit der euklidischen Norm des Standardskalarprodukts. Skizzieren Sie insbesondere die Normkreise bezüglich beider Normen, also die Teilmengen von R2
von Vektoren mit fester Norm r > 0.
Übung 7.6 (Orthogonalkomplement). Sei V ein euklidischer oder unitärer Vektorraum.
i.) Zeigen Sie, dass für U V das Orthogonalkomplement durch
U? D
\
ker v [
(7.264)
v2U
gegeben ist, wobei v [ D hv; i 2 V wie in Bemerkung 7.2, iii.).
ii.) Zeigen Sie, dass .U ? /?? D .U ?? /? für jede Teilmenge U V gilt.
iii.) Seien nun U; W V Unterräume. Zeigen Sie, dass dann
.U ? C W ? /?? D .U \ W /? :
(7.265)
Wie vereinfacht sich dies in endlichen Dimensionen?
Übung 7.7 (Rechenregeln für v;w ). Betrachten Sie euklidische oder unitäre
Vektorräume V , W , U und X sowie für v 2 V und w 2 W die Abbildung
w;v W V ! W wie in Beispiel 7.67, iii.).
i.) Zeigen Sie dass w 7! w;v eine lineare Abbildung W ! Hom.V; W / liefert.
ii.) Zeigen Sie entsprechend, dass v 7! w;v antilinear ist.
iii.) Seien nun AW U ! V adjungierbar und BW W ! X linear. Zeigen Sie
w;v ı A D w;A v
(7.266)
B ı w;v D Bw;v :
(7.267)
sowie
Bestimmen Sie damit explizit x;w0 ı w;v für x 2 X und w0 2 W .
iv.) Zeigen Sie rank w;v D 1 für v; w ¤ 0.
396
7 Euklidische und unitäre Vektorräume
v.) Seien V und W endlich-dimensional. Zeigen Sie, dass dann jede lineare
Abbildung AW V ! W von der Form A D w;v ist.
Hinweis: Wählen Sie w 2 im A und zeigen Sie A.v/ D ˛.v/w für ein eindeutig bestimmtes
˛ 2 V .
Übung 7.8 (Pauli-Matrizen III). Betrachten Sie erneut die Pauli-Matrizen aus
Übung 5.28.
i.) Zeigen Sie, dass die Pauli-Matrizen selbstadjungiert sind.
ii.) Bestimmen Sie die Eigenwerte und die Eigenvektoren der Pauli-Matrizen. Weisen Sie explizit nach, dass die Eigenvektoren zu verschiedenen Eigenwerten
senkrecht stehen.
iii.) Bestimmen Sie den Positivteil und den Negativteil sowie den Absolutbetrag der
Pauli-Matrizen explizit.
Übung 7.9 (Gerade und ungerade stetige Funktionen). Betrachten Sie die
stetigen Funktionen C.Œa; a; C/ auf einem Intervall Œa; a R. Definieren Sie
das L2 -Skalarprodukt gemäß Beispiel 7.20.
i.) Zeigen Sie, dass die geraden ebenso wie die ungeraden stetigen Funktionen
einen Unterraum von C.Œa; a; C/ bilden.
Hinweis: Übung 4.20.
ii.) Zeigen Sie, dass die geraden auf die ungeraden stetigen Funktionen senkrecht
stehen.
iii.) Folgern Sie, dass C.Œa; a; C/ die orthogonale direkte Summe der geraden
und ungeraden stetigen Funktionen ist.
Übung 7.10 (Eine Ungleichung für Integrale). Betrachten Sie den komplexen
Vektorraum C.I; C/, wobei I D Œa; b R ein kompaktes Intervall sein soll.
Zeigen Sie, dass für alle f; g 2 C.I; C/
ˇZ
ˇ Z
Z
ˇ
ˇ
ˇ f .x/g.x/dx ˇ jf .x/j2 dx jg.x/j2 dx:
ˇ
ˇ
I
I
(7.268)
I
Übung 7.11 (Innere Produkte für Polynome). Sei Vn CŒx der Unterraum der
Polynome vom Grad n. Definieren Sie dann
hp; qi D
n
X
p.k/q.k/
kD0
für p; q 2 Vn .
i.) Zeigen Sie, dass (7.269) ein Skalarprodukt auf Vn ist.
(7.269)
7.11 Übungen
397
ii.) Starten Sie mit der Basis der Monome und führen Sie den Gram-SchmidtAlgorithmus durch, um eine Orthonormalbasis von V4 bezüglich (7.269) zu
finden.
Übung 7.12 (Orthogonales Komplement). Betrachten Sie die Vektoren
0
0 1
2
B2C
C
v2 D B
@iA
0
1
i
B0C
C
v1 D B
@1A und
2
(7.270)
in C4 , versehen mit dem Standardskalarprodukt. Sei U D span -fv1 ; v2 g. Bestimmen Sie eine Orthonormalbasis von U und U ? .
Übung 7.13 (Gram-Schmidt-Verfahren). Betrachten Sie die Vektoren
0
1
1
B0C
C
v1 D B
@ 0 A;
1
0
1
3
B1C
C
v2 D B
@2A und
1
0
1
2
B1C
C
v3 D B
@0A
1
(7.271)
in R4 , versehen mit dem Standardskalarprodukt.
i.) Führen Sie explizit das Gram-Schmidt-Verfahren durch, um eine Orthonormalbasis f1 ; f2 ; f3 von spanfv1 ; v2 ; v3 g zu gewinnen.
ii.) Ergänzen Sie f1 ; f2 ; f3 um einen Vektor f4 zu einer Orthonormalbasis von R4 .
iii.) Bestimmen Sie explizit die Matrix des Basiswechsels O von der Standardbasis
zur Basis f1 ; f2 ; f3 ; f4 sowie deren Inverses. Rechnen Sie explizit nach, dass O
orthogonal ist.
Übung 7.14 (Unitär diagonalisieren). Betrachten Sie folgende komplexe 3 3Matrizen
1
211
A D @1 2 1A;
112
0
1
4 i i
B D @i 4 1 A und
i 1 4
0
1
1 C i i
2
C D @ i 1 C i 2i A:
2 2i 1 C i
0
(7.272)
i.) Berechnen Sie A , B und C .
ii.) Bestimmen Sie die Eigenwerte von A, B und C .
iii.) Bestimmen Sie Orthonormalbasen von Eigenvektoren für A, B und C . Wieso
muss es diese geben?
398
7 Euklidische und unitäre Vektorräume
iv.) Bestimmen Sie unitäre Matrizen U; V; W 2 M3 .C/, sodass UAU , VBV und W C W diagonal sind. Können Sie zudem erreichen, dass diese Matrizen
orthogonal sind?
Übung 7.15 (Adjungierbare Abbildungen). Betrachten Sie den Vektorraum der
C-wertigen, unendlich oft stetig differenzierbaren Funktionen C01 .R; C/ mit
kompaktem Träger.
d
ein Endomorphismus auf C01 .R; C/
i.) Zeigen Sie, dass die Ableitung P D i dx
ist.
ii.) Zeigen Sie, dass
Z
hf; gi D
f .x/g.x/dx
(7.273)
ein Skalarprodukt auf C01 .R; C/ definiert.
Hinweis: Die Sesquilinearität ist einfach, sobald Sie argumentiert haben, wieso das Integral
überhaupt definiert ist. Für die Positivität müssen Sie sich an Beispiel 7.20 orientieren.
iii.) Zeigen Sie, dass die Abbildung P adjungierbar ist und bestimmen Sie P .
Hinweis: Hier müssen Sie partiell integrieren. Wieso gibt es keine störenden Randterme?
iv.) Betrachten Sie auch den Multiplikationsoperator
Mf W C01 .R; C/ 3
7! .x 7! f .x/ .x// 2 C01 .R; C/
(7.274)
mit einer unendlich oft stetig differenzierbaren Funktion f 2 C 1 .R; C/. Zeigen Sie, dass Mf ebenfalls ein wohldefinierter Endomorphismus ist, welcher
adjungierbar ist. Bestimmen Sie auch hier Mf .
v.) Sei schließlich y 2 R fest gewählt. Für
2 C01 .R; C/ definiert man dann
die Translation y um y durch
.y /.x/ D
.x y/;
(7.275)
wobei x 2 R. Zeigen Sie auch hier, dass y 2 C01 .R; C/ und y eine lineare
Abbildung ist. Zeigen Sie, dass y ebenfalls adjungierbar ist und bestimmen Sie
y .
Hinweis: Hier müssen Sie eine einfache Variablensubstitution beim Integrieren durchführen.
Übung 7.16 (Die Hilbert-Schmidt-Norm). Für eine Matrix A 2 Mn .K/ definiert
man die Hilbert-Schmidt-Norm durch
p
(7.276)
kAk2 D tr.A A/:
i.) Zeigen Sie, dass die Hilbert-Schmidt-Norm wirklich eine Norm auf dem Vektorraum Mn .K/ ist.
7.11 Übungen
399
ii.) Zeigen Sie, dass es auf Mn .K/ ein eindeutig bestimmtes Skalarprodukt
h ; iHS gibt, welches die Hilbert-Schmidt-Norm als zugehörige Norm liefert.
iii.) Finden Sie eine besonders einfache Orthonormalbasis von Mn .K/ bezüglich
h ; iHS .
iv.) Zeigen Sie, dass die Operatornorm und die Hilbert-Schmidt-Norm äquivalent
sind, indem Sie explizit eine Abschätzung der Form
c1 kAk kAk2 c2 kAk
(7.277)
mit c1 ; c2 > 0 finden.
Übung 7.17 (Normale Blockmatrizen).
Matrix X 2 MnCm .C/ mit Blockstruktur
Betrachten Sie n; m 2 N und eine
A B
XD
C D
(7.278)
mit entsprechenden Blöcken A; B; C und D.
i.) Bestimmen Sie die Blöcke von X .
ii.) Wann ist X selbstadjungiert, wann normal?
iii.) Zeigen Sie, dass für eine normale Matrix X mit C D 0 auch B D 0 gelten
muss.
Hinweis: Hier ist die Hilbert-Schmidt-Norm aus Übung 7.16 hilfreich.
Übung 7.18 (Drehungen parametrisieren). Sei R 2 SO.3/ eine echte Drehung
ungleich 1.
i.) Zeigen Sie, dass es einen eindeutig bestimmten Einheitsvektor nE 2 R3 , die
Drehachse von R, sowie zwei weitere Einheitsvektoren vE1 ; vE2 2 R3 und einen
eindeutigen Drehwinkel ˛ 2 .0; gibt, sodass vE1 ; vE2 ; nE ein rechtshändiges
Orthonormalsystem, also nE D vE1 vE2 , im R3 bilden und
v1 sin.˛/E
v2 ;
RE
v1 D cos.˛/E
und
RE
v2 D sin.˛/E
v1 C cos.˛/E
v2 ;
(7.279)
sowie RE
n D nE gilt. Welche Aussagen bleiben für R D 1 gültig?
Hinweis: Benutzen Sie die allgemeine Normalform für orthogonale Abbildungen. Wie
erhalten Sie die zusätzliche Einschränkung an den Drehwinkel?
ii.) Zeigen Sie tr R D 1 C 2 cos.˛/. Bleibt dies auch für R D 1 gültig? Auf
diese Weise können Sie bei einer Drehung direkt und basisunabhängig den
Drehwinkel bestimmen.
iii.) Zeigen Sie, dass
RxE D cos.˛/xE C .1 cos.˛//hE
n; xiE
E n C sin.˛/E
n xE
(7.280)
400
7 Euklidische und unitäre Vektorräume
für alle xE 2 R3 . Wie können Sie diese Formel auch für R D 1 verstehen?
iv.) Zeigen Sie umgekehrt, dass für jeden Einheitsvektor nE und jede reelle Zahl ˛
die durch (7.280) gegebene Abbildung eine echte Drehung ist. Wie kommen
Sie zu den eindeutigen Parametern gemäß Teil i.)?
v.) Bestimmen Sie die Matrix der Drehung um die Achse durch
0 1
1
@
aE D 2A
2
(7.281)
um einen Winkel von 30ı explizit. Verifizieren Sie durch Nachrechnen, dass aE
ein Eigenvektor der Drehmatrix ist.
Übung
a b 7.19 (Unitäre 2 2-Matrizen). Betrachten Sie eine 2 2-Matrix A D
c d 2 M2 .C/.
i.) Bestimmen Sie diejenigen a; b; c; d 2 C, für die A unitär ist. Bestimmen Sie in
diesem Fall die zugehörige inverse Matrix. Verifizieren Sie durch eine explizite
Rechnung, dass die unitären Matrizen eine Untergruppe von GL2 .C/ bilden.
ii.) Für welche Werte der Parameter a; b; c; d 2 C ist die Matrix A sogar speziell
unitär? Bestimmen Sie auch in diesem Fall die inverse Matrix explizit und
weisen Sie die Eigenschaft einer Untergruppen nach.
iii.) Betrachten Sie die Menge S3 der Vektoren z 2 C2 mit Norm 1. Geometrisch
entspricht dies einer dreidimensionalen Sphäre im R4 . Zeigen Sie, dass Ihre
obige Parametrisierung auf einfache Weise eine Bijektion von SU.2/ nach S3
liefert.
Übung 7.20 (Positiv definite Matrix). Betrachten Sie die komplexen 3 3-Matrizen
1
5 2 1
A1 D @ 2 2 2 A;
1 2 5
0
1
1 3 i
A2 D @0 3 4 A und
00 2
0
1
i 10
A3 D @1 i 0A:
0 03
0
(7.282)
i.) Bestimmen Sie die Eigenwerte mit den zugehörigen Eigenvektoren der Matrizen A1 , A2 und A3 .
ii.) Welche der Matrizen A1 , A2 , A3 sind positiv, welche sogar positiv definit?
Übung 7.21 (Positiv definite 22-Matrizen). Zeigen Sie, dass A D A 2 M2 .C/
genau dann positiv definit ist, wenn tr.A/ > 0 und det.A/ > 0 gilt.
Übung 7.22 (Das Lot fällen). Sei V ein endlich-dimensionaler euklidischer oder
unitärer Vektorraum mit einem Unterraum U V . Sei weiter v 2 V . Definieren
Sie den Abstand von v zu U durch
7.11 Übungen
401
ˇ
˚
d .v; U / D inf kv uk ˇ u 2 U :
(7.283)
i.) Zeigen Sie, dass d .v; U / D 0 genau dann gilt, wenn v 2 U .
ii.) Zeigen Sie, dass es einen eindeutig bestimmten Vektor u 2 U gibt, sodass das
Infimum als Minimum realisiert wird, also d .v; U / D kv uk gilt. Wie können
Sie u explizit bestimmen?
Übung 7.23 (Das Skalarprodukt auf dem Dualraum). Sei V ein endlichdimensionaler euklidischer oder unitärer Vektorraum. Für ˛; ˇ 2 V definiert man
dann
h˛; ˇi D ˛.ˇ ] /;
(7.284)
wobei ] W V ! V der (inverse) musikalische Isomorphismus zum Skalarprodukt
von V ist.
i.) Sei e1 ; : : : ; en eine Basis von V . Zeigen Sie, dass für die dualen Basisvektoren
ei D e[i für alle i D 1; : : : ; n genau dann gilt, wenn e1 ; : : : ; en eine
Orthonormalbasis ist.
ii.) Sei e1 ; : : : ; en eine Orthonormalbasis von V . Zeigen Sie, dass
h˛; ˇi D
n
X
˛.ei /ˇ.ei /
(7.285)
iD1
für alle ˛; ˇ 2 V gilt.
iii.) Zeigen Sie, dass h ; i ein Skalarprodukt auf V definiert. Man nennt h ; i
auch das duale Skalarprodukt zu h ; i.
iv.) Bestimmen Sie hv [ ; w[ i für v; w 2 V . Finden Sie so eine weitere Charakterisierung des dualen Skalarprodukts.
Übung 7.24 (Erstellen von Übungen IV).
Alltag einer Übungsgruppenleiterin:
Wieder einige Probleme aus dem
i.) Finden Sie in Dimensionen n D 2; 3 und 4 unitäre Matrizen zu vorgegebenen
Eigenwerten in S1 , die kompliziert genug sind, damit man die Eigenvektoren
nicht erraten kann.
Hinweis: Eine Möglichkeit ist es, komplizierte Produkte von besonders einfachen, nichtdiagonalen unitären Matrizen zu bilden: Sind U und V unitär, so ist U V U ebenfalls unitär und
hat das gleiche Spektrum wie V (wieso?). Geben Sie nun interessante Matrizen U an, um
neue unitäre Matrizen U V U aus einem vorgegebenen V zu konstruieren.
ii.) Geben Sie ein einfaches Verfahren an, um eine orthogonale Zerlegung der
Eins zu konstruieren, wobei Sie in n Dimensionen den jeweiligen Rang der
k Projektoren einzeln vorgeben wollen.
iii.) Geben Sie ein Verfahren an, mit dem Sie auf einfache Weise positive n nMatrizen in Mn .K/ erzeugen können, deren Rang Sie ebenfalls vorgeben
402
7 Euklidische und unitäre Vektorräume
können. Wie immer sollen die Einträge der Matrix kleine ganze Zahlen oder
andere einfache komplexe Zahlen sein.
Hinweis: Zeigen Sie zunächst rank.A A/ D rank.A/.
Übung 7.25 (Partielle Isometrien). Seien V und W endlich-dimensionale euklidische oder unitäre Vektorräume.
i.) Finden Sie ein Beispiel von zwei partiellen Isometrien U1 und U2 derart, dass
U1 U2 keine partielle Isometrie mehr ist.
ii.) Zeigen Sie, dass für eine partielle Isometrie U W V ! W und für Isometrien
O 2 End.V / und R 2 End.W / die Abbildung RUO wieder eine partielle
Isometrie ist.
iii.) Zeigen Sie, dass ein Orthogonalprojektor P 2 End.V / eine partielle Isometrie
ist.
iv.) Seien P; Q 2 End.V / Orthogonalprojektoren. Zeigen Sie, dass es genau dann
eine partielle Isometrie U 2 End.V / mit U U D P und U U D Q gibt,
wenn dim im P D dim im Q gilt.
v.) Zeigen Sie, dass zwei Orthogonalprojektoren P; Q 2 End.V / genau dann
unitär (orthogonal) konjugiert sind, also Q D UP U für eine unitäre
(orthogonale) Abbildung U gilt, wenn dim im P D dim im Q.
vi.) Zeigen Sie, dass eine lineare Abbildung U W V ! W genau dann eine partielle
Isometrie ist, wenn es Orthonormalbasen A und B von V und W gibt, sodass
die zugehörige Matrix von U die Blockform
1k 0
B ŒUA D
0 0
(7.286)
mit einer k k-Einheitsmatrix 1k hat. Welche Bedeutung hat k?
Übung 7.26 (Erstellen von Übungen V). Es sollen nun noch einfache Beispiele
für Polarzerlegungen gefunden werden.
i.) Sei D 2 Mn .K/ eine Diagonalmatrix. Was ist die Polarzerlegung von D?
ii.) Seien A; B 2 Mn .K/ mit A D UBU für eine orthogonale beziehungsweise
unitäre Matrix U . Bestimmen Sie die Polarzerlegung A D UA jAj bei bekannter
Polarzerlegung B D UB jBj.
iii.) Kombinieren Sie beide Resultate, um einfache Zahlenbeispiele für Matrizen A
zu finden, deren Polarzerlegung Sie bestimmen können. Wieso erhalten Sie auf
diese Weise nur normale A?
iv.) Betrachten Sie nun A; B 2 Mnm .K/ derart, dass es orthogonale beziehungsweise unitäre Matrizen U und V mit A D UBV gibt. Welche Größe
haben U und V dann? Bestimmen Sie nun die Polarzerlegung von A bei
bekannter Polarzerlegung B D UB jBj. Wieso erhalten Sie so interessantere
Zahlenbeispiele? Konstruieren Sie explizite Beispiele für kleine n und m.
7.11 Übungen
403
Übung 7.27 (Orthogonalität in unendlichen Dimensionen). Seien a < b reelle
Zahlen. Betrachten Sie dann den unitären Vektorraum C.Œa; b; C/ der stetigen komplexwertigen Funktionen auf Œa; b mit dem L2 -Skalarprodukt wie in Beispiel 7.20.
Sei weiter c 2 .a; b/.
i.) Zeigen Sie, dass
ˇ
˚
U D f 2 C.Œa; b; C/ ˇ f .x/ D 0 für x c
(7.287)
ein Untervektorraum von C.Œa; b; C/ ist.
ii.) Bestimmen Sie das Orthogonalkomplement U ? von U explizit und charakterisieren Sie die darin enthaltenen Funktionen.
iii.) Zeigen Sie, dass U ?? D U gilt.
iv.) Zeigen Sie, dass die konstante Funktion f .x/ D 1 nicht in U ?? ˚ U ?
enthalten ist.
Dieses Beispiel zeigt, dass in unendlichen Dimensionen die Aussagen von Proposition 7.36 im Allgemeinen nicht gelten.
Übung 7.28 (Fourier-Analysis). In dieser Übung sollen diejenigen Aspekte der
Fourier-Analysis vorbereitet werden, die mit Mitteln der linearen Algebra zu erreichen sind. Wir betrachten den Vektorraum C.Œ
; ; C/ der komplexwertigen
stetigen Funktionen auf dem kompakten Intervall Œ
; und versehen ihn mit dem
üblichen L2 -Skalarprodukt aus Beispiel 7.20. Weiter betrachten wir die Funktionen
cn 2 C.Œ
; ; C/, welche durch
cn .x/ D cos.nx/
(7.288)
für n 2 N0 definiert sind, sowie die Funktionen sm 2 C.Œ
; ; C/ mit
sm .x/ D sin.mx/
(7.289)
für m 2 N. Insbesondere ist also c0 .x/ D 1.
i.) Zeigen Sie, dass die Funktionen cn und sm für n 2 N0 und m 2 N alle
paarweise orthogonal stehen.
Hinweis: Hier erspart Übung 4.20 einiges an Rechnung.
ii.) Bestimmen Sie die Normen kcn k und ksm k, um so ein abzählbares Orthonormalsystem F von C.Œ
; ; C/ durch geeignetes Reskalieren der cn und sm
zu erhalten.
iii.) Geben Sie eine stetige Funktion f 2 C.Œ
; ; C/ an, die nicht im Spann
des obigen Orthonormalsystems liegt. Damit zeigen Sie, dass die obigen
Funktionen keine Basis bilden.
404
7 Euklidische und unitäre Vektorräume
iv.) Die Skalarprodukte von f mit den Vektoren aus F heißen Fourier-Koeffizienten
der Funktion f . Bestimmen Sie diese für die Funktion f .x/ D x.
v.) Plotten Sie die Fourier-Approximationen der Funktion f .x/ D x für die ersten
n D 1; 2; 3; 4; 5; 6 Beiträge, also die Linearkombination der ersten n Vektoren
aus F mit den entsprechenden Fourier-Koeffizienten von f .
In der Fourier-Analysis wird nun allgemein untersucht, ob das analytische Analogon
der Basisentwicklung wie in Proposition 7.48 dadurch gerettet werden kann, dass
man eine (konvergente) Reihe anstelle der Summe (7.78) zulässt. Die Konvergenz
dieser Fourier-Reihe ist dann ein nichttriviales Problem, welches nicht unerheblichen analytischen Aufwand erfordert, siehe auch [19, Chap. 5 und Chap. 9] oder [2,
Kap. VI.7].
Übung 7.29 (Legendre-Polynome). Betrachten Sie den Vektorraum C.Œ1; 1; C/
mit dem üblichen L2 -Skalarprodukt wie in Beispiel 7.20.
i.) Zeigen Sie, dass die Monome fx n gn2N 0 , aufgefasst als Funktionen in
C.Œ1; 1; C/, linear unabhängig sind.
Hinweis: Vorsicht, dies ist nicht eine unmittelbare Folgerung aus Übung 4.13.
ii.) Berechnen Sie alle Skalarprodukte hx n ; x m i der Monome für n; m 2 N0 .
iii.) Führen Sie das Gram-Schmidt-Verfahren für die Monome fx n gn2N 0 für die
ersten 5 Monome explizit durch.
iv.) Zeigen Sie, dass das Gram-Schmidt-Verfahren neue Polynome pn 2
C.Œ1; 1; C/ liefert, welche für n gerade nur gerade Potenzen von x enthalten
und für n ungerade nur ungerade Potenzen.
Hinweis: Hier spart Übung 7.9 einiges an Arbeit.
v.) Reskalieren Sie die Polynome pn zu Polynomen Pn derart, dass Pn .1/ D 1 für
alle n 2 N0 . Zeigen Sie dann, dass diese Polynome explizit durch
Œn=2
Pn .x/ D
X
kD0
.1/k .2n 2k/Š
x n2k
.n k/Š.n 2k/ŠkŠ2n
(7.290)
gegeben sind. Hier bezeichnet Œn=2 entweder n=2 für n gerade oder .n 1/=2
für n ungerade. Die Polynome Pn heißen Legendre-Polynome.
vi.) Berechnen Sie explizit hPn ; Pm i für n; m 2 N0 und verifizieren Sie die
Orthogonalität der Legendre-Polynome anhand der expliziten Formel (7.290).
Übung 7.30 (S1 und U.1/). Zeigen Sie, dass detW U.1/ ! S1 ein Gruppenisomorphismus ist.
Übung 7.31 (Eine Verallgemeinerung von Lemma 7.130). Betrachten Sie die
Situation von Lemma 7.130 mit dem einzigen Unterschied, dass nun B D zB
und C D zC mit demselben z 2 K mit jzj D 1. Zeigen Sie, dass für diese
7.11 Übungen
405
etwas allgemeineren Voraussetzungen die Schlussfolgerungen des Lemmas richtig
bleiben, und formulieren Sie die entsprechende Variante von Proposition 7.131.
Übung 7.32 (Polarzerlegung für normale Abbildungen). Sei A 2 End.V / ein
normaler Endomorphismus eines endlich-dimensionalen euklidischen oder unitären
Vektorraums. Vergleichen Sie die beiden Phasen aus der Polarzerlegung A D U jAj
gemäß Satz 7.127 und Satz 7.129. Wann stimmen diese überein?
Übung 7.33 (Nochmals Positivität). Sei V ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und A 2 End.V / selbstadjungiert. Zeigen Sie, dass
folgende Aussagen äquivalent sind:
i.) Die Abbildung A ist positiv.
ii.) Für alle t kAk gilt kt 1 Ak t .
iii.) Es gibt ein t kAk mit kt 1 Ak t .
Übung 7.34 (Orthogonalprojektor). Betrachten Sie die reelle Matrix
0
P D
5
6
1
3
1
3
1
@
3
1 1
6 3
16
1
3
5
6
1
A:
(7.291)
i.) Zeigen Sie, dass P ein Orthogonalprojektor ist.
ii.) Bestimmen Sie den Rang von P .
iii.) Bestimmen Sie eine Orthonormalbasis des Bildes und des Kerns von P sowie
den Basiswechsel O von der Standardbasis auf diese Basis.
iv.) Verifizieren Sie, dass O orthogonal ist. Können Sie erreichen, dass det O D 1
gilt?
Übung 7.35 (Dichtematrix eines Vektorzustands). Sei v 2 Cn ein Vektor
ungleich null. Bestimmen Sie die Dichtematrix v zum Zustand Ev aus (7.160)
gemäß Satz 7.113 explizit.
Hinweis: Es genügt, einen Einheitsvektor v zu betrachten.
Übung 7.36 (Die Heisenbergsche Unschärferelation). Betrachten Sie einen Zustand !W Mn .C/ ! C. Dann definiert man die Varianz von A 2 Mn .C/ im
Zustand ! durch
Var! .A/ D ! .A !.A/1/ .A !.A/1/ :
(7.292)
Dies ist als ein Maß dafür anzusehen, wie sehr die Observable A um ihren Erwartungswert !.A/ streut. In der Quantenmechanik wird dies eine zentrale Begriffsbildung sein.
406
7 Euklidische und unitäre Vektorräume
i.) Zeigen Sie !.A A/ j!.A/j2 .
ii.) Seien A; B 2 Mn .C/ selbstadjungiert. Zeigen Sie die Heisenbergsche Unschärferelation
Var! .A/ Var! .B/ 1
j!.ŒA; B/j2 :
4
(7.293)
Hinweis: Nehmen Sie zunächst an, dass !.A/ D 0 D !.B/. Benutzen Sie dann nur die
Positivität von !, nicht die konkrete Form aus Satz 7.113. Wie können Sie anschließend auf
den allgemeinen Fall kommen?
iii.) Für A1 ; : : : ; Ak 2 Mn .C/ definiert man die Kovarianzmatrix C
.Cov! .Ai ; Aj // 2 Mk .C/ durch
Cov! .Ai ; Aj / D ! .Ai !.Ai /1/ .Aj !.Aj /1/ ;
D
(7.294)
wobei i; j D 1; : : : ; k. Zeigen Sie, dass C positiv ist. Welche Ungleichungen
erhalten Sie aus dem Spezialfall k D 2 aus dieser Positivität?
Hinweis: Auch hier sollten Sie nicht die konkrete Form, sondern nur die Positivität von !
verwenden.
Übung 7.37 (Positiv- und Negativteil). Betrachten Sie die Matrizen
1
1 1 1
A1 D @1 1 1A und
1 1 1
0
0
03
B3 0
A2 D B
@0 0
00
0
0
0
2i
1
0
0 C
C:
2iA
0
(7.295)
Bestimmen Sie den Positivteil .Ai /C , den Negativteil .Ai / und den Absolutbetrag
jAi j für i D 1; 2.
Übung 7.38 (Ordnungsrelation für selbstadjungierte Abbildungen). Sei V
ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Sei weiter
Endsa .V / End.V / die Teilmenge der selbstadjungierten Endomorphismen
von V . Für A; B 2 Endsa .V / definieren Sie A B, falls B A ein positiver
Endomorphismus ist.
i.) Zeigen Sie, dass Endsa .V / ein reeller Unterraum von End.V / ist.
ii.) Zeigen Sie, dass für Zahlen ; 0 und A; B; C; D 2 Endsa .V / mit A B
und C D auch A C C B C D gilt.
iii.) Zeigen Sie, dass für A B
CAC CBC für alle C 2 End.V / gilt.
(7.296)
7.11 Übungen
407
iv.) Zeigen Sie, dass .Endsa .V /; / eine gerichtete und partiell geordnete Menge
ist.
Hinweis: Welche selbstadjungierten Abbildungen A erfüllen sowohl A 0 als auch 0 A?
v.) Sei A 0. Zeigen Sie A2 AkAk mit der Operatornorm kAk von A.
vi.) Sei 0 A B. Zeigen Sie, dass dann kAk kBk gilt.
vii.) Zeigen Sie, dass für A 0 und > 0 der Endomorphismus A C 1
invertierbar ist.
viii.) Betrachten Sie V D C2 mit
10
AD
und
00
21
BD
:
11
(7.297)
Zeigen Sie 0 A B. Zeigen Sie, dass A2 B 2 nicht gilt.
Diese Ordnungsrelation auf den selbstadjungierten Abbildungen findet ihre wahre
Bestimmung in der Theorie der C -Algebren. Es folgen dann viele weitere Verträglichkeiten von mit algebraischen Eigenschaften, die selbst in der endlichdimensionalen Situation
p allespandere als offensichtlich sind. Beispielsweise gilt für
0 A B immer A B für die eindeutigen positiven Wurzeln, obwohl es
für die entsprechende Ungleichung beim Quadrieren sofort leichte Gegenbeispiele
wie in (7.297) gibt.
Hinweis: Für die gesamte Übung ist der polynomiale Kalkül aus Übung 6.39 hilfreich.
Übung 7.39 (Operatornorm von v;w ). Seien V und W endlich-dimensionale
euklidische oder unitäre Vektorräume, und seien v 2 V und w 2 W gegeben.
Bestimmen Sie die Operatornorm von v;w . Bestimmen Sie auch die höheren
Approximationszahlen ak .v;w /.
Übung 7.40 (Pauli-Matrizen IV). Bestimmen Sie die Operatornormen der PauliMatrizen.
Übung 7.41 (Die Kommutante). Sei A Mn .K/ eine nichtleere Teilmenge.
Dann definiert man die Kommutante A 0 von A durch
ˇ
˚
A 0 D B 2 Mn .K/ ˇ für alle A 2 A gilt ŒA; B D 0 :
(7.298)
i.) Zeigen Sie, dass die Kommutante von A ein Unterraum von Mn .K/ ist.
ii.) Zeigen Sie, dass die Kommutante von A ein Unterring von Mn .K/ mit 1 2 A 0
ist.
iii.) Sei nun zudem A unter Adjunktion abgeschlossen, also A 2 A für alle A 2
A. Zeigen Sie, dass dann auch A 0 unter Adjunktion abgeschlossen ist.
iv.) Zeigen Sie A A 00 .
408
7 Euklidische und unitäre Vektorräume
v.) Sei B eine weitere Teilmenge von Mn .K/ mit A B. Zeigen Sie, dass dann
B 0 A 0.
vi.) Zeigen Sie A 000 D A 0 .
Übung 7.42 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen:
i.) Eine Isometrie ist immer surjektiv.
ii.) Jeder selbstadjungierte Projektor ist eine partielle Isometrie.
iii.) Zu jeder Matrix A 2 Mn .K/ gibt es ein geeignetes Skalarprodukt, so dass A
bezüglich dieses Skalarprodukts selbstadjungiert wird.
iv.) Jede Matrix P 2 Mn .C/ mit P 2 D P ist ein Orthogonalprojektor bezüglich
des Standardskalarprodukts.
v.) Jede Matrix P 2 Mn .C/ mit P 2 D P ist ein Orthogonalprojektor bezüglich
eines geeigneten Skalarprodukts auf V .
vi.) Eine invertierbare Matrix A 2 Mn .R/ ist orthogonal für ein geeignet
gewähltes Skalarprodukt auf Rn .
vii.) Ist U eine unitäre (orthogonale) Matrix, so gilt notwendigerweise jUij j 1
für alle Matrixeinträge Uij von U .
viii.) Eine unitäre Matrix U 2 Mn .C/ ist genau dann orthogonal, wenn U D U
gilt.
ix.) Eine obere Dreiecksmatrix ist nie orthogonal.
x.) Für n 2 N gibt es unendlich viele unitäre obere Dreiecksmatrizen in Mn .C/.
xi.) Bei einer normalen Matrix ist die Spur gleich der Summe und die Determinante gleich dem Produkt der Eigenwerte (mit Multiplizität).
xii.) Die Untergruppe SU.n/ GLn .C/ ist normal.
xiii.) Gilt jUij j 1 für alle Einträge einer Matrix U 2 Mn .C/ beziehungsweise
U 2 Mn .R/, so ist U unitär beziehungsweise orthogonal.
xiv.) Sei AW R4 ! R3 linear mit Polarzerlegung A D U jAj. Dann ist U nie eine
Isometrie.
xv.) Die Matrix
03
4
1
B 1 17
B
16
P DB
@ 0 12
15
16
3
i
4
15 1
16
12 34 i C
C
C
0 27 A
2
1
7
0
(7.299)
ist ein Orthogonalprojektor bezüglich des Standardskalarprodukts in C4 .
xvi.) Für einen Orthogonalprojektor P gilt P D jP j.
xvii.) Es gibt eine partielle Isometrie U W R4 ! R3 bezüglich der Standardskalarprodukte, welche keine 1 als Eintrag besitzt und Rang 2 hat.
xviii.) Seien A; B 2 Mn .C/ positiv (definit). Dann ist AB ebenfalls positiv
(definit).
7.11 Übungen
409
xix.) Eine Matrix A 2 Mn .C/ ist genau dann positiv, wenn alle ihre Eigenwerte
größer oder gleich null sind.
xx.) Für den Absolutbetrag von selbstadjungierten Matrizen A; B 2 Mn .C/ gilt
jA C Bj jAj C jBj.
Anhang A
Grundbegriffe der Logik
Die Logik stellt die Regeln bereit, mit denen in der Mathematik Aussagen miteinander verknüpft werden können. In diesem kleinen Anhang wollen wir kurz einige
grundlegende Überlegungen hierzu anstellen. Eine formale Definition, was Logik,
Aussagen und dergleichen sind, soll hier nicht gegeben werden, auch wenn dies ein
spannendes Kapitel der Mathematik ist. Bei Interesse sei hier auf die weiterführende
Literatur wie etwa [5] verwiesen.
A.1
Aussagen und Junktoren
Aussagen in der Mathematik sind sprachliche Gebilde aus zuvor festgelegten
Zeichenketten, von denen es sinnvoll ist zu sagen, sie seien wahr oder falsch. Als
Beispiel seien etwa die Aussagen
• 1 C 1 D 2.
• ist eine ganze Zahl.
• Heute scheint die Sonne.
genannt. Sätze wie „Bringe bitte Du den Müll raus“ sind hingegen keine Aussagen.
Es sei hier jedoch angemerkt, dass eine echte mathematische Präzisierung offenbar
festlegen muss, welche „Zeichen“ und „Wörter“ verwendet werden dürfen. Selbst
dann kann es vorkommen, dass man Antinomien, also Widersprüche der Form
„Ich bin ein Lügner“ oder „Diese Aussage ist falsch“ erhält. Schwierigkeiten treten
insbesondere dann auf, wenn selbstbezügliche Aussagen, also Aussagen, die etwas
über sich selbst aussagen, erlaubt sind. Wie damit umzugehen ist, wird in der
formalen Logik studiert und soll uns zunächst nicht weiter belasten.
Die Grundaufgabe der Mathematik kann man so verstehen, dass ausgehend
von einigen Grundannahmen, den Axiomen der jeweiligen Theorie, die Wahrheit
von verschiedenen Aussagen innerhalb der Theorie geprüft und wenn möglich
entschieden werden soll. Die Regeln und Konstruktionen, nach denen aus gegebe-
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6
411
412
Anhang A Grundbegriffe der Logik
nen Aussagen neue erhalten werden können, wollen wir nun vorstellen. Zuerst sind
hier die Junktoren zu nennen:
Definition A.1 (Junktoren). Für zwei Aussagen p und q lassen sich folgende neue
Aussagen bilden:
i.) Die Negation :p von p ist genau dann wahr, wenn p falsch ist.
ii.) Die Konjunktion p ^ q von p und q ist genau dann wahr, wenn sowohl p als
auch q wahr sind.
iii.) Die Disjunktion p _ q von p und q ist genau dann wahr, wenn p oder q wahr
sind. Hier ist ein inklusives „oder“ gemeint.
iv.) Die Implikation p H) q von p nach q ist genau dann wahr, wenn aus der
Wahrheit von p die Wahrheit von q folgt.
v.) Die Äquivalenz p ” q von p und q ist genau dann wahr, wenn entweder
sowohl p als auch q wahr sind oder wenn sowohl p als auch q falsch sind.
vi.) Der Scheffersche Strich pjq von p und q ist genau dann wahr, wenn nicht beide
Aussagen p und q wahr sind.
Weitere gebräuchliche Abkürzungen, insbesondere in der Informatik und Computertechnik, für diese Junktoren sind NON für die Negation, AND für die Konjunktion, OR für die Disjunktion und NAND für den Schefferschen Strich.
Die Junktoren sind offenbar nicht alle unabhängig voneinander. Vielmehr gibt es
verschiedene Relationen zwischen ihnen. So gilt beispielsweise, dass der Scheffersche Strich pjq äquivalent zur Aussage :.p ^ q/ ist. Die Äquivalenz von p und q
lässt sich als .p H) q/ ^ .q H) p/ verstehen. Schließlich lassen sich alle der
obigen Junktoren durch Kombination von Schefferschen Strichen schreiben, so ist
beispielsweise :p äquivalent zu pjp.
Es ist nützlich, sich die Junktoren anhand einer Wahrheitstabelle zu verdeutlichen, siehe Tab. A.1.
In komplizierteren Kombinationen der Junktoren ist es erforderlich, Klammern
zu setzen, um eine eindeutige Reihenfolge bei der Verknüpfung zu erzielen: Es ist
beispielsweise :.p ^q/ von .:p/^q zu unterscheiden, was man sich leicht anhand
der Tab. A.1 klarmachen kann.
Wir sammeln nun einige Rechenregeln für die Junktoren, deren Nachweis anhand
der Tab. A.1 durch entsprechende Fallunterscheidungen eine kleine Übung darstellt:
Tab. A.1 Wahrheitstabelle für die Junktoren
p
q
:p
p^q
p_q
p H) q
p ” q
p|q
W
W
F
W
W
W
W
F
W
F
F
F
W
F
F
W
F
W
W
F
W
W
F
W
F
F
W
F
F
W
W
W
A.2 Beweisstrategien
413
Proposition A.2. Seien p, q und r Aussagen.
i.) Die doppelte Verneinung ist eine Bejahung, also :.:p/ ” p.
ii.) Es gelten die de Morganschen Regeln
:.p_q/ ” .:p/^.:q/
:.p^q/ ” .:p/_.:q/:
(A.1)
sowie
p _ q ” q _ p:
(A.2)
sowie
p _.q _r/ ” .p _q/_r:
(A.3)
sowie
iii.) Es gelten die Kommutativgesetze
p^q ” q^p
iv.) Es gelten die Assoziativgesetze
p ^.q ^r/ ” .p ^q/^r
v.) Es gelten die Distributivgesetze
p^.q _r/ ” .p^q/_.p^r/
sowie
p_.q ^r/ ” .p_q/^.p_r/:
(A.4)
sowie
p _ p ” p:
vi.) Es gelten die Idempotenzgesetze
p^p ” p
(A.5)
Mithilfe dieser Rechenregeln lassen sich nun auch kompliziertere Kombinationen
von :, ^ und _ vereinfachen. In der theoretischen Informatik und bei computergestützten Beweisen werden diese Regeln in Computerprogrammen implementiert
und systematisch ausgenutzt. Unser Zugang zum Beweisen wird von diesen Regeln
selbstverständlich ebenfalls Gebrauch machen, allerdings meist ohne explizit darauf
zu verweisen.
A.2
Beweisstrategien
Ein mathematischer Satz hat oftmals die Struktur, dass eine Aussage p eine andere
Aussage q impliziert, also p H) q, oder dass zwei Aussagen p und q äquivalent
sind, also p ” q. Man denke etwa an den (wahren) Satz, dass für eine natürliche
Zahl n gilt
n ist gerade ” n2 ist gerade:
(A.6)
Hier müssen also beide Implikationen für ” nachgewiesen werden. Dabei ist
es natürlich keineswegs ausreichend, seine Überredungskünste spielen zu lassen
(„Mein Vater hat gemeint, dass (A.6) richtig sei, und er muss es ja wissen“) oder
an eine scheinbar offensichtliche Klarheit des Satzes zu appellieren („Das ist ja
trivial“). In Lehrbüchern der Mathematik wird man oft letztere Formulierung finden.
414
Anhang A Grundbegriffe der Logik
Dies bedeutet dann lediglich, dass der Beweis einfach genug ist, ihn dem Leser zu
überlassen. Es handelt sich somit keineswegs um einen mathematischen Beweis,
sondern vielmehr um eine freundliche Aufforderung, selbst Hand anzulegen und
einen stimmigen Beweis zu liefern.
Wir wollen nun einige Beweisstrategien vorstellen, die immer wieder in der
Mathematik Verwendung finden. Oftmals sind es auch Kombinationen aus diesen,
die sich zu einem großen Beweis zusammenfügen:
• Direkter Beweis: Hier soll eine Aussage p H) q gezeigt werden. Man nimmt
daher an, p sei wahr, und versucht zu zeigen, dass unter dieser Voraussetzung
auch q wahr ist. Die Art, ob und wie dies erreicht werden kann, hängt natürlich
stark von der konkreten Situation ab.
• Indirekter Beweis: Um die Aussage p H) q zu zeigen, kann man alternativ
auch die dazu äquivalente Aussage :q H) :p zeigen. Anhand einer kleinen
Fallunterscheidung mittels der Tab. A.1 sieht man die Äquivalenz
.p H) q/ ” .:q H) :p/
(A.7)
dieser beiden Aussagen. Man muss also zeigen, dass unter der Voraussetzung,
dass q falsch ist, auch p falsch ist. Dies geschieht dann beispielsweise mit
einem direkten Beweis, und die Äquivalenz in (A.7) zeigt dann die ursprüngliche
Aussage p H) q.
• Widerspruch und Gegenbeispiel: Ebenso kann man die Äquivalenz
.p H) q/ ” :.p ^ :q/
(A.8)
verwenden. Zunächst überlegt man sicher wieder anhand der Tab. A.1, dass die
Äquivalenz (A.8) korrekt ist. Um (A.8) zu verwenden, nimmt man also an, dass
p wahr und q falsch ist. Dann ist zu zeigen, dass dies zu einem Widerspruch
führt, also nicht möglich sein kann. Ein derartiger Widerspruchsbeweis kann oft
dadurch erreicht werden, dass man aus der Annahme p^:q eine Aussage folgert,
zu der es ein Gegenbeispiel gibt, die also damit falsch ist. Dann muss auch die
ursprüngliche Aussage p ^ :q falsch gewesen sein, womit die Richtigkeit von
:.p ^ :q/ folgt. Bei der Verwendung von Gegenbeispielen ist natürlich darauf
zu achten, dass man durch das Finden noch so vieler positiver Beispiele noch
keine allgemein gültige Aussage beweisen kann, aber durch das Finden eines
Gegenbeispiels deren allgemeine Gültigkeit sehr wohl widerlegt hat.
Zur Illustration sei hier folgender nicht ganz ernst gemeinter Satz bewiesen:
Alle natürlichen Zahlen sind interessant. Hier ist also p die Aussage „n ist
natürliche Zahl“ und q ist die Aussage „n ist interessant“. Um p H) q zu
zeigen, nehmen wir an, n sei eine natürliche Zahl, die nicht interessant ist, also
p ^ :q. Dann gibt es also nicht interessante natürliche Zahlen, nämlich insbesondere das uninteressante n. Wir betrachten nun die Menge aller natürlichen
Zahlen, die uninteressant sind. Eine wesentliche Eigenschaft von nichtleeren
Mengen natürlicher Zahlen ist nun, dass es immer eine kleinste natürliche Zahl
A.3 Quantoren
415
in dieser Menge geben muss. In unserem Fall schließen wir, dass es eine kleinste
uninteressante natürliche Zahl gibt. Das ist der Widerspruch, den wir erreichen
wollten, da diese Zahl natürlich schon allein deshalb interessant ist, weil sie die
kleinste uninteressante Zahl ist.
• Ringschluss: Oftmals tritt die Situation auf, dass man nicht nur eine Äquivalenz,
sondern gleich mehrere Äquivalenzen
p 1 ” p2 ” ” pn
(A.9)
zeigen möchte. Anstatt alle 2.n 1/ Implikationen in (A.9) einzeln zu zeigen, ist
es daher ökonomischer, nur folgenden Ring
p1 H) p2 H) H) pn H) p1
(A.10)
von n Implikationen zu zeigen. Damit erhält man offenbar alle nötigen Implikationen für (A.9), indem man den Kreis entsprechend weiter durchläuft.
Man beachte aber, dass es sich hierbei nicht um einen (unsinnigen) Zirkelschluss handelt, da wir ja nur die Äquivalenz der Aussagen, aber nicht deren
individuelle Gültigkeit zeigen wollen.
A.3
Quantoren
Viele Aussagen in der Mathematik handeln von vielen Situation auf einmal, etwa
„Alle Primzahlen größer als 2 sind ungerade“ oder „Für alle natürlichen Zahlen
n ist n.n C 1/ eine gerade Zahl“. Man möchte also nicht nur eine Aussage über
eine einzelne Primzahl oder natürliche Zahl treffen, sondern eine Aussage für alle
möglichen Kombinationen auf einmal. Das Symbol n tritt hier als eine Variable
auf, die eine gewisse Wertemenge, hier die natürlichen Zahlen, durchlaufen soll.
Den Begriff der Menge werden wir noch etwas genauer fassen müssen, für unsere
Zwecke genügt hier jedoch eine naive Vorstellung.
Hat man also eine Menge von Aussagen pi , die durch eine Variable i gekennzeichnet sind und deren Wertemenge eine Menge I ist, so schreiben wir fpi gi2I . Wir
sagen auch, dass die Menge der Aussagen durch I indiziert ist. Aus einer solchen
Menge von Aussagen wollen wir folgende neuen Aussagen konstruieren:
Definition A.3 (Quantoren). Seien fpi gi2I durch eine Menge I indizierte Aussagen.
i.) Die Aussage 8i 2 I W pi ist genau dann wahr, wenn pi für alle i in I wahr ist.
ii.) Die Aussage 9i 2 I W pi ist genau dann wahr, wenn es ein i in I gibt, für das
die Aussage pi wahr ist.
iii.) Die Aussage 9Ši 2 I W pi ist genau dann wahr, wenn es genau ein i in I gibt,
für das die Aussage pi wahr ist.
416
Anhang A Grundbegriffe der Logik
Es sind auch leicht andere Schreibweisen üblich, etwa .8i 2 I /pi etc. Wichtig ist
nur, dass man durch etwaige Klammerung eine eindeutige Bedeutung erzielt. Weiter
schreibt man auch oft 8i unter Auslassung der Wertemenge I , sofern diese aus dem
Zusammenhang klar ist, sowie 8i; j 2 I anstelle von .8i 2 I / ^ .8j 2 I / etc.
Das Symbol 8 heißt auch der Allquantor, 9 ist der Existenzquantor und 9Š heißt
Quantor der eindeutigen Existenz.
Zu Illustration geben wir nun einige elementare Beispiele:
Beispiel A.4 (Quantoren).
i.) Die Aussage „8p 2 PrimzahlenW p ist ungerade“ ist falsch, da 2 eine gerade
Primzahl ist. Andererseits ist die Aussage „9p 2 PrimzahlenW p ist gerade“ eine
richtige Aussage. Hier können wir 9 sogar durch 9Š ersetzen, da ja 2 die einzige
gerade Primzahl ist.
ii.) Die Aussage „8n 2 NW 9k 2 NW k > n“ ist eine wahre Aussage, da zu einer
gegebenen natürlichen Zahl n die Zahl nC1 wieder eine natürliche Zahl ist, welche nun größer als n ist. Umgekehrt ist die Aussage „9k 2 NW 8n 2 NW k > n“
falsch. Die Reihenfolge ist daher beim Verwenden von Quantoren sorgfältig zu
beachten.
Bemerkung A.5 (Verwendung von Quantoren). Während die Verwendung von
Quantoren in Vorlesungen und auch bei der Bearbeitung von Aufgaben eine
willkommene Kurzschreibweise darstellt, ist es in längeren Texten jedoch üblich,
darauf zu verzichten. Mathematische Texte sind ohnehin meist kurz gehalten,
sodass ein zu exzessiver Gebrauch von Quantoren anstelle umgangssprachlicher
Formulierungen die Lesbarkeit unnötig erschwert. Wir werden daher außer in den
beiden Anhängen weitgehend darauf verzichten.
A.4
Vollständige Induktion
Auch wenn wir noch über keine mathematisch ansprechende Definition der natürlichen Zahlen verfügen, wollen wir doch bereits an dieser Stelle eine ihrer
wesentlichen Eigenschaften verwenden: Jede nichtleere Teilmenge A N von
natürlichen Zahlen hat ein kleinstes Element. Mit dieser Feststellung lässt sich ein
mächtiges Werkzeug zum Beweisen mathematischer Aussagen finden:
Satz A.6 (Vollständige Induktion). Für jedes n 2 N sei eine Aussage pn
vorgegeben. Wir nehmen an, dass
i.) die Aussage p1 wahr ist,
ii.) die Aussage pnC1 wahr ist, sofern pn wahr ist.
In diesem Fall sind alle Aussagen pn wahr.
A.5 Übungen
417
Beweis. Sei nämlich A N diejenige Teilmenge von natürlichen Zahlen n, für die
pn falsch ist. Ist A D ;, so ist der Satz bewiesen. Wir nehmen daher an, dass A ¤ ;.
Dann hat A ein Minimum n0 2 A: Für dieses n0 ist pn0 falsch. Da nach i.) aber p1
wahr ist, muss n0 2 gelten. Dann folgt aber, dass pn0 1 eine wahre Aussage ist,
da n0 minimal ist. Nach Voraussetzung ii.) ist daher pn0 wahr, ein Widerspruch. u
t
Wir können mit diesem Induktionsprinzip viele Aussagen auf einmal beweisen,
es müssen entsprechend nur die beiden Bedingungen i.) und ii.) gezeigt werden,
was oftmals viel einfacher ist, als alle (unendlich vielen) Aussagen separat zu
zeigen. Man nennt i.) den Induktionsanfang und ii.) den Induktionsschritt. Bei
der Verwendung dieses Satzes ist aber sorgfältig darauf zu achten, nicht nur
den Induktionsschritt nachzuweisen, sondern auch den Induktionsanfang: Ohne
diese Voraussetzung ist die Schlussfolgerung des Satzes sicherlich falsch, da die
Teilmenge A aus dem Beweis ja ganz N sein könnte und man daher keinen
Widerspruch erhalten kann.
Ein Induktionsbeweis bietet sich immer dann an, wenn es zum einen um
Aussagen geht, die durch natürliche Zahlen parametrisiert werden. Mit kleinen
Modifikationen kann man natürlich auch endlich viele Aussagen betrachten. Zum
anderen benötigt man meist eine gute Idee, wie die zu beweisenden, richtigen Aussagen aussehen könnten: Je mehr man beweisen will, also je stärker die zu zeigenden
Aussagen pn sind, desto mehr hat man auch im Beweis des Induktionsschritts von
pn nach pnC1 zur Verfügung. Daher ist für Induktionsbeweise Bescheidenheit meist
eine schlechte Idee.
Eine andere Anwendung des Induktionsprinzips ist, dass wir mathematische
Objekte induktiv definieren können: Man definiert ein mathematisches Objekt Pn
zunächst für n D 0 und gibt dann eine Regel an, wie Pn definiert werden soll, sofern
man Pn1 bereits definiert hat. Wir werden für diese rekursive Art der Definition
noch verschiedene Beispiele sehen.
A.5
Übungen
Übung A.1 (Schefferscher Strich). Schreiben Sie die Junktoren aus Definition A.1 mithilfe geeigneter Kombinationen des Schefferschen Strichs.
Übung A.2 (Die Wahrheit). Verifizieren Sie durch entsprechende Fallunterscheidungen die Gültigkeit der Tab. A.1.
Übung A.3 (Über Pinguine). Ein Pinguin wird durch 4 Werte a` , ar , f` , fr
aus f0; 1g beschrieben. Diese beschreiben (in dieser Reihenfolge) die „Anzahl der
Augen links“, „Anzahl der Augen rechts“, „Anzahl der Flügel links“, „Anzahl der
Flügel rechts“. Wir nennen einen Pinguin „links-vollständig“ wenn a` D 1 und
f` D 1. Wir nennen ihn „symmetrisch“ wenn a` D ar und f` D fr . Schließlich
heißt ein Pinguin „vollständig“, wenn a` D ar D f` D fr D 1 gilt.
418
Anhang A Grundbegriffe der Logik
i.) Zeigen Sie, dass ein Pinguin genau dann vollständig ist, wenn er linksvollständig und symmetrisch ist.
ii.) Widerlegen Sie, dass ein symmetrischer Pinguin mindestens so viele Augen
wie Flügel besitzt.
iii.) Zeigen oder widerlegen Sie, dass ein links-vollständiger und nicht symmetrischer Pinguin keinen rechten Flügel besitzt.
Übung A.4 (Induktionsbeweise). Es sollen nun einige einfache Beweise durch
vollständige Induktion geführt werden.
i.) Sei q 2 R n f1g eine reelle Zahl ungleich 1. Dann gilt für alle n 2 N
1 C q C q2 C C qn D
1 q nC1
:
1q
(A.11)
ii.) Die Fakultät nŠ von n 2 N0 sei induktiv durch 0Š D 1 und nŠ D n.n 1/Š
definiert. Zeigen Sie, dass
nŠ D 1 2 .n 1/ n
(A.12)
das Produkt der ersten n natürlichen Zahlen ist.
iii.) Untersuchen Sie, für welche n
2n nŠ
(A.13)
gilt. Hier sollte deutlich werden, dass der Induktionsanfang eine entscheidende
Rolle spielt.
iv.) Betrachten Sie analog die Ungleichung
n2 2n ;
(A.14)
und bestimmen Sie diejenigen n, für die (A.14) gültig ist. Auch hier ist ein
Induktionsbeweis eine Option.
Anhang B
Mengen und Abbildungen
Kaum ein anderer Begriff der Mathematik hat eine so grundlegende Bedeutung
wie der der Menge. Ebenfalls kaum ein anderer Begriff hat in der Geschichte
der Mathematik zu solch hitzigen Debatten geführt: die ursprünglichen Versionen
der Mengenlehre steckten voll von zum Teil subtil verborgenen Unklarheiten
und Widersprüchen, welche nur mühsam bereinigt werden konnten. Der moderne
Standpunkt einer axiomatischen Mengenlehre vermeidet und löst alle diese anfänglichen Schwierigkeiten, eignet sich allerdings wenig für eine Präsentation in
den ersten Semestern. Der übliche Ausweg, der hier ebenfalls beschritten werden
soll, ist daher, einen eher etwas naiven Standpunkt einzunehmen und lediglich die
relevanten Konstruktionen zu erklären, welche man in der Mengenlehre vornehmen
kann. Wir werden die Axiome zwar teilweise formulieren, aber auf eine stringente
Beweisführung der behaupteten Aussagen in diesem Abschnitt weitgehend verzichten. Eine gut lesbare Einführung findet man in [7].
B.1
Der Begriff der Menge
Eine Menge ist eine Zusammenfassung von verschiedenen Dingen, die wir dann ihre
Elemente nennen. Gelegentlich werden wir die Elemente von M auch die Punkte
von M nennen. Für eine Menge M schreiben wir x 2 M , wenn x ein Element
von M ist. Gilt dies nicht, so schreiben wir x … M . Eine mathematisch akzeptable
Definition ist dies natürlich noch nicht, da „Dinge“ und „Zusammenfassung“ etc.
nicht definiert sind. Für unsere Zwecke wollen wir aber nur, wie bereits erläutert,
einen intuitiven Zugang erzielen.
Eine Menge wird nun dadurch spezifiziert, dass wir angeben, welche Elemente
sie enthält. Insbesondere sind zwei Mengen genau dann gleich, wenn sie die
gleichen Elemente enthalten. Dies ist das Extensionalitätsaxiom der Mengenlehre.
Beispiel B.1 (Mengen). Wir illustrieren dies nun durch einige Beispiele.
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6
419
420
Anhang B
Mengen und Abbildungen
i.) Wir geben die Elemente in Form eine Aufzählung an, also etwa M D fa; bg
und N D f1; 2; 3g. Man beachte jedoch, dass die Mengen fa; ag und fag gleich
sind, da sie dieselben Elemente, nämlich a, enthalten. Zählen wir ein Element
mehrmals auf, ändert sich die Menge nicht.
ii.) Ein wichtiges Beispiel einer Menge ist die leere Menge ;. Dies ist diejenige
Menge, die keine Elemente hat.
iii.) Die natürlichen Zahlen bezeichnen wir mit
N D f1; 2; 3; : : :g
(B.1)
N0 D f0; 1; 2; 3; : : :g:
(B.2)
und setzen
Man beachte, dass in der Literatur auch andere Konventionen für die Bezeichnung der natürlichen Zahlen verwende werden.
iv.) Weiter benötigen wir auch die Mengen der ganzen Zahlen
Z D f0; 1; 1; 2; 2; : : :g
(B.3)
und der rationalen Zahlen
QD
˚n
m
wobei n 2 Z; m 2 N :
(B.4)
Man beachte, dass bei der Aufzählung der rationalen Zahlen eine gewisse
nk
D mn für k ¤ 0.
Redundanz besteht, da ja mk
v.) Schließlich werden wir auch die Menge der reellen Zahlen verwenden. Diese
bezeichnen wir mit R. Eine mathematisch präzise Definition der reellen Zahlen
erfordert erheblich mehr Aufwand als bei den rationalen Zahlen: Es gibt hier
verschiedene Varianten, die alle in der Analysis besprochen werden, siehe
beispielsweise [1, Kap. 10].
Neben dem Extensionalitätsaxiom, welches eine Menge anhand ihrer Elemente
charakterisiert, ist das Aussonderungsaxiom von entscheidender Bedeutung bei der
Konstruktion neuer Mengen aus bereits vorhandenen: Sei M eine gegebene Menge
und p.x/ eine Aussage, die wir für jedes x 2 M treffen können. Dann erhalten
wir eine neue Menge N aus denjenigen Elementen x 2 M , für welche die Aussage
p.x/ wahr ist. Wir schreiben für diese Menge dann
ˇ
˚
N D x 2 M ˇ p.x/ ist wahr
(B.5)
oder auch N D fx 2 M W p.x/g. Es werden also die Elemente von M ausgesondert,
für welche p.x/ gilt.
B.1 Der Begriff der Menge
421
Wir sehen in dieser Konstruktion, dass alle Elemente von N auch in M liegen.
Im Allgemeinen nennen wir eine Menge N eine Teilmenge von M , wenn jedes
Element von N auch Element von M ist. Wir schreiben dies als N M , also
N M ” 8x 2 N W x 2 M:
(B.6)
Wollen wir betonen, dass N eine echte Teilmenge von M ist, es also Elemente von
M gibt, die nicht in N liegen, so schreiben wir N ¨ M . Ebenfalls gebräuchlich,
aber oft etwas missverständlich ist N M .
Beispiel B.2 (Aussonderung und Teilmengen). Wir geben nun einige weitere Beispiele für Aussonderung und Teilmengen:
i.) Die natürlichen Zahlen N sind eine Teilmenge von N0 , was wiederum eine
Teilmenge von den ganzen Zahlen Z darstellt. Es gilt also
N N0 Z:
(B.7)
Hier sind offenbar beide Inklusionen sogar echt.
ii.) Identifizieren wir n 2 Z mit n1 2 Q, so wird Z eine Teilmenge von Q, also
Z Q:
(B.8)
iii.) Die leere Menge ist eine Teilmenge einer jeden Menge M , es gilt also
;M
(B.9)
für eine beliebige Menge M .
iv.) Die geraden Zahlen und die Primzahlen erhalten wir durch Aussonderung
ˇ
˚
2Z D n 2 Z ˇ n ist gerade
(B.10)
ˇ
˚
P D n 2 N ˇ n ist Primzahl :
(B.11)
und
Die relevante Aussage im ersten Fall ist p.n/ D 9m 2 ZW n D 2m. Im zweiten
Fall können wir die Eigenschaft, prim zu sein, durch
p.n/ D .n ¤ 1/ ^ ..9m; k 2 NW n D mk/ H) ..m D 1/ _ .k D 1///
(B.12)
beschreiben.
422
Anhang B
Mengen und Abbildungen
Bemerkung B.3 (Die Menge aller Mengen). Wir können nun als Aussage auch
p.x/ D .x 2 x/ betrachten, also „x enthält sich selbst als Element“. Sei nun M
eine Menge, dann betrachten wir durch Aussonderung die Teilmenge
ˇ
˚
N D x2M ˇx…x :
(B.13)
Wir behaupten N … M . Man beachte, dass als Teilmenge natürlich N M gilt.
Wir nehmen das Gegenteil an und behaupten N 2 M . Zunächst gilt entweder
N 2 N oder N … N . Wäre nun N 2 N , so wäre dies im Widerspruch zur
Definition der Menge N , da N nur diejenigen Elemente von M enthält, die sich
selbst nicht enthalten. Wäre andererseits N … N , so müsste nach Definition von
N die Teilmenge N ein Element von N sein, was ebenfalls einen Widerspruch,
nämlich zu N … N liefert. Daher kann N 2 M nicht gelten, und wir haben
unsere Behauptung durch einen Widerspruchsbeweis gezeigt. Dies ist zunächst
noch nicht weiter interessant. Da aber die Menge M beliebig war, können wir aus
dieser Überlegung schließen, dass es keine Menge aller Mengen geben kann. Diese
würde die gemäß (B.13) gebildete Teilmenge ja als Element enthalten müssen, da
sie alle Mengen enthält, was wir aber gerade widerlegt haben. Als Fazit ist daher
festzuhalten, dass beim Aussonderungsaxiom sehr genau spezifiziert werden muss,
dass es eine umgebende Menge gibt, aus der ausgesondert werden soll.
Als Nächstes benötigen wir Regeln, die es uns erlauben, eine gewisse Reichhaltigkeit der Mengenlehre sicherzustellen. Dazu dienen das Paarbildungsaxiom, das
Vereinigungsaxiom sowie das Potenzmengenaxiom.
Das Paarbildungsaxiom fordert, dass es zu je zwei Mengen M und N eine
weitere Menge gibt, welche M und N als Elemente enthält. Mit anderen Worten,
fM; N g ist wieder eine Menge.
Angewandt auf M D N liefert dies eine Menge fM g mit einem Element,
nämlich der Menge M . Man beachte, dass diese Menge von M verschieden ist.
Insbesondere können wir M D ; betrachten und erhalten mit f;g eine Menge mit
einem Element, gegeben durch die leere Menge. Iteriert man dies, so erhält man
Mengen ;; f;g; f;; f;gg, etc., welche alle verschieden sind.
Hat man nun eine Menge I gegeben, sowie Mengen Mi für jedes Element i 2 I ,
so nennt man fMi gi2I ein Mengensystem (oder auch eine Familie von Mengen) mit
der Indexmenge I . Das Vereinigungsaxiom fordert nun, dass es zu jedem solchen
Mengensystem fMi gi2I eine Menge M gibt, die Vereinigung aller Mi , sodass M
genau alle Elemente der einzelnen Mi enthält. Für dieses M schreiben wir
M D
[
Mi ;
(B.14)
i2I
oder M D M1 [ [ Mn , falls es sich nur um endlich viele Mengen handelt. Es
gelten nun folgende einfache Rechenregeln
M [ ; D M;
(B.15)
B.2 Operationen mit Mengen
423
M [ N D N [ M;
(B.16)
M [ .N [ O/ D .M [ N / [ O;
(B.17)
M [M DM
(B.18)
und
für die Vereinigung von Mengen M , N und O.
Das Potenzmengenaxiom sichert nun, dass die Gesamtheit aller Teilmengen
einer Menge wieder eine Menge bilden, die Potenzmenge 2M von M . Eine andere
Schreibweise für die Potenzmenge ist P.M /. Die Bezeichnung 2M rührt daher, dass
für eine endliche Menge M mit n Elementen die Potenzmenge 2n Elemente besitzt.
Dies ist eine einfache kombinatorische Überlegung, welche mit vollständiger
Induktion bewiesen wird, siehe Übung B.9.
Es gibt nun noch einige weitere Axiome der Mengenlehre, welche unter anderem
die Existenz und die Eigenschaften unendlicher Mengen betreffen. Zu erwähnen
ist insbesondere noch das Auswahlaxiom, welches in verschiedenen Varianten
formuliert werden kann. Seine Rolle gilt als umstritten bis mysteriös, lassen sich
doch einige eher kontraintuitive Sachverhalte in der Mathematik mit seiner Hilfe
zeigen. Wir werden einen recht pragmatischen Standpunkt einnehmen und das
Auswahlaxiom in Form des Zornschen Lemmas an einigen Stellen bemühen. Eine
schöne Darstellung der Rolle des Auswahlaxioms an verschiedensten Stellen in der
Mathematik findet man in [8].
B.2
Operationen mit Mengen
Indem wir die Regeln der Aussonderung und der Vereinigung geschickt kombinieren, können wir neue Konstruktionen von Mengen angeben.
Definition B.4 (Komplement). Sei M eine Menge und N M eine Teilmenge.
Dann ist das Komplement von N in M durch
ˇ
˚
M nN D x 2M ˇx …N
(B.19)
definiert. Alternativ schreibt man auch N c , wenn klar ist, innerhalb welcher
umgebenden Menge man das Komplement von N betrachtet.
Definition B.5 (Durchschnitt). Sei fMi gi2I ein Mengensystem. Dann ist der
Durchschnitt von allen Mi durch
\
˚ ˇ
(B.20)
Mi D x ˇ 8i 2 I W x 2 Mi
i2I
definiert.
424
Anhang B
Mengen und Abbildungen
M ∪N
M ∩N
M
N
M \N
N
M
Abb. B.1 Mengentheoretische Operationen: Vereinigung, Schnitt und Komplement
Es gilt offenbar M n N M ebenso wie
\
Mi Mj
(B.21)
i2I
für alle Indizes j 2 I . Für endlich viele Mengen schreiben wir auch M1 \ \ Mn .
Man beachte, dass die Aussonderung in der Definition des Durchschnitts innerhalb
jeder der beteiligten Mengen Mi stattfinden kann. Daher benötigen wir für die
Komplementbildung und den Durchschnitt kein neues Axiom der Mengenlehre.
Grafisch lassen sich Schnitte, Komplemente und Vereinigungen leicht visualisieren. Wir geben einige Beispiele in Abb. B.1.
Mithilfe des Paarbildungsaxioms können wir nun auch das kartesische Produkt
von Mengen konstruieren. Dazu definieren wir für x 2 M und y 2 N das geordnete
Paar
.x; y/ D fx; fx; ygg:
(B.22)
Der Grund für diese etwas umständlich erscheinende Definition ist, dass wir selbst
für den Fall, dass x D y gilt, das geordnete Paar als eine Menge mit zwei Elementen
definieren wollen. Ein erster Versuch mit fx; yg könnte dies nicht leisten, da für
x D y ja fx; xg D fxg gilt. Für geordnete Paare gilt nun
.x; y/ D .x 0 ; y 0 / ” x D x 0 und y D y 0 :
(B.23)
B.2 Operationen mit Mengen
425
Mittels des Vereinigungsaxioms können wir nun zuerst für ein festes x 2 M
die Vereinigung aller geordneten Paare .x; y/ für alle y 2 N bilden. Anschließend
bilden wir noch die Vereinigung über alle x 2 M . Dies liefert dann das kartesische
Produkt
ˇ
˚
M N D .x; y/ ˇ x 2 M; y 2 N
(B.24)
der Mengen M und N . Iterativ können wir auch größere kartesische Produkte
bilden. Dazu definiert man das geordnete n-Tupel
.x1 ; : : : ; xn / D .x1 ; .x2 ; : : : ; xn1 //
(B.25)
von x1 2 M1 , . . . , xn 2 Mn iterativ für n 3 und schreibt
ˇ
˚
M1 Mn D .x1 ; : : : ; xn / ˇ x1 2 M1 ; : : : ; xn 2 Mn :
(B.26)
Streng genommen gilt M1 .M2 M3 / ¤ .M1 M2 / M3 , womit wir
in (B.26) eigentlich Klammern setzen müssten. Unter Verwendung einer geeigneten
Abbildung, deren allgemeine Natur wir in Abschn. B.4 diskutieren wollen, kann
man aber sehen, dass beide Möglichkeiten auf natürliche Weise miteinander
identifiziert werden können. Dies rechtfertigt die vereinfachte und durchaus übliche
Schreibweise in (B.26). Gilt zudem M1 D D Mn D M , so schreiben wir
Mn D M M
(B.27)
für das n-fache kartesische Produkt der Menge M mit sich selbst. Die folgenden
einfachen Beispiele illustrieren den Gebrauch des kartesischen Produkts:
Beispiel B.6 (Kartesisches Produkt).
i.) Wir betrachten die beiden Mengen M D fa; bg und N D f1; 2; 3g. Dann gilt
M N D f.a; 1/; .a; 2/; .a; 3/; .b; 1/; .b; 2/; .b; 3/g;
(B.28)
womit das Produkt also 2 3 D 6 Elemente besitzt. Eine elementare kombinatorische Überlegung zeigt, dass für zwei endliche Mengen mit m und n
Elementen das kartesische Produkt mn Elemente besitzt.
ii.) Die Zahlenebene
ˇ
˚
R2 D .x; y/ ˇ x; y 2 R
(B.29)
ist die Arena der ebenen Geometrie. Allgemein werden wir ein kartesisches
Produkt M N immer als „Ebene“ darstellen, wobei die Elemente der
Mengen entlang der jeweiligen Achsen aufgetragen werden. Diese Darstellung
426
Anhang B
Mengen und Abbildungen
N
M×N
(x, y)
y
x
M
Abb. B.2 Symbolische Darstellung des kartesischen Produkts von M und N
ist selbstverständlich nur symbolisch gemeint, da im Allgemeinen weder M
noch N Teilmengen von R sein müssen, siehe auch Abb. B.2.
iii.) Der Anschauungsraum
ˇ
˚
R3 D .x; y; z/ ˇ x; y; z 2 R
(B.30)
wird entsprechend zur Ebene für die dreidimensionale Geometrie genutzt.
Er stellt auch ein mathematisches Modell des physikalischen Raumes in der
Newtonschen Mechanik dar.
Wir tragen nun einige elementare Rechenregeln zusammen, die die Beziehungen
von [, \ und n klären. Die Verifikation der behaupteten Beziehungen ist dabei eine
kleine Übung.
Proposition B.7. Sei M eine Menge und N M . Dann gilt
M n .M n N / D N;
(B.31)
M n;DM
(B.32)
M n M D ;:
(B.33)
und
Proposition B.8. Seien M; N; O Mengen. Dann gilt
M \ ; D ;;
(B.34)
M \ N D N \ M;
(B.35)
B.3 Relationen
427
M \ .N \ O/ D .M \ N / \ O
(B.36)
M \ M D M:
(B.37)
und
Proposition B.9. Seien M , fMi gi2I und fNj gj 2J Mengen. Dann gilt
\
i2I
[
i2I
\
Mi [
[
Mi \
Mn
j 2J
j 2J
Nj D
\
.Mi [ Nj /;
(B.38)
.Mi \ Nj /;
(B.39)
i2I;j 2J
Nj D
[
i2I
[
i2I;j 2J
\
Mi D
.M n Mi /
(B.40)
i2I
und
Mn
\
i2I
[
Mi D
.M n Mi /:
(B.41)
i2I
Hierbei ist es illustrativ, einige Spezialfälle für wenige Mengen aufzuschreiben. So
gilt beispielsweise
M [ .N \ O/ D .M [ N / \ .N [ O/
(B.42)
M \ .N [ O/ D .M \ N / [ .M \ O/;
(B.43)
und
siehe auch Abb. B.3.
B.3
Relationen
Relationen spielen in der Mathematik eine zentrale Rolle. Ein bekanntes Beispiel
ist etwa die „kleiner gleich“ Relation für natürliche Zahlen. Es sind aber auch
deutlich kompliziertere Relationen denkbar: Man betrachte eine Landkarte als Teilmenge der Zahlenebene mit Seen und Inseln. Dann ist „trockenen Fußes erreichbar“
eine Relation zwischen den Punkten der Inseln, welche eine anschauliche Definition
der „Zusammenhangskomponenten“ der Landmasse liefert.
Während diese Beispiele zweistellige Relationen darstellen, sind natürlich auch
mehrstellige Relationen denkbar: etwa die Relation, dass drei Punkte der Ebene ein
428
Anhang B
M
Mengen und Abbildungen
N
O
Abb. B.3 Grafische Illustration der Rechenregel M [ .N \ O/ D .M [ N / \ .M [ O/
gleichseitiges Dreieck bilden. Um nun diese Beispiele genauer fassen zu können,
wollen wir einen möglichst allgemeinen Standpunkt einnehmen. Charakteristisch
für die obigen Beispiele von zweistelligen Relationen ist, dass Elemente x 2 M und
y 2 N von zwei Mengen „in Relation“ gebracht werden. Es müssen offenbar nicht
alle x oder alle y überhaupt in Relation zu etwas stehen. Wichtig bei einer Relation
ist zudem, dass sie sich auf zwei vorher festgelegte Mengen M und N bezieht: Die
Relation kann man für natürliche Zahlen, reelle Zahlen oder noch kompliziertere
Objekte in der Mathematik verwenden (etwa für selbstadjungierte Abbildungen auf
einen euklidischen oder unitären Vektorraum etc.). Es ist dann natürlich immer eine
andere Relation, obwohl man dasselbe Symbol verwendet. Diese Vorüberlegungen
münden daher in folgende Definition:
Definition B.10 (Relation). Seien M und N Mengen. Eine Relation über M und
N ist eine Teilmenge R M N .
Um zu betonen, dass sich die Relation R auf M und N bezieht, kann man eine
Relation auch als Tripel .M; N; R/ von drei Mengen auffassen, wobei R M N gilt. Stehen nun zwei Elemente x 2 M und y 2 N in Relation R, gilt also
.x; y/ 2 R, so schreiben wir oft kurz xRy.
Zur Illustration ist es nützlich, das Beispiel der Relation für reelle Zahlen
nochmals grafisch aufzugreifen und als Teilmenge des kartesischen Produkts R R
aufzuzeichnen, siehe Abb. B.4.
Relationen können offenbar sehr vielfältige Eigenschaften besitzen. Wir erwähnen hier nur einige oft auftretende:
B.3 Relationen
429
Abb. B.4 -Relation als
Teilmenge von R R
y
x≤y
x
Definition B.11 (Rechts- und linkseindeutige Relation). Seien M und N Mengen, und sei R M N eine Relation.
i.) Die Relation R heißt rechtseindeutig, falls
8x 2 M 9Šy 2 N W xRy:
(B.44)
ii.) Die Relation R heißt linkseindeutig, falls
8y 2 N 9Šx 2 M W xRy:
(B.45)
Gilt M D N , so gibt es weitere Eigenschaften von Relationen:
Definition B.12 (Äquivalenzrelation und partielle Ordnung). Sei M eine Menge und R M M eine Relation.
i.)
ii.)
iii.)
iv.)
v.)
vi.)
vii.)
viii.)
Die Relation R heißt reflexiv, falls 8x 2 M W xRx.
Die Relation R heißt symmetrisch, falls 8x; y 2 M W xRy H) yRx.
Die Relation R heißt transitiv, falls 8x; y 2 M W .xRy ^ yRz/ H) xRz.
Die Relation R heißt Äquivalenzrelation, falls R reflexiv, symmetrisch und
transitiv ist.
Die Relation R heißt Präordnung (oder Quasiordnung), falls R reflexiv und
transitiv ist.
Die Relation R heißt partielle Ordnung, falls R eine Präordnung mit der
zusätzlichen Eigenschaft 8x; y 2 M W .xRy ^ yRx/ H) x D y ist.
Eine Präordnung R heißt Richtung und entsprechend .M; R/ gerichtete
Menge, falls es zu x; y 2 M ein z 2 M mit xRz und yRz gibt.
Eine partielle Ordnung R heißt total (oder linear), falls für alle x; y 2 M eine
Relation xRy oder yRx besteht.
Beispiel B.13 (Relationen).
i.) Die Relation auf N, Q oder auch auf R ist reflexiv, da x x für alle Zahlen
gilt. Sie ist auch transitiv, da x y und y z impliziert, dass auch x z gilt.
430
Anhang B
Mengen und Abbildungen
Allerdings ist nicht symmetrisch, da x x C 1 aber x C 1 6 x. Da es immer
mehrere Zahlen gibt, die kleiner/größer als eine fest gewählte Zahl x sind, ist weder links- noch rechtseindeutig. Die Relation ist allerdings eine partielle
Ordnung, ja sogar eine totale Ordnung.
ii.) Die (anschaulich definierte) Relation „trockenen Fußes erreichbar“ ist eine
Äquivalenzrelation.
iii.) Sei p 2 N fest gewählt. Dann definieren wir eine Relation „äquivalent modulo
p“ oder auch „kongruent modulo p“ auf Z Z durch
n m mod p ” n m 2 pZ:
(B.46)
Die beiden Zahlen n und m stehen also in der Relation „äquivalent modulo
p“ genau dann, wenn ihre Differenz ein ganzzahliges Vielfaches von p ist.
Für p D 0 bedeutet dies einfach, dass n D m gilt. Für p ¤ 0 ist die
Situation komplizierter, aber man überzeugt sich leicht davon, dass „mod p“
eine Äquivalenzrelation ist: Die Reflexivität ist klar, da n n D 0 ein
ganzzahliges Vielfaches von p ist. Ist nun n m D kp mit k 2 Z, so ist auch
m n D .k/p mit k 2 Z, was die Symmetrie zeigt. Schließlich betrachten
wir n m D kp und m ` D rp mit k; r 2 Z. Dann ist n ` D .k C r/p
mit k C r 2 Z wieder ein ganzzahliges Vielfaches von p. Also gilt auch die
Transitivität.
iv.) Sei M eine Menge und 2M ihre Potenzmenge. Auf 2M definieren wir eine
Relation über „Teilmenge sein“, also . Eine einfache Verifikation zeigt, dass
reflexiv und transitiv, aber nicht symmetrisch ist. Es gilt beispielsweise
immer ; M aber im Allgemeinen M 6 ;, außer wenn M D ;. Damit ist
eine Präordnung. Da Teilmengen N; O 2 2M durch ihre Elemente festgelegt
sind, folgt aus N O und O N sofort N D O. Daher ist sogar eine
partielle Ordnung. Da wir zu je zwei Teilmengen N; O M eine Menge
finden, die N und O enthält, beispielsweise N [ O, sehen wir, dass auch
eine Richtung ist. Damit ist die Potenzmenge also eine gerichtete Menge. Man
sieht aber auch, das hier keine totale Ordnung besteht, da zwei Teilmengen U
und V von M im Allgemeinen nicht vergleichbar bezüglich sind.
Sei .M; / eine partiell geordnete Menge. Ein Element p 2 M heißt minimales
Element oder Infimum (beziehungsweise maximales Element oder Supremum), falls
aus q p (oder entsprechend q p) folgt, dass q D p gilt. Ein Minimum
(beziehungsweise Maximum) ist ein Punkt p 2 M mit der Eigenschaft, dass
für alle q 2 M gilt, dass p q (beziehungsweise q p), siehe auch
Übung B.5. Wir können nun das Lemma von Zorn formulieren, welches letztlich
zum Auswahlaxiom der Mengenlehre äquivalent ist. Wir verzichten daher auf einen
Beweis und verweisen auf die weiterführende Literatur wie beispielsweise [7, 8].
B.4 Abbildungen
431
Satz B.14 (Zornsches Lemma). Sei .M; / eine nichtleere partiell geordnete
Menge mit der Eigenschaft, dass jede bezüglich linear geordnete Teilmenge
N M ein Supremum besitzt. Dann besitzt .M; / auch ein Supremum.
Man beachte jedoch, dass ein Supremum nicht notwendigerweise eindeutig ist. Das
Zornsche Lemma macht auch keinerlei Aussagen, wie ein Supremum gegebenenfalls zu finden ist: Es ist eine reine Existenzaussage.
B.4
Abbildungen
In der Schule ist eine Funktion immer an eine „Rechenvorschrift“ geknüpft, also
etwa von der Form f .x/ D x 2 , wobei jedem x 2 R sein Quadrat zugeordnet
wird. In der wissenschaftlichen Mathematik benötigen wir erheblich allgemeinere
Funktionen und Abbildungen als derartige Rechenvorschriften. Wir wollen nun
definieren, was eine Funktion von einer Menge in eine andere ist. Wir werden
die Begriffe „Funktion“ und „Abbildung“ im Wesentlichen synonym verwenden.
Oft wird jedoch „Funktion“ für eine Abbildung mit Werten in den reellen oder
komplexen Zahlen reserviert, während „Abbildung“ der allgemeinere Begriff ist.
Die Vorstellung ist nun, dass eine Abbildung f jedem Element x einer Menge
M ein Element y D f .x/ einer anderen Menge N zuordnet. Dies ist aber
gleichbedeutend damit, dass die Teilmenge
ˇ
˚
graph.f / D .x; f .x// ˇ x 2 M M N
(B.47)
eine rechtseindeutige Relation auf M und N ist. Ist umgekehrt eine rechtseindeutige
Relation R M N gegeben, so können wir hieraus eine Abbildung rekonstruieren, indem wir x 2 M dasjenige eindeutig bestimmte y 2 N zuordnen,
für welches xRy gilt. Beide Standpunkte sind daher äquivalent. Wir fassen diese
Vorüberlegungen in folgender Definition zusammen:
Definition B.15 (Abbildung). Seien M und N zwei Mengen. Eine Abbildung f
von M nach N ist eine rechtseindeutige Relation .M; N; graph.f //. Die Teilmenge
graph.f / M N heißt dabei der Graph der Abbildung.
Als Schreibweise für eine Abbildung verwenden wir auch
f W M ! N
(B.48)
f W M 3 x 7! f .x/ 2 N;
(B.49)
oder
432
Anhang B
Mengen und Abbildungen
N
N
f (x)
graph(f )
x
M
x
M
Abb. B.5 Die linke Relation ist ein Graph, die rechte nicht.
wenn wir betonen wollen, welches Element x auf welchen Wert f .x/ abgebildet
wird. Die Menge M heißt nun der Definitionsbereich oder Urbildbereich der
Abbildung, die Menge N der Bildbereich. Man beachte, dass bei dieser Definition
einer Abbildung der Definitionsbereich ebenso wie der Bildbereich Teil der Daten
einer Abbildung sind. So sind die Abbildungen
f1 W N 3 x 7! x 2 2 N;
(B.50)
f2 W N 3 x 7! x 2 2 Z;
(B.51)
f3 W Z n f0g 3 x 7! x 2 2 N
(B.52)
alle als verschieden anzusehen.
Der Begriff „Graph“ ist naheliegend, wenn wir die Relation wieder in das kartesische Produkt „einzeichnen“, siehe Abb. B.5. Insbesondere wird die Bedeutung
der Forderung, rechtseindeutig zu sein, in der grafischen Darstellung besonders
transparent.
Einige Beispiele und Konstruktionen von Abbildungen treten immer wieder auf,
sodass sie eigene Namen verdienen:
Beispiel B.16 (Spezielle Abbildungen).
i.) Für eine Menge M ist die Identität auf M die Abbildung
idM W M 3 x 7! x 2 M:
(B.53)
Der Graph der Identität ist die Diagonale
ˇ
˚
graph.idM / D M D .x; x/ ˇ x 2 M :
(B.54)
ii.) Für zwei Mengen M und N und ein fest gewähltes Element p 2 N ist die
konstante Abbildung mit Wert p durch M 3 x 7! p 2 N gegeben. Diese
Abbildung hat den Graphen f.x; p/ j x 2 M g.
iii.) Ist N M eine Teilmenge, so erhält man die Inklusionsabbildung
B.4 Abbildungen
433
N W N 3 x 7! x 2 M
(B.55)
ˇ
˚
graph.N / D .x; x/ ˇ x 2 N N M:
(B.56)
mit dem Graphen
Man beachte, dass dies nicht die Identitätsabbildung auf N ist, da der Bildbereich nicht N , sondern M ist.
iv.) Für ein kartesisches Produkt M D M1 Mn und i 2 f1; : : : ; ng definiert
man die Projektion auf die i -te Komponente durch
pri W M1 Mn 3 .x1 ; : : : ; xn / 7! xi 2 Mi :
(B.57)
Der Graph von pri ist dann entsprechend
ˇ
˚
graph.pri / D .x1 ; : : : ; xn ; xi / ˇ x1 2 M1 ; : : : ; xn 2 Mn :
(B.58)
Ist f W M ! N eine Abbildung und ist A M eine Teilmenge, so können wir
f auf A einschränken: Die Einschränkung von f auf A ist durch
ˇ
f ˇA W A 3 x 7! f .x/ 2 N
(B.59)
definiert. Umgekehrt wollen wir auch eine Einschränkung auf einen Teil des
Bildbereichs definieren. Dazu nehmen wir zusätzlich an, B N sei eine Teilmenge
mit der Eigenschaft f .x/ 2 B für alle x 2 M . Dann ist die Koeinschränkung von
f auf B durch
ˇB
f ˇ W M 3 x 7! f .x/ 2 B
(B.60)
definiert. Dies ist offenbar nur dann möglich, wenn f seine Werte in B annimmt.
Als Beispiel können wir die Abbildungen f1 , f2 und f3 aus (B.50), (B.51)
und (B.52) betrachten. Es gilt
ˇN
ˇ
f1 D f2 ˇ D f3 ˇN :
(B.61)
Für eine weitere wichtige Konstruktion betrachten wir erneut eine Abbildung
f W M ! N . Daraus lassen sich zwei neue Abbildungen konstruieren: Zuerst
definieren wir für eine Teilmenge A M die Teilmenge
ˇ
˚
f .A/ D y 2 N ˇ 9x 2 AW y D f .x/
(B.62)
und nennen f .A/ N das Bild von A unter der Abbildung f . Dies liefert eine
Abbildung
f W 2M ! 2N ;
(B.63)
434
Anhang B
Mengen und Abbildungen
wobei wir dasselbe Symbol f erneut verwenden. Insbesondere gilt f .;/ D ;. Die
Teilmenge f .M / N nennt man auch einfach das Bild von f und bezeichnet sie
mit
im f D f .M / N:
(B.64)
Eine allzu große Verwirrung durch die Verwendung desselben Symbols ist nicht zu
erwarten, da f .fxg/ D ff .x/g für die einelementige Teilmenge fxg M mit
x 2 M gilt.
Die zweite Möglichkeit ist letztlich die wichtigere: Für eine Teilmenge B N
definieren wir die Teilmenge
ˇ
˚
f 1 .B/ D x 2 M ˇ f .x/ 2 B ;
(B.65)
womit also x 2 f 1 .B/ ” f .x/ 2 B. Man nennt f 1 .B/ das Urbild der
Teilmenge B unter der Abbildung f . Dies liefert daher eine Abbildung
f 1 W 2N ! 2M :
(B.66)
Wieder gilt f 1 .;/ D ;. Weiter gilt nun
f 1 .N / D M;
(B.67)
da jeder Punkt von M nach N abgebildet wird. Man beachte jedoch, dass für eine
einelementige Teilmenge fyg N die Teilmenge f 1 .fyg/ nicht notwendigerweise nur ein Element enthält. Vielmehr kann sie gänzlich leer sein oder aber mehr als
ein Element enthalten. Für die Abbildung f3 aus (B.52) gilt etwa
f31 .f1g/ D f1; 1g
f31 .f2g/ D ;;
und
(B.68)
da .1/2 D 12 D 1 gilt und 2 sich nicht als Quadrat einer ganzen Zahl schreiben
lässt. Die Elemente von f 1 .fyg/ nennt man allgemein auch die Urbilder von
y 2 N.
Wir schließen diesen Abschnitt mit einer Bemerkung zum Verhalten der mengentheoretischen Operationen n, \ und [ unter Abbildungen. Wir beginnen mit dem
Bild von Teilmengen:
Proposition B.17. Sei f W M ! N eine Abbildung und seien fAi gi2I Teilmengen
von M . Dann gilt
f
und
\
i2I
\
Ai i2I
f .Ai /
(B.69)
B.4 Abbildungen
435
f
[
i2I
[
Ai D
i2I
f .Ai /:
(B.70)
Die Inklusion in (B.69) kann dabei durchaus echt sein: Gibt es nämlich x1 ; x2 2 M
mit x1 ¤ x2 aber y D f .x1 / D f .x2 /, so ist für A1 D fx1 g und A2 D fx2 g
der Schnitt leer, also auch f .A1 \ A2 / D ;. Andererseits ist f .A1 / \ f .A2 / D
fyg \ fyg D fyg nicht leer.
Für das Komplement einer Teilmenge A M gibt es im Allgemeinen keine
einfache Beziehung zwischen f .M n A/ und N n f .A/: Zum einen kann es
Punkte geben, die nicht im Bild von f liegen, also y 2 N n f .M /. Dann gilt
y 2 N n f .A/ für jede Teilmenge A M , aber f .M n A/ enthält y ebenfalls
nicht. Umgekehrt kann es Punkte x1 2 A und x2 2 M n A geben, die auf
denselben Punkt y D f .x1 / D f .x2 / abgebildet werden. Dann ist y 2 f .M n A/,
da y D f .x2 / 2 f .M n A/. Andererseits ist y … N n f .A/, da y 2 f .A/, wegen
y D f .x1 /.
Für das Urbild von Teilmengen ist die Situation dagegen sehr viel übersichtlicher:
Proposition B.18. Sei f W M ! N eine Abbildung, und seien B N und
fBi gi2I Teilmengen von N . Dann gilt
f 1 .N n B/ D M n f 1 .B/;
\
\
Bi D
f 1 .Bi /
f 1
i2I
(B.71)
(B.72)
i2I
und
f 1
[
i2I
[
Bi D
i2I
f 1 .Bi /:
(B.73)
Beweis. Da dieser Sachverhalt tatsächlich sehr wichtig ist, wollen wir nun einen
ausführlichen Beweis geben. Für den ersten Teil findet man
x 2 f 1 .N n B/ ” f .x/ 2 N n B
” f .x/ … B
” x … f 1 .B/
” x 2 M n f 1 .B/:
Der zweite Teil folgt aus
x 2 f 1
\
i2I
Bi
” f .x/ 2
\
i2I
Bi
” 8i 2 I W f .x/ 2 Bi
436
Anhang B
Mengen und Abbildungen
” 8i 2 I W x 2 f 1 .Bi /
\
f 1 .Bi /;
” x2
i2I
und den dritten Teil erhalten wir durch
[
[
Bi ” f .x/ 2
x 2 f 1
i2I
i2I
Bi
” 9i 2 I W f .x/ 2 Bi
” 9i 2 I W x 2 f 1 .Bi /
[
” x2
f 1 .Bi /;
i2I
t
u
womit alle Behauptungen bewiesen sind.
B.5
Verkettungen von Abbildungen
Wir wollen nun aus gegebenen Abbildungen neue Abbildungen generieren. Hier ist
das Verketten von Abbildungen von fundamentaler Bedeutung:
Definition B.19 (Verkettung). Seien f W M ! N und gW N ! O Abbildungen. Dann definiert man die Verkettung von g nach f als die Abbildung
g ı f W M ! O mit
.g ı f /.x/ D g.f .x//
(B.74)
für alle x 2 M .
Dies stellt offenbar tatsächlich eine Abbildung von M nach O dar, da jedem
x 2 M ein eindeutig bestimmtes Element g.f .x// 2 O zugeordnet wird. Die
Verkettung ist insbesondere nur dann möglich, wenn der Bildbereich der ersten
Abbildung f im Definitionsbereich der zweiten enthalten ist.
Beispiel B.20 (Verkettung). Wir betrachten die folgenden beiden Abbildungen
f W N 3 x 7! 2x 2 N und
gW N 3 x 7! x 2 2 N:
(B.75)
Da für beide Abbildungen der Bildbereich und der Definitionsbereich übereinstimmen, können wir beide Verkettungen f ı g und g ı f bilden. Wir erhalten
.f ıg/.x/ D f .g.x// D f .x 2 / D 2x 2 und .gıf /.x/ D g.f .x// D g.2x/ D 4x 2 :
(B.76)
B.5 Verkettungen von Abbildungen
437
Insbesondere sehen wir, dass f ı g ¤ g ı f gilt. Die Verkettung von Abbildungen
ist also typischerweise nicht kommutativ.
Auch wenn die Verkettung im Allgemeinen nicht kommutativ ist, erfüllt sie
dennoch einige schöne algebraische Eigenschaften:
Proposition B.21 (Verkettung). Seien M; N; O; P Mengen und f W M ! N ,
gW N ! O und hW O ! P Abbildungen.
i.) Es gilt idN ıf D f D f ı idM .
ii.) Es gilt h ı .g ı f / D .h ı g/ ı f .
Beweis. Zunächst macht man sich klar, dass alle auftretenden Verkettungen tatsächlich definiert sind. Für x 2 M rechnet man nach, dass
.idN ıf /.x/ D idN .f .x// D f .x/
und
.f ı idM /.x/ D f .idM .x// D f .x/;
was den ersten Teil zeigt. Weiter gilt
.hı.gıf //.x/ D h..gıf /.x// D h.g.f .x/// D .hıg/.f .x// D ..hıg/ıf /.x/:u
t
Proposition B.22. Seien f W M ! N und gW N ! O Abbildungen. Für die
Urbild-Abbildungen f 1 W 2N ! 2M und g 1 W 2O ! 2N gilt
f 1 ı g 1 D .g ı f /1 :
(B.77)
Beweis. Zunächst ist wieder zu bemerken, dass die Verkettung auf der linken
Seite tatsächlich definiert ist und eine Abbildung 2O ! 2M liefert. Daher kann
sie sinnvoll mit der rechten Seite verglichen werden. Sei also A O eine
Teilmenge von O. Es gilt x 2 .g ı f /1 .O/ genau dann, wenn .g ı f /.x/ 2
O, also g.f .x// 2 O. Dies ist aber gleichbedeutend mit f .x/ 2 g 1 .O/, was
t
u
gleichbedeutend mit x 2 f 1 .g 1 .O// ist.
Wir wollen nun Kriterien finden, wann wir eine Abbildung f W M ! N
wieder „rückgängig“ machen können. Mit anderen Worten, wir wollen verstehen,
welche Information über das Urbild x im Bild f .x/ enthalten ist. Im Allgemeinen
ist hier nicht allzu viel zu erwarten: Die konstante Abbildung aus Beispiel B.16,
ii.), „vergisst“ die Information über x 2 M völlig, da alle Elemente aus M auf
dasselbe Element in N abgebildet werden. Die in gewisser Hinsicht umgekehrte
Fragestellung ist, wie viel Information über den Bildbereich N wir durch f
erreichen können: Welche Elemente von N treten tatsächlich als Bilder auf? Wir
haben gesehen, dass im Allgemeinen das Bild f .M / N eine echte Teilmenge
sein kann. Die folgenden Begriffe beschreiben nun die auftretenden Situationen:
438
Anhang B
Mengen und Abbildungen
Definition B.23 (Injektiv, surjektiv und bijektiv). Sei f W M ! N eine Abbildung.
i.) Die Abbildung f heißt injektiv, falls
8x; x 0 2 M W f .x/ D f .x 0 / H) x D x 0 :
(B.78)
ii.) Die Abbildung f heißt surjektiv, falls
8y 2 N 9x 2 M W f .x/ D y:
(B.79)
iii.) Die Abbildung f heißt bijektiv, falls f injektiv und surjektiv ist.
Bemerkung B.24. Injektivität bedeutet also, dass jedes Bild von f genau ein Urbild
besitzt. Surjektivität heißt, dass jeder Punkt im Bildbereich auch ein Bild ist, also
f .M / D N . Bijektivität schließlich bedeutet, dass jedes Element y 2 N genau ein
Urbild in M besitzt. Eine weitere nützliche Umformulierung ist nun die folgende:
Wir wählen ein Element y 2 N und betrachten die Gleichung
y D f .x/;
(B.80)
welche wir lösen wollen. Wir suchen also diejenigen x 2 M mit der Eigenschaft (B.80). Dann gilt offenbar:
i.) Die Gleichung (B.80) hat für jedes y 2 N genau dann höchstens eine Lösung,
wenn f injektiv ist.
ii.) Die Gleichung (B.80) hat für jedes y 2 N genau dann eine Lösung, wenn f
surjektiv ist.
iii.) Die Gleichung (B.80) hat für jedes y 2 N genau dann eine eindeutige Lösung,
wenn f bijektiv ist.
Die Eigenschaften aus Definition B.23 lassen sich nun auch mittels der Verkettung von Abbildungen beschreiben:
Proposition B.25. Sei f W M ! N eine Abbildung zwischen nichtleeren Mengen.
i.) Die Abbildung f ist genau dann injektiv, wenn es eine Abbildung gW N ! M
gibt, sodass
g ı f D idM :
(B.81)
ii.) Die Abbildung f ist genau dann surjektiv, wenn es eine Abbildung gW N !
M gibt, sodass
f ı g D idN :
(B.82)
B.5 Verkettungen von Abbildungen
439
iii.) Die Abbildung f ist genau dann bijektiv, wenn es eine Abbildung gW N ! M
gibt, sodass
f ı g D idN
und
g ı f D idM :
(B.83)
In diesem Fall ist g eindeutig bestimmt.
Beweis. Sei f injektiv und y 2 N . Dann ist entweder y 2 f .M / oder y … f .M /.
Im ersten Fall ist y D f .x/ mit einem eindeutig bestimmten x 2 M . Wir definieren
in diesem Fall g.y/ D x. Im zweiten Fall wählen wir irgendein beliebiges Element
x0 2 M und setzen g.y/ D x0 . Ist nun x 2 M , so gilt für diese Abbildung g nach
Konstruktion g.f .x// D x, also (B.81). Sei umgekehrt ein g mit (B.81) gefunden.
Für x; x 0 2 M mit f .x/ D f .x 0 / folgt dann durch Anwenden von g die Gleichung
x D g.f .x// D g.f .x 0 // D x 0 , womit die Injektivität von f folgt. Dies zeigt den
ersten Teil. Für Teil ii.) betrachten wir zunächst eine surjektive Abbildung f . Für
jedes y 2 N gibt es daher ein x 2 M mit f .x/ D y. Wir wählen zu jedem y 2 N
(willkürlich) ein derartiges x D g.y/ aus. Dies definiert die Funktion g, für welche
dann (B.82) folgt. Sei umgekehrt ein derartiges g gegeben. Dann gilt für y 2 N die
Eigenschaft y D f .g.y//, womit y 2 f .M / ein Bild ist. Also ist f surjektiv. Für
den dritten Teil wissen wir bereits, dass die Existenz einer Abbildung g mit (B.83)
die Bijektivität von f impliziert, indem wir den ersten und zweiten Teil verwenden.
Sei umgekehrt f bijektiv. Dann gibt es eine Abbildung g mit (B.81) nach i.) und
eine Abbildung g 0 mit (B.82) nach ii.). Mit den Regeln für die Verkettung nach
Proposition B.21 gilt
g D g ı idN D g ı .f ı g 0 / D .g ı f / ı g 0 D idM ıg 0 D g 0 ;
womit gezeigt ist, dass die beiden Abbildungen g und g 0 notwendigerweise
übereinstimmen. Damit gibt es aber eine Abbildung g mit (B.83), welche zudem
eindeutig bestimmt ist.
t
u
Definition B.26 (Inverse Abbildung). Sei f W M ! N eine bijektive Abbildung.
Die eindeutig bestimmte Abbildung f 1 W N ! M mit f 1 ı f D idM und
f ı f 1 D idN heißt Umkehrabbildung oder inverse Abbildung von f .
Definition B.27 (Isomorphie von Mengen). Zwei Mengen M und N heißen
isomorph, wenn es eine bijektive Abbildung f W M ! N gibt.
Bemerkung B.28. Hier ist nun tatsächlich eine missverständliche Notation üblich:
Die Umkehrabbildung
f 1 W N ! M
(B.84)
gibt es ausschließlich für den Fall einer bijektiven Abbildung f . Die UrbildAbbildung
440
Anhang B
Mengen und Abbildungen
f 1 W 2N ! 2M
(B.85)
gibt es dagegen immer, egal, ob f bijektiv ist oder nicht. Verständlicherweise
führt diese Bezeichnungsweise zu Verwirrung, leider ist sie jedoch durchweg
gebräuchlich, sodass es keine einfache Lösung dieses Notationskonflikts zu geben
scheint. Ist nun f bijektiv, so lässt sich (B.85) wie folgt beschreiben: Für eine
Teilmenge B N gilt
ˇ
˚
f 1 .B/ D f 1 .y/ ˇ y 2 B ;
(B.86)
was mit den Bezeichnungen aus (B.62) konsistent ist.
Als erste kleine Anwendung können wir den Begriff der Abbildung nun dazu
verwenden, kartesische Produkte mit mehr als endlich vielen Faktoren zu definieren.
Wir benutzen dazu die Menge der ersten n natürlichen Zahlen
n D f1; 2; : : : ; ng;
(B.87)
mit denen wir folgendes Resultat formulieren können:
Proposition B.29. Seien M1 ; : : : ; Mn endlich viele Mengen, und sei M D M1 [
[ Mn deren Vereinigung. Dann ist ihr kartesisches Produkt M1 Mn zur
Menge
ˇ
˚
M D f 2 Abb.n; M/ ˇ f .i / 2 Mi für alle i 2 n
(B.88)
isomorph, wobei das n-Tupel .x1 ; : : : ; xn / 2 M1 Mn mit der Abbildung
f W i 7! xi identifiziert wird.
Beweis. Der Beweis wird in Übung B.8 diskutiert.
t
u
Aufgrund dieser Beobachtung erhebt man die Charakterisierung (B.88) nun zur
Definition, wenn man mehr als endlich viele Faktoren hat:
Definition B.30 (Kartesisches Produkt). Sei I eine nichtleere Indexmenge, und
seien fMi gi2I Mengen. Dann definiert man ihr kartesisches Produkt M als
M D
Y
ˇ
˚
Mi D f 2 Abb.I; M/ ˇ f .i / 2 Mi für alle i 2 I ;
(B.89)
i2I
wobei M D
S
i2I
Mi .
Ob es zu nichtleeren Mengen Mi überhaupt eine Abbildung f mit der Eigenschaft
f .i / 2 Mi gibt, ist für unendliche Indexmengen keineswegs trivial: Es stellt sich
B.6 Mächtigkeit von Mengen
441
heraus, dass dies axiomatisch gefordert werden muss und genau das Auswahlaxiom
der Mengenlehre liefert.
Q
Für das kartesische Produkt M D i2I Mi können wir immer noch von der
j -ten Komponente eines Elements sprechen, indem wir
prj W
Y
Mi 3 f 7! prj .f / D f .j / 2 Mj
(B.90)
i2I
definieren. Dank des Auswahlaxioms stellen sich diese Projektionen als surjektive
Abbildungen dar, wie Q
dies bereits für endliche kartesische Produkte der Fall ist.
Umgekehrt ist f 2
i2I Mi durch die Gesamtheit seiner Projektionen f .i /
eindeutig bestimmt.
B.6
Mächtigkeit von Mengen
Es stellt sich nun die Frage, wie wir Mengen der Größe nach vergleichen können.
Bis jetzt tragen die Mengen ja keine zusätzliche Struktur, außer dass sie durch
die Gesamtheit ihrer Elemente festgelegt sind. Bei endlichen Mengen mit endlich
vielen Elementen können wir daher einen Größenvergleich dadurch erzielen, dass
wir die Anzahl der Elemente bestimmen. Auch wenn wir ein intuitives Verständnis
für die natürlichen Zahlen seit Kindestagen besitzen, verfügen wir mathematisch
gesehen noch nicht über eine belastbare Definition. Es ist tatsächlich so, dass man
die natürlichen Zahlen mithilfe der Axiome der Mengenlehre konstruieren kann.
Wir wollen dies hier nicht skizzieren, sondern an unser naives Zahlenverständnis
anknüpfen: Wir gehen davon aus, dass wir über die Mengen n der ersten n
natürlichen Zahlen verfügen. Die Menge n besitzt demnach genau n Elemente. Wie
schon kleine Kinder können wir damit für eine andere Menge M deren Elemente
abzählen: Die Elemente der Menge M werden nun nicht mehr den Fingern der
Hand zugeordnet, sondern den Elementen der Menge n. Erreichen wir dann eine
Bijektion, so können wir sagen, dass die Menge M gerade n Elemente besitzt. Diese
frühkindliche Art des Zählens mit den Fingern erweist sich dabei als erstaunlich
leistungsfähig, sodass das Finden einer Bijektion zum Ausgangspunkt auch für
unendliche Mengen gemacht wird:
Definition B.31 (Mächtigkeit von Mengen). Seien M und N zwei Mengen.
i.) Die Menge M heißt gleich mächtig wie N , wenn es eine Bijektion W M !
N gibt.
ii.) Gibt es eine injektive Abbildung W M ! N , so heißt M weniger mächtig
als N .
Gleich mächtig zu sein, ist offenbar eine Äquivalenzrelation, da die inverse
Abbildung einer Bijektion ebenfalls eine Bijektion ist und die Verkettung von
442
Anhang B
Mengen und Abbildungen
Bijektionen wieder bijektiv ist. Weniger mächtig zu sein, wird hier wie immer im
schwachen Sinne, also weniger oder gleich mächtig, und nicht im starken Sinne
von echt weniger mächtig verwendet. Es ist an dieser Stelle jedoch etwas Vorsicht
geboten, da wir Relationen nur innerhalb einer Menge definiert haben. Wenn wir
nun alle Mengen vergleichen wollen, so verlassen wir dabei den sicheren Boden
von Definition B.10. Der Ausweg besteht nun darin, für die Äquivalenzklasse
einen speziellen Repräsentanten zu wählen, eine wohlgeordnete Menge mit der
erforderlichen Mächtigkeit. Wir wollen diese Schwierigkeit an dieser Stelle aber
ignorieren und schreiben für die entsprechende Äquivalenzklasse, die Mächtigkeit,
einer Menge M nun #M . Zwei Mengen sind also gleich mächtig, wenn #M D #N
gilt. Entsprechend verwenden wir bei Bezeichnung #M #N , wenn M weniger
mächtig als N ist.
Es stellt sich nun die Frage, ob wir je zwei Mengen überhaupt ihrer Größe nach
vergleichen können. Weiter ist zu klären, ob die Präordnung sogar eine partielle
Ordnung ist. Auf beide Fragen gibt es eine positive Antwort, deren Beweis aber
unseren naiven Zugang zur Mengenlehre überfordert:
Satz B.32 (Vergleichsatz von Zermelo). Für je zwei Mengen M und N gilt #M #N oder #N #M .
Satz B.33 (Äquivalenzsatz von Cantor-Bernstein-Schröder). Gilt für zwei Mengen M und N sowohl #M #N als auch #N #M , so sind M und N gleich
mächtig.
Der Vergleichsatz ist letztlich zum Auswahlaxiom der Mengenlehre äquivalent.
Der Beweis des Äquivalenzsatzes erfordert eine trickreiche und nicht explizite
Konstruktion einer Bijektion aus den wechselseitigen Injektionen von M nach N
und umgekehrt.
Eine Menge M ist nun also endlich, wenn sie gleich mächtig zu einer der Mengen
n ist. In diesem Fall schreiben wir einfach
#M D n
(B.91)
mit der entsprechenden natürlichen Zahl n. Die leere Menge ; hat die Mächtigkeit
#; D 0. Für unendliche Mengen unterscheiden wir verschiedene Arten von
unendlich:
Definition B.34 (Abzählbarkeit). Eine Menge M heißt abzählbar, wenn entweder
M endlich ist oder #M D #N gilt. Eine nicht abzählbare unendliche Menge heißt
überabzählbar.
Beispiel B.35 (Abzählbare Mengen). Die natürlichen Zahlen N sind abzählbar
unendlich, aber auch N0 und Z sind abzählbar unendlich. Es gilt sogar, dass
B.7 Übungen
443
eine abzählbare Vereinigung von abzählbaren Mengen wieder abzählbar ist, siehe
Übung B.10.
Angesichts dieser Resultate stellt sich natürlich sofort die Frage, ob nicht vielleicht
alle Mengen abzählbar sind: Dies ist nicht der Fall, wie folgender Satz von Cantor
zeigt:
Satz B.36 (Cantorsches Diagonalargument). Sei M eine Menge. Dann gilt
#M < #2M .
Beweis. Der Beweis ist tatsächlich sehr einfach, wenn auch raffiniert: Zunächst ist
klar, dass es immer eine Injektion von M nach 2M gibt. Man kann etwa die Elemente
p 2 M mit den einpunktigen Teilmengen fpg 2 2M identifizieren. Wir nehmen nun
an, es gäbe eine Bijektion W M ! 2M . Insbesondere gibt es für jede Teilmenge
A M einen Punkt p 2 M mit .p/ D A. Wir betrachten nun die Teilmenge
ˇ
˚
X D q 2 M ˇ q … .q/ :
Zu diesem X finden wir also ein p 2 M mit X D .p/. Dies liefert einen
Widerspruch: Es gilt nämlich entweder p 2 X , dann ist nach Definition von X
aber p … .p/ D X , oder es gilt p … X D .p/, dann ist nach Definition von X
aber p 2 X .
t
u
Es gibt daher eine Fülle von verschiedenen Begriffen von „unendlich“ in
der Mengenlehre. Insbesondere sehen wir, dass die Potenzmenge von N bereits
überabzählbar ist. Es gilt
#N < #2N :
B.7
(B.92)
Übungen
Übung B.1 (Operationen mit Relationen). Seien M und N Mengen und R M N eine Relation. Dann definiert man die umgekehrte Relation Ropp N M
durch
ˇ
˚
Ropp D .y; x/ 2 N M ˇ xRy :
(B.93)
Für eine weitere Relation S N O mit einer weiteren Menge O definiert man
die Verknüpfung S ı R M O der Relationen R und S durch
ˇ
˚
S ı R D .x; z/ 2 M O ˇ es gibt ein y 2 N mit xRy und yS z :
i.) Zeigen Sie, dass .Ropp /opp D R gilt.
(B.94)
444
Anhang B
Mengen und Abbildungen
ii.) Untersuchen Sie, wie sich die Begriffe links- und rechtseindeutig, reflexiv,
symmetrisch und transitiv unter dem Übergang R 7! Ropp verhalten.
iii.) Zeigen Sie, dass die Verknüpfung von Relationen assoziativ ist: Formulieren
Sie zunächst genau, was mit dieser Aussage gemeint ist.
iv.) Zeigen Sie, dass R ı M D R für die Diagonale M M M und jede
Relation R. Zeigen Sie ebenso N ı R D R.
v.) Betrachten Sie nun Abbildungen f W M ! N und gW N ! O. Zeigen Sie,
dass
graph.g ı f / D graph.g/ ı graph.f /:
(B.95)
vi.) Wann ist graph.f /opp wieder der Graph einer Abbildung?
Übung B.2 (Äquivalenzrelationen und Partitionen). Sei M eine Menge mit
einer Menge fM
S i gi2I von nichtleeren Teilmengen von M . Es gelte Mi \Mj D ; für
i ¤ j sowie i2I Mi D M . In diesem Fall nennt man die fMi gi2I eine Zerlegung
oder Partition von M .
i.) Sei n 2 N. Bestimmen Sie alle möglichen Zerlegungen von n in k disjunkte
Teilmengen.
Hinweis: Betrachten Sie zunächst kleine k und finden Sie eine explizite kombinatorische
Beschreibung. Den allgemeinen Fall können Sie dann durch Induktion beweisen.
ii.) Zeigen Sie, dass eine Zerlegung eine Äquivalenzrelation auf M induziert,
wobei x y, falls x; y 2 Mi für ein i 2 I .
Übung B.3 (Induzierte Äquivalenzrelation). Sei .M; / eine prägeordnete
Menge. Definieren Sie x y für x; y 2 M durch x y und y x. Zeigen
Sie dann, dass eine Äquivalenzrelation auf M ist.
Übung B.4 (Partielle Ordnungen). Betrachten Sie die natürlichen Zahlen N mit
der üblichen Ordnungsrelation sowie der Relation 4, welche durch n 4 m, falls
n ein Teiler von m ist, definiert sei.
i.) Zeigen Sie, dass .N; 4/ eine partiell geordnete und gerichtete Menge ist.
ii.) Ist 4 auch eine totale Ordnung?
iii.) Zeigen Sie, dass idW .N; 4/ ! .N; / eine ordnungserhaltende Abbildung
ist: Für n 4 m gilt auch n m. Gilt dies auch für die Umkehrabbildung?
iv.) Finden Sie eine injektive Abbildung W .N; / ! .N; 4/, welche ordnungserhaltend ist.
Übung B.5 (Infimum und Supremum).
Menge.
Sei .M; / eine partiell geordnete
B.7 Übungen
445
i.) Zeigen Sie, dass ein Minimum (beziehungsweise Maximum) immer ein Infimum (beziehungsweise Supremum) ist.
ii.) Zeigen Sie, dass ein Minimum (beziehungsweise Maximum) eindeutig bestimmt ist, wenn es denn überhaupt existiert.
iii.) Sei nun M eine nichtleere Menge und 2M ihre Potenzmenge, welche durch partiell geordnet sei. Bestimmen Sie Minimum und Maximum von .2M ; /.
iv.) Betrachten Sie nun die Teilmenge X 2M der Potenzmenge von M , die aus
nichtleeren Teilmengen ungleich M von M besteht. Bestimmen Sie nun die
Infima und Suprema der partiell geordneten Menge .X; /. Gibt es immer noch
ein Minimum oder Maximum?
Es zeigt sich, dass der Begriff des Infimums beziehungsweise des Supremums einer
partiell geordneten Menge letztlich der wichtigere ist: Minima und Maxima existieren in vielen typischen Beispielen nicht, während es durchaus (nicht eindeutige)
Infima und Suprema geben kann.
Übung B.6 (Verkettung von Abbildungen). Zeigen Sie, dass die Verkettung von
injektiven (surjektiven, bijektiven) Abbildungen wieder injektiv (surjektiv, bijektiv)
ist.
Übung B.7 (Linkskürzbare Abbildungen). Sei f W M ! N eine Abbildung
zwischen nichtleeren Mengen. Dann heißt f linkskürzbar, wenn für alle Abbildungen g1 ; g2 W X ! M aus f ı g1 D f ı g2 folgt, dass g1 D g2 gilt. Zeigen Sie, dass
f genau dann linkskürzbar ist, wenn f injektiv ist.
Übung B.8 (Endliche kartesische Produkte). Beweisen Sie Proposition B.29.
Hinweis: Da das n-fache kartesische Produkt induktiv definiert ist, bietet sich hier ein induktiver
Beweis an. Weisen Sie dann nach, dass die vorgeschlagene Identifikation tatsächlich eine Bijektion
liefert.
Übung B.9 (Mächtigkeit endlicher Mengen). Zeigen Sie, dass für alle n 2 N0
#2n D 2n :
(B.96)
Hinweis: Vergessen Sie nicht die leere Teilmenge ; n.
Übung B.10 (Hilberts Hotel). In Hilberts Hotel ist immer Platz für Gäste.
i.) Zeigen Sie zunächst, dass N0 und Z abzählbar unendlich sind, indem Sie
explizite Bijektionen zu N angeben.
ii.) Zeigen Sie weiter, dass die Menge der ungeraden natürlichen Zahlen ebenfalls
abzählbar unendlich ist.
iii.) Zeigen Sie, dass QC auch abzählbar ist.
446
Anhang B
Mengen und Abbildungen
Hinweis: Zunächst ist klar, dass #N #Q gilt (wieso?). Ordnen Sie nun die Brüche mn 2
Q C in einem Rechteckschema an, wobei Sie die Zähler nach rechts, die Nenner nach unten
auftragen. Wie finden Sie nun eine Abzählung?
iv.) Zeigen Sie schließlich, dass #N D #Q gilt.
v.) Seien nun abzählbar viele abzählbare
Mengen fMn gn2N gegeben. Zeigen Sie,
S
dass deren Vereinigung M D n2N Mn ebenfalls abzählbar ist.
Hinweis: Dies ist Hilberts Hotel: Das Hotel hat abzählbar unendlich viele Zimmer, die
bereits alle belegt sind. Dann kommen abzählbar unendlich viele Busse mit je abzählbar
vielen Gästen beim Hotel an und alle bekommen ein Zimmer, nachdem die Rezeption die
Zimmer etwas neu verteilt hat (wie?).
Übung B.11 (Beweisen oder widerlegen). Beweisen oder widerlegen Sie folgende Aussagen:
i.)
ii.)
iii.)
iv.)
v.)
vi.)
vii.)
viii.)
ix.)
x.)
xi.)
xii.)
xiii.)
Es gibt eine injektive Abbildung Q ! N.
Es gibt eine surjektive Abbildung N ! Z Z.
Es gibt eine Bijektion .0; 1/ ! R.
Es gibt eine injektive Abbildung R ! R R.
Das Urbild f 1 .fyg/ eines Punktes ist eine Teilmenge.
Das Urbild f 1 .fyg/ eines Punktes ist genau dann leer, wenn f nicht
surjektiv ist.
Das Urbild f 1 .fyg/ eines Punktes ist genau dann leer, wenn y nicht im Bild
von f liegt.
Das Urbild f 1 .fyg/ eines Punktes besteht aus mehreren Punkten.
Es gibt eine surjektive Abbildung R ! R R.
Für jede nichtleere Menge M gibt es eine injektive Abbildung M ! M M.
Für jede nichtleere Menge M gibt es eine surjektive Abbildung M ! M M.
Es gibt eine nichtleere Menge M mit einer Bijektion M ! M M .
Es
S gibt abzählbar viele, abzählbar unendliche An N mit An \ Am D ; und
n2N An D N.
Literaturverzeichnis
1. Amann, H., Escher, J.: Analysis I. Grundstudium Mathematik, 3. Aufl. Birkhäuser Verlag,
Basel (2006)
2. Amann, H., Escher, J.: Analysis II. Grundstudium Mathematik, 2. Aufl. Birkhäuser Verlag,
Basel (2006)
3. Beutelspacher, A.: Lineare Algebra, 8th updated edn. Springer, Heidelberg (2014). Eine
Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen
4. Bosch, S.: Lineare Algebra, 5. Aufl. Springer, Heidelberg (2014)
5. Ebbinghaus, H.-D., Flum, J., Thomas, W.: Einführung in die mathematische Logik, 4. Aufl.
Spektrum Akademischer Verlag, Heidelberg/Berlin (1998)
6. Gerritzen, L.: Grundbegriffe der Algebra. Vieweg, Braunschweig, Wiesbaden (1994)
7. Halmos, P.R.: Naive Mengenlehre, 4. Aufl. Vandenhoeck & Ruprecht, Göttingen (1976)
8. Herrlich, H.: Axiom of Choice. Lecture Notes in Mathematics, Bd. 1876. Springer, Berlin
(2006)
9. Jacobson, N.: Basic Algebra I, 2. Aufl. Freeman and Company, New York (1985)
10. Jacobson, N.: Basic Algebra II, 2. Aufl. Freeman and Company, New York (1989)
11. Jänich, K.: Lineare Algebra, 11. Aufl. Springer, Heidelberg, Berlin (2008)
12. Klingenberg, W.: Lineare Algebra und Geometrie. Springer, Berlin/Heidelberg/New York
(1984)
13. Knabner, P., Barth, W.: Lineare Algebra. Springer, Heidelberg (2013). Grundlagen und
Anwendungen
14. Koecher, M.: Lineare Algebra und analytische Geometrie, 4. Aufl. Springer, Heidelberg/Berlin/New York (1997)
15. Kowalsky, H.-J., Michler, G.: Lineare Algebra, 12. Aufl. Walter de Gruyter, Berlin (2003)
16. Lang, S.: Introduction to Linear Algebra. Undergraduate Texts in Mathematics, 2. Aufl.
Springer, Berlin/Heidelberg/New York (1986)
17. Lang, S.: Algebra, 3rd edn. Addison-Wesley Publishing Company, Inc., Reading (1997)
18. Remmert, R.: Funktionentheorie I. Grundwissen Mathematik, Bd. 5, 2nd edn. Springer,
Berlin/Heidelberg/New York (1989)
19. Rudin, W.: Real and Complex Analysis, 3. Aufl. McGraw-Hill Book Company, New York
(1987)
20. Rudin, W.: Functional Analysis, 2. Aufl. McGraw-Hill Book Company, New York (1991)
21. Walter, R.: Einführung in die Lineare Algebra, 3. Aufl. Vieweg-Verlag, Braunschweig (1990)
22. Werner, D.: Funktionalanalysis, 4. Aufl. Springer, Berlin/Heidelberg/New York (2002)
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6
447
Sachverzeichnis
A
Abbildung, 431
adjungierbare, 328
adjungierte, 329
affine, 193
Bild, 433
Bildbereich, 432
Definitionsbereich, 432
Einschränkung, 433
Graph, 431
Identität, 432
Inklusion, 432
inverse, 439
invertierbare, 439
Koeinschränkung, 433
konstante, 432
lineare, 131
multilineare, 207
normale, 334
orthogonale, 320
Projektion, 433
selbstadjungierte, 334
unitäre, 320
Urbild, 434
Urbildbereich, 432
Verkettung, 436
Wert, 432
Abbildungsraum, 89
endlicher Träger, 96
abelsche Gruppe, 39
Ableitung, 134, 179
Absolutbetrag, 363, 365
Abzählbarkeit, 442
Additionstheoreme, 62
Adjunktion, 301
Affiner Raum, 128
Affiner Unterraum, 129
Ähnlichkeit, 235
Matrizen, 277
nilpotente Matrizen, 274
Allgemeine lineare Gruppe, 162, 220
Allquantor, 415
alternierend, 209
Alternierende Gruppe, 205
Anschauungsraum, 1
Antihomomorphismus, 301
Approximationszahl, 388
Äquivalenz, 412
von Matrizen, 171
Äquivalenzrelation, 429
Assoziativität, 33, 44
von Verkettung, 437
Austauschsatz, 106
Auswahlaxiom, 423
Auswertungsabbildung, 134
Automorphismengruppe, 40
Automorphismus, 32
B
Bahn, 72
Bandmatrix, 290
Basis, 105
duale, 174
Ergänzungssatz, 108
Existenz, 108
geordnete, 148
Koordinaten, 106
Mächtigkeit, 110
orthonormale, 316
Basisdarstellung, 151
Basiswechsel, 155
Matrixdarstellung, 156
Bezout-Lemma, 67, 260
bijektiv, 438
Bild, 433
einer linearen Abbildung, 136
von Gruppenmorphismus, 43
Bildbereich, 432
Bilinearform, 294
© Springer-Verlag Berlin Heidelberg 2017
S. Waldmann, Lineare Algebra 1, DOI 10.1007/978-3-662-49914-6
449
450
Basisdarstellung, 295
Basiswechsel, 297
positiv definit, 298
positiv semidefinit, 298
symmetrische, 295
Bilinearität, 138
Binomialsatz, 159
Blockmatrix, 188, 224
C
Cantorsches Diagonalargument, 443
Cauchy-Schwarz Ungleichung, 299
komplexer Fall, 303
Cauchy-Schwarz-Ungleichung, 12
Charakteristik, 54, 211
Charakteristisches Polynom, 241, 242, 263
Cramersche Regel, 229, 230
D
de Morgansche Regel, 412
Definitionsbereich, 432
Determinante, 215
Blockmatrix, 224
Endomorphismus, 245
Existenz und Eindeutigkeit, 215
Gruppenmorphismus, 216
in kleinen Dimensionen, 218
invertierbare Matrix, 220
Jägerzaunregel, 218
Konjugation, 245
Leibniz-Formel, 215
orthogonale Matrix, 326
Sarrus-Regel, 218
unitäre Matrix, 326
Determinantenform, 215
Diagonale, 432
Diagonalisierbarkeit, 239, 263
Diagonalmatrix, 235
Dichtematrix, 359
Dimension, 110, 146
Dimensionsformel
direkte Summe, 114
für Unterräume, 117
Kern und Bild, 144
Direkte Summe, 112
Basis, 113
Dimensionsformel, 114
innere und äußere, 117
von Unterräumen, 114
Disjunktion, 412
Distributivgesetz, 44
Doppeldualraum, 176
Sachverzeichnis
Drehachse, 399
Drehung, 352
Dreiecksmatrix, 221
Dreiecksungleichung, 306
Dualisieren, 175
Dualraum, 173
topologischer, 332
E
Ebene, 5
Gleichung, 6
Parameterdarstellung, 5
Eigenraum, 236
verallgemeinerter, 259
Eigenvektor, 236
Eigenwert, 236, 242
Einheitskreis, 61
Einheitsmatrix, 162
Einheitsvektor, 13, 308, 316
Einheitswurzeln, 78
Einselement, 33
Element, 419
Elementare Umformungen, 82, 120
Elementarmatrizen, 164
Endomorphismenring, 139
Endomorphismus, 31
Absolutbetrag, 363
Hermitescher, 334
idempotenter, 250
Negativteil, 363
nilpotenter, 250
positiv definiter, 356
positiver, 356
Positivteil, 363
symmetrischer, 334
Wurzel, 363
Entwicklungssatz von Laplace, 226
Epsilon-Symbol, 189
Erwartungswert, 356
Erzeugendensystem, 100
Euklidische Länge, 10
Euklidischer Abstand, 10
Euklidischer Raum, 306
Existenzquantor, 415
F
Faktorisierung, 67
Fakultät, 418
Fast-komplexe Struktur, 195
Fehlstand, 202
Flächeninhalt, 206
Folgenraum, 90, 95
Sachverzeichnis
beschränkte Folgen, 95
konvergente Folgen, 95
Nullfolgen, 95
Fourier-Koeffizienten, 403
Funktional
lineares, 173
positives, 358
Funktionenraum, 89
G
Gauß-Algorithmus, 86, 222
Geordnetes Paar, 424
Gerade, 5, 97
Gleichung, 8
Parameterdarstellung, 5
Gerichtete Menge, 429
Graßmann-Identität, 16
Gram-Schmidt-Verfahren, 317
Graph, 431
Gruppe, 39
abelsche, 39
additive, 39
multiplikative, 39
orthogonale, 321
spezielle orthogonale, 327
spezielle unitäre, 327
symmetrische, 41
triviale, 41
unitäre, 321
zyklische, 41
Gruppenmorphismus, 39
Kern, 44
Gruppenwirkung, 72
freie, 128
transitive, 128
H
Halbeinfacher Teil, 267
Halbgruppe, 33
Halbnorm, 307
Hauptraum, 259
Heisenbergsche Unschärferelation, 405
Hilbert-Basis, 316
Homomorphismus, 31, 137
Absolutbetrag, 365
Hotel, 445
I
Ideal, 67
Identitätsabbildung, 432
Identitätssatz, 233
Imaginäre Einheit, 59
451
Imaginärteil, 59
Implikation, 412
Impulsoperator, 187
Indexmenge, 422
Induktionsprinzip, 416
Infimum, 444
injektiv, 44, 438
Inklusionsabbildung, 432
Inneres Produkt, 293
Existenz, 296
Integration, 135
Interpolationspolynom, 234
Inverse Matrix, 229
Inverses, 37
Inversion, 70
Invertierbarkeit, 438
Determinante, 220
in Monoid, 36
Involution, 301
Isometrie, 320
partielle, 368
Isomorphismus, 32
musikalischer, 332
von Mengen, 439
von Vektorräumen, 133, 146
Isotropiegruppe, 72
J
Jacobi-Identität, 16
Kommutator, 180
Jordan-Basis, 277
Jordan-Matrix, 268, 269, 274
Jordan-Normalform, 275
Jordan-Zerlegung, 267
Junktor, 412
K
Kartesisches Produkt, 424
Kern, 44
einer linearen Abbildung, 136
Monoidmorphismus, 35
von Gruppenmorphismus, 43
Klassifikation
von Vektorräumen, 146
von euklidischen Vektorräumen, 325
von unitären Vektorräumen, 325
Kommutante, 407
Körper, 53
algebraisch abgeschlossener, 244
Charakteristik, 54
der komplexen Zahlen, 57, 59
Körpermorphismus, 53
452
Kommutativität, 33
Kommutator, 180
Komplementärraum, 119
Komplexe Konjugation, 59
Komplexe Zahlen, 57
Betrag und Phase, 60
Konjugation, 70, 245
Konjunktion, 412
Koordinaten, 106, 135, 147, 173
Koordinatenachse, 1
Koordinatenfunktional, 173
Koordinatenwechsel, 155
Kovarianzmatrix, 405
Kreuzprodukt, 16, 134
Kronecker-Symbol, 90
L
Lösungsmenge, 82
Legendre-Polynome, 404
Leibniz-Formel, 215
Leibniz-Regel
Ableitung, 179
Kommutator, 180
Lemma
von Bezout, 67, 260
von Zorn, 431
Levi-Civita-Symbol, 189
Limes, 134
Lineare Abbildung, 131
Basisdarstellung, 149, 151
Bild, 136
duale, 175
Existenz, 141
Kern, 136
Matrix, 149
Normalform, 172
Rang, 145
transponierte, 175
Werte auf Basis, 141
Lineare Unabhängigkeit, 100
indizierte Menge, 102
Linearer Operator, 131
Lineares Funktional, 173
Lineares Gleichungssystem, 82, 86
Matrixschreibweise, 161
Linearfaktor, 244
Linearform, 173
Linearkombination, 97
leere, 99
Linksinverses, 36
Linksmultiplikation, 70
Lot fällen, 400
Sachverzeichnis
M
Mächtigkeit, 441
Magma, 30
Matrix, 150
Absolutbetrag, 363, 365
adjungierte, 301
Ähnlichkeit, 235
Äquivalenz, 171
Bild, 161
endliche, 158
inverse, 229
Kern, 161
komplementäre, 228
Negativteil, 363
positiv definite, 356
Positivteil, 363
Produkt, 152
Rang, 161, 168
Rechteckschreibweise, 157
Ringstruktur, 153
Smith-Normalform, 168
symplektische, 190, 278
Transposition, 166
von linearer Abbildung, 149
Wurzel, 363
Matrixmultiplikation, 152
Maximum, 444
Maximumsnorm, 394
Menge, 419
abzählbare, 442
Durchschnitt, 423
Komplement, 423
leere, 420
überabzählbare, 442
Vereinigung, 422
Minimalpolynom, 257, 263
Minimum, 444
Monoid, 34
Untermonoid, 35
Monoidmorphismus, 34
Kern, 35
Morphismus, 30
von Gruppen, 39
von Körpern, 53
von Monoiden, 34
von Ringen, 46
Multilineare Abbildung, 207
alternierende, 209
Multiplikation mit Skalaren, 87
Multiplikationsoperator, 238
Multiplizität, 236
Musikalischer Homomorphismus,
294
Sachverzeichnis
N
Negation, 412
Negativteil, 363
Neutrales Element, 33
Nilpotenter Teil, 267
Nilpotenz, 250, 269
Norm, 306
Normale Untergruppe, 44
Normalform
Jordansche, 275
Smith, 172
von linearer Abbildung, 172
von Matrizen, 168
von nilpotentem Endomorphismus, 269
Nullabbildung, 134
Nullmatrix, 162
Nullraum, 89
Nullring, 45
Nullstelle, 51
Nullteiler, 64, 75, 79, 163
Nullvektor, 87
O
Obere Dreiecksform, 222
Observable, 356
Operator, 131
beschränkter, 381
Operatornorm, 381
Orbit, 72
Ordnung
partielle, 429
selbstadjungierte Abbildungen, 406
totale, 429
orthogonal, 12, 310
Orthogonale Gruppe, 321
Orthogonalkomplement, 311
Orthogonalprojektor, 314
Orthonormalbasis, 316
Orthonormalsystem, 316, 317
Ortsoperator, 187
P
parallel, 4
Parallelogramm-Identität, 308
Parsevalsche Gleichung, 319
Partielle Ordnung, 429
Partition, 444
Pauli-Matrizen, 189, 283, 396
Operatornorm, 407
Permutation, 41
Fehlstand, 202
gerade, 202
453
Länge, 202
Signum, 202
Transposition, 203
ungerade, 202
Permutationsgruppe, 41
Pinguin, 417
Polarisierung, 309
Polarzerlegung, 370
Kommutante, 373
Polynomdivision, 64
Polynome, 48
Grad, 48, 51, 64
Identitätssatz, 233
Linearfaktoren, 67
mehrere Variablen, 77
Nullstelle, 51
Ring, 48
teilerfremde, 66
Vektorraum, 91
Polynomialer Kalkül, 256, 286
Positivteil, 363
Potenzmenge, 423, 435
Prä-Hilbert-Raum, 306
Präordnung, 429
Projektionsabbildung, 433
Projektor, 250
Ähnlichkeit, 253
orthogonaler, 314
pull-back, 175
Punkt vor Strich, 44, 87
Q
Quantenmechanik, 356
Quantor, 415
Quasiordnung, 429
Quaternionen, 283
R
Rang, 145
transponierte Matrix, 170
Realteil, 59
Rechtsinverses, 36
Rechtsmultiplikation, 70
Rekursion, 290
Relation, 428
linkseindeutige, 429
rechtseindeutige, 429, 431
reflexive, 429
symmetrische, 429
transitive, 429
Richtung, 429
Ring, 44
454
der Endomorphismen, 139
der Polynome, 48
Einselement, 44
kommutativer, 44
von Matrizen, 153
Ringmorphismus, 46
einserhaltend, 46
Kern, 47
S
Sarrus-Regel, 218
Satz
Basisergänzung, 108
Cantor-Bernstein-Schröder, 442
Cayley-Hamilton, 248
Cramer, 229, 230
Existenz einer Basis, 108
Gram-Schmidt, 317
Jordan, 275
Laplace, 226
Mächtigkeit einer Basis, 110
Pythagoras, 311
Steinitz, 106
Zermelo, 442
Schefferscher Strich, 412
Schiefkörper, 283
Seminorm, 307
Sesquilinearform, 300
Hermitesch, 300
Signum, 202
Singulärer Wert, 375
Singulärwertzerlegung
Homomorphismus, 376
Matrix, 377
Skalar, 87
Skalarprodukt, 11, 298, 300
duales, 401
Existenz, 302
Integral, 304
kanonisches, 298, 302
Smith-Normalform, 172
Spaltenrang, 171
Spann, 97
Spatprodukt, 208
Spektraldarstellung, 267
Spektralprojektor, 267
Spektralsatz, 263
normale Abbildung, 342, 346
Spektralzerlegung, 267
Spektrum, 267
Spezielle lineare Gruppe, 217
Spezielle orthogonale Gruppe, 327
Spezielle unitäre Gruppe, 327
Sachverzeichnis
Spur, 242
Stabilisatorgruppe, 72
Standardbasis, 101, 105, 160
Struktur, 30
Summe von Unterräumen, 99
Summenschreibweise, 47
Supremum, 444
surjektiv, 438
Symmetrische Gruppe, 41
T
Teilmenge, 421
total antisymmetrisch, 211
Totale Ordnung, 429
Träger, 96
Translation, 193
Transposition, 166, 203
U
Umkehrabbildung, 439
Unitäre Gruppe, 321
Unitärer Raum, 306
Untergruppe, 43
normale, 44
Untermonoid, 35
Unterraum, 92
Durchschnitt, 93
Komplementärraum, 119
Summe, 99
Unterring, 47
Unterstruktur, 35
Untervektorraum, 92
Urbild, 434
Urbildbereich, 432
Ursprung, 128
V
Vandermonde-Determinante, 231
Vandermonde-Matrix, 231
Varianz, 405
Vektor, 1, 87
Vektorgleichung, 97
Vektorprodukt, 16
Vektorraum, 87
Basis, 105
der Homomorphismen, 137
der Polynome, 91
Dimension, 110
direkte Summe, 112
euklidischer, 306
Isomorphie, 133, 146
Sachverzeichnis
kartesisches Produkt, 111
unitärer, 306
Unterraum, 92
von Abbildungen, 89
von Folgen, 90
von Matrizen, 150
Verallgemeinerter Eigenraum, 259, 265
Vergleichsatz von Zermelo, 442
Verkettung, 436
Verknüpfung, 30
Vielfachheit, 236
algebraische, 245
geometrische, 247
Vollständige Induktion, 416
455
W
Winkel, 12, 310
Wirkung, 72
Z
Zeilenrang, 171
Zeilenstufenform, 83, 86
Zeilenumformungen, 82
Zerlegung der Eins, 253
orthogonale, 338
Zornsches Lemma, 108, 431
Zustand, 356, 358
zyklische Gruppe, 41
Herunterladen