Lineare Algebra

Werbung
Skriptum Lineare Algebra
Prof. Dr. René Grothmann
Stand: Oktober 2009
2
Inhaltsverzeichnis
1 Grundlagen der Mathematik
11
1.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.2
Mathematische Logik . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2.1
Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.2.2
Axiome . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.2.3
Sätze
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.2.4
Logische Aussagen . . . . . . . . . . . . . . . . . . . . . .
16
1.2.5
Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . .
20
1.2.6
Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . .
25
1.3.1
Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
1.3.2
Gleichheit von Mengen . . . . . . . . . . . . . . . . . . . .
26
1.3.3
Potenzmenge . . . . . . . . . . . . . . . . . . . . . . . . .
28
1.3.4
Vereinigung und Schnitt . . . . . . . . . . . . . . . . . . .
28
1.3.5
Relationen und Abbildungen . . . . . . . . . . . . . . . .
32
1.3.6
Bild, Urbild, Umkehrabbildung . . . . . . . . . . . . . . .
34
Die natürlichen Zahlen . . . . . . . . . . . . . . . . . . . . . . . .
41
1.4.1
Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
1.4.2
Rekursive Konstruktion . . . . . . . . . . . . . . . . . . .
45
1.4.3
Endliche Mengen . . . . . . . . . . . . . . . . . . . . . . .
47
1.4.4
Abzählbare Mengen . . . . . . . . . . . . . . . . . . . . .
52
1.4.5
Das Auswahlaxiom . . . . . . . . . . . . . . . . . . . . . .
55
1.3
1.4
3
4
INHALTSVERZEICHNIS
2 Vektorräume
2.1
2.2
2.3
57
Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
2.1.1
Definition, Eigenschaften und Beispiele . . . . . . . . . . .
57
2.1.2
Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . .
61
Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
2.2.1
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
2.2.2
Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
2.2.3
Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . .
67
2.2.4
Aufgespannter Unterraum . . . . . . . . . . . . . . . . . .
68
2.2.5
Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
2.2.6
Endlich-Dimensionale Vektorräume . . . . . . . . . . . . .
75
2.2.7
Summen von Unterräumen . . . . . . . . . . . . . . . . .
79
Analytische Geometrie . . . . . . . . . . . . . . . . . . . . . . . .
81
2.3.1
Affine Unterräume . . . . . . . . . . . . . . . . . . . . . .
82
2.3.2
Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . .
85
2.3.3
Strecken und konvexe Mengen
88
. . . . . . . . . . . . . . .
3 Lineare Abbildungen
3.1
3.2
3.3
93
Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . .
93
3.1.1
Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . .
93
3.1.2
Dimensionsformel . . . . . . . . . . . . . . . . . . . . . . .
97
3.1.3
Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.1.4
Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . 108
Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.2.1
Gaußscher Algorithmus . . . . . . . . . . . . . . . . . . . 112
3.2.2
Berechnung von Basen . . . . . . . . . . . . . . . . . . . . 119
3.2.3
Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.2.4
Berechnung der inversen Matrix . . . . . . . . . . . . . . 121
3.2.5
Elementarmatrizen . . . . . . . . . . . . . . . . . . . . . . 122
3.2.6
Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . 124
Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.3.1
Analytische Geometrie . . . . . . . . . . . . . . . . . . . . 131
3.3.2
Affine Abbildungen . . . . . . . . . . . . . . . . . . . . . . 133
3.3.3
Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.4
Quotientenräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
3.5
Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
INHALTSVERZEICHNIS
4 Das Skalarprodukt
4.1
4.2
4.3
4.1.1
Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . 145
4.1.2
Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
4.2.1
Senkrechte Vektoren . . . . . . . . . . . . . . . . . . . . . 154
4.2.2
Orthogonale Projektion . . . . . . . . . . . . . . . . . . . 161
4.2.3
Orthogonale Abbildungen . . . . . . . . . . . . . . . . . . 167
4.2.4
Orthogonale Unterräume . . . . . . . . . . . . . . . . . . 171
4.2.5
Die adjungierte Abbildung . . . . . . . . . . . . . . . . . . 172
Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Ausgleichsrechung und Lineare Regression . . . . . . . . . 174
5 Determinanten
5.2
6.2
179
Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . 179
5.1.1
Determinante als Fläche . . . . . . . . . . . . . . . . . . . 179
5.1.2
Permutationen . . . . . . . . . . . . . . . . . . . . . . . . 180
5.1.3
Die Determinante
. . . . . . . . . . . . . . . . . . . . . . 182
Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
5.2.1
Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . 191
5.2.2
Das Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . 192
5.2.3
Volumen und Fläche . . . . . . . . . . . . . . . . . . . . . 194
5.2.4
Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . 195
5.2.5
Dreieckstraversalen . . . . . . . . . . . . . . . . . . . . . . 197
6 Eigenwerte
6.1
145
Skalarprodukte und Normen . . . . . . . . . . . . . . . . . . . . . 145
4.3.1
5.1
5
203
Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . 203
6.1.1
Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
6.1.2
Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . 208
6.1.3
Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . 212
6.1.4
Selbstadjungierte Endomorphismen . . . . . . . . . . . . . 219
6.1.5
Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . 220
Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
6.2.1
Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . 230
6.2.2
Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.2.3
Singulärwerte . . . . . . . . . . . . . . . . . . . . . . . . . 241
6.2.4
Drehungen . . . . . . . . . . . . . . . . . . . . . . . . . . 245
6.2.5
Differenzengleichungen . . . . . . . . . . . . . . . . . . . . 247
6
INHALTSVERZEICHNIS
Vorwort
Das Skript
Dieses Skript entstand für eine Vorlesung über ”‘Lineare Algebra und Analytische Geometrie”’ im Winter- und Sommersemester 2004/2005 an der Katholischen Universität Eichstätt.
Mit dem Aufkommen der Massenuniversitäten im 19. Jahrhundert etablierte
sich der noch heute übliche Stil der Vorlesung mit begleitenden Übungen. In der
oft überfüllten Vorlesung trägt der Dozent aus einem vorbereiteten Skript vor.
Die Studenten schreiben so weit wie möglich mit und machen sich zusätzliche
Notizen. In der Mathematik führt dies dazu, dass der Dozent ein vollständiges Skript an der Tafel entwirft und die Studenten dieses Skript mitschreiben,
ohne Zeit zu haben, den Stoff gedanklich zu begleiten. Erst durch eine Nachbereitung (wenn sie erfolgt) und durch das Bearbeiten der Übungen wird der
Stoff verstanden. Die offensichtliche Ineffizienz eines bloßen Mitschreibens soll
das vorliegende Skript vermeiden helfen. Der Student kann sich auf zusätzliche
Notizen beschränken. Er soll damit in die Lage versetzt werden, der Vorlesung
zu folgen. Gedankenloses Mitschreiben wird vermieden.
Natürlich wird es immer Dinge geben, die der Dozent dem Skript hinzufügt.
Zum einen geht er vielleicht auf Zwischenfragen ein, zum anderen rechnet er
möglicherweise zusätzliche Beispiele vor, oder er fertigt Skizzen an, die nicht im
Skript enthalten sind.
Nicht alles, was im Skript steht, muss auch in der Vorlesung detailliert behandelt werden. Stattdessen sollte der Dozent Wert auf das Vermitteln von
Verständnis, Motivation und auf die beispielhafte Demonstration von Beweisund Rechentechniken setzen. Es ist besser ein Detail genau und verständlich
vorzutragen, oder einen Gedanken zu vertiefen, als durch den Stoff zu hetzen.
An anderen Stellen kann eventuell auf eine oberflächliche Darstellung zurückgegriffen werden.
Ein Skript ist kein Lehrbuch. Lehrbücher unterscheiden sich von Skripten
durch längere Texte und durch kürzere Rechnungen. Sie eignen sich nicht als
Vorlesungsskripte. Natürlich nimmt man in ein gedrucktes Skript zur Erhöhung
der Lesbarkeit auch Texte auf, die der Dozent normalerweise nicht an die Tafel
schreibt, sondern nur als Kommentar sagt.
7
8
INHALTSVERZEICHNIS
Studium der Mathematik
Während die Schule sich mehr auf Rechentechniken und deren Anwendung konzentriert, steht in der Universität die Abstraktion und das Beweisen im Vordergrund. Dieser Kulturschock ist für die angehenden Mathematiker nur schwer
verdaulich.
In Wirklichkeit gibt es aber zahlreiche Überlappungen. Der Dozent der Hochschule sollte sich im Gespräch um das Vorwissen der Studenten bemühen, und
die bekannten Dinge zum Stoff in Beziehung setzen. Dadurch entstehen für den
Studenten gedankliche Anknüpfungspunkte und er fühlt sich weniger verloren.
Leider tendiert auch der Autor dieser Zeilen dazu, den Schulstoff zu sehr zu
vernachlässigen. Umgekehrt sollte sich die Schule bemühen, mehr als bisher Beweise und Grundlagen in den Unterricht aufzunehmen. In der Tat gibt es viele
Lehrer, die sich dieser Herausforderung bewusst sind.
Man muss sich darüber im Klaren sein, dass das Studium der Mathematik
auf verschiedensten Ebenen stattfindet.
• Auf der untersten Sprosse steht das sachliche Verständnis der Tatsachen,
die in der Vorlesung gelehrt werden. Dies allein ist eine Herausforderung,
da die Aussagen logisch verstanden werden müssen, ebenso wie die korrekte Definition der mathematischen Objekte.
• Die direkte Anwendung der Vorlesung und der dort vorgestellten Methoden ist der nächste Schritt. Übungen sollten einen großen Anteil an
Rechenaufgaben enthalten, ebenso wie die Beispiele der Vorlesung. Die
Anwendung der Mathematik ist auch motivationsfördernd.
• Schwieriger ist es schon, Beweise und Begründungen nachvollziehen zu
können. Es ist aber für einen Mathematiker nicht nur wichtig zu wissen,
was gilt, sondern auch warum.
• Das nächste Level ist das Auffinden eigener Beweise zu vorgegebenen Zusammenhängen. Knobelaufgaben sind ein wichtiger Bestandteil der Übungen, die sich nicht nur auf Rechenaufgaben beschränken dürfen.
• Auf der obersten Sprosse steht das Entdecken neuer Zusammenhäge. Dies
wird leider zu sehr vernachlässigt, obwohl schon auf niedrigem Niveau neue
Fragen aufgeworfen werden könnten. Selbst viele Diplomarbeiten enthalten keine vom Studenten selbst entdeckte und begründete neue Zusammenhänge.
Ziel des Mathematikstudiums sind nicht nur mathematische Sätze, sondern
auch Grundlagen, systematisches und logisches Denken, sowie Hartnäckigkeit
beim Lösen von Problemen.
Lineare Algebra
Lineare Algebra beschäftigt sich im Kern mit dem Studium linearer Gleichungen, also Gleichungen, in denen die Variablen nur linear vorkommen (nicht quadriert oder ähnliches). In der Schule werden neben Geradengleichungen auch
INHALTSVERZEICHNIS
9
Systeme lineare Gleichungen behandelt. Außerdem werden Ebenengleichungen
behandelt (Hessesche Normalform). Diese Theorie wird ausgebaut, die Lösungsmenge von linearen System beschrieben, und es werden andere Koeffizientenmengen behandelt (zum Beispiel Gleichungen mit komplexen Koeffizienten). Die
Matrizenrechnung vereinfacht weiter den Umgang mit linearen Gleichungen.
Darüber hinaus werden Determinanten, Skalarprodukte und Eigenwerte behandelt. Die ersten beiden Stoffgebiete tauchen möglicherweise auch schon in
der Schule auf, zumindest in Spezialfällen. Eigenwerte sind normalerweise völlig
neu.
Eine wichtige Anwendung der Techniken der linearen Algebra ist die analytische Geometrie, also das Studium von geometrischen Objekten in der Ebene
oder im Raum mit Hilfe von Koordinaten. Auch hier gibt es reiche Anknüpfungspunkte mit der Schule, wie etwa Geraden- und Ebenengleichungen, sowie senkrechten Vektoren. Aus der Schule stammt die Bezeichnung ”‘Vektorrechnung”’.
Ein spezieller Gegenstand sind Quadriken, die in der Schule möglicherweise in
Form von Ellipsen auftauchen.
Das vorliegende Skript legt aber auch Wert auf algebraische Strukturen, also
Mengen, in denen man nach vorgegeben Gesetzen rechnen kann. Die wichtigsten behandelten Strukturen sind Körper und Vektorräume. In dem Kapitel über
Grundlagen werden Gruppen als Beispiel behandelt. Nichtkommutative Gruppen kommen in Form von Abbildungsräumen vor. Aber auch Skalarprodukte
und Determinanten sind wichtige algebraische Strukturen.
Literatur
Gerd Fischer, Lineare Algebra, Vieweg Verlag.
Gerd Fischer, Analytische Geometrie, Vieweg Verlag.
10
INHALTSVERZEICHNIS
Kapitel 1
Grundlagen der
Mathematik
1.1
Einführung
Oft wird Mathematik mit Rechnen gleichgesetzt. Natürlich ist das Berechnen
von Werten oder das numerische Lösen von Gleichungen eine der Hauptanwendungen der Mathematik. Aber Mathematik ist mehr. Sie ist darüber hinaus die
Fähigkeit, zu abstrahieren. Das bedeutet, dass wir ein konkretes Problem in eine
mathematische Welt übersetzen und dort studieren.
Dabei werden sehr unterschiedliche Probleme mit denselben mathematischen
Methoden behandelt.
• Lösen von Gleichungen. Schon in der Schule wird das Lösen von Gleichungen in verschiedenen Zusammenhängen angewendet. Man kann damit
Bewegungsprobleme lösen, Geldbeträge oder Zinsen berechnen, oder auch
geometrische Größen, wie Flächen, Strecken oder Winkel, bestimmen.
• Wahrscheinlichkeitsrechung. Die Wahrscheinlichkeitsrechnung überall
angewandt, wo der Zufall mathematisch erfasst werden soll, vom Würfeln
bis zur Umfrage. Immer wird dieselbe mathematische Theorie verwendet.
• Differential- und Integralrechnung. Diese schon in der Schule verwendeten Kalküle haben ebenfalls vielfältige Anwendungen, von der Bestimmung der Extremwerte von Funktionen bis zur Berechnung des freien
Falls in der Physik.
Solche Theorien mit breitem Anwendungsspektrum zeigen die Nützlichkeit
der mathematischen Abstraktion.
Der Nutzen der mathematischen Abstraktion besteht darin, dass die unterschiedlichsten Probleme in denselben mathematischen Rahmen gestellt werden und dort exakt und
allgemeingültig lösbar sind.
11
12
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Eine mathematische Theorie abstrahiert also von einem konkreten Problem, indem sie die wichtigsten Eigenschaften und Zusammenhänge erfasst und
für andere, ähnlich gelagerte Probleme zur Verfügung stellt. Außerdem werden
so die wesentlichen Dinge herausgehoben, und Unwesentliches weggelassen.
In Abbildung 1.1 ist das schematisch festgehalten. Dort wird für ein konkretes Problem das Wort ”‘Modell”’ verwendet. Man könnte stattdessen von auch
”‘Realisierung”’ oder ”‘Anwendung”’ einer mathematischen Theorie sprechen.
Abbildung 1.1: Mathematische Theorie und ihre Modelle
1.2
Mathematische Logik
Wie funktioniert nun diese Übertragung von konkreten Modellen in mathematische Theorien?
1.2.1
Modelle
Ein Modell für eine mathematische Theorie ist eine gedachte Gesamtheit (wir
wollen noch nicht ”‘Menge”’ sagen) von Objekten. Dies kann eine endliche Gesamtheit oder eine unendliche Gesamtheit sein. Die Zahlen der Zahlgerade R
bilden zum Beispiel eine unendliche Gesamtheit.
Wir sind in einer mathematischen Theorie interessiert an gewissen Eigenschaften, die die Objekte haben oder nicht haben. Für ein Objekt x könnten wir
1.2. MATHEMATISCHE LOGIK
13
diese Eigenschaft als A(x) schreiben, und für jedes konkrete Objekt x nehmen
wir an, dass A(x) entweder wahr ist oder falsch.
1.1. Beispiel: Für die reellen Zahlen ist x > 0 so eine Eigenschaft, die entweder
wahr ist oder falsch.
Es kann auch Beziehungen zwischen zwei oder mehr Objekten geben, die
erfüllt sind oder nicht erfüllt sind. Für zwei Objekte x und y könnten wir die
Beziehung als R(x, y) schreiben, und für je zwei Objekte ist diese Beziehung
entweder erfüllt oder nicht.
1.2. Beispiel: Eine Beziehung zwischen zwei reellen Zahlen ist etwa x < y, und
eine Beziehung zwischen drei reellen Zahlen ist x + y = z.
Außerdem kann es sein, dass wir gewisse Objekte als Konstante auszeichnen
und mit einem eindeutigen Namen versehen. Ein Objekt mit diesem Namen
muss dann in jedem Modell unserer Theorie vorhanden sein.
1.3. Beispiel: Bei den reellen Zahlen könnten wir die Konstanten 0 und 1
festlegen.
Wir sind in unseren Modellen an Eigenschaften von Objekten, Beziehungen zwischen Objekten und speziellen Objekten, den Konstanten, interessiert.
1.4. Beispiel: Wir treffen oft Gesamtheiten von Objekten an, in denen man
addieren kann. Als Beziehung betrachten wir dann eine Beziehung zwischen je
drei Objekten x, y, z, die besagt, dass die Summe von x und y gleich z ist. Man
schreibt das, wie gewohnt, als
x + y = z.
Beispiele für Additions-Modelle aus der Schule sind die natürlichen Zahlen, die
Brüche, die reellen Zahlen und die Vektoren. Man kann darüber hinaus aber
auch Funktionen addieren, oder Matrizen. Diese Schreibweise ist also universell
einsetzbar.
1.2.2
Axiome
Axiome sind Aussagen, die in jedem Modell der Theorie gelten sollen. Jedes
Modell der Theorie muss also alle Axiome erfüllen. Durch die Axiome werden
unsere Theorien exakt festgelegt.
Wir legen Axiome fest, die in allen für uns interessanten
Modellen gelten sollen.
1.5. Beispiel: Wir kehren zurück zu unserem Beispiel mit der Addition. Dafür
legen wir nun Axiome fest, die schon aus der Schule bekannt sein sollten.
14
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
1. Das erste Axiom erscheint selbstverständlich, verdient es aber, festgehalten
werden.
Für alle x, y existiert genau ein z mit x + y = z.
Dies entspricht unserer Vorstellung von Addition. Aufgrund dieses Axioms
machen Ausdrücke wie (a + b) + c erst Sinn und wir können wie gewohnt
rechnen. Wenn nämlich a+b nicht eindeutig bestimmt wäre, was soll dann
(a + b) + c bedeuten?
2. Als nächstes Axiom haben wir
Für alle x, y gilt x + y = y + x.
Dies ist das Kommutativgesetz.
3. Weiter
Für alle x, y, z gilt (x + y) + z = x + (y + z).
Dies ist das Assoziativgesetz.
4. Wir nehmen auch die Existenz eines neutralen Elements und des Inversen an. Es gibt ein Element 0, so dass gilt
x+0=x
für alle x,
und
Für alle x existiert ein y mit x + y = 0.
Diese Axiome nennt man Axiome einer Gruppe (engl.: group) (genauer, einer
kommutativen Gruppe). Wie wir wissen, erfüllen die reellen Zahlen diese Axiome, aber auch die Vektoren. Es gibt aber noch zahlreiche andere interessante
Gruppen, denen wir in dieser Vorlesung begegnen werden.
Axiome sollen unabhängig sein. Das heißt, dass man kein Axiom weglassen
kann. Das ist der Fall, wenn es ein Modell gibt, dass die anderen Axiome erfüllt,
aber das wegzulassende Axiom nicht.
Axiome sollen widerspruchsfrei sein. Das bedeutet, dass kein Axiom den
übrigen widerspricht. Dies ist genau dann der Fall, wenn es überhaupt ein Modell
für die Theorie gibt.
1.2.3
Sätze
Ein Satz einer Theorie ist eine Aussage, die in allen Modellen der Theorie wahr
ist. Das heißt, in jedem denkbaren Modell, in dem die Axiome erfüllt sind, gilt
auch der Satz. Damit wird die Theorie allgemein gültig. Solange die Voraussetzungen erfüllt sind, stimmen die Resultate der Theorie.
1.6. Beispiel: Kehren wir zu den Gruppen zurück. Die folgende Aussage ist
ein Satz der Gruppentheorie.
Es gibt genau ein neutrales Element.
1.2. MATHEMATISCHE LOGIK
15
Das bedeutet ausgeschrieben: Wenn 0 und 0̃ beide die Eigenschaften eines neutralen Elementes erfüllen, dann ist 0 = 0̃.
Ein Satz muss bewiesen werden. Dazu verwenden wir logische Argumente
die zeigen, dass der Satz in jedem Modell gelten muss, in dem die Axiome gelten.
Man darf dabei keine zusätzlichen Annahmen machen, oder nur Spezialfälle
betrachten.
Sätze sind allgemein gültige Aussagen. Ihre Aussagen sind
in jedem Modell gültig, in dem die Voraussetzungen gelten.
Ein Beweis ist eine Argumentation, die die Allgemeingültigkeit nachweist.
1.7. Beispiel: Beweisen wir den oben erwähnten Satz über die Eindeutigkeit
des neutralen Elements. In einer kommutativen Gruppe ist das nicht schwer.
Seien also 0 und 0̃ neutrale Elemente. Dann gilt
0 + 0̃ = 0,
weil 0̃ neutrales Element ist. Außerdem gilt
0̃ + 0 = 0̃,
weil 0 neutrales Element ist. Aufgrund des Kommutativgeseztes hat man also
0 = 0 + 0̃ = 0̃ + 0 = 0̃.
Damit ist 0 = 0̃ bewiesen. Wir haben dazu lediglich das Kommutativgesetz
benötigt.
1.8. Beispiel: Wir zeigen, dass in einer Gruppe auch inverse Elemente eindeutig
bestimmt sind. Das ist schon schwerer. Sei x also ein Element der Gruppe und
y zu x invers, also
x + y = 0.
Sei ỹ ebenfalls ein inverses Element, also
x + ỹ = 0.
Dann addieren wir in der ersten Gleichung ỹ auf beiden Seiten und in der zweiten
y. Also
ỹ + (x + y) = ỹ + 0 = ỹ,
y + (x + ỹ) = y + 0 = y.
Die beiden linken Seiten sind aber gleich. Denn
ỹ + (x + y) = (ỹ + x) + y = y + (ỹ + x) = y + (x + ỹ).
Also folgt y = ỹ. Bei dieser Argumentation haben wir alle Axiome verwendet!
1.9. Bemerkung: Die beiden Aussagen über die Eindeutigkeit bleiben richtig,
wenn man das Kommutativgesetz streicht. Aber sie sind dann nur mit deutlich
mehr Aufwand zu beweisen.
16
1.2.4
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Logische Aussagen
Da es erfahrungsgemäß am Anfang schwierig ist, in Beweisen exakt und logisch
zu argumentieren, lohnt es sich, logische Aussagen etwas genauer unter die Lupe
zu nehmen.
Elementare Aussagen (Prädikate)
Die in unserem Modell betrachteten Eigenschaften und Beziehungen sind die
elementaren Aussagen unserer Theorie. Bei den Gruppen ist die einzige elementare Aussage x + y = z.
Die Gleichheit v = w ist in jedem Modell eine elementare Aussage, die für
je zwei Objekte v und w wahr ist oder falsch. Man sagt, die Objekte seien
unterscheidbar.
Boolesche Aussagen
Und. Zwei Aussagen A und B lassen sich mit ”‘und”’ verknüpfen. Die Aussage
”‘A und B gelten”’ ist genau dann wahr, wenn die Aussagen A und B beide wahr
sind.
Oder. Zwei Aussagen A und B lassen sich auch mit ”‘oder”’ verknüpfen. Im
Gegensatz zur Umgangssprache bedeutet dies, dass eine der beiden Aussagen
oder auch beide wahr sind.
Nicht. Die Bedeutung der Aussage ”‘A gilt nicht”’ ist klar.
Implikation. Über die Aussage ”‘Aus A folgt B”’ herrschen dagegen oft
Unklarheiten. Die Aussage ist richtig, wenn in jedem Modell, in dem A gilt
auch B gelten muss. Wenn A in einem Modell nicht gilt, ist es egal, ob B gilt
oder nicht. Das bedeutet, dass die Aussage gleichbedeutend ist mit ”‘A gilt
nicht, oder B gilt”’. Wenn die Aussage A immer, also in jedem Modell, falsch
ist, dann ist die Aussage ”‘Aus A folgt B”’ richtig, wenngleich sinnlos (ex falso
quodlibet).
1.10. Beispiel: Ein Satz einer Theorie wird gewöhnlich in der Form
Aus A1 und A2 und . . . und An folgt B
wiedergegeben. B muss gelten, wenn alle Voraussetzungen A1 , . . . , An gelten.
Wenn eine der Voraussetzungen immer falsch ist, dann ist der Satz richtig, aber
sinnlos. Man nennt A1 bis An die Prämissen des Satzes und B die Konklusion.
Äquivalenz. Die Bedeutung der Aussage ”‘A gilt genau dann, wenn B
gilt”’ ist offensichtlich. Die Aussage beweist man in zwei Teilen. Zuerst zeigt
man, dass aus A die Aussage B folgt, und dann zeigt man, dass aus B die
Aussage A folgt. Man sagt auch oft, dass die Aussagen A und B äquivalent
sind.
1.2. MATHEMATISCHE LOGIK
17
In der Booleschen Algebra werden für diese Verknüpfungen Zeichen eingeführt, die wir hier aber bis auf ⇒ und ⇔ nur selten verwenden. Diese
Zeichen sind
A ∧ B,
A und B,
A ∨ B,
A oder B,
A ⇒ B,
Aus A folgt B,
A ⇔ B, A und B sind äquivalent,
¬A,
Nicht A.
Außerdem lernt man, mit booleschen Ausdrücken zu rechnen. In Wahrheitstafeln wird für einen booleschen Ausdruck der Wahrheitswert, abhängig vom
Wahrheitswert der Variablen festgehalten. Hier ist die Wahrheitstafel für die
bisher behandelten booleschen Ausdrücke.
A
w
w
f
f
B
w
f
w
f
A∨B
w
w
w
f
A∧B
w
f
f
f
A ⇒ B
w
f
w
w
A ⇔ B
w
f
f
w
1.11. Beispiel: Wann ist die Aussage ”‘A und B”’ falsch? Das Gegenteil der
Aussage ”‘A und B”’ ist offensichtlich die Aussage ”‘Nicht A oder nicht B”’.
In der booleschen Algebra stellt sich mit Hilfe von Wahrheitstafeln heraus, dass
die Aussage
¬(A ∧ B) ⇔ (¬A) ∨ (¬B).
immer wahr ist. Man nennt solche Aussagen Tautologien.
1.12 Aufgabe: Vervollständigen Sie die folgende Wahrheitstafel.
A
w
w
f
f
B
w
f
w
f
¬A
¬B
A∧B
(¬A) ∨ (¬B)
1.13 Aufgabe: Wann ist die Aussage ”‘A oder B”’ falsch?
1.14 Aufgabe: Angenommen, alle Kreter sind Lügner. Wenn nun Sokrates ein Kreter
ist, muss er Lügner sein. Was kann daraus geschlossen werden, dass Sokrates Lügner
ist? Was kann daraus geschlossen werden, dass Sokrates kein Lügner ist?
1.15 Aufgabe: Welche der folgenden Aussagen sind Tautologien?
A ⇒ B ⇔ B ⇒ A
A ⇒ B ⇔ ¬B ⇒ ¬A
(A ⇒ B) ∧ A ⇒ B
(A ⇒ B) ∧ ¬B ⇒ ¬A
(A ⇒ B) ∧ ¬A ⇒ ¬B
18
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Quantoren
Allquantor. Wir betrachten die Aussage ”‘Für alle x gilt A(x)”’. Dabei
ist A(x) eine Aussage, die x als freie Variable enthält. Eine freie Variable ist
eine Variable, die nicht schon durch einen anderen Quantor gebunden ist. Die
Aussage ist in einem Modell richtig, wenn A(x) in dem Modell immer richtig
ist, egal welches konkrete Objekt x man einsetzt. Man schreibt
∀x A(x).
1.16. Beispiel: Das Kommutativgesetz in einer Gruppe schreibt sich dann als
∀x ∀y (x + y = y + x) .
Dies sind eigentlich zwei ineinander geschachtelte Allquantoren. Man schreibt
das einfach als
∀x,y (x + y = y + x) ,
da es auf die Reihenfolge der Allquantoren offenbar nicht ankommt.
Existenzquantor. Die Aussage ”‘Es gibt ein x mit A(x)”’ ist genau dann
in einem Modell erfüllt, wenn es dort ein konkretes Objekt x gibt, für das A(x)
wahr ist. Wir schreiben
∃x A(x).
1.17. Beispiel: Die Existenz des Inversen in einer Gruppe lässt sich damit als
∀x ∃y (x + y = 0)
schreiben, wobei 0 das neutrale Element der Gruppe sei. Hier kommt es natürlich
schon auf die Reihenfolge der Quantoren an!
1.18 Aufgabe: Schreiben Sie das Axiom von der Existenz des neutralen Elements
mit Hilfe von Quantoren.
1.19. Beispiel: In der Graphentheorie betrachtet man Modelle mit der Beziehung
x→y
zwischen x und y. In Abbildung 1.2 ist das durch Pfeile angedeutet. Die Punkte
stellen die Objekte des Modells dar. Wie man sieht, geht von jedem Punkt ein
Pfeil aus. Also ist die Aussage
∀x ∃y (x → y)
in diesem Modell wahr.
1.20 Aufgabe: Überprüfen Sie im Graphen 1.2 die folgenden Aussagen.
(1)
∃x ∀y (x → y)
(2)
∀x ∃y (y → x)
1.2. MATHEMATISCHE LOGIK
19
Abbildung 1.2: Ein Graph
(3) Es gibt x, y, z, v mit
x → y,
y → z,
z → v,
v → x.
Wann ist die Aussage ∀x A(x) falsch? Das ist genau dann der Fall, wenn die
Aussage ”‘Es gibt kein x, für das A(x) falsch ist”’ richtig ist. In Zeichen
¬∀x A(x) ⇔ ∃x ¬A(x).
Umgekehrt ist die Aussage ∃x A(x) falsch, wenn für alle x die Aussage ¬A(x)
richtig ist.
Sehr oft formuliert man auch die Aussage ”‘Es gibt genau ein x mit A(x)”’.
Diese Aussage zerlegt sich in zwei Teile, nämlich die Existenz
∃x A(x)
und die Eindeutigkeit
∀x,y (A(x) und A(y) ⇒ x = y) .
Beispielsweise haben wir schon gezeigt, dass es in einer Gruppe genau ein neutrales Element gibt. Im Beweis haben wir angenommen, dass es zwei solche
Elemente gibt, und gezeigt, dass diese Elemente gleich sein müssen.
1.21 Aufgabe: Gibt es in Abbildung 1.2 zu jedem x genau ein y mit x → y?
1.22 Aufgabe: Formulieren Sie die folgenden Aussagen in logischen Ausdrücken, die
nur All- und Existenzquantoren, sowie die Booleschen Grundelemente enthalten. A
und B seien hier beliebige Aussagen, die für x bzw. y gelten oder nicht gelten.
20
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
(1) Es gibt mindestens zwei Objekte x und y, für die die Aussage A gilt.
(2) Es gibt genau zwei Objekte x und y, für die die Aussage A gilt.
(3) Es gibt höchstens ein Objekt x, für das die Aussage A gilt.
(4) Kein x, für das A gilt, erfüllt auch B.
(5) Obwohl A nicht gilt, gilt die Aussage B.
(6) Entweder gilt A oder B.
1.2.5
Definitionen
Definitionen sind einfach Abkürzungen für häufig verwendete Eigenschaften oder
Objekte.
1.23. Beispiel: Da es zu jedem Gruppenelement x ein eindeutig bestimmtes
inverses Element gibt, kann man für das Inverse das Zeichen −x definieren und
dann damit rechnen. Ebenfalls definiert man
x − y := x + (−y).
Das Zeichen ”‘:=”’ steht für ”‘definiert als”’.
Definitionen von Zeichen machen nur Sinn, wenn diese Zeichen eindeutig bestimmte Objekte angeben.
1.24. Beispiel: Wir zeigen, dass in jeder Gruppe für alle x, y
−(x + y) = (−x) + (−y)
gilt. Dazu rechnen wir nach, dass
(x + y) + ((−x) + (−y)) = 0
gilt. Dies ist eine leichte Aufgabe, die wir dem Leser überlassen. Wenn wir das
nachgerechnet haben, ist also (−x) + (−y) ein inverses Element zu x + y. Die
Behauptung folgt also aus der Eindeutigkeit des inversen Elementes, die wir ja
schon bewiesen haben.
1.25 Aufgabe: Zeigen Sie −(−x) = x für alle Elemente x in einer Gruppe.
Man kann auch Eigenschaften von Objekten definieren. In den Voraussetzung
eines Satzes braucht man dann nur noch zu sagen, dass das Objekt die definierte
Eigenschaft hat, anstatt diese Eigenschaft explizit auszuschreiben.
1.26. Beispiel: Ein Punkt x in einem Graphen heiße erreichbar, wenn es ein y
gibt mit y → x. Dies ist eine Definition der Eigenschaft ”‘Erreichbarkeit”’, die
ein Punkt hat oder nicht hat.
1.2. MATHEMATISCHE LOGIK
1.2.6
21
Beweise
Auch korrektes Beweisen fällt anfangs oftmals schwer. Natürlich gewinnt man
mit der Zeit Übung. Wir wollen hier aber dennoch einige allgemeine, und immer
wiederkehrende Beweisstrategien behandeln.
Die normale Formulierung eines Satzes besteht darin, gewisse Voraussetzungen anzugeben und eine Behauptung, die aus diesen Voraussetzungen
folgt. Implizit werden immer die Axiome der Theorie als Voraussetzungen angenommen.
Mit logischen Zeichen ist ein mathematischer Satz also von der Form
V1 , . . . , V n ⇒ A
Dabei sind V1 , . . . , Vn die Voraussetzungen des Satzes (einschließlich der Axiome) und A die Behauptung. Wir haben das Komma als Abkürzung für ”‘und”’
verwendet.
Ein Beweis eines Satzes muss für den Leser zwingend darlegen, warum die Behauptung des Satzes aus den Voraussetzungen folgt.
Abbildung 1.3: Mathematische Sätze
Es ist dabei immer hilfreich, an ein beliebiges Modell zu denken, von dem
man nichts weiß, außer, dass dort die Voraussetzungen des Satzes gelten müssen.
Man muss lediglich der Versuchung widerstehen, zusätzliche Annahmen zu machen, obwohl sie vielleicht naheliegend erscheinen.
22
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Implikation
Behauptungen vom Typ A1 ⇒ A2 beweist man, indem man zusätzlich zu den
Voraussetzungen des Satzes annimmt, dass A1 gilt, und daraus schließt, dass
A2 gilt.
Bei Äquivalenzen A1 ⇔ A2 sind zwei Richtungen zu beweisen, also
A1 ⇒ A2 ,
A2 ⇒ A1 .
1.27. Beispiel: In der Schule werden oft Gleichungen einfach untereinander
geschrieben. Es ist dabei wichtig zu beachten, ob die nächste Gleichung im
Rechengang aus der vorigen Folgt, oder ob die Gleichungen äquivalent sind.
Innerhalb der reellen Zahlen folgt zum Beispiel aus x = y immer x2 = y 2 , aber
der umgekehrte Schluss ist falsch. Das Wurzelziehen auf beiden Seiten einer
Gleichung ist keine erlaubte Operation, wenn man Äquivalenz aufrecht erhalten
will. Gleiches gilt für das Kürzen von Faktoren auf beiden Seiten, von denen
nicht sichergestellt ist, dass sie ungleich 0 sind.
Aussagen mit Allquantoren
Wenn die Aussage vom Typ ∀x A(x) ist, so nimmt man ein ”‘beliebiges, aber
festes”’ x in einem beliebigen Modell der Theorie und beweist die Aussage A(x)
für dieses x. Dabei darf man natürlich keine speziellen Annahmen über x oder
das Modell machen.
1.28. Beispiel: In einer Gruppe gilt für alle x, y, ỹ die folgende Aussage
y + x = ỹ + x ⇒ y = ỹ.
Diesen Satz beweisen wir, indem wir x, y, ỹ als beliebig vorgegeben annehmen.
Dann gilt, wenn wir die Notation −x für das Inverse von x verwenden,
y = y + 0 = y + (x + (−x)) = (y + x) + (−x)
= (ỹ + x) + (−x) = ỹ + (x + (−x)) = ỹ + 0 = ỹ.
Wir haben also de facto −x auf beiden Seiten der Gleichung y + x = ỹ + x
addiert.
1.29. Beispiel: Die Umkehrung
y = ỹ ⇒ y + x = ỹ + x.
für alle x, y, ỹ in einer Gruppe braucht nicht bewiesen zu werden. Sie ist eine
logische Selbstverständlichkeit.
Für gleiche Objekte gelten dieselben Beziehungen.
1.30. Beispiel: In einer Gruppe gilt für alle x, y, z die Äquivalenz
x + y = z ⇔ x = z − y.
1.2. MATHEMATISCHE LOGIK
23
Zum Beweis haben wir zwei Richtungen zu zeigen, nachdem wir x, y, und z
beliebig aus der Gruppe festgelegt haben.
”‘ ⇒ ”’: Nimmt man x + y = z an, so gilt
x = x + (y + (−y)) = (x + y) + (−y) = z − y.
Man beachte, dass wir praktisch auf beiden Seiten der Gleichung x + y = z den
Wert −y addiert haben. Diese Idee haben wir dann nur kompakt aufgeschrieben.
”‘⇐”’: Nimmt man x = z − y an, so gilt
x + y = (z − y) + y = (z + (−y)) + y = z + ((−y) + y)
= z + (y + (−y)) = z + 0 = z.
Fallunterscheidungen
Möglicherweise ist in einem Beweis für x eine Fallunterscheidung nötig. In
diesem Fall ist es wichtig, dass man alle Fälle vollständig behandelt.
1.31. Beispiel: Innerhalb der reellen Zahlen gilt für alle x die Aussage
x2 ≥ 0.
Der Beweis geht über die Fallunterscheidung x ≥ 0 und x < 0, die alle möglichen
Fälle umfasst. Im ersten Fall folgt aus den Regeln für ”‘≥”’ direkt x2 = x·x ≥ 0.
Im zweiten Fall folgt −x > 0 und daher
x2 = (−x)2 > 0.
Aussagen mit Existenzquantoren
Eine Aussage vom Typ ∃x A(x) kann man konstruktiv beweisen. Dazu konstruiert man aus anderen Objekten, deren Existenz aus den Voraussetzungen
folgt, das gewünschte x. Die Konstruktion muss natürlich mit den Axiomen oder
den Voraussetzungen möglich sein.
1.32. Beispiel: In den reellen Zahlen existiert ein Element x > 0 mit
x2 = 2.
Diese Aussage wird in der
√ Analysis konstruktiv bewiesen, indem eine Folge konstruiert wird, die gegen 2 konvergiert.
Es ist aber auch möglich, die Existenzaussage dadurch zu beweisen, dass
man das Gegenteil widerlegt. Man zeigt also, dass die Aussage
∀x ¬A(x)
falsch ist, zum Beispiel durch einen Widerspruchsbeweis, den wir im folgenden
Abschnitt behandeln.
1.33. Beispiel: Beispiele für nicht-konstruktive Existenzbeweise tauchen in der
Analysis erst recht spät auf. Man kann zum Beispiel zeigen, dass es tranzendente
Zahlen (Zahlen, die nicht Nullstellen von ganzzahligen Polynomen sind) gibt,
ohne eine solche Zahl konkret angeben zu können. Allerdings gibt es dafür inzwischen auch konstruktive Beweise, denn π und e wurden als transzendent
erkannt.
24
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Widerspruchsbeweise
Dieser Beweistyp tritt recht häufig auf, wird aber oft falsch verstanden. Um
eine Aussage A zu beweisen, nehmen wir an, dass A nicht gilt. Man zeigt dann,
dass sich ein Widerspruch zu einer der Voraussetzungen ergibt, dass also diese
Voraussetzung doch nicht gelten kann. Da jede Aussage aber entweder gilt oder
nicht gilt, kann das nicht sein. Daher muss A doch gelten.
Noch besser versteht man den Widerspruchsbeweis, wenn man an Modelle
denkt. Angenommen, alle Voraussetzungen gelten in einem Modell, da sonst
ja nichts zu zeigen ist. Es gibt nun zwei Fälle. Falls A gilt, sind wir fertig.
Falls A nicht gilt, so zeigen wir im Widerspruchsbeweis, dass auch eine der
Voraussetzungen nicht gelten kann. Daher kann dieser Fall nicht eintreten.
Man kann dass mit logischen Zeichen so ausdrücken. Wenn V1 bis Vn Voraussetzungen einer Behauptung A sind, und
V1 , . . . , Vn , ¬A ⇒ ¬Vi
für eine der Voraussetzungen Vi , dann ist
V1 , . . . , Vn ⇒ A
bewiesen.
1.34. Beispiel: Der berühmte Beweis dafür, dass es unendlich viele Primzahlen
gibt, wird am einfachsten als Widerspruchsbeweis formuliert. Angenommen, es
gäbe nur endlich viele Primzahlen p1 , . . . , pn . Dann teilt keine dieser Primzahlen
die Zahl
x = p1 · . . . · pn + 1.
Da wir wissen, dass x eine Primfaktorzerlegung hat, ist x selbst eine Primzahl.
x ist aber verschieden von p1 , . . . , pn . Dies ist ein Widerspruch dazu, dass p1
bis pn die einzigen Primzahlen sind.
√
1.35. Beispiel: Ein anderes bekanntes Beispiel ist der Beweis dafür, dass 2
kein Bruch ist. Wir nehmen das Gegenteil an. Also
√
p
2=
q
mit teilerfremden p, q. Dann folgt
2q 2 = p2 .
Also ist p2 gerade, und damit auch p. Also ist p2 durch 4 teilbar. Da p und q
teilerfremd sind, ist q ungerade. Nun hat man den Widerspruch, da 2q 2 nicht
durch 4 teilbar ist.
√ Aus diesem Widerspruch schließt man, dass die Annahme
falsch war, dass 2 ein Bruch ist.
Viele Beweise, die auch direkt geführt werden könnten, werden manchmal
unnötigerweise als Widerspruchsbeweise aufgeschrieben.
Das Problem ist, dass sich die Voraussetzungen auch gegenseitig widersprechen können. In diesem Fall führt ein Widerspruchsbeweis natürlich immer zum
Erfolg. Wir haben dann einen wahren, aber sinnlosen Satz bewiesen, dessen
Voraussetzungen niemals alle erfüllt sind.
1.3. MENGEN UND ABBILDUNGEN
1.3
1.3.1
25
Mengen und Abbildungen
Mengen
Die Sprache der Mengenlehre dominiert heute die Mathematik. In vielen Fällen,
vor allem bei endlichen Mengen, ist sie lediglich eine Sprechvereinfachung für
logische Ausdrücke. Insbesondere bei unendlichen Mengen verselbständigt sich
aber die Mengenlehre und bringt neue Objekte hervor. Diese Objekte sind zum
Teil wahre Monster, deren Existenz nicht jeder Mathematiker akzeptiert. Wir
versuchen, in diesem Skript so konstruktiv und endlich wie möglich zu bleiben.
Wenn wir uns ein konkretes Modell vorstellen, so kann man in diesem Modell
die Gesamtheit aller Elemente mit einer gewissen Eigenschaft A(x) aussondern.
Man erhält die Gesamtheit aller Objekte x, die die Eigenschaft A(x) erfüllen,
die wir als Menge (engl.: set)
M = {x : A(x)},
bezeichnen. Wenn x Element der Menge M ist, so schreiben wir
x ∈ M.
Es gilt also
x ∈ M ⇔ A(x).
x ∈ M ist quasi nur eine Abkürzung für A(x). Diese Art, Mengen zu bilden,
nennt man naive Mengenlehre. Jede Menge ist erlaubt, solange nur ihre definierende Eigenschaft klar gegeben ist.
1.36. Beispiel: Es ist in einer Gruppe möglich, dass x+x = 0 ist, obwohl x 6= 0
ist. Solche Gruppen werden wir später kennen lernen. In den reellen Zahlen ist
das natürlich nicht der Fall. Wir können nun
M := {x : x + x = 0}
definieren. In den reellen Zahlen enthält M nur das Element 0.
1.37 Aufgabe: Beweisen Sie
x, y ∈ M ⇒ x + y ∈ M
für die oben definierte Menge M einer Gruppe.
Wir können nun Mengen wieder als Objekte betrachten. Damit entsteht
die Möglichkeit, diese Mengen zu neuen Mengen zusammen zu fassen. Mengen
können damit wieder Elemente von Mengen werden. Es gibt eine Vielzahl von
neuen Konstruktionsmöglichkeiten. Diese neuen Möglichkeiten wollen wir in diesem Abschnitt genauer betrachten. Auch Abbildungen werden hier als Mengen
dargestellt.
Mengenlehre beginnt dann, wenn wir die Mengen selbst wieder als Objekte unserer Modells betrachten, und Mengen
von Mengen bilden.
26
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
1.38. Bemerkung: Dass diese Art der Mengenbildung innere Widersprüche
hervorbringt, ist schon lange bekannt. Nehmen wir an, Mengen können sich
auch selbst als Element enthalten. Dann könnten wir die Menge M aller Mengen
bilden, die sich nicht selbst als Element enthalten. Nun kann aber weder M ∈ M ,
noch M ∈
/ M gelten. Dieses Pradoxon nennt man Russelsches Paradoxon.
Man kann die Aussage dieses Paradoxon so deuten, dass es kein Modell für diese
naive Mengenlehre geben kann.
Ein ähnliches Paradoxon tritt auch in endlichen Mengen auf. Wenn ein Barbier behauptet, dass er alle Männer im Dorf rasiert, die sich nicht selbst rasieren,
so kann er diese Behauptung nicht einhalten. Rasiert er sich selbst, so darf er
sich nicht selbst rasieren. Für dieses Axiom gibt es also kein Modell.
1.39 Aufgabe: Überlegen Sie sich, warum im Russelschen Paradoxon weder M ∈ M ,
noch M ∈
/ M gelten kann.
Die Konstruktionsmöglichkeiten, die wir hier kennenlernen werden, fasst
man als Axiome der Mengenlehre (engl.: set theory) zusammen. Akzeptiert
man diese Axiome, so besteht ein Modell nicht mehr nur aus den Objekten, an
die man zunächst gedacht hat, sondern auch aus Mengen von Objekten, Mengen
von Mengen, Abbildungen und Mengen von Abbildungen.
In der Praxis werden wir dann von der Menge der Objekte in unserem Modell sprechen. Eigenschaften von Objekten entsprechen dann Teilmengen dieser Menge und Beziehungen zwischen Objekten entsprechen Abbildungen. Alles
wird in der Sprache der Mengenlehre ausgedrückt.
Der Vorteil der Mengenlehre ist die einheitliche Sprechweise, die man damit gewinnt. ”‘Die Mengenlehre ist ein Paradies, aus dem uns niemand vertreiben kann.”’
Die axiomatische Mengenlehre geht sogar einen Schritt weiter und bildet einen Rahmen, in den sämtliche denkbaren Modelle hinein passen. Genau
die Dinge, die dort konstruierbar sind, existieren mathematisch. Wir wollen hier
pragmatischer bleiben und eine für viele Mathematiker zweifelhafte mathematische Gesamttheorie vermeiden.
Auch werden wir die Konstruktionsmechanismen der Mengenlehre sparsam
anwenden. Es gibt einen konstruktiven Ansatz zur Mathematik, in dem viele
der hier wie selbstverständlich vorausgesetzten Mengebildungen nicht akzeptiert
werden.
1.3.2
Gleichheit von Mengen
Als wichtigstes Axiom der Mengenlehre halten wir fest, dass zwei Mengen genau
dann gleich sind, wenn sie dieselben Elemente enthalten. Das heißt, A und B
sind genau dann gleich, wenn
∀x (x ∈ A ⇔ x ∈ B)
gilt.
1.3. MENGEN UND ABBILDUNGEN
27
Es ist klar, dass gleiche Mengen dieselben Elemente enthalten. Schließlich
haben gleiche Objekte dieselben Eigenschaften. Die Umkehrung ist von der Anschauung her selbstverständlich, muss aber festgehalten werden.
1.40. Definition: Eine Menge A heißt Teilmenge (engl.: subset) von B,
wenn jedes Element aus A auch in B ist. Das heißt
∀x (x ∈ A ⇒ x ∈ B) .
Der folgende Satz ist aufgrund unseres Axioms über die Gleichheit von Mengen
offensichtlich.
1.41 Satz: Zwei Mengen A und B sind genau dann gleich, wenn A ⊆ B und
B ⊆ A gilt.
Ein weiteres Axiom der Mengenlehre erlaubt uns, aus einer gegebenen Menge A aller Elemente mit einer gewissen Eigenschaft A(x) auszusondern. Es
entsteht die Teilmenge
M := {x ∈ A : A(x)}.
Das bedeutet
x ∈ M ⇔ (x ∈ A und A(x)) .
Da M durch seine Elemente festgelegt ist, ist diese Menge eindeutig definiert.
1.42. Bemerkung: Wir haben hier ”‘:=”’ für die Definition eines Objektes
verwendet. Dies wollen wir in Zukunft zur Verdeutlichung, dass es sich um eine
definitionsgemäße und nicht um eine behauptete Gleichheit handelt, beibehalten. Dabei muss natürlich immer gesichert sein, dass das Objekt auf der rechten
Seite eindeutig bestimmt ist.
1.43. Definition: Die leere Menge ∅ ist die Menge, die keine Elemente enthält.
Sie ist dadurch eindeutig charakterisiert, dass
x∈
/∅
für alle x gilt. Sie ist folglich Teilmenge jeder anderen Menge, also
∅ ⊆ A.
für jede Menge A.
1.44 Aufgabe: Schreiben Sie die leere Menge in der Form
∅ = {x ∈ A : . . .},
wobei A eine beliebige vorgegebene Menge ist.
1.45. Bemerkung: Die Elemente einer Menge können wieder Mengen sein. Wir
machen bei allen Mengenoperationen keinen Unterschied zwischen Mengen und
den Grundobjekten, von denen wir ausgehen. Der einzige Unterschied ist, dass
wir uns nicht für die Elemente der Grundobjekte interessieren. Grundobjekte
tauchen nur auf der linken Seite der Elementbeziehung auf und werden nie als
Menge betrachtet.
28
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Ein weiteres Axiom erlaubt uns, aus zwei oder mehr Elementen eine neue
Menge durch Aufzählung zu bilden. Wenn also x und y gegeben sind, so ist
die Menge
M = {x, y}
dadurch festgelegt, dass die Elemente von M genau x oder y sind. Also
t ∈ M ⇔ t = x oder t = y.
Dasselbe gilt für ein Element, oder auch für drei oder mehr Elemente. Natürlich
gilt
{x, y} = {y, x}.
1.3.3
Potenzmenge
1.46. Definition: Die Potenzmenge P(A) einer Menge A ist die Menge aller
Teilmengen von A. Also
M ∈ P(A) ⇔ M ⊆ A.
Ein weiteres, sehr mächtiges Axiom der Mengenlehre garantiert die Existenz
der Potenzmenge einer beliebigen Menge. Dadurch werden sehr mächtige und
unvorstellbar große Mengen geschaffen. Die Potenzmenge einer endlichen Menge
ist allerdings endlich.
1.47. Beispiel: Sei x 6= y und
M = {x, y}.
Dann besteht P(M ) aus 4 Elementen, denn jedes der beiden Elemente kann in
der Menge sein oder nicht, was 4 Möglichkeiten ergibt. Es ist
P(M ) = {∅, {x}, {y}, {x, y}}.
Denn die angezeigten Mengen sind genau alle Teilmengen von {x, y}.
1.48 Aufgabe: Geben Sie P{x, y, z} für drei verschiedene Elemente x, y, z an.
1.3.4
Vereinigung und Schnitt
1.49. Definition: Zu je zwei Mengen A und B definieren wir die Vereinigung
(engl.: union)
A ∪ B := {x : x ∈ A oder x ∈ B}.
Die Existenz der Vereinigung gilt per Axiom der Mengenlehre. Man hat
x ∈ A ∪ B ⇔ (x ∈ A oder x ∈ B) .
1.50. Beispiel: Für alle Mengen A und B gilt
A ⊆ A ∪ B,
B ⊆ A ∪ B.
(1.1)
1.3. MENGEN UND ABBILDUNGEN
29
Denn jedes Element, dass in A (bzw. B) ist, ist nach Definition offenbar auch
in A ∪ B.
1.51. Definition: Aus der Vereinigung können wir die Elemente aussondern,
die in beiden Mengen liegen. Man bezeichnet diese Menge als Schnitt (engl.:
intersection) von A und B. Also
A ∩ B := {x ∈ A ∪ B : x ∈ A und x ∈ B}.
(1.2)
Abbildung 1.4: Vereinigung und Schnitt
1.52. Bemerkung: Die Skizze in Abbildung 1.4 bezeichnet man als VennDiagramm. Für zwei Mengen A, B entstehen vier Flächen, die den vier Fällen
x ∈ A, x ∈ B,
x∈
/ A, x ∈ B,
x ∈ A, x ∈
/ B,
x∈
/ A, x ∈
/B
entsprechen. Bei drei Mengen entstehen dann 8 Flächen usw. Man kann auf
diese Art Beweise über die Gleichheit von Mengenrelationen für endlich vielen
Mengen beweisen, indem man das Venn-Diagramm für die linke und die rechte
Seite der Gleichung zeichnet. Es handelt sich um einen nicht-verbalen Beweis
durch Fallunterscheidung. Wir ziehen hier verbale Beweise vor.
1.53. Bemerkung: Wegen (1.1) und (1.2) ist das Rechnen mit Vereinigung
und Schnitt identisch zum Rechnen mit Booleschen Ausdrücken.
Als erstes Beispiel für einen etwas komplexeren Sachverhalt beweisen wir
den folgenden Satz.
1.54 Satz:
Für drei Mengen A, B, C gelten die beiden Beziehungen
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C),
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
Beweis: Wir zeigen nur die erste Gleichheit. Um eine Mengengleichheit zu
zeigen, müssen wir aufgrund von Satz 1.41 zwei Teilmengenbeziehungen beweisen.
30
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
”‘⊆”’: Sei
x ∈ A ∪ (B ∩ C).
(1.3)
”‘beliebig, aber fest”’. Dann ist x ∈ A oder x ∈ (B ∩ C). Wir unterscheiden
diese beiden Fälle.
1. Fall: x ∈ A. Dann ist x ∈ A ∪ B und x ∈ A ∪ C. Also
x ∈ (A ∪ B) ∩ (A ∪ C).
(1.4)
2. Fall: x ∈ (B ∩ C). Dann ist x ∈ B und x ∈ C. Also x ∈ A ∩ B und x ∈ A ∩ C.
Folglich haben wir wieder (1.4).
”‘⊇”’: Es gelte (1.4). Dann ist x ∈ A ∪ B und x ∈ A ∪ C. Wieder unterscheiden
wir zwei Fälle.
1. Fall: x ∈ A. Man erhält (1.3).
2. Fall: x ∈
/ A. Wegen x ∈ A ∪ B muss dann x ∈ B sein. Analog muss auch
2
x ∈ C gelten. Also x ∈ B ∩ C. Es folgt wieder (1.3).
1.55 Aufgabe: Beweisen Sie die zweite Mengengleichheit mit denselben Methoden.
Zeichnen Sie für beide Mengengleichheiten Venn-Diagramme der linken und der rechten Seite.
1.56. Definition: Die Differenz zweier Mengen A und B ist die Menge
A \ B = {x ∈ A : x ∈
/ B}.
A \ B ist offenbar eine Teilmenge von A. Es gilt
A = (A \ B) ∪ B,
und diese Vereinigung ist disjunkt (disjoint), das heißt
(A \ B) ∩ B = ∅.
˙ notiert.
Disjunkte Vereinigungen werden manchmal mit dem Zeichen ”‘∪”’
1.57 Aufgabe: Welche der folgenden Aussagen sind allgemein richtig (also Sätze)
und welche nicht? Beweisen Sie die richtigen Aussagen, und widerlegen Sie die falschen
durch ein Gegenbeispiel. Die richtigen Aussagen beweisen Sie einmal verbal, und ein
anderes Mal mit Venn-Diagrammen.
(1) Für alle Mengen A, B, C gilt
A \ (B ∪ C) = (A \ B) ∩ (A \ C)
(2) Für alle Mengen A, B, C gilt
(A \ B) \ C = A \ (B \ C).
(3) Definiert man für zwei Mengen A, B die symmetrische Differenz
∆(A, B) := (A \ B) ∪ (B \ A)
1.3. MENGEN UND ABBILDUNGEN
31
so gilt
∆(A, B) = ∆(B, A).
(4) Es gilt für alle Mengen A, B
∆(A, B) = ∅ ⇔ A = B.
(5) Für drei Mengen A, B, C gilt
∆(∆(A, B), C) = ∆(A, ∆(B, C)).
Unendliche Schnitte und Vereinigungen
Schwieriger zu verstehen ist die Vereinigung und der Schnitt über eine Menge
von Mengen (die auch unendlich vielen Mengen enthalten kann). Mengen von
Mengen nennt man auch Mengensysteme. Sei also A ein Mengensystem. Dann
definiert man
[
A := {x : x ∈ A für ein A ∈ A},
\
A := {x : x ∈ A für alle A ∈ A}.
Die Vereinigung existiert per Axiom, der Schnitt ist eine Teilmenge der Vereinigung und kann aus dieser ausgesondert werden. Man schreibt auch
[
\
A,
A
A∈A
A∈A
1.58. Beispiel: Seien x, y, z verschiedene Elemente und
A = {{x, y}, {y, z}, {x, z}}.
Dann ist
[
A = {x, y, z}.
Es ist sozusagen die Vereinigung über alle drei Mengen in A.
1.59 Satz:
Für ein Mengensystem A und eine Menge M gilt
M\
[
A=
\
(M \ A).
A∈A
Beweis: ”‘⊆”’: Sei x Element der linken Seite. Dann ist
x ∈ M,
x∈
/
[
A.
S
Das bedeutet, nach der Definition von ”‘ ”’
x∈
/ A,
für alle A ∈ A.
32
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Also
x ∈ M \ A,
für alle A ∈ A.
Daher ist x Element der rechten Seite.
”‘⊇”’: Sei umgekehrt x Element der rechten Seite, also x ∈ M \A für alle A ∈ A.
Es folgt x ∈ M , aber x ∈
/ A für alle A ∈ A. Also ist x Element der linken Seite.
2
1.60 Aufgabe: Zeigen Sie analog zu diesem Satz
\
[
M\
A=
(M \ A).
A∈A
Zeigen Sie auch
[ [
A \M =
(A \ M ).
A∈A
1.3.5
Relationen und Abbildungen
1.61. Definition: Zu je zwei Objekten a und b definieren wir das Paar
(a, b) := {{a}, {a, b}}.
1.62. Bemerkung: Wichtig für uns ist hier lediglich, wann zwei Paare gleich
sind. Es gilt
(a, b) = (ã, b̃) ⇔ a = ã und b = b̃ .
(1.5)
Wenn a 6= b ist, ist insbesondere (a, b) 6= (b, a). Man darf das Paar (a,b) also
nicht mit der Menge {a, b} verwechseln.
1.63. Bemerkung: Um (1.5) zu beweisen, benötigt man ein weiteres Axiom
der Mengenlehre, dass pathologische Mengen verhindert. Genauer darf niemals
A ∈ A gelten, oder auch A ∈ B und B ∈ A und ähnliche Zyklen. Wir gehen
darauf hier nicht weiter ein.
1.64. Definition: Die Menge aller Paare (a, b) mit a ∈ A und b ∈ B bezeichnen wir als Kreuzprodukt (engl.: product) von A und B, in Zeichen
A × B := {(a, b) : a ∈ A und b ∈ B}.
Eine Teilmenge R von A × B bezeichnen wir als Relation zwischen A und B.
Eine Relation f heißt Abbildung (mapping) von A nach B, wenn für alle x
genau ein y existiert mit (x, y) ∈ f . Wir schreiben in diesem Fall
y = f (x),
und, als Zeichen dafür, dass f eine Abbildung von A nach B ist
f : A → B.
Gelegentlich schreiben wir auch
x 7→ f (x).
1.3. MENGEN UND ABBILDUNGEN
33
Relationen R zwischen einer Menge M und sich selbst nennt man Relationen
auf M .
1.65. Bemerkung: Die Schreibweise f (x) macht für Abbildungen Sinn, da ja
y mit (x, y) ∈ f eindeutig bestimmt ist, wenn x gegeben ist.
1.66. Beispiel: Der gerichtete Graph in Abbildung 1.2 kann als eine Relation
auf M , wobei M die Menge der dort abgebildeten Punkte ist. (x, y) ∈ R soll
genau dann gelten, wenn ein Pfeil von x nach y geht.
1.67. Beispiel: In Abbildung 1.5 ist eine Abbildung
f :A→B
mit Pfeilen dargestellt. Man beachte, dass von jedem a ∈ A genau ein Pfeil
ausgeht. Sonst wäre diese Relation keine Abbildung.
Abbildung 1.5: Eine Abbildung zwischen endlichen Mengen
1.68. Beispiel: Eine typische Relation ist
R := {(x, y) ∈ R × R : x ≤ y}.
Natürlich schreiben wir niemals (x, y) ∈ R, sondern einfach x ≤ y.
1.69. Beispiel: Die Addition in Gruppen kann als Abbildung
+:G×G→G
gedeutet werden. Dabei ist G die Menge aller Gruppenobjekte. Man schreibt
natürlich nicht
+(x, y) = z,
34
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
sondern einfach
x + y = z.
Man bezeichnet eine solche Abbildung als Operator auf G. Dieses Beispiel
zeigt, wie universell die Sprache der Mengenlehre ist.
1.70. Bemerkung: Als Funktionen (function) bezeichnet man reellwertige
Abbildungen, gewöhnlich durch eine Rechenvorschrift festgelegt.
1.71. Beispiel: Die Relation
R := {(x, y) ∈ R × R : x2 = y}
auf R ist eine Abbildung von R nach R. Man hat
x 7→ x2 .
Die Relation
R̃ := {(x, y) ∈ R × R : y 2 = x}
ist dagegen keine Abbildung, weil es zum Beispiel zu x = 1 zwei Elemente y
gibt mit (x, y) ∈ R̃, denn
(1, −1) ∈ R̃, (1, 1) ∈ R̃.
Beide Relationen sind Teilmengen von R2 und können daher wie aus der Schule
gewohnt in ein Koordinatensystem eingezeichnet werden. Falls die Relation
R eine Abbildung ist, so bezeichnet man R als Graph der Abbildung.
1.72 Aufgabe: Zeichnen Sie die beiden Relation R und R̃ aus dem Beispiel in ein
Koordinatensystem ein.
1.73 Aufgabe: Ist die Relation
R := {(x, y) ∈ R × R : |y| + 2y = x}
eine Abbildung? Beweisen Sie Ihre Entscheidung! Zeichnen Sie diese Relation in ein
Koordinatensystem ein.
1.3.6
Bild, Urbild, Umkehrabbildung
1.74. Definition: Bei einer Abbildung
f :A→B
nennen wir A den Definitionsbereich und B den Bildbereich. Schränkt man
den Definitionsbereich auf eine Teilmenge M ⊆ A ein, so erhält man die Einschränkung (engl.: restriction)
f |M : M → B.
Also
f |M (x) = f (x)
für alle x ∈ M .
1.3. MENGEN UND ABBILDUNGEN
35
Es ist manchmal interessant, eine Abbildung f : M → B von einer Teilmenge
M ⊂ A zu einer Fortsetzung (engl.: continuation) g : A → B auf ganz A fortzusetzen. Es soll also g|M = f gelten. Meist sollen dabei gewisse Eigenschaften,
wie Stetigkeit oder Differenzierbarkeit erhalten bleiben. Die interessante Frage
ist immer, ob das möglich ist.
1.75. Beispiel: Seien a, b zwei verschiedene reelle Punkte. Dann lässt sich jede
Abbildung
f : {a, b} → R
eindeutig zu einer Geraden g(x) = mx + c fortsetzen. Es gilt also für diese
Gerade
g(a) = f (a), g(b) = f (b).
Es ist interessant zu fragen, wann man die Gleichung
f (x) = y
nach y auflösen kann, also y = g(x), und wann diese Auflösung eindeutig ist.
1.76. Definition: Sei f : A → B eine Abbildung. Wenn f (x) = y ist, so heißt
x ein Urbild von y.
(1) Wenn jedes y ∈ B höchstens ein Urbild hat, so nennt man f injektiv (engl.:
injective, one-to-one).
(2) Wenn jedes y ∈ B mindestens ein Urbild hat, so nennt man f surjektiv
(engl.: surjective, mapping onto).
(3) Wenn f injektiv und surjektiv ist, so nennt man f bijektiv (engl.: bijectiv,
one-to-one and onto).
Bijektive Abbildungen sind also dadurch gekennzeichnet, dass jedes y ∈ B
genau ein Urbild hat.
1.77. Bemerkung: Um nachzuweisen, dass f : A → B injektiv ist, muss man
offenbar für alle x1 , x2 ∈ A zeigen
f (x1 ) = f (x2 ) ⇒ x1 = x2 .
Um nachzuweisen, dass f surjektiv ist, muss man zu jedem y ∈ B ein x ∈ A
finden mit f (x) = y.
1.78. Beispiel: Die Funktion f : R → R, definiert durch
f (x) = x2
ist weder injektiv, noch surjektiv. Denn einerseits ist
f (−1) = f (1) = 1.
Also ist f nicht injektiv, weil y = 1 zwei Urbilder hat. Andererseits hat y = −1
gar kein Urbild.
1.79 Satz: Wenn f : A → B bijektiv ist, dann existiert eine eindeutig bestimmte Umkehrabbildung (engl: inverse mapping) f −1 : B → A, so dass
gelten
f −1 (f (x)) = x
für alle x ∈ A,
36
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
und
f (f −1 (y)) = y
für alle y ∈ B.
Beweis: Nach unserer Definition ist die bijektive Abbildung f dadurch gekennzeichnet, dass jedes y ∈ B genau ein Urbild hat. Dieses eindeutig bestimmte
Urbild definieren wir als f −1 (y). Als Relation geschrieben, können wir f −1 übrigens einfach als
f −1 = {(y, x) : (x, y) ∈ f }.
definieren. Mit dieser Definition sind die beiden verlangten Beziehungen offenbar
2
erfüllt.
1.80. Beispiel: Wir betrachten dieselbe Funktion f (x) = x2 wie im vorigen
Beispiel als Abbildung
f : [0, ∞) → [0, ∞).
Wir schränken also den Definitionsbereich und die Bildmenge ein. Dann ist f
bijektiv. Die Umkehrabbildung
f −1 : [0, ∞) → [0, ∞).
ist
f −1 (y) =
√
y.
1.81 Aufgabe: Geben Sie zwei möglichst große Intervalle ein, auf denen die Funktion
f (x) = x2 + x + 1
injektiv ist. Schränken Sie auf diesen beiden Intervallen den Bildbereich ein, so dass f
bijektiv ist, und geben Sie die beiden Umkehrfunktionen an.
1.82 Aufgabe: Für welche a ∈ R ist die Abbildung
f (x) = |x| + ax
bijektiv? Geben Sie jeweils die Umkehrabbildung an.
1.83. Beispiel: Sei G eine Gruppe und a ∈ G fest gewählt. Die Umkehrabbildung der Abbildung f : G → G, definiert durch
f (x) := x + a,
ist offenbar
f −1 (y) = y − a.
Denn
f −1 (f (x)) = f −1 (x + a) = (x + a) − a = x.
Außerdem
f (f −1 (y)) = f −1 (y) + a = (y − a) + a = y.
1.84. Bemerkung: Es ist ohne Differentialrechnung nicht so leicht zu klären,
ob eine Funktion wie
f (x) := x + ex
1.3. MENGEN UND ABBILDUNGEN
37
eine Umkehrabbildung hat, oder nicht. Die Frage ist äquivalent damit, die Gleichung
y = x + ex
nach x aufzulösen. Mit Hilfe der Differentialrechnung gelingt der Nachweis allerdings sehr leicht, indem man die Monotonie nachprüft und die Grenzwerte
in ±∞. Noch schwieriger wird dies bei Gleichungen, in denen y nur implizit
gegeben ist, wie
xy = y x .
1.85 Aufgabe: Finden Sie Mengen A und B, eine Abbildung f : A → B und eine
Abbildung g : B → A, so dass
g(f (x)) = x
für alle x ∈ A
gilt, aber f nicht bijektiv ist. Zeigen Sie, dass f aber injektiv sein muss, wenn diese
Bedingung erfüllt ist. Zeigen Sie ebenfalls, dass f surjektiv sein muss, wenn
f (g(y)) = y
für alle y ∈ A
gilt.
1.86. Definition: Sei f : A → B eine Abbildung und M ⊆ A. Dann ist das
Bild (engl.: image) der Menge M unter der Abbildung f definiert als
f (M ) := {f (x) : x ∈ M }.
Sei umgekehrt N ⊆ B. Dann ist das Urbild (engl.: preimage) der Menge N
unter f die Menge aller Urbilder von Elementen von N , also die Menge
f −1 (N ) := {x ∈ A : f (x) ∈ N }.
Dies entspricht der Menge aller Urbilder von Elementen y ∈ N .
1.87. Bemerkung: Verwechseln Sie nicht f −1 (N ) mit der Umkehrabbildung.
Das Urbild von Mengen hat damit zunächst nichts zu tun. Wenn allerdings f
bijektiv ist, so ist das Urbild von N in der Tat das Bild unter der Umkehrabbildung. Also ist in diesem f −1 (N ) gleich, egal wie man diesen Ausdruck
interpretiert.
Wir werden uns in der linearen Algebra sehr häufig mit Bildern und Urbildern von Mengen beschäftigen. Es lohnt sich also, sich mit diesen Begriffen
genau auseinander zu setzen. Es gilt
y ∈ f (M ) ⇔ ∃x∈M f (x) = y,
und
x ∈ f −1 (N ) ⇔ f (x) ∈ N,
Als Beispiel für die Argumentation mit diesen Begriffen beweisen wir den folgenden Satz.
1.88 Satz:
Sei f : A → B eine Abbildung und M ⊆ A. Dann gilt
M ⊆ f −1 (f (M )).
38
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Abbildung 1.6: f −1 (f (M ))
Sei N ⊆ B. Dann gilt
f (f −1 (N )) ⊆ N.
.
Beweis: Sei x ∈ M . Dann ist f (x) ∈ f (M ). Also ist x ein Urbild von f (x) ∈
f (M ) und es folgt x ∈ f −1 (f (M )). Dies ist die erste Teilmengenrelation.
Sei y ∈ f (f −1 (N )). Dann existiert nach Definition ein x ∈ f −1 (N ) mit
f (x) = y. Wenn x ∈ f −1 (N ) ist, dann ist nach Definition f (x) ∈ N . Also
y = f (x) ∈ N.
2
1.89 Aufgabe: Betrachten Sie wieder die Funktion f : R → R definiert durch
f (x) = x2 + x + 1. Berechnen Sie f [−1, 1] und f −1 [−1, 1].
1.90 Aufgabe: Sei f : R → R die Funktion
f (x) = x3 − x.
Zeichnen Sie den Graph der Funktion, berechnen Sie die lokalen Extrema mit Ihrem
Schulwissen, und lesen Sie am Graph die folgenden Mengen ab.
f [1, 2],
f [0, 1],
f −1 [0, 5].
1.3. MENGEN UND ABBILDUNGEN
39
1.91 Aufgabe: Geben Sie für die folgenden Funktionen Intervalle I1 , I2 ⊆ R an, so
dass die Funktionen als Abbildung f : I1 → I2 bijektiv sind, und geben Sie jeweils die
Umkehrfunktion an.
f (x) = x2 + x,
1.92 Satz:
f (x) = |x| + x,
f (x) = sin(x).
Sei f : A → B eine Abbildung und M1 , M2 ⊆ A. Dann gilt
f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 ),
f (M1 ∩ M2 ) ⊆ f (M1 ) ∩ f (M2 ).
Sei N1 , N2 ∈ B. Dann gilt
f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 ),
f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 ).
Beweis: Wir zeigen die erste Gleichheit.
”‘⊆”’: Sei
y ∈ f (M1 ∪ M2 ).
Dann gibt es ein x ∈ M1 ∪ M2 mit f (x) = y. Falls x ∈ M1 ist, so ist
y = f (x) ∈ f (M1 )
Also y ∈ f (M1 ) ∪ f (M2 ). Falls x ∈ M2 ist, gilt dasselbe.
”‘⊇”’: Sei
y ∈ f (M1 ) ∪ f (M2 ).
Falls y ∈ f (M1 ) ist, so existiert ein x ∈ M1 mit f (x) = y. Also y ∈ f (M1 ∪ M2 ).
Falls y ∈ f (M2 ) ist, so gilt dasselbe.
Wir zeigen nun die erste Gleichheit für die Umkehrabbildung
”‘⊆”’: Sei
x ∈ f −1 (N1 ∪ N2 ).
Dann gilt f (x) ∈ N1 ∪ N2 . Falls f (x) ∈ N1 ist, so ist x ∈ f −1 (N1 ), also
x ∈ f −1 (N1 ) ∪ f −1 (N2 ).
Falls f (x) ∈ N2 ist, so gilt dasselbe.
”‘⊇”’: Falls x ∈ f −1 (N1 ) ist, so ist f (x) ∈ N1 und daher f (x) ∈ N1 ∪ N2 . Es
folgt
x ∈ f −1 (N1 ∪ N2 ).
Falls x ∈ f −1 (N2 ) ist, so gilt dasselbe.
2
40
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
1.93 Aufgabe: Beweisen Sie auf dieselbe Art und Weise die fehlenden Mengenrelationen. Geben Sie ein Gegenbeispiel dafür an, dass die Gleichheit in der zweiten Relation
nicht gilt.
1.94. Definition: Zwei Abbildungen
f : A → B,
g:B→C
lassen sich verketten. Man definiert die Verkettung (engl.: concetanation)
(Hintereinanderausführung) der Abbildungen als die Abbildung
g ◦ f : A → C,
x 7→ g(f (x)).
1.95. Beispiel: Die Verkettung der reellen Funktionen f (x) = x+1 und g(x) =
x2 ist
(g ◦ f )(x) = g(f (x)) = (x + 1)2 .
Man beachte, dass diese Abbildung verschieden von
(f ◦ g)(x) = f (g(x)) = x2 + 1.
ist. Die Verkettung ist also nicht kommutativ.
1.96 Aufgabe: Überlegen Sie sich, dass die Verkettung assoziativ ist. Das heißt
h ◦ (g ◦ f ) = (h ◦ g) ◦ f.
für Abbildungen
f : A → B,
g : B → C,
h : C → D.
1.97. Beispiel: Wenn
f :A→A
bijektiv ist, so gibt es die Umkehrabbildung
f −1 : A → A.
Dann gilt
f ◦ f −1 = f −1 ◦ f = id.
wobei id : A → A die identische Abbildung (engl.: identity)
id : A → A
x 7→ x
ist. Für diese beiden Abbildungen gilt also das Kommutativgesetz.
1.98 Satz: Für invertierbare Abbildungen f, g : A → A gilt, dass auch f ◦ g
invertierbar ist und
(g ◦ f )−1 = f −1 ◦ g −1 .
1.4. DIE NATÜRLICHEN ZAHLEN
41
1.99 Aufgabe: Beweisen Sie diesen Satz.
1.100. Beispiel: Betrachtet man die Menge S(A) aller bijektiven Abbildungen
einer Menge A in sich selbst, so ist die Verkettung zweier Elemente in S(A) wieder in S(A). Es gilt das Assoziativgesetz und jedes Element f ∈ S(A) hat ein
inverses Element bezüglich der Multiplikation ”‘◦”’. Allerdings gilt das Kommutativgesetz nicht. S(A) ist das typische Beispiel einer nicht-kommutativen
Gruppe.
1.101 Aufgabe: Geben Sie die Mengen
S({1}),
S({1, 2}),
S({1, 2, 3})
an.
1.102. Definition: Für eine endliche Menge M heißt eine bijektive Abbildung
π : M → M eine Permutation von M .
1.103. Definition: Die Menge aller Abbildungen von A nach B bezeichnen wir mit A(A, B).
1.104 Aufgabe: Geben Sie für
A = {1},
A = {1, 2},
A = {1, 2, 3}
die Mengen A(A, A) an.
1.105. Bemerkung: Für eine Menge A ist die Verkettung zweier Abbildungen
aus A(A, A) wieder in A(A, A). Wir können zwei solche Abbildungen also wieder
mit ”‘◦”’ multiplizieren. Allerdings hat nicht jedes Element von A(A, A) ein
Inverses. Eine solche Struktur, in der das Assoziativgesetz gilt. bezeichnet man
als Halbgruppe. In diesem Fall hat unsere Halbgruppe ein neutrale Element
id. Das Kommutativgesetz gilt nicht.
1.4
1.4.1
Die natürlichen Zahlen
Induktion
Wir nehmen hier an, dass die natürlichen Zahlen in der Vorlesung über Analysis
als Teilmenge der reellen Zahlen eingeführt werden. Uns steht also schon eine
Addition ”‘+”’, eine Multiplikation ”‘·”’ und eine Ordnung ”‘≤”’ zur Verfügung.
In diesem Abschnitt beschäftigen wir uns mit der wesentliche Eigenschaft der
natürlichen Zahlen, nämlich der Induktion.
Zunächst jedoch geben wir auf einem abstrakten Niveau die Peano-Axiome
wieder, die die natürlichen Zahlen festlegen. Inspiriert sind diese Axiome durch
den Zählprozess
1 7→ 2 7→ 3 7→ . . .
der alle natürlichen Zahlen durchlaufen soll, aber keine doppelt.
42
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Die Idee der natürlichen Zahlen ist, dass der Zählprozess
alle Zahlen genau einmal durchläuft.
1.106. Definition: Eine induktive Menge ist eine Menge N mit einer Abbildung
N : N → N,
n 7→ N (n)
die jedem n ∈ N einen Nachfolger N (n) zuordnet. Außerdem gibt es ein festes
Element 1 ∈ N. Es sollen die folgenden Beziehungen gelten.
(1) Es gibt kein n ∈ N mit N (n) = 1.
(2) Die Abbildung N ist injektiv, also
N (n) = N (m) ⇒ n = m
für alle n, m ∈ N
1.107. Definition: Die natürlichen Zahlen N sind eine minimale induktive Menge. Das heißt, wenn M ⊂ N ebenfalls eine induktive Menge ist mit
derselben 1 und der Nachfolgerabbildung, dann ist M = N.
Dies bedeutet, dass alle Teilmengen M ⊂ N, die 1 enthalten, und für die gilt
n ∈ M ⇒ N (n) ∈ M
für alle n ∈ M
gleich N sind.
1.108. Bemerkung: Die Eigenschaften (1) und (2) stellen sicher, dass kein Element vom Zählprozess doppelt durchlaufen wird. Die Minimalität stellt sicher,
dass jede Zahl einmal durchlaufen wird, wenn man mit 1 beginnt.
1.109. Bemerkung: Die reellen Zahlen enthalten, wie jeder andere angeordnete
Körper, eine minimale induktive Teilmenge. Die Nachfolgeabbildung ist dort
N (n) = n + 1.
Details dazu werden in der Vorlesung über Analysis gegeben. Man kann aber
auch umgekehrt die Existenz der natürlichen Zahlen axiomatisch fordern, und
daraus die reellen Zahlen konstruieren. Diese Konstruktion gehört in eine Vorlesung ”‘Aufbau des Zahlensystems”’, und sie benötigt den vollen Apparat der
Mengenlehre.
1.110. Definition: Unser N ⊆ R enthält die 0 nicht. Man schreibt
N0 = N ∪ {0}.
Dies ist eine Vereinbarung, die oft auch anders getroffen wird.
Wir werden im folgenden annehmen, dass wir die natürlichen Zahlen als
Teilmenge der reellen Zahlen haben, und schreiben daher einfach n + 1 für den
Nachfolger von n.
1.4. DIE NATÜRLICHEN ZAHLEN
43
Aus der Minimalität folgt das wichtigste Prinzip in N, die vollständige
Induktion.
1.111 Satz: (Vollständige Induktion) Sei A(n) eine beliebige Aussage mit freier Variable n. Es gelte A(1) und
A(n) ⇒ A(n + 1)
für alle n ∈ N
Dann gilt A(n) für alle n ∈ N.
Beweis: Sei
M := {n ∈ N : A(n) gilt}.
durch Aussonderung gewonnen. Dann ist M nach Voraussetzung induktiv. Es
folgt M = N.
2
Man bezeichnet die Aussage A(1) als Induktionsanfang. Die Folgerung
A(n) ⇒ A(n + 1) bezeichnet man als Induktionsschritt.
1.112. Beispiel: Wir geben zunächst ein Beispiel aus der Analysis. Es gilt
(1 + x)n ≥ 1 + nx.
für alle x ≥ −1 und n ∈ N.
Dazu fixieren wir x ≥ −1 und zeigen die Behauptung für alle n ∈ N.
Induktionsanfang: Für n = 1 ist die Behauptung offensichtlich richtig.
Induktionsschritt: Die Behauptung gelte für n ∈ N, also
(1 + x)n ≥ 1 + nx.
Wegen 1 + x ≥ 0 bleibt diese Ungleichung richtig, wenn man sie mit 1 + x
multipliziert. Es gilt also
(1 + x)n+1 ≥ (1 + nx)(1 + x) = 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x.
Damit gilt die Behauptung auch für n + 1.
Nun beweisen wir einige Aussagen eher technischer Natur mit vollständiger
Induktion.
1.113. Beispiel: Als simpelstes Beispiel für vollständige Induktion zeigen wir,
dass jedes n ∈ N, n 6= 1 einen Vorgänger hat. Unsere Aussage A(n) ist also
∀n∈N,n6=1 ∃m∈N n = m + 1.
Man beachte, dass wir die Operation ”‘−”’ in den reellen Zahlen nicht verwenden
wollen. Sie würde uns auch nicht helfen, da zunächst unklar ist, ob n−1 ebenfalls
eine natürliche Zahl ist. Das ist nämlich gerade die Aussage, die wir beweisen
wollen.
Induktionsanfang: Die Aussage ist für n = 1 wahr, denn dort ist die Voraussetzung n 6= 1 nicht erfüllt,
44
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Induktionsschritt: Die Aussage gelte für n. Wir müssen zeigen, dass n + 1
einen Vorgänger hat. Das ist aber offensichtlich richtig, weil n der Vorgänger
von n + 1 ist.
1.114 Aufgabe: Zeigen Sie n ≥ 1 für alle n ∈ N durch vollständige Induktion.
1.115. Beispiel: Der Nachteil des vorigen Beispiels liegt in seiner Einfachheit.
Schwieriger ist schon der folgende Sachverhalt.
Zwischen n ∈ N und n + 1 liegt keine weitere natürliche Zahl. Das heißt, es gibt
kein m ∈ N mit
n < m < n + 1.
Nun beweisen wir unsere Aussage durch Induktion nach n.
Induktionsanfang: Wir führen den Beweis durch Widerspruch. Angenommen,
1 < m < 2 := 1 + 1
für m ∈ N. Aufgrund der Aussage des vorigen Beispiels hat m einen Vorgänger
k = m − 1. Aufgrund der Rechenregeln für angeordnete Körper folgt k < 1. Dies
widerspricht der obigen Aufgabe.
Induktionsschritt: Angenommen,
n + 1 < m < n + 2.
für n, m ∈ N. Dann ist 1 ≤ n + 1 < m, also 1 6= m und m hat daher einen
Vorgänger m − 1 = k ∈ N. Es folgt
n < k < n + 1.
Dies widerspricht der Induktionsannahme.
Es gibt eine Reihe weiterer Sätze über N, die in ähnlicher Weise anschaulich
klar sind. Wir verzichten hier auf eine weitere Diskussion, und werden solche
Sachverhalte als gegeben voraussetzen.
Der folgende Satz ist bisweilen nützlich. Er dient als Ersatz für das Induktionsprinzip.
1.116 Satz: Jede nicht-leere Teilmenge M ⊆ N enthält ein kleinstes Element,
also ein Minimum. Das heißt, es gibt ein n ∈ M mit
n≤m
für alle m ∈ M .
Beweis: Sei also M ⊆ N nicht leer. Wir führen den Beweis durch Widerspruch.
Angenommen, M hat kein kleinstes Element. Dann zeigen wir durch vollständige
Induktion nach n, dass für alle n ∈ N gilt
n ≤ m,
für alle m ∈ M .
Daraus folgt natürlich sofort der Widerspruch, da dann jedes n ∈ M minimales
Element von M wäre.
1.4. DIE NATÜRLICHEN ZAHLEN
45
Induktionsanfang: Es gilt 1 ≤ m für alle m ∈ N, also insbesondere für alle
m ∈ M.
Induktionsschritt: Die Behauptung gelte für n ∈ N. Da M kein kleinstes
Element hat, folgt n ∈
/ M . Aus der Behauptung in Beispiel 1.115 folgt
n+1≤m
für alle m ∈ N.
2
1.117. Bemerkung: Damit lässt das Induktionsprinzip erweitern. Sei A(n)
eine Aussage, die wir für alle n ∈ N beweisen wollen.
Wenn man nun zu jedem n ∈ N, für das die Aussage A(n) nicht gilt, ein m ∈
N mit m < n finden kann, so dass A(m) ebenfalls nicht gilt (unendlicher
Abstieg), dann muss A(n) für alle n ∈ N gelten.
Denn die Menge der Elemente für die A(n) nicht gilt, kann dann kein kleinstes
Element enthalten. Sie muss also leer sein.
1.4.2
Rekursive Konstruktion
Wir können mit Hilfe von Induktion nicht nur Aussagen beweisen, sondern auch
Objekte konstruieren.
1.118. Definition: Sei M eine beliebige Menge. Eine Abbildung a : N → M
heißt Folge (engl: sequence) in M . Man schreibt
an := a(n).
Für die gesamte Folge schreibt man
(an )n∈N
Aufgrund des Zählprinzips ist eine Folge also durch
a1 , a2 , a3 , . . .
festgelegt.
1.119. Beispiel: Die einfachsten Folgen sind durch eine Rechenvorschrift gegeben. Also etwa
n
1
.
xn =
2
Wir werden nun Folgen rekursiv konstruieren. Dazu legen wir zunächst a1
fest. Danach legen wir an+1 mit Hilfe von an fest. Aufgrund unserer Vorstellung
vom Zählprozess, ist damit die Folge vollständig festgelegt.
1.120. Bemerkung: Sei g : M → M eine Abbildung. Dann existiert zu jedem
fest vorgegebenem a1 ∈ M genau eine Folge in m mit
an+1 = g(an )
für alle n ∈ N.
46
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Die Existenz dieser Folge kann mit einer cleveren Mengenkonstruktion bewiesen
werden, auf die wir hier nicht eingehen. Für die Folge an = (1/2)n lautet die
rekursive Definition
1
an
a1 = , an+1 =
.
2
2
In den meisten Fällen wird allerdings das Glied an+1 außer von an auch von n
abhängen, also
an+1 = g(an , n),
wobei g eine Abbildung auf M × N ist. Auch in diesem Fall ist die Existenz und
die Eindeutigkeit der Folge für jedes gewählte Anfangsglied a1 ∈ M gesichert.
Man kann sogar Folgen konstruieren, die von mehr als einem oder von allen
vorigen Gliedern abhängen, etwa
an+1 = g(an , an−1 )
In diesem Fall benötigt man für eine korrekte Definition natürlich 2 Anfangswerte a1 , a2 ∈ M .
Dieses Konstruktionsprinzip ist sehr mächtig. Wir verwenden es oft in salopper Weise.
1.121. Beispiel: (1) Anstatt etwa die Fakultät n! rekursiv durch
(n + 1)! = n! · (n + 1)
0! = 1! = 1,
zu definieren, schreiben wir einfach
0! = 1,
n! := 1 · 2 · . . . · n.
(2) Als Beispiel für eine zweigliedrige rekursive Folge sei die Fibonacci-Folge
genannt, die durch a1 = a2 = 1 und
an+1 = an + an−1
festgelegt ist.
1.122. Beispiel: Sei (an )n∈N eine Folge in einer Gruppe G. Dann definiert man
die Summenschreibweise, bzw. die Produktschreibweise
n
X
ai := a1 + . . . + an
i=1
n
Y
ai := a1 · . . . · an
i=0
in naheliegender Weise rekursiv durch
0
X
ai = 0,
i=1
0
Y
i=1
ai = 1,
n+1
X
ai =
n
X
i=1
i=1
n+1
Y
n
Y
i=1
ai =
i=1
!
ai
+ an+1 ,
!
ai
· an+1 .
1.4. DIE NATÜRLICHEN ZAHLEN
47
Die leere Summe ist also vereinbarungsgemäß gleich 0, das leere Produkt gleich
1. Man beachte, dass dies der Klammerung
n
X
ai = (. . . (a1 + a2 ) + a3 ) + . . .) + an
i=1
entspricht, also von links nach rechts ausgewertet ist. Allerdings ist aufgrund
des Assoziativgesetzes die Klammerung gleichgültig. Das heißt, es gilt
!
!
n
n−1
X
X
a1 +
ai =
ai + an .
i=2
i=1
Zieht man noch das Kommutativgesetz heran, so gilt für jede Permutation π
von {1, . . . , n}
n
n
X
X
ai =
aπ(i) .
i=1
i=1
Dies Aussage beweist man per Induktion (Übung).
1.123 Aufgabe: Zeigen Sie durch vollständige Induktion
1 + ... + n =
n(n + 1)
.
2
1.124 Aufgabe: (1) Definieren Sie die Folge q n für q ∈ R, n ∈ N rekursiv.
(2) Schreiben Sie für q ∈ R die Folge
an = 1 + q + . . . + q n
in der Summenschreibweise und definieren Sie sie rekursiv.
(3) Zeigen Sie für q 6= 1 durch vollständige Induktion
an =
q n+1 − 1
q−1
1.125 Aufgabe: Was ist an folgendem Induktionsbeweis falsch? Wir zeigen, dass alle
natürlichen Zahlen gleich sind, indem wir per Induktion nach n zeigen, dass die Zahlen
von 1 bis n gleich sind. Für n = 1 ist nichts zu zeigen. Die Induktionsvoraussetzung
besagt, dass 1 = . . . = n ist, insbesondere n − 1 = n. Also ist auch n = n + 1 und wir
erhalten 1 = . . . = n = n + 1, können also den Induktionsschritt durchführen.
1.4.3
Endliche Mengen
1.126. Definition: Für n ∈ N ist die Menge
{1, . . . , n} := {k ∈ N : 1 ≤ k ≤ n}
definiert. Eine Menge M heißt endlich (engl.: finite), wenn es eine bijektive
Abbildung
φ : {1, . . . , n} → M
48
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
gibt, oder wenn M = ∅ ist. Man nennt
|M | = ]M = n
die Mächtigkeit von M .
Natürlich muss man dazu beweisen, dass die Mächtigkeit einer Menge eindeutig bestimmt ist. Dies ist Inhalt des folgenden, sehr intuitiven Satzes.
1.127 Satz:
Es gibt keine bijektive Abbildung
φ : {1, . . . , n} → {1, . . . , m}
wenn n, m ∈ N und n 6= m ist.
Beweis: Der Beweis ist sehr technisch. Wir zeigen den Satz für n < m durch
Induktion nach n. Für n = 1 ist die Behauptung klar. Angenommen, n + 1 < m
ist und
φ : {1, . . . , n + 1} → {1, . . . , m}
bijektiv. Die folgende Aufgabe zeigt, dass es dann eine bijektive Abbildung
ψ : {1, . . . , n} → {1, . . . , m − 1}
gibt. Dies ist aber nicht nach Induktionsvoraussetzung nicht möglich.
2
1.128 Aufgabe: Sei φ : {1, . . . , n + 1} → M bijektiv und m ∈ M . Konstruieren Sie
dann eine bijektive Abbildung von {1, . . . , n} nach M \ {m}.
1.129 Aufgabe: Wieso folgt aus diesem Satz, dass die Mächtigkeit einer Menge
eindeutig bestimmt ist?
1.130 Satz:
Teilmengen von endlichen Mengen sind endlich.
Beweis: Auch diesen Satz kann man durch Induktion nach n = |N | beweisen,
wobei M ⊂ N und N endlich sei. Für n = 1 ist nichts zu zeigen. Ansonsten
sei |N | = n + 1. Wenn M = N ist, ist nichts zu zeigen. Sei m ∈ M \ N .
Aufgrund der obigen Aufgabe ist M \ {m} endlich mit der Mächtigkeit n. Nach
Induktionsvoraussetzung ist M endlich.
2
1.131 Aufgabe: (1) Seien M1 , M2 endliche Mengen, die disjunkt (engl.: disjoint)
sind, das heißt es gilt
M1 ∩ M2 = ∅.
Zeigen Sie, dass dann M1 ∪ M2 endlich ist, und
|M1 | + |M2 | = |M1 ∪ M2 |
(2) Folgern Sie für alle endlichen Mengen M1 , M2
|M1 ∪ M2 | = |M1 \ M2 | + |M2 \ M1 | + |M1 ∩ M2 |
(3) Folgern Sie für alle endlichen Mengen M1 , M2
|M1 ∪ M2 | = |M1 | + |M2 | − |M1 ∩ M2 |
1.4. DIE NATÜRLICHEN ZAHLEN
49
1.132 Aufgabe: (1) Zeigen Sie für endliche Mengen M1 , . . . , Mn
|M1 ∩ . . . ∩ Mn | ≥
n
X
|Mi | − (n − 1)|M1 ∪ . . . ∪ Mn |.
i=1
Hinweis: Verwenden Sie
(V \ M1 ) ∪ . . . ∪ (V \ Mn ) = V \ (M1 ∩ . . . ∩ Mn ).
wobei V = M1 ∪ . . . ∪ Mn sei.
(2) Seien nun die Größen
|M1 |, . . . , |Mn |, |M1 ∪ . . . ∪ Mn |
vorgegeben und sei
n
X
|Mi | − (n − 1)|M1 ∪ . . . ∪ Mn | ≥ 0.
i=1
Geben Sie ein Beispiel an, in dem in (1) Gleichheit auftritt.
(2) Seien nun drei Mengen der Mächtigkeit 10 gegeben, deren Vereinigung die Mächtigkeit 14 hat. Zeigen Sie, dass dann der Schnitt nicht leer ist.
(3) Konstruieren Sie umgekehrt drei Mengen mit je 10 Elementen, deren Vereinigung
15 Elemente hat, so dass der Schnitt der drei Mengen leer ist.
(4) Seien 10 Mengen der Mächtigkeit 10 gegeben, deren Vereinigung 11 Elemente
enthält. Zeigen Sie, dass dann der Schnitt ein Element enthalten muss.
(5) Zeigen Sie, dass dies bei 11 Mengen nicht mehr der Fall zu sein braucht.
1.133 Aufgabe: Seien M1 , M2 endlich. Zeigen Sie
|M1 × M2 | = |M1 | · |M2 |.
1.134 Aufgabe: Zeigen Sie per Induktion nach |M |, dass jede endliche Teilmenge
M ⊆ N ein maximales Element haben muss.
1.135. Definition: Eine bijektive Abbildung
f : {1, . . . , n} → {1, . . . , n}
heißt Permutation von {1, . . . , n}. Die Menge aller solcher Permutationen wird
mit Sn bezeichnet.
Wir werden uns später mit Permutationen genauer beschäftigen. Hier interessieren uns nur Mächtigkeiten, also Ergebnisse der Kombinatorik.
1.136 Satz:
Es gilt für alle n ∈ N
|Sn | = n!
50
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Beweis: Sei f ∈ Sn . Dann gibt es anschaulich gesehen für f (1) genau n
Möglichkeiten, für f (2) noch n − 1 etc. Man sollte diese Idee aber auch als
2
induktiven Beweis formulieren können.
1.137 Aufgabe: Beweisen Sie Sn = n! durch Induktion nach n.
1.138. Definition: Eine Klassenaufteilung einer Menge M ist ein System
(eine Menge) S ⊆ P(M ) von nicht-leeren Teilmengen von M , so dass je zwei
Mengen in S disjunkt sind und
[
S=M
ist.
1.139 Aufgabe: Zeigen Sie, dass ein System
{S1 , . . . , Sn }
von nicht-leeren Teilmengen einer endlichen Menge M genau dann eine Klassenaufteilung von M ist, wenn
|S1 | + . . . + |Sn | = |M |
ist und die Mengen S1 , . . . , Sn paarweise disjunkt sind.
1.140. Definition: Für n ∈ R und m ∈ N0 ist der Binomialkoeffizient
definiert als
n n(n − 1) · . . . · (n − (m − 1))
=
,
für m ≥ 1,
m
m!
und
n
0
= 1.
1.141. Bemerkung: Diese Definition ist auch für n ∈
/ N geeignet. Sie lautet
rekursiv
n
n
n
n−m
= 1,
=
·
.
0
m+1
m
m+1
Es gilt
n
= 0,
m
Wir definieren außerdem
n
= 0,
m
für alle n ∈ N0 , m ∈ N, m > n
für alle n ∈ R, m ∈ Z, m < 0
1.142. Bemerkung: Für n ∈ N0 und m ∈ N0 , m ≤ n kann man den Binomialkoeffizienten auch als
n
n!
=
m
m!(n − m)!
schreiben.
1.143 Aufgabe: Zeigen Sie per Induktion nach m
n+1
n
n+1
·
=
m
n+1−m
m
1.4. DIE NATÜRLICHEN ZAHLEN
51
für alle n ∈ R, m ∈ N, m 6= n + 1.
1.144 Aufgabe: Zeigen Sie
n
m
+
n
m+1
=
n+1
m+1
für alle n ∈ R, m ∈ Z. Für m ≥ 1 verwenden Sie dabei Induktion nach m. Für m = 0
und m < 0 verwenden Sie die speziellen Festlegungen für diese Werte.
1.145. Definition: Eine bijektive Abbildung
x : {1, . . . , m} → M
definierte ein m-Tupel
(x1 , . . . , xm )
in M , wobei es üblich ist xi = x(i) zu schreiben.
1.146 Satz:
Es gibt genau
n(n − 1) · . . . · (n − m + 1) =
n
m
m!
m-Tupel ohne Wiederholungen in einer n-elementigen Menge M . Insgesamt gibt
es nm verschiedene m-Tupel, wenn man Wiederholungen zulässt.
Ein Tupel hat genau dann keine Wiederholungen, wenn die zugrunde liegende Abbildung injektiv ist.
Beweis: Der Beweis dieses Satzes ist ganz analog zur Herleitung der Mächtigkeit von Sn . In der Tat ist Sn die Menge aller n-Tupeln ohne Wiederholungen
in {1, . . . , n}.
2
1.147 Satz:
Es gibt genau
n
m
verschiedene Teilmengen der Mächtigkeit m in einer n-elementigen Menge M .
Beweis: Wir teilen alle m-Tupel in M in Klassen auf, die dieselben Elemente
enthalten. Jede Klasse entspricht eindeutig einer Teilmenge der Mächtigkeit m.
Wenn allerdings zwei m-Tupel ohne Wiederholungen
(x1 , . . . , xm ),
(x̃1 , . . . , x̃m )
dieselben Elemente enthalten, so gibt es eine bijektive Abbildung mit
φ : {x1 , . . . , xm } → {x1 , . . . , xm }
φ(xi ) = x̃i
also eine Permutation von {x1 , . . . , xm }. Umgekehrt führt jede solche Permutation ein Tupel in ein anderes mit denselben Elementen über. Die Größe einer
Klasse ist also m!. Die Anzahl der Klassen ist der Quotient aus der Gesamtanzahl der Tupel
n(n − 1) · . . . · (n − m + 1)
52
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
2
und der Größe jeder Klasse m! nach Aufgabe 1.139.
Man kann diesen Satz auch anders formulieren. Es gibt genau
dene geordnete Tupel
1 ≤ x1 < . . . < xm ≤ n.
n
m
verschie-
Bildet man die Differenzen dieser Zahlen, so kann man die folgende Aufgabe
lösen.
1.148 Aufgabe: Auf wieviele verschiedene Arten kann man eine Zahl n ∈ N in m
Summanden zerlegen? Dabei soll nach der Reihenfolge der Summanden unterschieden
werden. In anderen Worten, wieviele verschiedene Tupel
(n1 , . . . , nm )
in N gibt es, so dass
n1 + . . . + nm = n
ist.
1.149 Aufgabe: Zeigen Sie für eine endliche Menge M
|P(M )| = 2|M | .
1.4.4
Abzählbare Mengen
1.150. Definition: Eine Menge M heißt abzählbar (engl.: countable), wenn
es eine bijektive Abbildung
x:N→M
gibt. Wir schreiben, wie bei Tupeln, xi = x(i) und
M = {x1 , x2 , x3 , . . .}.
1.151. Bemerkung: Endliche Mengen sind nicht abzählbar in obigem Sinn.
Denn wenn T endlich ist und gleichzeitig abzählbar, dann gibt es bijektive Abbildungen
{1, . . . , n} ↔ T ↔ N,
also eine bijektive Abbildung von {1, . . . , n} to N. Dies ist aber nicht möglich,
da das Bild von {1, . . . , n} als endliche Teilmenge von N ein Maximum haben
muss.
Wir fassen die wesentlichen Resultate über abzählbare Mengen in folgenden
Satz zusammen, den wir allerdings nur zum Teil beweisen.
1.152 Satz: (1) Das Bild einer abzählbaren Menge ist abzählbar oder endlich.
(2) Jede Teilmenge einer abzählbaren Menge ist abzählbar oder endlich.
(3) Das Kreuzprodukt zweier abzählbaren Mengen ist abzählbar.
(4) Die Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar.
1.4. DIE NATÜRLICHEN ZAHLEN
53
Beweis: Wir lassen einige technische Details der Beweise aus. Der Leser ist
eingeladen, sich diese Details zu überlegen.
(1) Es genügt zu zeigen, dass M abzählbar ist, wenn
φ:N→M
surjektiv ist, M aber nicht endlich. Dazu konstruieren wir eine bijektive Abbildung
ψ:N→M
per Induktion. Wir wählen ψ(1) = φ(1). Wenn ψ(1), . . . , ψ(n) definiert sind, so
setzen wir ψ(n + 1) = φ(k), wobei k ∈ N das kleinste Element ist mit
φ(k) ∈
/ {ψ(1), . . . , ψ(n)}
Dadurch ist offenbar gewährleistet, dass ψ injektiv ist. ψ ist aber in der Tat
auch surjektiv, also bijektiv.
(2) Dies folgt unmittelbar aus (1), weil man leicht eine surjektive Abbildung
von einer Menge auf eine Teilmenge angeben kann.
(3) Es gilt
N × N = {(1, 1), (2, 1), (1, 2), (3, 1), (2, 2), (1, 3), . . .}.
Daraus folgt die Behauptung.
(4) Sei S ein abzählbares Mengensystem von abzählbaren Mengen, etwa
S = {S1 , S2 , . . .}.
Dann gibt es bijektive Abbildungen
φi = N → Si .
Die Abbildung
φ:N×N→
[
S
definiert durch
φ(i, j) = φi (j)
S
ist nun aber surjektiv. Daher ist S abzählbar oder endlich. Da es aber zum
Beispiel S1 umfasst, kann es nicht endlich sein.
2
1.153 Aufgabe: Begründen Sie exakt, warum es im Beweis von (1) genügt, die Menge
N zu betrachten.
Der folgende Satz zeigt, dass es überabzählbare Mengen geben muss.
1.154 Satz: (1) Die Menge aller Abbildungen von einer abzählbaren Menge
nach {1, 2} ist nicht abzählbar und nicht endlich.
(2) Die Menge aller Folgen in einer abzählbaren Menge ist nicht abzählbar und
nicht endlich.
(3) Die Potenzmenge einer abzählbaren Menge ist nicht abzählbar.
54
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Beweis: (1) Es genügt, die Aussage für N zu beweisen. Sei
φ : N → A(N, {1, 2})
eine Abbildung. Dann definieren wir
ψ : N → {1, 2}
durch
(
ψ(n) =
1, φ(n)(n) = 2,
2, φ(n)(n) = 1.
Es folgt
ψ(n) 6= φ(n)(n)
für alle n ∈ N. Also ψ 6= φ(n) für alle n ∈ N. Also ist φ nicht surjektiv. Man
nennt dieses Argument Cantorsches Diagonalargument.
(2) Nach (1) lässt sich nicht einmal die Menge der Folgen abzählen, die nur
1 und 2 enthalten, und dies wäre eine Teilmenge der Menge aller Folgen.
2
1.155 Aufgabe: Beweisen Sie (3), indem Sie eine bijektive Abbildung
φ : P(M ) → A(M, {1, 2})
angeben.
1.156. Definition: Zwei Mengen heißen gleichmächtig, wenn eine bijektive
Abbildung zwischen ihnen existiert.
Also ist eine n-elementige Menge gleichmächtig mit {1, . . . , n} und eine
abzählbare Menge gleichmächtig mit N.
1.157 Satz:
Keine Menge ist gleichmächtig mit ihrer Potenzmenge.
Beweis: Angenommen, es gäbe für eine Menge M eine bijektive Abbildung
φ : M → P(M ).
Dann definieren wir
N = {m ∈ M : m ∈
/ φ(m)}.
Es muss nun ein n ∈ M geben mit φ(n) = N . Es folgt
n ∈ φ(n) ⇔ n ∈
/ φ(n).
Dies ist ein Widerspruch.
2
1.4. DIE NATÜRLICHEN ZAHLEN
1.4.5
55
Das Auswahlaxiom
Ein umstrittenes Axiom der Mengenlehre ist das Auswahlaxiom. Es besagt,
dass man aus jedem Element eines Mengensystems S mit paarweise disjunkten,
nicht leeren Mengen genau ein Element auswählen kann und daraus eine neue
Menge S bilden.
Daraus folgt die Existenz einer Abbildung
[
φ:S→
S,
so dass
φ(S) ∈ S
für alle S ∈ S gilt.
Offenbar sichert dieses Axiom die Existenz von vielen Abbildungen, die nicht
konstruktiv anzugeben sind. Daher gilt es als problematisch.
1.158. Bemerkung: Das Auswahlaxiom braucht natürlich nicht angewendet
zu werden, wenn jedes S ∈ S genau ein Element enthält. Es braucht auch dann
nicht angewendet zu werden, wenn man für jedes S ∈ S ein s ∈ S eindeutig
konstruktiv angeben kann.
1.159. Bemerkung: Das Auswahlaxiom wird gewöhnlich akzeptiert und in der
Analysis auch verwendet, wenn S abzählbar ist, wie es im obigen Beispiel der
Fall ist. Wir werden seine Verwendung hier vollständig vermeiden.
1.160. Beispiel:
Um zu zeigen, dass es eine Folge von rationalen Zahlen gibt,
√
die gegen 2 konvergiert, kann man konstruktiv oder nicht konstruktiv vorgehen. Eine konstruktive Folge ist etwa die rekursiv durch
1
2
x0 = 1, xn+1 =
xn +
.
2
xn
definierte Folge. Eine nicht-konstruktive Lösung erhält man, indem man zeigt,
dass ein xn ∈ Q, xn > 0 existiert mit
2−
1
1
≤ x2n ≤ 2 + .
n
n
Mit Hilfe des Auswahlaxioms erhält man die gewünschte Folge.
1.161. Beispiel: Ein anderes Beispiel aus der Analysis ist die Konstruktion
einer Folge, die gegen das Supremum einer nach oben beschränkten, nicht-leeren
Menge M ⊆ R konvergiert. Man ”‘wählt”’
xn ∈ [sup M −
1
, sup M ] ∩ M.
n
1.162. Bemerkung: Für endliche Mengensysteme S braucht man das Auswahlaxiom nicht. Da man es hier durch Induktion nach |S| beweisen kann.
56
KAPITEL 1. GRUNDLAGEN DER MATHEMATIK
Kapitel 2
Vektorräume
In diesem Kapitel lernen wir eine allgemeine Theorie über Vektoren kennen. In
der Schule tauchen Vektoren nur als Pfeile in der Zahlenebene oder im Raum
auf. Schon dort werden Vektoren addiert und mit reellen Zahlen multipliziert.
Vektoren lassen sich aber wesentlich allgemeiner definieren und nutzen.
2.1
2.1.1
Körper
Definition, Eigenschaften und Beispiele
In der Schule betrachtet man Vektoren in der Ebene R2 , und stellt sie als Pfeile
dar. Vektoren kann man addieren, indem man die Pfeile hintereinander hängt.
v, w 7→ v + w.
Sie bilden eine Gruppe mit dieser Addition. Zu jedem Vektor v ist außerdem
das Vielfache λv definiert, wobei λ ∈ R ist.
λ, v 7→ λv.
Der Pfeil wird um das λ-fache in seiner Länge gestreckt. Natürlich kann man R
auch durch Q, die Menge der Brüche, ersetzten. Die möglichen Zahlräume, die
hier sinnvoll sind, werden in diesem Abschnitt vorgestellt.
2.1. Definition: Eine Menge K, auf der eine Addition
+:K ×K →K
x, y 7→ x + y
und eine Multiplikation
∗:K ×K →K
x, y 7→ xy
57
58
KAPITEL 2. VEKTORRÄUME
gegeben sind, heißt Körper (engl.: field), wenn diese Operationen die folgenden
Bedingungen erfüllen.
(1) Es gibt Elemente 0 ∈ K und 1 ∈ K mit 0 6= 1.
(2) Für die Addition gilt
für alle x, y ∈ K,
x+y =y+x
für alle x, y, z ∈ K,
x + (y + z) = (x + y) + z
x+0=x
für alle x ∈ K,
und zu jedem x ∈ K existiert ein Inverses Element −x ∈ K mit
x + (−x) = 0.
(3) Für die Multiplikation gilt
für alle x, y ∈ K,
xy = yx
x(yz) = (xy)z
für alle x, y, z ∈ K,
für alle x ∈ K,
1x = x
und zu jedem x ∈ K mit x 6= 0 existiert ein Inverses Element x−1 ∈ K mit
xx−1 = 1.
(4) Es gilt
x(y + z) = xy + xz
für alle x, y, z ∈ K.
Die Rechenregel (4) heißt Distributivgesetz. Die anderen Rechenregeln
haben wir schon bei der Betrachtung von Gruppen kennen gelernt.
2.2. Bemerkung: Jeder Körper K ist eine Gruppe bezüglich der Addition.
Die Menge K \ {0} ist eine Gruppe bezüglich der Multiplikation. Denn die
Rechenregeln gelten wörtlich genauso, wenn man ”‘+”’ durch ”‘·”’ ersetzt. Wie
wir gleich sehen werden, kann 0 kein multiplikatives Inverses haben, so dass
es explizit ausgenommen werden muss. Wir können also alle Resultate über
Gruppen auch in Körpern anwenden.
Wir schreiben für die Multiplikation xy = x ∗ y = x · y. Außerdem schreiben
wir, wie üblich,
x − y := x + (−y)
x
:= xy −1 .
y
Man beachte, dass die Division laut Definition nur für y 6= 0 definiert ist.
2.3 Satz: Das neutrale Element und das Inverse der Addition sind eindeutig
festgelegt. In K \{0} ist das neutrale Element und das Inverse der Multiplikation
eindeutig festgelegt. Es gilt
x + y = x + ỹ ⇒ y = ỹ
für alle x, y, ỹ ∈ K
2.1. KÖRPER
59
und
xy = xỹ ⇒ y = ỹ
für alle x, y, ỹ ∈ K, x 6= 0.
Es gilt
−(x + y) = (−x) + (−y)
−1
(xy)
=x
−1 −1
für alle x, y ∈ K
für alle x, y ∈ K \ {0}
y
Weiter gilt
0x = 0
für alle x ∈ K.
Beweis: Die meisten Behauptungen und die Eindeutigkeiten haben wir schon
im Rahmen von Gruppen bewiesen. Aufgrund des Distributivgesetzes gilt
0x + 0 = 0x = (0 + 0)x = 0x + 0x.
2
Es folgt 0x = 0.
Man beachte, dass aus xy = x nur dann y = 1 folgt, wenn x 6= 0 ist. Im
Fall x = 0, gilt die Gleichheit für jedes y ∈ K. Aufgrund des Satzes hat 0 kein
Inverses Element bezüglich der Multiplikation.
2.4. Bemerkung: Es ist auch sinnvoll, nicht-kommutative Körper zu betrachten. In diesem Fall fällt das Kommutiativgesezt für die Multiplikation weg. Man
kann dann trotzdem beweisen, dass das kommutative Inverse und die 1 dennoch
eindeutig bestimmt sind.
2.5 Aufgabe: Beweisen Sie die folgenden bekannten Rechenregeln für Brüche.
a c
ac
· =
für alle a, c und b 6= 0, d 6= 0,
b d
bc
a −1
b
=
für alle a 6= 0, b 6= 0,
b
a
a
ac
=
für alle a und b 6= 0, c 6= 0,
b
bc
a
c
ad + cb
+ =
für alle a, c und b 6= 0, d 6= 0,
b
d
bd
2.6 Aufgabe: Zeigen Sie
(−x)y = −xy
(−x)(−y) = xy
−1
(−x)
= −x
−1
für alle x, y,
für alle x, y,
für alle x 6= 0
2.7. Beispiel: Die wichtigsten Beispiele sind natürlich die rationalen Zahlen
und die reellen Zahlen. Wir verweisen für diese Körper auf die Vorlesung in
Analysis. Die komplexen Zahlen werden im nächsten Abschnitt behandelt.
2.8. Beispiel: Der kleinste Körper ist der Körper, der nur aus den Elementen
0 und 1 besteht, K = {0, 1}. Die Addition und die Multiplikation lässt sich hier
per Aufzählung definieren.
0 + 0 = 1 + 1 = 0,
0 + 1 = 1 + 0 = 0,
0 · 1 = 1 · 0 = 0 · 0 = 0,
1 · 1 = 1.
60
KAPITEL 2. VEKTORRÄUME
Man rechnet nach, dass diese Operationen die Körperaxiome erfüllen. Dieser
Körper ist interessant, weil man 0 als ”‘falsch”’ und 1 als ”‘wahr”’ interpretieren
kann. Die Operation ”‘+”’ ist dann als ”‘entweder, oder”’ zu lesen, und die
Operation ”‘·”’ entspricht ”‘und”’.
2.9 Aufgabe: Rechnen Sie nach, dass K = {0, 1} mit diesen Operationen tatsächlich
ein Körper ist.
2.10. Beispiel: Eine Erweiterung des vorherigen Beispiels sind die Restklassenkörper. Für eine Primzahl p definieren wir
K := {0, . . . , p − 1}
und definieren die Addition ”‘+K ”’ und die Multiplikation ”‘·K ”’ durch
x +K y = x + y
x ·K y = xy
mod p,
mod p.
Das bedeutet, wir berechnen die gewöhnliche Summe, und das gewöhnliche Produkt in Z und nehmen für das Ergebnis den Rest modulo p. Man zeigt, dass
auch diese Rechenoperationen einen Körper definieren. Man bezeichnet diesen
Körper mit Zp .
2.11 Aufgabe: Weisen Sie nach, dass Zp für eine Primzahl p tatsächlich ein Körper
ist. Hinweis: Für die Existenz des multiplikativen Inversen beweisen Sie, dass die Zahlen
a, 2a, . . . , (p − 1)a
alle verschiedene Reste modulo p haben müssen, und dass deswegen der Rest 1 unter
diesen Resten vorkommen muss.
2.12. Beispiel: In der Algebra sind Körper der Form
√
K = {a + b 2 : a, b, ∈ Q}
interessant. Es gilt
Q ⊂ K ⊂ R.
K erfüllt natürlich die Rechengesetze, die auch R erfüllt. Man muss aber 0 ∈ K,
1 ∈ K sowie
x + y ∈ K,
xy ∈ K
für alle x, y ∈ K
und
x ∈ K ⇒ −x ∈ K,
x ∈ K \ {0} ⇒ x−1 ∈ K
zeigen.
2.13 Aufgabe: Zeigen Sie, dass K tatsächlich ein Unterkörper von R ist.
2.1. KÖRPER
2.1.2
61
Die komplexen Zahlen
Löst man die quadratische Gleichung
x2 + ax + b = 0
mit a, b ∈ R nach x auf, so entstehen die beiden Lösungen
r
a
a2
− b.
x=− ±
2
4
Damit reelle Lösungen existieren, muss a2 /4 ≥ b sein. Die komplexen Zahlen
sind nun ein Zahlkörper R ⊂ C, in dem diese Gleichung immer Lösungen hat.
Es genügt dazu, die Lösung
√
i = −1
der Gleichung x2 = −1 zu den reellen Zahlen ”‘dazu zu nehmen”’. Wie dies
genau geschehen kann, wird in der folgenden Definition ausgeführt.
2.14. Definition: Wir führen auf dem R2 eine Addition und eine Multiplikation ein. Dazu setzen wir.
(a, b) + (c, d) = (a + c, b + d),
(a, b) · (c, d) = (ac − bd, ad + bc).
Es wird sich herausstellen, dass R2 mit diesen Operationen ein Körper ist, den
wir den Körper der komplexen Zahlen C nennen.
2.15. Bemerkung: Mit Hilfe der bijektiven Abbildung
x ∈ R 7→ (x, 0) ∈ C
identifizieren wir R mit der Teilmenge
{(x, 0) ∈ R2 : x ∈ R},
die wir ebenfalls mit R ⊂ C bezeichnen. Man beachte, dass tatsächlich
x + y 7→ (x + y, 0) = (x, 0) + (y, 0),
xy 7→ (xy, 0) = (x, 0) · (y, 0).
Daher kann man ebensogut in R ⊂ C rechnen wie in R. Außerdem definieren
wir
i = (0, 1).
Es gilt dann
i2 = (0, 1) · (0, 1) = (−1, 0) = −1.
Es folgt für a, b ∈ R ⊂ C.
a + ib = (a, 0) + (0, 1) · (b, 0) = (a, b).
Wir schreiben im folgenden die komplexen Zahlen nur noch in dieser Form, also
C = {a + ib : a, b ∈ R}.
62
KAPITEL 2. VEKTORRÄUME
a heißt Realteil und b Imaginärteil von a + ib.
2.16. Bemerkung: Nun erklärt sich auch die seltsame Definition der Multiplikation. Wenn C ein Körper ist, so muss nach den Rechengesetzen für Körper
gelten
(a + ib)(c + id) = ac + i2 bd + i(ad + bc) = ac − bd + i(ad + bc).
Dies entspricht genau unserer Definition.
2.17 Aufgabe: Rechnen Sie nach, dass C tatsächlich ein Körper ist. Verwenden Sie
(a + ib)−1 =
b
a
− 2
i.
a2 + b2
a + b2
2.18. Definition: Für komplexe Zahlen definiert man
|a + ib| =
p
a2 + b2 ,
a + ib = a − ib.
2.19. Bemerkung: Trägt man die komplexen Zahlen in der Zahlenebene R2
auf, so dass der Realteil auf der x-Achse und der Imaginärteil auf der y-Achse
abgetragen wird, so ist
• |z| der Abstand von z zu 0,
• z die Spiegelung von z an der x-Achse,
• Die Addition z + w die normale Vektoraddition in R2 .
Mit Hilfe von Mitteln der Analysis wird sich herausstellen, dass die Multiplikation zw die Winkel von z und w zur positiven x-Achse addiert und die
Beträge multipliziert.
2.20 Aufgabe: Zeigen Sie
|zw| = |z| |w|
zz = |z|2
zw = z · w
für alle z, w ∈ C.
2.21 Aufgabe: Zeigen Sie für z 6= 0
1
z
=
.
z
|z|2
2.2. VEKTORRÄUME
2.2
2.2.1
63
Vektorräume
Definition
2.22. Definition: Eine nicht leere Menge V heißt Vektorraum (engl.: vector
space) über einem Körper K, wenn es eine Addition
+ : V × V → V,
v, w ∈ V 7→ v + w ∈ V
auf V gibt, die die Axiome einer Gruppe erfüllt, und eine Multiplikation
∗ : K × V → V,
λ ∈ K, v ∈ V 7→ λv ∈ V,
für die gelten
(1)
(λµ)v = λ(µv)
für alle λ, µ ∈ K, v ∈ V ,
(2)
(λ + µ)v = λv + µv
für alle λ, µ ∈ K, v ∈ V ,
λ(v + w) = λv + λw
für alle λ ∈ K, v, w ∈ V ,
(3)
(4)
1v = v
für alle v ∈ V .
Wir schreiben natürlich wieder λ · v = λ ∗ v = λv. Niemals schreiben wir vλ.
Manchmal schreibt man
1
v
:= v.
λ
λ
Wir werden diese Schreibweise hier vermeiden.
2.23 Satz: Die Addition erfüllt alle für Gruppen bisher gezeigten Rechengesetze. Insbesondere ist 0 und −v für alle v ∈ V eindeutig bestimmt, und es gilt
−(−v) = v. Außerdem gilt in Vektorräumen V
λ · v = 0 ⇔ λ = 0 oder v = 0
für alle λ ∈ K, v ∈ V und
(−λ) · v = −λv
für alle λ ∈ K, v ∈ V .
Man beachte, dass zum Beispiel in der Gleichung 0 · v = 0 auf der linken
Seite die Null des Körpers gemeint ist, und auf der rechten Seite die Null des
Vektorraums. Derartige Schreibweisen sind üblich. Man vermeidet sie durch eine
Indizierung
0K · v = 0V ,
64
KAPITEL 2. VEKTORRÄUME
die wir aber nur noch im folgenden Beweis verwenden wollen.
Beweis: Um 0K v = 0V zu zeigen, können wir ganz analog zum Beweis von
0x = 0 in Körpern vorgehen. Also
0K v + 0V = 0K v = (0K + 0K )v = 0K v + 0K v.
Weil V eine Gruppe bezüglich der Addition ist, folgt daraus 0V = 0K v. Außerdem gilt
λ · 0V = λ · (0V + 0V ) = λ · 0V + λ · 0V .
Es folgt λ · 0V = 0V . Sei umgekehrt λv = 0V , aber λ 6= 0K . Dann gilt
0V = λ−1 0V = λ−1 λv = 1v = v.
Die zweite Gleichung gilt wegen
0V = 0K v = (1 + (−1))v = 1v + (−1)v = v + (−1)v.
Addiert man −v auf beiden Seiten, so erhält man −v = (−1)v.
2.2.2
2
Beispiele
2.24. Beispiel: Das ”‘kanonische”’ Beispiel für einen Vektorraum über K ist
der K n . Dieser Raum besteht aus allen Spaltenvektoren der Länge n, n ∈ N,
mit Einträgen aus K.
 
x1
 
K n := { ...  : x1 , . . . , xn ∈ K}.
xn
Mengentheoretisch ist jeder Vektor ein n-Tupel aus K. Ob man das Tupel als
Spalte oder Zeile darstellt, scheint im Moment egal zu sein. Später werden wir
jedoch einen Unterschied machen. Manchmal wird der Raum der Zeilenvektoren
als
Kn := { x1 · · · xn : x1 , . . . , xn ∈ K}.
definiert. Wir werden diese Notation hier vermeiden. Die Addition definiert man
als
   


x1
y1
x1 + y1
 ..   .. 


..
 .  +  .  := 
,
.
xn
yn
xn + yn
die Multiplikation als




x1
λx1
 


λ ·  ...  :=  ...  .
xn
λxn
2.25 Aufgabe: Zeigen Sie, dass der K n mit dieser Addition und Multiplikation ein
Vektorraum über K ist.
2.26. Beispiel: Der für uns wichtigste Vektorraum ist natürlich der Rn als Vektorraum über R. Wir werden sogar meist im Qn bleiben. Normiert man Vektoren
2.2. VEKTORRÄUME
65
in Qn , so tritt aufgrund der Wurzeln der Rn auf. Im Zusammenhang mit Eigenwerten tritt auch der Cn auf, da wir beliebige Nullstellen von Polynomen
betrachten.
Wie man in der Schule lernt, kann man die Vektoren im R2 oder R3 als
gerichtete Pfeile interpretieren. Die Addition ist dann geometrisch das Hintereinanderhängen von Pfeilen, die Multiplikation das Strecken von Pfeilen um den
Faktor λ. In Abbildung 2.1 ist dies dargestellt. Man beachte dass für λ < 0 die
Richtung des Pfeiles umgedreht wird.
Abbildung 2.1: Vektoraddition und -Multiplikation im R2
2.27. Bemerkung: Den K 1 identifizieren wir mit K, also
K 1 = K.
Der K 0 ist der Vektorraum, der nur aus der 0 besteht, also
K 0 := {0}.
Auch dieser Nullraum ist ein Vektorraum über K, wie man sich leicht überlegt.
2.28. Beispiel: Sei K = {0, 1} der Körper mit zwei Elementen. Sei
 
v1
 .. 
v =  .  ∈ Kn
vn
66
KAPITEL 2. VEKTORRÄUME
ein Vektor, der die Zustände von n Lampen enthält. Dabei steht 0 für ”‘aus”’
und 1 für ”‘ein”’. Der Vektor
 
w1
 
w =  ...  ∈ K n
wn
werde als ein Vektor mit Schaltern interpretiert, wobei 1 für ”‘schalten”’ und
0 für ”‘nicht schalten”’ stehe. Dann ist w + v = v + w der Vektor der Lampenzustände, wenn die Schaltvorgänge von w auf die Lampenzustände von v
angewendet werden.
2.29. Beispiel: Ein wichtiger Raum ist der Raum aller Abbildungen einer Menge M in einen Körper K also die Menge A(M, K). Auf diesem Abbildungsraum ist die Addition zweier Abbildungen f, g : M → K ist punktweise
definiert. Also
für alle x ∈ M .
(f + g)(x) = f (x) + g(x)
Genauso ist die Multiplikation definiert, also
(λf )(x) = λf (x)
für alle x ∈ M .
2.30. Beispiel: Als wichtigen Spezialfall denke man an die Menge aller reellwertigen Funktionen auf einem reellen Intervall. Die Summe zweier Funktionen
wird einfach punktweise berechnet. Wenn etwa
f (x) = x2 ,
g(x) = 1
zwei Funktionen auf R sind, so folgt für die Funktion 2f + g
(2f + g)(x) = 2x2 + 1.
2.31 Aufgabe: Zeigen Sie, dass A(M, K) mit diesen Operationen ein Vektorraum
über K ist.
2.32. Beispiel: Noch allgemeiner sei V ein Vektorraum über K. Dann ist die
Menge aller Abbildungen von A(M, V ) von M nach V ein Vektorraum über K,
wenn die Addition und die Multiplikation wieder punktweise definiert sind.
2.33. Bemerkung: Da jeder Vektor in K n ein Tupel ist, also eine Abbildung
von {1, . . . , n} nach K, können wir den K n mit dem Abbildungsraum
K n = A({1, . . . , n}, K).
identifizieren. Der K n ist also nur ein Spezialfall eines Abbildungsraums.
2.34 Aufgabe: Machen Sie die Menge der Folgen in R zu einem Vektorraum. Schreiben Sie diesen Raum als Abbildungsraum und definieren Sie die Addition und die
Multiplikation explizit.
2.35. Bemerkung: Man kann Funktionen f, g : M → K natürlich auch punktweise multiplizieren, also
(f g)(x) = f (x)g(x)
für alle x ∈ M .
2.2. VEKTORRÄUME
67
Diese Multiplikation ist kommutativ und erfüllt das Distributivgesetz
f (g + h) = f g + gh
Man stricht in diesem Fall von einer Funktionenalgebra.
2.2.3
Unterräume
2.36. Definition: Sei V ein Vektorraum über K und U ⊆ V . Dann heißt
U ein Unterraum (engl.: subspace) von V , wenn U mit der in V definierten
Addition und Multiplikation selbst ein Vektorraum über K ist.
Es ist klar, dass dann v+w ∈ U für alle v, w ∈ U sein muss. Man sagt, U muss
abgeschlossen bezüglich der Addition sein. Dasselbe gilt für die Multiplikation.
In der Tat sind diese Bedingungen hinreichend dafür, dass U ein Unterraum von
V ist.
2.37 Satz: Sei V ein Vektorraum über einem Körper K. Dann ist U ⊆ V
genau dann ein Unterraum von V , wenn U 6= ∅ ist und die Bedingungen
v, w ∈ U ⇒ v + w ∈ U,
λ ∈ K, v ∈ U ⇒ λv ∈ U
für alle v, w ∈ U , λ ∈ K gelten.
Beweis: Es ist klar, dass diese Bedingungen notwendig sind. Sonst sind ”‘+”’
und ”‘·”’ nicht richtig auf U definiert. Wenn umgekehrt diese Bedingungen gelten, dann sind die Abbildungen wohldefiniert. Es ist
0=0·v ∈U
für alle v ∈ V ,
und
−v = (−1) · v ∈ U
für alle v ∈ U .
Also erfüllt die Addition die Gruppenaxiome auf U . Auch die Axiome für die
Multiplikation sind dann in U erfüllt.
2
2.38. Beispiel: Jeder Vektorraum V enthält die trivialen Unterräume {0} (den
Nullraum) und V .
2.39. Beispiel: Sei V ein Vektorraum über dem Körper K, v ∈ V . Dann ist
U := {λv : λ ∈ K}
ein Unterraum von V . Im Fall V = Rn ist U die Gerade die durch 0 geht in
Richtung v.
2.40. Beispiel: Es gibt zahlreiche interessante Unterräume von A(R, R). Ein
typisches Beispiel ist die Menge aller stetigen Abbildung f : R → R.
C(R) := {f ∈ A(R, R) : f ist stetig auf R}
68
KAPITEL 2. VEKTORRÄUME
Nach einem Satz der Analysis sind Summen und Vielfache von stetigen Funktionen wieder stetig. Analog ist C[a, b] ein Unterraum von A([a, b], R).
2.41. Beispiel: Ebenso gibt es zahlreiche interessante Unterräume des Folgenraums auf R. Beispiele sind
l∞ = {(xn )n∈N : (xn ) ist beschränkt},
P∞
l1 = {(xn )n∈N : n=1 |xn | < ∞},
lc = {(xn )n∈N : Nur endlich viele xn 6= 0}.
2.42. Beispiel: Ein anderes Beispiel ist der Raum aller Polynome vom Grad
n, n ∈ N0 , den wir mit Pn bezeichnen. Dies ist der Unterraum aller Funktionen
mit einer Darstellung
f (x) = a0 + a1 x + . . . + an xn ,
wobei a0 , . . . , an ∈ R Koeffizienten sind und n ∈ N. Wir können die Polynome
als Funktionen in C(R) betrachten und erhalten einen Unterraum
Pn ⊂ C(R).
Wir werden später aber Polynome auch als abstrakte Ausdrücke betrachten, mit
denen man dennoch rechnen kann.
2.43 Aufgabe: Welche der folgenden Mengen sind Unterräume des Rn ? Begründen
Sie die Entscheidung! Zeichnen Sie diese Mengen für n = 2 in ein Koordinatensystem.
Skizzieren Sie die Mengen für n = 3.
{x ∈ Rn : x1 + . . . + xn = 1},
{x ∈ Rn : x1 = 1},
{x ∈ Rn : x1 = x2 }.
(Hier wird immer implizit x = (x1 , . . . , xn ) gesetzt).
2.2.4
Aufgespannter Unterraum
2.44. Definition: Sei V ein Vektorraum über K und M ⊆ V . Dann heißt der
kleinste Unterraum U , der M enthält, der von M aufgespannte Unterraum
(spanned subspace)
span (M ).
Das heißt, span (M ) ist ein Unterraum mit der Eigenschaft, dass jeder Unterraum, der M enthält auch span (M ) enthalten muss.
U Unterraum mit M ⊆ U ⇒ span (M ) ⊆ U.
Die Frage ist, ob dieser Raum existiert. Dies ergibt sich aber aus dem folgenden Satz, in dem wir span (M ) konstruktiv angeben. Wir benötigen zunächst
eine Definition.
2.45. Definition: Seien v1 , . . . , vn Elemente eines Vektorraums V über K und
λ1 , . . . , λn ∈ K. Man nennt einen Ausdruck der Form
λ1 v1 + . . . + λn vn
2.2. VEKTORRÄUME
69
eine Linearkombination von v1 , . . . , vn .
2.46 Satz: Sei V ein Vektorraum über dem Körper K und M ⊆ V , M 6= ∅.
Dann ist der aufgespannte Unterraum gleich der Menge aller Linearkombinationen aus M , also
( n
)
X
span (M ) =
λi vi : v1 , . . . , vn ∈ M , λ1 , . . . , λn ∈ K, n ∈ N
i=1
Beweis: Sei U der Raum aller Linearkombinationen. Dann ist U ein Unterraum, weil Summe und Vielfache von Linearkombinationen offenbar wieder
Linearkombinationen sind (Man beweise das, wobei man genau begründet, welche Axiome des Vektorraums dabei verwendet werden).
Andererseits muss jeder Unterraum, der M enthält auch alle Linearkombinationen aus M enthalten. Also ist der Raum aller Linearkombinationen der
2
gesuchte aufgespannte Unterraum.
Dieser Beweis der Existenz von span (M ) war konstruktiv. Es gibt aber auch
eine direkte Möglichkeit, die in vielen ähnlichen Situationen funktioniert, etwa
bei der aufgespannten Untergruppe, oder beim aufgespannten Unterkörper. Dazu halten wir zunächst ein Hilfsresultat fest
2.47 Satz: Der Durchschnitt eines Systems von Unterräumen eines Vektorraums V ist ein Unterraum.
2.48 Aufgabe: Beweisen Sie diesen Satz.
2.49 Aufgabe: Gilt dies auch für die Vereinigung von Unterräumen?
2.50 Satz: Sei V ein Vektorraum über K und M ⊆ V , M 6= ∅. Dann sei U
die Menge der Unterräume, die M enthalten, also
U := {U ⊆ V : U Unterraum von V mit M ⊆ U }.
Es gilt dann
span (M ) =
\
\
U.
U.
Beweis: Wir setzen
D :=
Wir wissen, dass D wieder ein Unterraum ist. Dann gilt für jeden Unterraum
U mit M ⊆ U , dass U ∈ U ist, und daher D ⊆ U .
2
2.51. Bemerkung: Der Nullraum wird offenbar von der leeren Menge erzeugt.
Denn er ist offenbar der kleinste Unterraum, der die leere Menge enthält. Die
leere Menge selbst ist kein Unterraum, weil jeder Vektorraum eine {0} enthalten
muss. Der obige Satz ist auch in diesem Fall richtig.
2.52. Beispiel: Wenn
M = {v1 , . . . , vn }
70
KAPITEL 2. VEKTORRÄUME
eine endliche Teilmenge von V ist, so ist
n
X
span (M ) = {
λi vi : λ1 , . . . , λn ∈ K}.
i=1
Dies folgt unmittelbar aus Satz 2.46, da man Linearkombinationen von Teilmengen von M durch Summanden 0vi auffüllen kann.
Wir sprechen in diesem Fall einfach von dem durch v1 , . . . , vn erzeugten (oder
aufgespannten) Unterraum.
2.53. Beispiel: Für v ∈ Rn , v 6= 0, n = 2, 3, ist
span {v} = {λv : λ ∈ R}
die von v aufgespannte Gerade durch 0. Für v, w ∈ R3 , v, w 6= 0, ist
span {v, w} = {λv + µw : λ, µ ∈ R}
die Ebene durch 0, die die Geraden span {v} und span {w} enthält, wenn die
beiden Vektoren nicht in dieselbe Richtung zeigen.
2.54 Aufgabe: Skizzieren Sie im R2 die folgenden Mengen und die davon aufgespannten Unterräume.
{
1
},
1
{
1
1
,
},
1
2
{
1
2
,
},
1
2
2.55 Aufgabe: Sei V ein Vektorraum über K, und M1 , M2 ⊆ V mit
M1 ⊆ M2 .
Zeigen Sie
span (M1 ) ⊆ span (M2 ).
2.56. Beispiel: Betrachtet man die Funktionen
fi (x) = xi ,
i = 0, . . . , n,
wobei x0 für die Funktion 1 steht, so sind diese Funktionen Elemente von C(R).
Offenbar gilt
span {f0 , . . . , fn } = Pn .
Es gilt nämlich
n
X
i=0
!
λi fi
(x) =
n
X
i=0
λi fi (x) =
n
X
i=0
λi xi .
2.2. VEKTORRÄUME
2.2.5
71
Basen
In diesem Abschnitt studieren wir die Mengen, die einen Vektorraum aufspannen. Man nennt solche Mengen Erzeugendensysteme des Vektorraums. Wir sind
daran interessiert, Erzeugendensysteme minimaler Größe zu finden, so genannte Basen. Es wird sich herausstellen, dass die Länge einer Basis (die Dimension) charakteristisch für den Vektorraum ist. Außerdem ist für jeden Vektor
die Darstellung als Linearkombination von Basisvektoren eindeutig. Basen sind
deswegen ein theoretisch und praktisch zentrales Mittel zum Studium von Vektorräumen.
2.57. Definition: Wenn ein Vektorraum V von einer Menge M ⊆ V aufgespannt wird, so nennt man M ein Erzeugendensystem von V . Ein Erzeugendensystem heißt Basis, wenn es minimal ist. Das heißt, jede echte Teilmenge
M̃ ⊆ M,
M̃ 6= M
ist kein Erzeugendensystem von V mehr.
Eine Basis eines Vektorraums ist ein minimales Erzeugendensystem des Vektorraums.
Wir interessieren uns hier hauptsächlich, aber nicht ausschließlich, für Vektorräume und Untervektorräume, die ein endliches Erzeugendensystem haben.
Man nennt solche Vektorräume endlich erzeugt.
2.58. Definition: Eine Teilmenge M eines Vektorraums V heißt linear unabhängig, wenn kein Element von M Linearkombination von anderen Vektoren
in M ist. Das heißt
v∈
/ span (M \ {v})
für alle v ∈ M .
2.59 Aufgabe: Sei
M = {v1 , v2 } ⊂ V.
Zeigen Sie, dass dann M genau dann linear unabhängig ist, wenn v1 6= 0 ist und v2
kein Vielfaches von v1 ist.
2.60. Bemerkung: Offenbar ist jede Teilmenge eines linear unabhängigen Systems wieder linear unabhängig.
2.61. Bemerkung: Ein linear unabhängige Menge von Vektoren kann die 0
nicht enthalten, weil
0 ∈ {0} = span ∅
ist. Insbesondere ist die Menge {0} nicht linear unabhängig. Aber die leere
Menge ∅ ist linear unabhängig und daher Basis des Nullraums.
Wir charakterisieren nun linear unabhängige Systeme auf eine äquivalente
Art und Weise, die manchmal als Definition für lineare Unabhängigkeit verwendet wird.
2.62 Satz: Eine Teilmenge M eines Vektorraums V . Dann sind äquivalent:
72
KAPITEL 2. VEKTORRÄUME
(1) M ist linear unabhängig.
(2) Für je endlich viele paarweise verschiedene v1 , . . . , vn ∈ M und beliebige
λ1 , . . . , λn ∈ K gilt
λ1 v1 + . . . + λn vn = 0 ⇒ λ1 = . . . = λn = 0.
(3) Jedes v ∈ span (M ) \ {0} lässt sich eindeutig (bis auf die Reihenfolge) als
Linearkombination
v = λ1 v1 + . . . + λn vn
mit λ1 , . . . , λn ∈ K \ {0} und paarweise verschiedenen v1 , . . . , vn ∈ M darstellen.
Beweis: (1) ⇒ (2): Sei M linear unabhängig. Seien dann v1 , . . . , vn ∈ M
paarweise verschieden und λ1 , . . . , λn ∈ K mit
λ1 v1 + . . . + λn vn = 0.
Wir führen den Beweis durch Widerspruch. Angenommen zum Beispiel λ1 6= 0.
Dann kann man schreiben
v1 =
−λ2
−λn
v2 + . . . +
vn .
λ1
λ1
Also
v1 ∈ span {v2 , . . . , vn }.
Dies ist ein Widerspruch dazu, dass M linear unabhängig ist. Also muss λ1 = 0
sein. Analog zeigt man λ2 = . . . = λn = 0.
(2) ⇒ (3): Wir führen den Beweis durch Widerspruch. Angenommen v sei auf
zweierlei Arten als Linearkombination darstellbar. Dann können wir annehmen,
dass
v = λ 1 v1 + . . . + λ n vn
= µ1 v1 + . . . + µn vn
mit paarweise verschiedenen v1 , . . . , vn ∈ M ist und die beiden Darstellungen
voneinander verschieden sind. (Dazu sei {v1 , . . . , vn } die Vereinigung der Vektoren, die in beiden, verschiedenen Darstellungen vorkommen.) Es folgt
0 = (λ1 − µ1 )v1 + . . . + (λn − µn )vn .
Nach Voraussetzung erhält man λ1 = µ1 , . . . , λn = µn . Dies ist ein Widerspruch
dazu, dass v auf zwei verschiedene Arten darstellbar sein soll.
(3) ⇒ (1): Wieder führen wir den Beweis durch Widerspruch. Angenommen,
M ist nicht linear unabhängig. Dann gibt es ein v ∈ M , das von den übrigen
linear abhängig ist. Also
v = λ1 v1 + . . . + λn vn
mit v1 , . . . , vn ∈ M \{v} und λ1 , . . . , λn ∈ K. Aber wir haben in dieser Gleichung
offenbar zwei verschiedene Darstellungen des Vektors v vorliegen. Dies ist ein
Widerspruch zu (3).
2
2.2. VEKTORRÄUME
73
Im Fall M = ∅ gelten alle drei Bedingungen. Der Satz ist also auch für diesen
Sonderfall richtig.
2.63. Bemerkung: Für endliche Systeme M = {v1 , . . . , vn } spricht man einfach von linearer Unabhängigkeit der Vektoren v1 , . . . , vn , oder auch von linearer
Unabhängigkeit des Tupels
A = (v1 , . . . , vn ).
Man nennt solche Tupel von Vektoren nur dann linear unabhängig, wenn die
Vektoren paarweise verschieden sind. Wenn zwei Vektoren gleich sind, kann
die Menge {v1 , . . . , vn } linear unabhängig sein, ohne dass es das Tupel dieser
Vektoren ist. Nach Bedingung (2) des eben bewiesenen Satz muss außerdem für
alle λ1 , . . . , λn ∈ K gelten
n
X
λi vi = 0 ⇒ λ1 = . . . = λn = 0.
i=0
Äquivalent müssen nach Bedingung (3) die Darstellungen als Linearkombination
eindeutig sein. Also
n
X
i=1
λi vi =
n
X
µi vi ⇒ λi = µi für i = 1, . . . , n.
i=1
Man beachte, aus der Eindeutigkeit der Darstellung unmittelbar die Bedingung (2) folgt.
Der folgende Satz dient uns zum Generieren von Basen. Wir streichen aus
einem System solange linear abhängige Vektoren, bis dies nicht mehr geht.
2.64 Satz: Sei M ein Erzeugendensystem von V , und v ∈ M von den übrigen
Vektoren in M linear abhängig, also
v ∈ span (M \ {v}).
Dann ist M \ {v} ebenfalls ein Erzeugendensystem von V .
Beweis: Wenn v = 0 ist, so ist M \ {v} in jedem Fall ebenfalls ein Erzeugendensystem von V (auch wenn V der Nullraum ist). Wenn v 6= 0 ist, so gibt es
nach Voraussetzung v1 , . . . , vn ∈ M \ {v} und λ1 , . . . , λn ∈ K mit
v = λ1 v1 + . . . + λn vn .
Wir müssen zeigen, dass M \ {v} dann auch ein Erzeugendensystem von V ist.
Sei also w ∈ V und
w = µ1 w1 + . . . + µk wk
mit paarweise verschiedenen w1 , . . . , wk ∈ M und Koeffizienten µ1 , . . . , µk ∈ K.
Dann müssen wir w als Linearkombination aus M \{v} darstellen. Wenn v unter
den Vektoren w1 , . . . , wk nicht vorkommt, so sind wir fertig. Wenn etwa v = w1
ist, so gilt
w = µ1 λ1 v1 + . . . + µ1 λn vn + µ2 w2 + . . . + µk wk ∈ span (M \ {v})
74
KAPITEL 2. VEKTORRÄUME
2
Analog für v = w2 etc.
Den nächsten Satz beweisen wir hier nur für endliche Systeme. In der nachfolgenden Bemerkung gehen wir kurz auf den unendlich dimensionalen Fall ein.
2.65 Satz: Sei v1 , . . . , vn ein Erzeugendensystem von V . Dann gibt es ein
Teilsystem, das eine Basis von V ist. Also ist jeder endlich erzeugte Vektorraum
endlich-dimensional.
Beweis: Gemäß dem vorigen Satz streichen wir solange Vektoren aus diesem
Erzeugendensystem, bis wir ein linear unabhängiges System erhalten, das aber
immer noch Erzeugendensystem ist. Dieses Erzeugendensystem ist minimal, weil
kein Vektor mit Hilfe der übrigen darstellbar ist.
2
2.66 Aufgabe: Sei M linear unabhängig in V und M ∪ {v} linear abhängig. Zeigen
Sie, dass dann
v ∈ span (M )
sein muss. Folgern Sie, dass für linear unabhängiges M ⊆ V und v ∈
/ span (M ) das
System M ∩ {v} linear unabhängig ist.
2.67. Bemerkung: Man kann auch für nicht endlich erzeugte Vektorräume
beweisen, dass sie eine Basis besitzen, wenn man das Auswahlaxiom zugrunde
legt. Diese Basen sind aber nicht konstruktiv beschreibbar und für praktische
Zwecke unbrauchbar. Außerdem ist der Beweis der Existenz mengentheoretisch
geprägt und würde uns zu weit abseits führen.
Es folgt ein wichtiger Satz, mit dem wir Basen, also minimale Erzeugendensysteme, mit Hilfe von linearer Unabhängigkeit charakterisieren können.
2.68 Satz: Sei M eine Teilmenge eines Vektorraums V . Dann sind äquivalent:
(1) M ist ein minimales Erzeugendensystem von V (also eine Basis).
(2) M ist ein linear unabhängiges Erzeugendensystem.
(3) M ist ein maximales linear unabhängiges System in V . (Das heißt, jede
echte Obermenge von M ist nicht mehr linear unabhängig.)
Beweis: (1) ⇒ (2): Sei M eine Basis. Es muss nur gezeigt werden, dass M
linear unabhängig ist. Dies folgt aber unmittelbar aus Satz 2.64.
(2) ⇒ (3): Diesen Beweis führen wir durch Widerspruch. Sei also M ein linear
unabhängiges Erzeugendensystem. Angenommen M̃ ist eine echte Obermenge
von M , die linear unabhängig ist. Sei v ∈ M̃ \ M . Dann ist M ∪ {v} also als
Teilmenge einer linear unabhängigen Menge selbst linear unabhängig. Es folgt
v∈
/ span (M ).
Also wäre M kein Erzeugendensystem. Dies ist ein Widerspruch.
(3) ⇒ (1): Sei M ein maximales linear unabhängiges System in V . Dann lässt
sich jedes v ∈ V als Linearkombination aus M darstellen, weil sonst M ∪{v} nach
Aufgabe 2.66 linear unabhängig wäre. Also ist M ein Erzeugendensystem. Kein
w ∈ M lässt sich als Linearkombination von anderen Elementen in M darstellen,
weil M linear unabhängig ist. Also ist M ein minimales Erzeugendensystem. 2
2.2. VEKTORRÄUME
75
Jedes linear unabhängige Erzeugendensystem ist ein minimales Erzeugendensystem und ein maximales System von
linear unabhängigen Vektoren
Wir halten noch den folgenden Sachverhalt fest, der sich unmittelbar aus
den obigen Sätzen ergibt.
2.69 Satz:
Ein Tupel
A = (v1 , . . . , vn )
von Vektoren aus V ist genau dann eine Basis von V , wenn sich jedes v ∈ V
eindeutig als Linearkombination
v = λ1 v1 + . . . λn vn
schreiben lässt.
2.2.6
Endlich-Dimensionale Vektorräume
2.70. Definition: Wenn M = {v1 , . . . , vn } mit paarweise verschiedenen Vektoren vi eine Basis von V ist, so heißt n die Dimension von V . Man schreibt
dim V = n.
In diesem Fall nennt man V endlich-dimensional.
2.71. Bemerkung: Der Nullraum {0} hat vereinbarungsgemäß die Dimension
0. Man muss aber bei Beweisen über Dimensionen diesen Sonderfall stets im
Auge behalten.
Die Definition von Erzeugendensystem, Basis und Dimension gilt natürlich
auch für Unterräume, die ja selber Vektorräume sind. Wir müssen noch zeigen,
dass die Dimension eine eindeutig bestimmte Zahl ist. Zuvor jedoch ein paar
Beispiele.
2.72. Beispiel: Die Vektoren
 
1
0
 
e1 :=  .  ,
 .. 
0
...,
 
0
 .. 
 
en :=  . 
0
1
sind eine Basis des K n . Denn jedes Element wird eindeutig als
 
x1
 .. 
 .  = x1 e1 + . . . + xn en
xn
dargestellt. Man nennt die Basis die kanonische Basis des K n und die Vektoren die Einheitsvektoren. Es gilt also
dim K n = n.
76
KAPITEL 2. VEKTORRÄUME
2.73. Beispiel: Zwei Vektoren v1 , v2 ∈ R3 spannen genau dann eine Ebene
auf, wenn sie linear unabhängig sind. Die Dimension dieser Ebenen ist dann 2.
Sonst gilt entweder v1 = v2 = 0, und die Vektoren spannen den Nullraum mit
Dimension 0 auf, oder ein Vektor ist Vielfaches des anderen, und die Vektoren
spannen eine Gerade mit Dimension 1 auf.
2.74. Beispiel: Der Nachweis der linearen Unabhängigkeit nach der Bedingung (2) aus Satz 2.62 oder die Berechnung einer Linearkombination im K n
erfordern das Aufstellen und Lösen eines linearen Gleichungssystems, wie man
in der folgenden Aufgabe sieht.
2.75 Aufgabe: Gegeben seien die Vektoren
 
 
1
1
v1 = 1 , v2 = 0 ,
1
1
im R3 . Stellen Sie den Vektor
 
1
v3 = 1
0
 
1
v = 2
3
als Linearkombination von v1 , v2 , v3 dar, und weisen Sie nach, dass die Vektoren
v1 , v2 , v3 linear unabhängig sind. Verwenden Sie dazu jeweils ein lineares Gleichungssystem mit 3 Unbekannten und drei Gleichungen.
2.76. Beispiel: Wir betrachten wieder den Raum aller Polynome n-ten Grades
Pn ⊂ C(R).
Wir zeigen, dass die Funktionen
fi (x) = xi ,
i = 0, . . . , n
eine Basis von Pn bilden. Diese Funktionen sind ein Erzeugendensystem, wie
wir schon gesehen haben. Wir zeigen, dass die Funktionen linear unabhängig
sind. Sei
n
X
p :=
λi fi = 0,
i=0
wobei mit 0 die Nullfunktion gemeint ist, die auf ganz R identisch 0 ist. Wir
müssen zeigen, dass alle λi = 0 sind. Es folgt also
p(x) = λ0 + λ1 x + . . . + λn xn = 0
für alle x ∈ R.
Insbesondere
p(0) = λ0 = 0.
Da p identisch 0 ist, folgt durch k-faches Ableiten auch
p(k) (0) = k!λk = 0,
für k = 1, . . . , n. In der Tat folgt also
λ0 = λ1 = . . . = λn = 0.
2.2. VEKTORRÄUME
77
Wir zeigen nun, dass die Längen aller Basen eines endlich-dimensionalen
Vektorraums gleich sind. Die Dimension ist also wohlbestimmt.
2.77 Satz: (Steinitzscher Austauschsatz) Sei V ein Vektorraum, v1 , . . . , vn
ein Erzeugendensystem von V und w1 , . . . , wk linear unabhängig. Dann gilt
k≤n
und man kann k Vektoren der v1 , . . . , vn durch w1 , . . . , wk ersetzen, so dass man
wieder ein Erzeugendensystem erhält.
Beweis: Wir setzen induktiv einen Vektor wi nach dem anderen in das Erzeugendensystem ein. Sei zunächst
w1 =
n
X
λi v i .
i=1
Wegen der linearen Unabhängigkeit ist w1 6= 0. Also zum Beispiel λ1 6= 0. Dann
ersetzen wir v1 durch w1 . Wir müssen nun zeigen, dass
w1 , v2 , . . . , vn
noch immer ein Erzeugendensystem von V ist. Klar ist, dass
w1 , v1 , v2 , . . . , vn
ein Erzeugendensystem ist. Es gilt aber
v1 =
λ2
λn
1
w1 − v2 − . . . −
vn .
λ1
λ1
λ1
Nach Satz 2.64 kann man daher v1 streichen und erhält immer noch ein Erzeugendensystem.
Wenn wir w1 , . . . , wm , m < k ersetzt haben, so können wir nach Umnummerierung der vi annehmen, dass ein Erzeugendensystem
w1 , . . . , wm , vm+1 , . . . , vn
entstanden ist. Sei nun
wm+1 = λ1 w1 + . . . + λm wm + λm+1 vm+1 + . . . + λn vn .
Wegen der linearen Unabhängigkeit der wi muss einer der Koeffizienten
λm+1 , . . . , λn
ungleich 0 sein. Insbesondere muss m < n sein. Wenn zum Beispiel λm+1 6= 0 ist,
so können wir mit demselben Argument wie oben wm+1 gegen vm+1 tauschen.
Wir setzen den Austausch fort, bis alle wi eingetauscht sind.
2
Der folgende Satz besagt, dass die Dimension eines endlich erzeugten Vektorraums eine wohldefinierte Größe ist.
2.78 Satz: Alle Basen eines endlich-dimensionalen Vektorraums haben die
gleiche Länge.
78
KAPITEL 2. VEKTORRÄUME
Beweis: Für den Nullraum ist diese Aussage klar. Ansonsten seien v1 , . . . , vn
und w1 , . . . , wm zwei Basen. Nach dem Austauschsatz ist m ≤ n und n ≤ m.
2
Wir geben nun noch zwei Sätze über endlich-dimensionale Vektorräume an,
die sehr nützlich sein werden.
2.79 Satz:
Sei V ein Vektorraum, n ∈ N0 .
(1) Genau dann ist dim V ≥ n, wenn jedes Erzeugendensytem mindestens n
Vektoren umfasst.
(2) Wenn dim V ≥ n ist, so ist jedes Erzeugendensystem der Länge n eine Basis
und folglich dim V = n.
(3) Genau dann ist dim V ≤ n, wenn jedes linear unabhängige System höchstens
n Vektoren umfasst.
(4) Wenn dim V ≤ n ist, so ist jedes System mit n linear unabhängigen Vektoren
eine Basis und folglich dim V = n.
Beweis: (1) Sei dim V = k ≥ n. Im Fall k = ∞ kann es gar kein endliches
Erzeugendensystem geben. Falls k = n = 0, so ist die Behauptung klar. Sonst
gäbe es ein Basis v1 , . . . , vk von V . Wenn w1 , . . . , wm ein Erzeugendensystem
ist, so gilt nach dem Austauschsatz k ≤ m. Also n ≤ m.
Wenn umgekehrt jedes Erzeugendensystem n Vektoren umfasst, so kann
dim V < n nicht gelten, weil sonst V eine Basis mit kleinerer Länge als n haben
müsste.
(2) Nach (1) ist jedes Erzeugendensystem der Länge n ≤ dim V minimal, also
Basis.
(3) Sei dim V = k ≤ n und v1 , . . . , vm linear unabhängig. Dann ist nach dem
Austauschsatz m ≤ k. Also m ≤ n.
Umfasse jedes linear unabhängige System höchstens n Vektoren. Da jede
Basis aus linear unabhängigen Vektoren besteht, folgt dim V ≤ n.
(4) Es gebe also eine Basis der Länge k ≤ n und ein linear unabhängiges System
v1 , . . . , vn . Nach dem Austauschsatz ist n ≤ k, also n = k, und v1 , . . . , vn ist
2
dann auch Erzeugendensystem, also Basis.
2.80 Satz: Jedes linear unabhängige System eines endlich-dimensionalen Vektorraums lässt sich zu einer Basis ergänzen.
Beweis: Für die leere Menge stimmt der Satz. Sei w1 , . . . , wm linear unabhängig und v1 , . . . , vn eine Basis von V . Nach dem Steinitzschen Austauschsatz ist m ≤ n, und man kann die wi in die Basis eintauschen, so dass man ein
Erzeugendensystem der Länge n erhält, das die Vektoren w1 , . . . , wm umfasst.
Dies ist nach dem letzten Satz eine Basis von V .
2
2.2. VEKTORRÄUME
79
Den folgenden, nicht trivialen Satz erhalten wir nunmehr leicht aus dem
bisherigen Sätzen. Der Satz erlaubt es, Unterräume mit ihrer Dimension zu
charakterisieren.
2.81 Satz: Sei V ein endlich-dimensionaler Vektorraum und U ein Unterraum. Dann ist auch U endlich-dimensional und
dim U ≤ dim V
Außerdem gilt
U = V ⇔ dim U = dim V
Beweis: Die Maximalgröße eines Systems von linear unabhängiger Vektoren
in U ist kleiner als in V . Also dim U ≤ dim V .
Sei nun dim U = dim V . Dann ist jede Basis von U ein linear unabhängiges
System in V der Länge dim V . Nach dem vorigen Satz ist jede Basis von U also
auch Basis von V . Es folgt U = V .
2
2.82. Beispiel: Im R2 gibt es einen Unterraum der Dimension 0, nämlich {0},
Unterräume der Dimension 1, nämlich Geraden durch 0, und einen Unterraum
der Dimension 2, nämlich den R2 . Im R3 gibt es echte Unterräume der Dimension
2, nämlich die Ebenen durch 0.
2.83. Bemerkung: Der obige Satz gilt natürlich auch für Unterräume. Wenn
also U1 ⊆ U2 ⊆ V Unterräume sind, so folgt
dim U1 ≤ dim U2 .
Falls dim U1 = dim U2 ist, so folgt U1 = U2 .
2.84 Aufgabe: Sei U ⊂ Pn der Raum der Polynome mit p(0) = 0. Zeigen Sie, dass
dies ein Unterraum von Pn ist und geben Sie eine Basis für diesen Raum an.
2.2.7
Summen von Unterräumen
2.85. Beispiel: Seien v1 , v2 ∈ R3 linear unabhängig. Es gibt dann eine Ebene
durch 0, die die Geraden
G1 = span {v1 },
G2 = span {v2 }
enthält, nämlich
E = span {v1 , v2 }.
Da v1 , v2 linear unabhängig sind, lässt sich jedes v ∈ E eindeutig als
v = λ1 v1 + λ2 v2 = w1 + w2
mit w1 ∈ G1 und w2 ∈ G2 schreiben. Man kann also E als die Summe der
Geraden auffassen
E = G1 + G2 := {w1 + w2 : w1 ∈ G1 , w2 ∈ G2 }.
80
KAPITEL 2. VEKTORRÄUME
2.86. Definition: Seien U1 , U2 Unterräume eines Vektorraums V . Dann definieren wir die Summe der Unterräume U1 , U2 als
U1 + U2 := {u1 + u2 : u1 ∈ U1 , u2 ∈ U2 }.
Wenn jedes u ∈ U1 +U2 eine eindeutige Summendarstellung hat, so heißt U1 +U2
direkte Summe der Vektorräume und man schreibt für die Summe in diesem
Fall
U1 ⊕ U2 .
Für den folgenden Satz erinnern wir uns, dass der Durchschnitt zweier Unterräume wieder ein Unterraum ist.
2.87 Satz: (Dimensionsformel) Es gilt für zwei endlich-dimensionale Unterräume U1 , U2 eines Vektorraums
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ).
Beweis: U1 ∩ U2 ist ein Unterraum von U1 . Falls einer der beteiligten Unterräume die Dimension 0 hat, so wird dieser Sonderfall in der folgenden Aufgabe
behandelt. Ansonsten wählen wir eine Basis v1 , . . . , vk von U1 ∩U2 und ergänzen
diese Basis zu einer Basis
v1 , . . . , vk , wk+1 , . . . , wn
von U1 . Analog ergänzen wir diese Basis zu einer Basis
v1 , . . . , vk , sk+1 , . . . , sm
von U2 . Unmittelbar aus der Definition der Summe U1 + U2 folgt dann, dass
v1 , . . . , vk , wk+1 , . . . , wn , sk+1 , . . . , sm
ein Erzeugendensystem von U1 + U2 ist. Wir zeigen nun, dass dieses System
linear unabhängig ist. Sei dazu
0=
k
X
i=1
λ i vi +
n
X
i=k+1
µi wi +
m
X
ηi si .
i=k+1
Da v1 , . . . , vk , wk+1 , . . . , wn linear unabhängig sind, genügt es zu zeigen dass
alle Koeffizienten ηk+1 , . . . , ηm gleich 0 sind. Es gilt aber aufgrund der obigen
Darstellung
m
X
h :=
ηi si ∈ U1 ∩ U2 .
i=k+1
Also ist h als Linearkombination von v1 , . . . , vk darstellbar. Aufgrund der linearen Unabhängigkeit von v1 , . . . , vk , sk+1 , . . . , sm ist aber h eindeutig mit diesem
Koeffizienten darstellbar. Es folgt h = 0 und
ηk+1 = . . . = ηm = 0.
2.3. ANALYTISCHE GEOMETRIE
81
2
2.88 Aufgabe: Überlegen Sie sich, dass die Dimensionsformel auch für die Sonderfälle
dim U1 = 0,
dim U2 = 0,
dim(U1 ∩ U2 ) = 0
korrekt ist.
2.89 Satz:
Genau dann ist U1 + U2 direkte Summe von U1 , U2 wenn
U1 ∩ U2 = {0}
ist. Falls U1 und U2 endlich-dimensional sind, so gilt in diesem Fall
dim(U1 ⊕ U2 ) = dim U1 + dim U2 .
Beweis: Sei U1 ∩ U2 = {0}. Es gebe zwei Darstellungen
v = u1 + u2 = ũ1 + ũ2
mit u1 , ũ1 ∈ U1 und u2 , ũ2 ∈ U2 . Dann folgt
u1 − ũ1 = ũ2 − u2 ∈ U1 ∩ U2 .
Also nach Voraussetzung u1 = ũ1 und u2 = ũ2 .
Sei umgekehrt die Darstellung immer eindeutig, und v ∈ U1 ∩ U2 . Dann sind
v+0=0+v
zwei Darstellungen von v als Summe aus U1 und U2 . Da diese Darstellungen
gleich sein sollen, muss v = 0 sein.
2
2.90 Aufgabe: Sei V endlich-dimensional und U1 ⊆ V ein Unterraum. Zeigen Sie,
dass es einen Unterraum U2 ⊆ V gibt, so dass
V = U1 ⊕ U2
ist.
2.3
Analytische Geometrie
Als ”‘analytische Geometrie”’ bezeichnet man Geometrie, die Koordinaten verwendet. Studiert werden geometrische Objekte und Beziehungen im R2 und R3 .
In diesem Abschnitt studieren wir lediglich Geraden, Ebenen und Strecken im
Raum.
Im Gegensatz zur analytischen Geometrie steht die ”‘synthetische Geometrie”’, die geometrische Objekte axiomatisch festlegt. Wir betrieben diese Geometrie, die auf die Griechen zurück geht und Jahrtausende lang eine wichtige
Säule der Mathematik war, hier nicht.
82
2.3.1
KAPITEL 2. VEKTORRÄUME
Affine Unterräume
2.91. Definition: Sei V ein Vektorraum über K und U ein Unterraum von
V . Zu a ∈ V bezeichnet man dann die Menge
a + U := {a + u : u ∈ U }
als affinen Unterraum (affine subspace) von V . Die Dimension des affinen
Unterraums ist die Dimension von U .
Die Summe oder Differenz von Mengen oder eines Vektors mit einer Menge
ist eine nützliche Notation. Sie muss aber mit Vorsicht benutzt werden. So gilt
etwa für jeden Unterraum U
U − U := {u1 − u2 : u1 , u2 ∈ U } = U.
2.92. Beispiel: Man kann in beliebigen Vektorräumen Geraden als 1-dimensionale affine Unterräume definieren. Eine Gerade ist damit von der Form
G = {a + λv : λ ∈ R}
mit a, v ∈ V und v 6= 0 (siehe Abbildung 2.2). In diesem Fall ist
U = span {v}.
Falls v = 0 ist, so besteht G = a + U nur aus einem Punkt und ist keine Gerade
mehr. Im R3 werden wir außerdem Ebenen als 2-dimensionale affine Unterräume
charakterisieren (siehe Abbildung 2.3).
Die Dimension eines affinen Unterraums scheint von der konkreten Darstellung abzuhängen. Die folgende Aufgabe zeigt, das das nicht so ist.
2.93 Aufgabe: Sei
E =a+U
ein affiner Unterraum und b ∈ E. Zeigen Sie
E = b + U.
2.94. Bemerkung: Aufgrund dieser Aufgabe ist der Unterraum U , der zu
einem affinen Unterraum E gehört, eindeutig durch
U =E−a
gegeben, wobei a ∈ E beliebig gewählt werden kann.
2.95 Satz: Der Schnitt eines nicht-leeren Systems A von affinen Unterräumen
ist entweder leer, oder der affine Unterraum
\
\
A=b+
(E − b).
E∈A
mit einem beliebigen b ∈
T
A.
2.3. ANALYTISCHE GEOMETRIE
Beweis: Wenn der Schnitt nicht leer ist, so wählen wir ein beliebiges b ∈
Aufgrund von Aufgabe 2.93 ist
83
T
A.
E = b + (E − b),
für alle E ∈ A, wobei E −b jeweils der zu E gehörige Unterraum ist. Der Schnitt
dieser Unterräume
\
U=
E−b
E∈A
ist ein Unterraum.
T
”‘⊆”’: Sei c ∈ A, und E ∈ A. Dann ist c ∈ E und nach der vorigen Aufgabe
ist E = b + (E − b). Es folgt c = b + u mit einem u ∈ E − b. Es bleibt u ∈ U zu
zeigen. Sei dazu Ẽ ∈ A beliebig. Genau wie eben zeigt man c = b + ũ mit einem
u ∈ Ẽ − b. Es folgt u = ũ und daher c ∈ b + (Ẽ − b).
”‘⊇”’: Sei umgekehrt c = b + u mit u ∈ U und E ∈ A. Wegen u ∈ E − b ist
2
dann c ∈ E = b + (E − b).
Dass der Schnitt von beliebig vielen affinen Unterräumen ein affiner Unterraum ist, lässt sich auch mit dem folgenden Satz beweisen, der affine Unterräume
charakterisiert.
2.96 Satz: Eine nicht-leere Teilmenge E eines reellen Vektorraums V ist
genau dann affiner Unterraum von V , wenn sie für alle x, y ∈ E die Gerade
G(x, y) = {x + λ(y − x) : λ ∈ R}
durch x und y enthält.
Beweis: Sei E = b + U ein affiner Unterraum. Sei dann x = b + u1 und
y = b + u2 . Dann gilt
G(x, y) = {b + u1 + λ(u1 − u2 ) : λ ∈ R} ⊆ E.
Umgekehrt enthalte E mit zwei Punkten jeweils die Gerade durch diese Punkte.
Wir wählen b ∈ E fest. Zu zeigen ist, dass U = E − b ein Unterraum ist. Es gilt
offenbar 0 ∈ U . Außerdem für alle x, y ∈ E
G(x, y) = {x + λ(y − x) : λ ∈ R}
= {(x + b) + λ((y + b) − (x + b)) − b : λ ∈ R}
= G(x + b, y + b) − b.
Wenn also x, y ∈ U sind, so ist x + b, y + b ∈ E und daher
G(x + b, y + b) ⊆ E,
also
G(x, y) ⊆ E − b = U.
Also enthält auch U zu je zwei Punkten die Gerade durch diese Punkte. Sei nun
x ∈ E und λ ∈ R. Dann ist
λx ∈ G(0, x) ⊆ U.
84
KAPITEL 2. VEKTORRÄUME
Seien x, y ∈ U . Dann ist
1
x + y = 2x + (2y − 2x) ∈ G(2x, 2y) ⊆ U.
2
2
Also ist U ein Unterraum.
2.97 Aufgabe: Seien
A1 = a1 + U1 ,
A2 = a2 + U2
zwei affine Unterräume.
(1) Zeigen Sie, dass genau dann A1 ⊆ A2 gilt, wenn A1 ∩ A2 6= ∅ ist und U1 ⊆ U2 .
(2) Folgern Sie, dass genau dann A1 = A2 gilt, wenn A1 ∩ A2 6= ∅ ist und U1 = U2 .
2.98 Satz: Sei V ein n-dimensionaler Vektorraum, wobei wir n = ∞ zulassen,
k ≤ n und
a1 , . . . , ak+1 ∈ V
Punkte, die in keinem k − 1-dimensionalen affinen Unterraum liegen. Dann gibt
es genau einen affinen Raum E der Dimension k, der alle diese Punkte enthält.
Beweis: Existenz: Die Existenz ist sehr einfach zu zeigen. Dazu setzen wir
a = a1 , v1 = a2 − a1 , . . . , vk = ak+1 − a1 .
und setzen
E = a + span {v1 , . . . , vk }.
Wegen
a1 = a + 0, a2 = a + v1 , . . . , ak+1 = a + vk
enthält E alle Punkte a1 , . . . , ak+1 . Offenbar gilt
dim E = dim span {v1 , . . . , vk } ≤ k
Aufgrund der Annahme folgt dim E = k.
Eindeutigkeit: Nehmen wir an, dass H ein zweiter affiner Unterraum der Dimension k ist, der die Punkte enthält. Dann gilt also a = a1 ∈ E ∩ H. Es
gilt
v1 , . . . , v k ∈ H − a
Also
E − a = span {v1 , . . . , vk } ⊆ H − a.
Andererseits haben diese Unterräume dieselbe Dimension k. Also sind sie nach
Satz 2.81 gleich. Es folgt E = H.
2
2.99. Definition: Für eine beliebige nicht-leere Teilmenge M eines reellen
Vektorraums V kann man den erzeugten affinen Unterraum E definieren.
Dies ist der kleinste affine Unterraum, der M umfasst, also
\
E = {A : A ist affiner Unterraum von V mit M ⊆ A}.
2.3. ANALYTISCHE GEOMETRIE
85
2.100 Aufgabe: Zeigen Sie
E = v + span (M − v)
für beliebiges v ∈ M . Falls M = {v0 , v1 , . . . , vn } ist, so haben wir also
E = {v0 +
n
X
λ1 (vi − v0 ) : λ1 , . . . , λn ∈ R}
i=1
2.101 Aufgabe: Zeigen Sie für den von M ⊆ V aufgespannten affinen Unterraum
E={
n
X
λi vi : λ1 , . . . , λn ∈ R,
Pn
i=1
λi = 1, v1 , . . . , vn ∈ M , n ∈ N}.
i=1
Man nennt eine Summe
v=
n
X
λi v i ,
i=1
n
X
λi = 1.
i=1
eine Affinkombination von v1 , . . . , vn . Folgern Sie, dass eine Teilmenge E ⊆ V genau
dann ein affiner Unterraum von V ist, wenn er mit v1 , . . . , vn alle Affinkombinationen
dieser Vektoren enthält.
2.102 Aufgabe: Seien a1 , . . . , ak+1 Punkte im Rn , die nicht in einem affinen Unterraum der Dimension k − 1 liegen und k ≤ n. Zeigen Sie, dass sich dann jeder Punkte
des Rn eindeutig in der Form
x = λ1 a1 + . . . + λk+1 ank+1
λ1 + . . . + λk+1 = 1
schreiben lässt.
Man nennt die Koordinaten in obiger Aufgabe baryzentrische Koordinaten.
2.103. Definition: Ein affiner Unterraum E1 = a1 + U1 verläuft parallel zu
einem anderen affinen Unterraum E2 = a2 + U2 , wenn sich E1 und E2 nicht
schneiden und U1 ⊆ U2 ist. Die affinen Unterräume heißen parallel, wenn sie
sich nicht schneiden und U1 = U2 ist.
Eine Gerade kann also parallel zu einer Ebene verlaufen, aber nur affine
Unterräume gleicher Dimension können zueinander parallel sein.
2.3.2
Geraden und Ebenen
Ein 0-dimensionaler affiner Unterraum ist nur ein Punkt. Der erste interessante
affine Unterraum hat die Dimension 1.
2.104. Definition: Eine Gerade im Rn ist definiert als eine 1-dimensionaler
affiner Unterraum, also
G = {a + λv : λ ∈ R},
wobei a ∈ Rn ein Punkt ist, und v ∈ Rn , v 6= 0, der Richtungsvektor.
Wir haben also
G = a + span {v}.
86
KAPITEL 2. VEKTORRÄUME
span {v} ist ein eindimensionaler Unterraum von Rn , nämlich eine Gerade durch
0.
2.105. Beispiel: Im Bild 2.2 ist die Gerade
G = a + span {v}
eingezeichnet. Setzt man die Wert für a und v ein, so ergibt sich
0.2 + 0.4λ
G={
: λ ∈ R}.
0.7 + 0.2λ
Abbildung 2.2: Eine Gerade G im R2
Nach Satz 2.98 gibt es im Rn genau eine Gerade durch zwei verschiedene
Punkte. Denn zwei verschiedene Punkte können nicht gemeinsam in einem 0dimensionalen affinen Unterraum von R liegen. Wie im Beweis von Satz 2.98
festgestellt wurde, ist die Gerade durch a und b die Menge
G := {a + λ(b − a) : λ ∈ R}.
2.106. Definition: Eine Ebene im R3 ist ein 2-dimensionaler affiner Unterraum, also
E = a + span {v1 , v2 }
mit linear unabhängigen Vektoren v1 , v2 ∈ R3 , und a ∈ R3 .
2.3. ANALYTISCHE GEOMETRIE
87
Abbildung 2.3: Ebene im R3
Als Beispiel für die Art von Sachverhalten, die man mit Hilfe der Dimension
beweisen kann, geben wir folgenden Satz an.
2.107 Satz: Der Schnitt zweier Ebenen im R3 ist leer, eine Gerade oder beide
Ebenen sind gleich.
Beweis: Wenn der Schnitt der Ebenen nicht leer ist, so haben beide Ebenen
eine Darstellung
E1 = b + U1 , E2 = b + U2
(siehe dazu den Beweis von Satz 2.95) mit
dim U1 = dim U2 = 2.
Es gilt dann
E1 ∩ E2 = b + (U1 ∩ U2 ).
Die Frage ist, welche Dimensionen U1 ∩ U2 haben kann. Nach Satz 2.87 gilt
dim(U1 + U2 ) = dim U1 + dim U2 − dim(U1 ∩ U2 ) = 4 − dim(U1 ∩ U2 ).
Andererseits gilt nach Satz 2.81
dim(U1 + U2 ) ≤ dim(R3 ) = 3.
Also
dim(U1 ∩ U2 ) ≥ 1.
Falls diese Dimension gleich 1 ist, so ist der Schnitt also eine Gerade. Falls sie
gleich 2 ist, so folgt wegen dim U1 = dim U2 = 2, wieder aus Satz 2.81, dass
2
U1 ∩ U2 = U1 = U2 ist. Also sind die Ebenen in diesem Fall gleich.
88
KAPITEL 2. VEKTORRÄUME
2.108 Aufgabe: Sei G eine Gerade im R2 und b ∈ R2 , b ∈
/ G. Zeigen Sie, dass es
genau eine zu G parallele Gerade durch b gibt.
2.109 Aufgabe: Sei E eine Ebene im R3 und b ∈ R3 , b ∈
/ E.
(1) Zeigen Sie, dass es unendliche viele Geraden durch b gibt, die parallel zu E verlaufen.
(2) Zeigen Sie, dass jede Gerade durch b entweder parallel zu E verläuft oder E schneidet.
2.3.3
Strecken und konvexe Mengen
Bei der Definition von Strecken nutzen wir zum ersten Mal die Anordnung der
reellen Zahlen. Aus diesem Grund werden Strecken und konvexe Mengen auch
als Teilgebiet der Analysis betrachtet. Sie sind aber ein wichtiger Bestandteil in
der analytischen Geometrie. Daher behandeln wir die Grundlagen hier.
Wir reden in diesem Abschnitt zunächst über beliebige Vektorräume über
dem Körper R, die wir ”‘reelle Vektorräume”’ nennen.
2.110. Definition: Eine Strecke (engl.: line segment) in einem reellen Vektorraum ist eine Menge der Form
S = {a + λ(b − a) : 0 ≤ λ ≤ 1}.
a und b heißen die Endpunkte der Strecke. Wir schreiben für die Strecke mit
Endpunkten a und b in diesem Abschnitt einfach S(a, b).
2.111 Aufgabe: Zeigen Sie
S(a, b) = S(b, a).
Der folgende, erstaunlich umständlich zu beweisende Satz zeigt, dass zwei
Strecken nur dann gleich sein können, wenn sie dieselben Endpunkte haben.
2.112 Satz:
Seien
S(a, b) = S(ã, b̃)
zwei gleiche Strecken. Dann ist (a, b) = (ã, b̃) oder (a, b) = (b̃, ã).
Beweis: Wenn a = b ist, so degeneriert die Strecke zu einem Punkt. Es muss
dann offenbar a = b = ã = b̃ gelten. Sei also a 6= b, und v = b − a. Dann ist
S(ã, b̃) = S(a, b) ⊂ a + span {v}.
Also gibt es λa und λb mit
ã = a + λa v,
b̃ = a + λb v.
Aufgrund der obigen Aufgabe können wir λa < λb annehmen. Wir zeigen λa = 0
und λb = 1, woraus die Behauptung folgt. Zunächst sei festgehalten, dass S(a, b)
genau die Punkte
a + λv,
0≤λ≤1
2.3. ANALYTISCHE GEOMETRIE
89
enthält. Wegen ã, b̃ ∈ S(a, b) folgt λa ≥ 0 und λb ≤ 1. Wenn aber λa > 0 wäre,
so könnte S(ã, b̃) den Punkt a nicht enthalten. Analog widerlegt man λb < 1.
2
2.113. Definition: Eine Teilmenge M eines reellen Vektorraums heißt konvex, wenn gilt
S(a, b) ⊆ M
für alle a, b ∈ M .
Abbildung 2.4: Konvexe Menge und nicht konvexe Menge
2.114 Aufgabe: Zeigen Sie, dass jede Strecke S(a, b) konvex ist.
2.115 Aufgabe: Zeigen Sie dass der Durchschnitt von konvexen Mengen konvex ist.
2.116 Aufgabe: Zeigen sie, dass jeder affine Unterraum eines reellen Vektorraums
konvex ist.
2.117. Definition: Zu einer Menge M eines reellen Vektorraums V definieren
wir die konvexe Hülle von M als die kleinste konvexe Menge, die M enthält.
Für diese Menge schreiben wir
conv (M ).
Diese Definition macht natürlich nur Sinn, wenn die konvexe Hülle existiert.
Wie bei der Definition des aufgespannten Unterraums gibt es einen konstruktiven und einen weniger konstruktiven Weg, die Existenz nachzuweisen. Der
weniger konstruktive benutzt
\
conv (M ) = {K ⊂ V : M ⊆ K und K konvex}.
90
KAPITEL 2. VEKTORRÄUME
Auf der rechten Seite steht nach der obigen Aufgabe eine konvexe Menge. Diese
konvexe Menge ist dann in allen konvexen Mengen enthalten, die M umfassen.
Man beachte, dass V selbst konvex ist, so dass der Schnitt nicht leer ist.
Es ist nützlich, zunächst mit endlichen Mengen M zu beginnen. Man nennt
einen Ausdruck der Form
k
X
λ i xi
i=0
mit λ1 , . . . , λk ≥ 0 und
x1 , . . . , x k .
P
λi = 1 eine Konvexkombination der Punkte
2.118 Aufgabe: Zeigen Sie, dass die Strecke S(a, b) die Menge alle Konvexkombinationen von a und b ist.
2.119 Aufgabe: Zeigen Sie, dass die Menge aller Konvexkombinationen der Punkte
x1 , . . . , xk konvex ist.
2.120 Satz: Sei x1 , . . . , xk Elemente eines reellen Vektorraums V . Dann ist
conv {x1 , . . . , xk } die Menge aller Konvexkombinationen der Punkte x1 , . . . , xk .
Beweis: Aufgrund der obigen Aufgabe müssen wir nur noch zeigen, dass
alle Konvexkombinationen in der konvexen Hülle liegen müssen. Dies zeigen wir
durch Induktion nach k. Für k = 1 ist die Aussage klar, da dort x1 = 1 · x1
die einzige Konvexkombination ist, und die konvexe Hülle eines Punktes dieser
Punkt ist. Sei
k
X
x=
λi xi
i=0
eine Konvexkombination. Wenn λk = 1 ist, so ist λ1 = . . . = λk−1 = 0 und x =
xk . Der Punkt xk muss natürlich in der konvexen Hülle der Punkte {x1 , . . . , xk }
sein. Wenn λk 6= 1 ist, so schreiben wir
x = (1 − λk )x̃ + λk xk
mit
x̃ =
k−1
X
i=0
λi
xi .
1 − λk
Wegen
k−1
X
i=0
Pk−1
λi
λi
= i=0
=1
1 − λk
1 − λk
ist x̃ eine Konvexkombination von {x1 , . . . , xk−1 }. Nach Induktionsvoraussetzung folgt
x̃ ∈ conv {x1 , . . . , xk−1 } ⊆ conv {x1 , . . . , xk }.
Aufgrund unserer Darstellung ist
x ∈ Sx̃,xk .
Für die konvexe Hülle der Punkte muss aber gelten
Sx̃,xk ⊆ conv {x1 , . . . , xk }.
2.3. ANALYTISCHE GEOMETRIE
91
2
2.121 Satz: Sei M Teilmenge eines reellen Vektorraums. Dann ist conv (M )
die Vereinigung aller konvexen Hüllen von je endlich vielen Punkten aus M .
Also
( k
)
X
P
conv (M ) =
λi xi : λ1 , . . . , λk ≥ 0,
λi = 1, x1 , . . . , xk ∈ M , k ∈ N
i=0
Beweis: Es genügt nun zu zeigen, dass die Vereinigung aller Konvexkombinationen konvex ist. Es ist aber nicht schwer nachzuprüfen, dass die Konvexkombination zweier Konvexkombinationen von zwei endlichen Teilmengen aus
2
M selbst wieder Konvexkombination ist.
Die bisherigen Resultate über konvexe Mengen gelten in beliebigen reellen
Vektorräumen. Wenn wir uns aber auf den Rn zurück ziehen, kann man mehr
aussagen.
2.122 Satz: (Carathéodory) Die konvexe Hülle einer Teilmenge M eines
n-dimensionalen reellen Vektorraums V ist die Vereinigung der konvexen Hüllen
aller höchstens n + 1-elementigen Teilmengen von M . Also
(n+1
)
X
P
conv (M ) =
λi xi : λ1 , . . . , λn+1 ≥ 0,
λi = 1, x1 , . . . , xn+1 ∈ M
i=0
Beweis: Wir müssen nur noch zeigen, dass wir eine Konvexkombination
x=
k
X
λ i xi
i=1
als Konvexkombination einer echten Teilmenge der Punkte
{x1 , . . . , xk }
schreiben können, solange k > n + 1 ist. Wir können also λi > 0 für i = 1, . . . , k
annehmen. Weil in V höchstens Systeme mit n Vektoren linear unabhängig sein
können, sind für k > n + 1 die k − 1 Vektoren
x2 − x1 , . . . , x k − x1
linear abhängig. Angenommen
k
X
µi (xi − x1 ) = 0,
i=2
wobei nicht alle Koeffizienten µi gleich 0 sind. Addiert man dann das c-fache
dieser Gleichung zu x, so folgt
x = (λ1 − c
k
X
i=2
µi )x1 +
k
X
(λi + cµi )xi
i=2
92
KAPITEL 2. VEKTORRÄUME
Wir stellen zunächst fest, dass die Summe der Koeffizienten dieser Darstellung
(λ1 − c
k
X
i=2
µi ) +
k
k
X
X
(λi + cµi ) =
λi = 1
i=2
i=1
ist. Für c = 0 sind die Koeffizienten positiv. Wir wählen nun gemäß Aufgabe 2.123 ein c, so dass einer dieser Koeffizienten 0 wird, die anderen aber immer
noch nicht-negativ sind. Damit haben wir x als Konvexkombination einer echten
2
Teilmenge der Punkte dargestellt.
2.123 Aufgabe: Seien
λ1 , . . . , λ m > 0
reelle Zahlen und
µ1 , . . . , µ m ∈ R
nicht alle gleich 0. Dann existiert ein c ∈ R, so dass
λ1 + cµ1 , . . . , λm + cµm ≥ 0
ist, und mindestens eine dieser Zahlen gleich 0 wird.
2.124. Beispiel: Im R2 ist ein Dreieck die Konvexkombination der drei Eckpunkte. Nach dem Satz von Caratheodory ist die konvexe Hülle einer Teilmenge
M ⊆ R2 die Vereinigung aller Dreiecke mit Ecken in M .
Im R3 hat man Tetraeder statt Dreiecke zu betrachten.
2.125 Aufgabe: (a) Schreiben Sie Ecken eines Dreiecks als Konvexkombination der
Eckpunkte.
(b) Schreiben Sie die Seitenmitten eines Dreiecks als Konvexkombination der Eckpunkte.
(c) Die Strecken zwischen den Seitenmitten und den gegenüber liegenden Ecken nennt
man Seitenhalbierende. Zeigen Sie, dass der Schwerpunkt
s=
1
(a + b + c)
3
auf allen Seitenhalbierenden liegt, indem Sie den Punkt als Konvexkombination der
Ecken und der Seitenmitten schreiben.
Kapitel 3
Lineare Abbildungen
3.1
3.1.1
Lineare Abbildungen
Eigenschaften
3.1. Definition: Seien V, W Vektorräume über einem Körper K. Dann heißt
eine Abbildung φ : V → W linear, wenn die folgenden Bedingungen gelten.
(1)
φ(v1 + v2 ) = φ(v1 ) + φ(v2 )
für alle v1 , v2 ∈ V ,
(2)
φ(λv) = λφ(v)
für alle v ∈ V , λ ∈ K.
3.2. Beispiel: Die identische Abbildung id : V → V ist linear, ebenso wie die
Nullabbildung 0, die konstant gleich 0 ist.
3.3 Aufgabe: Zeigen Sie, dass im Rn die Streckung tc : Rn → Rn , definiert durch
für alle x ∈ Rn ,
tc (x) = a + cx
genau dann linear ist, wenn a = 0 ist. Welches sind die Fixpunkte der Streckung, also
die Punkte mit tc (x) = x, in Abhängigkeit von a und c?
3.4. Bemerkung: Für eine lineare Abbildung φ : V → W gilt
φ(λ1 v1 + . . . + λn vn ) = λ1 φ(v1 ) + . . . + λn φ(vn ),
wobei λ1 , . . . , λn ∈ K und v1 , . . . , vn ∈ V seien. Dies folgt aus den Bedinungungen (1) und (2) der Linearität per Induktion.
3.5 Aufgabe: Zeigen Sie φ(0) = 0 für alle lineare Abbildungen φ : V → W .
3.6. Beispiel: In Abbildung 3.1 ist eine lineare Abbildung φ : R2 → R2 dargestellt. Eingezeichnet sind die Einheitsvektoren e1 , e2 (in blau) und deren Bilder
0.9
0.4
φ(e1 ) = w1 =
, φ(e2 ) = w2 =
−0.2
0.5
93
94
KAPITEL 3. LINEARE ABBILDUNGEN
Abbildung 3.1: Lineare Abbildung φ : R2 → R2
(in braun). Man kann dann für jeden Punkt
λ1
v=
= λ1 e1 + λ2 e2
λ2
das Bild
φ(v) = λ1 φ(e1 ) + λ2 φ(e2 )
berechnen. Beispielsweise ist
v=
0.2
1
und damit
φ(v) = 0.2w1 + 1w2 =
0.2 · 0.9 + 0.4
0.58
=
.
0.2 · (−0.2) + 0.5
0.46
Macht man dasselbe für die vier anderen Ecken des Viereck (in blau), so entsteht
das eingezeichnete Bildviereck (in braun).
3.7. Bemerkung: Lineare Abbildungen machen nur dann Sinn, wenn Definitionsbereich und Bildraum Vektorräume über demselben Körper sind.
3.8. Bemerkung: Eine lineare Abbildung φ : V → K bezeichnet man als
Funktional auf V . Dabei identifizieren wir K = K 1 , damit K ein Vektorraum
über K wird.
3.9. Beispiel: Lineare Gleichungen, die zwischen Punkten eines Vektorraums
erfüllt sind, sind auch zwischen den Bildern unter einer linearen Abbildung
3.1. LINEARE ABBILDUNGEN
95
erfüllt. Seien beispielsweise a, b ∈ V zwei Punkte und
m=
1
(a + b)
2
die Mitte zwischen diesen beiden Punkten. Sei φ : V → W linear. Dann ist φ(m)
die Mitte zwischen φ(a) und φ(b). Denn
φ(m) =
1
(φ(a) + φ(b))
2
aufgrund der Bedingungen (1) und (2). Allgemeiner erhält eine lineare Abbildung im Rn Verhältnisse, etwa Konvexkombinationen
φ(λa + µb) = λφ(a) + µφ(b)
für jede Konvexkombination λ + µ = 1. Daraus folgt, dass das Bild einer konvexen Menge eine konvexe Menge ist. Lineare Abbildungen erhalten also Streckenverhältnisse und bilden konvexe Mengen auf konvexe Mengen ab.
3.10 Satz:
Sei φ : V → W linear.
(1) Wenn U ⊆ V ein Unterraum von V ist, dann ist das Bild φ(U ) dieses
Unterraums ein Unterraum von W .
(2) Wenn U ⊆ W ein Unterraum von W ist, dann ist das Urbild φ−1 (U ) ein
Unterraum von V .
Beweis: (1) Sei w1 , w2 in φ(U ). Dann gibt es v1 , v2 ∈ U mit
φ(v1 ) = w1 ,
φ(v2 ) = w2 .
Es folgt
φ(v1 + v2 ) = φ(v1 ) + φ(v2 ) = w1 + w2 .
Also w1 +w2 ∈ φ(U ). Ganz analog zeigt man die Bedingung (2) für Unterräume.
(2) Bleibt dem Leser als Aufgabe überlassen.
2
3.11 Aufgabe: Zeigen Sie (2) in dem obigen Satz.
3.12. Definition: Sei φ : V → W linear. Dann bezeichnet man den Unterraum
φ−1 {0} = {x ∈ V : φ(x) = 0}
als Kern (engl.: kernel) von φ. Wir schreiben dafür Kern (φ). Außerdem bezeichnet man den Unterraum
φ(V ) = {φ(x) : x ∈ V }
als Bild (engl.: image) von φ. Wir schreiben dafür Bild (φ).
3.13. Beispiel: Wenn φ : V → W die Nullabbildung ist, dann ist Kern (φ) = V .
Wenn φ : V → V injektiv ist, dann ist Kern (φ) = {0}. Dies ist etwa im
Beispiel 3.6 der Fall.
96
KAPITEL 3. LINEARE ABBILDUNGEN
Wenn φ : V → W eine lineare Abbildung ist, so kann es natürlich durchaus
sein, dass φ nicht surjektiv ist und ein y ∈ W kein Urbild hat. Das gilt in der
Tat für alle
y ∈ W \ Bild (φ).
Im folgenden Satz zeigen wir, dass die Menge aller Urbilder von y ein affiner
Unterraum von V ist, wenn sie nicht leer ist.
3.14 Satz: Sei φ : V → W linear und φ(x) = y. Dann gilt
φ−1 {y} = x + Kern (φ).
Die Abbildung φ ist also genau injektiv, wenn es einen Punkt gibt, der genau
ein Urbild hat, insbesondere, wenn Kern (φ) = {0} ist.
Beweis: ”‘⊆”’: Wenn x̃ ∈ φ−1 {y} ist, dann ist
φ(x̃) = y = φ(x).
Es folgt
φ(x̃ − x) = φ(x̃) − φ(x) = 0.
Also x̃ − x ∈ Kern (φ). Also
x̃ ∈ x + Kern (φ).
”‘⊇”’: Die Argumentation ist dieselbe, nur umgekehrt.
2
3.15. Bemerkung: Will man also alle Urbilder von y ∈ W berechnen, so
genügt es den Kern (φ) zu bestimmen und ein spezielles Urbild von y. Die Urbildmengen aller y sehen also im Prinzip gleich aus, wenn sie nicht leer sind.
Die Urbildmengen von Punkten sind zum Kern parallele affine Unterräume.
3.16 Aufgabe: Sei φ : K 2 → K die Abbildung
x1
φ
= x1 + x2 .
x2
Zeichnen Sie Kern (φ) in ein Koordinatensystem, sowie φ−1 (a) für a = −2, −1, 0, 1, 2.
3.17 Aufgabe: Sie φ : V → W linear. Zeigen Sie, dass zwei Mengen φ−1 (y1 ), φ−1 (y2 )
für y1 , y2 ∈ W entweder gleich oder disjunkt sind. Zeigen Sie darüber hinaus
[
V = {φ−1 (y) : y ∈ W }.
3.18 Satz: Sei V ein endlich-dimensionaler Vektorraum über K und B eine
Basis von V . Sei W ein Vektorraum über K und φ : B → W eine Abbildung.
Dann gibt es eine eindeutig bestimmte lineare Fortsetzung φ : V → W .
Beweis: Da sich jedes v ∈ V eindeutig als Linearkombination
v=
n
X
i=0
λi vi
3.1. LINEARE ABBILDUNGEN
97
mit Vektoren aus der Basis darstellen lässt, muss gelten
φ(v) =
n
X
n
X
λi φ(vi ) =
i=0
λi wi .
i=0
Definiert man φ auf diese Art und Weise, so ist φ(v) festgelegt. Man rechnet
2
nach, dass φ linear ist.
Lineare Abbildungen sind also durch die Bilder eine Basis eindeutig bestimmt.
3.19 Aufgabe: Sei v1 , . . . , vn ein Erzeugendensystem von V und φ : V → W linear.
Zeigen Sie, dass dann Bild (φ) von φ(v1 ), . . . , φ(vn ) erzeugt wird.
3.1.2
Dimensionsformel
Wir beweisen nun eine weitere wichtige Dimensionsformel.
3.20 Satz: Sei φ : V → W linear und V endlich-dimensional. Dann ist
Bild (φ) ebenfalls endlich-dimensional und es gilt
dim Kern (φ) + dim Bild (φ) = dim V.
Beweis: Als Unterraum von V ist Kern (φ) endlich-dimensional. Sei
v1 , . . . , v k
eine Basis von Kern (φ). Nach Satz 2.80 kann man dieses linear unabhängige
System zu einer Basis
v1 , . . . , vk , vk+1 , . . . , vn
von V ergänzen. Wir behaupten, dass
φ(vk+1 ), . . . , φ(vn )
(3.1)
eine Basis von Bild (φ) ist. Dann gilt nämlich in der Tat
dim Kern (φ) + dim Bild (φ) = k + (n − k) = n = dim V.
Sei y ∈ Bild (φ). Dann existiert ein x ∈ V mit φ(x) = y. Sei
x=
n
X
λ i vi .
i=1
Dann folgt
n
n
n
X
X
X
y = φ(x) = φ(
λ i vi ) =
λi φ(vi ) =
λi φ(vi ).
i=1
i=1
i=k+1
Damit haben wir bewiesen, dass Bild (φ) von den Vektoren in (3.1) aufgespannt
wird. Wir müssen noch die lineare Unabhängigkeit zeigen. Sei
0=
n
X
i=k+1
λi φ(vi ) = φ(
n
X
i=k+1
λ i vi )
98
KAPITEL 3. LINEARE ABBILDUNGEN
Also
n
X
λi vi ∈ Kern (φ).
i=k+1
Es muss also auch
n
X
λi vi =
i=k+1
k
X
λi vi
i=1
mit gewissen λi , i = 1, . . . , k, sein. Da aber v1 , . . . , vn eine Basis von V ist, folgt
aus der Eindeutigkeit der Darstellung
λ1 = . . . = λk = λk+1 = . . . = λn = 0.
2
3.21 Aufgabe: Überlegen Sie sich, dass der Beweis auch in den Extremalfällen
dim Kern (φ) = 0,
dim Bild (φ) = 0
richtig ist.
3.22 Satz: Seien φ : V → W linear und dim V = dim W , V, W endlich
dimensional. Dann sind äquivalent
(1) φ ist bijektiv.
(2) φ ist surjektiv.
(3) φ ist injektiv.
Beweis: Es genügt offenbar zu zeigen, dass (2) und (3) äquivalent sind.
(2) ⇒ (3): Wenn φ surjektiv ist, dann ist
dim W = dim Bild (φ) = dim V − dim Kern (φ)
nach der Dimensionsformel. Also dim Kern (φ) = 0. Es folgt, dass Kern (φ) =
{0} ist und daher φ injektiv nach Satz 3.14.
(3) ⇒ (2): Wenn φ injektiv ist, ist Kern (φ) = {0} nach Satz 3.14. Aus der
Dimensionsformel folgt die Behauptung.
2
3.23 Satz: Sei φ : V → W linear.
(1) Wenn V endlich-dimensional ist, dann kann φ nur dann surjektiv sein, wenn
W endlich-dimensional ist und
dim V ≥ dim W.
(2) Wenn W endlich dimensional ist, dann kann φ nur dann injektiv sein, wenn
V endlich dimensional sein, wenn
dim V ≤ dim W.
3.1. LINEARE ABBILDUNGEN
99
Wenn einer der Räume endlich dimensional ist, kann folglich φ nur bijektiv
sein, wenn es der andere auch ist und die Dimensionen gleich sind.
3.24 Aufgabe: Beweisen Sie Satz 3.23.
3.25 Aufgabe: Sei v1 , . . . , vn eine Basis von V , und φ : V → W linear. Zeigen Sie,
dass dann das System
φ(v1 ), . . . , φ(vn )
genau dann linear unabhängig ist, wenn φ injektiv ist.
3.26 Aufgabe: Sei V endlich dimensional. Welche Dimension kann der Kern eines
Funktionals φ : V → K haben?
3.27 Aufgabe: Betrachten Sie das Funktional φ : K n → K definiert durch
 
x1
 
φ  ...  = x1 + . . . + xn .
xn
Geben Sie eine Basis des Kerns von φ an.
3.28 Satz: Für zwei lineare Abbildungen
φ : V → W,
ψ:W →H
ist die Verkettung ψ ◦φ wieder linear. Zu jeder invertierbaren linearen Abbildung
φ : V → W ist die Umkehrabbildung φ−1 linear ist.
3.29 Aufgabe: Zeigen Sie Satz 3.28.
3.30. Definition: Eine bijektive lineare Abbildung φ : V → W heißt Isomorphismus (isomorphism) (oder Isomorphie, genauer Vektorraum-Isomorphie).
Zwei Vektorräume V, W über einem Körper K hießen isomorph, wenn es eine
Isomorphie zwischen diesen Vektorräumen gibt.
3.31. Bemerkung: Wir können von Isomorphismus zwischen den Vektorräumen reden, weil ja auch die Umkehrabbildung eines Isomorphismus wieder eine
Isomorphismus ist. Isomorphien kann man auf ganz analoge Weise auch für andere algebraische Strukturen, wie Gruppen oder Körper, definieren. Wichtig ist,
dass sie bijektiv sind und sich die Rechengesetze übertragen.
3.32 Aufgabe: Definieren Sie, wann eine lineare Abbildung f : K → Q für zwei
Körper K und Q eine Isomorphie ist.
3.33 Satz: Wenn V eine endlich dimensionaler Vektorraum über K ist, und
φ : V → W ein Isomorphismus, dann ist auch W endlich dimensional und
dim V = dim W . Wenn umgekehrt V, W endlich dimensionale Vektorräume über
K mit gleicher Dimension sind, dann ist V isomorph zu W .
Isomorphe Vektorräume haben also die gleiche Dimension. Jeder n-dimensionale Vektorraum über K ist isomorph zu K n .
Beweis: Dass isomorphe Vektorräume die gleiche Dimension haben, folgt aus
der Dimensionsformel, insbesondere aus Aufgabe 3.23. Wenn umgekehrt V und
W dieselbe Dimension haben, so wählen wir eine Basis
v1 , . . . , v n
100
KAPITEL 3. LINEARE ABBILDUNGEN
von V und eine Basis
w1 , . . . , w n
von W . Nach Satz 3.18 gibt es eine lineare Abbildung φ : V → W mit
φ(v1 ) = w1 ,
...,
φ(vn ) = wn .
Nach Aufgabe 3.25 ist φ injektiv und damit bijektiv nach Satz 3.22.
2
Wir geben zum Ende dieses Abschnittes einige abstrakte Definitionen an,
die algebraische Strukturen auf dem Raum der linearen Abbildungen zwischen
zwei Vektorräumen einführen.
3.34. Definition: Eine lineare Abbildung φ : V → V nennt man auch einen
Endomorphismus auf V . Bisweilen findet man auch die Bezeichnung linearer
Operator auf V . Einen injektiven Endomorphismus nennt man auch Monomorphismus. Ein surjektiver Monomorphismus ist ein Isomorphimus.
3.35. Definition: Wenn V und W Vektorräume über K sind, so definieren
wir L(V, W ) als die Menge aller linearen Abbildungen von V nach W .
L(V, W ) := {φ : V → W : φ linear}.
Da man auf W eine Vektorraumstruktur hat, kann man lineare Abbildungen
punktweise addieren und multiplizieren. Also
(φ1 + φ2 )(x) = φ1 (x) + φ2 (x)
(λφ)(x) = λφ(x)
für alle φ, φ1 , φ2 ∈ L(V, W ) und λ ∈ K.
3.36 Aufgabe: Zeigen Sie, dass L(V, W ) mit diesen Operationen ein Vektorraum
über K wird.
3.37. Bemerkung: Zwei Elemente in L(V, V ) kann man darüber hinaus multiplizieren, indem man die Abbildungen hintereinander ausführt. Aufgrund der
Rechengesetze aus der folgenden Aufgabe wird L(V, V ) mit diesen Operationen
eine assoziative Algebra über K.
3.38 Aufgabe: Zeigen Sie
(λφ1 ) ◦ φ2 = φ1 ◦ (λφ2 ) = λ(φ1 ◦ φ2 )
für alle λ ∈ K, φ1 , φ2 ∈ L(V, V ).
3.39 Aufgabe: Zeigen Sie
φ1 ◦ (φ2 + φ3 ) = φ1 ◦ φ2 + φ1 ◦ φ3
(φ1 + φ2 ) ◦ φ3 = φ1 ◦ φ3 + φ2 ◦ φ3
für alle φ1 , φ2 , φ3 ∈ L(V, V ).
3.40 Aufgabe: Man gebe Endomorphismen φ ∈ L(K 2 , K 2 ) an, so dass gilt
φ1 ◦ φ2 6= φ2 ◦ φ1 .
3.1. LINEARE ABBILDUNGEN
101
K sei dabei ein beliebiger Körper. Man gebe zwei andere, von einander verschiedene
Endomorphismen an, so dass gilt
φ1 ◦ φ2 = φ2 ◦ φ1 .
3.41. Bemerkung: Die Multiplikation ”‘◦”’ auf dem Raum der Isomorphismen
von V auf sich selbst ist also nicht kommutativ. Sie erfüllt aber dennoch die
übrigen Gruppenaxiome. Es gilt also
φ1 ◦ (φ2 ◦ φ3 ) = (φ1 ◦ φ2 ) ◦ φ3
φ ◦ id = φ
φ ◦ φ−1 = id
für alle Isomorphismen φ, φ1 , φ2 , φ3 von V auf sich selbst. Man spricht von der
Gruppe der Ismorphismen von V auf sich selbst.
3.1.3
Matrizen
3.42. Definition: Sei K ein Körper. Ein Rechteckschema der Form


a1,1 . . . a1,n

.. 
A :=  ...
. 
am,1
...
am,n
mit ai,j ∈ K für i = 1, . . . , m, j = 1, . . . , n bezeichnet man als m × n-Matrix
über dem Körper K. Die Matrix besteht also aus n Spalten a1 , . . . , an , die als
Vektoren im K m gedeutet werden können. Wir schreiben deswegen auch
A = (a1 , . . . , an ).
Wir schreiben auch


ã1
 
A =  ...  ,
ãm
wobei ã1 , . . . , ãm ∈ Kn die Zeilen von A bezeichnen. Die Einträge ai,j nennt
man Koeffizienten der Matrix. Die Menge aller m × n-Matrizen bezeichnen
wir mit K m×n . Bisweilen schreibt man
A = (ai,j ) 1≤i≤m ,
1≤j≤n
insbsondere für quadratische Matrizen
A = (ai,j )1≤i,j≤m .
3.43. Bemerkung: Mengentheoretisch ist eine Matrix A eine Abbildung
a : {1, . . . , m} × {1, . . . , n} → K,
(i, j) 7→ ai,j .
102
KAPITEL 3. LINEARE ABBILDUNGEN
Die Unterscheidung von Zeilen und Spalten dient aber der Veranschaulichung.
3.44. Bemerkung: Gelegentlich werden wir hier auch Matrizen über anderen Mengen betrachten, also mit Koeffizienten in einer Menge M . Da wir aber
mit Matrizen rechnen wollen, sollte auf M wenigstens eine Addition und eine
Multiplikation definiert sein.
3.45. Definition: Das Produkt einer Matrix A ∈ K m×n und eines Vektors
x ∈ K n ist definiert als

  


a1,1 . . . a1,n
x1
a1,1 x1 + . . . + a1,n xn


..  ·  ..  := 
..
A · x =  ...

.
.   . 
.
am,1
...
am,n
xn
an,1 x1 + . . . + am,n xn
Wir schreiben Ax = A · x. Wenn y = Ax ist, so ergibt sich der i-te Koeffizient
von y als
n
X
yi =
ai,j xj
für alle i = 1, . . . , m
j=0
3.46. Bemerkung: Man beachte, dass das Produkt nur definiert ist, wenn die
Spaltenzahl von A und die Zeilenzahl von x übereinstimmen.
3.47. Bemerkung: Seien a1 , . . . , an die Spalten von A und x ∈ K n , sowie
y = Ax. Dann gilt


a1,1 x1 + . . . + a1,n xn
n

 X
..
y = Ax = 
=
xi ai .

.
am,1 x1 + . . . + am,n xn
i=0
Ax ist also eine Linearkombination der Spalten von A.
Produkte von Matrizen mit Vektoren, sowie die später definierten Produkte
von Matrizen sind nützlich, weil sich lineare Abbildungen mit Matrixprodukten
komfortabel schreiben lassen.
3.48 Satz: Jede lineare Abbildung φ : K n → K m lässt sich in der Form
φ(x) = Ax
schreiben. Dabei ist A ∈ K m×n durch φ eindeutig bestimmt, und die Spalten von
A enthalten die Bilder der Einheitsvektoren e1 , . . . , en ∈ K n , also
A = (φ(e1 ), . . . , φ(en )).
Beweis: Wenn die Spalten von A die Bilder der Einheitsvektoren enthalten,
so gilt
 


x1
n
n
X
X
 
φ  ...  = φ 
xj ej  =
xj φ(ej ) = Ax.
j=1
j=1
xn
3.1. LINEARE ABBILDUNGEN
103
Wenn umgekehrt φ(x) = Ax ist und a1 , . . . , an die Spalten von A sind, so rechnet
man nach, dass
φ(ej ) = Aej = aj
2
für j = 1, . . . , n sein muss.
3.49. Definition: Wir definieren für eine Matrix A ∈ K m×n die Abbildung
φA : K n → K m
φA (x) = Ax.
Wie haben gerade bewiesen, dass sich jede Abbildung φ : K n → K m als
φ = φA schreiben lässt, und dass A dabei eindeutig bestimmt ist. Das heißt
φA = φB ⇔ A = B.
Das Studium von linearen Abbildung zwischen endlich dimensionalen Vektorräumen ist damit gleichbedeutend mit dem Studium von Matrizen. Man nennt
A die darstellende Matrix von φA .
Zu jeder linearen Abbildung von K n nach K m gehört eine eindeutig bestimmte darstellende Matrix in K m×n und
umgekehrt.
3.50. Beispiel: Die im Beispiel 3.6 angegebene Abbildung
0.9
0.4
φ(e1 ) = w1 =
, φ(e2 ) = w2 =
−0.2
0.5
schreibt sich in Matrixdarstellung als
x
0.9
φ 1 =
x2
−0.2
0.4
x1
·
0.5
x2
3.51. Beispiel: Das in Aufgabe 3.27 angegebene Funktional
 
x1
 .. 
φ  .  = x1 + . . . xn
xn
lässt sich in Matrixschreibweise als
 
x1
 .. 
φ .  = 1

···

x1
 
1 ·  ... 
xn
xn
schreiben. Die Matrix hat hier nur eine Zeile.
3.52. Beispiel: Die Nullabbildung schreibt sich mit einer Matrix, die nur 0
enthält.
3.53. Beispiel: Zwei Produkte P1 und P2 bestehen aus je drei Komponenten
K1 , K2 und K3 in den Zusammensetzungen
P1 besteht aus
P2 besteht aus
K1
3
1
K2
1
1
K3
0
1
104
KAPITEL 3. LINEARE ABBILDUNGEN
Wenn die entsprechenden Mengen mit Kleinbuchstaben bezeichnet werden, so
gilt die Beziehung
  

k1
3 1
k2  = 1 1 · p1 .
p2
k3
0 1
3.54. Beispiel: Die identische Abbildung id : K n → K n schreibt sich in der
Form


1
0


..
x = id(x) = 
 · x.
.
0
1
Die Matrix hat 1 als Diagonalelemente und ist 0 überall sonst.
3.55. Definition: Die Matrix In mit Spalten e1 , . . . , en heißt Einheitsmatrix
(engl.: identity matrix). φIn ist also die Identität id : K n → K n .
3.56. Definition: Da sich Matrizen und lineare Abbildungen entsprechen,
schreiben wir
Bild A = Bild φA , Kern A = Kern φA
3.57 Satz: Sei A ∈ K m×n mit den Spalten
A = (a1 , . . . , an ).
Dann gilt
Bild A = span {a1 , . . . , an }
3.58 Aufgabe: Beweisen Sie diesen Satz.
Wir werden nun das Produkt von Matrizen A, B so definieren, dass
φAB = φA ◦ φB
gilt.
Dem Produkt von Matrizen entspricht die Hintereinanderausführung von linearen Abbildungen.
3.59. Definition: Sei A ∈ K m×n , B ∈ K n×k . Bezeichnen dann b1 , . . . , bk
die Spalten von B, so definieren wir das Produkt als Matrix mit den Spalten
Ab1 , . . . , Abk
A · B := (Ab1 , . . . , Abk )
Wir schreiben wieder AB = A · B.
3.60. Bemerkung: Es gilt also AB ∈ K m×k und für die Koeffizienten der
Matrix C = AB gilt
n
X
ci,j =
ai,ν bν,j ,
ν=1
3.1. LINEARE ABBILDUNGEN
105
für i = 1, . . . , m, j = 1, . . . , k. Denn ci,j ist die i-te Komponente des Vektors
Abj und



c1,j
a1,1
 .. 
 ..
 .  = Abj =  .
cm,j
am,1
...
...


 

a1,1 b1,j + . . . + a1,n bn,j
a1,n
b1,j



..  ·  ..  = 


..
.   .  

.
am,n
bn,j
am,1 b1,j + . . . + am,n bn,j
für j = 1, . . . , k. Es gilt also

···
ci,j = ai,1

b1,j


ai,n ·  ...  .
bn,j
Sei C = AB. Dann entsteht ci,j durch Multiplikation der
i-ten Zeile von A mit der j-ten Spalte von B.
Man kann die Matrizen-Multiplikation mit folgendem Schema organisieren
..
.
···
b1,j
..
.
···
···
bn,j
···
→
↓
ci,j
..
.
···
ai,1
..
.
ai,n
..
.
Zur dieser Rechnung benötigt man mnk Multiplikationen und m(n − 1)k Additionen.
3.61. Beispiel:
1
3
2
1
·
4
3
2
7
=
4
15
10
.
22
3.62 Satz: A ∈ K m×n , B ∈ K n×k . Dann gilt
φAB = φA ◦ φB .
Die Matrix der Verkettung der linearen Abbildung ist also die Produktmatrix.
Dem Produkt von Matrizen entspricht die Hintereinanderausführung der zugehörigen linearen Abbildungen.
Beweis: Nach Satz 3.28 ist
φ A ◦ φB : K k → K m
106
KAPITEL 3. LINEARE ABBILDUNGEN
linear. Nach Satz 3.48 enthält die darstellende Matrix C dieser Abbildung die
Bilder der Einheitsvektoren in den Spalten, also
C = (φA (φB (e1 ), . . . , φA (φB (ek )))
= (φA (b1 ), . . . , φA (bk ))
= (Ab1 , . . . , Abk )
= AB
nach der Definition der Matrizen-Multiplikation. Dabei seien b1 , . . . , bk die Spalten von B.
2
3.63 Satz: Sei
A ∈ K n×m ,
B ∈ K m×k ,
C ∈ K k×l .
Dann gilt
(A · B) · C = A · (B · C).
Beweis: Für die zugehörige lineare Abbildung
φA ◦ φB ◦ φ C
gilt das Assoziativgesetz nach Aufgabe 1.96. Also
φ(AB)C = φAB ◦ φC
= (φA ◦ φB ) ◦ φC
= φA ◦ (φB ◦ φC )
= φA ◦ (φBC )
= φA(BC) .
Aus der Eindeutigkeit der Matrixdarstellung von linearen Abbildungen folgt die
2
Behauptung.
3.64. Bemerkung: Das Assoziativgesetz für die Matrizen-Multplikation kann
man auch direkt nachrechnen. Man erhält für die Koeffizienten von D = (AB)C
!
k
m
X
X
di,j =
ai,µ bµ,ν cν,j
ν=1
µ=1
und für die Koeffizienten von D = A(BC)
di,j =
m
X
ai,µ
µ=1
k
X
!
bµ,ν cν,j
.
ν=1
Beide Doppelsummen sind jedoch gleich und können als
X
di,j =
ai,µ bµ,ν cν,j
ν=1,...,k
µ=1,...,m
3.1. LINEARE ABBILDUNGEN
107
gedeutet werden. Das heißt, die Summe ist über alle möglichen µ, ν zu nehmen,
die in diesen Zahlbereichen liegen.
3.65. Bemerkung: Wir können auch die Multiplikation einer Matrix mit einem
Vektor als Matrizen-Multiplikation auffassen, indem wir den Vektor x ∈ K k als
Matrix x ∈ K k×1 interpretieren. Es gilt dann nach dem obigen Satz
φAB (x) = (AB)x = A(Bx) = φA (φB (x))
für alle x ∈ K k .
Also erhalten wir nochmals
φAB = φA ◦ φB .
3.66. Beispiel: Wir setzen Beispiel 3.53 fort. Verpackt man P1 und P2 in zwei
Versionen V1 und V2 mit
V1 enthält
V2 enthält
P1
2
1
P2
2
3
so gilt für die Mengen
p1
2
=
p2
2
1
v
· 1 .
3
v2
Also insgesamt

  
k1
3 1
k2  = 1 1 · 2 1 · v1
2 3
v2
0 1
k3


8 6
v
= 4 4 · 1
v2
2 3
Damit kann man also berechnen, welche Mengen der Komponenten K1 , K2 und
K3 man benötigt, wenn man eine gewünschte Anzahl von Packungen V1 und V2
herstellen will.
3.67. Definition: Eine Matrix A ∈ K n×n nennt man quadratische Matrix.
Dann ist also φA : K n → K n ein Endomorphismus. Eine quadratische Matrix
heißt invertierbare Matrix, wenn es eine Matrix A−1 gibt, für die gilt
A · A−1 = In .
Man nennt eine solche Matrix auch reguläre Matrix.
Wie wir im folgenden Satz sehen werden, folgt aus AA−1 = In automatisch
A A = In . Für Abbildungen ist dies gemäß Aufgabe 1.85 nicht analog der Fall.
−1
3.68 Satz: Eine quadratische Matrix A ist genau dann invertierbar, wenn die
Abbildung φA invertierbar ist. In diesem Fall gilt
φA−1 = φ−1
A .
Außerdem gilt
A · A−1 = A−1 · A = In .
108
KAPITEL 3. LINEARE ABBILDUNGEN
Beweis: Sei A invertierbar, also AA−1 = In . Dann folgt aus Satz 3.62
φA ◦ φA−1 = φIn = id.
Deswegen muss φA surjektiv sein. Nach Satz 3.22 ist φA damit bijektiv. Daher
muss
φ−1
A = φA−1
sein. Außerdem gilt
id = φ−1
A ◦ φA = φA−1 ◦ φA .
Wieder nach Satz 3.62 folgt
In = A−1 A.
Wenn umgekehrt φA invertierbar ist, und B die darstellende Matrix von φ−1
A ,
dann gilt
φAB = id = φBA ,
2
also AB = In = BA. A ist also tatsächlich invertierbar.
3.69. Bemerkung: Wir haben in diesem Satz gezeigt, dass aus AB = In folgt,
dass A und B invertierbar sind, und dass BA = In gilt.
3.1.4
Matrizenrechnung
Neben dem Produkt von Matrizen führen wir hier noch weitere nützliche Rechenoperationen ein.
3.70. Definition: Die Summe von gleichgroßen Matrizen A ∈ K m×n , B ∈
K m×n ist elementweise definiert. Also


 
b1,1 . . . b1,n
a1,1 . . . a1,n
 ..
.. 
..  +  ..
 .
. 
.   .
am,1
...
am,n
bm,1
...
bm,n

a1,1 + b1,1

..
=
.
am,1 + bm,1
...
...

a1,n + b1,n

..
.
.
am,n + bm,n
Das Produkt eines λ ∈ K mit einer Matrix A ∈ K m×n ist ebenfalls elementweise
definiert. Also


 
a1,1 . . . a1,n
λa1,1 . . . λa1,m

..  =  ..
..  .
λ  ...
.   .
. 
am,1 . . . am,n
λam,1 . . . λam,n
3.71 Aufgabe: Zeigen Sie, dass der Raum der Matrizen K m×n mit diesen Operationen zu einem Vektorraum über K wird. Zeigen Sie, dass dieser Vektorraum isomorph
zum Vektorraum K mn ist.
3.72 Satz:
A(B + C) = AB + AC
für alle A ∈ K m×n , B, C ∈ K n×k
(A + B)C = AC + BC
für alle A, B ∈ K m×n , C ∈ K n×k
3.1. LINEARE ABBILDUNGEN
109
3.73 Aufgabe: Beweisen Sie diese Distributivgesetze.
3.74. Bemerkung: Es gilt im Allgemeinen für Matrizen A, B ∈ K n×n
AB 6= BA.
Wir haben aber auch schon festgestellt, dass manche Matrizen miteinander kommutieren, wie zum Beispiel
AA−1 = A−1 A = In .
3.75. Definition: Sei A ∈ K n×n . Dann definieren wir
An = A
. . · A} .
| · .{z
n mal
Also, induktiv
A1 = A,
An+1 = An · A.
Außerdem
A0 = I n .
Für invertierbare Matrizen definieren wir außerdem
A−n = (A−1 )n .
3.76 Satz:
Sei A ∈ K n×n . Dann gilt
An Am = An+m = Am An
für alle n, m ∈ N0 .
Falls A invertierbar ist, so gilt auch
An Am = An+m = Am An
für alle n, m ∈ Z.
Beweis: Dieser Satz ist aufgrund der Definitionen einleuchtend und kann
durch elementare Überlegungen bewiesen werden. Es gilt zum Beispiel
. . · A} = |A · .{z
. . · A} = An+m .
An Am = A
. . · A} |A · .{z
| · .{z
n mal
m mal
n + m mal
Etwas schwieriger ist n, m ∈ Z. Man muss hier verschiedene Fälle unterscheiden.
Wir beschränken uns auf den Fall n > 0, m < 0.
An Am = |A · .{z
. . · A} |A−1 · .{z
. . · A−1} .
n mal
|m| mal
Nun heben sich |m| der A−1 gegen genauso viele A auf und es bleiben n − |m| =
n + m Faktoren A über. Es folgt die Behauptung.
110
KAPITEL 3. LINEARE ABBILDUNGEN
Für einen exakteren Beweis sollte man jedoch vollständige Induktion verwenden. Für n, m ∈ N ist das auch nicht schwer. Wir verwenden Induktion nach
m. Für m = 1 gilt
An A1 = An A = An+1
gemäß der induktiven Definition von An . Die Behauptung gelte für m. Dann
gilt
An Am+1 = An (Am A) = (An Am )A = An+m A = An+m+1
nach Definition von Am , Satz 3.63 und der Induktionsannahme.
2
3.77 Aufgabe: Sie A ∈ R2×2 mit
1
A=
3
2
.
4
Berechnen Sie mit lediglich 3 Matrizen-Multiplikationen die Matrix A8 . Wie viele
Matrizen-Multiplikationen benötigt man für die Matrix A7 ? Können Sie einen Algorithmus angeben, der An für alle n ∈ N mit möglichst wenigen Matrizen-Multiplikationen berechnet?
3.78 Satz:
Wenn A invertierbar ist, so ist auch A−1 invertierbar und es gilt
A−1
−1
= A.
2
Beweis: Der Satz folgt unmittelbar aus Satz 3.68.
3.79. Definition: Sei A ∈ K m×n . Dann ist die transponierte Matrix AT ∈
K n×m die Matrix

T 

a1,1 . . . a1,n
a1,1 . . . am,1
 ..
..  =  ..
.. 
 .
 .
. 
. 
am,1
...
am,n
a1,n
...
am,n
Das heißt, für die Matrix B = AT gilt
bi,j = aj,i
für alle i = 1, . . . , n, j = 1, . . . , m.
Transponierte Matrizen werden später im Zusammenhang mit Skalarprodukten sehr wichtig.
3.80 Satz: Es gelten folgende Rechenregeln.
(1)
AT
T
=A
(A + B)T = AT + B T
(λA)T = λAT
für alle A, B ∈ K m×n , λ ∈ K.
3.1. LINEARE ABBILDUNGEN
111
(2) Außerdem
(AB)T = B T AT
für alle A ∈ K m×n , B ∈ K n×k .
(3) Für invertierbare Matrizen A ∈ K n×n ist AT invertierbar, und es gilt
AT
−1
= A−1
T
.
Beweis: (1) ist eine Übungsaufgabe.
(2) Sei C = AB. Dann gilt
ci,j =
k
X
ai,ν bν,j
für alle i = 1, . . . , m, j = 1, . . . , n
ν=1
Wenn c̃i,j die Koeffizienten von B T AT sind, ãi,j die Koeffizienten von AT und
b̃i,j die Koeffizienten von B T , dann gilt also
cj,i =
k
X
b̃i,ν ãν,j = c̃i,j
ν=1
für i = 1, . . . , k, j = 1, . . . , m. Es folgt (AB)T = B T AT .
(3) Wegen (2)
AT (A−1 )T = (A−1 A)T = InT = In .
Es folgt
(AT )−1 = (A−1 )T .
2
Wir definieren natürlich xT für x ∈ K n als Zeilenvektor mit denselben Koeffizienten wie x, also
 T
x1
 .. 
 .  = x1 · · · xn .
xn
Dies entspricht der Philosophie, K n = K n×1 zu setzen. Man beachte xT = x
für alle x ∈ K = K 1 .
3.81 Aufgabe: Sei A ∈ K n×n und x ∈ K 1 . Zeigen Sie
xT Ax ∈ K = K 1 .
Berechnen Sie xT Ax. Zeigen Sie
xT Ax = xT AT x.
112
3.2
3.2.1
KAPITEL 3. LINEARE ABBILDUNGEN
Gleichungssysteme
Gaußscher Algorithmus
3.82. Definition: Ein lineares Gleichungssystem ist ein System von n
linearen Gleichungen mit Unbekannten x1 , . . . , xn der Form
a1,1 x1 + . . . + a1,n xn = b1 ,
..
.
am,1 x1 + . . . + am,n xn = bm .
In Matrixschreibweise also
Ax = b
m×n
m
mit A ∈ K
und b ∈ K . Gesucht ist x ∈ K n . Die Lösungsmenge des
linearen Gleichungssystems ist
L := {x ∈ K n : Ax = b}.
3.83. Bemerkung: Offenbar ist für die Lösungsmenge nach Satz 3.14 ein affiner
Unterraum
L = φ−1
A {b} = v0 + Kern φA
oder leer. Es genügt also, eine spezielle Lösung x0 mit
Av0 = b
zu bestimmen und alle Lösungen von
Av = 0
zu addieren. Ein Gleichungssystem heißt homogenens Gleichungssystem,
wenn die rechte Seite b = 0 ist. Ax = 0 nennt man das zugehörige homogene
Gleichungssystem.
Die Lösungsmenge eines linearen Gleichungssystems ist leer
oder die Summe einer speziellen Lösung und aller Lösungen
des zugehörigen homogenen Gleichungssystems.
Der Gauß-Algorithmus ist nun ein Verfahren, die Lösungsmenge L des
Gleichungssystems in parametrisierter Form anzugeben. Eine Parametrisierung von L ist etwa
L = {v0 +
k
X
λi vi : λ1 , . . . , λk ∈ K},
i=1
mit festen v0 , v1 , . . . , vk ∈ K n . Die Zahlen λ1 , . . . , λk sind dann die Parameter
der Lösungen.
3.2. GLEICHUNGSSYSTEME
113
Da der Lösungsraum L eines linearen Gleichungssystems ein affiner Unterraum von K n ist, lässt sich L immer auf diese Art schreiben. Der GaußAlgorithmus erreicht außerdem, dass
v1 , . . . , v k
eine Basis des Unterraums L − v0 ist. Dies ist äquivalent dazu, dass die Parameterzahl k minimal ist. Denn jede Basis ist ein minimales Erzeugendensystem
nach Satz 2.68.
Wir beginnen den Gauß-Algorithmus damit, dass wir das lineare Gleichungssystem Ax = b in ein Schema
a1,1
..
.
...
am,1
...
a1,n
..
.
b1
..
.
am,n
bm
(3.2)
schreiben.
3.84. Definition: Eine zulässige Zeilenoperation ist eine der folgenden
Operationen in den m Zeilen des Schemas (3.2).
(1) Multiplikation einer Zeile mit einem λ ∈ K, λ 6= 0.
(2) Vertauschung von zwei Zeilen.
(3) Addition des λ-fachen einer Zeilen zu einer anderen Zeile mit beliebigem
λ ∈ K.
3.85 Satz: Zulässige Zeilenoperationen ändern die Lösungsmenge des linearen
Gleichungssystem nicht.
3.86 Aufgabe: Beweisen Sie diesen Satz, indem Sie zeigen, dass jede Lösung x vor
vor einer zulässigen Zeilenoperation auch Lösung danach ist, und indem Sie zusätzlich
zeigen, dass zulässige Zeilenoperationen mit zulässigen Zeilenoperationen rückgängig
gemacht werden können.
Ziel des Algorithmus ist, eine Zeilenstufenform zu erreichen. Wir werden
sehen, dass man dann die Lösungsmenge in parametrisierter Form ablesen kann.
3.87. Definition:
Form hat
0
0
0
..
.
Das Schema (3.2) hat Zeilenstufenform, wenn es folgende
···
···
···
0
0
0
1 ∗
0 0
0 0
0 ∗
1 ∗
0 0
0
0
1
..
.
0
0
0
..
.
∗
∗
∗
0
..
.
···
∗
1 ∗
0
..
.
0
···
0
b̃1
b̃2
b̃3
..
.
b̃k
b̃k+1
..
.
b̃m
Die Sterne ”‘∗”’ stehen hier für eine beliebige Anzahl von Spalten.
114
KAPITEL 3. LINEARE ABBILDUNGEN
Die wesentliche Eigenschaft der Zeilenstufenform ist, dass
es k Spalten gibt, in denen die Einheitsvektoren e1 , . . . , ek
stehen, und dass unterhalb der k-ten Zeile nur 0 steht.
Die Zeilenstufenform macht darüber hinaus weitere Einschränkungen über
die Spalten, in denen keine Einheitsvektoren stehen. Diese Einschränkungen
sind aber für die Lösung nicht notwendig.
3.88 Satz: Man kann jedes Schema durch zulässige Zeilenoperationen auf
Zeilenstufenform bringen.
Beweis: Der Beweis wird mit Induktion nach n, der Anzahl der Spalten des
Schemas (auf der linken Seite von ”‘|”’) geführt.
Für n = 1 gibt es zwei Fälle. Wenn die Spalte nur 0 enthält so sind wir fertig.
In diesem Fall ist dann k = 0. Ansonsten kann man zwei Zeilen vertauschen,
so dass der erste Koeffizient verschieden von 0 ist. Durch eine Operation vom
Typ (1) kann dieser Koeffizient zu 1 gemacht werden. Durch Operationen vom
Typ (3) verschwinden die anderen Koeffizienten. In diesem Fall ist k = 1.
Ansonsten können wir per Induktion die ersten n−1 Spalten auf Zeilenstufenform bringen. Der letzte auftretende Einheitsvektor sei el . Wenn nun unterhalb
der l-ten Zeile nur 0 steht, so sind wir fertig. In diesem Fall ist k = l. Ansonsten
kann mit Hilfe von zulässigen Zeilenoperationen erreicht werden, dass in der
letzten Spalte el+1 steht, ohne die vorigen Spalten zu ändern. In diesem Fall ist
2
k = l + 1.
Bevor wir jetzt allgemein angeben, wie man aus der Zeilenstufenform die
Lösung abliest, hier einige Beispiele.
3.89. Beispiel: Wir lösen das Gleichungssystem
x + y = 3,
x − y = 1.
Also
1
1
1
x
3
·
=
.
−1
y
1
Das Schema lautet
x
y
1
1
1
−1
3
1
Zur Erinnerung haben wir hier die Variablennamen über die Spalten geschrieben. Subtraktion der ersten von der zweiten Spalte ergibt
1
0
1
−2
3
−2
Division der zweiten Zeile durch −2 und Subtraktion von der ersten ergibt
schließlich
x
y
1
0
0
1
2
1
3.2. GLEICHUNGSSYSTEME
115
Dies ist eine Zeilenstufenform mit zwei Einheitsvektoren (k = 2) ohne ”‘∗”’.
Dieses äquivalente System liest sich als
x=2
y=1
Das ist die eindeutig bestimmte Lösung. Man prüft die Lösung durch Einsetzen
nach.
3.90. Beispiel: Wir wollen das reelle System
x
4x
7x
+
+
+
2y
5y
8y
+
+
+
3z
6z
9z
=
=
=
6
15
24
lösen. Das Gauß-Schema ist
1 2 3
4 5 6
7 8 9
Abziehen des 4-fachen der ersten von
zur dritten ergibt.
1 2
0 −3
0 −6
6
15
24
der zweiten und des 7-fachen der ersten
3
−6
−12
6
−9
−18
Nun dividieren wir die zweite Zeile durch −3, ziehen das 2-fache von der zweiten
von der ersten ab, und addieren das 6-fache der zweiten zur dritten. Wir erhalten
1
0
0
0
1
0
−1
2
0
0
3
0
Dies ist schon eine Zeilenstufenform mit k = 2. Die Einheitsvektoren e1 , e2
stehen in den ersten beiden Spalten. Wir schreiben nun dieses System in der
folgenden Art und Weise.
x = z,
y = 3 − 2z,
indem wir die Variable z auf die rechte Seite bringen. Offenbar sind nun x, y
durch z festgelegt und es gilt


z
L = {3 − 2z  : z ∈ R}
z
 
 
0
1
= {3 + λ −2 : λ ∈ R}.
0
1
Dabei haben wir λ = z umbenannt. Dies ist die gesuchte parametrisierte Darstellung von L. L ist eine Gerade im R3
3.91. Beispiel: Gegeben sei das Gleichungssystem mit der einen Gleichung
x+y+z =1
116
KAPITEL 3. LINEARE ABBILDUNGEN
mit drei Unbekannten. Das Gauß-Schema
1
1
1
1
ist schon in Zeilenstufenform. Es ist k = 1 und e1 taucht in der ersten Spalte
auf. Wir bringen y, z auf die andere Seite und erhalten


1−y−z
 : y, z ∈ R}
y
L = {
z
 
 
 
1
−1
−1
= {0 + λ1  1  + λ2  0  : λ1 , λ2 ∈ R}.
0
0
1
Dabei haben wir λ1 = y, λ2 = z umbenannt. Dies ist ein affiner Unterraum der
Dimension 2, also eine Ebene im R3 .
Wir können alternativ die spezielle Lösung sofort ablesen, indem wir y =
z = 0 setzen. Es ergibt sich x = 1 und damit die spezielle Lösung
 
1
v0 = 0 .
0
Danach berechnen wir eine Basis des homogenen Lösungsraums, indem wir die
rechte Seite gleich 0 setzen. Der erste Basisvektor ergibt sich mit y = 1 und
z = 0. Daraus folgt x = −1, also
 
−1
v1 =  1  .
0
Der zweite Basisvektor ergibt sich mit y = 0 und z = 1. Also
 
−1
v2 =  0  .
1
Da x mit durch die Wahl von y, z festgelegt ist, können wir damit alle Lösungen
des homogenen Systems erreichen.
3.92. Bemerkung: Sei ein Schema in Zeilenstufenform gegeben. Die Einheitsvektoren e1 , . . . , ek sollen in Spalten mit Indizes
J = {j1 , . . . , jk }
auftauchen, wobei
1 ≤ j1 < . . . < jk ≤ n
sei. Die anderen Spalten sollen Indizes aus einer Menge I haben. Nach Konstruktion haben diese Spalten keine Koeffizienten ungleich 0 unterhalb der k-ten Zeile,
sind also in
span {e1 , . . . , ek }.
3.2. GLEICHUNGSSYSTEME
117
Die rechte Seite sei b̃.
(1) Wenn dann nicht
b̃k+1 = . . . = b̃m = 0
ist, so hat das Gleichungssystem offenbar keine Lösung.
(2) Andernfalls finden wir eine spezielle Lösung, indem wir die Variablen in den
Spalten I gleich 0 setzen. Die anderen Variablen lassen sich mit
xj1 = b̃1 , . . . , xjk = b̃k
ablesen.
(3) Außerdem finden wir eine Basis des Lösungsraums des homogenen Systems,
indem wir die rechte Seite 0 setzen, und dann jede Variable in I gleich 1, die
anderen gleich 0. Es ergeben sich n − k linear unabhängige Vektoren, die das
homogene Gleichungssystem lösen.
Wir fassen noch einmal unsere Erkenntnisse in einem Satz zusammen.
3.93 Satz:
Das lineare Gleichungssystem
Ax = b,
A ∈ K m×n ,
b ∈ K n,
werde durch zulässige Zeilenoperationen in das äquivalente System
Ãx = b̃
überführt, wobei die Matrix à in k Spalten die Einheitsvektoren
e1 , . . . , e k ∈ K m
enthalte und in den anderen Spalten Vektoren aus
span {e1 , . . . , ek }.
Wenn dann
b̃ ∈ span {e1 , . . . , ek }
ist, so hat das Gleichungssystem einen (n−k)-dimensionalen affinen Unterraum
von K n als Lösungsmenge L.
Wenn
b̃ ∈
/ span {e1 , . . . , ek }
ist, dann hat Ax = b keine Lösung.
Beweis: Das homogene Gleichungssystem Ax = 0 wird durch dieselben Zeilenoperationen in das System Ãx = 0 überführt.
Es ist offensichtlich, dass jede Lösung durch die Werte in den Spalten, die
keine Einheitsvektoren sind, festgelegt ist. Setzt man die Variablen in diesen
Spalten einzeln gleich 1, die anderen gleich 0, so erhält man n − k linear unabhängige Vektoren, die eine Basis von Kern (A) bilden.
Eine spezielle Lösung erhält man, indem man alle diese Variablen gleich 0
setzt.
118
KAPITEL 3. LINEARE ABBILDUNGEN
Nach Satz 3.14 ist der Lösungsraum L von Ax = b also ein affiner Unterraum
2
von K m der Dimension n − k.
3.94 Aufgabe: Überlegen Sie sich, dass die n − k gewonnen Lösungen von Ax = 0
tatsächlich linear unabhängig sind.
3.95. Bemerkung: Man macht die Probe, indem man die spezielle Lösung und
die Basis des Kerns in Ax einsetzt.
3.96. Bemerkung: Wenn à nur aus den Einheitsvektoren e1 , . . . , en besteht,
so ist die Lösung von Ax = b eindeutig und gleich
 
b̃1
 .. 
 . .
b̃n
3.97. Bemerkung: Es lassen sich offenbar auf dieselbe Art auch n + 1 spezielle
Lösungen von Ax = b finden, die den affinen Lösungsraum nach Satz 2.98
aufspannen. Im Beispiel
x+y+z =1
erhalten wir die drei Punkte durch
y = z = 0 ⇒ x = 1,
y = 1, z = 0 ⇒ x = 0,
y = 0, z = 1 ⇒ x = 0.
Die Lösungsmenge ist also die Ebene durch die drei Einheitsvektoren e1 , e2 , e3 ∈
R3 .
3.98 Aufgabe: Berechnen Sie eine Basis

1
A = 4
7
des Kerns von

2 1
5 1 .
8 1
3.99 Aufgabe: Für welche c ∈ R ist das Gleichungssystem

    
2
1
1
x
1
1
2
1 · y  = −1
1 −1 0
z
c
lösbar und wie lautet dann die Lösung?
3.100 Aufgabe: Für welche a ∈ R

a 1
1 a
1 1
ist das Gleichungssystem
    
1
x
1
1 · y  = 1
a
z
1
lösbar und wie lautet dann die Lösung?
3.2. GLEICHUNGSSYSTEME
3.2.2
119
Berechnung von Basen
Nach Satz 2.65 kann man aus den Spalten einer Matrix A linear unabhängige
Spalten auswählen. Wie findet man diese Spalten?
3.101 Satz: Sei die Zeilenstufenform à aus A ∈ K m×n durch zulässige Zeilenoperationen entstanden. à enthalte die Einheitsvektoren e1 , . . . , ek in den
Spalten j1 , . . . , jk . Dann bilden die Spalten
aj1 , . . . , ajk
von A eine Basis des von den Spalten erzeugten Unterraums von A, also nach
Satz 3.57 von Bild A.
Beweis: Offenbar gilt
span {aj1 , . . . , ajk } ⊆ Bild A.
Sei umgekehrt b ∈ Bild A, also Ax = b lösbar. Das Schema A|b gehe durch die
Zeilenoperationen in Ã|b̃ über. Wir können also das Gleichungssystem Ãx = b̃
durch einen Vektor x lösen, der nur in den Zeilen j1 , . . . , jk Elemente ungleich
0 hat, d.h.
x ∈ span {ej1 , . . . , ejn }.
Diese Lösung x erfüllt auch Ax = b. Es folgt
b ∈ span {aj1 , . . . , ajn }.
Wir haben noch die lineare Unabhängigkeit dieser Spalten zu zeigen. Angenommen eine Linearkombination dieser Spalten ist 0. Sei also Aλ = 0 für ein
λ ∈ K n , das nur Elemente ungleich 0 in den Zeilen j1 , . . . , jk enthält. Dann ist
auch Ãλ = 0, also
k
X
0 = Ãλ =
λji ei .
i=1
Es folgt λ = 0.
2
3.102 Aufgabe: Wählen Sie aus den Spalten von


1 2 3 1
A = 4 5 6 1
7 8 9 1
eine Basis von Bild A aus.
3.103 Satz: Sei die Zeilenstufenform à aus A durch zulässige Zeilenoperationen entstanden (mit k Einheitsvektoren). Dann enthalten die ersten k Zeilen
von à eine Basis des von den Zeilen von A erzeugten Unterraums von Kn .
Beweis: Es ist leicht zu sehen, dass die ersten k Zeilen von à linear unabhängig sind, wenn man diese Zeilen in den Spalten betrachtet, in denen die
Einheitsvektoren stehen.
120
KAPITEL 3. LINEARE ABBILDUNGEN
Wir müssen nun noch zeigen, dass zulässige Zeilenoperationen den von den
Zeilen erzeugten Unterraum nicht ändern. Dies ist aber für jede einzelne Ope2
ration leicht nachzuprüfen (Übungsaufgabe).
3.104 Aufgabe: Sei V ein Vektorraum über K: Zeigen Sie für v1 , . . . , vn ∈ V , λ ∈ K
span {v1 , v2 , . . . , vn } = span {v1 , v2 + λv1 , . . . , vn }.
3.105. Bemerkung: Wir können also eine Basis von
span {v1 , . . . , vn } ⊆ K m
auf zwei Arten ermitteln.
(1) Wir führen zulässige Zeilenoperationen an der Matrix
A = (v1 , . . . , vn ) ∈ K m×n
durch. Wenn j1 , . . . , jk die Spalten mit den Einheitsvektoren sind, so ist
vj1 , . . . , vjk
die gesuchte Basis.
(2) Wir führen zulässige Zeilenoperationen an der Matrix AT durch und erhalten in den ersten k Zeilen eine gesuchte Basis. Alternativ kann man dieselben
Operationen an den Spalten von A durchführen, und eine Spaltenstufenform
erreichen.
3.106 Aufgabe: Führen Sie Methode (2) durch, um eine Basis des von den Vektoren
 
 
 
 
1
2
3
1
4 , 5 , 6 , 1
7
8
9
1
aufgespannten Unterraums zu finden.
3.2.3
Rang
3.107. Definition: Als Spaltenrang einer Matrix A ∈ K m×n bezeichnen wir
die Dimension des von den Spalten von A aufgespannten Unterraums von K n .
Nach Satz 57 also
Spaltenrang A = dim Bild φA .
Als Zeilenrang bezeichnen wir den Spaltenrang von AT , also die Dimension
des von den Zeilen aufgespannten Unterraums des Km .
Der folgende Satz zeigt, dass der Zeilenrang immer gleich dem Spaltenrang
ist. Wir sprechen daher einfach vom Rang einer Matrix.
3.108 Satz: Der Zeilenrang einer Matrix A ∈ K m×n ist gleich dem Spaltenrang dieser Matrix.
3.2. GLEICHUNGSSYSTEME
121
Beweis: Sei A durch zulässige Zeilenumformungen in die Matrix à überführt,
die k Einheitsvektoren besitze. Nach Satz 3.101 ist k der Spaltenrang von A.
2
Nach Satz 3.103 ist k auch der Zeilenrang von A.
3.109 Satz:
Ein Gleichungssystem Ax = b ist genau dann lösbar, wenn
Rang (A|b) = Rang (A)
ist. Dabei sei A|b die Matrix, die aus den Spalten von A und b besteht.
Beweis: Offenbar ist die Bedingung äquivalent dazu, dass b linear abhängig
von den Spalten von A ist.
2
3.2.4
Berechnung der inversen Matrix
Der Gauß-Algorithmus kann auch simultan für mehrere rechte Seiten angewendet werden. Zur Lösung von
Av1 = b1 , . . . , Avk = bk
wenden wir zulässige Zeilenoperationen auf
A|b1 , . . . , bk
an, bis A in eine Zeilenstufenform à umgewandelt wird. Dann lassen sich spezielle Lösungen der Gleichungssysteme leicht ablesen.
3.110 Satz: Sei A ∈ K n×n . Dann ist A genau dann invertierbar, wenn sich
A durch zulässige Zeilenoperationen in In umformen lässt. Sei nun
(A|In ) → (In |B)
mit Hilfe von zulässigen Zeilenoperationen umgewandelt. Dann gilt B = A−1 .
Beweis: Wenn sich A in In umwandeln lässt, dann ist Rang (A) gleich n. Also
ist A invertierbar nach Satz 3.22. Wenn umgekehrt A invertierbar ist, dann ist
Rang (A) = n und daher k = n in der Zeilenstufenform.
Die Inverse ist die Matrix B mit AB = In . Sie löst also simultan die Gleichungssystem
Ab1 = e1 , . . . , Abn = en .
Die speziellen Lösungen b1 , . . . , bn dieser Gleichungssysteme lassen sich in der
Tat aus dem Schema (In |B) ablesen.
2
3.111 Aufgabe: Ermitteln Sie die inverse Matrix von


1 2 3
4 5 6 
7 8 8
122
KAPITEL 3. LINEARE ABBILDUNGEN
Führen Sie die Rechnung möglichst lange ohne Brüche durch!
3.112 Aufgabe: Für welche a ∈ R ist

1
0

0
0
die Matrix

1 1 1
1 1 1

0 1 1
0 0 a
invertierbar? Wie lautet in diesem Fall die inverse Matrix?
3.113 Aufgabe: Berechnen Sie die Inverse der Matrix


1
x 1



,

.
.
.
.


.
.
x 1
wobei alle nicht aufgeführten Elemente der Matrix gleich 0 seien.
3.114 Aufgabe: Sei A ∈ Rn×m ⊆ Cn×m . Dann ist der Rang von A als reelle Matrix
gleich dem Rang von A als komplexe Matrix.
3.2.5
Elementarmatrizen
Die zulässigen Zeilenoperationen des Gaußschen Algorithmus können als Matrizenmultiplikationen geschrieben werden. Dazu definieren wir eine Sammlung
von Elementarmatrizen.
3.115. Definition: (1) Wir definieren die Matrix Ri,j,n (λ) ∈ K n×n als die
Matrix, die in der Diagonalen 1 enthält und an der (i, j)-ten Komponenten λ,
sonst aber nur 0, also etwa


1 0 0
R2,1,3 (2) = 2 1 0 .
0 0 1
(2) Wir definieren als Pi,j,n ∈ K n×n die
und j vertauscht sind, also etwa

0
P1,2,3 = 1
0
Einheitsmatrix, bei der die Spalten i
1
0
0

0
0 .
1
(3) Wir definieren als Di,n (λ) ∈ K n×n als die Einheitsmatrix, bei der die 1 in
der i-ten Zeile und Spalte durch λ ersetzt ist, also etwa


1 0 0
D2,3 (4) = 0 4 0 .
0 0 1
3.116 Satz:
Sei A ∈ K m×n eine Matrix.
3.2. GLEICHUNGSSYSTEME
123
(1) Die Addition des λ-fachen der j-ten Zeile zur i-ten entspricht einer Multiplikation mit Ri,j,m (λ) von links. Die Addition des λ-fachen der j-ten Spalte
zur i-ten Spalte entspricht einer Multiplikation mit Rj,i,n (λ) von rechts.
(2) Die Vertauschung der i-ten und j-ten Zeile entspricht einer Multiplikation
mit Pi,j,m von links. Die Vertauschung der i-ten und j-ten Spalte entspricht eine
Multiplikation mir Pi,j,n von rechts.
(3) Die Multiplikation der i-ten Zeile mit λ entspricht eine Multiplikation mit
Di,m (λ) von links. Die Multiplikation der i-ten Spalte mit λ entspricht eine
Multiplikation mit Di,n x(λ) von rechts.
3.117 Aufgabe: Rechnen Sie diesen Satz nach. Für die Spaltenoperationen verwenden Sie
Ri,j,n (λ)T = Rj,i,n (λ),
T
Pi,j,n
= Pj,i,n ,
Di,n (λ)T = Di,n (λ).
3.118 Aufgabe: Zeigen Sie
Ri,j,n (λ)−1 = Ri,j,n (−λ),
sowie
−1
Pi,j,n
= Pi,j,n
und, für λ 6= 0
1
Di,n (λ)−1 = Di,n ( ).
λ
3.119. Bemerkung: Die Elementarmatrizen entsprechen also den zulässigen
Zeilenoperationen, wenn man Di,n (0) ausnimmt. Wir sprechen von zulässigen
Elementarmatrizen.
3.120. Bemerkung: Der Gauß-Algorithmus zur Invertierung von A kann also
folgendermaßen gedeutet werden. Man multipliziert sowohl A, also auch In von
links mit Elementarmatrizen, bis links die Einheitsmatrix entsteht. Wenn also
A|In in In |Ã überführt wird, so hat man
In = Ek · . . . · E1 A,
à = Ek · . . . · E1 In
mit gewissen zulässigen Elementarmatrizen E1 , . . . , Ek . Es folgt
In = ÃA,
also à = A−1 .
3.121 Aufgabe: Zeigen Sie, das man die Inverse auch mit Spaltenoperationen berechnen kann, aber nicht mit einem Gemisch aus Spalten- und Zeilenoperationen.
3.122 Satz: Jede quadratische Matrix ist Produkt von Elementarmatrizen.
Beweis: Mit zulässigen Zeilen- oder Spalten-Operationen kann man jede quadratische Matrix auf Diagonalform bringen, also
Ek · . . . · E1 AF1 · . . . · Fl = D,
124
KAPITEL 3. LINEARE ABBILDUNGEN
wobei E1 , . . . , Ek und F1 , . . . , Fl zulässige Elementarmatrizen sind und D eine
Diagonalmatrix, also eine Matrix, die außerhalb der Diagonalen nur 0 enthält.
Eine solche Matrix ist aber Produkt von Elementarmatrizen, denn


λ1
0


..
D=
 = D1,n (λ1 ) · . . . · Dn,n (λn ).
.
0
λn
Bringt man die zulässigen Elementarmatrizen Ei und Fi auf die andere Seite,
2
so ist die Behauptung bewiesen.
3.123 Aufgabe: Schreiben Sie
2
1
1
2
∈ R2×2
als Produkt von Elementarmatrizen.
3.2.6
Basiswechsel
Ein Ziel der linearen Algebra ist es, möglichst einfache Darstellungen für lineare Abbildung zu finden.
Dazu müssen wir wissen, wie man lineare Abbildungen mit anderen Basen
darstellen kann, und wie man diese Darstellungen von einer in die andere Basis
umrechnet.
3.124. Beispiel: Wir betrachten die Spiegelung φ : R2 → R2 an der Geraden
x = y. Nimmt man die Basis
1
1
v1 =
, v2 =
1
−1
so sieht man
φ(v1 ) = v1 ,
φ(v2 ) = −v2 .
Sei allgemein
φ(λ1 v1 + λ2 v2 ) = µ1 v1 + µ2 v2 .
Dann ist also
µ1 = λ1 ,
µ2 = −λ2 .
Es stellt sich heraus, dass die Abbildung λ 7→ µ linear ist, und die einfache
darstellende Matrix
1 0
B=
0 −1
hat. Wir bezeichnen diese Matrix als darstellende Matrix von φ bezüglich der
Basis v1 , v2 . Um die gewöhnliche Darstellungsmatrix bezüglich der kanonischen
Basis zu bekommen, müssen wir die Bilder von e1 , e2 berechnen. Wenn λ die
Darstellung eines Vektors x ∈ R2 bezüglich unserer Basis ist, so gilt offenbar
Mλ = x
3.2. GLEICHUNGSSYSTEME
125
wobei M die Matrix ist, die v1 , v2 in den Spalten hat, also
1 1
M=
.
1 −1
Wenn µ die Darstellung von φ(x) sein soll, so gilt also φ(x) = M µ und µ = Bλ.
Also
φ(x) = M µ = M Bλ = M BM −1 x.
Die darstellende Matrix von φ ist also hier
0
−1
M BM =
1
1
.
0
Im folgenden werden wir diese Definition und die zugehörigen Überlegungen
allgemein herleiten.
3.125. Definition: Sei V ein m-dimensionaler Vektorraum über K mit einer
Basis
A = (v1 , . . . , vn )
Dann definieren wir die lineare Abbildung
φA : K n → V
durch die Bilder der Einheitsvektoren gemäß
φA (ei ) = vi
für alle i = 1, . . . , n.
Es gilt also


λ1
n
  X
φA  ...  =
λi vi .
i=1
λn
Nach Aufgabe 3.25 ist φA ein Isomorphismus. Wir haben diesen Isomorphismus schon benutzt um zu zeigen, dass jeder n-dimensionale Vektorraum über
K isomorph zum K n ist.
3.126. Bemerkung: Die Abbildung φ−1
A berechnet die Basisdarstellung zu
einem Vektor v. Das heißt, sie ermittelt die Abbildung
X
λi vi 7→ λ.
i=0
Die Abbildung, die einen Vektor auf die Koeffizienten einer
Basisdarstellung abbildet, ist ein Isomorphismus des Vektorraums und des K n .
.
3.127. Beispiel: Sei E die kanonische Einheitsmatrix von K m . Dann ist φE die
identische Abbildung. Denn
φE (λ) =
n
X
i=1
λi ei = λ.
126
KAPITEL 3. LINEARE ABBILDUNGEN
3.128. Definition: Seien V ein n-dimensionaler und W ein m-dimensionaler
Vektorraum über K, φ : V → W linear. Die Basisdarstellung von φ bezüglich
einer Basis A von V und einer Basis B von W ist die darstellende Matrix der
Abbildung
n
m
φ−1
B ◦ φ ◦ φA : K → K .
Wir bezeichnen diese Matrix als
MA,B (φ).
Diese etwas unübersichtliche Situation lässt sich zunächst in folgendem Diagramm darstellen.
Kn
↓ φA
V
φ−1
B ◦φ◦φA
−→
Km
↓ φB
φ
−→
W
Ein solches Diagramm heißt kommutierendes Diagramm. Es ist gleichgültig,
auf welchen Wegen zwischen zwei Punkten man den Pfeilen folgt.
Da jede lineare Abbildung zwischen K n und K m eindeutig durch eine Matrix
darstellbar ist, ist
MA,B (φ) ∈ K m×n
wohlbestimmt.
Rechnerisch ergibt sich folgendes Bild. Sei
A = (v1 , . . . , vn ),
B = (w1 , . . . , wm ).
Wenn dann
v = λ1 v1 + . . . + λn vn ∈ V
ist, und
φ(v) = µ1 w1 + . . . + µm wm ∈ W,
Dann gilt


 
µ1
λ1
 .. 
 .. 
 .  = MA,B (φ)  .  .
µm
λn
Die Multiplikation mit der darstellenden Matrix berechnet
die Basisdarstellung des Bildes aus der Basisdarstellung des
Urbilds.
3.129. Bemerkung: Hat man zwei Basen A und B eines Vektorraums V , so
kann man mit Hilfe der Matrix
MA,B (id)
einen Basiswechsel durchführen. Denn sei
λ = φ−1
A (x)
3.2. GLEICHUNGSSYSTEME
127
die Basisdarstellung bezüglich A und
µ = φ−1
B (x)
die Basisdarstellung bezüglich B, dann gilt
µ = MA,B (id) · λ.
3.130. Beispiel: Sei E die kanonische Einheitsmatrix von K n und A eine andere
Basis von K n . Trägt man die Basis
A = (v1 , . . . , vn ),
als Spalten einer Matrix
A = (v1 , . . . , vn ) ∈ K n×n
ein, so gilt
MA,E (id) = A.
Denn
x = φA (λ) =
n
X
λi vi ⇒ x = Aλ = φE (Aλ).
i=1
Wenn also λ die Basisdarstellung bezüglich A ist, dann ist Aλ die Basisdarstellung bezüglich E. Umgekehrt berechnet man die Basisdarstellung λ bezüglich A
aus der kanonischem Basisdarstellung µ durch
λ = A−1 µ.
3.131. Bemerkung: Mit Hilfe der darstellenden Matrizen kann man auch lineare Abbildungen φM : K n → K m mit M ∈ K m×n bezüglich anderer Basen
als der kanonischen Einheitsbasis darstellen. Bezeichnet man die kanonischen
Basen mit En bzw. Em , so gilt natürlich
MEn ,Em (φM ) = M
Sei A eine Basis von K n , deren Vektoren wir in eine Matrix A eintragen, sowie
B eine Basis von K m , deren Vektoren wir in eine Matrix B eintragen. Dann gilt
MA,B (φ) = B −1 M A
Denn, angenommen wir haben eine Darstellung λ von x ∈ K m bezüglich A, also
x = Aλ
Dann ist
µ := B −1 M Aλ = B −1 M x = B −1 φ(x)
eine Darstellung von φ(x) bezüglich B. Mit M = In kann man insbesondere
zwei Basisdarstellungen des K n ineinander umrechnen.
3.132. Beispiel: Wir stellen die Abbildung φM : R2 → R2 mit
1 1
M=
0 1
128
KAPITEL 3. LINEARE ABBILDUNGEN
bezüglich der Basis A
1
,
1
dar. Dazu haben wir zu berechnen
−1 1 1
1
MA,A (φM ) =
1 −1
0
1
−1
1
1
1
1
1
3/2
=
−1
1/2
−1/2
.
1/2
Als Beispiel berechnen wir das Bild des Punktes
2
x=
3
in beiden Darstellungen. Zunächst gilt
5
φM (x) = M x =
.
3
Stellen wir x bezüglich A dar, so erhalten wir
5/2
−1
λ=A x=
−1/2
Zur Probe rechnet man nach, dass in der Tat
2
1
1
x=
= 5/2
− 1/2
3
1
−1
ist. Nun berechnen wir die Basisdarstellung µ von M x in der Basis A durch
Multiplikation mit der darstellenden Matrix
3/2 −1/2
4
µ=
λ=
.
1/2 1/2
1
Zurückrechnen in die kanonische Basis ergibt in der Tat dasselbe Ergebnis für
M x.
1
1
5
Aµ = 4
+1
=
= M x.
1
−1
3
In Abbildung 3.2 ist die Basis v1 , v2 und deren Bilder
w 1 = M v1 ,
w2 = M v2
eingezeichnet. Man erkennt
w1 = 3/2v1 + 1/2v2
w2 = −1/2v1 + 1/2v2
In der Tat ist also die Basisdarstellung von w1 = M v1 der Vektor
3/2
1
= MA,A (φM )
.
1/2
0
3.2. GLEICHUNGSSYSTEME
129
Abbildung 3.2: Basis und Bilder der Basis
3.133 Aufgabe: Berechnen Sie die Basisdarstellung bezüglich der obigen Basis für
die Abbildung
x
x
φ
=
.
y
0
Zeichnen Sie wieder die Basis und die Bilder der Basis in ein Koordinatensystem und
stellen Sie die Bilder bezüglich der alternativen Basis dar.
3.134. Beispiel: Wir wissen bereits, dass die Funktionen
1, x, . . . , xn
eine Basis des Polynomraums Pn ⊂ C(R) sind, die wir mit A bezeichnen. Für
eine Polynom
p(x) = a0 + a1 x + . . . + an xn
definieren wir die Ableitung als Bild der Abbildung
φ(p) = p0 .
φ ist aufgrund der Rechengesetze für Ableitungen linear. Es gilt

0



MA,A (φ) = 


1
0

2
..
.
..
0
.



.

n
0
130
KAPITEL 3. LINEARE ABBILDUNGEN
Denn offenbar gilt dann



a1
a0


 a1   2a2 
   .. 
MA,A (φ)  .  =  .  .

 ..  
nan 
an
0

In der Tat
φ(p)(x) = p0 (x) = a1 + 2a2 x + . . . + nan xn−1 .
3.135 Satz: (1) Sei φ : V → W linear, und ψ : W → H linear, A eine Basis
von V , B eine Basis von W und C eine Basis von H. Dann gilt
MA,C (ψ ◦ φ) = MB,C (ψ) · MA,B (φ).
(2) Sei φ : V → V bijektiv und A, B Basen von V . Dann gilt
MB,A (φ−1 ) = MA,B (φ)−1 .
Der Beweis dieses Satzes ist eine Übungsaufgabe.
3.136. Bemerkung: Mit Hilfe dieses Satzes kann der Wechsel von einer Basisdarstellung einer linearen Abbildung φ : V → W in eine andere Basisdarstellung
leicht dargestellt werden. Seien dazu A1 , A2 zwei Basen von V und B1 , B2 zwei
Basen von W . Dann gilt also aufgrund der ersten Aussage des Satzes
MB1 ,B2 (φ) = MA2 ,B2 (id) · MA1 ,A2 (φ) · MB1 ,A1 (id).
Dabei sind MA2 ,B2 (id) und MA1 ,B1 (id) die Matrizen des Basiswechsels.
3.137. Beispiel: Sei speziell V = W = K n , φ : K n → K n linear, sowie M die
darstellende Matrix von φ bezüglich der kanonischen Einheitsbasen En und Em .
Für eine Basis A = (v1 , . . . , vn ) von K n erhält man also
MA,A (φ) = ME,A (id) · ME,E (φ) · MA,E (id) = B −1 M B,
wobei B = (v1 , . . . , vn ) ist.
3.138 Aufgabe:
kung 3.131 dar.
Stellen Sie auf die gleiche Weise den Basiswechsel aus Bemer-
3.139 Aufgabe: Die Vektoren
i
,
1+i
1+i
i
bilden eine Basis A des C2 . Berechnen Sie die Matrix des Basiswechsels
ME,A (id).
3.3. ANWENDUNGEN
131
3.140. Definition: Zwei Matrizen A, B ∈ K n×n heißen ähnlich, wenn es eine
reguläre Matrix H ∈ K n×n gibt mit
A = HBH −1 .
3.141 Aufgabe: Zeigen Sie dass zwei Matrizen genau dann ähnlich sind, wenn sie
dieselbe lineare Abbildung φ : K n → K n bezüglich zweier Basen des K n darstellen.
3.142 Aufgabe: Wenn A ∼ B die Ähnlichkeit bezeichnet, so zeigen Sie die folgenden
Behauptungen.
(1) Für alle A ∈ K n×n gilt
A∼A
(2) Für alle A, B ∈ K
n×n
gilt
A∼B ⇒ B∼A
(3) Für alle A, B, C ∈ K n×n gilt
A ∼ B, B ∼ C ⇒ A ∼ C.
3.3
3.3.1
Anwendungen
Analytische Geometrie
Eine unmittelbare Folgerung aus unseren Überlegungen ist, dass die Lösungsmenge eines linearen Gleichungssystems ein affiner Unterraum ist, wenn sie nicht
leer ist. Das halten wir im folgenden Satz nochmals fest. Wir wollen in diesem
Abschnitt umgekehrt zu jedem affinen Unterraum ein lineares Gleichungssystem finden, dessen Lösung dieser Raum ist. Dabei soll eine Minimalzahl von
Gleichungen verwendet werden.
3.143 Satz: Sei A ∈ K m×n , b ∈ K m . Die Lösungsmenge des Gleichungssystems Ax = b ist leer oder ein affiner Unterraum der Dimension n − Rang (A).
3.144. Definition: Ein affiner Unterraum des K n mit Dimension n − 1 heißt
Hyperebene.
3.145 Aufgabe: Zeigen Sie: Wenn wir ein lineares Gleichungssystem mit einer Gleichung
a1 x1 + . . . + an xn = b
auf dem K n haben und nicht alle ai gleich 0 sind, so ist der Lösungsraum eine Hyperebene. Geben Sie eine parametrisierte Darstellung dieser Hyperebene an.
3.146 Satz: E ⊂ K n ist genau dann ein affiner Unterraum der Dimension
k, wenn E die Lösungsmenge eines linearen Gleichungssystems
Ax = b,
A ∈ K (n−k)×n ,
132
KAPITEL 3. LINEARE ABBILDUNGEN
aber nicht Lösungsmenge eines Gleichungssystems mit weniger als n − k Gleichungen ist.
Insbesondere ist jede Hyperebene Lösungsmenge eines Gleichungssystems mit
nur einer Gleichung, deren Koeffizienten nicht alle 0 sind.
Beweis: Sei E ein affiner Unterraum der Dimension k, also
E =a+U
mit dim U = k. Sei u1 , . . . , uk eine Basis von U . Wir lösen das Gleichungssystem
uT1 x = 0, . . . , uTk x = 0,
Also U x = 0, wobei U die Zeilen uT1 , . . . , uTk habe. Der Zeilenrang von U ist
k, also auch der Spaltenrang. Nach der Dimensionsformel in Satz 3.20 hat der
Lösungsraum Kern U die Dimension n − k. Es gibt also linear unabhängige
Vektoren
v1 , . . . , vn−k
mit
uTi vj = 0,
für alle i = 1, . . . , k, j = 1, . . . , n − k.
vjT ui = 0
für alle i = 1, . . . , k, j = 1, . . . , n − k,
Es folgt
also
vjT u = 0
für alle u ∈ U , j = 1, . . . , n − k.
T
in die Zeilen einer Matrix V ∈ K (n−k)×n ein, so entsteht
Setzt man v1T , . . . , vn−k
ein Gleichungssystem
V u = 0.
Dieses System von n − k Gleichungen hat also einen Lösungsraum L mit
U ⊆ L.
Nach der Dimensionsformel kann der Lösungsraum dieser n − k Gleichungen
höchstens die Dimension
n − (n − k) = k
haben. Wegen dim U = k folgt also U = L. Weniger als n − k Gleichungen
hätten aber einen Lösungsraum mit einer Dimension größer als k. E ist dann
Lösungsmenge des Gleichungssystems
V u = V a.
Umgekehrt wissen wir schon, dass der Lösungsraum jedes Gleichungssystems
V u = 0,
V ∈ K (n−k)×n
ein affiner Unterraum der Dimension n − Rang V ist. Wenn weniger Gleichungen nicht denselben Lösungsraum haben, so muss V vollen Rang haben, also
Rang V = n−k sein. Der Lösungsraum hat dann die Dimension n−(n−k) = k.
2
3.3. ANWENDUNGEN
133
Die im Beweis verwendete Methode ist konstruktiv. Sie kann daher zur Ermittlung der gesuchten Gleichungen herangezogen werden.
3.147 Aufgabe: (1) Berechnen Sie mit der Methode im Beweis des obigen Satzes
eine Gleichung für die Ebene durch die Punkte
 
 
 
1
0
1
1 , 1 , 0
1
1
0
in R3 .
(2) Berechnen Sie eine Parameterdarstellung der Schnittgerade dieser Ebene mit der
Ebene mit der Gleichung
x + y + z = 1.
3.3.2
Affine Abbildungen
Lineare Abbildungen haben den Nachteil, dass immer die 0 auf 0 abgebildet
wird. Eine Drehung dreht also immer um 0, und eine Streckung streckt vom
Nullpunkt aus. Diese Einschränkung wollen wir nun beheben. Die Verallgemeinerung des Begriffs der linearen Abbildung auf den Begriff der affinen Abbildung
ist zunächst sehr einfach.
3.148. Definition: Seien V, W Vektorräume über K. Dann heißt die Abbildung
ψ:V →W
affine Abbildung, wenn sie die Form
ψ(x) = φ(x) + b
hat, wobei φ : V → W linear ist und b ∈ W .
3.149. Bemerkung: φ und b sind eindeutig bestimmt durch
b = ψ(0)
φ(x) = ψ(x) − b = ψ(x) − ψ(0).
Allgemeiner gilt
ψ(x) − ψ(y) = φ(x − y)
oder ψ(x + h) − ψ(x) = φ(h). Das heißt, affine Abbildungen verhalten sich lokal
wie die lineare Abbildung φ.
3.150 Aufgabe: Zeigen Sie, dass die Hintereinanderausführung zweier affiner Abbildungen affin ist.
3.151. Beispiel: (1) Das einfachste Beispiel ist eine Translation
db (x) = x + b.
134
KAPITEL 3. LINEARE ABBILDUNGEN
Jede affine Abbildung ist Hintereinanderausführung einer Translation und einer
linearen Abbildung. Denn es gilt
ψ(x) = φ(x) + b = db (φ(x)).
Also ψ = db ◦ φ. Es gilt übrigens φ ◦ db = dφ(b) ◦ φ.
(2) Die Streckung mit Streckungszentrum z ∈ V und mit Streckungsfaktor
λ ∈ R ist die affine Abbildung
sλ (x) = z + λ(x − z) = λx + (z − λz).
Diese Abbildung sieht in x lokal wie eine Streckung um den Faktor λ aus. Denn
sλ (x + h) − sλ (x) = λh.
(3) Die Drehung um z mit dem Winkel α ist die Abbildung
Dz,α (x) = z + Dα (x − z).
Dabei ist Dα die Drehmatrix zum Winkel α.
3.152 Satz: Seien V, W Vektorräume über R. Dann ist die Abbildung ψ :
V → W genau dann affin, wenn sie Affinkombinationen erhält. D.h. für alle
v1 , . . . , vn ∈ V und λ1 , . . . , λn ∈ R mit
n
X
λi = 1
i=1
gilt
ψ(λ1 v1 + . . . + λn vn ) = λ1 ψ(v1 ) + . . . + λn ψ(vn ).
Beweis: Zu ψ : V → W setzen wir
φ(x) = ψ(x) − ψ(0).
Wenn ψ affin ist, dann ist φ linear. Man hat
ψ(λ1 v1 + . . . + λn vn ) = φ(λ1 v1 + . . . + λn vn ) + ψ(0)
= λ1 φ(v1 ) + . . . + λn φ(vn ) + ψ(0)
= λ1 (φ(v1 ) + ψ(0)) + . . . + λn (φ(vn ) + ψ(0))
= λ1 ψ(v1 ) + . . . + λn ψ(vn ).
Also erhalten affine Abbildungen Affinkombinationen. Wenn umgekehrt die Abbildung ψ Affinkombinationen erhält, so erhält, wie man analog zur obigen Rechnung nachprüft, auch φ Affinkombinationen und es gilt φ(0) = 0. Also, für λ ∈ R
und x ∈ V
φ(λx) = φ(λx + (1 − λ)0) = λφ(x) + (1 − λ)φ(0) = λφ(x).
Damit hat man auch
1
1
1
φ(x + y) = φ( 2x + 2y) = (φ(2x) + φ(2y)) = φ(x) + φ(y).
2
2
2
3.3. ANWENDUNGEN
135
2
φ ist also linear und ψ ist affin.
3.153. Bemerkung: Wenn die Abbildung ψ im obigen Satz Affinkombinationen zweier Vektoren erhält, so erhält sie per Induktion Affinkombinationen von
endlich vielen Vektoren.
3.154 Aufgabe: Folgern Sie aus diesem Satz, dass für eine Teilmenge M eines reellen
Vektorraums V und eine affine Abbildung ψ : V → W gilt
conv (ψ(M )) = ψ(conv (M )).
Folgern Sie daraus, dass das Bild von konvexen Mengen unter affinen Abbildungen
konvex ist. Beweisen Sie dasselbe für den erzeugten affinen Unterraum anstelle der
konvexen Hülle.
3.155 Aufgabe: Sei ψ : V → W affin. Zeigen Sie, dass das Urbild jeder konvexen
Menge konvex ist.
3.156 Satz: Seien V, W Vektorräume über K und ψ : V → W affin. Dann
ist das Bild eines affinen Unterraums von V ein affiner Unterraum von W . Das
Urbild eines affinen Unterraums von W ist ein affiner Unterraum von V oder
leer.
Beweis: Für den Beweis kann man den obigen Satz verwenden. Stattdessen argumentieren wir direkt mit unserer Definition von affinen Abbildungen.
φ(x) = ψ(x) − ψ(0) ist linear. Man zeigt für den affinen Unterraum x + U ⊆ V
ψ(x + U ) = ψ(x) + φ(U ).
Also ist ψ(x + U ) ein affiner Unterraum von W . Sei y + H ein affiner Unterraum
von W und ψ(x) ∈ y + H, als ψ −1 (y + H) nicht leer. Man zeigt dann
ψ −1 (y + H) = x + φ−1 (H).
2
Es folgt die Behauptung.
3.157 Aufgabe: Zeigen Sie die beiden Identitäten im obigen Beweis.
3.158. Bemerkung: Für eine affine Abbildung ψ : V → V bezeichnet man die
Menge
Fψ := {x ∈ V : ψ(x) = x}
als Fixpunktmenge von ψ. Die Menge ist offenbar das Urbild von {0} unter
der affinen Abbildung ψ − id, also nach dem obigen Satz ein affiner Unterraum
oder leer. Für eine Translation db mit b 6= 0 ist die Fixpunktmenge zum Beispiel
leer.
3.159. Beispiel: (1) Eine affine Abbildung s : V → V heißt Spiegelung, wenn
s2 = id ist. Die Fixpunktmenge ist dann die Menge, an der gespiegelt wird. In
V = R2 kann man für eine beliebige Basis v1 , v2
φ(v1 ) = v1 ,
φ(v2 ) = −v2
setzen, und erhält eine Spiegelung durch
s(x) = z + φ(x − z).
136
KAPITEL 3. LINEARE ABBILDUNGEN
dabei ist die Spiegelungsgerade
Fψ = z + span {v1 }.
(2) Eine affine Abbildung p : V → V heißt Projektion, wenn p2 = p ist. In
diesem Fall ist die Fixpunktmenge die Menge, auf die projiziert wird. Zu jeder
Spiegelung s gehört die Projektion
p(x) =
1
(x + s(x)),
2
und zu jeder Projektion p gehört die Spiegelung
s(x) = p(x) − (x − p(x)) = 2p(x) − x.
3.160 Aufgabe: Beweisen Sie, dass die zugehörige Projektion tatsächlich eine Projektion, und die zugehörige Spiegelung tatsächlich eine Spiegelung ist.
3.161 Aufgabe: (1) Sei ψ = φ + a eine Spiegelung mit der linearen Abbildung φ.
Zeigen Sie ψ(a) = 0. Zeigen Sie, dass φ ebenfalls eine Spiegelung ist.
(2) Sei ψ = φ + a eine Projektion mit der linearen Abbildung φ. Zeigen Sie, dass a ein
Fixpunkt von ψ ist. Zeigen Sie, dass φ ebenfalls eine Projektion ist.
(3) Muss ψ eine Projektion (bzw. Spiegelung) sein, wenn φ eine Projektion (bzw.
Spiegelung) ist?
3.162 Aufgabe: Sei ψ(x) = φ(x) + b eine affine Abbildung von einem endlich dimensionalen reellen Unterraum in sich. Zeigen Sie, dass ψ genau dann einen eindeutig
bestimmten Fixpunkt hat, wenn 0 der einzige Fixpunkt des linearen Teils φ ist.3
3.163. Bemerkung: Die Dimensionsformel lässt sich folgendermaßen auf affine
Abbildungen anwenden. Sei ψ : V → W affin und E = x + U ein endlich
dimensionaler affiner Unterraum von V . Dann ist nach der ersten Formel im
obigen Beweis und der Dimensionsformel
dim ψ(E) = dim φ(U ) = dim U − dim Kern φ|U = dim E − dim Kern φ|U .
Es folgt insbesondere
dim ψ(E) ≤ dim E,
und für injektive Abbildungen ψ gilt Gleichheit.
3.3.3
Interpolation
Wir untersuchen ein in der numerischen Mathematik wichtiges Beispiel, in dem
Funktionenräume eine wichtige Rolle spielen. Sei dazu
V ⊆ C(R)
ein n-dimensionaler Unterraum. Seien
x1 < . . . < xn
3.4. QUOTIENTENRÄUME
137
n paarweise verschiedene Punkte in R. Die Aufgabe der Interpolation besteht
nun darin, zu gegebenen Werten
y1 < . . . < yn
eine Funktion v ∈ V zu finden mit
v(xi ) = yi
für alle i = 1, . . . , n
3.164. Beispiel: Sei V = P1 der Raum der Geraden ax + b in R2 . Dann ist
bekannt, dass man in zwei verschiedenen Punkten immer interpolieren kann. Es
gilt nämlich für x1 6= x2 und für die Gerade
p(x) = y1 +
y2 − y1
(x − x1 )
x2 − x1
in der Tat
p(x1 ) = y1 ,
p(x2 ) = y2 .
Die Abbildung
φ : V → Rn


v(x1 )


φ(v) =  ... 
v(xn )
ist linear, wie man nachrechnet. Die Interpolationsaufgabe ist nun für alle Werte
y1 , . . . , yn lösbar, wenn diese Abbildung surjektiv ist. Aufgrund der Dimensionsformel ist sie dann auch immer eindeutig lösbar. Wir können also den folgenden
Satz formulieren.
3.165 Satz: Sei V ⊂ C(R) ein n-dimensionaler Unterraum. Dann ist die
Interpolationsaufgabe in n verschiedenen Punkten x1 , . . . , xn ∈ R genau dann
für alle Werte lösbar, wenn jede Funktion v ∈ V , die auf diesen Punkten 0 ist,
identisch 0 ist.
3.166. Beispiel: Pn ⊆ C(R) ist ein (n + 1)-dimensionaler Unterraum. In der
Analysis wird bewiesen, dass ein Polynom, das nicht identisch 0 ist, höchstens
n verschiedene Nullstellen haben kann. Also kann man mit Polynomen n-ten
Grades in n + 1 Punkten immer eindeutig interpolieren.
3.4
Quotientenräume
Mit Hilfe von Quotientenräumen lassen sich lineare Räume und Abbildung ”‘vereinfachen”’. Man identifiziert dazu Punkte, die in einem gemeinsamen affinen
Unterraum liegen. Im Fall von linearen Abbildungen werden etwa Punkte mit
gleichem Bild identifiziert. Die Abbildung wird dadurch injektiv.
Eine weitere, wichtige Anwendung ist die Identifikation von Funktionen, die
”‘fast überall”’ gleich sind. Beispielsweise verhalten sich Funktionen, die sich
138
KAPITEL 3. LINEARE ABBILDUNGEN
nur in endlich vielen Punkten unterscheiden, bezüglich des Riemann-Integrals
gleich.
3.167. Definition: Die Relation ∼ auf einer Menge V heißt Äquivalenzrelation, wenn die folgenden Eigenschaften gelten.
(1) Für alle x, y, z ∈ V gilt
x ∼ y,
y ∼ z ⇒ x ∼ z.
(2) Für alle x, y ∈ V gilt
x ∼ y ⇒ y ∼ x.
(3) Für alle x ∈ V gilt
x ∼ x.
3.168 Satz:
Sei ∼ eine Äquivalenzrelation auf V und für x ∈ V
[x] = {y ∈ V : x ∼ y}.
Dann ist das System der Mengen [x] eine Klassenaufteilung von V . Das heißt,
es gilt
[x] ∩ [y] 6= ∅ ⇒ [x] = [y]
und
V =
\
[x].
x∈V
3.169 Aufgabe: Beweisen Sie diesen Satz.
3.170. Bemerkung: Man kann umgekehrt zu jeder Klassenaufteilung S von
V eine Äquivalenzrelation finden, die diese Klassenaufteilung erzeugt. Dazu definiert man einfach, dass x ∼ y gelten soll, wenn x und y in derselben Menge
S ∈ S liegen.
3.171. Definition: Sei V ein linearer Vektorraum über K und U ⊆ V ein
Unterraum. Wir definieren dann eine Äquivalenzrelation ”‘∼U ”’ durch
x ∼U y ⇔ x − y ∈ U.
3.172 Aufgabe: Weisen Sie nach, dass ∼U in der Tat eine Äquivalenzrelation ist.
3.173. Definition: Die Menge der Klassen bezeichnet man als Quotientenraum
V /U = {[x]U : x ∈ V }.
Wir führen in V /U eine Addition ein, indem wir für alle x, y ∈ V definieren
[x]U + [y]U = [x + y]U .
Außerdem eine Multiplikation für λ ∈ K und x ∈ V
λ[x]U = [λx]U .
3.4. QUOTIENTENRÄUME
139
3.174 Satz: Die Addition und Multiplikation sind auf diese Weise wohldefiniert, und V /U wird zu einem Vektorraum über K.
Beweis: Damit die Addition wohldefiniert ist, muss man zeigen, dass
[x]U = [x̃]U ,
[y]U = [ỹ]U ⇒ [x + y]U = [x̃ + ỹ]U
gilt. Das ist aber leicht, wenn man beachtet, dass nach Definition
[x]U = [x̃]U ⇔ x − x̃ ∈ U
gilt. Analog zeigt man, dass die Multiplikation wohldefiniert ist.
Es bleibt nachzuprüfen, dass V /U mit diesen Operationen ein Vektorraum
ist. Dies überlassen wir als Übung.
2
3.175 Aufgabe: Zeigen Sie, dass V /U mit den oben definierten Operationen ein
Vektorraum ist. Der Nullvektor dieses Raumes ist
0 = [0] = U.
3.176. Beispiel: Sei V = R2 und U = span {e1 }. Dann ist
x1
y1
∼U
⇔ x2 = y2 .
x2
y2
Die Klasse [x] ist die Gerade durch x ∈ R2 , die parallel zur y-Achse liegt.
3.177. Beispiel: Für lineare Abbildungen φ : V → W kann man
V / Kern φ
betrachten. Die Elemente dieses Raumes sind die Klassen
[x] = x + Kern φ = φ−1 (φ(x)).
Es gilt
x ∼Kern φ y ⇔ φ(x) = φ(y).
3.178 Satz: Sei V ein endlich dimensionaler Raum und U ⊆ V ein Unterraum. Dann gilt
dim V /U = dim V − dim U.
Beweis: Sei
v1 , . . . , v k
eine Basis von U , die wir mit
vk+1 , . . . , vn
zu einer Basis von V ergänzen. Es genügt zu zeigen, dass
[vk+1 ], . . . , [vn ]
140
KAPITEL 3. LINEARE ABBILDUNGEN
eine Basis von V /U ist. Wir zeigen zunächst, dass dieses System Erzeugendensystem ist. Dazu sei
n
X
v=
λi vi ∈ V.
i=1
Dann folgt
[v] =
n
X
λi [vi ] =
i=1
n
X
λi [vi ],
i=k+1
denn es gilt wegen v1 , . . . , vk in U
[v1 ] = . . . = [vk ] = 0.
Wir zeigen nun die lineare Unabhängigkeit. Sei dazu
n
X
λi [vi ] = 0.
i=k+1
Es folgt
"
#
n
X
λi vi = 0
i=k+1
und daher
n
X
λi vi ∈ U.
i=k+1
Also muss diese Linearkombination auch Linearkombination von v1 , . . . , vk sein.
Da v1 , . . . , vn eine Basis ist, folgt
λk+1 = . . . = λn = 0.
2
3.179 Satz:
Abbildung
Sei V endlich dimensional und φ : V → W linear. Dann ist die
φ̃ : V / Kern (φ) → φ(V ),
φ̃([x]) = φ(x)
ein Isomorphismus.
Beweis: Wieder muss man zunächst zeigen, dass die Abbildung wohldefiniert
ist. Wenn aber [x] = [x̃] ist, dann gilt
φ̃([x]) = φ(x) = φ(x̃) = φ̃([x̃]).
Es gilt außerdem nach den Dimensionsformeln aus Satz 3.178 und Satz 3.20
dim(V / Kern φ) = dim V − dim Kern φ = dim φ(V ).
Daher genügt es zu zeigen, dass φ̃ surjektiv ist. Für y = φ(x) ∈ φ(V ) gilt aber
φ̃([x]) = y.
2
3.5. DUALRAUM
3.5
141
Dualraum
Ziel dieses Abschnittes ist es, den Raum der linearen Funktionale auf einem
Vektorraum zu beschreiben. Dieser Raum ist ja selbst ein Vektorraum, und wir
möchten daher eine Basis für den Raum angeben.
3.180. Definition: Zu zwei linearen Räumen V, W über K definieren wir den
Raum der linearen Abbildungen zwischen V und W als
L(V, W ) = {φ : φ : V → W linear}.
Dieser Raum ist ein Unterraum von A(V, W ) und wir können die Addition und
die Multiplikation punktweise definieren.
(φ1 + φ2 )(x) = φ1 (x) + φ2 (x),
(λφ)(x) = λφ(x).
3.181 Aufgabe: Zeigen Sie, dass L(V, W ) mit Hilfe dieser Operationen zu einem
Vektorraum über K wird.
3.182 Aufgabe: Seien V und W endlich dimensional, dim V = n, dim W = m.
Zeigen Sie, dass die Abbildung
ψ : L(V, W ) → K m×n
die jedem ψ seine Matrixdarstellung bezüglich fester Basen von V und W zuordnet
ein Isomorphismus ist, und dass insbesondere
dim L(V, W ) = nm
gilt. Für V = K n und W = K m ist insbesondere
ψ(φA ) = A.
Wir erinnern uns daran, dass der Matrizenraum K m×n mit den Matrizenoperationen
zu einem Vektorraum über K wird, der in nahe liegender Weise isomorph zum K nm
ist.
3.183. Definition: Sei V ein Vektorraum über K. Den Raum der Funktionale
auf V , also den L(V, K), bezeichnen wir als linearen Dualraum V ∗ von V .
3.184. Bemerkung: Nach obiger Aufgabe hat dieser Raum für endlich dimensionale V die gleiche Dimension wie V , und ist daher isomorph zu V . Der
folgende Satz gibt eine Basis für V ∗ an. Im Fall V = K n ist der lineare Dualraum
offenbar isomorph zum Raum der Zeilenvektoren der Länge n.
3.185. Definition: Sei V ein linearer Raum und B eine Basis von V . Wir
definieren nun das duale System in V ∗ durch
B ∗ = {δb : b ∈ B}
Dabei ist die Abbildung δb : V → K für alle b ∈ B durch die Bilder der
Basisvektoren aus B folgendermaßen festgelegt.
(
1, v = b,
δb (v) =
0, v ∈ B, v 6= b.
142
3.186 Satz:
KAPITEL 3. LINEARE ABBILDUNGEN
Für endlich dimensionale Vektorräume V mit Basis
b1 , . . . , b n
ist das duale System
δ b1 , . . . , δ bn
eine Basis von V ∗ , die man duale Basis nennt.
Beweis: Sei φ ∈ V ∗ und
φ(b1 ) = µ1 , . . . , φ(bn ) = µn .
Man rechnet nun nach, dass in der Tat
φ = µ1 δb1 + . . . + µn δbn .
2
gilt, und dass diese Darstellung eindeutig ist.
3.187. Bemerkung: Im K n liegen die Dinge viel einfacher. Es gilt hier
(
1, ν = µ
eTν eµ = δν,µ =
0, ν 6= µ.
Mann nennt δν,µ das Kronecker-Symbol. Es folgt, dass die zu
e1 , . . . , e n
duale Basis gleich
eT1 , . . . , eTn
ist.
3.188 Aufgabe: Sei B eine Basis von V und fB : V → V ∗ definiert durch
fB (b) = δb .
Zeigen Sie, dass fB linear und injektiv ist. Daraus folgt im Fall dim V < ∞, dass fB
ein Isomorphismus zwischen V und V ∗ ist.
3.189 Aufgabe: Sei g : V → (V ∗ )∗ definiert durch
g(v)(φ) = φ(v)
für alle φ ∈ V ∗
Zeigen Sie, dass g linear und injektiv ist.
3.190. Bemerkung: In unendlich dimensionalen Vektorräumen ist der Satz
falsch. Ein Gegenbeispiel ist der Vektorraum lc der Folgen in R, die nur endlich
viele von 0 verschiedene Glieder haben. Definiert man die Folgen eν ∈ lc durch
eν = (δν,n )n∈N ,
so bilden diese Folgen eine Basis des lc . Die Abbildung
φ((xn )n∈N ) =
∞
X
n=1
xn
3.5. DUALRAUM
143
ist eine lineare Abbildung in lc∗ . Sie ist aber nicht in dem Unterraum von lc∗ , der
von den Funktionalen δeν , ν ∈ N, aufgespannt wird.
3.191. Beispiel: Für Funktionenräume ist der lineare Dualraum gewöhnlich
zu groß. Man betrachtet hier zum Beispiel nur stetige Funktionale, also einen
Teilraum des linearen Dualraums. Wir können hier darauf nicht eingehen.
3.192. Definition: Sei F : V → W linear. Dann definieren wir die duale
Abbildung F ∗ : W ∗ → V ∗ durch
F ∗ (ψ) = ψ ◦ F
für alle ψ ∈ W ∗ .
Das folgende Diagramm kommutiert also.
F
V
↓ F ∗ (ψ)
−→
K
←→
id
W
↓ψ
K
3.193 Satz: Wenn F : V → W ein Isomorphismus ist, dann ist auch F ∗ :
V → W ein Isomorphismus. Isomorphe Vektorräume haben also isomorphe
Dualräume. Es gilt
(F ∗ )−1 = (F −1 )∗ .
Beweis: Wir berechnen
F ∗ ((F −1 )∗ (φ)) = F ∗ (φ ◦ F −1 ) = φ ◦ F −1 ◦ F = φ
für alle φ ∈ V ∗ sowie umgekehrt
(F −1 )∗ (F ∗ (ψ)) = (F −1 )∗ (ψ ◦ F ) = ψ ◦ F ◦ F −1 = ψ
für alle ψ ∈ W ∗ . Also ist (F −1 )∗ die Umkehrabbildung von F ∗ .
2
3.194 Aufgabe: Zeigen Sie, dass F ∗ genau dann injektiv ist, wenn F surjektiv ist.
3.195 Satz: Seien V und W endlich dimensional, A eine Basis von V und
B eine Basis von W . Zeigen Sie
MB∗ ,A∗ (F ∗ ) = MA,B (F )T .
Dabei bezeichnen B ∗ und A∗ die dualen Basen.
Beweis: Sei ψ ∈ V ∗ ,
ψ = l1 b∗1 + . . . + λm b∗m ,
wobei b1 , . . . , bm die Basis B ist, und
µ = MA,B (F )T λ.
Zu zeigen ist
F ∗ (ψ) = µ1 a∗1 + . . . µn a∗n ,
144
KAPITEL 3. LINEARE ABBILDUNGEN
wobei a1 , . . . , an die Basis cA ist. Wir überprüfen diese Gleichheit durch Anwenden auf a1 , . . . , an . Zur Abkürzung setzen wir C = MA,B (F ). Es gilt in der
Tat
F ∗ (ψ)(ai ) = ψ(F (ai ))
= ψ(c1,i b1 + . . . + cm,i bm )
= λ1 c1,i + . . . + λm cm,i
= µi
= (µ1 a∗1 + . . . + µn a∗n )(ai ).
Es folgt die Behauptung.
2
Kapitel 4
Das Skalarprodukt
In diesem Kapitel behandeln wir das reelle und komplexe Skalarprodukt. Aus
der Schule bekannt ist das reelle Skalarprodukt bei der Berechnung von Winkeln zwischen Vektoren und als Hilfsmittel zur Entscheidung, ob zwei Vektoren
senkrecht aufeinander stehen. Wir werden dieses Konzept verallgemeinern. Interessante Anwendungen ergeben sich insbesondere in Funktionenräumen.
4.1
4.1.1
Skalarprodukte und Normen
Skalarprodukte
Wir werden uns in diesem Abschnitt nur mit Vektorräumen über R und C
beschäftigen. Zur Abkürzung schreiben wir K für einen dieser beiden Körper,
also
K ∈ {R, C}.
Die komplexe Konjugation
a + ib = a − ib,
die wir hier oft verwenden werden, ist für im Falle K = R einfach die identische
Abbildung (x = x). Für Matrizen M definieren wir M elementweise.
4.1. Definition: Sei V ein Vektorraum über K. Eine Abbildung von V × V
nach K
(v, w) 7→ hv, wi ∈ K
heißt Skalarprodukt (engl.: scalar product), wenn die folgenden Bedingung
erfüllt sind.
(1) Die Abbildung ist linear in der ersten Variablen, also
hλv, wi = λhv, wi,
hv1 + v2 , wi = hv1 , wi + hv2 , wi
für alle λ ∈ K, v, w, v1 , v2 ∈ V ,
145
146
KAPITEL 4. DAS SKALARPRODUKT
(2) Die Abbildung ist konjugiert symmetrisch, also
hw, vi = hv, wi
für alle v, w ∈ V ,
(3) Die Abbildung ist positiv definit, das heißt
hv, vi > 0
für alle v 6= 0.
Man nennt einen Vektorraum zusammen mit einem Skalarprodukt einen
Skalarproduktraum oder Euklidschen Vektorraum. Im komplexen Fall
spricht man von einem unitären Raum. Wir werden hier in beiden Fällen von
einem Skalarproduktraum sprechen.
4.2. Bemerkung: Im reellen Fall ist das Skalarprodukt dann auch linear im
zweiten Argument. Man spricht hier von einer symmetrischen Bilinearform.
Im komplexen Fall ist es allerdings nur konjugiert linear. Es gilt
hv, λwi = hλw, vi
= λ · hw, vi
= λ · hw, vi
= λ · hv, wi.
Eine konjugiert lineare Form dieser Art nennt man auch Hermitesche Form.
4.3. Bemerkung: Wegen
hv, vi = hv, vi
ist in jedem Fall hv, vi ∈ R. Weil hv, wi in v linear ist, gilt wie bei jeder linearen
Abbildung
h0, vi = 0
für alle v ∈ V , insbesondere h0, 0i = 0. Die Bedingung (3) sagt also insbesondere
aus, dass
hv, vi = 0 ⇔ v = 0
ist. Darüber hinaus muss für alle v ∈ V
hv, vi ≥ 0
gelten. Gilt nur diese Eigenschaft, so spricht man von einer positiv semi-definiten Bilinearform, bzw. Hermiteschen Form.
4.4. Definition: Auf dem Rn können wir ein Skalarprodukt durch
hx, yi =
n
X
xk yk = xT y
k=1
definieren. Man nennt dieses Skalarprodukt Euklidsches Skalarprodukt. Auf
dem Cn definieren wir
n
X
hx, yi =
xk yk . = xT y
k=0
4.1. SKALARPRODUKTE UND NORMEN
147
Diese Skalarprodukte nennt man auch kanonisches Skalarprodukt auf dem
Rn , bzw. Cn . Im Rn nennt man das Skalarprodukt auch Euklidsches Skalarprodukt.
4.5 Aufgabe: Weisen Sie nach, dass die beiden Abbildungen Skalarprodukte sind.
4.6 Aufgabe: Zeigen Sie für eine Skalarprodukt hx, yi
hx ± y, x ± yi = hx, xi + hy, yi ± 2Re hx, yi
wobei Re z den Realteil von z ∈ C bezeichne.
4.7 Satz: Sei V ein endlich dimensionaler Vektorraum über K mit dem Skalarprodukt hv, wi, und
A = (v1 , . . . , vn )
eine Basis von V . Wir definieren dann die Matrix


hv1 , v1 i . . . hv1 , vn i

..  ,
H =  ...
. 
hvn , v1 i . . . hvn , vn i
die man darstellende Matrix des Skalarproduktes bezüglich dieser Basis
nennt. Dann gilt für
v = λ1 v1 + . . . + λn vn
w = µ1 v1 + . . . + µn vn
die Beziehung
hv, wi = λT Hµ.
Es gilt außerdem
T
H = HT = H .
Die Matrix H ist invertierbar und es gilt
λT Hλ > 0
für alle λ ∈ Kn , λ 6= 0.
Setzt man wie üblich
φA (λ) =
n
X
λi v i ,
i=1
so gilt also
−1
T
hv, wi = φ−1
A (v) HφA (w)).
Beweis: Wir rechnen die Darstellung des Skalarproduktes nach. Die Komponenten der Matrix H nennen wir hi,j .
n
n
X
X
hv, wi = h
λ i vi ,
µj vj i
i=1
=
n
X
i=1
λi hvi ,
j=1
n
X
j=1
µj vj i
148
KAPITEL 4. DAS SKALARPRODUKT
=
n
X


n
X
λi  hvj , µj vj i
i=1
j=1


n
n
X
X
µj hi,j 
=
λi 
i=1
j=1
 Pn

µi h1,j


..
= λ1 . . . λn 

.
Pn
j=1 µi hn,j
j=1
= λT Hµ.
Aufgrund der Eigenschaften eines Skalarproduktes hat man
hi,j = hvi , vj i = hvj , vi i = hj,i ,
T
also H = H T = H . Gleichfalls hat man λT Hλ > 0 für λ 6= 0. H muss deswegen
auch invertierbar sein, da es sonst ein λ ∈ Kn gäbe mit Hλ = 0 und λ 6= 0. 2
4.8. Definition: Zur Matrix H ∈ K n×m definiert man die adjungierte Matrix
H∗ = HT .
Eine Matrix H ∈ Kn×n mit
H = H∗
nennt man (konjugiert) symmetrisch oder auch selbstadjungierte Matrix
oder Hermitesche Matrix.
4.9 Aufgabe: Zeigen Sie für das Euklidsche Skalarprodukt auf dem K n und jede
Matrix A ∈ Kn×n
hAx, yi = hx, A∗ yi
für alle x, y ∈ Kn .
Zeigen Sie außerdem (A∗ )∗ = A und
hA∗ x, yi = hx, Ayi
für alle x, y ∈ Kn .
4.10. Definition: Eine Hermitesche Matrix mit
λT Hλ > 0
für alle λ ∈ Kn , λ 6= 0
nennt man positiv definite Matrix. Gilt hier nur ”‘≥”’, so nennt man die
Matrix positiv semi-definit. Analog definiert man negativ definite und negativ
semi-definite Matrizen.
4.11. Bemerkung: Eine positiv definite Matrix ist in diesem Skript automatisch auch Hermitesch. Viele Autoren setzen das nicht voraus.
4.12 Aufgabe: Sei H ∈ Kn×n positiv definit. Zeigen Sie, dass dann auch H T und H
positiv definit sind. Zeigen Sie, dass H regulär ist und dass H −1 positiv definit ist.
4.13 Aufgabe: Angenommen, wir setzen bei der Definition von positiven Matrizen
H ∈ Rn×n nicht voraus, dass H = H T ist. Zeigen Sie, dass dann H genau dann positiv
definit ist, wenn die symmetrische Matrix
1
(H + H T )
2
4.1. SKALARPRODUKTE UND NORMEN
149
positiv definit ist.
Wir haben also festgestellt, dass die darstellende Matrix eines Skalarproduktes positiv definit ist. Umgekehrt definiert jede positiv definite Matrix ein
Skalarprodukt, wie der folgende Satz zeigt.
4.14 Satz:
Sei V ein Vektorraum über K und
A = (v1 , . . . , vn )
eine Basis von V , sowie H ∈ Kn×n positiv definit. Dann ist
−1
T
hv, wi = φ−1
A (v) HφA (w))
ein Skalarprodukt auf V mit darstellender Matrix H bezüglich A.
4.15 Aufgabe: Beweisen Sie diesen Satz.
4.16. Bemerkung: Wählt man im Kn speziell die kanonische Basis aus Einheitsvektoren, so ist also
hv, wi = v T Hw
genau dann ein Skalarprodukt auf Kn , wenn H positiv definit ist.
4.17. Beispiel: Ein typisches Skalarprodukt auf dem Raum C[a, b] ist
Z b
hf, gi =
f (t)g(t) dt.
a
In der Analysis wird dieses Skalarprodukt auch auf dem Raum aller Funktion
f : I → R erweitert, für die f 2 im Riemannschen oder Lebesgueschen Sinn
integrierbar sind. Wir können auf die Details dieser Verallgemeinerung hier nicht
eingehen. Man nennt diesen Skalarproduktraum L2 [a, b].
4.18 Aufgabe: Zeigen

1
 1/2


Hn =  1/3
 .
 ..
1/n
Sie, dass die Hilbertmatrix

1/2 1/3 . . .
1/n
 1/3

1

=
i + j − 1 1≤i,j≤n
.. 
. 
...
1/(2n)
positiv definit ist, indem Sie die Matrix als darstellende Matrix des Skalarprodukts
auf L2 [0, 1] erkennen.
4.19 Aufgabe: (a) Berechnen Sie das Minimum von fa (t) = 1+2at+t2 in Abhängigkeit von a und zeigen Sie, dass fa > 0 genau dann gilt, wenn |a| < 1 gilt. (fa > 0
bedeutet natürlich, dass fa (t) > 0 für alle t ∈ R ist.)
(b) Folgern Sie, dass
x2 + 2axy + y 2 > 0
genau dann für alle x, y ∈ R mit x 6= 0 oder y 6= 0 gilt, wenn |a| < 1 ist.
(c) Folgern Sie, dass
bx2 + 2axy + cy 2 > 0
genau dann für alle x, y ∈ R mit x 6= 0 oder y 6= 0 gilt, wenn b > 0 und bc > a2 ist.
(d) Folgern Sie, dass
b
a
a
c
genau dann positiv definit ist, wenn b > 0 und bc > a2 ist.
150
KAPITEL 4. DAS SKALARPRODUKT
4.1.2
Normen
Normen erlauben es, Abstände in Vektorräumen zu messen. Zu jedem Skalarprodukt werden wir eine zugehörige Norm definieren.
4.20. Definition: Sei V ein Vektorraum über K. Eine Abbildung
k·k:V →R
v 7→ kvk
heißt Norm auf dem Vektorraum V , wenn die folgenden Bedingungen gelten.
(1)
kvk > 0
für alle v ∈ V , v 6= 0.
(2)
kλvk = |λ|kvk
für alle λ ∈ K, v ∈ V .
(3)
kv + wk ≤ kvk + kwk
für alle v, w ∈ V .
Ein Vektorraum V mit einer Norm k · k heißt normierter Vektorraum.
Bedingung (3) nennt man die Dreiecksungleichung. Im Rn soll die Norm
kvk der ”‘Länge”’ des Vektors v entsprechen. Die Dreiecksungleichung sagt aus,
dass die Länge von v + w nicht größer ist, als die Länge der beiden anderen
Dreiecksseiten v und w im Dreieck aus Abbildung 2.1 links.
4.21 Aufgabe: Zeigen Sie k0k = 0.
4.22. Definition: Sei M eine Menge. Eine Abbildung
d:M ×M →R
(x, y) 7→ d(x, y)
heißt Metrik auf M , wenn die folgenden Bedingungen gelten.
(1)
d(x, y) = 0 ⇔ x = y
für alle x, y ∈ M .
(2)
d(x, y) = d(y, x)
für alle x, y ∈ M .
(3)
d(x, z) ≤ d(x, y) + d(y, z)
für alle x, y, z ∈ M .
4.23 Aufgabe: Zeigen Sie d(x, y) ≥ 0 für alle x, y ∈ M .
Wieder ist Bedingung (3) die Dreiecksungleichung. Da die Metrik als Abstandsmaß dienen soll, besagt diese Bedingung, dass der Umweg über y länger
ist als die direkte Verbindung von x nach z.
4.24 Aufgabe: Sei V ein normierter Vektorraum mit Norm k · k. Zeigen Sie, dass
dann die Funktion
d(x, y) = kx − yk
für alle x, y ∈ V
4.1. SKALARPRODUKTE UND NORMEN
151
eine Metrik auf V ist.
4.25. Bemerkung: Damit wird ein normierter Raum zu einem metrischen
Raum. Dort kann man daher die Konvergenz einer Folge (xn )n∈N in V zu einem
Wert x ∈ V durch
lim xn = x ⇔ lim kxn − xk = 0
n→∞
n→∞
definieren. Da man außerdem addieren kann, kann man konvergente Reihen
definieren. Diese Verallgemeinerung der Konvergenz wird in der Analysis besprochen.
Wir definieren nun die für uns hier wichtigste Norm. Sie heißt die zum Skalarprodukt zugehörige Norm.
4.26 Satz:
Sei V ein Skalarproduktraum über K. Dann ist
kvk =
p
hv, vi
für alle v ∈ V
eine Norm auf V .
Beweis: Aufgrund der positiven Definitheit von Skalarprodukten ist
hv, vi > 0
für alle v 6= 0. Außerdem h0, 0i = 0. Da die Wurzel für alle nicht-negativen Zahlen definiert ist, ist das Skalarprodukt für alle v ∈ V wohldefiniert. Außerdem
folgen die Bedingungen (1) und (2) für Normen.
Man hat aufgrund der Eigenschaften des Skalarprodukts, und wegen λλ =
|λ|2
q
p
p
kλvk = hλv, λvi = λλhv, vi = |λ| hv, vi = |λ|kvk.
Zum Beweis der Dreiecksungleichung berechnen wir zunächst mit Hilfe von
Aufgabe 4.6
kx + λyk2 = hx + λy, x + λyi
= hx, xi + hλy, λyi + 2Re hx, λyi
= hx, xi + |λ|2 hy, yi + 2 Re λhx, yi.
Nun setzen wir im Fall y 6= 0
λ=−
hx, yi
.
hy, yi
Es folgt damit
0 ≤ kx + λyk2 = hx, xi +
|hx, yi|2
|hx, yi|2
|hx, yi|2
−2
= hx, xi −
.
hy, yi
hy, yi
hy, yi
Man erhält
|hx, yi|2 ≤ hx, xihy, yi = kxk2 kyk2 .
152
KAPITEL 4. DAS SKALARPRODUKT
Aufgrund der Monotonie der Wurzel folgt
|hx, yi| ≤ kxk kyk.
Die ist die sogenannte Schwarzsche Ungleichung, die für alle x, y ∈ V gilt
(auch im Fall y = 0).
Mit Hilfe der Schwarzschen Ungleichung beweisen wir die Dreiecksungleichung. Dazu berechnen wir zunächst wieder mit Aufgabe 4.6
kx + yk2 = kxk2 + kyk2 + 2Re hx, yi.
Es gilt aber für alle komplexen Zahlen z = a + ib
p
Re z = a ≤ a2 + b2 = |z|.
Also, mit der Schwarzschen Ungleichung,
kx + yk2 ≤ kxk2 + kyk2 + 2|hx, yi|
≤ kxk2 + kyk2 + 2kxk kyk
= (kxk + kyk)2 .
Durch Wurzelziehen folgt die Dreiecksungleichung.
2
Wir halten hier noch die wichtige Schwarzsche Ungleichung fest, die wir
schon im obigen Beweis hergeleitet haben. Wir werden für diese Ungleichung im
Fall V = Rn weiter unten eine geometrische Begründung herleiten, die natürlich
kein im Sinne dieser Theorie exakter Beweis sein kann.
4.27 Satz:
Sei V ein Skalarproduktraum. Dann gilt
|hv, wi| ≤ kvk kwk
für alle v, w ∈ V . Gleichheit gilt genau dann, wenn v und w linear abhängig
sind.
Beweis: Den Beweis für die Gültigkeit der Ungleichung haben wir schon
erbracht. Betrachtet man diesen Beweis, so sieht man, dass Gleichheit nur gelten
kann, wenn y = 0 ist, oder x + λy = 0. Dies ist äquivalent dazu, dass x und y
linear abhängig sind.
2
4.28. Beispiel: Die zum Euklidschen Skalarprodukt gehörige Norm auf dem
Rn und auf dem Cn ist die Norm
v
u n
uX
kxk = t
|xi |2
für alle x ∈ Kn
i=1
Entsprechend ist der Abstand zweier Punkte im Kn durch
v
u n
uX
d(x, y) = kx − yk = t
|xi − yi |2
i=1
4.1. SKALARPRODUKTE UND NORMEN
153
gegeben. Dies entspricht im Rn dem geometrischen Abstand der Euklidschen
Geometrie, wie man geometrisch mit Hilfe des Satzes von Pythagoras nachweist.
4.29. Beispiel: Es gibt viele weitere Normen auf dem Kn . Typische Vertreter
sind die 1-Norm
n
X
kxk1 =
|xi |
i=1
und die Maximumsnorm
kxk∞ = max |xi |.
1≤i≤n
4.30 Aufgabe: Weisen Sie nach, dass die 1-Norm und die Maximumsnorm tatsächlich
Normen auf dem Kn sind.
4.31 Aufgabe: Zeichnen Sie die Einheitskugeln
K1 = {x : kxk ≤ 1}
für die Euklidsche Norm, die 1-Norm im Fall n = 1, 2, 3 und K = R.
4.32 Aufgabe: (a) Zeigen Sie die Parallelogrammgleichung
kx − yk2 + kx + yk2 = 2(kxk2 + kyk2 )
für alle Normen, die zu einem Skalarprodukt gehören.
(b) Geben Sie eine Formal für die Länge der Seitenhalbierenden im Dreieck an, abhängig von den Längen der Seiten.
4.33 Aufgabe: Sei K = R. Zeigen Sie
hx, yi =
1
kx + yk2 − kx − yk2
4
für die Norm k · k, die zum Skalarprodukt h·, ·i gehört. Weisen Sie mit Hilfe dieser
Gleichung nach, dass die 1-Norm und die Maximumsnorm zu keinem Skalarprodukt
gehören. Stellen Sie eine entsprechende Gleichung für komplexe Skalarprodukte auf.
4.34 Aufgabe: Zeigen Sie
n
X
|xi | ≤
√
nkxk
i=1
für alle x ∈ Kn mit Hilfe der Schwarzschen Ungleichung, wobei kxk = kxk2 die Euklidsche Norm sei. Finden Sie ein x ∈ Kn , so dass Gleichheit gilt. Zeigen Sie
√
kxk1 ≤ nkxk2 ≤ nkxk∞
und
kxk∞ ≤ kxk2 ≤ kxk1
n
für alle x ∈ K . Kann in diesen Ungleichungen Gleichheit auftreten?
4.35. Beispiel: Das Skalarprodukt in Beispiel 4.17 führt zur Norm
s
Z b
kf k = kf k2 =
f (t)2 dt.
a
154
KAPITEL 4. DAS SKALARPRODUKT
Man nennt diese Norm L2 -Norm. Sie gibt den gemittelten quadrierten Abstand
zweier Funktionen wieder. Durch das Quadrieren werden große Abstände stärker
gewichtet. Eine alternative Norm ist
Z
b
kf k1 =
|f (t)| dt.
a
Dies Norm nennt man L1 -Norm. Sie gewichtet große Abstände nicht so stark.
Ein Nachteil ist, dass diese Norm nicht zu einem Skalarprodukt gehört. Das
andere Extrem ist die L∞ -Norm, die durch
kf k∞ = sup{|f (t)| : t ∈ [a, b]}.
Sie nutzt ausschließlich die großen Abstände.
4.36 Aufgabe: Weisen Sie nach, dass kf k1 und kf k∞ tatsächlich Normen auf dem
Raum C[a, b] sind.
4.37 Aufgabe: Nutzen sie die Schwarzsche Ungleichung, um
√
√
kf k1 ≤ b − akf k2 ≤ b − akf k∞
zu zeigen. Kann hier Gleichheit auftreten? Zeigen Sie aber, dass keine Ungleichungen
der Form
kf k∞ ≤ c1 kf k2 , kf k2 ≤ c2 kf k1
für alle f ∈ C[a, b] gelten.
4.38 Aufgabe: Die reelle Reihe
∞
X
a2i
i=1
sei konvergent. Zeigen Sie, dass dann auch die Reihe
∞
X
|ai |
i
i=1
konvergiert.
4.2
4.2.1
Orthogonalität
Senkrechte Vektoren
Senkrechte stehende Vektoren spielen natürlich eine besondere Rolle in der Geometrie. Wir sind in diesem Abschnitt zunächt an Orthonormalbasen interessiert.
Das sind Basen, die aus paarweise senkrecht stehenden, normierten Vektoren
bestehen. Mit solchen Basen kann man besonders leicht rechnen. Das ist insbesondere in Funktionenräumen nützlich.
4.39 Aufgabe: Überlegen Sie sich im R2 oder R3 anhand einer Skizze, dass der Vektor
x genau dann senkrecht auf dem Vektor y steht, wenn die Differenzenvektoren x − y
4.2. ORTHOGONALITÄT
155
und x − (−y) gleich lang sind. Rechnen Sie nach, dass dies äquivalent zu hx, yi = 0
ist.
4.40. Definition: Sei V ein Vektorraum über K mit einem Skalarprodukt
hv, wi. Zwei Vektoren v, w heißen senkrecht zueinander, wenn
hv, wi = 0
ist. Man schreibt dafür
v ⊥ w.
Wenn U ein Unterraum von V ist, so heißt v senkrecht auf U , wenn
v⊥u
für alle u ∈ U
gilt. Man schreibt
v ⊥ U.
4.41. Bemerkung: Es gilt natürlich
v ⊥ w ⇔ w ⊥ v.
Es gilt aber nicht, dass aus v ⊥ w und w ⊥ z folgt, dass v ⊥ z sein muss.
4.42. Bemerkung: In Fall K = C genügt
Re hv, ui = 0
für alle u ∈ U ,
damit v ⊥ U ist. Denn mit u ∈ U ist auch iu ∈ U und es folgt
Im hv, ui = Re (−i)hv, ui = Re hv, iui = 0,
weil für jede komplexe Zahl Im z = Re (−iz) gilt.
4.43 Aufgabe: Sei U ein endlich dimensionaler Unterraum des Skalarproduktraumes
V mit Erzeugendensystem u1 , . . . , un . Zeigen Sie, dass v ⊥ U genau dann gilt, wenn
v ⊥ ui
für alle i = 1, . . . , n
gilt.
Wir beweisen nun eine allgemeine Version des Satzes von Pythagoras. Dies ist
natürlich kein Beweis des eigentlichen geometrischen Sachverhaltes, weil wir den
Satz quasi in die Definition des Skalarproduktes und der Norm hineingesteckt
haben.
4.44 Satz: Es gilt
v ⊥ w ⇒ kv + wk2 = kvk2 + kwk2 .
Im reellen Fall gilt auch die umgekehrte Implikation.
Beweis:
kv + wk2 = kvk2 + kwk2 + 2Re hv, wi.
156
KAPITEL 4. DAS SKALARPRODUKT
Wenn also hv, wi = 0 ist, folgt der Satz des Pythagoras. Wenn umgekehrt dieser
Satz gilt, muss im reellen Fall Re hv, wi = hv, wi = 0 sein
4.45. Definition: Eine Teilmenge M eines Raums V mit Skalarprodukt hv, wi
heißt Orthogonalsystem, wenn es die 0 nicht enthält und
v⊥w
für alle v, w ∈ M , v 6= w
gilt. Ein Orthogonalsystem mit normierten Vektoren nennen wir in diesem
Skript Orthonormalsystem. Ein Orthogonalsystem heißt Orthonormalbasis, wenn es Basis von V ist, und wenn
kvk = 1
für alle v ∈ M
2
gilt.
Wie üblich, nennen wir n paarweise verschiedene Vektoren v1 , . . . , vn ein Orthonormalsystem, bzw. eine Orthonormalbasis, wenn die Menge {v1 , . . . , vn } ein
Orthogonalsystem, bzw. eine Orthonormalbasis, im Sinne der obigen Definition
ist.
4.46 Satz:
Jedes Orthogonalsystem M ⊆ V ist linear unabhängig.
Beweis: Seien v1 , . . . , vn ∈ M paarweise verschieden und
n
X
λi vi = 0.
i=1
Dann folgt durch Multiplikation mit vj , j ∈ {1, . . . , n}
λj < vj , vj >= 0.
2
Wegen vj 6= 0 folgt λj = 0.
Der folgende Satz besagt, dass jeder endlich dimensionale Raum eine Orthogonalbasis hat. Der Beweis erfolgt mit einem Konstruktionsverfahren, das man
Orthonormalisierungs-Verfahren von Gram-Schmidt (oder einfach Schmidtsches Verfahren) nennt.
4.47 Satz: Jeder endlich dimensionale Skalarproduktraum V über K besitzt
eine Orthonormalbasis. Man kann jedes Orthonormalsystem zu einer Orthonormalbasis von V ergänzen.
Beweis: Für V = {0} ist die leere Menge eine Orthogonalbasis.
Sonst wählen wie ein ṽ1 ∈ V mit ṽ1 6= 0 und normieren
v1 =
1
ṽ1 .
kṽ1 k
Dann bildet {v1 } eine Orthonormalsystem in V .
Angenommen, wir haben ein Orthonormalsystem v1 , . . . , vn in V , und
v∈
/ U = span {v1 , . . . , vn }.
4.2. ORTHOGONALITÄT
157
Wir setzen
ṽn+1 = v −
n
X
hv, vi ivi .
i=1
Man berechnet
hṽn+1 , vi i = 0
für alle i = 1, . . . , n,
also ṽn+1 ⊥ U . Da v ∈
/ U ist, folgt ṽn+1 6= 0. Wir können also
vn+1 =
1
ṽn+1
kṽn+1 k
setzen. Es folgt vn+1 ⊥ U . Daher ist v1 , . . . , vn+1 eine Orthonormalbasis von
span {v1 , . . . , vn+1 }.
Da V endlich dimensional ist und Orthognormalsysteme linear unabhängig,
muss dieses Verfahren irgendwann enden, und wir erhalten eine Orthonormalbasis von V . Aufgrund des Konstruktionsverfahrens ist klar, dass man damit jedes
Orthogonalsystem in V mit normierten Vektoren zu einer Orthonormalbasis
2
ergänzen kann.
4.48. Bemerkung: Zur Vermeidung von Wurzeln ist es günstiger, zunächst
nicht zu normieren. Dazu nehmen wir ein Orthogonalsystem v1 , . . . , vn an und
einen Vektor v. Man muss dann, im Unterschied zum Verfahren im Beweis des
Satzes,
n
X
hv, vi i
vi .
vn+1 = v −
hv
i , vi i
i=1
setzen und erst am Ende alle vi normieren. Außerdem kann man zur Vermeidung
von Brüchen zunächst ein geeignetes Vielfaches von vn+1 verwenden. Wenn man
versehentlich ein v ∈ span {v1 , . . . , vn } nimmt, so wird vn+1 = 0.
4.49. Bemerkung: Ausgehend von einem beliebigen linear unabhängigen System w1 , . . . , wn in V kann man mit dem Verfahren ein Orthonormalsystem
v1 , . . . , vn erhalten, so dass
span {v1 , . . . , vk } = span {w1 , . . . , wk }
für alle k = 1, . . . , n
gilt. Dazu wählt man in jedem Schritt v = wk+1 , also gleich dem nächsten, noch
nicht verwendeten Basisvektor.
4.50. Beispiel: Ausgehend von
 
1
v1 = 1
1
bestimmen wir eine Orthonormalbasis von R3 . Man kann nun einen beliebigen
Vektor v ∈
/ span {v1 } nehmen. Wir nehmen v = e1 . Also
ṽ2 = e1 −
he1 , v1 i
v1 .
hv1 , v1 i
158
KAPITEL 4. DAS SKALARPRODUKT
In konkreten Zahlen


−2/3
ṽ2 =  1/3 
1/3
Zur Vermeidung von Brüchen nehmen wir
 
−2
v2 =  1  .
1
Weiter mit v = e2
ṽ3 = e2 −
In Zahlen
he2 , v2 i
he2 , v1 i
v1 −
v2 .
hv1 , v1 i
hv2 , v2 i


0
ṽ3 =  1/2  .
−1/2
Also, zur Vermeidung von Brüchen

0
v3 =  1 
−1

In der Tat stehen alle drei Vektoren senkrecht aufeinander. Wir erhalten durch
Normieren die folgende Orthonormalbasis
 
 
 
1
−2
0
1  
1  
1  
√
1 , √
1 , √
1 .
3 1
6
2 −1
1
4.51. Beispiel: Im Raum C[0, 1] mit dem Skalarprodukt
1
Z
hf, gi =
f (t)g(t) dt
0
stellen wir eine Orthonormalbasis von P2 auf, und zwar ausgehend von der Basis
w0 (x) = 1,
w1 (x) = x,
w2 (x) = x2 .
Dazu setzen wir f0 (x) = w0 (x) = 1. Als Funktion v wählen wir nun die Funktion
v(x) = w1 (x) = x. Also
hv, f0 i
f1 = v −
f0 .
hf0 , f0 i
Man berechnet
1
Z
hf0 , f0 i =
1 dt = 1.
0
und
Z
hv, f0 i =
1
x dt =
0
1
.
2
4.2. ORTHOGONALITÄT
159
Also
1
f1 (x) = x − .
2
Im nächsten Schritt wählen wir v(x) = w2 (x) = x2 . Wir haben wieder
hv, f0 i
hv, f1 i
f0 −
f1
hf0 , f0 i
hf1 , f1 i
f2 = v −
zu berechnen. Man erhält
1
f2 (x) = x2 − x + .
6
Die Funktionen f0 , f1 , f2 müssen nun noch normiert werden.
4.52 Satz: Sei v1 , . . . , vn ein Orthonormalsystem in V . Dann gilt für jedes
v ∈ V die Besselsche Ungleichung
v
u n
uX
|λi |2 .
kvk ≥ t
i=1
mit
λi =< v, vi >
für alle i = 1, . . . , n.
Gleichheit gilt genau dann, wenn
v ∈ span {v1 , . . . , vn }
ist (Parsevalsche Gleichung). In diesem Fall gilt
v=
n
X
λ i vi .
i=0
Dies ist insbesondere dann für alle v ∈ V der Fall, wenn v1 , . . . , vn eine Orthonormalbasis bilden.
Beweis: Zu v ∈ V definieren wir
ṽ =
n
X
λ i vi .
i=1
mit λi = hv, vi i für i = 1, . . . , n. Dann gilt
hv − ṽ, vj i = hv, vj i − hṽ, vj i
n
X
= hv, vj i −
λi hvi , vj i
i=1
= hv, vj i − λj
= 0.
für alle j = 1, . . . , n. Man erhält
v − ṽ ⊥ ṽ.
160
KAPITEL 4. DAS SKALARPRODUKT
Es folgt aus Satz 4.44
kvk2 = kv − ṽk2 + kṽk2 ≥ kṽk2
Nun berechnet man
kṽk2 = hṽ, ṽi
n
n
X
X
=h
λ i vν ,
λ i vν i
i=1
=
=
i=1
n X
n
X
λi λj hvi , vj i
i=1 j=1
n
X
|λi |2 .
i=1
Damit ist die Besselsche Ungleichung bewiesen. Die Gleichheit gilt außerdem
2
nur dann, wenn v = ṽ ist.
4.53. Bemerkung: Wenn wir in einem Skalarproduktraum V ein abzählbares
Orthornormalsystem
M = {v1 , v2 , . . .}
von paarweise verschiedenen Vektoren vi , i ∈ N, haben, so folgt die allgemeine
Besselsche Ungleichung
∞
X
kvk2 ≥
|hv, vi i|2
i=1
für alle v ∈ V . Wenn hier Gleichheit für alle v ∈ V gilt, so nennt man M eine
Schauder-Basis von V . In diesem Fall konvergiert die Folge
n
X
< v, vi > vi
i=1
mit n → ∞ gegen v. Dieser Sachverhalt ist Gegenstand der Funktionalanalysis.
4.54 Aufgabe: Sei v1 , . . . , vn ein Orthonormalsystem in V , sowie
v = λ1 v1 + . . . + λn vn
Zeigen Sie
kvk = |λ1 |2 + . . . + |λn |2 .
Sei
w = µ1 v1 + . . . + µn vn .
Zeigen Sie
hv, wi =
n
X
ν=1
λ ν µν
4.2. ORTHOGONALITÄT
161
Abbildung 4.1: Orthogonale Projektion von v auf den Unterraum g
4.2.2
Orthogonale Projektion
Senkrechte Vektoren sind hauptsächlich nützlich, um kürzeste Abstände zu finden. Dabei wird der Abstand mit Hilfe der zum Skalarprodukt zugehörigen
Norm gemessen.
In Abbildung 4.1 ist geometrisch klar, dass die Verbindung v − w unter allen
w ∈ g am kürzesten wird, wenn v − w senkrecht auf dem Unterraum g steht.
Wir werden dies präzisieren und beweisen.
4.55. Definition: Für eine nicht-leere Teilmenge A ⊆ V eines metrischen
Raums V und ein v ∈ V definieren wir den Abstand von v zu A als
d(v, A) = inf{d(v, x) : x ∈ A}.
4.56. Bemerkung: Dieses Infimum existiert, weil die Menge der Abstände
d(v, x), x ∈ A nicht leer und nach unten durch 0 beschränkt ist. Das Infimum
braucht aber kein Minimum zu sein. So ist etwa
d(0, ]1, 2[) = 1
in R aber kein Punkt im Intervall ]1, 2[ hat den minimalen Abstand.
4.57 Satz: Sei V ein Skalarproduktraum über K. Sei v ∈ V , und A = a + U
ein affiner Unterraum des Vektorraums V , also U ein Unterraum von V . Dann
gilt für w ∈ A genau dann
kv − wk = d(v, A),
162
KAPITEL 4. DAS SKALARPRODUKT
wenn
v−w ⊥U
ist. w ist in diesem Fall eindeutig bestimmt, und es gilt
kv − wk2 + kw − w̃k2 = kv − w̃k2
für alle w̃ ∈ A.
Beweis: Sei zunächst die Orthogonalitätsbedingung
v−w ⊥U
erfüllt. Sei w̃ ∈ A. Dann gilt w − w̃ ∈ U und daher
kv − w̃k2 = kv − wk2 + kw − w̃k2
nach Sath 4.44. Es folgt, dass kv − wk minimal ist, und dass w das eindeutig
bestimmte Minimum ist.
Sei nun umgekehrt w minimal, also
kv − wk = d(v, A).
Sei u ∈ U und λ > 0. Dann gilt
kv − (w − λu)k2 = k(v − w) + λuk2
= kv − wk2 + kλuk2 + 2Re hv − w, λui.
Nun ist w − λu ∈ A und daher
2Re hv − w, λui = kv − (w − λu)k2 − kv − wk2 − kλuk2
≥ −kλuk2 .
Division durch λ ergibt
2Re hv − w, ui ≥ −λkuk2 .
für alle λ > 0. Es folgt
Re hv − w, ui ≥ 0.
Da u ∈ U beliebig war, gilt diese Bedingung für alle u ∈ U . Also auch
Re hv − w, −ui = −Re hv − w, ui ≥ 0.
Es folgt
Re hv − w, ui = 0
für alle u ∈ U .
Nach Bemerkung 4.42 bedeutet dies v − w ⊥ U .
2
Der obige Satz behauptet nicht, dass immer ein Element bester Approximation existieren muss. In der Tat ist das auch nicht richtig. Wenn aber U endlich
dimensional ist, so muss immer eine beste Approximation existieren, wie der
folgende Satz konstruktiv zeigt.
4.58 Satz: Sei V ein Skalarproduktraum A = a + U ein affiner Unterraum,
wobei U ein endlich dimensionaler Unterraum von V sei. Dann existiert zu
jedem v ∈ V ein w ∈ U , so dass kv − wk minimal unter allen w ∈ A wird.
4.2. ORTHOGONALITÄT
163
Beweis: Sei v1 , . . . , vn eine beliebige Basis des Unterraums U . Wir suchen zu
v ∈ V ein w ∈ a + U mit v − w ⊥ U . Gesucht sind also λ1 , . . . , λn mit
n
X
v − (a +
λi vi ) ⊥ vj
für alle j = 1, . . . , n
i=1
Dies ist äquivalent zu
hv − a, vj i −
n
X
λi hvi , vj i = 0
für alle j = 1, . . . , n
i=1
Also
n
X
λi hvi , vj i = hv − a, vj i
für alle j = 1, . . . , n.
i=1
Dies ist offenbar ein lineares Gleichungssystem für λ1 , . . . , λn . Das Gleichungssystem ist immer lösbar. Denn die zugehörige Matrix ist die darstellende Matrix
des Skalarproduktes auf U und daher regulär nach Satz 4.7.
2
4.59. Bemerkung: Wenn v1 , . . . , vn eine Orthonormalbasis von U ist, so vereinfacht sich die darstellende Matrix zur Einheitsmatrix In und wir erhalten
λi = hv − a, vi i
für alle i = 1, . . . , n.
Wenn v1 , . . . , vn lediglich ein Orthogonalsystem ist, so berechnet man das minimale Element aus a + U als
w =a+
n
X
hv − a, vi i
i=1
hvi , vi i
vi ∈ U,
Das ist bedeutend einfacher als das Lösen eines linearen Gleichungssystems wie
im Beweis des Satzes. Dies ist einer der Gründe für die Wichtigkeit von Orthonormalbasen.
4.60. Bemerkung: Das Orthonormalisierungs-Verfahren von Gram-Schmidt
lässt sich also folgendermaßen deuten. Wenn v1 , . . . , vn ein Orthogonalsystem
ist und
v∈
/ span {v1 , . . . , vn } = U.
Dann ist also
w=
n
X
hv, vi i
vi
hv
i , vi i
i=1
das Element minimalen Abstands zu v aus U . Es gilt
v − w ⊥ U.
Daher setzen wir
vn+1 = v − w = v −
n
X
hv, vi i
vi .
hv
i , vi i
i=1
164
KAPITEL 4. DAS SKALARPRODUKT
Wir halten noch den folgenden wichtigen Satz fest. Man nennt die dort
definierte Abbildung die orthogonale Projektion.
4.61 Satz: Sei U ein endlich dimensionaler Unterraum eines Skalarproduktraumes V . Die Abbildung
π : V → U,
die v ∈ V das Element minimalen Abstands aus U zuordnet, ist eine lineare
Abbildung. Es gilt π 2 = π und
v − π(v) ⊥ U
für alle v ∈ V .
Beweis: Wir wählen eine Orthonormalbasis v1 , . . . , vn von U . Dann ist aufgrund der vorigen Bemerkung
π(v) =
n
X
hv, vi ivi ,
i=0
also eine lineare Abbildung. Wegen π(v) ∈ U ist π(π(v)) = π(v). Die letzte
Behauptung ist Gegenstand von Satz 4.57.
2
4.62 Satz: Sei u1 , . . . , uk ∈ Kn ein Orthormalsystem bezütlich des kanonischen Skalarprodukts in Kn und
U = span {u1 , . . . , uk },
sowie πU : V → U die orthogonale Projektion auf U . Dann ist die darstellende
Matrix dieser Projektion bezüglich der kanonischen Einheitsmatrix
ME,E (πU ) =
k
X
vν vν∗
ν=1
Beweis: Offenbar gilt
k
X
!
vν vν∗
vl =
ν=1
k
X
vν (vν∗ vl ) = vl
ν=1
für l = 1, . . . , k. Andererseits
k
X
!
vν vν∗
v=
ν=1
k
X
vν (vν∗ v) = 0
ν=1
für jedes v ∈ U ⊥ . Erweitert man v1 , . . . , vk zu einer Orthonormalbasis von v, so
stimmt die Abbildung
!
k
X
∗
v 7→
vν vν v
ν=1
also auf dieser Basis mit πU überein.
2
4.2. ORTHOGONALITÄT
165
4.63. Beispiel: Die Spiegelung φ an der durch die orthonormalen Vektoren
v 1 , . . . , v k ∈ Rn
erzeugten Ebene U hat also die darstellende Matrix
!
k
X
T
2
vν vν − In .
ν=1
Denn
φ(v) = v − 2(v − πU (v)) = 2πU (v) − v.
Wir spiegeln etwa in R2 an der Winkelhalbierenden und erhalten
1 1
1
0 1
2· √
· √ 1 1 − I2 =
1 0.
2 1
2
Abbildung 4.2: Geometrische Interpretation des Skalarprodukts.
4.64. Beispiel: Sei w ∈ R2 \ {0} und
G = span {w}.
Für v ∈ R2 \ G ist dann
v − s ⊥ G.
mit
s=
hv, wi
w
hw, wi
Im linken Bild der Abbildung 4.2 ist v, w und das Element minimalen Abstands
s eingezeichnet. Es gilt
ksk2 + kv − sk2 = kvk2 .
166
KAPITEL 4. DAS SKALARPRODUKT
Außerdem überlegt man sich geometrisch in dieser Abbildung
cos α =
ksk
|hv, wi|
1
|hv, wi|
=
kwk
=
.
kvk
|hw, wi|
kvk
kwk kvk
In der linken Abbildung gilt daher hv, wi > 0, also
hv, wi = kvk kwk cos α.
Im rechten Bild ist hv, wi < 0 und es gilt dasselbe, wie man sich ebenfalls
überlegt. Die Menge
H = {v ∈ R2 : hv, wi > 0}
ist also die Halbebene aller Vektoren, die einen spitzen Winkel mit w bilden.
Aufgrund von | cos α| ≤ 1 erklärt diese Formel auch die Schwarzsche Ungleichung
|hv, wi| ≤ kvk kwk.
4.65 Aufgabe: (a) Zeigen Sie, dass der kürzeste Abstand von einem Punkt x ∈ R2
zur Geraden
G = {a + λv : λ ∈ R}
im R2 durch die Formel
d(x, G) =
|hx − a, ṽi|
kṽk
gegeben ist für jeden Vektor ṽ ⊥ v, ṽ 6= 0. Was hat das mit der aus der Schule
bekannten Hesseschen Normalform zu tun?
(b) Wie muss man (a) im Fall von Ebenen im R3 modifizieren?
(c) Zeigen Sie
d(x, G)2 = kx − ak2 −
|hx − a, vi|2
.
kvk2
4.66 Aufgabe: Sei V = P1 , der Raum der linearen Funktionen mit der Basis
v0 (t) = 1,
v1 (t) = t,
sowie f (t) = t2 . Wir versehen C[0, 1] mit dem Skalarprodukt aus 4.51. Verwenden Sie
die Methode aus dem Beweis von Satz 4.58, um die beste Approximation bzgl. P1 an
f zu berechnen.
4.67 Aufgabe: (a) Seien E = a + U und F = b + V zwei affine Unterräume des Rn ,
die sich nicht schneiden (U und V seien Unterräume des Rn ). Zeigen Sie dass v ∈ E
und w ∈ F genau dann Elemente mit minimalen Abstand
kv − wk = inf{kṽ − w̃k : ṽ ∈ E, w̃ ∈ F }
sind, wenn
v − w ⊥ U,
v−w ⊥V
gilt.
(b) Stellen Sie mit Hilfe von Basen u1 , . . . , uk von U und v1 , . . . , vl von V ein lineares
Gleichungssystem zur Berechnung von v und w auf.
4.2. ORTHOGONALITÄT
4.2.3
167
Orthogonale Abbildungen
In der Geometrie der Ebene oder des Raumes sind wir besonders an Abbildungen
interessiert, die die Abstände von Punkten erhalten. Solche Abbildungen nennt
man Bewegungen. Dieses Konzept ist auch in beliebigen Skalarprodukträumen
nützlich.
4.68. Definition: Seien V , W Skalarprodukträume und φ : V → W linear.
Dann heißt φ orthogonale Abbildung, wenn sie orthonormale Systeme auf
orthonormale Systeme abbildet.
4.69. Beispiel: Die einzigen orthogonale Abbildungen von R2 in sich sind die
Drehungen und die Spiegelungen an einer Geraden. Anschaulich ist klar, dass
diese Abbildungen die Norm erhalten und senkrechte Vektoren auf senkrechte
Vektoren abbilden. Wir werden später darauf zurück kommen. Die einzigen
orthogonale Abbildungen von R3 in sich sind Drehungen um eine feste Achse
und Spiegelungen an Ebenen. Auch darauf werden wir später zurück kommen.
4.70. Bemerkung: Die in der Definition gegebene Bedingung für Orthogonalität einer Abbildung impliziert insbesondere, dass normierte Vektoren normiert
bleiben. Wir werden im folgenden Satz sehen, dass dies schon genügt. Wir werden auch sehen, dass es genügt, dass eine einzige, gegebene Orthonormalbasis auf
ein Orthonormalsystem abgebildet wird. Oft wird übrigens die Bedingung (2)
des folgenden Satzes als Definition genommen.
4.71 Satz: Seien V , W Skalarprodukträume und φ : V → W linear. Dann
sind äquivalent
(1) φ ist orthogonal.
(2) φ erhält das Skalarprodukt. Das heißt
hφ(v1 ), φ(v2 )i = hv1 , v2 i
für alle v1 , v2 ∈ V .
(3) φ erhält die Norm. Das heißt
kvk = kφ(v)k
für alle v ∈ V .
(4) φ bildet Vektoren mit Norm 1 auf Vektoren mit Norm 1 ab, also
kvk = 1 ⇒ kφ(v)k = 1
für alle v ∈ V .
(5) Eine einzige, feste Orthonormalbasis von V wird auf ein Orhtonormalsystem
in W abgebildet.
Beweis: ”‘(1)⇒(4)”’: Dies folgt unmittelbar aus der Definition. Denn jeder
Vektor mit Norm 1 bildet ein Orthonormalsystem.
”‘(4)⇒(3)”’: Aus (4) folgt für alle v ∈ V , v 6= 0,
1
1
kφ(v)k = kφ(
v)k = 1,
kvk
kvk
also kφ(v)k = kvk. Für v = 0 ist das ohnehin klar.
168
KAPITEL 4. DAS SKALARPRODUKT
”‘(3)⇒(2)”’: Wir erinnern uns an
Re hv1 , v2 i =
1
kv1 + v2 k2 − kv1 − v2 k2 .
4
Wenn also φ die Norm erhält, so gilt
1
kφ(v1 ) + φ(v2 )k2 − kφ(v1 ) − φ(v2 )k2
4
1
=
kv1 + v2 k2 − kv1 − v2 k2
4
= Re hv1 , v2 i.
Re hφ(v1 ), φ(v2 )i =
Wegen
Im hφ(v1 ), φ(v2 )i = −Re hφ(iv1 ), φ(v2 )i = −Re hiv1 , v2 i = Im hv1 , v2 i
erhält φ auch den Imaginärteil des Skalarprodukts.
”‘(2)⇒(1)”’: Wenn φ das Skalarprodukt erhält, erhält es die Normen von Vektoren, und es bildet senkrechte Vektoren auf senkrechte Vektoren ab. Also ist φ
orthogonal.
”‘(1)⇒(5)”’ ist klar aufgrund der Definition von orthogonalen Abbildungen.
”‘(5)⇒(4)”’: Sei B eine Orthonormalbasis von V und v ∈ V mit kvk = 1. Wir
stellen v bezüglich B durch
v = l1 v1 + . . . + λ n vn
dar. Man berechnet nach Aufgabe 4.54
1 = kvk = |λ1 |2 + . . . + |λn |2 .
Da nach Voraussetzung φ(v1 ), . . . , φ(vn ) ein Orthonormalsystem in W bilden,
erhält man ebenso kφ(v)k = 1.
2
4.72 Satz:
Seien V ein Skalarproduktraum mit Orthonormalbasis
A = {v1 , . . . , vn }
und W ein Skalarproduktraum mit Orthonormalbasis
B = {w1 , . . . , wm },
sowie φ : V → W linear. Dann ist φ genau dann orthogonal, wenn die Spalten
von
M = MA,B (φ)
ein Orthonormalsystem im Rm bilden.
Beweis: Aufgrund der Eigenschaften der darstellenden Matrix gilt
φ(vk ) = m1,k w1 + . . . + mm,k wm
für alle k = 1, . . . , n,
4.2. ORTHOGONALITÄT
169
wobei mi,j die Einträge von M seien. Mit Aufgabe 4.54 erhält man
hφ(vk ), φ(vl )i =
m
X
mµ,k mµ,l .
µ=1
Daraus folgt die Behauptung mit Hilfe des vorigen Satzes.
2
4.73 Aufgabe: Zeigen Sie, dass die Spalten einer Matrix A ∈ Km×n genau dann ein
Orthonormalsystem bilden wenn
A∗ A = In
ist. Im Fall n = m ist also dann A regulär und A−1 = A∗ .
4.74. Definition: Eine reguläre Matrix A ∈ Kn×n heißt unitäre Matrix,
wenn A−1 = A∗ ist. Eine reelle unitäre Matrix nennt man auch orthogonale
Matrix.
4.75 Aufgabe: Zeigen Sie, dass mit A ∈ Kn×n auch AT , A∗ und A unitär sind. Also
bilden auch die Zeilen von A ein Orthonormalsystem.
4.76. Bemerkung: Seien der Kn und Km versehen mit dem Euklidschen Skalarprodukt, und A ∈ Km×n . Dann ist die Abbildung
φ A : Kn → Km
φA (x) = Ax
also genau dann orthogonal, wenn die Spalten von A ein Orthonormalsystem
im Km bilden. Im Fall n = m muss dann also A unitär sein.
4.77. Beispiel: Die Drehung um den Winkel α
cos(α) − sin(α)
Dα =
sin(α) cos(α)
ist eine orthogonale Abbildung. Im R3 ist die Drehung um eine beliebige Achse eine orthogonale Abbildung. Die Matrix der Drehung um die x1 -Achse ist
beispielsweise


1
0
0
Dα,x1 = 0 cos(α) − sin(α) .
0 sin(α) cos(α)
4.78 Aufgabe: Berechnen Sie Matrix der Hintereinanderausführung zweier Drehungen um Winkel α und β im R2 und vergleichen Sie mit der Drehung um α + β.
4.79 Aufgabe: Berechnen Sie die Matrix einer Spiegelung an der von x ∈ R2 aufgespannten Geraden, x 6= 0.
4.80 Aufgabe: Geben Sie alle möglichen orthonormalen Matrizen A ∈ R2×2 an.
Zeigen Sie so, dass jede orthogonale Abbildung des R2 in sich eine Drehung ist oder
eine Drehung mit anschließender Spiegelung.
4.81 Aufgabe: Die Drehachse eine Drehung im R3 sei um den Winkel β zur zAchse geneigt und liege in der x-z-Ebene. Berechnen Sie die Matrix der Drehung um
170
KAPITEL 4. DAS SKALARPRODUKT
diese Achse um den Winkel α, indem Sie die Drehung als Produkt von Drehungen um
Hauptachsen schreiben.
4.82 Aufgabe: Drehen Sie im R3 die x-y-Ebene einmal um die x-Achse nach links
und einmal um die y-Achse nach rechts um 23 Grad. Der Schnitt weist dann in den
positiven Oktanden.
(a) Geben Sie Gleichungen und senkrechte Vektoren für die beiden gedrehten Ebenen
an. Berechnen Sie den Winkel zwischen diesen Vektoren. Berechnen Sie den Winkel
zwischen den beiden Ebenen, der nach unten (in Richtung −z) weist.
(b) Berechnen Sie den Richtungsvektor der Schnittgeraden und den Winkel, den dieser
Vektor zur x-y-Ebene hat.
4.83. Definition: Eine affine Abbildung ψ : V → V , V ein Skalarproduktraum, heißt Bewegung, wenn die zugehörige lineare Abbildung orthogonal
ist.
Bei dieser Definition ist vorausgesetzt, dass ψ affin ist. Wir können aber
in endlich dimensionalen Räumen Bewegungen unabhängig von der Linearität
charakterisieren.
4.84 Satz: Sei V ein Skalarproduktraum. Eine Abbildung ψ : V → V ist
genau dann eine Bewegung, wenn sie Abstände erhält. Das heißt es gilt
kψ(v) − ψ(w)k = kv − wk
für alle v, w ∈ V .
Beweis: Gemäß Satz (3.152) und der darauf folgenden Bemerkungen genügt
es zu zeigen, dass ψ Affinkombinationen von zwei Vektoren erhält. Sei v, w ∈ V ,
sowie λ + µ = 1. Dann gelten mit
u = φ(λv + µw)
die Gleichungen
ku − φ(v)k = |µ| kv − wk,
ku − φ(w)k = |λ| kv − wk,
kφ(v) − φ(w)k = kv − wk.
Dieselben Gleichungen gelten auch für
ũ = λφ(v) + µφ(w).
Wenn wir also zeigen, dass es nur eine Lösung der Gleichungen gibt, so folgt
u = ũ und damit die Behauptung. Man kann die Eindeutigkeit mit Hilfe der
2
folgenden Aufgabe nachweisen.
4.85 Aufgabe: Bezeichne für einen Skalarproduktraum
Dr (x) := {y ∈ V : kx − yk ≤ r}
die ”‘Kugel”’ mit Radius r um x.
(1) Wenn dann
Dr (x) ⊂ Dρ (y)
4.2. ORTHOGONALITÄT
171
gilt, so gilt r ≤ ρ, und für r < ρ haben Dr (x) und Dρ (y) höchstens einen Punkt
gemeinsam.
(2) Wenn
Dr (x) ⊂ V \ Dρ (y)
ist, so haben Dr (x) und Dρ (y) höchstens einen Punkt gemeinsam.
4.2.4
Orthogonale Unterräume
Wir haben schon definiert, wann ein Vektor senkrecht auf einem Unterraum
ist. Was ist nun die Menge aller Vektoren, die auf einem Unterraum senkrecht
stehen?
4.86. Definition: Sei U ein Unterraum eines Skalarproduktraums V . Dann
definieren wir
U ⊥ := {v ∈ V : v ⊥ U }.
4.87 Aufgabe: Zeigen Sie, dass U ⊥ ein Unterraum von V ist.
4.88 Satz: Sei V ein Skalarproduktraum und U ein Unterraum von V . Dann
gilt
U ⊆ (U ⊥ )⊥
Wenn V endlich dimensional ist, so gilt
U = (U ⊥ )⊥
und
V = U ⊕ U ⊥,
und daher
dim V = dim U + dim U ⊥ .
Beweis: Sei u ∈ U . Für alle v ∈ U ⊥ gilt dann v ⊥ u, also auch u ⊥ v. Es
folgt u ∈ (U ⊥ )⊥ .
Wenn V endlich dimensional ist, so gibt es eine Orthonormalbasis u1 , . . . , uk
von U . Wir ergänzen diese Basis zu einer Orthonormalbasis
u1 , . . . , uk , uk+1 , . . . , un
von V . Falls
u=
n
X
λν uν
ν=1
in U ⊥ ist, so muss auch hu, uν i = 0 für ν = 1, . . . , k sein. Also λ1 = . . . = λk = 0.
Es folgt
U ⊥ ⊆ span {uk+1 , . . . , un }.
Aber ”‘⊇”’ ist auch leicht zu sehen. Daraus folgt die Behauptung. Da die beiden
Basen von U und U ⊥ sich zu einer Basis von V ergänzen, folgt V = U ⊕ U ⊥ .
2
172
KAPITEL 4. DAS SKALARPRODUKT
4.89 Satz: Sei V ein endlich-dimensionaler Skalerproduktraum und E =
a + U ein affiner Unterraum von E. Dann gilt für alle v ∈ V
d(v, E) = kπU ⊥ (v − a)k,
wobei πU ⊥ die orthogonale Projektion auf U ⊥ bezeichne.
4.90 Aufgabe: Beweisen Sie diesen Satz.
4.91 Aufgabe: Was passiert im obigen Satz im Fall dim U = 0 oder dim U = dim V .
4.92. Bemerkung: In unendlich dimensionalen Vektorräumen muss (U ⊥ )⊥
nicht gleich U sein gelten. In C[a, b] gilt beispielsweise
P ⊥ = {0},
wobei P der Unterraum aller Polynome (beliebigen Grades) ist mit dem Skalarprodukt aus Beispiel 4.17. Dies folgt aus dem Satz von Weierstraß, auf den wir
hier nicht weiter eingehen können. Es gilt also
(P ⊥ )⊥ = C[a, b] 6= P.
4.93 Aufgabe: Sei π : V → U die orthogonale Projektion auf den Unterraum U des
endlich dimensionalen Skalarproduktraums V . Zeigen Sie
Kern π = (Bild π)⊥ .
4.2.5
Die adjungierte Abbildung
Die adjungierte Abbildung ist ein in Funktionenräumen wichtiges Hilfsmittel.
Wir leiten sie hier nur für endlich dimensionale Räume her.
Der folgenden Satz heißt in unendlich dimensionalen Vektorräumen Rieszscher Darstellungssatz. Man benötigt dort aber die zusätzliche Voraussetzungen, dass das Funktional stetig und der Raum ein sogenannter Hilbertraum
ist. Wir können hier darauf nicht weiter eingehen.
4.94 Satz: Sei V ein endlich dimensionaler Skalarproduktraum und φ : V →
K linear. Dann gibt es genau ein u ∈ V mit
φ(v) = hv, ui
für alle v ∈ V .
Beweis: Falls φ = 0 ist, so erfüllt u = 0 die Darstellung, und man muss auch
u = 0 wählen. Ansonsten ist Kern φ eine n − 1-dimensionaler Unterraum von
V , wobei n = dim V sei. Wir wählen
ũ ∈ (Kern φ)⊥ ,
kũk = 1.
Wir setzen
u = φ(ũ) ũ,
4.2. ORTHOGONALITÄT
173
also φ(u) = |φ(ũ)|2 . Jedes v ∈ V lässt sich nun eindeutig darstellen als
v = v1 + v2 ,
v1 ∈ Kern φ,
v2 ∈ (Kern φ)⊥ = span {u}.
Also existiert ein λ ∈ K mit v2 = λu. Es folgt
φ(v) = φ(v2 ) = λφ(u) = λ|φ(ũ)|2 .
Andererseits
hv, ui = hv1 + λu, ui = λhu, ui = λ|φ(ũ)|2 .
Es folgt φ(v) = hv, ui für alle v ∈ V . Wenn ũ ein weiteres Element mit dieser
Eigenschaft ist, so folgt
hv, u − ũi = hv, ui − hv, ũi = 0
2
für alle v ∈ V . Also u − ũ = 0.
4.95. Bemerkung: Sei V = Kn und h·, ·i ein Skalarprodukt auf V mit darstellender Matrix H. Dann besitzt φ : V → K eine darstellende Matrix. Also
existiert ein a ∈ Kn mit
φ(v) = aT v
für alle v ∈ Kn
Wir setzen u = H −1 a, also Hu = a, und erhalten
φ(v) = φ(v)T = v T a = v T Hu = hv, ui.
Der obige Satz kann also im Kn auf diese einfache Weise bewiesen werden.
Auch für den folgenden Satz gibt es einen einfachen Beweis im Kn . Wir
geben aber zunächst einen anderen Beweis.
4.96 Satz: Seien V und W endlich dimensionale Skalarprodukträume und
φ : V → W linear. Dann gibt es eine eindeutig bestimmte Abbildung φ∗ : W → V
mit
hφ(v), wi = hv, φ∗ (w)i
für alle v ∈ V , w ∈ W .
Man nennt diese Abbildung die adjungierte Abbildung.
Beweis: Für festes w ∈ W ist die Abbildung
v 7→ hφ(v), wi
linear. Es folgt die Existenz eines eindeutig bestimmten u ∈ V mit
hφ(v), wi = hv, ui
für alle v ∈ V .
Wir setzen φ∗ (w) = u, und diese Wahl ist auch eindeutig. Es gilt dann also die
gewünschte Beziehung für alle v ∈ V , w ∈ W . Um zu zeigen, dass φ∗ linear ist,
beachten wir
hv, φ∗ (w1 + w2 )i = hφ(v), w1 + w2 i
= hφ(v), w1 i + hφ(v), w2 i
= hv, φ∗ (w1 )i + hv, φ∗ (w2 )i
= hv, φ∗ (w1 ) + φ∗ (w2 )i.
174
KAPITEL 4. DAS SKALARPRODUKT
für alle v ∈ V . Es folgt
φ∗ (w1 + w2 ) = φ∗ (w1 ) + φ∗ (w2 ).
Analog zeigt man φ∗ (λw) = λφ∗ (w).
2
4.97. Definition: Sei φ ein Skalarproduktraum. Dann heißt φ : V → V
selbstadjungiert, wenn φ = φ∗ ist.
Der folgende Satz erklärt, warum wir Hermitesche Matrizen auch selbstadjungiert nennen.
4.98 Satz: Seien V und W endlich-dimensionale Skalarprodukträume, A eine
Orthonormalbasis von V und B eine Orthonormalbasis von W . Dann gilt
MB,A (φ∗ ) = MA,B (φ)∗
Eine Abbildung φ : V → V ist also genau dann selbstadjungiert, wenn die
darstellende Matrix MA,A (φ) Hermitesch ist.
Beweis: Sei λ die Darstellung von v ∈ V bezüglich A und µ die Darstellung
von w ∈ W bezüblich B. Da MA,B (φ)λ die Darstellung von φ(v) bezüglich B
ist, gilt
hφ(v), wi = (MA,B (φ)λ)T µ = λT (MA,B (φ)∗ µ).
Ebenso gilt
hφ(v), wi = hv, φ∗ (w)i = λT (MB,A (φ∗ )µ).
Da dies für alle λ und alle µ gilt, müssen die beiden Matrizen gleich sein.
2
4.99. Bemerkung: Die Abbildung φ(x) = Ax mit A ∈ Kn×n ist also genau
dann selbstadjungiert, wenn A Hermitesch ist.
4.3
4.3.1
Anwendungen
Ausgleichsrechung und Lineare Regression
Ein Spezialfall der orthogonale Projektion tritt auf, wenn der Unterraum die
Form
U = {Ax : x ∈ Km } = Bild A
hat, wobei A ∈ Kn×m eine Matrix ist. Wir suchen das Element minimimalen
Abstands zu b ∈ Kn . Dies ist äquivalent damit, den Ausdruck
kAx − bk
für x ∈ Kn zu minimieren. Man nennt dieses Problem das Problem der Ausgleichsrechnung. Obwohl das System Ax = b nicht lösbar ist, wird ein x ∈ Kn
gesucht, das den Fehler kAx − bk minimiert.
4.100 Satz: Sei A ∈ Kn×m und b ∈ Km . Dann minimiert x ∈ Kn genau
dann den Fehler
kAx − bk
4.3. ANWENDUNGEN
175
wenn es die Normalgleichung
A∗ Ax = A∗ b
löst. Wenn x0 eine bestimmte Lösung des Ausgleichsproblem ist, so gilt für alle
anderen Lösungen
x ∈ x0 + Kern A.
Falls Rang A = m ist (insbesondere m ≥ n), so ist das Ausgleichsproblem
eindeutig lösbar.
Beweis: Setzt man U = Bild A, so gibt es ein eindeutig bestimmtes Element
u0 = Ax0 ∈ U
mit minimalem Abstand zu b. Nach unserer Theorie muss für das x0 gelten
b − Ax0 ⊥ u
für alle u ∈ U .
Es folgt nach Aufgabe 4.9
hb − Ax0 , Axi = hA∗ b − A∗ Ax0 , xi = 0
für alle x ∈ Kn
Dies ist nur dann der Fall, wenn
A∗ Ax0 = A∗ b
gilt. Da u0 eindeutig bestimmt ist, gilt für alle Lösungen x des Ausgleichsproblems Ax = u0 = Ax0 . Also
x ∈ x0 + Kern A.
Falls umgekehrt x0 die Gleichung A∗ Ax = A∗ b erfüllt, so folgt nach der obigen
Rechnung b − Ax ⊥ U . Also ist x eine Lösung des Ausgleichsproblems.
Sei nun Rang A = m. Dann folgt aus der Dimensionsformel dim Kern A = 0.
2
Also ist das Ausgleichsproblem eindeutig lösbar.
4.101. Bemerkung: Man beachte, dass m ≥ n der interessante Fall ist. Es
sind dann zuviele Gleichungen gegeben. Das lineare Gleichungssystem Ax = b
ist dann im Allgemeinen nicht lösbar. Falls m < n ist und A vollen Rang m
hat, so besitzt das Gleichungssystem immer mehrere Lösungen, die alle das
Ausgleichsproblem lösen.
4.102. Bemerkung: Es gibt eine direktere Methode, die Normalgleichung zu
begründen. Sei
A∗ Ax0 = A∗ b
Durch konjugieren erhält man AT Ax0 = AT b. Dann berechnet man
kAx − bk2 = (x − x0 )T AT A(x − x0 ) − xT0 AT Ax0 + bT b.
Dieser Ausdruck wird für x = x0 minimal, weil AT A positiv definit ist. Umgekehrt erfüllt jedes Minimum dieses Ausdrucks A(x − x0 ) = 0.
4.103 Aufgabe: Rechnen Sie die Gleichung in der obigen Bemerkung nach.
4.104 Aufgabe: Zeigen Sie
Rang A∗ A = Rang A.
176
KAPITEL 4. DAS SKALARPRODUKT
4.105. Beispiel: Das Ausgleichsproblem taucht auch in der linearen Regression auf. Gegeben sind dort Messpunkte
t1 , . . . , t n ∈ R m
und Messwerte
s1 , . . . , sn ∈ R.
Gesucht ist ein lineares affines Funktional
φa,b (t) = aT t + b,
a ∈ Rm ,
b ∈ R,
so dass
|φa,b (t1 ) − s1 |, . . . , |φ(tn ) − sn |.
möglichst klein wird. Die lineare Regression minimiert nun die quadratische
Fehlersumme
n
X
S(a, b) =
|φa,b (ti ) − si |2 .
i=1
m
unter allen a ∈ R , b ∈ R. Setzt man
t1,1

M =  ...
...
t1,m
..
.

1
..  ,
.
tn,1
...
tn,m
1



a1
 .. 
 
x =  . ,
am 
b


s1
 
s =  ...  ,
sn
so ist
Sa,b = kM x − sk2
für x ∈ Rm+1 zu minimieren.
4.106 Aufgabe: Seien t1 < . . . < tn reelle Punkte und s1 , . . . , sn ∈ R. Minimieren
Sie
n
X
(ati + b − si )2 .
i=1
Stellen Sie die Normalgleichung mit folgenden Abkürzungen auf
Σt =
n
X
i=1
ti ,
Σs =
n
X
i=1
si ,
Σtt =
n
X
i=1
t2i ,
Σst =
n
X
si ti .
i=1
und bestimmen Sie auf diese Art und Weise die optimalen Wert a, b.
4.3. ANWENDUNGEN
Abbildung 4.3: Lineare Regression einer Geraden.
177
178
KAPITEL 4. DAS SKALARPRODUKT
Kapitel 5
Determinanten
5.1
5.1.1
Definition und Eigenschaften
Determinante als Fläche
Abbildung 5.1: Determinante als Fläche
Die Determinante taucht historisch zuerst als Formel zur Flächenberechnung
und Volumenberechnung auf.
5.1. Beispiel: Wir versuchen mit elementargeometrischen Überlegungen eine
Formel für die die von a und b abhängige Fläche F (a, b) des Parallelogramms
179
180
KAPITEL 5. DETERMINANTEN
in Abbildung 5.1 zu gewinnen, also die Fläche von
P (a, b) = {λa + µb : 0 ≤ λ, µ ≤ 1}.
Dazu bestimmen wir die Höhe des Parallelogramms. Der Vektor
b2
b̃ =
−b1
steht offenbar senkrecht auf b. Daher kann man die Höhe h durch Projektion
von a auf die von b̃ aufgespannte Gerade berechnen, also
|h| = |ha,
1
b̃i|.
kb̃k
Für die Fläche ergibt sich F (a, b) = |h| kbk. Wegen kbk = kb̃k erhält man
F (a, b) = |ha, b̃i| = |a1 b2 − a2 b1 |.
Als Determinante eine 2 × 2-Matrix muss man also
a b
det 1 1 = a1 b2 − a2 b1
a2 b2
setzen.
5.2. Beispiel: Im R3 wird die Fläche durch das Volumen von
P (a, b, c) = {λ1 a + λ2 b + λ3 b : 0 ≤ λ1 , λ2 , λ3 ≤ 1}
ersetzt. Für dieses Volumen gilt ebenfalls eine relativ einfache Formel, nämlich
V (a, b, c) = | det(a, b, c)|
mit

a1
det a2
a3
b1
b2
b3

c1
c2  = a1 b2 c3 + b1 c2 a3 + c1 a2 b3 − a1 c2 b3 − b1 a2 c3 − c1 b2 a3
c3
Diese Formel nennt man Regel von Sarrus. Die Begründung für diese Formel
liefern wir nach.
5.1.2
Permutationen
Zur Entwicklung der Determinante benötigen wir das Vorzeichen (Signum) einer Permutation. Wir haben bereits die Menge aller Permutationen von 1, . . . , n
als Sn definiert. Man kann nun jeder Permutation π ∈ Sn ein Vorzeichen
sign (π) ∈ {−1, 1} zuordnen, indem man die Anzahl der notwendigen Vertauschungen zählt. Dies geschieht am einfachsten mit der folgenden Definition.
5.3. Definition: Für eine Permutation π ∈ Sn definieren wir
Y
sign (π) = sign
(π(j) − π(i)).
1≤i<j≤n
5.1. DEFINITION UND EIGENSCHAFTEN
181
Dabei ist mit sign auf der rechten Seite das Vorzeichen einer ganzen Zahl gemeint. Man beachte, dass dieses Produkt nicht gleich Null sein kann.
5.4. Bemerkung: Es gilt
Q
1≤i<j≤n (π(j)
sign (π) =
Q
1≤i<j≤n (j
− π(i))
− i)
Denn der Zähler und der Nenner enthalten bis auf das Vorzeichen dieselben
Faktoren, und das Vorzeichen aller Faktoren des Nenners ist positiv.
5.5. Bemerkung: Zählt man die Anzahl der vertauschten Stellen
k = |{(i, j) : 1 ≤ i < j ≤ n und π(j) < π(i)}|
so gilt offenbar
sign (π) = (−1)k .
5.6. Definition: Eine einfache Vertauschung der Elemente i und j, die alle
anderen Elemente von {1, . . . , n} festhält, bezeichnen wir als (i j). Allgemein
bezeichnen wir für paarweise verschiedene i1 , . . . , ik in {1, . . . , n} mit
π = (i1 i2 . . . ik )
die zyklische Permutation
π(i1 ) = i2 , . . . , π(ik−1 ) = ik , π(ik ) = i1 .
Dabei werden alle anderen Elemente festgehalten.
5.7 Aufgabe: Zeigen Sie für i 6= j
sign (i j) = −1.
Vertauschungen haben also das Vorzeichen −1.
5.8 Satz:
Für zwei Permutationen π1 , π2 ∈ Sn gilt
sign (π1 ◦ π2 ) = sign (π1 ) sign (π2 ).
Beweis: Es gilt
Q
sign (π1 ◦ π2 ) =
1≤i<j≤n (π1 (π2 (j))
1≤i<j≤n (j − i)
Q
=
− π1 (π2 (i)))
Q
1≤i<j≤n (π1 (π2 (j))
Q
1≤i<j≤n (π2 (j)
− π1 (π2 (i)))
1≤i<j≤n (π1 (j)
Q
1≤i<j≤n (j
− i)
1≤i<j≤n (π1 (π2 (j))
Q
1≤i<j≤n (j
− π1 (i))
Q
=
1≤i<j≤n (π2 (j)
Q
− π2 (i)
Wir müssen also nur noch zeigen, dass
Q
sign (π1 ) =
Q
1≤i<j≤n (π2 (j)
− π1 (π2 (i)))
− π2 (i))
− π2 (i))
− i)
.
182
KAPITEL 5. DETERMINANTEN
ist. Nun sind aber die Faktoren im Zähler
j − i,
1≤i<j≤n
bis auf das Vorzeichen identisch mit den Faktoren
π2 (j) − π2 (i),
1 ≤ i < j ≤ n.
Die Anzahl der Vorzeichenänderungen ist gleich der Anzahl der i, j mit π2 (j) <
π2 (i). Dasselbe gilt auch für die Faktoren im Nenner, so dass insgesamt der
2
Bruch gleich bleibt.
5.9 Aufgabe: Zeigen Sie mit Hilfe dieses Satzes
sign (i1 . . . ik ) = (−1)k−1
für paarweise verschiedene i1 , . . . , ik in {1, . . . , n}, indem sie diese zyklische Permutation als Produkt von k − 1 Vertauschungen schreiben.
5.10 Aufgabe: Zeigen Sie durch Induktion nach n, dass sich jede Permutation als
Produkt von Vertauschungen schreiben lässt.
5.11 Aufgabe: Berechnen Sie in S5 die Permutationen
(1 2 3) ◦ (3 4 5),
(3 4 5) ◦ (1 2 3),
sowie
(1 2 3) ◦ (4 5),
(4 5) ◦ (1 2 3),
und die Vorzeichen dieser Permutationen. Überlegen Sie sich, dass zyklische Permutationen vertauschbar sind, wenn sie keine gemeinsamen Elemente haben.
5.12 Aufgabe: Zeigen Sie, dass sich jede Permutation bis auf die Reihenfolge eindeutig als Produkt von zyklischen Vertauschungen schreiben lässt, die keine gemeinsamen
Elemente haben.
5.13 Aufgabe: Zeigen Sie für π ∈ Sn
sign π = sign π −1 .
5.14 Aufgabe: Um einen Tisch sitzen n Personen. Bei einem zulässiger Platztausch
tauscht eine Person den Platz mit einer anderen, die m Plätze weiter links sitzt (m <
n). Zeigen Sie, dass man genau dann durch zulässiges Platztauschen jede Sitzordnung
herstellen kann, wenn m und n teilerfremd sind.
5.1.3
Die Determinante
Die erste Beobachtung ist, dass das Volumen und die Fläche linear von den
einzelnen Vektoren abhängen, wenn jeweils anderen Parameter fest bleiben.
5.15. Definition: Sei V ein Vektorraum über K. Eine Abbildung
φ:Vn →K
(v1 , . . . , vn ) 7→ φ(v1 , . . . , vn ) ∈ K
5.1. DEFINITION UND EIGENSCHAFTEN
183
heißt Multilinearform, wenn für alle i = 1, . . . , n die Abbildung
vi 7→ φ(v1 , . . . , vn )
linear ist, wobei v1 , . . . , vi−1 , vi+1 , . . . , vn fest gehalten werden.
5.16. Beispiel: Mit Hilfe von elementargeometrischen Überlegungen zeigt man
für die Fläche des Parallelogramms
F (a + ã, b) = F (a, b) + F (ã, b),
sowie für λ > 0
F (λa, b) = λF (a, b).
Allerdings muss man für negative λ der Fläche ein Vorzeichen zuordnen. Denn
für Multilinearformen F (a, b) müsste gelten
F (−a, b) = −F (a, b).
Für die zweidimensionale Determinante
det(a, b) = a1 b2 − a2 b1
zeigt man leicht, dass det(a, b) eine Multilinearform ist.
5.17. Definition: Eine Multilinearform φ : V n → K heißt alternierende
Multilinearform, wenn sie 0 ist, sobald zwei Parameter gleich sind.
5.18 Satz: Sei φ : V n → K eine Multilinearform, und K ein Körper mit
1 + 1 6= 0.
Dann sind die folgenden Aussagen äquivalent.
(1) φ ist alternierend, z.B.
φ(v1 , v1 , v3 , . . . , vn ) = 0.
(2) φ(v1 , . . . , vn ) ändert sich nicht, wenn man das λ-fachen von vi zu einem vj
addiert (j 6= i), z.B.
φ(v1 , . . . , vn ) = φ(v1 + λv2 , . . . , vn ).
(3) Für v1 , . . . , vn ∈ V , die nicht linear unabhängig sind, gilt
φ(v1 , . . . , vn ) = 0
(4) φ ändert das Vorzeichen, wenn man zwei Parameter vertauscht, z.B.
φ(v1 , v2 , v3 , . . . , vn ) = −φ(v2 , v1 , v3 , . . . , vn ).
Beweis: (1) ⇒ (2): Man hat
φ(v1 + λv2 , v2 , . . . , vn ) = φ(v1 , v2 , . . . , vn ) + λφ(v2 , v2 , . . . , vn )
= φ(v1 , v2 , . . . , vn ).
184
KAPITEL 5. DETERMINANTEN
(2) ⇒ (3): Sei z.B.
v1 = λ2 v2 + . . . + λn vn .
Dann folgt durch Subtraktion von λ2 v2 , λ3 v3 etc. von v1
φ(v1 , v2 , . . . , vn ) = φ(0, v2 , . . . , vn ) = 0.
(3) ⇒ (4): Wir berechnen z.B.
0 = φ(v1 + v2 , v1 + v2 , v3 , . . . , vn )
= φ(v1 , v1 , . . . , vn ) + φ(v1 , v2 , . . . , vn )
+ φ(v2 , v1 , . . . , vn ) + φ(v2 , v2 , . . . , vn )
= φ(v1 , v2 , . . . , vn ) + φ(v2 , v1 , . . . , vn ).
Es folgt die Behauptung.
(4) ⇒ (1): Es gilt z.B.
φ(v1 , v1 , v3 , . . . , vn ) = −φ(v1 , v1 , v3 , . . . , vn ),
woraus
φ(v1 , v1 , v3 , . . . , vn ) = 0
folgt, wenn x + x 6= 0 ist für alle x 6= 0. Dies ist genau dann der Fall, wenn
1 + 1 6= 0 in K ist.
2
5.19. Bemerkung: Falls 1 + 1 = 0 ist, so zeigt der Beweis des Satzes, dass
die Aussagen (1) bis (3) immer noch äquivalent sind, und das aus ihnen die
Aussage (4) folgt. Aber aus Aussage (4) muss nicht mehr folgen, dass φ alternierend ist. Als Gegenbeispiel beachte man, dass in K = {0, 1} für alle Elemente
x = −x gilt. Jede Multilinearform auf diesem Körper erfüllt daher (4). Es gibt
aber nicht alternierende Multilinearformen.
5.20. Beispiel: Die zweidimensionale Determinante ist alternierend. In der Tat
gilt für a, b ∈ R2
det(a, b) = a1 b2 − a2 b1 = −(b1 a2 − b2 a1 ) = − det(b, a).
5.21. Bemerkung: Sei φ : V n → K eine alternierende Multilinearform und
v1 , . . . , vn ∈ V . Dann ist
φ(vν1 , . . . , vνn )
für 1 ≤ ν1 , . . . , νn ≤ n also genau dann ungleich 0, wenn
νi = π(i)
für eine Permutation π ∈ Sn ist. In diesem Fall kann man die Parameter durch
sign π Vertauschungen umordnen und erhält folglich
φ(vπ(1) , . . . , vπ(n) ) = sign (π) · φ(v1 , . . . , vn ).
5.22 Satz: Es gibt genau eine alternierende Multilinearform mit n Parametern auf dem K n , die durch
φ(e1 , . . . , en ) = 1
5.1. DEFINITION UND EIGENSCHAFTEN
185
normiert ist.
Beweis: Sei φ(a1 , . . . , an ) eine normierte alternierende Multilinearform. Sei
a1 , . . . , an ∈ K n , und


a1,i
n
 ..  X
ai =  .  =
aν,i eν .
an,i
ν=1
Dann berechnen wir
φ(a1 , . . . , an ) =
n
X
aν1 ,1 φ(eν1 , a2 , . . . , an )
ν1 =1
= ...
n
n
X
X
=
aν1 ,1 . . .
aνn ,n φ(eν1 , . . . , eνn )
ν1 =1
νn =1
X
=
aν1 ,1 · . . . · aνn ,n φ(eν1 , . . . , eνn )
1≤ν1 ,...,νn ≤n
=
X
aπ(1),1 · . . . · aπ(n),n sign (π).
π∈Sn
Die letzte Gleichheit gilt, weil wir alle Summanden weglassen können, bei denen
zwei ki gleich sind. Damit haben wir die eindeutige Bestimmtheit von φ gezeigt.
Wir müssen noch zeigen, dass diese Formel eine alternierende, normierte
Multilinearform φ definiert. Es ist leicht zu sehen, dass φ eine Multilinearform
ist. Sei zum Beispiel a1 = a2 . Dann gilt mit der Vertauschung σ = (1 2)
aπ(1),1 aπ(2),2 . . . aπ(n),n sign (π)
= −aπ◦σ(1),2 aπ◦σ(2),1 . . . aπ◦σ(n),n sign (π ◦ σ).
Die Abbildung
π 7→ π ◦ σ
ist aber bijektiv, so dass die Permutationen π und π ◦ σ in Paaren auftreten.
Daraus folgt
φ(a1 , a1 , a3 . . . , an ) = 0.
Falls a1 = e1 , . . . , an = en ist, so gilt
aπ(i),i = 0
für π(i) 6= i. Es folgt
φ(e1 , . . . , en ) = sign (id) = 1.
Also ist φ eine alternierende, normierte Multilinearform auf dem K n .
2
5.23. Definition: Die durch den obigen Satz eindeutig definierte alternierende Multilinearform φ nennt man Determinantenform. Man definiert für
Matrizen A ∈ K n×n die Determinante
det A = φ(a1 , . . . , an ),
186
KAPITEL 5. DETERMINANTEN
wobei a1 , . . . , an die Spalten von A sind.
Die Formel
det A =
X
aπ(1),1 · . . . · aπ(n),n sign (π).
π∈Sn
nennt man Leibnitz-Formel.
5.24. Beispiel: Die Leibnitzsche Formel ergibt sofort die Formel
a
a1,2
det 1,1
= a1,1 a2,2 − a1,2 a2,1 .
a2,1 a2,2
für die Determinante einer Matrix aus K 2×2 . Denn in S2 gibt es nur die zwei
Permutationen id und (1 2). Auch die Regel von Sarrus folgt sofort aus dieser
Formel.


a1,1 a1,2 a1,3
det a2,1 a2,2 a2,3 
a3,1 a3,2 a3,3
= a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2
− a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3 − a1,3 a2,2 a3,1 .
Denn hier besteht S3 aus id, den beiden Verschiebungen und den drei Vertauschungen.
5.25 Satz: Es gilt für A ∈ K n×n
det A = det AT .
Beweis: Wenn π die Permutationen in Sn durchläuft, so durchläuft π −1
ebenfalls alle Permutationen in Sn . Man zeigt also mit Hilfe der Leibnitzschen
Formel
X
det A =
aπ(1),1 · . . . · aπ(n),n sign (π)
π∈Sn
=
X
a1,π−1 (1) · . . . · an,π−1 (n) sign (π)
π∈Sn
=
X
a1,π−1 (1) · . . . · an,π−1 (n) sign (π −1 )
π∈Sn
=
X
a1,π̃(1) · . . . · an,π̃(n) sign (π̃)
π̃∈Sn
= det AT .
2
5.26. Bemerkung: (1) Aufgrund dieses Satzes und Satz 5.18 ändert sich die
Determinante nicht, wenn man das λ-fache einer Zeile oder Spalte zu einer
anderen addiert.
5.1. DEFINITION UND EIGENSCHAFTEN
187
(2) Vertauschungen von Zeilen oder Spalten ändern allerdings das Vorzeichen
der Determinante.
(3) Multiplikation einer Zeile oder Spalte mit λ multipliziert die Determinante
mit λ.
Mit Hilfe dieser Operationen und dem folgenden Satz kann man die Determinante von Matrizen mit dem Gauß-Algorithmus berechnen.
5.27 Satz: Für obere Dreiecksmatrizen ist die Determinante das Produkt der
Diagonalelemente, also


d1
∗


..
det 
 = d1 · . . . · dn .
.
0
dn
Dasselbe gilt für untere Dreiecksmatrizen.
Beweis: Falls eines der Diagonalelemente 0 ist, so ist die Determinante 0, weil
dann eine der Spalten von den vorherigen linear abhängig ist. Seien also alle
Diagonalelemente verschieden von 0. Dann kann man durch Zeilenoperationen,
die die Determinante nicht ändern, die Matrix auf Diagonalform bringen, also
mit Hilfe der Linearität und der Normierung




d1
∗
d1
0




..
..
det 
 = det 

.
.
0
dn
0
dn
= d1 · . . . · dn · det(In )
= d1 · . . . · dn .
2
5.28 Aufgabe: Berechnen Sie

2

1
det 
.
 ..
1
1
2
..
.
...
...
..
.
..
.
1

1
.. 
.


1
2
Ziehen Sie dazu die (n − 1)-te Spalte von der n-ten ab etc., und addieren Sie dann die
n-te Zeile zur (n − 1)-ten Zeile etc.
Der folgende Satz ist von zentraler Bedeutung und eine der wesentlichsten
Anwendungen der Determinante.
5.29 Satz:
A ∈ K n×n ist genau dann regulär wenn
det A 6= 0
ist.
Eine quadratische Matrix ist genau dann regulär, wenn ihre
Determinante ungleich 0 ist.
188
KAPITEL 5. DETERMINANTEN
Beweis: Aufgrund von Satz 5.18 ist die Determinante von nicht regulären
Matrizen gleich 0.
Sei andererseits A regulär. Dann lässt A sich mit elementaren Zeilenumformungen auf Diagonalgestalt mit Diagonaleinträgen ungleich 0 bringen. Dabei
ändert sich höchstens das Vorzeichen der Determinanten. Also folgt det A 6= 0.
2
5.30 Satz: Für A, B ∈ K n×n gilt
det(AB) = (det A)(det B).
Beweis: Falls det A = 0 ist, so ist A nicht regulär wegen Satz 5.18. Deswegen
ist AB ebenfalls nicht regulär. Es folgt in diesem Fall wieder mit Hilfe von
Satz 5.18 det AB = 0.
Sei also det A 6= 0 und daher A regulär. Wir zeigen dann, dass
φ(B) =
det(AB)
det(A)
eine Determinantenform in B ist. Daraus folgt φ(B) = det B wegen der Eindeutigkeit der Determinante.
Schreibt man allerdings φ in der Form
φ(b1 , . . . , bn ) =
1
det(Ab1 , . . . , Abn ),
det A
so ist leicht zu sehen, dass φ eine alternierende Multilinearform ist. φ(In ) = 1
ist ebenfalls erfüllt.
2
5.31. Bemerkung: Der Determinantenmultiplikationssatz kann auch mit Hilfe
von Satz 3.122 bewiesen werden. Dazu genügt offensichtlich, dass
det(EA) = det(E) det(A)
für Elementarmatrizen E und beliebige quadratische Matrizen A ist.
5.32 Aufgabe: Zeigen Sie für reguläre Matrizen A ∈ K n×n
det A−1 =
1
.
det A
5.33 Aufgabe: Zeigen Sie, dass ähnliche Matrizen dieselbe Determinante haben.
5.34. Definition: Nach der obigen Aufgabe hängt die Determinante nicht
von der darstellenden Matrix ab. Man kann also die Determinante det φ eines
Endomorphismus φ : V → V durch
det φ = det MA,A (φ)
definieren, wenn V ein endlich dimensionaler Vektorraum und A eine Basis von
V ist.
5.1. DEFINITION UND EIGENSCHAFTEN
189
Der folgende Entwicklungssatz von Laplace gibt eine weitere Möglichkeit, die Determinante zu berechnen. Der Aufwand ist allerdings gegenüber dem
Gauß-Algorithmus erheblich.
5.35 Satz:
Zu einer Matrix A ∈ K n×n bezeichnen wir mit
Ai,j ∈ K (n−1)×(n−1)
die Matrix, die aus A entsteht, indem man die i-te Zeile und die j-te Spalte
streicht. Dann gilt für alle j = 1, . . . , n
det A =
n
X
(−1)i+j ai,j det Ai,j .
i=1
Ebenso gilt für alle i = 1, . . . , n
det A =
n
X
(−1)i+j ai,j det Ai,j .
j=1
Beweis: Wir zeigen die zweite Gleichung, indem wir zeigen, dass
φ(a1 , . . . , an ) =
n
X
(−1)i+j ai,j det Ai,j
j=1
für festes i ∈ {1, . . . , n} eine alternierende, normierte Multilinearform ist. Daraus folgt die Behauptung. Die erste Gleichung folgt durch Transponieren wegen
Satz 5.25.
Es gilt zum Beispiel
φ(a1 + ã1 , a2 , . . . , an ) = (ai,1 + ãi,1 ) det Ai,1
n
X
+
(−1)i+j ai,j (det Ai,j + det Ãi,j )
j=2
=
n
X
(−1)i+j ai,j det Ai,j +
j=1
n
X
(−1)i+j ãi,j det Ãi,j
j=1
= φ(a1 , . . . , an ) + φ(ã1 , . . . , an ).
Dabei entstehe die Matrix à aus A, indem man die erste Spalte a1 durch ã1
ersetzt. Analog zeigt man die multiplikative Linearität. φ ist also eine Multilinearform.
Wenn etwa die ersten beiden Spalten von A gleich sind, so heben sich die ersten beiden Summanden von φ gegeneinander auf und die anderen Summanden
sind gleich 0. Analog behandelt man alle anderen Fälle von gleichen Spalten.
Man rechnet sofort nach, dass
φ(e1 , . . . , en ) = 1
gilt. φ ist also auch normiert.
2
190
KAPITEL 5. DETERMINANTEN
5.36. Bemerkung: Man beachte das Vorzeichen (−1)i+j . Die Verteilung dieses
Vorzeichens in einer Matrix ist schachbrettartig, etwa für 3 × 3-Matrizen


+ − +
− + − .
+ − +
5.37. Beispiel: Entwickelt man die

2 1
1 2


..
An = 
.


0
Determinante von

0

1


.. ..
 ∈ Rn×n
.
.

1
2 1
1 2
nach der ersten Spalte, so erhält man

1
1


det An = 2 det An−1 − det 


0
0
2
..
.
1
..
.
1
..
.
2
1

0





1
2
Entwickelt man diese Matrix wieder nach der ersten Zeile, so erhält man die
Rekursionsformel
det An = 2 det An−1 − det An−2 .
mit den Anfangswerten
det A1 = 2,
det A2 = 3.
Man zeigt per Induktion
det An = n + 1.
5.38 Aufgabe: Berechnen Sie diese Determinante mit dem Gauß-Algorithmus.
5.39 Aufgabe: Leiten Sie die Formeln für die Determinante von 2 × 2-Matrizen und
3 × 3-Matrizen durch Entwicklung nach der ersten Spalte her.
Der folgende Satz ist oft sehr nützlich, um Determinanten zu berechnen,
wenn Matrizen vorliegen, die aus Blöcken von Matrizen bestehen, so dass die
Blöcke in der Diagonalen quadratisch sind und unterhalb dieser Blöcke nur 0
steht. Man nennt solche Matrizen Blockdiagonalmatrizen.
5.40 Satz:
Sei A eine Matrix der Form


D1
∗


n×n
..
A=
.
∈K
.
0
Dk
Dabei seien die Matrizen D1 , . . . , Dk selbst wieder quadratische Matrizen. Dann
gilt
det(A) = det(D1 ) · . . . · det(Dk ).
5.2. ANWENDUNGEN
191
5.41 Aufgabe: Beweisen Sie diesen Satz, indem Sie Gauß-Transformationen auf A
anwenden.
5.42. Beispiel:

1
2
det 
0
0
2
1
0
0

∗ ∗
∗ ∗
 = (1 − 4) · 2 · 3 = −18.
2 ∗
0 3
5.43 Aufgabe: Berechnen Sie für

x
−1


det 


x ∈ R und a0 , . . . , an ∈ R

an
x
an−1 

.. 
..
..
.
.
. 

−1 x
a1 
−1 a0 + x
Alle nicht bezeichneten Matrixelemente sind dabei gleich 0.
5.2
5.2.1
Anwendungen
Cramersche Regel
Man kann die Determinante anwenden, um Gleichungssysteme oder das Inverse
von Matrizen zu berechnen. Der Aufwand ist aber meist höher, so dass es sich
mehr um theoretische Ergebnisse handelt.
5.44 Satz: Sei A ∈ K n×n regulär, und Ax = b für x, b ∈ K n . Dann gilt die
Cramersche Regel
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an )
det A
wobei a1 , . . . , an die Spalten von A bezeichnen. Für die Komponenten der Inversen Matrix à = A−1 gilt
xi =
(−1)i+j det Aj,i
.
det A
Dabei bezeichne Aj,i wieder die Matrix, die aus A entsteht, indem man die j-te
Zeile und die i-te Spalte streicht.
ãi,j =
Beweis: Wegen Ax = b gilt
x1 a1 + . . . + xn an = b.
Mit entsprechenden Spaltenoperationen folgt
xi det A = det(a1 , . . . , ai−1 , xi ai , ai+1 , . . . , an )
n
X
= det(a1 , . . . , ai−1 ,
xν aν , ai+1 , . . . , an )
ν=1
= det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).
192
KAPITEL 5. DETERMINANTEN
Wegen det A 6= 0 folgt die Behauptung. Die j-te Spalte der Inversen ist die
Lösung der Gleichung
Aãj = ej .
Nach der Cramerschen Regel und dem Entwicklungssatz von Laplace mit Entwicklung nach der i-ten Spalte
1
det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an )
det A
(−1)i+j det Aj,i
=
det A
ãi,j =
2
5.45 Aufgabe: Leiten Sie mit Hilfe dieses Satzes Formeln für die Inverse von A ∈
K 2×2 her und für die Lösungen von Gleichungssystem Ax = b.
5.46 Aufgabe: Zu x0 < x1 < x2 in R und y0 , y1 , y2 ∈ R sei ein quadratisches
Polynom
p(x) = a + bx + cx2
gesucht mit
p(xi ) = yi ,
i = 0, 1, 2.
Schreiben Sie dieses Problem als lineares Gleichungssystem und finden Sie Formeln
für a, b, c mit Hilfe der Cramerschen Regel.
5.2.2
Das Kreuzprodukt
5.47. Beispiel: Wir suchen zu zwei Vektoren a, b ∈ R3 einen senkrechten Vektor
c ⊥ a, c ⊥ b, c 6= 0. Skaliert man den Vektor willkürlich durch λ1 c1 + λ2 c2 +
λ3 c3 = 1 ist, so ergibt sich folgendes Gleichungssystem

   
λ1 λ2 λ3
c1
1
a1 a2 a3  c2  = 0
b1 b2 b3
c3
0
Nach der Cramerschen Regel und Entwicklung nach der jeweiligen Spalte erhält
man zum Beispiel


1 0 0
1
1
det 0 a2 a3  =
(a2 b3 − a3 b2 ).
c1 =
det M
det M
0 b2 b3
wobei M die obige Matrix bezeichne. Also
c=
wobei
1
c̃,
det M


a2 b3 − a3 b2
c̃ = a × b = −(a1 b3 − a3 b1 )
a1 b2 − a2 b1
5.2. ANWENDUNGEN
193
das sogenannte Kreuzprodukt von a und b bezeichnet. Entwickelt man die
Determinante von M nach der letzten Spalte, so erhält man
det M = λ1 c̃1 + λ2 c̃2 + λ3 c̃3 .
Wenn a und b nicht linear abhängig sind, so überlegt man sich, dass nicht alle
c̃i gleich 0 sein können. Man kann dann
λi =
c̃i
,
c̃21 + c̃22 + c̃23
i = 1, 2, 3,
wählen. Damit folgt det M = 1 und c = c̃ = a × b.
5.48 Aufgabe: Zeigen für a, b ∈ R3
a × b = 0 ⇔ a und b sind linear abhängig.
5.49 Aufgabe: Was ändert sich in den obigen Überlegungen, wenn K = C ist?
5.50 Aufgabe: Zeigen Sie, dass φ(a, b) = a × b eine alternierende Bilinearform
φ : R3 × R3 → R3
ist.
5.51 Aufgabe: Zeigen Sie, dass ka × bk die Fläche F des von a und b aufgespannten
Parallelogramms ist. Betrachten Sie dazu
1
c=
(a × b)
ka × bk
und berechnen Sie das Volumen des von a, b, c aufgespannten Zylinders auf F mit
Höhe 1, indem Sie det(a, b, c) berechnen. Hinweis: Die Rechnung steht praktisch in der
obigen Herleitung von a × b, wenn man die Determinante von (a, b, c)T berechnet.
5.52. Definition: Man kann die Definition des Kreuzprodukts im R3 für
v1 , . . . , vn−1 ∈ Rn verallgemeinern, indem man die Matrix
 T 
v1
 .. 
M = . 
T
vn−1
betrachtet. Bezeichne Mi ∈ Rn−1×n−1 die Matrix M , bei der die i-te Spalte
gestrichen wurde. Man definiert dann
w = v1 × . . . × vn−1
durch
wi = (−1)n+i det Mi ,
für alle i = 1, . . . , n.
5.53 Aufgabe: Zeigen Sie
v1 × . . . × vn−1 ⊥ vi
für alle i = 1, . . . , n − 1
Zeigen Sie außerdem
kv1 × . . . × vn−1 k2 = det(v1 , . . . , vn−1 , v1 × . . . × vn−1 )
Folgern Sie, dass die Abbildung
(v1 , . . . , vn−1 ) 7→ v1 × . . . × vn−1
das Vorzeichen ändert, wenn man zwei Vektoren vertauscht, dass sie also alternierend
ist. Zeigen Sie, dass diese Abbildung multilinear ist.
194
5.2.3
KAPITEL 5. DETERMINANTEN
Volumen und Fläche
Wir haben schon zu Beginn dieses Kapitels darauf hingewiesen, dass die Determinante Volumen und Flächen berechnen kann. Genauer gilt der folgende
Satz.
5.54 Satz: Seien a1 , . . . , an ∈ Rn und µ das Riemann-Maß (oder das Lebesgue-Maß) auf dem Rn . Dann gilt
n
X
| det(a1 , . . . , an )| = µ{
λi ai : 0 ≤ λi ≤ 1 für i = 1, . . . , n}.
i=1
Mangels exakter Definition eines der Maße können wir diesen Satz hier nicht
beweisen. Der folgende Satz wird durch die Volumenformel motiviert, und wir
können ihn im Rahmen unserer Theorie beweisen.
5.55 Satz:
Seien a1 , . . . , an ∈ Rn . Dann gilt
| det(a1 , . . . , an )| ≤
n
Y
kai k.
i=1
Dabei ist die Norm die Euklidsche Norm. Gleichheit tritt genau dann auf, wenn
die Vektoren a1 , . . . , an ein Orthogonalsystem bilden.
Beweis: Wir führen das Orthogonalisierungsverfahren von Schmidt durch und
wandeln a1 , . . . , an in ein Orthogonalsystem ã1 , . . . , ãn um. Im k-ten Schritt sind
ã1 , . . . , ãk orthogonal und es gilt
ãk+1 = ak+1 − vk ,
vk ∈ span {ã1 , . . . , ãk }.
Außerdem haben wir ak+1 − vk ⊥ ãi für i = 1, . . . , k. Also
kãk+1 k2 = kak+1 k2 − kvk k2 ≤ kak+1 k2 .
Für die Matrix à = (ã1 , . . . , ãn ) gilt nun

kã1 k2

∗
..
ÃÃ = 
.
0
Also
n
Y
0
kãn k2


.
kãi k2 = det(ÃÃ∗ ) = det(Ã)det(ÃT ) = | det(Ã)|2 .
i=1
Da die Operationen des Schmidtschen Orthogonalisierungsverfahrens die Determinante nicht ändern, folgt insgesamt
| det(A)| = | det(Ã)| =
n
Y
i=1
kãi k ≤
n
Y
kai k.
i=1
Gleichheit kann nur auftreten, wenn in jedem Schritt vk = 0 ist, also die Vektoren a1 , . . . , an schon paarweise senkrecht stehen.
2
5.2. ANWENDUNGEN
195
5.56. Bemerkung: Wir notieren als wichtige Folgerung, dass eine Matrix mit
normierten Spalten genau dann eine Determinante vom Betrag 1 hat, wenn sie
orthogonal ist.
5.57. Bemerkung: Für Endomorphismen φ : Rn → Rn gibt die Determinante
den Verzerrungsfaktor für Volumina an. Es gilt für messbare Mengen
µ(φ(K)) = det(φ)K.
Falls K der Einheitswürfel ist, so folgt dies aus unseren Überlegungen, denn
φ(K) wird von den Bildern der Einheitsvektoren aufgespannt. Für allgemeine
K beweist man diese Formel in der Maß- und Integrationstheorie. Man hat sogar
allgemeiner die Transformationsformel
Z
Z
f (x) dµ(x) =
f (φ(x))| det(Jφ(x))| dµ(x).
φ(K)
K
für integrierbare Funktionen f und bijektive, stetig differenzierbare Funktionen
φ. Dia Matrix Jφ(x) ist die Ableitungsmatrix (Jordanmatrix) von φ.
5.2.4
Positiv definite Matrizen
Wir haben schon festgestellt, dass eine Matrix A ∈ Kn×n genau dann ein Skalarprodukt
hx, yi = xT Ay
definiert, wenn A positiv definit ist. Das heißt, A = A∗ und
xT Ax > 0
für alle x 6= 0.
Der folgende Satz gibt ein handliches Kriterium für positive Definitheit, das
man Hurwitz-Kriterium nennt.
5.58 Satz: Sei A ∈ Kn×n , A = A∗ . Dann ist A genau dann positiv definit,
wenn alle Hauptminoren positiv sind, das heißt es gilt


a1,1 . . . a1,k

..  > 0
det  ...
. 
ak,1
...
ak,k
für alle 1 ≤ k ≤ n.
Beweis: Sei A positiv definit. Wir führen den Beweis durch Induktion nach
n. Für n = 1 ist die Behauptung klar. Für n > 1 gilt zunächst
eT1 Ae1 = a1,1 > 0.
Wir können also durch elementare Zeilenumformungen die Elemente
a2,1 , . . . , an,1
zu 0 machen. Dies ist äquivalent zur Multiplikation mit einer regulären Elementarmatrix R von links. Wir setzen
à = RAR∗ .
196
KAPITEL 5. DETERMINANTEN
Da die Multiplikation mit R∗ von rechts nur auf die zweite bis n-te Spalte wirkt,
gilt
ã2,1 = . . . = ãn,1 = 0.
Außerdem
Ã∗ = RA∗ R∗ = RAR∗ = Ã.
Also hat à die Gestalt
à =
a1,1
0
0
H
mit einer Matrix H ∈ Kn−1×n−1 mit H = H ∗ . Es gilt nun
xT Ãx = (RT x)A(RT x).
Also ist à genau dann positiv definit, wenn A positiv definit ist. Andererseits
berechnet man
xT Ãx = a1,1 x21 + x̃T H x̃.
mit


x2
 
x̃ =  ...  .
xn
Also ist A genau dann positiv definit, wenn a1,1 > 0 ist und H positiv definit
ist. Bezeichnen wir mit Ãi die i-te Untermatrix von A und mit Hi die i-te
Untermatrix von H. Dann gilt
a1,1
0
Ãi =
.
0
Hi−1
Außerdem haben wir nur Vielfache der ersten Spalte oder Zeile zu den anderen
Spalten bzw. Zeilen addiert. Es gilt also
det Ai = det Ãi = a1,1 det Hi−1 .
Da H also positiv definit ist, folgt per Induktionsvoraussetzung det Hi−1 > 0
für i = 2, . . . , n, und schließlich die Behauptung.
Seien umgekehrt alle Hauptminoren positiv. Wieder verwenden wir Induktion nach n. n = 1 ist klar. Sonst folgt a1,1 > 0 und wir können wie oben die
Matrix à definieren. Es folgt, dass alle Hauptminoren von H positiv sind, und H
nach Induktionsvoraussetzung positiv definit. Wie oben gezeigt, ist dann auch
à und damit A positiv definit.
2
5.59. Bemerkung: Eine Matrix A heißt negativ definit, wenn −A positiv
definit ist, also
xT Ax < 0
für alle x 6= 0.
Als Bedingung ergibt sich also
det A1 < 0,
det A2 > 0, . . . .
5.2. ANWENDUNGEN
197
Analog kann man eine positiv semidefinite und negativ semidefinite Matrix
definieren. Es genügt aber für positive Semidefinitheit nicht, dass alle Hauptminoren größer oder gleich 0 sind. Ein Beispiel ist


0 0 0
A = 0 1 0 
0 0 −1
Alle Hauptminoren sind 0, also nicht negativ. Dennoch ist A indefinit. Das
heißt es gibt x mit xT Ax > 0 und es gibt x mit xT Ax < 0. Mit Hilfe von Eigenwerten werden wir später beweisen, dass reguläre Matrizen, die weder positiv
noch negativ definit sind, indefinit sein müssen.
5.60 Aufgabe: Zeigen Sie, dass es für jede indefinite Hermitesche Matrix A ∈ Kn×n
ein x ∈ Kn gibt mit
xT Ax = 0.
5.61 Aufgabe: Zeigen Sie, dass für jede reguläre Matrix A ∈ Kn×n die Matrizen
A∗ A und AA∗ positiv definit sind.
5.2.5
Dreieckstraversalen
Wir erinnern daran, dass das Dreieck ABC die konvexe Hülle der Punkte
A, B, C ∈ R2 ist. Wenn A, B und C nicht auf einer Geraden liegen, so lässt
sich jeder Punkte X ∈ R2 eindeutig in mit baryzentrischen Koordinaten
X = λ1 A + λ2 B + λ3 C
λ1 + λ2 + λ3 = 1
schreiben. Wir erinnern außerdem daran, dass die Gerade durch A, B ∈ R2 der
erzeugte affine Unterraum ist, und genau die Punkte X ∈ R2 enthält, die sich
als
X = λ1 A + λ2 B
λ1 + λ2 = 1
schreiben lassen.
5.62. Definition: Für A, B, C ∈ R2 definieren wir die Abbildung
φ : R3 → R2
durch
φ(λ) = λ1 A + λ2 B + λ3 C
5.63 Aufgabe: Zeigen Sie, dass φ die Ebene
E = {x ∈ R3 : x1 + x2 + x3 = 1}
linear und bijektiv auf den R2 abbildet.
5.64 Aufgabe: Zeigen Sie, dass dann das Dreieck ABC das Bild der konvexen Hülle
der Einheitsvektoren e1 , e2 , e3 ∈ R3 unter φ ist.
5.65 Satz:
Seien A, B, C ∈ R2 nicht auf einer Geraden.
198
KAPITEL 5. DETERMINANTEN
(1) Dann gibt es zu jeder Geraden G ∈ R2 Zahlen µ1 , µ2 , µ3 ∈ R, so dass G als
die Menge aller Punkte X ∈ R2 ist, die sich als
X = λ1 A + λ2 B + λ3 C
µ1 λ1 + µ2 λ2 + µ3 λ3 = 0
λ1 + λ2 + λ3 = 1
schreiben lassen.
(2) Diese Menge ist genau dann eine Gerade, wenn µ1 , µ2 , µ3 nicht alle gleich
sind.
Beweis: (1) F = φ−1 (G) ist eine Ebene im R3 , die die Ebene E mit λ1 +
λ2 + λ3 = 1 schneidet. Man kann schreiben
F = {λ ∈ R3 : µ1 λ1 + µ2 λ2 + µ3 λ3 = 1}
wobei µ nicht auf E senkrecht steht, weil F nicht parallel zu E ist. Es folgt,
dass alle Punkte von G eine Darstellung der verlangten Form haben.
(2) Wenn alle µi gleich sind, so ist die Menge leer oder gleich dem R2 .
Ansonsten ist die Menge aller λ ∈ R2 mit
µ1 λ1 + µ2 λ2 + µ3 λ3 = 0
λ1 + λ2 + λ3 = 1
eine Gerade im R3 die ganz in E liegt. Das Bild unter φ ist also eine Gerade in
2
R2 .
Der folgende Satz ist bekannt als der Satz von Ceva.
5.66 Satz: Seien A1 , A2 , A3 ∈ R2 nicht auf einer Geraden und X1 , X2 , X3 ∈
R2 mit baryzentrischen Koordinaten
Xi = λi,1 A1 + λi,2 A2 + λi,3 A3
für i = 1, 2, 3. Dann schneiden sich die Geraden
A1 X1 ,
A2 X2 ,
A3 X3
genau dann in einem Punkt oder sie sind parallel zueinander, wenn
λ1,2 λ2,3 λ3,1 = λ1,3 λ2,1 λ3,2
ist.
Beweis: Wir stellen die Geraden Ai Xi in der Form des vorigen Satzes dar.
Für A1 X1 bedeutet dies
X = λ1 A1 + λ2 B1 + λ3 C1 ,
λ1,3 λ2 − λ1,2 λ3 = 0,
λ1 + λ2 + λ3 = 1,
5.2. ANWENDUNGEN
199
Abbildung 5.2: Satz von Ceva
weil man leicht nachprüft, dass dann A1 und X1 auf der Geraden liegen. Für
den Schnittpunkt aller Geraden ergibt sich ein Gleichungssystem

   
0
λ1,3 −λ1,2
λ1
0
λ2,3
0
−λ2,1  λ2  = 0 .
0
λ3,2 −λ3,1
0
λ3
Die Determinante dieser Matrix ist
λ1,2 λ2,3 λ3,1 − λ1,3 λ3,2 λ2,1 .
Wenn die Determinante ungleich 0 ist, so schneiden sich die Geraden also nicht,
da dann λ = 0 die einzige Lösung ist. Wenn die Determinante gleich 0 ist, so
sind ist zum Beispiel die dritte Zeile der Matrix von den ersten beiden linear
abhängig. Das bedeutet, dass jeder Schnittpunkt von A1 X1 und A2 X2 auch auf
A3 X3 liegt. Damit schneiden sich die Geraden in einem Punkt oder sie sind
parallel zueinander.
2
5.67. Beispiel: In Abbildung 5.2 gilt zum Beispiel
X3 = A1 +
α1
β1
α1
(A2 − A1 ) =
A1 +
A2 .
α1 + β1
α1 + β1
α1 + β1
Es folgt
λ3,1
β1
=
.
λ3,2
α1
Analog
λ1,2
β1
=
,
λ1,3
α1
λ2,3
β2
=
.
λ2,1
α2
200
KAPITEL 5. DETERMINANTEN
Man erhält den Satz von Ceva in der Form
α1 α2 α3 = β1 β2 β3 .
Aus dem Satz folgt zum Beispiel sofort, dass sich die Seitenhalbierenden in
einem Dreieck in einem Punkt schneiden.
Um den gemeinsamen Schnittpunkt der Mittelsenkrechten und der Winkelhalbierenden zu zeigen, wird allerdings eine andere Idee genutzt.
5.68. Beispiel: Die Mittelsenkrechte von AB ist die Menge der Punkte, die
von A und B den gleichen Abstand haben, also
kX − Ak = kX − Bk.
Nach Quadrieren und Vereinfachen sieht man, dass dies äquivalent mit
2hX, A − Bi = kAk2 − kBk2
ist. Insbesondere ist dies eine Gerade. Der Punkt (A + B)/2 auf der Mittelsenkrechten und sie steht senkrecht auf AB. Es ist auch leicht zu zeigen, dass jeder
Schnittpunkt von zwei Mittelsenkrechten auf der dritten liegt, denn
kX − Ak = kX − Bk und kX − Bk = kX − Ck ⇒ kX − Ak = kX − Ck.
5.69 Aufgabe: Zeigen Sie, dass die Menge der Punkte, die von zwei sich kreuzenden
Geraden gleichen Abstand haben, zwei sich im rechten Winkel kreuzende Geraden sind
(den Winkelhalbierenden). Zeigen Sie, dass es einen Punkt im Dreieck gibt, der von
allen drei Seiten den gleichen Abstand hat.
Bei den Höhen kann man eine andere Technik verwenden.
5.70. Beispiel: Wir nehmen wieder an, dass A, B und C nicht auf einer Geraden
liegen. Die Punkte auf der Höhe durch A auf BC haben offenbar die Eigenschaft
hX − A, C − Bi = 0.
Dies ist eine Geradengleichung, und man kann nach dem Höhenschnittpunkt
fragen. Es ist nun recht leicht zu sehen, dass der Schnittpunkt zweier Höhen auf
der dritten liegt. Dazu addiert man zum Beispiel die Gleichungen
hX, C − Bi = hA, C − Bi
hX, B − Ai = hC, B − Ai
für die Höhe durch A und C und erhält
hX, C − Ai = hB, C − Ai,
also die Gleichung der dritten Höhe. Man kann dies auch in folgendem Gleichungssystem ausdrücken.

   
C1 − B1 C2 − B2 hA, C − Bi
X1
0
B1 − A1 B2 − A2 hC, B − Ai X2  = 0 .
A1 − C1 A2 − C2 hB, A − Ci
−1
0
5.2. ANWENDUNGEN
201
Dieses System muss von einem Höhenschnittpunkt erfüllt werden. Da die dritte
Zeile Summe der beiden anderen ist, so hat das System höchstens den Rang 2.
Es gibt also eine Lösung λ ∈ R3 . Falls für diese Lösung λ3 = 0 ist, so müssen
die ersten beiden Spalten linear abhängig sein, also auch die obere linke 2 × 2Untermatrix. Deren Zeilen sind aber C − B und B − A. Dies kann nicht sein,
weil sonst A, B und C auf einer Geraden liegen. Es folgt, dass sich alle drei
Höhen in genau einem Punkt schneiden.
5.71 Aufgabe: Benutzen Sie dieselbe Beweisidee, um zu zeigen, dass sich die Mittelsenkrechten in einem Punkt schneiden.
202
KAPITEL 5. DETERMINANTEN
Kapitel 6
Eigenwerte
6.1
6.1.1
Definition und Eigenschaften
Polynome
Zur Vorbereitung auf die Berechnung von Eigenwerten halten wir hier einige
Resultate über Polynome fest.
6.1. Definition: Sei K ein Körper und a0 , . . . , an ∈ K. Dann heißt ein Ausdruck der Form
P (X) = a0 + a1 X + . . . + an X n
ein Polynom über K. Die Menge aller Polynome über K bezeichnet man als
K[X]. Auf ihr ist in naheliegender Weise eine Addition und eine Multiplikation
definiert. Falls an 6= 0 ist, so heißt n der Grad von P .
n = deg P.
Mengentheoretisch ist ein Polynom also eine Folge
a0 , a1 , a2 , . . .
von Koeffizienten, von denen nur endlich viele ungleich 0 sind.
6.2 Aufgabe: Definieren Sie die Multiplikation von Polynomen exakt, indem Sie die
Koeffizienten des Produktes angeben.
6.3. Bemerkung: Man benötigt für die Definition des Polynomraums eigentlich nur, dass K ein kommutativer Ring ist. Der einzige Unterschied zu einem
Körper ist, dass bei einem kommutativen Ring auf das Inverse der Multiplikation verzichtet wird. Ein kommutativer Ring R heißt nullteilerfrei, wenn für
alle a, b ∈ R gilt
ab = 0 ⇔ a = 0 oder b = 0.
Wie wir wissen, ist jeder Körper ein nullteilerfreier Ring.
6.4 Aufgabe: Zeigen Sie, dass R[X] ein nullteilerfreier Ring ist, wenn R ein nullteilerfreier Ring ist. Zeigen Sie, dass dann gilt
P Q1 = P Q2 ⇒ Q1 = Q2 .
203
204
KAPITEL 6. EIGENWERTE
für alle P, Q1 , Q2 ∈ R[X], P 6= 0 und
deg P Q = deg P + deg Q
für alle P, Q ∈ R[X].
6.5. Bemerkung: Der Polynomring K[X] über dem Körper K ist auch ein
Vektorraum über K. Eine Basis dieses Vektorraums bilden die Polynome
1,
X,
X 2, . . .
Denn jedes Polynom ist offenbar eindeutig als endliche Linearkombination dieser
Polynome zu schreiben.
6.6. Bemerkung: Ein Polynom P ∈ K[X] kann auch als Abbildung P : K →
K gedeutet werden, indem man x ∈ K für X einsetzt. Die Abbildung
φ : K[X] → A(K, K)
φ(a0 + a1 X + . . . + an X n )(x) = a0 + a1 x + . . . + an xn ,
ist in der Tat linear. Sie erhält auch die Multiplikation, also
φ(P Q)(x) = φ(P )(x)φ(Q)(x).
Wir nennen diese Abbildung Auswertungsabbildung für Polynome.
Leider ist die Auswertungsabbildung im Allgemeinen nicht injektiv. Im Körper K = {0, 1} erzeugen die Polynome X 2 und X dieselbe Abbildung, weil für
jedes x in diesem Körper x2 = x gilt. Ein x ∈ K, das in P ∈ K[X] eingesetzt 0
ergibt, heißt Nullstelle von P .
Die wichtigste Technik für Polynome ist das Ausdividieren.
6.7 Satz: Seien P, Q ∈ K[X] Polynome über einem Körper K, deg Q > 0.
Dann gibt es Polynome F, R ∈ K[X] mit
P (X) = Q(X)F (X) + R(X)
und
deg R < deg Q.
Das Polynom Q wird also aus dem Polynom P ausdividiert, so dass der Rest R
einen kleineren Grad als Q hat.
Beweis: Der Beweis wird mit Induktion nach deg P geführt. Man beachte,
dass er für deg Q > deg P trivial ist, weil man F = 0 und R = P wählen kann.
Der Induktionsanfang ist also erfüllt. Sei nun
P (X) = a0 + . . . + an X n ,
Q(X) = b0 + . . . + bm X m ,
an , bm 6= 0. Dann gilt
P (X) =
an n−m
X
Q(X) + P̃ (X)
bm
mit deg P̃ (X) < deg P . Aufgrund der Induktionsannahme folgt wie gewünscht
P (X) =
an n−m
X
Q(X) + F̃ (X)Q(X) + R(X) = F (X)Q(X) + R(X).
bm
6.1. DEFINITION UND EIGENSCHAFTEN
205
2
6.8. Beispiel: Der Beweis folgt exakt dem Divisionsalgorithmus, den man schon
aus der Schule kennt. Als Beispiel dividieren wir X − 2 aus X 2 − 2 aus.
X 2 − 2 = X(X − 2) + (2X − 2)
= X(X − 2) + 2(X − 2) + 2
= (X + 2)(X − 2) + 2.
Der folgende Satz zeigt, dass für die wichtigsten Körper die Auswertungsabbildung injektiv ist. Dort ist es also egal, ob wir ein Polynom als Ausdruck
oder als Abbildung auffassen. Insbesondere lässt sich jede Abbildung, die von
einem Polynom erzeugt wird, mit eindeutig bestimmten Koeffizienten als Polynom darstellen.
6.9 Satz: Ein Polynom n-ten Grades über einem Körper K kann höchstens
n verschiedene Nullstellen haben. Für einen Körper K mit unendlich vielen
Elementen ist die Auswertungsabbildung folglich injektiv.
Beweis: Sei
Pn (X) = a0 + a1 X + . . . + an X n ∈ K[X],
an 6= 0
und x1 , . . . , xn Nullstellen von P . Man kann dann das Polynom X − x1 aus P
ausdividieren und erhält
Pn (X) = Pn−1 (X)(X − x1 ) + cn .
Einsetzen von X = x1 ergibt cn = 0. Außerdem sind x2 , . . . , xn die Nullstellen
von Pn−1 . Induktiv erhält man durch weiteres Ausdividieren
Pn (X) = an (X − x1 ) · . . . · (X − xn ).
Nun ist offenbar, dass Pn keine weiteren Nullstellen haben kann.
Wenn nun P ein Polynom ist, das als Funktion immer 0 liefert, so ergibt
sich sofort eine Widerspruch, wenn P 6= 0 ist und K unendlich viele Elemente
enthält. Also ist der Kern der Auswertungsfunktion {0} und die Auswertung
folglich injektiv.
2
Wir haben damit bewiesen, dass jedes Polynom P ∈ K[X] mit n paarweise
verschiedenen Nullstellen in bis auf die Reihenfolge eindeutige Linearfaktoren
zerfällt.
P (X) = an (X − x1 ) · . . . · (X − xn ).
In der Tat ist die eindeutige Darstellung auch richtig, wenn die Nullstellen mit
Vielfachheit vorkommen. Dies zeigt der folgende Satz von der eindeutigen Primfaktorzerlegung.
6.10. Definition: Ein nicht konstantes Polynom P ∈ K[X] heißt Primpolynom oder irreduzibel, wenn es nicht Produkt von nicht konstanten Polynomen
kleineren Grades ist.
6.11 Satz: Jedes nicht konstante Polynom P ∈ K[X] mit höchstem Koeffizient 1 über einem Körper K zerfällt bis auf die Reihenfolge eindeutig in ein
Produkt aus Primpolynomen mit höchstem Koeffizient 1.
206
KAPITEL 6. EIGENWERTE
Beweis: Die Existenz ist klar, weil man Polynome mit höchstem Koeffizient 1
solange in Faktoren kleineren Grades mit höchstem Koeffizient 1 zerlegen kann,
bis keine weitere Zerlegung mehr möglich ist. In diesem Fall hat man ein Produkt
aus Primpolynomen vor sich.
Die Eindeutigkeit folgt aus dem folgenden Satz. Denn seien
P1 · . . . · Pn = Q1 · . . . · Qm
Produkte aus Primpolynomen, so muss nach diesem Satz P1 letztendlich eines
der Qi teilen. Da Qi prim ist, muss P1 = αQi mit einer Konstanten α ∈ K
sein. Da aber beide Polynome den höchsten Koeffizienten 1 haben sollen, folgt
Pi = Qi .
2
6.12 Satz: Sei P ein Primpolynom, das ein Produkt Q1 Q2 teilt. Dann teilt
P mindestens eines der Polynome Q1 oder Q2 .
Beweis: Angenommen, P teilt Q1 nicht. Der Beweis wird dann mit Hilfe des
Euklidschen Algorithmus geführt. Dazu dividieren wir P aus Q1 aus, und
fahren mit dem Ausdividieren in folgender Weise fort.
Q1 = P F1 + R1 ,
P = R1 F2 + R2 ,
R1 = R2 F3 + R3
..
.
Rk−2 = Rk−1 Fk + Rk ,
Rk−1 = Rk Fk+1 + c.
Die Grade der Reste Ri werden streng monoton kleiner, bis schließlich nur eine
Konstante c ∈ K übrig bleibt. Wenn c = 0 wäre, so würde Rk alle Reste
Rk−1 , . . . , R1 teilen und deswegen auch P . Dies ist ein Widerspruch dazu, dass
P irreduzibel ist.
Indem man von unten nach oben Rk , . . . , R1 aus den Werten der vorigen
Zeile einsetzt, erhält man
c = H1 Q1 + H2 P.
mit irgendwelchen Polynomen H1 , H2 ∈ K[X]. Dann gilt aber
cQ2 = H1 Q1 Q2 + H2 P Q2 .
P teilt die rechte Seite dieser Gleichung, also auch die linke. Es folgt, dass P
2
das Polynom Q2 teilt.
6.13. Bemerkung: Derselbe Beweis kann in jedem Ring angewendet werden, in
dem der Euklidsche Algorithmus Sinn macht. Für die ganzen Zahlen terminiert
er offenbar mit c = 0 oder c = 1. Man kann also mit diesem Algorithmus und
dem obigen Beweis zeigen, dass die Primfaktorzerlegung in Z eindeutig ist, und,
wie die folgenden Aufgaben zeigen, den größten gemeinsamen Teiler von zwei
6.1. DEFINITION UND EIGENSCHAFTEN
207
Zahlen berechnen, sowie multiplikative Inverse im Restklassenkörper modulo
einer Primzahl.
6.14 Aufgabe: Angenommen der Euklidsche Algorithmus, gestartet mit Q und P ,
terminiert mit c = 0. Zeigen Sie dann, dass Rk die Polynome P und Q teilt und dass
sich
Rk = H1 Q + H2 P
schreiben lässt. Folgern Sie, dass Rk ein Polynom höchsten Grades ist, dass P und
Q gemeinsam teilt (größter gemeinsamer Teiler). Zeigen Sie, dass der größte gemeinsame Teiler von P und Q bis auf ein konstantes Vielfaches eindeutig bestimmt
ist. Bestimmen Sie den größten gemeinsamen Teiler von X 2 + 2X + 1 und X 2 − 1 mit
dem Euklidschen Algorithmus.
6.15 Aufgabe: Berechnen Sie mit dem Euklidschen Algorithmus a, b ∈ Z mit
57a + 103b = 1.
Berechnen Sie auf diese Weise das multiplikative Inverse von 57 im Restklassenkörper
Z103 .
Der Beweis des folgenden Satzes gehört in die Analysis. Man nennt den Satz
den Hauptsatz der Algebra.
6.16 Satz: Jedes Polynom P ∈ C[X] zerfällt bis auf die Reihenfolge eindeutig in Linearfaktoren aus C[X]. Jedes Polynom P ∈ R[X] zerfällt bis auf die
Reihenfolge eindeutig in lineare oder quadratische Primpolynome aus R[X].
Beweis: Zum Beweis dieses Satzes benötigen wir lediglich ein Ergebnis, das
mit Methoden der Analysis bewiesen werden muss. Jedes Polynom P ∈ C[X]
hat mindestens eine Nullstelle in C. Aufgrund von Induktion zerfällt also jedes
Polynom in C[X] in Linearfaktoren, indem man eine Nullstelle nach der anderen
ausdividiert.
Für reelle Polynome stellt sich heraus, dass mit a + ib auch der konjugierte
Wert a − ib Nullstelle ist. Fasst man diese Nullstellen paarweise zusammen, so
hat man
(X − (a + ib))(X − (a − ib)) = (X − a)2 + b = X 2 − 2aX + a2 + b.
Diese Polynome sind für b 6= 0 prim in R[X].
2
6.17 Aufgabe: Zeigen Sie für ein reelles Polynom p, dass mit z auch z Nullstelle von
p ist.
6.18 Aufgabe: Seien a0 , . . . , an−1 ∈ Z und
p(x) = a0 + . . . + an−1 xn−1 + xn .
Zeigen Sie, dass jede Nullstelle z ∈ Q von p automatisch ganzzahlig ist und Teiler von
a0 .
6.19. Bemerkung: Man kann den Polynomring K[X] wie auch jeden anderen
nullteilerfreien, kommutativen Ring in einen Körper erweitern. In diesem Fall
entsteht der Ring der rationalen Funktionen
R(K[X]) = {
P
: P, Q ∈ R[X], P, Q teilerfremd, Q = X n + . . .}.
Q
208
KAPITEL 6. EIGENWERTE
Wir verzichten auf die Details. Wichtig ist die Folgerung, dass man nun Determinanten von Matrizen mit Einträgen aus K[X] berechnen kann, indem man
wie gewohnt im Körper R(K[X]) rechnet.
2−X
1
det
= (2 − X)2 − 1 = X 2 − 4X + 3.
1
2−X
Es gelten automatisch alle Regeln über Determinanten.
6.20. Bemerkung: Wir definieren die Ableitungsabbildung D : K[X] → K[X]
als
D(a0 + a1 X + . . . + an X n ) = a1 + 2a2 X + . . . + nan X n−1 ,
wobei kx für k ∈ N und x ∈ K in natürlicher Weise als Summe von n Summanden x definiert sei. Entsprechend definieren wir die k-te Ableitung Dk (P ).
6.21 Aufgabe: (a) Zeigen Sie für alle P, Q ∈ K[X]
D(P + Q) = D(P ) + D(Q)
D(P · Q) = D(P ) · Q + P · D(Q).
(b) Zeigen Sie, dass λ ∈ K genau dann k-fache Nullstelle von P ∈ K[X] ist (dass also
(X − λ)k das Polynom P teilt), wenn
P (λ) = . . . = Dk−1 (P )(λ) = 0
ist.
6.1.2
Eigenwerte und Eigenvektoren
Um das Verhalten von iterierten linearen Abbildungen An x zu studieren, ist es
nützlich, wenn der Vektor x die Eigenschaft hat, dass Ax = λx ist. In diesem
Fall gilt nämlich offenbar An x = λn x. Diese Idee führt zur folgenden Definition.
6.22. Definition: Sei φ : V → V linear, V ein Vektorraum über dem Körper
K. Dann heißt ein v ∈ V Eigenvektor zum Eigenwert λ ∈ K, wenn v 6= 0 ist
und
φ(v) = λv
gilt.
Ein Eigenvektor einer Abbildung ist ein Vektor v 6= 0, der
durch die Abbildung einfach nur um einen Faktor λ gestreckt wird.
6.23. Bemerkung: Natürlich gilt φ(0) = λ0 für jedes λ ∈ K. Deswegen wird
v = 0 ausgeschlossen.
6.24. Bemerkung: Falls φ(x) = Ax ist, so bezeichnet man die Eigenwerte
von φ auch einfach als Eigenwerte der Matrix A. Wir werden sehen, dass die
Eigenwerte jeder darstellenden Matrix von φ gleich sind.
6.25 Aufgabe: Zeigen Sie, dass φ genau dann injektiv ist, wenn es nicht den Eigenwert
0 hat.
6.26. Beispiel: Sei
2
A=
1
1
2
∈ R2×2 .
6.1. DEFINITION UND EIGENSCHAFTEN
209
Dann gilt
1
3
1
A
=
=3
1
3
1
und
1
A
−1
1
−1
=
1
=1
.
−1
Wir haben also eine Basis aus Eigenvektoren
1
1
,
1
−1
von A mit zugehörigen Eigenwerten
3,
1.
6.27. Bemerkung: Wenn v1 , . . . , vn Eigenvektoren zu Eigenwerten λ1 , . . . , λn
sind und
v = µ1 v1 + . . . + µn vn
so ist offenbar
φ(v) = µ1 λ1 v1 + . . . + µn λn vn
und weiter
m
φm (v) = µ1 λm
1 v1 + . . . + µn λn vn
Wenn alle Eigenwerte ungleich 0 sind, so gilt das sogar für alle m ∈ Z, zum
Beispiel
µn
µ1
v1 + . . . +
vn ,
φ−1 (v) =
λ1
λn
wie man sofort nachrechnet. Man kann also φm (v) für alle
v ∈ span {v1 , . . . , vn }
recht bequem berechnen. Es liegt also nahe, dass man daran interessiert ist, eine
Basis aus Eigenvektoren zu bekommen.
6.28. Definition: Sei A ∈ K n×n . Dann heißt
χA (λ) = det(A − λIn )
das charakteristische Polynom von A. Für eine lineare Abbildung φ : V → V
auf einem endlich dimensionalen Vektorraum V über K definieren wir
χφ (λ) = χA (λ),
wobei A die darstellende Matrix von φ bezüglich irgendeiner Basis A von V sei,
also
A = MA,A (φ).
6.29. Bemerkung: Es gilt offenbar χA (λ) ∈ K[λ], und der Grad dieses Polynoms ist genau n. Dies folgt unmittelbar aus dem Entwicklungssatz.


a1,1 − λ . . .
a1,n


..
..
..
χA (λ) = det 
.
.
.
.
an,1
...
an,n − λ
210
KAPITEL 6. EIGENWERTE
6.30 Satz: Das charakteristische Polynom einer Abbildung φ : V → V hängt
nicht von der Wahl der Basis ab.
Beweis: Seien A, B Basen von V . Dann gilt
MA,A (φ) = HMB,B (φ)H −1
mit der regulären Matrix
H = MB,A (id).
Es folgt
det(MA,A (φ) − λIn ) = det(H(MB,B (φ) − λIn )H −1 )
= det(H) det(MB,B (φ) − λIn ) det(H −1 )
= det(MB,B (φ) − λIn ).
Dabei rechnen wir im Körper R(K[X]) der rationalen Funktionen über X. 2
6.31. Bemerkung: Im Fall von unendlichen Körpern K können wir im obigen
Beweis auch einfach festhalten, dass die berechnete Gleichheit für alle λ ∈ K
gilt. Daraus folgt die Gleichheit der charakteristischen Polynome.
6.32. Definition: Die Spur einer Matrix A ∈ K n×n ist die Summe der Diagonalelemente
Spur (A) = a1,1 + . . . + an,n .
Die Spur einer Abbildung ist erstaunlicherweise unabhängig von der Basisdarstellung, ebenso wie die Determinante. Für die Determinante haben wir das
schon bewiesen.
6.33 Satz: Für das charakteristische Polynom einer Matrix A ∈ K n×n gilt
χA (λ) = (−1)n λn + (−1)n−1 Spur (A)λn−1 + . . . + det(A).
Ähnliche Matrizen haben dasselbe charakteristische Polynom und daher die gleiche Spur und Determinante.
6.34 Aufgabe: Beweisen Sie diesen Satz.
Mit Hilfe des folgenden Satzes können wir alle Eigenwerte eines Endomorphismus auf einem endlich dimensionalen Vektorraums berechnen.
6.35 Satz: Sei φ : V → V linear und V ein endlich dimensionaler Vektorraum über K. Dann ist λ genau dann Eigenwert von φ, wenn es Nullstelle des
charakteristischen Polynoms χφ ist.
Beweis: Sei λ ∈ K Eigenwert. Dann gibt es ein x 6= 0 mit
φ(x) = λx.
Wir wählen eine Basis A von V und bezeichnen mit A die darstellende Matrix
von φ bezüglich A. Sei x̃ die Darstellung von x bezüglich A, also
x = φA (x̃),
6.1. DEFINITION UND EIGENSCHAFTEN
211
Wir haben nun
Ax̃ = (φ−1
A ◦ φ ◦ φA )(x̃)
−1
= φA
(λx)
= λφ−1
A (x)
= λx̃.
Also ist λ auch Eigenwert der Matrix A. Es folgt
(A − λIn )x̃ = 0.
Wegen x̃ 6= 0 muss also
det(A − λIn ) = 0
sein. Dies bedeutet aber, dass λ Nullstelle des charakteristischen Polynoms von
2
A ist. Die Umkehrung geht ganz analog.
6.36. Bemerkung: Wir haben auch gleich gezeigt, wie man alle Eigenvektoren
zu λ berechnet. Es sind dies die Lösungen von
x 6= 0.
φ(x) = λx,
Mit Hilfe einer darstellenden Matrix A haben wir also das lineare Gleichungssystem
(A − λIn )x̃ = 0
zu lösen. Man erhält als Lösungsraum den Eigenraum von λ
Eig λ (φ) = {x ∈ V : φ(x) = λx}.
Die Eigenvektoren sind dann die Vektoren
Eig λ (φ) \ {0}.
6.37. Beispiel: Sei wieder
A=
1
∈ R2×2 .
2
2
1
Dann gilt
χA (λ) = det(A − λI2 ) =
2−λ
1
1
= λ2 − 4λ + 3.
2−λ
Die Nullstellen dieses Polynoms sind
λ1 = 1,
λ2 = 3.
Um zugehörige Eigenvektoren zu bekommen lösen wir die Gleichungssysteme
2−λ
1
x = 0.
1
2−λ
212
KAPITEL 6. EIGENWERTE
Man erhält
1
Eig 3 (A) = span {
},
1
1
Eig 1 (A) = span {
}.
−1
Zur Probe berechnen wir
1
3
1
A
=
=3
1
3
1
und
1
1
1
A
=
=1
.
−1
−1
−1
Wir erhalten also eine Basis aus Eigenvektoren
1
1
,
1
−1
von A.
6.38 Aufgabe: Sei A ∈ Cn×n und λ ∈ C ein Eigenwert von A. Zeigen Sie
|λ| ≤ max
1≤i≤n
n
X
|ai,j |.
j=1
6.39 Aufgabe: Zeigen Sie, dass A ∈ K n×n und AT die gleichen Eigenwerte haben.
6.40 Aufgabe: Berechnen Sie das charakteristische Polynom und alle Eigenwerte
von


a 1 ... 1
.

..
..
1
. .. 
.
,
(a ∈ R).
A=

.
..
 ..
. 1
1 ... 1 a
Subtrahieren Sie dazu zunächst die letzte Zeile von allen anderen und addieren dann
das 1/(a − 1 − X)-fache der ersten n − 1 Zeilen von der letzten.
6.41 Aufgabe: Sei A ∈ Kn×n und λ ∈ K ein Eigenwert von A (K = R oder K = C).
Zeigen Sie
n
X
|λ| ≤ max
|ai,j |.
1≤i≤n
6.1.3
j=1
Diagonalisierbarkeit
6.42. Definition: Ein Endomorphismus φ : V → V heißt diagonalisierbar,
wenn er eine Basis aus Eigenvektoren besitzt.
6.43. Bemerkung: Falls V endlich dimensional ist, so bedeutet dies, dass es
eine Basis gibt, bezüglich derer φ eine Diagonalmatrix als darstellende Matrix
hat. Jede darstellende Matrix von φ ist daher ähnlich zu einer Diagonalmatrix.
6.44 Satz: Sei A ∈ K n×n und v1 , . . . , vn eine Basis aus Eigenvektoren von
A zu Eigenwerten λ1 , . . . , λn . Dann gilt
A = HDH −1
6.1. DEFINITION UND EIGENSCHAFTEN
213
mit der Diagonalmatrix


λ1
..

D=


.
λn
und
H = (v1 , . . . , vn ).
A ist also ähnlich zur Diagonalmatrix D. Umgekehrt hat jede Matrix A, die
ähnlich zu einer Diagonalmatrix ist, eine Basis aus Eigenvektoren.
Beweis: Offenbar
AH = (Av1 , . . . , Avn ) = (λ1 v1 , . . . , λn vn ) = HD.
Wenn umgekehrt diese Gleichung gilt, so sind v1 , . . . , vn Eigenvektoren von A
2
zu λ1 , . . . , λn .
6.45. Beispiel: Es gilt
2 1
1
=
1 2
1
1
3
−1
0
0
1/2
1
1/2
1/2
.
−1/2
6.46. Bemerkung: Aufgrund dieses Satzes kann man sehr leicht Potenzen
von Matrizen auswerten, oder auch Matrizen in Polynomausdrücke einsetzen.
Zunächst gilt
Am = (HDH −1 )m = (HDH −1 ) · . . . · (HDH −1 ) = HDm H −1 ,
weil sich Paare von H und H −1 wegheben. Dm ist aber sehr leicht zu berechnen,
nämlich

 m
λ1


..
Dm = 
.
.
m
λn
Wenn A regulär ist, so gilt dies auch für negative m ∈ Z. Man definiert dabei
natürlich
A0 = In , A−n = (A−1 )n .
Dasselbe kann man für Polynomausdrücke machen.
am Am + . . . + a1 A + a0 = H(am Dm + . . . + a1 D + a0 In )H −1 .
Also gilt für alle Polynome p ∈ K[X]


p(λ1 )
..

p(A) = Hp(D)H −1 = H 
 −1
H
.
p(λn )
6.47 Aufgabe: Berechnen Sie
2
1
1
2
m
214
KAPITEL 6. EIGENWERTE
6.48. Bemerkung: Mit Hilfe eines geeigneten Grenzwertbegriffs kann man auf
diese Weise auch Potenzreihen in A auswerten. Man erhält zum Beispiel
 λ

e 1
∞
X
1 ν

 −1
..
eA :=
A =H
H .
.
ν!
ν=0
eλ n
Dieses Thema gehört in die Analysis.
6.49 Aufgabe: Überzeugen Sie sich davon, dass das Kommutativgesetz für Polynomausdrücke von Matrizen gilt. Das heißt, dass für Polynome P und Q, in die eine
quadratische Matrix A eingesetzt wird, gilt
P (A)Q(A) = Q(A)P (A).
Allgemeiner gilt für quadratische Matrizen A, B
AB = BA ⇒ P (A)Q(B) = Q(B)P (A).
6.50. Beispiel: Wir haben zwei sehr große Gruppen von Personen. Durchschnittlich wechselt die Hälfte der Gruppe 1 in jedem Jahr nach Gruppe 2, ein
Drittel von Gruppe 2 wechselt nach Gruppe 1.
Wenn x1 , x2 die Gruppengrößen sind, so erhält man für die neuen erwarteten
Größen x̃1 , x̃2
x̃1 = 1/2x1 + 1/3x2 ,
Also
x 7→ x̃ =
1/2
1/2
x̃2 = 1/2x1 + 2/3x2 .
1/3
· x = A · x.
2/3
Das charakteristische Polynom von A ist
det(A − λI2 ) =
6λ2 − 7λ + 1
.
6
mit den Nullstellen
λ1 = 1,
Zugehörige Eigenvektoren sind
2/5
v1 =
,
3/5
λ2 = 1/6.
v2 =
1/2
−1/2
Für x = av1 + bv2 gilt dann
Am x = aAm v1 + bAm v2
m
= aλm
1 v1 + bλ2 v2
b
= av1 + m v2
6
→ av1 .
6.1. DEFINITION UND EIGENSCHAFTEN
215
Die Gruppengröße tendiert also zu Vielfachen von v1 . Also werden auf die Dauer
2/5 in Gruppe 1 und 3/5 in Gruppe 2 sein.
Um dasselbe mit Matrizen zu rechnen, setzen wir
1 0
D=
0 1/6
und
M=
2/5
3/5
1/2
.
−1/2
Man erhält die Darstellung
A = M · D · M −1
2/5 1/2
1
=
3/5 −1/2
0
Also für Am
2/5 1/2
1
3/5 −1/2
0
0
1/6m
0
1/6
1
6/5
1 2
1
=
−4/5
5 3
1
6/5
1
.
−4/5
1
2
3
+
m
3
−3
5·6
−2
.
2
Mit m → ∞ hat man 1/6m → 0, und man berechnet
1 2 2
Am →
5 3 3
Also
Am x →
2/5(x1 + x2 )
.
3/5(x1 + x2 )
Dies bestätigt das schon oben gewonnene Ergebnis.
6.51 Aufgabe: Die Matrix A habe wie im Beispiel die Eigenschaft
AT 1 = 1
mit
 
1
.
1 =  ..  .
1
und nur nicht-negative Einträge. Man nennt A dann eine stochastische Matrix. Zeigen Sie, dass A den Eigenwert 1 hat. Zeigen Sie, dass alle Eigenwerte von A den Betrag
kleiner oder gleich 1 haben.
Wir beschäftigen uns nun noch mit Matrizen, die keine Basis aus Eigenvektoren haben. Dies kann der Fall sein, obwohl das charakteristische Polynom über
K vollständig in Linearfaktoren zerfällt. Zunächst aber ein Hilfssatz.
6.52 Satz: Sei φ : V → V ein Endomorphismus eines endlich dimensionalen
Vektorraums über K, und U ⊆ V ein Unterraum von V mit
φ(U ) ⊆ U.
216
KAPITEL 6. EIGENWERTE
Sei χφ das charakteristische Polynom von φ und χφ|U das charakteristische
Polynom von φ, eingeschränkt auf U . Dann ist χφ|U ein Teiler von χφ , lässt
sich also ohne Rest ausdividieren.
Beweis: Wir wählen eine Basis b1 , . . . , bk von U und ergänzen zu einer Basis
b1 , . . . , bn von V . Die darstellende Matrix von φ bezüglich dieser Basis B hat
dann die Gestalt
M1
∗
M=
0 M2
mit Matrizen M1 ∈ K k×k und M2 ∈ K n−k×n−k . Außerdem ist M1 die darstellende Matrix von φ|U bezüglich b1 , . . . , bk . Es folgt
χφ|U (λ) = det(M1 − λIk )
und
χφ (λ) = det(M1 − λIk ) · det(M2 − λIn−k ).
2
Es folgt die Behauptung.
6.53. Definition: Sei φ : V → V ein Endomorphismus des endlich dimensionalen Vektorraums V und λ0 eine Nullstelle des charakteristischen Polynoms χφ .
Dann ist die algebraische Vielfachheit von λ die maximale Potenz k, so dass
sich (λ − λ0 )k aus χφ (λ) ausdividieren lässt. Die geometrische Vielfachheit
von λ ist die Dimension des Eigenraums Eig λ .
6.54 Satz: Die geometrische Vielfachheit eines Eigenwertes ist kleiner oder
gleich der algebraischen Vielfachheit.
Beweis: Der Eigenraum ist offenbar ein Unterraum, der durch die Abbildung
in sich selbst abgebildet wird. Natürlich besitzt der Eigenraum eine Basis aus Eigenvektoren. Es gilt also für das charakteristische Polynom auf dem Eigenraum
E = Eig λ0 mit Dimension n
χφ|E = (λ − λ0 )n .
Es folgt aus dem vorigen Satz, dass dieses Polynom das gesamte charakteristische Polynom teilt. Also ist die geometrische Vielfachheit von λ0 kleiner oder
gleich der algebraischen Vielfachheit von λ0 .
2
6.55 Aufgabe: (a) Seien λ1 , . . . , λk paarweise verschiedene Eigenwerte eines Endomorphismus φ : V → V , sowie
0 6= vi ∈ Eigλi
für alle i = 1, . . . , k. Zeigen Sie, dass dann v1 , . . . , vk linear unabhängig sind.
(b) Folgern Sie, dass für endlich dimensionales V , ein Endomorphismus φ : V → V
genau dann diagonalisierbar ist, wenn
k
X
dim Eigλi (φ) = dim V
i=1
gilt, wobei λ1 , . . . , λk die paarweise verschiedenen Eigenwerte von φ sind.
6.56 Satz: Ein Endomorphismus φ : V → V auf einem n-dimensionalen
Vektorraum ist genau dann diagonalisierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt und alle geometrischen Vielfachheiten gleich den
algebraischen Vielfachheiten sind.
6.1. DEFINITION UND EIGENSCHAFTEN
217
Insbesondere ist er diagonalisierbar, wenn sein charakteristisches Polynom n
paarweise verschiedene Nullstellen hat.
Beweis: Da ein diagonalisierbarer Endomorphismus eine Basis hat mit darstellender Matrix als Diagonalmatrix, zerfällt das charakteristische Polynom in
Linearfaktoren. Denn dies ist für Diagonalmatrizen der Fall. Außerdem ist die
Summe der geometrischen Vielfachheiten mindestens n, da φ ja eine Basis aus
Eigenvektoren besitzt. Da die Summe der algebraischen Vielfachheiten gleich n
ist, folgt die Gleichheit der geometrischen und algebraischen Vielfachheiten aus
dem vorigen Satz.
Wenn umgekehrt das charakteristische Polynom zerfällt und die geometrischen gleich den algebraischen Vielfachheiten sind, muss die Summe der geometrischen Vielfachheiten n sein. Es gibt also eine Basis aus Eigenvektoren.
Die letzte Behauptung folgt daraus, dass die geometrische Vielfachheit jedes
2
Eigenvektors mindestens 1 ist.
6.57 Aufgabe: Berechnen Sie alle Eigenwerte und Eigenräume der Matrix


1 1 1 1
0 1 1 1

A=
0 0 2 1
0 0 0 2
6.58 Aufgabe: Berechnen Sie für a ∈ K alle Eigenwerte und Basen der zugehörigen
Eigenräume der Matrix

a

1
Aa = 
.
 ..
1
1
..
..
.
.
...
...
..
.
..
.
1
1



 ∈ K n×n

1
a
Anstatt die Diagonalisierbarkeit zu fordern, kann man oft wenigstens eine
ähnliche obere Dreiecksmatrix erreichen. Wir werden diesen Sachverhalt später
noch verschärfen, indem wir eine spezielle Gestalt für die obere Dreiecksmatrix
fordern.
6.59 Satz: Eine Matrix A ∈ K n×n ist genau dann ähnlich zu einer oberen
Dreiecksmatrix, wenn χA in Linearfaktoren zerfällt.
Beweis: Da das charakteristische Polynom einer oberen Dreiecksmatrix in
Linearfaktoren zerfällt, folgt die eine Richtung aus Satz 6.33.
Der Beweis der anderen Richtung geht mit Induktion nach n. n = 1 ist klar.
Sei n > 1. Aufgrund der Annahme gibt es einen Eigenwert λ1 von A und dazu
einen Eigenvektor v1 . Wir ergänzen v1 zu einer Basis v1 , . . . , vn von K n und
erhalten als darstellende Matrix von φA (x) = Ax die Matrix
λ1
zT
à =
0 An−1
218
KAPITEL 6. EIGENWERTE
mit einem z ∈ K n . Es gilt für die Matrix An−1 ∈ K n−1×n−1
χA (X) = (λ1 − X)χAn−1 (X).
Also zerfällt auch das charakteristische Polynom von An−1 in Linearfaktoren,
und An−1 ist aufgrund der Induktionsannahme ähnlich zu einer oberen Dreiecksmatrix Rn−1 , also
−1
Ãn−1 = Hn−1 Rn−1 Hn−1
.
Nun folgt
λ1
0
zT
An−1
1
·
0
0
Hn−1
λ1
z T Hn−1
=
0 An−1 Hn−1
λ1
z T Hn−1
=
0 Hn−1 Rn−1
1
0
λ1 z T Hn−1
=
·
.
0 Hn−1
0
Rn−1
Dies zeigt, dass die Matrix à ähnlich zu einer oberen Dreiecksmatrix ist, also
2
auch die Matrix A, die ja ähnlich zu à ist.
6.60 Aufgabe: Finden Sie eine obere Dreiecksmatrix, zu der
2 −1
A=
1
0
ähnlich ist. Geben Sie die Matrix H an, die die Ähnlichkeit vermittelt.
6.61 Aufgabe: Sei A ∈ K n×n eine Matrix, die nicht den Eigenwert 1 hat. Zeigen
Sie, dass dann In − A invertierbar ist, und dass
In + A + . . . + Am = (In − Am+1 )(In − A)−1
für alle m ∈ N gilt.
6.62 Aufgabe: (a) Sei A ∈ K n×n , v0 , b ∈ K n und
vm+1 = Avm + b,
m ∈ N0 .
Geben Sie eine Summenformel für vm an.
(b) Vereinfachen Sie diese Formel für den Fall, dass A nicht den Eigenwert 1 hat.
(c) Sei speziell
A=
3
1
1
3
∈ Rn×n
und v0 = 0, b = e1 . Geben Sie mit Hilfe von (b) und einer Hauptachsentransformation
von A eine explizite Formel für die Komponenten von vm an.
(d) Wieder gelte v0 = 0, b = e1 . Die Matrix
2 1
A=
∈ Rn×n
1 2
hat den Eigenwert 1. Deswegen muss man in diesem Fall anders rechnen. Stellen Sie
dazu b als Linearkombination der Eigenvektoren dar, und finden Sie so erneut eine
Formel für vm .
6.1. DEFINITION UND EIGENSCHAFTEN
6.1.4
219
Selbstadjungierte Endomorphismen
Wir erinnern daran, dass eine Abbildung φ : V → V auf einem Skalarproduktraum V über K selbstadjungiert heißt, wenn
hφ(x), yi = hx, φ(y)i
für alle x, y ∈ Kn ist. Falls φ(x) = Ax ist und V = Kn , so bedeutet dies für die
Matrix A, dass sie symmetrisch bzw. konjugiert symmetrisch (Hermitesch) ist,
also
A = A∗
Allgemeiner muss in einem endlich-dimensionalen Skalarproduktraum die darstellende Matrix von φ bezüglich einer Orthonormalbasis Hermitesch sein, damit
φ selbstadjungiert ist.
6.63 Aufgabe: Zeigen Sie, dass zwei Eigenvektoren zu verschiedenen Eigenwerten
eines selbstadjungierten Endomorphismus senkrecht aufeinander stehen müssen.
6.64 Satz: Ein selbstadjungierter Endomorphismus φ : V → V auf einem
endlich dimensionalen Skalarproduktraum V über K besitzt eine Orthonormalbasis aus Eigenvektoren. Alle Eigenwerte sind reell.
Beweis: Sei zunächst K = C. Wir beweisen den Satz durch Induktion nach der
Dimension von V . Aufgrund des Hauptsatzes der Algebra besitzt χφ mindestens
eine Nullstellen λ ∈ C. λ ist also Eigenwert von φ und wir berechnen mit dem
zugehörigen Eigenvektor x
λhx, xi = hx, φ(x)i = hφ(x), xi = λhx, xi.
Es folgt λ = λ und daher λ ∈ R. Dies beweist speziell die Behauptung im Fall
dim V = 1. Für dim V > 1 sei nun
U = x⊥ .
Für u ∈ U erhält man
hφ(u), xi = hu, φ(x)i = λhu, xi = 0.
Also φ(u) ∈ U . Es folgt φ(U ) ⊆ U . Auf dem Skalarproduktraum U ist φ wieder
selbstadjungiert. Also besitzt dort φ eine Basis aus Eigenvektoren, die zusammen
mit x eine Basis aus Eigenvektoren von φ auf V ergibt.
Sei nun K = R. Wir wählen eine Orthonormalbasis A von V . Sei A die
darstellende Matrix von φ bezüglich dieser Basis. Dann ist A = AT und mit der
obigen Argumentation erhalten wir einen reellen Eigenwert λ von A mit einem
reellen Eigenvektor x̃ ∈ Rn . Also ist
x = φA (x̃) ∈ V
ein Eigenvektor von φ zum reellen Eigenwert λ. Wir können nun wie oben per
Induktion schließen und den Beweis vervollständigen.
2
6.65. Bemerkung: Aus dem Satz folgt sofort, dass für A = A∗ eine unitäre
Matrix H und eine reelle Diagonalmatrix D existiert mit
A = HDH −1 = HDH ∗ .
220
KAPITEL 6. EIGENWERTE
6.66. Beispiel: Wir haben bereits für die Matrix
2 1
A=
1 2
eine Basis aus Eigenwerten hergeleitet. Normiert man diese Eigenvektoren, so
erhält man
1 1 1
3 0 1 1 1
2 1
√
.
=√
0 1
1 2
2 1 −1
2 1 −1
In diesem Fall ist H selbst symmetrisch. Das muss jedoch im allgemeinen nicht
der Fall sein. Vertauscht man in diesem Beispiel die Eigenwerte 1 und 3, so ist
es auch tatsächlich nicht mehr der Fall, jedoch ist H immer noch orthogonal.
6.1.5
Das Minimalpolynom
Wir beginnen mit dem berühmten Satz von Cayley-Hamilton, den wir schon in
Spezialfällen nachgerechnet haben. Er besagt, dass eine Matrix, eingesetzt in
ihr eigenes charakteristisches Polynom, die Nullmatrix ergibt. Die Information
darüber, welche polynomialen Ausdrücke eine Matrix zu 0 machen, sagt, wie
wir sehen werden, viel über die Struktur der zugehörigen Abbildung aus.
6.67. Beispiel: Sei
A=
2
1
1
2
So berechnet man χA (λ) = λ2 − 4λ + 3. Setzt man A für λ ein, so erhält man
die Nullmatrix. In der Tat
χA (A) = A2 − 4A − 3I2 = 0.
Im Fall von diagonalisierbaren Matrizen lässt sich das auch leicht beweisen.
Denn, wenn A = HDH −1 ist mit einer Diagonalmatrix D aus Eigenwerten
λ1 , . . . , λn , so gilt


χA (λ1 )

 −1
..
χA (A) = HχA (D)H −1 = H 
 H = 0.
.
χA (λn )
6.68 Satz:
(Cayley-Hamilton) Sei A ∈ K n×n . Dann gilt
χA (A) = 0.
Der folgende Beweis ist recht abstrakt. Wenn man zur Verfügung hat, dass
das charakteristische Polynom von A in K oder in einem Erweiterungslörper
K̃ ⊃ K n Linearfaktoren zerfällt, so gibt es einen einfacheren Beweis, der weiter
unten wiedergegeben ist.
6.1. DEFINITION UND EIGENSCHAFTEN
221
Beweis: Wir betrachten die Matrix
B = A − XIn ,
die als Einträge Elemente aus K[X] hat. Es gilt
det B = χA ∈ K[X].
Mit Hilfe der Cramerschen Regel berechnen wir die Inverse von B, deren Elemente wir mit det B multiplizieren. Man erhält eine Matrix B̃ über K[X] mit
B · B̃ = (det B)In .
Wir haben also für alle i, k
n
X
bi,j b̃j,k = δi,k det B.
j=1
Dabei ist δi,k das Kroneckersymbol, und auf beiden Seiten stehen Polynome in
K[X]. Wir setzen nun für X die Matrix A ein, was wir als
(det B)(A),
b̃i,j (A) ∈ K n×n
bi,j (A),
schreiben. Wir können dann diese Matrizen mit den Einheitsvektoren e1 , . . . , en
multiplizieren und erhalten durch Umsummieren und Ausnutzen der Kommutativität von Polynomausdrücken in A
(det B)(A)ek =
=
=
=
=
n
X
(δi,k
i=1
n
n X
X
det B)(A) · ei
(bi,j b̃j,k )(A)ei
i=1 j=1
n X
n
X
i=1 j=1
n X
n
X
j=1 i=1
n
n X
X
bi,j (A)b̃j,k (A)ei
bi,j (A)b̃j,k (A)ei
b̃j,k (A)bi,j (A)ei
j=1 i=1
=
k
X
b̃j,k (A)
j=1
n
X
!
bi,j (A)ei
i=1
Andererseits berechnen wir für i, j = 1, . . . , n wegen B = A − XIn
bi,j (A) = ai,j − Aδi,j
und daher für j = 1, . . . , n
n
X
i=1
bi,j (A)ei =
n
X
i=1
!
ai,j ei
− aj = 0.
222
KAPITEL 6. EIGENWERTE
Es folgt
(det B)(A)ek = 0
für alle k = 1, . . . , n und daher die Behauptung.
2
6.69 Aufgabe: Die Matrix
Ja,n

a


=


1
..
.
..
.
a


n×n
∈K
1
a
nennt man Jordanblock. Berechnen Sie geometrische und algebraische Vielfachheit
des Eigenwerts a von Ja,n . Zeigen Sie den Satz von Cayley-Hamilton
(Ja,n − aIn )n = 0.
für diesem Spezialfall. Sei A die Blockmatrix
Ja,n
0
A=
0
Jb,m
Rechnen Sie den Satz von Cayley-Hamilton auch in diesem Spezialfall nach.
6.70. Bemerkung: Wenn φ : V → V linear ist und V ein endlich dimensionaler Vektorraum über K, so kann man natürlich auch die Abbildung φ in ihr
charakteristisches Polynom einsetzen. Es gilt dann ebenfalls
χφ (φ) = 0.
Zum Beweis wählt man eine Basis A von V . Sei A die darstellende Matrix
von φ bezüglich A. Dann ist für jedes Polynom P ∈ K[X] die Matrix P (A)
die darstellende Matrix der Abbildung P (φ). Also folgt die Behauptung aus
χA (A) = 0.
6.71. Bemerkung: Man kann den Satz von Cayley-Hamilton auch anders beweisen. Dazu betrachten wir zunächst den Fall, dass χA in Linearfaktoren zerfällt
χA (λ) = (λ − λ1 ) · . . . · (λ − λn ).
Dann ist A ähnlich zu einer oberen Dreiecksmatrix D, also
A = HDH −1
mit einer regulären Matrix H. Es folgt
χA (A) = HχA (D)H −1 = HχD (D)H −1 .
Es genügt also, den Satz für obere Dreiecksmatrizen zu beweisen. Es gilt
χD (D) = (D − λ1 In ) · . . . · (D − λn In )
für alle i = 1, . . . , n, wobei die Reihenfolge der Faktoren D − λi In vertauschbar
ist. Für obere Dreiecksmatrizen gilt aber
(D − λi In )ei ∈ span {e1 , . . . , ei−1 }.
6.1. DEFINITION UND EIGENSCHAFTEN
223
Aufgrund der Vertauschbarkeit folgt per Induktion
χD (D)ei = 0
für alle i = 1, . . . , n,
und damit die Behauptung. Falls χA (λ) allerdings nicht in Linearfaktoren zerfällt, so muss man mit algebraischen Hilfsmitteln einen Erweiterungskörper K̃
von K konstruieren, in dem das der Fall ist. Damit kann man den Beweis auch
in diesem Fall durchführen.
6.72. Definition: Sei φ : V → V linear, und V ein endlich dimensionaler Vektorraum über K. Dann heißt das Polynom P mit kleinstem Grad und höchstem
Koeffizienten 1, für das P (φ) = 0 gilt, das Minimalpolynom von φ. Analog
definieren wir das Minimalpolynom einer Matrix A ∈ K n×n .
6.73 Satz: Das Minimalpolynom einer Abbildung φ : V → V , V ein endlich
dimensionaler Vektorraum, ist eindeutig bestimmt.
Das Minimalpolynom ist ein Teiler jedes Polynoms, das φ annulliert, insbesondere ein Teiler des charakteristischen Polynoms.
Umgekehrt ist jedes Primpolynom, das das charakteristische Polynom teilt, ein
Teiler des Minimalpolynoms. Insbesondere hat das Minimalpolynom alle Eigenwerte als Nullstellen.
Beweis: Sei M ∈ K[X] ein Minimalpolynom. Dann kann man M aus einem
weiteren Polynom P ∈ K[X] ausdividieren und erhält
P = QM + R,
deg R < deg M.
Wenn P (φ) = 0 ist, so muss also R(φ) = 0 sein. Da M minimalen Grad mit
dieser Eigenschaft hat, folgt R = 0 und M teilt P , was die zweite Aussage des
Satzes ist.
Wir haben damit auch bewiesen, dass M eindeutig bestimmt ist. Denn für
ein zweites Minimalpolynom P mit gleichem Grad würde P = QM gelten, wobei
P ein konstantes Polynom ist. Wir haben aber festgelegt, dass das Minimalpolynom den höchsten Koeffizienten 1 haben soll.
Sei P ein Primpolynom, das χφ teilt. Wir setzen
U = Kern P (φ).
U ist Unterraum von V und es gilt für u ∈ U
(P (φ) ◦ φ)(u) = (φ ◦ P (φ))(u) = 0,
also φ(u) ∈ U . Es folgt
φ(U ) ⊆ U.
P ist nun per Definition von U ein Polynom, dass φ|U auf U annulliert. Da es
keine Teiler hat, ist es nach dem schon bewiesenen Behauptungen das Minimalpolynom von φ|U . Andererseits annulliert χφ die Abbildung φ, also auch die
Abbildung φ|U . Es folgt die Behauptung.
2
224
KAPITEL 6. EIGENWERTE
6.74. Beispiel: Sei φ : R2 → R2 die Drehung um 60◦ . Dann gilt φ3 = −id. Das
Minimalpolynom ist also Teiler von
λ3 + 1 = (λ + 1)(λ2 − λ + 1).
Die Nullstellen des zweiten Faktors sind
λ1,2
√
3
1
i.
= ±
2
2
Also ist dieses Polynom in R ein Primpolynom. Da λ + 1 nicht das Minimalpolynom ist, muss es der zweite Faktor sein. Da dieses Polynom den Grad 2 hat,
ebenso wie das charakteristische Polynom, folgt, dass es gleich dem charakteristischen Polynom ist.
χφ (λ) = λ2 − λ + 1.
In der Tat ist die Drehmatrix gleich
cos 60◦
A60◦ =
sin 60◦
− sin 60◦
cos 60◦
und
χA60◦ = λ2 − 2(cos 60◦ )λ + 1 = λ2 − λ + 1.
6.75. Beispiel: Allgemeiner sei φ die Drehung um 360◦ /n. Dann gilt φn = id.
Das Minimalpolynom ist also
λn − 1 = (λ − 1)(1 + λ + . . . + λn−1 ).
Das Minimalpolynom dieser Drehung ist aber für n > 2 gleich dem charakteristischen Polynom
360◦
2
λ + 1.
χφ (λ) = λ − 2 cos
n
6.76. Beispiel: Eine Projektion φ2 = φ hat also Minimalpolynom eines der
Polynome
λ, λ − 1, λ(λ − 1).
Die Jordanmatrix von φ besteht also in jedem Fall aus einer Diagonalmatrix mit
0 und 1 in der Diagonalen. Sonderfälle sind die Nullmatrix und die Identität.
6.77. Beispiel: Das charakteristische Polynom eines Jordanblocks Ja,n ist
χ(λ) = (λ − a)n . Das Minimalpolynom ist ein Teiler davon, also p(λ) = (λ − a)k
mit einem k = 0, . . . , n nur k = n. Man rechnet nach, dass in der Tat χ selber
das Minimalpolynom ist.
6.78. Definition: Eine Matrix

Ja1 ,n1

J =

..

,
.
Jak ,nk
6.1. DEFINITION UND EIGENSCHAFTEN
225
die aus Jordanblöcken zusammen gesetzt ist, nennt man Jordanmatrix.
6.79 Satz: Das Minimalpolynom der Jordanmatrix J, die aus den Jordanblöcken Jai ,ni mit i = 1, . . . , k besteht, ist gleich
P (λ) = (λ − b1 )m1 · . . . · (λ − bs )ms ,
wobei b1 , . . . , bs die paarweise verschiedenen Eigenwerte sind, also
{b1 , . . . , bs } = {a1 , . . . , ak },
sowie mi der maximale Index nj mit dem bi unter den den aj vorkommt, also
mi = max{nj : bi = aj für ein j = 1, . . . , k}.
Beweis:
Form
Aufgrund des obigen Satzes muss das Minimalpolynom von J die
p(λ) = (λ − b1 )m1 · . . . · (λ − bs )ms
haben. Denn es muss ein Teiler des charakteristischen Polynoms sein und es
muss jeden Primteiler λ − bi dieses Polynoms als Faktor enthalten. Man rechnet
aber leicht nach, dass alle mi wie im Satz verlangt gewählt werden müssen. 2
6.80. Beispiel: Wenn V nicht endlich dimensional ist, so braucht für Endomorphismen φ : V → V kein Minimalpolynom zu existieren. Im Folgenraum
L = A(N0 , R) sei
D(a0 , a1 , a2 , . . .) = (a1 , a2 , . . .)
der Shift-Operator D : L → L. Dann gibt offenbar kein Polynom, dass D
annulliert. Für irgendein Polynom P ∈ R[X] ist allerdings, wie die folgende
Aufgabe zeigt,
U = Kern P (D)
ein Unterraum von L, der durch D in sich abgebildet wird. In U wird D|U durch
P annulliert und besitzt dort ein Minimalpolynom.
6.81 Aufgabe: Sei φ : V → V ein Endomorphismus und P ∈ K[X] ein Polynom.
Zeigen Sie, dass für jedes Polynom Q ∈ K[X] die Abbildug Q(φ) den Unterraum
Kern P (φ) in sich abbildet.
Unser nächstes Ziel ist es, den folgenden Satz zu beweisen.
6.82 Satz: Jede lineare Abbildung φ : V → V , V ein endlich dimensionaler Vektorraum über K, deren charakteristisches Polynom in Linearfaktoren
zerfällt, kann mit Hilfe einer geeigneten Basis als Jordanmatrix dargestellt werden. Diese Jordanmatrix ist bis auf die Reihenfolge der Blöcke eindeutig bestimmt.
6.83. Bemerkung: Als Folgerung erhalten wir, dass zwei Matrizen A, B ∈
K n×n genau dann ähnlich sind, wenn sie ähnlich zur selben Jordanmatrix sind.
6.84. Beispiel: Sei φ : R2 → R2 ein Endomorphismus mit φ2 = 2φ − id. Dann
annuliert
P (X) = X 2 − 2X + 1 = (X − 1)2
226
KAPITEL 6. EIGENWERTE
den Endomorphismus φ. Das Minimalpolynom muss ein Teiler davon sein. Es
kommen also in Frage
(X − 1), (X − 1)2
φ muss also nach den obigen beiden Sätzen gleich einer der folgenden Abbildungen sein.
1 0
1 1
,
.
0 1
0 1
Diese beiden Matrizen sind nicht ähnlich zueinander.
6.85 Aufgabe: Sei φ : R3 → R ein Endomorphismus mit φ3 = φ. Geben Sie alle
Jordanmatrizen an, die diese Gleichung erfüllen.
Zum Beweis des obigen Satzes sind folgende vorbereitende Aufgaben nützlich.
6.86 Aufgabe: Sei V endlich dimensional.
(a) Seien φ1 , φ2 : V → V Endomorphismen mit
φ1 ◦ φ2 = 0,
sowie
Kern φ1 ∩ Kern φ2 = {0}
Zeigen Sie
V = Kern φ1 ⊕ Kern φ2 .
Hinweis: Zeigen Sie mit Hilfe von Dimensionsformeln
dim V = dim Kern φ1 + dim Kern φ2 ,
wobei Sie von Bild φ2 ⊆ Kern φ1 ausgehen.
(b) Sei P ein Polynom, das in zwei teilerfremde Faktoren P = Q1 Q2 zerlegt sei, und
φ : V → V ein Endomorphismus. Zeigen Sie
Kern P (φ) = Kern Q1 (φ) ⊕ Kern Q2 (φ).
Hinweis: Aufgrund einer vorigen Aufgabe, sind Q1 (φ) und Q2 (φ) Endomorphismen auf
Kern P (φ). Überlegen Sie sich, dass das Minimalpolynom des Schnittes Teiler von Q1
und Q2 die Identität sein müsste.
(c) Verallgemeinern Sie auf mehr als zwei Faktoren.
Beweis: Wir zeigen nun die Existenz der Jordandarstellung eines Endomorphismus φ : V → V , V endlich dimensional, dessen charakteristisches Polynom
in Linearfaktoren zerfällt. Das Minimalpolynom P ist ein Teiler des charakteristischen Polynoms und zerfällt dann in teilerfremde Faktoren der Form
P (X) = (X − λ1 )k1 · . . . · (X − λs )ks .
Wir setzen
Ui = Kern (φ − λi id)ki ,
Aufgrund Aufgabe 6.81 gilt
φ(Ui ) ⊆ Ui .
i = 1, . . . , s.
6.1. DEFINITION UND EIGENSCHAFTEN
227
Mit Hilfe Aufgabe 6.86 zeigt man
V = U1 ⊕ . . . ⊕ Us .
Wir können uns also darauf beschränken zu zeigen, dass φ|Ui eine Jordandarstellung mit Jordanblöcken hat, die λi in der Diagonalen haben. Das Minimalpolynom von φ|Ui ist (X − λi )ki .
Wir dürfen also annehmen, dass φ : V → V ein Endomorphismus mit Minimalpolynom (X − λ)k ist. In der Tat können wir φ durch φ − λ id ersetzen und
uns auf den Fall λ = 0 reduzieren.
Jede Jordandarstellung von φ besteht nun aus Ketten
v0 = v,
v1 = φ(v),
...,
vt−1 = φt−1 (v),
φt (v) = 0.
Die Matrixdarstellung von φ bezüglich v0 , . . . , vt−1 ist dann ein Jordanblock
J0,t . Die Vektoren einer Kette sind automatisch linear unabhängig. Wir müssen
genügend vieler solcher Ketten finden, so dass die Gesamtzahl der Vektoren
dim V beträgt, und die Vektoren linear unabhängig sind. Dies ist äquivalent
mit der Existenz von linear unabhängigen Vektoren
v1,j , . . . , vmj ,j ,
j = 1, . . . , k
mit
m1 > . . . > mk
mit
φ(vi,j ) = vi,j−1 ,
i = 1, . . . , mj ,
j = 2, . . . , k,
und
φ(vi,1 ) = 0,
i = 1, . . . , m1 .
Wir benötigen außerdem genügend viele Vektoren, also
m1 + . . . + mk = dim V.
Ein Beispiel für ein solches System ist
v4,1
↓
v3,1
↓
v2,1
↓
v1,1
↓
0
∈ Kern φ4
v3,2
↓
v2,2
↓
v1,2
↓
0
∈ Kern φ3
∈ Kern φ2
v1,3
↓
0
v1,4
↓
0
∈ Kern φ
Die darstellende Matrix hätte die Jordanblöcke
J0,4 , J0,3 , J0,1 , J0,1 .
Die letzten beiden Blöcke formen natürlich die Nullmatrix, also eine Diagonalmatrix mit 0 in der Diagonalen. Hier ist k = 4 und dim V = 9. Das Minimalpolynom ist X 4 .
228
KAPITEL 6. EIGENWERTE
Wir suchen also Vektoren
vi,j ∈ Kern φj \ Kern φj−1 .
Diese Vektoren werden induktiv für j = k, . . . , 1 gefunden. Zunächst wählen wir
eine Basis v1 , . . . , vn von V = Kern φk und betrachten die Vektoren
φk−1 (v1 ), . . . , φk−1 (vn ),
die nicht alle gleich 0 sein können. Aus diesen Vektoren wählen wir ein linear
unabhängiges Teilsystem aus, etwa die ersten mk Vektoren. Dann setzen wir
vk,i = vi , . . . , v1,i = φk−1 (vi )
für i = 1, . . . , mk . Im obigen Beispiel haben wir damit eine Kette von Vektoren,
nämlich die erste Spalte v4,1 , . . . , v1,1 , festgelegt.
Im zweiten Schritt wählen wir die Vektoren
vk−1,1 , . . . , vk−1,mk−1 .
Die ersten mk dieser Vektoren sind bereits festgelegt. Diese Vektoren ergänzen
wir zu einer Basis von Kern φk−1 und wählen ein lineares Teilsystem der Bilder
unter φk−2 dieser Vektoren. Dieses System kann man so wählen, dass es die
schon gewählten Vektoren
v1,1 , . . . , v1,mk ,
die ja linear unabhängig sind, umfasst. Das so gewählte System bestimmt die
Vektoren
vmk +1,k−1 , . . . , vmk−1 ,k−1 .
Im obigen Beispiel gilt mk = 1, mk−1 = 2, und wir haben auf diese Weise
die Kette v3,2 , . . . , v1,2 gefunden. Man beachte aber, dass mk−1 = mk durchaus
möglich ist. Dieser Fall tritt etwa im nächsten Schritt unseres Beispiels auf.
Analog verfahren wir bis wir im letzten Schritt die Vektoren
v1,1 , . . . , v1,m2
zu einer Basis von Kern φ ergänzen.
Die Gesamtheit der Vektoren, die wir auf diese Weise erhalten haben, ist
linear unabhängig. Um das einzusehen, wendet man nacheinander φk , . . . , φ auf
eine Linearkombination dieser Vektoren an, die gleich 0 ist, und verwendet, dass
v1,1 , . . . , v1,m1 linear unabhängig sind.
Aufgrund dieser Konstruktion gilt für j = k, . . . , 1
mj = dim φj−1 (Kern φj ).
Andererseits gilt
Kern φj−1 ⊆ Kern φj .
Wendet man die Dimensionsformel auf φj−1 | Kern (φj ) an, so erhält man
mj = dim Kern φj − dim Kern φj−1 .
6.1. DEFINITION UND EIGENSCHAFTEN
229
Also
mk + . . . + m1 = dim Kern φk = dim V,
wie gewünscht.
Um die Eindeutigkeit der Darstellung zu beweisen, bemerken wir, dass die
Länge der Ketten durch die Dimensionen von Kern φj nach der obigen Formel
für die mj vorgegeben sind. Damit ist aber auch die Jordanmatrix bis auf die
2
Reihenfolge der Jordanblöcke eindeutig gegeben.
6.87. Bemerkung: Die Existenz lässt sich auch leichter beweisen. Gemäß
Satz 6.59 ist eine Matrix A ähnlich zu einer oberen Dreiecksmatrix R. Es ist nun
möglich, mit Hilfe von Elementarmatrizen E1 , . . . , Em die Matrix R zur einer
Jordanmatrix J umzuformen, so dass J und R mittels
−1
J = Em
. . . E1−1 AE1 . . . Em
ähnlich zueinander sind.
6.88. Beispiel: Für die Matrix

1
A = 0
0
multiplizieren wir die zweite Spalte mit
mit 2. Es entsteht die Matrix

1
A1 =  0
0
2
1
0

2
0
1
1/2 und entsprechend die zweite Zeile
1
1
0

2
0
1
Nun addieren wir das (−2)-fache der zweiten zur dritten Spalte und entsprechend das 2-fache der dritten zur zweiten Zeile. Wir erhalten die Jordanmatrix


1 1 0
A2 = 0 1 0
0 0 1
Der Basiswechsel wird in diesem Fall gegeben durch


1 0
0
E1 · E2 = 0 1/2 −1 .
0 0
1
Zur Berechnung muss man lediglich die verwendeten Spaltenoperationen an der
Einheitsmatrix ausführen. Die Spalten v1 , v2 , v3 dieser Matrix haben tatsächlich
die Eigenschaft
Av1 = v1 , Av2 = v2 + v1 , Av3 = v3 .
Man beachte, dass im Fall

1
A = 0
0
0
1
0

1
0
1
230
KAPITEL 6. EIGENWERTE
eine Vertauschung der ersten und zweiten Spalte zum Ziel führt.
6.89 Aufgabe: Finden Sie für die folgenden Matrizen Basen des R3 , so dass die
darstellenden Matrizen bezüglich dieser Basen Jordanmatrizen sind.






0 1 1
0 0 1
0 1 1
0 0 1 , 0 0 0 , 0 0 1 .
0 0 0
0 0 0
0 0 0
Führen Sie die Rechnung mit Hilfe von Elementarmatrizen und mit Hilfe des Algorithmus im obigen Beweis durch.
6.90 Aufgabe: Zeigen Sie, dass eine Matrix A genau dann diagonalisierbar ist, wenn
ihr charakteristisches Polynom in Linearfaktoren zerfällt, und das Minimalpolynom
jeden dieser Faktoren einfach enthält.
6.2
6.2.1
Anwendungen
Positiv definite Matrizen
Man kann positiv definite Matrizen auch über ihre Eigenwerte charakterisieren.
6.91 Satz:
Sei A ∈ Kn×n Hermitesch. Dann ist
λ = max
x6=0
xT Ax
= max xT Ax
xT x
kxk=1
gleich dem größten Eigenwert von A und
µ = min
x6=0
xT Ax
= min xT Ax.
xT x
kxk=1
gleich dem kleinsten Eigenwert von A. Folglich ist A genau dann positiv definit,
wenn alle Eigenwerte positiv sind.
Beweis: Nach Satz 6.64 gibt es eine orthogonale Matrix P und eine Diagonalmatrix D aus reellen Eigenwerten von A mit
A = P DP ∗ .
P T ist ebenfalls orthogonal und es gilt daher
λ := sup xT Ax = sup (P T x)T DP T x = sup xT Dx.
kxk=1
kxk=1
kxk=1
Es folgt
λ = sup{
n
X
λν x2ν :
Pn
ν=1
x2ν = 1},
ν=1
wobei λ1 ≤ . . . ≤ λn die Eigenwerte von A seien. Mit x = en erhält man λ ≥ λn .
Andererseits
n
n
X
X
λν x2ν ≤ λn
x2ν .
ν=1
ν=1
6.2. ANWENDUNGEN
231
Es folgt λ ≤ λn . Also, wie behauptet λ = λn . Außerdem ist das Supremum ein
Maximum. Analog beweist man die Behauptung für das Minimum. Die Eigenwert von vv ∗ sind 1 mit dem Eigenvektor v und gleich 0 mit dem Eigenraum
v ⊥ . Die Matrix vv ∗ ist die Matrix der orthogonalen Projektion auf den von v
2
erzeugten Unterraum.
6.92. Bemerkung: Aufgrund des Satzes von Hurwitz hat eine positiv definite Matrix eine positive Determinante. Dies steht im Einklang damit, dass die
Determinante das Produkt der Eigenwerte ist.
6.93. Beispiel: Matrizen der Form vv ∗ mit v ∈ Kn sind positiv semi-definit.
Es gilt nämlich
xT (vv ∗ )x = (xT v)(v T x) = |xT v|2 ≥ 0.
Dieser Sachverhalt folgt auch daraus, dass vv ∗ die Darstellende Matrix der senkrechten Projektion auf den von v erzeugten Unterraum ist. Übrigens gilt


|v1 |2 . . . v1 vn

..  .
vv ∗ =  ...
. 
vn v1
...
|vn |2
Dies steht im Einklang damit, dass die Diagonalelemente einer positiv semidefiniten Matrix nicht-negativ sein müssen.
6.94. Definition: Sei A Hermitesch, sowie n+ die Anzahl der positiven Eigenwerte von A einschließlich Vielfachheit gezählt, n− die Anzahl der negativen
Eigenwerte mit Vielfachheit, und n0 die Vielfachheit des Eigenwertes 0. Dann
heißt (n+ , n− , n0 ) die Signatur von A.
6.95. Bemerkung: Eine positiv definite Matrix A ∈ Kn×n hat also die Signatur
(n, 0, 0), eine negativ definite die Signatur (0, n, 0).
6.96. Bemerkung: Wir erinnern daran, dass jede darstellende Matrix eines
Skalarproduktes positiv definit ist. Man kann aber auch konjugiert symmetrische
Bilinearformen durch Matrizen darstellen. Also
hv, wi = λT M µ
wobei λ und µ die Darstellungen von v und w bezüglich einer Basis B =
(v1 , . . . , vn ) sind. Es gilt dann


hv1 , v1 i . . . hv1 , vn i


..
M =  ...

.
hvn , v1 i . . .
hvn , vn i
M ist dann Hermitesch. Es folgt, dass es für zwei darstellende Matrizen M und
M̃ desselben Skalarprodukts eine invertierbare Matrix S gibt, so dass
M̃ = SM S ∗
ist. Denn man kann S = E T setzen, wobie E die Matrix des Basiswechsels
ist. Der folgende Trägheitssatz von Sylvester besagt, dass man nicht alle
Matrizen auf diese Art ineinander tranformieren kann.
6.97 Satz: Die darstellenden Matrizen einer symmetrischen Bilinearform
haben alle dieselbe Signatur.
232
KAPITEL 6. EIGENWERTE
Beweis: Jede darstellende Matrix M ist Hermitesch und damit orthogonal
ähnlich zu einer Diagonalmatrix
M = P DP ∗
mit einer orthogonalen Matrix P . M und D haben dieselben Eigenwerte und
damit dieselbe Signatur. Nimmt man P T als Basiswechsel, so folgt, dass wir die
Behauptung nur für darstellende Matrizen zeigen müssen, die Diagonalmatrizen
sind.
Seien nun D und D̃ zwei solche darstellende Diagonalmatrizen mit Signaturen (n+ , n− , n0 ) und (ñ+ , ñ− , ñ0 ). Aus der Basis, die zu D gehört, erhält man
Unterräume U+ , U− , U0 mit
hv, vi > 0
für alle v ∈ U+ ,
hv, vi < 0
für alle v ∈ U− ,
hv, vi = 0
für alle v ∈ U0 ,
und
dim U+ = n+ ,
dim U− = n− , dim U0 = n0 ,
sowie
V = U+ ⊕ U− ⊕ U0 .
Analog seien Ũ+ , Ũ− , Ũ0 definiert. Aber auch U+ , Ũ− und Ũ0 schneiden sich
paarweise nur in der 0. Also gilt
dim V ≥ dim U+ + dim Ũ− + dim Ũ0 = dim U+ + dim V − dim Ũ+ .
Es folgt dim U+ ≤ dim Ũ+ . Analog gilt ≥, so dass n+ = ñ+ folgt. Ebenso beweist
2
man n− = ñ− , woraus dann n0 = ñ0 folgt.
Sie beweisen schießlich noch einen Darstellungssatz für positiv semi-definite
Matrizen. Er besagt, dass diese Matrizen als Summe von Projektionen darstellbar sind.
6.98 Satz: Eine Hermitesche Matrix A ∈ Kn×n ist genau dann positiv semidefinit, wenn sie als Summe
k
X
A=
vi vi∗
i=1
n
mit v1 , . . . , vk ∈ K darstellbar ist.
Beweis: Sei A positiv semi-definit. Dann existiert eine Orthogonalbasis
v1 . . . , vn
aus Eigenvektoren zu Eigenwerten
λ1 > 0,
...,
λk > 0,
λk+1 = . . . = λn = 0.
Wir können annehmen, dass
kvi k2 = λi
für alle i = 1, . . . , k
6.2. ANWENDUNGEN
233
gilt. Wir behaupten nun
A=
k
X
vi vi∗ .
i=1
Dazu berechnen wir für j = 1, . . . , k
!
k
k
X
X
∗
vi vi vj =
vi (vi∗ vj ) = kvj k2 vj = λj vj = Avj .
i=1
i=0
Analog für j = k + 1, . . . , n
k
X
!
vi vi∗
vj =
i=1
k
X
vi (vi∗ vj ) = 0 = Avj .
i=1
Es folgt die Behauptung. Sei umgekehrt x ∈ Kn . Dann gilt
!
k
k
X
X
T
∗
vi vi x =
|xT vi |2 ≥ 0.
x
i=1
i=1
2
6.99 Aufgabe: Zeigen Sie, dass
A=
k
X
vi vi∗
i=1
positiv definit ist, wenn v1 , . . . , vk ein Erzeugendensystem des Kn ist.
6.100 Satz: Seien A, B ∈ Kn×n positiv semi-definit. Dann ist auch die Matrix
C ∈ Kn×n semi-positiv mit
ci,j = ai,j bi,j .
Diese Matrix nennt man das Hadamard-Produkt von A und B.
Beweis: Seien A, B positiv semi-definit. Wir können dann
A=
k
X
vν vν∗ ,
ν=1
B=
l
X
wµ wµ∗ .
µ=1
schreiben. Es folgt
ai,j =
k
X
vν,i vν,j ,
bi,j =
l
X
wν,i wν,j .
µ=0
ν=1
Also
ci,j =
X
(vν,i wµ,i )(vν,j wµ,j ).
1≤ν,µ≤n
Also ist auch C Summe von kl positiv semi-definiten elementaren Matrizen, und
daher positiv semi-definit.
2
234
6.2.2
KAPITEL 6. EIGENWERTE
Quadriken
6.101. Definition: Eine Quadrik ist die Nullstellenmenge eine quadratischen
Funktion, also
X
X
Q := {x ∈ Rn :
ai,j xi xj +
bi xi = d}
i,j
i
mit Koeffizienten ai,j und bi in R.
6.102. Beispiel: Im R2 gibt es zwei Haupttypen von Quadriken, Ellipsen mit
Gleichung
y2
x2
+ 2 =1
2
a
b
und Hyperbeln mit Gleichung
x2
y2
− 2 = 1.
2
a
b
In Abbildung 6.1 ist die Ellipse und die Hyperbel für a = 3 und b = 2 zu
sehen. Beide Kurven gehen durch die Punkte (±a, 0). Die Ellipse geht auch
durch (0, ±b). Die Hyperbel hat die Asymptoten y = ±(b/a)x.
Die anderen Typen von Quadriken im R2 sind die Parabel und die Geraden
mit Gleichungen
y = ax2 , y = ax.
Außerdem gibt es parallele Geraden und gekreuzte Geraden mit den Gleichungen
y 2 = c > 0,
y 2 = x2 ,
sowie einzelne Punkte (x2 + y 2 = 0) und die leere Menge (x2 + y 2 = −1). Alle
diese Quadriken können affin abgebildet, also verschoben, verzerrt und gedreht
werden, und bleiben dabei Quadriken.
Ziel dieses Abschnittes ist es, die Quadriken systematisch in Typen zu ordnen. Jeder Typ ist eine Klasse von Quadriken, die affin ineinander transformiert
werden können.
6.103. Bemerkung: Eine Quadrik lässt als
Q = {x ∈ Rn : xT Ax + bT x = c}
schreiben, mit einer symmetrischen Matrix A ∈ Rn×n und b ∈ Rn , c ∈ R. Diese
Darstellung ist bis auf ein multiplikatives Vielfaches eindeutig.
6.104 Satz: Das Urbild eine Quadrik unter einer affinen Abbildung ist wieder
eine Quadrik. Das bijektive affine Bild einer Quadrik ist wieder eine Quadrik.
Beweis: Sei φ(x) = M x + d eine affine Abbildung, M ∈ K n×m Dann gilt
φ−1 (Q) = {x ∈ Rm : (M x + d)T A(M x + d) + bT (M x + d) = c}
= {x ∈ Rm : xT (M T AM )x + (dT AM + bT M )x = c − dT Ad − bT d}.
6.2. ANWENDUNGEN
235
Abbildung 6.1: Ellipse und Hyperbel
Dies ist wieder eine Quadrik. Es folgt leicht, dass das bijektive affine Bild einer
Quadrik wieder eine Quadrik ist.
2
6.105. Bemerkung: Für nicht-bijektive affine Abbildungen ist das Bild einer Quadrik im Allgemeinen keine Quadrik. So ist zum Beispiel das Bild der
Kugeloberfläche
S2 = {x ∈ R3 : xT x = kxk2 = 1}
unter der Projektion
 
x1
x2  7→ x1
x2
x3
der ausgefüllte Einheitskreis
D1 = {x ∈ R2 : kxk ≤ 1}.
Dies ist keine Quadrik.
6.106. Bemerkung: Sei F (x) = c die Gleichung einer Quadrik, also
Q = {x ∈ Rn : F (x) = c}.
Falls dann φ : Rm → Rn eine Abbildung ist, so ist
φ−1 (Q) = {y ∈ Rm : φ(y) ∈ Q}
= {y ∈ Rm : F (φ(y)) = c}
236
KAPITEL 6. EIGENWERTE
das Urbild von Q und die Gleichung von φ−1 (Q) lautet also einfach F (φ(y)) = c.
Sei nun ψ : Rn → Rn eine bijektive Abbildung, Dann gilt also (mit ψ −1 = φ)
ψ(Q) = {y ∈ Rn : F (ψ −1 (y)) = c}.
Die Gleichung für ψ(Q) ist also F (ψ −1 (y)) = 0.
6.107. Definition: Unter der Normalform einer Quadrik versteht man
Quadriken in Rn mit einer der folgenden Gleichungen
λ1 x21 + . . . + λn x2n = c,
λ1 x21 + . . . + λn−1 x2n−1 = cxn .
6.108 Aufgabe: Zeigen Sie, dass im R2 Quadriken vom Typ Ellipse, Hyperbel,
Parabel, gekreuzte und parallele Geraden unter den Normalformen vorkommen.
6.109. Definition: Die Hauptachsentransformation einer Quadrik ist die
Darstellung der Quadrik in Normalform. Das heißt, es wird eine Bewegung
φ(x) = M x + d, M orthogonal, angegeben, so dass das Bild der Quadrik eine Quadrik in Normalform ist. In diesem Fall nennt man
φ−1 (0) = −M −1 d
das Zentrum der Quadrik und φ−1 (ei ) die Hauptachsen der Quadrik.
6.110. Beispiel: Typische Normalformen im R3 sind die Quadriken mit der
Gleichung
λ1 x21 + λ2 x22 + λ3 x23 = c > 0.
Es enstehen Quadriken nach folgender Tabelle.
Ellipsoid,
einschaliges Hyperboloid,
zweischaliges Hyperboloid,
λ1 , λ2 , λ3 > 0,
λ1 , λ2 > 0, λ3 < 0,
λ1 > 0, λ2 , λ3 < 0.
Als Paraboloid bezeichnet man im R3 die Quadrik
x3 = ax21 + bx22
mit a, b > 0. Falls a > 0 und b < 0 ist, so entsteht eine Sattelfläche.
6.111 Aufgabe: Berechnen Sie die Schnitte der folgenden Normalformen mit der
Ebene z = c.
x2 + y 2 + z 2 = 1,
x2 + y 2 − z 2 = 1,
−x2 − y 2 + z 2 = 1.
6.112 Aufgabe: Berechnen Sie Gleichungen der Figuren, die enstehen, indem man
die Hyperbel y 2 − x2 = 1 um die x-Achse und die y-Achse dreht.
6.113 Aufgabe: Zeigen Sie dass die Ortslinie aller Punkte im R2 , so dass die Summe der Abstände zu zwei gegebenen Punkten konstant ist, eine Ellipse ist. Hinweis:
6.2. ANWENDUNGEN
237
Abbildung 6.2: Ellipsoid, ein- und zweischaliges Hyperboloid, Paraboloid
Reduzieren Sie das Problem auf den Fall P1,2 = (±1, 0) und leiten Sie in diesem Fall
die Gleichung der Ellipse her.
6.114 Aufgabe: Zeichnen Sie den Kegel
z 2 = x2 + y 2
im R3 . Geben Sie die Gleichung des um den Winkel φ um die x − Achse gedrehten
Kegels an. Geben Sie die Gleichung des Schnittes dieses gedrehten Kegels mit der
Ebenen z = c an. Zeigen Sie, dass als Schnitt eine Ellipse, eine Hyperbel und eine
Parabel vorkommen kann. Auf diesem Sachverhalt beruht der Name Kegelschnitte
für Quadriken im R2 .
6.115 Aufgabe: Geben Sie die Gleichung für einen Kreiszylinder mit Achse in der
z-Achse an. Drehen Sie diesen Zylinder um die x-Achse um einen Winkel 0 ≤ φ < π/2
und zeigen Sie, dass der Schnitt mit der Ebene z = 0 eine Ellipse ist.
6.116 Satz: Jede Quadrik kann durch eine Hauptachsentransformation in
Normalform gebracht werden.
Beweis: Wir starten mit einer Quadrik Q mit Gleichung
xT Ax + bT x = c.
238
KAPITEL 6. EIGENWERTE
Da A symmetrisch ist, existiert eine orthogonale Matrix M̃ , so dass
A = M̃ DM̃ T
ist. Dann hat M̃ T Q die Gleichung
(M̃ x)T A(M̃ x) + bT M̃ x = xT Dx + (M̃ T b)T x = c.
Man ersetzt nämlich x durch M̃ x in der Gleichung von Q. Mit b̃ = M̃ b, besagt
diese Gleichung
λ1 x21 + . . . + λn x2n + b̃1 x1 + . . . + b̃n xn = c.
Dabei seien λ1 , . . . , λn die Diagonalelemente von D, also die Eigenwerte von A.
Wir können außerdem annehmen, dass
λ1 6= 0, . . . , λk 6= 0, λk+1 = . . . = λn = 0.
gilt.
˜ das heißt wir ermitteln die
Im zweiten Schritt ersetzen wir x durch x + d,
T
˜
Gleichung der Quadrik M̃ Q − d. Man erhält
λ1 x21 + . . . + λn x2n + (b̃1 + 2λ1 d˜1 )x1 + . . . + (b̃n + 2λn d˜n )xn
= c − λ1 d˜2 − . . . − λn d˜2 .
1
n
Wählt man
d˜i =


−

0,
b̃i
,
2λi
i = 1, . . . , k,
sonst,
so erhält man eine Darstellung der Form
λ1 x21 + . . . + λk x2k + hk+1 xk+1 + . . . + hn xn = c̃.
Falls k = n ist oder hk+1 = . . . = hn = 0, so sind wir nun fertig. Das
Zentrum von M̃ T Q − d˜ ist 0. Das Urbild dieses Punktes ist das Zentrum von Q,
also
˜
z = M̃ d.
Die Spalten von M̃ sind die Richtungen der Hauptachsen von Q. Im Fall von
positiven Eigenwerten sind
r
r
c̃
c̃
,...,
λ1
λn
die Längen der Hauptachsen der Ellipse.
Andernfalls gibt es eine orthogonale Matrix H̃ ∈ Rn−k×n−k , so dass




0
hk+1
 . 
 ..   .. 
H̃  .  = 

 0 
hn
khk
6.2. ANWENDUNGEN
239
Wir setzen
H=
Ik
0
0
.
H̃
˜
Man erhält als Gleichung für die Quadrik H(M̃ T Q − d)
c̃ = (H T x)T DH T x + (H T x)T h = xT Dx + khkxn
= λ1 x21 + . . . + λk x2k + khkxn .
Um die Konstante c̃ zu entfernen und die endgültige Darstellung zu erhalten,
ersetzen wir x durch x + αen mit α = −c̃/khk. Die Gleichung der Quadrik
˜ − αen
Q̃ = H(M̃ T Q − d)
2
hat schließlich die gewünschte Normalform.
6.117. Beispiel: Wir betrachten die Quadrik mit der Gleichung
x2 + xy + y 2 + x = 1.
In Matrixschreibweise ist dies die Gleichung
1
1/2
x
x y
+ 1
1/2
1
y
x
0
= 1.
y
Die Eigenwerte der Matrix A sind hier 1/2 und 3/2. Da diese Eigenwerte positiv
sind, kann man bereits schließen, dass Q eine Ellipse ist. Die orthogonale Matrix
M̃ wird
1
1 1
M̃ = √
2 −1 1
Dies ist eine Drehung um −π/4. Als Gleichung der um π/4 gedrehten Quadrik
M̃ T Q erhalten wir daher
x2
3y 2
1
+
+ √ (x + y) = 1.
2
2
2
Nun ersetzen wir
1
x→x− √ ,
2
wählen also
1
y→y− √ ,
3 2
 −1 
√


d˜ =  −12 
√
3 2
und erhalten die Gleichung
x2
3y 2
1
1
1 1
1
+
=1− −
− √ ( √ + √ = 1.
2
2
4 12
2 2 3 2
Dabei haben wir die Ellipse verschoben. Das Zentrum der Ellipse liegt also bei
−2/3
˜
z = M̃ d =
1/3
240
KAPITEL 6. EIGENWERTE
Die Hauptachsen gehen in die Richtungen
1
1
,
−1
1
und haben die Längen
√
r
2,
2
.
3
In Abbildung 6.3 ist Q mit seinem Zentrum, die gedrehte Quadrik M̃ T Q und
die ins Zentrum verschobene Quadrik zu sehen.
Abbildung 6.3: Q mit Zentrum, Q gedreht und verschoben
6.118. Beispiel: Die Quadrik mit der Gleichung xy = 1 stellt sich als um π/4
gedrehte Hyperbel heraus, die in Normalform die Gleichung
y 2 − x2 = 1
hat. Die Hauptachsen sind die Halbierenden der Quadranten.
6.119. Beispiel: Die Quadrik mit der Gleichung
x2 − 2xy + y 2 − x − y = 0
6.2. ANWENDUNGEN
241
stellt sich als um π/4 gedrehte Parabel heraus.
6.120 Aufgabe: Berechnen Sie die Länge der Hauptachsen des Ellipoids
x2 + y 2 + z 2 + xy + yz = 1.
6.121 Aufgabe: Berechnen Sie die Hauptachsen und deren Länge des Bildes des
Einheitskreises unter der Scherung
x+y
x
=
φ
y
y
Zeichnen Sie diese Ellipse.
6.122 Aufgabe: Zeigen Sie: Eine Quadrik mit der Gleichung
xT Ax + bT x = c
mit A ∈ Rn×n , b ∈ Rn , c ∈ R ist genau dann beschränkt in Rn , wenn A positiv definit
ist.
6.2.3
Singulärwerte
6.123 Satz: Sei A ∈ Rn×m , n ≥ m. Dann
k ≤ m, mit orthonormalen Spalten und eine
sowie eine Diagonalmatrix

d1

..
E=
.
0
existiert eine Matrix O ∈ Rn×k ,
orthogonale Matrix V ∈ Rm×m


k×m
∈R
dk
mit d1 , . . . , dk > 0, so dass
A = OEV T
ist.
6.124. Bemerkung: Man kann D durch Nullelemente auch zu einer Matrix
Ẽ ∈ Rn×m ergänzen, sowie O zu einer orthogonalen Matrix Õ ∈ Rn×n , so dass
A = ÕẼV T
gilt. Diese Darstellung ist ebenfalls üblich. Man nennt die durch 0 ergänzten
Elemente d1 , . . . , dm die Singulärwerte von A.
6.125. Bemerkung: Offenbar spielen vk+1 , . . . , vm keine Rolle. Reduziert man
V auf diese Weise auf Ṽ ∈ Rm×k , so gilt also
A = ODṼ T
wobei D die Diagonalmatrix mit den Diagonalelementen d1 , . . . , dk > 0 ist, sowie
Ṽ eine Matrix mit orthonormalen Spalten.
Beweis: Die Matrix AT A ist symmetrisch und positiv semi-definit. Sie lässt
sich daher in der Form
AT A = V LV T
242
KAPITEL 6. EIGENWERTE
schreiben mit einer unitären Matrix V ∈ Rm×m und einer Diagonalmatrix L ∈
Rm×m mit den Eigenwerten λ1 , . . . , λm von AT A in der Diagonalen. Sei
λ1 6= 0, . . . , λk 6= 0, λk+1 = . . . = λm = 0.
Wir setzen
 1
√
 λ1




Ẽ = 






..
.
0




1 
m×k
,
√ 
∈R
λk 



√

λ1

E=
..
.
√
0

k×m
,
∈R
λk
sowie
O = AV Ẽ ∈ Rn×k .
Dann gilt
OT O = Ẽ T V T AT AV Ẽ
= Ẽ T LẼ
= Ik .
Die k Spalten von O bilden also ein Orthonormalsystem. Wir zeigen nun
A = OEV T
Dazu multiplizieren wir die Gleichung mit den Spalten v1 , . . . , vm von V . Für
i = 1, . . . , k gilt
OEV T vi = AV ẼEV T vi
Ik 0
= AV
V T vi
0 0
= AV ei
= Avi .
Für i = k + 1, . . . , m ist vi ∈ Kern AT A = Kern A. Man erhält in der Tat wie
oben
OEV T vi = 0 = Avi .
2
6.126. Bemerkung: Es gibt Softwareroutinen, die sehr stabil die Singulärwertzerlegung von Matrizen A berechnen, ohne die instabile Matrix AT A zu
verwenden. Wir halten aber fest, dass die Singulärwerte die Wurzeln aus den
Eigenwerten von AT A sind, sowie V aus zugehörigen Eigenvektoren besteht.
6.127. Bemerkung: Hat man die Singulärwertzerlegung, so kann man sehr
leicht ein Orthonormalsystem des Bildes und des Kerns berechnen. Denn
Kern A = Kern AT A = span {vk+1 , . . . , vm }.
6.2. ANWENDUNGEN
243
Folglich wird das Bild von A von den Bildern von v1 , . . . , vi erzeugt.
Bild A = span {Av1 , . . . , Avk }.
Es gilt aber für i = 1, . . . , k
Avi = OEV T vi = di oi
so dass in der Tat
Bild A = span {o1 , . . . , ok }.
6.128. Bemerkung: Auch das Ausgleichsproblem
min kAx − bk
x∈Rm
lässt sich mit einer Singulärwertzerlegung sehr leicht lösen. Mit y = EV T x hat
man das Minimum von
n
X
Oy − b =
y i oi − b
i=0
zu finden. Die eindeutige Lösung ist einfach eine orthogonale Projektion.
n
X
hb, oi ioi ,
i=0
also
y = OT b.
Es folgt
x = V ẼOT b
mit. Man bezeichnet die Matrix
V ẼOT ∈ Am×n
als Pseudoinverse von A.
6.129 Aufgabe: Zeigen Sie, dass auf diese Weise unter allen x, die kAx − bk minimieren, dasjenige mit minimaler Norm gewählt wird.
6.130 Satz: Seien y1 , . . . , ym ∈ Rn . Für einen affinen Unterraum E des Rn
definieren wir
m
X
s(E) :=
d(yν , E)2
ν=1
Setzt man
m
a :=
1 X
yν
m ν=1
und definiert mit der Singulärwertzerlegung


(y1 − a)T


..
T
A := 
 = ÕẼV ,
.
(ym − a)T
244
KAPITEL 6. EIGENWERTE
mit Singulärwerten
|d1 | ≥ |d2 | ≥ . . . ≥ |dk | > dk+1 = . . . = dn = 0
den Unterraum
U = span {v1 , . . . , vl }
Dann wird s(E) für dieses E = a + U unter allen l-dimensinalen Unterräumen
des Rn minimal.
Beweis: Wir zeigen zunächst, dass s(E) bei festem U für unser gewähltes a
minimal wird. Es gilt
s(E) =
m
X
kπU ⊥ (yν − a)k2 =
ν=1
m
X
kπU ⊥ (yν ) − πU ⊥ (a)k2 ,
ν=1
wobei πU ⊥ die Projektion auf U ⊥ bezeichne. Wir minimieren mit ỹν = πU ⊥ (yν )
m
X
kỹν − ãk2
ν=1
für ã ∈ U . Setzt man
m
w=
1 X
yν
m ν=1
so erhält man
m
X
kỹν − ãk2 =
ν=1
=
m
X
(kỹν − wk2 − 2hyν − w, w − ãi + kw − ãk2 )
ν=1
m
X
!
kỹν − wk2
+ mkw − ãk2 .
ν=1
Daher wird dieser Ausdruck für ã = w minimal. Setzt man a ∈ V wie behauptet
an, so folgt, dass s(E) minimal für dieses a ist.
Nun fixieren wir unser a und suchen U , so dass s(E) minimal wird. Wir
können o.B.d.A. a = 0 annehmen. Gesucht ist dann eine Orthonormalbasis
w1 , . . . , w n
von Rn , so dass
s(U ) =
m
X
d(yν , U )2
ν=1
für U = span {w1 , . . . , wl } minimal wird. Es gilt
2
2
d(yν , U ) = kπU ⊥ (yν )k =
n
X
hyν , wµ i2
µ=l+1
für alle ν = 1, . . . , m. Also ist s(U ) die Summe der Quadrate der Elemente in
den letzten n − l Spalten von AW . Setzt man
B = (AW )T (AW ),
6.2. ANWENDUNGEN
245
so ist
S(U ) =
n
X
|bµ,µ |2 .
µ=l+1
Man berechnet
B = W T V Ẽ T ẼV T W,
und Ẽ T Ẽ ist die Diagonalmatrix D ∈ Rn×n mit den Elementen
d21 ≥ . . . ≥ d2k > d2k+1 = . . . = d2n = 0.
in der Diagonalen. Wir suchen also eine orthogonale Matrix W̃ , so dass für
B = W̃ T DW̃
die Summe
S(W̃ ) :=
n
X
|bµ,µ |2 =
n
n
X
X
2
d2ν w̃ν,µ
=
µ=l+1 ν=1
µ=l+1
n
X
d2ν
ν=1
n
X
2
w̃ν,µ
µ=l+1
minimal wird. Da auch die Zeilen von W̃ ein Orthonormalsystem bilden, muss
gelten
n
X
2
0 ≤ sν :=
w̃ν,µ
≤1
µ=l+1
Außerdem
n
X
ν=l
sν =
n
n
X
X
2
w̃ν,µ
=
ν=l µ=l+1
n
n
X
X
2
w̃ν,µ
= (n − l).
µ=l+1 ν=l
Es folgt, dass S(W̃ ) sicher minimal wird, wenn man
s1 = . . . = sl = 0,
sl+1 = . . . = sn = 1
erreichen kann. Dies ist in der Tat möglich, wenn W̃ = In ist. Aber V T W = In
2
ist gleichbedeutend mit W = V . Daraus folgt die Behauptung.
6.131. Bemerkung: Man kann das Problem also lösen, indem man eine Orthonormalbasis aus Eigenvektoren zu den l größten Eigenwerten λ1 , . . . , λl von
AT A bestimmt, nachdem man a als Mittelwert der yν berechnet hat. Für den
Abstand hat man dann
m
X
ν=1
6.2.4
d(yµ , a + U ) =
n
X
λ2µ .
µ=l+1
Drehungen
6.132 Aufgabe: Zeigen Sie, dass die Eigenwerte einer unitären Matrix sowie deren
Determinante den Betrag 1 haben.
6.133 Aufgabe: (a) Berechnen Sie die komplexen Eigenwerte und Eigenvektoren der
Drehung
cos α − sin α
Dα =
.
sin α
cos α
246
KAPITEL 6. EIGENWERTE
Welche Drehmatrizen sind also reell diagonalisierbar?
(b) Zeigen Sie umgekehrt, dass jede Matrix A ∈ R2×2 mit zwei komplex konjugierten,
nicht reellen Eigenwerten vom Betrag 1 eine Drehmatrix ist.
6.134 Aufgabe: Zeigen Sie, dass jede orthogonale Matrix A ∈ R2×2 mit Determinante −1 eine Spiegelung an einer Geraden ist.
Zur Vorbereitung des Beweises des folgenden Satzes benötigen wir zwei Sachverhalte, die wir als Aufgaben stellen.
6.135 Aufgabe: Für jede unitäre Abbildung φ : Cn → Cn und jeden Unterraum
U ⊆ Cn mit φ(U ) ⊆ U gilt
φ(U ⊥ ) = U ⊥ .
6.136 Satz: Jede unitäre Matrix ist diagonalisierbar mit einer Orthonormalbasis aus Eigenvektoren. Für jede reelle orthogonale Abbildung gibt es eine
Orthonormalbasis, für die die darstellende Matrix die Form

−1

















..
















.
−1
1
..
.
1
Dα1
..
.
Dαk
hat, wobei die Matrizen Dαν Drehmatrizen sind.
Beweis: Wenn v1 , . . . , vk Eigenvektoren sind, so wird der von diesem Vektoren aufgespannte Raum in sich selbst abgebildet. Aufgrund der obigen Aufgabe
kann man wie im Beweis von Satz 6.64 argumentieren und findet eine Orthonormalbasis aus Eigenvektoren.
Im reellen Fall behandelt man einen komplexen Eigenwert nach dem anderen
per Induktion. Die reellen Eigenwerte ±1 und wir finden eine Orthonormalbasis
von der Summe dieser Eigenräume. Sei nun λ ein komplexer Eigenwert mit
komplexem Eigenvektor v. Dann gilt
Av = Av = lv.
Wir betrachten
W = span {Re v, Im v} ⊆ Rn .
Da v und v als Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig
sind, folgt dim W = 2. Man zeigt auch leicht, dass W in sich selber abgebildet
wird. Wählt man eine Orthonormalbasis von v1 , v2 von W , so hat die darstellende Matrix von φA die Gestalt einer Drehmatrix.
2
6.2. ANWENDUNGEN
247
6.137. Bemerkung: Da man offensichtlich zwei Eigenwerte 1 bzw. zwei Eigenwerte −1 als Drehungen um 0 bzw. π zusammenfassen kann, kann man den Satz
auch anders formulieren. Außer den Drehmatrizen kommen dann höchstens eine
isolierte 1 und eine −1 vor. Falls beide Vorkommen, so hat man in der Ebenen
dieser beiden Eigenvektoren eine Spiegelung.
6.138. Beispiel: Sei φ : R3 → R3 orthogonal. Falls φ nur reelle Eigenwerte hat,
dann kann der Eigenwert −1 einmal, zweimal oder dreimal vorkommen. φ ist
dann die Identität, die Spiegelung an einer Ebene oder die Spiegelung an einer
Gerade. Der letzte Fall ist identisch mit einer Drehung um eine Achse um den
Winkel π.
Falls aber φ einen komplexen, nicht reellen Eigenwert hat, so kann der zusätzliche reelle Eigenwert noch ±1 sein. φ ist also eine Drehung um eine Achse oder
eine Drehung um eine Achse mit zusätzlicher Spiegelung an der senkrechten
Ebene.
6.2.5
Differenzengleichungen
6.139. Beispiel: Das bekannteste Beispiel für eine Differenzengleichung ist die
Fibonacci-Folge, die durch
a0 = 0,
a1 = 1,
an+1 = an + an−1
für alle n ∈ N rekursiv definiert ist. Macht man hier den Ansatz an = λn ,
so erhält man aus der Rekursionsgleichung nach dem Kürzen durch λn−1 die
charakteristische Gleichung
λ2 = λ + 1,
also
√
1± 5
.
λ1,2 =
2
Betrachtet man alle Folgen, die die Rekursionsgleichung erfüllen, so sieht man,
dass diese Menge einen Unterraum des Folgenraums bildet. Daher lösen auch
Linearkombinationen der beiden gefundenen Lösungen (λn1 )n∈N und (λn2 )n∈N die
Rekursionsgleichung und man erhält für gegebene c1 , c2 ∈ R die Lösungen
an = c1 λn1 + c2 λn2
Wir werden später zeigen, dass dies in der Tat alle Lösungen der Differenzengleichung sind. Die Konstanten c1 , c2 ∈ R müssen so bestimmt werden, dass die
Anfangswerte a0 = a1 = 1 erfüllt sind. Also müssen die Gleichungen
c1 + c2 = 0,
c1 λ1 + c2 λ2 = 1
erfüllt sein. Man erhält
1
an = √
5
√ !n
1+ 5
1
−√
2
5
√ !n
1− 5
.
2
248
KAPITEL 6. EIGENWERTE
In der Tat gilt wegen |λ2 | < 1
an = round
√ !n !
1+ 5
,
2
1
√
5
wobei round die Rundung auf die nächstgelegene ganze Zahl bedeutet. Natürlich
gilt für das Wachstumsverhalten
√
1+ 5
1/n
lim an =
.
n→∞
2
6.140. Beispiel: Die Rekursionsgleichung
an+1 = 2an − an−1
führt auf die charakteristische Gleichung λ2 −2λ+1 = 0 mit doppelter Nullstelle
1. Die Lösung an = 1n = 1 genügt aber nicht, um alle Anfangswerte sicher zu
stellen. Es stellt sich heraus, dass auch an = n eine Lösung ist. Alle Folgen
haben die Form
an = c1 + c2 n.
6.141. Beispiel: Die Rekursionsgleichung
an+1 = −an−1
führt mit der charakteristischen Gleichung λ2 + 1 = 0 auf die komplexe Lösung
an = c1 in + c2 (−i)n .
Da wir an komplexen Lösungen nicht interessiert sind, müssen c1 , c2 so gewählt
werden, dass an ∈ R wird. Wegen der Rekursionsgleichung genügt es dazu,
a0 , a1 ∈ R zu haben, also
c1 + c2 ∈ R,
(c1 − c2 )i ∈ R.
Dies ist genau dann der Fall, wenn
c1 = a + ib,
c2 = a − ib,
also c1 = c2 ist mit a, b ∈ R. Man überlegt sich, dass dann
an = d1 sin(nπ/2) + d2 cos(nπ/2)
mit d1 , d2 ∈ R gilt.
6.142 Aufgabe: Berechnen Sie den Realteil der Folge c1 in + c2 (−i)n mit c1 = c2
und zeigen Sie, dass diese Folge tatsächlich von der obigen Form ist.
Der Ansatz an = λn liefert nicht immer alle Folgen, die der Rekursionsgleichung genügen. Zum einen kann es komplexe Lösungen λ geben, zum anderen
muss man bei doppelten Nullstellen zusätzliche Lösungen nehmen. Die folgenden
Sätze beschreiben die Lösungen der Differenzengleichungen vollständig.
6.143 Satz:
Sei (an )n∈N0 eine Folge in K, die die Rekursionsgleichung
an = α1 an−1 + . . . + αk an−k
6.2. ANWENDUNGEN
249
für n ≥ k erfüllt mit α1 , . . . , αk ∈ K, αk 6= 0. Dann ist die Folge (an )n∈N0
Linearkombination der Folgen
(ns λnν )n∈N0 ,
1 ≤ ν ≤ k,
0 ≤ s < mν ,
wobei λ1 , . . . , λk ∈ C die Nullstellen des charakteristischen Polynoms
χ(λ) = λn − α1 λn−1 − . . . − αk
sind und mν die Vielfachheit der Nullstelle λν ist. Im Fall K = R und
λν = |λν |eiαν ∈ C \ R
ersetzt man die Folgen
n
(ns λnν )n∈N0 , (ns λν )n∈N0
durch die reellen Folgen
(ns |λν |n cos(nαν ))n∈N0 , (ns |λν |n sin(nαν ))n∈N0
Beweis: Sei zunächst K = C. Sei L = A(N0 , C) der Raum der Folgen auf
C, und U ⊂ V der Unterraum der Folgen, die die Rekursionsgleichung erfüllen.
Wir betrachten die Abbildung φ : Cn → L, die den Anfangswerten a0 , . . . , an−1
die Folge zuordnet, die der Rekursionsgleichung genügt und mit diesen Anfangswerten beginnt, also
φ(a0 , . . . , an−1 ) = (a0 , . . . , an−1 , an , . . .) ∈ U.
Es ist klar, dass φ linear ist und injektiv, und dass
U = φ(Cn )
ist. Es folgt dim U = n. Wir haben aber im Satz genau n Folgen angegeben, die
U aufspannen sollen. Es genügt daher zu zeigen, dass diese Folgen in U liegen
und linear unabhängig sind.
Anstatt dies direkt nachzurechnen, gehen wir einen anderen Weg. Wir setzen
den Shift-Operator D aus Beispiel 6.80 in χ ein. Dann gilt für das k-te Element
bk von D((an )n∈N )
bk = ak+n − α1 ak+n−1 − . . . − αk ak .
Für Folgen a ∈ U muss daher χ(D)(a) = 0 sein. Es gilt also
U = Kern χ(D).
Wir haben
χ(D) = (D − λ1 In )m1 · . . . · (D − λk In )mk .
Aufgrund von Aufgabe 6.86 gilt
U = Kern (D − λ1 id)m1 ⊕ . . . ⊕ Kern (D − λk id)mk .
250
KAPITEL 6. EIGENWERTE
Wir brauchen also nur nachzurechnen, dass für ν = 1, . . . , k die Folgen
aν,0 = (λnν )n∈N0 , . . . , aν,mν −1 = (nmν −1 λnν )n∈N0
in Kern (D − λν )mν liegen und linear unabhängig sind.
Falls die Folgen linear abhängig wären, so gäbe es wegen λν 6= 0 Koeffizienten
β0 , . . . , βmν −1 mit
β0 + β1 n + . . . + βmν −1 nmν −1 = 0
für alle n ∈ N0
Das ist aber nicht möglich, weil Polynome nur endlich viele Nullstellen haben
können.
Man berechnet für s ≥ 1
(n + 1)s λn+1
− λν (ns λnν ) = λν ((n + 1)s − ns )λnν .
ν
Es folgt für s ≥ 1
(D − λν id)(aν,s ) =
s−1
X
λν
µ=0
n
aν,µ ∈ span {aν,0 , . . . , aν,s−1 }.
µ
Für s = 0 gilt
(D − λν id)(aν,0 ) = 0.
Es folgt induktiv für 0 ≤ s < mν
aν,s ∈ Kern (D − λν id)s+1 .
und damit die Behauptung.
Sei nun K = R. Dann finden wir Folgen wie im Fall K = C. Für komplexe,
nicht reelle Nullstellen λν beachten wir, dass der von
n
(ns λnν )n∈N0 , (ns λν )n∈N0
aufgespannte Raum gleich dem von
(ns |λν |n cos(nαν ))n∈N0 , (ns |λν |n sin(nαν ))n∈N0
aufgespannten Raum im komplexen Folgenraum ist. Wir verlieren also durch
2
diese Ersetzung keine Lösungen der Rekursionsgleichung.
6.144 Aufgabe: Schreiben Sie |λ|n cos(nα) und |λ|n sin(nα) als Linearkombination
n
von λn und λ und umgekehrt.
Index
Äquivalenzrelation, 138
ähnlich, 131
Abbildung, 32
Abbildungsraum, 66
Abstraktion, 12
abzählbar, 52
adjungierte Abbildung, 173
adjungierte Matrix, 148
affine Abbildung, 133
affiner Unterraum, 82
Affinkombination, 85
algebraische Vielfachheit, 216
alternierende Multilinearform, 183
assoziative Algebra, 100
Assoziativgesetz, 14
aufgespannter Unterraum, 68
Aufzählung, 28
Ausdividieren, 204
Ausgleichsrechnung, 174
Aussonderung, 27
Austauschsatz, 77
Auswahlaxiom, 55
Auswertungsabbildung, 204
Cramersche Regel, 191
darstellende Matrix, 103
Definitionsbereich, 34
Determinantenform, 185
diagonalisierbar, 212
Dimension, 75
Dimensionsformel, 97
Direkte Summe, 80
disjunkt, 48
disjunkt (disjoint), 30
Distributivgesetz, 58
Dreiecksungleichung, 150
duale Abbildung, 143
duale Basis, 142
Dualraum, 141
baryzentrische Koordinaten, 85
Basis, 71
Basiswechsel, 126
Besselsche Ungleichung, 159
Bewegung, 170
bijektiv, 35
Bild, 37, 95
Bildbereich, 34
Bilinearform, 146
Binomialkoeffizient, 50
Blockdiagonalmatrizen, 190
Boolesche Aussagen, 16
Eigenraum, 211
Eigenvektor, 208
Eigenwert, 208
Einheitskugeln, 153
Einheitsmatrix, 104
Einheitsvektoren, 75
Einschränkung, 34
Element, 25
Elementarmatrizen, 122
elementweise, 108
Ellipsen, 234
endlich, 47
endlich-dimensional, 75
Endomorphismus, 100
Entwicklungssatz von Laplace, 189
Erzeugendensystem, 71
erzeugter affiner Unterraum, 84
Euklidscher Algorithmus, 206
Euklidscher Vektorraum, 146
Euklidsches Skalarprodukt, 146, 147
Cantorsches Diagonalargument, 54
charakteristische Gleichung, 247
charakteristisches Polynom, 209
Fakultät, 46
Fallunterscheidung, 23
Fixpunktmenge, 135
251
252
Folge, 45
Fortsetzung, 35
Funktion, 34
Funktional, 94
Funktionenalgebra, 67
Gauß-Algorithmus, 112
geometrische Vielfachheit, 216
Gerade, 85
gleichmächtig, 54
größter gemeinsamer Teiler, 207
Grad, 203
Gram-Schmidt, 156
Graph, 34
Gruppe, 14
Gruppe der Ismorphismen, 101
Hadamard-Produkt, 233
Halbgruppe, 41
Hauptachsen der Quadrik, 236
Hauptachsentransformation, 236
Hauptsatz der Algebra, 207
Hermitesche Form, 146
Hermitesche Matrix, 148
Hilbertmatrix, 149
homogenens Gleichungssystem, 112
Hurwitz-Kriterium, 195
Hyperbeln, 234
Hyperebene, 131
identische Abbildung, 40
Imaginärteil, 62
indefinit, 197
Induktionsanfang, 43
Induktionsschritt, 43
induktive Menge, 42
injektiv, 35
Interpolation, 137
inverses Element, 14
invertierbare Matrix, 107
irreduzibel, 205
isomorph, 99
Isomorphismus, 99
Jordanblock, 222
Jordanmatrix, 225
Körper, 58
kanonische Basis, 75
kanonisches Skalarprodukt, 147
Kegelschnitte, 237
INDEX
Kern, 95
Klassenaufteilung, 50
Kombinatorik, 49
Kommutativgesetz, 14
kommutierendes Diagramm, 126
Komplexe Zahlen, 61
Konklusion, 16
konstruktiver Beweis, 23
konvex, 89
konvexe Hülle, 89
Konvexkombination, 90
Koordinatensystem, 34
Kreuzprodukt, 32, 193
Kronecker-Symbol, 142
L1 -Norm, 154
L2 -Norm, 154
L∞ -Norm, 154
Lösungsmenge, 112
Leibnitz-Formel, 186
linear, 93
linear unabhängig, 71
lineare Regression, 176
linearer Operator, 100
lineares Gleichungssystem, 112
Linearkombination, 69
Mächtigkeit, 48
Matrix, 101
Matrix des Skalarproduktes, 147
Maximumsnorm, 153
Menge, 25
Menge aller Abbildungen, 41
Mengenlehre, 26
Mengensysteme, 31
Metrik, 150
minimale induktive Menge, 42
Minimalpolynom, 223
Monomorphismus, 100
Multilinearform, 183
naive Mengenlehre, 25
negativ definit, 196
neutrales Element, 14
Norm, 150
Normalform einer Quadrik, 236
Normalgleichung, 175
normierter Vektorraum, 150
Nullraum, 65
Nullstelle, 204
INDEX
nullteilerfrei, 203
Operator, 34
orthogonale Abbildung, 167
orthogonale Matrix, 169
orthogonale Projektion, 164
Orthogonalsystem, 156
Orthonormalbasis, 156
Orthonormalsystem, 156
Paar, 32
parallel, 85
Parallelogrammgleichung, 153
Parametrisierung, 112
Parsevalsche Gleichung, 159
Peano-Axiome, 41
Permutation, 41, 49
Polynom, 203
positiv definite Matrix, 148
positiv semi-definit, 148
Prämissen, 16
Produktschreibweise, 46
Projektion, 136
Pseudoinverse, 243
punktweise, 66
quadratische Matrix, 107
Quadrik, 234
Quotientenraum, 138
Rang, 120
rationale Funktion, 207
Realteil, 62
Regel von Sarrus, 180
reguläre Matrix, 107
rekursiv, 45
Relation, 32
Restklassenkörper, 60
Rieszscher Darstellungssatz, 172
Ring, 203
Russelsches Paradoxon, 26
Satz von Ceva, 198
Schauder-Basis, 160
Schnitt, 29
Schwarzsche Ungleichung, 152
selbstadjungiert, 174
selbstadjungierte Matrix, 148
semidefinite Matrix, 197
senkrecht, 155
Shift-Operator, 225
253
Signatur, 231
Signum, 180
simultan, 121
Singulärwerte, 241
Skalarprodukt, 145
Skalarproduktraum, 146
Spaltenrang, 120
spezielle Lösung, 112
Spiegelung, 135
Spur, 210
stochastische, 215
Strecke, 88
Summe der Unterräume, 80
Summenschreibweise, 46
surjektiv, 35
Tautologien, 17
Teilmenge, 27
Trägheitssatz von Sylvester, 231
transponierte Matrix, 110
Tupel, 51
Umkehrabbildung, 35
unendlicher Abstieg, 45
unitäre Matrix, 169
unitärer Raum, 146
Unterraum, 67
Urbild, 35, 37
Vektorraum, 63
Venn-Diagramm, 29
Vereinigung, 28
Verkettung, 40
vollständige Induktion, 43
Wahrheitstafeln, 17
Zeilenrang, 120
Zeilenstufenform, 113
Zentrum der Quadrik, 236
zerfällt, 205
zugehörige Norm, 151
zulässige Zeilenoperation, 113
Herunterladen